11.06.2008, 15:07
Hallo,
gibt es in LV8.5 eine Zielwertsuche bzw. einen Optimieralgorithmus?
Es handelt sich um ein LTI-System. Das Ausgangssignal y(t) ergibt sich aus der Faltung (Convolution) des Eingangssignals x(t) mit der Übertragungsfunktion h(t) des Systems. x(t) und y(t) werden gemessen, h(t) muss daraus berechnet werden. Eine direkte Entfaltung (Deconvolution) ist zwar mathematisch möglich, das Ergebnis jedoch physikalisch völlig unbrauchbar. Ebenso eine Lösung im Fourierbereich. Darum habe ich ein physikalisches Modell für h(t) angenommen, welches sich aus einer verketteten e-Funktion mit 3 Parametern zusammensetzt. Die 3 Parameter der Modellfunktion müssen nun so variiert werden, dass die Faltung des gemessenen Eingangssignals x(t) mit dem Modell dem gemessenen Ausgangssignal y(t) entspricht bzw. dem nahe kommt (Fehlerquadratsumme von x(t)*h(t) und y(t) muss minimal werden ['*' = Faltungsoperator]). Bisher habe ich dies in Excel mit Hilfe eines Visual-Basic Macros und dem SOLVER berechnet, würde es aber gerne in LabVIEW integrieren, da hiermit auch die Datenerfassung für x(t) und y(t) erfolgt.
Als Anlage habe ich zwei Screenshots zu besseren Vorstellung hochgeladen. Darauf sind die Messdaten x(t) und y(t) (roter und grüner Graph), die Übertragungsfunktion h(t) (blau) und die Faltung aus x(t) mit h(t) (gelb) zu sehen. Momentan muss man die Parameter manuell variieren, bis eine hinreichend gute Anpassung (Fehlerquadratsumme minimal) erreicht ist (-> 2. Bild).
Für einen Tip oder Hinweis zur Lösung wäre ich sehr dankbar.
Vielen Dank und viele Grüße
s.
gibt es in LV8.5 eine Zielwertsuche bzw. einen Optimieralgorithmus?
Es handelt sich um ein LTI-System. Das Ausgangssignal y(t) ergibt sich aus der Faltung (Convolution) des Eingangssignals x(t) mit der Übertragungsfunktion h(t) des Systems. x(t) und y(t) werden gemessen, h(t) muss daraus berechnet werden. Eine direkte Entfaltung (Deconvolution) ist zwar mathematisch möglich, das Ergebnis jedoch physikalisch völlig unbrauchbar. Ebenso eine Lösung im Fourierbereich. Darum habe ich ein physikalisches Modell für h(t) angenommen, welches sich aus einer verketteten e-Funktion mit 3 Parametern zusammensetzt. Die 3 Parameter der Modellfunktion müssen nun so variiert werden, dass die Faltung des gemessenen Eingangssignals x(t) mit dem Modell dem gemessenen Ausgangssignal y(t) entspricht bzw. dem nahe kommt (Fehlerquadratsumme von x(t)*h(t) und y(t) muss minimal werden ['*' = Faltungsoperator]). Bisher habe ich dies in Excel mit Hilfe eines Visual-Basic Macros und dem SOLVER berechnet, würde es aber gerne in LabVIEW integrieren, da hiermit auch die Datenerfassung für x(t) und y(t) erfolgt.
Als Anlage habe ich zwei Screenshots zu besseren Vorstellung hochgeladen. Darauf sind die Messdaten x(t) und y(t) (roter und grüner Graph), die Übertragungsfunktion h(t) (blau) und die Faltung aus x(t) mit h(t) (gelb) zu sehen. Momentan muss man die Parameter manuell variieren, bis eine hinreichend gute Anpassung (Fehlerquadratsumme minimal) erreicht ist (-> 2. Bild).
Für einen Tip oder Hinweis zur Lösung wäre ich sehr dankbar.
Vielen Dank und viele Grüße
s.