28.02.2005, 13:39
Hallo,
Ich suche eine Möglichkeit einen Filter in LabVIEW zu programmieren, der mir anhand einer gemessenen Übertragungsfunktion, mein Analoges Ausgangssignal optimiert/ausgleicht:
Genauer:
Ich gebe ein Signal auf meinen Analogausgang. Dieses Signal wird auf einen Shaker (zum Erzeugen von definierten Vibrationen) gegeben. Ich habe aufgrund von Messungen und Datenblatt eine Dämpfungskurve für den Frequenzgang des Shakers. Mit einem Beschleunigungssensor nehm ich die Vibration auf und schleife das Signal wieder über einen Analoginput ein.
Wie kann ich denn jetzt diese gegebene Dämpfungs-Kurve als Filter für meine Anwendung nehmen, sodass LabVIEW mir das Analogsignal in Abhängigkeit von der Frequenz verstärkt?
BIn für jeden Tip dankbar!
Ich suche eine Möglichkeit einen Filter in LabVIEW zu programmieren, der mir anhand einer gemessenen Übertragungsfunktion, mein Analoges Ausgangssignal optimiert/ausgleicht:
Genauer:
Ich gebe ein Signal auf meinen Analogausgang. Dieses Signal wird auf einen Shaker (zum Erzeugen von definierten Vibrationen) gegeben. Ich habe aufgrund von Messungen und Datenblatt eine Dämpfungskurve für den Frequenzgang des Shakers. Mit einem Beschleunigungssensor nehm ich die Vibration auf und schleife das Signal wieder über einen Analoginput ein.
Wie kann ich denn jetzt diese gegebene Dämpfungs-Kurve als Filter für meine Anwendung nehmen, sodass LabVIEW mir das Analogsignal in Abhängigkeit von der Frequenz verstärkt?
BIn für jeden Tip dankbar!