Hallo Experten,
ich bin absoluter Anfänger in LabView und habe mir aus den Examples ein Programm gebastelt, welches aus einem Eingangssignal die Peaks und die dazugehörige Frequenz ermittelt. Diese Informationen werden kontinuierlich in eine TDMS Datei geschrieben. zu den beiden Channels "Phase Sweep" und "Amplitude Sweep" wird noch ein Zeitchannel hinzugefügt.
Da ich ein Signal im Bereich von 0 - 20000Hz aufnehme habe ich im MAX folgende Einstellungen getroffen:
Erfassungsmodeus: kontinuierlich
Samples: 1k
Rate: 60K (vgl. Shannon Theorem)
Messkarte: Ni-PCI 6251
Nun zu meinem Problem: in TDMS Messdaten werden die Werte in unterschiedlichen Zeitabständen ausgegeben, d.h. es ist für mich ein riesiger Aufwand 2 Messungen vergleichbar zu machen, da die Zeitabstände in denen die Signale in die Messdatei geschrieben werden unterschiedlich sind.
Ich vermute, dass LV wartet bis es die 1000 Werte voll hat und diese dann an die TDMS weitergibt. Da die Anzahl der Peaks immer unterschiedlich ist, habe ich auch unterschiedliche Zeiten, oder??
Ich habe gelesen dass man die Zeit über samples/Rate einstellen kann. Das funktioniert aber nicht. Wahrscheinlich aus o.g. Problem. Mit WAIT in den Schleifen habe ich es auch schon probiert, dass führt jedoch nicht zum gewünschten Ergebnis. Nichtmal die Anfangszeiten sind gleich.
Könnt ihr mir bitte weiterhelfen. Ich möchte gern im Programm einstellen können, in welchen Zeitabständen Messdaten in die TDMS Datei geschrieben werden sollen.
Anbei mein VI
Vielen herzlichen Dank im Voraus!
AL
P.S.: Für den ein oder anderen Tipp, wie ich mein Programm noch "schöner" machen kann, wäre ich ebenfalls sehr dankbar