LabVIEWForum.de - Logarithmische Abtastzeit einstellen

LabVIEWForum.de

Normale Version: Logarithmische Abtastzeit einstellen
Du siehst gerade eine vereinfachte Darstellung unserer Inhalte. Normale Ansicht mit richtiger Formatierung.
Hallo Leute,

ich habe eine ziemlich spezielle Frage, bezüglich der Abtastzeiten von LabVIEW.

Es soll nämlich nicht linear, sondern logarithmisch abgetastet werden, weil die Datenmenge sonst viel zu groß wäre und das was in den ersten ms passiert eh´ am interessantesten ist.
Also nach diesem Muster:
1µs, 2µs, 3µs ... 10µs, 20µs ... 100µs, 200µs ... 10s, 20s

Stellt sich nur noch die Frage, wie dies zu bewerkstelligen wäre.
Ist es möglich, die Abtastzeiten einfach als .txt Datei zu hinterlegen?

Hat jemand einen Tipp für mich?


MfG Mathias
Ja, ganz einfach: kontinuierlich abtasten mit dt=1µs, und dann mit zunehmender Zeit immer mehr gelesene Werte wegwerfen statt sie zu zu speichern. Also bei 10 sec Abtastzeit 10^7 Messwerte lesen und nur einen benutzen.
Weitaus besser wäre allerdings, immer alle Messwerte zu verwenden, und zwar zur Mittelwertbildung. Mit zunehmender Zeit also immer mehr Messwerte zu je einem Mittelwert zusammenzufassen.
Zitat:Weitaus besser wäre allerdings, immer alle Messwerte zu verwenden, und zwar zur Mittelwertbildung.
Grundsätzlich schon, doch in diesem Fall nicht nötig.
Die Messwerte werden anschließend von einem weiteren Programm ausgewertet, und dieses Programm benötigt diese speziellen Abtastzeiten.
Wenn obere Grenzfrequenz eines Signalverlaufs und Abtastrate nicht zusammenpassen. kommt es zu Aliasing. Und kein Programm der Welt kann das nach der Abtastung reparieren. Filter vor der Abtastung sind allerdings aufwendig, bzw. hier wegen wechselnder Abtastrate gar nicht machbar. Das einfachste Mittel, Aliasing zu verhindern, ist Überabtastung + Mittelwertbidung. Zusätzliche Kosten hier: keine...... Ach so, da ist ja doch was: mehr Denkarbeit bei der Programmierung. Tschuldigung, dieses gewichtige Faktum hätte ich fast übersehen. Big Grin
Zitat:Wenn obere Grenzfrequenz eines Signalverlaufs und Abtastrate nicht zusammenpassen. kommt es zu Aliasing.
Danke, dies ist mir bewusst. Wink-2
Wer hat eigentlich etwas von einem frequenzabhängigen Signal gesagt?

Um nochmal konkret auf mein Problem zurück zu kommen:
Wie würde man denn (gerne auch erstmal nur allgemein) verschiedene Abtastzeiten einstellen?
Hallo Shelby,

eine ganz allgemeine Antwort auf deine ganz allgemeine Frage:
DAQmx Timing
Es handelte sich hier aber um eine "ziemlich spezielle Frage", und da ist die Sache die, daß man mit dem DAQmx Timing nicht, während der Task im kontinuierlichen Modus läuft, die Rate einfach umstellen kann. Man muß den Task für eine endliche Zahl von Samples konfigurieren, und nach Taskende sofort mit geänderter Rate neu starten. Die Haken an der Sache ist: man hat undefinierte Pausen zwischen den Tasks. (OK, für Raten unter 1 kHz ist das dann nicht mehr interessant)

Zitat:Wer hat eigentlich etwas von einem frequenzabhängigen Signal gesagt?
Ich habe nur von einer oberen Grenzfrequenz gesprochen, und daß das Signal ein Frequenzspektrum hat, habe ich messerschaft geschlossen, weil es sich bei dem Signal um einen zeitabhängigen Verlauf handeln muß. Denn im anderen Fall wäre ja Deine Frage überhaupt nicht aufgekommen: Im DC-Fall hätte ein einziger Messwert als vollständige Signal-Charakterisierung gereicht.
Tschüß und diskutiert schön weiter.
Zitat:daß man mit dem DAQmx Timing nicht, während der Task im kontinuierlichen Modus läuft, die Rate einfach umstellen kann.
Genau das ist mein Problem.
Bis jetzt habe ich auch immer nur mit kontinuierlicher Abtastung gearbeitet, nun muss aber eben diskontinuierlich abgetastet werden.

Mit einem Software(bzw. Hardware)-Trigger sollte es doch funktioniern - oder?


Zitat:habe nur von einer oberen Grenzfrequenz gesprochen, und daß das Signal ein Frequenzspektrum hat, habe ich messerschaft geschlossen
Achso, habe ich überlesen Blush Sorry!
Referenz-URLs