Wenn dein Problem oder deine Frage geklärt worden ist, markiere den Beitrag als "Lösung",
indem du auf den "Lösung" Button rechts unter dem entsprechenden Beitrag klickst. Vielen Dank!
ich habe eine ziemlich spezielle Frage, bezüglich der Abtastzeiten von LabVIEW.
Es soll nämlich nicht linear, sondern logarithmisch abgetastet werden, weil die Datenmenge sonst viel zu groß wäre und das was in den ersten ms passiert eh´ am interessantesten ist.
Also nach diesem Muster:
1µs, 2µs, 3µs ... 10µs, 20µs ... 100µs, 200µs ... 10s, 20s
Stellt sich nur noch die Frage, wie dies zu bewerkstelligen wäre.
Ist es möglich, die Abtastzeiten einfach als .txt Datei zu hinterlegen?
Ja, ganz einfach: kontinuierlich abtasten mit dt=1µs, und dann mit zunehmender Zeit immer mehr gelesene Werte wegwerfen statt sie zu zu speichern. Also bei 10 sec Abtastzeit 10^7 Messwerte lesen und nur einen benutzen.
Weitaus besser wäre allerdings, immer alle Messwerte zu verwenden, und zwar zur Mittelwertbildung. Mit zunehmender Zeit also immer mehr Messwerte zu je einem Mittelwert zusammenzufassen.
Zitat:Weitaus besser wäre allerdings, immer alle Messwerte zu verwenden, und zwar zur Mittelwertbildung.
Grundsätzlich schon, doch in diesem Fall nicht nötig.
Die Messwerte werden anschließend von einem weiteren Programm ausgewertet, und dieses Programm benötigt diese speziellen Abtastzeiten.
27.11.2011, 19:27 (Dieser Beitrag wurde zuletzt bearbeitet: 27.11.2011 19:27 von Lucki.)
Wenn obere Grenzfrequenz eines Signalverlaufs und Abtastrate nicht zusammenpassen. kommt es zu Aliasing. Und kein Programm der Welt kann das nach der Abtastung reparieren. Filter vor der Abtastung sind allerdings aufwendig, bzw. hier wegen wechselnder Abtastrate gar nicht machbar. Das einfachste Mittel, Aliasing zu verhindern, ist Überabtastung + Mittelwertbidung. Zusätzliche Kosten hier: keine...... Ach so, da ist ja doch was: mehr Denkarbeit bei der Programmierung. Tschuldigung, dieses gewichtige Faktum hätte ich fast übersehen.
Es handelte sich hier aber um eine "ziemlich spezielle Frage", und da ist die Sache die, daß man mit dem DAQmx Timing nicht, während der Task im kontinuierlichen Modus läuft, die Rate einfach umstellen kann. Man muß den Task für eine endliche Zahl von Samples konfigurieren, und nach Taskende sofort mit geänderter Rate neu starten. Die Haken an der Sache ist: man hat undefinierte Pausen zwischen den Tasks. (OK, für Raten unter 1 kHz ist das dann nicht mehr interessant)
Zitat:Wer hat eigentlich etwas von einem frequenzabhängigen Signal gesagt?
Ich habe nur von einer oberen Grenzfrequenz gesprochen, und daß das Signal ein Frequenzspektrum hat, habe ich messerschaft geschlossen, weil es sich bei dem Signal um einen zeitabhängigen Verlauf handeln muß. Denn im anderen Fall wäre ja Deine Frage überhaupt nicht aufgekommen: Im DC-Fall hätte ein einziger Messwert als vollständige Signal-Charakterisierung gereicht.
Tschüß und diskutiert schön weiter.
Zitat:daß man mit dem DAQmx Timing nicht, während der Task im kontinuierlichen Modus läuft, die Rate einfach umstellen kann.
Genau das ist mein Problem.
Bis jetzt habe ich auch immer nur mit kontinuierlicher Abtastung gearbeitet, nun muss aber eben diskontinuierlich abgetastet werden.
Mit einem Software(bzw. Hardware)-Trigger sollte es doch funktioniern - oder?
Zitat:habe nur von einer oberen Grenzfrequenz gesprochen, und daß das Signal ein Frequenzspektrum hat, habe ich messerschaft geschlossen