Hallo GerdW,
Vielen Dank erstmals für deine Hilfe.
Vielleicht noch zuerst für was wird das ganze eigentlich angewendet. Es ist ein Hochdruckprüfstand, der Drucksensor kann bis zu 750 bar messen. Das Vi soll als Leckageprüfung dienen. Ein Wert in Sekunden wird vorgegeben und die Druckkurve soll aufgezeichnet werden. Der Druck darf während dieser Zeit nicht unter einen bestimmten Wert fallen.
Zitat:Was verstehst du unter einem Durchlassbereich eines Tiefpasses? Wie erkennst du den "Durchlassbereich" an einem Plot im Zeitbereich?
Ich habe den Tiefpassfilter im LabVIEW komplett falsch verstanden, da ich nicht wusste,
dass ein Tiefpass ein Einschwingverhalten hat.
Zitat:Schlussendlich sollte am gefilterten Graph ein konstanter Druck von 0 bar anliegen.
Wieso?
Ein Druck von 0 bar sollte anliegen, da mein System drucklos ist --> bezogen auf die oben genannte Messung.
Zitat:In einem Diagram soll die X-Achse die Zeit in Sekunden anzeigen und die Y-Achse den Druck. Beim ungefiltertet Signal habe ich das hingekriegt, jedoch beim gefilterten bring ich es nicht fertig den Verlauf anzuzeigen.
Echt? Wo hast du das hingekriegt? Du erstellst dauernd Quasi-Waveform mit t0=0. Wo ist da eine echte Zeitanzeige?
Beim Gefilterten Signal habe ich das eben nicht hingekriegt und das war mein Problem.
Ich habe nun noch ein VI in Version 2011 im Anhang. Ich habe es nun geschafft mein Signal zu filtern, jedoch weiss ich nicht, ob das so in der Praxis gemacht wird. Ich lass die gelesenen Messpunkte (10000) durch ein Butherworth-Filter und entferne dann den Einschwingvorgang (entfernen von 1000 Messpunkten).
Jedoch habe ich das Problem, dass ich nicht genau auf die eingestellten Sekunden komme, gibt es eine Möglichkeit in ms genau auf den eingestellten Sekundenwert zu kommen?
Nebenbei ist es eigentlich ungünstig, dass ich mit so einer hohen Abtastrate von 100kS messe , der Drucksensor hat eine Maximale Frequenz von 400 Hz, und abgetastet wird ja üblicherweise mit Faktor 10/20 multipliziert. Leider schwingt dann mein Tiefpass nicht richtig ein. Wie kann ich das optimieren?
Zitat:- Was erhoffst du dir von der andauernden "Offsetkorrektur" deiner Messdaten vor dem Filter? Wie soll der Filter reagieren, wenn ihm jedesmal ein Signal mit einem anderen Offset angeboten wird? Merke: du ziehst immer den Wert des ersten Messwerts des aktuellen Datenblocks von den anderen ab - und damit einen zufälligen Rauschwert…
Diese Methode habe ich von diesem Eintrag (
http://www.labviewforum.de/Thread-Tiefpa...l-beginnen ) abgeschaut, damit wollte ich das Einschwingen verhindern. Dies habe ich nun entfernt.
Zitat:- Was erhoffst du dir vom Zusammenbauen des Clusters für den Graphen? Warum nimmst du keine "echten" Waveforms? Warum lässt du dir deine Messwerte nicht gleich als Waveform liefern?
Mit dem Zusammenbau des Clusters wollte ich nur das Filtersignal anzeigen.
Zitat:- Wenn die Schleife nur eine endliche (und vorher bekannte) Anzahl durchläufe vollführen soll, nimmt man üblicherweise eine FOR- statt einer WHILE-Loop…
Stimmt, die while Schleife ist nun entfernt.
Gruss cobain