LabVIEWForum.de - Sinus Störung 10Hz bei Drucksensor

LabVIEWForum.de

Normale Version: Sinus Störung 10Hz bei Drucksensor
Du siehst gerade eine vereinfachte Darstellung unserer Inhalte. Normale Ansicht mit richtiger Formatierung.
Hallo, bin leider blutiger Anfänger,

ich möchte Druckaufnehmer (DMP331 Input 0..25bar,Output 4..20mA) kalibrieren/skalieren
mit einer geeichten Druckwaage gebe ich mir den Druck vor,
der Druckaufnehmer ist an eine NI9203 angeschlossen, diese steckt in einer NI cDAQ-9172 und ist über USB an meinen Laptop angeschlossen,
die Spannungsversorgung der Karte (NI9203) erfolgt über einen Labor - Gleichspannungsregler, alle Anschlüsse müssten richtig sein, auch eine "etra Erdung der Karte"

Problem:
- 1.beim aufzeichnen mit Labview entsteht Druck-unabhängig entsteht ein Sinuns von ca. 10Hz und zusätzlich ein Rauschen um meinen eigentlichen Messwert[attachment=30300]
- 2.nehme ich den Druckaufnehmer von der Druckwaage weg und messe also nur Umgebungsdruck, ist auch der Sinus weg, das Rauschen bleibt[attachment=30303]
- 3.nehme ich den Druckaufnehmer vom Kabel der Karte ab und messe dann, habe ich das Rauschen und den Sinus, allerdings um Null Ampere herum[attachment=30302]

--> kann sich das jemand erklären?
--> müsste ich im 3. Fall nicht eine glattes Null bekommen?
--> müsste nicht auch im Fall 1 und 2 ein glatter Wert raus kommen?
-- ich messe mit 1kHz Rate und 1000Samples

hier mein VI-Ausschnitt[attachment=30304]
Hallo blutiger Anfänger,

lies dir mal die Beschreibung deiner Mess-Hardware durch, insbesondere die Abschnitte zur Messgenauigkeit. Da steht (bei AD-Wandlern) gern was von %FS+x digits.
Und dann vergleiche das mal mit deinem Rauschen von <0,00005 bei einem (gemittelten) Messwert von 0,0056 (Bild 1). Ich wette, dass diese Werte innerhalb der garantierten Genauigkeit liegen...

Solange die Werte innerhalb der angegebenen Messgenauigkeit liegen, kannst du alle möglichen Werte erhalten!
Hi GerdW,

danke für deine Bemühungen,
sicher liegen meine Werte alle in der Toleranz,

aber, trotzdem muss der Sinus doch irgendwie zu erklären seinBlink
mit dem Rauschen hab ich ja auch kein Problem, wenn ich es auf die Ungenauigkeit von Drucksensor, NI-Karte und cDAQ schieben kann???

Zitat:Solange die Werte innerhalb der angegebenen Messgenauigkeit liegen, kannst du alle möglichen Werte erhalten!
gibt es dafür irgendwelche "Beweise" (irgendwas worauf ich mich da beziehen kann, Datenblätter oder Bedienungsanleitungen oder ähnliches)????

Danke im Vorraus
Hallo m,

guckst du in die Spezifikation der 9203 rein: 20mA Stromeingang bei 16bit Auflösung würde eine Auflösung von ~0,3µA bedeuten. In des Spec steht aber schon mal 49µA "Präzision"... Oder auch: "7 LSB Peak-ToPeak Input Noise".

Zitat:trotzdem muss der Sinus doch irgendwie zu erklären sein
Ich sehe da keinen Sinus. Nur eine Auf- und Abbewegung im Rauschen...

Zitat:sicher liegen meine Werte alle in der Toleranz
Dann ist doch alles gut. Hast du schon mal eine Betrachtung der Fehlerkette durchgeführt (und den Gesamtfehler berechnet)?
Hi GerdW,
vielleicht kannst ja bitte nochmal drüber sehen?

Zitat:20mA Stromeingang bei 16bit Auflösung würde eine Auflösung von ~0,3µA bedeuten. In des Spec steht aber schon mal 49µA "Präzision"
Danke für den Tipp, hab ich gefunden.
Verstehe ich das richtig, dass ich zwar ~0,3µA Auflösen, aber nur auf 49µA genau messen kann?
was nützt mir denn da die hohe Auflösung?

aus der Spezifikation:
Zitat:Unipolar Genauigkeit
Messbedingungen Prozent von Reading (Gain Error) Prozent der Messspanne 1 (Offset-Fehler)
Kalibriert max (-40 bis 70 ° C) ± 0,18% ± 0,06%
Kalibriert typ. (25 ° C ± 5 ° C) ± 0,04% ± 0,02%
Unkalibriert max (-40 bis 70 ° C) ± 0,66% ± 0,54%
Unkalibriert typ. (25 ° C ± 5 ° C) ± 0,49% ± 0,46%

Beziehen sich die Fehler, welche für die Karte angegeben sind, nur auf den Messbereich allgemein, also in meinem Fall immer von 20mA?

Das heißt in meinem Fall, wenn ich von 0 bis 10bar messe, also von 0-20mA:
für 10bar:
± 0,04% von 20mA => 0,8mA=800µA Fehler
± 0,02% von 20mA => 0,4mA=400µA Fehler

meine Messwerte ergeben einen Mittelwert von: 0,019995637A
eine Standardabweichung 16,3208µA
max Abweichung: 53,7626µA
min Abweichung: 52,5374µA
das ganze bei 1kHz Rate und 1000Samples

Fazit: ich messe schon genauer, als es die Karte eigentlich zulässt? da die Fehler ja noch auf die Präzision gerechnet werden müssen?

Zitat:Hast du schon mal eine Betrachtung der Fehlerkette durchgeführt (und den Gesamtfehler berechnet)?
da kam ich leider noch nicht dazu, aber wenn ich mir das oben betrachte, dann dürfte alles in Ordnung sein, zumal hier ja alle anderen Fehler, wie die der Druckwaage,
des Drucksensores usw. noch fehlen, oder siehst du das anders?

Bleibt aber noch das Problem mit dem Sinus
Zitat:Ich sehe da keinen Sinus. Nur eine Auf- und Abbewegung im Rauschen...
also wenn das kein Sinus mit ner Frequenz von ca. 10Hz ist, dann weis ich auch nichtHuh[attachment=30327]
Die Bilder von oben sind mit einer höher Rate und weniger Punkten geschossen wurden, dies hier wie beschrieben mit 1kHz Rate und 1000Samples
[attachment=30329] hier nochmal bei 4kHz und 1500Samples (zwar bei 1bar, aber bei 10bar sieht es genauso aus)

vielen Dank für deine Bemühungen,

vielleicht hat ja sonst noch jemand ne Idee?
Wenn Du so auf dem Sinus bestehst: Vielleicht ein Modulationsprodukt aus zwei verschiedenen Netzfrequenzen mit 50Hz und 60 Hz, vielleicht ist zweiteres ja auch die Wiederholrate eines Röhrenmonitors... Ehrlich: Wenn Du innerhalb der Spec bist, sei zufrieden. Wenn Du's genauer haben willst, musst Du Dir so Gedanken machen, bevor Du Hardware kaufst.... So kostet es Dich nur Zeit...

Grüße,

ch
genauer muss es ja nicht sein,
aber der Sinus beschäftigt mich eben,

es hätte ja seien können, dass jemand das Problem kennt und mir sagen kann, wo es her kommt
oder das es Bauartbedingt immer so ist, oder sowas in der Richtung....

kann bitte jemand vielleicht nochmal über meine "Rechnung"(03.11. um 15:06) schauen, bin mir nicht ganz sicher, ob ich das alles so richtig interpretiert habe?

Danke trotzdem für eure Mühen
Hallo m,

Zitat:Messbedingungen Prozent von Reading (Gain Error) Prozent der Messspanne 1 (Offset-Fehler)
Kalibriert max (-40 bis 70 ° C) ± 0,18% ± 0,06%
Da steht doch, was es bedeutet:
0,18% vom Reading + 0,06% vom Messbereich

Messwert ("Reading") = 10mA, Messbereich = 20mA -> 0,18%*10mA + 0,06%*20mA = 18+12µA = 30µA.
Referenz-URLs