Wenn dein Problem oder deine Frage geklärt worden ist, markiere den Beitrag als "Lösung",
indem du auf den "Lösung" Button rechts unter dem entsprechenden Beitrag klickst. Vielen Dank!
Hallo,
ich habe einen Sensor mit einer vom Hersteller gegebenen Genauigkeit von z.B. 0,1 m/s. Mit wiederholter Messung lässt sich die resultierende Genauigkeit verbessern. Jedoch nur unter der Annahme, dass sich der physikalische Wert nicht verändert, womit eigentlich eine Abhängigkeit zwischen den einzelnen Messwerten entsteht.
Nun ist die Frage: Wie hoch ist die zu erwartende resultierende Genauigkeit bei x Messungen?
Das kommt darauf an. Der Messfehler setzt sich zusammen aus zufälligem und systematischem Fehleranteil. Der zufällige Fehleranteil (z.B durch überlagertes Rauschen) veringert sich bei Mittelwertbildung aus N Messungen um SQRT(N). Der stematische Fehler (z.B Kalibierfehler, Quantisierungfehler) ändert sich nicht durch Mittelwertbildung.
Vieleicht noch diese kleine Ergänzung:
Es klingt zunächst unglaublich - aber durch Hinzufügen von künstlichem Rauschen kann man die Messgenauigkeit sogar verbessern. Diese Möglichkeit bieten einige Messkarten von NI.
Beispiel: 10 bit AD-Wandler (0..1023). Der genaue Messwert sei 500,4. Wenn man hundert mal misst und den Mittelwert bildet, dann wird jedesmal auf 500 abgerundet und die Auflösung verbessert sich nicht. Wenn dem Messwert aber noch ein 1-digit Rauschen aufaddiert wird, dann ist das Messergebnis mal 500 und mal 501. Bei Mittelwertbildung über viele Werte kommt man dann praktisch auf den genauen Wert 500.4.