Guest
11.10.2006, 03:22
Hi, ich bin auch erst wenig vertraut mit LabVIEW und hab deshalb ein paar Probleme mit dem Verstehen warum welche funktion das so macht und nicht so...
Ich feile gerade an einem kleinen Programm in dem ich aus einem simulierten Saegezahn dessen Amplitude 10 ist und einen Offset von 20 hat, also auf jeden Fall im positiven Bereich bleibt, den Mittelwert bestimmen will. Wenn ich jetzt davon einen Mittelwert mache muesste der ja konstant sein, oder? Aber egal ob ich RMS oder Arith. Mittelwert mache, die aendern sich immer. Das macht doch keinen Sinn, egal welches Signal und das kann ja nicht sein. Woran liegt das?
Dazu kommt noch, dass er nicht in einem kleinen Bereich schwankt, sondern die volle Amplitude und auch in der Frequenz. Ich hab es mit der Funktion "Statistics" und "Amplitude and Level Measurement" versucht, das macht kein Unterschied.
Danke Boris
PS: Werd wohl noch ein paar mal nerven
Ich feile gerade an einem kleinen Programm in dem ich aus einem simulierten Saegezahn dessen Amplitude 10 ist und einen Offset von 20 hat, also auf jeden Fall im positiven Bereich bleibt, den Mittelwert bestimmen will. Wenn ich jetzt davon einen Mittelwert mache muesste der ja konstant sein, oder? Aber egal ob ich RMS oder Arith. Mittelwert mache, die aendern sich immer. Das macht doch keinen Sinn, egal welches Signal und das kann ja nicht sein. Woran liegt das?
Dazu kommt noch, dass er nicht in einem kleinen Bereich schwankt, sondern die volle Amplitude und auch in der Frequenz. Ich hab es mit der Funktion "Statistics" und "Amplitude and Level Measurement" versucht, das macht kein Unterschied.
Danke Boris
PS: Werd wohl noch ein paar mal nerven