Bisher funktionierts so wie ich mir das vorgestellt habe. Die Positionen der Amplituden werden halt nicht als Ganzzahl angezeigt, sondern wie in der LabView-Hilfe angegeben als Teile von Indizes oder Amplituden, was die Lesbarkeit ein bisschen erschwert aber soweit passt alles.
Wobei ich noch Schwierigkeiten habe: Ich soll das Programm mit einer Anleitung versehen und ich bin mir nicht sicher, wie ich das mit den "Samples pro Zeiteinheit" richtig formulieren soll :/ Bei einer Messung von 60 Sekunden wird abgewartet, dass 6000 Werte zustande kommen (für 10 Samples benötigt also das Programm 0,1 Sekunde). Muss dieser Wert bei einer Messung von mehreren Wochen größer werden? Die Rechnung, die ich im Frontpanel dazugeschrieben habe, ist leider falsch, bzw. gibt sie nur einen Teil der Wahrheit wieder. Würde man so die "Samples pro Zeiteinheit" ausrechnen, dann hätte man immer nur einen Wert in der Tabelle. Theoretisch würde ich diese Anzeige gern einfach als Konstante einsetzen, aber es kann ja durchaus passieren dass man einen größeren oder kleineren Block an Werten auswerten möchte.
Mein Erklärungsversuch: Mit den "Samples pro Zeiteinheit" lässt sich einstellen, wie viele abgetastete Werte eines Kanals zu einem Mittelwert ausgewertet und von denen der Maximal-/Minimalwert herausgesucht werden soll. Beispielrechnung: Bei einer Sample-Rate von 100Hz und einer Sample-Anzahl von 10 Samples dauert die Abtastung 0,1 Sekunde pro 10 Samples. Wenn der Mittelwert
alle 60 Sekunden (pro Minute also) gebildet werden soll, so lassen sich in 60 Sekunden 600 mal die 10 Samples abtasten (60:0,1=600), was zu den Samples pro Zeiteinheit = 6000 führt. Einfacher ausgedrückt: Die Sample-Rate von 100Hz*
die gewünschte Zeit für die Abtastung ergibt die Samples pro Zeiteinheit.
Ist das so verständlich ausgedrückt? Es soll am besten auch für Leute wie mich halbwegs einfach zu bedienen sein