Hallo steffenm,
' schrieb:Was gibt es den für Möglichkeiten um die optimale Anzahl von Datenpunkten herauszufinden?
Sprich ich komprimiere die Daten um einen sinnvolle Ansicht zu erreichen.
Das ist immer eine Frage der Definition. Eine gute Komprimierung hat möglichst keinen oder wenn dann einen definierten Datenverlust. Die grundlegende Frage ist soll das Signal "gut" aussehen oder soll es messtechnisch richtig sein?
' schrieb:Derzeit mache ich das nach meinen persönlichen Empfindungen.
Da diese Thema aber wahrscheinlich meine Abschlußarbeit wird, sollte ich die Komprimierung wohl eher
anders begründen (pers. Empf.).
Da nach meiner Erfahrung bei den meisten Analysen die Auswertung zu über 80% nach Gefühl stattfindet, liegst Du gar nicht so schlecht
Im Normalfall sollte man mathematisch/physikalisch begründete Datenreduktionen betreiben. z.B.:
Signalinformationen die kleiner wie die Genauigkeit der Messkette sind, können über Hysteresen entfernt werden.
Auf keinen Fall sollten Totschlägerfunktionen zum Einsatzkommen => nimm nur jeden 100. Wert (da dann bei sehr dynamischen Effekte es nur Glücksache ist ob die im Ergebnis noch vorhanden sind)
Lösung: "Papiervorschub in Abhängigkeit der Signaldynamik"
Und dann bleiben da noch die gleitenden Statistikfunktionen neben den, immer mit dem entsprechenden "Gefühl" zu parametrierenden Filter-Funktionen.
Fazit: Wenn man eine Idee hat, was wirklich den Signalverlauf representativ abbildet, können Datenreduktionsfaktoren auch auf binären Signalen realisiert werden, neben denen jedes normale Komprimierungsverfahren alt aussieht.
viel Erfolg
(um genauer zu diskutieren wäre die Bereitstellung von Beispieldaten praktisch)