01.12.2005, 18:04
Hi Leute,
Ich lese über die serielle Schnittstelle Daten mit einer Datenrate von grösser oder gleich 100 ms aus. Diese Daten möchte ich in einem Graphen darstellen. Da sie nicht mit dem gleichen zeitlichen Abstand kommen benutze ich einen XY Graphen der als y Achse die Zeit (HH:MMS / DD:MM:YY) angibt.
Das alles würde eigentlich wunderbar funktionieren nur steigt die CPU Load langsam an. Irgendwann bin ich dann bei 100 % und es werden nicht mehr alle Daten von der seriellen Schnittstelle empfangen.
Wahrscheinlich hängt das alles damit zusammen das es für mich wichtig ist alle Daten über den ganzen Zeitraum im Graphen darzustellen. Es kann sein das es bis zu 500.000 Punkte oder mehr werden. (Laufzeiten zum Teil über 2 Wochen)
Nun meine Fragen:
- Hängt der ganze Anstieg mit der Grössenordnung der Daten zusammen?
Also muss für jeden Punkt der neu dazukommt nochmal alles berechnet werden?
- Ist das ganze überhaupt realisierbar?
- Oder ist der Rechner einfach zu schwach dafür?
Für mich ist es wichtig das ich den Graphen, wann immer ich will, ansehen kann um festzustellen ob alles noch richtig läuft bzw. am Ende die kompletten Daten über den gesamter Zeitbereich zu sehen.
Im Anhang findet ihr ein vereinfachte Version von dem Graphen wie er ausschauen sollte.
Smooth Update ist deaktiviert / die X Achse wird autoscaliert <- frisst leider auch einiges an CPU Leistung
Benutzte SW: LabVIEW 8 / Windows 2000
Benutzte HW: P4@1,5 GHz, 512 MB RAM, Matrix Millenium G550 AGP @32MB DDR
MFG E.O.
Ich lese über die serielle Schnittstelle Daten mit einer Datenrate von grösser oder gleich 100 ms aus. Diese Daten möchte ich in einem Graphen darstellen. Da sie nicht mit dem gleichen zeitlichen Abstand kommen benutze ich einen XY Graphen der als y Achse die Zeit (HH:MMS / DD:MM:YY) angibt.
Das alles würde eigentlich wunderbar funktionieren nur steigt die CPU Load langsam an. Irgendwann bin ich dann bei 100 % und es werden nicht mehr alle Daten von der seriellen Schnittstelle empfangen.
Wahrscheinlich hängt das alles damit zusammen das es für mich wichtig ist alle Daten über den ganzen Zeitraum im Graphen darzustellen. Es kann sein das es bis zu 500.000 Punkte oder mehr werden. (Laufzeiten zum Teil über 2 Wochen)
Nun meine Fragen:
- Hängt der ganze Anstieg mit der Grössenordnung der Daten zusammen?
Also muss für jeden Punkt der neu dazukommt nochmal alles berechnet werden?
- Ist das ganze überhaupt realisierbar?
- Oder ist der Rechner einfach zu schwach dafür?
Für mich ist es wichtig das ich den Graphen, wann immer ich will, ansehen kann um festzustellen ob alles noch richtig läuft bzw. am Ende die kompletten Daten über den gesamter Zeitbereich zu sehen.
Im Anhang findet ihr ein vereinfachte Version von dem Graphen wie er ausschauen sollte.
Smooth Update ist deaktiviert / die X Achse wird autoscaliert <- frisst leider auch einiges an CPU Leistung
Benutzte SW: LabVIEW 8 / Windows 2000
Benutzte HW: P4@1,5 GHz, 512 MB RAM, Matrix Millenium G550 AGP @32MB DDR
MFG E.O.