Wenn dein Problem oder deine Frage geklärt worden ist, markiere den Beitrag als "Lösung",
indem du auf den "Lösung" Button rechts unter dem entsprechenden Beitrag klickst. Vielen Dank!
19.11.2007, 01:06 (Dieser Beitrag wurde zuletzt bearbeitet: 29.11.2007 22:00 von jg.)
Ich habe da ein Problem in LabVIEW 7.1.
Ich bekomme aus einem PDA 2000 drei Ausgangssignale (DC, RATIO, RMS), diese moechte ich in LabVIEW in einem Graphen darstellen.
Ausserdem verwende ich einen DAQPAD 6020E und ein SCB68.
Der Graph (6 Stueck) soll stets den Anfangspunkt anzeigen und sich dann mit der Zeit amgezeigt werden. Auserdem habe ich sechs Ordner in denen die Unterschiedlichen Messerte gespeichert werden. 3 x "Rohdaten" und 3 x Durchschnittswerte( Ein Durchschnittswert alle drei Sekunden).
Mein Problem ist folgendes.
Die ersten zehn Minuten funktioniert mein Programm auch wunderbar. Nach ca. zehn Minuten und einer Scanrate von 5 scans stimmt die Zeit auf der x-Achse nicht mehr mir der realen Zeit ueberein. Ist das vll ein Speicherproblem oder muss ich dem Programm mehr Speicher geben.
In den Ordnern stimmt die Zeit allerdings. Was fuer mich auch logisch erscheint.
Keine Ahnung ob ich Time delay und tick count benoetige. Bin mit allerdings ziemlich sicher dass ich des Zeug net brauch.
Hab mein VI mal angehaengt.
Hoffe ihr versteht was ich meine ....