Wenn dein Problem oder deine Frage geklärt worden ist, markiere den Beitrag als "Lösung",
indem du auf den "Lösung" Button rechts unter dem entsprechenden Beitrag klickst. Vielen Dank!
19.11.2007, 01:06 (Dieser Beitrag wurde zuletzt bearbeitet: 29.11.2007 22:00 von jg.)
Ich habe da ein Problem in LabVIEW 7.1.
Ich bekomme aus einem PDA 2000 drei Ausgangssignale (DC, RATIO, RMS), diese moechte ich in LabVIEW in einem Graphen darstellen.
Ausserdem verwende ich einen DAQPAD 6020E und ein SCB68.
Der Graph (6 Stueck) soll stets den Anfangspunkt anzeigen und sich dann mit der Zeit amgezeigt werden. Auserdem habe ich sechs Ordner in denen die Unterschiedlichen Messerte gespeichert werden. 3 x "Rohdaten" und 3 x Durchschnittswerte( Ein Durchschnittswert alle drei Sekunden).
Mein Problem ist folgendes.
Die ersten zehn Minuten funktioniert mein Programm auch wunderbar. Nach ca. zehn Minuten und einer Scanrate von 5 scans stimmt die Zeit auf der x-Achse nicht mehr mir der realen Zeit ueberein. Ist das vll ein Speicherproblem oder muss ich dem Programm mehr Speicher geben.
In den Ordnern stimmt die Zeit allerdings. Was fuer mich auch logisch erscheint.
Keine Ahnung ob ich Time delay und tick count benoetige. Bin mit allerdings ziemlich sicher dass ich des Zeug net brauch.
Hab mein VI mal angehaengt.
Hoffe ihr versteht was ich meine ....
Also meiner Meinung nach liegt das Problem ganz klar daran, dass du Software-Timing verwendest. Das ist nie wirklich genau. Deine CPU hat einmal was anderes zu tun, kann dein VI nicht so fix abarbeiten und schon liegst du im Timing hinten.
Ich kenne mich mit Traditional DAQ nicht aus (wieso verwendest du das überhaupt?), aber bei DAQmx nimmt man einfach Hardware-Timing. Dann erledigt die Messkarte das Verknüpfen von Messwerten und Zeitinformationen...
' schrieb:Also meiner Meinung nach liegt das Problem ganz klar daran, dass du Software-Timing verwendest. Das ist nie wirklich genau. Deine CPU hat einmal was anderes zu tun, kann dein VI nicht so fix abarbeiten und schon liegst du im Timing hinten.
Ich kenne mich mit Traditional DAQ nicht aus (wieso verwendest du das überhaupt?), aber bei DAQmx nimmt man einfach Hardware-Timing. Dann erledigt die Messkarte das Verknüpfen von Messwerten und Zeitinformationen...
@monoceros: Zwecks DAQPAD 6020E ist Starter auf Trad-DAQ beschränkt.
@Starter: Diesen Spaghetti-Code, bei dem es von rechts nach links und wieder zurück geht, bin ich nicht bereit, zu analysieren.
MfG, Jens
Wer die erhabene Weisheit der Mathematik tadelt, nährt sich von Verwirrung. (Leonardo da Vinci)
!! BITTE !! stellt mir keine Fragen über PM, dafür ist das Forum da - andere haben vielleicht auch Interesse an der Antwort!
' schrieb:@monoceros: Zwecks DAQPAD 6020E ist Starter auf Trad-DAQ beschränkt.
@Starter: Diesen Spaghetti-Code, bei dem es von rechts nach links und wieder zurück geht, bin ich nicht bereit, zu analysieren.
MfG, Jens
Hi,
also hardwartiming habe ich dann gleich mal ausprobiert. Habe es aehnlich aufgebaut wie das Bsp in LabVIEW 7.1. (hw timed)
Das Problem bleibt das gleiche. Entweder mein VI ist nicht hw timed oder .... keine Ahnung
Hab das VI mal angehaengt. Ich weis der untere Graph stimmt nicht. (keine Zeit)
Entschuldigung fuer den Spaghetti-Code. Kann ich verstehen wenn du den nicht analysieren willst. Hab das ganze mal auf einen Eingang beschraenkt und hoffentlich etwas anschaulicher dargestellt.
Vielleicht kann mir ja jemand sagen ob das hw timed ist oder nicht
ich habe mal in meinen Unterlagen gestöbert, bin mit Trad-DAQ auch nicht mehr ganz firm, aber hier ein Beispiel für eine kontinuierliche, hardwarezeit-getaktete Datenerfassung eines Kanals, wobei das häufige Update des Waveform-Graphen natürlich nicht so sonderlich genial ist. Aber ich hoffe, das Prinzip wird klar:
MfG, Jens
Wer die erhabene Weisheit der Mathematik tadelt, nährt sich von Verwirrung. (Leonardo da Vinci)
!! BITTE !! stellt mir keine Fragen über PM, dafür ist das Forum da - andere haben vielleicht auch Interesse an der Antwort!
dein Programm ist mir klar, glaube ich zumindest.
Allerdings habe ich immer noch Probleme. Werd mal eifrig weiter probieren.
Denk ich meld mich wieder ...
mfg
Anzeige
27.11.2007, 06:21 (Dieser Beitrag wurde zuletzt bearbeitet: 29.11.2007 22:02 von jg.)
ha mir dien VI angeschaut u versucht es auf mein VI zu uebernehmen. Hat auch geklappt, allerdings wurde es dadurch nicht besser. Mein Problem besteht also weiterhin.
Meine CPU Auslastung steigt kontinuierlich an....
Hab mir glaub so ziemlich alle Beitraege zu diesem Thema in diesem Forum angeschaut. Konnte daraus aber leider keinen Nutzen ziehen, also bzgl meines Problems.
Hab mal noch ein vereinfachtes VI angehaengt, vll hat ja mal jemand Zeit und koennte mir ein paar Verbesserungsvorschlaege geben
Moechte noch erwaehnen dass ich noch nicht lange mit LabVIEW arbeite, vll handelt es sich ja nur um einen dummen Anfaengerfehler.
@Jens: hab durch dein VI natuerlich was neues gelernt, deine Suche war also nicht umsonst .... danke
sag mal, hat es einen speziellen Grund dass du nur "AI Single Scan" machst, anstatt gleich den Puffer leer zu machen?
Probier mal diese Variante:
[attachment=36963:scanbacklog.gif]
Gruß
Achim
@Achim: Dieses "Programm" halte ich für falsch. AI-Read ohne angeschlossenen Eingang nimmt dann -1 als Eingang an und liest somit alle Scans aus dem Puffer. Die liest du aber gar nicht aus kein Ausgang angeschlossen. Somit ist dann der Puffer leer, und ScanBacklog müsste 0 sein. Somit liest das 2. AI-Read gar nichts aus.
MfG, Jens
Wer die erhabene Weisheit der Mathematik tadelt, nährt sich von Verwirrung. (Leonardo da Vinci)
!! BITTE !! stellt mir keine Fragen über PM, dafür ist das Forum da - andere haben vielleicht auch Interesse an der Antwort!