Wenn dein Problem oder deine Frage geklärt worden ist, markiere den Beitrag als "Lösung",
indem du auf den "Lösung" Button rechts unter dem entsprechenden Beitrag klickst. Vielen Dank!
Ich habe folgende Frage: Wie kann ich bei der Änderung einer Kennlinienaufnahme am geschicktesten Ressourcen Sparen? Also sprich meine Abtastung, so intelligent machen, dass möglichst wenig Punkte bei höchster Genauigkeit aufgenommen werden?
Hier mal ein Beispiel einer Kurve bei der ich schon einiger maßen geschickt Takte!
Doch es könnte noch besser sein! Gibt es hier von LabVIEW einfache Lösungen?
Danke schon mal im Voraus!
14.11.2007, 12:13 (Dieser Beitrag wurde zuletzt bearbeitet: 14.11.2007 12:15 von Achim.)
ich bin jetzt nicht ganz sicher...aber um die Datenerfassung umzukonfigurieren (= geringere Abtastrate einstellen), musst du den Task glaube ich stoppen und wieder starten. Diese ganze Prozedur wird länger dauern und damit mehr Programm(!)-Ressourcen fressen als die Weiterführung der Abtastung bei gleichen Parametern. Außerdem werden bei der Abtastung ja keine Programmressourcen verbraten, das geschieht alles auf der Karte selber und dürfte deine SW nicht beeinflussen...
Was du machen könntest: Immer gleich viele Werte erfassen...aber dann nachträglich Werte rauswerfen, z.B. über ne abschnittsweise Mittelwertbildung. Dann kannst du aber keine Waveform-Graphs/Charts einsetzen, sondern musst mit XY-Graphen arbeiten, weil du Diskontunuitäten (gibt's dieses Wort?) in der Kurve hast! Ähnliches gilt, wenn du mit verschiedenen Abtastraten innerhalb einer Kurve arbeitest.
Lohnt sich so ein Aufwand für die Umstellung?
Gruß
Achim
"Is there some mightier sage, of whom we have yet to learn?"
"Opportunity is missed by most people because it is dressed in overalls and looks like work." (Thomas Edison)
Doch mich würde halt interessieren ob es bei LabVIEW so etwas gibt wie in "Finite-Elemente-Programmen", dass in einer bestimmten Schrittweite abgetastet wird und wenn eine Abweichung zum vorherigen Wert besteht zurück geht und genauer misst? Danch natürlich wieder größer!
Oder etwas vergleichbares an Funktionen?
Ähm, von was reden wir hier? Wenn du einfach den verlauf eines analogen Eingangs misst, kannst du nicht zurückgehen... Dann kommen die Daten, wie sie eben kommen... Wenn du zwischen jedem messpunkt aber einen Ausgangs setzen musst, dann sieht die Sache ganz anders aus...
Also, was machst du eigentlich?
Ok. Sorry das ist Richtig. Ich gebe z.B.: den Widerstand vor und lese die Spannung und den Strom aus. Also kann ich auch, wenn ich eine zu große Abweichung z.B.: Spannung habe, zurück gehen damit ich die Kurve besser beschreiben! Dies habe ich ja auch schon Relativ gut hinbekommen doch da muss es doch in so einem mächtigem Programm wie LabVIEW etwas eleganteres geben, um dieser Problematik Herr zu werden. Dies ist ja eine allgemeine Messtechnische Aufgabe? Oder=???
Oder ist Die Frage hier fehl am Platze und ich muss Sie bei Messtechniken oder so stellen?
' schrieb:doch da muss es doch in so einem mächtigem Programm wie LabVIEW etwas eleganteres geben, um dieser Problematik Herr zu werden. Dies ist ja eine allgemeine Messtechnische Aufgabe? Oder=???
Oder ist Die Frage hier fehl am Platze und ich muss Sie bei Messtechniken oder so stellen?
Auch "allgemeine Messtechnische Aufgaben" müssen programmiert werden...und so allgemein, dass man daraus eine Routine machen könnte, die ALLE user gebrauchen könnten, ist's dann doch nicht, deswegen gibt's sowas meines Wissens nicht in LV! Wie schon gesagt...du hast ne spezielle Aufgabe, dann musst du auch was spezielles programmieren!
"Is there some mightier sage, of whom we have yet to learn?"
"Opportunity is missed by most people because it is dressed in overalls and looks like work." (Thomas Edison)
Sehe ich auch so. Du hast einfach viel zu viele frei definierbare Parameter drin, die in einer integrierten Routine nciht bzw. nicht sinnvoll implementiert werden können. Das beginnt bei den Kanälen, die zu setzen sind, wenn nochmal zurückgegangen wird, über Schrittweiten, Abhängigkeiten, ...