Wenn dein Problem oder deine Frage geklärt worden ist, markiere den Beitrag als "Lösung",
indem du auf den "Lösung" Button rechts unter dem entsprechenden Beitrag klickst. Vielen Dank!
ich arbeite derzeit an meinem ersten LabVIEW-Projekt und ich würde mich freuen, wenn ich von eurer Seite etwas Feedback zu meinem VI und evtl. Antworten zu so manchen Fragen bekommen würde.
In dem Projekt geht es darum, Leistung bei Gleichstrom zu berechnen, sprich also Spannung und Strom zu messen und diese zu multiplizieren. Dazu verwende ich ein DAQ USB-6001 Device. Nach einigen Stunden von YT-Videos gucken, über Beispiel-VIs abarbeiten, bis zu Forumsbeiträgen und -links durchlesen, hab ich mir jetzt mal ein kleines VI gebastelt, mit dem ich 2 Sinusspannungen von Funktionsgeneratoren in AI0 und AI1 differenziell mit jeweils 1kHz Abtastrate kontinuierlich einlese und die beiden dann einfach multipliziere, um die "Leistung" zu berechnen. "Samples pro Kanal" hab ich dabei auf 100 gesetzt - so wie ich das verstanden hab, ist das im kontinuierlichen Betrieb der Buffer vom Gerät bevor es die Daten zum PC schickt. Oder?
Mir stellen sich nun einige Fragen:
1. Ich habe versucht meine gemessenen und berechneten Daten nach Anleitung eines BeispielVIs(Grundlagen - Signalverlauf - Signalverläufe in Datei schreiben) erst in ein .dat-File zu speichern und dann in ein .txt-File zu exportieren. Dabei mach ich scheinbar irgendetwas falsch, denn im .txt-File sind eigentlich keine Messdaten, sondern lediglich "Header"-Beschriftungen wie Kanalnamen, delta t, etc. wiederholt zu finden.
Wenn ich den Express-Block "Messdaten in Datei schreiben" verwende, komme ich zu zufriedenstellenden Ergebnissen, allerdings wollte ich gleich (wie so oft in diesem Forum gelesen) Abstand von Express Möglichkeiten nehmen und es gleich "gescheit" lernen.
2. Könnt ihr euch vorstellen, dass ich mit dem jetzigen Aufbau und der Methode von Abtasten, Buffern, Speichern Probleme mit längeren Messungen bekommen werde? Geplant sind Messungen von Spannung und Strom eines Lampenofens in einem Dilatometer, die können gut und gerne mal 24 Stunden und länger dauern.
In früheren Versuchen, immer unter Verwendung des DAQ-Assistenten, lief ich in einen, so kam es mir zumindest vor, Overflow. Das zeigte sich erst durch langsameres Aktualisieren der Graphen bis hin zum Programmabsturz. Die genaue Fehlermeldung fällt mir jetzt leider nicht mehr ein, jedenfalls wurde mir unter anderem empfohlen den Bufferspeicher, also Rate im kontinuierlichen Betrieb, zu erhöhen.
3. Also grundsätzlich läuft die Messung stabil und das Problem aus Frage 2 kam auch bei einer 60 Minuten Messung nicht mehr zum Vorschein. Allerdings kommt es nun in der Darstellung der berechneten "Leistung" zu einem mir nicht erklärbarem Phänomen: Ab und an werden im Signalverlaufsdiagramm die "älteren" Werte des Signals abgeschnitten - ich hab euch einen Screenshot angehängt. Ist nur eine Kleinigkeit und nicht weiter schlimm, würde mich nur interessieren, woher das kommt.
4. Einfach ein kleines Feedback zu meiner Herangehensweise wäre nett. Ich hab mir das alles im Selbstudium durch Lesen, Videos schauen und herumprobieren angeeignet - ich hab also keine Ahnung, ob ich wirklich effizient und sorgfältig arbeite oder ob das absoluter Schwachsinn ist, was ich hier betreibe.
So, danke schonmal an jeden, der bis hierhin gelesen hat. Ich hab mein VI in der 2018 angehängt, das selbe auch in 2010 gespeichert, hoffe ihr könnt zumindest eines davon öffnen.