13.10.2010, 13:38
Hallo,
ich habe vor ein VI zu schreiben, was wirklich mit jeder Menge Messdaten und großen Arrays hantiert. Dabei muss ich mehrere Dateien auslesen und die Werte in Arrays schreiben. Dabei erhalte ich - wenn ich noch etwas komprimiere - ca. 20x20 200x200Arrays (Messreihen x Messungen, wobei zu jeder Messung ein 200X200Array gehört). Außerdem habe ich noch zu jeder Messung ein mehrspaltiges und vielzeiliges Array mit Messparametern. Wie man sieht, sind es wirklich viele Daten.
Ist es sinnvoll alle diese Arrays auszuwerten und hübsch verpackt in ein Cluster zu stecken, was mir die Handhabung der Daten wesentlich erleichtert oder wird das VI extrem langsam oder der Speicher läuft sogar über oder ähnliche putzige Sachen, wenn ich die Daten in einem Cluster habe und im VI hin und her schiebe?
Alternativ könnte ich auch nur die Messwertdateinamen im Cluster behalten und erst bei Bedarf die Arrays erstellen. Das hätte allerdigns Nachteile für mein Gesamtkonzept.
Was meint ihr?
ich habe vor ein VI zu schreiben, was wirklich mit jeder Menge Messdaten und großen Arrays hantiert. Dabei muss ich mehrere Dateien auslesen und die Werte in Arrays schreiben. Dabei erhalte ich - wenn ich noch etwas komprimiere - ca. 20x20 200x200Arrays (Messreihen x Messungen, wobei zu jeder Messung ein 200X200Array gehört). Außerdem habe ich noch zu jeder Messung ein mehrspaltiges und vielzeiliges Array mit Messparametern. Wie man sieht, sind es wirklich viele Daten.
Ist es sinnvoll alle diese Arrays auszuwerten und hübsch verpackt in ein Cluster zu stecken, was mir die Handhabung der Daten wesentlich erleichtert oder wird das VI extrem langsam oder der Speicher läuft sogar über oder ähnliche putzige Sachen, wenn ich die Daten in einem Cluster habe und im VI hin und her schiebe?
Alternativ könnte ich auch nur die Messwertdateinamen im Cluster behalten und erst bei Bedarf die Arrays erstellen. Das hätte allerdigns Nachteile für mein Gesamtkonzept.
Was meint ihr?