Hallo liebe LabVIEWer
ich habe ein kleines problem, welches aber riesen folgen mit sich bringt.
Mein vi bekommt ein signal von einer brennkammer (über DAQ) - 4 kanäle mit einer frequenzbreite (x-achse) von etwa 7000 - und ich möchte die werte weiter verarbeiten. Nach gut 4 monaten arbeit ist mein programm endlich fertig und läuft einwandfrei...auf meinem eigenen rechner. Dummerweise ist das einer der besten, die es auf dem mark gibt, was ich nicht bedacht habe-.- Zurück beim dlr will ich mein vi nun auf den rechnern installen und muss feststellen, dass diese absolut überfordert sind.
Ich kann das vi hier leider nicht veröffentlichen, aber als kurzen einblick: Über 30 anzuzeigende graphen, 4 verschiedene glättungsmethoden, es gibt 2 verschiedene peak-finder, außerdem werden alle 2 min. 4x7000werte (2x X-werte, 2x Y-werte) gespeichert (Gesamtgröße mit SubVis ~20Mb).
ich habe mal eine uhr laufen lassen, diese stand nach 5,00 min. gerade mal bei 3:22. Nun habe ich versucht einige graphen zu deaktivieren und nicht berechnen zu lassen solange der Tab auf dem sie liegen nicht selektiert ist - dadurch hab ich aber lediglich eine erhöhung der rechenzeit erreicht (3:02) und nicht eine verrinderung.
Was habt ihr für gute ideen zur verringerung der rechenzeit..ich denke da vor allem an die wahl der schleifen (derzeit hab ich 2 parallel laufende WHILE , in denen eine menge CASE und SEQUENZ laufen), ist es besser alles auf eine WHILE zu kürzen und die unterschleifen in andere schleifen arten zu wandeln? Wenn ja, welche schleifen laufen besser?
Wäre super, wenn ihr ein paar tipps für mich hättet,
liebe grüße, Dusky