Wenn dein Problem oder deine Frage geklärt worden ist, markiere den Beitrag als "Lösung",
indem du auf den "Lösung" Button rechts unter dem entsprechenden Beitrag klickst. Vielen Dank!
ich gebe auf einen Graph ein Array von Signalen, genau genommen zwei Signale.
Die Signale beinhalten folgende Werte:
Signal 1: dt = 0.000250 Y geht von 0 bis 199
Signal 2: dt = 0.002000 Y geht von 0 bis 24
jetzt habe ich das Problem das ich gerne ein Zeitintervall von 50ms anzeigen möchte.
was ich mir auch zuvor berechnet habe:
Signal 1:
hat eine Abtastrate von 4000 Hz -> 250us
50ms / 250us = 200 Werte
Signal 2:
hat eine Abtastrate von 500 Hz -> 2ms
50ms / 2ms = 25 Werte
Wenn ich jetzt die Anzahl der Y-Werte der einzelnen Signale nehme dann komme ich auch auf die Werte 200 und 25.
Jedoch macht da LabVIEW nicht ganz mit ;o)
LabVIEW nimmt doch tatsächlich 199 und 24 daraus folgt das ich für:
Signal 1 ein Zeitintervall von 199 * 250us = 49.75ms
und für
Signal 2 ein Zeitintervall von 24 * 2ms = 48ms
habe.
Vielleicht kann mir ja von euch jemand weiterhelfen, die vom LabVIEW Support meinten ich soll einfach 201 und 26 Messwerte nehmen was aber nicht funktioniert, da dann der Null-Punkt nicht mehr stimmt.
Gruss
calimero
ich habe mal ein VI erstellt das mein Problem deutlich darstellt.
Wenn man sich die Enden der beiden Signale heranzoomt, so erkennt man, daß das eine Signal bei 48ms endet und das andere bei 49.75ms
Du hast 200 bzw. 25 stuetzstellen im aequidistanten abstand von 250µs bzw. 2ms.
Beginnend bei 0sec im Graph hast du noch 199 bzw. 24 Werte zur Verfuegung, weil fuer "0" jeweils ein Wert geopfert wird! -> wie willst du mit dieser Rechnung jemals auf 50ms kommen?
Eine moeglichkeit ist, dass du "einfach" das dynamische signal in ein Y-Array umwandelst und am ende des arrays bei beiden signalen ne 0 anhaengst!