ja das mit dem Fehlereingang anschließen geht leider nicht, da ich kein Eingang dafür habe! Ich hab nur 2 Eingänge und 2 Ausgänge(laut Hilfe).
Eingänge:
Binär-String - an Visa
Typ - an die konstruktion
Ausgänge:
Fehler - nix
Wert - der Cluster
Zitat:Also das wäre eine Datenübertragung als ASCII-String.
Schritt 3 (Kodieren) und 6 (Dekodieren) kann man sich sparen. Also was ist richtig und was falsch ist noch die Frage.
Dann wäre folgendes:
1. Spannung analog messen -> 4 Volt
2. Digitalisieren -> 0100b
3. Übertragen -> 0100 als Bitfolge
4. Du empfängst -> 4
5. Willst auf dem Chart darstellen -> 4
Genauso sende ich es ja. Habe vorher das Program Terminal vorher benutzt und in diesem zeigt er mir an.
z.B. Ateml 1700 -> 0h06A4 kommt in Terminal an: 0000 0110 1010 0100
Terminal erkennt das ganze richtig als Binär bzw stellt es auch als HEX da wenn ich will. So muss es auch LabVIEW aus dem VISA übergeben! Wieso LabVIEW aus nem Binär code gleich ASCII macht verstehe ich nicht! kann ich nicht das schon unterbinden und zb. nur das Binäre lesen in nen Cluster und dann selber umwandeln. vielleicht ist das einfacher aber habe keine Möglichkeit gefunden, die Ausgabe "Lesepuffer" von VISA zu beeinflussen!