LabVIEWForum.de - String Binär in Bytes aufteilen

LabVIEWForum.de

Normale Version: String Binär in Bytes aufteilen
Du siehst gerade eine vereinfachte Darstellung unserer Inhalte. Normale Ansicht mit richtiger Formatierung.
Seiten: 1 2
Ich habe es so umgesetzt wie "Lucki" es gezeichnet hat... hab mir einen Integerwert mit %b in binär umgewandelt. Unter LV 7.1 gibt es die Funktion bin2dec nicht... deswegen brauch ich eine Funktion bzw. einen ablauf welcher das realisiert... Der versuch den binärstring mit %u wieder in einen dezimalstring zu konvertieren ging nicht...
Hier eine Möglichkeit von Binär nach Dec umzurechnen:

[attachment=22850]
Danke... würdest du mir noch verraten, was in der casestruktur bei false steht???
' schrieb:Ich habe es so umgesetzt wie "Lucki" es gezeichnet hat... hab mir einen Integerwert mit %b in binär umgewandelt. Unter LV 7.1 gibt es die Funktion bin2dec nicht... deswegen brauch ich eine Funktion bzw. einen ablauf welcher das realisiert... Der versuch den binärstring mit %u wieder in einen dezimalstring zu konvertieren ging nicht...
Habe den Intergerwert (Byte, U8) in ein binärer Stringdarstellung umgewandelt. "bin2dec" kommt bei mir nicht vor und ich wüßte auch nicht, daß es hier bebraucht würde. Was meinst Du damit?
Die Funktion "Wert formatieren" scheint es aber in LV7.1 zu geben, zumindest hat die versuchsweise Konvertierung nach 7.1 bei mir funktioniert.
Beachte auch die Funktion "Array nach Cluster" in meinem VI. Damit kannst Du die Größe deines BD von gefühltem Formt A1 auf A6 verringern...
Der False-Case ist leer
Das VU rechnet für jedes Bit den Dezimalen Wert aus und addiert ihn bei 1 hinzu und bei 0 eben nichtWink
Seiten: 1 2
Referenz-URLs