04.06.2007, 17:43
Hallo,
habe 1200 Bytes an Daten von der seriellen Schnittstelle eingelesen und möchte diese visualisieren/als Bild darstellen. Jedes einzelne dieser 1200 Bytes entspricht 4 * einer 4-Bit Graustufencodierung (also: weiß (=11), hellgrau (=10), dunkelgrau (=01), schwarz =(00)), d.h. mit je 2 Bit aus einem Byte wird ein Bildpunkt beschrieben = 4 Bildpunkte pro Byte (2Bit * 4 = 8 Bit = 1 Byte, z.B. 0x1A = 0001 1001 = sw, dg, hg, hg). Insgesamt sind in den 1200Bytes also 4800 Bildpunkte enthalten. Diese sollen insgesamt ein 80 x 60 Pixel großes Bild ergeben. Habe mir dazu schon das folgende zusammengeklickt (siehe Anhang/Foto). Das ist aber zum einen relativ langsam (dauert gefühlt fast 1 Sekunde), zum anderen werden die einzelnen Zeilen des Bildes auch noch irgendwie verschoben.
An Software steht LabVIEW 7.1 zur Verfügung. Wie macht man es besser/richtig?
Gruß und danke
Robert
habe 1200 Bytes an Daten von der seriellen Schnittstelle eingelesen und möchte diese visualisieren/als Bild darstellen. Jedes einzelne dieser 1200 Bytes entspricht 4 * einer 4-Bit Graustufencodierung (also: weiß (=11), hellgrau (=10), dunkelgrau (=01), schwarz =(00)), d.h. mit je 2 Bit aus einem Byte wird ein Bildpunkt beschrieben = 4 Bildpunkte pro Byte (2Bit * 4 = 8 Bit = 1 Byte, z.B. 0x1A = 0001 1001 = sw, dg, hg, hg). Insgesamt sind in den 1200Bytes also 4800 Bildpunkte enthalten. Diese sollen insgesamt ein 80 x 60 Pixel großes Bild ergeben. Habe mir dazu schon das folgende zusammengeklickt (siehe Anhang/Foto). Das ist aber zum einen relativ langsam (dauert gefühlt fast 1 Sekunde), zum anderen werden die einzelnen Zeilen des Bildes auch noch irgendwie verschoben.
An Software steht LabVIEW 7.1 zur Verfügung. Wie macht man es besser/richtig?
Gruß und danke
Robert