Wenn dein Problem oder deine Frage geklärt worden ist, markiere den Beitrag als "Lösung",
indem du auf den "Lösung" Button rechts unter dem entsprechenden Beitrag klickst. Vielen Dank!
ich arbeite an einem Projekt (Erweiterte Realität), wo ich quasi mit einer von Oben fest angebrachten Kamera eine Messung filme. An einem Sensor ist ein Marker angebracht und mit der Kamera
verfolge ich dieser während der Messungsablauf und parallel dazu soll die mit der Kamera ermittelten Sensorpositionen (Marker Position) zu den Messdaten zugeordnet werden.
Bis jetzt habe ich hinbekommen den Marker zu identifizieren und zu verfolgen.
Das ganze habe ich mit Binarisierungsverfahren und mit Hilfe von Overlays Funktionen implementiert.
Nun möchte ich auch die Richtung meines Markers bestimmen aber ich habe keine Idee, wie ich vorgehen sollte.
Angenommen ich habe ein 2D Array mit Einser und Null (siehe Bild 3). Die Einser stellen mein Marker dar.
Wie kann ich die Richtung des Markers aus dem 2D-Array bestimmen während dieser sich bewegt?
Die zweite Frage ist wie ich Sensor-und Kameradaten fusionieren soll.
Beispiel : An xn und yn Positionen habe ich wert 1.......wert N gemessen.
Die Daten, also Wert 1 bis Wert N soll an die jeweilige Positionen geordnet werden (Während der Messung).
Nach der Messung sollte man quasi erkennen anhand einer Farbskala an welchen Stellen den Sensor auf einer Probe (Stahl oder Blech) abgefahren ist.
Auf Bild 1 ist ein Test zu sehen, wo ich eine bestimmte Farbe verfolgt habe. Die Grüne Pünktchen sind die Position des Markes. Unter LabVIEW gibt es die Funktion Imaq Overlays Oval (Siehe Bild2).
An den Eingang kann ich quasi mit einer Farbfeldkonstante festlegen, mit Welcher Farbe meine Markerstrecke dargestellt sein sollte. Da ich aber Beide Daten fusionieren muss, denke ich, dass diese Farbkonstante in Abhängigkeit mit den gemessenen Daten berechnen muss bzw. interpolieren, aber mir fällt gerade nichts sinnvolles ein.