Wenn dein Problem oder deine Frage geklärt worden ist, markiere den Beitrag als "Lösung",
indem du auf den "Lösung" Button rechts unter dem entsprechenden Beitrag klickst. Vielen Dank!
Hallo,
ich möchte mit einer Kamera bilder von Objekten auf einer vorgegebenen Fläche aufnehmen. Diese Bilder möchte ich unter LabVIEW mit den VIs von LabVIEW Vision Development Module auswerten und die Änderung der Position der Objekte bestimmen.
Welche Litertatur ist für den Einstieg geeignet bzw. hat jemand Beispielprogramme?
Also, bei meinem Projekt geht es um folgendes: Eine Kamera liefert ein Bild eines Objektes (siehe Bild).
Dieses Objekt kann sich auf dieser Fläche (fester Größe) frei bewegen.
Nun möchte ich mit LabVIEW 8.2, sowie dem Vision Development Module 8.2 diese Bilder so auswerten. um die Position zu erhalten.
Da ich mich nicht in den verfügbaren VIs auskenne, wollte ich fragen ob jemand Beispielmaterial oder Infos zu den VIs hat.
sollen die Bilder denn manuell oder automatisiert ausgewertet werden ?
Manuell wäre es ja recht einfach. Position der Maus mit Methodenknoten aktivieren. Erst klickst du auf Punkt 1 und dann auf Punkt 2 und dann einfach Wert x1-Wertx2, Wert y1 - Wert y2. dann hast du die Differenz der Pixel in x und y Richtung, eine einfache mathematische Funktion (Pythagoras, a^2 +b^2 =c^2) und schon hast du den Abstand der beiden Punkte. Sofern du vorher einen Min-Max ausführst bei den Punkten ist auch gewährleistet das du keine negativen Werte bekommst.
Beim automatisiertem ist eine Erkennung der beiden Punkte wohl der Knackpunkt, da müsste ich auch eher passen
Leute die mir und mich verwechseln sind mir lieber als Leute die mein und dein verwechseln.
Zu Anfangs koenntest du das Vision Concept Manual durcharbeiten (findest unter STart-Programme-NI-Vision).
In diesem sind alle Funktionen beschrieben.
Danach koenntest du dich mit dem Vision Assistant (VA) auseinandersetzen um grundsaetzlich zuvor durch das Vision Concept Manual gelesene Algorithmen auszutesten :-)
Du kannst auch das Vision Concept Manual ueberspringen und direkt mit dem VA beginnen und hoffen, dass du die richtigen Funktionen verwendest.
Deine Aufgabe ist recht einfach...
Per Blob-Analyse (Binary Large Object) kannst du zusammenhaengede Objekte innerhalb der RegionOfInterest (ROI) suchen lassen.
Als Ergebnis erhaelst du von allen Objekten allgemeine geometrische Merkmale (Center of Mass waere fuer dich an dieser Stelle das Richtige).
Den Code vom VA kannst du direkt per klick auf Tools in LabVIEW Code umsetzen lassen...
' schrieb:Zu Anfangs koenntest du das Vision Concept Manual durcharbeiten (findest unter STart-Programme-NI-Vision).
In diesem sind alle Funktionen beschrieben.
Danach koenntest du dich mit dem Vision Assistant (VA) auseinandersetzen um grundsaetzlich zuvor durch das Vision Concept Manual gelesene Algorithmen auszutesten :-)
Du kannst auch das Vision Concept Manual ueberspringen und direkt mit dem VA beginnen und hoffen, dass du die richtigen Funktionen verwendest.
Deine Aufgabe ist recht einfach...
Per Blob-Analyse (Binary Large Object) kannst du zusammenhaengede Objekte innerhalb der RegionOfInterest (ROI) suchen lassen.
Als Ergebnis erhaelst du von allen Objekten allgemeine geometrische Merkmale (Center of Mass waere fuer dich an dieser Stelle das Richtige).
Den Code vom VA kannst du direkt per klick auf Tools in LabVIEW Code umsetzen lassen...
Danke für die Antwort.
Wo ich nicht weiterkomme, ist das Problem mit den Koordinaten.
Ich möchte die vorhande Fläche so zu sagen als Koordinatensystem nutzen. Und darauf alle Maße beziehen. Aber wie lege ich ein festes Koordinatensystem an?
Fuer das KS gibt es zwei Moeglichkeiten.
a) Die Kamera hat zur Flaeche eine Fixposition und du nimmst lediglich Punkt x,y als KS-Ursprung
b) Die Kamera hat zur Flaeche keine Fixposition, in diesem Fall musst du einen markanten Punkt im Bild heraus picken und diesen ebenfalls bestimmen, Bspws durch Pattern Matching, Kantendetekierung, Blob, ...
' schrieb:Fuer das KS gibt es zwei Moeglichkeiten.
a) Die Kamera hat zur Flaeche eine Fixposition und du nimmst lediglich Punkt x,y als KS-Ursprung
b) Die Kamera hat zur Flaeche keine Fixposition, in diesem Fall musst du einen markanten Punkt im Bild heraus picken und diesen ebenfalls bestimmen, Bspws durch Pattern Matching, Kantendetekierung, Blob, ...
Danke für die Antwort. Ich hab nun folgendes Programm.
Der Kreis wird durch IMAQ Find Circular Edges gefunden und ich erhalte die Pixelposition des Mittelpunktes. Nun möchte ich aber das sich diese Koordinaten auf ein Refernzsystem beziehen. D. h. ich habe auf meinem Bild Referenzpunkte, die ich vorher erfasse und auswerte. Mit Imaq CoordSys. erhalte ich das gewünschte Refernzkoordinatensystem. Doch die Koordinaten des Mittelpunktes beziehen sich nicht darauf?
Wie soll das gehen, wenn du die Koordinaten vom Kreis nur ausliest aber mit nichts kombinierst.
Schau dir mal das Beispiel "Simple Calibration" an. Auf das und weitere Calibration Beispiele kannst dann aufbauen
ich befasse mich zur Zeit mit der Photogrammetrie für eine Deformations-Analyse.
Ist das Blob-Analyse verfahren mit Labview, eine Möglichkeit Deformationen an Bauteilen zu ermitteln?
Erkennt das Blob-Analyse verfahren das verschieben von Markern in allen Raum-Achsen, anhand von Bildern?
Wenn man zusätzlich zum Objekt noch eine Messskala (Lineal z.b.) mit Fotografiert,
erkennt man dann auch den Weg, um das sich die Marker verschoben haben?