DE10135300A1 - Verfahren und Einrichtung zum Messen dreidimensionaler Information - Google Patents
Verfahren und Einrichtung zum Messen dreidimensionaler InformationInfo
- Publication number
- DE10135300A1 DE10135300A1 DE10135300A DE10135300A DE10135300A1 DE 10135300 A1 DE10135300 A1 DE 10135300A1 DE 10135300 A DE10135300 A DE 10135300A DE 10135300 A DE10135300 A DE 10135300A DE 10135300 A1 DE10135300 A1 DE 10135300A1
- Authority
- DE
- Germany
- Prior art keywords
- points
- images
- pair
- image
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/564—Depth or shape recovery from multiple images from contours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Eine Einrichtung zum Messen dreidimensionaler Information eines Objektes hat eine Bildlesevorrichtung, einen Entsprechungspunktdetektor und ein Informationsberechnungsmittel. Die Bildlesevorrichtung liest ein Paar Bilder, das auf einem in der Einrichtung vorgesehenen Aufzeichnungsmedium aufgezeichnet ist. Das Objekt ist zylindrisch, und in jedem der beiden Bilder spiegelt sich ein Paar Okklusionsumrisse wider. Der Entsprechungspunktdetektor erfasst mindestens ein Paar Entsprechungspunkte, das ein imaginäres Paar Bilder mindestens eines auf der Mittelachse des Objektes angeordneten Messpunktes bildet. Die beiden Entsprechungspunkte liegen auf zwei Halbierungslinien. Das Informationsberechnungsmittel berechnet die dreidimensionale Position des Messpunktes auf Grundlage der beiden Entsprechungspunkte unter Anwendung eines Triangulationsverfahrens.
Description
Die Erfindung betrifft ein Verfahren und eine Einrichtung zum Messen dreidimen
sionaler Information eines Objektes aus einem Paar Objektbilder, das durch
Aufnehmen des Objektes aus zwei verschiedenen Richtungen erhalten wird.
Es ist ein "Stereoverfahren" oder sogenanntes "zweiäugiges Sehen" als Verfahren
bekannt, mit dem eine dreidimensionale Information, kurz 3-D-Information eines
Objektes, wie z. B. die Position oder die Form, aus Bildern gemessen werden
kann. In dem Stereoverfahren wird das Objekt aus zwei verschiedenen Richtun
gen aufgenommen, so dass man ein Paar Bilder erhält. Aus den beiden Bildern
erhält man dann ein Paar zugehörige Punkte, im folgenden auch als Entspre
chungspunkte bezeichnet, von denen jeder ein Bild eines Punktes des 3-D-Objektes
ist. Auf Grundlage dieses Paars Entsprechungspunkte und dem Abstand
zwischen zwei Aufnahmepunkten wird die Position des Objektes unter Anwen
dung einer Triangulation berechnet. Das Stereoverfahren wird beispielsweise für
die Fotogrammetrie oder Bildmessung wie die Luftbildmessung oder die Bildmessung
eines Verkehrsunfallortes eingesetzt.
Bei der Berechnung der Position des Objektes ist es wichtig, das Paar Entspre
chungspunkte genau zu erfassen. Das Problem des Ermittelns dieser Punkte stellt
in dem Stereoverfahren ein bedeutungsvolles technisches Problem dar, für des
sen Überwindung verschiedene Vorschläge gemacht wurden.
Unter diesen Vorschlägen ist einer, bei dem das Paar Entsprechungspunkte auf
Grundlage eines bestimmten Objektteils, z. B. einer Kante oder einer Scheitel- oder
Kammlinie erfasst wird. Stellt jedoch die Form des Objektes eine gekrümmte
Fläche wie einen Zylinder dar, ist ein bestimmter Objektteil nicht so einfach identi
fizierbar, so dass unrichtige Entsprechungspunkte erfasst werden bzw. eine
Erfassung dieser Punkte überhaupt unmöglich ist. In diesem Fall ist es nicht
möglich, die tatsächliche 3-D-Information des Objektes zu erhalten.
Aufgabe der Erfindung ist es, ein Verfahren und eine Einrichtung anzugeben, die
eine korrekte Erfassung eines Paars Entsprechungspunkte und eine Messung der
3-D-Information des Objektes ermöglichen, wenn letzteres eine gekrümmte Ober
fläche hat.
Die Erfindung löst diese Aufgabe durch die Gegenstände der unabhängigen
Ansprüche. Vorteilhafte Weiterbildungen sind in den Unteransprüchen angege
ben.
Die erfindungsgemäße Einrichtung zum Messen dreidimensionaler Information
eines Objektes hat eine Bildlesevorrichtung, einen Entsprechungspunktdetektor
und ein Informationsberechnungsmittel. Diese Einrichtung wird für die Fotogram
metrie oder auf dem Gebiet der künstlichen Intelligenz, kurz KI, für das computer
gestützte Sehen verwendet. Beispielsweise wird in der Fotogrammetrie eines
Verkehrsunfallortes eine exklusive Einzelbildkamera (Fotokamera, Standbildka
mera) mit einem Bildsensor eingesetzt. Die Kamera wird an zwei Aufnahmepunk
ten angeordnet, um so das Objekt aus zwei Richtungen aufzunehmen. Das auf
zunehmende Objekt ist zylindrisch, d. h. es bildet einen Rotationskörper. Das
Objekt ist bezüglich seiner Mittelachse im Wesentlichen rotationssymmetrisch und
im Schnitt senkrecht zur Mittelachse kreisförmig. Beispielsweise ist das Objekt
zylinderförmig oder kegelstumpfförmig. Ist das Objekt aufgenommen, so liest die
Bildlesevorrichtung ein Paar Bilder, die auf einem Aufzeichnungsmedium aufge
zeichnet sind. Im Falle der Fotogrammetrie werden beispielsweise die beiden
Bilder auf einer Speicherkarte aufgezeichnet, die lösbar in der Kamera und in der
Einrichtung installiert werden kann. Ist die Speicherkarte in der Einrichtung instal
liert, so liest die Bildlesevorrichtung die beiden Bilder aus dem Speichermedium
aus und speichert sie dann temporär in dem Speicher, z. B. einem Speicher mit
wahlfreiem Zugriff, kurz RAM. Die beiden Bilder ergeben sich, indem das Objekt
von zwei Aufnahmepunkten aus so aufgenommen wird, dass sich in jedem der
beiden Bilder ein Paar Umrisslinien widerspiegeln, die als Einschluß- oder Okklu
sionsumrisse bezeichnet werden.
In jedem der beiden erhaltenen Bilder ist das Objektbild linien- oder spiegelsym
metrisch bezüglich eines imaginären projizierten Bildes der Mittelachse, welches
das Objektbild halbiert. In der erfindungsgemäßen Einrichtung erfasst der Ent
sprechungspunktdetektor mindestens ein Paar Entsprechungspunkte auf zwei
Halbierungslinien, die in den beiden Bildern definiert sind. Das Paar Entspre
chungspunkte ist ein imaginäres Paar von Bildern eines auf der Mittelachse ange
ordneten Messpunktes. Die beiden Entsprechungspunkte werden einmalig in den
beiden Bildern festgelegt. Jede der beiden Halbierungslinien ist ein imaginäres
projiziertes Bild der Mittelachse. Das Informationsberechnungsmittel berechnet
eine dreidimensionale Position mindestens eines Messpunktes auf Grundlage der
beiden Entsprechungspunkte. Zum Berechnen der dreidimensionalen Information
wird ein Triangulationsverfahren angewendet.
Gemäß der Erfindung wird das imaginäre Paar Halbierungslinien definiert und
dann mindestens ein Paar Entsprechungspunkte auf den beiden Halbierungslinien
erfasst. Folglich wird das Paar Entsprechungspunkte korrekt erfasst. Dies hat zur
Folge, dass man auch die korrekte 3-D-Information des Objektes erhält.
Um das mindestens eine Paar Entsprechungspunkte korrekt zu erfassen, wird
vorzugsweise eine Epipolar- oder Kernlinie definiert, die in der Fotogrammetrie
oder beim computergestützten Sehen verwendet wird. Der Entsprechungspunkt
detektor definiert mindestens einen Bildpunkt auf einer der beiden Halbierungsli
nien in einem der beiden Bilder und setzt in dem anderen der beiden Bilder min
destens eine Epipolarlinie, die dem ersten Bildpunkt entspricht. Dann erfasst der
Entsprechungspunktdetektor mindestens einen zweiten Bildpunkt, der den
Schnittpunkt zwischen der anderen der beiden Halbierungslinien und der Epipo
larlinie bildet. Der erste Bildpunkt und der zweite Bildpunkt werden als Paar Ent
sprechungspunkte definiert.
In der Fotogrammetrie führt die Bedienperson üblicherweise unter Einsatz einer
Peripheriekomponente wie einer Tastatur oder einer Maus eine vorgegebene
Operation zum Berechnen der 3-D-Information aus. Um die 3-D-Information mit
Unterstützung der Bedienperson zu berechnen, enthält die Einrichtung vorzugs
weise eine Anzeige- und eine Eingabevorrichtung zum Eingeben eines Anzeige
punktes. Sind die beiden Bilder aus dem Speichermedium ausgelesen, so werden
sie auf der Anzeige dargestellt. Die Eingabevorrichtung wird betätigt, um zwei
Paare Eingabepunkte auf den beiden Okklusionsumrissen in jedem der beiden
Bilder einzugeben. Der Eingabedetektor erfasst die beiden von der Bedienperson
eingegebenen Paare Eingabepunkte und berechnet das Paar Halbierungslinien
und das mindestens eine Paar Entsprechungspunkte gemäß den beiden Paaren
Anzeigepunkte in jedem der beiden Bilder. In diesem Fall wird das mindestens
eine Paar Entsprechungspunkte nicht automatisch nach einem vorgegebenen
Bildbearbeitungsverfahren wie einem Randerfassungsprozess, sondern auf
Grundlage der Eingabepunkte erfasst.
Um einen Radius des Objektes mit der 3-D-Position zu messen, enthält die Ein
richtung vorzugsweise ein Radiusberechnungsmittel. In diesem Fall erfasst der
Entsprechungspunktdetektor zwei Paare Entsprechungspunkte, und das Informa
tionsberechnungsmittel berechnet die Positionen der beiden Messpunkte auf
Grundlage der beiden Paare Entsprechungspunkte. Das Radiusberechnungsmittel
berechnet zunächst aus den Positionen der beiden Messpunkte eine Ebene, in
der ein zur Mittelachse senkrechter und durch einen der beiden Aufnahmepunkte
gehender Vektor ein Normalenvektor ist und in der die Mittelachse enthalten ist.
Anschließend berechnet das Radiusberechnungsmittel auf Grundlage des Bild
punktes einen Randpunkt, der in der Ebene und auf einer gekrümmten Oberfläche
des Objektes liegt. Die Position längs der Mittelachse bezüglich des Randpunktes
ist die gleiche wie die Position eines der beiden Messpunkte. Der Bildpunkt liegt
auf einem der beiden Okklusionsumrisse und entspricht dem Randpunkt. Das
Radiusberechnungsmittel berechnet dann den Radius aus dem Randpunkt und
einem der beiden Messpunkte.
Die Erfindung sieht weiterhin ein Verfahren mit den Merkmalen des Anspruchs 6
sowie ein Speichermedium mit den Merkmalen des Anspruchs 7 vor.
Die Erfindung wird im Folgenden an Hand der Figuren näher erläutert. Darin
zeigen:
Fig. 1 eine Kamera, ein Objekt, einen Bildinformationsprozessor und Peri
pheriekomponenten,
Fig. 2 ein Blockdiagramm des Bildinformationsprozessors und der Periphe
riekomponenten,
Fig. 3 ein Paar projizierter Bilder,
Fig. 4 ein Flussdiagramm eines Prozesses zum Berechnen der
3-D-Information,
Fig. 5 eine Darstellung einer Parallel-Stereo-Kompensation,
Fig. 6 ein Paar auf einem Monitor dargestellter Bilder,
Fig. 7 eine Unterroutine eines Prozesses zum Berechnen einer
3-D-Position,
Fig. 8 eines der beiden Bilder, dem eine Halbierungslinie zugeordnet ist,
Fig. 9 das andere der beiden Bilder, dem eine Halbierungslinie zugeordnet
ist,
Fig. 10 das Paar Bilder, dem ein Paar Entsprechungspunkte zugeordnet ist,
Fig. 11 eine Unterroutine eines Prozesses zur Radiusberechnung,
Fig. 12 das Objekt und eine Ebene mit einem Normalenvektor,
Fig. 13 ein durch eine schwach perspektivische Projektion projiziertes Bild,
Fig. 14 eines der beiden Bilder, auf das sich die Radiusberechnung bezieht,
Fig. 15 andere projizierte Bilder, die von den in Fig. 6 gezeigten Bildern
verschieden sind,
Fig. 16 projizierte Bilder eines Kegelstumpfes, und
Fig. 17 projizierte Bilder eines Rotationskörpers.
Im Folgenden werden bevorzugte Ausführungsbeispiele der Erfindung unter
Bezugnahme auf die Figuren erläutert.
Fig. 1 zeigt eine für die Fotogrammetrie bestimmte Kamera, einen Bildinformati
onsprozessor zum Berechnen einer 3-D-Information eines Objektes und Periphe
riekomponenten.
In diesem Ausführungsbeispiel ist ein Objekt S als Zylinder ausgebildet und eine
Kamera 42 für den Einsatz in der Fotogrammetrie bestimmt. Zunächst wird die
Kamera 42 an einem ersten Aufnahmepunkt PA angeordnet und das Objekt S von
der Kamera 42 aufgenommen, so dass sich ein Bild ergibt, das das Objektbild
enthält. Dabei wird das Objekt so aufgenommen, dass sich ein Paar Okklusions
umrisse, das ein Paar Umrisslinien der Bilder darstellt, in dem Bild widerspiegelt
(reflektiert wird) oder in dieses projiziert wird. In einem zweiten Schritt wird die
Kamera 42 an einem zweiten Aufnahmepunkt PB angeordnet und das Objekt S
aufgenommen, und zwar in entsprechender Weise, wie das für den ersten Auf
nahmepunkt PA erfolgt ist. Auf diese Weise erhält man ein Bilderpaar. Das Zen
trum der Kamera 42, genauer gesagt die Objektivmitte der Kamera 42 ist dabei an
dem Aufnahmepunkt PA bzw. PB angeordnet. Bei Aufnahmen des Objektes S
werden Aufnahmedaten einschließlich des Abstandes zwischen den Aufnahme
punkten PA und PB in einer Speicherkarte 36 gespeichert.
Die Kamera 42 ist eine digitale Einzelbildkamera (Standbildkamera, Fotokamera)
mit einer ladungsgekoppelten Vorrichtung 41, kurz CCD. Die beiden Objektbilder,
die an dem ersten und dem zweiten Aufnahmepunkt PA bzw. PB über ein nicht
gezeigtes Objektiv auf der CCD 41 erzeugt werden, werden in der in der Kamera
42 vorgesehenen Speicherkarte 36 aufgezeichnet. Die Speicherkarte 36 ist eine
Hilfsspeichervorrichtung, die lösbar in der Kamera 42 installiert ist. Ist die Spei
cherkarte 36 in einem Kartenschlitz 11 des Bildinformationsprozessors 10 ge
steckt, so werden die beiden Bilder und die Aufnahmedaten aus der Speicher
karte 36 ausgelesen. Die Speicherkarte 36 ist ein Kompaktblitzspeicher (compact
flash memory). Nachdem die Aufnahme beendet ist, wird der Bildinformationspro
zessor 10 zum Berechnen der 3-D-Information des Objektes S eingesetzt.
Der Bildinformationsprozessor 10 berechnet die 3-D-Information des Objektes S.
An ihn sind ein Monitor 30, eine Tastatur 32 und eine Maus 34 angeschlossen.
Der Bildinformationsprozessor 10 hat den Kartenschlitz 11. Die Speicherkarte 36
wird von der Kamera 42 gelöst und dann in dem Kartenschlitz 11 angebracht.
Wird die Tastatur 32 von einer Bedienperson entsprechend betätigt, so werden
die beiden Bilder auf dem Monitor 30 dargestellt. Weiterhin wird die Maus 34 so
betätigt, dass man die 3-D-Information des Objektes S erhält.
Fig. 2 zeigt ein Blockdiagramm des Bildinformationsprozessors 10 und der Peri
pheriekomponenten.
Eine Systemsteuerschaltung 12 enthält eine zentrale Prozessoreinheit 12A, kurz
CPU, und steuert den Bildinformationsprozessor 10. Außerdem berechnet sie die
dem Objekt S zugeordnete 3-D-Information. Ein Programm zum Berechnen der 3-
D-Information wird im Voraus in einem ROM 14 gespeichert. Die Signalübertra
gung zwischen der Systemsteuerschaltung 12 und den Peripheriekomponenten,
also dem Monitor 30, der Tastatur 32, der Maus 34 und der Speicherkarte 36
erfolgt über eine Schnittstellenschaltung 16.
Wie oben erläutert, werden bei in den Kartenschlitz 11 eingesteckter Speicher
karte 36 die beiden Bilder und die Aufnahmedaten aus der Speicherkarte 36
ausgelesen und über die Schnittstellenschaltung 16 und die Systemsteuerschal
tung 12 temporär in einem RAM 18 gespeichert. Die Tastatur 32 wird so betätigt,
dass die beiden Objektbilder dargestellt werden. Die beiden Bilder werden also
aus dem RAM 18 ausgelesen und verschiedenen Prozessen unterzogen, um so
zur Darstellung des Objektbildes bestimmte Bildsignale (Videosignale) in einer in
der Systemsteuerschaltung 12 vorgesehenen, nicht gezeigten Bildverarbeitungs
schaltung zu erzeugen. Die Bildsignale werden dem Monitor 30 über die Schnitt
stellenschaltung 16 zugeführt, so dass die beiden Bilder auf dem Monitor 30
dargestellt werden. Durch die entsprechende Betätigung der Maus 34 wird die
3-D-Information des Objektes S berechnet, und die CPU 12A führt den zum Be
rechnen der 3-D-Information bestimmten Prozess entsprechend den ihr zuge
führten Informationen durch. Die berechnete 3-D-Information wird auf dem Moni
tor 30 dargestellt und temporär in dem RAM 18 gespeichert.
Fig. 3 zeigt das Objekt S und die beiden Objektbilder.
In Fig. 3 bezeichnet π1 ein Bild, in dem das zu dem ersten Aufnahmepunkt PA
gehörige Objektbild enthalten ist, und π2 ein Bild, in dem das zu dem zweiten
Aufnahmepunkt PB gehörige Objektbild enthalten ist. In dem Bild π1 ist ein Paar
Umrisslinienbilder des Objektbildes S1 mit MA1 und MA2 bezeichnet. Entspre
chend ist in dem Bild π2 ein Paar Umrisslinienbilder des Objektbildes S2 mit MB1
und MB2 bezeichnet. Diese Umrisslinienbilder werden auf dem technischen
Gebiet des Stereoverfahrens als Einschluß- oder Okklusionsumrisse bezeichnet.
Die Objektbilder des ersten und des zweiten Aufnahmepunktes PA, PB sind mit
S1 bzw. S2 bezeichnet.
Bekanntlich sollte zum Berechnen der 3-D-Position des Objektes S ein Paar
Entsprechungspunkte erfasst werden. Jeder dieser Punkte entspricht dabei einem
Bild eines Punktes des Objektes S. Ist die Außenfläche des Objektes eine ge
krümmte Fläche, so bereitet es Schwierigkeiten, die beiden Entsprechungspunkte
aus den beiden aufgenommenen Bildern korrekt zu bestimmen. Beispielsweise
liegt für einen Punkt JA, der sich auf dem Umfang der oberen Fläche UA befindet,
dessen Bildpunkt JA' auf der in dem Bild π1 enthaltenen Umrisslinie MA2. Ande
rerseits liegt in dem Bild π2 ein Bildpunkt JB' eines auf dem Umfang angeordneten
Punktes JB auf der Umrisslinie MB2. Obgleich der Punkt JA von dem Punkt JB
verschieden ist, liegt also der Bildpunkt JA' auf der Umrisslinie MA2 und der
Bildpunkt JB' auf der Umrisslinie MB2. Werden also als Paar Entsprechungs
punkte die Bildpunkte JA' und JB' bestimmt, so wird eine falsche 3-D-Information
berechnet.
Das Objekt S ist zylindrisch und bezüglich seiner Mittelachse SU rotationssymme
trisch. Betrachtet man imaginär projizierte Bilder der Mittelachse SU in den Bildern
π1, π2, wobei diese Bilder tatsächlich nicht dargestellt werden, so werden die
Objektbilder S1 und S2 linien- oder spiegelsymmetrisch bezüglich dieser imaginä
ren Zentralachsbilder. In Bild π1 ist das Zentralachsbild mit SU1 und in Bild π2 mit
SU2 bezeichnet. Da das Objekt S ein Zylinder ist, sind die beiden Umrisslinien
oder Okklusionsumrisse MA1 und MA2 parallel zum Zentralachsbild SU1, und das
Objektbild S1 wird von dem Zentralachsbild SU1 halbiert. Entsprechend wird das
Objektbild S2 durch das Zentralachsbild SU2 halbiert. Wie in Fig. 3 gezeigt, liegen
in den Bildern π1 und π2 vorhandene Bildpunkte C1 bzw. C2, die Imaginärbilder
eines auf der Zentralachse SU angeordneten Punktes C darstellen, auf den
Zentralachsbildern SU1 bzw. SU2.
Auch für jede andere Position als dem ersten und dem zweiten Aufnahmepunkt
PA und PB ist das sich ergebende Objektbild linien- oder spiegelsymmetrisch
bezüglich des projizierten Bildes der Zentralachse SU, die das Objektbild halbiert.
In diesem Ausführungsbeispiel ist also ein vorgegebener Punkt auf der Zen
tralachse SU als Messpunkt definiert, der eine 3-D-Information des Objektes S
enthält. Die 3-D-Position des Objektes S wird in diesem Ausführungsbeispiel
durch die Position dieses Messpunktes ausgedrückt. Für den auf der Zentralachse
SU liegenden Messpunkt werden die beiden Entsprechungspunkte auf den Zen
tralachsbildern SU1 bzw. SU2 einmalig erfasst. Aus dem Paar Entsprechungs
punkte kann man dann durch Anwendung einer Triangulation den Messpunkt
erhalten.
Fig. 4 zeigt ein Flussdiagramm eines Prozesses zum Berechnen der 3-D-Information.
Fig. 5 zeigt ein kompensiertes Paar Bilder und Fig. 6 ein Paar auf
dem Monitor 30 dargestellter Bilder. Mit einer bestimmten Betätigung der Tastatur
32 durch die Bedienperson wird der Prozess zum Berechnen der 3-D-Information
gestartet.
In Schritt 101 werden die beiden aufgenommenen Bilder aus der Speicherkarte 36
ausgelesen und temporär in dem RAM 18 gespeichert. Dann werden in Schritt
102 die die Kamerapositionen und die Kamerastellung enthaltenden Aufnahme
daten aus der Speicherkarte 36 ausgelesen.
In Schritt 103 werden in der Systemsteuerschaltung 12 eine Verzerrungskompen
sation und eine Parallel-Stereo-Kompensation durchgeführt. Die Verzerrungs
kompensation kompensiert die Verzerrung der Bilder π1 und π2, die durch die
Eigenschaften des in der Kamera 42 vorgesehenen Objektivs verursacht werden.
In der Parallel-Stereo-Kompensation wird eine "affine Transformation" durchge
führt, so dass sich affin transformierte Bilder π1' und π2' ergeben. Die geometri
sche Beziehung zwischen den in Fig. 3 gezeigten Bildern π1 und π2 setzt sich
dabei in die in Fig. 5 gezeigte Beziehung zwischen den Bildern π1' und π2' um.
Werden 3-D-Koordinaten (x, y, z) an den Aufnahmepunkten PA und PB definiert,
fällt ein den ersten Aufnahmepunkt PA mit dem zweiten Aufnahmepunkt PB
verbindender Verschiebungsvektor SV mit der x-Koordinate in dem transformier
ten Bild π1' und π2' zusammen. Dies ist unterschiedlich zur Koordinatenbeziehung
zwischen den Bildern π1, π2 (vgl. Fig. 3). Vorliegend wird also eine umwälzende
affine Transformation durchgeführt. Die Verzeichnungskompensation und die
Parallel-Stereo-Kompensation stellen bekannte Prozesse dar.
In Schritt 104 wird ein sich durch die Verzeichnungskompensation und die Paral
lel-Stereo-Kompensation gegebenes Paar Bilder auf dem Monitor 30 dargestellt,
wie Fig. 6 zeigt. Im Folgenden wird ein dem Bild π1' (vgl. Fig. 5) entsprechendes
Bild als erstes Bild IA und ein dem Bild π2' entsprechendes Bild als zweites Bild IB
bezeichnet. Nach Darstellung der beiden Bilder IA und IB wird durch eine entspre
chende Betätigung der Maus 34 durch die Bedienperson eine Reihe von Anzeige
punkten Pa1 bis Pd1 und Pa2 bis Pd2 eingegeben. Für das erste Bild IA werden
die Anzeigepunkte Pa1 und Pb1 auf den Okklusionsumriss MA1 und die Anzeige
punkte Pc1 und Pd1 auf den Okklusionsumriss MA2 gesetzt. Entsprechend wer
den für das zweite Bild IB die Anzeigepunkte Pa2 und Pb2 auf den Okklusionsum
riss MB1 und die Anzeigepunkte Pc2 und Pd2 auf den Anzeigeumriss MB2 ge
setzt. Es ist darauf hinzuweisen, dass die Anzeigepunkte Pa1 und Pc1 sowie die
Anzeigepunkte Pb1 und Pd1 jeweils ein Paar und die Anzeigepunkte Pa2 und Pc2
sowie die Anzeigepunkte Pb2 und Pd2 jeweils ein Paar bilden. Werden die Anzei
gepunkte über die Maus 34 eingegeben, so werden ihre Positionen in den Bildern
IA und IB erfasst. Nach Schritt 104 geht der Prozess zu Schritt 105 über.
In Schritt 105 wird die Position des Objektes S. nämlich die Position des durch
3-D-Koordinaten ausgedrückten Messpunktes berechnet. Dann wird in Schritt 106
der Radius des Objektes S auf Grundlage der 3-D-Position berechnet.
Fig. 7 zeigt die Unterroutine des in Fig. 4 angegebenen Schrittes 105. Die Fig. 8
und 9 zeigen das erste Bild IA bzw. das zweite Bild IB und Fig. 10 eine Darstel
lung mit dem Paar Bilder, in dem eine Epipolar- oder Kernlinie definiert ist. Für
jedes der beiden Bilder IA und IB werden die Bildschirmkoordinaten (X, Y) defi
niert und der Ursprung auf die linke obere Ecke des entsprechenden Bildes IA
bzw. IB gesetzt. Die Pixelzahl des ersten und des zweiten Bildes IA, IB beträgt W
x H. Dabei ist die Pixelzahl längs der X-Koordinate W und die längs der
Y-Koordinate H.
In Schritt 201 wird in dem ersten Bild IA eine gerade, durch die Anzeigepunkte
PA1 und PB1 gehende Linie La1 berechnet, wie Fig. 8 zeigt. Diese gerade Linie
La1 befindet sich auf dem Okklusionsumriss MA1. In Schritt 202 wird in dem
ersten Bild IA eine gerade, durch die Anzeigepunkte Pc1 und Pd1 gehende Linie
Lb1 berechnet. Diese gerade Linie Lb1 befindet sich auf dem Okklusionsumriss
Ma2. Die geraden Linien La1 und Lb1 werden durch die Bildschirmkoordinaten (X,
Y) ausgedrückt.
In Schritt 203 in dem ersten Bild IA eine gerade, durch die Anzeigepunkte Pa1
und Pc1 gehende Linie Q1 berechnet (vgl. Fig. 8). Entsprechend wird in Schritt
204 in dem ersten Bild IA eine gerade, durch die Anzeigepunkte Pb1 und Pd1
gehende Linie Q2 berechnet. In Schritt 205 wird auf Grundlage der geraden Linien
La1 und Lb1 eine Halbierungslinie Le1 berechnet. Wie oben beschrieben, halbiert
die Halbierungslinie Le1 das Objektbild S1 und entspricht einem imaginären
projizierten Bild der Zentralachse SU (vgl. Fig. 3). Da das Objekt S ein Zylinder ist,
sind die beiden geraden Linien La1 und Lb1 parallel zu der Halbierungslinie Le1
sowie der Abstand der geraden Linie La1 von der Halbierungslinie Le1 gleich dem
Abstand der geraden Linie Lb1 von der Halbierungslinie Le1. Nach Schritt 205
geht der Prozess zu Schritt 206 über.
In Schritt 206 wird, wie in Fig. 9 gezeigt, eine gerade, durch die Anzeigepunkte
Pa2 und Pb2 gehende Linie La2 berechnet. In Schritt 207 wird eine gerade, durch
die Anzeigepunkte Pc2 und Pd2 gehende Linie Lb2 berechnet. Die geraden Linien
La2 und Lb2 entsprechen den Okklusionsumrissen MB1 bzw. MB2. Dann erhält
man in Schritt 208 eine das Objektbild S2 halbierende Halbierungslinie Le2 auf
Grundlage der geraden Linien La2 und Lb2. Die Halbierungslinie Le2 halbiert das
Objektbild S2 und entspricht einem imaginären projizierten Bild der Zentralachse
SU, entsprechend der Halbierungslinie Le1. Nach Schritt 208 geht der Prozess zu
Schritt 209 über.
In Schritt 209 wird ein durch Koordinaten (Xa1, Ya1) ausgedrückter Schnittpunkt
Pe1 berechnet, in dem die gerade Linie Q1 die Halbierungslinie Le1 schneidet. In
Schritt 210 wird ein durch Koordinaten (Xb1, Yb1) ausgedrückter Schnittpunkt Pf1
berechnet, in dem die gerade Linie Q2 die Halbierungslinie Le1 schneidet. In
Schritt 211 wird in dem zweiten Bild IB eine Epipolarlinie EP1 gesetzt, die dem
Schnittpunkt Pe1 in dem Bild IA entspricht, und es wird ein durch Koordinaten
(Xa2, Ya2) ausgedrückter Schnittpunkt Pe2 berechnet, in dem die Epipolarlinie
EP1 die Halbierungslinie Le2 schneidet. Der Schnittpunkt Pe1 und der Schnitt
punkt Pe2 werden als Paar Entsprechungspunkte festgelegt, das ein lmaginärbild
eines bestimmten Punktes auf der Zentralachse SU ist. Da die Parallel-Stereo-Kompensation
in Schritt 103 durchgeführt wird (vgl. Fig. 4 und 5), ist die Epipolar
linie EP1 parallel zur X-Koordinate in dem Bild IB und schneidet die Y-Koordinate
Ya1, die in dem Bild IA die Y-Koordinate des Schnittpunktes Pe1 ist. Nach Schritt
211 geht der Prozess zu Schritt 212 über.
In Schritt 212 wird eine Epipolarlinie EP2 gesetzt, die parallel zur X-Koordinate ist
und durch die Y-Koordinate Yb1 geht. Die Y-Koordinate Yb1 entspricht der Y-Koordinate
des Schnittpunktes Pf1 in dem Bild IA. Dann wird ein durch Koordina
ten (Xb2, Yb2 (= Yb1)) ausgedrückter Schnittpunkt Pf2 berechnet, in dem die
Epipolarlinie EP2 die Halbierungslinie Le2 schneidet. Das sich aus den Schnitt
punkten Pf1 und Pf2 zusammensetzende Paar Entsprechungspunkte ist ver
schieden von dem Paar Entsprechungspunkte Pe1 und Pe2. Wenn das Punkt
paar Pe1 und Pe2 das Punktpaar Pf1 und Pf2 berechnet sind, geht der Prozess
zu Schritt 213 über.
In Schritt 213 wird eine Koordinatentransformation unter Anwendung der Trian
gulation durchgeführt, um die 3-D-Position des Objektes S zu berechnen. Zu
nächst werden die in dem ersten und dem zweiten Bild IA, IB definierten Koordi
naten (X, Y) auf CCD-Koordinaten (u, v) transformiert, die in einem Bilderzeu
gungsbereich der CCD 41 entsprechend den in Fig. 5 gezeigten Bildern π1' und
π2' definiert sind. In dieser Transformation erfolgen eine Translation zur Anpas
sung der Ursprungsposition und eine Skalentransformation, so dass das Paar
Entsprechungspunkte Pe1 und Pe2 und das Paar Entsprechungspunkte Pf1 und
Pf2 nicht mehr durch die Bildschirmkoordinaten (X, Y), sondern durch die CCD-Koordinaten
(u, v) ausgedrückt werden. Die Koordinatentransformation wird unter
Anwendung folgender Formel (1) durchgeführt. Dabei werden die Koordinaten
(Xa1, Ya1), (Xa2, Ya2), (Xb1, Yb1), (Xb2, Yb2) auf die CCD-Koordinaten (ua1,
va1), (ua2, va2), (ub1, vb1) bzw. (ub2, vb2) transformiert.
P' = R.P (1)
worin
In Formel (1) bezeichnet "TeilungX" das Verhältnis der Breite des Bilderzeu
gungsbereichs zur Breite des Bildes IA (oder des Bildes IB). Die Breite des Bildes
IA entspricht der Länge in X-Richtung. "TeilungY" gibt das Verhältnis der Länge
des Bilderzeugungsbereichs zur Länge des Bildes IA (oder des Bildes IB) an, die
der Länge in Y-Richtung entspricht. F bezeichnet die Brennweite der Kamera 42.
Der Ursprungspunkt der CCD-Koordinate (u, v) ist im Mittelpunkt des Bilderzeu
gungsbereichs festgelegt. Die Einheit der CCD-Koordinaten (u, v) ist Millimeter
(mm) und die Einheit der Bildschirmkoordinaten (X, Y) 1 Pixel. Wie aus Formel (1)
hervorgeht, wird die Tiefenrichtung in CCD-Koordinaten behandelt, d. h. die CCD-Koordinaten
werden durch 3-D-Koordinaten (u, v und F) ausgedrückt. Sind die
Koordinaten der Entsprechungspunkte Pe1, Pe2 und die Entsprechungspunkte
Pf1, Pf2 transformiert, so geht der Prozess zu Schritt 214 über.
In Schritt 214 wird auf Grundlage der CCD-Koordinaten (ua1, va1) und (ua2, va2),
die dem Paar Entsprechungspunkte Pe1 und Pe2 entsprechen, und des Abstan
des zwischen erstem und zweitem Aufnahmepunkt PA und PB die Position eines
Messpunktes P1 gemäß nachfolgender Formel berechnet. Der Messpunkt P1 liegt
auf der Zentralachse SU, und die Schnittpunkte Pe1 und Pe2 bilden beide ein
imaginäres projiziertes Bild des Messpunktes P1. Der Abstand zwischen erstem
und zweitem Aufnahmepunkt PA, PB wird im Folgenden als C bezeichnet. Die 3-D-Koordinaten
(x, y, z) werden an Hand des ersten Aufnahmepunktes PA defi
niert, d. h. die Ursprungsposition der 3-D-Koordinaten (x, y, z) wird auf den ersten
Aufnahmepunkt PA gesetzt.
Die Formel (2) basiert auf der Triangulation. Die 3-D-Koordinaten (x1, y1, z1) des
Messpunktes P1 ergeben sich aus Formel (2). Die z-Koordinate z1 des Mess
punktes P1 gibt die Tiefe ausgehend von dem ersten Aufnahmepunkt PA an. In
Schritt 215 erhält man die Koordinaten (x2, y2, z2) eines Messpunktes P2 auf der
Zentralachse SU entsprechend dem Paar Entsprechungspunkte Pf1 und Pf2
gemäß Formel (2). Die z-Koordinate z2 ist die gleiche wie die z-Koordinate z1. Die
beiden Koordinaten (x1, y1, z1) und (x2, y2, z2) werden auf dem Monitor 30
dargestellt und temporär im Speicher 18 gespeichert. Nach Schritt 215 ist diese
Unterroutine beendet, und der Prozess kehrt zu dem in Fig. 4 gezeigten Schritt
105 zurück.
Während die Schritte 201 bis 205 durchgeführt werden, werden Daten einschließ
lich der berechneten geraden Linie, des Schnittpunktes etc. temporär gespeichert.
Diese gespeicherten Daten werden nach Bedarf ausgelesen.
Fig. 11 zeigt die in Fig. 4 angegebene Unterroutine des Schrittes 106. Fig. 12 zeigt
das Objekt und eine Ebene mit einem Normalenvektor. Fig. 13 zeigt ein durch
eine schwach perspektivische Projektion projiziertes Bild. Fig. 14 zeigt eines der
beiden Bilder, auf das sich die Radiusberechnung bezieht.
In dem in Fig. 11 gezeigten Schritt 301 erhält man zunächst eine durch die 3-D-Koordinaten
(x, y, z) ausgedrückte gerade Linie m1 aus den Koordinaten (x1, y1,
z1) und (x2, y2, z2) der beiden Messpunkte P1 und P2. Die gerade Linie m1 wird
nach folgender Formel berechnet.
worin
(a,b,c) = (x2-x1, y2-y1, z2-z1)
Wie in Fig. 12 gezeigt, wird dann basierend auf der geraden Linie m1 ein Vektor V
= (e, g, f) berechnet. Der Vektor V ist der Vektor einer Linie, die sich ausgehend
vom Ursprung der 3-D-Koordinaten (x, y, z) erstreckt, also von dem ersten Auf
nahmepunkt PA aus zur geraden Linie m1. Der Vektor V ist senkrecht zur geraden
Linie m1. Der Vektor V wird nach folgender Formel berechnet, die eine Vertikal- oder
Normalbeziehung zwischen der geraden Linie m1 und dem Vektor V angibt.
(e,f,g).(a,b,c) = 0 (4)
Ist der Vektor V ermittelt, so geht der Prozess zu Schritt 302 über.
In Schritt 302 wird eine Ebene R berechnet, in der die gerade Linie m1, also die
Zentralachse SU enthalten ist und zu der der Vektor V = (e, f, g) der Normalen
vektor ist (vgl. Fig. 12). Die Ebene R ergibt sich nach folgender Formel.
ex+fy+g2+d = 0 (5)
worin
d = -(ex1+fy1+gz1)
= -(ex2+fy2+gz2)
Ist die Ebene R berechnet, so fährt der Prozess mit Schritt 303 fort.
d = -(ex1+fy1+gz1)
= -(ex2+fy2+gz2)
Ist die Ebene R berechnet, so fährt der Prozess mit Schritt 303 fort.
In Fig. 13 ist die Beziehung gezeigt zwischen einem vorgegebenen Punkt in der
Ebene R und auf der gekrümmten Fläche des Objektes S und einem vorgegebe
nen Punkt auf den beiden Okklusionsumrissen MA1, MA2 in dem Bild IA entspre
chend dem ersten Aufnahmepunkt PA. Die Richtung des Vektors V fällt hierbei
zur Vereinfachung der Erläuterung mit der Tiefenrichtung, also der z-Richtung der
3-D-Koordinaten (x, y, z) zusammen. In dem Bild IA ist ein Punkt auf der Umrissli
nie MA1 als Randpunkt T1 definiert. In der Bildebene der CCD 41 entspricht ein
Bildpunkt T1' dem Randpunkt T1. Weiterhin ist eine gerade Linie N definiert, die
durch die Ursprungsposition O (= PA) und den Bildpunkt T1' geht.
In diesem Ausführungsbeispiel wird eine "schwach perspektivische Projektion" als
Projektionsverfahren angewendet. Die schwach perspektivische Projektion ist eine
Kombination aus orthografischer Projektion und perspektivischer Projektion. Das
Objekt S wird zunächst einer orthografischen Projektion für eine Ebene τ unterzo
gen, die dem Objekt S benachbart definiert ist. Dann wird das projizierte Bild der
perspektivischen Projektion für die Ursprungsposition O unterzogen. Im Falle der
schwach perspektivischen Projektion wird der Abstand von der Ursprungsposition
O zum Objekt S. in Fig. 13 durch M dargestellt, als viel länger betrachtet als der
Radius r des Objektes S. Mit anderen Worten ist also der Abstand M viel größer
als die Länge des Objektes S längs der Tiefenrichtung (z-Richtung). Da die ortho
grafische Projektion längs der Richtung der optischen Achse der Kamera 42, also
längs des Normalenvektors V durchgeführt wird, ist die Ebene τ parallel zur Ebene
R.
Ist der Punkt, der sich auf der Oberfläche des Objektes S und in der Ebene R
befindet, als Randpunkt T definiert und ein Bildpunkt dieses Randpunktes T in der
Ebene τ durch T' dargestellt, so geht die gerade Linie N durch den Bildpunkt T1,
der sich in dem in der CCD 41 vorgesehenen Bilderzeugungsbereich befindet,
und durch den Bildpunkt T' in der Ebene τ. Auf Grundlage der Eigenschaft der
schwach perspektivischen Projektion wird die gerade Linie N als eine gerade Linie
N', die in Fig. 13 gestrichelt dargestellt ist, angesehen, die durch den Randpunkt T
des Objektes S geht. Ist die y-Koordinate in den 3-D-Koordinaten (x, y, z) bezüg
lich des Randpunktes T die gleiche wie die y-Koordinate des Messpunktes P1
oder P2 des Objektes S. so erhält man den Radius r durch Berechnen der gera
den Linie N und der 3-D-Koordinaten des Randpunktes T. In diesem Ausfüh
rungsbeispiel wird also zunächst der Randpunkt T berechnet.
In Schritt 303 wird in dem Bild IA eine gerade Linie Lg1 berechnet, die senkrecht
zur Halbierungslinie Le1 verläuft und durch den Schnittpunkt Pe1 geht. In Schritt
304 wird eine gerade Linie Lh1 berechnet, die senkrecht zur Halbierungslinie Le1
verläuft und durch den Schnittpunkt Pf1 geht. In Schritt 305 ergibt sich ein Bild
schirmgrenzpunkt Pg1, der den Schnittpunkt zwischen den geraden Linien Lg1
und La1 bildet. In Schritt 306 ergibt sich ein Bildschirmgrenzpunkt, der den
Schnittpunkt der geraden Linien Lh1 und La1 bildet.
In Schritt 307 erfolgt entsprechend Schritt 213 nach Fig. 7 die Koordinatentrans
formation für die Schnittpunkte Pg1 und Ph1. Hierbei werden die Bildschirmkoor
dinaten (X, Y) auf die CCD-Koordinaten (u, v, F) transformiert. In Schritt 308 wird
eine gerade Linie LA berechnet, die durch einen Bildpunkt Pg1 in dem Bilderzeu
gungsbereich entsprechend dem Bildschirmgrenzpunkt Pg1 und durch den Ur
sprung O geht. In Schritt 309 wird eine gerade Linie LB berechnet, die durch einen
dem Bildschirmgrenzpunkt Ph1 entsprechenden Bildpunkt Ph1 in der Bilderzeu
gungsebene und durch den Ursprung O geht. Die gerade Linie LA oder LB ent
spricht der in Fig. 13 gezeigten geraden Linie N (N'). Sind die geraden Linien LA
und LB ermittelt, so geht der Prozess zu Schritt 310 über.
In Schritt 310 wird auf Grundlage der Formel (5) und der durch die 3-D-Koordinaten
(x, y, z) ausgedrückten geraden Linie LA ein Randpunkt PC berech
net, der einen Schnittpunkt der geraden Linie LA mit dem Objekt S bildet und in
der Ebene R liegt. In Schritt 311 wird auf Grundlage der Formel (5) und der durch
die 3-D-Koordinaten (x, y, z) ausgedrückten geraden Linie LB ein Randpunkt PD
berechnet, der einen Schnittpunkt der geraden Linie LB mit dem Objekt S bildet
und in der Ebene R liegt. Die Randpunkte PC und PD entsprechen dem in Fig. 13
gezeigten Randpunkt T. Die y-Koordinate der Randpunkte PC und PD fällt mit der
y-Koordinate der Messpunkte P1 bzw. P2 zusammen.
In Schritt 312 wird ein Abstand r1 des Messpunktes P1 von dem Randpunkt PC
berechnet. In Schritt 313 wird ein Abstand r2 des Messpunktes P2 von dem
Randpunkt PD berechnet. Da das Objekt S ein Zylinder ist, ist der Abstand r1
gleich dem Abstand r2. Dabei geben r1 und r2 den Radius des Objektes S an. Ist
Schritt 313 ausgeführt, so endet diese Unterroutine.
Unter Bezugnahme auf die Fig. 15 bis 17 werden im Folgenden projizierte Bilder
und die Form des Objektes erläutert.
Fig. 15 zeigt andere aufgenommene Bilder des Objektes S. Ist das Paar Entspre
chungspunkte in oben erläuterter Weise ermittelt, kann die 3-D-Information selbst
dann berechnet werden, wenn sich die obere Fläche oder die untere Fläche des
Objektes S in den aufgenommenen Bildern nicht widerspiegelt (nicht reflektiert
wird).
Fig. 16 zeigt ein Objekt, das sich von einem Zylinder unterscheidet.
Mit dem oben erläuterten Prozess zur 3-D-Berechnung kann die 3-D-Information
eines in Fig. 16 gezeigten, bezüglich seiner Mittelachse Es rotationssymmetri
schen Kegelstumpfes E gemessen werden. In diesem Fall werden zunächst
gerade Linien Q1 und Q2 definiert. Dann wird eine gerade Linie, die durch den
Mittelpunkt zwischen Anzeigepunkten Pa1 und Pc1 und durch den Mittelpunkt
zwischen Anzeigepunkten Pb1 und Pd1 geht, als Halbierungslinie Le1 definiert. In
dem Bild IB werden gerade Linien Q1' und Q2' definiert. Wird eine gerade Linie,
die durch den Mittelpunkt zwischen Anzeigepunkten Pa2 und Pc2 und durch den
Mittelpunkt zwischen Anzeigepunkten Pb2 und Pd2 geht, als Halbierungslinie Le2
definiert. Das Paar Entsprechungspunkte Pe1 und Pe2 erhält man durch Definie
ren einer Epipolarlinie EP1. Ist das Objekt S als Kegelstumpf ausgebildet, ist der
den Entsprechungspunkten Pe1 und Pe2 entsprechende Radius verschieden von
dem der Entsprechungspunkte Pf1 und Pf2.
Fig. 17 zeigt ein Objekt, das sich von einem Zylinder und einem Kegelstumpf
unterscheidet.
In Fig. 17 ist ein Objekt R0 gezeigt, das zylindrisch ausgebildet und bezüglich
seiner Mittelachse RS rotationssymmetrisch ist. Im Schnitt senkrecht zur Mitte
lachse RS ist das Objekt R0 kreisförmig. Nach dem oben erläuterten Prozess zur
3-D-Berechnung kann auch die 3-D-Information des Objektes R0 berechnet
werden. In diesem Fall werden die Halbierungslinien Le1 und Le2 definiert, und
man erhält das Paar Entsprechungspunkte Pe1 und Pe2 durch Definieren der
Epipolarlinie EP1, entsprechend dem in Fig. 16 gezeigten Objekt E.
Auf diese Weise erhält man in diesem Ausführungsbeispiel die Positionen der
Messpunkte P1 und P2 entsprechend dem Paar Entsprechungspunkte Pe1 und
Pe2 und dem Paar Entsprechungspunkte Pf1 und Pf2. Der Radius des Objektes
wird auf Grundlage der Messpunkte P1 und P2 berechnet.
Wird der Radius nicht berechnet, so kann nur das Paar Entsprechungspunkte Pe1
und Pe2 (oder Pf1 und Pf2) erfasst werden, um die Position des Messpunktes P1
(oder P2) zu berechnen. Ferner kann ein Punkt der beiden Entsprechungspunkte
Pe2 (oder Pf2) ohne Definieren der Epipolarlinie EP1 erfasst werden. In diesem
Fall wird der Punkt der Halbierungslinie Le2, dessen Y-Koordinate die gleiche wie
die des Entsprechungspunktes Pe1 (oder Pf1) ist, als Entsprechungspunkt Pe2
(oder Pf2) definiert.
Das Paar Entsprechungspunkte Pe1 (Pe2) kann ohne die den Monitor 30 und die
Maus 34 einsetzende Eingabeoperation erfasst werden. Die Entsprechungspunkte
werden also automatisch berechnet. In diesem Fall werden das Paar Okklusions
umrisse MA1, MA2 und das Paar Okklusionsumrisse MB1, MB2 in einem Lini
enerfassungsprozess, wie einem Randerfassungsprozess ermittelt, ohne die
beiden Bilder IA und IB darzustellen, und dann das Paar Entsprechungspunkte
erfasst.
In dem Ausführungsbeispiel wird eine Messung der 3-D-Information unter Anwen
dung des Stereoverfahrens auf die Fotogrammetrie angewendet. Die Messung
kann jedoch auch auf das "computergestützte Sehen" angewendet werden. In
diesem Fall werden zwei Einzelbildkameras (Standbild-, Fotokameras) oder
Filmkameras bereitgestellt und über diese beiden Kameras ein Objekt aus zwei
Richtungen aufgenommen. Die 3-D-Information des Objektes wird dann aus den
beiden Bildern berechnet.
In dem erläuterten Ausführungsbeispiel wird die Parallel-Stereo-Kompensation
durchgeführt. Die Positionen der Messpunkte können jedoch auch ohne die
Parallel-Stereo-Kompensation berechnet werden. In diesem Fall wird eine Epipo
larlinie definiert, die von der in Fig. 10 gezeigten Epipolarlinie EP1 verschieden ist.
Claims (7)
1. Einrichtung zum Messen dreidimensionaler Information eines Objektes, mit
einer Bildlesevorrichtung, die ein auf ein Aufzeichnungsmedium aufgezeich
netes Paar Bilder liest, die durch Aufnahme des Objektes von zwei Aufnah
mepunkten aus erzeugt werden, wobei das Objekt zylindrisch ist und sich in
jedem der beiden Bilder ein Paar Okklusionsumrisse widerspiegeln,
einem Entsprechungspunktdetektor, der mindestens ein Paar Entspre chungspunkte erfasst, das ein Paar imaginärer Bilder mindestens eines auf der Mittelachse des Objektes angeordneten Messpunktes ist, wobei die bei den Entsprechungspunkte auf zwei in den beiden Bildern definierten Halbie rungslinien angeordnet sind und jede der beiden Halbierungslinien ein ima ginäres projiziertes Bild der Mittelachse ist, und
einem Informationsberechnungsmittel, das eine dreidimensionale Position des Messpunktes auf Grundlage der beiden Entsprechungspunkte unter Anwendung eines Triangulationsverfahrens berechnet.
einem Entsprechungspunktdetektor, der mindestens ein Paar Entspre chungspunkte erfasst, das ein Paar imaginärer Bilder mindestens eines auf der Mittelachse des Objektes angeordneten Messpunktes ist, wobei die bei den Entsprechungspunkte auf zwei in den beiden Bildern definierten Halbie rungslinien angeordnet sind und jede der beiden Halbierungslinien ein ima ginäres projiziertes Bild der Mittelachse ist, und
einem Informationsberechnungsmittel, das eine dreidimensionale Position des Messpunktes auf Grundlage der beiden Entsprechungspunkte unter Anwendung eines Triangulationsverfahrens berechnet.
2. Einrichtung nach Anspruch 1, dadurch gekennzeichnet, dass eine digitale
Einzelbildkamera mit einem Bildsensor für die Fotogrammetrie verwendet
wird und die Kamera an zwei Aufnahmepositionen angeordnet wird, um die
beiden Bilder zu erhalten.
3. Einrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der
Entsprechungspunktdetektor mindestens einen ersten Bildpunkt auf einer
der beiden Halbierungslinien in einem der beiden Bilder definiert, in dem an
deren der beiden Bilder mindestens eine dem ersten Bildpunkt entsprechen
de Epipolarlinie setzt und mindestens einen zweiten Bildpunkt erzeugt, der
den Schnittpunkt zwischen der anderen der beiden Halbierungslinien und der
Epipolarlinie bildet, wobei der erste Bildpunkt und der zweite Bildpunkt als
die beiden Entsprechungspunkte definiert werden.
4. Einrichtung nach einem der vorhergehenden Ansprüche, gekennzeichnet
durch eine Anzeige zum Darstellen der beiden Bilder, wobei diese dargestellt
werden, wenn sie von dem Aufzeichnungsmedium ausgelesen werden, und
eine Eingabevorrichtung zum Eingeben von zwei Paaren Anzeigepunkten
auf den beiden Okklusionsumrissen in jedem der beiden Bilder, wobei der
Entsprechungspunktdetektor die beiden von einer Bedienperson eingegebe
nen Paare Anzeigepunkte erfasst und die beiden Halbierungslinien sowie die
beiden Entsprechungspunkte gemäß den beiden Paaren Anzeigepunkte in
jedem der beiden Bilder berechnet.
5. Einrichtung nach einem der vorhergehenden Ansprüche, dadurch gekenn
zeichnet, dass ein Radiusberechnungsmittel zum Berechnen eines Radius
des Objektes vorgesehen ist, dass der Entsprechungspunktdetektor zwei
Paare Entsprechungspunkte erfasst und das Informationsberechnungsmittel
dreidimensionale Positionen der beiden Messpunkte berechnet, und dass
das Radiusberechnungsmittel zum Ersten aus den Positionen der beiden
Messpunkte eine Ebene berechnet, in der ein zur Mittelachse senkrechter
und durch die beiden Aufnahmepunkte gehender Vektor ein Normalenvektor
ist und in der die Mittelachse enthalten ist, zum Zweiten einen in der Ebene
und auf einer gekrümmten Oberfläche des Objektes liegenden Randpunkt
berechnet, in dem die Position längs der Mittelachse mit der eines der bei
den Messpunkte zusammenfällt, wobei diese Berechnung auf Grundlage ei
nes Bildpunktes erfolgt, der auf einem der beiden Okklusionsumrisse liegt
und dem Randpunkt entspricht, und zum Dritten den Radius aus einem der
beiden Messpunkte und dem Randpunkt berechnet.
6. Verfahren zum Messen dreidimensionaler Information eines Objektes, mit
folgenden Schritten:
Lesen eines auf ein Aufzeichnungsmedium aufgezeichneten Paars Bilder, die durch Aufnahme des Objektes von zwei Aufnahmepunkten aus erzeugt werden, wobei das Objekt zylindrisch ist und sich in jedem der beiden Bilder ein Paar Okklusionsumrisse widerspiegeln,
Erfassen mindestens eines Paars Entsprechungspunkte, das ein Paar imaginärer Bilder mindestens eines auf der Mittelachse des Objektes ange ordneten Messpunktes ist, wobei die beiden Entsprechungspunkte auf zwei in den beiden Bildern definierten Halbierungslinien angeordnet sind und jede der beiden Halbierungslinien ein imaginäres projiziertes Bild der Mittelachse ist, und
Berechnen einer dreidimensionalen Position des Messpunktes auf Grundla ge der beiden Entsprechungspunkte unter Anwendung eines Triangulations verfahrens.
Lesen eines auf ein Aufzeichnungsmedium aufgezeichneten Paars Bilder, die durch Aufnahme des Objektes von zwei Aufnahmepunkten aus erzeugt werden, wobei das Objekt zylindrisch ist und sich in jedem der beiden Bilder ein Paar Okklusionsumrisse widerspiegeln,
Erfassen mindestens eines Paars Entsprechungspunkte, das ein Paar imaginärer Bilder mindestens eines auf der Mittelachse des Objektes ange ordneten Messpunktes ist, wobei die beiden Entsprechungspunkte auf zwei in den beiden Bildern definierten Halbierungslinien angeordnet sind und jede der beiden Halbierungslinien ein imaginäres projiziertes Bild der Mittelachse ist, und
Berechnen einer dreidimensionalen Position des Messpunktes auf Grundla ge der beiden Entsprechungspunkte unter Anwendung eines Triangulations verfahrens.
7. Speichermedium zum Speichern eines Programms zum Messen dreidimen
sionaler Information eines Objektes, wobei das Programm folgende Schritte
enthält:
Lesen eines auf ein Aufzeichnungsmedium aufgezeichneten Paars Bilder, die durch Aufnahme des Objektes von zwei Aufnahmepunkten aus erzeugt werden, wobei das Objekt zylindrisch ist und sich in jedem der beiden Bilder ein Paar Okklusionsumrisse widerspiegeln,
Erfassen mindestens eines Paars Entsprechungspunkte, das ein Paar imaginärer Bilder mindestens eines auf der Mittelachse des Objektes ange ordneten Messpunktes ist, wobei die beiden Entsprechungspunkte auf zwei in den beiden Bildern definierten Halbierungslinien angeordnet sind und jede der beiden Halbierungslinien ein imaginäres projiziertes Bild der Mittelachse ist, und
Berechnen einer dreidimensionalen Position des Messpunktes auf Grundlage der beiden Entsprechungspunkte unter Anwendung eines Triangulations verfahrens.
Lesen eines auf ein Aufzeichnungsmedium aufgezeichneten Paars Bilder, die durch Aufnahme des Objektes von zwei Aufnahmepunkten aus erzeugt werden, wobei das Objekt zylindrisch ist und sich in jedem der beiden Bilder ein Paar Okklusionsumrisse widerspiegeln,
Erfassen mindestens eines Paars Entsprechungspunkte, das ein Paar imaginärer Bilder mindestens eines auf der Mittelachse des Objektes ange ordneten Messpunktes ist, wobei die beiden Entsprechungspunkte auf zwei in den beiden Bildern definierten Halbierungslinien angeordnet sind und jede der beiden Halbierungslinien ein imaginäres projiziertes Bild der Mittelachse ist, und
Berechnen einer dreidimensionalen Position des Messpunktes auf Grundlage der beiden Entsprechungspunkte unter Anwendung eines Triangulations verfahrens.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000218608 | 2000-07-19 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10135300A1 true DE10135300A1 (de) | 2002-02-07 |
Family
ID=18713531
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10135300A Withdrawn DE10135300A1 (de) | 2000-07-19 | 2001-07-19 | Verfahren und Einrichtung zum Messen dreidimensionaler Information |
Country Status (2)
Country | Link |
---|---|
US (1) | US6539330B2 (de) |
DE (1) | DE10135300A1 (de) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103913114A (zh) * | 2012-12-31 | 2014-07-09 | 深圳先进技术研究院 | 双目视觉***间的位置关联方法 |
DE102017114363A1 (de) * | 2017-06-28 | 2019-01-03 | Stefan Klinke | Verfahren und Vorrichtung zur Bestimmung des Aufmaßes von mindestens einem Objekt einer Außenanlage im Landschafts- oder Straßenbau |
DE102018102988A1 (de) * | 2018-02-09 | 2019-08-14 | Hochschule Rheinmain University Of Applied Sciences Wiesbaden Rüsselsheim | Verfahren und Vorrichtung zur Bestimmung und Überwachung der Position und Orientierung eines zylindrischen Objekts |
DE102014219411B4 (de) | 2014-03-25 | 2024-03-07 | Hyundai Motor Company | Geradheitsmanagementsystem und steuerverfahren desselben für befestigungsstift |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL146597A0 (en) * | 2001-11-20 | 2002-08-14 | Gordon Goren | Method and system for creating meaningful summaries from interrelated sets of information |
US7257248B2 (en) * | 2003-03-27 | 2007-08-14 | General Electric Company | Non-contact measurement system and method |
WO2005060629A2 (en) * | 2003-12-11 | 2005-07-07 | Strider Labs, Inc. | Probable reconstruction of surfaces in occluded regions by computed symmetry |
FI117650B (fi) * | 2004-10-27 | 2006-12-29 | Mapvision Ltd Oy | Symmetria-akselin määrittäminen |
ES2282048B2 (es) * | 2006-10-18 | 2008-02-01 | Universidad Politecnica De Madrid | Metodo de posicionamiento espacial de objetos cilindricos mediante analisis de imagenes. |
JP2009240621A (ja) * | 2008-03-31 | 2009-10-22 | Hoya Corp | 内視鏡装置 |
JP5713624B2 (ja) * | 2009-11-12 | 2015-05-07 | キヤノン株式会社 | 三次元計測方法 |
BR112014009823A2 (pt) * | 2011-10-24 | 2017-06-13 | Fujifilm Corp | dispositivo medidor de diâmetro, método de medição, e programa de medição de objeto cilíndrico |
CN102506825B (zh) * | 2011-10-27 | 2014-02-05 | 广东电网公司深圳供电局试验研究所 | 一种输变电设备外绝缘防污参数摄影测量方法 |
US9639959B2 (en) * | 2012-01-26 | 2017-05-02 | Qualcomm Incorporated | Mobile device configured to compute 3D models based on motion sensor data |
CN103900503B (zh) | 2012-12-27 | 2016-12-28 | 清华大学 | 提取形状特征的方法、安全检查方法以及设备 |
CN103903297B (zh) | 2012-12-27 | 2016-12-28 | 同方威视技术股份有限公司 | 三维数据处理和识别方法 |
CN103903298B (zh) * | 2012-12-27 | 2017-03-01 | 同方威视技术股份有限公司 | 三维数据处理和识别方法 |
EP2787486A1 (de) * | 2013-04-04 | 2014-10-08 | Océ-Technologies B.V. | Verfahren zur Schätzung der Menge eines nichtverbrauchten Teils eines Verbrauchsprodukts |
CN103308000B (zh) * | 2013-06-19 | 2015-11-18 | 武汉理工大学 | 基于双目视觉的曲线物体测量方法 |
CN103679739A (zh) * | 2013-12-26 | 2014-03-26 | 清华大学 | 基于遮挡区域检测的虚拟视图生成方法 |
US9986225B2 (en) * | 2014-02-14 | 2018-05-29 | Autodesk, Inc. | Techniques for cut-away stereo content in a stereoscopic display |
CN106091964A (zh) * | 2016-05-31 | 2016-11-09 | 中国航空工业集团公司西安飞机设计研究所 | 一种拉杆连动机构连接件应变测量方法 |
CN106482637B (zh) * | 2016-09-23 | 2018-06-08 | 大连理工大学 | 一种旋转标记点旋转中心的提取方法 |
CN108036730B (zh) * | 2017-12-22 | 2019-12-10 | 福建和盛高科技产业有限公司 | 一种基于热成像的火点测距方法 |
CN108267104A (zh) * | 2018-01-22 | 2018-07-10 | 浙江大学 | 一种基于双目视觉的轴类零件半径尺寸测量方法 |
JP7220784B2 (ja) * | 2018-11-21 | 2023-02-10 | 広州極飛科技股▲ふん▼有限公司 | 測量用サンプリング点の計画方法、装置、制御端末及び記憶媒体 |
CN112362032B (zh) * | 2020-09-14 | 2022-05-10 | 成都飞机工业(集团)有限责任公司 | 一种基于摄影测量技术的零件轴线提取方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0629695A (ja) | 1992-07-08 | 1994-02-04 | Taiyo Yuden Co Ltd | 電子部品実装機 |
JP3426459B2 (ja) | 1997-02-03 | 2003-07-14 | ペンタックス株式会社 | 写真測量システムおよび写真測量方法 |
US6304669B1 (en) * | 1997-11-10 | 2001-10-16 | Asahi Kogaku Kogyo Kabushiki Kaisha | Photogrammetric analytical measurement system |
JP3441657B2 (ja) * | 1997-11-10 | 2003-09-02 | ペンタックス株式会社 | 画像点設定装置及びこの画像点設定装置を用いた写真測量方法 |
-
2001
- 2001-07-13 US US09/903,664 patent/US6539330B2/en not_active Expired - Fee Related
- 2001-07-19 DE DE10135300A patent/DE10135300A1/de not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103913114A (zh) * | 2012-12-31 | 2014-07-09 | 深圳先进技术研究院 | 双目视觉***间的位置关联方法 |
CN103913114B (zh) * | 2012-12-31 | 2017-05-24 | 深圳先进技术研究院 | 双目视觉***间的位置关联方法 |
DE102014219411B4 (de) | 2014-03-25 | 2024-03-07 | Hyundai Motor Company | Geradheitsmanagementsystem und steuerverfahren desselben für befestigungsstift |
DE102017114363A1 (de) * | 2017-06-28 | 2019-01-03 | Stefan Klinke | Verfahren und Vorrichtung zur Bestimmung des Aufmaßes von mindestens einem Objekt einer Außenanlage im Landschafts- oder Straßenbau |
DE102018102988A1 (de) * | 2018-02-09 | 2019-08-14 | Hochschule Rheinmain University Of Applied Sciences Wiesbaden Rüsselsheim | Verfahren und Vorrichtung zur Bestimmung und Überwachung der Position und Orientierung eines zylindrischen Objekts |
Also Published As
Publication number | Publication date |
---|---|
US20020029127A1 (en) | 2002-03-07 |
US6539330B2 (en) | 2003-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10135300A1 (de) | Verfahren und Einrichtung zum Messen dreidimensionaler Information | |
DE102015011914B4 (de) | Konturlinienmessvorrichtung und Robotersystem | |
DE112010005008B4 (de) | System und Verfahren zur Bestimmung von Kamerafehlkalibrierung im Laufzeitbetrieb | |
DE102008041523B4 (de) | Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung | |
DE102006055758B4 (de) | Verfahren zur Kalibrierung von Kameras und Projektoren | |
DE602005002176T2 (de) | Vorrichtung und Verfahren zur dreidimensionalen Bildvermessung | |
DE602006000627T2 (de) | Dreidimensionales Messverfahren und dreidimensionale Messvorrichtung | |
DE102012112322B4 (de) | Verfahren zum optischen Abtasten und Vermessen einer Umgebung | |
DE102012108567B4 (de) | Verfahren zum Erlangen von Tiefeninformationen unter Verwendung eines Lichtmusters | |
DE102012112321B4 (de) | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung | |
DE102015005267B4 (de) | Informationsverarbeitungsvorrichtung, Verfahren dafür und Messvorrichtung | |
DE102008053460B4 (de) | Objekterfassungssystem | |
EP1181814B1 (de) | Verfahren zur erfassung und darstellung eines oder mehrerer objekte, beispielsweise zähne | |
DE10020893B4 (de) | Verfahren zur optischen Formerfassung von Gegenständen | |
DE112010005646B4 (de) | Kameraabstandsmessvorrichtung | |
DE69734747T2 (de) | Verfahren und Gerät zur Bildverarbeitung | |
DE102017200859A1 (de) | Verfahren und Geräte für ein bildgebendes System | |
DE10137241A1 (de) | Registrierung von Tiefenbildern mittels optisch projizierter Marken | |
EP2886043A1 (de) | Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten | |
DE10326943A1 (de) | Autonomes Fahrzeug sowie zugehörige Verfahren und Vorrichtung zur Bewegungsbestimmung, Bewegungssteuerung und Objekterkennung | |
DE112014005376T5 (de) | Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm | |
DE4113992A1 (de) | Verfahren zur automatischen dreidimensionalen ueberwachung von gefahrenraeumen | |
EP1352363B1 (de) | Verfahren und vorrichtung zum kompensieren einer dejustage einer bilderzeugungsvorrichtung | |
DE2209569A1 (de) | Stereo-auswerteverfahren und vorrichtung zur durchfuehrung des verfahrens | |
DE112021002562T5 (de) | Verarbeitungsvorrichtung und an einem fahrzeug montierte kameravorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8127 | New person/name/address of the applicant |
Owner name: PENTAX CORP., TOKIO/TOKYO, JP |
|
8110 | Request for examination paragraph 44 | ||
8130 | Withdrawal |