DE10135300A1 - Verfahren und Einrichtung zum Messen dreidimensionaler Information - Google Patents

Verfahren und Einrichtung zum Messen dreidimensionaler Information

Info

Publication number
DE10135300A1
DE10135300A1 DE10135300A DE10135300A DE10135300A1 DE 10135300 A1 DE10135300 A1 DE 10135300A1 DE 10135300 A DE10135300 A DE 10135300A DE 10135300 A DE10135300 A DE 10135300A DE 10135300 A1 DE10135300 A1 DE 10135300A1
Authority
DE
Germany
Prior art keywords
points
images
pair
image
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10135300A
Other languages
English (en)
Inventor
Shigeru Wakashiro
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pentax Corp
Original Assignee
Asahi Kogaku Kogyo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asahi Kogaku Kogyo Co Ltd filed Critical Asahi Kogaku Kogyo Co Ltd
Publication of DE10135300A1 publication Critical patent/DE10135300A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Eine Einrichtung zum Messen dreidimensionaler Information eines Objektes hat eine Bildlesevorrichtung, einen Entsprechungspunktdetektor und ein Informationsberechnungsmittel. Die Bildlesevorrichtung liest ein Paar Bilder, das auf einem in der Einrichtung vorgesehenen Aufzeichnungsmedium aufgezeichnet ist. Das Objekt ist zylindrisch, und in jedem der beiden Bilder spiegelt sich ein Paar Okklusionsumrisse wider. Der Entsprechungspunktdetektor erfasst mindestens ein Paar Entsprechungspunkte, das ein imaginäres Paar Bilder mindestens eines auf der Mittelachse des Objektes angeordneten Messpunktes bildet. Die beiden Entsprechungspunkte liegen auf zwei Halbierungslinien. Das Informationsberechnungsmittel berechnet die dreidimensionale Position des Messpunktes auf Grundlage der beiden Entsprechungspunkte unter Anwendung eines Triangulationsverfahrens.

Description

Die Erfindung betrifft ein Verfahren und eine Einrichtung zum Messen dreidimen­ sionaler Information eines Objektes aus einem Paar Objektbilder, das durch Aufnehmen des Objektes aus zwei verschiedenen Richtungen erhalten wird.
Es ist ein "Stereoverfahren" oder sogenanntes "zweiäugiges Sehen" als Verfahren bekannt, mit dem eine dreidimensionale Information, kurz 3-D-Information eines Objektes, wie z. B. die Position oder die Form, aus Bildern gemessen werden kann. In dem Stereoverfahren wird das Objekt aus zwei verschiedenen Richtun­ gen aufgenommen, so dass man ein Paar Bilder erhält. Aus den beiden Bildern erhält man dann ein Paar zugehörige Punkte, im folgenden auch als Entspre­ chungspunkte bezeichnet, von denen jeder ein Bild eines Punktes des 3-D-Objektes ist. Auf Grundlage dieses Paars Entsprechungspunkte und dem Abstand zwischen zwei Aufnahmepunkten wird die Position des Objektes unter Anwen­ dung einer Triangulation berechnet. Das Stereoverfahren wird beispielsweise für die Fotogrammetrie oder Bildmessung wie die Luftbildmessung oder die Bildmessung eines Verkehrsunfallortes eingesetzt.
Bei der Berechnung der Position des Objektes ist es wichtig, das Paar Entspre­ chungspunkte genau zu erfassen. Das Problem des Ermittelns dieser Punkte stellt in dem Stereoverfahren ein bedeutungsvolles technisches Problem dar, für des­ sen Überwindung verschiedene Vorschläge gemacht wurden.
Unter diesen Vorschlägen ist einer, bei dem das Paar Entsprechungspunkte auf Grundlage eines bestimmten Objektteils, z. B. einer Kante oder einer Scheitel- oder Kammlinie erfasst wird. Stellt jedoch die Form des Objektes eine gekrümmte Fläche wie einen Zylinder dar, ist ein bestimmter Objektteil nicht so einfach identi­ fizierbar, so dass unrichtige Entsprechungspunkte erfasst werden bzw. eine Erfassung dieser Punkte überhaupt unmöglich ist. In diesem Fall ist es nicht möglich, die tatsächliche 3-D-Information des Objektes zu erhalten.
Aufgabe der Erfindung ist es, ein Verfahren und eine Einrichtung anzugeben, die eine korrekte Erfassung eines Paars Entsprechungspunkte und eine Messung der 3-D-Information des Objektes ermöglichen, wenn letzteres eine gekrümmte Ober­ fläche hat.
Die Erfindung löst diese Aufgabe durch die Gegenstände der unabhängigen Ansprüche. Vorteilhafte Weiterbildungen sind in den Unteransprüchen angege­ ben.
Die erfindungsgemäße Einrichtung zum Messen dreidimensionaler Information eines Objektes hat eine Bildlesevorrichtung, einen Entsprechungspunktdetektor und ein Informationsberechnungsmittel. Diese Einrichtung wird für die Fotogram­ metrie oder auf dem Gebiet der künstlichen Intelligenz, kurz KI, für das computer­ gestützte Sehen verwendet. Beispielsweise wird in der Fotogrammetrie eines Verkehrsunfallortes eine exklusive Einzelbildkamera (Fotokamera, Standbildka­ mera) mit einem Bildsensor eingesetzt. Die Kamera wird an zwei Aufnahmepunk­ ten angeordnet, um so das Objekt aus zwei Richtungen aufzunehmen. Das auf­ zunehmende Objekt ist zylindrisch, d. h. es bildet einen Rotationskörper. Das Objekt ist bezüglich seiner Mittelachse im Wesentlichen rotationssymmetrisch und im Schnitt senkrecht zur Mittelachse kreisförmig. Beispielsweise ist das Objekt zylinderförmig oder kegelstumpfförmig. Ist das Objekt aufgenommen, so liest die Bildlesevorrichtung ein Paar Bilder, die auf einem Aufzeichnungsmedium aufge­ zeichnet sind. Im Falle der Fotogrammetrie werden beispielsweise die beiden Bilder auf einer Speicherkarte aufgezeichnet, die lösbar in der Kamera und in der Einrichtung installiert werden kann. Ist die Speicherkarte in der Einrichtung instal­ liert, so liest die Bildlesevorrichtung die beiden Bilder aus dem Speichermedium aus und speichert sie dann temporär in dem Speicher, z. B. einem Speicher mit wahlfreiem Zugriff, kurz RAM. Die beiden Bilder ergeben sich, indem das Objekt von zwei Aufnahmepunkten aus so aufgenommen wird, dass sich in jedem der beiden Bilder ein Paar Umrisslinien widerspiegeln, die als Einschluß- oder Okklu­ sionsumrisse bezeichnet werden.
In jedem der beiden erhaltenen Bilder ist das Objektbild linien- oder spiegelsym­ metrisch bezüglich eines imaginären projizierten Bildes der Mittelachse, welches das Objektbild halbiert. In der erfindungsgemäßen Einrichtung erfasst der Ent­ sprechungspunktdetektor mindestens ein Paar Entsprechungspunkte auf zwei Halbierungslinien, die in den beiden Bildern definiert sind. Das Paar Entspre­ chungspunkte ist ein imaginäres Paar von Bildern eines auf der Mittelachse ange­ ordneten Messpunktes. Die beiden Entsprechungspunkte werden einmalig in den beiden Bildern festgelegt. Jede der beiden Halbierungslinien ist ein imaginäres projiziertes Bild der Mittelachse. Das Informationsberechnungsmittel berechnet eine dreidimensionale Position mindestens eines Messpunktes auf Grundlage der beiden Entsprechungspunkte. Zum Berechnen der dreidimensionalen Information wird ein Triangulationsverfahren angewendet.
Gemäß der Erfindung wird das imaginäre Paar Halbierungslinien definiert und dann mindestens ein Paar Entsprechungspunkte auf den beiden Halbierungslinien erfasst. Folglich wird das Paar Entsprechungspunkte korrekt erfasst. Dies hat zur Folge, dass man auch die korrekte 3-D-Information des Objektes erhält.
Um das mindestens eine Paar Entsprechungspunkte korrekt zu erfassen, wird vorzugsweise eine Epipolar- oder Kernlinie definiert, die in der Fotogrammetrie oder beim computergestützten Sehen verwendet wird. Der Entsprechungspunkt­ detektor definiert mindestens einen Bildpunkt auf einer der beiden Halbierungsli­ nien in einem der beiden Bilder und setzt in dem anderen der beiden Bilder min­ destens eine Epipolarlinie, die dem ersten Bildpunkt entspricht. Dann erfasst der Entsprechungspunktdetektor mindestens einen zweiten Bildpunkt, der den Schnittpunkt zwischen der anderen der beiden Halbierungslinien und der Epipo­ larlinie bildet. Der erste Bildpunkt und der zweite Bildpunkt werden als Paar Ent­ sprechungspunkte definiert.
In der Fotogrammetrie führt die Bedienperson üblicherweise unter Einsatz einer Peripheriekomponente wie einer Tastatur oder einer Maus eine vorgegebene Operation zum Berechnen der 3-D-Information aus. Um die 3-D-Information mit Unterstützung der Bedienperson zu berechnen, enthält die Einrichtung vorzugs­ weise eine Anzeige- und eine Eingabevorrichtung zum Eingeben eines Anzeige­ punktes. Sind die beiden Bilder aus dem Speichermedium ausgelesen, so werden sie auf der Anzeige dargestellt. Die Eingabevorrichtung wird betätigt, um zwei Paare Eingabepunkte auf den beiden Okklusionsumrissen in jedem der beiden Bilder einzugeben. Der Eingabedetektor erfasst die beiden von der Bedienperson eingegebenen Paare Eingabepunkte und berechnet das Paar Halbierungslinien und das mindestens eine Paar Entsprechungspunkte gemäß den beiden Paaren Anzeigepunkte in jedem der beiden Bilder. In diesem Fall wird das mindestens eine Paar Entsprechungspunkte nicht automatisch nach einem vorgegebenen Bildbearbeitungsverfahren wie einem Randerfassungsprozess, sondern auf Grundlage der Eingabepunkte erfasst.
Um einen Radius des Objektes mit der 3-D-Position zu messen, enthält die Ein­ richtung vorzugsweise ein Radiusberechnungsmittel. In diesem Fall erfasst der Entsprechungspunktdetektor zwei Paare Entsprechungspunkte, und das Informa­ tionsberechnungsmittel berechnet die Positionen der beiden Messpunkte auf Grundlage der beiden Paare Entsprechungspunkte. Das Radiusberechnungsmittel berechnet zunächst aus den Positionen der beiden Messpunkte eine Ebene, in der ein zur Mittelachse senkrechter und durch einen der beiden Aufnahmepunkte gehender Vektor ein Normalenvektor ist und in der die Mittelachse enthalten ist. Anschließend berechnet das Radiusberechnungsmittel auf Grundlage des Bild­ punktes einen Randpunkt, der in der Ebene und auf einer gekrümmten Oberfläche des Objektes liegt. Die Position längs der Mittelachse bezüglich des Randpunktes ist die gleiche wie die Position eines der beiden Messpunkte. Der Bildpunkt liegt auf einem der beiden Okklusionsumrisse und entspricht dem Randpunkt. Das Radiusberechnungsmittel berechnet dann den Radius aus dem Randpunkt und einem der beiden Messpunkte.
Die Erfindung sieht weiterhin ein Verfahren mit den Merkmalen des Anspruchs 6 sowie ein Speichermedium mit den Merkmalen des Anspruchs 7 vor.
Die Erfindung wird im Folgenden an Hand der Figuren näher erläutert. Darin zeigen:
Fig. 1 eine Kamera, ein Objekt, einen Bildinformationsprozessor und Peri­ pheriekomponenten,
Fig. 2 ein Blockdiagramm des Bildinformationsprozessors und der Periphe­ riekomponenten,
Fig. 3 ein Paar projizierter Bilder,
Fig. 4 ein Flussdiagramm eines Prozesses zum Berechnen der 3-D-Information,
Fig. 5 eine Darstellung einer Parallel-Stereo-Kompensation,
Fig. 6 ein Paar auf einem Monitor dargestellter Bilder,
Fig. 7 eine Unterroutine eines Prozesses zum Berechnen einer 3-D-Position,
Fig. 8 eines der beiden Bilder, dem eine Halbierungslinie zugeordnet ist,
Fig. 9 das andere der beiden Bilder, dem eine Halbierungslinie zugeordnet ist,
Fig. 10 das Paar Bilder, dem ein Paar Entsprechungspunkte zugeordnet ist,
Fig. 11 eine Unterroutine eines Prozesses zur Radiusberechnung,
Fig. 12 das Objekt und eine Ebene mit einem Normalenvektor,
Fig. 13 ein durch eine schwach perspektivische Projektion projiziertes Bild,
Fig. 14 eines der beiden Bilder, auf das sich die Radiusberechnung bezieht,
Fig. 15 andere projizierte Bilder, die von den in Fig. 6 gezeigten Bildern verschieden sind,
Fig. 16 projizierte Bilder eines Kegelstumpfes, und
Fig. 17 projizierte Bilder eines Rotationskörpers.
Im Folgenden werden bevorzugte Ausführungsbeispiele der Erfindung unter Bezugnahme auf die Figuren erläutert.
Fig. 1 zeigt eine für die Fotogrammetrie bestimmte Kamera, einen Bildinformati­ onsprozessor zum Berechnen einer 3-D-Information eines Objektes und Periphe­ riekomponenten.
In diesem Ausführungsbeispiel ist ein Objekt S als Zylinder ausgebildet und eine Kamera 42 für den Einsatz in der Fotogrammetrie bestimmt. Zunächst wird die Kamera 42 an einem ersten Aufnahmepunkt PA angeordnet und das Objekt S von der Kamera 42 aufgenommen, so dass sich ein Bild ergibt, das das Objektbild enthält. Dabei wird das Objekt so aufgenommen, dass sich ein Paar Okklusions­ umrisse, das ein Paar Umrisslinien der Bilder darstellt, in dem Bild widerspiegelt (reflektiert wird) oder in dieses projiziert wird. In einem zweiten Schritt wird die Kamera 42 an einem zweiten Aufnahmepunkt PB angeordnet und das Objekt S aufgenommen, und zwar in entsprechender Weise, wie das für den ersten Auf­ nahmepunkt PA erfolgt ist. Auf diese Weise erhält man ein Bilderpaar. Das Zen­ trum der Kamera 42, genauer gesagt die Objektivmitte der Kamera 42 ist dabei an dem Aufnahmepunkt PA bzw. PB angeordnet. Bei Aufnahmen des Objektes S werden Aufnahmedaten einschließlich des Abstandes zwischen den Aufnahme­ punkten PA und PB in einer Speicherkarte 36 gespeichert.
Die Kamera 42 ist eine digitale Einzelbildkamera (Standbildkamera, Fotokamera) mit einer ladungsgekoppelten Vorrichtung 41, kurz CCD. Die beiden Objektbilder, die an dem ersten und dem zweiten Aufnahmepunkt PA bzw. PB über ein nicht gezeigtes Objektiv auf der CCD 41 erzeugt werden, werden in der in der Kamera 42 vorgesehenen Speicherkarte 36 aufgezeichnet. Die Speicherkarte 36 ist eine Hilfsspeichervorrichtung, die lösbar in der Kamera 42 installiert ist. Ist die Spei­ cherkarte 36 in einem Kartenschlitz 11 des Bildinformationsprozessors 10 ge­ steckt, so werden die beiden Bilder und die Aufnahmedaten aus der Speicher­ karte 36 ausgelesen. Die Speicherkarte 36 ist ein Kompaktblitzspeicher (compact flash memory). Nachdem die Aufnahme beendet ist, wird der Bildinformationspro­ zessor 10 zum Berechnen der 3-D-Information des Objektes S eingesetzt.
Der Bildinformationsprozessor 10 berechnet die 3-D-Information des Objektes S. An ihn sind ein Monitor 30, eine Tastatur 32 und eine Maus 34 angeschlossen. Der Bildinformationsprozessor 10 hat den Kartenschlitz 11. Die Speicherkarte 36 wird von der Kamera 42 gelöst und dann in dem Kartenschlitz 11 angebracht.
Wird die Tastatur 32 von einer Bedienperson entsprechend betätigt, so werden die beiden Bilder auf dem Monitor 30 dargestellt. Weiterhin wird die Maus 34 so betätigt, dass man die 3-D-Information des Objektes S erhält.
Fig. 2 zeigt ein Blockdiagramm des Bildinformationsprozessors 10 und der Peri­ pheriekomponenten.
Eine Systemsteuerschaltung 12 enthält eine zentrale Prozessoreinheit 12A, kurz CPU, und steuert den Bildinformationsprozessor 10. Außerdem berechnet sie die dem Objekt S zugeordnete 3-D-Information. Ein Programm zum Berechnen der 3- D-Information wird im Voraus in einem ROM 14 gespeichert. Die Signalübertra­ gung zwischen der Systemsteuerschaltung 12 und den Peripheriekomponenten, also dem Monitor 30, der Tastatur 32, der Maus 34 und der Speicherkarte 36 erfolgt über eine Schnittstellenschaltung 16.
Wie oben erläutert, werden bei in den Kartenschlitz 11 eingesteckter Speicher­ karte 36 die beiden Bilder und die Aufnahmedaten aus der Speicherkarte 36 ausgelesen und über die Schnittstellenschaltung 16 und die Systemsteuerschal­ tung 12 temporär in einem RAM 18 gespeichert. Die Tastatur 32 wird so betätigt, dass die beiden Objektbilder dargestellt werden. Die beiden Bilder werden also aus dem RAM 18 ausgelesen und verschiedenen Prozessen unterzogen, um so zur Darstellung des Objektbildes bestimmte Bildsignale (Videosignale) in einer in der Systemsteuerschaltung 12 vorgesehenen, nicht gezeigten Bildverarbeitungs­ schaltung zu erzeugen. Die Bildsignale werden dem Monitor 30 über die Schnitt­ stellenschaltung 16 zugeführt, so dass die beiden Bilder auf dem Monitor 30 dargestellt werden. Durch die entsprechende Betätigung der Maus 34 wird die 3-D-Information des Objektes S berechnet, und die CPU 12A führt den zum Be­ rechnen der 3-D-Information bestimmten Prozess entsprechend den ihr zuge­ führten Informationen durch. Die berechnete 3-D-Information wird auf dem Moni­ tor 30 dargestellt und temporär in dem RAM 18 gespeichert.
Fig. 3 zeigt das Objekt S und die beiden Objektbilder.
In Fig. 3 bezeichnet π1 ein Bild, in dem das zu dem ersten Aufnahmepunkt PA gehörige Objektbild enthalten ist, und π2 ein Bild, in dem das zu dem zweiten Aufnahmepunkt PB gehörige Objektbild enthalten ist. In dem Bild π1 ist ein Paar Umrisslinienbilder des Objektbildes S1 mit MA1 und MA2 bezeichnet. Entspre­ chend ist in dem Bild π2 ein Paar Umrisslinienbilder des Objektbildes S2 mit MB1 und MB2 bezeichnet. Diese Umrisslinienbilder werden auf dem technischen Gebiet des Stereoverfahrens als Einschluß- oder Okklusionsumrisse bezeichnet.
Die Objektbilder des ersten und des zweiten Aufnahmepunktes PA, PB sind mit S1 bzw. S2 bezeichnet.
Bekanntlich sollte zum Berechnen der 3-D-Position des Objektes S ein Paar Entsprechungspunkte erfasst werden. Jeder dieser Punkte entspricht dabei einem Bild eines Punktes des Objektes S. Ist die Außenfläche des Objektes eine ge­ krümmte Fläche, so bereitet es Schwierigkeiten, die beiden Entsprechungspunkte aus den beiden aufgenommenen Bildern korrekt zu bestimmen. Beispielsweise liegt für einen Punkt JA, der sich auf dem Umfang der oberen Fläche UA befindet, dessen Bildpunkt JA' auf der in dem Bild π1 enthaltenen Umrisslinie MA2. Ande­ rerseits liegt in dem Bild π2 ein Bildpunkt JB' eines auf dem Umfang angeordneten Punktes JB auf der Umrisslinie MB2. Obgleich der Punkt JA von dem Punkt JB verschieden ist, liegt also der Bildpunkt JA' auf der Umrisslinie MA2 und der Bildpunkt JB' auf der Umrisslinie MB2. Werden also als Paar Entsprechungs­ punkte die Bildpunkte JA' und JB' bestimmt, so wird eine falsche 3-D-Information berechnet.
Das Objekt S ist zylindrisch und bezüglich seiner Mittelachse SU rotationssymme­ trisch. Betrachtet man imaginär projizierte Bilder der Mittelachse SU in den Bildern π1, π2, wobei diese Bilder tatsächlich nicht dargestellt werden, so werden die Objektbilder S1 und S2 linien- oder spiegelsymmetrisch bezüglich dieser imaginä­ ren Zentralachsbilder. In Bild π1 ist das Zentralachsbild mit SU1 und in Bild π2 mit SU2 bezeichnet. Da das Objekt S ein Zylinder ist, sind die beiden Umrisslinien oder Okklusionsumrisse MA1 und MA2 parallel zum Zentralachsbild SU1, und das Objektbild S1 wird von dem Zentralachsbild SU1 halbiert. Entsprechend wird das Objektbild S2 durch das Zentralachsbild SU2 halbiert. Wie in Fig. 3 gezeigt, liegen in den Bildern π1 und π2 vorhandene Bildpunkte C1 bzw. C2, die Imaginärbilder eines auf der Zentralachse SU angeordneten Punktes C darstellen, auf den Zentralachsbildern SU1 bzw. SU2.
Auch für jede andere Position als dem ersten und dem zweiten Aufnahmepunkt PA und PB ist das sich ergebende Objektbild linien- oder spiegelsymmetrisch bezüglich des projizierten Bildes der Zentralachse SU, die das Objektbild halbiert. In diesem Ausführungsbeispiel ist also ein vorgegebener Punkt auf der Zen­ tralachse SU als Messpunkt definiert, der eine 3-D-Information des Objektes S enthält. Die 3-D-Position des Objektes S wird in diesem Ausführungsbeispiel durch die Position dieses Messpunktes ausgedrückt. Für den auf der Zentralachse SU liegenden Messpunkt werden die beiden Entsprechungspunkte auf den Zen­ tralachsbildern SU1 bzw. SU2 einmalig erfasst. Aus dem Paar Entsprechungs­ punkte kann man dann durch Anwendung einer Triangulation den Messpunkt erhalten.
Fig. 4 zeigt ein Flussdiagramm eines Prozesses zum Berechnen der 3-D-Information. Fig. 5 zeigt ein kompensiertes Paar Bilder und Fig. 6 ein Paar auf dem Monitor 30 dargestellter Bilder. Mit einer bestimmten Betätigung der Tastatur 32 durch die Bedienperson wird der Prozess zum Berechnen der 3-D-Information gestartet.
In Schritt 101 werden die beiden aufgenommenen Bilder aus der Speicherkarte 36 ausgelesen und temporär in dem RAM 18 gespeichert. Dann werden in Schritt 102 die die Kamerapositionen und die Kamerastellung enthaltenden Aufnahme­ daten aus der Speicherkarte 36 ausgelesen.
In Schritt 103 werden in der Systemsteuerschaltung 12 eine Verzerrungskompen­ sation und eine Parallel-Stereo-Kompensation durchgeführt. Die Verzerrungs­ kompensation kompensiert die Verzerrung der Bilder π1 und π2, die durch die Eigenschaften des in der Kamera 42 vorgesehenen Objektivs verursacht werden. In der Parallel-Stereo-Kompensation wird eine "affine Transformation" durchge­ führt, so dass sich affin transformierte Bilder π1' und π2' ergeben. Die geometri­ sche Beziehung zwischen den in Fig. 3 gezeigten Bildern π1 und π2 setzt sich dabei in die in Fig. 5 gezeigte Beziehung zwischen den Bildern π1' und π2' um. Werden 3-D-Koordinaten (x, y, z) an den Aufnahmepunkten PA und PB definiert, fällt ein den ersten Aufnahmepunkt PA mit dem zweiten Aufnahmepunkt PB verbindender Verschiebungsvektor SV mit der x-Koordinate in dem transformier­ ten Bild π1' und π2' zusammen. Dies ist unterschiedlich zur Koordinatenbeziehung zwischen den Bildern π1, π2 (vgl. Fig. 3). Vorliegend wird also eine umwälzende affine Transformation durchgeführt. Die Verzeichnungskompensation und die Parallel-Stereo-Kompensation stellen bekannte Prozesse dar.
In Schritt 104 wird ein sich durch die Verzeichnungskompensation und die Paral­ lel-Stereo-Kompensation gegebenes Paar Bilder auf dem Monitor 30 dargestellt, wie Fig. 6 zeigt. Im Folgenden wird ein dem Bild π1' (vgl. Fig. 5) entsprechendes Bild als erstes Bild IA und ein dem Bild π2' entsprechendes Bild als zweites Bild IB bezeichnet. Nach Darstellung der beiden Bilder IA und IB wird durch eine entspre­ chende Betätigung der Maus 34 durch die Bedienperson eine Reihe von Anzeige­ punkten Pa1 bis Pd1 und Pa2 bis Pd2 eingegeben. Für das erste Bild IA werden die Anzeigepunkte Pa1 und Pb1 auf den Okklusionsumriss MA1 und die Anzeige­ punkte Pc1 und Pd1 auf den Okklusionsumriss MA2 gesetzt. Entsprechend wer­ den für das zweite Bild IB die Anzeigepunkte Pa2 und Pb2 auf den Okklusionsum­ riss MB1 und die Anzeigepunkte Pc2 und Pd2 auf den Anzeigeumriss MB2 ge­ setzt. Es ist darauf hinzuweisen, dass die Anzeigepunkte Pa1 und Pc1 sowie die Anzeigepunkte Pb1 und Pd1 jeweils ein Paar und die Anzeigepunkte Pa2 und Pc2 sowie die Anzeigepunkte Pb2 und Pd2 jeweils ein Paar bilden. Werden die Anzei­ gepunkte über die Maus 34 eingegeben, so werden ihre Positionen in den Bildern IA und IB erfasst. Nach Schritt 104 geht der Prozess zu Schritt 105 über.
In Schritt 105 wird die Position des Objektes S. nämlich die Position des durch 3-D-Koordinaten ausgedrückten Messpunktes berechnet. Dann wird in Schritt 106 der Radius des Objektes S auf Grundlage der 3-D-Position berechnet.
Fig. 7 zeigt die Unterroutine des in Fig. 4 angegebenen Schrittes 105. Die Fig. 8 und 9 zeigen das erste Bild IA bzw. das zweite Bild IB und Fig. 10 eine Darstel­ lung mit dem Paar Bilder, in dem eine Epipolar- oder Kernlinie definiert ist. Für jedes der beiden Bilder IA und IB werden die Bildschirmkoordinaten (X, Y) defi­ niert und der Ursprung auf die linke obere Ecke des entsprechenden Bildes IA bzw. IB gesetzt. Die Pixelzahl des ersten und des zweiten Bildes IA, IB beträgt W x H. Dabei ist die Pixelzahl längs der X-Koordinate W und die längs der Y-Koordinate H.
In Schritt 201 wird in dem ersten Bild IA eine gerade, durch die Anzeigepunkte PA1 und PB1 gehende Linie La1 berechnet, wie Fig. 8 zeigt. Diese gerade Linie La1 befindet sich auf dem Okklusionsumriss MA1. In Schritt 202 wird in dem ersten Bild IA eine gerade, durch die Anzeigepunkte Pc1 und Pd1 gehende Linie Lb1 berechnet. Diese gerade Linie Lb1 befindet sich auf dem Okklusionsumriss Ma2. Die geraden Linien La1 und Lb1 werden durch die Bildschirmkoordinaten (X, Y) ausgedrückt.
In Schritt 203 in dem ersten Bild IA eine gerade, durch die Anzeigepunkte Pa1 und Pc1 gehende Linie Q1 berechnet (vgl. Fig. 8). Entsprechend wird in Schritt 204 in dem ersten Bild IA eine gerade, durch die Anzeigepunkte Pb1 und Pd1 gehende Linie Q2 berechnet. In Schritt 205 wird auf Grundlage der geraden Linien La1 und Lb1 eine Halbierungslinie Le1 berechnet. Wie oben beschrieben, halbiert die Halbierungslinie Le1 das Objektbild S1 und entspricht einem imaginären projizierten Bild der Zentralachse SU (vgl. Fig. 3). Da das Objekt S ein Zylinder ist, sind die beiden geraden Linien La1 und Lb1 parallel zu der Halbierungslinie Le1 sowie der Abstand der geraden Linie La1 von der Halbierungslinie Le1 gleich dem Abstand der geraden Linie Lb1 von der Halbierungslinie Le1. Nach Schritt 205 geht der Prozess zu Schritt 206 über.
In Schritt 206 wird, wie in Fig. 9 gezeigt, eine gerade, durch die Anzeigepunkte Pa2 und Pb2 gehende Linie La2 berechnet. In Schritt 207 wird eine gerade, durch die Anzeigepunkte Pc2 und Pd2 gehende Linie Lb2 berechnet. Die geraden Linien La2 und Lb2 entsprechen den Okklusionsumrissen MB1 bzw. MB2. Dann erhält man in Schritt 208 eine das Objektbild S2 halbierende Halbierungslinie Le2 auf Grundlage der geraden Linien La2 und Lb2. Die Halbierungslinie Le2 halbiert das Objektbild S2 und entspricht einem imaginären projizierten Bild der Zentralachse SU, entsprechend der Halbierungslinie Le1. Nach Schritt 208 geht der Prozess zu Schritt 209 über.
In Schritt 209 wird ein durch Koordinaten (Xa1, Ya1) ausgedrückter Schnittpunkt Pe1 berechnet, in dem die gerade Linie Q1 die Halbierungslinie Le1 schneidet. In Schritt 210 wird ein durch Koordinaten (Xb1, Yb1) ausgedrückter Schnittpunkt Pf1 berechnet, in dem die gerade Linie Q2 die Halbierungslinie Le1 schneidet. In Schritt 211 wird in dem zweiten Bild IB eine Epipolarlinie EP1 gesetzt, die dem Schnittpunkt Pe1 in dem Bild IA entspricht, und es wird ein durch Koordinaten (Xa2, Ya2) ausgedrückter Schnittpunkt Pe2 berechnet, in dem die Epipolarlinie EP1 die Halbierungslinie Le2 schneidet. Der Schnittpunkt Pe1 und der Schnitt­ punkt Pe2 werden als Paar Entsprechungspunkte festgelegt, das ein lmaginärbild eines bestimmten Punktes auf der Zentralachse SU ist. Da die Parallel-Stereo-Kompensation in Schritt 103 durchgeführt wird (vgl. Fig. 4 und 5), ist die Epipolar­ linie EP1 parallel zur X-Koordinate in dem Bild IB und schneidet die Y-Koordinate Ya1, die in dem Bild IA die Y-Koordinate des Schnittpunktes Pe1 ist. Nach Schritt 211 geht der Prozess zu Schritt 212 über.
In Schritt 212 wird eine Epipolarlinie EP2 gesetzt, die parallel zur X-Koordinate ist und durch die Y-Koordinate Yb1 geht. Die Y-Koordinate Yb1 entspricht der Y-Koordinate des Schnittpunktes Pf1 in dem Bild IA. Dann wird ein durch Koordina­ ten (Xb2, Yb2 (= Yb1)) ausgedrückter Schnittpunkt Pf2 berechnet, in dem die Epipolarlinie EP2 die Halbierungslinie Le2 schneidet. Das sich aus den Schnitt­ punkten Pf1 und Pf2 zusammensetzende Paar Entsprechungspunkte ist ver­ schieden von dem Paar Entsprechungspunkte Pe1 und Pe2. Wenn das Punkt­ paar Pe1 und Pe2 das Punktpaar Pf1 und Pf2 berechnet sind, geht der Prozess zu Schritt 213 über.
In Schritt 213 wird eine Koordinatentransformation unter Anwendung der Trian­ gulation durchgeführt, um die 3-D-Position des Objektes S zu berechnen. Zu­ nächst werden die in dem ersten und dem zweiten Bild IA, IB definierten Koordi­ naten (X, Y) auf CCD-Koordinaten (u, v) transformiert, die in einem Bilderzeu­ gungsbereich der CCD 41 entsprechend den in Fig. 5 gezeigten Bildern π1' und π2' definiert sind. In dieser Transformation erfolgen eine Translation zur Anpas­ sung der Ursprungsposition und eine Skalentransformation, so dass das Paar Entsprechungspunkte Pe1 und Pe2 und das Paar Entsprechungspunkte Pf1 und Pf2 nicht mehr durch die Bildschirmkoordinaten (X, Y), sondern durch die CCD-Koordinaten (u, v) ausgedrückt werden. Die Koordinatentransformation wird unter Anwendung folgender Formel (1) durchgeführt. Dabei werden die Koordinaten (Xa1, Ya1), (Xa2, Ya2), (Xb1, Yb1), (Xb2, Yb2) auf die CCD-Koordinaten (ua1, va1), (ua2, va2), (ub1, vb1) bzw. (ub2, vb2) transformiert.
P' = R.P (1)
worin
In Formel (1) bezeichnet "TeilungX" das Verhältnis der Breite des Bilderzeu­ gungsbereichs zur Breite des Bildes IA (oder des Bildes IB). Die Breite des Bildes IA entspricht der Länge in X-Richtung. "TeilungY" gibt das Verhältnis der Länge des Bilderzeugungsbereichs zur Länge des Bildes IA (oder des Bildes IB) an, die der Länge in Y-Richtung entspricht. F bezeichnet die Brennweite der Kamera 42. Der Ursprungspunkt der CCD-Koordinate (u, v) ist im Mittelpunkt des Bilderzeu­ gungsbereichs festgelegt. Die Einheit der CCD-Koordinaten (u, v) ist Millimeter (mm) und die Einheit der Bildschirmkoordinaten (X, Y) 1 Pixel. Wie aus Formel (1) hervorgeht, wird die Tiefenrichtung in CCD-Koordinaten behandelt, d. h. die CCD-Koordinaten werden durch 3-D-Koordinaten (u, v und F) ausgedrückt. Sind die Koordinaten der Entsprechungspunkte Pe1, Pe2 und die Entsprechungspunkte Pf1, Pf2 transformiert, so geht der Prozess zu Schritt 214 über.
In Schritt 214 wird auf Grundlage der CCD-Koordinaten (ua1, va1) und (ua2, va2), die dem Paar Entsprechungspunkte Pe1 und Pe2 entsprechen, und des Abstan­ des zwischen erstem und zweitem Aufnahmepunkt PA und PB die Position eines Messpunktes P1 gemäß nachfolgender Formel berechnet. Der Messpunkt P1 liegt auf der Zentralachse SU, und die Schnittpunkte Pe1 und Pe2 bilden beide ein imaginäres projiziertes Bild des Messpunktes P1. Der Abstand zwischen erstem und zweitem Aufnahmepunkt PA, PB wird im Folgenden als C bezeichnet. Die 3-D-Koordinaten (x, y, z) werden an Hand des ersten Aufnahmepunktes PA defi­ niert, d. h. die Ursprungsposition der 3-D-Koordinaten (x, y, z) wird auf den ersten Aufnahmepunkt PA gesetzt.
Die Formel (2) basiert auf der Triangulation. Die 3-D-Koordinaten (x1, y1, z1) des Messpunktes P1 ergeben sich aus Formel (2). Die z-Koordinate z1 des Mess­ punktes P1 gibt die Tiefe ausgehend von dem ersten Aufnahmepunkt PA an. In Schritt 215 erhält man die Koordinaten (x2, y2, z2) eines Messpunktes P2 auf der Zentralachse SU entsprechend dem Paar Entsprechungspunkte Pf1 und Pf2 gemäß Formel (2). Die z-Koordinate z2 ist die gleiche wie die z-Koordinate z1. Die beiden Koordinaten (x1, y1, z1) und (x2, y2, z2) werden auf dem Monitor 30 dargestellt und temporär im Speicher 18 gespeichert. Nach Schritt 215 ist diese Unterroutine beendet, und der Prozess kehrt zu dem in Fig. 4 gezeigten Schritt 105 zurück.
Während die Schritte 201 bis 205 durchgeführt werden, werden Daten einschließ­ lich der berechneten geraden Linie, des Schnittpunktes etc. temporär gespeichert. Diese gespeicherten Daten werden nach Bedarf ausgelesen.
Fig. 11 zeigt die in Fig. 4 angegebene Unterroutine des Schrittes 106. Fig. 12 zeigt das Objekt und eine Ebene mit einem Normalenvektor. Fig. 13 zeigt ein durch eine schwach perspektivische Projektion projiziertes Bild. Fig. 14 zeigt eines der beiden Bilder, auf das sich die Radiusberechnung bezieht.
In dem in Fig. 11 gezeigten Schritt 301 erhält man zunächst eine durch die 3-D-Koordinaten (x, y, z) ausgedrückte gerade Linie m1 aus den Koordinaten (x1, y1, z1) und (x2, y2, z2) der beiden Messpunkte P1 und P2. Die gerade Linie m1 wird nach folgender Formel berechnet.
worin
(a,b,c) = (x2-x1, y2-y1, z2-z1)
Wie in Fig. 12 gezeigt, wird dann basierend auf der geraden Linie m1 ein Vektor V = (e, g, f) berechnet. Der Vektor V ist der Vektor einer Linie, die sich ausgehend vom Ursprung der 3-D-Koordinaten (x, y, z) erstreckt, also von dem ersten Auf­ nahmepunkt PA aus zur geraden Linie m1. Der Vektor V ist senkrecht zur geraden Linie m1. Der Vektor V wird nach folgender Formel berechnet, die eine Vertikal- oder Normalbeziehung zwischen der geraden Linie m1 und dem Vektor V angibt.
(e,f,g).(a,b,c) = 0 (4)
Ist der Vektor V ermittelt, so geht der Prozess zu Schritt 302 über.
In Schritt 302 wird eine Ebene R berechnet, in der die gerade Linie m1, also die Zentralachse SU enthalten ist und zu der der Vektor V = (e, f, g) der Normalen­ vektor ist (vgl. Fig. 12). Die Ebene R ergibt sich nach folgender Formel.
ex+fy+g2+d = 0 (5)
worin
d = -(ex1+fy1+gz1)
= -(ex2+fy2+gz2)
Ist die Ebene R berechnet, so fährt der Prozess mit Schritt 303 fort.
In Fig. 13 ist die Beziehung gezeigt zwischen einem vorgegebenen Punkt in der Ebene R und auf der gekrümmten Fläche des Objektes S und einem vorgegebe­ nen Punkt auf den beiden Okklusionsumrissen MA1, MA2 in dem Bild IA entspre­ chend dem ersten Aufnahmepunkt PA. Die Richtung des Vektors V fällt hierbei zur Vereinfachung der Erläuterung mit der Tiefenrichtung, also der z-Richtung der 3-D-Koordinaten (x, y, z) zusammen. In dem Bild IA ist ein Punkt auf der Umrissli­ nie MA1 als Randpunkt T1 definiert. In der Bildebene der CCD 41 entspricht ein Bildpunkt T1' dem Randpunkt T1. Weiterhin ist eine gerade Linie N definiert, die durch die Ursprungsposition O (= PA) und den Bildpunkt T1' geht.
In diesem Ausführungsbeispiel wird eine "schwach perspektivische Projektion" als Projektionsverfahren angewendet. Die schwach perspektivische Projektion ist eine Kombination aus orthografischer Projektion und perspektivischer Projektion. Das Objekt S wird zunächst einer orthografischen Projektion für eine Ebene τ unterzo­ gen, die dem Objekt S benachbart definiert ist. Dann wird das projizierte Bild der perspektivischen Projektion für die Ursprungsposition O unterzogen. Im Falle der schwach perspektivischen Projektion wird der Abstand von der Ursprungsposition O zum Objekt S. in Fig. 13 durch M dargestellt, als viel länger betrachtet als der Radius r des Objektes S. Mit anderen Worten ist also der Abstand M viel größer als die Länge des Objektes S längs der Tiefenrichtung (z-Richtung). Da die ortho­ grafische Projektion längs der Richtung der optischen Achse der Kamera 42, also längs des Normalenvektors V durchgeführt wird, ist die Ebene τ parallel zur Ebene R.
Ist der Punkt, der sich auf der Oberfläche des Objektes S und in der Ebene R befindet, als Randpunkt T definiert und ein Bildpunkt dieses Randpunktes T in der Ebene τ durch T' dargestellt, so geht die gerade Linie N durch den Bildpunkt T1, der sich in dem in der CCD 41 vorgesehenen Bilderzeugungsbereich befindet, und durch den Bildpunkt T' in der Ebene τ. Auf Grundlage der Eigenschaft der schwach perspektivischen Projektion wird die gerade Linie N als eine gerade Linie N', die in Fig. 13 gestrichelt dargestellt ist, angesehen, die durch den Randpunkt T des Objektes S geht. Ist die y-Koordinate in den 3-D-Koordinaten (x, y, z) bezüg­ lich des Randpunktes T die gleiche wie die y-Koordinate des Messpunktes P1 oder P2 des Objektes S. so erhält man den Radius r durch Berechnen der gera­ den Linie N und der 3-D-Koordinaten des Randpunktes T. In diesem Ausfüh­ rungsbeispiel wird also zunächst der Randpunkt T berechnet.
In Schritt 303 wird in dem Bild IA eine gerade Linie Lg1 berechnet, die senkrecht zur Halbierungslinie Le1 verläuft und durch den Schnittpunkt Pe1 geht. In Schritt 304 wird eine gerade Linie Lh1 berechnet, die senkrecht zur Halbierungslinie Le1 verläuft und durch den Schnittpunkt Pf1 geht. In Schritt 305 ergibt sich ein Bild­ schirmgrenzpunkt Pg1, der den Schnittpunkt zwischen den geraden Linien Lg1 und La1 bildet. In Schritt 306 ergibt sich ein Bildschirmgrenzpunkt, der den Schnittpunkt der geraden Linien Lh1 und La1 bildet.
In Schritt 307 erfolgt entsprechend Schritt 213 nach Fig. 7 die Koordinatentrans­ formation für die Schnittpunkte Pg1 und Ph1. Hierbei werden die Bildschirmkoor­ dinaten (X, Y) auf die CCD-Koordinaten (u, v, F) transformiert. In Schritt 308 wird eine gerade Linie LA berechnet, die durch einen Bildpunkt Pg1 in dem Bilderzeu­ gungsbereich entsprechend dem Bildschirmgrenzpunkt Pg1 und durch den Ur­ sprung O geht. In Schritt 309 wird eine gerade Linie LB berechnet, die durch einen dem Bildschirmgrenzpunkt Ph1 entsprechenden Bildpunkt Ph1 in der Bilderzeu­ gungsebene und durch den Ursprung O geht. Die gerade Linie LA oder LB ent­ spricht der in Fig. 13 gezeigten geraden Linie N (N'). Sind die geraden Linien LA und LB ermittelt, so geht der Prozess zu Schritt 310 über.
In Schritt 310 wird auf Grundlage der Formel (5) und der durch die 3-D-Koordinaten (x, y, z) ausgedrückten geraden Linie LA ein Randpunkt PC berech­ net, der einen Schnittpunkt der geraden Linie LA mit dem Objekt S bildet und in der Ebene R liegt. In Schritt 311 wird auf Grundlage der Formel (5) und der durch die 3-D-Koordinaten (x, y, z) ausgedrückten geraden Linie LB ein Randpunkt PD berechnet, der einen Schnittpunkt der geraden Linie LB mit dem Objekt S bildet und in der Ebene R liegt. Die Randpunkte PC und PD entsprechen dem in Fig. 13 gezeigten Randpunkt T. Die y-Koordinate der Randpunkte PC und PD fällt mit der y-Koordinate der Messpunkte P1 bzw. P2 zusammen.
In Schritt 312 wird ein Abstand r1 des Messpunktes P1 von dem Randpunkt PC berechnet. In Schritt 313 wird ein Abstand r2 des Messpunktes P2 von dem Randpunkt PD berechnet. Da das Objekt S ein Zylinder ist, ist der Abstand r1 gleich dem Abstand r2. Dabei geben r1 und r2 den Radius des Objektes S an. Ist Schritt 313 ausgeführt, so endet diese Unterroutine.
Unter Bezugnahme auf die Fig. 15 bis 17 werden im Folgenden projizierte Bilder und die Form des Objektes erläutert.
Fig. 15 zeigt andere aufgenommene Bilder des Objektes S. Ist das Paar Entspre­ chungspunkte in oben erläuterter Weise ermittelt, kann die 3-D-Information selbst dann berechnet werden, wenn sich die obere Fläche oder die untere Fläche des Objektes S in den aufgenommenen Bildern nicht widerspiegelt (nicht reflektiert wird).
Fig. 16 zeigt ein Objekt, das sich von einem Zylinder unterscheidet.
Mit dem oben erläuterten Prozess zur 3-D-Berechnung kann die 3-D-Information eines in Fig. 16 gezeigten, bezüglich seiner Mittelachse Es rotationssymmetri­ schen Kegelstumpfes E gemessen werden. In diesem Fall werden zunächst gerade Linien Q1 und Q2 definiert. Dann wird eine gerade Linie, die durch den Mittelpunkt zwischen Anzeigepunkten Pa1 und Pc1 und durch den Mittelpunkt zwischen Anzeigepunkten Pb1 und Pd1 geht, als Halbierungslinie Le1 definiert. In dem Bild IB werden gerade Linien Q1' und Q2' definiert. Wird eine gerade Linie, die durch den Mittelpunkt zwischen Anzeigepunkten Pa2 und Pc2 und durch den Mittelpunkt zwischen Anzeigepunkten Pb2 und Pd2 geht, als Halbierungslinie Le2 definiert. Das Paar Entsprechungspunkte Pe1 und Pe2 erhält man durch Definie­ ren einer Epipolarlinie EP1. Ist das Objekt S als Kegelstumpf ausgebildet, ist der den Entsprechungspunkten Pe1 und Pe2 entsprechende Radius verschieden von dem der Entsprechungspunkte Pf1 und Pf2.
Fig. 17 zeigt ein Objekt, das sich von einem Zylinder und einem Kegelstumpf unterscheidet.
In Fig. 17 ist ein Objekt R0 gezeigt, das zylindrisch ausgebildet und bezüglich seiner Mittelachse RS rotationssymmetrisch ist. Im Schnitt senkrecht zur Mitte­ lachse RS ist das Objekt R0 kreisförmig. Nach dem oben erläuterten Prozess zur 3-D-Berechnung kann auch die 3-D-Information des Objektes R0 berechnet werden. In diesem Fall werden die Halbierungslinien Le1 und Le2 definiert, und man erhält das Paar Entsprechungspunkte Pe1 und Pe2 durch Definieren der Epipolarlinie EP1, entsprechend dem in Fig. 16 gezeigten Objekt E.
Auf diese Weise erhält man in diesem Ausführungsbeispiel die Positionen der Messpunkte P1 und P2 entsprechend dem Paar Entsprechungspunkte Pe1 und Pe2 und dem Paar Entsprechungspunkte Pf1 und Pf2. Der Radius des Objektes wird auf Grundlage der Messpunkte P1 und P2 berechnet.
Wird der Radius nicht berechnet, so kann nur das Paar Entsprechungspunkte Pe1 und Pe2 (oder Pf1 und Pf2) erfasst werden, um die Position des Messpunktes P1 (oder P2) zu berechnen. Ferner kann ein Punkt der beiden Entsprechungspunkte Pe2 (oder Pf2) ohne Definieren der Epipolarlinie EP1 erfasst werden. In diesem Fall wird der Punkt der Halbierungslinie Le2, dessen Y-Koordinate die gleiche wie die des Entsprechungspunktes Pe1 (oder Pf1) ist, als Entsprechungspunkt Pe2 (oder Pf2) definiert.
Das Paar Entsprechungspunkte Pe1 (Pe2) kann ohne die den Monitor 30 und die Maus 34 einsetzende Eingabeoperation erfasst werden. Die Entsprechungspunkte werden also automatisch berechnet. In diesem Fall werden das Paar Okklusions­ umrisse MA1, MA2 und das Paar Okklusionsumrisse MB1, MB2 in einem Lini­ enerfassungsprozess, wie einem Randerfassungsprozess ermittelt, ohne die beiden Bilder IA und IB darzustellen, und dann das Paar Entsprechungspunkte erfasst.
In dem Ausführungsbeispiel wird eine Messung der 3-D-Information unter Anwen­ dung des Stereoverfahrens auf die Fotogrammetrie angewendet. Die Messung kann jedoch auch auf das "computergestützte Sehen" angewendet werden. In diesem Fall werden zwei Einzelbildkameras (Standbild-, Fotokameras) oder Filmkameras bereitgestellt und über diese beiden Kameras ein Objekt aus zwei Richtungen aufgenommen. Die 3-D-Information des Objektes wird dann aus den beiden Bildern berechnet.
In dem erläuterten Ausführungsbeispiel wird die Parallel-Stereo-Kompensation durchgeführt. Die Positionen der Messpunkte können jedoch auch ohne die Parallel-Stereo-Kompensation berechnet werden. In diesem Fall wird eine Epipo­ larlinie definiert, die von der in Fig. 10 gezeigten Epipolarlinie EP1 verschieden ist.

Claims (7)

1. Einrichtung zum Messen dreidimensionaler Information eines Objektes, mit einer Bildlesevorrichtung, die ein auf ein Aufzeichnungsmedium aufgezeich­ netes Paar Bilder liest, die durch Aufnahme des Objektes von zwei Aufnah­ mepunkten aus erzeugt werden, wobei das Objekt zylindrisch ist und sich in jedem der beiden Bilder ein Paar Okklusionsumrisse widerspiegeln,
einem Entsprechungspunktdetektor, der mindestens ein Paar Entspre­ chungspunkte erfasst, das ein Paar imaginärer Bilder mindestens eines auf der Mittelachse des Objektes angeordneten Messpunktes ist, wobei die bei­ den Entsprechungspunkte auf zwei in den beiden Bildern definierten Halbie­ rungslinien angeordnet sind und jede der beiden Halbierungslinien ein ima­ ginäres projiziertes Bild der Mittelachse ist, und
einem Informationsberechnungsmittel, das eine dreidimensionale Position des Messpunktes auf Grundlage der beiden Entsprechungspunkte unter Anwendung eines Triangulationsverfahrens berechnet.
2. Einrichtung nach Anspruch 1, dadurch gekennzeichnet, dass eine digitale Einzelbildkamera mit einem Bildsensor für die Fotogrammetrie verwendet wird und die Kamera an zwei Aufnahmepositionen angeordnet wird, um die beiden Bilder zu erhalten.
3. Einrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Entsprechungspunktdetektor mindestens einen ersten Bildpunkt auf einer der beiden Halbierungslinien in einem der beiden Bilder definiert, in dem an­ deren der beiden Bilder mindestens eine dem ersten Bildpunkt entsprechen­ de Epipolarlinie setzt und mindestens einen zweiten Bildpunkt erzeugt, der den Schnittpunkt zwischen der anderen der beiden Halbierungslinien und der Epipolarlinie bildet, wobei der erste Bildpunkt und der zweite Bildpunkt als die beiden Entsprechungspunkte definiert werden.
4. Einrichtung nach einem der vorhergehenden Ansprüche, gekennzeichnet durch eine Anzeige zum Darstellen der beiden Bilder, wobei diese dargestellt werden, wenn sie von dem Aufzeichnungsmedium ausgelesen werden, und eine Eingabevorrichtung zum Eingeben von zwei Paaren Anzeigepunkten auf den beiden Okklusionsumrissen in jedem der beiden Bilder, wobei der Entsprechungspunktdetektor die beiden von einer Bedienperson eingegebe­ nen Paare Anzeigepunkte erfasst und die beiden Halbierungslinien sowie die beiden Entsprechungspunkte gemäß den beiden Paaren Anzeigepunkte in jedem der beiden Bilder berechnet.
5. Einrichtung nach einem der vorhergehenden Ansprüche, dadurch gekenn­ zeichnet, dass ein Radiusberechnungsmittel zum Berechnen eines Radius des Objektes vorgesehen ist, dass der Entsprechungspunktdetektor zwei Paare Entsprechungspunkte erfasst und das Informationsberechnungsmittel dreidimensionale Positionen der beiden Messpunkte berechnet, und dass das Radiusberechnungsmittel zum Ersten aus den Positionen der beiden Messpunkte eine Ebene berechnet, in der ein zur Mittelachse senkrechter und durch die beiden Aufnahmepunkte gehender Vektor ein Normalenvektor ist und in der die Mittelachse enthalten ist, zum Zweiten einen in der Ebene und auf einer gekrümmten Oberfläche des Objektes liegenden Randpunkt berechnet, in dem die Position längs der Mittelachse mit der eines der bei­ den Messpunkte zusammenfällt, wobei diese Berechnung auf Grundlage ei­ nes Bildpunktes erfolgt, der auf einem der beiden Okklusionsumrisse liegt und dem Randpunkt entspricht, und zum Dritten den Radius aus einem der beiden Messpunkte und dem Randpunkt berechnet.
6. Verfahren zum Messen dreidimensionaler Information eines Objektes, mit folgenden Schritten:
Lesen eines auf ein Aufzeichnungsmedium aufgezeichneten Paars Bilder, die durch Aufnahme des Objektes von zwei Aufnahmepunkten aus erzeugt werden, wobei das Objekt zylindrisch ist und sich in jedem der beiden Bilder ein Paar Okklusionsumrisse widerspiegeln,
Erfassen mindestens eines Paars Entsprechungspunkte, das ein Paar imaginärer Bilder mindestens eines auf der Mittelachse des Objektes ange­ ordneten Messpunktes ist, wobei die beiden Entsprechungspunkte auf zwei in den beiden Bildern definierten Halbierungslinien angeordnet sind und jede der beiden Halbierungslinien ein imaginäres projiziertes Bild der Mittelachse ist, und
Berechnen einer dreidimensionalen Position des Messpunktes auf Grundla­ ge der beiden Entsprechungspunkte unter Anwendung eines Triangulations­ verfahrens.
7. Speichermedium zum Speichern eines Programms zum Messen dreidimen­ sionaler Information eines Objektes, wobei das Programm folgende Schritte enthält:
Lesen eines auf ein Aufzeichnungsmedium aufgezeichneten Paars Bilder, die durch Aufnahme des Objektes von zwei Aufnahmepunkten aus erzeugt werden, wobei das Objekt zylindrisch ist und sich in jedem der beiden Bilder ein Paar Okklusionsumrisse widerspiegeln,
Erfassen mindestens eines Paars Entsprechungspunkte, das ein Paar imaginärer Bilder mindestens eines auf der Mittelachse des Objektes ange­ ordneten Messpunktes ist, wobei die beiden Entsprechungspunkte auf zwei in den beiden Bildern definierten Halbierungslinien angeordnet sind und jede der beiden Halbierungslinien ein imaginäres projiziertes Bild der Mittelachse ist, und
Berechnen einer dreidimensionalen Position des Messpunktes auf Grundlage der beiden Entsprechungspunkte unter Anwendung eines Triangulations­ verfahrens.
DE10135300A 2000-07-19 2001-07-19 Verfahren und Einrichtung zum Messen dreidimensionaler Information Withdrawn DE10135300A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000218608 2000-07-19

Publications (1)

Publication Number Publication Date
DE10135300A1 true DE10135300A1 (de) 2002-02-07

Family

ID=18713531

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10135300A Withdrawn DE10135300A1 (de) 2000-07-19 2001-07-19 Verfahren und Einrichtung zum Messen dreidimensionaler Information

Country Status (2)

Country Link
US (1) US6539330B2 (de)
DE (1) DE10135300A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103913114A (zh) * 2012-12-31 2014-07-09 深圳先进技术研究院 双目视觉***间的位置关联方法
DE102017114363A1 (de) * 2017-06-28 2019-01-03 Stefan Klinke Verfahren und Vorrichtung zur Bestimmung des Aufmaßes von mindestens einem Objekt einer Außenanlage im Landschafts- oder Straßenbau
DE102018102988A1 (de) * 2018-02-09 2019-08-14 Hochschule Rheinmain University Of Applied Sciences Wiesbaden Rüsselsheim Verfahren und Vorrichtung zur Bestimmung und Überwachung der Position und Orientierung eines zylindrischen Objekts
DE102014219411B4 (de) 2014-03-25 2024-03-07 Hyundai Motor Company Geradheitsmanagementsystem und steuerverfahren desselben für befestigungsstift

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL146597A0 (en) * 2001-11-20 2002-08-14 Gordon Goren Method and system for creating meaningful summaries from interrelated sets of information
US7257248B2 (en) * 2003-03-27 2007-08-14 General Electric Company Non-contact measurement system and method
WO2005060629A2 (en) * 2003-12-11 2005-07-07 Strider Labs, Inc. Probable reconstruction of surfaces in occluded regions by computed symmetry
FI117650B (fi) * 2004-10-27 2006-12-29 Mapvision Ltd Oy Symmetria-akselin määrittäminen
ES2282048B2 (es) * 2006-10-18 2008-02-01 Universidad Politecnica De Madrid Metodo de posicionamiento espacial de objetos cilindricos mediante analisis de imagenes.
JP2009240621A (ja) * 2008-03-31 2009-10-22 Hoya Corp 内視鏡装置
JP5713624B2 (ja) * 2009-11-12 2015-05-07 キヤノン株式会社 三次元計測方法
BR112014009823A2 (pt) * 2011-10-24 2017-06-13 Fujifilm Corp dispositivo medidor de diâmetro, método de medição, e programa de medição de objeto cilíndrico
CN102506825B (zh) * 2011-10-27 2014-02-05 广东电网公司深圳供电局试验研究所 一种输变电设备外绝缘防污参数摄影测量方法
US9639959B2 (en) * 2012-01-26 2017-05-02 Qualcomm Incorporated Mobile device configured to compute 3D models based on motion sensor data
CN103900503B (zh) 2012-12-27 2016-12-28 清华大学 提取形状特征的方法、安全检查方法以及设备
CN103903297B (zh) 2012-12-27 2016-12-28 同方威视技术股份有限公司 三维数据处理和识别方法
CN103903298B (zh) * 2012-12-27 2017-03-01 同方威视技术股份有限公司 三维数据处理和识别方法
EP2787486A1 (de) * 2013-04-04 2014-10-08 Océ-Technologies B.V. Verfahren zur Schätzung der Menge eines nichtverbrauchten Teils eines Verbrauchsprodukts
CN103308000B (zh) * 2013-06-19 2015-11-18 武汉理工大学 基于双目视觉的曲线物体测量方法
CN103679739A (zh) * 2013-12-26 2014-03-26 清华大学 基于遮挡区域检测的虚拟视图生成方法
US9986225B2 (en) * 2014-02-14 2018-05-29 Autodesk, Inc. Techniques for cut-away stereo content in a stereoscopic display
CN106091964A (zh) * 2016-05-31 2016-11-09 中国航空工业集团公司西安飞机设计研究所 一种拉杆连动机构连接件应变测量方法
CN106482637B (zh) * 2016-09-23 2018-06-08 大连理工大学 一种旋转标记点旋转中心的提取方法
CN108036730B (zh) * 2017-12-22 2019-12-10 福建和盛高科技产业有限公司 一种基于热成像的火点测距方法
CN108267104A (zh) * 2018-01-22 2018-07-10 浙江大学 一种基于双目视觉的轴类零件半径尺寸测量方法
JP7220784B2 (ja) * 2018-11-21 2023-02-10 広州極飛科技股▲ふん▼有限公司 測量用サンプリング点の計画方法、装置、制御端末及び記憶媒体
CN112362032B (zh) * 2020-09-14 2022-05-10 成都飞机工业(集团)有限责任公司 一种基于摄影测量技术的零件轴线提取方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0629695A (ja) 1992-07-08 1994-02-04 Taiyo Yuden Co Ltd 電子部品実装機
JP3426459B2 (ja) 1997-02-03 2003-07-14 ペンタックス株式会社 写真測量システムおよび写真測量方法
US6304669B1 (en) * 1997-11-10 2001-10-16 Asahi Kogaku Kogyo Kabushiki Kaisha Photogrammetric analytical measurement system
JP3441657B2 (ja) * 1997-11-10 2003-09-02 ペンタックス株式会社 画像点設定装置及びこの画像点設定装置を用いた写真測量方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103913114A (zh) * 2012-12-31 2014-07-09 深圳先进技术研究院 双目视觉***间的位置关联方法
CN103913114B (zh) * 2012-12-31 2017-05-24 深圳先进技术研究院 双目视觉***间的位置关联方法
DE102014219411B4 (de) 2014-03-25 2024-03-07 Hyundai Motor Company Geradheitsmanagementsystem und steuerverfahren desselben für befestigungsstift
DE102017114363A1 (de) * 2017-06-28 2019-01-03 Stefan Klinke Verfahren und Vorrichtung zur Bestimmung des Aufmaßes von mindestens einem Objekt einer Außenanlage im Landschafts- oder Straßenbau
DE102018102988A1 (de) * 2018-02-09 2019-08-14 Hochschule Rheinmain University Of Applied Sciences Wiesbaden Rüsselsheim Verfahren und Vorrichtung zur Bestimmung und Überwachung der Position und Orientierung eines zylindrischen Objekts

Also Published As

Publication number Publication date
US20020029127A1 (en) 2002-03-07
US6539330B2 (en) 2003-03-25

Similar Documents

Publication Publication Date Title
DE10135300A1 (de) Verfahren und Einrichtung zum Messen dreidimensionaler Information
DE102015011914B4 (de) Konturlinienmessvorrichtung und Robotersystem
DE112010005008B4 (de) System und Verfahren zur Bestimmung von Kamerafehlkalibrierung im Laufzeitbetrieb
DE102008041523B4 (de) Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE602005002176T2 (de) Vorrichtung und Verfahren zur dreidimensionalen Bildvermessung
DE602006000627T2 (de) Dreidimensionales Messverfahren und dreidimensionale Messvorrichtung
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE102012108567B4 (de) Verfahren zum Erlangen von Tiefeninformationen unter Verwendung eines Lichtmusters
DE102012112321B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102015005267B4 (de) Informationsverarbeitungsvorrichtung, Verfahren dafür und Messvorrichtung
DE102008053460B4 (de) Objekterfassungssystem
EP1181814B1 (de) Verfahren zur erfassung und darstellung eines oder mehrerer objekte, beispielsweise zähne
DE10020893B4 (de) Verfahren zur optischen Formerfassung von Gegenständen
DE112010005646B4 (de) Kameraabstandsmessvorrichtung
DE69734747T2 (de) Verfahren und Gerät zur Bildverarbeitung
DE102017200859A1 (de) Verfahren und Geräte für ein bildgebendes System
DE10137241A1 (de) Registrierung von Tiefenbildern mittels optisch projizierter Marken
EP2886043A1 (de) Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten
DE10326943A1 (de) Autonomes Fahrzeug sowie zugehörige Verfahren und Vorrichtung zur Bewegungsbestimmung, Bewegungssteuerung und Objekterkennung
DE112014005376T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm
DE4113992A1 (de) Verfahren zur automatischen dreidimensionalen ueberwachung von gefahrenraeumen
EP1352363B1 (de) Verfahren und vorrichtung zum kompensieren einer dejustage einer bilderzeugungsvorrichtung
DE2209569A1 (de) Stereo-auswerteverfahren und vorrichtung zur durchfuehrung des verfahrens
DE112021002562T5 (de) Verarbeitungsvorrichtung und an einem fahrzeug montierte kameravorrichtung

Legal Events

Date Code Title Description
8127 New person/name/address of the applicant

Owner name: PENTAX CORP., TOKIO/TOKYO, JP

8110 Request for examination paragraph 44
8130 Withdrawal