DE69922482T2 - Verfahren und vorrichtung zur optischen tiefenbestimmung - Google Patents

Verfahren und vorrichtung zur optischen tiefenbestimmung Download PDF

Info

Publication number
DE69922482T2
DE69922482T2 DE69922482T DE69922482T DE69922482T2 DE 69922482 T2 DE69922482 T2 DE 69922482T2 DE 69922482 T DE69922482 T DE 69922482T DE 69922482 T DE69922482 T DE 69922482T DE 69922482 T2 DE69922482 T2 DE 69922482T2
Authority
DE
Germany
Prior art keywords
depth
orientation
image
area
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69922482T
Other languages
English (en)
Other versions
DE69922482D1 (de
Inventor
W. Cornelis VAN OVERVELD
A. Antonius KALKER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Application granted granted Critical
Publication of DE69922482D1 publication Critical patent/DE69922482D1/de
Publication of DE69922482T2 publication Critical patent/DE69922482T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf ein Verfahren zur optischen Bestimmung der Betrachtungstiefe eines Flächenausschnitts in einer Szene von Bildern, erhalten von verschiedenen Gesichtspunkten nach dem Oberbegriff des Anspruchs 1.
  • Für eine Anzahl Anwendungen ist es erwünscht, die Tiefe von Flächenausschnitten zu ermitteln, die in einem Bild sichtbar sind. Beispiele derartiger Applikationen umfassen Systeme, die es ermöglichen Bilder der Szene zu berechnen, die von interaktiv steuerbaren Gesichtspunkten aus sichtbar sind, Bildkompression, Inspektion usw. Dabei bezieht sich die Tiefe eines Punktes auf einem Flächenausschnitt auf den Abstand zwischen dem Gesichtspunkt und der Ebene durch den Punkt und senkrecht auf der optischen Achse der Kamera.
  • Wenn der Gesichtspunkt der Kamera von einem ersten in einen zweiten Gesichtspunkt verlagert wird, kann eine Tiefe eines Flächenausschnitts ermittelt werden, und zwar aus dem Betrag der Translation der Position des Bildgebietes, wo der Flächenausschnitt sichtbar ist. Wenn das Bild durch Punktprojektion erhalten wird, ist die Translation proportional zu dem Betrag der Verlagerung der Kamera und umgekehrt proportional zu der Tiefe des Flächenausschnitts.
  • Es ist bekannt, zum Messen der Translation, die Pixelwerte in einem ersten Bildgebiet in einem ersten Bild, erhalten von dem ersten Gesichtspunkt, an die Pixelwerte eines geradlinig verschobenen Bildgebietes in einem zweiten Bild, erhalten von dem zweiten Gesichtspunkt, anzupassen. Anpassung erfordert Ermittlung eines Aggregats der Differenzen zwischen den Pixelwerten des ersten Bildgebietes und den Pixelwerten in einem anderen Gebiet. Dies wird für eine Anzahl derartiger anderer Gebiete an verschiedenen Stellen in dem zweiten Bild wiederholt. Eine dieser Positionen wird selektiert, wobei das Ausmaß der Differenz angibt, dass das Aggregat der Differenzen minimal ist.
  • Wenn der Flächenausschnitt klein ist oder in einer Ebene senkrecht zu der optischen Achse der Kamera liegt, wird die Messung von Differenzen zwischen den Pixelwerten des ersten Bildgebietes und den Pixelwerten des passenden verlagerten Bildgebietes ein nahezu einwandfreies Zusammenpassen angeben. Aber größere Flächenausschnitte, die nicht in einer Ebene senkrecht zu der optischen Achse liegen, werden nicht zu einem einwandfreien Zusammenpassen führen und werden dazu neigen, zu kleineren Ausschnitten mit Unterbrechungen zwischen den geschätzten Tiefen für die kleineren Ausschnitte segmentiert zu werden.
  • Es ist nun u. a. eine Aufgabe der vorliegenden Erfindung die Zuverlässigkeit und die Genauigkeit der Schätzungen der Tiefe größerer Flächenausschnitte zu verbessern, die nicht in einer Ebene senkrecht zu der optischen Achse der Kamera liegen.
  • Das Verfahren nach der vorliegenden Erfindung ist gekennzeichnet durch den kennzeichnenden Teil des Anspruch 1. Nach der vorliegenden Erfindung sucht man nach einer Kombination von Tiefen- und Orientierungswerten für den Flächenausschnitt (die Tiefe eines Flächenausschnitts ist beispielsweise die Tiefe eines bestimmten Punktes auf dem Flächenausschnitt). Jede solche Kombination führt zu einer bestimmten Übereinstimmung zwischen Bildpunkten in dem ersten und dem zweiten Bild. Diese Übereinstimmung wird durch Berechnung eines Aggregats der Differenzen der Pixelwerte an entsprechenden Punkten getestet. Für die beste Kombination von Tiefe und Orientierung wird ein nahezu einwandfreies Zusammenpassen möglich sein, auch für größere Flächenausschnitte, die nicht in einer Ebene senkrecht zu der optischen Achse der Kamera liegen. Folglich gibt es keinen Grund zur Segmentierung dieser Flächenausschnitte in kleinere Ausschnitte.
  • Vorzugsweise selektiert man Flächenausschnitte dadurch, dass vorbestimmte Gebiete in einem ersten Bild genommen werden, wie rechteckige Blöcke mit Pixeln. Auf diese Weise brauch keine vorhergehende Annahme über Flächenausschnitte gemacht zu werden. Für jedes Gebiet selektiert man eine Anzahl möglicher Kombinationen von Tiefe und Orientierung für den Flächenausschnitt, der in diesen Gebieten sichtbar ist. Danach bestimmt man, wohin die Pixel dieses Gebietes sich verlagern sollen, wenn eine Kombination von Tiefe und Orientierung einwandfrei wäre. Man bestimmt das Aggregat der Differenzen zwischen dem Pixelinhalt dieser Pixel in dem ersten Bild und den Pixeln, wohin sie in dem zweiten Bild verlagert worden sind. Die Kombination von Tiefe und Orientierung, die dieses Aggregat minimiert, wird als beste Annäherung für die Tiefe und die Orientierung des in dem Gebiet sichtbaren Flächenausschnitts selektiert.
  • Dies wird vorzugsweise auf ein Gitter von Blöcken angewandt, die das Bild bedecken.
  • Vorzugsweise werden nicht alle Kombinationen von Tiefe und Orientierung versucht, sondern nur Kombinationen, von denen man erwartet, dass sie am wahrscheinlichsten sind, beispielsweise Kombinationen, von denen es sich herausgestellt hat, dass sie die besten Annäherungen in gebieten haben, die an das Gebiet grenzen, für das man versucht, die beste Kombination von Tiefe und Orientierung zu finden. Andere Beispiele derartiger wahrscheinlicher Kombinationen umfassen Kombinationen, von denen man gefunden hat, dass sie die wahrscheinlichste Kombination von Tiefe und Orientierung ist durch einen vorhergehenden Vergleich des Bildes in dem Gebiet mit einem weiteren Bild.
  • Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden im vorliegenden Fall näher beschrieben. Es zeigen:
  • 1 die Geometrie eines Flächenausschnitts und zwei Gesichtspunkte,
  • 2 ein Bild eines Flächenausschnitts,
  • 3 ein Flussdiagramm eines Verfahrens zum Schätzen von Tiefe und Orientierung eines Flächenausschnitts,
  • 4 ein Gerät zum Schätzen einer Tiefe zwischen dem Gesichtspunkt und einem Flächenausschnitt.
  • 1 zeigt die Geometrie eines Flächenausschnitts 10 und zweier Gesichtspunkte 12a, b. Wenn Bilder einer Szene, die den Flächenausschnitt 10 enthält, unter Verwendung von Punktprojektion von verschiedenen Gesichtspunkten 12a, b aus erhalten werden, ist die Position, an der Punkte 14 und 15 auf dem Flächenausschnitt in dem Bild sichtbar sein werden, Projektionen 16a, b, 17a, b der Punkte 14, 15. Die Projektionen können dadurch illustriert werden, dass Linien 19a–d von den Punkten 14, 15 durch die Gesichtspunkte 121, b zu einer Bildebene 18 gezogen werden. Zum Erläutern der Basisprinzipien sind die Gesichtspunkte 12a, b in einer Ebene parallel zu der Bildebene 18 selektiert worden, aber die vorliegende Erfindung beschränkt sich nicht auf eine derartige Selektion von Gesichtspunkten 12a, b. Die Schnittstellen zwischen diesen Linien 19a–d und der Bildebene 18 illustrieren die Positionen, wo die Punkte 14, 15 auf dem Flächenausschnitt in Bildern sichtbar sein werden.
  • Es sei bemerkt, dass eine Änderung des Gesichtspunktes 12a, b zu einer Translation der Position 16a, b 17a, b führt, wobei ein Punkt 14, 15 auf dem Flächenausschnitt in der Bildebene 18 sichtbar sein wird. Diese Translation ist umgekehrt proportional zu der Tiefe "z" zwischen dem Gesichtspunkt und dem Punkt und proportional zu dem Betrag der Änderung in der Position des Gesichtspunktes. Dadurch wird die Translation für die Punkte 14, 15 auf dem Flächenausschnitt 10 verschieden sein, die verschiedene Tiefen "z" von den Gesichtspunkten 12a, b aus haben.
  • 2 zeigt ein Bild 20 mit einem Gebiet 22, wo ein Flächenausschnitt sichtbar ist. In dem Bild 20 sind Translationsvektoren 23a, b; 25a, b dargestellt, durch welche die Positionen, an denen Punkte auf dem Flächenausschnitt, die in dem Bild 20 sichtbar sind, in Reaktion auf eine Bewegung des Gesichtspunktes geradlinig verlagert werden. Es sei bemerkt, dass die Translationsvektoren 25a, b für Punkte auf dem Flächenausschnitt, die näher bei dem Gesichtspunkt liegen, größer sein werden als für Punkte, die weiter von dem Gesichtspunkt entfernt liegen. Längs einer Linie 26, wo die Tiefe aller Punkte dieselbe ist, werden die Translationen einander entsprechen.
  • Wenn man ein Koordinatensystem mit einer Achse längs der Linie 26 und einer Achse senkrecht auf dieser Linie anwendet, wird die Amplitude der Translation "D" der Stelle, wo ein Punkt sichtbar ist, proportional zu A + Bu sein, wobei u eine Koordinate der Stelle ist, an der der Punkt längs der Achse senkrecht au der Linie 26 sichtbar ist. Die Richtung der Translation ist entgegengesetzt zu der Richtung der Bewegung des Gesichtspunktes. Der Parameter "A" ist proportional zu der Inverse der Tiefe "ZO" bei u = 0; A = c/ZO und "B" ist auf gleiche Weise proportional zu dieser Tiefe und die Neigung "s" des Flächenausschnitts senkrecht zu der Sehrichtung: B = c·s/ZO (c ist eine Proportionalitätskonstante proportional zu der Verlagerung des Gesichtspunktes, dem Fokusabstand und der Skalierung der Bilder).
  • Oft werden Flächenausschnitte "strukturiert" sein, d.h. sie verursachen eine von der Stelle abhängige Grauwerte oder Farbvektorwerte (im Allgemeinen "Bildinhalt") in einem Gebiet, wo der Flächenausschnitt in einem Bild der Szene sichtbar ist. Da Gebiete sich verlagern und verformen, und zwar durch Bewegung des Gesichtspunktes, ermöglicht die Struktur dieser Bewegung zu folgen, indem der Bildinhalt des ursprünglichen Gebietes mit dem bewegenden und sich verformenden Gegenteil zum Decken gebracht wird.
  • 3 zeigt ein Flussdiagramm eines Verfahrens zum Schätzen der Tiefe und der Orientierung eines Flächenausschnitts.
  • In einem ersten und zweiten Schritt 31, 32 des Flussdiagramms wird die Kameraoptik an einem ersten und einem zweiten Gesichtspunkt aufgestellt, von woraus ein erstes und ein zweites Bild erhalten werden kann.
  • In einem dritten Schritt 33 des Flussdiagramms wird ein Gebiet in dem ersten Bild selektiert. In einem vierten Schritt 34 des Flussdiagramms wird eine Anzahl Kan didat-Tiefe-Orientierungspaare selektiert. Diese Paare können je zum Ermitteln einer Orientierung der Linie 26 und der Parameter A, B benutzt werden.
  • Die Kandidat-Paare können beispielsweise auf Basis der Tiefenorientierungspaare selektiert werden, die für benachbarte Gebiete oder für dasselbe Gebiet von einer vorhergehenden Kamerabewegung gegenüber einem früheren Bild bestimmt wurden. Ein Verfahren zum Selektieren von Kandidat-Tiefenwerte ist beispielsweise aus der Europäischen Patentanmeldung EP 0 972 407 bekannt. Auf gleiche Weise wie dieses bekannte Verfahren verschiedene Gebiete selektiert und die geschätzten Tiefenwerte als Kandidat-Tiefenwerte benutzt, kann man die Tiefe und die Orientierung derartiger selektierter Gebiete als Kandidat-Tiefe-Orientierungspaare verwenden.
  • Ein Tiefe-Orientierungspaar definiert eine Übereinstimmung zwischen Punkten in dem ersten und dem zweiten Bild. Entsprechende Punkte in dem ersten und dem zweiten Bild sind Punkte, welche die Projektion derselben Stelle auf einem Flächenausschnitt auf das erste und zweite Bild wären, wenn dieser Flächenausschnitt eine Tiefe und Orientierung hätte entsprechend der des Tiefe-Orientierungspaares.
  • In einem fünften Schritt 35 des Flussdiagramms wird der Pixelinhalt von den Punkten in dem ersten Bild mit dem Pixelinhalt an entsprechenden Stellen in dem zweiten Bild für jedes Paar einer Anzahl Tiefe-Orientierungspaare verglichen.
  • Dies kann beispielsweise durch Summierung der Absolutwerte der Differenz zwischen dem Bildinhalt (Grauwert oder Farbvektor) an einer Stelle in dem ersten Bild und der entsprechenden Stelle in dem zweiten Bild verwirklicht werden. In diesem Fall ist das Maß der Differenz SUM'R |I1(R) – I2(F(R))|
  • Wobei die Summe über eine Anzahl x, y Stellen R in einem Gebiet in dem ersten Bild läuft, wobei I1(R) der Bildinhalt des ersten Bildes an der Stelle R ist, und wobei I2(R) der Bildinhalt des zweiten Bildes an einer geradlinig verlagerten Stelle F(R) ist. Die geradlinig verlagerte Stelle F(R) hat xy Komponenten, die eine Funktion der ursprünglichen Stelle R sind und Tiefe und Orientierung des Tiefe-Orientierungspaares, für das das Maß der Differenz berechnet wird.
  • Statt der Summe der absoluten Werte der Differenzen kann man jedes beliebige andere Maß der Differenz summieren, wie die Quadrate der Differenzen. Zum Erhalten entsprechender Punkte braucht man nicht über vorbestimmte Stellen in jedem Bild zu summieren, sondern stattdessen kann man über Bezugspunkte W summieren, die zu entsprechenden Stellen passen R1 = F1(W) und R2 = F2(W) in dem ersten und zweiten Bild. SUM'W |I1(F1(W)) – I2(F2(W))|
  • Die Struktur des Flächenausschnitts ist zwecks der Zuverlässigkeit der Messung der Differenz. Wenn der Flächenausschnitt keine Struktur hat, werden die Messungen der berechneten Differenz für mehrere Tiefe-Orientierungspaare alle sehr klein sein.
  • In einem sechsten Schritt 36 des Flussdiagramms wird bestimmt, welches der Tiefe-Orientierungspaare zu einer minimalen Messung der Differenz führt. In einem siebenten Schritt 37 wird bestimmt, ob diese Differenz klein genug ist. Sollte dies nicht der Fall sein, so wird das Tiefe-Orientierungspaar in dem Schritt 34a benutzt zum Erzeugen neuer Kandidat-Tiefe-Orientierungspaare auf Basis des Tiefe-Orientierungspaares mit minimaler Differenzmessung und das Flussdiagramm wird von dem fünften Schritt 35 an wiederholt.
  • Zum Schluss kann das Tiefe-Orientierungspaar ggf. weiter optimiert werden, indem ein Optimum in der Nähe des besten Kandidaten gesucht wird, beispielsweise unter Verwendung eines sich wiederholenden Minimum-Suchalgorithmus, der die Gradienten der Differenzmessung gegenüber der Tiefe und Orientierung benutzt.
  • Wenn die Differenzmessung klein genug ist wird getestet, ob alle gewünschten Gebiete von dem ersten Bild verarbeitet worden sind. Wenn nicht, so wird das Verfahren für ein anderes Gebiet in dem ersten Bild wiederholt.
  • Dadurch werden Tiefe- und Orientierungsschätzungen für eine Anzahl Gebiete in dem Bild verfügbar sein.
  • Die verlagerte Stelle F(R) für ein bestimmtes Tiefe-Orientierungspaar kann wie folgt berechnet werden. Zunächst berechnet man die dreidimensionale Lage P entsprechend dem Bildpunkt R in dem Bild, genommen aus dem ersten Gesichtspunkt. Dieser Punkt P wird einzigartig bestimmt, und zwar unter der Annahme, dass der Punkt P auf dem Flächenausschnitt mit dem Tiefe-Orientierungspaar ist. Gegeben P und die Translation und Rotation der Kameraoptik, wenn von dem ersten Gesichtspunkt zu dem zweiten Gesichtspunkt verlagert wird, wird danach die Projektion F(R) von P von dem zweiten Gesichtspunkt aus berechnet.
  • Wenn beispielsweise der Punkt P die Koordinaten (Px, Py, Pz) gegenüber der Kameraoptik von dem ersten Gesichtspunkt aus hat, dann wird die Position R = (x, y) wo dieser Punkt in dem Bild von dem ersten Gesichtspunkt aus sichtbar ist, gegeben durch: x = S·PX/Pz y = S·Py/Rz S ist ein bestimmter Parameter der Kameraoptik. Das gegebene Tiefe-Orientierungspaar schreibt vor, dass P eine Gleichung A·P = C entsprechen soll, wobei A·P das Skalierungsprodukt von P ist mit einem Vektor A senkrecht zu dem Flächenausschnitt mit der gegebenen Orientierung und C ist eine Konstante abhängig von A und der Tiefe. Auf diese Weise ist das Tiefe-Orientierungspaar durch A, C dargestellt, (wobei nur zwei Komponenten von A unabhängig variabel zu sein brauchen).
  • Auf diese Weise sind drei Gleichungen verfügbar, von denen (Px, Py, Pz) als eine Funktion von R gelöst werden kann.
  • Die projizierte Position F(R) = (Fx(R), Fy(R)) des Punktes P von dem zweiten Gesichtspunkt ist eine Funktion von
    • – der Position des Gesichtspunktes (was als ein Vektor D der dreidimensionalen Translation aus dem ersten Gesichtspunkt ausgedrückt werden kann),
    • – der Orientierung der Kameraoptik (was mit einer Drehungsmatrix Q ausgedrückt werden kann, die einen Achsensatz der Kameraoptik in der ersten Position in diejenigen Achsen der Kameraoptik in dem zweiten Gesichtspunkt transformiert): Fx(R) = S[Q(P + D)]x/[Q(P + D)]z Fy(R) = S[Q(P + D)]y/[Q(P + D)]z
  • Gegeben die Bewegung der Kameraoptik in Termen von Q, D, F(R) folgt dies leicht aus P. In der Praxis kann diese Berechnung selbstverständlich in einem algebraischen Ausdruck für F(R) gesammelt werden, der zum Berechnen des Ausmaßes der Differenz benutzt wird, so dass P nicht explizit jeweils berechnet zu werden braucht. Beispielsweise in dem einfachen Fall der Translation der Kameraoptik parallel zu der Bildebene 18 ohne Drehung der Kameraoptik F(R) = R + T·(1 + R.N)/ZO
  • In dieser Formel ist ZO die Tiefe von dem Tiefe-Orientierungspaar für den Flächenaus schnitt, T (entsprechend D) ist ein Vektor in der Bildebene in einer Richtung entgegengesetzt zu der Richtung der Translation des Gesichtspunktes und das Skalierungsprodukt von R und der Vektor N stellt die Orientierung des Flächenausschnitts von dem Tiefe-Orientierungspaar dar; N ist die senkrechte Projektion der Normalen auf dem Flächenausschnitt auf die Bildebene, geteilt durch die Länge der Komponente dieser Normalen längs der optischen Achse der Kameraoptik.
  • Entsprechende Punkte R1, R2 in dem ersten und dem zweiten Bild können auch durch Berechnung von R1 sowie R2 aus Px, Py, Pz Werten erhalten werden, die aus einem Gitter von Px, Py Werten erhalten werden mit Pz Werten selektiert um dem bestimmten Tiefe-Orientierungspaar zu entsprechen. In diesem Fall kann man die Differenzen der Pixelwerte I1(R1), I2(R2) summieren, erhalten für Punkte auf diesem Gitter von Px, Py Werten, statt der Summierung über ein Gitter von Punkten von jedem des ersten und des zweiten Bildes. Die Px, Py Werte auf dem Gitter können in beliebigen Richtungen in gleichen Abständen voneinander liegen, beliebig selektiert, oder in gleichen Abständen längs Linien gleicher Tiefe und der Zwischenraum senkrecht zu denjenigen Linien, die umgekehrt proportional zu der Tiefe variieren, und zwar zum Erhalten einer homogenen Verteilung in den Bildern.
  • 4 zeigt ein Gerät zum Schätzen der Tiefe. Das Gerät enthält eine Kameraoptik und einen Sensor 40, der mit einer ersten und einer zweiten Bildspeichereinheit 42a, b gekoppelt ist. Eine Steuereinheit 44 ist mit einer Speichersteuereinheit 45 und einer Tiefesucheinheit 46 gekoppelt. Gegebenenfalls ist zwischen der Steuereinheit 44 und der Kameraoptik und dem Sensor 40 eine Bewegungsmess- und/oder Steuereinheit 41 gekoppelt. Die Speichersteuereinheit 45 ist mit der ersten und der zweiten Bildspeichereinheit 42a, b gekoppelt. Die Tiefesucheinheit 46 hat Adressausgänge, die mit den Bildspeichereinheiten 42a, b gekoppelt sind. Die Bildspeichereinheiten 42a, b haben Bilddatenausgänge, die mit einer Differenzberechnungseinheit 47 gekoppelt sind.
  • Im Betrieb sorgt die Steuereinheit 44 zunächst dafür, dass die Speichersteuereinheit 45 ein erstes und ein zweiten Bild speichert, das von der Kameraoptik und dem Sensor 40 erhalten worden ist, um in der Bildspeichereinheit 42a, b gespeichert zu werden. Daraufhin sorgt die Steuereinheit 44 dafür, dass die Tiefesucheinheit 46 sich deckende Gebiete in den Bildern sucht, die in der ersten und zweiten Bildspeichereinheit 42a, b gespeichert sind. Die Steuereinheit 44 kann auch Bewegungsparameter zu der Tiefesucheinheit 46 liefern, wobei die Bewegungsparameter aus der beobachteten oder gesteuerten Bewegung der Kameraoptik und des Sensors bestimmt werden. Dies ist aber nicht notwendig. In dem letzteren Fall wird die geschätzte Tiefe bis zu einem beliebigen Faktor bestimmt, der für alle Stellen in den Bildern gemeinsam ist.
  • Die Tiefesucheinheit 46 selektiert Gebiete und Kandidat-Tiefe-Orientierungspaare. Für ein bestimmtes Gebiet und Kandidat-Tiefe-Orientierungspaar liefert die Tiefesucheinheit Adressen von Pixeln an entsprechenden Stellen in dem ersten und zweiten Bild zu der ersten und zweiten Speichereinheit 42a, b. Der Bildinhalt an diesen Stellen wird der Differenzberechnungseinheit 47 zugeführt. Die resultierende Differenz für ein Gebiet wird der Tiefesucheinheit 46 zugeführt. Der resultierende Differenzwert wird in die Tiefesucheinheit geladen. Dies wird für eine Anzahl Kandidat-Tiefe-Orientierungspaare und Gebiete wiederholt. Für jedes Gebiet selektiert die Tiefesucheinheit 46 ein Tiefe-Orientierungspaar, das zu einer minimalen Differenz führt.
  • Das Verfahren und die Anordnung können verwendet werden zum Erhalten von Tiefe und Orientierung von Flächenausschnitten. Derartige Information kann für alle oder die meisten Flächenausschnitte erhalten werden, die in einem Bild sichtbar sind. Diese Information kann beispielsweise zum Rekonstruieren von Bildern einer Szene aus verschiedenen Gesichtspunkten verwendet werden. Wenn die Szene einmal in Termen von Stellen mit bekannter Struktur, Position und Orientierung beschrieben worden ist, können herkömmliche Computer-Graphiktechniken benutzt werden um ein Bild der Szene aus mehreren Gesichtspunkten aufzubereiten.
  • Andere Anwendungen von Orientierungs- und Tiefeninformation umfassen Bildkompression. Bei Kompressionstechniken wie MPEG wird Videoinformation durch Codierung von Blöcken mit Pixeln in einem Bild in Termen einer Bewegung gegenüber einem anderen Bild komprimiert. Dies ordnet jedem Pixel in dem Block dieselbe Bewegung zu. Weiter Änderungen der Pixel in dem Block werden dadurch codiert, dass für einzelne Pixel zusätzliche Information eingeschlossen wird. In MPEG werden Blöcke nicht allzu groß gemacht, u. a. weil dies das Bedürfnis nach zusätzlicher Information wesentlich steigern würde, und dadurch das Kompressionsverhältnis verringern würde.
  • Durch Codierung von Tiefen- und Orientierungsinformation für einen Block (an sich oder zusätzlich zu anderer Information, wie einem Bewegungsvektor) können verschiedenen Pixeln verschiedene Bewegungen zugeordnet werden, so dass eine bessere Deckung zwischen Pixeln in dem Block, erhalten durch diese Bewegung, und den wirklichen Pixeln erzielt werden kann. Mit einer derartigen Codierung ist weniger zusätzliche Informa tion erforderlich zum Codieren des Bildes und es können größere Blöcke verwendet werden, wobei das Bild noch weiter komprimiert wird. Die Verwendung von Tiefe und Orientierung für diesen Zweck bietet den zusätzlichen Vorteil, dass dies Konsistenz derjenigen Aspekte des Bildes gewährleistet, für die die menschliche Perzeption am empfindlichsten ist.
  • Es sei bemerkt, dass für eine Bildrekonstruktion und Codierung es kein Problem ist, dass Tiefe- und Orientierungsinformation, erhalten für ein homogenes Bildgebiet weniger genau ist. Wegen der Homogenität hat dies wenig oder keinen Effekt auf die Genauigkeit der Rekonstruktion oder Kompression.

Claims (10)

  1. Verfahren zur optischen Bestimmung der Betrachtungstiefe eines sichtbaren Flächenausschnitts in Bildern einer Szene, wobei das Verfahren die nachfolgenden Verfahrensschritte umfasst: – das Erhalten eines ersten und eines zweiten Bildes mit dem Flächenausschnitt, betrachtet von verschiedenen Gesichtspunkten, – das Assoziieren verfügbarer Tiefenwerte mit dem Flächenausschnitt, wobei jeder verfügbare Tiefenwert eine Übereinstimmung zwischen Punkten in dem ersten und dem zweiten Bild voraussagt, wobei entsprechende Punkte identische Stellen auf dem Flächenausschnitt betrachten, – das Suchen eines besten Tiefenwertes, so dass unter den verfügbaren Tiefenwerten der beste Tiefenwert zu einer minimalen Anhäufung von Differenzen zwischen Pixelwerten des ersten und des zweiten Bildes an entsprechenden Punkten führt; dadurch gekennzeichnet, dass die genannte Suche für eine beste Kombination von Tiefen- und Orientierungswerten unter verfügbaren Kombinationen von Tiefen- und Orientierungswerten für den Flächenausschnitt ist, wobei jede Kombination die genannte Übereinstimmung als eine Funktion von Orientierung und Tiefe vorhersagt, wobei verschiedene verfügbare Kombinationen verschiedene Orientierungen enthalten.
  2. Verfahren nach Anspruch 1, wobei dieses Verfahren die nachfolgenden Verfahrensschritte umfasst: – das Erfassen eines vorbestimmten ersten Gebietes in dem ersten Bild, – das Erfassen eines vorbestimmten Satzes erster Punkte in dem ersten Gebiet, – für jede der verfügbaren Kombinationen von Tiefe und Orientierung: – das Berechnen zweiter Punkte in dem zweiten Bild entsprechend den ersten Punkten und – das Berechnen der Anhäufung von Differenzen zwischen den Pixelwerten des ersten und des zweiten Bildes für die ersten bzw. zweiten Punkte, – das Selektieren der Kombination von Tiefe und Orientierung, was zu einer minimalen Anhäufung von Differenzen führt.
  3. Verfahren nach Anspruch 2, wiederholt angewandt, wobei jede Wiederholung für das erste Gebiet einen betreffenden Block von einem Gitter von Blöcken benutzt, die das erste Bild bedecken.
  4. Verfahren nach Anspruch 1 oder 2, wobei die verfügbaren Kombinationen von Tiefen- und Orientierungswerten einen richtigen Subsatz aller möglichen Kombinationen von Tiefen- und Orientierungswerten bilden, wobei die verfügbaren Kombinationen dadurch selektiert werden, dass eine Kombination eingeschlossen wird, die als beste Kombination für ein Gebiet des ersten Bildes neben einem Gebiet, wo der Flächenausschnitt sichtbar ist, gefunden wurde.
  5. Verfahren nach Anspruch 2, wobei eine vorhergehende Kombination von Tiefe und Orientierung geschätzt wird für das Gebiet aus Verlagerung von Gesichtspunkten, die eine identische Stelle des Flächenausschnitts des ersten Bildes und eines weiteren Bildes, und wobei die verfügbaren Kombinationen von Tiefen- und Orientierungswerten einen richtigen Subsatz aller möglichen Kombinationen von Tiefen- und Orientierungswerten bilden wobei die verfügbaren Kombinationen dadurch selektiert werden, dass die richtige Kombination eingeschlossen wird.
  6. Vorrichtung zur optischen Bestimmung der Betrachtungstiefe, wobei diese Vorrichtung die nachfolgenden Elemente umfasst: – eine Bilderfassungsschaltung zum Erhalten eines ersten und eines zweiten digitalisierten Bildes mit einem Flächenausschnitt, gesehen von verschiedenen Gesichtspunkten, – eine Sucheinheit zum Suchen eines besten Tiefenwertes, wobei die Sucheinheit verfügbare Tiefenwerte mit dem Flächenausschnitt assoziiert, wobei jeder verfügbare Tiefenwert eine Übereinstimmung zwischen Punkten in dem ersten und dem zweiten Bild vorhersagt, wobei entsprechende Punkte identische Stellen auf dem Flächenausschnitt sehen, wobei die Sucheinheit nach einem besten Tiefenwert sucht, so dass unter den verfügbaren Tiefenwerten der beste Tiefenwert zu einer minimalen Anhäufung von Differenzen zwischen Pixelwerten des ersten und des zweiten Bildes an entsprechenden Punkten führt; dadurch gekennzeichnet, dass die genannten Sucheinheiten vorgesehen sind zum Suchen nach einer besten Kombination von Tiefen- und Orientierungswerten unter verfügbaren Kombinationen von Tiefen- und Orientierungswerten für den Flächenausschnitt, wobei jede verfügbare Kombination die genannte Übereinstimmung als eine Funktion von Orientierung und Tiefe vorhersagt, wobei verschiedene verfügbare Kombinationen verschiedene Orientierungen enthalten.
  7. Vorrichtung nach Anspruch 6, wobei die Sucheinheit zu den nachfolgenden Zwecken vorgesehen ist: – das Erfassen eines vorbestimmten ersten Gebietes in dem ersten Bild, – das Erfassen eines vorbestimmten Satzes erster Punkte in dem ersten Gebiet, – für jede der verfügbaren Kombinationen von Tiefe und Orientierung: – das Berechnen zweiter Punkte in dem zweiten Bild entsprechend den ersten Punkten und – das Berechnen der Anhäufung von Differenzen zwischen den Pixelwerten des ersten und des zweiten Bildes für die ersten bzw. zweiten Punkte, – das Selektieren der Kombination von Tiefe und Orientierung, was zu der minimalen Anhäufung von Differenzen führt.
  8. Vorrichtung nach Anspruch 6, wobei die Sucheinheit als das erste Gebiet einen betreffenden Block aus dem Gitter von Blöcken, die das erste Gebiet bedecken, erfasst.
  9. Vorrichtung nach Anspruch 6 oder 7, wobei die verfügbaren Kombinationen von Tiefen- und Orientierungswerten einen richtigen Subsatz aller möglichen Kombinationen von Tiefen- und Orientierungswerten bilden, wobei die Sucheinheit die verfügbaren Kombinationen dadurch selektiert, dass eine als beste Kombination gefundene Kombination für ein Gebiet des ersten Bildes grenzend an ein Gebiet, wo der Flächenausschnitt sichtbar ist, eingeschlossen wird.
  10. Vorrichtung nach Anspruch 6, wobei eine vorhergehende Kombination von Tiefe und Orientierung für das Gebiet aus der Verlagerung von Punkten geschätzt wird, die eine identische Stelle des Flächenausschnitts des ersten Bildes und eines weiteren Bildes sieht, und wobei die verfügbaren Kombinationen von Tiefen- und Orientierungswerten ei nen richtigen Subsatz aller möglichen Kombinationen von Tiefen- und Orientierungswerten bilden, wobei die verfügbaren Kombinationen dadurch selektiert werden, dass die vorhergehende Kombination eingeschlossen wird.
DE69922482T 1998-07-10 1999-07-08 Verfahren und vorrichtung zur optischen tiefenbestimmung Expired - Fee Related DE69922482T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP98202326 1998-07-10
EP98202326 1998-07-10
PCT/EP1999/004935 WO2000003356A1 (en) 1998-07-10 1999-07-08 Method and device for optically determining depth

Publications (2)

Publication Number Publication Date
DE69922482D1 DE69922482D1 (de) 2005-01-13
DE69922482T2 true DE69922482T2 (de) 2005-11-03

Family

ID=8233913

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69922482T Expired - Fee Related DE69922482T2 (de) 1998-07-10 1999-07-08 Verfahren und vorrichtung zur optischen tiefenbestimmung

Country Status (5)

Country Link
US (1) US6788808B1 (de)
EP (1) EP1034512B1 (de)
JP (1) JP2002520600A (de)
DE (1) DE69922482T2 (de)
WO (1) WO2000003356A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1997072B1 (de) 2006-03-15 2013-08-14 Koninklijke Philips Electronics N.V. Verfahren zur herstellung einer tiefenkarte aus bildern und vorrichtung zur herstellung einer tiefenkarte
US7894662B2 (en) * 2006-10-11 2011-02-22 Tandent Vision Science, Inc. Method for using image depth information in identifying illumination fields
US20090196527A1 (en) * 2008-02-01 2009-08-06 Hiwin Mikrosystem Corp. Calibration method of image planar coordinate system for high-precision image measurement system
US8238612B2 (en) * 2008-05-06 2012-08-07 Honeywell International Inc. Method and apparatus for vision based motion determination
WO2012174090A2 (en) * 2011-06-13 2012-12-20 University Of Florida Research Foundation, Inc. Systems and methods for estimating the structure and motion of an object

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5644651A (en) * 1995-03-31 1997-07-01 Nec Research Institute, Inc. Method for the estimation of rotation between two frames via epipolar search for use in a three-dimensional representation
US5864640A (en) * 1996-10-25 1999-01-26 Wavework, Inc. Method and apparatus for optically scanning three dimensional objects using color information in trackable patches

Also Published As

Publication number Publication date
WO2000003356A1 (en) 2000-01-20
EP1034512B1 (de) 2004-12-08
EP1034512A1 (de) 2000-09-13
JP2002520600A (ja) 2002-07-09
DE69922482D1 (de) 2005-01-13
US6788808B1 (en) 2004-09-07

Similar Documents

Publication Publication Date Title
DE19928341C2 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE69328614T2 (de) Bestimmung der position und der bewegung einer studiokamera unter benutzung der kamerabilder
DE69811050T2 (de) Rekonstruktionsverfahren, Vorrichtung und Dekodierungssystem für dreidimensionalen Szenen.
DE69601880T2 (de) Verfahren und vorrichtung zur erstellung der lage einer fernsehkamera zur verwendung in einem virtuellen studio
DE102009046295B4 (de) Optische Abweichungskorrektur für maschinelle Sichtinspektionssysteme
DE19623172C1 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE69521739T2 (de) Verfahren und Vorrichtung zur Bildverarbeitung
DE19807053B4 (de) Strahltransformationsverfahren für eine schnelle Volumenaufbereitung für eine perspektivische Betrachtung
DE10307580B3 (de) Verfahren zum Bestimmen und Verfolgen von Position und Orientierung eines Magnetfeldsensors
EP1770635B1 (de) Iteratives Verfahren zur Interpolation von Bildinformationswerten
DE112014000155B4 (de) Verfahren zur Bestimmung von Tiefenkarten aus Stereobildern mit verbesserter Tiefenauflösung in einem Bereich
DE69922482T2 (de) Verfahren und vorrichtung zur optischen tiefenbestimmung
DE4416557A1 (de) Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers
DE69817152T2 (de) Computergraphisches bump-mapping-verfahren und geraet
EP0897247A2 (de) Verfahren zur Berechnung von Bewegungsvektoren
EP0534996B1 (de) Verfahren zur segmentierung bewegter objekte durch hintergrundadaption mit kompensation der kamerabewegung
DE10310849B4 (de) Verfahren zur photogrammmetrischen Abstands- und/oder Positionsbestimmung
EP3465608B1 (de) Verfahren und vorrichtung zum bestimmen eines übergangs zwischen zwei anzeigebildern, und fahrzeug
DE102017216854B4 (de) Verfahren und Vorrichtung zum Bewerten von Korrespondenzen von Bildern, Betriebsassistenzverfahren und Betriebsvorrichtung
DE4444697A1 (de) Verfahren und Vorrichtung zur Stereobildauswertung
DE3446009C2 (de)
DE69713858T2 (de) Verfahren und gerät zum grafischen abbilden einer oberfläche auf ein zweidimensionales bild
DE102004023322A1 (de) Lage- und Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren
EP3985608B1 (de) Computer-implementiertes verfahren zur erstellung von mehrdimensionalen gegenstands-datenstrukturen
DE3903838A1 (de) Verfahren und einrichtung zum darstellen dreidimensionaler bilder

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee