DE102008016553A1 - Verfahren zum Erzeugen einer 3D-Abbildung einer Szene aus einer 2D-Abbildung der Szene - Google Patents

Verfahren zum Erzeugen einer 3D-Abbildung einer Szene aus einer 2D-Abbildung der Szene Download PDF

Info

Publication number
DE102008016553A1
DE102008016553A1 DE102008016553A DE102008016553A DE102008016553A1 DE 102008016553 A1 DE102008016553 A1 DE 102008016553A1 DE 102008016553 A DE102008016553 A DE 102008016553A DE 102008016553 A DE102008016553 A DE 102008016553A DE 102008016553 A1 DE102008016553 A1 DE 102008016553A1
Authority
DE
Germany
Prior art keywords
scene
image
scenes
depth information
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102008016553A
Other languages
English (en)
Inventor
Markus Klippstein
Alexander Schmidt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3D International Europe GmbH
Original Assignee
Visumotion GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visumotion GmbH filed Critical Visumotion GmbH
Priority to DE102008016553A priority Critical patent/DE102008016553A1/de
Priority to PCT/EP2009/002156 priority patent/WO2009118156A2/de
Publication of DE102008016553A1 publication Critical patent/DE102008016553A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Die Erfindung bezieht sich auf ein Verfahren zum Erzeugen einer dreidimensionalen Abbildung A3D einer Szene S1 aus einer zweidimensionalen Abbildung A2D derselben Szene S1, wobei die Szene S1 Gebilde in unterschiedlichen Abständen von der Aufnahmeposition enthält. Gebilde im Sinne der Erfindung sind Körper, Figuren, Zeichen, Gegenstände oder Dinge, die allgemein in Szenen vorkommen. Erfindungsgemäß sind folgende Verfahrensschritte vorgesehen: f) Anlegen oder Verwenden eines Datensatzes von Abbildungen von Szenen Si (i = 2...n), bei denen jedem Gebilde eine Tiefeninformation zugeordnet ist, g) Vergleichen der Abbildung A2D mit den Abbildungen der Szenen Si (i = 2...n) hinsichtlich von Gebilden mit gleichen oder ähnlichen Merkmalen, h) Auswahl von mindestens einer Szene Sk (2 2D haben, i) Übertragen der Tiefeninformation von den jeweiligen in der Szene Sk enthaltenen Gebilden auf die Gebilde mit vergleichbaren Merkmalen in der Abbildung A2D, j) Generieren einer dreidimensionalen Abbildung A3D durch Verknüpfung der darin enthaltenen Gebilde mit den übertragenen Tiefeninformationen.

Description

  • Die Erfindung bezieht sich auf ein Verfahren zum Erzeugen einer dreidimensionalen Abbildung einer Szene aus einer zweidimensionalen Abbildung derselben Szene, wobei die Szene Gebilde in unterschiedlichen Abständen von der Position enthält, aus der die Abbildung der Szene aufgenommen worden ist. Unter Gebilden im Sinne der nachfolgend beschriebenen Erfindung sind Körper, Figuren, Zeichen, Gegenstände oder Dinge zu verstehen, die allgemein in Szenen vorkommen, und auch Einzelheiten, die daran ausgebildet sind.
  • Es ist bekannt, Bilder mit Hilfe von Computern zu erzeugen. So wird beispielsweise der Begriff 2D-Computergrafik im Zusammenhang mit der Erzeugung von Bildern verwendet, deren Inhalte sich in einer Ebene darstellen lassen.
  • In 3D-Computergrafiken dagegen werden die Bildinhalte dreidimensional aufbereitet. Die Gesamtheit der in einer 3D-Computergrafik darzustellenden Gebilde wird als Szene bezeichnet, und die Erzeugung eines Bildes oder Films auf der Grundlage solcher Szenen ist unter der Bezeichnung Rendern bekannt. 3D-Computergrafiken können als echte stereoskopische 3D-Bilder dargestellt werden. Es sind verschiedene Renderverfahren anwendbar, wie beispielsweise das Raytracing, ein auf der Aussendung von Strahlen basierender Algorithmus zur Verdeckungsberechnung und damit zur Ermittlung der Sichtbarkeit von Objekten von einem bestimmten Punkt im Raum aus, und das Radiosity, ebenfalls ein Verfahren zur Berechnung der Lichtausbreitung innerhalb einer Szene.
  • Zur Erzeugung von 3D-Computergrafiken dienen kommerzielle 3D-CAD-Anzeigeprogramme wie beispielsweise Pro/ENGINEER oder AutoVue. Insbesondere bei Letzterem erfolgt eine Renderung in mehreren 3D-Modi, um technische Gebilde wahlweise in Form eines schattierten Modells, einer Drahtdarstellung oder im Umriß mit versteckter Linienentfernung dreidimensional wahrnehmbar anzuzeigen.
  • Mit der zunehmend verfügbaren Speicherkapazität im Zusammenhang mit der Fortentwicklung der Computertechnik wird in jüngerer Zeit angestrebt, dreidimensionale Abbildungen von Szenen aus zweidimensionalen Abbildungen zu erzeugen. So ist beispielsweise in WO 98/10584 A2 ein „Displaysystem” zur Hinter einanderdarstellung von zwei Bildebenen beschrieben, bei dem eine erste Bildquelle, die den Vordergrund liefert, und eine zweite Bildquelle, die den Hintergrund wiedergibt, mit Hilfe eines optischen Strahlenteilers zu einer Gesamtszene so überlagert werden, daß der Betrachter den Hintergrund in größerer Entfernung wahrnimmt als den Vordergrund und auf diese Weise bedingt einen räumlichen Eindruck erhält. Zur optischen Anpassung des Aspektverhältnisses zwischen Vordergrundbild und Hintergrundbild werden hierbei monofokale Fresnelzylinderlinsen oder Zylinderspiegel verwendet.
  • Unter der Bezeichnung ”Automatic Photo Pop Up” ist auf der Siggraph 2005, einer jährlich stattfindenden Messe für Spezialisten der 2D- und 3D-Grafiken, ein Verfahren vorgestellt worden, bei dem aus einer einzigen Photographie eine 3D-Ansicht der abgebildeten Objekte im Raum rekonstruiert wird. Dabei wird geschätzt, wo in dieser Photographie vertikal ausgerichtete Objekte sind und welche Bildteile zur Bodenfläche oder zum Himmel gehören, um aus dieser Erkenntnis die Lage des Horizontes zu bestimmen.
  • Diesem sowie dem vorher erwähnten Verfahren haftet der Nachteil an, daß die Qualität der damit erzielbaren dreidimensionalen Darstellungen keinen höheren Anforderungen genügt und zudem der manuelle Anteil an dem Zeitaufwand, der für die Herstellung der dreidimensionalen Darstellungen erforderlich ist, verhältnismäßig hoch ist.
  • Davon ausgehend liegt der Erfindung die Aufgabe zugrunde, ein Verfahren zum Erzeugen einer dreidimensionalen Abbildung einer Szene aus einer zweidimensionalen Abbildung derselben Szene zu entwickeln, bei dem mit einem höheren Anteil an automatisierbaren Verfahrensschritten eine bessere Bildqualität erzielt wird.
  • Erfindungsgemäß sind bei einem Verfahren zum Erzeugen einer dreidimensionalen Abbildung A3D einer Szene S1 aus einer zweidimensionalen Abbildung A2D der Szene S1 folgende Verfahrensschritte vorgesehen:
    • a) Anlegen oder Verwenden eines Datensatzes von Abbildungen von Szenen Si (i = 2...n), die Gebilde mit unterschiedlichen Abständen von der Aufnahmeposition enthalten und bei denen jedem Gebilde eine Tiefeninformation als Maß für dessen Abstand von der Aufnahmeposition zugeordnet ist,
    • b) Vergleichen der Abbildung A2D der Szene S1 mit den Abbildungen der Szenen Si (i = 2...n) hinsichtlich des Vorhandenseins von Gebilden mit gleichen oder ähnlichen Merkmalen,
    • c) Auswahl von mindestens einer Szene Sk (2 ≤ k ≤ n), in der Gebilde vorkommen, welche die gleichen oder ähnliche Merkmale der Gebilde haben, die auch in der Abbildung A2D der Szene S1 enthalten sind,
    • d) Übertragen der Tiefeninformation von den jeweiligen in der Szene Sk enthaltenen Gebilden auf die Gebilde mit gleichen oder ähnlichen Merkmalen in der Abbildung A2D der Szene S1,
    • e) Generieren einer dreidimensionalen Abbildung A3D der Szene S1 durch Verknüpfung der darin enthaltenen Gebilde mit den übertragenen Tiefeninformationen in Form eines Datensatzes.
  • Damit liegt die dreidimensionale Abbildung A3D zunächst in einem Datensatz gespeichert vor und kann nun mit üblichen Anzeigeverfahren für einen oder mehrere Betrachter sichtbar dargestellt werden. So kann die Darstellung beispielsweise auf einem elektronisch ansteuerbaren, für 3D-Anzeigen geeigneten LC-Display, mittels eines Projektors auf einer reflektierenden Bildwand (unter Zuhilfenahme von 3D-Brillen für den Betrachter) oder auf einem holographischen Bildschirm erfolgen. Das LC-Display ist zum Beispiel dann für 3D-Anzeigen geeignet, wenn es mit einem Parallaxen-Barriere-Schirm oder einem Lentikularschirm ausgestattet ist, so daß das vom Display ausgehende Licht getrennt zu beiden Augen eines Betrachters gelangt.
  • Die Tiefeninformationen im Sinne der vorliegenden Erfindung entsprechen im übertragenen Sinne der Seh-Erfahrung des Menschen; das erfindungemäße Verfahren nutzt diese Seh-Erfahrung des Menschen. Insofern besteht ein weiterer Schritt des erfindungsgemäßen Verfahrens darin, den Datensatz von Abbildungen von Szenen Si (i = 2...n) einschließlich der Tiefeninformationen aus einer Vielzahl von dreidimensionalen oder quasi-dreidimensionalen Abbildungen zu gewinnen, die in herkömmlicher Weise erzeugt worden sind, wie etwa mit 3D-Kameras aufgenommene Bilder oder durch Rendern erzeugte 3D-Bilder.
  • Zum Messen von Größen und Entfernungen in Bildern und damit zur Gewinnung der Tiefeninformationen kann beispielsweise eine unter der Bezeichnung ”VisualSize” bekannte Software genutzt werden, die dazu lediglich zwei verschiedene Bilder ein und derselben Szene benötigt, die aus voneinander abweichenden Blickwinkeln aufgenommen worden sind. Die beiden Bilder werden anhand identischer Bildinhalte rechnerisch miteinander verglichen, und aus dem Ergebnis dieses Vergleichs wird ein virtueller Maßstab erstellt, mit dem auf Größen und Entfernungen bzw. auf die Tiefeninformationen geschlossen wird.
  • Die Tiefeninformationen werden als Codierungen, bevorzugt in Form von Grautönen, Helligkeits- oder Farbwerten, Mustern, Schraffuren oder ähnlichen Charakterisierungen, in den Datensätzen des Abbildungsvorrates von Szenen Si (i = 2...n) gespeichert. Sie können beispielsweise in Form einer Vektorgrafik der betreffenden Abbildung zugeordnet werden.
  • Die Speicherung des Datensatzes der Abbildungen, sowohl des Vorrates an Abbildungen von Szenen Si (i = 2...n) als auch der Abbildung A2D, die in eine 3D-Darstellung konvertiert werden soll, erfolgt bevorzugt in elektronischer Form, wodurch der Vergleich der Abbildung A2D mit den einzelnen Abbildungen des Vorrates automatisch anhand der elektronischen Bilddaten vorgenommen werden kann.
  • Im Rahmen der Erfindung liegt sowohl auch die komprimierte Speicherung der Bilddaten in elektronischer Form als auch die Speicherung in jeglicher anderen Form, die eine Automatisierung des erfindungsgemäßen Verfahrens zuläßt, wie beispielsweise eine Speicherung auf Basis optischer Daten.
  • Bei dem Vergleich wird die Ähnlichkeit der Merkmale von Gebilden, die in der Abbildung A2D enthalten sind, mit der Ähnlichkeit der Merkmale von Gebilden bewertet, die in den bevorrateten Abbildungen enthalten sind, wobei die Ähnlichkeit der Umrisse, der Größe, der Farbe bzw. Graustufen und/oder der Strukturen verglichen wird. Auch können dem Vergleich jeweils nur Bildausschnitte zugrunde gelegt werden.
  • Zu diesem Vergleich kann z. B. ein als „Scene Completion” bekanntes Verfahren genutzt werden, das ursprünglich dazu entwickelt wurde, ein in einer aufgenommenen Szene verdecktes und dadurch nicht sichtbares Gebilde zu ergänzen, indem in einer Vielzahl von verschiedenen Bildern nach Szenen mit ähnlichen Bildinhalten gesucht, das fehlende Gebilde als Bildausschnitt aus einer vergleichbaren Darstellung entnommen und in das zu ergänzende Bild eingesetzt wird.
  • Die Übereinstimmung einer in dem Abbildungsvorrat gefundenen Abbildung einer Szene Sk mit der in der Abbildung A2D dargestellten Szene S1 wird dabei anhand vergleichbarer Umrisse, Farben bzw. Graustufen und/oder Strukturen der erkannten Gebilde ermittelt. Bei einer gefundenen maximalen Übereinstimmung werden die Tiefeninformationen von den Gebilden, die in der betreffenden Abbildung aus dem Datenvorrat enthalten sind, auf die in der Abbildung A2D enthaltenen Gebilde übertragen, indem beispielsweise der Abbildung A2D eine sogenannte Tiefenkarte, zum Beispiel in Form einer Vektorgrafik oder eines Grauwertbildes, zugeordnet wird.
  • Damit werden einem in der Szene S1 enthaltenen Gebilde die Tiefeninformationen zugeordnet, die einem vergleichbaren Gebilde aus den Abbildungen von Szenen Si (i = 2...n) zugeordnet sind.
  • Hat z. B. ein Datensatz aus einer Abbildung und einer zugeordneten Tiefenkarte in Form einer Vektorgrafik 2 MB Speicherbedarf, so würde für die Speicherung eines Datenvorrates von 10.000 Abbildungen einschließlich der jeweils zugeordneten Tiefenkarte eine Speicherkapazität von 20 GB ausreichen.
  • Aus dem Datensatz der dreidimensionalen Abbildung A3D der Szene S1, der im Wesentlichen aus dem Datensatz aus der Abbildung A2D und einer dieser Abbildung zugeordneten Tiefenkarte besteht, werden nun mittels bekannter Verfahren mehrere Perspektivansichten generiert. Hierzu wird beispielsweise die Lehre der WO 97/23097 ”PARALLACTIC DEPHT-DEPENDENT PIXEL SHIFTS” angewendet, bei welcher Pixeltiefen in Pixelverschiebungen gewandelt und aus diesen Verschiebungen Perspektivansichten generiert werden, die beispielsweise Objekte in Bildebenen verschiedener Tiefen beinhalten. Die Anwendung anderer einschlägiger Verfahren ist selbstverständlich möglich und liegt im Rahmen der hier vorliegenden Erfindung.
  • Es liegt im Rahmen der Erfindung, wenn in den Datensätzen der dreidimensionalen Abbildung A3D der Szene S1 beziehungsweise der Szenen Si zusätzlich auch Hinterschneidungsinformationen, Transparenzinformationen oder sonstige zusätzliche Bild- oder Szeneninformationen ein-, zwei- oder dreidimensionaler Natur gespeichert werden, die für eine weitere Bearbeitung der dreidimensionalen Abbildung A3D von Vorteil sein können.
  • Der Datensatz der dreidimensionalen Abbildung A3D der Szene S1 beziehungsweise der Szenen Si können anhand von herkömmlichen Tiefen-Schätzungsverfahren im Sinne einer Präzisierung der Tiefeninformationen noch verfeinert werden. Zur Anwendung kommen hierzu beispielsweise die Auswertung von Schattenwurf, Perspektive, Verdeckung, shape from motion oder auch shape from shadow.
  • Das erfindungsgemäße Verfahren ist vorteilhaft zur räumlich wahrnehmbaren Darstellung bewegter oder unbewegter Gebilde innerhalb einer Szene anwendbar. Auch die Anwendung zur räumlich wahrnehmbaren Darstellung von Geländeabschnitten, die sich relativ zu einem Betrachter verändern und die eines oder mehrere Gebilde in unterschiedlichen Abständen vom Betrachter enthalten, liegt im Rahmen der Erfindung.
  • Die Erfindung soll nachfolgend anhand eines Ausführungsbeispieles näher erläutert werden.
  • Erfindungsgemäß wird in einem ersten Verfahrensschritt, der in mehreren Teilschritten ablaufen kann, eine Vielzahl von Abbildungen von Szenen Si (i = 2...n) in einem bevorzugt elektronischen Speicher abgelegt. Gespeichert werden Abbildungen von Szenen Si jeglicher Art, die Gebilde, wie Körper, Figuren, Zeichen, Gegenstände oder Dinge darstellen, die naturgemäß vorkommen oder künstlich geschaffen sind. Da die Zahl naturgemäß vorkommender oder künstlich geschaffener Gebilde prinzipiell endlich ist, kommen sie in der Vielzahl von gespeicherten Abbildungen mit hoher Wahrscheinlichkeit auch wiederholt vor.
  • In der Regel enthält eine Abbildung einer Szene Si Gebilde unterschiedlicher Art, die innerhalb der Szene Si auch unterschiedliche Abstände von der Position im Raum haben, aus welcher die Szene Si aufgenommen oder – im Falle von 3D-Computergrafiken – scheinbar (virtuell) aufgenommen worden ist.
  • Die zu speichernden Szenen Si werden beispielsweise mit einer Kamera oder mehreren Kameras aus mindestens zwei Blickwinkeln aufgenommen, oder sie werden als 3D-Computergraphiken mit einem kommerziell erhältlichen Softwareprogramm zur Erzeugung von dreidimensionalen Ansichten generiert, wobei sich eine scheinbare (virtuelle) Aufnahmeposition im Raum ergibt.
  • In jeder dieser Abbildungen lassen sich – bezogen auf die dargestellten Gebilde – Tiefeninformationen bestimmen. Eine Tiefeninformation im Sinne der vorliegenden Erfindung ist bevorzugt ein Äquivalent für eine Entfernungsangabe zwischen der Aufnahmeposition und dem betreffenden Gebilde. Daneben kommen jedoch auch Tiefeninformationen in Betracht, die einer Entfernungsangabe zwischen einem wählbaren Fixpunkt und dem betreffenden Gebilde entsprechen. Unter Gebilde im Sinne dieser Erfindung sind auch Ausbildungen zu verstehen, die Bestandteile von Körpern, Figuren, Zeichen, Gegenständen oder Dingen sind, wie beispielsweise ein Vordach an einem Gebäude, ein Ast an einem Baum, ein Griff an einer Tür, und die als Einzelheiten von Gebilden zur Szene gehören.
  • Die Bestimmung der Tiefeninformationen aus den aus mehreren Blickwinkeln aufgenommenen Abbildungen oder den 3D-Computergrafiken erfolgt mit aus dem Stand der Technik bekannten Mitteln zur Bildauswertung, z. B. der Photogrammetrie oder unter Anwendung von üblichen Stereo-Matching-Algorithmen oder Tiefenerkennungsverfahren. Die so gewonnenen Tiefeninformationen werden als Codierung den entsprechenden, in der Abbildung der betreffenden Szene Si dargestellten Gebilden bzw. Bestandteilen von Gebilden zugeordnet gespeichert. Die Co dierung kann beispielsweise in Form von Grautönen, Helligkeits- oder Farbwerten, Mustern, Schraffuren oder ähnlichen Charakterisierungen vorgenommen werden. Die Gesamtheit der Tiefeninformationen, die den in einer Abbildung dargestellten Gebilden zugeordnet sind, wird beispielsweise als Tiefenkarte in Form einer Vektorgraphik dieser Abbildung zugeordnet.
  • Sobald ein solcher nach dem ersten Verfahrensschritt angelegter Vorrat von gespeicherten Abbildungen vorhanden ist, können die nächsten Verfahrensschritte ausgeführt werden. Dabei gehört es zum Erfindungsgedanken, daß dieser Vorrat an gespeicherten Abbildungen stets erweitert bzw. ergänzt wird, was vorteilhaft zur Folge hat, daß die nachfolgenden Verfahrensschritte mit fortschreitender Ergänzung des Vorrates immer präziser ausgeführt werden können.
  • Im nächsten Verfahrensschritt wird die zweidimensionale Abbildung A2D einer Szene S1, die ebenfalls elektronisch gespeichert vorliegt, mit jeder einzelnen der gespeicherten Abbildungen von Szenen Si verglichen, und zwar im Hinblick auf das Vorhandensein von Gebilden mit gleichen oder ähnlichen Merkmalen. Beispielsweise sind die Merkmale der Gebilde sowohl bei den gespeicherten Abbildungen als auch bei der zweidimensionalen Abbildung A2D durch deren Umrisse, Größe, Farbe bzw. Grauwerte und/oder Strukturen charakterisiert. Zur Ausführung des Vergleichs kann beispielhaft das bereits erwähnte „Scene Completion”-Verfahren genutzt werden. Enthält die zweidimensionale Abbildung A2D beispielsweise die Darstellung eines oder mehrerer Gebäude und einer oder mehrerer Personen, so werden mit Hilfe dieses Verfahrens die elektronisch gespeicherten Bildinhalte miteinander verglichen und in dem als Vorrat gespeicherten Abbildungen nach gleichen oder ähnlichen Darstellungen gesucht. Auch können dem Vergleich jeweils nur Bildausschnitte zugrunde gelegt werden. Der Vergleich läuft automatisch unter Nutzung einer entsprechenden Software und/oder Hardware ab.
  • Im Ergebnis des Vergleichs werden im Idealfall Übereinstimmungen hinsichtlich der Umrisse, der Größe, der Farbe bzw. Grauwerte und/oder der Struktur der in der zweidimensionalen Abbildung A2D dargestellten Gebilde mit Gebilden in einer oder auch in mehreren der Abbildungen von Szenen Si innerhalb des Speichervorrates gefunden. Dann werden in der Folge die Tiefeninformationen aus dem Speichervorrat entnommen und den Gebilden in der zweidimensionalen Abbildung A2D zugeordnet. Lassen sich übereinstimmende Merkmale für alle in der zweidimensionalen Abbildung A2D dargestellten Gebilde mit Gebilden innerhalb einer einzigen der gespeicherten Abbildungen finden, so entspricht dies wiederum einem – durchaus möglichen – Idealfall.
  • In der Regel jedoch, und insbesondere dann, wenn vorerst eine verhältnismäßig geringe Anzahl von Abbildungen innerhalb des Speichervorrates vorhanden ist, werden sich Gebilde mit lediglich ähnlichen Merkmalen und nur in mehreren verschiedenen der gespeicherten Abbildungen finden lassen. In diesen Fällen werden aus dem Speichervorraten die Tiefeninformationen entnommen und auf die Gebilde in der zweidimensionalen Abbildung A2D übertragen, die den dort dargestellten Gebilden hinsichtlich der Umrisse, der Größe, der Farbe bzw. Graustufen und/oder der Struktur am ähnlichsten sind.
  • Die Gesamtheit der auf die Gebilde innerhalb der zweidimensionalen Abbildung A2D übertragenen Tiefeninformationen wird beispielsweise wiederum in Form einer Vektorgraphik dieser Abbildung zugeordnet. Dabei werden, soweit erforderlich, Anpassungen der Tiefeninformationen an die Größe der jeweiligen Gebilde vorgenommen.
  • In einem nächsten Verfahrensschritt wird aus der Verknüpfung der Bildinhalte innerhalb der zweidimensionalen Abbildung A2D mit den zugeordneten Tiefeninformationen nach herkömmlichen Verfahren der Datensatz einer dreidimensionalen Abbildung A3D der Szene S1 generiert. Dieser Datensatz liegt nun ebenfalls in elektronisch gespeicherter Form vor und kann über drahtgebundene oder drahtlose Datennetze an Einrichtungen übermittelt werden, mit denen eine für einen Betrachter dreidimensionale wahrnehmbare Darstellung der Szene S1 angezeigt werden kann.
  • Der Datensatz einer dreidimensionalen Abbildung A3D der Szene S1 kann zwecks der für einen Betrachter dreidimensional wahrnehmbaren Darstellung beispielsweise nach dem bereits genannten Verfahren nach WO 97/23097 in mehrere Ansichten umgewandelt werden.
  • Bestandteil einer für die Darstellung geeigneten Anzeigeeinrichtung kann beispielsweise ein LC-Display sein, das mit einem Parallaxen-Barriere-Schirm oder einem Lentikularschirm ausgestattet ist, so daß das von dem LC-Display ausgehende Licht gesondert teilweise zu dem einen und dem anderen Auge des Betrachters gerichtet wird, wodurch wiederum jedes Betrachterauge unterschiedliche Ansichten wahrnimmt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - WO 98/10584 A2 [0005]
    • - WO 97/23097 [0021, 0037]

Claims (10)

  1. Verfahren zum Erzeugen einer dreidimensionalen Abbildung A3D einer Szene S1 aus einer zweidimensionalen Abbildung A2D der Szene S1, wobei die Szene S1 Gebilde in unterschiedlichen Abständen von der Position enthält, aus der die Abbildung A2D aufgenommen worden ist, gekennzeichnet durch folgende Verfahrensschritte: a) Anlegen oder Verwenden eines Datensatzes von Abbildungen von Szenen Si (i = 2...n), die Gebilde mit unterschiedlichen Abständen von der Aufnahmeposition enthalten und bei denen jedem Gebilde eine Tiefeninformation als Maß für dessen Abstand von der Aufnahmeposition zugeordnet ist, b) Vergleichen der Abbildung A2D der Szene S1 mit den Abbildungen der Szenen Si (i = 2...n) hinsichtlich des Vorhandenseins von Gebilden mit gleichen oder ähnlichen Merkmalen, c) Auswahl von mindestens einer Szene Sk (2 ≤ k ≤ n), in der Gebilde vorkommen, welche die gleichen oder ähnliche Merkmale der Gebilde haben, die auch in der Abbildung A2D der Szene S1 enthalten sind, d) Übertragen der Tiefeninformation von den jeweiligen in der Szene Sk enthaltenen Gebilden auf die Gebilde mit gleichen oder ähnlichen Merkmalen in der Abbildung A2D der Szene S1, e) Generieren einer dreidimensionalen Abbildung A3D der Szene S1 durch Verknüpfung der darin enthaltenen Bildinhalte mit den übertragenen Tiefeninformationen, bevorzugt in Form eines Datensatzes.
  2. Verfahren nach Anspruch 1, bei dem der Vorrat an Abbildungen von Szenen Si (i = 2...n) einschließlich der Tiefeninformationen aus dreidimensionalen Abbildungen dieser Szenen gewonnen wird.
  3. Verfahren nach Anspruch 1 oder 2, bei dem – der Vorrat an Abbildungen und die Abbildung A2D in Form von elektronischen Bilddaten gespeichert werden, und – der Vergleich der Abbildung A2D mit den einzelnen Abbildungen des Vorrates automatisch anhand der elektronischen Bilddaten vorgenommen wird.
  4. Verfahren nach einem der vorgenannten Ansprüche, bei dem die Gleichheit oder Ähnlichkeit der Merkmale von Gebilden durch Vergleich ihrer Umrisse, Größe, Farbe bzw. Grauwerten und/oder Struktur ermittelt wird.
  5. Verfahren nach Anspruch 1 oder 2, bei dem die Tiefeninformation innerhalb des Vorrates von Abbildungen von Szenen Si (i = 2...n) als Codierungen, bevorzugt in Form von Grautönen, Helligkeits- oder Farbwerten, Mustern, Schraffuren oder ähnlichen Charakterisierungen, in den Datensätzen gespeichert sind.
  6. Verfahren nach Anspruch 5, bei dem den in der Szene S1 enthaltenen Gebilden die Tiefeninformation zugeordnet werden, indem die Codierung, die einem Gebilde aus den Abbildungen von Szenen Si (i = 2...n) zugeordnet ist, einem Gebilde mit gleichen oder ähnlichen Merkmalen in der Szene S1 zugeordnet wird.
  7. Verfahren nach einem der vorgenannten Ansprüche, bei dem die Szene S1 – auf einem elektronisch ansteuerbaren Flach-Display, – mittels eines Projektors auf einem als reflektierende Bildwand unter Zuhilfenahme von 3D-Brillen für den Betrachter, oder – auf einem holographischen Bildschirm räumlich wahrnehmbar dargestellt wird.
  8. Verfahren nach Anspruch 7, bei dem das LC-Display mit einem Parallaxen-Barriere-Schirm ausgestattet ist, so daß das vom LC-Display ausgehende Licht getrennt zu den beiden Augen der Betrachter gerichtet wird.
  9. Anwendung des Verfahrens nach den Ansprüchen 1 bis 8 zur räumlich wahrnehmbaren Darstellung bewegter oder unbewegter Gebilde innerhalb einer Szene.
  10. Anwendung des Verfahrens nach den Ansprüchen 1 bis 8 zur räumlich wahrnehmbaren Darstellung von Geländeabschnitten, die sich relativ zu einem Betrachter verändern und die ein oder mehrere Gebilde in unterschiedlichen Abständen vom Betrachter enthalten.
DE102008016553A 2008-03-27 2008-03-27 Verfahren zum Erzeugen einer 3D-Abbildung einer Szene aus einer 2D-Abbildung der Szene Withdrawn DE102008016553A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102008016553A DE102008016553A1 (de) 2008-03-27 2008-03-27 Verfahren zum Erzeugen einer 3D-Abbildung einer Szene aus einer 2D-Abbildung der Szene
PCT/EP2009/002156 WO2009118156A2 (de) 2008-03-27 2009-03-25 Verfahren zum erzeugen einer 3d-abbildung einer szene aus einer 2d-abbildung der szene

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102008016553A DE102008016553A1 (de) 2008-03-27 2008-03-27 Verfahren zum Erzeugen einer 3D-Abbildung einer Szene aus einer 2D-Abbildung der Szene

Publications (1)

Publication Number Publication Date
DE102008016553A1 true DE102008016553A1 (de) 2009-11-12

Family

ID=41114372

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008016553A Withdrawn DE102008016553A1 (de) 2008-03-27 2008-03-27 Verfahren zum Erzeugen einer 3D-Abbildung einer Szene aus einer 2D-Abbildung der Szene

Country Status (2)

Country Link
DE (1) DE102008016553A1 (de)
WO (1) WO2009118156A2 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013067441A1 (en) 2011-11-02 2013-05-10 Google Inc. Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
US9674498B1 (en) 2013-03-15 2017-06-06 Google Inc. Detecting suitability for converting monoscopic visual content to stereoscopic 3D
US9769460B1 (en) 2012-02-10 2017-09-19 Google Inc. Conversion of monoscopic visual content to stereoscopic 3D

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2969791B1 (fr) 2010-12-23 2012-12-28 Thales Sa Procede de correction de l'hyperstereoscopie et systeme de visualisation de casque associe
CN109584154A (zh) * 2018-12-20 2019-04-05 广东精鹰传媒股份有限公司 一种利用二维图片制作三维场景的方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997023097A2 (en) 1995-12-19 1997-06-26 Philips Electronics N.V. Parallactic depth-dependent pixel shifts
WO1998010584A2 (en) 1996-08-16 1998-03-12 Tullo, Louis Display system
US20050129305A1 (en) * 1999-08-25 2005-06-16 Eastman Kodak Company Method for forming a depth image
US7199793B2 (en) * 2002-05-21 2007-04-03 Mok3, Inc. Image-based modeling and photo editing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997023097A2 (en) 1995-12-19 1997-06-26 Philips Electronics N.V. Parallactic depth-dependent pixel shifts
WO1998010584A2 (en) 1996-08-16 1998-03-12 Tullo, Louis Display system
US20050129305A1 (en) * 1999-08-25 2005-06-16 Eastman Kodak Company Method for forming a depth image
US7199793B2 (en) * 2002-05-21 2007-04-03 Mok3, Inc. Image-based modeling and photo editing

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013067441A1 (en) 2011-11-02 2013-05-10 Google Inc. Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
EP2774124A1 (de) * 2011-11-02 2014-09-10 Google, Inc. Tiefenkartenerzeugung für ein eingangsbild mit einer annähernden beispieltiefe, assoziiert mit einem ähnlichen beispielbild
EP2774124A4 (de) * 2011-11-02 2015-10-21 Google Inc Tiefenkartenerzeugung für ein eingangsbild mit einer annähernden beispieltiefe, assoziiert mit einem ähnlichen beispielbild
US9471988B2 (en) 2011-11-02 2016-10-18 Google Inc. Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
US10194137B1 (en) 2011-11-02 2019-01-29 Google Llc Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
US9769460B1 (en) 2012-02-10 2017-09-19 Google Inc. Conversion of monoscopic visual content to stereoscopic 3D
US9674498B1 (en) 2013-03-15 2017-06-06 Google Inc. Detecting suitability for converting monoscopic visual content to stereoscopic 3D

Also Published As

Publication number Publication date
WO2009118156A3 (de) 2011-10-13
WO2009118156A2 (de) 2009-10-01

Similar Documents

Publication Publication Date Title
DE102015210453B3 (de) Verfahren und vorrichtung zum erzeugen von daten für eine zwei- oder dreidimensionale darstellung zumindest eines teils eines objekts und zum erzeugen der zwei- oder dreidimensionalen darstellung zumindest des teils des objekts
DE112016004731T5 (de) Erweitern von Mehrfachansicht-Bilddaten mit synthetischen Objekten unter Verwendung von IMU und Bilddaten
WO2005029871A2 (de) Verfahren zum erstellen einer raumbildvorlage für abbildungsverfahren mit räumlichen tiefenwirkungen und vorrichtung zum anzeigen einer raumbildvorlage
EP3347876B1 (de) Vorrichtung und verfahren zur erzeugung eines modells von einem objekt mit überlagerungsbilddaten in einer virtuellen umgebung
DE102015213832A1 (de) Verfahren und Vorrichtung zum Erzeugen eines künstlichen Bildes
WO2018162509A2 (de) Vorrichtung und verfahren zur darstellung eines raumbilds von einem objekt in einer virtuellen umgebung
DE602004012341T2 (de) Verfahren und System zur Bereitstellung einer Volumendarstellung eines dreidimensionalen Objektes
DE102008016553A1 (de) Verfahren zum Erzeugen einer 3D-Abbildung einer Szene aus einer 2D-Abbildung der Szene
DE102007021518B4 (de) Verfahren zum Verarbeiten eines Videodatensatzes
DE112015004871T5 (de) Verfahren zur automatisierten Echtzeit-Konversion von 2D-RGB-Bildern und -Video in stereoskopische Rot-Cyan-3D-Anaglyphen
DE102007057208A1 (de) Verfahren zum Darstellen von Bildobjekten in einem virtuellen dreidimensionalen Bildraum
DE102011008886A1 (de) Verfahren und Vorrichtung zur Stereobasis-Erweiterung von stereoskopischen Bildern und Bildfolgen
EP1628262A2 (de) Verfahren und Vorrichtung zur Darstellung einer dreidimensionalen Topographie
DE102009036029A1 (de) Darstellung komplexer und/oder deformierbarer Objekte sowie virtuelle Anprobe von anziehbaren Objekten
DE10056978B4 (de) Verfahren zur Erzeugung eines stereographischen Bildes
CN110602476B (zh) 一种基于深度信息辅助的高斯混合模型的空洞填补方法
EP2478705A1 (de) Verfahren und vorrichtung zum erzeugen von teilansichten und/oder einer raumbildvorlage aus einer 2d-ansicht für eine stereoskopische wiedergabe
DE102015112411A1 (de) System zur stereoskopischen Darstellung von Aufnahmen eines Endoskops
DE19853608C2 (de) Verfahren zur Darstellung eines autostereoskopischen Bildes
WO2007085482A1 (de) Verfahren zur erzeugung und darstellung räumlich wahrnehmbarer bilder
DE102015017128A1 (de) Verfahren und Vorrichtung zum Erzeugen von Daten für eine zwei- oder dreidimensionale Darstellung zumindest eines Teils eines Objekts und zum Erzeugen der zwei- oder dreidimensionalen Darstellung zumindest des Teils des Objekts
Aubin et al. Stereo and shading contribute independently to shape convexity-concavity discrimination
WO2009036831A1 (de) Vorrichtung und verfahren zum ausrichten eines 3d-objekts in einem einem gesichtsfeld einer aufnahmevorrichtung entsprechenden bild
Kellnhofer et al. What makes 2D-to-3D stereo conversion perceptually plausible?
DE10246122B4 (de) Verfahren und Vorrichtung zur Darstellung eines computermodellierten Gegenstands

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R082 Change of representative

Representative=s name: GEYER, FEHNERS & PARTNER (G.B.R.), DE

Representative=s name: GEYER, FEHNERS & PARTNER (G.B.R.), 07745 JENA, DE

R081 Change of applicant/patentee

Owner name: 3D INTERNATIONAL EUROPE GMBH, DE

Free format text: FORMER OWNER: VISUMOTION GMBH, 07745 JENA, DE

Effective date: 20120222

R082 Change of representative

Representative=s name: GEYER, FEHNERS & PARTNER (G.B.R.), DE

Effective date: 20120222

Representative=s name: PATENTANWAELTE GEYER, FEHNERS & PARTNER MBB, DE

Effective date: 20120222

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20131001