DE69434685T2 - Bildverarbeitungsverfahren und -gerät - Google Patents

Bildverarbeitungsverfahren und -gerät Download PDF

Info

Publication number
DE69434685T2
DE69434685T2 DE69434685T DE69434685T DE69434685T2 DE 69434685 T2 DE69434685 T2 DE 69434685T2 DE 69434685 T DE69434685 T DE 69434685T DE 69434685 T DE69434685 T DE 69434685T DE 69434685 T2 DE69434685 T2 DE 69434685T2
Authority
DE
Germany
Prior art keywords
viewpoint
images
image
parameter
viewpoints
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69434685T
Other languages
English (en)
Other versions
DE69434685D1 (de
Inventor
c/o Canon Kabushiki Kaisha Akihiro Ohta-ku Katayama
c/o Canon Kabushiki Kaisha Koichiro Ohta-ku Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP5193737A external-priority patent/JPH0749944A/ja
Priority claimed from JP5271698A external-priority patent/JP3032414B2/ja
Application filed by Canon Inc filed Critical Canon Inc
Application granted granted Critical
Publication of DE69434685D1 publication Critical patent/DE69434685D1/de
Publication of DE69434685T2 publication Critical patent/DE69434685T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/395Arrangements specially adapted for transferring the contents of the bit-mapped memory to the screen
    • G09G5/397Arrangements specially adapted for transferring the contents of two or more bit-mapped memories to the screen simultaneously, e.g. for mixing or overlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/38Image reproducers using viewer tracking for tracking vertical translational head movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/106Determination of movement vectors or equivalent parameters within the image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/337Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf ein Bildverarbeitungsverfahren und ein Bildverarbeitungsgerät, bei welchen eine Vielzahl von Bildern bei verschiedenen Ansichtspunkten bzw. Blickpunkten aufgenommen werden, um ein Bild zur Verfügung zu stellen, welches bei einer Position eines einer gegenwärtigen Position der Augen eines Betrachters bzw. Beobachters entsprechenden Ansichtspunkts bzw. Blickpunkts zu betrachten ist.
  • Es gibt Stereoanzeigen und linsenförmige Anzeigen, welche als herkömmliche Geräte zur stereoskopischen Anzeige von aus einer Vielzahl von Ansichtspunkten gesehenen Bildern bekannt sind. Bei den Stereoanzeigen werden Videobilder von zwei Kameras mit hoher Geschwindigkeit wechselweise zur Anzeige geschaltet, so dass ein Betrachter die Videobilder unter Verwendung von Blendengläsern oder Polarisationsgläsern, welche mit dem Schalten synchronisiert sind, stereoskopisch betrachten kann. Ferner sind die linsenförmige Anzeigen wie folgt ausgestaltet. Seien beispielsweise A, B, C, D Bilder von vier Kameras und A (1, 1) eine Bildelementposition (1, 1) bei A. Die Bilder A, B, C, D von den Kameras sind in der Bildelementeinheit (x, y) geordnet an einer Flüssigkristallanzeige 191 angeordnet, wie in 11A gezeigt. Wie in 11B gezeigt, ist an der vorderen Fläche ein linsenförmiges Blatt 192 angebracht. Bei einer derartigen Anordnung, können die Videobilder von vier Ansichtspunkten bzw. Blickpunkten stereoskopisch ausgedrückt werden (Veröffentlichungen C, Institute of Electrical Engineers of Japan, Band 112 Nr. 5, 1992, Seiten 281–282; Japanische Patentanmeldungs-Offenlegungsschrift Nr. 3-269680).
  • Unter Verwendung der herkömmlichen Stereoanzeigeeinrichtungen, wie zuvor beschrieben, kann der Betrachter jedoch nur stereoskopische Bilder betrachten, welche in den Aufnahmerichtungen der Kamera zu der Zeit eines Aufnehmens eines Photos der Bilder gesehen werden. Da im Allgemeinen zwei Kameras zur Aufnahme von Bildern eines Objekts fixiert sind, wird das selbe Bild durch den Betrachter auch betrachtet bzw. wahrgenommen, wenn der Betrachter den Ansichtspunkt (die Position der Augen) ändert, was ein Problem des Fehlens der Gegenwart aufwirft, das heißt die Bewegung des Ansichtspunkts des Betrachters wird nicht reflektiert. Auch wenn die linsenförmigen Anzeigen auf die horizontale Bewegung der Position des Ansichtspunkts des Betrachters antworten können, kann der Betrachter ein von einer der beiden Kameras aufgenommenes Bild unter dazwischen liegenden Bildern betrachten, welche durch eine Vielzahl von Kameras aufgenommen sind. Folglich sind die linsenförmigen Anzeigen weder für eine kontinuierliche Bewegung des Ansichtspunkts noch für eine Vorwärts- und Rückwärtsbewegung des Ansichtspunkts vorbereitet. Die Vorwärts- und Rückwärtsbewegung des Ansichtspunkts kann im Falle einer stereoskopischen Ansicht auf der Grundlage von durch Computergraphiken erzeugten Bildern behandelt werden. Dies ist jedoch nur unter derartigen speziellen Umständen möglich, dass das durch die Computergraphiken behandelte Bild einfach ist und alle entsprechenden Koordinatenwerte in dem dreidimensionalen Raum für Punkte in den Bildern bekannt sind. Für eine stereoskopische Betrachtung der durch die Kameras aufgenommenen Bilder ist es der Fall, dass die Vorwärts- und Rückwärtsbewegung des Ansichtspunkts wenig untersucht wurde.
  • Es ist ein Anliegen der vorliegenden Erfindung, ein Bildverarbeitungsverfahren und ein Bildverarbeitungsgerät zur Verfügung zu stellen, welche bei einer Bewegung der Position der Augen des Betrachters in eine beliebige Richtung, unter Umständen zurück und vor, Bilder zur Verfügung stellen können, wie sie in Echtzeit bei sich bewegenden Positionen betrachtet werden.
  • Ein Artikel mit dem Titel „Virtualität" (TM) Entertainment Systems von T. Rowley in der Proceeding Conference on Computer Graphics 1998 offenbart ein System, welches die Position eines Betrachters und insbesondere des Kopfes des Betrachters erfasst, um so die Bewegungen des Betrachters reflektierende Bilder zu erzeugen.
  • Ein weiterer Artikel mit dem Titel „Low Altitude High Speed Flight Simulation Using Video Disc Technology" von Devanjan und Hooks Company „LTV Aerospace and Defence Company", vom 25. Juli 1985 offenbart Speichern einer Serie von diskreten Photographien auf einer Videodisk. Werden die Daten zur Anzeige benötigt, werden sie von der Videodisk wiedergewonnen, verarbeitet und manipuliert, um die korrekte perspektivische Ansicht des Bodens bzw. Geländes relativ zu der Position und Höhe eines Flugzeugs anzuzeigen.
  • Die großbritannische Patentanmeldung Nr. GB-A-2256567 offenbart ein Modellsystem zur Erzeugung eines 2-D-Bildes einer 3-D-Szene.
  • Gemäß einem ersten Aspekt der vorliegenden Erfindung wird ein Bildverarbeitungsgerät nach Anspruch 1 zur Verfügung gestellt.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird ein Bildverarbeitungsverfahren nach Anspruch 4 zur Verfügung gestellt.
  • Bei der vorangehenden Anordnung wird die Position der Augen des Betrachters erfasst und es wird aus einer Vielzahl von Bildern ein von dem Betrachter zu betrachtendes Bild rekonstruiert, wobei mit einer Bewegung des Ansichtspunkts des Betrachters ein die Bewegung reflektierendes Bild auf eine gleichmäßige Weise zugeführt werden kann.
  • Die Mehrfach-Ansichtspunktbilddaten, welche aus einer Vielzahl von in der Position des Ansichtspunkts verschiedenen Bildern bestehen, können eine Anzahl von durch eine oder mehr Kameras erlangte Bilder oder eine Anzahl von in einer Datenbank gespeicherten Bildern sein. Um ein Bild zu rekonstruieren, umfassen die Mehrfachansichtspunktbilddaten vorzugsweise mit ausreichend feinen Intervallen der Photoaufnahmeposition aufgenommene Bilder. Jedoch kann ein Bild, auch wenn die Intervalle der Aufnahmeposition grob sind, durch Durchführen eines Interpolationsvorgangs für aufgenommene Bilder, um ein Bild bei einer Position eines Ansichtspunkts zwischen zwei benachbarten Aufnahmepositionen zu erzeugen, und durch Verwenden von Mehrfachansichtspunktbilddaten einschließlich der aufgenommenen Bilder und auf diese Weise erzeugten Bilder rekonstruiert werden.
  • Die Rekonstruktion eines Bildes wird wie folgt ausgeführt. Aus der Position der Augen des Betrachters und dem Typ einer Bildausgabevorrichtung werden für die Bildrekonstruktion erforderliche Parameter berechnet. Auf der Grundlage der auf diese Weise erlangten Parameter wird berechnet, welches Bildelement in den Bildern in den Mehrfachansichtspunktbilddaten jedem Bildelement in einem zu rekonstruierenden Bild entspricht. Aus den Mehrfachansichtspunktbilddaten werden entsprechende Bildelemente extrahiert, um ein Bild zu rekonstruieren. In diesem Fall kann, auch wenn die Position der Augen des Betrachters nicht mit einer Position eines Ansichtspunkts eines beliebigen Bildes in den Mehrfachansichtspunktbilddaten übereinstimmt, eine Entsprechung zwischen Bildelementen erzielt werden, was folglich ermöglicht, dass ein Bild gut rekonstruiert wird.
  • Die Bildausgabevorrichtung kann aus Stereoanzeigeeinrichtungen, kopfmontierten Anzeigeeinrichtungen und linsenförmigen Anzeigeeinrichtungen sowie den üblichen Anzeigeeinrichtungen ausgewählt werden.
  • Es ist ein weiteres Anliegen der vorliegenden Erfindung, ein Bildverarbeitungsverfahren und ein -gerät zur Verfügung zu stellen, welche Bilder mit N Ansichtspunkten aus durch M Bildaufnahmevorrichtungen (Kameras)(M < N) aufgenommenen Bildern erzeugen kann, um es dem Betrachter zu ermöglichen, den Ansichtspunkt in einer gleichmäßigen Weise zu bewegen.
  • Die Bildeingabeeinrichtung kann eine sein, welche aus einer Vielzahl von Kameras Bilder aufnehmen kann, oder welche aus einer Bilddatenbank Bilder aufnehmen kann.
  • Entsprechende Punkte zwischen Eingabebildern können durch lineare Erfassung an einer Epipolarebene erlangt werden.
  • Die Interpolation eines Bildes wird bevorzugterweise für jede Epipolarebene der Eingabebilder durchgeführt.
  • Die vorliegende Erfindung setzt die vorangehende Anordnung zur Interpolation von aus einer Vielzahl von Ansichtspunkten erlangten Bilder ein, um ein Bild zu erzeugen, welches bei einem Ansichtspunkt betrachtet wird, welcher sich von denjenigen der Eingabebilder unterscheidet.
  • Durch Interpolation der aus einer Vielzahl von Ansichtspunkten erlangten Bilder und Erzeugen von Bildern, wie sie von Ansichtspunkten betrachtet werden, die von denjenigen der Eingabebilder verschieden sind, ermöglicht es die vorliegende Erfindung, Bilder aus mehr Ansichtspunkten als denjenigen der Eingabebilder zu erlangen. Somit kann der Betrachter den Ansichtspunkt bzw. Blickpunkt gleichmäßig bewegen, während das Bild stereoskopisch angezeigt wird. Darüber hinaus kann eine derartige Zunahme der Anzahl von Ansichtspunkten die Realität eines angezeigten stereoskopischen Bildes verbessern. Da die Anzahl von Eingabebildaufnahmevorrichtungen (Kameras) vermindert werden kann, kann das Gerät in einer kompakten Größe konstruiert werden.
  • Ferner kann die vorliegende Erfindung zur Erzeugung von Interpolationsbildern zwischen in einer Datenbank oder dergleichen gespeicherten Mehrfachansichtspunktbildern (Bilder, welche während einer feinen Versetzung bzw. Verschiebung des Ansichtspunkts aufgenommen werden) angewendet werden, und die Bilder können an einer linsenförmigen Anzeigeeinrichtung oder einer holographischen Anzeigeeinrichtung mit mehr Ansichtspunkten angezeigt werden. Dies ermöglicht es uns, ein realitätsnaheres stereoskopisches Bild zu erlangen, und der Betrachter kann aufgrund der Zunahme der Anzahl von Ansichtspunkten den Ansichtspunkt auf eine gleichmäßige Weise bewegen.
  • Nachfolgend werden eine Anzahl von Ausführungsbeispielen der Erfindung unter Bezugnahme auf die beiliegende Zeichnung nur anhand eines Beispiels beschrieben.
  • 1 ist ein Blockschaltbild eines Ausführungsbeispiels eines Bildverarbeitungsgeräts der vorliegenden Erfindung;
  • 2 ist eine Zeichnung des Prinzips einer Berechnung eines Visuelle-Achse-Parameters bei dem Ausführungsbeispiel von 1;
  • 3 ist ein Flussdiagramm eines Vorgangs bei einem Berechnungsabschnitt des Visuelle-Achse-Parameters;
  • 4 ist eine Zeichnung des Prinzips einer Berechnung des Virtuelle-Ansichtspunkt-Parameters und einer Bildelementposition bei dem Ausführungsbeispiel von 1;
  • 5 ist ein Flussdiagramm eines Flusses eines Vorgangs bei einem Zwischen-Ansichtspunkt-Interpolationsverarbeitungsabschnitts bei dem Bildverarbeitungsgerät der vorliegenden Erfindung;
  • 6 ist ein Flussdiagramm eines entsprechenden Punktsuchvorgangs;
  • 7 ist eine Zeichnung der j-ten Epipolarebene;
  • 8 ist eine Zeichnung zur Veranschaulichung eines Interpolationsalgorithmus;
  • 9 ist eine Zeichnung zur Veranschaulichung des Interpolationsalgorithmus;
  • 10 ist eine Zeichnung zur Veranschaulichung des Interpolationsalgorithmus;
  • 11A und 11B sind schematische perspektivische Ansichten zur Darstellung einer herkömmlichen linsenförmigen Anzeigeeinrichtung.
  • 1 ist ein Blockschaltbild der Struktur bzw. des Aufbaus eines Bildverarbeitungsgeräts als das erste Ausführungsbeispiel der vorliegenden Erfindung. Das Bildverarbeitungsgerät dient zur Anzeige eines auf eine nachfolgend beschriebene Weise rekonstruierten Bildes für einen Benutzer (Betrachter) durch einen in einen stationären Zustand gesetzten Anzeigebildschirm 1. Im Detail besteht das Bildverarbeitungsgerät aus einer Ansichtspunkterfassungseinrichtung bzw. einem Ansichtspunktdetektor 2 zur Erfassung einer Position der den Anzeigebildschirm 1 betrachtenden Augen des Benutzers, einer Mehrfach- bzw. Multiansichtspunkte-Bilddatenbank 3, welche eine Mehrfach- bzw. Multiansichtspunktebilddaten haltende Datenbank ist, einem Anzeigeparameter-Halteabschnitt 4 zum Halten eines den Anzeigebildschirm 1 betreffenden Anzeigeparameters, einem Photoaufnahmeansichtspunkt-Koordinatensystem-Halteabschnitt 5 zur Speicherung von Daten eines Koordinatensystems einer Photoaufnahmeposition für jedes Bild in der Multiansichtspunkte-Bilddatenbank 3, einen Mehrfach- bzw. Multiansichtspunkte-Bildparameter-Halteabschnitt 6 zum Halten von Bildparametern von Bildern in der Multiansichtspunkte-Bilddatenbank 3, einem Ansichtspunktparameter-Berechnungsabschnitt 7 zur Berechnung eines Ansichtspunktparameters auf der Grundlage eines Signals von dem Ansichtspunktdetektor 2 und zur Ausgabe eines Aktualisierungssignals 15, wenn der Benutzer die Position des Ansichtspunkts ändert, einem Bilderzeugungsabschnitt 8 zur Erzeugung eines Bildes gemäß dem Ansichtspunkt des Benutzers, einem Bildanzeigeabschnitt 14 zur Anzeige des von dem Bilderzeugungsabschnitt 8 erzeugten Bildes auf dem Anzeigebildschirm, und einem Bildelementwerterzeugungsabschnitt 17 zur Berechnung von Bildelementwerten zur Rekonstruktion eines Bildes, um sie als ein Bildelementwertsignal 16 an den Bilderzeugungsabschnitt 8 auszugeben.
  • Die Bilder in der Multiansichtspunkte-Bilddatenbank 3 sind Bilder eines anzuzeigenden Objekts bzw. Gegenstands welcher aus einer Vielzahl von mit ausreichend feinen Intervallen in einer Ebene ausgerichteten Ansichtspunkten aufgenommen ist. Entsprechend dazu sind die in dem Photoaufnahmeansichtspunkt-Koordinatensystem-Halteabschnitt 5 Daten über das Koordinatensystem, welches die Ebene der Ausrichtung der Ansichtspunkte angibt, die für die Aufnahme von Photos der Bilder verwendet werden. Außerdem ist der Bilderzeugungsabschnitt 8 dahingehend ausgestaltet, um ein Bild zu erzeugen, wenn er ein Aktualisierungssignal 15 empfängt. Der Bilderzeugungsabschnitt 8 gibt ein Bildindexsignal 9 aus, welches Koordinaten eines interessierenden Bildelements in dem rekonstruierten Bild angibt, das heißt in dem Bild an dem Anzeigebildschirm 1.
  • Beim Rekonstruieren eines Bildes werden wiederum Bildelementindexsignale 9 über alle Bildelemente in dem zu rekonstruierenden Bild ausgegeben.
  • Als Nächstes wird der Aufbau bzw. die Struktur des Bildelementwerterzeugungsabschnitts 17 beschrieben. Der Bildelementwerterzeugungsabschnitt 17 ist aus einem Visuelle-Achse-Parameter-Berechnungsabschnitt 10 zur Berechnung einer Richtung der Blickrichtung zu einem durch das Bildelementindexsignal 9 angegebenen Bildelement aus dem Ansichtspunktparameter und Anzeigeparameter, einem Virtueller-Ansichtspunkt-Parameter-Berechnungsabschnitt 11 zur Berechnung eines virtuellen Ansichtspunkts, einem Bildelementpositions-Berechnungsabschnitt 12 zur Berechnung einer Position eines Bildelements, um die Richtung der Blickrichtung in dem Bild bei dem virtuellen Ansichtspunkt zu treffen, und einen Bildelementwert-Berechnungsabschnitt 13 zur Berechnung eines entsprechenden Bildelementwerts aus den Bildern in der Muliansichtspunkte-Bilddatenbank 3 auf der Grundlage der Bildelementposition und dem virtuellen Ansichtspunktparameter. Hier ist der virtuelle Ansichtspunkt eine Kreuzung zwischen der durch den Visuelle-Achse-Parameter angezeigten Blickrichtung und der Ebene der Ausrichtung des Photoaufnahmeansichtspunkts, welcher durch das Photoaufnahmeansichtspunkt-Koordinatensystem angegeben wird. Der Visuelle-Achse-Parameter, das Photoaufnahmeansichtspunkt-Koordinatensystem, der Virtueller-Ansichtspunkt-Parameter, und der Multiansichtspunkt-Bildparameter werden zur Berechnung der Bildelementposition in dem Bildelementpositions-Berechnungsabschnitt 12 verwendet. Ein in dem Bildelementwert-Berechnungsabschnitt 13 berechneter Bildelementwert wird ein Bildelementwertsignal 16.
  • Als Nächstes wird die Operation bzw. der Betrieb des vorliegenden Ausführungsbeispiels beschrieben. Zuerst wird eine Übersicht über den Betrieb erläutert.
  • Ändert der den Anzeigebildschirm 1 betrachtende Benutzer die Position des Kopfes, so dass der Ansichtspunkt bewegt wird, ändert sich das aus dem Ansichtspunktdetektor 2 ausgegebene Signal und dann empfängt der Ansichtspunktparameter-Berechnungsabschnitt 7 die Änderung, so dass dem Bilderzeugungsabschnitt 8 ein Aktualisierungssignal 15 zugeführt wird. Empfängt der Bilderzeugungsabschnitt 8 das Aktualisierungssignal 15, beginnt es mit der Erzeugung eines neuen Bildes, welches die Bewegung des Ansichtspunkts reflektiert. Die Erzeugung eines neuen Bildes wird auf eine derartige Weise durchgeführt, dass der Bilderzeugungsabschnitt 8 wiederum für alle Bildelemente Bildelementindexsignale 9 ausgibt und wiederum Bildelementwertsignale 16 für die Bildelemente von dem Bildelementwerterzeugungsabschnitt 17 erlangt. Nachfolgend wird die Operation bzw. der Betrieb des Bildelementwerterzeugungsabschnitts 17 beschrieben.
  • Bei dem Bildelementwerterzeugungsabschnitt 17 nimmt der Visuelle-Achse-Parameter-Berechnungsabschnitt 10 den Ansichtspunktparameter von dem Ansichtspunktparameter-Berechnungsabschnitt 7 und den Anzeigeparameter von dem Anzeigeparameter-Halteabschnitt 4 zur Berechnung eines Visuelle-Achse-Parameters entsprechend einem eingegebenen Bildelementindexsignal 9. Der Virtueller-Ansichtspunkt-Parameter-Berechnungsabschnitt 11 nimmt das Photoaufnahmeansichtspunkt-Koordinatensystem von dem Photoaufnahmeansichtspunkt-Koordinatensystem-Halteabschnitt 5 zur Berechnung eines Virtueller- Ansichtspunkt-Parameters, welcher einen Schnittpunkt bzw. eine Kreuzung (virtueller Ansichtspunkt) zwischen der durch den Visuelle-Achse-Parameter angegebenen Blicklinie und der durch das Photoaufnahmeansichtspunkt-Koordinatensystem angegebenen Ebene der Ausrichtung der Photoaufnahmeansichtspunkte angibt. Der Bildelementpositions-Berechnungsabschnitt 12 nimmt den Multiansichtspunkte-Bildparameter von dem Multiansichtspunkte-Bildparameter-Halteabschnitt 6 und berechnet eine Position eines Bildelements, welches die Richtung der Blickrichtung in dem Bild bei dem virtuellen Ansichtspunkt aus dem Visuelle-Achse-Parameter, dem Photoaufnahmeansichtspunkt-Koordinatensystem, und dem Virtueller-Ansichtspunkt-Parameter zusätzlich zu dem Multiansichtspunkt-Bildparameter trifft. Dann berechnet der Bildelementwert-Berechnungsabschnitt 13 auf der Grundlage der Bildelementposition und dem Virtueller-Ansichtspunkt-Parameter ein entsprechendes Bildelementwertsignal 16 aus den Bildern in der Multiansichtspunkte-Datenbank 3. Wie beschrieben, berechnet der Bildelementwerterzeugungsabschnitt 17 für jedes eingegebene Bildelementindexsignal 9 ein Bildelementwertsignal 16 und gibt es an den Bilderzeugungsabschnitt 8 aus.
  • Nachdem der Bilderzeugungsabschnitt 8 für alle Bildelemente aus dem Bildelementwert-Berechnungsabschnitt 13 Bildelementwertsignale 16 erlangt hat, führt er die Signale dem Bildanzeigeabschnitt 14 zu. Der Bildanzeigeabschnitt 14 zeigt das auf diese Weise erzeugte Bild an, welches den neuen Ansichtspunkt auf dem Anzeigebildschirm 1 reflektiert. Diese schließt den seriellen Bilderzeugungsbetrieb ein, welcher mit einer Bewegung des Ansichtspunkts des Benutzers ausgeführt wird. Wie aus der folgenden Beschreibung ersichtlich wird, kann der Benutzer, wenn der Benutzer den Ansichtspunkt vor und zurück, hoch und runter oder links und rechts bewegt, als ein Ergebnis, auch wenn sich der Ansichtspunkt bei einem Ort befindet, der sich von den Ansichtspunkten unterscheidet, bei welchen die in der Multiansichtspunkt-Bilddatenbank 3 gespeicherten Bilder aufgenommen worden sind, ein Bild des Objekts betrachten, bzw. wahrnehmen bzw. beobachten, welches die Bewegung des Ansichtspunkts über den Anzeigebildschirm 1 reflektiert.
  • Nun werden die Vorgänge ausführlich eins nach dem anderen beschrieben. Zur Vereinfachung der Beschreibung gibt es keine vertikale Parallaxe, sondern bei der folgenden Beschreibung wird nur eine horizontale Parallaxe betrachtet.
  • Zuerst wird der Vorgang des Berechnens des Visuelle-Achse-Parameters bei dem Visuelle-Achse-Parameter-Berechnungsabschnitt 10 beschrieben. 2 ist eine Zeichnung zur Darstellung des Prinzips einer Berechnung bei dem Visuelle-Achse-Parameter-Berechnungsabschnitt 10, und 3 ist ein Flussdiagramm zur Darstellung des Vorgangs bei dem Visuelle-Achse-Parameter-Berechnungsabschnitt 10.
  • In 2 seien Xs, Xp, Xv jeweils Positionsvektoren von dem Endpunkt 21 des Anzeigebildschirms 1, einer Bildelementposition 23 eines interessierenden Bildelements auf dem Anzeigebildschirm 1, und einer Position 24 des Ansichtspunkts des Benutzers. Ein Vektor 22 ist ein Vektor, dessen Länge der Bildelementabstand des Anzeigebildschirms 1 und dessen Richtung eine Neigung eines Anzeigebildschirms 1 ist, welcher als ein Anzeigebildschirmvektor p definiert ist. Die Blickrichtung 25 trifft die interessierende Bildelementposition 23, und ein eine Neigung der Blickrichtung 25 angebender Vektor 26 ist als ein Visuelle-Achse-Vektor a definiert.
  • Der Berechnungsabschnitt 10 ermittelt bzw. fängt zuerst den Ansichtspunktparameter von dem Ansichtspunktparameter-Berechnungsabschnitt 7 ein (Schritt 31). Der Ansichtspunktparameter ist die Position 24 des Ansichtspunkts des Benutzers in 2. Der Berechnungsabschnitt 10 ermittelt bzw. fängt auch den Anzeigeparameter von dem Anzeigeparameter-Halteabschnitt 4 ein (Schritt 32). Der Anzeigeparameter ist der Endpunkt 21 des Anzeigebildschirms 1, welcher durch den Anzeigebildschirmvektor 22 angegeben ist. Der Anzeigebildschirmvektor 22 wird durch die Neigung, die reale Größe und die Bildelementgröße des Anzeigebildschirms 1 bestimmt. Auf der Grundlage der in 2 gezeigten Positionsbeziehung berechnet der Berechnungsabschnitt 10 die interessierende Bildelementposition 23 auf dem Anzeigebildschirm 1 durch die folgende Gleichung (1) gemäß dem Bildelementindexsignal 9 (Schritt 33). Hier ist das Bildelementindexsignal 9 durch i definiert. Xp = Xs + i·p (1)
  • Nach Erlangen der Bildelementposition 23, erlangt der Berechnungsabschnitt 10 dann einen Visuelle-Achse-Parameter entsprechend der Richtung der Bildelementposition 23, wie sie aus der Blickpunktposition 24 betrachtet bzw. wahrgenommen wird (Schritt 34), und beendet den Vorgang zur Erlangung des Visuelle-Achse-Parameters. Der Visuelle-Achse-Parameter wird durch eine Kombination der Ansichtspunktposition 24 und des Visuelle-Achse-Vektors 26, (Xv, a), ausgedrückt.
  • Da die Blickrichtung 25 eine durch zwei Punkte der Bildelementposition 23 und der Ansichtspunktposition 24 laufende gerade Linie ist, kann der Visuelle-Achse-Vektor 26 durch die folgende Gleichung (2) berechnet werden. a = Xp – Xv (2)
  • Als Nächstes werden die Vorgänge bei dem Virtueller-Ansichtspunkt-Parameter-Berechnungsabschnitt 11 und dem Bildelementpositions-Berechnungsabschnitt 12 beschrieben. 4 ist eine Zeichnung zur Darstellung des Prinzips einer Berechnung des Virtueller-Ansichtspunkt-Parameters und der Bildelementposition.
  • Wie es zuvor beschrieben wurde, sind die Ansichtspunkte bei dem Augenblick der Photoaufnahme der Bilder in der Multiansichtspunkte-Bilddatenbank 3 in der selben Ebene ausgerichtet. Ein Querschnitt der Ebene der Ausrichtung ist in der Zeichnung als eine Ansichtspunktausrichtlinie 41 angegeben. Der virtuelle Ansichtspunkt 42 ist als eine Kreuzung zwischen der Blickrichtung bzw. Blicklinie 25 und der Ansichtspunktausrichtlinie 41 ausgedrückt, wobei ein Positionsvektor davon ein Virtueller-Ansichtspunkt-Positionsvektor X ist. Außerdem ist ein die Neigung einer Ansichtspunktausrichtlinie 41 angebender Vektor 43 als ein Virtueller-Punktausrichtvektor T definiert, und ein Positionsvektor des Endpunkts 44 der Ansichtspunktausrichtlinie 41 ist als Xl definiert. Ein visuelles Gebiet 45 repräsentiert den Winkel eines Gebiets einer Ansicht 8 bei dem virtuellen Ansichtspunkt 42, und ein Vektor 46 ist ein Brennpunktvektor bzw. Fokusvektor f, dessen Länge eine Brennweite der Kameras ist, welche die Bilder in den Multiansichtspunktdaten aufgenommen haben, und dessen Richtung eine Neigung der Kameras ist. Darüber hinaus sind eine virtuelle Aufnahmeebene 47 bei dem virtuellen Ansichtspunkt 42 und eine Bildelementposition 48 als eine Kreuzung zwischen der virtuellen Aufnahmeebene 47 und der Blicklinie 25 definiert. Ein Positionsvektor der Bildelementposition 48 ist durch Xp' ausgedrückt. Ein Vektor 49 ist ein Aufnahmeebenenvektor p', dessen Länge ein Bildelementabstand der virtuellen Aufnahmeebene 47 ist, und dessen Richtung die Neigung der virtuellen Aufnahmeebene 47 ist (welche mit dem Fokusvektor 46 normalerweise rechte Winkel bildet).
  • Hier hält der Photoaufnahmeansichtspunkt-Koordinatensystem-Halteabschnitt 5 den Ansichtspunktausrichtvektor 43 und den Endpunkt 44 der Ansichtspunktausrichtlinie 41 als das Photoaufnahmeansichtspunkt-Koordinatensystem angebende Werte. Außerdem hält der Multibildparameter-Halteabschnitt 6 den Brennpunktvektor 46 und den Aufnahmeebenenvektor 49 als die Multiansichtspunkt-Bildparameter. Die Größe des Aufnahmeebenenvektors 49 ist gleich der Zellengröße (die Länge eines Bildelements) einer tatsächlichen Bildaufnahmeebene.
  • Bei Verwendung der zuvor beschriebenen Punkte und Vektoren wird der virtuelle Ansichtspunkt 42 durch die folgenden Gleichungen (3) und (4) ausgedrückt. X = Xl + t·T (3) X = Xv + α – a (4)
  • Hier bezeichnet t einen virtuellen Ansichtspunktparameter, welcher ein den virtuellen Ansichtspunkt eindeutig ausdrückender Parameter ist. In der Gleichung (4) ist α ein Koeffizient in der Richtung der Blicklinie. Der virtuelle Ansichtspunktparameter- Berechnungsabschnitt 11 berechnet t durch Auflösen der Gleichungen (3) und (4) und erlangt dann X.
  • Ferner wird die Bildelementposition 48 durch die folgenden Gleichungen (5) und (6) ausgedrückt. Xp' = X + f + i'·p' (5) Xp' = X + β – a (6)
  • Hier bezeichnet i' einen Bildelementpositionsparameter, welcher ein die Bildelementposition 48 eindeutig ausdrückender Parameter ist. Bei der Gleichung (6) ist β ein Koeffizient in der Richtung der Blicklinie. Der Bildelementpositions-Berechnungsabschnitt 12 berechnet den Bildelementpositionsparameter i' durch Auflösen der Gleichungen (5) und (6), und gibt sie aus.
  • Nachfolgend wird der Vorgang des Bildelementwert-Berechnungsabschnitts 13 ausführlich beschrieben. Bei dem vorliegenden Ausführungsbeispiel sind die in der Multiansichtspunkte-Bilddatenbank 3 gehaltenen Multiansichtspunktbilder Bilder, welche mit ausreichend feinen Ansichtspunktintervallen aufgenommen wurden. Zuerst wird ein Bild, welches bei einem dem virtuellen Ansichtspunkt 42 am nächsten gelegenen Ansichtspunkt aufgenommen ist, aus den Bildern in der Multiansichtspunkte-Bilddatenbank 3 als ein Bild herausgenommen, welches einem Bild nahe kommt, welches von dem virtuellen Ansichtspunkt 42 aufzunehmen ist, der durch den in dem Virtueller-Ansichtspunkt-Parameter-Berechnungsabschnitt 11 berechneten Virtueller-Ansichtspunkt-Parameter angegeben wird. Von dem aufgenommenen Bild wird ein Wert eines Bildelements, welches der in dem Bildelementpositions-Berechnungsabschnitt 12 berechneten Bildelementposition 48 am nächsten kommt, ausgewählt, und der ausgewählte Wert wird als das Bildelementwertsignal 16 ausgegeben.
  • Auch wenn die vorangehende Beschreibung die Vorgänge bei den Abschnitten betraf, wobei die vertikale Parallaxe zur Vereinfachung der Beschreibung ausgelassen wurde, kann das selbe Verfahren für Multiansichtspunktbilder in der vertikalen Richtung zum Einsatz kommen, um ein brillenförmiges stereoskopisches Anzeigegerät zu erzielen, welches eine Rückwärts- und Vorwärts-, Hoch- und Runter-, oder Links- und Rechtsbewegung des Ansichtspunkts unter Berücksichtigung der vertikalen Parallaxe ermöglicht. Das brillenförmige stereoskopische Anzeigegerät, welches die Rückwärts- und Vorwärts-, Hoch- und Runter-, oder Links- und Rechtsbewegung des Ansichtspunkts ermöglicht, kann wie folgt konstruiert sein. Der Anzeigebildschirm 1 und der Bildanzeigeabschnitt 8 sind ein stereoskopischer Anzeigebildschirm und ein stereoskopischer Bildanzeigeabschnitt, welche eine brillenförmige stereoskopische Ansicht ermöglichen, wie beispielsweise der linsenförmige Typ oder der Brillentyp. Ferner berechnet der Ansichtspunktparameter-Berechnungsabschnitt 7 Ansichtspunktparameter für Positionen des linken und rechten Auges, und entsprechend dazu erzeugt der Bilderzeugungsabschnitt 8 jeweilige Bilder, welche dem linken und rechten Auge zu präsentieren sind.
  • Als Nächstes ist ein Bildverarbeitungsgerät beschrieben, welches ein Bild zur Bewegung eines Blickpunkts frei anzeigen kann, auch wenn die Intervalle von Ansichtspunkten nicht so fein für die in der Multiansichtspunkte-Bilddatenbank 3 gespeicherten Bilder sind. Das Bildverarbeitungsgerät ist derart ausgestaltet, dass es einen Zwischen-Ansichtspunkt- Interpolationsverarbeitungsabschnitt zwischen der Multiansichtspunkte-Bilddatenbank 3 und dem Bildelementwert-Berechnungsabschnitt 13 in dem Bildverarbeitungsgerät des ersten Ausführungsbeispiels umfasst, wie zuvor beschrieben. der Zwischen-Ansichtspunkt-Interpolationsverarbeitungsabschnitt erzeugt eine Gruppe von Bildern mit ausreichend feinen Intervallen eines Ansichtspunkts durch einen Interpolationsvorgang unter Verwendung der Bilder in der Multiansichtspunkte-Bilddatenbank 3, welche bei groben Intervallen von Ansichtspunkten aufgenommen worden sind. Unter Verwendung der auf diese Weise erlangten Bilder bei ausreichend feinen Intervallen zwischen Ansichtspunkten kann ein mit einer Änderung des Ansichtspunkts des Benutzers übereinstimmendes Bild auf die selbe Weise wie bei dem ersten Ausführungsbeispiel erzeugt werden.
  • Im Folgenden wird der Zwischen-Ansichtspunkt-Interpolationsverarbeitungsabschnitt ausführlich beschrieben. Hier wird zur Vereinfachung der Beschreibung die vertikale Parallaxe nicht berücksichtigt. Die Multiansichtspunkte-Bilddatenbank 3 hält Bilder aus jeweiligen Photoaufnahmeansichtspunkten, welche auf einer horizontalen geraden Linie ausgerichtet sind.
  • 5 ist ein Flussdiagramm zur Veranschaulichung eines Flusses des Vorgangs bei dem Zwischen-Ansichtspunkt-Interpolationsverarbeitungsabschnitt. Der Interpolationsabschnitt ermittelt bzw. fängt die mit groben Intervallen eines Ansichtspunkts aufgenommenen Bilder aus der Multiansichtspunkte-Bilddatenbank 3 ein (Schritt 51). Als Nächstes wird eine entsprechende Punktsuche (Bewegungsvektorerfassung) zwischen den ermittelten bzw. eingefangenen Bildern ausgeführt (Schritt 52). Nach Beendigung der entsprechenden Punktsuche wird ein Interpolationsvorgang auf der Grundlage der Photoaufnahmeansichtspunkte ausgeführt, und Bilder mit ausreichend feinen Intervallen zwischen den Ansichtspunkten zu erzeugen (Schritt 53), und der Vorgang ist beendet.
  • Die entsprechende Punktsuche wird zuerst unter Bezugnahme auf das Flussdiagramm von 6 beschrieben.
  • Für eine Anfangseinstellung wird ein interessierendes Raster auf ein erstes Raster jedes Bildes gesetzt (Schritt 61). Dann wird das interessierende Raster jedes Bildes in einen (nicht abgebildeten) Arbeitsspeicher gelesen (Schritt 62), um eine erste virtuelle Epipolarebene zu bilden. Hier ist die j-te Epipolarebene eine Gruppe von die folgende Gleichung erfüllenden Punkten EPj(x, i) in der Bildebene, wie in 7 gezeigt: EPj(x, i) = Ni(x, j).
  • Bei der Gleichung ist Ni(x, j) ein x-ter Bildelementwert in der j-ten Zeile des i-ten Bilds (wobei i = 1 bis 4 gilt), welches einen Wert eines Bildelements in dem i-ten Bild mit Koordinaten von (x, j) repräsentiert. Die Bildeingabegeräte, wie beispielsweise Kameras, sind mit gleichen Intervallen ausgerichtet, wobei alle entsprechenden Punkte auf einer geraden Linie in der Epipolarebene auszurichten sind. Dementsprechend kann eine Interpolation von Bildern auf dieser geraden Linie vorgenommen werden.
  • Dann wird eine entsprechende Punkte umfassende Linie extrahiert (Schritt 63), und aus der erlangten Linie werden entsprechende Punkte berechnet und dann gespeichert (Schritt 64). Als Nächstes wird ein spezifischer entsprechender Punktberechnungsalgorithmus beschrieben.
  • Prozedur A1: Für EPj(x, 1) als interessierende Bildelemente werden alle die folgende Beziehung erfüllende m's innerhalb des Bereichs von m = k1 bis k1 + k2 erlangt.
  • Figure 00210001
  • Hier ist TH2 ein Grenzwert zur Ermittlung entsprechender Punkte, welcher auf 1200 (= 3 × 202) gesetzt ist. Außerdem ist k1 ein Wert abhängig von dem Photoaufnahmeverfahren von eingegebenen Bildern. Wird das Aufnehmen von Photos unter Verwendung von mit gleichen Intervallen und mit parallelen optischen Achsen angeordneten Kameras ausgeführt, gilt k1 = 0. Darüber hinaus ist k2 ein durch die Kameraintervalle und eine Entfernung zu einem Objekt bzw. Gegenstand bestimmter Wert, welcher bei diesem Beispiel auf 20 gesetzt ist (wobei angenommen wird, dass keine Bewegung 20 Bildelemente überschreitet).
  • Prozedur A2: Die Prozedur A1 wird für alle x's wiederholt, wobei x = 1 bis nx ist, und wobei alle Werte von m entsprechend den Werten von x gespeichert werden. Hier repräsentiert nx die Anzahl von Bildelementen in der Hauptabtastrichtung an einem Bild. Ist EPj(x + mx(i – 1), i) nicht vorhanden, wird es entschieden, dass für das m kein entsprechender Punkt vorhanden ist, und der Vorgang wird fortgesetzt.
  • Prozedur A3: Aus einer durch die Prozeduren A1 und A2 erlangten Linie mit Neigung m wird ein entsprechender Punkt mit Priorität 1 erlangt, und er wird in einem Speicher gespeichert. Sind eine Vielzahl von entsprechenden Punkten ermittelt, werden alle als entsprechende Punkte mit einer Priorität 1, zur Vereinfachung, gespeichert. Als entsprechende Punkte bestimmte Bildelemente werden als verarbeitete Bildelemente bestimmt.
  • Prozedur A4: Werden die Prozeduren A1 bis A3 als ein Zyklus angesehen, wird der vorangehenden Zyklus für unverarbeitete Bildelemente wiederholt. Ist EPj(x + mx(i – 1), i) bereits bei der Prozedur A1 verarbeitet, wird der Vorgang durch Setzen von EPj(x + mx(i – 1), i) – EPj(x, 1) = 0 fortgesetzt. Ist bei der Prozedur A3 ein von der Linie mit Neigung m erlangter entsprechender Punkt bereits verarbeitet, wird dieser Punkt von dem entsprechenden Punkt ausgenommen. Ein bei dem n-ten Zyklus erlangter entsprechender Punkt wird als ein entsprechender Punkt mit Priorität n gespeichert.
  • Prozedur A5: Ist die Zahl von unverarbeiteten Bildelementen nach dem Vorgang der Prozedur A4 nicht abnehmend, werden die Prozeduren A1 bis A4 für EPj(x, 2) als interessierende Bildelemente ausgeführt. Hier gilt x = 1 bis nx.
  • Prozedur A6: Ist die Anzahl von unverarbeiteten Bildelementen nach dem Vorgang einer Prozedur A5 nicht abnehmend, werden die Prozeduren A1 bis A4 für EPj(x, 3) als interessierende Bildelemente ausgeführt. Hier gilt x = 1 bis nx.
  • Prozedur A7: Die Prozeduren A1 bis A4 werden auf die selbe Weise wiederholt, während der Wert j eins nach dem anderen erhöht wird.
  • Prozedur A8: Sind die vorangehenden Vorgänge bis zu letzten Rastern ausgeführt, ist der entsprechende Punktsuchvorgang beendet.
  • Beim Ausführen der vorangehenden Vorgänge können entsprechende Punkte, welche nicht aus zwei Bildern erlangt werden konnten, erfasst werden und eine Okklusion kann gut behandelt werden, wodurch die Genauigkeit einer entsprechenden Punktsuche verbessert wird. Als Nächstes wird der Zwischen-Ansichtspunkt-Interpolationsvorgang von Bildern (Schritt 43 in 5) beschrieben. Dieser Interpolationsvorgang wird für entsprechende Punkte ausgeführt, welche durch den vorangehenden Suchvorgang des entsprechenden Punkts erlangt sind. Unter Bezugnahme auf ein Beispiel von 8 wird ein spezifischer Algorithmus des Interpolationsvorgangs beschrieben.
  • 8 zeigt die j-te Epipolarebene. In 8 repräsentiert c1 entsprechende Punkte mit Priorität 1 und a2, b2 repräsentieren entsprechende Punkte mit Priorität 2. Es sei ein Fall in Betracht gezogen, bei welchem n Bilder mit gleichen Intervallen zwischen zwei Eingabebildern erzeugt werden. Hier sei zur Vereinfachung der Beschreibung n = 2 angenommen. Wird dies für die j-te Epipolarebene in Betracht gezogen, wie in 9 gezeigt, werden zwei Linien zwischen zwei Linien in der Epipolarebene interpoliert (das heißt, Epipolarlinien j-2, j-3, j-5, j-6, j-8, j-9), und es wird ein Wert eines Bildelements auf einer interpolierten Linie, welche auf einer zwei entsprechende Punkte auf der ursprünglichen Epipolarebene verbindenden Linie vorhanden ist, auf einen Mittelwert von Bildelementwerten für die entsprechenden Punkte gesetzt. Es werden nämlich die folgenden Prozeduren ausgeführt.
  • Prozedur B1: Wird eine entsprechende Punkte mit Priorität 1 verbindende Linie in Betracht gezogen, wird ein Wert eines Bildelements in einer Interpolationslinie auf der Linie auf einen Mittelwert bzw. Durchschnittswert von Bildelementwerten in dem auf der Linie vorhandenen Originalbild bzw. ursprünglichen Bild gesetzt. Im Falle des Beispiels eines entsprechenden Punkts c1 in 9 werden Bildelementwerte eines Punkts c1 auf der die entsprechenden Punkte verbindenden Linie als Mittelwerte von durch c1 repräsentierten Bildelementwerten bestimmt.
  • Prozedur B2: Nach Beendigung des Vorgangs für entsprechende Punkte mit Priorität 1, wird der Vorgang als Nächstes für entsprechende Punkte mit Priorität 2 ausgeführt. Dieser Vorgang ist im Wesentlichen der selbe wie die Prozedur B1, jedoch wird der Vorgang nicht für bei der Prozedur B1 bereits interpolierte Bildelemente ausgeführt. Dies wird unter Verwendung von 9 erläutert. Die Bildelemente (3, 8) und (2, 9) werden normalerweise interpolierte durch entsprechende Punkte a2 interpoliert, jedoch sind sie bereits durch die entsprechenden Punkte von c1 mit Priorität 1 interpoliert worden. Daher wird für diese Bildelemente überhaupt kein Vorgang ausgeführt. Dann sind durch die entsprechenden Punkte a2 interpolierte Bildelemente vier Bildelemente von (5, 2), (4, 3), (4, 5), (3, 6). (Bei dem Beispiel von 9 tritt in diesem Abschnitt Okklusion auf, und das Problem von Okklusion kann mit dem vorangehenden Vorgang behandelt werden.)
  • Prozedur B3: Nach Beendigung des Vorgangs für die entsprechenden Punkte mit Priorität 2, wird der Vorgang als Nächstes für entsprechende Punkte mit Priorität 3 ausgeführt. In ähnlicher Weise wie bei der Prozedur B2 wird kein Vorgang für bereits interpolierte Bildelemente ausgeführt. Dann wird der Vorgang auf die selbe Weise bis zu den entsprechenden Punkten mit letzter bzw. abschließender Priorität wiederholt.
  • Prozedur B4: Nach Beendigung von Prozeduren B1 bis B3 nicht interpolierte Bildelemente werden aus benachbarten Bildelementen interpoliert. Das Verfahren der Interpolation kann ein Verfahren sein, welches einen Durchschnittswert bzw. Mittelwert von benachbarten Bildelementwerten verwendet, oder ein Verfahren sein, welches einen Wert eines ihm am nächsten liegenden Bildelements unverändert verwendet.
  • Prozedur B5: Die Vorgänge der Prozeduren B1 bis B4 werden für j = 1 bis ny ausgeführt, wodurch Interpolationsbilder unter Verwendung der Interpolationslinien j-2, j-3, j-5, j-6, j-8, j-9 erlangt werden. Beispielsweise kann ein in 10 gezeigtes Interpolationsbild #2 durch geordnetes Anordnen der Interpolationslinien j-2 (j = 1 bis ny) konstruiert werden. Andere Interpolationsbilder #3, #5, #6, #8 oder #9 können auf die selbe Weise konstruiert werden.
  • Werden die Zwischen-Ansichtspunkt-Interpolationsbilder aus den Bildern in der Multiansichtspunkte-Bilddatenbank 3 erzeugt, wie zuvor erwähnt, werden Bilder aus anderen Ansichtspunkten als den Photoaufnahmeansichtspunkten auf der Linie einer Ausrichtung der Photoaufnahmeansichtspunkte erlangt. Dies kann ein Bild aus einem beliebigen Ansichtspunkt erzeugen. Dementsprechend braucht die Multiansichtspunkte-Bilddatenbank 3 nicht Multiansichtspunktbilder mit ausreichend feinen Intervallen von Ansichtspunkten zu speichern, was vorteilhaft ist, um die Speicherkapazität für die Multiansichtspunkte-Bilddatenbank 3 beträchtlich zu reduzieren.
  • Auch wenn die vorangehende Beschreibung den Fall betraf, bei welchem die vertikale Parallaxe ausgelassen wurde, kann auch ein die vertikale Parallaxe in Betracht ziehendes Bild wie folgt erzeugt werden. In der Multiansichtspunkte-Bilddatenbank 3 werden Bilder gespeichert, welche aus jeweiligen Photoaufnahmeansichtspunkten mit groben Ansichtspunktintervallen in einem Gittermuster auf einer Ebene aufgenommen sind. Zuerst werden Bilder in der horizontalen Richtung zwischen den Ansichtspunkten interpoliert und dann in der vertikalen Richtung zwischen den Ansichtspunkten interpoliert.
  • Bei einer Erzeugung von Interpolationsbildern aus einer Vielzahl von eingegebenen Bildern unter Verwendung der zuvor beschriebenen Anordnung und Verfahren können entsprechende Punkte, welche nicht aus zwei Bildern erlangt werden konnten, erfasst werden, was die Genauigkeit einer Interpolation verbessert. Da die entsprechenden Punkte aus einer Vielzahl von Bildern erlangt werden, kann das Problem einer Okklusion gut behandelt werden, wie zuvor beschrieben.
  • Das Ausführungsbeispiel von 1 war derart ausgestaltet, dass die im Voraus aufgenommenen Bilder in der Multiansichtspunkte-Bilddatenbank 3 gehalten worden sind. Dies kann durch eine Mehrfach- bzw. Multiobjektiv-Fernsehkamera ersetzt werden, welche in Echtzeit Bilder aus mehreren Ansichtspunkten einfangen kann, wodurch ein Echtzeitbildanzeigesystem beliebiger Ansichtspunkte erzielt werden kann.
  • Die vorliegende Erfindung kann auf das Bildverarbeitungsgerät allein, auf eine Systemanlage, wie beispielsweise ein Mehrfach- bzw. Multiansichtspunkt-Fernsehgerät, ein Mehrfach- bzw. Multiansichtspunkt-Videotelefonendgerät, oder ein Mehrfach- bzw. Multiansichtspunkt-Videokonferenzsystem, oder auf eine zusammengesetzte Vorrichtung in Kombination mit einem Computer oder einem weiteren Bildverarbeitungsgerät angewendet werden.
  • Die Holographie kann bei dem Verfahren zur stereoskopischen Anzeige eines Bildes bei dem vorangehenden Ausführungsbeispielen eingesetzt werden. Dies ist eine Technik zur Anzeige eines stereoskopischen Bildes auf eine derartige Weise, dass Laserlicht (Bezugslicht) auf Objektlicht eines Objekts angewendet wird, um Interferenzränder zu erzeugen, und das Bezugslicht wird erneut auf die Interferenzränder zur Erzeugung eines stereoskopischen Bildes angewendet. Ist die Anwendung des Laserlichts nicht geeignet, oder ist das Objekt zu groß, kann die Technik eines holographischen Stereogramms zum Einsatz kommen. Diese Technik ist ein Verfahren zur Erlangung eines stereoskopischen Bildes auf eine derartige Weise, dass eine Vielzahl von Photographien aufgenommen wird, was den Ansichtspunkt Stück für Stück ändert, die Photographien auf eine Transmissionsdiffusionsplatte projiziert werden, das Bezugslicht auf die projizierte Ebene angewendet wird, um Interferenzränder zu erzeugen, die erzeugten Interferenzränder ausgeschnitten werden, um ein Interferenzrandmuster zu synthetisieren, und das Bezugslicht wird auf das Interferenzrandmuster angewendet, wodurch ein stereoskopisches Bild erlangt wird. Die Einzelheiten des holographischen Stereogramms sind bei Junpei, Tsujiuchi; Holographische Anzeige, Seiten 191–207 (Sangyo Tosho) beschrieben.
  • Die Technik von holographischen Stereogrammen benötigt eine große Anzahl von Bildern, welche unter einer Stück für Stück Veränderung des Ansichtspunkts aufgenommen sind, und daher erfordert es viele Kameras. Die Technik eines Bewegens einer einzigen Kamera Stück für Stück kann im Falle eines unbewegten Bildes eingesetzt werden, jedoch muss im Falle eines dynamischen Bildes unvermeidbar eine Zahl von Kameras Verwendung finden. Dieses Problem kann durch Einsatz der Interpolationsbilder der vorliegenden Erfindung gelöst werden. Werden nämlich von ungefähr zehn Kameras erlangte Bilder als die eingegebenen Bilder verwendet, werden durch die Interpolation der vorliegenden Erfindung von Ansichtspunkten zwischen Kameras zu erlangende Bilder erzeugt. Die Verwendung dieses Verfahrens hat einen Vorteil dahingehend, dass eine verminderte Anzahl von Kameras verwendet werden kann. Im Hinblick auf ein das holographische Stereogramm verwendendes Fernsehgerät kann ein Vorteil von Datenkompression genutzt werden, wenn ungefähr zehn Bilder gesendet werden und Interpolationsbilder auf der Empfängerseite erzeugt werden. Wird die Technik von Bildkompression auch beim Senden der eingegebenen Bilder eingesetzt, können die Daten weiter komprimiert werden.

Claims (6)

  1. Bildverarbeitungsgerät, mit einer Einrichtung, welche zur Speicherung einer Vielzahl von Bildern in einer Bilddatenbank (3) ausgestaltet ist, welche von einer Vielzahl von verschiedenen Ansichtspunkten erlangte Ansichten eines Gegenstands repräsentieren, einer Einrichtung (8, 14) zur Erzeugung eines Bildes für ein Anzeigegerät (1) aus der Vielzahl von Bildern, einer Ansichterfassungseinrichtung (2, 7) zur Erfassung der Ansichtspunktposition eines das Anzeigegerät anschauenden Betrachters, und dadurch gekennzeichnet, dass die in der Datenbank gespeicherten Bilder Bilder eines anzuzeigenden Gegenstands sind, welche von einer Vielzahl von verschiedenen in einer einzigen Ebene ausgerichteten Ansichtspunkten aufgenommen sind, und eine Berechnungseinrichtung (10, 11, 12) dahingehend ausgestaltet ist, um aus der Datenbank Teile der gespeicherten Bilder auszuwählen, welche eine Vielzahl von Epipolarebenen definieren, um entsprechende Punkte innerhalb jeder der Epipolarebenen zu erfassen, um eine Interpolation unter Verwendung der erfassten entsprechenden Punkte innerhalb jeder der Epipolarebenen und der erfassten Ansichtspunktposition durchzuführen, um ein Bild von einem Ansichtspunkt zu erzeugen, welcher von dem Ansichtspunkt der eingegebenen Bilder verschieden ist, von welchem die Epipolarebenen aufgenommen worden sind.
  2. Gerät nach Anspruch 1, und mit einem linsenförmigen Anzeigebildschirm zur Anzeige der erzeugten Bilder.
  3. Gerät nach Anspruch 2, wobei die Ansichtserfassungseinrichtung dahingehend ausgestaltet ist, um sowohl die Blickrichtung als auch die Kopfposition eines Betrachters zu erfassen.
  4. Verfahren des Verarbeitens von Bildern, mit Erzeugen eines Bildes für ein Anzeigegerät aus einer Vielzahl von gespeicherten Bildern, welche von einer Vielzahl von verschiedenen Ansichtspunkten erlangte Ansichten eines Gegenstands repräsentieren, Erfassen der Ansichtspunktposition eines das Anzeigegerät anschauenden Betrachters, und dadurch gekennzeichnet, dass die in der Datenbank gespeicherten Bilder Bilder eines anzuzeigenden Gegenstands sind, welche von einer Vielzahl von verschiedenen in einer einzigen Ebene ausgerichteten Ansichtspunkten aufgenommen sind, und durch Auswählen aus der Datenbank von Teilen der gespeicherten Bilder, welche eine Vielzahl von Epipolarebenen definieren, Erfassen von entsprechenden Punkten innerhalb jeder der Epipolarebenen, und Durchführen einer Interpolation unter Verwendung der erfassten entsprechenden Punkte innerhalb jeder der Epipolarebenen und der erfassten Ansichtspunktposition, um ein Bild von einem Ansichtspunkt zu erzeugen, welcher von dem Ansichtspunkt der eingegebenen Bilder verschieden ist, von welchem die Epipolarebenen aufgenommen worden sind.
  5. Verfahren nach Anspruch 4, und mit einem Anzeigen der erzeugten Bilder auf einem linsenförmigen Anzeigebildschirm.
  6. Verfahren nach Anspruch 5, wobei der Erfassungsschritt ein Erfassen von sowohl der Blickrichtung als auch der Kopfposition eines Betrachters umfasst.
DE69434685T 1993-08-04 1994-08-02 Bildverarbeitungsverfahren und -gerät Expired - Lifetime DE69434685T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP5193737A JPH0749944A (ja) 1993-08-04 1993-08-04 画像処理方法およびその装置
JP19373793 1993-08-04
JP5271698A JP3032414B2 (ja) 1993-10-29 1993-10-29 画像処理方法および画像処理装置
JP27169893 1993-10-29

Publications (2)

Publication Number Publication Date
DE69434685D1 DE69434685D1 (de) 2006-05-18
DE69434685T2 true DE69434685T2 (de) 2006-09-14

Family

ID=26508058

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69434685T Expired - Lifetime DE69434685T2 (de) 1993-08-04 1994-08-02 Bildverarbeitungsverfahren und -gerät

Country Status (3)

Country Link
US (1) US6191808B1 (de)
EP (1) EP0637815B1 (de)
DE (1) DE69434685T2 (de)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69529548T2 (de) * 1994-04-22 2003-11-27 Canon Kk Bilderzeugungsverfahren und -gerät
GB2317086A (en) * 1996-09-05 1998-03-11 Secr Defence Virtual reality system
JP3514947B2 (ja) * 1997-06-05 2004-04-05 シャープ株式会社 3次元画像処理装置及び3次元画像処理方法
JPH114398A (ja) * 1997-06-11 1999-01-06 Hitachi Ltd デジタルワイドカメラ
EP0896301A1 (de) * 1997-08-06 1999-02-10 Victor Company Of Japan, Limited Vorrichtung und Verfahren zum Interpolieren stereoskopischer Bilder
JPH11155152A (ja) * 1997-11-21 1999-06-08 Canon Inc 三次元形状情報入力方法及び装置及び画像入力装置
JP4021026B2 (ja) * 1998-01-29 2007-12-12 富士重工業株式会社 ステレオ画像処理システム
US6476850B1 (en) * 1998-10-09 2002-11-05 Kenneth Erbey Apparatus for the generation of a stereoscopic display
GB2351635B (en) * 1999-01-20 2003-03-19 Canon Kk Video conferencing apparatus
US8229549B2 (en) * 2004-07-09 2012-07-24 Tyco Healthcare Group Lp Surgical imaging device
JP4453119B2 (ja) * 1999-06-08 2010-04-21 ソニー株式会社 カメラ・キャリブレーション装置及び方法、画像処理装置及び方法、プログラム提供媒体、並びに、カメラ
JP3280001B2 (ja) * 1999-09-16 2002-04-30 富士重工業株式会社 ステレオ画像の位置ずれ調整装置
DE19961428C2 (de) * 1999-12-17 2002-03-07 Florian Maier Verfahren und Vorrichtung zum Visualisieren eines Vorganges zu einem definierten Zeitpunkt
JP2002123159A (ja) * 2000-10-16 2002-04-26 Sony Corp ホログラフィックステレオグラム印刷装置及び方法
JP4574022B2 (ja) * 2001-01-17 2010-11-04 キヤノン株式会社 撮像装置及びシェーディング補正方法
JP3437555B2 (ja) * 2001-03-06 2003-08-18 キヤノン株式会社 特定点検出方法及び装置
GB2378341B (en) * 2001-07-31 2005-08-24 Hewlett Packard Co Improvements in and relating to dislaying digital images
TW584815B (en) * 2001-09-13 2004-04-21 Silicon Integrated Sys Corp Method for removing noise regions in a stereo 3D display system
JP4148671B2 (ja) * 2001-11-06 2008-09-10 ソニー株式会社 表示画像制御処理装置、動画像情報送受信システム、および表示画像制御処理方法、動画像情報送受信方法、並びにコンピュータ・プログラム
WO2003049455A1 (en) * 2001-11-30 2003-06-12 Zaxel Systems, Inc. Image-based rendering for 3d object viewing
US7904826B2 (en) * 2002-03-29 2011-03-08 Microsoft Corporation Peek around user interface
JP2003337303A (ja) * 2002-05-17 2003-11-28 Canon Inc 立体画像表示装置および立体画像表示システム
US6853398B2 (en) * 2002-06-21 2005-02-08 Hewlett-Packard Development Company, L.P. Method and system for real-time video communication within a virtual environment
US7212662B2 (en) * 2003-02-27 2007-05-01 T-Mobile Deutschland Gmbh Method for the compressed transmission of image data for 3-dimensional representation of scenes and objects
EP1706702A2 (de) * 2003-12-21 2006-10-04 KREMEN, Stanley H. System und vorrichtung zum aufzeichnen, senden und projizieren digitaler dreidimensionaler bilder
JP4642757B2 (ja) * 2004-07-23 2011-03-02 パナソニック株式会社 画像処理装置および画像処理方法
FR2876804B1 (fr) * 2004-10-18 2007-01-05 Imagine Optic Sa Dispositif et procede de visualisation autostereoscopique a base de lenticulaire, et procede de synthese d'images autostereoscopiques associe
KR100579135B1 (ko) * 2004-11-11 2006-05-12 한국전자통신연구원 수렴형 3차원 다시점 영상 획득 방법
FR2887998A1 (fr) * 2005-07-04 2007-01-05 Xavier Jean Francois Levecq Dispositif et procede de visualisation autostereoscopique commutable 2d-3d
FR2887999B1 (fr) * 2005-07-04 2008-05-16 Xavier Jean Francois Levecq Procede et dispositif de visualisation autostereoscopique avec adaptation de la distance de vision optimale
EP2424245B1 (de) 2006-01-09 2019-09-04 Dolby International AB Verfahren und Vorrichtung zur Beleuchtung und Farbausgleich für eine Videocodierung mit mehreren Ansichten
US11315307B1 (en) 2006-12-28 2022-04-26 Tipping Point Medical Images, Llc Method and apparatus for performing rotating viewpoints using a head display unit
US10795457B2 (en) 2006-12-28 2020-10-06 D3D Technologies, Inc. Interactive 3D cursor
US11275242B1 (en) 2006-12-28 2022-03-15 Tipping Point Medical Images, Llc Method and apparatus for performing stereoscopic rotation of a volume on a head display unit
US11228753B1 (en) 2006-12-28 2022-01-18 Robert Edwin Douglas Method and apparatus for performing stereoscopic zooming on a head display unit
US8314832B2 (en) * 2009-04-01 2012-11-20 Microsoft Corporation Systems and methods for generating stereoscopic images
US20100259610A1 (en) * 2009-04-08 2010-10-14 Celsia, Llc Two-Dimensional Display Synced with Real World Object Movement
GB2471137B (en) 2009-06-19 2011-11-30 Sony Comp Entertainment Europe 3D image processing method and apparatus
JP5663857B2 (ja) * 2009-10-08 2015-02-04 株式会社ニコン 画像表示装置および画像表示方法
JP4712898B1 (ja) * 2010-03-05 2011-06-29 健治 吉田 中間画像生成方法、中間画像ファイル、中間画像生成装置、立体画像生成方法、立体画像生成装置、裸眼立体画像表示装置、立体画像生成システム
WO2012070103A1 (ja) * 2010-11-22 2012-05-31 株式会社 東芝 立体画像表示装置および方法
JP2012114816A (ja) * 2010-11-26 2012-06-14 Sony Corp 画像処理装置、画像処理方法及び画像処理プログラム
JP5707904B2 (ja) 2010-12-03 2015-04-30 ソニー株式会社 3dデータ解析装置および3dデータ解析方法
JP5631229B2 (ja) * 2011-01-31 2014-11-26 キヤノン株式会社 撮像装置、その制御方法及びプログラム
US20120300034A1 (en) * 2011-05-23 2012-11-29 Qualcomm Incorporated Interactive user interface for stereoscopic effect adjustment
WO2013110297A1 (en) * 2012-01-26 2013-08-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Autostereoscopic display and method of displaying a 3d image
CN104221372B (zh) * 2012-01-26 2016-12-14 弗劳恩霍弗应用技术研究院 自动立体显示器及显示3d图像的方法
TWI510082B (zh) * 2012-06-06 2015-11-21 Etron Technology Inc 用於影像辨識之影像擷取方法及其系統
US8977037B1 (en) * 2012-08-31 2015-03-10 Google Inc. Methods and systems of creating a stereoscopic image
TWI515457B (zh) * 2013-01-23 2016-01-01 友達光電股份有限公司 多視點三維顯示器系統及其控制方法
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
KR102221773B1 (ko) * 2014-09-04 2021-03-02 삼성디스플레이 주식회사 입체 영상 표시 장치
US10008027B1 (en) 2014-10-20 2018-06-26 Henry Harlyn Baker Techniques for determining a three-dimensional representation of a surface of an object from a set of images
EP3142365A1 (de) * 2015-09-14 2017-03-15 Thomson Licensing Verfahren und vorrichtung zur codierung und decodierung eines lichtfeldbasierten bildes und zugehöriges computerprogrammprodukt
WO2017131838A2 (en) 2015-11-13 2017-08-03 Flir Systems, Inc. Sonar sensor fusion and model based virtual and augmented reality systems and methods
US11328155B2 (en) 2015-11-13 2022-05-10 FLIR Belgium BVBA Augmented reality labels systems and methods
CZ306641B6 (cs) * 2015-12-09 2017-04-12 LTR s.r.o. Způsob použití systému pro zrychlení vizuální zpětné vazby u kamerového manipulátoru a systém pro zrychlení vizuální zpětné vazby u kamerového manipulátoru
US10430994B1 (en) 2016-11-07 2019-10-01 Henry Harlyn Baker Techniques for determining a three-dimensional textured representation of a surface of an object from a set of images with varying formats

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5113213A (en) * 1989-01-13 1992-05-12 Sandor Ellen R Computer-generated autostereography method and apparatus
JP3104909B2 (ja) * 1989-12-05 2000-10-30 ソニー株式会社 画像処理装置
US5130794A (en) * 1990-03-29 1992-07-14 Ritchey Kurtis J Panoramic display system
GB2256567B (en) * 1991-06-05 1995-01-11 Sony Broadcast & Communication Modelling system for imaging three-dimensional models
US5193000A (en) * 1991-08-28 1993-03-09 Stereographics Corporation Multiplexing technique for stereoscopic video system
US5287437A (en) * 1992-06-02 1994-02-15 Sun Microsystems, Inc. Method and apparatus for head tracked display of precomputed stereo images
US5422563A (en) * 1993-07-22 1995-06-06 Massachusetts Institute Of Technology Bootstrapped current and voltage reference circuits utilizing an N-type negative resistance device
US5495576A (en) * 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method

Also Published As

Publication number Publication date
EP0637815A2 (de) 1995-02-08
EP0637815B1 (de) 2006-04-05
DE69434685D1 (de) 2006-05-18
US6191808B1 (en) 2001-02-20
EP0637815A3 (de) 1995-02-15

Similar Documents

Publication Publication Date Title
DE69434685T2 (de) Bildverarbeitungsverfahren und -gerät
DE69737780T2 (de) Verfahren und Vorrichtung zur Bildverarbeitung
DE60131274T2 (de) Verringerung der rechenzeit für dreidimensionale anzeigen
DE19953595B4 (de) Verfahren und Vorrichtung zur Verarbeitung dreidimensionaler Bilder
DE69531583T2 (de) Bildverarbeitungsverfahren und -gerät
DE69534763T2 (de) Vorrichtung zur Darstellung stereoskopischer Bilder und Bildaufnahmevorrichtung dafür
DE69730565T2 (de) Gerät zur Erzeugung eines stereoskopischen bewegenden Bildes mittels Computergraphik
DE69631496T2 (de) Stereoskopisches Fernsehgerät
DE102005010250B4 (de) Verfahren und Einrichtung zum Nachführen von Sweet-Spots
EP2027728B1 (de) Verfahren und vorrichtung zur pseudoholographischen bilderzeugung
DE69812591T2 (de) Autostereoskopische Anzeigevorrichtung
DE69433556T2 (de) Bildanzeigevorrichtung
US6233004B1 (en) Image processing method and apparatus
EP0722256B1 (de) Personenadaptiver autostereoskoper Shutter-Bildschirm (PAAS)
DE69734747T2 (de) Verfahren und Gerät zur Bildverarbeitung
CN102833560A (zh) 图像处理设备、图像处理方法和程序
WO2008141596A1 (de) Verfahren zum darstellen von bildobjekten in einem virtuellen dreidimensionalen bildraum
EP2229784B1 (de) Verfahren und vorrichtung zur echtzeit-multiview-erzeugung
EP2676449B1 (de) Verfahren und vorrichtung zur stereobasis-erweiterung von stereoskopischen bildern und bildfolgen
DE102007021518B4 (de) Verfahren zum Verarbeiten eines Videodatensatzes
DE69732465T2 (de) Bildverarbeitungsgerät und -verfahren
DE10056978B4 (de) Verfahren zur Erzeugung eines stereographischen Bildes
DE102010041870A1 (de) Verfahren und System zur horizontrichtigen stereoskopischen Bildverarbeitung
DE69936029T2 (de) Methode und verfahren zur erzeugung von einzelbildern aus einer sequenz von quellenbildern durch herstellung eines oder mehrerer direkt vor den quellenbildern sich befindlichen zwischenbildern
WO2009118156A2 (de) Verfahren zum erzeugen einer 3d-abbildung einer szene aus einer 2d-abbildung der szene

Legal Events

Date Code Title Description
8364 No opposition during term of opposition