DE112021002093T5 - Verfahren zum ändern des blickpunkts im virtuellen raum - Google Patents

Verfahren zum ändern des blickpunkts im virtuellen raum Download PDF

Info

Publication number
DE112021002093T5
DE112021002093T5 DE112021002093.5T DE112021002093T DE112021002093T5 DE 112021002093 T5 DE112021002093 T5 DE 112021002093T5 DE 112021002093 T DE112021002093 T DE 112021002093T DE 112021002093 T5 DE112021002093 T5 DE 112021002093T5
Authority
DE
Germany
Prior art keywords
user
model
virtual space
display
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021002093.5T
Other languages
English (en)
Inventor
Taihei Meno
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of DE112021002093T5 publication Critical patent/DE112021002093T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Architecture (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Gemäß der vorliegenden Erfindung ist eine Informationsverarbeitungsvorrichtung (Steuervorrichtung) so konfiguriert, dass sie mit einer Steuereinheit versehen ist, die beim Steuern einer Anzeige eines virtuellen Raums einschließlich Blickpunktänderungen eine Steuerung zum Anzeigen eines Modells eines virtuellen Raums, sodass das Erscheinungsbild des Modells auf ein beliebiges von einem Benutzer gewünschtes Erscheinungsbild geändert werden kann, Bewegen eines virtuellen Benutzerblickpunkts zu einer Position in dem virtuellen Raum, an der das gleiche Erscheinungsbild wie das Erscheinungsbild des Modells erhalten wird, und Anzeigen des virtuellen Raums durchführt.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Technologie betrifft eine Informationsverarbeitungsvorrichtung, ein Informationsverarbeitungsverfahren und ein Programm.
  • STAND DER TECHNIK
  • Technologien zur Verbesserung des Komforts eines Benutzers bei der Steuerung einer Anzeige eines virtuellen Raums sind bekannt. Zum Beispiel offenbart das folgende Patentdokument 1 eine Technologie zum Reduzieren von Unbehagen, wie etwa Bewegungskrankheit (sogenannte Virtual-Reality-Krankheit (VR-Krankheit)) eines Benutzers, deren Auftreten während einer Änderung des Blickpunkts, begleitet von einer kontinuierlichen Bewegung des Benutzers, in einem virtuellen Raum wahrscheinlich ist.
  • LISTE BEKANNTER SCHRIFTEN
  • PATENTDOKUMENT
  • Patentdokument 1: Internationale Veröffentlichung mit der Nr. 2018/216402
  • KURZDARSTELLUNG DER ERFINDUNG
  • DURCH DIE ERFINDUNG ZU LÖSENDE PROBLEME
  • Unterdessen gibt es als Verfahren zum Ändern des Blickpunkts im virtuellen Raum ein Verfahren zum Durchführen einer Bewegung (einer diskreten Bewegung), die nicht von einer kontinuierlichen Bewegung eines Benutzers begleitet wird. In diesem Fall kann die Bewegungskrankheit des Benutzers im Vergleich zu der von der kontinuierlichen Bewegung begleiteten Blickpunktänderung verringert werden, jedoch ist es schwierig, einen eigenen Zustand (beispielsweise eine Position, eine Ausrichtung und dergleichen) im virtuellen Raum wahrzunehmen. Darüber hinaus ist es für den Benutzer schwierig, ein Erscheinungsbild des virtuellen Raums an einem Blickpunktänderungsziel im Voraus zu bestätigen. Somit bestehen in der herkömmlichen Technologie Möglichkeiten zur Verbesserung des Komforts für den Benutzer.
  • Eine Aufgabe der vorliegenden Technologie besteht darin, eine Informationsverarbeitungsvorrichtung, ein Informationsverarbeitungsverfahren und ein Programm vorzuschlagen, die in der Lage sind, ein für einen Benutzer angenehmes Bild anzuzeigen.
  • LÖSUNGEN DER PROBLEME
  • Die vorliegende Technologie betrifft Folgendes:
    • eine Informationsverarbeitungsvorrichtung, die Folgendes aufweist:
      • eine Steuereinheit, die während einer Steuerung einer Anzeige eines virtuellen Raums, begleitet von einer Blickpunktänderung, eine Steuerung zum Anzeigen eines Modells des virtuellen Raums auf eine Weise, die auf ein beliebiges von einem Benutzer gewünschtes Erscheinungsbild geändert werden kann, und zum Anzeigen des virtuellen Raums durch Bewegen eines virtuellen Benutzerblickpunkts zu einer Position in dem virtuellen Raum, an der das gleiche Erscheinungsbild wie ein Erscheinungsbild des Modells erhalten wird, durchführt.
  • Die vorliegende Technologie betrifft Folgendes:
    • ein Informationsverarbeitungsverfahren, das Folgendes aufweist:
      • Bewirken, dass ein Prozessor Folgendes durchführt:
        • Steuern, während einer Steuerung einer Anzeige eines virtuellen Raums, begleitet von einer Blickpunktänderung, zum Anzeigen eines Modells des virtuellen Raums auf eine Weise, die auf ein beliebiges von einem Benutzer gewünschtes Erscheinungsbild geändert werden kann, und zum Anzeigen des virtuellen Raums durch Bewegen eines virtuellen Benutzerblickpunkts zu einer Position in dem virtuellen Raum, an der das gleiche Erscheinungsbild wie ein Erscheinungsbild des Modells erhalten wird.
  • Die vorliegende Technologie betrifft Folgendes:
    • ein Programm, das bewirkt, dass ein Computer Folgendes durchführt:
      • Implementieren einer Steuerfunktion, während einer Steuerung einer Anzeige eines virtuellen Raums, begleitet von einer Blickpunktänderung, zum Anzeigen eines Modells des virtuellen Raums auf eine Weise, die auf ein beliebiges von einem Benutzer gewünschtes Erscheinungsbild geändert werden kann, und zum Anzeigen des virtuellen Raums durch Bewegen eines virtuellen Benutzerblickpunkts zu einer Position in dem virtuellen Raum, an der das gleiche Erscheinungsbild wie ein Erscheinungsbild des Modells erhalten wird.
  • Figurenliste
    • 1 ist ein Diagramm, das ein Konfigurationsbeispiel eines Informationsverarbeitungssystems gemäß der vorliegenden Ausführungsform veranschaulicht.
    • 2 ist ein Blockdiagramm, das ein Konfigurationsbeispiel einer Steuervorrichtung veranschaulicht.
    • 3 ist ein Blockdiagramm, das ein Konfigurationsbeispiel einer Anzeigevorrichtung veranschaulicht.
    • 4 ist ein Blockdiagramm, das ein Konfigurationsbeispiel einer Bedienungsvorrichtung veranschaulicht.
    • 5 ist eine Ansicht, die ein Beispiel eines Zustandsübergangs eines Anzeigebilds veranschaulicht.
    • 6 ist eine Ansicht, die ein Bildbeispiel veranschaulicht, das von einem Benutzer in einem Anfangszustand betrachtet wird.
    • 7 ist eine Ansicht, die ein Bildbeispiel in einem Miniaturanzeigezustand veranschaulicht.
    • 8 ist eine Ansicht, die ein Bildbeispiel in einem Blickpunkt-bewegt-Zustand veranschaulicht.
    • 9 ist eine Ansicht, die ein Bildbeispiel in einem Blickpunkt-bestimmt-Zustand veranschaulicht.
    • 10 ist eine Ansicht, die ein Bildbeispiel in einem VR-Raum-gelöscht-Zustand veranschaulicht.
    • 11 ist eine Ansicht, die ein Bildbeispiel eines Bewegungsziel-VR-Raum-Anzeigezustands veranschaulicht.
    • 12 ist eine Ansicht, die ein Bildbeispiel in einem Miniatur-gelöscht-Zustand veranschaulicht.
    • 13 ist eine Ansicht, die ein Bildbeispiel in einem Miniaturneuanzeigezustand veranschaulicht.
    • 14 ist eine Ansicht, die ein weiteres Bildbeispiel im Anfangszustand veranschaulicht.
    • 15 ist eine Ansicht, die ein weiteres Bildbeispiel im Miniaturanzeigezustand veranschaulicht.
    • 16 ist eine Ansicht, die ein weiteres Bildbeispiel im Blickpunkt-bestimmt-Zustand veranschaulicht.
    • 17 ist eine Ansicht, die ein weiteres Bildbeispiel im VR-Raum-gelöscht-Zustand veranschaulicht.
    • 18 ist eine Ansicht, die ein weiteres Bildbeispiel des Bewegungsziel-VR-Raum-Anzeigezustands veranschaulicht.
    • 19 ist eine Ansicht, die ein weiteres Bildbeispiel im Miniatur-gelöscht-Zustand veranschaulicht.
    • 20 ist eine Ansicht, die ein Anzeigebeispiel eines Miniaturmodells veranschaulicht.
    • 21 ist ein Flussdiagramm, das ein Beispiel eines Flusses einer Anzeigesteuerungsverarbeitung durch eine Steuereinheit veranschaulicht.
    • 22A ist eine Ansicht, die ein Beispiel einer Position eines virtuellen Benutzerblickpunkts in einem lokalen Koordinatensystem veranschaulicht. 22B ist eine Ansicht, die ein Beispiel einer Position eines virtuellen Benutzerblickpunkts in einem Weltkoordinatensystem veranschaulicht.
    • 23 ist eine Ansicht zum Beschreiben eines Beispiels einer Augenabstandssteuerung zum Zeitpunkt des Löschens eines Miniaturmodells.
    • 24 ist eine Ansicht zum Beschreiben einer binokularen Parallaxe, die durch Ändern des Augenabstands gesteuert wird.
  • AUSFÜHRUNGSWEISE DER ERFINDUNG
  • Eine nachstehend beschriebene Ausführungsform ist ein bevorzugtes spezifisches Beispiel der vorliegenden Technologie, und es werden verschiedene technisch bevorzugte Einschränkungen angegeben. Der Schutzumfang der vorliegenden Technologie ist jedoch nicht auf die folgende Ausführungsform beschränkt, sofern in der folgenden Beschreibung nichts anderes angegeben ist. Es sei angemerkt, dass Komponenten mit im Wesentlichen der gleichen funktionalen Konfiguration in der vorliegenden Beschreibung und den Zeichnungen mit den gleichen Bezugszeichen bezeichnet werden und die redundante Beschreibung davon gegebenenfalls weggelassen wird. Die vorliegende Technologie wird in der folgenden Reihenfolge beschrieben.
    • 1. Ausführungsform
      • 1-1. Überblick über das Informationsverarbeitungssystem
      • 1-2. Konfiguration der Steuervorrichtung
      • 1-3. Konfiguration der Anzeigevorrichtung
      • 1-4. Konfiguration der Bedienungsvorrichtung
      • 1-5. Anzeigesteuerungsverarbeitung
    • 2. Kurzdarstellung
  • <1. Ausführungsform>
  • [1-1. Überblick über das Informationsverarbeitungssystem]
  • Zunächst wird ein Überblick über ein Informationsverarbeitungssystem gemäß der vorliegenden Ausführungsform unter Bezugnahme auf 1 beschrieben. 1 ist ein Diagramm, das ein Konfigurationsbeispiel des Informationsverarbeitungssystems gemäß der vorliegenden Ausführungsform veranschaulicht. Ein in 1 veranschaulichtes Informationsverarbeitungssystem 1 zeigt ein durch einen Benutzer (Betrachter) U visuell zu erkennendes Anzeigebild an. Zu Beispielen eines Inhalts, der dem Benutzer U durch das Anzeigebild bereitgestellt wird, gehören ein Spiel, das einen virtuellen Raum verwendet, Live-Streaming, Sportübertragungen, Navigation, Bildung, Touristeninformationen, Shopping und andere erlebnisbasierte Inhalte. Hier ist der virtuelle Raum ein virtueller dreidimensionaler Raum, konstruiert durch eine Informationsverarbeitung, die durch eine Steuervorrichtung (Informationsverarbeitungsvorrichtung) 10 ausgeführt wird. Das Informationsverarbeitungssystem 1 weist eine Steuervorrichtung 10, eine Anzeigevorrichtung 20, eine Bedienungsvorrichtung 30 und Kommunikationsleitungen 40 und 50 auf.
  • Die Steuervorrichtung 10 erzeugt ein Anzeigebild eines Blickpunkts (Ego-Blickpunkts) des Benutzers U unter Verwendung eines Bilds des virtuellen Raums. Das Bild des virtuellen Raums ist ein Bild einer virtuellen Realität (VR: Virtual Reality), einer erweiterten Realität (AR: Augmented Reality), einer gemischten Realität (MR: Mixed Reality), die diese beinhaltet, oder dergleichen. Das Bild weist ein Standbild und ein bewegtes Bild (Video) auf. Es sei angemerkt, dass das Bild des virtuellen Raums ein Bild sein kann, das durch Erfassen eines Bilds einer tatsächlichen Szene erhalten wird. Das heißt, das Bild des virtuellen Raums kann ein Bild sein, das ein erfasstes Objekt, insbesondere ein tatsächlich erfasstes Bild, eine auf Grundlage des tatsächlich erfassten Bilds erzeugte Computergrafik oder dergleichen darstellt. Das Anzeigebild ist ein Bild, das in einem Fall erhalten wird, in dem der virtuelle Raum durch virtuelle Kameras, die an vorbestimmten Positionen in dem virtuellen Raum installiert sind, abgebildet wird. Beispielsweise bedeutet das Anzeigebild ein Bild, das in einem Sichtfeld des Benutzers U in dem virtuellen Raum zu sehen ist. Insbesondere stellt die Steuervorrichtung 10 einen virtuellen Benutzerblickpunkt ein, der der Blickpunkt des Benutzers U in dem virtuellen Raum ist, und erzeugt das von dem virtuellen Benutzerblickpunkt aus zu sehende Anzeigebild. Hier wird der virtuelle Benutzerblickpunkt auf Grundlage von Lagedetektionsinformationen spezifiziert, die von der Anzeigevorrichtung 20 übertragen werden. Die Lagedetektionsinformationen werden durch eine in der Anzeigevorrichtung 20 integrierte Lagedetektionseinheit erzeugt. Dann bewirkt die Steuervorrichtung 10, dass die Anzeigevorrichtung 20 das erzeugte Anzeigebild anzeigt, wodurch bewirkt wird, dass die Anzeigevorrichtung 20 den virtuellen Raum anzeigt.
  • Die Anzeigevorrichtung 20 ist ein sogenanntes Head-Mounted Display (HMD) und wird um die Augen des Benutzers U getragen. Das oben beschriebene Anzeigebild wird auf der Anzeigevorrichtung 20 angezeigt. Dann, wenn der virtuelle Benutzerblickpunkt durch eine Blickpunktänderungsoperation (zum Beispiel Bewegen des Gesichts, Durchführen einer Operation zum Anweisen einer „sogenannten Warp-Bewegung (diskrete Bewegung)“ oder dergleichen) durch den Benutzer U geändert wird, wird das Anzeigebild entsprechend geändert. Daher kann der Benutzer U eine virtuelle Erfahrung erleben, als ob der Benutzer U in dem virtuellen Raum existiert.
  • Die Bedienungsvorrichtung 30 ist eine Vorrichtung (zum Beispiel ein Spielcontroller oder dergleichen), die für die Steuerung in der Steuervorrichtung 10 gemäß einer Bedienungsabsicht des Benutzers U bedient wird. Insbesondere wird die Bedienungsvorrichtung 30 bedient, indem sie in der Hand des Benutzers U gehalten wird, wie in 1 veranschaulicht. Jedoch ist die Bedienungsvorrichtung 30 nicht darauf beschränkt und kann zum Beispiel eine Vorrichtung, die am Körper des Benutzers U getragen wird und gemäß einer Bewegung des Körpers des Benutzers U bedient wird, eine Vorrichtung, die mittels einer Toneingabe wie Sprache bedient wird, eine Vorrichtung, die unter Verwendung eines Berührungsbildschirms bedient wird, oder dergleichen sein. Die oben beschriebene Steuervorrichtung 10 steuert das auf der Anzeigevorrichtung 20 anzuzeigende Anzeigebild gemäß der Benutzerbedienung unter Verwendung der Bedienungsvorrichtung 30.
  • Die Kommunikationsleitung 40 verbindet die Steuervorrichtung 10 und die Anzeigevorrichtung 20 und ermöglicht eine Informationskommunikation dazwischen. Die Kommunikationsleitung 50 verbindet die Steuervorrichtung 10 und die Bedienungsvorrichtung 30 und ermöglicht eine Informationskommunikation dazwischen. Die Kommunikationsleitungen 40 und 50 können ein beliebiges Verbindungsschema verwenden, wie etwa ein drahtgebundenes oder drahtloses Schema. Es sei angemerkt, dass jede Kombination von Verbindungen verwendet werden kann, solange sowohl die Anzeigevorrichtung 20 als auch die Bedienungsvorrichtung 30 mit der Steuervorrichtung 10 verbunden sind. Beispielsweise ist die Kombination von Verbindungen nicht auf eine in 1 veranschaulichte beschränkt, und die Bedienungsvorrichtung 30 kann mit der Anzeigevorrichtung 20 verbunden sein, und die Bedienungsvorrichtung 30 und die Steuervorrichtung 10 können dazwischen angeordnet mit der Anzeigevorrichtung 20 verbunden sein. Darüber hinaus können beispielsweise die Steuervorrichtung 10, die Anzeigevorrichtung 20 und die Bedienungsvorrichtung 30 unter Verwendung eines Netzwerks wie etwa eines Lokalnetzwerks (LAN) miteinander verbunden sein.
  • Hier kann das Informationsverarbeitungssystem 1 so konfiguriert sein, dass mindestens zwei oder mehr der Steuervorrichtung 10, der Anzeigevorrichtung 20 und der Bedienungsvorrichtung 30 integriert sind. Beispielsweise kann die Anzeigevorrichtung 20 die Funktion der Steuervorrichtung 10 haben. Darüber hinaus ist die Anzeigevorrichtung 20 nicht auf ein Head-Mounted Display beschränkt und kann eine andere Art von Anzeige sein. Beispielsweise kann die Anzeigevorrichtung 20 eine stationäre Anzeige oder eine Anzeige eines mobilen Endgeräts (beispielsweise eines Mobiltelefons, eines Smartphones, eines Smart-Tablets, einer tragbaren Spielmaschine oder dergleichen) sein. In diesem Fall kann die oben beschriebene Lagedetektionseinheit der Anzeigevorrichtung 20 beispielsweise durch Bereitstellen einer Bildgebungsvorrichtung auf diesen Anzeige- und mobilen Endgeräten erreicht werden.
  • In einem herkömmlichen Informationsverarbeitungssystem tritt mitunter eine Situation auf, die für einen Benutzer unangenehm ist, wenn ein virtueller Raum begleitet von einer Blickpunktänderung angezeigt wird. Beispielsweise verursacht eine Änderung des Blickwinkels, begleitet von einer kontinuierlichen Bewegung des Benutzers in dem virtuellen Raum, eine Bewegungskrankheit des Benutzers. Daher offenbart das oben beschriebene Patentdokument 1 eine Technologie zum Reduzieren eines solchen Unbehagens.
  • Insbesondere wird zuerst ein Kartenbild in dem virtuellen Raum angeordnet, und ein Zielpunktbild (Blickpunktänderungspositionsbild) und ein Charakterbild werden auf dem Kartenbild angeordnet. Dann wird das Charakterbild zu dem Zielpunktbild bewegt, das von dem Benutzer betrachtet wird. Das heißt, das Charakterbild wird einem virtuellen Benutzerblickpunkt folgend bewegt. Als Nächstes wird ein Bild einer tatsächlichen Szene (Szenenbild) in dem virtuellen Raum um das Charakterbild herum angezeigt, und das Kartenbild und das Charakterbild werden mit dem Charakterbild als Zentrum vergrößert. Dann wird ein Anzeigebild aus der Sicht des virtuellen Benutzerblickpunkts erzeugt und angezeigt. Daher wird das Bild der tatsächlichen Szene vor den Augen angezeigt. Dann wird ein Zielpunktbild, das einem durch den Benutzer betrachteten Betrachtungspunktbild des Bilds der tatsächlichen Szene am nächsten liegt, spezifiziert, um ein Bild mit bewegtem Blickpunkt zu erzeugen (ein Bild einer tatsächlichen Szene, das von dem virtuellen Benutzerblickpunkt aus gesehen wird, der sich von einem Betrachtungspunkt zu einem Zielpunkt bewegt), das erzeugte Bild wird auf einem in dem virtuellen Raum angeordneten Bildanzeigerahmen angezeigt, wodurch die Blickpunktänderung, begleitet von einer kontinuierlichen Bewegung des Benutzers, durchgeführt wird. Zu diesem Zeitpunkt wird das Bild in einem Zustand angezeigt, in dem das Bild der tatsächlichen Szene um den Bildanzeigerahmen fixiert ist, um ein unangenehmes Gefühl, wie etwa die Bewegungskrankheit des Benutzers, zu abzuschwächen und ein Gefühl einer unerwarteten Bewegung während der Blickpunktänderung zu verhindern.
  • Bei dieser Technologie ist es notwendig, das Bild mit bewegtem Blickpunkt anzuzeigen, und es ist schwierig zu sagen, dass eine Blickpunktänderung mit einer diskreten Bewegung durchgeführt wird. Außerdem ist es schwierig, den Blickpunkt einzustellen, indem an irgendeiner Stelle im virtuellen Raum nach einer Position eines vom Benutzer gewünschten Erscheinungsbilds gesucht wird. Daher wird in der Ausführungsform der vorliegenden Technologie, wenn die Anzeige des virtuellen Raums, begleitet von einer Blickpunktänderung, gesteuert wird, die Steuerung durchgeführt zum Anzeigen eines Modells des virtuellen Raums auf eine Weise, die auf ein beliebiges von dem Benutzer gewünschtes Erscheinungsbild geändert werden kann, und zum Anzeigen des virtuellen Raums durch Bewegen des virtuellen Benutzerblickpunkts zu einer Position in dem virtuellen Raum, an der das gleiche Erscheinungsbild wie ein Erscheinungsbild des Modells erhalten wird. Im Folgenden wird das Informationsverarbeitungssystem 1 gemäß der vorliegenden Ausführungsformen ausführlich beschrieben.
  • [1-2. Konfiguration der Steuervorrichtung]
  • 2 ist ein Blockdiagramm, das ein Konfigurationsbeispiel der Steuervorrichtung 10 veranschaulicht. Die Steuervorrichtung 10 weist eine Kommunikationseinheit 11, eine Speichereinheit 12 und eine Steuereinheit 13 auf. Die Steuervorrichtung 10 weist eine zentrale Verarbeitungseinheit (CPU, also einen Prozessor), einen Direktzugriffsspeicher (RAM), einen Nur-Lese-Speicher (ROM), eine Festplatte, eine Kommunikationsvorrichtung und dergleichen als spezifische Hardwarekonfigurationen auf. Der ROM speichert Informationen, die zur Verarbeitung durch die Steuervorrichtung 10 erforderlich sind, beispielsweise ein Programm oder dergleichen. Die CPU liest das in dem ROM gespeicherte Programm und führt es aus. Es sei angemerkt, dass das Programm in einem externen Speicher gespeichert sein kann, wie etwa einem USB-Speicher (Universal Serial Bus), oder über ein Netzwerk bereitgestellt oder teilweise durch eine andere Informationsverarbeitungsvorrichtung über ein Netzwerk ausgeführt werden kann.
  • Die Kommunikationseinheit 11 weist zum Beispiel eine Kommunikationsvorrichtung oder dergleichen auf und kommuniziert über die Kommunikationsleitung 40 (siehe 1) mit der Anzeigevorrichtung 20 und kommuniziert über die Kommunikationsleitung 50 mit der Bedienungsvorrichtung 30. Darüber hinaus kann die Kommunikationseinheit 11 auch über ein Netzwerk mit einer anderen Informationsverarbeitungsvorrichtung (nicht veranschaulicht) kommunizieren und kann beispielsweise ein Bild eines virtuellen Raums oder dergleichen durch die Kommunikation erfassen.
  • Die Kommunikationseinheit 11 gibt die Informationen (zum Beispiel von der Anzeigevorrichtung 20 bereitgestellte Lagedetektionsinformationen und von der Bedienungsvorrichtung 30 bereitgestellte Bedienungsinformationen und Lagedetektionsinformationen), die durch jede oben beschriebene Kommunikation erhalten werden, an die Steuereinheit 13 aus. Ferner überträgt die Kommunikationseinheit 11 von der Steuereinheit 13 bereitgestellte Informationen, beispielsweise ein Anzeigebild, an die Anzeigevorrichtung 20.
  • Die Speichereinheit 12 weist zum Beispiel einen ROM, einen RAM, eine Festplatte und dergleichen auf und speichert Informationen, die für die Verarbeitung durch die Steuervorrichtung 10 erforderlich sind. Beispielsweise speichert die Speichereinheit 12 ein Programm, verschiedene Bilder und dergleichen. Hier weisen in der Speichereinheit 12 zu speichernde Bilder ein Bild eines virtuellen Raums und dergleichen auf.
  • Die Steuereinheit 13 weist zum Beispiel eine CPU und dergleichen auf und steuert jede Komponente der Steuervorrichtung 10. Außerdem erzeugt die Steuereinheit 13 ein auf der Anzeigevorrichtung 20 anzuzeigendes Anzeigebild und gibt das Anzeigebild an die Kommunikationseinheit 11 aus. Insbesondere stellt die Steuereinheit 13 einen virtuellen Benutzerblickpunkt ein, der ein Blickpunkt eines Benutzers in dem virtuellen Raum ist, und erzeugt das von dem virtuellen Benutzerblickpunkt aus zu sehende Anzeigebild. Zu diesem Zeitpunkt erzeugt die Steuereinheit 13 ein Modell des virtuellen Raums und bewirkt, dass das erzeugte Modell in dem Anzeigebild aufgenommen und angezeigt wird. Beispielsweise wird das Modell auf Grundlage des Bilds des virtuellen Raums, der von der Bedienungsvorrichtung 30 bereitgestellten Lagedetektionsinformationen und dergleichen erzeugt.
  • Hier ist das Modell des virtuellen Raums ein Ziel, das in dem virtuellen Raum enthalten ist und als Referenz für eine Blickpunktänderung verwendet wird. Ist der virtuelle Raum beispielsweise ein Live-Veranstaltungsort, so gehören der gesamte Live-Veranstaltungsort, ein Bühnenabschnitt, ein bestimmter Künstler und dergleichen zu Beispielen des Ziels. Insbesondere wird dieses Modell in Bezug auf eine Anzeigegröße (echte Größe) des virtuellen Raums vergrößert oder verkleinert. Daher kann das Modell unabhängig von der echten Größe in einer geeigneten Größe angezeigt werden. Es sei angemerkt, dass die gleiche Vergrößerung angewendet werden kann. Außerdem weist dieses Modell den gesamten virtuellen Raum auf, der durch die Anzeigebilder angezeigt wird, oder wird durch den Benutzer aus dem durch die Anzeigebilder angezeigten virtuellen Raum ausgewählt. Dieses Modell ist vorzugsweise eine Kopie des virtuellen Raums. Daher ist es möglich, ein unangenehmes Gefühl bei einem Wechsel des Anzeigebilds gemäß der Blickpunktänderung, wie später beschrieben, zu beseitigen.
  • [1-3 Konfiguration der Anzeigevorrichtung]
  • 3 ist ein Blockdiagramm, das ein Konfigurationsbeispiel der Anzeigevorrichtung 20 veranschaulicht. Die Anzeigevorrichtung 20 weist eine Kommunikationseinheit 21, eine Lagedetektionseinheit 22, eine Anzeigeeinheit 23 und eine Anzeigesteuereinheit 24 auf. Die Anzeigevorrichtung 20 weist eine CPU, einen RAM, einen ROM, einen Lagedetektionssensor, ein Head-Mounted-Display-Panel, eine Kommunikationsvorrichtung und dergleichen als spezifische Hardwarekonfigurationen auf. Der ROM speichert Informationen, die zur Verarbeitung durch die Anzeigevorrichtung 20 erforderlich sind, beispielsweise ein Programm oder dergleichen. Die CPU liest das in dem ROM gespeicherte Programm und führt es aus. Es sei angemerkt, dass das Programm in einem externen Speicher gespeichert sein kann, wie etwa einem USB-Speicher (Universal Serial Bus), oder über ein Netzwerk bereitgestellt oder teilweise durch eine andere Informationsverarbeitungsvorrichtung über ein Netzwerk ausgeführt werden kann.
  • Die Kommunikationseinheit 21 weist zum Beispiel eine Kommunikationsvorrichtung oder dergleichen auf und kommuniziert über die Kommunikationsleitung 40 mit der Steuervorrichtung 10. Die Kommunikationseinheit 21 gibt Informationen, die durch jede vorstehend beschriebene Kommunikation erhalten werden, beispielsweise ein Anzeigebild, an die Anzeigesteuereinheit 24 aus. Ferner überträgt die Kommunikationseinheit 21 Informationen, die von der Anzeigesteuereinheit 24 bereitgestellt werden, beispielsweise Lagedetektionsinformationen, wie später beschrieben, an die Steuervorrichtung 10.
  • Die Lagedetektionseinheit 22 weist zum Beispiel einen Lagedetektionssensor auf und detektiert eine Lage der Anzeigevorrichtung 20. Der Lagedetektionssensor kann beispielsweise ein Gyrosensor sein. Die Lagedetektionseinheit 22 erzeugt Lagedetektionsinformationen bezüglich der Lage der Anzeigevorrichtung 20 und gibt die Lagedetektionsinformationen an die Anzeigesteuereinheit 24 aus. Hier ändert sich die Lage Anzeigevorrichtung 20 in Abhängigkeit von einer Ausrichtung des Kopfes des Benutzers U. Dann kann ein Blickpunkt des Benutzers U grob auf Grundlage der Ausrichtung des Kopfes des Benutzers U spezifiziert werden. Daher werden die Lagedetektionsinformationen in der vorliegenden Ausführungsform verwendet, um einen virtuellen Benutzerblickpunkt zu spezifizieren. Auf diese Weise wird der virtuelle Benutzerblickpunkt auf Grundlage der Lagedetektionsinformationen durch die Lagedetektionseinheit 22 spezifiziert. Daher kann der Benutzer U den virtuellen Benutzerblickpunkt bewegen, indem er die Ausrichtung des Kopfes ändert.
  • Hier kann der Lagedetektionssensor ein Sichtliniendetektionssensor sein (also eine Bildgebungsvorrichtung, die ein Bild der Umgebung der Augen des Benutzers erfasst), der eine Sichtlinie des Benutzers U detektiert. In diesem Fall kann der Lagedetektionssensor die Sichtlinie des Benutzers U direkt detektieren. Ferner kann der Benutzer U den virtuellen Benutzerblickpunkt durch Ändern der Sichtlinie bewegen.
  • Die Anzeigeeinheit 23 weist zum Beispiel ein Head-Mounted-Display-Panel auf und zeigt das Anzeigebild oder dergleichen unter der Steuerung der Anzeigesteuereinheit 24 an. Die Anzeigesteuereinheit 24 weist zum Beispiel eine CPU und dergleichen auf und steuert jede Komponente der Anzeigevorrichtung 20. Außerdem bewirkt die Anzeigesteuereinheit 24, dass die Anzeigeeinheit 23 das von der Kommunikationseinheit 21 bereitgestellte Anzeigebild anzeigt. Ferner gibt die Anzeigesteuereinheit 24 die von der Lagedetektionseinheit 22 bereitgestellten Lagedetektionsinformationen an die Kommunikationseinheit 21 aus.
  • [1-4. Konfiguration der Bedienungsvorrichtung]
  • 4 ist ein Blockdiagramm, das ein Konfigurationsbeispiel der Bedienungsvorrichtung 30 veranschaulicht. Die Bedienungsvorrichtung 30 weist eine Kommunikationseinheit 31, eine Lagedetektionseinheit 32, eine Bedienungseinheit 33 und eine Bedienungssteuereinheit 34 auf. Die Bedienungsvorrichtung 30 weist eine CPU, einen RAM, einen ROM, einen Lagedetektionssensor, einen Bedienungsschalter, eine Kommunikationsvorrichtung und dergleichen als spezifische Hardwarekonfigurationen auf. Der ROM speichert Informationen, die zur Verarbeitung durch die Bedienungsvorrichtung 30 erforderlich sind, beispielsweise ein Programm oder dergleichen. Die CPU liest das in dem ROM gespeicherte Programm und führt es aus. Es sei angemerkt, dass das Programm in einem externen Speicher gespeichert sein kann, wie etwa einem USB-Speicher (Universal Serial Bus), oder über ein Netzwerk bereitgestellt oder teilweise durch eine andere Informationsverarbeitungsvorrichtung über ein Netzwerk ausgeführt werden kann.
  • Die Kommunikationseinheit 31 weist zum Beispiel eine Kommunikationsvorrichtung oder dergleichen auf und kommuniziert über die Kommunikationsleitung 50 mit der Steuervorrichtung 10. Die Kommunikationseinheit 31 überträgt Informationen, die von der Bedienungssteuereinheit 34 bereitgestellt werden, beispielsweise Lagedetektionsinformationen und Bedienungsinformationen, an die Steuervorrichtung 10.
  • Die Lagedetektionseinheit 32 weist zum Beispiel einen Lagedetektionssensor auf und detektiert eine Lage der Bedienungsvorrichtung 30. Der Lagedetektionssensor kann beispielsweise ein Gyrosensor sein. Die Lagedetektionseinheit 32 erzeugt Lagedetektionsinformationen bezüglich der Lage der Bedienungsvorrichtung 30 und gibt die Lagedetektionsinformationen an die Bedienungssteuereinheit 34 aus. Hier ändert sich die Lage der Bedienungsvorrichtung 30 gemäß einer Bewegung der Hand des Benutzers U, der die Bedienungsvorrichtung 30 hält. Daher werden diese Lagedetektionsinformationen in der vorliegenden Ausführungsform verwendet, um das oben beschriebene Modell zu bewegen. Es sei angemerkt, dass die zum Zeitpunkt des Bewegens des Modells verwendeten Informationen Bedienungsinformationen sein können, die erzeugt werden, wenn der Benutzer U die Bedienungseinheit 33 bedient.
  • Die Bedienungseinheit 33 weist zum Beispiel einen Bedienungsschalter, wie etwa einen Bedienungsknopf oder einen Bedienungshebel, auf, erzeugt Bedienungsinformationen gemäß einer Benutzerbedienung und stellt die erzeugten Bedienungsinformationen der Bedienungssteuereinheit 34 bereit. Die Bedienungssteuereinheit 34 weist zum Beispiel eine CPU und dergleichen auf und steuert jede Komponente der Bedienungsvorrichtung 30. Ferner gibt die Bedienungssteuereinheit 34 von der Lagedetektionseinheit 32 bereitgestellte Informationen, beispielsweise die Lagedetektionsinformationen, und von der Bedienungseinheit 33 bereitgestellte Informationen, beispielsweise die Bedienungsinformationen, an die Kommunikationseinheit 31 aus.
  • Es sei angemerkt, dass das Informationsverarbeitungssystem 1 einen Sensor (zum Beispiel eine Bildgebungsvorrichtung) aufweisen kann, der eine Haltung des gesamten Körpers des Benutzers U detektiert. Dann kann die Steuereinheit 13 der Steuervorrichtung 10 einen virtuellen Benutzerblickpunkt auf Grundlage von von dem Sensor bereitgestellten Detektionsinformationen spezifizieren. Das heißt, in diesem Fall verwendet die Steuereinheit 13 Ausrichtungen des Gesichts, des Körpers und der Sichtlinie des Benutzers auf umfassende Weise. Gleichermaßen kann die Steuereinheit 13 eine Lage der Bedienungsvorrichtung 30 auf Grundlage der von dem Sensor bereitgestellten Detektionsinformationen spezifizieren.
  • [1-5. Anzeigesteuerungsverarbeitung]
  • Als Nächstes wird ein Zustandsübergang eines Anzeigebildes, begleitet von einer Blickpunktänderung, beschrieben. Es sei angemerkt, dass ein Fall, in dem ein Raum virtueller Realität (VR-Raum) als der oben beschriebene virtuelle Raum verwendet wird, in der folgenden Beschreibung als Beispiel beschrieben wird. Ferner wird ein Fall als Beispiel beschrieben, in dem ein Miniaturmodell angezeigt wird, in dem ein Modell, das alle Anzeigeobjekte in dem VR-Raum aufweist, in Bezug auf die echte Größe verkleinert ist.
  • 5 ist eine Ansicht, die ein Beispiel des Zustandsübergangs des Anzeigebilds veranschaulicht. In 5 stellt eine „Benutzer“-Spalte ein Steuerungstiming in Bezug auf ein durch den Benutzer visuell zu erkennendes Anzeigebild dar, eine „Miniatur“-Spalte stellt ein Steuerungstiming eines Miniaturmodells dar und eine „VR-Raum“-Spalte stellt ein Steuerungstiming des VR-Raums dar. In 5 stellt ein Zustand X dar, dass das Anzeigebild angezeigt wird, ein Zustand Y stellt dar, dass das Miniaturmodell durch das Anzeigebild angezeigt wird, und ein Zustand Z stellt dar, dass der VR-Raum durch das Anzeigebild angezeigt wird. Es sei angemerkt, dass 6 bis 13, auf die in der folgenden Beschreibung Bezug genommen wird, Ansichten sind, die Bildbeispiele veranschaulichen, die von dem Benutzer U betrachtet werden.
  • Wie in 6 veranschaulicht, beginnt die Steuerung des Anzeigebilds, begleitet von der Blickpunktänderung, bei einem Zustand (einem Anfangszustand A), in dem ein VR-Raum S durch das Anzeigebild angezeigt wird. Dieser Anfangszustand A ist ein Zustand, in dem sich der Benutzer U in dem VR-Raum S befindet. In dem veranschaulichten Beispiel wird das Anzeigebild auf der Anzeigevorrichtung 20 angezeigt, sodass der VR-Raum S zu sehen ist, in dem ein von einer Wand umgebener Innenraum und ein Boden vor dem Benutzer U, ein Tisch, der auf dem Boden in der Nähe der mittleren Wand des Innenraums platziert ist, und ein Ornament eines Bären, der auf dem Tisch sitzt und dem Benutzer U zugewandt ist, zu sehen ist.
  • Dann wird, wenn aus dem Anfangszustand A eine Anweisung zum Einschalten der Miniaturanzeige erfolgt, ein Miniaturmodell M des VR-Raums S zusammen mit dem oben beschriebenen VR-Raum S angezeigt (ein Miniaturanzeigezustand B), wie in 7 veranschaulicht. In dem veranschaulichten Beispiel wird das Miniaturmodell M einschließlich des gesamten in 6 veranschaulichten Innenraums (Anzeigeobjekte des VR-Raums S) zusammen mit dem VR-Raum S angezeigt.
  • Es sei angemerkt, dass das Miniaturmodell M vorzugsweise so angezeigt wird, dass es an einer Position näher am Benutzer U als am VR-Raum S zu sehen ist. Zum Beispiel wird das Miniaturmodell M an einer Position angezeigt, an der seine Mittelposition näher am Benutzer U als die Mittelposition des VR-Raums S ist. Daher kann das Miniaturmodell M für den Benutzer U leicht sichtbar gemacht werden. Wie in der Zeichnung veranschaulicht, wird das Miniaturmodell M insbesondere in der Nähe des Benutzers U angezeigt, genauer gesagt nahe an der Hand des Benutzers U. Es sei angemerkt, dass die Anzeigeposition des Miniaturmodells M nicht auf diese Positionen beschränkt ist.
  • Dann wird eine Positionsbeziehung zwischen einem virtuellen Benutzerblickpunkt und dem Miniaturmodell M durch den Benutzer U aus dem Miniaturanzeigezustand B bewegt (ein Blickpunkt-bewegt-Zustand C), wie in 8 veranschaulicht, und jede vom Benutzer U gewünschte Positionsbeziehung wird bestimmt, wie in 9 veranschaulicht. Das heißt, eine Position des virtuellen Benutzerblickpunkts relativ zu dem Miniaturmodell M wird bestimmt (ein Blickpunkt-bestimmt-Zustand D). Es sei angemerkt, dass das Miniaturmodell M dazu ausgelegt ist, sich in Übereinstimmung mit der Bewegung der durch den Benutzer bedienten Bedienungsvorrichtung 30 zu bewegen, und so angezeigt wird, dass nach einer Position gesucht werden kann, zu der der Benutzer U den Blickpunkt ändern möchte (eine Position, an der ein gewünschtes Erscheinungsbild erhalten wird). Beispielsweise wird das Miniaturmodell M so angezeigt, dass es in allen Richtungen um einen vorbestimmten Punkt, wie etwa seinen mittleren Abschnitt, drehbar ist. Es sei angemerkt, dass das Miniaturmodell M statt um einen vorbestimmten Punkt um eine vorbestimmte Achse drehbar sein kann. Beispielsweise ist es in einem Fall, in dem sich die Höhe des Blickpunkts nicht ändert, etwa bei einer horizontalen Bewegung des Benutzers U, nur erforderlich, dass das Miniaturmodell M um eine Achse drehbar ist, die sich in vertikaler Richtung erstreckt. Außerdem wird das Miniaturmodell M so angezeigt, dass der Abstand zum Benutzer U angepasst werden kann. Insbesondere passt der Benutzer U den Abstand an, indem er sich dem Miniaturmodell M nähert oder sich von ihm entfernt. Es sei angemerkt, dass dieser Abstand durch Bewegen des Miniaturmodells M angepasst werden kann. Ein Drehwinkel des Miniaturmodells M und der Abstand von dem Benutzer U werden auf Grundlage von Lagedetektionsinformationen oder dergleichen gesteuert, die von der Bedienungsvorrichtung 30 an die Steuereinheit 13 der Steuervorrichtung 10 geliefert werden. Es sei angemerkt, dass der Benutzer U die Bedienungseinheit 33 der Bedienungsvorrichtung 30 bedienen kann und eine Steuerung auf Grundlage der durch die Bedienung erhaltenen Bedienungsinformationen durchgeführt werden kann.
  • In dem in 8 veranschaulichten Beispiel wird das in 7 veranschaulichte Miniaturmodell M in einen Zustand bewegt, in dem es vom Benutzer U von einer oberen linken Position aus gesehen wird. Es sei angemerkt, dass sich nicht das Miniaturmodell M, sondern der Benutzer U bewegen kann, oder dass sich der Benutzer U bewegen kann, während er das Miniaturmodell M bewegt.
  • In dem in 9 veranschaulichten Beispiel wird bestimmt, dass die Position des virtuellen Benutzerblickpunkts relativ zu dem Miniaturmodell M eine Position ist, an der sich der Benutzer U und das Miniaturmodell M einander nähern, indem aus dem in 8 veranschaulichten Zustand in das Miniaturmodell M geblickt wird. Beispielsweise kann die Position des virtuellen Benutzerblickpunkts auf Grundlage dessen bestimmt werden, ob das Miniaturmodell M für eine vorbestimmte Zeitdauer oder länger betrachtet wird oder nicht. Es sei angemerkt, dass der Benutzer U durch Bedienen der Bedienungseinheit 33 der Bedienungsvorrichtung 30 direkt eine Anweisung geben kann.
  • Insbesondere wird die Position des virtuellen Benutzerblickpunkts relativ zu dem Miniaturmodell M durch eine Koordinatenposition (Miniaturkoordinatensystem-Blickpunktposition) mit einer vorbestimmten Position in dem virtuellen Raum als Bezugspunkt dargestellt. Dann wird eine Position des virtuellen Benutzerblickpunkts in dem VR-Raum entsprechend der Blickpunktposition (VR-Raum-Koordinatensystem-Blickpunktposition) als Reaktion auf die Bestimmung der Miniaturkoordinatensystem-Blickpunktposition bestimmt. Details dieser Entsprechung werden später beschrieben. Insbesondere wird die Position des virtuellen Benutzerblickpunkts in dem VR-Raum durch eine Koordinatenposition (VR-Raum-Koordinatensystem-Blickpunktposition) mit einer vorbestimmten Position in dem virtuellen Raum als Bezugspunkt dargestellt.
  • Als Nächstes wird der VR-Raum S gelöscht (ein VR-Raum-gelöscht-Zustand E), wie in 10 veranschaulicht. In dem veranschaulichten Beispiel wird der VR-Raum S gelöscht, indem ein Abschnitt angezeigt wird, in dem der VR-Raum S außer dem Miniaturmodell M in Schwarz angezeigt wird, um eine dunkle Anzeige durchzuführen. Es sei angemerkt, dass das Löschen des VR-Raums S durch jede Anzeige durchgeführt werden kann, die ein reibungsloses Umschalten einer Szene ermöglicht, und beispielsweise durch Anzeigen einer anderen Farbe als Schwarz, wie etwa Weiß oder Grau, oder durch Ausblenden durchgeführt werden kann.
  • Außerdem wird zusätzlich zum Löschen des VR-Raums S ein Bewegungseffekt auf der Anzeige des Anzeigebilds gestartet, wie in 5 veranschaulicht. Nach dem Start des Bewegungseffekts wird eine Bewegung des virtuellen Benutzerblickpunkts in dem VR-Raum S (VR-Raum-Koordinatensystembewegung) auf Grundlage der Blickpunktposition (VR-Koordinatensystem-Blickpunktkoordinate) in dem wie oben beschrieben bestimmten VR-Raum S durchgeführt, und der Bewegungseffekt wird abgeschlossen. Dann wird als Ergebnis der VR-Raum S nach der Bewegung des virtuellen Benutzerblickpunkts angezeigt (ein Bewegungsziel-VR-Raum-Anzeigezustand F), wie in 11 veranschaulicht. In dem veranschaulichten Beispiel wird der VR-Raum S nach der Blickpunktbewegung hinter dem Miniaturmodell M angezeigt. Beispielsweise kann die Anzeige des VR-Raums S eingeblendet werden. Daher kann der VR-Raum S ohne unangenehmes Gefühl angezeigt werden.
  • Nachdem der VR-Raum S nach der Blickpunktbewegung angezeigt wird, wird die Anzeige des Miniaturmodells M gelöscht, wie in 12 veranschaulicht. Das heißt, das Miniaturmodell M ist verborgen (ein Miniatur-gelöscht-Zustand G). Es sei angemerkt, dass das Miniaturmodell M durch Ausblenden gelöscht werden kann, um ein unangenehmes Gefühl zu beseitigen. Die Steuerung des Anzeigebilds, begleitet von der Blickpunktänderung, endet mit dem Löschen des Miniaturmodells M.
  • In einem Fall, in dem die Blickpunktänderung erneut an einem Blickpunktänderungsziel durchgeführt wird, wird das Miniaturmodell M erneut angezeigt (ein Miniaturanzeigezustand B1), um das Anzeigebild wie in 13 veranschaulicht zu steuern, was dem oben beschriebenen Fall ähnlich ist. In dem veranschaulichten Beispiel wird das gleiche Miniaturmodell M wie das in 6 veranschaulichte angezeigt. Es sei angemerkt, dass das Miniaturmodell M in dem Zustand nach der in 12 veranschaulichten Bewegung angezeigt werden kann.
  • Das Miniaturmodell M ist nicht auf eines beschränkt, das alle Anzeigeobjekte in dem vorbestimmten VR-Raum S aufweist, wie es unter Bezugnahme auf 6 bis 13 beschrieben wurde, und kann eines sein, das durch den Benutzer U teilweise aus den Anzeigeobjekten in dem vorbestimmten VR-Raum S ausgewählt wird, wie unten beschrieben. Es sei angemerkt, dass die folgende Beschreibung dem oben beschriebenen Fall (dem unter Bezugnahme auf 6 bis 13 beschriebenen Fall) ähnlich ist, außer dass die Anzeige des Miniaturmodells M anders ist, und auf die Beschreibung davon entsprechend verzichtet wird.
  • Die Steuerung des Anzeigebilds, begleitet von der Blickpunktänderung, beginnt in diesem Fall bei einem Zustand (dem Anfangszustand A), in dem der VR-Raum S durch das Anzeigebild angezeigt wird, wie in 14 veranschaulicht. In dem veranschaulichten Beispiel ist der dem in 6 veranschaulichten VR-Raum S ähnliche zu sehen.
  • Dann wird, wenn aus dem Anfangszustand A eine Anweisung zum Einschalten der Miniaturanzeige erfolgt, das aus den Anzeigeobjekten des VR-Raums S ausgewählte Miniaturmodell M zusammen mit dem oben beschriebenen VR-Raum S angezeigt (der Miniaturanzeigezustand B), wie in 15 veranschaulicht. In dem veranschaulichten Beispiel wird das Miniaturmodell M des Bärenornaments, das durch den Benutzer U aus dem in 14 veranschaulichten Innenraum ausgewählt wird, angezeigt. Insbesondere wählt und bestimmt der Benutzer U unter Verwendung der Bedienungsvorrichtung 30 ein beliebiges Ziel aus den Anzeigeobjekten in dem VR-Raum aus, wodurch das Miniaturmodell M angezeigt wird. Es sei angemerkt, dass das Auswahlverfahren nicht darauf beschränkt ist, und zum Beispiel eine Bildgebungsvorrichtung eine Bestrahlung eines Laserpointers lesen kann, die von dem Benutzer U durchgeführt wird, und ein Ziel eines Bestrahlungspunkts als das Miniaturmodell M ausgewählt werden kann. Daher kann der Benutzer U das Ziel leicht auswählen. Es sei angemerkt, dass der Laserpointer in der Bedienungsvorrichtung 30 enthalten sein kann oder individuell in dem Informationsverarbeitungssystem 1 bereitgestellt sein kann.
  • Dann wird eine Positionsbeziehung zwischen einem virtuellen Benutzerblickpunkt und dem Miniaturmodell M durch den Benutzer U aus dem Miniaturanzeigezustand B bewegt (ein Blickpunkt-bewegt-Zustand C), und jede vom Benutzer U gewünschte Positionsbeziehung wird bestimmt, wie in 16 veranschaulicht. Das heißt, eine Position des virtuellen Benutzerblickpunkts relativ zu dem Miniaturmodell M wird bestimmt (ein Blickpunkt-bestimmt-Zustand D).
  • Dann wird eine Miniaturkoordinatensystem-Blickpunktposition als Reaktion auf die Bestimmung der Blickpunktposition bestimmt, und eine der Miniaturkoordinatensystem-Blickpunktposition entsprechende VR-Raum-Koordinatensystem-Blickpunktposition wird bestimmt.
  • Als Nächstes wird der VR-Raum S gelöscht (insbesondere dunkel angezeigt) (der VR-Raum-gelöscht-Zustand E), wie in 17 veranschaulicht. Außerdem wird zusätzlich zum Löschen des VR-Raums S ein Bewegungseffekt auf der Anzeige des Anzeigebilds gestartet. Nach dem Start des Bewegungseffekts wird eine VR-Raum-Koordinatensystembewegung auf Grundlage der VR-Raum-Koordinatensystem-Blickpunktposition durchgeführt, und der Bewegungseffekt wird abgeschlossen. Dann wird als Ergebnis der VR-Raum S nach der Bewegung des virtuellen Benutzerblickpunkts angezeigt (der Bewegungsziel-VR-Raum-Anzeigezustand F), wie in 18 veranschaulicht.
  • Nachdem der VR-Raum S nach der Blickpunktbewegung angezeigt wird, wird die Anzeige des Miniaturmodells M gelöscht, wie in 19 veranschaulicht. Das heißt, das Miniaturmodell M ist verborgen (ein Miniatur-gelöscht-Zustand G). Die Steuerung des Anzeigebilds, begleitet von der Blickpunktänderung, endet mit diesem Löschen des Miniaturmodells M.
  • 20 ist eine Ansicht, die ein Anzeigebeispiel des Miniaturmodells M veranschaulicht. In dem veranschaulichten Beispiel wird die Bedienungsvorrichtung 30 virtuell angezeigt, das heißt, ein virtueller Controller C für manuelle Bedienung, der der Bedienungsvorrichtung 30 entspricht, wird angezeigt, um das Miniaturmodell M auf dem Controller C anzuzeigen. Zum Beispiel zeigt der Controller C Informationen in der Nähe der Hand des Benutzers U an. Die Anzeige des Controllers C wird so gesteuert, dass sich die Steuereinheit 13 der Steuervorrichtung 10 unter Verwendung von von der Bedienungsvorrichtung 30 bereitgestellten Lagedetektionsinformationen zusammen mit der Bedienungsvorrichtung 30 bewegt (die gleiche Bewegung wie die Bedienungsvorrichtung 30). Da das Miniaturmodell M auf diese Weise auf dem Controller C angezeigt wird, kann der Benutzer U das Miniaturmodell M intuitiv und einfach bewegen. Beispielsweise kann in diesem Fall das Miniaturmodell M durch Drehen des Miniaturmodells M um den mittleren Abschnitt des Controllers C ohne ein unangenehmes Gefühl in Übereinstimmung mit der Bewegung der Bedienungsvorrichtung 30 bedient werden. Zum Beispiel wird bei einem Inhalt eines Konzertbilds oder dergleichen der Benutzer U veranlasst, aus einer mehreren Personen einen Lieblingskünstler auszuwählen, und ein Miniaturmodell des ausgewählten Künstlers wird auf dem virtuellen Controller C angezeigt. Auf diese Weise ist es möglich, ein bevorzugtes Ziel aus einer bevorzugten Position und einem bevorzugten Winkel zu betrachten. Darüber hinaus ist es möglich, das Betrachten näher am bevorzugten Ziel durchzuführen. Es sei angemerkt, dass das unter Bezugnahme auf 6 bis 13 beschriebene Miniaturmodell M gleichermaßen angezeigt werden kann.
  • Als Nächstes wird eine Anzeigesteuerverarbeitung durch die Steuervorrichtung 10, die die Steuerung des Anzeigebilds durchführt, ausführlich beschrieben. 21 ist ein Flussdiagramm, das ein Beispiel eines Flusses der Anzeigesteuerverarbeitung durch die Steuereinheit 13 der Steuervorrichtung 10 veranschaulicht. Es sei angemerkt, dass die folgende Verarbeitung in einer geänderten Reihenfolge durchgeführt werden kann, solange es im jeweiligen Prozess kein Problem gibt.
  • Bei dieser Anzeigesteuerungsverarbeitung wird zuerst eine Steuerung zum Anzeigen des Miniaturmodells M als Reaktion auf eine Anweisung zur Miniaturanzeige durchgeführt (Schritt S1). Beispielsweise wird die Anweisung zur Miniaturanzeige durch den Benutzer U unter Verwendung der Bedienungsvorrichtung 30 angewiesen.
  • Als Nächstes wird auf Grundlage von von der Anzeigevorrichtung 20 bereitgestellten Lagedetektionsinformationen oder dergleichen bestimmt, ob der Benutzer U das Miniaturmodell M betrachtet oder nicht, und ein Hintergrundprozess zum Verwischen des Hintergrunds des Miniaturmodells M, damit er unauffällig ist, wird durchgeführt, falls bestimmt wird, dass der Benutzer betrachtet (Schritt S2). Wenn der Hintergrund unscharf ist, kann sich der Benutzer U auf das Miniaturmodell M konzentrieren. Es sei angemerkt, dass dieser Hintergrundprozess nicht auf das Verwischen beschränkt ist und durch eine Anzeige mit weißer Füllung oder dergleichen durchgeführt werden kann und zweckmäßig nach Bedarf durchgeführt werden kann.
  • Als Nächstes wird bestimmt, ob der Benutzer auf ein Ziel blickt, das ein Bezugspunkt für die Blickpunktänderung sein soll, also das Miniaturmodell M (Schritt S3). Wird in Schritt S3 bestimmt, dass das Ziel nicht betrachtet wird (NEIN), wird der Prozess in Schritt S3 wiederholt, bis bestimmt wird, dass das Ziel betrachtet wird. Beispielsweise kann in einem Fall, in dem bestimmt wird, dass das Ziel selbst nach Ablauf einer vorbestimmten Zeitdauer nicht betrachtet wird, das Miniaturmodell M gelöscht werden, um die Verarbeitung zu beenden.
  • In einem Fall, in dem in Schritt S3 bestimmt wird, dass das Ziel betrachtet wird (JA), wird eine Position des Benutzerblickpunkts in einem Weltkoordinatensystem (VR-Raum-Koordinatensystem-Blickpunktposition) auf Grundlage einer Position des Benutzerblickpunkt in einem wie oben beschrieben bestimmten lokalen Koordinatensystem (Miniaturkoordinatensystem-Blickpunktposition) berechnet (Schritt S4). Insbesondere wird die Position des Benutzerblickpunkts im Weltkoordinatensystem (VR-Raum-Koordinatensystem-Blickpunktposition) auf Grundlage eines Positionsvektors des Benutzerblickpunkts im lokalen Koordinatensystem berechnet. Diese VR-Raum-Koordinatensystem-Blickpunktposition lässt sich durch ein bekanntes Berechnungsverfahren erhalten.
  • 22 ist eine Ansicht, die ein Beispiel einer Beziehung zwischen dem lokalen Koordinatensystem und dem Weltkoordinatensystem veranschaulicht. 22A veranschaulicht ein Beispiel der Position des virtuellen Benutzerblickpunkts im lokalen Koordinatensystem, und 22B veranschaulicht ein Beispiel der Position des virtuellen Benutzerblickpunkts im Weltkoordinatensystem. Die Steuereinheit 13 erhält eine Position (Koordinate) des virtuellen Benutzerblickpunkts in dem Weltkoordinatensystem mit dem gleichen Erscheinungsbild wie ein Erscheinungsbild, wenn der Benutzer U von dem virtuellen Benutzerblickpunkt im lokalen Koordinatensystem auf einen Betrachtungspunkt (einen Kopf des Miniaturmodells M) blickt. Es sei angemerkt, dass eine Sichtlinienausrichtung die gleiche ist wie die im lokalen Koordinatensystem und beispielsweise durch die von der Anzeigevorrichtung 20 bereitgestellten Lagedetektionsinformationen spezifiziert werden kann. Beispielsweise wird die Position des virtuellen Benutzerblickpunkts im Weltkoordinatensystem durch Koordinatenumwandlung der Position des Benutzerblickpunkts im lokalen Koordinatensystem in die Position des Benutzerblickpunkts im Weltkoordinatensystem erhalten. Zu diesem Zeitpunkt wird eine Maßstabsumwandlung durchgeführt, sodass das Miniaturmodell M und ein Ziel V in dem VR-Raum S vom Benutzer U aus das gleiche Erscheinungsbild aufweisen. Da die Position des virtuellen Benutzerblickpunkts und die Sichtlinienausrichtung in dem VR-Raum S auf diese Weise spezifiziert werden, ist es möglich, das gleiche Erscheinungsbild wie das Erscheinungsbild des Miniaturmodells M in dem VR-Raum S zu erhalten.
  • Wie in 21 veranschaulicht, wird nach der Berechnung der VR-Raum-Koordinatensystem-Blickpunktposition die Breite der binokularen Parallaxe beispielsweise unter Verwendung des Abstands zwischen dem virtuellen Benutzerblickpunkt und dem Betrachtungspunkt in einem Originalgrößenraum (VR-Raum) berechnet (Schritt S5). Es sei angemerkt, dass sich die Breite der binokularen Parallaxe durch ein bekanntes Berechnungsverfahren berechnen lässt. Hier führt die Anzeigevorrichtung 20 gemäß der vorliegenden Ausführungsform eine dreidimensionale (3D-) Anzeige (Anzeige eines stereoskopischen Ansichtsbilds) unter Verwendung der binokularen Parallaxe durch. Insbesondere stellt die oben beschriebene Anzeigeeinheit 23 dem linken Auge und dem rechten Auge des Benutzers U unabhängig Bilder von unterschiedlichen Blickpunkten bereit, um ein stereoskopisches Bild hinter der Anzeigevorrichtung 20 anzuzeigen. Das heißt, die Steuervorrichtung 10 erzeugt stereoskopische Ansichtsbilder (Bild für das linke Auge und Bild für das rechte Auge) als Anzeigebilder und steuert die Anzeige so, dass das erzeugte Bild für das linke Auge und das erzeugte Bild für das rechte Auge jeweils auf dem linken Auge und dem rechten Auge des Benutzers U angezeigt werden. Das Bild für das linke Auge und das Bild für das rechte Auge werden so erzeugt, dass sie die binokulare Parallaxe (Abstand zwischen entsprechenden Punkten des Bilds für das rechte Auge und das Bild für das linke Auge auf einer Paneloberfläche) auf einem Anzeigepanel gemäß einem Augenabstand (Pupillenabstand: IPD) des Benutzers U aufweisen. Das Verfahren der 3D-Anzeige ist nicht auf das oben beschriebene Verfahren beschränkt und kann beispielsweise ein Verfahren zum Projizieren eines stereoskopischen Bilds zwischen dem Anzeigepanel und dem Benutzer U oder dergleichen sein. Es sei angemerkt, dass eine spezielle Verwendung der Breite der binokularen Parallaxe, die durch die oben beschriebene Berechnung erhalten wird, später beschrieben wird.
  • Als Nächstes wird der VR-Raum S gelöscht (insbesondere abgedunkelt), indem ein Bewegungseffekt in der Peripherie des Sichtfelds mit dem Betrachtungspunkt als Mittelpunkt hervorgebracht wird (Schritt S6). Das heißt, der VR-Raum S um das durch den Benutzer U betrachtete Miniaturmodell M wird gelöscht.
  • Wird die 3D-Anzeige wie oben beschrieben durchgeführt, so wird ein stereoskopischer Effekt stark empfunden, wenn der Abstand zu einem Anzeigeobjekt klein ist, aber der stereoskopische Effekt wird abgeschwächt, wenn der Abstand zu dem Anzeigeobjekt groß ist. Das heißt, ein fernes Anzeigeobjekt erscheint ebener als ein nahes Anzeigeobjekt. Wenn das Miniaturmodell M wie oben beschrieben gelöscht werden soll, wird daher das unangenehme Gefühl aufgrund einer plötzlichen Änderung des stereoskopischen Effekts erzeugt, wenn das Löschen plötzlich durchgeführt wird, um auf zur realen Größe des VR-Raums S zu wechseln. In der vorliegenden Ausführungsform wird daher der stereoskopische Effekt des Miniaturmodells M allmählich dem stereoskopischen Effekt des VR-Raums S (Ziels V) nach dem Löschen des Miniaturmodells M angeglichen, bevor das Miniaturmodell M gelöscht wird, um den VR-Raum anzuzeigen, aus dem das Miniaturmodell M gelöscht wird, anstatt das Löschen plötzlich durchzuführen, um die Anzeige zum Zeitpunkt des Löschens des Miniaturmodells M zum Anzeigen des VR-Raums, aus dem das Miniaturmodell M gelöscht wird, umzuschalten. Insbesondere wird der stereoskopische Effekt angepasst, indem die binokulare Parallaxe des oben beschriebenen Anzeigebilds allmählich geändert wird. Das heißt, die binokulare Parallaxe auf dem Anzeigepanel wird allmählich geändert, um den stereoskopischen Effekt allmählich an den stereoskopischen Effekt zum Zeitpunkt des Betrachtens des VR-Raums S anzugleichen. Insbesondere kann die binokulare Parallaxe auf dem Anzeigepanel durch Ändern des Augenabstands geändert werden. Beispielsweise kann der Augenabstand gesteuert werden, indem der Abstand zwischen den virtuellen Kameras angepasst wird, wenn das Anzeigebild erzeugt wird. Das heißt, der Augenabstand kann geändert werden, indem der Abstand zwischen einer virtuellen Kamera für das linke Auge und einer virtuellen Kamera für das rechte Auge durch Software angepasst wird.
  • Daher wird, wie in 21 veranschaulicht, nach dem Löschen des VR-Raums S in Schritt S6, der Augenabstand allmählich geändert, bis die binokulare Parallaxe die gleiche wie die in dem Originalgrößenraum (VR-Raum) wird (Schritt S7). Das heißt, die Breite der binokularen Parallaxe wird allmählich geändert, sodass sie gleich der Breite der binokularen Parallaxe ist, die durch die oben beschriebene Berechnung erhalten wird. Dann wird eine aktuelle Blickpunktposition des aktuellen VR-Raums S aktualisiert (der VR-Raum, nachdem der virtuelle Benutzerblickpunkt bewegt wurde, wird angezeigt) (Schritt S8), und das Miniaturmodell M wird schließlich gelöscht (Schritt S9), um die Verarbeitung zu beenden.
  • 23 ist eine Ansicht zum Beschreiben eines Beispiels einer Augenabstandssteuerung zum Zeitpunkt des Löschens des Miniaturmodells M. Die linke Seite (stromaufwärtige Seite) von 23 veranschaulicht einen Zustand, in dem der Benutzer U das Miniaturmodell M betrachtet, und die rechte Seite (stromabwärtige Seite) von 23 veranschaulicht einen Zustand, in dem der Benutzer U das Ziel V in dem VR-Raum nach dem Löschen des Miniaturmodells M betrachtet. Ein Augenabstand IPD in einem normalen Zustand wird im Voraus gemäß Positionen beider Augen des Benutzers U eingestellt. Dann werden in einem Fall, in dem der Benutzer das Miniaturmodell M, das Ziel V in dem virtuellen Raum und dergleichen betrachtet, ein Bild für das linke Auge und ein Bild für das rechte Auge auf Grundlage dieser Einstellung als Anzeigebilder erzeugt. Insbesondere werden das Bild für das linke Auge und das Bild für das rechte Auge durch zwei virtuelle Kameras (virtuelle Kamera für das linke Auge und virtuelle Kamera für das rechte Auge), die den Augenpositionen L bzw. R des Benutzers U entsprechen, erzeugt. Dann wird das erzeugte Bild für das linke Auge auf einem Anzeigepanel für das linke Auge angezeigt, und das Bild für das rechte Auge wird auf einem Anzeigepanel für das rechte Auge angezeigt. Daher kann der Benutzer ein stereoskopisches Bild wahrnehmen.
  • Wie oben beschrieben, wird das unangenehme Gefühl erzeugt, wenn das plötzliche Wechseln von dem Zustand auf der linken Seite zu dem Zustand auf der rechten Seite in 23 durchgeführt wird, wenn das Miniaturmodell M gelöscht wird, um den VR-Raum anzuzeigen, aus dem das Miniaturmodell M gelöscht wird. Daher wird vor dem Löschen des Miniaturmodells M der Augenabstand IPD angepasst (allmählich verengt), um den gleichen stereoskopischen Effekt wie den stereoskopischen Effekt im Fall des Betrachtens des Ziels V in dem VR-Raum zu erzielen, wie im mittleren Abschnitt (strommittiger Teil) von 23 veranschaulicht. 24 ist eine Ansicht zum Beschreiben einer binokularen Parallaxe, die durch Ändern des Augenabstands IPD gesteuert wird. Es sei angemerkt, dass ein Bild für das linke Auge und ein Bild für das rechte Auge in 24 überlappend angezeigt werden. Beispielsweise wird angenommen, dass die binokulare Parallaxe beim Betrachten des Miniaturmodells M P1 ist, wie im oberen Teil veranschaulicht, und die binokulare Parallaxe beim Betrachten des Ziels V in dem VR-Raum P2 ist, wie im unteren Teil veranschaulicht. Die binokulare Parallaxe P1 ist der Abstand zwischen dem Miniaturmodell M (linkes Auge) des Bilds für das linke Auge und dem Miniaturmodell M (rechtes Auge) des Bilds für das rechte Auge, und die binokulare Parallaxe P2 ist der Abstand zwischen dem Ziel V (links Auge) des Bilds für das linke Auge und das Ziel V (rechtes Auge) des Bilds für das rechte Auge.
  • In diesem Fall wird der Augenabstand IPD geändert, bis die binokulare Parallaxe P1 allmählich auf P2 geändert wird, bevor das Miniaturmodell M gelöscht wird. Beispielsweise wird bei dem veranschaulichten Beispiel der stereoskopische Effekt allmählich abgeschwächt. Zu diesem Zeitpunkt ist es vorzuziehen, einen Modus und eine Zeit einer Änderung einzustellen (zum Beispiel in einem Grad, den der Benutzer U nicht bemerkt), die kein unangenehmes Gefühl verursachen. Daher ist es möglich, das unangenehme Gefühl zu reduzieren, das durch eine plötzliche Änderung des wahrgenommenen Abstands zu dem Ziel V in dem VR-Raum S verursacht wird, wenn das Miniaturmodell M gelöscht wurde. Daher ist die Tatsache, dass sich der stereoskopische Effekt allmählich ändert (in dem veranschaulichten Beispiel abgeschwächt wird), der einzige Unterschied im Erscheinungsbild (Änderung des Bilds), sodass gemäß der vorliegenden Ausführungsform eine natürliche Blickpunktänderung möglich wird.
  • Wie oben beschrieben, bewegt sich der Benutzer U unter der Steuerung der Steuereinheit 13 nahtlos (während er das Miniaturmodell M betrachtet) zu einer Stelle, an der das gleiche Erscheinungsbild wie das des vom Miniaturmodell M aus gesehenen Blickpunkts erhalten wird. Da der Blickpunkt nahtlos geändert wird, indem das Erscheinungsbild mit dem Miniaturmodell M bestätigt wird, wird der Blickpunkt geändert, während eine Eigenposition in dem VR-Raum wahrgenommen wird (ohne dass eine kontinuierliche Bewegung erforderlich ist). Daher können Beschwerden wie Bewegungskrankheit des Benutzers dramatisch verringert werden. Das heißt, wenn das Miniaturmodell M gelöscht wird, wird das gleiche wie das Miniaturmodell M, das betrachtet wurde, als betrachtet angezeigt, und somit wird keine VR-Bewegungskrankheit verursacht und es wird keine Verwirrung verursacht.
  • <2. Schlussbemerkung>
  • Wie oben beschrieben, führt die Steuereinheit 13 während der Steuerung der Anzeige des VR-Raums S, begleitet von der Blickpunktänderung, eine Steuerung durch zum Anzeigen des Miniaturmodells M des VR-Raums S in einer Weise, die auf ein beliebiges von dem Benutzer U gewünschtes Erscheinungsbild geändert werden kann, und zum Anzeigen des VR-Raums S durch Bewegen des virtuellen Benutzerblickpunkts zu einer Position in dem VR-Raum S, an der das gleiche Erscheinungsbild wie ein Erscheinungsbild des Miniaturmodells M erhalten wird.
  • Daher kann der Benutzer U das Miniaturmodell M aus einer beliebigen Position betrachten und die Position des virtuellen Benutzerblickpunkts frei wählen. Da das Erscheinungsbild das gleiche ist wie das Erscheinungsbild des Miniaturmodells M, ist es möglich, das Erscheinungsbild kontinuierlich zu bestätigen, selbst wenn die Position des virtuellen Benutzerblickpunkts diskontinuierlich ist (der Blickpunkt diskret wird geändert). Darüber hinaus ist es möglich, sich zu einer gewünschten Blickpunktposition zu bewegen, ohne von einer kontinuierlichen Bewegung begleitet zu werden und ohne Diskontinuität zu wahrzunehmen. Das heißt, es ist möglich, den Blickpunkt zu bewegen, ohne von einer kontinuierlichen Bewegung begleitet zu werden, während eine Eigenposition im Originalgrößenraum wahrgenommen wird.
  • Obgleich die Ausführungsform der vorliegenden Technologie oben spezifisch beschrieben wurde, ist die vorliegende Technologie nicht auf die oben beschriebene Ausführungsform beschränkt, und es sind verschiedene Modifikationen basierend auf der technischen Idee der vorliegenden Technologie möglich. Zum Beispiel sind verschiedene Modifikationen, wie sie unten beschrieben sind, möglich. Ferner können ein oder mehrere beliebig ausgewählte Modi der im Folgenden beschriebenen Modifikationen geeignet kombiniert werden. Ferner können die Konfigurationen, Verfahren, Schritte, Formen, Materialien, numerischen Werte und dergleichen der oben beschriebenen Ausführungsform miteinander kombiniert werden, ohne vom Kern der vorliegenden Technologie abzuweichen.
  • Das Anzeigebild wurde in der oben beschriebenen Ausführungsform als stereoskopisches Ansichtsbild (3D-Bild) beschrieben, kann aber auch ein 2D-Bild sein.
  • Obgleich das durch Reduzieren des Ziels V erhaltene Miniaturmodell in der oben beschriebenen Ausführungsform als das Modell des VR-Raums beispielhaft dargestellt wurde, kann das Modell durch gleichartige Vergrößerung des Ziels V erhalten werden.
  • Obgleich die Kopie des Ziels V in der oben beschriebenen Ausführungsform als das Modell des VR-Raums beispielhaft dargestellt wurde, kann das Modell des VR-Raums eines sein, das klarer ist als das Ziel V, kann eines sein, das durch Vereinfachen oder Verformen des Ziels V oder dergleichen erhalten wird.
  • Es sei angemerkt, dass die vorliegende Technologie auch die folgenden Konfigurationen aufweisen kann.
    • (1) Eine Informationsverarbeitungsvorrichtung, die Folgendes aufweist:
      • eine Steuereinheit, die während einer Steuerung einer Anzeige eines virtuellen Raums, begleitet von einer Blickpunktänderung, eine Steuerung zum Anzeigen eines Modells des virtuellen Raums auf eine Weise, die auf ein beliebiges von einem Benutzer gewünschtes Erscheinungsbild geändert werden kann, und zum Anzeigen des virtuellen Raums durch Bewegen eines virtuellen Benutzerblickpunkts zu einer Position in dem virtuellen Raum, an der das gleiche Erscheinungsbild wie ein Erscheinungsbild des Modells erhalten wird, durchführt.
    • (2) Die Informationsverarbeitungsvorrichtung nach (1), wobei die Steuereinheit den virtuellen Raum aus dem bewegten virtuellen Benutzerblickpunkt anzeigt und dann das Modell löscht, um den virtuellen Raum anzuzeigen, aus dem das Modell gelöscht wurde.
    • (3) Die Informationsverarbeitungsvorrichtung nach (2), wobei die Steuereinheit vor dem Löschen des Modells, um den virtuellen Raum anzuzeigen, aus dem das Modell gelöscht wurde, allmählich einen stereoskopischen Effekt des Modells so einstellt, dass er mit einem stereoskopischen Effekt des virtuellen Raums nach dem Löschen des Modells identisch ist.
    • (4) Die Informationsverarbeitungsvorrichtung nach (3), wobei die Steuereinheit den stereoskopischen Effekt durch allmähliches Ändern der binokularen Parallaxe eines Anzeigebilds anpasst.
    • (5) Die Informationsverarbeitungsvorrichtung nach (4), wobei die binokulare Parallaxe geändert wird, indem ein Augenabstand zwischen virtuellen Kameras geändert wird, wenn das Anzeigebild erzeugt wird.
    • (6) Die Informationsverarbeitungsvorrichtung nach einem von (1) bis (5), wobei die Steuereinheit das Modell so anzeigt, dass es an einer Position erscheint, die näher bei dem Benutzer ist als der virtuelle Raum.
    • (7) Die Informationsverarbeitungsvorrichtung nach einem von (1) bis (6), wobei das Modell in Bezug auf eine Anzeigegröße des virtuellen Raums vergrößert oder verkleinert ist.
    • (8) Die Informationsverarbeitungsvorrichtung nach einem von (1) bis (7), wobei das Modell eine Kopie des virtuellen Raums ist.
    • (9) Die Informationsverarbeitungsvorrichtung nach einem von (1) bis (8), wobei das Modell den gesamten virtuellen Raum, der durch ein Anzeigebild angezeigt wird, aufweist.
    • (10) Die Informationsverarbeitungsvorrichtung nach einem von (1) bis (9), wobei das Modell durch den Benutzer aus dem durch ein Anzeigebild angezeigten virtuellen Raum ausgewählt wird.
    • (11) Die Informationsverarbeitungsvorrichtung nach einem von (1) bis (10), wobei die Steuereinheit bewirkt, dass sich das anzuzeigende Modell zu einer Position mit beliebigem Erscheinungsbild bewegt.
    • (12) Die Informationsverarbeitungsvorrichtung nach (11), wobei sich das Modell zusammen mit der Bewegung einer durch den Benutzer bedienten Bedienungsvorrichtung bewegt.
    • (13) Die Informationsverarbeitungsvorrichtung nach einem von (1) bis (12), wobei die Steuereinheit virtuell eine durch den Benutzer zu bedienende Bedienungsvorrichtung virtuell anzeigt und das Modell an einer Position auf der virtuell angezeigten Bedienungsvorrichtung anzeigt.
    • (14) Die Informationsverarbeitungsvorrichtung nach einem von (1) bis (13), wobei die Steuereinheit einen Hintergrund des Modells so anzeigt, dass er nicht auffällt, wenn der Benutzer das Modell betrachtet.
    • (15) Die Informationsverarbeitungsvorrichtung nach einem von (1) bis (14), wobei die Steuereinheit den virtuellen Raum aus dem bewegten virtuellen Benutzerblickpunkt anzeigt, nachdem sie einen Teil außer dem Modell dunkel anzeigt.
    • (16) Ein Informationsverarbeitungsverfahren, das Folgendes aufweist:
      • Bewirken, dass ein Prozessor Folgendes durchführt:
        • Durchführen einer Steuerung, während einer Steuerung einer Anzeige eines virtuellen Raums, begleitet von einer Blickpunktänderung, zum Anzeigen eines Modells des virtuellen Raums auf eine Weise, die auf ein beliebiges von einem Benutzer gewünschtes Erscheinungsbild geändert werden kann, und zum Anzeigen des virtuellen Raums durch Bewegen eines virtuellen Benutzerblickpunkts zu einer Position in dem virtuellen Raum, an der ein gleiches Erscheinungsbild wie das Erscheinungsbild des Modells erhalten wird.
    • (17) Ein Programm, das bewirkt, dass ein Computer Folgendes durchführt:
      • Implementieren einer Steuerfunktion, während einer Steuerung einer Anzeige eines virtuellen Raums, begleitet von einer Blickpunktänderung, wobei die Steuerfunktion ausgelegt ist zum Anzeigen eines Modells des virtuellen Raums auf eine Weise, die auf ein beliebiges von einem Benutzer gewünschtes Erscheinungsbild geändert werden kann, und zum Anzeigen des virtuellen Raums durch Bewegen eines virtuellen Benutzerblickpunkts zu einer Position in dem virtuellen Raum, an der ein gleiches Erscheinungsbild wie das Erscheinungsbild des Modells erhalten wird.
  • Bezugszeichenliste
  • 1
    Informationsverarbeitungssystem
    10
    Steuerungsvorrichtung
    20
    Anzeigevorrichtung
    30
    Bedienungsvorrichtung
    13
    Steuereinheit
    C
    Controller
    M
    Miniaturmodell
    S
    VR-Raum
    P1, P2
    Binokulare Parallaxe
    IPD
    Augenabstand

Claims (17)

  1. Informationsverarbeitungsvorrichtung, die Folgendes aufweist: eine Steuereinheit, die während einer Steuerung einer Anzeige eines virtuellen Raums, begleitet von einer Blickpunktänderung, eine Steuerung zum Anzeigen eines Modells des virtuellen Raums auf eine Weise, die auf ein beliebiges von einem Benutzer gewünschtes Erscheinungsbild geändert werden kann, und zum Anzeigen des virtuellen Raums durch Bewegen eines virtuellen Benutzerblickpunkts zu einer Position in dem virtuellen Raum, an der ein gleiches Erscheinungsbild wie ein Erscheinungsbild des Modells erhalten wird, durchführt.
  2. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei die Steuereinheit den virtuellen Raum aus dem bewegten virtuellen Benutzerblickpunkt anzeigt und dann das Modell löscht, um den virtuellen Raum anzuzeigen, aus dem das Modell gelöscht wurde.
  3. Informationsverarbeitungsvorrichtung nach Anspruch 2, wobei die Steuereinheit vor dem Löschen des Modells, um den virtuellen Raum anzuzeigen, aus dem das Modell gelöscht wurde, allmählich einen stereoskopischen Effekt des Modells so einstellt, dass er mit einem stereoskopischen Effekt des virtuellen Raums nach dem Löschen des Modells identisch ist.
  4. Informationsverarbeitungsvorrichtung nach Anspruch 3, wobei die Steuereinheit den stereoskopischen Effekt durch allmähliches Ändern der binokularen Parallaxe eines Anzeigebilds anpasst.
  5. Informationsverarbeitungsvorrichtung nach Anspruch 4, wobei die binokulare Parallaxe geändert wird, indem ein Augenabstand zwischen virtuellen Kameras geändert wird, wenn das Anzeigebild erzeugt wird.
  6. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei die Steuereinheit das Modell so anzeigt, dass es an einer Position zu sehen ist, die näher bei dem Benutzer ist als der virtuelle Raum.
  7. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei das Modell in Bezug auf eine Anzeigegröße des virtuellen Raums vergrößert oder verkleinert ist.
  8. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei das Modell eine Kopie des virtuellen Raums ist.
  9. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei das Modell den gesamten virtuellen Raum, der durch ein Anzeigebild angezeigt wird, aufweist.
  10. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei das Modell durch den Benutzer aus dem durch ein Anzeigebild angezeigten virtuellen Raum ausgewählt wird.
  11. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei die Steuereinheit das Modell so anzeigt, dass es sich zu einer Position mit beliebigem Erscheinungsbild bewegt.
  12. Informationsverarbeitungsvorrichtung nach Anspruch 11, wobei sich das Modell zusammen mit der Bewegung einer durch den Benutzer bedienten Bedienungsvorrichtung bewegt.
  13. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei die Steuereinheit virtuell eine durch den Benutzer zu bedienende Bedienungsvorrichtung virtuell anzeigt und das Modell an einer Position auf der virtuell angezeigten Bedienungsvorrichtung anzeigt.
  14. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei die Steuereinheit einen Hintergrund des Modells so anzeigt, dass er nicht auffällt, wenn der Benutzer das Modell betrachtet.
  15. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei die Steuereinheit den virtuellen Raum aus dem bewegten virtuellen Benutzerblickpunkt anzeigt, nachdem sie einen Teil außer dem Modell dunkel anzeigt.
  16. Informationsverarbeitungsverfahren, das Folgendes aufweist: Bewirken, dass ein Prozessor Folgendes durchführt: Durchführen einer Steuerung, während einer Steuerung einer Anzeige eines virtuellen Raums, begleitet von einer Blickpunktänderung, zum Anzeigen eines Modells des virtuellen Raums auf eine Weise, die auf ein beliebiges von einem Benutzer gewünschtes Erscheinungsbild geändert werden kann, und zum Anzeigen des virtuellen Raums durch Bewegen eines virtuellen Benutzerblickpunkts zu einer Position in dem virtuellen Raum, an der ein gleiches Erscheinungsbild wie ein Erscheinungsbild des Modells erhalten wird.
  17. Programm, das bewirkt, dass ein Computer Folgendes durchführt: Implementieren einer Steuerfunktion, während einer Steuerung einer Anzeige eines virtuellen Raums, begleitet von einer Blickpunktänderung, wobei die Steuerfunktion ausgelegt ist zum Anzeigen eines Modells des virtuellen Raums auf eine Weise, die auf ein beliebiges von einem Benutzer gewünschtes Erscheinungsbild geändert werden kann, und zum Anzeigen des virtuellen Raums durch Bewegen eines virtuellen Benutzerblickpunkts zu einer Position in dem virtuellen Raum, an der ein gleiches Erscheinungsbild wie ein Erscheinungsbild des Modells erhalten wird.
DE112021002093.5T 2020-03-30 2021-03-24 Verfahren zum ändern des blickpunkts im virtuellen raum Pending DE112021002093T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020060165 2020-03-30
JP2020-060165 2020-03-30
PCT/JP2021/012319 WO2021200494A1 (ja) 2020-03-30 2021-03-24 仮想空間における視点変更方法

Publications (1)

Publication Number Publication Date
DE112021002093T5 true DE112021002093T5 (de) 2023-02-09

Family

ID=77928363

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021002093.5T Pending DE112021002093T5 (de) 2020-03-30 2021-03-24 Verfahren zum ändern des blickpunkts im virtuellen raum

Country Status (4)

Country Link
US (1) US20230118515A1 (de)
CN (1) CN115315684A (de)
DE (1) DE112021002093T5 (de)
WO (1) WO2021200494A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023011262A (ja) * 2021-07-12 2023-01-24 トヨタ自動車株式会社 仮想現実シミュレータ及び仮想現実シミュレーションプログラム
JP2023011264A (ja) 2021-07-12 2023-01-24 トヨタ自動車株式会社 仮想現実シミュレータ及び仮想現実シミュレーションプログラム
JP2023011263A (ja) 2021-07-12 2023-01-24 トヨタ自動車株式会社 仮想現実シミュレータ及び仮想現実シミュレーションプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6515813B2 (ja) * 2014-02-17 2019-05-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2016199451A1 (ja) * 2015-06-12 2016-12-15 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
EP3340024B1 (de) * 2015-09-25 2024-02-21 Sony Interactive Entertainment Inc. Informationsverarbeitungsvorrichtung
JP6597235B2 (ja) * 2015-11-30 2019-10-30 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6518578B2 (ja) * 2015-12-02 2019-05-22 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
JP2017182130A (ja) * 2016-03-28 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
JP6684746B2 (ja) * 2017-05-12 2020-04-22 株式会社コロプラ 情報処理方法、コンピュータ及びプログラム
JP2019040555A (ja) * 2017-08-29 2019-03-14 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10341537B2 (en) * 2017-09-29 2019-07-02 Sony Interactive Entertainment America Llc Spectator view into an interactive gaming world showcased in a live event held in a real-world venue
JP2019149122A (ja) * 2018-02-28 2019-09-05 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2019152980A (ja) * 2018-03-01 2019-09-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
WO2019187862A1 (ja) * 2018-03-30 2019-10-03 ソニー株式会社 情報処理装置、情報処理方法、および記録媒体
JP7349256B2 (ja) * 2019-04-23 2023-09-22 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および情報提示方法

Also Published As

Publication number Publication date
WO2021200494A1 (ja) 2021-10-07
CN115315684A (zh) 2022-11-08
US20230118515A1 (en) 2023-04-20

Similar Documents

Publication Publication Date Title
DE112021002093T5 (de) Verfahren zum ändern des blickpunkts im virtuellen raum
DE69515254T2 (de) Anzeigevorrichtung und ihre Kontrollmethode
DE69728633T2 (de) Vorrichtung und Verfahren zur Anzeige dreidimensionaler Bilder
DE60225933T2 (de) Tragbare virtuelle realität
DE69725875T2 (de) Videobetrachtungserfahrungen mit hilfe von standbildern
DE69601577T2 (de) Verfahren und einrichtung zur aufnahme stereoskopischer bilder
DE112017005879T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE19825302A1 (de) System zur Einrichtung einer dreidimensionalen Abfallmatte, welche eine vereinfachte Einstellung räumlicher Beziehungen zwischen realen und virtuellen Szeneelementen ermöglicht
DE102014006732A1 (de) Bildüberlagerung von virtuellen Objekten in ein Kamerabild
WO2009062492A2 (de) Verfahren zum darstellen von bildobjekten in einem virtuellen dreidimensionalen bildraum
DE112012000563B4 (de) Verfahren und Vorrichtung zum Senden/Empfangen eines digitalen Übertragungssignals
DE102015217226A1 (de) Vorrichtung und verfahren zur erzeugung eines modells von einem objekt mit überlagerungsbilddaten in einer virtuellen umgebung
DE69837165T2 (de) Verfahren und gerät für automatische animation von dreidimensionalen grafischen szenen für verbesserte 3-d visualisierung
DE102018130770A1 (de) Stereoskopische Wiedergabe von virtuellen 3D-Objekten
DE102018209377A1 (de) Verfahren zur Darstellung von AR-/VR-Inhalten auf einem mobilen Endgerät und mobiles Endgerät, auf dem AR-/VR-Inhalte dargestellt werden
DE102019129884A1 (de) 3d-kombinationsinstrument und verfahren zum kalibrieren desselben
DE102014217422A1 (de) Verfahren zum Steuern eines Datenflusses eines Spiegel-Verbindungsabschnittsystems
DE112021003465T5 (de) Informationsprozessor, informationsverarbeitungsverfahren und speichermedium
WO2019228780A1 (de) Konzept für die steuerung einer anzeige eines mobilen augmented-reality-gerätes
WO2014044661A1 (de) Clienteinrichtung zur darstellung von kamerabildern einer steuerbaren kamera, verfahren, computerprogramm sowie überwachungssystem mit der clienteinrichtung
DE112020003932T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und aufzeichnungsmedium
DE102020134814A1 (de) Vorrichtung zum Überwachen von Umgebungen eines Fahrzeugs
DE60129059T2 (de) 3D-visuelle Präsentationsmethode und Apparat für Autosimulator
WO2019096686A2 (de) Verfahren zur darstellung eines dreidimensionalen objekts sowie diesbezügliches computerprogrammprodukt, digitales speichermedium und computersystem
DE102015100680B4 (de) Verfahren und Vorrichtungen zur Umgebungsdarstellung