JP2016081476A - ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム - Google Patents

ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム Download PDF

Info

Publication number
JP2016081476A
JP2016081476A JP2014215565A JP2014215565A JP2016081476A JP 2016081476 A JP2016081476 A JP 2016081476A JP 2014215565 A JP2014215565 A JP 2014215565A JP 2014215565 A JP2014215565 A JP 2014215565A JP 2016081476 A JP2016081476 A JP 2016081476A
Authority
JP
Japan
Prior art keywords
head
display
user
mounted display
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014215565A
Other languages
English (en)
Other versions
JP2016081476A5 (ja
JP6340301B2 (ja
Inventor
洋輔 栗原
Yosuke Kurihara
洋輔 栗原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2014215565A priority Critical patent/JP6340301B2/ja
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to EP15852710.1A priority patent/EP3211513B1/en
Priority to US15/517,316 priority patent/US10379605B2/en
Priority to PCT/JP2015/079276 priority patent/WO2016063801A1/ja
Priority to CN201580055928.2A priority patent/CN106817913B/zh
Publication of JP2016081476A publication Critical patent/JP2016081476A/ja
Publication of JP2016081476A5 publication Critical patent/JP2016081476A5/ja
Application granted granted Critical
Publication of JP6340301B2 publication Critical patent/JP6340301B2/ja
Priority to US16/448,434 priority patent/US10620699B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】ヘッドマウントディスプレイのユーザの利便性を向上させる。
【解決手段】ヘッドマウントディスプレイ100は、ユーザの頭部に装着可能なヘッドマウントディスプレイであって、ヘッドマウントディスプレイ100がユーザの頭部に装着されたときに内側となる面に設けられた表示装置と、ヘッドマウントディスプレイ100がユーザの頭部に装着されたときに外側となる面に設けられた、ユーザの体の一部が接触又は近接したことを検知可能なタッチパッド140と、タッチパッド140により検知された、ユーザの体の一部が接触又は近接したことを示す入力情報に基づいて生成される画像のデータを取得し、取得した画像のデータを表示装置に表示する表示制御部と、を備える。
【選択図】図2

Description

本発明は、表示制御技術に関し、とくに、ヘッドマウントディスプレイ、表示制御プログラム、表示制御方法、及び表示システムに関する。
ゲーム機に接続されたヘッドマウントディスプレイを頭部に装着して、ヘッドマウントディスプレイに表示された画面を見ながら、コントローラなどを操作してゲームプレイすることが行われている。ゲーム機に接続された通常の据え置き型のディスプレイでは、ディスプレイの画面の外側にもユーザの視野範囲が広がっているため、ディスプレイの画面に集中できなかったり、ゲームへの没入感に欠けたりすることがある。その点、ヘッドマウントディスプレイを装着すると、ヘッドマウントディスプレイに表示される映像以外はユーザは見ないため、映像世界への没入感が高まり、ゲームのエンタテインメント性を一層高める効果がある。
本発明者は、より多くのユーザ層がヘッドマウントディスプレイを用いたゲームを楽しむことができるようにするためには、よりユーザフレンドリーな入力技術が必要であると認識した。
上記課題を解決するために、本発明のある態様のヘッドマウントディスプレイは、ユーザの頭部に装着可能なヘッドマウントディスプレイであって、ヘッドマウントディスプレイがユーザの頭部に装着されたときに内側となる面に設けられた表示装置と、ヘッドマウントディスプレイがユーザの頭部に装着されたときに外側となる面に設けられた、ユーザの体の一部が接触又は近接したことを検知可能な入力装置と、入力装置により検知された、ユーザの体の一部が接触又は近接したことを示す入力情報に基づいて生成される画像のデータを取得し、取得した画像のデータを表示装置に表示する表示制御部と、を備える。
本発明の別の態様は、表示制御方法である。この方法は、取得部が、ユーザの頭部に装着可能なヘッドマウントディスプレイがユーザの頭部に装着されたときに外側となる面に設けられた、ユーザの体の一部が接触又は近接したことを検知可能な入力装置により検知された、ユーザの体の一部が接触又は近接したことを示す入力情報に基づいて生成される画像のデータを取得するステップと、表示制御部が、取得部が取得した画像のデータを、ヘッドマウントディスプレイがユーザの頭部に装着されたときに内側となる面に設けられた表示装置に表示するステップと、を備える。
本発明のさらに別の態様は、表示システムである。この表示システムは、ユーザの頭部に装着可能なヘッドマウントディスプレイと、ヘッドマウントディスプレイに表示させる画像を生成する画像処理装置と、を備える。ヘッドマウントディスプレイは、ヘッドマウントディスプレイがユーザの頭部に装着されたときに内側となる面に設けられた表示装置と、ヘッドマウントディスプレイがユーザの頭部に装着されたときに外側となる面に設けられた、ユーザの体の一部が接触又は近接したことを検知可能な入力装置と、入力装置により検知された、ユーザの体の一部が接触又は近接したことを示す入力情報に基づいて生成される画像のデータを画像処理装置から取得し、取得した画像のデータを表示装置に表示する表示制御部と、を備える。画像処理装置は、入力情報を取得し、入力情報に基づいて、画像のデータを生成する画像生成部を備える。
本発明のさらに別の態様は、ヘッドマウントディスプレイである。このヘッドマウントディスプレイは、ユーザの頭部に装着可能なヘッドマウントディスプレイであって、ヘッドマウントディスプレイがユーザの頭部に装着されたときに内側となる面に設けられた表示装置と、ヘッドマウントディスプレイがユーザの頭部に装着されたときに外側となる面に装着される、ユーザの体の一部が接触又は近接したことを検知可能な入力装置により検知された、ユーザの体の一部が接触又は近接したことを示す入力情報に基づいて生成された画像のデータを取得し、取得した画像のデータを表示装置に表示する表示制御部と、を備える。
本発明のさらに別の態様は、携帯情報端末である。この携帯情報端末は、ユーザが携帯可能な携帯情報端末であって、ユーザの体の一部が接触又は近接したことを検知可能な入力装置と、ユーザの頭部に装着可能なヘッドマウントディスプレイがユーザの頭部に装着されたときにヘッドマウントディスプレイの外側となる面に携帯情報端末が装着されたときに、入力装置により検知された、ユーザの体の一部が接触又は近接したことを示す入力情報を、入力情報に基づいてヘッドマウントディスプレイに表示する画像を生成する装置に送信する通信部と、を備える。
本発明のさらに別の態様は、画像処理装置である。この装置は、ユーザの頭部に装着可能なヘッドマウントディスプレイがユーザの頭部に装着されたときにヘッドマウントディスプレイの外側となる面に装着された、ユーザの体の一部が接触又は近接したことを検知可能な入力装置により検知された、ユーザの体の一部が接触又は近接したことを示す入力情報を受信する受信部と、受信部により受信された入力情報に基づいて、ヘッドマウントディスプレイがユーザの頭部に装着されたときにヘッドマウントディスプレイの内側となる面に設けられた表示装置に表示すべき画像のデータを生成する生成部と、生成部により生成された画像のデータをヘッドマウントディスプレイに送信する送信部と、を備える。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、ヘッドマウントディスプレイのユーザの利便性を向上させることができる。
実施の形態に係るゲームシステムの使用環境を示す図である。 実施の形態に係るヘッドマウントディスプレイの外観図である。 ゲーム装置の機能構成図である。 ヘッドマウントディスプレイの機能構成図である。 ヘッドマウントディスプレイの制御部の機能構成図である。 携帯情報端末の機能構成図である。 ヘッドマウントディスプレイの表示装置に表示される画像の例を示す図である。 ヘッドマウントディスプレイの表示装置に表示される画像の例を示す図である。 携帯情報端末のタッチパネルを示す図である。 ヘッドマウントディスプレイの表示装置に表示される画像の例を示す図である。 ヘッドマウントディスプレイの表示装置に表示される画像の例を示す図である。 携帯情報端末のタッチパネルを示す図である。 ヘッドマウントディスプレイの表示装置に表示される画像の例を示す図である。 ヘッドマウントディスプレイの表示装置に表示される画像の例を示す図である。 携帯情報端末のタッチパネルを示す図である。 ヘッドマウントディスプレイの表示装置に表示される画像の例を示す図である。 ヘッドマウントディスプレイの表示装置に表示される画像の例を示す図である。 ヘッドマウントディスプレイの表示装置に表示される画像の例を示す図である。 携帯情報端末のタッチパネルを示す図である。 携帯情報端末のタッチパネルを示す図である。 ヘッドマウントディスプレイの表示装置に表示される画像の例を示す図である。 携帯情報端末のタッチパネルを示す図である。 ヘッドマウントディスプレイの表示装置に表示される画像の例を示す図である。 携帯情報端末のタッチパネルに表示される画像の例を示す図である。 携帯情報端末のタッチパネルに表示される画像の例を示す図である。 携帯情報端末のタッチパネルに表示される画像の例を示す図である。 携帯情報端末のタッチパネルに表示される画像の例を示す図である。 ヘッドマウントディスプレイの表示装置に表示される画像の例を示す図である。 ヘッドマウントディスプレイの表示装置の表示領域と、タッチパネル及びタッチパッドの入力領域との対応関係を示す図である。 ヘッドマウントディスプレイの表示装置に表示される画像の例を示す図である。 実施の形態に係る表示制御方法の手順を示すシーケンス図である。
ヘッドマウントディスプレイ(HMD)を用いた表示システムについて説明する。ヘッドマウントディスプレイは、ユーザの両眼を覆うようにユーザの頭部に装着して、ユーザの眼前に設けられた表示画面に表示される静止画や動画などを鑑賞するための表示装置である。ヘッドマウントディスプレイに表示される対象は、映画やテレビ番組などのコンテンツであってもよいが、本実施の形態では、ゲームの画像を表示するための表示装置としてヘッドマウントディスプレイが用いられる例について説明する。
図1は、実施の形態に係るゲームシステム1の使用環境を示す。ゲームシステム1は、ゲームプログラムを実行するゲーム装置10と、ユーザの指示をゲーム装置10に入力するための入力デバイス20と、ユーザの周囲の実空間を撮像する撮像装置14と、ゲーム装置10により生成されるゲーム画像を表示するヘッドマウントディスプレイ100とを備える。
本実施の形態では、ヘッドマウントディスプレイ100を装着したときにユーザの外側となる面に、ユーザによるタッチ入力を受け付けるための入力装置が設けられる。この入力装置に対する入力のみにより操作可能なゲームを実行する場合は、入力デバイス20は用いられなくてもよい。ヘッドマウントディスプレイ100を装着したとき、ユーザは周囲の状況を視認することができなくなるため、ヘッドマウントディスプレイ100を装着した後に入力デバイス20などの入力機器を探すことが困難である。また、入力デバイス20などの入力機器を大きく動かしたりすると周囲の障害物などにぶつかってしまうこともありうる。しかし、本実施の形態では、タッチ入力を受付可能な入力装置のみで入力を受け付けることもできるので、入力デバイス20を探す必要も振り回す必要もない。また、後述するように、タッチ入力を用いた直感的な入力インタフェースにより操作を行うことができるので、ゲームに慣れていないユーザでも使いやすいユーザフレンドリーな入力インタフェースを提供することができる。
この入力装置と入力デバイス20の双方により操作指示を受け付けるゲームを実行する場合は、例えば図1に示すように、右手で入力デバイス20を把持して操作しつつ、左手でヘッドマウントディスプレイ100の外面に設けられた入力装置に対する入力を行ってもよい。
ゲーム装置10は、入力デバイス20又はヘッドマウントディスプレイ100の外面に設けられた入力装置に対する指示入力に基づいてゲームプログラムを実行して、ゲームプログラムの処理結果を示す画像信号を生成し、生成した画像信号をヘッドマウントディスプレイ100に伝送する。
ヘッドマウントディスプレイ100は、ゲーム装置10において生成された画像信号を受けて、ゲーム画像を表示する。また、ヘッドマウントディスプレイ100の外面に設けられた入力装置に対するユーザのタッチ入力に関する情報をゲーム装置10へ伝送する。ヘッドマウントディスプレイ100は、ゲーム装置10に有線ケーブルで接続されてもよく、また無線LAN(Local Area Network)などにより無線接続されてもよい。
ゲーム画像は、表示装置12に出力されてもよい。表示装置12は、ディスプレイおよびスピーカを有するテレビであってもよいし、コンピュータディスプレイなどであってもよい。
入力デバイス20は、ユーザによる指示入力をゲーム装置10に伝送する機能をもち、本実施例ではゲーム装置10との間で無線通信可能な無線コントローラとして構成される。入力デバイス20とゲーム装置10は、Bluetooth(登録商標)(ブルートゥース)プロトコルを用いて無線接続を確立してもよい。なお入力デバイス20は、無線コントローラに限らず、ゲーム装置10とケーブルを介して接続される有線コントローラであってもよい。
入力デバイス20はバッテリにより駆動され、ゲームを進行させる操作指示を行うための複数のボタンを有して構成される。ユーザが入力デバイス20のボタンを操作すると、その操作指示が無線通信によりゲーム装置10に送信される。
撮像装置14は、CCD撮像素子またはCMOS撮像素子などから構成されるビデオカメラであり、実空間を所定の周期で撮像して、周期ごとのフレーム画像を生成する。撮像装置14は、USB(Universal Serial Bus)あるいはその他のインタフェースを介してゲーム装置10と接続する。撮像装置14により撮像された画像は、ゲーム装置10において、入力デバイス20及びヘッドマウントディスプレイ100の位置及び姿勢を導出するために用いられる。撮像装置14は、距離を取得可能な測距カメラ又はステレオカメラであってもよい。この場合、撮像装置14により、撮像装置14と入力デバイス20又はヘッドマウントディスプレイ100などとの間の距離を取得することができる。
本実施例のゲームシステム1において、入力デバイス20は複数色で発光可能に構成された発光体を有する。ゲーム中、発光体はゲーム装置10から指示された色で発光し、撮像装置14により撮像される。撮像装置14は入力デバイス20を撮像し、フレーム画像を生成してゲーム装置10に供給する。ゲーム装置10はフレーム画像を取得して、フレーム画像における発光体の画像の位置および大きさから、実空間における発光体の位置情報を導出する。ゲーム装置10は、位置情報をゲームの操作指示として取り扱い、プレイヤーキャラクタの動作を制御するなど、ゲームの処理に反映させる。本実施例のゲーム装置10は、入力デバイス20のボタンなどの操作入力だけでなく、取得した発光体画像の位置情報も用いてゲームアプリケーションを処理する機能をもつ。
また、入力デバイス20は加速度センサおよびジャイロセンサを有する。センサの検出値は、所定周期でゲーム装置10に送信され、ゲーム装置10は、センサの検出値を取得して、実空間における入力デバイス20の姿勢情報を取得する。ゲーム装置10は、姿勢情報をゲームの操作指示として取り扱い、ゲームの処理に反映させる。
図2は、実施の形態に係るヘッドマウントディスプレイ100の外観図である。ヘッドマウントディスプレイ100は、本体部110、頭部接触部120、タッチパッド140、及び端末装着部150を含む。
ヘッドマウントディスプレイ100に内蔵または外付けされたGPS(Global Positioning System)などの位置センサによりユーザの位置情報を計測することができる。また、ヘッドマウントディスプレイ100に内蔵または外付けされた姿勢センサによりヘッドマウントディスプレイ100を装着したユーザの頭部の向きや傾きといった姿勢情報を計測することができる。
本体部110には、ディスプレイ、位置情報取得センサ、姿勢センサ、通信装置などが含まれる。頭部接触部120には、ユーザの体温、脈拍、血液成分、発汗、脳波、脳血流などの生体情報を計測することのできる生体情報取得センサが含まれる。
ヘッドマウントディスプレイ100の外面には、ユーザによるタッチ入力を受け付けるための入力装置が設けられる。入力装置は、ヘッドマウントディスプレイ100に予め備え付けられた、表示装置が併設されないタッチパッドであってもよいし、表示装置が併設されたタッチパネルであってもよい。また、入力装置として機能するタッチパッド又はタッチパネルを備えたスマートフォンなどの外部装置がヘッドマウントディスプレイ100に着脱自在に接続されてもよい。本実施の形態においては、本体部110の上面及び側面にタッチパッド140が設けられ、本体部110の前面に設けられた端末装着部150に携帯情報端末200が着脱自在に接続される。
側頭部に設けられたタッチパッド140は、マトリクス・スイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式など、任意の方式のタッチパッドであってもよい。タッチパッド140は、ユーザの指などが表面に接触したときに入力を検知する接触式のタッチパッドであってもよいし、ユーザの指などが表面に近接したときにも入力を検知可能な非接触式のタッチパッドであってもよい。タッチパッド140は、表面に対する押圧の圧力を検知可能な感圧センサを備えてもよいし、入力を検知した領域の面積、電圧値、静電容量などに基づいて入力の強度を算出してもよい。タッチパッド140は、入力を検知した位置の座標を出力する。
前頭部には、携帯情報端末200を着脱自在に装着するための端末装着部150が設けられており、ユーザの携帯情報端末200を装着可能である。携帯情報端末200が装着される場合は、携帯情報端末200が入力装置として機能する。また、携帯情報端末200の表示装置にヘッドマウントディスプレイ100が生成した画像又はヘッドマウントディスプレイ100に関する情報などを表示可能である。
ヘッドマウントディスプレイ100には、さらに、ユーザの目を撮影するカメラが設けられてもよい。ヘッドマウントディスプレイ100に搭載されたカメラにより、ユーザの視線、瞳孔の動き、瞬きなどを検出することができる。
本実施の形態においては、ヘッドマウントディスプレイ100について説明するが、本実施の形態の表示制御方法は、狭義のヘッドマウントディスプレイ100に限らず、めがね、めがね型ディスプレイ、めがね型カメラ、ヘッドフォン、ヘッドセット(マイクつきヘッドフォン)、イヤホン、イヤリング、耳かけカメラ、帽子、カメラつき帽子、ヘアバンドなどを装着した場合にも適用することができる。
図3は、ゲーム装置10の機能構成図である。ゲーム装置10は、通信部302、制御部310、及びデータ保持部360を備える。制御部310は、入力情報受信部311、入力位置調整部312、HMD画像データ生成部313、HMD画像データ送信部314、タッチパネル表示情報生成部315、タッチパネル表示情報送信部316、HMD表示情報受信部317、撮像画像解析部318、及びゲーム制御部319を備える。
通信部302は、ヘッドマウントディスプレイ100、携帯情報端末200、入力デバイス20、撮像装置14、表示装置12などとの間の通信を制御する。データ保持部360は、ゲーム装置10において実行されるゲームのプログラムデータや、ゲームプログラムが使用する各種のデータなどを保持する。
入力情報受信部311は、ヘッドマウントディスプレイ100及び携帯情報端末200が受け付けたユーザによるタッチ入力の情報をヘッドマウントディスプレイ100及び携帯情報端末200からそれぞれ受信する。入力情報受信部311は、更に、ヘッドマウントディスプレイ100の位置及び姿勢に関する情報をヘッドマウントディスプレイ100から受信する。入力デバイス20が用いられる場合は、入力情報受信部311は、入力デバイス20が受け付けたボタンなどの入力の情報を入力デバイス20から受信する。
入力位置調整部312は、入力情報受信部311が受信した入力情報におけるタッチ入力の位置を、ヘッドマウントディスプレイ100に表示される画像の位置に対応付ける。本実施の形態では、異なる位置に配置された複数のタッチパッド140及び携帯情報端末200のタッチパネルによりユーザのタッチ入力を受け付けるので、それぞれのタッチ領域を表示される画像の領域に対応付ける必要がある。入力位置調整部312の機能の詳細については後述する。
ゲーム制御部319は、ゲームプログラムを実行し、入力情報受信部311が受信したユーザによる指示入力に基づいてゲームを進行させる。
HMD画像データ生成部313は、ゲーム制御部319により制御されるゲームの画像を生成する。HMD画像データ送信部314は、HMD画像データ生成部313が生成した画像データをヘッドマウントディスプレイ100に送信する。
タッチパネル表示情報生成部315は、ゲーム制御部319により制御されるゲームに関する情報で、携帯情報端末200のタッチパネルに表示すべき情報を生成する。携帯情報端末200のタッチパネルは、ゲーム中に、ヘッドマウントディスプレイ100を装着しているユーザは見ることができないが、ユーザの周囲にいる他の人に向けた情報を表示することができる。タッチパネル表示情報送信部316は、タッチパネル表示情報生成部315が生成した表示情報を携帯情報端末200に送信する。
HMD表示情報受信部317は、携帯情報端末200から、ヘッドマウントディスプレイ100の表示装置に表示すべき情報を受信する。HMD表示情報受信部317が受信した表示情報は、HMD画像データ生成部313により、ヘッドマウントディスプレイ100に表示される画像に含められる。これにより、ゲーム中であっても、携帯情報端末200から送信される表示情報をヘッドマウントディスプレイ100の表示装置に表示し、ユーザに視認させることができる。
撮像画像解析部318は、撮像装置14が撮像した画像を取得し、取得した画像を解析して、ヘッドマウントディスプレイ100及び入力デバイス20の位置及び姿勢を算出する。ゲーム制御部319は、入力デバイス20の位置及び姿勢をユーザによる指示として取得し、ゲームの進行に反映させる。HMD画像データ生成部313は、ヘッドマウントディスプレイ100の位置及び姿勢に基づいて、ゲームの画像を生成するときに使用する視点位置及び視線方向を制御する。
図4は、ヘッドマウントディスプレイ100の機能構成図である。ヘッドマウントディスプレイ100は、入力インタフェース22、出力インタフェース30、バックライト32、通信制御部40、ネットワークアダプタ42、アンテナ44、記憶部50、GPSユニット60、無線ユニット62、姿勢センサ64、外部入出力端子インタフェース70、外部メモリ72、時計部80、表示装置90、タッチパッド140、及び制御部160を備える。これらの機能ブロックも、ハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できる。
制御部160は、画像信号、センサ信号などの信号や、命令やデータを処理して出力するメインプロセッサである。入力インタフェース22は、タッチパッド140及びタッチパッドコントローラから操作信号や設定信号を受け付け、制御部160に供給する。出力インタフェース30は、制御部160から画像信号を受け取り、表示装置90に表示させる。バックライト32は、表示装置90を構成する液晶ディスプレイにバックライトを供給する。
通信制御部40は、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、制御部160から入力されるデータを外部に送信する。通信制御部40は、また、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、外部からデータを受信し、制御部160に出力する。
記憶部50は、制御部160が処理するデータやパラメータ、操作信号などを一時的に記憶する。
GPSユニット60は、制御部160からの操作信号にしたがって、GPS衛星から位置情報を受信して制御部160に供給する。無線ユニット62は、制御部160からの操作信号にしたがって、無線基地局から位置情報を受信して制御部160に供給する。
姿勢センサ64は、ヘッドマウントディスプレイ100の本体部110の向きや傾きなどの姿勢情報を検出する。姿勢センサ64は、ジャイロセンサ、加速度センサ、角加速度センサなどを適宜組み合わせて実現される。
外部入出力端子インタフェース70は、USB(Universal Serial Bus)コントローラなどの周辺機器を接続するためのインタフェースである。外部メモリ72は、フラッシュメモリなどの外部メモリである。
時計部80は、制御部160からの設定信号によって時間情報を設定し、時間データを制御部160に供給する。
図5は、ヘッドマウントディスプレイ100の制御部160の機能構成図である。制御部160は、タッチ入力受付部161、入力位置調整部162、入力情報送信部163、HMD画像データ受信部164、及びHMD表示制御部165を備える。
タッチ入力受付部161は、タッチパッド140から入力信号を受け付ける。入力位置調整部162は、タッチ入力受付部161が受け付けた入力の位置を、表示装置90に表示される画像のうちタッチパッド140の入力領域が割り当てられた領域の位置に対応付ける。入力情報送信部163は、入力位置調整部162により調整されたタッチ入力の位置を示す情報をゲーム装置10に送信する。
HMD画像データ受信部164は、表示装置90に表示すべき画像のデータをゲーム装置10から受信する。HMD表示制御部165は、HMD画像データ受信部164が受信した画像データを表示装置90に表示する。
図6は、携帯情報端末200の機能構成図である。携帯情報端末200は、ボタン261、通信部202、制御部210、データ保持部260、及びタッチパネル262を備える。制御部210は、タッチ入力受付部211、入力位置調整部212、入力情報送信部213、タッチパネル表示情報受信部214、タッチパネル表示制御部215、HMD表示情報生成部216、及びHMD表示情報送信部217を備える。これらの機能ブロックも、ハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できる。
通信部202は、ゲーム装置10との間の通信を制御する。データ保持部260は、携帯情報端末200において実行されるアプリケーションのプログラムデータやアプリケーションが使用するデータなどを格納する。タッチパネル262は、制御部210により生成された画像を表示するとともに、ユーザによるタッチ入力を検知する。
制御部210は、タッチパネル262に対するタッチ入力を、ゲーム装置10により実行され、ヘッドマウントディスプレイ100に画像が表示されるゲームに対する入力として受け付けるための連携アプリケーションを実行する。
タッチ入力受付部211は、タッチパネル262から入力信号を受け付ける。入力位置調整部212は、タッチ入力受付部211が受け付けた入力の位置を、ヘッドマウントディスプレイ100の表示装置90に表示される画像のうちタッチパネル262の入力領域が割り当てられた領域の位置に対応付ける。タッチパネル262の入力領域が割り当てられた領域に関する情報は、連携アプリケーションの起動時などに、ヘッドマウントディスプレイ100又はゲーム装置10から予め取得される。入力情報送信部213は、入力位置調整部212により調整されたタッチ入力の位置を示す情報をゲーム装置10に送信する。
タッチパネル表示情報受信部214は、タッチパネル262に表示すべき情報をゲーム装置10から受信する。タッチパネル表示制御部215は、タッチパネル表示情報受信部214が受信した情報をタッチパネル262に表示する。
HMD表示情報生成部216は、ヘッドマウントディスプレイ100の表示装置に表示すべき情報を生成する。HMD表示情報生成部216は、携帯情報端末200において実行される他のアプリケーションから各種の通知情報を取得して、所定の条件にしたがって通知情報から表示情報を生成する。例えば、携帯情報端末200のメール送受信アプリケーションがメールを受信したときに、メールのタイトル、本文の冒頭の所定数の文字列、送信者などの情報を抽出し、表示情報を生成してもよい。HMD表示情報送信部217は、HMD表示情報生成部216が生成した表示情報をゲーム装置10に送信する。なお、本実施の形態では、ヘッドマウントディスプレイ100の表示装置に表示すべき情報は、いったんゲーム装置10に送信され、ゲーム装置10により画像データが生成されるが、別の例では、ヘッドマウントディスプレイ100の表示装置に表示すべき情報は、直接ヘッドマウントディスプレイ100に送信され、ヘッドマウントディスプレイ100のHMD表示制御部165により表示装置90に表示されてもよい。
図7は、ヘッドマウントディスプレイ100の表示装置90に表示される画像の例を示す。ヘッドマウントディスプレイ100の表示装置90には、ゲーム装置10により制御されるゲームの画像が表示される。
図8は、ヘッドマウントディスプレイ100の表示装置90に表示される画像の例を示す。図7に示したゲームの状況において、突然周囲が暗転し、暗闇に包まれてしまったとする。ゲーム装置10のHMD画像データ生成部313は、真っ暗なゲーム画像を生成し、ヘッドマウントディスプレイ100の表示装置90には、真っ暗なゲーム画像が表示される。
図9は、携帯情報端末200のタッチパネル262を示す。図9の例では、ゲーム装置10のタッチパネル表示情報生成部315は、ヘッドマウントディスプレイ100の表示装置90に表示する画像と同じ画像をタッチパネル262に表示するための情報を生成し、携帯情報端末200のタッチパネル表示制御部215は、ヘッドマウントディスプレイ100の表示装置90に表示される画像と同じ画像をタッチパネル262に表示する。ここで、タッチパネル262の任意の位置において下方向のフリック入力を行うことにより暗視ゴーグルを装着し、上方向にフリック入力を行うことにより暗視ゴーグルを外す機能が設けられているとする。タッチパネル262においてユーザが下方向にフリック入力を行うと、入力情報送信部213は、下方向にフリック入力が行われたことを示す情報をゲーム装置10に送信する。
図10は、ヘッドマウントディスプレイ100の表示装置90に表示される画像の例を示す。図9に示したように、ユーザがタッチパネル262に対して下方向にフリック入力を行ったとき、ゲーム装置10のゲーム制御部319は、タッチパネル262において下方向にフリック入力が行われたことを示す情報を取得すると、暗視ゴーグルが装着されたものとして、HMD画像データ生成部313に暗視画像の生成を指示する。HMD画像データ生成部313は暗視画像を生成し、図10に示すように、ヘッドマウントディスプレイ100の表示装置90には暗視画像が表示される。このように、ユーザが実際にゴーグルを上下に脱着する動きと、タッチパネル262に対して上下にフリック入力を行う動きが対応しているので、直感的に分かりやすいユーザフレンドリーな操作体系を提供することができる。
図11は、ヘッドマウントディスプレイ100の表示装置90に表示される画像の例を示す。ヘッドマウントディスプレイ100の表示装置90には、視界に曇り402が生じているゲームの画像が表示されている。
図12は、携帯情報端末200のタッチパネル262を示す。タッチパネル262の任意の位置において任意の方向にスワイプ入力を行うことにより、スワイプした位置に表示されている曇り402を除去する機能が設けられているとする。タッチパネル262においてユーザがスワイプ入力を行うと、入力情報送信部213は、スワイプされた位置を示す情報をゲーム装置10に送信する。
図13は、ヘッドマウントディスプレイ100の表示装置90に表示される画像の例を示す。図12に示したように、ユーザがタッチパネル262に対してスワイプ入力を行ったとき、ゲーム装置10のゲーム制御部319は、スワイプ入力が行われた位置に表示されている曇り402を除去する。HMD画像データ生成部313は、図13に示すように、除去された曇り402をゲーム画像から消去する。なお、図12において、ユーザはタッチパネル262に表示されたゲーム画像の右側の領域においてスワイプ入力を行っているが、ユーザから見ると画面の左側の領域に対応するので、ゲーム制御部319は、ゲーム画像の左側の領域に表示されていた曇り402を消去している。また、ヘッドマウントディスプレイ100に表示されるゲーム画像と同じ画像をタッチパネル262に表示すると、タッチパネル262を見ている人からすれば、ユーザがゲーム画像の右側の領域においてスワイプ入力を行ったのに、ゲーム画像の左側の領域に表示されていた曇り402が消去されることになって違和感を与えてしまうので、タッチパネル262には、ヘッドマウントディスプレイ100に表示されるゲーム画像を左右反転させた鏡像画像を表示している。
図14は、ヘッドマウントディスプレイ100の表示装置90に表示される画像の例を示す。ヘッドマウントディスプレイ100の表示装置90には、視界にクモ404が張り付いているゲームの画像が表示されている。
図15は、携帯情報端末200のタッチパネル262を示す。タッチパネル262の任意の位置において任意の方向に繰り返しスワイプ入力を行うことにより、スワイプした位置に表示されているクモ404を取り払う機能が設けられているとする。タッチパネル262においてユーザが所定回数以上スワイプ入力が行われると、入力情報送信部213は、スワイプされた位置と回数を示す情報をゲーム装置10に送信する。別の例では、入力情報送信部213は、スワイプ入力を受け付けるたびにスワイプされた位置を示す情報をゲーム装置10に送信し、ゲーム装置10のゲーム制御部319が、ユーザが所定回数以上スワイプ入力を行ったか否かを判定してもよい。
図16は、ヘッドマウントディスプレイ100の表示装置90に表示される画像の例を示す。図15に示したように、ユーザがタッチパネル262に対して所定回数以上スワイプ入力を行ったとき、ゲーム装置10のゲーム制御部319は、スワイプ入力が所定回数以上行われた位置に表示されているクモ404を除去する。HMD画像データ生成部313は、図16に示すように、除去されたクモ404をゲーム画像から消去する。
図17は、ヘッドマウントディスプレイ100の表示装置90に表示される画像の例を示す。ヘッドマウントディスプレイ100の表示装置90には、ゲームフィールドにフラッシュバン(閃光音響手榴弾)406が配置されたゲームの画像が表示されている。
図18は、ヘッドマウントディスプレイ100の表示装置90に表示される画像の例を示す。図17に示したゲームの状況において、フラッシュバン406が爆発するための所定の条件が満たされると、ゲーム制御部319は、フラッシュバン406を爆発させる。HMD画像データ生成部313は、フラッシュバン406の爆発により閃光が発生したゲーム画像を生成し、ヘッドマウントディスプレイ100の表示装置90には、閃光408が表示される。
ここで、閃光408が発生したときに、ユーザが両眼を手で覆うようにしてタッチパネル262にタッチすると、閃光408の消失とともに再び周囲のゲームフィールドが表示されるが、ユーザが両眼を手で覆うようにしてタッチパネル262にタッチしないと、閃光408により目がくらんで、閃光408が消失しても所定時間は真っ白なゲーム画像が表示され、周囲のゲームフィールドが表示されないものとする。
図19は、携帯情報端末200のタッチパネル262を示す。タッチパネル262の右半分の領域と左半分の領域のそれぞれにおいて、手の平をタッチパネル262に接触させることにより、両眼を覆い隠して閃光408から守る機能が設けられる。タッチパネル262に対してタッチ入力が行われると、入力情報送信部213は、タッチされた複数の位置を示す情報をゲーム装置10に送信する。ゲーム制御部319は、爆発の瞬間に、タッチパネル262の右半分の領域と左半分の領域のそれぞれにおいて、手の平がタッチされたことを示す所定の条件に合致したタッチ入力が行われたか否かを判定し、行われていた場合は、HMD画像データ生成部313に、閃光408の消失とともに再び周囲のゲームフィールドを表示させ、行われていなかった場合は、閃光408が消失しても所定時間は真っ白なゲーム画像が表示させる。
図20は、携帯情報端末200のタッチパネル262を示す。図20に示すように、ユーザが左右のいずれかの目の目元付近において、指でピースサインを作り、人差し指と中指でタッチパネル262にタッチすると、ユーザが操作するプレイヤーズキャラクタ又は一人称視点のゲームにおける仮想的なユーザ自身の目からビームが発射されるものとする。
図21は、ヘッドマウントディスプレイ100の表示装置90に表示される画像の例を示す。タッチパネル262の所定の範囲の領域内において、2点で同時にタッチ入力を行うことにより、ビームを発射する機能が設けられる。タッチパネル262に対してタッチ入力が行われると、入力情報送信部213は、タッチされた複数の位置を示す情報をゲーム装置10に送信する。ゲーム制御部319は、所定の範囲内において同時に2点のタッチ入力が行われたか否かを判定し、行われていた場合は、HMD画像データ生成部313に、ビーム410が発射される様子を表示させ、行われていなかった場合は、ビーム410を発射させない。ビーム410が発射された場合、ゲーム制御部319は、ビーム410の経路を算出し、経路上にオブジェクトが存在する場合は、オブジェクトにビーム410が当たった場合の処理を実行する。
図22は、携帯情報端末200のタッチパネル262を示す。図22に示すように、ユーザがタッチパネル262の任意の位置において、指で所定時間以上タッチ入力を行うと、ヘッドマウントディスプレイ100の表示装置90に表示されるゲーム画像の対応する位置に、指の画像が表示されるものとする。
図23は、ヘッドマウントディスプレイ100の表示装置90に表示される画像の例を示す。タッチパネル262の任意の位置において、所定時間以上又は所定値以上の圧力でタッチ入力を行うことにより、ヘッドマウントディスプレイ100の表示装置90に表示される仮想世界の画像にユーザの指が奥から入り込んでくるような映像効果を表示する機能が設けられる。タッチパネル262に対してタッチ入力が行われると、入力情報送信部213は、タッチされた複数の位置と時間又は圧力を示す情報をゲーム装置10に送信する。ゲーム制御部319は、所定時間以上又は所定値以上の圧力でタッチ入力が行われたか否かを判定し、行われていた場合は、HMD画像データ生成部313に、タッチ入力が行われた位置にユーザの指412を表示させ、行われていなかった場合は、指412を表示させない。タッチ入力が行われた時間が長いほど、又は、圧力が大きいほど、指がより手前に入り込んでくる様子を表示してもよい。
このように、現実世界においてユーザが頭部付近で手を使って行うアクションに対応する入力をタッチパネル262に対して行ったときに、そのアクションにより現実世界において発生すべき結果を表示に反映させるので、直感的に分かりやすく、操作しやすいユーザインタフェースを提供することができる。
上記の例では、携帯情報端末200のタッチパネル262に、ヘッドマウントディスプレイ100の表示装置90に表示される画像と同じ画像が表示される。これにより、周囲の人もユーザが実行しているゲームを見て楽しむことができる。例えば子が実行しているゲームを親が把握したい場合などにも有効である。また、表示装置12にゲームの画像を表示しなくても周囲の人がゲームの画像を見ることができるので、表示装置12を他の用途に用いることができる。
タッチパネル262には表示装置90に表示される画像とは異なる画像が表示されてもよい。タッチパネル262に表示される内容は、ヘッドマウントディスプレイ100、携帯情報端末200、又はゲーム装置10を介してユーザによる指示を受け付けることにより決定されてもよいし、ヘッドマウントディスプレイ100、携帯情報端末200、又はゲーム装置10により自動的に決定されてもよい。
図24は、携帯情報端末200のタッチパネル262に表示される画像の例を示す。図24の例では、ゲーム制御部319により制御されるゲームの状況を示す情報がタッチパネル262に表示される。ゲーム装置10のタッチパネル表示情報生成部315は、ゲーム制御部319により制御されるゲームの状況を示す情報を取得して表示情報を生成する。タッチパネル262には、ゲームの状況が「ボスと対戦中」である旨と、ゲームの状況をより詳細に示す敵キャラクタの残りの体力値と、周囲の人に対するユーザからのメッセージとが表示されている。
図25は、携帯情報端末200のタッチパネル262に表示される画像の例を示す。図25の例でも、ゲーム制御部319により制御されるゲームの状況を示す情報がタッチパネル262に表示される。ゲーム装置10のタッチパネル表示情報生成部315は、ゲーム制御部319により制御されるゲームの状況を示す情報を取得して表示情報を生成する。タッチパネル262には、ゲームの状況が「ムービー鑑賞中」である旨と、ゲームの状況をより詳細に示すムービーシーンの残りの秒数と、周囲の人に対するユーザからのメッセージとが表示されている。
図26は、携帯情報端末200のタッチパネル262に表示される画像の例を示す。図25の例でも、ゲーム制御部319により制御されるゲームの状況を示す情報がタッチパネル262に表示される。ゲーム装置10のタッチパネル表示情報生成部315は、ゲーム制御部319により制御されるゲームの状況を示す情報を取得して表示情報を生成する。タッチパネル262には、ゲームのプレイ時間と、次のセーブポイントまでに要する時間の目安とが表示されている。例えば、親が子のゲームのプレイ時間を制限したい場合などにも有効である。
このように、ヘッドマウントディスプレイ100のユーザが実行しているゲームや視聴している動画像などの状況を示す情報をタッチパネル262に表示することにより、周囲の人がユーザの状況を把握することができるので、ユーザに話しかける場合などには、話しかけても問題のない状況を選んで話しかけることができる。したがって、ユーザが中断されたくない状況で中断させられる事態を低減することができ、ユーザはより効果的に没入感を得ることができる。
図27は、携帯情報端末200のタッチパネル262に表示される画像の例を示す。図27の例では、撮像画像解析部318がヘッドマウントディスプレイ100の位置及び姿勢を解析するためのマーカとなる画像がタッチパネル262に表示される。これにより、ヘッドマウントディスプレイ100の位置及び姿勢を解析する際の精度を向上させることができる。複数の位置に設けられた複数のタッチパネルに異なるマーカを表示させると更に効果的である。なお、タッチパネル262に表示させるマーカとなる画像は、バーコードなどの任意の図形であってもよいし、キャラクタなどの画像であってもよい。また、人物やキャラクタなどの顔の目の周囲の部分を表示させ、ユーザがキャラクタのお面をかぶっているようにしてもよい。これにより、周囲の人も楽しませることができる。
図28は、ヘッドマウントディスプレイ100の表示装置90に表示される画像の例を示す。ゲーム中に、携帯情報端末200のメールアプリケーションがメールを受信したとき、HMD表示情報生成部216は、受信したメールに関する情報を取得して、ヘッドマウントディスプレイ100の表示装置90に表示すべき情報を生成する。ゲーム装置10のHMD表示情報受信部317が、携帯情報端末200からヘッドマウントディスプレイ100の表示装置90に表示すべき情報を受信すると、HMD画像データ生成部313は、受信した情報を含む画像データを生成する。図28の例では、ヘッドマウントディスプレイ100の表示装置90に、携帯情報端末200が受信したメールの送信者と、タイトルと、本文の冒頭の内容とが、画面下部の表示領域502に表示される。
ヘッドマウントディスプレイ100の表示装置90に表示すべき情報の設定は、携帯情報端末200のタッチパネル262を介して事前にユーザから受け付けてもよい。これにより、ユーザは、ヘッドマウントディスプレイ100の使用中も、携帯情報端末200に関する必要な情報を見ることができ、必要であればヘッドマウントディスプレイ100の視聴を中断して携帯情報端末200を使用することができる。このとき、携帯情報端末200のタッチパネル262にはヘッドマウントディスプレイ100の表示装置90に表示した情報を表示しなくてもよい。これにより、周囲の人にユーザの情報が見られてしまうことを防ぐことができる。
携帯情報端末200から受信した情報を表示する表示領域502は、ゲームの状況に応じて位置や大きさなどが決定されてもよいし、ユーザから設定を受け付けてもよい。表示すべき画像の縦横比と表示装置90の表示領域の縦横比が一致していないために、画面の上下又は左右に画像が表示されない領域が残っている場合、その領域を表示領域502としてもよい。
ヘッドマウントディスプレイ100の表示装置90を視聴しながら、携帯情報端末200を操作可能としてもよい。入力デバイス20など、ゲーム装置10の入力機能を用いて操作を行う場合、ゲーム装置10は、入力デバイス20などから受け付けた指示入力を携帯情報端末200に送信し、携帯情報端末200の連携アプリケーションが操作対象となるアプリケーション、例えばメールアプリケーションに受信した指示入力を伝達する。タッチパッド140など、ヘッドマウントディスプレイ100の入力機能を用いて操作を行う場合、ヘッドマウントディスプレイ100は、タッチパッド140などから受け付けた指示入力を直接、又はゲーム装置10を介して、携帯情報端末200に送信する。携帯情報端末200のタッチパネル262を用いて操作を行う場合、操作対象となるアプリケーションが直接、又は、連携アプリケーションを介して、指示入力を受け付ける。
図29は、ヘッドマウントディスプレイ100の表示装置90の表示領域と、タッチパネル262及びタッチパッド140の入力領域との対応関係を示す。前述したように、本実施の形態では、複数のタッチパネル262及びタッチパッド140が設けられているので、ゲーム装置10の入力位置調整部312は、それぞれのタッチパネル262及びタッチパッド140に対する入力の位置を、ヘッドマウントディスプレイ100の表示装置90に表示される画像における位置に対応付ける。図29の例では、ヘッドマウントディスプレイ100の表示装置90に表示される画像のうち、領域aは携帯情報端末200のタッチパネル262に、領域bはヘッドマウントディスプレイ100の上面に設けられたタッチパッド140に、領域cはヘッドマウントディスプレイ100の左側頭部に設けられたタッチパッド140に、領域dはヘッドマウントディスプレイ100の右側頭部に設けられたタッチパッド140に対応付けられる。このとき、ユーザの視界と実際のタッチパネル262及びタッチパッド140の設置位置とができる限り同じになるようにすることが望ましい。これにより、ユーザが身体感覚と視覚との間の矛盾を感じることなく操作することが可能なユーザインタフェースを提供することができる。
それぞれの表示領域とタッチパネル262又はタッチパッド140の入力領域との大きさや形状などが異なる場合、タッチパネル262の場合は携帯情報端末200の入力位置調整部212が、タッチパッド140の場合はヘッドマウントディスプレイ100の入力位置調整部162が、それぞれ、実際の入力位置を、割り当てられた入力領域における入力位置に対応付ける。
図30は、ヘッドマウントディスプレイ100の表示装置90に表示される画像の例を示す。ゲーム装置10の入力位置調整部312は、入力情報受信部311が入力情報を受信したとき、調整した位置に入力位置を示すマーカ504を表示するとともに、入力を受け付けたタッチパネル262又はタッチパッド140に対応する領域の枠506を表示する。これにより、タッチパネル262及びタッチパッド140が複数設けられる場合であっても、ユーザが所望の位置に対して入力するためにはいずれのタッチパネル262又はタッチパッド140をタッチすればよいのかを分かりやすく示すことができる。また、そのタッチパネル262又はタッチパッド140のうちどの辺りをタッチすればよいのかを分かりやすく示すことができる。
図31は、実施の形態に係る表示制御方法の手順を示すシーケンス図である。ゲーム装置10のゲーム制御部319がゲームを制御し(S100)、HMD画像データ生成部313がヘッドマウントディスプレイ100に表示させる画像データを生成する(S102)。HMD画像データ送信部314が画像データをヘッドマウントディスプレイ100に送信し(S104)、ヘッドマウントディスプレイ100のHMD表示制御部165が画像データを表示装置90に表示する(S106)。
ゲーム装置10のタッチパネル表示情報生成部315は、ゲームの状況などを携帯情報端末200のタッチパネル262に表示させるための情報を生成し(S108)、タッチパネル表示情報送信部316が表示情報を携帯情報端末200に送信する(S110)。携帯情報端末200のタッチパネル表示制御部215は、表示情報をタッチパネル262に表示する(S112)。
携帯情報端末200のタッチパネル262に対してユーザがタッチ入力を行うと、タッチ入力受付部211が入力を受け付け(S120)、入力位置調整部212がタッチ入力の位置を調整し、入力情報送信部213が入力情報をゲーム装置10に送信する(S124)。ヘッドマウントディスプレイ100のタッチパッド140に対してユーザがタッチ入力を行うと、タッチ入力受付部161が入力を受け付け(S122)、入力位置調整部162がタッチ入力の位置を調整し、入力情報送信部163が入力情報をゲーム装置10に送信する(S126)。ゲーム装置10の入力情報受信部311が携帯情報端末200又はヘッドマウントディスプレイ100から入力情報を受信すると、入力位置調整部312がタッチ入力の位置を調整し、ゲーム制御部319がタッチ入力をゲーム制御に反映させ(S128)、S100に戻る。
携帯情報端末200がメールを受信するなどして、HMD表示情報生成部216がヘッドマウントディスプレイ100に表示すべき情報を生成すると(S140)、HMD表示情報送信部217が表示情報をゲーム装置10に送信する(S142)。ゲーム装置10のHMD表示情報受信部317が携帯情報端末200から表示情報を受信すると、HMD画像データ生成部313が表示情報を表示に反映させ(S144)、S102に戻る。
以上、本発明を実施例をもとに説明した。この実施例は例示であり、その各構成要素や各処理プロセスの組合せにいろいろな変形が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
上記の例では、ヘッドマウントディスプレイ100の表示装置90に単眼視用の画像が表示されたが、別の例では、両眼立体視用の画像が表示されてもよい。この場合、携帯情報端末200のタッチパネル262にも両眼立体視用の画像が表示されてもよいし、タッチパネル262には単眼視用の画像が表示されてもよい。
上記の例では、ゲーム装置10がゲームを制御し、ヘッドマウントディスプレイ100の表示装置90に表示する画像データを生成したが、別の例では、ゲームを制御し、画像データを生成するための構成がヘッドマウントディスプレイ100に設けられてもよい。この場合、ゲーム装置10は設けられなくてもよく、携帯情報端末200とヘッドマウントディスプレイ100はゲーム装置10を介さずに直接通信してもよい。
上記の例では、ゲームシステムにおいてヘッドマウントディスプレイ100が利用されたが、実施の形態で説明した技術は、ゲーム以外のコンテンツなどを表示する場合にも利用可能である。ゲームコントローラなどの専用の入力装置を持たない表示システムにおいても、実施の形態に係るヘッドマウントディスプレイ100によれば、タッチパッドや携帯情報端末のタッチパネルなどを介して、容易にユーザの指示を入力することができる。
10 ゲーム装置、90 表示装置、100 ヘッドマウントディスプレイ、140 タッチパッド、161 タッチ入力受付部、162 入力位置調整部、163 入力情報送信部、164 HMD画像データ受信部、165 HMD表示制御部、200 携帯情報端末、211 タッチ入力受付部、212 入力位置調整部、213 入力情報送信部、214 タッチパネル表示情報受信部、215 タッチパネル表示制御部、216 HMD表示情報生成部、217 HMD表示情報送信部、262 タッチパネル、311 入力情報受信部、312 入力位置調整部、313 HMD画像データ生成部、314 HMD画像データ送信部、315 タッチパネル表示情報生成部、316 タッチパネル表示情報送信部、317 HMD表示情報受信部、319 ゲーム制御部。

Claims (12)

  1. ユーザの頭部に装着可能なヘッドマウントディスプレイであって、
    前記ヘッドマウントディスプレイがユーザの頭部に装着されたときに内側となる面に設けられた表示装置と、
    前記ヘッドマウントディスプレイがユーザの頭部に装着されたときに外側となる面に設けられた、ユーザの体の一部が接触又は近接したことを検知可能な入力装置と、
    前記入力装置により検知された、ユーザの体の一部が接触又は近接したことを示す入力情報に基づいて生成される画像のデータを取得し、取得した画像のデータを前記表示装置に表示する表示制御部と、
    を備えることを特徴とするヘッドマウントディスプレイ。
  2. 複数の前記入力装置を備え、
    少なくとも1つの前記入力装置の入力領域に、前記画像を複数に分割した領域のいずれかが対応付けられることを特徴とする請求項1に記載のヘッドマウントディスプレイ。
  3. 前記入力装置は、ユーザの体の一部が接触又は近接したことを検知可能なタッチパッドと、前記タッチパッドに併設された表示パネルとを含むタッチパネルであり、
    前記表示パネルに、前記表示装置に表示される画像に関連する画像が表示されることを特徴とする請求項1又は2に記載のヘッドマウントディスプレイ。
  4. 前記入力装置は、ユーザの体の一部が接触又は近接したことを検知可能なタッチパッドと、前記タッチパッドに併設された表示パネルとを含むタッチパネルと、処理装置とを備えた携帯情報端末であり、
    前記処理装置により実行されるアプリケーションに関する情報を前記表示装置に表示可能であることを特徴とする請求項1から3のいずれかに記載のヘッドマウントディスプレイ。
  5. 前記画像は、現実世界においてユーザが頭部付近で手を用いて行うアクションに対応する入力を前記入力装置に対して行ったときに、そのアクションにより現実世界において発生すべき結果を反映させて生成されることを特徴とする請求項1から4のいずれかに記載のヘッドマウントディスプレイ。
  6. コンピュータを、
    ユーザの頭部に装着可能なヘッドマウントディスプレイがユーザの頭部に装着されたときに外側となる面に設けられた、ユーザの体の一部が接触又は近接したことを検知可能な入力装置により検知された、ユーザの体の一部が接触又は近接したことを示す入力情報に基づいて生成される画像のデータを取得する取得部、
    前記取得部が取得した画像のデータを、前記ヘッドマウントディスプレイがユーザの頭部に装着されたときに内側となる面に設けられた表示装置に表示する表示制御部、
    として機能させるための表示制御プログラム。
  7. 取得部が、ユーザの頭部に装着可能なヘッドマウントディスプレイがユーザの頭部に装着されたときに外側となる面に設けられた、ユーザの体の一部が接触又は近接したことを検知可能な入力装置により検知された、ユーザの体の一部が接触又は近接したことを示す入力情報に基づいて生成される画像のデータを取得するステップと、
    表示制御部が、前記取得部が取得した画像のデータを、前記ヘッドマウントディスプレイがユーザの頭部に装着されたときに内側となる面に設けられた表示装置に表示するステップと、
    を備えることを特徴とする表示制御方法。
  8. 請求項6に記載の表示制御プログラムを記録したコンピュータ読み取り可能な記録媒体。
  9. ユーザの頭部に装着可能なヘッドマウントディスプレイと、
    前記ヘッドマウントディスプレイに表示させる画像を生成する画像処理装置と、
    を備え、
    前記ヘッドマウントディスプレイは、
    前記ヘッドマウントディスプレイがユーザの頭部に装着されたときに内側となる面に設けられた表示装置と、
    前記ヘッドマウントディスプレイがユーザの頭部に装着されたときに外側となる面に設けられた、ユーザの体の一部が接触又は近接したことを検知可能な入力装置と、
    前記入力装置により検知された、ユーザの体の一部が接触又は近接したことを示す入力情報に基づいて生成される画像のデータを前記画像処理装置から取得し、取得した画像のデータを前記表示装置に表示する表示制御部と、
    を備え、
    前記画像処理装置は、
    前記入力情報を取得し、前記入力情報に基づいて、前記画像のデータを生成する画像生成部を備えることを特徴とする表示システム。
  10. ユーザの頭部に装着可能なヘッドマウントディスプレイであって、
    前記ヘッドマウントディスプレイがユーザの頭部に装着されたときに内側となる面に設けられた表示装置と、
    前記ヘッドマウントディスプレイがユーザの頭部に装着されたときに外側となる面に装着される、ユーザの体の一部が接触又は近接したことを検知可能な入力装置により検知された、ユーザの体の一部が接触又は近接したことを示す入力情報に基づいて生成された画像のデータを取得し、取得した画像のデータを前記表示装置に表示する表示制御部と、
    を備えることを特徴とするヘッドマウントディスプレイ。
  11. ユーザが携帯可能な携帯情報端末であって、
    ユーザの体の一部が接触又は近接したことを検知可能な入力装置と、
    ユーザの頭部に装着可能なヘッドマウントディスプレイがユーザの頭部に装着されたときに前記ヘッドマウントディスプレイの外側となる面に前記携帯情報端末が装着されたときに、前記入力装置により検知された、ユーザの体の一部が接触又は近接したことを示す入力情報を、前記入力情報に基づいて前記ヘッドマウントディスプレイに表示する画像を生成する装置に送信する通信部と、
    を備えることを特徴とする携帯情報端末。
  12. ユーザの頭部に装着可能なヘッドマウントディスプレイがユーザの頭部に装着されたときに前記ヘッドマウントディスプレイの外側となる面に装着された、ユーザの体の一部が接触又は近接したことを検知可能な入力装置により検知された、ユーザの体の一部が接触又は近接したことを示す入力情報を受信する受信部と、
    前記受信部により受信された前記入力情報に基づいて、前記ヘッドマウントディスプレイがユーザの頭部に装着されたときに前記ヘッドマウントディスプレイの内側となる面に設けられた表示装置に表示すべき画像のデータを生成する生成部と、
    前記生成部により生成された画像のデータを前記ヘッドマウントディスプレイに送信する送信部と、
    を備えることを特徴とする画像処理装置。
JP2014215565A 2014-10-22 2014-10-22 ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム Active JP6340301B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2014215565A JP6340301B2 (ja) 2014-10-22 2014-10-22 ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム
US15/517,316 US10379605B2 (en) 2014-10-22 2015-10-16 Head mounted display, mobile information terminal, image processing apparatus, display control program, display control method, and display system
PCT/JP2015/079276 WO2016063801A1 (ja) 2014-10-22 2015-10-16 ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム
CN201580055928.2A CN106817913B (zh) 2014-10-22 2015-10-16 头戴式显示器、移动信息终端、图像处理装置、显示控制程序、显示控制方法和显示***
EP15852710.1A EP3211513B1 (en) 2014-10-22 2015-10-16 Head mounted display, mobile information terminal, image processing device, display control program, and display control method
US16/448,434 US10620699B2 (en) 2014-10-22 2019-06-21 Head mounted display, mobile information terminal, image processing apparatus, display control program, display control method, and display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014215565A JP6340301B2 (ja) 2014-10-22 2014-10-22 ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018092931A Division JP2018160249A (ja) 2018-05-14 2018-05-14 ヘッドマウントディスプレイシステム、ヘッドマウントディスプレイ、表示制御プログラム、及び表示制御方法

Publications (3)

Publication Number Publication Date
JP2016081476A true JP2016081476A (ja) 2016-05-16
JP2016081476A5 JP2016081476A5 (ja) 2017-08-31
JP6340301B2 JP6340301B2 (ja) 2018-06-06

Family

ID=55760839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014215565A Active JP6340301B2 (ja) 2014-10-22 2014-10-22 ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム

Country Status (5)

Country Link
US (2) US10379605B2 (ja)
EP (1) EP3211513B1 (ja)
JP (1) JP6340301B2 (ja)
CN (1) CN106817913B (ja)
WO (1) WO2016063801A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016218803A (ja) * 2015-05-21 2016-12-22 シャープ株式会社 画像表示装置、およびヘッドマウントディスプレイ
JP2017220032A (ja) * 2016-06-07 2017-12-14 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、およびコンピュータプログラム
JP2019114121A (ja) * 2017-12-25 2019-07-11 凸版印刷株式会社 Vrコンテンツ再生装置によるvrコンテンツの再生を制御するためのユーザインターフェースを携帯型端末が提供するための方法、携帯型端末、及びプログラム
JP2019526104A (ja) * 2016-06-13 2019-09-12 株式会社ソニー・インタラクティブエンタテインメント 仮想現実環境内のビュー位置における鑑賞者管理
JP2019205515A (ja) * 2018-05-28 2019-12-05 株式会社コロプラ ゲームプログラム、ゲーム方法、および情報処理端末
KR20190141911A (ko) * 2018-06-15 2019-12-26 주식회사 룩시드랩스 안면 지지 마스크 및 이를 포함하는 헤드 마운트 디스플레이 장치
WO2020059157A1 (ja) * 2018-09-20 2020-03-26 株式会社ソニー・インタラクティブエンタテインメント 表示システム、プログラム、表示方法、及び頭部装着装置
JP2020201575A (ja) * 2019-06-06 2020-12-17 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置、表示制御方法、及び表示制御プログラム
KR20210000699A (ko) * 2018-08-28 2021-01-05 주식회사 룩시드랩스 생체 데이터 획득용 탈착식 기능모듈 및 이를 포함하는 헤드 마운트 디스플레이 장치

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180002208A (ko) * 2016-06-29 2018-01-08 엘지전자 주식회사 단말기 및 그 제어 방법
US11392237B2 (en) * 2017-04-18 2022-07-19 Hewlett-Packard Development Company, L.P. Virtual input devices for pressure sensitive surfaces
JP7385238B2 (ja) * 2019-01-07 2023-11-22 株式会社mediVR リハビリテーション支援装置、リハビリテーション支援方法及びリハビリテーション支援プログラム
EP3734416A1 (en) * 2019-04-30 2020-11-04 XRSpace CO., LTD. Head mounted display system capable of indicating a tracking unit to track a hand gesture or a hand movement of a user or not, related method and related non-transitory computer readable storage medium
CN113238708B (zh) * 2021-05-17 2024-02-23 杭州灵伴科技有限公司 一种在头戴式显示设备中显示触控操作信息的方法、装置
CN116009259A (zh) * 2022-10-20 2023-04-25 北京凌宇智控科技有限公司 一种头戴式显示设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310599A (ja) * 2006-05-17 2007-11-29 Nikon Corp 映像表示装置
JP2013528871A (ja) * 2010-07-20 2013-07-11 エンパイア テクノロジー ディベロップメント エルエルシー 拡張現実の近接感知
JP2014071812A (ja) * 2012-10-01 2014-04-21 Sony Corp 情報処理装置、表示制御方法及びプログラム
JP2014145734A (ja) * 2013-01-30 2014-08-14 Nikon Corp 情報入出力装置、及び情報入出力方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5991085A (en) * 1995-04-21 1999-11-23 I-O Display Systems Llc Head-mounted personal visual display apparatus with image generator and holder
JP2003289484A (ja) 2002-03-28 2003-10-10 Sanyo Electric Co Ltd 眼前装着型映像表示装置及び操作装置
JP2004085476A (ja) 2002-08-28 2004-03-18 Sony Corp ヘッドトラッキング方法及び装置
KR20050025083A (ko) 2003-09-03 2005-03-11 휴먼센스 주식회사 영상저장매체 착탈 가능한 두부장착 디스플레이 장치
JP2008028552A (ja) 2006-07-19 2008-02-07 Nikon Corp 表示装置
US8957835B2 (en) 2008-09-30 2015-02-17 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
WO2011097564A1 (en) 2010-02-05 2011-08-11 Kopin Corporation Touch sensor for controlling eyewear
EP2619749A4 (en) * 2010-09-21 2017-11-15 4IIII Innovations Inc. Head-mounted peripheral vision display systems and methods
JP2012186660A (ja) * 2011-03-06 2012-09-27 Sony Corp ヘッド・マウント・ディスプレイ
US20120249587A1 (en) 2011-04-04 2012-10-04 Anderson Glen J Keyboard avatar for heads up display (hud)
JP5978592B2 (ja) * 2011-10-26 2016-08-24 ソニー株式会社 ヘッド・マウント・ディスプレイ及び表示制御方法
JP2013125247A (ja) 2011-12-16 2013-06-24 Sony Corp ヘッドマウントディスプレイ及び情報表示装置
US8970960B2 (en) 2011-12-22 2015-03-03 Mattel, Inc. Augmented reality head gear
JP5884502B2 (ja) 2012-01-18 2016-03-15 ソニー株式会社 ヘッドマウントディスプレイ
JP6136090B2 (ja) 2012-03-13 2017-05-31 株式会社ニコン 電子機器、及び表示装置
JP2013258614A (ja) 2012-06-13 2013-12-26 Sony Computer Entertainment Inc 画像生成装置および画像生成方法
JP5953963B2 (ja) 2012-06-13 2016-07-20 ソニー株式会社 頭部装着型映像表示装置
CN103677579B (zh) * 2012-09-03 2019-11-26 联想(北京)有限公司 电子设备和控制方法
TWI492133B (zh) * 2012-11-26 2015-07-11 電容感測電路
CN103914128B (zh) * 2012-12-31 2017-12-29 联想(北京)有限公司 头戴式电子设备和输入方法
KR102332326B1 (ko) * 2014-01-23 2021-11-30 소니그룹주식회사 화상 표시 장치 및 화상 표시 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310599A (ja) * 2006-05-17 2007-11-29 Nikon Corp 映像表示装置
JP2013528871A (ja) * 2010-07-20 2013-07-11 エンパイア テクノロジー ディベロップメント エルエルシー 拡張現実の近接感知
JP2014071812A (ja) * 2012-10-01 2014-04-21 Sony Corp 情報処理装置、表示制御方法及びプログラム
JP2014145734A (ja) * 2013-01-30 2014-08-14 Nikon Corp 情報入出力装置、及び情報入出力方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016218803A (ja) * 2015-05-21 2016-12-22 シャープ株式会社 画像表示装置、およびヘッドマウントディスプレイ
JP2017220032A (ja) * 2016-06-07 2017-12-14 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、およびコンピュータプログラム
US10857455B2 (en) 2016-06-13 2020-12-08 Sony Interactive Entertainment Inc. Spectator management at view locations in virtual reality environments
JP2019526104A (ja) * 2016-06-13 2019-09-12 株式会社ソニー・インタラクティブエンタテインメント 仮想現実環境内のビュー位置における鑑賞者管理
JP6996285B2 (ja) 2017-12-25 2022-01-17 凸版印刷株式会社 Vrコンテンツ再生装置によるvrコンテンツの再生を制御するためのユーザインターフェースを携帯型端末が提供するための方法、携帯型端末、及びプログラム
JP2019114121A (ja) * 2017-12-25 2019-07-11 凸版印刷株式会社 Vrコンテンツ再生装置によるvrコンテンツの再生を制御するためのユーザインターフェースを携帯型端末が提供するための方法、携帯型端末、及びプログラム
JP2019205515A (ja) * 2018-05-28 2019-12-05 株式会社コロプラ ゲームプログラム、ゲーム方法、および情報処理端末
JP7403943B2 (ja) 2018-05-28 2023-12-25 株式会社コロプラ ゲームプログラム、ゲーム方法、および情報処理端末
KR20190141911A (ko) * 2018-06-15 2019-12-26 주식회사 룩시드랩스 안면 지지 마스크 및 이를 포함하는 헤드 마운트 디스플레이 장치
KR102185338B1 (ko) 2018-06-15 2020-12-01 주식회사 룩시드랩스 안면 지지 마스크 및 이를 포함하는 헤드 마운트 디스플레이 장치
KR20210000699A (ko) * 2018-08-28 2021-01-05 주식회사 룩시드랩스 생체 데이터 획득용 탈착식 기능모듈 및 이를 포함하는 헤드 마운트 디스플레이 장치
KR102312185B1 (ko) 2018-08-28 2021-10-13 주식회사 룩시드랩스 생체 데이터 획득용 탈착식 기능모듈 및 이를 포함하는 헤드 마운트 디스플레이 장치
WO2020059157A1 (ja) * 2018-09-20 2020-03-26 株式会社ソニー・インタラクティブエンタテインメント 表示システム、プログラム、表示方法、及び頭部装着装置
US11906740B2 (en) 2018-09-20 2024-02-20 Sony Interactive Entertainment Inc. Display system, program, display method, and head mounted device
JP2020201575A (ja) * 2019-06-06 2020-12-17 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置、表示制御方法、及び表示制御プログラム
JP7384576B2 (ja) 2019-06-06 2023-11-21 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置、表示制御方法、及び表示制御プログラム

Also Published As

Publication number Publication date
US20190310703A1 (en) 2019-10-10
WO2016063801A1 (ja) 2016-04-28
EP3211513B1 (en) 2021-01-13
US20170308158A1 (en) 2017-10-26
EP3211513A1 (en) 2017-08-30
CN106817913B (zh) 2020-10-09
US10379605B2 (en) 2019-08-13
JP6340301B2 (ja) 2018-06-06
EP3211513A4 (en) 2018-07-25
CN106817913A (zh) 2017-06-09
US10620699B2 (en) 2020-04-14

Similar Documents

Publication Publication Date Title
JP6340301B2 (ja) ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム
JP6669069B2 (ja) 検出装置、検出方法、制御装置、および制御方法
US9884248B2 (en) Display control method for head-mounted display (HMD) and image generation device
CN108292490B (zh) 显示控制装置和显示控制方法
US9599818B2 (en) Obstacle avoidance apparatus and obstacle avoidance method
WO2017094606A1 (ja) 表示制御装置及び表示制御方法
WO2017094608A1 (ja) 表示制御装置及び表示制御方法
WO2016013269A1 (ja) 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
JP2019000174A (ja) 情報処理方法、プログラム及びコンピュータ
JP6580624B2 (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2018160249A (ja) ヘッドマウントディスプレイシステム、ヘッドマウントディスプレイ、表示制御プログラム、及び表示制御方法
JP6445499B2 (ja) 表示制御プログラム、表示制御装置、及び表示制御方法
JP6683862B2 (ja) 表示制御装置及び表示制御方法
JP6891319B2 (ja) 表示制御装置及び表示制御方法
JP2018190395A (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
CN111208903B (zh) 信息传输方法、穿戴式设备及介质
JP6705929B2 (ja) 表示制御装置及び表示制御方法
JP7462591B2 (ja) 表示制御装置及び表示制御方法
WO2016158080A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP6711891B2 (ja) 表示制御プログラム、表示制御装置、及び表示制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170720

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180514

R150 Certificate of patent or registration of utility model

Ref document number: 6340301

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250