JP7027109B2 - 姿勢位置推測システム、姿勢位置推測方法、および姿勢位置推測装置 - Google Patents

姿勢位置推測システム、姿勢位置推測方法、および姿勢位置推測装置 Download PDF

Info

Publication number
JP7027109B2
JP7027109B2 JP2017199453A JP2017199453A JP7027109B2 JP 7027109 B2 JP7027109 B2 JP 7027109B2 JP 2017199453 A JP2017199453 A JP 2017199453A JP 2017199453 A JP2017199453 A JP 2017199453A JP 7027109 B2 JP7027109 B2 JP 7027109B2
Authority
JP
Japan
Prior art keywords
unit
image
posture
detected
movable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017199453A
Other languages
English (en)
Other versions
JP2019074362A (ja
JP2019074362A5 (ja
Inventor
正太郎 後藤
英明 清水
仁資 山崎
健志 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2017199453A priority Critical patent/JP7027109B2/ja
Priority to US16/154,983 priority patent/US11272152B2/en
Priority to EP18199612.5A priority patent/EP3470966B1/en
Publication of JP2019074362A publication Critical patent/JP2019074362A/ja
Publication of JP2019074362A5 publication Critical patent/JP2019074362A5/ja
Application granted granted Critical
Publication of JP7027109B2 publication Critical patent/JP7027109B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/98Accessories, i.e. detachable arrangements optional for the use of the video game device, e.g. grip supports of game controllers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、姿勢や位置を推測する技術に関し、より特定的には、現実空間に配置された被検出部を撮像装置で撮像した画像に基づいて、ユーザの把持する操作装置等の位置や姿勢を推測する技術に関する。
従来から、現実空間もしくは現実物体に配置された指標(マーカ)を、撮像装置で撮像した画像から検出、同定する、指標の同定技術が知られている(例えば、特許文献1)。この技術では、例えば、空間中を移動する現実物体に設置されたマーカをカメラによって撮像し、画像上におけるマーカの投影像の位置を検出することで、空間中における現実物体の位置や姿勢を計測している。また、現実空間に配置した複数のマーカを撮影することで、撮影しているカメラの空間中での位置や姿勢を計測している。このような技術は、VR(Virtual Reality)分野等でも用いられている。
特開2007-64808号公報
上記の技術では、マーカを撮影するために、複数台のカメラを固定的に設置する必要があり(例えば、ユーザとマーカの全体が撮像範囲に含まれるような位置にカメラを設置する等)、その設置の手間等が大がかりなものとなっていた。
それ故に、本発明の目的は、より簡易な構成の姿勢位置推測システムを提供することである。
上記目的を達成するために、例えば以下のような構成例が挙げられる。
構成例の一例は、可動撮像部と、立体画像提供部と、検出部と、特定部と、推測部と、画像生成部とを備える、姿勢位置推測システムである。可動撮像部は、周囲を撮像するための撮像部を有する。立体画像提供部は、互いに視差のある左目用画像および右目用画像からなる立体視画像を表示する少なくとも1つの表示部、立体視画像を見ている状態の当該ユーザの顔の一部と当接可能な当接部、および、ユーザによって把持されている状態の可動撮像部の撮像部によって撮像可能な被検出部を有する。検出部は、撮像部によって撮像された画像に含まれる被検出部を示す被検出部画像を検出する。特定部は、検出部によって検出された被検出画像の撮像された画像における位置および/または形状を特定する。推測部は、特定部によって特定された被検出画像の撮像された画像における位置および/または形状に基づいて、可動撮像部の姿勢および/または位置を推測する。画像生成部は、推測部による推測結果に基づいて、少なくとも1つの表示部に表示する立体視画像を生成する。
上記構成例によれば、可動撮像部をユーザが把持することによって、より簡易な構成の姿勢位置推測システムを提供することができる。
他の構成例として、可動撮像部は、更に、操作部、および、当該操作部に対するユーザの操作に基づいて所定のデータを生成する操作データ生成部を有し、画像生成部は、更に、推測部による推測結果と操作データ生成部によって生成されたデータとに基づいて、少なくとも1つの表示部に表示する立体視画像を生成してもよい。
上記構成例によれば、可動撮像部を用いた操作として、より多様な操作が可能となる。
他の構成例として、可動撮像部は、更に、撮像部の撮像方向と少なくとも実質的に同じ方向へ所定の光を発する発光部を有し、被検出部は、発光部からの所定の光を反射する再帰性反射材であってもよい。
上記構成例によれば、被検出部をより確実に検出することができる。
他の構成例として、被検出部は、ユーザの顔の一部が当接部に当接している状態で少なくとも1つの表示部を見ている当該ユーザの視線方向と実質的に同じ方向を向く立体画像提供部の所定面、および/または、当該視線方向に対向する方向から見た場合に視認可能な立体画像提供部における位置に設けられていてもよい。
上記構成例によれば、可動撮像部の位置や姿勢の推測精度を高めることができる。
他の構成例として、立体画像提供部は、所定の領域を有する複数の被検出部を有し、当該複数の被検出部は、同一の直線上には並ばないような3つの非検出部を含むようにしてもよい。
上記構成例によれば、可動撮像部の位置や姿勢の推測精度を高めることができる
他の構成例として、複数の被検出部は、立体画像提供部の所定面を正面視した場合において、少なくとも3つ以上の被検出部が左右非対称および/または上下非対称となるように配置されてもよい。
上記構成例によれば、可動撮像部の位置や姿勢の推測精度を高めることができる。
他の構成例として、複数の被検出部は、当該複数の被検出部それぞれを終点とした場合に、当該終点までの直線距離が実質的に同一となるような始点位置である中央点を通る直線を基準として左右非対称および/または上下非対称となるように配置されていてもよい。
上記構成例によれば、可動撮像部の位置や姿勢の推測精度を高めることができる。
他の構成例として、可動撮像部は、更に、加速度センサおよび/または角速度センサを有し、推測部は、更に、加速度センサおよび/または角速度センサによる検出結果に基づいて、可動撮像部の姿勢および/または位置を推測するよう構成してもよい。
上記構成例によれば、可動撮像部の位置や姿勢を推測できる範囲をより広げることができる。
他の構成例として、推測部は、可動撮像部で撮像された画像において被検出部画像を判別または特定できない場合に、加速度センサおよび/または角速度センサによる検出結果に基づいて、可動撮像部の姿勢および/または位置を推測するようにしてもよい。
上記構成例によれば、可動撮像部の位置や姿勢を推測できる範囲をより広げることができる。
他の構成例として、姿勢位置推測システムは、一方の端が可動撮像部の少なくとも一部と接続され、他方の端が立体画像提供部との一部と接続される接続部を更に備えていてもよい。
上記構成例によれば、接続部によって、可動撮像部を移動させることができる範囲が制限されるため、姿勢や位置の推測精度を高めることが可能となる。
他の構成例として、接続部と立体画像提供部とが接続される位置は、被検出部が設けられている面の下辺近傍であって、当該被検出部が設けられている面を正面視した場合に略中央となる位置を通って上下方向に伸びる直線の上または近傍であってもよい。
上記構成例によれば、被検出部をより確実に撮像することができ、姿勢や位置の推測精度を高めることができる。
することが可能となる。
他の構成例として、接続部は、当該接続部と立体画像提供部とが接続される位置の近傍に設けられる第1の可動部を有していてもよい。そして、第1の可動部によって、立体画像提供部と可動撮像部との相対的な位置関係および/または姿勢関係が変更可能であってもよい。
上記構成例によれば、可動撮像部の可動範囲をより広くすることができる。
他の構成例として、接続部は、当該接続部と立体画像提供部が接続される位置、および、当該接続部と可動撮像部とが接続される位置のいずれにも該当しない所定の位置に設けられる第2の可動部を有していてもよい。そして、第2の可動部によって、立体画像提供部と可動撮像部との相対的な位置関係および/または姿勢関係が変更可能であってもよい。
上記構成例によれば、可動撮像部の可動範囲をより広くすることができる。
他の構成例として、接続部は、当該接続部と可動撮像部とが接続される位置の近傍に設けられる第3の可動部を有していてもよい。そして、第3の可動部によって、立体画像提供部と可動撮像部との相対的な位置関係および/または姿勢関係が変更可能であってもよい。
上記構成例によれば、可動撮像部の可動範囲をより広くすることができる。
他の構成例として、接続部は、伸縮可能であってもよい。
上記構成例によれば、伸縮可能な構成であるため、例えば収納時等においてユーザの利便性を高めることができる。
他の構成例として、撮像部および操作部は、可動撮像部に着脱可能なハウジングに設けられていてもよい。
上記構成例によれば、撮像部と操作部を有するハウジングを、例えば単一のコントローラとして、可動撮像部から取り外した上で把持して利用することができる。
本実施形態によれば、より簡易な構成の姿勢位置推測システムを提供することができる。
本実施形態の一例であるゲームシステムの全体像を示す模式図 ゲームシステム1を用いて遊ぶ(ゲーム処理を実行する)ユーザの様子を示す模式図 本実施形態に係るゲーム処理の画面の一例 ゲーム装置本体3の外観図 ゲーム装置本体3の内部構成の一例を示すブロック図 コントローラ4の一例を示す六面図 コントローラ4の内部構成を示すブロック図 VRゲームキット2の一例を示す六面図 VRゲームキット2の一例を示す斜視図 VRゲームキット2の一例を示す斜視図 VRゲームキット2を分離した例を示す模式図 第1アームの可動例を示す模式図 第1アームと第2アームの姿勢変化の例を示す模式図 VRゴーグル部5および把持操作部6の位置関係の変化例を説明するための図 VRゴーグル部5および把持操作部6の位置関係の変化例を説明するための図 VRゴーグル部5および把持操作部6の姿勢関係の変化例を説明するための図 VRゴーグル部5および把持操作部6の姿勢関係の変化例を説明するための図 接続アーム部を最長の状態としたときの模式図 接続アーム部を最短の状態としたときの模式図 VRゴーグル部の一例を示す模式図 ゲーム装置本体3のVRゴーグル部への装着例を示す図 ゲーム装置本体3のVRゴーグル部への装着例を示す図 マーカ配置部202を正面視した模式図 マーカ配置部202の他の一例を示す模式図 把持操作部6へのコントローラ4の装着に関して説明するための図 把持操作部6へのコントローラ4の装着に関して説明するための図 把持操作部6へのコントローラ4の装着に関して説明するための図 把持操作部6へのコントローラ4の装着に関して説明するための図 ゲーム装置本体3のDRAM85に格納されるプログラムおよび情報の一例 ゲーム装置本体3で実行されるゲーム処理の詳細を示すフローチャート
以下、本発明の一実施形態について説明する。
[1.ゲームシステムの全体構成]
以下、図面を参照して、本発明の一実施形態に係る位置姿勢推測システムについて説明する。なお、本実施形態では、位置姿勢推測システムの一例として、ゲームシステムを例として説明する。図1は、ゲームシステム1の全体像を示す模式図である。図1において、ゲームシステム1は、VR(Virtual Reality)ゲームキット2と、情報処理装置の一例としてのゲーム装置本体3と、コントローラ4とを含む。また、VRゲームキット2は、VRゴーグル部5と把持操作部6と、この両者を接続する接続アーム部7とを含む。接続アーム部7には、関節部分が一つまたは複数設けられており、この関節部分において接続アーム部を折りたたむことが可能である。これにより、接続アーム部7が全体として、ある程度伸縮可能なように構成されている。また、VRゴーグル部5には、ゲーム装置本体3を差し込んで固定することができるゲーム装置装着部201が設けられている。また、把持操作部6にも、コントローラ4を挿入して固定できるコントローラ装着部231が設けられている。更に、VRゴーグル部5は、当該VRゴーグル部5に備えられている2つのレンズ(右目用レンズ206および左目用レンズ205)を介して、ユーザがゲーム装置装着部201に挿入されたゲーム装置本体3のディスプレイ12を見ることができるように構成されている(いわゆるVRゴーグルとして機能するものである)。また、VRゴーグル部5、把持操作部6のいずれも、ユーザが片手又は両手で把持できるような把持部(204、232aおよび後述の232b)を有している。把持部は、一例として、略棒状の形状またはグリップ形状であってもよい。
ゲーム装置本体3は、一例として、略板状のハウジングを備えており、その主面にはディスプレイが設けられている。この主面は、大略的には矩形形状である。また、コントローラ4はゲーム装置本体3と無線接続される。コントローラ4における操作内容を示す情報は、ゲーム装置本体に無線通信で送信される。また、詳細は後述するが、コントローラ4の下面には赤外発光部および赤外撮像部が設けられている。また、VRゴーグル部5の把持操作部6側の面(後述のマーカ配置部202)には、被検出部(検出対象)の一例として、各々の少なくとも一部が再帰性反射材からなる複数のマーカが設けられている。
本実施形態では、ゲーム装置本体3のディスプレイ12側が上記レンズ側を向くようにして、ゲーム装置本体3をゲーム装置装着部201に挿入して装着する。また、コントローラ4の下面(赤外発光部および赤外撮像部のある面)がVRゴーグル部5の方を向くようにして、コントローラ4をコントローラ装着部231に挿入して装着する。このようにVRゲームキット2にゲーム装置本体3およびコントローラ4を装着することで、本実施形態にかかるゲームシステム1におけるゲーム処理を実行する。
なお、この構成は、以下のように言い換えることもできる。すなわち、VRゴーグル部5にゲーム装置本体3を装着した構成を第1のパーツとし、把持操作部6にコントローラ4を装着した構成を第2パーツとする。第1のパーツは、後述の立体視画像(VR空間画像)をユーザに提供するための機能および上記マーカを有しており、第2のパーツは、このマーカを撮像可能な撮像機能を有している。そして、この第1のパーツおよび第2のパーツが、接続アーム部7を介して接続された構成と言うこともできる。なお、第1のパーツは、VRゴーグル部5とゲーム装置本体3とからなる立体画像提供部の一例であり、第2のパーツは、コントローラ4と把持操作部6とからなる可動撮像部の一例であるとも言える。
図2に、ゲームシステム1を用いて遊ぶ(ゲーム処理を実行する)ユーザの様子を示す模式図を示す。この図の例では、ユーザは、左手でVRゴーグル部5を把持し、右手で把持操作部6を把持している。また、ユーザは、VRゴーグル部5のレンズの位置をユーザの目の位置に合わせてのぞき込むような姿勢を取っている。換言すれば、ユーザの顔の一部をVRゴーグル部5の略円弧形状となっている部分に当接させている姿勢となっている。そして、ユーザは、VRゴーグル部5の位置は基本的には動かさずに、把持操作部6の位置を変化させることで、ゲームをプレイする。
図3に、本実施形態に係るゲーム処理の画面の一例を示す。本ゲームは、彫刻を題材にしたゲームである。具体的には、仮想空間内に存在するブロックオブジェクト501をドリルオブジェクト502で削って変形させていく、彫刻ゲームである。ユーザは、(現実空間において)把持操作部6を把持した右腕を動かして把持操作部6の位置を変化させることで、仮想空間内におけるドリルオブジェクト502の位置を移動させることができる。また、詳細は後述するが、把持操作部6において右手で把持されている把持部については、ユーザが右手をより握り込むようにすることで、コントローラ4の所定のボタンを押下できるように構成されている。このボタンが押下されることで、ドリルオブジェクト502のドリル部分を回転させることができる。つまり、ユーザは、ドリルオブジェクト502のドリル部分をブロックオブジェクト501に接触させた状態で、上記操作でこの先端部分を回転させることで、ブロックオブジェクト501を削ることができる。
なお、上記ドリルオブジェクト502の移動操作は、以下のような処理によって実現される。上記図2で示したような状態において、把持操作部6に装着されたコントローラ4(赤外発光部)から、VRゴーグル部5側(ユーザ側)に向けて赤外光が照射される。また、コントローラ4の赤外撮像部により、VRゴーグル部5のある側(赤外光の照射方向)を撮像方向とした撮像処理が行われる。この撮像画像には、VRゴーグル部5側に設けられたマーカ(再帰性反射材)によって反射された赤外光(以下、反射光)が含まれる。この撮像画像を解析処理することで撮像画像内におけるマーカ(反射光)の位置が算出(検出)され、その位置に基づいて、マーカに対するコントローラ4の相対的な姿勢が算出される。そして、この算出されたコントローラ4の姿勢に応じて、上記ドリルオブジェクト502の位置を変化させるものである。
なお、本実施形態では、上記ゲーム画面は、立体視画像(VR空間画像、VR映像)として表示される。そのため、厳密には、ディスプレイ12には、互いに視差がある右目用画像と左目用画像とが表示される。そして、VRゴーグル部5の右目用のレンズの位置とディスプレイ12における右目用画像の表示位置の関係についても、VRゴーグル部5の右目用レンズを通してユーザの右目に右目用画像が視認されるように構成されている。同様に、左目用のレンズの位置とディスプレイ12における左目用画像の表示位置の関係についても、VRゴーグル部5の左目用レンズを通してユーザの左目に左目用画像が視認されるように構成されている。ユーザの右目に右目用画像を、ユーザの左目に左目用画像を視認させることにより(すなわち、互いに視差のある右目用画像および左目用画像をユーザに視認させることにより)、ユーザにとって立体感のある立体視画像を表示することができる。上記図3に示したゲーム画面例は、VRゴーグル部5のレンズを通して見た、ユーザから見える立体視画像の例である。
次に、ゲームシステム1を構成する各要素について説明する。
[ゲーム装置本体3のハードウェア構成について]
まず、ゲーム装置本体3について説明する。図4は、ゲーム装置本体3の外観図である。上記のように、ゲーム装置本体3は、略板状のハウジング11を備える。また、ゲーム装置本体3は、ハウジング11の主面(表側の面)に設けられるディスプレイ12を備える。ディスプレイ12は、ゲーム装置本体3が生成した画像を表示する。本実施形態においては、ディスプレイ12は、液晶表示装置(LCD)とする。ただし、ディスプレイ12は任意の種類の表示装置であってよい。
また、図示は省略するが、ハウジング11の上側面には、スロットが設けられている。このスロットは、所定の種類の記憶媒体を装着可能な形状を有する。所定の種類の記憶媒体は、例えば、ゲームシステム1およびそれと同種の情報処理装置に専用の記憶媒体(例えば、専用メモリカード)である。所定の種類の記憶媒体は、例えば、ゲーム装置本体3で利用されるデータ(例えば、アプリケーションのセーブデータ等)、および/または、ゲーム装置本体3で実行されるプログラム(例えば、アプリケーションのプログラム等)を記憶するために用いられる。
また、ハウジング11の上側面には、電源ボタンも備えられている。また、ハウジング11の内部には、スピーカも備えられている。
図5は、ゲーム装置本体3の内部構成の一例を示すブロック図である。図5において、ゲーム装置本体3は、一つまたは複数のプロセッサ81を備える。プロセッサ81は、ゲーム装置本体3において実行される各種の情報処理を実行する情報処理部であって、例えば、CPU(Central Processing Unit)のみから構成されてもよいし、CPU機能、GPU(Graphics Processing Unit)機能等の複数の機能を含むSoC(System-on-a-chip)から構成されてもよい。プロセッサ81は、記憶部(具体的には、フラッシュメモリ84等の内部記憶媒体、あるいは、スロット23に装着される外部記憶媒体等)に記憶される情報処理プログラム(例えば、ゲームプログラム)を実行することによって、各種の情報処理を実行する。
ゲーム装置本体3は、自身に内蔵される内部記憶媒体の一例として、フラッシュメモリ84およびDRAM(Dynamic Random Access Memory)85を備える。フラッシュメモリ84およびDRAM85は、プロセッサ81に接続される。フラッシュメモリ84は、主に、ゲーム装置本体3に保存される各種のデータ(プログラムであってもよい)を記憶するために用いられるメモリである。DRAM85は、情報処理において用いられる各種のデータを一時的に記憶するために用いられるメモリである。
ゲーム装置本体3は、スロットインターフェース(以下、「I/F」と略記する。)91を備える。スロットI/F91は、プロセッサ81に接続される。スロットI/F91は、スロット23に接続され、スロット23に装着された所定の種類の記憶媒体(例えば、専用メモリカード)に対するデータの読み出しおよび書き込みを、プロセッサ81の指示に応じて行う。
プロセッサ81は、フラッシュメモリ84およびDRAM85、ならびに上記各記憶媒体との間でデータを適宜読み出したり書き込んだりして、上記の情報処理を実行する。
ゲーム装置本体3は、ネットワーク通信部82を備える。ネットワーク通信部82は、プロセッサ81に接続される。ネットワーク通信部82は、ネットワークを介して外部の装置と通信(具体的には、無線通信)を行う。本実施形態においては、ネットワーク通信部82は、第1の通信態様としてWi-Fiの規格に準拠した方式により、無線LANに接続して外部装置と通信を行う。また、ネットワーク通信部82は、第2の通信態様として所定の通信方式(例えば、独自プロトコルによる通信や、赤外線通信)により、同種の他のゲーム装置本体3との間で無線通信を行う。なお、上記第2の通信態様による無線通信は、閉ざされたローカルネットワークエリア内に配置された他のゲーム装置本体3との間で無線通信可能であり、複数のゲーム装置本体3の間で直接通信することによってデータが送受信される、いわゆる「ローカル通信」を可能とする機能を実現する。
ゲーム装置本体3は、コントローラ通信部83を備える。コントローラ通信部83は、プロセッサ81に接続される。コントローラ通信部83は、コントローラ4と無線通信を行う。ゲーム装置本体3とコントローラ4との通信方式は任意であるが、本実施形態においては、コントローラ通信部83は、コントローラ4との間で、Bluetooth(登録商標)の規格に従った通信を行う。
また、ディスプレイ12は、プロセッサ81に接続される。プロセッサ81は、(例えば、上記の情報処理の実行によって)生成した画像および/または外部から取得した画像をディスプレイ12に表示する。
ゲーム装置本体3は、コーデック回路87およびスピーカ(具体的には、左スピーカおよび右スピーカ)88を備える。コーデック回路87は、スピーカ88に接続されるとともに、プロセッサ81に接続される。コーデック回路87は、スピーカ88に対する音声データの入出力を制御する回路である。
ゲーム装置本体3は、電力制御部97およびバッテリ98を備える。電力制御部97は、バッテリ98およびプロセッサ81に接続される。電力制御部97は、プロセッサ81からの指令に基づいて、バッテリ98から上記各部への電力供給を制御する。
[コントローラ4のハードウェア構成について]
次に、コントローラ4について説明する。図6は、コントローラ4の一例を示す六面図である。図6に示すように、コントローラ4は、ハウジング51を備える。本実施形態においては、ハウジング51は、縦長の形状、すなわち、上下方向に長い形状である。コントローラ4は、縦長となる向きで把持されることも可能である。ハウジング51は、縦長となる向きで把持される場合に片手、特に右手で把持可能な形状および大きさをしている。また、コントローラ4は、横長となる向きで、両手で把持されることも可能である。
コントローラ4は、方向入力部としてアナログスティック52を備える。また、コントローラ4は、ハウジング51の主面上に4つの操作ボタン53~56(具体的には、Aボタン53、Bボタン54、Xボタン55、およびYボタン56)を備える。更に、コントローラ4は、+(プラス)ボタン57およびホームボタン58を備える。また、コントローラ4は、ハウジング51の側面の右上に第1Rボタン60およびZRボタン61を備える。また、コントローラ4は、第2Lボタン65および第2Rボタン66を備える。上記の各種ボタンおよびアナログスティック52は、自身に対して行われた操作に関する情報を、適宜のタイミングで繰り返し通信制御部101へ出力する。
また、ハウジング51の下側面には、窓部68が設けられる。詳細は後述するが、コントローラ4は、ハウジング51の内部に配置される赤外撮像部123および赤外発光部124を備えている。赤外撮像部123は、コントローラ4の下方向(図6に示すy軸負方向)を撮像方向として、窓部68を介してコントローラ4の周囲を撮像する。赤外発光部124は、コントローラ4の下方向(図6に示すy軸負方向)を中心とする所定範囲を照射範囲として、赤外撮像部123が撮像する撮像対象に窓部68を介して赤外光を照射する。窓部68は、赤外撮像部123のカメラのレンズや赤外発光部124の発光体等を保護するためのものであり、当該カメラが検知する波長の光や当該発光体が照射する光を透過する材質(例えば、透明な材質)で構成される。なお、窓部68は、ハウジング51に形成された孔であってもよい。なお、本実施形態においては、カメラが検知する光(本実施形態においては、赤外光)以外の波長の光の透過を抑制するフィルタ部材を赤外撮像部123自身が有する。ただし、他の実施形態においては、窓部68がフィルタの機能を有していてもよい。
なお、他の実施形態では、上記赤外発光部124は必ずしも備わっていなくても良い。この場合は、例えば、マーカが赤外光を発するような構成としてもよい。
図7は、コントローラ4の内部構成を示すブロック図である。図7に示すように、コントローラ4は、ゲーム装置本体3との間で通信を行う通信制御部111を備える。通信制御部111には、通信部119が含まれる。また、通信制御部111は、各構成要素に接続される。また、コントローラ4は、例えばフラッシュメモリ等のメモリ112を備える。通信制御部111は、例えばマイコン(マイクロプロセッサとも言う)で構成され、メモリ112に記憶されるファームウェアを実行することによって各種の処理を実行する。
通信制御部111は、無線通信を用いてゲーム装置本体3と通信を行うことが可能である。すなわち、通信制御部111は、通信部119を用いて、ゲーム装置本体3(具体的には、コントローラ通信部83)との間で無線通信を行う。コントローラ通信部83と通信制御部111(通信部119)との間の無線通信は、例えばBluetooth(登録商標)の規格に従って行われる。
コントローラ4は、各ボタン113、アナログスティック52を備える。各ボタン113およびアナログスティック52は、自身に対して行われた操作に関する情報を、適宜のタイミングで繰り返し通信制御部111へ出力する。
また、コントローラ4は、慣性センサを備える。具体的には、コントローラ3は、加速度センサ114および/または角速度センサ115を備える。本実施形態においては、加速度センサ114は、所定の3軸(例えば、図6に示すxyz軸)方向に沿った加速度の大きさを検出する。なお、加速度センサ114は、1軸方向あるいは2軸方向の加速度を検出するものであってもよい。本実施形態においては、角速度センサ115は、所定の3軸(例えば、図6に示すxyz軸)回りの角速度を検出する。なお、角速度センサ115は、1軸回りあるいは2軸回りの角速度を検出するものであってもよい。加速度センサ114および角速度センサ115は、それぞれ通信制御部111に接続される。そして、加速度センサ114および角速度センサ115の検出結果は、適宜のタイミングで繰り返し通信制御部111へ出力される。
通信制御部111は、各入力部(具体的には、各ボタン113、アナログスティック52、各センサ114および115)から、入力に関する情報(具体的には、操作に関する情報、またはセンサによる検出結果)を取得する。通信制御部111は、取得した情報(または取得した情報に所定の加工を行った情報)を含む操作データをゲーム装置本体3へ送信する。なお、操作データは、所定時間に1回の割合で繰り返し送信される。なお、入力に関する情報がゲーム装置本体3へ送信される間隔は、各入力部について同じであってもよいし、同じでなくてもよい。
上記操作データがゲーム装置本体3へ送信されることによって、ゲーム装置本体3は、コントローラ4に対して行われた入力を得ることができる。すなわち、ゲーム装置本体3は、各ボタン113およびアナログスティック52に対する操作を、操作データに基づいて判別することができる。また、ゲーム装置本体3は、コントローラ4の動きおよび/または姿勢に関する情報を、操作データ(具体的には、加速度センサ114および角速度センサ115の検出結果)に基づいて算出することができる。
なお、他の実施形態では、コントローラ4の動きおよび/または姿勢に関する情報を、加速度センサまたは角速度センサのいずれか一方のみに基づいて算出するようにしてもよい。
また、コントローラ4は、赤外撮像部123を備える。赤外撮像部123は、コントローラ4の周囲を撮像する赤外線カメラを有する。一例として、ゲーム装置本体3および/またはコントローラ4は、撮像された情報(例えば、撮像された撮像画像における少なくとも一部の領域全体を分割した複数のブロックの輝度に関連する情報等)を算出し、当該情報に基づいて、コントローラ4の周囲変化を判別する。また、赤外撮像部123は、環境光のみによって撮像を行ってもよいが、本実施形態においては、赤外線を照射する赤外発光部124を有する。赤外発光部124は、例えば、赤外線カメラが画像を撮像するタイミングと同期して、赤外線を照射する。また、その照射方向については、少なくとも、赤外線カメラの撮像方向と実質的に同じ方向に赤外線を照射する。そして、赤外発光部124によって照射された赤外線が撮像対象によって反射され、当該反射された赤外線が赤外線カメラによって受光されることで、赤外線の画像が取得される。これによって、赤外撮像部123は、より鮮明な赤外線画像を得ることができる。なお、赤外撮像部123と赤外発光部124とは、それぞれ別のデバイスとしてコントローラ4内に設けられてもよいし、同じパッケージ内に設けられた単一のデバイスとしてコントローラ4内に設けられてもよい。また、本実施形態においては、赤外線カメラを有する赤外撮像部123が用いられるが、他の実施形態においては、撮像手段として、赤外線カメラに代えて可視光カメラ(可視光イメージセンサを用いたカメラ)が用いられてもよい。また、他の実施形態では、赤外発光部124は設けず、赤外撮像部123と、可視光撮像部としての可視光カメラだけで撮像するような構成としても良い。
コントローラ4は、処理部121を備える。処理部121は、通信制御部111に接続される。また、処理部121は、赤外撮像部123、および赤外発光部124に接続される。処理部121は、CPUやメモリ等を含み、コントローラ4に備えられた図示しない記憶装置(例えば、不揮発性メモリ等)に記憶された所定のプログラム(例えば、画像処理や各種演算を行うためのアプリケーションプログラム)に基づいて、ゲーム装置本体3からの指令に応じて赤外撮像部123に対する管理処理を実行する。例えば、処理部121は、赤外撮像部123に撮像動作を行わせたり、撮像結果に基づく情報(撮像画像の情報、あるいは、当該情報から算出される情報等)を取得および/または算出して通信制御部111を介してゲーム装置本体3へ送信したりする。また、処理部121は、ゲーム装置本体3からの指令に応じて赤外発光部124に対する管理処理を実行する。例えば、処理部121は、ゲーム装置本体3からの指令に応じて赤外発光部124の発光を制御する。なお、処理部121が処理を行う際に用いるメモリは、処理部121内に設けられてもよいし、メモリ112であってもよい。
コントローラ4は、電力供給部118を備える。本実施形態において、電力供給部118は、バッテリおよび電力制御回路を有する。図示しないが、電力制御回路は、バッテリに接続されるとともに、コントローラ4の各部(具体的には、バッテリの電力の給電を受ける各部)に接続される。
[VRゲームキットについて]
次に、VRゲームキット2について説明する。図8は、VRゲームキット2の一例を示す六面図である。また、図9は、VRゲームキット2をVRゴーグル部5の側から見た斜視図である。図1は、VRゲームキット2を把持操作部6側からみた斜視図である。なお、各パーツの構成の理解を助けるために、図11に、VRゴーグル部5、接続アーム部7、把持操作部6を分離した場合の模式図も示す。
VRゴーグル部5は、ゲーム装置装着部201と、マーカ配置部202と、把持部204と、レンズパーツ部207とを含んでいる。レンズパーツ部207は、当接部203と、左目用レンズ205と、右目用レンズ206とを含む。当接部203は、VRゴーグル部5に装着されたゲーム装置本体3のディスプレイをユーザが見る場合に、ユーザの顔の一部に当接する部位である。レンズパーツ部207とゲーム装置装着部201、マーカ配置部202は、把持部204の上方となる位置に設けられている。
マーカ配置部202は、略板状の部材である。また、マーカ配置部202の一面(図9のz軸正方向を向く面)が、把持操作部6と対向するような位置に設けられている。ゲーム装置装着部201は、ゲーム装置本体3を装着するためのものである。ゲーム装置装着部201は、マーカ配置部202とレンズパーツ部207とに挟まれるような位置に配置されている。すなわち、VRゴーグル部5に装着されたゲーム装置本体3のディスプレイ12を見ている状態のユーザの視線方向に沿って、レンズパーツ部207、ゲーム装置装着部201、マーカ配置部202の順に配置されている。また、マーカ配置部202は、VRゴーグル部5に装着されたゲーム装置本体3のディスプレイ面の反対側(裏側)となるような位置に配置されているとも言える。また、詳細は後述するが、マーカ配置部202(の把持操作部6側の面)には、5つのマーカ211が設置されている。換言すれば、ディスプレイ面と略平行となるような面であって、ディスプレイを見ている状態のユーザの視線方向側にあるVRゴーグル部5の外面部分にマーカ211が配置されている。
把持操作部6は、コントローラ4を装着するためのコントローラ装着部231と、把持部232a、232bとを有する。ユーザは、例えば右手でこの把持部232aおよび232bをまとめて握るようにして、把持操作部6を把持する。なお、把持操作部6へのコントローラ4の装着の詳細については後述する。
接続アーム部7は、VRゴーグル部5と把持操作部6とを接続する。図8~10の例では、接続アーム部7は、第1アーム251、第2アーム252と、可動関節部として4つの関節部253a~253dを有している。関節部253aは、第1アーム251の一方の端、具体的には、立体画像提供部により近い方の端側に設けられる。関節部253bは、第1アーム251の他方の端に設けられる。また、関節部253cは、第2アーム252の一方の端、具体的には、立体画像提供部により近い方の端(すなわち、第1アーム251と接続されている部分)に設けられる。関節部253dは、第2アーム252の他方の端側(すなわち、可動撮像部により近い方の端側)に設けられている。なお、関節部253aについては、接続アーム部7の立体画像提供部により近い方の端側に設けられているとも言える。関節部253bおよび253cについては、接続アーム部7の一端と他端の間に設けられているとも言える。関節部253dについては、接続アーム部7の可動撮像部により近い方の端側に設けられるとも言える。第1アーム251、第2アーム252は、各関節部を支点として、上記図2のx軸周りで姿勢を変化させることが可能となっている(例えば図12参照)。つまり、x軸回りの回転が可能となっている。また、関節部253bと253cとは、第1アーム251と第2アーム252とが上記図2のz軸周りに姿勢を変化させることが可能なように接続されている(例えば図13参照)。つまり、z軸回りの回転が可能となっている。回転可能とする構造はどのようなものでも良いが、例えば、関節部253bと関節部253cが互いに対向する面同士を、円盤状のジョイントで接続する等で、回転可能に構成されている(その他、いわゆるユニバーサルジョイントを採用した構成であってもよい)。上記のことから、関節部253は、接続アーム部7の可動部としての役割を有しているといえる。
なお、関節部253aおよび253dについても、上記z軸回りの回転が可能な構成であってもよい。例えば、関節部253aおよび253dの部分についても、上記関節部253bと関節部253cと同様の構成を採用するようにしてもよい。
このように接続アーム部7が関節部253を有する構成とすることで、VRゴーグル部5および把持操作部6(ひいては、立体画像提供部と可動撮像部)との間の位置関係、および/または、姿勢関係を変化させることが可能となる。図14および図15に、当該位置関係の変化の例を示す。図14は、VRゲームキット2を右側面から見た場合を想定した模式図である。この図では、接続アーム部7が当該図の水平方向に伸びきっている状態となっている。一方、図15は、接続アーム部7が略V字型となっている状態である。そのため、VRゴーグル部5および把持操作部6との間のz軸上の距離をみると、図14の場合より図15のほうが短い距離となる。すなわち、図14の場合よりも図15のほうが、把持操作部6がVRゴーグル部5により近づいた位置に変化していることになる。つまり、VRゴーグル部5および把持操作部6との位置関係が変化している。また、図16および図17に、姿勢関係の変化の例を示す。図16は、上記図14のような状態のVRゲームキット2を、把持操作部6側から(z軸に沿って)見た場合を想定した模式図である。なお、図16および図17では、把持操作部6の部分を検出しやすくするため、当該部分をドットパターンで示し、また、VRゴーグル部5および把持操作部6の関係をわかりやすくするため、接続アーム部7の図示は省略している。この図16の状態から、把持操作部6の姿勢をz軸回りに回転させることで変化させた状態(厳密には、本例の構成の場合は、第2アーム252も一緒に回転することになる)を、図17で示している。つまり、図16および図17とでは、VRゴーグル部5および把持操作部6の姿勢関係が変化しているものといえる。
また、接続アーム部7とVRゴーグル部5の接続位置について、本実施形態では、図9~図10のx軸方向における略中央となる位置であって、レンズパーツ部207の下側となるような位置に接続アーム部7が接続されている。換言すれば、マーカ配置部202の下辺の略中央近傍の位置であって、マーカ配置部202の略中央となる位置を通って上下に伸びる直線を含むような位置に接続されている。また、把持操作部6と接続アーム部7との接続位置については、本実施形態では、VRゴーグル部5側の端近傍となる位置で、コントローラ装着部231の下端部分近傍の位置に接続されている。
なお、上記関節部の接続位置や第1アーム251、第2アーム252(ひいては、把持操作部6)の可動範囲は一例であり、上記の構成に限るものではない。関節部の数を増やして第1アーム251、第2アーム252の可動範囲等をより大きくしてもよいし、逆に、関節部の数を減らして、第1アーム251、第2アーム252の可動範囲等をより小さくしてもよい。あるいは、例えば第1アーム251のみを用いるような構成でもよいし、アームの数を3以上とする構成であってもよい。
また、本実施形態では、第1アーム251と第2アーム252の長さは同じであるものとする。そして、図18に示すように、接続アーム部7を最長の状態としたときの長さLについては、例えば、成人男性の平均的な腕の長さとほぼ同じか、これより少し短い程度であるものとする。
ここで、図19に、接続アーム部7を折りたたみ、最短の状態にした(折りたたんだ)場合の例を示す。図19に示すように、最短の状態にした場合でも、マーカ配置部202と把持操作部6(コントローラ4の下面)との間で、ある程度の距離Mが確保されている。換言すれば、接続アーム部7は、最短の状態であっても、コントローラ4から赤外光をマーカ配置部202に照射し、その反射光を赤外撮像部123で撮像できる程度の距離が確保されるように構成されている。
本実施形態では、このようなVRゲームキット2を、段ボール素材の組み立てキットという形でユーザに提供する。ユーザは、自分でこのVRゲームキット2を組み立てるというものである。なお、他の実施形態では、ユーザに組み立てを任せる組み立てキットという形でなくともよい。例えば、VRゴーグル部5、接続アーム部7、把持操作部6がプラスチック等の素材で一体成形された完成品として提供するようにしてもよい。もちろん、プラスチック成形ではあるが一体成形ではなく別体成形としてもよい。すなわち、VRゴーグル部5、接続アーム部7、把持操作部6のそれぞれをプラスチック成形して、接続アーム部7で接続可能な構成(いわば、プラスチック素材の組み立てキット)としてもよい。
次に、VRゴーグル部5の詳細を説明する。本実施形態では、レンズパーツ部207については着脱可能なように構成されている。参考のため、図20に、レンズパーツ部207が分離した例の模式図を示す。図20では、レンズパーツ部207の左右の凸部を、VRゴーグル部5の凹部に合わせて、上方から差し込むようにして装着することができる。
なお、ゲーム装置本体3については、図21に示すようにゲーム装置装着部201の右側(あるいは左側)に設けられた開口部から挿入することで、図22に示すように装着される。
なお、他の実施形態では、上記のようにレンズパーツ部が着脱可能な構成でなくともよい。本実施形態では、段ボール素材の組み立てキットを想定するため、上記のように着脱可能な構成であったが、着脱機構は設けずに、例えばプラスチック等で一体的に成形したものであってもよい。
次に、上記マーカ配置部202におけるマーカに関して説明する。図23に、マーカ211が配置されている面を正面として、マーカ配置部202を正面視した模式図を示す。すなわち、上記図2のような状態において、把持操作部6のある方向側にあたるVRゴーグル部5の面を正面として正面視した図である。本実施形態では、マーカ211a、211b、211c、211d、211eの5つのマーカ211がマーカ配置部202上に設けられている。換言すれば、マーカ211は、VRゴーグル部5に装着されたディスプレイ12をユーザが見ている状態での当該ユーザの視線方向と実質的に同じ方向を向く面上に配置されていると言える。図23に示すように、マーカ配置部202は矩形形状である。また、各マーカ211は、正方形の形状を有している。また、本実施形態では、上記マーカ211a~211eは、再帰性反射材である。このマーカ211は、マーカ配置部202に貼り付けられているものとする。
上記5つのマーカのうち、4つのマーカ(マーカ211a~211d)については、マーカ配置部202より小さな矩形形状を想定した場合(図23の点線部分213)の、その四隅となるような位置にそれぞれ配置される。そして、残りの1つ(マーカ211e)は、上記想定した矩形形状における上辺部の略中央となるような位置に配置される。ここで、図23において、この5つのマーカ211の配置は、図23の点線214を基準に、上下非対称な配置となっている。当該点線214は、上記4つのマーカの中央点を通る線であり、かつ、左右方向に伸びる線となっている。ここで、当該中央点とは、その位置を始点として、マーカ211a~211dの4つのマーカをそれぞれ終点とする4本の直線を想定した場合に、これら4本の直線の長さ(始点から終点までの距離)が実質的に同一となるような位置(等距離となる位置)のことを指すものとする。また、これら5つのマーカの配置は、実質的に左右方向に延び、かつ、上記中央点を通る第2直線(点線214)を基準として上下非対称となるようにマーカを配置しているともいえる。換言すれば、本実施形態では、これら5つのマーカ211が同一直線上に並ばないように配置されている。このように上下非対称となるようマーカ211を配置としているのは、所定の1方向の認識を容易にするためである。具体的には、本実施形態では、マーカ211eは、「上方向」を示す役割を持つマーカとなっている。
本実施形態では、当該マーカ配置部202に向けて赤外発光部124から赤外光を照射するとともに、赤外撮像部123による撮像が行われる(撮像方向は赤外発光部124の照射方向となる)。そして、その撮像画像内における反射光画像(マーカ画像)に基づいて、コントローラ4の姿勢を算出する。具体的には、マーカ211a~211dに対応するマーカ画像に基づいて、コントローラ4の傾きが算出できる。ここで、更に、マーカ211Eに対応するマーカ画像を判別することで、マーカ211eのある方向が、実空間における「上」方向であることも判別可能となる。仮に、マーカ211eを用いない場合、上下方向の判別については、例えば上記加速度センサ114等を用いて重力方向を算出する等して判別することも可能ではある。しかし、このような別途の算出処理を行うよりは、上記マーカ211eを用いる手法のほうが、簡便に上下関係を判別することができる。
なお、所定の一方向が判別できればよいため、例えば、図24に示すように、上記想定した矩形形状における右辺部の略中央となるような位置にマーカ211eが配置されるような構成でもよい。この場合は、マーカ211eは「右」を示す役割を有する。また、マーカ211の配置は、左右非対称な配置となる。換言すれば、マーカ群の中央点を通る線であり、かつ、上下方向に伸びる線を基準に、左右非対称となっている。このように、上記のような上下非対称、あるいは左右非対称なマーカの配置とすることによって、実空間における所定の一方向を簡便に判別することができ、処理負荷の軽減や処理の高速化を図ることができる。また、この構成により、例えば、把持操作部の側(可動撮像部)から見た場合の上下方向の概念、あるいは、左右方向の概念を判別しやすくすることもできる。
次に、把持操作部6へのコントローラ4の装着に関して説明する。図25に示すように、本実施形態では、把持操作部6のコントローラ装着部231に、コントローラ4を装着する。このとき、コントローラ4の上記窓部68のある下側面がユーザ側(VRゴーグル部5側)を向くようにして装着される。なお、装着後のコントローラ4の位置は所定の位置で固定されるように構成されている。
図26に、コントローラ4の装着前の把持操作部6を正面視した模式図を示す。また、図27に、コントローラ4を装着した状態の把持操作部6を正面視した模式図を示す。なお、ここでいう正面は、上記図2の状態で、VRゴーグル部5の側を向いている把持操作部6の側面(ユーザの方を向く側面)である。図27で示されるように、装着後の状態では、コントローラ4の上記窓部68がユーザ側を向くようにして固定されている。
ここで、コントローラ装着部231には、突起部235が設けられている。この突起部235の位置は、装着後のコントローラ4の所定のボタン、例えば、ボタン56に相対するような位置となっている。そして、ユーザが、把持部232a、232bを握り込むことで、図28に示すように、把持部232が把持操作部6の内側に少し傾くと共に、突起部235がボタン56を押圧するような構造となっている。つまり、把持操作部6には、コントローラ4の所定のボタンを押下するための押し込み機構も備わっている。これにより、ユーザは、把持操作部6自体を動かすという操作の他、ボタン56を押下するという操作も行うことができるようになっている。
このように、本実施形態のゲームシステムでは、コンパクトなシステム構成で、VRゲーム等におけるユーザのモーションをキャプチャしたり、把持操作部6の位置や姿勢を推測したりすることができる。すなわち、従来のように、ユーザ全体を撮像可能なように予めカメラを設置する等の大がかりな手間をかけることなく、ユーザ周りの空間というコンパクトな空間を確保するだけで、ユーザのモーションをキャプチャしたり、把持操作部6の位置や姿勢を推測したりすることができる。
次に、図29~図30を参照して、本実施形態におけるゲームシステム1における処理についてより詳細に説明する。
[利用されるデータについて]
まず、本ゲームシステム1で用いられる各種データについて説明する。図29は、ゲーム装置本体3のDRAM85に格納されるプログラムおよび情報の一例を示している。DRAM85には、ゲーム処理プログラム401、操作データ402、現在姿勢データ406、直前姿勢データ407、オブジェクトデータ408等が格納される。
ゲーム処理プログラム401は、本実施形態にかかるゲーム処理を実行するためのプログラムである。具体的には、後述する図30のフローチャート処理を実行するためのプログラムである。
操作データ402は、コントローラ4に対して行われた各種操作を示すデータである。操作データ402には、撮像画像データ403、慣性センサデータ404、ボタンデータ405等が含まれる。撮像画像データ403は、赤外撮像部123による撮像画像のデータである。慣性センサデータ404は、上記加速度センサ89および角速度センサ90から出力された加速度データ、角速度データである。ボタンデータ405は各種ボタンの押下状態を示すデータである。
現在姿勢データ406は、現在のコントローラ4の姿勢を示すデータである。直前姿勢データ407は、現在のコントローラ4の姿勢算出の前に算出された姿勢を示すデータである。すなわち、直前(直近)に算出された姿勢データである。
オブジェクトデータ408は、上記ブロックオブジェクト501やドリルオブジェクト502等、仮想空間内における各種オブジェクトのデータである。
[詳細フローチャート]
次に、図30のフローチャートを参照して、ゲームシステム1によって実行されるゲーム処理の流れを説明する。なお、図30のステップS1~S10の処理は、例えば1フレーム(例えば1/60秒)毎に繰り返し実行される。
まず、ステップS1で、プロセッサ81は、操作データ402を取得する。次に、ステップS2で、プロセッサ81は、操作データ402に含まれる撮像画像データ403の解析処理を行う。すなわち、撮像画像を解析し、当該撮像画像内における検出対象となるマーカに係る画像(以下、単にマーカ画像)を判別、特定するための処理を実行する。更に、特定された各マーカ画像の撮像画像内における位置、形状、大きさ、明度等を算出する処理が実行される。なお、マーカ画像が判別できない場合としては、例えば、撮像画像内にノイズ光の画像が多数映っているため、どれがマーカ画像であるか判別できないような場合がある。また、撮像時にマーカ211(5つとも)が撮像範囲内に含まれていなかった場合等も、マーカ画像が判別できないものとして扱われる。また、5つのマーカ211のうちの一部のみが映っているような場合は、マーカ画像が判別できないとして扱ってもよいし、所定の補間処理を行うことで、映っていないマーカ211を推測するような処理を行ってもよい。
次に、ステップS3で、プロセッサ81は、上記解析処理の結果、マーカ画像が判別可能であるか否かを判定する。すなわち、有効なマーカ画像が得られたか否かを判定する。当該判定の結果、マーカ画像が判別可能であるときは(ステップS3でYES)、ステップS4で、プロセッサ81は、撮像画像データ403(上記解析処理で得られたマーカ画像)に基づいて、コントローラ4の姿勢を算出する。例えば、撮像画像におけるマーカ画像の位置関係に基づき、コントローラ4の姿勢が算出される。また、マーカ画像の大きさに基づいて、マーカ211とコントローラ4との間の相対的な距離(換言すれば、マーカに対するコントローラ4の相対的な位置)も算出される。そして、算出された姿勢および距離を示すデータを現在姿勢データ406としてDRAM85に記憶する。
一方、マーカ画像が判別できなかったときは(ステップS3でNO)、ステップS5で、プロセッサ81は、直前姿勢データ407および慣性センサデータ404に基づいて、コントローラ4の現在の姿勢を推測する処理を実行する。つまり、有効なマーカ画像が得られなかった場合は、直前に算出されていた姿勢に、慣性センサデータ404で示されるコントローラ4の動きを加えることで現在の姿勢および位置を推測する、という処理が実行される。そして、推測した姿勢及び位置を現在姿勢データ406として記憶する。このように、慣性センサデータ404も併用することで、例えば、マーカ211が撮像範囲内に一時的に入らない状況となった場合でも、コントローラ4の姿勢および位置を推測することが可能となる。
ここで、本実施形態では、上記のようなVRゲームキット2を用いた操作を行っている。上記図2で示したように、ユーザが、片手でVRゴーグル部5を把持し、もう一方の手で把持操作部6を把持するというスタイルで遊ぶため、コントローラ4の可動範囲もある程度限定される。すなわち、マーカ211とコントローラ4との相対的な位置関係は、ある程度限定されるものとなっている。つまり、上記コントローラ4の取り得る姿勢として考えられる範囲は、ある程度限られるものになっているといえる。そのため、例えば、部屋全体のような広い範囲を撮像してユーザのモーションを判別するVRシステムに比べると、上記のようなユーザのモーション(現在姿勢)の算出や推測の精度を高くすることが可能となっている。
次に、ステップS6で、プロセッサ81は、現在姿勢データ406に基づいて、仮想空間内においてドリルオブジェクト502を移動させる。
次に、ステップS7で、プロセッサ81は、ドリル回転用として予め設定されているボタンが押下されているか否かをボタンデータ405に基づいて判定する。当該判定の結果、ドリル回転用のボタンが押下されているときは(ステップS7でYES)、ステップS8で、プロセッサ81は、ドリルオブジェクト502(の先端部分)とブロックオブジェクト501とが接触しているか否かを判定する。その結果、接触していれば、ブロックオブジェクト501をその接触位置に基づいて適宜変形させる処理が実行される。一方。接触していないときは、ブロックオブジェクト501の変形は行われない。
一方、上記ステップS7で、ドリル回転用のボタンは押下されていないと判定されたときは(ステップS7でNO)、上記ステップS8の処理は行われない。
次に、ステップS9で、プロセッサ81は、直前姿勢データ407の更新を行う。すなわち、現在姿勢データ406の内容を直前姿勢データ407として記憶する処理が行われる。
次に、ステップS10で、上記のような処理が反映された仮想空間を仮想カメラで撮像し、ゲーム画面を生成して表示する処理が実行される。本実施形態では、ゲーム画面は立体視画面であるため、ここでは、視差のある右目用画像および左目用画像がそれぞれ生成され、これを横に並べるようにしてディスプレイ12に表示されることになる。
このように、本実施形態では、ユーザが、片手にマーカを有するVRゴーグル部5を把持し、もう片方の手でこのマーカを撮像可能な把持操作部6を把持し、マーカを撮像しながら当該把持操作部6を動かすというようなゲームシステムを提供している。そして、把持操作部6の姿勢や操作内容に基づいてゲーム処理が実行される。そのため、ユーザ周りのコンパクトな空間を確保するだけで、ユーザのモーションを反映するVRゲーム等を楽しませることができる。また、そのシステム構成についても、大がかりなVR用のカメラの設置作業等は不要であり、簡便なシステム構成にすることが可能となっている。
また、VRゴーグル部5と把持操作部6とが接続アーム部7で接続された構成であるため、把持操作部6の可動範囲は、接続アーム部7の可動範囲に基づいて制限された範囲となる。すなわち、把持操作部6の取り得る姿勢がある程度限定されるため、把持操作部6(コントローラ4)の姿勢の推測について、より精度の高い推測も可能である。
(変形例)
なお、上記実施形態におけるゲーム装置本体3に関して、他の実施形態では、上記のようなゲーム処理が可能なスマートフォンやタブレット端末等の情報処理装置であってもよい。コントローラ4についても、このようなスマートフォン等と通信可能なものであってもよい。
また、上記実施形態では、VRゴーグル部5は基本的には動かさずに、把持操作部6の位置を変化させてゲームをプレイする例を示した。他の実施形態では、逆に、把持操作部6のほうを動かさず(固定して)、VRゴーグル部5のほうを(つまり、プレイヤの頭部のほうを)動かすような操作で遊ぶようなゲーム処理であってもよい。
また、VRゴーグル部5に関して、上記実施形態では、ゲーム装置本体3(表示装置)を装着する構成(別体の構成)としていたが、他の実施形態では、これらを一体型の構成としてもよい。例えば、VRゴーグル部5およびゲーム装置本体3(のディスプレイ12)に相当する部分を、HMD(ヘッドマウントディスプレイ)として構成してもよい。また、上記ゲーム装置本体3と同等の機能を当該HMDが有するように構成してもよい。つまり、当該HMDが、上述のようなゲーム処理を実行する構成でもよい。
更には、上述したゲーム処理を実行するための情報処理機能については、上記のようにゲーム装置本体3やHMD自体に持たせる構成の他、例えば、コントローラ4にこのような処理機能を持たせても良い。あるいは、ゲーム装置本体3やHMDやコントローラ4とは更に別体の情報処理装置にこのような処理機能を持たせる構成としてもよい。例えば、HMDおよびコントローラ4と通信可能な据え置き型ゲーム装置等に、上述のようなゲーム処理を実行させてもよい。この場合は、据え置き型ゲーム装置で生成されたゲーム画像がHMDに有線あるいは無線通信で送信されるような構成としてもよい。
また、上記ディスプレイ12に関して、上記の例では、単一のディスプレイ12に右目用画像および左目用画像を並べて表示して立体視画像を提供する構成を示していた。これに限らず、例えば、右目用のディスプレイと左目用のディスプレイとの2つの異なるディスプレイを用いるような構成であってもよい。すなわち、この2つのディスプレイを左右に並べて配置し、右目用画像を右目用のディスプレイに、左目用画像を左目用のディスプレイに表示することで立体視画像を表示する構成であってもよい。
また、マーカ211に関して、上記の例では、再帰性反射材であるマーカ211をマーカ配置部202に貼り付けた構成を例として説明した。このような構成に限らず、他の実施形態では、マーカ配置部202に直接的に描かれた画像をマーカ211とする構成であってもよい。また、マーカ211の形状も、上記のような正方形に限らず、他の形状であっても良い。あるいは、所定の模様やパターン図をマーカ211としてもよい。
また、更に他の実施形態では、不可視タイプのマーカを用いる構成であってもよい。すなわち、赤外線反射顔料などを用いて、見た目ではマーカであるとは分からないように描かれたマーカを用いても良い。例えば、マーカ配置部202の全面に所定のイラストが描画されたものを想定する。そして、このイラストの一部分(例えば上記マーカ211の位置に対応する箇所)だけを、赤外線反射顔料(例えばカーボンを含有する塗料)で描画したものである。この際、赤外線反射顔料を用いていない描画箇所との差異が分からないように描画される。
また、マーカ211の数について、上記の例では、5つのマーカの場合を例としたが、これに限らず、5つ以上のマーカを用いる構成としてもよい。また、マーカ数を3つあるいは4つの構成としてもよい。なお、上記の処理を実現するためには、マーカ数は最低でも3つは必要となる。例えば、3つのマーカを三角形状に配置した構成が考えられる。これに関して、上記不可視タイプのマーカを併用し、例えば、大きな三角形を一つだけ描き、その頂点部分のみ、赤外線反射顔料を用いるような構成としてもよい。なお、マーカ数を増やすことで、認識精度を高める点で有利になり、マーカ数を抑えることで、処理負荷の点で有利となる。
また、VRゴーグル部5におけるマーカ211(マーカ配置部202)の配置位置(配置箇所)に関し、上記実施形態では、VRゴーグル部5に装着したゲーム装置本体3のディスプレイ面とは反対側となるVRゴーグル部5の面(上記例では正面)にマーカ211を配置していた。つまり、VRゴーグル部5のレンズを通してディスプレイを見る場合のユーザの視線方向と略直交する面であって、ユーザから遠ざかる方向の面にマーカ211を配置していた。マーカの配置位置については、これに限らず、例えば、VRゴーグル部5の左右の側面部分にも更にマーカ211を設ける構成としてもよい。これにより、把持操作部6(コントローラ4)を左右に大きく動かした場合でも、赤外撮像部123の撮像範囲内にマーカ211を含めることができる。そのため、コントローラ4の姿勢等を推測可能な範囲を広くすることができ、操作の自由度をより高めることができる。
なお、HMD等の場合で、上記マーカ配置部202にあたる位置が板状の形状を有さないようなHMD等も想定される。このような形状の場合は、ディスプレイを見るユーザの視線方向に対向する側から見た場合(換言すれば、赤外撮像部123から見た場合)に視認可能なHMD上の位置に、上記のようなマーカ211が配置されていればよい。
また、上記の例では、撮像画像からマーカ画像を特定等するための分析処理をゲーム装置本体3側で行う例を示したが、他の実施形態では、コントローラ4側で行うようにしても良い。つまり、コントローラ4側で、撮像画像を分析し、マーカ画像の有効/無効、マーカの数や大きさ、明度を算出して、その算出結果をゲーム装置本体3に送信するような構成としても良い。
また、上記把持操作部6に関して、上記の例では、コントローラ4を把持操作部6に装着する例(すなわち、別体の構成)を示したが、他の実施形態では、上記コントローラ4を装着した状態の把持操作部6の構成について、一体型の構成としてもよい。すなわち、上記コントローラ4を装着した状態の把持操作部6の機能・構成を最初から一体型のパーツとして提供するようにしてもよい。例えばプラスチック成形でそのハウジングを構成し、内部的に、上記のような赤外発光部124、赤外撮像部123や通信機能等を実現する回路や機構を実装するようにしてもよい(換言すれば、一種の専用コントローラとして一体成形するようにしてもよい)。
また、把持操作部6の形状や、ボタンの押し込み機構に関しても、上記の例に限り物ではない。例えば、ボタンの押し込み機構については無くとも良いし、逆に、2つ以上のボタンの押圧操作が可能な構成であってもよい。また、ボタン操作についても、例えばユーザの指で直接的に押圧操作可能な構成としてもよい。
また、操作対象に関して、上記のようなボタンの押圧操作だけに限らず、他の実施形態ではタッチパネルやホイール、スライダー等を操作対象とするようにしてもよい。
また、上記接続アーム部7の接続位置に関して、上記の例では、VRゴーグル部5と接続アーム部7の接続位置の例として、マーカ配置部202の下辺の略中央近傍の位置であって、当該マーカ配置部202の略中央を通って上下に伸びる直線を含むような位置に接続されている例を示した。他の実施形態では、このような位置に限らず、例えば、マーカ配置部202の上辺の略中央近傍に接続されるような構成でもよい。あるいは、例えばVRゴーグル部5の左右いずれかの側面の下辺部分近傍であって、マーカ配置部202に近い位置に接続されるように構成しても良い。
また、上記の例では、接続アーム部7は、可動関節部を用いた折りたたみ可能な構成として伸縮可能な構成としていた。他の実施形態では、例えば、一方のアーム部を他方のアーム部の内部にスライドして収納可能な伸縮機構を有する伸縮アームの構成としてもよい。また、このような可動関節部や伸縮機構のようなギミックによる伸縮の他、例えば、ゴム等の弾性素材によって伸縮が可能な構成としてもよい。換言すれば、接続アーム部7の「伸縮」については、上記ギミックによる伸縮と、弾性素材による伸縮とが含まれる。
また、上記ゲームシステム1において、上記接続アーム部7を設けない構成としてもよい。つまり、上記ゲーム装置本体3を装着したVRゴーグル部5と、コントローラ4を装着した把持操作部6とは完全に分離した構成であってもよい。この場合、例えば左手でゲーム装置本体3を装着したVRゴーグル部5を把持し、右手でコントローラ4を装着した把持操作部6を持つというプレイスタイルとなる。また、この場合は、把持操作部6の可動範囲は、ユーザの右腕の可動範囲とほぼ同じとなる。上述した接続アーム部7を用いる構成の場合よりは、広い可動範囲となり得るため、操作の自由度が高まる点で有利である。
また、上述の処理は、ゲーム処理の他、片手で持って操作する道具(電動工具等)の操作練習用のシミュレーション処理等の情報処理にも適用可能である。
1 ゲームシステム
2 VRゲームキット
3 ゲーム装置本体
4 コントローラ
5 VRゴーグル部
6 把持操作部
7 接続アーム部

Claims (20)

  1. 周囲を撮像するための撮像部を有し、ユーザによって把持可能な可動撮像部と、
    互いに視差のある左目用画像および右目用画像からなる立体視画像を表示する少なくとも1つの表示部、前記立体視画像を見ている状態の前記ユーザの顔の一部と当接可能な当接部、および、当該ユーザによって把持されている状態の前記可動撮像部の前記撮像部によって撮像可能な被検出部を有する立体画像提供部と、
    一方の端が前記可動撮像部の一部と接続され、他方の端が前記立体画像提供部の一部と接続される接続部と、
    前記撮像部によって撮像された画像に含まれる前記被検出部を示す被検出部画像を検出する検出部と、
    前記検出部によって検出された前記被検出部画像の前記撮像された画像における位置および/または形状を特定する特定部と、
    前記特定部によって特定された前記被検出部画像の前記撮像された画像における位置および/または形状に基づいて、前記可動撮像部の姿勢および/または位置を推測する推測部と、
    前記推測部による推測結果に基づいて、前記少なくとも1つの表示部に表示する前記立体視画像を生成する画像生成部とを備える、姿勢位置推測システム。
  2. 前記可動撮像部は、更に、操作部、および、当該操作部に対する前記ユーザの操作に基づいて所定のデータを生成する操作データ生成部を有し、
    前記画像生成部は、更に、前記推測部による推測結果と前記操作データ生成部によって生成されたデータとに基づいて、前記少なくとも1つの表示部に表示する立体視画像を生成する、請求項1に記載の姿勢位置推測システム。
  3. 前記可動撮像部は、更に、前記撮像部の撮像方向と少なくとも実質的に同じ方向へ所定の光を発する発光部とを有し、
    前記被検出部は、前記発光部からの所定の光を反射する再帰性反射材である、請求項1または2に記載の姿勢位置推測システム。
  4. 前記被検出部は、前記ユーザの顔の一部が前記当接部に当接している状態で前記少なくとも1つの表示部を見ている当該ユーザの視線方向と実質的に同じ方向を向く前記立体画像提供部の所定面、および/または、当該視線方向に対向する方向から見た場合に視認可能な前記立体画像提供部における位置に設けられる、請求項1乃至3のいずれか1つに記載の姿勢位置推測システム。
  5. 前記立体画像提供部は、所定の領域を有する複数の前記被検出部を有し、
    当該複数の被検出部は、同一の直線上には並ばないような3つの被検出部を含む、請求項1乃至4のいずれか1つに記載の姿勢位置推測システム。
  6. 前記複数の被検出部は、前記立体画像提供部の前記所定面を正面視した場合において、前記少なくとも3つ以上の被検出部が左右非対称および/または上下非対称となるように配置される、請求項5に記載の姿勢位置推測システム。
  7. 前記複数の被検出部は、当該複数の被検出部それぞれを終点とした場合に、当該終点までの直線距離が実質的に同一となるような始点位置である中央点を通る直線を基準として左右非対称および/または上下非対称となるように配置される、請求項6に記載の姿勢位置推測システム。
  8. 前記可動撮像部は、更に、加速度センサおよび/または角速度センサを有し、
    前記推測部は、更に、前記加速度センサおよび/または角速度センサによる検出結果に基づいて、前記可動撮像部の姿勢および/または位置を推測する、請求項1乃至7のいずれか1つに記載の姿勢位置推測システム。
  9. 前記推測部は、前記可動撮像部で撮像された画像において前記被検出部画像を判別または特定できない場合に、前記加速度センサおよび/または角速度センサによる検出結果に基づいて、前記可動撮像部の姿勢および/または位置を推測する、請求項8に記載の姿勢位置推測システム。
  10. 前記接続部と前記立体画像提供部とが接続される位置は、前記被検出部が設けられている面の下辺近傍であって、当該被検出部が設けられている面を正面視した場合に略中央となる位置を通って上下方向に伸びる直線の上または近傍である、請求項に記載の姿勢位置推測システム。
  11. 前記接続部は、当該接続部と前記立体画像提供部とが接続される位置の近傍に設けられる第1の可動部を有し、
    前記第1の可動部によって、前記立体画像提供部と前記可動撮像部との相対的な位置関係および/または姿勢関係が変更可能である、請求項1乃至10のいずれかに記載の姿勢位置推測システム。
  12. 前記接続部は、当該接続部と前記立体画像提供部とが接続される位置、および、当該接続部と前記可動撮像部とが接続される位置のいずれにも該当しない所定の位置に設けられる第2の可動部を有し、
    前記第2の可動部によって、前記立体画像提供部と前記可動撮像部との相対的な位置関係および/または姿勢関係が変更可能である、請求項乃至11のいずれか1つに記載の姿勢位置推測システム。
  13. 前記接続部は、当該接続部と可動撮像部とが接続される位置の近傍に設けられる第3の可動部を有し、
    前記第3の可動部によって、前記立体画像提供部と前記可動撮像部との相対的な位置関係および/または姿勢関係が変更可能である、請求項乃至12のいずれか1つに記載の姿勢位置推測システム。
  14. 前記接続部は、伸縮可能である、請求項乃至13のいずれか1つに記載の姿勢位置推測システム。
  15. 前記撮像部および前記操作部は、前記可動撮像部に着脱可能なハウジングに設けられる、請求項2乃至14のいずれか1つに記載の姿勢位置推測システム。
  16. 前記可動撮像部は、前記撮像部の撮像方向が前記ユーザに面するように、前記一方の端を介して前記接続部に接続される、請求項に記載の姿勢位置推測システム。
  17. 前記ユーザによって立体画像提供部が使用されるとき、前記接続部の前記他方の端は、前記立体画像提供部の下部に接続される、請求項に記載の姿勢位置推測システム。
  18. 前記一方の端は、前記可動撮像部と電気的に接触することなく接続され、
    前記他方の端は、前記立体画像提供部と電気的に接触することなく接続される、請求項に記載の姿勢位置推測システム。
  19. 互いに視差のある左目用画像および右目用画像からなる立体視画像を表示する少なくとも1つの表示部、前記立体視画像を見ている状態のユーザの顔の一部と当接する当接部、および、被検出部を有する立体画像提供部の当該被検出部を、
    周囲を撮像するための撮像部を有し、一方の端が前記立体画像提供部の少なくとも一部と接続される接続部の他方の端と接続されており、かつ、ユーザによって把持可能な可動撮像部の当該撮像部を用いて撮像し、当該撮像された画像に含まれる当該被検出部を示す被検出部画像を検出する検出ステップと、
    前記検出ステップによって検出された前記被検出部画像の前記撮像された画像における位置および/または形状を特定する特定ステップと、
    前記特定ステップによって特定された前記被検出部画像の前記撮像された画像における位置および/または形状に基づいて、前記可動撮像部の姿勢および/または位置を推測する推測ステップと、
    前記推測ステップによる推測結果に基づいて、前記表示部に表示する立体視画像を生成する画像生成ステップとを有する、姿勢位置推測方法。
  20. 周囲を撮像するための撮像部を有し、ユーザによって把持可能な可動撮像部と、
    互いに視差のある左目用画像および右目用画像からなる立体視画像を表示する少なくとも1つの表示部、前記立体視画像を見ている状態のユーザの顔の一部と当接する当接部、および、前記ユーザが前記可動撮像部を把持している状態における前記撮像部によって撮像可能な被検出部を有する立体画像提供部と、
    少なくとも2つの端を有し、一方の端が前記可動撮像部の少なくとも一部と接続され、他方の端が前記立体画像提供部の少なくとも一部と接続される接続部と、
    前記可動撮像部の前記撮像部によって撮像された画像に含まれる前記被検出部を示す被検出部画像を検出する検出部と、
    前記検出部によって検出された前記被検出部画像の前記撮像された画像における位置および/または形状を特定する特定部と、
    前記特定部によって特定された前記被検出部画像の前記撮像された画像における位置および/または形状に基づいて、前記可動撮像部の姿勢および/または位置を推測する推測部と、
    前記推測部による推測結果に基づいて、前記表示部に表示する立体視画像を生成する画像生成部とを備える、姿勢位置推測装置。
JP2017199453A 2017-10-13 2017-10-13 姿勢位置推測システム、姿勢位置推測方法、および姿勢位置推測装置 Active JP7027109B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017199453A JP7027109B2 (ja) 2017-10-13 2017-10-13 姿勢位置推測システム、姿勢位置推測方法、および姿勢位置推測装置
US16/154,983 US11272152B2 (en) 2017-10-13 2018-10-09 Orientation and/or position estimation system, orientation and/or position estimation method, and orientation and/or position estimation apparatus
EP18199612.5A EP3470966B1 (en) 2017-10-13 2018-10-10 Orientation and/or position estimation system, orientation and/or position estimation method, and orientation and/or position estimation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017199453A JP7027109B2 (ja) 2017-10-13 2017-10-13 姿勢位置推測システム、姿勢位置推測方法、および姿勢位置推測装置

Publications (3)

Publication Number Publication Date
JP2019074362A JP2019074362A (ja) 2019-05-16
JP2019074362A5 JP2019074362A5 (ja) 2020-10-15
JP7027109B2 true JP7027109B2 (ja) 2022-03-01

Family

ID=64023925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017199453A Active JP7027109B2 (ja) 2017-10-13 2017-10-13 姿勢位置推測システム、姿勢位置推測方法、および姿勢位置推測装置

Country Status (3)

Country Link
US (1) US11272152B2 (ja)
EP (1) EP3470966B1 (ja)
JP (1) JP7027109B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3168110C (en) * 2012-10-15 2024-02-06 Takeshi Igarashi Operating device
US11331588B2 (en) * 2017-07-14 2022-05-17 Hewlett-Packard Development Company, L.P. Virtual reality headset stands
US10554883B2 (en) * 2018-03-30 2020-02-04 Ricoh Company, Ltd. VR system, communication method, and non-transitory computer-readable medium
EP3890852A1 (en) * 2018-12-04 2021-10-13 Eden Immersive Limited A virtual reality or augmented reality headset accessory
CN113692293B (zh) 2019-04-09 2023-11-28 日本烟草产业株式会社 气溶胶供给装置
US11650484B1 (en) 2019-08-07 2023-05-16 Apple Inc. Electronic device with camera status indicator
CN111223073A (zh) * 2019-12-24 2020-06-02 乐软科技(北京)有限责任公司 一种虚拟探测***
CN111191356A (zh) * 2019-12-24 2020-05-22 乐软科技(北京)有限责任公司 一种基于虚拟现实的昏暗环境探测仿真方法
WO2021140356A1 (en) * 2020-01-07 2021-07-15 Eden Immersive Limited A virtual reality or augmented reality headset accessory for facilitating controlled viewing experiences in mobile environments
EP4082638A4 (en) 2020-01-28 2023-06-28 Nintendo Co., Ltd. Image processing system, image processing program, and image processing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013124972A (ja) 2011-12-15 2013-06-24 Samsung Yokohama Research Institute Co Ltd 位置推定装置及び方法、並びにテレビジョン受信機
WO2016021252A1 (ja) 2014-08-05 2016-02-11 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
US20170011553A1 (en) 2015-07-07 2017-01-12 Google Inc. System for tracking a handheld device in virtual reality
JP2017010533A (ja) 2015-06-22 2017-01-12 セイコーエプソン株式会社 マーカー、マーカーの位置および姿勢を検出する方法、および、コンピュータープログラム
JP2017068763A (ja) 2015-10-01 2017-04-06 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および位置情報取得方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6919867B2 (en) * 2001-03-29 2005-07-19 Siemens Corporate Research, Inc. Method and apparatus for augmented reality visualization
JP2007064808A (ja) 2005-08-31 2007-03-15 Canon Inc 指標位置計測方法及び装置
US20160232715A1 (en) * 2015-02-10 2016-08-11 Fangwei Lee Virtual reality and augmented reality control with mobile devices
US10306217B2 (en) * 2015-04-17 2019-05-28 Seiko Epson Corporation Display device, control method for display device, and computer program
US10192133B2 (en) 2015-06-22 2019-01-29 Seiko Epson Corporation Marker, method of detecting position and pose of marker, and computer program
KR102400900B1 (ko) * 2015-10-26 2022-05-23 엘지전자 주식회사 시스템
KR101860370B1 (ko) * 2016-05-23 2018-05-24 주식회사 토비스 공용 hmd장치 및 이를 구비한 게임기

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013124972A (ja) 2011-12-15 2013-06-24 Samsung Yokohama Research Institute Co Ltd 位置推定装置及び方法、並びにテレビジョン受信機
WO2016021252A1 (ja) 2014-08-05 2016-02-11 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
JP2017010533A (ja) 2015-06-22 2017-01-12 セイコーエプソン株式会社 マーカー、マーカーの位置および姿勢を検出する方法、および、コンピュータープログラム
US20170011553A1 (en) 2015-07-07 2017-01-12 Google Inc. System for tracking a handheld device in virtual reality
JP2017068763A (ja) 2015-10-01 2017-04-06 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および位置情報取得方法

Also Published As

Publication number Publication date
US11272152B2 (en) 2022-03-08
EP3470966A1 (en) 2019-04-17
JP2019074362A (ja) 2019-05-16
EP3470966B1 (en) 2020-04-08
US20190116350A1 (en) 2019-04-18

Similar Documents

Publication Publication Date Title
JP7027109B2 (ja) 姿勢位置推測システム、姿勢位置推測方法、および姿勢位置推測装置
CN110647237B (zh) 在人工现实环境中基于手势的内容共享
JP6090140B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7326328B2 (ja) 光学式位置追跡デバイスの電力管理
US9986228B2 (en) Trackable glasses system that provides multiple views of a shared display
KR20170100641A (ko) 실세계 객체들의 가상 표현들
US20120135803A1 (en) Game device utilizing stereoscopic display, method of providing game, recording medium storing game program, and game system
KR20150093831A (ko) 혼합 현실 환경에 대한 직접 상호작용 시스템
CA2889563A1 (en) Direct hologram manipulation using imu
JP2019074362A5 (ja)
JP6148714B2 (ja) 携帯型電子機器
EP3201724A1 (en) Gesture based manipulation of three-dimensional images
US20220351442A1 (en) Animation production system
JP5816032B2 (ja) 入力装置、入力処理プログラム、入力処理方法、入力処理システム
JP6788129B2 (ja) ズーム装置及び関連する方法
JP7344716B2 (ja) 情報処理システム、情報処理プログラム、情報処理装置および情報処理方法
JP6467039B2 (ja) 情報処理装置
CN102012620B (zh) 电子化妆品盒
JP7367624B2 (ja) 計測情報処理装置
US20220256137A1 (en) Position calculation system
JP7165604B2 (ja) 仮想オブジェクト出力装置及び仮想オブジェクト出力方法
JP2024018887A (ja) インテリジェント端末、ハンドヘルドデバイス、仮想システム及びインテリジェント端末の空間位置決め方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200827

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220216

R150 Certificate of patent or registration of utility model

Ref document number: 7027109

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150