JP6540691B2 - 頭部位置検出装置及び頭部位置検出方法、画像処理装置及び画像処理方法、表示装置、並びにコンピューター・プログラム - Google Patents

頭部位置検出装置及び頭部位置検出方法、画像処理装置及び画像処理方法、表示装置、並びにコンピューター・プログラム Download PDF

Info

Publication number
JP6540691B2
JP6540691B2 JP2016514733A JP2016514733A JP6540691B2 JP 6540691 B2 JP6540691 B2 JP 6540691B2 JP 2016514733 A JP2016514733 A JP 2016514733A JP 2016514733 A JP2016514733 A JP 2016514733A JP 6540691 B2 JP6540691 B2 JP 6540691B2
Authority
JP
Japan
Prior art keywords
head
user
posture
coordinate system
arm length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016514733A
Other languages
English (en)
Other versions
JPWO2015162946A1 (ja
Inventor
脩 繁田
脩 繁田
長谷川 雄一
雄一 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2015162946A1 publication Critical patent/JPWO2015162946A1/ja
Application granted granted Critical
Publication of JP6540691B2 publication Critical patent/JP6540691B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/22Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • H04N5/7475Constructional details of television projection apparatus
    • H04N5/7491Constructional details of television projection apparatus of head mounted projectors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Automation & Control Theory (AREA)
  • Computer Hardware Design (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Description

本明細書で開示する技術は、ユーザーの頭部の位置を検出する頭部位置検出装置及び頭部位置検出方法、ユーザーの頭部の位置や姿勢に追従した画像を処理する画像処理装置及び画像処理方法、表示装置、並びにコンピューター・プログラムに関する。
画像を観察するユーザーの頭部又は顔部に固定される画像表示装置、すなわち、ヘッド・マウント・ディスプレイが知られている。ヘッド・マウント・ディスプレイは、例えば左右の眼毎の画像表示部を持ち、また、ヘッドフォンと併用し、視覚及び聴覚を制御できるように構成されている。頭部に装着した際に外界を完全に遮るように構成すれば、視聴時の仮想現実感が増す。また、ヘッド・マウント・ディスプレイは、左右の眼に違う映像を映し出すことも可能であり、左右の眼に対して視差のある画像を表示すれば3D画像を提示することができる。
ヘッド・マウント・ディスプレイを用いて、広角画像の一部を切り出した画像を観察することができる。ここで言う広角画像として、カメラで撮影した画像の他、ゲームのような3Dグラフィックスで生成した画像を挙げることができる。
例えば、頭部にジャイロ・センサーなどからなる頭部動作追跡装置を取り付け、ユーザーの頭部の動きに追従させて、全空間の360度の映像を実感できるようにしたヘッド・マウント・ディスプレイについて提案がなされている(例えば、特許文献1、特許文献2を参照のこと)。ジャイロ・センサーが検出した頭部の動きを打ち消すように、広角画像中で表示領域を移動させることで、頭部の動きに追従した画像を再現することができ、ユーザーは全空間を見渡すような体験をする。
また、カメラの撮影画像やゲームなどの3Dグラフィックス画像の上にAR(Augmented Reality:拡張現実感)のオブジェクトを配置する際、頭部の位置に応じた運動視差を再現すると、ユーザーに奥行き感や立体感を知覚させる自然な画像となり、没入感が増す。運動視差とは、奥行きのある物体を観察している際に、物体と観察者が相対的に(左右方向に)移動したときに、網膜上の像に変化が生じる現象をいう。具体的には、注視している物体より遠くのものは移動方向と同じ方向に位置を変えているように見えるが、注視している物体は進行方向とは反対の方向に位置を変えて見える。逆に、運動視差を表現しない画像は、奥行き感や立体感が不自然となり、ユーザーがVR(Virtual Reality:仮想現実感)酔いを起こす原因にもなる。
特開平9−106322号公報 特開2010−256534号公報
本明細書で開示する技術の目的は、ユーザーの頭部の位置を簡易に検出することができる、優れた頭部位置検出装置及び頭部位置検出方法を提供することにある。
本明細書で開示する技術のさらなる目的は、ユーザーの頭部の位置を簡易に検出して、運動視差の画像を提示することができる、優れた画像処理装置及び画像処理方法、表示装置、並びにコンピューター・プログラムを提供することにある。
本願は、上記課題を参酌してなされたものであり、請求項1に記載の技術は、
ユーザーの頭部の姿勢を検出する検出部と、
頭部の姿勢をユーザー座標系における頭部の位置に変換する変換部と、
を具備する頭部位置検出装置である。
本願の請求項2に記載の技術によれば、請求項1に記載の頭部位置検出装置の前記検出部は、ユーザーの頭部に装着したジャイロ・センサーを備え、前記ジャイロ・センサーが検出した角速度を積分して、頭部の姿勢を算出するように構成されている。
本願の請求項3に記載の技術によれば、請求項2に記載の頭部位置検出装置の前記検出部は、加速度センサーをさらに備え、前記ジャイロ・センサーから得られた姿勢の重力方向に対するドリフトを前記加速度センサーが検出する重力方向に基づいて補償するように構成されている。
本願の請求項4に記載の技術によれば、請求項1に記載の頭部位置検出装置の前記変換部は、ユーザーの頭部の角度の変化を、頭部から所定のアーム長rだけ離間したユーザーの身体上の所定の部位に原点が設定されたユーザー座標系から見た頭部の位置に変換するように構成されている。
本願の請求項5に記載の技術によれば、請求項4に記載の頭部位置検出装置の前記変換部は、ユーザーの頭部が所定の回転中心から所定の半径rに固定された球面上で動くものとして、頭部の角度の変化をユーザー座標系から見た頭部の位置に変換するように構成されている。
本願の請求項6に記載の技術によれば、請求項4に記載の頭部位置検出装置の前記変換部は、ユーザーの頭部がユーザー座標系上の原点を回転中心とし前記アーム長rを半径とする球面上で動くものとして、頭部の角度の変化をユーザー座標系から見た頭部の位置に変換するように構成されている。
本願の請求項7に記載の技術によれば、ユーザーの腰位置をユーザー座標系の原点に設定している。そして、請求項4に記載の頭部位置検出装置の前記変換部は、ユーザーの頭部がユーザーの腰位置を回転中心とし前記アーム長rを半径とする球面上で動くものとして、頭部の角度の変化をユーザーの腰位置から見た頭部の位置に変換するように構成されている。
本願の請求項8に記載の技術によれば、請求項4に記載の頭部位置検出装置の前記変換部は、ユーザーの頭部が前記アーム長rよりも短い第1のアーム長r1だけ離間した回転中心から半径r1に固定された球面上で動くものとして、頭部の角度の変化をユーザー座標系から見た頭部の位置に変換するように構成されている。
本願の請求項9に記載の技術によれば、ユーザーの腰位置をユーザー座標系の原点に設定している。そして、請求項4に記載の頭部位置検出装置の前記変換部は、ユーザーの頭部が前記アーム長rよりも短い第1のアーム長r1だけ離間した首から半径r1に固定された球面上で動くものとして、頭部の角度の変化をユーザーの腰位置から見た頭部の位置に変換するように構成されている。
本願の請求項10に記載の技術によれば、請求項1に記載の頭部位置検出装置は、ユーザーの頭部以外の上半身の部位の姿勢を検出する第2の検出部をさらに備えている。そして、前記変換部は、前記検出部が検出した頭部の姿勢と前記第2の検出部が検出した上半身の部位の姿勢に基づいて、頭部の姿勢をユーザー座標系における頭部の位置に変換するように構成されている。
本願の請求項11に記載の技術によれば、請求項4に記載の頭部位置検出装置の前記変換部は、頭部の位置を適用するアプリケーションに応じて、アーム長rを調整するように構成されている。
本願の請求項12に記載の技術によれば、請求項1に記載の頭部位置検出装置の前記変換部は、頭部の位置を適用するアプリケーションに応じて、前記検出部が検出した頭部の姿勢の少なくとも一部の角度成分を制限して、頭部の位置を求めるように構成されている。
本願の請求項13に記載の技術によれば、請求項4に記載の頭部位置検出装置の前記変換部は、各時刻のアーム長rを推定して、各時刻における頭部の位置を求めるように構成されている。
本願の請求項14に記載の技術によれば、請求項13に記載の頭部位置検出装置の前記検出部は、ユーザーの頭部の加速度を検出するセンサーを含んでいる。そして、前記変換部は、各時刻で検出された加速度に基づいてアーム長rを推定して、各時刻における頭部の位置を求めるように構成されている。
また、本願の請求項15に記載の技術は、
ユーザーの頭部の姿勢を検出する検出ステップと、
頭部の姿勢をユーザー座標系における頭部の位置に変換する変換ステップと、
を有する頭部位置検出方法である。
また、本願の請求項16に記載の技術は、
ユーザーの頭部の姿勢を検出する検出部と、
頭部の姿勢をユーザー座標系における頭部の位置に変換する変換部と、
頭部の位置に対応した運動視差を提示した画像を生成する描画処理部と、
を具備する画像処理装置である。
本願の請求項17に記載の技術によれば、請求項16に記載の画像処理装置の前記描画処理部は、頭部の角度変化が所定以内の値のみ運動視差を適用するように構成されている。
また、本願の請求項18に記載の技術は、
ユーザーの頭部の姿勢を検出する検出ステップと、
頭部の姿勢をユーザー座標系における頭部の位置に変換する変換ステップと、
頭部の位置に対応した運動視差を提示した画像を生成する描画処理ステップと、
を有する画像処理方法である。
また、本願の請求項19に記載の技術は、
ユーザーの頭部の姿勢を検出する検出部と、
頭部の姿勢をユーザー座標系における頭部の位置に変換する変換部と、
頭部の位置に対応した運動視差を提示した画像を生成する描画処理部と、
表示部と、
を具備する表示装置である。
また、本願の請求項20に記載の技術は、
ユーザーの頭部に装着した検出部が検出した頭部の姿勢をユーザー座標系における頭部の位置に変換する変換部、
頭部の位置に対応した運動視差を提示した画像を生成する描画処理部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラムである。
本願の請求項20に係るコンピューター・プログラムは、コンピューター上で所定の処理を実現するようにコンピューター可読形式で記述されたコンピューター・プログラムを定義したものである。換言すれば、本願の請求項20に係るコンピューター・プログラムをコンピューターにインストールすることによって、コンピューター上では協働的作用が発揮され、本願の請求項16に係る画像処理装置と同様の作用効果を得ることができる。
本明細書で開示する技術によれば、安価なセンサーを使用して、ユーザーの頭部の位置を簡易に検出することができる、優れた頭部位置検出装置及び頭部位置検出方法を提供することができる。
また、本明細書で開示する技術によれば、安価なセンサーを使用して、ユーザーの頭部の位置を検出して、運動視差の画像を提示することができる、優れた画像処理装置及び画像処理方法、表示装置、並びにコンピューター・プログラムを提供することができる。
なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、本明細書で開示する技術を適用した画像表示システム100の構成例を模式的に示した図である。 図2は、画像表示システム100の変形例を模式的に示した図である。 図3は、表示装置400の外観構成を示した図(斜視図)である。 図4は、表示装置400の外観構成を示した図(左側面図)である。 図5は、頭部の姿勢角の検出、並びに、頭部の姿勢から頭部の位置を算出する際に用いられる各座標系の関係を示した図である。 図6Aは、着席しているユーザーの姿勢(ほぼ垂直な姿勢のとき)とユーザーの頭部姿勢に基づいて求められた頭部位置を示した図である。 図6Bは、着席しているユーザーの姿勢(上半身が腰位置を中心に左方向にロール回転しているとき)とユーザーの頭部姿勢に基づいて求められた頭部位置を示した図である。 図6Cは、着席しているユーザーの姿勢(上半身が腰位置を中心に前方にチルトしているとき)とユーザーの頭部姿勢に基づいて求められた頭部位置を示した図である。 図7Aは、奥行き方向に並べた複数の玉を、着席しているユーザーがほぼ垂直な姿勢で正面を見たときに観察される画像を例示した図である 図7Bは、着席しているユーザーが上半身を左に傾けて(腰位置を中心にロール回転させて)、奥行き方向に並べた複数の玉を横から覗いたときに観察される画像を例示した図である 図8Aは、3DのVR画像を、着席しているユーザーがほぼ垂直な姿勢で正面を見たときに観察される画像を例示した図である。 図8Bは、着席しているユーザーが上半身を左に傾けて、図8Aと同じVR画像を横から覗いたときに観察される画像を例示した図である。 図9は、着席しているユーザーの上半身が腰位置を中心に回転するモデル(右側に傾いている場合)を示した図である。 図10は、着席しているユーザーの上半身が腰位置を中心に回転するモデル(前傾している場合)を示した図である。 図11は、着席しているユーザーの頭部が首を中心に回転するモデル(右側に傾いている場合)を示した図である。 図12は、着席しているユーザーの頭部が首を中心に回転するモデル(前傾している場合)を示した図である。 図13は、ユーザーの頭部の角度変化から頭部の位置を求める方法の誤差を説明するための図である。 図14は、着席しているユーザーの上半身が腰回りに回転するとともに頭部が首回りに回転するモデルを示した図である。 図15は、右方向に曲がるカーブを通過する際のゲーム画像を例示した図である。 図16Aは、着席しているユーザーの上半身が腰位置を中心に左方向にロール回転する動作を示した図である。 図16Bは、着席しているユーザーの胴体はほぼ静止したまま、首の根元を中心に頭部だけが左方向にロール回転する動作を示した図である。 図16Cは、着席しているユーザーの胴体はほぼ静止したまま、首の根元を中心に頭部だけが前方にチルトする動作を示した図である。 図16Dは、着席しているユーザーの上半身が腰位置を中心に前方にチルトする動作を示した図である。 図17は、ユーザー座標系XYZを極座標系rθφで表現した例を示した図である。 図18は、ユーザーの頭部が腰回りに回転しているときのアーム長rと頭部に加わる向心力を示した図である。 図19は、ユーザーの頭部が首回りに回転しているときのアーム長rと頭部に加わる向心力を示した図である。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
ヘッド・マウント・ディスプレイなどのディスプレイに表示するゲームなどの3Dグラフィックス画像、カメラの撮影画像などの上にARのオブジェクトを配置する際、ユーザーに奥行き感や立体感を知覚させる自然な画像となり、没入感が増す。逆に、運動視差を表現しない画像は、奥行き感や立体感が不自然となり、ユーザーがVR酔いを起こす原因にもなる。
ヘッド・マウント・ディスプレイなどで運動視差を再現した画像を提示する場合、ユーザー(すなわち、ヘッド・マウント・ディスプレイの着用者)の頭部の位置及び姿勢を検出することが必要になる。また、今後、軽量で手軽に外へ持ち運べる安価なヘッド・マウント・ディスプレイが普及することを想定した場合、安価なセンサーを用いて頭部の位置及び姿勢を検出し、運動視差を提示できることが望ましい。
ユーザーの頭部の姿勢は、例えばジャイロ・スコープを用いて検出することが可能である。他方、頭部の位置を検出するには、一般に高価なセンサーが必要になる。頭部の位置情報を利用できないと、ARのオブジェクトを頭部の姿勢に応じて回転させることができるだけで、頭部の平行移動には対応できない。したがって、運動視差を再現することはできない(注視している物体より遠くのものは移動方向と同じ方向に位置を変えているように見せ、注視している物体は進行方向とは反対の方向に位置を変えて見せることはできない)。
例えば、環境に設置された赤外線カメラやデプスカメラ、超音波センサー、磁気センサーなどを用いて環境内に存在する物体の位置を検出する方法が当業界で知られている。このような方法は、ヘッド・マウント・ディスプレイの位置を検出するには有用であるが、ヘッド・マウント・ディスプレイの外部(言い換えれば、ヘッド・マウント・ディスプレイから離れた場所)にセンサーを設置する必要があり、価格も高額になりがちである。また、いつも同じ部屋でヘッド・マウント・ディスプレイを使用するならともかく、ヘッド・マウント・ディスプレイを外に持ち出して移動先で利用する場合、環境にセンサーを設置する必要があるので、利用上の大きな妨げになる。
また、ヘッド・マウント・ディスプレイに搭載したカメラが周囲環境を撮影した画像を画像処理して自己位置を検出する方法も考えられる。例えば、環境にマーカーを設置し、撮影画像に映ったマーカーの位置を検出する方法では、環境側にマーカーを設置する必要がある。また、撮影画像上のエッジなどの特徴点を追跡することで、マーカーを設置することなく自己位置を検出することができる。後者は、ヘッド・マウント・ディスプレイ内のセンサーのみで位置検出を実現できる点では有用であるが、画像処理を行なうための演算処理とカメラがコスト増の要因になる。また、薄暗い部屋や白い壁のようなテクスチャーのない環境では、エッジなどの特徴点の追跡が困難となり、利用が難しいといった、環境依存の影響を受ける。付言すれば、高速に撮影できるカメラを用いない場合、素早い頭部の動きを追跡するのが困難である。
また、慣性航空システムで応用されているようなジャイロ・センサーや加速度センサーをヘッド・マウント・ディスプレイに搭載して、頭部の位置を検出することも可能である。具体的には、加速度センサーで検出した加速度成分から重力加速度成分を差し引いて求めた運動加速度を2階積分することで、位置を求めることができる。この方法は、ヘッド・マウント・ディスプレイ内のセンサーのみによって位置検出することができるという点では有用である。しかしながら、積分誤差の影響により、時間の経過によって位置にドリフトが生じるという問題がある。例えば、加速度センサーの出力から重力加速度を差し引いて求めた運動加速度aに固定バイアスabが発生すると、時間tにおける位置のドリフト誤差xは下式(1)の通りとなる。すなわち、ドリフト誤差xは、時間tの2乗に比例して増大する。
位置検出結果から常に固定バイアスabを評価してドリフト誤差xを除去することが重要である。しかしながら、ヘッド・マウント・ディスプレイに搭載されるような安価な加速度センサーの場合、2階積分によって生じるドリフト誤差xを抑えることは容易ではない。また、ヘッド・マウント・ディスプレイの着用者の頭部の微小な移動を検出するには、加速度センサーの出力から微弱な運動加速度をノイズの成分や重力加速度成分から分離する必要がある。ノイズの影響を受け易い加速度センサーで実現するのは容易ではない。これを実現するには、高精度な姿勢推定を行なう必要や、定期的且つ正確に加速度センサーをキャリブレーションする必要がある。ドリフト誤差を除去するには、位置検出センサーと組み合わせる方法も考えられるが、既存の位置検出技術には上述した問題が発生する。
要するに、ヘッド・マウント・ディスプレイに搭載した安価なセンサーのみを用いて頭部の位置及び姿勢を検出し、運動視差を提示することは困難である。
一方、ヘッド・マウント・ディスプレイの着用者が歩き回る際の頭部の位置を検出するのは困難であっても、着用者が座っているときの微小な頭の移動によって生じる運動視差を提示するだけでも十分というユース・ケースもある。具体例として、レース・ゲームの3Dグラフィックス画像をヘッド・マウント・ディスプレイで視聴する場合を挙げることができる。
図15には、右方向に曲がるカーブを通過する際のゲーム画像を例示している。図示のゲーム画像は、運転席の視界に相当する。現実の自動車の運転では、一般に、運転者は体を左に傾けることで、見通しの悪いカーブの先を確認しようとする。通常のゲームでは、車体の姿勢からゲームのカメラの視点を変更させた画像を提示することはできても、ゲームのプレイヤーの頭部の動きをゲームに反映させることはできない。しかしながら、座っているゲームのプレイヤーの頭部の位置の変化を検出できれば、見通しの悪いカーブの先の画像を、頭部の動きに合わせて提示するといったことが可能である。
また、レース・ゲーム以外でも、ユーザーが着席して3Dグラフィックスを視聴する、他のゲーム又はゲーム以外のユース・ケースがある。このようなユース・ケースのほとんどの場合、着席しているユーザーの頭部の動きは微小であり、微小な頭の移動によって生じる運動視差を提示するだけでも十分である。
図16A〜Dには、着席しているユーザー(ヘッド・マウント・ディスプレイの着用者など)の視点移動を伴う頭部の移動(位置の変化)を含む動作を例示している。図16Aでは、着席しているユーザーの上半身が腰位置を中心に左方向にロール回転している様子であり、参照番号1601で示すように頭部が移動する。図16Bでは、着席しているユーザーの胴体はほぼ静止したまま、首の根元を中心に頭部だけが左方向にロール回転している様子であり、参照番号1602で示すように頭部が移動する。図16Cでは、着席しているユーザーの胴体はほぼ静止したまま、首の根元を中心に頭部だけが前方にチルトしている様子であり、参照番号1603で示すように頭部が移動する。図16Dでは、着席しているユーザーの上半身が腰位置を中心に前方にチルトしている様子であり、参照番号1604で示すように頭部が移動する。図16A〜Dに示したような、着席しているユーザーのいずれの動作においても、ユーザーの頭部の動き1601〜1604は微小であり、微小な頭の移動1601〜1604によって生じる運動視差を提示するだけでも十分であると考えられる。なお、着席しているユーザーの頭部又は上半身のヨー回転(パン)は、頭部の移動を伴わない運動なので、図示を省略する。
図16から分かるように、着席しているユーザーの頭部の動きは微小であるとともに、視点移動を伴う頭部の位置の変化は、頭部の回転運動を伴う。したがって、頭部の回転運動をジャイロ・センサーなどの安価な姿勢・角度センサーを用いて検出し、その検出結果に基づいて頭部の位置の変化を導出することで、簡易的な運動視差を提示することができる。
本明細書で開示する技術は、画像のユーザー(ヘッド・マウント・ディスプレイの着用者など)の頭部に設置されたジャイロ・センサーなどの姿勢・角度センサーから頭部の回転運動を検出し、その検出結果に基づいて頭部の微小な動きによる運動視差を簡易的に提示するものである。本明細書で開示する技術では、正確な頭部の位置検出を行なうことはできないが、ユーザーが着席時のように頭部の移動が回転運動を伴うユース・ケースにおいては、頭部の回転運動から頭部の位置を簡易的に求めることができ、十分効果的に運動視差を提示することができる。
図1には、本明細書で開示する技術を適用した画像表示システム100の構成例を模式的に示している。図示の画像表示システム100は、頭部動作追跡装置200と、描画装置300と、表示装置400で構成される。
頭部動作追跡装置200は、表示装置400が表示する画像を観察するユーザーの頭部に装着して用いられ、所定の送信周期でユーザーの頭部の姿勢情報を描画装置200に出力する。図示の例では、頭部動作追跡装置200は、センサー部201と、姿勢角演算部202と、姿勢角演算部202の演算結果を描画装置300に送信する送信部203を備えている。
センサー部201は、頭部動作追跡装置200を着用したユーザーの頭部の姿勢を検出するセンサー素子で構成される。センサー部201は、センサー素子として、基本的には、ユーザーの頭部に装着したジャイロ・センサーを備えている。ジャイロ・センサーは、安価であり、センサーの検出信号の姿勢角演算部202での処理負荷も極めて低く、実装が容易である。カメラのような他のセンサーに比べて、S/Nが良いという利点もある。また、サンプリング・レートの高いジャイロ・センサーで検出した姿勢角から頭部の移動量を求めるので、低速から高速な頭部移動を含めて極めて滑らかな運動視差の提示に貢献することができる。
ジャイロ・センサーを用いて位置を検出する場合、上述したように重力方向に対するドリフトの問題がある。そこで、センサー部201に、ジェイロ・センサーとともに、加速度センサーを併用してもよい。ジャイロ・センサーから得られた姿勢の重力方向に対するドリフトは、加速度センサーが検出する重力方向から容易に補償することが可能であり、時間経過に伴う視点移動のドリフトも抑制することができる。勿論、ドリフト量を無視できるジャイロ・センサーを利用する場合には、加速度センサーを併用する必要はない。また、頭部のヨー軸回りの姿勢のドリフトを補正するために、必要に応じて磁気センサーを併用してもよい。
温度特性などの影響を受けるセンサーに対してはキャリブレーションが必要である。本実施例では、ジャイロ・センサーのオフセット処理以外に特別なキャリブレーションは不要である。ジャイロ・センサーのオフセット・キャリブレーションは、例えば、静止時のジャイロ・センサーの出力の平均値を差し引くことで実行することができるので、容易である。
なお、センサー部201は、ジャイロ・センサー以外のセンサー素子を用いて頭部の姿勢変化を検出するように構成してもよい。例えば、加速度センサーに加わる重力加速度方向から姿勢を検出するようにしてもよい。あるいは、ユーザーの頭部に装着した(若しくは、ヘッド・マウント・ディスプレイに搭載した)カメラが撮影した周囲画像を画像処理して、頭部の姿勢変化を検出するようにしてもよい。
姿勢角演算部202は、センサー部201による検出結果に基づいて、ユーザーの頭部の姿勢角を演算する。具体的には、姿勢角演算部202は、ジャイロ・センサーから得られる角速度を積分して、頭部の姿勢を計算する。本実施形態に係る画像表示システム100では、頭部の姿勢情報をクォータニオンとして取り扱うようにしてもよい。クォータニオンは、回転軸(ベクトル)と回転角(スカラー)からなる4元数である。あるいは、頭部の姿勢情報を、オイラー角や極座標などその他の形式で記述するようにしてもよい。
また、姿勢角演算部202は、姿勢角を算出した後、さらに後述する方法により姿勢角から頭部の移動量を演算する。そして、送信部203は、姿勢角演算部202で求められた頭部の位置情報を描画装置300に送信する。あるいは、姿勢角演算部202は、姿勢角の算出のみを行ない、送信部203から頭部の姿勢情報を描画装置300に送信し、描画装置300側で頭部の姿勢情報から頭部位置情報に換算するようにしてもよい。
図示の画像表示システム100では、頭部動作追跡装置200と描画装置300間はBluetooth(登録商標)通信などの無線通信により相互接続されているものとする。勿論、無線通信ではなく、USB(Universal Serial Bus)のような高速な有線インフェース経由で頭部動作追跡装置200と描画装置300間を接続するようにしてもよい。
描画装置300は、表示装置400で表示する画像のレンダリング処理を行なう。描画装置300は、例えばスマートフォンやタブレットなどのAndroid(登録商標)搭載端末、あるいはパーソナル・コンピューター、ゲーム機として構成されるが、これらの装置に限定される訳ではない。また、描画装置300は、インターネット上のサーバー装置であってもよい。頭部動作追跡装置200は、ユーザーの頭部姿勢・位置情報を、描画装置300としてのサーバーに送信し、描画装置300は、受信した頭部姿勢・位置情報に対応する動画像ストリームを生成すると、表示装置400にストリーム送信する。
図示の例では、描画装置300は、頭部動作追跡装置200からユーザーの頭部の位置情報を受信する受信部301と、画像のレンダリング処理を行なう描画処理部302と、レンダリングした画像を表示装置400に送信する送信部302と、画像データの供給源となる画像ソース304を備えている。
受信部301は、Bluetooth(登録商標)通信などを介して、頭部動作追跡装置200からユーザーの頭部の位置情報又は姿勢情報を受信する。姿勢情報は、例えば回転マトリックスやクォータニオンの形式で表現されている。
画像ソース304は、例えば、画像コンテンツを記録するHDD(Hard Disc Drive)やSSD(Solid State Drive)などの記憶装置、ブルーレイ(登録商標)などの記録メディアを再生するメディア再生装置、ディジタル放送信号を選局受信する放送チューナー、インターネット上に設置されたストリーミング・サーバーなどから動画像ストリームを受信する通信インターフェースなどからなる。
描画処理部302は、3Dグラフィックスを生成するゲームや、カメラの撮影画像を表示するアプリケーションを実行して、画像ソース304の画像データから、表示装置400側で表示する画像をレンダリングする。本実施形態では、描画処理部302は、画像ソース304から供給される原画像から、受信部301で受信したユーザーの頭部の位置情報に基づいて、頭部の位置に対応した運動視差を提示した画像をレンダリングする。なお、頭部動作追跡装置200から、ユーザーの頭部の位置情報ではなく、頭部の姿勢情報が送られてくる場合には、描画処理部302で頭部の姿勢情報を位置情報に換算する処理も行なうものとする。
描画装置300と表示装置400間は、例えばHDMI(登録商標)(High Definition Multimedia Interface)やMHL(Mobile High−definition Link)などの有線ケーブルにより接続されている。あるいは、wirelessHDやMiracastのような無線通信で接続してもよい。送信部303は、いずれかの通信路を用いて、描画処理部302でレンダリングされた画像データを非圧縮のまま表示装置400に送信する。
表示装置400は、描画装置300から画像を受信する受信部401と、受信した画像を表示する表示部402を備えている。表示装置400は、例えば、画像を観察するユーザーの頭部又は顔部に固定されるヘッド・マウント・ディスプレイとして構成される。あるいは、表示装置400は、通常のTVモニターや、大画面ディスプレイ、投影型表示装置であってもよい。
受信部401は、例えばHDMI(登録商標)やMHLなどの通信路を介して、描画装置300から非圧縮の画像データを受信する。表示部402は、受信した画像データを画面に表示する。
表示装置400がヘッド・マウント・ディスプレイとして構成される場合、例えば、表示部402は、ユーザーの左右の眼にそれぞれ固定された左右の画面を備え、左眼用画像及び右眼用画像を表示する。表示部402の画面は、例えば有機EL(Electro−Luminescence)素子や液晶ディスプレイなどのマイクロ・ディスプレイなどの表示パネル、あるいは、網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される。また、表示部402の表示画像を拡大投影して、ユーザーの瞳に所定の画角からなる拡大虚像を結像する虚像光学部を備えている。
図2には、画像表示システム100の変形例を模式的に示している。図1に示した例では、画像表示システム100は、頭部動作追跡装置200、描画装置300、表示装置400という3台の独立した装置で構成されるが、図2に示す例では、描画装置300の機能が表示装置400内に搭載されている。図1と同じ構成要素については同一の参照番号を付けている。ここでは、各構成要素の説明は省略する。図1並びに図2に示したように、頭部動作追跡装置200を表示装置400に外付けされるオプション製品として構成すれば、表示装置400の小型・軽量化、低廉化になる。
図3並びに図4には、表示装置400の外観構成を示している。図示の例では、表示装置400は、画像を観察するユーザーの頭部又は顔部に固定して用いられるヘッド・マウント・ディスプレイとして構成される。但し、図3はヘッド・マウント・ディスプレイの斜視図であり、図4はヘッド・マウント・ディスプレイの左側面図である。
図示の表示装置400は、帽子形状、若しくは、頭部の全周を包む帯状の構造とし、装置の荷重を頭部全体に分散させて、ユーザーの負担を軽減して装着することができるヘッド・マウント・ディスプレイである。
表示装置400は、表示系統を含む大部分の部品を含んだ本体部41と、本体部41の上面から突設した額当て部42と、上バンド44及び下バンド45に分岐されるヘッド・バンドと、左右のヘッドフォンからなる。本体部41内には、表示部や回路基板が収容される。また、本体部41の下方には、鼻背に倣うように鼻当て部43が形設されている。
ユーザーが表示装置400を頭部に装着したとき、額当て部42がユーザーの額に当接するとともに、ヘッド・バンドの上バンド44及び下バンド45がそれぞれ頭部の後方に当接する。すなわち、額当て部42、上バンド44、下バンド45の3点支持によって、表示装置400がユーザーの頭部に装着される。したがって、主に鼻当て部で重量を支える通常の眼鏡の構造とは相違し、この表示装置400は、その荷重を頭部全体に分散させて、ユーザーの負担を軽減して装着することができる。図示の表示装置400も鼻当て部43を備えているが、補助的な支持しか寄与しない。また、額当て部42をヘッド・バンドで締め付けることで、表示装置400が装着されたユーザーの頭部から回転しないように、回転方向の動きを支持することができる。
頭部動作追跡装置200は、ヘッド・マウント・ディスプレイとして構成される表示装置400の本体部41内に搭載することもできる。但し、本実施形態では、表示装置400の小型・軽量化、低廉化などを意図して、頭部動作追跡装置200は、表示装置400に外付けされるオプション製品として提供されるものとする。頭部動作追跡装置200は、例えばアクセサリーとして、表示装置400の上バンド44、下バンド45、額当て部42などのいずれかの場所に取り付けて用いられる。
姿勢角演算部202は、センサー部201(以下、単に「ジャイロ・センサー」とする)から得られる角速度を積分して、頭部の姿勢を計算することは既に述べた。図5には、本実施形態において、頭部の姿勢角の検出、並びに、頭部の姿勢から頭部の位置を算出する際に用いられる各座標系の関係を示している。図示のように、ユーザーの正面方向をZ軸、重力方向をY軸、Z軸及びY軸に直交する方向をX軸とし、ユーザーの腰位置を原点とした座標系を、ワールド座標系に対して設定する。以下では、このXYZ座標系を「ユーザー座標系」と呼ぶ。これに対して、ユーザー座標系の原点からアーム長rだけ離間した位置に頭部座標系xyzを設定する。
頭部座標系の位置は、ユーザーの頭部に装着したジャイロ・センサーから得られた頭部姿勢を、アーム長rに対して回転することで求められる位置とする。ここで、頭部の姿勢は、ジャイロ・センサーから得られる角速度を積分して得られた姿勢とする。ユーザーが頭部座標系のy軸回りに回転しても、頭部の位置は変化しない。一方、ユーザーの頭部がx軸又はz軸回りに回転すると、頭部の位置が変化する。加速度センサーで検出した運動加速度を2階積分して位置を算出する場合、時間の経過によって位置にドリフトが生じるという問題があるが、本実施形態による位置算出方法ではこのような問題はない。
図6A〜Cには、着席しているユーザーの姿勢を右側に、頭部姿勢から換算される頭部の位置を左側に、それぞれ示している。ユーザーの頭部の姿勢を、頭部に装着したジャイロ・センサーが検出する角速度を積分して求めることができる。そして、着席しているユーザーの頭部はユーザーの腰位置を中心にアーム長rを半径とする球面上で動くものとして、ユーザーの頭部の姿勢をユーザー座標系上での頭部の位置に換算することができる。図6A右には、着席しているユーザー611がほぼ垂直な姿勢である様子をし、図6A左には、そのときの頭部の姿勢から換算される頭部位置601を示している。また、図6B右には、着席しているユーザー612の上半身が腰位置を中心に左方向にロール回転している様子を示し、図6B左には、そのときの頭部位置602を示している。また、図6C右には、着席しているユーザー613の上半身が腰位置を中心に前方にチルトしている様子を示し、図6C左には、そのときの頭部位置603を示している。このようにして得られた頭部座標系の位置変化を、画像をレンダリングするアプリケーション側で設定されてあるカメラ位置に加えることで、運動視差を提示することができる。
図7Aには、奥行き方向に並べた複数の玉を、着席しているユーザー701がほぼ垂直な姿勢で正面を見たときに観察される画像を例示している。このような場合、複数の玉は奥行き方向に重なり合うので、後方に配置された玉は前方に配置された玉に隠れて見えない。また、図7Bには、着席しているユーザー702が上半身を左に傾けて(腰位置を中心にロール回転させて)、奥行き方向に並べた複数の玉を横から覗いたときに観察される画像を例示している。図7Bに示すように、ユーザー702は、上半身を左に傾けることで、前方の玉と奥行き方向に重なり合っている後方の玉を横(左側)から見ることができ、運動視差が提示されている。遠くの玉は頭部の移動方向と同じ方向に位置を変えているように見えるが、手前の玉は頭部の進行方向とは反対の方向に位置を変えて見える。したがって、ユーザーに奥行き感や立体感を知覚させる自然な画像となり、没入感が増す。なお、図7Bにおいて、地面が回転しているように見えるのは、ヘッド・マウント・ディスプレイ用の画像だからである。すなわち、画像内の地面は、ヘッド・マウント・ディスプレイを着用しているユーザーの頭部の傾きを打ち消す方向に回転しているので、ユーザーには地面は回転していないように見える。
一方、運動視差を提示しない場合、ユーザーが上半身を左に傾けても、図7Aに示したVR画像が単に頭部姿勢に合わせて回転するだけ、すなわち、奥行き方向に並んだ複数の玉が一体で同じ方向に位置を変える画像になるので、奥行き感や立体感が不自然となり、ユーザーがVR酔いを起こす原因にもなる。
図8Aには、 3DのVR画像を、着席しているユーザー801がほぼ垂直な姿勢で正面を見たときに観察される画像を例示している。また、図8Bには、着席しているユーザー802が上半身を右に傾けて(腰位置を中心にロール回転させて)、図8Aと同じVR画像を横から覗いたときに観察される画像を例示している。図8Bに示すように、ユーザー802の頭部位置が右方向に移動する際の運動視差を提示したVR画像では、部屋の扉812の外の風景が右側に移動している。手前の室内は頭部の進行方向とは反対方向に位置を変えて見えるが、扉越しに見える外の風景は頭部の移動方向と同じ方向に位置を変えているように見える。すなわち、ユーザー802は、上半身を右に傾けることで、扉812の左側で隠れていた外の風景を覗き見ることができる。したがって、ユーザー802に奥行き感や立体感を知覚させる自然な画像となり、没入感が増す。
一方、運動視差を提示しない場合、ユーザーが上半身を右に傾けても、図8Aに示したVR画像が単に頭部姿勢に合わせて回転するだけ、すなわち、室内と扉越しに見える外の風景が一体で同じ方向に位置を変える画像になるので、奥行き感や立体感が不自然となり、ユーザーがVR酔いを起こす原因にもなる。
図7Bや図8Bに示したように、ユーザーの頭部の姿勢情報に基づいて頭部の位置の変化に応じた運動視差を提示することができるので、例えば、FPS(First Person Shooting)のゲームにおいて、プレイヤーが身体(上半身)を動かすことによって敵の攻撃をかわすといった応用が可能である。
以下では、着席しているユーザーについて、頭部の姿勢情報に基づいて頭部の位置を求める方法について、詳細に説明する。但し、ユーザー座標系XYZを極座標系rθφ(図17を参照のこと)で表現して説明する。頭部の角度変化θ、φは姿勢角演算部202で求められ、頭部の角度変化θ、φに基づいて頭部の位置を求める処理は描画処理部302内で実行されるものとする。
まず、図9並びに図10に示すように、着席しているユーザーの上半身が腰位置を中心に回転するモデルについて考える。但し、図9は着席しているユーザー901の上半身が腰位置を中心に左側(紙面の右側)に傾いている場合を例示し、図10は着席しているユーザー1001の上半身が腰位置を中心に前傾している場合を例示している。
図9及び図10において、ユーザーの腰位置から、ジャイロ・センサーを搭載した頭部位置までの距離(アーム長)をrとする。頭部は、回転中心から半径rに固定された位置で動き、頭部の角度変化をθ、φとすると、腰位置を原点とするユーザーの座標系から見た頭部の位置(X,Y,Z)は、下式(2)のように表される。
θ=0、φ=0のときの位置が、ユーザー座標系でX=0、Y=r、Z=0である。したがって、初期位置からの変化量X´=rsinφsinθ、Y´=r(cosθ−1)、Z=rsinθcosφを、アプリケーションで設定されたカメラの位置に加えることで、ユーザーの頭部の左右方向又は前後方向の位置の変化に応じた運動視差を提示することが可能である。
次に、図11並びに図12に示すように、着席しているユーザーの頭部が首を中心に回転するモデルについて考える。但し、図11はユーザー1101の頭部が首を中心に左側(紙面の右側)に傾いている場合を例示し、図12はユーザー1201の頭部が首を中心に前傾している場合を例示している。
ユーザーの首からジャイロ・センサーを搭載した頭部位置までの距離(第1のアーム長)をr1、ユーザーの腰位置から首までの距離(第2のアーム長)をr2とする。頭部は、回転中心である首から半径r1に固定された位置で動き、頭部の角度変化をθ、φとすると、腰位置を原点とするユーザーの座標系から見た頭部の位置(X,Y,Z)は、下式(3)のように表される。
θ=0、φ=0のときの位置が、ユーザー座標系でX=0、Y=r1+r2、Z=0である。したがって、初期位置からの変化量X´=r1sinφsinθ、Y´=r1(cosθ−1)+r2、Z=r1sinθcosφを、アプリケーションで設定されたカメラの位置に加えることで、ユーザーの頭部の左右方向又は前後方向の位置の変化に応じた運動視差を提示することが可能である。腰位置中心よりも首中心に回転するモデルの方が適しているユース・ケースの場合、上式(2)に代えて上式(3)を用いればよい。
上述したアーム長r、r1並びにr2は、人間体の大きさに基づいて設定された値であるが、画像をレンダリングするアプリケーションによってそのアーム長を自由に設定してもよい。
例えば、巨大なロボットの視点位置からの運動視差を提示したい場合は、想定するロボットの大きさに合わせてアーム長を設定してもよい。また、運動視差の値をアプリケーション毎に微調整したい場合も存在する。これらの場合、検出した頭部の姿勢から上式(2)又は(3)を用いて算出した頭部の位置の変化量に、さらに線形又は非線形の式を適用して、値を調整してもよい。
また、アプリケーションによっては、図9や図11に示したような頭部の左右の動きのみを提示できれば十分であり、図10や図12に示したような頭部の前後の動きを提示しなくてもよいものもある。このような場合、姿勢角演算部202(又は描画処理部302)は、上式(2)又は(3)において、θ=0に固定して、姿勢角演算部202から得られるφのみを利用して頭部の位置を求めるようにしてもよい(言い換えれば、頭部のX方向の変化量のみを利用するようにしてもよい)。
上式(2)又は(3)は、ユーザーの頭部の位置を正確に求めるものではなく、ユーザーの頭部の角度変化から簡易的に頭部の位置を求める方法であり、誤差を含むことを考慮すべきである。
例えば、図13に示すように着席しているユーザー1301の上半身が腰位置を中心に回転するモデルを立てているが、実際のユーザーは首を中心にして頭部を左右方向に傾けている場合について検討する。
頭部の角度変化をθ、φとすると、ユーザーは首を中心にして頭部を動かしているので、ユーザーの座標系から見た実際の頭部の位置は、下式(4)のように表される。一方、図13に示したモデルに従って算出される、腰位置を原点とするユーザーの座標系から見た頭部の位置は、下式(5)のように表される。したがって、図13に示したモデルに従って算出される頭部の位置は、下式(6)で示すような誤差(ex,ey,ez)を含むことになる。
誤差(ex,ey,ez)が問題になる場合の1つの対処方法として、アプリケーションで設定されたカメラの位置に加える移動量に上限を設定する方法が挙げられる。例えば、描画処理部302は、姿勢角演算部202から出力される頭部の角度変化θ、φがそれぞれ±45度以内の値のみ運動視差を適用することで、極端な運動視差のずれが発生しないようにする。
また、着席したユーザーの頭部以外の上半身の部位における角度変化もさらに検出して、より正確に頭部の位置を求める方法も挙げられる。例えば、図14に示すように、着席しているユーザー1410の上半身が腰回りに回転するとともに頭部が首回りに回転するモデルを立てる。この場合、センサー部201が、ユーザー1410の頭部に装着した第1のジャイロ・センサー1401の他に、ユーザー1410の首に装着した第2のジャイロ・センサー1402を装備する。そして、姿勢角演算部202は、第1のジャイロ・センサー1401が検出した角速度を積分して、腰位置回りの頭部の回転量θ1、φ1を算出するとともに、第2のジャイロ・センサー1402が検出した角速度を積分して、腰位置回りの首の回転量θ2、φ2を算出する。そして、姿勢角演算部202(又は描画処理部302)は、腰位置を原点とするユーザー1410の座標系から見た頭部の位置(X,Y,Z)を、下式(7)のように算出する。
上式(7)によれば、着席しているユーザー1410の首回りと腰回りのそれぞれの回転量を考慮した上で、ユーザー1410の頭部の位置を求めることができる。
なお、図14に示した例では、着席しているユーザー1410の首と腰位置の2箇所にジャイロ・センサー1401、1402を設置しているが、ユーザー1410の上半身のそれ以外の部位でも回転する場合には、3箇所以上の場所にジャイロ・センサーを設置して、より正確にユーザー1410の頭部の位置を求めることができる。
図9並びに図10に示した例では、ユーザーの腰位置に設定したユーザー座標系の原点から、ジャイロ・センサーを搭載した(すなわち、姿勢検出を行なう)ユーザーの頭部位置までのアーム長rを固定して、上式(2)に従って、頭部の角度変化から頭部の位置(X,Y,Z)を求めている。その変形例として、アーム長rを各時刻で推定して、ユーザーの頭部位置を求めるようにしてもよい。
センサー部201がジャイロ・センサーとともに加速度センサーを併用することは既に述べた。ジャイロ・センサーは、ユーザーの頭部の角速度ωを検出することができ、加速度センサーは頭部の加速度ayを検出することができる。ここで、ユーザーの頭部が半径rの円周上を等角速度ωで円運動していると仮定すると、頭部の加速度ayは求心加速度であり、下式(8)が成立する。
上式(8)によれば、角速度が同じωでも回転中心からの半径すなわちアーム長rに比例して加速度が増大することから、ユーザーの頭部が腰回りで回転した場合(図9並びに図10を参照のこと)と、首回りで回転した場合(図11並びに図12を参照のこと)とで、加速度センサーは異なる値の加速度ayを観測することができる。図18に示すように、ユーザー1801の頭部が腰回りに回転しているときには、アーム長rが大きく、頭部に加わる向心力が大きくなる。一方、図19に示すように、ユーザー1901の頭部が首回りに回転しているときには、アーム長が短く、頭部に加わる向心力は小さくなる。上式(8)から、アーム長rを下式(9)により求めることができる。
したがって、ユーザーの頭部の位置を求める際に、アーム長rの長さに応じてユーザーの頭部が首回り又は腰回りのいずれで回転しているか(若しくは、頭部の回転運動の回転中心の位置)を判定することができる。上式(9)で求められた回転半径rを考慮に入れることで、ユーザーの頭部の位置をより正確に求め、運動視差の提示に利用することができる。
本明細書で開示する技術によれば、ジャイロ・センサーのような安価なセンサーのみでユーザーの頭部の位置変化を検出することができる。特に、本明細書で開示する技術をヘッド・マウント・ディスプレイに適用した場合、ヘッド・マウント・ディスプレイの外部(言い換えれば、ヘッド・マウント・ディスプレイから離れた場所)にセンサーやマーカーなどを設置する必要がなく、手軽にヘッド・マウント・ディスプレイを持ち歩いて利用することができる。
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書で開示する技術は、頭部動作追跡装置200が、ヘッド・マウント・ディスプレイとして構成される表示装置400に外付けされるオプション製品として提供される場合に特に有効であるが、勿論、表示装置400の本体部41内に頭部動作追跡装置200が搭載される場合であっても、同様に本明細書で開示する技術を適用することができる。また、表示装置400がヘッド・マウント・ディスプレイ以外の製品であっても、ユーザーの頭部の動きに追従した画像を再現する際に、同様に本明細書で開示する技術を適用することができる。
また、本明細書では、ヘッド・マウント・ディスプレイで運動視差を提示する実施形態を中心に説明してきたが、本明細書で開示する技術はその他のユース・ケースにも応用することができる。例えば、テレビなどの大画面ディスプレイの前に座ってゲームをしているユーザーが頭部動作追跡装置200を着用して、テレビ内のゲーム画面に運動視差を提示することができる。
本明細書で開示する技術を適用して検出した頭部位置変化を、3Dグラフィックスのカメラ視点に反映させて運動視差を提示することができるが、他の用途にも活用することができる。例えば、2Dグラフィックスのゲームで、頭部の位置変化に応じて敵の攻撃を避けるようにしてもよい。
要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)ユーザーの頭部の姿勢を検出する検出部と、
頭部の姿勢をユーザー座標系における頭部の位置に変換する変換部と、
を具備する頭部位置検出装置。
(2)前記検出部は、ユーザーの頭部に装着したジャイロ・センサーを備え、前記ジャイロ・センサーが検出した角速度を積分して、頭部の姿勢を算出する、
上記(1)に記載の頭部位置検出装置。
(3)前記検出部は、加速度センサーをさらに備え、前記ジャイロ・センサーから得られた姿勢の重力方向に対するドリフトを前記加速度センサーが検出する重力方向に基づいて補償する、
上記(2)に記載の頭部位置検出装置。
(4)前記変換部は、ユーザーの頭部の角度の変化を、頭部から所定のアーム長rだけ離間したユーザーの身体上の所定の部位に原点が設定されたユーザー座標系から見た頭部の位置に変換する、
上記(1乃至(3)のいずれかに記載の頭部位置検出装置。
(5)前記変換部は、ユーザーの頭部が所定の回転中心から所定の半径rに固定された球面上で動くものとして、頭部の角度の変化をユーザー座標系から見た頭部の位置に変換する、
上記(4)に記載の頭部位置検出装置。
(6)前記変換部は、ユーザーの頭部がユーザー座標系上の原点を回転中心とし前記アーム長rを半径とする球面上で動くものとして、頭部の角度の変化をユーザー座標系から見た頭部の位置に変換する、
上記(4)に記載の頭部位置検出装置。
(7)ユーザーの腰位置をユーザー座標系の原点に設定し、
前記変換部は、ユーザーの頭部がユーザーの腰位置を回転中心とし前記アーム長rを半径とする球面上で動くものとして、頭部の角度の変化をユーザーの腰位置から見た頭部の位置に変換する、
上記(4)に記載の頭部位置検出装置。
(8)前記変換部は、ユーザーの頭部が前記アーム長rよりも短い第1のアーム長r1だけ離間した回転中心から半径r1に固定された球面上で動くものとして、頭部の角度の変化をユーザー座標系から見た頭部の位置に変換する、
上記(4)に記載の頭部位置検出装置。
(9)ユーザーの腰位置をユーザー座標系の原点に設定し、
前記変換部は、ユーザーの頭部が前記アーム長rよりも短い第1のアーム長r1だけ離間した首から半径r1に固定された球面上で動くものとして、頭部の角度の変化をユーザーの腰位置から見た頭部の位置に変換する、
上記(4)に記載の頭部位置検出装置。
(10)ユーザーの頭部以外の上半身の部位の姿勢を検出する第2の検出部をさらに備え、
前記変換部は、前記検出部が検出した頭部の姿勢と前記第2の検出部が検出した上半身の部位の姿勢に基づいて、頭部の姿勢をユーザー座標系における頭部の位置に変換する、
上記(1)に記載の頭部位置検出装置。
(11)前記変換部は、頭部の位置を適用するアプリケーションに応じて、アーム長rを調整する、
上記(4)に記載の頭部位置検出装置。
(12)前記変換部は、頭部の位置を適用するアプリケーションに応じて、前記検出部が検出した頭部の姿勢の少なくとも一部の角度成分を制限して、頭部の位置を求める、
上記(1乃至(11)のいずれかに記載の頭部位置検出装置。
(13)前記変換部は、各時刻のアーム長rを推定して、各時刻における頭部の位置を求める、
上記(4)に記載の頭部位置検出装置。
(14)前記検出部は、ユーザーの頭部の加速度を検出するセンサーを含み、
前記変換部は、各時刻で検出された加速度に基づいてアーム長rを推定して、各時刻における頭部の位置を求める、
上記(13)に記載の頭部位置検出装置。
(15)ユーザーの頭部の姿勢を検出する検出ステップと、
頭部の姿勢をユーザー座標系における頭部の位置に変換する変換ステップと、
を有する頭部位置検出方法。
(16)ユーザーの頭部の姿勢を検出する検出部と、
頭部の姿勢をユーザー座標系における頭部の位置に変換する変換部と、
頭部の位置に対応した運動視差を提示した画像を生成する描画処理部と、
を具備する画像処理装置。
(16−1)前記検出部は、ユーザーの頭部に装着したジャイロ・センサーを備え、前記ジャイロ・センサーが検出した角速度を積分して、頭部の姿勢を算出する、
上記(16)に記載の画像処理装置。
(16−2)前記検出部は、加速度センサーをさらに備え、前記ジャイロ・センサーから得られた姿勢の重力方向に対するドリフトを前記加速度センサーが検出する重力方向に基づいて補償する、
上記(16−1)に記載の画像処理装置。
(16−3)前記変換部は、ユーザーの頭部の角度の変化を、頭部から所定のアーム長rだけ離間したユーザーの身体上の所定の部位に原点が設定されたユーザー座標系から見た頭部の位置に変換する、
上記(16−1)乃至(16−2)のいずれか)に記載の画像処理装置。
(16−4)前記変換部は、ユーザーの頭部が所定の回転中心から所定の半径rに固定された球面上で動くものとして、頭部の角度の変化をユーザー座標系から見た頭部の位置に変換する、
上記(16−3)に記載の画像処理装置。
(16−5)前記変換部は、ユーザーの頭部がユーザー座標系上の原点を回転中心とし前記アーム長rを半径とする球面上で動くものとして、頭部の角度の変化をユーザー座標系から見た頭部の位置に変換する、
上記(16−3)に記載の画像処理装置。
(16−6)ユーザーの腰位置をユーザー座標系の原点に設定し、
前記変換部は、ユーザーの頭部がユーザーの腰位置を回転中心とし前記アーム長rを半径とする球面上で動くものとして、頭部の角度の変化をユーザーの腰位置から見た頭部の位置に変換する、
上記(16−3)に記載の画像処理装置。
(16−7)前記変換部は、ユーザーの頭部が前記アーム長rよりも短い第1のアーム長r1だけ離間した回転中心から半径r1に固定された球面上で動くものとして、頭部の角度の変化をユーザー座標系から見た頭部の位置に変換する、
上記(16−3)に記載の画像処理装置。
(16−8)ユーザーの腰位置をユーザー座標系の原点に設定し、
前記変換部は、ユーザーの頭部が前記アーム長rよりも短い第1のアーム長r1だけ離間した首から半径r1に固定された球面上で動くものとして、頭部の角度の変化をユーザーの腰位置から見た頭部の位置に変換する、
上記(16−3)に記載の画像処理装置。
(16−9)ユーザーの頭部以外の上半身の部位の姿勢を検出する第2の検出部をさらに備え、
前記変換部は、前記検出部が検出した頭部の姿勢と前記第2の検出部が検出した上半身の部位の姿勢に基づいて、頭部の姿勢をユーザー座標系における頭部の位置に変換する、
上記(16)に記載の画像処理装置。
(16−10)前記変換部は、頭部の位置を適用するアプリケーションに応じて、アーム長rを調整する、
上記(16−3)に記載の画像処理装置。
(16−11)前記変換部は、頭部の位置を適用するアプリケーションに応じて、前記検出部が検出した頭部の姿勢の少なくとも一部の角度成分を制限して、頭部の位置を求める、
上記(16)乃至(16−10)のいずれかに記載の画像処理装置。
(16−12)前記変換部は、各時刻のアーム長rを推定して、各時刻における頭部の位置を求める、
上記(16−3)に記載の画像処理装置。
(16−13)前記検出部は、ユーザーの頭部の加速度を検出するセンサーを含み、
前記変換部は、各時刻で検出された加速度に基づいてアーム長rを推定して、各時刻における頭部の位置を求める、
上記(16−12)に記載の画像処理装置。
(17)前記描画処理部は、頭部の角度変化が所定以内の値のみ運動視差を適用する、
上記(16)に記載の画像処理装置。
(18)ユーザーの頭部の姿勢を検出する検出ステップと、
頭部の姿勢をユーザー座標系における頭部の位置に変換する変換ステップと、
頭部の位置に対応した運動視差を提示した画像を生成する描画処理ステップと、
を有する画像処理方法。
(19)ユーザーの頭部の姿勢を検出する検出部と、
頭部の姿勢をユーザー座標系における頭部の位置に変換する変換部と、
頭部の位置に対応した運動視差を提示した画像を生成する描画処理部と、
表示部と、
を具備する表示装置。
(20)ユーザーの頭部に装着した検出部が検出した頭部の姿勢をユーザー座標系における頭部の位置に変換する変換部、
頭部の位置に対応した運動視差を提示した画像を生成する描画処理部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム。
41…本体部、42…額当て部、43…鼻当て部
44…上バンド、45…下バンド
100…画像表示システム
200…頭部動作追跡装置、201…センサー部、202…姿勢角演算部
203…送信部
300…描画装置、301…受信部、302…描画処理部、303…送信部
304…画像ソース
400…表示装置、401…受信部、402…表示部

Claims (20)

  1. ユーザーの頭部の姿勢を検出する検出部と、
    頭部の姿勢を頭部から所定のアーム長rだけ離間したユーザーの身体上の所定の部位に原点が設定されたユーザー座標系における頭部の位置に変換する変換部と、
    を具備する頭部位置検出装置。
  2. 前記検出部は、ユーザーの頭部に装着したジャイロ・センサーを備え、前記ジャイロ・センサーが検出した角速度を積分して、頭部の姿勢を算出する、
    請求項1に記載の頭部位置検出装置。
  3. 前記検出部は、加速度センサーをさらに備え、前記ジャイロ・センサーから得られた姿勢の重力方向に対するドリフトを前記加速度センサーが検出する重力方向に基づいて補償する、
    請求項2に記載の頭部位置検出装置。
  4. 前記変換部は、ユーザーの頭部の角度の変化を前記ユーザー座標系から見た頭部の位置に変換する、
    請求項1に記載の頭部位置検出装置。
  5. 前記変換部は、ユーザーの頭部が所定の回転中心から所定の半径rに固定された球面上で動くものとして、頭部の角度の変化を前記ユーザー座標系から見た頭部の位置に変換する、
    請求項4に記載の頭部位置検出装置。
  6. 前記変換部は、ユーザーの頭部がユーザー座標系上の原点を回転中心とし前記アーム長rを半径とする球面上で動くものとして、頭部の角度の変化を前記ユーザー座標系から見た頭部の位置に変換する、
    請求項4に記載の頭部位置検出装置。
  7. ユーザーの腰位置を前記ユーザー座標系の原点に設定し、
    前記変換部は、ユーザーの頭部がユーザーの腰位置を回転中心とし前記アーム長rを半径とする球面上で動くものとして、頭部の角度の変化をユーザーの腰位置から見た頭部の位置に変換する、
    請求項4に記載の頭部位置検出装置。
  8. 前記変換部は、ユーザーの頭部が前記アーム長rよりも短い第1のアーム長r1だけ離間した回転中心から半径r1に固定された球面上で動くものとして、頭部の角度の変化を前記ユーザー座標系から見た頭部の位置に変換する、
    請求項4に記載の頭部位置検出装置。
  9. ユーザーの腰位置を前記ユーザー座標系の原点に設定し、
    前記変換部は、ユーザーの頭部が前記アーム長rよりも短い第1のアーム長r1だけ離間した首から半径r1に固定された球面上で動くものとして、頭部の角度の変化をユーザーの腰位置から見た頭部の位置に変換する、
    請求項4に記載の頭部位置検出装置。
  10. ユーザーの頭部以外の上半身の部位の姿勢を検出する第2の検出部をさらに備え、
    前記変換部は、前記検出部が検出した頭部の姿勢と前記第2の検出部が検出した上半身の部位の姿勢に基づいて、頭部の姿勢を前記ユーザー座標系における頭部の位置に変換する、
    請求項1に記載の頭部位置検出装置。
  11. 前記変換部は、頭部の位置を適用するアプリケーションに応じて、アーム長rを調整する、
    請求項4に記載の頭部位置検出装置。
  12. 前記変換部は、頭部の位置を適用するアプリケーションに応じて、前記検出部が検出した頭部の姿勢の少なくとも一部の角度成分を制限して、頭部の位置を求める、
    請求項1に記載の頭部位置検出装置。
  13. 前記変換部は、各時刻のアーム長rを推定して、各時刻における頭部の位置を求める、
    請求項4に記載の頭部位置検出装置。
  14. 前記検出部は、ユーザーの頭部の加速度を検出するセンサーを含み、
    前記変換部は、各時刻で検出された加速度に基づいてアーム長rを推定して、各時刻における頭部の位置を求める、
    請求項13に記載の頭部位置検出装置。
  15. ユーザーの頭部の姿勢を検出する検出ステップと、
    頭部の姿勢を頭部から所定のアーム長rだけ離間したユーザーの身体上の所定の部位に原点が設定されたユーザー座標系における頭部の位置に変換する変換ステップと、
    を有する頭部位置検出方法。
  16. ユーザーの頭部の姿勢を検出する検出部と、
    頭部の姿勢を頭部から所定のアーム長rだけ離間したユーザーの身体上の所定の部位に原点が設定されたユーザー座標系における頭部の位置に変換する変換部と、
    頭部の位置に対応した運動視差を提示した画像を生成する描画処理部と、
    を具備する画像処理装置。
  17. 前記描画処理部は、頭部の角度変化が所定以内の値のみ運動視差を適用する、
    請求項16に記載の画像処理装置。
  18. ユーザーの頭部の姿勢を検出する検出ステップと、
    頭部の姿勢を頭部から所定のアーム長rだけ離間したユーザーの身体上の所定の部位に原点が設定されたユーザー座標系における頭部の位置に変換する変換ステップと、
    頭部の位置に対応した運動視差を提示した画像を生成する描画処理ステップと、
    を有する画像処理方法。
  19. ユーザーの頭部の姿勢を検出する検出部と、
    頭部の姿勢を頭部から所定のアーム長rだけ離間したユーザーの身体上の所定の部位に原点が設定されたユーザー座標系における頭部の位置に変換する変換部と、
    頭部の位置に対応した運動視差を提示した画像を生成する描画処理部と、
    表示部と、
    を具備する表示装置。
  20. ユーザーの頭部に装着した検出部が検出した頭部の姿勢を頭部から所定のアーム長rだけ離間したユーザーの身体上の所定の部位に原点が設定されたユーザー座標系における頭部の位置に変換する変換部、
    頭部の位置に対応した運動視差を提示した画像を生成する描画処理部、
    としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム。
JP2016514733A 2014-04-22 2015-01-19 頭部位置検出装置及び頭部位置検出方法、画像処理装置及び画像処理方法、表示装置、並びにコンピューター・プログラム Active JP6540691B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014087849 2014-04-22
JP2014087849 2014-04-22
PCT/JP2015/051279 WO2015162946A1 (ja) 2014-04-22 2015-01-19 頭部位置検出装置及び頭部位置検出方法、画像処理装置及び画像処理方法、表示装置、並びにコンピューター・プログラム

Publications (2)

Publication Number Publication Date
JPWO2015162946A1 JPWO2015162946A1 (ja) 2017-04-13
JP6540691B2 true JP6540691B2 (ja) 2019-07-10

Family

ID=54332120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016514733A Active JP6540691B2 (ja) 2014-04-22 2015-01-19 頭部位置検出装置及び頭部位置検出方法、画像処理装置及び画像処理方法、表示装置、並びにコンピューター・プログラム

Country Status (4)

Country Link
US (1) US20170036111A1 (ja)
JP (1) JP6540691B2 (ja)
KR (1) KR20160147735A (ja)
WO (1) WO2015162946A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2016234081A1 (en) 2015-03-17 2016-12-01 Bagel Labs Co., Ltd. Length measuring device and length measuring system
FI20165059A (fi) * 2016-01-29 2017-07-30 Nokia Technologies Oy Menetelmä ja laite videoinformaation käsittelemiseksi
FR3059415B1 (fr) * 2016-11-29 2020-06-26 Airbus Operations Procede et systeme de determination de l'attitude et de la position de la tete d'un pilote d'aeronef.
US10583358B1 (en) * 2017-01-23 2020-03-10 Pixar Headset for simulating accelerations
DE102017208365A1 (de) * 2017-05-18 2018-11-22 Robert Bosch Gmbh Verfahren zur Orientierungsschätzung eines tragbaren Gerätes
CN109243595B (zh) * 2017-07-03 2022-03-01 上银科技股份有限公司 校正控制***、控制装置及驱动端
US10444827B2 (en) * 2017-09-18 2019-10-15 Fujitsu Limited Platform for virtual reality movement
CN107754307A (zh) * 2017-12-05 2018-03-06 野草莓影业(北京)有限公司 转动座椅的控制方法、控制装置以及转动座椅
KR20190118040A (ko) 2018-04-09 2019-10-17 삼성전자주식회사 웨어러블 디스플레이 장치 및 그의 입체 영상 표시 방법
US20190324283A1 (en) * 2018-04-19 2019-10-24 Htc Corporation Display device and display method
JP6976907B2 (ja) * 2018-06-22 2021-12-08 任天堂株式会社 プログラム、情報処理装置、情報処理システム及び情報処理方法
CN109753155B (zh) * 2019-01-02 2021-01-22 京东方科技集团股份有限公司 头戴显示设备、其驱动方法及虚拟现实显示装置
JP7434353B2 (ja) * 2019-03-22 2024-02-20 エシロール・アンテルナシオナル 視覚タスクのための視覚機器の性能を評価する装置及び方法
CN111723624B (zh) * 2019-03-22 2023-12-05 京东方科技集团股份有限公司 一种头部运动跟踪方法和***
US11061469B2 (en) * 2019-11-20 2021-07-13 XRSpace CO., LTD. Head mounted display system and rotation center correcting method thereof
CN111796682B (zh) * 2020-07-09 2021-11-16 联想(北京)有限公司 一种控制方法、装置电子设备
KR20220102436A (ko) * 2021-01-13 2022-07-20 삼성전자주식회사 웨어러블 전자 장치의 가속도 센서를 이용하여 사용자의 자세를 판단하는 방법 및 그 전자 장치
CN112791381B (zh) * 2021-01-21 2022-12-27 深圳市瑞立视多媒体科技有限公司 虚拟现实中腰带跟随玩家的移动方法、装置和计算机设备
CN115546292B (zh) * 2022-12-02 2023-03-17 首都医科大学附属北京同仁医院 头位判读方法、***验证方法、计算设备和存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08107600A (ja) * 1994-10-04 1996-04-23 Yamaha Corp 音像定位装置
JPH09106322A (ja) 1995-10-09 1997-04-22 Data Tec:Kk ヘッドマウントディスプレイにおける姿勢角検出装置
JP3461117B2 (ja) * 1998-05-26 2003-10-27 日本電信電話株式会社 立体表示方法及び記録媒体並びに立体表示装置
JP2000308092A (ja) * 1999-04-16 2000-11-02 Toshiba Mach Co Ltd 立体視眼鏡装置
NL1018198C2 (nl) * 2001-06-01 2002-12-03 Tno Head mounted display inrichting.
US20080211768A1 (en) * 2006-12-07 2008-09-04 Randy Breen Inertial Sensor Input Device
JP4422777B2 (ja) * 2008-08-05 2010-02-24 オリンパス株式会社 移動体姿勢検出装置
JP2010256534A (ja) 2009-04-23 2010-11-11 Fujifilm Corp 全方位画像表示用ヘッドマウントディスプレイ装置
JP5809779B2 (ja) * 2010-03-09 2015-11-11 淳 久池井 態様を取り込むための有関節構造体用の関節パーツ、有関節構造体および態様取込システム
CN101861013B (zh) * 2010-04-30 2013-06-05 鸿富锦精密工业(深圳)有限公司 智能灯及其控制方法
JP2012052904A (ja) * 2010-09-01 2012-03-15 Microstone Corp 慣性計測装置
US9436286B2 (en) * 2011-01-05 2016-09-06 Qualcomm Incorporated Method and apparatus for tracking orientation of a user
US8784206B1 (en) * 2011-04-15 2014-07-22 Wms Gaming, Inc. Modifying presentation of three-dimensional, wagering-game content
WO2013132885A1 (ja) * 2012-03-07 2013-09-12 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP5990998B2 (ja) * 2012-04-23 2016-09-14 セイコーエプソン株式会社 虚像表示装置

Also Published As

Publication number Publication date
JPWO2015162946A1 (ja) 2017-04-13
KR20160147735A (ko) 2016-12-23
WO2015162946A1 (ja) 2015-10-29
US20170036111A1 (en) 2017-02-09

Similar Documents

Publication Publication Date Title
JP6540691B2 (ja) 頭部位置検出装置及び頭部位置検出方法、画像処理装置及び画像処理方法、表示装置、並びにコンピューター・プログラム
US10310595B2 (en) Information processing apparatus, information processing method, computer program, and image processing system
EP3241088B1 (en) Methods and systems for user interaction within virtual or augmented reality scene using head mounted display
US9703100B2 (en) Change nature of display according to overall motion
US10229541B2 (en) Methods and systems for navigation within virtual reality space using head mounted display
EP3008548B1 (en) Head-mountable apparatus and systems
EP2979127B1 (en) Display method and system
EP3008691B1 (en) Head-mountable apparatus and systems
US20170111636A1 (en) Information processing apparatus, information processing method, computer program, and image display system
US11277603B2 (en) Head-mountable display system
JP6642430B2 (ja) 情報処理装置及び情報処理方法、並びに画像表示システム
JP7002648B2 (ja) 車両内において乗物酔いを伴わずにデジタルコンテンツを見ること
JPWO2015098211A1 (ja) 姿勢測定装置及び姿勢測定方法、画像処理装置及び画像処理方法、表示装置及び表示方法、コンピューター・プログラム、並びに画像表示システム
JP2020003898A (ja) 情報処理装置、情報処理方法、及びプログラム
US9372346B2 (en) Directional light beams for angle detection
US11187895B2 (en) Content generation apparatus and method
WO2014069090A1 (ja) 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
JP2018129692A (ja) 頭部装着型表示装置及びシミュレーションシステム
WO2023242981A1 (ja) ヘッドマウントディスプレイ、ヘッドマウントディスプレイシステム、および、ヘッドマウントディスプレイの表示方法
JP6503407B2 (ja) コンテンツ表示プログラム、コンピュータ装置、コンテンツ表示方法、及びコンテンツ表示システム
GB2558278A (en) Virtual reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190527

R151 Written notification of patent or utility model registration

Ref document number: 6540691

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151