JP2016092512A - 画像生成装置、画像生成方法および較正方法 - Google Patents

画像生成装置、画像生成方法および較正方法 Download PDF

Info

Publication number
JP2016092512A
JP2016092512A JP2014222569A JP2014222569A JP2016092512A JP 2016092512 A JP2016092512 A JP 2016092512A JP 2014222569 A JP2014222569 A JP 2014222569A JP 2014222569 A JP2014222569 A JP 2014222569A JP 2016092512 A JP2016092512 A JP 2016092512A
Authority
JP
Japan
Prior art keywords
marker
head
viewpoint position
user
markers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014222569A
Other languages
English (en)
Other versions
JP6588196B2 (ja
JP2016092512A5 (ja
Inventor
篤史 滝沢
Atsushi Takizawa
篤史 滝沢
佐々木 伸夫
Nobuo Sasaki
伸夫 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2014222569A priority Critical patent/JP6588196B2/ja
Priority to PCT/JP2015/074010 priority patent/WO2016067729A1/ja
Priority to US15/519,295 priority patent/US10362297B2/en
Publication of JP2016092512A publication Critical patent/JP2016092512A/ja
Publication of JP2016092512A5 publication Critical patent/JP2016092512A5/ja
Application granted granted Critical
Publication of JP6588196B2 publication Critical patent/JP6588196B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】ユーザが頭を動かすことで視点位置が変位すると、立体映像が動き、酔いが生じる。
【解決手段】マーカー検出部20は、ユーザの頭部に装着された装身具の複数のマーカーの撮影画像をスキャンして複数のマーカーの撮影画像上の2次元座標を検出する。視点位置補正部30は、マーカーのZ方向の座標を用いることなく、検出された複数のマーカーの2次元座標を用いて、ユーザの視点位置を補正する。立体画像生成部40は、補正された視点位置から3次元オブジェクトを見た場合の視差画像を生成する。
【選択図】図6

Description

この発明は、立体映像を生成する画像生成装置、画像生成方法および較正方法に関する。
映像を立体的に提示できる3次元テレビやヘッドマウントディスプレイ等の3次元表示デバイスが利用されている。携帯電話や携帯ゲーム機等の携帯端末機において映像を立体的に提示できるデバイスも開発されており、一般のユーザが立体的な映像を視聴する機会が増加してきている。
立体的な映像を表示する3次元表示デバイスは、ユーザの左右の眼に視差のある画像を見せることでユーザが画像を立体視することを可能にする。左右の眼に視差のある画像を見せるために特殊な光学メガネを利用する方式や、光学メガネを使わずにパララックスバリアやレンチキュラーレンズを用いる方式などがある。
このような3次元表示デバイスによる立体視では、ユーザの視点位置の情報が正確に得られ、また、視点位置が固定して動かないことが前提となっている。しかし、ユーザに頭を全く動かさないように求めることは現実的ではない。視点位置が動かないことを前提に生成された視差画像をユーザが立体視している場合に、ユーザが少しでも頭を動かしたり、傾けたりすると、視点位置が変位し、見ている立体映像が揺れ動くため、見づらさを感じたり、酔いが生じたりする。
本発明はこうした課題に鑑みてなされたものであり、その目的は、視点が変位しても安定した立体映像を生成することのできる画像生成装置、画像生成方法および較正方法を提供することにある。
上記課題を解決するために、本発明のある態様の画像生成装置は、ユーザの頭部に装着された装身具の複数のマーカーの撮影画像をスキャンして前記複数のマーカーの撮影画像上の2次元座標を検出するマーカー検出部と、マーカーのZ方向の座標を用いることなく、検出された前記複数のマーカーの2次元座標を用いて、ユーザの視点位置を補正する視点位置補正部と、補正された視点位置から3次元オブジェクトを見た場合の視差画像を生成する立体画像生成部とを含む。
本発明の別の態様は、較正方法である。この方法は、ユーザの頭部に装着された装身具の複数のマーカーの撮影画像をスキャンして前記複数のマーカーの撮影画像上の2次元座標を検出するマーカー検出ステップと、マーカーのZ方向の座標を用いることなく、検出された前記複数のマーカーの2次元座標を用いて、ユーザの視点位置を補正する視点位置補正ステップと、補正された視点位置から較正用3次元オブジェクトを見た場合の視差画像を生成する立体画像生成ステップと、頭部を動かしても立体視された較正用3次元オブジェクトが静止するように、ユーザの頭部に装着された装身具を前後させてマーカーの位置を調整するようユーザに促す較正ステップとを含む。
本発明のさらに別の態様は、画像生成方法である。この方法は、ユーザの頭部に装着された装身具の複数のマーカーの撮影画像をスキャンして前記複数のマーカーの撮影画像上の2次元座標を検出するマーカー検出ステップと、マーカーのZ方向の座標を用いることなく、検出された前記複数のマーカーの2次元座標を用いて、ユーザの視点位置を補正する視点位置補正ステップと、補正された視点位置から3次元オブジェクトを見た場合の視差画像を生成する立体画像生成ステップとを含む。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、視点が変位しても安定した立体映像を表示することができる。
3次元ディスプレイ装置を説明する図である。 図2(a)および図2(b)は、ユーザが装着するマーカー付きヘアバンドを説明する図である。 マーカー付きヘアバンドを装着したユーザがディスプレイを見ている様子を説明する図である。 マーカーの発光分布をカメラが検知する様子を示す図である。 図5(a)は、ヘアバンドの3つのマーカーとカメラの位置関係を説明する図であり、図5(b)は、カメラにより撮影された左側頭部マーカーの像と右側頭部マーカーの像を示す図である。 本実施の形態に係る立体画像生成装置の機能構成図である。 図6の視点位置補正部の詳細な機能構成図である。 カメラによる撮影画像における頭頂部マーカー、左側頭部マーカー、および右側頭部マーカーを示す図である。 図9(a)および図9(b)は、マーカー検出部が撮影画像をスキャンして頭頂部マーカー、左側頭部マーカー、および右側頭部マーカーを検出する方法を説明する図である。 3次元オブジェクトをスクリーンにステレオ表示する際の左右の目の視錐台を説明する図である。 視点が並進移動したときの視点位置の並進補正量を説明する図である。 図12(a)および図12(b)は、頭部の傾き角度による頭頂部マーカーの位置の変化を説明する図である。 図13(a)および図13(b)は、ユーザが頭部を傾けた場合の視錘台の中心の変位を説明する図である。 マーカー付きヘアバンドの装着位置と視錘台の射影原点の関係を説明する図である。 図15(a)および図15(b)は、視点位置のZ方向の補正を行わないことの利点を説明する図である。 ユーザの頭部の真上から見た場合の視錘台と3次元オブジェクトとスクリーンの位置関係を説明する図である。 ユーザが頭部を回した場合の新しい視錘台を説明する図である。 ユーザが頭部を回した場合の近似的な視錘台を説明する図である。 頭部を正面に向けている場合の視線角度を示す図である。 頭部を回転角Φだけ回転した場合の視線角度を示す図である。 頭部の回転を並進移動で近似した場合の視線角度を示す図である。
図1は、3次元ディスプレイ装置を説明する図である。3次元ディスプレイ装置は、ゲーム機200と、ディスプレイ300と、カメラ310とを含む。
ディスプレイ300は、無線通信またはUSBなどの周辺機器を接続するインタフェースでゲーム機200に接続される。ゲーム機200は、さらにネットワークを介してサーバに接続されてもよい。ディスプレイ300は、ゲーム機200の代わりに、コンピュータや携帯端末に接続されてもよい。カメラ310は、ディスプレイ300の上部などの設置され、ディスプレイ300を見ているユーザを撮影し、撮影した画像をゲーム機200に供給する。
図2(a)および図2(b)は、ユーザが装着するマーカー付きヘアバンド100を説明する図である。
図2(a)は、マーカー付きヘアバンド100の構成図である。ヘアバンド100は頭頂部マーカー110Tと、左側頭部マーカー110Lと、右側頭部マーカー110Rとを有する。ユーザがヘアバンド100を装着すると、頭頂部マーカー110Tはユーザの頭部、左側頭部マーカー110Lと右側頭部マーカー110Rはユーザの左右の側頭部に設けられる。図2(b)は、ユーザがマーカ付きヘアバンド100を装着した様子を示す。これらのマーカーは一例として赤外線発光ダイオードである。
ここでは、ヘアバンドにマーカーを搭載したが、ユーザの頭部に装着し、装着位置を前後に調整できるものであれば、ヘアバンドに限らず、任意の頭部用装身具を用いることができる。たとえば、ヘッドセットであってもよく、帽子であってもよい。
図3は、マーカー付きヘアバンド100を装着したユーザがディスプレイ300を見ている様子を説明する図である。
ユーザはディスプレイ300から距離dだけ離れた位置からディスプレイ300を観察している。この例では、ユーザは立体視用メガネ400を装着して視差画像が表示されたディスプレイ300のスクリーンを見ている。ディスプレイ300の上部に設置されたカメラ310は、マーカー付きヘアバンド100を装着したユーザの頭部を撮影する。
カメラ310は、赤外線透過フィルタを備えており、カメラ310により撮影されたユーザの頭部の画像から輝点を検出する画像処理により、ヘアバンド100の頭頂部マーカー110T、左側頭部マーカー110L、および右側頭部マーカー110Rの位置を検出することができる。
図4は、マーカー110の発光分布をカメラ310が検知する様子を示す図である。マーカー110の電力消費を最小化するために、発光分布に方向性のある発光ダイオードが使用されるが、カメラ310がマーカー110の光を撮像してマーカー110の位置を検出する際の位置の検出精度は発光分布に依存することになる。
赤外線発光ダイオードの発光強度分布は符号112で示すように正面方向に広がっており、発光ダイオードの正面から見ると発光分布がほぼ対称で急激な変化も少ないが、斜め方向から見ると不均一な光の強度分布が観測される。
カメラ310が発光ダイオードの正面からの光116を捉える場合、符号114で塗りつぶした部分の面積の重心がマーカー110の位置として検出され、高い精度でマーカー110の位置を検出することができる。一方、カメラ310が発光ダイオードの斜め方向からの光118を捉える場合は、光量が極端に少なくなり、また角度により不均一になるため、重心位置の測定精度が急激に低下し、マーカー110の位置を正確に検出することが困難になる。
図5(a)は、ヘアバンド100の3つのマーカー110T、110L、110Rとカメラ310の位置関係を説明する図である。頭頂部マーカー110Tは、カメラ310と正対する位置にあるため、カメラ310が頭頂部マーカー110Tの像を撮影して頭頂部マーカー110Tの2次元座標を高い精度で測定することができる。それに対して、左側頭部マーカー110L、右側頭部マーカー110Rはカメラ310から見て斜め方向に位置するため、2次元座標の測定精度が低くなる。
図5(b)は、カメラ310により撮影された左側頭部マーカー110Lの像510Lと、右側頭部マーカー110Rの像510Rを示す図である。左側頭部マーカー110Lの像510Lの2次元座標には測定誤差512Lが存在し、右側頭部マーカー110Rの像510Rの2次元座標には測定誤差512Rが存在し、測定精度は低い。しかし、ユーザが体を起こした状態でディスプレイを見ることを前提とすると、これらの測定誤差512L、512Rは水平方向であるから、頭部の傾きを検出する際には、水平方向の誤差は問題とならず、頭部の傾き角度vAngleの測定の際には誤差の影響を最小にすることができる。
本実施の形態では、頭頂部マーカー110Tの2次元座標を基準として、視点位置の補正量を決定する。視点位置の補正が適切にできるように、ユーザがヘアバンド100の位置を前後に動かし、頭頂部マーカー110Tの位置を調整する。これにより、個人差を最小化し、非常に少ない演算量でステレオ表示の際の視点位置の補正処理を実現することができる。
また、左側頭部マーカー110Lおよび右側頭部マーカー110Rの2次元座標から頭部の傾きを検出して、追加のステレオ表示補正を行う。
頭頂部マーカー110T、左側頭部マーカー110Lおよび右側頭部マーカー110RのZ方向の座標は用いない。頭頂部マーカー110Tからは2次元座標すなわち頭部のXY平面における位置のみを、左側頭部マーカー110Lおよび右側頭部マーカー110Rからは頭部の傾き角度のみを取り出して補正計算に使用することで、測定誤差の影響の少ない安定した視点位置の補正処理を実現することができる。
なお、左側頭部マーカー110Lおよび右側頭部マーカー110Rがカメラ310の正面方向を向くように角度をつけてヘアバンド100に設置すれば、左側頭部マーカー110Lおよび右側頭部マーカー110Rについても2次元座標の内、水平方向の測定精度を高くすることができるが、これはカメラ310からヘアバンド100までの距離が一定の場合にしか効果がないので、あまり現実的な解決方法ではない。本実施の形態では、左側頭部マーカー110Lおよび右側頭部マーカー110Rの2次元座標の内、水平方向の測定精度が低いことを前提とし、測定誤差の影響を受けないように、左側頭部マーカー110Lおよび右側頭部マーカー110Rについては検出された2次元座標を直接用いることはせずに、左側頭部マーカー110Lと右側頭部マーカー110Rを結ぶ線が水平方向に対してなす角度(すなわちユーザの頭部の傾き角度vAngle)を求める。傾き角度を求める過程で、左側頭部マーカー110Lの2次元座標の測定誤差と右側頭部マーカー110Rの2次元座標の測定誤差を相殺することができる。
図6は、本実施の形態に係る立体画像生成装置210の機能構成図である。同図は機能に着目したブロック図を描いており、これらの機能ブロックはハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現することができる。
立体画像生成装置210は、ディスプレイ300に接続されたゲーム機200に実装されるが、立体画像生成装置210の少なくとも一部の機能をディスプレイ300の制御部に実装してもよい。あるいは、立体画像生成装置210の少なくとも一部の機能を、ネットワークを介してゲーム機200に接続されたサーバに実装してもよい。
撮影部10は、カメラ310により撮影されたマーカー付きヘアバンド100を装着したユーザの頭部の撮影画像をメモリに記憶する。マーカー検出部20は、撮影画像をスキャンして頭頂部マーカー110T、左側頭部マーカー110L、および右側頭部マーカー110Rの2次元座標を検出し、視点位置補正部30に供給する。
視点位置補正部30は、マーカー検出部20から取得した頭頂部マーカー110T、左側頭部マーカー110L、および右側頭部マーカー110Rの2次元座標にもとづいて、視点位置を補正し、更新された視点位置の情報を立体画像生成部40に与える。ここで、視点位置補正部30は、各マーカー110T、110L、110RのZ方向の座標、すなわち奥行き情報を用いずに、視点位置を補正することに留意すべきである。
立体画像生成部40は、3次元モデル記憶部50から表示すべきオブジェクトの3次元モデルを読み出し、視点位置補正部30から与えられた更新された視点位置から見た場合の視差を有する左目用画像および右目用画像を生成し、表示部60に供給する。表示部60は、左目用画像および右目用画像をディスプレイ300に表示する。
較正(キャリブレーション)部70は、立体画像生成部40にキャリブレーション用の3次元オブジェクトを生成するように指示する。較正部70はまた、マーカー付きヘアバンド100の装着位置を調整して、頭部を動かしてもキャリブレーション用の3次元オブジェクトが動かない装着位置を探るようにユーザに促すメッセージをディスプレイ300に表示するように表示部60に指示する。表示部60はキャリブレーション用の3次元オブジェクトの視差画像をディスプレイ300に表示するとともに、ユーザにマーカー付きヘアバンド100の装着位置を調整するよう促すメッセージをディスプレイ300に表示する。このメッセージを音声でユーザに提供してもよい。
図7は、視点位置補正部30の詳細な機能構成図である。頭頂部マーカー座標取得部72、左側頭部マーカー座標取得部74、右側頭部マーカー座標取得部76は、マーカー検出部20からそれぞれ頭頂部マーカー110T、左側頭部マーカー110L、右側頭部マーカー110Rの座標位置を取得する。
並進移動計算部78は、頭頂部マーカー110Tの2次元座標を用いて、ユーザの視点の並進移動を検出する。
頭部傾き計算部80は、左側頭部マーカー110Lおよび右側頭部マーカー110Rの2次元座標を用いて、ユーザの頭部の傾き角度を計算し、並進補正量計算部82およびシフト量計算部84に与える。
並進補正量計算部82は、ユーザの視点の並進移動とユーザの頭部の傾き角度から視点位置の並進補正量を計算し、視点位置更新部86に与える。
シフト量計算部84は、ユーザの頭部の傾き角度を用いて、ユーザの頭部の傾きに伴う視点位置のシフト量を計算し、視点位置更新部86に与える。
視点位置更新部86は、視点位置の並進補正量およびシフト量を用いて視点位置を更新し、更新後の視点位置の情報を立体画像生成部40に供給する。
図8は、カメラ310による撮影画像500における頭頂部マーカー110T、左側頭部マーカー110L、および右側頭部マーカー110Rを示す図である。撮影画像500は横Wピクセル、縦Hピクセルの画像である。マーカー検出部20は、撮影画像500の左上を(0,0)として、頭頂部マーカー110Tの2次元座標(wposT,hposT)、左側頭部マーカー110Lの2次元座標(wposL,hposL)、右側頭部マーカー110Rの2次元座標(wposR,hposR)をピクセル単位で求める。
図9(a)および図9(b)は、マーカー検出部20が撮影画像500をスキャンして頭頂部マーカー110T、左側頭部マーカー110L、および右側頭部マーカー110Rを検出する方法を説明する図である。
まず、図9(a)に示すように、撮影画像500の左上から1ライン毎にスキャンして頭頂部マーカー110Tを検出する。頭頂部マーカー110Tの2次元座標(wposT,hposT)が検出されると、図9(b)に示すように、撮影画像500を頭頂部マーカー110Tの位置で左右に分けて、左領域において上から1ライン毎にスキャンして右側頭部マーカー110Rの2次元座標(wposR,hposR)を検出し、右領域において上から1ライン毎にスキャンして左側頭部マーカー110Lの2次元座標(wposL,hposL)を検出する。
この2段階スキャンによって3つのマーカー110T、110L、110Rのいずれかが検出されない場合、エラーとして扱い、前回のスキャンで得られたマーカー110T、110L、110Rの位置座標を続けて用いる。
図10は、3次元オブジェクト600をスクリーン610にステレオ表示する際の左右の目の視錐台630L、630Rを説明する図である。
視点位置の補正アルゴリズムを説明するために、以下の3つの座標系を定義する。
(1)カメラ入力座標系
カメラ310による撮影画像の2次元座標系であり、座標系の単位は撮影画像のピクセル単位である。
(2)ワールド座標系
3次元オブジェクト600が存在する3次元空間の座標系である。右目の透視投影の原点と左目の透視投影の原点の中点をワールド座標系の原点とし、ディスプレイ300のスクリーンに向かう方向をZ軸とし、水平方向をX軸、垂直方向をY軸とする。座標系の単位は実空間の長さの単位である。
(3)ディスプレイのスクリーン座標系
ディスプレイ300のピクセル空間で表される2次元のスクリーン座標系であり、座標系の単位はディスプレイ300の表示ピクセル単位である。
ステレオ表示は、人間の左目620Lと右目620Rの間隔をEwとして、左目用に−Ew/2、右目用にEw/2だけ並行移動した視錐台630L、630Rを用いて3次元オブジェクト600を透視投影することによって行う。なお、実際の眼球の位置は、視錘台630L、630Rの原点640L、640Rよりも前にあると考えられるが、ここでは簡単のため、視錘台630L、630Rの原点640L、640Rの位置に眼球を描いている。
実際の計算では、透視変換の視錘台の座標系を固定として、例えば左目用には3次元オブジェクト600を−(−Ew/2)=Ew/2だけワールド座標系上で移動し、生成された画像をスクリーン座標系で上記に相当する量だけ反対方向に移動する。
スクリーンから視点までの距離は固定の設定値とする。カメラ310によりユーザの視点のZ座標(奥行き)を計測することも可能であるが、余分な計算処理により表示画像の不安定性が増すため、ここではZ座標は測定せず、Z方向の視点位置の補正を行わない。Z座標を使わず、撮影画像上のマーカーの2次元座標(X,Y)だけを用いて視点位置を補正するため、誤差の影響を最小化することができる。
図11は、視点が並進移動したときの視点位置の並進補正量を説明する図である。視点がX軸(水平方向)にxTranだけ並進移動したときの左目620L’の視錐台630L’と右目620R’の視錐台630R’が図示されている。
並進移動計算部78は、カメラ入力座標系の頭頂部マーカー110Tの位置(wposT,hposT)から3次元オブジェクト600のワールド座標系における表示位置の補正量(xTran,yTran)を以下のように計算する。この計算では、ユーザの両目は水平に保たれていると仮定する。
xTran=−(wposT−wRef)・wScale
yTran= (hposT−hRef)・hScale
ただし(wRef,hRef)はカメラ入力座標系の中心となる基準点。これは、例えばカメラ310がディスプレイ300のスクリーンの中央上端にある場合は、wRefはカメラ入力座標系の左右の視錘台の中心位置のX座標でよく、ワールド座標系の原点に人間の両目の透視変換の中心がある場合、hRefはカメラ310で検出される頭頂部マーカー110Tの位置のY座標でよい。
wScale、hScaleは、カメラ入力座標系上で得られたマーカーのピクセル位置を、ワールド空間の座標系へ変換するためのスケーリング係数である。本来はカメラからマーカーまでの距離を変数とした関数になるが、本手法の場合はユーザがディスプレイ300に対して最適な位置付近で視聴を行うことを仮定するため、定数で処理する。
また、カメラ入力座標系の左側頭部マーカー110Lの2次元座標(wposL,hposL)と右側頭部マーカー110Rの2次元座標(wposR,hposR)の関係からユーザの頭部のワールド座標系での傾きを計測する。この場合も、ワールド座標系でのZ方向の傾きは無視し、カメラ座標系およびスクリーン座標系と平行な2次元平面での傾きを扱う。この傾きの角度をvAngleとする。vAngleは、下記の計算式により求められる。
vAngle=arcTan((hposR−hposL)/(wposR−wposL))
並進補正量計算部82は、頭部の傾きがないと仮定して求めた上記の並進補正量xTran、yTranを頭部の傾き角度vAngleを用いてさらに以下のように補正する。
xTran=(−(wpos0−wRef)+hDist・sin(vAngle))・wScale
yTran=(hpos0−hRef+hDist・(1−cos(vAngle)))・hScale
ただし、hDistはカメラ入力座標系上での頭頂部マーカー110Tの位置とユーザの両目の基準位置(ワールド座標系の原点)の間の距離である。
図12(a)および図12(b)は、頭部の傾き角度vAngleによる頭頂部マーカー110Tの位置の変化を説明する図である。図12(a)は、ユーザの両目が水平である場合の頭頂部マーカー110Tの位置を示しており、頭頂部マーカー110Tはユーザの両目の中心からhDistだけ離れている。図12(b)は、ユーザの両目が水平方向に対して角度vAngleだけ傾いた場合の頭頂部マーカー110Tの位置を示しており、頭頂部マーカー110Tは水平方向(X軸)にhDist・sin(vAngle)だけ、垂直方向(Y軸)にhDist・(1−cos(vAngle))だけ変位している。この変位を考慮して、並進補正量xTran、yTranは上記の式のように補正される。
こうして頭部の傾きも考慮に入れて求められた並進補正量xTran、yTranは、カメラ入力座標系の3つのマーカー110T、110L、110Rの2次元座標の変化をもとに、立体視用の透視投影の視錘台の中心がワールド座標系の原点からどれだけずれたかを推定した値である。
図11では、水平方向だけを考えた場合の視錘台の移動を表しているが、垂直方向も同様である。図11からわかるように、この移動は、実際の3次元オブジェクト600をワールド座標系で−xTran、−yTranだけ移動させ、さらに生成された画像をスクリーン空間上でxTran、yTranに相当する量だけ移動させることにより得られる。
このスクリーン空間上でのピクセル単位の補正量xAdj、yAdjは下記の式で表される。
xAdj=−xTran/sScale
yAdj=−yTran/sScale
ただし、sScaleはワールド座標系からスクリーン座標系への座標変換係数である。X方向、Y方向で比率が異なる場合は、それぞれに合わせた値を用いる必要がある。
ユーザが頭部を左右に動かしたり、回転させると視錘台の中心がワールド座標系の原点からずれる。このずれに対して視点位置の補正をせずに左右の視差画像をディスプレイ300に表示すると、立体映像がユーザの頭部の並進運動や回転運動に応じて揺れ動いて見えるため、酔いが生じる。本実施の形態では、並進補正量xTran、yTranを求めて、視点位置を更新し、更新後の視点位置から見た場合の左右の視差画像を生成してディスプレイ300に表示する。これにより、ユーザが頭部を自然に動かしても立体映像が視点のずれに伴って揺れ動くことがないため、安定した立体映像を提示することができる。
図13(a)および図13(b)は、ユーザが頭部を傾けた場合の視錘台の中心の変位を説明する図である。
図13(a)のように、ユーザの両目620L、620Rの位置が水平に保たれている場合は、立体視のためには透視変換の視錘台630L、630RをそれぞれEw/2づつ平行移動させた両目画像を生成すればよい。
図13(b)のように、ユーザの両目が傾いている場合は、左目の視錘台630L、右目の視錘台630Rが斜め方向にずれるため、シフト量計算部84は、左側頭部マーカー110L、右側頭部マーカー110Rから得たユーザの両目の傾きvAngleを用いて、視錘台の平行移動量をシフト補正する。
この補正は、ワールド座標系上での左右の目の位置のシフト補正量xshift、yshiftとして、下記の式で表現される。
左目について
xShift= (Ew/2)・cos(vAngle)
yShift=−(Ew/2)・sin(vAngle)
右目について
xShift=−(Ew/2)・cos(vAngle)
yShift= (Ew/2)・sin(vAngle)
実際にこの補正を行うには、視錘台の位置はもとのままとして、オブジェクトを逆の方向に移動する計算として表現する。このため、上記に相当する量だけ、スクリーン座標系上で得られた画像を反対方向に移動する。
スクリーン空間上でも、上記に対応したシフト補正を行う。シフト量をxShiftAdj,yShiftAdjと書くと、それらは左目、右目ともに下記の式で表される。
xShiftAdj=−xShift/sScale
yShiftAdj=−yShift/sScale
視点位置更新部86は、並進補正量xTran、yTranとシフト補正量xshift、yshiftを加算して視点位置の移動量を求め、視点位置を更新する。なお、頭の傾きによるシフト補正量を考慮して視点位置を補正するのはオプションであり、ユーザが頭を水平に保つことを前提にvAngle=0と仮定して、頭部の傾きを考慮に入れない並進補正量のみで視点位置を補正してもよい。
図14は、マーカー付きヘアバンド100の装着位置と視錘台の射影原点の関係を説明する図である。
視錘台の射影原点640は、人間の目の焦点位置であり、実際の目の位置よりも奥にあると考えられる。ここで、視錘台の射影原点640とは、正確に言えば、左右の2つの視錘台があるため、各視錘台の射影原点の中点のことであるが、ここでは、簡単のため、視錘台の射影原点と称する。
視点位置の補正アルゴリズムでは、視錘台の射影原点640をワールド座標系の原点として用いて画像の補正を行う。これは、視点位置を検出する基準として用いられるヘアバンド100の頭頂部マーカー110Tが、ワールド座標系の原点すなわち視錘台の射影原点640の真上にhDistだけ離れた位置にあることを仮定していることになる。
しかしながら、視錘台の射影原点は人間の目の焦点位置であるから、通常は直接その位置を計測することはできない。そこで、ヘアバンド100のように頭部に装着して前後に装着位置を調整可能なアクセサリにマーカーを組み込み、ユーザがスクリーン上で映し出される立体画像が自然に見えるように自らヘアバンド100の装着位置を調整することで、各人に合わせた理想的な視錘台の射影原点を設定することを可能にしている。
較正部70は、キャリブレーション用の3次元オブジェクトの視差画像を生成してディスプレイ300に表示するように立体画像生成部40と表示部60に指示する。較正部70は、ユーザにマーカー付きヘアバンド100の装着位置を前後に調整するように画面上の文字や音声などで指示する。
ユーザは、ディスプレイ300に映し出されたキャリブレーション用の3次元オブジェクトの視差画像を立体視用メガネ400を通して見ながら、頭部を左右に動かしたり、回転させてもキャリブレーション用の3次元オブジェクトが動かないように、ヘアバンド100の装着位置を前後に調整する。ヘアバンド100の頭頂部マーカー110Tが、ちょうどそのユーザの視錘台の射影原点640の真上に位置したとき、視点位置の補正アルゴリズムが有効に働き、頭部を動かしてもキャリブレーション用の3次元オブジェクトは動かなくなる。これでキャリブレーションは終了し、較正部70は立体画像生成部40と表示部60に指示してキャリブレーション用の3次元オブジェクトの視差画像の生成と表示を終了させる。
従来は、例えば立体視用メガネ400の表面にマーカーをとりつけてカメラで撮影し、マーカーの位置を3次元的に計測して視錘台の射影原点を算出する方法が取られることがある。しかし、立体視用メガネ400にマーカーがある場合、視錘台の射影原点とはZ方向にずれているため、マーカーの位置から視錘台の射影原点を求めるために奥行き方向の正確な情報が必要となり、計算も複雑になる。また、立体視用メガネ400のマーカーを撮影してもユーザの頭部の回転と並進の区別がつきにくいことから、位置測定に誤差が生じやすい。さらに、各人の目の焦点位置に合わせた計算が必要になり、時間のかかる較正プロセスをユーザにメニュー操作を求めながら行う必要がある。
それに対して本実施の形態では、頭頂部マーカー110Tは、視錘台の射影原点の真上に調整されるため、頭頂部マーカー110Tマーカーと視錘台の射影原点はZ方向にずれがないから、視線位置の補正計算を簡略化できる。また、本実施の形態の較正手法では、ヘアバンド100の装着位置をユーザ自身が物理的に前後にずらすという極めて直感的な方法で個々人の目の焦点位置に合わせた調整が実現でき、誰でも容易にキャリブレーションを行うことができる。さらに、検出するマーカーの箇所が少ないためにマーカー毎の誤差の影響が少なく、非常に安定したキャリブレーションを行うことができる。
図15(a)および図15(b)は、視点位置のZ方向の補正を行わないことの利点を説明する図である。本実施の形態では、視点の奥行き方向に移動に対しては視点位置の補正をあえて行わないことで計算を簡略化しているが、これには他の利点もある。
図15(a)は、視錘台630と3次元オブジェクト600とスクリーン610の位置関係を示す。視錘台630の原点640がこの位置にあるときは、3次元オブジェクト600の全体が視錘台630の内側にあるため、スクリーン610に3次元オブジェクト600の画像がすべて表示される。
図15(b)は、視点がZ方向に移動した場合の位置関係を示す。視点がスクリーン610に近づいたときにZ方向の視点の位置補正を行うと、3次元オブジェクト600の一部が視錘台630の外側にはみ出すため、3次元オブジェクト600の画像がスクリーン610の縁にかかってしまう。
よく知られているように、立体視表示の場合、オブジェクトが画面の縁にかかると、額縁補正などの処理を行ったとしても、不自然に見えることは免れない。しかしながら、Z方向の視点位置の補正をあえて行わないのであれば、オブジェクトが多少Z方向に縮むようには見えるものの、画面の縁にかかる可能性は小さくなるため、結果的に見やすい画像を保つことが可能である。このように、Z方向の視点位置の補正をあえて行わないことは、視点位置補正アルゴリズムを簡単にするだけでなく、視点がスクリーンに近づいても自然な立体視表示を維持することを容易にするという副次的な効果も奏する。
なお、上記説明では、Z方向の補正を行わないことを前提として利点を説明したが、本実施の形態では、他の測定装置などを増やすことなしに、簡易的なZ方向の視点位置の補正を追加することも可能である。
例えば、頭頂部マーカー110Tの2次元座標(wposT,hposT)、左側頭部マーカー110Lの2次元座標(wposL,hposL)、右側頭部マーカー110Rの2次元座標(wposR,hposR)から、点(wposL,hposL)と点(wposR,hposR)を結ぶ直線を求め、この直線と頭頂部マーカー110Tの2次元座標(wposT,hposT)との距離の変化を検出し、近似的に頭頂部マーカー110Tとスクリーンとの距離dを補正することが可能である。
このように、頭頂部マーカー110T、左側頭部マーカー110Lおよび右側頭部マーカー110Rのそれぞれの正確な奥行き方向の座標値を求めることなく、奥行き方向の補正を行うことも可能である。
以下、図16A〜図16Cを参照しながら、立体視されたオブジェクトが静止して見えるようにヘアバンド100の頭頂部マーカー110Tの位置を調整することでキャリブレーションが可能であることを人間の立体視モデルを用いて説明する。
図16Aは、ユーザの頭部660の真上から見た場合の視錘台630L、630Rと3次元オブジェクト600とスクリーン610の位置関係を説明する図である。この図では、ユーザは頭部660をスクリーン610に対して真正面に向けている。ここで、符号640は、左目の視錘台630Lの原点640Lと右目の視錘台630Rの原点640Rの中点を示す。符号650は、頭部660の回転軸を示す。
ユーザは3次元オブジェクト600上の点Aの位置(Ax,Az)を左右の視錘台630L、630Rの原点640L、640Rから見る。ユーザは、3次元オブジェクト600の点Aが左目の視錘台630Lの真正面方向に対して角度θ1の方向、右目の視錘台630Rの真正面方向に対して角度θ2の方向にあるものとして、3次元空間における点Aの位置を推定すると考えられる。
図16Bは、ユーザが頭部660を回した場合の新しい視錘台630L’、630R’を説明する図である。ユーザは回転軸650を中心として頭部660を回転角Φだけ回した状態で眼球を動かして3次元オブジェクト600の点Aを見る。
ユーザは点Aの位置を左右の視錘台630L’、630R’の原点640L’、640R’から見ており、点Aは左目の視錘台630L’の真正面方向に対して角度θ1’の方向、右目の視錘台630R’の真正面方向に対して角度θ2’の方向にある。θ1’>θ1、θ2’<θ2であることから、点Aは頭部660の回転方向とは逆方向に移動することになるが、このとき、人間は点Aがあくまでも静止していると認識するため、視線角度θ1’,θ2’に対して認知的に角度補正を行っていると考えられる。
ここで、人間には直接的に眼球の位置を知るセンサーはないと考えられるため、人間は、自分の首の回転から仮想的な左右二つの視錘台の原点の位置の移動を推測し、その位置から見るための角度補正を新しい視線角度θ1’,θ2’に対して行い、点Aが静止していると認識すると考えられる。この人間の認知処理のゆえに、二つの視錘台の原点の中点の真上にヘアバンド100の頭頂部マーカー110Tが来るように装着すると、視錘台の原点位置の補正処理が正確に行われ、ユーザが頭部660を回転させても点Aが静止して見えると考えられる。
この図から容易にわかるように、頭頂部マーカー110Tが二つの視錘台の原点の中点の真上よりも前方に位置するようにヘアバンド100を装着すると、頭部660の回転に伴い点Aは回転方向と逆方向に移動するように見え、頭頂部マーカー110Tが二つの視錘台の原点の中点の真上よりも後方、すなわち頭部660の回転中心650に近くに位置するようにヘアバンド100を装着すると、頭部660の回転に伴い点Aは回転方向と同方向に移動するように見える。したがって、頭部660を回転しても点Aが静止して見えるようにヘアバンド100の装着位置を調整すると、頭頂部マーカー110Tは二つの視錘台の原点の中点のちょうど真上に来るようになる。
ただし、本手法ではZ方向の視点位置の補正を行わないため、頭部660を回転させた場合でも、Z方向を考慮しないで、図16Cのように視錘台の原点が並進移動したものとして近似して扱うことになる。
図16Cは、ユーザが頭部660を回した場合の近似的な視錘台630L’’、630R’’を説明する図である。
ユーザは点Aの位置を左右の視錘台630L’’、630R’’の原点640L’’、640R’’から見ており、点Aは左目の視錘台630L’’の真正面方向に対して角度θ1’’の方向、右目の視錘台630R’’の真正面方向に対して角度θ2’’の方向にある。この近似の結果、θ1”>θ1’、θ2”<θ2’となり、点Aは静止位置よりやや右に動いて見えると予想されるが、人間の目の焦点位置は眼球よりも奥の位置にあり、本手法では、頭頂部マーカー110は頭部660の回転中心650に比較的近い位置に装着されることになり、この近似による計算誤差はほぼキャンセルされる。結果的に、ヘアバンド100の頭頂部マーカー110Tの位置を個人で調整することにより、立体画像が静止して見えるような表示系を構成することが可能になる。
次に、図17A〜図17Cを参照しながら、本実施の形態のキャリブレーションの妥当性を詳しく説明する。ここでは、3次元オブジェクト600の点Aが水平軸(X軸)の原点上にある場合に本手法の妥当性を計算式により示す。
図17Aは、頭部660を正面に向けている場合の視線角度を示す図である。ユーザは点Aの位置を左右の視錘台の原点640L、640Rから見ており、点Aは左目の視線角度θ1の方向、右目の視線角度θ2(=θ1)の方向にある。
左右の視錘台の間隔をEw、頭部660の回転がないときの視錘台の原点の中点640から点AまでのZ軸方向の距離をd、視錘台の原点の中点640から頭部660の回転中心650までの距離をaとする。頭部の回転角Φ=0の場合の視線角度θ1、θ2は以下の式で表される。
tanθ1=tanθ2=Ew/2d
図17Bは、頭部660を回転角Φだけ回転した場合の視線角度を示す図である。ユーザは点Aの位置を左右の視錘台の原点640L’、640R’から見ており、点Aは左目の視線角度θ1’の方向、右目の視線角度θ2’の方向にある。回転角Φのときの視線角度θ1’、θ2’は次式で表される。
tanθ1’=(a・sinΦ+(Ew/2)・cosΦ)/(d+a・(1−cosΦ)+(Ew/2)・sinΦ)
tanθ2’=(−a・sinΦ+(Ew/2)・cosΦ)/(d−a・(1−cosΦ)−(Ew/2)・sinΦ)
図17Cは、頭部660の回転を並進移動で近似した場合の視線角度を示す図である。ユーザは点Aの位置を左右の視錘台の原点640L’’、640R’’から見ており、点Aは左目の視線角度θ1’’の方向、右目の視線角度θ2’’の方向にある。近似的に用いられる2つの視錘台の原点640L’’、640R’’の中点640’’から頭部660の回転中心650までの距離をa’とする。頭部の回転を並進移動で近似した場合の視線角度θ1’’、θ2’’は次式で表される。
tanθ1”=(a’・sinΦ+Ew/2)/d
tanθ2”=(−a’・sinΦ+Ew/2)/d
ここで回転角Φが0に近い場合、回転角Φのときの視線角度θ1’、θ2’の式および並進移動で近似した場合の視線角度θ1’’、θ2’’は以下のように簡略化される。
tanθ1’=(a・Φ+Ew/2)/(d+(Ew/2)・Φ)=(a・Φ+Ew/2−(Ew/2d)・Φ)/d
tanθ2’=(−a・Φ+Ew/2)/(d−(Ew/2)・Φ)=(−a・Φ+Ew/2+(Ew/2d)・Φ)/d
tanθ1”=(a’・Φ+Ew/2)/d
tanθ2”=(−a’・Φ+Ew/2)/d
ここでθ1’=θ1”の条件を加えると、a’=a−Ew/2dが得られ、このときθ2’=θ2”となる。θ1’=θ1”およびθ2’=θ2”の条件は回転と並進を区別しないことを意味する。
本手法では、マーカーのZ方向の位置の計測情報を全く使用しないが、対象物までの距離dに対応した距離a’=a−Ew/2dだけ頭の回転中心から離れた位置の真上にヘアバンド100の頭頂部マーカー110Tが来るようにヘアバンド100を装着することにより、3次元オブジェクトが頭の回転運動にたいして静止して見えるような表示系を実現することが可能になる。
対象物までの距離dが十分に大きい、すなわち対象物が十分遠くにある場合は、a’=aとなり、頭頂部マーカー110Tが二つの視錘台の原点の中点の真上に来るようにヘアバンド100を装着すれば対象物は静止して見える。
対象物までの距離dが小さい、すなわち対象物が近くにある場合は、二つの視錘台の原点の中点の位置よりEw/2dの分だけさらに後ろにヘアバンド100を装着するのが最適である。したがって、ヘアバンド100の装着位置を調整する際は、対象物までの距離dを平均的な値に設定して、キャリブレーション用の3次元オブジェクトを表示することが望ましい。ただし、この調整量Ew/2dは十分に小さいので、実用的には無視してよいことも多いであろう。
このようにヘアバンド100の装着位置が厳密には対象物までの距離dに依存した調整量を含むことになるのは、本手法ではZ方向のマーカーの位置を測定しないからである。本手法では、撮影画像上のマーカーの2次元座標のみを用いていることから、視点位置の補正アルゴリズムが簡単になり、また、計算に誤差が入り込まない。その一方で、ユーザが自分でヘアバンド100の装着位置を調整して対象物が静止して見える位置を見つけることで、対象物までの距離dに依存する調整量Ew/2dも含めてマーカーの位置を最適な位置に調整している。
上述のように、本実施の形態によれば、赤外線発光ダイオードなどのマーカーを頭部、特に頭頂部、左右の側頭部に取り付けたユーザを赤外線カメラなどで撮影し、撮影画像からこれらのマーカーの2次元座標を検出し、マーカーの2次元座標から視点位置をリアルタイムで補正して視差画像を生成する。これにより、立体視されるオブジェクトが動かなくなり、酔いなどの不快感を取り除くことができ、また、より正確な3次元形状の認識が可能である。特に、感覚的に重要な頭の垂直軸周りの回転と頭の左右の傾きに対して視点位置を補正することで、不自然なアーティファクトの発生を防ぎ、自然な立体映像を提示することができる。
検出すべきマーカーの個数が少なく、Z方向の座標値を用いないため、位置測定の誤差の影響を低減することができる。また、マーカーの2次元座標から視点位置を補正するため、少ない演算量で高速に視点位置を補正することができる。演算量が少ないことは結果的に補正処理にかかるレイテンシーを軽減させ、酔いを低減させる効果もある。
また、それぞれのマーカーのZ方向の座標値を必要としないため、計測に用いるカメラが一つで済むという利点もある。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。そのような変形例を説明する。
上記の実施の形態では、ディスプレイ300に表示された視差画像をユーザが立体視する場合について視点位置の補正方法を説明したが、同じ方法は、ユーザがヘッドマウントディスプレイを頭部に装着して立体映像を見る場合にも適用することができる。ユーザがヘッドマウントディスプレイを装着したまま頭部を動かしても、表示された3次元オブジェクトが動かないように見せたい場合に、本実施の形態で説明した視点位置の補正方法を用いて、更新された視点位置に応じて立体映像を出力するように構成することができる。
10 撮影部、 20 マーカー検出部、 30 視点位置補正部、 40 立体画像生成部、 50 3次元モデル記憶部、 60 表示部、 70 較正部、 72 頭頂部マーカー座標取得部、 74 左側頭部マーカー座標取得部、 76 右側頭部マーカー座標取得部、 78 並進移動計算部、 80 頭部傾き計算部、 82 並進補正量計算部、 84 シフト量計算部、 86 視点位置更新部、 100 マーカー付きヘアバンド、 110 マーカー、 200 ゲーム機、 210 立体画像生成装置、 300 ディスプレイ、 310 カメラ、 400 立体視用メガネ。

Claims (7)

  1. ユーザの頭部に装着された装身具の複数のマーカーの撮影画像をスキャンして前記複数のマーカーの撮影画像上の2次元座標を検出するマーカー検出部と、
    マーカーのZ方向の座標を用いることなく、検出された前記複数のマーカーの2次元座標を用いて、ユーザの視点位置を補正する視点位置補正部と、
    補正された視点位置から3次元オブジェクトを見た場合の視差画像を生成する立体画像生成部とを含むことを特徴とする画像生成装置。
  2. 前記複数のマーカーは、少なくともユーザの頭部の頭頂部に設けられたマーカーを含み、
    前記視点位置補正部は、
    頭頂部のマーカーの2次元座標にもとづいて視点位置の並進補正量を求める並進補正量計算部と、
    前記並進補正量にもとづいて視点位置を更新する視点位置更新部とを含むことを特徴とする請求項1に記載の画像生成装置。
  3. 前記複数のマーカーは、さらに左側頭部に設けられたマーカーと右側頭部に設けられたマーカーを含み、
    前記視点位置補正部は、
    左側頭部のマーカーの2次元座標および右側頭部のマーカーの2次元座標にもとづいて頭部の傾きを求める頭部傾き計算部と
    頭部の傾きにもとづいて視点位置のシフト量を求めるシフト量計算部とをさらに含み、
    前記並進補正量計算部は、頭頂部のマーカーの2次元座標および頭部の傾きにもとづいて視点位置の並進補正量を求め、
    前記視点位置更新部は、前記シフト量および前記並進補正量にもとづいて視点位置を更新することを特徴とする請求項2に記載の画像生成装置。
  4. 較正用3次元オブジェクトの視差画像を前記立体画像生成部に生成させ、頭部を動かしても立体視された較正用3次元オブジェクトが静止するように、ユーザの頭部に装着された装身具を前後させてマーカーの位置を調整するようユーザに促す較正部をさらに含むことを特徴とする請求項1から3のいずれかに記載の画像生成装置。
  5. ユーザの頭部に装着された装身具の複数のマーカーの撮影画像をスキャンして前記複数のマーカーの撮影画像上の2次元座標を検出するマーカー検出ステップと、
    マーカーのZ方向の座標を用いることなく、検出された前記複数のマーカーの2次元座標を用いて、ユーザの視点位置を補正する視点位置補正ステップと、
    補正された視点位置から較正用3次元オブジェクトを見た場合の視差画像を生成する立体画像生成ステップと、
    頭部を動かしても立体視された較正用3次元オブジェクトが静止するように、ユーザの頭部に装着された装身具を前後させてマーカーの位置を調整するようユーザに促す較正ステップとを含むことを特徴とする較正方法。
  6. ユーザの頭部に装着された装身具の複数のマーカーの撮影画像をスキャンして前記複数のマーカーの撮影画像上の2次元座標を検出するマーカー検出ステップと、
    マーカーのZ方向の座標を用いることなく、検出された前記複数のマーカーの2次元座標を用いて、ユーザの視点位置を補正する視点位置補正ステップと、
    補正された視点位置から3次元オブジェクトを見た場合の視差画像を生成する立体画像生成ステップとを含むことを特徴とする画像生成方法。
  7. ユーザの頭部に装着された装身具の複数のマーカーの撮影画像をスキャンして前記複数のマーカーの撮影画像上の2次元座標を検出するマーカー検出機能と、
    マーカーのZ方向の座標を用いることなく、検出された前記複数のマーカーの2次元座標を用いて、ユーザの視点位置を補正する視点位置補正機能と、
    補正された視点位置から3次元オブジェクトを見た場合の視差画像を生成する立体画像生成機能とをコンピュータに実現させることを特徴とするプログラム。
JP2014222569A 2014-10-31 2014-10-31 画像生成装置、画像生成方法および較正方法 Active JP6588196B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014222569A JP6588196B2 (ja) 2014-10-31 2014-10-31 画像生成装置、画像生成方法および較正方法
PCT/JP2015/074010 WO2016067729A1 (ja) 2014-10-31 2015-08-26 画像生成装置、画像生成方法および較正方法
US15/519,295 US10362297B2 (en) 2014-10-31 2015-08-26 Image generation apparatus, image generation method, and calibration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014222569A JP6588196B2 (ja) 2014-10-31 2014-10-31 画像生成装置、画像生成方法および較正方法

Publications (3)

Publication Number Publication Date
JP2016092512A true JP2016092512A (ja) 2016-05-23
JP2016092512A5 JP2016092512A5 (ja) 2017-09-07
JP6588196B2 JP6588196B2 (ja) 2019-10-09

Family

ID=55857075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014222569A Active JP6588196B2 (ja) 2014-10-31 2014-10-31 画像生成装置、画像生成方法および較正方法

Country Status (3)

Country Link
US (1) US10362297B2 (ja)
JP (1) JP6588196B2 (ja)
WO (1) WO2016067729A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018038679A (ja) * 2016-09-08 2018-03-15 富士ゼロックス株式会社 立位姿勢評価装置
WO2019026388A1 (ja) * 2017-08-01 2019-02-07 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
WO2019026184A1 (ja) * 2017-08-01 2019-02-07 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022124398A1 (ja) * 2020-12-10 2022-06-16 三菱電機株式会社 遠隔制御マニピュレータシステムおよび遠隔制御支援システム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000315259A (ja) * 1999-05-06 2000-11-14 Sharp Corp データベース作成装置及びデータベース作成プログラムを記録した記録媒体
JP2002300610A (ja) * 2001-03-29 2002-10-11 Sanyo Electric Co Ltd 立体映像表示装置
JP2007102343A (ja) * 2005-09-30 2007-04-19 Fujifilm Corp 関心度測定装置および方法並びに関心度算出プログラム
JP2007232753A (ja) * 2006-02-27 2007-09-13 Eyemetrics Japan Co Ltd 眼鏡仕様設定装置及び視野検出装置
JP2009267827A (ja) * 2008-04-25 2009-11-12 Yokogawa Denshikiki Co Ltd 被指揮者識別装置及び指揮支援システム
JP2012223363A (ja) * 2011-04-20 2012-11-15 Tokyo Institute Of Technology 手術用撮像システム及び手術用ロボット
JP2013120150A (ja) * 2011-12-08 2013-06-17 Samsung Yokohama Research Institute Co Ltd 人間位置検出システム及び人間位置検出方法
JP2014045474A (ja) * 2012-07-31 2014-03-13 Nlt Technologies Ltd 立体画像表示装置、画像処理装置及び立体画像処理方法
US20140184588A1 (en) * 2010-08-31 2014-07-03 Nintendo Co., Ltd. Eye tracking enabling 3d viewing on conventional 2d display

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0628452A (ja) * 1991-08-07 1994-02-04 Nec Home Electron Ltd 3次元画像処理装置
JP3443272B2 (ja) * 1996-05-10 2003-09-02 三洋電機株式会社 立体映像表示装置
WO2010140866A2 (ko) * 2009-06-05 2010-12-09 엘지전자 주식회사 영상표시장치 및 그 동작방법
CN101750747B (zh) * 2010-02-01 2013-04-24 刘武强 三维立体成像方法、***和成像设备
US20120050154A1 (en) * 2010-08-31 2012-03-01 Adil Jagmag Method and system for providing 3d user interface in 3d televisions
JP2012141502A (ja) 2011-01-05 2012-07-26 Nippon Seiki Co Ltd 視点位置検出装置、視点位置検出方法及び立体表示装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000315259A (ja) * 1999-05-06 2000-11-14 Sharp Corp データベース作成装置及びデータベース作成プログラムを記録した記録媒体
JP2002300610A (ja) * 2001-03-29 2002-10-11 Sanyo Electric Co Ltd 立体映像表示装置
JP2007102343A (ja) * 2005-09-30 2007-04-19 Fujifilm Corp 関心度測定装置および方法並びに関心度算出プログラム
JP2007232753A (ja) * 2006-02-27 2007-09-13 Eyemetrics Japan Co Ltd 眼鏡仕様設定装置及び視野検出装置
JP2009267827A (ja) * 2008-04-25 2009-11-12 Yokogawa Denshikiki Co Ltd 被指揮者識別装置及び指揮支援システム
US20140184588A1 (en) * 2010-08-31 2014-07-03 Nintendo Co., Ltd. Eye tracking enabling 3d viewing on conventional 2d display
JP2012223363A (ja) * 2011-04-20 2012-11-15 Tokyo Institute Of Technology 手術用撮像システム及び手術用ロボット
JP2013120150A (ja) * 2011-12-08 2013-06-17 Samsung Yokohama Research Institute Co Ltd 人間位置検出システム及び人間位置検出方法
JP2014045474A (ja) * 2012-07-31 2014-03-13 Nlt Technologies Ltd 立体画像表示装置、画像処理装置及び立体画像処理方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018038679A (ja) * 2016-09-08 2018-03-15 富士ゼロックス株式会社 立位姿勢評価装置
WO2019026388A1 (ja) * 2017-08-01 2019-02-07 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
WO2019026183A1 (ja) * 2017-08-01 2019-02-07 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
WO2019026184A1 (ja) * 2017-08-01 2019-02-07 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JPWO2019026184A1 (ja) * 2017-08-01 2020-03-26 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
US10999567B2 (en) 2017-08-01 2021-05-04 Sony Interactive Entertainment Inc. Image generating apparatus and image generating method
US11050993B2 (en) 2017-08-01 2021-06-29 Sony Interactive Entertainment Inc. Image generating apparatus and image generating method

Also Published As

Publication number Publication date
JP6588196B2 (ja) 2019-10-09
WO2016067729A1 (ja) 2016-05-06
US10362297B2 (en) 2019-07-23
US20170230644A1 (en) 2017-08-10

Similar Documents

Publication Publication Date Title
JP6972105B2 (ja) 固定距離の仮想現実システムおよび拡張現実システムならびに方法
JP6732617B2 (ja) 情報処理装置および画像生成方法
US11455032B2 (en) Immersive displays
WO2015068656A1 (ja) 画像生成装置および画像生成方法
US20130169529A1 (en) Adjusting an optical guide of a three-dimensional display to reduce pseudo-stereoscopic effect
KR20160094190A (ko) 시선 추적 장치 및 방법
JP6588196B2 (ja) 画像生成装置、画像生成方法および較正方法
JP6975309B2 (ja) 画像処理装置および画像処理方法
JP7148634B2 (ja) ヘッドマウントディスプレイ装置
JP2005312605A (ja) 注視点位置表示装置
JP6446465B2 (ja) 入出力装置、入出力プログラム、および入出力方法
US20190028690A1 (en) Detection system
JP2012244466A (ja) 立体画像処理装置
JPWO2017191703A1 (ja) 画像処理装置
WO2012169221A1 (ja) 立体画像表示装置および立体画像表示方法
US20230403386A1 (en) Image display within a three-dimensional environment
KR20160116145A (ko) 투과형 홀로그램을 이용한 hmd
CN116941239A (zh) 三维环境内的图像显示

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170727

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190912

R150 Certificate of patent or registration of utility model

Ref document number: 6588196

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150