JP2024013947A - 撮像装置、撮像装置の撮像方法およびプログラム - Google Patents
撮像装置、撮像装置の撮像方法およびプログラム Download PDFInfo
- Publication number
- JP2024013947A JP2024013947A JP2022116420A JP2022116420A JP2024013947A JP 2024013947 A JP2024013947 A JP 2024013947A JP 2022116420 A JP2022116420 A JP 2022116420A JP 2022116420 A JP2022116420 A JP 2022116420A JP 2024013947 A JP2024013947 A JP 2024013947A
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- eyeball image
- sight detection
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 117
- 238000001514 detection method Methods 0.000 claims abstract description 327
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 146
- 210000001508 eye Anatomy 0.000 claims description 56
- 238000012545 processing Methods 0.000 claims description 39
- 238000000034 method Methods 0.000 claims description 24
- 230000003111 delayed effect Effects 0.000 claims description 4
- 238000003672 processing method Methods 0.000 claims description 2
- 239000002131 composite material Substances 0.000 description 14
- 238000005286 illumination Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 4
- 230000004397 blinking Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】視線検出の周期を向上させることができるようにする。【解決手段】撮像装置は、第1の周期で、第1の眼球画像を撮像し、前記第1の眼球画像を基に第1の視線を検出する第1の視線検出手段と、前記第1の周期で、第2の眼球画像を撮像し、前記第2の眼球画像を基に第2の視線を検出する第2の視線検出手段とを有し、前記第1の眼球画像の撮像開始タイミングと前記第2の眼球画像の撮像開始タイミングは、相互に異なる。【選択図】図4
Description
本開示は、撮像装置、撮像装置の撮像方法およびプログラムに関する。
現実空間と仮想空間をリアルタイムかつシームレスに融合させる技術として、XR(X RealityまたはExtended Reality)と呼ばれる技術の1つである複合現実感、いわゆるMR(Mixed Reality)技術がある。ビデオシースルー型HMD(Head Mounted Display)を利用したMRシステムでは、HMD内蔵の撮像ユニットによって取得された現実空間画像にCG(Computer Graphics)画像を重畳した合成画像をHMD装着者が観察する。これらの画像は、左右の眼に対応してそれぞれ独立しており、ステレオ動画像による立体的なMR空間をHMD装着者に提示できる。上記技術に加えて、HMD内蔵ユニットとしてHMD装着者の眼球画像を取得し、視線方向を検出し、HMD装着者の視線に適したCG画像を生成することにより、ユーザにとってより違和感のないMR空間提供が可能となる。近年、さらなる高品質なMR空間実現のため、HMD装着者に提示する合成画像のフレームレートを向上させ、向上させたフレームレートに対応する視線方向検出結果の取得性能向上が求められている。
上記技術実現のため、いくつかの技術が知られている。例えば、特許文献1には、作業用表示画面を見ているユーザの視線位置検知時、左目と右目の視線位置をそれぞれ一旦検出し、検出した視線位置結果を組み合わせ、合成することで視線検出精度を向上させる方法が開示されている。また、特許文献2には、左目と右目の瞬き検出を行い、どちらか一方の目が瞬きを行い、他方が瞬きしていないと判断される場合、装置の入力動作を実行するための確定信号として利用する方法が開示されている。
しかしながら、さらなる高品質なMR空間実現のためには、視線検出精度だけではなく、視線方向検出結果を高速に取得し、視線方向検出結果の読み出し周期の高速化も求められる。特許文献1には、複数の視線検出手段を用いて、視線検出精度を向上させる手法については述べられているが、視線方向検出結果の読み出し周期向上については触れられておらず、課題解決には至らなかった。特許文献2においても、複数の視線検出手段を用いて目の変化を捉える技術は開示されているが、視線方向検出結果の読み出し周期向上については触れられておらず、また同様に課題解決には至らなかった。
一方、視線方向検出結果の読み出し周期向上のため、高フレーム対応撮像素子を実装し、デバイス間のデータ転送帯域向上のために通信バス幅を増やす対応では、コストアップが必要である。
本開示の目的は、視線検出の周期を向上させることができるようにすることである。
撮像装置は、第1の周期で、第1の眼球画像を撮像し、前記第1の眼球画像を基に第1の視線を検出する第1の視線検出手段と、前記第1の周期で、第2の眼球画像を撮像し、前記第2の眼球画像を基に第2の視線を検出する第2の視線検出手段とを有し、前記第1の眼球画像の撮像開始タイミングと前記第2の眼球画像の撮像開始タイミングは、相互に異なる。
本開示によれば、視線検出の周期を向上させることができる。
以下、図面を用いて、実施形態について説明する。なお、以下の実施形態は、特許請求の範囲を何ら限定するものではなく、実施形態で説明されている特徴の組合せの全てが必須のものとは限らない。
(第1の実施形態)
図1(a)および(b)は、第1の実施形態による撮像表示システム1の構成例を示す図である。図1(a)は撮像表示システム1の構成例を示すブロック図であり、図1(b)は撮像表示システム1の外観および装着例を示す図である。撮像表示システム1は、頭部装着型の撮像表示装置(以下、HMD)10と、画像処理装置(PCWS:PC WorkStation、PCワークステーション)30と、ケーブル20を有する。画像処理装置30は、現実空間と仮想空間が融合した複合現実(MR)空間の画像(以下、合成画像)を生成してHMD10に提供する。ケーブル20は、HMD10と画像処理装置30を接続する。なお、ケーブル20は、有線接続の通信経路に限定されず、無線接続の通信経路を用いてもよい。
図1(a)および(b)は、第1の実施形態による撮像表示システム1の構成例を示す図である。図1(a)は撮像表示システム1の構成例を示すブロック図であり、図1(b)は撮像表示システム1の外観および装着例を示す図である。撮像表示システム1は、頭部装着型の撮像表示装置(以下、HMD)10と、画像処理装置(PCWS:PC WorkStation、PCワークステーション)30と、ケーブル20を有する。画像処理装置30は、現実空間と仮想空間が融合した複合現実(MR)空間の画像(以下、合成画像)を生成してHMD10に提供する。ケーブル20は、HMD10と画像処理装置30を接続する。なお、ケーブル20は、有線接続の通信経路に限定されず、無線接続の通信経路を用いてもよい。
HMD10の構成について説明する。HMD10は、撮像装置であり、制御部100と、左目用の表示素子110aと、右目用の表示素子110bと、位置姿勢センサ120と、左目用の背景用画像撮像素子130aと、右目用の背景用画像撮像素子130bを有する。さらに、HMD10は、遅延部132a,132bと、左目用の位置検出用画像撮像素子140aと、右目用の位置検出用画像撮像素子140bと、左目用の視線検出部150aと、右目用の視線検出部150bを有する。
撮像素子130a,130b,140a,140bは、CMOS(Complementary Metal Oxide Semidonductor)イメージセンサやCCD(Charge Coupled Device)イメージセンサなどが用いられる。撮像素子130a,130b,140a,140bは、制御部100からの制御信号に基づいて、設定された露光時間やセンサゲイン、露光開始タイミング等に従って、光学系を介して現実空間の撮像画像を取得する。
表示素子110aおよび110bは、OLED(Organic Light-Emitting Diode)やLCD(Liquid Crystal Display)などが用いられる。表示素子110aおよび110bは、光学系を介してHMD10の装着者(ユーザ)に対して合成画像を提示する。
撮像表示システム1は、右目用画像と左目用画像とを用いた立体画像を扱う。そのため、HMD10は、左目用の背景用画像撮像素子130aと、右目用の背景用画像撮像素子130bと、左目用の位置検出用画像撮像素子140aと、右目用の位置検出用画像撮像素子140bを有する。さらに、HMD10は、左目用の表示素子110aと、右目用の表示素子110bと、と、左目用の視線検出部150aと、右目用の視線検出部150bを有する。
背景用画像撮像素子130aおよび130bは、合成画像のベースとなる背景用画像を撮像する。位置検出用画像撮像素子140aおよび140bは、CG(Computer Graphics)画像を生成するための位置検出用画像を撮像する。背景用画像と位置検出用画像は、相互に、必要とされる画角や解像度、画像処理などが異なるため、別々の背景用画像撮像素子130a,130bと位置検出用画像撮像素子140a,140bが用いられる。なお、背景用画像撮像素子と位置検出用画像撮像素子は、同じ撮像素子を用いて、撮像画像から切り出しを行うことにより、背景用画像と位置検出用画像を生成してもよい。
位置姿勢センサ120は、HMD10の位置姿勢情報を検出する。遅延部132aおよび132bは、それぞれ、制御部100から入力された表示垂直同期信号を遅延することにより視線検出開始信号を生成し、視線検出開始信号を視線検出部150aおよび150bに出力する。左目用の視線検出部150aは、視線検出開始信号を基に、HMD10の装着者の左目の視線検出を実行し、その検出結果を制御部100に出力する。右目用の視線検出部150bは、視線検出開始信号を基に、HMD10の装着者の右目の視線検出を実行し、その検出結果を制御部100に出力する。
制御部100は、撮像画像や表示画像に必要な画像処理を施すと共に、上記の全ての構成要素を制御し、画像処理装置30と協調動作する。立体画像の撮像および表示に関する技術については、公知であるため、説明を省略する。
画像処理装置30は、位置検出部300と、CG生成部310と、合成部320を有する。位置検出部300は、HMD10から伝送された位置検出用画像と、HMD10の位置姿勢情報と、視線検出部150aおよび150bの視線検出結果である表示素子110aおよび110bにおける表示位置を受信する。位置検出部300は、これらの受信した情報を基に、装着者に提示する仮想空間のCG画像の生成に必要となる、位置、サイズ、向きなどの情報を出力する。
CG生成部310は、位置検出部300の出力に従って、所定の左目用CG画像と右目用CG画像を生成する。CG画像は、画像処理装置30内のHDD(Hard Disc Drive)等に格納されたCADデータを基にレンダリングされる。
合成部320は、HMD10から伝送された背景用画像にCG画像を重畳することで、合成画像を生成し、合成画像を表示用画像としてHMD10に対して出力する。
次に、遅延部132aおよび132bについて説明する。遅延部132aおよび132bは、合成部320から、制御部100を経由して、合成画像フレーム毎にフレーム先頭を示す表示垂直同期信号を受信する。表示垂直同期信号は、遅延部132aおよび132bに入力される。遅延部132aおよび132bは、それぞれ、制御部100により予め設定されていた遅延量で、表示垂直同期信号を遅延することにより、視線検出開始信号を生成し、視線検出開始信号を視線検出部150aおよび150bに出力する。
図2は、図1の視線検出部150aの構成例を示す図である。視線検出部150aは、遅延部132aから視線検出開始信号を入力し、視線検出を実行し、その検出結果を制御部100に出力する。
視線検出部150aの各部について説明する。視線検出部150aは、視線検出用CPU3と、メモリ部4と、A/D変換回路201と、照明光源駆動回路205と、眼球用撮像素子17と、照明光源13a~13fを有する。視線検出用CPU3は、マイクロコンピュータの中央処理装置である。視線検出用CPU3には、A/D変換回路201と、照明光源駆動回路205と、メモリ部4が接続されている。
眼球用撮像素子17は、HMD10の装着者の左目の眼球画像を撮像する。A/D変換回路201は、眼球用撮像素子17により撮像された眼球画像をA/D変換し、デジタルの眼球画像を視線検出用CPU3に出力する。視線検出用CPU3は、眼球画像をメモリ部4に書き込む。
視線検出用CPU3は、遅延部132aから視線検出開始信号を入力すると、A/D変換回路201と照明光源駆動回路205を制御して視線検出処理を開始する。視線検出用CPU3は、A/D変換回路201から眼球画像を取得し、視線検出に必要な眼球画像の各特徴点を所定のアルゴリズムに従って抽出し、更に各特徴点の位置から装着者の左目の視線を算出する。視線は、表示素子110aに表示されている合成画像の座標値として算出される。視線検出用CPU3は、算出した視線検出結果である視線の座標値を、制御部100に送信する。
照明光源13a~13fは、一眼レフカメラ等に用いられている光源の角膜反射による反射象と瞳孔の関係から視線方向を検出するための装着者の眼球を照明するための光源である。照明光源13a~13fは、赤外発光ダイオードからなり、眼球用撮像素子17に接続されたレンズユニットの周りに配置されている。
照明された眼球像と照明光源13a~13fの角膜反射による像は、このレンズユニットにより、CMOS等の光電素子列を2次元的に配した眼球用撮像素子17上に結像される。このレンズユニットは、装着者の眼球の瞳孔と眼球用撮像素子17を共役な結像関係に位置付けている。
視線検出用CPU3は、眼球用撮像素子17上に結像された眼球と照明光源13a~13fの角膜反射による像の位置関係から、所定のアルゴリズムを使用して、視線を検出する。つまり、視線検出用CPU3は、視線検出アルゴリズムとして、眼球に照明光源13a~13fを照射し、眼球用撮像素子17にて撮影を行って得られる眼球画像に対して、眼球画像の中から照明光源13a~13fの角膜反射像および瞳孔中心を検出する。視線検出用CPU3は、角膜反射像および瞳孔中心から眼球の回転角を算出し、回転角から装着者の視線を求める。
視線検出部150bは、視線検出部150aと同じ機能を持ち、内部構成も同様である。視線検出部150bは、装着者の右目の視線を検出する。視線は、表示素子110bに表示されている合成画像の座標値として算出される。
図3は、HMD10の撮像方法を示すフローチャートである。複数の視線検出部150aおよび150bを使用し、かつ、複数の視線検出部150aおよび150bへの視線検出開始信号を最適に制御することにより、視線検出結果の読み出し周期を疑似的に向上させる方法について、説明する。
まず、ステップS101では、電源ボタンが押されると、撮像表示システム1の各部が通電する。
次に、ステップS102では、制御部100は、遅延部132aおよび132bの初期の遅延量をそれぞれ設定する。遅延部132aの遅延量と遅延部132bの遅延量は、相互に異なる量に設定可能である。
次に、ステップS103では、制御部100は、画像処理装置30の合成部320から、合成画像フレーム毎にフレーム先頭を示す表示垂直同期信号を受信したか否かを判定する。制御部100は、表示垂直同期信号を受信していない場合には、ステップS103に戻り、表示垂直同期信号を受信した場合には、ステップS104に進む。
ステップS104では、制御部100は、遅延部132aおよび132bに表示垂直同期信号を出力する。遅延部132aおよび132bは、それぞれ、表示垂直同期信号を入力後、ステップS102で設定された遅延量の時間経過後に、視線検出部150aおよび150bのそれぞれに視線検出開始信号を出力する。
次に、ステップS105では、視線検出部150aは、視線検出開始信号を受信すると、装着者の左目の視線検出処理を実行し、装着者の左目の視線を検出する。視線検出部150bは、視線検出開始信号を受信すると、装着者の右目の視線検出処理を実行し、装着者の右目の視線を検出する。
次に、ステップS106では、視線検出部150aは、装着者の左目の視線検出結果を制御部100に出力し、視線検出部150bは、装着者の右目の視線検出結果を制御部100に出力する。その後、処理は、ステップS103に戻る。
図4は、HMD10の制御動作例を示すタイムチャートであり、各部に対する制御信号の関係を示す。図4の左は、合成部320が制御部100を介して遅延部132aおよび132bに表示垂直同期信号を送信するタイミングを示す。図4の右は、視線検出部150aおよび150bが視線検出結果を制御部100に出力するタイミングを示す。
制御部100は、フレーム周期Tにて、合成部320から表示垂直同期信号115を受信する。すると、制御部100は、遅延部132aおよび132bに対して、それぞれ、表示垂直同期信号115aおよび表示垂直同期信号115bを出力する。ここで、表示垂直同期信号115aおよび115bの相互の遅延はないとする。
例えば、合成画像フレーム毎にフレーム先頭を示す表示垂直同期信号115がフレームレート60[Hz]である。その場合、その逆数となる約16.67[ms]がフレーム周期Tとなり、16.67[ms]の周期にて、遅延部132aおよび132bに表示垂直同期信号115aおよび115bが入力される。
次に、遅延部132aは、表示垂直同期信号115aを入力した後、制御部100が設定した遅延量D1に対応する時間経過後に、視線検出部150aに視線検出開始信号135を出力する。遅延部132bは、表示垂直同期信号115bを入力した後、制御部100が設定した遅延量D2に対応する時間経過後に、視線検出部150bに視線検出開始信号145を出力する。
ここで、制御部100は、次式により、フレーム周期Tと遅延量D1を基に、遅延量D2を設定することができる。
D2=(T-D1)/2
D2=(T-D1)/2
これにより、視線検出部150aおよび150bの両者は、T/2の周期にて、視線検出を開始することができる。すなわち、制御部100は、T/2の周期にて、視線検出部150aおよび150bから視線検出結果147および148を入力することができる。
例えば、遅延量D1が1[ms]に設定されている場合、上記の式より、遅延量D2は、次式のように、9.3[ms]に設定される。
D2=(16.67-1)/2=9.3[ms]
D2=(16.67-1)/2=9.3[ms]
これにより、制御部100へ表示垂直同期信号115が入力された後、D1=1[ms]後に、視線検出部150aは、視線検出を開始する。同様に、制御部100へ表示垂直同期信号115が入力された後、D2=9.3[ms]後に、視線検出部150bは、視線検出を開始する。
視線検出部150aは、視線検出開始信号135を入力すると、左目の視線検出処理を開始し、視線検出処理時間136の経過後に、左目の視線検出結果147を制御部100に出力する。視線検出処理時間136は、視線検出部150aが視線検出開始信号135を入力してから視線検出結果147を出力するまでの時間である。視線検出処理は、眼球用撮像素子17における露光と、眼球用撮像素子17の露光結果の読み出しと、眼球画像を使った視線検出処理を含む。
視線検出部150bは、視線検出開始信号145を入力すると、右目の視線検出処理を開始し、視線検出処理時間146の経過後に、右目の視線検出結果148を制御部100に出力する。視線検出処理時間146は、視線検出部150bが視線検出開始信号145を入力してから視線検出結果148を出力するまでの時間である。視線検出処理は、眼球用撮像素子17における露光と、眼球用撮像素子17の露光結果の読み出しと、眼球画像を使った視線検出処理を含む。
視線検出部150aおよび150bの内部構成は相互に同一のため、視線検出処理時間136および146は相互に同じ時間となる。
最後に、制御部100は、視線検出部150aおよび150bから、視線検出結果147および148を、T/2の周期、つまり8.3[ms]の周期で受信することができる。つまり、制御部100は、8.3[ms]の周期で、視線検出部150aから視線検出結果147を入力し、視線検出部150bから視線検出結果148を入力する。よって、制御部100は、8.3[ms]の周期にて、視線検出結果147および148を入力するので、視線検出結果147および148の読み出し周期の向上を実現できる。
以上説明したように、HMD10は、複数の視線検出部150aおよび150bを備え、かつ、複数の視線検出部150aおよび150bへの視線検出開始信号135および145を最適に制御する。これにより、HMD10は、視線検出結果147および148の読み出し周期を疑似的に向上させることが可能である。
なお、本実施形態では、上記説明した通り、HMD10は、複数の視線検出部150aおよび150bを同期させたが、これによって何ら限定されるものではない。HMD10は、背景用画像撮像素子130a,130bと、位置検出用画像撮像素子140a,140bと、表示素子110a,110bと、位置姿勢センサ120の何れかがない場合にも、適用可能である。また、各種パラメータも、撮像表示システム1の構成およびHMD10の使用目的に応じて適宜設計可能である。
また、合成部320から受信する表示垂直同期信号は、背景用画像撮像素子130a,130bと、表示素子110a,110bに同期しているとしたが、非同期であってもよい。その場合でも、本実施形態のHMD10は、視線検出結果147および148の読み出し周期の向上させるための上記の処理を同様に適用することができる。
左目用の背景用画像撮像素子130a、表示素子110a、位置検出用画像撮像素子140aに対して、右目用の背景用画像撮像素子130b、表示素子110b、位置検出用画像撮像素子140bをあわせて遅延させるようにしてもよい。
HMD10は、ハーフミラーを眼前に配置し、画像処理装置30のCG生成部310からCG画像のみを受信し、このCG画像と装着者が直接観測する現実空間とをハーフミラー越しに重ね合わせて複合現実を提示する、シースルータイプと呼ばれるMR技術がある。このシースルータイプのMR技術においても、HMD10は、合成部320から取得していた表示垂直同期信号を、制御部100の動作クロックを使用して新たに生成し、代替信号として使用すれば、本実施形態の上記の処理を行うことができる。その場合でも、HMD10は、視線検出結果147および148の読み出し周期の向上を実現することができる。この場合、表示素子110a,110bおよび背景用画像撮像素子130a,130bは不要となる。
以上のように、視線検出部150aは、周期Tで、第1の眼球画像を撮像し、第1の眼球画像を基に第1の視線を検出する。視線検出部150bは、周期Tで、第2の眼球画像を撮像し、第2の眼球画像を基に第2の視線を検出する。例えば、第1の眼球画像は、左目の眼球画像であり、第2の眼球画像は、右目の眼球画像である。第1の眼球画像の撮像開始タイミングと第2の眼球画像の撮像開始タイミングは、相互に異なる。
視線検出部150aは、視線検出結果147を出力する。視線検出部150bは、視線検出結果148を出力する。視線検出結果147の出力タイミングと視線検出結果148の出力タイミングは、相互に異なる。視線検出結果148の出力タイミングは、視線検出結果147の出力タイミングに対して、周期Tの半分の時間だけずれている。
視線検出部150aは、視線検出開始信号135を基に処理を開始する。視線検出部150bは、視線検出開始信号145を基に処理を開始する。視線検出開始信号135の入力タイミングと視線検出開始信号145の入力タイミングは、相互に異なる。視線検出開始信号145の入力タイミングは、視線検出開始信号135の入力タイミングに対して、周期Tの半分の時間だけずれている。
遅延部132bは、視線検出開始信号135に対して遅延している視線検出開始信号145を生成する。遅延部132aは、表示垂直同期信号115aを遅延量D1で遅延することより視線検出開始信号135を生成する。遅延部132bは、表示垂直同期信号115bを遅延量D2で遅延することにより視線検出開始信号145を生成する。
表示素子110aは、表示部であり、視線検出結果147に応じた画像を表示する。表示素子110bは、表示部であり、視線検出結果148に応じた画像を表示する。
以上、本実施形態によれば、HMD10は、コストアップとなる高フレーム対応の撮像素子を使用せず、デバイス間のデータ転送帯域向上のために通信バス幅を増やすことなく、視線検出結果147および148の読み出し周期を向上させることができる。HMD10は、複数の視線検出部150aおよび150bへの視線検出開始信号135および145のタイミングを適切に制御することにより、視線検出結果147および148の読み出し周期を疑似的に向上させることができる。これにより、HMD10は、視線検出結果147および148の読み出し周期を向上させ、高品質な視線検出を実現することができる。HMD10は、合成画像が高速に動いても、高速に視線検出の追従が可能になる。
(第2の実施形態)
次に、第2の実施形態について説明する。装着者が注視する対象物までの距離を測る技術として、眼球用撮像素子17の焦点位置を原点とし、左目の視線検出表示座標点、右目の視線検出表示座標点、眼球用撮像素子17の焦点距離を組み合わせて、三角関数を用いて輻輳角を算出する技術がある。装着者が注視する対象物までの距離が遠方であるほど、この輻輳角が小さくなり、対象物までの位置情報として利用できる。この場合、眼球用撮像素子17から得られる画像は、左右の視線検出部150aおよび150bで同じタイミングの画像である必要がある。よって、装着者が注視する対象物までの距離を測る場合は、制御部100は、視線検出部150aおよび150bの眼球用撮像素子17から得られる画像を同期して取得するように、各部を制御する必要がある。
次に、第2の実施形態について説明する。装着者が注視する対象物までの距離を測る技術として、眼球用撮像素子17の焦点位置を原点とし、左目の視線検出表示座標点、右目の視線検出表示座標点、眼球用撮像素子17の焦点距離を組み合わせて、三角関数を用いて輻輳角を算出する技術がある。装着者が注視する対象物までの距離が遠方であるほど、この輻輳角が小さくなり、対象物までの位置情報として利用できる。この場合、眼球用撮像素子17から得られる画像は、左右の視線検出部150aおよび150bで同じタイミングの画像である必要がある。よって、装着者が注視する対象物までの距離を測る場合は、制御部100は、視線検出部150aおよび150bの眼球用撮像素子17から得られる画像を同期して取得するように、各部を制御する必要がある。
第2の実施形態による撮像表示システム1の構成は、図1および図2の第1の実施形態による撮像表示システム1の構成と同じである。また、第2の実施形態による撮像表示システム1の処理は、図3の第1の実施形態による撮像表示システム1の処理と同じである。
図5は、第2の実施形態によるHMD10の制御動作例を示すタイムチャートであり、同期した視線検出部150aおよび150bの眼球用撮像素子17から得られる画像を取得するタイミングを示す。以下、図5が図4と異なる点を説明する。
制御部100は、フレーム周期Tにて、合成部320から表示垂直同期信号115を受信する。すると、制御部100は、遅延部132aおよび132bに対して、それぞれ、表示垂直同期信号115aおよび表示垂直同期信号115bを出力する。ここで、表示垂直同期信号115aおよび115bの相互の遅延はないとする。
次に、遅延部132aは、表示垂直同期信号115aを入力した後、制御部100が設定した遅延量D1に対応する時間経過後に、視線検出部150aに視線検出開始信号135を出力する。遅延部132bは、表示垂直同期信号115bを入力した後、制御部100が設定した遅延量D2に対応する時間経過後に、視線検出部150bに視線検出開始信号145を出力する。遅延量D1およびD2は、相互に同じである。すなわち、視線検出開始信号135および145の出力タイミングは、相互に同じである。
視線検出部150aは、視線検出開始信号135を入力すると、左目の視線検出処理を開始し、視線検出処理時間136の経過後に、左目の視線検出結果147を制御部100に出力する。視線検出処理時間136は、視線検出部150aが視線検出開始信号135を入力してから視線検出結果147を出力するまでの時間である。
視線検出部150bは、視線検出開始信号145を入力すると、右目の視線検出処理を開始し、視線検出処理時間146の経過後に、右目の視線検出結果148を制御部100に出力する。視線検出処理時間146は、視線検出部150bが視線検出開始信号145を入力してから視線検出結果148を出力するまでの時間である。
視線検出処理時間136および146は、相互に同じ時間となる。視線検出部150aからの視線検出結果147と、視線検出部150bからの視線検出結果148は、制御部100に同時に入力される。視線検出結果147および148が同時に入力されることで、制御部100は、装着者が注視する対象物までの距離を測ることが可能となる。
視線検出部150aおよび150bの両者は、Tの周期にて、視線検出を開始することができる。また、制御部100は、Tの周期にて、視線検出部150aおよび150bから視線検出結果147および148を入力することができる。
以上のように、視線検出部150aからの視線検出結果147と、視線検出部150bからの視線検出結果148とが制御部100に同時に入力するためには、遅延部132aおよび132bは、同時に視線検出開始信号135および145を出力すればよい。これを実現するため、遅延部132aおよび132bに設定する遅延量D1およびD2を同じ値に設定すればよい。制御部100は、表示垂直同期信号115を入力すると、遅延部132aおよび132bに表示垂直同期信号115aおよび115bを送信することで、装着者が注視する対象物までの距離を測定することができる。
同様に、制御部100が左目と右目の瞳孔間の距離である眼幅測定を行う場合には、遅延部132aおよび132bに同じ遅延量D1およびD2を設定すればよい。制御部100は、視線検出部150aおよび150bの眼球用撮像素子17から得られる左右の画像を同期して取得し、眼幅測定を行うことができる。
同様に、制御部100が標準パターンを表示し、装着者の視線キャリブレーションを行う場合には、遅延部132aおよび132bに同じ遅延量D1およびD2を設定すればよい。制御部100は、視線検出部150aおよび150bの眼球用撮像素子17から得られる左右の画像を同期して取得し、標準パターンを表示し、装着者の視線キャリブレーションを行うことができる。
一方、装着者が注視する対象物までの距離が離れ、距離算出の優先度が低くなった場合、制御部100がこれを検知し、視線検出結果の読み出し周期向上のため、遅延部132aおよび132bに設定する遅延量D1およびD2を異ならせることができる。これにより、制御部100は、動的に視線検出部150aおよび150bの動きを変更させることも可能である。例えば、メニュー操作用GUIを表示した瞬間、制御部100がこれを感知し、視線検出結果取得性能向上のため、遅延部132aおよび132bに異なる遅延量D1およびD2を設定して、視線検出結果の読み出し周期を向上させる等の例にも適用可能である。GUIは、Graphical User Interfaceである。
別の例として、CG画像のみを表示させ、VR(Virtual Reality)画像を表示したい場合、制御部100がこれを感知し、視線検出結果取得性能向上のため、遅延部132aおよび132bに異なる遅延量D1およびD2を設定することができる。これにより、視線検出結果の読み出し周期を向上させてもよい。
また別の例として、注目する対象物の動きが遅い場合、制御部100が対象物の動きに変化がないことを感知し、視線検出結果取得性能向上のため、遅延部132aおよび132bに異なる遅延量D1およびD2を設定することができる。これにより、視線検出結果の読み出し周期を向上させることができる。
さらなる別の例として、フォビエイテドレンダリング等による視線追従を重要視するモードの場合には、制御部100は、視線検出結果の読み出し周期向上のため、遅延部132aおよび132bに異なる遅延量D1およびD2を設定することができる。これにより、視線検出結果取得速度を向上させることができる。
さらなる別の例として、制御部100は、左目用視線検出結果の表示座標の平均値と、右目用視線検出結果の表示座標の平均値を算出する。そして、制御部100は、左目用視線検出結果の表示座標の平均値と、右目用視線検出結果の表示座標の平均値との差が、閾値を超えた場合には、視線検出結果取得性能向上のため、遅延部132aおよび132bに異なる遅延量D1およびD2を設定する。これにより、視線検出結果取得速度を向上させることができる。これに対し、制御部100は、左目用視線検出結果の表示座標の平均値と、右目用視線検出結果の表示座標の平均値との差が、閾値以内である場合には、遅延部132aおよび132bに同じ遅延量D1およびD2を設定する。これにより、視線検出部150aおよび150bの眼球用撮像素子17から得られる左右の画像を同期して取得し、視線検出の信頼度を向上させることができる。以上のように、制御部100は、閾値を用いて、両者の切り替えを動的に行うことができる。
以上のように、視線検出部150aは、周期Tで、第1の眼球画像を撮像し、第1の眼球画像を基に第1の視線を検出する。視線検出部150bは、周期Tで、第2の眼球画像を撮像し、第2の眼球画像を基に第2の視線を検出する。例えば、第1の眼球画像は、左目の眼球画像であり、第2の眼球画像は、右目の眼球画像である。第1の眼球画像の撮像開始タイミングと第2の眼球画像の撮像開始タイミングとの差は、HMD10の状態、ユーザ設定、状況、またはユーザ操作に応じて変更される。
制御部100は、視線検出結果147と視線検出結果148とを基に、視差、輻輳角、もしくは眼幅を演算し、または視線キャリブレーションを行うことができる。その場合、制御部100は、視線検出部150aの第1の眼球画像の撮像開始タイミングと視線検出部150bの第2の眼球画像の撮像開始タイミングとが同じになるように制御する。
表示素子110aは、視線検出結果147に応じた画像を表示する。表示素子110bは、視線検出結果148に応じた画像を表示する。制御部100は、表示素子110aと表示素子110bがユーザ操作により操作画面を表示する場合、視線検出部150aの第1の眼球画像の撮像開始タイミングと視線検出部150bの第2の眼球画像の撮像開始タイミングとが異なるように制御する。
制御部100は、視線検出結果147と視線検出結果148とを基に輻輳角を演算する。制御部100は、輻輳角が閾値より小さい場合、視線検出部150aの第1の眼球画像の撮像開始タイミングと視線検出部150bの第2の眼球画像の撮像開始タイミングとが異なるように制御する。
以上、本実施形態によれば、制御部100は、遅延部132aおよび132bの遅延量D1およびD2を動的に変えることによって、視線検出結果取得性能を柔軟に変更し、様々なユーザアプリケーションの要求に応じた視線検出機能を実現することが可能である。
(その他の実施形態)
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
なお、上述の実施形態は、何れも本開示を実施するにあたっての具体例を示したものに過ぎず、これらによって本開示の技術的範囲が限定的に解釈されない。すなわち、本開示はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
本実施形態の開示は、以下の構成、方法およびプログラムを含む。
(構成1)
第1の周期で、第1の眼球画像を撮像し、前記第1の眼球画像を基に第1の視線を検出する第1の視線検出手段と、
前記第1の周期で、第2の眼球画像を撮像し、前記第2の眼球画像を基に第2の視線を検出する第2の視線検出手段とを有し、
前記第1の眼球画像の撮像開始タイミングと前記第2の眼球画像の撮像開始タイミングは、相互に異なることを特徴とする撮像装置。
(構成2)
前記第1の視線検出手段は、前記第1の視線の検出結果を出力し、
前記第2の視線検出手段は、前記第2の視線の検出結果を出力し、
前記第1の視線の検出結果の出力タイミングと前記第2の視線の検出結果の出力タイミングは、相互に異なることを特徴とする構成1に記載の撮像装置。
(構成3)
前記第1の視線検出手段は、第1の開始信号を基に処理を開始し、
前記第2の視線検出手段は、第2の開始信号を基に処理を開始し、
前記第1の開始信号の入力タイミングと前記第2の開始信号の入力タイミングは、相互に異なることを特徴とする構成1または2に記載の撮像装置。
(構成4)
前記第2の視線の検出結果の出力タイミングは、前記第1の視線の検出結果の出力タイミングに対して、前記第1の周期の半分の時間だけずれていることを特徴とする構成2に記載の撮像装置。
(構成5)
前記第2の開始信号の入力タイミングは、前記第1の開始信号の入力タイミングに対して、前記第1の周期の半分の時間だけずれていることを特徴とする構成3に記載の撮像装置。
(構成6)
前記第1の開始信号に対して遅延している前記第2の開始信号を生成する遅延手段をさらに有することを特徴とする構成3または5に記載の撮像装置。
(構成7)
前記遅延手段は、表示垂直同期信号を第1の遅延量で遅延することより前記第1の開始信号を生成し、前記表示垂直同期信号を第2の遅延量で遅延することにより前記第2の開始信号を生成することを特徴とする構成6に記載の撮像装置。
(構成8)
前記第1の視線の検出結果に応じた第1の画像を表示する第1の表示手段と、
前記第2の視線の検出結果に応じた第2の画像を表示する第2の表示手段とをさらに有することを特徴とする構成1~7のいずれか1項に記載の撮像装置。
(構成9)
前記第1の眼球画像は、左目の眼球画像であり、
前記第2の眼球画像は、右目の眼球画像であることを特徴とする構成1~8のいずれか1項に記載の撮像装置。
(構成10)
撮像装置であって、
第1の周期で、第1の眼球画像を撮像し、前記第1の眼球画像を基に第1の視線を検出する第1の視線検出手段と、
前記第1の周期で、第2の眼球画像を撮像し、前記第2の眼球画像を基に第2の視線を検出する第2の視線検出手段とを有し、
前記第1の眼球画像の撮像開始タイミングと前記第2の眼球画像の撮像開始タイミングとの差は、前記撮像装置の状態、ユーザ設定、状況、またはユーザ操作に応じて変更されることを特徴とする撮像装置。
(構成11)
前記第1の視線の検出結果と前記第2の視線の検出結果とを基に、視差、輻輳角、もしくは眼幅を演算する場合、または視線キャリブレーションを行う場合、前記第1の視線検出手段の前記第1の眼球画像の撮像開始タイミングと前記第2の視線検出手段の前記第2の眼球画像の撮像開始タイミングとが同じになるように制御する制御手段をさらに有することを特徴とする構成10に記載の撮像装置。
(構成12)
前記第1の視線の検出結果に応じた第1の画像を表示する第1の表示手段と、
前記第2の視線の検出結果に応じた第2の画像を表示する第2の表示手段とをさらに有することを特徴とする構成10または11に記載の撮像装置。
(構成13)
前記第1の表示手段と前記第2の表示手段がユーザ操作により操作画面を表示する場合、前記第1の視線検出手段の前記第1の眼球画像の撮像開始タイミングと前記第2の視線検出手段の前記第2の眼球画像の撮像開始タイミングとが異なるように制御する制御手段をさらに有することを特徴とする構成12に記載の撮像装置。
(構成14)
前記第1の視線の検出結果と前記第2の視線の検出結果とを基に輻輳角を演算し、前記輻輳角が第1の閾値より小さい場合、前記第1の視線検出手段の前記第1の眼球画像の撮像開始タイミングと前記第2の視線検出手段の前記第2の眼球画像の撮像開始タイミングとが異なるように制御する制御手段をさらに有することを特徴とする構成10~13のいずれか1項に記載の撮像装置。
(方法1)
第1の周期で、第1の眼球画像を撮像し、前記第1の眼球画像を基に第1の視線を検出する第1の視線検出ステップと、
前記第1の周期で、第2の眼球画像を撮像し、前記第2の眼球画像を基に第2の視線を検出する第2の視線検出ステップとを有し、
前記第1の眼球画像の撮像開始タイミングと前記第2の眼球画像の撮像開始タイミングは、相互に異なることを特徴とする撮像装置の撮像方法。
(方法2)
撮像装置の処理方法であって、
第1の周期で、第1の眼球画像を撮像し、前記第1の眼球画像を基に第1の視線を検出する第1の視線検出ステップと、
前記第1の周期で、第2の眼球画像を撮像し、前記第2の眼球画像を基に第2の視線を検出する第2の視線検出ステップとを有し、
前記第1の眼球画像の撮像開始タイミングと前記第2の眼球画像の撮像開始タイミングとの差は、前記撮像装置の状態、ユーザ設定、状況、またはユーザ操作に応じて変更されることを特徴とする撮像装置の撮像方法。
(プログラム1)
コンピュータを、構成1~14のいずれか1項に記載された撮像装置の各手段として機能させるためのプログラム。
(構成1)
第1の周期で、第1の眼球画像を撮像し、前記第1の眼球画像を基に第1の視線を検出する第1の視線検出手段と、
前記第1の周期で、第2の眼球画像を撮像し、前記第2の眼球画像を基に第2の視線を検出する第2の視線検出手段とを有し、
前記第1の眼球画像の撮像開始タイミングと前記第2の眼球画像の撮像開始タイミングは、相互に異なることを特徴とする撮像装置。
(構成2)
前記第1の視線検出手段は、前記第1の視線の検出結果を出力し、
前記第2の視線検出手段は、前記第2の視線の検出結果を出力し、
前記第1の視線の検出結果の出力タイミングと前記第2の視線の検出結果の出力タイミングは、相互に異なることを特徴とする構成1に記載の撮像装置。
(構成3)
前記第1の視線検出手段は、第1の開始信号を基に処理を開始し、
前記第2の視線検出手段は、第2の開始信号を基に処理を開始し、
前記第1の開始信号の入力タイミングと前記第2の開始信号の入力タイミングは、相互に異なることを特徴とする構成1または2に記載の撮像装置。
(構成4)
前記第2の視線の検出結果の出力タイミングは、前記第1の視線の検出結果の出力タイミングに対して、前記第1の周期の半分の時間だけずれていることを特徴とする構成2に記載の撮像装置。
(構成5)
前記第2の開始信号の入力タイミングは、前記第1の開始信号の入力タイミングに対して、前記第1の周期の半分の時間だけずれていることを特徴とする構成3に記載の撮像装置。
(構成6)
前記第1の開始信号に対して遅延している前記第2の開始信号を生成する遅延手段をさらに有することを特徴とする構成3または5に記載の撮像装置。
(構成7)
前記遅延手段は、表示垂直同期信号を第1の遅延量で遅延することより前記第1の開始信号を生成し、前記表示垂直同期信号を第2の遅延量で遅延することにより前記第2の開始信号を生成することを特徴とする構成6に記載の撮像装置。
(構成8)
前記第1の視線の検出結果に応じた第1の画像を表示する第1の表示手段と、
前記第2の視線の検出結果に応じた第2の画像を表示する第2の表示手段とをさらに有することを特徴とする構成1~7のいずれか1項に記載の撮像装置。
(構成9)
前記第1の眼球画像は、左目の眼球画像であり、
前記第2の眼球画像は、右目の眼球画像であることを特徴とする構成1~8のいずれか1項に記載の撮像装置。
(構成10)
撮像装置であって、
第1の周期で、第1の眼球画像を撮像し、前記第1の眼球画像を基に第1の視線を検出する第1の視線検出手段と、
前記第1の周期で、第2の眼球画像を撮像し、前記第2の眼球画像を基に第2の視線を検出する第2の視線検出手段とを有し、
前記第1の眼球画像の撮像開始タイミングと前記第2の眼球画像の撮像開始タイミングとの差は、前記撮像装置の状態、ユーザ設定、状況、またはユーザ操作に応じて変更されることを特徴とする撮像装置。
(構成11)
前記第1の視線の検出結果と前記第2の視線の検出結果とを基に、視差、輻輳角、もしくは眼幅を演算する場合、または視線キャリブレーションを行う場合、前記第1の視線検出手段の前記第1の眼球画像の撮像開始タイミングと前記第2の視線検出手段の前記第2の眼球画像の撮像開始タイミングとが同じになるように制御する制御手段をさらに有することを特徴とする構成10に記載の撮像装置。
(構成12)
前記第1の視線の検出結果に応じた第1の画像を表示する第1の表示手段と、
前記第2の視線の検出結果に応じた第2の画像を表示する第2の表示手段とをさらに有することを特徴とする構成10または11に記載の撮像装置。
(構成13)
前記第1の表示手段と前記第2の表示手段がユーザ操作により操作画面を表示する場合、前記第1の視線検出手段の前記第1の眼球画像の撮像開始タイミングと前記第2の視線検出手段の前記第2の眼球画像の撮像開始タイミングとが異なるように制御する制御手段をさらに有することを特徴とする構成12に記載の撮像装置。
(構成14)
前記第1の視線の検出結果と前記第2の視線の検出結果とを基に輻輳角を演算し、前記輻輳角が第1の閾値より小さい場合、前記第1の視線検出手段の前記第1の眼球画像の撮像開始タイミングと前記第2の視線検出手段の前記第2の眼球画像の撮像開始タイミングとが異なるように制御する制御手段をさらに有することを特徴とする構成10~13のいずれか1項に記載の撮像装置。
(方法1)
第1の周期で、第1の眼球画像を撮像し、前記第1の眼球画像を基に第1の視線を検出する第1の視線検出ステップと、
前記第1の周期で、第2の眼球画像を撮像し、前記第2の眼球画像を基に第2の視線を検出する第2の視線検出ステップとを有し、
前記第1の眼球画像の撮像開始タイミングと前記第2の眼球画像の撮像開始タイミングは、相互に異なることを特徴とする撮像装置の撮像方法。
(方法2)
撮像装置の処理方法であって、
第1の周期で、第1の眼球画像を撮像し、前記第1の眼球画像を基に第1の視線を検出する第1の視線検出ステップと、
前記第1の周期で、第2の眼球画像を撮像し、前記第2の眼球画像を基に第2の視線を検出する第2の視線検出ステップとを有し、
前記第1の眼球画像の撮像開始タイミングと前記第2の眼球画像の撮像開始タイミングとの差は、前記撮像装置の状態、ユーザ設定、状況、またはユーザ操作に応じて変更されることを特徴とする撮像装置の撮像方法。
(プログラム1)
コンピュータを、構成1~14のいずれか1項に記載された撮像装置の各手段として機能させるためのプログラム。
1 撮像表示システム、10 撮像表示装置、20 ケーブル、30 画像処理装置、100 制御部、110a,110b 表示素子、120 位置姿勢センサ、130a,130b 背景用画像撮像素子、132a,132b 遅延部、140a,140b 位置検出用画像撮像素子、150a,150b 視線検出部
Claims (17)
- 第1の周期で、第1の眼球画像を撮像し、前記第1の眼球画像を基に第1の視線を検出する第1の視線検出手段と、
前記第1の周期で、第2の眼球画像を撮像し、前記第2の眼球画像を基に第2の視線を検出する第2の視線検出手段とを有し、
前記第1の眼球画像の撮像開始タイミングと前記第2の眼球画像の撮像開始タイミングは、相互に異なることを特徴とする撮像装置。 - 前記第1の視線検出手段は、前記第1の視線の検出結果を出力し、
前記第2の視線検出手段は、前記第2の視線の検出結果を出力し、
前記第1の視線の検出結果の出力タイミングと前記第2の視線の検出結果の出力タイミングは、相互に異なることを特徴とする請求項1に記載の撮像装置。 - 前記第1の視線検出手段は、第1の開始信号を基に処理を開始し、
前記第2の視線検出手段は、第2の開始信号を基に処理を開始し、
前記第1の開始信号の入力タイミングと前記第2の開始信号の入力タイミングは、相互に異なることを特徴とする請求項1に記載の撮像装置。 - 前記第2の視線の検出結果の出力タイミングは、前記第1の視線の検出結果の出力タイミングに対して、前記第1の周期の半分の時間だけずれていることを特徴とする請求項2に記載の撮像装置。
- 前記第2の開始信号の入力タイミングは、前記第1の開始信号の入力タイミングに対して、前記第1の周期の半分の時間だけずれていることを特徴とする請求項3に記載の撮像装置。
- 前記第1の開始信号に対して遅延している前記第2の開始信号を生成する遅延手段をさらに有することを特徴とする請求項3に記載の撮像装置。
- 前記遅延手段は、表示垂直同期信号を第1の遅延量で遅延することより前記第1の開始信号を生成し、前記表示垂直同期信号を第2の遅延量で遅延することにより前記第2の開始信号を生成することを特徴とする請求項6に記載の撮像装置。
- 前記第1の視線の検出結果に応じた第1の画像を表示する第1の表示手段と、
前記第2の視線の検出結果に応じた第2の画像を表示する第2の表示手段とをさらに有することを特徴とする請求項1に記載の撮像装置。 - 前記第1の眼球画像は、左目の眼球画像であり、
前記第2の眼球画像は、右目の眼球画像であることを特徴とする請求項1に記載の撮像装置。 - 撮像装置であって、
第1の周期で、第1の眼球画像を撮像し、前記第1の眼球画像を基に第1の視線を検出する第1の視線検出手段と、
前記第1の周期で、第2の眼球画像を撮像し、前記第2の眼球画像を基に第2の視線を検出する第2の視線検出手段とを有し、
前記第1の眼球画像の撮像開始タイミングと前記第2の眼球画像の撮像開始タイミングとの差は、前記撮像装置の状態、ユーザ設定、状況、またはユーザ操作に応じて変更されることを特徴とする撮像装置。 - 前記第1の視線の検出結果と前記第2の視線の検出結果とを基に、視差、輻輳角、もしくは眼幅を演算する場合、または視線キャリブレーションを行う場合、前記第1の視線検出手段の前記第1の眼球画像の撮像開始タイミングと前記第2の視線検出手段の前記第2の眼球画像の撮像開始タイミングとが同じになるように制御する制御手段をさらに有することを特徴とする請求項10に記載の撮像装置。
- 前記第1の視線の検出結果に応じた第1の画像を表示する第1の表示手段と、
前記第2の視線の検出結果に応じた第2の画像を表示する第2の表示手段とをさらに有することを特徴とする請求項10に記載の撮像装置。 - 前記第1の表示手段と前記第2の表示手段がユーザ操作により操作画面を表示する場合、前記第1の視線検出手段の前記第1の眼球画像の撮像開始タイミングと前記第2の視線検出手段の前記第2の眼球画像の撮像開始タイミングとが異なるように制御する制御手段をさらに有することを特徴とする請求項12に記載の撮像装置。
- 前記第1の視線の検出結果と前記第2の視線の検出結果とを基に輻輳角を演算し、前記輻輳角が第1の閾値より小さい場合、前記第1の視線検出手段の前記第1の眼球画像の撮像開始タイミングと前記第2の視線検出手段の前記第2の眼球画像の撮像開始タイミングとが異なるように制御する制御手段をさらに有することを特徴とする請求項10に記載の撮像装置。
- 第1の周期で、第1の眼球画像を撮像し、前記第1の眼球画像を基に第1の視線を検出する第1の視線検出ステップと、
前記第1の周期で、第2の眼球画像を撮像し、前記第2の眼球画像を基に第2の視線を検出する第2の視線検出ステップとを有し、
前記第1の眼球画像の撮像開始タイミングと前記第2の眼球画像の撮像開始タイミングは、相互に異なることを特徴とする撮像装置の撮像方法。 - 撮像装置の処理方法であって、
第1の周期で、第1の眼球画像を撮像し、前記第1の眼球画像を基に第1の視線を検出する第1の視線検出ステップと、
前記第1の周期で、第2の眼球画像を撮像し、前記第2の眼球画像を基に第2の視線を検出する第2の視線検出ステップとを有し、
前記第1の眼球画像の撮像開始タイミングと前記第2の眼球画像の撮像開始タイミングとの差は、前記撮像装置の状態、ユーザ設定、状況、またはユーザ操作に応じて変更されることを特徴とする撮像装置の撮像方法。 - コンピュータを、請求項1~14のいずれか1項に記載された撮像装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022116420A JP2024013947A (ja) | 2022-07-21 | 2022-07-21 | 撮像装置、撮像装置の撮像方法およびプログラム |
US18/355,152 US20240031551A1 (en) | 2022-07-21 | 2023-07-19 | Image capturing apparatus for capturing a plurality of eyeball images, image capturing method for image capturing apparatus, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022116420A JP2024013947A (ja) | 2022-07-21 | 2022-07-21 | 撮像装置、撮像装置の撮像方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024013947A true JP2024013947A (ja) | 2024-02-01 |
Family
ID=89576218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022116420A Pending JP2024013947A (ja) | 2022-07-21 | 2022-07-21 | 撮像装置、撮像装置の撮像方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20240031551A1 (ja) |
JP (1) | JP2024013947A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11948043B2 (en) * | 2021-06-02 | 2024-04-02 | Apple Inc. | Transparent insert identification |
-
2022
- 2022-07-21 JP JP2022116420A patent/JP2024013947A/ja active Pending
-
2023
- 2023-07-19 US US18/355,152 patent/US20240031551A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20240031551A1 (en) | 2024-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7076447B2 (ja) | ヘッドマウントディスプレイのための光照射野キャプチャおよびレンダリング | |
JP6747504B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP4657313B2 (ja) | 立体画像表示装置および方法並びにプログラム | |
US20170324899A1 (en) | Image pickup apparatus, head-mounted display apparatus, information processing system and information processing method | |
JP2018511098A (ja) | 複合現実システム | |
JP2011064894A (ja) | 立体画像表示装置 | |
JP6349660B2 (ja) | 画像表示装置、画像表示方法、および画像表示プログラム | |
JP2018006914A (ja) | 外部撮像システム、外部撮像方法、外部撮像プログラム | |
CN108885342A (zh) | 用于低延迟渲染的宽基线立体 | |
US11557020B2 (en) | Eye tracking method and apparatus | |
JP4580678B2 (ja) | 注視点位置表示装置 | |
JP7148634B2 (ja) | ヘッドマウントディスプレイ装置 | |
GB2611154A (en) | Image pickup apparatus used as action camera, control method therefor, and storage medium storing control program therefor | |
JP2011010126A (ja) | 画像処理装置、画像処理方法 | |
KR20190024691A (ko) | 영상 표시 시스템, 영상 표시 방법 및 영상 표시 프로그램 | |
US20240031551A1 (en) | Image capturing apparatus for capturing a plurality of eyeball images, image capturing method for image capturing apparatus, and storage medium | |
GB2595872A (en) | Gaze tracking apparatus and systems | |
JP7271215B2 (ja) | 同期制御装置、同期制御方法、及びプログラム | |
JP4708590B2 (ja) | 複合現実感システム、ヘッドマウントディスプレイ装置、複合現実感実現方法及びプログラム | |
CN113382224B (zh) | 一种基于全息沙盘的交互手柄展示方法及装置 | |
JP2012244466A (ja) | 立体画像処理装置 | |
JP2006340017A (ja) | 立体映像表示装置及び立体映像表示方法 | |
JP2016090853A (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP2017215597A (ja) | 情報表示方法及び情報表示装置 | |
JP7242332B2 (ja) | 同期制御装置、同期制御方法、及びプログラム |