JP2006167256A - 瞳孔検出装置 - Google Patents
瞳孔検出装置 Download PDFInfo
- Publication number
- JP2006167256A JP2006167256A JP2004365546A JP2004365546A JP2006167256A JP 2006167256 A JP2006167256 A JP 2006167256A JP 2004365546 A JP2004365546 A JP 2004365546A JP 2004365546 A JP2004365546 A JP 2004365546A JP 2006167256 A JP2006167256 A JP 2006167256A
- Authority
- JP
- Japan
- Prior art keywords
- pupil
- light source
- camera
- image
- cursor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Eye Examination Apparatus (AREA)
- Position Input By Displaying (AREA)
Abstract
【解決手段】左カメラの近傍に取り付ける遠近1対の光源と、右カメラの近傍に取り付ける遠近1対の光源とで、波長の異なる光源を使用する。例えば、一方には中心波長が810nmの光源を使用し、もう一方は850nmの光源を使用する。そして、各カメラの開口部には、それぞれの光源と同じ中心波長を持つ、十分に狭帯域のバンドパスフィルターを取り付け、互いの画像に干渉しあわないようにする。各光源の波長域がオーバーラップする場合には、光源の前にもバンドパスフィルターを取り付け、光源の波長域を狭くしてから、頭部に近赤外線を照射する。これにより、左右の光学系は独立し、互いに干渉しなくなる。
【選択図】 図8
Description
しかし、視点によって、ポインティングする場合は、表示装置上のポインティングしたい場所へ視点を動かさなければならないが、見るべき位置を探索している間も、カーソル(ポインタ)が視点の位置に常に現れるため、カーソルを移動させたい位置にカーソルを移動させにくいという問題がある。また、視点位置にいつもカーソルが提示されることにより、それが視覚刺激となり、見たい対象が見にくいなどの問題がある。
頭部の運動によれば、見ているところとカーソルのでる位置は異なり、しかも、前方の表示装置上の必要なところに視線を向けながらも、周辺視でカーソルを見ながら目的の位置にカーソルを動かすことができる。
従来の頭部の動きによるポインティングシステムの例を次に示す。
非特許文献1に記載された技術(Eagle eyeと名づけられている)は、パソコンの横にビデオカメラを設置し、顔の画像を撮影しながら、画像処理により、予め指定する顔の一部をテンプレートマッチングにより追尾し、その動きに応じて、パソコン画面上のカーソルを動かす方式である。追尾対象としては、鼻の先、あごの先、黒眼などをためしている。しかし、テンプレートを更新しても、急減な周囲の明るさの変化などに対応しにくい可能性があり、また、追尾すべき対象が徐々にずれていくなどの問題も発生しやすい。
しかしながら、被験者(ユーザ、オペレータ)が眼鏡を使用しているとき、その眼鏡反射により瞳孔検出が妨害される場合がある。
"The Camera Mouse:Visual Tracking of Body Features to Provide Computer Access for People With Severe Disabilities", (Margrit Betke, James Gips, and Peter Fleming), IEEE Transactions on Neural Systems and Rehabilitation Engineering, Vol.10, No. 1, March 2002
もし、カメラ開口の近くに光源を配置することがなければ、たとえば、図5のようにカメラ(1)の開口から離れた左右の位置に1個ずつ光源(6)を設置しそれら交互に点灯させる方法がある。図5の7は眼鏡レンズ、8は角膜である。この場合、どちらかの光源の一方の眼鏡反射(10)が瞳孔(9)を隠したとしても、もう一方の光源の眼鏡反射が瞳孔を隠さない場合が多いので、眼鏡反射が瞳孔を隠していない方の画像を利用して瞳孔を検出することができる。しかし、前述のように、光源の一方をカメラの開口の近くにどうしても設置しなければならない場合は、この方法は使用できない。
次に、図7のように、2台のカメラを利用し、それぞれのカメラ(1)に開口に近い光源(3)と遠い光源(4)を取り付け、それらの光源を交互に点灯させることを考える。すると、1台のカメラについて、4個の眼鏡反射(10)が現れることになり、かえって瞳孔(9)が検出しにくくなる。
このほかに、異なる波長の光源に代えて、時分割駆動による光源制御も考えられる。
左の2個の光源のどちらかが点灯している間は、左のカメラで撮影し(左カメラの電子シャッターを開く)、右の2個の光源のどちらかが点灯している間に右のカメラで撮影する(右カメラの電子シャッターを開く)、というように、時分割の光源制御方法を採用することにより、波長制限とほぼ同様の効果が得られる。
また、2台のカメラで捉えた顔画像から三角測量により、2つの瞳孔の3次元位置を検出することができる。さらに2つの顔画像のそれぞれにおいて検出される2つの瞳孔のそれぞれの周りを詳細に解析し、2つの正確な瞳孔中心と2つの角膜反射中心を検出し、2つの眼の視線を求めることができる。2本の視線の交点が視点であり、瞳孔の3次元位置と視線から三次元の視点の計測ができる。これにより求めた視点位置からカーソルの位置を制御する用途において、瞳孔や角膜反射を捉え、その3次元位置を測定する場合には、少なくとも2台のカメラで対象物を撮影することが必要であり、この場合には3台以上のカメラを配置する。
他に、被験者が広角度に頭を回転させる、もしくは頭を広範囲に動かす場合においても、カメラを多数台配置することが有効である。
瞳孔の移動を検知し移動量情報を作成する場合には、マウス・インタフェースを用いて他のシステムと接続するのか、ジョイスティック・インタフェースあるいは他のスティック・インタフェースを用いるのかによって、出力信号に対する考慮が必要であり、多種多様の変換形態があることが理解されよう。
さらには、パソコンそのものを制御手段として用いることも可能であり、その場合には、光源の照射(点滅)制御部分を分離して外部に設けることも考えられる。
所望により制御手段の制御機能を分割し、ソフトウエアで実行する部分、ハードウエアで実行する部分、パソコン自体で実行する部分、PCIボードで実行する部分など、適宜機能分散することが可能であることは、当業者であれば理解できよう。
顔画像から検出される瞳孔の検出状態は、(a)両目が開いており、両瞳孔とも検出されている状態(右瞳孔検出、左瞳孔検出)、(b)右目のみが開いており、右瞳孔のみが検出されているとき(右瞳孔検出、左瞳孔非検出)、(c)左目のみが開いており、左瞳孔のみが検出されているとき、(右瞳孔非検出、左瞳孔検出)、(d)両目とも閉じており、両瞳孔とも検出されないとき(右瞳孔非検出、左瞳孔非検出)の4通りである。
汎用の2ボタンマウス信号から出力される情報は、マウスボタン情報(右ボタンのDOWN(押した状態)・UP(離した状態)と左ボタンのDOWN・UP)とカーソル移動情報(水平方向、垂直方向)である。
例えば、片目を1度閉じてから開けばクリック、また、片目を閉じながら頭部を動かせば、ドラッグが開始され、その後に閉じていた目を開けば、ドラッグが終了する。
そのために、右目の開閉と左目の開閉を、汎用2ボタンマウスの右ボタンのUP,DOWNと左ボタンのUP,DOWNに対応させる処理を行うものとする。この対応づけは左右入れ換えることも可能である。
ただし、瞬目(まばたき)により両目が閉じる場合は、それは被験者の意図ではないために例外的に扱う。通常、汎用マウスの両ボタンとも押している状態は利用されないので、両目が閉じている場合は、両ボタンとも逆にUPになっている状態とみなす。ただし、瞳孔移動量は零であるとする。これにより、両目が閉じられている場合は、マウスを何も操作していない状態(手を放している状態)に相当させることになる。このような状態は、両目が閉じている場合だけでなく、顔がカメラに映っていない場合も同様の扱いとする。
(2)また、速く頭が動くと、それに伴って瞳孔も速く動く、その際に瞳孔の画像がボケてピーク輝度値が低下するなどして、結果的に瞳孔が検出できないことがある。これは、両目を開いているとき(カーソルを単に動かしているとき)において、両瞳孔に関して、もしくは、片方の瞳孔に関してありうる。その場合、瞳孔の検出状態が変化したと判断すると、被験者の意図とは異なったボタン情報を出力してしまう。
上の(1)と(2)のような問題を防ぐために、次のような対処を行う。
現在の画像フレームから得られた瞳孔の検出状態(検出、非検出)が、前のフレームから別の状態に変化しても、変化後に同じ状態が数フレーム(例えば、3フレーム、100ms) 以上連続に続いたときに、はじめて変化後の瞳孔状態に一致するボタン情報を出力するものとする。
一方で、片側の瞳孔のみ検出の状態から、他方の瞳孔のみの検出の状態に変移する場合がある。これは、ドラッグ中に片目を閉じていて、ドラッグ終了のときに、閉じていた目がちょうど開いたと判断されたときに、何らかの理由で開いていたほうの瞳孔が検出されなくなったときに生じる。しかし、片眼のみを閉じた状態から、反対側の片目のみを閉じた状態に使用者が意図的にすることはありえないと仮定し、本来検出されるはずのもう一方の瞳孔が何らかの理由で検出されそこなって片目が開いていた状態から両瞳孔検出状態に変化した、と判断する。その後は、検出されている瞳孔のみの移動に対応させてカーソル移動をさせる。
両瞳孔が連続して検出されていたときに、使用者の意図とは関係なく、その瞳孔が指定した数フレーム間より短い時間に両瞳孔が検出できなかった場合(頭部移動中に瞬目が生じた場合などが考えられる)も同様に対処する。ただし、片方の瞳孔が検出され続けている場合には、適用されず、その場合は、片方の瞳孔の移動量を、瞳孔移動量として、カーソル移動量に対応させる。
通常は、得られる瞳孔移動量とカーソル移動量の対応付けを
Cx=kx・Px ,
Cy=ky・Py
として対応付けることが考えられる。ここで、PxとPyは、それぞれ画像中の水平方向、垂直方向の瞳孔移動成分(正負あり)、Cx、Cyはパソコン画面中の水平方向、垂直方向のカーソル移動量である。また、kxとkyは被験者によって好みの値を選ぶための係数である。
解決法としては、
Cx=kx・Px・|Px|b−1 ,
Cy=ky・Py・|Py|b−1
と対応させることである。b>1のとき、前記の単純比例の場合より、Px、Pyの次数が高くなり、b=2のとき瞳孔移動量の二乗をカーソル移動量に対応させることになる。このような対応付けにより、瞳孔の振動はほぼ零に抑えられ、頭部の運動による瞳孔移動は強調される。ここでも、kx、kyは被験者の好みに合わせるものとする。このように、次数を高くすると、比較的すばやく頭部を動かした場合は、小さな頭部運動によってもカーソルは大きく移動し、逆に頭部をゆっくり動かす場合は、ほんの少しだけカーソルが移動できるようになる。したがって、カーソルを大きく動かしたいときも、希望の位置からカーソルがほんの少しずれているときに、それを希望の位置に合わせたいときにも、両方に適している。
または、不感帯を設けた上で、不感帯の範囲内の小さな瞳孔移動の間は、すべての瞳孔移動の積分値を記録しておき、不感帯を超える大きな瞳孔移動があったときは、その積分値を使用して、カーソル移動をさせる。顔の向く方向によりカーソル制御を行う場合には、このようにすることによって、ほぼ顔の向いた方向にカーソルを瞬間的に向けることが可能である。
さらに、不感帯と、不感帯の境界を原点とする指数関数を用いれば、頭部の小さな振動ではカーソルが全く動かず、不感帯よりも頭部の移動が大きくなると徐々に動くようにすることができる。
また、瞳孔マウスと汎用の手動マウスを併用することも有用である。
汎用の手動マウスは細かいカーソル移動は得意であるが、大きなカーソル移動をするためには、手を大きく動かすか、何度か空に浮かせて位置を戻す必要があり、使用しにくい面がある。それに対して、瞳孔マウスにおいては、大きな頭の動き(回転)に対して、カーソルは素早く動く。そして、細かい作業については、瞳孔マウスが作用しないようにしておき、手動マウスによりカーソルを動かす。
左右の眼の開閉情報をポインティングデバイスの左右の押しボタンスイッチの押下状態情報に対応づける手段における対応づけを、使用状況に応じて切換え可能に構成することにより、有用性は高まる。
また、他の形態として、片目まばたきの繰返し周期の弁別を行うことにより、たとえば早い周期での2度のまばたきはダブルクリックとし、遅い周期での2度のまばたきは押下ロックとすることも考えられる。さらには、3度のまばたきで押下ロックとするなど、ユーザの操作しやすい条件により、ロック状態を含めて種々のボタン押下信号を発生する変形が考えられる。
ここまで述べた瞳孔位置検出、瞳孔の有無によるまばたきの検出、瞳孔移動量からカーソル移動量への変換など画像処理及びマウス代替信号への変換機能を行う検出制御手段は図示されていない。
広角のカメラを使用した場合には、両目を撮影することにより、1台のカメラ画像から2個の瞳孔が検出される。各カメラ画像からは、瞳孔が容易に検出でき、閉眼も明確にわかり、しかも、どちらの目を閉じたかも分かる。しかし、眼鏡を装着している場合、眼鏡反射が原因で、2台のカメラ画像のどちらか一方で目を開いているにもかかわらず瞳孔が検出できない場合がある。
この場合の判定手法について以下に述べる。
1.2台のカメラの両方において、2つの瞳孔が検出されているときには、計4個の瞳孔のフレーム間の移動量の平均を、カーソルの移動量に反映させる。
2.2台のカメラの両方において、左瞳孔のみ、もしくは右瞳孔のみが検出された場合は、左目もしくは右目が開いており、右目もしくは左目は閉じたと判断する。
4.1台のカメラでは両瞳孔が検出され、もう1台のカメラでは、片方の瞳孔のみが検出された場合は、両目は開いていると判断して、計3個の瞳孔もしくは2台のカメラの両方で検出された瞳孔(計2個)の平均のフレーム間移動量を、カーソル移動量に反映させる。
5.1台のカメラでは、右瞳孔のみが検出され、もう一台のカメラでは、左瞳孔のみが検出された場合、両目は開いていると解釈し、これら計2個の瞳孔のフレーム間移動量の平均を、カーソル移動量に反映させる。
6.1台のカメラでは、右瞳孔もしくは左瞳孔が検出され、もう一台のカメラでは、両瞳孔とも検出されなかったとき、右目もしくは左目だけが開かれており、左目もしくは右目は閉じていると判断し、計1個の瞳孔のフレーム間移動量を、カーソル移動量に反映させる。
カメラ台数を増やすと、瞳孔の移動量も数多く得られる。この際に、瞳孔移動量の単純平均をカーソル移動に反映させるのでなく、求められた瞳孔移動量のうち最大と最小を除去して平均を求める、または奇数個のデータにあっては中央の値、偶数個にあっては中央の2つの平均を瞳孔移動量とするなど、統計的手法による考え方を導入することも考えられる。
次に、眼球回転による影響の除去について述べる。
瞳孔マウスは、本来、頭部の移動に伴ってビデオカメラ画像中を移動する瞳孔の座標の時間的変化とカーソル移動を対応づけるものである。瞳孔移動とカーソル移動の対応づけのための係数(式は、別途述べている)を変えることにより、同じ瞳孔移動に対するカーソル移動の度合いが変化するのはもちろんであるが、ビデオカメラに顔を写す際の拡大率も上記係数と同様にカーソル移動に大きく影響を与える。
もし、かなり広い範囲で(たとえば、30cmx30cmx30cm)、頭部が動いても使用できるようにするためには、ビデオカメラの拡大率を小さくして、頭部が大きく動いても常に両瞳孔が検出できなければならない。それに対して、小さな首の動きで大きなカーソル移動をさせたい場合、たとえば首の動きも思いのままならない患者が使用するためには、小さな頭部運動でカーソルを滑らかに動作させなければならないために、前記係数を大きくするよりは、ビデオカメラの拡大率を大きくして使用するのが理想的であり、たとえば顔の横幅がカメラ画像の横幅に一致する程度に写す場合が考えられる。その場合、空間内で、拡大率が小さいときと同じ大きさの瞳孔移動が起こったとしても(同じ頭部運動をしたとしても)、カメラ画像中での瞳孔移動は、拡大率が小さい場合に対して大きいので、結果的に、小さな頭部運動でも、十分に大きなカーソル移動が得られる。
そこで、その問題を解決する方法を以下に述べる。
図10に示すように、眼球(20)は中心のずれた2重球からなり、その一方を角膜球(23)とする目のモデルを考えることができる。今、通常、眼球の大きさは、カメラから眼球までの距離に比べ十分に小さいので、便利のためにカメラから無限遠に眼球があるとする。また、光源(6)がカメラ(1)の開口の中心にあるとする。図10(b)のように、視線(25)がカメラの方を向いていると、光源の角膜反射(24)は瞳孔(9)の中心付近に現れる(図10(b)右)。さらに角膜反射(24)と瞳孔中心(22)の延長線上には眼球回転中心(21)が存在する。ここで、図10(a)のように、視線がカメラからずれた位置に向いたとすると、角膜反射(24)と瞳孔中心(22)はずれる。さらに眼球回転中心(21)もずれる。
しかし、眼球中心は画像中に写るわけではないので、位置を推定する必要がある。それについて、以下に述べる。まず、図10では、瞳孔はひとつしか表現していないが、一般には2個の瞳孔とも同時に写る。640×480画素程度や320×240画素程度の分解能のビデオカメラでは、顔の横幅が画像の横幅に一致する程度の拡大率、もしくはそれ以下の拡大率では、光源をカメラの開口部の周りに並べた場合にも、図11のように光源は、ひとつの光点として写る。
このとき、カメラの方向から見たときの眼球回転中心から瞳孔中心までの距離をp、眼球回転中心から瞳孔中心までの距離をgとすると、
r=5.9mm、R=9.7mmであることが知られているので、それからk≒0.6と求まる。
を得る。(7)式を使用することにより、画像中の角膜反射座標(Xg,Yg)と瞳孔中心座標(Xp,Yp)から、眼球回転中心(Xe,Ye)を推定することができる。ここで、kの値は個人で異なるが、大きな違いがあるわけでないので、k=0.6を与える。瞳孔中心(Xp,Yp)のフレーム間移動をカーソル移動に対応させるのに比較すれば、眼球回転中心座標(Xe,Ye)を対応させたほうが、明らかに眼球運動(眼球回転)のカーソル移動への影響は小さくなる。もちろん、頭部を固定して、故意に眼球運動を起こさせることにより、次に述べる方法によりkを推定することは可能である。
以上のように、kを被験者ごとに実験的に求めても、はじめから適当な値(たとえば、0.6)を与えても良い。(7)式により眼球回転中心を求めて、瞳孔中心の替わりに眼球回転中心の移動に合わせてカーソルを動かす方法が、目の回転に依存せず、頭部の回転にのみ依存するカーソル制御ができる。
そのような場合の処理について以下に述べる。
(i)連続する2枚のビデオフレーム画像において、両画像において角膜反射が写っている場合は、(8)式より
(ii)連続する2枚のビデオフレーム画像のうち、どちらか一方もしくは両方において、角膜反射が検出されなかったときは、2フレーム間の瞳孔中心移動(ΔXp,ΔYp)をカーソル移動に使用する。
次に、瞳孔中心の検出精度の向上について述べる。
瞳孔の動きに対してカーソル移動を制御する場合、瞳孔中心を高分解能で検出することが望ましい。たとえば、一般に使用されるテンプレートマッティング法では、座標が1画素毎にしか得られないため、滑らかなカーソル移動は難しい。そこで、後で述べるような方法に瞳孔中心を高精度に検出するが、その前の画像処理における前提について述べる。
基本的には、全画像に対して同一の画像処理をして、瞳孔中心の高精度検出は難しい。しかも、全画像中には、瞳孔と特徴が類似した画像が現れることもあるため、それを誤認識しないようにしなければならない。
そこで、差分画像より輝度が明るい部分として瞳孔を一度検出したら(そのときの中心座標の高い精度は必要ない)、そこにウインドウを与え、次のフレームからはウインドウ内だけを瞳孔探索するようにする。それによって、ウインドウ以外の画像処理が必要なくなるため、ウインドウ内の画像処理演算に多くの時間をかけることができる。ウインドウサイズとしては、顔の縦全体がちょうど画像に入るくらいのサイズであれば、320×240画素の分解能の画像で、21×21画素程度の方形ウインドウを与えればよいし、顔の横全体がちょうど画像に入る程度であれば、25×25画素程度でもよい。いずれにしても、このウインドウのサイズは、頭部や瞳孔の動くスピードを考慮しなければならない。通常の1秒間に30フレームのビデオカメラ(NTSC方式)では、1フレームの時間に瞳孔が大きく動くため、次のフレームでの瞳孔位置をカルマンフィルターなどの予測モデルを利用して、予測した瞳孔位置を中心にした上記のウインドウを設定する必要がある。
最近、円形に近い黒目の検出のために、分離度フィルタ(K.Fukui:"Edge extraction method based on separability of image features"、IEICE Trans. Inf. & Syst., Vol.E78-D, No.12, pp.1533-1538(1995)) が用いられることがある( M.Yuasa, O.Yamaguchi, K.Fukui:"Precise pupil contour detection based on minimizing the energy of pattern and edge"、IEICE Trans. Inf. & Syst., Vol.E87-D, No.1, pp.105-112 (2004), 川口 剛、モハメッド リゾン、日高大輔:"ハフ変換と分離度フィルタによる人物顔からの両目の検出"、信学論D-II, Vol.J84-DII, No.10, pp.2190-2200 (2001))。
この場合、図13のように、2重円状のマスクを用いて、内側の領域を領域1、外側の領域を領域2とし、画像中で分離度が最大になる座標を求める。しかし、分離度が最大になる座標を求めるという方法では画素単位の分解能でしか座標が検出できず、滑らかなカーソル移動に支障を来す。そこで、最大値を示す画素を中心に狭い範囲の重心を求める方法が考えられるが、対象が数ピクセルであることから、あまり分解能等に期待が持てない。範囲を広げると、重心に大きく影響する分離度値を示す画素が範囲内に存在する可能性があり、やはりあまり精度が期待できない。
基本的に、差分画像において瞳孔が円形で半径が可変であり、周囲より輝度が高いという特徴を持つということを利用する。
差分画像の座標(x,y)における瞳孔特徴量P(x,y)を次式のように定義し、ウインドウ内について求める。
しかし、[眼球回転に伴うカーソル移動の除去に関して]の項でも述べたように、ビデオカメラの拡大率が大きい場合には、放射状マスクの各ラインの長さは、中央を含めると5画素である。大きく写る瞳孔中心を正確に求めるためには、このラインの長さを長くすれば解決できるが、それでは、計算時間が長くなってしまう。それを解決するためには、図15のように、マスクの中心範囲に近いほうの画素の代わりに遠いほうの画素を増やし、結果的にマスクの画素数を変えないようにする。このような工夫によって、演算時間を増やさずにビデオカメラの拡大率に対応させることができる。
(2) 1台のカメラでは最多で2個までの瞳孔の移動の平均をカーソルに対応させていたが、2台のカメラでは最多で4個まで対応させることができるため、カーソル移動により高い安定性が得られる。とくに、ドラッグをさせるときには、もともと片方の瞳孔移動だけを検出するので効果が大きい。
(3) 眼鏡反射がなく、目を開いていても、何らかの理由で瞳孔が検出できないときにも、それを補うことができる。
(4)瞳孔の検出率を向上させる場合に、一度瞳孔を検出したら、その周囲の小さなウインドウを与え、次のフレームでは、そのウインドウの内部だけを探索し瞳孔を検出する方法が有効である。すばやい瞳孔の動きに対応するためには、前のフレームとさらにその前のフレームの瞳孔位置から、現在のフレームにおける瞳孔位置を予測し、ウインドウを与えることによって、瞳孔の検出率は飛躍的に向上する。一台のカメラのみの場合には、目が開いているにもかかわらず瞳孔が検出できなくなった場合、ウインドウを解除するか、ウインドウを大きくして瞳孔を検出するしかない。しかし、ウインドウを大きくすれば、その分、誤って瞳孔以外の部分を瞳孔として検出する可能性が高くなり、正しい瞳孔検出率が低下する。2台のカメラを用い、両者の距離をあまり大きくしなければ、両者のカメラによって左右の瞳孔の位置関係はほぼ同じであるため、片方のカメラ画像での瞳孔のフレーム間移動量は、もう片方のカメラのそれとあまり変らない。そこで、瞳孔が検出されているほうのカメラ画像内での瞳孔移動と同等の瞳孔移動が、瞳孔が検出されなかったカメラ画像内においても起こっているとして、その移動量にあわせて動的ウインドウをしばらくの間(数フレーム間)与え続ける。その間に、眼鏡反射像が瞳孔像を通り抜けて、再度、そのウインドウ内で検出できれば、カーソルは何事もなかったかのように正常に移動することになる。このように、2台のカメラから得られる左右の瞳孔の対応付け(マッチング)が容易であるので、眼鏡反射などが理由で、目を開いているにもかかわらず瞳孔が検出できなかったときに、有効である。
2 カメラ開口
3 カメラ開口に近い光源
4 カメラ開口から遠い光源
5 発光ダイオード(LED)
6 光源
7 眼鏡レンズ
8 角膜
9 瞳孔
10 眼鏡反射
11 バンドパスフィルター
Claims (6)
- 1台のビデオカメラ(1)と、該ビデオカメラの開口部に近い第1の光源(3)と、該開口部から遠い第2の光源(4)と、前記第1及び第2の光源をビデオカメラのフィールドまたはフレームに同期させて交互に点灯させる光源制御手段と、各点灯時期に得られる画像の差分から瞳孔を検出する検出手段とからなる撮像システムをN(但しNはN>1の整数)セット設け、これらのセット間において光源の波長を異ならせるとともに、それぞれのビデオカメラに各光源の波長に対応したバンドパスフィルタを設けてなる瞳孔検出装置。
- 1台のビデオカメラ(1)と、該ビデオカメラの開口部に近い第1の光源(3)と、該開口部から遠い第2の光源(4)と、前記第1及び第2の光源をビデオカメラのフィールドまたはフレームに同期させて交互に点灯させる光源制御手段と、各点灯時期に得られる画像の差分から瞳孔を検出する検出手段とからなる撮像システムをN(但しNはN>1の整数)セット設け、これらのセット間において光源の発光時期を異ならせるとともに、それぞれのビデオカメラに各光源の発光時期に対応したシャッタ機能を設けてなる瞳孔検出装置。
- 眼鏡やサングラス等を装着している被験者の撮影画像において、どちらか一方のカメラの画像において光源の眼鏡反射のために瞳孔が検出できない場合であって、他方のカメラの画像において瞳孔が検出できるときに、その画像を利用して、瞳孔検出を行う検出制御手段を備えてなる請求項1または請求項2記載の瞳孔検出装置。
- 前記ビデオカメラは被験者の両瞳孔を撮影し得る画角とし、両カメラ画像からの左右の瞳孔の有無の情報が一致しないときは、検出ができているほうのカメラ画像の瞳孔の移動に合わせて、瞳孔が検出されるようになるまで、瞳孔位置を予測しながら瞳孔抽出用のウインドウを与え続け、両方の画像において、左右のうち同一の瞳孔が検出できなくなったとき初めて、それに相当する側の目が閉じたと判断する判断手段を備えてなる請求項3記載の瞳孔検出装置。
- 前記検出制御手段は、左右の目の開閉をポインティングデバイスの左右の押しボタンスイッチの押下状態情報に対応させる機能を有する請求項3記載の瞳孔検出装置。
- 前記検出制御手段は、得られた瞳孔位置からディスプレイ上のカーソル位置を制御する信号を作成する機能を有する請求項3記載の瞳孔検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004365546A JP4491604B2 (ja) | 2004-12-17 | 2004-12-17 | 瞳孔検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004365546A JP4491604B2 (ja) | 2004-12-17 | 2004-12-17 | 瞳孔検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006167256A true JP2006167256A (ja) | 2006-06-29 |
JP4491604B2 JP4491604B2 (ja) | 2010-06-30 |
Family
ID=36668592
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004365546A Active JP4491604B2 (ja) | 2004-12-17 | 2004-12-17 | 瞳孔検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4491604B2 (ja) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008125619A (ja) * | 2006-11-17 | 2008-06-05 | National Univ Corp Shizuoka Univ | 瞳孔検出装置及び瞳孔検出方法 |
JP2008246004A (ja) * | 2007-03-30 | 2008-10-16 | National Univ Corp Shizuoka Univ | 瞳孔検出方法 |
JP2010020619A (ja) * | 2008-07-11 | 2010-01-28 | National Univ Corp Shizuoka Univ | カーソル移動制御方法及びカーソル移動制御装置 |
JP2012137970A (ja) * | 2010-12-27 | 2012-07-19 | Casio Comput Co Ltd | 情報処理装置及び方法、並びにプログラム |
JP2012210257A (ja) * | 2011-03-30 | 2012-11-01 | Fujitsu Ltd | 視線検出装置、視線検出方法および視線検出プログラム |
JP2012217524A (ja) * | 2011-04-05 | 2012-11-12 | Nippon Hoso Kyokai <Nhk> | 視線測定装置および視線測定プログラム |
KR101419676B1 (ko) * | 2013-02-19 | 2014-07-16 | 주식회사 슈프리마 | 인식 성능이 개선된 객체 인식 장치 |
WO2016031666A1 (ja) * | 2014-08-29 | 2016-03-03 | アルプス電気株式会社 | 視線検出装置 |
JP2016511043A (ja) * | 2013-03-01 | 2016-04-14 | ボストン サイエンティフィック サイムド,インコーポレイテッドBoston Scientific Scimed,Inc. | 血管内超音波シーケンスにおける管腔境界検出のためのシステム及び方法 |
WO2017013913A1 (ja) * | 2015-07-17 | 2017-01-26 | ソニー株式会社 | 視線検出装置、アイウェア端末、視線検出方法及びプログラム |
EP3158921A1 (en) | 2015-10-23 | 2017-04-26 | Fujitsu Limited | Line of sight detection system and method |
EP3207861A2 (en) | 2016-02-22 | 2017-08-23 | Fujitsu Limited | Detection system and detection method |
WO2017179938A1 (ko) * | 2016-04-15 | 2017-10-19 | 이문기 | 눈 촬영 장치 |
WO2017217026A1 (ja) * | 2016-06-16 | 2017-12-21 | アルプス電気株式会社 | 角膜中心検出装置および視線検出装置 |
EP3284395A1 (en) | 2016-08-10 | 2018-02-21 | Fujitsu Limited | Line-of-sight detection device, line-of-sight detection method, and line-of-sight detection program |
CN108451546A (zh) * | 2012-08-17 | 2018-08-28 | 三星电子株式会社 | 用于医学的激光互锁*** |
JP2019017491A (ja) * | 2017-07-12 | 2019-02-07 | 国立大学法人静岡大学 | 画像特徴追跡方法、視線追跡方法及び注視点追跡方法 |
JP2019103664A (ja) * | 2017-12-13 | 2019-06-27 | オムロン株式会社 | 状態推定装置とその方法およびプログラム |
CN117523650A (zh) * | 2024-01-04 | 2024-02-06 | 山东大学 | 基于旋转目标检测的眼球运动追踪方法及*** |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5912351B2 (ja) | 2011-09-05 | 2016-04-27 | 国立大学法人浜松医科大学 | 自閉症診断支援システム及び自閉症診断支援装置 |
JP5926210B2 (ja) | 2012-03-21 | 2016-05-25 | 国立大学法人浜松医科大学 | 自閉症診断支援システム及び自閉症診断支援装置 |
JP6327753B2 (ja) | 2013-05-08 | 2018-05-23 | 国立大学法人静岡大学 | 瞳孔検出用光源装置、瞳孔検出装置及び瞳孔検出方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02193641A (ja) * | 1989-01-23 | 1990-07-31 | Nippon Telegr & Teleph Corp <Ntt> | 注視方向検出方法 |
JPH07229714A (ja) * | 1994-02-15 | 1995-08-29 | Nissan Motor Co Ltd | 車両用視線方向計測装置 |
JPH105178A (ja) * | 1996-06-26 | 1998-01-13 | Nissan Motor Co Ltd | 視線入力装置 |
JPH11212715A (ja) * | 1998-01-29 | 1999-08-06 | Shimadzu Corp | 視線入力装置 |
JP2004261598A (ja) * | 2003-02-28 | 2004-09-24 | Agilent Technol Inc | 瞳孔検知装置及び方法 |
JP2005521146A (ja) * | 2002-03-26 | 2005-07-14 | 本田技研工業株式会社 | さまざまな光線条件下におけるリアルタイムの目の検知および追跡 |
-
2004
- 2004-12-17 JP JP2004365546A patent/JP4491604B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02193641A (ja) * | 1989-01-23 | 1990-07-31 | Nippon Telegr & Teleph Corp <Ntt> | 注視方向検出方法 |
JPH07229714A (ja) * | 1994-02-15 | 1995-08-29 | Nissan Motor Co Ltd | 車両用視線方向計測装置 |
JPH105178A (ja) * | 1996-06-26 | 1998-01-13 | Nissan Motor Co Ltd | 視線入力装置 |
JPH11212715A (ja) * | 1998-01-29 | 1999-08-06 | Shimadzu Corp | 視線入力装置 |
JP2005521146A (ja) * | 2002-03-26 | 2005-07-14 | 本田技研工業株式会社 | さまざまな光線条件下におけるリアルタイムの目の検知および追跡 |
JP2004261598A (ja) * | 2003-02-28 | 2004-09-24 | Agilent Technol Inc | 瞳孔検知装置及び方法 |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008125619A (ja) * | 2006-11-17 | 2008-06-05 | National Univ Corp Shizuoka Univ | 瞳孔検出装置及び瞳孔検出方法 |
JP2008246004A (ja) * | 2007-03-30 | 2008-10-16 | National Univ Corp Shizuoka Univ | 瞳孔検出方法 |
JP2010020619A (ja) * | 2008-07-11 | 2010-01-28 | National Univ Corp Shizuoka Univ | カーソル移動制御方法及びカーソル移動制御装置 |
JP2012137970A (ja) * | 2010-12-27 | 2012-07-19 | Casio Comput Co Ltd | 情報処理装置及び方法、並びにプログラム |
JP2012210257A (ja) * | 2011-03-30 | 2012-11-01 | Fujitsu Ltd | 視線検出装置、視線検出方法および視線検出プログラム |
JP2012217524A (ja) * | 2011-04-05 | 2012-11-12 | Nippon Hoso Kyokai <Nhk> | 視線測定装置および視線測定プログラム |
CN108451546A (zh) * | 2012-08-17 | 2018-08-28 | 三星电子株式会社 | 用于医学的激光互锁*** |
KR101419676B1 (ko) * | 2013-02-19 | 2014-07-16 | 주식회사 슈프리마 | 인식 성능이 개선된 객체 인식 장치 |
JP2016511043A (ja) * | 2013-03-01 | 2016-04-14 | ボストン サイエンティフィック サイムド,インコーポレイテッドBoston Scientific Scimed,Inc. | 血管内超音波シーケンスにおける管腔境界検出のためのシステム及び方法 |
CN106793944A (zh) * | 2014-08-29 | 2017-05-31 | 阿尔卑斯电气株式会社 | 视线检测装置 |
JPWO2016031666A1 (ja) * | 2014-08-29 | 2017-06-22 | アルプス電気株式会社 | 視線検出装置 |
WO2016031666A1 (ja) * | 2014-08-29 | 2016-03-03 | アルプス電気株式会社 | 視線検出装置 |
JPWO2017014137A1 (ja) * | 2015-07-17 | 2018-04-26 | ソニー株式会社 | 眼球観察装置、アイウェア端末、視線検出方法及びプログラム |
WO2017013913A1 (ja) * | 2015-07-17 | 2017-01-26 | ソニー株式会社 | 視線検出装置、アイウェア端末、視線検出方法及びプログラム |
WO2017014137A1 (ja) * | 2015-07-17 | 2017-01-26 | ソニー株式会社 | 眼球観察装置、アイウェア端末、視線検出方法及びプログラム |
EP3158921A1 (en) | 2015-10-23 | 2017-04-26 | Fujitsu Limited | Line of sight detection system and method |
EP3207861A2 (en) | 2016-02-22 | 2017-08-23 | Fujitsu Limited | Detection system and detection method |
WO2017179938A1 (ko) * | 2016-04-15 | 2017-10-19 | 이문기 | 눈 촬영 장치 |
WO2017217026A1 (ja) * | 2016-06-16 | 2017-12-21 | アルプス電気株式会社 | 角膜中心検出装置および視線検出装置 |
EP3284395A1 (en) | 2016-08-10 | 2018-02-21 | Fujitsu Limited | Line-of-sight detection device, line-of-sight detection method, and line-of-sight detection program |
US10152633B2 (en) | 2016-08-10 | 2018-12-11 | Fujitsu Limited | Line-of-sight detection device and line-of-sight detection method |
JP2019017491A (ja) * | 2017-07-12 | 2019-02-07 | 国立大学法人静岡大学 | 画像特徴追跡方法、視線追跡方法及び注視点追跡方法 |
JP7116978B2 (ja) | 2017-07-12 | 2022-08-12 | 国立大学法人静岡大学 | 画像特徴追跡方法、視線追跡方法及び注視点追跡方法 |
JP2019103664A (ja) * | 2017-12-13 | 2019-06-27 | オムロン株式会社 | 状態推定装置とその方法およびプログラム |
CN117523650A (zh) * | 2024-01-04 | 2024-02-06 | 山东大学 | 基于旋转目标检测的眼球运动追踪方法及*** |
CN117523650B (zh) * | 2024-01-04 | 2024-04-02 | 山东大学 | 基于旋转目标检测的眼球运动追踪方法及*** |
Also Published As
Publication number | Publication date |
---|---|
JP4491604B2 (ja) | 2010-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4491604B2 (ja) | 瞳孔検出装置 | |
US11917126B2 (en) | Systems and methods for eye tracking in virtual reality and augmented reality applications | |
JP6930223B2 (ja) | 瞳孔検出用コンピュータプログラム、瞳孔検出装置及び瞳孔検出方法 | |
JP6577454B2 (ja) | 軸上視線追跡システム及び方法 | |
US9473696B2 (en) | Gaze detection apparatus, gaze detection computer program, and display apparatus | |
US9411417B2 (en) | Eye gaze tracking system and method | |
TWI704501B (zh) | 可由頭部操控的電子裝置與其操作方法 | |
JP4951751B2 (ja) | 瞳孔検出に基づくポインティング装置及び方法 | |
US20110170060A1 (en) | Gaze Tracking Using Polarized Light | |
US10311583B2 (en) | Eye motion detection method, program, program storage medium, and eye motion detection device | |
US10061384B2 (en) | Information processing apparatus, information processing method, and program | |
WO2017203815A1 (ja) | 情報処理装置、情報処理方法および記録媒体 | |
JP6870474B2 (ja) | 視線検出用コンピュータプログラム、視線検出装置及び視線検出方法 | |
JP4839432B2 (ja) | 瞳孔位置検出によるポインティング装置及び方法 | |
JP2018205819A (ja) | 注視位置検出用コンピュータプログラム、注視位置検出装置及び注視位置検出方法 | |
US20220012922A1 (en) | Information processing apparatus, information processing method, and computer readable medium | |
Lander et al. | hEYEbrid: A hybrid approach for mobile calibration-free gaze estimation | |
KR20200043786A (ko) | 화면 제어 방법 및 표시 장치 | |
JP4313717B2 (ja) | 視線検出装置 | |
EP3346368B1 (en) | Device, method and system for control of a target apparatus | |
JP2005261728A (ja) | 視線方向認識装置及び視線方向認識プログラム | |
JP4568836B2 (ja) | 実時間瞳孔位置検出システム | |
JP2015046111A (ja) | 視点検出装置および視点検出方法 | |
JPH09212082A (ja) | 視線入力装置 | |
WO2005059736A1 (ja) | 瞳孔検出によるポインタ制御装置及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070316 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20070316 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100309 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |