JP4537901B2 - 視線測定装置および視線測定プログラム、ならびに、視線校正データ生成プログラム - Google Patents

視線測定装置および視線測定プログラム、ならびに、視線校正データ生成プログラム Download PDF

Info

Publication number
JP4537901B2
JP4537901B2 JP2005205635A JP2005205635A JP4537901B2 JP 4537901 B2 JP4537901 B2 JP 4537901B2 JP 2005205635 A JP2005205635 A JP 2005205635A JP 2005205635 A JP2005205635 A JP 2005205635A JP 4537901 B2 JP4537901 B2 JP 4537901B2
Authority
JP
Japan
Prior art keywords
keyword
line
sight
calibration data
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005205635A
Other languages
English (en)
Other versions
JP2007025963A (ja
Inventor
康仁 澤畠
一晃 小峯
寿哉 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
NHK Engineering System Inc
Original Assignee
NHK Engineering Services Inc
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NHK Engineering Services Inc, Japan Broadcasting Corp filed Critical NHK Engineering Services Inc
Priority to JP2005205635A priority Critical patent/JP4537901B2/ja
Publication of JP2007025963A publication Critical patent/JP2007025963A/ja
Application granted granted Critical
Publication of JP4537901B2 publication Critical patent/JP4537901B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、表示装置に表示される映像を視認する利用者の視線を測定するための視線測定装置および視線測定プログラム、ならびに、視線校正データ生成プログラムに関する。
現在、人の視線を測定して、コンピュータの表示装置に表示されるメニュー、アイコン等を、その視線によって選択、操作するインタフェース(視線インタフェース)に関する技術が種々提案されている。このようなインタフェース技術の前提として、視線を測定するための視線測定装置が必要となる。
この視線測定装置としては、眼球に赤外線光を照射し当該眼球を撮影した画像から瞳孔中心と、赤外線光の角膜表面での反射光を示すプルキニエ像とにより視線を測定する技術が開示されている(特許文献1参照)。
一般に、人(利用者)が表示装置の画面上を注視した位置と、視線測定装置が眼球等の動きにより測定した画面上の位置との間には、眼球形状の個人差等に起因する誤差が存在しているため、視線測定装置では、その誤差を補正するため、キャリブレーション(校正)処理を行っている。
このキャリブレーション処理は、利用者が予め画面上の複数のマーカを順次注視し、その注視した位置と、視線測定装置が眼球等の動きにより測定した位置との位置関係からキャリブレーションデータ(校正データ)を生成しておき、そのキャリブレーションデータによって、利用者の視線を補正する処理である。
なお、従来、利用者が最低2点のマーカを注視することで、キャリブレーション処理を行うことが可能な技術が開示されている(非特許文献1参照)。
特開2003−79577号公報(段落0027〜0041、図1) 大野健彦、他2名「2点補正による簡易キャリブレーションを実現した視線測定システム」、情報処理学会論文誌 Vol.44 No.4 pp.1136−1149、Apr.2003
しかし、一般に、キャリブレーションデータ(校正データ)は、視線測定装置において、オペレータの操作によって表示装置の画面上に複数のマーカを含んだ映像を表示させ、利用者がオペレータから指示されたマーカを注視したことを、オペレータが会話等で確認しながら、視線の測定を行うことで生成される。すなわち、キャリブレーションデータを生成するには、利用者以外のオペレータが必要となり、コンピュータ操作用のパーソナルなインタフェース環境を実現する際の障害となっている。
なお、利用者が、キーボード等の入力装置を用い、マーカを含んだ映像を画面上に表示させ、注視するマーカの位置を順次変更することで、利用者が一人で視線の測定を行うことは可能である。しかし、注視するマーカの位置を特定する際に視線測定装置の操作を行う必要があるため、入力装置を常に手元に置いておく必要があったり、その操作のために視線を画面から外さなければならなかったりと、キャリブレーションデータの生成に手間がかかるという問題がある。
さらに、従来の視線測定装置は、キャリブレーションデータを生成する際に、複数のマーカを含んだ専用の映像を表示装置に表示させる必要があるため、その準備作業が必要となる。例えば、コンピュータのインタフェースとして視線測定装置を使用する際に、キャリブレーションデータを再度調整したい場合や、コンピュータの利用者が代わるといった場合に、再度準備作業を行わねばならないため、コンピュータを視線インタフェースによって利用するまでに時間がかかってしまうという問題がある。
本発明は、以上のような問題点に鑑みてなされたものであり、オペレータを伴わずに利用者が一人で容易にキャリブレーションを行うことが可能で、さらに、複数のマーカを含んだ専用の映像を用いなくてもキャリブレーションを行うことが可能な視線測定装置および視線測定プログラム、ならびに、視線校正データ生成プログラムを提供することを目的とする。
本発明は、前記目的を達成するために創案されたものであり、まず、請求項1に記載の視線測定装置は、表示装置の画面を視認する利用者の視線を測定する視線測定装置において、キーワード記憶手段と、オブジェクト検出手段と、キーワード登録制御手段と、音声認識手段と、キーワード検出手段と、校正データ生成手段と、視線校正手段とを備える構成とした。
かかる構成において、視線測定装置は、キーワード記憶手段に画面上に表示される映像内の注視対象となるオブジェクトを特定するキーワードを記憶する。そして、視線測定装置は、オブジェクト検出手段によって、映像内からオブジェクトを検出し、その位置を特定する。
なお、視線測定装置は、キーワード登録制御手段によって、オブジェクト検出手段でオブジェクトが検出された段階で、そのオブジェクトに予め設定されているキーワードをキーワード記憶手段に登録する。また、オブジェクトが未検出となった段階で、そのオブジェクトに予め設定されているキーワードのキーワード記憶手段における登録を削除する。
これによって、キーワード記憶手段に登録されているキーワードに対応するオブジェクトのみが現在画面上に表示されていることとなる。
そして、視線測定装置は、音声認識手段によって、利用者が発する音声を認識する。そして、視線測定装置は、キーワード検出手段によって、音声認識手段で認識された認識結果に、キーワードが含まれているか否かを検出する。ここで、視線測定装置は、音声認識結果にキーワードが含まれている場合に、利用者がオブジェクトを注視している状態であるとみなす。
このように、利用者がオブジェクトを注視している状態で、視線測定装置は、校正データ生成手段によって、利用者が注視しているオブジェクトの位置に基づいて、視線を校正する校正データを生成する。そして、視線測定装置は、視線校正手段によって、校正データを参照して、視線を校正する。
さらに、請求項に記載の視線測定装置は、請求項に記載の視線測定装置において、前記オブジェクトを特徴付ける特徴量と前記キーワードとを対応付けて記憶するオブジェクト情報記憶手段を備え、前記オブジェクト検出手段が、前記オブジェクト情報記憶手段に記憶されている特徴量に基づいて、前記映像から前記オブジェクトを検出する構成とした。
かかる構成において、視線測定装置は、予めオブジェクト情報記憶手段に、オブジェクトを特徴付ける特徴量とキーワードとを対応付けて記憶しておく。この特徴量は、画像処理によってオブジェクトを認識可能なものであればどのような量であってもよく、例えば、色、形状、明るさ等である。
この特徴量を用いることで、オブジェクト検出手段は、映像内からオブジェクトを検出することが可能になる。
また、請求項に記載の視線測定装置は、請求項に記載の視線測定装置において、前記オブジェクト検出手段が、前記オブジェクトの位置と前記キーワードとを前記映像の時間区間に対応付けて記述したメタデータに基づいて、前記オブジェクトを検出する構成とした。
かかる構成において、視線測定装置は、オブジェクト検出手段によって、メタデータを解析することでオブジェクトの検出を行う。このメタデータには、映像内のどの時間区間にオブジェクトがどの位置に表示され、また、そのオブジェクトのキーワードが何であるのかを記述しておく。これによって、オブジェクト検出手段は、ある時間にオブジェクトが画面上のどの位置に表示されているのかを認識することができる。
また、メタデータによって、オブジェクトにキーワードが対応付けられているため、当該オブジェクトの出現に対応して、キーワード登録制御手段が、キーワードの登録または登録の削除を行う。
さらに、請求項に記載の視線測定プログラムは、表示装置の画面を視認する利用者の視線を測定するために、コンピュータを、基準位置特定手段、オブジェクト検出手段、キーワード登録制御手段、音声認識手段、キーワード検出手段、校正データ生成手段、視線校正手段として機能させる構成とした。
かかる構成において、視線測定プログラムは、基準位置特定手段によって、光を照射された利用者の眼球を含んだ眼球画像から瞳孔中心の位置および角膜反射点の位置を特定する。なお、瞳孔の位置は、利用者がオブジェクトを注視する際の視線によって眼球内で変化するが、角膜反射点は眼球内で変化しないため、眼球内において基準となる位置を示すことになる。
そして、視線測定プログラムは、オブジェクト検出手段によって、画面上に表示される映像内の注視対象となるオブジェクトを映像内から検出する。また、視線測定プログラムは、キーワード登録制御手段によって、オブジェクト検出手段でオブジェクトが検出されるか否かによって、キーワード記憶手段においてオブジェクトを特定するキーワードの登録または登録の削除を行う。
そして、視線測定プログラムは、音声認識手段によって、利用者が発する音声を認識する。そして、視線測定プログラムは、キーワード検出手段によって、音声認識手段で認識された認識結果に、キーワード記憶手段に登録されているキーワードが含まれているか否かを検出する。
さらに、視線測定プログラムは、校正データ生成手段によって、利用者が注視しているオブジェクトの位置により、視線を校正する校正データを生成する。そして、視線測定プログラムは、視線校正手段によって、校正データを参照して、視線を校正する。これによって、実際に利用者が画面を注視する視線を測定することが可能になる。
また、請求項に記載の視線校正データ生成プログラムは、表示装置の画面を視認する利用者の視線を校正する校正データを生成するために、コンピュータを、基準位置特定手段、オブジェクト検出手段、キーワード登録制御手段、音声認識手段、キーワード検出手段、校正データ生成手段として機能させる構成とした。
かかる構成において、視線校正データ生成プログラムは、基準位置特定手段によって、光を照射された利用者の眼球を含んだ眼球画像から瞳孔中心の位置および角膜反射点の位置を特定する。
そして、視線測定プログラムは、オブジェクト検出手段によって、画面上に表示される映像内の注視対象となるオブジェクトを映像内から検出する。また、視線測定プログラムは、キーワード登録制御手段によって、オブジェクト検出手段でオブジェクトが検出されるか否かによって、キーワード記憶手段においてオブジェクトを特定するキーワードの登録または登録の削除を行う。
そして、視線校正データ生成プログラムは、音声認識手段によって、利用者が発する音声を認識する。そして、視線校正データ生成プログラムは、キーワード検出手段によって、音声認識手段で認識された認識結果に、キーワード記憶手段に登録されているキーワードが含まれているか否かを検出する。
さらに、視線校正データ生成プログラムは、校正データ生成手段によって、利用者が注視しているオブジェクトの位置により、視線を校正する校正データを生成する。この校正データは、視線とオブジェクトの位置がどれだけずれているのかを示す指標である。
本発明は、以下に示す優れた効果を奏するものである。
請求項1または請求項に記載の発明によれば、利用者が映像内のオブジェクトを注視し、そのオブジェクトに対応するキーワードを発声することで、利用者の視線を校正した視線測定を行うことができる。これによって、本発明は、オペレータを伴わずに利用者が一人で容易に校正(キャリブレーション)を行うことができ、コンピュータ操作用のパーソナルなインタフェース環境を実現することが可能になる。
請求項に記載の発明によれば、映像内から特徴量に基づいてオブジェクトを検出することができるため、マーカを含んだキャリブレーション専用の映像を用いる必要はなく、そのための準備作業を行う必要もない。このため、利用者は、コンテンツを視認しているときにいつでも校正を行うことができる。また、コンピュータ操作用のパーソナルなインタフェース環境において、利用者が代わる場合であっても、すぐに校正を行うことができ、コンピュータ操作を可能とするまでの時間を短縮することができる。
請求項に記載の発明によれば、メタデータによって、映像内からオブジェクトを検出することができ、一般的な映像であってもオブジェクトの位置を特定することができる。このため、利用者は、マーカを含んだキャリブレーション専用の映像を画面上に表示させる必要がないため、コンテンツを視認しているときにいつでも校正を行うことができる。また、本発明によれば、メタデータによるテキスト情報によって、オブジェクトの検出を行うため、画像処理等の複雑な処理を行う必要がない。このため、装置にかかる負荷を抑えることができるとともに、高速に視線の測定を行うことができる。
請求項に記載の発明によれば、利用者が映像内のオブジェクトを注視し、そのオブジェクトの対応するキーワードを発声することで、利用者の視線を校正する校正データを生成することができる。これによって、本発明は、オペレータを伴わずに利用者が一人で容易に校正を行うことができる。
以下、本発明の実施の形態について図面を参照して説明する。
[視線測定装置の概要]
最初に、図1を参照して、本発明に係る視線測定装置の概要について説明する。図1は、本発明に係る視線測定装置の概要を説明するための説明図である。
図1に示すように、視線測定装置1は、表示装置Dの画面を利用者Hが注視したときの、利用者Hの視線を測定するものである。なお、視線測定装置1は、視線測定を行う際のキャリブレーション(校正)を、利用者Hの発話によって行うことを特徴とする。
すなわち、視線測定装置1は、表示装置Dの画面上に注視の対象となるオブジェクト(注視対象物)を含んだ映像(コンテンツ)を表示させ、利用者HがマイクMを介して発した音声によってどのオブジェクトを注視しているのかを特定し、利用者Hの視線をオブジェクトの位置に基づいて校正する。例えば、図1では、視線測定装置1は、表示装置Dの画面上にオブジェクトを複数(ここでは、星印、丸印の2つ)表示し、利用者Hが「星印」を注視した後、「星で校正」と発話する。そして、視線測定装置1は、利用者Hの視線と実際の「星印」の位置との差を解析することで、視線を校正するための校正データを生成する。そして、2点以上のオブジェクトで校正データを生成した後、視線測定装置1は、利用者Hの視線を校正データによって逐次校正する。
なお、利用者Hの視線は、例えば、強膜反射法、角膜反射法、瞳孔−角膜反射法等の一般的な技術により求めることができ、ここでは、視線測定装置1は、瞳孔−角膜反射法によって、発光手段(LED)Lから発光する赤外線が、利用者Hの眼球で反射した状態をカメラCで撮影した画像(眼球画像)から求めることとする。また、視線は、画面上の注視点、あるいは、利用者の眼球の瞳孔から画面上の注視点へのベクトル(視線ベクトル)であってもよいが、以降の説明では、注視点を示すこととする。
以下、視線測定装置1の具体的な構成および動作について説明を行う。
[視線測定装置の構成]
まず、図2を参照(適宜図1参照)して、視線測定装置の具体的な構成について説明する。図2は、本発明に係る視線測定装置の構成を示すブロック図である。
図2に示すように、視線測定装置1は、音声認識手段11と、キーワード記憶手段12と、キーワード検出手段13と、コンテンツ入力手段14と、コンテンツ出力手段15と、オブジェクト情報記憶手段16と、オブジェクト検出手段17と、キーワード登録制御手段18と、基準位置特定手段19と、校正データ生成手段20と、校正データ記憶手段21と、視線算出手段22と、視線校正手段23とを備えている。なお、視線測定装置1には、利用者の音声を入力する音声入力手段としてのマイクMと、利用者の眼球画像を撮影する撮影手段としての発光手段LとカメラCとが接続されている。
音声認識手段11は、利用者が発する音声を、マイクMにより入力して認識するものである。この音声認識手段11は、一般的な音声認識技術を用いることができる。例えば、音声認識手段11は、入力された音声信号をA/D変換し、LPC(線形予測)法等により音声分析を行うことで、音声信号から音響的特徴パラメータを抽出する。そして、音声認識手段11は、時系列の音響的特徴パラメータを、隠れマルコフモデル(HMM:Hidden Markov Model)によりモデル化し、統計的言語モデル(Nグラムモデル等)を参照することで、音声を文字列である音声データに変換する。この音声認識手段11で認識された音声データは、キーワード検出手段13に出力される。
キーワード記憶手段12は、表示装置Dの画面上に表示されるコンテンツ(映像)内に含まれる注視対象となるオブジェクトを特定するためのキーワードを記憶するものであって、RAM(Random Access Memory)等の一般的な記憶手段である。このキーワード記憶手段12は、表示装置Dの画面上に表示されるコンテンツ(映像)内に、オブジェクトが表示されている間、そのオブジェクトに対応するキーワードのみを記憶する。なお、このキーワードは、後記するキーワード登録制御手段18によって、登録(記録)され、または、その登録が削除される。
なお、キーワード記憶手段12には、オブジェクトを直接特定するキーワード以外に、オブジェクトを検索するための方向を特定するキーワードを予め記憶しておくこととしてもよい。例えば、「上」、「下」、「左」、「右」等である。
キーワード検出手段13は、音声認識手段11で認識された音声データが、キーワード記憶手段12に記憶されているか否かを検出するものである。このキーワード検出手段13は、キーワード記憶手段12に音声データがキーワードとして記憶されていることを検出した場合は、その旨をキーワード検出通知として、オブジェクト検出手段17に出力する。
なお、キーワード検出手段13は、音声データに含まれる名詞または名詞句がキーワードと同一であるか否かでキーワードを検出することが望ましい。例えば、利用者が発声した「星で校正」という音声である場合、名詞である「星」がキーワード記憶手段12に記憶されているか否かを検出する。
また、キーワード記憶手段12に方向を示すキーワードを記憶している場合、キーワード検出手段13は、例えば、利用者が「右の星で校正」と発声することで、当該音声に含まれるキーワードである「右」および「星」を検出する。そして、方向を示すキーワードが検出された場合、キーワード検出手段13は、キーワード検出通知に方向を示す情報を付加して、オブジェクト検出手段17に出力する。
コンテンツ入力手段14は、外部からコンテンツを映像のストリームデータとして入力し、オブジェクト検出手段17に出力するものである。
コンテンツ出力手段15は、オブジェクト検出手段17から出力されるコンテンツを外部(表示装置D)に出力するものである。
なお、コンテンツ入力手段14に入力されるコンテンツが、当該視線測定装置1に入力される前段で、すでに表示装置Dに分岐されている場合は、コンテンツ出力手段15を構成から省略することができる。
オブジェクト情報記憶手段16は、オブジェクトを特徴付ける特徴量とキーワードとを予め対応付け、オブジェクト情報として記憶するものであって、ハードディスク等の一般的な記憶手段である。
この特徴量は、一般的な映像の特徴量を用いることができる。例えば、オブジェクトの色に特徴がある場合は、オブジェクト領域内の各画素の色ベクトルを平均化した平均色ベクトル等、オブジェクトの形状に特徴がある場合は、オブジェクトを囲む外接矩形の面積等である。
オブジェクト検出手段17は、オブジェクト情報記憶手段16に記憶されているオブジェクトごとの特徴量に基づいて、コンテンツ入力手段14から入力されたコンテンツにおいてオブジェクトを検出するものである。なお、オブジェクト検出手段17は、図示を省略したメモリを備え、コンテンツをフレームごとに記憶し、このフレーム単位でオブジェクトを検出する。
また、オブジェクト検出手段17は、コンテンツからオブジェクトを検出した段階で、その旨をオブジェクト検出通知としてキーワード登録制御手段18に出力し、その後、オブジェクトが検出されなくなった段階で、その旨をオブジェクト非検出通知としてキーワード登録制御手段18に出力する。
なお、オブジェクト検出手段17は、図示を省略したメモリに、オブジェクトを検出したか否かを示す状態を内部状態として記憶しておくこととする。このように、状態を記憶しておくことで、オブジェクト検出手段17は、オブジェクトの検出と未検出との状態変化を認識することができる。
さらに、オブジェクト検出手段17は、キーワード検出手段13から、キーワード検出通知を入力された段階で、すなわち、利用者が、キーワードを発声した段階で、検出したキーワードに対応するオブジェクトの位置を校正データ生成手段20に出力する。
なお、オブジェクト検出手段17は、キーワード検出手段13から、方向を示す情報が通知された場合は、複数のオブジェクトの中から、当該方向に該当するオブジェクトを検出することとする。例えば、キーワードとして「右」が発声された場合、オブジェクト検出手段17は、複数のオブジェクトの中から、画面の座標系をXY座標としたときのX座標が最大値となるオブジェクトを注視対象のオブジェクトとして検出する。
キーワード登録制御手段18は、オブジェクト検出手段17でオブジェクトが検出されるか否かによって、キーワード記憶手段12にキーワードを登録したり、キーワード記憶手段12からキーワードを削除したりするものである。
すなわち、キーワード登録制御手段18は、オブジェクト検出手段17からオブジェクト検出通知が入力された段階で、オブジェクト情報記憶手段16に記憶されている当該オブジェクトに対応するキーワードを読み出して、キーワード記憶手段12に登録(記録)する。また、キーワード登録制御手段18は、オブジェクト検出手段17からオブジェクト非検出通知が入力された段階で、当該オブジェクトに対応するキーワードをキーワード記憶手段12から削除する。
これによって、表示装置Dの画面上にキーワードの対象となるオブジェクトが表示されている間だけ、キーワードがキーワード記憶手段12に記憶されることになる。
基準位置特定手段19は、カメラCで撮影された眼球画像から瞳孔中心の位置および特定の基準位置を特定するものである。なお、眼球画像は、赤外線光を発光する発光手段(LED)Lによって、赤外線光が照射された利用者の眼球を撮影した画像である。また、ここでは、眼球の角膜表面で反射した光として眼球画像上に表れる角膜反射像(プルキニエ像)の中心を、特定の基準位置とする。
この基準位置特定手段19は、一般的な画像処理技術により、眼球画像から瞳孔中心と角膜反射点とを特定する。例えば、基準位置特定手段19は、瞳孔が他の領域よりも輝度が低い領域を探索することで瞳孔を検出し、その中心(重心)を瞳孔中心とする。また、基準位置特定手段19は、瞳孔中心から所定範囲内(例えば、眼球の虹彩内)で、他の領域よりも輝度が高い領域を探索することで角膜反射像を探索し、その中心(重心)を角膜反射点とする。
なお、基準位置特定手段19で特定された瞳孔中心および角膜反射点は、校正データ生成手段20および視線算出手段22に出力される。
校正データ生成手段20は、オブジェクト検出手段17で検出されたオブジェクトの位置と、基準位置特定手段19で特定された瞳孔中心および角膜反射点とを対応付けることで、視線(注視点)を校正する校正データを生成するものである。
すなわち、校正データ生成手段20は、利用者が画面上のオブジェクトの位置を注視していると仮定したときの、瞳孔中心と角膜反射点との差を校正データ(キャリブレーションデータ)として算出(生成)する。
ここで、図3を参照して、校正データについて説明する。図3は、校正データを説明するための説明図である。
図3に示すように、表示装置Dの画面上において、オブジェクトOがXY座標系において座標P(X1,Y1)の位置に表示されているとする。このとき、このオブジェクトOを注視している利用者の眼球画像Gのxy座標系において、瞳孔中心Qと角膜反射点Rとの差が、x座標でx1、y座標でy1であったとする。
このとき、座標P(X1,Y1)と、瞳孔中心Qと角膜反射点Rとの差の対(x1,y1)とを対応付ける。この対応付けをオブジェクトOの異なる2点以上で行うことで、校正データが生成されることになる。
図2に戻って、視線測定装置1の構成について説明を続ける。
校正データ記憶手段21は、校正データ生成手段20で生成された校正データを記憶するものであって、半導体メモリ等の一般的な記憶手段である。なお、校正データ記憶手段21は、FIFO(First In First Out)バッファとし、予め定めた回数の校正データのみを記憶することとする。例えば、バッファ長を“3”とした場合は、3回分の校正データのみが記憶され、さらに校正データを記憶する場合は、最も古い校正データは削除することとする。これによって、誤った校正データが記憶された場合であっても、再度校正をやり直すことで、正しい校正データが記憶されることになる。この校正データ記憶手段21に記憶された校正データは、後記する視線校正手段23によって参照される。
視線算出手段22は、基準位置特定手段19で特定された瞳孔中心および角膜反射点と、カメラパラメータ(焦点位置、カメラ位置、パン角、チルト角等)とに基づいて、表示装置Dの画面に対する視線である利用者の注視点を算出するものである。なお、注視点は、例えば、眼球画像内の瞳孔中心および角膜反射点から、カメラパラメータに基づいて、眼球中心から視線方向を示す視線ベクトルを求め、その視線ベクトルを既知の位置に配置されている表示装置Dの画面に射影することで求めることができる。
この視線算出手段22で算出された注視点である視線データは、視線校正手段23に出力される。
視線校正手段23は、視線算出手段22で算出された視線データ(注視点)を、校正データ記憶手段21に記憶されている校正データに基づいて校正(補正)するものである。
ここで、図4を参照(構成については、適宜図2参照)して、視線校正手段23における視線データの校正方法について説明する。図4は、視線データの校正方法を説明するための説明図である。
ここでは、ある任意の注視点の座標p(x,y)を、3点(P1、P2、P3)分の校正データに基づいて、座標P(X,Y)に校正する方法について説明する。
なお、校正データとして、座標P1(X1,Y1)に瞳孔中心と角膜反射点との差の対(x1,y1)が対応付けられているものとする。同様に、座標P2(X2,Y2)には(x2,y2)、座標P3(X3,Y3)には(x3,y3)がそれぞれ対応付けられているものとする。
このとき、視線校正手段23は、座標PのX座標を算出する場合、瞳孔中心と角膜反射点とのX軸方向の差が大きいものから順に2点の校正データを使用し、座標PのY座標を算出する場合、瞳孔中心と角膜反射点とのY軸方向の差が大きいものから順に2点の校正データを使用する。
ここでは、X軸方向の差が大きい順にx3、x1、x2(x3>x1>x2)であるものとし、X軸方向の校正については、座標P1および座標P3における校正データを使用することとする。また、ここでは、Y軸方向の差が大きい順にy1、y2、y3(y1>y2>y3)であるものとし、Y軸方向の校正については、座標P1および座標P2における校正データを使用することとする。
具体的には、視線校正手段23は、任意の注視点の座標p(x,y)を、以下の式(1)により、座標P(X,Y)に校正する。
Figure 0004537901
なお、ここでは、3点の校正データのうち、X軸方向およびY軸方向でそれぞれ異なる2点によって校正を行ったが、2点の校正データのみで校正を行うことも可能である。すなわち、校正データは少なくとも2点以上あればよい。
以上、視線測定装置1の構成について説明したが、本発明はこの構成に限定されるものではない。
例えば、予めオブジェクトの位置とキーワードとを時間区間に対応付けて記述したメタデータが付加されたコンテンツを用い、オブジェクト検出手段17が、当該メタデータを解析することで、ある時間にどのオブジェクトが表示装置Dに表示されているのかを認識することで、オブジェクトの検出を行うこととしてもよい。
この場合、オブジェクト検出手段17は、メタデータによってオブジェクトを検出した段階で、同じくメタデータで当該オブジェクトに対応付けられているキーワードを、オブジェクト検出通知とともに、キーワード登録制御手段18に出力する。また、オブジェクト検出手段17は、メタデータによってオブジェクトが検出されなくなった段階で、当該オブジェクトに対応付けられているキーワードを、オブジェクト非検出通知とともに、キーワード登録制御手段18に出力する。
また、この場合、オブジェクト検出手段17は、キーワード検出手段13からキーワード検出通知が入力された段階で、メタデータに記述されているオブジェクトの位置を校正データ生成手段20に出力する。
これによって、視線測定装置1の構成からオブジェクト情報記憶手段16を省略することができる。また、例えば、放送局からメタデータが付加されたコンテンツが送信されることで、利用者は、一般的な映像コンテンツを視聴しながら、視線の校正を行うことができ、当該視線測定装置1を組み込んだテレビ受像機において、視線により操作を行うことが可能になる。
また、視線測定装置1は、入力されるコンテンツからオブジェクトを抽出することとしたが、予めオブジェクトが表示される位置が既知のコンテンツを使用する場合は、図7に示すように、構成を簡略化した視線測定装置1Bとしてもよい。
なお、図7に示した視線測定装置1Bのキーワード記憶手段12Bには、コンテンツに含まれるオブジェクトの位置やキーワードが予め記憶されているものであって、ハードディスク等の一般的な記憶手段である。他の構成については、視線測定装置1と同じものであるため、同一の符号を付し、説明を省略する。
また、視線測定装置1は、一般的なコンピュータを、前記した各手段として機能させるプログラム(視線測定プログラム)で実現することができる。なお、校正データを生成するまでの手順をコンピュータに機能させる視線校正データ生成プログラムとすることも可能である。これらのプログラム(視線測定プログラム、視線校正データ生成プログラム)は、通信回線を介して配布することも可能であるし、CD−ROM等の記録媒体に書き込んで配布することも可能である。
以上説明したように、視線測定装置1は、オペレータを伴わずに、利用者の音声によって視線のキャリブレーションを行うことができ、また、複数のマーカを含んだ専用の映像を用いなくてもキャリブレーションを行うことができる。
[視線測定装置の動作]
次に、図5および図6を参照して、視線測定装置の動作について説明する。図5は、本発明に係る視線測定装置における校正データを生成する動作を示すフローチャートである。図6は、本発明に係る視線測定装置における視線を校正(補正)した視線データを生成する動作を示すフローチャートである。
(校正データ生成動作)
最初に、図5を参照(構成については、適宜図2参照)して、視線測定装置1の校正データを生成する動作について説明する。
まず、視線測定装置1は、コンテンツ入力手段14によって、外部からコンテンツ(映像)を入力する(ステップS1)。
そして、視線測定装置1は、オブジェクト検出手段17によって、オブジェクト情報記憶手段16に記憶されている特徴量に基づいて、コンテンツからオブジェクトの検出を行う(ステップS2)。なお、オブジェクト検出手段17は、内部状態を、予めオブジェクトを検出していない「未検出状態」としておく。
ここで、視線測定装置1は、オブジェクト検出手段17によって、オブジェクトの検出に成功したか否かを判定する(ステップS3)。そして、オブジェクトの検出に成功した場合(ステップS3でYes)、視線測定装置1は、キーワード登録制御手段18によって、検出したオブジェクトに対応するキーワードをオブジェクト情報記憶手段16から読み出して、キーワード記憶手段12に登録(記録)し(ステップS4)、ステップS7に進む。この段階で、オブジェクト検出手段17は、内部状態をオブジェクトが検出された状態を示す「検出状態」とする。なお、ステップS4において、直前(前フレーム)まで同じオブジェクトが検出されていた場合は、すでにキーワード記憶手段12に当該オブジェクトのキーワードが登録されているため、そのままステップS7に進むこととする(図示せず)。
一方、オブジェクトの検出に成功しなかった場合(ステップS3でNo)、さらに、視線測定装置1は、オブジェクト検出手段17によって、内部状態により、直前(前フレーム)までオブジェクトが検出されていたかどうかを判定する(ステップS5)。そして、直前までオブジェクトが検出されていた場合(ステップS5でYes)、視線測定装置1は、キーワード登録制御手段18によって、未検出となったオブジェクトに対応するキーワードをキーワード記憶手段12から削除し(ステップS6)、ステップS1に戻って動作を継続する。
一方、未検出状態が継続されている場合(ステップS5でNo)、視線測定装置1は、そのままステップS1に戻って動作を継続する。
また、視線測定装置1は、音声認識手段11によって、利用者が発する音声を、マイクMにより入力して認識する(ステップS7)。
そして、視線測定装置1は、キーワード検出手段13によって、ステップS7で認識された音声データが、キーワード記憶手段12にキーワードとして記憶されているか否か、すなわち、キーワードが発声されたか否かを判定する(ステップS8)。
ここで、音声データがキーワードとして記憶されていない場合(ステップS8でNo)、視線測定装置1は、ステップS1に戻って動作を継続する。
一方、音声データがキーワードとして記憶されている場合(ステップS8でYes)、視線測定装置1は、オブジェクト検出手段17によって、検出したキーワードに対応するオブジェクトの位置を特定する(ステップS9)。
また、視線測定装置1は、基準位置特定手段19によって、カメラCで撮影された眼球画像を入力し(ステップS10)、その眼球画像から瞳孔中心および角膜反射点を特定する(ステップS11)。
そして、視線測定装置1は、校正データ生成手段20によって、ステップS9で特定されたオブジェクトの位置と、ステップS11で特定された瞳孔中心および角膜反射点とにより、校正データを生成(算出)し、校正データ記憶手段21に記憶する(ステップS12)。
そして、視線測定装置1は、ステップS1に戻って、コンテンツが入力される間、オブジェクトの検出、ならびに、キーワードの検出動作を継続する。
これによって、利用者がオブジェクトを注視し、オブジェクトのキーワードを発声することで、校正データ記憶手段21には校正データが記憶されることになる。なお、本動作が、視線校正データ生成プログラムの動作に相当する。
(視線データ生成動作)
次に、図6を参照(構成については、適宜図2参照)して、視線測定装置1の視線を校正した視線データを生成する動作について説明する。
まず、視線測定装置1は、基準位置特定手段19によって、カメラCで撮影された眼球画像を入力し(ステップS21)、その眼球画像から瞳孔中心および角膜反射点を特定する(ステップS22)。
そして、視線測定装置1は、視線算出手段22によって、ステップS22で特定された瞳孔中心および角膜反射点と、カメラCから入力されるカメラパラメータ(焦点位置、カメラ位置、パン角、チルト角等)とに基づいて、表示装置の画面に対する視線(視線データ)である利用者の注視点を算出する(ステップS23)。
そして、視線測定装置1は、視線校正手段23によって、ステップS23で算出された視線(注視点)を、校正データ記憶手段21に記憶されている校正データに基づいて校正(補正)し(ステップS24)、視線データとして出力する(ステップS25)。
このように、視線測定装置1は、逐次、利用者の視線をキャリブレーションした視線データを生成し、出力する。
以上説明した動作によって、利用者はキーワードを発声するだけの簡単な操作でキャリブレーションを行うことができる。また、キャリブレーション用の専用の映像を使用しないため、利用者はコンテンツを視聴している好きなタイミングで、キャリブレーションを行うことができる。
なお、前記した校正データを生成する動作(図5)と、本動作(図6)とを合わせた動作が、視線測定プログラムの動作に相当する。
本発明に係る視線測定装置の概要を説明するための説明図である。 本発明に係る視線測定装置の構成を示すブロック図である。 本発明に係る視線測定装置における校正データを説明するための説明図である。 本発明に係る視線測定装置における視線データの校正方法を説明するための説明図である。 本発明に係る視線測定装置における校正データを生成する動作を示すフローチャートである。 本発明に係る視線測定装置における視線を校正(補正)した視線データを生成する動作を示すフローチャートである。 本発明に係る視線測定装置の他の構成を示すブロック図である。
符号の説明
1 視線測定装置
11 音声認識手段
12 キーワード記憶手段
13 キーワード検出手段
14 コンテンツ入力手段
15 コンテンツ出力手段
16 オブジェクト情報記憶手段
17 オブジェクト検出手段
18 キーワード登録制御手段
19 基準位置特定手段
20 校正データ生成手段
21 校正データ記憶手段
22 視線算出手段
23 視線校正手段

Claims (5)

  1. 表示装置の画面を視認する利用者の視線を測定する視線測定装置において、
    前記画面上に表示される映像内の注視対象となるオブジェクトを特定するキーワードを記憶するキーワード記憶手段と、
    前記映像内から前記オブジェクトを検出するオブジェクト検出手段と、
    このオブジェクト検出手段で前記オブジェクトが検出されるか否かによって、前記キーワード記憶手段に記憶されているキーワードの登録または登録の削除を行うキーワード登録制御手段と、
    前記利用者が発する音声を認識する音声認識手段と、
    この音声認識手段で認識された認識結果に、前記キーワード記憶手段に登録されているキーワードが含まれているか否かを検出するキーワード検出手段と、
    このキーワード検出手段でキーワードが検出された段階で、前記オブジェクト検出手段で検出されたオブジェクトの位置に基づいて、前記視線を校正するための校正データを生成する校正データ生成手段と、
    この校正データ生成手段で生成された校正データに基づいて、前記視線を校正する視線校正手段と、
    を備えていることを特徴とする視線測定装置。
  2. 前記オブジェクトを特徴付ける特徴量と前記キーワードとを対応付けて記憶するオブジェクト情報記憶手段を備え、
    前記オブジェクト検出手段は、前記オブジェクト情報記憶手段に記憶されている特徴量に基づいて、前記映像から前記オブジェクトを検出することを特徴とする請求項に記載の視線測定装置。
  3. 前記オブジェクト検出手段は、前記オブジェクトの位置と前記キーワードとを前記映像の時間区間に対応付けて記述したメタデータに基づいて、前記オブジェクトを検出することを特徴とする請求項に記載の視線測定装置。
  4. 表示装置の画面を視認する利用者の視線を測定するために、コンピュータを、
    光を照射された前記利用者の眼球を含んだ眼球画像から瞳孔中心の位置および角膜反射点の位置を特定する基準位置特定手段、
    前記画面上に表示される映像内の注視対象となるオブジェクトを前記映像内から検出するオブジェクト検出手段、
    このオブジェクト検出手段で前記オブジェクトが検出されるか否かによって、キーワード記憶手段において前記オブジェクトを特定するキーワードの登録または登録の削除を行うキーワード登録制御手段、
    前記利用者が発する音声を認識する音声認識手段、
    この音声認識手段で認識された認識結果に、前記キーワード記憶手段に登録されているキーワードが含まれているか否かを検出するキーワード検出手段、
    このキーワード検出手段でキーワードが検出された段階で、前記瞳孔中心の位置および前記角膜反射点の位置と前記オブジェクトの位置とに基づいて、前記視線を校正する校正データを生成する校正データ生成手段、
    この校正データ生成手段で生成された校正データに基づいて、前記視線を校正する視線校正手段、
    として機能させることを特徴とする視線測定プログラム。
  5. 表示装置の画面を視認する利用者の視線を校正する校正データを生成するために、コンピュータを、
    光を照射された前記利用者の眼球を含んだ眼球画像から瞳孔中心の位置および角膜反射点の位置を特定する基準位置特定手段、
    前記画面上に表示される映像内の注視対象となるオブジェクトを前記映像内から検出するオブジェクト検出手段、
    このオブジェクト検出手段で前記オブジェクトが検出されるか否かによって、キーワード記憶手段において前記オブジェクトを特定するキーワードの登録または登録の削除を行うキーワード登録制御手段、
    前記利用者が発する音声を認識する音声認識手段、
    この音声認識手段で認識された認識結果に、前記キーワード記憶手段に登録されているキーワードが含まれているか否かを検出するキーワード検出手段、
    このキーワード検出手段でキーワードが検出された段階で、前記瞳孔中心の位置および前記角膜反射点の位置と前記オブジェクトの位置とに基づいて、前記視線を校正する校正データを生成する校正データ生成手段、
    として機能させることを特徴とする視線校正データ生成プログラム。
JP2005205635A 2005-07-14 2005-07-14 視線測定装置および視線測定プログラム、ならびに、視線校正データ生成プログラム Expired - Fee Related JP4537901B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005205635A JP4537901B2 (ja) 2005-07-14 2005-07-14 視線測定装置および視線測定プログラム、ならびに、視線校正データ生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005205635A JP4537901B2 (ja) 2005-07-14 2005-07-14 視線測定装置および視線測定プログラム、ならびに、視線校正データ生成プログラム

Publications (2)

Publication Number Publication Date
JP2007025963A JP2007025963A (ja) 2007-02-01
JP4537901B2 true JP4537901B2 (ja) 2010-09-08

Family

ID=37786647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005205635A Expired - Fee Related JP4537901B2 (ja) 2005-07-14 2005-07-14 視線測定装置および視線測定プログラム、ならびに、視線校正データ生成プログラム

Country Status (1)

Country Link
JP (1) JP4537901B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8259169B2 (en) 2008-02-28 2012-09-04 Panasonic Corporation Eye-gaze detecting device and eye-gaze detecting method
JP5163982B2 (ja) * 2008-06-16 2013-03-13 国立大学法人神戸大学 視線計測装置、視線計測プログラム、視線計測方法、および視線計測装置用ディスプレイ
JP5560858B2 (ja) * 2010-04-02 2014-07-30 富士通株式会社 補正値算出装置、補正値算出方法および補正値算出プログラム
JP5590487B2 (ja) * 2010-07-30 2014-09-17 公立大学法人広島市立大学 視線計測方法及び視線計測装置
JP5716345B2 (ja) * 2010-10-06 2015-05-13 富士通株式会社 補正値算出装置、補正値算出方法および補正値算出プログラム
JP5719216B2 (ja) * 2011-04-05 2015-05-13 日本放送協会 視線測定装置および視線測定プログラム
JP5710464B2 (ja) * 2011-12-27 2015-04-30 株式会社東芝 電子機器、表示方法、およびプログラム
JP2015046111A (ja) * 2013-08-29 2015-03-12 株式会社Jvcケンウッド 視点検出装置および視点検出方法
WO2016147499A1 (ja) * 2015-03-17 2016-09-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN108700931A (zh) 2015-12-17 2018-10-23 Looxid实验室公司 眼睛-大脑接口(ebi)***及其控制方法
JP2017146987A (ja) * 2017-04-20 2017-08-24 株式会社Jvcケンウッド 視点検出装置および視点検出方法
JP6658809B2 (ja) * 2018-07-04 2020-03-04 株式会社ニコン 検出装置、電子機器、検出方法およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187553A (ja) * 1991-06-20 2000-07-04 Fuji Xerox Co Ltd 入力装置および入力装置用ヘッドマウントディスプレイ
JP2002236957A (ja) * 2001-02-09 2002-08-23 Victor Co Of Japan Ltd 電子投票装置、電子投票システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187553A (ja) * 1991-06-20 2000-07-04 Fuji Xerox Co Ltd 入力装置および入力装置用ヘッドマウントディスプレイ
JP2002236957A (ja) * 2001-02-09 2002-08-23 Victor Co Of Japan Ltd 電子投票装置、電子投票システム

Also Published As

Publication number Publication date
JP2007025963A (ja) 2007-02-01

Similar Documents

Publication Publication Date Title
JP4537901B2 (ja) 視線測定装置および視線測定プログラム、ならびに、視線校正データ生成プログラム
JP6635049B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5881136B2 (ja) 情報処理装置及び方法、並びにプログラム
US20150331490A1 (en) Voice recognition device, voice recognition method, and program
US20170277257A1 (en) Gaze-based sound selection
WO2021045828A1 (en) Transcription revision interface for speech recognition system
US20120259638A1 (en) Apparatus and method for determining relevance of input speech
WO2020214844A1 (en) Identifying input for speech recognition engine
US10275021B2 (en) Display apparatus of front-of-the-eye mounted type
JP4627052B2 (ja) 画像に連携した音声出力方法および装置
JP2010061265A (ja) 人物検索登録システム
US20180217985A1 (en) Control method of translation device, translation device, and non-transitory computer-readable recording medium storing a program
US20170068316A1 (en) Input device using eye-tracking
US11106280B1 (en) On-the-fly calibration for improved on-device eye tracking
US10332519B2 (en) Information processing apparatus, information processing method, and program
JP3272906B2 (ja) 視線方向検出方法及び装置及びそれを含むマンマシンインターフェース装置
JP2007272534A (ja) 省略語補完装置、省略語補完方法、及びプログラム
WO2016152200A1 (ja) 情報処理システムおよび情報処理方法
US20190138117A1 (en) Information processing device, information processing method, and program
US20190354176A1 (en) Information processing apparatus, information processing method, and computer readable recording medium
US20230251745A1 (en) Systems and methods for providing on-screen virtual keyboards
JPH04372012A (ja) 入力装置
JP2000187553A (ja) 入力装置および入力装置用ヘッドマウントディスプレイ
US10754425B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable recording medium
KR102330218B1 (ko) 발달장애인의 언어 훈련을 위한 가상현실 교육 시스템 및 방법

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20061227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100525

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100618

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130625

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

LAPS Cancellation because of no payment of annual fees