JPH09251342A - 注視箇所推定装置とその方法及びそれを使用した情報表示装置とその方法 - Google Patents

注視箇所推定装置とその方法及びそれを使用した情報表示装置とその方法

Info

Publication number
JPH09251342A
JPH09251342A JP8059071A JP5907196A JPH09251342A JP H09251342 A JPH09251342 A JP H09251342A JP 8059071 A JP8059071 A JP 8059071A JP 5907196 A JP5907196 A JP 5907196A JP H09251342 A JPH09251342 A JP H09251342A
Authority
JP
Japan
Prior art keywords
information
user
gaze point
face
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8059071A
Other languages
English (en)
Inventor
Osamu Yamaguchi
修 山口
Kazuhiro Fukui
和広 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP8059071A priority Critical patent/JPH09251342A/ja
Priority to US08/816,453 priority patent/US5912721A/en
Publication of JPH09251342A publication Critical patent/JPH09251342A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

(57)【要約】 【課題】 使用者の視線情報を用いて容易で迅速な情報
選択装置を提供する。 【解決手段】 選択される情報の提示を行う情報提示部
20と、使用者が注視している場所を推定する注視点推
定部30と、使用者が選択している情報の表示部分の表
示方法を変更する表示変更部50と、使用者の選択する
情報を予測する予測部40と、使用者が入力したい情報
を決定することをシステムに伝えるための意図伝達部6
0と、選択された情報を保持し他の装置に送る結果出力
部70を備える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、自動販売機、券売
機等の対面型装置システム、また、パソコン、ワークス
テーション等におけるOA機器、観光ガイド等の情報提
供装置等を使用する使用者の注視箇所推定装置とその方
法及びそれを使用した情報表示装置とその方法に関す
る。
【0002】
【従来の技術】自動販売機、券売機等の対面型装置シス
テム、また、パソコン、ワークステーション等における
OA機器、観光ガイド等の情報提供装置等において、利
用者が所望とする商品、切符、情報等をシステムに伝え
る場合には、ボタン、キーボード、マウスによる入力、
また、画面に表示されたものをタッチパネルを用いて選
択する入力法等がある。
【0003】しかし、すぐには手で操作できない状況、
また手を使わなくても十分に指示可能な状況等もあり、
この場合には利用者の意図を入力するには、上記した入
力装置では人間の行動を妨げ、面倒な操作を強いること
となる。
【0004】特に最近の装置にはボタンが数多く配置さ
れ、所望の情報、商品を選択する場合には、「システム
全体の構成を把握する→所望のものを見ながら探す→そ
の場所に手を持って行く」という行動の流れになり、一
つの選択を行うために多くの時間を必要とする場合があ
るため、迅速な対応が要求されるシステムには、別の入
力手段が必要と考えられる。
【0005】手を使わずに位置選択を行なう方法として
は、視線検出があげられる。視線から得られる情報とし
ては、単に位置情報だけでなく、人間の意図、意思表示
等が挙げられ、複数の対象の中から興味あるものを選択
するという作業が容易に行われることになる。
【0006】従来から、視線を検出するという発明が数
多くあり、これらには次の2つのタイプがある。
【0007】第1は、アイカメラに代表される眼鏡のよ
うな器具を用いる接触型のものであり、第2は、CCD
カメラ等を用いて撮影した画像から、人間の視線を検出
するといった非接触型のものである。
【0008】接触型のものは、眼鏡、ゴーグルといった
機器を装着し、その機器に取り付けられた検出装置によ
って視線を入力する。
【0009】非接触型のものは、CCDカメラで離れた
位置から顔を撮影し、目付近の特徴量を使って、視線方
向を推定する。
【0010】例えば、特開平4−255015号では、
視線の相対的な移動量を瞳の輪郭データを抽出瞳の中心
座標の変化から求める。この発明は、誤差の蓄積があ
り、それを補償する機構ももっているが、不十分であ
る。
【0011】また、特開平3−17696号では、ワー
ドプロセッサ等のカーソル位置を、視線によって制御す
ることを目的として、目の領域を瞳孔中心を通る垂直線
と水平線で分割し、分けられた領域の面積比を特徴量と
して視点位置を算出する。
【0012】一般に視線検出の問題として、視線検出の
精度をあげるためには、接触型もしくは頭を固定する等
の身体的制約を必要とする。人間の自然な行動を妨げる
ものや、わざわざ装置を身に付ける必要があるものは入
力装置として使いにくいという問題がある。
【0013】視線を用いた入力装置として、特開平4−
372012号では、音声認識と視線検出、まばたき等
の動作検出等を組み合わせて、相補的にそれら利用する
ことによって意図伝達を行ない、情報を入力するという
ものがある。
【0014】また、文献(Integrating Simultaneous I
nput from Speech, Gazo, and handGestures David B K
oons, Carlton J.Spartell, and Kristinn R. Thorisso
n,Intellelligent Multimedia Interfaces Edited by M
ark T. Maybury, MIT Press(1993) )では、視線、会話
認識、手によるジェスチャを用いたインタフェースにつ
いて、その統合方法について述べている。この試作シス
テムでは、地図情報のやりとりや3次元のブロックワー
ルドでの操作を行っている。
【0015】視線を用いたこれらの発明の多くは、キー
ボード、もしくはマウスの代用として使われることが主
眼であり、視線検出の精度の問題が残ることとなる。
【0016】
【発明が解決しようとする課題】ところで、視線を用い
た入力装置として、特開平4−372012号がある。
これは情報の提示がディスプレイに限定されており、デ
ィスプレイに表示されたアイコン等を視線で特定し、音
声による指示手段によって操作することを目的としてい
る。しかし、これらの操作を行うためには、高精度の視
線検出手段が必要とされ、現状のマウス等のインタフェ
ースの代替とするためには、困難な部分が多い。
【0017】上記にあげた問題点に対し本発明では、視
線検出の精度を考慮して、使用者が選択する情報を効率
良く提示し、視線検出に必要以上の精度を要求せずと
も、情報等を容易に選択可能な装置の提供を目的とす
る。例えばディスプレイを4分割した程度を見分けるこ
とのできる視線検出手段を用意したとしても、効率良く
情報を提示することによって、情報選択を可能にする。
【0018】また、視線と他の動作等を同時使用するこ
とにより、「所望の情報を探す→選択」が行え、利用者
が自然な行動で対応できるインタフェースを提供でき
る。例えば、利用者が所望の商品、情報、場所等を視線
によって選択し、設置された一つのボタンを押すこと
や、設定した言葉を発声することにより、意図伝達が行
なわれた時点での、視線の推定方向の結果を用いて注視
点を決定し、情報を素早く選択、指定を可能にすること
が目的である。
【0019】さらに、人間の行動を予め予測し、システ
ムが情報を提示する際、最も適していると考えられる情
報を提示することにより、使用者の情報選択の負担を軽
減できる。また、入力を行う際、どの時点での情報が選
択されるかを動的に変化させる、いわゆる「タイミン
グ」を制御することにより、より人間の立場に立った使
いやすい装置の提供を目的とする。
【0020】
【課題を解決するための手段】請求項1の発明は、使用
者の注視点を推定する注視点推定装置であって、前記使
用者の画像を入力する画像入力手段と、前記画像入力手
段によって入力された前記画像から前記使用者の顔画像
を抽出する顔抽出手段と、前記顔抽出手段で抽出された
前記顔画像から目頭の位置を検出する目頭検出手段と、
前記顔抽出手段で抽出された前記顔画像から瞳の位置を
検出する瞳検出手段と、前記目頭検出手段で検出された
前記目頭の位置から前記瞳検出手段で検出された前記瞳
の位置に向かうベクトルを求め、この求めたベクトルか
ら前記使用者の注視点を検出する注視点検出手段とを備
えたことを特徴とする注視点推定装置である。
【0021】請求項2の発明は、使用者の注視点を推定
する注視点推定装置であって、前記使用者の画像を入力
する画像入力手段と、前記画像入力手段によって入力さ
れた前記画像から前記使用者の顔画像を抽出する顔抽出
手段と、前記顔抽出手段で抽出された前記顔画像から両
目の目頭の位置または目尻の位置を検出する目検出手段
と、前記顔抽出手段で抽出された前記顔画像から口の位
置または鼻孔の位置を検出する口鼻検出手段と、前記目
検出手段及び前記口鼻検出手段で検出された両目の目頭
の位置または目尻の位置と口の位置または鼻孔の位置を
結ぶ顔方向面を算出する顔方向面算出手段と、前記顔方
向面算出手段で算出された前記顔方向面の法線ベクトル
から前記使用者の注視点を検出する注視点検出手段とを
備えた注視点推定装置である。
【0022】請求項3の発明は、複数の情報の中から必
要な情報を使用者が選択するための情報表示装置であっ
て、前記使用者の注視点を推定する注視点推定手段と、
前記注視点推定手段によって推定された前記注視点から
前記使用者の選択する情報を予測する予測手段と、前記
予測手段によって予測された情報の表示を行う情報表示
手段とを備えたことを特徴とする情報表示装置である。
【0023】これにより、使用者は視線により選択を行
い、その視線方向から注視点推定手段により注視点を推
定し、予測手段により所望の情報、商品等を予測し、情
報表示手段によって選択対象となる情報、商品等を表示
する。したがって、使用者の選択の負担を軽減する。
【0024】請求項4の発明は、前記予測手段は、前記
注視点推定手段によって推定された前記注視点が移動し
た場合に、前記使用者の選択する情報を改めて予測し直
す予測変更手段と、前記予測変更手段によって予測し直
した情報を表示するように前記情報表示手段に指示する
表示変更手段を備えたことを特徴とする請求項3記載の
情報表示装置である。
【0025】これにより、使用者自身が視線によってど
の情報を選択しているかを知覚させるために、表示変更
手段により、注視点にある情報の表示部分を変更する。
【0026】請求項5の発明は、前記予測手段は、前記
注視点推定手段の推定した前記注視点が、前記使用者が
前記情報表示手段に表示されている情報内にある場合
は、その注視している情報に基づいて前記使用者の選択
する情報を予測し、前記注視点が、前記情報表示手段以
外にある場合は、その注視している場所に基づいて前記
使用者の選択する情報を予測することを特徴とする請求
項3記載の情報表示装置である。
【0027】これにより、情報表示手段以外の場所を見
るといった行動から、表示内容を変更することができ
る。
【0028】請求項6の発明は、使用者の注視点を推定
する注視点推定方法であって、前記使用者の画像を入力
する画像入力ステップと、前記画像入力ステップによっ
て入力された前記画像から前記使用者の顔画像を抽出す
る顔抽出ステップと、前記顔抽出ステップで抽出された
前記顔画像から目頭の位置を検出する目頭検出ステップ
と、前記顔抽出ステップで抽出された前記顔画像から瞳
の位置を検出する瞳検出ステップと、前記目頭検出ステ
ップで検出された前記目頭の位置から前記瞳検出ステッ
プで検出された前記瞳の位置に向かうベクトルを求め、
この求めたベクトルから前記使用者の注視点を検出する
注視点検出ステップとを備えたことを特徴とする注視点
推定方法である。
【0029】請求項7の発明は、使用者の注視点を推定
する注視点推定方法であって、前記使用者の画像を入力
する画像入力ステップと、前記画像入力ステップによっ
て入力された前記画像から前記使用者の顔画像を抽出す
る顔抽出ステップと、前記顔抽出ステップで抽出された
前記顔画像から両目の目頭の位置または目尻の位置を検
出する目検出ステップと、前記顔抽出ステップで抽出さ
れた前記顔画像から口の位置または鼻孔の位置を検出す
る口鼻検出ステップと、前記目検出ステップ及び前記口
鼻検出ステップで検出された両目の目頭の位置または目
尻の位置と口の位置または鼻孔の位置を結ぶ顔方向面を
算出する顔方向面算出ステップと、前記顔方向面算出ス
テップで算出された前記顔方向面の法線ベクトルから前
記使用者の注視点を検出する注視点検出ステップとを備
えたことを特徴とする注視点推定方法である。
【0030】請求項8の発明は、複数の情報の中から必
要な情報を使用者が選択するための情報選択方法であっ
て、前記使用者の注視点を推定する注視点推定ステップ
と、前記注視点推定ステップによって推定された前記注
視点から前記使用者の選択する情報を予測する予測ステ
ップと、前記予測ステップによって予測された情報を情
報表示手段に表示する情報表示ステップとを備えたこと
を特徴とする情報選択方法である。
【0031】請求項9の発明は、前記予測ステップは、
前記注視点推定ステップによって推定された前記注視点
が移動した場合に、前記使用者の選択する情報を改めて
予測し直す予測変更ステップと、前記予測変更ステップ
によって予測し直した情報を表示するように前記情報表
示手段に指示する表示変更ステップを備えたことを特徴
とする請求項8記載の情報選択方法である。
【0032】請求項10の発明は、前記予測ステップ
は、前記注視点推定ステップの推定した前記注視点が、
前記使用者が前記情報表示手段に表示されている情報内
にある場合は、その注視している情報に基づいて前記使
用者の選択する情報を予測し、前記注視点が、前記情報
表示手段以外にある場合は、その注視している場所に基
づいて前記使用者の選択する情報を予測することを特徴
とする請求項8記載の情報選択方法である。
【0033】
【発明の実施の形態】以下に本発明の一実施例の情報選
択装置10を説明する。本実施例は、自動販売機、券売
機等に情報選択装置10が組込まれた場合について説明
する。なお、説明中の「システム」とは、自動販売機、
券売機等の装置を意味する。
【0034】情報選択装置10のブロック図を図1に示
す。
【0035】情報選択装置10は、ディスプレイ、CR
T、液晶、パネル、看板、表示版等の情報提示部20
と、使用者の注視点を推定する注視点推定部30と、使
用者の選択内容を予測する予測部40と、表示内容の変
更を行う表示変更部50と、ユーザまたはシステム内か
らの信号を入力する意図伝達部60と、選択結果を保持
する結果出力部70からなる。
【0036】情報提示部20 情報提示部20は、ディスプレイ等の情報表示部22、
情報記憶部24、表示駆動部26から構成され、図2に
示す。
【0037】情報記憶部24に登録された画像、文字列
等の情報は、それらの表示位置情報と組で格納されてお
り、表示位置情報にしたがって表示駆動部26は、情報
表示部22に表示を行なう。
【0038】情報記憶部24、表示駆動部26は、汎用
のパーソナルコンピュータ等を用いて、図3のようなフ
ローチャートにしたがって実装する。
【0039】表示駆動部26は、後に述べる表示変更部
50からの指示で表示内容を変更する。状態判別におけ
る「状態」とは、初期状態、予測状態におけるいくつか
の状態、意図入力が行われた後の確定状態等の状態を判
別する。各状態において、情報記憶部24に記憶された
情報を提示する。
【0040】システムが自動販売機の場合、商品A〜D
を図4のように表示する。
【0041】選択される情報等は、情報提示部20にお
いて比較的大きく表示される。情報の提示に関しては、
注視点推定部30の空間分解能を考慮した大きさで表示
を行なう。本実施例の場合はディスプレイの画面を4分
割した程度であり、空間分解能の低い視線検出手段を用
いても、十分識別できる。
【0042】注視点推定部30 通常、人間が選択対象であるボタン、表示部を探す場
合、その対象が表示、設置されている場所を見ることに
よって探すことになる。その視線方向を獲得し、注視し
ている点を推定する注視点推定部30について述べる
(図5参照)。
【0043】注視点推定部30は、画像入力部31、顔
方向検出部32、瞳位置検出部33、注視点決定部3
4、データベース部35からなる。
【0044】(画像入力部31)画像入力部31は、単
眼によるカラー画像の取得を行い、得られた画像は、顔
方向検出部32に送られる。
【0045】(顔方向検出部32)顔が、どの方向を向
いているかを判定する顔方向検出部32について説明す
る。
【0046】(1) 顔方向検出部32では、図6(a)に
示すように、顔の切り出しを行う。
【0047】これは、取得画像に対して領域分割を行
い、各領域の色相、彩度の情報から顔領域をみつける。
【0048】(2) 次に、図6(b)に示すように、目部
分と口部分の切り出しといった顔部品の抽出を図7によ
り行う。
【0049】顔領域の部分に対して、色相画像の2値化
により、肌色部分とは異なる色属性を持つ眼部分と口部
分の候補を出す。次に、影等のノイズにより、生成され
た領域を形状の制約によって選択する。領域形状を表現
する特徴量としては、モーメント不変量や自己回帰モデ
ル等を用いて定量化する。さらに選択された領域に対
し、目や口の濃淡パターンとの照合を行い、目領域、口
領域を決定する。ここでの濃淡パターンとの照合とは、
予め染めた目の部分画像や口の部分画像から認識のため
の辞書をKL展開により構成し、複合類似度等を用いて
それぞれのパターンに近いものを選択する。
【0050】(3) 目、口を検出した後、右目、左目、口
に対して、図6(c)に示すように、エッジ画像を生成
する。エッジ画像の生成には、従来手法のSobelフ
ィルタゃCannyの方法を用いる。
【0051】(4) そして、エッジ画像を一次元の軸方向
に垂直に写像し、目頭の検出を行う。口部分に関しても
同様の処理を行い、左右の口もとを検出する。その一次
元の軸に垂直な方向に画像を走査し、最も明度の低い点
を目頭点とする。
【0052】(5) 図6(e)に示すように、4点から構
成される平面の歪みにより、顔の面の法線方向を歪対象
を用いて算出する方法(A.H.Gee and R.Cipolla:Deterr
niningthe Gaze of Faces in Images,CUED/F-INFENG/TR
-174(1994) )があるが、ここでは、予め実験によって
求めた4点の位置関係の情報と顔の向きの情報から線形
補間を行い、データベース化しておくことにより求め
る。
【0053】(7) 例えば、図6(f)に示す4点の位置
に対して、水平方向のパラメータをα、垂直方向のパラ
メータをβを次式で求める。
【0054】
【数1】 なお、このα、βの式については、この限りでなく、顔
の向きを出す場合に、その他の顔特徴を用いても良い。
【0055】(瞳位置検出部33)次に、瞳が目の中の
どの位置にあるかを判定する瞳位置検出部33について
説明する。
【0056】(1) 顔方向検出部32で得られた目の切り
出し結果から、その部分画像に対して、図8(a)に示
すように、2値化を行う。2値化の結果から、黒画素の
重心を求め、瞳の部分の検出を行う。
【0057】(2) 瞳の重心を求め、先に求めた目頭点と
からベクトルVを求める(図8(b))。
【0058】(3) 一方、顔方向検出部32で得た、目
頭、口もとの点のそれぞれを通る2本の直線A′,A″
を求め、その2本の直線の傾きを平均して、直線Aを求
める(図8(c))。
【0059】(4) ベクトルVと直線Aのなす角度をθ、
ベクトルVの長さをσとする。このθ、σを瞳の位置の
パラメータとして用いる。
【0060】(注視点決定部34)注視点決定部34は
視線方向に対する情報提示部20のどの場所を見ている
かを決定する。ある顔の向きα、βにおける目の位置
θ、σより、注視点を求める。
【0061】図9は、水平方向に関して注視点を算出す
るための、顔の向き(f(α))と目の位置(g(θ,
σ))との関係図である。ここでは、
【数2】 とする。a、bは個人差等を考慮したパラメータであ
る。なお、f,gの関数はこの限りではなく、求める精
度、個人差等によって変更される。
【0062】図9(a)に示されるのは、情報提示部2
0であり、水平方向に4分割している。このとき、顔の
向きと目の位置との関係を表す図9(b)のように、分
割された場所を見ている時のパラメータの部分空間とな
る。定性的に説明すると、「顔が右を向いていても、目
が左を大きく向いていれば左を見ている」といった関係
を表している。
【0063】垂直方向に関しても同様に決定できる。
【0064】(データベース部35)データベース部3
5には、図9(b)の下部に示されるようなデータがシ
ステムからの距離に応じて数種類のものが用意され、シ
ステムからの距離が遠い場合には、顔の向きを重視して
注視方向を決定するようにできる。
【0065】注視点推定部30からは、距離に応じた注
視方向が決定できるように、(距離、注視方向)の組に
なった情報が予測部40に送られる。
【0066】予測部40 予測部40は、使用者が選択する情報の予測を行なう。
【0067】予測部40は、距離推定部41、データベ
ース部42、情報記録部43、予測情報構成部44から
なり、ブロック図を図10に示す。
【0068】(距離推定部41)距離推定部41では、
使用者とシステムまでの距離を算出する。本実施例で
は、ステレオカメラによる観測を行い、三角測量により
使用者までの距離を求める。なお、超音波センサ等によ
る他の計測方法でもよいし、単眼視カメラによって撮影
される人の面積から距離を求めても良い。
【0069】距離を3つから5つ程度に分けて、各距離
における予測内容を変更する。本実施例では3つに分
け、近距離からシステム操作可能範囲(数十センチ)、
システム可視範囲(数メートル)、システム無視範囲の
3段階(それ以上)とする。
【0070】(データベース部42)データベース部4
2には、提示内容データベースと行動データベースの二
つを持つ。
【0071】提示内容データベースは、システムに設置
された情報提示部20における、位置情報と内容がリン
クされたデータを保持する。位置情報は、その情報の位
置する(x1,y1)−(x2,y2)の矩形で表現さ
れ、その内容と、情報提示部20への表示形態が一組で
表現される。
【0072】行動データベースは、使用者の行動パター
ンについて予め幾つかのパターンを用意しておく。特に
システムを操作中、システムに近付いてくるときの行動
パターンを用意しておき、どのような行動パターンに近
いかを知るために使われる。
【0073】(情報記録部43)情報記録部43では、
一定間隔毎に視線方向を記録しておく。
【0074】視線方向は、注視点推定部30から送られ
た情報の中から、距離推定部41で得られた距離によっ
て一つが選ばれて決定され、その視線方向が記録され
る。
【0075】情報記録部43はリングバッファを用いて
構成する。
【0076】リングバッファは、図12の下段のように
模式的に表される。例えば、1から8までの順序通りに
情報が蓄えられたら、次は1を消して新たな情報を加え
る。このように順次書換えが行われるため、一定時間よ
り前の情報は自動的に更新される。記録内容は、注視点
検出手段から得られる視線方向と、距離検出部から得ら
れた距離情報と取得時刻を(視線方向、取得時刻、距
離)の一組にして、リングバッファに登録する(図12
の中段参照)。
【0077】(予測情報構成部44)予測情報構成部4
4は、情報記録部43に記録された内容とデータベース
部42に記憶された行動パターン情報と照合を行い、ど
のような情報、商品等をもとめているかを予め予測す
る。
【0078】行動パターン情報とは、時系列の情報で、
図11のように表される。なお、図における注視点は実
際には2次元の視点の動きであるが、説明上一次元的に
表す。
【0079】図11(b−1)は、「ある点を見つめた
まま近付く」ことを表している。
【0080】図11(b−2)は「あるところまで近付
きながら定点を見ており、それからシステムの方を向い
て近付く」ことを表している。
【0081】図11(b−3)は「きょろきょろしなが
らで近付いてくる」ことを表している。
【0082】図11(c)は「遠くできょろきょろして
いる」ということを表す。
【0083】これらの行動パターンを幾つか用意してお
き、データベース部42に登録しておく。
【0084】予測の方法は、使用者までの距離を考慮
し、機能を変更する。
【0085】[システム操作可能範囲]システム操作可
能範囲での行動パターンとして、(a−1)「興味のあ
るものを見続ける」(a−2)「興味のあるものに近付
いて見る」(a−3)「興味が無く他の情報を欲しがっ
ている」(a−4)「興味がない」等が挙げられる。
【0086】(a−1)「興味のあるものを見続ける」
(a−2)「興味のあるものに近付いて見る」等の場
合、どの情報を選択しているのかの注視点の情報を結果
出力部70へ送る。
【0087】また、興味のない情報が提示されている場
合、注視点が情報提示部20の外側に向けられている場
合は(a−3)のように、興味をしめしていないと判断
し、新たな情報が必要であると判断する。これについて
は、後に表示変更部50でその機能について述べる。
【0088】[システム可視範囲]システム可視範囲で
は、使用者はシステムだけでなく、他の情報提示物を見
ることが可能である。例えば、新幹線の切符を券売機で
購入する場合、通常券売機列の上部に路線図等が提示さ
れており、その路線図を見て、行き先と料金を確認す
る。この時、路線図のどのあたりを見ていたかという情
報を獲得できれば、購入するであろう料金区間をいくつ
か表示する事により、必要とはしない区間を表示せず、
素早く目的とする切符を選択できる事になる。
【0089】この状況を先に図11に挙げた行動パター
ンの(b−1)の場合として考える。このとき、以前見
ていた情報が何であるかに基づいて、どのような情報を
提示すればよいかを決定できる。例えば上記した例で
は、路線図の東側、西側のいずれを見ていたかにより、
目的とする場所の候補のいくつかを提示するといった方
法をとる。そのとき、リングバッファ内の情報は図12
中段のようになっていれば、遠くの距離で見ていた注視
点(x1,y1)にある情報に基づいて、情報提示の内
容を決定する。このようにして、予想される情報を提示
する事により、操作時間の短縮が計られる。
【0090】[システム無視範囲]システム無視範囲で
は、図11(c)にあげた行動パターンに当てはまる場
合は、予測を行わず、初期状態のままでいる。
【0091】行動パターンを各図で説明したような場合
一次元の波形パターンとした場合、その照合方法として
は、登録パターンと入力パターンの各時間毎における、
差の2乗和を類似度として、もっとも類似度の高いもの
をその行動パターンとして選択する。照合方法として、
従来の単純類似度、複合類似度といったパターン認識手
法によるものや、DPマッチング、ニューラルネットワ
ーク等を用いても良い。行動パターンが当てはまらない
場合や、処理を失敗した場合には、設定された初期状態
から人間との対応を開始する。
【0092】予測部40からの指示によって、指示内容
の変更する場合は、視線位置を表示するものと、選択す
る情報の表示内容を変更するものがある。予測部40か
らは、視線位置と予測内容についての指示が表示変更部
50に送る。提示内容の変更する場合は、情報提示部2
0に、状態の変更を指示すると、情報提示部20は予測
部40によって得られた情報に基づいて、情報提示部2
0が状態判別を行い、情報提示を行う。
【0093】また、予測した行動パターンと各時間にお
ける選択内容を結果出力部70に送る。このとき、選択
された情報は一つだけが送られるのではなく、システム
と選択を行うためにやりとりを行なっている時間のすべ
ての選択内容が結果出力部70に送られる。一つに選択
されるのは、結果出力部70で指定された時間に見てい
たものが選択内容としてにおいて決定される。
【0094】表示変更部50 表示変更部50は、注視点表示部51と、選択情報表示
変更部52からなり、図13に示す。
【0095】(注視点表示部51)注視点表示部51
は、予測部40から送られた注視点の位置にある情報部
分を、例えば色を変更して表示する、または、反転する
等の表示を変更し、使用者が現在どの情報を注視してい
るのかを、使用者自身が知覚できるようにする。例え
ば、図14のように商品Bを見た場合(a)、商品Dを
見た場合(b)のように、反転して出力する。また確定
された場合(c)のように表示を変更する。
【0096】(選択情報表示変更部52)選択情報表示
変更部52では、予測部40から送られた指示に基づい
て、提示内容を変更する。使用者の注視点が情報提示部
20の外側に出た場合、その方向に表示情報をスクロー
ルする機能を実現する方法について述べる。
【0097】一般に表示できる情報の数が少ない場合、
例えば図4のように4つの異なる情報だけが表示可能な
場合で、図15のように24個もの情報を選択したい場
合は、通常階層的な選択が行われる。図15の左側の列
に示すように、まず、左上段の大分類の中から選択し、
次に左中段の中分類の中から選択し、最後に目的とする
もの(ここでは、Dを選択)の選択が階層化されて行わ
れる。しかしながら、視線を用いる利点として、「情報
が表示されていない場合は見ない」という意思表示が可
能であること、さらに目的とする情報がありそうな方向
を見ておくという事が可能であるため、図15の右側の
列に示すような、情報の表示方法が可能である。
【0098】図15の右側では、太線で囲まれた領域が
情報提示部20によって、表示されている4つの情報を
示す。ここで、目的とする情報(例ではD)がある場所
の方向を見る。すなわち右中段のように、情報提示部2
0の外側の×印を見る事により、表示される場所が変更
され、右下段のように、情報提示を変更する。
【0099】図15における座標系(x,y)につい
て、画面の範囲を(0,0)−(xs,ys)とする。
今、注視点が(xp,yp)のように、画面の範囲
(0,0)−(xs,ys)から外れている場合、提示
情報の内容としてその方向に情報が存在する場合、提示
情報を変更する。図17がそのフローチャートである。
【0100】このとき実際には、使用者の視線は情報提
示部20の外側にあるが、提示されている情報が変化し
たかどうかは、人間は周辺視によって確認すればよい。
表示の変更が行われた場合、使用者が視線を情報提示部
20の内部に向けた場合には、ふたたび注視点の表示を
行う。
【0101】また、空間分解能の低い視線検出装置を用
いている場合では、小さく表示されているものを注視し
ている場合、表示の解像度を変化させる次のような機能
を実現する。図16上のように、細かな表示がなされて
いる場合、図中の楕円部付近を注視しつづけている場
合、ある一定以下の表示情報に対しては、解像度を大き
くして表示する場合の表示情報も蓄えておき、その注視
部分の表示内容を、図16中央のように情報提示部20
に大きく表示する。さらに図16下のように階層的に大
きさを変化させることも可能である。このような視線情
報を用いて表示の解像度を変えることによって、より選
択しやすい情報提示が可能となる。
【0102】意図伝達部60 意図伝達部60は、音声、スイッチの切入等の信号を入
力する入力部61と入力の内容を認識する入力判断部6
2とからなる(図18参照)。
【0103】入力部61は、マイクまたはスイッチ、マ
ウス、カメラ等で、その入力結果を入力判断部62へ送
る。入力判断部62は、入力機器の種類、内容を考慮
し、入力内容を解析し、入力情報を結果出力部70へ送
る。
【0104】音声を入力装置とした場合の入力判断部6
2のブロック図としては、入力判断部62に音声認識装
置を用いる。例えば、ある商品を見ながら、「それくだ
さい」と発声することにより、入力装置から音声認識装
置に音声が入力され、その認識結果が結果出力部70に
送られる。
【0105】入力情報が入ったと同時点での注視点の情
報を出すことにより、見ている場所の情報が選択される
こととなる。例えば、使用者が目的とする情報を注視し
ながら、「それください」「これ」等の簡単な言葉を発
声することにより、その発声した時点での注視点の情報
が選択できる。
【0106】他の入力例として、自動販売機の実施例で
は、コイン、紙幣等の投入口に取り付けられた入力部6
1により金銭が投入されることを入力信号としてもよ
い。
【0107】結果出力部70 結果出力部70は、注視情報保持部71、状態保持部7
2、タイミング調整部73からなり、図20にその構成
値を示す。
【0108】(注視情報保持部71)注視情報保持部7
1は、使用者が注視した情報、商品等が何であるかを保
持する。予測部40によって、予測された情報も保持す
る。
【0109】(タイミング調整部73)タイミング調整
部73は、提示されたものを視線により選択した時間と
入力部61によって入力された時間の同時性の調節を行
なう。入力情報が入った時点で、いつの時点の注視点の
情報を出力するかを設定する。タイミング調整部73
は、一つまたは複数の入力部61の入力時刻を評価し、
意図伝達の時刻を決定する手段で、タイミング設定部7
4、時間設定部75からなる。
【0110】タイミング調整部73の動作を、図19に
示す。
【0111】タイミング設定部74では、各行動パター
ンに対してのタイミングを実験等によってもとめてお
き、使用者が使いやすいようにタイミングとる。時間設
定部75では、タイミング設定部74によって設定され
ている時間と入力判断部62から信号が来た時間の総和
の時刻を結果出力部70へ送る。
【0112】例えば、タイミング設定部74によって設
定されている時間t=0とするとき、(a−1)「見
続ける」パターンを行っている場合、入力判断部62か
ら入力がなされる時間tinがなされた時刻を、状態保
持部72に送る。
【0113】他の入力例として、自動販売機の実施例で
は、コイン、紙幣等の投入口に取り付けられた入力部6
1により、金銭が投入されることを入力信号とする場合
について述べる。この場合、入力判断部62は、投入さ
れた金額を判断する。タイミング設定手段により、金銭
が投入された時間t1からタイミング設定時間t後の
時間に注視点のあった商品を選択する。tを−1.0
(sec)≦t≦1.0(sec)を設定することに
より、「商品を見ながら、コインを投入する」ことによ
り、ボタン等を押す必要無しに、商品が選択される。こ
の場合、金銭を投入する際に、使用者の視線は金銭の投
入口にあることが多いとも考えられる。よって、タイミ
ング設定時間tを数秒後に設定し、金銭の投入が行な
われた後しばらく商品を注視することにより、商品を選
択することができる。
【0114】(状態保持部72)状態保持部72は、初
期状態、予測状態、確定状態等の状態を出力し、その状
態とその状態における注視情報を保持し、システムや他
の手段に送る。確定状態であれば、システムは結果出力
部70から使用者の注視点にある情報、商品等の情報を
受けとり、販売、サービスの開始等を行う。また別の情
報表示等の動作を行ってもよい。
【0115】変形例について述べる。
【0116】情報提示部20の変形例 情報提示部20はディスプレイに表示されるような動的
に変化するものだけでなくともよい。例えば、常に固定
された商品、情報のパネル等を、装置または装置付近に
設置することでも構わない。
【0117】情報提示部20がディスプレイ上に動的に
表示されるのではなく、固定の情報が提示されている場
合は、注視点の方向がわかるように、ランプ、LED等
を設置しても良い。
【0118】注視点推定部30の変形例 実施例では、単眼カメラによる非接触の視線検出手法に
ついて説明したが、接触、非接触を問わず、視線検出手
法についてはこの限りではない。
【0119】例えば、文献(伴野明、岸野文郎、小林幸
雄“瞳孔の抽出処理と頭部の動きを許容する視線検出装
置の試作”、電子通信学会論文誌(D)Vol.J76-D-II,No.
3,pp.636-646(1993))のように、複数のカメラを用いて
人間を撮影し、顔の向き、眼の向きを求めるといった方
法等を用いてもよい。
【0120】自動販売機の例のように、短時間の対応を
目的とした機器だけでなく、例えば、大量のデータ等を
より分ける必要があるような応用例の場合で、正確な視
線検出方法が要求される場合等もある。この場合は、ア
イカメラ、アイトラッカー等等の接触型の視線検出手法
を用いても良い。
【0121】意図伝達部60の変形例 意図伝達部60は、音声や実施例に示したような金銭の
投入のような入力方法だけでなく、システムにボタン等
を取り付けるといった手段や、顔の向きを検知している
ことから次のような伝達手法があげられる。同じ場所に
視点を置いて、首を上下に動かす(「うなづく」動作)
等のどうさを行う。このように、画像情報に基づいた動
作検出手段を付加して入力に変えても良い。
【0122】また、意図伝達部60において、音声認識
等の高度の入力判断部を備えている場合、その入力内容
から、明示的に表示内容の変更等を操作する構成に変形
しても良い。具体的には、「次の内容」等と音声で入力
することにより、表示変更部50によって、別の情報提
示がなされる。
【0123】口検出手段に代えて、鼻孔を検出する鼻孔
検出手段を用いてもよい。この鼻孔検出手段の構成とし
ては、色相画像の二値化によって、目、口の候補を出す
際にすでに肌色部分とは異なる色の部分を発見している
ため、それら各部分に、2つの鼻孔を含んだように撮影
されている鼻孔の部分画像から生成された辞書とのパタ
ーン照合を行い、2つの鼻孔を同時に検出する。
【0124】そして、顔方向を検出する場合は、2つの
目頭と2つの鼻孔を結ぶように面を構成すればよい(図
6の(g)参照)。
【0125】表示変更部50の変形例 注視点表示部51では、情報の色変換反転等に限らず、
注視点をそのままカーソルのようなもので表示しても構
わない。
【0126】また、注視点表示部51自身を外した構成
としても良い。すなわち注視点が変化しているようすを
人間が常時知覚できるようにすることが目的であるが、
それを知覚させないようにしたい応用例が存在するかも
しれない。その際には、意図伝達部60により、指定さ
れた場合にだけ、注視点を確認できる構成に変形しても
良い。
【0127】選択情報表示変更部52では、意図伝達部
60と組み合わせ、意図伝達、例えば「表示を変えてほ
しい」という信号が送られた場合のみ、情報のスクロー
ルを行っても良い。
【0128】また、表示変更部50を持たない構成でも
よく、固定された表示内容に基づいた予測を行ない、選
択を行なう方法でもよい。
【0129】以上、本発明はその趣旨を逸脱しない範囲
で種々変形して実施することが可能である。
【0130】
【発明の効果】請求項1,2,6,7の注視点推定装置
とその方法であると、使用者の注視点を確実に推定でき
る。
【0131】請求項3,4,5,8,9,10の情報選
択装置とその方法であうと、使用者の視線を用いた情
報、商品等の選択が容易に行え、あらゆる装置におい
て、迅速な対応が可能となる。また、人間の自然な行動
を妨げることなく、使用者にやさしいユーザインタフェ
ースを提供できる。
【図面の簡単な説明】
【図1】装置のブロック図である。
【図2】情報提示部20のブロック図である。
【図3】情報提示部20のフローチャートである。
【図4】情報提示の一例の図である。
【図5】注視点推定部30のブロック図である。
【図6】顔方向検出部32の説明図である。
【図7】顔部品の抽出の図である。
【図8】瞳位置検出部33の説明図である。
【図9】注視点の決定方法の説明図である。
【図10】予測部40のブロック図である。
【図11】行動パターン例の図である。
【図12】情報記録部43の情報格納例の図である。
【図13】表示変更部50のブロック図である。
【図14】情報提示部20における表示変更例の図であ
る。
【図15】表示情報変更例におけるスクロール機能例の
図である。
【図16】表示情報変更例における解像度変換例の図で
ある。
【図17】選択情報表示変更部52の動作例の図であ
る。
【図18】意図である。伝達部60のブロック図であ
る。
【図19】タイミング調整部73のフローチャートであ
る。
【図20】結果出力部70のブロック図である。
【図21】タイミング調整部73のブロック図である。
【符号の説明】
10 情報選択装置 20 情報提示部 30 注視点推定部 40 予測部 50 表示変更部 60 意図伝達部 70 結果出力部

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】人間の操作によって動作する装置またはシ
    ステムを使用する使用者の注視箇所を推定する注視箇所
    推定装置であって、 前記使用者の画像を入力する画像入力手段と、 前記画像入力手段によって入力された前記画像から前記
    使用者の顔画像を抽出する顔抽出手段と、 前記顔抽出手段で抽出された前記顔画像から少なくとも
    一方の目の目頭の位置を検出する目頭検出手段と、 前記顔抽出手段で抽出された前記顔画像から前記目の瞳
    の位置を検出する瞳検出手段と、 前記目頭検出手段で検出された前記目頭の位置から前記
    瞳検出手段で検出された前記瞳の位置に向かうベクトル
    を求め、この求めたベクトルから前記使用者の注視箇所
    を検出する注視箇所検出手段とを備えたことを特徴とす
    る注視箇所推定装置。
  2. 【請求項2】人間の操作によって動作する装置またはシ
    ステムを使用する使用者の注視箇所を推定する注視箇所
    推定装置であって、 前記使用者の画像を入力する画像入力手段と、 前記画像入力手段によって入力された前記画像から前記
    使用者の顔画像を抽出する顔抽出手段と、 前記顔抽出手段で抽出された前記顔画像から両目の目頭
    の位置または目尻の位置を検出する目検出手段と、 前記顔抽出手段で抽出された前記顔画像から口の位置ま
    たは鼻孔の位置を検出する口鼻検出手段と、 前記目検出手段及び前記口鼻検出手段で検出された両目
    の目頭の位置または目尻の位置と口の位置または鼻孔の
    位置を結ぶ顔方向面を算出する顔方向面算出手段と、 前記顔方向面算出手段で算出された前記顔方向面の法線
    ベクトルから前記使用者の注視箇所を検出する注視箇所
    検出手段とを備えたことを特徴とする注視箇所推定装
    置。
  3. 【請求項3】情報を表示する情報表示装置であって、 前記情報表示装置を使用する使用者の注視箇所を推定す
    る注視箇所推定手段と、 前記注視箇所推定手段によって推定された前記注視箇所
    から前記使用者が必要としている情報を予測する予測手
    段と、 前記予測手段によって予測された情報の表示を行う情報
    表示手段とを備えたことを特徴とする情報表示装置。
  4. 【請求項4】前記予測手段は、 前記注視箇所推定手段によって推定された前記注視箇所
    が移動した場合に、その移動した前記注視箇所に基づい
    て前記使用者の必要な情報を再予測する予測変更手段
    と、 前記予測変更手段によって再予測した情報を表示するよ
    うに前記情報表示手段に指示する表示変更手段を備えた
    ことを特徴とする請求項3記載の情報表示装置。
  5. 【請求項5】前記予測手段は、 前記注視箇所推定手段の推定した前記注視箇所が、前記
    情報表示手段内にある場合は、その注視している情報に
    基づいて前記使用者の必要な情報を予測し、 前記注視箇所が、前記情報表示手段以外にある場合は、
    その注視している部分に基づいて前記使用者の必要な情
    報を予測することを特徴とする請求項3記載の情報表示
    装置。
  6. 【請求項6】人間の操作によって動作する装置またはシ
    ステムを使用する使用者の注視箇所を推定する注視箇所
    推定方法であって、 前記使用者の画像を入力する画像入力ステップと、 前記画像入力ステップによって入力された前記画像から
    前記使用者の顔画像を抽出する顔抽出ステップと、 前記顔抽出ステップで抽出された前記顔画像から少なく
    とも一方の目の目頭の位置を検出する目頭検出ステップ
    と、 前記顔抽出ステップで抽出された前記顔画像から前記目
    の瞳の位置を検出する瞳検出ステップと、 前記目頭検出ステップで検出された前記目頭の位置から
    前記瞳検出ステップで検出された前記瞳の位置に向かう
    ベクトルを求め、この求めたベクトルから前記使用者の
    注視箇所を検出する注視箇所検出ステップとを備えたこ
    とを特徴とする注視箇所推定方法。
  7. 【請求項7】人間の操作によって動作する装置またはシ
    ステムを使用する使用者の注視箇所を推定する注視箇所
    推定方法であって、 前記使用者の画像を入力する画像入力ステップと、 前記画像入力ステップによって入力された前記画像から
    前記使用者の顔画像を抽出する顔抽出ステップと、 前記顔抽出ステップで抽出された前記顔画像から両目の
    目頭の位置または目尻の位置を検出する目検出ステップ
    と、 前記顔抽出ステップで抽出された前記顔画像から口の位
    置または鼻孔の位置を検出する口鼻検出ステップと、 前記目検出ステップ及び前記口鼻検出ステップで検出さ
    れた両目の目頭の位置または目尻の位置と口の位置また
    は鼻孔の位置を結ぶ顔方向面を算出する顔方向面算出ス
    テップと、前記顔方向面算出ステップで算出された前記
    顔方向面の法線ベクトルから前記使用者の注視箇所を検
    出する注視箇所検出ステップとを備えたことを特徴とす
    る注視箇所推定方法。
  8. 【請求項8】情報表示手段を用いて情報を表示する情報
    表示方法であって、 前記情報表示手段を使用する使用者の注視箇所を推定す
    る注視箇所推定ステップと、 前記注視箇所推定ステップによって推定された前記注視
    箇所から前記使用者が必要としている情報を予測する予
    測ステップと、 前記予測ステップによって予測された情報を前記情報表
    示手段によって表示する情報表示ステップとを備えたこ
    とを特徴とする情報表示方法。
  9. 【請求項9】前記予測ステップは、 前記注視箇所推定ステップによって推定された前記注視
    箇所が移動した場合に、その移動した前記注視箇所に基
    づいて前記使用者の必要な情報を再予測する予測変更ス
    テップと、 前記予測変更ステップによって再予測した情報を表示す
    るように前記情報表示手段に指示する表示変更ステップ
    を備えたことを特徴とする請求項8記載の情報表示方
    法。
  10. 【請求項10】前記予測ステップは、 前記注視箇所推定ステップの推定した前記注視箇所が、
    前記情報表示手段内にある場合は、その注視している情
    報に基づいて前記使用者の必要な情報を予測し、 前記注視箇所が、前記情報表示手段以外にある場合は、
    その注視している部分に基づいて前記使用者の必要な情
    報を予測することを特徴とする請求項8記載の情報表示
    装置。
JP8059071A 1996-03-13 1996-03-15 注視箇所推定装置とその方法及びそれを使用した情報表示装置とその方法 Pending JPH09251342A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP8059071A JPH09251342A (ja) 1996-03-15 1996-03-15 注視箇所推定装置とその方法及びそれを使用した情報表示装置とその方法
US08/816,453 US5912721A (en) 1996-03-13 1997-03-12 Gaze detection apparatus and its method as well as information display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8059071A JPH09251342A (ja) 1996-03-15 1996-03-15 注視箇所推定装置とその方法及びそれを使用した情報表示装置とその方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2002331303A Division JP2003150306A (ja) 2002-11-14 2002-11-14 情報表示装置とその方法

Publications (1)

Publication Number Publication Date
JPH09251342A true JPH09251342A (ja) 1997-09-22

Family

ID=13102764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8059071A Pending JPH09251342A (ja) 1996-03-13 1996-03-15 注視箇所推定装置とその方法及びそれを使用した情報表示装置とその方法

Country Status (1)

Country Link
JP (1) JPH09251342A (ja)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11288342A (ja) * 1998-02-09 1999-10-19 Toshiba Corp マルチモーダル入出力装置のインタフェース装置及びその方法
JP2000020534A (ja) * 1998-06-30 2000-01-21 Sharp Corp 電子ブック装置
JP2000209578A (ja) * 1999-01-20 2000-07-28 Nri & Ncc Co Ltd 広告メディア評価装置および広告メディア評価方法
JP2000259311A (ja) * 1999-03-04 2000-09-22 Fujitsu Takamisawa Component Ltd 情報処理装置および情報処理方法
JP2000305685A (ja) * 1999-03-31 2000-11-02 Internatl Business Mach Corp <Ibm> 予測をユーザに示す方法および記録媒体
JP2000322699A (ja) * 1999-05-12 2000-11-24 Toshiba Corp 車載機器の制御装置及びその制御方法
JP2002282210A (ja) * 2001-03-27 2002-10-02 Japan Science & Technology Corp 視線検出方法及びその装置
JP2003141552A (ja) * 2001-10-31 2003-05-16 Toshiba Corp 物体向き計算装置及びその方法
JP2003196017A (ja) * 2001-12-25 2003-07-11 Gen Tec:Kk データ入力方法及び同装置等
JP2004030006A (ja) * 2002-06-24 2004-01-29 Digital Fashion Ltd 眼検出装置、眼検出プログラム、そのプログラムを記録する記録媒体及び眼検出方法
JP2004255074A (ja) * 2003-02-27 2004-09-16 Toyota Motor Corp 視線方向検出装置および視線方向検出方法
WO2005124735A1 (ja) * 2004-06-18 2005-12-29 Nec Corporation 画像表示システム、画像表示方法および画像表示プログラム
JP2006023953A (ja) * 2004-07-07 2006-01-26 Fuji Photo Film Co Ltd 情報表示システム
JP2006059147A (ja) * 2004-08-20 2006-03-02 Kiyomi Nakamura コンピュータ入力方法と装置
JP2006090790A (ja) * 2004-09-22 2006-04-06 Toyota Motor Corp 運転支援装置
JP2006197373A (ja) * 2005-01-14 2006-07-27 Mitsubishi Electric Corp 視聴者情報測定装置
JP2007026073A (ja) * 2005-07-15 2007-02-01 National Univ Corp Shizuoka Univ 顔姿勢検出システム
JP2007094619A (ja) * 2005-09-28 2007-04-12 Omron Corp 認識装置および方法、記録媒体、並びに、プログラム。
JP2007181071A (ja) * 2005-12-28 2007-07-12 Shunkosha:Kk コンテンツ注目評価装置及び評価方法
WO2007105792A1 (ja) * 2006-03-15 2007-09-20 Omron Corporation 監視装置および監視方法、制御装置および制御方法、並びにプログラム
EP1962509A1 (en) * 2005-11-17 2008-08-27 Aisin Seiki Kabushiki Kaisha Vehicle surrounding display device
JP2008225991A (ja) * 2007-03-14 2008-09-25 Nec Computertechno Ltd 次動作予測準備マルチメディア装置
JP2009104426A (ja) * 2007-10-24 2009-05-14 Advanced Telecommunication Research Institute International インタラクティブ看板システム
JP2009123229A (ja) * 2008-12-25 2009-06-04 Japan Research Institute Ltd 情報管理装置、情報管理システム、及びプログラム
JP2013506209A (ja) * 2009-09-29 2013-02-21 アルカテル−ルーセント 顔検出および画像測定に基づいて注視点を検出する方法および装置
US8773548B2 (en) 2009-12-18 2014-07-08 Fujitsu Limited Image selection device and image selecting method
WO2016208261A1 (ja) * 2015-06-26 2016-12-29 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2018031822A (ja) * 2016-08-22 2018-03-01 パイオニア株式会社 表示装置及び方法、並びにコンピュータプログラム及び記録媒体
JP2020515945A (ja) * 2017-02-23 2020-05-28 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 仮想現実シーンベースのビジネス検証方法およびデバイス
CN112466266A (zh) * 2019-09-06 2021-03-09 雅马哈株式会社 控制***以及控制方法

Cited By (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11288342A (ja) * 1998-02-09 1999-10-19 Toshiba Corp マルチモーダル入出力装置のインタフェース装置及びその方法
JP2000020534A (ja) * 1998-06-30 2000-01-21 Sharp Corp 電子ブック装置
JP2000209578A (ja) * 1999-01-20 2000-07-28 Nri & Ncc Co Ltd 広告メディア評価装置および広告メディア評価方法
JP2000259311A (ja) * 1999-03-04 2000-09-22 Fujitsu Takamisawa Component Ltd 情報処理装置および情報処理方法
JP2000305685A (ja) * 1999-03-31 2000-11-02 Internatl Business Mach Corp <Ibm> 予測をユーザに示す方法および記録媒体
JP2000322699A (ja) * 1999-05-12 2000-11-24 Toshiba Corp 車載機器の制御装置及びその制御方法
JP4729188B2 (ja) * 2001-03-27 2011-07-20 独立行政法人科学技術振興機構 視線検出装置
JP2002282210A (ja) * 2001-03-27 2002-10-02 Japan Science & Technology Corp 視線検出方法及びその装置
JP2003141552A (ja) * 2001-10-31 2003-05-16 Toshiba Corp 物体向き計算装置及びその方法
JP2003196017A (ja) * 2001-12-25 2003-07-11 Gen Tec:Kk データ入力方法及び同装置等
JP2004030006A (ja) * 2002-06-24 2004-01-29 Digital Fashion Ltd 眼検出装置、眼検出プログラム、そのプログラムを記録する記録媒体及び眼検出方法
JP2004255074A (ja) * 2003-02-27 2004-09-16 Toyota Motor Corp 視線方向検出装置および視線方向検出方法
WO2005124735A1 (ja) * 2004-06-18 2005-12-29 Nec Corporation 画像表示システム、画像表示方法および画像表示プログラム
US7839423B2 (en) 2004-06-18 2010-11-23 Nec Corporation Image display system with gaze directed zooming
JPWO2005124735A1 (ja) * 2004-06-18 2008-07-31 日本電気株式会社 画像表示システム、画像表示方法および画像表示プログラム
JP2006023953A (ja) * 2004-07-07 2006-01-26 Fuji Photo Film Co Ltd 情報表示システム
JP2006059147A (ja) * 2004-08-20 2006-03-02 Kiyomi Nakamura コンピュータ入力方法と装置
JP2006090790A (ja) * 2004-09-22 2006-04-06 Toyota Motor Corp 運転支援装置
JP4556586B2 (ja) * 2004-09-22 2010-10-06 トヨタ自動車株式会社 運転支援装置
JP2006197373A (ja) * 2005-01-14 2006-07-27 Mitsubishi Electric Corp 視聴者情報測定装置
JP2007026073A (ja) * 2005-07-15 2007-02-01 National Univ Corp Shizuoka Univ 顔姿勢検出システム
JP4501003B2 (ja) * 2005-07-15 2010-07-14 国立大学法人静岡大学 顔姿勢検出システム
JP2007094619A (ja) * 2005-09-28 2007-04-12 Omron Corp 認識装置および方法、記録媒体、並びに、プログラム。
US7853051B2 (en) 2005-09-28 2010-12-14 Omron Corporation Recognizing apparatus and method, recording media, and program
EP1962509A1 (en) * 2005-11-17 2008-08-27 Aisin Seiki Kabushiki Kaisha Vehicle surrounding display device
US8115811B2 (en) 2005-11-17 2012-02-14 Aisin Seiki Kabushiki Kaisha Vehicle surrounding area display device
EP1962509A4 (en) * 2005-11-17 2010-08-18 Aisin Seiki DEVICE FOR DISPLAYING THE SURROUNDINGS OF A VEHICLE
JP2007181071A (ja) * 2005-12-28 2007-07-12 Shunkosha:Kk コンテンツ注目評価装置及び評価方法
JP4603975B2 (ja) * 2005-12-28 2010-12-22 株式会社春光社 コンテンツ注目評価装置及び評価方法
JP5120249B2 (ja) * 2006-03-15 2013-01-16 オムロン株式会社 監視装置および監視方法、制御装置および制御方法、並びにプログラム
US8406457B2 (en) 2006-03-15 2013-03-26 Omron Corporation Monitoring device, monitoring method, control device, control method, and program
WO2007105792A1 (ja) * 2006-03-15 2007-09-20 Omron Corporation 監視装置および監視方法、制御装置および制御方法、並びにプログラム
JP2008225991A (ja) * 2007-03-14 2008-09-25 Nec Computertechno Ltd 次動作予測準備マルチメディア装置
JP2009104426A (ja) * 2007-10-24 2009-05-14 Advanced Telecommunication Research Institute International インタラクティブ看板システム
JP2009123229A (ja) * 2008-12-25 2009-06-04 Japan Research Institute Ltd 情報管理装置、情報管理システム、及びプログラム
KR101394719B1 (ko) * 2009-09-29 2014-05-15 알까뗄 루슨트 주시점을 검출하는 방법, 장치 및 다중 스크린 컴퓨터
JP2013506209A (ja) * 2009-09-29 2013-02-21 アルカテル−ルーセント 顔検出および画像測定に基づいて注視点を検出する方法および装置
US8773548B2 (en) 2009-12-18 2014-07-08 Fujitsu Limited Image selection device and image selecting method
WO2016208261A1 (ja) * 2015-06-26 2016-12-29 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US10496186B2 (en) 2015-06-26 2019-12-03 Sony Corporation Information processing apparatus, information processing method, and program
JP2018031822A (ja) * 2016-08-22 2018-03-01 パイオニア株式会社 表示装置及び方法、並びにコンピュータプログラム及び記録媒体
JP2020515945A (ja) * 2017-02-23 2020-05-28 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 仮想現実シーンベースのビジネス検証方法およびデバイス
US11170087B2 (en) 2017-02-23 2021-11-09 Advanced New Technologies Co., Ltd. Virtual reality scene-based business verification method and device
CN112466266A (zh) * 2019-09-06 2021-03-09 雅马哈株式会社 控制***以及控制方法
CN112466266B (zh) * 2019-09-06 2024-05-31 雅马哈株式会社 控制***以及控制方法

Similar Documents

Publication Publication Date Title
JPH09251342A (ja) 注視箇所推定装置とその方法及びそれを使用した情報表示装置とその方法
CN110647237B (zh) 在人工现实环境中基于手势的内容共享
US5912721A (en) Gaze detection apparatus and its method as well as information display apparatus
EP3807710B1 (en) Augmented reality display with frame modulation functionality
JP2003150306A (ja) 情報表示装置とその方法
US9953214B2 (en) Real time eye tracking for human computer interaction
CN107656613B (zh) 一种基于眼动追踪的人机交互***及其工作方法
KR102257181B1 (ko) 감각 안경류
US10092220B2 (en) System and method for motion capture
Grauman et al. Communication via eye blinks and eyebrow raises: Video-based human-computer interfaces
JP5728009B2 (ja) 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路
US6677969B1 (en) Instruction recognition system having gesture recognition function
CN104364733A (zh) 注视位置检测装置、注视位置检测方法和注视位置检测程序
CN106462242A (zh) 使用视线跟踪的用户界面控制
Magee et al. A human–computer interface using symmetry between eyes to detect gaze direction
JP2005202653A (ja) 動作認識装置及び方法、動物体認識装置及び方法、機器制御装置及び方法、並びにプログラム
JP2002351603A (ja) 携帯情報処理装置
JPH06261863A (ja) 視線方向計測装置
EP0743589B1 (en) Interactive image generation method and apparatus
KR101835363B1 (ko) 시선의 이동에 따라 변하는 오브젝트의 정보를 연속적으로 표시하는 장치 및 방법
JP3689285B2 (ja) 入力装置および入力装置用ヘッドマウントディスプレイ
JPH04372012A (ja) 入力装置
KR101396488B1 (ko) 신호 입력 장치 및 신호 입력 방법
JPH09167049A (ja) コンソール用視線入力装置
JP2000172163A (ja) 手動作分節方法および装置