JP2004246398A - ユーザ意図推定装置,ユーザ意図推定方法,ユーザ意図推定プログラムおよびそのプログラムの記録媒体,並びに自動辞書引き装置,自動辞書引き処理方法,自動辞書引き処理プログラムおよびそのプログラムの記録媒体 - Google Patents

ユーザ意図推定装置,ユーザ意図推定方法,ユーザ意図推定プログラムおよびそのプログラムの記録媒体,並びに自動辞書引き装置,自動辞書引き処理方法,自動辞書引き処理プログラムおよびそのプログラムの記録媒体 Download PDF

Info

Publication number
JP2004246398A
JP2004246398A JP2003019982A JP2003019982A JP2004246398A JP 2004246398 A JP2004246398 A JP 2004246398A JP 2003019982 A JP2003019982 A JP 2003019982A JP 2003019982 A JP2003019982 A JP 2003019982A JP 2004246398 A JP2004246398 A JP 2004246398A
Authority
JP
Japan
Prior art keywords
user
gaze
word
intention
estimating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003019982A
Other languages
English (en)
Inventor
Ryuichiro Higashinaka
竜一郎 東中
Takehiko Ono
健彦 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003019982A priority Critical patent/JP2004246398A/ja
Publication of JP2004246398A publication Critical patent/JP2004246398A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

【課題】設計者の高い専門知識,時間・コストを必要としないで,それぞれのユーザにとって適切にユーザ意図を視線情報から推定できるようにする。
【解決手段】ユーザが複数の構成要素からなる電子文書を閲覧するシステムにおいて,関係式構築フェーズでは,視線測定装置20を用いてユーザの視線を測定し,ユーザが注視している構成要素を推定して,それらの情報を記録する。また,実際のユーザの意図を取得し,関係式構築手段16によって,各構成要素に対して記録された視線情報とユーザ意図とを対応付ける関係式を構築する。ユーザ意図の推定フェーズでは,ユーザ意図推定手段18は,関係式構築手段16が構築した関係式を用いて各構成要素に対する視線情報からユーザ意図を推定する。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は,視線情報を用いてユーザ意図を推定する技術に関するものであり,特に,特別な専門的知識を必要とせずに,適切なユーザ意図の推定基準を決定できるユーザ意図推定装置,ユーザ意図推定方法,ユーザ意図推定プログラムおよびそのプログラムの記録媒体,並びに自動辞書引き装置,自動辞書引き処理方法,自動辞書引き処理プログラムおよびそのプログラムの記録媒体に関するものである。
【0002】
【従来の技術】
ユーザが文書を閲覧する場面において,ユーザの視線からユーザ意図を推定する技術は,ユーザがマウス,キーボード等の入力機器を用いた明示的な操作を行うことなく閲覧作業を支援することを可能とする。例えば,文書閲覧中であるか,そうでないかを判定する技術は,ユーザが文書を読んでいる場面にのみ,いわゆる「ヘルプ」と呼ばれる解説文を出したりすることを可能とする。ここで,「ユーザ意図」とは,ユーザが実際に行いたいと思っている,または実際に行っている行為・表現などを指す。
【0003】
ユーザ意図の推定に用いる視線情報を取得する視線測定装置としては,ユーザの視線を測定する様々な原理に基づく視線測定装置が提案されている(例えば,特許文献1「非接触視線測定装置」参照)。
【0004】
ユーザの視線からユーザ意図を推定する従来の技術として,Salvucciらが非特許文献1で提案している,HMM(Hidden Markov Model) を利用して,視線からユーザの意図を自動的に推定する手法がある。この手法は,あらかじめユーザの作業を正規文法(regular grammer) による書き換え規則集合として表現し(プロセスモデルと呼ぶ),さらに,各プロセスにおける視線の注視領域を定める。次に,観察された視線データからどのプロセスモデルにもっとも一致しているかをHMMによって算出する。
【0005】
Salvucciらは,この手法を視線キーボードを用いた単語入力システムに適用し,有効に機能することを確認している。しかし,この手法は,プロセスモデルが定まっている場合には有効な手法であるが,ユーザの作業とは直接関係のない作業(例えば,辞書を引くという作業)を自動的に行うことには適用できない。
【0006】
また,ユーザが特定の作業を行っているか否かを視線から判定する手法として,CampbellらのReading Detection がある(例えば,非特許文献2参照)。この手法は,ユーザが文書読解中であるか,そうでないかを,視線のいくつかの特徴的なパターンについて重み付けを行い,そのスコアから判定している。この手法では,読解中であるかどうかの判定を経験則で判定しており,経験則の獲得には,視線のパターンに熟知した専門家の知識を要するものと思われる。
【0007】
また,高木は,英文と和文の対訳コーパスを用いた翻訳支援環境を題材として,ユーザの「迷い」の検出を行っている(例えば,非特許文献3参照)。彼の試作した翻訳支援環境では,英文と和文の対訳が矩形領域に並んでおり,ユーザの視線が各矩形領域間を遷移する状態をN−gramモデルを用いて分析し,ユーザの「迷い」と視線パターンの関係を求めている。しかし,扱う領域が例文単位と大きく,また,検出された「迷い」を翻訳支援に用いることを目標としているものの,実際に支援を行うには至っていない。
【0008】
なお,後述する本発明の実施の形態で利用する技術が記載された文献として,例えば非特許文献4(決定木学習),非特許文献5(サポートベクトルマシン)がある。
【0009】
【特許文献1】
特開平10−14882号公報
【非特許文献1】
Dario D. Salvucci and John R. Anderson,”Automated eye−movement protocol analysis”, Human−Computer Interaction, 16:39−86, 2001.
【非特許文献2】
Christopher S. Campbell and Paul P. Maglio,”A Robust Algorithm for Reading Detection”, In Proceedings of the ACM Conference on Perceptive User Interfaces ,(PUI’01),2001.
【非特許文献3】
高木 啓伸,「視線の移動パターンに基づくユーザの迷いの検出−効果的な作業支援を目指して」,情報処理学会論文誌,41(5):1317−1327,2000.
【非特許文献4】
C4.5: Programs for Machine Learning ,J. R. Quinlan, The Morgan Kaufmann,1992.
【非特許文献5】
An Introduction to Support Vector Machines and Other Kernel−based Learning Methods by Nello Cristianini,John Shawe−Taylor Cambridge University Press;ISBN:0521780195;1st edition(March 2000).
【0010】
【発明が解決しようとする課題】
以上のように従来技術では,視線の停留時間が一定時間以上である場合に特定の意図であると判定するなど,ユーザ意図の自動推定に設計者の経験的な知見に基づく判定基準が用いられてきた。しかしながら,このような手法は,以下に述べる2点の理由により限界があった。
(1)精度の高い推定手法を設計するには,設計者の高い専門知識と時間・コストが必要である。
(2)知見に基づき得られた推定手法が,必ずしもすべてのユーザにとって有効であるとは限らない。
【0011】
例えば,文書中のある構成要素上を視線が一定時間以上停留したときにユーザがその単語を理解していないと推定する推定法の場合,ユーザが単語を理解していないと判定する最短の停留時間の適切値は,ユーザによって異なる。また,停留時間が一定時間以上の場合でも,ユーザが明確な目的を持たずに,ただ構成要素を見ているだけということも考えられる。
【0012】
本発明は,上記の問題を解決するために,設計者が特別な専門的知識を有することなく,ユーザ別に適切なユーザ意図の推定基準を決定できるユーザ意図推定技術を提供することを目的とする。
【0013】
【課題を解決するための手段】
本発明は,上記課題を達成するため,視線情報からユーザの意図を判別するための式を構築する関係式構築フェーズと,関係式を用いて実際にユーザの意図を推定するユーザ意図推定フェーズとからなり,関係式構築フェーズでは,電子文書が持つ文書情報と,ユーザの視線から計測される視線情報と,ユーザにより入力されるユーザ意図とから,ユーザ意図を推測するための関係式を機械学習の手法などを用いて作成し,ユーザ意図推定フェーズでは,構築された関係式によって,ユーザの視線情報からユーザ意図を推定することを特徴とする。
【0014】
図1は,本発明に係るユーザ意図推定装置の構成例を示す図である。ユーザ意図推定装置10は,視線測定手段11,構成要素領域抽出手段12,注視領域推定手段13,視線情報記録手段14,ユーザ意図記録手段15,関係式構築手段16,関係式記憶手段17,ユーザ意図推定手段18を備えている。
【0015】
また,ユーザ意図推定装置10には,ユーザの視線を測定する視線測定装置20,ユーザが入力を行うためのマウスやキーボード等の入力装置21,ユーザが閲覧をする電子文書23を表示する表示装置22が接続されている。
【0016】
ユーザが複数の構成要素からなる電子文書23を閲覧するときに,視線測定装置20を用いてユーザの視線を測定することにより,ユーザが注視している構成要素を推定し,ユーザ意図を推定する。
【0017】
このとき,視線測定手段11は,視線測定装置20を用いてユーザの視線を測定する。構成要素領域抽出手段12は,各構成要素が電子文書23中に占めている領域を決定する。注視領域推定手段13は,ユーザが注視している構成要素を推定する。視線情報記録手段14は,各構成要素に対するユーザの視線に関する情報を記録する。ユーザ意図記録手段15は,各構成要素に対するユーザの意図を記録する。関係式構築手段16は,各構成要素に対して記録されたユーザの視線に関する情報とユーザの意図とを対応付ける関係式を機械学習の手法を用いて構築する。関係式記憶手段17は,関係式構築手段16が構築したユーザの視線に関する情報とユーザの意図とを対応付ける関係式を記憶する。ユーザ意図推定手段18は,関係式記憶手段17に記憶された関係式を用いて各構成要素に対するユーザの視線に関する情報からユーザの意図を推定する。
【0018】
以上の各手段による処理は,コンピュータとソフトウェアプログラムとによって実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録することも,ネットワークを通して提供することも可能である。
【0019】
【発明の実施の形態】
以下,図面を用いて本発明の実施の形態を説明する。本発明の実施の形態として,本発明を電子文書における単語理解度推定による自動辞書引きシステムに適用した例を用いる。
【0020】
図2は,本実施の形態に係る自動辞書引きシステムの構成例を示す図である。本実施の形態における自動辞書引きシステム30は,CPUおよびメモリからなるコンピュータであり,ソフトウェアプログラム等によって構成される視線測定部31,単語領域抽出部32,注視単語推定部33,視線情報記録部34,ユーザ意図記録部35,関係式構築部36,関係式記憶部37,ユーザ意図推定部38,辞書引き・辞書引き結果表示部39,辞書データ310を備えている。
【0021】
本実施の形態における視線測定部31は図1の視線測定手段11に該当し,以下同様に,単語領域抽出部32は図1の構成要素領域抽出手段12に,注視単語推定部33は図1の注視領域推定手段13に,視線情報記録部34は図1の視線情報記録手段14に,ユーザ意図記録部35は図1のユーザ意図記録手段15に,関係式構築部36は図1の関係式構築手段16に,ユーザ意図推定部38は図1のユーザ意図推定手段18に該当する。
【0022】
自動辞書引きシステム30には,ユーザの視線を測定する視線測定装置20と,ユーザが入力を行うためのマウス等の入力装置21と,ユーザが閲覧をする電子文書23を表示し,辞書引き結果を表示するディスプレイ等の表示装置22とが接続されている。
【0023】
この自動辞書引きシステム30において,表示装置22の画面上には,一般的な電子文書23(例えば,Webページや新聞記事など)が表示されており,ユーザが,その電子文書23を日常的な動作で読み,電子文書23に理解できないか理解が困難な単語が含まれている場合に,その単語を入力装置21であるマウスのクリック等で選択すると,その単語の説明文が表示装置22に表示される仕組みになっている。このシステムにおいて,以下で説明する関係式構築フェーズの処理を実行することにより,マウスのクリック等により理解困難または理解不能な単語を選択しなくても,自動でユーザが理解困難または理解不能な単語を推定し,その説明文を表示する機能が備わる。
【0024】
図3は,本実施の形態における表示画面の例を示す図である。図3に示す画面では,画面右側部分40が電子文書23の表示部分であり,画面左側部分41がユーザが理解困難または理解不能である単語の説明文の表示部分である。画面右側部分40でユーザにより理解困難・不能である単語を指定されるか,自動辞書引きシステム30によりユーザにとって理解困難・不能である単語が推定されたときに,その単語の説明文が画面左側部分41に表示される。
【0025】
本システムは,2つのフェーズで動作する。1つは関係式構築フェーズであり,もう1つは自動辞書引きフェーズである。
【0026】
視線測定部31は,視線測定装置20を用いてユーザの視線を測定し,ユーザの視線を電子文書23上の座標に変換し,その座標を出力する。本実施の形態の場合,(x,y)の2次元座標となる。
【0027】
単語領域抽出部32は,まず電子文書23の文書情報を取得し,その文書情報に含まれる単語を取得し,電子文書23に含まれるフォントの情報や単語長などの情報から,電子文書23中の単語それぞれの電子文書23上において占めている領域を計算し,それを保持する。
【0028】
本実施の形態における電子文書23上では,単語は矩形領域を占め,単語領域は,その矩形領域の左上の点の座標と幅と高さ(left,top ,width ,height)で規定される。
【0029】
電子文書23に含まれる単語の取得には,形態素解析を用いる方法や,空白区切りを用いる方法がある。本実施の形態では,空白を単語境界として,単語を取得するものとする。また,取得された単語それぞれについて簡単な辞書引きをし,基本形(has →have)などの情報も合わせて保持する。本システムでは,便宜上,単語と単語に付随する情報と,単語を構成するそれぞれの文字の座標に関する情報とを分けて保持している。
【0030】
図4は,本実施の形態における単語と単語に付随する情報の例を示す図である。単語と単語に付随する情報は,例えば図4に示すように,1行が6つのカラムから成り立っており,各カラムは,左から順に「ユーザID」,「単語ID」,「単語のテキスト」,「読み」,「品詞」,「基本形」である。「読み」,「品詞」,「基本形」の情報に関しては,該当するものがない場合“null”となる。“null”は記載を省略することもできる。
【0031】
図5は,本実施の形態における単語を構成するそれぞれの文字の座標に関する情報の例を示す図である。図5に示す単語を構成するそれぞれの文字の座標に関する情報では,1行は9つのカラムから成り立っており,左のカラムから順に「ユーザID」,「単語ID」,「文字のテキスト」,「文書内におけるx座標」,「文書内におけるy座標」,「画面におけるx座標」,「画面におけるy座標」,「幅」,「高さ」である。図4に示すような単語と単語に付随する情報とは,「単語ID」を用いて連携される。また,単語の矩形領域は,文字単位の情報を用いて作成される。
【0032】
注視単語推定部33は,視線測定部31が出力する座標と単語領域抽出部32が保持する情報とから,ユーザが見ている単語を推定する。視線測定部31の出力は,2次元座標(x,y)であり,単語領域抽出部32は,電子文書23中のそれぞれの単語について,(left,top ,width ,height)の情報を保存している。注視単語推定部33は,(x,y)と(left,top ,width ,height)とを比較し,“x”が“left”と“left+width ”の間にあり,“y”が“top ”と“top +height”の間であるような単語を探索し,該当する単語があればその単語を出力する。
【0033】
視線情報記録部34は,視線測定部31の出力と,その出力に伴う注視単語推定部33の推定結果である単語とを受け取り,単語と視線測定部31の出力とを関連付けて保持・記録する。
【0034】
図6は,本実施の形態における視線情報記録部34により保持・記録されたデータの例を示す図である。図6に示すデータでは,1行は9つのカラムから成り立っており,各カラムは左から順に「記録された時刻」,「画面におけるx座標」,「画面におけるy座標」,「停留時間」,「電子文書がスクロールされている場合のスクロール幅」,「瞳孔の大きさ」,「単語ID」,「注視された文字」,「注視された文字を含む単語テキスト」である。
【0035】
ユーザ意図記録部35は,ユーザが理解困難・不能である単語を取得し,記録する。システムは,ユーザの単語上におけるマウス操作により単語の説明文を表示するため,ユーザのマウス操作をモニタリングし,ユーザがある単語を選択した場合に,ユーザ意図記録部35はその単語を保持・記録する。記録された単語をユーザが理解困難・不能な単語であるとみなすことは,妥当であると考えられる。
【0036】
図7は,本実施の形態におけるユーザ意図記録部35により保持・記録されたデータの例を示す図である。図7に示すデータでは,1行は5つのカラムから成り立っており,各カラムは,左から順に「記録された時刻」,「マウス動作」(click ,move,down,upのいずれか),「文書内におけるx座標」,「文書内におけるy座標」,「単語ID」である。
【0037】
マウス動作のclick は,マウスボタンのクリック,moveはマウスの移動,downはマウスボタンを押し下げて押下状態にする動作,upは押下状態のマウスボタンから指を離してボタンを戻す動作である。
【0038】
図7に示すデータから,「単語ID」が“id614 ”である単語が,ユーザにより,マウス(入力装置21)でクリックされていることがわかる。その単語の説明を求めたということから,ユーザがその単語を理解することが困難であったと考えることができる。
【0039】
関係式構築部36は,視線情報記録部34の保持する単語と視線の情報と,ユーザ意図記録部35が保持する電子文書23中のどの単語がユーザにとって理解困難・不能であったかという情報との2つの情報をもとに,どのような視線情報を持つ単語がユーザにとって理解困難であったかを推定する関係式(判別式)を作成する。
【0040】
具体的には,ある単語に関する視線情報は複数与えられるので,ある単語に関する視線情報を特徴量に変換し,その特徴量とユーザ理解度(以下,“0”が理解可,“1”を理解不能とする)を関連付ける関係式(判別式)を,機械学習の手法を用いて作成する。
【0041】
ここで,本実施の形態では,機械学習の手法として決定木学習の手法を用いるが,特徴量から“0”か“1”かを判別できるアルゴリズムであれば,他の手法でもよい。主な機械学習の手法として,例えば,非特許文献4,非特許文献5などに記載されている手法がある。
【0042】
図8は,本実施の形態における特徴量を説明する図である。本実施の形態における特徴量には,図8(A)に示すような特徴量1から特徴量14までの特徴量を用いる。各単語における視線の特徴量1〜14は,それぞれ次のようなものである。
【0043】
特徴量1:対象となる単語に関してどの方向へ何度視線が移動したか
特徴量2:対象となる単語に進入する視線がどの方向へ何度移動したか
特徴量3:対象となる単語から退出する視線がどの方向へ何度移動したか
特徴量4:対象となる単語の内部でどの方向へ何度視線が移動したか
特徴量5:対象となる単語に関してどの方向へどのくらいの大きさで視線が移動したか
特徴量6:対象となる単語のテキスト長
特徴量7:対象となる単語の総停留時間
特徴量8:対象となる単語に視線が関与した回数
特徴量9:瞳孔の大きさの最小値
特徴量10:瞳孔の大きさの最大値
特徴量11:瞳孔の大きさの平均値
特徴量12:瞳孔の大きさの標準偏差
特徴量13:視線の移動距離の総和
特徴量14:視線の移動距離の平均値
ここで,図8(A)に示す特徴量のうち,特徴量1〜5の方向に関しては,図8(B)に示すような円を45度ずつに区切った場合の8方向(方向0〜方向7)を用いる。すなわち「方向」は,円を45度単位で8方向に分割した扇形領域のいずれに属しているかを示す。扇形領域は,−22.5度から22.5度を方向0とし,反時計方向に45度単位で方向7まである。
【0044】
図9は,本実施の形態における特徴量とユーザ理解度のデータの例を示す図である。本実施の形態では,図9(A)〜(C)に示すようなデータから関係式(判別式)を作成する。本実施の形態における特徴量とユーザ理解度のデータは,単語ごとのデータであり,図9(A)は“Leonid”という単語に関するデータの例であり,図9(B)は“meteor”という単語に関するデータの例であり,図9(C)は“shower”という単語に関するデータの例である。
【0045】
図9(A)〜(C)に示すデータにおいて,“特徴量1”〜“特徴量14”は,図8(A)の特徴量番号が1〜14の特徴量にそれぞれ該当する。“辞書引き”はユーザ理解度を示し,“0”が理解可(辞書引き不必要),“1”が理解不能(辞書引き必要)を示す。この例では,図9(A)の“Leonid”と図9(B)の“meteor”が辞書引き必要な単語であり,図9(C)の“shower”が辞書引き不必要な単語であったことが示されている。
【0046】
図10は,本実施の形態において作成された決定木の例を示す図である。図10に示す決定木は,決定木学習のツールであるC5.0(非特許文献4参照)を使用して作成されている。また,図10に示す決定木は,ある単語の特徴量を入力とし,“yes”(辞書引き必要),“no”(辞書引き不必要)を出力する。
【0047】
図10において,access_count は,図8(A)の特徴量番号8に対応し,incoming_directionsとdirectionsは,それぞれ図8(A)の特徴量番号2と特徴量番号1に対応する。それらの後続の数字(この場合は0)は,方向(この場合は図8(B)に示す“方向0”)を示す。
【0048】
ユーザ意図推定部38は,関係式構築部36が作成して関係式記憶部37に記憶した関係式(判別式)を用い,ある単語とその特徴量が与えられたとき,ユーザ理解度が“0”か“1”を出力する。この出力は,ユーザがある単語に対して理解困難であるか否かを関係式(判別式)が推定した推定結果である。
【0049】
前述の図10に示す例の場合,ある単語について,関与した視線の回数が1回以下であり,0の方向で進入する視線がなく,0の方向に移動する視線が1回以上あるものを辞書引き必要と判定する。
【0050】
なお,図10において括弧内の数値,例えば1行目の(922/18)は,決定木での判定の精度を表しており,あるテストデータを用いて実験した結果,「access_count >1」が「no」であったものの中で,その判定が正しかったものが922件,誤っていたものが18件であったことを示している。
【0051】
辞書引き・辞書引き結果表示部39は,ユーザ意図推定部38の出力により,ある単語をユーザが理解していないと推定された場合,その単語を保持している辞書データ310を用いて辞書引きし,その結果を表示装置22の画面上に表示する。
【0052】
以下,自動辞書引きシステム30の2つのフェーズ(関係式構築フェーズ,自動辞書引きフェーズ)の動作について,それぞれ図を用いて説明する。
【0053】
図11は,本実施の形態における関係式構築フェーズの動作を説明する図であり,図12は,その関係式構築処理フローチャートである。本実施の形態における「関係式構築フェーズ」では,電子文書23が持つ文書情報と,ユーザの視線から計測される視線情報と,ユーザにより入力されるユーザ意図とから,ユーザ意図を推測するための関係式を作成する。
【0054】
視線測定部31は,視線測定装置20を用いて表示装置22に表示された電子文書23を注視するユーザの視線を測定し,その視線を電子文書23上の座標に変換した視線情報を注視単語推定部33に送る(ステップS10)。
【0055】
単語領域抽出部32は,電子文書23の文書情報を取得し,文書情報に含まれる単語を取得し,それぞれの単語の電子文書23上で占めている領域を計算し,領域情報として保持する。文書情報を視線情報記録部34に送り,領域情報を注視単語推定部33と視線情報記録部34に送る(ステップS11)。
【0056】
注視単語推定部33は,視線測定部31から受けた視線情報と単語領域抽出部32から受けた領域情報とから,ユーザが見ている単語を推定し,その単語推定結果と視線情報とを視線情報記録部34に送る(ステップS12)。
【0057】
視線情報記録部34は,単語領域抽出部32から文書情報と領域情報とを受け取り,注視単語推定部33から視線情報と単語推定結果とを受け取り,それらの情報を関連付けて記録する。その記録を単語ごとの特徴量に変換し,その特徴量を関係式構築部36に送る(ステップS13)。
【0058】
ユーザ意図記録部35は,ユーザが入力装置21を用いて入力したユーザ意図(ここでは,ユーザにより選択された理解困難・不能である単語)を取得し,それを記録する。ユーザ意図を関係式構築部36に送る(ステップS14)。
【0059】
関係式構築部36は,視線情報記録部34から受けた特徴量と,ユーザ意図記録部35から受けたユーザ意図とをもとに,ユーザにとって理解困難・不能である単語を推定するための関係式を作成し,関係式記憶部37に保存する(ステップS15)。
【0060】
図13は,本実施の形態における自動辞書引きフェーズの動作を説明する図であり,図14は,本実施の形態における自動書引き処理フローチャートである。本実施の形態における「自動辞書引きフェーズ」では,電子文書23が持つ文書情報と,ユーザの視線から計測される視線情報と,「関係式構築フェーズ」で作成された関係式とから,ユーザのユーザ意図を推定し,自動で辞書引きし,その辞書引き結果を表示装置22の画面上に表示する。
【0061】
「自動辞書引きフェーズ」における視線測定部31,単語領域抽出部32,注視単語推定部33の動作(ステップS20〜S22)に関しては,前述の「関係式構築フェーズ」における動作(ステップS10〜S12)と同じ動作であるので,その説明を省略する。
【0062】
視線情報記録部34は,単語領域抽出部32から文書情報と領域情報とを受け取り,注視単語推定部33から視線情報と単語推定結果とを受け取り,それらの情報を関連付けて特徴量に変換する。特徴量をユーザ意図推定部38に送る(ステップS23)。
【0063】
ユーザ意図推定部38は,視線情報記録部34から受けたある単語の特徴量をもとに,関係式記憶部37に記憶されている関係式を用いて,その単語に対するユーザ意図(ここでは,ユーザにとってある単語が理解困難・不能であるか否か)を推定する。ユーザ意図推定結果を辞書引き・辞書引き結果表示部39に送る(ステップS24)。
【0064】
辞書引き・辞書引き結果表示部39は,ユーザ意図推定部38から受けたユーザ意図推定結果により,ユーザ意図の推定を行った単語をユーザが理解していないと推定された場合(ステップS25),その単語に関して辞書データ310を用いて辞書引きし(ステップS26),その辞書引き結果を表示装置22の画面上に表示する。ここで,辞書引き結果の出力は,スピーカなどの出力装置を用いて,音声で出力してもよい(ステップS27)。
【0065】
図2に示す自動辞書引きシステム30の有効性を確認するため,試作した文書ブラウザを利用した単語理解度の推定実験を,5名の被験者について行った。各被験者が5文書を閲覧したときの情報を用いて決定木を作成した場合,再現率が平均17.5%(最大36.4%,最低3.4%),適合率が平均29.9%(最大58・1%,最低9.1%)でユーザの辞書引きを必要とする単語を推定できることがわかった。被験者ごとの決定木を比較した結果,類似した決定木が構築される場合もあるが,そうでないものも多かった。被験者が閲覧する文書数を5文書から10文書に増やした場合,再現率が平均40.7%,適合率が平均58.35%と上昇した(なお,文書を増やした場合の実験は被験者2名を対象とした)。
【0066】
決定木の個人間の差は比較的大きいものの,文書の量が増えるにつれて推定結果がよくなることから,辞書引き判定には,個人ごとに決定木を作成するのがよく,文書の量を増やすことにより,推定精度が高くなることが示された。
【0067】
以上,本発明を自動辞書引きシステムに適用した例を説明したが,本発明はこれに限定されるものではなく,コンピュータ操作上のユーザの意図をユーザの視線から推定して,システムが何らかのアクションを起こすことにより,ユーザの作業を支援するシステムに同様に適用することができる。例えば視線情報からある画像領域に対する説明文を自動表示するシステムや,ある表示領域において操作可能なメニュー項目を自動表示するシステム等への応用が考えられる。
【0068】
【発明の効果】
以上説明したように,本発明では,ユーザの視線情報,電子文書の文書情報,ユーザから入力されたユーザ意図などから,そのユーザのユーザ意図を推定するための関係式を自動的に作成するため,高い専門知識やコストを必要とせずに,精度の高いユーザ意図の推定を行うための設計を自動的に行うことができる。
【0069】
また,ユーザごとに特化された関係式を作成することもできるので,その関係式を用いてユーザ意図の推定を行うことによって,それぞれのユーザごとの適切なユーザ意図を推定することができるようになる。
【図面の簡単な説明】
【図1】本発明に係るユーザ意図推定装置の構成例を示す図である。
【図2】本実施の形態に係る自動辞書引きシステムの構成例を示す図である。
【図3】本実施の形態における表示画面の例を示す図である。
【図4】本実施の形態における単語と単語に付随する情報の例を示す図である。
【図5】本実施の形態における単語を構成するそれぞれの文字の座標に関する情報の例を示す図である。
【図6】本実施の形態における視線情報記録部により保持・記録されたデータの例を示す図である。
【図7】本実施の形態におけるユーザ意図記録部により保持・記録されたデータの例を示す図である。
【図8】本実施の形態における特徴量を説明する図である。
【図9】本実施の形態における特徴量とユーザ理解度のデータの例を示す図である。
【図10】本実施の形態における決定木の例を示す図である。
【図11】本実施の形態における関係式構築フェーズの動作を説明する図である。
【図12】本実施の形態における関係式構築処理フローチャートである。
【図13】本実施の形態における自動辞書引きフェーズの動作を説明する図である。
【図14】本実施の形態における自動書引き処理フローチャートである。
【符号の説明】
10 ユーザ意図推定装置
11 視線測定手段
12 構成要素領域抽出手段
13 注視領域推定手段
14 視線情報記録手段
15 ユーザ意図記録手段
16 関係式構築手段
17 関係式記憶手段
18 ユーザ意図推定手段
20 視線測定装置
21 入力装置
22 表示装置
23 電子文書
30 自動辞書引きシステム
31 視線測定部
32 単語領域抽出部
33 注視単語推定部
34 視線情報記録部
35 ユーザ意図記録部
36 関係式構築部
37 関係式記憶部
38 ユーザ意図推定部
39 辞書引き・辞書引き結果表示部
310 辞書データ

Claims (8)

  1. ユーザが複数の構成要素からなる電子文書を閲覧する場合に,ユーザの視線からユーザの意図を推定するためのユーザ意図推定装置であって,
    視線測定装置を用いてユーザの視線を測定する視線測定手段と,
    各構成要素が前記電子文書中に占めている領域を決定する構成要素領域抽出手段と,
    測定したユーザの視線と各構成要素の領域とからユーザが注視している構成要素を推定する注視領域推定手段と,
    前記視線測定手段,前記構成要素領域抽出手段および前記注視領域推定手段によって得られた情報をもとに,各構成要素に対するユーザの視線情報を記録する視線情報記録手段と,
    ユーザの操作情報から得られた各構成要素に対するユーザの意図を記録するユーザ意図記録手段と,
    各構成要素に対して記録されたユーザの視線情報と前記ユーザの意図とを対応付ける関係式を構築する関係式構築手段と,
    前記関係式を用い,各構成要素に対するユーザの視線情報から前記ユーザの意図を推定するユーザ意図推定手段とを備える
    ことを特徴とするユーザ意図推定装置。
  2. ユーザが複数の構成要素からなる電子文書を閲覧する場合に,ユーザの視線からユーザの意図を推定するためのユーザ意図推定方法であって
    関係式構築フェーズとして,
    視線測定装置を用いてユーザの視線を測定する視線測定過程と,
    各構成要素が前記電子文書中に占めている領域を決定する構成要素領域抽出過程と,
    測定したユーザの視線と各構成要素の領域とからユーザが注視している構成要素を推定する注視領域推定過程と,
    前記視線測定過程,前記構成要素領域抽出過程および前記注視領域推定過程によって得られた情報をもとに,各構成要素に対するユーザの視線情報を記録する視線情報記録過程と,
    ユーザの操作情報から得られた各構成要素に対するユーザの意図を記録するユーザ意図記録過程と,
    各構成要素に対して記録されたユーザの視線情報と前記ユーザの意図とを対応付ける関係式を構築する関係式構築過程とを有し,
    ユーザ意図推定フェーズとして,
    視線測定装置を用いてユーザの視線を測定する視線測定過程と,
    各構成要素が前記電子文書中に占めている領域を決定する構成要素領域抽出過程と,
    測定したユーザの視線と各構成要素の領域とからユーザが注視している構成要素を推定する注視領域推定過程と,
    前記視線測定過程,前記構成要素領域抽出過程および前記注視領域推定過程によって得られた情報をもとに,各構成要素に対するユーザの視線情報を決定する視線情報決定過程と,
    前記関係式構築フェーズにおいて構築された関係式を用い,各構成要素に対するユーザの視線情報から前記ユーザの意図を推定するユーザ意図推定過程とを有する
    ことを特徴とするユーザ意図推定方法。
  3. 請求項2記載のユーザ意図推定方法をコンピュータに実行させるためのユーザ意図推定プログラム。
  4. 請求項2記載のユーザ意図推定方法をコンピュータに実行させるためのプログラムを記録したユーザ意図推定プログラムの記録媒体。
  5. ユーザが電子文書を閲覧する場合に,ユーザの視線からユーザが理解困難または理解できない単語を推定してその意味情報を提示する自動辞書引き装置であって,
    視線測定装置を用いてユーザの視線を測定する視線測定手段と,
    各単語が前記電子文書中に占めている領域を決定する単語領域抽出手段と,
    測定したユーザの視線と各単語の領域とからユーザが注視している単語を推定する注視単語推定手段と,
    前記視線測定手段,前記単語領域抽出手段および前記注視単語推定手段によって得られた情報をもとに,各単語に対するユーザの視線情報を記録する視線情報記録手段と,
    ユーザの理解困難または理解できない単語に対する操作から辞書引きの必要性に関するユーザの意図を記録するユーザ意図記録手段と,
    各単語に対して記録されたユーザの視線情報と前記ユーザの意図とを対応付ける関係式を構築する関係式構築手段と,
    前記関係式を用い,各単語に対するユーザの視線情報から辞書引きの必要性に関する前記ユーザの意図を推定するユーザ意図推定手段と,
    前記ユーザの意図の推定結果に基づき,辞書引きが必要と推定した単語について辞書データを用いて辞書引きし,辞書引き結果をユーザに提示する辞書引き・辞書引き結果出力手段とを備える
    ことを特徴とする自動辞書引き装置。
  6. ユーザが電子文書を閲覧する場合に,ユーザの視線からユーザが理解困難または理解できない単語を推定してその意味情報を提示する自動辞書引き処理方法であって,
    関係式構築フェーズとして,
    視線測定装置を用いてユーザの視線を測定する視線測定過程と,
    各単語が前記電子文書中に占めている領域を決定する単語領域抽出過程と,
    測定したユーザの視線と各単語の領域とからユーザが注視している単語を推定する注視単語推定過程と,
    前記視線測定過程,前記単語領域抽出過程および前記注視単語推定過程によって得られた情報をもとに,各単語に対するユーザの視線情報を記録する視線情報記録過程と,
    ユーザの理解困難または理解できない単語に対する操作から辞書引きの必要性に関するユーザの意図を記録するユーザ意図記録過程と,
    各単語に対して記録されたユーザの視線情報と前記ユーザの意図とを対応付ける関係式を構築する関係式構築過程とを有し,
    自動辞書引きフェーズとして,
    各単語が前記電子文書中に占めている領域を決定する単語領域抽出過程と,
    測定したユーザの視線と各単語の領域とからユーザが注視している単語を推定する注視単語推定過程と,
    各単語に対するユーザの視線情報を決定する視線情報決定過程と,
    前記関係式構築フェーズにおいて構築された関係式を用い,各単語に対するユーザの視線情報から辞書引きの必要性に関する前記ユーザの意図を推定するユーザ意図推定過程と,
    前記ユーザの意図の推定結果に基づき,辞書引きが必要と推定した単語について辞書データを用いて辞書引きし,辞書引き結果をユーザに提示する辞書引き・辞書引き結果出力過程とを有する
    ことを特徴とする自動辞書引き処理方法。
  7. 請求項6記載の自動辞書引き処理方法をコンピュータに実行させるための自動辞書引き処理プログラム。
  8. 請求項6記載の自動辞書引き処理方法をコンピュータに実行させるためのプログラムを記録した自動辞書引き処理プログラムの記録媒体。
JP2003019982A 2003-01-29 2003-01-29 ユーザ意図推定装置,ユーザ意図推定方法,ユーザ意図推定プログラムおよびそのプログラムの記録媒体,並びに自動辞書引き装置,自動辞書引き処理方法,自動辞書引き処理プログラムおよびそのプログラムの記録媒体 Pending JP2004246398A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003019982A JP2004246398A (ja) 2003-01-29 2003-01-29 ユーザ意図推定装置,ユーザ意図推定方法,ユーザ意図推定プログラムおよびそのプログラムの記録媒体,並びに自動辞書引き装置,自動辞書引き処理方法,自動辞書引き処理プログラムおよびそのプログラムの記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003019982A JP2004246398A (ja) 2003-01-29 2003-01-29 ユーザ意図推定装置,ユーザ意図推定方法,ユーザ意図推定プログラムおよびそのプログラムの記録媒体,並びに自動辞書引き装置,自動辞書引き処理方法,自動辞書引き処理プログラムおよびそのプログラムの記録媒体

Publications (1)

Publication Number Publication Date
JP2004246398A true JP2004246398A (ja) 2004-09-02

Family

ID=33018717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003019982A Pending JP2004246398A (ja) 2003-01-29 2003-01-29 ユーザ意図推定装置,ユーザ意図推定方法,ユーザ意図推定プログラムおよびそのプログラムの記録媒体,並びに自動辞書引き装置,自動辞書引き処理方法,自動辞書引き処理プログラムおよびそのプログラムの記録媒体

Country Status (1)

Country Link
JP (1) JP2004246398A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007299026A (ja) * 2006-04-27 2007-11-15 Toshiba Corp 電子新聞システム及びプログラム
US7949959B2 (en) * 2006-11-10 2011-05-24 Panasonic Corporation Target estimation device and target estimation method
JP2011164856A (ja) * 2010-02-08 2011-08-25 wealth share株式会社 嗜好判定方法及び嗜好判定プログラム
JP2016191741A (ja) * 2015-03-30 2016-11-10 株式会社エヌ・ティ・ティ・データ 音声処理装置、音声処理方法およびプログラム
US11209900B2 (en) 2017-04-03 2021-12-28 Sony Corporation Information processing device and information processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007299026A (ja) * 2006-04-27 2007-11-15 Toshiba Corp 電子新聞システム及びプログラム
US7949959B2 (en) * 2006-11-10 2011-05-24 Panasonic Corporation Target estimation device and target estimation method
JP2011164856A (ja) * 2010-02-08 2011-08-25 wealth share株式会社 嗜好判定方法及び嗜好判定プログラム
JP2016191741A (ja) * 2015-03-30 2016-11-10 株式会社エヌ・ティ・ティ・データ 音声処理装置、音声処理方法およびプログラム
US11209900B2 (en) 2017-04-03 2021-12-28 Sony Corporation Information processing device and information processing method

Similar Documents

Publication Publication Date Title
White Interactions with search systems
US9075873B2 (en) Generation of context-informative co-citation graphs
US6907581B2 (en) Method and system for implicitly resolving pointing ambiguities in human-computer interaction (HCI)
US20110063231A1 (en) Method and Device for Data Input
US20170031652A1 (en) Voice-based screen navigation apparatus and method
US9691381B2 (en) Voice command recognition method and related electronic device and computer-readable medium
GB2568574A (en) Highlighting key portions of text within a document
KR20140128381A (ko) 컨텍스트 기반 검색 쿼리 형성 기법
RU2614539C2 (ru) Масштабирование адресной строки и вкладок на основе задачи
CN109891374B (zh) 用于与数字代理的基于力的交互的方法和计算设备
Menges et al. Improving user experience of eye tracking-based interaction: Introspecting and adapting interfaces
US20220188514A1 (en) System for analyzing and prescribing content changes to achieve target readability level
US20170068316A1 (en) Input device using eye-tracking
US20120254797A1 (en) Information processor and computer program product
Majaranta et al. Eye movements and human-computer interaction
Elguera Paez et al. Elderly users and their main challenges usability with mobile applications: a systematic review
US20140379324A1 (en) Providing web-based alternate text options
US20170322913A1 (en) Stylizing text by replacing glyph with alternate glyph
US20110022956A1 (en) Chinese Character Input Device and Method Thereof
US9223854B2 (en) Document relevance determining method and computer program
Ferdous et al. Enabling Efficient Web Data-Record Interaction for People with Visual Impairments via Proxy Interfaces
JP2004246398A (ja) ユーザ意図推定装置,ユーザ意図推定方法,ユーザ意図推定プログラムおよびそのプログラムの記録媒体,並びに自動辞書引き装置,自動辞書引き処理方法,自動辞書引き処理プログラムおよびそのプログラムの記録媒体
JP5559750B2 (ja) 広告処理装置、情報処理システム及び広告処理方法
Smith et al. Exploring the use of query auto completion: Search behavior and query entry profiles
Arias et al. Web accessibility for people with reduced mobility: a case study using eye tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070522

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070522

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070904