JPH10133810A - 視標追跡駆動情報検索方法および装置 - Google Patents

視標追跡駆動情報検索方法および装置

Info

Publication number
JPH10133810A
JPH10133810A JP9183270A JP18327097A JPH10133810A JP H10133810 A JPH10133810 A JP H10133810A JP 9183270 A JP9183270 A JP 9183270A JP 18327097 A JP18327097 A JP 18327097A JP H10133810 A JPH10133810 A JP H10133810A
Authority
JP
Japan
Prior art keywords
user
information
computer
gaze
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9183270A
Other languages
English (en)
Inventor
Bruce Tognazzini
ブルース・トグナズィーニ
Jakob Nielsen
ジェイコブ・ニールセン
Robert Glass
ロバート・グラス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Microsystems Inc
Original Assignee
Sun Microsystems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Microsystems Inc filed Critical Sun Microsystems Inc
Publication of JPH10133810A publication Critical patent/JPH10133810A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Digital Computer Display Output (AREA)
  • Position Input By Displaying (AREA)

Abstract

(57)【要約】 【課題】 コンピュータ・ディスプレイ画面上でユーザ
に対して提示されたどの情報がユーザにとって最も関心
があるかを判定する方法を提供する。 【解決手段】 本発明では、この情報を使用して、表示
情報のトピックとユーザの関心とを相関させ、ユーザの
ために追加情報を選択する。この追加情報によってユー
ザの関心との適合が改善される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、一般に、コンピュ
ータと人間の間のユーザ・インタフェース技術に関し、
より具体的には、コンピュータがコンピュータ操作のど
の局面がユーザの関心事であるかを自動的に判定し、そ
の局面を最適化できるようにするための方法、装置、シ
ステム、及びコンピュータ・プログラムを記録した記録
媒体に関する。
【0002】
【従来の技術】
人間/コンピュータ間の対話 最新のコンピューティング・システムの重要な特徴は、
人間のユーザとコンピュータとの間のインタフェースで
ある。初期の対話インタフェースはテキスト・ベースで
あり、ユーザはキーボード上で一連の文字をタイプする
ことによってコンピュータとやりとりし、コンピュータ
は出力装置、一般にディスプレイ画面上に文字を表示す
ることによってユーザとやりとりしていた。このような
入力文字は、コンピュータのオペレーティング・システ
ムまたはコンピュータ上で実行中のアプリケーション・
プログラムへのコマンドを指定するものであった。この
コマンドにより、所与の操作を実行するプログラム論理
が呼び出されていた。最新のコンピュータ・システムで
は、ユーザとコンピュータとの対話を単純化するために
グラフィカル・ユーザ・インタフェース(GUI)を使
用している。GUI搭載コンピュータは、ディスプレイ
画面上にテキストとアイコンを含むグラフィックを表示
することによってユーザとやりとりし、ユーザは、ダイ
アログに応答してテキスト情報をタイプすることと、マ
ウスなどのポインティング・デバイスを使って表示され
たアイコンを操作することの両方によってマシンとやり
とりする。
【0003】多くの最新のGUIはウィンドウ環境を用
意している。典型的なウィンドウ環境では、ディスプレ
イ画面上に描かれたグラフィック表示は電子の「デスク
トップ」の表面に似るように配置され、コンピュータ上
で動作中の各アプリケーション・プログラムはディスプ
レイ画面上の矩形領域として表示された1枚または複数
の電子の「用紙」として表される。このような矩形領域
は「ウィンドウ」と呼ぶ。各ウィンドウは多数の区画を
含むことができる。各区画は特定のタイプの情報(テキ
スト、静止画像、動画など)用の区域である。
【0004】各ウィンドウは、関連アプリケーションま
たはシステム・プログラムによって生成された情報を表
示する。さらに、複数のウィンドウが同時にデスクトッ
プ上に存在し、それぞれが1つのプログラムによって生
成された情報を含む場合もある。プログラムは、ウィン
ドウ内に画像、グラフィック、またはテキストを描画ま
たは「ペイント」することにより、各ウィンドウを介し
てユーザに情報を提示する。また、ユーザは、ディスプ
レイ画面上の他の位置にウィンドウを移動し、従来通り
デスクトップを配置するためにそのサイズおよび外観を
変更することもできる。ユーザは、ポインティング・デ
バイスによって制御されたカーソルを使ってウィンドウ
内に表示されたオブジェクトを「ポイント」し、希望通
りにオブジェクトを操作することによってプログラムと
やりとりする。場合によっては、プログラムが任意の操
作に応答してユーザからの追加情報を要求することもあ
る。この要求は、要求された情報をユーザがキーボード
からダイアログに提供できるようにするための「ダイア
ログ」として提示される。
【0005】各ウィンドウは、通常、サイズ変更ボック
ス、ボタン、スクロール・バーなどのいくつかの標準的
なグラフィック・オブジェクトを含む。これらの機能
は、ポインティング・デバイスを使ってユーザが操作で
きるユーザ・インタフェース・コントロールを表してい
る。このコントロールを選択または操作すると、GUI
は基礎となるプログラム内のプログラム論理を呼び出し
て、対応するコマンドを実行する。
【0006】GUIの特徴の1つは、GUIはポインテ
ィング・デバイスまたはキーボードに対するユーザによ
る明示的な操作のみに応答することである。マウスの場
合、ユーザはマウス・デバイスを物理的に動かし、それ
に応じてディスプレイ上のカーソルが移動する。ポイン
ティング・デバイスによっては、実際にユーザの凝視を
追跡し、ディスプレイ画面上でユーザが「見ている」と
ころへカーソルを移動するものもある。しかし、凝視追
跡(視標追跡)装置の場合でも、そのコマンドがボタン
の押下げであるか、明滅であるか、視点の移動であるか
にかかわらず、GUIはユーザの明示コマンドにのみ応
答する。コンピュータは、依然としてユーザが明示コマ
ンドを出すことによって操作しなければならないツール
のままである。
【0007】これに対して、人間は、他の人の目を見る
ことによって推理する能力を備えている。人は魅力的な
ものを見るときに瞳孔が広がる。人は関心のあるものに
目を向け、興味深いと思ったものを見つめる。また、人
間の目の動きは思考プロセスも反映する。したがって、
人間は、他の人が自分自身の見方をどう処理するかを観
察し、その人が関心のあるものまたはその人が考えてい
ることを推理する。
【0008】コンピュータ/人間間インタフェースの先
行技術は、ユーザの直接の関心事を判定するものではな
い。先行技術のコンピュータ/人間間インタフェース
は、キーボードでコマンドをタイプすることによって入
力したか、マウスを操作してカーソルを動かすことによ
って入力したか、凝視追跡装置を使用してカーソルを動
かすことによって入力したかにかかわらず、単にユーザ
のコマンドに応答するだけである。したがって、コンピ
ュータは、所与の時点でコンピュータ操作のどの特徴が
ユーザにとって最も関心のあることであるかを検出また
は予想することができない。
【0009】凝視追跡装置 ほとんどの凝視追跡装置は、人の凝視の方向は瞳孔の相
対位置および対象物の角膜からの反射に直接関係すると
いう原理に基づいて機能する(凝視追跡は視標追跡と呼
ばれる場合も多い)。このような装置は、目の凝視方向
を決定するために目のビデオ画像を操作する画像処理機
能を含む場合が多い。このような画像処理機能は、明る
い目の作用を使用することによって強化されている。
【0010】明るい目の作用は、網膜の反射性の高さの
結果である。このような網膜の特徴は、目に入った光の
うちのかなりの量が瞳孔から反射して戻ることを意味す
る。したがって、カメラのレンズの軸に沿って目の中に
光が照射されると、網膜はその光の大部分を反射してカ
メラに戻す。このため、瞳孔は、カメラにとって明るい
ディスクのように見える。この作用により、瞳孔が目の
映像からより容易に結像できるようになる。
【0011】凝視追跡の方法は他にも存在する。一方は
頭の動きを追跡し、もう一方は目からの反射を測定する
という、2台のビデオ・カメラの使用を取り入れた方法
もある。その他のメカニズムでは、目の様々な側の位置
間の電位差を測定することを含む。高精度の装置は、ユ
ーザにとっては非常に厄介なものであり、ユーザの頭を
固定位置に保持するか、または目を追跡するためにユー
ザが特殊な装置を装着することが必要である。
【0012】The Eyegaze Eyetracking System - Uniqu
e Example of a Multiple-Use Technology(4th Annual
1994 IEEE Dual-Use Technologies and Applications C
onference、1994年5月)に記載されているように、
最近、凝視視標追跡システムが開発された。このシステ
ムは、ユーザの目の一方を監視するためにコンピュータ
・ディスプレイの下に位置するビデオ・カメラを含む。
また、この装置は、明るい目の作用を最大にするために
カメラのレンズの中心に位置する赤外線発光ダイオード
(LED)も含む。コンピュータ上の画像処理ソフトウ
ェアは、約1/4インチの正確さで1秒間に60回、デ
ィスプレイ上のユーザの凝視点を計算する。
【0013】凝視追跡装置は、武器制御、オペレータの
トレーニング、有用性分析、マーケット・リサーチのた
めに、また、障害者用の補助具として使用されている。
しかし、凝視追跡装置は、特定の時点でコンピュータ操
作のどの特徴がコンピュータ・ユーザに関心をもたせる
かを判定するため、またはディスプレイ画面上のどこを
ユーザが見ているかによって実証されるようにコンピュ
ータがユーザの関心に適応できるようにするために使用
されているわけではない。
【0014】テキスト音声変換 多くの最新のコンピュータは、テキスト音声変換機能を
提供する。この機能は、テキスト・ストリングを処理
し、コンピュータの音声出力装置(ヘッドフォンまたは
スピーカ)から理解可能な音声を生成する。この機能に
より、コンピュータは、テキスト・ストリングの音声バ
ージョンをコンピュータ・ユーザに提示することができ
る。
【0015】情報のダウンロードに関する問題 ワールド・ワイド・ウェブ(WWW)およびWWWブラ
ウザの背景については、Wayne AuseによるInstant HTML
Web Pages(Ziff-Davis Press、ISBN 1-56276-363-6、Cop
yright 1995、1〜15ページ)の第1章を参照す
ると、十分記載されているが、同書は参照により先行技
術の例示として本明細書に取り入れるものとする。
【0016】インターネットを使用すると、コンピュー
タ・ユーザは膨大な量の情報にアクセスすることができ
る。しかし、通信チャネルの帯域幅が限られているの
で、インターネットを介してこの情報を取り出すには相
当な時間を要する場合が多い。帯域幅は多くの要因によ
って制限されている。このような要因の一部は、ユーザ
のコンピュータからインターネットへの通信リンクの帯
域幅、情報プロバイダのコンピュータからインターネッ
トへの通信リンクの帯域幅、このようなリンク上の他の
通信トラフィックの存在、インターネット自体の帯域幅
などである。しかし、主な帯域幅制限はユーザのコンピ
ュータ側に存在する。
【0017】複数のデータ・ストリームがこの限られた
通信リンクを流れることが多いので、ユーザのコンピュ
ータ側のこの帯域幅制限はさらに悪化する。ユーザが特
定のデータ転送に関心がある場合、このような追加のデ
ータ・ストリームは、本来はユーザにとって関心のある
データ・ストリームに使用できるはずの帯域幅を使用し
てしまう。この結果、関心のあるデータ・ストリームの
データ転送速度が低下する。
【0018】たとえば、先行技術のWWWブラウザは、
一般に、ウィンドウ内の可視ビューに向けられたすべて
のデータ転送に対して帯域幅を等しく割り振ろうと試み
る。この手法は各ビューごとにデータを順次取り出すだ
けの場合より明らかに優れているが、この手法では、ユ
ーザにとって最も関心のあるデータの取出しが遅れてし
まう。というのは、使用可能なチャネル帯域幅がそのビ
ューにデータを供給するデータ・ストリーム間で分割さ
れるからである。したがって、関心のある情報に適用さ
れていた可能性のある帯域幅を関心のない情報が使用し
てしまうので、ユーザが待たなければならない時間が増
加する。
【0019】大量のデータの伝送中、プログラムは一般
に、伝送の進行状況を示す何らかの表示を行う。この表
示は、バー・インジケータ、数値によるパーセント・イ
ンジケータなどのインジケータによって行われ、画像の
場合は表示された画像で使用可能な細部の量のみで行わ
れることが多い。転送が完了するまで待つ間に、ユーザ
は、インジケータまたは部分充填画像の進行状況を監視
することが多い。
【0020】
【発明が解決しようとする課題】前述のように、先行技
術に関する問題の1つは、情報のダウンロードに使用す
るデータ・ストリームに割り振られた帯域幅をユーザが
ほとんど制御できないことである。さらに、アプリケー
ションがこの制御権をユーザに与えなければならない場
合でも、ユーザは依然として、割り振られた帯域幅を設
定するようにアプリケーションに明示的に命令しなけれ
ばならない。
【0021】本発明ではこのような問題に対処する。
【0022】画像に関連する追加データに関する問題 プリントおよびコンピュータ・ハイパーテキスト・ドキ
ュメントでは、ピクチャおよびイラストなどの画像に
は、その画像を説明するかまたは魅力を増すためのキャ
プションなどの追加情報が設けられている場合が多い。
その画像を見る人は、画像を見ると同時に関連キャプシ
ョンを読むことはできない。したがって、見る人の注意
は、関連キャプションを探して読んでいる間に画像から
それてしまう。このような状況と、視覚情報と音声情報
が両方とも同時に見る人に提示されるようなフィルムま
たはビデオなどの指向性時間依存媒体と対比してみよ
う。音声キャプション付けは音声スピーカにより追加情
報を提示し、見る人の凝視を関心のある画像からそらさ
ずにユーザが聴覚的に追加情報を受け取れるようにす
る。ユーザが複数の画像からどの画像を見るべきかを選
択できるようにするためのシステムでは、ユーザは音声
キャプションを明示的に起動しなければならない。した
がって、この場合もユーザは、キャプションを探して活
動化する必要性により、画像を見ることから注意がそれ
てしまう。
【0023】本発明ではこのような問題に対処する。
【0024】ユーザに対して小さいテキストを表示する
場合の問題 コンピュータのディスプレイ画面上のテキストが読みに
くい場合がよくある。これは、視力の問題による場合が
多い。したがって、WYSIWYG(見たままの印字)
アプリケーションで使用する活字は、表示距離で快適に
読むには小さすぎる場合が多い。さらに、出版業者は、
重要性を示すレイアウト・ツールとして様々な活字サイ
ズを使用する。したがって、最も大きい表題テキストと
記事のテキストとの間に使用する画面空間とテキスト・
サイズは大きく変動する。この問題に対処するため、ア
プリケーションによってはWYSIWYGテキストを拡
大できるものもある。この機能を提供するワード・プロ
セッシング・プログラムの例としては、Microso
ftのWord(登録商標)やAdobeのFrame
Maker(登録商標)などのプログラムがある。しか
し、このようなプログラムでは、ユーザが直接的または
間接的に所望の倍率を明示的に指定しなければならな
い。さらに、ページを拡大すると、ユーザに表示される
ページの割合が減少するので、拡大プロセスにより、コ
ンピュータ・ディスプレイ上に同時に表示できるページ
の量が減少する。この問題は、新聞や雑誌のWYSIW
YGバージョンを表示するアプリケーションではさらに
悪化する。というのは、このようなアプリケーションは
一般に、WYSIWYGページ・レイアウトを維持しよ
うと試み、表示されたページは均一に拡大されるからで
ある。ページ全体を見るには、一般に記事のテキストが
判読しにくいサイズまで縮小される。
【0025】新聞および雑誌のページ・レイアウトは重
要である。多数の読者の関心をひきつけるため、新聞の
発行元は最初の数ページに多数の記事を載せる。1ペー
ジに載せる記事の数を増やす方法の1つは、その記事に
使用する空間量を減らすことである。従来の新聞では、
その記事の後続部分を様々なページに移動することによ
ってこれを行っている。このため、読者は、編集者が最
も今日的であると信じる記事に素早く目を通し、興味深
いと思った記事を徹底的に読むことができる。さらに、
1ページに配置されている記事の位置は、記事を見る順
序を左右する。電子新聞にもこれと同じ特徴がある。
【0026】しかも、電子新聞は、従来の新聞のよう
に、表題と副題の相対的な重要性を示すために様々な活
字スタイルとサイズを使用する。したがって、読者に対
して表示される最大テキストと最小テキストとの間には
大きい格差が存在する。さらに、大型のコンピュータ・
ディスプレイには、従来の新聞に使用可能なものより小
さい表示域しかなく、このため、発行元が記事に使用で
きる面積が縮小する。
【0027】にもかかわらず、コンピュータ・ディスプ
レイは、新聞と同じ量の情報を伝達しなければならない
場合が多い。したがって、新聞の内容をディスプレイ画
面上にマッピングすると、記事に使用する活字のサイズ
は、その記事のテキストが極めて読みにくくなるような
ポイントまで縮小する。さらに、表示したテキストを全
体的に拡大するためにワード・プロセッシング・プログ
ラムが使用する拡大方法は、1ページに多くの記事を掲
載する場合には十分機能しない。というのは、ページ全
体を拡大し、そのページに示す表示を制限すると、ペー
ジの構造を見る人から引き離すことになるからである。
したがって、テキストを全体的に拡大することは、その
ページ上に希望の数の記事を掲載することと両立しな
い。さらに、ページを全体的に拡大すると、より大きい
タイトルと表題のテキストをこのテキストを読めるよう
にするために必要な大きさ以上に拡大することにもな
り、本来は追加情報の提示に使用できるはずのディスプ
レイ空間を不当に消費することになる。したがって、ペ
ージ・レイアウトが提供する構造上の表示を保持しなが
ら、読者のためにテキスト・サイズを最適化するような
メカニズムが必要になっている。
【0028】本発明ではこのような問題に対処する。
【0029】ユーザのために適切な情報を選択する場合
の問題 簡単に前述した電子新聞のもう1つの局面は、新聞用の
情報内容を選択することである。情報内容は、関心のあ
る特定の項目に関する記事と、広告情報の両方を含む。
情報内容は、人が各種の紙ベースの雑誌および新聞を選
択する際の主な理由である。このような従来の情報提供
者は、読者に興味を起こさせると信じている情報を提示
する。従来の新聞や雑誌は、いったん印刷してしまうと
静的なものである。したがって、各版はそれを読む人全
員にとって同じであり、特定の地域に配布される特定の
版の各部は、その地域に配布される他の部すべてと同じ
記事、同じレイアウト、同じ広告を含んでいる。この広
告および情報内容は特定の地域に合わせてカストマイズ
することができる。しかし、このような地域化は、それ
ぞれの読者の特定の個人的な関心に合わせて新聞または
雑誌をカストマイズすることが極めて費用がかかる場合
に限り、行うことができる。したがって、ある地域のた
めに選択した情報の中には、一部の読者に興味を起こさ
せないものもある。
【0030】無形の電子新聞は、有形の紙媒体を使用す
る場合に固有の前述の制限によって拘束する必要はな
い。しかし、電子新聞は依然として、ほとんどの広告お
よび情報内容の目標として、個々の読者の特定の関心で
はなく、特定のマーケットを対象としている。電子出版
の読者に対して電子新聞の内容をカストマイズするため
の手段を提供する場合でも、ユーザは内容を明示的に指
定しなければならない。さらに、内容を明示的に指定す
ることにより、ユーザは、指定の範囲外であるが読者に
とって関心のあるものである可能性のある他の関連情報
が提示されない可能性もある。
【0031】本発明ではこのような問題に対処する。
【0032】
【課題を解決するための手段】本発明は、機能強化した
諸機能をコンピュータ・ユーザに提供するための経済的
な装置、方法、システム、コンピュータ・プログラムを
記録した記録媒体を提供する。本発明は、コンピュータ
がユーザを監視して、コンピュータ操作のどの局面がユ
ーザの関心事であるかを判定し、それに応じて応答する
ための方法を提供する。
【0033】
【課題を解決するための手段】本発明の一態様は、コン
ピュータのユーザに情報を提示するためのコンピュータ
制御の方法である。この方法ではディスプレイ装置と凝
視追跡装置とを使用する。凝視追跡装置は、ディスプレ
イ装置上のユーザの凝視位置を判定する。この方法の第
1のステップでは、複数のカテゴリー化情報をディスプ
レイ装置上に表示する。次にこの方法は、凝視位置を監
視し、ディスプレイ装置上に表示された複数のカテゴリ
ー化情報に対するユーザの関心レベルを判定する。ま
た、本発明は、複数のカテゴリー化情報を分類する1つ
または複数のトピックを取り出す。このようなトピック
と関心レベルとを使用して、本発明は、新たな複数のカ
テゴリー化情報を選択するために使用する相関関係を判
定する。
【0034】本発明の他の態様では、ディスプレイ装置
上でユーザに情報を提示する情報提示装置を開示する。
この装置は、中央演算処理装置と、メモリと、凝視追跡
装置とを含む。凝視追跡装置はディスプレイ装置上の凝
視位置を判定する。この装置は、ディスプレイ装置上に
複数のカテゴリー化情報を表示するディスプレイ・メカ
ニズムも含む。しかもこの装置は、凝視位置を監視し
て、ディスプレイ装置上に提示された複数のカテゴリー
化情報に対するユーザの関心レベルを判定するために監
視メカニズムを使用する。また、この装置は、ディスプ
レイ装置上に表示されたカテゴリー化情報を分類するト
ピックを取り出す取出しメカニズムも含む。このような
トピックとユーザの関心レベルは、トピックと関心レベ
ルとの相関関係を判定する相関メカニズムに提供され
る。最後に、この装置は、この相関関係に基づいて新た
な複数のカテゴリー化情報を選択する選択メカニズムを
含む。
【0035】本発明の他の態様は、ディスプレイ装置上
でユーザに情報を提示する情報提示システムを開示す
る。このシステムは凝視追跡装置を含む。凝視追跡装置
はディスプレイ装置上の凝視位置を判定する。このシス
テムは、ディスプレイ装置上に複数のカテゴリー化情報
を表示するディスプレイ・メカニズムも含む。しかもこ
のシステムは、凝視位置を監視して、ディスプレイ装置
上に提示された複数のカテゴリー化情報に対するユーザ
の関心レベルを判定するために監視メカニズムを使用す
る。また、このシステムは、ディスプレイ装置上に表示
されたカテゴリー化情報を分類するトピックを取り出す
取出しメカニズムも含む。このようなトピックと前記ユ
ーザの関心レベルは、トピックと関心レベルとの相関関
係を判定する相関メカニズムに提供される。最後に、こ
のシステムは、この相関関係に基づいて新たな複数のカ
テゴリー化情報を選択する選択メカニズムを含む。
【0036】本発明の最後の態様では、コンピュータで
使用可能な記憶媒体で実施されたコンピュータで読取り
可能なコードを有するコンピュータ・プログラム製品を
開示する。コンピュータ上で実行されると、このコンピ
ュータで読取り可能なコードにより、コンピュータは、
ディスプレイ装置上に複数のカテゴリー化情報を表示す
るためのディスプレイ・メカニズムを実行する。さらに
本発明は、上記のシステムと同じ機能を有する監視メカ
ニズムと、取出しメカニズムと、相関メカニズムと、選
択メカニズムとを実行するコードを含む。
【0037】本発明の上記および多くのその他の目的お
よび利点は、様々な図面に図示した好ましい実施形態に
関する以下の詳細な説明を読めば、当業者には必ず明ら
かになるだろう。
【0038】
【発明の実施の形態】
表記法および用語集 以下の「表記法および用語集」は、本発明およびその好
ましい実施形態を理解しやすくするためのものである。
【0039】広告−−商取引に至るように商品またはサ
ービスに関して見る人に通知するために商品またはサー
ビスに関して提供する情報。一種の記事。
【0040】記事−−1つの完全な著作物であって、タ
イトルで識別される場合が多い。
【0041】帯域幅−−所与の期間(通常は1秒に関し
て示す)内に通信チャネルを横断して通過可能な情報の
量。
【0042】ダイアログ−−ユーザから追加情報を得る
ために使用する特殊ウィンドウ。ダイアログは、コンピ
ュータ依存のオプション及びパラメータを得るために使
用する場合が多い。印刷メニュー・コマンドによって呼
び出される印刷ダイアログが良い例である。印刷ダイア
ログにより、ユーザは特定の印刷ジョブにどのプリンタ
・オプションを使用すべきかを指定することができる。
一般に、ダイアログにより、ユーザは特定のパラメータ
を指定し、次にダイアログを呼び出したコマンドを確認
するかまたは取り消すことができる。ユーザがコマンド
を取り消した場合、ダイアログ・ウィンドウは除去さ
れ、ダイアログを呼び出したコマンドは打ち切られる。
ユーザがコマンドを確認した場合、ダイアログを呼び出
したコマンドの実行時に、ダイアログによって獲得され
たユーザ指定情報が使用される。
【0043】Eメール・システム−−電子メール・シス
テム。一般にネットワークによって接続された複数のコ
ンピュータからなるシステムであって、送信者(第1の
コンピュータのユーザである)がメッセージを構成する
データを作成し、受信者(第1のコンピュータまたは第
2のコンピュータのユーザである)に送信できるように
するシステム。
【0044】グラフィカル・ユーザ・インタフェース
(GUI)−−ディスプレイ上の選択可能制御域を指し
示し、選択可能制御域に関連するコマンドまたはコンピ
ュータ操作を活動化することにより、ユーザがコンピュ
ータ・ディスプレイとやりとりできるようにするユーザ
・インタフェース。GUIは当技術分野では周知のもの
である。
【0045】凝視位置−−画面上の関心のある区域であ
って、限られた期間中のユーザの凝視の境界を示すも
の。
【0046】凝視座標−−限られた期間中のユーザの凝
視とディスプレイ画面との交点を表す座標。
【0047】凝視座標(生)−−ユーザの凝視とディス
プレイ画面との瞬間的な交点を表す座標。
【0048】画像−−ディスプレイ画面上に表示される
情報であって、ピクチャ、描画、イラスト、テキスト、
ビデオなどであり、これらに限定されないもの。一般に
ウィンドウ内に含まれるビューに表示される画像。静止
画像はピクチャである。動画は、ビデオと同様に順次再
生されるいくつかの静止画像のフレームからなる。
【0049】ポインティング・デバイス−−コンピュー
タ・ユーザの入力に応答し、コンピュータ・ディスプレ
イ画面上のインジケータを移動させる装置。このような
インジケータは、(たとえば、マウス・デバイスのボタ
ンを押すことにより)ポインティング・デバイスを活動
化した場合に、そのアクティブ・ポイントによって覆わ
れる選択可能制御域に関連するコマンドが呼び出される
ような、アクティブ・ポイントを備えている。一般にグ
ラフィカル・ユーザ・インタフェースではポインティン
グ・デバイスを使用する。
【0050】選択可能制御域−−コンピュータ・ディス
プレイ上の1つの区域であって、ポインティング・デバ
イスの活動化に敏感なところ。選択可能制御域上でポイ
ンティング・デバイスを活動化すると、その選択可能制
御域に関連するコマンドまたはコンピュータ操作が呼び
出される。グラフィカル・ユーザ・インタフェース(G
UI)を備えた多くのコンピュータ・システムでは、キ
ーボードのファンクション・キーやコマンド行など、こ
のようなコマンドまたはコンピュータ操作を呼び出すた
めの他の方法も備えている。
【0051】URL−−ユニバーサル・リソース・ロケ
ータ。URLは、ワールド・ワイド・ウェブ上の情報に
アクセスするために使用する。
【0052】ビュー−−ウィンドウ内の1つの区域であ
って、情報が示されるところ。
【0053】ウィンドウ−−コンピュータ・ディスプレ
イ画面上の通常は矩形の1つの区域であって、アプリケ
ーションによって制御されるもの。
【0054】手順−−所望の結果に至るための筋の通っ
た一連のステップ。このようなステップは、物理的数量
の物理的操作を必要とするものである。通常、このよう
な数量は、格納、転送、合成、比較、その他の操作が可
能な電気信号または磁気信号の形態を取る。このような
信号は、ビット、値、要素、記号、文字、用語、数など
と呼ばれる。当業者であれば、上記および同様の用語は
いずれも適切な物理的数量に関連し、このような数量に
便宜的なラベルが付けられているにすぎないことが分か
るだろう。
【0055】概要 命令コードを実行する際にコンピュータが実行する操作
は、人間のオペレータが実行する知的操作に一般に関連
する、加算または比較などの用語で呼ばれる場合が多
い。本発明では、ここに記載する操作のいずれにおいて
も、人間のオペレータのこのような能力は一切不要であ
る。すなわち、操作はマシンの操作である。本発明の操
作を実行するための有用なマシンとしては、プログラミ
ング済み汎用ディジタル・コンピュータまたは同様のデ
バイスがある。いずれの場合も、計算の方法はコンピュ
ータを操作する際の操作方法とは区別される。本発明
は、他の所望の物理信号を生成するために電気信号また
はその他の(たとえば、機械的、化学的)物理信号を処
理する際にコンピュータを操作するための方法ステップ
に関する。
【0056】また、本発明は、このような操作を実行す
るための装置にも関する。この装置は、必要な目的のた
めに特別に構築するか、またはコンピュータのメモリ内
に格納されたコンピュータ・プログラムによって選択的
に活動化または再構成される汎用コンピュータを含むこ
とができる。ここに提示する手順は、特定のコンピュー
タまたはその他の装置に本質的に関連するものではな
い。特に、ここに示す教示に従って作成されたプログラ
ムとともに様々な汎用マシンを使用するか、または必要
な方法ステップを実行するためにより専門化した装置を
構築する方がより好都合であると分かる場合もある。こ
のような様々なマシンにとって必要な構造は以下の説明
から明らかになるだろう。また、本発明は、プログラミ
ング済み論理を実行するようにコンピュータに指示する
プログラムでコード化したコンピュータで読取り可能な
記憶媒体に実施することもできる。
【0057】動作環境 図1は、本発明をサポートするように構成され、一般参
照文字102で示すコンピュータ・システムを示してい
る。システム102は、入出力(「I/O」)セクショ
ン135と、中央演算処理装置(「CPU」)137
と、メモリ・セクション139とを有するプロセッサ1
33を含む。I/Oセクション135は、キーボード1
41、ディスク記憶ユニット143、ネットワーク11
7へのアクセスを可能にするネットワーク・インタフェ
ース145、ディスプレイ・ユニット147、ポインテ
ィング・デバイス148、凝視追跡装置155、スピー
カ157、CD−ROMドライブ・ユニット149に接
続されている。CD−ROMユニット149は、通常、
複数のプログラム153およびデータを含むCD−RO
M媒体151を読み取ることができる。CD−ROM1
49とディスク記憶ユニット143はファイル記憶メカ
ニズムを含む。当業者であれば、ファイル記憶メカニズ
ムは、コンピュータがデータにアクセスできるようにす
るための読取り専用メモリ、RAM、またはその他の記
憶技術を含むことができることが分かるだろう。このよ
うなコンピュータ・システムは、本発明を実施するプロ
グラミングされた論理を実行することができる。
【0058】凝視追跡操作 図2は、コンピュータ・ディスプレイ装置203に接続
された凝視追跡装置201を示している。図示の通り、
凝視追跡装置201は、コンピュータ・ディスプレイ2
03の下に取り付けられ、ビデオ・レンズ205を含
み、レンズ205の中心には赤外線LED207が取り
付けられている。当業者であれば、本発明では多種多様
なタイプの凝視追跡装置の1つを使用できることが分か
るだろう。コンピュータ・ディスプレイ装置203は、
情報を表示するためにコンピュータがアクセス可能な表
示域209を有する。一般にコンピュータは、この情報
表示のために複数のウィンドウ211および213を作
成する。ユーザが表示域209を見ると、凝視追跡装置
はユーザの凝視位置を判定する。凝視座標(生)は、順
序付けされた1対の値であって、画面上でユーザの凝視
が位置決めされているところを示す直接の2次元座標を
示すものである。いくつかの凝視座標を使用すると、凝
視座標の時間加重平均の2次元座標である凝視位置を作
成することができる。本発明では、精密な凝視座標を使
用する必要はない。実際には、凝視座標は約1/4イン
チまで正確であればよい。当業者であれば、関心のある
区域を表す矩形、多角形、円、その他の形状として凝視
位置を返すこともできることが分かるだろう。さらに当
業者であれば、ユーザが十分な時間の間、表示された区
域に対する関心を示した場合のみ凝視位置を示すように
凝視追跡装置201を構成するか、または所定の期間
中、凝視座標を監視することによりユーザが関心を示し
た場合を検出するようにアプリケーションまたはシステ
ム・プログラム論理を使用できることが分かるだろう。
凝視位置は、ユーザがディスプレイの特定の区域に関心
を持ったことをシステムが検出したときに作成される。
システムは、一定の期間の間、ユーザの凝視が表示可能
域209の特定の領域に限定されていることを認識する
ことにより、この状態を検出する。
【0059】図3は、凝視追跡装置から返される凝視座
標から判定された凝視位置の諸態様を示している。30
1として示した破線矩形は、画像(図示せず)の境界を
示している。凝視追跡装置には不確実性があり、関心の
ある区域に焦点が合っているときでもユーザの凝視は絶
えず動いている(目の不随意運動による)ので、本発明
のこの実施形態では、ユーザの凝視が固定されている区
域305として凝視位置を示す。示された区域305
は、ユーザの凝視が1/2秒などの所与の時間の間、指
定の区域を離れなかったことを意味する。返された円形
区域305を使用するアプリケーション・プログラム
は、ユーザの凝視が画像301の範囲内に十分入ると判
断することができる。というのは、示された円が画像の
その区域内に完全に含まれるからである。ユーザが画像
全体に関心がある場合、凝視はもっと拡散し、その結
果、円が大きくなるはずである。たとえば、301とし
て示した画像を画像311と比較すると、画像301を
見ているユーザは、305として示した円によって示さ
れる画像の特定の態様に焦点が合っている。画像311
を見ているユーザは、309として示した円によって示
される画像の特定の態様と比較して、画像の全体の方に
関心があることを示している。当業者であれば、円と同
様に矩形またはその他の区域表示を使用できることが分
かるだろう。
【0060】本発明の他の実施形態では、凝視追跡装置
は1つの点として凝視位置を返す。たとえば、303と
して示した破線矩形は、他の画像(この場合も画像は図
示せず)の境界を示している。この実施形態の凝視追跡
装置は、所定の期間中の凝視の動きを処理した後、凝視
の位置の時間加重平均である点を返すだけである。この
点は307として示した矢印で示す。
【0061】図4は、複数の凝視座標から凝視位置を作
成するために使用するプロセスを示している。このプロ
セスは先端部401から始まる。次にステップ403で
プロセスは必要なセットアップまたは初期設定を実行す
る。これは、凝視追跡装置から瞬間凝視座標データを定
期的に収集し、ユーザ優先データとその他のワンタイム
初期設定値を獲得するためのタイマ・プログラム論理の
初期設定を含む。次にステップ405でプロセスは複数
の凝視座標(生)を受け取る。これらの凝視座標(生)
は所与の時間中のユーザの凝視の位置を示す。十分な数
の凝視座標(生)を収集した後、プロセスは分岐点40
7で凝視座標(生)の焦点パターンの有無を検査する。
凝視座標(生)が統計的に他のものから離れずにすべて
の凝視座標(生)が所定の境界内に入るときに焦点パタ
ーンが発生する。凝視座標(生)によって焦点が合った
凝視が示されない場合、矢印406が示すように瞬間凝
視座標(生)の収集を続行する。分岐点407で焦点パ
ターンが見つかった場合、ステップ409では、統計的
に有意な凝視座標(生)を含む焦点区域を決定する。最
後に、ステップ411では、凝視位置をプログラム論理
に使用できるようにする。最後に、プロセスは矢印41
2が示すように繰り返す。単純な座標対ではなく1つの
区域として凝視位置を提示する場合、受取り側のプログ
ラム論理は、その凝視位置がどのビューにオーバラップ
するかを判定する。
【0062】当技術分野では、アプリケーション・プロ
グラムなどのプログラム論理に凝視位置を提示するため
の様々な周知の方法がある。このような方法としては、
アプリケーションに例外を与えること、凝視位置を含む
プログラム間メッセージをアプリケーションに送るこ
と、その他の多くの方法などがある。
【0063】実行中のコンピュータ・プログラムは、凝
視追跡装置を使用して、ディスプレイ画面のどの区域が
ユーザの注意の対象であるかを判定することにより、ユ
ーザの関心に最も適合するようにその動作を変更するこ
とができる。凝視追跡装置のこの機能を使用する具体的
な実施形態については以下に説明する。
【0064】凝視追跡装置仲介ダウンロード 前述のように、複数のデータ・ストリームを提供するW
WWブラウザおよびその他のデータ転送プログラムなど
の先行技術の通信プログラムは、ユーザの特定の関心に
応じて帯域幅を割り振るわけではない。このようなプロ
グラムは、せいぜい、ディスプレイ装置上でユーザに提
示される画像およびデータに帯域幅を割り振るだけであ
る。本発明は、コンピュータがユーザがどのデータ・ス
トリームに関心があるかを検出し、ユーザからの明示コ
マンドなしにそのデータ・ストリームにより多くの帯域
幅を割り振れるようにするものである。
【0065】図5は、WWWブラウザで本発明の好まし
い実施形態をどのように使用するかを示している。ブラ
ウザ・アプリケーションはディスプレイ装置上にウィン
ドウ501を表示する。ユーザは、ウィンドウ501に
HTMLでコード化した情報を含むウェブページを提示
するために任意のURLを呼び出す。この特定の例のウ
ェブページは、複数の画像区域505、513、519
とともに3通りのテキスト区域503、511、517
を示している。これらの画像のそれぞれは1つのビュー
内に表示されている。さらに、これらの画像は「大型デ
ータ・エンティティ」から構築される。各大型データ・
エンティティは、そのエンティティを定義するために使
用する大量のデータからなる。大型データ・エンティテ
ィの例としては、特に、高解像度のグラフィック画像
や、音声およびビデオ・エンティティなどがある。画像
505、513、519のうちの複数の陰影付き区域5
07、509、521は、完了前の特定の時点でダウン
ロードされた画像の量を示している。513として示し
た画像にユーザが関心がある場合、ユーザはその画像5
13がいっぱいになるのを監視する。したがって、凝視
位置区域515は画像513と交差し、その結果、関心
のある区域として画像513を識別する。どの画像50
5、513、519に関心があるかを判定するための補
足的な手法は、各画像に関連するテキスト503、51
1、517を用意することである。したがって、画像5
13にリンクした(関連する)テキスト511をユーザ
が読むと、そのテキスト上で凝視位置512が検出され
る。ユーザがそのテキストに関心を示すと、アプリケー
ションは、関心のある区域がリンクされた画像513で
あると適切に想定することができる。
【0066】関心のある区域を判定すると、システム
は、関心のある区域に割り振られた帯域幅を獲得し、可
能であれば、当技術分野で周知の技法を使用して関心の
ある区域に向けられたデータ・ストリームの割振り帯域
幅を増加する。
【0067】図6は、関心のある区域にデータを供給す
るデータ・ストリームに帯域幅を割り振るために使用す
るプロセスを示している。このプロセスは先端部601
から始まる。ステップ603でプロセスは、上記のよう
に凝視追跡装置から凝視位置を受け取る。次にステップ
605では、凝視位置を使用して、ディスプレイ装置上
のどの情報またはビューが凝視位置と交差するかを判定
する。次に判断ブロック・ステップ607でプロセス
は、凝視位置と交差する表示情報が適切かどうかを検査
する。適切な情報とは、ディスプレイ装置に転送中の情
報である。すなわち、完全にロードされた画像は適切な
ものではなく、帯域幅割振りは一切行われない。完全に
伝送された画像の帯域幅は増加する必要がないためであ
る。このような状況と、ロード予定の画像に対してゼロ
帯域幅が割り振られた場合を対比してみよう。この場
合、ロード予定の画像には帯域幅が割り振られている
が、現行割振りはゼロであるのに対し、完全にダウンロ
ードされた画像には帯域幅割振りがまったく行われな
い。テキストは、通常は適切ではない表示情報のもう1
つの例である。というのは、帯域幅を限定してもユーザ
は伝送時と同じ高速度でテキストを読むことはできない
からである。
【0068】判断ブロック・ステップ607で表示情報
が適切である場合、プロセスは、ステップ609でディ
スプレイ上の関心のある区域を判定し、ステップ611
で関心のある区域に関連するデータ・フローに割り振ら
れた帯域幅を増加する。最後にプロセスは終端部613
で完了する。
【0069】しかし、判断ブロック・ステップ607で
表示情報が適切ではない場合、表示情報が関心のある区
域に関連することをソースが示しているかどうかを判定
するために、判断ブロック・ステップ615で表示情報
のソースを検査する。このような状況の一例は、テキス
トが画像に関連する場合である。判断ブロック・ステッ
プ615で関心のある区域にソースが関連していない場
合、処理は613として示した終端部で完了する。しか
し、615で関心のある区域にソースが関連している場
合、プロセスは611で関心のある区域に流れるデータ
の帯域幅を増加する。最後にプロセスは終端部613で
完了する。
【0070】WWWブラウザの好ましい実施形態では、
図6に示すプロセスはディスプレイ装置のどの区域にユ
ーザの関心があるかを判定する。その区域が部分的にダ
ウンロードされた画像である場合、本発明は画像を完成
するためにデータ・フローに割り振られた帯域幅を増加
する。その区域がテキスト域であり、その定義ソースH
TMLが画像との関連を示す(たとえば、大型データ・
エンティティをそのパラグラフに関連付けるパラグラフ
要素内の属性を示すことによる)場合、本発明は、その
特定の画像を完成するためにデータ・フローに割り振ら
れた帯域幅を増加する。
【0071】最後に、本発明を使用する実施形態はWW
Wブラウザに限定されない。帯域幅が限られたネットワ
ークによりダウンロードした情報をディスプレイ装置上
に提示するアプリケーションであれば、どのようなアプ
リケーションでも本発明を使用することができる。これ
は、特にFTP、Kermit、x−modem、y−
modem、z−modemなどのプログラムによって
生成されたデータ転送状況表示に対する関心を検出する
ことを含む。
【0072】キャプション付け 本発明の他の好ましい実施形態は、画像のキャプション
付けに関する。音声キャプション付けは、表示された画
像に対するユーザの関心を検出し、表示された画像に関
する追加音声情報をユーザに自動的に提供するものであ
り、ビデオ・キャプション付けは追加ビデオ情報を提供
するものである。
【0073】図7aはキャプション付けを示している。
電話701の画像がユーザに表示される。ユーザが電話
に関心がある場合、ユーザは画像701を見るので、そ
の結果、凝視追跡装置から凝視位置が生成される。次に
本発明は、電話に関する追加情報をユーザに提示する。
状況によっては、この追加情報は、図7bに示すものな
ど、基礎となるアプリケーション内のデータ構造によっ
て画像に付加された電子情報になる。このような追加情
報は、テキスト、音声に変換されるテキスト、録音した
音声データ、ビデオ・データ、その他の画像を含むこと
ができる。
【0074】その他の状況では、追加情報は画像701
とともに表示されるテキスト・キャプション703にな
るが、キャプション付き画像701への直接の電子リン
クは行われない。追加情報が表示テキスト・キャプショ
ン703である場合、本発明は、その画像701用とし
てテキスト・キャプション703が存在することを検出
し、そのテキスト・キャプション703を抽出し、抽出
したテキスト・ストリングをテキスト音声変換プロセス
に渡し、そのプロセスはキャプション・テキストを音声
形式でユーザに提示する。ページ・マークアップ言語に
よっては、<CAPTION>タグをサポートしている
ものもある。たとえば、SGMLとHTMLはどちらも
このようなタグをサポートしている(ただし、HTML
は<CAPTION>タグをサポートしているが、現在
はテーブル・キャプションにのみ使用し、図には使用し
ていないことに留意されたい)。したがって、本発明の
好ましい実施形態の1つでは<CAPTION>タグを
使用して、画像701のテキスト・キャプション703
を検出する。
【0075】上記の方法はいずれも、関心のある画像に
関する追加情報をユーザに提供するものである。音声方
法により、ユーザは、追加情報を音声によって受け取り
ながら、画像に対する自分の注意を維持することができ
る。追加情報を提示する他の方法の多くでは、結果的に
ユーザが関心のある画像から凝視をそらすことになる。
【0076】図7bは、前述のように追加の電子情報を
画像に関連付けるために使用できる典型的なデータ構造
710を示している。「画像ID」フィールド711
は、ユーザに対して表示される画像を識別するものであ
る。「画像データを指すポインタ」フィールド713
は、画像データ、あるいは、表示された画像701を作
成するために使用する画像データを直接的または間接的
に参照するデータを含む。「追加情報を指すポインタ」
フィールド715は、追加の電子情報データ、あるい
は、追加の電子情報データを直接的または間接的に参照
するデータを含む。このデータ構造は、画像と追加情報
との明示リンクを行うためにプログラミング済みアプリ
ケーションによって使用できる多くのデータ構造のうち
の1つである。プログラミング済みアプリケーションの
中には、このような明示リンクを行わないものもある。
【0077】図8は、ページ例803を表示するウィン
ドウ801を示している。ページ803はテキストと電
話の画像805とを含んでいる。電話の画像805は関
連のテキスト・キャプション807を有する。画像80
5とキャプション807は、複数のブランク域809、
811、813によってテキストからオフセットされて
いる。このようなブランク域809、811、813
は、画像805およびその関連テキスト・キャプション
807を残りの表示テキストから区切るものである。こ
の分離により、基礎となるアプリケーション・プログラ
ムは画像とその関連テキスト・キャプションとのリンク
を判定することができる。さらに、ウィンドウ801を
提示した基礎となるプログラミング済みアプリケーショ
ンがキャプション807と画像805とのリンクを直接
判定するための機能を備えていない場合でも、他のプロ
グラミング済みアプリケーションはウィンドウ801を
走査することができる。ウィンドウの走査後、このよう
なプログラミング済みアプリケーションは、キャプショ
ン・テキスト807を音声に変換し、その音声をユーザ
に提示するためのテキスト音声変換機能によりキャプシ
ョン・テキスト807を分離して渡す。
【0078】図9は、追加情報を提示するために使用す
るプロセスを示している。このプロセスは先端部951
から始まり、そのとき、プロセスはステップ953で凝
視追跡装置から凝視位置を受け取る。判断ブロック・ス
テップ955で凝視位置が画像と交差しない場合、プロ
セスは終端部957で完了する。判断ブロック・ステッ
プ955で凝視位置が画像と交差する場合、ならびに判
断ブロック・ステップ959で画像が電子キャプション
を備えている場合、プロセスはステップ961で追加情
報にアクセスして提示する。最後に、プロセスは終端部
957で完了する。判断ブロック・ステップ959で画
像が電子キャプションを備えていないが、判断ブロック
・ステップ963で判定したように表示テキスト・キャ
プションを備えている場合、プロセスはステップ965
でキャプション・テキストを抽出し、ユーザに対する音
声提示のために結果として得られるテキスト・ストリン
グをテキスト音声変換機能に渡す。最後に、プロセスは
終端部957で完了する。判断ブロック・ステップ96
3で画像がテキスト・キャプションを備えていない場
合、またはこのようなキャプションを判定できない場
合、プロセスは終端部957で完了する。
【0079】当業者であれば、ユーザに対する追加情報
の音声提示は先行技術で既知の技術により行われること
が分かるだろう。
【0080】表示テキストの拡大 電子新聞からのページを図10に示す。この情報は、一
般に上記のようにウィンドウ内のコンピュータ・ディス
プレイ画面上に表示される。この場合、ウィンドウ10
01は、表題1003と、4通りの記事タイトル100
5、1009、1013、1017と、タイトル付き記
事の部分テキスト1007、1011、1015、10
19とを含む。凝視追跡装置を備え、電子新聞を表示す
るためのコンピュータは、ユーザの通常の読取りパター
ンを頼りにすることができる。すなわち、ユーザは、ま
ず主要表題1003を読み、次に記事タイトル100
5、1009、1013、または1017を読み、続い
て記事そのもの1007、1011、1015、または
1019を読む。したがって、ユーザが記事タイトルを
読んでいることを凝視追跡装置が示すと、本発明は、ユ
ーザにとって最適サイズになる倍率分、記事テキストの
拡大を開始する。
【0081】図11は、本発明の2通りの実施形態を示
している。図10のように、ウィンドウ1101内には
4通りの記事タイトル1105、1109、1113、
1117が表示されている。ウィンドウ1101は表題
1103も含む。記事1107は本発明により読むため
に快適なサイズまで拡大されている。この拡大は、内部
に記事1107が表示されているウィンドウ1101の
サイズを拡大せずに行われている。しかし、記事110
7を含むビューと記事1107のテキストが拡大されて
いる。拡大したビュー1107を妨げずに記事1107
を含むビューを拡大するために必要なウィンドウ空間を
得るため、記事1115とそのタイトル1113とを含
むビューはサイズが縮小され、ウィンドウ1101のエ
ッジに向かってシフトしている。タイトル1109およ
び1117に関連する記事は完全にウィンドウ1101
から外へシフトされ、それぞれの関連タイトル1109
および1117だけが残っている。
【0082】ユーザの凝視が拡大した記事1107から
他のタイトル1113、1109、または1117に移
動したとコンピュータが検出した場合、関連記事のテキ
ストが拡大される。同時に、縮小によって発生する明ら
かな動きにユーザの凝視が引きつけられないように、前
に拡大した記事1105、1107のテキストおよびタ
イトルがゆっくり縮小される。本発明の好ましい実施形
態では、ユーザは、記事およびその関連タイトルの縮小
および拡大を瞬間的なものにするようにコンピュータ・
コマンドを使用することができる。さらに、拡大は所定
のユーザの好みに合わせることができる。最後に、記事
の拡大は、読取り速度を最大限にするようにユーザの記
事の読取り速度を監視することにより(時間の経過とと
もに凝視位置がどのように変化するかを判定することに
より)動的に決定することができる。
【0083】本発明の他の実施形態では、ビューの元の
サイズを保持するが、ビュー内のテキストを倍率因子で
拡大する。この実施形態では、好ましい実施形態のよう
に他の記事を縮小して再配置する必要はない。しかし、
ビューの限られた境界内でテキストが拡大するので、拡
大されていないビュー内に表示できるテキストの量は減
少する。さらに、快適に読むために左から右への読取り
パターン(ラテン語ベースの言語の場合)の重要な構造
を保持しなければならないので、テキストの最大拡大が
制限される。限られた空間内でテキストを過剰に拡大す
ると、その結果、1列分の単語が読みにくくなる。
【0084】図12は、ウィンドウ1201内に表示さ
れた情報を管理するためのもう1つの手法を示してい
る。この場合、記事AAのタイトル1205とテキスト
1207が拡大され、ウィンドウ1201内の他の複数
の記事1211、1215、1219の上に重なってい
るだけである。他の記事とタイトルが隠されているの
で、ユーザの凝視がウィンドウ1201から離れた場
合、またはユーザがポインティング・デバイス、コマン
ド行、その他のコマンド呼出し方法の使用によりコマン
ド機能を呼び出した場合に、テキストが縮小される。拡
大したビューは他のビューの上に重なるので、好ましい
実施形態では拡大したビューを枠1217内に入れ、拡
大したビューを他のビューから分離する。
【0085】図13は、記事をいつ拡大すべきかを決定
するために使用するプロセスを示している。以下の説明
では、図示例として図10を参照する。このプロセスは
先端部1301から始まる。この時点でユーザの凝視は
ウィンドウ1001に焦点が合っていない。ユーザの凝
視がウィンドウ1001に入ると、プロセスはステップ
1305で、どのテキストをユーザが読んでいるかを監
視する。判断ブロック・ステップ1307で判定したよ
うに、ユーザが複数のタイトル1005、1009、1
013、1017のうちの1つを読んでいると凝視位置
が示す限り、監視ステップ1305は矢印1306が示
すように続行する。ユーザの凝視が副題または複数の記
事のテキスト1007、1011、1015、1019
に変化したと判断ブロック・ステップ1307が検出し
た場合、プロセスはステップ1309で、含まれる記事
のビューとテキストの拡大を開始する。プロセスは、ス
テップ1311でユーザの凝視位置の監視を続行し、ユ
ーザの読取り速度を決定する。次にステップ1315で
プロセスは、ステップ1311で開始したビューの拡大
をおそらく続行しながら、ユーザの読取り速度を最大限
にするように記事テキストのサイズを調整する。この調
整では、読取り速度の関数になる値を有する倍率を使用
する。この倍率はビューとビュー内のテキストを制御す
る。最後に、判断ブロック1317でプロセスは、ユー
ザの凝視位置が記事を含むビューと交差し続けるかどう
かを判定する(すなわち、ユーザが記事を読み続けてい
ることを確認する)。判断ブロック1317でユーザが
記事を読み続けている場合、矢印1313が示すように
ステップ1311の監視プロセスが続行する。しかし、
判断ブロック1317でユーザが記事を読むのを止めて
しまった場合、プロセスはステップ1319で放棄した
記事のサイズの縮小を開始し、矢印1321が示すよう
にプロセス全体が繰り返される。本発明により、ユーザ
は、放棄した記事のテキストに凝視を戻すだけで放棄し
た記事を再獲得することができる。これにより、記事テ
キストのサイズの縮小は停止し、ステップ1309で記
事テキストの拡大を再開し、テキスト調整ステップ13
15に移行する。
【0086】上記の拡大ステップおよび縮小ステップで
は、ユーザの気を散らさないようにテキストをゆっくり
拡大し縮小する。したがって、ユーザの凝視を読取り中
の記事からサイズの変化へ向けることはない。しかし、
本発明では、このようなスケーリング・プロセスを促進
するコマンドもユーザに提供する。さらに、拡大した記
事の最大サイズは、ユーザの好み通りに指定することが
できる。
【0087】図14は、ユーザが読取り中の記事を含む
ビュー、すなわち、アクティブ・ビューの拡大によって
影響を受けるビューをサイズ変更するために使用するプ
ロセスを示している。このプロセスは先端部1401か
ら始まる。ステップ1403でプロセスはまず、スケー
ルの変更に応答してアクティブ・ビューの新しい位置と
サイズを決定する。この新しい位置とサイズに基づい
て、ステップ1405でプロセスは、ウィンドウ100
1内に表示されている他のどのビューがアクティブ・ビ
ューのサイズおよび位置の変化の影響を受けるかを判定
する。次にステップ1407で影響を受ける各ビューを
判定し、拡大したアクティブ・ビュー用の場所を空ける
ため(アクティブ・ビューが拡大している場合)または
縮小したアクティブ・ビューによって解放された場所を
ふさぐため(アクティブ・ビューが縮小している場合)
にステップ1409で調整する。このプロセスは、影響
を受ける各ビューごとに矢印1411が示すように繰り
返される。影響を受けるビューが調整されると、ステッ
プ1417でアクティブ・ビューのサイズおよび位置を
調整するために矢印1415が示すようにプロセスが続
行する。最後に、プロセスは終端部1419で完了す
る。ただし、アクティブ・ビューのサイズの縮小はユー
ザの読取り速度を最適化するように行われることに留意
されたい。これは、ユーザがビューの読取りを停止した
場合に行われるのと同じ縮小ではなく、そのビューはも
はやアクティブ・ビューではなくなるので縮小する。
【0088】本発明のこの態様については、通常の英語
の読取りパターン(すなわち、上から下へ、左から右
へ)を想定して説明した。当業者であれば、本発明では
他の読取りパターンも企図していることが分かるだろ
う。
【0089】関心ベースの情報提示 図15は、典型的な電子新聞のディスプレイを示してい
る。本発明はデータ検索エンジンのディスプレイにも適
用される。この場合、いくつかの記事1507、151
1、1515、1519とともにその関連タイトル15
05、1509、1513、1517がウィンドウ15
01内のビューに表示されている。一般に、広告資料1
521の選択とともに主要表題1503も表示される。
情報プロバイダは、どの主題に対してユーザが関心を示
すかが分からないので、複数の記事を混ぜて提示する。
この場合、「New Chemical Reacti
on」という記事1507と「Quarks」という記
事1519はどちらも科学と技術に関連するものであ
る。他の2つの記事1515および1511はそうでは
ない。各記事と広告は、複数通りにカテゴリー化できる
ような情報を含んでいる。このカテゴリー化は、情報を
分類する少なくとも1つのトピックを含む。このような
トピックは情報プロバイダによって作成され管理され
る。凝視追跡を使用すると、情報プロバイダは、各表示
記事1505、1509、1513、1517と広告1
521とに対するユーザの関心を判定することができ
る。次に情報プロバイダは、提示した情報をカテゴリー
化するトピックを使用することにより、このユーザに提
示するその後の情報の選択を動的に調整することができ
る。上記の例では、ユーザは科学ベースの記事1507
および1519を読んだが、他の記事1511または1
515あるいは広告1521を読むために時間を費やさ
なかったと想定する。情報プロバイダは、ユーザに提示
する次のページの情報の中に、前に読んだ情報と同様の
トピックを有する記事および広告を含めることになる。
【0090】図16は、考えられる2ページ目の情報を
示している。この場合も情報はウィンドウ1601内に
含まれるビュー内に提供される。この場合、複数の記事
1607、1611、1615、1619はすべて科学
または技術ベースであるが、難易度レベルは一般読者に
とって関心のある記事から先進素粒子物理学者向けの記
事まで様々である。さらに、主要科学表題1603と広
告1621の両方はユーザにとって関心があるものにな
るように選択することができる。このため、情報プロバ
イダは、各ユーザを対象として広告および記事の目標を
狭くすることができる。この場合も情報プロバイダは、
複数の記事タイトル1605、1609、1613、1
617に対して示した関心、各記事1607、161
1、1615、1619を読むことで費やした時間、現
行ページの広告1621を見て費やした時間に応じて、
後続ページでユーザに提示する情報の選択を洗練し限定
し続けることができる。
【0091】図17は、ユーザに提示するための情報を
選択するために使用するプロセスを示している。このプ
ロセスは、情報の初期選択をユーザに対して表示した後
で先端部1701から始まる。上記のように作成した凝
視位置を使用して、ステップ1705ではユーザの読取
りパターンを監視する。さらにステップ1709では、
表示情報に対してユーザが示した関心の程度を決定す
る。この関心は、ユーザの読取り速度を測定し、ユーザ
が情報をざっと読んだだけなのか、情報を徹底的に読ん
だのかを判定し、各記事および広告に費やした時間量を
測定することによって決定する。次にステップ1711
でプロセスは、各表示情報に関連するトピックを取り出
し、ステップ1713でこれらのトピックをユーザの関
心と相関させる。次にステップ1715でプロセスは、
この相関関係に基づいて追加情報を選択する。この情報
の選択はステップ1717でユーザ向けに表示される。
最後に、プロセスは終端部1719で完了する。このよ
うにしてユーザには、ユーザの関心を反映し、カストマ
イズした1組の情報が提示される。
【0092】現在の好ましい実施形態に関して本発明を
説明してきたが、当業者であれば、本発明の範囲を逸脱
せずに様々な修正および変更が可能であることが分かる
だろう。したがって、本発明の範囲は、ここに述べた特
定の実施形態に制限されず、上記の特許請求の範囲およ
びそれと同等のものによってのみ定義すべきものであ
る。
【図面の簡単な説明】
【図1】 CPUと、本発明を実施可能な従来のメモリ
とを含む、コンピュータ・システムの一部分を示す図で
ある。
【図2】 凝視追跡装置を備えたディスプレイ装置を示
す図である。
【図3】 好ましい実施形態による凝視位置の諸態様を
示す図である。
【図4】 好ましい実施形態により使用する、凝視位置
を判定するためのプロセスを示す図である。
【図5】 好ましい実施形態により関心のある区域に帯
域幅を割り振るための本発明の操作を示す図である。
【図6】 好ましい実施形態により凝視位置に基づいて
データ・ストリームの帯域幅を変更するために使用する
プロセスを示す図である。
【図7】 好ましい実施形態による音声キャプション付
けを示す図である。
【図8】 好ましい実施形態による1ページ分のテキス
トからの画像キャプションの抽出を示す図である。
【図9】 好ましい実施形態によりキャプション付けを
実施するために使用するプロセスを示す図である。
【図10】 電子新聞の形式を示す図である。
【図11】 好ましい実施形態によるテキスト拡大とペ
ージ・レイアウトを示す図である。
【図12】 第2の好ましい実施形態によるテキスト拡
大とページ・レイアウトを示す図である。
【図13】 好ましい実施形態によりテキストに対する
ユーザの関心に応答してテキストを拡大するプロセスを
示す図である。
【図14】 好ましい実施形態により拡大テキストの結
果としてディスプレイのレイアウトを調整するためのプ
ロセスを示す図である。
【図15】 好ましい実施形態により記事と広告とを示
す可能性のある電子新聞の1ページ目を示す図である。
【図16】 好ましい実施形態により読者にとって関心
のあるものであると判定された情報を示す可能性のある
電子新聞の2ページ目を示す図である。
【図17】 好ましい実施形態により読者にとって関心
のある情報を評価し、読者の関心に適合する新しい情報
を選択するために使用するプロセスを示す図である。
【符号の説明】 102 コンピュータ・システム 117 ネットワーク 133 プロセッサ 135 入出力(「I/O」)セクション 137 中央演算処理装置(「CPU」) 139 メモリ・セクション 141 キーボード 143 ディスク記憶ユニット 145 ネットワーク・インタフェース 147 ディスプレイ・ユニット 148 ポインティング・デバイス 149 CD−ROMドライブ・ユニット 151 CD−ROM媒体 153 プログラム 155 凝視追跡装置 157 スピーカ
【手続補正書】
【提出日】平成9年9月17日
【手続補正1】
【補正対象書類名】図面
【補正対象項目名】全図
【補正方法】変更
【補正内容】
【図1】
【図2】
【図3】
【図4】
【図5】
【図7】
【図8】
【図6】
【図9】
【図10】
【図11】
【図12】
【図15】
【図13】
【図14】
【図16】
【図17】
───────────────────────────────────────────────────── フロントページの続き (71)出願人 591064003 901 SAN ANTONIO ROAD PALO ALTO,CA 94303,U. S.A. (72)発明者 ジェイコブ・ニールセン アメリカ合衆国・94027・カリフォルニア 州・アサートン・ウォルナット アヴェニ ュ・38 (72)発明者 ロバート・グラス アメリカ合衆国・95030・カリフォルニア 州・ロス ガトス・グレンウッド ドライ ブ・24371

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 ディスプレイ装置と、そのディスプレイ
    装置上の凝視位置を判定する凝視追跡装置とを備えたコ
    ンピュータのユーザに情報を提示するコンピュータ制御
    方法において、 (a)複数の類別された情報を前記ディスプレイ装置に
    表示するステップと、 (b)前記凝視位置を監視して、前記ディスプレイ装置
    上に表示された前記複数の類別された情報における前記
    ユーザの関心のレベルを判定するステップと、 (c)前記複数の類別された情報を分類する1つまたは
    複数の主題を検索するステップと、 (d)前記主題と前記関心のレベルとの間の相関関係を
    判定するステップと、 (e)前記相関に基づいて、新しい複数の類別された情
    報を選択するステップと、を備えているコンピュータ制
    御の方法。
  2. 【請求項2】 中央演算処理装置と、メモリと、ディス
    プレイ装置と、前記ディスプレイ装置上の凝視位置を判
    定する凝視追跡装置とを有し、ユーザに情報を提示する
    ように構成された情報提示装置において、 複数の類別された情報を前記ディスプレイ装置に表示す
    るように構成された表示メカニズムと、 前記凝視位置を監視して、前記ディスプレイ装置上に表
    示された前記複数の類別された情報における前記ユーザ
    の関心のレベルを判定するように構成された監視メカニ
    ズムと、 前記ディスプレイ装置上に表示された前記類別された情
    報を分類する1つまたは複数の主題を検索するように構
    成された検索メカニズムと、 前記主題と前記ユーザの関心のレベルとの間の相関関係
    を判定するように構成された相関メカニズムと、 前記相関に基づいて新しい複数の類別された情報を選択
    するように構成された選択メカニズムと、 を備えている情報提示装置。
  3. 【請求項3】 ディスプレイ装置と、前記ディスプレイ
    装置上の凝視位置を判定する凝視追跡装置とを有し、ユ
    ーザに情報を提示するように構成された情報提示システ
    ムにおいて、 複数の類別された情報を前記ディスプレイ装置に表示す
    るように構成された表示メカニズムと、 前記凝視位置を監視して、前記ディスプレイ装置上に表
    示された前記複数の類別された情報における前記ユーザ
    の関心のレベルを判定するように構成された監視メカニ
    ズムと、 前記ディスプレイ装置上に表示された前記類別された情
    報を分類する1つまたは複数の主題を検索するように構
    成された検索メカニズムと、 前記主題と前記ユーザの関心のレベルとの間の相関関係
    を判定するように構成された相関メカニズムと、 前記相関に基づいて新しい複数の類別された情報を選択
    するように構成された選択メカニズムと、を備えている
    情報提示システム。
  4. 【請求項4】 (a)コンピュータが情報をユーザに提
    示するようにするコンピュータで読取り可能なプログラ
    ムが記録されているコンピュータで使用可能な記憶媒体
    において、 (b)複数の類別された情報を前記ディスプレイ装置に
    表示するように構成された表示メカニズムを前記コンピ
    ュータに実行させるプログラムと、 前記凝視位置を監視して、前記ディスプレイ装置上に表
    示された前記複数の類別された情報における前記ユーザ
    の関心のレベルを判定するように構成された監視メカニ
    ズムを前記コンピュータに実行させるプログラムと、 前記ディスプレイ装置上に表示された前記類別された情
    報を分類する1つまたは複数の主題を検索するように構
    成された検索メカニズムを前記コンピュータに実行させ
    るプログラムと、 前記主題と前記ユーザの関心のレベルとの間の相関関係
    を判定するように構成された相関メカニズムを前記コン
    ピュータに実行させるプログラムと、 前記相関に基づいて新しい複数の類別された情報を選択
    するように構成された選択メカニズムを前記コンピュー
    タに実行させるプログラムと、を備えている記録媒体。
JP9183270A 1996-06-25 1997-06-25 視標追跡駆動情報検索方法および装置 Pending JPH10133810A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/673695 1996-06-25
US08/673,695 US5886683A (en) 1996-06-25 1996-06-25 Method and apparatus for eyetrack-driven information retrieval

Publications (1)

Publication Number Publication Date
JPH10133810A true JPH10133810A (ja) 1998-05-22

Family

ID=24703744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9183270A Pending JPH10133810A (ja) 1996-06-25 1997-06-25 視標追跡駆動情報検索方法および装置

Country Status (3)

Country Link
US (1) US5886683A (ja)
EP (1) EP0816984A3 (ja)
JP (1) JPH10133810A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005512625A (ja) * 2001-12-12 2005-05-12 アイツールス 視標追跡データの使用を容易にする技法
JP2008305242A (ja) * 2007-06-08 2008-12-18 Sharp Corp 情報処理装置、情報処理装置の制御方法、制御プログラム、および、記録媒体
JP2013210909A (ja) * 2012-03-30 2013-10-10 Dainippon Printing Co Ltd 視点誘導装置および電子書籍端末
JP2013210907A (ja) * 2012-03-30 2013-10-10 Dainippon Printing Co Ltd 視点誘導装置および電子書籍端末
JP2013235324A (ja) * 2012-05-07 2013-11-21 Dainippon Printing Co Ltd 文字サイズ変更装置および電子書籍端末
WO2015029393A1 (ja) 2013-08-29 2015-03-05 ソニー株式会社 情報処理装置および情報処理方法

Families Citing this family (166)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7305624B1 (en) 1994-07-22 2007-12-04 Siegel Steven H Method for limiting Internet access
US7181692B2 (en) * 1994-07-22 2007-02-20 Siegel Steven H Method for the auditory navigation of text
US6442523B1 (en) 1994-07-22 2002-08-27 Steven H. Siegel Method for the auditory navigation of text
US5684497A (en) * 1994-12-21 1997-11-04 Siliscape, Inc. Twice folded compound magnified virtual image electronic display
US6029182A (en) * 1996-10-04 2000-02-22 Canon Information Systems, Inc. System for generating a custom formatted hypertext document by using a personal profile to retrieve hierarchical documents
US7236969B1 (en) 1999-07-08 2007-06-26 Nortel Networks Limited Associative search engine
US6154559A (en) * 1998-10-01 2000-11-28 Mitsubishi Electric Information Technology Center America, Inc. (Ita) System for classifying an individual's gaze direction
US6106119A (en) * 1998-10-16 2000-08-22 The Board Of Trustees Of The Leland Stanford Junior University Method for presenting high level interpretations of eye tracking data correlated to saved display images
US6195640B1 (en) * 1999-01-29 2001-02-27 International Business Machines Corporation Audio reader
US7120880B1 (en) 1999-02-25 2006-10-10 International Business Machines Corporation Method and system for real-time determination of a subject's interest level to media content
US6577329B1 (en) 1999-02-25 2003-06-10 International Business Machines Corporation Method and system for relevance feedback through gaze tracking and ticker interfaces
US7565671B1 (en) 2000-02-01 2009-07-21 Swisscom Mobile Ag System and method for diffusing image objects
US7240067B2 (en) * 2000-02-08 2007-07-03 Sybase, Inc. System and methodology for extraction and aggregation of data from dynamic content
AU2000250002A1 (en) * 2000-05-10 2001-11-20 Simation, Inc. Method and system for providing a dynamic virtual environment using data streaming
US7475404B2 (en) 2000-05-18 2009-01-06 Maquis Techtrix Llc System and method for implementing click-through for browser executed software including ad proxy and proxy cookie caching
US8086697B2 (en) 2005-06-28 2011-12-27 Claria Innovations, Llc Techniques for displaying impressions in documents delivered over a computer network
US8055994B1 (en) * 2000-05-26 2011-11-08 Libredigital, Inc. Method, system and computer program product for displaying a version of a paper
US6990633B1 (en) * 2000-07-28 2006-01-24 Seiko Epson Corporation Providing a network-based personalized newspaper with personalized content and layout
US6873314B1 (en) * 2000-08-29 2005-03-29 International Business Machines Corporation Method and system for the recognition of reading skimming and scanning from eye-gaze patterns
US6601021B2 (en) * 2000-12-08 2003-07-29 Xerox Corporation System and method for analyzing eyetracker data
US20020099736A1 (en) * 2001-01-23 2002-07-25 Neo-Core, L.L.C. Method of storing a structured data document
US6997556B2 (en) * 2001-10-01 2006-02-14 Ernst Pfleger Method for detecting, evaluating, and analyzing look sequences
US8521827B2 (en) * 2001-10-18 2013-08-27 Carhamm Ltd., Llc Presentation of information to end-users
US7624023B2 (en) * 2002-06-04 2009-11-24 International Business Machines Corporation Client opportunity modeling tool
US7617122B2 (en) * 2002-08-28 2009-11-10 International Business Machines Corporation Targeted online marketing
US7603341B2 (en) 2002-11-05 2009-10-13 Claria Corporation Updating the content of a presentation vehicle in a computer network
US8292433B2 (en) * 2003-03-21 2012-10-23 Queen's University At Kingston Method and apparatus for communication between humans and devices
US7762665B2 (en) 2003-03-21 2010-07-27 Queen's University At Kingston Method and apparatus for communication between humans and devices
US7881493B1 (en) * 2003-04-11 2011-02-01 Eyetools, Inc. Methods and apparatuses for use of eye interpretation information
JP4387720B2 (ja) * 2003-07-28 2009-12-24 株式会社浜松早期認知症研究所 痴呆検査装置、痴呆検査サーバ、痴呆検査クライアント、および痴呆検査システム
US20050047629A1 (en) * 2003-08-25 2005-03-03 International Business Machines Corporation System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking
US9274598B2 (en) * 2003-08-25 2016-03-01 International Business Machines Corporation System and method for selecting and activating a target object using a combination of eye gaze and key presses
US20050050021A1 (en) * 2003-08-25 2005-03-03 Sybase, Inc. Information Messaging and Collaboration System
US7561143B1 (en) * 2004-03-19 2009-07-14 The University of the Arts Using gaze actions to interact with a display
US7532197B2 (en) * 2004-06-22 2009-05-12 Lenovo (Singapore) Pte Ltd. Method and system for automated monitoring of a display
US8255413B2 (en) 2004-08-19 2012-08-28 Carhamm Ltd., Llc Method and apparatus for responding to request for information-personalization
US8078602B2 (en) 2004-12-17 2011-12-13 Claria Innovations, Llc Search engine for a computer network
ITFI20040223A1 (it) * 2004-10-29 2005-01-29 Sr Labs S R L Metodo e sistema di visualizzazione,elaborazione ed analisi integrata di immagini mediche
RU2007123612A (ru) * 2004-11-23 2008-12-27 Конинклейке Филипс Электроникс Н.В. (Nl) Способ и устройство управления файлами
US7501995B2 (en) * 2004-11-24 2009-03-10 General Electric Company System and method for presentation of enterprise, clinical, and decision support information utilizing eye tracking navigation
US7693863B2 (en) 2004-12-20 2010-04-06 Claria Corporation Method and device for publishing cross-network user behavioral data
JP2008529707A (ja) * 2005-02-18 2008-08-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 医療機器の自動制御
US7438418B2 (en) * 2005-02-23 2008-10-21 Eyetracking, Inc. Mental alertness and mental proficiency level determination
WO2006091893A2 (en) * 2005-02-23 2006-08-31 Eyetracking, Inc. Mental alertness level determination
US8073866B2 (en) 2005-03-17 2011-12-06 Claria Innovations, Llc Method for providing content to an internet user based on the user's demonstrated content preferences
WO2006110472A2 (en) * 2005-04-07 2006-10-19 User Centric, Inc. Website evaluation tool
US20070270122A1 (en) 2005-05-10 2007-11-22 Ewell Robert C Jr Apparatus, system, and method for disabling a mobile communicator
US8385880B2 (en) * 2005-05-10 2013-02-26 Mobile Communication Technologies, Llc Apparatus for and system for enabling a mobile communicator
US8437729B2 (en) 2005-05-10 2013-05-07 Mobile Communication Technologies, Llc Apparatus for and system for enabling a mobile communicator
WO2007002727A2 (en) * 2005-06-28 2007-01-04 Claria Corporation Method for providing advertising content to an internet user based on the user's demonstrated content preferences
US20070088714A1 (en) * 2005-10-19 2007-04-19 Edwards Gregory T Methods and apparatuses for collection, processing, and utilization of viewing data
US8602791B2 (en) * 2005-11-04 2013-12-10 Eye Tracking, Inc. Generation of test stimuli in visual media
WO2007056373A2 (en) 2005-11-04 2007-05-18 Eyetracking, Inc. Characterizing dynamic regions of digital media data
US7599520B2 (en) * 2005-11-18 2009-10-06 Accenture Global Services Gmbh Detection of multiple targets on a plane of interest
US8209620B2 (en) 2006-01-31 2012-06-26 Accenture Global Services Limited System for storage and navigation of application states and interactions
US7760910B2 (en) * 2005-12-12 2010-07-20 Eyetools, Inc. Evaluation of visual stimuli using existing viewing data
US7774851B2 (en) * 2005-12-22 2010-08-10 Scenera Technologies, Llc Methods, systems, and computer program products for protecting information on a user interface based on a viewability of the information
US20100231504A1 (en) * 2006-03-23 2010-09-16 Koninklijke Philips Electronics N.V. Hotspots for eye track control of image manipulation
US8620913B2 (en) * 2008-04-07 2013-12-31 Microsoft Corporation Information management through a single application
EP2108328B2 (de) * 2008-04-09 2020-08-26 Brainlab AG Bildbasiertes Ansteuerungsverfahren für medizintechnische Geräte
US20090322671A1 (en) * 2008-06-04 2009-12-31 Cybernet Systems Corporation Touch screen augmented reality system and method
US8487772B1 (en) 2008-12-14 2013-07-16 Brian William Higgins System and method for communicating information
US20100169792A1 (en) * 2008-12-29 2010-07-01 Seif Ascar Web and visual content interaction analytics
US20100228476A1 (en) * 2009-03-04 2010-09-09 Microsoft Corporation Path projection to facilitate engagement
US8494215B2 (en) * 2009-03-05 2013-07-23 Microsoft Corporation Augmenting a field of view in connection with vision-tracking
US8943420B2 (en) * 2009-06-18 2015-01-27 Microsoft Corporation Augmenting a field of view
US20120191542A1 (en) * 2009-06-24 2012-07-26 Nokia Corporation Method, Apparatuses and Service for Searching
IT1399456B1 (it) * 2009-09-11 2013-04-19 Sr Labs S R L Metodo e apparato per l'utilizzo di generiche applicazioni software attraverso controllo oculare e opportune metodologie di interazione.
US11292477B2 (en) 2010-06-07 2022-04-05 Affectiva, Inc. Vehicle manipulation using cognitive state engineering
US10108852B2 (en) 2010-06-07 2018-10-23 Affectiva, Inc. Facial analysis to detect asymmetric expressions
US11430561B2 (en) 2010-06-07 2022-08-30 Affectiva, Inc. Remote computing analysis for cognitive state data metrics
US9934425B2 (en) 2010-06-07 2018-04-03 Affectiva, Inc. Collection of affect data from multiple mobile devices
US10143414B2 (en) 2010-06-07 2018-12-04 Affectiva, Inc. Sporadic collection with mobile affect data
US9642536B2 (en) 2010-06-07 2017-05-09 Affectiva, Inc. Mental state analysis using heart rate collection based on video imagery
US11067405B2 (en) 2010-06-07 2021-07-20 Affectiva, Inc. Cognitive state vehicle navigation based on image processing
US11465640B2 (en) 2010-06-07 2022-10-11 Affectiva, Inc. Directed control transfer for autonomous vehicles
US11887352B2 (en) 2010-06-07 2024-01-30 Affectiva, Inc. Live streaming analytics within a shared digital environment
US11511757B2 (en) 2010-06-07 2022-11-29 Affectiva, Inc. Vehicle manipulation with crowdsourcing
US10204625B2 (en) 2010-06-07 2019-02-12 Affectiva, Inc. Audio analysis learning using video data
US11935281B2 (en) 2010-06-07 2024-03-19 Affectiva, Inc. Vehicular in-cabin facial tracking using machine learning
US10627817B2 (en) 2010-06-07 2020-04-21 Affectiva, Inc. Vehicle manipulation using occupant image analysis
US10289898B2 (en) 2010-06-07 2019-05-14 Affectiva, Inc. Video recommendation via affect
US11657288B2 (en) 2010-06-07 2023-05-23 Affectiva, Inc. Convolutional computing using multilayered analysis engine
US10482333B1 (en) 2017-01-04 2019-11-19 Affectiva, Inc. Mental state analysis using blink rate within vehicles
US11232290B2 (en) 2010-06-07 2022-01-25 Affectiva, Inc. Image analysis using sub-sectional component evaluation to augment classifier usage
US11700420B2 (en) 2010-06-07 2023-07-11 Affectiva, Inc. Media manipulation using cognitive state metric analysis
US10111611B2 (en) 2010-06-07 2018-10-30 Affectiva, Inc. Personal emotional profile generation
US9503786B2 (en) 2010-06-07 2016-11-22 Affectiva, Inc. Video recommendation using affect
US10779761B2 (en) 2010-06-07 2020-09-22 Affectiva, Inc. Sporadic collection of affect data within a vehicle
US11823055B2 (en) 2019-03-31 2023-11-21 Affectiva, Inc. Vehicular in-cabin sensing using machine learning
US11410438B2 (en) 2010-06-07 2022-08-09 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation in vehicles
US11704574B2 (en) 2010-06-07 2023-07-18 Affectiva, Inc. Multimodal machine learning for vehicle manipulation
US10074024B2 (en) 2010-06-07 2018-09-11 Affectiva, Inc. Mental state analysis using blink rate for vehicles
US10592757B2 (en) 2010-06-07 2020-03-17 Affectiva, Inc. Vehicular cognitive data collection using multiple devices
US10843078B2 (en) 2010-06-07 2020-11-24 Affectiva, Inc. Affect usage within a gaming context
US11318949B2 (en) 2010-06-07 2022-05-03 Affectiva, Inc. In-vehicle drowsiness analysis using blink rate
US10897650B2 (en) 2010-06-07 2021-01-19 Affectiva, Inc. Vehicle content recommendation using cognitive states
US11484685B2 (en) 2010-06-07 2022-11-01 Affectiva, Inc. Robotic control using profiles
US10869626B2 (en) 2010-06-07 2020-12-22 Affectiva, Inc. Image analysis for emotional metric evaluation
US10911829B2 (en) 2010-06-07 2021-02-02 Affectiva, Inc. Vehicle video recommendation via affect
US10796176B2 (en) 2010-06-07 2020-10-06 Affectiva, Inc. Personal emotional profile generation for vehicle manipulation
US10922567B2 (en) 2010-06-07 2021-02-16 Affectiva, Inc. Cognitive state based vehicle manipulation using near-infrared image processing
US9106958B2 (en) 2011-02-27 2015-08-11 Affectiva, Inc. Video recommendation based on affect
US11587357B2 (en) 2010-06-07 2023-02-21 Affectiva, Inc. Vehicular cognitive data collection with multiple devices
US10799168B2 (en) 2010-06-07 2020-10-13 Affectiva, Inc. Individual data sharing across a social network
US9247903B2 (en) 2010-06-07 2016-02-02 Affectiva, Inc. Using affect within a gaming context
US11056225B2 (en) 2010-06-07 2021-07-06 Affectiva, Inc. Analytics for livestreaming based on image analysis within a shared digital environment
US11073899B2 (en) 2010-06-07 2021-07-27 Affectiva, Inc. Multidevice multimodal emotion services monitoring
US9646046B2 (en) 2010-06-07 2017-05-09 Affectiva, Inc. Mental state data tagging for data collected from multiple sources
US9723992B2 (en) 2010-06-07 2017-08-08 Affectiva, Inc. Mental state analysis using blink rate
US9204836B2 (en) 2010-06-07 2015-12-08 Affectiva, Inc. Sporadic collection of mobile affect data
US10614289B2 (en) 2010-06-07 2020-04-07 Affectiva, Inc. Facial tracking with classifiers
US10401860B2 (en) 2010-06-07 2019-09-03 Affectiva, Inc. Image analysis for two-sided data hub
US11393133B2 (en) 2010-06-07 2022-07-19 Affectiva, Inc. Emoji manipulation using machine learning
US10474875B2 (en) 2010-06-07 2019-11-12 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation
US10628741B2 (en) 2010-06-07 2020-04-21 Affectiva, Inc. Multimodal machine learning for emotion metrics
US10517521B2 (en) 2010-06-07 2019-12-31 Affectiva, Inc. Mental state mood analysis using heart rate collection based on video imagery
US9959549B2 (en) 2010-06-07 2018-05-01 Affectiva, Inc. Mental state analysis for norm generation
US11430260B2 (en) 2010-06-07 2022-08-30 Affectiva, Inc. Electronic display viewing verification
US11151610B2 (en) 2010-06-07 2021-10-19 Affectiva, Inc. Autonomous vehicle control using heart rate collection based on video imagery
US11017250B2 (en) 2010-06-07 2021-05-25 Affectiva, Inc. Vehicle manipulation using convolutional image processing
EP2450803A1 (en) * 2010-11-03 2012-05-09 Research In Motion Limited System and method for displaying search results on electronic devices
US8849845B2 (en) 2010-11-03 2014-09-30 Blackberry Limited System and method for displaying search results on electronic devices
WO2012083415A1 (en) * 2010-11-15 2012-06-28 Tandemlaunch Technologies Inc. System and method for interacting with and analyzing media on a display using eye gaze tracking
JP2012123513A (ja) * 2010-12-07 2012-06-28 Sony Corp 情報処理装置、および情報処理システム
US20120158502A1 (en) * 2010-12-17 2012-06-21 Microsoft Corporation Prioritizing advertisements based on user engagement
US20120203640A1 (en) * 2011-02-03 2012-08-09 U Owe Me, Inc. Method and system of generating an implicit social graph from bioresponse data
WO2012105196A1 (ja) * 2011-02-04 2012-08-09 パナソニック株式会社 関心度推定装置および関心度推定方法
US10139900B2 (en) 2011-04-12 2018-11-27 Mobile Communication Technologies, Llc Mobile communicator device including user attentiveness detector
US9026780B2 (en) 2011-04-12 2015-05-05 Mobile Communication Technologies, Llc Mobile communicator device including user attentiveness detector
US9026779B2 (en) 2011-04-12 2015-05-05 Mobile Communication Technologies, Llc Mobile communicator device including user attentiveness detector
WO2013026725A1 (en) * 2011-08-19 2013-02-28 Thomson Licensing Method for gaze-controlled text size control,and methods for gaze-based measuring of a text reading speed and of a number of visual saccades per text line
US9256285B2 (en) * 2011-08-19 2016-02-09 Thompson Licensing Sa Method for gaze-controlled text size control, and methods for gaze-based measuring of a text reading speed and of a number of visual saccades per text line
US8995945B2 (en) 2011-08-30 2015-03-31 Mobile Communication Technologies, Llc Mobile communicator and system
US8990208B2 (en) * 2011-09-22 2015-03-24 Fujitsu Limited Information management and networking
EP2587342A1 (en) * 2011-10-28 2013-05-01 Tobii Technology AB Method and system for user initiated query searches based on gaze data
WO2013089667A1 (en) * 2011-12-12 2013-06-20 Intel Corporation Interestingness scoring of areas of interest included in a display element
US9046917B2 (en) * 2012-05-17 2015-06-02 Sri International Device, method and system for monitoring, predicting, and accelerating interactions with a computing device
US9030505B2 (en) * 2012-05-17 2015-05-12 Nokia Technologies Oy Method and apparatus for attracting a user's gaze to information in a non-intrusive manner
US9189064B2 (en) * 2012-09-05 2015-11-17 Apple Inc. Delay of display event based on user gaze
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US10025379B2 (en) 2012-12-06 2018-07-17 Google Llc Eye tracking wearable devices and methods for use
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US20140298246A1 (en) * 2013-03-29 2014-10-02 Lenovo (Singapore) Pte, Ltd. Automatic display partitioning based on user number and orientation
US20150169048A1 (en) * 2013-12-18 2015-06-18 Lenovo (Singapore) Pte. Ltd. Systems and methods to present information on device based on eye tracking
US10180716B2 (en) 2013-12-20 2019-01-15 Lenovo (Singapore) Pte Ltd Providing last known browsing location cue using movement-oriented biometric data
US9633252B2 (en) 2013-12-20 2017-04-25 Lenovo (Singapore) Pte. Ltd. Real-time detection of user intention based on kinematics analysis of movement-oriented biometric data
US9507417B2 (en) * 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
AU2015244009B2 (en) 2014-04-07 2019-05-30 Cubic Corporation Systems and methods for queue management
EP3129932A1 (en) 2014-04-07 2017-02-15 Cubic Corporation Intuitive visual assessment of device operational health
KR20170046108A (ko) 2014-05-09 2017-04-28 아이플루언스, 인크. 보안 모바일 통신들과 함께 안구 신호들을 이용하는 시스템들 및 방법들
US10564714B2 (en) 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
US9535497B2 (en) 2014-11-20 2017-01-03 Lenovo (Singapore) Pte. Ltd. Presentation of data on an at least partially transparent display based on user focus
US10222867B2 (en) * 2015-05-12 2019-03-05 Lenovo (Singapore) Pte. Ltd. Continued presentation of area of focus while content loads
US10768772B2 (en) * 2015-11-19 2020-09-08 Microsoft Technology Licensing, Llc Context-aware recommendations of relevant presentation content displayed in mixed environments
EP3244285B1 (en) * 2016-05-10 2021-06-30 Sap Se Physiologically adaptive user interface
US10268264B2 (en) 2016-05-10 2019-04-23 Sap Se Physiologically adaptive user interface
US11137884B2 (en) * 2016-06-14 2021-10-05 International Business Machines Corporation Modifying an appearance of a GUI to improve GUI usability
US10922566B2 (en) 2017-05-09 2021-02-16 Affectiva, Inc. Cognitive state evaluation for vehicle navigation
US20190172458A1 (en) 2017-12-01 2019-06-06 Affectiva, Inc. Speech analysis for cross-language mental state identification
US11158206B2 (en) 2018-09-20 2021-10-26 International Business Machines Corporation Assisting learners based on analytics of in-session cognition
US20200349210A1 (en) * 2018-12-04 2020-11-05 Google Llc Context Aware Skim-Read Friendly Text View
US11887383B2 (en) 2019-03-31 2024-01-30 Affectiva, Inc. Vehicle interior object management
US20200364290A1 (en) * 2019-05-16 2020-11-19 Microsoft Technology Licensing, Llc System and method for selecting relevant content in an enhanced view mode
US11769056B2 (en) 2019-12-30 2023-09-26 Affectiva, Inc. Synthetic data for neural network training using vectors
CN111309146B (zh) * 2020-02-10 2022-03-29 Oppo广东移动通信有限公司 图像显示方法及相关产品

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8701288D0 (en) * 1987-01-21 1987-02-25 Waldern J D Perception of computer-generated imagery
US4973149A (en) * 1987-08-19 1990-11-27 Center For Innovative Technology Eye movement detector
US4896291A (en) * 1988-05-20 1990-01-23 International Business Machines Corporation Valuator menu for use as a graphical user interface tool
JPH03282676A (ja) * 1990-03-30 1991-12-12 Hitachi Ltd 情報検索方法
US5169342A (en) * 1990-05-30 1992-12-08 Steele Richard D Method of communicating with a language deficient patient
JPH0467093A (ja) * 1990-07-05 1992-03-03 Sord Comput Corp 一時ウインドウ拡大表示方式
CA2056679C (en) * 1991-11-29 2002-02-12 Timothy Joseph Nohara Automatic monitoring of digital communication channel conditions using eye patterns
US5469206A (en) * 1992-05-27 1995-11-21 Philips Electronics North America Corporation System and method for automatically correlating user preferences with electronic shopping information
US5396264A (en) * 1994-01-03 1995-03-07 Motorola, Inc. Automatic menu item sequencing method
US5552806A (en) * 1994-04-29 1996-09-03 Motorola, Inc. Method and apparatus for positioning selectable function icons on a display

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005512625A (ja) * 2001-12-12 2005-05-12 アイツールス 視標追跡データの使用を容易にする技法
JP2008305242A (ja) * 2007-06-08 2008-12-18 Sharp Corp 情報処理装置、情報処理装置の制御方法、制御プログラム、および、記録媒体
JP2013210909A (ja) * 2012-03-30 2013-10-10 Dainippon Printing Co Ltd 視点誘導装置および電子書籍端末
JP2013210907A (ja) * 2012-03-30 2013-10-10 Dainippon Printing Co Ltd 視点誘導装置および電子書籍端末
JP2013235324A (ja) * 2012-05-07 2013-11-21 Dainippon Printing Co Ltd 文字サイズ変更装置および電子書籍端末
WO2015029393A1 (ja) 2013-08-29 2015-03-05 ソニー株式会社 情報処理装置および情報処理方法
CN105518666A (zh) * 2013-08-29 2016-04-20 索尼公司 信息处理装置和信息处理方法
US10019058B2 (en) 2013-08-29 2018-07-10 Sony Corporation Information processing device and information processing method
CN105518666B (zh) * 2013-08-29 2020-01-17 索尼公司 信息处理装置和信息处理方法

Also Published As

Publication number Publication date
US5886683A (en) 1999-03-23
EP0816984A2 (en) 1998-01-07
EP0816984A3 (en) 1998-08-19

Similar Documents

Publication Publication Date Title
JPH10133810A (ja) 視標追跡駆動情報検索方法および装置
JPH10133809A (ja) 視標追跡駆動キャプション付与方法および装置
JPH1078845A (ja) 視標追跡主導型テキスト拡大の方法および装置
JPH10105493A (ja) 視標追跡を介したダウンローディングの方法および装置
CN115601671B (zh) 用于向用户显示虚拟内容的***和方法
KR102555443B1 (ko) 콘텐츠를 공간 3d 환경에 매칭
US6067069A (en) User interface for dynamic presentation of text with a variable speed based on a cursor location in relation to a neutral, deceleration, and acceleration zone
CA2797231C (en) System and method for internet meta-browser for users with disabilities
US5991781A (en) Method and apparatus for detecting and presenting client side image map attributes including sound attributes using page layout data strings
JP5042490B2 (ja) ユーザアクセシビリティオプションのパーソナライゼーション
US10203758B2 (en) Arrangement, method and computer program for controlling a computer apparatus based on eye-tracking
US7139982B2 (en) Navigation methods, systems, and computer program products for virtual three-dimensional books
US5806077A (en) Hypertext display system
US20030197737A1 (en) 2D/3D web browsing system
US20020083101A1 (en) Indexing methods, systems, and computer program products for virtual three-dimensional books
JPH1091378A (ja) 視標追跡主導型バックトラックの方法および装置
US20080222556A1 (en) Layer menus and multiple page displays for web GUI
EP1727029A1 (en) Systems and methods for displaying linked information in a sorted context
US11188147B2 (en) Display control method for highlighting display element focused by user
JP2007249755A (ja) ドキュメントを理解する難易度を評価するシステムおよびその方法
JP2002215285A (ja) 仮想3次元ブックの画像を表示するシステム
KR101350525B1 (ko) 질의에 대응하는 탭을 사용하여 추가적인 정보를 제공하는방법 및 그 장치
JP2004102553A (ja) 電子文書表示方法、そのプログラム及びその装置
JP2004246398A (ja) ユーザ意図推定装置,ユーザ意図推定方法,ユーザ意図推定プログラムおよびそのプログラムの記録媒体,並びに自動辞書引き装置,自動辞書引き処理方法,自動辞書引き処理プログラムおよびそのプログラムの記録媒体
Menges et al. Eye tracking for interaction: adapting multimedia interfaces