JP5907163B2 - データ関連度判定装置、データ関連度判定方法、および、プログラム - Google Patents

データ関連度判定装置、データ関連度判定方法、および、プログラム Download PDF

Info

Publication number
JP5907163B2
JP5907163B2 JP2013507823A JP2013507823A JP5907163B2 JP 5907163 B2 JP5907163 B2 JP 5907163B2 JP 2013507823 A JP2013507823 A JP 2013507823A JP 2013507823 A JP2013507823 A JP 2013507823A JP 5907163 B2 JP5907163 B2 JP 5907163B2
Authority
JP
Japan
Prior art keywords
data
relevance
line
gaze
display area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013507823A
Other languages
English (en)
Other versions
JPWO2012133841A1 (ja
Inventor
祐樹 神谷
祐樹 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2012133841A1 publication Critical patent/JPWO2012133841A1/ja
Application granted granted Critical
Publication of JP5907163B2 publication Critical patent/JP5907163B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、作業中の業務に関与した2以上のデータ間の関連度を算出する、データ関連度判定装置、データ関連度判定方法、および、プログラムに関する。
計算機を用いる業務において、一人の作業者が複数のアプリケーションを同時に利用することが多くある。そのような場合、各アプリケーションで使用した文書、画像などのデータ(業務データを含む)を、業務と関連付けておくことが重要である。なぜなら、各業務と当該業務に関連するデータとが関連付けられていれば、例えば、作業者がその業務を一旦中断した後に再開する際に、その業務の遂行が容易となるからである。
また、当該業務と関連付けられたデータに基づいて、当該業務に類似する業務を判定し、その類似する業務に関連付けられたデータから、当該業務を遂行する上で必要と考えられるファイル(データ)を抽出し、作業者に通知することなどに利用できる。
特許文献2、4、5には、データ同士を関連付ける技術が開示されている。
特許文献2では、データ内に含まれるキーワードに基づいて、データの類似度を算出し、データの類似度に基づいて、データ同士を関連付ける技術が開示されている。特許文献4では、データへのアクセス時間の同時性に基づいて、データ同士を関連づける技術が開示されている。特許文献5では、計算機上のコピー操作とペースト操作を検出し、コピー元のデータとコピー先のデータとを関連づける技術が開示されている。
データ同士を関連付ける技術ではないが、特許文献1、3、6、7、8には、ユーザの視線を示す視線情報を利用する技術が開示されている。特許文献1の映像再生装置では、利用者の映像に対する集中度に応じて、再生対象となる映像または映像区間を分類する。そして、映像再生装置は、分類結果と利用者の映像に対する集中度とに基づいて、再生する映像または映像区間を選択する。特許文献3の液晶表示装置では、テレビに対する視聴者の視線角度を算出して、視聴者の位置に応じた画質の映像を表示する。特許文献6の作業訓練システムでは、作業者の移動に対応して移動する仮想車両と仮想部品の映像を、ヘッドマウントディスプレイ装置に表示する。
また、特許文献7では、視線追跡情報に基づいて、コンピュータ装置を制御する技術が開示されている。特許文献8では、ユーザの注視点の絶対位置に基づいて、フィードバックデータを表示画面上に表示する技術が開示されている。
国際公開第2007/132566号 特開2002−014999号公報 特開2007−212664号公報 特開2009−003553号公報 特開2010−128916号公報 特開2010−271536号公報 特表2008−502990号公報 特表2009−525529号公報
特許文献4、特許文献5では、計算機上で作業者が実行した操作の内容を示す操作情報から、データ同士の関連性を判定する。しかしながら、計算機上の操作情報だけでは、作業者の作業に関与したデータ同士の関連性を、必ずしも判定することができない。例えば、多数のアプリケーションウィンドウがディスプレイに重畳表示されており、あるウィンドウのデータを確認しながら別のウィンドウのデータに入力するような場合には、これらのデータ同士を関連付けることはできない。
さらに、特許文献4では、データアクセス時間の同時性のみに基づいて、データを関連付けている。そのため、開いているデータの一部が関連性のないデータであっても、開いているデータ全てが関連付けられてしまう。特許文献5では、コピー操作とペースト操作を伴わない場合は、データを関連付けることはできない。
特許文献2では、作業者の操作と関係のないデータ同士を関連付けることができる。しかしながら、キーワードが類似しない同一業務に関連するデータ同士を関連付けることができない。
本発明は上述の事情に鑑みてなされたもので、作業者の作業に関与した2以上のデータ間の関連度を算出する、データ関連度判定装置、データ関連度判定方法、および、プログラムを提供することを目的とする。
上記目的を達成するため、本発明の第1の観点に係るデータ関連度判定装置は、
表示装置の画面に表示している2以上のデータのそれぞれの表示領域を示す情報を取得する表示領域取得部と、
前記表示装置の画面上における作業者の視線の位置である視線位置を取得し、取得した前記視線位置と前記表示領域を示す情報とから、前記作業者が注視している前記データを示す注視データ情報を生成する注視データ生成部と、
前記表示しているデータに対して前記作業者が実行した操作の内容を示す操作情報を取得する操作情報取得部と、
前記注視データ情報および前記操作情報に基づいて、所定の基準で前記作業者の作業における前記2以上のデータ相互の関連度を算出する関連度算出部と、
を備えることを特徴とする。
本発明の第2の観点に係るデータ関連度判定方法は、
データ関連度判定装置が、表示装置の画面に表示している2以上のデータのそれぞれの表示領域を示す情報を取得するステップと、
前記データ関連度判定装置が、前記表示装置の画面上における作業者の視線の位置である視線位置を取得するステップと、
前記データ関連度判定装置が、前記視線位置と前記表示領域を示す情報とから、前記作業者が注視している前記データを示す注視データ情報を生成するステップと、
前記データ関連度判定装置が、前記表示しているデータに対して前記作業者が実行した操作の内容を示す操作情報を取得するステップと、
前記データ関連度判定装置が、前記注視データ情報および前記操作情報に基づいて、所定の基準で前記作業者の作業における前記2以上のデータ相互の関連度を算出する関連度算出ステップと、
を備えることを特徴とする。
本発明の第3の観点に係るプログラムは、コンピュータに、
表示装置の画面に表示している2以上のデータのそれぞれの表示領域を示す情報を取得するステップと、
前記表示装置の画面上における作業者の視線の位置である視線位置を取得するステップと、
前記視線位置と前記表示領域を示す情報とから、前記作業者が注視している前記データを示す注視データ情報を生成するステップと、
前記表示しているデータに対して前記作業者が実行した操作の内容を示す操作情報を取得するステップと、
前記注視データ情報および前記操作情報に基づいて、所定の基準で前記作業者の作業における前記2以上のデータ相互の関連度を算出する関連度算出ステップと、
を実行させることを特徴とする。
本発明の第4の観点に係るデータ関連度判定装置は、
表示装置の画面に表示している2以上のデータのそれぞれの表示領域を示す情報と、当該画面上における作業者の視線の位置である視線位置を示す情報とに基づいて、前記作業者が注視している前記データを示す注視データ情報を生成する注視データ生成部と、
前記注視データ情報および前記作業者が実行した操作の内容を示す操作情報に基づいて、前記2以上のデータ相互の関連度を算出する関連度算出部と、
を備えることを特徴とする。
本発明によれば、作業者の作業に関与した2以上のデータ間の関連度を算出することができる。
本発明の実施の形態に係るデータ関連度判定装置の構成例を示すブロック図である。 実施の形態に係るデータ関連度判定装置の異なる構成例を示すブロック図である。 実施の形態に係るデータ関連度判定装置の物理的な構成例を示すブロック図である。 実施の形態における表示データ位置情報の例を示す図である。 実施の形態における注視情報の例を示す図である。 実施の形態における注視データ情報の例を示す図である。 実施の形態における操作情報の例を示す図である。 実施の形態においてデータ間での視線位置の動きからデータ間の関連度を算出する例を示す図である。 実施の形態においてデータ間での操作の関連度を算出する例を示す図である。 実施の形態においてあるデータに注視している間に別のデータに対して操作を実行した場合におけるデータ間の関連度を算出する例を示す図である。 実施の形態において最終的に出力されるデータ間の関連度の例を示す図である。 実施の形態におけるデータ関連度判定の動作の一例を示すフローチャートである。 注視データ情報取得の動作の一例を示すフローチャートである。 操作情報取得の動作の一例を示すフローチャートである。 実施の形態におけるデータの関連度を算出する動作の一例を示すフローチャートである。
次に、本発明を実施するための形態について図面を参照して詳細に説明する。なお図中、同一または同等の部分には同一の符号を付す。
図1は、本発明の実施の形態に係るデータ関連度判定装置1を含むシステムの構成例を示すブロック図である。データ関連度判定装置1は、図1に示すように、視線情報取得部11、注視判定部12、表示領域取得部13、注視データ生成部14、注視情報記憶部15、操作情報取得部16、操作情報記憶部17、およびデータ関連度算出部18を備える。データ関連度判定装置1は、例えば、作業者がデータの閲覧または編集などの作業を行うコンピュータで実現される。
図2は、本実施の形態に係るデータ関連度判定装置1を含むシステムの異なる構成例を示すブロック図である。図2に示すように、データ関連度判定装置1は、端末4とサーバ5とに各機能部を分散した構成を有する。図2に示すデータ関連度判定装置1では、端末4は、視線情報取得部11、注視判定部12、表示領域取得部13、注視データ生成部14および操作情報取得部16を備える。サーバ5は、注視情報記憶部15、操作情報記憶部17、およびデータ関連度算出部18を備える。
図2には示されていないが、端末4とサーバ5はネットワークを介して相互に通信する。端末4の操作情報取得部16は、取得した操作情報T5(詳しくは後述)をサーバ5に送信し、サーバ5は、受信した操作情報T5を操作情報記憶部17に記憶する。また、端末4の注視データ生成部14は、作業者が注視しているデータを示す注視情報T3(詳しくは後述)を生成し、生成した注視情報T3をサーバ5に送信し、サーバ5は、受信した注視情報T3を注視情報記憶部15に記憶する。
データ関連度判定装置1は、図1に示すように、作業者が操作する単一のコンピュータで実現される場合と、図2に示すように、端末4とサーバ5とにより実現される場合とがある。データ関連度判定装置1が、端末4とサーバ5とにより実現される場合、端末4とサーバ5がそれぞれ備える各機能部の構成は、図2に示す構成に限られない。例えば、サーバ5側が、操作情報取得部16を備え、端末4から操作情報T5を取得するように構成してもよい。
図3は、実施の形態に係るデータ関連度判定装置1を含むシステムの物理的な構成例を示すブロック図である。図3に示す構成は、図1のデータ関連度判定装置1、または図2の端末4もしくはサーバ5の構成を含む。
データ関連度判定装置1を含むシステムは、図3に示すように、制御部31、主記憶部32、外部記憶部33、操作部34、表示部35、入出力部36および送受信部37を備える。主記憶部32、外部記憶部33、操作部34、表示部35、入出力部36、および送受信部37は、いずれも内部バス30を介して制御部31に接続されている。
制御部31は、CPU(Central Processing Unit)等から構成され、外部記憶部33に記憶されている制御プログラム39に従って、後述するデータ関連度判定の一連の処理を実行する。
主記憶部32は、RAM(Random-Access Memory)等から構成され、外部記憶部33に記憶されている制御プログラム39をロードし、制御部31の作業領域として用いられる。
外部記憶部33は、フラッシュメモリ、ハードディスク、DVD−RAM(Digital Versatile Disc Random-Access Memory)、DVD−RW(Digital Versatile Disc ReWritable)等の不揮発性メモリから構成される。外部記憶部33は、後述するデータ関連度判定の一連の処理を制御部31に実行させるための制御プログラム39を予め記憶する。また、外部記憶部33は、制御部31の制御に従って、この制御プログラム39に含まれるデータを制御部31に供給し、制御部31から供給されたデータを記憶する。
操作部34は、キーボードまたはタッチパネルと、マウスまたはタッチパッドなどのポインティングデバイス等と、キーボードまたはタッチパネルおよびポインティングデバイス等を内部バス30に接続するインタフェース装置と、から構成されている。データ関連度判定装置1を含むシステムは、操作部34を介して、作業者から各種の操作指示を受付ける。
表示部35は、LCD(Liquid Crystal Display)もしくは有機ELディスプレイ、およびスピーカなどから構成され、作業者の作業に関与するデータなどを表示する。
入出力部36は、シリアルインタフェースまたはパラレルインタフェースから構成されている。入出力部36に視線検出センサ38が接続される。
送受信部37は、無線送受信機、無線モデムまたは網終端装置、およびそれらと接続するシリアルインタフェースまたはLAN(Local Area Network)インタフェースから構成されている。データ関連度判定装置1が、端末4とサーバ5から構成される場合、端末4とサーバ5は、送受信部37を介して、操作情報T5、注視情報T3などを送受信する。
以下、図1に示す構成に基づいて説明する。
図1を参照して、入力部2は、操作部34に相当し、入力部2は、作業者から指示の入力を受け付ける。例えば、入力部2は、画面上に表示されたデータの表示領域の全体又は一部の範囲の選択、データを入力する箇所の指定、プルダウンメニューまたはポップアップメニューの選択、コンピュータへの指令(コマンド)、またはデータの編集の指示の入力を受け付ける。表示部3は、表示部35に相当し、作業者が業務に使用するデータなどを画面に表示する。入力部2からの入力の受付と、表示部3へのデータの表示は、オペレーティングシステム(OS)19によって制御される。
データ関連度判定装置1は、視線情報取得部11、注視判定部12、表示領域取得部13、注視データ生成部14、注視情報記憶部15、操作情報取得部16、操作情報記憶部17、およびデータ関連度算出部18を備える。これらの各機能部は、制御プログラム39が、制御部31、主記憶部32、外部記憶部33、操作部34、表示部35、入出力部36および送受信部37などを資源として用いることで実現される。
視線情報取得部11は、例えば、表示部3の画面に対して作業者側の空間を撮影するカメラなどを備え、作業者が注視している表示部3の画面上の位置を示す情報(以下、視線位置という)を取得する。より具体的には、視線情報取得部11は、作業者の眼の位置(視点の位置)と視線の方向を検出し、作業者の視点の位置から視線の方向に引いた直線が表示部3の画面と交わる点を、表示部3の画面上の視線位置として検出する。
その視線位置は、例えば、視線検出センサ38を用いて取得することができる。視線検出センサ38として、例えば、トビー・テクノロジー・ジャパン株式会社製Tobii X60 & X120などを用いることができる。そして、視線情報取得部11は、取得した視線位置と、その視線位置を取得した時刻と、を関連付けた視線位置情報T2(図5(b))を生成し、注視情報記憶部15に記憶する。
視線情報取得部11が取得する視線位置は、後述する表示領域取得部13が取得する各データの表示領域の位置を示す情報は座標系であることから、同じ座標系が望ましい。視線情報取得部11は、視線位置を取得した後に、データの表示領域の位置と同じ座標系に視線位置を変換してもよい。
表示領域取得部13は、表示部3に表示しているデータの表示領域の位置と範囲(ウィンドウサイズ)を示す表示領域情報を取得する。表示領域取得部13が取得する表示データの位置を示す情報は、各アプリケーションウィンドウの画面上の表示位置についての情報である。情報の形態は、画面上の各ピクセルに対応するアプリケーションが把握できればどのような形態でもよい。例えば、データが画面上の長方形のウィンドウで表示される場合、データの表示領域の位置と範囲は、そのウィンドウの左上角の点(以下、始点位置)の座標とウィンドウの縦と横の長さで表される。画面上の表示はOS19で制御されるので、表示領域情報は、OS19が管理するデータを参照することによって得られる。
そして、表示領域取得部13は、取得した表示領域情報と、その表示領域情報に対応するデータの表示を開始した時刻と、その表示領域情報に対応するデータと、そのデータを表示しているプログラム(アプリケーション)と、そのデータを表示するウィンドウの順位を示す表示順位とを関連付けた表示データ位置情報T1を生成し、注視情報記憶部15に記憶する。
ここで、図4は、実施の形態における表示データ位置情報T1の例を示す図である。図4の「時刻」は、データの表示を開始した時刻を示す。「時刻」には、データの表示を終了(一時縮小した場合を含む)した時刻を含むようにしてもよい。「始点位置」は、データを表示しているウィンドウの左上角の点の画面上の座標である。「ウィンドウサイズ」は、そのウィンドウの縦と横の長さを示す。「表示データ」は、そのウィンドウに表示されているデータを一意に識別する名称を示す。表示するデータの種類には、例えば、文書(テキストまたはハイパーテキスト)、スライド、画像イメージ、Webサイト、などがある。「アプリケーション」は、データを表示しているプログラムの名称である。同じデータでも異なるアプリケーションで表示される場合もある。「表示順位」は、データを表示するウィンドウの順位を示し、最前面で表示されているウィンドウから順番に番号が割り振られる。例えば、図4から、21時21分23秒には、文書_X.docとURL_Y.htmlが画面上に表示されており、文書_X.docが最前面に表示されていることが分かる。また、21時21分24秒には、文書_X.docとURL_Y.htmlが画面上に表示されており、URL_Y.htmlが最前面になっていることが分かる。複数のウィンドウが互いに重なり合っているおり、後述する注視位置がウィンドウ同士が重なり合う部分に位置する場合に、後述する注視データ生成部14は、作業者が注視しているデータを特定すために、この「表示順位」を用いる。
図1に戻り、注視判定部12は、視線情報取得部11が生成した視線位置情報T2から、作業者が注視している位置を示す注視位置を抽出する。そして、注視判定部12は、抽出した注視位置とその注視位置に対応する視線位置を取得した時刻とその注視位置を注視している時間を示す注視時間とを関連付けた注視情報T3を生成し、その注視情報T3を注視情報記憶部15に記憶する。
具体的には、例えば、視線位置とその時刻を合わせた点をクラスタ分析してクラスタを抽出し、抽出したクラスタの重心(時刻とその時刻における視線位置)とその抽出したクラスタに含まれる各点に対応する時刻から算出した注視時間とを関連づけて注視情報T3として生成する。注視時間は、より具体的には、抽出したクラスタに含まれる各点に対応する時刻のうちで最も前の時刻T1と最も後の時刻T2を抽出し、T2とT1との差T2−T1を注視時間として算出する。抽出したクラスタに含まれるどの点を注視情報T3とするかは自由であり、例えば、クラスタに含まれる点のうち、その時刻が最も前の点を注視情報T3としてもよい。
また、注視判定部12は、例えば、視線位置情報T2に基づいて、視線位置情報T2に含まれる視線位置について、その視線位置が一定時間(例えば、5秒)以上にわたり所定の範囲に留まっているかを判定し、一定時間以上にわたり所定の範囲に留まっていると判定された視線位置を、注視位置として抽出するようにしてもよい。この際、視線位置が一定時間以上にわたり所定の範囲に留まっていると判定された場合には、所定の範囲に留まっている間に視線情報取得部11が取得した他の視線位置については、上記判定を行わない。なお、視線位置が留まっている範囲を、注視範囲として抽出するようにしてもよい。
また、注視判定部12は、視線位置が一定時間にわたり所定の範囲に留まっているかを判定して注視位置を抽出する場合、視線位置が所定の範囲に留まっている時間を注視時間として算出する。
また、注視判定部12は、例えば、視線位置が線上をある速さで移動する場合に、その部分を注視している部分として抽出するようにしてもよい。視線位置が移動する速さは、視線位置情報T2に含まれる視線位置とその視線位置を取得した時刻とから算出することができる。
ここで、図5は、実施の形態における注視情報T3の例を示す図である。図5(a)は、視線位置を模式的に示す。視線情報取得部11は、作業者の視線位置を間欠的に取得して、視線位置とその視線位置を取得した時刻とを関連づけた、図5(b)に示すような視線位置情報T2を生成する。注視判定部12は、視線位置情報T2から作業者が注視している位置を示す注視位置を抽出する。そして、注視判定部12は、図5(c)に示すような注視位置とその注視位置に対応する視線位置が取得された時刻と注視時間とを関連づけた注視情報T3を生成する。
図1に戻り、注視データ生成部14は、表示領域取得部13が生成した表示データ位置情報T1と、注視判定部12が生成した注視情報T3とから、作業者が注視しているデータ(以下、注視データという)を特定する。
具体的には、注視データ生成部14は、注視情報T3に含まれる各注視位置について、その注視位置に対応する時刻と表示データ位置情報T1とから、その時刻に画面上に表示されていたデータ群を特定する。そして、注視データ生成部14は、その注視位置を含む表示領域を有するデータを特定する。その注視位置を含む表示領域を有するデータが複数ある場合には、注視データ生成部14は、表示データ位置情報T1に含まれる「表示順位」を参照して、それらの複数のデータのうちで「表示順位」が最も小さい数字のデータを注視データとして特定する。この際、注視データ生成部14は、さらに、注視データのどの部分を作業者が注視しているかを特定するようにしてもよい。
そして、注視データ生成部14は、特定した注視データとその注視データを特定するために用いられた注視位置に対応する視線位置を取得した時刻を含む情報とを関連付けた、注視データ情報T4を生成し、注視データ情報T4を注視情報記憶部15に記憶する。
ここで、図6は、実施の形態における注視データ情報T4の例を示す図である。図6に示す注視データ情報T4の例では、注視位置、その注視位置に対応する視線位置が取得された時刻、その注視位置から特定された注視データ、その注視データを表示するアプリケーション、その注視データを注視している時間を示すデータ注視時間の組が関連づけられている。
図1に戻り、操作情報取得部16は、表示しているデータに対して作業者が入力部2を介して実行した指令または入力などの操作の内容を示す情報を取得する。入力部2と表示部3は、OS19により制御され、操作情報取得部16は、OS19を介して操作の内容を示す情報を取得することができる。そして、操作情報取得部16は、取得した操作の内容を示す情報と、その操作の対象となったデータを示す操作データ情報と、そのデータを表示するプログラム(アプリケーション)を示す情報と、その操作が実行された時刻と、を関連付けた操作情報T5を生成し、操作情報T5を操作情報記憶部17に記憶する。
操作情報取得部16が取得する操作の内容を示す情報の例としては、キーボード入力情報、マウス操作情報、データアクセス情報、アプリケーション利用情報、などが挙げられる。
ここで、図7は、実施の形態における操作情報T5の例を示す図である。図7の例では、作業者が操作した時刻と、操作したデータを表示しているアプリケーションと、操作した対象のデータと、操作した内容と、を関連づけて記憶している。また、操作した内容には、例えば、その操作がコピー(又は、ペースト)の場合は、コピー(又はペースト)したデータ量が含まれる。また、操作した内容には、例えば、その操作がデータ入力の場合は、入力したデータ量が含まれる。
図1に戻り、データ関連度算出部18は、操作情報記憶部17、および注視情報記憶部15に蓄積された操作情報T5と注視データ情報T4に基づき、表示部3の画面上に表示されている2以上のデータ間の関連度を算出する。データ関連度算出部18がデータ間の関連度を算出するタイミングは任意に決めることができ、例えば、データ間の関連度の算出は、一定時間間隔で自動的に実行するようにしてもよいし、作業者が指定するタイミングで実行するようにしてもよい。また、例えば、作業者があるデータの閲覧または編集を終えて、そのデータのファイルを閉じたときに、それまでに蓄積された操作情報T5と注視データ情報T4から、表示していたデータ間の関連度を算出してもよい。
データ関連度算出部18は、注視データ情報T4を参照して、視線位置が各データの表示領域に留まる時間(データ注視時間)と、視線位置があるデータの表示領域から他のデータの表示領域に移動する態様などから、データ相互の関連度を算出する。例えば、視線位置が1つのデータXの表示領域から他の1つのデータYの表示領域に移動して、また元のデータXの表示領域に戻る場合に、その2つのデータX,Yの関連度は次式e(X,Y)で定義することができる。
e(X,Y)=log(Yの注視時間)・exp{−(XからYへの注視点の移動時間と、YからXへの注視点の移動時間との和)}・exp{−(XからYへ視線位置が移動する前のXでの視線位置と、YからXへ視線位置が戻った際のXでの視線位置との誤差)}
ここで、図8は、実施の形態においてデータ間での視線位置の動きからデータ間の関連度を算出する例を示す図である。図8(a)は視線位置の動きを模式的に示す。図8(a)の例では、視線位置が文書Xの表示領域の点xから、URL_Yの表示領域の点yに移動し、文書Xの表示領域の点zに戻ったことを示す。図8(b)は、図8(a)に示す態様を注視データ情報T4で表したものである。
図8(b)に示す注視データ情報を上述の式e(X,Y)に当てはめると、
e(X,Y)=log(5)・exp(−(1+0))・exp(−√((250−233)+(227−201)))
となる。
なお、視点位置の移動元のデータと移動先のデータとが同一の場合は、本関連付けは実行しない。
また、データ関連度算出部18は、2つのデータの間でコピー操作とペースト操作とが実行されたデータのデータ量から、これらのデータ間の関連度を算出する。例えば、1つのデータYからコピーして、他の1つのデータXにペーストしたデータ量の、1つのデータYのデータ量および/または他の1つのデータXのデータ量に対する割合で、1つのデータXと他の1つのデータYとの関連度として算出する。1つのデータXと他の1つのデータYとの関連度は、例えば、次式p(X,Y)で定義することができる。
p(X,Y)=(Yからコピーし、Xにペーストしたデータ量)/(Xのデータ量)
ここで、図9は、実施の形態においてデータ間での操作の関連度を算出する例を示す図である。図9(a)は、URL_Yの一部をコピーして、文書_Xにペーストした場合を示す。図9(b)は、この場合にデータ関連度算出部18が、関連度を算出するために操作情報T5から抽出する情報を示す。文書_Xのデータ量が5000byteの場合、式p(X,Y)に当てはめると
p(X,Y)=30/5000
となる。また、p(X,Y)を次式のように定義してもよい。
p(X,Y)=(Yからコピーし、Xにペーストしたデータ量)/(Yのデータ量)
また、データ関連度算出部18は、1つのデータを注視している時間である注視時間と、そのデータを注視している間に他の1つのデータに入力したデータ量から、それらのデータ間の関連度を算出する。例えば、1つのデータYの表示領域に視線位置が留まる時間と、1つのデータYの表示領域に前記視線位置が留まる期間に他の1つのデータXに入力したデータ量から、1つのデータYと他の1つのデータXとの関連度を、次式r(X,Y)で定義することができる。
r(X,Y)=log(Yに対する注視時間)・log(Yに注視している間にXに入力されたデータのデータ量)
ここで、図10は、実施の形態においてあるデータに注視している間に別のデータに対して操作を実行した場合におけるデータ間の関連度を算出する例を示す図である。図10(a)は、作業者がURL_Yを注視しながら、文書_Xに入力していることを示す。図10(b)は、この場合にデータ関連度算出部18が、関連度を算出するために注視データ情報T4と操作情報T5とから抽出する情報を示す。作業者がURL_Yを注視しながら、文書_Xに入力していることは、注視データ情報T4と操作情報T5に含まれる時刻とデータ注視時間などから判定できる。図10(b)に示す例を式r(X,Y)に当てはめると、
r(X,Y)=log(30)・log(80)
となる。
さらに、データ関連度算出部18は、e(X,Y)、p(X,Y)、およびr(X,Y)を合成して、データXとデータYとの関連度として算出する。具体的には、例えば、e(X,Y)、p(X,Y)およびr(X,Y)をすべての注視データ情報T4および操作情報T5について合計して、その加重平均をデータX,Yの関連度Rとする。この場合、関連度Rは数1に示す式で表すことができる。
Figure 0005907163
ここで、図11は、実施の形態において最終的に出力されるデータ間の関連度の例を示す図である。図11のそれぞれの行は、関連データ1と関連データ2との関連度Rを示す。例えば、第1行では、URL_Yと文書_Xとの関連度Rを示し、その関連度Rは、0.3である。
次に、図12は、実施の形態におけるデータ関連度判定の動作の一例を示すフローチャートである。この動作の一連の処理は、例えば、作業者がデータ関連度判定機能をONにすることにより開始される。データ関連度判定装置1は、注視データ情報T4と操作情報T5(合わせてデータ関連情報という)の取得を開始する(ステップS11)。そして、取得したデータ関連情報を記憶する(ステップS12)。具体的には、取得した注視データ情報T4は、注視情報記憶部15に記憶させ、取得した操作情報T5は、操作情報記憶部17に記憶させる。
そして、データ間の関連度を算出するタイミングか否かを判定する(ステップS13)。データ間の関連度を算出するタイミングでないと判定された場合には(ステップS13;NO)、処理は、ステップS11に戻り、前述の処理を繰り返す。一方、データ間の関連度を算出するタイミングであると判定された場合には(ステップS13;YES)、データ関連度算出部18は、データ間の関連度Rを算出する(ステップS14)。
そして、データ関連度算出部18は、算出したデータ間の関連度Rを出力する(ステップS15)。そして、データ関連度判定の処理の終了が指示されたか否かを判定し(ステップS16)、データ関連度判定の処理の終了が指示されていないと判定された場合は(ステップS16;NO)、処理は、ステップS11に戻り、前述の処理を繰り返す。一方、データ関連度判定の終了が指示されたと判定された場合は(ステップS16;YES)、データ関連度判定の処理を終了する。ここで、データ関連度判定の終了の指示とは、例えば、作業者がデータ関連度判定機能をOFFにした場合などである。
次に、図13は、注視データ情報取得の動作の一例を示すフローチャートである。この注視データ情報T4を取得する処理は、図12のステップS11とステップS12の処理の一部である。表示領域取得部13は、表示部3の画面上にデータが表示されたか否かを判定する(ステップS21)。表示部3の画面上にデータが表示されていないと判定された場合は(ステップS21;NO)、ステップS21の処理を繰り返して、表示部3の画面上にデータが表示されるのを待つ。一方、表示部3の画面上にデータが表示されたと判定された場合は(ステップS21;YES)、表示領域取得部13は、そのデータの表示領域情報を取得する(ステップS22)。
視線情報取得部11は、作業者の表示部3の画面に対する視線位置と現在時刻を取得し、取得した視線位置とその時刻とを関連付けて、視線位置情報T2として出力する(ステップS23)。注視判定部12は、視線位置情報T2に基づいて、作業者が視線位置情報T2に含まれる視線位置に注視しているか否か判定を判定し、注視していると判定された視線位置を示す注視位置とその視線位置を取得した時刻と注視時間とを関連づけた注視情報T3を生成する(ステップS24)。
そして、注視データ生成部14は、表示領域取得部13が取得した表示領域情報と注視判定部12が生成した注視情報T3とから、作業者が注視しているデータを判定する。そして、注視データ生成部14は、注視していると判定されたデータを示す注視データと、その注視データを表示するプログラム(アプリケーション)と、注視データを注視している時間を示すデータ注視時間と、その注視データに対応する注視情報T3と、を関連付けた注視データ情報T4を生成する(ステップS25)。注視データ生成部14は、生成した注視データ情報T4を注視情報記憶部15に記憶する(ステップS26)。データ関連度判定装置1は、この一連の処理を繰り返す。
次に、図14は、操作情報取得の動作の一例を示すフローチャートである。この操作情報T5を取得する処理は、図12のステップS11とステップS12の処理の一部である。操作情報取得部16は、作業者が入力部2を介して操作入力したか否かを判定する(ステップS31)。操作入力されていないと判定された場合は(ステップS31;NO)、ステップS31の処理を繰り返して、作業者が操作の入力を行うのを待つ。一方、操作入力されたと判定された場合は(ステップS31;YES)、操作情報取得部16は、OS19を介して操作情報T5を取得する(ステップS32)。操作情報取得部16は、取得した操作情報T5を操作情報記憶部17に記憶する(ステップS33)。データ関連度判定装置1は、この一連の処理を繰り返す。
なお、図13に示す注視データ情報取得の動作と、図14に示す操作情報取得の動作は、独立に並行して行われる。
次に、図15は、実施の形態におけるデータの関連度を算出する動作の一例を示すフローチャートである。図15に示すデータ間の関連度の算出する処理は、図12のステップS14の処理に相当する。データ関連度算出部18は、注視データ生成部14が生成し、注視情報記憶部15に記憶されている注視データ情報T4から、データ間の関連度e(X,Y)を算出する(ステップS41)。そして、データ関連度算出部18は、操作情報取得部16が取得し、操作情報記憶部17に記憶されている操作情報T5から、データ間の関連度p(X,Y)を算出する(ステップS42)。そして、データ関連度算出部18は、注視データ情報T4と操作情報T5とから、データ間の関連度r(X,Y)を算出する(ステップS43)。
そして、データ関連度算出部18は、データ間の関連度の算出処理がされていないデータ関連情報があるか否かを判定する(ステップS44)。データ間の関連度の算出処理がされていないデータ関連情報があると判定された場合は(ステップS44;YES)、そのデータ関連情報に対して、ステップS41〜ステップS43の処理を行う。
なお、ステップS41〜ステップS43の処理は、並列に実行されてもよい。
一方、データ間の関連度の算出処理がされていないデータ関連情報がないと判定された場合は(ステップS44;NO)、例えば、数1に示す式にしたがってデータ間の関連度Rを算出して(ステップS45)、データ関連度算出の処理を終了する。
本実施の形態に係るデータ関連度判定装置1によれば、作業者の業務(データ)に関与した2以上のデータ間の関連度を算出することができる。それによって、業務データの見直し、業務の再開、および類似業務との手順比較などの際に、業務支援の一環として、当該業務に関連するデータを適切に提供することができる。
また、本実施の形態に係るデータ関連度判定装置1によれば、作業者が実施している業務の内容に関連するデータを、作業者が実施している業務と関連付けることができる。関連付けるデータの単位としては、例えば、ファイル単位の関連づけ、パラグラフ単位の関連づけ、パラグラフとファイルとの関連づけ、画像単位の関連づけ、図表単位の関連づけ、図表とファイルとの関連づけなどが考えられる。
本実施の形態において、データ関連度算出部18が出力するデータ間の関連性を示す関連情報は、図11に示すように、関連するデータ対、およびそのデータ対の関連度を示す情報である。しかしながら、これに限定されるものではなく、例えば、関連情報にデータ対の関連度を算出した時刻を含めるように構成してもよい。また、データ対の関連度(関連性)を示す情報の具体的な内容は利用目的によって変化し、例えば、作業者が作業中に注視したデータ群、注視先のデータと操作先のデータ、などのデータ間の関連性を示す作業者の行動情報でもよいし、データ間の関連する行動の時間や回数から算出した関連度の値でもよい。
本実施の形態の操作情報T5において、その操作が入力の場合と同様に、その操作がコピー、ペーストなどの場合にも、操作対象のデータの内容を示す情報を操作情報T5に含めるようにしてもよい。こうすることで、データ間の関連度が算出された後に、そのデータ間の関連度に影響を与える操作、例えば、ペーストしたデータを削除する操作が行われた場合に、その削除したデータのコピー元のデータを特定し、その特定したデータとの関連度を再度算出することができる。これにより、常に、データ間の関連度を適切に評価できる。
本実施の形態において示したハードウエア構成やフローチャートは一例であり、任意に変更および修正が可能である。つまり、本発明の範囲は、実施形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が本発明の範囲内とみなされる。
データ関連度判定装置1の各機能は、専用のシステムによらず、通常のコンピュータシステムで実現可能である。たとえば、本実施の形態におけるデータ関連度判定の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納して配布する。そして、当該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行するデータ関連度判定装置1を構成する。また、コンピュータシステムが、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置に格納された当該コンピュータプログラムを、ダウンロード等することでデータ関連度判定装置1を構成してもよい。
また、データ関連度判定装置1の各機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。
また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して、当該コンピュータプログラムを配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)に当該コンピュータプログラムを掲示し、ネットワークを介して当該コンピュータプログラムを配信する。そして、当該コンピュータプログラムを実行することで、データ関連度判定装置1の各機能を実現するように構成してもよい。
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
表示装置の画面に表示している2以上のデータのそれぞれの表示領域を示す情報を取得する表示領域取得部と、
前記表示装置の画面上における作業者の視線の位置である視線位置を取得し、取得した前記視線位置と前記表示領域を示す情報とから、前記作業者が注視している前記データを示す注視データ情報を生成する注視データ生成部と、
前記表示しているデータに対して前記作業者が実行した操作の内容を示す操作情報を取得する操作情報取得部と、
前記注視データ情報および前記操作情報に基づいて、所定の基準で前記作業者の作業における前記2以上のデータ相互の関連度を算出する関連度算出部と、
を備えることを特徴とするデータ関連度判定装置。
(付記2)
前記関連度算出部は、前記2以上のデータに含まれる2つのデータの表示領域それぞれに前記視線位置が留まる時間と、前記視線位置が前記2つのデータそれぞれの表示領域の間を移動するのに要した時間と、および前記視線位置が前記2つのデータの1つのデータの表示領域から他の1つのデータの表示領域に移動する前の前記視線位置と前記視線位置が前記他の1つのデータの表示領域から再び前記1つのデータの表示領域に移動した後の前記視線位置との誤差と、に基づいて、前記2つのデータ相互の関連度を算出することを特徴とする付記1に記載のデータ関連度判定装置。
(付記3)
前記関連度算出部は、前記作業者が前記2以上のデータの1つのデータからコピーして、他の1つのデータにペーストしたデータ量の、前記1つのデータのデータ量および/または前記他の1つのデータのデータ量に対する割合で、前記1つのデータと前記他の1つのデータとの関連度を算出することを特徴とする付記1または2に記載のデータ関連度判定装置。
(付記4)
前記関連度算出部は、前記2以上のデータの1つのデータの表示領域に前記視線位置が留まる時間と、該1つのデータの表示領域に前記視線位置が留まる期間に、前記2以上のデータの他の1つのデータに前記作業者が入力したデータ量とから、前記1つのデータと前記他の1つのデータとの関連度を算出することを特徴とする付記1ないし3のいずれか1に記載のデータ関連度判定装置。
(付記5)
前記関連度算出部は、
前記2以上のデータに含まれる2つのデータの表示領域それぞれに前記視線位置が留まる時間と、前記視線位置が前記2つのデータそれぞれの表示領域の間を移動するのに要した時間と、および前記視線位置が前記2つのデータの1つのデータの表示領域から前記2つのデータの他の1つのデータの表示領域に移動する前の前記視線位置と前記視線位置が前記他の1つのデータの表示領域から再び前記1つのデータの表示領域に移動した後の前記視線位置との誤差と、に基づいて算出した前記2つのデータの関連度、
前記作業者が前記2つのデータの1つのデータからコピーして、前記2つのデータの他の1つのデータにペーストしたデータ量の、前記1つのデータのデータ量および/または前記他の1つのデータのデータ量に対する割合で算出した前記2つのデータの関連度、
および、
前記2つのデータの1つのデータの表示領域に前記視線位置が留まる時間と、該1つのデータの表示領域に前記視線位置が留まる期間に前記2つのデータの他の1つのデータに前記作業者が入力したデータ量とから算出した前記2つのデータの関連度、
を加重平均して、前記2つのデータ相互の関連度として算出することを特徴とする付記1に記載のデータ関連度判定装置。
(付記6)
表示装置の画面に表示している2以上のデータのそれぞれの表示領域を示す情報を取得するステップと、
前記表示装置の画面上における作業者の視線の位置である視線位置を取得するステップと、
前記視線位置と前記表示領域を示す情報とから、前記作業者が注視している前記データを示す注視データ情報を生成するステップと、
前記表示しているデータに対して前記作業者が実行した操作の内容を示す操作情報を取得するステップと、
前記注視データ情報および前記操作情報に基づいて、所定の基準で前記作業者の作業における前記2以上のデータ相互の関連度を算出する関連度算出ステップと、
を備えることを特徴とするデータ関連度判定方法。
(付記7)
前記関連度算出ステップでは、前記2以上のデータに含まれる2つのデータの表示領域それぞれに前記視線位置が留まる時間と、前記視線位置が前記2つのデータそれぞれの表示領域の間を移動するのに要した時間と、および前記視線位置が前記2つのデータの1つのデータの表示領域から他の1つのデータの表示領域に移動する前の前記視線位置と前記視線位置が前記他の1つのデータの表示領域から再び前記1つのデータの表示領域に移動した後の前記視線位置との誤差と、に基づいて、前記2つのデータ相互の関連度を算出することを特徴とする付記6に記載のデータ関連度判定方法。
(付記8)
前記関連度算出ステップでは、前記作業者が前記2以上のデータの1つのデータからコピーして、他の1つのデータにペーストしたデータ量の、前記1つのデータのデータ量および/または前記他の1つのデータのデータ量に対する割合で、前記1つのデータと前記他の1つのデータとの関連度を算出することを特徴とする付記6または7に記載のデータ関連度判定方法。
(付記9)
前記関連度算出ステップでは、前記2以上のデータの1つのデータの表示領域に前記視線位置が留まる時間と、該1つのデータの表示領域に前記視線位置が留まる期間に、前記2以上のデータの他の1つのデータに前記作業者が入力したデータ量とから、前記1つのデータと前記他の1つのデータとの関連度を算出することを特徴とする付記6ないし8のいずれか1に記載のデータ関連度判定方法。
(付記10)
前記関連度算出ステップでは、
前記2以上のデータに含まれる2つのデータの表示領域それぞれに前記視線位置が留まる時間と、前記視線位置が前記2つのデータそれぞれの表示領域の間を移動するのに要した時間と、および前記視線位置が前記2つのデータの1つのデータの表示領域から前記2つのデータの他の1つのデータの表示領域に移動する前の前記視線位置と前記視線位置が前記他の1つのデータの表示領域から再び前記1つのデータの表示領域に移動した後の前記視線位置との誤差と、に基づいて算出した前記2つのデータの関連度、
前記作業者が前記2つのデータの1つのデータからコピーして、前記2つのデータの他の1つのデータにペーストしたデータ量の、前記1つのデータのデータ量および/または前記他の1つのデータのデータ量に対する割合で算出した前記2つのデータの関連度、
および、
前記2つのデータの1つのデータの表示領域に前記視線位置が留まる時間と、該1つのデータの表示領域に前記視線位置が留まる期間に前記2つのデータの他の1つのデータに前記作業者が入力したデータ量とから算出した前記2つのデータの関連度、
を加重平均して、前記2つのデータ相互の関連度として算出することを特徴とする付記6に記載のデータ関連度判定方法。
(付記11)
コンピュータに、
表示装置の画面に表示している2以上のデータのそれぞれの表示領域を示す情報を取得するステップと、
前記表示装置の画面上における作業者の視線の位置である視線位置を取得するステップと、
前記視線位置と前記表示領域を示す情報とから、前記作業者が注視している前記データを示す注視データ情報を生成するステップと、
前記表示しているデータに対して前記作業者が実行した操作の内容を示す操作情報を取得するステップと、
前記注視データ情報および前記操作情報に基づいて、所定の基準で前記作業者の作業における前記2以上のデータ相互の関連度を算出する関連度算出ステップと、
を実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体。
なお、本出願は、2011年3月30日に出願された日本国特許出願2011−075877号に基づく。本明細書中に日本国特許出願2011−075877号の明細書、特許請求の範囲、図面全体を参照として取り込むものとする。
本発明によれば、業務効率の改善や業務プロセス管理支援において、業務の再開時に当該業務に関連するデータを適切に提供することによる作業効率改善が期待できる。また、社内で作業者の作業情報を共有することで、作業者が実行している作業に関連するデータと当該作業に類似する業務に関連するデータとを比較することによって、当該作業に欠如しているプロセスを通知する、作業中のデータに類似する業務を行った他の作業者が利用したデータを提供する、などに活用することができる。
1 データ関連度判定装置
2 入力部
3 表示部
4 端末
5 サーバ
11 視線情報取得部
12 注視判定部
13 表示領域取得部
14 注視データ生成部
15 注視情報記憶部
16 操作情報取得部
17 操作情報記憶部
18 データ関連度算出部
19 オペレーティングシステム(OS)
30 内部バス
31 制御部
32 主記憶部
33 外部記憶部
34 操作部
35 表示部
36 入出力部
37 送受信部
38 視線検出センサ
39 制御プログラム

Claims (11)

  1. 表示装置の画面に表示している2以上のデータのそれぞれの表示領域を示す情報を取得する表示領域取得部と、
    前記表示装置の画面上における作業者の視線の位置である視線位置を取得し、取得した前記視線位置と前記表示領域を示す情報から、前記作業者が注視している前記データを示す注視データ情報を生成する注視データ生成部と、
    前記表示しているデータに対して前記作業者が実行した操作の内容を示す操作情報を取得する操作情報取得部と、
    前記注視データ情報および前記操作情報に基づいて、所定の基準で前記作業者の作業における前記2以上のデータ相互の関連度を算出する関連度算出部と、
    を備えることを特徴とするデータ関連度判定装置。
  2. 前記関連度算出部は、前記2以上のデータに含まれる2つのデータの表示領域それぞれに前記視線位置が留まる時間と、前記視線位置が前記2つのデータそれぞれの表示領域の間を移動するのに要した時間と、および前記視線位置が前記2つのデータの1つのデータの表示領域から他の1つのデータの表示領域に移動する前の前記視線位置と前記視線位置が前記他の1つのデータの表示領域から再び前記1つのデータの表示領域に移動した後の前記視線位置との誤差と、に基づいて、前記2つのデータ相互の関連度を算出することを特徴とする請求項1に記載のデータ関連度判定装置。
  3. 前記関連度算出部は、前記作業者が前記2以上のデータの1つのデータからコピーして、他の1つのデータにペーストしたデータ量の、前記1つのデータのデータ量および/または前記他の1つのデータのデータ量に対する割合で、前記1つのデータと前記他の1つのデータとの関連度を算出することを特徴とする請求項1または2に記載のデータ関連度判定装置。
  4. 前記関連度算出部は、前記2以上のデータの1つのデータの表示領域に前記視線位置が留まる時間と、該1つのデータの表示領域に前記視線位置が留まる期間に、前記2以上のデータの他の1つのデータに前記作業者が入力したデータ量とから、前記1つのデータと前記他の1つのデータとの関連度を算出することを特徴とする請求項1ないし3のいずれか1項に記載のデータ関連度判定装置。
  5. 前記関連度算出部は、
    前記2以上のデータに含まれる2つのデータの表示領域それぞれに前記視線位置が留まる時間と、前記視線位置が前記2つのデータそれぞれの表示領域の間を移動するのに要した時間と、および前記視線位置が前記2つのデータの1つのデータの表示領域から前記2つのデータの他の1つのデータの表示領域に移動する前の前記視線位置と前記視線位置が前記他の1つのデータの表示領域から再び前記1つのデータの表示領域に移動した後の前記視線位置との誤差と、に基づいて算出した前記2つのデータの関連度、
    前記作業者が前記2つのデータの1つのデータからコピーして、前記2つのデータの他の1つのデータにペーストしたデータ量の、前記1つのデータのデータ量および/または前記他の1つのデータのデータ量に対する割合で算出した前記2つのデータの関連度、
    および、
    前記2つのデータの1つのデータの表示領域に前記視線位置が留まる時間と、該1つのデータの表示領域に前記視線位置が留まる期間に前記2つのデータの他の1つのデータに前記作業者が入力したデータ量とから算出した前記2つのデータの関連度、
    を加重平均して、前記2つのデータ相互の関連度として算出することを特徴とする請求項1に記載のデータ関連度判定装置。
  6. 表示装置の画面に表示している2以上のデータのそれぞれの表示領域を示す情報と、当該画面上における作業者の視線の位置である視線位置を示す情報とに基づいて、前記作業者が注視している前記データを示す注視データ情報を生成する注視データ生成部と、
    前記注視データ情報および前記作業者が実行した操作の内容を示す操作情報に基づいて、前記2以上のデータ相互の関連度を算出する関連度算出部と、
    を備えることを特徴とするデータ関連度判定装置。
  7. データ関連度判定装置が、表示装置の画面に表示している2以上のデータのそれぞれの表示領域を示す情報を取得するステップと、
    前記データ関連度判定装置が、前記表示装置の画面上における作業者の視線の位置である視線位置を取得するステップと、
    前記データ関連度判定装置が、前記視線位置と前記表示領域を示す情報とから、前記作業者が注視している前記データを示す注視データ情報を生成するステップと、
    前記データ関連度判定装置が、前記表示しているデータに対して前記作業者が実行した操作の内容を示す操作情報を取得するステップと、
    前記データ関連度判定装置が、前記注視データ情報および前記操作情報に基づいて、所定の基準で前記作業者の作業における前記2以上のデータ相互の関連度を算出する関連度算出ステップと、
    を備えることを特徴とするデータ関連度判定方法。
  8. 前記関連度算出ステップでは、前記2以上のデータに含まれる2つのデータの表示領域それぞれに前記視線位置が留まる時間と、前記視線位置が前記2つのデータそれぞれの表示領域の間を移動するのに要した時間と、および前記視線位置が前記2つのデータの1つのデータの表示領域から他の1つのデータの表示領域に移動する前の前記視線位置と前記視線位置が前記他の1つのデータの表示領域から再び前記1つのデータの表示領域に移動した後の前記視線位置との誤差と、に基づいて、前記2つのデータ相互の関連度を算出することを特徴とする請求項に記載のデータ関連度判定方法。
  9. 前記関連度算出ステップでは、前記作業者が前記2以上のデータの1つのデータからコピーして、他の1つのデータにペーストしたデータ量の、前記1つのデータのデータ量および/または前記他の1つのデータのデータ量に対する割合で、前記1つのデータと前記他の1つのデータとの関連度を算出することを特徴とする請求項またはに記載のデータ関連度判定方法。
  10. 前記関連度算出ステップでは、前記2以上のデータの1つのデータの表示領域に前記視線位置が留まる時間と、該1つのデータの表示領域に前記視線位置が留まる期間に、前記2以上のデータの他の1つのデータに前記作業者が入力したデータ量とから、前記1つのデータと前記他の1つのデータとの関連度を算出することを特徴とする請求項ないしのいずれか1項に記載のデータ関連度判定方法。
  11. コンピュータに、
    表示装置の画面に表示している2以上のデータのそれぞれの表示領域を示す情報を取得するステップと、
    前記表示装置の画面上における作業者の視線の位置である視線位置を取得するステップと、
    前記視線位置と前記表示領域を示す情報とから、前記作業者が注視している前記データを示す注視データ情報を生成するステップと、
    前記表示しているデータに対して前記作業者が実行した操作の内容を示す操作情報を取得するステップと、
    前記注視データ情報および前記操作情報に基づいて、所定の基準で前記作業者の作業における前記2以上のデータ相互の関連度を算出する関連度算出ステップと、
    を実行させるプログラム。
JP2013507823A 2011-03-30 2012-03-30 データ関連度判定装置、データ関連度判定方法、および、プログラム Active JP5907163B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011075877 2011-03-30
JP2011075877 2011-03-30
PCT/JP2012/058714 WO2012133841A1 (ja) 2011-03-30 2012-03-30 データ関連度判定装置、データ関連度判定方法、および、記録媒体

Publications (2)

Publication Number Publication Date
JPWO2012133841A1 JPWO2012133841A1 (ja) 2014-07-28
JP5907163B2 true JP5907163B2 (ja) 2016-04-20

Family

ID=46931534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013507823A Active JP5907163B2 (ja) 2011-03-30 2012-03-30 データ関連度判定装置、データ関連度判定方法、および、プログラム

Country Status (5)

Country Link
US (1) US9251242B2 (ja)
EP (1) EP2693348A4 (ja)
JP (1) JP5907163B2 (ja)
CN (1) CN103339628A (ja)
WO (1) WO2012133841A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150356488A1 (en) * 2014-06-09 2015-12-10 Microsoft Corporation Evaluating Workers in a Crowdsourcing Environment
US10678116B1 (en) 2017-11-09 2020-06-09 Facebook Technologies, Llc Active multi-color PBP elements
JP6724109B2 (ja) * 2018-10-31 2020-07-15 株式会社ドワンゴ 情報表示端末、情報送信方法、コンピュータプログラム
JP6781445B1 (ja) * 2019-05-13 2020-11-04 Necプラットフォームズ株式会社 情報処理方法
CN116246332B (zh) * 2023-05-11 2023-07-28 广东工业大学 一种基于眼球追踪的数据标注质量检测方法、设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1011458A (ja) * 1996-06-25 1998-01-16 Hitachi Ltd 情報検索装置
JP2002238856A (ja) * 2000-12-08 2002-08-27 Xerox Corp 眼球追跡データを分析するシステムおよび方法
WO2004031956A1 (ja) * 2002-09-30 2004-04-15 Fujitsu Limited 関連情報管理方法、プログラム及び装置
JP2005025550A (ja) * 2003-07-03 2005-01-27 Fujitsu Ltd 電子文書管理装置および管理方法
JP2009003553A (ja) * 2007-06-19 2009-01-08 Tokyo Institute Of Technology ファイル検索システム
JP2010079549A (ja) * 2008-09-25 2010-04-08 Hitachi Ltd 管理装置及び計算機システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5583795A (en) * 1995-03-17 1996-12-10 The United States Of America As Represented By The Secretary Of The Army Apparatus for measuring eye gaze and fixation duration, and method therefor
JP3573688B2 (ja) 2000-06-28 2004-10-06 松下電器産業株式会社 類似文書検索装置及び関連キーワード抽出装置
US6712468B1 (en) * 2001-12-12 2004-03-30 Gregory T. Edwards Techniques for facilitating use of eye tracking data
PT1607840E (pt) 2004-06-18 2015-05-20 Tobii Ab Controlo ocular de um computador
US20070088714A1 (en) 2005-10-19 2007-04-19 Edwards Gregory T Methods and apparatuses for collection, processing, and utilization of viewing data
KR20080106218A (ko) 2006-02-01 2008-12-04 토비 테크놀로지 에이비 컴퓨터 시스템에서 그래픽 피드백의 생성
JP2007212664A (ja) 2006-02-08 2007-08-23 Funai Electric Co Ltd 液晶表示装置
WO2007132566A1 (ja) 2006-05-15 2007-11-22 Nec Corporation 映像再生装置、映像再生方法、および映像再生用プログラム
WO2008012717A2 (en) * 2006-07-28 2008-01-31 Koninklijke Philips Electronics N. V. Gaze interaction for information display of gazed items
JP5353208B2 (ja) 2008-11-28 2013-11-27 株式会社日立製作所 作業内容分析方法、プログラム及び作業内容分析システム
JP5062774B2 (ja) 2009-05-21 2012-10-31 トヨタ自動車東日本株式会社 作業訓練システム及び作業訓練方法並びに該作業訓練方法を記録した記録媒体
US8154615B2 (en) * 2009-06-30 2012-04-10 Eastman Kodak Company Method and apparatus for image display control according to viewer factors and responses

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1011458A (ja) * 1996-06-25 1998-01-16 Hitachi Ltd 情報検索装置
JP2002238856A (ja) * 2000-12-08 2002-08-27 Xerox Corp 眼球追跡データを分析するシステムおよび方法
WO2004031956A1 (ja) * 2002-09-30 2004-04-15 Fujitsu Limited 関連情報管理方法、プログラム及び装置
JP2005025550A (ja) * 2003-07-03 2005-01-27 Fujitsu Ltd 電子文書管理装置および管理方法
JP2009003553A (ja) * 2007-06-19 2009-01-08 Tokyo Institute Of Technology ファイル検索システム
JP2010079549A (ja) * 2008-09-25 2010-04-08 Hitachi Ltd 管理装置及び計算機システム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6015044270; 深澤 綾: 'Webページ閲覧時の視線停留時間と脈波波高に基づくユーザの興味箇所の特定' 電子情報通信学会技術研究報告 Vol.107 No.462, 20080119, 1-6ページ, 社団法人電子情報通信学会 *
JPN6015044272; 中道 上: '視線情報を用いたWebユーザビリティ評価の実験的検討' 情報処理学会研究報告 Vol.2003 No.73, 20030717, 1-8ページ, 社団法人情報処理学会 *

Also Published As

Publication number Publication date
US9251242B2 (en) 2016-02-02
EP2693348A4 (en) 2014-12-03
JPWO2012133841A1 (ja) 2014-07-28
CN103339628A (zh) 2013-10-02
US20140025697A1 (en) 2014-01-23
EP2693348A1 (en) 2014-02-05
WO2012133841A1 (ja) 2012-10-04

Similar Documents

Publication Publication Date Title
US9195345B2 (en) Position aware gestures with visual feedback as input method
US8245148B2 (en) History display apparatus, history display system, history display method, and program
JP5907163B2 (ja) データ関連度判定装置、データ関連度判定方法、および、プログラム
US9791971B2 (en) Registration of electronic displays
TWI545450B (zh) 瀏覽器顯示子頁面的處理方法及瀏覽器
US9509733B2 (en) Program, communication apparatus and control method
WO2013039064A1 (ja) 情報処理装置、表示制御方法、プログラム及び情報記憶媒体
JP2013099537A (ja) 医用画像読影装置、及びカーソル移動プログラム
US20160182579A1 (en) Method of establishing and managing messaging sessions based on user positions in a collaboration space and a collaboration system employing same
CN105359131A (zh) 栓系选择句柄
CN109844709A (zh) 使图像动画化以指示图像可平移
US9582180B2 (en) Automated touch screen zoom
JP2012208866A (ja) 情報処理装置、画面更新方法、画面更新プログラム、および情報処理システム
JP5861684B2 (ja) 情報処理装置、及びプログラム
JP2007275558A (ja) 医用画像読影装置、及びカーソル移動プログラム
US9787731B2 (en) Dynamically determining workspace bounds during a collaboration session
US20160357396A1 (en) Object association method, apparatus and user equipment
JP5982436B2 (ja) 画面転送サーバ装置、および画面転送方法
US20140152851A1 (en) Information Processing Apparatus, Server Device, and Computer Program Product
JP2010113610A (ja) 会議支援システム、関連情報登録方法、関連情報検索方法、サーバおよびプログラム
US11301620B2 (en) Annotation display method and terminal
TWI604382B (zh) 應用程式分享方法以及使用該方法的系統
JP6809323B2 (ja) 情報処理装置、情報処理システムおよび情報処理方法
CN106951162B (zh) 一种信息处理方法及电子设备
JP6661295B2 (ja) 情報処理装置およびその制御方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160307

R150 Certificate of patent or registration of utility model

Ref document number: 5907163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150