JP2014228949A - 情報処理装置および処理実行方法 - Google Patents

情報処理装置および処理実行方法 Download PDF

Info

Publication number
JP2014228949A
JP2014228949A JP2013106379A JP2013106379A JP2014228949A JP 2014228949 A JP2014228949 A JP 2014228949A JP 2013106379 A JP2013106379 A JP 2013106379A JP 2013106379 A JP2013106379 A JP 2013106379A JP 2014228949 A JP2014228949 A JP 2014228949A
Authority
JP
Japan
Prior art keywords
line
sight
user
partner
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013106379A
Other languages
English (en)
Inventor
美木子 中西
Mikiko Nakanishi
美木子 中西
真治 木村
Shinji Kimura
真治 木村
倉掛 正治
Masaharu Kurakake
正治 倉掛
堀越 力
Tsutomu Horikoshi
力 堀越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2013106379A priority Critical patent/JP2014228949A/ja
Publication of JP2014228949A publication Critical patent/JP2014228949A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザの視線を利用してあらかじめ定められた処理を実行する。【解決手段】このメガネ型通信端末100によれば、自分視線検出部102および相手視線検出部103が、それぞれ操作対象者であるユーザの視線、通信しようとする相手の視線を検出する。視線合致判定部104は、これらユーザの視線と、相手の視線とが合ったか否かを判断し、視線が合ったと判断されると、処理開始部105は、あらかじめ定められた処理を実行する。本実施形態では、例えば通信部106が、視線の合った相手との間で通信処理を実行する。【選択図】図3

Description

本発明は、ユーザの視線をトリガーとして所定の処理を実行する情報処理装置および処理実行方法に関する。
視線を検出する技術やそれを利用する技術が考えられている。特許文献1に記載の技術は、注視点検出システムに関するものであって、テストシーンにおけるユーザの注視点を検出することについての記載がある。
特表2012−515579号
一般的に、何らかの処理を実行したい場合、例えば通信相手と通信確立を行いたい場合、通信端末を相手に向けて端末同士の位置を合わせたり、操作ボタン等を利用して操作する必要がある。また、赤外線通信などを行う場合には、その位置合わせをするための処理が必要である。しかしながら、このような操作や位置合わせをすることは大変手間のかかるものである。
ここで、従来から知られている視線を検出する技術を利用して、何らかの処理を実行することが考えられる。上述特許文献1においては、視線を検出することの記載があるが、これは人の行動を検出するためのものであって、検出した視線をトリガーに、何らかの処理を実行するものではない。
そこで、本発明においては、ユーザの視線を利用してあらかじめ定められた処理を実行する情報処理装置および処理実行方法を提供することを目的とする。
上術の課題を解決するために、本発明の情報処理装置は、ユーザに携帯され、該ユーザの操作により相手の情報を取得する情報処理装置であって、相手の視線を検出する相手視線検出手段と、前記相手視線検出手段により検出された相手の視線に基づいて視線合致判断処理を実行する視線判断手段と、前記視線判断手段により視線が合ったと判断されると、あらかじめ定められた処理を実行する処理実行手段と、を備えている。
また、本発明の処理実行方法は、ユーザに携帯され、該ユーザの操作により相手の情報を取得する情報処理装置における処理実行方法であって、操作対象者であるユーザの視線を検出する自分視線検出ステップと、相手の視線を検出する相手視線検出ステップと、前記相手視線検出ステップにより検出された相手の視線に基づいて視線合致判断処理を実行する視線判断ステップと、前記視線判断ステップにより視線が合ったと判断されると、あらかじめ定められた処理を実行する処理実行ステップと、を備えている。
この発明によれば、相手の視線を検出し、相手の視線に基づいて、視線合致判断処理を行い、視線が合ったと判断されると、あらかじめ定められた処理を実行する。これにより、その処理のための操作を行うことなく、相手の視線を検出するといった簡易且つ自然な動作をもって処理実行を可能にする。また、その処理のための明示的な操作を行わないため、周囲の人たちに何をしているのかを知らせることがなく、処理実行を可能にする。
また、本発明の情報処理装置は、前記ユーザの視線を検出する自分視線検出手段を更に備え、前記視線判断手段は、前記自分視線検出手段により検出された前記ユーザの視線と、前記相手視線検出手段により検出された前記相手の視線とが合ったか否かを判断するための視線合致判断処理を実行する。
これにより、自分と相手との視線の合致を判断することができ、正確な視線の判断処理を行うことができる。よって、一方的に相手から見られている場合において、そのあらかじめ定められた処理を実行するといったことを防止することができる。
また、本発明の情報処理装置において、前記自分視線検出手段は、ユーザの視線としてユーザの視線ベクトルを算出し、前記相手視線検出手段は、相手の視線として、相手の視線ベクトルを算出し、前記視線判断手段は、前記ユーザの視線のベクトルと、前記相手の視線のベクトルとに基づいて、視線合致判断処理を実行する。
この発明によれば、ユーザの視線のベクトルと、相手の視線のベクトルとをそれぞれ算出し、これらベクトルに基づいて、視線合致判断処理を実行する。これにより、視線が合ったか否かの判断を演算により判断することができる。
また、本発明の情報処理装置は、所定範囲の映像を取得するカメラ手段をさらに備え、前記視線判断手段は、前記カメラ手段により取得された映像に基づいて、前記相手が所定範囲にいないと判断する場合には、視線の視線合致判断処理を行わない、または視線が合わないと判断する。
この発明によれば、所定範囲の映像を取得しておき、取得された映像に基づいて、相手が所定範囲にいないと判断する場合には、視線の視線合致判断処理を行わない、または視線が合わないと判断する。例えば、視線が相互に対向した関係にあり、視線そのものだけ見ると、視線が合っているように見える場合があるが、お互いの位置がずれているため、視線が合っているとは一般的には言えない場合がある。こういった場合には、視線があるという処理を行うと不自然であるため、相手の位置関係に応じて視線があったとは判断しない、または視線合致判断処理を行わないようにする。
また、本発明の情報処理装置は、前記自分視線検出手段により検出された視線に基づいて視認範囲を生成する視認範囲生成手段をさらに備え、前記相手が、前記カメラ手段により撮影された映像に基づいて前記所定範囲にいると判断できるとともに、前記視認範囲生成手段により生成された視認範囲にいる場合、前記視線判断手段は、視線の合致判断処理を行う。
この発明によれば、検出された視線に基づいて生成された視認範囲に基づいて、相手が、映像に基づいてその範囲にいるとともに、カメラ手段で定義された所定範囲にいると判断できる場合、視線の合致判断処理を行う。これにより、所定範囲にいる場合は一般的には、お互いの視線があう関係にいるのであるが、そうではない場合もあり、自然に視線がある関係にある位置関係を視認範囲および所定範囲で定義づけることにより、適切な位置関係にいる者同士の視線の合致判断処理を行うことができる。よって、自然な動作による処理を実行することができる。
また、本発明の情報処理装置において、前記自分視線検出手段は、当該ユーザの向いている方向を視線として検出し、前記相手視線検出手段は、当該相手の向いている方向を視線として検出する。
この発明によれば、当該ユーザの向いている方向を視線として検出し、当該相手の向いている方向を視線として検出することで、目の動き等を検出するといった複雑な処理を行うことなく、顔の向いている方向を検出するなど簡易な方法で得た向きを視線とすることで、その処理構成を簡易なものとすることができる。
また、本発明の情報処理装置において、指向性を有する光を視線に応じた方向に発光する発光手段と、相手装置から発光される光を検出する検出手段と、を更に備え、前記相手視線検出手段は、前記相手装置から発光された光を前記相手の視線として検出し、前記視線判断手段は、前記相手視線検出手段が前記相手装置から発光された光を検出した場合に、前記ユーザの視線と前記相手の視線とが合ったと判断する。
この発明によれば、指向性を有する光をお互いに発光することになり、相手の眼球および自分の眼球のそれぞれの動きを検出することがなく、簡易に視線の検出を行うことができる。
本発明によれば、所望の処理のための操作を行うことなく、視線を合わせるといった簡易且つ自然な動作をもって処理実行を可能にする。また、その処理のための明示的な操作を行わないため、周囲の人たちに何をしているのかを知らせることがなく、処理実行を可能にする。
本実施形態の情報処理装置であるメガネ型通信端末100の外観図である。 メガネ型通信端末100を用いて通信を実行するときを模式的に示した説明図である。 本実施形態のメガネ型通信端末100の機能を示すブロック図である。 メガネ型通信端末100のハードウェア構成図である。 視線合致判定についての処理概念図である。 視線合致判定についての変形例を示す説明図である。 視線合致判定における第2の変形例を示す説明図である。 メガネ型通信端末100の処理を示すフローチャートである。
添付図面を参照しながら本発明の実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。
図1は、本実施形態の情報処理装置であるメガネ型通信端末100の外観図である。図1に示される通り、このメガネ型通信端末100は、カメラ101を備えており、通信相手を映像としてとらえることができる。
図2は、このメガネ型通信端末100を用いて通信を実行するときを模式的に示したものである。図1に示される通り、ユーザAおよびユーザBは、メガネ型通信端末100aおよび100bをそれぞれかけている。そして、メガネ型通信端末100aのカメラ101は、ユーザBの眼球等を撮影することにより、ユーザBの視線を検出することができる。また、メガネ型通信端末100aは、ユーザAの視線を、そのレンズ内部に備えられているセンサ(図示せず)を利用することによりその眼球を検出し、視線を検出することができる。
そして、メガネ型通信端末100aは、ユーザAの視線とユーザBの視線とのマッチングをとることにより、視線が合った場合に、通信を行うことができる。
なお、本実施形態においては、メガネ型通信端末100aが、ユーザBの視線を検出して、ユーザAの視線とのマッチングをとることにより、通信実行を行うようにしているが、逆でもよく、メガネ型通信端末100bがユーザAの視線を検出するようにしてもよい。また、メガネ型通信端末100aおよび100bの両方において、相互に相手の視線を検出し、両方において検出した場合に、通信実行を行うようにしてもよい。
つぎに、このメガネ型通信端末100の機能構成を示す。図3は、本実施形態のメガネ型通信端末100の機能を示すブロック図である。図3に示される通り、カメラ101(カメラ手段)、自分視線検出部102(自分視線検出手段)、相手視線検出部103(相手視線検出手段、視認範囲生成手段)、視線合致判定部104(視線判断手段)、処理開始部105(処理実行手段)、通信部106(処理実行手段)、通信内容蓄積部107、通信内容選択部108および表示部109を含んで構成されている。
図4は、メガネ型通信端末100のハードウェア構成図である。図3に示されるメガネ型通信端末100は、物理的には、図4に示すように、1または複数のCPU11、主記憶装置であるRAM12及びROM13、入力デバイスであるキーボード及びマウス等の入力装置14、ディスプレイ等の出力装置15、ネットワークカード等のデータ送受信デバイスである通信モジュール16、半導体メモリ等の補助記憶装置17などを含むコンピュータシステムとして構成されている。図3における各機能は、図4に示すCPU11、RAM12等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU11の制御のもとで入力装置14、出力装置15、通信モジュール16を動作させるとともに、RAM12や補助記憶装置17におけるデータの読み出し及び書き込みを行うことで実現される。以下、図3に示す機能ブロックに基づいて、各機能ブロックを説明する。
カメラ101は、通信相手となるユーザBの眼球の動きを撮影する部分である。本実施形態においては、カメラ101は、ユーザAの目の前の所定範囲を撮影することができ、当該所定範囲にユーザBがいる場合、そのユーザBおよびその眼球を撮影することができる。
自分視線検出部102は、レンズ内側に備えられている自分(ユーザA)の眼球の動きをとらえるセンサ(図示せず)に基づいて、視線を検出する部分であり、例えば、視線ベクトルを生成する。
相手視線検出部103は、カメラ101において撮影された所定範囲にユーザBがいる場合の、そのユーザBの眼球の動きに従って、通信相手の視線を検出する部分であり、例えば、視線ベクトルを生成する。なお、これに限らず、光照射部(図示せず)が相手に赤外線光や光を相手に照射し、その反射光により視線を検出するようにしてもよい。
視線合致判定部104は、自分視線検出部102により検出された自分の視線、および相手視線検出部103により検出された相手の視線に基づいて合致の判定を行う部分である。例えば、自分の視線ベクトルと相手の視線ベクトルとで内積演算を行うことにより、それらベクトルが形成する角度が所定角度以下であるか否かを判定する。
処理開始部105は、視線合致判定部104により判定された結果に基づいて処理を開始する部分である。例えば、通信部106による通信を実行するよう制御する。
通信部106は、視線の合った相手と通信を実行する部分である。この通信部106は、ネットワークを介した通信を行ったり、または近距離無線通信を行うことができる。例えば、通信部106は、視線が合ったことをトリガーに、視線の合った相手の通信端末との接続確立処理を開始する。自分のメガネ型通信端末100aは、一定範囲内にある他メガネ型通信端末100bと常に接続している状態であることを前提に、視線が合った相手とのみキー(ID・パスワードなど)交換をすることにより通信を実行することができる。
そのほか、通信部106は、視線が合ったことをトリガーに、あらかじめ定めたサーバ(図示せず)に通信開始のための自己のIDやアドレス等を通知するようにしてもよい。通信相手も同様の処理構成をとったものとして、サーバは、自分と通信相手とのIDを取得する。この場合、サーバでは、どの相手にIDを開示するかを判定する必要が有り、サーバにおいては、各ユーザの位置および顔や目(メガネ)の向きを管理しておく必要があるため、メガネ型通信端末においては、位置や顔・目の向きをID等とともに通知することになる。
そして、通信部106は、これら情報を用いてサーバを経由して通信相手と通信することができる。なお、これ以外にもサーバから通信相手のIDを取得し、このIDを利用して近接無線通信を実行することにより通信相手を特定することもできる。
通信内容蓄積部107は、通信部106が通信するための通信内容を記憶する部分である。
通信内容選択部108は、通信内容蓄積部107に記憶されている通信内容から一または複数の通信内容を選択する部分である。この通信内容選択部108は、音声により通信内容を選択指示してもよいし、表示部109に表示されているメニュー画面等から選択してもよい。この場合、操作ボタン等は、メガネ型通信端末100の弦部分や、リモコン等により操作選択するようにしてもよい。そのほか、カメラやセンターを使ってジェスチャーにより指定してもよい。
表示部109は、各種情報を表示する部分であり、例えば、通信内容を選択するためのメニュー画面を表示したり、視線検出中などの、実行状況を表示したりすることができる。また、通信相手を選択するための選択肢を表示するようにしてもよい。この表示部109は、メガネ型通信端末100のレンズ内側に各種データを投影することにより表示機能を実現することができる。ユーザはレンズ内側に投影されたデータを見ることができる。
ここで、自分視線検出部102および相手視線検出部103による視線の検出方法について説明する。
視線を検出する方法に、角膜反射光法という方法がある。一般的に、人の角膜表面は平面性が良好で光を良く反射する。この方法は、この特性を利用して、外部光源からの光を角膜表面にあて、その反射光を記録することにより視線を検出しようとするものである。なお、この記録された反射像を角膜反射像またはプルキンエ像と呼ぶ。
また、安定して視線を測定するために、瞳孔の中心を基準点として、瞳孔中心とプルキンエ像の距離を計測する方法がある。一般的に瞳孔の検出は、カメラで撮影した被験者の目の画像から画像処理を行うことによって検出される。
さらに、カメラで眼球の一部ないしは全部を撮影し、撮影された画像中から虹彩や瞳孔など目の特徴的部分を検出することにより視線を検出する方法がある。これは、カメラ撮影法といわれるものである。例えば、瞳孔の形状によりその視線を判断することができる。一般的に、瞳孔の形状は真円形に近く、眼球が動いても撮影された形状は楕円形に近似でき、近似された楕円の長軸・短軸・軸の傾きなどのパラメータから視線の向きを求めることができる。
また、瞳孔中心位置と目頭位置との相対距離に着目するものもある。
さらに、ステレオカメラを用いる方法がある。ステレオカメラで頭部を撮像し、あらかじめ用意されている顔の3次元顔モデルと3次元観測値のモデルフィッティング処理により、頭部の位置・姿勢の6自由度を求め、顔のトラッキングを行なう。顔トラッキングにより顔の位置・姿勢を計測し、眼球の中心位置を推定する。画像から得られる虹彩の中心位置と推定された眼球中心位置の関係より、水平・垂直の視線角度がわかるので、三次元ベクトルとして視線が得られる。
以上の視線を検出する方法は公知の手法であり、本実施形態においてはいずれの方法をも採用することができる。また、自分と相手とは必ずしも同じ視線取得方法をとる必要はなく、自分の視線は精度の高いプルキンエ像を利用した方法を用い、相手視線の検出はカメラのみを利用した方法を利用してもよい。プルキニエ像を取得するには、赤外光を眼球に当てなければならないため、相手の目が視線取得装置から遠くにいる場合、その測定は困難であるためである。
つぎに、視線合致判定部104による処理について説明する。図5は、視線合致判定についての処理概念図である。図5(a)は、視線が合っている場合の概念図である。ここではユーザAの視線と、ユーザBの視線とが合ったとしている。すなわち、ユーザAの視線ベクトルと、ユーザBの視線ベクトルとで形成される角度は、180度である場合、視線が合ったと判断することができる。
図5(b)は、視線が概ね合っている場合の概念図である。ここではユーザAの視線と、ユーザBの視線とは少しずれた角度であるが、概ね視線が合っていると判断できる場合である。すなわち、ユーザAの視線ベクトルと、ユーザBの視線ベクトルとは、そのベクトル方向が逆方向でありつつ、その方向が少しずれている場合である。図5(b)では、ユーザAの視線ベクトルと、ユーザBの視線ベクトルとのそれぞれの終点を合わせた場合、それらベクトルは、角度αをもって交差している関係にある。この角度αが所定角度以下である場合には、ユーザAとユーザBとは視線が合っていると判断することができる。
図5(c)は、視線が合っていない場合の概念図である。ここではユーザAの視線と、ユーザBの視線とは、図5(b)の例よりも大きくずれた角度であるため、一致していないと判断できる場合である。すなわち、ユーザAの視線ベクトルと、ユーザBの視線ベクトルとは、そのベクトル方向が逆方向でありつつ、その方向が大きくずれている場合である。図5(c)では、ユーザAの視線ベクトルと、ユーザBの視線ベクトルとのそれぞれの終点を合わせた場合、それらベクトルは、角度βをもって交差している関係にある。この角度βが所定角度以上である場合には、ユーザAとユーザBとは視線が合っていないと判断することができる。
このようにして、視線ベクトルが多少ずれていても、視線が合っているとみなすことで、視線合致の判断を容易にすることができる。
一方で、視線ベクトルのみで判断すると、実際に視線が合っていない場合であっても、視線が合っているとの誤判断をしてしまう場合がある。図6は、視線合致判定についての変形例を示す説明図である。図6(a)では、ユーザAの視線ベクトルv1、ユーザBの視線ベクトルv2が示されている。これら視線ベクトルv1と視線ベクトルv2とは、その向きが正反対であることから、視線が一致していると判断してもよい。しかしながら、ユーザAとユーザBとはその位置が大きくずれていることから、実際には視線は合っていない。
よって、このような場合には、視線が合っていないと判断することが自然である。そこで、図6(b)に示される通り、カメラ101により撮影された所定範囲外にユーザBがいる場合には、視線ベクトルに基づいて視線が合ったと判断できる場合でも、視線が合っていないと判断するように制御する。
具体的には、図6(b)には、カメラ101により撮影された撮影範囲Sが示されている。ユーザBは、この撮影範囲Sの範囲外にいるため、視線ベクトルに基づいた視線合致判定で視線が合ったと判断できる場合でも、視線があったとは判断しないようにすることができる。よって、より実際の状況にあった判断を行うことができる。
一方で、この撮影範囲Sの定義の仕方によっては、視線が合ったのにもかかわらず、視線が合っていないと判断してしまう場合もあり得る。
例えば、図6(c)に示されているように、撮影範囲Sの範囲外に、ユーザBはいるが、その視線ベクトルvはユーザAの方を向いており、一方で、ユーザAの視線ベクトルvもユーザBの方を向いている。こういった場合、視線が合っていると判断することが妥当であるが、ユーザBが撮影範囲Sの範囲外にいるため、視線が合っていないと判断することになる。
そこで、図7に示されるように、撮影範囲Sを撮影範囲Sより大きくとることが考えられる。図7は、視線合致判定における第2の変形例を示す説明図である。図7(a)では、ユーザAのカメラ101により撮影された範囲のうち、相手視線検出部103により撮影範囲Sが定義付けされている。ここでの例では、撮影範囲SにはユーザBが位置している。
一方、ユーザAは、視線ベクトルvで示される方向を見ており、この視線ベクトルvに基づいて視認範囲Sが定義されている。この視認範囲Sは、視線ベクトルvを中心線とした所定の視野角で形成された領域で定義されたものである。図7(a)においては、ユーザBは、撮影範囲Sの範囲内にいつつも、視認範囲Sの範囲外にいるため、視線ベクトルに基づいて視線が合っていると判断できる場合であっても、視線は合っていないと判断することになる。
これに対して、図7(b)においては、ユーザBは、撮影範囲Sの範囲内にいるとともに、視認範囲Sの範囲内にいるため、視線ベクトルに基づいて、視線が合っていると判断できることになる。
このように視線合致判定処理を行うことにより、精度よく視線が合ったか否かを判断することができる。
つぎに、このようなメガネ型通信端末100の処理実行方法について説明する。図8は、その処理を示すフローチャートである。ユーザ操作に従って通信内容選択部108により選択された通信内容が通信内容蓄積部107から指定される(S101)。そして、自分視線検出部102により、自分の視線が検出される(S102)。また、相手視線検出部103により相手ユーザの視線検出が行われる(S103)。なお、S102とS103との処理順は逆でもよい。
視線合致判定部104により、自分の視線と相手ユーザの視線とが合致したか否かが判断される(S104)。ここで合致したと判断されると、通信部106により通信確立処理が行われる(S105)。ここでは通信部106は近接無線を行うものであることから、近接無線で通信内容が送受信され(S106)、メガネ型通信端末100においては、受信内容が表示部109に表示される(S107)。
つぎに、具体的な視線を検出することなく、視線を検出する方法の変形例について説明する。上述の例では、眼球などの動きを検出することにより視線を検出していた。しかしながら、上述の方法では、検出が難しい場合がある。この変形例では、簡易な視線の検出方法について説明する。この変形例においては、実際の視線を検出するのではなく、メガネ型通信端末100の向き、すなわちメガネ(ユーザの顔)の向きを視線の向きとして検出する。よって、メガネ(ユーザの顔)の向きを検出することができればよい。
具体的には、この変形例におけるメガネ型通信端末100は、自分視線検出部102を備えていない。そして、自分の視線を検出することなく、相手視線検出部103は相手が自分の方を向いているか否かを検出する。例えば、カメラ101が、所定範囲にいるメガネ型通信端末を掛けている相手ユーザの画像を取得して、相手視線検出部103が、相手の視線により自分の方に向いている判断できたら視線が合ったと判断する。また、カメラ101が取得した画像における相手が正面を向いているか否かを判断できる場合には、相手視線検出部103は、視線が合ったと判断するようにしてもよい。
また、別の方法として、メガネ型通信端末100aおよび100bは、指向性の高い光源を視線(例えば眼球または顔の向き)と一致するように(すなわち、メガネ型通信端末100aのレンズと直交する向きに)発光する発光手段を有する。通信相手となるメガネ型通信端末100bが発光した光を自分のメガネ型通信端末100aにおいては、相手視線検出部103がその指向性の高い光源の光を相手の視線として検出し、視線合致判定部104は、その光を検出した場合に、視線が合ったと判断してもよい。なお、この発光される光に各種情報をのせておき、可視光通信を行ったり、また、相手の通信アドレスなどを取得して、通信部106による通信を行わせることにも利用することができる。
つぎに、本実施形態のメガネ型通信端末100の作用効果について説明する。このメガネ型通信端末100によれば、自分視線検出部102および相手視線検出部103が、それぞれ操作対象者であるユーザの視線、相手の視線を検出する。視線合致判定部104は、これらユーザの視線と、相手の視線とが合ったか否かを判断し、視線が合ったと判断されると、処理開始部105は、あらかじめ定められた処理を実行する。本実施形態では、例えば通信部106が、視線の合った相手との間で通信処理を実行する。これにより、その処理のための操作を行うことなく、視線を合わせるといった簡易且つ自然な動作をもって処理実行を可能にする。また、その処理のための明示的な操作を行わないため、周囲の人たちに何をしているのかを知らせることがなく、処理実行を可能にする。
なお、上述実施形態においては、通信処理について説明しているが、これに限るものではない。通信相手と直接通信することのほか、サーバから通信相手の情報を取得するものでもよいし、別の処理であってもよい。
また、変形例におけるメガネ型通信端末100によれば、自分の視線を検出することなく、相手の視線のみに基づいて、視線合致判定処理を行うようにしてもよい。例えば、相手の視線が自分の方向に向いている場合に、視線が合ったとみなすことができる。
また、本実施形態のメガネ型通信端末100によれば、自分視線検出部102は、ユーザの視線ベクトルv1を算出し、相手視線検出部103は、相手の視線ベクトルv2を算出する。そして、視線合致判定部104は、これらベクトルに基づいて、視線合致判断処理を実行する。これにより、視線が合ったか否かの判断を演算により判断することができる。
また、本実施形態のメガネ型通信端末100によれば、カメラ101により、相手の視線を検出するために、所定範囲の映像(例えば、ユーザの目の前の映像)を取得しておく。そして、視線合致判定部104は、取得された映像に基づいて、相手が所定範囲にいないと判断する場合には、視線の視線合致判断処理を行わない、または視線が合わないと判断する。例えば、図6(a)に示されるように、視線が相互に対向した関係にあり、視線そのものだけ見ると、視線が合っているように見える場合があるが、お互いの位置がずれているため、視線が合っているとは一般的には言えない場合がある。こういった場合には、視線があるという処理を行うと不自然であるため、相手の位置関係に応じて視線があったとは判断しない、または視線合致判断処理を行わないようにする。
また、本実施形態のメガネ型通信端末100によれば、まず、自分視線検出部102は、ユーザの視線を検出するとともに、その視線を中心線とした所定の視認範囲を定義づける。そして、視線合致判定部104は、検出されたユーザの視線に基づいて生成された視認範囲に基づいて、相手が、映像に基づいてその範囲にいるとともに、カメラ101により撮影された映像に基づいて相手視線検出部103により定義された所定範囲にいると判断できる場合、視線の合致判断処理を行う。これにより、所定範囲にいる場合は一般的には、お互いの視線が合う関係にいるのであるが、そうではない場合もあり、自然に視線がある関係にある位置関係を視認範囲および所定範囲で定義づけることにより、適切な位置関係にいる者同士の視線の合致判断処理を行うことができる。よって、自然な動作による処理を実行することができる。
また、このメガネ型通信端末100によれば、自分視線検出部102は、当該ユーザの向いている方向を視線として検出し、相手視線検出部103は、当該相手の向いている方向を視線として検出することで、目の動き等を検出するといった複雑な処理を行うことなく、顔の向いている方向を検出するなど簡易な方法で得た向きを視線とすることで、その処理構成を簡易なものとすることができる。
100a…メガネ型通信端末、100b…メガネ型通信端末、101…カメラ、102…自分視線検出部、103…相手視線検出部、104…視線合致判定部、105…処理開始部、106…通信部、107…通信内容蓄積部、108…通信内容選択部、109…表示部。

Claims (7)

  1. ユーザに携帯され、該ユーザの操作により相手の情報を取得する情報処理装置であって、
    前記相手の視線を検出する相手視線検出手段と、
    前記相手視線検出手段により検出された相手の視線に基づいて視線合致判断処理を実行する視線判断手段と、
    前記視線判断手段により視線が合ったと判断されると、あらかじめ定められた処理を実行する処理実行手段と、
    を備える情報処理装置。
  2. 前記ユーザの視線を検出する自分視線検出手段を更に備え、
    前記視線判断手段は、前記自分視線検出手段により検出された前記ユーザの視線と、前記相手視線検出手段により検出された前記相手の視線とが合ったか否かを判断するための視線合致判断処理を実行する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記自分視線検出手段は、ユーザの視線としてユーザの視線ベクトルを算出し、
    前記相手視線検出手段は、相手の視線として、相手の視線ベクトルを算出し、
    前記視線判断手段は、前記ユーザの視線のベクトルと、前記相手の視線のベクトルとに基づいて、視線合致判断処理を実行する
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 相手の視線を検出するために、所定範囲の映像を取得するカメラ手段をさらに備え、
    前記視線判断手段は、前記カメラ手段により取得された映像に基づいて、前記相手が所定範囲にいないと判断する場合には、視線の視線合致判断処理を行わない、または視線が合わないと判断する
    ことを特徴とする請求項1〜3のいずれか一項に記載の情報処理装置。
  5. 相手の視線を検出するために、所定範囲の映像を取得するカメラ手段と、
    前記自分視線検出手段により検出された視線に基づいて視認範囲を生成する視認範囲生成手段とをさらに備え、
    前記相手が、前記カメラ手段により撮影された映像に基づいて前記所定範囲にいると判断できるとともに、前記視認範囲生成手段により生成された視認範囲にいる場合、前記視線判断手段は、視線の合致判断処理を行う
    ことを特徴とする請求項2または3に記載の情報処理装置。
  6. 指向性を有する光を視線に応じた方向に発光する発光手段と、
    相手装置から発光される光を検出する検出手段と、を更に備え、
    前記相手視線検出手段は、前記相手装置から発光された光を前記相手の視線として検出し、
    前記視線判断手段は、前記相手視線検出手段が前記相手装置から発光された光を検出した場合に、前記ユーザの視線と前記相手の視線とが合ったと判断する
    ことを特徴とする請求項1〜5のいずれか一項に記載の情報処理装置。
  7. ユーザに携帯され、該ユーザの操作により相手の情報を取得する情報処理装置における処理実行方法であって、
    前記相手の視線を検出する相手視線検出ステップと、
    前記相手視線検出ステップにより検出された相手の視線に基づいて視線合致判断処理を実行する視線判断ステップと、
    前記視線判断ステップにより視線が合ったと判断されると、あらかじめ定められた処理を実行する処理実行ステップと、
    を備える処理実行方法。
JP2013106379A 2013-05-20 2013-05-20 情報処理装置および処理実行方法 Pending JP2014228949A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013106379A JP2014228949A (ja) 2013-05-20 2013-05-20 情報処理装置および処理実行方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013106379A JP2014228949A (ja) 2013-05-20 2013-05-20 情報処理装置および処理実行方法

Publications (1)

Publication Number Publication Date
JP2014228949A true JP2014228949A (ja) 2014-12-08

Family

ID=52128766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013106379A Pending JP2014228949A (ja) 2013-05-20 2013-05-20 情報処理装置および処理実行方法

Country Status (1)

Country Link
JP (1) JP2014228949A (ja)

Similar Documents

Publication Publication Date Title
KR102469507B1 (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
CN107004275B (zh) 确定实物至少一部分的3d重构件空间坐标的方法和***
US20140152558A1 (en) Direct hologram manipulation using imu
JP5728009B2 (ja) 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路
US11822718B2 (en) Display systems and methods for determining vertical alignment between left and right displays and a user's eyes
EP2991027B1 (en) Image processing program, image processing method and information terminal
TW202127105A (zh) 關於頭戴式顯示器的內容穩定
JP2013258614A (ja) 画像生成装置および画像生成方法
JPWO2014156146A1 (ja) 電子ミラー装置
JP2017102768A (ja) 情報処理装置、表示装置、情報処理方法、及び、プログラム
KR20160094190A (ko) 시선 추적 장치 및 방법
WO2015194017A1 (ja) ウェアラブル装置および認証方法
WO2015051605A1 (zh) 图像采集定位方法及图像采集定位装置
JPWO2012137801A1 (ja) 入力装置及び入力方法並びにコンピュータプログラム
WO2017130514A1 (ja) 情報処理装置、情報処理方法、およびプログラムを記録したコンピュータ読み取り可能な記録媒体
US20200341284A1 (en) Information processing apparatus, information processing method, and recording medium
CN112753037A (zh) 传感器融合眼睛跟踪
JP2018099174A (ja) 瞳孔検出装置及び瞳孔検出方法
JP2019215688A (ja) 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム
WO2021237952A1 (zh) 一种增强现实的显示***及方法
JP5730086B2 (ja) 入力装置および入力方法
JP2019066618A (ja) 画像表示システム、画像表示方法及び画像表示プログラム
KR20210150881A (ko) 전자 장치 및 그 동작 방법
JP2017102731A (ja) 視線検出装置及び視線検出方法
JP2014228949A (ja) 情報処理装置および処理実行方法