JP6733461B2 - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP6733461B2
JP6733461B2 JP2016189242A JP2016189242A JP6733461B2 JP 6733461 B2 JP6733461 B2 JP 6733461B2 JP 2016189242 A JP2016189242 A JP 2016189242A JP 2016189242 A JP2016189242 A JP 2016189242A JP 6733461 B2 JP6733461 B2 JP 6733461B2
Authority
JP
Japan
Prior art keywords
guidance
image
display
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016189242A
Other languages
English (en)
Other versions
JP2018055320A (ja
Inventor
邦和 鈴木
邦和 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2016189242A priority Critical patent/JP6733461B2/ja
Priority to PCT/JP2017/018772 priority patent/WO2018061299A1/ja
Publication of JP2018055320A publication Critical patent/JP2018055320A/ja
Application granted granted Critical
Publication of JP6733461B2 publication Critical patent/JP6733461B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置および情報処理方法に関する。
現在、ユーザは、銀行またはコンビニエンスストアなどに設置されている現金自動預け払い機(ATM)または駅に設置されている乗車券発券機などの情報処理装置を用いて複数の異なる手続きを行うことができる。しかし、これらの情報処理装置における手続の中には難解な操作を行う手続がある。そのため、これらのATMまたは乗車券発券機においては、音声によるまたは画像表示によるガイダンスが行われる場合がある。
このようなガイダンスを行うシステムに関して下記の特許文献1が開示されている。特許文献1に開示されている音声ガイダンスシステムでは、ユーザの操作回数または前回の操作日から今回の操作日までの間隔日数などに基づいてガイダンスレベルが設定されることが記載されている。
特開平9−160751号公報
上述した特許文献1に開示されている音声ガイダンスシステムでは、ユーザの操作回数またはユーザが操作を行った日の間隔に基づいてガイダンスレベルが設定されるため、初めて情報処理装置を操作するユーザに対して適切なガイダンスが提供されない。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ユーザの初回操作においてもユーザに応じたガイダンス映像を提供することが可能な、新規かつ改良された情報処理装置および情報処理方法を提供することにある。
上記課題を解決するために、本発明のある観点によれば、撮影部から入力されたユーザの映像から目領域を検出する目検出部と、前記目検出部によって検出された目領域の分析により、ガイダンス映像が表示された表示部のいずれの領域に視線が向いているかを検出する視線検出部と、前記ガイダンス映像に関して事前に設定された設定領域での視線の滞在がなかったことに基づき、前記ガイダンス映像に関する表示制御を行う制御部と、前記ユーザの映像からユーザの表情を検出する表情検出部と、を備え、前記制御部は、前記表情検出部により検出された前記ユーザの表情にさらに基づいて前記表示部の表示を制御する、情報処理装置が提供される。

前記制御部は、ある時間区間内に前記設定領域での視線の滞在があったことに基づき、前記時間区間の後区間において前記ガイダンス映像を非表示に制御し、前記時間区間内に前記設定領域での視線の滞在がなかったことに基づき、前記後区間においても前記ガイダンス映像を前記表示部に表示させてもよい。
前記制御部は、間隔を有する複数の時間区間において同一のガイダンス映像または異なるガイダンス情報を前記表示部に表示させ、一の時間区間で前記設定領域での視線の滞在がなかったことに基づき、前記一の時間区間と次の時間区間との間隔区間でも前記一の時間区間に表示された前記ガイダンス映像を前記表示部に表示させてもよい。
前記制御部は、前記設定領域での視線の滞在が無かったことに基づき、前記設定領域の表示を強調してもよい。
前記制御部は、前記後区間における前記ガイダンス映像の表示が、何回目の前記ガイダンス映像の表示であるかに基づき、前記設定領域の表示を強調するか否かを制御してもよい。
前記制御部は、前記ユーザの表情が所定の基準を満たす場合、前記ガイダンス映像の表示の後に、前記ガイダンス映像を補足する補足映像を前記表示部に表示させてもよい。
前記制御部は、前記ユーザの表情の困惑度に応じて異なる補足映像を前記表示部に表示させてもよい。
また、上記課題を解決するために、本発明の別の観点によれば、撮影部から入力されたユーザの映像から目領域を検出することと、検出された目領域の分析により、ガイダンス映像が表示された表示部のいずれの領域に視線が向いているかを検出することと、前記ガイダンス映像に関して事前に設定された設定領域での視線の滞在がなかったことに基づき、前記ガイダンス映像に関する表示制御を行うことと、前記ユーザの映像からユーザの表情を検出することと、を含み、前記ガイダンス映像に関する表示制御を行うことは、検出された前記ユーザの表情にさらに基づいて前記ガイダンス映像に関する表示制御を行うことを含む、情報処理方法が提供される。

以上説明したように本発明によれば、ユーザの初回操作においてもユーザに応じたガイダンス映像を提供することが可能である。
本発明の実施形態に係るガイダンス装置の外観の一例を示す図である。 ガイダンス表示画面の具体例を示す説明図である。 ガイダンス映像の表示例を示す説明図である。 本発明の実施形態によるガイダンス装置の内部構成を示す説明図である。 表示部の領域分割の具体例を示す説明図である。 ユーザの顔画像から得られる複数の特徴点の例を示す図である。 ニュートラルな表情と困惑の表情の関係を説明するための図である。 各特徴点の位置の管理例を示す説明図である。 設定テーブルの具体例を示す説明図である。 補足映像の具体例を示す説明図である。 第1のガイダンス制御例を示すフローチャートである。 フラグ設定の具体例を示す説明図である。 ガイダンス映像の表示例を示す説明図である。 第2のガイダンス制御例を示すフローチャートである。 第3のガイダンス制御例を示すフローチャートである。 第4のガイダンス制御例を示すフローチャートである。 困惑度と表示される映像の関係の一例を示す説明図である。 第5のガイダンス制御例を示すフローチャートである。
以下に添付図面を参照しながら、本発明の実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
<1.ガイダンス装置の概要>
図1は、本発明の実施形態に係るガイダンス装置100の外観の一例を示す図である。本発明の実施形態に係るガイダンス装置100は、現金自動預け払い機(ATM)または乗車券発券機のようなガイダンス情報をユーザに提供する情報処理装置である。ガイダンス装置100は、複数の異なる機能を有しており、ユーザはガイダンス装置100を操作することによって、複数の手続きを行うことができる。
ここで、例えばガイダンス装置100がATMである場合、ガイダンス装置100が有する複数の異なる機能には、「現金の預け入れ」、「現金の引き出し」、「通帳記入」、「残高照会」、「振り込み」、「振り替え」、「暗証番号の変更」などが該当する。また例えばガイダンス装置100が乗車券発券機である場合、ガイダンス装置100が有する複数の異なる機能には、「乗車券の購入」、「回数券の購入」、「定期券の購入」、「指定席の変更」、「電子マネーのチャージ」などが該当する。
また、ガイダンス装置100は、図1に示したように、表示部102と、撮影部106と、スピーカ108とを備える。表示部102は、ユーザに操作を案内する映像、または現在行われているキャンペーンを案内する映像などのガイダンス映像を含むガイダンス表示画面を表示する。ここで、図2を参照し、表示部102に表示されるガイダンス表示画面の具体例を説明する。
図2は、「振り込み」の操作を案内するガイダンス表示画面の具体例を示す説明図である。図2に示したように、ガイダンス表示画面は、簡略メッセージ映像40、およびガイダンス映像50を含む。簡略メッセージ映像40は、ユーザによる操作を案内する簡略なメッセージを示す。例えば、「振り込み」の機能における金融機関の選択フェーズにおいては、図2に示したように、「振込先の金融機関を選んで下さい。」というメッセージを含む簡略メッセージ映像40が表示される。
ガイダンス映像50は、ユーザが実行しようとしている機能、および当該機能の実行のための操作のフェーズに応じて表示(再生)される映像である。例えば、「振り込み」の機能における金融機関の選択フェーズにおいて表示されるガイダンス映像50は、図2に示したように、「振込先の金融機関名のボタンが有る場合には、そのボタンを選択して下さい。」、「無い場合には、50音検索またはフリーワード検索を選択して下さい。」のように、金融機関の選択フェーズにおける操作方法を具体的に案内する表示を含む。当該ガイダンス映像50は、静止画であってもよいし、動画であってもよい。
撮影部106は、ガイダンス装置100を操作するユーザを撮影する。後述するように撮影部106は、ユーザの視線および表情を検出するために用いられる画像を撮影する。例えば、撮影部106は、CCD(Charged Coupled Devices)カメラであってもよい。スピーカ108は、ガイダンス表示画面に対応する音声ガイダンスを出力する。
(背景)
上述したガイダンス表示画面において、ガイダンス映像は、例えば図3に示すように所定の間隔で表示される。所定の間隔で表示される複数のガイダンス映像は、同一のガイダンス映像であってもよいし、異なるガイダンス映像であってもよい。この所定の間隔で表示されるガイダンス映像は、基本ガイダンス情報とも呼ばれる。
しかし、どのユーザにも同一のガイダンス表示画面を同一の区間で提供する方法では、ユーザによる操作を効果的に誘導することが困難である。例えば、ガイダンス表示画面の内容を理解できずに困惑しているユーザにはより丁寧な情報が提供されることが望まれる。また、ガイダンス表示画面における重要部分を未だ見ていないユーザにはガイダンス表示画面の表示の継続が望まれる。
そこで、上記事情を一着眼点にして本発明の実施形態を創作するに至った。本発明の実施形態によれば、ユーザの視線および表情の検出に基づき、ユーザに効果的なガイダンス映像を提供することが可能である。以下、このような本発明の実施形態によるガイダンス装置100の構成および動作を順次詳細に説明する。
<2.ガイダンス装置の構成>
図4は、本発明の実施形態によるガイダンス装置100の内部構成を示す説明図である。図4に示したように、本発明の実施形態によるガイダンス装置100は、図1を参照して説明した表示部102、撮影部106およびスピーカ108に加えて、操作部104、処理部114、通信部110および記憶部112と、を有する。処理部114は、ガイダンス制御部116と、操作処理部118と、情報取得部120と、画像処理部122と、を有する。
(操作部)
操作部104は、例えばタッチパネルであってもよく、またはテンキーなどのハードキーであってもよい。通信部110は、LAN(Local Area Network)などのネットワークを通じて外部のデータベースなどとデータの送受信を行うために用いられる。通信部110は、有線通信に対応する機能を有してもよいし、また無線通信に対応する機能を有してもよい。
(記憶部)
記憶部112には、各種のプログラムおよびデータが記憶されている。記憶部112は、半導体メモリまたはハードディスク装置であってもよく、RAM(Random Access Memory)および不揮発性メモリなどで構成されていてもよい。ハードディスク装置には、OS(Operation System)および各種アプリケーションが記憶されていてもよい。RAMは、処理部114がプログラムに基づいて処理を実行するために用いられる各種のデータを記憶するワークメモリであってもよい。RAMには、表示部102に表示される表示画面、操作部104から入力された操作情報、撮影部106で撮影されたユーザの顔画像などの各種情報が記憶されてもよい。なお、不揮発性メモリは、電源をオフにしても記憶内容が消去されないメモリ(フラッシュメモリ)であり、各種設定情報が記憶される。
(ガイダンス制御部)
ガイダンス制御部116は、表示部102によるガイダンス表示画面の表示、およびスピーカ108からの音声ガイダンスの出力を制御する制御部の一例である。詳細については後述するように、ガイダンス制御部116は、画像処理部122により検出されるユーザの視線および表情に応じて、ガイダンス表示画面および音声ガイダンスに関する制御を行う。また、ガイダンス制御部116は、他の表示画面を表示部102に表示させる表示制御部としての機能を有してもよい。例えば、ガイダンス制御部116は、操作部104からの指示に基づいて記憶部112から表示する情報を読み込み、読み込まれた情報に基づく画面を表示部102に表示させてもよい。
(操作処理部)
操作処理部118は、操作部104から入力された操作情報を取得する。操作処理部118は、操作部104から入力された操作情報を記憶部112に送る。また、操作処理部118は、操作部104がユーザによって操作された位置に対応する表示部102上の表示座標位置を算出する。そして操作処理部118は、算出された表示位置座標と対応するオブジェクトをユーザが操作したと判定する。
(画像処理部)
画像処理部122は、撮影部106から入力された画像情報を処理する。画像処理部122は、顔検出部124と、目検出部126と、視線検出部128と、表情検出部130と、を有する。
/顔検出部/
顔検出部124は、ユーザの顔を検出する。顔検出部124は、例えばエッジ検出または形状パターン検出によって候補領域を抽出し、抽出された候補領域を小領域に分割し、各領域の特徴点を予め設定された顔領域パターンと照合してもよい。また、顔検出部124は、各候補領域の濃度が所定の閾値に対応する値である場合に胴体候補領域を抽出し、顔および胴体候補領域の濃度または彩度のコントラストを用いて顔領域を抽出してもよい。
/目検出部/
目検出部126は、ユーザの目を検出するために用いられる。目検出部126は、例えば顔検出部124によって検出された顔領域の中から、目の白目部分を角膜反射の候補として検出し、また目の黒目部分を瞳孔の候補として検出する。
/視線検出部/
視線検出部128は、ユーザの視線が表示部102のいずれの領域に視線が向いているかを検出するために用いられる。視線検出部128による視線の検出は、例えば、目検出部126により検出された目頭の位置に対して、視点となる虹彩がどの位置にあるのかを判定することによって行われる。具体的には、左目の虹彩が目頭から離れていればユーザが表示部102の左側を見ていると判定し、左目の目頭と虹彩が近ければユーザが表示部102の右側を見ていると判定する。
図5は、表示部102の領域分割の具体例を示す説明図である。図5に示したように、表示部102は複数の領域に分割され、視線検出部128は、ユーザの視線が表示部102のいずれの領域に向いているかを検出する。図5に示した例では、領域E1〜E3が図2に示した簡略メッセージ映像40の表示領域に対応し、領域E4〜E15が図2に示したガイダンス映像50の表示領域に対応する。
なお、表示部102が17インチディスプレイであり、表示部102の表示ドット数が1280×1024ドットである場合、図5で示される領域E1〜E15の各々の大きさは、おおよそ423×208ドットである。
視線検出部128は、さらに、特定された視線位置に対して視線が留まっていた時間を測定する。例えば、視線検出部128は、ある視線位置から75ドットの範囲内に視線が留まっていた時間を、上記視線位置に対して視線が留まっていた時間として測定してもよい。
75ドットという値は、上述した大きさおよびドット数を有する表示部102をユーザが60cmの離れたところから見ていると想定した場合の中心視の大きさを考慮して算出される値である。中心視は、人が一点を凝視しているときに色や形を正確に捉えることができる領域であり、上述した表示部102において当該領域の径は2cmである。そして、上述した大きさとドット数を有する表示部102においては、2cmは75ドットに相当する。なお、上述した視線を判定するために用いられるドット数は、表示部102が有するドット数に応じて変更されてもよい。
/表情検出部/
表情検出部130は、ユーザが表示部102を見ているときの表情を検出するために用いられる。表情検出部130は、顔検出部124で検出された顔領域の中で目や口の動きの変化を測定し、測定された変化と、あらかじめ設定された表情推定用データを照合して表情を検出する。
図6は、ユーザ300の顔画像から得られる複数の特徴点の例を示す図である。図6に示すように、顔検出部124によって、ユーザ300の顔画像から特徴点として、左眉P1〜P3、右眉P4〜P6、左目P7〜P10、右目P11〜P14、口P15〜P18が検出される。
以下では、具体的な例として、ニュートラルな表情と比較した困惑の表情の特徴について説明する。しかし、他の表情も困惑の表情と同様に固有の特徴を有している。したがって、それぞれの表情は、固有の特徴に基づいて認識され得る。
図7は、ニュートラルな表情と困惑の表情の関係を説明するための図である。画像F1は、ユーザ300の表情がニュートラルな表情である場合に撮像された左眉毛画像(P1〜P3)と左目画像(P7〜P10)である。一方、画像F2は、ユーザ300の表情が困惑の表情である場合に撮像された左眉毛画像(P1〜P3)と左目画像(P7〜P10)である。画像F1に写るニュートラルな表情と比較すると、画像F2に写る困惑の表情においては、眉毛と目の距離が短くなり(特に、眉毛の特徴点P1〜P3と目の上部の特徴点P7〜P9が変化しており)、目の開きが細くなっている(特に、目の特徴点P8とP10が変化している)。
図8は、各特徴点の位置の管理例を示す説明図である。図8に示したように、ニュートラルな表情における各特徴点の位置(ニュートラル位置)、および各特徴点の現在位置が管理される。表情検出部130は、各特徴点のニュートラル位置と現在位置との差分の傾向を、表情推定用データと照合することにより、ユーザの表情を推定する。図8には、検出結果として、ユーザの表情が困惑の表情であり、困惑度がL1である例を示している。なお、表情検出部130は、ユーザがガイダンス装置100の操作を開始した時のユーザの表情をニュートラルな表情として扱ってもよい。
上述した視線検出部128および表情検出部130により得られる検出情報は、記憶部112に記憶され、ガイダンス制御部116によるガイダンスの制御に用いられる。
<3.ガイダンスの制御例>
以上、本発明の実施形態によるガイダンス装置100の構成を説明した。続いて、ガイダンス制御部116によるガイダンス映像の表示制御についてより詳細に説明する。
ガイダンス映像は複数の領域から構成され、各領域が有する情報の重要性(有用性)は異なり得る。相対的に重要な情報を有する領域はユーザに視認されることが望まれる。このため、ガイダンス情報ごとに、相対的に重要な情報を有する領域(以下、設定領域と称する。)が設定される。また、ガイダンス映像の内容を理解できずに困惑しているユーザにはより丁寧な情報が提供されることが望まれる。このため、ガイダンス情報ごとに、当該ガイダンス情報を補足する補足映像が設定される。以下、図9を参照し、ガイダンス情報ごとの設定を示す設定テーブルの具体例を説明する。
図9は、設定テーブルの具体例を示す説明図である。図9に示したように、設定テーブルにおいては、各ガイダンス映像に、設定領域および補足映像が関連付けられる。図9に示した例では、ガイダンス映像1には、設定領域として領域E8、E9、E11およびE12が関連付けられ、補足映像として補足映像1が関連付けられる。当該設定テーブルは記憶部112に記憶され、ガイダンス制御部116により参照される。なお、例えば図2に示したガイダンス映像に関連付けられる補足映像としては、例えば図10に示したように、50音検索の説明を補足する情報を含む映像が挙げられる。
ガイダンス制御部116は、上述した設定テーブルに基づき、ガイダンス映像に関する表示制御を行う。以下、ガイダンス制御部116が行い得る幾つかのガイダンス制御を順次説明する。
(3−1.第1のガイダンス制御例)
図11は、第1のガイダンス制御例を示すフローチャートである。まず、ガイダンス装置100が人体センサなどによってユーザを検出すると、撮影部106が起動して撮像を開始し、表示部102が、記憶部112に記憶されたガイダンス映像(基本ガイダンス映像)を含むガイダンス表示画面の表示を開始する(S302)。なお、本フローは、ユーザの検出でなく、表示部102の画面遷移に連動して開始してもよい。また、S302において、スピーカ108も、ガイダンス制御部116による制御に基づいて、記憶部112に記憶された音声ガイダンスの出力を開始してもよい。
そして、顔検出部124が撮影部106から入力されるユーザの映像からユーザの顔を検出し(S304)、目検出部126がユーザの顔から目領域を検出する(S306)。さらに、視線検出部128が、ユーザの目領域の分析により、ユーザの視線がガイダンス映像のいずれの領域に向いているかを検出する(S308)。例えば、視線検出部128が、図5に示した領域E1〜E15のいずれの領域にユーザの視線が向いているかを検出し、例えば図12に示すように100msなどの単位時間ごとに検出結果を記憶部112に記録する。
その後、ガイダンス制御部116が、図9に示した設定テーブルに基づき、全ての設定領域での視線の滞在が認められたか、すなわち、全ての設定領域をユーザが見たかを判断する(S312)。ここで、ガイダンス制御部116は、視線がある領域に所定時間以上に渡って留まっていた場合に、当該領域に視線が滞在していたと判断する。所定時間は、例えば200msであってもよい。200msという時間は、一般的な視線のサッケードの時間(人が物体を見ようとして注視点を変えるときに要する時間)を考慮した時間である。
S312において全ての設定領域での視線の滞在が認められなかった場合(S312/no)、ガイダンス制御部116は、ガイダンス映像の再表示フラグをセットする(S314)。一方、S312において全ての設定領域での視線の滞在が認められた場合(S312/yes)、ガイダンス制御部116は、ガイダンス映像の再表示フラグをクリアする(S320)。例えば、ガイダンス制御部116は、図12に示したように、全ての設定領域での視線の滞在が認められない間は再表示フラグを「1」にセットし、全ての設定領域での視線の滞在が認められた後は再表示フラグを「0」にクリアする。
また、表情検出部130が、ユーザの顔の映像から、ユーザの表情を検出する(S322)。そして、ガイダンス制御部116は、ユーザの表情が困惑の表情である場合(S324/yes)、図12に示すように困惑フラグをセットする(S326)。上述したS304〜S326の処理が、ガイダンス映像の表示の時間区間が終了するまで繰り返される。
その後、ユーザによる操作が開始されると、ガイダンス制御が終了する(S332/yes)。ユーザによる操作が開始されない場合(S332/no)、ガイダンス制御部116は、困惑フラグがセットされた頻度、すなわち、ガイダンス映像の表示時間に対して困惑フラグがセットされた時間の割合を確認する(S334)。
そして、ガイダンス制御部116は、ガイダンス映像の表示が終了した時点での再表示フラグが「1」にセットされている場合(S336/yes)、ガイダンス映像を表示部102に再度表示させる(S338)。一方、ガイダンス制御部116は、ガイダンス映像の表示が終了した時点での再表示フラグが「0」にクリアされている場合(S336/no)、困惑フラグの頻度に応じて表示を制御する。具体的には、困惑フラグの頻度が所定値(例えば、30%)より低い場合(S340/yes)、ガイダンス制御部116はガイダンス映像を表示部102に再度表示させる(S338)。一方、困惑フラグの頻度が所定値(例えば、30%)以上である場合(S340/no)、ガイダンス制御部116は、設定テーブルを参照し、表示されていたガイダンス映像に関連付けられた補足映像を表示部102に表示させる(S342)。
要すると、S302においてガイダンス映像1が表示され、S338の処理が行われる場合、図13に示したようにガイダンス映像1が繰り返して表示される。一方、S342の処理が行われる場合、図13に示したようにガイダンス映像1の補足映像が表示される。当該補足映像が表示された後、ガイダンス映像が非表示となり、次にガイダンス映像1と異なるガイダンス映像2の表示が開始され、S302からの処理が繰り返されてもよい。
以上説明したように、第1のガイダンス制御例によれば、ユーザの視線および表情の検出に基づき、ユーザに適切なガイダンス映像を提供することが可能である。例えば、ガイダンス映像の内容を理解できずに困惑しているユーザにはより丁寧な情報を提供し、ガイダンス映像における設定領域を未だ見ていないユーザにはガイダンス映像の表示を継続することが可能である。
(3−2.第2のガイダンス制御例)
続いて、第2のガイダンス制御例を説明する。図14は、第2のガイダンス制御例を示すフローチャートである。図14に示したフローチャートのS302〜S336およびS340〜S342の処理は、図11に示した第1のガイダンス制御例におけるS302〜S336およびS340〜S342の処理と実質的に同一である。
第2のガイダンス制御例は、第1のガイダンス制御例との主な差異として、S339の処理を有する。具体的には、ガイダンス制御部116は、ガイダンス映像の表示が終了した時点での再表示フラグが「1」にセットされている場合(S336/yes)、設定領域が強調されるように、ガイダンス映像を表示部102に再度表示させる(S339)。強調の方法は、設定領域を囲う枠を表示することであってもよいし、設定領域と他の領域の表示態様を異ならせること(例えば、設定領域の輝度を相対的に上げる、設定領域はカラー表示で他の領域は白黒表示とする、など)であってもよい。
かかる構成により、設定領域を未だ見ていないユーザが、再度のガイダンス映像の表示の際に設定領域に視線を向ける可能性を高めることが可能である。
(3−3.第3のガイダンス制御例)
続いて、第3のガイダンス制御例を説明する。図15は、第3のガイダンス制御例を示すフローチャートである。図15に示したフローチャートのS302〜S332およびS340〜S342の処理は、図14に示した第2のガイダンス制御例におけるS302〜S332およびS340〜S342の処理と実質的に同一である。
第3のガイダンス制御例は、第2のガイダンス制御例との主な差異として、S303、S335、およびS344〜S348の処理を有する。すなわち、ガイダンス制御部116は、S302でのガイダンス映像の表示に基づき、再生回数カウンタを「0」にセットする(S303)。そして、S302〜S336の後、ガイダンス制御部116は再生回数カウンタをインクリメントする(S335)。
その後、ガイダンス制御部116は、ガイダンス映像の表示が終了した時点での再表示フラグがセットされている場合(S336/yes)、再生回数カウンタの値に応じて異なる制御を行う。具体的には、ガイダンス制御部116は、再生回数カウンタが「n(例えば、n=1)」を上回る場合には、設定領域が強調されるように、ガイダンス映像を表示部102に再度表示させる(S348)。一方、ガイダンス制御部116は、再生回数カウンタが「n」以下である場合には、強調無しにガイダンス映像を表示部102に再度表示させる(S346)。S346およびS348の後は、S304からの処理が繰り返される。
以上説明した第3のガイダンス制御例によれば、ガイダンス映像の「n+1」回目以降の表示において、設定領域を強調することが可能である。
(3−4.第4のガイダンス制御例)
次に、第4のガイダンス制御例を説明する。図16は、第4のガイダンス制御例を示すフローチャートである。図16に示したフローチャートのS302〜S348の処理は、図15に示した第3のガイダンス制御例におけるS302〜S348の処理と実質的に同一である。
第4のガイダンス制御例は、第3のガイダンス制御例との主な差異として、S350〜S354の処理を有する。すなわち、第4のガイダンス制御例においては、1つのガイダンス映像に対して詳細度が異なる複数の補足映像が関連付けられており、ガイダンス制御部116は、困惑フラグの頻度が第1の閾値以上(S340/no)、第2の閾値未満である場合(S350/no)、簡易な補足映像を表示部102に表示させる(S354)。一方、ガイダンス制御部116は、第2の閾値以上である場合(S350/yes)、詳細な補足映像を表示部102に表示させる(S352)。
例えば、第1の閾値が30%であり、第2の閾値が70%である場合、当該第4のガイダンス制御例は、図17に示すように整理される。具体的には、困惑度が30%未満である場合にはガイダンス映像が再表示され、困惑度が30%以上70%未満である場合には簡易な補足映像が表示され、困惑度が70%以上である場合には詳細な補足映像が表示される。
以上説明したように、第4のガイダンス制御例によれば、ユーザの困惑度に応じてよりきめ細かな対応をすることが可能となる。
(3−5.第5のガイダンス制御例)
続いて、第5のガイダンス制御例を説明する。第1〜第4のガイダンス制御例では、ユーザの視線および表情の双方が用いられたが、ユーザの視線または表情の一方に基づくガイダンス制御も可能である。以下では、ユーザの表情は用いず、ユーザの視線を用いる第5のガイダンス制御例を説明する。
図18は、第5のガイダンス制御例を示すフローチャートである。まず、ガイダンス装置100が人体センサなどによってユーザを検出すると、撮影部106が起動して撮像を開始し、表示部102が、記憶部112に記憶されたガイダンス映像(基本ガイダンス映像)を含むガイダンス表示画面の表示を開始する(S302)。
そして、顔検出部124が撮影部106から入力されるユーザの映像からユーザの顔を検出し(S304)、目検出部126がユーザの顔から目領域を検出する(S306)。さらに、視線検出部128が、ユーザの目領域の分析により、ユーザの視線がガイダンス映像のいずれの領域に向いているかを検出する(S308)。
その後、ガイダンス制御部116が、図9に示した設定テーブルに基づき、全ての設定領域での視線の滞在が認められたか、すなわち、全ての設定領域をユーザが見たかを判断する(S312)。
S312において全ての設定領域での視線の滞在が認められなかった場合(S312/no)、ガイダンス制御部116は、ガイダンス映像の再表示フラグをセットする(S314)。一方、S312において全ての設定領域での視線の滞在が認められた場合(S312/yes)、ガイダンス制御部116は、ガイダンス映像の再表示フラグをクリアする(S320)。例えば、ガイダンス制御部116は、図12に示したように、全ての設定領域での視線の滞在が認められない間は再表示フラグを「1」にセットし、全ての設定領域での視線の滞在が認められた後は再表示フラグを「0」にクリアする。上述したS304〜S320の処理が、ガイダンス映像の表示の時間区間が終了するまで繰り返される。
その後、ユーザによる操作が開始されると、ガイダンス制御が終了する(S332/yes)。ユーザによる操作が開始されない場合(S332/no)、ガイダンス制御部116は、かつ、ガイダンス映像の表示が終了した時点での再表示フラグが「1」にセットされている場合(S336/yes)、後区間においてガイダンス映像を表示部102に再度表示させる(S338)。一方、ガイダンス制御部116は、ガイダンス映像の表示が終了した時点での再表示フラグが「0」にクリアされている場合(S336/no)、後区間においてガイダンス映像の再表示を行わず、ガイダンス映像の非表示とする(S358)。
上述した第5のガイダンス制御例のように、設定領域を見たユーザにはガイダンス映像を再表示しない制御も実現可能である。
<4.むすび>
以上説明したように、本発明の実施形態によれば、ユーザの視線または表情の検出に基づき、ユーザに適切なガイダンス映像を提供することが可能である。例えば、ガイダンス映像の内容を理解できずに困惑しているユーザにはより丁寧な情報を提供し、ガイダンス映像における設定領域を未だ見ていないユーザにはガイダンス映像の表示を継続することが可能である。
なお、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記ではATMまたは乗車券発券機のようなガイダンス装置100に本発明の実施形態が適用される例を主に説明したが、本発明の実施形態は他の情報処理システムにも適用可能である。他の情報処理システムとしては、教育支援システムが挙げられる。例えば、教育支援システムに本発明の実施形態を適用することにより、説明画面におけるポイント部分にユーザが視線を向けていない場合には当該説明画面を繰り返し表示することや、ユーザが説明内容を理解できずに困惑している場合には当該説明画面の補足画面を表示することが可能である。
また、上記実施形態では、CCDカメラのような撮影部106により得られた映像が視線検出に用いられる例を説明したが、ガイダンス装置100は他の映像を用いて視線検出を行ってもよい。例えば、ガイダンス装置100は、赤外線LEDおよび赤外線カメラにより得られる赤外線映像における角膜反射や瞳孔の位置から視線を検出してもよい。さらに、スマートグラスのようなウェアラブル端末が撮影部106として使用されてもよい。
また、上記実施形態では、表情検出のための特徴点として、左眉および右眉の各々について3つの特徴点を説明し、左目、右目および口の各々について4つの特徴点を説明したが、特徴点の数および配置は上述した例に限定されない。例えば、口の特徴点は上唇の特徴点および下唇の特徴点に分けられてもよい。その他、視線検出および表情検出の方法は、実施形態として説明した方法に限定されない。
また、ガイダンス制御部116は、ユーザの視線および表情を組み合わせてガイダンス制御を行ってもよい。例えば、ガイダンス制御部116は、ユーザが困惑の表情をしている場合、ユーザがいずれの領域に視線を向けているかに応じて、異なる補足映像を表示部102に表示させてもよい。例えば、ガイダンス制御部116は、図2に示した50音検索の領域に視線が向けられている時にユーザが困惑の表情をしている場合、50音検索についての補足画面を表示部102に表示させ、図2に示したフリーワード検索の領域に視線が向けられている時にユーザが困惑の表情をしている場合、フリーワード検索についての補足画面を表示部102に表示させてもよい。かかる構成により、よりユーザに合ったガイダンスを提供することが可能となる。
また、本明細書のガイダンス装置100の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、ガイダンス装置100処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、ガイダンス装置100に内蔵されるCPU、ROMおよびRAMなどのハードウェアに、上述したガイダンス装置100の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
100 ガイダンス装置
102 表示部
104 操作部
106 撮影部
108 スピーカ
110 通信部
112 記憶部
114 処理部
116 ガイダンス制御部
118 操作処理部
120 情報取得部
122 画像処理部
124 顔検出部
126 目検出部
128 視線検出部
130 表情検出部

Claims (8)

  1. 撮影部から入力されたユーザの映像から目領域を検出する目検出部と、
    前記目検出部によって検出された目領域の分析により、ガイダンス映像が表示された表示部のいずれの領域に視線が向いているかを検出する視線検出部と、
    前記ガイダンス映像に関して事前に設定された設定領域での視線の滞在がなかったことに基づき、前記ガイダンス映像に関する表示制御を行う制御部と、
    前記ユーザの映像からユーザの表情を検出する表情検出部と、
    を備え、
    前記制御部は、前記表情検出部により検出された前記ユーザの表情にさらに基づいて前記表示部の表示を制御する、情報処理装置。
  2. 前記制御部は、
    ある時間区間内に前記設定領域での視線の滞在があったことに基づき、前記時間区間の後区間において前記ガイダンス映像を非表示に制御し、
    前記時間区間内に前記設定領域での視線の滞在がなかったことに基づき、前記後区間においても前記ガイダンス映像を前記表示部に表示させる、請求項1に記載の情報処理装置。
  3. 前記制御部は、間隔を有する複数の時間区間において同一のガイダンス映像または異なるガイダンス情報を前記表示部に表示させ、一の時間区間で前記設定領域での視線の滞在がなかったことに基づき、前記一の時間区間と次の時間区間との間隔区間でも前記一の時間区間に表示された前記ガイダンス映像を前記表示部に表示させる、請求項1または2に記載の情報処理装置。
  4. 前記制御部は、前記設定領域での視線の滞在が無かったことに基づき、前記設定領域の表示を強調する、請求項1〜3のいずれか一項に記載の情報処理装置。
  5. 前記制御部は、前記後区間における前記ガイダンス映像の表示が、何回目の前記ガイダンス映像の表示であるかに基づき、前記設定領域の表示を強調するか否かを制御する、請求項2に記載の情報処理装置。
  6. 前記制御部は、前記ユーザの表情が所定の基準を満たす場合、前記ガイダンス映像の表示の後に、前記ガイダンス映像を補足する補足映像を前記表示部に表示させる、請求項1に記載の情報処理装置。
  7. 前記制御部は、前記ユーザの表情の困惑度に応じて異なる補足映像を前記表示部に表示させる、請求項6に記載の情報処理装置。
  8. 撮影部から入力されたユーザの映像から目領域を検出することと、
    検出された目領域の分析により、ガイダンス映像が表示された表示部のいずれの領域に視線が向いているかを検出することと、
    前記ガイダンス映像に関して事前に設定された設定領域での視線の滞在がなかったことに基づき、前記ガイダンス映像に関する表示制御を行うことと、
    前記ユーザの映像からユーザの表情を検出することと、
    を含み、
    前記ガイダンス映像に関する表示制御を行うことは、検出された前記ユーザの表情にさらに基づいて前記ガイダンス映像に関する表示制御を行うことを含む、情報処理方法。
JP2016189242A 2016-09-28 2016-09-28 情報処理装置および情報処理方法 Active JP6733461B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016189242A JP6733461B2 (ja) 2016-09-28 2016-09-28 情報処理装置および情報処理方法
PCT/JP2017/018772 WO2018061299A1 (ja) 2016-09-28 2017-05-19 情報処理装置および情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016189242A JP6733461B2 (ja) 2016-09-28 2016-09-28 情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
JP2018055320A JP2018055320A (ja) 2018-04-05
JP6733461B2 true JP6733461B2 (ja) 2020-07-29

Family

ID=61759603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016189242A Active JP6733461B2 (ja) 2016-09-28 2016-09-28 情報処理装置および情報処理方法

Country Status (2)

Country Link
JP (1) JP6733461B2 (ja)
WO (1) WO2018061299A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021251107A1 (ja) * 2020-06-11 2021-12-16 ソニーグループ株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP2022086081A (ja) * 2020-11-30 2022-06-09 マクセル株式会社 空間浮遊映像表示装置
WO2023073775A1 (ja) 2021-10-25 2023-05-04 三菱電機株式会社 情報処理装置、情報処理方法、及び、情報処理プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008003816A (ja) * 2006-06-21 2008-01-10 Matsushita Electric Ind Co Ltd 操作誘導装置及び操作誘導方法
JP2009048336A (ja) * 2007-08-16 2009-03-05 Oki Electric Ind Co Ltd 自動取引装置および自動取引システム
JP5154374B2 (ja) * 2008-11-14 2013-02-27 株式会社豊田中央研究所 困惑度推定装置、及びプログラム
JP5924580B2 (ja) * 2012-03-30 2016-05-25 大日本印刷株式会社 視点誘導装置および電子書籍端末
JP5813562B2 (ja) * 2012-04-16 2015-11-17 株式会社豊田中央研究所 操作支援装置、操作システム、操作支援方法、及びプログラム
JP5986198B2 (ja) * 2012-05-30 2016-09-06 パイオニア株式会社 表示装置、ヘッドマウントディスプレイ、表示方法及び表示プログラム、並びに記録媒体
JP2014048978A (ja) * 2012-08-31 2014-03-17 Denso Corp 移動体警告装置、および移動体警告方法
JP6007758B2 (ja) * 2012-12-03 2016-10-12 富士通株式会社 ユーザ操作端末装置、ユーザ操作端末プログラム
JP6256134B2 (ja) * 2014-03-20 2018-01-10 京セラドキュメントソリューションズ株式会社 電子機器及び操作支援プログラム
JP2016066115A (ja) * 2014-09-22 2016-04-28 カシオ計算機株式会社 デジタルコンテンツの閲覧支援装置、閲覧支援方法及びプログラム

Also Published As

Publication number Publication date
WO2018061299A1 (ja) 2018-04-05
JP2018055320A (ja) 2018-04-05

Similar Documents

Publication Publication Date Title
JP6753331B2 (ja) 情報処理装置、方法および情報処理システム
US9489574B2 (en) Apparatus and method for enhancing user recognition
KR102092931B1 (ko) 시선 추적 방법 및 이를 수행하기 위한 사용자 단말
US20150050628A1 (en) Autism diagnosis support method and system, and autism diagnosis support device
CN105892642A (zh) 一种根据眼部动作对终端进行控制的方法及装置
US10254831B2 (en) System and method for detecting a gaze of a viewer
JP6733461B2 (ja) 情報処理装置および情報処理方法
JP2006023953A (ja) 情報表示システム
CN104813258A (zh) 数据输入装置
US20160232399A1 (en) System and method of detecting a gaze of a viewer
CN103472915B (zh) 基于瞳孔跟踪的阅读控制方法、阅读控制装置及显示设备
WO2018216618A1 (ja) 情報処理装置、制御方法、及びプログラム
US11808940B2 (en) Eye tracking system for smart glasses and method therefor
CN111801700B (zh) 支付过程中防止偷窥的方法及电子设备
JP6203971B2 (ja) ディスプレイ装置を操作する方法及びシステム
KR20150001940A (ko) 얼굴인식기술을 이용한 디스플레이 인터페이스 제어가 가능한 금융자동화기기 및 그 제어 방법
JP2008237625A (ja) 見え方度判定装置
KR20190048144A (ko) 발표 및 면접 훈련을 위한 증강현실 시스템
CN110174937A (zh) 注视信息控制操作的实现方法及装置
US11281893B2 (en) Method and device for modifying the affective visual information in the field of vision of an user
EP3471055B1 (en) Comparison device and comparison method
JP2012038025A (ja) 表示装置及び表示装置の制御方法、プログラム
KR101343875B1 (ko) 사용자 인지 분석 장치 및 사용자 인지 분석 방법
KR20190085466A (ko) 사용자 트리거 의도 결정 장치 및 방법
CN113132642A (zh) 图像显示的方法及装置、电子设备

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200622

R150 Certificate of patent or registration of utility model

Ref document number: 6733461

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150