JP2004252849A - ユーザインタフェース装置および意思伝達方法 - Google Patents
ユーザインタフェース装置および意思伝達方法 Download PDFInfo
- Publication number
- JP2004252849A JP2004252849A JP2003044367A JP2003044367A JP2004252849A JP 2004252849 A JP2004252849 A JP 2004252849A JP 2003044367 A JP2003044367 A JP 2003044367A JP 2003044367 A JP2003044367 A JP 2003044367A JP 2004252849 A JP2004252849 A JP 2004252849A
- Authority
- JP
- Japan
- Prior art keywords
- user
- intention
- interface device
- user interface
- gaze direction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
【課題】顔を構成する部位の動きを読み取って装置に使用者の意思を伝達することで、頁めくり等、装置の動きを自動コントロールする。
【解決手段】対象物に対する動きが規定されるボタンが配置された装置に対して使用者の意思を伝達するユーザインタフェース装置であって、使用者の顔を構成する部位の動きを読み取り、ボタンの位置を認識して使用者の意思を伝達する意思伝達部10を備える。意思伝達部10は、使用者の眼球運動を測定して視線方向を判定する視線方向判定部11と、所定回数の瞬き、もしくは所定時間の直視を検出して使用者の意思を伝達する意思伝達起動部12から成る。
【選択図】 図1
【解決手段】対象物に対する動きが規定されるボタンが配置された装置に対して使用者の意思を伝達するユーザインタフェース装置であって、使用者の顔を構成する部位の動きを読み取り、ボタンの位置を認識して使用者の意思を伝達する意思伝達部10を備える。意思伝達部10は、使用者の眼球運動を測定して視線方向を判定する視線方向判定部11と、所定回数の瞬き、もしくは所定時間の直視を検出して使用者の意思を伝達する意思伝達起動部12から成る。
【選択図】 図1
Description
【0001】
【発明の属する技術分野】
本発明は、特に、障害者向けの冊子自動頁めくり装置に用いて好適な、ユーザインタフェース装置および意思伝達方法に関する。
【0002】
【従来の技術】
従来、上記した冊子自動頁めくり装置における頁めくりの指示は、リモコンボタンによる操作がほとんどであった。また、リモコンボタンでの操作が困難な場合は、例えば、吸気、タッチ式ビッグボタン、音声スイッチ等のサブスイッチにより、頁めくりを実現していた。尚、従来技術としては特許文献1〜4が公開されている(特許文献1〜4参照)。
【0003】
【特許文献1】
特開平5−124377号公報
【特許文献2】
特開平5−189602号公報
【特許文献3】
特開平5−313665号公報
【特許文献4】
特開平6−308371号公報
【0004】
【発明が解決しようとする課題】
しかしながら、身体障害者が文字を読む場合、必ずしも上記した吸気や音声等が使用可能であるとは限らない。但し、本を読むために、目は必要最低限の機能を有しているものと推測される。従って、目からの合図(サイン)のみで冊子の自動頁めくりを実現できれば好ましく、そのための冊子自動頁めくり装置の出現が望まれていた。
一方、特許文献4では、視線方向の検出に関して、瞬きはノイズとして処理されていたが、この瞬きをサインとして捉え、頁めくりのためのトリガとして扱えることができれば、自動で頁めくりを行う冊子自動頁めくり装置への適用が可能である。
【0005】
本発明は上記事情に鑑みてなされたものであり、顔を構成する部位の動きを読み取って装置に使用者の意思を伝達することにより、頁めくり等、装置の動きを自動コントロール可能な、ユーザインタフェース装置および意思伝達方法を提供することを目的とする。
【0006】
【課題を解決するための手段】
上記した課題を解決するために本発明は、対象物に対する動きが規定される機能ボタンが配置された装置に対して使用者の意思を伝達するユーザインタフェース装置であって、前記使用者の顔を構成する部位の動きを読み取り、前記機能ボタンの位置を認識して使用者の意思を伝達する意思伝達部、を備えたことを特徴とする。
【0007】
本発明によれば、意思伝達部が、使用者の顔を構成する部位の動きを読み取り、機能ボタンの位置を認識して使用者の意思を伝達することにより、従来、ボタンを押す能力や吸気を吹き込む身体能力が備わっていなければ実現できなかった、例えば、冊子自動頁めくりの操作が、目や口等顔を構成するパーツの機能のみが健丈であれば実現できるユーザインタフェースを提供することができる。
【0008】
また、本発明において、前記意思伝達部は、前記使用者の眼球運動を測定して視線方向を判定する視線方向判定部と、所定回数の瞬き、もしくは所定時間の直視を検出して前記使用者の意思を伝達する意思伝達起動部と、を備えることを特徴とする。
【0009】
本発明によれば、視線方向判定部が使用者の眼球運動を測定して視線方向を判定し、意志伝達起動部が所定回数の瞬き、もしくは所定時間の直視を検出して使用者の意思を伝達することにより、例えば、自動冊子頁めくりの操作が実現できるユーザインタフェースを提供することができる。
【0010】
また、本発明において、前記視線方向判定部は、カメラにより撮影された映像を画像処理して瞳孔中心を検出し、所定の演算式を演算することによって視線方向を判定することを特徴とする。
【0011】
本発明によれば、視線方向判定部が、カメラにより撮影された映像を画像処理して瞳孔中心を検出し、所定の演算式を演算することによって視線方向を判定することで、従来、ボタンを押す能力や吸気を吹き込む身体能力が備わっていなければ実現できなかった、例えば、冊子自動頁めくりの操作が実現できるユーザインタフェースを提供することができる。
【0012】
また、本発明において、前記意思伝達部は、目に赤外線もしくは超音波を照射してその反射光をセンサで捕らえ、所定回数の瞬き、もしくは所定時間の直視を検出して前記使用者の意思を伝達することを特徴とする。
【0013】
本発明によれば、意思伝達部が、目に赤外線もしくは超音波を照射してその反射光をセンサで捕らえ、所定回数の瞬き、もしくは所定時間の直視を検出して使用者の意思を伝達することで、視線方向を判定することなく簡易の冊子自動頁めくり装置を実現できる。
【0014】
上記した課題を解決するために本発明は、対象物に対する動きが規定される機能ボタンが配置された装置に対して使用者の意思を伝達する意思伝達方法であって、前記使用者の顔を構成する部位の動きを読み取り、前記機能ボタンの位置を認識して使用者の意思を伝達すること、を特徴とする。
【0015】
本発明によれば、使用者の顔を構成する部位の動きを読み取り、機能ボタンの位置を認識して使用者の意思を伝達することにより、従来、機能ボタンを押す能力や吸気を吹き込む身体能力が備わっていなければ実現できなかった、例えば、冊子自動頁めくりの操作が、目や口等顔を構成するパーツの機能のみが健丈であれば実現できる。
【0016】
【発明の実施の形態】
図1は、本発明のユーザインタフェース装置の内部構成を示すブロック図であり、ここでは、冊子自動頁めくり装置が示されている。
本発明は、対象物に対する動きが規定される機能ボタンが配置された、例えば冊子自動頁めくり装置に対して使用者の意思を伝達するユーザインタフェース装置であって、使用者の顔を構成する部位の動きを読み取り、機能ボタンの位置を認識して使用者の意思を伝達する意思伝達部10を備える。
【0017】
この意志伝達部10は、使用者の眼球運動を測定して視線方向を判定する視線方向判定部11と、所定回数の瞬き、もしくは所定時間の直視を検出して使用者の意思を伝達する意思伝達起動部12で構成される。
視線方向判定部11、意志伝達起動部12は共に、画像処理部13による画像処理結果を入力として得、ここで視線方向を判定し、あるいは瞬き、直視を検出した結果は、装置制御部14に供給され、装置制御部14で、例えば、冊子自動頁めくり等が制御される。
【0018】
図2は、本発明の一実施形態を説明するために引用した図である。ここでは、装置の上部に単眼カメラ21が装着されており、また、装置上に、「左頁めくり」、「キャンセル」、「目次」、「右頁めくり」の各操作指示ボタン(それぞれ、22〜25)が機能ボタンとして割付けられ配置されている。また、0〜9の数字ボタン26も機能ボタンとして割付けられ配置されている。27は、頁めくりの対象となる冊子である。
【0019】
図6は、本発明実施形態の動作を説明するために引用したフローチャートである。以下、図6に示すフローチャートを参照しながら図1、図2に示す本発明一実施形態の動作について説明する。
図2に示す実施形態は、視線の方向を判別できる赤外線センサを搭載した単眼カメラ21で人間の目の視線方向を認識し、その目のサインを単眼カメラ21による撮影画像を画像認識することで判別するものである。
例えば、単眼カメラ21により撮影された映像を画像認識により、読者がボタン「左頁めくり」を見ていることを判定し(S61)、次に、読者が、2回/秒程度の速さで瞬きをしたら(S62Yes)同じく画像認識により、自動で「左頁めくり」の操作を起動する(S63「左頁めくり」)。視線方向の判定は図1に示す意志伝達部10を構成する視線方向判定部11が、また、装置に対する左頁めくりの起動は、同じく意志伝達部10を構成する意思伝達起動部12が行う。
【0020】
なお、視線方向判定部11による視線方向の判定は眼球運動を測定することにより実践される。眼球運動の測定原理には多数あるが、その代表例を以下に列挙する。
一つは、上記したように、画像処理によるものである。すなわち、眼球自体の映像を画像処理し、瞳孔中心を検出して視線方向を判定する方法である。また、他の一つは、目に微弱赤外線を照射してその反射光をセンタで捉えて視線方向を判定する方法である。白目の部分は、黒目の部分に比較して光の反射率が高いため、視線方向が変化すると眼球で反射される光の量も変化する。これを光電変換することで視線方向を判定することができる。
【0021】
他に、角膜反射法、眼球電位法(EOG:Electro−Oculography)がある。前者は、角膜で反射された光を捉えることにより視線方向を判定し、後者は、眼球が前側と後側で異なる電位を持つことから、眼球の上下に電極を付けて眼球が回転した際に眼球の前側と後側の電位差を検出することで視線方向を判定するものである。
いずれもカメラを頭部に固定する必要があることからここでは用いない。
【0022】
なお、「目次」、「右頁めくり」の動作についても同様である。また、数字ボタン26を順番に、「1」、「6」と見た後、「右頁めくり」ボタンを見ながら2回/秒程度の速さで瞬きを検出したら16頁分を纏めて右頁めくりを実行することも可能である。また、操作を途中でキャンセルしたい場合は、キャンセルボタン23を見ながら、同様に2回/秒程度の速さで瞬きを行うことにより実現できる。
更に、サインは、2回/秒の瞬きに限らず、2回以上/秒程度の速さ、一定時間以上の直視であっても構わない。また、順方向は勿論、「左頁めくり」等逆方向めくり、「目次」へのジャンプ、上記した複数頁めくり等々様々な操作が可能である。
【0023】
次に、ステレオカメラを装着した場合の実施形態について図3、図6を参照しながら説明する。
ここでは視線方向を判別できるように、単眼カメラを複数(31、32)装着してステレオカメラとし、ステレオ視で読者の目を認識し、そのサインを画像認識で判別する。例えば、ステレオカメラ31、32により撮影された映像を画像認識により、読者がボタン「左頁めくり」を見ていることを判定し(S61)、次に、読者が、2回/秒程度の速さで瞬きをしたら(S62Yes)同じく画像認識により、自動で「左頁めくり」の操作を起動する(S63「左頁めくり」)。視線方向の判定は図1に示す意志伝達部10を構成する視線方向判定部11が、また、左頁めくりの起動は、同じく意志伝達部10を構成する意思伝達起動部12が行う。
【0024】
なお、視線方向判定部11による視線方向の判定は、図2に示す実施形態同様、眼球運動を測定することにより実践される。また、ステレオカメラを装着した場合は、単眼カメラの光の反射特性を距離情報として用い、三角測量により視線の方向を認識することになる。
【0025】
次に、図4、図5を用いて他の実施形態について説明する。図4、図5は共に視線方向を判別することなく、サインの認識のみで冊子自動頁めくりを実現する単機能版であり、超音波を用い(図4)、あるいは赤外線を用いて認識する(図5)それぞれの例を示す。
【0026】
図4に示す実施形態では超音波センサ41、42が装着される。超音波センサ41、42で受信される瞬き信号を感知することで判別するものである。例えば、読者が右方向を向きながら瞬きをした場合と、左方向を向きながら瞬きをした場合とでは、左右の超音波センサ41、42による受信信号のレベルは異なり、それによっていずれの方向に頁をめくれば良いかを判断することができる。
瞬きの速さはカメラを用いた実施形態同様、2回/秒程度を検出した場合、信号認識により頁をめくることとする。本実施形態においては、正面を向いて規定の瞬きをした場合に「目次」に戻ることになる。ここでは、視線方向を認識しない単機能版であるため、割り付けられるボタンは、図2、図3に示す実施形態に比較して少ないものとなっている。
【0027】
なお、サインは、2回/秒程度の瞬きに限らず、2回以上/数秒程度の速さ、一定時間以上の直視であっても良い。また、片目だけの瞬きでも頁めくりの判断は可能である。更に、順方向めくりは勿論のこと、逆方向めくり、目次へのジャンプ等、割り付けるボタンは任意である。
【0028】
図5に示す実施形態では赤外線センサ51、52が装着される。赤外線センサ51、52で受信される瞬き信号を感知することで判別するものである。例えば、読者が右方向を向きながら瞬きをした場合と、左方向を向きながら瞬きをした場合とでは、左右の赤外線センサ51、52による受信信号のレベルは異なり、それによっていずれの方向に頁をめくれば良いかを判断することができる。
瞬きの速さはカメラや超音波を用いた実施形態同様、2回/秒程度を検出した場合、信号認識により頁をめくることとする。本実施形態においては、正面を向いて規定の瞬きをした場合に「目次」に戻ることになる。ここでは、視線方向を認識しない単機能版であるため、割り付けられるボタンは、図2、図3に示す実施形態に比較して少ないものとなっている。
【0029】
なお、サインは、2回/秒程度の瞬きに限らず、2回以上/数秒程度の速さ、一定時間以上の直視であっても良い。また、片目だけの瞬きでも頁めくりの判断は可能である。更に、順方向めくりは勿論のこと、逆方向めくり、目次へのジャンプ等、割り付けるボタンは任意である。
【0030】
更に、単眼カメラやステレオカメラを用いた単機能版も考えられ、この場合のサインは、片目のみで頁をめくりたい方向を向く等のパターンが考えられる。
【0031】
なお、カメラによる視線方向の判定については、その原理、演算式ともに、「小池英樹、外2名、「机型実世界指向システムにおける紙と電子情報の統合および手指による実時間インタラクションの実現」、情報処理学会論文誌、Vol.42、No.3、pp.577−585、March2001」や、「松田圭司、外1名「高速楕円近似による視線位置計測システム」、第9回生体・生理工学シンポジウム論文集、p.127−P.130、1994」や、「坂井孝光、外1名「顔と視線の移動を許容するリアルタイム電子瞳孔計の開発」、日本エム・イー学会 甲信越支部・北陸支部合同大会ポスターセッション、August31,2002」などに記述されている。
また、上記した本発明実施形態によれば、顔のパーツとして目の動きについてのみ例示したが、口の動きについても同様に認識することで応用が可能である。また、対象として冊子についてのみ示したが、電子書籍についても同様に応用が可能である。
以上、この発明の実施形態につき、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
【図面の簡単な説明】
【図1】本発明の内部構成を示すブロック図である。
【図2】本発明の一実施形態を示す図である。
【図3】本発明の他の実施形態を示す図である。
【図4】本発明の更に他の実施形態を示す図である。
【図5】本発明の更に他の実施形態を示す図である。
【図6】本発明一実施形態の動作を示すフローチャートである。
【符号の説明】
10…意志伝達部、11…視線方向判定部、12…意思伝達起動部、13…画像処理部、14…装置制御部、21、31、32…単眼カメラ、22〜26…機能ボタン、27…冊子、41、42…超音波センサ、51、52…赤外線センサ
【発明の属する技術分野】
本発明は、特に、障害者向けの冊子自動頁めくり装置に用いて好適な、ユーザインタフェース装置および意思伝達方法に関する。
【0002】
【従来の技術】
従来、上記した冊子自動頁めくり装置における頁めくりの指示は、リモコンボタンによる操作がほとんどであった。また、リモコンボタンでの操作が困難な場合は、例えば、吸気、タッチ式ビッグボタン、音声スイッチ等のサブスイッチにより、頁めくりを実現していた。尚、従来技術としては特許文献1〜4が公開されている(特許文献1〜4参照)。
【0003】
【特許文献1】
特開平5−124377号公報
【特許文献2】
特開平5−189602号公報
【特許文献3】
特開平5−313665号公報
【特許文献4】
特開平6−308371号公報
【0004】
【発明が解決しようとする課題】
しかしながら、身体障害者が文字を読む場合、必ずしも上記した吸気や音声等が使用可能であるとは限らない。但し、本を読むために、目は必要最低限の機能を有しているものと推測される。従って、目からの合図(サイン)のみで冊子の自動頁めくりを実現できれば好ましく、そのための冊子自動頁めくり装置の出現が望まれていた。
一方、特許文献4では、視線方向の検出に関して、瞬きはノイズとして処理されていたが、この瞬きをサインとして捉え、頁めくりのためのトリガとして扱えることができれば、自動で頁めくりを行う冊子自動頁めくり装置への適用が可能である。
【0005】
本発明は上記事情に鑑みてなされたものであり、顔を構成する部位の動きを読み取って装置に使用者の意思を伝達することにより、頁めくり等、装置の動きを自動コントロール可能な、ユーザインタフェース装置および意思伝達方法を提供することを目的とする。
【0006】
【課題を解決するための手段】
上記した課題を解決するために本発明は、対象物に対する動きが規定される機能ボタンが配置された装置に対して使用者の意思を伝達するユーザインタフェース装置であって、前記使用者の顔を構成する部位の動きを読み取り、前記機能ボタンの位置を認識して使用者の意思を伝達する意思伝達部、を備えたことを特徴とする。
【0007】
本発明によれば、意思伝達部が、使用者の顔を構成する部位の動きを読み取り、機能ボタンの位置を認識して使用者の意思を伝達することにより、従来、ボタンを押す能力や吸気を吹き込む身体能力が備わっていなければ実現できなかった、例えば、冊子自動頁めくりの操作が、目や口等顔を構成するパーツの機能のみが健丈であれば実現できるユーザインタフェースを提供することができる。
【0008】
また、本発明において、前記意思伝達部は、前記使用者の眼球運動を測定して視線方向を判定する視線方向判定部と、所定回数の瞬き、もしくは所定時間の直視を検出して前記使用者の意思を伝達する意思伝達起動部と、を備えることを特徴とする。
【0009】
本発明によれば、視線方向判定部が使用者の眼球運動を測定して視線方向を判定し、意志伝達起動部が所定回数の瞬き、もしくは所定時間の直視を検出して使用者の意思を伝達することにより、例えば、自動冊子頁めくりの操作が実現できるユーザインタフェースを提供することができる。
【0010】
また、本発明において、前記視線方向判定部は、カメラにより撮影された映像を画像処理して瞳孔中心を検出し、所定の演算式を演算することによって視線方向を判定することを特徴とする。
【0011】
本発明によれば、視線方向判定部が、カメラにより撮影された映像を画像処理して瞳孔中心を検出し、所定の演算式を演算することによって視線方向を判定することで、従来、ボタンを押す能力や吸気を吹き込む身体能力が備わっていなければ実現できなかった、例えば、冊子自動頁めくりの操作が実現できるユーザインタフェースを提供することができる。
【0012】
また、本発明において、前記意思伝達部は、目に赤外線もしくは超音波を照射してその反射光をセンサで捕らえ、所定回数の瞬き、もしくは所定時間の直視を検出して前記使用者の意思を伝達することを特徴とする。
【0013】
本発明によれば、意思伝達部が、目に赤外線もしくは超音波を照射してその反射光をセンサで捕らえ、所定回数の瞬き、もしくは所定時間の直視を検出して使用者の意思を伝達することで、視線方向を判定することなく簡易の冊子自動頁めくり装置を実現できる。
【0014】
上記した課題を解決するために本発明は、対象物に対する動きが規定される機能ボタンが配置された装置に対して使用者の意思を伝達する意思伝達方法であって、前記使用者の顔を構成する部位の動きを読み取り、前記機能ボタンの位置を認識して使用者の意思を伝達すること、を特徴とする。
【0015】
本発明によれば、使用者の顔を構成する部位の動きを読み取り、機能ボタンの位置を認識して使用者の意思を伝達することにより、従来、機能ボタンを押す能力や吸気を吹き込む身体能力が備わっていなければ実現できなかった、例えば、冊子自動頁めくりの操作が、目や口等顔を構成するパーツの機能のみが健丈であれば実現できる。
【0016】
【発明の実施の形態】
図1は、本発明のユーザインタフェース装置の内部構成を示すブロック図であり、ここでは、冊子自動頁めくり装置が示されている。
本発明は、対象物に対する動きが規定される機能ボタンが配置された、例えば冊子自動頁めくり装置に対して使用者の意思を伝達するユーザインタフェース装置であって、使用者の顔を構成する部位の動きを読み取り、機能ボタンの位置を認識して使用者の意思を伝達する意思伝達部10を備える。
【0017】
この意志伝達部10は、使用者の眼球運動を測定して視線方向を判定する視線方向判定部11と、所定回数の瞬き、もしくは所定時間の直視を検出して使用者の意思を伝達する意思伝達起動部12で構成される。
視線方向判定部11、意志伝達起動部12は共に、画像処理部13による画像処理結果を入力として得、ここで視線方向を判定し、あるいは瞬き、直視を検出した結果は、装置制御部14に供給され、装置制御部14で、例えば、冊子自動頁めくり等が制御される。
【0018】
図2は、本発明の一実施形態を説明するために引用した図である。ここでは、装置の上部に単眼カメラ21が装着されており、また、装置上に、「左頁めくり」、「キャンセル」、「目次」、「右頁めくり」の各操作指示ボタン(それぞれ、22〜25)が機能ボタンとして割付けられ配置されている。また、0〜9の数字ボタン26も機能ボタンとして割付けられ配置されている。27は、頁めくりの対象となる冊子である。
【0019】
図6は、本発明実施形態の動作を説明するために引用したフローチャートである。以下、図6に示すフローチャートを参照しながら図1、図2に示す本発明一実施形態の動作について説明する。
図2に示す実施形態は、視線の方向を判別できる赤外線センサを搭載した単眼カメラ21で人間の目の視線方向を認識し、その目のサインを単眼カメラ21による撮影画像を画像認識することで判別するものである。
例えば、単眼カメラ21により撮影された映像を画像認識により、読者がボタン「左頁めくり」を見ていることを判定し(S61)、次に、読者が、2回/秒程度の速さで瞬きをしたら(S62Yes)同じく画像認識により、自動で「左頁めくり」の操作を起動する(S63「左頁めくり」)。視線方向の判定は図1に示す意志伝達部10を構成する視線方向判定部11が、また、装置に対する左頁めくりの起動は、同じく意志伝達部10を構成する意思伝達起動部12が行う。
【0020】
なお、視線方向判定部11による視線方向の判定は眼球運動を測定することにより実践される。眼球運動の測定原理には多数あるが、その代表例を以下に列挙する。
一つは、上記したように、画像処理によるものである。すなわち、眼球自体の映像を画像処理し、瞳孔中心を検出して視線方向を判定する方法である。また、他の一つは、目に微弱赤外線を照射してその反射光をセンタで捉えて視線方向を判定する方法である。白目の部分は、黒目の部分に比較して光の反射率が高いため、視線方向が変化すると眼球で反射される光の量も変化する。これを光電変換することで視線方向を判定することができる。
【0021】
他に、角膜反射法、眼球電位法(EOG:Electro−Oculography)がある。前者は、角膜で反射された光を捉えることにより視線方向を判定し、後者は、眼球が前側と後側で異なる電位を持つことから、眼球の上下に電極を付けて眼球が回転した際に眼球の前側と後側の電位差を検出することで視線方向を判定するものである。
いずれもカメラを頭部に固定する必要があることからここでは用いない。
【0022】
なお、「目次」、「右頁めくり」の動作についても同様である。また、数字ボタン26を順番に、「1」、「6」と見た後、「右頁めくり」ボタンを見ながら2回/秒程度の速さで瞬きを検出したら16頁分を纏めて右頁めくりを実行することも可能である。また、操作を途中でキャンセルしたい場合は、キャンセルボタン23を見ながら、同様に2回/秒程度の速さで瞬きを行うことにより実現できる。
更に、サインは、2回/秒の瞬きに限らず、2回以上/秒程度の速さ、一定時間以上の直視であっても構わない。また、順方向は勿論、「左頁めくり」等逆方向めくり、「目次」へのジャンプ、上記した複数頁めくり等々様々な操作が可能である。
【0023】
次に、ステレオカメラを装着した場合の実施形態について図3、図6を参照しながら説明する。
ここでは視線方向を判別できるように、単眼カメラを複数(31、32)装着してステレオカメラとし、ステレオ視で読者の目を認識し、そのサインを画像認識で判別する。例えば、ステレオカメラ31、32により撮影された映像を画像認識により、読者がボタン「左頁めくり」を見ていることを判定し(S61)、次に、読者が、2回/秒程度の速さで瞬きをしたら(S62Yes)同じく画像認識により、自動で「左頁めくり」の操作を起動する(S63「左頁めくり」)。視線方向の判定は図1に示す意志伝達部10を構成する視線方向判定部11が、また、左頁めくりの起動は、同じく意志伝達部10を構成する意思伝達起動部12が行う。
【0024】
なお、視線方向判定部11による視線方向の判定は、図2に示す実施形態同様、眼球運動を測定することにより実践される。また、ステレオカメラを装着した場合は、単眼カメラの光の反射特性を距離情報として用い、三角測量により視線の方向を認識することになる。
【0025】
次に、図4、図5を用いて他の実施形態について説明する。図4、図5は共に視線方向を判別することなく、サインの認識のみで冊子自動頁めくりを実現する単機能版であり、超音波を用い(図4)、あるいは赤外線を用いて認識する(図5)それぞれの例を示す。
【0026】
図4に示す実施形態では超音波センサ41、42が装着される。超音波センサ41、42で受信される瞬き信号を感知することで判別するものである。例えば、読者が右方向を向きながら瞬きをした場合と、左方向を向きながら瞬きをした場合とでは、左右の超音波センサ41、42による受信信号のレベルは異なり、それによっていずれの方向に頁をめくれば良いかを判断することができる。
瞬きの速さはカメラを用いた実施形態同様、2回/秒程度を検出した場合、信号認識により頁をめくることとする。本実施形態においては、正面を向いて規定の瞬きをした場合に「目次」に戻ることになる。ここでは、視線方向を認識しない単機能版であるため、割り付けられるボタンは、図2、図3に示す実施形態に比較して少ないものとなっている。
【0027】
なお、サインは、2回/秒程度の瞬きに限らず、2回以上/数秒程度の速さ、一定時間以上の直視であっても良い。また、片目だけの瞬きでも頁めくりの判断は可能である。更に、順方向めくりは勿論のこと、逆方向めくり、目次へのジャンプ等、割り付けるボタンは任意である。
【0028】
図5に示す実施形態では赤外線センサ51、52が装着される。赤外線センサ51、52で受信される瞬き信号を感知することで判別するものである。例えば、読者が右方向を向きながら瞬きをした場合と、左方向を向きながら瞬きをした場合とでは、左右の赤外線センサ51、52による受信信号のレベルは異なり、それによっていずれの方向に頁をめくれば良いかを判断することができる。
瞬きの速さはカメラや超音波を用いた実施形態同様、2回/秒程度を検出した場合、信号認識により頁をめくることとする。本実施形態においては、正面を向いて規定の瞬きをした場合に「目次」に戻ることになる。ここでは、視線方向を認識しない単機能版であるため、割り付けられるボタンは、図2、図3に示す実施形態に比較して少ないものとなっている。
【0029】
なお、サインは、2回/秒程度の瞬きに限らず、2回以上/数秒程度の速さ、一定時間以上の直視であっても良い。また、片目だけの瞬きでも頁めくりの判断は可能である。更に、順方向めくりは勿論のこと、逆方向めくり、目次へのジャンプ等、割り付けるボタンは任意である。
【0030】
更に、単眼カメラやステレオカメラを用いた単機能版も考えられ、この場合のサインは、片目のみで頁をめくりたい方向を向く等のパターンが考えられる。
【0031】
なお、カメラによる視線方向の判定については、その原理、演算式ともに、「小池英樹、外2名、「机型実世界指向システムにおける紙と電子情報の統合および手指による実時間インタラクションの実現」、情報処理学会論文誌、Vol.42、No.3、pp.577−585、March2001」や、「松田圭司、外1名「高速楕円近似による視線位置計測システム」、第9回生体・生理工学シンポジウム論文集、p.127−P.130、1994」や、「坂井孝光、外1名「顔と視線の移動を許容するリアルタイム電子瞳孔計の開発」、日本エム・イー学会 甲信越支部・北陸支部合同大会ポスターセッション、August31,2002」などに記述されている。
また、上記した本発明実施形態によれば、顔のパーツとして目の動きについてのみ例示したが、口の動きについても同様に認識することで応用が可能である。また、対象として冊子についてのみ示したが、電子書籍についても同様に応用が可能である。
以上、この発明の実施形態につき、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
【図面の簡単な説明】
【図1】本発明の内部構成を示すブロック図である。
【図2】本発明の一実施形態を示す図である。
【図3】本発明の他の実施形態を示す図である。
【図4】本発明の更に他の実施形態を示す図である。
【図5】本発明の更に他の実施形態を示す図である。
【図6】本発明一実施形態の動作を示すフローチャートである。
【符号の説明】
10…意志伝達部、11…視線方向判定部、12…意思伝達起動部、13…画像処理部、14…装置制御部、21、31、32…単眼カメラ、22〜26…機能ボタン、27…冊子、41、42…超音波センサ、51、52…赤外線センサ
Claims (5)
- 対象物に対する動きが規定される機能ボタンが配置された装置に対して使用者の意思を伝達するユーザインタフェース装置であって、
前記使用者の顔を構成する部位の動きを読み取り、前記機能ボタンの位置を認識して使用者の意思を伝達する意思伝達部、
を備えたことを特徴とするユーザインタフェース装置。 - 前記意思伝達部は、
前記使用者の眼球運動を測定して視線方向を判定する視線方向判定部と、
所定回数の瞬き、もしくは所定時間の直視を検出して前記使用者の意思を伝達する意思伝達起動部と、
を備えることを特徴とする請求項1に記載のユーザインタフェース装置。 - 前記視線方向判定部は、
カメラにより撮影された映像を画像処理して瞳孔中心を検出し、所定の演算式を演算することによって視線方向を判定することを特徴とする請求項2に記載のユーザインタフェース装置。 - 前記意思伝達部は、
目に赤外線もしくは超音波を照射してその反射光をセンサで捕らえ、所定回数の瞬き、もしくは所定時間の直視を検出して前記使用者の意思を伝達することを特徴とする請求項1に記載のユーザインタフェース装置。 - 対象物に対する動きが規定される機能ボタンが配置された装置に対して使用者の意思を伝達する意思伝達方法であって、
前記使用者の顔を構成する部位の動きを読み取り、前記機能ボタンの位置を認識して使用者の意思を伝達すること、
を特徴とする意思伝達方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003044367A JP2004252849A (ja) | 2003-02-21 | 2003-02-21 | ユーザインタフェース装置および意思伝達方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003044367A JP2004252849A (ja) | 2003-02-21 | 2003-02-21 | ユーザインタフェース装置および意思伝達方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004252849A true JP2004252849A (ja) | 2004-09-09 |
Family
ID=33027090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003044367A Withdrawn JP2004252849A (ja) | 2003-02-21 | 2003-02-21 | ユーザインタフェース装置および意思伝達方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004252849A (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006095208A (ja) * | 2004-09-30 | 2006-04-13 | Sophia Co Ltd | 遊技機 |
JP2012105832A (ja) * | 2010-11-17 | 2012-06-07 | Kyoraku Sangyo Kk | ぱちんこ遊技機 |
JP2012105833A (ja) * | 2010-11-17 | 2012-06-07 | Kyoraku Sangyo Kk | ぱちんこ遊技機 |
JP2012105831A (ja) * | 2010-11-17 | 2012-06-07 | Kyoraku Sangyo Kk | ぱちんこ遊技機 |
JP2012105834A (ja) * | 2010-11-17 | 2012-06-07 | Kyoraku Sangyo Kk | ぱちんこ遊技機 |
CN103345305A (zh) * | 2013-07-22 | 2013-10-09 | 百度在线网络技术(北京)有限公司 | 用于移动终端输入法的候选词控制方法、装置和移动终端 |
CN103841250A (zh) * | 2012-11-22 | 2014-06-04 | 纳讯(青岛)通信有限公司 | 一种手机 |
JP2015081057A (ja) * | 2013-10-24 | 2015-04-27 | 日産自動車株式会社 | 車両用表示装置 |
JP2016024577A (ja) * | 2014-07-18 | 2016-02-08 | 株式会社Nttドコモ | ユーザ挙動記録装置、ユーザ挙動記録方法、プログラム |
US10761329B2 (en) | 2016-01-05 | 2020-09-01 | Qd Laser, Inc. | Image projection device |
WO2021084653A1 (ja) | 2019-10-30 | 2021-05-06 | アイマトリックスホールディングス株式会社 | アイコンタクト検出装置 |
-
2003
- 2003-02-21 JP JP2003044367A patent/JP2004252849A/ja not_active Withdrawn
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4640926B2 (ja) * | 2004-09-30 | 2011-03-02 | 株式会社ソフイア | 遊技機 |
JP2006095208A (ja) * | 2004-09-30 | 2006-04-13 | Sophia Co Ltd | 遊技機 |
JP2012105832A (ja) * | 2010-11-17 | 2012-06-07 | Kyoraku Sangyo Kk | ぱちんこ遊技機 |
JP2012105833A (ja) * | 2010-11-17 | 2012-06-07 | Kyoraku Sangyo Kk | ぱちんこ遊技機 |
JP2012105831A (ja) * | 2010-11-17 | 2012-06-07 | Kyoraku Sangyo Kk | ぱちんこ遊技機 |
JP2012105834A (ja) * | 2010-11-17 | 2012-06-07 | Kyoraku Sangyo Kk | ぱちんこ遊技機 |
CN103841250A (zh) * | 2012-11-22 | 2014-06-04 | 纳讯(青岛)通信有限公司 | 一种手机 |
CN103345305A (zh) * | 2013-07-22 | 2013-10-09 | 百度在线网络技术(北京)有限公司 | 用于移动终端输入法的候选词控制方法、装置和移动终端 |
JP2015081057A (ja) * | 2013-10-24 | 2015-04-27 | 日産自動車株式会社 | 車両用表示装置 |
JP2016024577A (ja) * | 2014-07-18 | 2016-02-08 | 株式会社Nttドコモ | ユーザ挙動記録装置、ユーザ挙動記録方法、プログラム |
US10761329B2 (en) | 2016-01-05 | 2020-09-01 | Qd Laser, Inc. | Image projection device |
WO2021084653A1 (ja) | 2019-10-30 | 2021-05-06 | アイマトリックスホールディングス株式会社 | アイコンタクト検出装置 |
JPWO2021084653A1 (ja) * | 2019-10-30 | 2021-11-18 | アイマトリックスホールディングス株式会社 | アイコンタクト検出装置 |
US11657134B2 (en) | 2019-10-30 | 2023-05-23 | Imatrix Holdings Corp. | Eye contact detection device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10353460B2 (en) | Eye and head tracking device | |
TW209283B (ja) | ||
KR20190100957A (ko) | 외부 조건들에 기초한 웨어러블 디스플레이 디바이스의 자동 제어 | |
JP2739331B2 (ja) | 非接触視線検出装置 | |
CN105446474B (zh) | 可穿戴智能设备及其交互的方法、可穿戴智能设备*** | |
JP2004252849A (ja) | ユーザインタフェース装置および意思伝達方法 | |
JP2003140823A5 (ja) | ||
Liu et al. | Electronic travel aids for the blind based on sensory substitution | |
JP2009213779A (ja) | 車両用操作入力装置 | |
JP3272906B2 (ja) | 視線方向検出方法及び装置及びそれを含むマンマシンインターフェース装置 | |
WO2021073743A1 (en) | Determining user input based on hand gestures and eye tracking | |
JP7455167B2 (ja) | ヘッドマウント情報処理装置 | |
JP2019159193A (ja) | 視覚障がい者用行動支援装置 | |
JP6507252B2 (ja) | 機器操作装置、機器操作方法、及び電子機器システム | |
JP2006271798A (ja) | 生体情報処理システム。 | |
US20210137772A1 (en) | Multi-Functional Guide Stick | |
JP2004301869A (ja) | 音声出力装置およびポインティングデバイス | |
KR20120054739A (ko) | 사용자 인식을 통한 차량 유저인터페이스 제공 시스템 | |
JP2018124457A (ja) | 顔画像処理装置 | |
US20150199918A1 (en) | Blind aid device | |
TW201201090A (en) | Virtual keyboard input system | |
JPH11184621A (ja) | 視線入力装置 | |
JPH1173273A (ja) | 肢体不自由者用入力装置 | |
US11270451B2 (en) | Motion parallax in object recognition | |
JPH11212715A (ja) | 視線入力装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060509 |