JP2008052590A - インターフェース装置及びその方法 - Google Patents

インターフェース装置及びその方法 Download PDF

Info

Publication number
JP2008052590A
JP2008052590A JP2006229572A JP2006229572A JP2008052590A JP 2008052590 A JP2008052590 A JP 2008052590A JP 2006229572 A JP2006229572 A JP 2006229572A JP 2006229572 A JP2006229572 A JP 2006229572A JP 2008052590 A JP2008052590 A JP 2008052590A
Authority
JP
Japan
Prior art keywords
hand
gesture
operator
image
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006229572A
Other languages
English (en)
Other versions
JP4267648B2 (ja
Inventor
Tsukasa Ike
司 池
Takahiro Taniguchi
恭弘 谷口
Ryuzo Okada
隆三 岡田
Kunihisa Kishikawa
晋久 岸川
Kentarou Yokoi
謙太朗 横井
Mayumi Yuasa
真由美 湯浅
Stenger Bjoern
シュテンガー ビヨン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2006229572A priority Critical patent/JP4267648B2/ja
Priority to US11/757,159 priority patent/US7844921B2/en
Priority to CNA2007101466668A priority patent/CN101131609A/zh
Publication of JP2008052590A publication Critical patent/JP2008052590A/ja
Application granted granted Critical
Publication of JP4267648B2 publication Critical patent/JP4267648B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/446Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering using Haar-like filters, e.g. using integral image techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】操作者の行うハンドジェスチャを認識し、これに基づき制御対象機器の制御を行うときに、操作者がより確実に操作できるインターフェース装置を提供する。
【解決手段】ジェスチャ情報表示部4は、操作に用いるジェスチャの一覧、ジェスチャ認識部2の認識結果、及び操作者の手と思われる部分の画像を表示し、操作者はジェスチャを覚えることなく画面を確認しながら操作を行えるようになると共に、ジェスチャ認識部2に認識させやすいように操作者が行うジェスチャを修正することが可能となり、操作性が向上する。
【選択図】 図1

Description

本発明は、操作者の手を含む画像を撮影し、手の形状及び動きを画像処理によって認識し、その結果に基づき制御対象機器を制御できるようにしたインターフェース装置に関する。
現在、テレビやコンピュータ等の機器を操作するためのインターフェース装置としては、リモコンやキーボード、マウスなどの指示装置を用いて操作を行うものが一般的である。しかしながら、これらのインターフェース装置では、指示装置を介して操作を行うために必ずしも直感的で分かりやすいものとはなっていない。また、指示装置を紛失してしまうとインターフェース装置を利用できなくなってしまう。
そこで、上記の課題を解決するためのインターフェース装置の一つとして、操作者が手を動かしたり手の姿勢を変化させたりすることにより、指示装置を用いることなく機器の操作を実現する、ハンドジェスチャユーザーインターフェース装置に関する技術が提案されてきた。
例えば、特許文献1では、ディスプレイに内蔵されたCCDカメラによって撮影した操作者を含む画像から、操作者の手の形状及び動きを認識し、これに基づき画面に表示されている指示アイコンの形状及び位置を変化させるといった表示制御を行うことにより、ハンドジェスチャによる指示を可能にしたインターフェース装置が開示されている。
一般に、上記のインターフェース装置では、操作者は予め定められた特定のハンドジェスチャ(例えば、手姿勢を作る、特定の手振りを行う、特定の軌跡に沿って手を動かすなどの行為)を行うことにより、特定のコマンドや位置等の指示を行う。
特開2004−78977公報
しかしながら、上記従来のインターフェース装置においては、操作者は指示に用いるハンドジェスチャを覚える必要があり、ジェスチャによる指示を行う上で負担となっていた。
そこで本発明は、上記問題点に鑑みなされたもので、操作者が指示に用いる特定のハンドジェスチャを覚えることなくスムーズに指示を与えられるようにしたインターフェース装置及びその方法を提供することを目的とする。
本発明は、操作者が手形状または手の動きによって制御対象装置に指示を与えるインターフェース装置において、前記操作者の手を含む画像が入力する画像入力部と、 前記入力画像から認識対象として1種類以上の前記手形状または前記手の動きを認識するジェスチャ認識部と、前記認識した手形状または手の動きに対応した指示情報に基いて前記制御対象装置を制御する制御部と、前記操作者が指示を与えるときに参照するために、認識が行いやすい模範的な手形状または手の動きを表示するジェスチャ情報表示部と、を備えることを特徴とするインターフェース装置である。
本発明によれば、操作者はインターフェース装置の操作に用いる手形状や手の動きを覚えることなく操作を行うことができる。
以下、本発明の一実施形態における制御対象装置を操作、制御するためのハンドジェスチャユーザーインターフェース装置(以下、略して「HGUI装置」という)について図面に基づいて説明する。
(第1の実施形態)
以下、第1の実施形態にかかるHGUI装置について、図1〜図8に基づいて説明する。
(1)HGUI装置の構成
図1は、第1の実施形態にかかるHGUI装置の構成を示すブロック図である。
撮像部1は、例えばCCDビデオカメラなどの撮像装置を用いて、操作者の手を含む画像を撮像し、これをジェスチャ認識部2に供給する。
ジェスチャ認識部2は、入力された画像から、認識対象ジェスチャが含まれる領域及びジェスチャの種類を求め、認識結果として出力する。
制御部3は、ジェスチャ認識部2が出力する認識結果に基づいて、制御対象機器(図示せず)の制御内容を決定し、実際に制御対象機器の制御を行う。
ジェスチャ情報表示部4は、操作者がHGUI装置に指示を与える際に参照するための情報を表示する。
(2)ジェスチャ認識部2
ジェスチャ認識部2の構成例として、例えば、米国特許出願公開第2002/0102024号に記載されている対象物評価装置を参考にして説明する。
図2は、ジェスチャ認識部2のブロック図である。
部分領域画像生成部21は、入力画像上のさまざまな位置にさまざまな大きさの部分領域を設定し、前記部分領域内の画像を切り出して対象物検出部22に供給する。ここで部分領域は、例えば図3に示すように、n種類のウィンドウサイズを用意し、そのそれぞれについて画面を走査させることによって設定する。
対象物検出部22は、入力として与えられた部分領域画像を所定のサイズに正規化を行った上で、ジェスチャ辞書格納部23に格納された辞書データを用いることにより、対象物かどうか判定を行う。
対象物であるかどうかの判定は、図4のように直列にm個接続された強識別器S(1),・・・,S(m)によって行われる。これらの強識別器Sは、それぞれn(m)個の弱識別器W(1),・・・,W(n)によって構成されており、各弱識別器Wは、正規化された入力画像中の特定部分を評価することにより、対象物であるかどうかを判定する。
各強識別器Sは、構成するn(m)個の弱識別器Wの判定結果を総合的に評価し、対象物であるかどうかを決定する。直列に接続された全ての強識別器Sが対象物であると決定した場合のみ、対象物検出部22は、入力画像を対象物として決定する。
弱識別器Wによる入力画像の評価方法について、図5を用いて説明を行う。
入力として与えられた部分領域画像は、N×Nの大きさに正規化された後、強識別器iを構成する各弱識別器W(i,1),・・・,W(i,n(i))において対象物かどうか判定される。
対象物判定は、弱識別器W毎に定義されている領域A及び領域Bについて、それぞれ領域内の全画素の輝度値の和SA及びSBを求め、その差を対象物判定閾値Tと比較することにより行う。ここで、領域A及び領域Bは、それぞれ図5に示すような1乃至2個の矩形領域によって表わされる。具体的な領域A及び領域Bの位置や形状及び対象物判定閾値Tについては、予め対象物画像及び非対象物画像を用いた学習により、対象物と非対象物を効果的に判別できるようなものを選んでおく。
これら弱識別器Wによる判定結果h(i,j,x)は、以下の式によって求められる。
Figure 2008052590
但し、S(i,j,x)、S(i,j,x)、T(i,j)は、それぞれ強識別器Siを構成する弱識別器Wjにおいて、入力画像xが与えられたときの領域A及び領域Bの輝度値の和及び対象物判定閾値である。また、p(i,j)={1,−1}はパリティを意味し、p(i,j)=−1の時は、S(i,j,x)−S(i,j,x)がT(i,j)より小さいときに対象物として判定される。
強識別器iの判定結果h(i,x)は、各弱識別器Wによる評価結果h(i,j,x)から以下の式によって得られる。
Figure 2008052590
ここでα(i,j)は、弱識別器W(i,j)の信頼性を表わしており、これは学習用画像における正答率に基づき決定される。
対象物検出部22における最終的な判定結果は、以下の式によって表わされる。
Figure 2008052590
複数種類の対象物について対象物か否かを判定する場合は、対象物毎に識別器を用意してそれぞれの対象物について上記の判定処理を行う。
なお、上記はジェスチャ認識手法の一例として示したものであり、上記手法に限定されることを意味しない。例えば、入力画像から生成した輪郭画像に対して模範画像との類似性を評価する方法や、入力画像における肌色領域のパターン類似性を評価する方法などを用いることも可能である。
(3)制御部3
制御部3は、ジェスチャ認識部2によって認識されたハンドジェスチャの種類及び位置に基づいて制御内容を決定し、制御対象装置の制御を行う。
ここでは、図6を用いて制御部3が行う制御の一例について説明する。
図6は、モニタ等に表示されるメニュー画面を表わしている。このメニュー画面は、操作者に制御部3の内部状態を知らせるために用いられる。メニュー画面は、複数個の矩形領域31によって構成されており、これらにはそれぞれ特定のコマンドが関連付けられている。
矩形領域31eは、他の矩形領域と異なる色(図ではハッチングで示されている)で表示されているが、これは矩形領域31eに対応するコマンドが現在選択されていることを意味する。
操作者は、撮像部1に向かって図7(a)で表わされる手姿勢を保ちながら手を上下左右に移動させることにより、制御部3は、メニュー画面上で選択されている矩形領域を手の動きにあわせて変更する。例えば、図6の状態において、操作者が図7(a)の手姿勢を保ちながら手を左に一定量移動させると、矩形領域31eの選択状態が解除され、矩形領域31dが選択される。
操作者は、撮像部1に向かって図7(b)で表わされる手姿勢を行うことにより、制御部3は、現在選択されている矩形領域に関連付けられたコマンドを実行する。例えば、図6の状態において、操作者が図7(b)の手姿勢を行うと、制御部は矩形領域31eに関連付けられたコマンド(例えば、ビデオレコーダであれば録画予約、映像ライブラリ呼び出しなど)を実行する。
(4)ジェスチャ情報表示部4
上記したように従来のHGUI装置は、操作者が指示を行う際に、図7に示すようなハンドジェスチャを覚えている必要がある。このため、操作者は操作に用いるハンドジェスチャを正確に覚える努力をするか、または、手元に説明書などをおいてこれを参照しながら操作を行う必要があり、操作者に大きな負担を強いることになる。
そこで、本実施形態においては、ジェスチャ情報表示部4を用いて操作者に操作に用いるハンドジェスチャを提示している。
本実施形態におけるジェスチャ情報表示部4について図8に基づいて説明する。図8は、図6のメニュー画面を対して、ジェスチャ一覧表示部4を実装したメニュー画面を表わしている。
ジェスチャ情報表示部4は、ジェスチャ認識部2が認識対象とするジェスチャを表示する1個以上の認識対象ジェスチャ表示部42から構成されるジェスチャ一覧表示部41を有している。
認識対象ジェスチャ表示部42は、ジェスチャ画像表示部43と、ジェスチャ名称表示部44によって構成される。
ジェスチャ画像表示部43には、認識対象ジェスチャを視覚的に表わす画像が表示される。表示される画像は静止画像であっても動画像であってもよく、例えば、手形状によるジェスチャであれば、ジェスチャ認識部2が認識しやすい模範的な手姿勢(以後、模範手姿勢という)を示す静止画像を表示する。
また、手振り(手の動き)によるハンドジェスチャであれば、模範的な手の軌跡を表わすイラストを表示しても良いし、実際に手を動かしている動画を表示しても良い。
ジェスチャ名称表示部44には、認識対象ジェスチャの名称が表示される。
(5)効果
以上のように、第1の実施形態にかかるHGUI装置においては、操作に用いるジェスチャをジェスチャ情報表示部4に一覧表示することにより、操作者は操作に用いるジェスチャを予め覚えることなく、ジェスチャ情報を確認しながら装置の操作を行うことが可能となり、装置の操作性を向上させることができる。
(6)変更例
(6−1)変更例1
認識対象ジェスチャ表示部42の目的は、操作者にジェスチャ認識部2が認識対象としているジェスチャを視覚的に提示することであるから、この目的を達成可能なさまざまな形態をとることができる。例えば、認識対象ジェスチャ表示部42を、ジェスチャ画像表示部43のみで構成することも考えられる。
(6−2)変更例2
ジェスチャ情報表示部4は、上記の説明で述べた図6の形態のインターフェース装置への適用に限定されず、異なる形態のインターフェース装置への適用も可能である。例えば、特許文献1で開示されているインターフェイス装置において、ディスプレイの表示画面上の一部の領域にジェスチャ情報表示部4を設けることも可能である。
(6−3)変更例3
ジェスチャ情報表示部4は、操作対象装置を構成する画面上に設ける必要はなく、ジェスチャ情報を表示するための画面表示装置(例えば、小型のディスプレイや、PDAなど)を別途用意しても良い。
例えば、操作対象装置には図6のようなジェスチャ一覧表示部41を備えないメニュー画面を表示し、ジェスチャ情報を別途用意した画面表示装置に表示しても良い。また例えば、エアコンなど画面表示装置を備えない装置を操作するためのユーザーインターフェース装置において、ジェスチャ情報を手元にある画面表示装置に表示しても良い。
(第2の実施形態)
以下、第2の実施形態であるHGUI装置について、図9〜図13に基づいて説明する。
第1の実施形態においては、操作に用いるハンドジェスチャの一覧をジェスチャ情報表示部4に表示することにより、操作者は操作に用いるジェスチャの種類及び対応する模範的な手姿勢を覚えることなく、ハンドジェスチャの一覧を確認しながら操作ができる。
ところが、操作者が一覧表示された模範手姿勢を参照しながら手姿勢を行ったとしても、手姿勢が模範手姿勢と完全に一致せず、HGUI装置は操作者の手姿勢を必ずしも適切に認識できないことがある。
このとき、操作者は自分の手姿勢をHGUI装置がどのように認識しているかが分からないため、HGUI装置が認識しやすいように自分の手姿勢を修正することができず、操作をスムーズに行うことができない可能性がある。
そこで、本実施形態にかかるHGUI装置においては、ジェスチャ認識結果の表示を行う認識結果表示部61を備えている。これにより、操作者が行う手姿勢がHGUI装置からどのように認識されているかを知ることが可能となり、操作者は提示された認識結果に基づいて手姿勢を修正できる。
(1)HGUI装置の構成
図9は、第2の実施形態にかかるHGUI装置の構成を示すブロック図である。
本実施形態においては、ジェスチャ認識部5及びジェスチャ情報表示部6の機能が変更されたことが第1の実施形態と異なっている。以後の説明において、第1の実施形態と同一の構成及び機能のブロックについては同一符号を記し、説明を省略する。
撮像部1、制御部3は、図1のものと機能が同一であるため、ここでの説明を省略する。
(2)ジェスチャ認識部5
ジェスチャ認識部5のブロック図を図10に示す。
ジェスチャ評価部51は、入力画像中にさまざまな部分領域を設定し、これら部分領域内の画像に検出対象ジェスチャが含まれる可能性を評価してそれぞれスコアを算出し、評価結果をして出力する。
スコアの算出方法としては、図4及び図5で説明したジェスチャ認識手法を用いる場合には、例えば以下の式のように式(2)における弱識別器Wの評価結果及び信頼性を用いて算出することができる。
Figure 2008052590
また、入力画像から生成した輪郭画像に対して模範画像との類似性を評価する方法や、入力画像における肌色領域のパターン類似性を評価する方法であれば、模範データとの類似度をスコアとして用いても良い。
手候補領域選択部52は、ジェスチャ評価部51によって評価された複数の部分領域から、スコア値が高いものを手候補領域として選択する。
本実施形態では、スコア値が最も高い1個の領域を手候補領域として選択している。 しかし、これに限定されるものではなく、例えば、複数人のジェスチャを同時に認識する場合などには、スコア値の上位複数個の領域を選択することも考えられる。
ジェスチャ判定部53は、手候補領域が認識対象ジェスチャかどうか判定する。図4及び図5で説明したジェスチャ認識手法を用いる場合は、式(3)を用いて判定する。
(3)ジェスチャ情報表示部6
ジェスチャ情報表示部6のブロック図を図11に示す。
ジェスチャ一覧表示部41は、図8のものと機能が同一であるため、ここでの説明を省略する。
認識結果表示部61は、ジェスチャ認識結果を表示する。ここで、認識結果としては、少なくともジェスチャ認識部5によってどのハンドジェスチャが認識されたかが分かるための情報を含むものとする。前記情報としては、検出されたジェスチャの種類であってもよい。また、手候補領域選択部52によって選択された手候補領域に関して、ジェスチャ評価部51によって評価された各ハンドジェスチャである確率、及び各ジェスチャが含まれるかどうかを判定する閾値であってもよい。
ここでは、図12を用いてジェスチャ情報表示部6の実施形態の一例について説明する。図12はジェスチャ情報表示部6を備えたメニュー画面の一例を示している。
図12の例において、認識結果表示部61は、手候補領域内の部分領域画像を表示する手候補領域画像表示部62、操作者の手姿勢が検出対象である各ジェスチャとして認識されているかどうかを表示するジェスチャ検出結果表示部63、及び手候補領域の画像が各ジェスチャである確率を表示するジェスチャ確率表示部64によって構成される。
手候補領域画像表示部62は、手候補領域選択部22によって選択された手候補領域内の画像を切り出して表示する機能を有する。
ジェスチャ検出結果表示部63は、手候補領域画像表示部62の外枠として実装されている。ジェスチャ検出結果は、ジェスチャ検出結果表示部63の色によって示される。すなわち、認識対象ジェスチャ毎に固有の色(例えば、カーソル移動ジェスチャが青、決定ジェスチャが赤、など)を決めておき、認識対象ジェスチャとして認識された時は、ジェスチャ検出結果表示部63の色を認識されたジェスチャに対応する色に変化させることにより、操作者に該当するジェスチャとして認識されていることを知らせる。また、いずれのジェスチャとしても認識されなかったときは、認識されていないことを示す色(例えば、無色)に変化させることにより、認識されていないことを操作者に知らせる。
ジェスチャ確率表示部64は、本実施形態では棒グラフとして実装されており、認識対象ジェスチャのそれぞれについて1個ずつ用意される。棒グラフは、それぞれジェスチャ評価部51によって算出された対応するハンドジェスチャである確率を示すスコア値に基づいた長さで表示される。また、棒グラフの色は、それぞれの認識対象ジェスチャに固有の色(ジェスチャ検出結果表示部63と同様の色)とすることにより、操作者はどのハンドジェスチャに対応する確率であるかを識別できる。
(4)効果
操作者は、手候補領域画像表示部62に表示された画像を確認することにより、操作者の行っている手姿勢が撮像部1からどのように見えているかを知ることができる。
また、ジェスチャ検出結果表示部63の色を確認することにより、ジェスチャ検出結果を操作者が視覚的に確認することができる。
さらに、手候補領域画像表示部62に表示された画像をジェスチャ画像表示部43の画像を比較したり、ジェスチャ確率表示部64に表示された確率値を確認したりすることにより、操作者は自分が行っているハンドジェスチャが模範ジェスチャとどの程度異なっているかを確認できる。これにより、操作者はHGUI装置が認識しやすいようにジェスチャを修正することが可能となり、操作対象装置の操作をよりスムーズに行うことができるようになる。
以上のように、第2の実施形態にかかるHGUI装置においては、認識結果表示部61を用いて操作者が行う手姿勢がどのように認識されているかを表示することにより、操作者は認識結果を確認しながら自分が行う手姿勢を装置に認識させやすいように変えることが可能となり、HGUI装置の操作性をさらに向上させることができる。
(5)変更例
(5−1)変更例1
本実施形態において、認識結果表示部61は手候補領域画像表示部62とジェスチャ確率表示部64の双方を備えた構成となっているが、必ずしもこれらの双方を備えている必要はなく、いずれか一つのみを備えた場合にも上記問題点を解決することができる。すなわち、手候補領域画像表示部62のみを備えた場合には、ここに表示されて画像がジェスチャ画像表示部43の画像に近づくようにハンドジェスチャを修正することにより、より装置が認識しやすいハンドジェスチャを行うことが可能となる。
(5−2)変更例2
ジェスチャ確率表示部64のみを備えた場合には、ジェスチャ確率表示部64を確認しながら自分の行っているジェスチャを何通りかに変化させてジェスチャ確率が高くなるものを見つけることにより、より装置が認識しやすいハンドジェスチャを行うことが可能となる。
(5−3)変更例3
ジェスチャ検出結果表示部63の機能は、ジェスチャ確率表示部64で代替することも可能である。すなわち、図12に示すようにグラフにおけるジェスチャ判定閾値に相当する部分に印を表示しておくことにより、操作者はグラフの長さが閾値を越えたかどうかでジェスチャとして認識されているかどうかを知ることができる。あるいは、ジェスチャ一覧表示部41に表示された、ハンドジェスチャに対応するジェスチャ名称をハイライト表示しても良い。
(5−4)変更例4
ジェスチャ確率表示部64は、棒グラフ以外の外観であってもよい。例えば、グラフで表示する代わりに確率値そのものを表示してもよい。
(5−5)変更例5
ジェスチャ一覧表示部41と認識結果表示部61は、別々の領域に表示する必要はなく、図13に示すようにこれらの機能を融合した表示部を設けても良い。
図13の例では、ジェスチャ検出結果表示部63は、手候補領域画像表示部62の周囲に配置する代わりに、ジェスチャ一覧表示部41に表示されたジェスチャ画像表示部の周囲にジェスチャの種類毎に実装されており、これらは対応するジェスチャが認識されたときに色が変化することにより、ハンドジェスチャが認識されていることを操作者に知らせる。また、ジェスチャ確率表示部64をジェスチャ一覧表示部41における各ジェスチャ名称表示部の下部に配置することにより、どのジェスチャに対応した確率であるかを操作者がより判別しやすくなっている。
(5−6)変更例6
認識結果表示部61を用いた認識結果の表示は、手振りによるハンドジェスチャに対しても行うことができる。
例えば、検出された一連の手候補領域(以下、手振り候補という)について、位置の時系列情報及び手候補領域画像によって構成される手振り候補の情報を手候補領域情報記憶部(図示しない)に記憶しておく。
ここで、手振り候補の検出方法としては、手の輪郭等に着目した公知のトラッキング手法を用いることができる。ここで検出された手振り候補の位置に関する時系列情報について、理想的な手振りの時系列情報との距離dを算出することにより、理想的な手振りと操作者の手振りとの違いの大きさを算出する。
距離の算出方法としては、DPマッチングなどの公知の手法を用いることができる。ここで算出した距離d、及び該当する手振りに対応する正規分布N(μ,ρ2)に基づき、操作者の手振りが該当する手振りである確率pを以下のようにして算出する。
Figure 2008052590
ここで算出した確率pをジェスチャ確率表示部63に表示すると共に、手振り候補の情報に含まれる一連の手候補領域画像を、ジェスチャ一覧表示部41に表示された理想的な手振りを表わす動画と同期して手候補領域画像表示部62に表示することにより、操作者に自分が行う手振りが装置からどのように認識されているかを知らせることができる。
本発明の第1の実施形態のHGUI装置の構成例である。 ジェスチャ認識部2の構成例を示すブロック図である。 部分領域生成部21が生成する部分領域を説明する図である。 対象物検出部22における対象物検出方法について説明するための図である。 対象物検出部22における対象物検出方法について説明するための図である。 制御部3の制御の一例について説明するための図である。 操作に用いるジェスチャの一例を示す図である。 ジェスチャ情報表示部4を備えたハンドジェスチャユーザーインターフェースの例である。 第2の実施形態のHGUI装置の構成例である。 ジェスチャ認識部5の構成例を示すブロック図である。 ジェスチャ情報表示部6の構成例を示すブロック図である。 ジェスチャ情報表示部6を備えたハンドジェスチャユーザーインターフェースの例である。 ジェスチャ情報表示部6を備えたハンドジェスチャユーザーインターフェースの他の例である。
符号の説明
1 撮像部
2 ジェスチャ認識部
3 制御部
4 ジェスチャ情報表示部
5 ジェスチャ認識部
6 ジェスチャ情報表示部
21 部分領域生成部
22 対象物検出部
23 ジェスチャ辞書格納部
31 矩形領域
41 ジェスチャ一覧表示部
42 認識対象ジェスチャ表示部
43 ジェスチャ画像表示部
44 ジェスチャ名称表示部
51 ジェスチャ評価部
52 手候補領域選択部
53 ジェスチャ判定部
61 認識結果表示部
62 手候補領域画像表示部
63 ジェスチャ検出結果表示部
64 ジェスチャ確率表示部

Claims (8)

  1. 操作者が手形状または手の動きによって制御対象装置に指示を与えるインターフェース装置において、
    前記操作者の手を含む画像を入力する画像入力部と、
    前記入力画像から認識対象として1種類以上の前記手形状または前記手の動きを認識するジェスチャ認識部と、
    前記認識した手形状または手の動きに対応した指示情報に基いて前記制御対象装置を制御する制御部と、
    前記ジェスチャ認識部が認識可能な手形状または手の動きの模範的な画像を表示するジェスチャ情報表示部と、
    を備える
    ことを特徴とするインターフェース装置。
  2. 前記ジェスチャ情報表示部は、前記指示情報に対応した前記模範的な手形状または手の動きを一覧表示する
    ことを特徴とする請求項1記載のインターフェース装置。
  3. 前記ジェスチャ情報表示部は、前記認識した手形状または手の動きを表示する
    ことを特徴とする請求項1記載のインターフェース装置。
  4. 前記ジェスチャ認識部は、
    前記入力画像内の1個以上の部分領域のそれぞれについて、前記手形状または前記手の動きが含まれる確率を算出するジェスチャ評価部と、
    前記確率が最も高い部分領域を手候補領域として選択する手候補領域選択部と、
    前記手候補領域における前記確率が閾値以上のときに前記手形状または前記手の動きが含まれると認識するジェスチャ判定部と、
    を備える
    ことを特徴とする請求項1記載のインターフェース装置。
  5. 前記ジェスチャ情報表示部は、前記認識した手形状または手の動き及び前記確率を表示する
    ことを特徴とする請求項4記載のインターフェース装置。
  6. 前記ジェスチャ情報表示部は、前記手候補領域の画像を表示する
    ことを特徴とする請求項4記載のインターフェース装置。
  7. 操作者が手形状または手の動きによって制御対象装置に指示を与えるインターフェース方法において、
    前記操作者の手を含む画像を入力し、
    前記入力画像から認識対象として1種類以上の前記手形状または前記手の動きを認識し、
    前記認識した手形状または手の動きに対応した指示情報に基いて前記制御対象装置を制御し、
    前記操作者が指示を与えるときに参照するために、認識が行いやすい模範的な手形状または手の動きを表示する
    ことを特徴とするインターフェース方法。
  8. 操作者が手形状または手の動きによって制御対象装置に指示を与えるコンピュータのインターフェースプログラムにおいて、
    前記操作者の手を含む画像が入力する画像入力機能と、
    前記入力画像から認識対象として1種類以上の前記手形状または前記手の動きを認識するジェスチャ認識機能と、
    前記認識した手形状または手の動きに対応した指示情報に基いて前記制御対象装置を制御する制御機能と、
    前記操作者が指示を与えるときに参照するために、認識が行いやすい模範的な手形状または手の動きを表示するジェスチャ情報表示機能と、
    を実現する
    ことを特徴とするインターフェースプログラム。
JP2006229572A 2006-08-25 2006-08-25 インターフェース装置及びその方法 Expired - Fee Related JP4267648B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006229572A JP4267648B2 (ja) 2006-08-25 2006-08-25 インターフェース装置及びその方法
US11/757,159 US7844921B2 (en) 2006-08-25 2007-06-01 Interface apparatus and interface method
CNA2007101466668A CN101131609A (zh) 2006-08-25 2007-08-24 接口装置和接口方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006229572A JP4267648B2 (ja) 2006-08-25 2006-08-25 インターフェース装置及びその方法

Publications (2)

Publication Number Publication Date
JP2008052590A true JP2008052590A (ja) 2008-03-06
JP4267648B2 JP4267648B2 (ja) 2009-05-27

Family

ID=39128897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006229572A Expired - Fee Related JP4267648B2 (ja) 2006-08-25 2006-08-25 インターフェース装置及びその方法

Country Status (3)

Country Link
US (1) US7844921B2 (ja)
JP (1) JP4267648B2 (ja)
CN (1) CN101131609A (ja)

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010108476A (ja) * 2008-10-03 2010-05-13 Sony Corp 学習装置および方法、認識装置および方法、プログラム、並びに記録媒体
JP2010131947A (ja) * 2008-12-08 2010-06-17 Canon Inc 情報処理装置とその制御方法及び印刷装置とその制御方法
WO2010095204A1 (ja) * 2009-02-18 2010-08-26 株式会社 東芝 インターフェース制御装置、及びその方法
JP2010231355A (ja) * 2009-03-26 2010-10-14 Sanyo Electric Co Ltd 情報表示装置
EP2244166A2 (en) 2009-04-23 2010-10-27 Hitachi Consumer Electronics Co., Ltd. Input device using camera-based tracking of hand-gestures
EP2328061A2 (en) 2009-10-05 2011-06-01 Hitachi Consumer Electronics Co. Ltd. Input apparatus
WO2011115260A1 (ja) * 2010-03-18 2011-09-22 日本電信電話株式会社 情報入力装置、情報入力方法、及び情報入力プログラム
JP2011530135A (ja) * 2008-08-04 2011-12-15 マイクロソフト コーポレーション 表面コンピューティングのためのユーザ定義のジェスチャセット
JP2013037688A (ja) * 2011-08-05 2013-02-21 Samsung Electronics Co Ltd 電子装置及びその制御方法
EP2562620A1 (en) 2011-08-23 2013-02-27 Hitachi Consumer Electronics Co., Ltd. Input unit recognizing user's motion
US8413053B2 (en) 2009-12-22 2013-04-02 Kabushiki Kaisha Toshiba Video reproducing apparatus and video reproducing method
JP2013186500A (ja) * 2012-03-05 2013-09-19 Toshiba Tec Corp 操作支援表示装置およびプログラム
JP2013539565A (ja) * 2010-06-22 2013-10-24 マイクロソフト コーポレーション ユーザー追跡フィードバック
JP2013541092A (ja) * 2010-09-20 2013-11-07 コピン コーポレーション 動きおよび音声コマンドを用いたホストアプリケーションの高度なリモートコントロール
KR101328441B1 (ko) * 2012-06-07 2013-11-20 자동차부품연구원 차량용 스티어링 휠의 사용자 인터페이스 장치
JP2014053045A (ja) * 2008-07-25 2014-03-20 Qualcomm Inc ウェーブエンゲージメントジェスチャの改良された検出
JP2014085967A (ja) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd 情報処理装置、情報処理方法、及びプログラム
JP2014085966A (ja) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd 情報処理装置、情報処理方法、及びプログラム
US8891025B2 (en) 2010-11-24 2014-11-18 Panasonic Corporation Information processing device
CN104244049A (zh) * 2014-10-21 2014-12-24 三星电子(中国)研发中心 一种动态调节曲率和方向的曲面电视和方法
US8923559B2 (en) 2011-06-07 2014-12-30 Sony Corporation Image processing apparatus, image processing method, and program
JP2015038648A (ja) * 2010-12-24 2015-02-26 株式会社東芝 情報処理装置、制御方法およびプログラム
JP2015058804A (ja) * 2013-09-19 2015-03-30 アルパイン株式会社 車載システム
JP2016009379A (ja) * 2014-06-25 2016-01-18 株式会社デンソー 対象物検出装置及び要素選択装置
US9294607B2 (en) 2012-04-25 2016-03-22 Kopin Corporation Headset computer (HSC) as auxiliary display with ASR and HT input
US9316827B2 (en) 2010-09-20 2016-04-19 Kopin Corporation LifeBoard—series of home pages for head mounted displays (HMD) that respond to head tracking
US9323343B2 (en) 2013-01-31 2016-04-26 Panasonic Intellectual Property Corporation Of America Information processing method and information processing apparatus
US9369760B2 (en) 2011-12-29 2016-06-14 Kopin Corporation Wireless hands-free computing head mounted video eyewear for local/remote diagnosis and repair
US9377859B2 (en) 2008-07-24 2016-06-28 Qualcomm Incorporated Enhanced detection of circular engagement gesture
US9377862B2 (en) 2010-09-20 2016-06-28 Kopin Corporation Searchlight navigation using headtracker to reveal hidden or extra document data
US9507772B2 (en) 2012-04-25 2016-11-29 Kopin Corporation Instant translation system
JP2018501998A (ja) * 2014-09-30 2018-01-25 ヴァレオ、コンフォート、アンド、ドライビング、アシスタンスValeo Comfort And Driving Assistance 自動車の機器を制御するためのシステムおよび方法
JP2018092206A (ja) * 2016-11-30 2018-06-14 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
US10013976B2 (en) 2010-09-20 2018-07-03 Kopin Corporation Context sensitive overlays in voice controlled headset computer displays
JP2019519049A (ja) * 2016-06-23 2019-07-04 アリババ グループ ホウルディング リミテッド 手検出及び追跡方法並びに装置
US10474418B2 (en) 2008-01-04 2019-11-12 BlueRadios, Inc. Head worn wireless computer having high-resolution display suitable for use as a mobile internet device
US10627860B2 (en) 2011-05-10 2020-04-21 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
JP7234324B1 (ja) 2021-09-28 2023-03-07 三菱電機インフォメーションシステムズ株式会社 通知受付装置、通知受付方法及び通知受付プログラム

Families Citing this family (143)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200928892A (en) * 2007-12-28 2009-07-01 Wistron Corp Electronic apparatus and operation method thereof
DE102008020772A1 (de) * 2008-04-21 2009-10-22 Carl Zeiss 3D Metrology Services Gmbh Darstellung von Ergebnissen einer Vermessung von Werkstücken
JP4720874B2 (ja) * 2008-08-14 2011-07-13 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
US9202137B2 (en) 2008-11-13 2015-12-01 Google Inc. Foreground object detection from multiple images
US9134798B2 (en) 2008-12-15 2015-09-15 Microsoft Technology Licensing, Llc Gestures, interactions, and common ground in a surface computing environment
US8030914B2 (en) * 2008-12-29 2011-10-04 Motorola Mobility, Inc. Portable electronic device having self-calibrating proximity sensors
US8275412B2 (en) 2008-12-31 2012-09-25 Motorola Mobility Llc Portable electronic device having directional proximity sensors based on device orientation
US10019081B2 (en) * 2009-01-15 2018-07-10 International Business Machines Corporation Functionality switching in pointer input devices
US20100271312A1 (en) * 2009-04-22 2010-10-28 Rachid Alameh Menu Configuration System and Method for Display on an Electronic Device
US20100271331A1 (en) * 2009-04-22 2010-10-28 Rachid Alameh Touch-Screen and Method for an Electronic Device
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US8391719B2 (en) * 2009-05-22 2013-03-05 Motorola Mobility Llc Method and system for conducting communication between mobile devices
US8294105B2 (en) * 2009-05-22 2012-10-23 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting offset gestures
US8619029B2 (en) * 2009-05-22 2013-12-31 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting consecutive gestures
US8344325B2 (en) * 2009-05-22 2013-01-01 Motorola Mobility Llc Electronic device with sensing assembly and method for detecting basic gestures
US8788676B2 (en) 2009-05-22 2014-07-22 Motorola Mobility Llc Method and system for controlling data transmission to or from a mobile device
US8304733B2 (en) * 2009-05-22 2012-11-06 Motorola Mobility Llc Sensing assembly for mobile device
US8269175B2 (en) * 2009-05-22 2012-09-18 Motorola Mobility Llc Electronic device with sensing assembly and method for detecting gestures of geometric shapes
US8542186B2 (en) 2009-05-22 2013-09-24 Motorola Mobility Llc Mobile device with user interaction capability and method of operating same
JP5187280B2 (ja) * 2009-06-22 2013-04-24 ソニー株式会社 操作制御装置および操作制御方法
US8319170B2 (en) * 2009-07-10 2012-11-27 Motorola Mobility Llc Method for adapting a pulse power mode of a proximity sensor
CN101989378B (zh) * 2009-08-06 2012-10-10 广达电脑股份有限公司 遥控装置及其遥控方法
KR20110020642A (ko) * 2009-08-24 2011-03-03 삼성전자주식회사 사용자 접근을 인식하여 반응하는 gui제공 장치 및 방법
JP5412227B2 (ja) * 2009-10-05 2014-02-12 日立コンシューマエレクトロニクス株式会社 映像表示装置、および、その表示制御方法
US8261212B2 (en) * 2009-10-20 2012-09-04 Microsoft Corporation Displaying GUI elements on natural user interfaces
KR101623007B1 (ko) * 2009-11-11 2016-05-20 엘지전자 주식회사 디스플레이 장치 및 그 제어방법
US8622742B2 (en) * 2009-11-16 2014-01-07 Microsoft Corporation Teaching gestures with offset contact silhouettes
US20110117526A1 (en) * 2009-11-16 2011-05-19 Microsoft Corporation Teaching gesture initiation with registration posture guides
US8665227B2 (en) * 2009-11-19 2014-03-04 Motorola Mobility Llc Method and apparatus for replicating physical key function with soft keys in an electronic device
US20110141013A1 (en) * 2009-12-14 2011-06-16 Alcatel-Lucent Usa, Incorporated User-interface apparatus and method for user control
US8593402B2 (en) 2010-04-30 2013-11-26 Verizon Patent And Licensing Inc. Spatial-input-based cursor projection systems and methods
US8963845B2 (en) 2010-05-05 2015-02-24 Google Technology Holdings LLC Mobile device with temperature sensing capability and method of operating same
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8751056B2 (en) 2010-05-25 2014-06-10 Motorola Mobility Llc User computer device with temperature sensing capabilities and method of operating same
US9103732B2 (en) 2010-05-25 2015-08-11 Google Technology Holdings LLC User computer device with temperature sensing capabilities and method of operating same
JP2011253292A (ja) * 2010-06-01 2011-12-15 Sony Corp 情報処理装置および方法、並びにプログラム
US8520901B2 (en) 2010-06-11 2013-08-27 Namco Bandai Games Inc. Image generation system, image generation method, and information storage medium
JP5601045B2 (ja) * 2010-06-24 2014-10-08 ソニー株式会社 ジェスチャ認識装置、ジェスチャ認識方法およびプログラム
US20110317871A1 (en) * 2010-06-29 2011-12-29 Microsoft Corporation Skeletal joint recognition and tracking system
EP2421252A1 (en) * 2010-08-17 2012-02-22 LG Electronics Display device and control method thereof
EP2421251A1 (en) * 2010-08-17 2012-02-22 LG Electronics Display device and control method thereof
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8467599B2 (en) 2010-09-02 2013-06-18 Edge 3 Technologies, Inc. Method and apparatus for confusion learning
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
KR20120029228A (ko) * 2010-09-16 2012-03-26 엘지전자 주식회사 투명 디스플레이 장치 및 객체 정보 제공 방법
JP5881136B2 (ja) * 2010-09-27 2016-03-09 ソニー株式会社 情報処理装置及び方法、並びにプログラム
US20130229342A1 (en) * 2010-11-10 2013-09-05 Nec Corporation Information providing system, information providing method, information processing apparatus, method of controlling the same, and control program
US8920241B2 (en) * 2010-12-15 2014-12-30 Microsoft Corporation Gesture controlled persistent handles for interface guides
JP5653206B2 (ja) * 2010-12-27 2015-01-14 日立マクセル株式会社 映像処理装置
AU2010366331B2 (en) * 2010-12-30 2016-07-14 Interdigital Ce Patent Holdings User interface, apparatus and method for gesture recognition
US9176001B2 (en) * 2011-02-01 2015-11-03 Bonal Technologies, Inc. Vibration treatment method and graphical user interface
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
CN103430215B (zh) * 2011-03-21 2017-03-22 Lg电子株式会社 显示装置及其控制方法
EP2703950A4 (en) * 2011-04-28 2015-01-14 Nec Solution Innovators Ltd INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND RECORDING MEDIUM
US9619018B2 (en) 2011-05-23 2017-04-11 Hewlett-Packard Development Company, L.P. Multimodal interactions based on body postures
JP5747695B2 (ja) * 2011-07-07 2015-07-15 富士通株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US8217856B1 (en) 2011-07-27 2012-07-10 Google Inc. Head-mounted display that displays a visual representation of physical interaction with an input interface located outside of the field of view
US20130159940A1 (en) * 2011-08-22 2013-06-20 International Technological University Gesture-Controlled Interactive Information Board
US8751972B2 (en) * 2011-09-20 2014-06-10 Google Inc. Collaborative gesture-based input language
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
KR101322465B1 (ko) * 2011-11-17 2013-10-28 삼성전자주식회사 셀프 카메라 촬영을 위한 방법 및 장치
US9063591B2 (en) 2011-11-30 2015-06-23 Google Technology Holdings LLC Active styluses for interacting with a mobile device
US8963885B2 (en) 2011-11-30 2015-02-24 Google Technology Holdings LLC Mobile device for interacting with an active stylus
US9684379B2 (en) * 2011-12-23 2017-06-20 Intel Corporation Computing system utilizing coordinated two-hand command gestures
WO2013095677A1 (en) 2011-12-23 2013-06-27 Intel Corporation Computing system utilizing three-dimensional manipulation command gestures
WO2013095678A1 (en) 2011-12-23 2013-06-27 Intel Corporation Mechanism to provide feedback regarding computing system command gestures
JP2013164834A (ja) * 2012-01-13 2013-08-22 Sony Corp 画像処理装置および方法、並びにプログラム
JP2013206273A (ja) * 2012-03-29 2013-10-07 Sony Corp 情報処理装置、情報処理方法、および情報処理システム
JP5858850B2 (ja) * 2012-04-02 2016-02-10 三菱電機株式会社 空気調和機の室内機
US9141197B2 (en) * 2012-04-16 2015-09-22 Qualcomm Incorporated Interacting with a device using gestures
US9804759B2 (en) 2012-05-09 2017-10-31 Apple Inc. Context-specific user interfaces
US10649622B2 (en) 2012-05-09 2020-05-12 Apple Inc. Electronic message user interface
US10097496B2 (en) 2012-05-09 2018-10-09 Apple Inc. Electronic mail user interface
US10235014B2 (en) 2012-05-09 2019-03-19 Apple Inc. Music user interface
CN102750519A (zh) * 2012-05-30 2012-10-24 北京城市网邻信息技术有限公司 一种图像的识别及过滤方法和装置
KR102049475B1 (ko) * 2013-01-08 2020-01-08 삼성전자주식회사 입력 장치, 디스플레이 장치 및 제어 방법
TWI496094B (zh) * 2013-01-23 2015-08-11 Wistron Corp 手勢辨識模組及手勢辨識方法
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
CN103268150A (zh) * 2013-05-13 2013-08-28 苏州福丰科技有限公司 一种基于表情识别的智能机器人管控***及管控方法
CN103336578A (zh) * 2013-07-05 2013-10-02 广州新节奏智能科技有限公司 一种新型动作感应互动广告设备
US10188309B2 (en) 2013-11-27 2019-01-29 North Inc. Systems, articles, and methods for electromyography sensors
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
CN105683878B (zh) 2013-09-03 2019-05-07 苹果公司 用户界面中的用户界面对象操作
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
US20150193111A1 (en) * 2013-10-01 2015-07-09 Google Inc. Providing Intent-Based Feedback Information On A Gesture Interface
JP6349800B2 (ja) * 2014-03-12 2018-07-04 オムロン株式会社 ジェスチャ認識装置およびジェスチャ認識装置の制御方法
JP6550643B2 (ja) * 2014-03-14 2019-07-31 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
US11200542B2 (en) 2014-05-30 2021-12-14 Apple Inc. Intelligent appointment suggestions
US10782787B2 (en) * 2014-06-06 2020-09-22 Adobe Inc. Mirroring touch gestures
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
CN106462340B (zh) 2014-06-27 2019-09-13 苹果公司 尺寸减小的用户界面
TWI647608B (zh) 2014-07-21 2019-01-11 美商蘋果公司 遠端使用者介面
WO2016036509A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic mail user interface
TWI582641B (zh) 2014-09-02 2017-05-11 蘋果公司 按鈕功能性
CN115695632A (zh) 2014-09-02 2023-02-03 苹果公司 电话用户界面
US20160062571A1 (en) 2014-09-02 2016-03-03 Apple Inc. Reduced size user interface
CN113824998A (zh) 2014-09-02 2021-12-21 苹果公司 音乐用户界面
US10055121B2 (en) 2015-03-07 2018-08-21 Apple Inc. Activity based thresholds and feedbacks
AU2017100667A4 (en) 2016-06-11 2017-07-06 Apple Inc. Activity and workout updates
US11216119B2 (en) 2016-06-12 2022-01-04 Apple Inc. Displaying a predetermined view of an application
CN107491717B (zh) * 2016-06-13 2021-02-05 科大讯飞股份有限公司 ***检测方法和装置
DE102016111672A1 (de) * 2016-06-24 2017-12-28 Harting Electric Gmbh & Co. Kg Schnittstellenmodul, System mit einem Schnittstellenmodul und Verfahren zum Koppeln von Datenbussen
CN110300542A (zh) 2016-07-25 2019-10-01 开创拉布斯公司 使用可穿戴的自动传感器预测肌肉骨骼位置信息的方法和装置
US10489986B2 (en) * 2018-01-25 2019-11-26 Ctrl-Labs Corporation User-controlled tuning of handstate representation model parameters
WO2018022657A1 (en) 2016-07-25 2018-02-01 Ctrl-Labs Corporation System and method for measuring the movements of articulated rigid bodies
US10409371B2 (en) 2016-07-25 2019-09-10 Ctrl-Labs Corporation Methods and apparatus for inferring user intent based on neuromuscular signals
US11216069B2 (en) 2018-05-08 2022-01-04 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
US11000211B2 (en) 2016-07-25 2021-05-11 Facebook Technologies, Llc Adaptive system for deriving control signals from measurements of neuromuscular activity
WO2020112986A1 (en) 2018-11-27 2020-06-04 Facebook Technologies, Inc. Methods and apparatus for autocalibration of a wearable electrode sensor system
US11179066B2 (en) 2018-08-13 2021-11-23 Facebook Technologies, Llc Real-time spike detection and identification
US11331045B1 (en) 2018-01-25 2022-05-17 Facebook Technologies, Llc Systems and methods for mitigating neuromuscular signal artifacts
US20190121306A1 (en) 2017-10-19 2019-04-25 Ctrl-Labs Corporation Systems and methods for identifying biological structures associated with neuromuscular source signals
US20180096504A1 (en) * 2016-10-04 2018-04-05 Facebook, Inc. Controls and Interfaces for User Interactions in Virtual Spaces
FR3074327B1 (fr) * 2017-11-27 2021-04-23 Commissariat Energie Atomique Procede de commande d'un robot de manipulation et dispositif mettant en oeuvre un tel procede
EP3743892A4 (en) 2018-01-25 2021-03-24 Facebook Technologies, Inc. VISUALIZATION OF INFORMATION ON THE STATE OF A RECONSTRUCTED HAND
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
EP3743901A4 (en) 2018-01-25 2021-03-31 Facebook Technologies, Inc. REAL-TIME PROCESSING OF HAND REPRESENTATION MODEL ESTIMATES
WO2019148002A1 (en) 2018-01-25 2019-08-01 Ctrl-Labs Corporation Techniques for anonymizing neuromuscular signal data
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
WO2019147996A1 (en) 2018-01-25 2019-08-01 Ctrl-Labs Corporation Calibration techniques for handstate representation modeling using neuromuscular signals
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US10817795B2 (en) 2018-01-25 2020-10-27 Facebook Technologies, Llc Handstate reconstruction based on multiple inputs
US10937414B2 (en) 2018-05-08 2021-03-02 Facebook Technologies, Llc Systems and methods for text input using neuromuscular information
US10592001B2 (en) 2018-05-08 2020-03-17 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
EP3801743A4 (en) 2018-05-25 2021-08-04 Facebook Technologies, LLC PROCESSES AND APPARATUS FOR OBTAINING A SUB-MUSCULAR COMMAND
EP3801216A4 (en) 2018-05-29 2021-04-14 Facebook Technologies, LLC. SHIELDING TECHNIQUES FOR NOISE REDUCTION IN SURFACE ELECTROMYOGRAPHY SIGNAL MEASUREMENT AND RELATED SYSTEMS AND METHODS
CN112585600A (zh) 2018-06-14 2021-03-30 脸谱科技有限责任公司 使用神经肌肉标记进行用户识别和认证
US11045137B2 (en) 2018-07-19 2021-06-29 Facebook Technologies, Llc Methods and apparatus for improved signal robustness for a wearable neuromuscular recording device
EP4241661A1 (en) 2018-08-31 2023-09-13 Facebook Technologies, LLC Camera-guided interpretation of neuromuscular signals
US11435830B2 (en) 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
WO2020061451A1 (en) 2018-09-20 2020-03-26 Ctrl-Labs Corporation Neuromuscular text entry, writing and drawing in augmented reality systems
US10921764B2 (en) 2018-09-26 2021-02-16 Facebook Technologies, Llc Neuromuscular control of physical objects in an environment
WO2020072915A1 (en) 2018-10-05 2020-04-09 Ctrl-Labs Corporation Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment
US10905383B2 (en) 2019-02-28 2021-02-02 Facebook Technologies, Llc Methods and apparatus for unsupervised one-shot machine learning for classification of human gestures and estimation of applied forces
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof
JP2022171477A (ja) 2021-04-30 2022-11-11 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
US11893212B2 (en) 2021-06-06 2024-02-06 Apple Inc. User interfaces for managing application widgets
US20240103632A1 (en) * 2022-09-23 2024-03-28 Apple Inc. Probabilistic gesture control with feedback for electronic devices

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09185456A (ja) * 1995-04-28 1997-07-15 Matsushita Electric Ind Co Ltd インターフェイス装置
JPH11327753A (ja) * 1997-11-27 1999-11-30 Matsushita Electric Ind Co Ltd 制御方法及びプログラム記録媒体
JP2000075991A (ja) * 1998-08-28 2000-03-14 Aqueous Research:Kk 情報入力装置
JP2001216069A (ja) * 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
JP2001306049A (ja) * 2000-04-21 2001-11-02 Sony Corp 情報処理装置、動作認識過程表示方法及びプログラム格納媒体

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020126161A1 (en) * 1994-07-05 2002-09-12 Hitachi, Ltd. Information processing system
US6191773B1 (en) * 1995-04-28 2001-02-20 Matsushita Electric Industrial Co., Ltd. Interface apparatus
DE69626208T2 (de) * 1996-12-20 2003-11-13 Hitachi Europ Ltd Verfahren und System zur Erkennung von Handgesten
US6072494A (en) * 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6624833B1 (en) * 2000-04-17 2003-09-23 Lucent Technologies Inc. Gesture-based input interface system with shadow detection
US7099510B2 (en) 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
JP2002292020A (ja) * 2001-03-28 2002-10-08 Aruze Corp 遊技機、遊技機における確率変動状態継続確率の変化方法、記憶媒体、及びサーバ
EP1394727B1 (en) * 2002-08-30 2011-10-12 MVTec Software GmbH Hierarchical component based object recognition
US7225414B1 (en) * 2002-09-10 2007-05-29 Videomining Corporation Method and system for virtual touch entertainment
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
DE602004006190T8 (de) * 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
JP2004078977A (ja) 2003-09-19 2004-03-11 Matsushita Electric Ind Co Ltd インターフェイス装置
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US20060085414A1 (en) * 2004-09-30 2006-04-20 International Business Machines Corporation System and methods for reference resolution
US8250001B2 (en) * 2008-12-18 2012-08-21 Motorola Mobility Llc Increasing user input accuracy on a multifunctional electronic device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09185456A (ja) * 1995-04-28 1997-07-15 Matsushita Electric Ind Co Ltd インターフェイス装置
JPH11327753A (ja) * 1997-11-27 1999-11-30 Matsushita Electric Ind Co Ltd 制御方法及びプログラム記録媒体
JP2000075991A (ja) * 1998-08-28 2000-03-14 Aqueous Research:Kk 情報入力装置
JP2001216069A (ja) * 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
JP2001306049A (ja) * 2000-04-21 2001-11-02 Sony Corp 情報処理装置、動作認識過程表示方法及びプログラム格納媒体

Cited By (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10474418B2 (en) 2008-01-04 2019-11-12 BlueRadios, Inc. Head worn wireless computer having high-resolution display suitable for use as a mobile internet device
US10579324B2 (en) 2008-01-04 2020-03-03 BlueRadios, Inc. Head worn wireless computer having high-resolution display suitable for use as a mobile internet device
US9377859B2 (en) 2008-07-24 2016-06-28 Qualcomm Incorporated Enhanced detection of circular engagement gesture
JP2014053045A (ja) * 2008-07-25 2014-03-20 Qualcomm Inc ウェーブエンゲージメントジェスチャの改良された検出
JP2011530135A (ja) * 2008-08-04 2011-12-15 マイクロソフト コーポレーション 表面コンピューティングのためのユーザ定義のジェスチャセット
JP4670976B2 (ja) * 2008-10-03 2011-04-13 ソニー株式会社 学習装置および方法、認識装置および方法、プログラム、並びに記録媒体
US8494258B2 (en) 2008-10-03 2013-07-23 Sony Corporation Learning-based feature detection processing device and method
JP2010108476A (ja) * 2008-10-03 2010-05-13 Sony Corp 学習装置および方法、認識装置および方法、プログラム、並びに記録媒体
JP2010131947A (ja) * 2008-12-08 2010-06-17 Canon Inc 情報処理装置とその制御方法及び印刷装置とその制御方法
JPWO2010095204A1 (ja) * 2009-02-18 2012-08-16 株式会社東芝 インターフェース制御装置、及びその方法
WO2010095204A1 (ja) * 2009-02-18 2010-08-26 株式会社 東芝 インターフェース制御装置、及びその方法
JP5318189B2 (ja) * 2009-02-18 2013-10-16 株式会社東芝 インターフェース制御装置、及びその方法
JP2010231355A (ja) * 2009-03-26 2010-10-14 Sanyo Electric Co Ltd 情報表示装置
US9411424B2 (en) 2009-04-23 2016-08-09 Hitachi Maxell, Ltd. Input device for operating graphical user interface
EP2244166A2 (en) 2009-04-23 2010-10-27 Hitachi Consumer Electronics Co., Ltd. Input device using camera-based tracking of hand-gestures
US11036301B2 (en) 2009-04-23 2021-06-15 Maxell, Ltd. Input device for motion operating graphical user interface
US9164578B2 (en) 2009-04-23 2015-10-20 Hitachi Maxell, Ltd. Input device for operating graphical user interface
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
EP2328061A2 (en) 2009-10-05 2011-06-01 Hitachi Consumer Electronics Co. Ltd. Input apparatus
US8413053B2 (en) 2009-12-22 2013-04-02 Kabushiki Kaisha Toshiba Video reproducing apparatus and video reproducing method
US9170732B2 (en) 2010-03-18 2015-10-27 Nippon Telegraph And Telephone Corporation Information input device, information input method, and information input program
JP5342693B2 (ja) * 2010-03-18 2013-11-13 日本電信電話株式会社 情報入力装置、情報入力方法、及び情報入力プログラム
WO2011115260A1 (ja) * 2010-03-18 2011-09-22 日本電信電話株式会社 情報入力装置、情報入力方法、及び情報入力プログラム
JPWO2011115260A1 (ja) * 2010-03-18 2013-07-04 日本電信電話株式会社 情報入力装置、情報入力方法、及び情報入力プログラム
JP2013539565A (ja) * 2010-06-22 2013-10-24 マイクロソフト コーポレーション ユーザー追跡フィードバック
US10013976B2 (en) 2010-09-20 2018-07-03 Kopin Corporation Context sensitive overlays in voice controlled headset computer displays
JP2013541092A (ja) * 2010-09-20 2013-11-07 コピン コーポレーション 動きおよび音声コマンドを用いたホストアプリケーションの高度なリモートコントロール
US9817232B2 (en) 2010-09-20 2017-11-14 Kopin Corporation Head movement controlled navigation among multiple boards for display in a headset computer
US9377862B2 (en) 2010-09-20 2016-06-28 Kopin Corporation Searchlight navigation using headtracker to reveal hidden or extra document data
US9316827B2 (en) 2010-09-20 2016-04-19 Kopin Corporation LifeBoard—series of home pages for head mounted displays (HMD) that respond to head tracking
US8891025B2 (en) 2010-11-24 2014-11-18 Panasonic Corporation Information processing device
JP2015038648A (ja) * 2010-12-24 2015-02-26 株式会社東芝 情報処理装置、制御方法およびプログラム
US11947387B2 (en) 2011-05-10 2024-04-02 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
US11237594B2 (en) 2011-05-10 2022-02-01 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
US10627860B2 (en) 2011-05-10 2020-04-21 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
US9785245B2 (en) 2011-06-07 2017-10-10 Sony Corporation Image processing apparatus, image processing method, and program for recognizing a gesture
US9916012B2 (en) 2011-06-07 2018-03-13 Sony Corporation Image processing apparatus, image processing method, and program
US8923559B2 (en) 2011-06-07 2014-12-30 Sony Corporation Image processing apparatus, image processing method, and program
US9002714B2 (en) 2011-08-05 2015-04-07 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
US9733895B2 (en) 2011-08-05 2017-08-15 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
JP2013037688A (ja) * 2011-08-05 2013-02-21 Samsung Electronics Co Ltd 電子装置及びその制御方法
EP2562620A1 (en) 2011-08-23 2013-02-27 Hitachi Consumer Electronics Co., Ltd. Input unit recognizing user's motion
US9369760B2 (en) 2011-12-29 2016-06-14 Kopin Corporation Wireless hands-free computing head mounted video eyewear for local/remote diagnosis and repair
JP2013186500A (ja) * 2012-03-05 2013-09-19 Toshiba Tec Corp 操作支援表示装置およびプログラム
US9294607B2 (en) 2012-04-25 2016-03-22 Kopin Corporation Headset computer (HSC) as auxiliary display with ASR and HT input
US9507772B2 (en) 2012-04-25 2016-11-29 Kopin Corporation Instant translation system
KR101328441B1 (ko) * 2012-06-07 2013-11-20 자동차부품연구원 차량용 스티어링 휠의 사용자 인터페이스 장치
JP2014085967A (ja) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd 情報処理装置、情報処理方法、及びプログラム
JP2014085966A (ja) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd 情報処理装置、情報処理方法、及びプログラム
US9323343B2 (en) 2013-01-31 2016-04-26 Panasonic Intellectual Property Corporation Of America Information processing method and information processing apparatus
JP2015058804A (ja) * 2013-09-19 2015-03-30 アルパイン株式会社 車載システム
JP2016009379A (ja) * 2014-06-25 2016-01-18 株式会社デンソー 対象物検出装置及び要素選択装置
JP2018501998A (ja) * 2014-09-30 2018-01-25 ヴァレオ、コンフォート、アンド、ドライビング、アシスタンスValeo Comfort And Driving Assistance 自動車の機器を制御するためのシステムおよび方法
CN104244049A (zh) * 2014-10-21 2014-12-24 三星电子(中国)研发中心 一种动态调节曲率和方向的曲面电视和方法
US10885639B2 (en) 2016-06-23 2021-01-05 Advanced New Technologies Co., Ltd. Hand detection and tracking method and device
US10885638B2 (en) 2016-06-23 2021-01-05 Advanced New Technologies Co., Ltd. Hand detection and tracking method and device
JP2019519049A (ja) * 2016-06-23 2019-07-04 アリババ グループ ホウルディング リミテッド 手検出及び追跡方法並びに装置
JP2018092206A (ja) * 2016-11-30 2018-06-14 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP7234324B1 (ja) 2021-09-28 2023-03-07 三菱電機インフォメーションシステムズ株式会社 通知受付装置、通知受付方法及び通知受付プログラム
JP2023048165A (ja) * 2021-09-28 2023-04-07 三菱電機インフォメーションシステムズ株式会社 通知受付装置、通知受付方法及び通知受付プログラム

Also Published As

Publication number Publication date
CN101131609A (zh) 2008-02-27
JP4267648B2 (ja) 2009-05-27
US20080052643A1 (en) 2008-02-28
US7844921B2 (en) 2010-11-30

Similar Documents

Publication Publication Date Title
JP4267648B2 (ja) インターフェース装置及びその方法
US11343575B2 (en) Image processing system, image processing method, and program
JP4929109B2 (ja) ジェスチャ認識装置及びその方法
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
AU2010366331B2 (en) User interface, apparatus and method for gesture recognition
WO2013137412A1 (ja) 制御装置、電子機器、制御方法、制御プログラム、および、制御プログラムを格納したコンピュータ読取可能な記録媒体
JP2009042796A (ja) ジェスチャー入力装置および方法
US11082634B2 (en) Image processing system, image processing method, and program
JP5318189B2 (ja) インターフェース制御装置、及びその方法
KR20140002007A (ko) 정보 처리 장치, 정보 처리 방법 및 기록 매체
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP2011028366A (ja) 操作制御装置および操作制御方法
JP5932082B2 (ja) 認識装置
JP2012027515A (ja) 入力方法及び入力装置
US20130234937A1 (en) Three-dimensional position specification method
JPH10207619A (ja) ユーザインタフェース装置及び操作範囲呈示方法
JP4345755B2 (ja) 入力位置設定方法、入力位置設定装置、入力位置設定プログラムおよび情報入力システム
WO2011027397A1 (ja) ユーザーインターフェース装置
JP5676959B2 (ja) 情報処理装置及びその制御方法
EP2919096B1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
JP2006018856A (ja) ユーザインタフェース装置及び操作範囲呈示方法
JP2018077605A (ja) 表示装置および表示装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090210

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090218

R151 Written notification of patent or utility model registration

Ref document number: 4267648

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140227

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees