JP2016118868A - 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法 - Google Patents

情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法 Download PDF

Info

Publication number
JP2016118868A
JP2016118868A JP2014257227A JP2014257227A JP2016118868A JP 2016118868 A JP2016118868 A JP 2016118868A JP 2014257227 A JP2014257227 A JP 2014257227A JP 2014257227 A JP2014257227 A JP 2014257227A JP 2016118868 A JP2016118868 A JP 2016118868A
Authority
JP
Japan
Prior art keywords
information processing
detection target
recognition
portable terminal
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014257227A
Other languages
English (en)
Other versions
JP6514889B2 (ja
Inventor
亮太 小岩
Ryota Koiwa
亮太 小岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2014257227A priority Critical patent/JP6514889B2/ja
Priority to US14/816,398 priority patent/US9697419B2/en
Publication of JP2016118868A publication Critical patent/JP2016118868A/ja
Application granted granted Critical
Publication of JP6514889B2 publication Critical patent/JP6514889B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

【課題】可搬型の情報処理装置を把持して操作する場合であっても、適切な認識処理を提供する。【解決手段】ある実施の形態に従う可搬型の情報処理装置は、撮像部と、撮像部によって取得された画像内のユーザの一部を含む検出対象を認識するとともに、当該検出対象の認識位置の時間的変化を出力する認識手段と、検出対象の認識位置の時間的変化に応じた処理を実行する処理手段と、情報処理装置の姿勢の変化に応じて、認識手段により出力される検出対象の位置の時間的変化を補正する補正手段とを含む。【選択図】図7

Description

本発明は、撮像された画像に応じた処理を実行する情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法に関する。
特表2014−520339号公報(特許文献1)は、カメラの前でジェスチャを使用してカメラの視野内における現実世界との活動の範囲を拡大して、ユーザがより細かな粒度で現実世界および拡張世界の中に入り込み、対話できるようにする技術を開示する。
特表2014−520339号公報
上述の特許文献1に開示される方法は、基本的に、ユーザが片方の手で手持ち型機器を保持し、ふさがっていない方の手で手持ち型機器と対話するという形態が想定されている。
可搬型の情報処理装置をユーザが把持して操作する場合、その情報処理装置を固定することができず、ユーザと情報処理装置との間の相対位置が変化し得る。本実施の形態は、このような場合であっても、適切な認識処理を実行する。
ある実施の形態に従う可搬型の情報処理装置は、撮像部と、撮像部によって取得された画像内のユーザの一部を含む検出対象を認識するとともに、当該検出対象の認識位置の時間的変化を出力する認識手段と、検出対象の認識位置の時間的変化に応じた処理を実行する処理手段と、情報処理装置の姿勢の変化に応じて、認識手段により出力される検出対象の位置の時間的変化を補正する補正手段とを含む。
好ましくは、情報処理装置は、情報処理装置の姿勢の変化を検出する検出手段をさらに含む。
さらに好ましくは、検出手段は、ジャイロセンサを含む。
好ましくは、補正手段は、検出手段による検出値が予め定められた条件を満たしている場合に、検出対象の位置の時間的変化を補正する。
好ましくは、補正手段は、認識手段による検出対象の認識開始時における姿勢を基準とした変化量を用いて、検出対象の位置の時間的変化を補正する。
別の実施の形態に従えば、可搬型の情報処理装置で実行される情報処理プログラムが提供される。情報処理装置は撮像部を含んでいる。情報処理プログラムは、情報処理装置に、撮像部によって取得された画像内のユーザの一部を含む検出対象を認識するとともに、当該検出対象の認識位置の時間的変化を出力するステップと、検出対象の認識位置の時間的変化に応じた処理を実行するステップと、情報処理装置の姿勢の変化に応じて、出力される検出対象の位置の時間的変化を補正するステップとを実行させる。
さらに別の実施の形態に従う可搬型の情報処理装置を含む情報処理システムは、撮像部と、情報処理プログラムを実行するプロセッサとを含む。プロセッサは情報処理プログラムを実行することで、撮像部によって取得された画像内のユーザの一部を含む検出対象を認識するとともに、当該検出対象の認識位置の時間的変化を出力する認識手段と、検出対象の認識位置の時間的変化に応じた処理を実行する処理手段と、情報処理装置の姿勢の変化に応じて、認識手段により出力される検出対象の位置の時間的変化を補正する補正手段とを実現する。
さらに別の実施の形態に従えば、可搬型の情報処理装置で実行される情報処理方法が提供される。情報処理装置は撮像部を含んでいる。情報処理方法は、撮像部によって取得された画像内のユーザの一部を含む検出対象を認識するとともに、当該検出対象の認識位置の時間的変化を出力するステップと、検出対象の認識位置の時間的変化に応じた処理を実行するステップと、情報処理装置の姿勢の変化に応じて、出力される検出対象の位置の時間的変化を補正するステップとを含む。
上述の新規な構成例によれば、ユーザと情報処理装置との間の相対位置が変化した場合であっても、適切な認識処理を実行できる。
本実施の形態に従う携帯型端末の使用形態の一例を示す模式図である。 本実施の形態に従う携帯型端末の使用形態の別の一例を示す模式図である。 従来の認識処理による誤認識を説明するための図である。 本実施の形態に従う携帯型端末の装置構成を示すブロック図である。 本実施の形態に従う携帯型端末において実行される認識処理の処理手順を示すフローチャートである。 本実施の形態に従う携帯型端末において実行される認識処理に含まれる認識位置の補正処理を説明する模式図である。 本実施の形態に従う携帯型端末の認識処理を実現するための機能構成を示す模式図である。 本実施の形態に従う携帯型端末において実行される画像処理技術を用いた携帯型端末の姿勢の変化を検出する方法を説明する模式図である。
本実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰返さない。
可搬型の情報処理装置の代表例として、以下では、コンピュータでもある携帯型端末1について説明する。可搬型の情報処理装置としては、携帯型端末1に限られることなく、ゲーム装置、携帯電話、スマートフォン、タブレット、ファブレット、PDA(Personal Digital Assistant/Personal Data Assistance)などとしても具現化することができる。さらに、後述するように、プログラムを格納した記録媒体と当該記録媒体を装着可能な本体装置とを含む情報処理システムとして具現化してもよい。
さらに、後述する処理の一部を他の装置(典型的には、ネットワークを介して接続されたサーバ装置)が実行するようにしてもよい。このような具現化の形態においては、情報処理装置は、例えば、ユーザからの操作を受付ける処理や表示処理のみを実行し、実質的な処理のほぼすべてをサーバ装置で実行させるようにしてもよい。
[A.使用形態]
まず、本実施の形態に従う携帯型端末1の使用形態について説明する。図1は、本実施の形態に従う携帯型端末1の使用形態の一例を示す模式図である。
図1を参照して、携帯型端末1は、ユーザが片手でも把持可能な可搬型のコンピュータである。携帯型端末1は、筐体102と、筐体102の主面に配置されているディスプレイモジュール110と、筐体102の上部に配置されているカメラ104と、筐体102のしたに配置されている入力部108とを含む。
ディスプレイモジュール110は、タッチパネルを含んでおり、ユーザは、入力部108に加えて、ディスプレイモジュール110に対するタッチ操作によって、携帯型端末1へ各種指示を与える。
本実施の形態に従う携帯型端末1は、上述したような入力機能に加えて、いわゆるジェスチャ操作による入力機能を有しており、ユーザの動きを検出して、その動きに応じた処理を実行できる。ユーザの動きは、カメラ104によって撮像された画像(以下、「入力画像」とも称す。)に基づいて判断および検出される。カメラ104は、いわゆる内側カメラであり、撮像部に相当する。カメラ104は、携帯型端末1のユーザに向けて配置されることが好ましい。すなわち、カメラ104は、携帯型端末1を操作するユーザの少なくとも一部(典型的には、顔を含む上半身)がその視野内に含まれるように構成される。
図1に示すように、典型的な使用形態としては、ユーザが一方の手で携帯型端末1を把持しつつ、他方の手で目的の処理を実行するための操作(アクション)を行なう。このユーザの他方の手による動きは、カメラ104によって撮像され、その撮像によって取得された入力画像から当該ユーザの操作が検出される。すなわち、携帯型端末1は、認識処理として、カメラ104によって取得された入力画像内のユーザの一部を含む検出対象(図1に示す例では、指先)を認識するとともに、当該検出対象の認識位置の時間的変化を出力する。検出対象としては、指先だけではなく、手のひらや顔の位置や輪郭であってもよい。顔認識技術などを用いることで、入力画像内から人間の特定の部位を認識することもできるし、検出対象とすべき部位にマーカを装着して、そのマーカを認識するようにしてもよい。
携帯型端末1は、検出対象の認識位置の時間的変化に応じた処理を実行する。例えば、ユーザが指先をある視点位置から上側に移動させると、指先の認識位置は、当該視点位置から上側に向けて時間的に変化することになる。このような時間的な認識位置(座標)の変化(すなわち、検出対象の軌道)に応じて、ドキュメントを表示するアプリケーションなどでは、ページをめくるような処理を実行してもよい。
[B.課題および概要]
本実施の形態に従う携帯型端末1は、各種の計測技術を用いて、携帯型端末1を操作するユーザの体全体または一部(手など)の状態や動作(ジェスチャ)を認識し、その認識結果に応じた処理を実行する。
このような認識処理では、撮像部を固定して検出対象を撮像するのが本来的である。しかしながら、携帯型端末1などの可搬型の情報処理装置では、情報処理装置および検出対象のいずれもが動くことになる。すなわち、認識処理では、情報処理装置(すなわち、撮像部)と検出対象との間の相対位置を検出することになるが、検出対象が動かなくても、情報処理装置が動くと、検出対象が動いたとみなしてしまう。すなわち、移動や手振れが生じる可搬型の情報処理装置は、認識処理に不向きである。このような課題について、図2および図3を参照して、より詳細に説明する。
図2は、本実施の形態に従う携帯型端末1の使用形態の別の一例を示す模式図である。図3は、従来の認識処理による誤認識を説明するための図である。
図2(A)には、ユーザが携帯型端末1を一方の手で把持して、他方の手でジェスチャ操作をしている状態を示す。ユーザがこのようなジェスチャ操作をしている状態において、何らかの拍子に携帯型端末1が回転してしまった状態を図2(B)に示す。図2(A)の状態と図2(B)の状態とを比較すると、ユーザの立ち位置は変わらなくとも、携帯型端末1が向いている方向が変わってしまい、携帯型端末1から見えるユーザの指先の位置などは変化することになる。図3には、このような携帯型端末1とユーザとの相対位置の変化を模式的に示す。
図3(A)には、携帯型端末1に相対するユーザの指先を検出して、入力画像のほぼ中央部が認識位置であると判断されている状態を示す。図3(B)には、携帯型端末1に相対するユーザが指先を紙面右側に移動させて、その移動に伴って、入力画像内の認識位置がほぼ中央部から紙面右側に移動している状態を示す。すなわち、認識処理が開始された後、携帯型端末1が動いていなければ、検出対象である指先が動いていなければ、認識位置はそのまま初期位置(この例では、入力画像の中央部)に維持され、指先が動けば、それに応じて認識位置は変化したと出力される。
一方、図3(C)には、検出対象である指先が静止した状態で、携帯型端末1が回転した状態を示す。このような場合、従来技術に従う認識処理では、携帯型端末1および検出対象のいずれが動いたのかを区別できておらず、その結果、入力画像内の認識位置は移動することになる。図3(C)に示す例では、携帯型端末1を紙面左側に傾けると、移動していない指先が紙面右側に移動したと誤認識する。
これに対して、本実施の形態に従う携帯型端末1は、図3(D)に示すように、携帯型端末1の動きを検出し、その検出した動きに応じて、認識位置を補正する。図3(D)に示す例では、携帯型端末1の右側への回転に応じて、認識位置を紙面左側に補正する。これによって、実際には動いていないユーザの指先が「動いた」と誤認識される可能性を低減する。このように、本実施の形態に従う携帯型端末1は、自端末の姿勢の変化に応じて、認識手段により出力される検出対象の位置の時間的変化を補正する補正機能を有している。すなわち、携帯型端末1は、出力される認識位置が変化したのは、検出対象が実際に動いたために生じたものであるのか、あるいは携帯型端末1自体が動いたために生じたものであるかを区分し、後者の場合には、出力される認識位置を補正する。
本明細書において、携帯型端末1の「姿勢」は、携帯型端末1に搭載されるカメラ104の視野範囲の変化に着目した用語であり、携帯型端末1の向いている向き(角度)および携帯型端末1の位置の少なくとも一方を含む概念である。携帯型端末1の姿勢の変化は、後述するような各種の方法を用いて取得できるが、典型的には、ジャイロセンサなどが用いられる。
以上説明したように、本実施の形態に従う携帯型端末1は、端末自体の移動や手振れが生じたとしても、ジェスチャ操作などを誤認識することを軽減できる。
[C.装置構成]
次に、本実施の形態に従う携帯型端末1の装置構成について説明する。図4は、本実施の形態に従う携帯型端末1の装置構成を示すブロック図である。
図1および図4を参照して、携帯型端末1は、主要な装置構成として、カメラ104と、入力部108と、ディスプレイモジュール110と、表示ドライバ112と、無線通信部120と、タッチ検出部124と、プロセッサ130と、フラッシュメモリ132と、メインメモリ134と、加速度センサ136と、ジャイロセンサ138とを含む。
ディスプレイモジュール110は、LCDパネル114と、タッチパネル116とを含む。
LCDパネル114は、ユーザに向けて画像を表示する表示部であり、マトリックス状に配置された画素群と、画素群の背面側に配置されたバックライトとを含む。
タッチパネル116は、LCDパネル114の表面を覆うように装着され、ユーザによる入力操作(位置指示操作、ポインティング操作など)を検出して、対応する2次元座標値を出力する。タッチパネル116としては、抵抗膜方式を採用してもよいし、押圧式を採用してもよい。
表示ドライバ112は、プロセッサ130からの指令に従って、LCDパネル114を駆動する。
無線通信部120は、任意の無線手段(無線LAN、Bluetooth(登録商標)、公衆回線、近距離通信など)などを用いて他の装置との間で通信を行なう。
タッチ検出部124は、タッチパネル116に接続され、ユーザからのタッチパネル116に対する操作を検出する。
プロセッサ130は、フラッシュメモリ132などに格納されているプログラム(OS(Operating System)、システムプログラム、各種アプリケーション(情報処理プログラム133を含む)など)を読出して、メインメモリ134に展開した上で、それらを実行する。それによって、以下に説明するような処理を実現する。
加速度センサ136は、携帯型端末1に生じる加速度を検出し、その検出結果をプロセッサ130へ出力する。ジャイロセンサ138は、携帯型端末1の傾きを検出し、その検出結果をプロセッサ130へ出力する。
[D.処理手順]
次に、本実施の形態に従う携帯型端末1において実行される認識処理の処理手順について説明する。
図5は、本実施の形態に従う携帯型端末1において実行される認識処理の処理手順を示すフローチャートである。図5に示す各ステップは、典型的には、プロセッサ130がフラッシュメモリ132などに格納されている情報処理プログラム133を実行することで、実現される。
図5を参照して、携帯型端末1は、認識処理の開始が指示されたか否かを判断する(ステップS2)。認識処理の開始の指示は、ユーザが明示的または黙示的に与えてもよいし、携帯型端末1で実行される任意のアプリケーションから内部的に与えられることもある。認識処理の開始が指示されるまでステップS2の処理は繰返される。
認識処理の開始が指示されると(ステップS2においてYESの場合)、携帯型端末1は、キャリブレーション処理を実行する(ステップS4)。キャリブレーション処理は、検出対象を予め登録する処理である。例えば、カメラ104での撮像によって取得された画像(リアルタイム画像)をディスプレイモジュール110(図1)に表示しつつ、検出対象とすべき部分を位置決めするための枠を画像上にオーバーレイ表示する。併せて、「検出対象を枠内に収まるように調整して下さい。」といったメッセージを表示する。ユーザは、検出対象とすべき部分(例えば、指先)が画面上に表示される枠内に収まるように、携帯型端末1に対する相対位置を調整する。ユーザは、その状態で決定ボタンなどを選択する。すると、その枠内にある部分画像が検出対象として登録される。
なお、ステップS4に示すキャリブレーション処理は、予め実行されていてもよいし、プリセットされたリストからユーザが選択するような形態を採用してもよい。
キャリブレーション処理が完了すると、以下の認識処理が開始される。すなわち、携帯型端末1は、カメラ104によりその視野内に含まれる被写体を撮像し、入力画像を取得する(ステップS6)。続いて、携帯型端末1は、入力画像内の検出対象を認識し、その検出対象の認識位置を出力する(ステップS8)。
続いて、携帯型端末1は、携帯型端末1の姿勢の変化を検出し(ステップS10)、検出した姿勢の変化に応じて、認識手段により出力される検出対象の認識位置を補正する(ステップS12)。なお、携帯型端末1の位置が変化していなければ、ステップS12において検出対象の認識位置は補正されず、ステップS8において検出されたまま出力される。
続いて、携帯型端末1は、認識処理の終了が指示されたか否かを判断する(ステップS14)。認識処理の終了の指示は、ユーザが明示的または黙示的に与えてもよいし、携帯型端末1で実行される任意のアプリケーションから内部的に与えられることもある。あるいは、認識処理の開始から予め定められた期間が経過後に自動的に終了するようにしてもよい。認識処理の終了が指示されていなければ(ステップS14においてNOの場合)、ステップS6以下の処理が繰返される。
認識処理の終了が指示されていれば(ステップS14においてYESの場合)、携帯型端末1は、先のステップS6〜S14の繰返しによって取得された認識位置の時系列データに基づいて、入力されたジェスチャを判断する(ステップS16)。この判断されたジェスチャに応じた処理が実行される(ステップS18)。そして、処理は終了する。
[E.補正処理]
次に、本実施の形態に従う携帯型端末1において実行される認識処理に含まれる認識位置の補正処理(図5のステップS8〜S12)について説明する。図6は、本実施の形態に従う携帯型端末1において実行される認識処理に含まれる認識位置の補正処理を説明する模式図である。図6の縦軸は、入力画像内での検出対象の変位量を1次元の量に換算した値を示し、図6の横軸は時間を示す。
図6を参照して、カメラ104により撮像された入力画像内の検出対象を認識し、その検出対象の認識位置(生)が出力される。この検出対象の認識位置の出力と並行して、携帯型端末1の姿勢の変化も検出される。携帯型端末1の姿勢の変化としては、認識処理の開始時における位置を基準とした偏差が出力される。この出力される偏差は、認識位置の出力方向とは符号が反対となるように値付けされている。最終的には、検出対象の認識位置の出力と、携帯型端末1の姿勢の変化との和が認識位置の補正値として出力される。言い換えれば、検出対象の認識位置の出力から携帯型端末1の姿勢の変化を差し引いた値が認識位置の補正値となる。図6に示すように、補正処理においては、検出対象の認識開始時における姿勢を基準とした変化量を用いて、検出対象の位置の時間的変化を補正することになる。
なお、携帯型端末1の姿勢の変化は、携帯型端末1の視野の変位に相当するので、認識処理の開始時からの変位量(変位の総和)を各演算サイクルにおいて加算/減算することになる。
このように、認識処理を実行する携帯型端末1にその姿勢の変化を検出する機能を搭載し、携帯型端末1の姿勢の時間的変化が取得される。そして、姿勢の変化分が検出対象の認識位置に対して、打ち消すように加算されることで、携帯型端末1が動いたとしても、ユーザが行なったジェスチャ操作についての誤認識を軽減できる。
[F.機能構成]
次に、本実施の形態に従う携帯型端末1の認識処理を実現するための機能構成について説明する。
図7は、本実施の形態に従う携帯型端末1の認識処理を実現するための機能構成を示す模式図である。図7に示す各モジュールは、典型的には、ハードウェアモジュールおよびフラッシュメモリ132に格納されている情報処理プログラム133によって提供される。なお、図7に示すモジュールの全部または一部をASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)などのハードウェア回路を用いて実装してもよい。
図7を参照して、本実施の形態に従う携帯型端末1は、その機能構成として、認識モジュール150と、参照テーブル152と、補正モジュール158と、位置ずれ検出モジュール156と、ジェスチャ判断モジュール160と、処理実行モジュール162とを含む。
認識処理が開始されると、カメラ104による撮像によって生成された入力画像が認識モジュール150に入力される。認識モジュール150は、入力画像内の検出対象を認識し、その認識した検出対象の位置(認識位置)を補正モジュール158へ出力する。
認識モジュール150は、検出対象の認識に際して、参照テーブル152に格納されている認識対象特徴量情報154を参照する。認識対象特徴量情報154は、キャリブレーション処理(図5のステップS4)によって生成および格納される。認識モジュール150は、入力画像が与えられるたびに検出対象を認識してもよいし、複数フレームにわたる入力画像(すなわち、動画像)を用いて、検出対象の認識位置の時間的変化を出力してもよい。このように、認識モジュール150は、カメラ104によって取得された入力画像内のユーザの一部を含む検出対象を認識するとともに、当該検出対象の認識位置の時間的変化を出力する認識機能を提供する。
位置ずれ検出モジュール156は、携帯型端末1の姿勢の変化を検出し、その値を出力する。すなわち、位置ずれ検出モジュール156は、携帯型端末1の姿勢の変化を検出する検出機能を提供する。位置ずれ検出モジュール156としては、ハードウェア的およびソフトウェア的に実現可能な任意の手段を採用できる。典型的には、位置ずれ検出モジュール156は、ジャイロセンサ138(図4)を含む。
典型的には、位置ずれ検出モジュール156は、ジャイロセンサ138(図4)による検出値(ヨー・ピッチ・ロール)を用いて、携帯型端末1の姿勢を検出する。あるいは、加速度センサ136(図4)を用いて、あるいは、加速度センサ136とジャイロセンサ138とを組み合わせて、携帯型端末1の姿勢を検出するようにしてもよい。この場合、加速度センサ136としては、多軸を検出できるものが用いられる。
補正処理には、認識処理の開始時からの変位量(変位の総和)が必要であるので、各種センサで携帯型端末1の姿勢を検出する場合には、それに応じた前処理を行なう必要がある。例えば、角速度が出力される場合には、一段の時間積分により角度の変位量を算出する必要があり、角加速度が出力される場合には、二段の時間積分により角度の変位量を算出する必要がある。また、各種センサから各軸を中心とした変位量が出力される場合には、その変位量を入力画像内での変位量に換算する必要がある。この換算は、検出される角度の変位量とカメラ104の視野角とを用いて行なわれる。
あるいは、位置ずれ検出モジュール156は、画像処理技術を用いて、携帯型端末1の姿勢を検出する。例えば、認識処理の開始時に撮像された入力画像から、検出対象と背景とを分離し、その後に撮像される入力画像内の背景の位置を認識することで、携帯型端末1の姿勢を検出するようにしてもよい。特に、相対的に大きな特徴量を有するオブジェクトが背景に含まれていた場合などには、画像処理技術を用いる手法は効果的である。
補正モジュール158は、位置ずれ検出モジュール156からの携帯型端末1の姿勢の情報に基づいて、認識モジュール150から出力される認識位置を補正し、補正後の認識位置をジェスチャ判断モジュール160へ出力する。携帯型端末1の姿勢が変化しなければ、認識モジュール150から出力される認識位置がそのままジェスチャ判断モジュール160へ出力される。補正モジュール158からの補正後の認識位置は、入力画像の入力毎(すなわち、フレーム毎)に出力される。このように、補正モジュール158は、携帯型端末1の姿勢の変化に応じて、認識モジュール150により出力される検出対象の位置の時間的変化を補正する補正機能を提供する。
ジェスチャ判断モジュール160は、補正モジュール158からの補正後の認識位置に基づいて、ユーザが行なったジェスチャを判断する。典型的には、ジェスチャ判断モジュール160は、位置変化のパターンと対応するジェスチャとの組を予め複数登録しており、この登録された情報を参照して、ジェスチャを決定する。ジェスチャ判断モジュール160は、決定したジェスチャをジェスチャ出力として処理実行モジュール162へ与える。
処理実行モジュール162は、ジェスチャ判断モジュール160からのジェスチャ出力に基づいて、対象となる処理を実行する。処理実行モジュール162の一部または全部は、携帯型端末1で実行される各種アプリケーションに実装されてもよい。例えば、ドキュメントを表示するアプリケーションにおいて、横方向に移動するジェスチャがなされると、ページをめくる処理が実行される。
なお、ジェスチャ判断モジュール160および処理実行モジュール162を一体的に実装してもよい。この場合には、ジェスチャを個別に識別することは必ずしも必要ない。すなわち、検出対象の位置の時間的変化と実行されるアプリケーションまたはアプリケーション上の操作とを対応付けておき、入力される検出対象の位置の時間的変化(補正後)に応じて、対応する処理が実行されてもよい。
このように、ジェスチャ判断モジュール160、および/または、処理実行モジュール162は、検出対象の認識位置の時間的変化に応じた処理を実行する処理機能を提供する。
[G.変形例]
上述の補正処理では、携帯型端末1の姿勢が変化すれば、検出対象の認識位置をその変化に応じて補正する処理を例示した。但し、このような検出対象の認識位置を補正する処理を予め定められた条件に適合した場合にのみ実行するようにしてもよい。言い換えれば、携帯型端末1の姿勢が変化しても、ある条件に適合した場合には、認識位置を補正しないようにしてもよい。すなわち、補正モジュール158(図7)は、位置ずれ検出モジュール156による検出値が予め定められた条件を満たしている場合に、検出対象の位置の時間的変化を補正するようにしてもよい。以下、このような補正処理の実行を制限する処理例について説明する。
(g1:補正条件1)
ジャイロセンサ138や加速度センサ136などの各種センサで検出された携帯型端末1の姿勢の情報が適切に検出されたものであるか否かを判断し、適切なものである場合に限って、認識モジュール150から出力される認識位置を補正するようにしてもよい。
姿勢の情報が適切に検出されたものであるか否かの判断基準として、例えば、単位時間当たりの姿勢の変化量が予め定められた範囲内に収まっているか否かを用いることができる。単位時間当たりの姿勢の変化量が予め定められた範囲を超える場合には、ノイズの混入などによる誤検出が発生している状態や、携帯型端末1が持ち運ばれている状態であることが想定されるので、このような場合には、認識位置の位置を補正しないようにしてもよい。
また、姿勢の情報が適切に検出されたものであるか否かの別の判断基準として、認識処理が開始されてからの姿勢の変化量の総計が予め定められた範囲内に収まっているか否かを用いることもできる。認識処理が開始されてからの姿勢の変化量の総計が予め定められた範囲を超える場合には、携帯型端末1の視野が当初の範囲から大きくずれていることが想定されるので、このような場合には、認識位置の位置を補正しないようにしてもよい。
(g2:補正条件2)
画像処理技術を用いて携帯型端末1の姿勢を検出する場合には、その検出結果が適切なものであるか否かを判断し、適切なものである場合に限って、認識モジュール150から出力される認識位置を補正するようにしてもよい。
図8は、本実施の形態に従う携帯型端末1において実行される画像処理技術を用いた携帯型端末1の姿勢の変化を検出する方法を説明する模式図である。図8(A)には、認識処理の開始時に、カメラ104によって撮像された入力画像の一例を示す。図8(A)に示す入力画像内には、ユーザの手のオブジェクト202に加えて、背景にある窓のオブジェクト210が映り込んでいる。このような場合、オブジェクト210を背景のオブジェクトとして、オブジェクト210の変位量から携帯型端末1の姿勢の変化を検出することになる。
図8(B)には、図8(A)に示す状態から、携帯型端末1の姿勢が紙面左右方向に変化した状態を示す。図8(B)に示す状態では、オブジェクト202およびオブジェクト210のいずれもが紙面右側に相対移動している。このような場合には、オブジェクト210の移動量から携帯型端末1の姿勢の変化を適切に検出できる。このとき、姿勢の変化前後で同一のオブジェクト210を探索するので、類似度(相関度)の値も高くなり、尤度(信頼度)が相対的に高いと判断できる。このような場合には、検出された携帯型端末1の姿勢の変化に応じて、検出対象の位置の時間的変化を補正することになる。
一方、図8(C)には、携帯型端末1を持ってユーザが移動したような状態を示す。この入力画像内には、認識処理の開始時に写っていた窓のオブジェクト210とは異なるテレビのオブジェクト212が写っている。この場合には、オブジェクト210とオブジェクト212との間の類似度(相関度)は相対的に低くなり、尤度(信頼度)が相対的に低いと判断できる。このような場合には、検出対象の位置の時間的変化を補正しないようにしてもよい。
[H.まとめ]
本実施の形態に従う携帯型端末1は、ジャイロセンサなどを用いて自端末の姿勢の変化を検出し、その姿勢の変化に応じて、認識される検出対象の位置の時間的変化を補正する。このような補正処理を実行することで、携帯型端末1を操作中にユーザが携帯型端末1の向きなどを変えたとしても、ジェスチャ操作を誤認識する可能性を低減できる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 携帯型端末、102 筐体、104 カメラ、108 入力部、110 ディスプレイモジュール、112 表示ドライバ、114 LCDパネル、116 タッチパネル、120 無線通信部、124 タッチ検出部、130 プロセッサ、132 フラッシュメモリ、133 情報処理プログラム、134 メインメモリ、136 加速度センサ、138 ジャイロセンサ、150 認識モジュール、152 参照テーブル、154 認識対象特徴量情報、156 位置ずれ検出モジュール、158 補正モジュール、160 ジェスチャ判断モジュール、162 処理実行モジュール。

Claims (8)

  1. 可搬型の情報処理装置であって、
    撮像部と、
    前記撮像部によって取得された画像内のユーザの一部を含む検出対象を認識するとともに、当該検出対象の認識位置の時間的変化を出力する認識手段と、
    前記検出対象の認識位置の時間的変化に応じた処理を実行する処理手段と、
    前記情報処理装置の姿勢の変化に応じて、前記認識手段により出力される前記検出対象の位置の時間的変化を補正する補正手段とを備える、情報処理装置。
  2. 前記情報処理装置の姿勢の変化を検出する検出手段をさらに備える、請求項1に記載の情報処理装置。
  3. 前記検出手段は、ジャイロセンサを含む、請求項2に記載の情報処理装置。
  4. 前記補正手段は、前記検出手段による検出値が予め定められた条件を満たしている場合に、前記検出対象の位置の時間的変化を補正する、請求項2または3に記載の情報処理装置。
  5. 前記補正手段は、前記認識手段による前記検出対象の認識開始時における姿勢を基準とした変化量を用いて、前記検出対象の位置の時間的変化を補正する、請求項1〜4のいずれか1項に記載の情報処理装置。
  6. 可搬型の情報処理装置で実行される情報処理プログラムであって、前記情報処理装置は撮像部を含んでおり、前記情報処理プログラムは前記情報処理装置に、
    前記撮像部によって取得された画像内のユーザの一部を含む検出対象を認識するとともに、当該検出対象の認識位置の時間的変化を出力するステップと、
    前記検出対象の認識位置の時間的変化に応じた処理を実行するステップと、
    前記情報処理装置の姿勢の変化に応じて、出力される前記検出対象の位置の時間的変化を補正するステップとを実行させる、情報処理プログラム。
  7. 可搬型の情報処理装置を含む情報処理システムであって、
    撮像部と、
    情報処理プログラムを実行するプロセッサとを備え、前記プロセッサは情報処理プログラムを実行することで、
    前記撮像部によって取得された画像内のユーザの一部を含む検出対象を認識するとともに、当該検出対象の認識位置の時間的変化を出力する認識手段と、
    前記検出対象の認識位置の時間的変化に応じた処理を実行する処理手段と、
    前記情報処理装置の姿勢の変化に応じて、前記認識手段により出力される前記検出対象の位置の時間的変化を補正する補正手段とを実現する、情報処理システム。
  8. 可搬型の情報処理装置で実行される情報処理方法であって、前記情報処理装置は撮像部を含んでおり、前記情報処理方法は、
    前記撮像部によって取得された画像内のユーザの一部を含む検出対象を認識するとともに、当該検出対象の認識位置の時間的変化を出力するステップと、
    前記検出対象の認識位置の時間的変化に応じた処理を実行するステップと、
    前記情報処理装置の姿勢の変化に応じて、出力される前記検出対象の位置の時間的変化を補正するステップとを含む、情報処理方法。
JP2014257227A 2014-12-19 2014-12-19 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法 Active JP6514889B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014257227A JP6514889B2 (ja) 2014-12-19 2014-12-19 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法
US14/816,398 US9697419B2 (en) 2014-12-19 2015-08-03 Information processing apparatus, non-transitory storage medium encoded with computer readable information processing program, information processing system, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014257227A JP6514889B2 (ja) 2014-12-19 2014-12-19 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法

Publications (2)

Publication Number Publication Date
JP2016118868A true JP2016118868A (ja) 2016-06-30
JP6514889B2 JP6514889B2 (ja) 2019-05-15

Family

ID=56130028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014257227A Active JP6514889B2 (ja) 2014-12-19 2014-12-19 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法

Country Status (2)

Country Link
US (1) US9697419B2 (ja)
JP (1) JP6514889B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019054037A1 (ja) * 2017-09-12 2019-03-21 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251658A (ja) * 2008-04-01 2009-10-29 Fujifilm Corp 携帯型電子装置及びその制御方法
JP2012048463A (ja) * 2010-08-26 2012-03-08 Canon Inc 情報処理装置およびその方法
JP2012146220A (ja) * 2011-01-13 2012-08-02 Olympus Corp ジェスチャ入力装置
JP2012212237A (ja) * 2011-03-30 2012-11-01 Namco Bandai Games Inc 画像生成システム、サーバシステム、プログラム及び情報記憶媒体
US20130066526A1 (en) * 2011-09-09 2013-03-14 Thales Avionics, Inc. Controlling vehicle entertainment systems responsive to sensed passenger gestures

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5380789B2 (ja) * 2007-06-06 2014-01-08 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US20120326966A1 (en) 2011-06-21 2012-12-27 Qualcomm Incorporated Gesture-controlled technique to expand interaction radius in computer vision applications
JP5821526B2 (ja) * 2011-10-27 2015-11-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251658A (ja) * 2008-04-01 2009-10-29 Fujifilm Corp 携帯型電子装置及びその制御方法
JP2012048463A (ja) * 2010-08-26 2012-03-08 Canon Inc 情報処理装置およびその方法
JP2012146220A (ja) * 2011-01-13 2012-08-02 Olympus Corp ジェスチャ入力装置
JP2012212237A (ja) * 2011-03-30 2012-11-01 Namco Bandai Games Inc 画像生成システム、サーバシステム、プログラム及び情報記憶媒体
US20130066526A1 (en) * 2011-09-09 2013-03-14 Thales Avionics, Inc. Controlling vehicle entertainment systems responsive to sensed passenger gestures

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019054037A1 (ja) * 2017-09-12 2019-03-21 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
US9697419B2 (en) 2017-07-04
JP6514889B2 (ja) 2019-05-15
US20160180542A1 (en) 2016-06-23

Similar Documents

Publication Publication Date Title
JP2019028843A (ja) 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法
US20150262002A1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
US20100103099A1 (en) Pointing device using camera and outputting mark
US20110175802A1 (en) Method and system for operating electric apparatus
EP3062286B1 (en) Optical distortion compensation
JP2022106869A (ja) 生体認証装置、生体認証方法および生体認証プログラム
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP6287382B2 (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
US20160274670A1 (en) Gesture input apparatus, gesture input method, and program for wearable terminal
US20170262163A1 (en) Apparatus, method and storage medium for correcting page image
EP3223193A1 (en) Image processing device, image processing method and image processing program
JP2012208705A (ja) 画像操作装置、画像操作方法およびプログラム
JP2016177491A (ja) 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム
JP5863034B2 (ja) 情報端末装置
JP2017191426A (ja) 入力装置、入力制御方法、コンピュータプログラム、及び記憶媒体
JP6514889B2 (ja) 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法
WO2015127731A1 (zh) 软键盘布局调整方法及装置
US20130187854A1 (en) Pointing Device Using Camera and Outputting Mark
JP6170696B2 (ja) 画像処理装置及び画像処理方法
JP2015149036A (ja) タッチスクリーンに対する操作精度を向上する方法、電子機器およびコンピュータ・プログラム
KR101627049B1 (ko) 단말기
JP5951966B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US20210383098A1 (en) Feature point extraction device, feature point extraction method, and program storage medium
EP2908219A1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
CN111095394A (zh) 显示处理设备、显示处理方法和程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190415

R150 Certificate of patent or registration of utility model

Ref document number: 6514889

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250