JP6723814B2 - 情報処理装置、その制御方法、プログラム、及び記憶媒体 - Google Patents

情報処理装置、その制御方法、プログラム、及び記憶媒体 Download PDF

Info

Publication number
JP6723814B2
JP6723814B2 JP2016091625A JP2016091625A JP6723814B2 JP 6723814 B2 JP6723814 B2 JP 6723814B2 JP 2016091625 A JP2016091625 A JP 2016091625A JP 2016091625 A JP2016091625 A JP 2016091625A JP 6723814 B2 JP6723814 B2 JP 6723814B2
Authority
JP
Japan
Prior art keywords
distance
image
area
target surface
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016091625A
Other languages
English (en)
Other versions
JP2017199289A (ja
JP2017199289A5 (ja
Inventor
勇樹 釜森
勇樹 釜森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016091625A priority Critical patent/JP6723814B2/ja
Priority to US15/496,942 priority patent/US10642422B2/en
Publication of JP2017199289A publication Critical patent/JP2017199289A/ja
Publication of JP2017199289A5 publication Critical patent/JP2017199289A5/ja
Application granted granted Critical
Publication of JP6723814B2 publication Critical patent/JP6723814B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、操作者によるタッチ入力を検出する技術に関する。
近年では、プロジェクションによってユーザインタフェース(以下、UI)を壁や机など任意の操作面に投影し、投影したUIに対してタッチが行われる場面がある。また、AR(Augmented Reality)やMR(Mixed Reality)といった環境では、物理的に存在する物体に対するタッチに基づき、その物体に関連する情報をHMD(Head Mount Display)に表示する場面がある。
このような場面においては、ステレオカメラや赤外カメラ等、距離情報を得ることが可能な距離画像の撮像部を用い、対象面と所定の操作体の一部(例えば操作者の指先)との間の距離に基づいて、両者が接触しているか否かを判定することが多い。具体的には、対象面と、操作者の指先との間の距離に所定の閾値を設け、その閾値を超える程度両者が近づいた場合に、指先が対象面にタッチしたと判定する。以下、指先と対象面が非接触の状態から接触することをタッチ、接触状態から非接触になることをリリースと表記する。
距離画像に基づくタッチ検出においては、対象面が操作体に遮蔽され、距離画像の撮像部など距離情報を取得する手段の死角になり得るため、操作体に遮蔽された場合であっても撮像部から対象面までの距離を推定することが必要となる。
特許文献1は、対象面に所定の画像を投影し、それを撮像した画像を解析することにより撮像部から対象面までの距離を予め計測することとしている。
特許第4858631号公報
対象面を含む物体が動いた場合や、HMDに搭載された撮像部が動いた場合など、撮像部から対象面までの距離に変動が生じることがある。距離変動後の対象面と撮像部間の距離関係を再計測できればよいが、対象面が操作体に遮蔽された状態で距離変動が生じた場合、撮像部と遮蔽されている領域の間の距離を再計測することは困難である。特許文献1は、そのような場合に対する考慮はなされておらず、遮蔽された状態で変動した対象面に対するタッチ操作を検出することができない。
本発明は、操作体と対象面の間の距離が所定の距離より小さくなることを、操作体による対象面への入力として認識するシステムにおける入力の認識精度の向上を目的とする。
本発明は、上記の目的を達成するための一手段として、所定の対象面を背景とする空間に向けた撮像部により撮像した画像を取得する画像取得手段と、 前記画像を構成する複数の領域に関して、基準となる位置から各領域の被撮像面までの距離に相当する情報を取得する距離取得手段と、前記画像取得手段によって取得された1の画像のうち、物体の所定の部位が撮像された第1領域に関して前記距離取得手段によって取得される情報と、前記画像の一部であって前記第1領域の周囲に接する第2領域に関して前記距離取得手段によって取得される情報を使って、前記物体による前記対象面への入力を認識する認識手段と、前記認識手段により、前記物体による前記対象面への入力が認識された場合、前記第1領域から特定される領域の重心の位置に基づき前記入力により指示されたとみなされる位置を決定する決定手段とを備える。
本発明によれば、操作体と対象面の間の距離が所定の距離より小さくなることを、操作体による対象面への入力として認識するシステムにおける入力の認識精度の向上を向上することができる。
第1実施形態の情報処理装置を利用するシステムの外観の一例を表す図 (a)第1実施形態の情報処理装置のハードウェア構成、(b)第1実施形態の機能構成の一例を表すブロック図 第1実施形態における領域指定操作の認識処理の流れの一例を表すフローチャート 第1実施形態における領域指定操作の認識処理において取得される可視光画像の例を表す図 第1実施形態におけるタッチ認識処理の流れの一例を表すフローチャート (a)第1実施形態における指先領域と内部が物体で占められる場合の窓領域の一例を表す図、(b)第1実施形態における指先領域と内部が一様でない場合の窓領域の一例を表す図 第1実施形態における窓領域の分割の一例を表す図 (a)第1実施形態における指先領域の切出しと指先位置検出の一例を表す図、(b)第1実施形態における接触判定された小領域が複数存在する場合の指先領域の切出しと指先位置検出の一例を表す図 第1実施形態における動いている物体に対してタッチ入力が行われる様子を撮像した可視光画像の一例を表す図 変形例の機能構成の一例を表すブロック図 変形例における領域指定操作の認識処理の流れの一例を表すフローチャート 変形例における背景距離画像に基づくタッチ認識処理の流れの一例を表すフローチャート 変形例における把持物体と非把持物体に対してタッチ入力が行われる様子を撮像した可視光画像の一例を表す図
以下、本発明に係る実施形態の情報処理を、図面を参照して詳細に説明する。なお、実施形態に記載する構成は例示であり、本発明の範囲をそれらの構成に限定する趣旨のものではない。
<第1実施形態>
一般的に「タッチ」とは、物体の表面やそこに投影されたアイテムの表示領域に指先を接触または近接させることにより当該物体およびアイテムに対するタッチ入力を開始する動作である。また、「リリース」とは、タッチ操作後の物体およびアイテムから接触または近接させた指先を離すことにより、当該物体およびアイテムに対するタッチ入力を終了する動作である。タッチを採用する多くの情報処理装置は、タッチからリリースに至る間の指先の位置、動き、速度等に基づいて「タップ」、「ムーブ」、「フリック」等の様々なタッチ操作を認識することができる。例えば、指先を対象面にタッチした後、対象面に沿った方向にはほぼ動かさずにすぐリリースするという一連の入力は、「タップ」と呼ばれ、タッチした物体を選択するための指示として認識されることが多い。また、指先を対象面にタッチした後、タッチ状態のまま指先を対象面に沿った方向に動かす入力は、「ムーブ」と呼ばれ、タッチした物体の移動や範囲指定、線を描画するための指示として認識されることが多い。ただし本実施形態では、「タッチ」と「リリース」のそれぞれを「タッチ操作」及び「リリース操作」という単独の操作の入力として認識し、認識する度に操作者に対してフィードバックを行う情報処理装置を例に説明していく。例えば、タッチ操作が認識されたことに応じて、対象面のタッチされた位置(以下、タッチ位置)にポインタを投影表示する。さらにリリース操作が認識された場合には、ポインタの投影表示を終了する。また、本実施形態では、タッチからリリースに至る間の接触状態に基づいて入力される操作全般を、タッチ入力と表記する。
スマートホンやタブレットPCなどの携帯型装置では、多くの場合、表示画面に設けたタッチセンサにより操作者の指先が表示画面に接触したことを直接検出し、タッチとリリースを認識することができる。これに対し、タッチセンサを設けない任意の物体上の面に対するタッチとリリースを検出する場合は、距離画像の撮像部等を用いて指先と対象面との間の距離を計測する。これは、撮像部内の素子の位置等を基準とし、基準から指先までの距離と基準から対象面までの距離を計測することに等しい。このようにタッチの対象面が任意の物体等の場合、対象面自体が変動し、基準から対象面までの距離が変化する可能性がある。また、撮像部が可動する場合には、撮像部が動くことで基準から対象面までの距離が変化する可能性がある。そのため、周期的に基準からタッチ対象面までの距離を計測することが望ましい。しかし、対象面が指先を含む手や腕に遮蔽され撮像部の死角になると、対象面までの距離を計測できない場合がある。しかしながら、遮蔽された状態で対象面または撮像部が動き、撮像部から対象面までの距離が変化したとしても、対象面のうち何らかの物体で遮蔽されている部分(以下、遮蔽領域)までの距離は再計測することが困難である。このとき、対象面の遮蔽領域に対する指先によるタッチ及び/又はリリースを精度良く検出することができない。また、このとき撮像部から対象面までの距離が予め計測された距離から変化していない可能性もあるが、その事実を確認できなければ、予め計測された距離を使った検出結果の信頼性が低下してしまう。
そこで本実施形態では、遮蔽された対象面に対する指先のタッチ及び/又はリリースを、指先に遮蔽された遮蔽領域周辺の対象面の距離と指先の距離との比較に基づき検出する。具体的には、画像中の指先周辺に窓領域を設け、窓内の各画素に対する撮像部からの距離に基づき、基準から遮蔽領域に含まれる対象面までの距離を推定し、同じ基準から指先までの距離と比較する。遮蔽領域の内部において対象面が平坦であれば、基準から遮蔽領域の周辺に位置する対象面までの距離が、基準から対象面のうち指先に遮蔽された部分までの距離に近いことが推定可能である。さらに本実施形態では、窓内の距離の値が空間的に不連続であれば、不連続面で窓を小領域に分割した上で、小領域毎に基準から対象面までの距離を決定し、それぞれ同じ基準から指先までの距離と比較する。また、指先との距離が近いと判定された小領域と指先との画像中の接点に基づいて、タッチ位置を決定する。遮蔽領域の内部において対象面が平坦でない場合であっても、このように小領域に分割して局所的に見ることで、基準から遮蔽領域の周辺に位置する対象面までの距離が、基準から対象面のうち指先に遮蔽された部分までの距離に近いという推定が成立する。
以下、第1実施形態として、テーブルトップインタフェースシステムの操作面に操作者が物体を載置し、物体の表面上の任意領域を操作者が片手の指1本によるタッチ入力によって指定し、その領域を撮影する場合を例に挙げて説明する。利用されるタッチ入力は、タッチ〜ムーブ〜リリースという一連の操作であるとする。ここで、操作体は操作者の手、操作体のタッチ位置を指示するに用いられる所定の部位(以下、指示部位)は手の端部に当たる指先部分である。タッチ入力の対象面はテーブルと物体の表面に相当する。なお、以下では、操作者が操作の入力に用いる操作体として操作者の手を例に挙げるが、スタイラスやロボットアームなどの物体が操作体として利用される場合にも適用可能である。
[システムの外観]
図1は、本実施形態に係る情報処理装置100を設置したテーブルトップインタフェースシステムの外観の一例である。また、3次元空間内の位置情報を定義する座標軸も示す。操作面101は、テーブルトップインタフェースのテーブル部分であり、操作者は、操作面101をタッチすることでタッチ操作を入力することが可能である。本実施形態では、テーブルの上方に、操作面101を見下ろすようにして可視光カメラ102と距離画像センサ103が設置される。従って撮像される各々の画像では、奥行き方向が操作面101と交差する。すなわち、撮像される画像の奥行き方向が操作面101からの距離(高さ)に関連し、この情報がタッチ入力の検出に利用される。可視光カメラ102によって得られる可視光画像は、情報処理装置100に入力画像として入力される。情報処理装置100は、入力画像を解析し画像中の肌色領域を抽出することにより、操作面101上の空間に存在する操作者の手106を検出する。また本実施形態では、情報処理装置100は、可視光カメラ102を制御して、操作面101に載置された物体107を撮影してその読み取り画像を得る書画カメラとして機能することができる。
本実施形態では、距離画像センサ103も、操作面101を見下ろすようにして設置される。距離画像とは、各画素の値に、基準となる位置(例えば、撮像に利用された撮像手段のレンズ中心など)からその画素に撮像された被撮像面までの、画像の奥行き方向に沿った距離に対応する情報が反映された画像である。本実施形態において、距離画像センサ103が撮像する距離画像の画素値には、距離画像センサ103を基準とし、操作面101あるいはその上方に存在する操作者の手106や物体107の表面までの距離が反映される。情報処理装置100は、可視光画像および距離画像を解析することで操作者の手106の三次元位置を取得し、入力される操作を認識する。従って操作者は、操作面101上の空間の、可視光カメラ102と距離画像センサ103によって撮像可能な範囲内で手などの所定の物体を動かすことにより、空間ジェスチャ操作を入力することが可能である。本実施形態では、赤外光を利用するパターン照射方式、あるいは、TOF(Time-of-Flight)方式のセンサを利用する。
図1に示されるシステムの場合は、可視光カメラ102及び距離画像センサ103は固定されている。一方で、物体107は操作面101上の任意の位置に載置され、取り除くことも動かすことも増減させることも可能である。また、物体自体の形状も任意である。そのため、物体の有無や形状によって対象面に凹凸が生じ、操作者が指先で指示する位置が移動することで当該位置における距離画像センサ103から対象面まえの距離が異なる場合がある。このように、図1に示されるシステムでは、可視光カメラ102及び距離画像センサ103から物体107表面までの距離が変動し得る。
プロジェクタ104は、操作面101や物体107の上面に画像の投影を行う。本システムでは、操作者は投影された画像に含まれるアイテム105に対して、タッチや空間ジェスチャによる操作を行う。また、プロジェクタ104は、タッチ操作に対する視覚的フィードバックとして、タッチ位置にポインタ等の画像を投影することが可能である。なお、上述したように、本実施形態では、手106の検出および操作の認識には、可視光カメラ102を使って取得した可視光画像を用いるため、肌色領域抽出を考慮した色調に投影映像を制限することが好ましい。ただし、可視光画像ではなく距離画像センサ103を使って取得した距離画像を用いることも可能であり、この場合プロジェクタ104の投影光の影響で操作者の手の色が変化しても影響を受けないという利点がある。また、プロジェクタ104の投影周期と可視光カメラ102の撮像周期とを同期して、操作者が視覚的に確認できないレベルで高速に投影と撮像を切り替えることで、投影光の影響を受けずに肌色領域抽出による手検出を行うことも可能である。また、本システムの表示装置としては、プロジェクタ104に替えて、操作面101を液晶ディスプレイとするなどとすることもできる。その場合、可視光画像からの肌色領域を検出するなどして画像から人の手を検出する方式を用いることで、投影光の影響を受けずに手の検出が可能である。
なお、操作面101を上方からみた画像が得られる構成であれば、必ずしも距離画像センサ103及び可視光カメラ102自体が上方に設置されている必要はない。例えば、対象面の情報に設置したミラーを撮像するように構成したとしても、操作面101を上方から見た画角の画像が得られる。プロジェクタ104も同様に、図1の例では、斜め上方から見下ろすように操作面101上への投影を行うが、異なる方向に向けて投影された投影光を、ミラーなどを利用して操作面101に反射させてもよい。また、本実施形態は、ホワイトボードや壁面など、水平ではない面を操作面101とするシステムにも適用可能である。
[装置の構成]
図2(a)は、本実施形態に係る情報処理装置100を含むテーブルトップインタフェースのハードウェア構成図である。中央処理ユニット(CPU)200は、RAM202をワークメモリとして、ROM201や記憶装置203に格納されたOSやプログラムを実行して、各種処理の演算や論理判断などを行い、システムバス204に接続された各構成を制御する。CPU200が実行する処理には、後述するタッチ操作の認識処理が含まれる。記憶装置203は、ハードディスクドライブや各種インタフェースによって接続された外部記憶装置などであり、実施形態の操作認識処理にかかるプログラムや各種データを記憶する。可視光カメラ102は、CPU200の制御に従い、テーブルとテーブル上の操作者の手および物体を含む空間の可視光画像を撮像し、撮像した可視光画像をシステムバス204に出力する。また、距離画像センサ103は、CPU200の制御に従い、テーブルとテーブル上の操作者の手および物体を含む空間の距離画像を撮像し、撮影した距離画像をシステムバス204に出力する。本実施形態では、距離画像の取得方法として、環境光や操作面101の表示の影響が小さい赤外光を利用する方式を基に説明するが、用途に応じて視差方式などを利用することも可能である。プロジェクタ104は、CPU200の制御に従い、テーブルおよび物体表面に操作対象となる画像アイテムやタッチ操作に対するフィードバック画像を投影表示する。
なお図1の利用例では、可視光カメラ102、距離画像センサ103、プロジェクタ104はそれぞれ情報処理装置100に入出力用のインタフェースを介して接続された外部装置であり、情報処理装置100と協同して情報処理システムを構成する。ただし、これらのデバイスは、情報処理装置100に一体化されていても構わない。
図2(b)は、本実施形態における情報処理装置100の機能構成の一例を示すブロック図である。各機能部は、CPU200が、ROM201に格納されたプログラムをRAM202に展開し、後述する各フローチャートに従った処理を実行することで実現される。また例えば、CPU200を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
画像取得部210は、可視光カメラ102によって撮像された可視光画像を、入力画像として一定時間毎に取得し、RAM202に随時保持する。取得される可視光画像は、リアルタイム映像のフレーム画像に相当する。なお画像取得部210が取得し、各機能部とやりとりする対象は、実際には画像データに対応する信号であるが、本明細書では単に「可視光画像を取得する」あるいは「入力画像を取得する」として説明する。
領域抽出部211は、画像取得部210によって取得された入力画像の各画素について、肌色抽出に従って閾値判定やノイズ低減処理を施し、入力画像中の手領域を抽出する。手領域とは、入力された可視光画像のうち、操作体として操作者が利用する手が映っている領域である。
指先検出部212は、領域抽出部211によって抽出された手領域の輪郭情報に基づき、指示部位として操作者の手領域中のうち、指先に相当する第1領域を検出する。ただし、第1領域の検出方法はこれに限らず、例えば可視光画像中への手領域の侵入位置からの距離が最長となる手領域中の画素の位置に基づいて簡易に求めるなどして、計算を簡略化することも可能である。
第2領域設定部213は、指先検出部212が検出した第1領域の周辺に位置する所定の大きさの領域を、第2領域をとして設定する。本実施形態では、指先として検出された部分の輪郭から一定距離以内の画素の内、手領域を除く領域を第2領域として設定する。ただし、第2領域の設定方法はこれに限らず第1領域周辺の矩形や円形の領域として計算を簡略化することも可能である。
距離取得部214は、距離画像センサ103によって撮像された距離画像を一定時間毎に取得し、RAM202に随時保持する。ここでも、取得される距離画像は、リアルタイムに撮像されている映像のフレーム画像に相当する。距離取得部214はさらに、可視光カメラ102と距離画像センサ103のセンサパラメータおよび位置関係に基づく変換行列を用いて、距離画像の各画素に反映されている被撮像面までの距離を、可視光画像の各画素に関連付ける距離情報としてマッピングする。これにより本実施形態では、可視光画像の各画素にその画素における被撮像面までの距離が反映された状態を得る。距離取得部214は、可視光画像の一部である第1領域、第2領域について基準からそれぞれの撮像面までの距離を取得する場合、距離画像から得られる距離のうち可視光画像の各領域を構成する画素群にマッピングされた距離情報を使う。本実施形態では、可視光カメラ102及び距離画像センサ103は、いずれも操作面101を略垂直に見下ろす位置に設置されている。従って、距離画像の画素に反映された距離は実質的に、操作面101からの高さ方向に沿った距離である。
また、本実施形態では、可視光カメラ102及び距離画像センサ103は、いずれも操作面101の全体が画角に収まるように、かつ光軸が略一致するように近傍に設置されるとする。そのため、物体107上に操作者の手指が差しだされたことで死角となる部分は、可視光カメラ102と距離画像センサ103とで一致するとみなすことができる。従って、可視光画像において指先により遮蔽されて見えない部分は、距離画像においても同様に遮蔽されており、その距離値が得られていない。可視光画像の各画素に距離画像から得られた距離を変換しマッピングする処理において、手領域部分にマッピングされる値は、基準から手の表面までの距離を示す値であり、手の下に当たる操作面101までの距離との重複は発生しない。つまり、可視光画像のうち第1領域にマッピングされる距離は、距離画像の中で操作者の手が写る手領域の指先に相当する第1領域に反映された距離である。可視光画像のうち第2領域にマッピングされる距離は、距離画像の中で指先の周囲に位置する第2領域に反映された距離である。
なお、可視光カメラ102と距離画像センサ103がレンズ共有型の単一のセンサとして設けられていれば、こうしたマッピング処理を省略できる利点がある。
また、世界座標系と距離画像センサ103のセンサパラメータおよび位置関係に基づく変換行列を用いて、画像中の任意の画素を世界座標系にマッピングすることも可能である。例えば、少なくとも距離画像センサ103の光軸が操作面101に対してθの入射角となるように設置されていた場合、撮像される距離画像の画素値が表す距離は、操作面101からの高さ(垂直距離)に対して1/cosθの大きさとなり、かい離が生じる。距離画像センサ103に撮像される距離画像の画素値は、画像の奥行き方向に沿った距離であるためである。直角に近いほど、距離画像中で指によって遮蔽されて距離計測が困難となった部分と、操作面101のうち実際に指の直下に相当する部分とのかい離は大きなものとなる。また、操作面101が距離画像センサ103に対して角度を持つことで、第2領域内にマッピングされた距離の大きさは幅を持つものとなり、第1領域から得られる距離との差が大きくなってしまう場合がある。このような環境では、距離画像から得られる3次元の位置情報を世界座標系に変換して扱うことで、指先と操作面101の間の距離(操作面101からの指の高さ)を対象にしたタッチ入力の認識が可能になる。これにより、操作者が視覚的に得る感覚に合った結果を得やすくなる場合がある。
分割部215は、第2領域設定部213が設定した第2領域を、所定の条件に基づいて1つ以上の小領域に分割する。本実施形態では、第2領域内における距離が不連続な部分を、距離取得部214で取得した距離に基づいて検出する。さらに、不連続部が検出された場合には、不連続部で第2領域を複数の小領域に分割する。これにより、後述する指先の接触認識において、第2領域内に物体の端部が含まれるなど対象面までの距離が一様でない場合であっても、それぞれの距離を成す領域に対して個別に認識することができる。
認識部216は、指先検出部212が検出した指先と分割部215が分割した指先周辺の小領域を用い、指先による対象面へのタッチ入力を認識する。本実施形態では、距離取得部214で取得した距離画像に基づき、基準から指先までの距離および各小領域に撮像された対象面までの距離を求め、小領域毎にそれらの距離の比較を行う。そして、一つ以上の小領域と指先の距離差が所定の距離より小さいと判定された場合に指先が接触していると認識する。つまり、タッチ入力が成されたと認識する。
接点取得部217は、可視光画像中の第1領域と、認識部216で指先との距離差が小さいと判定された小領域との接点(両領域の境界に相当する画素)の集合を取得する。位置決定部218は、第1領域と接点取得部217で取得された接点の集合に基づき、指先がタッチ入力により指示した位置とみなされるタッチ位置を決定する。タッチ位置は操作面101に定義された座標平面における座標値で表される。本実施形態では、第1領域から接点を含む外接の凸領域を切り出し、その重心を画像中のタッチ位置とする。さらに、画像中のタッチ位置を小領域または第1領域の距離とともに変換行列でマッピングすることにより、世界座標系におけるタッチ位置を算出する。この処理の詳細は後述する。
表示制御部219は、ROM201や記憶装置203に記憶された情報を用いて、プロジェクタ104で操作面101および物体107に投影する画像を生成し、出力する。本実施形態では、タッチ操作が行われた場合にその位置にポインタを表示する。また、ムーブ操作の間はタッチ操作位置とムーブ操作位置を対角の頂点とする矩形を表示し、リリース操作で消去する。撮影制御部220は、前述のタッチ〜ムーブ〜リリース操作で指定された矩形領域を可視光カメラ102で撮影し、記憶装置203に画像ファイルとして保存する。
[領域指定操作の認識処理の説明]
図3のフローチャートに従って第1実施形態で実行される、タッチ入力の認識処理の流れを説明する。操作者がタッチ入力によって矩形領域を指定する操作を認識し、指定された領域内部を可視光カメラ103によって撮像した画像を得るというアプリケーションの動作を例に説明する。以下、図3のフローチャートで表される処理を領域指定操作の認識処理と呼ぶことがある。図3のフローチャートの処理は、情報処理装置の各機能部を構成するCPU200がROM201に記憶されたプログラムをRAM202に展開して実行することで実現される。本実施形態では、可視光カメラ102によって撮影された可視光画像が情報処理装置100に入力されたことに応じて図3のフローチャートの処理が開始される。また本実施形態では、図3のフローチャートの処理が、可視光カメラ102から可視光画像が入力される毎に繰り返される。従って処理が繰り返される周期は、可視光カメラ102の撮像映像のフレームレートに一致する。
ステップS300では、画像取得部210が、可視光カメラ102から、入力画像として、画像が投影されるテーブルと操作者の手を含む空間を撮像した可視光画像を取得する。また、距離取得部214が、距離画像センサ103からテーブルと操作者の手を含む空間を撮像した距離画像を取得し、可視光画像の各画素に距離をマッピングする。領域指定操作の認識処理において時系列に取得される一連の可視光画像を図4の画像400a〜400fに示す。まず、画像400aは、操作者が操作面101上に物体107を載置している動作中に撮像される可視光画像である。このとき、物体107のうち向かって右下側の一部は、操作者の手によって遮蔽されており、可視光カメラ102及び距離画像センサ103の位置からは見えていない。
ステップS301では、領域抽出部211が、可視光画像から操作者の手が映る部分である手領域を抽出する。画像400bは、操作者が右手の人差指で物体へのタッチ操作を行う直前に撮像された可視光画像である。そして領域401は、画像400bから抽出された手領域である。本実施形態においては、可視光画像の各画素を走査して、色情報に基づき肌色か否かを判定する。具体的には、各画素についてRGB色空間で得られた色情報をHSV色空間に変換し、色相、彩度、明度にそれぞれについて閾値判定処理を行う。さらに、肌色として判定された画素(領域)に膨張収縮処理を施し、色のばらつきに由来する微小なノイズを除去することで手領域を補正する。なお、手領域抽出の方法はこれに限らず、例えば距離画像中のエッジによって切り出された領域の形状を識別して手領域として抽出することも可能である。この場合は、可視光画像に投影映像が映り込むことによる肌色判定の精度低下を抑えることが可能となる。
ステップS302では、領域抽出部211が、手領域を抽出されたかを判定し、手領域を抽出していない場合(ステップS302でNo)、該入力画像に対する処理を終了する。手領域を抽出した場合(ステップS302でYes)、ステップS303に進む。ステップS303では、指先検出部212及び認識部216が、ステップS302で抽出された手領域から指先を検出してタッチ入力を認識し、そのタッチ位置を決定する。なお、この認識処理では、指先がテーブルまたは物体の表面に接触しているか否かを出力とし、接触している場合は、さらにタッチ位置として指先が接触している位置を出力する。タッチ入力の認識および位置検出の処理内容についての詳細な説明は後述する。ステップS304では、表示制御部219が、ステップS303でタッチ入力が認識されたか否かを判定する。タッチ入力が認識された場合(ステップS304でYes)、ステップS305の始点記憶有無の判定に進む。タッチ入力が認識されなかった場合(ステップS304でNo)、ステップS310の矩形記憶有無の判定に進む。
ステップS305では、表示制御部219が、RAM202にタッチ入力の始点が記憶されているかを判定する。始点とは、操作者によるタッチ入力を開始したときのタッチ位置に相当する。始点が記憶されていない場合(ステップS305でNo)、ステップS306に進み、表示制御部219が、RAM202にステップS303で検出されたタッチ位置を始点として新たに記憶する。さらに、ステップS307に進み、表示制御部219が、プロジェクタ104を制御して、操作者が視認可能なポインタ画像を始点の位置に投影する。図4において、画像400cにはタッチ入力の開始位置にポインタ画像402が表示されている様子が撮像されている。一方、始点が記憶されている場合(ステップS305でYes)、ステップS308に進み、表示制御部219が、RAM202に記憶された始点とステップS303で検出されたタッチ位置を対角の頂点とする矩形領域を、RAM202に新たに記憶する。矩形領域は、操作者が指定中または指定した撮影対象領域に相当する。さらに、ステップS309に進み、表示制御部219が、プロジェクタ104を制御して、操作者が視認可能な矩形の枠の画像を矩形領域の位置に投影する。図4において画像400d、及び画像400eは、矩形領域に枠を表す画像403が表示されている様子である。画像400dが撮像された時点から画像400eが撮像された時点にかけ、操作者の指先が移動している分、矩形領域の大きさが変化している。画像400eでは、操作者の指が物体107端部をタッチしている。ここで、タッチされている部分は、物体107が操作面101に載置された後、常に操作者の手によって遮蔽された状態にあり、画像400a〜400dのいずれにも写っていない。つまり、指の下に存在するはずの対象面の距離情報は得られていないか、あるいは、物体107が載置されるより前の初期状態における当該位置の高さが初期情報として取得されているだけである。物体107の表面のうち遮蔽されている部分は、本システムの距離画像センサ103を使った距離計測が困難である。さらに、画像400eが撮像されたとき、操作者の指がタッチしているのは物体107の端部であるので、画像400a〜400dで示された状況で指の下に存在した対象面とは異なる形状をしている。本実施形態では、後述するタッチ入力認識処理により、このようにタッチ対象面が指に遮蔽されている間に物体が載置されるなど、対象面に変動があった場合でも、タッチ入力の認識を可能とするものである。
ステップS310では、撮影制御部220が、RAM202にタッチ入力で指定された矩形領域が記憶されているか否かを判定する。矩形領域が記憶されていない場合(ステップS310でNo)、該入力画像に対する処理を終了する。矩形領域が記憶されている場合(ステップS310でYes)、ステップS311に進み、撮影制御部220が、可視光カメラ102を制御して可視光画像を撮影し、矩形領域に相当する部分を画像ファイルとして記憶装置203に記憶する。さらに、ステップS312に進み、表示制御部219が、RAM202に記憶された始点と矩形領域の情報を消去する。図4において画像400fは、タッチ入力の終了後に撮影される可視光画像を表す。なお、ステップS311の撮影処理においては、タッチ入力の終了後、矩形領域内に操作者の手や指が留まる場合があり、タッチ入力終了後に撮影を行うと、手や指が映り込む可能性がある。そこで、タッチ入力終了後、撮影処理を開始するまで数秒待機する、あるいは手領域が矩形領域から出たことを検出してから撮影する等の制御を加えて、映り込みを防止することも可能である。
[タッチ入力認識処理の説明]
ここで、ステップS303のタッチ入力の認識処理について説明する。図5は第1実施形態のタッチ入力の認識処理を表すフローチャートである。図5のフローチャートの処理は、ステップS302において可視光画像から手領域が抽出されたことに応じて開始される。
まず、ステップS500では、指先検出部212が、可視光画像中に抽出された手領域から、指先に相当する領域を検出する。本実施形態では、手領域の輪郭点を抽出し、各輪郭点について、隣接する輪郭点が成すベクトル間の角度を算出する。そして、ベクトル間角度が閾値よりも小さくなる輪郭点を指の先端位置の候補点として抽出し、さらに複数の先端位置の候補点が密集する部分を、指示部位として特定する。さらに、手領域のうち、指示部位の周辺の輪郭点で囲まれる領域を第1領域として検出し、その重心を指先位置として特定する。つまり、指先位置は手領域の輪郭上ではなく、指と物体が触れ合う指腹の付近に特定される。このように求められた指先位置は、指先と操作面101とがタッチした状態にあるとき、タッチ位置として特定される。なお、指示部位は、操作体が操作者の手であれば指先に相当するため以下では「指先」と称するが、操作体がスタイラスなどの器具であれば、その先端部に相当し、指と同様に扱うことが可能である。
ステップS501では、第2領域設定部213が、ステップS500で検出された第1領域の周辺に第2領域を設定する。図6(a)及び(b)に第1領域と第2領域の関係を表す。図1及び図4と同じ要素には同じ番号を付している。また、図面の上下方向は図4で示された各画像と一致するものとする。図6(a)は、手領域401のうち人差指の先端に相当する部分が、物体107の、向かって左上の角付近に存在する場合を表す。図4の画像400aあるいは画像400bで撮像された環境に対応する。本実施形態では、第1領域600の輪郭を構成する点群から所定の距離以内にある画素群の内、第1領域の底辺601よりも先端に近い側の画素を第2領域602として設定する。第2領域を第1領域の形状に合わせて設定することには、指先に遮蔽されている面と第2領域中の撮像面との距離の乖離を抑える効果がある。ただし、第2領域の設定方法はこれに限らず第1領域周辺の矩形や円形の領域として計算を簡略化することも可能である。図6(a)のように、第2領域602の内部が物体107で占められる場合には、第2領域内部にマッピングされている距離は一様になる。
一方、図6(b)は、手領域401のうち人差指の先端に相当する部分が、物体107の、向かって右下の角に重なった場合を表し、図4の画像400eに撮像された環境に対応する。このとき、操作者の指先は物体107を触れている。図6(b)では、第2領域702の内部には、物体107と操作面101の境界が含まれるが、その境界の一部が操作者の指によって遮蔽されている。このような場合、物体107の高さによっては、第2領域内部には、マッピングされる距離が不連続な複数の面が生じる。後段の処理では、第2領域から求められる距離と指先の距離とを比較することにより、指先が対象面に接しているか否かを判定する。しかし、図6(b)の状況のように、第2領域内の距離が一様でない場合には、第2領域と指先の距離比較に工夫が必要となる。
そこで、ステップS502では、分割部215が、第2領域の内部を、距離の不連続性に基づいて複数の小領域に分割する。本実施形態では、第2領域内の各画素(各座標)にマッピングされている距離値に対して、画素間の勾配を微分計算によって求め、勾配が局所的に大きくなる画素を不連続部として検出する。ここで図7に、第2領域の分割例を示す。図7下部は、図6(b)の状況における第2領域を分割した例である。図7の上部には、比較のため図6(b)と同じ状況を図示する。図7に示される分割例では、第2領域700が、距離が不連続となる境界に基づいて小領域701〜704に分割される。本実施形態ではここで分割された各小領域と指先との間でそれぞれ距離比較を行うことにより、第2領域内に不連続面がある場合にも効果的にタッチ入力の有無を認識する。
ステップS503では、認識部216が、RAM202に設ける接触フラグをFALSEに設定する。この接触フラグは、一つ以上の小領域と指先とが接触していると判定された場合にTRUEとなる。次に、以降のステップS504〜S507を各小領域について順に処理する。
ステップS504では、認識部216が、分割により生成された複数の小領域のうち未処理の1つを選択する。距離取得部214により、可視光画像にマッピングされた距離に基づいて、撮像部を基準とする指先までの距離、及び選択された小領域までの距離を取得する。本実施形態では、第1領域に含まれる画素にマッピングされた距離の平均値を、撮像部から指先までの距離として取得する。また、小領域に含まれる画素の距離の平均値を、撮像部から小領域までの距離(小領域内に写る面までの距離)として取得する。認識部216は、取得された距離を比較する。第1実施形態では、撮像部から小領域までの距離から、撮像部から指先までの距離を減算した値(差)を指先と小領域の間の距離とみなす。そして、認識部216は、この指先と小領域の間の距離が所定の閾値よりも小さい場合に、指先と該小領域とが接触していると判定する。なお、閾値は距離画像センサの測距精度や指の厚みを考慮して決定されることが望ましい。指先と該小領域とが接触していないと判定された場合(ステップS505でNo)、該小領域に対する認識を終了し、ステップS508に進む。一方、指先と該小領域とが接触していると判定された場合(ステップS505でYes)、ステップS506に進む。
ただし、撮像部から指先までの距離として、第1領域の重心に相当する画素の距離で代用して計算を簡略化することも可能である。また、撮像部から小領域までの距離として、小領域の重心に相当する画素の距離で代用することも可能である。また、接触の判定には、指先と小領域の間の距離に限らず、例えばその変化量や変化の方向を用いて判定精度を向上することも可能である。
ステップS506では、認識部216が、RAM202に設けられた接触フラグをTRUEに変更する。さらに、ステップS507では、接点取得部217が、第1領域の輪郭点のうち、選択されている小領域と画像中で接する点の集合を取得し、RAM202に記憶する。取得される輪郭点の集合は、手領域のうち指先部分と小領域の境界に相当する。また、ここで記憶された接点の集合は、後段のタッチ位置検出に用いられる。ステップS508では、認識部216が、分割後の全ての小領域に対して前記ステップS504からステップS507の処理が行われたか否かを判定する。全ての小領域に対する処理が行われていない場合(ステップS508でNo)、ステップS504に戻り、未処理の小領域に対する処理を開始する。全ての小領域に対する処理が行われた場合(ステップS508でYes)、ステップS509に進む。
ステップS509では、認識部216が、RAM202に記憶された接触フラグの状態を確認する。接触フラグがTRUEとなるのは(ステップS509でYes)、指先との距離が閾値より小さい小領域が1つ以上存在した場合である。この時、認識部216は指先が対象面に接触していると判定し、ステップS510以降のタッチ位置の検出処理に進む。例えば図7の例(図4の400eに対応する)においては、小領域701から704の内、小領域702と第1領域600との距離が閾値を下回り、接触フラグがTRUEになる。これにより、指先が対象面に接触していると判定される。一方、接触フラグがFALSEとなるのは(ステップS509でNo)、指先との距離が閾値より小さい小領域が存在しなかった場合である。この時、認識部216は指先が対象面に接触していないと判定し、該入力画像に対する処理を終了する。
次に、タッチ位置の検出方法について述べる。図6(a)に示すように物体107の端部から遠い内側をタッチした場合、第1領域の重心をタッチ位置として検出すれば、指先の中でも物体と実際に接触している可能性が高い指の腹付近の位置を求めることができる。しかしながら、図6(b)に示すように物体107の端部付近をタッチした場合、第1領域の重心は、物体107の端部より外側に求められてしまう場合がある。この場合、第1領域の重心を、指と物体107が接触する位置とみなしてしまうのは不自然である。さらには後段の処理において操作者の意図しない動作を実行してしまう原因になり得る。そこで、本実施形態では、単に第1領域の重心をタッチ位置とするのではなく、小領域と第1領域との接点集合に基づき、実際の接触位置により近い位置をタッチ位置として検出する。
まず、ステップS510では、位置決定部218が、RAM202に記憶された接点の集合に基づき、第1領域のうち実際に対象面に接触していると推定される領域(以下、接触領域)を切り出す。図8(a)に接触領域の切出しと指先位置決定の結果の一例を示す。ステップS505で小領域702が第1領域600と接触していると判定された場合、RAM202には接点集合800が記憶されている。そこで、本実施形態では、第1領域600から、接点集合800を含む領域を第1領域の底辺601に平行な切片と垂直な切片で切り出し、接触領域801して求める。さらに、ステップS511で、位置決定部218が、接触領域801の重心802を求め、タッチ位置として出力する。これにより、第1領域の重心をタッチ位置として検出する場合に比べ、実際に指と物体とが接触している位置により近い位置を求めることが可能となる。
なお、ステップS510の接触領域の切出し方法は、これに限るものではない。特に図8(b)に示すように、接触判定された小領域が複数存在する場合(小領域803、804)、接点集合が分割されることがある(接点集合805、806)。このような場合、接点集合の端部同士を接続して囲まれる領域807を切り出し、領域807の重心をタッチ位置として検出することで、接触位置により近い位置を求めることが可能となる。
以上説明したように、本実施形態では、基準から指先までの距離と、基準から入力の対象となる対象面のうち指先周辺の領域(距離計測が可能な部分)までの距離との比較に基づき指先と対象面とのタッチ入力を認識する。これにより、撮像系又はタッチ入力の対象となる対象面が動き得る環境であって、指によって対象面の一部が遮蔽されていても、対象面に対する指先によるタッチ入力を認識可能である。さらに、タッチ入力が物体の端部に対して行われた場合であっても、タッチ入力とタッチ位置の検出を高精度に行うことが可能である。
なお、上述した利用例では、テーブル上に載置された物体の表面を対象面として、タッチ入力がされる場合を説明した。ただし、タッチ入力の対象面は、載置された物体に限定されない。ここで図9は、第1実施形態における動いている物体に対して、タッチ入力が行われる様子を撮像した可視光画像の一例を表す図である。例えば図9に示すように操作者の手900で把持されて動いている物体902の表面を対象面として、操作者がもう一方の手901でタッチ操作する場合も本実施形態は適用可能である。また、例えば静止した手901に物体107を近付けた場合にタッチ入力を認識するような使い方にも本実施形態を適用可能でなる。なお、把持している手900が撮像される場合には、抽出された手が操作中の手であるか否かを手領域の輪郭形状に基づく識別等で判別する処理を加えることで、タッチ入力の誤認識を抑制することができる。
また、上述した例では、テーブル上から操作面を俯瞰するように固定された撮像部から取得した可視光画像または距離画像に基づき、タッチ入力を認識する場合を説明した。ただし、撮像部の設置位置はこれらに限定されない。例えば、タッチ対象面との距離関係が操作者の顔の位置や向きに応じて頻繁に変動するHMD搭載の撮像部であっても、本実施形態を適用することで、タッチ入力の認識、及びタッチ操作の認識の精度を向上させることができる。
<変形例>
次に、第1実施形態の変形例として、予め計測したタッチ対象面の距離に基づくタッチ認識と、第1実施形態に記載したタッチ認識を併用する例を示す。上述した第1実施形態では、基準からタッチ入力の対象面までの距離が、指先に遮蔽されて計測できない部分で変動している可能性を考慮し、どのような場合でも、基準から対象面のうちその時点で距離計測可能な部分までの距離に基づきタッチ入力を認識した。それに対し、本変形例では、指先に遮蔽された対象面の距離が変動していないと推定される場合には、予め計測したタッチ対象面の指先で遮蔽された遮蔽領域までの距離に基づきタッチを認識する。また、指先に遮蔽された対象面の距離が変動していると推定される場合は、第1実施形態に記載した第2領域から求められる距離に基づきタッチを認識する。つまり、基準からタッチ入力の対象面までの距離が変動したと推定されるか否かを判定した結果に応じた異なる処理によってタッチ入力を認識する。すなわち、この判定処理は、予め計測された距離の情報が信用に足るかを判定することに相当する。
上記判定により、遮蔽された対象面の距離が変動していないと推定される場合には、予め計測した基準から遮蔽領域までの距離と、その時点での基準から指先までの距離とを利用してタッチ入力を認識する。予め計測した距離を用いる利点としては、例えば、指先で遮蔽される範囲よりも小さな突起物など、第2領域に表れない対象へのタッチ認識が可能になることが挙げられる。また、第2領域は画像全体に対して小さい領域であるために、距離画像の解像度の荒さや可視光画像に写る指の影などの影響を受けることがあるのに対し、遮蔽物がない時点の画像からはそれらの影響を受けずに距離を計測できるため安定した結果が得やすい。そして本変形例では、対象面の遮蔽された部分で距離が変動し、事前に計測した対象面の距離が使用できない場合であっても、第1実施形態で述べたように、指の周辺で計測可能な距離を使ってタッチ入力の認識を行う。これにより誤った認識を低減し、全体のタッチ認識機能の精度を向上できる。
以下、第1実施形態と同様に、テーブルトップインタフェースシステムの操作面に操作者が物体を載置し、物体の表面上の任意領域を操作者が片手の指1本によってタッチ〜ムーブ〜リリースで指定し、その領域を撮影する場合を例に挙げて説明する。ただし、変形例においても操作体は操作者の手や指に限られない。
[装置の構成]
変形例に係るインタフェースシステムの外観および装置の構成は、図1及び図2に示した第1実施形態のものに準じる。従って共通する各要素について、詳細な説明を省略する。
図10は、変形例における情報処理装置100の機能構成の一例を示すブロック図である。各機能部は、CPU200が、ROM201に格納されたプログラムをRAM202に展開し、第1実施形態に準じた各フローチャートに従った処理を実行することで実現される。ただし、代替としてハードウェアを用いることも可能である。なお図2(b)に示した第1実施形態と同等の機能を有する機能部には同じ番号を付して詳細な説明は省略している。ここでは第1実施形態と異なる点を説明する。
背景記憶部1000は、画像取得部210によって取得された画像の内、領域抽出部211によって抽出された手領域を除く全ての画素について、各画素に相当する距離を背景距離画像としてRAM202に記憶する。その時点で既に記憶されている場合はその情報を更新する。
変動検出部1001は、画像取得部210によって取得された画像の内、領域抽出部211によって抽出された手領域を除く所定の画素について、対象面の状態が変動したか否かを検出する。本実施形態では、該処理時に取得された画像と前回の処理時に取得された画像との差分(フレーム間差分)に基づき変動を検出する。
変形例の認識部216は、変動検出部1001によって、変動が検出された場合に、指先検出部212が検出した指先と分割部215が分割した指先周辺の小領域との接触の有無を認識する。一方、変動検出部1001によって、変動が検出されなかった場合は、指先検出部212が検出した指先と背景記憶部1000が記憶した背景距離画像の指先に相当する領域との接触の有無を認識する。
[領域指定操作の認識処理の説明]
図11のフローチャートに従って変形例のタッチ入力に基づく指定領域の撮影処理を説明する。図11のフローチャートの処理は、情報処理装置の各機能部を構成するCPU200がROM201に記憶されたプログラムをRAM202に展開して実行することで実現される。本実施形態では、可視光カメラ102によって撮影された可視光画像が情報処理装置100に入力されたことに応じて図11のフローチャートの処理が開始される。また本実施形態では、図11のフローチャートの処理が、可視光カメラ102から可視光画像が入力される毎に繰り返される。従って処理が繰り返される周期は、可視光カメラ102の撮像映像のフレームレートに一致する。なお図3に示した第1実施形態と同等の処理を行うステップには同じ番号を付して詳細な説明は省略している。ここでは第1実施形態と異なる点を説明する。
ステップS1100では、背景記憶部1000が、ステップS301で抽出された手領域を除く画素にマッピングされた距離を、背景距離画像の各画素における距離としてRAM202に記憶する。背景距離画像とは、画像を構成する各画素に、基準となる距離画像センサ103からその画素に対応するタッチ対象面上の点までの距離に相当する値が格納された画像形式の情報である。ステップS1100では、すでに背景距離画像が記憶されている場合には、背景距離画像のうち、手領域を除く画素についてのみ距離を記憶又は更新し、手領域に相当する画素の距離は更新しない。つまり、背景距離画像は、ある時刻に距離画像センサ103によって撮像された1つの画像そのものではなく、距離画像センサ103によって撮像される距離画像と1対1で対応する同数の画素数を持ち、画素毎に適宜値が更新されていくデータである。本変形例では、繰り返し距離画像が撮像される度に、ステップS1100で非手領域の部分の距離を背景距離画像に反映する。これにより、例えその後その部分が指等で遮蔽されたとしても、対象面と距離画像センサ103に変動が生じていない間であれば、指等の下に存在するタッチ対象面の距離情報を保持しておくことができる。
変形例では、ステップS302で手領域が抽出されたと判定した場合(ステップS302でYes)、ステップS1101に進む。ステップS1101では、変動検出部1001が、画像取得部210によって取得された画像の内、領域抽出部211によって抽出された手領域を除く領域について、対象面の状態が変動したか否かを検出する。本変形例では、ステップS300で最後に取得された画像と、前回取得された画像との差分(フレーム間差分)に基づき変動を検出する。なお、距離画像間のフレーム間差分処理だけで判定結果を得てもよいし、距離画像と可視光画像の両方で判定を行い、いずれか片方あるいは両方の結果を判定結果として出力してもよい。変動が検出された場合(ステップS1102でYes)、ステップS303に進む。ステップS303に進むのは、記憶された背景距離画像の手領域に遮蔽された領域の距離が変動している可能性が高いとみなされる場合である。ステップS303では、第1実施形態と同様、第2領域の検出に基づくタッチ入力の認識処理が実行される。一方、変動が検出されなかった場合(ステップS1102でNo)、ステップS1103に進む。ステップS1103に進むのは、記憶された背景距離画像の手領域に遮蔽された領域の距離が変動していない可能性が高いとみなされる場合である。ステップS1103では、指先検出部212及び認識部216が、背景距離画像に基づくタッチ認識を処理する。以降の操作認識処理は、第1実施形態と同様である。なお、ステップS1102では、変動を検出する領域を、非手領域の中でも手領域から所定距離の領域に限定することにより、手領域に遮蔽された領域の変動有無の検出精度を高めることが可能である。
[タッチ入力認識の説明]
ここで、ステップS1103の背景距離画像に基づくタッチ入力の認識処理について説明する。図12は変形例の背景距離画像に基づくタッチ入力の認識処理を表すフローチャートである。図12のフローチャートの処理は、ステップS1102において画像中の変動が検出されたことに応じて開始される。
まず、ステップS1200では、指先検出部212が、可視光画像中に抽出された手領域から、指先に相当する第1領域を検出する。本実施形態では、前述したステップS500と同様の方法で指先を検出する。ステップS1201では、背景記憶部1000が、ステップS1200で検出された第1領域の位置(座標)を表す情報に基づいて、RAM202に記憶された背景距離画像中から、第1領域に対応する部分領域を検出する。
ステップS1202では、認識部216が、ステップS1200で検出した第1領域から求められる基準から指先までの距離と、ステップS1201で検出した背景距離画像中の部分領域から求められる基準から対象面までの距離の差を取得する。そして、その差分の大きさを所定の閾値と比較する。ステップS1201で検出した背景距離画像中の部分は、指先によって遮蔽されているタッチ対象面を表す。変形例では、第1領域に含まれる画素にマッピングされた距離の平均値を、基準から指先までの距離として取得する。また、背景距離画像中の第1領域に対応する部分を占める画素の距離の平均値を、基準から指先に遮蔽された対象面までの距離として取得する。そして、基準からタッチ対象面までの距離から、基準から指先までの距離を減算した値(差)を指先と対象面の間の距離とみなす。この差が所定の閾値よりも小さい場合に、指先が指先に遮蔽されているタッチ対象面に接触していると判定する。なお、閾値は距離画像センサの測距精度や指の厚みを考慮して決定されることが望ましい。
指先と指先相当領域との距離が閾値よりも大きく、接触していると判定されない場合(ステップS1203でNo)、該入力画像に対するタッチ認識処理を終了する。一方、指先と指先相当領域との距離が閾値よりも小さく、接触していると判定される場合(ステップS1203でYes)、ステップS1204に進み、位置決定部218が、指先相当領域の重心を求め、タッチ位置として出力する。
以上により、本変形例では、変動しないタッチ対象面に対するタッチ操作を高精度に認識できる上で、さらに遮蔽された状態で変動するタッチ対象面に対するタッチ操作も認識することができる。
なお、上述した変形例では、入力画像のフレーム間差分に基づきタッチ対象面の変動を検出し、変動の有無に基づいてタッチ入力の認識処理を切り替えた。ただし、これに代わり、物体が把持されているか否かの判定に基づき物体の静止及び/又は非静止を検出し、その検出結果を変動の有無とみなして認識処理の切り替え基準としてもよい。図13は、把持された物体と非把持物体のそれぞれに対し、タッチ入力が行われる様子を撮像した可視光画像の一例を表す。図13(a)では、物体107は操作者の手900に把持されており、物体107上のタッチ対象面が変動する可能性が高い。そこで、把持されている物体に相当する領域1300に手領域あるいは第1領域が重なっている場合には、ステップS1102の判定結果をYesとし、第2領域に基づいてタッチ入力を認識する。一方、図13(b)では、物体107が操作者の手900を離れ載置されており、物体107上のタッチ対象面が変動する可能性が極めて低い。そこで、載置されている物体に相当する領域1301に手領域あるいは第1領域が重なっている場合には、ステップS1102の判定結果をNoとし、背景距離画像に基づいてタッチ入力を認識する。物体が把持されているか否かの判定は、過去に取得された所定数フレームの画像において、物体領域が手領域および画像の枠から離れ孤立したか否かを検出することにより求めることができる。これにより、手領域に遮蔽された領域の変動有無の検出精度を高めることが可能である。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
210 画像取得部
211 領域抽出部
212 指先検出部
213 第2領域設定部
214 距離取得部
215 分割部
216 認識部
217 接点取得部
218 位置決定部
219 表示制御部
220 撮像制御部

Claims (17)

  1. 所定の対象面を背景とする空間に向けた撮像部により撮像した画像を取得する画像取得手段と、
    前記画像を構成する複数の領域に関して、基準となる位置から各領域の被撮像面までの距離に相当する情報を取得する距離取得手段と、
    前記画像取得手段によって取得された1の画像のうち、物体の所定の部位が撮像された第1領域に関して前記距離取得手段によって取得される情報と、前記画像の一部であって前記第1領域の周囲に接する第2領域に関して前記距離取得手段によって取得される情報を使って、前記物体による前記対象面への入力を認識する認識手段と、
    前記認識手段により、前記物体による前記対象面への入力が認識された場合、前記第1領域から特定される領域の重心の位置に基づき前記入力により指示されたとみなされる位置を決定する決定手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記認識手段は、前記第1領域に関して前記距離取得手段によって取得される情報と、前記第2領域に関して前記距離取得手段によって取得される情報を使って、前記物体の前記所定の部位と前記対象面の間の距離が所定の距離より小さいと判定される場合、前記物体による前記対象面への所定の入力状態を認識することを特徴とする請求項1に記載の情報処理装置。
  3. 前記所定の入力状態とは、前記物体が前記対象面にタッチしているとみなされる状態であることを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記画像おいて、前記物体の所定の部位の輪郭から所定距離にある画素の集合のうち前記第1領域を除く部分を、前記第2領域として設定する設定手段を更に備えることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記画像に写る前記物体の所定の部位の輪郭の形状に基づいて、前記画像から前記第1領域を抽出する抽出手段と、
    前記抽出手段に抽出された前記第1の領域の形状に基づいて、前記第2領域を設定する設定手段を更に備えることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  6. 前記認識手段は、前記画像のうち前記第1領域に反映された距離に基づいて推定される基準となる位置から前記物体の所定の部位までの距離と、前記画像のうち前記第2領域に反映された距離に基づいて推定される前記基準から前記対象面のうち前記物体の所定の部位に遮蔽された部分までの距離との差分が、前記所定の距離より小さい場合、前記入力を認識することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
  7. 前記画像のうち前記物体の所定の部位が写る第1領域に反映された距離に基づいて、基準となる位置から前記物体の所定の部位までの距離に相当する情報を取得し、前記画像の一部であって前記第1領域の周辺に位置する第2領域に反映された距離に基づいて、前記基準となる位置から前記対象面までの距離に相当する情報を取得する距離取得手段を更に備え、
    前記認識手段は、前記距離取得手段によって取得された情報から取得される前記基準となる位置から前記物体の所定の部位までの距離と前記基準となる位置から前記対象面までの距離の差分が、前記所定の距離より小さいことに基づいて、前記物体による前記対象面への入力を認識することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
  8. 前記距離取得手段は、前記画像のうち前記第2領域に反映された距離に基づいて、前記基準となる位置から、前記対象面のう前記物体の所定の部位に遮蔽された部分までの距離とみなされる距離を取得することを特徴とする請求項に記載の情報処理装置。
  9. 前記第2領域を所定の条件に基づいて1つ以上の小領域に分割する分割手段を備え、
    前記距離取得手段は、分割された前記小領域毎に、前記基準となる位置から前記小領域に写る前記対象面までの距離を取得し、
    前記認識手段は、前記基準となる位置から前記物体の所定の部位までの距離と、前記小領域毎に取得された距離のうち少なくとも1つとの差分が、前記所定の距離より小さい場合、前記物体による前記対象面への入力を認識することを特徴とする請求項7又は8に記載の情報処理装置。
  10. 前記分割手段は、前記第2領域を距離の不連続性に基づいて1つ以上の小領域に分割することを特徴とする請求項に記載の情報処理装置。
  11. 前記画像から、前記分割された前記小領域のうち、該小領域から取得される前記基準となる位置から前記小領域に写る前記対象面までの距離と、前記基準となる位置から前記物体の所定の部位までの距離との差分が前記所定の距離を下回る小領域について、前記第1領域との接点の集合を取得する接点取得手段と、
    前記認識手段により前記入力が認識された場合に、前記第1領域から前記接点の集合を含む小領域を抽出し、抽出された領域の重心に基づいて前記所定の部位によって指示される位置を検出する位置検出手段を備えることを特徴とする、
    請求項9又は10に記載の情報処理装置。
  12. 前記画像取得手段が取得する画像から、少なくとも前記物体が写る領域を除いた領域に関して前記距離取得手段が取得する距離の情報を、背景の距離の情報として記憶する記憶手段と、前記画像取得手段が取得する画像に反映された距離に基づいて、前記基準となる位置から前記物体が写る領域を除いた領域に相当する被撮像面までの距離の変動の有無を検出する変動検出手段を更に備え、
    前記認識手段は、前記変動検出手段によって変動が検出されない場合、前記画像のうち前記第1領域に反映された距離に基づいて推定される前記基準となる位置から前記物体の所定の部位までの距離と、前記記憶手段に記憶された前記背景の距離の情報によって示される前記第1領域に対応する距離に基づいて推定される前記基準から前記対象面のうち前記物体の所定の部位に遮蔽された部分までの距離との差分が、前記所定の距離より小さいことに基づいて、前記画像中で指示部位に遮蔽された面に指示部位が接触していることを認識することを特徴とする請求項1乃至1のいずれか1項に記載の情報処理装置。
  13. 前記認識手段は、前記物体のうち前記所定の部位と対象面の間の距離が所定の距離より小さいことを、前記物体による前記対象面へのタッチ入力として認識することを特徴とする請求項1乃至1のいずれか1項に記載の情報処理装置。
  14. 前記画像は、各画素に撮像された被撮像面までの距離に相当する情報を画素値として格納した距離画像であることを特徴とする請求項1乃至1のいずれか1項に記載の情報処理装置。
  15. 情報処理装置の制御方法であって、
    画像取得手段により、所定の対象面を背景とする空間に向けた撮像部により撮像した画像を取得する取得する画像取得工程と、
    距離取得手段により、前記画像を構成する複数の領域に関して、基準となる位置から各領域の被撮像面までの距離に相当する情報を取得する距離取得工程と、
    認識手段により、前記画像取得工程において取得された1の画像のうち、物体の所定の部位が撮像された第1領域に関して前記距離取得工程で取得される情報と、前記画像の一部であって前記第1領域の周囲に接する第2領域に関して前記距離取得工程で取得される情報を使って、前記物体による前記対象面への入力を認識する認識工程と
    前記認識工程で前記物体による前記対象面への入力が認識された場合、決定手段により、前記第1領域から特定される領域の重心の位置に基づき前記入力により指示されたとみなされる位置を決定する決定工程とを有することを特徴とする情報処理装置の制御方法。
  16. コンピュータに読み込ませ実行させることによって、前記コンピュータを、請求項1乃至1のいずれか1項に記載の情報処理装置として動作させるプログラム。
  17. 請求項1に記載されたプログラムを格納したことを特徴とするコンピュータが読み取り可能な記憶媒体。
JP2016091625A 2016-04-28 2016-04-28 情報処理装置、その制御方法、プログラム、及び記憶媒体 Active JP6723814B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016091625A JP6723814B2 (ja) 2016-04-28 2016-04-28 情報処理装置、その制御方法、プログラム、及び記憶媒体
US15/496,942 US10642422B2 (en) 2016-04-28 2017-04-25 Information processing apparatus, control method for the information processing apparatus, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016091625A JP6723814B2 (ja) 2016-04-28 2016-04-28 情報処理装置、その制御方法、プログラム、及び記憶媒体

Publications (3)

Publication Number Publication Date
JP2017199289A JP2017199289A (ja) 2017-11-02
JP2017199289A5 JP2017199289A5 (ja) 2019-05-30
JP6723814B2 true JP6723814B2 (ja) 2020-07-15

Family

ID=60157463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016091625A Active JP6723814B2 (ja) 2016-04-28 2016-04-28 情報処理装置、その制御方法、プログラム、及び記憶媒体

Country Status (2)

Country Link
US (1) US10642422B2 (ja)
JP (1) JP6723814B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6690622B2 (ja) * 2017-09-26 2020-04-28 カシオ計算機株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
US11861136B1 (en) * 2017-09-29 2024-01-02 Apple Inc. Systems, methods, and graphical user interfaces for interacting with virtual reality environments
TWI734867B (zh) * 2017-11-20 2021-08-01 達明機器人股份有限公司 機器手臂作業軌跡的教導系統及方法
CN107928675A (zh) * 2017-11-22 2018-04-20 王华锋 一种基于深度学习和红点激光相结合的人体躯干测量方法
JP7345142B2 (ja) * 2018-02-14 2023-09-15 パナソニックIpマネジメント株式会社 リスク評価システム及びリスク評価方法
CN110308817B (zh) * 2019-06-10 2023-04-07 青岛小鸟看看科技有限公司 一种触控动作识别方法及触控投影***
CN112917017B (zh) * 2019-12-05 2023-08-29 大族激光科技产业集团股份有限公司 待加工件的定位方法及待加工件的定位***
JP6930795B2 (ja) * 2019-12-09 2021-09-01 Necプラットフォームズ株式会社 公営競技投票システム、公営競技投票方法、及び公営競技投票プログラム
US11782548B1 (en) * 2020-03-25 2023-10-10 Apple Inc. Speed adapted touch detection

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4858631B2 (ja) 2010-06-17 2012-01-18 パナソニック株式会社 画像投影装置、判定方法及び判定プログラム
JP6099023B2 (ja) * 2014-05-29 2017-03-22 パナソニックIpマネジメント株式会社 プロジェクタシステム
WO2016035231A1 (ja) 2014-09-03 2016-03-10 パナソニックIpマネジメント株式会社 ユーザインターフェース装置およびプロジェクタ装置
JP2016184362A (ja) * 2015-03-26 2016-10-20 富士通株式会社 入力装置、入力操作検出方法及び入力操作検出用コンピュータプログラム

Also Published As

Publication number Publication date
US10642422B2 (en) 2020-05-05
JP2017199289A (ja) 2017-11-02
US20170315674A1 (en) 2017-11-02

Similar Documents

Publication Publication Date Title
JP6723814B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP6323040B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6417702B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US9756265B2 (en) Information processing apparatus recognizing certain object in captured image, and method for controlling the same
US9645735B2 (en) Information processing device and information processing method
JP6089722B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US20120169671A1 (en) Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and an imaging sensor
US9035889B2 (en) Information processing apparatus and information processing method
CN107407959B (zh) 基于姿势的三维图像的操纵
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
JP6711817B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP7162079B2 (ja) 頭部のジェスチャーを介してディスプレイ装置を遠隔制御する方法、システムおよびコンピュータプログラムを記録する記録媒体
JP2012238293A (ja) 入力装置
US10254893B2 (en) Operating apparatus, control method therefor, and storage medium storing program
JP6335695B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2016103137A (ja) ユーザインタフェース装置、画像処理装置及び制御用プログラム
JP2017219942A (ja) 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム、接触検出方法、プログラム及び記憶媒体。
JP2017084307A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP6746419B2 (ja) 情報処理装置、及びその制御方法ならびにコンピュータプログラム
JP6632298B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6643825B2 (ja) 装置及び方法
JP6618301B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2018063555A (ja) 情報処理装置、情報処理方法及びプログラム
JP6555958B2 (ja) 情報処理装置、その制御方法、プログラム、および記憶媒体
JP2018055685A (ja) 情報処理装置、その制御方法、プログラム、および記憶媒体

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190417

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200624

R151 Written notification of patent or utility model registration

Ref document number: 6723814

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151