JP2016071546A - 情報処理装置とその制御方法、プログラム、記憶媒体 - Google Patents

情報処理装置とその制御方法、プログラム、記憶媒体 Download PDF

Info

Publication number
JP2016071546A
JP2016071546A JP2014199181A JP2014199181A JP2016071546A JP 2016071546 A JP2016071546 A JP 2016071546A JP 2014199181 A JP2014199181 A JP 2014199181A JP 2014199181 A JP2014199181 A JP 2014199181A JP 2016071546 A JP2016071546 A JP 2016071546A
Authority
JP
Japan
Prior art keywords
objects
image
information processing
hand
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014199181A
Other languages
English (en)
Other versions
JP6452369B2 (ja
Inventor
新井 常一
Tsuneichi Arai
常一 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014199181A priority Critical patent/JP6452369B2/ja
Priority to CN201510604295.8A priority patent/CN105468189A/zh
Priority to US14/866,633 priority patent/US9715738B2/en
Priority to EP15187422.9A priority patent/EP3001350A1/en
Publication of JP2016071546A publication Critical patent/JP2016071546A/ja
Application granted granted Critical
Publication of JP6452369B2 publication Critical patent/JP6452369B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ユーザの手の三次元計測に基づいて入力された操作を認識する場合に、検出された複数の手が、1人のユーザの複数の手であるか、複数ユーザのそれぞれの手であるかの区別を容易とする。
【解決手段】操作面上の空間を撮像した画像の情報を取得する画像取得部210と、取得された画像の情報に基づいて、操作入力に用いられる複数の物体のそれぞれが、空間に現れた位置を特定する位置特定部211と、複数の物体のそれぞれについて特定された位置に基づいて、複数の物体のうち、協同して1つの指示を入力する複数の物体の組み合わせ特定し、互いに対応付ける対応付け部212と、を備える。
【選択図】図2

Description

本発明は、マルチタッチ操作を認識する技術に関する。
タッチパネルを介して入力するUl(ユーザインタフェース)では、複数のタッチ位置を連動させて入力するマルチタッチ操作が一般的に利用されている。複数のユーザが同時に操作可能なシステムで、マルチタッチ操作を認識する場合は、検出された複数のタッチ位置が、1人のユーザがマルチタッチ操作を意図して入力されたものか、複数のユーザがそれぞれ入力したものかを識別する必要がある。
特許文献1では、タッチパネルに接触したユーザの指の面積および形状から推定される指の方向に基づいて、1人のユーザによる入力か、複数ユーザによる入力かを判別する。
特開2014−16795号公報
近年では、可視光カメラや赤外線カメラや距離画像センサによって得られた画像から、ユーザの手など特定の物体が写る領域を抽出し、その動きや位置に応じてジェスチャによるUI(ユーザインターフェース)操作を認識する技術が広まりつつある。このようなシステムでは、指などの位置を三次元計測することで、指と、任意の壁やテーブルなどタッチ対象面との近接距離を取得し、その大きさに基づいて接触の有無を判定する。
このようなタッチシステムにおいても、マルチタッチ操作が入力可能であることが望まれる。しかしながら、特許文献1のように、任意の壁やテーブルから指との接触面の情報を得ることはできない。また、システムが大きく、多くの複数のユーザが同時に操作することが可能であるほど、ユーザは様々な角度からシステムを操作するようになる。従って、タッチパネル以外から指の方向が検出可能であったとしても、隣り合った複数のユーザの指の方向に角度差が生じにくいため、識別が困難となる。
本発明は、上記課題を考慮したものであり、ユーザの手の三次元計測に基づいて入力された操作を認識する場合に、検出された複数の手が、1人のユーザの複数の手であるか、複数ユーザのそれぞれの手であるかの区別を容易とすることを目的とする。
情報処理装置であって、操作面上の空間を撮像した画像の情報を取得する画像取得手段と、前記画像取得手段が取得した画像の情報に基づいて、操作入力に用いられる複数の物体のそれぞれが、前記空間に現れた位置を特定する特定手段と、前記複数の物体のそれぞれについて特定された位置に基づいて、前記複数の物体のうち、協同して1つの指示を入力する複数の物体の組み合わせ特定し、互いに対応付ける対応付け手段と、を備えることを特徴とする情報処理装置。
本発明によれば、ユーザの手の三次元計測に基づいて入力された操作を認識する場合に、検出された複数の手が、1人のユーザの複数の手であるか、複数ユーザのそれぞれの手であるかの区別が容易となる。
情報処理装置100を設置したテーブルトップインタフェースの外観と操作環境の一例を表す図。 情報処理装置100のハードウェア構成及び機能構成を表すブロック図。 情報処理装置100が実行するタッチ操作認識処理の流れの一例を示すフローチャート。 情報処理装置100が実行する1人ユーザ手の対応付け処理の流れの一例を示すフローチャート。 情報処理装置100が実行する画像比較処理の流れの一例を示すフローチャート。 情報処理装置100が実行する色情報比較処理の流れの一例を示すフローチャート。 テーブルトップインタフェースの操作環境の一例を表す図。 情報処理装置100が実行する対応付け指示の検出処理の流れの一例を示すフローチャート。 対応付け指示の入力例を表す図。
以下、本発明に係る実施形態の情報処理を、図面を参照して詳細に説明する。なお、実施形態に記載する構成は例示であり、本発明の範囲をそれら構成に限定する趣旨のものではない。
(第1の実施形態)
本実施形態では、ジェスチャ操作やタッチ操作を認識する空間にユーザが手を侵入させた時点での位置を侵入位置として保持し、複数の手がある場合、侵入位置の位置関係に基づいて1人のユーザの手であるか、複数のユーザそれぞれの手であるかを区別する。そして、1人のユーザの手であると推定される複数の手を対応付けて、それらが協同する操作を認識する。対応付けられた複数の手が協同する操作とは、複数のタッチ位置に基づいてコマンドを入力するマルチタッチ操作や、複数の手の動きを組み合わせて入力するジェスチャ操作である。
図1(a)は、本実施形態に係る情報処理装置100を設置したテーブルトップインタフェースシステムの外観の一例である。また、位置情報を定義する座標軸も示す。操作面101は、テーブルトップインタフェースのテーブル部分であり、ユーザは、操作面101をタッチすることでタッチ操作が可能である。本実施形態では、操作面101の上方に、操作面を見下ろすようにして距離画像センサ102が設置される。距離画像センサ102が撮像する距離画像の画素値には、距離画像センサ102から操作面101までの距離が反映される。撮像された距離画像は、情報処理装置100に入力画像として入力される。情報処理装置100は、入力画像を解析することでユーザの手の三次元位置を取得し、操作を認識する。本実施形態では、赤外光の反射パターン(または反射時間)によって距離情報を取得する方式のセンサを利用する。また本実施形態では、可視光カメラ103もまた、上方から操作面101を見下ろすようにして設置される。情報処理装置100は、可視光カメラ103を制御して、操作面101に載置された物体を撮像してその読み取り画像を得る書画カメラとして機能することができる。情報処理装置100は、可視光カメラ103によって得られる可視光画像や、距離画像センサ102によって得られる距離画像に基づいて、操作面101上の空間に存在する物体を検出し、さらに識別する。物体には、例えば、ユーザの手、紙媒体や本などのドキュメントやその他の立体物を含む。ただし、図1(a)のシステムの場合、距離画像センサ102と可視光カメラ103の画角には、テーブル周囲に存在するユーザの頭部は含まれない。また、操作面101を上方からみた画像が得られる構成であれば、必ずしも距離画像センサ102及び可視光カメラ103自体が上方に設置されている必要はなく、例えばミラーを用いて反射光を撮像するように構成しても構わない。
プロジェクタ104は、操作面101の上面に画像の投影を行う。本システムでは、ユーザは投影された画像に含まれるアイテム105に対して、タッチやジェスチャによる操作を行う。本実施形態では、ユーザの手の検出および操作の認識に距離画像を用いる。なお、可視光画像からの肌色領域を検出するなどしても画像から人の手を検出することも可能である。本実施形態の場合は、距離画像を用いることで、プロジェクタ104の投影光の影響でユーザの手の色が変化しても影響を受けにくいという利点がある。また、本システムの表示装置としては、プロジェクタ104に替えて、操作面101を液晶ディスプレイとするなどとすることもできる。
本実施形態では、操作面101上の三次元空間に図1(a)に示すx、y、z軸を定義し、位置情報を扱う。ここでは一例として、点107を原点とし、テーブル上面に平行な二次元がx、y平面、テーブル上面に直交し上方に伸びる方向をz軸の正方向としている。なお、本実施形態では、z軸方向は、世界座標系での高さ方向に相当する。しかしながら本実施形態は、ホワイトボードや壁面など、水平ではない面を操作面101とするシステムにも適用可能である。
図1(b)は、操作面101を上方から見た状態を示す図である。図1(b)で示す範囲109が、距離画像センサ102、あるいは可視光カメラ103の画角に相当し、以下では画像端と称す。ここでは、ユーザの手106a、106b、106cのうち、手106aと手106bは第1ユーザの両手であって、手106cだけが別のユーザBの手である。このように本実施形態では、複数のユーザが同時に操作入力を行うことが可能である。本実施形態では、検出される手のそれぞれに対して1箇所の指示位置を検出する。指示位置とは、当該手によってユーザが指示しようとしていることが推定される位置の座標である。本実施形態では、指先であると推定される位置を指示位置として特定する。具体的には、距離画像のから、手が写る領域(以下では単に手領域という)を抽出し、手領域のうち画像端109から一番遠いところに存在する画素を示す座標を、指示位置とする。例えば、手106aの場合、画像端109から最も遠い点108が指示位置として特定される。また本実施形態では、手領域が最初に検出されたフレームで、手領域が画像端109と交差する部分の中央を、手の侵入位置と定義する。つまり侵入位置とは、ユーザが操作を開始したときに、画角内に手が現れた位置に対応する。なお、ユーザが操作を開始しようとした段階の、手が現れた位置情報が得られるのであれば、手領域の抽出が可能となった最初のフレームではなく、その後に続くフレームの画像から侵入位置を特定してもかまわない。手106aの場合、侵入位置は点110である。本実施形態では、複数の手が検出された場合、それぞれの侵入位置の位置関係に基づいて、それらが1人のユーザの複数の手であるか、複数のユーザそれぞれの手であるかを区別する。
図2(a)は、本実施形態に係る情報処理装置100を含むテーブルトップインタフェースのハードウェア構成図である。CPU200は、情報処理装置100の制御プログラムを実行して各種処理のための演算や論理判断などを行い、システムバス204に接続された各構成要素を制御する。ROM201は、プログラムメモリであって、後述する各種処理手順を含むCPU200による制御のためのプログラムを格納する。RAM202は、CPU200のワークエリア、エラー処理時のデータの退避領域、上記制御プログラムのロード領域などを提供するために用いられる。記憶装置203は本実施形態に係るデータやプログラムを記憶しておくためのハードディスクや接続された外部記憶装置などであり、情報処理装置100が利用する各種データを格納する。
なお本実施形態では、可視光カメラ103、距離画像センサ102、プロジェクタ104はそれぞれ情報処理装置100に入出力用のインタフェースを介して接続された外部装置であり、情報処理装置100と協同して情報処理システムを構成する。ただし、これらのデバイスは、情報処理装置100に一体化されていても構わない。
図2(b)は、本実施形態における情報処理装置100の機能構成の一例を示すブロック図である。情報処理装置100は、画像取得部210、侵入位置特定部211、対応付け部212、指示位置検出部213、タッチ判定部214、認識部215、出力制御部216から構成される。これらの各機能部は、CPU200が、ROM201に格納されたプログラムをRAM202に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU200を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
画像取得部210は、距離画像センサ102によって撮像された距離画像を、入力画像として一定時間毎に取得し、RAM202に随時保持する。また、本実施形態では、距離画像と同じタイミング、あるいは必要な場合に、可視光カメラ103によって撮像された可視光画像を取得することができる。取得される距離画像と可視光画像は、双方とも操作面101全域を含み、同じ座標位置を共有する。つまり、距離画像中である座標を特定した場合、その座標に基づいて、可視光画像の中で同じ位置を探索することが可能である。なお、画像取得部120が取得し、各機能部とやりとりするのは実際には画像データに対応する信号であるが、以下では単に「距離画像を取得する」として説明する。
侵入位置特定部211は、画像取得部210によって取得された入力画像を解析して、1以上の手領域を抽出し、形状や位置の情報を識別子に関連付けてRAM202に保持する。ここで人の手とは、人の肩から指先にかけての部位の全てを差す。本実施形態では、入力画像のうち、手に該当する部分が少なくとも一部写る領域が、手領域である。また、侵入位置特定部211は、各手領域を初めて抽出した段階で、侵入位置の座標を取得する。
対応付け部212は、抽出された全ての手領域に関して、侵入位置の座標を取得し、その位置関係に基づいて1人の人物の手であると推定された複数の手を対応付ける。特に本実施形態が、侵入位置の間の距離が予め設定された閾値よりも小さい組み合わせは、1人の人物の両手である可能性が高いとみなす。具体的には、抽出された複数の手領域について、侵入位置の間隔がより近い組み合わせを選び、距離の閾値よりも小さい場合に、対応付けを行う。閾値は、平均的な成人の体格を考慮し、一般的な人の肩幅程度の大きさであるのがよい。つまり、侵入位置の間の距離が最も小さい組み合わせであって、所定の距離よりも小さい組み合わせを特定し、互いに対応付ける。そして、RAM202に保持された手領域の識別子に、互いに対応付けられたことを示す情報を付与する。
指示位置検出部213は、抽出された手領域の形状に基づいて、当該手によって指示される位置を検出し、3次元座標をRAM202に保持する。本実施形態では、手領域に含まれる画素のうち、画像端から最も遠い画素の位置を、指示位置として検出する。例えば、ユーザの手が人差し指のみを伸ばした「指さし姿勢」である場合は、人差し指の先端が指示位置として検出される。
タッチ判定部214は、特定された指示位置のz座標を、予め定められた高さの閾値と比較することによって、対応する手によって操作面101がタッチされたかを判定する。例えば、指先が操作面101から1cmの範囲内に存在する状態を、指先が操作面101に接触している状態と定義する場合、高さ閾値を1cmとし、座標に対する閾値処理を実行する。
認識部215は、手領域の形状、指示位置の座標、及びタッチ判定部214の判定結果に基づいて、ユーザによって入力されたタッチ操作やジェスチャ操作を認識する。本実施形態では、複数の手(またはスタイラス等)の動きが協同することで1つの指示を構成する操作の認識が可能である。特に複数の手が協同する操作としては、少なくともマルチタッチ操作を認識する。
出力制御部216は、ROM201や記憶装置203に記憶された情報を用いてプロジェクタ104に投影させる表示画像を生成する。その他、ユーザ操作に応答する各種機能部に、操作の認識結果を通知する。
次に、図3のフローチャートを参照して、本実施形態に係る情報処理装置100が実行するタッチ操作認識処理の詳細を説明する。本実施形態では、距離画像センサ102から入力画像が所定の周期毎に入力される度に、図3のフローチャートが繰り返される。所定の周期は、例えば30フレーム/1秒、15フレーム/1秒である。
ステップS300において、画像取得部210は、RAM202のワーク領域を初期化し、距離画像センサ102によって撮像された距離画像を、入力画像として取得し、RAM202に保持する。
ステップS301において、侵入位置特定部211は、入力画像から、1以上の手領域を抽出し、その情報をRAM202に保持する。本実施形態では、入力として取得した距離画像の各画素が示すz方向の座標値に対して閾値処理を行うことで、操作面101よりも高さが高い座標値を持つ領域を、手領域として抽出する。ただし、抽出方法はこれに限られず、例えば別途撮像された可視光画像のRGB値を解析し、肌色領域に対応する部分を抽出する等してもよい。
ステップS302において、侵入位置特定部211は、RAM202に保持された情報を参照することで、ステップS302において抽出された手領域の手に、操作面上の空間に侵入した直後の手が含まれるかを判定する。RAM202に、1人とみなされる手領域の情報がそれまでに保持されていなければ、初期化後の処理で扱っているうちの最新フレームの距離画像で初めて当該手領域が現れたことになるので、手は当該空間に侵入した直後であると判定される。侵入直後の手が存在すると判定された場合(ステップS302でYes)、ステップS303に進む。侵入直後の手は存在しないと判定された場合(ステップS302でNo)、ステップS307に進む。
ステップS303において、侵入位置特定部211は、侵入直後の手に対応する手領域を選択して処理対象とする。
ステップS304において、侵入位置特定部211は、選択された手領域について、画像端と交差する部分を検出し、それに基づいて侵入位置を示すxy座標を取得する。本実施形態では、図1(b)の点110のように、画像端に接し手領域に含まれる画素の座標の平均値を、侵入位置の座標として算出する。
ステップS305において、対応付け部212は、選択中の新たな手領域の対応付け処理を行う。対応付け処理の詳細は後述する。
ステップS306において、指示位置検出部213は、抽出されている手領域のそれぞれについて、指示位置を検出する。手が指先を伸ばした状態であれば、その指先が指示位置として検出される。例えば、拳を握っている状態であっても、エッジ部分のうち画像端から最も遠い部分が指示位置として検出される。
ステップS307において、タッチ判定部214は、特定された指示位置のz座標と予め定められた閾値とに基づいて、抽出されている手領域に対応する手のいずれかによって、操作面がタッチされているかを判定する。本実施形態では、指示位置のz座標が、操作面からの高さの閾値よりも小さければ、タッチされていると判定する。操作面がタッチされていると判定された場合(ステップS307でYes)、ステップS308に進む。操作面はタッチされていないと判定された場合(ステップS307でNo)、処理を終了する。あるいは、手領域の形状や指示位置の軌跡に基づいたジェスチャ操作を認識する処理に移行してもよい。
ステップS308において、認識部215は、RAM202に保持された情報を参照することで、ステップS305の処理で対応付けられた手の両方によってタッチがなされているかを判定する。対応付けられた手の両方によってタッチがなされていると判定された場合(ステップS308でYes)、ステップS309に進む。対応付けられた手の両方によってタッチがなされてはいないと判定された場合(ステップS308でNo)、処理はステップS310に進む。
ステップS309では、認識部215が、1人のユーザの両手によるマルチタッチ操作を認識し、結果を出力制御部216に通知する。例えば、タッチ状態にある2つの指示位置の間の距離の、連続するフレーム間での差分を取得し、距離が小さくなった場合は「ピンチイン操作」、距離が大きくなった場合は「ピンチアウト操作」が入力されたことを認識する。これらはそれぞれ、画像の縮小、画像の拡大の指示に割り当てられることが多い。また、タッチ状態にある2つの指示位置を通る直線の角度の、連続するフレーム間での差分を取得し、角度の変化方向に基づいて「右回転操作」あるいは「左回転操作」が入力されたことを認識する。これらはそれぞれ、画像の右回転、左回転に割り当てられることが多い。通知を受けた出力制御部216は、操作に対する応答を反映した表示画像を生成し、プロジェクタ104に出力する。
ステップS310では、認識部215が、シングルタッチ操作を認識し、結果を出力制御部216に通知する。例えば、タッチ状態にある指示位置を数フレーム分に渡って追跡し、軌跡の形状を識別する。そして、識別された形状に対応するコマンドを発行する。例えば、「V型」の軌跡であれば、その軌跡下に表示されたアイテムを消去し、「○型」の軌跡であれば、その軌跡下に表示されたアイテムを複製する、といった指示を認識し、応答する。
ステップS309あるはステップS310の処理は、所定時間(または所定数のフレームの取得)を待機しても、意味をもつ操作が認識されない場合は、タイムアウトして処理を終了する。なお、ここで挙げたマルチタッチ操作、及びシングルタッチ操作は一例である。この処理を終了する。そして、次の周期毎に取得された入力画像について、処理が繰り返される。
次に、図4(a)のフローチャートを参照して、図3のステップS305で実行される対応付け処理の詳細を説明する。本実施形態の対応付け処理は、複数のユーザがそれぞれテーブルトップシステムを利用している場合、その手と手の間の距離は十分に遠いことを前提としている。その上で、最も間隔が狭い手の組み合わせを選び、それが1人の人物の肩幅程度の大きさであるかに基づいて、1人のユーザの両手であるかを判定する。
ステップS400において、対応付け部212は、対応付けがなされていない手領域について、侵入位置間の距離を取得する。対応付けがなされていない手領域が3以上存在する場合には、2つの手領域を選択した全ての組み合わせについて距離の取得を行う。
ステップS401において、対応付け部212は、ステップS400で取得した中で、最も侵入位置間の距離が近い手の組み合わせを選択する。
ステップS402において、対応付け部212は、選択した手の組み合わせについて、侵入位置間の距離は予め定められた距離の閾値以下であるかを判定する。侵入位置間の距離は予め定められた距離の閾値より小さいと判定される場合(ステップ402でYes)、ステップS403に進む。侵入位置間の距離は予め定められた距離の閾値以上であると判定される場合(ステップ402でNo)、タッチ操作認識処理に返る。ここで閾値は、一例として、40cmとする。ただし、平均的な肩幅や、操作面の大きさや、ユーザによって最適な値が設定されればよい。その際、侵入位置間の距離が閾値と一致する場合に、どのように判定するかも、適宜設定されればよい。
ステップS403では、対応付け部212が、選択されている組み合わせ(侵入位置間の距離が閾値より小さかった組み合わせ)の手を互いに対応付け、RAM202にその情報を保持し、タッチ操作認識処理に返る。例えば、互いの識別子を関連付けたり、対応付けられたペアの識別子を新たに関連付けたりして保持する。RAM202上の情報は、その手が操作面上から外に出てしまい、距離画像上から消滅した場合、消去される。
なお、図4のフローチャートでは、侵入位置間の距離は予め定められた距離の閾値より小さい場合は、当該組み合わせは1人のユーザの両手であると判断した。ただし、さらにもう1つ閾値を設定し、侵入位置間の距離が小さすぎる場合には、1人のユーザの両手ではないと判断することができる。例えば、操作面が小さく、隣り合うユーザが接近してしまう場合には、右側に存在するユーザの左手と、左側に存在するユーザの右手が極近い位置から侵入する可能性がある。一方で、両手を使うユーザが、肩幅よりも極端に近い距離に手を近づけてから、操作面上に侵入させるのは不自然である。従って、例えば侵入位置間の距離が20cmより小さい場合、その組み合わせは複数のユーザのそれぞれの手であると判断しても良い。
以上説明したように、本実施形態によれば、手の侵入位置の位置関係が、1人のユーザの肩幅程度の離れていることを条件として、2つの手を1人のユーザの両手であると推定する。従って、接触されたことを検出するタッチパネルを用いないシステムにおいても、複数の指示位置を、1人のユーザによるマルチタッチ入力か、複数のユーザによる独立した入力かを区別して認識することが可能となる。また、ユーザの頭部や動体部の位置を検出できずユーザの位置を直接知ることができないシステムにおいても、検出された複数の手が、1人のユーザの複数の手であるか、複数ユーザのそれぞれの手であるかの区別が容易となる。
なお、図3、図4のフローチャートの説明において、手領域の抽出、侵入位置及び指示位置の特定は、全て距離画像を基にして行われるものとしたが、これに限らない。可視光画像を使って行う場合も、本実施形態の効果は同じである。
また、第1の実施形態では、ユーザの手の形状(ポーズ)には拠らず、常に対応付け処理を行い、対応付けられた場合にはマルチタッチ操作を認識したが、手領域の形状と辞書データを比較することで、ポーズを認識する処理を加えてもよい。そして、例えば、人差し指だけを伸ばした「指差し」姿勢の手が検出された場合、あるいはさらに両手が「指差し」姿勢の場合のみ対応付け処理を実行し、マルチタッチ操作を認識するなどの条件を加えてもよい。これにより、必要とされない場合は対応付け処理にかかる計算負荷を低減することが可能となる。
また、第1の実施形態では、ユーザは手を使って操作を行うことを前提として、手領域の抽出に基づく一連の処理を説明したが、スタイラスなどの道具を使うにも本実施形態は適用可能である。手や手以外の物体を用いてタッチ操作が入力される場合、侵入位置特定部211は、距離画像から操作面101より高い位置に存在する物体が写る領域で、かつ画像端に触れる領域を抽出して、上述した処理における手領域と同様に扱えばよい。
(第2の実施形態)
第2の実施形態では、操作開始時の手位置の条件に基づいて対応付けられた手について、画像を比較して対応付けの妥当性を判定する処理を加える例を説明する。
本実施形態におけるシステムの構成、及び情報処理装置100のハードウェア構成は、第1の実施形態の図1、図1(a)と同様であるため、説明を省略する。
図2(c)は、第2の実施形態に係る情報処理装置100の機能構成を示す図である。第1の実施形態と異なる点は、画像比較部220が加わったことである。画像比較部220は、対応付け部212によって対応付けられた手について、画像から得られる特徴を比較し、その差異を取得する。本実施形態は、画像から得られる特徴として、手首から先部分の大きさ、肌の色、袖の色、腕の方向角度である。画像比較部220もまた、他の機能部と同様CPU200の機能部であって、ROM201に格納されたプログラムをRAM202に展開し後述するフローチャートに従った処理を実行することで実現されている。
本実施形態において、情報処理装置100がタッチ操作を認識する処理の流れは、第1の実施形態と同様、図3のフローチャートに従う。ただし、第2の実施形態では、図3のステップS305の対応付け処理は、図4(b)に示すフローチャートに従う。図4(b)では、図4(a)のフローチャートに示したのと同じ処理については、同符号を付し、その説明を省略する。図4(a)のフローチャートとの違いは、ステップS403において、対応付け部212による対応付けがなされたあとに、ステップS404において、画像比較部220による画像比較処理が実行されることと、ステップS405が追加されていることである。
ここで、図5は、ステップS404において実行される画像比較処理の流れを示すフローチャートである。ステップS500において、画像取得部210が、手領域の可視光画像を取得する。画像取得部210は、RAM202のワーク領域を確保し、可視光カメラ103によって撮像された可視光画像を取得する。そして、ステップ301において抽出された手領域に相当する部分の画像データを識別して取得する。可視光画像は、ステップS501の処理時に撮像を指示してもよく、また、所定周期毎に撮像されバッファされているものを取得してもよい。
ステップS501において、画像比較部220は、各手領域について、手首から先部分を特定する。なお手首から先とは、5本の指、手の甲と掌を含む部分である。例えば、手領域全体のうち、画像端から遠い側の所定の割合の部分を手首から先部分として特定したり、手領域の形状を認識して5指や手首から先の重心または中心を特定し、その周囲の部分を手首から先部分として特定したりすることで特定可能である。
ステップS502では、画像比較部220が、手首から先部分の大きさを取得する。具体的には、画像領域のうち手首から先と特定された部分の画素数を面積として求める。さらに、本実施形態では、予め既知である人の手首から先の形状と標準的な面積を用いて正規化し、各手領域について、手首から先の大きさを表す0〜100の値を取得する。正規化処理により、例え手首から先の形状(ポーズ)が異なった場合でも、それによって大きさに差異があるとは判定されることを防ぐことができる。ただし、手首から先部分の面積で行う処理は、手の甲(あるいは掌)の部分と特定して対象としたり、腕領域の全体あるいは所定の一部を特定して対象としたりしてもよい。
なお、ステップS501及びステップS502の処理は、少なくとも、対応付けが行われた組み合わせの手については必ず行われる。一方、対応付けが行われていない残りの手については省略されてもよい。なお、対応付けが行われていない手についても大きさが取得された場合、大きさの類似度に基づいて、次に対応付けを行う候補となる組み合わせを決定してもよい。
ステップS503では、画像比較部220が、対応付けられた組み合わせの手について、大きさの差が所定の閾値Aより大きいかを判定する。閾値Aは予め与えられるか、あるいは、対応付け処理を繰り返す中で学習してもよい。対応付けられた手の大きさの差が所定の閾値Aより大きくないと判定された場合(ステップS503でNo)、ステップS504に進む。一方、所定の閾値Aより大きいと判定された場合(ステップS503でYes)、本実施形態では、対応付けが誤った可能性が認められるとみなされ、ステップS405に進む。ステップS405では、対応付けが解除され、侵入位置の間の距離が次に小さい組み合わせが選択され、処理が繰り返される。
例えば、図7(a)は、大人の両手の間に、子供の片手が存在する場合の操作状況を示している。ここで例えば、ステップS502において、手701a、手701cの手首から先の大きさは100、手701bの手首から先の大きさは50という値が取得されたとする。また、閾値Aを10とする。この場合、侵入位置の間の距離が最も近い手の組み合わせは手701aと手701bであるが、手首から先の大きさの差が大きいため、対応付けは解除され、手701a、手701cの組み合わせが対応づけられるまで処理が継続される。このように、手の面積という画像から検出可能な特徴を用いて対応付けの妥当性を判定する処理を加えることで、対応付けの精度を向上させることができる。
次に、ステップS504では、画像比較部220が、手領域の色情報を比較する。ここで、図6のフローチャートを参照して、ステップS504の色情報を比較処理の詳細を説明する。
ステップS600において、画像比較部220は、対応付けられた組み合わせの手領域について、それぞれ特定された手首から先部分のRGB値を取得する。ステップS601において、画像比較部220は、取得したRGB値それぞれの差分を取得する。ステップS602では、取得した差分が、閾値b1より大きいかを判定する。RGBのうち1色でも条件を満たす場合、取得した差分が、閾値b1より大きいと判定する。あるいは、3色の平均値で判定を行っても構わない。取得した差分が閾値b1より大きいと判定された場合(ステップS602でYes)、ステップS603に進む。取得した差分が閾値b1より大きくないと判定された場合(ステップS602でNo)、ステップS604に進む。
ステップS603において、画像比較部220は、手首から先の色を、対応付け条件とすることを決定する。対応付けられた手が同一人物のものであれば、手首から先の色の差は小さいと推定される。従って、手首から先の色の差が大きいと判定されステップS603に処理が進んだ場合、対応付けが誤った可能性があるとみなされ、手首から先の色の差を判定の根拠として重みをかけて判断することを決める。
ステップS604において、画像比較部220は、対応付けられた組み合わせの手領域について、手首から先を探索することで、袖部分を特定する。例えば、形状で判定したり、色の変化が激しい位置を探索するなどにより特定を行う。ステップS605では、画像比較部220が、それぞれ特定された袖部分のRGB値を取得する。ステップS606において、画像比較部220は、取得したRGB値それぞれの差分を取得する。ステップS607では、取得した差分が、閾値b2より大きいかを判定する。RGBのうち1色でも条件を満たす場合、取得した差分が、閾値b2より大きいと判定する。あるいは、3色の平均値で判定を行っても構わない。取得した差分が閾値b2より大きいと判定された場合(ステップS607でYes)、ステップS608に進む。取得した差分が閾値b1より大きくないと判定された場合(ステップS607でNo)、図5のフローチャートに戻り、ステップS505に進む。ステップS608において、画像比較部220は、袖の色を、対応付け条件とすることを決定する。
なお、ステップS602とステップS607の両方で色の差が大きいと判定されていた場合に、ステップS603とステップS608のいずれの決定が優先されるかは、装置の設置環境やユーザの都合に合わせて適宜設定される。対応付けられた手が同一人物のものであれば、袖の色の差は小さいと推定されるが、一方で、洋服のデザインなどに影響を受ける。従って本実施形態では、ステップS603の決定を優先することとする。なお、閾値b1と閾値b2は、同じ値であってもよいが、環境等に合わせて異なる値が設定されてもよい。
図5のフローチャートに戻り、ステップS505では、画像比較部220が、対応付けられた組み合わせの手について、ステップS603あるいはステップS608での決定結果に従い、手首から先あるいは袖の色の差異が、閾値Bよりも大きいかを判定する。閾値Bは、色に明確な違いがあることを判定するための閾値であって、予め与えられるか、あるいは、対応付け処理を繰り返す中で学習してもよい。閾値b1と閾値b2とは異なる値であっても構わない。対応付けられた手の色の差が所定の閾値Bより大きくないと判定された場合(ステップS505でNo)、ステップS506に進む。一方、色の差が閾値Bより大きいと判定された場合(ステップS505でYes)、本実施形態では、対応付けが誤った可能性が認められるとみなされ、ステップS404に進む。
例えば、図7(b)は、白い服を着た人物の右手と、黒い服を着た人物の左手が接近して存在する場合の操作状況を示している。ここで例えば、ステップS502において、手702aと手702bの袖の色の違いは、明らかに異なる服であると視認できるほど異なる。そこで、侵入位置の間の距離が最も近い手の組み合わせは手702aと手702bであるが、袖の色の差が大きいため、対応付けは解除され、手702b、手702cの組み合わせが対応づけられるまで処理が継続される。このように、色という画像から検出可能な特徴を用いて対応付けの妥当性を判定する処理を加えることで、対応付けの精度を向上させることができる。
ステップS506において、画像比較部220は、腕の方向角度を求める。具体的には、各手領域について、まず指示位置の座標(x1,y1)を取得する。さらに、方向の基準となる基準点の座標(x2,y2)を取得する。人の腕は関節が多いため、基準点の取り方によって、腕の方向の定義は大きくことなる。本実施形態では、ステップS704で特定した袖口の中央を基準点とする。ただし、侵入位置を基準点としたり、間接の位置を検出した上で基準点としたりしても良い。本実施形態では、以下の式1を利用して、x軸周りの角度を求める。
(角度)=arctan{(y2−y1)/(x2−x1)}・・・(式1)
ステップS507では、画像比較部220が、対応付けられた組み合わせの手について、方向の角度差が所定の閾値Cより大きいかを判定する。閾値Cは、予め与えられるか、あるいは、対応付け処理を繰り返す中で学習してもよい。また、方向を算出する際に用いた基準点に応じて適切な値を設定する。対応付けられた手の方向の角度差が閾値Cより大きくないと判定された場合(ステップS507でNo)、ステップS508に進む。一方、方向の角度差が閾値Cより大きいと判定された場合(ステップS507でYes)、本実施形態では、対応付けが誤った可能性が認められるとみなされ、ステップS404に進む。
なお、ステップS506の処理は、少なくとも、対応付けが行われた組み合わせの手については必ず行われる。一方、対応付けが行われていない残りの手については省略されてもよい。なお、対応付けが行われていない手についても手の方向が取得された場合、方向の違いに基づいて、次に対応付けを行う候補となる組み合わせを決定してもよい。
例えば、図7(c)は、両手を大きく広げているユーザ(手703aと手703b)と、左手だけを差し出しているユーザ(手703c)が同時に存在する場合の操作状況を示している。また、各手の上に示された矢印は、ステップS506において方向を算出する際に考える、指示位置と基準点を通る直線である。ステップS506では、これらの矢印に示す角度の、x軸を基準とする反時計回りの回転角度を求めることになる。今、手703aでは角度45度、手703bでは角度310度、手703cでは角度230度が算出されたとする。また、閾値Aを10とする。この場合、侵入位置の間の距離が最も近い手の組み合わせは手703aと手703bであるが、方向の角度が大きいため、対応付けは解除され、手703b、手703cの組み合わせが対応づけられるまで処理が継続される。このように、手の方向という画像から検出可能な特徴を用いて対応付けの妥当性を判定する処理を加えることで、対応付けの精度を向上させることができる。
さらに、ステップS508において、画像比較部220は、対応付けされた手について現在位置間の距離を取得する。なお、現在位置とは、最新のフレームの入力画像における、画像端と手領域の交差点の位置であるとする。
ステップS509では、画像比較部220が、対応付けられた組み合わせの手について、現在位置間の距離が所定の閾値Dより大きいかを判定する。閾値Dは、一般的な対角の人物が両手を広げた状態の手の間隔に基づいて、予め与えられるか、あるいは、対応付け処理を繰り返す中で学習してもよい。現在位置間の距離が閾値Dより大きくないと判定された場合(ステップS509でNo)、図3のフローチャートに戻る。一方、現在位置間の距離が閾値Dより大きいと判定された場合(ステップS509でYes)、本実施形態では、対応付けが誤った可能性が認められるとみなされ、ステップS404に進む。
第1の実施形態では、手が初めて操作面101上で検出された時点での位置情報に基づいて対応付けを行うため、その後手がどのように動いたとしても、対応付けの結果に影響しなかった。しかしながら、第2実施形態のステップS508及びステップS509の判定を加えた場合、最初は極近くに存在した複数のユーザが、その後移動して離れた場合、誤って実行された対応付けは解除され、他の組み合わせが対応づけられるまで処理が継続される。この処理は、操作面が大きいシステムにおいてより効果を奏するものである。
以上説明したように、第2の実施形態によれば、対応付け処理の精度を向上させることができ、ユーザにとっては、より自由度の高い操作を自然に行うことが可能となる。
なお、上述した手首から先の大きさ、手首から先または袖の色、手の方向、現在位置の間隔を使った処理は、必ずしも全てを実行する必要はなく、情報処理装置100の使用環境に適した少なくとも1つが実行されればよい。また、本実施形態では、これらの処理が直列的に処理される例を説明したが、情報処理装置100の処理能力に応じて、並列的に処理されてもよい。
また、画像から検出可能な特徴として挙げた情報は一例に過ぎない。操作開始時の手位置の条件に加えて対応付けの条件として利用する情報として、他のものを用いてもかまわない。例えば、手領域の形状に基づいて、当該領域が右手であるか左手であるかを識別可能であれば、それらの位置関係に基づいて、必ず、操作面に向かって右側に存在する右手と、操作面に向かって左側に存在する左手の組み合わせを処理するようにすればよい。また、第2の実施形態で説明した処理のうち、色の情報の比較を除く処理は、可視光画像ではなく、距離画像に基づいて行うことも可能である。
(変形例)
第1及び第2の実施形態では、検出された複数の手について、情報処理装置100が1人のユーザの両手であると推定可能な組み合わせを対応付ける処理であった。その変形例として、タッチ操作によって、ユーザから自発的に対応付けを指示することを可能とする例を説明する。
変形例におけるシステムの構成、及び情報処理装置100のハードウェア構成は、第1の実施形態の図1、及び図2(b)と同様であるため、説明を省略する。ただし、変形例の認識部215は、特に、ユーザが自発的に対応付けを指示するためのジェスチャ操作を認識可能である。また、第2の実施形態の構成を利用してもかまわない。また、タッチ操作の認識処理もまた、上述した図3などのフローチャートに沿って実行される。変形例の対応付け指示操作の認識は、第1及び第2の実施形態で説明したタッチ操作認識処理において、ステップS310のシングルタッチ操作認識処理の中で行われる。
変形例では、マルチタッチに用いたい手の指と指をタッチ状態で接触させることで、接触させた指の手同士の対応付けを指示することができる。
図9は、対応付け操作の操作例であり、上から下に向かって、時系列に操作の段階が進んでいる様子を示している。手901a及び手901bは、侵入位置が所定の閾値よりも遠かったために、対応付けがなされていないとする。図9では、手901aの指示位置の座標が(x1,y1,z1)であって、手901bの指示位置の座標が(x2,y2,z2)であることが示される。上述した実施形態では、実施形態では、タッチ操作認識処理の間、検出されている各手領域について、指示位置検出部214が、常に指示位置の座標を検出している。変形例では、対応付けがなされていない手領域について取得されている指示位置が、接触しているとみなされる程度の近接し、その状態が所定時間維持された場合に、当該手領域同士を対応付ける処理が実行される。例えば、2つの手の指示位置の座標が(x3,y3,0)に一致した場合は、条件を満たし、点901aと点901bの対応付けが実行される。そして、その後で指示位置が離れていけば、例えば「ピンチアウト」操作が認識され、画像の拡大などを指示することが可能となる。なお、この操作は、1人のユーザによってのみだけでなく、複数のユーザによって行われることもできる。
図8は、変形例において情報処理装置100が実行する、対応付け指示検出処理の流れを示すフローチャートである。
ステップS800において、認識部215は、対応付けされていない手領域の指示位置を取得する。ステップS801では、互いに接触した指示位置があるかを判定する。ただし、複数の指示位置の座標が一致する場合だけでなく、例えば1センチ四方の領域内に収まるなど、接触しているとみなされる程度近接している場合にも、互いに接触した指示位置があると判定する。このときの許容範囲は、入力が像の解像度などに合わせて設定される。互いに接触した指示位置があると判定された場合(ステップS801でYes)、ステップS802に進む。互いに接触した指示位置はないと判定された場合(ステップS801でNo)、互いに接触した指示位置が現れるまで処理を繰り返す。あるいは処理を終了してしまってもかまわない。
ステップS802では、認識部215が、互いに接触した指示位置が、入力画像のフレーム間差分に基づいて、接触した状態で静止している時間の長さを取得する。ステップS803では、取得した時間の長さが、所定の待機時間を越えたかを判定する。所定の待機時間は、例えば3秒などの時間が予め設定される。ただし、ユーザ設定などにより適宜変更可能とする。ステップS804では、対応付け部212が、指示位置が接触している手を対応付け、その情報をRAM202に保持し、処理を終了する。
以上が、対応付け指示操作を認識する処理である。なお、ここでは対応付け指示操作はタッチ操作の一種であるとし、タッチ状態で指示位置が接触されたことを検出すると説明したが、タッチ操作ではなく、空中で行うジェスチャ操作としてもよい。
変形例によれば、手を操作面上の空間から一旦出して侵入位置をリセットする必要なく、新たな対応付けを行うことができるので、ユーザの一連の作業をさまたげない。また、メニュー選択やモードの切り替えを必要とせず、タッチ操作による指示を可能とすることで、ユーザは、マルチタッチ操作を行おうとする動作の流れの中で指示が行うことができる。なお、また、シングルタッチ操作として対応付けの指示を認識するのと同様に、マルチタッチ操作として対応付けの解除指示を認識可能としてもよい。例えば、両手を交差させながら「×型」を描くなど、他のマルチタッチコマンドと混同されにくいような特定のパターンを、対応付け解除処理のコマンドとして登録しておくことで、容易に対応付けの解除を指示することが可能となる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
210 画像取得部
211 侵入位置特定部
212 対応付け部
213 指示位置検出部
214 タッチ判定部
215 認識部
216 出力制御部

Claims (18)

  1. 情報処理装置であって、
    操作面上の空間を撮像した画像の情報を取得する画像取得手段と、
    前記画像取得手段が取得した画像の情報に基づいて、操作入力に用いられる複数の物体のそれぞれが、前記空間に現れた位置を特定する特定手段と、
    前記複数の物体のそれぞれについて特定された位置に基づいて、前記複数の物体のうち、協同して1つの指示を入力する複数の物体の組み合わせ特定し、互いに対応付ける対応付け手段と、
    を備えることを特徴とする情報処理装置。
  2. さらに、前記対応付け手段によって対応付けられた物体によって指示される複数の位置情報に基づいて、前記複数の物体によって協同して入力される1つの指示に対応する操作を認識する認識手段、
    を備えることを特徴とする請求項1に記載された情報処理装置。
  3. 前記認識手段が認識する、前記複数の物体によって協同して入力される1つの指示とは、前記複数の物体によって入力されるマルチタッチ操作に対応する指示であることを特徴とする請求項2に記載された情報処理装置。
  4. さらに、前記画像取得手段によって周期的に取得された画像から、前記操作入力に用いられる複数の物体が写る1以上の領域を抽出する抽出手段を備え、
    前記特定手段は、前記抽出手段によって抽出された領域を識別し、各領域が初めに抽出された画像と、該領域とが交差する位置を、前記物体が前記空間に現れた位置として特定する
    ことを特徴とする請求項1乃至3のいずれか1項に記載された情報処理装置。
  5. 前記操作入力に用いられる物体とは、ユーザである人物の片手であることを特徴とする請求項1乃至4のいずれか1項に記載された情報処理装置。
  6. 前記対応付け手段は、前記複数の物体のそれぞれについて特定された位置と、さらに前記画像取得手段によって取得された画像から得られる前記物体の特徴に基づいて、前記複数の物体のうち、協同して1つの指示を入力する複数の物体の組み合わせ特定する
    ことを特徴とする請求項1乃至5のいずれか1項に記載された情報処理装置。
  7. 前記操作入力に用いられる物体とは、ユーザである人物の片手であって、
    前記画像から得られる前記物体の特徴とは、前記手の大きさ、色、方向、最新の位置のうち、少なくともいずれかであることを特徴とする請求項6に記載された情報処理装置。
  8. 前記対応付け手段は、前記複数の物体のそれぞれについて特定された位置に基づいて対応付けられた手の組み合わせについて、さらに前記画像から取得される手の少なくとも一部の大きさを比較した結果に基づいて、前記複数の物体のうち、協同して1つの指示を入力する複数の物体の組み合わせ特定する
    ことを特徴とする請求項6に記載された情報処理装置。
  9. 前記対応付け手段は、前記複数の物体のそれぞれについて特定された位置に基づいて対応付けられた手の組み合わせについて、さらに前記画像から取得される色情報を比較した結果に基づいて、前記複数の物体のうち、協同して1つの指示を入力する複数の物体の組み合わせ特定する
    ことを特徴とする請求項6に記載された情報処理装置。
  10. 前記対応付け手段は、前記複数の物体のそれぞれについて特定された位置に基づいて対応付けられた手の組み合わせについて、さらに前記画像から取得される前記手の方向の角度差に基づいて、前記複数の物体のうち、協同して1つの指示を入力する複数の物体の組み合わせ特定する
    ことを特徴とする請求項6に記載された情報処理装置。
  11. 前記対応付け手段は、前記複数の物体のそれぞれについて特定された位置の間の距離が、最も小さい組み合わせであって、かつ、所定の距離よりも小さい組み合わせを特定し、互いに対応付けることを特徴とする請求項1乃至10のいずれか1項に記載された情報処理装置。
  12. 情報処理装置の制御方法であって、
    画像取得手段により、操作面上の空間を撮像した画像の情報を取得する画像取得工程と、
    特定手段により、前記画像取得工程で取得した画像の情報に基づいて、操作入力に用いられる複数の物体のそれぞれが、前記空間に現れた位置を特定する特定工程と、
    対応付け手段により、前記複数の物体のそれぞれについて特定された位置に基づいて、前記複数の物体のうち、協同して1つの指示を入力する複数の物体の組み合わせ特定し、互いに対応付ける対応付け工程と、
    を有することを特徴とする情報処理装置の制御方法。
  13. コンピュータに読み込ませ実行させることによって、前記コンピュータに、請求項12に記載された情報処理装置の制御方法を実行させるプログラム。
  14. 請求項13に記載されたプログラムを格納したことを特徴とするコンピュータが読み取り可能な記憶媒体。
  15. 情報処理装置であって、
    操作面上の空間を撮像した画像の情報を取得する画像取得手段と、
    前記画像取得手段が取得した画像の情報に基づいて、操作入力に用いられる複数の物体のそれぞれが、前記空間に現れた位置を特定手段と、
    前記特定手段によって、前記複数の物体のそれぞれについて特定された位置に基づいて、前記複数の物体のうち、1人のユーザの両手であると推定される物体を対応づける対応付け手段と、
    前記対応付け手段によって対応付けられた物体によって入力される操作を認識する認識手段と、
    を備えることを特徴とする情報処理装置。
  16. 情報処理装置の制御方法であって、
    画像取得手段により、操作面上の空間を撮像した画像の情報を取得する画像取得工程と、
    特定手段により、前記画像取得工程で取得した画像の情報に基づいて、操作入力に用いられる複数の物体のそれぞれが、前記空間に現れた位置を特定工程と、
    対応付け手段により、前記特定工程において前記複数の物体のそれぞれについて特定された位置に基づいて、前記複数の物体のうち、1人のユーザの両手であると推定される物体を対応づける対応付け工程と、
    認識手段により、前記対応付け工程において対応付けられた物体によって入力される操作を認識する認識工程と、
    を備えることを特徴とする情報処理装置の制御方法。
  17. コンピュータに読み込ませ実行させることによって、前記コンピュータに、請求項16に記載された情報処理装置の制御方法を実行させるプログラム。
  18. 請求項17に記載されたプログラムを格納したことを特徴とするコンピュータが読み取り可能な記憶媒体。
JP2014199181A 2014-09-29 2014-09-29 情報処理装置とその制御方法、プログラム、記憶媒体 Active JP6452369B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014199181A JP6452369B2 (ja) 2014-09-29 2014-09-29 情報処理装置とその制御方法、プログラム、記憶媒体
CN201510604295.8A CN105468189A (zh) 2014-09-29 2015-09-21 识别多点触摸操作的信息处理装置及其控制方法
US14/866,633 US9715738B2 (en) 2014-09-29 2015-09-25 Information processing apparatus recognizing multi-touch operation, control method thereof, and storage medium
EP15187422.9A EP3001350A1 (en) 2014-09-29 2015-09-29 Information processing apparatus recognizing multi-touch operation, control method thereof, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014199181A JP6452369B2 (ja) 2014-09-29 2014-09-29 情報処理装置とその制御方法、プログラム、記憶媒体

Publications (2)

Publication Number Publication Date
JP2016071546A true JP2016071546A (ja) 2016-05-09
JP6452369B2 JP6452369B2 (ja) 2019-01-16

Family

ID=54293038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014199181A Active JP6452369B2 (ja) 2014-09-29 2014-09-29 情報処理装置とその制御方法、プログラム、記憶媒体

Country Status (4)

Country Link
US (1) US9715738B2 (ja)
EP (1) EP3001350A1 (ja)
JP (1) JP6452369B2 (ja)
CN (1) CN105468189A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020170851A1 (ja) * 2019-02-22 2020-08-27 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018066141A1 (ja) * 2016-10-07 2018-04-12 株式会社ディー・ディー・エス 情報処理プログラム及び情報処理装置
US10282859B2 (en) * 2016-12-12 2019-05-07 The Boeing Company Intra-sensor relative positioning
CN108227919B (zh) * 2017-12-22 2021-07-09 潍坊歌尔电子有限公司 用户手指位置信息的确定方法及装置、投影仪、投影***
CN110163045A (zh) * 2018-06-07 2019-08-23 腾讯科技(深圳)有限公司 一种手势动作的识别方法、装置以及设备
JP2021047757A (ja) * 2019-09-20 2021-03-25 キヤノン株式会社 画像処理装置、撮像装置、制御方法およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008123360A (ja) * 2006-11-14 2008-05-29 Nippon Telegr & Teleph Corp <Ntt> 人体特定領域抽出・判定装置、人体特定領域抽出・判定方法、人体特定領域抽出・判定プログラム
JP2009282634A (ja) * 2008-05-20 2009-12-03 Canon Inc 情報処理装置及びその制御方法、プログラム、記憶媒体
JP2012170049A (ja) * 2011-12-27 2012-09-06 Panasonic Corp 画像処理装置およびこれを備えた原稿読取システム
WO2012173001A1 (ja) * 2011-06-13 2012-12-20 シチズンホールディングス株式会社 情報入力装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8194921B2 (en) 2008-06-27 2012-06-05 Nokia Corporation Method, appartaus and computer program product for providing gesture analysis
US9360959B2 (en) * 2010-10-12 2016-06-07 Tactonic Technologies, Llc Fusing depth and pressure imaging to provide object identification for multi-touch surfaces
EP2691935A1 (en) * 2011-03-29 2014-02-05 Qualcomm Incorporated System for the rendering of shared digital interfaces relative to each user's point of view
CN103164022B (zh) * 2011-12-16 2016-03-16 国际商业机器公司 多指触摸方法和装置、便携式终端设备
JP5929572B2 (ja) 2012-07-09 2016-06-08 コニカミノルタ株式会社 操作表示装置およびプログラム
JP5831764B2 (ja) * 2012-10-26 2015-12-09 カシオ計算機株式会社 画像表示装置及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008123360A (ja) * 2006-11-14 2008-05-29 Nippon Telegr & Teleph Corp <Ntt> 人体特定領域抽出・判定装置、人体特定領域抽出・判定方法、人体特定領域抽出・判定プログラム
JP2009282634A (ja) * 2008-05-20 2009-12-03 Canon Inc 情報処理装置及びその制御方法、プログラム、記憶媒体
WO2012173001A1 (ja) * 2011-06-13 2012-12-20 シチズンホールディングス株式会社 情報入力装置
JP2012170049A (ja) * 2011-12-27 2012-09-06 Panasonic Corp 画像処理装置およびこれを備えた原稿読取システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020170851A1 (ja) * 2019-02-22 2020-08-27 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US11789543B2 (en) 2019-02-22 2023-10-17 Sony Group Corporation Information processing apparatus and information processing method

Also Published As

Publication number Publication date
US20160093038A1 (en) 2016-03-31
EP3001350A1 (en) 2016-03-30
US9715738B2 (en) 2017-07-25
CN105468189A (zh) 2016-04-06
JP6452369B2 (ja) 2019-01-16

Similar Documents

Publication Publication Date Title
JP6452369B2 (ja) 情報処理装置とその制御方法、プログラム、記憶媒体
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
US20130057469A1 (en) Gesture recognition device, method, program, and computer-readable medium upon which program is stored
US20120169671A1 (en) Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and an imaging sensor
WO2014106219A1 (en) User centric interface for interaction with visual display that recognizes user intentions
JP6711817B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP6350772B2 (ja) 情報処理システム、情報処理装置、制御方法、及びプログラム
JP2017199289A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2016018458A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2017084307A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP5558899B2 (ja) 情報処理装置、その処理方法及びプログラム
Ukita et al. Wearable virtual tablet: fingertip drawing on a portable plane-object using an active-infrared camera
JP6555958B2 (ja) 情報処理装置、その制御方法、プログラム、および記憶媒体
JP6618301B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP6289655B2 (ja) 画面操作装置及び画面操作方法
JP2013134549A (ja) データ入力装置およびデータ入力方法
JP2018063555A (ja) 情報処理装置、情報処理方法及びプログラム
JP5456817B2 (ja) 表示制御装置、表示制御方法、情報表示システム及びプログラム
TWI444875B (zh) 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法
JP2017228216A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
US20240070889A1 (en) Detecting method, detecting device, and recording medium
US20240069647A1 (en) Detecting method, detecting device, and recording medium
JP2018181169A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
US20220129109A1 (en) Information processing apparatus, information processing method, and recording medium
JP2016110517A (ja) 情報処理装置とその制御方法、プログラム、記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180809

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181003

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20181011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181211

R151 Written notification of patent or utility model registration

Ref document number: 6452369

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151