JP5802247B2 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP5802247B2
JP5802247B2 JP2013197921A JP2013197921A JP5802247B2 JP 5802247 B2 JP5802247 B2 JP 5802247B2 JP 2013197921 A JP2013197921 A JP 2013197921A JP 2013197921 A JP2013197921 A JP 2013197921A JP 5802247 B2 JP5802247 B2 JP 5802247B2
Authority
JP
Japan
Prior art keywords
unit
information processing
processing apparatus
vector
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013197921A
Other languages
English (en)
Other versions
JP2015064724A (ja
Inventor
航 渡邉
航 渡邉
亮助 野中
亮助 野中
馬場 雅裕
雅裕 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013197921A priority Critical patent/JP5802247B2/ja
Priority to US14/331,701 priority patent/US9639212B2/en
Priority to CN201410384547.6A priority patent/CN104461176A/zh
Publication of JP2015064724A publication Critical patent/JP2015064724A/ja
Application granted granted Critical
Publication of JP5802247B2 publication Critical patent/JP5802247B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明の実施形態は、情報処理装置に関する。
近年、壁面や机上面、ホワイトボード等に対し、タッチ操作を可能にする装置および技術が開発されている。また、装置がプロジェクタ等と連携し、任意の物体面を仮想タッチディスプレイ化することも可能となっている。従来では、タッチ検出用の大型のセンサを物体面に取り付ける必要があり、適用可能な物体面は限定されていた。近年では、赤外線を発する電子ペン等、専用のデバイスを用いることで、任意の物体面への操作を検出する方式が提案されている。しかし、専用デバイスを用いる装置では、専用デバイス以外の操作、例えば、指や指示棒などの指示体による操作が検出されない。これに対して、離れた位置に配置したカメラ等のセンサで物体面をセンシングし、指や指示棒などの指示体を検出する装置が提案されている。しかし、このような装置では、専用デバイスを用いる方式に比べ、精度よく指示体を検出することが困難であるという問題がある。また、タッチ座標と指示体との間のずれが生じ、安定的に検出することが困難であるという問題がある。
特開2012−3521号公報
Extended Multitouch: Recovering Touch Posture and Differentiating Users using a Depth Camera
本発明の実施形態は、指や指示棒などの指示体を検出可能な情報処理装置において、精度よく指示体を検出することができる、あるいは安定的に指示体を検出することができる情報処理装置を提供する。
実施形態によれば、検出部と、ベクトル算出部と、座標算出部と、決定部と、を備えた情報処理装置が提供される。前記検出部は、距離計測部から、投影部が映像を投影する基準面上の各位置までの距離を計測し、前記計測された基準面上の各位置から一定の距離であって、互いに異なる距離に複数の検出範囲を設定し、前記複数の検出範囲にまたがって存在する物体を検出し、前記検出範囲において検出された前記物体の代表点の位置を求める。前記算出部は、複数の前記代表点の位置に基づいて3次元のベクトルを求める。前記座標算出部は、前記物体が前記基準面に接触した入力座標を前記ベクトルと、前記基準面上の各位置までの距離と、に基づいて求める。前記決定部は、前記入力座標および前記ベクトルの少なくともいずれかに基づいて前記物体による入力操作の内容を決定する。
本発明の実施の形態にかかる情報処理装置を表すブロック図である。 本実施形態の情報処理方法を表すフローチャート図である。 図3(a)および図3(b)は、検出範囲および検出された部分を説明する模式的平面図である。 図4(a)および図4(b)は、弁別処理および棄却処理を説明する模試図である。 複数の検出範囲が設定される場合の例を説明する模式的平面図である。 ベクトルの算出方法を説明する模式的平面図である。 物体の角度に応じて出力内容を変更する例を示す模式的平面図である。 角度が近しい指同士をペアとする例を示す模式的平面図である。 ベクトルvから疑似的にユーザーの位置を決定する例を示す模式的平面図である。 本発明の他の実施の形態にかかる情報処理装置を表すブロック図である。 本実施形態の情報処理方法を表すフローチャート図である。 2本の指でタッチを続ける場合の例を示す模式的平面図である。 本発明のさらに他の実施の形態にかかる情報処理装置を表すブロック図である。 本発明のさらに他の実施の形態にかかる情報処理装置を表すブロック図である。 本実施形態の情報処理方法を表すフローチャート図である。 対応点算出のパターン画像の一例を示す模式的平面図である。 本実施形態のコンピュータの一例を示すブロック図である。
以下、本発明の実施の形態について図面を参照しつつ説明する。なお、各図面中、同様の構成要素には同一の符号を付して詳細な説明は適宜省略する。
図1は、本発明の実施の形態にかかる情報処理装置を表すブロック図である。
本実施形態は、基準面への操作を検出する情報処理装置に関する。本実施形態では、壁面や机上面等を基準面として、基準面に対するタッチ操作を検出する装置および方法について説明する。但し、基準面は非平面であっても良いし、基準面は空中であっても良い。なお、図1に表したブロック図は、本実施形態にかかる情報処理装置10の要部構成の一例であり、必ずしも実際のプログラムモジュールの構成とは一致しない場合がある。
図1に表した情報処理装置10は、検出部200と、ベクトル算出部300と、決定部400と、を備える。検出部200は、複数の検出部を有する。例えば、検出部200は、第1検出部201〜第N検出部20Nを有する。
情報処理装置10は、距離計測部100と、コンピュータ800と、を備えていてもよい。
すなわち、距離計測部100は、情報処理装置10とは異なる外部の装置であってもよいし、情報処理装置10が備える装置であってもよい。コンピュータ800は、情報処理装置10とは異なる外部のコンピュータであってもよいし、情報処理装置10が備えるコンピュータであってもよい。あるいは、コンピュータ800は、後述する表示部600に内蔵されていてもよい。図1に示したハードウエア構成は、一例であり、各実施形態に係る情報処理装置は一部、又は全部を、LSI(Large Scale Integration)等の集積回路又はIC(Integrated Circuit)チップセットとして実現してもよい。各機能ブロックは個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、又は汎用プロセッサで実現してもよい。
距離計測部100は、基準面や物体(例えば指や指示棒などの指示体)までの距離を測定する。本実施形態では、距離計測部100として赤外パターン投影方式のセンサを用いる。赤外パターン投影方式は、不可視のパターンを物体に投射し、赤外カメラでパターンを撮影し、その歪みから距離情報を取得する手法である。距離測定結果として、カメラの座標系における座標(x,y)の画素に対する距離値d(x,y)が時々刻々と取得される。この距離情報を画素値として可視化したものは、例えば距離画像などと呼ばれる。距離測定手段としては、他のいかなる手段を用いてもよい。例えば、距離計測部100は、照射した光が反射して戻ってくるまでの時間差から距離を計測するTime-of-Flight形式のセンサであっても良い。あるいは、距離計測部100は、投影するパターンが可視光である方式を用いるセンサであっても良い。また、距離計測部100は、ステレオカメラを用いて距離を測定するセンサであっても良い。
第1検出部201〜第N検出部20Nは、距離計測部100から得られる距離情報を用いて、基準面から一定の距離の検出範囲内に入った物体の部分を検出し、その部分の代表点の位置を求める。検出部200は、第1検出部201〜第N検出部20Nを現実に有していなくともよく、1つの検出部200が互いに異なる距離に設定された複数の検出範囲を検出できればよい。このとき、複数の検出範囲は、互いに重複していてもよい。あるいは、複数の検出範囲のうちの第1の検出範囲は、複数の検出範囲のうちの第2の検出範囲を含んでいてもよい。検出部200が物体の部分を検出しその部分の代表点の位置を求める方法の詳細については、後述する。
ベクトル算出部300は、第1検出部201〜第N検出部20Nが検出した部分の代表点の位置に基づいて、基準面へ向かう物体に対応する3次元ベクトルvを求める。ベクトルvは、得られた複数の代表点の位置に基づいて算出される。ベクトル算出部300が3次元ベクトルvを求める方法の詳細については、後述する。
決定部400は、基準面への物体による入力操作の内容を決定する。本実施形態にかかる情報処理装置10では、叩くように操作するタップ、一定方向に弾くように操作するフリック、2本の指でつまむように操作するピンチ、一定時間静止するホールドなど、一般的なタッチパネル等で使用可能なジェスチャを利用することができる。
また、決定部400は、3次元ベクトルvの角度を利用することで、座標以外に物体の角度をコンピュータへ出力することができる。決定部400は、物体の角度に応じて出力内容を変更しても良い。決定部400が出力するジェスチャの具体例については、後述する。
コンピュータ800は、決定部400から出力された操作信号に基づいて、所定の動作を実行する。本実施形態の情報処理方法および情報処理プログラムは、コンピュータ800により実行される。コンピュータの具体例については、後述する。
図2は、本実施形態の情報処理方法を表すフローチャート図である。
図3(a)および図3(b)は、検出範囲および検出された部分を説明する模式的平面図である。
図4(a)および図4(b)は、弁別処理および棄却処理を説明する模試図である。
図5は、複数の検出範囲が設定される場合の例を説明する模式的平面図である。
図6は、ベクトルの算出方法を説明する模式的平面図である。
図7は、物体の角度に応じて出力内容を変更する例を例示する模式的平面図である。 図8は、角度が近しい指同士をペアとする例を例示する模式的平面図である。
図9は、ベクトルvから疑似的にユーザーの位置を決定する例を例示する模式的平面図である。
図3(a)は、検出範囲を説明する模式的平面図である。図3(b)は、検出された部分I part(x,y)を表す模式的平面図である。
図4(a)は、弁別処理および棄却処理を実行する前の状態を表す模式的平面図である。図4(b)は、弁別処理および棄却処理を実行した後の状態を表す模式的平面図である。
本実施形態では、壁や机上面等を基準面として、基準面に対するタッチ操作を検出する方法について説明する。但し、基準面は非平面であっても良いし、基準面は空中であっても良い。
まず、距離計測部100は、物体50が無い状態において、壁面や机上面などの基準面までの距離Zsurface(x,y)を測定する(ステップS11:図5参照)。このとき、物体50が無い状態の距離を1フレームのみ取得し用いても良い。あるいは、数フレームから数百フレーム程度取得し続け、その時間内の平均や最小値を用いてもよい。この場合には、計測される距離の時間方向の変動を吸収することができるためより好ましい。また、ある時間内に計測された距離のヒストグラムを参照して決定しても良い。また、物体50の検出と並行して基準面の距離を更新し続けても良い。
続いて、第1検出部201〜第N検出部20Nの検出範囲を設定する(ステップS12)。例えば、図5に表したように、検出のためのパラメータ、Zmargin(x,y)とZarea(x,y)とを定義する。Zmargin(x,y)は、基準面付近のノイズを検出しないようにするために設けるマージンである。また、Zarea(x,y)は、全体検出範囲の幅を決定するパラメータである。Zmargin(x,y)とZarea(x,y)とは、物体50や距離計測部100の精度に応じて最適な値を決定しておく。あるいは、検出処理中に動的に変更しても良い。
このとき、全体検出範囲のパラメータ、Znear(x,y)、Zfar(x,y) を以下のように設定する。

Figure 0005802247

Figure 0005802247
続いて、全体検出範囲を複数の検出範囲に分割する。例えば、図5に表したように、全体検出範囲を第1検出範囲と第2検出範囲とに分割する。つまり、本実施形態では、全体検出範囲を2つに分割するように検出範囲を決定する。

Figure 0005802247

Figure 0005802247

Figure 0005802247

ここで、αは検出範囲の分割割合を調整するパラメータであり、0≦α≦1である。
続いて、検出を開始する(ステップS13)。
続いて、各検出部は、一定の距離の検出範囲内に物体が進入したか否かを判断する(ステップS14)。一定の距離の検出範囲内に物体が進入したと各検出部が判断した場合(ステップS14:YES)、その部分を検出する。例えば、物体50が第1検出範囲および第2検出範囲に進入した場合、第1検出部201および第2検出部202は、その部分を検出する。この場合、物体50は、第1検出部201と第2検出部202とにまたがって存在する。あるいは、物体50が第1検出範囲および第2検出範囲のいずれか一方に進入した場合、物体50が進入した検出範囲に対応する第1検出部201および第2検出部202のいずれか一方がその部分を検出してもよい。なお、物体50が複数の検出範囲のすべてに進入した場合に、各検出部がその部分を検出すると、例えばノイズなどに対する誤検知をより抑えることができる。
例えば、図3(a)および図3(b)に表したように、検出範囲において検出された部分I part(x,y)については、例えば次式に示すように、ある距離の範囲内に入っている画素のみを「1」として管理すると良い。

Figure 0005802247

ここで、Z near(x,y)、Z far(x,y)は、それぞれの検出範囲を指定するパラメータである。またnは、各検出部の番号をあらわす。すなわち0≦n≦1である。
次に、検出した部分を、連結している部分ごとに分離する。これは、マルチタッチ操作や複数人での操作を行う際に必要となる。部分の弁別には、ラベリング処理などを用いれば良い。このとき、各部分の面積が一定以上、あるいは一定以下の場合の部分を棄却する。これにより、計測された距離に乗るノイズなどに起因する誤検出を防ぐことができる。また、部分の形状を元に棄却を行っても良い。赤外パターン投影による距離計測では、物体のエッジ部分の距離計測結果に誤差が発生しやすい。そのため、例えば、部分の外接長方形の縦横比が一定以上の部分を棄却することで、エッジに沿った誤検出を防ぐことができる。
例えば、図4(a)および図4(b)に表したように、検出した部分I part(x,y)に対し連結部分の弁別処理および棄却処理を行った場合には、部分検出の時点で前処置を行うことで、物体の検出精度を向上することができる。
次に、検出された各部分のそれぞれの代表点を求める(ステップS15:図5参照)。例えば、代表点には、検出された部分の重心を利用する。得られた代表点の3次元座標をx (ベクトル)=(x ,y ,z とあらわす。ここで、x,y は、それぞれ検出された部分の重心座標である。また、z については、z =d(x ,y )の式が成立する。代表点の算出方法においては、重心に限らず、検出した部分の平均値などを用いても良い。ここで、添え字「i」は、部分が複数個ある場合の番号である。2本の指で操作する場合などのように複数の物体50が存在する場合には、複数の部分が検出される。
続いて、ベクトル算出部300は、複数の代表点の位置に基づいて基準面に対する物体50のベクトルを求める(ステップS16)。例えば、図6に表したように、第1検出部201により検出された部分の代表点x (ベクトル)と、第2検出部202により検出された部分の代表点x (ベクトル)と、の差分からベクトルvを求める。図6に示すように、相似な三角形の比を利用すると、物体50の基準面への3次元ベクトルvは、次式であらわすことができる。

Figure 0005802247

Figure 0005802247

Figure 0005802247
本実施形態では、2点の代表点の位置に基づいてベクトルvを求める方法の一例を示した。但し、ベクトルvの算出方法は、これだけに限定されるわけではない。例えば、多数の検出部が設けられる場合、多数の代表点の位置を取得できる。そのため、様々な組の代表点の位置でベクトルvを求め、投票を行うことでベクトルvを求めても良い。この場合、距離情報の外れ値に対して頑健にベクトルを求めることができる。
続いて、決定部400は、ベクトルvに基づいて物体50による入力操作の内容を決定し出力する(ステップS17)。
決定部400は、物体50の角度に応じて出力内容を変更しても良い。例えば、図7に示すように、指(物体50)を傾けることによって入力操作を出力することができる。
また、ジェスチャ入力を行う際に角度の情報を用いても良い。既存のタッチ操作の場合、二本指でのピンチ動作や回転動作など複数の指を組み合わせて行うジェスチャが多い。複数のタッチが検出された場合、距離が近い指同士を組み合わせることが多い。これに対して、本実施例によれば、指の角度も参照して決定することができる。例えば、図8に示すように、角度が近しい指(物体50)同士をペアとすれば良い。一方で,角度の差が一定以上となる指(物体60)は、物体50とは別個の操作を行っていると判断される。
さらに、物体50に対応する基準面への3次元ベクトルvに対して、例えば反対の方向にユーザー(物体50の操作者)が存在すると仮定する。すると、図9に示すようにベクトルvから疑似的に、ユーザーの位置を決定することができる。これにより、ユーザーの方向に応じて入力操作を変えることが可能になる。例えば、一定方向からの入力のみ許可することで、ユーザーの方向による入力操作の制限などを実現することができる。
続いて、次の入力操作を行うか否かを判断する(ステップS18)。ステップS14において、一定の距離の検出範囲内に物体が進入していないと各検出部が判断した場合には(ステップS14:NO)、次の入力操作を行うか否かを判断する(ステップS18)。次の入力操作を行う場合には(ステップS18:YES)、各検出部は、一定の距離の検出範囲内に物体が進入したか否かを判断する(ステップS14)。一方で、次の入力操作を行わない場合には(ステップS18:NO)、終了する。
本実施形態によれば、基準面に対する指や指示棒などの物体50に対応する3次元ベクトルvを求めることで、快適かつ安定して基準面への入力操作を検出することができる。
次に、本発明の他の実施の形態について、図面を参照しつつ説明する。
図10は、本発明の他の実施の形態にかかる情報処理装置を表すブロック図である。
図10に表した情報処理装置10aは、図1に関して前述した情報処理装置10と比較して、座標算出部500をさらに備える。
座標算出部500は、基準面における物体50の入力座標を求める。座標算出部500が入力座標(タッチ座標)を求める方法の詳細については、後述する。
図10に表した情報処理装置10aでは、例えば、決定部400は、座標算出部500が求めた座標を用いることで、タッチ座標をコンピュータへ出力することができる。また、決定部400は、タッチ座標の時間的な変化や複数の座標の位置関係を用いることで、マルチタッチ操作や、ジェスチャなどをコンピュータへ出力することができる。
その他の構成は、図1に関して前述した情報処理装置10の構成と同様である。
図11は、本実施形態の情報処理方法を表すフローチャート図である。
図12は、2本の指でタッチを続ける場合の例を例示する模式的平面図である。
ステップS11〜ステップS16の情報処理方法は、図2に関して前述したステップS11〜ステップS16の情報処理方法と同様である。
続いて、座標算出部500は、タッチ座標を求める(ステップS19)。本実施形態では、物体50が基準面に接触(タッチ)した際のタッチ座標を求める方法について説明する。ベクトル算出部300は、物体50に対応する基準面への3次元ベクトルvを求めている。そのため、タッチ座標は、X(ベクトル)=x (ベクトル)+v(ベクトル)と表すことができる。また、ベクトルを定数倍して加算することで座標を調整しても良い。ここで、添え字「i」を参照することで、複数の物体50をそれぞれ区別することができる。これは、マルチタッチに対応できることを意味する。
また、座標算出部500は、入力座標の変動を抑制するために、時間方向の安定化処理(トラッキング)を行ってもよい。これには、IIR(Infinite impulse response:無限インパルス応答)フィルタやカルマンフィルタなどを利用することができる。IIRフィルタを用いる場合、時刻tのタッチ座標については、次式で計算することができる。

Figure 0005802247

ここで、βは時定数である。β=1.0の場合には、安定化処理は行われない。
このようなトラッキング処理を行う場合、異なる時刻におけるタッチ座標間の対応付けをおこなう必要がある。これは、最近傍の点同士を対応付けるなどの方法をとれば良い。また、対応付けのコストを設定し、コストが最小になるペアを探索しても良い。また、本実施形態では、3次元ベクトルvを求めているため、3次元ベクトルvの角度情報を用いてもよい。例えば、図12に示すように、2本の指でタッチを続ける場合に、ベクトルの角度が近しい点同士を対応付ければ良い。
ここで、比較例のタッチ座標算出方法として、いずれかの検出部分の代表点(重心)をそのままタッチ座標として入力する方法が提案されている。この場合、物体の先端(例えば指先)とタッチ座標との間に「ずれ」が発生し、ユーザーは意図した位置に入力をすることが困難になる。この「ずれ」を小さくするためには、ノイズを検出しないように設けるマージンZmagin(x,y)及び検出部分の検出範囲を小さくする必要がある。その場合、ノイズによる距離変化と、物体による距離変化と、の区別が困難になるため、タッチを精度良く検出できない。あるいは、誤検出が発生する。
これに対して、本実施形態では、ベクトル算出部300は、物体50に対応する基準面への3次元ベクトルvを求めている。そのため、簡便な処理で指先(物体50の先端)の座標をタッチ座標とすることができる。また、前述した比較例のタッチ座標算出方法と比較して、マージンZmargin(x,y)や検出部分の検出範囲を広くとることができ、検出の安定性を高めることができる。
続いて、決定部400は、タッチ座標およびベクトルvに基づいて物体50の入力操作の内容を決定し、コンピュータ800へ出力する(ステップS20)。
続いて、ステップS18の情報処理方法は、図2に関して前述したステップS18の情報処理方法と同様である。
本実施形態によれば、例えばタッチ操作を検出する際には、距離測定手段(例えば距離計測部100)の精度が低い場合にも、指先のタッチ座標を安定して検出することができる。さらに、物体50に対応する3次元ベクトルvから、3次元的な角度やユーザーの方向を入力することができるため、従来の入力方式に比べ多彩な入力手段を提供することができる。
図13は、本発明のさらに他の実施の形態にかかる情報処理装置を表すブロック図である。
図13に表した情報処理装置10bは、図10に関して前述した情報処理装置10aと比較して、表示部600をさらに備える。
表示部600は、ディスプレイやプロジェクタなど、映像を表示する手段である。ユーザーは、基準面に対して入力を行い、表示部600が表示する映像を操作することができる。本実施形態では、表示部600が壁や机上面などの基準面に対し映像を投影するプロジェクタ(投影部)である場合を例に挙げて説明する。但し、表示部600は、プロジェクタに限るものではない。表示部600は、液晶ディスプレイなどであっても良い。また、表示部600と、操作を入力する基準面と、が互いに異なる場所であっても良い。
その他の構成は、図10に関して前述した情報処理装置10aの構成と同様である。
本実施形態によれば、壁や机上面などを、操作可能な仮想ディスプレイとすることが可能となる。例えば、決定部400がタッチ操作を出力する場合、壁や机上面などを仮想タッチディスプレイとすることができる。
図14は、本発明のさらに他の実施の形態にかかる情報処理装置を表すブロック図である。
図13に関して前述したように、情報処理装置が表示部600を備える場合、壁や机上面などを、操作可能な仮想ディスプレイとすることが可能となる。ただし、表示部600の座標系と距離計測部100の座標系とが互いに異なる場合は、座標系間の対応付けが必要となる。具体的には、座標算出部500が求めた座標X(ベクトル)を、表示部600における座標系に対応させるための変換が必要になる。
そこで、図14に表した情報処理装置10cは、図13に関して前述した情報処理装置10bと比較して、変換部700をさらに備える。変換部700は、決定部400が決定した入力操作を、表示部600の座標系に合わせて変換する。言い換えれば、変換部700は、表示部600の座標系と、距離計測部100の座標系と、の座標系間を対応付けるような変換を行う。これにより、例えば、投影している画像をタッチした際に、投影画像の対応した位置をタッチ操作する、あるいはカーソルを表示するといったことが可能になる。
図15は、本実施形態の情報処理方法を表すフローチャート図である。
図16は、対応点算出のパターン画像の一例を例示する模式的平面図である。
ステップS11〜ステップS19の情報処理方法は、図2および図11に関して前述したステップS11〜ステップS19の情報処理方法と同様である。
続いて、決定部400は、タッチ座標およびベクトルvに基づいて物体50の入力操作の内容を決定し、変換部700へ出力する(ステップS21)。続いて、変換部700は、表示部600の座標系に合わせて入力操作を変換する(ステップS22)。
本実施形態では、基準面が平面である場合に、表示部600の座標系と距離計測部100の座標系との対応付けを行う方法について説明する。
基準面が平面の場合、表示部600の座標系と距離計測部100の座標系の変換については、線形な行列変換の2次元射影変換で表わすことができる。2次元射影変換に必要な3×3の行列をHとあらわす。行列Hは、ホモグラフィーとも呼ばれる。表示部600の座標系と距離計測部100の座標系との間で4組以上の対応点を取得できれば、行列Hを解析的に求めることができる。
これら対応点については、手動で設定してもよい。また、図16に示すような、対応点の自動取得が容易なパターンを利用すると便利である。図16のようなパターンを利用する場合には、既存のコーナー検出手段を用いることで容易に対応点を取得することができる。具体的には、表示部600でパターン画像を表示し、距離計測部100の座標系に合わせてキャリブレーションを行った可視カメラでパターンを撮影することで、対応点を自動取得することができる。また、距離計測部100が赤外光を検知できる場合、図16に表したパターンを赤外光で再現すれば、可視カメラは不要となる。これにより、行列Hを求め、座標の変換を行うことができる。
次に、基準面が非平面の場合に、表示部600の座標系と距離計測部100の座標系との対応付けを行う方法について説明する。
表示部600が例えばプロジェクタの場合、凹凸がある面であっても映像を表示することが可能である。そのため、基準面は非平面になり、前述した2次元射影変換では対応できない。このような場合には、3次元射影変換を用いて対応付けを行う。具体的には、距離計測部100の座標系におけるタッチ座標を、実空間の座標(世界座標系)に一旦復元し、その後プロジェクタの座標系に再投影することで、距離計測部100と表示部600との間の座標の対応付けを行う。
カメラやプロジェクタにおいて、世界座標系を画像座標に変換するモデルとして、次式の射影モデルが一般的に知られている。

Figure 0005802247
世界座標(X,Y,Z) は、X=X/X、Y=X/X、Z=X/Xの形で導出される。画像座標(x,y)は 、x=x/x、y=x/xの形で導出される。座標を同次座標で表現する場合、各要素を定数倍しても世界座標および画像座標の値は変わらないという性質がある。その定数倍の不定性を係数λで表す。
また、Aは、内部パラメータ行列であり、焦点距離や解像度などの内部情報から決定される。R、Tは、外部パラメータ行列と呼ばれる行列であり、カメラやプロジェクタの姿勢により決定される。これらは、キャリブレーションにより予め求めておくことができる。
前述した射影モデルに基づく表示部600と距離計測部100との間の座標の対応付けについて説明する。
まず、表示部(この例ではプロジェクタ)600の射影モデルを次式のように定義する。

Figure 0005802247

Figure 0005802247

ここで、距離計測部100の座標を世界座標系の原点とすると、R=I、T=0と置くことができる。また、距離計測部100により、画像座標(x,y)の距離d(x,y)を取得できるため、定数倍の不定性を除去することができる。
以上より、式(13)から次式を得ることができ、非平面であっても座標の対応付けを行うことができる。

Figure 0005802247
式(14)は、距離計測部100の画像座標(右辺)から世界座標(左辺)への変換を意味している。
最後に、変換した世界座標をプロジェクタの射影モデルに代入することで、距離計測部100の画像座標からプロジェクタの画像座標への変換が可能となる。

Figure 0005802247
以上、投影面が平面の場合と、投影面が非平面の場合と、のそれぞれの対応付け方法について説明したが、本発明はこれに限るものではなく、例えば対応付けを事前に手動で行っておいても良い。
本実施形態によれば、電子ペンのような専用デバイスや、壁や机上面に取り付けるセンサを用いることなく、壁や机上面などを、操作可能な仮想ディスプレイとすることができる。
図17は、本実施形態のコンピュータの一例を例示するブロック図である。
コンピュータ800は、決定部400から出力された操作信号に基づいて、例えば、所定の色の線や、所定の種類の線や、所定の図形などを表示部600に表示させる。
コンピュータ800は、中央演算部(CPU)801、入力部(input unit)802、出力部(output unit)803、記憶部(memory unit)804と、を含む。入力部802は、記録媒体Mに記録された情報を読み取る機能を含む。
オペレーティング・システム(OS:Operating System)及び本実施形態の情報処理プログラムは、記憶部804に格納されている。中央演算部801は、決定部400から出力された操作信号と、オペレーティング・システムと、に基づいて、表示部600に表示させる内容を決定し実行する。
本実施形態の情報処理プログラムは、コンピュータ読取可能な記録媒体Mに記録されていてもよい。記録媒体Mは、ネットワークに接続されたサーバ等の記憶装置であってもよい。また、本実施形態の情報処理プログラムは、ネットワークを介して配信されてもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10、10a、10b、10c 情報処理装置、 50、60 物体、 100 距離計測部、 200 検出部、 201 第1検出部、 202 第2検出部、 20N 第N検出部、 300 ベクトル算出部、 400 決定部、 500 座標算出部、 600 表示部、 700 変換部、 800 コンピュータ、 801 中央演算部、 802 入力部、 803 出力部、 804 記憶部

Claims (8)

  1. 距離計測部から、投影部が映像を投影する基準面上の各位置までの距離を計測し、前記計測された基準面上の各位置から一定の距離であって、互いに異なる距離に複数の検出範囲を設定し、前記複数の検出範囲にまたがって存在する物体を検出し前記検出範囲において検出された前記物体の代表点の位置を求める検出部と、
    複数の前記代表点の位置に基づいて3次元のベクトルを求めるベクトル算出部と、
    前記物体が前記基準面に接触した入力座標を前記ベクトルと、前記基準面上の各位置までの距離と、に基づいて求める座標算出部と、
    前記入力座標および前記ベクトルの少なくともいずれかに基づいて前記物体による入力操作の内容を決定する決定部と、
    を備えた情報処理装置。
  2. 前記決定部は、前記ベクトルの角度に基づいて前記入力操作の内容を決定する請求項1記載の情報処理装置。
  3. 前記決定部は、前記ベクトルの角度に基づいて前記物体を操作する操作者の位置を決定する請求項1または2に記載の情報処理装置。
  4. 前記物体が複数存在し、
    前記決定部は、前記複数の前記物体のそれぞれに対応する前記ベクトルの角度に基づいて前記複数の前記物体のうちの少なくとも2つを互いに一組と決定する請求項1〜3のいずれか1つに記載の情報処理装置。
  5. 前記物体までの距離を測定する距離計測部をさらに備え、
    前記検出部は、前記距離計測部が測定した前記距離に基づいて前記物体を検出し前記代表点の位置を求める請求項1〜4のいずれか1つに記載の情報処理装置。
  6. 前記決定部は、前記入力座標の位置および前記入力座標の時間的な変化の少なくともいずれかに基づいて前記入力操作の内容を決定する請求項1〜5のいずれか1つに記載の情報処理装置。
  7. 映像を投影して表示する投影部をさらに備えた請求項1〜6のいずれか1つに記載の情報処理装置。
  8. 前記決定部が決定した前記入力操作の内容を、前記投影部の座標系に合わせて変換する変換部をさらに備えた請求項7記載の情報処理装置。
JP2013197921A 2013-09-25 2013-09-25 情報処理装置 Expired - Fee Related JP5802247B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013197921A JP5802247B2 (ja) 2013-09-25 2013-09-25 情報処理装置
US14/331,701 US9639212B2 (en) 2013-09-25 2014-07-15 Information processor, processing method, and projection system
CN201410384547.6A CN104461176A (zh) 2013-09-25 2014-08-07 信息处理器、处理方法和投影***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013197921A JP5802247B2 (ja) 2013-09-25 2013-09-25 情報処理装置

Publications (2)

Publication Number Publication Date
JP2015064724A JP2015064724A (ja) 2015-04-09
JP5802247B2 true JP5802247B2 (ja) 2015-10-28

Family

ID=52690545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013197921A Expired - Fee Related JP5802247B2 (ja) 2013-09-25 2013-09-25 情報処理装置

Country Status (3)

Country Link
US (1) US9639212B2 (ja)
JP (1) JP5802247B2 (ja)
CN (1) CN104461176A (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5852050B2 (ja) * 2013-05-27 2016-02-03 株式会社ジャパンディスプレイ タッチ検出装置、タッチ検出機能付き表示装置、及び電子機器
KR20150068001A (ko) * 2013-12-11 2015-06-19 삼성전자주식회사 센서를 이용한 동작 인식 방법 및 장치
JP6385729B2 (ja) 2014-06-13 2018-09-05 株式会社東芝 画像処理装置および画像投影装置
JP6317635B2 (ja) 2014-06-30 2018-04-25 株式会社東芝 画像処理装置、画像処理方法及び画像処理プログラム
JP6280005B2 (ja) 2014-08-28 2018-02-14 株式会社東芝 情報処理装置、画像投影装置および情報処理方法
KR20170101769A (ko) * 2014-12-26 2017-09-06 가부시키가이샤 니콘 검출 장치 및 프로그램
JP6528964B2 (ja) * 2015-05-25 2019-06-12 株式会社リコー 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法
WO2018042923A1 (ja) * 2016-08-31 2018-03-08 ソニー株式会社 情報処理システム、情報処理方法、およびプログラム
CN106557209B (zh) * 2016-10-28 2019-09-17 青岛海信电器股份有限公司 红外触摸屏触控信号的处理方法、装置及终端设备
JP6501806B2 (ja) 2017-01-05 2019-04-17 キヤノン株式会社 情報処理装置、操作検出方法、及びコンピュータプログラム
CN108109581B (zh) * 2018-01-16 2018-12-25 深圳鑫亿光科技有限公司 交互式led显示装置及其显示方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0784715A (ja) * 1993-09-10 1995-03-31 Hitachi Ltd 情報処理装置
KR101520689B1 (ko) * 2008-10-22 2015-05-21 엘지전자 주식회사 이동 단말기 및 이를 이용한 화면 스크롤 방법
JP5488082B2 (ja) * 2010-03-17 2014-05-14 セイコーエプソン株式会社 情報認識システム及びその制御方法
JP4858631B2 (ja) 2010-06-17 2012-01-18 パナソニック株式会社 画像投影装置、判定方法及び判定プログラム
JP5783828B2 (ja) * 2010-08-25 2015-09-24 キヤノン株式会社 情報処理装置およびその制御方法
JP5197777B2 (ja) 2011-02-01 2013-05-15 株式会社東芝 インターフェイス装置、方法、およびプログラム
JP5754216B2 (ja) * 2011-04-04 2015-07-29 セイコーエプソン株式会社 入力システム及びペン型入力機器
US9470922B2 (en) * 2011-05-16 2016-10-18 Panasonic Intellectual Property Corporation Of America Display device, display control method and display control program, and input device, input assistance method and program
JP2013061552A (ja) * 2011-09-14 2013-04-04 Ricoh Co Ltd プロジェクタ装置および操作検出方法
JP2013065061A (ja) * 2011-09-15 2013-04-11 Funai Electric Co Ltd プロジェクタ
JP5971053B2 (ja) * 2012-09-19 2016-08-17 船井電機株式会社 位置検出装置及び画像表示装置

Also Published As

Publication number Publication date
CN104461176A (zh) 2015-03-25
JP2015064724A (ja) 2015-04-09
US20150084930A1 (en) 2015-03-26
US9639212B2 (en) 2017-05-02

Similar Documents

Publication Publication Date Title
JP5802247B2 (ja) 情報処理装置
TWI544447B (zh) 擴增實境的方法及系統
JP6194777B2 (ja) 動作判定方法、動作判定装置および動作判定プログラム
US10318152B2 (en) Modifying key size on a touch screen based on fingertip location
US20200133432A1 (en) Virtual touch screen
TWI408587B (zh) 觸控系統及其定位方法
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
WO2013115991A1 (en) Latency measurement
US20120319945A1 (en) System and method for reporting data in a computer vision system
CN104081307A (zh) 图像处理装置、图像处理方法和程序
WO2022116281A1 (zh) 一种新的非接触式人机交互方法及***
US20150153834A1 (en) Motion input apparatus and motion input method
TWI424343B (zh) 光學觸控系統及其感測方法
EP2975503A2 (en) Touch device and corresponding touch method
JP2014102183A (ja) 画像処理装置および画像処理システム
Kim et al. Method for user interface of large displays using arm pointing and finger counting gesture recognition
CN105653101B (zh) 触控点感测方法及光学触控***
JP2018049498A (ja) 画像処理装置、操作検出方法、コンピュータプログラム、及び記憶媒体
TWI419011B (zh) 觸控點之追蹤方法及追蹤系統
US9983685B2 (en) Electronic apparatuses and methods for providing a man-machine interface (MMI)
EP3059664A1 (en) A method for controlling a device by gestures and a system for controlling a device by gestures
WO2018161421A1 (zh) 终端设备的触摸显示屏幕的性能测试方法和性能测试装置
CN116974400B (zh) 屏幕触显识别方法、装置、设备及存储介质
TWI522871B (zh) 光學觸控系統之物件影像之處理方法
US20150370441A1 (en) Methods, systems and computer-readable media for converting a surface to a touch surface

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150624

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150828

R151 Written notification of patent or utility model registration

Ref document number: 5802247

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees