JP6723814B2 - 情報処理装置、その制御方法、プログラム、及び記憶媒体 - Google Patents
情報処理装置、その制御方法、プログラム、及び記憶媒体 Download PDFInfo
- Publication number
- JP6723814B2 JP6723814B2 JP2016091625A JP2016091625A JP6723814B2 JP 6723814 B2 JP6723814 B2 JP 6723814B2 JP 2016091625 A JP2016091625 A JP 2016091625A JP 2016091625 A JP2016091625 A JP 2016091625A JP 6723814 B2 JP6723814 B2 JP 6723814B2
- Authority
- JP
- Japan
- Prior art keywords
- distance
- image
- area
- target surface
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0428—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
一般的に「タッチ」とは、物体の表面やそこに投影されたアイテムの表示領域に指先を接触または近接させることにより当該物体およびアイテムに対するタッチ入力を開始する動作である。また、「リリース」とは、タッチ操作後の物体およびアイテムから接触または近接させた指先を離すことにより、当該物体およびアイテムに対するタッチ入力を終了する動作である。タッチを採用する多くの情報処理装置は、タッチからリリースに至る間の指先の位置、動き、速度等に基づいて「タップ」、「ムーブ」、「フリック」等の様々なタッチ操作を認識することができる。例えば、指先を対象面にタッチした後、対象面に沿った方向にはほぼ動かさずにすぐリリースするという一連の入力は、「タップ」と呼ばれ、タッチした物体を選択するための指示として認識されることが多い。また、指先を対象面にタッチした後、タッチ状態のまま指先を対象面に沿った方向に動かす入力は、「ムーブ」と呼ばれ、タッチした物体の移動や範囲指定、線を描画するための指示として認識されることが多い。ただし本実施形態では、「タッチ」と「リリース」のそれぞれを「タッチ操作」及び「リリース操作」という単独の操作の入力として認識し、認識する度に操作者に対してフィードバックを行う情報処理装置を例に説明していく。例えば、タッチ操作が認識されたことに応じて、対象面のタッチされた位置(以下、タッチ位置)にポインタを投影表示する。さらにリリース操作が認識された場合には、ポインタの投影表示を終了する。また、本実施形態では、タッチからリリースに至る間の接触状態に基づいて入力される操作全般を、タッチ入力と表記する。
図1は、本実施形態に係る情報処理装置100を設置したテーブルトップインタフェースシステムの外観の一例である。また、3次元空間内の位置情報を定義する座標軸も示す。操作面101は、テーブルトップインタフェースのテーブル部分であり、操作者は、操作面101をタッチすることでタッチ操作を入力することが可能である。本実施形態では、テーブルの上方に、操作面101を見下ろすようにして可視光カメラ102と距離画像センサ103が設置される。従って撮像される各々の画像では、奥行き方向が操作面101と交差する。すなわち、撮像される画像の奥行き方向が操作面101からの距離(高さ)に関連し、この情報がタッチ入力の検出に利用される。可視光カメラ102によって得られる可視光画像は、情報処理装置100に入力画像として入力される。情報処理装置100は、入力画像を解析し画像中の肌色領域を抽出することにより、操作面101上の空間に存在する操作者の手106を検出する。また本実施形態では、情報処理装置100は、可視光カメラ102を制御して、操作面101に載置された物体107を撮影してその読み取り画像を得る書画カメラとして機能することができる。
図2(a)は、本実施形態に係る情報処理装置100を含むテーブルトップインタフェースのハードウェア構成図である。中央処理ユニット(CPU)200は、RAM202をワークメモリとして、ROM201や記憶装置203に格納されたOSやプログラムを実行して、各種処理の演算や論理判断などを行い、システムバス204に接続された各構成を制御する。CPU200が実行する処理には、後述するタッチ操作の認識処理が含まれる。記憶装置203は、ハードディスクドライブや各種インタフェースによって接続された外部記憶装置などであり、実施形態の操作認識処理にかかるプログラムや各種データを記憶する。可視光カメラ102は、CPU200の制御に従い、テーブルとテーブル上の操作者の手および物体を含む空間の可視光画像を撮像し、撮像した可視光画像をシステムバス204に出力する。また、距離画像センサ103は、CPU200の制御に従い、テーブルとテーブル上の操作者の手および物体を含む空間の距離画像を撮像し、撮影した距離画像をシステムバス204に出力する。本実施形態では、距離画像の取得方法として、環境光や操作面101の表示の影響が小さい赤外光を利用する方式を基に説明するが、用途に応じて視差方式などを利用することも可能である。プロジェクタ104は、CPU200の制御に従い、テーブルおよび物体表面に操作対象となる画像アイテムやタッチ操作に対するフィードバック画像を投影表示する。
図3のフローチャートに従って第1実施形態で実行される、タッチ入力の認識処理の流れを説明する。操作者がタッチ入力によって矩形領域を指定する操作を認識し、指定された領域内部を可視光カメラ103によって撮像した画像を得るというアプリケーションの動作を例に説明する。以下、図3のフローチャートで表される処理を領域指定操作の認識処理と呼ぶことがある。図3のフローチャートの処理は、情報処理装置の各機能部を構成するCPU200がROM201に記憶されたプログラムをRAM202に展開して実行することで実現される。本実施形態では、可視光カメラ102によって撮影された可視光画像が情報処理装置100に入力されたことに応じて図3のフローチャートの処理が開始される。また本実施形態では、図3のフローチャートの処理が、可視光カメラ102から可視光画像が入力される毎に繰り返される。従って処理が繰り返される周期は、可視光カメラ102の撮像映像のフレームレートに一致する。
ここで、ステップS303のタッチ入力の認識処理について説明する。図5は第1実施形態のタッチ入力の認識処理を表すフローチャートである。図5のフローチャートの処理は、ステップS302において可視光画像から手領域が抽出されたことに応じて開始される。
次に、第1実施形態の変形例として、予め計測したタッチ対象面の距離に基づくタッチ認識と、第1実施形態に記載したタッチ認識を併用する例を示す。上述した第1実施形態では、基準からタッチ入力の対象面までの距離が、指先に遮蔽されて計測できない部分で変動している可能性を考慮し、どのような場合でも、基準から対象面のうちその時点で距離計測可能な部分までの距離に基づきタッチ入力を認識した。それに対し、本変形例では、指先に遮蔽された対象面の距離が変動していないと推定される場合には、予め計測したタッチ対象面の指先で遮蔽された遮蔽領域までの距離に基づきタッチを認識する。また、指先に遮蔽された対象面の距離が変動していると推定される場合は、第1実施形態に記載した第2領域から求められる距離に基づきタッチを認識する。つまり、基準からタッチ入力の対象面までの距離が変動したと推定されるか否かを判定した結果に応じた異なる処理によってタッチ入力を認識する。すなわち、この判定処理は、予め計測された距離の情報が信用に足るかを判定することに相当する。
変形例に係るインタフェースシステムの外観および装置の構成は、図1及び図2に示した第1実施形態のものに準じる。従って共通する各要素について、詳細な説明を省略する。
図11のフローチャートに従って変形例のタッチ入力に基づく指定領域の撮影処理を説明する。図11のフローチャートの処理は、情報処理装置の各機能部を構成するCPU200がROM201に記憶されたプログラムをRAM202に展開して実行することで実現される。本実施形態では、可視光カメラ102によって撮影された可視光画像が情報処理装置100に入力されたことに応じて図11のフローチャートの処理が開始される。また本実施形態では、図11のフローチャートの処理が、可視光カメラ102から可視光画像が入力される毎に繰り返される。従って処理が繰り返される周期は、可視光カメラ102の撮像映像のフレームレートに一致する。なお図3に示した第1実施形態と同等の処理を行うステップには同じ番号を付して詳細な説明は省略している。ここでは第1実施形態と異なる点を説明する。
ここで、ステップS1103の背景距離画像に基づくタッチ入力の認識処理について説明する。図12は変形例の背景距離画像に基づくタッチ入力の認識処理を表すフローチャートである。図12のフローチャートの処理は、ステップS1102において画像中の変動が検出されたことに応じて開始される。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
211 領域抽出部
212 指先検出部
213 第2領域設定部
214 距離取得部
215 分割部
216 認識部
217 接点取得部
218 位置決定部
219 表示制御部
220 撮像制御部
Claims (17)
- 所定の対象面を背景とする空間に向けた撮像部により撮像した画像を取得する画像取得手段と、
前記画像を構成する複数の領域に関して、基準となる位置から各領域の被撮像面までの距離に相当する情報を取得する距離取得手段と、
前記画像取得手段によって取得された1の画像のうち、物体の所定の部位が撮像された第1領域に関して前記距離取得手段によって取得される情報と、前記画像の一部であって前記第1領域の周囲に接する第2領域に関して前記距離取得手段によって取得される情報を使って、前記物体による前記対象面への入力を認識する認識手段と、
前記認識手段により、前記物体による前記対象面への入力が認識された場合、前記第1領域から特定される領域の重心の位置に基づき前記入力により指示されたとみなされる位置を決定する決定手段と、
を備えることを特徴とする情報処理装置。 - 前記認識手段は、前記第1領域に関して前記距離取得手段によって取得される情報と、前記第2領域に関して前記距離取得手段によって取得される情報を使って、前記物体の前記所定の部位と前記対象面の間の距離が所定の距離より小さいと判定される場合、前記物体による前記対象面への所定の入力状態を認識することを特徴とする請求項1に記載の情報処理装置。
- 前記所定の入力状態とは、前記物体が前記対象面にタッチしているとみなされる状態であることを特徴とする請求項1または2に記載の情報処理装置。
- 前記画像おいて、前記物体の所定の部位の輪郭から所定距離にある画素の集合のうち前記第1領域を除く部分を、前記第2領域として設定する設定手段を更に備えることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
- 前記画像に写る前記物体の所定の部位の輪郭の形状に基づいて、前記画像から前記第1領域を抽出する抽出手段と、
前記抽出手段に抽出された前記第1の領域の形状に基づいて、前記第2領域を設定する設定手段を更に備えることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 - 前記認識手段は、前記画像のうち前記第1領域に反映された距離に基づいて推定される基準となる位置から前記物体の所定の部位までの距離と、前記画像のうち前記第2領域に反映された距離に基づいて推定される前記基準から前記対象面のうち前記物体の所定の部位に遮蔽された部分までの距離との差分が、前記所定の距離より小さい場合、前記入力を認識することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
- 前記画像のうち前記物体の所定の部位が写る第1領域に反映された距離に基づいて、基準となる位置から前記物体の所定の部位までの距離に相当する情報を取得し、前記画像の一部であって前記第1領域の周辺に位置する第2領域に反映された距離に基づいて、前記基準となる位置から前記対象面までの距離に相当する情報を取得する距離取得手段を更に備え、
前記認識手段は、前記距離取得手段によって取得された情報から取得される前記基準となる位置から前記物体の所定の部位までの距離と前記基準となる位置から前記対象面までの距離の差分が、前記所定の距離より小さいことに基づいて、前記物体による前記対象面への入力を認識することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。 - 前記距離取得手段は、前記画像のうち前記第2領域に反映された距離に基づいて、前記基準となる位置から、前記対象面のうち前記物体の所定の部位に遮蔽された部分までの距離とみなされる距離を取得することを特徴とする請求項7に記載の情報処理装置。
- 前記第2領域を所定の条件に基づいて1つ以上の小領域に分割する分割手段を備え、
前記距離取得手段は、分割された前記小領域毎に、前記基準となる位置から前記小領域に写る前記対象面までの距離を取得し、
前記認識手段は、前記基準となる位置から前記物体の所定の部位までの距離と、前記小領域毎に取得された距離のうち少なくとも1つとの差分が、前記所定の距離より小さい場合、前記物体による前記対象面への入力を認識することを特徴とする請求項7又は8に記載の情報処理装置。 - 前記分割手段は、前記第2領域を距離の不連続性に基づいて1つ以上の小領域に分割することを特徴とする請求項9に記載の情報処理装置。
- 前記画像から、前記分割された前記小領域のうち、該小領域から取得される前記基準となる位置から前記小領域に写る前記対象面までの距離と、前記基準となる位置から前記物体の所定の部位までの距離との差分が前記所定の距離を下回る小領域について、前記第1領域との接点の集合を取得する接点取得手段と、
前記認識手段により前記入力が認識された場合に、前記第1領域から前記接点の集合を含む小領域を抽出し、抽出された領域の重心に基づいて前記所定の部位によって指示される位置を検出する位置検出手段を備えることを特徴とする、
請求項9又は10に記載の情報処理装置。 - 前記画像取得手段が取得する画像から、少なくとも前記物体が写る領域を除いた領域に関して前記距離取得手段が取得する距離の情報を、背景の距離の情報として記憶する記憶手段と、前記画像取得手段が取得する画像に反映された距離に基づいて、前記基準となる位置から前記物体が写る領域を除いた領域に相当する被撮像面までの距離の変動の有無を検出する変動検出手段を更に備え、
前記認識手段は、前記変動検出手段によって変動が検出されない場合、前記画像のうち前記第1領域に反映された距離に基づいて推定される前記基準となる位置から前記物体の所定の部位までの距離と、前記記憶手段に記憶された前記背景の距離の情報によって示される前記第1領域に対応する距離に基づいて推定される前記基準から前記対象面のうち前記物体の所定の部位に遮蔽された部分までの距離との差分が、前記所定の距離より小さいことに基づいて、前記画像中で指示部位に遮蔽された面に指示部位が接触していることを認識することを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。 - 前記認識手段は、前記物体のうち前記所定の部位と対象面の間の距離が所定の距離より小さいことを、前記物体による前記対象面へのタッチ入力として認識することを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。
- 前記画像は、各画素に撮像された被撮像面までの距離に相当する情報を画素値として格納した距離画像であることを特徴とする請求項1乃至13のいずれか1項に記載の情報処理装置。
- 情報処理装置の制御方法であって、
画像取得手段により、所定の対象面を背景とする空間に向けた撮像部により撮像した画像を取得する取得する画像取得工程と、
距離取得手段により、前記画像を構成する複数の領域に関して、基準となる位置から各領域の被撮像面までの距離に相当する情報を取得する距離取得工程と、
認識手段により、前記画像取得工程において取得された1の画像のうち、物体の所定の部位が撮像された第1領域に関して前記距離取得工程で取得される情報と、前記画像の一部であって前記第1領域の周囲に接する第2領域に関して前記距離取得工程で取得される情報を使って、前記物体による前記対象面への入力を認識する認識工程と、
前記認識工程で前記物体による前記対象面への入力が認識された場合、決定手段により、前記第1領域から特定される領域の重心の位置に基づき前記入力により指示されたとみなされる位置を決定する決定工程とを有することを特徴とする情報処理装置の制御方法。 - コンピュータに読み込ませ実行させることによって、前記コンピュータを、請求項1乃至14のいずれか1項に記載の情報処理装置として動作させるプログラム。
- 請求項16に記載されたプログラムを格納したことを特徴とするコンピュータが読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016091625A JP6723814B2 (ja) | 2016-04-28 | 2016-04-28 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
US15/496,942 US10642422B2 (en) | 2016-04-28 | 2017-04-25 | Information processing apparatus, control method for the information processing apparatus, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016091625A JP6723814B2 (ja) | 2016-04-28 | 2016-04-28 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017199289A JP2017199289A (ja) | 2017-11-02 |
JP2017199289A5 JP2017199289A5 (ja) | 2019-05-30 |
JP6723814B2 true JP6723814B2 (ja) | 2020-07-15 |
Family
ID=60157463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016091625A Active JP6723814B2 (ja) | 2016-04-28 | 2016-04-28 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10642422B2 (ja) |
JP (1) | JP6723814B2 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6690622B2 (ja) * | 2017-09-26 | 2020-04-28 | カシオ計算機株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
US11861136B1 (en) * | 2017-09-29 | 2024-01-02 | Apple Inc. | Systems, methods, and graphical user interfaces for interacting with virtual reality environments |
TWI734867B (zh) * | 2017-11-20 | 2021-08-01 | 達明機器人股份有限公司 | 機器手臂作業軌跡的教導系統及方法 |
CN107928675A (zh) * | 2017-11-22 | 2018-04-20 | 王华锋 | 一种基于深度学习和红点激光相结合的人体躯干测量方法 |
JP7345142B2 (ja) * | 2018-02-14 | 2023-09-15 | パナソニックIpマネジメント株式会社 | リスク評価システム及びリスク評価方法 |
CN110308817B (zh) * | 2019-06-10 | 2023-04-07 | 青岛小鸟看看科技有限公司 | 一种触控动作识别方法及触控投影*** |
CN112917017B (zh) * | 2019-12-05 | 2023-08-29 | 大族激光科技产业集团股份有限公司 | 待加工件的定位方法及待加工件的定位*** |
JP6930795B2 (ja) * | 2019-12-09 | 2021-09-01 | Necプラットフォームズ株式会社 | 公営競技投票システム、公営競技投票方法、及び公営競技投票プログラム |
US11782548B1 (en) * | 2020-03-25 | 2023-10-10 | Apple Inc. | Speed adapted touch detection |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4858631B2 (ja) | 2010-06-17 | 2012-01-18 | パナソニック株式会社 | 画像投影装置、判定方法及び判定プログラム |
JP6099023B2 (ja) * | 2014-05-29 | 2017-03-22 | パナソニックIpマネジメント株式会社 | プロジェクタシステム |
WO2016035231A1 (ja) | 2014-09-03 | 2016-03-10 | パナソニックIpマネジメント株式会社 | ユーザインターフェース装置およびプロジェクタ装置 |
JP2016184362A (ja) * | 2015-03-26 | 2016-10-20 | 富士通株式会社 | 入力装置、入力操作検出方法及び入力操作検出用コンピュータプログラム |
-
2016
- 2016-04-28 JP JP2016091625A patent/JP6723814B2/ja active Active
-
2017
- 2017-04-25 US US15/496,942 patent/US10642422B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US10642422B2 (en) | 2020-05-05 |
JP2017199289A (ja) | 2017-11-02 |
US20170315674A1 (en) | 2017-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6723814B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP6323040B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP6417702B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
US9756265B2 (en) | Information processing apparatus recognizing certain object in captured image, and method for controlling the same | |
US9645735B2 (en) | Information processing device and information processing method | |
JP6089722B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
US20120169671A1 (en) | Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and an imaging sensor | |
US9035889B2 (en) | Information processing apparatus and information processing method | |
CN107407959B (zh) | 基于姿势的三维图像的操纵 | |
US9916043B2 (en) | Information processing apparatus for recognizing user operation based on an image | |
JP6711817B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP7162079B2 (ja) | 頭部のジェスチャーを介してディスプレイ装置を遠隔制御する方法、システムおよびコンピュータプログラムを記録する記録媒体 | |
JP2012238293A (ja) | 入力装置 | |
US10254893B2 (en) | Operating apparatus, control method therefor, and storage medium storing program | |
JP6335695B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP2016103137A (ja) | ユーザインタフェース装置、画像処理装置及び制御用プログラム | |
JP2017219942A (ja) | 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム、接触検出方法、プログラム及び記憶媒体。 | |
JP2017084307A (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP6746419B2 (ja) | 情報処理装置、及びその制御方法ならびにコンピュータプログラム | |
JP6632298B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6643825B2 (ja) | 装置及び方法 | |
JP6618301B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP2018063555A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6555958B2 (ja) | 情報処理装置、その制御方法、プログラム、および記憶媒体 | |
JP2018055685A (ja) | 情報処理装置、その制御方法、プログラム、および記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190417 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190417 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200128 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200326 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200526 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200624 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6723814 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |