JPWO2018150757A1 - 情報処理システム、情報処理方法、およびプログラム - Google Patents
情報処理システム、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JPWO2018150757A1 JPWO2018150757A1 JP2018568035A JP2018568035A JPWO2018150757A1 JP WO2018150757 A1 JPWO2018150757 A1 JP WO2018150757A1 JP 2018568035 A JP2018568035 A JP 2018568035A JP 2018568035 A JP2018568035 A JP 2018568035A JP WO2018150757 A1 JPWO2018150757 A1 JP WO2018150757A1
- Authority
- JP
- Japan
- Prior art keywords
- display
- information
- information processing
- window
- processing system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/04166—Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
- G06F3/041661—Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving using detection at multiple resolutions, e.g. coarse and fine scanning; using detection within a limited area, e.g. object tracking window
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
- G06F3/04186—Touch location disambiguation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
- G06F3/0447—Position sensing using the local deformation of sensor cells
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
1.情報処理システムの構成
2.実施形態の詳細な説明
3.ハードウェア構成
4.変形例
まず、本開示の実施形態に係る情報処理システム10の構成例を説明する。図1は、本開示の一実施形態に係る情報処理システム10の一構成例を示す説明図である。なお、本明細書において、システムとは、所定の処理を実行するための構成のことを意味し得る。システムは、1つの装置から構成されてもよいし、または、複数の装置から構成されてもよい。また、本実施形態に係る情報処理システム10も、情報処理システム10全体として所定の処理を実行可能に構成されていればよく、情報処理システム10内のどの構成を1つの装置とみなすかは任意であってよい。
表示部124aは、各種の情報をテーブル90a上に表示する。表示部124aは、投影部(プロジェクタ)であり得る。例えば、図1に示したように、表示部124aは、テーブル90aの上方に、天井から吊り下げられた状態でテーブル90aと所定の距離離隔して配置され得る。この場合、表示部124aは、テーブル90aの天面に情報を投影する。このように上方からテーブル90aの天面に情報を表示する方式を、「プロジェクション型」とも呼称する。また、以下では、テーブル90の天面をスクリーン20と称する場合がある。また、スクリーン20は、本開示における投影対象の一例である。スクリーン20は、表示部124による投影の対象となる面(表示面)を含む。
センサ部122aは、例えば1つのレンズでテーブル90aを撮像するカメラや、2つのレンズでテーブル90aを撮像して奥行き方向の情報を記録することが可能なステレオカメラを含む。ステレオカメラとしては、例えば可視光カメラや赤外線カメラ等が用いられ得る。また、センサ部122aは、ユーザが発する音声や、周囲の環境の環境音を収音するマイクロフォン等の音声入力装置をさらに含んでもよい。
以上、本実施形態に係る情報処理システム10aの構成について説明した。なお、本実施形態に係る情報処理システムの構成は図1に示した例に限定されず、例えば図3または図4に示したような構成であってもよい。
図3は、本実施形態に係る情報処理システムの別の構成例(情報処理システム10b)を示す図である。図3に示したように、情報処理システム10bでは、テーブル90bの下方に表示部124bが設置される。表示部124bは、例えばプロジェクタであり、当該テーブル90bの天板に向かって下側から情報を投影する。例えば、テーブル90bの天板は、例えばガラス板や透明プラスチック板等の透明な材質で形成される。そして、表示部124bによって投影された情報は、(当該天板を透過して)テーブル90bの天面(スクリーン20b)に表示される。このようにテーブル90bの下から情報を表示部124bに投影させることによりスクリーン20bに情報を表示する方式を、「リアプロジェクション型」とも称する。
図4は、本実施形態に係る情報処理システムのさらに別の構成例(情報処理システム10c)を示す図である。図4に示したように、情報処理システム10cでは、タッチパネル式のディスプレイが、その表示面を上方に向けた状態でテーブル90c上に設置される。情報処理システム10cでは、センサ部122c及び表示部124cは、当該タッチパネル式のディスプレイとして一体的に構成され得る。つまり、ディスプレイの表示画面(スクリーン20c)に各種の情報が表示され、そして、当該ディスプレイの表示画面に対する操作体の接触がタッチパネルによって検出されることにより、ユーザによる操作入力が行われる。なお、情報処理システム10cにおいても、図1に示す情報処理システム10aと同様に、センサ部122cはカメラを含み、そして、表示部124cの上方に当該カメラが設置されてもよい。この場合、当該カメラによる撮影画像に基づいて、テーブル90cの周囲に位置する個々のユーザの位置等が検出され得る。
以上、本実施形態に係る情報処理システムの他の構成例について説明した。ところで、スクリーン20上でウィンドウ30に対してユーザが指を動かすタッチジェスチャー(例えばスワイプ、スライド、ドラッグなど)を行う場面では、公知の技術では、タッチジェスチャーに対応する操作方向としてユーザの意図とは異なる方向を認識してしまう恐れがある。
<2−1.機能構成>
次に、本実施形態に係る機能構成について詳細に説明する。図6は、本実施形態に係る情報処理システム10の機能構成を示した機能ブロック図である。図6に示すように、情報処理システム10は、プラットフォーム部100、通信部120、センサ部122、表示部124、および、アプリケーション200を含む。なお、以下では、上記の説明と同様の内容については説明を省略する。
プラットフォーム部100は、一または複数の処理回路(例えば、後述するCPU(Central Processing Unit)150など)を含んで構成され得る。プラットフォーム部100は、情報処理システム10の動作を統括的に制御する。例えば、プラットフォーム部100は、一または複数の処理回路を用いて、情報処理システム10に関するOSやミドルウェアなどの機能を実現する。また、図6に示すように、プラットフォーム部100は、取得部102、処理部104、および、表示制御部106を含む。
取得部102は、表示部124によりスクリーン20に投影されているウィンドウ30に対するユーザの操作情報を取得する。ここで、ユーザの操作情報は、例えば、操作方法の種類、操作対象の表示オブジェクト、操作方向、操作量、および、操作速度などのうちの少なくとも一つを含み得る。なお、操作方法の種類は、例えば、タッチジェスチャーや、後述する操作部50に対する操作など、方向の情報を入力可能な任意の方法であり得る。例えば、操作方法がスクロールのタッチジェスチャーである場合、当該操作情報は、x軸方向の移動量(操作量)およびy軸方向の移動量と、操作対象のウィンドウ30の識別情報とを含む。また、操作方法が慣性スクロールのタッチジェスチャーである場合、当該操作情報は、x軸方向の移動速度(操作速度)およびy軸方向の移動速度と、操作対象のウィンドウ30の識別情報とを含む。
(2−1−3−1.操作方向の補正)
‐補正例1
処理部104は、スクリーン20(より詳細にはスクリーン20の表示面)における基準角度に対する、取得部102により取得された操作情報が示す操作対象のウィンドウ30の回転角度に基づいて、当該操作情報が示す操作方向を補正する。例えば、処理部104は、取得された操作情報が示す操作の種類と、スクリーン20における基準角度に対する操作対象のウィンドウ30の回転角度とに基づいて当該操作方向を補正する。一例として、当該操作の種類がスクロールのタッチジェスチャーである場合には、処理部104は、当該操作情報が示すx軸方向の移動量およびy軸方向の移動量と、スクリーン20に対する操作対象のウィンドウ30の回転角度とに基づいて当該操作方向を補正する。
また、処理部104は、当該操作情報が示す操作がウィンドウ30に対する直接的な操作であるか否かに基づいて、当該操作情報が示す操作方向を補正することも可能である。例えば、当該操作情報が示す操作がウィンドウ30に対する直接的な操作ではない場合(つまり、間接的な操作である場合)には、処理部104は、スクリーン20に対するウィンドウ30の回転角度と、スクリーン20とユーザとの位置関係とに基づいて当該操作方向を補正する。また、当該操作情報が示す操作がウィンドウ30に対する直接的な操作である場合には、処理部104は、(スクリーン20とユーザとの位置関係を用いることなく)スクリーン20に対するウィンドウ30の回転角度のみに基づいて当該操作方向を補正する。ここで、ウィンドウ30に対する直接的な操作は、例えば、スクリーン20に対するタッチジェスチャーなどを含む。また、ウィンドウ30に対する間接的な操作は、例えば、操作部50に対する方向情報の入力(例えば、操作部50に含まれるキー、ボタン、スティックなどの操作など)を含む。
また、当該操作情報が示す操作が、スクリーン20が撮影された撮影画像(カメラ画)に対する操作である場合には、処理部104は、さらに、当該撮影画像に対する物体認識の結果に基づいて、当該操作情報が示す操作方向を補正することも可能である。また、この場合、処理部104は、当該撮影画像に対する物体認識の結果に基づいて、当該操作情報が示す操作量をさらに補正することも可能である。つまり、処理部104は、(該当の操作に対応する)ベクトルの大きさを遠近感を考慮して補正することができる。
また、取得部102により取得された操作情報が示す操作がウィンドウ30に対するタッチジェスチャーである場合には、処理部104は、当該タッチジェスチャーの位置に基づいて、該当のウィンドウ30に対する操作方向を補正するか、もしくは、該当のウィンドウ30に関する設定を変更するかを決定する。例えば、処理部104は、当該タッチジェスチャーの位置がウィンドウ30内の変更用領域内であるか否かに基づいて、該当のウィンドウ30に対する操作方向を補正するか、もしくは、該当のウィンドウ30に関する設定を変更する。ここで、変更用領域は、本開示における所定の領域の一例である。変更用領域は、例えば、ウィンドウ30の外周から所定の距離内の、ウィンドウ30内の領域であってもよいし、ウィンドウ30の外周から所定の距離内の、ウィンドウ30外の領域であってもよいし、または、これらの両方を含む範囲であってもよい。また、ウィンドウ30に関する設定は、例えば、スクリーン20に対するウィンドウ30の回転角度、スクリーン20に対するウィンドウ30の位置、または、ウィンドウ30の表示サイズなどである。
また、処理部104は、補正した結果の情報(以下、補正結果の情報と称する)を、操作対象のウィンドウ30に対応するアプリケーション200へ出力する。ここで、補正結果の情報は、補正された操作方向や補正された操作量などを含み得る。これにより、該当のアプリケーション200は、当該補正の結果に応じた処理を実行し得る。
表示制御部106は、表示部124による投影の制御を行う。例えば、ユーザのタッチジェスチャーに基づいてウィンドウ30に関する設定(回転角度、位置、またはサイズなど)が処理部104により変更されている間は、表示制御部106は、該当のウィンドウ30の表示態様を標準の表示態様から別の表示態様へ変更する。例えば、ウィンドウ30に関する設定の変更が行われている間のみ、表示制御部106は、該当のウィンドウ30自体の表示色を変更してもよいし、透過度を上げてもよいし、または、該当のウィンドウ30の枠を光らせてもよい。または、ウィンドウ30に関する設定の変更が行われている間のみ、表示制御部106は、例えば図10に示したように、該当のウィンドウ30の輪郭線を表示部124にさらに表示させるとともに、当該変更に追従して当該輪郭線を移動させたり、または、サイズを変更させてもよい。これらの表示例によれば、情報処理システム10(より詳細には処理部104)が、現在、ウィンドウ30に関する設定を行っているか否かを、ウィンドウ30に対する操作中にユーザに知らせることができるので、ユーザの利便性が向上する。
通信部120は、他の装置との間で情報の送受信を行う。例えば、通信部120は、ユーザの操作情報を操作部50や情報処理端末60から受信する。
アプリケーション200は、処理部104により出力される、補正結果の情報に応じて、所定の処理を実行する。また、アプリケーション200は、アプリケーション200に対応する少なくとも一つのウィンドウ30を表示部124に表示させる。なお、アプリケーション200は、処理部104とは異なるプロセッサなどにより処理されてもよい。または、処理部104がプラットフォーム部100としての処理以外の処理も実行することが可能な場合には、処理部104がアプリケーション200の処理を実行してもよい。
以上、本実施形態に係る機能構成について説明した。次に、本実施形態に係る処理の流れについて図12を参照して説明する。図12は、本実施形態に係る処理の流れの一例を示したフローチャートである。なお、以下では、スクリーン20に対してユーザがタッチ操作を行う場面における処理の流れの例について説明する。
{2−3−1.効果1}
以上説明したように、本実施形態に係るプラットフォーム部100は、表示面に表示されているウィンドウ30に対するユーザの操作情報を取得し、そして、当該操作情報が示す操作方向を、当該表示面における基準角度に対するウィンドウ30の回転角度に基づいて補正し、かつ、補正された操作方向を示す情報をウィンドウ30に対応するアプリケーション200へ出力する。このため、ユーザの意図に沿った操作方向を、操作対象のウィンドウ30に対応するアプリケーション200へ出力することができる。
また、本実施形態によれば、アプリケーション200ではなく、プラットフォーム部100が、操作方向の補正を実現する。このため、アプリケーション200に対して特別な機能を組み込む必要がない。従って、アプリケーション200の作成に余計なコストがかからない。また、アプリケーション200ごとの挙動がばらつくことがなく、統一的な操作感を実現することができる。
次に、本実施形態に係る情報処理システム10のハードウェア構成について、図13を参照して説明する。図13に示すように、情報処理システム10は、CPU150、ROM(Read Only Memory)152、RAM(Random Access Memory)154、バス156、インターフェース158、入力装置160、出力装置162、ストレージ装置164、および通信装置166を備える。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、前述した実施形態では、本開示における投影対象がスクリーン20である例について説明したが、かかる例に限定されない。当該投影対象は、表示部124による投影の対象となる立体であってもよい。
また、前述した実施形態では、表示部124がスクリーン20上に画像を投影する例について説明したが、かかる例に限定されない。例えば、表示部124は、頭部装着型(例えばメガネ型など)のディスプレイであり、かつ、プラットフォーム部100または各アプリケーション200は、ウィンドウ30などの表示オブジェクトを表示部124に表示させてもよい。この場合、表示部124は、透過型のディスプレイであってもよいし、非透過型のディスプレイであってもよい。後者の場合、表示部124の前方の映像が表示部124に付属されているカメラにより撮影され得る。そして、プラットフォーム部100または各アプリケーション200は、当該カメラにより撮影された画像に対して表示オブジェクトを重畳させて表示部124に表示させてもよい。
また、本実施形態に係るプラットフォーム部100を含む装置(情報処理装置)は、通信部120、センサ部122、または、表示部124のうちの一以上を含んでもよい。例えば、当該情報処理装置は、プラットフォーム部100および表示部124(投影部)を含むプロジェクタユニットであってもよい。
また、前述した処理の流れにおける各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。また、記載されたステップのうちの一部が省略されたり、または、別のステップがさらに追加されてもよい。
(1)
表示面に表示されている表示オブジェクトに対するユーザの操作情報を取得する取得部と、
前記操作情報が示す操作方向を、前記表示面における基準角度に対する前記表示オブジェクトの回転角度に基づいて補正し、かつ、補正された操作方向を示す情報を前記表示オブジェクトに対応するアプリケーションへ出力する処理部と、
を備え、
前記表示オブジェクトの回転角度は前記表示面の回転角度とは異なる、情報処理システム。
(2)
前記表示オブジェクトは、投影部により前記表示面を含む投影対象に投影されている、前記(1)に記載の情報処理システム。
(3)
前記表示オブジェクトは、ウィンドウである、前記(2)に記載の情報処理システム。
(4)
少なくとも二つの前記表示オブジェクトが前記投影部により前記投影対象に投影されており、
前記表示面における基準角度に対する前記少なくとも二つの表示オブジェクトの各々の回転角度は、それぞれ異なっている、前記(2)に記載の情報処理システム。
(5)
前記処理部は、前記少なくとも二つの表示オブジェクトのうちの、前記操作情報が示す操作対象の表示オブジェクトの回転角度に基づいて前記操作方向を補正し、かつ、補正された操作方向を示す情報を前記操作対象の表示オブジェクトに対応するアプリケーションへ出力する、前記(4)に記載の情報処理システム。
(6)
前記処理部は、さらに、前記操作情報が示す操作が前記表示オブジェクトに対する直接的な操作であるか否かに基づいて前記操作方向を補正する、前記(2)〜(5)のいずれか一項に記載の情報処理システム。
(7)
前記操作情報が示す操作が前記表示オブジェクトに対する間接的な操作である場合には、前記処理部は、さらに、前記投影対象と前記ユーザとの位置関係に基づいて前記操作方向を補正する、前記(6)に記載の情報処理システム。
(8)
前記表示オブジェクトに対する間接的な操作は、操作部に対する方向情報の入力を含む、前記(7)に記載の情報処理システム。
(9)
前記表示オブジェクトに対する直接的な操作は、前記投影対象に対するタッチジェスチャーを含む、前記(6)〜(8)のいずれか一項に記載の情報処理システム。
(10)
前記投影対象が撮影された撮影画像が、操作表示部を有する情報処理端末へ送信され、
前記操作情報は、前記操作表示部に表示された撮影画像に対する操作を示し、
前記取得部は、前記情報処理端末から前記操作情報を取得し、
前記処理部は、さらに、前記撮影画像に対する物体認識の結果に基づいて前記操作方向を補正する、前記(2)〜(5)のいずれか一項に記載の情報処理システム。
(11)
前記処理部は、さらに、前記撮影画像に対する物体認識の結果に基づいて、前記操作情報が示す操作量を補正し、かつ、補正された操作量を示す情報を前記表示オブジェクトに対応するアプリケーションへ出力する、前記(10)に記載の情報処理システム。
(12)
前記操作情報は、前記ウィンドウに対するタッチジェスチャーを示し、
前記処理部は、さらに、前記操作方向を補正するか、もしくは、前記ウィンドウに関する設定を変更するかを、前記タッチジェスチャーの位置が、前記ウィンドウ内の所定の領域内であるか否かに基づいて決定する、前記(3)に記載の情報処理システム。
(13)
前記ウィンドウに関する設定は、前記投影対象に対する前記ウィンドウの回転角度を含む、前記(12)に記載の情報処理システム。
(14)
前記タッチジェスチャーの位置が、前記所定の領域以外の前記ウィンドウ内である場合には、前記処理部は、前記投影対象に対する前記ウィンドウの回転角度に基づいて前記操作方向を補正する、前記(13)に記載の情報処理システム。
(15)
前記タッチジェスチャーの位置が前記所定の領域内である場合には、前記処理部は、前記投影対象に対する前記ウィンドウの回転角度を前記タッチジェスチャーに基づいて変更する、前記(13)または(14)に記載の情報処理システム。
(16)
前記情報処理システムは、
前記投影部による投影を制御する表示制御部をさらに備え、
前記表示制御部は、前記処理部により前記ウィンドウに関する設定が変更中であるか否かに応じて、前記ウィンドウの表示態様を変更する、前記(12)〜(15)のいずれか一項に記載の情報処理システム。
(17)
前記処理部により前記ウィンドウに関する設定が変更中である間は、前記表示制御部は、前記ウィンドウの表示態様を第1の表示態様に設定し、
前記ウィンドウに関する設定の変更が終了した際には、前記表示制御部は、前記ウィンドウの表示態様を前記第1の表示態様から第2の表示態様へ変更する、前記(16)に記載の情報処理システム。
(18)
表示面に表示されている表示オブジェクトに対するユーザの操作情報を取得することと、
プロセッサが、前記操作情報が示す操作方向を、前記表示面における基準角度に対する前記表示オブジェクトの回転角度に基づいて補正することと、
補正された操作方向を示す情報を前記表示オブジェクトに対応するアプリケーションへ出力することと、
を含み、
前記表示オブジェクトの回転角度は前記表示面の回転角度とは異なる、情報処理方法。
(19)
コンピュータを、
表示面に表示されている表示オブジェクトに対するユーザの操作情報を取得する取得部と、
前記操作情報が示す操作方向を、前記表示面における基準角度に対する前記表示オブジェクトの回転角度に基づいて補正し、かつ、補正された操作方向を示す情報を前記表示オブジェクトに対応するアプリケーションへ出力する処理部、
として機能させるための、プログラムであって、
前記表示オブジェクトの回転角度は前記表示面の回転角度とは異なる、プログラム。
20 投影対象
30 ウィンドウ
50 操作部
60 情報処理端末
90 テーブル
100 プラットフォーム部
102 取得部
104 処理部
106 表示制御部
120 通信部
122 センサ部
124 表示部
200 アプリケーション
600 操作表示部
Claims (19)
- 表示面に表示されている表示オブジェクトに対するユーザの操作情報を取得する取得部と、
前記操作情報が示す操作方向を、前記表示面における基準角度に対する前記表示オブジェクトの回転角度に基づいて補正し、かつ、補正された操作方向を示す情報を前記表示オブジェクトに対応するアプリケーションへ出力する処理部と、
を備え、
前記表示オブジェクトの回転角度は前記表示面の回転角度とは異なる、情報処理システム。 - 前記表示オブジェクトは、投影部により前記表示面を含む投影対象に投影されている、請求項1に記載の情報処理システム。
- 前記表示オブジェクトは、ウィンドウである、請求項2に記載の情報処理システム。
- 少なくとも二つの前記表示オブジェクトが前記投影部により前記投影対象に投影されており、
前記表示面における基準角度に対する前記少なくとも二つの表示オブジェクトの各々の回転角度は、それぞれ異なっている、請求項2に記載の情報処理システム。 - 前記処理部は、前記少なくとも二つの表示オブジェクトのうちの、前記操作情報が示す操作対象の表示オブジェクトの回転角度に基づいて前記操作方向を補正し、かつ、補正された操作方向を示す情報を前記操作対象の表示オブジェクトに対応するアプリケーションへ出力する、請求項4に記載の情報処理システム。
- 前記処理部は、さらに、前記操作情報が示す操作が前記表示オブジェクトに対する直接的な操作であるか否かに基づいて前記操作方向を補正する、請求項2に記載の情報処理システム。
- 前記操作情報が示す操作が前記表示オブジェクトに対する間接的な操作である場合には、前記処理部は、さらに、前記投影対象と前記ユーザとの位置関係に基づいて前記操作方向を補正する、請求項6に記載の情報処理システム。
- 前記表示オブジェクトに対する間接的な操作は、操作部に対する方向情報の入力を含む、請求項7に記載の情報処理システム。
- 前記表示オブジェクトに対する直接的な操作は、前記投影対象に対するタッチジェスチャーを含む、請求項6に記載の情報処理システム。
- 前記投影対象が撮影された撮影画像が、操作表示部を有する情報処理端末へ送信され、
前記操作情報は、前記操作表示部に表示された撮影画像に対する操作を示し、
前記取得部は、前記情報処理端末から前記操作情報を取得し、
前記処理部は、さらに、前記撮影画像に対する物体認識の結果に基づいて前記操作方向を補正する、請求項2に記載の情報処理システム。 - 前記処理部は、さらに、前記撮影画像に対する物体認識の結果に基づいて、前記操作情報が示す操作量を補正し、かつ、補正された操作量を示す情報を前記表示オブジェクトに対応するアプリケーションへ出力する、請求項10に記載の情報処理システム。
- 前記操作情報は、前記ウィンドウに対するタッチジェスチャーを示し、
前記処理部は、さらに、前記操作方向を補正するか、もしくは、前記ウィンドウに関する設定を変更するかを、前記タッチジェスチャーの位置が、前記ウィンドウ内の所定の領域内であるか否かに基づいて決定する、請求項3に記載の情報処理システム。 - 前記ウィンドウに関する設定は、前記投影対象に対する前記ウィンドウの回転角度を含む、請求項12に記載の情報処理システム。
- 前記タッチジェスチャーの位置が、前記所定の領域以外の前記ウィンドウ内である場合には、前記処理部は、前記投影対象に対する前記ウィンドウの回転角度に基づいて前記操作方向を補正する、請求項13に記載の情報処理システム。
- 前記タッチジェスチャーの位置が前記所定の領域内である場合には、前記処理部は、前記投影対象に対する前記ウィンドウの回転角度を前記タッチジェスチャーに基づいて変更する、請求項13に記載の情報処理システム。
- 前記情報処理システムは、
前記投影部による投影を制御する表示制御部をさらに備え、
前記表示制御部は、前記処理部により前記ウィンドウに関する設定が変更中であるか否かに応じて、前記ウィンドウの表示態様を変更する、請求項12に記載の情報処理システム。 - 前記処理部により前記ウィンドウに関する設定が変更中である間は、前記表示制御部は、前記ウィンドウの表示態様を第1の表示態様に設定し、
前記ウィンドウに関する設定の変更が終了した際には、前記表示制御部は、前記ウィンドウの表示態様を前記第1の表示態様から第2の表示態様へ変更する、請求項16に記載の情報処理システム。 - 表示面に表示されている表示オブジェクトに対するユーザの操作情報を取得することと、
プロセッサが、前記操作情報が示す操作方向を、前記表示面における基準角度に対する前記表示オブジェクトの回転角度に基づいて補正することと、
補正された操作方向を示す情報を前記表示オブジェクトに対応するアプリケーションへ出力することと、
を含み、
前記表示オブジェクトの回転角度は前記表示面の回転角度とは異なる、情報処理方法。 - コンピュータを、
表示面に表示されている表示オブジェクトに対するユーザの操作情報を取得する取得部と、
前記操作情報が示す操作方向を、前記表示面における基準角度に対する前記表示オブジェクトの回転角度に基づいて補正し、かつ、補正された操作方向を示す情報を前記表示オブジェクトに対応するアプリケーションへ出力する処理部、
として機能させるための、プログラムであって、
前記表示オブジェクトの回転角度は前記表示面の回転角度とは異なる、プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017027641 | 2017-02-17 | ||
JP2017027641 | 2017-02-17 | ||
PCT/JP2017/047382 WO2018150757A1 (ja) | 2017-02-17 | 2017-12-28 | 情報処理システム、情報処理方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2018150757A1 true JPWO2018150757A1 (ja) | 2019-12-12 |
Family
ID=63169813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018568035A Ceased JPWO2018150757A1 (ja) | 2017-02-17 | 2017-12-28 | 情報処理システム、情報処理方法、およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11054941B2 (ja) |
EP (1) | EP3584688A4 (ja) |
JP (1) | JPWO2018150757A1 (ja) |
CN (1) | CN110291495B (ja) |
WO (1) | WO2018150757A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7346977B2 (ja) * | 2019-07-29 | 2023-09-20 | 株式会社リコー | 制御装置、電子機器、制御システム、制御方法、およびプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05257636A (ja) * | 1992-03-16 | 1993-10-08 | Sanyo Electric Co Ltd | 表示装置 |
JPH07319615A (ja) * | 1994-05-24 | 1995-12-08 | Wacom Co Ltd | 情報処理装置及びその制御方法 |
JP3840266B2 (ja) * | 1996-03-15 | 2006-11-01 | 株式会社 日立製作所 | 表示装置およびその操作方法 |
WO2015049892A1 (ja) * | 2013-10-04 | 2015-04-09 | 日本電気株式会社 | 電子機器、電子機器の制御方法及びプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050140696A1 (en) * | 2003-12-31 | 2005-06-30 | Buxton William A.S. | Split user interface |
JP5717270B2 (ja) * | 2009-12-28 | 2015-05-13 | 任天堂株式会社 | 情報処理プログラム、情報処理装置および情報処理方法 |
JP5957892B2 (ja) * | 2012-01-13 | 2016-07-27 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
JPWO2014010458A1 (ja) | 2012-07-10 | 2016-06-23 | ソニー株式会社 | 操作処理装置および操作処理方法、並びにプログラム |
JP5973087B2 (ja) * | 2013-11-19 | 2016-08-23 | 日立マクセル株式会社 | 投射型映像表示装置 |
JP6369078B2 (ja) * | 2014-03-20 | 2018-08-08 | 富士通株式会社 | 画像補正装置、画像補正方法及び画像補正用コンピュータプログラム |
-
2017
- 2017-12-28 EP EP17896557.0A patent/EP3584688A4/en not_active Withdrawn
- 2017-12-28 US US16/480,181 patent/US11054941B2/en active Active
- 2017-12-28 JP JP2018568035A patent/JPWO2018150757A1/ja not_active Ceased
- 2017-12-28 WO PCT/JP2017/047382 patent/WO2018150757A1/ja unknown
- 2017-12-28 CN CN201780086150.0A patent/CN110291495B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05257636A (ja) * | 1992-03-16 | 1993-10-08 | Sanyo Electric Co Ltd | 表示装置 |
JPH07319615A (ja) * | 1994-05-24 | 1995-12-08 | Wacom Co Ltd | 情報処理装置及びその制御方法 |
JP3840266B2 (ja) * | 1996-03-15 | 2006-11-01 | 株式会社 日立製作所 | 表示装置およびその操作方法 |
WO2015049892A1 (ja) * | 2013-10-04 | 2015-04-09 | 日本電気株式会社 | 電子機器、電子機器の制御方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20190339864A1 (en) | 2019-11-07 |
CN110291495A (zh) | 2019-09-27 |
EP3584688A4 (en) | 2020-01-22 |
CN110291495B (zh) | 2023-05-30 |
WO2018150757A1 (ja) | 2018-08-23 |
US11054941B2 (en) | 2021-07-06 |
EP3584688A1 (en) | 2019-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220326781A1 (en) | Bimanual interactions between mapped hand regions for controlling virtual and graphical elements | |
JP7090210B2 (ja) | シミュレートされた深度効果のためのユーザインタフェース | |
US11513608B2 (en) | Apparatus, method and recording medium for controlling user interface using input image | |
US9600078B2 (en) | Method and system enabling natural user interface gestures with an electronic system | |
CN109683716B (zh) | 基于眼睛跟踪的可见度提高方法和电子装置 | |
JP6903935B2 (ja) | 情報処理システム、情報処理方法、およびプログラム | |
JP2021007022A (ja) | 拡張現実システムのためのタッチフリーインターフェース | |
US11782514B2 (en) | Wearable device and control method thereof, gesture recognition method, and control system | |
US10372229B2 (en) | Information processing system, information processing apparatus, control method, and program | |
US20200104025A1 (en) | Remote touch detection enabled by peripheral device | |
US11803233B2 (en) | IMU for touch detection | |
JP7495459B2 (ja) | 頭部装着型ディスプレイ装置、頭部装着型ディスプレイ装置の制御方法 | |
US11886643B2 (en) | Information processing apparatus and information processing method | |
CN117916777A (zh) | 手工制作的增强现实努力证据 | |
CN109947243B (zh) | 基于触摸手检测的智能电子设备手势捕获与识别技术 | |
US9195310B2 (en) | Camera cursor system | |
CN109993059B (zh) | 智能电子设备上基于单摄像头的双目视觉与物体识别技术 | |
CN109960406B (zh) | 基于双手手指之间动作的智能电子设备手势捕获与识别技术 | |
WO2018150757A1 (ja) | 情報処理システム、情報処理方法、およびプログラム | |
US11782548B1 (en) | Speed adapted touch detection | |
KR102312601B1 (ko) | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 | |
JP6999822B2 (ja) | 端末装置および端末装置の制御方法 | |
US20240168565A1 (en) | Single-handed gestures for reviewing virtual content | |
KR20210125465A (ko) | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 | |
CN118210426A (zh) | 一种虚拟键盘的按键操作方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211109 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220412 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20220830 |