JPWO2018150757A1 - 情報処理システム、情報処理方法、およびプログラム - Google Patents

情報処理システム、情報処理方法、およびプログラム Download PDF

Info

Publication number
JPWO2018150757A1
JPWO2018150757A1 JP2018568035A JP2018568035A JPWO2018150757A1 JP WO2018150757 A1 JPWO2018150757 A1 JP WO2018150757A1 JP 2018568035 A JP2018568035 A JP 2018568035A JP 2018568035 A JP2018568035 A JP 2018568035A JP WO2018150757 A1 JPWO2018150757 A1 JP WO2018150757A1
Authority
JP
Japan
Prior art keywords
display
information
information processing
window
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2018568035A
Other languages
English (en)
Inventor
昭彦 泉
昭彦 泉
拓也 生江
拓也 生江
賢司 久永
賢司 久永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2018150757A1 publication Critical patent/JPWO2018150757A1/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • G06F3/041661Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving using detection at multiple resolutions, e.g. coarse and fine scanning; using detection within a limited area, e.g. object tracking window
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0447Position sensing using the local deformation of sensor cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】表示面における基準角度に対する表示オブジェクトの回転角度に基づき適応的に操作方向を補正することが可能な、情報処理システム、情報処理方法、およびプログラムを提案する。【解決手段】表示面に表示されている表示オブジェクトに対するユーザの操作情報を取得する取得部と、前記操作情報が示す操作方向を、前記表示面における基準角度に対する前記表示オブジェクトの回転角度に基づいて補正し、かつ、補正された操作方向を示す情報を前記表示オブジェクトに対応するアプリケーションへ出力する処理部と、を備え、前記表示オブジェクトの回転角度は前記表示面の回転角度とは異なる、情報処理システム。【選択図】図1

Description

本開示は、情報処理システム、情報処理方法、およびプログラムに関する。
従来、表示画面に対するユーザの指の接触または近接を検出可能なタッチパネルが開発されている。
例えば、特許文献1には、入力部と表示部とのなす角度が変更可能に構成されたタッチ操作端末が記載されている。また、特許文献1には、入力部の表面と表示部の表面とのなす相対角度に応じて、入力部に対するユーザの入力方向に対応する出力方向を変更することが記載されている。
国際公開第2014/10458号
しかしながら、特許文献1に記載の技術では、表示部に表示されたオブジェクトが回転角度に応じて適切な処理を行うことは考慮されていなかった。
そこで、本開示では、表示面における基準角度に対する表示オブジェクトの回転角度に基づき適応的に操作方向を補正することが可能な、新規かつ改良された情報処理システム、情報処理方法、およびプログラムを提案する。
本開示によれば、表示面に表示されている表示オブジェクトに対するユーザの操作情報を取得する取得部と、前記操作情報が示す操作方向を、前記表示面における基準角度に対する前記表示オブジェクトの回転角度に基づいて補正し、かつ、補正された操作方向を示す情報を前記表示オブジェクトに対応するアプリケーションへ出力する処理部と、を備え、前記表示オブジェクトの回転角度は前記表示面の回転角度とは異なる、情報処理システムが提供される。
また、本開示によれば、表示面に表示されている表示オブジェクトに対するユーザの操作情報を取得することと、プロセッサが、前記操作情報が示す操作方向を、前記表示面における基準角度に対する前記表示オブジェクトの回転角度に基づいて補正することと、補正された操作方向を示す情報を前記表示オブジェクトに対応するアプリケーションへ出力することと、を含み、前記表示オブジェクトの回転角度は前記表示面の回転角度とは異なる、情報処理方法が提供される。
また、本開示によれば、コンピュータを、表示面に表示されている表示オブジェクトに対するユーザの操作情報を取得する取得部と、前記操作情報が示す操作方向を、前記表示面における基準角度に対する前記表示オブジェクトの回転角度に基づいて補正し、かつ、補正された操作方向を示す情報を前記表示オブジェクトに対応するアプリケーションへ出力する処理部、として機能させるための、プログラムであって、前記表示オブジェクトの回転角度は前記表示面の回転角度とは異なる、プログラムが提供される。
以上説明したように本開示によれば、表示面における基準角度に対する表示オブジェクトの回転角度に基づき適応的に操作方向を補正することができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の実施形態に係る情報処理システム10の構成例を示した説明図である。 スクリーン20の正面方向からウィンドウを操作するウィンドウシステムの例を示した説明図である。 任意の方向から個々のウィンドウを操作するウィンドウシステムの例を示した説明図である。 同実施形態に係る情報処理システム10の別の構成例を示した説明図である。 同実施形態に係る情報処理システム10の別の構成例を示した説明図である。 ウィンドウ30内で横方向に指を動かすタッチジェスチャーを行う様子を示した説明図である。 図5Aに示した状況において、ユーザが意図する操作方向を示した説明図である。 図5Aに示した状況において、公知の技術によりアプリケーションへ出力される操作方向を示した説明図である。 同実施形態に係る情報処理システム10の機能構成例を示した機能ブロック図である。 同実施形態に係るスクロールのタッチジェスチャーの操作方向の補正例を示した説明図である。 同実施形態に係るスクロールのタッチジェスチャーの操作方向の補正例を示した説明図である。 同実施形態に係る操作部50に対する操作方向の補正例を示した説明図である。 同実施形態に係る、スクリーン20が撮影された撮像画像に対する操作方向の補正例を示した説明図である。 同実施形態に係る変更用領域内でのタッチジェスチャーの例を示した説明図である。 同実施形態に係る変更用領域以外の領域内でのタッチジェスチャーの例を示した説明図である。 同実施形態に係る処理の流れを示したフローチャートである。 同実施形態に係る情報処理システム10のハードウェア構成を示した説明図である。
以下に添付図面を参照しながら、本開示の好適な実施形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の構成を、必要に応じてウィンドウ30aおよびウィンドウ30bのように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、ウィンドウ30aおよびウィンドウ30bを特に区別する必要が無い場合には、単にウィンドウ30と称する。
また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
1.情報処理システムの構成
2.実施形態の詳細な説明
3.ハードウェア構成
4.変形例
<<1.情報処理システムの構成>>
まず、本開示の実施形態に係る情報処理システム10の構成例を説明する。図1は、本開示の一実施形態に係る情報処理システム10の一構成例を示す説明図である。なお、本明細書において、システムとは、所定の処理を実行するための構成のことを意味し得る。システムは、1つの装置から構成されてもよいし、または、複数の装置から構成されてもよい。また、本実施形態に係る情報処理システム10も、情報処理システム10全体として所定の処理を実行可能に構成されていればよく、情報処理システム10内のどの構成を1つの装置とみなすかは任意であってよい。
図1を参照すると、本開示の一実施形態に係る情報処理システム10aは、センサ部122a、および、表示部124aを備える。
<1−1.表示部124>
表示部124aは、各種の情報をテーブル90a上に表示する。表示部124aは、投影部(プロジェクタ)であり得る。例えば、図1に示したように、表示部124aは、テーブル90aの上方に、天井から吊り下げられた状態でテーブル90aと所定の距離離隔して配置され得る。この場合、表示部124aは、テーブル90aの天面に情報を投影する。このように上方からテーブル90aの天面に情報を表示する方式を、「プロジェクション型」とも呼称する。また、以下では、テーブル90の天面をスクリーン20と称する場合がある。また、スクリーン20は、本開示における投影対象の一例である。スクリーン20は、表示部124による投影の対象となる面(表示面)を含む。
詳細については後述するが、情報処理システム10aは、複数のアプリケーション200を含み得る。この場合、表示部124aは、複数のアプリケーション200の各々の制御に従って、当該アプリケーション200に対応する表示オブジェクトを表示することが可能である。ここで、表示オブジェクトは、例えば、ウィンドウである。但し、かかる例に限定されず、表示オブジェクトは、例えば、ユーザによる各種の操作(選択や入力など)を受け付ける所定の画像であってもよい。当該所定の画像は、GUI(Graphical User Interface)部品(例えば、ボタン、スライダー、チェックボックス、テキストボックス、ソフトウェアキーボードなど)を含んでもよい。なお、以下では、表示オブジェクトがウィンドウである例を中心として説明を行う。
ところで、公知のウィンドウシステムでは、例えば図2Aに示したように、基本的にスクリーンの正面方向から操作することを前提に設計されている。このため、正面以外からの操作では、ユーザは操作し難い。
一方、本実施形態に係る情報処理システム10aでは、例えば図2Bに示したように、個々のアプリケーション200に対応する表示オブジェクト(例えばウィンドウ30)を、スクリーン20における基準角度に対して任意の回転角度で表示部124に表示させることが可能である。例えば、少なくとも二つの表示オブジェクト(例えばウィンドウ30)が表示部124によりスクリーン20に投影され、かつ、スクリーン20に対する当該少なくとも二つの表示オブジェクトの各々の回転角度は、それぞれ異なるように投影され得る。これにより、例えば、複数のユーザがスクリーン20を取り囲んでバラバラな操作をする(例えば非協調的に操作する)ようなユースケースにおいて、複数のユーザの各々にとって都合の良い回転角度で各ウィンドウ30を表示することができる。そして、各ユーザは利便性高くウィンドウ30に対して操作することができる。また、スクリーン20を囲むユーザ間で、例えば表示オブジェクトを相手へ向けて移動させるなどのインタラクティブな操作を実現することができる。
<1−2.センサ部122>
センサ部122aは、例えば1つのレンズでテーブル90aを撮像するカメラや、2つのレンズでテーブル90aを撮像して奥行き方向の情報を記録することが可能なステレオカメラを含む。ステレオカメラとしては、例えば可視光カメラや赤外線カメラ等が用いられ得る。また、センサ部122aは、ユーザが発する音声や、周囲の環境の環境音を収音するマイクロフォン等の音声入力装置をさらに含んでもよい。
センサ部122aとして、1つのレンズでテーブル90aを撮像するカメラが用いられる場合、情報処理システム10aは、そのカメラが撮像した画像(撮像画像)を解析することで、スクリーン20上に位置する物体(例えばユーザの手など)の位置を検出することができる。また、センサ部122aとしてステレオカメラが用いられる場合には、情報処理システム10aは、当該ステレオカメラによる撮像画像を解析することで、スクリーン20上に位置する物体の位置情報に加えて、当該物体の深度情報を取得することができる。情報処理システム10aは、当該深度情報に基づいて、高さ方向におけるスクリーン20へのユーザの手の接触若しくは近接、及びスクリーン20からの手の離脱を検出することが可能となる。なお、以下の説明では、ユーザがスクリーン20に操作体(例えばユーザの手など)を接触又は近接させることを、まとめて単に「接触」とも称する。なお、センサ部122aは、ステレオカメラの代わりに、デプスセンサを有してもよい。この場合、デプスセンサが、スクリーン20上に位置する物体の深度情報を取得することが可能である。
本実施形態では、センサ部122aによる撮像画像に基づいて、スクリーン20上における操作体の位置が検出され、そして、検出された操作体の位置に基づいて各種の情報が入力される。つまり、ユーザは、スクリーン20上で操作体を動かすことにより、各種の操作入力を行うことができる。例えば、ウィンドウ30やGUI部品に対するユーザの手の接触が検出されることにより、当該ウィンドウ30やGUI部品に対する操作入力が行われることになる。なお、以下の説明では、一例として、操作体がユーザの手である例について説明するが、かかる例に限定されず、当該操作体はスタイラス等の各種の操作部材であってもよい。
また、センサ部122aに含まれるカメラは、テーブル90aの天面を撮影するだけでなく、テーブル90aの周囲に存在するユーザを撮影してもよい。この場合、情報処理システム10aは、センサ部122aによる撮像画像に基づいて、テーブル90aの周囲におけるユーザの位置を検出することができる。また、情報処理システム10aは、撮像画像に基づいて、個々のユーザを特定し得る身体的な特徴(顔や体の大きさ等)を抽出することにより、ユーザの個人認識を行ってもよい。
なお、前述した例に限定されず、他の方法によりユーザの操作入力が実行されてもよい。例えば、センサ部122aは、テーブル90aの天面(スクリーン20a)上にタッチパネルとして設置されてもよく、そして、ユーザの操作入力は、当該タッチパネルに対するユーザの指等の接触によって検出されてもよい。また、センサ部122aに含まれるカメラに対するジェスチャによってユーザの操作入力が検出されてもよい。
<1−3.変形例>
以上、本実施形態に係る情報処理システム10aの構成について説明した。なお、本実施形態に係る情報処理システムの構成は図1に示した例に限定されず、例えば図3または図4に示したような構成であってもよい。
{1−3−1.変形例1}
図3は、本実施形態に係る情報処理システムの別の構成例(情報処理システム10b)を示す図である。図3に示したように、情報処理システム10bでは、テーブル90bの下方に表示部124bが設置される。表示部124bは、例えばプロジェクタであり、当該テーブル90bの天板に向かって下側から情報を投影する。例えば、テーブル90bの天板は、例えばガラス板や透明プラスチック板等の透明な材質で形成される。そして、表示部124bによって投影された情報は、(当該天板を透過して)テーブル90bの天面(スクリーン20b)に表示される。このようにテーブル90bの下から情報を表示部124bに投影させることによりスクリーン20bに情報を表示する方式を、「リアプロジェクション型」とも称する。
また、図3に示す例では、スクリーン20b(表面)にセンサ部122bが設けられる。センサ部122bは、例えばタッチパネルによって構成される。この場合、スクリーン20bへの操作体の接触が当該タッチパネルによって検出されることにより、ユーザによる操作入力が行われる。なお、かかる例に限定されず、図1に示した情報処理システム10aと同様に、センサ部122bは、テーブル90bの下方にテーブル90bと離隔して設置されてもよい。この場合、センサ部122bはカメラを含み、そして、テーブル90bの天板越しに、スクリーン20b上に位置する操作体を当該カメラは撮影し得る。そして、当該撮影画像に基づいて当該操作体の位置が検出され得る。
{1−3−2.変形例2}
図4は、本実施形態に係る情報処理システムのさらに別の構成例(情報処理システム10c)を示す図である。図4に示したように、情報処理システム10cでは、タッチパネル式のディスプレイが、その表示面を上方に向けた状態でテーブル90c上に設置される。情報処理システム10cでは、センサ部122c及び表示部124cは、当該タッチパネル式のディスプレイとして一体的に構成され得る。つまり、ディスプレイの表示画面(スクリーン20c)に各種の情報が表示され、そして、当該ディスプレイの表示画面に対する操作体の接触がタッチパネルによって検出されることにより、ユーザによる操作入力が行われる。なお、情報処理システム10cにおいても、図1に示す情報処理システム10aと同様に、センサ部122cはカメラを含み、そして、表示部124cの上方に当該カメラが設置されてもよい。この場合、当該カメラによる撮影画像に基づいて、テーブル90cの周囲に位置する個々のユーザの位置等が検出され得る。
<1−4.課題の整理>
以上、本実施形態に係る情報処理システムの他の構成例について説明した。ところで、スクリーン20上でウィンドウ30に対してユーザが指を動かすタッチジェスチャー(例えばスワイプ、スライド、ドラッグなど)を行う場面では、公知の技術では、タッチジェスチャーに対応する操作方向としてユーザの意図とは異なる方向を認識してしまう恐れがある。
ここで、図5A〜図5Cを参照して、上記の内容について詳細に説明する。図5Aでは、ウィンドウ30がスクリーン20に対して「90度」回転している場合において、ウィンドウ30内で、図5Aに示した横方向(x軸方向)に指を動かすタッチジェスチャー40をユーザが行っている例を示している。この場合、図5Bに示したように、ユーザは、ウィンドウ30に対して縦方向のスクロール(図5Bに示した「上」から「下」へのスクロール)を行うことを意図している。
しかしながら、公知の技術では、プラットフォームソフトウェア(OS(Operating System)やミドルウェアなど)は、「横方向のスクロール」という入力情報をそのまま、ウィンドウ30に対応するアプリケーションへ出力してしまう。その結果、当該アプリケーションは、図5Cに示したように、ユーザの意図とは異なり、当該アプリケーションにとっての横方向のスクロール(つまり、図5Cに示した「左」から「右」へのスクロール)として扱ってしまう。つまり、当該アプリケーションは、スクリーン20を基準として縦方向のスクロール(つまり、図5Aに示した「下」から「上」へのスクロール)として当該タッチジェスチャーを扱ってしまう。
なお、この課題を解決するための方法として、ウィンドウ30に対応するアプリケーションが、スクリーン20に対する該当のウィンドウ30の回転角度(「90度」)を検出し、かつ、当該アプリケーションの内部で、検出した回転角度に基づいて操作方向の解釈を変更する方法が考えられる。しかしながら、この方法では、全てのアプリケーションに対してこのような機能を組み込むことが必要となるので、個々のアプリケーションの開発コストが大きくなってしまう。また、仮にこのような機能が組み込まれていないアプリケーションが存在する場合には、同じスクリーン20上の操作であっても、ウィンドウ30によって挙動に差異が生じ得るので、ユーザの混乱を招き得る。
そこで、上記事情を一着眼点にして、本実施形態に係る情報処理システム10を創作するに至った。情報処理システム10は、表示面に表示されている表示オブジェクト(例えばウィンドウ30)に対するユーザの操作情報を取得し、そして、当該操作情報が示す操作方向を、当該表示面における基準角度に対する当該表示オブジェクトの回転角度に基づいて補正し、かつ、補正された操作方向を示す情報を当該表示オブジェクトに対応するアプリケーション200へ出力することが可能である。これにより、ユーザからの操作入力(例えばジェスチャ入力など)のベクトル情報を、ユーザの意図に沿った方向に補正することができる。
ここで、表示面における基準角度とは、情報処理システム10が有するソフトウェアの内部的な(論理的又は相対的な)基準角度であり、「x軸」の基準となる角度(例えばx軸に対して0度)であり得る。また、表示オブジェクトの回転角度とは、表示面における基準角度(つまり、ソフトウェア上の基準角度)に対する表示オブジェクトのx軸からの角度であり得る。つまり、「表示面における基準角度」および「表示オブジェクトの回転角度」はそれぞれ、例えば、図1に示した表示部124a(プロジェクタなど)や、図4に示した表示部124c(タッチディスプレイ)が回転しても不変である。
また、本実施形態において、表示面の回転角度とは、スクリーン20に投影または表示されている投影領域全体の、物理空間上の角度を意味し得る。例えば、当該表示面の回転角度は、表示部124a(プロジェクタなど)の回転角度や、図4に示した表示部124c(タッチディスプレイ)の物理的な回転角度などである。つまり、表示面の回転角度は、表示オブジェクトの回転角度とは異なり得る。例えば、本実施形態では、表示面の回転角度に依存せずに、表示オブジェクトの回転角度はユーザの調整等により変化する。
<<2.実施形態の詳細な説明>>
<2−1.機能構成>
次に、本実施形態に係る機能構成について詳細に説明する。図6は、本実施形態に係る情報処理システム10の機能構成を示した機能ブロック図である。図6に示すように、情報処理システム10は、プラットフォーム部100、通信部120、センサ部122、表示部124、および、アプリケーション200を含む。なお、以下では、上記の説明と同様の内容については説明を省略する。
{2−1−1.プラットフォーム部100}
プラットフォーム部100は、一または複数の処理回路(例えば、後述するCPU(Central Processing Unit)150など)を含んで構成され得る。プラットフォーム部100は、情報処理システム10の動作を統括的に制御する。例えば、プラットフォーム部100は、一または複数の処理回路を用いて、情報処理システム10に関するOSやミドルウェアなどの機能を実現する。また、図6に示すように、プラットフォーム部100は、取得部102、処理部104、および、表示制御部106を含む。
{2−1−2.取得部102}
取得部102は、表示部124によりスクリーン20に投影されているウィンドウ30に対するユーザの操作情報を取得する。ここで、ユーザの操作情報は、例えば、操作方法の種類、操作対象の表示オブジェクト、操作方向、操作量、および、操作速度などのうちの少なくとも一つを含み得る。なお、操作方法の種類は、例えば、タッチジェスチャーや、後述する操作部50に対する操作など、方向の情報を入力可能な任意の方法であり得る。例えば、操作方法がスクロールのタッチジェスチャーである場合、当該操作情報は、x軸方向の移動量(操作量)およびy軸方向の移動量と、操作対象のウィンドウ30の識別情報とを含む。また、操作方法が慣性スクロールのタッチジェスチャーである場合、当該操作情報は、x軸方向の移動速度(操作速度)およびy軸方向の移動速度と、操作対象のウィンドウ30の識別情報とを含む。
以下、ユーザの操作情報の取得方法の具体的内容について説明する。例えば、取得部102は、スクリーン20上に位置するユーザの手の、センサ部122によるセンシング結果に基づいてユーザの操作情報を取得する。一例として、取得部102は、まず、センサ部122により撮影された画像をセンサデータとして受信又は読出し処理などを行うことによりセンサ部122から取得する。次に、取得部102は、当該画像に対して画像認識を行うことにより、スクリーン20に対するタッチジェスチャーを認識する。そして、取得部102は、認識した結果を操作情報として取得する。
なお、画像認識は、取得部102が行う代わりに、センサ部122が行ってもよい。または、通信網(例えばインターネットや各種のLAN(Local Area Network)など)を介して、後述する通信部120と通信可能な外部の装置(サーバなど)へ該当の画像が送信され、そして、当該外部の装置が当該画像に対して画像認識を行ってもよい。この場合、取得部102は、画像認識の結果を当該外部の装置から取得し得る。
また、図8に示したように、スクリーン20から分離している操作部50(例えばコントローラ、ジョイスティック、キーボードなど)に対して操作がなされた場合には、取得部102は、ユーザの操作情報を操作部50から受信することにより取得する。なお、操作部50は、例えば上記の通信網を介して通信部120と通信可能なように構成され得る。
また、図9に示したように、例えば上記の通信網を介して通信部120と通信可能な情報処理端末60に対して操作がなされた場合には、取得部102は、ユーザの操作情報を情報処理端末60から受信することにより取得する。例えば、スクリーン20が撮影された画像が情報処理端末60へ送信され、そして、情報処理端末60は当該画像を表示し得る。この場合、情報処理端末60の操作表示部600(例えばタッチディスプレイなど)に表示された当該画像に対してタッチ操作がなされた際などに、取得部102は、当該タッチ操作の内容を示す操作情報を情報処理端末60から受信することにより取得し得る。
{2−1−3.処理部104}
(2−1−3−1.操作方向の補正)
‐補正例1
処理部104は、スクリーン20(より詳細にはスクリーン20の表示面)における基準角度に対する、取得部102により取得された操作情報が示す操作対象のウィンドウ30の回転角度に基づいて、当該操作情報が示す操作方向を補正する。例えば、処理部104は、取得された操作情報が示す操作の種類と、スクリーン20における基準角度に対する操作対象のウィンドウ30の回転角度とに基づいて当該操作方向を補正する。一例として、当該操作の種類がスクロールのタッチジェスチャーである場合には、処理部104は、当該操作情報が示すx軸方向の移動量およびy軸方向の移動量と、スクリーン20に対する操作対象のウィンドウ30の回転角度とに基づいて当該操作方向を補正する。
ここで、図7Aおよび図7Bを参照して、ウィンドウ30に対してスクロールのタッチジェスチャー40が行われた場合における操作方向の補正例について詳細に説明する。なお、図7Aでは、ウィンドウ30がスクリーン20のx軸に対して角度θだけ回転している例を示している。また、図7Aでは、スクロール40に対応するx軸方向の移動量がΔx1であり、かつ、y軸方向の移動量Δy1である例を示している。
この場合、図7Bに示したように、処理部104は、例えば、以下の数式(1)を用いて、x軸方向の移動量をΔx1からΔx2へと補正する。同様に、処理部104は、以下の数式(2)を用いて、y軸方向の移動量をΔy1からΔy2へと補正する。
Figure 2018150757
‐補正例2
また、処理部104は、当該操作情報が示す操作がウィンドウ30に対する直接的な操作であるか否かに基づいて、当該操作情報が示す操作方向を補正することも可能である。例えば、当該操作情報が示す操作がウィンドウ30に対する直接的な操作ではない場合(つまり、間接的な操作である場合)には、処理部104は、スクリーン20に対するウィンドウ30の回転角度と、スクリーン20とユーザとの位置関係とに基づいて当該操作方向を補正する。また、当該操作情報が示す操作がウィンドウ30に対する直接的な操作である場合には、処理部104は、(スクリーン20とユーザとの位置関係を用いることなく)スクリーン20に対するウィンドウ30の回転角度のみに基づいて当該操作方向を補正する。ここで、ウィンドウ30に対する直接的な操作は、例えば、スクリーン20に対するタッチジェスチャーなどを含む。また、ウィンドウ30に対する間接的な操作は、例えば、操作部50に対する方向情報の入力(例えば、操作部50に含まれるキー、ボタン、スティックなどの操作など)を含む。
ここで、図8を参照して、上記の内容についてより詳細に説明する。図8は、ユーザ2が操作部50を用いて、ウィンドウ30に対して(方向の情報を持つ)操作を行う例(つまり、間接的な操作を行う例)を示した説明図である。なお、図8では、(操作部50に含まれる方向キー500のうち)左キー500aが押下されたことを示す操作情報が取得部102により取得された例を示している。
この場合、処理部104は、スクリーン20に対するウィンドウ30の回転角度(図8に示した例では「90度」)と、スクリーン20とユーザ2との位置関係の検出結果とに基づいて、当該操作情報が示す操作方向を補正する。これにより、図8に示したように、例えばユーザ2が向いている方向(図8における「下」方向)を基準として「左」の方向が、補正後の操作方向42となる。
‐補正例3
また、当該操作情報が示す操作が、スクリーン20が撮影された撮影画像(カメラ画)に対する操作である場合には、処理部104は、さらに、当該撮影画像に対する物体認識の結果に基づいて、当該操作情報が示す操作方向を補正することも可能である。また、この場合、処理部104は、当該撮影画像に対する物体認識の結果に基づいて、当該操作情報が示す操作量をさらに補正することも可能である。つまり、処理部104は、(該当の操作に対応する)ベクトルの大きさを遠近感を考慮して補正することができる。
例えば、図9に示したように、スクリーン20が撮影された撮影画像が情報処理端末60へ送信され、そして、情報処理端末60の操作表示部600は、当該撮影画像を表示し得る。この場合、処理部104は、当該撮影画像に含まれるスクリーン20の認識結果と、取得部102により取得された操作情報とに基づいて、当該操作情報が示す操作方向および操作量を補正する。例えば、処理部104は、まず、当該撮影画像に対する物体認識を行う。次に、処理部104は、操作表示部600に表示されている撮影画像におけるウィンドウ30の表示領域を特定する。そして、処理部104は、ウィンドウ30の表示領域と、当該操作情報が示す操作(例えば、操作表示部600に対するタッチ操作や、情報処理端末60に含まれる操作部(キーやスティックなど)に対する操作など)との関係に基づいて、当該操作情報が示す操作方向および操作量を補正する。
(2−1−3−2.ウィンドウに関する変更)
また、取得部102により取得された操作情報が示す操作がウィンドウ30に対するタッチジェスチャーである場合には、処理部104は、当該タッチジェスチャーの位置に基づいて、該当のウィンドウ30に対する操作方向を補正するか、もしくは、該当のウィンドウ30に関する設定を変更するかを決定する。例えば、処理部104は、当該タッチジェスチャーの位置がウィンドウ30内の変更用領域内であるか否かに基づいて、該当のウィンドウ30に対する操作方向を補正するか、もしくは、該当のウィンドウ30に関する設定を変更する。ここで、変更用領域は、本開示における所定の領域の一例である。変更用領域は、例えば、ウィンドウ30の外周から所定の距離内の、ウィンドウ30内の領域であってもよいし、ウィンドウ30の外周から所定の距離内の、ウィンドウ30外の領域であってもよいし、または、これらの両方を含む範囲であってもよい。また、ウィンドウ30に関する設定は、例えば、スクリーン20に対するウィンドウ30の回転角度、スクリーン20に対するウィンドウ30の位置、または、ウィンドウ30の表示サイズなどである。
例えば、図10に示したように、当該タッチジェスチャーの位置がウィンドウ30の変更用領域302内である場合には、処理部104は、該当のウィンドウ30の回転角度を当該タッチジェスチャーに基づいて変更する。
また、図11に示したように、当該タッチジェスチャーの位置が、ウィンドウ30の変更用領域以外の領域300内である場合には、(前述したように)処理部104は、該当のウィンドウ30に対する操作方向を当該タッチジェスチャーに基づいて補正する。
(2−1−3−3.補正結果の出力)
また、処理部104は、補正した結果の情報(以下、補正結果の情報と称する)を、操作対象のウィンドウ30に対応するアプリケーション200へ出力する。ここで、補正結果の情報は、補正された操作方向や補正された操作量などを含み得る。これにより、該当のアプリケーション200は、当該補正の結果に応じた処理を実行し得る。
{2−1−4.表示制御部106}
表示制御部106は、表示部124による投影の制御を行う。例えば、ユーザのタッチジェスチャーに基づいてウィンドウ30に関する設定(回転角度、位置、またはサイズなど)が処理部104により変更されている間は、表示制御部106は、該当のウィンドウ30の表示態様を標準の表示態様から別の表示態様へ変更する。例えば、ウィンドウ30に関する設定の変更が行われている間のみ、表示制御部106は、該当のウィンドウ30自体の表示色を変更してもよいし、透過度を上げてもよいし、または、該当のウィンドウ30の枠を光らせてもよい。または、ウィンドウ30に関する設定の変更が行われている間のみ、表示制御部106は、例えば図10に示したように、該当のウィンドウ30の輪郭線を表示部124にさらに表示させるとともに、当該変更に追従して当該輪郭線を移動させたり、または、サイズを変更させてもよい。これらの表示例によれば、情報処理システム10(より詳細には処理部104)が、現在、ウィンドウ30に関する設定を行っているか否かを、ウィンドウ30に対する操作中にユーザに知らせることができるので、ユーザの利便性が向上する。
{2−1−5.通信部120}
通信部120は、他の装置との間で情報の送受信を行う。例えば、通信部120は、ユーザの操作情報を操作部50や情報処理端末60から受信する。
{2−1−6.アプリケーション200}
アプリケーション200は、処理部104により出力される、補正結果の情報に応じて、所定の処理を実行する。また、アプリケーション200は、アプリケーション200に対応する少なくとも一つのウィンドウ30を表示部124に表示させる。なお、アプリケーション200は、処理部104とは異なるプロセッサなどにより処理されてもよい。または、処理部104がプラットフォーム部100としての処理以外の処理も実行することが可能な場合には、処理部104がアプリケーション200の処理を実行してもよい。
<2−2.処理の流れ>
以上、本実施形態に係る機能構成について説明した。次に、本実施形態に係る処理の流れについて図12を参照して説明する。図12は、本実施形態に係る処理の流れの一例を示したフローチャートである。なお、以下では、スクリーン20に対してユーザがタッチ操作を行う場面における処理の流れの例について説明する。
図12に示したように、まず、少なくとも一つのアプリケーション200は、例えばユーザの入力などに基づいて起動する。そして、表示部124は、起動したアプリケーション200の制御に従って、当該アプリケーション200に対応するウィンドウ30をスクリーン20に投影する(S101)。
その後、ユーザは、スクリーン20に投影されたいずれかのウィンドウ30に対して所望のタッチ操作を行う。そして、取得部102は、当該タッチ操作の内容を示す操作情報を取得する(S103)。ここで、取得とは、例えば操作情報を受信する処理、センサ情報に基づき操作情報を生成する処理、および/または、メモリなどの記憶媒体に一時記録された操作情報を読み出す処理等を含みうる。
続いて、処理部104は、当該タッチ操作の対象のウィンドウ30を当該操作情報に基づいて特定する(S105)。
続いて、処理部104は、当該タッチ操作が、方向情報を含む操作であるか否かを判断する(S107)。当該タッチ操作が、方向情報を含まない操作である場合には(S109:No)、処理部104は、S105で特定されたウィンドウ30に対応するアプリケーション200へ当該操作情報をそのまま出力する(S111)。そして、再びS103以降の処理を繰り返す。
一方、当該タッチ操作が、方向情報を含む操作である場合には(S109:Yes)、処理部104は、S105で特定されたウィンドウ30のスクリーン20に対する回転角度に基づいて、S103で取得された操作情報が示す操作方向を補正する(S113)。
続いて、処理部104は、S113の補正結果を反映した操作情報を当該ウィンドウ30に対応するアプリケーション200へ出力する(S115)。そして、再びS103以降の処理を繰り返す。
<2−3.効果>
{2−3−1.効果1}
以上説明したように、本実施形態に係るプラットフォーム部100は、表示面に表示されているウィンドウ30に対するユーザの操作情報を取得し、そして、当該操作情報が示す操作方向を、当該表示面における基準角度に対するウィンドウ30の回転角度に基づいて補正し、かつ、補正された操作方向を示す情報をウィンドウ30に対応するアプリケーション200へ出力する。このため、ユーザの意図に沿った操作方向を、操作対象のウィンドウ30に対応するアプリケーション200へ出力することができる。
その結果、例えば、複数のユーザがそれぞれ異なる方向から操作することが可能な機器(図1、図3、および、図4に示したテーブル90など)において、ユーザに無理や違和感を与えることなく、ユーザに操作入力させることができる。従って、機器の使い勝手を向上させることができる。
{2−3−2.効果2}
また、本実施形態によれば、アプリケーション200ではなく、プラットフォーム部100が、操作方向の補正を実現する。このため、アプリケーション200に対して特別な機能を組み込む必要がない。従って、アプリケーション200の作成に余計なコストがかからない。また、アプリケーション200ごとの挙動がばらつくことがなく、統一的な操作感を実現することができる。
また、同様の理由により、情報処理システム10において既存のアプリケーション200をそのまま利用することができる。さらに、将来、新たな形態の機器が登場した場合であっても、プラットフォーム部100が、当該機器の形態に応じた補正を行うことができるので、既存のアプリケーション200を修正する必要がない。
<<3.ハードウェア構成>>
次に、本実施形態に係る情報処理システム10のハードウェア構成について、図13を参照して説明する。図13に示すように、情報処理システム10は、CPU150、ROM(Read Only Memory)152、RAM(Random Access Memory)154、バス156、インターフェース158、入力装置160、出力装置162、ストレージ装置164、および通信装置166を備える。
CPU150は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理システム10内の動作全般を制御する。また、CPU150は、情報処理システム10においてプラットフォーム部100の機能を実現する。なお、CPU150は、マイクロプロセッサなどのプロセッサにより構成される。
ROM152は、CPU150が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。
RAM154は、例えば、CPU150により実行されるプログラムなどを一時的に記憶する。
バス156は、CPUバスなどから構成される。このバス156は、CPU150、ROM152、およびRAM154を相互に接続する。
インターフェース158は、入力装置160、出力装置162、ストレージ装置164、および通信装置166を、バス156と接続する。
入力装置160は、例えばタッチパネル、ボタン、スイッチ、ダイヤル、レバー、または、マイクロフォンなど、ユーザが情報を入力するための入力手段、および、ユーザによる入力に基づいて入力信号を生成し、CPU150に出力する入力制御回路などを含む。
出力装置162は、例えば、プロジェクタ、液晶ディスプレイ装置、OLED(Organic Light Emitting Diode)装置、または、ランプなどの表示装置を含む。また、出力装置162は、スピーカーなどの音声出力装置を含む。出力装置162は、情報処理システム10において表示部124の機能を実現し得る。
ストレージ装置164は、データ格納用の装置である。ストレージ装置164は、例えば、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、または記憶媒体に記録されたデータを削除する削除装置などを含む。
通信装置166は、例えばインターネットなどの通信網に接続するための通信デバイス等で構成された通信インターフェースである。また、通信装置166は、無線LAN対応通信装置、LTE(Long Term Evolution)対応通信装置、または有線による通信を行うワイヤー通信装置であってもよい。この通信装置166は、情報処理システム10において通信部120の機能を実現し得る。
<<4.変形例>>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
<4−1.変形例1>
例えば、前述した実施形態では、本開示における投影対象がスクリーン20である例について説明したが、かかる例に限定されない。当該投影対象は、表示部124による投影の対象となる立体であってもよい。
<4−2.変形例2>
また、前述した実施形態では、表示部124がスクリーン20上に画像を投影する例について説明したが、かかる例に限定されない。例えば、表示部124は、頭部装着型(例えばメガネ型など)のディスプレイであり、かつ、プラットフォーム部100または各アプリケーション200は、ウィンドウ30などの表示オブジェクトを表示部124に表示させてもよい。この場合、表示部124は、透過型のディスプレイであってもよいし、非透過型のディスプレイであってもよい。後者の場合、表示部124の前方の映像が表示部124に付属されているカメラにより撮影され得る。そして、プラットフォーム部100または各アプリケーション200は、当該カメラにより撮影された画像に対して表示オブジェクトを重畳させて表示部124に表示させてもよい。
<4−3.変形例3>
また、本実施形態に係るプラットフォーム部100を含む装置(情報処理装置)は、通信部120、センサ部122、または、表示部124のうちの一以上を含んでもよい。例えば、当該情報処理装置は、プラットフォーム部100および表示部124(投影部)を含むプロジェクタユニットであってもよい。
または、当該情報処理装置は、テーブル90と一体的に構成されてもよい。または、当該情報処理装置は、通信部120、センサ部122、および、表示部124のうちの少なくとも一つと、例えば上記の通信網を介して接続された装置であってもよい。例えば、当該情報処理装置は、サーバ、汎用PC(Personal Computer)、タブレット型端末、ゲーム機、スマートフォンなどの携帯電話、携帯型音楽プレーヤ、例えばHMD(Head Mounted Display)、AR(Augmented Reality)グラス、または、スマートウォッチなどのウェアラブルデバイス、または、ロボットであってもよい。
また、アプリケーション200は、当該情報処理装置内に実装されていてもよいし、または、当該情報処理装置と通信可能な別の装置内に実装されていてもよい。
<4−4.変形例4>
また、前述した処理の流れにおける各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。また、記載されたステップのうちの一部が省略されたり、または、別のステップがさらに追加されてもよい。
また、前述した実施形態によれば、CPU150、ROM152、およびRAM154などのハードウェアを、前述した実施形態に係る情報処理システム10(特にプラットフォーム部100)の各構成と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、当該コンピュータプログラムが記録された記録媒体も提供される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
表示面に表示されている表示オブジェクトに対するユーザの操作情報を取得する取得部と、
前記操作情報が示す操作方向を、前記表示面における基準角度に対する前記表示オブジェクトの回転角度に基づいて補正し、かつ、補正された操作方向を示す情報を前記表示オブジェクトに対応するアプリケーションへ出力する処理部と、
を備え、
前記表示オブジェクトの回転角度は前記表示面の回転角度とは異なる、情報処理システム。
(2)
前記表示オブジェクトは、投影部により前記表示面を含む投影対象に投影されている、前記(1)に記載の情報処理システム。
(3)
前記表示オブジェクトは、ウィンドウである、前記(2)に記載の情報処理システム。
(4)
少なくとも二つの前記表示オブジェクトが前記投影部により前記投影対象に投影されており、
前記表示面における基準角度に対する前記少なくとも二つの表示オブジェクトの各々の回転角度は、それぞれ異なっている、前記(2)に記載の情報処理システム。
(5)
前記処理部は、前記少なくとも二つの表示オブジェクトのうちの、前記操作情報が示す操作対象の表示オブジェクトの回転角度に基づいて前記操作方向を補正し、かつ、補正された操作方向を示す情報を前記操作対象の表示オブジェクトに対応するアプリケーションへ出力する、前記(4)に記載の情報処理システム。
(6)
前記処理部は、さらに、前記操作情報が示す操作が前記表示オブジェクトに対する直接的な操作であるか否かに基づいて前記操作方向を補正する、前記(2)〜(5)のいずれか一項に記載の情報処理システム。
(7)
前記操作情報が示す操作が前記表示オブジェクトに対する間接的な操作である場合には、前記処理部は、さらに、前記投影対象と前記ユーザとの位置関係に基づいて前記操作方向を補正する、前記(6)に記載の情報処理システム。
(8)
前記表示オブジェクトに対する間接的な操作は、操作部に対する方向情報の入力を含む、前記(7)に記載の情報処理システム。
(9)
前記表示オブジェクトに対する直接的な操作は、前記投影対象に対するタッチジェスチャーを含む、前記(6)〜(8)のいずれか一項に記載の情報処理システム。
(10)
前記投影対象が撮影された撮影画像が、操作表示部を有する情報処理端末へ送信され、
前記操作情報は、前記操作表示部に表示された撮影画像に対する操作を示し、
前記取得部は、前記情報処理端末から前記操作情報を取得し、
前記処理部は、さらに、前記撮影画像に対する物体認識の結果に基づいて前記操作方向を補正する、前記(2)〜(5)のいずれか一項に記載の情報処理システム。
(11)
前記処理部は、さらに、前記撮影画像に対する物体認識の結果に基づいて、前記操作情報が示す操作量を補正し、かつ、補正された操作量を示す情報を前記表示オブジェクトに対応するアプリケーションへ出力する、前記(10)に記載の情報処理システム。
(12)
前記操作情報は、前記ウィンドウに対するタッチジェスチャーを示し、
前記処理部は、さらに、前記操作方向を補正するか、もしくは、前記ウィンドウに関する設定を変更するかを、前記タッチジェスチャーの位置が、前記ウィンドウ内の所定の領域内であるか否かに基づいて決定する、前記(3)に記載の情報処理システム。
(13)
前記ウィンドウに関する設定は、前記投影対象に対する前記ウィンドウの回転角度を含む、前記(12)に記載の情報処理システム。
(14)
前記タッチジェスチャーの位置が、前記所定の領域以外の前記ウィンドウ内である場合には、前記処理部は、前記投影対象に対する前記ウィンドウの回転角度に基づいて前記操作方向を補正する、前記(13)に記載の情報処理システム。
(15)
前記タッチジェスチャーの位置が前記所定の領域内である場合には、前記処理部は、前記投影対象に対する前記ウィンドウの回転角度を前記タッチジェスチャーに基づいて変更する、前記(13)または(14)に記載の情報処理システム。
(16)
前記情報処理システムは、
前記投影部による投影を制御する表示制御部をさらに備え、
前記表示制御部は、前記処理部により前記ウィンドウに関する設定が変更中であるか否かに応じて、前記ウィンドウの表示態様を変更する、前記(12)〜(15)のいずれか一項に記載の情報処理システム。
(17)
前記処理部により前記ウィンドウに関する設定が変更中である間は、前記表示制御部は、前記ウィンドウの表示態様を第1の表示態様に設定し、
前記ウィンドウに関する設定の変更が終了した際には、前記表示制御部は、前記ウィンドウの表示態様を前記第1の表示態様から第2の表示態様へ変更する、前記(16)に記載の情報処理システム。
(18)
表示面に表示されている表示オブジェクトに対するユーザの操作情報を取得することと、
プロセッサが、前記操作情報が示す操作方向を、前記表示面における基準角度に対する前記表示オブジェクトの回転角度に基づいて補正することと、
補正された操作方向を示す情報を前記表示オブジェクトに対応するアプリケーションへ出力することと、
を含み、
前記表示オブジェクトの回転角度は前記表示面の回転角度とは異なる、情報処理方法。
(19)
コンピュータを、
表示面に表示されている表示オブジェクトに対するユーザの操作情報を取得する取得部と、
前記操作情報が示す操作方向を、前記表示面における基準角度に対する前記表示オブジェクトの回転角度に基づいて補正し、かつ、補正された操作方向を示す情報を前記表示オブジェクトに対応するアプリケーションへ出力する処理部、
として機能させるための、プログラムであって、
前記表示オブジェクトの回転角度は前記表示面の回転角度とは異なる、プログラム。
10 情報処理システム
20 投影対象
30 ウィンドウ
50 操作部
60 情報処理端末
90 テーブル
100 プラットフォーム部
102 取得部
104 処理部
106 表示制御部
120 通信部
122 センサ部
124 表示部
200 アプリケーション
600 操作表示部

Claims (19)

  1. 表示面に表示されている表示オブジェクトに対するユーザの操作情報を取得する取得部と、
    前記操作情報が示す操作方向を、前記表示面における基準角度に対する前記表示オブジェクトの回転角度に基づいて補正し、かつ、補正された操作方向を示す情報を前記表示オブジェクトに対応するアプリケーションへ出力する処理部と、
    を備え、
    前記表示オブジェクトの回転角度は前記表示面の回転角度とは異なる、情報処理システム。
  2. 前記表示オブジェクトは、投影部により前記表示面を含む投影対象に投影されている、請求項1に記載の情報処理システム。
  3. 前記表示オブジェクトは、ウィンドウである、請求項2に記載の情報処理システム。
  4. 少なくとも二つの前記表示オブジェクトが前記投影部により前記投影対象に投影されており、
    前記表示面における基準角度に対する前記少なくとも二つの表示オブジェクトの各々の回転角度は、それぞれ異なっている、請求項2に記載の情報処理システム。
  5. 前記処理部は、前記少なくとも二つの表示オブジェクトのうちの、前記操作情報が示す操作対象の表示オブジェクトの回転角度に基づいて前記操作方向を補正し、かつ、補正された操作方向を示す情報を前記操作対象の表示オブジェクトに対応するアプリケーションへ出力する、請求項4に記載の情報処理システム。
  6. 前記処理部は、さらに、前記操作情報が示す操作が前記表示オブジェクトに対する直接的な操作であるか否かに基づいて前記操作方向を補正する、請求項2に記載の情報処理システム。
  7. 前記操作情報が示す操作が前記表示オブジェクトに対する間接的な操作である場合には、前記処理部は、さらに、前記投影対象と前記ユーザとの位置関係に基づいて前記操作方向を補正する、請求項6に記載の情報処理システム。
  8. 前記表示オブジェクトに対する間接的な操作は、操作部に対する方向情報の入力を含む、請求項7に記載の情報処理システム。
  9. 前記表示オブジェクトに対する直接的な操作は、前記投影対象に対するタッチジェスチャーを含む、請求項6に記載の情報処理システム。
  10. 前記投影対象が撮影された撮影画像が、操作表示部を有する情報処理端末へ送信され、
    前記操作情報は、前記操作表示部に表示された撮影画像に対する操作を示し、
    前記取得部は、前記情報処理端末から前記操作情報を取得し、
    前記処理部は、さらに、前記撮影画像に対する物体認識の結果に基づいて前記操作方向を補正する、請求項2に記載の情報処理システム。
  11. 前記処理部は、さらに、前記撮影画像に対する物体認識の結果に基づいて、前記操作情報が示す操作量を補正し、かつ、補正された操作量を示す情報を前記表示オブジェクトに対応するアプリケーションへ出力する、請求項10に記載の情報処理システム。
  12. 前記操作情報は、前記ウィンドウに対するタッチジェスチャーを示し、
    前記処理部は、さらに、前記操作方向を補正するか、もしくは、前記ウィンドウに関する設定を変更するかを、前記タッチジェスチャーの位置が、前記ウィンドウ内の所定の領域内であるか否かに基づいて決定する、請求項3に記載の情報処理システム。
  13. 前記ウィンドウに関する設定は、前記投影対象に対する前記ウィンドウの回転角度を含む、請求項12に記載の情報処理システム。
  14. 前記タッチジェスチャーの位置が、前記所定の領域以外の前記ウィンドウ内である場合には、前記処理部は、前記投影対象に対する前記ウィンドウの回転角度に基づいて前記操作方向を補正する、請求項13に記載の情報処理システム。
  15. 前記タッチジェスチャーの位置が前記所定の領域内である場合には、前記処理部は、前記投影対象に対する前記ウィンドウの回転角度を前記タッチジェスチャーに基づいて変更する、請求項13に記載の情報処理システム。
  16. 前記情報処理システムは、
    前記投影部による投影を制御する表示制御部をさらに備え、
    前記表示制御部は、前記処理部により前記ウィンドウに関する設定が変更中であるか否かに応じて、前記ウィンドウの表示態様を変更する、請求項12に記載の情報処理システム。
  17. 前記処理部により前記ウィンドウに関する設定が変更中である間は、前記表示制御部は、前記ウィンドウの表示態様を第1の表示態様に設定し、
    前記ウィンドウに関する設定の変更が終了した際には、前記表示制御部は、前記ウィンドウの表示態様を前記第1の表示態様から第2の表示態様へ変更する、請求項16に記載の情報処理システム。
  18. 表示面に表示されている表示オブジェクトに対するユーザの操作情報を取得することと、
    プロセッサが、前記操作情報が示す操作方向を、前記表示面における基準角度に対する前記表示オブジェクトの回転角度に基づいて補正することと、
    補正された操作方向を示す情報を前記表示オブジェクトに対応するアプリケーションへ出力することと、
    を含み、
    前記表示オブジェクトの回転角度は前記表示面の回転角度とは異なる、情報処理方法。
  19. コンピュータを、
    表示面に表示されている表示オブジェクトに対するユーザの操作情報を取得する取得部と、
    前記操作情報が示す操作方向を、前記表示面における基準角度に対する前記表示オブジェクトの回転角度に基づいて補正し、かつ、補正された操作方向を示す情報を前記表示オブジェクトに対応するアプリケーションへ出力する処理部、
    として機能させるための、プログラムであって、
    前記表示オブジェクトの回転角度は前記表示面の回転角度とは異なる、プログラム。
JP2018568035A 2017-02-17 2017-12-28 情報処理システム、情報処理方法、およびプログラム Ceased JPWO2018150757A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017027641 2017-02-17
JP2017027641 2017-02-17
PCT/JP2017/047382 WO2018150757A1 (ja) 2017-02-17 2017-12-28 情報処理システム、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JPWO2018150757A1 true JPWO2018150757A1 (ja) 2019-12-12

Family

ID=63169813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018568035A Ceased JPWO2018150757A1 (ja) 2017-02-17 2017-12-28 情報処理システム、情報処理方法、およびプログラム

Country Status (5)

Country Link
US (1) US11054941B2 (ja)
EP (1) EP3584688A4 (ja)
JP (1) JPWO2018150757A1 (ja)
CN (1) CN110291495B (ja)
WO (1) WO2018150757A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7346977B2 (ja) * 2019-07-29 2023-09-20 株式会社リコー 制御装置、電子機器、制御システム、制御方法、およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05257636A (ja) * 1992-03-16 1993-10-08 Sanyo Electric Co Ltd 表示装置
JPH07319615A (ja) * 1994-05-24 1995-12-08 Wacom Co Ltd 情報処理装置及びその制御方法
JP3840266B2 (ja) * 1996-03-15 2006-11-01 株式会社 日立製作所 表示装置およびその操作方法
WO2015049892A1 (ja) * 2013-10-04 2015-04-09 日本電気株式会社 電子機器、電子機器の制御方法及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050140696A1 (en) * 2003-12-31 2005-06-30 Buxton William A.S. Split user interface
JP5717270B2 (ja) * 2009-12-28 2015-05-13 任天堂株式会社 情報処理プログラム、情報処理装置および情報処理方法
JP5957892B2 (ja) * 2012-01-13 2016-07-27 ソニー株式会社 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
JPWO2014010458A1 (ja) 2012-07-10 2016-06-23 ソニー株式会社 操作処理装置および操作処理方法、並びにプログラム
JP5973087B2 (ja) * 2013-11-19 2016-08-23 日立マクセル株式会社 投射型映像表示装置
JP6369078B2 (ja) * 2014-03-20 2018-08-08 富士通株式会社 画像補正装置、画像補正方法及び画像補正用コンピュータプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05257636A (ja) * 1992-03-16 1993-10-08 Sanyo Electric Co Ltd 表示装置
JPH07319615A (ja) * 1994-05-24 1995-12-08 Wacom Co Ltd 情報処理装置及びその制御方法
JP3840266B2 (ja) * 1996-03-15 2006-11-01 株式会社 日立製作所 表示装置およびその操作方法
WO2015049892A1 (ja) * 2013-10-04 2015-04-09 日本電気株式会社 電子機器、電子機器の制御方法及びプログラム

Also Published As

Publication number Publication date
US20190339864A1 (en) 2019-11-07
CN110291495A (zh) 2019-09-27
EP3584688A4 (en) 2020-01-22
CN110291495B (zh) 2023-05-30
WO2018150757A1 (ja) 2018-08-23
US11054941B2 (en) 2021-07-06
EP3584688A1 (en) 2019-12-25

Similar Documents

Publication Publication Date Title
US20220326781A1 (en) Bimanual interactions between mapped hand regions for controlling virtual and graphical elements
JP7090210B2 (ja) シミュレートされた深度効果のためのユーザインタフェース
US11513608B2 (en) Apparatus, method and recording medium for controlling user interface using input image
US9600078B2 (en) Method and system enabling natural user interface gestures with an electronic system
CN109683716B (zh) 基于眼睛跟踪的可见度提高方法和电子装置
JP6903935B2 (ja) 情報処理システム、情報処理方法、およびプログラム
JP2021007022A (ja) 拡張現実システムのためのタッチフリーインターフェース
US11782514B2 (en) Wearable device and control method thereof, gesture recognition method, and control system
US10372229B2 (en) Information processing system, information processing apparatus, control method, and program
US20200104025A1 (en) Remote touch detection enabled by peripheral device
US11803233B2 (en) IMU for touch detection
JP7495459B2 (ja) 頭部装着型ディスプレイ装置、頭部装着型ディスプレイ装置の制御方法
US11886643B2 (en) Information processing apparatus and information processing method
CN117916777A (zh) 手工制作的增强现实努力证据
CN109947243B (zh) 基于触摸手检测的智能电子设备手势捕获与识别技术
US9195310B2 (en) Camera cursor system
CN109993059B (zh) 智能电子设备上基于单摄像头的双目视觉与物体识别技术
CN109960406B (zh) 基于双手手指之间动作的智能电子设备手势捕获与识别技术
WO2018150757A1 (ja) 情報処理システム、情報処理方法、およびプログラム
US11782548B1 (en) Speed adapted touch detection
KR102312601B1 (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
JP6999822B2 (ja) 端末装置および端末装置の制御方法
US20240168565A1 (en) Single-handed gestures for reviewing virtual content
KR20210125465A (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
CN118210426A (zh) 一种虚拟键盘的按键操作方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211109

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20220830