JP2015515074A - 3d入力を提供するための方法と装置 - Google Patents

3d入力を提供するための方法と装置 Download PDF

Info

Publication number
JP2015515074A
JP2015515074A JP2015507328A JP2015507328A JP2015515074A JP 2015515074 A JP2015515074 A JP 2015515074A JP 2015507328 A JP2015507328 A JP 2015507328A JP 2015507328 A JP2015507328 A JP 2015507328A JP 2015515074 A JP2015515074 A JP 2015515074A
Authority
JP
Japan
Prior art keywords
information
state
orientation
change
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015507328A
Other languages
English (en)
Other versions
JP6067838B2 (ja
JP2015515074A5 (ja
Inventor
ソン,ウエンジユアン
ジヨウ,グアンフア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2015515074A publication Critical patent/JP2015515074A/ja
Publication of JP2015515074A5 publication Critical patent/JP2015515074A5/ja
Application granted granted Critical
Publication of JP6067838B2 publication Critical patent/JP6067838B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

入力装置上でのユーザのタッチ位置に基づいて3D座標系における位置情報を提供する方法が提供される。この方法は、入力装置の側において、入力装置の向きを第1の状態に変更するステップと、ユーザのタッチに応答して、タッチ位置についての情報を特定するステップと、第1の状態とデフォルトの状態との間での向きの変化についての情報を特定するステップと、を備えており、タッチ位置についての情報と向きの変化についての情報とによって3D座標系における位置情報が特定される。

Description

本発明は、入力に関し、更に詳しくは、3D入力を提供するための方法と装置に関する。
3次元(「3D」)グラフィクス、あるいは、立体映像のアプリケーションの利用は加速的に行われているにも拘わらず、この特定分野に関する入力装置の開発の進展は遅れている。デスクトップ・パソコンの環境では、依然としてマウスが主流であり、僅かな種類の入力装置のみが製品化されている。例えば、バーチャル・リアリティ・アプリケーションに関しては、被追跡型のワンドがよく使用されている。
現在、殆どの人がモバイル・フォンを所有しており、その多くはタッチ・スクリーン又はタッチパッドの入力をサポートしている。通常、タッチ・スクリーン又はタッチパッドは、平坦な表面を有しており、その平坦な表面上のタッチの存在と位置とを検出して、そのタッチの位置をディスプレイ・スクリーン上の相対的位置に変換するための触覚センサ又はその他の種類のセンサを備えている。タッチする物体、例えば、指又はスタイラスが平坦な表面上で動くと、センサがそのタッチする物体の動きを検出してディスプレイ・スクリーン上の相対的動きに変換できる。しかしながら、タッチ・スクリーンとタッチパッドは、2次元(「2D」)のタッチ入力だけをサポートしている。
3D入力の分野において、発明の名称が「3Dタッチパッド」である米国特許出願「US2009/0184936A1」には、xy平面、yz平面及びxz平面に対して平行になるように配置された3つのタッチパッドで構成されている入力システムが記載されており、その入力システムでは、ユーザが3Dタッチパッド上で指を動かすと、6自由度(以下、6DOFという)がコンピュータ・システムに提供される。
1つのタッチ・スクリーン又はタッチパッドを用いて3D入力を可能にすることが望まれる。
本発明の一様相に従えば、入力装置上でのユーザのタッチ位置に基づいて3D座標系における位置情報を提供する方法が提供される。この方法は、入力装置の側において、入力装置の向きを第1の状態に変更するステップと、ユーザのタッチに応答して、タッチ位置についての情報を特定するステップと、第1の状態とデフォルトの状態との間での向きの変化についての情報を特定するステップと、を備えており、タッチ位置についての情報と向きの変化についての情報とによって3D座標系における位置情報が特定される。
本発明の別の一様相に従えば、装置上でのユーザのタッチ位置に基づいて3D座標系における位置情報を提供する該装置が提供される。この装置は、装置の向きが第1の状態に変更される際にタッチ位置を受信する第1のモジュールと、第1の状態とデフォルトの状態との間での向きの変化についての情報を特定する第2のモジュールと、を備えており、受信されたタッチ位置、及び、第1の状態とデフォルトの状態との間での向きの変化についての特定された情報によって3D座標系における位置情報が特定される。
一実施形態に従えば、上記状態は、入力装置の異なる傾斜に対応する。装置上でのタッチ位置によって2D座標が提供される一方、傾斜によって、3D座標系における、これらの2D座標のマッピングが特定される。
本発明の一様相に従えば、ユーザは、1つのタッチ・スクリーン又はタッチパッドを用いて3D座標を入力できる。
本発明のもっと多くの様相と利点が、以下の本発明の詳細な説明において判るであろう。
本発明を更に理解するための添付図面は、本発明の原理を説明する明細書と共に、本発明の実施形態を例示している。したがって、本発明は、これらの実施形態には限定されない。図面において、
本発明の一実施形態に従って3D入力を可能にするためのシステムを示す図である。 本発明の一実施形態に従う重力センサのフロント・ビューとサイド・ビュー(すなわちビュー1とビュー2)を示す図である。 本発明の一実施形態に従う重力センサの機能原理の詳細を示す図である。 本発明の一実施形態に従って3D入力を提供する方法を示すフロー・チャートである。
これから、本発明の一実施形態を、図面と共に、詳細に説明する。以下の説明では、周知の機能や構成の一部の詳細な説明は、明瞭さと簡潔さのために、省略することがある。
本発明の目的は、1つのタッチパッド又はタッチ・スクリーンを用いて3D入力を可能にすることである。
図1は、本発明の一実施形態に従って3D入力を可能にするためのシステムを示す図である。このシステムにおいては、ユーザ10、入力装置11、ディスプレイ装置12、及び、処理装置13が含まれている。
入力装置11には、該入力装置の入力表面上のユーザの指のタッチ位置及び/又は動きを検出するための触覚センサ又はその他の種類のセンサと、入力装置11の向きの変化を検出するための例えば重力センサ、加速度計等のようなセンサとが備えられている。ここでは、入力装置11の観点から、上記動きは、入力装置11に対する接触が維持されている間、一連の連続するタッチと見なすことができる。この意味において、動きに対する入力装置による処理は、各々のタッチに対する処理の合計である。例えば、入力装置11は、重力センサを備えたタッチパッドである。更に具体的に述べると、この重力センサは、図2Aに示されているような二軸チルト(傾斜)センサであり、これは、2つの軸における基準面の2つの軸におけるチルトを測定できる。1つの例では、この基準面は、実世界の3D座標系(以下、実3D座標系という)におけるディスプレイ装置の表面の平面と平行な平面である。図2Aに示されているように、2つのセンサ・コンポーネント20と21が、互いに垂直に配置されている。その機能原理は、重力による静的加速度の量を測定して、地球の表面に対して装置が傾けられる角度を見つけ出すことである。したがって、それは、水平方向の平面、あるいは、垂直方向の平面に対する入力装置11の傾斜角度を得ることができる。図2Bには、その機能原理の詳細が示されている。重力センサは、動き又は重力を電圧に変換できる。重力センサが水平位置に置かれると、出力電圧はVであり、それがαの角度に傾けられると、出力電圧はVαであり、重力センサの加速度がgであると、出力電圧はVである。ga=gsinαであるので、水平方向の平面に対する傾斜角度αは、α=arcsin[(Vα−V)/V]である。入力装置11が傾けられる前に特定された傾斜角と、入力装置11が傾けられた後で特定された傾斜角とを用いて、向きの変化を特定できる。この例では、基準平面が設定されているので、ここでの向きの変化は、基準平面に対する入力装置11の角度、すなわち、傾斜角度の変化によって表される。
ディスプレイ装置12は、処理装置13によって出力されたデータに基づいて物体及び/又はグラフィクスを表示するのに使用される。
処理装置13は、
1)3D座標系を維持し、
2)ユーザの指の位置及び/又は動きについての情報と向きの変化についての情報とを受信し、実3D座標系における位置及び/又は動きを、処理装置13によって使用される3D座標系(以下、仮想3D座標系という)における相対的位置及び/又は相対的動きに変換し、
3)仮想3D座標系における相対的位置及び/又は相対的動きに基づいてユーザの指の位置及び/又は動きを反映したデータをディスプレイ装置12に出力するのに使用される。
図3は、本発明の本実施形態に従って3D入力を提供する方法を例示するフロー・チャートである。
ステップ301において、処理装置13は、入力装置11の表面の平面の現在の傾斜状態を、第1の状態における最初の傾斜状態として、記録する。通常、このステップは、ユーザが3D入力を作成する前に、行われる。1つの例では、入力装置11の最初の傾斜状態を記録する目的は、入力装置11が傾けられた後の向きの変化(すなわち、この例では角度の変化)を算定するためである。本実施形態の一変形例では、入力装置11の最初の傾斜状態は、実3D座標系における垂直方向の平面又は水平方向の平面であるように事前設定される。この場合、このステップを行なう必要はない。
ステップ302において、ユーザが、実3D座標系において入力装置11をもう1つの状態(第2の状態という)に傾けて、その上にタッチすると、又は、その上で動かすと、処理装置13が、入力装置11から、向きの変化についての情報と入力装置11上でのタッチする物体の位置又は動きについての情報とを受信する。
ステップ303において、処理装置13は、実3D座標系における向きの変化についての情報と入力装置11上でのタッチする物体の位置又は動きについての情報とに基づいて、処理装置13がディスプレイ装置12上に3Dオブジェクトを表示するために使用すべき仮想3D座標系における位置又は動きを特定する。
更に、ユーザは、実3D座標系において、入力装置11を、第2の状態とは異なるもう1つの状態(第3の状態という)に傾けて、その上にタッチする、又は、その上で動かすことができる。処理装置13は、仮想3D座標系におけるもう1つの位置又は動きを特定することになる。
本実施形態において、処理装置13は、タッチ及び動きに応答して、リアル・タイムで出力を供給する。したがって、3Dオブジェクトの表示は、タッチ及び動きに対するリアル・タイムの応答を提供する。本実施形態の一変形例では、処理装置13は、ユーザがある状態におけるタッチ又は動きの操作を終えた後に、出力を供給する。もう1つの変形例では、処理装置13は、x軸成分、y軸成分及びz軸成分で入力を得るために、2つの連続した状態におけるユーザの入力を得た後で、出力を供給する。例えば、第2の状態における特定された位置又は動きと、第3の状態における特定された位置又は動きとが組み合わされてから、処理装置13は、第2の状態及び第3の状態におけるタッチ又は動きを反映したデータを表示装置12に伝える。
本実施形態の別のもう1つの変形例では、処理装置が、出力を供給する前に、2つ以上の連続した状態におけるユーザの入力を得る必要がある場合、その2つ以上の連続した状態における操作期間中にタッチ又は動きを行う間、入力装置11との接触を維持することがユーザに要求される。2つの状態における入力を必要とする上述の例の場合では、ユーザは、第2の状態においてタッチ又は動きを行った後、接触を解放せずに入力装置11を傾けて、それに接触したまま、その上で連続的に指を動かす。
これ以降、具体的な例を説明する。実3D座標系の垂直方向の平面が、基準平面として事前設定され、仮想3D座標系(X軸が水平方向でありY軸が垂直方向である)におけるX―Y平面に対応する。一例では、仮想3D座標系におけるX―Y平面は、3Dオブジェクトを表示するディスプレイ・スクリーンの平面である。ユーザは、先ず、入力装置11を垂直方向の位置に配置してその上で指を動かし、それが、仮想3D座標系におけるX軸及び/又はY軸の入力成分に変換される。ユーザは、指を入力装置11上に保持して入力装置11を水平方向の位置に傾けて、その上で指を動かし、それが、Z軸及びX軸の入力成分に変換される。入力装置11が垂直方向の位置と水平方向の位置との間の状態に傾けられた場合、入力装置11上の動きは、X軸、Y軸及びZ軸の入力成分を生成できる。一変形例では、入力装置11が、一部の入力成分を破棄するように、例えば、ユーザが、水平方向に配置された入力装置11上で指を動かす場合にX軸の入力成分を破棄するように構成される。
本実施形態の一変形例に従えば、入力装置11は自前の処理装置を有しており、仮想3D座標系における位置又は動きを特定する作業が入力装置11によって行われる。
本実施形態の別の一変形例に従えば、入力装置11、ディスプレイ装置12、及び、処理装置13の機能が、1つの装置に、例えば、タッチ・スクリーンと向きの変化を検出するセンサとを備えたタブレットやモバイル・フォンに、統合(一体化)される。
以上、多数の実施形態を説明した。それでもやはり、種々の修正が可能であることは理解されるであろう。例えば、相異なる実施形態の要素を組み合わせて、又は補って、又は修正して、又は取り除いて、別の実施形態を作成してもよい。更に、当業者であれば、ここに開示された構成及び処理の代わりに別のものを代用して、その結果として得られる実施形態が、ここに開示された実施形態と少なくとも実質的に同じやり方で、少なくとも実質的に同じ機能を果たして、少なくとも実質的に同じ効果を実現できることが分かるであろう。したがって、これらの実施形態等は、本発明の範囲内にある。

Claims (12)

  1. 入力装置上でのユーザのタッチ位置に基づいて3D座標系における位置情報を提供する方法であって、前記入力装置の側において、
    前記入力装置の向きを第1の状態に変更するステップと、
    ユーザのタッチに応答して、タッチ位置についての情報を特定するステップと、
    前記第1の状態とデフォルトの状態との間での向きの変化についての情報を特定するステップと、を備えており、
    前記タッチ位置についての情報と前記向きの変化についての情報とによって3D座標系における位置情報が特定される、方法。
  2. 前記タッチ位置についての情報と前記向きの変化についての情報とに基づいて3D座標系における位置情報を特定するステップを更に備える、請求項1に記載の方法。
  3. 前記入力装置に対する接触が維持されている間における前記入力装置上での一連のタッチから成るユーザの動きに応答して、前記一連のタッチの各々についての特定された位置情報と向きの変化についての情報とに基づいて3D座標系における動き情報を特定するステップを備える、請求項1又は請求項2に記載の方法。
  4. 前記入力装置上での同じタッチ位置を維持している間に前記入力装置の向きを前記第1の状態から第2の状態に変更するステップと、
    前記入力装置上での前記同じタッチ位置から開始する別の動きに応答して一連のタッチ位置についての情報を特定するステップと、
    前記第2の状態と前記デフォルトの状態との間での向きの変化についての情報を特定するステップと、を更に備えて、
    前記一連のタッチ位置についての情報、及び、前記第2の状態と前記デフォルトの状態との間での向きの変化についての情報によって3D座標系における動き位置が特定される、請求項3に記載の方法。
  5. 前記デフォルトの状態が、前記入力装置の向きを変更した際に前記向きを算定するために事前設定された状態であるか、又は、前記向きを前記第1の状態に変更する前の状態であるか、又は、前記入力装置の平面がディスプレイ装置のディスプレイ平面に平行、あるいは、垂直である状態である、請求項1から請求項4のいずれか一項に記載の方法。
  6. 前記向きの変化についての情報が傾斜角度の変化であり、前記方法が、前記タッチ位置についての情報と前記傾斜角度の変化とに基づいて、前記入力装置上での各々のタッチ位置についての3D座標系のX軸、Y軸及びZ軸の少なくとも1つの成分値を特定するステップを更に備えている、請求項1から請求項5のいずれか一項に記載の方法。
  7. 装置上でのユーザのタッチ位置に基づいて3D座標系における位置情報を提供する該装置であって、
    前記装置の向きが第1の状態に変更される際にタッチ位置を受信する第1のモジュールと、
    前記第1の状態とデフォルトの状態との間での向きの変化についての情報を特定する第2のモジュールと、を備えており、
    前記受信されたタッチ位置、及び、前記第1の状態と前記デフォルトの状態との間での向きの変化についての前記特定された情報によって3D座標系における位置情報が特定される、装置。
  8. 前記受信されたタッチ位置、及び、前記第1の状態と前記デフォルトの状態との間での向きの変化についての前記特定された情報に基づいて3D座標系における位置情報を特定する処理モジュールを更に備えている、請求項7に記載の装置。
  9. 前記第1のモジュールが、更に、前記装置に対する接触が維持されている間における一連のタッチから成る動きを受信するように構成されており、
    前記受信された動きと前記向きの変化についての情報とによって3D座標系における動き情報が特定される、請求項7又は請求項8に記載の装置。
  10. 3D座標系における少なくとも1つの3Dオブジェクトを表示する表示モジュールを更に備えており、3D座標系における前記特定された動き情報によって前記少なくとも1つの3Dオブジェクトの表示が変化する、請求項9に記載の装置。
  11. 前記第1のモジュールが、更に、前記装置上での同じタッチ位置が維持されている間に前記装置の向きが前記第1の状態から第2の状態に変更された後に、動きを受信するのに使用され、
    前記第2のモジュールが、更に、前記第2の状態と前記デフォルトの状態との間での向きの変化についての情報を特定するのに使用され、
    前記動き、及び、前記第2の状態と前記デフォルトの状態との間での向きの変化についての情報によって仮想3D座標系における動きが特定される、請求項9に記載の装置。
  12. 前記装置が平面状のタッチ・スクリーン又はタッチパッドを備えた装置である、請求項7から請求項11のいずれか一項に記載の装置。
JP2015507328A 2012-04-28 2012-04-28 3d入力を提供するための方法と装置 Expired - Fee Related JP6067838B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2012/074877 WO2013159354A1 (en) 2012-04-28 2012-04-28 Method and apparatus for providing 3d input

Publications (3)

Publication Number Publication Date
JP2015515074A true JP2015515074A (ja) 2015-05-21
JP2015515074A5 JP2015515074A5 (ja) 2015-07-02
JP6067838B2 JP6067838B2 (ja) 2017-01-25

Family

ID=49482175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015507328A Expired - Fee Related JP6067838B2 (ja) 2012-04-28 2012-04-28 3d入力を提供するための方法と装置

Country Status (6)

Country Link
US (1) US20150070288A1 (ja)
EP (1) EP2842021A4 (ja)
JP (1) JP6067838B2 (ja)
KR (1) KR20150013472A (ja)
CN (1) CN104169844A (ja)
WO (1) WO2013159354A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016224595A (ja) * 2015-05-28 2016-12-28 株式会社コロプラ システム、方法、およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011076349A (ja) * 2009-09-30 2011-04-14 Nec Corp 携帯情報端末および表示制御方法
JP2011237838A (ja) * 2010-04-30 2011-11-24 Sony Computer Entertainment Inc プログラム、情報入力装置、及びその制御方法
US20120092332A1 (en) * 2010-10-15 2012-04-19 Sony Corporation Input device, input control system, method of processing information, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100409157C (zh) * 2002-12-23 2008-08-06 皇家飞利浦电子股份有限公司 非接触式输入装置
US7773074B2 (en) * 2005-06-28 2010-08-10 Siemens Medical Solutions Usa, Inc. Medical diagnostic imaging three dimensional navigation device and methods
EP2076830A4 (en) * 2006-10-27 2013-07-17 Nokia Corp METHOD AND DEVICE FOR ENABLING MOVEMENT WITHIN A THREE-DIMENSIONAL GRAPHIC USER INTERFACE
US20090184936A1 (en) 2008-01-22 2009-07-23 Mathematical Inventing - Slicon Valley 3D touchpad
US8169414B2 (en) * 2008-07-12 2012-05-01 Lim Seung E Control of electronic games via finger angle using a high dimensional touchpad (HDTP) touch user interface

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011076349A (ja) * 2009-09-30 2011-04-14 Nec Corp 携帯情報端末および表示制御方法
JP2011237838A (ja) * 2010-04-30 2011-11-24 Sony Computer Entertainment Inc プログラム、情報入力装置、及びその制御方法
US20120092332A1 (en) * 2010-10-15 2012-04-19 Sony Corporation Input device, input control system, method of processing information, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016224595A (ja) * 2015-05-28 2016-12-28 株式会社コロプラ システム、方法、およびプログラム

Also Published As

Publication number Publication date
JP6067838B2 (ja) 2017-01-25
KR20150013472A (ko) 2015-02-05
US20150070288A1 (en) 2015-03-12
CN104169844A (zh) 2014-11-26
WO2013159354A1 (en) 2013-10-31
EP2842021A4 (en) 2015-12-16
EP2842021A1 (en) 2015-03-04

Similar Documents

Publication Publication Date Title
US20220129060A1 (en) Three-dimensional object tracking to augment display area
US10514780B2 (en) Input device
JP5205157B2 (ja) 携帯型画像表示装置、その制御方法、プログラム及び情報記憶媒体
US8368653B2 (en) Methods of interfacing with multi-point input devices and multi-point input systems employing interfacing techniques
CN108431734B (zh) 用于非触摸式表面交互的触觉反馈
WO2010007813A1 (ja) 携帯型画像表示装置、その制御方法及び情報記憶媒体
US10509489B2 (en) Systems and related methods for facilitating pen input in a virtual reality environment
CN103124951A (zh) 信息处理装置
JP2014523675A (ja) 携帯型端末装置のユーザインターフェースを自動的に切り替える方法、及び携帯型端末装置
US20110291981A1 (en) Analog Touchscreen Methods and Apparatus
US11397478B1 (en) Systems, devices, and methods for physical surface tracking with a stylus device in an AR/VR environment
WO2012018328A1 (en) System and method for enabling multi-display input
US20190094993A1 (en) User interface devices for virtual reality system
EP3475786A1 (en) Integrated free space and surface input device
US20150177947A1 (en) Enhanced User Interface Systems and Methods for Electronic Devices
JP6067838B2 (ja) 3d入力を提供するための方法と装置
US20130201157A1 (en) User interface device and method of providing user interface
US20170017389A1 (en) Method and apparatus for smart device manipulation utilizing sides of device
Colaço Sensor design and interaction techniques for gestural input to smart glasses and mobile devices
KR101598807B1 (ko) 펜의 기울기를 측정하는 방법 및 그 디지타이저
JP2019096182A (ja) 電子装置、表示方法、およびプログラム
US11914646B1 (en) Generating textual content based on an expected viewing angle
US11641460B1 (en) Generating a volumetric representation of a capture region
KR101165388B1 (ko) 이종의 입력 장치를 이용하여 화면을 제어하는 방법 및 그 단말장치
WO2022251176A1 (en) Computer input devices with hybrid translation modes

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150427

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150427

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20151021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160224

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160512

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160603

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161221

R150 Certificate of patent or registration of utility model

Ref document number: 6067838

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees