JP5749805B2 - デバイスタッチインタフェースの機能を用いる仮想オブジェクトの制御 - Google Patents

デバイスタッチインタフェースの機能を用いる仮想オブジェクトの制御 Download PDF

Info

Publication number
JP5749805B2
JP5749805B2 JP2013537666A JP2013537666A JP5749805B2 JP 5749805 B2 JP5749805 B2 JP 5749805B2 JP 2013537666 A JP2013537666 A JP 2013537666A JP 2013537666 A JP2013537666 A JP 2013537666A JP 5749805 B2 JP5749805 B2 JP 5749805B2
Authority
JP
Japan
Prior art keywords
touch
touch interface
interface
virtual object
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013537666A
Other languages
English (en)
Other versions
JP2014501001A (ja
Inventor
チェン、ルーシン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2014501001A publication Critical patent/JP2014501001A/ja
Application granted granted Critical
Publication of JP5749805B2 publication Critical patent/JP5749805B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明の実施の形態は、タッチインタフェースを利用するデバイスとそれらのタッチインタフェースを用いる仮想オブジェクトの制御に関する。
スマートフォン、携帯インターネットデバイス、ポータブルミュージックプレイヤ、および携帯ゲーム機のような手で持って操作できる家庭用電子デバイスは、多くの場合、平面型画像ディスプレイやタッチスクリーンディスプレイのような何らかの形のディスプレイを含む。タッチスクリーンは、表示エリア内のタッチの位置を検出することもできるディスプレイである。タッチスクリーンにより、表示されたコンテンツを操作するための主要な入力装置であるキーボードおよび/またはマウスを取り除いて、ディスプレイを入力装置として用いることができる。このようなディスプレイは、コンピュータに取り付けられたり、端末としてネットワークに取り付けられたりする。タッチスクリーンはまた、PDA(personal digital assistant)、衛生ナビゲーション、および携帯電話機器の近年のデザインを変更することの助けとなり、これらの機器を使い勝手の良いものとしている。
タッチスクリーンは1971年にDr. Samuel C. Hurstによって発明されて以来、当たり前のものとなっている。タッチスクリーンは、スタイラス(stylus)や指を用いてGUI(graphical user interface)を操作したりデータを入力したりするPDA、スマートフォン、および携帯インターネットデバイスでよく用いられるようになった。スマートフォン、PDA、携帯ゲームコンソール、および多くの種類の情報家電の人気が、タッチスクリーンの需要および受け入れを推進している。
現在、タッチインタフェースの利用を具現化している多くのデバイスは、ひとつのデバイスあたりひとつのタッチインタフェースのみを用いている。ひとつのタッチインタフェースのみを用いているため、これらの機器に表示された仮想オブジェクトの操作は制限される。たったひとつのタッチインタフェースでは、仮想オブジェクトの直感的な操作は2次元的にしか実行できない。
本発明はこのような文脈の中で生じた。
本発明の実施の形態は、添付の図面と併せて、以下の詳細な説明を考慮すれば容易に理解できる。
本発明の実施の形態に係る、仮想オブジェクトを操作するための直接タッチ(direct touch)を用いるデバイスを示す3次元の概略図である。 本発明の実施の形態に係る、仮想オブジェクトを操作するための直接タッチを用いるデバイスを示す上面図である。 本発明の実施の形態に係る、仮想オブジェクトを操作するための直接タッチを用いるデバイスを示す下面図である。 本発明の実施の形態に係る、仮想オブジェクトを操作するための事前タッチ(pre-touch)センサを用いるデバイスを示す3次元の概略図である。 本発明の実施の形態に係る、仮想オブジェクトを操作するための事前タッチセンサを用いるデバイスを示す上面図である。 本発明の実施の形態に係る、仮想オブジェクトを操作するための事前タッチセンサを用いるデバイスを示す下面図である。 本発明の実施の形態に係る、直接タッチを用いる仮想オブジェクトを操作するための方法を示す3次元の概略図である。 本発明の実施の形態に係る、事前タッチを用いる仮想オブジェクトを操作するための方法を示す3次元の概略図である。 本発明の実施の形態に係る、仮想オブジェクトを回転する方法を示す概略図である。 本発明の実施の形態に係る、仮想オブジェクトをシフトする方法を示す概略図である。 本発明の実施の形態に係る、仮想オブジェクトを摘む、または圧縮する方法を示す概略図である。 本発明の実施の形態に係る、仮想オブジェクトを拡大する方法を示す概略図である。 本発明の実施の形態に係る、仮想オブジェクトを制御する装置を示すブロック図である。 本発明の実施の形態に係る、仮想オブジェクトの制御を実装した命令を格納した記録媒体を例示する図である。
下記の詳細な説明は、例示を目的として多くの特定の詳細を含むが、下記の詳細に対する多くの変形及び置換が本発明の範囲に入ることは、当業者に認識されるところである。したがって、下記に説明する本発明の実施の形態は、請求された発明の一般性を失わせることなく、また限定を付加することもなく説明される。
図1Aは、本発明の実施の形態に係る、仮想オブジェクトを操作するための直接タッチを用いる機器を示す3次元の概略図である。この実施の形態では、第1タッチインタフェース103と第2タッチインタフェース105とが両方とも、単一のデバイス101上にある。図1Aでは、限定はしないが、例示の目的で、タッチインタフェース103、105は平面で実装されている。タッチインタフェースは、曲面を含む様々な形やサイズで実装されうることは重要である。第1タッチインタフェース103は、デバイス101の正面に位置し、以下本明細書において正面タッチインタフェースと記載する。第2タッチインタフェース105は、デバイス101の背面に位置し、以下本明細書において背面タッチインタフェースと記載する。いくつかの実施の形態では、正面タッチインタフェース103または背面タッチインタフェース105はタッチスクリーンとして実装される。タッチスクリーンは、表示領域内における接触の位置を検出する能力を持った画像表示ディスプレイのことをいう。あるいは、正面タッチインタフェース103または背面タッチインタフェース105はタッチパッドとして実装されうる。タッチパッドは、画像表示ディスプレイを含まないタッチインタフェースのことをいう。代わりに、タッチパッドへのユーザの接触は、プロセッサを介して、およびオプションとして独立の画像表示ディスプレイを介して伝えることができる。
正面タッチインタフェース103と背面タッチインタフェース105とは両方とも、タッチ入力の位置を決定するように構成されている。限定はしないが一例として、タッチインタフェースは、抵抗方式タッチパネル、表面弾性波技術、静電容量方式タッチパネル、赤外タッチパネル、歪みゲージ(strain gauge)技術、光学像、分散信号(dispersive signal)技術、音響パルス認識、または妨害内部全反射(frustrated total internal reflection; FTIR)を利用してタッチ入力の位置を検出するように構成されている。
抵抗方式タッチパネルは、薄い空間で分離されたふたつの薄い金属製の導電性および抵抗のある層を含む数枚の層からなる。あるオブジェクト(例えば指やスタイラス)がこの種のタッチパネルに接触すると、層同士がある点で接触する。タッチパネルは、出力が結合したふたつの電圧分配器と同様に電気的にふるまう。これは電流の変化を生じさせ、これがタッチイベントとして登録され、処理のためにプロセッサに送られる。
表面弾性波技術は、タッチスクリーンパネルの全面を通過する超音波を用いる。パネルがタッチされると、波の一部分が吸収される。センサがその結果による超音波の変化を登録し、対応する情報を処理のためにプロセッサに送信する。これによりタッチイベントの位置を決定することができる。
静電容量方式タッチパネルは、センサを横断する連続的な電流を伝導するインジウムスズ酸化物等の材料でコーティングされている。このため、センサは縦軸および横軸の両方において電子を格納する正確に制御された場を提示する。静電容量方式タッチパネルの「通常」の静電容量場(参照状態)が、例えばユーザの指から等の外部から加えられた電場によって変更されると、パネルのそれぞれの角にある電気回路が結果として参照場の特性における「歪み」を計測し、タッチイベントの位置を決定するための数学的処理のため、タッチイベントに関する情報をプロセッサに送信する。
赤外線タッチパネルは、ふたつの異なる方法論のうちのひとつを採用する。ひとつの方法は、熱的に誘導される表面抵抗の変化を利用する。もうひとつの方法は、パネル表面近くの変調されたビーム光の遮断を検出する垂直および水平方向のIRセンサ配列を利用する。
いくつかのタッチインタフェースはバネ計測器(spring gauge)の構成を利用する。この構成では、タッチ表面(例えばスクリーンまたはタッチパッド)は四隅それぞれに取り付けられたバネであり、歪みゲージがスクリーンがタッチされたときのたわみを決定するために用いられる。タッチの位置は、歪みゲージによって決定されたたわみから計算することができる。
光学像に基づくタッチインタフェース技術では、2以上の画像センサがスクリーンの境界(多くの場合、角)周辺に置かれる。スクリーンの他の側に、赤外のバックライトがカメラの画角内に設置される。タッチは影として現れ、各カメラのペアによって決定された影の位置は、三角測量によってタッチ位置が決定される。
分散信号技術は、タッチによって発生するガラス製タッチパネルの力学的エネルギーを検出する。この情報から最終的に実際のタッチの位置を導出するために複雑なアルゴリズムが用いられる。
音響パルス認識に基づくタッチパネルは、パネル上のいくつかの場所に置かれた、タッチ(振動)の力学的エネルギーを電気信号に変換するための2以上の圧電変換素子を用いる。この信号は音声ファイルに変換され、タッチの位置を決定するために、スクリーン上の全ての位置用に事前に存在する音声プロファイルと比較される。
妨害内部全反射に基づくタッチパネルは、内部全反射の原理を屈折媒質を光で満たすために利用する。指または他の柔らかいオブジェクトがタッチパネルを押すと、内部の反射光のパスが妨害され、光が反射して媒質の外に出て、それにより媒質の後のカメラによって見えるようになる。カメラはタッチの位置を決定するためにこの情報を処理する。
第1の指F1が正面タッチインタフェース103と接触すると、正面タッチインタフェース103は、正面タッチインタフェース103に関する第1タッチ入力107の位置を決定する。同様に、第2の指F2が背面タッチインタフェース105に接触すると、背面タッチインタフェース105は、背面タッチインタフェース105に関する第2タッチ入力109の位置を決定する。限定しない例として、タッチ入力位置107、109は、指F1、F2のいずれについても、任意の上述したタッチパネル技術を用いて、接触している表面全体のうちの中心点が選択されることで決定される。タッチ入力は指以外のオブジェクト(例えばスタイラスやコントローラ等)によっても実現されうることは重要である。
正面タッチインタフェース103および背面タッチインタフェース105が、ひとたびそれぞれタッチ入力107、109を決定すると、デバイス101は第1タッチ入力107の位置、第2タッチ入力109の位置、および事前に定められた正面タッチインタフェース103と背面タッチインタフェース105との間の空間的な関係を用いて、3次元の線分111を生成する。限定しない例として、事前に定められた正面タッチインタフェース103と背面タッチインタフェース105との間の空間的な関係は、ふたつのインタフェース間の実際の物理的距離dの倍数であってもよい。比較的単純なケースでは、正面および背面タッチインタフェースは実質的に同じサイズかつ同じ形であり、お互いに関して平行かつ重複していると仮定してもよい。これは限定しない例のケースである。
3次元線分111の生成の例として、タッチインタフェース103、105が距離dだけ離れて実質的に重複した配置である場合を考える。タッチ入力の位置は、デカルト座標系のX−Y平面の共通の原点に関して定義される。一例として、デカルト座標系のX−Y平面は、第1タッチインタフェース103の表面に設定される。第1タッチ入力位置107は、x、y、z座標系のx、y、0で定義される。第2タッチ入力位置109は、x、y、z座標系のx、y、−dで定義される。線分111の方向および向きは、ベクトル(x−x)i+(y−y)j−dkを用いて表される。ここで、i、j、およびkは、それぞれx、y、およびz方向の単位線分である。あるいは、線分111の方向はオイラー角(例えばx、y、およびz軸それぞれに関してx−y、x−z、およびy−z平面に線分111を投影したときの角度)で表してもよい。線分111の大きさは線分111の長さLで表せる。これは例えば以下の式(1)のような公知の距離公式を用いて計算される。
3次元線分111は、仮想オブジェクト113の制御のための制御入力として用いられる。限定しない例として、仮想オブジェクト113は正面タッチインタフェース103と背面タッチインタフェース105との間にあるかのように見えてもよい。仮想オブジェクト113は、背面タッチインタフェース105の後側、または任意の数の別の方向にあるかのように見えることもできる。例示目的として、仮想オブジェクト113は仮想オブジェクト113は正面タッチインタフェース103と背面タッチインタフェース105との間に見えることを仮定する。3次元線分111は仮想オブジェクト113を貫通する。3次元の線分111の任意の位置シフトは、仮想オブジェクト113の方向を操作する。ゆえに、第1タッチ入力位置107の任意のシフト、または第2タッチ入力位置109の任意のシフトは、これらのシフトによって新しく生成された3次元線分111にしたがって、仮想オブジェクト113の変換が生じる。
図1Bは、仮想オブジェクトを操作するための直接タッチを用いるデバイス101を示す上面図である。第1の指F1が正面タッチインタフェース103に接触し、第1タッチ入力位置107を生成している。第1タッチ入力位置107は、上述した方法にしたがって3次元線分を生成するために用いられる。
図1Cは、仮想オブジェクトを操作するための直接タッチを用いるデバイス101を示す下面図である。第2の指F2が背面タッチインタフェース105に接触し、第2タッチ入力位置109を生成している。第2タッチ入力位置109は、上述した方法にしたがって3次元線分を生成するために用いられる。
図2Aは、本発明の実施の形態に係る、仮想オブジェクトを操作するための事前タッチセンサを用いるデバイスを示す3次元の概略図である。この場合も、第1タッチインタフェース203および第2タッチインタフェース205は同一のデバイス201上に位置する。第1タッチインタフェース203を正面タッチインタフェースとし、第2タッチインタフェース205を背面タッチインタフェースとする。図1Aにおけるデバイスと同様に、このデバイス201の正面タッチインタフェース203および背面タッチインタフェース205は、タッチスクリーンまたはタッチパッドのいずれかとして実装される。
しかしながら、図1Aのタッチインタフェースがタッチ入力の位置を決定するために直接的な接触を要求したのに対し、図2Aのタッチインタフェース203、205は、直接的な接触を用いずにタッチ入力位置を生成する。正面タッチインタフェース203と背面タッチインタフェース205とはともに、タッチ入力位置を決定するために事前タッチセンサを用いる。これらの事前タッチセンサは、オブジェクトがタッチインタフェースに近接するときはいつでも、実際に接触しなくても、タッチ入力位置を決定する。例えば、第1の指F1が正面タッチインタフェース203に近接すると、第1タッチインタフェース203は第1タッチ入力207の位置を決定する。正面タッチインタフェース203に近接する第1の指F1の位置は、本明細書において、第1の適用点(point of application)204と呼ぶ。第1タッチ入力207の位置は、事前タッチセンサによって検出された第1の適用点204の正面タッチインタフェース203上の位置と、第1の適用点204とその正面タッチインタフェース203上の位置との間の垂直距離D1によって特徴付けられる。同様に、第2の指F2が背面タッチインタフェース205に近接すると、背面タッチインタフェース205は、第1タッチ入力位置の決定に用いるのと同じ手法で、第2タッチ入力209の位置を決定する。
事前タッチセンサは、様々な方法で実装されうる。限定しない例として、事前タッチセンサは、静電容量方式タッチパネル、赤外タッチパネル、光学像、または表面音響波技術を介して実装してもよい。これらの事前タッチ技術の実装については上述した。任意のタッチインタフェースにおけるオブジェクト位置を決定する能力は、タッチインタフェースに極近接しているオブジェクトに限られることは重要である。
ひとたびタッチ入力207、209の位置が決定されると、デバイス201は上述した方法と同様な方法で仮想オブジェクト113を制御する。デバイス201は、第1タッチ入力207の位置、第2タッチ入力209の位置、および正面タッチインタフェース203および背面タッチインタフェース205との間の事前に定められた空間的な関係を用いて3次元線分211を生成する。あるいは、3次元線分211’が、適用点204、206の間で決定されてもよい。この3次元線分211’は、垂直距離D1、D2を長くしたり短くしたりすることによって修正される。垂直距離D1、D2は、適用点204、206と、それらの点のタッチインタフェース203、205における各位置207、209との間の距離である。最後に、3次元線分211、211’が、仮想オブジェクト113の方向を操作する。適用点204、206によって生成された3次元線分211’は、ふたつのタッチ入力209、211によって生成された3次元線分211と比較して、より直感的かつ効果的なユーザ体験(user-experience)を提供することは重要である。適用点204、206の間の3次元線分211’は、制御における追加の自由度(すなわち、適用点とタッチインタフェース上の対応するテントの間の垂直距離)を有するからである。
図2Bは、仮想オブジェクトを操作するための事前タッチセンサを用いるデバイス201を示す上面図である。第1の指F1が正面タッチインタフェース203に近接している。第1タッチ入力207の位置は、事前タッチセンサによって検出された第1の適用点204の正面タッチインタフェース203上の位置と、第1の適用点204とその正面タッチインタフェース203上の位置との間の垂直距離D1によって特徴付けられる。第1タッチ入力位置207は上述の方法にしたがって3次元線分を生成するために用いられる。
図2Cは、仮想オブジェクトを操作するための事前タッチセンサを用いるデバイス201を示す下面図である。第2の指F2が背面タッチインタフェース205に近接している。第2タッチ入力209の位置は、事前タッチセンサによって検出された第2の適用点206の背面タッチインタフェース205上の位置と、第2の適用点206とその背面タッチインタフェース205上の位置との間の垂直距離D2によって特徴付けられる。第2タッチ入力位置209は上述の方法にしたがって3次元線分を生成するために用いられる。
以上の例は、ひとつのデバイスで仮想オブジェクトをコントロールする方法を説明するものである。しかしながら、1以上のユーザが同じ仮想オブジェクトを制御する状況も起こりうる。限定しない例として、仮想の世界の中に2人のユーザがおり、その中で2人のユーザがひとつの仮想オブジェクトを協力して制御する。図3Aおよび図3Bは、本発明の実施の形態に係る、仮想オブジェクトを制御する方法を示す概略図である。図3Aは直接タッチを用いる仮想オブジェクトを操作するための方法を示し、図3Bは事前タッチを用いる方法を示す。第1ユーザは第1デバイス301を操作する。第1デバイス301は、第1タッチインタフェース303を含む。第2ユーザは第2デバイス301’を操作する。第2デバイス301’は第2タッチインタフェース305を含む。これらの2人のユーザはネットワーク315を通して接続可能である。限定しない例として、ネットワークは有線接続や、Bluetooth(登録商標)無線技術、赤外信号等の無線接続を用いて実装してもよい。ユーザは、一致協力して同じ仮想オブジェクト313を制御する。
第1デバイス301のタッチインタフェース303に関する第1タッチ入力307の位置は、第1タッチインタフェース303に(直接タッチまたは事前タッチによって)作用する第1ユーザの指F1によって、例えば上述したように決定できる。第2タッチインタフェース305に関する第2タッチ入力309の位置も、第2タッチインタフェース305に(直接タッチまたは事前タッチによって)作用する第2ユーザの指F2によって、例えば上述したように決定できる。あるいは、第1適用点304および第2適用点306もまた、図2A中に説明したような事前タッチ技術を用いて決定できる。第1タッチ入力307(または第1適用点304)の位置はネットワーク315を介して第2デバイス301’に送信される。同様に、第2タッチ入力309(または第2適用点306)の位置はネットワーク315を通して第1デバイス301に送信される。
第1タッチ入力307(または第1適用点304)の位置は、第1タッチインタフェース303上における位置、または近接する位置にしたがって第2デバイス301’上にマッピングされる。本明細書において、投影された第1タッチ入力307’の位置(または投影された第1適用点304’の位置)と呼ぶ。同様に、第2タッチ入力309(または第2適用点306)の位置は、第2タッチインタフェース305上における位置、または近接する位置にしたがって第1デバイス301上にマッピングされる。本明細書において、投影された第2タッチ入力の位置(または投影された第2適用点306’の位置)と呼ぶ。
第1デバイス301は、第1タッチ入力307の位置、投影された第2タッチ入力309’の位置、および第1タッチインタフェースおよび第2タッチインタフェースの間に事前に定められた空間的な関係を用いて、3次元線分311を生成する。同様に、第2デバイス301’は、第2タッチ入力309の位置、投影された第1タッチ入力307’の位置、およびよび第1タッチインタフェースおよび第2タッチインタフェースの間に事前に定められた空間的な関係を用いて、次元線分311’を生成する。限定しない例として、事前に定められた空間的な関係は、第1および第2タッチインタフェース303、305が平行かつ重複した配置で、距離d離れていることを仮定する。しかしながら、ふたつのタッチインタフェース303、305の間の任意の関係、一例としてはこれらが平行でないこと、が利用されうる。
あるいは、図2Aで説明したように、第1デバイス301は、第1適用点304の位置と投影された第2適用点306’とを用いて3次元線分311Bを生成してもよい。同様に、図2Aで説明したように、第2デバイス301’は、投影された第1適用点304’の位置と第2適用点306の位置とを用いて、3次元線分311B’を生成してもよい。これらの3次元線分311B、311B’は、垂直距離D1、D2を長くしたり短くしたりすることによって修正される。垂直距離D1、D2は、適用点304、206およびそれらのタッチインタフェース303、305上の点との間の距離である。上述したように、適用点304、306を用いて生成された3次元線分311B、311B’は、タッチ入力を用いて生成された3次元線分311、311’よりも好ましい。さらなる制御の自由度を提供するからである。
例示の目的として、各デバイス内の仮想オブジェクト313、313’が、それぞれのデバイスのタッチインタフェース303、305と投影されたタッチ入力309’、307’の平面との間に出現していることを仮定する。各3次元線分311、311’、311B、311B’は、最初は仮想オブジェクト313、313’を貫通しており、3次元線分311、311’、311B、311B’の位置における任意のシフトは、仮想オブジェクト313、313の方向を操作する。仮想オブジェクト313、313’はふたつの分離されたデバイス301、301’によって制御されるので、各デバイスは3次元線分311、311’、311B、311B’の一方の端を制御できるだけである。例えば、第1デバイス301のユーザは、第1タッチ入力307(または第1適用点304)の位置を制御するが、投影された第2タッチ入力309’(または投影された第2適用点306’)の位置を制御することはできない。第2タッチ入力309’(または投影された第2適用点306’)の位置は第2デバイス301’のユーザによって制御されるからである。同様に、第2デバイス301’のユーザは、第2タッチ入力309(または第2適用点306)の位置を制御するが、投影された第1タッチ入力307’(または投影された第1適用点304’)の位置を制御することはできない。投影された第1タッチ入力307’(または投影された第1適用点304’)の位置は、第1デバイス301のユーザによって制御されるからである。両方のユーザは仮想オブジェクト313、313’を個々の観点から見ているが、仮想オブジェクトの制御はネットワーク315を通じた2人のユーザ間の意思の疎通に依存している。
上述の方法を用いる仮想オブジェクトの制御は多数の異なる方法で用いることができる。図4A−4Dは、本発明の実施の形態に係る、仮想オブジェクトを制御する可能な方法のいくつかの例を示す概略図である。第1タッチインタフェースに関する第1タッチ入力の位置(または第1適用点の位置)407は、第1タッチインタフェースに(直接タッチまたは事前タッチによって)作用する第1ユーザの指F1によって決定される。同様に、第2タッチインタフェースに関する第1タッチ入力の位置(または第2適用点の位置)409は、第2タッチインタフェースに(直接タッチまたは事前タッチによって)作用する第2ユーザの指F2によって決定される。例示目的として、仮想オブジェクト413は第1タッチインタフェースと第2タッチインタフェースとの間に出現すると仮定することができる。第1タッチ入力の位置(または第1適用点の位置)407、第2タッチ入力の位置(または第2適用点の位置)409、および2つのタッチインタフェースの間の予め定められた空間的な関係(例えば、タッチインタフェース間の実際の物理的距離)が3次元線分411を生成するために用いられる。3次元線分411が仮想オブジェクト413を制御するための制御入力として用いられる。動きのある3次元線分411は最初仮想オブジェクト413を貫通しており、3次元線分411の位置における任意のシフトは、仮想オブジェクト413の方向を操作する。
図4Aは、本発明の実施の形態に係る、仮想オブジェクトを回転する方法を示す概略図である。第1の指F1と第2の指F2とを反対方向に動かすと仮想オブジェクト413が回転する。線分411の方向の変化は、オブジェクト413の方向の変化にマッピングすることができる。指の動きの速度を調整することにより、ユーザは仮想オブジェクト413の回転速度を制御することができる。例えば、指を反対方向にゆっくりと動かすことで、それと対応して仮想オブジェクト413をゆっくりと回転する。指を反対方向に素早く引くと、それと対応して線分411の方向の変化とともに仮想オブジェクト413は素早く回転する。さらに、指の動く方向を変更することによって、ユーザは仮想オブジェクト413の回転する方向を制御することができる。仮想オブジェクト413は、一方の指を単にシフトし、他方の指を所定の位置に残すことで回転させてもよいことは重要である。限定しない例として、この動作は、ひとつの指を規定の長さシフトさせ、元の位置まで戻し、また規定の長さシフトさせるという動作を、ユーザが仮想オブジェクト413の回転を続けようとする限り繰り返すことで、無期限に伝搬することができる。さらに、3次元線分411の長さを増加させある閾値を超えると、回転を解除することを示してもよい。
図4Bは、本発明の実施の形態に係る、仮想オブジェクトをシフトする方法を示す概略図である。第1の指F1と第2の指F2とを同じ方向に動かすと仮想オブジェクト413がシフトする。指が同じ速度で動くと、仮想オブジェクト413は指の動きと同じ方向にまっすぐに進む。仮想オブジェクト413の動く角度を変更するために、ユーザは一方の指の動きの速度を別の指に対して調整することができる。例えば、第1の指F1が第2の指よりも早い速度で動くと、仮想オブジェクト413はふたつの指の方向において第1の指F1の位置に向かう角度で動く。同様に、第2の指F2が第1の指よりも速い速度で動くと、仮想オブジェクト413はふたつの指の方向において第2の指F2の位置に向かう角度で動く。さらに、タッチインタフェースに関する3次元線分411の角度が、仮想オブジェクト413の方向制御の別の度数を提供する。例えば、仮想オブジェクト413が銃弾の形を取っているとき、その銃弾は指の動きに依存して3次元線分411と垂直な方向に動く。
図4Cは、本発明の実施の形態に係る、仮想オブジェクトを摘む、または圧縮する方法を示す概略図である。直接タッチの文脈では、第1の指F1が第1タッチインタフェースにかける圧力を増加し、第2の指F2が第2タッチインタフェースにかける圧力を増加すると、仮想オブジェクト413を圧縮させる。各タッチインターフェース上に異なる組み合わせで指の圧力をかけることで、仮想オブジェクト413の圧縮を修正できることは推測可能である。事前タッチセンサを用いる仮想オブジェクト413の圧縮は、直接タッチを用いる仮想オブジェクト413の圧縮に比べて少し異なる。タッチインタフェースにより力をかけるのではなく、適用点とそのタッチインタフェース上の位置との各垂直距離を減少することで、仮想オブジェクトを圧縮させる。垂直距離の異なる組み合わせを用いることで、仮想オブジェクト413の圧縮を修正できることは推測可能である。
図4Dは、本発明の実施の形態に係る、仮想オブジェクトを拡大する方法を示す概略図である。直接タッチの文脈では、第1の指F1が第1タッチインタフェースにかける圧力を減少し、第2の指F2が第2タッチインタフェースにかける圧力を減少すると、仮想オブジェクト413を拡大させる。各タッチインターフェース上に異なる組み合わせで指の圧力をかけることで、仮想オブジェクト413の拡大を修正できることは推測可能である。事前タッチセンサを用いる仮想オブジェクト413の拡大は、直接タッチを用いる仮想オブジェクト413の圧縮に比べて少し異なる。タッチインタフェースにかける力を小さくするのではなく、適用点とそのタッチインタフェース上の位置との各垂直距離を増加することで、仮想オブジェクトを拡大させる。垂直距離の異なる組み合わせを用いることで、仮想オブジェクト413の拡大を修正できることは推測可能である。
これらは仮想オブジェクトの制御のための方法のほんの少数の例に過ぎないことは重要である。仮想オブジェクトの制御のための別の方法の他に、上述した仮想オブジェクトの制御のための方法の2以上の組み合わせを利用することもできる。
図5は、上述した仮想オブジェクトの制御をの実装に用いるコンピュータ装置500を示すブロック図である。装置500は、一般に、プロセッサモジュール501とメモリ505を備える。プロセッサモジュール501は1以上のプロセッサコアを含む。複数のプロセッサモジュールを用いるプロセッシングシステムの例は、セルプロセッサであり、その例は、たとえば、http://www-306.ibm.com/chips/techlib/techlib.nsf/techdocs/1AEEE1270EA2776387257060006E61BA/$file/CBEA_01_pub.pdfにおいてオンラインで参照可能なセルブロードバンドエンジンアーキテクチャに詳しく記述されており、その内容を参照によりここに組み込む。
メモリ505は、例えば、RAM、DRAM、ROMなどの集積回路の形態を取ってもよい。そのメモリはまた、すべてのプロセッサモジュール501によってアクセス可能なメインメモリであってもよい。ある実施の形態では、プロセッサモジュール501は、各コアに関連付けられたローカルメモリを含む。プログラム503は、プロセッサモジュール501上で実行することができるプロセッサ読み取り可能なインストラクションの形態でメインメモリ505に格納されてもよい。プログラム503は、例えば図1、図2、図3、および図4に関して上述した2つのタッチインタフェースを用いて仮想オブジェクトを制御するように構成されている。プログラム503は、任意の適切なプロセッサ読み取り可能な言語、たとえば、C、C++、JAVA(登録商標)、アセンブリ、MATLAB、FORTRAN、および他の様々な言語で書かれる。プログラム503の実行中、プログラムコードおよび/またはデータ507の一部は、メモリ505またはマルチプロセッサコアによる並列処理のためのプロセッサコアのローカルストアにロードされる。限定しない例として、入力データ507はタッチ入力(直接タッチと事前タッチとの両者とも)の位置と、タッチ入力によって生成された3次元線分とを含む。
プログラム503は、プロセッサ501によって実行されたとき、a)第1タッチインタフェース上の第1タッチ入力の位置を決定し、b)第2タッチインタフェース上の第2タッチ入力の位置を決定し、c)、d)c)における3次元線分を制御入力として用いて仮想オブジェクトを操作し、e)操作した仮想オブジェクトを表示装置上に表示することで仮想オブジェクトを制御する方法を実装する。
装置500はさらに、入出力(I/O)装置511、電源(P/S)513、クロック(CLK)515およびキャッシュ517などの周知のサポート機能509を備えてもよい。装置500はオプションとして、プログラムおよび/またはデータを格納するためのディスクドライブ、CD−ROMドライブ、テープドライブなどの大容量記憶装置519を備えてもよい。装置500はまた、オプションとして、装置500とユーザの相互作用を容易にするために、ディスプレイユニット521、およびユーザインタフェースユニット525を備えてもよい。ディスプレイユニット521は、テキスト、数値、グラフィカルシンボルや画像を表示する陰極線管(CRT)、またはフラットパネルスクリーンの形態であってもよい。ユーザインタフェース525は、キーボード、マウス、ジョイスティック、ライトペン、またはGUI(graphical user interface)とともに用いられる他のデバイスを含む。装置500はまた、ネットワークインタフェース523を含み、これにより、当該装置がインターネットのようなネットワーク上で他の装置と通信することが可能になる。
装置500はオプションとして、入出力装置511を介してプロセッサ501と接続されている1以上のオーディオスピーカ527を含んでもよい。スピーカはプログラム503の実行によって生成された信号に応答して生成された音声を再生できる。オーディオスピーカ527は、例えば仮想オブジェクトの動きが3D音声効果を生み出すときに用いることができる。いくつかの実施の形態では、装置500はオプションのマイクロフォン529を含んでもよい。マイクロフォン529は、単一のマイクロフォンでもマイクロフォンアレイであってもよい。マイクロフォン529は、入出力装置511を介してプロセッサ501と接続されている。限定しない例として、マイクロフォンアレイ529を用いる音源位置の追跡および仮想オブジェクトの位置の追跡との両方をすることによって異なる3D音声効果が生成されてもよい。
さらに、マイクロフォンアレイとともにある3次元の実際の音源の位置を仮想オブジェクトの位置と組み合わせることで、異なる3D音声効果を生成できる。例えば、オーディオスピーカ527のうちのたった1つのスピーカが対応する音声を生成できるように、特定の方向において実際の音を跳ね返すために仮想の鏡を用いることができる。
プロセッサ501、メモリ505、サポート機能509、大容量記憶装置519、ユーザインタフェース525、ネットワークインタフェース523、およびディスプレイ521を含む装置500の構成要素は、1以上のデータバス531を経由して互いに動作可能に接続されてもよい。これらの構成要素はハードウェア、ソフトウェア、ファームウェアまたはこれらの2以上の組み合わせによって実装される。
別の実施の形態では、仮想オブジェクトの制御のための命令はコンピュータが読み出し可能な記録媒体に格納される。限定しない例として、図6は発明の実施の形態に係る、仮想オブジェクトの制御を実装した命令を格納した記録媒体600を例示する図である。記録媒体600には、コンピュータ・プロセッシング・デバイスが読み取って解釈することのできるフォーマットで格納されたコンピュータ読み取り可能な命令が含まれる。一例として、これに限られないが、コンピュータ読み取り可能な記録媒体600は、RAMまたはROMのようなコンピュータ読み取り可能なメモリ、固定ディスクドライブ(たとえば、ハードディスクドライブ)に対するコンピュータ読み取り可能なストレージディスク、またはリムーバブルディスクドライブであってもよい。さらに、コンピュータ読み取り可能な記録媒体600は、フラッシュメモリデバイス、コンピュータ読み取り可能なテープ、CD−ROM、DVD−ROM、ブルーレイ(商標)、HD−DVD、UMD、あるいは他の光記録媒体を含む。
記録媒体600はタッチを通じた仮想オブジェクトの制御および操作するように構成された命令601を含む。仮想オブジェクトを制御するための命令601は、例えば図1、図2、図3、および図4に関して上述した方法に係る仮想オブジェクトの制御を実装するように構成されている。特に、仮想オブジェクトを制御するための命令601は、第1タッチインタフェースに関する第1タッチ入力の位置を決定するために用いられる、第1タッチインタフェースにおける第1タッチ入力の位置を決定する命令603を含む。想オブジェクトを制御するための命令601はさらに、第2タッチインタフェースに関する第2タッチ入力の位置を決定するために用いられる、第2タッチインタフェースにおける第2タッチ入力の位置を決定する命令605を含む。タッチ入力の位置は、図1A−1C、図2A−2Cに関して上述した直接接触または事前タッチセンサを経由して決定されてもよい。これらの命令は、個々のユーザの指の長さや動きの速度を考慮に入れるために各ユーザ個別のタッチ配列を保存するように構成されてもよい。
仮想オブジェクトを制御するための命令601はさらに、第1タッチ入力、第2タッチ入力、および第1インタフェースと第2インタフェースとの間の事前に定められた空間的な関係を用いて3次元線分を生成するために用いられる3次元線分を生成する命令607を含んでもよい。これは、3次元線分を制御入力として用いる仮想オブジェクトの方向を操作する1以上の仮想オブジェクトを操作する命令609のトリガとなる。
仮想オブジェクトを制御するための命令601はさらに、1以上のユーザに操作した仮想オブジェクトを表示するために用いられる、操作した仮想オブジェクトを表示する命令611を含んでもよい。これらの命令は、生成された任意の3次元制御線分または指の動きにしたがって、特定の音声効果(例えば3D音声効果)を再生する指示を含んでもよい。
本発明の好ましいバージョンを参照しながらかなり詳細に本発明を説明したが、他のバージョンも可能である。例えば、ある実施の形態においては、3次元線分がデカルト座標系の観点から定義されたが、当業者であれば、円柱座標系や極座標系のような他の座標系の観点で線分が定義可能であることは認識できる。さらに、いくつかの実施の形態では第1および第2タッチインタフェース間が重複する平行な関係であると仮定して記載した。しかしながら、2つのタッチインタフェース間を任意の関係で実装してもよい。例えば、2つのタッチインタフェースが、互いに垂直であるなど平こく出ない関係で実装してもよい。さらに、第1および第2タッチインタフェースの間に傾斜や横方向のオフセットがあってもよい。したがって、添付の請求項の趣旨および範囲は、ここに含まれる好ましいバージョンの説明に限定されるべきではない。むしろ、本発明の範囲は、添付の請求項をその均等物の全範囲とともに参照することで決定されるべきである。
この明細書(添付の請求項、要約、図面を含めて)に開示したすべての特徴は、明示的に断らない限り、同じ目的または等価ないしは類似の目的を達する代替的な特徴で置き換えることができる。したがって、明示的に断らない限り、開示された各特徴は、等価または類似の特徴の包括的な体系のほんの一例である。いずれの特徴も、好ましいかどうかを問わず、他の特徴と組み合わせてもよい。請求項において、明示的に断らない限り、各項目は1またはそれ以上の数量である。請求項において「〜のための手段」のような語句を用いて明示的に記載する場合を除いて、請求項のいずれの構成も、35USC§112第6パラグラフに規定された「手段」または「ステップ」として解釈されるものではない。特に請求項において「〜のステップ」を用いても35USC§112第6パラグラフの規定を行使することを意図したものではない。
この明細書と同時に提出され、この明細書とともに公衆の閲覧に付されたすべての書面に読者の注意は向けられるものであり、それらの書面の内容を参照によりここに組み込む。

Claims (16)

  1. 仮想オブジェクトを制御する方法であって、
    a)第1タッチインタフェース上の第1タッチ入力の位置を決定するステップと、
    b)第2タッチインタフェース上の第2タッチ入力の位置を決定するステップと、
    c)前記第1タッチ入力の位置、前記第2タッチ入力の位置、および前記第1タッチインタフェースと前記第2タッチインタフェースとの間の事前に定められた空間的な関係を用いて3次元線分を生成するステップと、
    d)c)における3次元線分を制御入力として用いて仮想オブジェクトを操作するステップと、
    e)操作した前記仮想オブジェクトを表示装置上に表示するステップとを含むことを特徴とする方法。
  2. 前記第1タッチインタフェースはタッチスクリーンであることを特徴とする請求項1に記載の方法。
  3. 前記タッチインタフェースはタッチパッドであることを特徴とする請求項2に記載の方法。
  4. 前記第1タッチ入力の位置を決定するステップは、第1タッチインタフェースにおける第1タッチ入力の位置を決定するための事前タッチと、当該第1タッチ入力の位置とタッチの適用点(point of application)との間の垂直距離とを用いることを含むことを特徴とする請求項1に記載の方法。
  5. 前記第2タッチ入力の位置を決定するステップは、第2タッチインタフェースにおける第2タッチ入力の位置を決定するための事前タッチと、当該第2タッチ入力の位置とタッチの適用点との間の垂直距離とを用いることを含むことを特徴とする請求項1に記載の方法。
  6. e)は、前記第1タッチインタフェースを含むデバイスおよび前記第2タッチインタフェースを含むデバイスから離れている表示装置上に前記仮想オブジェクトを表示することを含むことを特徴とする請求項1に記載の方法。
  7. e)は、前記仮想オブジェクトを第1タッチスクリーンに表示することを特徴とする請求項1に記載の方法。
  8. e)は、前記仮想オブジェクトを第2タッチスクリーンにも表示することを特徴とする請求項に記載の方法。
  9. 仮想オブジェクトを制御する装置であって、
    第1タッチインタフェースと、
    第2タッチインタフェースと、
    前記第1タッチインタフェースと動作可能に接続しているプロセッサと、
    前記プロセッサによって実行可能な命令を含み、当該命令は、
    a)第1タッチインタフェース上の第1タッチ入力の位置を決定するステップと、
    b)第2タッチインタフェース上の第2タッチ入力の位置を決定するステップと、
    c)前記第1タッチ入力の位置、前記第2タッチ入力の位置、および前記第1タッチインタフェースと前記第2タッチインタフェースとの間の事前に定められた空間的な関係を用いて3次元線分を生成するステップと、
    d)c)における3次元線分を制御入力として用いて仮想オブジェクトを操作するステップと、
    e)操作した前記仮想オブジェクトを表示装置上に表示するステップとを前記プロセッサが実行することを特徴とする装置。
  10. 前記プロセッサはさらに、前記第2タッチインタフェースに動作可能に接続されており、前記第1タッチインタフェースと前記第2タッチインタフェースとはともに、第1と第2の広い面(major surface)を有するケースに存在することを特徴とする請求項に記載の装置。
  11. 前記第1タッチインタフェースは、前記第1の広い面に位置するタッチスクリーンであることを特徴とする請求項10に記載の装置。
  12. 前記第2タッチインタフェースは、前記第2の広い面に位置するタッチパッドであることを特徴とする請求項11に記載の装置。
  13. a)における前記第1タッチインタフェースは第1デバイス上に位置し、b)における前記第2タッチインタフェースは第2デバイス上に位置することを特徴とする請求項に記載の装置。
  14. 前記第1デバイスと前記第2デバイスとは、無線ネットワークで接続されていることを特徴とする請求項13に記載の装置。
  15. 前記第1タッチインタフェースを含むデバイスおよび前記第2タッチインタフェースを含むデバイスから離れている視覚的表示装置をさらに含むことを特徴とする請求項に記載の装置。
  16. たつのタッチインタフェースを用いて仮想オブジェクトを制御するためのプログラムであって、
    a)第1タッチインタフェース上の第1タッチ入力の位置を決定する機能と、
    b)第2タッチインタフェース上の第2タッチ入力の位置を決定する機能と、
    c)前記第1タッチ入力の位置、前記第2タッチ入力の位置、および前記第1タッチインタフェースと前記第2タッチインタフェースとの間の事前に定められた空間的な関係を用いて3次元線分を生成する機能と、
    d)c)における3次元線分を制御入力として用いて仮想オブジェクトを操作する機能と、
    e)操作した前記仮想オブジェクトを表示装置上に表示する機能とをコンピュータに実現させることを特徴とするコンピュータプログラム。
JP2013537666A 2010-11-01 2011-08-19 デバイスタッチインタフェースの機能を用いる仮想オブジェクトの制御 Active JP5749805B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/917,362 US9092135B2 (en) 2010-11-01 2010-11-01 Control of virtual object using device touch interface functionality
US12/917,362 2010-11-01
PCT/US2011/048507 WO2012060919A2 (en) 2010-11-01 2011-08-19 Control of virtual object using device touch interface functionality

Publications (2)

Publication Number Publication Date
JP2014501001A JP2014501001A (ja) 2014-01-16
JP5749805B2 true JP5749805B2 (ja) 2015-07-15

Family

ID=45998034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013537666A Active JP5749805B2 (ja) 2010-11-01 2011-08-19 デバイスタッチインタフェースの機能を用いる仮想オブジェクトの制御

Country Status (5)

Country Link
US (3) US9092135B2 (ja)
EP (1) EP2635955B1 (ja)
JP (1) JP5749805B2 (ja)
CN (1) CN103403646B (ja)
WO (1) WO2012060919A2 (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE533704C2 (sv) 2008-12-05 2010-12-07 Flatfrog Lab Ab Pekkänslig apparat och förfarande för drivning av densamma
KR101123005B1 (ko) * 2010-06-14 2012-03-12 알피니언메디칼시스템 주식회사 초음파 진단장치, 거기에 이용되는 그래픽 환경 제어장치 및 그 제어방법
US9092135B2 (en) 2010-11-01 2015-07-28 Sony Computer Entertainment Inc. Control of virtual object using device touch interface functionality
US10168835B2 (en) 2012-05-23 2019-01-01 Flatfrog Laboratories Ab Spatial resolution in touch displays
KR20140010616A (ko) * 2012-07-16 2014-01-27 한국전자통신연구원 3d 가상 객체에 대한 조작 처리 장치 및 방법
US9733667B2 (en) * 2012-10-01 2017-08-15 Nec Corporation Information processing device, information processing method and recording medium
US20140237408A1 (en) * 2013-02-15 2014-08-21 Flatfrog Laboratories Ab Interpretation of pressure based gesture
US10019113B2 (en) 2013-04-11 2018-07-10 Flatfrog Laboratories Ab Tomographic processing for touch detection
US9874978B2 (en) 2013-07-12 2018-01-23 Flatfrog Laboratories Ab Partial detect mode
US10013092B2 (en) 2013-09-27 2018-07-03 Sensel, Inc. Tactile touch sensor system and method
WO2015048582A1 (en) 2013-09-27 2015-04-02 Sensel, Inc. Resistive touch sensor system and method
US11221706B2 (en) 2013-09-27 2022-01-11 Sensel, Inc. Tactile touch sensor system and method
KR102165445B1 (ko) * 2013-09-30 2020-10-14 엘지전자 주식회사 디지털 디바이스 및 그 제어 방법
US10168873B1 (en) 2013-10-29 2019-01-01 Leap Motion, Inc. Virtual interactions for machine control
US9996797B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Interactions with virtual objects for machine control
US10416834B1 (en) * 2013-11-15 2019-09-17 Leap Motion, Inc. Interaction strength using virtual objects for machine control
US10146376B2 (en) 2014-01-16 2018-12-04 Flatfrog Laboratories Ab Light coupling in TIR-based optical touch systems
WO2015108480A1 (en) 2014-01-16 2015-07-23 Flatfrog Laboratories Ab Improvements in tir-based optical touch systems of projection-type
US10161886B2 (en) 2014-06-27 2018-12-25 Flatfrog Laboratories Ab Detection of surface contamination
US10127927B2 (en) 2014-07-28 2018-11-13 Sony Interactive Entertainment Inc. Emotional speech processing
TWI536239B (zh) * 2014-10-27 2016-06-01 緯創資通股份有限公司 觸控裝置及觸控方法
EP3250993B1 (en) 2015-01-28 2019-09-04 FlatFrog Laboratories AB Dynamic touch quarantine frames
US10318074B2 (en) 2015-01-30 2019-06-11 Flatfrog Laboratories Ab Touch-sensing OLED display with tilted emitters
US20160224203A1 (en) * 2015-02-02 2016-08-04 Cirque Corporation Using a perpendicular bisector of a multi-finger gesture to control motion of objects shown in a multi-dimensional environment on a display
WO2016130074A1 (en) 2015-02-09 2016-08-18 Flatfrog Laboratories Ab Optical touch system comprising means for projecting and detecting light beams above and inside a transmissive panel
CN107250855A (zh) 2015-03-02 2017-10-13 平蛙实验室股份公司 用于光耦合的光学部件
CN108140360B (zh) * 2015-07-29 2020-12-04 森赛尔股份有限公司 用于操纵虚拟环境的***和方法
US10739968B2 (en) 2015-11-23 2020-08-11 Samsung Electronics Co., Ltd. Apparatus and method for rotating 3D objects on a mobile device screen
KR102400705B1 (ko) 2015-12-09 2022-05-23 플라트프로그 라보라토리즈 에이비 개선된 스타일러스 식별
WO2017165894A1 (en) 2016-03-25 2017-09-28 Sensel Inc. System and method for detecting and characterizing force inputs on a surface
CN105892754A (zh) * 2016-05-27 2016-08-24 北京小鸟看看科技有限公司 一种手指动作识别方法和***
US20180143693A1 (en) * 2016-11-21 2018-05-24 David J. Calabrese Virtual object manipulation
EP3545392A4 (en) 2016-11-24 2020-07-29 FlatFrog Laboratories AB AUTOMATIC TACTILE SIGNAL OPTIMIZATION
KR102629629B1 (ko) 2016-12-07 2024-01-29 플라트프로그 라보라토리즈 에이비 개선된 터치 장치
EP3458946B1 (en) 2017-02-06 2020-10-21 FlatFrog Laboratories AB Optical coupling in touch-sensing systems
WO2018174788A1 (en) 2017-03-22 2018-09-27 Flatfrog Laboratories Object characterisation for touch displays
EP4036697A1 (en) 2017-03-28 2022-08-03 FlatFrog Laboratories AB Optical touch sensing apparatus
CN117311543A (zh) 2017-09-01 2023-12-29 平蛙实验室股份公司 触摸感测设备
US10671238B2 (en) * 2017-11-17 2020-06-02 Adobe Inc. Position-dependent modification of descriptive content in a virtual reality environment
WO2019143364A1 (en) * 2018-01-19 2019-07-25 John Alex Souppa Touch screen interface for audio signal processing in an electronic musical-effects unit
US11567610B2 (en) 2018-03-05 2023-01-31 Flatfrog Laboratories Ab Detection line broadening
US11943563B2 (en) 2019-01-25 2024-03-26 FlatFrog Laboratories, AB Videoconferencing terminal and method of operating the same
US11030940B2 (en) * 2019-05-03 2021-06-08 X Development Llc Display array with distributed audio
CN115039063A (zh) 2020-02-10 2022-09-09 平蛙实验室股份公司 改进的触摸感测设备

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10009A (en) * 1853-09-13 Cutting boots and shoes
US9025A (en) * 1852-06-15 And chas
US6597347B1 (en) * 1991-11-26 2003-07-22 Itu Research Inc. Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US6239389B1 (en) * 1992-06-08 2001-05-29 Synaptics, Inc. Object position detection system and method
US6139433A (en) * 1995-11-22 2000-10-31 Nintendo Co., Ltd. Video game system and method with enhanced three-dimensional character and background control due to environmental conditions
US6278418B1 (en) * 1995-12-29 2001-08-21 Kabushiki Kaisha Sega Enterprises Three-dimensional imaging system, game device, method for same and recording medium
US6437777B1 (en) * 1996-09-30 2002-08-20 Sony Corporation Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium
KR100537880B1 (ko) * 1997-08-08 2005-12-21 가부시키가이샤 세가 게임 장치 및 게임 시스템
US20020036617A1 (en) * 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
TW469379B (en) * 1998-02-16 2001-12-21 Sony Computer Entertainment Inc Portable electronic device
US6215498B1 (en) * 1998-09-10 2001-04-10 Lionhearth Technologies, Inc. Virtual command post
JP2000116940A (ja) * 1998-10-15 2000-04-25 Seta Corp 双方向通信型ゲームシステム
US7020326B1 (en) * 1998-11-13 2006-03-28 Hsu Shin-Yi System for guiding users to formulate and use object extraction rules
US6222465B1 (en) * 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
JP2000293280A (ja) 1999-04-07 2000-10-20 Sharp Corp 情報入力装置
US6539421B1 (en) * 1999-09-24 2003-03-25 America Online, Inc. Messaging application user interface
DE10045117C2 (de) * 2000-09-13 2002-12-12 Bernd Von Prittwitz Verfahren und Vorrichtung zur Echtzeit-Geometriesteuerung
US7445549B1 (en) * 2001-05-10 2008-11-04 Best Robert M Networked portable and console game systems
US20030050116A1 (en) * 2001-09-10 2003-03-13 William Chen Picture video signal converting/processing circuit for GBA (gameboy advance) or GBC (gameboy color)
DE10144634A1 (de) * 2001-09-11 2003-04-10 Trw Automotive Electron & Comp Bediensystem
DE10146471A1 (de) * 2001-09-21 2003-04-17 3Dconnexion Gmbh 3D-Eingabegerät mit integriertem Touchscreen
JP4054585B2 (ja) * 2002-02-18 2008-02-27 キヤノン株式会社 情報処理装置および方法
US20040233223A1 (en) * 2003-05-22 2004-11-25 Steven Schkolne Physical/digital input methodologies for spatial manipulations and entertainment
JP2006018727A (ja) * 2004-07-05 2006-01-19 Funai Electric Co Ltd 3次元座標入力装置
CN103365595B (zh) 2004-07-30 2017-03-01 苹果公司 用于触敏输入设备的手势
US20070255468A1 (en) * 2006-04-26 2007-11-01 Alps Automotive, Inc. Vehicle window control system
US20080220878A1 (en) * 2007-02-23 2008-09-11 Oliver Michaelis Method and Apparatus to Create or Join Gaming Sessions Based on Proximity
JP2009116583A (ja) * 2007-11-06 2009-05-28 Ricoh Co Ltd 入力制御装置および入力制御方法
JP2009187290A (ja) * 2008-02-06 2009-08-20 Yamaha Corp タッチパネル付制御装置およびプログラム
KR100963238B1 (ko) * 2008-02-12 2010-06-10 광주과학기술원 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과증강현실을 이용한 상호작용방법
US20090256809A1 (en) * 2008-04-14 2009-10-15 Sony Ericsson Mobile Communications Ab Three-dimensional touch interface
KR20100041006A (ko) * 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
KR101544364B1 (ko) * 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
JP5233708B2 (ja) * 2009-02-04 2013-07-10 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8289316B1 (en) * 2009-04-01 2012-10-16 Perceptive Pixel Inc. Controlling distribution of error in 2D and 3D manipulation
US10198854B2 (en) * 2009-08-14 2019-02-05 Microsoft Technology Licensing, Llc Manipulation of 3-dimensional graphical objects for view in a multi-touch display
US8400398B2 (en) * 2009-08-27 2013-03-19 Schlumberger Technology Corporation Visualization controls
US20120066648A1 (en) * 2010-09-14 2012-03-15 Xerox Corporation Move and turn touch screen interface for manipulating objects in a 3d scene
US9092135B2 (en) 2010-11-01 2015-07-28 Sony Computer Entertainment Inc. Control of virtual object using device touch interface functionality

Also Published As

Publication number Publication date
US9092135B2 (en) 2015-07-28
US20150331577A1 (en) 2015-11-19
CN103403646B (zh) 2016-10-05
EP2635955A2 (en) 2013-09-11
EP2635955A4 (en) 2017-04-05
JP2014501001A (ja) 2014-01-16
US20120110447A1 (en) 2012-05-03
WO2012060919A3 (en) 2013-08-29
US9372624B2 (en) 2016-06-21
WO2012060919A2 (en) 2012-05-10
US9575594B2 (en) 2017-02-21
US20160299624A1 (en) 2016-10-13
EP2635955B1 (en) 2018-07-25
CN103403646A (zh) 2013-11-20

Similar Documents

Publication Publication Date Title
JP5749805B2 (ja) デバイスタッチインタフェースの機能を用いる仮想オブジェクトの制御
JP5801931B2 (ja) 先行する補助的なタッチ入力に基づいたタッチスクリーンの明確化
KR101180218B1 (ko) 터치스크린과 디지털 촉각 픽셀들을 구비한 휴대용 장치
US10401964B2 (en) Mobile terminal and method for controlling haptic feedback
KR102118091B1 (ko) 오브젝트에 대한 사전 실행 기능을 가지는 모바일 장치 및 그 제어방법
KR102121533B1 (ko) 투명 디스플레이를 구비한 디스플레이 장치 및 그 디스플레이 장치의 제어 방법
TW201316208A (zh) 觸控面板之影像顯示方法及觸控面板

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150514

R150 Certificate of patent or registration of utility model

Ref document number: 5749805

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250