JP2007506165A - バーチャルリアリティ・グラフィックシステムの機能選択による制御のための三次元空間ユーザインタフェース - Google Patents

バーチャルリアリティ・グラフィックシステムの機能選択による制御のための三次元空間ユーザインタフェース Download PDF

Info

Publication number
JP2007506165A
JP2007506165A JP2006526514A JP2006526514A JP2007506165A JP 2007506165 A JP2007506165 A JP 2007506165A JP 2006526514 A JP2006526514 A JP 2006526514A JP 2006526514 A JP2006526514 A JP 2006526514A JP 2007506165 A JP2007506165 A JP 2007506165A
Authority
JP
Japan
Prior art keywords
user interface
ball
subelements
interactive device
menu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006526514A
Other languages
English (en)
Inventor
レッセラー,アンドレアス
ラルフ ブライニング
ヤン ブルスター
Original Assignee
イチド ゲゼルシャフト フェア イノバティブ インフォマティオーンスジステーマ エムべーハー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by イチド ゲゼルシャフト フェア イノバティブ インフォマティオーンスジステーマ エムべーハー filed Critical イチド ゲゼルシャフト フェア イノバティブ インフォマティオーンスジステーマ エムべーハー
Publication of JP2007506165A publication Critical patent/JP2007506165A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】
【解決手段】本提案のグラフィックユーザインタフェースは、少なくとも2つの機能を提供する機能選択とのインタラクションによってバーチャルリアリティ(VR)のグラフィックシステムを制御するためのものであるが、ただし、VRグラフィックシステムが仮想空間シーンのビジュアル化のためのプロジェクタを有している、およびVRグラフィックシステムとのインタラクションが少なくとも1つのインタラクティブデバイスで行われ、そのインタラクティブデバイスが、インタラクティブデバイスのそれぞれ実空間ポジションおよび/または方位の捕捉のためのセンサシステムと共同してVRグラフィックシステム内での、および/またはそれに向けての位置データの生成および伝送に用いられるというユーザインタフェースであって、それは主要部として特に、それぞれ上記の機能選択を行う少なくとも2つの部分素子によって機能的および視覚的に形成されたインタラクティブ素子を有しており、その少なくとも2つの部分素子がインタラクティブデバイスの実空間移動により、互に仮想空間で相対的移動が行えるように形成されていて、また、機能選択が少なくとも2つの部分素子の仮想空間における相対的相互移動によって行われるというものである。
【選択図】図2b

Description

本発明は、全般的には、バーチャルリアリティ(VR)適用のためのグラフィックシステムに、個別には、少なくとも2つの機能を提供する機能選択とのインタラクションによるそのようなVRグラフィックシステムの制御のためのグラフィックユーザインタフェースおよびそれぞれの独立請求項のプレアンブルに記載された前記VRグラフィックシステムに関する。
ここで言うVRグラフックシステムは、例えばDE 101 25 075 A1に発しており、全体としていわゆる「シーン」と言われる多数の三次元空間ビューの生成および表示に使用される。その場合そのようなシーンのビジュアル化は殆どが、スクリーンなどに対するそれ自体公知の立体鏡投射法で行われている。様々な応用領域(図1)に直観的な人間/機械間の(ユーザ)インタフェースを形成する、いわゆる侵入式VRシステムが広く普及している。記述のグラフィックシステムは、コンピュータシステムにより利用者またはユーザをビジュアルシミュレーションに強く引き付ける。ユーザのこの侵入は「イマーション」または「イマーシブ環境」と称される。
三次元のデータまたは物体の縮尺表示および同じく三次元のインタラクション性により、これらのデータまたは物体について、例えば二次元モニタおよび対応の二次元グラフィック適用表面などを使用する旧来のビジュアル化およびインタラクション技術によるよりは遥かに優れた判定および体験が可能になる。そのようにして、製品の開発では多くの物理的実体モデルおよびプロトタイプをバーチャルプロトタイプで代用することができる。同様のことは、例えば建築分野の設計業務にも当てはまる。機能プロトタイプに関しても、イマーシブ環境では旧来法によるよりも遥かに現実性のある評価が可能である。
そのようなビジュアルVRシミュレーションの制御は、コンピュータでのサポートのもと然るべきインプット装置(前記機能は純然たるデータインプットの領域を明らかに越えているので、以下では一般化して「インタラクティブデバイス」と言う)により行われる。当装置はVRシミュレーションに一時的に挿入されるユーザインタフェースと相互に作用する。インタラクティブデバイスはキーボードのほかに、VRグラフィックシステム内に設置された位置捕捉センサシステムとケーブルまたは無線連結を介して共同で作用する位置センサを有している。この位置センサは、三次元空間におけるインタラクティブデバイスの実移動、ポジションおよび方位の如何に依存してユーザインタフェースとインタラクションを行うべく、インタラクティブデバイスの三次元空間におけるポジションおよび方位を連続的に測定することができる。
前記グラフィックユーザインタフェースは、例えばDE 101 32 243 A1に開示されている。そこに記述されているケーブル式でないハンディインタラクティブデバイスは、既述の位置センサによって収集されたポジション、状態および/または移動に関するデータ(すなわち、インタラクティブデバイスの三次元位置座標)の形成および伝送に、したがってまた特に前記シーンにおける仮想空間のナビゲーションに用いられている。記述の位置データは、インタラクティブデバイスの並進および回転に関して想定可能な6つの自由度を有していて、インタラクティブデバイスの運動経路または三次元空間経路の測定にコンピュータによるサポートのもとリアルタイムで利用される。
DE 101 32 243 A1に記載されたグラフィックユーザインタフェースも、同様に三次元空間が(立体鏡により)ビジュアル化されている、特にメニューシステム、例えばインタラクティブデバイスの並進運動および/または回転運動により制御することのできるボールメニューを有している。この場合、機能またはメニューポイントの選択は、例えば、ユーザによりなされるインタラクティブデバイスの回転運動によって行われる。
これらのユーザインタフェースの場合、特に比較的操作の複雑な機能選択過程では、上記の例で言えば、機能選択システムまたはメニューシステムの操作または制御のための前記インタラクションをより簡易に、より直観的に構成することが望まれる。同時にまた、できる限り高いグレードの操作安全性および作動安全性が保証されねばならない。
ここで対象にするバーチャルリアリティ(VR)・グラフィックシステムの上記インタラクションによる制御のための本発明に基づくグラフィックユーザインタフェースは、機能的および視覚的に互に作用し合う少なくとも2つの部分素子から成るビジュアルインタラクティブ素子を有している。これらの部分素子はいずれも、それぞれ少なくとも2つの機能を含む機能選択可能性を提供する。少なくとも2つの部分から成るこのインタラクティブ素子は、主として、仮想空間のメニューシステムまたは機能選択システムの形式で実現されている。
個別に見れば、少なくとも2つある部分素子は、インタラクティブデバイスの実空間移動により、仮想空間で互に相対的に移動できるように構成されている。その場合前記の機能選択またはメニュー選択は、少なくとも2つの部分素子間における相互相対移動によって行われる。
好ましい実施態様の1つでは、少なくとも一時的にシーン内に挿入されるビジュアルインタラクティブ素子の第1部分素子が、シーン内の少なくとも一時的に固定されたポジションに表示される。その場合少なくとも第2の部分素子は、インタラクティブデバイスの実空間的になされる移動を通じて−公知の「照門/照星」原理と同様に−第1部分素子に対し機能的にも視覚的にも仮想空間を相対移動させることができ、延いては少なくとも2つの部分素子間におけるこの相対移動によって機能を発動させることができる。
別な実施態様によれば、並進的シフトの場合における少なくとも2つの部分素子間でのこの相対移動は、同様に前記シーン内でビジュアル化された接触または重なりが少なくとも部分的には起きるように行われる。それにより、前記の機能選択またはメニュー選択および延いてはユーザインタフェースの操作または制御全体が極めて直観的なものと、したがってまたユーザにとって好ましいものとなる。
特に有利な実施態様例では、提案のビジュアルインタラクティブ素子は3つの部分素子から構成されている。つまり、ボールメニューの場合で言えば、それらは一体型に形成された内部ボール、少なくとも2つのボール外殻セグメントから形成され、内部ボールの表面上に配置されたボール外殻、さらにはボールおよびボール外殻の外側領域に配置された、少なくとも2つのリングセグメントから成るリングである。この実施態様では、内部ボールはボールメニュー全体の瞬時状態、例えばメニューツリーでの瞬時ポジションにおける状態情報の表示に用いられる。すなわち、前記状態情報は、ボール外殻セグメントで表わされるメニューポイントがメインメニューなのか、または例えばメインメニューに対してヒエラルキー的に従属している下部メニューなのかを表示する。外側のリングによって誘起される機能は、本実施態様の場合特に、内部ボールと少なくとも2つあるリングセグメントの1つとの接触またはオーバラップにより作動する。
そのようなボールメニューの操作では、例えば様々なボール外殻セグメントをその組み合わせ相手となるリングセグメントとオーバラップさせるために、インタラクティブデバイスをユーザの操作誘導下で旋回させながらボール外殻セグメントを内部ボールの周りを適宜回転させることができる。また別な実施態様では、そのような制御をさらに簡易化するために、角度(例えば30°刻み)で定められる、つまりインタラクティブデバイスの回転角度に依存する噛合わせ機能が設けられているので、その結果ボール外殻セグメントとリングセグメントは常に対向位置になるため、これらのセグメント間で二義的なインタラクションの発生は殆ど排除される。
操作快適性をさらに高めるために、内部ボールとリング間の部分的な重なり/接触においてプレセット可能な量からはそれ以上の相対移動が阻止されるように追加設定することができる。それにより、上記の回転依存式噛合わせ機能に加えて、内部ボールの並進運動時になされる、ボールの想定移動経路に沿っての噛合わせも可能である。
また別な実施態様では、内部ボールのリングに対する上記並進運動をより直観的に、延いてはユーザにとってより好ましい状態に構成するために、リング素子に対する内部ボールの移動は、内部ボールが架空のゴムバンドなどを介して個別のリングセグメントに結合しているかのように行われる。それにより、同様に噛合わせ機能についても、内部ボールの並進がどのような時でも常に誘導によって、あるいはそれどころか強制によって特定リングセグメントに導かれることが、誤って例えば隣のリング素子にあてがわれたりしないことが保証される。
本発明に基づき、回転運動および並進運動によって誘起されるアクションまたは機能は、経験的にプレセット可能な閾値の利用により、ユーザによって実行されるインタラクティブデバイスの実三次元空間での並進または回転運動の量がその時々の閾値を越えた場合に初めて然るべきアクションまたは機能が発動されるように、制御または評価することができる。それにより、例えば誤ってなされたインタラクティブデバイスの実運動に起因するミス操作はより効果的に防止することができる。
さらに、本発明に基づくユーザインタフェースは、それぞれ可動的に構成された(例えば前記内部ボールの)部分素子の動きにおいて、または(例えば前記内部ボールと外側リング間の)少なくとも2つの部分素子の接触/オーバラップにおいて、これら部分素子の少なくとも1つに現われた形態または状態の変化をそのとおりにアニメーション化して視覚表示することもできる。
提案したユーザインタフェースの上記機能経過は、そのほか、インタラクティブデバイスに配置された少なくとも1つの制御素子(プレスキーなど)によってサポートすることもできる。例えば、そのような制御素子の使用により、視覚的インタラクティブ素子のその時々のシーンへの挿入だけでなく、例えば前記接触/オーバラップ機能などのアクティブ化を発動させることもできる。自明のことであるが、そのような制御素子に代えてユーザの言葉および/またはジェスチャー/表情をそれ自体公知の方法で利用することもできる。前記機能は、例えば「メニューシステムを開く」、「オーバラップ機能をアクティブ化する」などの簡単な言語命令によって実現することができる。
特に有利な別な実施態様の1つとして、前記の接触/オーバラップ機能が追加的に論理(ブール)演算機能も持つように構成することができる。すなわち、その状況下では1つの部分素子が本発明に基づくユーザインタフェースの特定の第2部分素子と接触またはオーバラップした際に特定の論理演算が実行される。その場合、その時々の論理演算子によって初めて形成される機能、メニュー選択などが実行される。本発明に基づくユーザインタフェースは、このようにして、それ自体複雑な機能経過に対しても適合させることができる。
したがって、本発明に基づくグラフィックユーザインタフェースは、結果として、例えば複数の機能面またはメニュー面を通り越す複雑なインタラクションの場合も非常に直観的に、つまりインタラクティブデバイスの(6種の自由度から成る並進および回転による)上記移動モードだけで行えるという長所を提供する。上記のオーバラップ/接触機能の利用により、例えば機能選択、メニューシステムにおいて、それぞれ様々な下部機能または下部メニュー間で、特に迅速且つ確実な切換が可能になる。
このように、本発明に基づくユーザインタフェースは、最初に挙げた現状技術に比べて、取り扱いがより簡単で、同時にユーザ側の操作ミスという観点でもより安心できるものである。したがって、この仮想空間ナビゲーションは、シーン内に挿入される様々な機能面/メニュー面によって全体として著しく簡易化される。すなわち、現状技術ではしばしば用いられる、アニメーション表示のインジケータは使用しなくてもよい。
本発明は上記の長所を持ち、ケーブル連結のなされた、またはなされていない、主にユーザの手動操作によるインタラクティブデバイス付きのVRグラフィックシステムに適用することができる。既述のように、その場合ユーザインタラクションに対しては、インタラクティブデバイスに配置されたプレスキーの前述どおりの使用のほか、一般的には、例えば言葉、ジェスチャーなど音声または光学利用のインタラクションによってもサポートすることができる。
そのほか、自明のこととして付け加えるが、提案の本ユーザーインタフェースの場合両部分素子のいずれがいずれに対して相対移動(すなわち、並進または回転)するのか、または好ましい実施態様ではそれぞれいずれが固定型に、いずれが可動型に形成されているのかは問題でない。
また本発明は、メニューシステムが記述のように少なくとも2部から構成されている限り、前記のボールメニューに代えて、グラフィック観点からは全く別様に構成された、記述の長所を持つメニューシステムに適用することもできる。例えば、平面的な三次元空間に構成されたテキストメニューシステムなどへの使用も考えられる。さらに、前記のボール状メニューシステムが楕円体、またはそれどころか多角体の空間形態からも構成できるのは自明のことである。
以下では、本発明に基づく仮想空間ユーザインタフェースについて、本発明の別な特徴および長所も含み持つ、図面に描かれた実施例を基により詳しく説明する。そこでは同一の、または機能上同じ特徴は同じ符号を付けて関連付けしている。
図1に模式的に描かれたVRグラフィックシステムには投射スクリーン100があり、人(ユーザ)105はその前に立ち、プロジェクタ110によって生成された前記位置のシーン115を立体鏡眼鏡120を装着して観察する。この場合では勿論、立体鏡眼鏡120の代りに自動式の立体鏡画像スクリーンなどを適用することもできる。そのほか、投射スクリーン100、プロジェクタ110および眼鏡120も、これら3機能すべてを含んだ、それ自体公知のデータセットに代えることもできる。
ユーザ105は手にインタラクティブデバイス125を持ち、特に実空間におけるインタラクティブデバイスの三次元ポジションおよび方位などの絶対位置データを生成し、それを位置捕捉センサシステム130〜140に伝送する。勿論それに代えて、相対的な、または差分による位置データを使用することもできるが、しかし本件の関係ではその点は重要なことではない。
インタラクティブデバイス125は、特に光学測定システム145の配置された位置捕捉システム145を有している。3種選択可能な旋回角の絶対値も3種空間方向で選択可能なインタラクティブデバイス125の並進運動方向の絶対値もこれによって捕捉され、デジタルコンピュータ150により、以下に記述しているようにリアルタイムで加工される。これらの位置データは、上記方法の代りに、加速度センサ、ジャイロスコープなどで捕捉することもできるが、これらは通例相対的な、または差分による位置データしか提供しない。ここではこれらのセンサシステムを問題にしているのではないので、詳細な説明は省くことにする。これについては最初に挙げた文献が参考になる。
上記の絶対的な位置データは、インタラクティブデバイス125と連結するコンピュータシステムによって作成される。次に、そのデータはデジタルコンピュータ150のマイクロプロセッサ160に伝送される。そこでは特に、立体鏡による三次元空間シーン115の作成のため、専門家なら熟知していると見なし得る所要のグラフィック評価過程が実施される。シーンの三次元空間表示115は、特に物体操作のビジュアル化、全シーン内での三次元空間ナビゲーション、加えて機能選択構造および/またはメニュー構造の表示に用いられる。
本実施例では、インタラクティブデバイス125はデジタルコンピュータ150に配置された受信部165と連結していて、無線通信170によるデータ交信が行われる。センサ145から位置捕捉センサシステム130〜140へ伝送される位置データは、無線ルート175〜185を通じて同様に無線で送信される。
図にはユーザ105のヘッドポジション(KP)、および投射スクリーン100またはそこに投射されたシーン115へのユーザの視線方向(BR)190も描き加えられている。これら両データは、必要であるシーン遠近描写に実質上影響を与える限り、実際に行われる立体鏡投射の計算にとって重要である。それは、影響の如何自体は公知になっているように、遠近描写がこれら両データに左右されるからである。
本実施例ではインタラクティブデバイス125にプレスキー195が備わっているので、ユーザ105はそれにより、インタラクティブデバイス125の三次元空間における上記移動可能性に加えて、図3を手掛かりに下段で説明しているように、特定のインタラクションを誘起することができる。必要に応じて、それ以外の様々なインタラクションを可能にするため、当然のことながら、別法として2つまたはそれ以上のプレスキーを配置することも可能である。既述したように、ユーザは1つまたは複数のプレスキーに代えて言葉、ジェスチャーなどによっても然るべきインプットを行うことができる。図1にはユーザ105のヘッドポジション(KP)、および投射スクリーン100またはそこに投射されたシーン115へのユーザの視線方向(BR)190も描き加えられている。これら両データは、必要であるシーン遠近描写に対して、それ自体公知である実質的な影響を与える限り、実際に行われる立体鏡投射の計算にとって重要である。
示された侵入式VRグラフィックシステムの中心的要素は、位置捕捉センサシステム130〜140によって求められた(追跡された)、三次元シーンに関するそれぞれのデータ115の立体鏡による表示である。その場合のシーン遠近描写は、観察者の立つ位置またはヘッドポジション(KP)および視線方向(BR)に依存する。そのため、ヘッドポジション(KP)が(図示されていない)三次元ポジション測定システムを通じて連続的に測定され、両眼視界体積の幾何学構造がこのポジション値に対応して適合化される。このポジション測定システムは上記の位置捕捉システム130〜140と同様のセンサシステムを有しているが、これは必要に応じて位置捕捉システムに統合することができる。各眼ごとの分離画像はそれぞれの遠近描写から算出される。その差(不均衡)が立体鏡の深度感覚を生み出す。
特に前記インタラクティブデバイス125によるユーザの各アクションはユーザ側からのインタラクションと解される。それには、図2a、2bおよび3a〜3cに記載された、インタラクティブデバイス125の動きおよびインタラクティブデバイス125に配置された1つまたは複数のプレスキー195の操作が含まれる。それに加え、例えば言葉によるインプットなどユーザの音声アクションまたはジェスチャーによる特定アクションも含めることができる。
図2aおよび2bは、本発明に基づく仮想空間ユーザインタフェースの2つの実施例を単に模式的に描いたものであるが、それを基にして、本発明に基づくユーザインタフェースの基本的な機能態様についてだけ説明する。
図2aに示された実施例では、ほぼ正方形の2つの部分素子250および255が装備されている。自明のとおり、模式的に描かれた非常に簡略なこの図は基本的な技術構想の説明に利用できるだけであって、VRグラフィックシステムのこの適用領域ではこれらの部分素子は、例えば立方体、直方体、球体など、主として立体的に構成される。本実施例では、両部分素子250、255のそれぞれは、特にユーザ側からのインタラクション用に提供される、ここでは両正方形それぞれの外縁に当たる4つのアクション素子を有している。この図ではこれら外縁の2つ260、265はそれぞれ二重線によって強調されている。破線矢印271および272が暗に示しているように、ここに描かれたインタラクションの場合部分素子250は、外縁260が外縁265に相並ぶように旋回271および移動272させられる。図2aの下半分にはインタラクション第2局面が描かれている。
両外縁260、265における両部分素子250、255の接合が、以下により詳しく説明するアクションまたは機能を発動させる。このアクションまたは機能は、特に、外縁260、265が一定距離に接近した場合に、または両者がバーチャルに(すなわち、現VRシーン内で)接触して初めて発動される。自明のように、部分素子250、255の残りの外縁間におけるインタラクションによってまた別なアクションまたは機能を発動させることができる。
図2bに描かれた実施例では、一方の部分素子は同じく正方形270の形態を取るが、それに対し第2の部分素子は正方形部分素子270の初期ポジションに同心でその周りに配置されたリング275によって形成されている。リング275は本例では4つのセグメント275に細分されている。これらセグメント275の各々には固有のアクションまたは機能が割り当てられている。
この実施例では、インタラクションは、先ず最初に正方形の部分素子270を新たな位置(すなわち、三次元空間で方位付けされた位置)280に旋回させることによって行う。その後、部分素子270は、ここでは動きの例としてのみ示した両矢印290に相応する並進運動によって(丸囲みの)「1」で示されたポジション、または同様に「2」で示されたポジションに移動させる。例「1」では正方形の部分素子270、280はそれぞれのエッジ部分295、295’(仮想)において、図示されたリング素子と接触し、それによってアクションまたは機能が発動される。もう一方の「2」の場合では両部分素子270、275が図に示されたようなオーバラップ285の状態に到って初めてアクションまたは機能が発動される。
なお、上記の両部分素子はこれに代るまた別な実施態様として、例えば相互接近する方向に移動させ得ることを注記しておかねばならない。すなわち、ここでは専らこうした両部分素子間の相対移動が問題になる。その上、ユーザは両部分素子を両手で制御することさえ可能である。その場合では各々の手に前記のインタラクティブデバイスをそれぞれ持つことになる。
図3aは、本発明に基づくユーザインタフェースの好ましい実施例、すなわち既に説明したボールメニューシステムを描いた透視図である。続いて描かれた図3bおよび3cは、このボールメニューシステムにおける典型的な2つのインタラクション経過を示している。
本実施例では、インタラクティブデバイスにはユーザの主に親指と人差し指で操作することのできる2つのプレスキー195(図1)が付いていると想定する。これら両プレスキーは2つのモードで使用することができる。すなわち、短くプッシュ(クリック)するのと比較的長く押す(ホールドする)のとがある。これら2つのアクションにより計4通りのインタラクションが生まれる。つまり、本実施例では次のとおりである:親指によるクリック=中断、人差し指によるクリック=アクション、親指によるホールド=捕捉、人差し指によるホールド=メニュー。グラフィックメニューシステムの捕捉は親指に振り分けられたプレスキーのホールドにより、メニューの保持は親指キーの押し続けにより行われる。既にシーン内へ挿入されたメニューシステムは、人差し指キーのプッシュおよびホールドによってアクティブ化することができる。機能の終了または中断は親指キーのクリックによって行う。
図3aから見て取れるように、本ボールメニューシステムは3部構成であり、内部は、既述したように、メニューシステムのメニューヒエラルキーに関する瞬時状態提示のためのステータス表示を行うメニューボール200から成っている。内部メニューボール200は4つに分けられたボール外殻205に取り囲まれている。このボール外殻を通じて、回転毎に主要メニュー(「メイン」)の各種メニューエントリーを、つまり、ここではエントリー「グループ」、「スナップ」、「ステート」および「ミーンズ」をアクティブ化することができる。外側に位置するメニューリングの対応する4つのセグメント210には、別な4つのメニューエントリー「ワーク」、「シングル」、「フライ」および「エキストラ」がある。
したがって、3部構成である当ボールメニューシステム200〜210の主要メニュー(「メイン」)には8種類のメニューエントリーが含まれていて、そのうち4つのエントリーには(ここには図示されていない)インタラクティブデバイス125の回転(旋回)を通じて、他の4つにはインタラクティブデバイス125の並進(移動)を通じて到達することができる。
ユーザ側の手動交信に基づくインタラクティブデバイス125の実空間における旋回により、それに呼応して内部メニューボール200が回転する。旋回角度が60°を過ぎると、内部メニューボール200はその前の方位から90°移行した方位で止まる。すなわち、噛合い機能の「遊び」はこの場合30°である。この噛合いは、本例ではインタラクティブデバイス125の両プレスキーのうちの一方を解放することによってアクティブ化する。
内部ボール200は、「ゴムバンド状の」ガイド215によってプレセットされた4つの想定並進路の1つに沿って移行(並進)させることにより、リング状に配置された4つのメニューエントリー210のほうへ移動させることができる。それぞれのメニューエントリー210に対応する機能は、内部ボール200がそれぞれのリング素子210に接触またはオーバラップしたときにアクティブ化する(図2c)。それによって、様々なメニューまたは下部メニュー間で迅速な切換が可能になる。
図3bおよび3cには、ボール外殻205の回転およびボール外殻205の並進移動によって機能選択する場合に見られる、それぞれ数字1〜3で示された典型的なインタラクション経過が図解されている。
回転だけの場合では(図3b)、先ず最初にインタラクティブデバイス125の2つあるプレスキー195の1つを押し、そのまま押し続ける。それによって先ずメニューシステムが現シーンへ挿入される。その後ユーザはインタラクティブデバイス125を実旋回させる。本例では30°であるインタラクティブデバイスの実旋回閾値からは、内部ボール200も呼応して旋回し始める。プレスキー195の解放によって、内部ボール200またはボール外殻205はそれぞれ30°の調整幅を持つ次の停止点で噛合う。それにより、本例では噛合い機能「スナップ」が選択されたことになる。
移行だけの場合(図3c)でも、プレスキー195を押してそのまま保持する。それにより、先ず最初にシーン内にメニューシステムが現われる。インタラクティブデバイス125の実並進運動により、内部ボール200はボール外殻205と共々、リングセグメント210と接触またはオーバラップするまで移行する。この接触が起きるや否や、新たなメニューまたは下部メニューが現われるか、あるいはプレセットされた機能選択が行われる。図に示されているように、並進運動だけで既にボール外殻に形態変化が起きる。ボールまたはボール外殻とそれぞれ対応のリングセグメント210との間の接触またはオーバラップの場合でも、ボール外殻205について然るべきアニメーション化を行うことができる。
本実施例では、そのほか、ボール外殻205またはボール200とそれぞれの対応リングセグメント210との間でプレセットされた一定の部分的重なりまたは部分的接触の位置からは両部分素子間でそれ以上相対的移動が起こらないように、つまり得られる噛合いが並進移動時にほぼ匹敵するように設定されている。
変法の1つによれば、図2bおよび3cに示されている、ボール外殻205のメニューエントリーとリング210(図3c)のメニューエントリー間のオーバラップ時におけるオーバラップ依存のインタラクションをアクティブ化して、その際組み合わされたメニューエントリーが同時に論理的(ブール)結合を行うように設定することができる。したがって、例えば、図3bに示された、リングセグメント210の1つとの接触時またはオーバラップ時における「スナップ」機能が組み合わせ機能「シングル/スナップ」または「エキストラ/スナップ」機能をアクティブ化するように設定することができる。勿論、そのような“and”結合に代えて“or”とか“not”など別な結合形態の態勢を取ることもできる。
図4は、本発明に基づくユーザインタフェースの制御における典型的な機能経過をフローチャートにして示している。ルーチンのスタート300後、まずループ回路によりインタラクティブデバイス125の特定プレスキーが作動状態になったか否かをチェックする305。肯定的結果であれば、図2aおよび2bに示された両部分素子250、255および270、275を現VRシーンに挿入する310。そうでなければ、上記のループ回路に従ってステップ305を新たに試みるが、必要であれば幾らか時間をずらして行う。
ステップ315では、インタラクティブデバイスの実動によって誘起された、両部分素子250、255、270、275の少なくとも1つの仮想移動がシーン内で行われたか否かをチェックする。両部分素子のいずれにも全く動きが認められなかった場合には、ステップ310に立ち戻る。そうでない場合は、動き(回転または並進)を視覚的にも示すため、シーン内のそれぞれの部分素子をそのような動きに沿って特にアニメーション表示する320。続いてのステップ325では、両部分素子250、255、270、275が三次元空間で接触(または接近)が起きるか否かをチェックする。結果が肯定的でなければ、直ぐ上で説明したステップを改めて行うためにステップ310に立ち帰る。そうでない場合は、それぞれの接触領域または取り込まれたそれぞれのリングセグメント275に依存して特定のアクションまたは機能が発動される330。最後にステップ335では、ステップ330で発動した機能が全操作手続を終了させる機能であるか否かをチェックする。ここではこれに代えて、上記終了の目的を持つ前記プレスキーが改めて作動状態になったか否かをチェックすることもできる。肯定的な結果であれば、ステップ340で操作手続を終了する。そうでなければ、所定のステップを改めて実行するため、ステップ310に立ち帰る。
最後の図5には、図3a〜3cに描かれた、本発明に基づくユーザインタフェースの実施例における典型的な機能経過が示されている。上記ルーチンのスタート400後、先ず最初にループ回路形態で、インタラクティブデバイス125の(場合によっては定められた)プレスキー195(ここでは上記の親指キー)がユーザの操作により作動したか否かをチェックする405。プレスキーの作動が確認されれば、ループ回路を解除して、次のステップ410では前記のボールメニューシステム200〜210をシーン内に挿入する。続いて、インタラクティブデバイス125がユーザの操作によって回転するに到ったか否かをチェックする415。この条件415に前記当すれば、次に、ユーザ操作によるインタラクティブデバイス125の旋回時に、プレセット可能な回転閾値(ここでは30°)を越えたか否かをチェックする420。この条件420にも合致していれば、ボール外殻を機能、視覚双方の観点からその時々の新たな角度方位に噛合わせる425。
インタラクティブデバイスに旋回運動が捕捉されなかった場合415、または旋回が捕捉されても上記の閾値を越えなかった場合420は、ステップ430に移行し、そこでさらに、インタラクティブデバイス125が(並進)移動したか否かをチェックする。この条件430に合致していれば、それに呼応して移行したシーン内のボール200またはボール外郭205を、例えば図2cに示された方法でアニメーション化する435。その後、内部メニューボール200と外側リングセグメント210の1つとが接触またはオーバラップしたか否かをチェックする440。肯定的な結果であれば、ステップ445ではオーバラップしたリングセグメント210に割り当てられた機能またはメニュー選択がアクティブ化または発動される。
しかし、条件430が満たされなければ、またはこの条件430が満たされても条件440が満たされなければ、ステップ450に跳んで、ステップ445で発動した機能が、ボールメニューシステムを現シーンから再び退場させる意図を持って操作手続全体を終了させる機能であるか否かをチェックする。ここでは、それに代わり、プレスキーが改めて作動の状態になったか否かなどをチェックすることもできる。最終的にはこの条件450に該当すれば、ルーチンを終えるか455、またはインタラクションを前記の方法で改めて検出するためにステップ415に立ち帰る。
図1は、現状技術による、前記侵入式VR(バーチャルリアルティ)グラフィックシステムの簡略全体図である。 図2aは、本発明に基づく仮想空間ユーザインタフェースの2つの実施例についての模式図である。 図2bは、本発明に基づく仮想空間ユーザインタフェースの2つの実施例についての模式図である。 図3aは、図1に示されたVRグラフィックシステム(図2a)における使用のための、本発明に基づくユーザインタフェース(この場合はボールメニュー)についての好ましい実施例の透視図および図3aに示されたユーザインタフェースの使用による典型的な2つのインタラクション経過(図3bおよび3c)である。 図3bは、図1に示されたVRグラフィックシステム(図2a)における使用のための、本発明に基づくユーザインタフェース(この場合はボールメニュー)についての好ましい実施例の透視図および図3aに示されたユーザインタフェースの使用による典型的な2つのインタラクション経過(図3bおよび3c)である。 図3cは、図1に示されたVRグラフィックシステム(図2a)における使用のための、本発明に基づくユーザインタフェース(この場合はボールメニュー)についての好ましい実施例の透視図および図3aに示されたユーザインタフェースの使用による典型的な2つのインタラクション経過(図3bおよび3c)である。 図4は、本発明に基づくユーザインタフェースの制御における、フローチャートで表わした典型的な機能操作経過である。 図5は、図3a〜3cに示されたユーザインタフェースについて図4より仔細に記された機能操作経過である。

Claims (16)

  1. バーチャルリアリティ(VR)グラフィックシステムが仮想空間シーンのビジュアル化のためのプロジェクタを有し、かつVRグラフィックシステムとのインタラクションが少なくとも1つのインタラクティブデバイスで行われ、そのインタラクティブデバイスが、インタラクティブデバイスのそれぞれ実空間ポジションおよび/または方位の捕捉のためのセンサシステムと共働してVRグラフィックシステム内での位置データの供給に用いられるという、少なくとも2つの機能を提供する機能選択とのインタラクションによってVRグラフィックシステムを制御するためのグラフィックユーザインタフェースであって、それぞれ上記の機能選択を行う少なくとも2つの部分素子から機能的および視覚的に形成されているインタラクティブ素子を有していることを特徴とし、その少なくとも2つの部分素子がインタラクティブデバイスの実空間移動により、互に仮想空間で相対的移動が行えるように形成されている、また、上記の機能選択が少なくとも2つの部分素子の仮想空間における相対的相互移動によって行われる前記ユーザインタフェース。
  2. 前記部分素子の少なくとも1つが、少なくとも一時的には、実質上固定している仮想シーンのポジションに表示され、その場合前記の機能選択が、少なくとも一時的には固定ポジションに表示される部分素子に対しそれぞれ別の部分素子の仮想空間での相対移動によって行われることを特徴とする、請求項1に記載のユーザインタフェース。
  3. 相対する少なくとも2つの部分素子の相対移動において、少なくとも2つの部分素子間で少なくとも部分的な接触またはオーバラップが起きた際に機能選択が発動されることを特徴とする、請求項1または2に記載のユーザインタフェース。
  4. メニューシステム、機能選択システムなどの形態を取る、少なくとも2つの構成部からなるインタラクティブ素子が実現されることを特徴とする、請求項1〜3のうちの1項に記載のユーザインタフェース。
  5. 前記インタラクティブ素子が、一体型に形成された内部ボール、少なくとも2つのボール外殻セグメントから形成され内部ボールのビジュアル表面上に配置されたボール外殻、さらにはボールおよびボール外殻の外側領域に配置された、少なくとも2つのリングセグメントから成るリングを含む3つのビジュアル部分素子を擁するボールメニューシステムによって形成されていること、さらにその場合、内部ボールがボールメニューシステムの瞬時状態に関する状態情報の表示に用いられることを特徴とする、請求項4に記載のユーザインタフェース。
  6. 状態情報機能が、ボール外殻セグメントにおけるメニューツリーに従って瞬時アクティブ化されるメニュー平面を表示することを特徴とする、請求項5に記載のユーザインタフェース。
  7. 各種ボール外殻セグメントのアクティブ化を可能にするために、それぞれのボール外殻セグメントがユーザの操作によるインタラクティブデバイスの旋回に対応して内部ボールの周りを回転することができることを特徴とする、請求項5または6に記載のユーザインタフェース。
  8. 前記インタラクティブデバイスおよび/または各部分素子の回転角に依存する噛合い機能が装備されていることを特徴とする、先行請求項のうちの1項に記載のユーザインタフェース。
  9. 前記インタラクティブデバイスの実回転運動および/または実並進運動に基づき誘導されるインタラクションにおいては、経験的にプレセット可能な閾値を越えて初めて対応のインタラクションが発動されることを特徴とする、先行請求項のうちの1項に記載のユーザインタフェース。
  10. 少なくとも2つの部分素子間におけるオーバラップまたは接触においてプレセット可能な量からは、部分素子間のそれ以上の機能的および/または視覚的な相対移動が阻止されることを特徴とする、請求項3〜9のうちの1項に記載のユーザインタフェース。
  11. 少なくとも2つの部分素子間において相対移動が誘導下で行われることを特徴とする、先行請求項のうちの1項に記載のユーザインタフェース。
  12. シーン内での回転および/または並進および/または接触の際には、部分素子の少なくとも1つの視覚表示がアニメーション化された形式で行われることを特徴とする、先行請求項のうちの1項に記載のユーザインタフェース。
  13. 前記インタラクティブデバイスが、ユーザインタフェースにおける上記の機能操作経過を少なくともサポートする少なくとも1つの制御素子を有していることを特徴とする、先行請求項のうちの1項に記載のユーザインタフェース。
  14. 前記ユーザインタフェースにおける上記の機能操作経過が、ユーザの言葉によるインプットおよび/またはジェスチャーまたは表情の捕捉によりサポートされていることを特徴とする、先行請求項のうちの1項に記載のユーザインタフェース。
  15. 前記の接触またはオーバラップの機能に少なくとも論理演算が含まれていることを特徴とする、先行請求項のうちの1項に記載のユーザインタフェース。
  16. 先行請求項のうちの1項に記載されたグラフィックユーザインタフェースを有するバーチャルリアリティ(VR)グラフィックシステム。
JP2006526514A 2003-09-19 2004-09-16 バーチャルリアリティ・グラフィックシステムの機能選択による制御のための三次元空間ユーザインタフェース Pending JP2007506165A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10343967A DE10343967A1 (de) 2003-09-19 2003-09-19 Räumliche Benutzungsschnittstelle zur Steuerung eines Graphiksystems der virtuellen Realität mittels einer Funktionsauswahl
PCT/DE2004/002078 WO2005029302A2 (de) 2003-09-19 2004-09-16 Räumliche benutzungsschnittstelle zur steuerung eines graphiksystems der virtuellen realität mittels einer funktionsauswahl

Publications (1)

Publication Number Publication Date
JP2007506165A true JP2007506165A (ja) 2007-03-15

Family

ID=34353014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006526514A Pending JP2007506165A (ja) 2003-09-19 2004-09-16 バーチャルリアリティ・グラフィックシステムの機能選択による制御のための三次元空間ユーザインタフェース

Country Status (5)

Country Link
US (1) US20070277112A1 (ja)
EP (1) EP1665014A2 (ja)
JP (1) JP2007506165A (ja)
DE (1) DE10343967A1 (ja)
WO (1) WO2005029302A2 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006051967A1 (de) * 2006-11-03 2008-05-08 Ludwig-Maximilians-Universität Digitales Informationsverarbeitungssystem mit Benutzerinteraktionselement
US8462109B2 (en) 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US8250921B2 (en) 2007-07-06 2012-08-28 Invensense, Inc. Integrated motion processing unit (MPU) with MEMS inertial sensing and embedded digital electronics
US8141424B2 (en) 2008-09-12 2012-03-27 Invensense, Inc. Low inertia frame for detecting coriolis acceleration
US8508039B1 (en) 2008-05-08 2013-08-13 Invensense, Inc. Wafer scale chip scale packaging of vertically integrated MEMS sensors with electronics
US8952832B2 (en) 2008-01-18 2015-02-10 Invensense, Inc. Interfacing application programs and motion sensors of a device
US7934423B2 (en) 2007-12-10 2011-05-03 Invensense, Inc. Vertically integrated 3-axis MEMS angular accelerometer with integrated electronics
WO2010124074A1 (en) * 2009-04-22 2010-10-28 Terrence Dashon Howard System for merging virtual reality and reality to provide an enhanced sensory experience
US20100287505A1 (en) * 2009-05-05 2010-11-11 Sony Ericsson Mobile Communications Ab User Input for Hand-Held Device
JP5143856B2 (ja) * 2010-04-16 2013-02-13 株式会社ソニー・コンピュータエンタテインメント 3次元画像表示装置、および3次元画像表示方法
EP2506118A1 (en) * 2011-03-29 2012-10-03 Sony Ericsson Mobile Communications AB Virtual pointer
US20150035823A1 (en) * 2013-07-31 2015-02-05 Splunk Inc. Systems and Methods for Using a Three-Dimensional, First Person Display to Convey Data to a User
US10380799B2 (en) 2013-07-31 2019-08-13 Splunk Inc. Dockable billboards for labeling objects in a display having a three-dimensional perspective of a virtual or real environment
DE102015003883A1 (de) * 2015-03-26 2016-09-29 Audi Ag Kraftfahrzeugsimulationsanordnung zur Simulation einer virtuellen Umgebung mit einem virtuellen Kraftfahrzeug und Verfahren zur Simulation einer virtuellen Umgebung
US10313652B1 (en) 2016-08-18 2019-06-04 Relay Cars LLC Cubic or spherical mapped content for presentation of pre-rendered images viewed from a fixed point of view in HTML, javascript and/or XML for virtual reality applications
US11747954B1 (en) * 2022-03-10 2023-09-05 Samsung Electronics Company, Ltd. Systems and methods for organizing contents in XR environments

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE29911751U1 (de) * 1999-07-08 1999-10-07 Winkler Thoralf Benutzeroberflächen für Internetseiten
JP2001325615A (ja) * 2000-05-18 2001-11-22 Sony Corp 3次元モデル処理装置、および3次元モデル処理方法、並びにプログラム提供媒体
DE10132243C2 (de) * 2001-07-04 2003-04-30 Fraunhofer Ges Forschung Kabelloses Interaktionssystem für Anwendungen der virtuellen Realität

Also Published As

Publication number Publication date
DE10343967A1 (de) 2005-04-28
WO2005029302A2 (de) 2005-03-31
EP1665014A2 (de) 2006-06-07
US20070277112A1 (en) 2007-11-29
WO2005029302A3 (de) 2005-11-17

Similar Documents

Publication Publication Date Title
JP4956626B2 (ja) 無人車両の状態および制御を提供する、拡張現実ベース型システムおよび方法
CN108780360B (zh) 虚拟现实导航
JP2022535316A (ja) スライドメニューを有する人工現実システム
JP2007506165A (ja) バーチャルリアリティ・グラフィックシステムの機能選択による制御のための三次元空間ユーザインタフェース
JP6057396B2 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
KR20190009846A (ko) 원격 호버 터치 시스템 및 방법
JP2022535315A (ja) 自己触覚型仮想キーボードを有する人工現実システム
CA2675276C (en) System and method for controlling a virtual reality environment by an actor in the virtual reality environment
EP2661091B1 (en) Controlling a graphical user interface
CN113892074A (zh) 用于人工现实***的手臂凝视驱动的用户界面元素选通
US20190332182A1 (en) Gesture display method and apparatus for virtual reality scene
CN115004128A (zh) 基于注视计时器的用户输入设备的功能增强
CN109416589A (zh) 交互***与交互方法
CN115598831A (zh) 提供精准眼动追踪的光学***和相关方法
JP4678428B2 (ja) 仮想空間内位置指示装置
US20070200847A1 (en) Method And Device For Controlling A Virtual Reality Graphic System Using Interactive Techniques
JPH08257948A (ja) ロボットの遠隔操作装置
Ainasoja et al. Smartphone teleoperation for self-balancing telepresence robots
KR20090085821A (ko) 인터페이스 장치와 이를 이용한 게임기 및 컨텐츠 제어방법
JP4186742B2 (ja) 仮想空間内位置指示装置
Park et al. 3D Gesture-based view manipulator for large scale entity model review
JP2018045338A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
Kächele Cubihand: a handy toolkit to interact with distant objects in mixed reality
JP2022025475A (ja) アニメーション制作システム
CN118295520A (en) Information processing apparatus, information processing method, and storage medium