JP6757404B2 - シースルー・グラス用の補助アイテム選択 - Google Patents

シースルー・グラス用の補助アイテム選択 Download PDF

Info

Publication number
JP6757404B2
JP6757404B2 JP2018509878A JP2018509878A JP6757404B2 JP 6757404 B2 JP6757404 B2 JP 6757404B2 JP 2018509878 A JP2018509878 A JP 2018509878A JP 2018509878 A JP2018509878 A JP 2018509878A JP 6757404 B2 JP6757404 B2 JP 6757404B2
Authority
JP
Japan
Prior art keywords
user
view
field
given
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018509878A
Other languages
English (en)
Other versions
JP2018525750A (ja
JP2018525750A5 (ja
Inventor
アローム,ヴィンセント
ジュエ,ピエリック
ロバート,フィリップ
Original Assignee
インターデジタル シーイー パテント ホールディングス
インターデジタル シーイー パテント ホールディングス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターデジタル シーイー パテント ホールディングス, インターデジタル シーイー パテント ホールディングス filed Critical インターデジタル シーイー パテント ホールディングス
Publication of JP2018525750A publication Critical patent/JP2018525750A/ja
Publication of JP2018525750A5 publication Critical patent/JP2018525750A5/ja
Application granted granted Critical
Publication of JP6757404B2 publication Critical patent/JP6757404B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0123Head-up displays characterised by optical features comprising devices increasing the field of view
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は一般に、拡張現実インタラクティブ・システムに関し、より詳細には、シースルー・グラスを使用する拡張現実インタラクティブ・システムに関する。
このセクションは、技術の様々な態様を読者に紹介するものであり、これらの態様は、以下で説明され、かつ/または特許請求の範囲に記載されている本発明の様々な態様に関連していてもよい。理解がさらに進むよう、読者に背景情報を提示する際に、この考察が有益であると考えられる。したがって、こうした説明は、この観点から読むべきであり、従来技術を認めるものとして読むべきではないことを理解されたい。
拡張現実(AR)システムは、1つまたは複数の拡張された要素がコンピュータで生成される、現実シーンの統合ライブ・ビューを提供する没入型環境を作成する。ARシステムは、音声、ビデオ、グラフィックス、におい、触覚のフィードバック、または他のこうしたデータなどの感覚入力を組み込む。このようにして、デジタル操作およびデジタル処理を介して、ユーザが利用可能な現実の世界の情報をさらに改善することができ、またデジタル的に機能強化された構成要素によって、ユーザの環境およびその周囲の対象物をオーバレイすることができる。近年、ユーザが身につける拡張現実システムが、その可搬性および使いやすさによって人気を博してきている。シースルー・グラスまたはスマート・グラスが、このようなシステムの最も普及している形態の1つである。残念ながら、こうしたグラスのユーザは多くの問題に遭遇してきており、それというのも、ユーザの使用を可能にする技術に欠点があるからである。たとえば、多くのグラスは、ユーザがそのグラスを通して指定角度で見るときにしかうまく機能しない。特に、各対象物が完全または部分的に互いを遮る場合は、やはりユーザ入力を提供することが困難であった。スマート・グラスの機能が制限されているので、他の深刻な問題も存在する。
したがって、最適化された方式で正確なデータを提供し、ユーザ入力を処理することが重要であり、これによって、非常に優れた没入型体験をユーザに提供する。
拡張現実(AR)のインタラクティブ・システムおよび方法が提示される。一実施形態では、このシステムは、ユーザ入力を受信するように構成されたヘッドマウント型のユーザ・インターフェース、ユーザ入力に基づいてデータを管理するように構成されたプロセッサ、カメラ、および表示装置を備える。プロセッサを介して、ヘッドマウント型のユーザ・インターフェースと同様に、カメラと表示装置は互いに通信している。プロセッサは、センサの出力に基づいてユーザの視野およびユーザの視野の中央を決定し、表示装置に出力するための画像をレンダリングするように構成される。画像のそれぞれは、1つまたは複数の対象物および複数の標識を含み、この標識のそれぞれが、ユーザの視野内の選択可能な対象物に対応する。画像のレンダリングは、ユーザの視野が所与の標識の中央にあると判定されることに基づいて、表示された複数の標識のうち所与の標識の第1の表示属性を改変することを含む。プロセッサも、閾値を超える一定の時間において、ユーザの視野が所与の標識の中央にとどまっていると判定されることに基づいて、所与の標識を選択するように動作する。
別の実施形態では、ユーザ入力を受信するように構成されたユーザ・インターフェースを有する拡張現実ヘッドマウント型のユーザ・インターフェースを使用するアイテム選択の方法が提供され、この方法は、プロセッサを介してユーザの視野およびユーザの視野の中央を決定すること、ならびに表示装置に出力するための画像をレンダリングすることを含み、前記画像はそれぞれ、1つまたは複数の対象物、およびユーザの視野内の選択可能な対象物にそれぞれ対応する複数の標識を含み、画像のレンダリングは、ユーザの視野が所与の標識の中央にあると判定されることに基づいて、表示された複数の標識のうち所与の標識の第1の表示属性を改変することを含む。この方法も、閾値を超える一定の時間において、ユーザの視野が所与の標識の中央にとどまっていると判定されることに基づいて、所与の標識を選択することを含む。
さらに別の実施形態では、音声、動き、またはタッチの形態でユーザを受信するユーザ・インターフェース手段、ならびに前記ユーザ・インターフェース手段およびプロセッサとの通信を処理する際に、画像を表示する手段を含む、拡張現実(AR)インタラクティブ・システムが提供される。プロセッサは、センサの出力に基づいてユーザの視野およびユーザの視野の中央を決定すること、ならびに表示装置に出力するための画像をレンダリングすることを実行するように動作し、それぞれの画像は、1つまたは複数の対象物、およびユーザの視野内の選択可能な対象物にそれぞれ対応する複数の標識を含み、画像のレンダリングは、ユーザの視野が所与の標識の中央にあると判定されることに基づいて、表示された複数の標識のうち所与の標識の第1の表示属性を改変することを含む。プロセッサも、閾値を超える一定の時間において、ユーザの視野が所与の標識の中央にとどまっていると判定されることに基づいて、所与の標識を選択するように動作する。
本発明の各技法を用いて、追加の特徴および利点が実現される。本発明の他の実施形態および態様が、本明細書において詳細に記述され、特許請求される本発明の一部分とみなされる。利点および特徴とともに本発明をより良好に理解するために、説明および図面を参照されたい。
添付図を参照して、決して限定的ではない以下の実施形態および実行例によって、本発明がより良好に理解および例示されよう。
例示的な一実施形態による拡張現実(AR)インタラクティブ・システムを示す。 図1の実施形態に示すシステムなど、拡張現実インタラクティブ・システムを使用する、ユーザ・ビューの図を示す。 自動配置されて中央に収束する標識が、例示的な一実施形態による現実/仮想の対象物のシステムに通知する、ユーザ・ビューの図を示す。 アイテム選択トリガの直前のユーザを示す、一実施形態の図である。 図3Aと同じだが、アイテム選択がトリガされた後の実施形態を示す。
図1〜3において、示された各図は、単に機能的な要素であって、物理的に別々の構成要素には必ずしも対応していない例を示す。すなわち、こうした構成要素は、ソフトウェア、ハードウェアの形態で開発することもでき、または、1つもしくは複数のプロセッサを含む、1つもしくはいくつかの集積回路で実装することもできる。
可能な限り、同じまたは同様の部分を指すために、各図全体を通して同じ参照番号を使用する。
本発明の各図および説明は、本発明を明確に理解するのに適切な要素を例示するよう簡略化されてきており、明確にするために、典型的なデジタル・マルチメディア・コンテンツ・デリバリの方法およびシステムで見られる、他の多くの要素を割愛してあることを理解されたい。しかし、このような要素は当技術分野でよく知られているので、本明細書においては、このような要素の詳細な議論をおこなわない。本明細書での開示は、このような全ての変形形態および修正形態を対象とする。
図1は、一実施形態による拡張現実(AR)インタラクティブ・システム100を示したものである。この拡張現実インタラクティブ・システム100は、ユーザ・インターフェースおよび表示装置と連動しているプロセッサ140を含む。図1のユーザ・インターフェースは、タッチ、音声、身体の動きなど、様々な形式でユーザ入力を受信できる様々な構成要素を含む。代替実施形態では、他のユーザ入力を追加することができ、または代替的に、そうした構成要素のうちの1つまたはサブセットを受け入れることができる。
図1の実施形態でのユーザ・インターフェースは、プロセッサ140を介して、タッチ・インタラクティブ区域160、センサ170、カメラ150、およびマイクロホン180と通信する、ヘッドマウント型のユーザ・インターフェース(ヘッドマウント装置とも呼ばれる)110を含む。一実施形態では、センサは、モーション・センサとすることができるが、他の実施形態では、このセンサは、光、熱、湿気に反応し、かつ/またはジャイロおよびコンパスの構成要素をも含む、様々なセンサのうちの1つとすることができる。
図1に示した例では、やはり互いに通信している複数のプロセッサ140が設けられている。一例として、各プロセッサが様々な区域に埋め込まれており、たとえばタッチ・インタラクション区域160に埋め込まれているものもあれば、ヘッドマウント型の構成要素110に埋め込まれているものもある。しかし、これは、ほんの一実施形態である。代替実施形態では、1つのプロセッサのみを使用することができ、このプロセッサは独立型でもよい。さらに、プロセッサは、他のコンピュータまたはコンピューティング環境、およびネットワークとの通信を処理することができる。図1では、カメラ150(ビデオ・カメラなど)およびマイクロホン180を使用して、拡張現実の画像および音声をユーザに提供することもできる。一実施形態では、マイクロホンは、プロセッサまたは処理システムに入力を供給することができる。1つまたは複数のスピーカ(すなわちラウドスピーカ)を使用して、改善された音声をユーザに提供して、没入型の拡張現実体験を高めることもできる。一実施形態では、スピーカは、ヘッドマウント型のユーザ・インターフェースに含まれていてもよく、または別々の要素として設けてもよく、または他の構成要素に取り付けてもよい。
図1の実施形態では、ヘッドマウント型のユーザ・インターフェース110は、1対のシースルー・グラスを含み、このシースルー・グラスはレンダリング画面130と呼ばれる画面を含む。一実施形態では、このグラスは、ユーザが装着している通常のグラスでもよく、レンダリング画面は、ARシステム100とともに使用するため、永久および/または一時的にグラスに付加してもよい。
ヘッドマウント型のユーザ・インターフェース、特にシースルー・グラスにより、正しく有効化された場合、適切なプライバシーと携帯性の両方をユーザに提供できるという利点がもたらされる。残念ながら、従来技術では依然として、これらのグラスが小さいタッチ区域または音声制御モードを必要とするという点で、従来のユーザ・インターフェース装置をこれらのグラスが使用する必要がある。仮に存在している場合、任意のジェスチャ認識機能が非常に基本的であるが、これは、ユーザ・フレンドリではない扱いにくいセットアップだらけだという大きな欠点がある。
図1の実施形態では、タッチ・インタラクション区域が設けられるが、これはほんの一例であり、構成要素は必要でない。実際、一実施形態では、任意のタッチ・インタラクション区域は必要ない。ユーザ・インターフェースは、音声、カメラ、または、モーション・センサなどの1つもしくは複数のセンサを用いて実現することができ、これらが有効化されて、扱いにくい追加セットアップなしにジェスチャを登録する。たとえば、ユーザには、仮想的にユーザ入力を提示することができ、ユーザは、同じバーチャル・リアリティ環境を共有していないものに、空中の存在していない物理的対象物をタイプ入力または指し示すように見えるよう、この物理的対象物を指し示すだけでもよい。別の実施形態では、キーボードがユーザの手に表示されてもよく、ユーザは、自分の他の指を使用して自分自身の手に押しつけて、このように選択することによって入力してもよい。
従来、コンピュータ、タブレットやスマートフォンなどのモバイル装置などのマルチメディア装置との、多くのユーザの対話が、キーボード、マウス、タッチ・スクリーンなどのユーザ・インターフェースによって実行される。技術が改良されるにつれて、これらのインタラクション・モードによっては、魅力のないまたは扱いにくいものになる場合がある。たとえば、ユーザが旅行している間は、移動の自由が重要であるが、従来のユーザ・インターフェースおよびユーザ接続が必ずしも利用可能になるとは限らない。可搬性の観点から、音声コマンドが、ユーザ入力を提供する魅力的な手段であるが、プライバシーが最も重要な問題である状況において、音声コマンドにはある種の欠点がある。他の状況では、音声コマンドを使用しているとき、対象物を区別するのに一見類似した様々な異なることが、問題を起こす場合もある。
専用のタッチ区域を選択することも、それ自体の課題を提示する。最大の可搬性を実現するため、タッチ区域のサイズは、最小限に保っておかなければならない。たとえば、タッチ区域は、グラスの柄に配置するように設計してもよい。このような区域を相対的に小さく保とうとすることにより、タッチの位置が都合悪く配置されることになり、または、このサイズによって、多くの用途で必要となるポインタの移動を制御する機能を制限することにもなる。さらに、これが、ユーザの視野に影響を及ぼし、この視野を非常に狭く保つことにもなる(すなわち、現状の従来技術では30°以下)。この理由は、拡張現実環境の視野が、シースルー・グラスを通して見える残りの(実際の)シーンに対して確定されることである。最終的な結果として、ユーザがそうした小さい区域の外側を指し示すことはできず、ユーザが見ているもののほとんどを制限しない(最終的に頭を動かすことなく指し示すことができない)。
一実施形態では、ヘッドマウント型のユーザ・インターフェース110は、マイクロホン、ビデオ・カメラ、タッチ・インタラクション区域、レンダリング画面、スピーカなど、議論された構成要素を収容するかまたは物理的に接続するように製造することができる。これらの構成要素のいくつかは、別々に設けてもよいが、実施形態によっては、都合よく1つのハウジング・ユニットに設けてもよい。たとえば、タッチ・インタラクション区域160は、取付け具165を用いてヘッドマウント型のユーザ・インターフェース110に取り付けることができる。実施形態によっては、この取付け具は格納式とすることができ、インタラクション区域自体は、ヘッドマウント型のユーザ・インターフェース110内の相補的な区画に設けてもよい。これにより、使用する必要があるとき、タッチ区域が適切なフットプリントを有することが可能になる。一実施形態では、たとえば、タッチ区域は、必要でないときは折り畳んで、ヘッドマウント型のユーザ・インターフェース内に配置してもよい。
あるいは、当業者には理解できるように、他の実施形態では、構成要素のいくつかを接続または連結または収容してもよい。他の実施形態は、当業者には理解できるように、追加の構成要素および複数のプロセッサ、コンピュータ、表示装置、センサ、光学装置、投影システム、ならびに入力装置を使用することができ、これらは互いの通信を処理している。1つまたは複数のカメラ、微小機械装置(MEMS)、およびGPSまたはソリッドステートのコンパスを含んでもよい、スマートフォンおよびタブレットなどのモバイル装置を使用してもよい。先に指摘したように、一例として図1が示してあるが、代替実施形態では、各構成要素を置換および追加または削除して、特定の選択の好みおよび/または要望に対処することができる。さらに、1つの構成要素を置換して、同様の機能をもたらすものと仮定することができる。たとえば、タッチ・インタラクション区域160を、携帯電話またはタブレットなどのモバイル装置と置換して、1つまたは複数のプロセッサを提供してもよい。やはりグラスに関して先に指摘したように、この互換性により、ユーザは、他の通常の使用とともに使用される日常の対象物および装置をシステム100に組み込んで、完全な利点または使い勝手および可搬性を手に入れることができる。さらに、当業者には理解できるように、ヘッドマウント型のユーザ・インターフェース160は、プライベート画面を埋め込むか、特殊レンズを介してユーザがこのプライベート画面を見ることができるようにする多くの選択肢のうちの1つとすることができ、またヘッドマウント・ディスプレイ(HMD)、ヘッドセット、ハーネス、ヘルメット、または他のウェアラブルおよび非ウェアラブルの構成の一部でもよい。別の選択肢では、当業者には理解できるように、物理的に接続されていなくてもよい構成要素もあれば、または選択的にそのサブセットが物理的に接続されていてもよい。
図1の実施形態に戻って参照すると、図1で使用されるセンサ170、レンダリング画面または表示装置130、マイクロホンおよびカメラ150はともに、物理的な世界の容量でユーザに仮想情報を提示するように位置合せされており、ユーザの頭または体の動きに従って調整するのに応答して、没入型のモバイル体験を可能にする。さらに、図1の実施形態では、アイグラス120およびその表示装置130(レンダリング画面)は、現実の世界の視界を遮断するために、カメラ150、一実施形態ではビデオ・カメラを含むことができ、またこのカメラ150と通信し、その拡張された視界を、アイピースを通して再表示する。理解できるように、次いで、実際または仮想の画像を、アイウェアのレンズ片の表面を通して投影することができ、またはその表面で反射することができる。
シースルー・グラスは、シーンの現実の要素と追加の仮想の要素とを混在させることができるので、特に拡張現実技術に組み込むのに適している。しかし、問題は、(拡張現実)の視界の視野が非常に制限されることが多く、水平方向にはせいぜい30°に過ぎないことである。図1の例では、このために、シースルー・グラスが120で示してあるが、他の実施形態では、当業者には理解できるように、他の同様の構成要素が使用される。図1の例では、シースルー・グラスは、図に示すようにビデオ・カメラ150を介して表示装置とビデオ・キャプチャ構成要素の両方を含む。一実施形態では、ビデオ・カメラ150を非常に小さくすることができるが、ユーザの目に近接した視点(ただし必ずしも同じではない)から実際のシーンの一部を取得することが可能である。一実施形態では、このグラスは、たとえば青色、緑色、および赤色のいくつかの層で構成されてもよく、1つまたは複数の光源をグラスの隣に設けて、ヘッドマウント型のユーザ・インターフェースまたはグラスに光を投影してもよい。一実施形態では、実際の深さおよび距離についてユーザを欺いて、現実のように見える仮想対象物を生成するように、光粒子を回折させるためにガラスの各層に小さい波状の溝を設けてもよい。
提示された問題は、視覚的構成要素が小さいフットプリントに提示される複雑な状況に対処しなければならない。ユーザ入力が何らかのハイレベルの対話を必要とするとき、互いに競合するこれらの対象物を選択することが困難になる。このような状況では、遮蔽またはポインタのサイズが小さいこと、もしくは他の同様の状況が原因で、対象物の選択が不適切になることで、先に述べた通りデータの管理がずさんになる。制限されたフットプリントについて互いに競合するこのような対象物のうちいくつかのうちの1つを精密に選択する状況では、ユーザ・インターフェースの選択が制限されることになる。ユーザが、もっぱらカメラ・アングルおよび描かれた画像の処理のみに基づいて、現実/仮想の対象物を指してもよい場合、この状況は、さらに一層複雑になる。この視点は、ユーザ自身の目の視点と必ずしも同じではないので、特に、非常に近い対象物か、それとも自己遮蔽の対象物が存在しているとき、タスクは、複雑な不在のシーンでエラーが起こりやすくなる。
別の問題は、正確な視線追跡システムの作製、および信頼性の高い注視追跡解析を実現するその能力である。従来技術の装置は、視界が非常に限られており、ハードウェアおよび専用の処理をさらに必要とする。これは、ユーザが、たとえば仮想のテーブルを見ていて、自分の頭を片側に傾けた場合に、このユーザはテーブル上で起きていたことのビューの半分を切り捨てることを意味する。実際、このような環境では、ユーザは、確実に自分の注視が常に中央にとどまるようにしなければならず、そうでなければ、テーブル上で起きていること全てを目にすることはないはずである。
あらゆる電子装置と同様に、ユーザにとっての移動の自由度を提供することと、提供可能な機能の可用性との間でバランスさせる必要がある。すなわち、グラスなどのヘッドマウント型ユニットと、リモート式でしばしば離れている処理ユニットとの間に取り付けられているケーブルを全く設けないことにより、有能電力の場合と同様にデータを伝送するための帯域幅が影響を受ける場合がある。したがって、移動の自由は保存されているにもかかわらず、帯域幅および電力制限によって、ユーザの視点から見た最終的な拡張現実体験が影響を受ける場合がある。さらに、シースルー・グラスまたは他のヘッドマウント型のユーザ・インターフェースを装着している間に、拡張現実の状況においてユーザが何らかの使用事例の対話をトリガできるようにすることが、他の理由で困難になる場合もある。たとえば、埋込み式センサ、特にコンパス、ジャイロスコープ、および他の同様の装置を組み込むセンサを使用して、グラスまたはヘッドマウント型ユニットの姿勢および向きを測定することが、必要とされる確度を実現しない場合がある。この理由は、ユーザがまっすぐ前方を見ていないときに、従来技術では、ユーザの視線の方向を推定するのに十分正確な方式を提供してこなかったことである。それをさらに一層複雑にすることに、ユーザがグラスまたは他の同様の手段を介して世界を見ていることから、ユーザのビューが歪む可能性があるので、取り付けられたカメラのビデオを使用することが、時として複雑になることがあり、必ずしも正確な結果をもたらさない場合がある。これらの対象物が、このようなグラスまたは他のアイテムを装着しているユーザの視点から計算された、これまでに推定された位置に応じて、影響を受けた位置でユーザに提示されることになるので、これによって、仮想の対象物をユーザに表示することに影響を及ぼす場合さえあり得る。
図2および図3に関連して以下に述べる一実施形態では、競合するフットプリントにおける対象物の選択に関連する問題は、補助アイテムをトリガできるようにすることによって解決される。以下に述べる図2および図3の実施形態では、これらの対象物、特にユーザの視点から見た対象物の任意の遮蔽を管理することによって、これら競合する対象物に関連する対話を容易にすることになる、現実または仮想の対象物を表す標識およびサムネイルの最適化されたレイアウトが提示される。さらに理解を深めるために、一例が図2Aの表示に示してある。
図2Aは、ユーザ250がヘッドマウント型ユーザ・インターフェース110を装着している場合の図を示しており、このユーザ・インターフェースは、この場合、1対のシースルー・グラス120を含むことができる。この例では、ユーザのグラスまたはヘッドマウント型のユーザ・インターフェースは、独立型の単一装置でもよく、または、1つもしくは複数のローカルもしくは遠隔のコンピューティング・ネットワークと通信している、相対的に大きくて洗練されたシステムの一部でもよい。図2Aに示すシーンは、ユーザのビューを反映するものである。図に示すように、示してあるユーザのビューは、場合によっては家の内部からの生活空間を示し、テーブル/机および関連する椅子の部分的に遮られたビューを含む。このビューはまた、テーブル/机の上の置かれたボトルの画像を含んでおり、このボトルは、長椅子の前にあるように見える。いくつかの対象物は、関連する使用事例に続くこのようなシーンに追加することができる仮想の対象物でもよい。ユーザの直接のビューは、破線および矢印290によって識別され、ユーザの周辺限界の範囲、ならびに範囲および限界は、それぞれ線280および285によって示される。
特定の中立的な中央領域または対象物が、200として識別される。以下に述べるように、この中立的な中央領域または対象物の割当ては、一実施形態では、(見ている視点からの)非常に近い実際の対象物または仮想の対象物間の有害な対話を排除することによって、競合する対象物または遮られた対象物の選択を容易にする。これはまた、ジェスチャおよびユーザの動きがユーザ選択インターフェースとして使用される場合に、頭部の動きを低減または排除する。以下に述べるように、対象物は同様に、画像処理を介して認識される現実の対象物とすることができ、シーンに挿入される仮想の対象物とすることもできる。
一実施形態では、中央の領域または対象物200は、中央に位置するユーザ・インターフェース起動ポインタを介して、少なくとも部分的に目に見え、また手に届く必要がある。この例では、ユーザは、長椅子が置かれている部屋の一部の方向を見ている様子が示してあり、動きを介してユーザ・インターフェース起動ポインタを提供するのは、ユーザの注視および目の動きである。
一実施形態では、図2Aに示すように、一連の標識および/またはサムネイルが画面上に動的に表示され、参照番号201〜204で示してある。これらの標識および/またはサムネイルは、図に示す長椅子やテーブルなど、表示または識別された様々なアイテムとそれぞれ関連付けられている。当業者には理解できるように、この標識および/またはサムネイルは、理解を助けるためにこの実施形態においてのみ使用されることに留意されたい。したがって、他の実施形態では、たとえば、対象物の名前、対象物の画像、アイコン、理想化された対象物の画像だがそれらに限定されない、標識および/またはサムネイルの代わりに、他の同様の構成要素を使用してもよい。一実施形態では、標識および/またはサムネイルは、ユーザの画面または表示装置上に全て表示されるが、互いにオーバラップしないように、初めは緩やかまたはまばらなレイアウトで表示してもよい。これにより、ユーザの視点から見ると、その関連付けられた対象物が、ほとんど完全に、または部分的に遮られるときでも、各標識および/またはサムネイルが明瞭に表示されるようになる。
一実施形態では、サムネイルおよび/または標識は、自己配置されており、少なくとも初めは、ユーザの視野内の中央ポインタ、または中央の領域もしくは対象物200の周りに等しく分布していてもよい。(一実施形態では、中央ポインタ、および中央の領域または対象物200は異なるが、別の実施形態では、これらを同じ要素によって表してもよい)。ポインタは、(ガラスの)表示装置上に重ね合わされ、ユーザが移動し、身体または頭部の位置を変化させる間、ユーザ・インターフェースおよびシーンに対して固定される。別々の中央ポインタが存在する場合、ポインタおよび/または中央領域はそれぞれ、空の標識または専用のサムネイルなど特定のシンボルによって表してもよい。中央の領域200は、どんな対象物も中立の区域と対話できないように、この中立の区域の記号式表現の役割を果たす。中央領域200の目的は、その周りの他のアイテムが移動してトリガされるときに、その位置の中立性を保つことである。一実施形態では、この動きは、ゆっくり集まるのに似ていてもよい。すなわち、中央領域は、動作不能な対象物として扱われる。他の実施形態では、他の理由により、やはり動作不能アイテムと指定される他のサムネイルおよび/または標識が存在してもよい。一実施形態では、ユーザがある区域から完全に目をそらす場合、集められたアイテムに属する標識またはサムネイルは、ゆっくりと他のものから離れていき、最終的には消失し、他の標識およびサムネイルが、それ自体を再配置するためのさらに広い区域を有するようにする。
以下に述べる図2Bは、図2Aの実施形態での次の段階の処理を表示する。図2Aおよび図2Bをともに考慮すれば、ユーザは、動作可能な対象物のサムネイルまたは標識を使用し、依然として重なり合わずに、ユーザの視点中央に向けてゆっくり収束して、自分の視点のすぐ近傍に存在する動作可能な対象物を見ることになる。中央の区域200は、別個のままであり、選択された別のサムネイルまたは標識によって占有されていないことにも留意すべきである。図2Aに戻って参照すると、動作可能なアイテムは、非動作可能で非インタラクションのアイテムとして指定される中央の区域(および、ここではポインタ)200の周りに表示される。図2Aから図2Bまでの項目の移動が、矢印および破線の曲線(図2A)によって適宜示してある。
図2Bでは、サムネイルおよび標識は、図に示すように中立の対象物または領域200の周りに全て収束している。ユーザの視点が、290から292までわずかにシフトしている。様々な状況を図2Bに表示してもよい。一例では、ユーザが視点を意図的に変化させ、別の例では、椅子の再調整、または身体の輪郭を第1の位置から第2の位置までシフトさせることなど、様々な異なる理由でユーザの頭部が移動する。どのような理由であれ、示された新規のユーザ位置によって、新しい位置が安定していることが示されると、しばらくの間その位置にとどまるときに、図2Bでの例のレイアウトが結果として起こり得る。見て分かるように、ユーザのビューに近い対象物に関連付けられたサムネイルまたは標識は、ユーザの視点の中央に向かって徐々に移動するが、依然として中立の区域または領域200の周りに、ただしオーバラップすることなく移動する。
一実施形態では、ユーザの視点および方向がシフトするにつれて、この連続的なアカウンティングが存在する。これは、当業者に理解できるように、様々なメカニズムによって実現することができる。たとえば、動き検出器(センサ)または他のそうした手段を備えた、ヘッドマウント型のユーザ・インターフェースまたはグラスに配置されたセンサが存在してもよい。異なる一例では、カメラ画像自体を使用してもよい。一実施形態では、シースルー・グラスを使用して、ユーザが指している位置、すなわち特定の仮想または現実の対象物を追跡してもよい。この後者の実施形態は、必要とされる任意の頭部の移動を提示する必要性を低減するか、または少なくとも移動範囲を削減することになる。この実施形態では、その選択肢を指して、同様の手段でそれを選択することによって、ユーザが簡単に一瞥すると、選択動作をトリガすることになる。しかし、ユーザは自分のビューを変化させることができるが、ユーザが能動的に対象物を選択しない限り、ユーザがその方向を見続ける場合でも、選択は実行されないことに留意すべきである。一実施形態では、以下に述べるように、遅延した標識のレイアウト対象物を使用して対象物の選択をおこなうことによって、これを実現することができる。さらに理解を深めるために、この考え方を図2Bの実施形態に組み込むことができる。
図2Bでは、図に示すように、ユーザは、その位置を変化させ、自分の頭部を移動させた。新規のビューおよび角度が参照番号292で示してあり、この図に示してあるように、以前の位置290と比較されている。標識および/またはサムネイル201〜204が、静止した中央の領域200の周りを適宜移動している。一実施形態では、(自分の視点での)中央領域200、およびサムネイルまたは標識201〜204は、(視点の変化点まで)適宜移動するが、その遅延は小さくて、また意図的である。この実施形態では、この遅延により、最終的には、近いサムネイルまたは標識の中心にユーザの注視を置くことができるようになるが、これらのサムネイルまたは標識は、場合によっては、まだ完全には安定していなくてもよく、依然としてこれまでの相対的なポインタ位置に向けてわずかに収束していてもよい。中央の領域200および/または中央のポインタ、ならびに動作標識および/またはサムネイル201〜204は、適宜それぞれの位置を切り替えることになる。標識および/またはサムネイル、ならびに中央の中立な領域およびポインタは、しばらくすると最終的には安定する。一実施形態では、遅延時間は、拡張現実システム100の反応時間を遅くするか、それとも速くするように、ユーザによって調節可能で事前選択することができる。この適切な期間が経過すると、次いでユーザは、図3Aの次の段階のプロセス・ステップで表示されるようなユーザ選択をおこなうことができる。図3Aでは、見て分かるように、各位置には依然としてシフトが存在している。
同様の他の例では、ユーザは、信号を送られた、またはサムネイル表示された対象物201〜204のうちの1つと対話しようとする。この実施形態では、ユーザは、自分の視点を、その(場合によっては遮られた)対象物の中心に置くように頭部を広範囲に動かす必要はないが、その代わりに、ユーザは、もっぱら自分の頭部をわずかに動かして、その対象物に関連した、入力されてくる、または安定した選択済みのサムネイルまたは標識に向けてポインタを修正する必要がある。次いで、その標識の中央に自分の視点をしばらく保つと、先に述べた通り、この標識のサイズが大きくなる。
図に示したそれぞれの場合において、対象物の選択される可能性がさらに明白になるにつれて、椅子を表すサムネイルまたは標識201のサイズが大きくなってくる。図2および図3での椅子201のサムネイルのサイズを比較すると、このサムネイルのサイズが大きくなることが示される。この例では、大きくなるサイズが、実現可能な選択を表すように選び出されるが、たとえば、色、明るさ、輝きもしくは明滅、またはこのような他の視覚的に区別する特徴など、他の同様に区別する属性を使用することができる。さらに、椅子201の実現可能な選択によって、一実施形態に示すように、その他の標識およびレイアウトがシフトし、入れ替わるようにもなる。
図3Bには、選択動作がトリガされた後の、次の段階の処理ステップが示してある。図3Aおよび図3Bの実施形態をともに考慮すれば、ユーザが椅子の選択を決定し、選択された対象物としてサムネイル201がトリガされるまで、このサムネイルのサイズが大きくなる。図3Bの実施形態では、選択トリガには、椅子201のサムネイルまたは標識の色および暗さの変化を伴う。しかし、他の実施形態では、理解できるように、この選択およびトリガを様々な異なる方式で識別することができる。いくつかの例は、当業者に理解できるように、色の変化(緑色から赤色、青色から黄色など)または他の同様の状況を含んでもよい。たとえば、標識またはサムネイルは、選択する直前に明滅を開始してもよく、選択されるとハローがその周りに形成される。他の実施形態では、いくつかの変化が起こり得る。たとえば、全てのサムネイルは、もともとは1つの色、たとえば緑色で表示してもよく、緑色から黄色にゆっくりと変化して(図2B〜3A)、実現可能な選択がなされたことを示す。サムネイルはまた、サイズが大きくなり、もしくは明滅を開始し、または他の方式で識別される。最終的な選択動作がトリガされると、サムネイルは異なる色(赤色)に変化し、その形状が変わることさえある(長円形から正方形など)。先に述べた通り、色は、このようなインジケータの1つに過ぎない。別の実施形態では、標識は、これまで中心を置いた標識(通常は中立の標識)と、選択された新規の標識との間で場所を入れ替えてもよい。当業者には理解できるように、他のインジケータには、それだけには限定されないが、明滅し、大きくなり、光を放つインジケータ、たとえば星形の外観を有するインジケータ、または他のインジケータに対して変化する点滅インジケータが含まれ得る。
図3Aおよび図3Bに戻って参照すると、対象物の標識が図3Bと図3Aの間で大きくなる(すなわち201)が、図に示すように、その他の標識202〜204は、図3Aおよび3Bのレイアウトでは、標識および対象物の任意のオーバラップまたは遮蔽を避けるように適宜更新されている。ユーザが、選択された標識を別の標識(図示せず)に切り替える場合、これまでに大きくなっている標識(201)が元の既定サイズに戻され、標識またはサムネイルのうちの別の1つが大きくなる過程であることを示す。一実施形態では、ユーザは、選択が実行されると削除される他の標識またはサムネイルを、選択または事前選択することもできる。ユーザが別の選択を実行したい場合に、これらが再び現れることがある。このようにして、標識およびサムネイルは、ユーザビリティやおよび娯楽の楽しさを増すよう、常に目に見えることにはならない。別の実施形態では、アクションがトリガされ、選択が実行された時点において、この選択された対象物に関連しない他の標識および/またはサムネイルが直ちに削除されることになる。中央の領域または区域200はまた、表示装置から削除してもよい(また、場合によってはトリガされている使用事例に応じて後に表示される)。このようにして、先に述べた通り、少なくとも一実施形態では、ユーザの頭部、動き、ジェスチャ、または身体などの動きの必要な大きさをユーザが有する必要性を、最小限に抑えられる。トリガ・インタラクションと、現実/仮想の対象物との対話性に基づく選択との間の関係により、さらに自然でユーザ・フレンドリなシステムが可能になる。さらに、ユーザの選択可能性およびシーン上のユーザの視点から選択されたアイテムをトリガすることによって、アイテムが完全にまたは部分的に遮蔽されているように見えるとき(特に、あるアイテムが別のアイテムによって遮蔽されているとき)でさえ、ユーザの現在の視点からアイテムを容易に選択することができる。このようにして、一実施形態によれば、対象となる対象物が識別されて選択されるとすぐ、サムネイルおよび標識が削除されることになる。一実施形態では、シーン内の任意の対象物はまた、実際には現実であろうと仮想であろうと、ユーザによって同様に制御されるように選択することができる。選択プロセスが完了し、何らかの動作のために選択されたアイテムをユーザがもはや使用する必要がなくなると、一実施形態では、ユーザは単に、図2Aおよび図2Bの複数の標識表示構成に戻ることになる。他の実施形態では、ユーザのメニューへの復帰は、当業者には理解できるように、他のやり方で処理することができる。たとえば、ユーザが他の選択を実行して、この状況に戻るようにすることによって、これをトリガすることができる。
[付記1]
表示装置(130)を含むヘッドマウント型装置(110)であって、
−センサ(170)の出力に基づいてユーザの視野およびユーザの視野の中央を決定することと、
−前記表示装置に出力するための画像をレンダリングすることであって、前記画像がそれぞれ、少なくとも1つの対象物、および選択可能な複数の標識を含み、前記標識のそれぞれが、前記ユーザの視野内の対象物に対応し、画像の前記レンダリングが、前記ユーザの視野が所与の標識の中央にあると判定されることに基づいて、表示された複数の標識のうち前記所与の標識の第1の表示属性を改変することを含む、レンダリングすることと、
−閾値を超える一定の時間において、前記ユーザの視野が前記所与の標識の中央にとどまっていると判定されることに基づいて、前記所与の標識を選択することと
を、実行するように動作するプロセッサ(140)を含むか、またはこのプロセッサ(140)と接続されるように構成される、ヘッドマウント型装置(110)。
[付記2]
前記レンダリングすることが、前記画像をレンダリングして、前記選択可能な対象物に対応する前記複数の標識と同時に前記ユーザの視野内の対象物を表示することを含む、付記1に記載の装置(110)。
[付記3]
前記所定の標識の前記第1の表示属性を前記変更することが、前記複数の表示された標識のうち他の標識の表示サイズに対して、前記所与の標識の表示サイズを拡大することを含む、付記1または2に記載の装置(110)。
[付記4]
画像の前記レンダリングが、前記所与の標識を前記選択することに基づいて、前記第1の表示属性以外の前記所与の標識の第2の表示属性を変更することをさらに含む、付記1〜3のいずれか一項に記載の装置(110)。
[付記5]
−前記プロセッサ(140)は、前記ユーザの視野の中央が、前記選択された所与の標識からシフトしているとの判定に基づいて、前記所与の標識を選択した後、前記所与の標識を選択解除すること
を実行するようにさらに構成される、付記1〜4のいずれか一項に記載の装置(110)。
[付記6]
少なくとも1つの動き、声、または動きと音声を介してユーザ選択を登録するように構成された、マイクロホン(180)およびモーション・センサ(170)を含む、付記1〜5のいずれか一項に記載の装置(110)。
[付記7]
タッチを介して前記ユーザ選択を登録するように構成された、インタラクション区域(160)を含む、付記1〜6のいずれか一項に記載の装置(110)。
[付記8]
タッチを介して前記ユーザ選択を登録するように構成された、インタラクション区域(160)をさらに含む、付記4に記載の装置(110)。
[付記9]
前記表示装置(130)が、前記ユーザの目に近接して、少なくとも1つのレンダリング画面上にグラフィック画像を表示するように構成され、前記レンダリング画面が、前記ユーザによって着用可能なアイグラス・フレーム(120)に機械的に連結される、付記1〜8のいずれか一項に記載の装置(110)。
[付記10]
タッチ、動き、または音声をそれぞれ介してユーザ入力を取り込むように構成された、モーション・センサ(170)、マイクロホン(180)、およびタッチ・インタラクション区域(160)を含む、付記1〜9のいずれか一項に記載の装置(110)。
[付記11]
前記標識が、少なくとも1つの対象物の名前および対象物の画像を有するサムネイルである、付記1〜10のいずれか一項に記載の装置(110)。
[付記12]
−音声、動き、またはタッチの形態でユーザを受信するユーザ・インターフェース手段と、
−前記ユーザ・インターフェース手段との通信を処理する際に、画像を表示する手段(130)とを含むヘッドマウント型装置(110)であって、
−センサ(170)の出力に基づいてユーザの視野およびユーザの視野の中央(200)を決定することと、
−表示する手段(130)に出力するための画像をレンダリングすることであって、前記画像がそれぞれ、少なくとも1つの対象物、および選択可能な複数の標識を含み、前記標識のそれぞれが、前記ユーザの視野内の対象物に対応し、画像の前記レンダリングが、前記ユーザの視野が所与の標識の中央にあると判定されることに基づいて、表示された複数の標識のうち前記所与の標識の第1の表示属性を改変することを含む、レンダリングすることと、
−閾値を超える一定の時間において、前記ユーザの視野が前記所与の標識の中央にとどまっていると判定されることに基づいて、前記所与の標識を選択することと
を、実行するように動作するプロセッサ(140)を含むか、またはこのプロセッサ(140)と接続されるように構成される、ヘッドマウント型装置(110)。
[付記13]
前記表示する手段(130)が、前記ユーザの目に近接して、少なくとも1つのレンダリング画面上にグラフィック画像を表示するように構成され、前記レンダリング画面がアイグラス・フレーム(120)に機械的に連結される、付記12に記載の装置(110)。
[付記14]
ヘッドマウント型装置(110)を使用するアイテム選択の方法であって、
−ユーザの視野およびユーザの視野の中央(220)を決定することと、
−表示用の画像をレンダリングすることであって、前記画像がそれぞれ、1つまたは複数の対象物、および複数の標識を含み、それぞれが、前記ユーザの視野内の選択可能な対象物に対応し、画像の前記レンダリングが、前記ユーザの視野が前記所与の標識の中央にあると判定されることに基づいて、表示された複数の標識のうち所与の標識の第1の表示属性を改変することを含む、レンダリングすることと、
−閾値を超える一定の時間において、前記ユーザの視野が前記所与の標識の中央にとどまっていると判定されることに基づいて、前記所与の標識を選択することと
を含む、方法。
[付記15]
前記標識が、少なくとも1つの対象物の名前および対象物の画像を有するサムネイルである、付記14に記載の方法。

Claims (15)

  1. 表示装置を含むヘッドマウント型装置であって、
    サの出力に基づいてユーザの視野およびユーザの視野の中央を決定することと、
    記表示装置に出力するための画像をレンダリングすることであって、前記画像がそれぞれ、少なくとも1つの対象物、択可能な複数の標識、および選択不可能な対象物を含み、前記標識のそれぞれが、前記ユーザの視野内の対象物に対応し、画像の前記レンダリングが、前記ユーザの視野が所与の標識の中央にあると判定されることに基づいて、前記選択不可能な対象物と所与の標識の位置を切り替えること、および表示された複数の標識のうち前記所与の標識の第1の表示属性を改変することを含む、レンダリングすることと、
    値を超える一定の時間において、前記ユーザの視野が前記所与の標識の中央にとどまっていると判定されることに基づいて、前記所与の標識を選択することと
    を、実行するように動作するプロセッサを含むか、またはこのプロセッサと接続されるように構成される、ヘッドマウント型装置。
  2. 前記標識が、オーバラップすることなく中央の対象物の周りに収束する、請求項1に記載の装置。
  3. 前記所定の標識の前記第1の表示属性を前記変更することが、前記複数の表示された標識のうち他の標識の表示サイズに対して、前記所与の標識の表示サイズを拡大することを含む、請求項1または2に記載の装置。
  4. 画像の前記レンダリングが、前記所与の標識を前記選択することに基づいて、前記第1の表示属性以外の前記所与の標識の第2の表示属性を変更することをさらに含む、請求項1〜3のいずれか一項に記載の装置。
  5. 前記プロセッサは
    −前記ユーザの視野の中央が、前記選択された所与の標識からシフトしているとの判定に基づいて、前記所与の標識を選択した後、前記所与の標識を選択解除すること
    を実行するようにさらに構成される、請求項1〜4のいずれか一項に記載の装置。
  6. 少なくとも1つの動き、声、または動きと音声を介してユーザ選択を登録するように構成された、マイクロホンおよびモーション・センサを含む、請求項1〜5のいずれか一項に記載の装置。
  7. タッチを介して前記ユーザ選択を登録するように構成された、インタラクション区域を含む、請求項1〜6のいずれか一項に記載の装置。
  8. タッチを介して前記ユーザ選択を登録するように構成された、タッチ・インタラクション区域をさらに含む、請求項4に記載の装置。
  9. 前記表示装置が、前記ユーザの目に近接して、少なくとも1つのレンダリング画面上にグラフィック画像を表示するように構成され、前記レンダリング画面が、前記ユーザによって着用可能なアイグラス・フレームに機械的に連結される、請求項1〜8のいずれか一項に記載の装置。
  10. タッチ、動き、または音声をそれぞれ介してユーザ入力を取り込むように構成された、モーション・センサ、マイクロホン、およびタッチ・インタラクション区域を含む、請求項1〜9のいずれか一項に記載の装置。
  11. 前記選択不可能な対象物が、前記ユーザの視野内の中央の位置を有し、前記ユーザの視野が動いているときに、前記ユーザの視野の前記中央に遅れて従う、請求項1〜10のいずれか一項に記載の装置。
  12. 前記選択不可能な対象物が、空の領域またはポインタである、請求項1〜10のいずれか一項に記載の装置。
  13. 声、動き、またはタッチの形態でユーザを受信するユーザ・インターフェース手段と、
    記ユーザ・インターフェース手段との通信を処理する際に、画像を表示する手段とを含むヘッドマウント型装置であって、
    サの出力に基づいてユーザの視野およびユーザの視野の中央を決定することと、
    示する手段に出力するための画像をレンダリングすることであって、前記画像がそれぞれ、少なくとも1つの対象物、択可能な複数の標識、および選択不可能な対象物を含み、前記標識のそれぞれが、前記ユーザの視野内の対象物に対応し、画像の前記レンダリングが、前記ユーザの視野が所与の標識の中央にあると判定されることに基づいて、前記選択不可能な対象物と所与の標識の位置を切り替えること、および表示された複数の標識のうち前記所与の標識の第1の表示属性を改変することを含む、レンダリングすることと、
    値を超える一定の時間において、前記ユーザの視野が前記所与の標識の中央にとどまっていると判定されることに基づいて、前記所与の標識を選択することと
    を、実行するように動作するプロセッサを含むか、またはこのプロセッサと接続されるように構成される、ヘッドマウント型装置。
  14. 前記表示する手段が、前記ユーザの目に近接して、少なくとも1つのレンダリング画面上にグラフィック画像を表示するように構成され、前記レンダリング画面がアイグラス・フレームに機械的に連結される、請求項13に記載の装置。
  15. ヘッドマウント型装置を使用するアイテム選択の方法であって、
    ーザの視野およびユーザの視野の中央を決定することと、
    示用の画像をレンダリングすることであって、前記画像がそれぞれ、1つまたは複数の対象物、および複数の標識を含み、それぞれが、選択可能な前記ユーザの視野内の選択可能な対象物、および選択不可能な対象物に対応し、画像の前記レンダリングが、前記ユーザの視野が所与の標識の中央にあると判定されることに基づいて、前記選択不可能な対象物と所与の標識の位置を切り替えること、および表示された複数の標識のうち所与の標識の第1の表示属性を改変することを含む、レンダリングすることと、
    値を超える一定の時間において、前記ユーザの視野が前記所与の標識の中央にとどまっていると判定されることに基づいて、前記所与の標識を選択することと
    を含む、方法。
JP2018509878A 2015-08-28 2016-07-22 シースルー・グラス用の補助アイテム選択 Expired - Fee Related JP6757404B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15306326 2015-08-28
EP15306326.8 2015-08-28
PCT/EP2016/067503 WO2017036667A1 (en) 2015-08-28 2016-07-22 Assisted item selection for see through glasses

Publications (3)

Publication Number Publication Date
JP2018525750A JP2018525750A (ja) 2018-09-06
JP2018525750A5 JP2018525750A5 (ja) 2019-08-29
JP6757404B2 true JP6757404B2 (ja) 2020-09-16

Family

ID=54238369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018509878A Expired - Fee Related JP6757404B2 (ja) 2015-08-28 2016-07-22 シースルー・グラス用の補助アイテム選択

Country Status (6)

Country Link
US (1) US10656705B2 (ja)
EP (1) EP3341816A1 (ja)
JP (1) JP6757404B2 (ja)
KR (1) KR20180044292A (ja)
CN (1) CN107924234B (ja)
WO (1) WO2017036667A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2558284B (en) 2016-12-23 2021-12-08 Sony Interactive Entertainment Inc Virtual reality
US10957103B2 (en) * 2017-11-03 2021-03-23 Adobe Inc. Dynamic mapping of virtual and physical interactions
CN111198608B (zh) * 2018-11-16 2021-06-22 广东虚拟现实科技有限公司 信息提示方法、装置、终端设备及计算机可读取存储介质
EP4078341A1 (en) * 2019-12-18 2022-10-26 Nextmind Sas Brain-computer interface
CN114397996A (zh) * 2021-12-29 2022-04-26 杭州灵伴科技有限公司 交互提示方法、头戴式显示设备和计算机可读介质

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6456262B1 (en) * 2000-05-09 2002-09-24 Intel Corporation Microdisplay with eye gaze detection
US20060095865A1 (en) * 2004-11-04 2006-05-04 Rostom Mohamed A Dynamic graphical user interface for a desktop environment
US7928926B2 (en) * 2006-06-27 2011-04-19 Panasonic Corporation Display apparatus and method for hands free operation that selects a function when window is within field of view
US8102334B2 (en) * 2007-11-15 2012-01-24 International Businesss Machines Corporation Augmenting reality for a user
US9405456B2 (en) * 2009-06-08 2016-08-02 Xerox Corporation Manipulation of displayed objects by virtual magnetism
US9916006B2 (en) * 2010-07-23 2018-03-13 Telepatheye Inc. Eye-wearable device user interface and method
KR101303948B1 (ko) * 2010-08-13 2013-09-05 주식회사 팬택 비가시 객체에 대한 증강 현실 정보 제공 장치 및 방법
JP5573808B2 (ja) * 2011-09-30 2014-08-20 ブラザー工業株式会社 ヘッドマウントディスプレイ
US20130328925A1 (en) 2012-06-12 2013-12-12 Stephen G. Latta Object focus in a mixed reality environment
US20130335405A1 (en) 2012-06-18 2013-12-19 Michael J. Scavezze Virtual object generation within a virtual environment
CN102945564A (zh) * 2012-10-16 2013-02-27 上海大学 基于视频透视式增强现实的真三维建模***和方法
US10503359B2 (en) * 2012-11-15 2019-12-10 Quantum Interface, Llc Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
JP6375591B2 (ja) * 2013-01-15 2018-08-22 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、画像表示システム
US9329682B2 (en) * 2013-06-18 2016-05-03 Microsoft Technology Licensing, Llc Multi-step virtual object selection
US9129430B2 (en) * 2013-06-25 2015-09-08 Microsoft Technology Licensing, Llc Indicating out-of-view augmented reality images
KR20150008733A (ko) * 2013-07-15 2015-01-23 엘지전자 주식회사 안경형 휴대기기 및 그의 정보 투사면 탐색방법
US10558325B2 (en) 2013-12-01 2020-02-11 Upskill, Inc. Systems and methods for controlling operation of an on-board component
US9552060B2 (en) * 2014-01-28 2017-01-24 Microsoft Technology Licensing, Llc Radial selection by vestibulo-ocular reflex fixation
CN105677134A (zh) * 2014-11-19 2016-06-15 珠海金山办公软件有限公司 一种对象选择方法及***
CN104784931B (zh) * 2015-04-21 2018-07-06 广州多益网络股份有限公司 一种游戏对象的标识、选定方法及装置

Also Published As

Publication number Publication date
WO2017036667A1 (en) 2017-03-09
KR20180044292A (ko) 2018-05-02
JP2018525750A (ja) 2018-09-06
CN107924234B (zh) 2021-03-19
EP3341816A1 (en) 2018-07-04
US10656705B2 (en) 2020-05-19
CN107924234A (zh) 2018-04-17
US20180253144A1 (en) 2018-09-06

Similar Documents

Publication Publication Date Title
US11350071B2 (en) Augmented reality based user interfacing
US20210097776A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments
US10078917B1 (en) Augmented reality simulation
EP3458937B1 (en) Co-presence handling in virtual reality
JP6757404B2 (ja) シースルー・グラス用の補助アイテム選択
CN108604175B (zh) 装置和关联方法
US11481025B2 (en) Display control apparatus, display apparatus, and display control method
US20210272373A1 (en) Sharing virtual content in a mixed reality scene
JP2019510321A (ja) 仮想現実用パススルーカメラのユーザインターフェイス要素
US12022357B1 (en) Content presentation and layering across multiple devices
US11367416B1 (en) Presenting computer-generated content associated with reading content based on user interactions
US20230336865A1 (en) Device, methods, and graphical user interfaces for capturing and displaying media
KR20230158505A (ko) 맵들을 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들
US20240221291A1 (en) Methods for time of day adjustments for environments and environment presentation during communication sessions
EP3850468B1 (en) Snapping range for augmented reality objects
US20230221833A1 (en) Methods for displaying user interface elements relative to media content
CN111782053B (zh) 模型编辑方法、装置、设备及存储介质
US20240104849A1 (en) User interfaces that include representations of the environment
US20240104871A1 (en) User interfaces for capturing media and manipulating virtual objects
WO2024039666A1 (en) Devices, methods, and graphical user interfaces for improving accessibility of interactions with three-dimensional environments
WO2024064278A1 (en) Devices, methods, and graphical user interfaces for interacting with extended reality experiences
WO2024064932A1 (en) Methods for controlling and interacting with a three-dimensional environment
WO2024064229A1 (en) Devices, methods, and graphical user interfaces for tabbed browsing in three-dimensional environments
WO2024064180A1 (en) User interfaces that include representations of the environment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190718

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190718

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200828

R150 Certificate of patent or registration of utility model

Ref document number: 6757404

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees