JP2017111669A - 情報処理装置および操作受付方法 - Google Patents

情報処理装置および操作受付方法 Download PDF

Info

Publication number
JP2017111669A
JP2017111669A JP2015246485A JP2015246485A JP2017111669A JP 2017111669 A JP2017111669 A JP 2017111669A JP 2015246485 A JP2015246485 A JP 2015246485A JP 2015246485 A JP2015246485 A JP 2015246485A JP 2017111669 A JP2017111669 A JP 2017111669A
Authority
JP
Japan
Prior art keywords
icon
icons
user
virtual space
menu screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015246485A
Other languages
English (en)
Other versions
JP2017111669A5 (ja
JP6560974B2 (ja
Inventor
河村 大輔
Daisuke Kawamura
大輔 河村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2015246485A priority Critical patent/JP6560974B2/ja
Priority to PCT/JP2016/086795 priority patent/WO2017104579A1/ja
Priority to US15/780,003 priority patent/US10620791B2/en
Publication of JP2017111669A publication Critical patent/JP2017111669A/ja
Publication of JP2017111669A5 publication Critical patent/JP2017111669A5/ja
Application granted granted Critical
Publication of JP6560974B2 publication Critical patent/JP6560974B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】操作受付画面において操作性と仮想空間の世界観を両立させる。【解決手段】仮想空間において、ユーザ516が正面を向いたときの視線ベクトルを含む水平面にあり頭部を中心とする円周512と交差するように、アイコン514a、514bを配列させる。このとき中心位置が円周512より上にあるアイコン514aと、下にあるアイコン514bとを交互に配置する。頭部の姿勢情報に基づき、ユーザの顔面の法線ベクトル517を視線として特定し、それを中心とする垂直面にスクリーン518を設定して仮想空間のオブジェクトを投影することによりメニュー画面を描画する。【選択図】図7

Description

この発明は、ユーザとのインタラクションにより情報処理を実施する情報処理装置およびそれが実施する操作受付方法に関する。
ユーザの体やマーカーをカメラで撮影し、その像の領域を別の画像で置換してディスプレイに表示するゲームが知られている。撮影画像のみならず、各種センサをユーザに装着させたり把持させたりしてその計測値を解析し、ゲームなどの情報処理に反映させる技術は、小型のゲーム機からレジャー施設まで、その規模によらず幅広い分野で利用されている。
その一例として、ヘッドマウントディスプレイにパノラマ映像を表示し、ヘッドマウントディスプレイを装着したユーザが頭部を回転させると視線方向に応じたパノラマ画像が表示されるようにしたシステムが開発されている。ヘッドマウントディスプレイを利用することで、映像への没入感を高めたり、ゲームなどのアプリケーションの操作性を向上させることもできる。また、ヘッドマウントディスプレイを装着したユーザが物理的に移動することで映像として表示された空間内を仮想的に歩き回ることのできるウォークスルーシステムも開発されている。
ユーザがヘッドマウントディスプレイなどのウェアラブルディスプレイを装着した状態では特に、コントローラやキーボードなどの入力デバイスを用いてシステムに対し操作入力を行うことは難しい。また表示装置の種類によらず、動画やゲームなどの電子コンテンツ表示時に、パノラマ画像や立体視により仮想空間への没入感を与えるような高度な画像表現を実現しても、当該電子コンテンツを選択するメニュー画面や設定画面で上記のような入力デバイスを必要としたり簡素な画面構成としたりすれば、ユーザの興味がそがれてしまう。したがってそのような操作受付画面の表示においても、仮想空間が表現する世界観を維持しつつ、操作性も損なわない技術が求められている。
本発明はこうした課題に鑑みてなされたものであり、その目的は、操作受付画面の表示において、仮想空間が表現する世界観と操作性とを両立できる技術を提供することにある。
上記課題を解決するために、本発明のある態様は情報処理装置に関する。この情報処理装置は、複数のアイコンを含むメニュー画面を生成しユーザからの選択操作を受け付ける情報処理装置であって、仮想空間に複数のアイコンを配列させるアイコン配置部と、ユーザの頭部の姿勢情報を取得し、それに基づき仮想空間に対する視野面を決定する視野制御部と、視野面に対する仮想空間の投影画像を描画したうえ、ユーザの視点を表すカーソルを重畳表示したメニュー画面を生成し表示装置に出力する画像生成部と、メニュー画面に描画されるアイコンおよびその他のオブジェクトの像と、カーソルとの位置関係に基づき、操作内容を特定する操作判定部と、を備え、アイコン配置部は、仮想空間の水平方向に、少なくとも1つのアイコンの中心が他のアイコンの中心と上下方向にずれ量を有するように複数のアイコンを配列させることを特徴とする。
本発明の別の態様は、操作受付方法に関する。この操作受付方法は、複数のアイコンを含むメニュー画面を生成しユーザからの選択操作を受け付ける、情報処理装置による操作受付方法であって、仮想空間に複数のアイコンを配列させるステップと、ユーザの頭部の姿勢情報を取得し、それに基づき仮想空間に対する視野面を決定するステップと、視野面に対する仮想空間の投影画像を描画したうえ、ユーザの視点を表すカーソルを重畳表示したメニュー画面を生成し表示装置に出力するステップと、メニュー画面に描画されるアイコンおよびその他のオブジェクトの像と、カーソルとの位置関係に基づき、操作内容を特定するステップと、を含み、アイコンを配列させるステップは、仮想空間の水平方向に、少なくとも1つのアイコンの中心が他のアイコンの中心と上下方向にずれ量を有するように複数のアイコンを配列させることを特徴とする。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、仮想空間が表現する世界観と操作性とを両立した操作受付画面を提供できる。
本実施の形態のヘッドマウントディスプレイの外観図である。 本実施の形態のヘッドマウントディスプレイの機能構成図である。 本実施の形態の情報処理システムの構成図である。 本実施の形態の情報処理装置の内部回路構成を示す図である。 本実施の形態における情報処理装置の機能ブロックを示す図である。 本実施の形態で表示されるメニュー画面を例示する図である。 本実施の形態においてメニュー画像を生成する際に構築される仮想空間の例を模式的に示す図である。 本実施の形態における、視線の動きに応じたメニュー画面の変遷を例示する図である。 本実施の形態のアイコン配列と視点の動きの関係を模式的に示す図である。 本実施の形態における、アイコン配列を変位させる操作を含むメニュー画面の変遷を例示する図である。 本実施の形態において情報処理装置がメニュー画面を生成し選択操作を受け付ける処理手順を示すフローチャートである。
本実施の形態では、メニュー画面など選択操作を受け付ける画面を、ユーザの視線の動きに応じて視野を変化させつつ表示する。その限りにおいて、画像を表示させる装置の種類は特に限定されず、ウェアラブルディスプレイ、平板型のディスプレイ、プロジェクタなどのいずれでもよいが、ここではウェアラブルディスプレイのうちヘッドマウントディスプレイを例に説明する。
ウェアラブルディスプレイの場合、ユーザの視線は内蔵するモーションセンサによりおよそ推定できる。その他の表示装置の場合、ユーザがモーションセンサを頭部に装着したり、注視点検出装置を用いて赤外線の反射を検出したりすることで視線を検出できる。あるいはユーザの頭部にマーカーを装着させ、その姿を撮影した画像を解析することにより視線を推定してもよいし、それらの技術のいずれかを組み合わせてもよい。
図1は、ヘッドマウントディスプレイ100の外観図である。ヘッドマウントディスプレイ100は、本体部110、前頭部接触部120、および側頭部接触部130を含む。ヘッドマウントディスプレイ100は、ユーザの頭部に装着してディスプレイに表示される静止画や動画などを鑑賞し、ヘッドホンから出力される音声や音楽などを聴くための表示装置である。ヘッドマウントディスプレイ100に内蔵または外付けされたモーションセンサにより、ヘッドマウントディスプレイ100を装着したユーザの頭部の回転角や傾きといった姿勢情報を計測することができる。
ヘッドマウントディスプレイ100は、「ウェアラブルディスプレイ装置」の一例である。ウェアラブルディスプレイ装置には、狭義のヘッドマウントディスプレイ100に限らず、めがね、めがね型ディスプレイ、めがね型カメラ、ヘッドホン、ヘッドセット(マイクつきヘッドホン)、イヤホン、イヤリング、耳かけカメラ、帽子、カメラつき帽子、ヘアバンドなど任意の装着可能なディスプレイ装置が含まれる。
図2は、ヘッドマウントディスプレイ100の機能構成図である。制御部10は、画像信号、センサ信号などの信号や、命令やデータを処理して出力するメインプロセッサである。入力インタフェース20は、ユーザからの操作信号や設定信号を受け付け、制御部10に供給する。出力インタフェース30は、制御部10から画像信号を受け取り、ディスプレイに表示させる。バックライト32は、液晶ディスプレイにバックライトを供給する。
通信制御部40は、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、制御部10から入力されるデータを外部に送信する。通信制御部40は、また、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、外部からデータを受信し、制御部10に出力する。記憶部50は、制御部10が処理するデータやパラメータ、操作信号などを一時的に記憶する。
モーションセンサ64は、ヘッドマウントディスプレイ100の本体部110の回転角や傾きなどの姿勢情報を検出する。モーションセンサ64は、ジャイロセンサ、加速度センサ、角加速度センサなどを適宜組み合わせて実現される。外部入出力端子インタフェース70は、USB(Universal Serial Bus)コントローラなどの周辺機器を接続するためのインタフェースである。外部メモリ72は、フラッシュメモリなどの外部メモリである。
時計部80は、制御部10からの設定信号によって時間情報を設定し、時間データを制御部10に供給する。制御部10は、画像やテキストデータを出力インタフェース30に供給してディスプレイに表示させたり、通信制御部40に供給して外部に送信させたりすることができる。
図3は、本実施の形態に係る情報処理システムの構成図である。ヘッドマウントディスプレイ100は、無線通信またはUSBなどの周辺機器を接続するインタフェース300で情報処理装置200に接続される。情報処理装置200は、さらにネットワークを介してサーバに接続されてもよい。その場合、サーバは、複数のユーザがネットワークを介して参加できるゲームなどのオンラインアプリケーションを情報処理装置200に提供してもよい。ヘッドマウントディスプレイ100は、情報処理装置200の代わりに、コンピュータや携帯端末に接続されてもよい。
ヘッドマウントディスプレイ100に表示される画像は、あらかじめ撮影された360度のパノラマ静止画またはパノラマ動画の他、ゲーム空間のような人工的なパノラマ画像であってもよい。また、ネットワーク経由で配信される遠隔地のライブ映像であってもよい。ただし本実施の形態をパノラマ画像に限定する主旨ではなく、表示装置の種類によって、パノラマ画像とするか否かを適宜決定してよい。
図4は情報処理装置200の内部回路構成を示している。情報処理装置200は、CPU(Central Processing Unit)222、GPU(Graphics Processing Unit)224、メインメモリ226を含む。これらの各部は、バス230を介して相互に接続されている。バス230にはさらに入出力インタフェース228が接続されている。
入出力インタフェース228には、USBやIEEE1394などの周辺機器インタフェースや、有線又は無線LANのネットワークインタフェースからなる通信部232、ハードディスクドライブや不揮発性メモリなどの記憶部234、ヘッドマウントディスプレイ100などの表示装置へデータを出力する出力部236、ヘッドマウントディスプレイ100からデータを入力する入力部238、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部240が接続される。
CPU222は、記憶部234に記憶されているオペレーティングシステムを実行することにより情報処理装置200の全体を制御する。CPU222はまた、リムーバブル記録媒体から読み出されてメインメモリ226にロードされた、あるいは通信部232を介してダウンロードされた各種プログラムを実行する。GPU224は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU222からの描画命令に従って描画処理を行い、表示画像を図示しないフレームバッファに格納する。そしてフレームバッファに格納された表示画像をビデオ信号に変換して出力部236に出力する。メインメモリ226はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。
図5は、本実施の形態における情報処理装置200の機能ブロックを示している。本実施の形態における情報処理装置200は、上述のとおり視線の動きにより視野が変化するとともに、当該視線によって複数の選択肢から1つを選択する入力を受け付けるための画面(以後、「メニュー画面」と呼ぶ)を生成する。そして当該画面に対する選択入力を受け付け、それに対応する処理を実行する。選択に応じてなされる処理は特に限定されないが、ここでは一例として、ゲームや動画などの電子コンテンツの処理を想定する。そして各電子コンテンツを表象するアイコンの配列をメニュー画面に表す。
なお図5で示した情報処理装置200の機能のうち少なくとも一部を、ヘッドマウントディスプレイ100の制御部10に実装してもよい。あるいは、情報処理装置200の少なくとも一部の機能を、ネットワークを介して情報処理装置200に接続されたサーバに実装してもよい。またメニュー画面を生成し選択入力を受け付ける機能をメニュー画面制御装置として、電子コンテンツを処理する装置と別に設けてもよい。
同図は情報処理装置200が有する機能のうち、主にメニュー画面の制御に係る機能に着目したブロック図を描いている。これらの機能ブロックは、ハードウェア的には、図4に示したCPU、GPU、各種メモリなどの構成で実現でき、ソフトウェア的には、記録媒体などからメモリにロードした、データ入力機能、データ保持機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
情報処理装置200は、ヘッドマウントディスプレイ100の位置や姿勢を取得する位置・姿勢取得部712、ユーザの視線に基づき表示画像の視野を制御する視野制御部714、表示対象のアイコンに係る情報を記憶するアイコン情報記憶部720、仮想空間におけるアイコン配列を決定するアイコン配置部722、視線の変化により操作がなされたことを判定する操作判定部718、選択された電子コンテンツを処理するコンテンツ処理部728、表示画像のデータを生成する画像生成部716、選択対象のコンテンツに係る情報を記憶するコンテンツ情報記憶部724、および、生成されたデータを出力する出力部726を備える。
位置・姿勢取得部712は、ヘッドマウントディスプレイ100のモーションセンサ64の検出値に基づいて、ヘッドマウントディスプレイ100を装着したユーザの頭部の位置や姿勢を所定のレートで取得する。位置・姿勢取得部712はさらに、情報処理装置200に接続した図示しない撮像装置による撮影画像に基づき、頭部の位置や姿勢を取得したり、その結果をモーションセンサによる情報と統合したりしてもよい。
視野制御部714は、位置・姿勢取得部712により取得された頭部の位置や姿勢に基づいて、描画対象の3次元空間に対する視野面(スクリーン)を設定する。本実施の形態のメニュー画面では、表示対象の複数のアイコンを、仮想空間の中空に浮かんでいるように表現する。したがって視野制御部714は、当該アイコンを配置するための仮想的な3次元空間の情報を保持している。
アイコン以外で当該空間に表す物は特に限定されないが、例えば背景を表す面やオブジェクトなどを、一般的なコンピュータグラフィクスと同様のグローバル座標系に定義する。例えば空中に浮かぶアイコンとユーザの頭部を包含するような大きさの全天球状の背景オブジェクトを配置してもよい。これにより空間に奥行き感が生じ、アイコンが空中に浮いている状態をより印象づけられる。そして視野制御部714は、当該グローバル座標系に対するスクリーン座標を、ヘッドマウントディスプレイ100の姿勢に基づいて所定のレートで設定する。
ヘッドマウントディスプレイ100の姿勢、すなわちユーザ頭部のオイラー角によってユーザの顔面の向く方向が判明する。視野制御部714は少なくとも、当該顔面の向く方向に対応させてスクリーン座標を設定することにより、ユーザが向く方向に応じた視野で仮想空間がスクリーン平面に描画されるようにする。この場合、ユーザの顔面の法線ベクトルをおよそ視線の方向と推定していることになる。
なお赤外線の反射などにより注視点を検出する装置を用いればさらに詳細な視線情報を得ることができる。以後の説明では、導出手法によらず推定あるいは検出された、ユーザが見ている方向を総じて「視線」の方向と称する。視野制御部714は、ユーザ頭部の姿勢の変化が所定の値を超えるまでは検出された角度の変化を無視するようにして、意図せず画像がぶれるのを防いでもよい。また表示画像のズーム操作を受け付けるような場合は、ズーム倍率に基づいて頭部の角度検出の感度を調整してもよい。
アイコン配置部722は、各電子コンテンツを表象するアイコンの配列を決定する。上述のとおりアイコンは仮想空間に浮いているように表す。より具体的には、ユーザが正面(水平方向)を向いているときの視線と同一水平面上あるいはその近傍に、水平方向にアイコンを配列させる。これにより、首を横に振る動作を基本としてアイコンを選択できるようにする。アイコンは各電子コンテンツのサムネイル画像を表す球体などのオブジェクトとする。
アイコン情報記憶部720には、アイコンの形状や、アイコンを表示すべき電子コンテンツに係る情報が格納されている。アイコン配置部722は、アイコン情報記憶部720に格納された情報に基づき、表示すべきアイコンの数を特定し、それに応じて配置パターンや配列の及ぶ範囲を最適化する。具体例は後に述べるが、仮想空間においてアイコンを配列できる範囲と、表示すべきアイコンの数を考慮して、アイコンの中心位置を上下にずらすなどして最適化する。これにより、多くのアイコンであっても適切な間隔を保ちつつ効率的な選択ができるようにする。
アイコン配置部722はさらに、ユーザの操作に応じて、そのようなアイコン配列を、順列を保ったまま仮想空間内で変位させる。つまりグローバル座標系において配列自体を変位させる。これにより、多数のアイコンを含む配列であっても、ユーザの前方など容易に見ることのできる範囲に所望のアイコンを引き寄せることができる。アイコン配置部722は、コンテンツの識別情報と、当該コンテンツを表すアイコンの配置情報を対応づけて、画像生成部716に供給する。
操作判定部718は、ユーザの視線の動きにより、メニュー画面の視野変化以外の何らかの操作がなされたか否かを判定する。ここで判定される操作とは、アイコンの選択、選択されたアイコンに対応する電子コンテンツの再生、処理開始、ダウンロード、情報表示、対応するウェブサイトへの表示の移行、ヘルプ情報の表示などである。例えば、アイコン配列のうち1つのアイコンに視線が到達したとき、当該アイコンが選択されたと判定する。これに応じて、対応するコンテンツへの具体的な操作内容を選択するための操作ボタンを追加で表示させ、それに視線が移されたら当該操作がなされたと判定する。
操作判定部718は、そのような処理を実施するための判定基準とそれに応じてなすべき処理に係る設定情報を保持している。操作がなされたと判定され、それが操作ボタン等、追加のオブジェクトをメニュー画面に表示させるべきものである場合は、操作判定部718はその旨の要求を画像生成部716に通知する。メニュー画面用の仮想空間内で処理が完結するその他の場合、例えば選択状態のコンテンツに係る概説を表示する操作がなされた場合や、メニュー画面に対するヘルプ情報を表示する操作がなされた場合なども、操作判定部718はその旨の処理要求を画像生成部716に通知する。
電子コンテンツの再生・処理開始や、ウェブサイトへの表示の移行など、メニュー画面用の仮想空間から表示を切り替える操作がなされた場合、操作判定部718はその旨の要求をコンテンツ処理部728に通知する。操作判定部718はさらに、アイコン配列を変位させる操作がなされたか否かを判定し、なされた場合はその旨の要求をアイコン配置部722に通知する。
画像生成部716は、アイコン配置部722が決定したアイコン配列を含む仮想空間を、視野制御部714が決定したスクリーンに投影することにより、メニュー画面として表示させる画像を所定のレートで描画する。上述のとおり仮想空間には、背景オブジェクトなどアイコン配列以外の物が存在していてもよい。画像生成部716は、選択状態にある、すなわち視線が向いているアイコンのサムネイル画像が背景全体に表されるように、背景オブジェクトのテクスチャ画像を切り替えてもよい。
画像生成部716は、ヘッドマウントディスプレイ100において立体視できるようにメニュー画面の画像を生成してもよい。すなわちヘッドマウントディスプレイ100の画面を左右に分割してなる領域にそれぞれ表示するための、左眼用、右眼用の視差画像を生成してもよい。画像生成部716はさらに、操作判定部718からの要求に応じて画像に変化を与える。例えば、選択状態のアイコンを拡大表示させたり、そのようなアイコンの近傍に、具体的な操作を受け付けるための操作ボタンを表示させたりする。
あるいはコンテンツを概説する文字情報やメニュー画面に対するヘルプ情報などを表示する。各コンテンツについての文字情報や、アイコンや背景の描画に用いるサムネイル画像などのデータは、コンテンツの識別情報に対応づけてコンテンツ情報記憶部724に格納しておく。あるいはネットワークを介して接続されたサーバから直接取得してもよい。上述のように全天球の背景オブジェクトを配置する場合、コンテンツ情報記憶部724には、各電子コンテンツに対応して作成された、あるいはメニュー画面用に作成された、パノラマ画像のデータを格納しておく。
パノラマ画像は、定点を中心とする周囲の空間の画像の一例であり、全天球のパノラマ画像の場合、周囲の空間(パノラマ空間)は球で表される。なお背景の画像は、事前に作成された動画または静止画コンテンツであってもよく、レンダリングされたコンピュータグラフィックスであってもよい。
コンテンツ処理部728は、操作判定部718からの要求に応じて、選択されたアイコンに対応する電子コンテンツを処理する。すなわち動画や静止画を再生したり、ゲームを開始させたりする。そのためのデータやプログラムは、コンテンツの識別情報に対応づけてコンテンツ情報記憶部724に格納しておく。画像生成部716は、コンテンツ処理部728からの要求に従い、動画像やゲーム画面などコンテンツ表示のための画像も生成する。コンテンツの具体的な処理については一般的な技術を適用できるため、ここでは説明を省略する。
出力部726は、画像生成部716が生成した画像のデータを、ヘッドマウントディスプレイ100に所定のレートで送出する。出力部726はさらに、メニュー画面用の音楽や各種コンテンツに含まれる音声などの音響データも出力してよい。
図6は、ヘッドマウントディスプレイ100に表示されるメニュー画面を例示している。メニュー画面500は、ユーザの周囲に構築された仮想空間のうち、ユーザの視線に対応する視野内にある物を表現している。したがって、アイコン配置部722が配列させた複数のアイコンのうち、当該視野内にある一部のアイコン502a〜502gが表示されている。各アイコン502a〜502gの上方には、アイコンが表すコンテンツのタイトル等を文字情報として表示する。ユーザは首を横方向に振ることにより、視線、ひいては視野を移動させ、そのほかのアイコンも閲覧することができる。
アイコン502a〜502gの背後には、背景を表すオブジェクトも描画される。上述のように全天空を表す背景オブジェクトとした場合、それに貼り付けられたテクスチャ画像が奥行き感を伴い表現される。これによりアイコン502a〜502gは、背景オブジェクトで包含された空間に浮いているように演出できる。図示する例では、アイコン502a〜502gは、各電子コンテンツのサムネイル画像をテクスチャマッピングした球形のオブジェクトである。ただしアイコンの形状をこれに限定する主旨ではない。
メニュー画面500にはさらに、画像平面とユーザの視線が交差する点、すなわちメニュー画面におけるユーザの視点を表すカーソル504を表示する。上述のようにメニュー画面500の視野は、視線の動きに応じて変化する。結果として視点を表すカーソル504は、視線の動きによらず、メニュー画面500の略中央に据え置かれることになる。すなわちユーザの視線の方向が変化すると視野も同様に変化するため、画面上ではカーソル504は定位置にあり、相対的にアイコン配列および背景オブジェクトを含む仮想世界が逆方向に変位することになる。
カーソル504は、情報処理装置200が視点と認識している位置をユーザ自身に知らしめ、ユーザがそれを手がかりに首の振り幅を直感的に調整することにより、所望のアイコンや操作ボタンを正確に操作できるようにするものである。その限りにおいては、カーソル504は厳密にユーザの視点と一致していなくてもよい。また視線の動きの速さなどによって、画面の中心から外れることがあってもよい。
なおメニュー画面500にはさらに、図示しないその他のオブジェクトを表示させてもよい。例えばヘルプ情報を表示させるための操作ボタンを仮想空間における下方に配置し、視線を下に向けることにより画面に出現させてその操作を受け付けるようにしてもよい。
図7は、メニュー画像を生成する際に構築される仮想空間の例を模式的に示している。上述のとおり仮想空間には、ユーザ516の頭部を横切る水平面、例えばユーザ516が正面を向いたときの視線ベクトルを含む水平面を基準として水平方向にアイコンを配列させる。同図の例では、ユーザの頭部を中心とし、所定の半径Zを有する円周512と交差するように、アイコン(例えばアイコン514a、514b)を規則的に配列させている。
さらにユーザ516の頭部の位置を中心とする球面510を設定し、背景オブジェクトとしている。そしてユーザの顔面の向く方向(顔面の法線ベクトル517)を視線として特定し、それを中心とする垂直面にスクリーン518を設定して仮想空間のオブジェクトを投影する。これにより、図6で示したようなメニュー画面500が描画される。
アイコン配置部722は上述のとおり、状況に応じてアイコンの配列を最適化する。最も単純には、全てのアイコンの中心が円周512上に位置するように一列(一周)に並べることが考えられる。アイコンは全て等間隔で配列させてもよいし、ユーザの前方に対応する範囲に優先的に配置してもよい。
一方で、このように頭部の周囲にアイコンを配列させる態様では、配列可能な範囲が円周512の長さで決まるため、自ずと一度に表示できるアイコンの数が制限される。半径Zを大きくすると円周が長くなり、より多くのアイコンを配列させられるが、それに応じてアイコンの見かけ上のサイズや、文字情報の表示可能領域が小さくなり見づらくなってしまう。
そこで少なくとも1つのアイコンの中心が、他のアイコンの中心と上下方向に差を有するように配列させることにより、表示できるアイコン数の上限を増やす。図示する例では、×印で表記した中心が、円周512より上にあるアイコン514aと、下にあるアイコン514bとを交互に配置している。つまり垂直方向の位置を交互に変化させている。このようにすることで、一列に並べる場合と比較して、半径Zを変化させず、またアイコン同士の間隔を同程度に保っても、表示できるアイコンの数の上限を50%程度増やすことができる。
図8は、視線の動きに応じたメニュー画面の変遷を例示している。同図では、メニュー画面のうちアイコン配列の部分のみを左側に示すとともに、そのときのユーザの頭部を左側面から見た状態を右側に示している。まず上段の(a)の画面では、これまで述べたようにして表示されるアイコン520の配列と、ユーザの視点を表すカーソル522が表示されている。図7を参照して説明したように、仮想空間においてアイコン520は、ユーザが正面を向いたときの視線の高さで、頭部を取り囲むように配置されている。
結果として、同図右側に示すように正面を向いた状態において、アイコン配列の縦方向の中心は、視点を表すカーソル522と略同じ高さになる。(a)の状態では、カーソル522がアイコン520と重なっていないため、全てのアイコンが非選択状態であり同じ大きさとなっている。なおアイコン520は画面中央ほどユーザからの仮想的な距離が遠くなるため、厳密にはそのような距離に応じたサイズで表示されるがここでは無視している。以後の図でも同様である。
ここでユーザが首を微少量、右方に振ると、すなわち右方に視線を移動させると、それに応じて画面の視野が右方に移動する。結果として中段の(b)に示すように、画面内でのカーソル522の位置は変化しないが、アイコン配列が相対的に左方へ移動する。当然、左方に視線を動かせば画面内でアイコン配列が右方へ移動する。このような動きにより、あるアイコン524にカーソル522が重なったら、当該アイコンが524を拡大表示することで選択状態であることを表す。
アイコンが選択状態となったら、当該アイコン524の下方に操作ボタンを追加で表示する。操作ボタンはアイコンが表すコンテンツの種類によって様々でよいが、同図では動画コンテンツを想定し、情報表示ボタン526a、再生開始ボタン526b、対応ウェブサイト表示ボタン526c(以後、「操作ボタン526」と総称する場合がある)の3つを表示している。この状態でユーザがうなずくようにして視線を下方に動かすと、それに応じて画面の視野が下方に移動する。
結果として下段の(c)に示すように、画面内でのカーソル522の位置は変化しないが、アイコン配列が相対的に上方へ移動する。これによりカーソル522が操作ボタン526のいずれかと重なったら、当該操作ボタンに対応する操作を受け付ける。図示する例では再生開始ボタン526bと重なっているため、選択状態のアイコン524が表す動画コンテンツの再生開始操作を受け付け、再生処理を開始する。この場合、表示中のメニュー画面から動画へ表示が切り替わるため、その制御はコンテンツ処理部728が行う。
なおカーソル522が情報表示ボタン526aと重なった場合は、メニュー画面と同じ仮想空間内で動画を概説する文字情報へ表示を切り替える。カーソル522が対応ウェブサイト表示ボタン526cと重なった場合は、当該ウェブサイトを提供するサーバへ接続することによりウェブサイトの表示へ切り替える。操作ボタンとしてはこのほか、選択状態のアイコンが表す電子コンテンツをダウンロードするボタンなどを表示させてもよい。
図示するように操作ボタン526を選択状態のアイコン524の下方近傍に出現させることにより、より少ない労力で、かつアイコン選択との連続性を保ちながら各種操作が可能になる。結果として操作ボタン526が、選択状態にない他のアイコンと重なる可能性が生じるが、操作ボタンを表示している期間は他のアイコンの選択を無効とすることにより、操作ボタンに対する操作を優先させる。
操作ボタンに対する操作を有効とし、それに対応する処理を開始するために、何らかの条件を設定してもよい。例えばカーソル522が操作ボタンに重なってから所定時間が経過したことを条件に、操作を有効と判定してもよい。この場合、カーソル522が操作ボタンに重なった時点で、操作が有効とされるまでの残り時間を表すインジケータを別途、表示してもよい。このようにすることで、首の微妙な動きで偶然、操作ボタンにカーソルがかかってしまい、意図しない処理が頻繁に開始されてしまうといった不具合を解消できる。また意図してカーソル522を操作ボタンに移動させたとしても、処理が開始されるまでにキャンセルの余地を与えることができる。
図8で示した構成とすることで、配列した多数のアイコンから左右の首振りにより1つを選択状態とし、さらにうなずく動きで、当該アイコンが表すコンテンツに対する各種操作が可能となる。一般的に、左右の首振りやうなずく動きは、体勢によらず、上方を仰ぎ見る動きより負担が少ない。したがって、より可変範囲が広い左右の首振りに合わせてアイコンを水平に配列させ、操作を意図したときのみ下方に操作ボタンを表示させることにより、より多くのアイコンを選択肢とできるとともに、無理のない直感的な操作が可能になる。
図9は、アイコン配列と視点の動きの関係を模式的に示している。同図において円形で示したアイコンは仮想空間における配列の一部を表しており、実際には図7に示すように、ユーザの頭部を取り巻くような円周上に配置してよい。さらに同図では、左右の首振りによる、アイコン配列に対するカーソルの軌跡を点線矢印で示している。まず上段の(a)は、アイコンを一列に並べた状態を示している。この場合、単純に顔を右方あるいは左方に向けていくのみで、全てのアイコンを順次選択状態にできる。
一方、中段の(b)は、上述のようにアイコンの中心位置を上下にずらした場合であり、特に上段、下段のアイコンを交互に配置した場合を示している。このようにすることで、(a)の場合に比べ、同じ範囲により多くのアイコンを配置できる。さらに図示するように、全てのアイコンが同一水平面と交わるように、アイコンの半径rおよび上下のアイコンの縦方向のずれ量ΔCを決定する。すなわち2r>ΔC>0を満たすようにする。ただしアイコンを球形としない場合、半径rはアイコンの縦方向の長さの半分で置き換える。
このようにすることで、(a)の場合と同様、右方あるいは左方に顔を向けていくのみで全てのアイコンを順次選択状態にできる(軌跡M)。一方、首を微少量上向きとして右方または左方に顔を向けていけば、上段のアイコンのみを対象として順次選択状態にでき(軌跡U)、首を微少量下向きとして右方または左方に顔を向けていけば、下段のアイコンのみを対象として順次選択状態にできる(軌跡L)。当然、軌跡U、M、Lの途中で斜め方向に視線を移動させ、別の軌跡へ移行することもできる。つまり(b)のような配列によれば、表示可能なアイコンの数を増やせるとともに、縦方向の首の僅かな動きで選択対象を絞り込め、効率的に所望のアイコンを選択状態にできる。
(b)は上段、下段のアイコンを交互に配置したが、同図下段の(c)のように、交互にせずとも効果は同様である。ただし一度に表示できるアイコンの数は(b)が最も多くなる。アイコン配置部722は、表示すべきアイコンの数に基づき、アイコンの表示パターン、すなわち同図の(a)〜(c)等とアイコン同士の間隔、およびアイコンの表示範囲との組み合わせでアイコン配列を最適化してもよい。例えば表示すべきアイコンの数が少ないうちは(a)のパターンで、ユーザの前方から順にアイコンを配列させていく。
アイコンが増加して表示範囲がユーザの周囲360°に到達し、なおアイコンが増える場合、(b)のパターンでユーザの前方に詰めて表示させる。あるいは配置しきれなくなったアイコンのみを(c)のパターンでずらして配置してもよい。ただし本実施の形態をこれに限る主旨ではなく、当初より(b)のパターンとしてもよい。なおアイコンを上段とするか下段とするかを、アイコンが表すコンテンツの種類によって決定してもよい。また、場合によっては3段以上の配列としてもよい。
これまで述べたように本実施の形態においては、仮想空間におけるユーザの頭部の周囲にアイコンを配置することにより、より多くのコンテンツを一度に選択肢とできるため、複雑な情報体系を組むよりシンプルかつ直感的な操作が可能になる。一方、ユーザの背後にアイコンを配置させた場合、それを視認するには後ろを振り向く必要が生じる。ユーザが着座している場合などは、そのような体勢が負担になることも考えられる。そこで本実施の形態ではさらに、仮想空間におけるアイコン配列自体を変位させる操作を可能にする。
図10は、アイコン配列を変位させる操作を含むメニュー画面の変遷を例示している。同図では、メニュー画面のうちアイコン配列の部分のみを左側に示すとともに、そのときのユーザの向きと仮想空間におけるアイコン配列を俯瞰した状態を右側に示している。まず上段の(a)の画面は、これまで述べたように、ユーザが顔を右方や左方に向けることにより画面上の視野が変化するとともに、カーソル530が重なったアイコンが拡大表示され、その下に操作ボタンが表示されている様子を示している。
このときの仮想空間を俯瞰すると、ユーザの頭部を中心とした円周上にアイコン534が配列し、そのうち視野に入ったアイコンが表示対象となっている。なお俯瞰図においては、表示対象のアイコンを太線丸印で、表示対象外のアイコンを点線丸印で示し、ユーザの視線を白抜き矢印で示している。ここで視野制御部714は仮想空間を構築する際、アイコンを配列させる円周上に、さらにアイコン配列を変位させるための変位ボタン536a、536bを配置しておく。変位ボタン536a、536bは例えば、アイコン配列の円周上、ユーザが容易に顔を向けることができる角度範囲θの両端に配置する。
この場合、当該角度範囲θは、ユーザの正面に対応する方向を中心とし、メニュー画面の視野角より広い範囲である。(a)の状態では、ユーザはほぼ正面を向いていることを想定しているため、変位ボタン536a、536bは視野外にあり表示されていない。例えばユーザが右方に首を振っていくと、やがて同図中段の(b)に示すように、一方の変位ボタン536aが視野に入ってくる。変位ボタン536aをアイコン配列よりユーザ側に配置することにより、表示上はアイコン上に重なることになる。
(b)の状態では、カーソル530は変位ボタン536aに到達していないため、(a)の場合と同様、それより左側にあるアイコンの選択操作を可能とする。そしてさらに右方に首を振り、同図下段の(c)に示すように、カーソル530が変位ボタン536aに重なったとき、変位操作を有効とし、アイコンの配列自体を変位させる。より詳細にはアイコンの配列を、ユーザの頭部を中心として同一水平面上で回転させる。
カーソル530が変位ボタン536aに重なっている期間、アイコン配列の回転を継続する。その結果、例えば俯瞰図において黒丸で示したように、(b)の状態ではユーザの背後に位置するアイコン538を、(c)の状態でユーザの前方に移動させることができる。同図は右方へ首を振る場合であるが、左方の場合も同様である。その結果、ユーザは体をひねったり立つ向きを変えたりすることなく、首の動きのみで周囲の360°に配置されたアイコンを選択することができる。
変位ボタン536a、536bを配置する角度範囲θとして、無理なく視線を変化させられる角度を実験等により求めておく。着座しているか否かなど、想定されるユーザの状態ごとに角度範囲θを異ならせてもよい。(c)の画面のように、変位ボタン536a上にカーソル530が重なり、アイコン配列が変位している期間においては、変位ボタン536aを通過したアイコンについては選択を可能とする。このとき変位ボタン536aが重なっているアイコンおよびその後続にあるアイコンについては、半透明などとすることにより選択が無効であることを示す。
図10では有効なアイコンより濃い網掛けで無効なアイコンを表している。そのようにアイコン配列を変位させた結果、所望のアイコンが視野に入り有効となった時点で、カーソル530を変位ボタン536aから外すことで、(b)の画面のように当該所望のアイコンを選択状態にできる。なおカーソル530を変位ボタン536aから外す操作は、変位ボタン536aにカーソル530を重ねたときと逆方向にカーソルを移動させることにより行う、すなわち図10の例では左側に首を振ることで実現させる。
次に、以上の構成により実現できる、メニュー画像生成装置の動作について説明する。図11は、情報処理装置200がメニュー画面を生成し選択操作を受け付ける処理手順を示すフローチャートである。このフローチャートは、例えばユーザがヘッドマウントディスプレイ100を装着し、情報処理装置200の電源を投入したときなどに開始される。まず情報処理装置200のアイコン配置部722は、アイコン情報記憶部720に格納されるアイコン情報に基づき、アイコンを表示すべきコンテンツの個数を特定し、それに応じて仮想空間におけるアイコン配列を決定する(S10)。
一方、視野制御部714は、背景オブジェクトなどを含む仮想空間を定義したうえ、ユーザの頭部の位置や姿勢に基づき仮想空間に対する視野面(スクリーン)を決定する。画像生成部716は、当該スクリーンに、アイコン配列を含む仮想空間を投影することにより、メニュー画面を描画する(S12)。描画処理自体には、一般的なコンピュータグラフィックス技術を適用できる。画像生成部716はさらに、ユーザの視点を表すカーソルをメニュー画面上に重畳表示する。
以後、視野制御部714が頭部の姿勢の変化に応じてスクリーンを変化させ、画像生成部716が当該スクリーンに対し画像を描画する処理を所定のレートで繰り返すことを基本とする。出力部726が、生成された画像のデータをヘッドマウントディスプレイ100に順次出力することにより、メニュー画面が視線の動きに応じて動的に表現される。
このような状態において、カーソルがアイコンに重なったことを操作判定部718が判定したら(S14のY)、画像生成部716は、当該アイコンを選択状態として拡大表示する(S16)。そして拡大表示したアイコンの下方に所定の操作ボタンを表示する(S18)。このとき同時に、背景オブジェクトの画像を、選択状態にあるアイコンに対応するものに更新してもよい。
その状態でユーザがうなずくことによりカーソルが操作ボタンに移動し(S20のY)、そのまま所定時間が経過するなど当該操作を有効と判定したら(S22のY)、操作判定部718は、操作対象のボタンの種類に応じて画像生成部716あるいはコンテンツ処理部728に処理を要求する。これにより対応する処理が実施される(S24)。
操作ボタンが表示されてもカーソルがそこに移動しなかった場合や(S18、S20のN)、カーソルが操作ボタン上に移動したものの有効とされずに外れた場合は(S20のY、S22のN)、S12の描画処理のみを継続する。なおカーソルが操作ボタンのみならず、S14で重なっていたアイコンからも外れた場合は、S16、S18の処理を元に戻す(図示せず)。すなわち操作ボタンを非表示とし、アイコンのサイズを元に戻す。
カーソルがアイコンに重なる都度、当該アイコンに対しS16、S18の処理がセットでなされる。結果として、図9で示したようにアイコン配列を横切るように視線を動かすと、大きくなっては小さくなるアイコンの変化が配列順に連鎖するような変化が表される。ユーザの首の振り幅が大きくなり、カーソルが変位ボタンに到達したら(S14のN、S30のY)、操作判定部718がそれを判定することにより、アイコン配置部722が仮想空間においてアイコンの配列を変位させる(S32)。
カーソルが変位ボタン上にある限り(S14のN、S30のY)、アイコン配置部722はアイコン配列を変位(回転)させ続け、画像生成部716はその模様を描画し続ける(S32、S12)。カーソルがアイコン、操作ボタン、変位ボタンのいずれにもない場合は、画像生成部716はアイコン配列を視野変化のみに応じて描画する(S14のN、S30のN、S12)。
一方、S24で操作ボタンに対応する処理を実施したあと、メニュー画面へ戻る操作がなされた場合は、画像生成部716はメニュー画面の描画処理を再開する(S26のY、S12)。メニュー画面へ戻る操作がなされなければ、画像生成部716あるいはコンテンツ処理部728がそれまでの処理を継続する(S26のN、S28のN、S24)。ただしその過程で、ユーザ操作などにより処理を終了させる必要が生じた場合は、情報処理装置200は全体の処理を終了する(S28のY)。
以上述べた本実施の形態によれば、複数のアイコンからの選択入力を受け付けるメニュー画面を、ユーザの顔の向きや視線の変化に応じて視野が変化する仮想空間として表現する。このとき、仮想空間の水平面に平行にアイコンを配列させて、左右の首振りによる視線の動きでアイコンを選択できるようにするとともに、選択状態のアイコンに対する詳細な操作を受け付けるための操作ボタンを、当該アイコンより下方に表示する。これにより、多数のアイコンを一瞥して選択できるとともに、無理のない動きで操作が可能となる。
このとき、水平面と平行とする原則のもと、上下にずれのあるアイコン配列とすることにより、ユーザを取り囲むようにアイコンが浮かぶ独特の演出を可能にしつつ、より多くのアイコンを視認しやすい距離で並べることができる。また表示すべきアイコンの数に応じて、配列パターンや配列が及ぶ範囲を最適化することができる。さらに、上下にずらすパターンにおいて、上段のアイコンも下段のアイコンも同一水平面に交差するようにアイコンの半径とずらし幅を決定する。これにより一列に並べた場合と同様、左右に首を振っていくシンプルな動作で、順次アイコンが選択状態となるため、操作方法の理解が容易となる。また上下にずらした場合は、首の上下方向の僅かな角度調整により、上段のアイコンのみ、あるいは下段のアイコンのみを選択対象とすることもでき、選択の効率性も向上する。
さらに、ユーザを取り囲むようなアイコン配列とした場合、アイコン配列自体を回転させる操作を受け付ける。これにより、背後などユーザが向きづらい位置にあるアイコンを良好な範囲に移動させることができ、負担をより軽減できる。またそのような操作を行うための変位ボタンをも、アイコン配列と同様にオブジェクトとして配置することにより、別途、操作方法を習得する必要なく、アイコン選択の延長として容易な変位操作が可能となる。
以上のように、仮想空間に対する視線の動きで高度な選択操作が可能となるため、ヘッドマウンドディスプレイのように入力装置の操作がしづらい場合は特に有効である。また、そのようにして選択したコンテンツが没入感を伴うものである場合は、当該コンテンツの世界観に適合した表現で選択操作が可能となる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
10 制御部、 20 入力インタフェース、 30 出力インタフェース、 32 バックライト、 40 通信制御部、 42 ネットワークアダプタ、 44 アンテナ、 50 記憶部、 64 モーションセンサ、 70 外部入出力端子インタフェース、 72 外部メモリ、 80 時計部、 100 ヘッドマウントディスプレイ、 200 情報処理装置、 222 CPU、 224 GPU、 226 メインメモリ、 712 位置・姿勢取得部、 714 視野制御部、 716 画像生成部、 718 操作判定部、 720 アイコン情報記憶部、 722 アイコン配置部、 724 コンテンツ情報記憶部、 726 出力部、 728 コンテンツ処理部。

Claims (10)

  1. 複数のアイコンを含むメニュー画面を生成しユーザからの選択操作を受け付ける情報処理装置であって、
    仮想空間に複数のアイコンを配列させるアイコン配置部と、
    ユーザの頭部の姿勢情報を取得し、それに基づき前記仮想空間に対する視野面を決定する視野制御部と、
    前記視野面に対する仮想空間の投影画像を描画したうえ、ユーザの視点を表すカーソルを重畳表示したメニュー画面を生成し表示装置に出力する画像生成部と、
    前記メニュー画面に描画されるアイコンおよびその他のオブジェクトの像と、前記カーソルとの位置関係に基づき、操作内容を特定する操作判定部と、
    を備え、
    前記アイコン配置部は、仮想空間の水平方向に、少なくとも1つのアイコンの中心が他のアイコンの中心と上下方向にずれ量を有するように前記複数のアイコンを配列させることを特徴とする情報処理装置。
  2. 前記アイコン配置部は、全てのアイコンが同一水平面と交わるように、前記ずれ量を決定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記アイコン配置部は、仮想空間においてユーザの頭部を中心とした円周と交差するように前記複数のアイコンを配列させることを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記アイコン配置部は、所定のずれ量を有するように上下に位置するアイコンを交互に配列させることを特徴とする請求項1から3のいずれかに記載の情報処理装置。
  5. 前記アイコン配置部は、アイコン配列に上下方向のずれ量を生じせしめるか否かをアイコンの数に応じて決定することを特徴とする請求項1から4のいずれかに記載の情報処理装置。
  6. 前記視野制御部は、前記複数のアイコンが配列する水平方向における所定の位置に、当該配列を仮想空間内で変位させる操作を受け付けるための変位ボタンを配置し、
    前記操作判定部は、前記カーソルが前記変位ボタンに重なっているとき、前記変位させる操作がなされていると判定し、
    前記アイコン配置部は、前記変位させる操作がなされている期間において、前記配列を所定方向に変位させることを特徴とする請求項1から5のいずれかに記載の情報処理装置。
  7. 前記視野制御部は、前記複数のアイコンが仮想空間においてユーザの頭部を中心とした円周と交差するように配列しているとき、当該円周上で、ユーザの正面に対応する方向を中心とする所定の角度範囲の両端に前記変位ボタンを配置し、
    前記アイコン配置部は、前記カーソルが重なっている前記変位ボタンより外側にあるアイコンが前記角度範囲に入るように、前記配列をユーザの頭部を中心に回転させることを特徴とする請求項6に記載の情報処理装置。
  8. 前記操作判定部は、前記カーソルが前記複数のアイコンの1つに重なったとき、当該アイコンの選択操作がなされたと判定し、
    前記画像生成部は、選択されたアイコンの下方に、当該アイコンが表象するコンテンツに対する操作を受け付けるための操作ボタンを追加で表示することを特徴とする請求項1から7のいずれかに記載の情報処理装置。
  9. 複数のアイコンを含むメニュー画面を生成しユーザからの選択操作を受け付ける、情報処理装置による操作受付方法であって、
    仮想空間に複数のアイコンを配列させるステップと、
    ユーザの頭部の姿勢情報を取得し、それに基づき前記仮想空間に対する視野面を決定するステップと、
    前記視野面に対する仮想空間の投影画像を描画したうえ、ユーザの視点を表すカーソルを重畳表示したメニュー画面を生成し表示装置に出力するステップと、
    前記メニュー画面に描画されるアイコンおよびその他のオブジェクトの像と、前記カーソルとの位置関係に基づき、操作内容を特定するステップと、を含み、
    前記アイコンを配列させるステップは、仮想空間の水平方向に、少なくとも1つのアイコンの中心が他のアイコンの中心と上下方向にずれ量を有するように前記複数のアイコンを配列させることを特徴とする操作受付方法。
  10. 複数のアイコンを含むメニュー画面を生成しユーザからの選択操作を受け付けるコンピュータに、
    仮想空間に複数のアイコンを配列させる機能と、
    ユーザの頭部の姿勢情報を取得し、それに基づき前記仮想空間に対する視野面を決定する機能と、
    前記視野面に対する仮想空間の投影画像を描画したうえ、ユーザの視点を表すカーソルを重畳表示したメニュー画面を生成し表示装置に出力する機能と、
    前記メニュー画面に描画されるアイコンおよびその他のオブジェクトの像と、前記カーソルとの位置関係に基づき、操作内容を特定する機能と、を実現させ、
    前記アイコンを配列させる機能は、仮想空間の水平方向に、少なくとも1つのアイコンの中心が他のアイコンの中心と上下方向にずれ量を有するように前記複数のアイコンを配列させることを特徴とするコンピュータプログラム。
JP2015246485A 2015-12-17 2015-12-17 情報処理装置および操作受付方法 Active JP6560974B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015246485A JP6560974B2 (ja) 2015-12-17 2015-12-17 情報処理装置および操作受付方法
PCT/JP2016/086795 WO2017104579A1 (ja) 2015-12-17 2016-12-09 情報処理装置および操作受付方法
US15/780,003 US10620791B2 (en) 2015-12-17 2016-12-09 Information processing apparatus and operation reception method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015246485A JP6560974B2 (ja) 2015-12-17 2015-12-17 情報処理装置および操作受付方法

Publications (3)

Publication Number Publication Date
JP2017111669A true JP2017111669A (ja) 2017-06-22
JP2017111669A5 JP2017111669A5 (ja) 2018-04-12
JP6560974B2 JP6560974B2 (ja) 2019-08-14

Family

ID=59056615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015246485A Active JP6560974B2 (ja) 2015-12-17 2015-12-17 情報処理装置および操作受付方法

Country Status (3)

Country Link
US (1) US10620791B2 (ja)
JP (1) JP6560974B2 (ja)
WO (1) WO2017104579A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005516A (ja) * 2016-06-30 2018-01-11 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム
JP6340464B1 (ja) * 2017-09-27 2018-06-06 株式会社Cygames プログラム、情報処理方法、情報処理システム、頭部装着型表示装置、情報処理装置
WO2019176910A1 (ja) * 2018-03-14 2019-09-19 本田技研工業株式会社 情報表示装置、情報表示方法および情報表示プログラム

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD795887S1 (en) * 2015-04-09 2017-08-29 Sonos, Inc. Display screen with icon
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
CN108139814A (zh) * 2017-01-10 2018-06-08 深圳市柔宇科技有限公司 显示内容的调整方法、***及头戴式显示设备
US10585294B2 (en) 2018-02-19 2020-03-10 Microsoft Technology Licensing, Llc Curved display on content in mixed reality
US11907417B2 (en) * 2019-07-25 2024-02-20 Tectus Corporation Glance and reveal within a virtual environment
US11662807B2 (en) 2020-01-06 2023-05-30 Tectus Corporation Eye-tracking user interface for virtual tool control
USD923049S1 (en) * 2019-11-18 2021-06-22 Citrix Systems, Inc. Display screen or portion thereof with icon
USD914746S1 (en) * 2019-11-18 2021-03-30 Citrix Systems, Inc. Display screen or portion thereof with animated graphical user interface
USD914745S1 (en) * 2019-11-18 2021-03-30 Citrix Systems, Inc. Display screen or portion thereof with animated graphical user interface
USD914054S1 (en) * 2019-11-18 2021-03-23 Citrix Systems, Inc. Display screen or portion thereof with animated graphical user interface
USD973100S1 (en) 2021-04-22 2022-12-20 Meta Platforms, Inc. Display screen with a graphical user interface
US11516171B1 (en) 2021-04-22 2022-11-29 Meta Platforms, Inc. Systems and methods for co-present digital messaging
USD974404S1 (en) 2021-04-22 2023-01-03 Meta Platforms, Inc. Display screen with a graphical user interface
USD973097S1 (en) * 2021-04-22 2022-12-20 Meta Platforms, Inc. Display screen with an animated graphical user interface
US11949636B1 (en) 2021-04-22 2024-04-02 Meta Platforms, Inc. Systems and methods for availability-based streaming
USD975731S1 (en) 2021-04-22 2023-01-17 Meta Platforms, Inc. Display screen with a graphical user interface
US11592899B1 (en) 2021-10-28 2023-02-28 Tectus Corporation Button activation within an eye-controlled user interface
US11619994B1 (en) 2022-01-14 2023-04-04 Tectus Corporation Control of an electronic contact lens using pitch-based eye gestures
US11874961B2 (en) 2022-05-09 2024-01-16 Tectus Corporation Managing display of an icon in an eye tracking augmented reality device

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0764709A (ja) * 1993-08-26 1995-03-10 Olympus Optical Co Ltd 指示処理装置
JPH07271546A (ja) * 1994-03-31 1995-10-20 Olympus Optical Co Ltd 画像表示制御方法
JPH0997162A (ja) * 1995-10-02 1997-04-08 Sony Corp 画像制御装置および方法
WO2000011540A1 (fr) * 1998-08-24 2000-03-02 Hitachi, Ltd. Systeme, dispositif et procede d'affichage de traitement d'informations multimedia
JP2003196017A (ja) * 2001-12-25 2003-07-11 Gen Tec:Kk データ入力方法及び同装置等
JP2008033891A (ja) * 2006-06-27 2008-02-14 Matsushita Electric Ind Co Ltd 表示装置及びその制御方法
JP2010218195A (ja) * 2009-03-17 2010-09-30 Cellius Inc 画像生成システム、プログラム、情報記憶媒体、及びサーバシステム
US20130106674A1 (en) * 2011-11-02 2013-05-02 Google Inc. Eye Gaze Detection to Determine Speed of Image Movement
JP2014072576A (ja) * 2012-09-27 2014-04-21 Kyocera Corp 表示装置および制御方法
US20150067580A1 (en) * 2013-09-02 2015-03-05 Lg Electronics Inc. Wearable device and method of outputting content thereof

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5898435A (en) 1995-10-02 1999-04-27 Sony Corporation Image controlling device and image controlling method
US7928926B2 (en) * 2006-06-27 2011-04-19 Panasonic Corporation Display apparatus and method for hands free operation that selects a function when window is within field of view
US9329746B2 (en) * 2009-11-27 2016-05-03 Lg Electronics Inc. Method for managing contents and display apparatus thereof
JP5790255B2 (ja) * 2011-07-29 2015-10-07 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
US10341642B2 (en) * 2012-09-27 2019-07-02 Kyocera Corporation Display device, control method, and control program for stereoscopically displaying objects
TWI566134B (zh) * 2013-02-05 2017-01-11 財團法人工業技術研究院 摺疊式顯示器、可撓式顯示器及電腦圖像之控制方法
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0764709A (ja) * 1993-08-26 1995-03-10 Olympus Optical Co Ltd 指示処理装置
JPH07271546A (ja) * 1994-03-31 1995-10-20 Olympus Optical Co Ltd 画像表示制御方法
JPH0997162A (ja) * 1995-10-02 1997-04-08 Sony Corp 画像制御装置および方法
WO2000011540A1 (fr) * 1998-08-24 2000-03-02 Hitachi, Ltd. Systeme, dispositif et procede d'affichage de traitement d'informations multimedia
JP2003196017A (ja) * 2001-12-25 2003-07-11 Gen Tec:Kk データ入力方法及び同装置等
JP2008033891A (ja) * 2006-06-27 2008-02-14 Matsushita Electric Ind Co Ltd 表示装置及びその制御方法
JP2010218195A (ja) * 2009-03-17 2010-09-30 Cellius Inc 画像生成システム、プログラム、情報記憶媒体、及びサーバシステム
US20130106674A1 (en) * 2011-11-02 2013-05-02 Google Inc. Eye Gaze Detection to Determine Speed of Image Movement
JP2014072576A (ja) * 2012-09-27 2014-04-21 Kyocera Corp 表示装置および制御方法
US20150067580A1 (en) * 2013-09-02 2015-03-05 Lg Electronics Inc. Wearable device and method of outputting content thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005516A (ja) * 2016-06-30 2018-01-11 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム
JP6340464B1 (ja) * 2017-09-27 2018-06-06 株式会社Cygames プログラム、情報処理方法、情報処理システム、頭部装着型表示装置、情報処理装置
WO2019065846A1 (ja) * 2017-09-27 2019-04-04 株式会社Cygames プログラム、情報処理方法、情報処理システム、頭部装着型表示装置、情報処理装置
WO2019176910A1 (ja) * 2018-03-14 2019-09-19 本田技研工業株式会社 情報表示装置、情報表示方法および情報表示プログラム

Also Published As

Publication number Publication date
WO2017104579A1 (ja) 2017-06-22
US10620791B2 (en) 2020-04-14
JP6560974B2 (ja) 2019-08-14
US20180348969A1 (en) 2018-12-06

Similar Documents

Publication Publication Date Title
JP6560974B2 (ja) 情報処理装置および操作受付方法
WO2017110632A1 (ja) 情報処理装置および操作受付方法
JP6511386B2 (ja) 情報処理装置および画像生成方法
US10303244B2 (en) Information processing apparatus, information processing method, and computer program
US11481025B2 (en) Display control apparatus, display apparatus, and display control method
EP3321776B1 (en) Operation input device and operation input method
US11317072B2 (en) Display apparatus and server, and control methods thereof
JP2022531599A (ja) 視点回転の方法、装置、端末およびコンピュータプラグラム
JP7466034B2 (ja) プログラム、およびシステム
JP6262283B2 (ja) 仮想空間を提供する方法、プログラム、および記録媒体
US10369468B2 (en) Information processing apparatus, image generating method, and program
EP3600578B1 (en) Zoom apparatus and associated methods
JP2019016071A (ja) 情報処理方法、プログラム及びコンピュータ
JP6382928B2 (ja) 仮想空間における画像の表示を制御するためにコンピュータによって実行される方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置
US11882172B2 (en) Non-transitory computer-readable medium, information processing method and information processing apparatus
JP2018170013A (ja) 仮想空間における画像の表示を制御するためにコンピュータによって実行される方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置
JP2019168962A (ja) プログラム、情報処理装置、及び情報処理方法
JP2017228322A (ja) 仮想空間を提供する方法、プログラム、および記録媒体
JP2022048172A (ja) プログラム、情報処理装置、及び情報処理方法
JP7030075B2 (ja) プログラム、情報処理装置、及び情報処理方法
JP2019016358A (ja) 情報処理方法、プログラム及びコンピュータ
JP2023125711A (ja) 情報処理装置および床面高さ調整方法
CN117478931A (zh) 信息显示方法、装置、电子设备及存储介质
JP2018098697A (ja) コンテンツを提示するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190722

R150 Certificate of patent or registration of utility model

Ref document number: 6560974

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150