JP4799261B2 - 画像表示装置、その制御方法及びプログラム - Google Patents

画像表示装置、その制御方法及びプログラム Download PDF

Info

Publication number
JP4799261B2
JP4799261B2 JP2006128735A JP2006128735A JP4799261B2 JP 4799261 B2 JP4799261 B2 JP 4799261B2 JP 2006128735 A JP2006128735 A JP 2006128735A JP 2006128735 A JP2006128735 A JP 2006128735A JP 4799261 B2 JP4799261 B2 JP 4799261B2
Authority
JP
Japan
Prior art keywords
display element
controller
virtual space
image
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006128735A
Other languages
English (en)
Other versions
JP2007299330A (ja
Inventor
禎治 豊
俊介 國枝
繁 榎本
智志 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2006128735A priority Critical patent/JP4799261B2/ja
Publication of JP2007299330A publication Critical patent/JP2007299330A/ja
Application granted granted Critical
Publication of JP4799261B2 publication Critical patent/JP4799261B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、例えばコンテンツやサービスなどを示す表示要素を表示する画像表示装置、その制御方法及びプログラムに関する。
コンピュータ上の仮想空間に複数の表示要素をそれらの関連性に従って配置して、ユーザの操作に従って仮想空間を移動する視点から、視線方向を見た様子をモニタに表示する技術が知られている(例えば、特許文献1参照)。こうした技術によれば、ユーザは視点を移動させ、モニタの表示を更新させていくことで、所望の表示要素を見つけ出すことができる。
特開2004−30122号公報
しかしながら、上記従来例の技術においては、例えば仮想空間に膨大な数の表示要素が配置された場合、モニタにも多数の表示要素が表示され、ユーザは所望の表示要素を見つけるのが困難となる。
本発明は上記実情に鑑みてなされたものであって、その目的の一つは、ユーザが所望の表示要素を見つけやすくすることのできる画像表示装置、その制御方法、及びプログラムを提供することにある。
上記課題を解決するための本発明に係る画像表示装置は、コントローラに備えられ、該コントローラの姿勢情報を出力する姿勢情報出力手段と、前記出力された姿勢情報に応じて、複数の表示要素が配置された仮想空間における視点位置を移動させる視点位置移動手段と、前記仮想空間を前記視点位置から見た様子を示す空間画像を表示手段に表示させる空間画像表示手段と、前記コントローラに対する操作に応じて、前記表示手段に表示されている前記複数の表示要素から1又は複数を選択表示要素として選択する表示要素選択手段と、前記選択表示要素の前記仮想空間における位置に応じて、前記視点位置の前記仮想空間における移動範囲を制限する移動範囲制限手段と、を含むことを特徴とする。
また、上記画像表示装置において、前記姿勢情報出力手段は、前記コントローラに予め定められた基準方向の、水平面に対する傾きを検知し、当該傾きの情報を出力する加速度センサであることとしてもよい。
また、上記画像表示装置において、前記移動範囲制限手段は、前記仮想空間における前記選択表示要素の位置から所定の距離以下の範囲に、前記視点位置の移動範囲を制限することとしてもよい。
また、上記画像表示装置において、前記複数の表示要素は、当該各表示要素の特徴情報に応じて、前記仮想空間に配置されることとしてもよい。
また、上記画像表示装置において、前記コントローラは、方向を示す情報を出力する操作部材を備え、前記画像表示装置は、前記操作部材に対する操作に応じて、前記空間画像内に配置されたポインタ画像を移動させるポインタ移動手段をさらに含み、前記表示要素選択手段は、前記ポインタ画像の前記空間画像内の位置に基づいて、前記選択表示要素を選択することとしてもよい。
また、本発明に係る画像表示装置の制御方法は、コントローラに備えられ、該コントローラの姿勢情報を出力する姿勢情報出力手段を含む画像表示装置の制御方法であって、前記出力された姿勢情報に応じて、複数の表示要素が配置された仮想空間における視点位置を移動させるステップと、前記仮想空間を前記視点位置から見た様子を示す空間画像を表示手段に表示させるステップと、前記コントローラに対する操作に応じて、前記表示手段に表示されている前記複数の表示要素から1又は複数を選択表示要素として選択するステップと、前記選択表示要素の前記仮想空間における位置に応じて、前記視点位置の前記仮想空間における移動範囲を制限するステップと、を含むことを特徴とする。
また、本発明に係るプログラムは、コントローラに備えられ、該コントローラの姿勢情報を出力する姿勢情報出力手段を含む画像表示装置としてコンピュータを機能させるプログラムであって、前記出力された姿勢情報に応じて、複数の表示要素が配置された仮想空間における視点位置を移動させる視点位置移動手段、前記仮想空間を前記視点位置から見た様子を示す空間画像を表示手段に表示させる空間画像表示手段、前記コントローラに対する操作に応じて、前記表示手段に表示されている前記複数の表示要素から1又は複数を選択表示要素として選択する表示要素選択手段、及び前記選択表示要素の前記仮想空間における位置に応じて、前記視点位置の前記仮想空間における移動範囲を制限する移動範囲制限手段、として前記コンピュータを機能させることを特徴とする。
以下、本発明の一実施形態について、図面を参照しながら説明する。
図1は、本実施形態に係るエンタテインメントシステム(画像表示装置)のハードウェア構成を示す図である。同図に示すように、エンタテインメントシステム10は、MPU(Micro Processing Unit)11と、メインメモリ20と、画像処理部24と、モニタ26と、入出力処理部28と、音声処理部30と、スピーカ32と、光ディスク読み取り部34と、光ディスク36と、ハードディスク38と、インタフェース(I/F)40,44と、コントローラ42と、カメラユニット46と、ネットワークインタフェース48と、を含んで構成されるコンピュータシステムである。
図2は、MPU11の構成を示す図である。同図に示すように、MPU11は、メインプロセッサ12と、サブプロセッサ14a,14b,14c,14d,14e,14f,14g,14hと、バス16と、メモリコントローラ18と、インタフェース(I/F)22と、を含んで構成される。
メインプロセッサ12は、図示しないROM(Read Only Memory)に記憶されるオペレーティングシステム、例えばDVD(Digital Versatile Disk)−ROM等の光ディスク36から読み出されるプログラム及びデータや、通信ネットワークを介して供給されるプログラム及びデータ等に基づいて、各種情報処理を行ったり、サブプロセッサ14a乃至14hに対する制御を行ったりする。
サブプロセッサ14a乃至14hは、メインプロセッサ12からの指示に従って、各種情報処理を行ったり、エンタテインメントシステム10の各部を、例えばDVD−ROM等の光ディスク36から読み出されるプログラム及びデータや、通信ネットワークを介して供給されるプログラム及びデータ等に基づいて制御したりする。
バス16は、アドレス及びデータをエンタテインメントシステム10の各部でやり取りするためのものである。メインプロセッサ12、サブプロセッサ14a乃至14h、メモリコントローラ18、インタフェース22は、バス16を介して相互にデータ授受可能に接続される。
メモリコントローラ18は、メインプロセッサ12及びサブプロセッサ14a乃至14hからの指示に従って、メインメモリ20へのアクセスを行う。メインメモリ20には、光ディスク36やハードディスク38から読み出されたプログラム及びデータや、通信ネットワークを介して供給されたプログラム及びデータが必要に応じて書き込まれる。メインメモリ20はメインプロセッサ12やサブプロセッサ14a乃至14hの作業用としても用いられる。
インタフェース22には画像処理部24及び入出力処理部28が接続される。メインプロセッサ12及びサブプロセッサ14a乃至14hと、画像処理部24又は入出力処理部28と、の間のデータ授受はインタフェース22を介して行われる。
画像処理部24は、GPU(Graphical Processing Unit)とフレームバッファとを含んで構成される。GPUは、メインプロセッサ12やサブプロセッサ14a乃至14hから供給される画像データに基づいてフレームバッファに各種画面を描画する。フレームバッファに形成された画面は、所定のタイミングでビデオ信号に変換されてモニタ26に出力される。モニタ26は例えば家庭用テレビ受像機などであって、本発明における表示手段に相当する。
入出力処理部28には、音声処理部30、光ディスク読み取り部34、ハードディスク38、インタフェース40,44が接続される。入出力処理部28は、メインプロセッサ12及びサブプロセッサ14a乃至14hと、音声処理部30、光ディスク読み取り部34、ハードディスク38、インタフェース40,44、ネットワークインタフェース48と、の間のデータ授受を制御する。
音声処理部30は、SPU(Sound Processing Unit)とサウンドバッファとを含んで構成される。サウンドバッファには、光ディスク36やハードディスク38から読み出されたゲーム音楽、ゲーム効果音やメッセージなどの各種音声データが記憶される。SPUは、これらの各種音声データを再生してスピーカ32から出力させる。なお、スピーカ32には例えば家庭用テレビ受像機の内蔵スピーカが用いられる。
光ディスク読み取り部34は、メインプロセッサ12及びサブプロセッサ14a乃至14hからの指示に従って、光ディスク36に記憶されたプログラムやデータを読み取る。なお、エンタテインメントシステム10は、光ディスク36以外の他のコンピュータ読み取り可能な情報記憶媒体に記憶されたプログラムやデータを読み取り可能に構成してもよい。
光ディスク36は例えばDVD−ROM等の一般的な光ディスク(コンピュータ読み取り可能な情報記憶媒体)である。また、ハードディスク38は一般的なハードディスク装置である。光ディスク36やハードディスク38には各種プログラムやデータがコンピュータ読み取り可能に記憶される。
インタフェース(I/F)40,44は、コントローラ42やカメラユニット46等の各種周辺機器を接続するためのインタフェースである。このようなインタフェースとしては、例えばUSB(Universal Serial Bus)インタフェースが用いられる。
コントローラ42は汎用操作入力手段であり、ユーザが各種操作(例えばゲーム操作)を入力するために用いられる。入出力処理部28は、所定時間(例えば1/60秒)ごとにコントローラ42の各部の状態をスキャンし、その結果を表す操作信号をメインプロセッサ12やサブプロセッサ14a乃至14hに供給する。メインプロセッサ12やサブプロセッサ14a乃至14hは、ユーザによって行われた操作の内容をその操作信号に基づいて判断する。なお、エンタテインメントシステム10は複数のコントローラ42を接続可能に構成されており、各コントローラ42から入力される操作信号に基づいて、メインプロセッサ12やサブプロセッサ14a乃至14hが各種処理を実行するようになっている。
コントローラ42は、例えば図3の斜視図に示すような外観をなし、把持部50R,50Lを有している。ユーザは、把持部50Rを右手で、把持部50Lを左手でそれぞれ把持することになる。ユーザが把持部50を把持した状態で、各親指にて操作可能な位置には、第1,第2の操作部51,52と、アナログ操作部53R,53Lとがそれぞれ設けられている。
ここで第1の操作部51には、方向に関連づけられた操作部材である、上方向指示キー51a、下方向指示キー51b、右方向指示キー51c及び左方向指示キー51dが設けられている。ユーザはこれらの方向指示キー51a、51b、51c及び51dを利用して、例えば画面上の操作対象を特定する。また、第2の操作部52には、三角(「△」)形状の刻印が設けられた三角ボタン52aと、X字(「×」)状の刻印が設けられたXボタン52bと、O字(「○」)状の刻印が設けられたOボタン52cと、矩形(「□」)形状の刻印が設けられた矩形ボタン52dとが設けられている。これらのボタン52a,52b,52c及び52dは、例えば、方向指示キー51a,51b,51c及び51dにて特定された操作対象に応じて、それぞれ操作内容が割り当てられる。これによりユーザは、適切なボタン52a,52b,52c及び52dを選択し押下することで指示キー51a,51b,51c及び51dにて特定された操作対象に対する操作を行うことができることになる。
アナログ操作部53R,53Lは、傾倒操作が可能となっており、また、傾倒させた状態で、この回転操作が可能となっている。このアナログ操作部53R,53Lは、非傾倒操作時には、起立した状態(傾きのない状態)でそのポジションが保持されるようになっている(基準ポジション)。そして、アナログ操作部53R或いはアナログ操作部53Lを押圧操作しながら傾倒操作すると、上記基準ポジションに対する傾き量と傾き方向に応じたxy座標上の座標値(x,y)が検出され、この座標値が操作出力として出力される。
また、このコントローラ42は、プログラム実行開始の指示などを行うためのスタートボタンや、各種モードを切替える指示などを行うためのセレクトボタン等、他の操作部材を有することとしてもよい。
また本実施の形態においては、コントローラ42は、当該コントローラ42そのものの姿勢情報を出力する姿勢情報出力部43を備えている。これにより、ユーザが例えばコントローラ42を把持してその姿勢を変えることで、メインプロセッサ12やサブプロセッサ14a乃至14hは当該姿勢の変化に応じた処理を実行することができる。
姿勢情報出力部43は、3軸加速度センサ43a及びジャイロセンサ43bを含んで構成されている。これらのセンサが出力するコントローラ42の姿勢情報について、以下説明する。図3に示されるように、3軸加速度センサ43aは、コントローラ42内に固定されており、互いに直交するx軸、y軸、及びz軸の3つの基準軸が設定されている。ここで、x軸はコントローラ42の長手方向、y軸はコントローラ42の奥行方向、z軸はコントローラ42の厚み方向にそれぞれ対応している。そして、当該各基準軸に対する加速度を検知し、検知した加速度に応じた電圧値を出力する。
図4は、3軸加速度センサ43aが検知するいずれかの軸に対する加速度と、検知した加速度に応じて出力する電圧値と、の対応関係を模式的に示すグラフである。図4に示すように、3軸加速度センサ43aは加速度に略比例する電圧値を出力し、加速度を検知しない状態では基準電圧Voを出力する。出力される電圧値の基準電圧Voに対する高低により、各軸の正負いずれの方向に加速度が生じているかを検知することができる。なお、図において1Gは、重力加速度に相当する加速度を示している。
この3軸加速度センサ43aの出力のうち、x軸及びz軸の加速度が、コントローラ42のy軸を中心とした回転の角度θyを表す。例えばコントローラ42が図5(a)に示すように水平面に対して長手方向にθy1度傾いた姿勢となっている場合、x軸の加速度はGsinθy1となる。また、図5(b)に示すようにコントローラ42が図5(a)とは逆向きにθy2度傾いている場合、x軸の加速度は−Gsinθy2となる。このようにx軸の加速度が、コントローラ42の水平面に対する傾きを表す。さらに、y軸を中心としてコントローラ42を90度以上回転させ、上下逆の状態にした場合には、z軸の加速度の正負が反転するため、x軸とz軸の加速度に基づいてこのような状態を識別することができる。
同様に、3軸加速度センサ43aが出力するy軸及びz軸の加速度が、コントローラ42のx軸を中心とした回転の角度θxを表す。例えばコントローラ42が図6(a)に示すように水平面に対して奥行方向にθx1度傾いた姿勢となっている場合、y軸の加速度はGsinθx1となる。また、図6(b)に示すように図6(a)とは逆向きにθx2度傾いている場合、y軸の加速度は−Gsinθx2となる。また、x軸を中心としてコントローラ42を90度以上回転させた場合にも、θyの場合と同様にz軸の加速度の正負とy軸の加速度とに基づいて、このような状態を識別できる。
また、3軸加速度センサ43aの出力を十分短い間隔でサンプリングすることによって、エンタテインメントシステム10は急激に大きな加速度がコントローラ42にかかったことを検知することができる。例えば一時的に1Gを超える加速度がコントローラ42にかかった場合には、ユーザがなんらかの力をコントローラ42に対して加えたと考えられる。これにより、例えばユーザがコントローラ42を叩いたり振ったりした場合に、エンタテインメントシステム10は、3軸加速度センサ43aの出力を用いてこのようなユーザの動作を検知することができる。
具体的には、例えばエンタテインメントシステム10は、事前にユーザにコントローラ42を叩く動作を実行させ、その際に3軸加速度センサ43aが検知した加速度の情報を取得する。そして、当該取得した加速度の情報に応じて設定された閾値以上の加速度を検知した場合には、ユーザによりコントローラ42を叩く動作があったと判定する。また、ユーザがコントローラ42を叩く向きによって、3軸加速度センサ43aの各軸で検出される加速度は異なる。そのため、3軸加速度センサ43aが出力する各軸の加速度によって、ユーザがコントローラ42をどの向きから叩いたかを識別することができる。そこでエンタテインメントシステム10は、ユーザがコントローラ42を叩く向きや強さによって、予め定められた異なる処理を実行することとしてもよい。また、このようなユーザの動作と、コントローラ42の傾き、コントローラ42の備えるボタン等の操作部材に対するユーザの操作の組み合わせによって、実行する処理を決定することとしてもよい。これにより、ユーザはコントローラ42を用いて多様な処理をエンタテインメントシステム10に実行させることができる。
ジャイロセンサ43bは、コントローラ42のz軸を中心とした回転の角速度を検知し、当該角速度の情報を出力する。このジャイロセンサ43bの出力を、一定時間ごとでサンプリングし、積分する演算を行うことで、エンタテインメントシステム10はコントローラ42のz軸に対する回転の変位量を取得できる。
カメラユニット46は、例えば公知のデジタルカメラを含んで構成され、白黒、グレイスケール又はカラーの撮影画像を所定時間(例えば1/60秒)ごとに入力する。本実施の形態におけるカメラユニット46は、撮影画像をJPEG(Joint Photographic Experts Group)形式の画像データとして入力するようになっている。また、カメラユニット46は、例えばレンズをプレイヤに向けた状態でモニタ26の上に設置され、ケーブルを介してインタフェース44に接続される。ネットワークインタフェース48は入出力処理部28とネットワーク50とに接続されており、エンタテインメントシステム10がネットワーク50を介して他のエンタテインメントシステム10とデータ通信するのを中継するようになっている。
以下、以上のハードウェア構成を有するエンタテインメントシステム10を、複数の表示要素をユーザに提示する画像表示装置として構成する方法について説明する。
図7は、エンタテインメントシステム10上に構築される仮想空間60の一例を模式的に示している。同図に示すように、仮想空間60には複数の表示要素62が配置されている。各表示要素62は、画面上に表示されてユーザによる選択対象となる要素を表しており、ここでは一例としてエンタテインメントシステム10が提供するコンテンツ又はサービスにそれぞれ関連するものとする。また、各表示要素62は、例えば関連するコンテンツ又はサービスに関するアイコンや動画像などがテクスチャとしてマッピングされた画像オブジェクトである。
ここで、表示要素62は、各表示要素62の特徴情報に応じて、仮想空間60内に配置されることとしてもよい。この場合、各表示要素62の仮想空間60における位置座標が、各表示要素62の特徴情報に従って決定される。具体的には、例えば特徴情報に基づいて各表示要素62の特徴を示す特徴ベクトルを算出し、当該特徴ベクトルに従って表示要素62の位置座標を決定する。そして、当該決定した位置座標に、各表示要素62の代表点(例えば画像オブジェクトの原点位置)が一致するように、各表示要素が仮想空間60内に配置される。
ここで、各表示要素62の特徴情報は、例えば各表示要素62に含まれる画像の内容(使用される色情報や、空間周波数の情報、顔認識等の認識結果)に基づいて得られる画像の特徴を示す情報である。また、例えば各表示要素62がコンテンツやサービスに関連づけられている場合、特徴情報は、当該コンテンツやサービスの属性情報であってもよい。この場合の属性情報は、例えばコンテンツやサービスの種別を示す情報や、当該コンテンツやサービスが対象とするユーザの年齢、性別、居住地、職業等の情報などである。また、属性情報には、エンタテインメントシステム10を利用するユーザが当該コンテンツやサービスを過去どの程度利用したかなどを示す履歴情報が含まれてもよい。これにより、仮想空間60において、互いに関連する表示要素62ほど、近い位置に配置されるように各表示要素62の位置を決定できる。これにより、ユーザは仮想空間60における各表示要素62の位置関係を頼りに、所望のコンテンツやサービスに係る表示要素62を探し出すことができる。
また、仮想空間60には視点64も配置されており、この視点64には視線方向66が設定されている。視点64はコントローラ42の姿勢を変化させるユーザの操作に従って、仮想空間60内を移動できるようになっている。一例として、ユーザがコントローラ42の把持部50を把持した状態で、左手を上げて右手を下げると、この動作によって3軸加速度センサ43aはx軸に正方向の加速度がかかっていることを示す姿勢情報を出力する。この姿勢情報に応じて、視点64は仮想空間60内において視線方向66に向かって右方向に移動する。逆にユーザが右手を上げて左手を下げると、視点64は視線方向66に向かって左方向に移動する。また、ユーザがコントローラ42を前方に向けて倒すと、この動作によって3軸加速度センサ43aはy軸に正方向の加速度がかかっていることを示す姿勢情報を出力する。この姿勢情報に応じて、視点64は仮想空間60内において視線方向66の方向に移動する。逆にユーザがコントローラ42を手前に向けると、視点64は視線方向66の逆方向(画面手前方向)に移動する。さらにこの場合において、視点64の移動量又は移動速度は、コントローラ42の水平面に対する傾き度合いに応じて変化することとしてもよい。
さらに、視線方向66もコントローラ42による操作(例えばアナログ操作部53に対する操作)に従って、任意の方向に変化することとしてもよい。また、各画像オブジェクト62の姿勢は、視点64の方向を向くようリアルタイムに決定され、視点64が移動すると、それに応じて各画像オブジェクト62の姿勢も変化するようになっていてもよい。
エンタテインメントシステム10は、この視点64の仮想空間60における位置及び視線方向66に基づいて、仮想空間60の様子を画像化し、モニタ26に表示する。すなわち、仮想空間60において視点64から視線方向66を見た様子を示す空間画像を生成し、当該空間画像をモニタ26に表示する。このようにユーザのコントローラ42を傾ける動作によって視点64が移動し、当該視点64の位置に応じた空間画像がモニタ26に表示されることにより、ユーザは直感的な操作で視点64を移動させ、仮想空間60内を自ら移動しているかのような操作感を得ることができる。
図8は、モニタ26に表示される空間画像の一例を示している。同図に示すように、空間画像には仮想空間60に配置された表示要素62のうち一部が含まれている。また、表示要素62のうち、後述する方法でユーザにより選択された選択表示要素68は、例えば画像オブジェクトの周囲を囲む枠を表す所定の画像が付されるなどの方法で、他の表示要素62と区別できるように表示されることとする。
図8に例示されるような空間画像がモニタ26に表示された状態で、ユーザがコントローラ42に対して所定の操作を行うと、これに応じて、モニタ26に表示されている複数の表示要素62の中から、1又は複数の表示要素62が選択され、選択表示要素68となる。この選択表示要素68を決定する方法としては、以下に説明するように様々な方法を用いることができる。
一例として、エンタテインメントシステム10は、モニタ26に表示されている空間画像内に、所定のポインタ画像を配置する。このポインタ画像は、コントローラ42に備えられた操作部材のうち、方向を示す情報を出力する操作部材である第1の操作部51、アナログ操作部53R、又はアナログ操作部53Lのいずれかに対するユーザの操作に応じて、空間画像内を移動することとする。そして、ユーザが選択操作に対応づけられた操作部材(例えばXボタン52b)を操作することにより、当該操作がなされた時点でのポインタ画像の空間画像内の位置に基づいて決定される表示要素62が、選択表示要素68として選択される。例えば選択操作がなされた時点でポインタ画像の最も近くに表示されている表示要素62が、選択表示要素68として選択される。
また、その他の表示要素62の選択方法として、例えば以下のような方法がある。すなわち、まず空間画像に含まれている表示要素62のうち、一つの表示要素62に対してフォーカスが設定され、フォーカス対象表示要素となる。ここで、フォーカス対象表示要素は、前述したポインタ画像によってユーザが選択することとしてもよいし、あるいは所定の条件に応じてエンタテインメントシステム10が決定することとしてもよい。また、フォーカス対象表示要素は、例えばハイライト表示されるなど、選択表示要素68とは異なる態様で、他の表示要素62と区別できるように表示されることとする。この状態において、ユーザがコントローラ42に対して所定のフォーカス移動操作を行うことによって、フォーカス対象表示要素が、空間画像内に含まれる別の表示要素62のいずれかに変更される。そして、ユーザは選択を行いたい表示要素62にフォーカスが設定された状態で、所定の選択操作(例えばXボタン52bの押下)を行うことにより、その時点でのフォーカス対象表示要素を選択表示要素68として選択できる。
ここで、フォーカス移動操作は、例えば第1の操作部51に含まれる方向指示キーを押下する操作である。この場合、現在のフォーカス対象表示要素に対して、空間画像内において押下された方向指示キーによって示される方向に位置する表示要素62に対して、順にフォーカスが設定される。
また、このようなコントローラ42に備えられた操作部材に対する操作に代えて、ユーザはコントローラ42の姿勢を所定のパターンで変化させることにより、フォーカス対象表示要素を変更することとしてもよい。例えば、ユーザはコントローラ42を所定方向に一定量傾けてすぐにコントローラ42の姿勢を元に戻す動作を行う。このような動作に応じて出力される姿勢情報に基づいて、エンタテインメントシステム10は、例えば方向指示キーが押下された場合と同様に、傾けられた方向に対する指示操作があったものとして新たな表示要素62にフォーカスを設定する処理を実行する。具体的に、例えば空間画像に含まれる表示要素62が所定の順序で並べられ、リスト化されている場合、ユーザがコントローラ42を右方向に傾けて戻す動作を行うことにより、リスト内において現在のフォーカス対象表示要素の一つ次に位置する表示要素62が、新たなフォーカス対象表示要素として決定される。逆にユーザがコントローラ42を左方向に傾けて戻す動作を行うことにより、リスト内において現在のフォーカス対象表示要素の一つ前に位置する表示要素62が、新たなフォーカス対象表示要素として決定される。
また、このようにコントローラ42を傾ける動作によってリスト内のフォーカスを移動させる処理を行う場合、以下のようにしてもよい。例えば、左方向、右方向にそれぞれ傾ける動作に代えて、ユーザから見て奥行方向、手前方向に傾ける動作によってリスト内のフォーカスを移動させる。また、傾ける時間や傾ける量によって、リスト内のフォーカスの移動量を変化させてもよい。すなわち、コントローラ42を予め定められた閾値以上の角度に傾けてから元の位置に戻した場合、リスト内においてフォーカスを2つ隣の要素に変更するなどの処理を行う。
さらに、この場合のリストは、表示要素62を空間画像内の配置順序に沿って並べたものであってもよい。例えば仮想空間60内において奥行方向に沿って、視点位置64に近い位置から順に表示要素62をリスト化する。そして、コントローラ42を奥行方向、手前方向に傾ける動作によって、リスト内におけるフォーカスを移動させる。これにより、ユーザがコントローラ42を傾ける向きに応じて、空間画像内においてフォーカス対象表示要素を移動させることができる。
なお、以上説明した選択表示要素68を選択する複数の方法については、任意に組み合わせて用いてもよい。
次に、複数の表示要素62を選択表示要素68として選択する方法について説明する。ユーザが明示的に選択対象としたい表示要素62を指定する場合には、これまでに説明した選択表示要素68を選択する操作と同様に例えばポインタ画像等を用いて表示要素62を選ぶ。そして、選択操作に代えて、現在の選択表示要素68を維持したまま選択表示要素68を追加する追加選択操作を行うことで、複数の表示要素62を選択表示要素68として選択できる。この場合の追加選択操作は、例えば所定のボタン(例えば矩形ボタン52d)を押下する操作や、所定のボタンを押下しながら選択操作と同様の操作(例えばXボタン52bの押下)を行うなどの操作であってよい。
また、例えばユーザが所定の操作を行うことによって、現在の選択表示要素68に応じて決まる他の表示要素62を、選択表示要素68として追加することとしてもよい。例えば、ユーザがコントローラ42を振る動作を行うことによって、仮想空間60において現在の選択表示要素68から最も近い位置に配置された表示要素62が、選択表示要素68に追加されることとしてもよい。また、選択表示要素68として追加される表示要素62は、ユーザがコントローラ42を振る方向によって決定されることとしてもよい。例えば、コントローラ42を左右方向に振った場合には、仮想空間60において視線方向66に対して選択表示要素68の左右方向に位置する表示要素62が、選択表示要素68として選択される。
さらに本実施形態においては、選択表示要素68が選択された場合、当該選択表示要素68の仮想空間60における位置に応じて、視点64の仮想空間60における移動範囲が制限される。具体的には、例えば選択表示要素68の仮想空間60における位置から所定の距離以下となる範囲に、視点64の移動範囲が制限される。これにより、ユーザが一旦ある表示要素62を選択すると、当該選択された選択表示要素68の近傍に視点64の移動範囲が制限されるため、ユーザが仮想空間60において選択表示要素68の近くに配置された表示要素62を探す場合に、探しやすくなる。特に前述したように選択表示要素68に関連する表示要素62が仮想空間60において選択表示要素68の近くに配置されている場合、ユーザはまず所望のコンテンツやサービスに近いコンテンツやサービスに関連づけられた表示要素62を選択することで、当該選択された選択表示要素68の近くに配置されている表示要素62に関連づけられた所望のコンテンツやサービスを見つけやすくなる。また、こうすれば、ユーザが所望の表示要素62を探す途中で、コントローラ42の姿勢がユーザの意図に反して傾くことにより視点64が移動してしまい、ユーザが仮想空間60内において選択表示要素68の位置を見失ってしまうことを防ぐことができる。
なお、選択表示要素68が複数ある場合、視点64の移動範囲は、全ての選択表示要素68の位置に対して所定の距離以下となる範囲に制限されてもよい。あるいは、いずれかの選択表示要素68の位置に対して所定の距離以下となる範囲に制限されてもよい。
また、視点64の仮想空間60における移動範囲は、例えば選択表示要素68が空間画像内に含まれる範囲に制限されることとしてもよい。すなわち、エンタテインメントシステム10が空間画像を生成する場合、視点64の位置を頂点として、視点64の前方、すなわち視線方向66に向かって広がる四角錘状をなす視野範囲が設定される。この視野範囲に選択表示要素68の位置座標が含まれるような範囲に視点64の移動範囲を制限することにより、常に選択表示要素68がモニタ26に表示された状態を維持することができる。こうすれば、ユーザはコントローラ42の姿勢を任意に変化させて視点64の位置を移動させても、一旦選択した選択表示要素68を見失ってしまうことがなくなる。
さらに、選択表示要素68が選択されている状態で、ユーザがコントローラ42に対して所定の選択解除操作(例えば三角ボタン52aの押下)を行うと、これに応じて、選択表示要素68に対する選択が解除されて、選択されていない状態に戻ることとしてもよい。これにより、ユーザは再び制限を受けずに自由に視点64の位置を移動させることができるようになる。
また、選択表示要素68が選択されている状態で、ユーザがコントローラ42に対して所定の処理開始操作(例えばOボタン52cの押下)を行うと、例えばコンテンツの再生など、選択表示要素68に関連づけられた処理が実行されることとしてもよい。また、選択表示要素68が静止画や動画などのコンテンツに関連づけられており、当該コンテンツを示す画像がマッピングされた画像オブジェクトである場合には、ユーザの処理開始操作に応じて、視点64及び視線方向66が当該選択表示要素68をズームアップするように移動することとしてもよい。そして、ズームアップされた選択表示要素68がモニタ26に表示されることにより、当該選択表示要素68に含まれる静止画や動画などのコンテンツがモニタ26に表示される。こうすれば、ユーザは空間画像内を移動して所望の表示要素62を見つけると、そのままシームレスにコンテンツを表示させ、観覧することができる。
あるいは、表示要素62は、例えば複数のコンテンツやサービスなどを含むグループ(ディレクトリ)に関連づけられていてもよい。この場合、このような表示要素62に対して処理開始操作がなされることによって、当該グループに属するコンテンツやサービスなどを示すアイコン等をユーザに提示する画面が、新たにモニタ26に表示される。また、このような処理開始操作に代えて、ユーザが視点66を移動させて仮想空間60内においてグループに関連づけられた選択表示要素68を通過させることにより、当該選択表示要素68に関連づけられたグループに属するアイコン等をユーザに提示する画面が、モニタ26に表示されることとしてもよい。
また、選択表示要素68が選択された状態で、ユーザはコントローラ42に対する操作により、仮想空間60内において選択表示要素68を移動させることができる。具体的には、例えば選択表示要素68が選択された状態で、ユーザが所定のボタンを押下しながらコントローラ42を傾けてその姿勢を変化させることにより、仮想空間60において当該コントローラ42の姿勢に応じた方向に、選択表示要素68が移動する。そして、ユーザが当該ボタンから指を離すことにより、離した際の位置に選択表示要素68の移動先の位置が決定する。これにより、ユーザはコントローラ42を傾けることで、直感的な操作により選択表示要素68を移動させることができる。また、選択表示要素68に代えて、例えば前述したフォーカス対象表示要素を移動させることとしてもよい。
図9は、本エンタテインメントシステム10の動作フローの一例を示すフロー図である。同図に示す処理は所定時間毎(例えば1/60秒毎)に実行されるものであり、光ディスク36やハードディスク38から読み出されてメインメモリ20に格納された画像表示プログラムを、MPU11が実行することにより実現されるものである。
同図に示すように、まずエンタテインメントシステム10は、コントローラ42により表示要素62の選択操作が行われているか否かを判断する(S1)。そして、行われていれば当該選択操作の対象となる表示要素62を選択表示要素68として選択する(S2)。また、S1で選択操作が行われていないと判断された場合には、S2の処理をスキップする。
続いてエンタテインメントシステム10は、コントローラ42によりポインタ画像の位置を移動させる操作がされたか否かを判断する(S3)。そして、そのような操作が行われていれば、操作内容に従って空間画像内のポインタ画像の位置を新たな位置に変更する(S4)。S3で、ポインタ画像を移動させる操作がされていないと判断された場合には、S4の処理をスキップする。
次にエンタテインメントシステム10は、視点64の位置及び視線方向66を、コントローラ42から入力される操作信号に従って決定する(S5)。ここでコントローラ42から入力される操作信号には、3軸加速度センサ34a及びジャイロセンサ34bが出力するコントローラ42の姿勢情報を示す信号も含まれる。また、視点64の位置及び視線方向66は、直前の視点64の位置及び視線方向66に基づいて、徐々に変化するように決定される。
さらにエンタテインメントシステム10は、S5で決定した視点64の位置が、選択表示要素68の位置に応じて決まる移動可能範囲内に含まれるか否かを判定する(S6)。具体例として、エンタテインメントシステム10は、視点64の位置と、選択表示要素64の代表点の位置と、の間の距離が所定の値以下になるか否かを判定することにより、視点64の位置が移動可能範囲内に含まれるかを判定する。含まれる場合には、S7の処理に進んで、S6で決定した位置に視点64を移動させ、移動先の視点64から見た空間画像を描画する処理を行う。一方、S6で決定した視点64の位置が移動可能範囲を超える場合、S6で決定した位置への視点64の移動は制限される。すなわち、視点64の位置を変更するS7からS9までの処理は実行されず、エンタテインメントシステム10は続いてS10の処理を実行する。
S6の処理において視点64を新たな位置に移動させると判定した場合、次にエンタテインメントシステム10は、仮想空間60内のすべての表示要素62について、視点64の位置及び各表示要素62の位置に基づいて、それらの姿勢を決定する(S7)。この際、こうして決定される各表示要素62の姿勢に従って、各表示要素62の各頂点の座標が算出される。そして、それらの座標を視点座標系(視点64の位置を原点とし、視線方向66をZ軸とする座標系)に変換するとともに(S8)、視野範囲から外れる表示要素62を処理対象から除外する。また、視野範囲の縁を跨ぐ表示要素62についてはクリッピング処理を施す(S9)。
その後、エンタテインメントシステム10は、視野範囲内の表示要素62を視点64から見た様子を空間画像として画像処理部24内のフレームバッファに描画する(S10)。このとき、S2により選択表示要素68として選択された表示要素62については、選択されたことを示す枠線の画像等を付加して表示する。また、S4で変更された空間画像内の位置に、ポインタ画像を重ねて表示する。S10の処理によりフレームバッファに描画された画像は、モニタ26に表示される。
以上の実施形態によれば、選択表示要素68の仮想空間60における位置に応じて視点64の移動範囲を制限し、この移動範囲が制限された視点64から見た空間画像をモニタ26に表示する。このため、ユーザは視点64を移動させて仮想空間60に配置された表示要素62の中から所望の表示要素62を探す場合に、一旦所望の表示要素62に近い表示要素62を選択し、その近傍を探すことができ、所望の表示要素62を見つけやすくなる。
なお、本実施形態は種々の変形実施が可能である。
例えば、ユーザはコントローラ42に備えられたボタンを押下する操作に代えて、コントローラ42を叩いたり振ったりすることとし、エンタテインメントシステム10は、これらのユーザの動作に応じて姿勢情報出力部43が出力する情報に基づいて、各種処理を実行することとしてもよい。例えばユーザのコントローラ42を所定の向きで叩く動作に応じて、表示要素62を選択する選択操作を実行することとしてもよい。
また、上述したリスト内のフォーカスを移動させる処理において、コントローラ42の姿勢を所定のパターンで変化させる動作に代えて、ユーザのコントローラ42を叩く動作によって、エンタテインメントシステム10はリスト内のフォーカスを移動することとしてもよい。この場合、例えば叩く方向によってリスト内のフォーカスの移動方向を変化させてもよい。また、叩く強さによって、リスト内のフォーカスの移動量を変化させてもよい。
またエンタテインメントシステム10は、複数回コントローラ42を叩く動作に応じて、所定の処理を実行することとしてもよい。例えば、ユーザが一定の間隔(リズム)で複数回コントローラ42を叩くことにより、この叩く動作のパターンに応じて、表示要素62の選択やフォーカスの移動、表示要素62に関連づけられた処理の実行などを行う。これにより、例えばコントローラ42に何らかの衝撃が加わった場合に、誤ってユーザの叩く動作があったと判定し、ユーザの意図に反した処理を実行してしまうことを防ぐことができる。
また、上記の説明においては、仮想空間60が3次元空間であって、この仮想空間60内の任意の位置に表示要素62が配置される場合の例について説明したが、表示要素62は仮想空間60内の2次元空間(プレーン)に配置されることとしてもよい。さらに、仮想空間60内に、複数の2次元空間が、奥行方向に沿って所定の順序で複数並べられており、当該各2次元空間に表示要素62が配置されることとしてもよい。この場合、一例として第1の操作部51に含まれる方向指示キーに対する操作によって、視点62の位置が2次元空間に対して平行に移動する。これにより、モニタ26に表示される空間画像が2次元空間上を移動することとなる。そして、例えばコントローラ42を前に傾ける動作によって、当該動作時点でモニタ26に空間画像が表示されている2次元空間に対して、一つ奥に配置された2次元空間に表示対象となる空間が変更される。逆にコントローラ42を手前に傾ける動作によって、当該動作時点でモニタ26に空間画像が表示されている2次元空間に対して、一つ手前に配置された2次元空間に表示対象となる空間が変更される。こうすれば、複数の2次元空間を、方向指示キーとコントローラ42の姿勢の変化の組み合わせによって移動し、当該2次元空間に配置された表示要素62をモニタ26に表示させることができる。
本発明の実施の形態に係るエンタテインメントシステム(画像表示装置)のハードウェア構成図である。 MPUの詳細構成図である。 コントローラの一例を示す図である。 3軸加速度センサの出力値の一例を示すグラフ図である。 コントローラの姿勢に応じて出力される姿勢情報の一例を説明する説明図である。 コントローラの姿勢に応じて出力される姿勢情報の別の例を説明する説明図である。 表示要素が配置された仮想空間を模式的に示す図である。 表示画面の一例を示す図である。 本発明の実施形態に係るエンタテインメントシステムの動作の一例を示すフロー図である。
符号の説明
10 エンタテインメントシステム、11 MPU、12 メインプロセッサ、14a〜14h サブプロセッサ、16 バス、18 メモリコントローラ、20 メインメモリ、22,40,44 インタフェース、24 画像処理部、26 モニタ、28 入出力処理部、30 音声処理部、32 スピーカ、34 光ディスク読み取り部、36 光ディスク、38 ハードディスク、42 コントローラ、43 姿勢情報出力部、43a 3軸加速度センサ、43b ジャイロセンサ、46 カメラユニット、48 ネットワークインタフェース、50 把持部、51 第1の操作部、52 第2の操作部、53 アナログ操作部、60 仮想空間、62 表示要素、64 視点、66 視線方向、68 選択表示要素。

Claims (9)

  1. コントローラに備えられ、該コントローラの姿勢情報を出力する姿勢情報出力手段と、
    前記出力された姿勢情報に応じて、複数の表示要素が配置された仮想空間における視点位置を移動させる視点位置移動手段と、
    前記仮想空間を前記視点位置から見た様子を示す空間画像を表示手段に表示させる空間画像表示手段と、
    前記コントローラに対する操作に応じて、前記表示手段に表示されている前記複数の表示要素から1又は複数を選択表示要素として選択する表示要素選択手段と、
    前記選択表示要素の前記仮想空間における位置に応じて決まる範囲に、前記視点位置の前記仮想空間における移動範囲を制限する移動範囲制限手段と、
    を含むことを特徴とする画像表示装置。
  2. 請求項1に記載の画像表示装置において、
    前記姿勢情報出力手段は、前記コントローラに予め定められた基準方向の、水平面に対する傾きを検知し、当該傾きの情報を出力する加速度センサである
    ことを特徴とする画像表示装置。
  3. 請求項1又は2に記載の画像表示装置において、
    前記移動範囲制限手段は、前記仮想空間における前記選択表示要素の位置から所定の距離以下の範囲に、前記視点位置の移動範囲を制限する
    ことを特徴とする画像表示装置。
  4. 請求項1乃至3のいずれか一項に記載の画像表示装置において、
    前記複数の表示要素は、当該各表示要素の特徴情報に応じて、前記仮想空間に配置される
    ことを特徴とする画像表示装置。
  5. 請求項1乃至4のいずれか一項に記載の画像表示装置において、
    前記コントローラは、方向を示す情報を出力する操作部材を備え、
    前記画像表示装置は、前記操作部材に対する操作に応じて、前記空間画像内に配置されたポインタ画像を移動させるポインタ移動手段をさらに含み、
    前記表示要素選択手段は、前記ポインタ画像の前記空間画像内の位置に基づいて、前記選択表示要素を選択する
    ことを特徴とする画像表示装置。
  6. 請求項1乃至5のいずれか一項に記載の画像表示装置において、
    前記移動範囲制限手段は、前記選択表示要素が前記空間画像内に含まれるように、前記視点位置の前記移動範囲を制限する
    ことを特徴とする画像表示装置。
  7. 請求項1乃至6のいずれか一項に記載の画像表示装置において、
    前記複数の表示要素は、互いに関連する表示要素ほど近い位置に配置されるように、前記仮想空間に配置される
    ことを特徴とする画像表示装置。
  8. コントローラに備えられ、該コントローラの姿勢情報を出力する姿勢情報出力手段を含む画像表示装置の制御方法であって、
    前記出力された姿勢情報に応じて、複数の表示要素が配置された仮想空間における視点位置を移動させるステップと、
    前記仮想空間を前記視点位置から見た様子を示す空間画像を表示手段に表示させるステップと、
    前記コントローラに対する操作に応じて、前記表示手段に表示されている前記複数の表示要素から1又は複数を選択表示要素として選択するステップと、
    前記選択表示要素の前記仮想空間における位置に応じて決まる範囲に、前記視点位置の前記仮想空間における移動範囲を制限するステップと、
    を含むことを特徴とする画像表示装置の制御方法。
  9. コントローラに備えられ、該コントローラの姿勢情報を出力する姿勢情報出力手段を含む画像表示装置としてコンピュータを機能させるプログラムであって、
    前記出力された姿勢情報に応じて、複数の表示要素が配置された仮想空間における視点位置を移動させる視点位置移動手段、
    前記仮想空間を前記視点位置から見た様子を示す空間画像を表示手段に表示させる空間画像表示手段、
    前記コントローラに対する操作に応じて、前記表示手段に表示されている前記複数の表示要素から1又は複数を選択表示要素として選択する表示要素選択手段、及び
    前記選択表示要素の前記仮想空間における位置に応じて決まる範囲に、前記視点位置の前記仮想空間における移動範囲を制限する移動範囲制限手段、
    として前記コンピュータを機能させることを特徴とするプログラム。
JP2006128735A 2006-05-02 2006-05-02 画像表示装置、その制御方法及びプログラム Active JP4799261B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006128735A JP4799261B2 (ja) 2006-05-02 2006-05-02 画像表示装置、その制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006128735A JP4799261B2 (ja) 2006-05-02 2006-05-02 画像表示装置、その制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2007299330A JP2007299330A (ja) 2007-11-15
JP4799261B2 true JP4799261B2 (ja) 2011-10-26

Family

ID=38768750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006128735A Active JP4799261B2 (ja) 2006-05-02 2006-05-02 画像表示装置、その制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP4799261B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9513765B2 (en) 2007-12-07 2016-12-06 Sony Corporation Three-dimensional sliding object arrangement method and system
JP4557058B2 (ja) * 2007-12-07 2010-10-06 ソニー株式会社 情報表示端末、情報表示方法、およびプログラム
JP5174522B2 (ja) * 2008-04-18 2013-04-03 株式会社ソニー・コンピュータエンタテインメント 画像表示装置、画像表示装置の制御方法及びプログラム
WO2009128181A1 (ja) 2008-04-18 2009-10-22 株式会社ソニー・コンピュータエンタテインメント 画像表示装置、画像表示装置の制御方法及び情報記憶媒体
KR101411593B1 (ko) * 2009-09-14 2014-06-25 삼성전자주식회사 Ui 제공방법 및 이를 적용한 디스플레이 장치
JP2011081457A (ja) * 2009-10-02 2011-04-21 Sony Corp 情報処理装置および方法
JP5613314B1 (ja) * 2013-11-14 2014-10-22 Jfeシステムズ株式会社 ジェスチャー検出装置、ジェスチャー検出プログラム、ジェスチャー認識装置およびジェスチャー認識プログラム
US10887565B2 (en) * 2014-05-09 2021-01-05 Sony Corporation Information processing device and information processing method
JP6779715B2 (ja) * 2016-09-02 2020-11-04 株式会社Living Anywhere Garage 情報処理システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175411A (ja) * 1999-12-17 2001-06-29 Tokin Corp 画像コントロール装置
JP3889575B2 (ja) * 2000-05-30 2007-03-07 富士通株式会社 物体情報三次元表示システム,物体情報三次元表示方法,物体情報三次元表示用のプログラム記録媒体および物体情報三次元表示用のプログラム
JP4137923B2 (ja) * 2005-07-11 2008-08-20 富士通株式会社 画像表示方法および装置

Also Published As

Publication number Publication date
JP2007299330A (ja) 2007-11-15

Similar Documents

Publication Publication Date Title
JP4799261B2 (ja) 画像表示装置、その制御方法及びプログラム
JP6158406B2 (ja) 携帯デバイスによるインタラクティブアプリケーションのビデオキャプチャを可能とするためのシステム
JP5959047B2 (ja) 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置
JP5193275B2 (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
JP4358181B2 (ja) ゲームプログラムおよびゲーム装置
EP2558924B1 (en) Apparatus, method and computer program for user input using a camera
WO2007129481A1 (ja) 情報表示装置
JP2019530064A (ja) 仮想現実におけるロケーショングローブ
JP5878438B2 (ja) 表示制御装置、表示制御システム、及びプログラム
WO2010041557A1 (ja) 表示装置、表示方法、情報記録媒体、ならびに、プログラム
JP6100497B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および画像表示方法
EP3528024B1 (en) Information processing device, information processing method, and program
JP5106610B2 (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
JP4878240B2 (ja) 画像表示制御装置、画像表示方法及びプログラム
JP4668839B2 (ja) 情報処理装置、その制御方法及びプログラム
JP2022096948A (ja) プログラムおよび設定方法
JP6621165B2 (ja) 画像表示装置、画像表示方法及び画像表示プログラム
JP2016224595A (ja) システム、方法、およびプログラム
JP2017037567A (ja) ヘッドマウントディスプレイシステムで実行される方法、プログラム、及びヘッドマウントディスプレイシステム
JP6894566B1 (ja) プログラム
JP7317895B2 (ja) プログラム
JP5247907B1 (ja) データ取得装置、データ取得システム、データ取得装置の制御方法、及びプログラム
JP4799269B2 (ja) 画像処理装置及びプログラム
WO2023238264A1 (ja) 情報表示装置およびその表示方法
JP5200158B1 (ja) ゲーム装置、制御装置、ゲーム制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090223

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101124

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110726

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110802

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4799261

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250