JP3851014B2 - 有効視野範囲検証装置、有効視野範囲検証方法及びコンピュータ読み取り可能な記録媒体 - Google Patents
有効視野範囲検証装置、有効視野範囲検証方法及びコンピュータ読み取り可能な記録媒体 Download PDFInfo
- Publication number
- JP3851014B2 JP3851014B2 JP5221299A JP5221299A JP3851014B2 JP 3851014 B2 JP3851014 B2 JP 3851014B2 JP 5221299 A JP5221299 A JP 5221299A JP 5221299 A JP5221299 A JP 5221299A JP 3851014 B2 JP3851014 B2 JP 3851014B2
- Authority
- JP
- Japan
- Prior art keywords
- visual field
- effective visual
- field range
- display
- human body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
Description
【発明の属する技術分野】
本発明は、使用環境を考慮した形でディスプレイ装置の有効視野範囲を検証できるようにする有効視野範囲検証装置及び方法と、その有効視野範囲検証装置の実現に用いられるプログラムを記録したコンピュータ読み取り可能な記録媒体とに関する。
【0002】
近年、モバイル・コンピュータが広く普及しつつある。このモバイル・コンピュータを設計するにあたっては、そのモバイル用途に適合した設計を行う必要がある。
【0003】
【従来の技術】
モバイル・コンピュータでは、CRTディスプレイと比較して薄型化・省電力化が図れることから、液晶ディスプレイやプラズマ・ディスプレイなどのディスプレイ装置が用いられているが、これらのディスプレイ装置は、CRTディスプレイと比較して画面を確認できる角度が狭いという問題点がある。
【0004】
これに対して、モバイル・コンピュータに実装する広視野角のディスプレイ装置の開発も進められているが、モバイル用途では、セキュリティやプライバシーの観点から、他人に画面を見られたくないという要求があり、これから、逆にディスプレイ装置の視野角を絞りたいという要求も高まっている。
【0005】
このようなことを背景にして、従来では、CAD図面上に、モバイル・コンピュータに実装するディスプレイ装置の有効視野範囲を示す境界線を記入することで、モバイル・コンピュータに実装するディスプレイ装置の有効視野範囲を検討するようにしていた。
【0006】
【発明が解決しようとする課題】
しかしながら、このような従来技術に従っていると、モバイル・コンピュータの使用環境を考慮した検討を行うことができず、これから、実際の使用環境に則したディスプレイ装置の視野角を設計できないという問題点があった。そして、モバイル用途に応じたディスプレイ装置の視野角を設計できないという問題点があった。
【0007】
例えば、金融端末として用いられるモバイル・コンピュータを設計する場合には、その金融端末として用いられる使用環境でのディスプレイ装置の有効視野範囲を検討する必要があるのに、従来技術では、そのような検討が行えないという問題点があった。
【0008】
本発明はかかる事情に鑑みてなされたものであって、使用環境を考慮した形でディスプレイ装置の有効視野範囲を検証できるようにする新たな有効視野範囲検証技術の提供を目的とする。
【0009】
【課題を解決するための手段】
図1に本発明の原理構成を図示する。
【0010】
図中、1は本発明を具備する有効視野範囲検証装置であって、ディスプレイ装置の有効視野範囲を検証するもの、2は有効視野範囲検証装置1の備える端末であって、ユーザとの対話手段として機能するもの、3は有効視野範囲検証装置1の備えるレイアウト情報ファイルであって、構築された使用環境のレイアウト情報を格納するもの、4は有効視野範囲検証装置1の備える形状情報ファイルであって、使用環境に配置される部品の形状情報を格納するもの、5は有効視野範囲検証装置1の備える人体モデル情報ファイルであって、使用環境に配置される人体モデルの形状情報を格納するものである。
【0011】
本発明の有効視野範囲検証装置1は、構築手段10と、設定手段11と、表示手段12と、実行手段13とを備える。
【0012】
この構築手段10は、ユーザにより作成された検証対象のディスプレイ装置の使用環境の情報を取得して、その取得した情報に基づいて、コンピュータ上の仮想三次元空間に検証対象のディスプレイ装置の使用環境を構築して端末2のディスプレイ画面に表示する。
このとき、構築手段は、その取得した情報に基づいて、人体モデルを配置しつつ使用環境を構築することがある。更に、構築手段は、ユーザから人体モデルに対しての操作指示の情報を入力して、その操作指示情報に基づいて、使用環境に配置する人体モデルの配置位置や姿勢を操作したり、ユーザから人体モデルに対しての交換指示の情報を入力して、その交換指示情報に基づいて、使用環境に配置する人体モデルの体型を人体モデルの配置位置及び姿勢を変えることなく交換することがある。
【0013】
構築手段10は、レイアウト情報ファイル3に登録されている使用環境を構築する場合には、その使用環境の登録名を使ってレイアウト情報ファイル3にアクセスすることでレイアウト情報を取得し、形状情報ファイル4/人体モデル情報ファイル5から、そのレイアウト情報の指定する部品や人体モデルを読み出して、それらをレイアウト情報の指定する配置位置及び姿勢に従って配置するとともに、検証対象のディスプレイ装置を配置することで使用環境を構築する。
【0014】
また、構築手段10は、レイアウト情報ファイル3に登録されていない使用環境を構築する場合には、構築する使用環境を構成することになる部品/人体モデルを決定し、形状情報ファイル4/人体モデル情報ファイル5から、それらの部品や人体モデルを読み出して、それらの配置位置や姿勢を決定して配置するとともに、検証対象のディスプレイ装置を配置することで使用環境を構築する。
【0015】
設定手段11は、視野角の設定画面を表示し、その設定画面に入力される情報に従って、検証対象のディスプレイ装置の有効視野範囲の情報を取得することで、構築手段10の構築した使用環境での検証対象のディスプレイ装置の有効視野範囲を設定する。
【0016】
表示手段12は、設定手段11の設定した有効視野範囲を、使用環境を表示する端末2のディスプレイ画面に可視化表示する。このとき、有効視野範囲の可視化表示に用いる表示色の色や濃度を、検証対象のディスプレイ装置からの距離に応じて変化させて表示することがあり、更に、これに加えて、ユーザにより設定された検証対象のディスプレイ装置の表示輝度に応じた色や濃度を表示することがある。
【0017】
実行手段13は、使用環境に配置される人体モデルが検証対象のディスプレイ装置を見た場合の視界画像を求めて、それを端末2のディスプレイ画面に表示する。このとき、検証対象のディスプレイ装置の有効視野範囲内であるのか、有効視野範囲外であるのかを明示しつつ視界画像を表示することがある。
【0018】
ここで、本発明の有効視野範囲検証装置1の持つ機能は具体的にはプログラムで実現されるものであり、このプログラムは、フロッピィディスクなどに格納されたり、サーバなどのディスクなどに格納され、それらから有効視野範囲検証装置1にインストールされてメモリ上で動作することで、本発明を実現することになる。
【0019】
このように構成される本発明の有効視野範囲検証装置1では、構築手段10は、コンピュータ上の仮想三次元空間に検証対象のディスプレイ装置の使用環境を構築して端末2のディスプレイ画面に表示し、この使用環境の表示を受けて、設定手段11は、例えば、視野角の設定画面を介してユーザと対話することなどにより、構築された使用環境での検証対象のディスプレイ装置の有効視野範囲を設定する。そして、この設定された有効視野範囲を受けて、表示手段12は、設定された有効視野範囲を、使用環境を表示する端末2のディスプレイ画面に可視化表示する。
【0020】
このようにして、本発明の有効視野範囲検証装置1によれば、実際の使用環境を考慮した形で、検証対象のディスプレイ装置の有効視野範囲を検討できるようになる。
【0021】
この処理を行うときに、構築手段10は、人体モデルを配置しつつ使用環境を構築することがあり、このとき、配置する人体モデルの配置位置や姿勢を操作したり、配置する人体モデルの体型を配置位置や姿勢を変えることなく交換することで、配置する人体モデルと検証対象のディスプレイ装置の有効視野範囲との間の関係を検討できるようにしている。
【0022】
そして、実行手段13は、この人体モデルの配置を受けて、人体モデルが検証対象のディスプレイ装置を見た場合の視界画像を求めて、ディスプレイ装置の有効視野範囲内であるのか有効視野範囲外であるのかを明示しつつ、その求めた視界画像を端末2のディスプレイ画面に表示することで、配置する人体モデルと検証対象のディスプレイ装置の有効視野範囲との間の関係を更に具体的に検討できるようにしている。
【0023】
【発明の実施の形態】
以下、実施の形態に従って本発明を詳細に説明する。
【0024】
図2に、本発明の一実施例を図示する。
【0025】
図中、1aは本発明を実装するコンピュータ、2はコンピュータ1の備える端末、2aは端末2の備えるマウス、2bは端末2の備えるキーボード、3はレイアウト情報ファイル、4は形状情報ファイル4、5は人体モデル情報ファイル、100は本発明を実現するための処理を行う有効視野範囲検証プログラム、200はコンピュータ上に構築される仮想三次元空間である。
【0026】
このレイアウト情報ファイル3は、構築された使用環境のレイアウト情報を管理するものであって、図3に示すように、構築された使用環境毎に、その使用環境に配置される部品や人体モデルのID、それらの部品や人体モデルの位置や姿勢、それらの部品や人体モデルの表示属性(表示色や、半透明色表示するのか否かということや、半透明の割合など)、それらの部品や人体モデルに課される制限情報(部品の収まる大きさや、関節の可動範囲の制限など)、それらの部品の形状情報へのポインタ(形状情報ファイル4へのポインタ)、それらの人体モデルの形状情報へのポインタ(人体モデル情報ファイル5へのポインタ)などを管理する。
【0027】
また、形状情報ファイル4は、使用環境に配置される部品(実際に配置されているものの他、配置対象となるものを含む)の形状情報を管理するものであって、図4に示すように、各部品毎に、その部品の形状情報を管理する。
【0028】
また、人体モデル情報ファイル5は、使用環境に配置される人体モデル(実際に配置されているものの他、配置対象となるものを含む)の形状情報を管理するものであって、図5に示すように、いくつか用意する基本姿勢毎に、様々な体型を持つ人間の関節情報(直立姿勢については関節間の長さと関節の角度、その他の姿勢については関節の角度)を管理する。ここで、直立姿勢以外の基本姿勢で管理される関節角度は、全ての人体モデルに共通のものとなる。
【0029】
一方、有効視野範囲検証プログラム100は、フロッピィディスクや回線などを介してインストールされるものであって、コンピュータ上の仮想三次元空間200に検証対象のディスプレイ装置の使用環境を構築して、端末2のディスプレイ画面に表示するとともに、この検証対象のディスプレイ装置の有効視野範囲を設定してそのディスプレイ画面に可視化表示することで、この検証対象のディスプレイ装置の有効視野範囲を検証する処理を行う。
【0030】
すなわち、ディスプレイ装置は、よく知られているように、図6に示すような有効視野範囲(図中のA,Bについては後述する)を有しているので、この有効視野範囲が使用環境の中でどのような位置を占めるのかということを端末2のディスプレイ画面上に表示することで、このディスプレイ装置の有効視野範囲を検証する処理を行うのである。この有効視野範囲は、図7に示すように、上段に示す左右方向の有効視野範囲(上から見た有効視野範囲)と、下段に示す上限方向の有効視野範囲(横から見た有効視野範囲)とで規定されており、図6に示す有効視野範囲は、この2つを合成する形で示してある。
【0031】
ここで、有効視野範囲検証プログラム100は、検証に用いる使用環境がレイアウト情報ファイル3に登録されている場合には、それを読み込むことで使用環境を構築することになるが、検証に用いる使用環境がレイアウト情報ファイル3に登録されていない場合には、ユーザとの対話処理に従って、新規に作成することで構築したり、ユーザとの対話処理に従って、レイアウト情報ファイル3から読み込んだ使用環境を編集することで構築することになる。
【0032】
図8ないし図13に、有効視野範囲検証プログラム100の実行する処理フローの一実施例を図示する。次に、この処理フローに従って、本発明について詳細に説明する。
【0033】
有効視野範囲検証プログラム100は、ユーザから起動されると、図8ないし図13の処理フローに示すように、先ず最初に、ステップ1で、図14に示すようなレイアウト情報の選択画面を表示してユーザと対話することで、レイアウト情報ファイル3に管理されているレイアウト情報(使用環境)の中から、ディスプレイ装置の有効視野範囲の検証に用いるレイアウト情報を選択する。
【0034】
続いて、ステップ2で、レイアウト情報ファイル3から、その選択したレイアウト情報を読み込む。続いて、ステップ3で、形状情報ファイル4から、その読み込んだレイアウト情報で指定する部品の形状情報を読み込むとともに、その読み込んだレイアウト情報に人体モデルが配置されている場合には、人体モデル情報ファイル5から、その人体モデルの形状情報(直立姿勢の形状情報)を読み込む。
【0035】
続いて、ステップ4で、読み込んだレイアウト情報の指定する位置姿勢に従って、ステップ3で読み込んだ部品の姿勢を制御しつつ部品を配置したり、ステップ3で読み込んだ人体モデルの関節角度を制御しつつ人体モデルを配置することで、仮想三次元空間200にディスプレイ装置の使用環境を構築して、それを端末2のディスプレイ画面に表示する。例えば、図15に示すように、新幹線車内の使用環境を構築して端末2のディスプレイ画面に表示するのである。
【0036】
ここで、図15のディスプレイ画面に表示されるツリー構造は、ディスプレイ画面に表示される部品間の親子関係を示している。この図15のディスプレイ画面に表示されるツリー構造は、具体的には、「Train 」というレイアウト情報が4つの椅子「isu-x2-asm」とフロアー「floor3×3(3×3は区画数を表す)」という5つの部品で構成されているということを示している。この親子関係に従って、ユーザがこの内の1つの部品を移動させる操作を行うと、それに連動して、これ以外の4つの部品が「Train」というアッセブリ部品として一体的に移動することになる。
【0037】
続いて、ステップ5で、レイアウト情報により構築した使用環境の中に検証対象のディスプレイ装置が組み込まれていないのか否かを判断して、組み込まれていないことを判断するときには、ステップ6に進んで、形状情報ファイル4に管理されるディスプレイ装置の名称一覧画面を表示してユーザと対話することで、検証対象のディスプレイ装置を決定する。そして、形状情報ファイル4から、その決定したディスプレイ装置の形状情報を読み込み、ユーザと対話することでその配置位置及び姿勢を決定して、構築した使用環境の中に検証対象のディスプレイ装置を配置する。
【0038】
一方、ステップ5で、使用環境の中に検証対象のディスプレイ装置が組み込まれていることを判断するときには、ステップ7に進んで、ユーザからディスプレイ装置の形状の変更指示があるのか否かを判断して、この変更指示があることを判断するときには、上述したステップ6の処理を実行することで、ディスプレイ装置の形状を新たなものに変更する。一方、ディスプレイ装置の形状の変更指示がないことを判断するときには、このステップ6の処理を省略する。
【0039】
このようにして、図16に示すように、検証対象となるディスプレイ装置を配置しつつ、そのディスプレイ装置を使用する使用環境を構築して端末2のディスプレイ画面に表示するのである。
【0040】
続いて、ステップ8で、ユーザの発行するディスプレイ画面領域の設定要求を受けて、図17に示すようなディスプレイ画面領域の設定画面を開設して、そこに、マウス2aによりクリックされるディスプレイ装置のディスプレイ画面部分を表示し、ユーザと対話することで、その中から検証対象のディスプレイ装置の持つディスプレイ画面の領域を設定する。すなわち、ユーザとの対話処理に従って、周辺の装置筐体部分を取り除いた正確なディスプレイ画面の領域を抽出して設定するのである。
【0041】
ここで、この図17に示すディスプレイ画面領域の設定画面では、「対角指定」モードと、「中心点指定」モードという2つの設定モードを用意している。通常、ディスプレイ画面は「4:3」という規定の縦横比を持っているので、このような場合には、ユーザは、「対角指定」モードを使ってディスプレイ画面の対角線を入力することで、検証対象のディスプレイ装置の持つディスプレイ画面の領域を設定することができる。一方、このような規定の縦横比を持たないディスプレイ画面が用いられているときには、ユーザは、「中心点指定」モードを使ってディスプレイ画面の大きさを具体的に入力することで、検証対象のディスプレイ装置の持つディスプレイ画面の領域を設定することになる。
【0042】
続いて、ステップ9で、ユーザの発行する有効視野範囲の設定要求を受けて、図18に示すような有効視野範囲の設定画面を表示してユーザと対話することで、検証対象のディスプレイ装置の有効視野範囲を設定する。このとき設定する有効視野範囲は、図7に示す角度αの2倍の値を左右角度として設定し、角度βの2倍の値を上下角度として設定することで行う。また、有効視野範囲の表示長を奥行きの値で設定することで行う。なお、この有効視野範囲の設定処理の詳細については、ステップ28ないしステップ37で後述する。
【0043】
続いて、ステップ10で、図19及び図20に示すように、その設定した有効視野範囲を、構築した使用環境の中に可視化表示する。
【0044】
有効視野範囲の可視化表示は、例えば、半透明色の帯を表示することで行う。このとき、この半透明色の帯の濃度をディスプレイ装置からの距離に応じて薄くなるようにする構成を採ると、ユーザに対して見易さの感じを与えることができる。なお、濃度を変えるのではなくて、色を変えていくように処理することも可能である。
【0045】
この有効視野範囲の可視化表示により、ユーザは、想定した使用環境におけるディスプレイ装置の有効視野範囲を一目で把握できるようになる。
【0046】
続いて、ステップ11(図9の処理フロー)で、ユーザの発行する入力イベントを監視する。
【0047】
この監視処理に従って入力イベントの発行を検出すると、続いて、ステップ12で、発行された入力イベントが部品や人体モデルの配置の変更を指示するものであるのか否かを判断して、部品や人体モデルの配置の変更を指示するものでないことを判断するときには、ステップ13に進んで、発行された入力イベントが有効視野範囲の変更を指示するものであるのか否かを判断する。
【0048】
この判断処理に従って、発行された入力イベントが有効視野範囲の変更を指示するものではないことを判断するときには、ステップ14に進んで、発行された入力イベントが視界画像(使用環境に配置される人体モデルの見る画像)の表示を指示するものであるのか否かを判断する。
【0049】
この判断処理に従って、発行された入力イベントが視界画像の表示を指示するものであることを判断するときには、ステップ15に進んで、使用環境に配置される人体モデルの見る視界画像を生成する。そして、図21に示すように、使用環境を表示しているディスプレイ画面に視界画像表示用のウィンドウを開設して、そこに、この生成した視界画像を表示してから、次の入力イベントの処理に入るべくステップ11に戻る。
【0050】
ここで、図21では明示できないが、人体モデルの見ている範囲を、人体モデルの目から円錐状に放射する半透明の色で表示する構成を採っている。
【0051】
また、図示することができないが、視界画像では、有効視野範囲を示す帯の表面と裏面とを異なる色(半透明色である)で表示する構成を採っている。すなわち、図6に示した記号Aの側から見た帯の色(半透明色である)と、記号Bの側から見た帯の色(半透明色である)とを異なる色で表示する構成を採っている。これから、ユーザは、視界画像を見るときに、この帯の色を見ることで、有効視野の範囲内にある視界画像であるのか、有効視野の範囲外にある視界画像であるのかを直ちに知ることができる。
【0052】
また、図22に示すように、使用環境に複数の人体モデルが配置されるときには、最後にマウス2aで操作(クリック)された人体モデルを操作対象の人体モデルとして設定して、その操作対象の人体モデルの見た視界画像を表示する構成を採っている。これから、ユーザは、使用環境に配置される別の人体モデルの視界画像を見たいときには、その人体モデルをマウス2aで操作(クリック)することになる。これにより、例えば、ユーザが図22に示す通路に立つ人体モデルを操作対象として設定すると、図23に示すように、その通路に立つ人体モデルの視界画像がディスプレイ画面に表示されることになる。
【0053】
この視界画像の表示処理により、ユーザは、想定した使用環境の下、ディスプレイ装置を使用する本人がどのような形態でディスプレイ装置を見れるようになるのかということを一目で把握できるようになるとともに、他人がどのような形態でディスプレイ装置を見ることになるのかということを一目で把握できるようになる。
【0054】
一方、ステップ14で、発行された入力イベントが視界画像の表示を指示するものでないことを判断するときには、ステップ16に進んで、発行された入力イベントが使用環境に配置される人体モデルに対する操作指示であるのか否かを判断して、この操作指示でないことを判断するときには、ステップ17に進んで、発行された入力イベントがレイアウト情報(使用環境)の保存を指示するものであるのか否かを判断する。
【0055】
この判断処理に従って、発行された入力イベントがレイアウト情報(使用環境)の保存を指示するものでないことを判断するときには、ステップ18に進んで、発行された入力イベントが処理の終了を指示するものであるのか否かを判断して、処理終了を指示するものであることを判断するときには、処理を終了し、処理終了を指示するものでないことを判断するときには、次の入力イベントの処理に入るべくステップ11に戻る。
【0056】
そして、ステップ17で、発行された入力イベントがレイアウト情報(使用環境)の保存を指示するものであることを判断するときには、ステップ19に進んで、構築したレイアウト情報をレイアウト情報ファイル3に出力してから、次の入力イベントの処理に入るべくステップ11に戻る。
【0057】
一方、上述したステップ12の処理に従って、発行された入力イベントが部品や人体モデルの配置位置の変更を指示するものであることを判断するときには、ステップ20(図10の処理フロー)に進んで、ユーザの発行する入力イベント(配置位置の変更指示に伴う入力イベント)を監視し、入力イベントが発行されると、ステップ21に進んで、発行された入力イベントから部品や人体モデルの配置位置の変更情報を抽出する。
【0058】
続いて、ステップ22で、抽出した配置位置の変更情報から、配置位置の変更対象となる部品や人体モデルの新たな座標値を計算する。続いて、ステップ23で、人体モデルの配置位置の変更が指示されたのか否かを判断して、人体モデルではなくて部品の配置位置の変更が指示されたことを判断するときには、ステップ26に進んで、算出された新たな座標値に従って部品を配置することで使用環境を編集して、それを端末2のディスプレイ画面に表示する。
【0059】
一方、ステップ23で、人体モデルの配置位置の変更が指示されたことを判断するときには、ステップ24に進んで、視界画像を表示しているのか否かを判断して、視界画像を表示していることを判断するときには、続くステップ25で、人体モデルの配置位置の変更に応じて視界画像を変更してから、ステップ26に進んで、算出された新たな座標値に従って人体モデルを配置することで使用環境を編集して、それを端末2のディスプレイ画面に表示する。一方、視界画像を表示していないときには、ステップ25の処理を行わずに、直ちにステップ26に進んで、算出された新たな座標値に従って人体モデルを配置することで使用環境を編集して、それを端末2のディスプレイ画面に表示する。
【0060】
そして、ステップ26の処理を終了すると、続くステップ27で、配置位置の変更処理の終了が指示されたのか否かを判断して、この終了が指示されないことを判断するときには、ステップ20に戻ることで配置位置の変更処理を続行し、この終了が指示されたことを判断するときには、次の入力イベントの処理に入るべくステップ11(図9の処理フロー)に戻る。
【0061】
このステップ20ないしステップ27(図10の処理フロー)で実行される部品や人体モデルの配置位置の変更処理により、ユーザは、自分の必要とする使用環境を構築できるようになる。
【0062】
ここで、このステップ20ないしステップ27の処理フローでは説明しなかったが、部品の姿勢についても同様な処理に従って変更処理を行う。また、人体モデルの姿勢についても同様な処理に従って変更処理を行うことになるが、その詳細については後述する。
【0063】
また、このステップ20ないしステップ27の処理フローでは説明しなかったが、新たな部品を使用環境に追加(人体モデルの追加処理については後述する)するときにも、同様な処理に従って追加部品の配置形態(位置及び姿勢)を決定することで使用環境を編集することになる。
【0064】
すなわち、形状情報ファイル4に管理される部品の名称一覧画面を表示して、ユーザと対話することで追加部品を決定した後、ユーザと対話することで、その追加部品の配置形態を決定することで使用環境を編集することになる。例えば、図24に示すように、椅子を追加(この場合は複写処理により追加が可能である)することで使用環境を編集するのである。使用環境に配置される部品や人体モデルを削除できることは言うまでもない。
【0065】
このようにして、ユーザは、使用環境に配置される部品や人体モデルの配置位置や姿勢を変更したり、使用環境に配置される部品や人体モデルを追加したり削除したりすることで、自分の必要とする使用環境を構築できるようになるのである。
【0066】
一方、上述したステップ13の処理に従って、発行された入力イベントが有効視野範囲の変更を指示するものであることを判断するときには、ステップ28(図11の処理フロー)に進んで、ユーザの発行する入力イベント(有効視野範囲の変更指示に伴う入力イベント)を監視する。ユーザから有効視野範囲の変更指示が発行されるときには、図18に示したような有効視野範囲の設定画面を表示するので、この設定画面から入力されるユーザからのイベントを監視するのである。
【0067】
この監視処理に従って入力イベントの発行を検出すると、続くステップ29で、発行された入力イベントが上下・左右角連動モード(上下角と左右角とを同一値で動かすモード)の設定指示があるのか否かを判断して、この設定指示であることを判断するときには、ステップ30に進んで、ユーザから入力される角度を入力する。すなわち、図18に示した有効視野範囲の設定画面の角度設定ボリューム(左右角or上下角の角度設定ボリューム)により設定される角度を入力するのである。
【0068】
一方、ステップ29で、発行された入力イベントが上下・左右角連動モードの設定指示でないことを判断するときには、ステップ31に進んで、発行された入力イベントが上下角の角度設定ボリュームの操作であるのか否かを判断して、この操作であることを判断するときには、ステップ32に進んで、ユーザから入力される上下角度を入力する。すなわち、図18に示した有効視野範囲設定画面の上下角の角度設定ボリュームにより設定される角度を入力するのである。
【0069】
一方、ステップ31で、発行された入力イベントが上下角の角度設定ボリュームの操作でないことを判断するときには、ステップ33に進んで、発行された入力イベントが左右角の角度設定ボリュームの操作であるのか否かを判断して、この操作でないことを判断するときには、ステップ28に戻り、この操作であることを判断するときには、ステップ34に進んで、ユーザから入力される左右角度を入力する。すなわち、図18に示した有効視野範囲設定画面の左右角の角度設定ボリュームにより設定される角度を入力するのである。
【0070】
このようにして、有効視野範囲を規定する左右角及び上下角を入力(その他に奥行きが入力されるときには、それを入力する)すると、ステップ35に進んで、有効視野範囲形状(有効視野範囲を示す帯の形状)を計算し、続くステップ36で、図19などに示したように、その計算した有効視野範囲を使用環境の中に可視化表示する。
【0071】
そして、ステップ36の処理を終了すると、続くステップ37で、有効視野範囲の設定処理の終了が指示されたのか否かを判断して、この終了が指示されないことを判断するときには、ステップ28に戻ることで設定処理を続行し、この終了が指示されたことを判断するときには、次の入力イベントの処理に入るべくステップ11(図9の処理フロー)に戻る。
【0072】
このステップ28ないしステップ37(図11の処理フロー)で実行される有効視野範囲の設定処理により、ユーザは、ディスプレイ装置の有効視野範囲として様々な形態を想定し、それを構築した使用環境の可視化表示することで、使用環境を勘案しつつディスプレイ装置の有効視野範囲を検討できるようになる。
【0073】
一方、上述したステップ16の処理に従って、入力イベントが人体モデルに対する操作指示であることを判断するときには、ステップ38(図12の処理フロー)に進んで、使用環境の中に人体モデルが配置されていないのか否かを判断して、人体モデルが配置されていないことを判断するときには、ステップ39に進んで、図25に示すような人体モデルの呼び出し画面(人体モデル情報ファイル5に格納される人体モデルの名称一覧を表示する)を使ってユーザと対話することで、使用環境に配置する人体モデルを選択する。
【0074】
続いて、ステップ40で、人体モデル情報ファイル5から、その選択した人体モデルの形状情報(直立姿勢の形状情報)を読み込み、続くステップ41で、ユーザの指定する位置にその人体モデルを配置することで使用環境を編集して、それを端末2のディスプレイ画面に表示した後、次の入力イベントの処理に入るべくステップ11(図9の処理フロー)に戻る。
【0075】
一方、ステップ38で、使用環境の中に人体モデルが配置されていることを判断するときには、ステップ42に進んで、発行されたイベントが人体モデルの追加指示であるのか否かを判断して、この追加指示であることを判断するときには、ステップ39に進むことで、使用環境の中に人体モデルを追加して、それを端末2のディスプレイ画面に表示する。
【0076】
一方、ステップ42で、発行されたイベントが人体モデルの追加指示でないことを判断するときには、ステップ43に進んで、操作対象の人体モデルを特定する。すなわち、最後に操作された人体モデルを操作対象の人体モデルとして設定しているので、それを特定するのである。なお、処理起動時の使用環境の中に人体モデルが配置されている場合には、規定のアルゴリズムに従って操作対象の人体モデルを決めるように処理している。
【0077】
続いて、ステップ44で、発行されたイベントが操作対象の人体モデルの体型の変更指示であるのか否かを判断して、この変更指示が発行されたことを判断するときには、ステップ45に進んで、体型の変更先となる人体モデルを選択する。
【0078】
人体モデルを使用環境に配置すると、ユーザの指示に応答して、図26に示すような人体モデル操作画面を表示する構成を採っており、これを受けて、ユーザは、操作対象の人体モデルの体型を変更する場合には、この操作画面中に設けられる人体モデルの変更ボタンを操作してくるので、この変更ボタンにより指定される人体モデルを選択するのである。
【0079】
なお、この実施例では、人体モデル情報ファイル5から読み込む人体モデルの形状情報を、直立姿勢(寝ころんだ姿勢でもある)に規定する構成を採っているので、この人体モデル操作画面の「基本姿勢」には、初期値として直立姿勢が表示されることになる。
【0080】
続いて、ステップ46で、人体モデル情報ファイル5から、選択した人体モデルの形状情報(体型の変更先となる人体モデルの形状情報(直立姿勢の形状情報))を読み込み、続くステップ47で、操作対象の人体モデルの位置姿勢を、この読み込んだ人体モデルに反映させる。すなわち、操作対象の人体モデルの配置位置を、この読み込んだ人体モデルの配置位置とするとともに、操作対象の人体モデルの関節角度に従って、この読み込んだ人体モデルの関節角度を設定するのである。
【0081】
続いて、ステップ48で、操作対象の人体モデルを削除し、続くステップ49で、ステップ46で読み込んだ人体モデルを操作対象のモデルとして設定することで、操作対象の人体モデルを変更する。
【0082】
続いて、ステップ50で、視界画像を表示しているのか否かを判断して、視界画像を表示していることを判断するときには、続くステップ51で、人体モデルの体型の変更に応じて視界画像を変更してから、ステップ41に進んで、それまでの操作対象の人体モデルに代えて、体型の変更された人体モデルを配置することで使用環境を編集して、それを端末2のディスプレイ画面に表示する。一方、視界画像を表示していないときには、ステップ51の処理を行わずに、直ちにステップ41に進んで、それまでの操作対象の人体モデルに代えて、体型の変更された人体モデルを配置することで使用環境を編集して、それを端末2のディスプレイ画面に表示する。
【0083】
このステップ45ないしステップ51の処理フローで実行される人体モデルの体型の変更処理により、図27に示すように、人体モデルの位置や姿勢を変えることなくその体型を交換できるようになり、これにより、ユーザは、ディスプレイ装置を使用する者の様々な体型を勘案しつつ、ディスプレイ装置の有効視野範囲を検討できるようになる。
【0084】
一方、ステップ44で、発行されたイベントが操作対象の人体モデルの変更指示でないことを判断するときには、ステップ52(図13の処理フロー)に進んで、発行されたイベントが操作対象の人体モデルの関節角度(姿勢)の変更指示であるのか否かを判断して、この変更指示でないことを判断するときには、ステップ38(図12の処理フロー)に戻り、この変更指示であることを判断するときには、ステップ53に進んで、発行された入力イベントから関節角度の変更情報を抽出する。
【0085】
すなわち、図26に示した人体モデル操作画面では、関節の選択画面と、その選択画面で選択された関節の角度を設定する「Pitch/Yaw/Roll」という3つのボリュームとを有し、ユーザは、この関節選択画面と3つのボリュームとを使って人体モデルの姿勢を操作してくるので、このとき入力される関節角度の変更情報を抽出するのである。
【0086】
なお、人体モデル操作画面を使わずに、ユーザがディスプレイ画面に表示される人体モデルの各部分をマウス2aで操作することで、その姿勢を変更することも可能にする構成を採っており、このときにも同様にして、入力される関節角度の変更情報を抽出する処理を行う。
【0087】
続いて、ステップ54で、抽出した関節角度の変更情報から、操作対象の人体モデルの関節角度を計算する。続いて、ステップ55で、視界画像を表示しているのか否かを判断して、視界画像を表示していることを判断するときには、続くステップ56で、人体モデルの姿勢の変更に応じて視界画像を変更してから、ステップ57に進んで、姿勢の変更された人体モデルを配置することで使用環境を編集して、それを端末2のディスプレイ画面に表示する。一方、視界画像を表示していないときには、ステップ56の処理を行わずに、直ちにステップ57に進んで、姿勢の変更された人体モデルを配置することで使用環境を編集して、それを端末2のディスプレイ画面に表示する。
【0088】
そして、ステップ57の処理を終了すると、続くステップ58で、関節角度の変更処理の終了が指示されたのか否かを判断して、この終了が指示されないことを判断するときには、ステップ52に戻ることで関節角度の変更処理を続行し、この終了が指示されたことを判断するときには、次の入力イベントの処理に入るべくステップ11(図9の処理フロー)に戻る。
【0089】
このステップ53ないしステップ58の処理フローで実行される人体モデルの関節角度の変更処理により、人体モデルの姿勢を自由に変更できるようになり、これにより、ユーザは、ディスプレイ装置を使用する者の様々な姿勢を勘案しつつ、ディスプレイ装置の有効視野範囲を検討できるようになる。但し、レイアウト情報ファイル3に格納される制限情報により不自然な動きは禁止されることになる。
【0090】
図26に示した人体モデル操作画面では、人体モデル情報ファイル5の管理項目となる「基本姿勢」の選択ボタンを有している。これは、この選択ボタンに対応付けられる設定ボタンが操作されるときに、この選択ボタンで選択された「基本姿勢」の指す関節角度を人体モデル情報ファイル5から読み出して、表示中の操作対象の人体モデルの姿勢をそれに応じて変更する処理を行うために用意されている。
【0091】
また、上述したように、人体モデルの見ている範囲を、人体モデルの目から円錐状に放射する半透明の色で表示する構成を採っているが、この人体モデル操作画面で用意する「有効視野」ボタンと「誘導視野」ボタンとは、その円錐状の大きさを変更するために用意されている。すなわち、「有効視野」が選択されるときには、人間が注視する範囲を表現すべく小さな円錐状の視野空間を表示し、「誘導視野」が選択されるときには、人間が漠然と見る範囲を表現すべく大きな円錐状の視野空間を表示することになる。
【0092】
以上に説明した実施例では説明しなかったが、有効視野範囲の設定画面などを使って、ディスプレイ装置の表示輝度を設定可能(例えば、0〜100%で設定可能にする)にする構成を採って、その設定された表示輝度に応じた色や濃度を使って、有効視野範囲を可視化表示する構成を採ることも可能である。この表示構成を用いると、ユーザに対して一層見易さの感じを与えることができるようになる。
【0093】
図示実施例に従って本発明を説明したが、本発明はこれに限定されるものではない。例えば、実施例では、有効視野範囲を帯を使って表示する構成を採ったが、その他の表現方法を採ることであってもよい。
【0094】
【発明の効果】
以上説明したように、本発明によれば、コンピュータ上の仮想三次元空間に検証対象のディスプレイ装置の使用環境を構築してディスプレイ画面に表示するとともに、その使用環境での検証対象のディスプレイ装置の有効視野範囲を設定して、それをディスプレイ画面に可視化表示する構成を採ることから、ユーザは、実際の使用環境を考慮した形で、検証対象のディスプレイ装置の有効視野範囲を検討できるようになる。
【0095】
そして、この処理構成を採るときに、ディスプレイ装置の有効視野範囲を自由に設定できるようにする構成を採ることから、ユーザは、使用用途に適する有効視野範囲を詳細に検討できるようになる。
【0096】
そして、この処理構成を採るときに、有効視野範囲の可視化表示に用いる表示色の色や濃度を、検証対象のディスプレイ装置からの距離に応じて変化させたり、検証対象のディスプレイ装置の表示輝度に応じた色や濃度を使って有効視野範囲を表示する構成を採ることから、ユーザは、見易さの感じを把握できるようになる。
【0097】
そして、この処理構成を採るときに、人体モデルを配置しつつ、検証対象のディスプレイ装置の使用環境を構築する構成を採ることから、ユーザは、人体モデルと有効視野範囲との間の関係を具体的に検討できるようになる。
【0098】
このとき、人体モデルの配置位置や姿勢を操作したり、人体モデルの配置位置や姿勢を変えることなく人体モデルを交換できるようにする構成を採ることから、ユーザは、様々な角度から人体モデルと有効視野範囲との間の関係を詳細に検討できるようになる。
【0099】
そして、この処理構成を採るときに、人体モデルが見た視界画像を表示する構成を採ることから、ユーザは、ディスプレイ装置を使用する本人がどのような形態でディスプレイ装置を見れるようになるのかということを一目で把握できるようになるとともに、他人がどのような形態でディスプレイ装置を見ることになるのかということを一目で把握できるようになる。
【0100】
このとき、有効視野範囲内の視界画像であるのか、有効視野範囲外の視界画像であるのかを明示しつつ視界画像を表示する構成を採ることから、ユーザは、有効視野範囲内の視界画像であるのか、有効視野範囲外の視界画像であるのかを直ちに知ることができるようになる。
【図面の簡単な説明】
【図1】本発明の原理構成図である。
【図2】本発明の一実施例である。
【図3】レイアウト情報ファイルの説明図である。
【図4】形状情報ファイルの説明図である。
【図5】人体モデル情報ファイルの説明図である。
【図6】ディスプレイ装置の有効視野範囲の説明図である。
【図7】ディスプレイ装置の有効視野範囲の説明図である。
【図8】有効視野範囲検証プログラムの処理フローである。
【図9】有効視野範囲検証プログラムの処理フローである。
【図10】有効視野範囲検証プログラムの処理フローである。
【図11】有効視野範囲検証プログラムの処理フローである。
【図12】有効視野範囲検証プログラムの処理フローである。
【図13】有効視野範囲検証プログラムの処理フローである。
【図14】ディスプレイ画面の説明図である。
【図15】ディスプレイ画面の説明図である。
【図16】ディスプレイ画面の説明図である。
【図17】ディスプレイ領域設定画面の説明図である。
【図18】有効視野範囲設定画面の説明図である。
【図19】ディスプレイ画面の説明図である。
【図20】ディスプレイ画面の説明図である。
【図21】ディスプレイ画面の説明図である。
【図22】ディスプレイ画面の説明図である。
【図23】ディスプレイ画面の説明図である。
【図24】ディスプレイ画面の説明図である。
【図25】人体モデル呼び出し画面の説明図である。
【図26】人体モデル操作画面の説明図である。
【図27】ディスプレイ画面の説明図である。
【符号の説明】
1 有効視野範囲検証装置
2 端末
3 レイアウト情報ファイル
4 形状情報ファイル
5 人体モデル情報ファイル
10 構築手段
11 設定手段
12 表示手段
13 実行手段
Claims (10)
- ディスプレイ装置の有効視野範囲を検証する有効視野範囲検証装置であって、
ユーザにより作成された検証対象のディスプレイ装置の使用環境の情報を取得して、その取得した情報に基づいて、コンピュータ上の仮想三次元空間に検証対象のディスプレイ装置の使用環境を構築してディスプレイ画面に表示する構築手段と、
視野角の設定画面を表示し、その設定画面に入力される情報に従って、検証対象のディスプレイ装置の有効視野範囲の情報を取得することで、上記構築手段の構築した使用環境での検証対象のディスプレイ装置の有効視野範囲を設定する設定手段と、
上記設定手段の設定した有効視野範囲を上記ディスプレイ画面に可視化表示する表示手段とを備えることを、
特徴とする有効視野範囲検証装置。 - 請求項1に記載の有効視野範囲検証装置において、
上記表示手段は、有効視野範囲の可視化表示に用いる表示色の色又は濃度を、検証対象のディスプレイ装置からの距離に応じて変化させて表示することを、
特徴とする有効視野範囲検証装置。 - 請求項2に記載の有効視野範囲検証装置において、
上記表示手段は、ユーザにより設定される検証対象のディスプレイ装置の表示輝度に応じた色又は濃度を表示することを、
特徴とする有効視野範囲検証装置。 - 請求項1〜3のいずれか1項に記載の有効視野範囲検証装置において、
上記構築手段は、上記取得した情報に基づいて、人体モデルを配置しつつ、検証対象のディスプレイ装置の使用環境を構築することを、
特徴とする有効視野範囲検証装置。 - 請求項4に記載の有効視野範囲検証装置において、
上記構築手段は、ユーザから上記人体モデルに対しての操作指示の情報を入力して、その操作指示情報に基づいて、使用環境に配置する上記人体モデルの配置位置及び/又は姿勢を操作することを、
特徴とする有効視野範囲検証装置。 - 請求項4に記載の有効視野範囲検証装置において、
上記構築手段は、ユーザから上記人体モデルに対しての交換指示の情報を入力して、その交換指示情報に基づいて、使用環境に配置する上記人体モデルの体型を、上記人体モデルの配置位置及び姿勢を変えることなく交換することを、
特徴とする有効視野範囲検証装置。 - 請求項4〜6のいずれか1項に記載の有効視野範囲検証装置において、
上記人体モデルが検証対象のディスプレイ装置を見た場合の視界画像を求めて、ディスプレイ画面に表示する実行手段を備えることを、
特徴とする有効視野範囲検証装置。 - 請求項7に記載の有効視野範囲検証装置において、
上記実行手段は、検証対象のディスプレイ装置の有効視野範囲内であるのか、有効視野範囲外であるのかを明示しつつ視界画像を表示することを、
特徴とする有効視野範囲検証装置。 - 構築手段と設定手段と表示手段とを備える有効視野範囲検証装置で実行されて、ディスプレイ装置の有効視野範囲を検証する有効視野範囲検証方法であって、
上記構築手段が、ユーザにより作成された検証対象のディスプレイ装置の使用環境の情報を取得して、その取得した情報に基づいて、コンピュータ上の仮想三次元空間に検証対象のディスプレイ装置の使用環境を構築してディスプレイ画面に表示し、
上記設定手段が、視野角の設定画面を表示し、その設定画面に入力される情報に従って 、検証対象のディスプレイ装置の有効視野範囲の情報を取得することで、上記構築手段の構築した使用環境での検証対象のディスプレイ装置の有効視野範囲を設定し、
上記表示手段が、上記設定手段の設定した有効視野範囲を上記ディスプレイ画面に可視化表示することを、
特徴とする有効視野範囲検証方法。 - ディスプレイ装置の有効視野範囲を検証する有効視野範囲検証装置の実現に用いられるプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
コンピュータを、
ユーザにより作成された検証対象のディスプレイ装置の使用環境の情報を取得して、その取得した情報に基づいて、コンピュータ上の仮想三次元空間に検証対象のディスプレイ装置の使用環境を構築してディスプレイ画面に表示する構築手段と、
視野角の設定画面を表示し、その設定画面に入力される情報に従って、検証対象のディスプレイ装置の有効視野範囲の情報を取得することで、上記構築手段の構築した使用環境での検証対象のディスプレイ装置の有効視野範囲を設定する設定手段と、
上記設定手段の設定した有効視野範囲を上記ディスプレイ画面に可視化表示する表示手段として機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5221299A JP3851014B2 (ja) | 1999-03-01 | 1999-03-01 | 有効視野範囲検証装置、有効視野範囲検証方法及びコンピュータ読み取り可能な記録媒体 |
US09/510,168 US6683610B1 (en) | 1999-03-01 | 2000-02-22 | Verification device for an effective visual field, method for verifying the effective visual field, and programming medium for verifying the effective visual field |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5221299A JP3851014B2 (ja) | 1999-03-01 | 1999-03-01 | 有効視野範囲検証装置、有効視野範囲検証方法及びコンピュータ読み取り可能な記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000250955A JP2000250955A (ja) | 2000-09-14 |
JP3851014B2 true JP3851014B2 (ja) | 2006-11-29 |
Family
ID=12908466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5221299A Expired - Fee Related JP3851014B2 (ja) | 1999-03-01 | 1999-03-01 | 有効視野範囲検証装置、有効視野範囲検証方法及びコンピュータ読み取り可能な記録媒体 |
Country Status (2)
Country | Link |
---|---|
US (1) | US6683610B1 (ja) |
JP (1) | JP3851014B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3721155B2 (ja) * | 2002-10-30 | 2005-11-30 | 株式会社東芝 | 情報処理装置および同装置の表示制御方法 |
JP6112036B2 (ja) * | 2014-02-18 | 2017-04-12 | ソニー株式会社 | 情報処理装置および方法、情報処理システム、並びにプログラム |
CN113918007B (zh) * | 2021-04-27 | 2022-07-05 | 广州市保伦电子有限公司 | 一种基于眼球追踪的视频交互操作方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08202281A (ja) * | 1995-01-30 | 1996-08-09 | Olympus Optical Co Ltd | 頭部装着型映像表示装置システム |
US5850352A (en) * | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
JPH09293147A (ja) * | 1996-04-24 | 1997-11-11 | Canon Inc | 視線検出を用いた画像処理装置 |
JP3391648B2 (ja) | 1997-02-27 | 2003-03-31 | 富士通株式会社 | 機器操作性評価支援装置 |
US6028608A (en) * | 1997-05-09 | 2000-02-22 | Jenkins; Barry | System and method of perception-based image generation and encoding |
JPH10334275A (ja) * | 1997-05-29 | 1998-12-18 | Canon Inc | 仮想現実方法及び装置並びに記憶媒体 |
-
1999
- 1999-03-01 JP JP5221299A patent/JP3851014B2/ja not_active Expired - Fee Related
-
2000
- 2000-02-22 US US09/510,168 patent/US6683610B1/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US6683610B1 (en) | 2004-01-27 |
JP2000250955A (ja) | 2000-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sereno et al. | Collaborative work in augmented reality: A survey | |
JP6382261B2 (ja) | 高度なカメラをベースとした入力 | |
CN114967929A (zh) | 用于建模、测量和绘图的***、方法和图形用户界面 | |
US6573903B2 (en) | Determining and displaying geometric relationships between objects in a computer-implemented graphics system | |
Wang et al. | Mixed reality in architecture, design, and construction | |
US7782319B2 (en) | Three-dimensional orientation indicator and controller | |
Aliakseyeu et al. | Interaction techniques for navigation through and manipulation of 2 D and 3 D data | |
US6714198B2 (en) | Program and apparatus for displaying graphical objects | |
JP2001134633A (ja) | 電子図面ビューア | |
JP3851014B2 (ja) | 有効視野範囲検証装置、有効視野範囲検証方法及びコンピュータ読み取り可能な記録媒体 | |
JP3022069B2 (ja) | 3次元アイコンによる情報表示装置及び方法 | |
Dani et al. | COVIRDS: a conceptual virtual design system | |
Kimer et al. | A model of software development process for virtual environments: definition and a case study | |
Sareika et al. | Bimanual handheld mixed reality interfaces for urban planning | |
JP2016018363A (ja) | 仮想空間平面上に配置したオブジェクトを表示制御するゲーム・プログラム | |
US7046241B2 (en) | Oriented three-dimensional editing glyphs | |
Chen et al. | Effectiveness of cloning techniques for architectural virtual environments | |
Coomans | A VR Interface for Design by Features | |
Mackie et al. | Desktop and immersive tools for residential home design | |
de Araújo et al. | An haptic-based immersive environment for shape analysis and modelling | |
Phillips | Jack user's guide | |
JP3465892B2 (ja) | 映像データ編集方法及び映像データ編集プログラムを記憶したコンピュータ読み取り可能な記憶媒体 | |
Bahar | Representation of thermal building simulation in virtual reality for sustainable building | |
Coomans | A virtual reality user interface for a design information system | |
Fisher et al. | 3D scene manipulation with constraints |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060803 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060829 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060831 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090908 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100908 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100908 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110908 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120908 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120908 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130908 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |