JP2007233971A - 画像合成方法及び装置 - Google Patents
画像合成方法及び装置 Download PDFInfo
- Publication number
- JP2007233971A JP2007233971A JP2006058366A JP2006058366A JP2007233971A JP 2007233971 A JP2007233971 A JP 2007233971A JP 2006058366 A JP2006058366 A JP 2006058366A JP 2006058366 A JP2006058366 A JP 2006058366A JP 2007233971 A JP2007233971 A JP 2007233971A
- Authority
- JP
- Japan
- Prior art keywords
- image
- sensor
- camera
- measurement range
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【解決手段】 予め、位置姿勢センサ及び客観カメラの計測範囲を表す3次元コンピュータグラフィクスモデルを用意しておく。そして、位置姿勢センサが配置された現実空間の実写画像に、位置合わせされた仮想物体の画像として、位置姿勢センサと客観カメラの計測範囲を重畳合成した合成画像を生成する。この合成画像を表示することで、位置姿勢センサと客観カメラの計測範囲を視認することが可能となる。
【選択図】 図12
Description
以下、添付図面を参照して本発明をその好適な実施形態に基づき詳細に説明する。
第1の実施形態に係る画像合成装置の一例は、センサに取り付けたマーカに基づいてセンサの位置情報を取得し、その位置にセンサの計測範囲を3次元CGのモデルデータを用いて重畳表示して、センサの計測範囲を可視化する。なお、計測範囲を可視化するための3次元CGのモデルデータは、センサの仕様による計測範囲に対応したモデルデータであっても良いし、経験によって得られる計測範囲でも良い。また、モデルデータの表示方法も特に制限はなく、そのまま出力しても良いし、透明度の設定を行って表示するなどしても良い。
図1は、本実施形態における画像合成装置の構成例を示すブロック図である。また、図2は図1の画像合成装置を複合現実感アプリケーションに適用した場合の具体的な機器配置と、観察者が体感する複合現実感を模式的に示す図である。
本実施形態においては、上で説明した画像合成装置を用いて、位置姿勢センサの計測範囲を可視化することを特徴とする。
図3は本実施形態における位置姿勢センサの計測範囲可視化を模式的に示す図である。観察者201は例えばHMD108に取り付けられたビデオカメラ101により、一対のセンサ301に取り付けた2次元マーカ205を撮像する。そして、予め用意したセンサ301の計測範囲の3次元モデルデータを仮想空間データベース106より読み出し、センサ301の計測範囲を表すCG画像302を視点位置姿勢算出部104が算出する観察者の視点位置姿勢に基づいて生成する。このCG画像302をカメラ101で撮影した実写画像と合成してHMD108に表示することで、観察者にセンサ301の計測範囲を提示する。
本実施形態において用いることができる、センサの計測範囲の3次元モデルの作成方法としては、様々な方法が考えられる。
まず、センサの仕様に基づき計測範囲の3次元モデルを作成する方法を説明する。
位置姿勢センサが光学センサの場合は、図9に示されるような対象機種の仕様に基づき、計測範囲の寸法をコンピュータグラフィックのモデリングソフト上で入力することで、センサの計測範囲の3次元モデルを作成することができる。
また、磁気センサの場合は、対象機種の仕様に記載されている計測範囲の距離を半径とする半球をコンピュータグラフィックのモデリングソフトで作成することにより、センサの計測範囲の3次元モデルを作成することができる。
センサの計測範囲外に出たときにセンサから「センサの計測範囲外」という旨のデータが送られてくる場合は、その直前の座標(X,Y,Z)データを複数取得、格納しておく。そして、格納した座標点を頂点としたポリゴンを生成することで、計測範囲をモデリングすることができる。格納した頂点からポリゴンを生成する方法としては、Marching Cubes法「Lorensen,W.E and Cline H.E, Marching Cubes: A High Resolution 3D Surface Construction Algorithm,ACM computer Graphics,21(3),1987.」などが知られている。
「センサの計測範囲外」という旨のデータが送られてこない場合は、オペレータが予め体験し、その体験結果から計測範囲を示す3次元データを作成する。例えば、磁気センサでは、計測結果から半球の半径を設定し、半球の3次元モデルを作成する。
ここで、本実施形態に係る画像合成装置において重要な機能を果たす視点位置姿勢算出部104の動作について詳細に説明する。視点位置姿勢算出部104の基本的な動作は座標変換である。
本実施形態において、仮想物体206はマーカ座標系401の上で表現される。
撮影画像中のマーカ位置およびマーカ座標系におけるマーカ位置の関係に基づき、マーカ座標系からカメラ座標系への変換行列Tcmを動的に求める。そして、予め求められている、カメラ座標系からHMDスクリーン座標系への変換行列Tscと、変換行列Tcmとに基づき、マーカ座標系で定義されているセンサの計測範囲の3次元モデルを変換して、仮想物体206をHMDスクリーン上に表示する。
図3の実施形態では、配置する2台のセンサの夫々に対してマーカを取り付け、各センサの計測範囲の3次元モデルを独立に管理している。したがって、本実施形態では、以下に示す変換行列の算出を、各マーカに対して行う。
カメラ座標系402は焦点位置を原点、画像平面に垂直な方向をZ軸、画像のx,y軸に平行な方向を各X,Y軸とする。
マーカ座標系401で表現された任意の点(Xm,Ym,Zm)は、回転移動と平行移動の組合せでカメラ座標系402上の点に変換可能であり、カメラ座標系402では(Xc,Yc,Zc)と表記する。
また、複合現実感システムにおいては広範囲における位置計測が要求され、そのためにビデオカメラ101には広角レンズが用いられる。そのため、撮影した画像には樽型歪みが発生する。
S501の前処理では、入力された実写画像に対して、固定閾値による2値化、連結領域ごとの面積・外接長方形計算を行う。本実施形態においては、これらの処理を1パスで行うアルゴリズムを用いることで高速化を図っている。
残された連結領域に対して輪郭線追跡を行い、輪郭線上の画素位置をすべて記憶する。
2次元マーカは、黒い枠の中に識別用のパターン501が設けられた正方形マーカである。なお、本実施形態ではテンプレートマッチングによりマーカ識別を行っているため、中央部の識別用パターンはマーカの方向性(上下左右)が認識できる任意のシンボルを用いることができる。
このテンプレートマッチングを行うためには、画像の正規化を行う必要がある。
式1は、マーカ座標系401のXm−Ym平面内の点(Xm,Ym,0)を、透視変換モデル行列Cによって理想スクリーン座標系403上の点(xc,yc)に変換する変換式である。
そして、縮小画像との類似度sが最大値となるテンプレートの種類と向きを、マーカの種類及び方向と見なす。
ここで、(xc,yc)は理想スクリーン座標系403における座標値、(xd,yd)は観測スクリーン座標系405における座標値である。
まず、マーカ座標系401からカメラ座標系402への変換行列Tcm の推定を行う。
この変換行列は、回転移動成分Rと平行移動成分Tからなる。理想スクリーン座標系403とカメラ座標系402の間は透視変換モデルで変換でき、その具体的な変換行列Pは事前にキャリブレーションにより算出することができる。この透視変換モデルの算出は一般的に利用されている技術であるため、ここでは、その具体的な算出方法の説明は省略する。
S701では、回転移動成分Rの推定を行う。
そして、式5の(xc,yc)をこれに代入すると、式7が得られる。
式4及び式5を結合し、マーカ4頂点のマーカ座標系401での座標値、理想スクリーン座標系403での座標値を代入すると、T1,T2,T3に関する1次方程式が8個得られる。行列P,Rが既知なので、これらの式からT1,T2,T3を計算できる。最後にS703では、変換行列Tcmの修正を行う。
式8は回転行列を回転角で表した式である。
また、本実施形態では、各センサに1つの2次元マーカを使用したが、マーカ間の位置関係が予め定義されている場合は、1つのセンサに対して複数の点マーカを使用することができる。また、同様に複数の2次元マーカを使用することもできる。
また、複合現実感アプリケーションの実行中に、観察者がセンサの計測範囲を把握することを可能とし、正しい範囲内で移動することを可能とする。
第2の実施形態に係る画像合成装置は、位置姿勢センサの設置後、実際に設置した位置姿勢センサの計測値から観察者の頭部の世界座標系における位置姿勢情報を取得する。そして、予め用意した、世界座標系で定義された、センサの計測範囲を表す3次元CGモデルデータを、観察者の視線近傍に配置したカメラから得られる実写画像に重畳表示することによって位置姿勢センサの計測範囲を可視化するものである。
1001は、観察者の視点位置姿勢を検出する位置姿勢センサである。1002は位置姿勢センサ1001の出力に基づき世界座標系をHMDスクリーン座標系406へ変換する変換行列を算出する視点位置姿勢算出部である。画像生成部105は、視点位置姿勢算出部1002で算出された変換行列を用いて、仮想空間データベース1003に格納されている世界座標系で定義されている3次元モデルに基づく仮想物体画像を生成する。
ただし、複合現実感技術の分野では周知であるように、位置姿勢センサの出力値をマーカから得られる情報によって補正することも可能である。
位置姿勢センサ1001で観察者201の視点位置姿勢を検出する。そして、予め用意した、センサ1001の計測範囲を表す3次元CGモデルデータ(本実施形態では世界座標系で記述)と、観察者201に提示するためのCGオブジェクト801の3次元CGモデルデータとを仮想空間データベース1003より読み出す。次に、位置姿勢センサ1001が測定した観察者の視点位置姿勢と、視点位置姿勢算出部1002からの変換行列とから、HMD108のスクリーン座標系406へ投影された3次元CG画像302を生成する。画像合成部107は画像入力部102からの実写画像に画像生成部105からのCG画像302を合成し、HMD108に表示させる。このようにして、観察者にセンサ1001の計測範囲を視認させることができる。
また、複合現実感アプリケーションの実行中に、観察者がセンサの計測範囲を把握することを可能とし、正しい範囲内で移動することを可能とする。
上述の実施形態においては、いずれも観察者にセンサの計測範囲を提示するものであった。しかしながら、画像合成装置のオペレータに、可視化したセンサの計測範囲を提示することも可能である。オペレータ用の操作画面にセンサの計測範囲を可視化することによって、オペレータは観察者とセンサ計測範囲との位置関係を把握することができる。そのため、オペレータが観察者の作業をモニタリングする場合などにおいて、観察者を適切な位置(センサ計測範囲内)に誘導することが可能となる。
また、図8に示すようなCGオブジェクトを動的に観察者に提示させる場合、観察者にとって最も見易い位置に配置させることも可能となる。
第4の実施形態に係る画像合成装置は、観察者の位置姿勢情報を取得するために、位置姿勢センサに加え客観カメラ(第3者の視点位置姿勢から撮影するカメラ)を用いることで、一層高精度に観察者の位置姿勢情報を取得する。また、センサの計測範囲および客観カメラの計測範囲の両方を可視化し、提示する。
1101は、観察者201の視点位置姿勢を精度良く検出するために配置された客観カメラである。客観カメラ1201の位置姿勢は固定かつ既知である。また、観察者201の視点位置姿勢を検出するための目安として、観察者の頭部に、例えばHMDを利用して少なくとも1点、好ましくは複数のマーカを取り付けておく。複数のマーカを取り付ける場合、マーカ間の位置姿勢関係を予め求めておく。客観カメラ1201の撮影した映像は、画像入力部102と同様の画像入力部1102を通じて入力される。
この場合、客観カメラ1201とは別の、オペレータ用の画像(客観画像)を生成するための仮想客観カメラとして第3者の視点位置姿勢を想定し、オペレータに提示する画像を生成、表示すればよい。
上述の実施形態において、センサや客観カメラの計測範囲を観察者およびオペレータに、より効果的に提示するための方法としては、以下の方法を例示できる。例えば、計測範囲を、取得可能な位置姿勢情報の精度に応じて色分けし、グラデーション表示を行う方法。また、視野範囲(計測範囲)を半透明のCGオブジェクトとして描画し、視野範囲同士が重なり合う部分が、CGオブジェクトの色の混合により把握可能なように表示する方法などがある。さらに、シーン中に存在する客観カメラの番号等を、客観カメラの画像に注釈情報として重畳表示するなどして、観察者およびオペレータに提示する方法などもある。
尚、前述した実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いて当該プログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムを実行することによって同等の機能が達成される場合も本発明に含む。
Claims (10)
- 実写画像にコンピュータグラフィクス画像を位置合わせして合成する画像合成方法において、
位置姿勢が既知である客観カメラの計測範囲を表す3次元コンピュータグラフィクスモデルを設定する第1の設定工程と、
視点位置姿勢情報を取得する視点位置姿勢情報取得工程と、
前記視点位置姿勢情報と、前記3次元コンピュータグラフィクスモデルとを用い、前記客観カメラの計測範囲を表すコンピュータグラフィックス画像を生成するCG画像生成工程と、
前記実写画像と前記コンピュータグラフィックス画像とを合成する画像合成工程とを有することを特徴とする画像合成方法。 - 前記視点位置姿勢情報取得工程が、位置姿勢センサ又は姿勢センサの検出情報と、前記客観カメラの位置姿勢と前記客観カメラが撮影した画像に含まれるマーカの画像とを用いて検出した視点位置姿勢情報とから、前記視点位置姿勢を取得することを特徴とする請求項1記載の画像合成方法。
- さらに、前記位置姿勢センサ又は姿勢センサの計測範囲を表す3次元コンピュータグラフィクスモデルを設定する第2の設定工程と、
前記位置姿勢センサ又は姿勢センサの位置情報を取得するセンサ位置情報取得工程とを有し、
前記CG画像生成工程が、前記位置情報と、前記第1及び第2の設定工程で設定された3次元コンピュータグラフィクスモデルとを用い、前記客観カメラの計測範囲と、前記位置姿勢センサ又は姿勢センサの計測範囲を表すコンピュータグラフィックス画像を生成することを特徴とする請求項2記載の画像合成方法。 - それぞれが予め定められた測定範囲を有するセンサと客観カメラとを用いて測定した位置姿勢情報を用い、実写画像にコンピュータグラフィクス画像を位置合わせして合成する画像合成方法において、
前記センサ及び前記客観カメラの、前記予め定められた計測範囲を表す3次元コンピュータグラフィクスモデルを設定する設定工程と、
前記センサの検出情報及び前記客観カメラの撮影した画像から、前記実写画像を撮像するカメラの位置姿勢情報を取得するカメラ位置姿勢情報取得工程と、
前記カメラ位置姿勢情報と、前記3次元コンピュータグラフィクスモデルとを用い、前記センサ及び前記客観カメラの前記予め定められた計測範囲を表すコンピュータグラフィックス画像を生成するCG画像生成工程と、
前記実写画像と前記コンピュータグラフィクス画像とを合成する画像合成工程とを有することを特徴とする画像合成方法。 - 観察者が装着する頭部装着型表示装置に設けられたカメラで撮影した実写画像に、予め用意した仮想物体の3次元コンピュータグラフィクスモデルと前記カメラの位置姿勢情報とを用いて生成した前記仮想物体の画像を合成し、合成画像を前記頭部装着型表示装置に表示する画像合成方法において、
前記観察者が存在する空間中に配置されたセンサと客観カメラそれぞれの計測範囲を表す3次元コンピュータグラフィクスモデルを設定する設定工程と、
前記計測範囲を前記仮想物体の画像として生成する画像生成工程を有することを特徴とする画像合成方法。 - 実写画像にコンピュータグラフィクス画像を位置合わせして合成する画像合成装置において、
位置姿勢が既知である客観カメラの計測範囲を表す3次元コンピュータグラフィクスモデルを設定する第1の設定手段と、
視点位置姿勢情報を取得する視点位置姿勢情報取得手段と、
前記視点位置姿勢情報と、前記3次元コンピュータグラフィクスモデルとを用い、前記客観カメラの計測範囲を表すコンピュータグラフィックス画像を生成するCG画像生成手段と、
前記実写画像と前記コンピュータグラフィックス画像とを合成する画像合成手段とを有することを特徴とする画像合成装置。 - それぞれが予め定められた測定範囲を有するセンサと客観カメラとを用いて測定した位置姿勢情報を用い、実写画像にコンピュータグラフィクス画像を位置合わせして合成する画像合成装置において、
前記センサ及び前記客観カメラの、前記予め定められた計測範囲を表す3次元コンピュータグラフィクスモデルを設定する設定手段と、
前記センサの検出情報及び前記客観カメラの撮影した画像から、前記実写画像を撮像するカメラの位置姿勢情報を取得するカメラ位置姿勢情報取得手段と、
前記カメラ位置姿勢情報と、前記3次元コンピュータグラフィクスモデルとを用い、前記センサ及び前記客観カメラの前記予め定められた計測範囲を表すコンピュータグラフィックス画像を生成するCG画像生成手段と、
前記実写画像と前記コンピュータグラフィクス画像とを合成する画像合成手段とを有することを特徴とする画像合成装置。 - 観察者が装着する頭部装着型表示装置に設けられたカメラで撮影した実写画像に、予め用意した仮想物体の3次元コンピュータグラフィクスモデルと前記カメラの位置姿勢情報とを用いて生成した前記仮想物体の画像を合成し、合成画像を前記頭部装着型表示装置に表示する画像合成装置において、
前記観察者が存在する空間中に配置されたセンサと客観カメラそれぞれの計測範囲を表す3次元コンピュータグラフィクスモデルを設定する設定手段と、
前記計測範囲を前記仮想物体の画像として生成する画像生成手段を有することを特徴とする画像合成装置。 - 請求項1乃至請求項5のいずれか1項に記載の画像合成方法をコンピュータに実行させるプログラム。
- 請求項9記載のプログラムを格納するコンピュータ読み取り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006058366A JP4834424B2 (ja) | 2006-03-03 | 2006-03-03 | 情報処理装置、情報処理方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006058366A JP4834424B2 (ja) | 2006-03-03 | 2006-03-03 | 情報処理装置、情報処理方法、及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2007233971A true JP2007233971A (ja) | 2007-09-13 |
JP2007233971A5 JP2007233971A5 (ja) | 2009-04-16 |
JP4834424B2 JP4834424B2 (ja) | 2011-12-14 |
Family
ID=38554461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006058366A Expired - Fee Related JP4834424B2 (ja) | 2006-03-03 | 2006-03-03 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4834424B2 (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010123121A (ja) * | 2008-11-17 | 2010-06-03 | Honeywell Internatl Inc | シースルー・ディスプレイに現実世界の対象物の位置をマークする方法及び装置 |
JP2010541087A (ja) * | 2007-10-05 | 2010-12-24 | ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド | 画像解析装置および方法 |
JP2012003669A (ja) * | 2010-06-21 | 2012-01-05 | Nintendo Co Ltd | 画像認識プログラム、画像認識装置、画像認識システム、および画像認識方法 |
US8882591B2 (en) | 2010-05-14 | 2014-11-11 | Nintendo Co., Ltd. | Storage medium having image display program stored therein, image display apparatus, image display system, and image display method |
US9256797B2 (en) | 2010-06-11 | 2016-02-09 | Nintendo Co., Ltd. | Storage medium having image recognition program stored therein, image recognition apparatus, image recognition system, and image recognition method |
JP2016218839A (ja) * | 2015-05-22 | 2016-12-22 | Kddi株式会社 | Ar情報表示装置 |
JP2017046233A (ja) * | 2015-08-27 | 2017-03-02 | キヤノン株式会社 | 表示装置及び情報処理装置及びその制御方法 |
JP2017049658A (ja) * | 2015-08-31 | 2017-03-09 | Kddi株式会社 | Ar情報表示装置 |
JP2019160177A (ja) * | 2018-03-16 | 2019-09-19 | 京セラドキュメントソリューションズ株式会社 | 表示装置及び表示プログラム |
WO2019230285A1 (ja) * | 2018-05-29 | 2019-12-05 | オムロン株式会社 | シミュレーション装置、シミュレーション方法およびプログラム |
WO2022202016A1 (ja) * | 2021-03-26 | 2022-09-29 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、記憶媒体 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1184307A (ja) * | 1997-09-01 | 1999-03-26 | M R Syst Kenkyusho:Kk | 頭部装着型の光学装置 |
JP2001195601A (ja) * | 2000-01-13 | 2001-07-19 | Mixed Reality Systems Laboratory Inc | 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体 |
JP2005049996A (ja) * | 2003-07-30 | 2005-02-24 | Canon Inc | 画像表示方法及び装置 |
JP2005165848A (ja) * | 2003-12-04 | 2005-06-23 | Canon Inc | 複合現実感提示方法および装置 |
-
2006
- 2006-03-03 JP JP2006058366A patent/JP4834424B2/ja not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1184307A (ja) * | 1997-09-01 | 1999-03-26 | M R Syst Kenkyusho:Kk | 頭部装着型の光学装置 |
JP2001195601A (ja) * | 2000-01-13 | 2001-07-19 | Mixed Reality Systems Laboratory Inc | 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体 |
JP2005049996A (ja) * | 2003-07-30 | 2005-02-24 | Canon Inc | 画像表示方法及び装置 |
JP2005165848A (ja) * | 2003-12-04 | 2005-06-23 | Canon Inc | 複合現実感提示方法および装置 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010541087A (ja) * | 2007-10-05 | 2010-12-24 | ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド | 画像解析装置および方法 |
US8363955B2 (en) | 2007-10-05 | 2013-01-29 | Sony Computer Entertainment Europe Limited | Apparatus and method of image analysis |
JP2010123121A (ja) * | 2008-11-17 | 2010-06-03 | Honeywell Internatl Inc | シースルー・ディスプレイに現実世界の対象物の位置をマークする方法及び装置 |
US8882591B2 (en) | 2010-05-14 | 2014-11-11 | Nintendo Co., Ltd. | Storage medium having image display program stored therein, image display apparatus, image display system, and image display method |
US9256797B2 (en) | 2010-06-11 | 2016-02-09 | Nintendo Co., Ltd. | Storage medium having image recognition program stored therein, image recognition apparatus, image recognition system, and image recognition method |
JP2012003669A (ja) * | 2010-06-21 | 2012-01-05 | Nintendo Co Ltd | 画像認識プログラム、画像認識装置、画像認識システム、および画像認識方法 |
JP2016218839A (ja) * | 2015-05-22 | 2016-12-22 | Kddi株式会社 | Ar情報表示装置 |
JP2017046233A (ja) * | 2015-08-27 | 2017-03-02 | キヤノン株式会社 | 表示装置及び情報処理装置及びその制御方法 |
JP2017049658A (ja) * | 2015-08-31 | 2017-03-09 | Kddi株式会社 | Ar情報表示装置 |
JP2019160177A (ja) * | 2018-03-16 | 2019-09-19 | 京セラドキュメントソリューションズ株式会社 | 表示装置及び表示プログラム |
WO2019230285A1 (ja) * | 2018-05-29 | 2019-12-05 | オムロン株式会社 | シミュレーション装置、シミュレーション方法およびプログラム |
JP2019207153A (ja) * | 2018-05-29 | 2019-12-05 | オムロン株式会社 | シミュレーション装置、シミュレーション方法およびプログラム |
JP7099052B2 (ja) | 2018-05-29 | 2022-07-12 | オムロン株式会社 | シミュレーション装置、シミュレーション方法およびプログラム |
WO2022202016A1 (ja) * | 2021-03-26 | 2022-09-29 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP4834424B2 (ja) | 2011-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4434890B2 (ja) | 画像合成方法及び装置 | |
JP4834424B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
KR101761751B1 (ko) | 직접적인 기하학적 모델링이 행해지는 hmd 보정 | |
JP4401727B2 (ja) | 画像表示装置及び方法 | |
JP4137078B2 (ja) | 複合現実感情報生成装置および方法 | |
JP3991020B2 (ja) | 画像表示方法及び画像表示システム | |
CN107735016B (zh) | 用于扫描解剖结构且用于显示扫描结果的***和方法 | |
JP5032343B2 (ja) | 仮想物体を表示する方法および装置、ならびに環境画像に仮想物体を重ね合せるための方法および装置 | |
EP1404126B1 (en) | Video combining apparatus and method | |
JP4065507B2 (ja) | 情報提示装置および情報処理方法 | |
US20050253870A1 (en) | Marker placement information estimating method and information processing device | |
JP2016533832A (ja) | 手術ナビゲーションシステム運用方法及び手術ナビゲーションシステム | |
JP2008210276A (ja) | 三次元モデル情報の生成方法及び装置 | |
JP3910239B2 (ja) | 医用画像合成装置 | |
JP2006267879A (ja) | 画像処理方法、画像処理装置、マーカ | |
JP2005174021A (ja) | 情報提示方法及び装置 | |
JP2008146108A (ja) | 指標、画像処理装置、画像処理方法 | |
KR20190048810A (ko) | 증강현실용 컨텐츠 제공 장치 및 방법 | |
US12023208B2 (en) | Method for operating a visualization system in a surgical application, and visualization system for a surgical application | |
JP2021009557A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP4366165B2 (ja) | 画像表示装置及び方法並びに記憶媒体 | |
JP2008040913A (ja) | 情報処理方法、情報処理装置 | |
KR20200056688A (ko) | 증강 현실을 이용한 구조물 품질검사 시스템 및 방법 | |
JP7465133B2 (ja) | 情報処理装置、情報処理方法 | |
JP2010118002A (ja) | 情報処理装置及び情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090303 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090303 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110916 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110926 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4834424 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140930 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |