JP4847195B2 - 画像からの色情報の取得方法 - Google Patents

画像からの色情報の取得方法 Download PDF

Info

Publication number
JP4847195B2
JP4847195B2 JP2006118446A JP2006118446A JP4847195B2 JP 4847195 B2 JP4847195 B2 JP 4847195B2 JP 2006118446 A JP2006118446 A JP 2006118446A JP 2006118446 A JP2006118446 A JP 2006118446A JP 4847195 B2 JP4847195 B2 JP 4847195B2
Authority
JP
Japan
Prior art keywords
color
video
real space
pen
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006118446A
Other languages
English (en)
Other versions
JP2007293453A5 (ja
JP2007293453A (ja
Inventor
剛 黒木
クリスチャン サンドア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006118446A priority Critical patent/JP4847195B2/ja
Publication of JP2007293453A publication Critical patent/JP2007293453A/ja
Publication of JP2007293453A5 publication Critical patent/JP2007293453A5/ja
Application granted granted Critical
Publication of JP4847195B2 publication Critical patent/JP4847195B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、画像から現実世界の物体の色を取得する技術に関する。
VR(バーチャルリアリティ)システムは、コンピュータの作り出す三次元CG(コンピュータ・グラフィクス)を、ユーザが装着するHMD(ヘッドマウントディスプレイ)等に提示することで、ユーザに仮想の空間をあたかも現実の空間であるかのように感じさせるシステムである。HMDを利用したVRシステムでは、ユーザの頭部の動きに合わせてユーザに提示される三次元CGが変化するため、ユーザはあたかも自分の周囲に実際に三次元CGで表される空間が存在しているかのように感じることができる。
また、近年、現実空間もしくはその映像に三次元CGを重畳して提示することで、VRでは見ることができなかった現実世界をユーザに提示する技術も開発されており、それらはMR(Mixed Reality,複合現実感)システムと呼ばれている(特許文献1参照)。
MRシステムでは、ユーザに映像を提示する表示装置として、HMDが一般に用いられる。MRシステムは、現実空間と、通常はCGで表される仮想空間とを位置合わせし、ユーザの視点位置姿勢に追従させてHMDに表示することにより、ユーザに複合現実感を体感させる。
MRシステムで用いるHMDには半透過型の表示装置に三次元CG等の画像を重畳する光学シースルー方式と、ビデオカメラで撮影した現実空間の映像に三次元CG等の画像を合成した後、HMDに表示するビデオシースルー方式がある。ビデオシースルー方式では、現実空間の映像を撮影するビデオカメラを、HMDに設けることが多い。
MRシステムの用途としては、患者の体内の様子をCGで描画し、患者やその実写画像と重畳して医師に提示する医療補助の用途や、工場において、製品の組み立て手順を実物の部品やその画像に重ねて表示する作業補助の用途などが考えられている。
さて、このようなMRシステムにおいて、ユーザが色の選択を求められる場合がある。たとえば、MRシステムによる製品設計システムにおいて、設計物の色を指定する場合などである。従来、こうした場合には、HMDとは別の表示装置に表示される、色選択のためのGUIから色を選ぶ方式が多くとられていた。
また、非特許文献1に見られるように、ユーザが手に持ち、位置姿勢を計測されている板の上に仮想の色を表す複数の仮想の球体を載せ、ユーザがもう一方の手に持った位置姿勢を計測されているペンで球体を選択して色を選ぶ方式も行われてきた。
また、非特許文献2では、位置姿勢を計測された現実物体を手に持ち、位置姿勢を計測されたペンで現実物体上に複数の点を設定していく。その後、ユーザが装着しているHMDに内蔵しているカメラが、設定済の点から定義される三角形群の内部の映像を取得し、現実の物体の外観を取得していく。
特許第3363861号公報 特許第3631151号公報 Fiorentino,M.ほか、 "Spacedesign: A Mixed Reality Workspace for Aesthetic Industrial Design", Proc. IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR) 2002, pp. 86-94. Joohi Leeほか、 "Modeling Real Objects Using Video See-Through Augmented Reality"、 Proc. Second International Symposium on Mixed Reality (ISMR) 2001、 pp. 19-26.
HMDとは別の表示装置に表示されるGUIから色を選択する方法では、次のような問題がある。つまり、ユーザが色を選択する際には、装着中のHMDを外し、マウスを使ってGUIを操作して色を選択する、といった面倒な手順が必要なため、操作性が悪く、また色の選択に時間がかかる。
非特許文献1に示される方法を用いるとこの問題は解決されるが、選択した色が現実世界になじみにくいという別の問題が発生する。つまり、非特許文献1の方法において、ユーザが手に持つ板の上に提示される球体の色は、コンピュータ上に予め定義された色である。これらの色はHMDに提示されている現実世界と関わりなく独立に定義されているため、選択した色を三次元CGに適用すると、その三次元CGの周りの現実世界となじまないことがあった。なお、この問題は、GUIを用いる方法でも同様に発生する。
非特許文献2に示される方法は、設定点から定義される三角形の内部の映像を取得する方法であるため、色を選択することはできない。しかし、仮にこの方法を用いて色を取得使用とした場合、例えばペンで現実の物体上の点を設定した瞬間に、ユーザが装着しているHMDに取り付けられたカメラが撮影している映像から、設定点の色を取得する構成が想定される。しかし、この構成では、設定点が常にペン先で隠された状態の映像を用いて色を取得することになり、設定点ではなくペン先自体の色が取得されてしまう。
また、別の問題として、非特許文献1および非特許文献2に示される方法では、ユーザがペンを持たない方の手に持つ物体の位置姿勢の測定が必要であり、ペンの位置姿勢を含めて複数の物体の位置姿勢を計測する必要があった。MRシステムではこの他にも現実空間を撮影するカメラ、又はユーザ視点の位置姿勢を検出する必要があるため、位置姿勢計測の負荷が大きい。
本発明は、このような問題に鑑みてなされたものであり、現実空間中で指定された位置に応じた色を容易に取得可能とすることを目的とする。
上述の目的を達成するため、本発明の色情報取得方法は、映像取得手段が、現実空間の映像を現実空間を撮像する撮像手段から取得する映像取得工程と、指示検出手段が、ユーザが操作する指示手段により前記現実空間中の位置が指定されたことを検出する指示検出工程と、算出手段が、検出に応答して、指定された現実空間中の位置に対応する、映像中の位置を求める算出工程と、色取得手段が、算出工程で求められた位置から、指示手段が示す方向に予め定めた画素数ずれた位置の画素の色を、ユーザが指定した色として取得する色取得工程とを有することを特徴とする。
また、上述の目的を達成するため、本発明の色情報取得装置は、現実空間の映像を現実空間を撮像する撮像手段から取得する映像取得手段と、ユーザが操作する指示手段により前記映像に含まれる現実空間中の位置が指定されたことを検出する指示検出手段と、検出に応答して、指定された現実空間中の位置に対応する、映像中の位置を求める算出手段と、算出手段が求めた位置から、指示手段が示す方向に予め定めた画素数ずれた位置の画素の色を、ユーザが指定した色として取得する色取得手段とを有することを特徴とする。
このような構成により、本発明によれば、現実空間中で指定された位置に応じた色を容易に取得可能となる。
以下、添付図面を参照して本発明の好適な実施形態について説明する。
以下の実施形態では、本発明による色情報取得方法を、HMDを装着したユーザが指示手段としてのペンを操作して現実空間中の物体から色を選択し、選択した色で複合現実空間中に描画を行う操作をユーザに体感させるMRシステムに適用した例を説明する。
図5は、本実施形態のMRシステムの概念を説明する図である。510は現実物体のティーポットを、511はユーザが操作するペンを、503はユーザに提示される画像平面を、512はHMDに備えられた撮像部のカメラ中心の位置、すなわちユーザの視点位置を示している。その他の構成については後述する。
なお、ここでは、説明及び理解を容易にするため、カメラの中心位置がユーザの視点位置と一致しているものとして説明するが、実際には、HMDに取り付けられたカメラの中心位置とユーザの視点位置とは異なるため、差を補正し、ユーザの視点位置から撮影したものとして取り扱う。この補正処理については本発明の本質とは関係せず、また周知の技術を用いて実現可能であるため、これ以上の説明は省略する。
図3は、本実施形態に係るMRシステムの機能構成例を示すブロック図である。
100はユーザが装着するビデオシースルー型のHMDであり、撮像部101と映像表示部102が内蔵されている。なお、本実施形態では撮像部101と映像表示部102がHMD100に内蔵されるものとしたが、撮像部101と映像表示部102はそれぞれ別の場所に配置されてもよい。
撮像部101は、CCDセンサやCMOSセンサ等の撮像素子を用いたビデオカメラを代表とする撮像装置である。撮影された映像は映像合成部108に送られる。
映像表示部102は、小型のLCD等で構成され、映像合成部108から送られてきた合成映像を表示する。
位置姿勢センサ103は、例えば内蔵する撮像素子により、現実空間中に含まれるマーカを撮影することによって任意の物体の位置および姿勢を計測する。マーカは例えば予め定めた大きさ、形状、方向性等を有するパターンが印刷されたシールのようなものであり、撮影された画像中で検出される形状や大きさなどから、位置姿勢を検出することが可能である。
本実施形態では位置姿勢センサ103は光学式センサ(撮像素子)によって構成されているが、予め定めた任意の物体の位置および姿勢を計測できればどのような装置で構成されてもよく、たとえば磁気センサによって構成されてもよい。位置姿勢センサ103からは、予めマーカを付けた任意の物体の位置姿勢信号が出力される。本実施形態では、マーカはHMD100とペン511に付けられており、その位置姿勢信号は撮像部の位置姿勢計測部104およびペンの位置姿勢計測部105に等しく出力される。
なお、本実施形態では1つの位置姿勢センサ103の出力を撮像部の位置姿勢計測部104およびペンの位置姿勢計測部105が用いる構成とした。しかし、撮像部の位置姿勢計測部104およびペンの位置姿勢計測部105のそれぞれについて別の位置姿勢センサが存在する構成であってもよい。つまり、これら二つの現実物体の位置姿勢が計測されさえすれば、構成は任意である。
本実施形態において、位置姿勢センサ103は、位置を予め定められたxyz座標系である世界座標系におけるx座標、y座標、z座標の形で出力する。また、姿勢をz軸中心の回転であるロール角、x軸中心の回転であるピッチ角、y軸中心の回転であるヨー角で出力し、ヨー回転、ピッチ回転、ロール回転の順で回転を加えると測定対象の姿勢が得られる。
なお、以下の説明においては、位置および姿勢の情報を四行四列の行列を意味するアルファベットの記号、たとえばMなどとして表現する。この行列の中身について、位置姿勢センサ103によって得られた値を例として説明する。
位置姿勢センサによって得られるx座標、y座標、z座標の値をそれぞれx、y、zとすると、位置姿勢センサによって得られる位置を表す三次元ベクトルtは
で表される。
また、位置姿勢センサによって得られるロール角、ピッチ角、ヨー角の値をそれぞれr、p、yとすると、ロール角、ピッチ角、ヨー角から得られる三行三列の回転変換行列Rr、Rp、Ryは
で表される。
従って、姿勢を表す三行三列の回転変換行列Rは
で表される。
以上得られたtとRを用いて、位置姿勢センサ103から得られる位置と姿勢の両方を表現する四行四列の行列Mは、以下のように表現することができる。
位置および姿勢は、どのような形式で得られようと、このような四行四列の行列として表現できることは広く知られている。
撮像部の位置姿勢計測部104は、位置姿勢センサ103からの位置姿勢信号を受信して、撮像部101の位置姿勢情報を生成する。生成した位置姿勢情報はCG描画部107および色取得部123に送られる。
なお、本実施形態においては、撮像部の位置姿勢計測部104が出力する位置姿勢情報が、位置姿勢センサ103の出力のみから求められるものとした。しかし、撮像部101の撮影した映像を用いて位置姿勢情報の補正を行う構成としてもよい。このような手法は、たとえば特許文献2などに記されている。また、撮像部101の撮影した映像のみを用いて撮像部の位置姿勢計測部104で位置姿勢情報を求める構成としてもよい。
ペンの位置姿勢計測部105は、位置姿勢センサ103からの位置姿勢信号を受信して、ペン511の位置姿勢情報を生成する。生成した位置姿勢情報はペン描画部122および色取得部123に送られる。
CGシーン管理部106は、三次元CGの生成に必要な、仮想物体の三次元CGモデルの情報を管理する。CGシーン管理部106の情報はペン描画部122によって更新される。また、CGシーン管理部106の情報はCG描画部107によって参照される。
CG描画部107は、撮像部の位置姿勢計測部104から撮像部101の位置姿勢情報を受信し、CGシーン管理部106からは三次元CGシーン情報を受信して、撮像部101の撮像範囲に収まるCG映像を生成する。生成したCG映像は映像合成部108に送信される。
映像合成部108は、画像メモリを有し、撮像部101から受信した撮影映像を描画しておき、その上にCG描画部107から受信したCG映像を上書きすることで、合成映像を生成する。合成した合成映像は映像表示部102に送出される。
描画ボタン120は、ペン511に設けられ、ユーザがペン511を握った際に容易に押すことができる位置、例えば人差し指で押せる位置に配置される。また、描画ボタン120は通常OFFになっており、ユーザが押した時だけONとなるように構成される。描画ボタン120のON/OFF状態を表す信号(ON/OFF信号)は、常時、ペン描画部122に送信される。
色取得ボタン121は、ユーザが手に持つペン511の先端に配置される。また、色取得ボタン121は通常OFFになっており、ユーザがペン511の先端を現実物体に押しつけた時だけONとなるように構成される。色取得ボタンのONにより、本実施形態のMRシステムは、現実空間中の位置が指定されたことを検出する。色取得ボタン121のON/OFF信号は、常時、色取得部123に送信される。
なお、本実施形態において、ペン511が有する各種ボタンの状態は、無線送信されるものとする。
ペン描画部122は、描画ボタン120からON/OFF信号、ペンの位置姿勢計測部105からペン511の位置姿勢情報を取得し、空間中に三次元CGの描画を行う。また、ペン描画部122は、ペン511の現在の描画色バッファを持っており、ペン511の描画色を常に保持している。本実施形態では、ペン511の描画色は、最初は白に設定されている。また、ペン描画部122は、前回のペンの位置姿勢情報を記録する位置姿勢バッファを持っている。
色取得部123は、色取得ボタン121からON/OFF信号、映像合成部108から合成映像、撮像部の位置姿勢計測部104から撮像部の位置姿勢情報、ペンの位置姿勢計測部105からペンの位置姿勢情報をそれぞれ取得し、ペン511の描画色を求める。なお、色取得部123は、撮像部101の焦点距離情報及び主点位置情報を予め持っている。
なお、図3に示した本実施形態の構成の少なくとも一部は、独立した装置として実現しても良いし、一つもしくは複数のコンピュータのCPUにより実行することで機能を実現するソフトウェアとして実現しても良い。本実施形態では、撮像部の位置姿勢計測部104、ペンの位置姿勢計測部105、CGシーン管理部106、CG描画部107、映像合成部108、ペン描画部122、色取得部123の各部はそれぞれソフトウェアにより実現され、同一のコンピュータにインストールされているものとする。
図1は、上述の、ソフトウェアにより実現される各部として機能することが可能なコンピュータの基本構成を示す図である。
CPU1001は、RAM1002やROM1003に格納されたプログラムやデータを用いてコンピュータ全体の制御を行うと共に、それぞれのソフトウェアの実行を制御して、各部の機能を実現する。
RAM1002は、外部記憶装置1007や記憶媒体ドライブ1008からロードされたプログラムやデータを一時的に記憶するエリアを備えると共に、CPU1001が各種の処理を行うために必要とするワークエリアを備える。
ROM1003は、一般にコンピュータのプログラムや設定データなどが格納されている。キーボード1004、マウス1005は入力デバイスであり、操作者はこれらを用いて、各種の指示をCPU1001に入力することができる。
表示部1006は、CRTや液晶ディスプレイなどにより構成されており、本実施形態においては、HMD100の映像表示部102に相当する。あるいは、別途表示装置を設けてもよい。この場合、例えば映像表示部102に表示している映像を表示することができる。
外部記憶装置1007は、ハードディスクドライブなどの大容量情報記憶装置として機能する装置であって、ここにOS(オペレーティングシステム)やCPU1001が実行するプログラム等を保存する。また本実施形態の説明において、既知であると説明する情報はここに保存されており、必要に応じてRAM1002にロードされる。
記憶媒体ドライブ1008は、CD−ROMやDVD−ROMなどのリムーバブル記憶媒体に記憶されているプログラムやデータをCPU1001からの指示に従って読み出して、RAM1002や外部記憶装置1007に出力する。
I/F1009は、撮像部101を接続するためのアナログビデオポートあるいはIEEE1394等のデジタル入出力ポート、位置姿勢センサ103を接続するためのRS232CあるいはUSB等のシリアルポート、ペン511のボタンの状態を取得するための無線通信ポート等によって構成される。それぞれが入力したデータはI/F1009を介してRAM1002に取り込まれる。
上述した各構成要素は、バス1010によって相互に接続される。
(色取得処理)
図2は、本実施形態のMRシステムにおける色取得動作を説明するフローチャートである。色取得動作に関わるプログラムは例えば外部記憶装置1007に記憶され、ユーザがキーボード1004、マウス1005を使ってシステムの実行を指示したときにCPU1001がそのプログラムを読み出し、実行する。
S101は、現実空間撮像ステップである。このステップでは撮像部101が現実空間の映像を撮影する。撮影した映像は映像合成部108に送られる。S101が終わると、S102およびS103が並行して実行される。
S102は撮像部の位置姿勢計測ステップである。このステップでは撮像部の位置姿勢計測部104が、位置姿勢センサ103からの位置姿勢信号を受け取り、撮像部101の位置姿勢情報を算出する。本実施形態では、位置姿勢センサ103のマーカがHMD100に取り付けられているため、位置姿勢センサ103はHMD100に取り付けられたマーカの位置姿勢信号を出力する。しかし、撮像部101はHMD100の内部に固定して取り付けられているため、撮像部101とマーカの位置関係は測定可能であり、その位置関係を予めキャリブレーションして求めておくことができる。
なお、このキャリブレーションを行うためには、予め撮像部101の座標系(撮像部座標系)が定められている必要がある。本実施形態では、撮像部座標系は図5の501に示されるように定められている。すなわち、撮像部101のカメラ中心を原点とし、原点から画像平面503に下ろした垂線をZ軸の負方向、画像平面503の上方をY軸の正方向、画像平面503の水平右方向をX軸の正方向とするように定められている。
S102では、予めキャリブレーションした撮像部101とマーカ(図示せず)との相対的な位置関係を用い、HMD100に取り付けられたマーカを撮影して得られる位置姿勢信号から、撮像部101の位置姿勢情報を算出する。この位置姿勢情報、すなわち世界座標系における撮像部座標系の位置および姿勢は、CG描画部107および色取得部123に伝えられる。
S103はペンの位置姿勢計測ステップである。このステップではペンの位置姿勢計測部105が、位置姿勢センサ103からの位置姿勢信号を受け取り、ペン511の先端部分の位置姿勢情報を算出する。本実施形態では、位置姿勢センサ103のマーカ(図示せず)がペン511に取り付けられている。ペン511の先端と、マーカの位置関係は固定されているため、両者の位置関係を予めキャリブレーションして求めておくことができる。
なお、このキャリブレーションを行うためには、予めペン座標系が定められている必要がある。本実施形態では、ペン座標系は図5の502に示されるように定められている。すなわち、ペン先を原点とし、ペンの軸方向をZ軸の正方向、ペン軸の描画ボタン120がある側をY軸の正方向とするように定められている。
S103では、予めキャリブレーションした、ペン511の先端とマーカとの相対的な位置関係と、ペン511に取り付けられたマーカの位置姿勢を表す信号とから、ペン511の先端の位置姿勢情報を算出する。この位置姿勢情報、すなわち世界座標系におけるペン座標系の位置および姿勢は、ペン描画部122および色取得部123に伝えられる。S102およびS103が終了したら、S110に進む。
S110は描画ボタン判定ステップで、ここでは、ペン描画部122が、描画ボタン120のON/OFFを判定する。描画ボタン120が押下されてON状態にあればS121に、OFF状態であればS111に進む。
S121はペン描画ステップである。図8は、このステップの処理を説明するための図である。
ペン描画ステップでは、ペン描画部122が予め保持している前回のペンの位置姿勢802を始点、ペンの位置姿勢計測部105から送られてきた現在のペンの位置姿勢803を終点とする三次元の線のCGを仮想空間中に描画する。換言すれば、この三次元の線のCGをCG描画部107で描画するための三次元データを生成する。この際、線の色は、ペンの現在の描画色バッファに記録されている色に設定される。生成された三次元の線801を表す三次元データは、CGシーン管理部106に送られ、記録される。S121が終了すると、S111に進む。
S111はCG描画ステップで、CG描画部107が撮像部101の位置姿勢情報を用いて、撮像部101の視点から見た仮想空間のCG映像を生成する。この際には、CGシーン管理部106に格納されている三次元CGモデルの情報(ペン描画部122が生成した線801の情報を含む)が参照される。生成されたCG映像は映像合成部108に送出される。S111が終わったら、S112が実行される。
S112は映像合成ステップで、まず撮像部101から送出されてきた撮影映像が映像合成部108の画像バッファに書き込まれる。次に、CG描画部107から送出されてきたCG映像が画像バッファに上書きされる。この結果、撮影映像を背景にし、仮想空間のCG映像が描画された合成映像が生成される。生成された合成映像は映像表示部102および色取得部123に送出される。S112が終わったら、S113が実行される。
S113は映像表示ステップで、映像表示部102が合成映像を表示する。S113が終了すると、S120に進む。
S120は色取得ボタン判定ステップである。このステップでは、色取得部123が、色取得ボタン121のON/OFF状態を判定する。色取得ボタン121が押下されてON状態にあればS122に、OFF状態であればS130に進む。
S122は色取得ステップである。このステップは、色取得部123で実行される。ここで、色取得ステップで行う処理の詳細を、図4のフローチャートを用いて説明する。
S122が開始されると、S401が実行される。
S401では、撮像部座標系における、ペン511の先端部分(ペン先)の位置姿勢を算出する。撮像部101の位置姿勢情報をC、ペン511の位置姿勢情報をPで表現すると、撮像部座標系でのペン先の位置姿勢情報Mは
で求められる。S401が終了するとS402に進む。
S402では、ペン先の画像平面503上での投影位置を算出する。ここで、投影位置は、まず、画像平面503内で、ペン先の位置に対応する画素の、撮像部の座標系501における位置として求められる。
色取得部123は、予め撮像部101の光学系の焦点距離情報を持っている。すなわち、撮像部の座標系501の原点と、画像平面503の中心を結ぶ線504の長さfは予めわかっている。図5において、505はペン先の位置を、506は画像平面503上でのペン先の投影位置を表す。ここで、撮像部の座標系501でのペン先の位置を(P、P、P)とする。また、画像平面503の中心から画像平面503上でのペン先の投影位置506まで伸ばしたベクトルの、撮像部の座標系501のX軸方向の成分508の長さをw、Y軸方向の成分507の長さをhとすると、
となる。S402が終了するとS403に進む。
S403では、ここまでに求められた、撮像部の座標系501における、画像平面503上でのペン先の投影位置506を、画像平面503の座標系での座標値に変換する。ここで、画像平面503の座標系は、図5の509に示されるように、画像平面503の左上を原点とし、右方向をx軸、下方向をy軸とするxy座標系である。いま、画像平面503の座標系でのペン先の投影位置を(a,b)、画像平面503の座標系での撮像部101の主点位置、すなわち撮像部の座標系501の原点座標を(C、C)とすると、
となる。なお、ここで、wとhの前の符号が違っているのは、図5に示されるように、撮像部のXYZ座標系501と画像平面のxy座標系509で、xの正方向は同じ方向であるが、yの正方向が逆であることによる。
ここで、撮像部101のカメラのレンズにより生じる歪面収差、例えば放射方向歪面収差(radial distortion)が予めわかっている場合には、その影響を考慮した補正を行っても良い。この補正処理は、画像平面内における二次元の変換処理であり、上記の射影変換とは独立して処理することができる。
なお、上記の計算において、f、(C、C)の単位はすべて、画像平面上での画素で表されているものとする。
S403が終わると、S404に進む。ここまでの処理で、画像平面上でのペン先の投影位置が求められた。しかし、上述したように、ペン先の投影位置の画素の色を取得すると、ペン先それ自体の色を取得してしまう可能性がある。そのため、本実施形態では、以降の処理を加えることにより、画像平面503上で、ペン先の投影位置の画素近傍の画素であって、現実空間の映像に写されたペンに対応する画素とは異なる画素の色を、ユーザが指定した位置の色として取得する。具体的には、ペン先の投影位置の画素から、指示手段としてのペンが指す方向、すなわちペン先の向いている方向に所定量ずれた位置の画素の色を取得するようにする。
S404では、画像平面上でのペン先の傾き方向を算出する。図6は画像平面503を表す図である。この図において、601は画像平面上でのペン511の傾き方向、すなわちペン511を画像平面503上に投影したときにペン先が示す方向を表す、画像平面の座標系509でのベクトルT(T,T)である。
ベクトルTを求めるためには、まず、図5の513に示されている、ペン先からペンの向いている方向に仮想的に伸ばした線の上に存在する、ペン延長点を仮定する。次に、図6の602に示されている、ペン延長点513の画像平面503上への投影位置(画像平面座標系での位置)を求める。その後、S403で求めたペン先の投影位置と、ペン延長点の投影位置の差分をとることで、ベクトルTが求められる。
まず、ペン延長点513の位置を求める。撮像部の座標系501でのペン延長点513の位置をSで表し、ペン先からペン延長点513への距離を1とすると、
S=M・L
となる。ここで、LはZ軸方向に−1移動することを表す行列、すなわち
である。
また、Mは、S122で求められている撮像部座標系でのペン先の位置姿勢情報である。Mには三行三列の回転行列Rが含まれており、このRからは、回転を表すロール角、ピッチ角、ヨー角を求めることができる。このロール角、ピッチ角、ヨー角をr、p、yで表すと、Sは以下のように求められる。
ここで、ペン座標系502においてロール角rは、ペン511の軸周りの回転(Z軸周りの回転)を意味する。そのため、ペン延長点513の座標を求める際には、r=0に設定してもかまわない。すると、上式は
となる。
すなわち、撮像部の座標系501でのペン延長点513の三次元位置は、
である。この三次元位置を、S=(S、S、S)として表す。
次に、このペン延長点513の画像平面503上への投影位置(c,d)を求めると、S403での計算と同様に、
となる。
すると、ベクトルTは、
となる。S404が終了すると、S405に進む。
S405では、画像平面上でのペン先の座標からのオフセットを追加する。すなわち、S403で求められたペン先の投影位置(a,b)から、S404で求められた傾き方向に、予め定められた長さ分だけ座標を移動させる。本実施形態では、5画素分の長さ分だけ移動させる。すると、求められる座標は
となる。S405が終了するとS406に進む。
S406では、画像平面503上から色を取得する。すなわち、S405で求めた座標に対応する画素の色を、映像合成部108から送られてきた合成映像から取得する。取得した色は、ペン描画部122の描画色バッファに格納する。S406が終了すると、S122の処理全体が終了され、S130に進む。
S130は終了判定ステップである。ユーザがキーボード1004、マウス1005を使ってシステムの終了を指示していればプログラムを終了し、指示していなければS101に進む。
以上説明したように、本実施形態によれば、ユーザがペン511を持ち、ペン先を現実物体に押し付けて、ペンに設けられた色取得ボタン121をONにすれば、ペン先近傍の位置の色が取得できる。以上の処理により、ペン先の色を誤って取得することなく、ユーザは、表示されている映像中の色を簡単に取得することが出来る。さらに、ユーザがペン511を別の位置に動かしてペンの描画ボタン120を押すと、直近のペン先位置を始点とし、取得した色を有する三次元の線のCGを描画することができる。
なお、本実施形態では合成画像を表示する装置と、現実空間の画像を撮像する装置として、撮像部と表示部を備えたHMD100を用いた。しかし、据え置き型のディスプレイと可動のカメラとを用いるなど、他の構成であってもよい。このような他の構成であっても、本実施形態で説明した手順により同様の効果が実現できる。
本実施形態では説明及び理解を容易にするため、HMD100は撮像部101と映像表示部102を一つずつ持つ、単眼型のHMDを使用するものとした。しかし、撮像部101と映像表示部102をそれぞれ二つずつ持つ複眼型のHMDを使用してもよく、その場合は、撮像部の位置姿勢計測や合成画像の生成に係る処理を、個々の撮像部や撮像が像に対して行えばよい。
また、本実施形態では色を取得するための現実物体として、ティーポットの表面の色を取得する例について説明した。しかし、現実物体として、図7の701に示されるような色選択のためのカラーチャートを用いてもよい。このようなカラーチャート701を用いれば、ユーザが多様な色を容易に選択することができる。この場合も、本実施形態と同一の手順を実行すればよい。
また、本実施形態では撮像部101の撮影した現実空間の映像から色を取得する例について説明した。しかし、本実施形態と同一の構成・手順で、CG映像から色を取得することも可能である。この場合、例えばCG映像が上述のティーポットに重畳表示された合成画像を見ながらユーザが上述と同様の操作を行ったとすると、合成画像上のCG映像の画素から色を取得することができる。
また、本実施形態では色取得ボタン121が現実物体に押し付けられONとなった際に色の取得を行ったが、色取得ボタン121は必須ではなく、色取得のタイミングを指定することが可能な任意の構成を用いることができる。たとえば、色取得ボタン以外を用いる例として、ペン先の軌跡をジェスチャ認識する機構を備えて、ペン先が円を描くなど特定の軌跡を描いたことが検出された時点で、ペン先の位置から上述の色取得処理を行うようにしてもよい。
さらに、本実施形態では、位置姿勢センサによってペンの先端の位置および姿勢が計測された。しかしながら、位置のみの計測であっても同様の効果を得ることができる。この場合、S404のペン先の傾き方向算出ステップにおいて、画像平面上でのペンの先端が向いている方向を求める際、ペンの姿勢の代わりにペン先の移動方向を用いればよい。すなわち、ペン先の前回の位置を記録しておき、現在の位置との差分で得られるベクトルを、ペンの先端が向いている方向を表すベクトルとして求めることができる。
さらに、本実施形態では位置姿勢が計測されているペンを用いて色の取得位置を指定したが、他の構成を用いて位置指定を行ってもよい。すなわち、現実空間中の一点を指定可能で、位置または位置姿勢の計測が可能な任意の手段を位置指定手段として用いることが可能である。たとえば、HMDに備えられたステレオカメラが撮影する視差画像からユーザの指先の位置を測定し、ユーザの指先により色取得位置を指定するようにしてもよい。
加えて、本実施形態では、取得した色はペン描画部の描画色バッファに保持され、最終的に合成画像が生成されるまでユーザは色の確認ができなかった。しかし、取得した色を都度提示することで、ユーザが取得した色を容易に視認することができる。この場合、表示領域中の一部を描画色表示領域としたり、ペン先の位置に、取得色を有する三次元仮想ブラシをCGで描画し、合成画像中に表示すればよい。
<第2の実施形態>
本実施形態では、第1の実施形態の色取得処理(S122)において、色に加えて描画位置を取得するものである。
本実施形態では、ペン511に取得モードスイッチ(図示せず)が追加される。取得モードスイッチは例えばペンの後端付近に設置される。取得モードスイッチはON/OFFのいずれかに設定されると、その状態が保持され続けるスイッチである。
また、本実施形態では、ペン描画部122が描画色バッファを持つ代わりに、描画モデルバッファを持つ。描画モデルバッファとは、ペン511の描画ボタンを押したときに、ペン先に描画される仮想物の三次元モデルを保持するためのバッファである。描画モデルバッファは、初期状態で空白になっている。
本実施形態では、第1の実施形態で説明した図2に示される処理手順が、図10に示されるように変更される。以下、図10を用いて、本実施形態における処理の流れについて説明する。なお、図10において、図2と同様の処理については同じ参照数字を付して重複する説明を省略する。
本実施形態では、S121において描画がなされる際に、直近のペン先位置を始点とし、描画ボタンが押下された際のペン先位置を終点とする三次元の線の代わりに、ペンの先端の位置に、描画モデルバッファに入っている三次元モデルを描画するためのデータを生成する。このデータはCGシーン管理部106に送られ、記録される。
また、本実施形態では、S113の後にS200が実行される。S200は取得モード判定ステップであり、取得モード判定スイッチがONであるかOFFであるかを判定する。そして、ONであればS120に、OFFであればS130に進む。また、前回の取得モード判定スイッチの状態を記録しておき、取得モードがOFFからONになった際にはS201に進む。
S201は描画モデルバッファクリアステップである。このステップでは、ペン描画部122の描画三次元モデルバッファがクリアされ、空白にされる。S201が終了したら、S130に進む。
また、本実施形態では、S122の色取得ステップ内の処理が、図11のフローチャートで示す処理に変更される。以下、図11を参照して、本実施形態の色取得処理について説明する。なお、図11において、図4と同様の処理については同じ参照数字を付して重複する説明を省略する。
S406が終了すると、S410が実行される。S410では、描画モデルバッファが空白であるかどうかが判定される。空白であればS411に、空白でなければS412に進む。
S411では、描画モデルバッファ座標系が設定される。このステップでは、この時点でのペン座標系502が描画モデルバッファの座標系として設定される。すなわち、描画モデルバッファに記録される三次元モデルは、この時点でのペンの位置を原点として記録されることになる。S411が終了すると、S412に進む。
S412では、描画モデルバッファにペン先の位置と色が記録される。このとき、ペン先の位置は、S411で求められた描画モデルバッファの座標系での位置として記録される。すなわち、S411の時点でのペン先の世界座標系での位置姿勢をP、S412の時点でのペン先の位置姿勢をSとすると、P−1・Sが現在の位置として描画モデルバッファに記録される。S412が終了すると、S122が終了される。
このようにして、本実施形態では、取得モードスイッチがONである取得モードにおいて、色取得ボタンがONとなる毎に、描画モデルバッファにペン先近傍の画素の色と、ペン先の位置とが記録される。
従って、本実施形態によれば、ユーザがペンを持ち、取得モードスイッチをONにして、ペン先を現実物体の表面に接触させて色取得ボタン121をONとする操作を繰り返すことで、描画モデルバッファには現実物体の表面を構成する点に関する位置並びに色の情報が蓄積されていく。その結果、現実物体の表面形状や色を記録することが可能となる。
そして、描画ボタン120をONとした場合には、この描画モデルバッファに記録された三次元データに基づいて、CG描画を行うことで、記録した現実物体のCG映像をペン先に表示することができる。
図9は、本実施形態によって記録した三次元データを用いてCGを描画した状態を模式的に示す図である。図9において、510は現実のティーポット、901は記録した三次元データに基づいて描画された仮想のティーポットである。
このように、本実施形態によれば、色のみならずペン先の位置も合わせて取得することにより、第1の実施形態による効果に加え、現実物体の形状についても記録することが可能となるという効果を有する。
(他の実施形態)
上述したように、上述の実施形態は、システム或は装置のコンピュータ(或いはCPU、MPU等)によりソフトウェア的に実現することも可能である。
従って、上述の実施形態をコンピュータで実現するために、該コンピュータに供給されるコンピュータプログラム自体も本発明を実現するものである。つまり、上述の実施形態の機能を実現するためのコンピュータプログラム自体も本発明の一つである。
なお、上述の実施形態を実現するためのコンピュータプログラムは、コンピュータで読み取り可能であれば、どのような形態であってもよい。例えば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等で構成することができるが、これらに限るものではない。
上述の実施形態を実現するためのコンピュータプログラムは、記憶媒体又は有線/無線通信によりコンピュータに供給される。プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記憶媒体、MO、CD、DVD等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。
有線/無線通信を用いたコンピュータプログラムの供給方法としては、コンピュータネットワーク上のサーバを利用する方法がある。この場合、本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムファイル)をサーバに記憶しておく。プログラムファイルとしては、実行形式のものであっても、ソースコードであっても良い。
そして、このサーバにアクセスしたクライアントコンピュータに、プログラムファイルをダウンロードすることによって供給する。この場合、プログラムファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに分散して配置することも可能である。
つまり、上述の実施形態を実現するためのプログラムファイルをクライアントコンピュータに提供するサーバ装置も本発明の一つである。
また、上述の実施形態を実現するためのコンピュータプログラムを暗号化して格納した記憶媒体をユーザに配布し、所定の条件を満たしたユーザに、暗号化を解く鍵情報を供給し、ユーザの有するコンピュータへのインストールを可能とすることも可能である。鍵情報は、例えばインターネットを介してホームページからダウンロードさせることによって供給することができる。
また、上述の実施形態を実現するためのコンピュータプログラムは、すでにコンピュータ上で稼働するOSの機能を利用するものであってもよい。
さらに、上述の実施形態を実現するためのコンピュータプログラムは、その一部をコンピュータに装着される拡張ボード等のファームウェアで構成してもよいし、拡張ボード等が備えるCPUで実行するようにしてもよい。
MRシステムにおいて、ソフトウェアにより実現される各部として機能することが可能なコンピュータの基本構成を示す図である。 第1の実施形態に係るMRシステムにおける、色取得動作を説明するフローチャートである。 第1の実施形態に係るMRシステムの機能構成例を示すブロック図である。 第1の実施形態に係るMRシステムにおける色取得処理を説明するためのフローチャートである。 第1の実施形態に係るMRシステムの概念を説明する図である。 ペン先が示す方向を取得する処理を説明するための図である。 色を指定するために用いる現実物体としてのカラーチャートの例を示す図である。 第1の実施形態に係るMRシステムにおけるペン描画処理を説明するための図である。 第2の実施形態に係るMRシステムにおいて、ペン操作により記録した三次元データを用いてCGを描画した状態を模式的に示す図である。 第2の実施形態に係るMRシステムにおける、色取得動作を説明するフローチャートである。 第2の実施形態に係るMRシステムにおける色取得処理を説明するためのフローチャートである。
符号の説明
100 HMD
101 撮像部
102 映像表示部
103 位置姿勢センサ
104 撮像部の位置姿勢計測部
105 ペンの位置姿勢計測部
106 CGシーン管理部
107 CG描画部
108 映像合成部
120 描画ボタン
121 色取得ボタン
122 ペン描画部
123 色取得部
501 撮像部座標系
502 ペン座標系
503 画像平面
504 撮像部の座標系の原点と画像平面の中心を結ぶ線
505 ペン先の位置
506 画像平面上でのペン先の投影位置
507 画像平面の中心から画像平面上でのペン先の投影位置まで伸ばしたベクトルの視野座標系Y軸方向の成分
508画像平面の中心から画像平面上でのペン先の投影位置まで伸ばしたベクトルの視野座標系X軸方向の成分
509 画像平面の座標系
510 現実のティーポット
511 ユーザが持っているペン
512 撮像部のカメラ中心
513 ペン延長点
601 画面上でのペンの傾き方向
602 画像平面上でのペン延長点の投影位置
701 色選択のためのカラーチャート
801 生成された三次元の線のCG
802 前回のペンの位置姿勢
803 現在のペンの位置姿勢
901 仮想のティーポット
1001 CPU
1002 RAM
1003 ROM
1004 キーボード
1005 マウス
1006 表示部
1007 外部記憶装置
1008 記憶媒体ドライブ
1009 I/F
1010 バス

Claims (9)

  1. 映像取得手段が、現実空間の映像を前記現実空間を撮像する撮像手段から取得する映像取得工程と、
    指示検出手段が、ユーザが操作する指示手段により前記現実空間中の位置が指定されたことを検出する指示検出工程と、
    算出手段が、前記検出に応答して、前記指定された前記現実空間中の位置に対応する、前記映像中の位置を求める算出工程と、
    色取得手段が、前記算出工程で求められた位置から、前記指示手段が示す方向に予め定めた画素数ずれた位置の画素の色を、前記ユーザが指定した色として取得する色取得工程とを有することを特徴とする色情報取得方法。
  2. さらに、合成手段が、前記現実空間の映像にコンピュータ・グラフィックス映像を重畳して、合成画像を生成する合成工程を有し、
    当該合成工程により生成された合成画像に対して、前記算出工程、前記色取得工程の処理を行うことを特徴とする請求項1記載の色情報取得方法。
  3. 表示手段が、前記色取得工程で取得された色で描画したコンピュータ・グラフィックス映像を表示する表示工程をさらに有することを特徴とする請求項1記載の色情報取得方法。
  4. さらに、前記色取得工程において、前記色取得手段が、前記取得された色と前記指定された前記現実空間中の位置を合わせて記録することを特徴とする請求項1乃至請求項のいずれか1項に記載の色情報取得方法。
  5. 前記指示手段は、ペン型の指示手段であり、
    前記算出工程において、前記算出手段は、前記現実空間中の前記ペン型の指示手段の先端部の位置に対応する前記映像中の位置を求め、
    前記色取得工程において、前記色取得手段は、前記ペン型の指示手段の先端部の位置から、前記指示手段の向いている方向に予め定めた距離だけ延長した位置に対応する前記映像中の画素の色を、前記ユーザが指定した色として取得することを特徴とする請求項1乃至請求項のいずれか1項に記載の色情報取得方法。
  6. 現実空間の映像を前記現実空間を撮像する撮像手段から取得する映像取得手段と、
    ユーザが操作する指示手段により前記映像に含まれる現実空間中の位置が指定されたことを検出する指示検出手段と、
    前記検出に応答して、前記指定された前記現実空間中の位置に対応する、前記映像中の位置を求める算出手段と、
    前記算出手段が求めた位置から、前記指示手段が示す方向に予め定めた画素数ずれた位置の画素の色を、前記ユーザが指定した色として取得する色取得手段とを有することを特徴とする色情報取得装置。
  7. さらに、前記映像取得手段が取得した映像を、前記ユーザの眼前に提示する表示装置を有することを特徴とする請求項記載の色情報取得装置。
  8. コンピュータを、
    現実空間の映像を前記現実空間を撮像する撮像手段から取得する映像取得手段と、
    ユーザが操作する指示手段により、前記映像に含まれる現実空間中の位置が指定されたことを検出する指示検出手段と、
    前記検出に応答して、前記指定された前記現実空間中の位置に対応する、前記映像中の位置を求める算出手段と、
    前記算出手段が求めた位置から、前記指示手段が示す方向に予め定めた画素数ずれた位置の画素の色を、前記ユーザが指定した色として取得する色取得手段とを有する色情報取得装置の各手段として機能させるためのプログラム。
  9. コンピュータを、
    現実空間の映像を前記現実空間を撮像する撮像手段から取得する映像取得手段と、
    ユーザが操作する指示手段により、前記映像に含まれる現実空間中の位置が指定されたことを検出する指示検出手段と、
    前記検出に応答して、前記指定された前記現実空間中の位置に対応する、前記映像中の位置を求める算出手段と、
    前記算出手段が求めた位置から、前記指示手段が示す方向に予め定めた画素数ずれた位置の画素の色を、前記ユーザが指定した色として取得する色取得手段とを有する色情報取得装置の各手段として機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2006118446A 2006-04-21 2006-04-21 画像からの色情報の取得方法 Active JP4847195B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006118446A JP4847195B2 (ja) 2006-04-21 2006-04-21 画像からの色情報の取得方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006118446A JP4847195B2 (ja) 2006-04-21 2006-04-21 画像からの色情報の取得方法

Publications (3)

Publication Number Publication Date
JP2007293453A JP2007293453A (ja) 2007-11-08
JP2007293453A5 JP2007293453A5 (ja) 2009-06-04
JP4847195B2 true JP4847195B2 (ja) 2011-12-28

Family

ID=38764044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006118446A Active JP4847195B2 (ja) 2006-04-21 2006-04-21 画像からの色情報の取得方法

Country Status (1)

Country Link
JP (1) JP4847195B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5344388B2 (ja) * 2008-07-10 2013-11-20 学校法人立命館 操作システム
US8384770B2 (en) 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
US8633947B2 (en) * 2010-06-02 2014-01-21 Nintendo Co., Ltd. Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method
EP2395769B1 (en) 2010-06-11 2015-03-04 Nintendo Co., Ltd. Image display program, image display system, and image display method
JP5739674B2 (ja) 2010-09-27 2015-06-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP5691632B2 (ja) * 2011-02-24 2015-04-01 株式会社大林組 画像合成方法
JP5617861B2 (ja) * 2012-03-29 2014-11-05 大日本印刷株式会社 印画物作製装置
JP5582423B2 (ja) * 2012-04-05 2014-09-03 大日本印刷株式会社 印画物作製装置
US10573089B2 (en) * 2017-11-09 2020-02-25 The Boeing Company Systems, methods, and tools for spatially-registering virtual content with physical environment in augmented reality platforms
JP7425641B2 (ja) 2020-03-25 2024-01-31 鹿島建設株式会社 測距装置およびプログラム
CN111880658B (zh) * 2020-07-31 2023-04-07 湖南汽车工程职业学院 一种虚拟现实的色样采样装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11110577A (ja) * 1997-08-04 1999-04-23 Sony Corp 画像データ処理装置および方法、並びに伝送媒体
JP2000148381A (ja) * 1998-11-05 2000-05-26 Telecommunication Advancement Organization Of Japan 入力画像処理方法、入力画像処理装置、及び入力画像処理プログラムを記録した記録媒体
JP3363861B2 (ja) * 2000-01-13 2003-01-08 キヤノン株式会社 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
JP3406965B2 (ja) * 2000-11-24 2003-05-19 キヤノン株式会社 複合現実感提示装置及びその制御方法
JP3631151B2 (ja) * 2000-11-30 2005-03-23 キヤノン株式会社 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体
JP2002287904A (ja) * 2001-03-28 2002-10-04 Canon Inc ディスプレイにおける指示位置表示方法、装置及び記憶媒体

Also Published As

Publication number Publication date
JP2007293453A (ja) 2007-11-08

Similar Documents

Publication Publication Date Title
JP4847195B2 (ja) 画像からの色情報の取得方法
US7542051B2 (en) Calibration method and apparatus
US7627137B2 (en) Image composition system, image composition method, and image composition apparatus
JP4533087B2 (ja) 画像処理方法、画像処理装置
US7589747B2 (en) Mixed reality space image generation method and mixed reality system
JP4795091B2 (ja) 情報処理方法および装置
US8350897B2 (en) Image processing method and image processing apparatus
EP1404126B1 (en) Video combining apparatus and method
JP2006285788A (ja) 複合現実感情報生成装置および方法
JP2000102036A (ja) 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法
JP2009123018A (ja) 画像処理装置、画像処理方法
JP2004233334A (ja) 位置姿勢計測方法
JP2004213355A (ja) 情報処理方法
US20060256036A1 (en) Image processing method and image processing apparatus
JP6775957B2 (ja) 情報処理装置、情報処理方法、プログラム
JP4144888B2 (ja) 画像処理方法、画像処理装置
JP2009087161A (ja) 画像処理装置、画像処理方法
CN114706489A (zh) 一种输入设备的虚拟方法、装置、设备和存储介质
JP2008070319A (ja) 物体計測装置および方法
JP2004234549A (ja) 現実物体モデル作成方法
JP2004233201A (ja) 位置姿勢計測方法
JP2015201734A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
JP7279113B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2008040913A (ja) 情報処理方法、情報処理装置
JP4217661B2 (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090421

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110711

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111011

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111013

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4847195

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3