JP2005107967A - 画像合成装置及び方法 - Google Patents

画像合成装置及び方法 Download PDF

Info

Publication number
JP2005107967A
JP2005107967A JP2003341624A JP2003341624A JP2005107967A JP 2005107967 A JP2005107967 A JP 2005107967A JP 2003341624 A JP2003341624 A JP 2003341624A JP 2003341624 A JP2003341624 A JP 2003341624A JP 2005107967 A JP2005107967 A JP 2005107967A
Authority
JP
Japan
Prior art keywords
image
subject
color information
area
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003341624A
Other languages
English (en)
Other versions
JP4323910B2 (ja
Inventor
Kaname Tomite
要 冨手
Toshiichi Oshima
登志一 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003341624A priority Critical patent/JP4323910B2/ja
Priority to US10/948,143 priority patent/US7574070B2/en
Publication of JP2005107967A publication Critical patent/JP2005107967A/ja
Application granted granted Critical
Publication of JP4323910B2 publication Critical patent/JP4323910B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Image Analysis (AREA)

Abstract

【課題】簡易な操作でCG画像の前景とすべき被写体の色情報を登録可能とする。
【解決手段】画像合成装置は、ビデオカメラ101からの撮影画像に画像生成部108で生成されるCG画像を重畳して表示する画像合成部108を有する。被写体色情報登録部110には画像生成部106で生成されるCG画像よりも前景とすべき被写体画像の色情報が保持される。被写体領域抽出部103は、被写体色情報登録部110に保持された色情報に基づいて撮影画像より被写体画像の領域である被写体領域を抽出し、画像合成部108は、抽出された被写体領域に対してはCGの描画を禁止しながら、撮影画像上にCG画像を描画する。被写体色保持情報登録部110は、被写体画像を構成する被写体を含む第1撮影画像と、該被写体を含まない第2撮影画像をビデオカメラ101より得て、それぞれの撮影画像における色情報に基づいて被写体画像の色情報を決定し、保持する。
【選択図】 図1

Description

本発明は、画像合成装置に係り、特に実写の風景を背景にコンピュータグラフィックスを前景に合成して表示する画像合成装置及び方法に関する。
実写風景を背景として、その上にコンピュータグラフィックス(以下、CGと記述)を重畳して提示し、体験者に対して、あたかもその場に仮想の物体が存在するかのような体験を行わせる複合現実感の技術がある(例えば、特許文献1を参照)。この技術を用いて臨場感豊かな体験を実現するには、背景となる実写風景の上にただ単純にCGを重畳して表示するだけではなく、体験者が実際にCGの物体に触れるなどのインタラクションが重要になってくる。このインタラクションを実現するめには、CG画像よりも更に前景となる被写体(体験者の手など)を表示することが必要である。なぜなら、CGで描画される仮想物体よりも前景となるはずの体験者の手などがCGによって隠されてしまうと、仮想物体との距離感や現実感が破綻し、臨場感を損ねてしまうからである。
このような問題を解決するために、出願人は特願2002−095535において、最前景とすべき被写体の画像をCG画像によって隠さないようにする技術を提案した。この技術は、予め手作業でCG画像より手前に表示すべき被写体の色情報をシステムに登録しておき、その登録された色情報を持つ画素領域にはCG画像の描画を禁止する。この技術により、前景となる被写体をCG画像より手前に表示し、臨場感の高い複合現実感体験を行うことが可能となる。
特願平11−088913
しかしながら、上記提案では、被写体の色情報の登録を手作業で行うため、その登録作業には知識と慣れが必要であり、誰でも簡単に登録できるというわけではない。また、色の情報のみで被写体領域を決定しているため、被写体領域の誤認によるノイズが生じてしまうなど、改善の余地がある。
すなわち、手作業で被写体の色情報の登録を行うのではなく、体験者やシステムのオペレータにとって比較的、簡単な操作やキャリブレーションを行うことによって誰でも被写体の色情報をシステムに登録できるようにするという要望がある。
また、簡単なキャリブレーションで被写体の色情報を登録できたとしても、色情報のみで被写体領域を決定した場合、背景に被写体の色と似た色が存在すると、その領域が被写体であると誤認識され、CGの描画が禁止され、背景画像が出現してしまう。また逆に、照明条件の変化などによって被写体の色情報が変化した場合は、被写体内部であっても被写体ではないと誤認識され、被写体上にCGが描画されてしまう。以上のように誤認識に起因して出現する、CG画像中の背景画像や、被写体中のCG画像といったノイズを低減することも望まれている。
本発明は上記課題に鑑みてなされたものであり、簡易な操作でCG画像の前景とすべき被写体の色情報を登録可能とすることを目的とする。
また、本発明の他の目的は、提示画像中に出現するノイズを除去することにある。
上記の目的を達成するための本発明による画像合成方法は、
現実空間の撮影画像にコンピュータによる生成画像を重畳して表示する画像合成方法であって、
前記生成画像よりも前景とすべき被写体画像の色情報を保持手段に保持する保持工程と、
前記保持手段に保持された色情報に基づいて前記撮影画像より前記被写体画像の領域である被写体領域を抽出する抽出工程と、
前記抽出工程で抽出された被写体領域に対する前記生成画像の描画を用いて、前記撮影画像上に該生成画像を描画する描画工程とを備え、
前記保持工程は、前記被写体画像を構成する被写体を含む第1撮影画像と、該被写体を含まない第2撮影画像のそれぞれの色情報に基づいて前記被写体画像の色情報を決定し、保持する。
また、上記の目的を達成するための本発明による画像合成方法は、上記画像合成方法において、
前記抽出工程では、
前記色情報に基づいて前記撮影画像より前記被写体領域を抽出することにより、該撮影画像を被写体領域とそれ以外の領域の2種類の属性の領域へ分類し、各領域の面積に基づいてノイズか否かを判定し、ノイズと判定された領域は、その属性を他方の属性へ変更する。
また、上記の目的を達成するための本発明の他の態様による画像合成方法は、
現実空間の撮影画像にコンピュータによる生成画像を合成して表示する画像合成方法であって、
マスク領域の色情報を保持する保持工程と、
前記色情報を用いて、前記撮影画像からマスク領域を抽出する抽出工程と、
前記マスク領域を用いて、前記生成画像と前記生成画像を合成する合成工程と、
前記マスク領域の対象となる物体を含む第1の撮影画像と、該マスク領域の対象となる物体を含まない第2の撮影画像のそれぞれの色情報に基づき前記マスク領域の色情報を決定し登録する登録工程とを有する。
以上の構成によれば、被写体画像の色情報が自動的に取得されるので、簡易な操作でCG画像の前景とすべき被写体の色情報を登録することができる。
また、上記の構成によれば、提示画像中に出現するノイズを除去できる。
以下、添付の図面を参照して本発明の実施形態を説明する。
図1は、本実施形態による映像合成装置の構成を示す図である。図1において、小型のビデオカメラ101は現実空間を撮影する。ビデオカメラ101は、図2に示すように頭部搭載型画像表示装置(Head Mount Display、以下HMDという)109の、ユーザの目に近い部分に、ユーザの視界方向と一致する向きに固定されている。画像入力部102は、ビデオカメラ101より撮影された画像(映像)を入力する。ビデオカメラ101で撮影された画像の信号は、画像入力部102によって処理され、ディジタル画像データとして後述する被写体領域抽出部103と画像合成部108に供給され、画像生成部106で生成されたCGと合成されてユーザのHMD109に表示される。
被写体領域抽出部103は被写体色情報登録部110に登録された色の部分を、入力した映像より抽出し、その抽出結果を被写体領域として画像合成部108へ送る。すなわち、被写体領域抽出部103は、画像入力部102から供給された画像データの各画素の色情報を被写体色情報登録部110に登録してある被写体の色情報と比較し、これと一致する場合には当該画素は被写体の領域であると判断する。各画素がこのような被写体領域に含まれるか否かの判断の結果は、例えば被写体領域に含まれるならば1、そうでないならば0のような値を各画素に割り当てることにより、画像データの形態で画像合成部108に供給される。
一方、カメラ位置姿勢計測部105は、カメラ位置姿勢センサ104からの信号に基づいてビデオカメラ101の位置姿勢を検出し、これを画像生成部106へ送る。カメラ位置姿勢センサ104は、例えば磁気センサで構成され、図2に示すようにHMD109に装着されている。カメラ位置姿勢計測部105は、カメラ位置姿勢センサ104からの出力信号を入力し、カメラの位置と姿勢を推定する。なお、カメラ位置姿勢センサ104は、磁気センサの他に、光学式センサ、超音波式センサ、機械式センサなど、用途に合わせて好適な手段を任意に選択してよい。
画像生成部106では、カメラ位置姿勢計測部105から供給されるカメラの3次元的な位置と姿勢の情報を用いて、ビデオカメラ101で撮影された画像に合わせたCG画像が生成される。CG画像の生成においては、仮想空間データベース107に含まれるCGモデルの幾何情報、色やテクスチャなどの属性情報、および照明情報が用いられる。3次元CG画像の生成は既知の技術であるので説明を省略する。生成されたCG画像は画像合成部108へ送られる。
画像合成部108では、画像入力部102より入力される映像に画像生成部106で生成したCG画像を重畳する。このとき、被写体領域抽出部103より送られて来た被写体領域(値が1の領域)においては、CG画像の描画を禁止し、ビデオカメラ101からの映像がそのまま表示されるようにする。こうして画像合成部108で生成された画像情報は、HMD109に送られ、表示される。なお、以上のような図1の構成において、ビデオカメラ101、カメラ位置姿勢センサ104はHMD109に装着され、他の構成は一般的なコンピュータにより実現することができる。
以上の構成及び動作について図2及び図3を参照してより具体的に説明する。図2は実施形態による映像合成装置の利用形態を説明する図である。また、図3は実施形態による映像合成装置の画像合成を説明する図である。
図2に示すように、本実施形態においてユーザ201は、実写映像とCGを合成して表示するための表示装置であるHMD109を頭部203に装着し、椅子202に座っている。ユーザは着座する以外の任意の姿勢を取っていても良い。また、HMD109にはビデオカメラ101やカメラ位置姿勢センサ104が搭載されている。なお、実施形態において、前景とすべき現実の被写体はユーザ201の手204であるとし、背景とすべき現実の対象物はそれ以外の現実物体(壁や鉢植え等)205である。
HMD109に表示される画像は、図3の(a)のような現実の実写風景を背景に、図3の(b)のようなCG画像(仮想自動車内部画像206)を重畳する。このとき、CG画像の前景として被写体(体験者の手204)がCG画像上に表示されるようにする。これにより、図3の(c)に示すような目的とする合成画像を生成する。このように、体験者に臨場感の高い複合現実感体験させるためには、前景となる被写体領域にはCGを描画しないことが重要である。
図4は被写体領域抽出部103による被写体領域の抽出を説明する図である。図4の(a)は、ビデオカメラ101より得られる実写画像の例である。実写画像301において、ユーザ201自身の手がビデオカメラ101の視野内に入っており、背景とすべき現実の風景と共に前景とすべき被写体である手204が観測されている。被写体とすべき手204の色情報は予め被写体色情報登録部110に登録されている(登録の手順の詳細は後述)。被写体領域抽出部103は、実写画像301の各画素について、その色情報を被写体の色情報と比較し、被写体領域に含まれるならば1、それ以外では0とした画像を生成する。図4の(b)に示される被写体領域画像402はこのようにして実写画像301を解析して生成した画像であり、白で示した領域が手の領域、すなわちCG画像の前景とすべき被写体領域を示す。こうして生成された被写体領域にCGを合成しないことで、実写画像とCGを合成し、なおかつ前景となる体験者の手を表示した合成画像を得ることができる。
図5は被写体色情報登録部110の詳細を説明する図である。まず、被写体色情報を抽出するために、背景のみをビデオカメラ101で撮像する。撮像した画像は、画像入力部102でデジタル化され、色変換部501で所定の色空間へ変換される。その後、背景色情報登録部502へ送られ、そこで登録される。すなわち、背景のみの画像情報が背景色情報として背景色情報登録部502に格納される。次に、背景色情報の登録において撮影された背景と被写体とが同時に写るようにしてビデオカメラ101で撮像する。撮像した画像は、画像入力部102及び色変換部501を経て所定の色空間へ変換され、被写体色情報抽出部503へ入力される。被写体色情報抽出部503では、背景色情報登録部502に登録された背景色情報と、被写体を含む画像情報とを比較し、背景色情報に含まれていない色情報を抽出する。被写体色情報抽出部503で抽出された色情報は、被写体色情報として被写体色情報部504で登録される。
なお、被写体領域抽出部103および被写体色情報登録部110で用いられる所定の色空間とは多次元色空間であり、色情報はこの多次元色空間における座標値として記述することができる。一般によく知られている多次元色空間(表色系)としては、RGB、YIQ、YCbCr、YUV、HSV、Lu*v*、La*b*など様々なものが挙げられる(日本規格協会、JIS色彩ハンドブックを参照)。
対象とする被写体の色彩特性に合わせて適当な色空間を用いてよいが、照明条件の相違による被写体の色彩特性の変化を相殺するために、情報と色み情報とに分離する形式の表色系を用い、被写体色情報として色み情報だけ(つまり輝度情報以外の情報)を用いることが望ましい。このような表色系の代表的なものとしてはYIQやYCbCrが一般的である。以下、本実施形態では、YCbCr表色系を用いるとする。
図6は本実施形態のシステム全体の流れを説明するフローチャ−トである。なお、図6の処理の開始に先立って、上述した被写体色情報登録部110により、CG画像よりも前景とすべき被写体領域を抽出するための被写体色情報を登録しておく。なお、被写体色情報登録部110による被写体色情報の登録方法の詳細については、図7〜図9により後述する。また、本実施形態ではシステムを実時間で動作させるために、被写体色情報の登録作業をシステムの起動前に予め行っている。しかしながら、システムパフォーマンスに余力がある場合は、リアルタイムに被写体色情報を更新することも可能である。
被写体色情報登録後、ステップS1でシステムが起動される。ステップS2及びS3は被写体領域抽出部103の処理である。まずステップS2では、ビデオカメラ101で撮像した画像内の各画素のRGB信号を所定の色空間(被写体色情報登録部110で登録された被写体色を表す色空間)へ変換する。ステップS3では、変換された各画素が被写体色情報登録部110に登録された被写体色と一致するかを調べる。登録されている被写体色と一致する場合には値の1を、一致するものがない場合は値の0を当該画素に割当て、2値のマスク画像(被写体領域画像)を生成する。
ステップS4では、画像生成部106が、カメラ位置姿勢計測部105から入力されたカメラの位置姿勢及び仮想空間データベース107の描画情報に基づいて、当該位置姿勢から観察されるCG画像を生成する。そして、画像合成部108では、ステップS3で得られたマスク画像(被写体領域画像)でこのCG画像をマスク処理する。すなわち、ステップS4では、マスク画像によりマスクされたコンピュータ映像が生成される。ステップS5では、ステップS4で生成されたマスク処理済みのCG画像とビデオカメラ101より得られる実写画像を合成し、HMD109に表示する。
その後、ステップS6でシステムを終了するかどうかがチェックされ、システムを終了させない場合にはステップS2に戻り、上述の処理を繰り返す。終了指示があれば、ステップS6より本処理を終了する。
次に、図1、図5で説明した被写体色情報登録部110による被写体色情報登録方法について、図7〜図9を参照して説明する。
まず、被写体の色情報を登録するために、背景色情報登録部502へ背景色情報を登録する必要がある。図7は背景色情報の登録を説明するフローチャートである。図7のステップS11で、システム起動後、ステップS12で、ビデオカメラ101より画像入力部102を介して背景画像を取得する。なお、ステップS12における背景画像取得の際は、背景画像に被写体の色情報がなるべく含まれないようにすることが重要である。
次に、ステップS12で取得した画像をステップS13で色変換部501によりYCbCr表色系へ変換する。そして、ステップS14でYCbCr空間へ写像(プロット)する。ステップS12からステップS14までを数回繰り返し(ステップS15)、YCbCr空間へ背景色を登録する。なお、繰り返す回数は任意である。そして、所定回数の繰り返しを終えると、ステップS15からステップS16へ進み、ステップS14における写像の結果を背景色情報として登録する。
以上のようにして背景色情報を所定の色空間で登録したならば、続いて被写体色情報の登録を行なう。図8は被写体色情報の登録を説明するフローチャートである。
ステップS21でシステム起動後、ステップS22でビデオカメラ101より「背景+被写体」の画像を取得する。ステップS23で、ステップS22で取得した画像を色変換部501によりYCbCr表色系へ変換し、ステップS24でYCbCr空間へ写像する。図7と同様にステップS22からステップS24までを数回繰り返し(ステップS25)、YCbCr空間へ「背景+被写体」画像の色を登録する。繰り返す回数は任意であるが、被写体の角度を変え、被写体への照明の辺り具合が変化するようにして撮像することが好ましい。
所定回数の繰り返しを終えると、ステップS25からステップS26へ進み、背景+被写体の色情報とステップS16で登録した背景色情報とを比較する。そして、背景色情報以外の色情報を被写体の色情報、すなわち被写体色情報とする。但しステップS26で得られる被写体色情報は部分的に被写体の色情報が欠落しているため、これを補完する必要がある。そこで、ステップS27において、被写体色情報の欠落を補完する凸閉方処理を行う。
図9は凸閉方処理を説明する図である。凸閉方処理では、まず図9の(a)に示されるように、YCbCr空間を輝度値Yの値でスライスする。このスライスにより得られるCbCr平面上には、スライスしたときの輝度値Yでの被写体色情報が点群として写像されている。そして、図9の(b)に示されるように、CbCr平面上の点群の外側を線で結び、点群の全てを内包する閉領域を決定する。そして、図9の(c)に示されるように、図9の(b)で決定された閉領域の内側の全てが被写体色情報であるとして被写体色情報の補完を行う。なお、前述のように、照明条件の相違等による色彩変化の影響を排除するために、被写体色情報として色み情報(輝度情報以外の情報)のみを用いるようにするためには、全Y値に渡る写像の結果をCbCr平面上に投影し、得られた点群を用いればよい。但し、背景に黒が多い場合などはY値の0(黒)に近い部分が不要になるので、Y値で足切り(閾値処理)を行なって、それら不要な部分を排除するようにしてもよい。
次に、被写体領域抽出部103での処理を図10のフローチャートにより説明する。画像入力部102から供給される画像データの各画素について図10に示す処理を行い、被写体の領域を抽出する。まず、ステップS31で、画像座標(i,j)のRGB値(r(i,j),g(i,j),b(i,j))をYCbCr空間の座標値に変換する色空間変換関数(color_conversion)へ代入、演算することにより、画像座標(i,j)のRGB値のYCbCr空間での座標値(Y,cb,cr)を得る。そして、ステップS32においてYCbCr空間での座標値(Y,cb,cr)を入力として、被写体色情報登録部110に登録されている被写体色情報を参照し、当該色空間の点が被写体色情報の領域に属するか否かを判定する。すなわち、被写体領域判定関数mask_funcは、入力された座標値(Y,cb,cr)が被写体色情報の領域に属する場合には1を、そうでない場合には0を返す。この処理を、全画像座標について実行することにより(ステップS33)、被写体色情報に属するならば1、属さないならば0というように2値で表わされた被写体領域画像が生成される。
なお、被写体領域画像は、0から1までの連続値による確率分布で表現してもよい。例えば、CbCr平面上で背景色と被写体色が重なりあう部分を確立分布で表現する。一例としては、サンプル画像から背景色と被写体色を抽出し、CbCr平面にプロットした後、CbCr平面のある座標xにプロットされた背景色の画素数をBPx、被写体色の画素数をTPxとし、
TPx/(BPx+TPx)
を計算することにより、確率分布を求めることが挙げられる。但し、この式は、被写体を含むサンプル画像と含まないサンプル画像の枚数が等しい場合に適用できるものであり、両者の枚数が等しくない場合は、サンプル画像の枚数で重みを付ける必要がある。また、CG描画においては、確率分布の値に従い透過率を設定してアルファブレンドを行う。透過率を設定することにより、被写体領域であるけれども陰影の影響で背景色に近くなってしまった領域は半透明で表示することができる。これにより、被写体と背景の境界線をぼかすことができ、見た目をよくすることができる。
画像合成部108では、画像入力部101から供給される実写画像(図3(a))と、画像生成部106から供給されるCG画像(図3(b))とを、被写体領域抽出部110から供給される被写体領域画像(図4(b))を用いて、目的とする合成画像(図3(c))を生成する。被写体色情報登録部110に登録された色情報には被写体の色情報に類似した背景に存在する被写体以外の色も含まれているため、被写体領域画像402には被写体以外の領域が存在する。
さて、被写体領域以外の背景に被写体色情報に含まれる色の部分が存在すると、被写体領域外であるにもかかわらずCG画像が描画されず、その部分がノイズとなる可能性がある。あるいは、被写体領域内の撮影画像に被写体色情報に含まれない色が存在すれば、被写体領域中にCG画像が描画されてしまい、やはりノイズとなる。本実施形態では、このようなノイズを除去し、提示画像の画質を向上する。
図11は被写体領域画像におけるノイズ除去を説明する図である。被写体領域画像1110には、被写体領域の外側と内側にノイズが生じている。外側のノイズは背景に存在する被写体領域と誤認識した領域であり、内側のノイズは被写体領域であるにも関わらず背景であると誤認識した領域である。S101において、まず外側のノイズを除去(被写体領域外の白部分を黒部分に修正する)して、画像1111を得る。例えば、画像内の連結した領域の面積を算出する際によく用いられるラベリングの手法を用いて、被写体領域画像の全領域の面積を算出し、算出した領域の面積が一定以下である場合はノイズであると見なしてその領域を除去する。なお、この例では面積に対して閾値を設定してノイズの判定を行っているが、被写体の数が予め決まっている場合などは、面積の大きい順に被写体領域であると判定し、他の被写体領域は削除するようにしてもよい。
次に、S102ではS101で得られた被写体領域画像1111に対して0と1を反転する処理を施す。この処理により、背景領域と被写体領域が反転し、画像1112が得られる。S103では、S102で得られた被写体領域画像に対し、再度ラベリングを行ない、被写体領域を算出する。その結果、被写体領域は最も大きな面積を持つ領域(背景)と、それ以外の領域(被写体領域内に存在するノイズ)に分類される。最も大きな面積を持つ領域(背景)以外は全てノイズであると見なせるので、これを除去することにより、被写体領域内側のノイズ除去が行なわれる。ステップS104では、ステップS103得られた被写体領域画像1113の反転処理を行い、背景領域と被写体領域を元に戻す。以上の処理を行うことにより被写体領域内外のノイズが除去された被写体領域画像1114を得ることができる。
なお、上記実施形態では、一般的なラベリングのアルゴリズムを採用し、被写体領域以外のノイズを除去したが、ラベリング以外のメジアンフィルタや、縮小・膨張処理といったアルゴリズムや、被写体領域の候補に対して凸閉方処理などを行って、ノイズ除去を行ってもよい。ノイズ除去の方法は用途によって好適な手段を任意に選択すればよい。たとえば、(1)背景と被写体の境界線が気になる場合は、被写体領域に対して凸閉方処理を行い、(2)ラベリング処理よりもノイズ除去の精度は劣るが細かいノイズを高速に除去したい場合は、被写体領域に対して縮小・膨張処理を行うようにすることが挙げられる。
次に、画像合成部108での画像合成処理を図12によって説明する。ステップS41では、画像入力部102より入力される実写画像を画像表示のための画像メモリであるフレームバッファに転送する。ステップS42では、被写体領域抽出部103で生成された被写体領域画像をマスク処理のための画像メモリであるステンシルバッファに転送する。ステップS43では、画像生成部106によりCG画像を生成して、各座標(i,j)の画素についてステンシルバッファの値Stencil(i,j)を参照し、Stencil(i,j)=1、すなわち実写画像中の画素real(i,j)が被写体領域に含まれる場合には、対応するフレームバッファの画素buffer(i,j)を更新せず、Stencil(i,j)=0、すなわち実写画像中の画素real(i,j)が被写体領域に含まれていないときのみ、buffer(i,j)の値をCG画像の画素値cgi(i,j)によって置き換える。
その結果、被写体領域では常に実写画像の画素値がフレームバッファに描き込まれ、被写体領域でない領域では、CGが重畳されている部分に関してはCG画像の画素値がフレームバッファに描き込まれる。また、被写体領域でなくかつCGが重畳されない領域は実写画像がフレームバッファに描き込まれる。
なお、本実施形態では、前景に描画する被写体として手を用いたが、他の物体でも構わない。
以上説明したように,上記実施形態によれば、CGの背景画像となるべき背景と、CGの前景となるべき被写体とを同時に撮影した撮影画像から、被写体の領域を被写体色情報に基づいて抽出するにおいて、被写体色情報を容易に登録することができる。また、抽出結果についてノイズ除去を行うことにより、質の高い画像を提示できる。
なお、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
第一実施形態の処理の流れを示すブロック図である。 第一実施形態を示すブロック図である。 合成画像に必要な素材画像を説明する図である。 被写体領域の抽出を説明する図である。 被写体色情報登録部の詳細を示す図である。 第一実施形態の処理の流れを示すフローチャートである。 背景色情報登録の処理の流れを示すフローチャートである。 被写体色情報登録の処理の流れを示すフローチャートである。 凸閉方処理を説明する図である。 被写体領域抽出処理を説明するフローチャートである。 ノイズ除去を説明する図である。 画像合成処理の流れを説明するフローチャートである。

Claims (10)

  1. 現実空間の撮影画像にコンピュータによる生成画像を重畳して表示する画像合成方法であって、
    前記生成画像よりも前景とすべき被写体画像の色情報を保持手段に保持する保持工程と、
    前記保持手段に保持された色情報に基づいて前記撮影画像より前記被写体画像の領域である被写体領域を抽出する抽出工程と、
    前記抽出工程で抽出された被写体領域に対する前記生成画像の描画を用いて、前記撮影画像上に該生成画像を描画する描画工程とを備え、
    前記保持工程は、前記被写体画像を構成する被写体を含む第1撮影画像と、該被写体を含まない第2撮影画像のそれぞれの色情報に基づいて前記被写体画像の色情報を決定し、保持することを特徴とする画像合成方法。
  2. 前記保持工程は、
    前記第2撮影画像に存在し、且つ前記第1撮影画像に存在しない色を抽出し、
    所定の色空間において、前記抽出した色の全体が含まれるように範囲を決定し、
    前記決定された範囲内の色を前記被写体画像の色情報とすることを特徴とする請求項1に記載の画像合成方法。
  3. 前記被写体画像の色情報は、輝度と色みから構成された色空間における色みのみを用いて表現されることを特徴とする請求項1又は2に記載の画像合成方法。
  4. 前記抽出工程では、
    前記色情報に基づいて前記撮影画像より前記被写体領域を抽出することにより、該撮影画像を被写体領域とそれ以外の領域の2種類の属性の領域へ分類し、各領域の面積に基づいてノイズか否かを判定し、ノイズと判定された領域は、その属性を他方の属性へ変更することを特徴とする請求項1乃至3のいずれかに記載の画像合成方法。
  5. 領域の面積が所定値よりも小さい場合、当該領域をノイズと判定することを特徴とする請求項4に記載の画像合成方法。
  6. 属性別に領域を面積順に並べ、大きい方から所定番目以下の領域をノイズと判定することを特徴とする請求項4に記載の画像合成方法。
  7. 現実空間の撮影画像にコンピュータによる生成画像を合成して表示する画像合成方法であって、
    マスク領域の色情報を保持する保持工程と、
    前記色情報を用いて、前記撮影画像からマスク領域を抽出する抽出工程と、
    前記マスク領域を用いて、前記生成画像と前記生成画像を合成する合成工程と、
    前記マスク領域の対象となる物体を含む第1の撮影画像と、該マスク領域の対象となる物体を含まない第2の撮影画像のそれぞれの色情報に基づき前記マスク領域の色情報を決定し登録する登録工程とを有することを特徴とする画像合成方法。
  8. 現実空間の撮影画像にコンピュータによる生成画像を重畳して表示する画像合成装置であって、
    前記生成画像よりも前景とすべき被写体画像の色情報を保持する保持手段と、
    前記保持手段に保持された色情報に基づいて前記撮影画像より前記被写体画像の領域である被写体領域を抽出する抽出手段と、
    前記抽出手段で抽出された被写体領域に対する前記生成画像の描画を禁止しながら前記撮影画像上に該生成画像を描画する描画手段とを備え、
    前記保持手段は、前記被写体画像を構成する被写体を含む第1撮影画像と、該被写体を含まない第2撮影画像のそれぞれの色情報に基づいて前記被写体画像の色情報を決定し、保持することを特徴とする画像合成装置。
  9. 請求項1乃至7のいずれかに記載の画像合成方法をコンピュータに実行させるための制御プログラム。
  10. 請求項1乃至7のいずれかに記載の画像合成方法をコンピュータに実行させるための制御プログラムを格納した記憶媒体。
JP2003341624A 2003-09-30 2003-09-30 画像合成装置及び方法 Expired - Fee Related JP4323910B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003341624A JP4323910B2 (ja) 2003-09-30 2003-09-30 画像合成装置及び方法
US10/948,143 US7574070B2 (en) 2003-09-30 2004-09-24 Correction of subject area detection information, and image combining apparatus and method using the correction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003341624A JP4323910B2 (ja) 2003-09-30 2003-09-30 画像合成装置及び方法

Publications (2)

Publication Number Publication Date
JP2005107967A true JP2005107967A (ja) 2005-04-21
JP4323910B2 JP4323910B2 (ja) 2009-09-02

Family

ID=34536179

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003341624A Expired - Fee Related JP4323910B2 (ja) 2003-09-30 2003-09-30 画像合成装置及び方法

Country Status (1)

Country Link
JP (1) JP4323910B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006343953A (ja) * 2005-06-08 2006-12-21 Canon Inc 画像処理方法、画像処理装置
JP2008287410A (ja) * 2007-05-16 2008-11-27 Canon Inc 画像処理方法及び画像処理装置
JP2009253953A (ja) * 2008-04-11 2009-10-29 Sony Corp 情報処理装置および方法、並びにプログラム
JP2010541053A (ja) * 2007-09-25 2010-12-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング 現実環境内にバーチャルオブジェクトを描写する方法および装置
JP2014089697A (ja) * 2012-10-05 2014-05-15 Fine Co Ltd 建築画像表示装置、建築画像表示方法及びコンピュータプログラム
JP2020052466A (ja) * 2018-09-21 2020-04-02 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
WO2023210288A1 (ja) * 2022-04-25 2023-11-02 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理システム
US11842519B2 (en) 2021-01-19 2023-12-12 Canon Kabushiki Kaisha Image processing apparatus for processing captured image, method therefor, and storage medium

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006343953A (ja) * 2005-06-08 2006-12-21 Canon Inc 画像処理方法、画像処理装置
JP4745724B2 (ja) * 2005-06-08 2011-08-10 キヤノン株式会社 画像処理方法、画像処理装置
JP2008287410A (ja) * 2007-05-16 2008-11-27 Canon Inc 画像処理方法及び画像処理装置
JP2010541053A (ja) * 2007-09-25 2010-12-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング 現実環境内にバーチャルオブジェクトを描写する方法および装置
US8558846B2 (en) 2008-04-11 2013-10-15 Sony Corporation Information processing device and method, and program
JP4556146B2 (ja) * 2008-04-11 2010-10-06 ソニー株式会社 情報処理装置および方法、プログラム、並びに情報処理システム
JP2009253953A (ja) * 2008-04-11 2009-10-29 Sony Corp 情報処理装置および方法、並びにプログラム
JP2014089697A (ja) * 2012-10-05 2014-05-15 Fine Co Ltd 建築画像表示装置、建築画像表示方法及びコンピュータプログラム
JP2020052466A (ja) * 2018-09-21 2020-04-02 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US11200706B2 (en) 2018-09-21 2021-12-14 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP7204397B2 (ja) 2018-09-21 2023-01-16 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US11842519B2 (en) 2021-01-19 2023-12-12 Canon Kabushiki Kaisha Image processing apparatus for processing captured image, method therefor, and storage medium
WO2023210288A1 (ja) * 2022-04-25 2023-11-02 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理システム

Also Published As

Publication number Publication date
JP4323910B2 (ja) 2009-09-02

Similar Documents

Publication Publication Date Title
JP4136420B2 (ja) 情報処理方法および装置
JP5463866B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
JP5818773B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5474169B2 (ja) 画像処理装置、画像処理方法
US7574070B2 (en) Correction of subject area detection information, and image combining apparatus and method using the correction
US9679415B2 (en) Image synthesis method and image synthesis apparatus
JP4246516B2 (ja) 人物動画像生成システム
CN108682050B (zh) 基于三维模型的美颜方法和装置
JP3810943B2 (ja) 画像処理装置、画像処理方法および画像処理プログラムを記録した記録媒体
CN109785228B (zh) 图像处理方法、装置、存储介质和服务器
JP2009211513A (ja) 画像処理装置及びその方法
CN107564085B (zh) 图像扭曲处理方法、装置、计算设备及计算机存储介质
JP4323910B2 (ja) 画像合成装置及び方法
JP2007140834A (ja) プログラム、情報記憶媒体、写真印刷装置及び写真印刷方法
JP2018163648A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2015153321A (ja) 画像処理装置、画像処理方法及びプログラム
JP4328639B2 (ja) 被写体検出情報の調整方法及び調整装置
JP5272775B2 (ja) 電子スチルカメラ
JP2009237927A (ja) 画像合成方法及び装置
US8971636B2 (en) Image creating device, image creating method and recording medium
JP4745724B2 (ja) 画像処理方法、画像処理装置
JP2002083286A (ja) アバタ生成方法、装置及びそのプログラムを記録した記録媒体
JP6341540B2 (ja) 情報端末装置、方法及びプログラム
JP2008299670A (ja) 画像領域抽出装置およびその制御方法、複合現実感提示システム及びコンピュータプログラム
JP2002271691A (ja) 画像処理方法、画像処理装置、記憶媒体及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090223

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090525

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090605

R150 Certificate of patent or registration of utility model

Ref document number: 4323910

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130612

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees