JP4670303B2 - 画像処理方法及び画像処理装置 - Google Patents

画像処理方法及び画像処理装置 Download PDF

Info

Publication number
JP4670303B2
JP4670303B2 JP2004294241A JP2004294241A JP4670303B2 JP 4670303 B2 JP4670303 B2 JP 4670303B2 JP 2004294241 A JP2004294241 A JP 2004294241A JP 2004294241 A JP2004294241 A JP 2004294241A JP 4670303 B2 JP4670303 B2 JP 4670303B2
Authority
JP
Japan
Prior art keywords
image
background
distance
background region
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004294241A
Other languages
English (en)
Other versions
JP2006109172A (ja
Inventor
嘉昭 岩井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004294241A priority Critical patent/JP4670303B2/ja
Priority to US11/240,555 priority patent/US7965885B2/en
Priority to CNB200510108440XA priority patent/CN100364319C/zh
Publication of JP2006109172A publication Critical patent/JP2006109172A/ja
Application granted granted Critical
Publication of JP4670303B2 publication Critical patent/JP4670303B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N5/275Generation of keying signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像の背景領域を分離する画像処理方法及び画像処理装置に関する。
近年、カメラを備えたビジュアルコミュニケーション装置が普及し始めている。例えば、ビジネスの分野では、複数人で行うテレビ会議システムがあり、またパーソナルの分野ではWebカメラを利用したコミュニケーションシステムがある。このようなシステムでは、相手の表示像をディスプレイ上に表示するとともに、当該ディスプレイを視認するユーザを撮影対象として撮像し、得られた画像信号を公衆回線、専用回線等のネットワークを介して相手側の画像処理装置へ送信することにより、双方のユーザに対し臨場感を持たせることが可能となる。
しかし、これらのシステムでの共通の問題として、人物以外の領域を相手に送信したくはないという点がある。カメラで撮像される全ての情報が相手側に送信される現在のシステムでは、相手に見せてもよい場所にシステムを設置するという限定が入ることになる。
そこで,人物(前景)と背景を分離し、背景部になんらかの加工を施すなどの方法が考えられる。
すなわち、カメラシステムにおいて撮像された動画像からユーザを始めとした動物体を含む前景領域を切り出し、かかる切り出した動物体に所定の処理を施すことにより、背景の特徴に左右されにくいロバストな画像処理が可能となる。また、背景を相手へ送りたくない場合には、前景と背景を分離し、前景のみを配信することで実現させる。
ここで、背景と前景を分離する方法としては、例えば、熱センサを利用し、人物領域を特定し、背景領域に加工処理を施す方法(例えば、特許文献1参照)、また、背景差分、フレーム間差分、ステレオ法により、移動領域を検出し、これを前景とする方法(例えば、特許文献2参照)、あるいは、距離範囲を指定し、その範囲内に収まる映像を出力する方法(例えば、特許文献3参照)などがある。
特開平9−200714号公報 特開2000−20722号公報 特開2000−200359号公報
しかしながら、熱センサを利用し、人物領域を特定し、背景領域に加工処理を施す特許文献1の方法では、熱センサは一般に高価であり、ビジュアルコミュニケーション装置に必要なカメラ以外のセンサをつける必要がある。また、背景差分、フレーム間差分、ステレオ法により、移動領域を検出し、これを前景とする特許文献2の方法では、背景差分のために予め人物が写っていない状態の画像を取得する必要があり、利便性の点で問題がある。また、距離範囲を指定し、その範囲内に収まる映像を出力する特許文献3の方法では、ステレオ法により距離計測を行う場合、入力シーンに繰り返しパターンやオクリュージョンが多い場合に、精度の良い距離計測を行うことが難しい。さらに、その他の技術として、撮像画像を領域分割する方法や、人物を認識する方法などがあるがロバスト性、精度の面で確立されていないのが現状である。
そこで、本発明の目的は、上述の如き従来の問題点に鑑み、複数台のカメラ映像を用いて、ステレオ法と背景を推定する方法を合わせ、画像の背景領域を分離する画像処理方法及び画像処理装置を提供することにある。
本発明の更に他の目的、本発明によって得られる具体的な利点は、以下に説明される実施の形態の説明から一層明らかにされる。
本発明に係る画像処理方法は、少なくとも2台のカメラにより互いに異なる視点から被写体を撮像して、互いに同期した入力画像を得て記憶手段に記憶する撮像ステップと、上記撮像ステップで上記記憶手段に記憶された互いに同期した入力画像について、上記記憶手段に記憶された互いに同期した入力画像について、背景領域は遠方にあり、平面であると仮定して、ある距離以降の領域を背景とし、解像度を低下させた状態で、画像全体の輝度誤差が最小となるようなシフト量を求める大局的シフト量算出処理により、大局的な画像合わせ込みを行ってから、上記記憶手段に記憶された互いに同期した入力画像について局所的なマッチングにより背景領域を推定する局所的類似度算出処理を行う背景領域推定ステップと、上記背景領域推定ステップで推定した背景領域以外の点について、ステレオ法により距離計測を行って距離画像を作成する距離画像作成ステップと、上記距離画像作成ステップで作成した距離画像を参照して、所定の距離以上の領域の画像を入力画像から除去して背景分離画像を作成する背景分離画像作成ステップとを有することを特徴とする。
本発明に係る画像処理方法において、上記背景領域推定ステップでは、例えば、局所的類似度算出処理による背景領域の推定に用いる背景テンプレートを随時更新・追加する。
本発明に係る画像処理装置は、少なくとも2台のカメラにより互いに異なる視点から被写体を撮像して得られた互いに同期した入力画像を記憶する記憶手段と、上記記憶手段に記憶された互いに同期した入力画像について、背景領域は遠方にあり、平面であると仮定して、大局的な画像合わせ込みを行ってから、局所的類似度による背景領域を推定する背景領域推定処理部と、上記記憶手段に記憶された互いに同期した入力画像について、背景領域は遠方にあり、平面であると仮定して、ある距離以降の領域を背景とし、解像度を低下させた状態で、画像全体の輝度誤差が最小となるようなシフト量を求める大局的シフト量算出処理により、大局的な画像合わせ込みを行ってから、上記記憶手段に記憶された互いに同期した入力画像について局所的なマッチングにより背景領域を推定する局所的類似度算出処理を行う背景領域推定処理部と、上記背景領域推定処理部で推定した背景領域以外の点について、ステレオ法により距離計測を行って距離画像を作成する距離画像作成処理部と、上記距離画像作成処理部で作成した距離画像を参照して、所定の距離以上の領域の画像を入力画像から除去して背景分離画像を作成する背景分離画像作成処理部とを備えることを特徴とする。
本発明に係る画像処理装置において、上記背景領域推定処理部では、例えば、局所的類似度算出処理による背景領域の推定に用いる背景テンプレートを随時更新・追加する。
本発明では、入力画像に対し、大局的、及び局所的な背景推定を行うことで、より高精度な距離画像の生成が可能となり、前景・背景分離が可能となる。画像全体の合わせこみを使用し、大まかな背景領域を推定することにより、繰り返しパターンやオクルージョンの多いシーンに対しても、ロバストな結果を得ることができる。また、背景テンプレートスタックを随時、更新・追加することで時間経過による環境変化にロバストとなる。
以下、本発明の実施の形態について、図面を参照して詳細に説明する。なお、本発明は以下の例に限定されるものではなく、本発明の要旨を逸脱しない範囲で、任意に変更可能であることは言うまでもない。
本発明は、例えば図1に示すような構成のビジュアルコミュニケーション装置10に適用される。
このビジュアルコミュニケーション装置10は、複数台のカメラを用い、得られた複数枚の画像を用い、背景領域を推定し、またステレオ法による距離計測を利用することで、背景と前景を分離する機能を有するものであって、基準カメラ1、検出カメラ2、フレームメモリ3、背景領域推定処理部4、距離画像作成処理部5及び背景分離画像作成処理部6を備えている。
このビジュアルコミュニケーション装置10で用いる複数台のカメラは予めキャリブレーションが行なわれているものとする。カメラ台数は2台以上であればよいが、ここでは2台のカメラ(基準カメラ1及び検出カメラ2)として以下の説明を行なう。キャリブレーションとは、基準カメラ1の点mとそれに対応する検出カメラ2の点m’を求め、距離計測を行うためのカメラ間の拘束条件を算出するものである。
このビジュアルコミュニケーション装置10では、基準カメラ1と検出カメラ2で同時に撮像されたカラー画像はフレームメモリ3に蓄積され、背景領域推定処理部4で背景領域を推定する。続いて距離画像作成処理部5において、背景領域推定処理部4で推定した背景領域以外の点について、後述するステレオ法により距離計測を行い、背景分離画像作成処理部6で最終的な背景領域を決定し、必要に応じて加工し、背景分離画像を出力する。
ここで、一般的なカメラキャリブレーション及び距離計測方法について説明する。
ここでは、画像上の点m=[u,v]、空間中の点M=[x,y,z]をとし,各点の斎次座標系での記述をm=[u,v,1],M=[x,y,z,1]とする。空間中の点Mと画像上の点mの関係は次の式(1)で与えられる。
sm=A・[R t]・M
=P・M ・・・(1)
ここで、sはスケール因子であり、行列[R t]は外部パラメータと呼ばれるもので、カメラの空間内での位置を表し、R,tはそれぞれ回転、並進行列を表す。行列Aはカメラの内部パラメータと呼ばれるもので、次の式(2)で与えられる。
Figure 0004670303
ここで(u0,v0)は画像中心を表し、α=−f/ku,β=−f・kv/sinθは、それぞれ、u軸,v軸のスケール因子、γ=f・ku・cosθは2つの軸のねじれをあらわす。また、行列P=A・[R t]は空間内の点を画像面に投影する3×4の投影行列とする。以上の説明では、レンズ歪みによる影響を考慮せず、理想的な条件のもとでの変換を示してきたが、実際には歪みによる影響を無視することはできないため、カメラパラメータとしてレンズ歪みも加えるものとする。歪み座標の点m=[ud,vd]と点m=[u,v]の関係は次の式(3)で表すことができる。
u=ud+(ud−cu)・k・rd
v=vd+(vd−cv)・k・rd ・・・(3)
但し、rd=(ud−cu)+(vd−cv)svであり、(cu,cv)は歪み中心を表し、svはアスペクト比を表す。
続いて、ステレオ法における距離計測方法について説明する。
図2に示すように基準カメラ1、検出カメラ2への投影行列をそれぞれP,P’とし、それぞれの画像上の点をm,m’とする。但し、それぞれの画像上の点は、式(3)によりひずみの影響は除去されているものとする。点Mまでの距離を測定する場合、基準画像上の点mに対応する検出画像上の点m’を検出する必要がある。点m’は図2に示すようにエピポーララインと呼ばれる直線l上に位置するため、点mに対応する検出画像上の点を検出するためには、この直線上の探索を行えばよいことになる。エピポーララインはカメラ中心と点mを結ぶ直線上の点を検出カメラ2上へ投影した点の集合となっている。例えば、空間内Z方向の計測範囲をZ0−Znとした場合、エピポーララインは、各距離に対応した点M,Mを投影した点m’,m’を結ぶ直線となる。実際の探索では、距離Ziに位置する点を検出画像上に投影し、基準画像上の点との類似度を測り、画像間の点の対応を決定する。
基準カメラ1上の点mへ投影される距離Ziの点Miを検出画像上の点m’へ投影する手順を以下に示す。
式(1)から点mを通る視線上の点は,次の式(4)でかける。
=sP・m+P ・・・(4)
ここでPはPの擬似逆行列であり、次の式(5)で定義される。
=P(PP−1 ・・・(5)
また、Pは次の式(6)を満たすベクトルとなり、常に原点に射影されるため実際には光学中心を示し、次の(6)式により計算できる。但し、ωは任意の4次元ベクトルである。
P・p=0
=(I−PP)ω ・・・(6)
式(4)は,光学中心及び基準画像上の点mを通る全ての点を表しているが、距離をZiとすることでスケール因子を決定することができ,空間内の点Miを決定することができる。この点を投影行列P’により投影すれば,検出画像上の点mi’を算出することが可能となる。
以上のことから、空間内の点の距離を求めるためには、各カメラのカメラパラメータA,R,t,A’,R’,t’をそれぞれ個々に求めるか、または投影行列P,P’を直接算出し、さらに各カメラの歪みパラメータκ1,cu1,cv1,sv1,κ2,cu2,cv2,sv2を算出すればよいことになり、これらのパラメータを算出することがカメラキャリブレーションとなる。
このビジュアルコミュニケーション装置10における背景,前景分離処理の流れを図3に示す。
すなわち、このビジュアルコミュニケーション装置10では、まず、基準カメラ1と検出カメラ2で互いに異なる視点から被写体を撮像して互いに同期した入力カラー画像を取得する(ステップS1)。取得した入力画像は、フレームメモリ3に記憶する。
続いて、フレームメモリ3に記憶した各入力画像について、背景領域推定処理部4において、前述したキャリブレーションパラメータにより、レンズ歪みの影響を除去し、さらに画像正規化を行う(ステップS2)。
すなわち、入力画像は、レンズの歪みの影響を受けているため、式(3)を用い、歪みの影響を除去する。また、画像正規化とは図4に示すように2台のカメラ1,2により互いに異なる視点c1,c2から被写体を撮像して得られた画像I,Iをあたかも平行カメラ(左右カメラの光軸が平行なカメラ)で撮像した画像I’,I’に変換するものである。これにより、もともと平行でないエピポーララインは平行化され、かつ各光学中心(視点c1,c2)を結ぶ直線と平行となる。キャリブレーションパラメータとして、投影行列P,P’が求まっている場合、例えば次の参考文献に開示されている方法で、図4に示す変換行列TH1,TH2を求めることができる。算出したTH1,TH2を用いて、入力画像を変換し、基準カメラ画像Ib,検出カメラ画像Idを作成する。
〔参考文献:Andrea Fusiello, Emanuele Trucco and Alessandro Verri:尿 compact algorithm for rectification of stereo pairs Machine Vision and Applications(2000) 12 : pp.16-22〕
すなわち、左右のカメラの投影行列P,P’から変換行列の算出を行う。
実際には、Pを求めた際に使用した左カメラのXYZ座標系のX軸を各カメラの光学中心c1,c2を結ぶ直線と平行となるようにし、かつY’軸をc1,c2を結ぶ直線(X’軸)とZ軸とからなる平面に垂直なものとなるようにP,P’を修正し、修正した投影行列P,P’から変換行列を算出する。
以下にP,P’を算出する手順について説明し、更に得られたP,P’及びP,P’から変換行列TH1,TH2を算出する手順について説明する。
(i)光学中心の算出
投影行列P,P’を次の式(7)で記述すると、各光学中心c1=[xc1,yc1,zc1],c2=[xc2,yc2,zc2]は、次の式(8)で得られる。
Figure 0004670303
c1=−Q−1
c2=−Q’−1q’ ・・・(8)
(ii)X’,Y’,Z’軸の算出
先述したようにX’軸は光学中心を結ぶベクトルであることから、X’軸のベクトルをv1=[x1,y1,z1]とすると、X’軸のベクトルv1は、次の式(9)で得られる。
v1=(c1−c2) ・・・(9)
また、Y’軸のベクトルv2=[x2,y2,z2]は、先述したようにX’軸とZ軸に垂直なベクトルであることから、投影行列Pを次の式(10)で表すと、v2=r∧v1とかける。
Figure 0004670303
さらに、Z’軸のベクトルv3=[x3,y3,z3]は、X’軸,Y’軸に垂直なベクトルとして、次の式(11)で表される。
v3=v1∧v2 ・・・(11)
(iii)投影行列P,P’の算出
投影行列P,P’は、次の式(12)で記述する。
=A・[R
’=A・[R’] ・・・(12)
新規投影行列では、内部パラメータ及び外部パラメータの回転成分は同一のものとなるため、投影行列P,P’を算出するためには、A,R,t,t’を算出すればよいことになる。内部パラメータAは投影行列P,P’の内部パラメータを用いて次の式(13)で算出する。
Figure 0004670303
また、外部パラメータRは上述の如き手順で算出したX’Y’Z’軸のベクトルをv1,v2,v3を用いて次の式(14)で算出する。
Figure 0004670303
また、外部パラメータt,t’は,式(7)からRと光学中心c1,c2を用いて次の式(15)で算出する。
=−Rc1
’=−Rc2 ・・・(15)
以上のA,R,t,t’の算出により,式(12)から投影行列P,P’が算出可能となる。
(iv)変換行列TH1,TH2の算出
ここでは、投影行列P,P’,P,P’を用いて変換行列TH1,TH2を算出する方法について述べる。
撮像画像の点m=[u,v,1]を正規化された画像上の点m [u,v,1]とすると、空間内の点m=[x,y,z,1]と点mと点m の関係は次の式(16)で記述できる。
=PM =[Q|−Qc1]M
=P=[Q|−Qc1]M ・・・(16)
これから点mと点m を通る直線は、次の式(17)で表される。
=sQ−1+c1
=s −1 +c1 ・・・(17)
したがって、点mと点m の関係は、次の式(18)で記述できる。
=λQ−1 ・・・(18)
変換行列は撮像画像上の点mを正規化された画像上の点mに射影する行列であるため、Q−1が変換行列となる。つまり、変換行列TH1,TH2は次の式(19)により算出される。
TH1=Q−1
TH2=Q’Q’−1 ・・・(19)
続いて、背景領域推定処理部4において、背景領域マスクRbbg(u,v),Rdbg(u,v)を算出する(ステップS3)。
ここでは、背景領域は、遠方でありかつ、平面に近いと仮定する。実際の背景領域マスクRbbg(u,v),Rdbg(u,v)の算出処理の流れを図5に示す。背景領域マスクRbbg(u,v),Rdbg(u,v)では、背景部を「1」、その他を「0」とする。
例えば図6のような入力画像Ib(u,v)Id(u,v)の場合、背景領域に繰り返しパターンなどが多く、またオクルージョン領域も大きいため、通常の局所的なエリアベースのマッチング方法では、精度のよい対応点決めを行うことができない。そこで、まず大局的な画像合わせこみ手法を用い、背景領域の推定を行う。
ここで、上記背景領域処理部は、図7に機能構成図を示すように、大局的シフト量算出部41、背景画素推定部42及び更新処理部43からなる。
そして、ステップS3の処理では、図5に示すように、先ず最初のステップS3−1の処理において、フレームメモリFM1に格納されている左右の入力画像Ib(u,v),Id(u,v)に対し、次の式(20)に示すように画像全体の輝度誤差が最小となるようなシフト量bg_shiftを求める大局的シフト量算出処理を大局的シフト量算出部41で行い、求めたシフト量bg_shiftをメモリM1に格納する。
Figure 0004670303
但し、ここでは背景領域は遠方にあるとし、0≦bg_shift<SHIFT_THRESHとする。SHIFT_THRESHは、前景と背景の分離境界に応じて適応的に決定される閾値であり、これはある距離以降の領域を見せたくない、すなわち、背景とすることにより決まる。また、背景を平面と仮定して行うため、入力画像Ib(u,v),Id(u,v)の解像度を低下させ、式(20)によりシフト量bg_shiftを算出する。ステップS2の処理により入力画像Ib(u,v),Id(u,v)は正規化されているため、ここで求めるのはu軸方向のシフト量のみでよいことになる。
画像合わせこみの例を図8に示し、ステップS3−1の大局的シフト量算出処理の具体的な流れを図9に示す。
すなわち、ステップS3−1の大局的シフト量算出処理では、先ず、shift=0,E_min=MAXとする初期設定を行い(ステップS3−1A)、さらに、E_g=0,i=0、すなわち、変数E_g,iを「0」にリセットする(ステップS3−1B)。
つぎに、E_g+=|Ib(ui,vi)−Id(ui−shift,vi)|すなわち、入力画像Ib(u,v),Id(u,v)について、Ib(ui,vi)とId(ui−shift,vi)の差分の絶対値和を求め(ステップS3−1C)、変数iをインクリメントして(ステップS3−1D)、インクリメントした変数iが画像サイズよりも大きくなったか否かを判定する(ステップS3−1E)。
このステップS3−1Eにおける判定結果がNOである場合には、上記ステップS3−1Bに戻って、ステップS3−1BからステップS3−1Eの処理を繰り返し行い、このステップS3−1Eにおける判定結果がYESになると、Ib(ui,vi)とId(ui−shift,vi)の差分の絶対値和を示す変数E_gが変数E_minよりも小さいか否かを判定する(ステップS3−1F)。
このステップS3−1Fにおける判定結果がYESである場合には、変数E_minを上記絶対値和を示す変数E_gの値とするとともに、シフト量bg_shiftを変数shiftの値として(ステップS3−1G)から、変数shiftをインクリメントする(ステップS3−1H)。また、このステップS3−1Fにおける判定結果がNOである場合には、直ちに変数shiftをインクリメントする(ステップS3−1H)。
そして、ステップS3−1Hにおいてインクリメントした変数shiftが閾値SHIFT_THRESHよりも大きいか否かを判定する(ステップS3−1I)。
このステップS3−1Iにおける判定結果がNOである場合には、上記ステップS3−1Bに戻って、インクリメントした変数shiftが閾値SHIFT_THRESHよりも大きくなるまで、ステップS3−1BからステップS3−1Iの処理を繰り返し行い、このステップS3−1Iにおける判定結果がYESになると、大局的シフト量算出処理を終了する。
次に、処理ステップS3−2の処理では、ステップS3−1の大局的シフト量算出処理において求めたシフト量bg_shiftを用いて、フレームメモリFM1に格納されている左右の入力画像Ib(u,v),Id(u,v)について背景画素推定部42で局所的なマッチングを行う。具体的には図10に示すようにNxMのWindowサイズ内の輝度誤差E_lを算出し、E_l<THRESH_Lの場合に画像Ib,Idの点(ui,vi),(ui−bg_shift,vi)を背景領域とする。つまり、Rbbg(ui,vi)=1,Rdbg(ui−bg_shift,vi)=1とする。そして、局所的なマッチングにより推定した背景領域を背景領域マスクRbbg,RdbgとしてフレームメモリFM2及びメモリM2に格納する。このステップS3−2の処理の具体的な流れを図11に示す。
すなわち、処理ステップS3−2の処理では、まず、i=0,Rbbg≦all0,Rdbg≦all0に初期設定して(ステップS3−2A)、j=0,E_l=0すなわち、変数j,E_lを「0」にリセットする(ステップS3−2B)。
つぎに、E_l+=|Ib(uij,vij)−Id(uij−bg_shift,vij)|、すなわち、入力画像Ib(u,v),Id(u,v)について、輝度誤差E_lとしてIb(uij,vij)−Id(uij−bg_shift,vij)の差分の絶対値和を求め(ステップS3−2C)、変数jをインクリメントして(ステップS3−2D)、インクリメントした変数jがNxMのWindowサイズよりも大きくなったか否かを判定する(ステップS3−2E)。
このステップS3−2Eにおける判定結果がNOである場合には、上記ステップS3−2Bに戻って、ステップS3−2BからステップS3−2Eの処理を繰り返し行い、このステップS3−2Eにおける判定結果がYESになると、求めたNxMのWindowサイズ内の輝度誤差E_lが閾値THRESH_Lよりも小さいか否かを判定する(ステップS3−2F)。
このステップS3−2Fにおける判定結果がYESである場合には、Rbbg(ui,vi)=1,Rdbg(ui−bg_shift,vi)=1すなわち画像Ib,Idの点(ui,vi),(ui−bg_shift,vi)を背景領域としてから(ステップS3−2G)、変数iをインクリメントする(ステップS3−2H)。また、このステップS3−2Fにおける判定結果がNOである場合には、直ちに変数iをインクリメントする(ステップS3−2H)。
そして、ステップS3−2Hにおいてインクリメントした変数iが画像サイズよりも大きいか否かを判定する(ステップS3−2I)。
このステップS3−2Iにおける判定結果がNOである場合には、上記ステップS3−2Bに戻って、インクリメントした変数iが画像サイズよりも大きくなるまで、ステップS3−2BからステップS3−2Iの処理を繰り返し行い、このステップS3−2Iにおける判定結果がYESになると、局所的類似度算出処理を終了する。
次に、ステップS3−3の処理では、背景テンプレートスタックbgBufb,bgBufdとの比較を行う。背景テンプレートスタックbgBufb,bgBufdは、時刻T−1までにフレームで背景とされた点の周辺領域(MxN)を切り出した局所画像のスタックであり、MxNサイズの輝度情報及びその中心座標(ui,vi)を持つ。bgBufbにスタックされた各テンプレートと基準カメラ1の画像Ib(ui,vi)とのマッチングを行い、輝度誤差E_Tを算出し、E_T<THRESH_Tの場合、点(ui,vi)は背景領域として、Rbbg(ui,vi)=1とする。検出カメラ2の画像Idに対しても背景テンプレートスタックbgBufdを用い、同様の処理を行い、背景領域マスクRdbg(u,v)を作成する。基準カメラ1に対するステップS3−3の処理の概要図を図12に示し、処理の具体的な流れを図13に示す。
すなわち、処理ステップS3−3の処理では、まず、i=0に初期設定して(ステップS3−3A)、j=0すなわち変数jを「0」にリセットする(ステップS3−3B)。
つぎに、E_T=Σ|Ibj−bgBufb[i]|、すなわち、入力画像Ib(u,v),Id(u,v)について、輝度誤差E_TとしてIbj−bgBufb[i]の差分の絶対値和を求め(ステップS3−3C)、求めた輝度誤差E_Tが閾値E_T<THRESH_T縒りも小さいか否かを判定する(ステップS3−3D)。
このステップS3−3Dにおける判定結果がYESの場合はRbbg(ui,vi)すなわち点(ui,vi)を背景領域としてから(ステップS3−3E)、変数jをインクリメントして(ステップS3−3F)、インクリメントした変数jが画像サイズよりも大きくなったか否かを判定する(ステップS3−3G)。
このステップS3−3Gにおける判定結果がNOである場合には、上記ステップS3−3Cに戻って、ステップS3−3BからステップS3−3Gの処理を繰り返し行い、このステップS3−3Gにおける判定結果がYESになると、変数iをインクリメントする(ステップS3−3H)。また、上記ステップS3−3Dにおける判定結果がNOである場合には、直ちに変数iをインクリメントする(ステップS3−3H)。
そして、ステップS3−3Hにおいてインクリメントした変数iがスタックサイズよりも大きいか否かを判定する(ステップS3−3I)。
このステップS3−3Iにおける判定結果がNOである場合には、上記ステップS3−3Bに戻って、インクリメントした変数iがスタックサイズよりも大きくなるまで、ステップS3−3BからステップS3−3Iの処理を繰り返し行い、このステップS3−3Iにおける判定結果がYESになると、テンプレートとの比較処理を終了する。
続いて、ステップS3−4の処理において、上述した処理で作成した背景領域マスクRbbg(u,v),Rdbg(u,v)を用い、更新処理部43で背景テンプレートスタックの更新を行う。具体的には、背景領域マスクの値が1、つまり背景と推定された点(ui,vi)の周辺MxN画素の領域Rnを切り取り、背景テンプレートスタックを参照する。既に、点(ui,vi)の背景テンプレートが存在する場合は、既存のテンプレートと新規テンプレートRnの平均をとる。逆に存在しない場合は、新規テンプレートをスタックする。図14に基準カメラ1に対する更新処理の具体的な流れを示す。
すなわち、処理ステップS3−4の処理では、まず、i=0,j=0に初期設定する(ステップS3−4A)。
次に、val=Rbbg(ui,vi)すなわち変数valをRbbg(ui,vi)の値として(ステップS3−4B)、変数valの値が「1」であるか否かを判定する(ステップS3−4C)。
このステップS3−4Cにおける判定結果がYESである場合にはbgBufb[j]の座標(bfuj,bfvj)を参照して(ステップS3−4D)、座標(bfuj,bfvj)が点(uj,vj)に一致するか否かを判定する(ステップS3−4E)。
このステップS3−4Eにおける判定結果がYESである場合にはbgBufb[j]のテンプレートを更新してから(ステップS3−4F)、変数jをインクリメントする(ステップS3−4G)。また、上記ステップS3−4Eにおける判定結果がNOである場合には、直ちに変数iをインクリメントする(ステップS3−4G)。
次に、上記ステップS3−4Gにおいてインクリメントした変数jがスタックサイズよりも大きくなったか否かを判定する(ステップS3−4H)。
このステップS3−3Hにおける判定結果がNOである場合には、上記ステップS3−3Dに戻って、ステップS3−4DからステップS3−2Hの処理を繰り返し行い、このステップS3−4Hにおける判定結果がYESになると、bgBufbに点(uj,vj)のテンプレートを追加して(ステップS3−4I)、変数iをインクリメントする(ステップS3−4J)。また、上記ステップS3−4Cにおける判定結果がNOである場合には、直ちに変数iをインクリメントする(ステップS3−4J)。
そして、ステップS3−4Jにおいてインクリメントした変数iが画像サイズよりも大きいか否かを判定する(ステップS3−4K)。
このステップS3−4Kにおける判定結果がNOである場合には、上記ステップS3−4Bに戻って、インクリメントした変数iが画像サイズよりも大きくなるまで、ステップS3−4BからステップS3−4Kの処理を繰り返し行い、このステップS3−4Kにおける判定結果がYESになると、背景テンプレートの更新処理を終了する。
次に、以上のステップS3の処理により作成した背景領域マスクRbbg(u,v),Rdbg(u,v)を用い、距離画像作成処理部5において距離情報の算出を行う(ステップS4)。
ここで、ステップS4の処理では、ステップS3の処理で作成した背景領域マスクRbbg(u,v),Rdbg(u,v)の情報を基に距離画像Db(u,v),Dd(u,v)を作成する。ここでの距離画像の値は、上記ステップS2の処理で入力画像Ib(u,v)Id(u,v)が正規化されていることから、u方向のシフト量とする。つまり、基準カメラ画像Ib(u,v)上の点Ib(ui,vi)に対応する点が検出画像Id(u,v)上の点Id(ui−shift,vi)とした場合、Db(ui,vi)=shiftとする。対応点の探索方法は様々な方法があるが、基準画像Ib(u,v)上の各点(ui,vi)に対し、その周辺領域MxNと検出画像Id(u,v)上の点(ui−shift,vi)の周辺領域MxNの輝度誤差が最小となる点を探索することで行う。この時、図15に示すように、背景領域マスク情報を利用し、背景領域(背景領域マスクが1)とされる点を探索時に除外することで、通常の入力画像全体に対するエリアベースのマッチングよりも、精度のよいマッチングが行えることとなる。
そして、背景分離画像作成処理部6において、上記ステップS4の処理で作成した距離画像Db(u,v),Dd(u,v)を参照し、閾値以下の距離を持つ点(ui,vi)を入力画像Ib(u,v),Id(u,v)から除去し、背景分離画像Ib’(u,v),Id’(u,v)を作成し(ステップS5)、作成した背景分離画像Ib’(u,v),Id’(u,v)を出力する(ステップS6)。ここでの閾値処理は、ある距離以上のものを背景とするものである。
以上の処理で作成された背景分離画像Ib’(u,v),Id’(u,v)は、入力画像Ib(u,v),Id(u,v)に対し、大局的及び局所的な背景推定を行い、その後距離画像を生成し、分離することで、入力画像(u,v)Id(u,v)全体に対し距離画像を生成し、分離する方法よりも高精度な背景分離が可能となる。また、背景テンプレートスタックを随時、更新,追加することで時間経過による環境変化にロバストとなる。さらに、画像全体の合わせこみを使用し、大まかな背景領域を推定することにより、繰り返しパターンやオクルージョンの多いシーンに対しても、ロバストな結果を得ることができる。
本発明を適用したビジュアルコミュニケーション装置の構成を示すブロック図である。 ステレオ法における距離計測方法の説明に供する図である。 上記ビジュアルコミュニケーション装置における背景,前景分離処理の流れを示すフローチャートである。 上記背景,前景分離処理におけるステップS2の処理で実行される画像正規化の処理の説明に供する図である。 上記背景,前景分離処理におけるステップS3の処理で実行される背景領域マスクの算出処理の流れを示すフローチャートである。 入力画像の例を示す図である。 上記ビジュアルコミュニケーション装置における背景推定処理部の機能構成図である。 画像合わせこみの例を示す図である。 上記背景領域マスクの算出処理におけるステップS3−1の大局的シフト量算出処理の流れをフローチャートである。 上記背景領域マスクの算出処理におけるステップS3−2の局所的類似度算出処理の概要を示す図である。 上記背景領域マスクの算出処理におけるステップS3−2の局所的類似度算出処理の流れを示すフローチャートである。 上記背景領域マスクの算出処理におけるステップS3−3の背景テンプレートスタックとの比較処理の概要を示す図である。 上記背景領域マスクの算出処理におけるステップS3−3の背景テンプレートスタックとの比較処理の流れを示すフローチャートである。 上記背景領域マスクの算出処理におけるステップS3−4の背景テンプレート更新処理の流れを示すフローチャートである。 入力画像と背景領域マスクと示す図である。
符号の説明
1 基準カメラ、2 検出カメラ、3 フレームメモリ、4 背景領域推定処理部、5 距離画像作成処理部、6 背景分離画像作成処理部、10 ビジュアルコミュニケーション装置、41 大局的シフト量算出部、42 背景画素推定部、43 更新処理部、FM1,FM2 フレームメモリ、M1,M2 メモリ

Claims (4)

  1. 少なくとも2台のカメラにより互いに異なる視点から被写体を撮像して、互いに同期した入力画像を得て記憶手段に記憶する撮像ステップと、
    上記撮像ステップで上記記憶手段に記憶された互いに同期した入力画像について、上記記憶手段に記憶された互いに同期した入力画像について、背景領域は遠方にあり、平面であると仮定して、ある距離以降の領域を背景とし、解像度を低下させた状態で、画像全体の輝度誤差が最小となるようなシフト量を求める大局的シフト量算出処理により、大局的な画像合わせ込みを行ってから、上記記憶手段に記憶された互いに同期した入力画像について局所的なマッチングにより背景領域を推定する局所的類似度算出処理を行う背景領域推定ステップと、
    上記背景領域推定ステップで推定した背景領域以外の点について、ステレオ法により距離計測を行って距離画像を作成する距離画像作成ステップと、
    上記距離画像作成ステップで作成した距離画像を参照して、所定の距離以上の領域の画像を入力画像から除去して背景分離画像を作成する背景分離画像作成ステップと
    を有することを特徴とする画像処理方法。
  2. 上記背景領域推定ステップにおいて、局所的類似度算出処理による背景領域の推定に用いる背景テンプレートを随時更新・追加することを特徴とする請求項1記載の画像処理方法。
  3. 少なくとも2台のカメラにより互いに異なる視点から被写体を撮像して得られた互いに同期した入力画像を記憶する記憶手段と、
    上記記憶手段に記憶された互いに同期した入力画像について、背景領域は遠方にあり、平面であると仮定して、ある距離以降の領域を背景とし、解像度を低下させた状態で、画像全体の輝度誤差が最小となるようなシフト量を求める大局的シフト量算出処理により、大局的な画像合わせ込みを行ってから、上記記憶手段に記憶された互いに同期した入力画像について局所的なマッチングにより背景領域を推定する局所的類似度算出処理を行う背景領域推定処理部と、
    上記背景領域推定処理部で推定した背景領域以外の点について、ステレオ法により距離計測を行って距離画像を作成する距離画像作成処理部と、
    上記距離画像作成処理部で作成した距離画像を参照して、所定の距離以上の領域の画像を入力画像から除去して背景分離画像を作成する背景分離画像作成処理部と
    を備えることを特徴とする画像処理装置。
  4. 上記背景領域推定処理部では、局所的類似度算出処理による背景領域の推定に用いる背景テンプレートを随時更新・追加することを特徴とする請求項3記載の画像処理装置。
JP2004294241A 2004-10-06 2004-10-06 画像処理方法及び画像処理装置 Expired - Fee Related JP4670303B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004294241A JP4670303B2 (ja) 2004-10-06 2004-10-06 画像処理方法及び画像処理装置
US11/240,555 US7965885B2 (en) 2004-10-06 2005-10-03 Image processing method and image processing device for separating the background area of an image
CNB200510108440XA CN100364319C (zh) 2004-10-06 2005-10-08 图像处理方法和图像处理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004294241A JP4670303B2 (ja) 2004-10-06 2004-10-06 画像処理方法及び画像処理装置

Publications (2)

Publication Number Publication Date
JP2006109172A JP2006109172A (ja) 2006-04-20
JP4670303B2 true JP4670303B2 (ja) 2011-04-13

Family

ID=36125124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004294241A Expired - Fee Related JP4670303B2 (ja) 2004-10-06 2004-10-06 画像処理方法及び画像処理装置

Country Status (3)

Country Link
US (1) US7965885B2 (ja)
JP (1) JP4670303B2 (ja)
CN (1) CN100364319C (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5050691B2 (ja) * 2007-07-05 2012-10-17 ソニー株式会社 画像処理装置、画像処理方法およびコンピュータプログラム
JP2009110137A (ja) * 2007-10-29 2009-05-21 Ricoh Co Ltd 画像処理装置、画像処理方法及び画像処理プログラム
DE102008039051A1 (de) * 2008-08-21 2010-02-25 Audi Ag Verfahren zum Gewinnen von Bildern bei Mehrfachempfang
JP4702569B2 (ja) * 2008-09-30 2011-06-15 マツダ株式会社 車両用画像処理装置
GB2469342A (en) * 2009-04-09 2010-10-13 Sony Comp Entertainment Europe A system and method of image transmission using stereographic images
US20110019243A1 (en) * 2009-07-21 2011-01-27 Constant Jr Henry J Stereoscopic form reader
JP2011095797A (ja) * 2009-10-27 2011-05-12 Sony Corp 画像処理装置、画像処理方法及びプログラム
US9628722B2 (en) 2010-03-30 2017-04-18 Personify, Inc. Systems and methods for embedding a foreground video into a background feed based on a control input
KR20110116525A (ko) * 2010-04-19 2011-10-26 엘지전자 주식회사 3d 오브젝트를 제공하는 영상표시장치, 그 시스템 및 그 동작 제어방법
US8649592B2 (en) 2010-08-30 2014-02-11 University Of Illinois At Urbana-Champaign System for background subtraction with 3D camera
JP5330341B2 (ja) * 2010-08-31 2013-10-30 本田技研工業株式会社 車載カメラを用いた測距装置
JP5263989B2 (ja) * 2010-10-22 2013-08-14 Necシステムテクノロジー株式会社 画像配信システムおよび画像配信方法と画像配信プログラム
CN104427291B (zh) * 2013-08-19 2018-09-28 华为技术有限公司 一种图像处理方法及设备
US9414016B2 (en) * 2013-12-31 2016-08-09 Personify, Inc. System and methods for persona identification using combined probability maps
US9485433B2 (en) 2013-12-31 2016-11-01 Personify, Inc. Systems and methods for iterative adjustment of video-capture settings based on identified persona
US9916668B2 (en) 2015-05-19 2018-03-13 Personify, Inc. Methods and systems for identifying background in video data using geometric primitives
US9563962B2 (en) 2015-05-19 2017-02-07 Personify, Inc. Methods and systems for assigning pixels distance-cost values using a flood fill technique
US9607397B2 (en) 2015-09-01 2017-03-28 Personify, Inc. Methods and systems for generating a user-hair-color model
WO2017056776A1 (ja) * 2015-09-29 2017-04-06 富士フイルム株式会社 距離画像取得装置付きプロジェクタ装置及びプロジェクション方法
US10262222B2 (en) 2016-04-13 2019-04-16 Sick Inc. Method and system for measuring dimensions of a target object
US9883155B2 (en) 2016-06-14 2018-01-30 Personify, Inc. Methods and systems for combining foreground video and background video using chromatic matching
US9881207B1 (en) 2016-10-25 2018-01-30 Personify, Inc. Methods and systems for real-time user extraction using deep learning networks
JP7385385B2 (ja) * 2019-07-19 2023-11-22 株式会社ソニー・インタラクティブエンタテインメント 画像配信システムおよび画像配信方法
US11800056B2 (en) 2021-02-11 2023-10-24 Logitech Europe S.A. Smart webcam system
US11800048B2 (en) 2021-02-24 2023-10-24 Logitech Europe S.A. Image generating system with background replacement or modification capabilities
CN113111883B (zh) * 2021-03-23 2023-06-06 浙江大华技术股份有限公司 车牌检测方法、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003304562A (ja) * 2002-04-10 2003-10-24 Victor Co Of Japan Ltd オブジェクト符号化方法、オブジェクト符号化装置、及びオブジェクト符号化用プログラム
US6661918B1 (en) * 1998-12-04 2003-12-09 Interval Research Corporation Background estimation and segmentation based on range and color
JP2004206320A (ja) * 2002-12-25 2004-07-22 Matsushita Electric Ind Co Ltd 画像認識装置および方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6236748B1 (en) * 1994-08-02 2001-05-22 Canon Kabushiki Kaisha Compound eye image pickup device utilizing plural image sensors and plural lenses
JPH09200714A (ja) 1996-01-17 1997-07-31 Casio Comput Co Ltd テレビ電話付き画像処理装置
US5903660A (en) * 1997-07-16 1999-05-11 The Regents Of The University Of California Automatic background recognition and removal (ABRR) in projection digital radiographic images (PDRI)
US6532022B1 (en) * 1997-10-15 2003-03-11 Electric Planet, Inc. Method and apparatus for model-based compositing
JP3134845B2 (ja) 1998-07-03 2001-02-13 日本電気株式会社 動画像中の物体抽出装置及び方法
US20020051491A1 (en) * 1998-11-20 2002-05-02 Kiran Challapali Extraction of foreground information for video conference
JP2000200359A (ja) 1999-01-05 2000-07-18 Olympus Optical Co Ltd 画像処理装置及び画像処理方法及び画像処理プログラムを記録した記録媒体
JP3918141B2 (ja) * 1999-08-18 2007-05-23 富士フイルム株式会社 画像処理装置及び画像処理方法
US6556704B1 (en) * 1999-08-25 2003-04-29 Eastman Kodak Company Method for forming a depth image from digital image data
JP2001346226A (ja) * 2000-06-02 2001-12-14 Canon Inc 画像処理装置、立体写真プリントシステム、画像処理方法、立体写真プリント方法、及び処理プログラムを記録した媒体
JP4501239B2 (ja) * 2000-07-13 2010-07-14 ソニー株式会社 カメラ・キャリブレーション装置及び方法、並びに、記憶媒体
US7177483B2 (en) * 2002-08-29 2007-02-13 Palo Alto Research Center Incorporated. System and method for enhancement of document images
JP4216021B2 (ja) * 2002-08-30 2009-01-28 富士重工業株式会社 侵入物検出装置
JP4231320B2 (ja) * 2003-03-31 2009-02-25 本田技研工業株式会社 移動体の検出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6661918B1 (en) * 1998-12-04 2003-12-09 Interval Research Corporation Background estimation and segmentation based on range and color
JP2003304562A (ja) * 2002-04-10 2003-10-24 Victor Co Of Japan Ltd オブジェクト符号化方法、オブジェクト符号化装置、及びオブジェクト符号化用プログラム
JP2004206320A (ja) * 2002-12-25 2004-07-22 Matsushita Electric Ind Co Ltd 画像認識装置および方法

Also Published As

Publication number Publication date
CN100364319C (zh) 2008-01-23
JP2006109172A (ja) 2006-04-20
US7965885B2 (en) 2011-06-21
CN1758720A (zh) 2006-04-12
US20060072022A1 (en) 2006-04-06

Similar Documents

Publication Publication Date Title
JP4670303B2 (ja) 画像処理方法及び画像処理装置
WO2020007320A1 (zh) 多视角图像的融合方法、装置、计算机设备和存储介质
CN109690620B (zh) 三维模型生成装置以及三维模型生成方法
USRE47925E1 (en) Method and multi-camera portable device for producing stereo images
US20060120712A1 (en) Method and apparatus for processing image
WO2017054589A1 (zh) 一种多深度图融合方法及装置
CN106981078B (zh) 视线校正方法、装置、智能会议终端及存储介质
US20080158340A1 (en) Video chat apparatus and method
WO2020237565A1 (zh) 一种目标追踪方法、装置、可移动平台及存储介质
JP5068732B2 (ja) 3次元形状生成装置
JP7354767B2 (ja) 物体追跡装置および物体追跡方法
JP2017117244A (ja) カメラの撮影画像に映る人物を検出する画像解析装置、プログラム及び方法
JP4872396B2 (ja) 画像編集装置、画像編集方法および画像編集プログラム
JP2006226965A (ja) 画像処理装置、コンピュータプログラム、及び画像処理方法
CN111402345B (zh) 基于多目全景图像的模型生成方法及装置
JPH05303629A (ja) 形状合成方法
JP2018201146A (ja) 画像補正装置、画像補正方法、注目点認識装置、注目点認識方法及び異常検知システム
WO2018179119A1 (ja) 映像解析装置、映像解析方法および記録媒体
US10748397B2 (en) Monitoring system
JP2011002292A (ja) 三次元指先位置検出方法、三次元指先位置検出装置、およびプログラム
EP2866446B1 (en) Method and multi-camera portable device for producing stereo images
CN109313808B (zh) 图像处理***
KR20190055632A (ko) 모션 정보를 이용한 객체 복원 장치 및 이를 이용한 객체 복원 방법
JP4743601B2 (ja) 動画像処理装置
JP2001023055A (ja) 火炎検出装置および火炎検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110103

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees