JP4194025B2 - 照明不変の客体追跡方法及びこれを用いた映像編集装置 - Google Patents

照明不変の客体追跡方法及びこれを用いた映像編集装置 Download PDF

Info

Publication number
JP4194025B2
JP4194025B2 JP2002321741A JP2002321741A JP4194025B2 JP 4194025 B2 JP4194025 B2 JP 4194025B2 JP 2002321741 A JP2002321741 A JP 2002321741A JP 2002321741 A JP2002321741 A JP 2002321741A JP 4194025 B2 JP4194025 B2 JP 4194025B2
Authority
JP
Japan
Prior art keywords
color
unit
image
modeling
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002321741A
Other languages
English (en)
Other versions
JP2003203240A (ja
Inventor
泰 均 金
仁 明 趙
宗 河 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2003203240A publication Critical patent/JP2003203240A/ja
Application granted granted Critical
Publication of JP4194025B2 publication Critical patent/JP4194025B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Processing Of Color Television Signals (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は客体追跡方法に係り、特に、照明不変の客体追跡方法及びこれを用いたビデオ映像編集装置に関する。
【0002】
【従来の技術】
近年、ほとんどの情報の流通及び流れにマルチメディア的な要素が使われている。このために、デジタルカメラ、画像通信用カメラなどのように、カメラを通じて取得されたビデオ画面を処理するための装置及びソフトウェアが出始めつつある。
【0003】
カメラを通じて取得されたビデオ映像を編集するビデオ映像編集システムは、画面で特定人物の顔や製品をモザイク処理する等、様々な映像編集機能を行う。このうち、モザイク機能は、全体画面や固定位置に対して行われることもあれば、本出願人により取得された大韓民国特許公報に記載の「リアルタイム映像モザイクシステム」(特許文献1参照)のように、映像の動きに従いモザイク機能をリアルタイムにて行うこともある。
【0004】
一般に、カメラにより撮影された映像は、ほとんど輝度が一様でない所で獲得される。特に、野外撮影の場合、次から次へと変化する自然光の輝度またはスペクトルの変化によって撮影された映像の輝度またはカラーが一様にならない。従って、この場合、輝度またはカラーの変化を考慮しないままモザイク処理を施せば、輝度の変化によって相異なる値を有する映像のピクセル値の変化によりモザイク処理が不正確に行われることがある。このような問題を解決するために、最近、客体の形状情報に基づく追跡アルゴリズムを用いて該当客体をモザイク処理する方法が提案されている。しかし、この方法は、複雑度が高くて高性能の演算装置及びメモリを必要とし、リアルタイム処理が困難であるといった問題をもっている。
【0005】
【特許文献1】
大韓民国特許登録番号第10−170698号明細書
【0006】
【発明が解決しようとする課題】
本発明が解決しようとする技術的課題は、照明変化に関係なく映像の所望の領域を信頼性良く追跡し、これをリアルタイムにて編集できる映像編集装置を提供するところにある。
【0007】
【課題を解決するための手段】
前記課題を達成するために、本発明に係る照明不変の客体追跡方法は、(a)映像で追跡しようとする客体の初期位置を指定する段階と、(b)前記映像の隣接したピクセルのカラー比を考慮したカラーモデリングを行う段階と、(c)前記カラーモデリングの結果に応答して客体追跡のための確率マップを生成する段階と、(d)前記初期の位置及び前記確率マップに基づき前記客体の現在の位置を追跡する段階とを含むことを特徴とする。
【0008】
前記課題を達成するために、本発明に係る照明不変の追跡技術を用いた映像編集方法は、(a)編集しようとする映像を受け入れる段階と、(b)前記映像で隣接ピクセルのカラー比を考慮して前記客体を追跡する段階と、(c)前記追跡された客体の位置、大きさ及び境界線情報に応答して所定の領域に属する映像を変換して出力する映像編集段階とを含むことを特徴とする。
【0009】
前記客体追跡方法は、これを実行する手段としてコンピュータを機能させるためのプログラムの形態で提供可能である。また、当該プログラムは、コンピュータで読取り可能な記録媒体で流通させることができると共に、電気通信媒体を通じて送信することも可能である。
【0010】
前記課題を達成するために、本発明に係る照明不変の客体追跡装置は、映像で追跡しようとする客体の初期位置を指定する初期位置指定部と、前記客体及び前記全映像の隣接したピクセルのカラー比を考慮したカラーモデリングを行うカラーモデリング部と、前記カラーモデリング結果に応答して、前記客体の追跡のための確率マップを構成する確率マップ構成部と、前記初期位置及び前記確率マップに応答して前記客体の現位置を追跡する客体追跡部とを備えることを特徴とする。
【0011】
前記課題を達成するために、本発明に係る照明不変の追跡技術を用いた映像編集装置は、編集しようとする映像を受け入れるデータ入力手段と、前記映像で隣接ピクセルのカラー比を考慮して前記客体を追跡する客体追跡手段と、前記追跡された客体の位置、大きさ及び境界線情報に応答して所定の領域に属する映像を変換して出力する映像編集手段とを備えることを特徴とする。
【0012】
【発明の実施の形態】
以下、添付した図面に基づき、本発明の望ましい実施の形態について詳細に説明する。
【0013】
図1は、本発明の望ましい実施の形態による照明不変の客体追跡方法及びこれを用いた映像編集方法を説明するフローチャートである。図1を参照すれば、先ず、本発明に係る映像編集方法は、映像信号が入力されれば(第100段階)、映像の隣接ピクセルのカラー比を用いた客体追跡(第200段階)を行った後、追跡された客体を編集して(第300段階)ディスプレーする(第400段階)。
【0014】
カメラにより撮影された映像は輝度が一様でない所で獲得される場合がほとんどであるため、映像の輝度が一様でない場合が頻繁に起こる。これは、編集しようとする客体の追跡に誤りを生じるため、本発明では、前記のように輝度の変化に影響されないように映像の隣接ピクセルのカラー比を用いた客体追跡を行う。
【0015】
映像処理分野において、照明不変の特徴を探そうとする多くの研究があった。そのうち、ブレイン・V.フント(Brain V. Funt),グラハム・D.フィンレイソン(Graham D. Finlayson)共著,「カラーコンスタント、カラーインデクシング(Color Constant Color Indexing)」,アイトリプリー・トランザクションズ・オン・パターン・アナリシス・アンド・マシン・インテリジェンス(IEEE Transactions on Pattern Analysis and Machine Intelligence)(アメリカ合衆国,インスティチュート・オブ・エレクトリカル・アンド・エレクトロニクス・エンジニアーズ・インコーポレイテッド(Institute of Electrical and Electronics Engineers, Inc.),1995年)には、隣接したピクセルのカラー比が空間的に一様でない照明にも変化しないということが開示されている。この論文では、照明が全体的にまたは空間的に変わるとしても、直ぐ隣りに隣接したピクセルの輝度はピクセルが属する表面の反射特徴にのみ依存するため、隣接したピクセルのカラー比が照明の変化に影響されないということを示している。
【0016】
図2の(a)ないし(d)は、隣接したピクセルの輝度比の変化を示す図面である。図2を参照すれば、(a)に示された映像のA及びB地点をつなぐ経路に位置した隣接ピクセルは、(b)に示された如き輝度値を有する。この輝度値は、照明が変化する場合、照明の変化に応じてその値が敏感に変わる。しかし、前記ブレイン・V.フント,グラハム・D.フィンレイソン共著論文によれば、前記映像の隣接ピクセル間の輝度またはカラー比は照明が変化しても、(c)に示されたように照明の変化に影響されず、映像がもっている特性をそのまま維持するということが分かる。
【0017】
本発明では、このような特性に基づき、下記のように照明不変の客体追跡を行う。図1を参照すれば、本発明に係る客体追跡方法は、まず、編集しようとする映像区間及び追跡しようとする客体の初期位置を指定する(第210段階)。次に、追跡しようとする客体に関するカラー情報をモデリングし(第220段階)、全映像に関するカラー情報をモデリングする(第225段階)。そして、第220段階及び第225段階で行われたカラー情報のモデリング結果及び第210段階で指定された位置情報を考慮して確率マップを構成し(第240段階)、構成された確率マップに基づきカルマンフィルタリングを行う(第260段階)。後述するように、カルマンフィルターは客体の動作を予測するフィルターであって、動きがある客体の追跡に主として使われる。本発明に係る客体追跡方法の各段階別動作の詳細は、次の通りである。
【0018】
図3は、図1に示された客体の初期位置指定方法(第210段階)を説明するフローチャートである。図3を参照すれば、まず、客体の初期位置が自動的に指定されるか、あるいはマニュアルで指定されるかを判別する(第2100段階)。判別の結果、客体の初期位置がマニュアルで指定される場合、ユーザはマウスで客体を含む境界ボックスを映像に指定することにより、追跡客体の位置をマニュアルで指定する(第2110段階)。そして、第2100段階における判別の結果、客体の初期位置が自動的に指定される場合、ユーザが所定のデータ貯蔵領域に予め生成しておいた客体データベース目録のうち編集しようとする客体の目録を指定すれば、前記データベースから該当客体のカラーヒストグラムを読み出し(第2120段階)、読み出されたヒストグラムを逆投射することにより客体の初期位置を自動的に指定する(第2130段階)。
【0019】
第2130段階で使われたカラーヒストグラムの逆投射アルゴリズムは、映像で客体を検出するのに邪魔となるカラーの影響、すなわち、客体以外の領域で現れたカラーの影響を減らし、対象客体のカラーが最も強く現れる位置を捜し出すのに使われる。これに対する具体的な方法は下記の通りである。
【0020】
図4は、図3に示された逆投射方法(第2130段階)を説明するフローチャートである。図4を参照すれば、カラーヒストグラムの逆投射方法は、Drを半径がrであるディスクであるとした時、まず、各ヒストグラムビンjに対して
Rj=min(Mj/Ij1)
を計算する(第2131段階)。ここで、Mjはヒストグラムビンjに対して以前のモデルのカラーヒストグラムを表わし、Ijはヒストグラムビンjに対して現映像のカラーヒストグラムを表わす。Rj値は、Mj値をIj値で割った値及び1のうち小さい方の値として定義される。
【0021】
次に、全ての位置(x,y)のカラーに該当するRを計算する(第2132段階)。これはbx、y=Rh(c(x,y))として表わされる。第2132段階で計算されたb値はディスクDrとコンボルーションされる(第2133段階)。
これは、 b = Dr
* bとして表わされ、この時、Drの値は
(x,y)=1 if √(x+y
0 otherwise
の値を有する。コンボルーションが行われれば、コンボルーション結果bが最大となる座標を探してこれを客体の初期位置として決める(第2134段階)。この時に決められる初期位置は
(x,y)=loc(max(x,y)b)
として表わされる。
【0022】
次に、図1に示された追跡客体に関するカラー情報モデリング方法(第220段階)を説明すれば、下記の通りである。
【0023】
図5は、図1に示された追跡客体に関するカラー情報モデリング方法(第220段階)を説明するフローチャートである。図5を参照すれば、まず、追跡客体の色相構成を分析し(第2211段階)、分析結果に基づき客体の色相が単色より構成されたか、それとも多色より構成されたかを判別する(第2212段階)。
【0024】
この時に使われる式は、下記式1の通りである。
【0025】
【数1】
Figure 0004194025
【0026】
ここで、Sは(i,j)組みの総数であり、uRは(i,j)組みに対する赤色(R)値の平均値を、uGは(i,j)組みに対する緑色(G)値の平均値を、uBは(i,j)組みに対する青色(B)値の平均値を各々表わす。そして、Thはスレショルド値であって、前式1の左辺値が右辺のスレショルド値より小さければ単色客体として判別し、それ以上であれば多色客体として判別する。
【0027】
判別の結果、客体が多色より構成されたと判別されれば、前記客体のカラー情報はR、G、Bの各チャンネルに対して隣接したピクセルの輝度比を軸とする3次元ヒストグラム
Figure 0004194025
として貯蔵される(第2213段階)。このようにして構成されたカラー比のヒストグラム
Figure 0004194025
を客体追跡に用いれば、照明の変化に影響されずに客体を追跡することができる。
【0028】
これに対し、追跡対象の客体が顔の如く単色より構成された場合には、カラー比が客体の主な特徴を表現できなくなる。従って、前記の如きカラー比のヒストグラム
Figure 0004194025
は単色より構成された客体の検出及び追跡に有効でない。従って、本発明では、単色客体に対しては映像の輝度による色相(Hue)、彩度(Saturation)の2次元ガウスモデリングを通じて照明不変の客体のカラーをモデリングして全客体のカラー確率を定義し(第2214段階)、定義された客体のカラー確率に基づき客体のカラーヒストグラムを構成する(第2215段階)。これに関する詳細は、下記の通りである。
【0029】
図6の(a)及び(b)は、照明の変化による皮膚色及び彩度の変化を各々示す図面である。ここで、皮膚は単一色相より構成された客体の一例を示す。図6の(a)及び(b)を参照すれば、HSIカラー空間で皮膚の色相は周辺の輝度とは独立的であり、彩度は輝度に対して線形的に低まる特性を有するということが分かる。このような特性は、皮膚のほかに一般的なカラーにも適用可能である。従って、前記特性に基づき、下記式2のように客体、例えば、皮膚のカラー確率を定義することができる。
【0030】
【数2】
Figure 0004194025
【0031】
ここで、
Figure 0004194025
は2次元ガウス関数を、nは客体のサイズを、そしてIは映像の平均輝度を各々表わす。このような客体のカラー確率が定義されれば、本発明では、これをヒストグラム
Figure 0004194025
の軸としてカラーヒストグラムを構成する。
【0032】
客体のカラー分布に基づき客体を有効に追跡するためには、前述の如き客体に関するカラー分布情報のほかにも、全映像のカラー分布情報も必要である。全映像のカラー分布情報をモデリングする方法は、下記の通りである。
【0033】
図7は、図1に示された全映像に関するカラー情報モデリング方法(第225段階)を説明するフローチャートである。図7を参照すれば、まず、全映像のカラー変化を測定し(第2221段階)、測定の結果に基づき照明が白色照明であるか、それともカラー照明であるかを判別する(第2222段階)。
【0034】
この時に使われる式は、下記式3の通りである。
【0035】
【数3】
Figure 0004194025
【0036】
ここで、Thはスレショルドであって、前式3の左辺の値が右辺のスレショルド値より小さければ白色照明として判別し、左辺の値が右辺のスレショルド値より大きいか同じであればカラー照明として判別する。この時、nは現フレームの映像を、mは以前のフレームの映像を各々意味する。
【0037】
第2222段階における判別の結果、照明がカラー照明として判別されれば、直前のフレームで探した客体の領域からカラー分布を新しく抽出してカラー情報を再びモデリングし、全映像に対するカラー分布をヒストグラムとして構成する適応的カラーモデリングを行う(第2230段階)。この時に使われるカラーモデリング方法は、図5でのそれと同一である。そして、照明が白色照明として判別されれば、カラー情報の再モデリング過程を経ず、図5において構成された客体ヒストグラムの軸と同じ軸に対して映像の全体カラー分布をヒストグラム
Figure 0004194025
として構成する(第2223段階)。
【0038】
すなわち、全映像のカラー変化の測定の結果、全映像の輝度が変わったり映像の一部の輝度が異なる白色照明が照らされたりする場合には以前に行われたカラー情報モデリングの結果(すなわち、図1の第220段階)がそのまま使われ、波長別に強度が異なるカラー照明が照らされる場合には第2230段階の如きカラー情報が適応的にモデリングされる。
【0039】
さらに図1を参照すれば、第240段階では、第210段階で指定された位置情報と、第220段階及び第225段階を経てモデリングされたカラー情報を考慮して確率マップを構成する。この時に構成される確率マップは、下記式4及び5の通りである。
【0040】
【数4】
Figure 0004194025
【0041】
【数5】
Figure 0004194025
【0042】
第260段階では、前式4及び5により構成された確率マップによりカルマンフィルタリングを行い、客体を追跡する。
【0043】
カルマンフィルターは、下記式6に基づき連続した映像で対象客体の位置及び大きさを追跡し続ける。
【0044】
【数6】
Figure 0004194025
【0045】
ここで、は客体の中心座標を意味し、C(i,j)は共分散行列を意味する。客体の中心座標及び共分散行列C(i,j)を構成する各々のパラメータは、
Figure 0004194025
の値を有する。
【0046】
第260段階のカルマンフィルタリング段階では、現在計算された客体の位置及び所定のデータ領域に貯蔵されている以前のデータの両方に基づき現在動いている客体の速度を予測し、下記式7の如き共分散行列を更新することにより、客体の急な動きや停止を信頼性良く追跡する。
【0047】
【数7】
Figure 0004194025
【0048】
このような一連の客体追跡方法により所定の客体が追跡されれば、追跡された客体にはモザイク処理などの編集機能が行われた後(第300段階)、ディスプレーされる(第400段階)。
【0049】
図8は、本発明の望ましい実施の形態による映像編集装置100のブロック図である。図8を参照すれば、本発明に係る映像編集装置100は、編集しようとする映像を受け入れるデータ入力ユニット10、前記映像で隣接ピクセルのカラー比を考慮して客体を追跡する客体追跡ユニット20、及び追跡された客体の位置、大きさ及び境界線情報に応答して所定の領域に属する映像を変換して出力する映像編集ユニット30を備える。
【0050】
データ入力ユニット10は、アナログ映像信号を受け入れるビデオカメラ11と、取得されたアナログ映像信号を連続的なデジタル映像信号に変換するA/Dコンバーター12とを備える。
【0051】
客体追跡ユニット20は、映像で追跡しようとする客体の初期位置を指定する初期位置指定部21、客体及び全映像の隣接したピクセルのカラー比を考慮したカラーモデリングを行うカラーモデリング部22、カラーモデリング結果に基づき客体追跡のための確率マップを構成する確率マップ構成部24、確率マップ構成部24の入力を選択するMUX 25、前記初期位置及び前記確率マップに応答して客体の現位置を追跡する客体追跡部26を備える。
【0052】
初期位置指定部21は、ユーザが指定した所定の位置を前記客体の初期位置として受け入れる第1の初期位置指定部211、前記客体の目録及び前記客体に対応するカラーモデリングデータを貯蔵する客体データベース212、及びユーザが指定した客体の目録に対応するカラーモデリングデータを客体データベース212から読み出し、読み出されたカラーモデリングデータを逆投射して前記客体の初期位置を自動的に指定する第2の初期位置指定部213を備える。第1の初期位置指定部211は、前述した初期位置のマニュアル指定機能を行い、第2の初期位置指定部213は、初期位置の自動指定機能を行う。
【0053】
前記カラーモデリング部22は、客体に関するカラー情報をモデリングする第1のカラーモデリング部221、全映像に関するカラー情報をモデリングする第2のカラーモデリング部222、及び映像の照明に関する変化を考慮して前記客体に関するカラー情報を適応的にモデリングする第3のカラーモデリング部223を備える。
【0054】
第1のカラーモデリング部221は、第1または第2の初期位置指定部211または213を通じて編集しようとする客体の初期位置がマニュアルまたは自動的に指定されれば、前記客体の初期領域からカラー情報を抽出し、客体を追跡するのにこれを使用する。第1のカラーモデリング部221は、該当客体が単色より構成されるか、それとも多色より構成されるかを判別し、該当客体が多色より構成された場合には前記客体の情報をR,G,Bの各チャンネルに対して隣接したピクセルのカラー比を軸とする3次元ヒストグラム
Figure 0004194025
として貯蔵する。このようなカラー比のヒストグラム
Figure 0004194025
を使用すれば、照明の変化に影響されずにカラー情報に基づき客体を認識することができる。
【0055】
しかしながら、対象客体が顔の如く単色より構成された客体である場合にはカラー比が客体の主な特徴を表現できないため、客体を検出、追跡する上で有効でない。従って、本発明では、単色より構成された客体に対しては映像の輝度による色相、彩度の2次元ガウスモデリングを通じて照明に強く客体のカラーをモデリングする。
【0056】
一般に、追跡、検出しようとする対象客体が高精度でないか、それとも回転が激しい場合には、形状情報よりカラー情報を用いた方が時間及び正確度の面で多くの利点を有する。しかし、放送用として製作されたビデオ信号は室内外の激しい照明の変化を含むため、一般的なR,G,Bのカラー空間で対象客体のカラーが激しく変化し、これは、客体の追跡、検出を困難にする。従って、本発明では、このように激しい照明の変化にも強く客体を追跡するために、カラー情報の抽出において、第1のカラーモデリング部221及び第3のカラーモデリング部223で行われた客体のカラーモデリング結果を同時に使用する。
【0057】
このために、第3のカラーモデリング部223は、全映像に対するカラー変化を測定し、測定の結果、映像がカラー照明下で取得されたと判別された場合、前記映像の以前のフレームで追跡された客体の領域に対するカラーモデリングを再び行い、全映像に対するカラー分布をヒストグラムとして構成する。そして、測定の結果、映像が白色照明下で取得されたと判別された場合、第1のカラーモデリング部221で行われた客体のカラーモデリング結果をそのまま使用する。
【0058】
客体のカラー分布に基づき客体を有効に追跡するためには、前述の如き客体に関するカラー分布情報のほかにも、全映像のカラー分布情報も必要である。このために、第2のカラーモデリング部222は、現映像の全体カラー分布を客体ヒストグラムの軸と同じ軸に対するヒストグラム
Figure 0004194025
として構成する。
【0059】
確率マップ構成部24は、第2のカラーモデリング部222で行われたカラーモデリング結果を受け入れ、選択された客体の位置と、第1または第3のカラーモデリング部221または223で行われたカラーモデリング結果をMUX 25を通じて受け入れる。この時に生成される確率マップは、前式4及び5の通りである。
【0060】
一方、客体データベース212は、第1のカラーモデリング部221で生成された照明不変のカラーヒストグラムを貯蔵するが、物体の色相構成に応じてカラー比のヒストグラムや照明によるガウスヒストグラムとして貯蔵する。客体データベース212に貯蔵された客体のカラー分布情報は、ユーザが関心客体を目録で指定すれば、第2の初期位置指定部213で客体の初期位置を自動的に検出するのに使われる。
【0061】
客体追跡部26は、メモリ261、速度予測部262及びカルマンフィルター263を備え、客体の現位置を追跡する。
【0062】
カルマンフィルター263は、確率マップ構成部24で生成された客体の確率マップCOLOR_MODEL及び客体の初期位置OBJ_POSITIONを受け入れ、前式6に基づき連続的な映像で関心客体の位置及び大きさを追跡し続ける。速度予測部262は、メモリ261を用いて以前の客体の位置を貯蔵しておき、現在計算された客体の位置及び以前のデータの両方に基づき現在動いている客体の速度を予測する。そして、前式7のようにカルマンフィルター263の共分散行列を更新することにより、客体の急な動きや停止を信頼性良く追跡する。
【0063】
前述の如き一連の客体追跡方法により所定の客体が追跡されれば、追跡された客体は映像編集ユニット30を通じてモザイク処理などの簡単な編集機能が自動的に行われる。映像編集ユニット30は、さらに様々な編集機能を与えるために、映像編集を行う映像編集部32、及び編集されたビデオ信号をアナログ信号に変換して出力するD/Aコンバーター33に加えて、境界線抽出部31をさらに備える。境界線抽出部31は、映像編集部32に接続されて追跡中の客体の境界線情報を与える。境界線抽出方法は、量子化したカラー映像及びモーション差映像の両方を用いて客体領域を2進化した映像として定義し、境界追跡アルゴリズムを適用して境界線を抽出する。
【0064】
本発明に係る映像編集ユニット30には、予め貯蔵しておいた編集機能リスト(図示せず)が備えられており、ユーザが特定の機能を選択すれば、その選択結果に応じて編集アルゴリズムが動作し、編集された結果がD/Aコンバーター33を通じてアナログの形に変換される。映像編集部32で行う編集アルゴリズムは、デジタル映像の各々の一枚に対し、関心客体の位置と大きさまたは境界線情報(または輪郭線情報)に基づき特定領域に特定の色を塗ったり、または特定フィルターを通過させて映像を変換する過程を含む。編集に使用可能なフィルターとしてモザイクフィルター、ブラリングフィルター、反転フィルターなどがある。
【0065】
前述した本発明に係る映像編集装置100を実際の映像に適用した場合、その結果は下記の通りである。
【0066】
図9は、様々な照明条件下にある合成モンドリアン映像を示す図面であり、図10は、様々な照明条件下で取得された実際の映像の例を示す図面である。
【0067】
まず、図9を参照すれば、図9の(a)は、空間的に一定であり、且つ、スペクトル的にも一定である照明下における合成モンドリアン映像を示し、図9の(b)は、空間的には一定であるものの、スペクトル的には一定ではない照明下における合成モンドリアン映像を示す。そして、図9の(c)は、空間的にも一定ではなく、且つ、スペクトル的にも一定ではない照明下における合成モンドリアン映像を示す。
【0068】
この場合、図9の(a)、(b)及び(c)の各々に対するR,G,B空間、オッポネントカラー空間、正規化したR,G空間、HSI空間、及びカラー比空間の比較結果は、下記表1ないし3の通りである。
【0069】
【表1】
Figure 0004194025
【0070】
【表2】
Figure 0004194025
【0071】
【表3】
Figure 0004194025
【0072】
表1ないし表3から明らかなように、カラー比空間を基準とする時、合成モンドリアン映像は照明の変化に関係なく全てのカラー空間に対して高い平均白分率のマッチング結果を示すということが分かる。これにより、本発明に係る客体追跡方法は、照明不変の特性を有するということが分かる。
【0073】
次に、図10を参照すれば、図10の(a)はある映像に対する他の映像の角度が捩じれて見えるスウェインモデル映像の場合を示し、図10の(b)は、類似の照明下で取得された2枚の映像を示す。そして、図10の(c)は、顕著に異なる照明下で取得された2枚の映像を示す。
【0074】
この場合、図10の(a)、(b)、(c)の各々に対するR,G,B空間、オッポネントカラー空間、正規化したR,G空間、HSI空間、及びカラー比空間の比較結果は、下記表4ないし表6の通りである。
【0075】
【表4】
Figure 0004194025
【0076】
【表5】
Figure 0004194025
【0077】
【表6】
Figure 0004194025
【0078】
表4から明らかなように、映像の角度が捩じれているスウェインモデル映像の場合にも、カラー比空間を基準とする時、全てのカラー空間に対して高い平均白分率のマッチング結果を示すということが分かる。のみならず、表5及び表6から明らかなように、カラー比空間を基準とする時、相異なる条件下にある映像は、照明が類似に変化しようが、または照明が大いに変化しようが、照明の変化に関係なく全てのカラー空間に対して高い平均白分率のマッチング結果を示すということが分かる。これにより、本発明に係る客体追跡方法は、照明不変の特性を有するということが分かる。
【0079】
図11は、様々な照明条件下で皮膚色データが収集される一例を示す図面である。図11には、映像が取得された位置と、取得された映像とが各々示されている。図11を参照すれば、同じ事務室の場合であっても、映像が取得される位置に応じて相異なる輝度を有する。この場合、本発明に使われるカラーモデリングを行うために、様々な位置で映像を取得して実験を行った。
【0080】
図12は、図11で収集された皮膚色データの一例を示す図面である。図12を参照すれば、図11に示された位置で取得された皮膚色データは、図12のグラフの通りである。
【0081】
図13は、図11で収集された映像の全体照明の変化を分析した結果を示す図面である。図13を参照すれば、図11のように収集された映像の全体照明の変化をHSIヒストグラムにて表わせる。
【0082】
例えば、取得されたビデオ映像で人の顔を追跡しようとする場合、図11ないし図13に示された方法により収集されて分析されたデータに基づき客体(人の顔)を追跡することができ、その追跡の結果は、下記の通りである。
【0083】
図14は、図11ないし図13に示された方法により取得された情報に基づき複数の顔を追跡した結果を示す図面であり、図15は、本発明に係る映像編集装置により特定の顔をモザイク処理した結果を示す図面である。
【0084】
図14及び図15を参照すれば、本発明に係る客体追跡方法によれば、様々な照明の変化にも拘わらず、一つまたは複数の特定客体に対する追跡が正確に行え、追跡された客体に対する編集(例えば、モザイク処理等)も正確に行えることが分かる。
【0085】
以上、本発明の実施の形態としてビデオデータに対する自動客体追跡及びこれを用いた編集について具体的に例示したが、その他にも放送用撮影装置を始めとして家庭用撮影装置に至るまであらゆる映像装置のための映像編集に適用でき、セキュリティシステム、画像チャット、通信等にも本発明を適用することができる。
【0086】
本発明はまた、コンピュータにて読取り可能な記録・伝送媒体によって流通する、コンピュータにて読取り可能なコード(プログラム)として具現可能である。コンピュータにて読取り可能な記録媒体はコンピュータシステムにより読み込まれるデータが貯蔵されるあらゆる種類の記録装置を備える。コンピュータにて読取り可能な記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピーディスク、光データ貯蔵装置などがあり、またキャリアウェーブ(例えば、インターネットを介して伝送)の形にて具現されるものも含む。また、コンピュータにて読取り可能な記録媒体はネットワークに接続されたコンピュータシステムに分散されて、分散方式によりコンピュータにて読取り可能なコードとして貯蔵されて実行できる。
【0087】
【発明の効果】
以上述べたように、本発明に係る照明不変の客体追跡方法及びこれを用いた映像編集装置によれば、リアルタイムまたは録画撮影中に映像編集処理が必要とされる領域が照明の変化が大きい環境下で撮影される場合、照明の変化に関係なく所望の領域を信頼性良く追跡及び編集することができる。よって、客体の追跡及び編集に際して高い正確性を有することができる。
【図面の簡単な説明】
【図1】本発明の望ましい実施の形態による照明不変の客体追跡方法及びこれを用いた映像編集方法を説明するフローチャートである。
【図2】(a)ないし(c)は、隣接したピクセルの輝度比の変化を示す図面である。
【図3】図1に示された客体の初期位置指定方法を説明するフローチャートである。
【図4】図3に示された逆投射方法を説明するフローチャートである。
【図5】図1に示された追跡客体に関するカラー情報モデリング方法を説明するフローチャートである。
【図6】(a)及び(b)は、照明の変化による皮膚色、彩度の変化を各々示す図面である。
【図7】図1に示された全映像に関するカラー情報モデリング方法を説明するフローチャートである。
【図8】本発明の望ましい実施の形態による映像編集装置のブロック図である。
【図9】(a)ないし(c)は、様々な照明条件下にある合成モンドリアン映像を示す図面である。
【図10】(a)ないし(c)は、様々な照明条件下で取得された実際映像の例を示す図面である。
【図11】様々な照明条件下で皮膚色データが収集される一例を示す図面である。
【図12】図11で収集された皮膚色データの一例を示す図面である。
【図13】図11で収集された映像の全体照明の変化を分析した結果を示す図面である。
【図14】図11ないし図13に示された方法により取得された情報に基づき複数の顔を追跡した結果を示す図面である。
【図15】本発明に係る映像編集装置により特定顔をモザイク処理した結果を示す図面である。<符号の説明>
10 データ入力ユニット
11 ビデオカメラ
12 A/Dコンバーター
20 客体追跡ユニット
21 初期位置指定部
22 カラーモデリング部
24 確率マップ構成部
25 MUX
26 客体追跡部
30 映像編集ユニット
31 境界線抽出部
32 映像編集部
33 D/Aコンバーター
100 映像編集装置

Claims (16)

  1. 映像で追跡しようとする客体の初期位置を指定する初期位置指定部と、
    前記客体及び前記全映像の隣接したピクセルのカラー比を考慮したカラーモデリングを行うカラーモデリング部と、
    前記カラーモデリング結果に応答して、前記客体の追跡のための確率マップを構成する確率マップ構成部と、
    前記初期位置及び前記確率マップに応答して前記客体の現位置を追跡する客体追跡部とを備え、
    前記初期位置指定部は、
    ユーザが指定した所定の位置を前記客体の初期位置として受け入れる第1の初期位置指定部と、
    前記客体の目録及び前記客体に対応するカラーモデリングデータを貯蔵する客体データベースと、
    ユーザが指定した客体の目録に対応するカラーモデリングデータを前記客体データベースから読み出し、読み出された前記カラーモデリングデータを逆投射して前記客体の初期位置を自動的に指定する第2の初期位置指定部と、
    前記カラーモデリング部は、
    前記客体に関するカラー情報をモデリングする第1のカラーモデリング部と、
    前記全映像に関するカラー情報をモデリングする第2のカラーモデリング部と、
    前記映像の照明に関する変化を考慮して前記客体に関するカラー情報を適応的にモデリングする第3のカラーモデリング部とを備えることを特徴とする客体追跡装置。
  2. 前記第1のカラーモデリング部は、前記客体の色相構成を分析し、前記客体が複数の色相より構成された場合、前記映像のカラーを構成する赤色(R)、緑色(G)、青色(B)の各チャンネルに対し、隣接したピクセルの輝度比を軸とする前記客体の3次元ヒストグラムを構成し、
    前記客体が単一色相より構成された場合、前記映像の色相、彩度に対する2次元ガウスモデリングを行い、客体のカラー確率を定義し、前記客体のカラーヒストグラムを構成することを特徴とする請求項1に記載の客体追跡装置。
  3. 前記第1のカラーモデリング部は、R,G,Bが前記映像のカラーを構成する赤色、緑色、青色データを各々意味し、Sは(i,j)組みの総数、uRは前記(i,j)組みに対する赤色(R)値の平均値、uGは前記(i,j)組みに対する緑色(G)値の平均値、uBは前記(i,j)組みに対する青色(B)値の平均値を各々意味する時、
    Figure 0004194025
    を計算し、前記計算結果が所定のスレショルド値より小さい場合に前記客体が単一色相より構成されたと判別し、前記計算された値が所定のスレショルド値より大きいか同じ場合に前記映像が複数の色相より構成されたと判別することを特徴とする請求項2に記載の客体追跡装置。
  4. 前記第3のカラーモデリング部は、前記全映像に対するカラー変化を測定し、前記測定の結果、前記映像がカラー照明下で取得されたと判別された場合、前記映像の以前のフレームで追跡された客体の領域に対するカラーモデリングを再び行い、前記全映像に対するカラー分布をヒストグラムとして構成することを特徴とする請求項1に記載の客体追跡装置。
  5. 前記第3のカラーモデリング部は、nが現フレームの映像を意味し、mが以前のフレームの映像を意味し、R,G,Bが前記映像のカラーを構成する赤色、緑色、青色データを各々意味する時、
    Figure 0004194025
    を計算し、前記計算結果が所定のスレショルド値より小さい場合に前記映像が白色照明下で取得されたと判別し、前記計算された値が所定のスレショルド値より大きいか同じ場合に前記映像がカラー照明下で取得されたと判別することを特徴とする請求項に記載の客体追跡装置。
  6. 前記確率マップ構成部で構成される前記確率マップは、前記客体のカラーモデリング結果が
    Figure 0004194025
    であり、前記全映像のカラーモデリング結果が
    Figure 0004194025
    である時、
    Figure 0004194025
    であることを特徴とする請求項1に記載の客体追跡装置。
  7. 前記客体追跡部は、
    前記客体の以前の位置を貯蔵するメモリと、
    前記初期の位置及び前記確率マップに基づき連続した映像のうち対象客体の現在の位置及び大きさを追跡するカルマンフィルタと、
    前記客体の前記以前の位置及び前記現在の位置に基づき前記カルマンフィルタの共分散行列を更新する速度予測部とを備えることを特徴とする請求項1に記載の客体追跡装置。
  8. 編集しようとする映像を受け入れるデータ入力手段と、
    前記映像で隣接ピクセルの輝度比を考慮して前記客体を追跡する客体追跡手段と、
    前記追跡された客体の位置、大きさ及び境界線情報に応答して所定の領域に属する映像を変換して出力する映像編集手段とを備え、
    前記客体追跡手段は、
    映像で追跡しようとする客体の初期位置を指定する初期位置指定部と、
    前記客体及び前記全映像の隣接したピクセルのカラー比を考慮したカラーモデリングを行うカラーモデリング部と、
    前記カラーモデリング結果に応答して、前記客体の追跡のための確率マップを構成する確率マップ構成部と、
    前記初期位置及び前記確率マップに応答して前記客体の現位置を追跡するカルマンフィルターとを備え、
    前記客体追跡手段は、前記客体の目録及び前記客体に対応するカラーモデリングデータを貯蔵するデータ貯蔵部を備え、
    前記カラーモデリング部は、
    前記客体に関するカラー情報をモデリングする第1のカラーモデリング部と、
    前記全映像に関するカラー情報をモデリングする第2のカラーモデリング部と、
    前記全映像に対するカラー変化を測定し、前記測定の結果、前記映像がカラー照明下で取得されたと判別された場合、前記映像の以前のフレームで追跡された客体の領域に対するカラーモデリングを再び行い、前記全映像に対するカラー分布をヒストグラムとして構成する第3のカラーモデリング部とを備えることを特徴とする映像編集装置。
  9. 前記初期位置指定部は、ユーザが指定した所定の位置を前記客体の初期位置として受け入れることを特徴とする請求項に記載の映像編集装置。
  10. 前記初期位置指定部は、ユーザが指定した客体目録に対応するカラーモデリングデータを前記データ貯蔵部から読み出し、読み出された前記カラーモデリングデータを逆投射して前記客体の初期位置を自動的に指定することを特徴とする請求項に記載の映像編集装置。
  11. 前記第1のカラーモデリング部は、前記客体の色相構成を分析し、前記客体が複数の色相より構成された場合、前記映像のカラーを構成する赤色(R)、緑色(G)、青色(B)の各チャンネルに対し、隣接したピクセルの輝度比を軸とする前記客体の3次元ヒストグラムを構成し、
    前記客体が単一色相より構成された場合、前記映像の色相、彩度に対する2次元ガウスモデリングを行い、客体のカラー確率を定義し、前記客体のカラーヒストグラムを構成することを特徴とする請求項に記載の映像編集装置。
  12. 前記第2のカラーモデリング部は、R,G,Bが前記映像のカラーを構成する赤色、緑色、青色データを各々意味し、Sは(i,j)組みの総数、uRは前記(i,j)組みに対する赤色(R)値の平均値、uGは前記(i,j)組みに対する緑色(G)値の平均値、uBは前記(i,j)組みに対する青色(B)値の平均値を各々意味する時、
    Figure 0004194025
    を計算し、前記計算結果が所定のスレショルド値より小さい場合に前記客体が単一色相より構成されたと判別し、前記計算された値が所定のスレショルド値より大きいか同じ場合に前記映像が複数の色相より構成されたと判別することを特徴とする請求項に記載の映像編集装置。
  13. 前記第3のカラーモデリング部は、nが現フレームの映像を意味し、mが以前のフレームの映像を意味し、R,G,Bが前記映像のカラーを構成する赤色、緑色、青色データを各々意味する時、
    Figure 0004194025
    を計算し、前記計算結果が所定のスレショルド値より小さい場合に前記映像が白色照明下で取得されたと判別し、前記計算された値が所定のスレショルド値より大きいか同じ場合に前記映像がカラー照明下で取得されたと判別することを特徴とする請求項に記載の映像編集装置。
  14. 前記確率マップ構成部で構成される前記確率マップは、前記客体のカラーモデリング結果が
    Figure 0004194025
    であり、前記全映像のカラーモデリング結果が
    Figure 0004194025
    である時
    Figure 0004194025
    であることを特徴とする請求項に記載の映像編集装置。
  15. 前記映像編集手段は、前記追跡手段を通じて追跡された前記客体の境界線情報を抽出する境界線抽出部と、
    前記抽出された境界線情報と、前記客体の位置及び大きさ情報を受け入れて前記客体に対して少なくとも一つ以上の映像フィルタリングを行う映像編集部とを備えることを特徴とする請求項に記載の映像編集装置。
  16. 前記映像編集部は、モザイクフィルター、ブラリングフィルター及び反転フィルターのうち少なくとも何れか一つのフィルターを備えることを特徴とする請求項15に記載の映像編集装置。
JP2002321741A 2001-11-05 2002-11-05 照明不変の客体追跡方法及びこれを用いた映像編集装置 Expired - Fee Related JP4194025B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR2001-68636 2001-11-05
KR10-2001-0068636A KR100421221B1 (ko) 2001-11-05 2001-11-05 조명에 강인한 객체 추적 방법 및 이를 응용한 영상 편집장치

Publications (2)

Publication Number Publication Date
JP2003203240A JP2003203240A (ja) 2003-07-18
JP4194025B2 true JP4194025B2 (ja) 2008-12-10

Family

ID=19715709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002321741A Expired - Fee Related JP4194025B2 (ja) 2001-11-05 2002-11-05 照明不変の客体追跡方法及びこれを用いた映像編集装置

Country Status (4)

Country Link
US (2) US7171023B2 (ja)
EP (1) EP1308896A3 (ja)
JP (1) JP4194025B2 (ja)
KR (1) KR100421221B1 (ja)

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004254298A (ja) * 2003-01-30 2004-09-09 Ricoh Co Ltd 画像処理装置、プログラム及び記憶媒体
JP2004348674A (ja) * 2003-05-26 2004-12-09 Noritsu Koki Co Ltd 領域検出方法及びその装置
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8682097B2 (en) * 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US7792970B2 (en) * 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US8363951B2 (en) 2007-03-05 2013-01-29 DigitalOptics Corporation Europe Limited Face recognition training method and apparatus
US7620218B2 (en) * 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US8553949B2 (en) * 2004-01-22 2013-10-08 DigitalOptics Corporation Europe Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US7565030B2 (en) 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US8989453B2 (en) * 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US7269292B2 (en) * 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US7471846B2 (en) * 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US9129381B2 (en) * 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7844076B2 (en) * 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US7362368B2 (en) * 2003-06-26 2008-04-22 Fotonation Vision Limited Perfecting the optics within a digital image acquisition device using face detection
US7792335B2 (en) 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
US8948468B2 (en) * 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US7616233B2 (en) * 2003-06-26 2009-11-10 Fotonation Vision Limited Perfecting of digital image capture parameters within acquisition devices using face detection
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US8330831B2 (en) * 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US8155397B2 (en) * 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US7440593B1 (en) * 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US8498452B2 (en) * 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US7564994B1 (en) 2004-01-22 2009-07-21 Fotonation Vision Limited Classification system for consumer digital images using automatic workflow and face detection and recognition
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
US8503800B2 (en) * 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US7315631B1 (en) * 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US7715597B2 (en) * 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition
US8488023B2 (en) * 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
WO2007024351A2 (en) * 2005-08-26 2007-03-01 Idt Corporation Region of interest tracking and integration into a video codec
US7813526B1 (en) * 2006-01-26 2010-10-12 Adobe Systems Incorporated Normalizing detected objects
US7706577B1 (en) 2006-01-26 2010-04-27 Adobe Systems Incorporated Exporting extracted faces
US7694885B1 (en) 2006-01-26 2010-04-13 Adobe Systems Incorporated Indicating a tag with visual data
US8259995B1 (en) 2006-01-26 2012-09-04 Adobe Systems Incorporated Designating a tag icon
US7813557B1 (en) 2006-01-26 2010-10-12 Adobe Systems Incorporated Tagging detected objects
US7636450B1 (en) * 2006-01-26 2009-12-22 Adobe Systems Incorporated Displaying detected objects to indicate grouping
US7716157B1 (en) 2006-01-26 2010-05-11 Adobe Systems Incorporated Searching images with extracted objects
US7978936B1 (en) 2006-01-26 2011-07-12 Adobe Systems Incorporated Indicating a correspondence between an image and an object
US7720258B1 (en) * 2006-01-26 2010-05-18 Adobe Systems Incorporated Structured comparison of objects from similar images
US7804983B2 (en) 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
EP2033142B1 (en) * 2006-06-12 2011-01-26 Tessera Technologies Ireland Limited Advances in extending the aam techniques from grayscale to color images
US7711157B2 (en) * 2006-08-01 2010-05-04 California Institute Of Technology Artificial intelligence systems for identifying objects
WO2008015586A2 (en) * 2006-08-02 2008-02-07 Fotonation Vision Limited Face recognition with combined pca-based datasets
US7403643B2 (en) * 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US7916897B2 (en) * 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
JP5448817B2 (ja) * 2006-08-25 2014-03-19 オーチス エレベータ カンパニー 目的階登録配車運転においてセキュリティ保護の追跡を匿名で行う乗客指標付けシステム
US20080056566A1 (en) * 2006-09-01 2008-03-06 Texas Instruments Incorporated Video processing
KR100822459B1 (ko) * 2006-10-10 2008-04-16 엠텍비젼 주식회사 움직임 인식 방법 및 그 장치
KR100777199B1 (ko) * 2006-12-14 2007-11-16 중앙대학교 산학협력단 이동 객체 추적 장치 및 그 방법
US8055067B2 (en) * 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
DE602008001607D1 (de) * 2007-02-28 2010-08-05 Fotonation Vision Ltd Trennung der direktionalen beleuchtungsvariabilität in der statistischen gesichtsmodellierung auf basis von texturraumzerlegungen
WO2008109622A1 (en) 2007-03-05 2008-09-12 Fotonation Vision Limited Face categorization and annotation of a mobile phone contact list
US8649604B2 (en) 2007-03-05 2014-02-11 DigitalOptics Corporation Europe Limited Face searching and detection in a digital image acquisition device
US7916971B2 (en) * 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
US7855737B2 (en) * 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
TWI357582B (en) * 2008-04-18 2012-02-01 Univ Nat Taiwan Image tracking system and method thereof
JP5157721B2 (ja) * 2008-07-29 2013-03-06 ソニー株式会社 画像データの分布モデル更新装置、画像処理装置、画像データの分布モデル更新方法およびプログラム
JP5547730B2 (ja) 2008-07-30 2014-07-16 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド 顔検知を用いた顔及び肌の自動美化
KR101341637B1 (ko) * 2008-08-29 2013-12-16 서울대학교산학협력단 물체 추적 장치 및 방법
KR101249737B1 (ko) * 2008-12-03 2013-04-03 한국전자통신연구원 움직이는 카메라 환경에서의 물체 추적 장치 및 그 방법
WO2010063463A2 (en) * 2008-12-05 2010-06-10 Fotonation Ireland Limited Face recognition using face tracker classifier data
CN102292745B (zh) * 2009-01-23 2015-08-12 日本电气株式会社 图像签名提取设备
US8340435B2 (en) * 2009-06-11 2012-12-25 California Institute Of Technology Method and system for object recognition search
US20120128209A1 (en) * 2009-06-30 2012-05-24 Shigetoshi Sakimura Image analysis device and image analysis program
US8379917B2 (en) * 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
TWI392366B (zh) * 2009-12-31 2013-04-01 Ind Tech Res Inst 全周鳥瞰影像距離介面產生方法與系統
JP2013031034A (ja) * 2011-07-29 2013-02-07 Sony Corp 画像編集プログラム、画像編集方法、画像編集装置、記録媒体
US10089327B2 (en) 2011-08-18 2018-10-02 Qualcomm Incorporated Smart camera for sharing pictures automatically
US20130201344A1 (en) * 2011-08-18 2013-08-08 Qualcomm Incorporated Smart camera for taking pictures automatically
KR101409810B1 (ko) * 2012-10-24 2014-06-24 계명대학교 산학협력단 파티클 필터를 이용한 움직임 카메라에서의 실시간 객체 추적 방법
JP6351240B2 (ja) * 2013-11-20 2018-07-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US9679212B2 (en) 2014-05-09 2017-06-13 Samsung Electronics Co., Ltd. Liveness testing methods and apparatuses and image processing methods and apparatuses
CN105844663B (zh) * 2016-03-21 2018-11-27 中国地质大学(武汉) 一种自适应orb目标跟踪方法
US10635116B2 (en) 2017-10-19 2020-04-28 Ford Global Technologies, Llc Video calibration with illumination invariant image
EP3534294B1 (en) * 2018-03-02 2023-09-06 Akademia Gorniczo-Hutnicza im. Stanislawa Staszica w Krakowie Computer implemented method for processing a frame sequence, digital frame processing device computer program product and monitoring system
CN110033478A (zh) * 2019-04-12 2019-07-19 北京影谱科技股份有限公司 基于深度对抗训练的视觉目标跟踪方法和装置
CN115908642A (zh) * 2021-09-30 2023-04-04 北京字跳网络技术有限公司 一种图像编辑方法及装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100248040B1 (ko) * 1992-09-17 2000-03-15 윤종용 목표물 예측방법
US5912980A (en) * 1995-07-13 1999-06-15 Hunke; H. Martin Target acquisition and tracking
KR0170698B1 (ko) 1995-10-28 1999-03-20 김광호 실시간 영상 모자이크 시스템
JPH10336506A (ja) * 1997-05-29 1998-12-18 Canon Inc 画像処理システム、追尾システム,追尾方法,記憶媒体
US6226388B1 (en) * 1999-01-05 2001-05-01 Sharp Labs Of America, Inc. Method and apparatus for object tracking for automatic controls in video devices
US6917692B1 (en) * 1999-05-25 2005-07-12 Thomson Licensing S.A. Kalman tracking of color objects
US6539099B1 (en) * 1999-08-30 2003-03-25 Electric Planet System and method for visual chat
KR100312427B1 (ko) * 1999-12-23 2001-11-03 오길록 비디오 영상에서 템플레이트와 칼만 필터를 이용한 이동물체 추적방법 및 장치
KR100372774B1 (ko) * 2000-10-27 2003-02-25 한국과학기술연구원 컬러정보를 사용한 영상 추적방법
US20020176001A1 (en) * 2001-05-11 2002-11-28 Miroslav Trajkovic Object tracking based on color distribution

Also Published As

Publication number Publication date
KR20030037776A (ko) 2003-05-16
US20030099376A1 (en) 2003-05-29
KR100421221B1 (ko) 2004-03-02
US7171023B2 (en) 2007-01-30
US20070003106A1 (en) 2007-01-04
US7346189B2 (en) 2008-03-18
JP2003203240A (ja) 2003-07-18
EP1308896A3 (en) 2005-10-19
EP1308896A2 (en) 2003-05-07

Similar Documents

Publication Publication Date Title
JP4194025B2 (ja) 照明不変の客体追跡方法及びこれを用いた映像編集装置
JP4251719B2 (ja) 複数人物が存在する場合の人間の顔のロバスト追跡システム
US9483709B2 (en) Visual saliency estimation for images and video
JP5432714B2 (ja) 構図解析方法、構図解析機能を備えた画像装置、構図解析プログラム及びコンピュータ読み取り可能な記録媒体
RU2680765C1 (ru) Автоматизированное определение и обрезка неоднозначного контура документа на изображении
JP3769487B2 (ja) 画像肌色検出における金髪画素除去方法
CN105404846B (zh) 一种图像处理方法及装置
KR100422709B1 (ko) 영상 의존적인 얼굴 영역 추출방법
CN103392185B (zh) 用于视频取证搜索的颜色相似性分类的方法和***
US20030095704A1 (en) Determination of an illuminant of digital color image by segmentation and filtering
US6766054B1 (en) Segmentation of an object from a background in digital photography
JPH10149449A (ja) 画像分割方法、画像識別方法、画像分割装置および画像識別装置
JP2002342758A (ja) 視覚認識システム
KR20220004454A (ko) 파노라마 영상에 의한 다양한 개체의 스마트 팜 생육 관리 시스템 및 방법
JP7291389B2 (ja) 対象識別方法、情報処理装置、情報処理プログラム、および照明装置
CN114449362A (zh) 视频封面的选取方法、装置、设备及存储介质
JP2721107B2 (ja) 映像特徴処理方法
Duchêne et al. Mixed illumination analysis in single image for interactive color grading
WO2012005242A1 (ja) 画像処理装置及び画像分割方法
Ismael Comparative study for different color spaces of image segmentation based on Prewitt edge detection technique
JP2002208013A (ja) 画像領域抽出装置及び画像領域抽出方法
Burger et al. Corner detection
Castrillón-Santana et al. People semantic description and re-identification from point cloud geometry
JP2003337945A (ja) 画像分類プログラム及び画像分類方法
JP2005253407A (ja) 画像解析システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050209

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20061107

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20061113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080325

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080623

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080826

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080918

R150 Certificate of patent or registration of utility model

Ref document number: 4194025

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121003

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131003

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees