JP2001229390A - ピクセル化されたイメージをセグメント化する方法および装置 - Google Patents

ピクセル化されたイメージをセグメント化する方法および装置

Info

Publication number
JP2001229390A
JP2001229390A JP2000393856A JP2000393856A JP2001229390A JP 2001229390 A JP2001229390 A JP 2001229390A JP 2000393856 A JP2000393856 A JP 2000393856A JP 2000393856 A JP2000393856 A JP 2000393856A JP 2001229390 A JP2001229390 A JP 2001229390A
Authority
JP
Japan
Prior art keywords
image
pixel
pixels
region
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000393856A
Other languages
English (en)
Other versions
JP3862140B2 (ja
Inventor
He Hongu Ki
へ ホング キ
S Nic Holliman
エス. ホリマン ニック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of JP2001229390A publication Critical patent/JP2001229390A/ja
Application granted granted Critical
Publication of JP3862140B2 publication Critical patent/JP3862140B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Circuits (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

(57)【要約】 【課題】 イメージまたはシーケンスのイメージの前面
領域および背景領域をセグメント化するロバストな技術
を提供する。 【解決手段】 画素化されたイメージをセグメント化す
る方法は、(a)第1の基準イメージから少なくとも1
つの第1領域を選択するステップと、(b)上記少なく
とも1つの第1領域に含まれる画素の値から、上記画素
のうちの第1の所定の割合の画素が、第1の閾値の第1
の側にある値を有するような第1の閾値を得るステップ
と、(c)上記イメージの各画素と非遮蔽背景のイメー
ジの対応する画素との差分として、差分イメージを形成
するステップと、(d)上記差分イメージ画素の値が上
記第1の閾値の上記第1の側にあり、且つ、第1の所定
の数よりも多くの数の近隣差分イメージ画素の値が上記
第1の閾値の上記第1の側にある場合、各差分イメージ
画素を、少なくとも1つの第1タイプの領域に割り当て
るステップと、を含む。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ピクセル化された
イメージを、少なくとも1つの前面領域および少なくと
も1つの背景領域へとセグメント化する方法および装置
に関する。このような技術は、ビデオ圧縮の分野におい
て、データ速度を低減させるためおよび/または前面領
域の圧縮品質の向上のために使用され得る。このような
技術はまた、セグメント化された背景を、別の背景イメ
ージまたは背景シーンの別のシーケンスと置き換えるこ
とにより、新たなイメージシーケンスを構成するために
使用され得る。さらに考え得るアプリケーションは、ビ
デオ通信、ビデオ会議、テレビ放送、インターネットマ
ルチメディアアプリケーション、MPEG−4アプリケ
ーション、顔検出アプリケーション、およびオブザーバ
トラッキングオートステレオスコピック3Dディスプレ
イ等のリアルタイムビデオトラッキングシステムを含
む。このような技術の具体的な用途は、マルチメディア
アプリケーション用の、デジタルビデオカメラおよび他
のデジタルイメージ撮像・記録装置である。このような
装置の一例は、Sharp(登録商標) Intern
et ViewCamである。
【0002】
【従来の技術】多くの公知のイメージ処理・解析アプリ
ケーションは、通常は一時的にアクティブである「前
面」オブジェクトと比較的静的な「背景」領域とを含む
イメージシーケンスに関与する。前面オブジェクトが移
動するおよび/または形を変えると、背景シーンの一部
が隠れるか、かつ/または、現れる。これらのアプリケ
ーションが、イメージを前面領域および背景領域へとセ
グメント化する能力を有するのは非常に有用である。
【0003】Sharp(登録商標) Corpora
tion Internet ViewCam VN−
EZ1は、マルチメディアアプリケーション用に製造さ
れたMPEG−4デジタルレコーダである。このレコー
ダにより、コンピュータユーザは、ホームページ、イン
ターネット放送、および電子メール通信等の自分のマル
チメディアアプリケーションに動画を取り込むことがで
きる。このレコーダは、MPEG−4デジタル動画圧縮
規格およびMicrosoft(登録商標)Advan
ced Streaming Formatを用いて、
サイズが小さく、したがってインターネット配信のため
により実用的な動画ファイルを形成する。ビデオデータ
は、約1時間の記録時間を提供するSmartMedi
TMメモリカードに記録される。
【0004】例えば、セグメント化が上手くいくと、前
面領域および背景領域に異なる圧縮技術を使用すること
ができる。そして、より高い圧縮比が達成され得、前面
領域において、改良された品質で、より長い記録時間が
可能になる。さらに、背景領域を他のシーンと置き換え
て、消費者をいっそう惹き付ける特殊効果を生成し得
る。
【0005】初期のシステムは、前面オブジェクトの背
後にある均一に着色されたスクリーンまたは明るく照明
されたバッキング(backing)等の、慎重に制御
された背景を用いることによりセグメント化を行った。
例えば、US5808682は、公知の色によって均一
に照明された特殊背景(special backgr
ound)から前面オブジェクトをセグメント化するデ
ータ圧縮システムを開示している。任意の色を使用し得
るが、青が最もよく用いられる。したがって、このタイ
プの着色されたバッキングは、しばしば、ブルーバッキ
ング(bluebacking)と呼ばれる。その後、
前面オブジェクトは、周知のクロマキー技術を用いてセ
グメント化され得る。
【0006】
【発明が解決しようとする課題】着色された大きなバッ
キング上において、均一な照明を実現するのは簡単な問
題ではない。US5424781は、線形イメージ構成
システム(linearimage composit
ion system)を開示している。このシステム
は、エッジグロー、エッジダークニング、エッジディテ
ールのロス、および他の異常等の損失を引き起こすこと
なく、非均一な輝度および/または着色されたバッキン
グの色を補正する。
【0007】白黒イメージについて、制御された背景を
用いて、前面オブジェクトおよび背景シーンを2つの異
なる範囲のグレースケールに分離しようとすることが公
知である。通常、グレイレベルのヒストグラム内に深い
谷を見つけることにより、セグメント化が達成され得
る。Nobuyuki Otsuの”A thresh
old selection method from
grey−levelhistograms”, I
EEE Trans. on Systems, Ma
n and Cybernetics, Vol. S
ME−9, No. 1, January 1979
pp. 62−66は、背景から前面オブジェクトを
セグメント化する最適な閾値を見つける方法を開示して
いる。添付の図面の図1は、このタイプのヒストグラム
を示す。図1において、h(t)は画素数を示し、tは
画素値の振幅を示す。制御された背景は、背景画素の大
部分が比較的低いレベルを有するのに対して、前面画素
がより高い範囲を占める傾向にあるレベルを有するよう
になっている。Otsuは、2つの範囲の間の谷に閾値
Tを規定することを試みる。
【0008】この技術にはいくつかの問題がある。例え
ば、図1は、明確に規定された谷が背景グレイレベル範
囲と前面グレイレベル範囲との間に存在することを示す
が、これは、極めて慎重に制御された背景についての場
合にのみ当てはまるものであり、いくつかの前面に当て
はまるが、決して全ての前面に当てはまるものではな
い。
【0009】この技術が非常に慎重に制御された条件に
限定されない場合、上記の問題はより深刻になる。特
に、全てのイメージがセグメント化されない多くの場合
について、かなりの数の前面画素が閾値を下回るレベル
を有し、かなりの数の背景画素が閾値を上回るレベルを
有する。したがって、選択された任意の閾値Tにより、
セグメント化は不正確になる。
【0010】イメージをセグメント化する他の技術が、
T Fugimotoらの”A method for
removing background regi
ons from moving images”,
SPIE vol. 1606 Visual com
munications and image pro
cessing 1991, imaging pro
cessing, pp. 599−606に開示され
ている。この技術は、照明強度の変動の影響を受けない
ようにするため、画素値のレベルおよび極性の両方を利
用する。
【0011】添付の図面の図2は、図1と同じ軸である
が、照明強度の変動の影響を示すヒストグラムである。
このような変動がない状態で、ヒストグラムに示した分
布は、縦軸を中心とした左右対称の傾斜を有する狭いピ
ークを有する。照明強度の変動が起こった場合、このピ
ークは水平方向にオフセットされる。Fugimoto
らの技術は、ガウス分布をピークの実際の位置に適合さ
せ、定関数で曲線の残りの部分(前面画素レベルを示す
とみなされる)をシミュレートすることにより、非対称
な正および負の閾値T1およびT2を導き出す。ガウス
分布と定関数との交差は、処理されるイメージについて
の閾値T1およびT2を与える。閾値の間の全ての画素
値がノイズを示すと仮定する。
【0012】この技術は、Otsuと同じ問題を生じ
る。照明強度の変動の影響は受けないかもしれないが、
現れそうな全てのイメージが正確にセグメント化される
ように閾値の選択を行うことが出来ない。
【0013】US5878163は、イメージングター
ゲットトラッカー、およびターゲットを背景から最適に
識別するために使用される閾値を決定する方法を開示し
ている。ターゲットは、ターゲットの内部領域および外
部領域にそれぞれ対応する2つのヒストグラムから識別
されるグレイレベル領域を占有するものとみなされてい
る。両方のヒストグラムは帰納的に平滑化されており、
その後、実際に観察された画素値からなるルックアップ
テーブルが計算される。2つの最適な閾値が選択され、
ヒストグラムセグメントの両端に設定される。尤度マッ
プは、経時的に、ターゲットの識別特性(signat
ure)に適合される。ターゲットのグレイレベル分布
を使用して、ターゲットに含まれる、尤度が高いグレイ
レベルのバンドを通過する閾値を選択する。このタイプ
のアプリケーションには、正確なセグメント化が必ずし
も必要でない。
【0014】これらの方法は、所望のアプリケーション
について、セグメント化の適切な結果を実現し得、通常
は計算上効率的であるが、強度または色のいずれかにつ
いてターゲットから区別し得る、慎重に制御された背景
を有するという要件は、利用可能なアプリケーションの
範囲を厳しく制限する。
【0015】したがって、さらに興味深い課題は、一般
的なシーンの背景から前面オブジェクトをどのようにセ
グメント化するかということである。これらの方法は、
しばしば、現在のフレームと所定のフレームとの差分を
特徴付ける差分イメージの計算を必要とする。所定のフ
レームは、背景または前のフレームのあらかじめ記録さ
れたイメージか、もしくは、多くの前のフレームから生
成されたイメージのいずれかであり得る。US5914
748は、異なる背景に対象を挿入する電子構成システ
ムを開示している。この方法は、シーケンスの各イメー
ジから、背景のあらかじめ記録されたイメージを取り去
って、異なるイメージを生成する。その後、この差分イ
メージを閾値化することにより、マスクイメージが生成
される。このマスクイメージを用いて、前面オブジェク
トをその背景からセグメント化する。この方法は、実行
するのが簡単だが、セグメント化された前面領域および
背景領域の両方において大きなアーチファクトを除去す
るために、ユーザによる手動補正を必要とし得る。
【0016】コンピュータでの実行の点では、前面領域
および背景領域のセグメント化は、画素単位のレベルま
たはブロック毎のレベルで実行され得る。ブロック毎の
セグメント化は、イメージをブロックに分割する。これ
らブロックの各々が、多くの画素を含んでおり、これら
の画素は全て、前面画素または背景画素のいずれかに分
類されている。ピクセル単位の方法およびブロック毎の
方法は、それぞれ利点および欠点を有する。例えば、ピ
クセル単位のセグメント化は、前面オブジェクトの境界
線をより綿密に追跡し得るが、良好な接続性を有し得
ず、よりノイズの影響を受けやすい。一方で、ブロック
毎の方法は、セグメント化された前面領域および背景領
域におけるアーチファクトの数がより少ないが、境界線
近傍の性能が劣り得る。場合によっては、アプリケーシ
ョンに依存した異なる結果を生じる異なる組み合わせ
で、これら2つのアプローチを組み合わせることができ
る。
【0017】データ圧縮システムにおいて、離散コサイ
ン変換等のブロック毎のコーディング方法およびその変
形例は、通常、データの方形ブロックに対して実行さ
れ、イメージを、所望の方形サブセグメントからなる一
時的にアクティブ/インアクティブな領域へとセグメン
ト化する。SauerおよびJonesの”Bayes
ian block−wise segmentati
on of interframe differen
ces in video sequences”,
CVGIP: Graphics and Image
Processing, Vol. 55, No.
2, March 1993, pp.129−13
9は、一時的に動的な領域および静的な領域の差分コー
ディングのために、ビデオシーケンスのイメージを、静
的な背景および動的な前面として選択されたブロックへ
とセグメント化する、ベイズのアルゴリズムを開示して
いる。このアプリケーションにおいて、一時的にアクテ
ィブな領域は「前面」として規定され、そうでない領域
は「背景」として規定され、前面オブジェクトの一部ま
たは全体が背景領域(これらの領域上では変化が起こら
ない)となり得る。この方法は、データを、2つのレベ
ルの解像度で、ランダムフィールドとしてモデリングす
る。各画素におけるフレーム間の差分が第1の閾値であ
り、バイナリイメージを生成する。イメージデータの自
然な空間的相関関係は、マルコフのランダムフィールド
モデルによって、標準的なイジングモデル(Ising
model)の形態のバイナリ値画素からなるこのフ
ィールド上に撮像される。第2のレベルの解像度におい
て、近接領域(neighbours)の間の相関関係
を示すブロックから構成されるフィールドは、また、マ
ルコフモデルによって説明される。
【0018】US5915044は、自動ゲイン制御を
実行するビデオカメラに関連するゲインを補正するビデ
オエンコーディングシステムを開示している。ゲイン補
正されたイメージを解析して、前面オブジェクトに対応
するブロックおよび背景シーンに対応するブロックを識
別する。この前面/背景セグメント化は、イメージのエ
ンコード方法を決定するために用いられ得、また、次の
ビデオイメージのゲイン制御補正の間にも使用され得
る。セグメント化解析は、画素レベルおよびブロックレ
ベルの両方のレベルで行われる。画素レベルにおいて、
現在のフレームと基準フレームとの間の画素差分は、変
化した画素を示す画素マスクを生成する閾値である。そ
の後、多くの前のフレームの平均値から基準フレームが
生成される。ブロックレベルは、画素レベルの結果を取
り出し、画素のブロックを前面または背景として分類す
る。これは、ブロック型圧縮スキームにとっては通常の
ことである。分類のための基準は、画素の著しい変化
は、前面オブジェクトにおいてしか起こらないはずであ
るという仮定である。閾値は、ゼロ平均ガウス分布型確
率変数モデリングに基づいて、変化した領域の最大尤度
推定値を考慮することにより生成される。ブロックレベ
ル処理を用いて各ブロックを前面または背景に属するも
のとして分類する前に、形態フィルタ(morphol
ogical filter)を使用して、間違った前
面検出を低減する。このアプリケーションは、前面オブ
ジェクトの検出が正確であることをさほど要求しない。
主要な目的は、一時的に変化する領域を静的な領域から
分離して、それらを別々にエンコードできるようにする
ことである。
【0019】一般に、これらの方法は、計算的に高価に
なる傾向にあり、Sharp(登録商標) Corpo
ration Internet ViewCam等
の、限られた計算能力および記憶装置を有する、リアル
タイムアプリケーションに適し得ない。これらの方法の
ロバストは制限され得、しばしば、手動のユーザ補正を
必要とする。画素単位の方法が、セグメント化された前
面および背景の両方にアーチファクトを残す傾向がある
のに対して、ブロック毎の方法は、でこぼこな境界線を
生成する傾向がある。
【0020】
【課題を解決するための手段】本発明の画素化されたイ
メージをセグメント化する方法は、(a)第1の基準イ
メージから少なくとも1つの第1領域を選択するステッ
プと、(b)該少なくとも1つの第1領域に含まれる画
素の値から、該画素のうちの第1の所定の割合の画素
が、第1の閾値の第1の側にある値を有するような第1
の閾値を得るステップと、(c)該イメージの各画素と
非遮蔽背景のイメージの対応する画素との差分として、
差分イメージを形成するステップと、(d)該差分イメ
ージ画素の値が該第1の閾値の該第1の側にあり、且
つ、第1の所定の数よりも多くの数の近隣差分イメージ
画素の値が該第1の閾値の該第1の側にある場合、各差
分イメージ画素を、少なくとも1つの第1タイプの領域
に割り当てるステップと、を含む。
【0021】前記第1の所定の割合が0.5〜1であっ
てもよい。
【0022】前記第1の所定の割合が0.75にほぼ等
しくてもよい。
【0023】前記第1の所定の数が、近隣差分イメージ
画素の数の半分にほぼ等しくてもよい。
【0024】前記少なくとも1つの第1領域および前記
少なくとも1つの第1タイプの領域の各々が、少なくと
も1つの背景領域を含み、前記第1の閾値の前記第1の
側が、該第1の閾値よりも小さくてもよい。
【0025】前記第1の基準イメージが、前記非遮蔽背
景の2つのイメージの間の差分を含み、該少なくとも1
つの第1領域が、該第1の基準イメージのほぼ全体を含
んでもよい。
【0026】前記少なくとも1つの第1領域が、自動的
に選択されてもよい。
【0027】前記少なくとも1つの第1領域が、前記第
1の基準イメージの少なくとも1つの側部を含んでもよ
い。
【0028】前記少なくとも1つの第1領域が、手動で
選択されてもよい。
【0029】前記ステップ(d)における前記近隣画素
がアレイ状に配置され、前記差分イメージ画素の位置が
該アレイのほぼ中心にあってもよい。
【0030】共通の背景を有するシーケンスのイメージ
について、前記ステップ(a)〜(d)を繰り返すこと
を特徴としてもよい。
【0031】前記第1の基準イメージが、先行する差分
イメージであってもよい。
【0032】前記少なくとも1つの第1領域が、前記先
行するステップ(d)の、前記少なくとも1つの第1タ
イプの領域を含んでもよい。
【0033】各ステップ(d)は、前記少なくとも1つ
の第1タイプの領域に割り当てられた前記差分イメージ
画素の値を含む第1の初期ヒストグラムを形成するステ
ップを含み、前記ステップ(b)は、先行するステップ
(d)において形成された該第1の初期ヒストグラムと
先行するステップ(b)の第1の得られたヒストグラム
の1つよりも小さな第1の所定の分画との合計を含む該
第1の得られたヒストグラムから、前記第1の閾値を得
てもよい。
【0034】前記第1の所定の分画が1/2であっても
よい。
【0035】本発明の画素化されたイメージをセグメン
ト化する方法は、(e)第2の基準イメージから少なく
とも1つの第2領域を選択するステップと、(f)該少
なくとも1つの第2領域に含まれる画素の値から、該画
素のうちの第2の所定の割合の画素が、第2の閾値の、
前記第1の側の反対の第2の側にある値を有するような
第2の閾値を得るステップと、(g)前記差分イメージ
画素の値が該第2の閾値の該第2の側にあり、且つ、第
2の所定の数よりも多くの数の近隣差分イメージ画素の
値が該第2の閾値の該第2の側にある場合、前記少なく
とも1つの第1タイプの領域に割り当てられない差分イ
メージ画素の各々を、少なくとも1つの第2タイプの領
域に割り当てるステップと、を含んでもよい。
【0036】前記第2の所定の割合が0.5〜1であっ
てもよい。
【0037】前記第2の所定の割合が0.75にほぼ等
しくてもよい。
【0038】前記第2の所定の数が、近隣差分イメージ
画素の数の半分にほぼ等しくてもよい。
【0039】前記少なくとも1つの第2領域および前記
少なくとも1つの第2タイプの領域の各々が、少なくと
も1つの前面領域を含み、前記第2の閾値の前記第2の
側が、該第2の閾値よりも大きくてもよい。
【0040】前記少なくとも1つの第2領域が、自動的
に選択されてもよい。
【0041】前記少なくとも1つの第2領域が、前記第
2の基準イメージの中間部分を含んでもよい。
【0042】前記少なくとも1つの第2領域が、手動で
選択されてもよい。
【0043】前記第2の基準イメージが前記第1の基準
イメージを含んでもよい。
【0044】前記ステップ(g)における前記近隣画素
がアレイ状に配置され、前記差分イメージ画素の位置が
該アレイのほぼ中心にあってもよい。
【0045】共通の背景を有するシーケンスのイメージ
について、前記ステップ(e)〜(g)を繰り返すこと
を特徴としてもよい。
【0046】前記第2の基準イメージが、先行する差分
イメージであってもよい。
【0047】前記少なくとも1つの第2領域が、前記先
行するステップ(g)の、前記少なくとも1つの第2タ
イプの領域を含んでもよい。
【0048】各ステップ(g)は、前記少なくとも1つ
の第2タイプの領域に割り当てられた前記差分イメージ
画素の値を含む第2の初期ヒストグラムを形成するステ
ップを含み、前記ステップ(f)は、先行するステップ
(g)において形成された該第2の初期ヒストグラムと
先行するステップ(f)の第2の得られたヒストグラム
の1つよりも小さな第2の所定の分画との合計を含む該
第2の得られたヒストグラムから、前記第2の閾値を得
てもよい。
【0049】前記第2の所定の分画が1/2であっても
よい。
【0050】前記少なくとも1つの第1タイプの領域に
割り当てられず、且つ、前記少なくとも1つの第2タイ
プの領域に割り当てられない、各差分イメージ画素のう
ち、該差分イメージ画素の値が第3の閾値よりも小さい
画素を、第1タイプの画素の候補として割り当てるステ
ップを含んでもよい。
【0051】前記第3の閾値が、前記第1の閾値と前記
第2の閾値との間の値であってもよい。
【0052】前記第3の閾値が、前記第1および第2の
閾値の算術平均であってもよい。
【0053】前記少なくとも1つの第1タイプの領域に
割り当てられず、且つ、前記少なくとも1つの第2タイ
プの領域に割り当てられない、各差分イメージ画素につ
いて、該差分イメージ画素の前記近隣画素のうちの、第
3の所定の数を超える数の近隣画素が、該少なくとも1
つの第1タイプの領域に割り当てられるか、または、第
1タイプの画素の候補として割り当てられる場合、該各
差分イメージ画素を該少なくとも1つの第1タイプの領
域に割り当てるステップを含んでもよい。
【0054】前記近隣画素が1アレイの画素を含み、前
記差分イメージ画素の位置が該アレイのほぼ中心にあっ
てもよい。
【0055】前記第3の所定の数が、近隣差分イメージ
画素の数の半分であってもよい。
【0056】前記少なくとも1つの第1タイプの領域に
割り当てられず、且つ、前記少なくとも1つの第2タイ
プの領域に割り当てられない、各差分イメージ画素を、
該少なくとも1つの第2タイプの領域に割り当てるステ
ップを含んでもよい。
【0057】前記イメージまたは各イメージならびに前
記背景イメージが、グレイレベルイメージであり、前記
ステップ(c)が、各イメージ画素と対応する背景画素
との差分を、該各イメージ画素のグレイレベルと該対応
する背景画素のグレイレベルとの差分として形成しても
よい。
【0058】前記ステップ(c)は、前記差分イメージ
または各差分イメージに対して移動ウィンドウ平均化ス
テップを実行するステップを含んでもよい。
【0059】前記イメージまたは各イメージならびに前
記背景イメージが、カラーイメージであり、前記ステッ
プ(c)が、各イメージ画素と対応する背景画素との差
分を、該各イメージ画素の色と該対応する背景画素の色
との間の色距離として形成してもよい。
【0060】前記色距離は、
【0061】
【数2】 (nは各画素の色成分の数であり、Iiはイメージ画素
のi番目の色成分であり、Biは背景画素のi番目の色
成分であり、αiは重み係数である)として形成されて
もよい。
【0062】各αiは1に等しくてもよい。
【0063】nが3に等しく、I1およびB1が赤色成分
であり、I2およびB2が緑色成分であり、I3およびB3
が青色成分であってもよい。
【0064】前記ステップ(c)が色成分差分イメージ
i−Biを形成し、該色成分差分イメージの各々に対し
て、移動ウィンドウ平均化ステップを実行してもよい。
【0065】前記ウィンドウは、3×3画素のサイズを
有してもよい。
【0066】差分イメージ画素に対応するエレメントを
有するバイナリマスクを形成するステップであって、各
エレメントは、前記対応する差分イメージ画素が前記少
なくとも1つの第1タイプの領域に割り当てられた場合
に第1の値を有し、該対応する差分イメージ画素が前記
少なくとも1つの第2タイプの領域に割り当てられた場
合に該第1の値と異なる第2の値を有することを含んで
もよい。
【0067】前記少なくとも1つの背景領域に割り当て
られた差分イメージ画素に対応する前記イメージまたは
各イメージの各画素の値を、対応する背景イメージ画素
の値と置き換えるステップを含んでもよい。
【0068】前記少なくとも1つの背景領域に割り当て
られた差分イメージ画素に対応する前記イメージまたは
各イメージの各画素の値を、異なる背景の対応する画素
の値と置き換えるステップを含んでもよい。
【0069】少なくとも1つの前面領域の境界線に割り
当てられた差分イメージ画素に対応する前記イメージま
たは各イメージの各画素の値を、該イメージ画素の値と
前記対応する異なる背景画素の値との線形結合と置き換
えるステップを含むことを含んでもよい。
【0070】前記線形結合が、対または各対の対応する
画素成分値の算術平均を含んでもよい。
【0071】各色成分について、前記少なくとも1つの
背景領域に割り当てられた画素の色成分値と、前記非遮
蔽背景イメージの対応する画素の色成分値との差分の分
布を形成するステップと;該分布におけるピークの位置
の、所定の位置からのシフトを判定するステップと;該
シフトに基づいて、該少なくとも1つの背景領域に割り
当てられた画素の該色成分値を補正するステップとを含
んでもよい。
【0072】本発明の画素化されたイメージをセグメン
ト化する装置は、第1の基準イメージから少なくとも1
つの第1領域を選択する手段と、該少なくとも1つの第
1領域に含まれる画素の値から、該画素のうちの第1の
所定の割合の画素が、第1の閾値の第1の側にある値を
有するような第1の閾値を得る手段と、該イメージの各
画素と非遮蔽背景のイメージの対応する画素との差分と
して、差分イメージを形成する手段と、該差分イメージ
画素の値が該第1の閾値の該第1の側にあり、且つ、第
1の所定の数よりも多くの数の近隣差分イメージ画素の
値が該第1の閾値の該第1の側にある場合、各差分イメ
ージ画素を、少なくとも1つの第1タイプの領域に割り
当てる手段と、を含む。
【0073】本発明の画素化されたイメージをセグメン
ト化する装置は、プログラミング可能なデータプロセッ
サと、該データプロセッサを制御して、上記に記載の方
法を実行するプログラムを含む記憶媒体と、を含む。
【0074】本発明の記憶媒体は、データプロセッサを
制御して、上記に記載の方法を実行するプログラムを含
む。
【0075】本発明のプログラムは、データプロセッサ
を制御して、上記に記載の方法を実行する。
【0076】本発明のイメージキャプチャデバイスは、
上記に記載の装置を含む。
【0077】本発明の第1の局面によると、画素化され
たイメージをセグメント化する方法であって、(a)第
1の基準イメージから少なくとも1つの第1領域を選択
するステップと、(b)上記少なくとも1つの第1領域
に含まれる画素の値から、上記画素のうちの第1の所定
の割合の画素が、第1の閾値の第1の側にある値を有す
るような第1の閾値を得るステップと、(c)上記イメ
ージの各画素と非遮蔽背景のイメージの対応する画素と
の差分として、差分イメージを形成するステップと、
(d)上記差分イメージ画素の値が上記第1の閾値の上
記第1の側にあり、且つ、第1の所定の数よりも多くの
数の近隣差分イメージ画素の値が上記第1の閾値の上記
第1の側にある場合、各差分イメージ画素を、少なくと
も1つの第1タイプの領域に割り当てるステップと、を
含む方法が提供される。
【0078】上記第1の所定の割合が0.5〜1であっ
てもよい。上記第1の所定の割合が0.75にほぼ等し
くてもよい。
【0079】上記第1の所定の数が、近隣差分イメージ
画素の数の半分にほぼ等しくてもよい。
【0080】上記少なくとも1つの第1領域および上記
少なくとも1つの第1タイプの領域の各々が、少なくと
も1つの背景領域を含んでもよく、上記第1の閾値の上
記第1の側が、上記第1の閾値よりも小さくてもよい。
上記第1の基準イメージが、上記非遮蔽背景のイメージ
の2つのイメージの間の差分を含んでもよく、上記少な
くとも1つの第1領域が、上記第1の基準イメージのほ
ぼ全体を含んでもよい。
【0081】上記少なくとも1つの第1領域が、自動的
に選択されてもよい。上記少なくとも1つの第1領域
が、上記第1の基準イメージの少なくとも1つの側部を
含んでもよい。
【0082】上記少なくとも1つの第1領域が、手動で
選択されてもよい。
【0083】上記ステップ(d)における上記近隣画素
がアレイ状に配置されてもよく、上記差分イメージ画素
の位置が上記アレイのほぼ中心にあってもよい。
【0084】上記方法は、共通の背景を有するシーケン
スのイメージについて、上記ステップ(a)〜(d)を
繰り返すことをふくんでもよい。上記第1の基準イメー
ジが、先行する差分イメージでありえる。上記少なくと
も1つの第1領域が、上記先行するステップ(d)の、
上記少なくとも1つの第1タイプの領域を含んでもよ
い。各ステップ(d)は、上記少なくとも1つの第1タ
イプの領域に割り当てられた上記差分イメージ画素の値
を含む第1の初期ヒストグラムを形成するステップを含
んでもよく、上記ステップ(b)は、先行するステップ
(d)において形成された上記第1の初期ヒストグラム
と先行するステップ(b)の第1の得られたヒストグラ
ムの1つよりも小さな第1の所定の分画との合計を含む
上記第1の得られたヒストグラムから、上記第1の閾値
を得てもよい。上記第1の所定の分画が1/2であって
もよい。
【0085】上記方法は、(e)第2の基準イメージか
ら少なくとも1つの第2領域を選択するステップと、
(f)上記少なくとも1つの第2領域に含まれる画素の
値から、上記画素のうちの第2の所定の割合の画素が、
第2の閾値の、上記第1の側の反対の第2の側にある値
を有するような第2の閾値を得るステップと、(g)上
記差分イメージ画素の値が上記第2の閾値の上記第2の
側にあり、且つ、第2の所定の数よりも多くの数の近隣
差分イメージ画素の値が上記第2の閾値の上記第2の側
にある場合、上記少なくとも1つの第1タイプの領域に
割り当てられない差分イメージ画素の各々を、少なくと
も1つの第2タイプの領域に割り当てるステップとを含
んでもよい。
【0086】上記第2の所定の割合が0.5〜1であっ
てもよい。上記第2の所定の割合が0.75にほぼ等し
くてもよい。
【0087】上記第2の所定の数が、近隣差分イメージ
画素の数の半分にほぼ等しくてもよい。
【0088】上記少なくとも1つの第2領域が、自動的
に選択されてもよい。上記少なくとも1つの第2領域
が、上記第2の基準イメージの中間部分を含んでもよ
い。
【0089】上記少なくとも1つの第2領域が、手動で
選択されてもよい。
【0090】上記第2の基準イメージが上記第1の基準
イメージを含んでもよい。
【0091】上記ステップ(g)における上記近隣画素
がアレイ状に配置されてもよく、上記差分イメージ画素
の位置が上記アレイのほぼ中心にあってもよい。
【0092】上記方法は、共通の背景を有するシーケン
スのイメージについて、上記ステップ(e)〜(g)を
繰り返すことをふくんでもよい。上記第2の基準イメー
ジが、先行する差分イメージであってもよい。上記少な
くとも1つの第2領域が、上記先行するステップ(g)
の、上記少なくとも1つの第2タイプの領域を含んでも
よい。各ステップ(g)は、上記少なくとも1つの第2
タイプの領域に割り当てられた上記差分イメージ画素の
値を含む第2の初期ヒストグラムを形成するステップを
含んでもよく、上記ステップ(f)は、先行するステッ
プ(g)において形成された上記第2の初期ヒストグラ
ムと先行するステップ(f)の第2の得られたヒストグ
ラムの1つよりも小さな第2の所定の分画との合計を含
む上記第2の得られたヒストグラムから、上記第2の閾
値を得てもよい。上記第2の所定の分画が1/2であっ
てもよい。
【0093】上記方法は、上記少なくとも1つの第1タ
イプの領域に割り当てられず、且つ、上記少なくとも1
つの第2タイプの領域に割り当てられない、各差分イメ
ージ画素のうち、上記差分イメージ画素の値が第3の閾
値よりも小さい画素を、第1タイプの画素の候補として
割り当てるステップを含んでもよい。
【0094】上記第3の閾値が、上記第1の閾値と上記
第2の閾値との間の値であってもよい。上記第3の閾値
が、上記第1および第2の閾値の算術平均であってもよ
い。
【0095】上記方法は、上記少なくとも1つの第1タ
イプの領域に割り当てられず、且つ、上記少なくとも1
つの第2タイプの領域に割り当てられない、各差分イメ
ージ画素について、上記差分イメージ画素の上記近隣画
素のうちの、第3の所定の数を超える数の近隣画素が、
上記少なくとも1つの第1タイプの領域に割り当てられ
るか、または、第1タイプの画素の候補として割り当て
られる場合、上記差分イメージ画素を上記少なくとも1
つの第1タイプの領域に割り当てるステップを含んでも
よい。
【0096】上記近隣画素が1アレイの画素を含んでも
よく、上記差分イメージ画素の位置が上記アレイのほぼ
中心にあってもよい。
【0097】上記第3の所定の数が、近隣差分イメージ
画素の数の半分であってもよい。
【0098】上記方法は、上記少なくとも1つの第1タ
イプの領域に割り当てられず、且つ、上記少なくとも1
つの第2タイプの領域に割り当てられない、各差分イメ
ージ画素を、上記少なくとも1つの第2タイプの領域に
割り当てるステップを含んでもよい。
【0099】上記イメージまたは各イメージならびに上
記背景イメージが、グレイレベルイメージであってもよ
く、上記ステップ(c)が、各イメージ画素と対応する
背景画素との差分を、上記各イメージ画素のグレイレベ
ルと上記対応する背景画素のグレイレベルとの差分とし
て形成してもよい。
【0100】上記ステップ(c)は、上記差分イメージ
または各差分イメージに対して移動ウィンドウ平均化ス
テップを実行するステップを含んでもよい。
【0101】セグメント化されるイメージは色成分イメ
ージであり得、各色成分に対して移動ウィンドウ平均化
ステップが実行され得る。
【0102】上記イメージまたは各イメージならびに上
記背景イメージが、カラーイメージであってもよく、上
記ステップ(c)が、各イメージ画素と対応する背景画
素との差分を、上記各イメージ画素の色と上記対応する
背景画素の色との間の色距離として形成してもよい。
上記色距離は、
【0103】
【数3】 (nは各画素の色成分の数であり、Iiはイメージ画素
のi番目の色成分であり、Biは背景画素のi番目の色
成分であり、αiは重み係数である)として形成されて
もよい。各αiは1に等しくてもよい。nが3に等しく
てもよく、I1およびB1が赤色成分であってもよく、I
2およびB2が緑色成分であってもよく、I3およびB3
青色成分であってもよい。
【0104】上記ステップ(c)が色成分差分イメージ
i−Biを形成してもよく、上記色成分差分イメージの
各々に対して、移動ウィンドウ平均化ステップを実行し
てもよい。
【0105】上記ウィンドウは、3×3画素のサイズを
有し得る。
【0106】上記方法は、差分イメージ画素に対応する
エレメントを有するバイナリマスクを形成するステップ
であって、各エレメントは、上記対応する差分イメージ
画素が上記少なくとも1つの第1タイプの領域に割り当
てられた場合に第1の値を有し、上記対応する差分イメ
ージ画素が上記少なくとも1つの第2タイプの領域に割
り当てられた場合に上記第1の値と異なる第2の値を有
する、ステップを含んでもよい。
【0107】上記方法は、上記少なくとも1つの背景領
域に割り当てられた差分イメージ画素に対応する上記イ
メージまたは各イメージの各画素の値を、対応する背景
イメージ画素の値と置き換えるステップを含んでもよ
い。
【0108】上記方法は、上記少なくとも1つの背景領
域に割り当てられた差分イメージ画素に対応する上記イ
メージまたは各イメージの各画素の値を、異なる背景の
対応する画素の値と置き換えるステップを含んでもよ
い。
【0109】上記方法は、少なくとも1つの前面領域の
境界線に割り当てられた差分イメージ画素に対応する上
記イメージまたは各イメージの各画素の値を、上記イメ
ージ画素の値と上記対応する異なる背景画素の値との線
形結合と置き換えるステップを含んでもよい。上記線形
結合が、対または各対の対応する画素成分値の算術平均
を含んでもよい。
【0110】上記方法は、各色成分について、上記少な
くとも1つの背景領域に割り当てられた画素の色成分値
と、上記非遮蔽背景イメージの対応する画素の色成分値
との差分の分布を形成するステップと;上記分布におけ
るピークの位置の、所定の位置からのシフトを判定する
ステップと;上記シフトに基づいて、上記少なくとも1
つの背景領域に割り当てられた画素の上記色成分値を補
正するステップとを含んでもよい。
【0111】本発明の第2の局面によると、画素化され
たイメージをセグメント化する装置であって、第1の基
準イメージから少なくとも1つの第1領域を選択する手
段と、上記少なくとも1つの第1領域に含まれる画素の
値から、上記画素のうちの第1の所定の割合の画素が、
第1の閾値の第1の側にある値を有するような第1の閾
値を得る手段と、上記イメージの各画素と非遮蔽背景の
イメージの対応する画素との差分として、差分イメージ
を形成する手段と、上記差分イメージ画素の値が上記第
1の閾値の上記第1の側にあり、且つ、第1の所定の数
よりも多くの数の近隣差分イメージ画素の値が上記第1
の閾値の上記第1の側にある場合、各差分イメージ画素
を、少なくとも1つの第1タイプの領域に割り当てる手
段とを含む装置が提供される。
【0112】本発明の第3の局面によると、画素化され
たイメージをセグメント化する装置であって、プログラ
ミング可能なデータプロセッサと、上記データプロセッ
サを制御して、本発明の第1の局面による方法を実行す
るプログラムを含む記憶媒体とを含む装置が提供され
る。
【0113】本発明の第4の局面によると、データプロ
セッサを制御して、本発明の第1の局面による方法を実
行するプログラムを含む記憶媒体が提供される。
【0114】本発明の第5の局面によると、データプロ
セッサを制御して、本発明の第1の局面による方法を実
行するプログラムが提供される。
【0115】本発明の第6の局面によると、本発明の第
2または第3の局面による装置を含むイメージキャプチ
ャデバイスが提供される。
【0116】したがって、イメージまたはシーケンスの
イメージの前面領域および背景領域をセグメント化する
ロバストな技術を提供することができる。このことは、
画素単位の方法およびブロック毎の方法の利点を組み合
わせることにより部分的に達成され得、セグメント化さ
れた前面領域の周囲に良好な境界線が形成され、前面領
域および背景領域の両方においてアーチファクトが少な
くなる。
【0117】他の画素よりも確実かつ容易に分類し得る
画素を初めに識別する段階的なアプローチの使用によ
り、ロバスト性も実現される。より多くの画素が割り当
てられるにしたがって、残りの画素がより良く判定され
得る。
【0118】閾値の決定に使用される領域を選択するこ
とにより、上記閾値または各閾値がより正確に決定さ
れ、セグメント化が向上され得る。例えば、第1の閾値
を用いて背景画素を判定する場合、その閾値自体は背景
領域の大部分または全体から決定され得るので、前面領
域内の画素の値の影響を全くまたは実質的に受けない。
第2の閾値は、それが使用される場合、イメージのセグ
メント化の向上が達成され得るように、前面領域内の画
素値に基づいて、同様に決定され得る。各イメージは帰
納的に処理されて、向上されたセグメント化の結果、閾
値の選択が向上し、向上した閾値の選択の結果、セグメ
ント化が向上する。十分な計算能力が利用可能な場合
は、再帰的なアプローチをリアルタイムで行うことがで
きる。計算能力が十分でない場合は、そのような再帰的
アプローチは、オフラインのアプリケーションまたは非
リアルタイムのアプリケーションに限定される。
【0119】シーケンスのイメージを処理する場合、上
記または各閾値は、複数のまたは全ての先行するイメー
ジを利用して決定され得るので、閾値の選択を向上さ
せ、その結果、イメージのセグメント化を向上させる。
例えば、上記または各閾値を決定するためのヒストグラ
ムを形成し、各ヒストグラムは、現在のヒストグラムお
よび前のヒストグラムの一部分(例えば半分)を含み得
る場合、時間の経過に従って各再帰の影響が減少する
が、閾値の選択は、例えば比較的小さな背景領域または
前面領域を有するイメージ等の望ましくないイメージの
影響をさほど受けない(望ましくないイメージの影響を
受ける場合は、閾値の選択が歪められる)。従って、セ
グメント化の結果が、背景内のノイズおよび前面の信号
強度の統計学的特性の推定を向上させるにつれて、ロバ
スト性は自ら向上し得る。向上された推定が順に次のイ
メージのセグメント化を向上させ、従って、連続的な向
上のループが形成される。制御された背景は要求され
ず、前面オブジェクトの動的な変化に対する漸次的な変
化を含み得る一般的なシーンの背景を処理することがで
きる。
【0120】閾値の決定は、各閾値化演算の後のフィル
タリング処理に直接関係し得る。複雑な統計学的モデル
は要求されないので、この技術を容易に行える。
【0121】本発明の技術は、計算能力およびメモリ要
求の点で、計算上の効率が良い方法で実行され得、もっ
ぱら整数を用いて実行され得る単純な算術演算のみを含
む。こういった理由から、上記技術は、計算能力が制限
され、記憶装置が比較的小さな、Sharp(登録商
標) Corporation MPEG−4 Int
ernet ViewCamまたは他のマルチメディア
アプリケーション用イメージキャプチャ・記録デバイス
等の、リアルタイムアプリケーションに非常に適してい
る。
【0122】本発明の技術は、例えば、EP08772
74、GB2324428、EP0932114、およ
びGB233590に開示された、ビデオトラッキング
および顔検出アプリケーションにおいて使用され得る。
例えば、セグメント化された前面領域を用いて、イメー
ジ内に顔を配置するための検索領域を制限し得る。これ
は、例えば、欧州特許出願番号第99306962.4
号および英国特許出願番号第9819323.8号に開
示されているように、リアルタイムビデオトラッキング
システムと共に使用され得る。
【0123】
【発明の実施の形態】以下、添付の図面を参照しつつ、
例示することにより本発明をさらに説明する。
【0124】図中、同じ参照符号は同じ部分を示す。
【0125】図3のブロック機能図は、ステップまたは
動作のシーケンスと共にデータの供給を示す、「増強」
フローチャートの形態である。この方法は、ステップ1
aにおいて、非遮蔽(non−occluded)背景
イメージ1b(つまり、前面オブジェクトを有さない背
景シーンのイメージ)を記録する、初期準備1で開始さ
れる。ステップ5において、背景イメージ1bが供給さ
れ、あらかじめ規定された関数を用いて差分イメージが
計算される。ステップ3は、第1の差分イメージが処理
されているかどうかを判定する。処理されている場合、
ステップ1cは、第1の差分イメージの背景領域および
前面領域の統計学的特性から、ノイズヒストグラムおよ
び/または信号ヒストグラム1dを計算する。
【0126】ステップ4によってシーケンスの次のイメ
ージが得られる場合、背景イメージ1bと共に、ステッ
プ5にこれが供給される。ステップ5は、次の差分イメ
ージを計算する。これを図4に示す。図4は、背景イメ
ージ1b、および同じ背景を有する、前面イメージを含
むシーケンスのイメージ7を示す。ステップ5は、図4
の参照符号8に示した差分イメージを計算する。差分イ
メージは、ノイズ領域9を有する。このノイズ領域にお
いて、画素は主にまたは完全にノイズを示す値を有す
る。イメージ8はまた、前面イメージに対応する信号領
域10を有する。この前面イメージの画素は、イメージ
画素と、背景イメージ1bの対応する背景画素との間の
差分を示す。
【0127】ステップ3は、差分イメージが第1の差分
イメージでないと判定する。制御はステップ11に進
む。ステップ11は、差分イメージにおける背景画素の
強力な候補を識別する。特に、各画素が順に第1の閾値
と比較される。この第1の閾値は、ステップ1cにおい
て判定されたノイズの統計学的特性に基づいて、ステッ
プ24において決定される。値が第1の閾値未満であ
り、且つ、それを取り囲む近隣画素の大多数の画素の値
が第1の閾値未満である画素は、背景領域(複数のその
ような背景領域が存在する場合には、それら複数の背景
領域のうちの1つに)に割り当てられる。
【0128】ステップ12は、ステップ11において少
なくとも1つの背景領域に割り当てられなかった差分イ
メージ画素の各々を、第2の閾値と比較することによ
り、前面画素の強力な候補を識別する。なお、第2の閾
値は、ステップ1cにおいて判定された信号領域10の
信号強度ヒストグラムに基づいて、ステップ25におい
て決定される。値が第2の閾値よりも大きく、且つ、そ
れを取り囲む近隣画素の大多数の画素の値が第2の閾値
を超える値である画素は、各前面領域に割り当てられ
る。
【0129】その後、ステップ13は、背景領域または
前面領域にまだ割り当てられていない画素が、少なくと
も1つの背景領域または少なくとも1つの前面領域に割
り当てられるべきかどうかを確認する。そのような画素
の各々は、第3の閾値と比較される。第3の閾値は、ス
テップ26において、第1および第2の閾値から決定さ
れ、第1の閾値と第2の閾値との間の値を有する。レベ
ルが第3の閾値未満である画素は、背景画素候補と認め
られる。近隣画素の大部分が既に背景画素または背景画
素の候補として認められている場合、背景画素候補の各
々は、上記少なくとも1つの背景領域に割り当てられ
る。その後、残りの画素が前面画素として割り当てられ
る。
【0130】ステップ11、12、および13の各々に
おいて、閾値化される差分イメージの全体に「空間フィ
ルタリング」を行って、どのように画素を割り当てるか
を決定することは都合がよい。しかし、各イメージのエ
ッジおよび角の近傍に存在する画素について、各画素の
近隣領域が制限される。空間フィルタリングは、イメー
ジの境界線まで全て同じ様態で行われ得るが、少なくと
もいくつかのアプリケーションにおいて、空間フィルタ
リングを、各画素が近隣画素の完全な補完を有する上記
イメージまたは各イメージの中央部分に制限するのがよ
り適切であり得る。このことにより、周辺のマージンが
フィルタリングされないまま残される。
【0131】例えば、イメージサイズはM×N画素であ
り、空間フィルタリングに使用されるウィンドウサイズ
はm×n画素である場合、(M−m+1)×(N−n+
1)個の画素を含む中央領域に対して空間フィルタリン
グが行われ、周辺のマージンにおける画素には、適切な
より小さいウィンドウサイズを用いて空間フィルタリン
グが行われ得るか、または、空間フィルタリングが行わ
れないままであり得る。さほど正確にセグメント化を行
う必要のないアプリケーションについて、周辺のマージ
ンにおける画素の割り当ては、閾値化のみを用い、且
つ、フィルタリング処理を行うことなく決定し得る。
【0132】ステップ14は、バイナリマスクを形成す
る。具体的には、このマスクは、差分イメージの画素に
対応するエレメントを含む。バイナリマスクの各画素
は、対応する差分イメージ画素が少なくとも1つの背景
領域に割り当てられた場合には、第1の値を有し、対応
する差分イメージ画素が少なくとも1つの前面領域に割
り当てられた場合には、第1の値とは異なる第2の値を
有する。したがって、バイナリマスクは、参照符号15
に示す所望のセグメント化を示し、イメージのさらなる
処理のために使用され得る。例えば、イメージの背景領
域は、背景イメージ自身の対応する画素と置き換え得
る。あるいは、背景領域の画素は、固定されたイメージ
または一時的に変動するイメージであり得る別の背景イ
メージの対応する画素と置き換えて、特殊効果を提供し
得る。この場合、より視覚的に許容し得る方法で背景領
域および前面領域を混合するために、前面領域の境界画
素の各々を、イメージ画素の値と対応する新たな背景画
素の値との線形結合を示す値と置き換え得る。
【0133】ステップ16は、シーケンスの現在のイメ
ージの解析に基づいて、信号ヒストグラムおよびノイズ
ヒストグラムを更新し、更新されたヒストグラムが、ス
テップ3に戻され、シーケンスの次のイメージのセグメ
ント化のために使用可能になる。ステップ17は、シー
ケンスの最後のイメージが処理されたかどうかを判定す
る。判定されていない場合、制御はステップ4に戻る。
ステップ4において、次のイメージが得られ、ステップ
5およびステップ11〜17が繰り返される。そうでな
い場合、この方法は、ステップ18で終了する。
【0134】イメージのシーケンスは、イメージ処理の
間は比較的変化されずにある実質的に静的な背景の前を
移動するオブジェクトを含むシーンのビデオシーケンス
を含み得る。
【0135】いくつかのアプリケーションについて、残
りの画素を識別するステップ13は実行されなくてもよ
い。また、いくつかのアプリケーションにおいて、ステ
ップ11および12の両方を実行しなくてもよい。その
代わり、これらのステップのうち一方のステップを実行
すればよい。
【0136】例えば、イメージがオフラインで処理され
る場合、または、例えばビデオカメラからのビデオイメ
ージのシーケンスについてリアルタイムでステップを繰
り返す十分な計算能力がある場合、シーケンスの各イメ
ージについて、図3に示すステップを繰り返すことも可
能である。ステップを繰り返すことにより、現在のイメ
ージのセグメント化に基づいて、ノイズヒストグラムお
よび信号ヒストグラムを更新し得る。これにより、現在
のイメージの改良されたセグメント化が可能になり、そ
の時、現在のイメージが、信号ヒストグラムおよびノイ
ズヒストグラムを精密にするために使用され得る。各イ
メージについて、この処理を停止するための任意の適切
な基準が使用され得る。例えば、そのような「反復」
が、所定の回数行われ得る。他の可能性は、ステップの
反復を続けても、ノイズヒストグラムおよび信号ヒスト
グラムが実質的に変更されなくなるまで、上記ステップ
を繰り返すことである。
【0137】ステップ11および12の両方が実行され
るアプリケーションにおいて、ステップ12を実行して
前面画素を識別する前に、ステップ11を実行して背景
画素を識別することに、ある一定の利点があると考えら
れる。しかし、その逆の場合のアプリケーションもいく
つかあり得る。また、ステップ13において、残りの画
素は、まず、閾値化および近隣画素に基づく割り当てに
よって前面画素として認められ、残りの未割り当ての画
素がデフォルトで背景画素として認められる。
【0138】以下、図3に示した方法において使用され
る個々の技術を、より詳細に説明する。
【0139】ビデオシーケンスのn番目のフレームは、
デジタルイメージIn(x,y)(n=1,
2,...)と表し得る((x,y)は各画素の個々の
座標である)。背景イメージは、B(x,y)と表さ
れ、シーン内に動いているオブジェクトが無い場合に、
あらかじめキャプチャされている。各イメージI
n(x,y)において、画素が前面オブジェクトに属す
る場合、この画素は「前面画素」または「オブジェクト
画素」と呼ばれる。同様に、前面オブジェクトによって
遮られない背景内の画素は、「背景画素」と呼ばれる。
【0140】ステップ5は、次の式によって、差分イメ
ージDn(x,y)を規定する。
【0141】
【数4】 ここで、Fは、In(x,y)とB(x,y)との間の
差分を特徴付ける、ユーザ定義測定値である。簡略化の
ため、上記式における上付文字nを、以降の説明では省
略する。
【0142】例えば、I(x,y)とB(x,y)の両
方がグレイレベルイメージである最も簡単な場合におい
て、D(x,y)は、それらの直接の差分(direc
tdifference)、つまり、
【0143】
【数5】 として規定され得る。
【0144】ノイズの無い理想的な場合において、その
ようなD(x,y)の値は、次の式によって得られる。
【0145】
【数6】 ここで、s(x,y)は信号の測定値であり、∈は「〜
の構成要素である」という意味を持つ。項s(x,y)
は、オブジェクト画素と背景イメージ内の同じ位置にあ
る画素との差分測定値を示す。全ての前面画素がゼロで
ない信号値を生成している場合、その時、これらの画素
は識別され、差分測定値が0である背景画素から分離さ
れる。
【0146】イメージ内には常にノイズが存在し、いく
つかのオブジェクト画素が背景イメージ内の対応する画
素と同じ値を有することがあり得るので、この単純なア
プローチは、実際には機能しない。ノイズの影響を含め
るために、前の式を、次に示すように修正し得る。
【0147】
【数7】 ここで、ノイズの項n(x,y)は、平均値が0であり
分散がσである確率変数とみなされる。
【0148】背景画素からの前面画素のセグメント化を
可能にするために、信号の強度はノイズの強度よりもか
なり強い必要がある。そこで、上記式は次のように書き
直され得る。
【0149】
【数8】 ここで、上記式においては、s(x,y)はノイズの成
分を含むものとみなされ得る。このノイズ成分は、実際
には、実際の信号自体から分離し得ない。
【0150】ノイズの項n(x,y)から信号の項s
(x,y)を分離する最も簡単な方法は、全ての前面画
素が閾値Tを超える信号値を有し、且つ、全ての背景画
素が閾値Tを下回るノイズ値を有するような閾値Tを見
つけることである。そこで、バイナリマスキング関数が
次のように得られ得る。
【0151】
【数9】 ここで、1は前面画素を示し、0は背景画素を示す。
【0152】例えば、背景が濃青色等の均一な色である
場合、このことは、いくつかの制限的な条件により可能
である。差分イメージD(x,y)は、後で説明する式
(3)を用いて計算され得る。前面オブジェクトが同じ
濃青色の領域を含まない場合、および、イメージングシ
ステムのノイズレベルが低い場合、差分イメージは、前
面領域について強い信号値を有し、背景領域において
は、非常に小さな値を有するはずである。そこで、これ
らの信号値およびノイズ値を分離する閾値Tを見つける
ことができる。
【0153】実際には、この過度に単純化された方法
は、一般的な背景のシーンに対して十分に機能しないか
もしれない。例えば、いくつかの前面画素は、対応する
背景画素と同様であり得、任意の所与の閾値Tを下回り
得る信号値を生成する。同様に、いくつかの背景画素
が、閾値Tを超えるノイズ値を生成し得る。この後者の
問題を引き起こし得る多くの理由が考えられる。その理
由として、イメージングシステム内に電子ノイズが存在
すること、背景における照明の変化、および/またはイ
メージングシステムのわずかな外乱が挙げられる。本発
明の方法の複数の閾値が、以下に説明するこの問題を実
質的に克服する。
【0154】カラーイメージは、赤(R)成分、緑
(G)成分、および青(B)成分に分解され得る。ある
いは、カラーイメージは、YUVまたはHSV等の他の
カラーフォーマットで表され得る。簡略化のために、以
下の説明では、イメージをRGBフォーマットで示す
が、この技術は、他のカラーフォーマットにも有効であ
る。RGB色成分をYUVまたはHSV成分と置き換え
ることにより、全ての式を他のカラーフォーマットに適
応し得る。
【0155】一般に使用される、イメージI(x,y)
とB(x,y)との間の差分測定値は、次の式で表され
る色距離(color distance)である。
【0156】
【数10】 ここで、α、β、およびγは重み係数であり、[RI,G
I,BI]および[RB,GB,BB]は、それぞれイメージI
(x,y)およびB(x,y)についてのRGB色成分
である。
【0157】上記式において、色成分を正規化するのが
しばしば魅力的である。この正規化は、各色成分を、色
成分の合計で割ることにより達成される。例えば、RI
成分は、次のように正規化され得る。
【0158】
【数11】 このような正規化されたカラーフォーマットを用いる関
数Fの例は、次の式によって得られる。
【0159】
【数12】 ここで、YI=RI+GI+BIであり、YB=RB+GB
Bである。この正規化は、異なる照明強度による影響
を低減する際に有用であるが、YIまたはYBの値が非常
に小さい場合には欠点がある。非常に小さな値による除
算の結果、各色成分におけるノイズの成分が非常に大き
く増幅され、したがって、いかなるセグメント化方法も
困難になる。したがって、この正規化は、注意して適用
する必要がある。
【0160】計算コストを低減するために、式(1)に
おいて説明した色距離測定値は、次のように概算され得
る。
【0161】
【数13】 重み係数は、各色成分の重要度を反映するように、あら
かじめ決定され得る。多くのアプリケーションについ
て、通常の値の組、α=β=γ=1、が適切であるとわ
かっている。この結果、次のようになる。
【0162】
【数14】 差分測定値関数Fを規定する他の方法がある。例えば、
信号およびノイズの統計学的特性に基づくエントロピー
測定を使用し得る。このような方法は、よりよい差分特
性を生成し得るが、計算がより集中的になる傾向にあ
る。
【0163】式(3)によって説明される差分測定値関
数Fに基づくと、差分イメージD(x,y)は、次の式
によって得られる。
【0164】
【数15】 ここで、各色成分中のノイズは、平均値が0であり分散
がσである確率変数とみなされる。これらの確率変数は
また、色チャネル毎および画素毎に独立しているとみな
される。
【0165】理論的には、ノイズnr、ng、nbの値
は、負の無限大から正の無限大へと変動し得る。現実の
コンピュータインプリメンテーションにおいて、これら
の値は、有限範囲(例えば−N〜+N(Nは整数))内
の整数で示され得、通常、255に等しい。その時、|
r|、|ng|および|nb|の値は、0からNまでの
範囲を変動する。
【0166】ノイズの項を、絶対値演算子「||」を用
いて|nr|、|ng|、|nb|と示すことについての
理由がある。このことは、イメージング平均化によるノ
イズ低減について後でおこなう説明においてより明らか
になる。これは、絶対値演算を適用する前に適用され
る。ノイズの統計学的特性は、まず、ヒストグラミング
法を用いて推定され得る。例えば、イメージI(x,
y)が背景のみを含み、且つ、B(x,y)が捕捉され
る時点とは異なる時に捕捉される場合、差分イメージD
(x,y)は、各画素におけるノイズ変数を示す。その
後、特定のノイズ値tが発生した合計回数を数えること
により、ヒストグラムhn(t)が構成され得る。な
お、このノイズ値tについて、D(x,y)=|nr
+|ng|+|n b|=tである。図5の上側のグラフ
は、このようなノイズヒストグラムの一例である。
【0167】理論上、|nr|+|ng|+|nb|の値
は、0〜3Nの範囲で変動する。これは、hn(t)
が、それぞれが整数カウンタ(integer cou
nter)である3N個のエレメントすなわちビン(b
in)を有することを意味する。しかし、3つの項全て
がその最大値であるNに達する場合にかぎり、|nr
+|ng|+|nb|の値は3Nに等しい。実際には、|
r|+|ng|+|nb|の値は、おそらく、この最大
値3Nよりもかなり小さい。しばしば、N個だけのビン
からなるヒストグラムを使用するのが適切である。Nの
値を超える画素について、これらの画素の値は、Nにま
で切り捨てられ得る。計算能力および記憶装置が制限さ
れている場合、このことは有用である。
【0168】ノイズヒストグラムは、イメージ内の全背
景画素から計算され得る。ノイズヒストグラムはイメー
ジの複数のフレームに亘って蓄積され得、ノイズの統計
学的特性をより良く概算し得る。
【0169】このノイズヒストグラムは、セグメント化
の開始前に計算される必要がある。一方で、背景画素が
既に知られている場合に計算のみが行われ得る。これら
の相反する要件に対する1つの考え得る解決方法は、第
1のイメージまたは、さらに望ましくは、第1のいくつ
かのイメージが背景シーンのみを含み、ノイズヒストグ
ラムがこれらのイメージを用いてまず計算され得ること
を確実にすることである。
【0170】Sharp(登録商標) Corpora
tion MPEG−4 Internet View
Cam等のいくつかのアプリケーションについて、「タ
ーゲット」が視界内へと移動する直前にイメージの記録
を開始することによりこのことが達成され得る。ビデオ
カメラが数秒間スイッチオンされた後に、それから、タ
ーゲットは視界内に入り得る。このことにより、初めの
いくつかのイメージが背景のみを含むことが確実にな
る。
【0171】あるいは、上記ターゲットまたは各ターゲ
ットが、図6に示すように、背景のみを含む左側および
右側の余白の領域19を有するイメージの中央領域にま
ず配置され得る。左側および右側の余白の領域19を用
いて、ノイズヒストグラムを推定し得る。Sharp
(登録商標) Internet ViewCam等の
アプリケーションについて、このことは、ターゲットが
中央にある場合、イメージの中央に矩形のガイドを表示
して、ユーザが単に記録を開始することにより達成され
得る。この制約は、初めのいくつかのイメージについて
のみ必要とされ得、その後ターゲットは自由に動き得
る。
【0172】いくつかのアプリケーションについて、計
算がオフラインで実行された場合、ノイズ特性の推定を
行う背景領域をユーザに手動で選択させることも可能で
ある。例えば、アプリケーションがパーソナルコンピュ
ータ(PC)上で実行された場合、イメージがモニタ上
に表示され得、この目的のために、ユーザがマウスポイ
ンタを用いて領域を選択し得る。
【0173】同様に、背景画素についての信号のヒスト
グラムhs(t)が構成される。やはり、このことが達
成され得る前に、前面オブジェクトを知る必要がある。
ターゲットがまず、図6に示すようにイメージの中央領
域20に配置された場合、中央領域を用いて信号ヒスト
グラムを計算することによりこのことが可能である。あ
るいは、上で説明した手動の方法を使用して、信号ヒス
トグラムの初めの推定を行うための領域を識別し得る。
【0174】全てのアプリケーションについてこれらの
制約が可能でないかもしれない。一般に、この信号ヒス
トグラムの初めの推定は、動いているオブジェクトを含
む第1のイメージがセグメント化されるまで、行うこと
が出来ない。これについて、以下に説明する。
【0175】信号ヒストグラムおよびノイズヒストグラ
ムは、イメージをセグメント化するための閾値を決定す
る根拠を形成する。
【0176】差分イメージが一旦計算されると、まず、
背景画素の強力な候補が、第1の閾値Tnを用いて判定
される。ほとんどの前面画素がこの第1の閾値を超える
信号値を有し、ほとんどの背景画素が第1の閾値未満の
ノイズ値を有するようにこの閾値の値が決定される。
【0177】この閾値は、ノイズヒストグラムh
n(t)から決定される。理想的には、ノイズ値は、ヒ
ストグラムの初めのいくつかのビンのみがゼロにならな
いように、制限される。その後、閾値Tnはtの第1の
値であり、この値を超えると、残りのビンはゼロであ
る。つまり、
【0178】
【数16】 となる。
【0179】残念なことに、通常、このような理想に近
い状況は存在しない。実際、背景は、制御された均一な
色の領域ではなく、一般的なシーンを含み得る。イメー
ジングシステムは、無視できない程度のノイズの影響を
受け得、イメージング処理の間、照明が変化し得るか、
または、イメージングシステムがイメージングプロセス
の間わずかな外乱を受け得る。この全てがノイズ項に寄
与し、ノイズ項の値がヒストグラムの全範囲を占め得
る。
【0180】ヒストグラムがtの高い範囲に亘って完全
に0になり得ないのに対して、ノイズ値の大部分は、通
常、図5に示すように、ヒストグラムの初めのいくつか
のビンのまわりに集まる。残りのビンは、通常、tが増
大するのに従って減少する長いすそを形成する。その
後、閾値Tnは、所与の割合の背景画素よりも大きなt
の最小値として規定され得る。
【0181】次いで、この閾値Tnは、あらかじめ設定
された割合値ηn(0.5<ηn≦1)と関連づけられ
る。それは、次の不等式を満たす最小のTnとして決定
される。
【0182】
【数17】 ここで、Knは背景画素の合計数であり、次の式によっ
て求められる。
【0183】
【数18】 その後、差分イメージは、第1の閾値Tnを用いて閾値
化されて、背景画素の強力な候補を識別する。バイナリ
マスクが次の式によって得られる。
【0184】
【数19】 ここで、0は、背景画素の強力な候補を示し、1は、前
面画素または上記閾値によるフィルタリングを通過した
背景画素のいずれかであり得る他の画素の候補を示す。
ここでは、背景画素の強力な候補のみに関心がある。他
の画素は、以下に説明する処理においてさらに分類され
る。Kn個の背景画素を含むイメージI(x,y)につ
いて、約ηn・Kn個の画素が、閾値Tn未満のノイズ値
を有する。残りの(1−ηn)・Kn個の画素は、この閾
値Tnを超える値を有し、この処理において、背景画素
として検出されない。
【0185】ここでの暗黙の仮定は、前面画素のほとん
どが第1の閾値を超える信号強度を有するということで
ある。しかし、少ない数の前面画素がこの閾値未満に減
少する信号値を有し得ることもあり得る。この単純な閾
値化方法は、それらを誤って背景画素として分類する。
【0186】ηnの値がより高く設定された場合、Tn
値もより高くなり、検出されない背景画素の数がより少
なくなる。一方で、閾値Tnが大きくなるに従って、前
面画素が、誤って背景画素として分類されやすくなる。
セグメント化の目的は、動いているオブジェクトを背景
から分離することなので、理想的には、セグメント化
は、信号値が小さい場合であっても、前面オブジェクト
と背景との違いを識別できなければならない。このこと
は、セグメント化のために、より小さな閾値Tnがより
良いことを意味する。したがって、妥協が必要であり、
通常、ηnは0.75に設定される。
【0187】真の背景画素は独立して存在せず、常に他
の背景画素とつながっている。画素が実際に背景画素で
ある場合、近隣画素のほとんどが背景画素であることも
あり得る。一方で、誤って背景画素として検出された前
面画素は、しばしば、背景内に小さなアーチファクトと
して現れる。この観察の結果、これらの誤って検出され
た画素を除去する以下のフィルタリング方法が行われ
る。
【0188】背景画素の現在の候補の各々について、小
さな近隣領域(通常、現在の画素を中心とする方形のウ
ィンドウ)が選択される。このウィンドウ内の画素の合
計数がmである場合、約ηn・m個(ηn>0.5)の画
素が背景画素として正確に分類されることが期待され
る。mの値が充分大きな場合、このことは正しい。
【0189】背景画素が前面オブジェクトの近傍に存在
する場合、上記の小さなウィンドウは、いくつかの前面
画素を含み得る。現在の背景画素が前面オブジェクトに
隣接している場合であっても、直感的に考えて、近隣画
素の約半分が背景画素であり、約半分が前面画素であ
る。明らかなことに、このことは、ウィンドウサイズが
十分に小さい場合にのみ正しい。これは、mが「十分に
大きい」値である必要があるという上記要件と矛盾す
る。
【0190】したがって、妥協が必要である。試行錯誤
の結果、mの典型的な値は100であり、したがって9
×9画素または11×11画素のウィンドウサイズとな
ることが示される。通常、ウィンドウサイズには奇数の
数が用いられ、現在の画素はウィンドウの中心に配置さ
れる。
【0191】背景画素の候補は、この近隣領域における
背景画素の割合Ψnに基づいて背景画素として認められ
てもよく、または、認められなくてもよい。Ψnが0.
5以上の場合、この候補は背景画素と認められる。そう
でない場合には、背景画素と認められない。
【0192】
【数20】 計算上、このプロセスは、閾値0.5での閾値化方法に
よって従ったバイナリイメージMn(x,y)に適用さ
れた移動ウィンドウ平均化演算として実行され得る。
【0193】同様に、第2の閾値Tsを用いて、前面画
素の強力な候補が検出され得る。この第2の閾値T
sは、信号ヒストグラムhs(t)から計算され得る。前
に示したように、信号ヒストグラムは、初めは、第1の
イメージがセグメント化されるまで、利用可能でないか
もしれない。第1のイメージについて、この閾値は、T
nから単に推定され得、次のように得られる。
【0194】
【数21】 ここで、μは1よりも大きい実数である。通常、μは
1.5〜2に設定される。
【0195】上記式は、第1のイメージが完全にセグメ
ント化される前に、信号強度の初めの推定にのみ使用さ
れ得る。前面ターゲットの初期位置についてのさらなる
情報がある場合には、この式を使わなくても良い。前面
オブジェクトが、図6に示すように,まずイメージの中
心に配置された場合、その時例えば、イメージの中央領
域が使用され、初めの信号ヒストグラムが構成され得
る。
【0196】一般に、信号ヒストグラムhs(t)は、
セグメント化された前面オブジェクトから構成される。
セグメント化された前面オブジェクトは、第1のイメー
ジがセグメント化されてすぐに利用可能になる。次い
で、第2の閾値Tsは、次の不等式を満たすtの最大値
として規定される。
【0197】
【数22】 ここで、0.5<ηn≦1であり、Ksは前面画素の合計
数である。ηnの通常の値は0.75である。
【0198】通常、閾値TsはTnよりも大きい。そうで
ない場合には、動いているオブジェクトの強度および色
は背景と類似しており、それらの差分はノイズの影響よ
りも小さい。したがって、セグメント化は非常に難しく
なる。
【0199】第2の閾値Tsが一旦得られると、この閾
値Tsを用いて、差分イメージを閾値化して、前面画素
の強力な候補を検出する。閾値化の後にバイナリマスク
が得られる。
【0200】
【数23】 強力な背景画素として既に識別された画素を再び処理す
る必要はないが、これらの画素は、以下に説明するよう
にフィルタリング処理に寄与する。
【0201】Ks個の前面画素を含むイメージI(x,
y)について、約ηs・Ks個の画素が、閾値Tsを超え
る信号値を有する。残りの(1−ηs)・Ks個の画素
は、この閾値Ts未満の値を有し、このプロセスでは、
前面画素として検出されない。背景画素の強力な候補の
検出においてと同様、ノイズ値が第2の閾値Tsを超え
た場合、背景画素を誤って前面画素として検出すること
がある。これらの誤って検出された画素は、通常、孤立
した状態で不規則に分布しており、これまでに説明した
演算と同様の移動ウィンドウ演算を用いて除去し得る。
その基準もまた同様の基準である。初めに識別された前
面画素候補に隣接する画素のうち、少なくとも半分が前
面画素の候補である場合、初めに識別された前面画素候
補は、前面画素と認められる。そうでない場合には、前
面画素と認められない。
【0202】
【数24】 ここで、ΨSは、現在の画素の小さな近隣領域におけ
る、前面画素の強力な候補の割合であり、近隣領域は、
通常、現在の画素を中心とする方形のウィンドウとして
選択される。そのサイズは、通常、背景画素の強力な候
補を検出するために、9×9または11×11に設定さ
れる。場合によって、前面オブジェクトが小さい場合
は、このウィンドウサイズは減少され得る。
【0203】背景画素の強力な候補としても前面画素の
強力な候補としても認められない画素は、さらなる閾値
化およびフィルタリング処理において分類され得る。第
3の閾値Tmが導入され、この閾値Tmは、次の式によっ
て得られる、閾値Tnと閾値Tsとの間の値を有する。
【0204】
【数25】 ここで、0<α<1である。通常、αの値は0.5に設
定され得る。
【0205】差分イメージは、第3の閾値Tmを用いて
再び閾値化される。しかし、ここでは、残りの画素のみ
を処理すればよい。新たなバイナリマスク関数は、次の
式によって得られる。
【0206】
【数26】 前の処理においてと同様、フィルタリング演算は「未決
定」の画素に適用される。ウィンドウ内の半数を超える
数の画素が背景画素である場合、現在の画素は、背景画
素として分類され、そうでない場合は、前面画素として
分類される。バイナリマスクは最終的に次の式によって
得られる。
【0207】
【数27】 ここで、M(x,y)は最終のバイナリマスクであり、
Ψmは、検証される現在の画素を中心とする方形ウィン
ドウ内の前面画素の割合である。前に述べたように、ウ
ィンドウサイズは、通常、9×9または11×11であ
るが、異なるサイズのオブジェクトに適合するように調
節され得る。
【0208】コンピュータでの実行について、異なる段
において、異なるタイプの候補を示すために、異なる値
を使用する場合、Ms、Mn、およびMmの記憶装置が共
有され得る。例えば、背景画素の強力な候補を決定する
第1の処理において、背景画素の強力な候補を0と示
し、それ以外を(1の代わりに)2と示し得る。第2の
処理において、前面画素の強力な候補を1と示し、残り
の画素を3と示し得る。Sharp(登録商標) In
ternet ViewCam等のアプリケーションに
ついて、記憶装置が制限される場合、このことは有用で
ある。
【0209】その後、バイナリマスクM(x,y)を使
用して、イメージを前面領域および背景領域へとセグメ
ント化し得る。セグメント化された前面領域は、さらに
処理される(例えば、データ速度を減少するために圧縮
される)。背景領域は、破棄されるか、または他のイメ
ージと置き換えられて、使用者が望む特殊効果が生成さ
れる。
【0210】イメージが一旦セグメント化されると、信
号ヒストグラムおよびノイズヒストグラムが、前面領域
および背景領域を用いてそれぞれ再度計算され得る。ま
た、イメージは、バイナリマスクと共にセーブされ得
る。その後、次のイメージが得られ、上のプロセスを繰
り返すことによりセグメント化される。
【0211】ノイズレベルが低減され得る場合、セグメ
ント化の結果が向上され得る。前に述べたように、ノイ
ズの項nr、ng、およびnbは、画素毎に独立した確率
変数である。ここで、絶対値演算が適用される前、ノイ
ズの項は直接差分である。一方で、前面画素についての
信号値は、小さな近隣領域に亘って、互いに相関付けら
れる。例えば、赤成分について、直接差分イメージDr
は次のように得られる。
【0212】
【数28】 絶対値演算が適用される前に、移動ウィンドウ平均化演
算がこのイメージに適用された場合、ウィンドウサイズ
が小さい場合には、平均化された信号がほぼ同じままで
あるが、ノイズ分散は低減される。簡略化のために、ノ
イズの項nr、ng、およびnbの各々は分散σを有する
ものとする。n×n画素のウィンドウサイズについて、
平滑化されたイメージのノイズ分散は、σからσ/nへ
と低減される。通常、ウィンドウサイズは3×3に設定
され、各カラー成分におけるノイズ分散は、3分の1に
低減される。この演算は、絶対値演算子が適用される前
に、3つの色成分全てに適用されて、式(3)によって
規定された差分イメージが生成される。
【0213】図7は、ノイズ低減を含むように修正され
た点で図3に示した方法とは異なる方法を示す。ステッ
プ5は、サブステップ5a〜5cを含む。ステップ5a
が、全ての色成分またはチャネルについて直接差分イメ
ージを計算し、ステップbが、移動ウィンドウ平均化演
算を実行して、直接色成分差分イメージの各々にノイズ
低減を提供する。その後、ステップ5cが、最終的な差
分イメージを生成する。
【0214】上で説明したように、現在のイメージがセ
グメント化された後に信号ヒストグラムおよびノイズヒ
ストグラムが再度計算されるので、これらのヒストグラ
ムは、常に信号およびノイズの最新の統計学的特性を反
映する。しかし、この方法は、前面オブジェクトのサイ
ズの影響を受け得る。いくつかの場合において、前面オ
ブジェクトが非常に大きく、イメージのほぼ全体を占
め、わずかな背景のみがイメージ内の残され得る。した
がって、ノイズのヒストグラムを計算するために、少数
の画素しか使用できず、このことが推定の精度に影響を
及ぼす。同様に、前面オブジェクトが小さい場合もあり
得、この場合、信号ヒストグラムの推定は信頼できない
かもしれない。
【0215】この問題は、累積的な手順を用いてヒスト
グラムを更新することにより解決され得る。例えば、信
号ヒストグラムは次のように更新され得る。
【0216】
【数29】 ここで、Hs t-1(x)は、直前のフレームをセグメント
化するのに使用された前の信号ヒストグラムであり、H
s(x)は、直前のフレームのセグメント化された結果
を用いて得られた新しいヒストグラムであり、λは、通
常1/2の値を有する定数である。
【0217】これは、例えば次の式に示すような、減少
する重み付けで前の全てのヒストグラムから部分的に得
た、重み付けされたヒストグラムを有することに相当す
る。
【0218】
【数30】 同様に、ノイズヒストグラムが、この累積的な方法を用
いて計算され得る。
【0219】この改良された方法に要求されるさらなる
計算能力および記憶装置は、重要である必要はない。こ
れは、Hs(x)の計算コストが、この手順の主要なコ
ストからなり、それは、累積的な技術が使用されるかど
うかに関わりなく要求されるからである。
【0220】その後、背景イメージが、セグメント化さ
れた結果に基づいて更新され得る。背景の元のイメージ
をB0(x,y)、最新のイメージをI(x,y)、バ
イナリマスクイメージをM(x,y)と示した場合、新
たな背景イメージは次の式によって得られる。
【0221】
【数31】 これは、例えば照明の変化またはカメラの移動によるわ
ずかな外乱による、背景における小さな変化を克服する
ために非常に有用である。
【0222】図7は、背景イメージの更新を含む、図3
のステップ16に対する修正を示す。
【0223】セグメント化が一旦実行されると、静的な
背景が除去され、新たな背景イメージと置き換えられ
る。新たな背景イメージは、前面オブジェクトとの大き
なコントラストを有し得、したがって、前面オブジェク
トの周囲の境界線において明瞭な切り抜き(cut−o
ut)を有する。これは、境界画素についての平滑化演
算を適用することにより「和らげ」られ得る。
【0224】オブジェクト画素は、その全ての隣接画素
が前面画素である場合、オブジェクト内に存在するとみ
なされる。これらの隣接画素は、図8の参照符号22に
示すような4個の接続された近隣画素または図8の参照
符号23に示すような8個の接続された近隣画素として
規定され得る。オブジェクト内のオブジェクト画素に対
して、演算は要求されない。
【0225】少なくとも1つの隣接画素が背景画素であ
る場合、オブジェクト画素は境界線とみなされる。この
画素は、次の式によって得られる新たな画素と置き換え
られ得る。
【0226】
【数32】 ここで、B’(x,y)はユーザが選択した新たな背景
イメージであり、εは、通常1/2の値を有する定数で
ある。
【0227】あらかじめ記録された背景のイメージは、
前面オブジェクトが存在する現実の背景とは異なり得
る。この問題を引き起こす多くの要因のうち、最も重要
な要因が2つある: 1)イメージングデバイスは、スイッチオフし得ないホ
ワイトバランス自動調節機能を有し得る。 2)前面オブジェクトは、背景から入射する光を遮る。
【0228】これらの問題の結果、前面オブジェクトが
存在する場合、背景における強度および色が変化する。
これらの変化が著しくない場合、これらの変化を各色要
素について定数として概算し得る。つまり、これらの変
化を次のように表し得る。
【0229】
【数33】 ここで、DR、DG、およびDBは、位置(x,y)に関
係のない定数である。
【0230】これらの定数を推定するために、3つのヒ
ストグラムHR、HG、およびHBが次に示す式から計算
される。
【0231】
【数34】 ここで、各色成分R、G、およびBが範囲(0,25
5)内の値を有するものとし、各色成分R、G、および
Bの有する値が確実に範囲(0,511)内になるよう
に定数255が加えられる。照明の変化が無い場合、各
ヒストグラムは、255の位置にピークを示すはずであ
る。実際のピーク位置と255との間の差分は、色成分
の一定のシフトを示し、それにしたがって背景が調節さ
れ得る。
【0232】この背景イメージの補正は、通常、第1の
イメージがセグメント化される前の初めにのみ要求され
る。しかし、イメージング処理の間に照明の変化が起こ
る場合、この処理は、各フレームがセグメント化された
後に繰り返され得る。あるいは、この処理は、固定され
た個数のイメージがセグメント化された後に実行され
て、計算コストを低減し得る。
【0233】本発明の方法は、図9に示した装置等の、
任意の適切な装置上で実行され得る。プログラミングさ
れたデータプロセッサが、CPUバス31に接続された
中央処理ユニット(CPU)30を含む。システムメモ
リ32は、バス31に接続され、データプロセッサを動
作させるためのシステムソフトウェアまたはプログラム
を全て含んでいる。
【0234】ビデオデジタイザ34に接続された、Sh
arp(登録商標) Internet ViewCa
m等のイメージングデバイス33によって、イメージが
得られる。なお、イメージ信号がデジタルデータフォー
マットになっていない場合、ビデオデジタイザ34はデ
ータバス35に接続される。また、追加的な表示デバイ
ス36がデータバス35に接続されて、全画面内に、ま
たは、出力イメージが1つのウィンドウ内に表示される
場合には別のウィンドウ内に、入力が表示され得る。
【0235】あるいは、入来するイメージは他のソース
を形成し得、既に、ハードディスクまたはデータバス3
5に接続された他の記憶デバイス37に格納され得るコ
ンピュータファイルの形態であり得る。
【0236】本発明のシステムは、入来するイメージを
格納するフレームバッファ38と、背景のイメージのた
めのフレームバッファ39と、バイナリマスクのための
フレームバッファ40と、セグメント化処理の間に生成
された一時的なデータのために必要な場合には、他のメ
モリバッファ41とを含む。
【0237】セグメント化された前面領域および背景領
域は、さらなる処理のために、バイナリマスクと共に他
の装置に送信され得るか、または、ハードディスク等の
他の記憶装置に格納され得る。
【0238】セグメント化された前面領域およびユーザ
が割り当てた新たな背景イメージを用いて、構成された
イメージが生成され得る。新たな構成されたイメージ
が、表示デバイス36上の、全画面内に、または、別個
のウィンドウ内に表示された元のイメージと比較するた
めに、ウィンドウ内に表示され得る。
【0239】本発明によれば、ピクセル化されたイメー
ジを、前面領域と背景領域とにセグメント化する技術が
提供される。先行するイメージの背景領域および前面領
域が分析され、ノイズヒストグラムおよび信号ヒストグ
ラムが提供される。第1の閾値は、所定の割合の背景画
素がより低いノイズレベルを有するような最低のレベル
として生成される。第2の閾値は、所定の割合の前面画
素が最も高い信号レベルを有するような最高のレベルと
して生成される。イメージの各画素と非遮蔽背景イメー
ジの対応する画素との差分として、差分イメージが形成
される。差分イメージ画素の値が第1の閾値よりも小さ
く、且つ、この画素を取り囲む近隣差分イメージ画素の
大部分が背景領域に割り当てられている場合、差分イメ
ージ画素の各々は、背景画素として割り当てられる。そ
の後、残りの画素の各々は、その値が第2の閾値よりも
大きく、且つ、その近隣画素の大部分が前面領域に割り
当てられている場合に、前面領域に割り当てられる。そ
の後、残りの画素は、第1の閾値と第2の閾値との間に
ある第3の閾値との比較によって、前面画素の候補また
は背景画素の候補として割り当てられる。その後、各候
補画素は、近隣画素の大部分が既に背景領域に割り当て
られているか、または、背景画素の候補である場合に、
背景画素として割り当てられる。そうでない場合には、
各候補画素は、前面に割り当てられる。
【0240】
【発明の効果】したがって、本発明によれば、イメージ
またはシーケンスのイメージの前面領域および背景領域
をセグメント化するロバストな技術が提供される。
【図面の簡単な説明】
【図1】イメージをセグメント化する、第1の公知のタ
イプ技術を示すヒストグラムである。
【図2】イメージをセグメント化する、第2の公知のタ
イプ技術を示すヒストグラムである。
【図3】本発明のある実施形態を構成する、シーケンス
のイメージをセグメント化する方法の機能図である。
【図4】図3に示す方法において、異なるイメージの生
成を示す図である。
【図5】図3に示す方法において形成された、ノイズヒ
ストグラムおよび信号ヒストグラムを示す図である。
【図6】ノイズヒストグラムおよび信号のヒストグラム
の始めの計算を行なう技術を示す図である。
【図7】本発明の別の実施形態を構成する、シーケンス
のイメージをセグメント化する方法を示す機能図であ
る。
【図8】4個の接続された近隣画素および8個の接続さ
れた近隣画素を示す図である。
【図9】本発明のさらなる実施形態を構成する、シーケ
ンスのイメージをセグメント化する装置のブロック図で
ある。
【符号の説明】
30 中央処理ユニット(CPU) 31 CPUバス 32 システムメモリ 33 イメージングデバイス 34 ビデオデジタイザ 35 データバス 36 表示デバイス 37 記憶デバイス 38 フレームバッファ 39 フレームバッファ 40 フレームバッファ 41 メモリバッファ

Claims (56)

    【特許請求の範囲】
  1. 【請求項1】 画素化されたイメージをセグメント化す
    る方法であって、 (a)第1の基準イメージから少なくとも1つの第1領
    域を選択するステップと、 (b)該少なくとも1つの第1領域に含まれる画素の値
    から、該画素のうちの第1の所定の割合の画素が、第1
    の閾値の第1の側にある値を有するような第1の閾値を
    得るステップと、 (c)該イメージの各画素と非遮蔽背景のイメージの対
    応する画素との差分として、差分イメージを形成するス
    テップと、 (d)該差分イメージ画素の値が該第1の閾値の該第1
    の側にあり、且つ、第1の所定の数よりも多くの数の近
    隣差分イメージ画素の値が該第1の閾値の該第1の側に
    ある場合、各差分イメージ画素を、少なくとも1つの第
    1タイプの領域に割り当てるステップと、を含む方法。
  2. 【請求項2】 前記第1の所定の割合が0.5〜1であ
    る、請求項1に記載の方法。
  3. 【請求項3】 前記第1の所定の割合が0.75にほぼ
    等しい、請求項2に記載の方法。
  4. 【請求項4】 前記第1の所定の数が、近隣差分イメー
    ジ画素の数の半分にほぼ等しい、請求項2または3に記
    載の方法。
  5. 【請求項5】 前記少なくとも1つの第1領域および前
    記少なくとも1つの第1タイプの領域の各々が、少なく
    とも1つの背景領域を含み、前記第1の閾値の前記第1
    の側が、該第1の閾値よりも小さい、前記請求項のいず
    れか1つに記載の方法。
  6. 【請求項6】 前記第1の基準イメージが、前記非遮蔽
    背景の2つのイメージの間の差分を含み、該少なくとも
    1つの第1領域が、該第1の基準イメージのほぼ全体を
    含む、請求項5に記載の方法。
  7. 【請求項7】 前記少なくとも1つの第1領域が、自動
    的に選択される、請求項1から5のいずれか1つに記載
    の方法。
  8. 【請求項8】 前記少なくとも1つの第1領域が、前記
    第1の基準イメージの少なくとも1つの側部を含む、請
    求項7に記載の方法。
  9. 【請求項9】 前記少なくとも1つの第1領域が、手動
    で選択される、請求項1から5のいずれか1つに記載の
    方法。
  10. 【請求項10】 前記ステップ(d)における前記近隣
    画素がアレイ状に配置され、前記差分イメージ画素の位
    置が該アレイのほぼ中心にある、前記請求項のいずれか
    1つに記載の方法。
  11. 【請求項11】 共通の背景を有するシーケンスのイメ
    ージについて、前記ステップ(a)〜(d)を繰り返す
    ことを特徴とする、前記請求項のいずれか1つに記載の
    方法。
  12. 【請求項12】 前記第1の基準イメージが、先行する
    差分イメージである、請求項11に記載の方法。
  13. 【請求項13】 前記少なくとも1つの第1領域が、前
    記先行するステップ(d)の、前記少なくとも1つの第
    1タイプの領域を含む、請求項12に記載の方法。
  14. 【請求項14】 各ステップ(d)は、前記少なくとも
    1つの第1タイプの領域に割り当てられた前記差分イメ
    ージ画素の値を含む第1の初期ヒストグラムを形成する
    ステップを含み、 前記ステップ(b)は、先行するステップ(d)におい
    て形成された該第1の初期ヒストグラムと先行するステ
    ップ(b)の第1の得られたヒストグラムの1つよりも
    小さな第1の所定の分画との合計を含む該第1の得られ
    たヒストグラムから、前記第1の閾値を得る、請求項1
    3に記載の方法。
  15. 【請求項15】 前記第1の所定の分画が1/2であ
    る、請求項14に記載の方法。
  16. 【請求項16】 画素化されたイメージをセグメント化
    する方法であって、 (e)第2の基準イメージから少なくとも1つの第2領
    域を選択するステップと、 (f)該少なくとも1つの第2領域に含まれる画素の値
    から、該画素のうちの第2の所定の割合の画素が、第2
    の閾値の、前記第1の側の反対の第2の側にある値を有
    するような第2の閾値を得るステップと、 (g)前記差分イメージ画素の値が該第2の閾値の該第
    2の側にあり、且つ、第2の所定の数よりも多くの数の
    近隣差分イメージ画素の値が該第2の閾値の該第2の側
    にある場合、前記少なくとも1つの第1タイプの領域に
    割り当てられない差分イメージ画素の各々を、少なくと
    も1つの第2タイプの領域に割り当てるステップと、を
    含む、前記請求項のいずれか1つに記載の方法。
  17. 【請求項17】 前記第2の所定の割合が0.5〜1で
    ある、請求項16に記載の方法。
  18. 【請求項18】 前記第2の所定の割合が0.75にほ
    ぼ等しい、請求項17に記載の方法。
  19. 【請求項19】 前記第2の所定の数が、近隣差分イメ
    ージ画素の数の半分にほぼ等しい、請求項16または1
    7に記載の方法。
  20. 【請求項20】 前記少なくとも1つの第2領域および
    前記少なくとも1つの第2タイプの領域の各々が、少な
    くとも1つの前面領域を含み、前記第2の閾値の前記第
    2の側が、該第2の閾値よりも大きい、前記請求項16
    から19のいずれか1つに記載の方法。
  21. 【請求項21】 前記少なくとも1つの第2領域が、自
    動的に選択される、請求項16から20のいずれか1つ
    に記載の方法。
  22. 【請求項22】 前記少なくとも1つの第2領域が、前
    記第2の基準イメージの中間部分を含む、請求項21に
    記載の方法。
  23. 【請求項23】 前記少なくとも1つの第2領域が、手
    動で選択される、請求項16から20のいずれか1つに
    記載の方法。
  24. 【請求項24】 前記第2の基準イメージが前記第1の
    基準イメージを含む、請求項16から23のいずれか1
    つに記載の方法。
  25. 【請求項25】 前記ステップ(g)における前記近隣
    画素がアレイ状に配置され、前記差分イメージ画素の位
    置が該アレイのほぼ中心にある、請求項16から24の
    いずれか1つに記載の方法。
  26. 【請求項26】 共通の背景を有するシーケンスのイメ
    ージについて、前記ステップ(e)〜(g)を繰り返す
    ことを特徴とする、請求項16から25のいずれか1つ
    に記載の方法。
  27. 【請求項27】 前記第2の基準イメージが、先行する
    差分イメージである、請求項26に記載の方法。
  28. 【請求項28】 前記少なくとも1つの第2領域が、前
    記先行するステップ(g)の、前記少なくとも1つの第
    2タイプの領域を含む、請求項27に記載の方法。
  29. 【請求項29】 各ステップ(g)は、前記少なくとも
    1つの第2タイプの領域に割り当てられた前記差分イメ
    ージ画素の値を含む第2の初期ヒストグラムを形成する
    ステップを含み、 前記ステップ(f)は、先行するステップ(g)におい
    て形成された該第2の初期ヒストグラムと先行するステ
    ップ(f)の第2の得られたヒストグラムの1つよりも
    小さな第2の所定の分画との合計を含む該第2の得られ
    たヒストグラムから、前記第2の閾値を得る、請求項2
    8に記載の方法。
  30. 【請求項30】 前記第2の所定の分画が1/2であ
    る、請求項29に記載の方法。
  31. 【請求項31】 前記少なくとも1つの第1タイプの領
    域に割り当てられず、且つ、前記少なくとも1つの第2
    タイプの領域に割り当てられない、各差分イメージ画素
    のうち、該差分イメージ画素の値が第3の閾値よりも小
    さい画素を、第1タイプの画素の候補として割り当てる
    ステップを含む、請求項16から30のいずれか1つに
    記載の方法。
  32. 【請求項32】 前記第3の閾値が、前記第1の閾値と
    前記第2の閾値との間の値である、請求項31に記載の
    方法。
  33. 【請求項33】 前記第3の閾値が、前記第1および第
    2の閾値の算術平均である、請求項32に記載の方法。
  34. 【請求項34】 前記少なくとも1つの第1タイプの領
    域に割り当てられず、且つ、前記少なくとも1つの第2
    タイプの領域に割り当てられない、各差分イメージ画素
    について、該差分イメージ画素の前記近隣画素のうち
    の、第3の所定の数を超える数の近隣画素が、該少なく
    とも1つの第1タイプの領域に割り当てられるか、また
    は、第1タイプの画素の候補として割り当てられる場
    合、該各差分イメージ画素を該少なくとも1つの第1タ
    イプの領域に割り当てるステップを含む、請求項31か
    ら33のいずれか1つに記載の方法。
  35. 【請求項35】 前記近隣画素が1アレイの画素を含
    み、前記差分イメージ画素の位置が該アレイのほぼ中心
    にある、請求項34に記載の方法。
  36. 【請求項36】 前記第3の所定の数が、近隣差分イメ
    ージ画素の数の半分である、請求項34または35に記
    載の方法。
  37. 【請求項37】 前記少なくとも1つの第1タイプの領
    域に割り当てられず、且つ、前記少なくとも1つの第2
    タイプの領域に割り当てられない、各差分イメージ画素
    を、該少なくとも1つの第2タイプの領域に割り当てる
    ステップを含む、請求項34から36のいずれか1つに
    記載の方法。
  38. 【請求項38】 前記イメージまたは各イメージならび
    に前記背景イメージが、グレイレベルイメージであり、
    前記ステップ(c)が、各イメージ画素と対応する背景
    画素との差分を、該各イメージ画素のグレイレベルと該
    対応する背景画素のグレイレベルとの差分として形成す
    る、前記請求項のいずれか1つに記載の方法。
  39. 【請求項39】 前記ステップ(c)は、前記差分イメ
    ージまたは各差分イメージに対して移動ウィンドウ平均
    化ステップを実行するステップを含む、前記請求項のい
    ずれか1つに記載の方法。
  40. 【請求項40】 前記イメージまたは各イメージならび
    に前記背景イメージが、カラーイメージであり、前記ス
    テップ(c)が、各イメージ画素と対応する背景画素と
    の差分を、該各イメージ画素の色と該対応する背景画素
    の色との間の色距離として形成する、請求項1から37
    のいずれか1つに記載の方法。
  41. 【請求項41】 前記色距離は、 【数1】 (nは各画素の色成分の数であり、Iiはイメージ画素
    のi番目の色成分であり、Biは背景画素のi番目の色
    成分であり、αiは重み係数である)として形成され
    る、請求項40に記載の方法。
  42. 【請求項42】 各αiは1に等しい、請求項41に記
    載の方法。
  43. 【請求項43】 nが3に等しく、I1およびB1が赤色
    成分であり、I2およびB2が緑色成分であり、I3およ
    びB3が青色成分である、請求項41または42に記載
    の方法。
  44. 【請求項44】 前記ステップ(c)が色成分差分イメ
    ージIi−Biを形成し、該色成分差分イメージの各々に
    対して、移動ウィンドウ平均化ステップを実行する、請
    求項41から43のいずれか1つに記載の方法。
  45. 【請求項45】 前記ウィンドウは、3×3画素のサイ
    ズを有する、請求項39または44に記載の方法。
  46. 【請求項46】 差分イメージ画素に対応するエレメン
    トを有するバイナリマスクを形成するステップであっ
    て、各エレメントは、前記対応する差分イメージ画素が
    前記少なくとも1つの第1タイプの領域に割り当てられ
    た場合に第1の値を有し、該対応する差分イメージ画素
    が前記少なくとも1つの第2タイプの領域に割り当てら
    れた場合に該第1の値と異なる第2の値を有することを
    含む、前記請求項のいずれか1つに記載の方法。
  47. 【請求項47】 前記少なくとも1つの背景領域に割り
    当てられた差分イメージ画素に対応する前記イメージま
    たは各イメージの各画素の値を、対応する背景イメージ
    画素の値と置き換えるステップを含む、請求項5に記載
    の方法。
  48. 【請求項48】 前記少なくとも1つの背景領域に割り
    当てられた差分イメージ画素に対応する前記イメージま
    たは各イメージの各画素の値を、異なる背景の対応する
    画素の値と置き換えるステップを含む、請求項5に記載
    の方法。
  49. 【請求項49】 少なくとも1つの前面領域の境界線に
    割り当てられた差分イメージ画素に対応する前記イメー
    ジまたは各イメージの各画素の値を、該イメージ画素の
    値と前記対応する異なる背景画素の値との線形結合と置
    き換えるステップを含むことを含む、請求項48に記載
    の方法。
  50. 【請求項50】 前記線形結合が、対または各対の対応
    する画素成分値の算術平均を含む、請求項49に記載の
    方法。
  51. 【請求項51】 各色成分について、前記少なくとも1
    つの背景領域に割り当てられた画素の色成分値と、前記
    非遮蔽背景イメージの対応する画素の色成分値との差分
    の分布を形成するステップと;該分布におけるピークの
    位置の、所定の位置からのシフトを判定するステップ
    と;該シフトに基づいて、該少なくとも1つの背景領域
    に割り当てられた画素の該色成分値を補正するステップ
    とを含む、請求項5に記載の方法。
  52. 【請求項52】 画素化されたイメージをセグメント化
    する装置であって、 第1の基準イメージから少なくとも1つの第1領域を選
    択する手段と、 該少なくとも1つの第1領域に含まれる画素の値から、
    該画素のうちの第1の所定の割合の画素が、第1の閾値
    の第1の側にある値を有するような第1の閾値を得る手
    段と、 該イメージの各画素と非遮蔽背景のイメージの対応する
    画素との差分として、差分イメージを形成する手段と、 該差分イメージ画素の値が該第1の閾値の該第1の側に
    あり、且つ、第1の所定の数よりも多くの数の近隣差分
    イメージ画素の値が該第1の閾値の該第1の側にある場
    合、各差分イメージ画素を、少なくとも1つの第1タイ
    プの領域に割り当てる手段と、を含む装置。
  53. 【請求項53】 画素化されたイメージをセグメント化
    する装置であって、 プログラミング可能なデータプロセッサと、 該データプロセッサを制御して、請求項1から51のい
    ずれか1つに記載の方法を実行するプログラムを含む記
    憶媒体と、を含む装置。
  54. 【請求項54】 データプロセッサを制御して、請求項
    1から51のいずれか1つに記載の方法を実行するプロ
    グラムを含む記憶媒体。
  55. 【請求項55】 データプロセッサを制御して、請求項
    1から51のいずれか1つに記載の方法を実行するプロ
    グラム。
  56. 【請求項56】 請求項52または53に記載の装置を
    含むイメージキャプチャデバイス。
JP2000393856A 2000-01-06 2000-12-25 ピクセル化されたイメージをセグメント化する方法および装置、並びに記録媒体、プログラム、イメージキャプチャデバイス Expired - Lifetime JP3862140B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB0000155.2 2000-01-06
GB0000155A GB2358098A (en) 2000-01-06 2000-01-06 Method of segmenting a pixelled image

Publications (2)

Publication Number Publication Date
JP2001229390A true JP2001229390A (ja) 2001-08-24
JP3862140B2 JP3862140B2 (ja) 2006-12-27

Family

ID=9883215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000393856A Expired - Lifetime JP3862140B2 (ja) 2000-01-06 2000-12-25 ピクセル化されたイメージをセグメント化する方法および装置、並びに記録媒体、プログラム、イメージキャプチャデバイス

Country Status (4)

Country Link
US (1) US6819796B2 (ja)
EP (1) EP1115254A3 (ja)
JP (1) JP3862140B2 (ja)
GB (1) GB2358098A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008192131A (ja) * 2007-01-31 2008-08-21 Fuji Xerox Co Ltd 特徴レベル・セグメンテーションを実行するシステムおよび方法
JP2009536417A (ja) * 2006-05-03 2009-10-08 フォトネーション アイルランド リミテッド デジタル画像における改良された前景/背景分離
CN101894372A (zh) * 2010-08-03 2010-11-24 新疆大学 含噪遥感图像分割的新方法
JP2012059076A (ja) * 2010-09-09 2012-03-22 Canon Inc 情報処理装置、その認識方法及びプログラム
US8170350B2 (en) 2004-08-16 2012-05-01 DigitalOptics Corporation Europe Limited Foreground/background segmentation in digital images
JP2013122763A (ja) * 2011-12-12 2013-06-20 Samsung Electronics Co Ltd 映像処理装置及び映像処理方法
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
KR101545359B1 (ko) 2007-01-16 2015-08-18 톰슨 라이센싱 이미지에서 아티팩트를 감소시키는 시스템 및 방법

Families Citing this family (131)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7650015B2 (en) * 1997-07-22 2010-01-19 Image Processing Technologies. LLC Image processing method
JP3642258B2 (ja) * 2000-05-08 2005-04-27 松下電器産業株式会社 映像合成装置
US7460130B2 (en) * 2000-09-26 2008-12-02 Advantage 3D Llc Method and system for generation, storage and distribution of omni-directional object views
US6678413B1 (en) * 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
US7643655B2 (en) * 2000-11-24 2010-01-05 Clever Sys, Inc. System and method for animal seizure detection and classification using video analysis
US6915011B2 (en) * 2001-03-28 2005-07-05 Eastman Kodak Company Event clustering of images using foreground/background segmentation
US6912313B2 (en) * 2001-05-31 2005-06-28 Sharp Laboratories Of America, Inc. Image background replacement method
DE10132589B4 (de) * 2001-07-05 2005-11-03 Koenig & Bauer Ag Verfahren zur qualitativen Beurteilung von Material
GB2377333A (en) * 2001-07-07 2003-01-08 Sharp Kk Segmenting a pixellated image into foreground and background regions
WO2003010727A1 (en) * 2001-07-25 2003-02-06 Vislog Technology Pte Ltd. Method and apparatus for processing image data
DE10138650A1 (de) * 2001-08-07 2003-02-27 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Verschlüsseln eines diskreten Signals sowie Verfahren und Vorrichtung zur Entschlüsselung
KR100516638B1 (ko) * 2001-09-26 2005-09-22 엘지전자 주식회사 화상 통신 시스템
US7277580B2 (en) * 2001-12-12 2007-10-02 Sony Corporation Multiple thresholding for video frame segmentation
US7257252B2 (en) * 2001-12-12 2007-08-14 Sony Corporation Voting-based video background mosaicking
US20030128873A1 (en) * 2002-01-07 2003-07-10 Barry Bronson Imaging system and method for generating a digital image file
TW582168B (en) * 2002-03-01 2004-04-01 Huper Lab Co Ltd Method for abstracting multiple moving objects
US7254268B2 (en) * 2002-04-11 2007-08-07 Arcsoft, Inc. Object extraction
US7203356B2 (en) * 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications
US7263227B2 (en) * 2002-04-25 2007-08-28 Microsoft Corporation Activity detector
US7024039B2 (en) * 2002-04-25 2006-04-04 Microsoft Corporation Block retouching
US7110596B2 (en) * 2002-04-25 2006-09-19 Microsoft Corporation System and method facilitating document image compression utilizing a mask
US7043079B2 (en) * 2002-04-25 2006-05-09 Microsoft Corporation “Don't care” pixel interpolation
US7164797B2 (en) * 2002-04-25 2007-01-16 Microsoft Corporation Clustering
US7120297B2 (en) * 2002-04-25 2006-10-10 Microsoft Corporation Segmented layered image system
US7392472B2 (en) * 2002-04-25 2008-06-24 Microsoft Corporation Layout analysis
GB2395780A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Face detection
US7899245B2 (en) * 2002-12-30 2011-03-01 Lockheed Martin Corporation Morphological based segmenter
JP4307910B2 (ja) * 2003-03-07 2009-08-05 富士フイルム株式会社 動画像切り出し装置および方法並びにプログラム
US7489829B2 (en) * 2003-03-11 2009-02-10 Sightic Vista Ltd. Adaptive low-light image processing
US7440613B2 (en) * 2003-09-12 2008-10-21 Sony Corporation Binary mask interpolation
US7623728B2 (en) * 2004-03-24 2009-11-24 General Electric Company Method and product for processing digital images
US7248736B2 (en) * 2004-04-19 2007-07-24 The Trustees Of Columbia University In The City Of New York Enhancing images superimposed on uneven or partially obscured background
KR101183000B1 (ko) 2004-07-30 2012-09-18 익스트림 리얼리티 엘티디. 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및방법
US8681100B2 (en) 2004-07-30 2014-03-25 Extreme Realty Ltd. Apparatus system and method for human-machine-interface
US8872899B2 (en) 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
JP4215014B2 (ja) * 2005-03-17 2009-01-28 ソニー株式会社 画像処理装置および画像処理プログラム
US7672516B2 (en) * 2005-03-21 2010-03-02 Siemens Medical Solutions Usa, Inc. Statistical priors for combinatorial optimization: efficient solutions via graph cuts
TWI267061B (en) * 2005-06-21 2006-11-21 Asustek Comp Inc Method for processing multi-layered images
EP1940290B1 (en) * 2005-10-18 2012-01-11 Koninklijke Philips Electronics N.V. Patient scan time optimization for pet/spect imaging
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US20070285554A1 (en) 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
US7720283B2 (en) * 2005-12-09 2010-05-18 Microsoft Corporation Background removal in a live video
WO2007076890A1 (en) * 2005-12-30 2007-07-12 Telecom Italia S.P.A. Segmentation of video sequences
US8077969B2 (en) * 2005-12-30 2011-12-13 Telecom Italia S.P.A. Contour finding in segmentation of video sequences
US8078618B2 (en) 2006-01-30 2011-12-13 Eastman Kodak Company Automatic multimode system for organizing and retrieving content data files
US8150155B2 (en) * 2006-02-07 2012-04-03 Qualcomm Incorporated Multi-mode region-of-interest video object segmentation
US8265392B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Inter-mode region-of-interest video object segmentation
US8265349B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
JP2007241479A (ja) 2006-03-06 2007-09-20 Toshiba Corp 変動領域検出装置及びその方法
US8026931B2 (en) * 2006-03-16 2011-09-27 Microsoft Corporation Digital video effects
CN101867679B (zh) * 2006-03-27 2013-07-10 三洋电机株式会社 缩略图生成装置及摄像装置
US7760395B2 (en) * 2006-09-28 2010-07-20 Konica Minolta Systems Laboratory, Inc. Background color conversion for toner-saving printing
US8300890B1 (en) * 2007-01-29 2012-10-30 Intellivision Technologies Corporation Person/object image and screening
US8290257B2 (en) * 2007-03-02 2012-10-16 The Procter & Gamble Company Method and apparatus for simulation of facial skin aging and de-aging
CN101543058A (zh) * 2007-04-02 2009-09-23 M.苏福特有限公司 视频合成方法和视频合成***
US7834894B2 (en) * 2007-04-03 2010-11-16 Lifetouch Inc. Method and apparatus for background replacement in still photographs
JP5045371B2 (ja) * 2007-10-30 2012-10-10 Kddi株式会社 動画像の各画素の前景背景分類装置、方法及びプログラム
US8831357B2 (en) * 2007-11-09 2014-09-09 Cognitech, Inc. System and method for image and video search, indexing and object classification
JP4952627B2 (ja) * 2008-03-21 2012-06-13 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US9078048B1 (en) * 2008-07-15 2015-07-07 Google Inc. Finding and populating spatial ad surfaces in video
US8346010B2 (en) * 2008-09-17 2013-01-01 Panasonic Corporation Image processing device, imaging device, evaluation device, image processing method, and optical system evaluation method
EP2350925A4 (en) * 2008-10-24 2012-03-21 Extreme Reality Ltd METHOD, SYSTEM AND ASSOCIATED MODULES AND SOFTWARE COMPONENTS FOR PRODUCING A MAN-MACHINE INTERFACE BASED ON IMAGE SENSOR
US8634635B2 (en) * 2008-10-30 2014-01-21 Clever Sys, Inc. System and method for stereo-view multiple animal behavior characterization
CN101742324A (zh) * 2008-11-14 2010-06-16 北京中星微电子有限公司 视频编解码方法、视频编解码***及编解码器
JP2013505493A (ja) 2009-09-21 2013-02-14 エクストリーム リアリティー エルティーディー. 電子機器とのヒューマン・マシン・インタフェーシングの為の方法、回路、装置及びシステム
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
KR101603242B1 (ko) * 2009-12-07 2016-03-15 엘지디스플레이 주식회사 로컬 디밍을 위한 표시 영역의 분할 방법과 그를 이용한 액정 표시 장치 및 그 구동 방법
US20110150298A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US9875719B2 (en) * 2009-12-23 2018-01-23 Gearbox, Llc Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110211738A1 (en) * 2009-12-23 2011-09-01 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110211739A1 (en) * 2009-12-23 2011-09-01 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150297A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150295A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150299A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150276A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110206245A1 (en) * 2009-12-23 2011-08-25 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US8712110B2 (en) * 2009-12-23 2014-04-29 The Invention Science Fund I, LC Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150296A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US8730396B2 (en) * 2010-06-23 2014-05-20 MindTree Limited Capturing events of interest by spatio-temporal video analysis
US8655093B2 (en) * 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
WO2012038009A1 (de) * 2010-09-20 2012-03-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zum unterscheiden von hintergrund und vordergrund einer szenerie sowie verfahren zum ersetzen eines hintergrundes in bildern einer szenerie
TWI450154B (zh) * 2010-09-29 2014-08-21 Pixart Imaging Inc 光學觸控系統及其物件偵測方法
CA2806520C (en) 2011-01-23 2016-02-16 Extreme Reality Ltd. Methods, systems, devices and associated processing logic for generating stereoscopic images and video
JP5716448B2 (ja) * 2011-02-24 2015-05-13 富士ゼロックス株式会社 画像形成装置
US20120237125A1 (en) * 2011-03-14 2012-09-20 Yen Hsiang Chew Isolating Background and Foreground Objects in Video
GB2489674A (en) * 2011-03-29 2012-10-10 Sony Corp 3D image generation
US8928769B2 (en) 2011-03-31 2015-01-06 Drs Sustainment Systems, Inc. Method for image processing of high-bit depth sensors
JP5555672B2 (ja) * 2011-07-14 2014-07-23 東芝テック株式会社 画像処理装置
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US20130301918A1 (en) * 2012-05-08 2013-11-14 Videostir Ltd. System, platform, application and method for automated video foreground and/or background replacement
US9106908B2 (en) * 2012-07-30 2015-08-11 Intel Corporation Video communication with three dimensional perception
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US10042510B2 (en) 2013-01-15 2018-08-07 Leap Motion, Inc. Dynamic user interactions for display control and measuring degree of completeness of user gestures
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
US10620709B2 (en) 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US9747696B2 (en) 2013-05-17 2017-08-29 Leap Motion, Inc. Systems and methods for providing normalized parameters of motions of objects in three-dimensional space
KR102116791B1 (ko) * 2013-06-04 2020-06-09 삼성전자주식회사 깊이 정보를 사용한 움직인 물체 검출 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US9721383B1 (en) 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
TWI497062B (zh) * 2013-12-05 2015-08-21 Inventec Corp 中央處理器腳座的光學檢測系統及其方法
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
JP2016038889A (ja) 2014-08-08 2016-03-22 リープ モーション, インコーポレーテッドLeap Motion, Inc. モーション感知を伴う拡張現実
RU2607415C2 (ru) * 2015-04-21 2017-01-10 Федеральное государственное казенное военное образовательное учреждение высшего образования "Академия Федеральной службы охраны Российской Федерации" (Академия ФСО России) Способ идентификации кадров потока мультимедийных данных на основе корреляционного анализа гистограмм изображений кадров
KR102372164B1 (ko) 2015-07-24 2022-03-08 삼성전자주식회사 촬영 장치, 그의 오브젝트 감지 방법 및 비일시적 컴퓨터 판독가능 기록매체
JP6642021B2 (ja) * 2016-01-15 2020-02-05 富士ゼロックス株式会社 画像処理装置、画像処理システムおよびプログラム
TWI615806B (zh) * 2016-10-11 2018-02-21 威聯通科技股份有限公司 影像背景學習方法及電子裝置
WO2019047985A1 (zh) * 2017-09-11 2019-03-14 Oppo广东移动通信有限公司 图像处理方法和装置、电子装置和计算机可读存储介质
CN109598276A (zh) * 2017-09-30 2019-04-09 佳能株式会社 图像处理装置和方法及监控***
RU2673966C1 (ru) * 2017-10-23 2018-12-03 Федеральное государственное казенное военное образовательное учреждение высшего образования "Академия Федеральной службы охраны Российской Федерации" (Академия ФСО России) Способ идентификации кадров в потоке мультимедийных данных
JP7075773B2 (ja) * 2018-02-16 2022-05-26 オリンパス株式会社 画像処理装置、顕微鏡システム、画像処理方法および画像処理プログラム
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
CN110400355B (zh) * 2019-07-29 2021-08-27 北京华雨天成文化传播有限公司 一种单***的确定方法、装置、电子设备及存储介质
CN111583485A (zh) * 2020-04-16 2020-08-25 北京澎思科技有限公司 小区门禁***、门禁控制方法和装置、门禁单元及介质
US11790535B2 (en) * 2020-05-12 2023-10-17 True Meeting Inc. Foreground and background segmentation related to a virtual three-dimensional (3D) video conference
US11580832B2 (en) * 2020-10-23 2023-02-14 Himax Technologies Limited Motion detection system and method
CN113160109B (zh) * 2020-12-15 2023-11-07 宁波大学 反背景差分的细胞图像分割方法
CN112863010B (zh) * 2020-12-29 2022-08-05 宁波友好智能安防科技有限公司 一种防盗锁的视频图像处理***
CN113345003B (zh) * 2021-05-31 2023-08-25 中国农业大学 一种池塘水草面积估计方法
CN117934689B (zh) * 2024-03-25 2024-06-11 四川省医学科学院·四川省人民医院 一种骨折ct影像的多组织分割与三维渲染方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69126585T2 (de) * 1990-09-20 1998-01-02 Nec Corp Verfahren und Gerät zur Kodierung von bewegten Bildsignalen
US5481620A (en) * 1991-09-27 1996-01-02 E. I. Du Pont De Nemours And Company Adaptive vision system
US5617484A (en) * 1992-09-25 1997-04-01 Olympus Optical Co., Ltd. Image binarizing apparatus
US5933524A (en) * 1993-09-27 1999-08-03 Siemens Aktiengesellschaft Method for segmentation of digital color images
US5812787A (en) * 1995-06-30 1998-09-22 Intel Corporation Video coding scheme with foreground/background separation
US5915044A (en) * 1995-09-29 1999-06-22 Intel Corporation Encoding video images using foreground/background segmentation
US5912994A (en) 1995-10-27 1999-06-15 Cerulean Colorization Llc Methods for defining mask of substantially color-homogeneous regions of digitized picture stock
WO1997016807A1 (en) * 1995-10-31 1997-05-09 Sarnoff Corporation Method and apparatus for image-based object detection and tracking
US5781198A (en) * 1995-12-22 1998-07-14 Intel Corporation Method and apparatus for replacing a background portion of an image
US6259827B1 (en) * 1996-03-21 2001-07-10 Cognex Corporation Machine vision methods for enhancing the contrast between an object and its background using multiple on-axis images
US5903664A (en) 1996-11-01 1999-05-11 General Electric Company Fast segmentation of cardiac images
US6249613B1 (en) * 1997-03-31 2001-06-19 Sharp Laboratories Of America, Inc. Mosaic generation and sprite-based coding with automatic foreground and background separation
US5903660A (en) 1997-07-16 1999-05-11 The Regents Of The University Of California Automatic background recognition and removal (ABRR) in projection digital radiographic images (PDRI)
US6061476A (en) * 1997-11-24 2000-05-09 Cognex Corporation Method and apparatus using image subtraction and dynamic thresholding
US6335985B1 (en) * 1998-01-07 2002-01-01 Kabushiki Kaisha Toshiba Object extraction apparatus
DE19958553A1 (de) * 1999-12-04 2001-06-07 Luratech Ges Fuer Luft Und Rau Verfahren zur Kompression von gescannten Farb- und/oder Graustufendokumenten

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8170350B2 (en) 2004-08-16 2012-05-01 DigitalOptics Corporation Europe Limited Foreground/background segmentation in digital images
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
JP2009536417A (ja) * 2006-05-03 2009-10-08 フォトネーション アイルランド リミテッド デジタル画像における改良された前景/背景分離
US8363908B2 (en) 2006-05-03 2013-01-29 DigitalOptics Corporation Europe Limited Foreground / background separation in digital images
US9117282B2 (en) 2006-05-03 2015-08-25 Fotonation Limited Foreground / background separation in digital images
KR101545359B1 (ko) 2007-01-16 2015-08-18 톰슨 라이센싱 이미지에서 아티팩트를 감소시키는 시스템 및 방법
JP2008192131A (ja) * 2007-01-31 2008-08-21 Fuji Xerox Co Ltd 特徴レベル・セグメンテーションを実行するシステムおよび方法
CN101894372A (zh) * 2010-08-03 2010-11-24 新疆大学 含噪遥感图像分割的新方法
JP2012059076A (ja) * 2010-09-09 2012-03-22 Canon Inc 情報処理装置、その認識方法及びプログラム
US8923554B2 (en) 2010-09-09 2014-12-30 Canon Kabushiki Kaisha Information processing device, recognition method thereof and non-transitory computer-readable storage medium
JP2013122763A (ja) * 2011-12-12 2013-06-20 Samsung Electronics Co Ltd 映像処理装置及び映像処理方法

Also Published As

Publication number Publication date
US20020037103A1 (en) 2002-03-28
GB0000155D0 (en) 2000-02-23
GB2358098A (en) 2001-07-11
EP1115254A2 (en) 2001-07-11
US6819796B2 (en) 2004-11-16
EP1115254A3 (en) 2003-12-03
JP3862140B2 (ja) 2006-12-27

Similar Documents

Publication Publication Date Title
JP3862140B2 (ja) ピクセル化されたイメージをセグメント化する方法および装置、並びに記録媒体、プログラム、イメージキャプチャデバイス
EP1274251A2 (en) Method and apparatus for segmenting a pixellated image
US10298905B2 (en) Method and apparatus for determining a depth map for an angle
US20020172420A1 (en) Image processing apparatus for and method of improving an image and an image display apparatus comprising the image processing apparatus
KR100846513B1 (ko) 영상 처리 방법 및 장치
JP6715864B2 (ja) 画像に対する深度マップを決定するための方法及び装置
EP2034436A1 (en) Method for non-photorealistic rendering
KR20110014067A (ko) 스테레오 컨텐트의 변환 방법 및 시스템
KR101034518B1 (ko) 화상을 개선하는 화상 처리 장치 및 방법과, 화상 처리 장치를 포함하는 화상 디스플레이 장치
US20060104535A1 (en) Method and apparatus for removing false edges from a segmented image
JP2009044739A (ja) デジタル画像の背景色を決定するための方法およびシステム
JP2020195127A (ja) 画像処理装置、画像処理方法、撮像装置、プログラム、記憶媒体
JPH09270002A (ja) 物体強調手段

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060523

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060921

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091006

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101006

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111006

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121006

Year of fee payment: 6