JP2001229390A - ピクセル化されたイメージをセグメント化する方法および装置 - Google Patents
ピクセル化されたイメージをセグメント化する方法および装置Info
- Publication number
- JP2001229390A JP2001229390A JP2000393856A JP2000393856A JP2001229390A JP 2001229390 A JP2001229390 A JP 2001229390A JP 2000393856 A JP2000393856 A JP 2000393856A JP 2000393856 A JP2000393856 A JP 2000393856A JP 2001229390 A JP2001229390 A JP 2001229390A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel
- pixels
- region
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Studio Circuits (AREA)
- Facsimile Image Signal Circuits (AREA)
- Image Processing (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
Abstract
領域および背景領域をセグメント化するロバストな技術
を提供する。 【解決手段】 画素化されたイメージをセグメント化す
る方法は、(a)第1の基準イメージから少なくとも1
つの第1領域を選択するステップと、(b)上記少なく
とも1つの第1領域に含まれる画素の値から、上記画素
のうちの第1の所定の割合の画素が、第1の閾値の第1
の側にある値を有するような第1の閾値を得るステップ
と、(c)上記イメージの各画素と非遮蔽背景のイメー
ジの対応する画素との差分として、差分イメージを形成
するステップと、(d)上記差分イメージ画素の値が上
記第1の閾値の上記第1の側にあり、且つ、第1の所定
の数よりも多くの数の近隣差分イメージ画素の値が上記
第1の閾値の上記第1の側にある場合、各差分イメージ
画素を、少なくとも1つの第1タイプの領域に割り当て
るステップと、を含む。
Description
イメージを、少なくとも1つの前面領域および少なくと
も1つの背景領域へとセグメント化する方法および装置
に関する。このような技術は、ビデオ圧縮の分野におい
て、データ速度を低減させるためおよび/または前面領
域の圧縮品質の向上のために使用され得る。このような
技術はまた、セグメント化された背景を、別の背景イメ
ージまたは背景シーンの別のシーケンスと置き換えるこ
とにより、新たなイメージシーケンスを構成するために
使用され得る。さらに考え得るアプリケーションは、ビ
デオ通信、ビデオ会議、テレビ放送、インターネットマ
ルチメディアアプリケーション、MPEG−4アプリケ
ーション、顔検出アプリケーション、およびオブザーバ
トラッキングオートステレオスコピック3Dディスプレ
イ等のリアルタイムビデオトラッキングシステムを含
む。このような技術の具体的な用途は、マルチメディア
アプリケーション用の、デジタルビデオカメラおよび他
のデジタルイメージ撮像・記録装置である。このような
装置の一例は、Sharp(登録商標) Intern
et ViewCamである。
ケーションは、通常は一時的にアクティブである「前
面」オブジェクトと比較的静的な「背景」領域とを含む
イメージシーケンスに関与する。前面オブジェクトが移
動するおよび/または形を変えると、背景シーンの一部
が隠れるか、かつ/または、現れる。これらのアプリケ
ーションが、イメージを前面領域および背景領域へとセ
グメント化する能力を有するのは非常に有用である。
tion Internet ViewCam VN−
EZ1は、マルチメディアアプリケーション用に製造さ
れたMPEG−4デジタルレコーダである。このレコー
ダにより、コンピュータユーザは、ホームページ、イン
ターネット放送、および電子メール通信等の自分のマル
チメディアアプリケーションに動画を取り込むことがで
きる。このレコーダは、MPEG−4デジタル動画圧縮
規格およびMicrosoft(登録商標)Advan
ced Streaming Formatを用いて、
サイズが小さく、したがってインターネット配信のため
により実用的な動画ファイルを形成する。ビデオデータ
は、約1時間の記録時間を提供するSmartMedi
aTMメモリカードに記録される。
面領域および背景領域に異なる圧縮技術を使用すること
ができる。そして、より高い圧縮比が達成され得、前面
領域において、改良された品質で、より長い記録時間が
可能になる。さらに、背景領域を他のシーンと置き換え
て、消費者をいっそう惹き付ける特殊効果を生成し得
る。
後にある均一に着色されたスクリーンまたは明るく照明
されたバッキング(backing)等の、慎重に制御
された背景を用いることによりセグメント化を行った。
例えば、US5808682は、公知の色によって均一
に照明された特殊背景(special backgr
ound)から前面オブジェクトをセグメント化するデ
ータ圧縮システムを開示している。任意の色を使用し得
るが、青が最もよく用いられる。したがって、このタイ
プの着色されたバッキングは、しばしば、ブルーバッキ
ング(bluebacking)と呼ばれる。その後、
前面オブジェクトは、周知のクロマキー技術を用いてセ
グメント化され得る。
キング上において、均一な照明を実現するのは簡単な問
題ではない。US5424781は、線形イメージ構成
システム(linearimage composit
ion system)を開示している。このシステム
は、エッジグロー、エッジダークニング、エッジディテ
ールのロス、および他の異常等の損失を引き起こすこと
なく、非均一な輝度および/または着色されたバッキン
グの色を補正する。
用いて、前面オブジェクトおよび背景シーンを2つの異
なる範囲のグレースケールに分離しようとすることが公
知である。通常、グレイレベルのヒストグラム内に深い
谷を見つけることにより、セグメント化が達成され得
る。Nobuyuki Otsuの”A thresh
old selection method from
grey−levelhistograms”, I
EEE Trans. on Systems, Ma
n and Cybernetics, Vol. S
ME−9, No. 1, January 1979
pp. 62−66は、背景から前面オブジェクトを
セグメント化する最適な閾値を見つける方法を開示して
いる。添付の図面の図1は、このタイプのヒストグラム
を示す。図1において、h(t)は画素数を示し、tは
画素値の振幅を示す。制御された背景は、背景画素の大
部分が比較的低いレベルを有するのに対して、前面画素
がより高い範囲を占める傾向にあるレベルを有するよう
になっている。Otsuは、2つの範囲の間の谷に閾値
Tを規定することを試みる。
ば、図1は、明確に規定された谷が背景グレイレベル範
囲と前面グレイレベル範囲との間に存在することを示す
が、これは、極めて慎重に制御された背景についての場
合にのみ当てはまるものであり、いくつかの前面に当て
はまるが、決して全ての前面に当てはまるものではな
い。
限定されない場合、上記の問題はより深刻になる。特
に、全てのイメージがセグメント化されない多くの場合
について、かなりの数の前面画素が閾値を下回るレベル
を有し、かなりの数の背景画素が閾値を上回るレベルを
有する。したがって、選択された任意の閾値Tにより、
セグメント化は不正確になる。
T Fugimotoらの”A method for
removing background regi
ons from moving images”,
SPIE vol. 1606 Visual com
munications and image pro
cessing 1991, imaging pro
cessing, pp. 599−606に開示され
ている。この技術は、照明強度の変動の影響を受けない
ようにするため、画素値のレベルおよび極性の両方を利
用する。
が、照明強度の変動の影響を示すヒストグラムである。
このような変動がない状態で、ヒストグラムに示した分
布は、縦軸を中心とした左右対称の傾斜を有する狭いピ
ークを有する。照明強度の変動が起こった場合、このピ
ークは水平方向にオフセットされる。Fugimoto
らの技術は、ガウス分布をピークの実際の位置に適合さ
せ、定関数で曲線の残りの部分(前面画素レベルを示す
とみなされる)をシミュレートすることにより、非対称
な正および負の閾値T1およびT2を導き出す。ガウス
分布と定関数との交差は、処理されるイメージについて
の閾値T1およびT2を与える。閾値の間の全ての画素
値がノイズを示すと仮定する。
る。照明強度の変動の影響は受けないかもしれないが、
現れそうな全てのイメージが正確にセグメント化される
ように閾値の選択を行うことが出来ない。
ゲットトラッカー、およびターゲットを背景から最適に
識別するために使用される閾値を決定する方法を開示し
ている。ターゲットは、ターゲットの内部領域および外
部領域にそれぞれ対応する2つのヒストグラムから識別
されるグレイレベル領域を占有するものとみなされてい
る。両方のヒストグラムは帰納的に平滑化されており、
その後、実際に観察された画素値からなるルックアップ
テーブルが計算される。2つの最適な閾値が選択され、
ヒストグラムセグメントの両端に設定される。尤度マッ
プは、経時的に、ターゲットの識別特性(signat
ure)に適合される。ターゲットのグレイレベル分布
を使用して、ターゲットに含まれる、尤度が高いグレイ
レベルのバンドを通過する閾値を選択する。このタイプ
のアプリケーションには、正確なセグメント化が必ずし
も必要でない。
について、セグメント化の適切な結果を実現し得、通常
は計算上効率的であるが、強度または色のいずれかにつ
いてターゲットから区別し得る、慎重に制御された背景
を有するという要件は、利用可能なアプリケーションの
範囲を厳しく制限する。
的なシーンの背景から前面オブジェクトをどのようにセ
グメント化するかということである。これらの方法は、
しばしば、現在のフレームと所定のフレームとの差分を
特徴付ける差分イメージの計算を必要とする。所定のフ
レームは、背景または前のフレームのあらかじめ記録さ
れたイメージか、もしくは、多くの前のフレームから生
成されたイメージのいずれかであり得る。US5914
748は、異なる背景に対象を挿入する電子構成システ
ムを開示している。この方法は、シーケンスの各イメー
ジから、背景のあらかじめ記録されたイメージを取り去
って、異なるイメージを生成する。その後、この差分イ
メージを閾値化することにより、マスクイメージが生成
される。このマスクイメージを用いて、前面オブジェク
トをその背景からセグメント化する。この方法は、実行
するのが簡単だが、セグメント化された前面領域および
背景領域の両方において大きなアーチファクトを除去す
るために、ユーザによる手動補正を必要とし得る。
および背景領域のセグメント化は、画素単位のレベルま
たはブロック毎のレベルで実行され得る。ブロック毎の
セグメント化は、イメージをブロックに分割する。これ
らブロックの各々が、多くの画素を含んでおり、これら
の画素は全て、前面画素または背景画素のいずれかに分
類されている。ピクセル単位の方法およびブロック毎の
方法は、それぞれ利点および欠点を有する。例えば、ピ
クセル単位のセグメント化は、前面オブジェクトの境界
線をより綿密に追跡し得るが、良好な接続性を有し得
ず、よりノイズの影響を受けやすい。一方で、ブロック
毎の方法は、セグメント化された前面領域および背景領
域におけるアーチファクトの数がより少ないが、境界線
近傍の性能が劣り得る。場合によっては、アプリケーシ
ョンに依存した異なる結果を生じる異なる組み合わせ
で、これら2つのアプローチを組み合わせることができ
る。
ン変換等のブロック毎のコーディング方法およびその変
形例は、通常、データの方形ブロックに対して実行さ
れ、イメージを、所望の方形サブセグメントからなる一
時的にアクティブ/インアクティブな領域へとセグメン
ト化する。SauerおよびJonesの”Bayes
ian block−wise segmentati
on of interframe differen
ces in video sequences”,
CVGIP: Graphics and Image
Processing, Vol. 55, No.
2, March 1993, pp.129−13
9は、一時的に動的な領域および静的な領域の差分コー
ディングのために、ビデオシーケンスのイメージを、静
的な背景および動的な前面として選択されたブロックへ
とセグメント化する、ベイズのアルゴリズムを開示して
いる。このアプリケーションにおいて、一時的にアクテ
ィブな領域は「前面」として規定され、そうでない領域
は「背景」として規定され、前面オブジェクトの一部ま
たは全体が背景領域(これらの領域上では変化が起こら
ない)となり得る。この方法は、データを、2つのレベ
ルの解像度で、ランダムフィールドとしてモデリングす
る。各画素におけるフレーム間の差分が第1の閾値であ
り、バイナリイメージを生成する。イメージデータの自
然な空間的相関関係は、マルコフのランダムフィールド
モデルによって、標準的なイジングモデル(Ising
model)の形態のバイナリ値画素からなるこのフ
ィールド上に撮像される。第2のレベルの解像度におい
て、近接領域(neighbours)の間の相関関係
を示すブロックから構成されるフィールドは、また、マ
ルコフモデルによって説明される。
実行するビデオカメラに関連するゲインを補正するビデ
オエンコーディングシステムを開示している。ゲイン補
正されたイメージを解析して、前面オブジェクトに対応
するブロックおよび背景シーンに対応するブロックを識
別する。この前面/背景セグメント化は、イメージのエ
ンコード方法を決定するために用いられ得、また、次の
ビデオイメージのゲイン制御補正の間にも使用され得
る。セグメント化解析は、画素レベルおよびブロックレ
ベルの両方のレベルで行われる。画素レベルにおいて、
現在のフレームと基準フレームとの間の画素差分は、変
化した画素を示す画素マスクを生成する閾値である。そ
の後、多くの前のフレームの平均値から基準フレームが
生成される。ブロックレベルは、画素レベルの結果を取
り出し、画素のブロックを前面または背景として分類す
る。これは、ブロック型圧縮スキームにとっては通常の
ことである。分類のための基準は、画素の著しい変化
は、前面オブジェクトにおいてしか起こらないはずであ
るという仮定である。閾値は、ゼロ平均ガウス分布型確
率変数モデリングに基づいて、変化した領域の最大尤度
推定値を考慮することにより生成される。ブロックレベ
ル処理を用いて各ブロックを前面または背景に属するも
のとして分類する前に、形態フィルタ(morphol
ogical filter)を使用して、間違った前
面検出を低減する。このアプリケーションは、前面オブ
ジェクトの検出が正確であることをさほど要求しない。
主要な目的は、一時的に変化する領域を静的な領域から
分離して、それらを別々にエンコードできるようにする
ことである。
なる傾向にあり、Sharp(登録商標) Corpo
ration Internet ViewCam等
の、限られた計算能力および記憶装置を有する、リアル
タイムアプリケーションに適し得ない。これらの方法の
ロバストは制限され得、しばしば、手動のユーザ補正を
必要とする。画素単位の方法が、セグメント化された前
面および背景の両方にアーチファクトを残す傾向がある
のに対して、ブロック毎の方法は、でこぼこな境界線を
生成する傾向がある。
メージをセグメント化する方法は、(a)第1の基準イ
メージから少なくとも1つの第1領域を選択するステッ
プと、(b)該少なくとも1つの第1領域に含まれる画
素の値から、該画素のうちの第1の所定の割合の画素
が、第1の閾値の第1の側にある値を有するような第1
の閾値を得るステップと、(c)該イメージの各画素と
非遮蔽背景のイメージの対応する画素との差分として、
差分イメージを形成するステップと、(d)該差分イメ
ージ画素の値が該第1の閾値の該第1の側にあり、且
つ、第1の所定の数よりも多くの数の近隣差分イメージ
画素の値が該第1の閾値の該第1の側にある場合、各差
分イメージ画素を、少なくとも1つの第1タイプの領域
に割り当てるステップと、を含む。
てもよい。
しくてもよい。
画素の数の半分にほぼ等しくてもよい。
少なくとも1つの第1タイプの領域の各々が、少なくと
も1つの背景領域を含み、前記第1の閾値の前記第1の
側が、該第1の閾値よりも小さくてもよい。
景の2つのイメージの間の差分を含み、該少なくとも1
つの第1領域が、該第1の基準イメージのほぼ全体を含
んでもよい。
に選択されてもよい。
1の基準イメージの少なくとも1つの側部を含んでもよ
い。
選択されてもよい。
がアレイ状に配置され、前記差分イメージ画素の位置が
該アレイのほぼ中心にあってもよい。
について、前記ステップ(a)〜(d)を繰り返すこと
を特徴としてもよい。
イメージであってもよい。
行するステップ(d)の、前記少なくとも1つの第1タ
イプの領域を含んでもよい。
の第1タイプの領域に割り当てられた前記差分イメージ
画素の値を含む第1の初期ヒストグラムを形成するステ
ップを含み、前記ステップ(b)は、先行するステップ
(d)において形成された該第1の初期ヒストグラムと
先行するステップ(b)の第1の得られたヒストグラム
の1つよりも小さな第1の所定の分画との合計を含む該
第1の得られたヒストグラムから、前記第1の閾値を得
てもよい。
よい。
ト化する方法は、(e)第2の基準イメージから少なく
とも1つの第2領域を選択するステップと、(f)該少
なくとも1つの第2領域に含まれる画素の値から、該画
素のうちの第2の所定の割合の画素が、第2の閾値の、
前記第1の側の反対の第2の側にある値を有するような
第2の閾値を得るステップと、(g)前記差分イメージ
画素の値が該第2の閾値の該第2の側にあり、且つ、第
2の所定の数よりも多くの数の近隣差分イメージ画素の
値が該第2の閾値の該第2の側にある場合、前記少なく
とも1つの第1タイプの領域に割り当てられない差分イ
メージ画素の各々を、少なくとも1つの第2タイプの領
域に割り当てるステップと、を含んでもよい。
てもよい。
しくてもよい。
画素の数の半分にほぼ等しくてもよい。
少なくとも1つの第2タイプの領域の各々が、少なくと
も1つの前面領域を含み、前記第2の閾値の前記第2の
側が、該第2の閾値よりも大きくてもよい。
に選択されてもよい。
2の基準イメージの中間部分を含んでもよい。
選択されてもよい。
イメージを含んでもよい。
がアレイ状に配置され、前記差分イメージ画素の位置が
該アレイのほぼ中心にあってもよい。
について、前記ステップ(e)〜(g)を繰り返すこと
を特徴としてもよい。
イメージであってもよい。
行するステップ(g)の、前記少なくとも1つの第2タ
イプの領域を含んでもよい。
の第2タイプの領域に割り当てられた前記差分イメージ
画素の値を含む第2の初期ヒストグラムを形成するステ
ップを含み、前記ステップ(f)は、先行するステップ
(g)において形成された該第2の初期ヒストグラムと
先行するステップ(f)の第2の得られたヒストグラム
の1つよりも小さな第2の所定の分画との合計を含む該
第2の得られたヒストグラムから、前記第2の閾値を得
てもよい。
よい。
割り当てられず、且つ、前記少なくとも1つの第2タイ
プの領域に割り当てられない、各差分イメージ画素のう
ち、該差分イメージ画素の値が第3の閾値よりも小さい
画素を、第1タイプの画素の候補として割り当てるステ
ップを含んでもよい。
第2の閾値との間の値であってもよい。
閾値の算術平均であってもよい。
割り当てられず、且つ、前記少なくとも1つの第2タイ
プの領域に割り当てられない、各差分イメージ画素につ
いて、該差分イメージ画素の前記近隣画素のうちの、第
3の所定の数を超える数の近隣画素が、該少なくとも1
つの第1タイプの領域に割り当てられるか、または、第
1タイプの画素の候補として割り当てられる場合、該各
差分イメージ画素を該少なくとも1つの第1タイプの領
域に割り当てるステップを含んでもよい。
記差分イメージ画素の位置が該アレイのほぼ中心にあっ
てもよい。
画素の数の半分であってもよい。
割り当てられず、且つ、前記少なくとも1つの第2タイ
プの領域に割り当てられない、各差分イメージ画素を、
該少なくとも1つの第2タイプの領域に割り当てるステ
ップを含んでもよい。
記背景イメージが、グレイレベルイメージであり、前記
ステップ(c)が、各イメージ画素と対応する背景画素
との差分を、該各イメージ画素のグレイレベルと該対応
する背景画素のグレイレベルとの差分として形成しても
よい。
または各差分イメージに対して移動ウィンドウ平均化ス
テップを実行するステップを含んでもよい。
記背景イメージが、カラーイメージであり、前記ステッ
プ(c)が、各イメージ画素と対応する背景画素との差
分を、該各イメージ画素の色と該対応する背景画素の色
との間の色距離として形成してもよい。
のi番目の色成分であり、Biは背景画素のi番目の色
成分であり、αiは重み係数である)として形成されて
もよい。
であり、I2およびB2が緑色成分であり、I3およびB3
が青色成分であってもよい。
Ii−Biを形成し、該色成分差分イメージの各々に対し
て、移動ウィンドウ平均化ステップを実行してもよい。
有してもよい。
有するバイナリマスクを形成するステップであって、各
エレメントは、前記対応する差分イメージ画素が前記少
なくとも1つの第1タイプの領域に割り当てられた場合
に第1の値を有し、該対応する差分イメージ画素が前記
少なくとも1つの第2タイプの領域に割り当てられた場
合に該第1の値と異なる第2の値を有することを含んで
もよい。
られた差分イメージ画素に対応する前記イメージまたは
各イメージの各画素の値を、対応する背景イメージ画素
の値と置き換えるステップを含んでもよい。
られた差分イメージ画素に対応する前記イメージまたは
各イメージの各画素の値を、異なる背景の対応する画素
の値と置き換えるステップを含んでもよい。
当てられた差分イメージ画素に対応する前記イメージま
たは各イメージの各画素の値を、該イメージ画素の値と
前記対応する異なる背景画素の値との線形結合と置き換
えるステップを含むことを含んでもよい。
画素成分値の算術平均を含んでもよい。
背景領域に割り当てられた画素の色成分値と、前記非遮
蔽背景イメージの対応する画素の色成分値との差分の分
布を形成するステップと;該分布におけるピークの位置
の、所定の位置からのシフトを判定するステップと;該
シフトに基づいて、該少なくとも1つの背景領域に割り
当てられた画素の該色成分値を補正するステップとを含
んでもよい。
ト化する装置は、第1の基準イメージから少なくとも1
つの第1領域を選択する手段と、該少なくとも1つの第
1領域に含まれる画素の値から、該画素のうちの第1の
所定の割合の画素が、第1の閾値の第1の側にある値を
有するような第1の閾値を得る手段と、該イメージの各
画素と非遮蔽背景のイメージの対応する画素との差分と
して、差分イメージを形成する手段と、該差分イメージ
画素の値が該第1の閾値の該第1の側にあり、且つ、第
1の所定の数よりも多くの数の近隣差分イメージ画素の
値が該第1の閾値の該第1の側にある場合、各差分イメ
ージ画素を、少なくとも1つの第1タイプの領域に割り
当てる手段と、を含む。
ト化する装置は、プログラミング可能なデータプロセッ
サと、該データプロセッサを制御して、上記に記載の方
法を実行するプログラムを含む記憶媒体と、を含む。
制御して、上記に記載の方法を実行するプログラムを含
む。
を制御して、上記に記載の方法を実行する。
上記に記載の装置を含む。
たイメージをセグメント化する方法であって、(a)第
1の基準イメージから少なくとも1つの第1領域を選択
するステップと、(b)上記少なくとも1つの第1領域
に含まれる画素の値から、上記画素のうちの第1の所定
の割合の画素が、第1の閾値の第1の側にある値を有す
るような第1の閾値を得るステップと、(c)上記イメ
ージの各画素と非遮蔽背景のイメージの対応する画素と
の差分として、差分イメージを形成するステップと、
(d)上記差分イメージ画素の値が上記第1の閾値の上
記第1の側にあり、且つ、第1の所定の数よりも多くの
数の近隣差分イメージ画素の値が上記第1の閾値の上記
第1の側にある場合、各差分イメージ画素を、少なくと
も1つの第1タイプの領域に割り当てるステップと、を
含む方法が提供される。
てもよい。上記第1の所定の割合が0.75にほぼ等し
くてもよい。
画素の数の半分にほぼ等しくてもよい。
少なくとも1つの第1タイプの領域の各々が、少なくと
も1つの背景領域を含んでもよく、上記第1の閾値の上
記第1の側が、上記第1の閾値よりも小さくてもよい。
上記第1の基準イメージが、上記非遮蔽背景のイメージ
の2つのイメージの間の差分を含んでもよく、上記少な
くとも1つの第1領域が、上記第1の基準イメージのほ
ぼ全体を含んでもよい。
に選択されてもよい。上記少なくとも1つの第1領域
が、上記第1の基準イメージの少なくとも1つの側部を
含んでもよい。
選択されてもよい。
がアレイ状に配置されてもよく、上記差分イメージ画素
の位置が上記アレイのほぼ中心にあってもよい。
スのイメージについて、上記ステップ(a)〜(d)を
繰り返すことをふくんでもよい。上記第1の基準イメー
ジが、先行する差分イメージでありえる。上記少なくと
も1つの第1領域が、上記先行するステップ(d)の、
上記少なくとも1つの第1タイプの領域を含んでもよ
い。各ステップ(d)は、上記少なくとも1つの第1タ
イプの領域に割り当てられた上記差分イメージ画素の値
を含む第1の初期ヒストグラムを形成するステップを含
んでもよく、上記ステップ(b)は、先行するステップ
(d)において形成された上記第1の初期ヒストグラム
と先行するステップ(b)の第1の得られたヒストグラ
ムの1つよりも小さな第1の所定の分画との合計を含む
上記第1の得られたヒストグラムから、上記第1の閾値
を得てもよい。上記第1の所定の分画が1/2であって
もよい。
ら少なくとも1つの第2領域を選択するステップと、
(f)上記少なくとも1つの第2領域に含まれる画素の
値から、上記画素のうちの第2の所定の割合の画素が、
第2の閾値の、上記第1の側の反対の第2の側にある値
を有するような第2の閾値を得るステップと、(g)上
記差分イメージ画素の値が上記第2の閾値の上記第2の
側にあり、且つ、第2の所定の数よりも多くの数の近隣
差分イメージ画素の値が上記第2の閾値の上記第2の側
にある場合、上記少なくとも1つの第1タイプの領域に
割り当てられない差分イメージ画素の各々を、少なくと
も1つの第2タイプの領域に割り当てるステップとを含
んでもよい。
てもよい。上記第2の所定の割合が0.75にほぼ等し
くてもよい。
画素の数の半分にほぼ等しくてもよい。
に選択されてもよい。上記少なくとも1つの第2領域
が、上記第2の基準イメージの中間部分を含んでもよ
い。
選択されてもよい。
イメージを含んでもよい。
がアレイ状に配置されてもよく、上記差分イメージ画素
の位置が上記アレイのほぼ中心にあってもよい。
スのイメージについて、上記ステップ(e)〜(g)を
繰り返すことをふくんでもよい。上記第2の基準イメー
ジが、先行する差分イメージであってもよい。上記少な
くとも1つの第2領域が、上記先行するステップ(g)
の、上記少なくとも1つの第2タイプの領域を含んでも
よい。各ステップ(g)は、上記少なくとも1つの第2
タイプの領域に割り当てられた上記差分イメージ画素の
値を含む第2の初期ヒストグラムを形成するステップを
含んでもよく、上記ステップ(f)は、先行するステッ
プ(g)において形成された上記第2の初期ヒストグラ
ムと先行するステップ(f)の第2の得られたヒストグ
ラムの1つよりも小さな第2の所定の分画との合計を含
む上記第2の得られたヒストグラムから、上記第2の閾
値を得てもよい。上記第2の所定の分画が1/2であっ
てもよい。
イプの領域に割り当てられず、且つ、上記少なくとも1
つの第2タイプの領域に割り当てられない、各差分イメ
ージ画素のうち、上記差分イメージ画素の値が第3の閾
値よりも小さい画素を、第1タイプの画素の候補として
割り当てるステップを含んでもよい。
第2の閾値との間の値であってもよい。上記第3の閾値
が、上記第1および第2の閾値の算術平均であってもよ
い。
イプの領域に割り当てられず、且つ、上記少なくとも1
つの第2タイプの領域に割り当てられない、各差分イメ
ージ画素について、上記差分イメージ画素の上記近隣画
素のうちの、第3の所定の数を超える数の近隣画素が、
上記少なくとも1つの第1タイプの領域に割り当てられ
るか、または、第1タイプの画素の候補として割り当て
られる場合、上記差分イメージ画素を上記少なくとも1
つの第1タイプの領域に割り当てるステップを含んでも
よい。
よく、上記差分イメージ画素の位置が上記アレイのほぼ
中心にあってもよい。
画素の数の半分であってもよい。
イプの領域に割り当てられず、且つ、上記少なくとも1
つの第2タイプの領域に割り当てられない、各差分イメ
ージ画素を、上記少なくとも1つの第2タイプの領域に
割り当てるステップを含んでもよい。
記背景イメージが、グレイレベルイメージであってもよ
く、上記ステップ(c)が、各イメージ画素と対応する
背景画素との差分を、上記各イメージ画素のグレイレベ
ルと上記対応する背景画素のグレイレベルとの差分とし
て形成してもよい。
または各差分イメージに対して移動ウィンドウ平均化ス
テップを実行するステップを含んでもよい。
ージであり得、各色成分に対して移動ウィンドウ平均化
ステップが実行され得る。
記背景イメージが、カラーイメージであってもよく、上
記ステップ(c)が、各イメージ画素と対応する背景画
素との差分を、上記各イメージ画素の色と上記対応する
背景画素の色との間の色距離として形成してもよい。
上記色距離は、
のi番目の色成分であり、Biは背景画素のi番目の色
成分であり、αiは重み係数である)として形成されて
もよい。各αiは1に等しくてもよい。nが3に等しく
てもよく、I1およびB1が赤色成分であってもよく、I
2およびB2が緑色成分であってもよく、I3およびB3が
青色成分であってもよい。
Ii−Biを形成してもよく、上記色成分差分イメージの
各々に対して、移動ウィンドウ平均化ステップを実行し
てもよい。
有し得る。
エレメントを有するバイナリマスクを形成するステップ
であって、各エレメントは、上記対応する差分イメージ
画素が上記少なくとも1つの第1タイプの領域に割り当
てられた場合に第1の値を有し、上記対応する差分イメ
ージ画素が上記少なくとも1つの第2タイプの領域に割
り当てられた場合に上記第1の値と異なる第2の値を有
する、ステップを含んでもよい。
域に割り当てられた差分イメージ画素に対応する上記イ
メージまたは各イメージの各画素の値を、対応する背景
イメージ画素の値と置き換えるステップを含んでもよ
い。
域に割り当てられた差分イメージ画素に対応する上記イ
メージまたは各イメージの各画素の値を、異なる背景の
対応する画素の値と置き換えるステップを含んでもよ
い。
境界線に割り当てられた差分イメージ画素に対応する上
記イメージまたは各イメージの各画素の値を、上記イメ
ージ画素の値と上記対応する異なる背景画素の値との線
形結合と置き換えるステップを含んでもよい。上記線形
結合が、対または各対の対応する画素成分値の算術平均
を含んでもよい。
くとも1つの背景領域に割り当てられた画素の色成分値
と、上記非遮蔽背景イメージの対応する画素の色成分値
との差分の分布を形成するステップと;上記分布におけ
るピークの位置の、所定の位置からのシフトを判定する
ステップと;上記シフトに基づいて、上記少なくとも1
つの背景領域に割り当てられた画素の上記色成分値を補
正するステップとを含んでもよい。
たイメージをセグメント化する装置であって、第1の基
準イメージから少なくとも1つの第1領域を選択する手
段と、上記少なくとも1つの第1領域に含まれる画素の
値から、上記画素のうちの第1の所定の割合の画素が、
第1の閾値の第1の側にある値を有するような第1の閾
値を得る手段と、上記イメージの各画素と非遮蔽背景の
イメージの対応する画素との差分として、差分イメージ
を形成する手段と、上記差分イメージ画素の値が上記第
1の閾値の上記第1の側にあり、且つ、第1の所定の数
よりも多くの数の近隣差分イメージ画素の値が上記第1
の閾値の上記第1の側にある場合、各差分イメージ画素
を、少なくとも1つの第1タイプの領域に割り当てる手
段とを含む装置が提供される。
たイメージをセグメント化する装置であって、プログラ
ミング可能なデータプロセッサと、上記データプロセッ
サを制御して、本発明の第1の局面による方法を実行す
るプログラムを含む記憶媒体とを含む装置が提供され
る。
セッサを制御して、本発明の第1の局面による方法を実
行するプログラムを含む記憶媒体が提供される。
セッサを制御して、本発明の第1の局面による方法を実
行するプログラムが提供される。
2または第3の局面による装置を含むイメージキャプチ
ャデバイスが提供される。
イメージの前面領域および背景領域をセグメント化する
ロバストな技術を提供することができる。このことは、
画素単位の方法およびブロック毎の方法の利点を組み合
わせることにより部分的に達成され得、セグメント化さ
れた前面領域の周囲に良好な境界線が形成され、前面領
域および背景領域の両方においてアーチファクトが少な
くなる。
画素を初めに識別する段階的なアプローチの使用によ
り、ロバスト性も実現される。より多くの画素が割り当
てられるにしたがって、残りの画素がより良く判定され
得る。
とにより、上記閾値または各閾値がより正確に決定さ
れ、セグメント化が向上され得る。例えば、第1の閾値
を用いて背景画素を判定する場合、その閾値自体は背景
領域の大部分または全体から決定され得るので、前面領
域内の画素の値の影響を全くまたは実質的に受けない。
第2の閾値は、それが使用される場合、イメージのセグ
メント化の向上が達成され得るように、前面領域内の画
素値に基づいて、同様に決定され得る。各イメージは帰
納的に処理されて、向上されたセグメント化の結果、閾
値の選択が向上し、向上した閾値の選択の結果、セグメ
ント化が向上する。十分な計算能力が利用可能な場合
は、再帰的なアプローチをリアルタイムで行うことがで
きる。計算能力が十分でない場合は、そのような再帰的
アプローチは、オフラインのアプリケーションまたは非
リアルタイムのアプリケーションに限定される。
記または各閾値は、複数のまたは全ての先行するイメー
ジを利用して決定され得るので、閾値の選択を向上さ
せ、その結果、イメージのセグメント化を向上させる。
例えば、上記または各閾値を決定するためのヒストグラ
ムを形成し、各ヒストグラムは、現在のヒストグラムお
よび前のヒストグラムの一部分(例えば半分)を含み得
る場合、時間の経過に従って各再帰の影響が減少する
が、閾値の選択は、例えば比較的小さな背景領域または
前面領域を有するイメージ等の望ましくないイメージの
影響をさほど受けない(望ましくないイメージの影響を
受ける場合は、閾値の選択が歪められる)。従って、セ
グメント化の結果が、背景内のノイズおよび前面の信号
強度の統計学的特性の推定を向上させるにつれて、ロバ
スト性は自ら向上し得る。向上された推定が順に次のイ
メージのセグメント化を向上させ、従って、連続的な向
上のループが形成される。制御された背景は要求され
ず、前面オブジェクトの動的な変化に対する漸次的な変
化を含み得る一般的なシーンの背景を処理することがで
きる。
タリング処理に直接関係し得る。複雑な統計学的モデル
は要求されないので、この技術を容易に行える。
求の点で、計算上の効率が良い方法で実行され得、もっ
ぱら整数を用いて実行され得る単純な算術演算のみを含
む。こういった理由から、上記技術は、計算能力が制限
され、記憶装置が比較的小さな、Sharp(登録商
標) Corporation MPEG−4 Int
ernet ViewCamまたは他のマルチメディア
アプリケーション用イメージキャプチャ・記録デバイス
等の、リアルタイムアプリケーションに非常に適してい
る。
74、GB2324428、EP0932114、およ
びGB233590に開示された、ビデオトラッキング
および顔検出アプリケーションにおいて使用され得る。
例えば、セグメント化された前面領域を用いて、イメー
ジ内に顔を配置するための検索領域を制限し得る。これ
は、例えば、欧州特許出願番号第99306962.4
号および英国特許出願番号第9819323.8号に開
示されているように、リアルタイムビデオトラッキング
システムと共に使用され得る。
例示することにより本発明をさらに説明する。
動作のシーケンスと共にデータの供給を示す、「増強」
フローチャートの形態である。この方法は、ステップ1
aにおいて、非遮蔽(non−occluded)背景
イメージ1b(つまり、前面オブジェクトを有さない背
景シーンのイメージ)を記録する、初期準備1で開始さ
れる。ステップ5において、背景イメージ1bが供給さ
れ、あらかじめ規定された関数を用いて差分イメージが
計算される。ステップ3は、第1の差分イメージが処理
されているかどうかを判定する。処理されている場合、
ステップ1cは、第1の差分イメージの背景領域および
前面領域の統計学的特性から、ノイズヒストグラムおよ
び/または信号ヒストグラム1dを計算する。
ージが得られる場合、背景イメージ1bと共に、ステッ
プ5にこれが供給される。ステップ5は、次の差分イメ
ージを計算する。これを図4に示す。図4は、背景イメ
ージ1b、および同じ背景を有する、前面イメージを含
むシーケンスのイメージ7を示す。ステップ5は、図4
の参照符号8に示した差分イメージを計算する。差分イ
メージは、ノイズ領域9を有する。このノイズ領域にお
いて、画素は主にまたは完全にノイズを示す値を有す
る。イメージ8はまた、前面イメージに対応する信号領
域10を有する。この前面イメージの画素は、イメージ
画素と、背景イメージ1bの対応する背景画素との間の
差分を示す。
イメージでないと判定する。制御はステップ11に進
む。ステップ11は、差分イメージにおける背景画素の
強力な候補を識別する。特に、各画素が順に第1の閾値
と比較される。この第1の閾値は、ステップ1cにおい
て判定されたノイズの統計学的特性に基づいて、ステッ
プ24において決定される。値が第1の閾値未満であ
り、且つ、それを取り囲む近隣画素の大多数の画素の値
が第1の閾値未満である画素は、背景領域(複数のその
ような背景領域が存在する場合には、それら複数の背景
領域のうちの1つに)に割り当てられる。
なくとも1つの背景領域に割り当てられなかった差分イ
メージ画素の各々を、第2の閾値と比較することによ
り、前面画素の強力な候補を識別する。なお、第2の閾
値は、ステップ1cにおいて判定された信号領域10の
信号強度ヒストグラムに基づいて、ステップ25におい
て決定される。値が第2の閾値よりも大きく、且つ、そ
れを取り囲む近隣画素の大多数の画素の値が第2の閾値
を超える値である画素は、各前面領域に割り当てられ
る。
前面領域にまだ割り当てられていない画素が、少なくと
も1つの背景領域または少なくとも1つの前面領域に割
り当てられるべきかどうかを確認する。そのような画素
の各々は、第3の閾値と比較される。第3の閾値は、ス
テップ26において、第1および第2の閾値から決定さ
れ、第1の閾値と第2の閾値との間の値を有する。レベ
ルが第3の閾値未満である画素は、背景画素候補と認め
られる。近隣画素の大部分が既に背景画素または背景画
素の候補として認められている場合、背景画素候補の各
々は、上記少なくとも1つの背景領域に割り当てられ
る。その後、残りの画素が前面画素として割り当てられ
る。
おいて、閾値化される差分イメージの全体に「空間フィ
ルタリング」を行って、どのように画素を割り当てるか
を決定することは都合がよい。しかし、各イメージのエ
ッジおよび角の近傍に存在する画素について、各画素の
近隣領域が制限される。空間フィルタリングは、イメー
ジの境界線まで全て同じ様態で行われ得るが、少なくと
もいくつかのアプリケーションにおいて、空間フィルタ
リングを、各画素が近隣画素の完全な補完を有する上記
イメージまたは各イメージの中央部分に制限するのがよ
り適切であり得る。このことにより、周辺のマージンが
フィルタリングされないまま残される。
り、空間フィルタリングに使用されるウィンドウサイズ
はm×n画素である場合、(M−m+1)×(N−n+
1)個の画素を含む中央領域に対して空間フィルタリン
グが行われ、周辺のマージンにおける画素には、適切な
より小さいウィンドウサイズを用いて空間フィルタリン
グが行われ得るか、または、空間フィルタリングが行わ
れないままであり得る。さほど正確にセグメント化を行
う必要のないアプリケーションについて、周辺のマージ
ンにおける画素の割り当ては、閾値化のみを用い、且
つ、フィルタリング処理を行うことなく決定し得る。
る。具体的には、このマスクは、差分イメージの画素に
対応するエレメントを含む。バイナリマスクの各画素
は、対応する差分イメージ画素が少なくとも1つの背景
領域に割り当てられた場合には、第1の値を有し、対応
する差分イメージ画素が少なくとも1つの前面領域に割
り当てられた場合には、第1の値とは異なる第2の値を
有する。したがって、バイナリマスクは、参照符号15
に示す所望のセグメント化を示し、イメージのさらなる
処理のために使用され得る。例えば、イメージの背景領
域は、背景イメージ自身の対応する画素と置き換え得
る。あるいは、背景領域の画素は、固定されたイメージ
または一時的に変動するイメージであり得る別の背景イ
メージの対応する画素と置き換えて、特殊効果を提供し
得る。この場合、より視覚的に許容し得る方法で背景領
域および前面領域を混合するために、前面領域の境界画
素の各々を、イメージ画素の値と対応する新たな背景画
素の値との線形結合を示す値と置き換え得る。
ージの解析に基づいて、信号ヒストグラムおよびノイズ
ヒストグラムを更新し、更新されたヒストグラムが、ス
テップ3に戻され、シーケンスの次のイメージのセグメ
ント化のために使用可能になる。ステップ17は、シー
ケンスの最後のイメージが処理されたかどうかを判定す
る。判定されていない場合、制御はステップ4に戻る。
ステップ4において、次のイメージが得られ、ステップ
5およびステップ11〜17が繰り返される。そうでな
い場合、この方法は、ステップ18で終了する。
間は比較的変化されずにある実質的に静的な背景の前を
移動するオブジェクトを含むシーンのビデオシーケンス
を含み得る。
りの画素を識別するステップ13は実行されなくてもよ
い。また、いくつかのアプリケーションにおいて、ステ
ップ11および12の両方を実行しなくてもよい。その
代わり、これらのステップのうち一方のステップを実行
すればよい。
る場合、または、例えばビデオカメラからのビデオイメ
ージのシーケンスについてリアルタイムでステップを繰
り返す十分な計算能力がある場合、シーケンスの各イメ
ージについて、図3に示すステップを繰り返すことも可
能である。ステップを繰り返すことにより、現在のイメ
ージのセグメント化に基づいて、ノイズヒストグラムお
よび信号ヒストグラムを更新し得る。これにより、現在
のイメージの改良されたセグメント化が可能になり、そ
の時、現在のイメージが、信号ヒストグラムおよびノイ
ズヒストグラムを精密にするために使用され得る。各イ
メージについて、この処理を停止するための任意の適切
な基準が使用され得る。例えば、そのような「反復」
が、所定の回数行われ得る。他の可能性は、ステップの
反復を続けても、ノイズヒストグラムおよび信号ヒスト
グラムが実質的に変更されなくなるまで、上記ステップ
を繰り返すことである。
るアプリケーションにおいて、ステップ12を実行して
前面画素を識別する前に、ステップ11を実行して背景
画素を識別することに、ある一定の利点があると考えら
れる。しかし、その逆の場合のアプリケーションもいく
つかあり得る。また、ステップ13において、残りの画
素は、まず、閾値化および近隣画素に基づく割り当てに
よって前面画素として認められ、残りの未割り当ての画
素がデフォルトで背景画素として認められる。
る個々の技術を、より詳細に説明する。
デジタルイメージIn(x,y)(n=1,
2,...)と表し得る((x,y)は各画素の個々の
座標である)。背景イメージは、B(x,y)と表さ
れ、シーン内に動いているオブジェクトが無い場合に、
あらかじめキャプチャされている。各イメージI
n(x,y)において、画素が前面オブジェクトに属す
る場合、この画素は「前面画素」または「オブジェクト
画素」と呼ばれる。同様に、前面オブジェクトによって
遮られない背景内の画素は、「背景画素」と呼ばれる。
ージDn(x,y)を規定する。
差分を特徴付ける、ユーザ定義測定値である。簡略化の
ため、上記式における上付文字nを、以降の説明では省
略する。
方がグレイレベルイメージである最も簡単な場合におい
て、D(x,y)は、それらの直接の差分(direc
tdifference)、つまり、
ようなD(x,y)の値は、次の式によって得られる。
の構成要素である」という意味を持つ。項s(x,y)
は、オブジェクト画素と背景イメージ内の同じ位置にあ
る画素との差分測定値を示す。全ての前面画素がゼロで
ない信号値を生成している場合、その時、これらの画素
は識別され、差分測定値が0である背景画素から分離さ
れる。
つかのオブジェクト画素が背景イメージ内の対応する画
素と同じ値を有することがあり得るので、この単純なア
プローチは、実際には機能しない。ノイズの影響を含め
るために、前の式を、次に示すように修正し得る。
分散がσである確率変数とみなされる。
可能にするために、信号の強度はノイズの強度よりもか
なり強い必要がある。そこで、上記式は次のように書き
直され得る。
分を含むものとみなされ得る。このノイズ成分は、実際
には、実際の信号自体から分離し得ない。
(x,y)を分離する最も簡単な方法は、全ての前面画
素が閾値Tを超える信号値を有し、且つ、全ての背景画
素が閾値Tを下回るノイズ値を有するような閾値Tを見
つけることである。そこで、バイナリマスキング関数が
次のように得られ得る。
場合、このことは、いくつかの制限的な条件により可能
である。差分イメージD(x,y)は、後で説明する式
(3)を用いて計算され得る。前面オブジェクトが同じ
濃青色の領域を含まない場合、および、イメージングシ
ステムのノイズレベルが低い場合、差分イメージは、前
面領域について強い信号値を有し、背景領域において
は、非常に小さな値を有するはずである。そこで、これ
らの信号値およびノイズ値を分離する閾値Tを見つける
ことができる。
は、一般的な背景のシーンに対して十分に機能しないか
もしれない。例えば、いくつかの前面画素は、対応する
背景画素と同様であり得、任意の所与の閾値Tを下回り
得る信号値を生成する。同様に、いくつかの背景画素
が、閾値Tを超えるノイズ値を生成し得る。この後者の
問題を引き起こし得る多くの理由が考えられる。その理
由として、イメージングシステム内に電子ノイズが存在
すること、背景における照明の変化、および/またはイ
メージングシステムのわずかな外乱が挙げられる。本発
明の方法の複数の閾値が、以下に説明するこの問題を実
質的に克服する。
(G)成分、および青(B)成分に分解され得る。ある
いは、カラーイメージは、YUVまたはHSV等の他の
カラーフォーマットで表され得る。簡略化のために、以
下の説明では、イメージをRGBフォーマットで示す
が、この技術は、他のカラーフォーマットにも有効であ
る。RGB色成分をYUVまたはHSV成分と置き換え
ることにより、全ての式を他のカラーフォーマットに適
応し得る。
とB(x,y)との間の差分測定値は、次の式で表され
る色距離(color distance)である。
I,BI]および[RB,GB,BB]は、それぞれイメージI
(x,y)およびB(x,y)についてのRGB色成分
である。
しばしば魅力的である。この正規化は、各色成分を、色
成分の合計で割ることにより達成される。例えば、RI
成分は、次のように正規化され得る。
数Fの例は、次の式によって得られる。
BBである。この正規化は、異なる照明強度による影響
を低減する際に有用であるが、YIまたはYBの値が非常
に小さい場合には欠点がある。非常に小さな値による除
算の結果、各色成分におけるノイズの成分が非常に大き
く増幅され、したがって、いかなるセグメント化方法も
困難になる。したがって、この正規化は、注意して適用
する必要がある。
おいて説明した色距離測定値は、次のように概算され得
る。
かじめ決定され得る。多くのアプリケーションについ
て、通常の値の組、α=β=γ=1、が適切であるとわ
かっている。この結果、次のようになる。
信号およびノイズの統計学的特性に基づくエントロピー
測定を使用し得る。このような方法は、よりよい差分特
性を生成し得るが、計算がより集中的になる傾向にあ
る。
数Fに基づくと、差分イメージD(x,y)は、次の式
によって得られる。
がσである確率変数とみなされる。これらの確率変数は
また、色チャネル毎および画素毎に独立しているとみな
される。
は、負の無限大から正の無限大へと変動し得る。現実の
コンピュータインプリメンテーションにおいて、これら
の値は、有限範囲(例えば−N〜+N(Nは整数))内
の整数で示され得、通常、255に等しい。その時、|
nr|、|ng|および|nb|の値は、0からNまでの
範囲を変動する。
いて|nr|、|ng|、|nb|と示すことについての
理由がある。このことは、イメージング平均化によるノ
イズ低減について後でおこなう説明においてより明らか
になる。これは、絶対値演算を適用する前に適用され
る。ノイズの統計学的特性は、まず、ヒストグラミング
法を用いて推定され得る。例えば、イメージI(x,
y)が背景のみを含み、且つ、B(x,y)が捕捉され
る時点とは異なる時に捕捉される場合、差分イメージD
(x,y)は、各画素におけるノイズ変数を示す。その
後、特定のノイズ値tが発生した合計回数を数えること
により、ヒストグラムhn(t)が構成され得る。な
お、このノイズ値tについて、D(x,y)=|nr|
+|ng|+|n b|=tである。図5の上側のグラフ
は、このようなノイズヒストグラムの一例である。
は、0〜3Nの範囲で変動する。これは、hn(t)
が、それぞれが整数カウンタ(integer cou
nter)である3N個のエレメントすなわちビン(b
in)を有することを意味する。しかし、3つの項全て
がその最大値であるNに達する場合にかぎり、|nr|
+|ng|+|nb|の値は3Nに等しい。実際には、|
nr|+|ng|+|nb|の値は、おそらく、この最大
値3Nよりもかなり小さい。しばしば、N個だけのビン
からなるヒストグラムを使用するのが適切である。Nの
値を超える画素について、これらの画素の値は、Nにま
で切り捨てられ得る。計算能力および記憶装置が制限さ
れている場合、このことは有用である。
景画素から計算され得る。ノイズヒストグラムはイメー
ジの複数のフレームに亘って蓄積され得、ノイズの統計
学的特性をより良く概算し得る。
の開始前に計算される必要がある。一方で、背景画素が
既に知られている場合に計算のみが行われ得る。これら
の相反する要件に対する1つの考え得る解決方法は、第
1のイメージまたは、さらに望ましくは、第1のいくつ
かのイメージが背景シーンのみを含み、ノイズヒストグ
ラムがこれらのイメージを用いてまず計算され得ること
を確実にすることである。
tion MPEG−4 Internet View
Cam等のいくつかのアプリケーションについて、「タ
ーゲット」が視界内へと移動する直前にイメージの記録
を開始することによりこのことが達成され得る。ビデオ
カメラが数秒間スイッチオンされた後に、それから、タ
ーゲットは視界内に入り得る。このことにより、初めの
いくつかのイメージが背景のみを含むことが確実にな
る。
ットが、図6に示すように、背景のみを含む左側および
右側の余白の領域19を有するイメージの中央領域にま
ず配置され得る。左側および右側の余白の領域19を用
いて、ノイズヒストグラムを推定し得る。Sharp
(登録商標) Internet ViewCam等の
アプリケーションについて、このことは、ターゲットが
中央にある場合、イメージの中央に矩形のガイドを表示
して、ユーザが単に記録を開始することにより達成され
得る。この制約は、初めのいくつかのイメージについて
のみ必要とされ得、その後ターゲットは自由に動き得
る。
算がオフラインで実行された場合、ノイズ特性の推定を
行う背景領域をユーザに手動で選択させることも可能で
ある。例えば、アプリケーションがパーソナルコンピュ
ータ(PC)上で実行された場合、イメージがモニタ上
に表示され得、この目的のために、ユーザがマウスポイ
ンタを用いて領域を選択し得る。
グラムhs(t)が構成される。やはり、このことが達
成され得る前に、前面オブジェクトを知る必要がある。
ターゲットがまず、図6に示すようにイメージの中央領
域20に配置された場合、中央領域を用いて信号ヒスト
グラムを計算することによりこのことが可能である。あ
るいは、上で説明した手動の方法を使用して、信号ヒス
トグラムの初めの推定を行うための領域を識別し得る。
制約が可能でないかもしれない。一般に、この信号ヒス
トグラムの初めの推定は、動いているオブジェクトを含
む第1のイメージがセグメント化されるまで、行うこと
が出来ない。これについて、以下に説明する。
ムは、イメージをセグメント化するための閾値を決定す
る根拠を形成する。
背景画素の強力な候補が、第1の閾値Tnを用いて判定
される。ほとんどの前面画素がこの第1の閾値を超える
信号値を有し、ほとんどの背景画素が第1の閾値未満の
ノイズ値を有するようにこの閾値の値が決定される。
n(t)から決定される。理想的には、ノイズ値は、ヒ
ストグラムの初めのいくつかのビンのみがゼロにならな
いように、制限される。その後、閾値Tnはtの第1の
値であり、この値を超えると、残りのビンはゼロであ
る。つまり、
い状況は存在しない。実際、背景は、制御された均一な
色の領域ではなく、一般的なシーンを含み得る。イメー
ジングシステムは、無視できない程度のノイズの影響を
受け得、イメージング処理の間、照明が変化し得るか、
または、イメージングシステムがイメージングプロセス
の間わずかな外乱を受け得る。この全てがノイズ項に寄
与し、ノイズ項の値がヒストグラムの全範囲を占め得
る。
に0になり得ないのに対して、ノイズ値の大部分は、通
常、図5に示すように、ヒストグラムの初めのいくつか
のビンのまわりに集まる。残りのビンは、通常、tが増
大するのに従って減少する長いすそを形成する。その
後、閾値Tnは、所与の割合の背景画素よりも大きなt
の最小値として規定され得る。
された割合値ηn(0.5<ηn≦1)と関連づけられ
る。それは、次の不等式を満たす最小のTnとして決定
される。
て求められる。
化されて、背景画素の強力な候補を識別する。バイナリ
マスクが次の式によって得られる。
面画素または上記閾値によるフィルタリングを通過した
背景画素のいずれかであり得る他の画素の候補を示す。
ここでは、背景画素の強力な候補のみに関心がある。他
の画素は、以下に説明する処理においてさらに分類され
る。Kn個の背景画素を含むイメージI(x,y)につ
いて、約ηn・Kn個の画素が、閾値Tn未満のノイズ値
を有する。残りの(1−ηn)・Kn個の画素は、この閾
値Tnを超える値を有し、この処理において、背景画素
として検出されない。
どが第1の閾値を超える信号強度を有するということで
ある。しかし、少ない数の前面画素がこの閾値未満に減
少する信号値を有し得ることもあり得る。この単純な閾
値化方法は、それらを誤って背景画素として分類する。
値もより高くなり、検出されない背景画素の数がより少
なくなる。一方で、閾値Tnが大きくなるに従って、前
面画素が、誤って背景画素として分類されやすくなる。
セグメント化の目的は、動いているオブジェクトを背景
から分離することなので、理想的には、セグメント化
は、信号値が小さい場合であっても、前面オブジェクト
と背景との違いを識別できなければならない。このこと
は、セグメント化のために、より小さな閾値Tnがより
良いことを意味する。したがって、妥協が必要であり、
通常、ηnは0.75に設定される。
の背景画素とつながっている。画素が実際に背景画素で
ある場合、近隣画素のほとんどが背景画素であることも
あり得る。一方で、誤って背景画素として検出された前
面画素は、しばしば、背景内に小さなアーチファクトと
して現れる。この観察の結果、これらの誤って検出され
た画素を除去する以下のフィルタリング方法が行われ
る。
さな近隣領域(通常、現在の画素を中心とする方形のウ
ィンドウ)が選択される。このウィンドウ内の画素の合
計数がmである場合、約ηn・m個(ηn>0.5)の画
素が背景画素として正確に分類されることが期待され
る。mの値が充分大きな場合、このことは正しい。
する場合、上記の小さなウィンドウは、いくつかの前面
画素を含み得る。現在の背景画素が前面オブジェクトに
隣接している場合であっても、直感的に考えて、近隣画
素の約半分が背景画素であり、約半分が前面画素であ
る。明らかなことに、このことは、ウィンドウサイズが
十分に小さい場合にのみ正しい。これは、mが「十分に
大きい」値である必要があるという上記要件と矛盾す
る。
の結果、mの典型的な値は100であり、したがって9
×9画素または11×11画素のウィンドウサイズとな
ることが示される。通常、ウィンドウサイズには奇数の
数が用いられ、現在の画素はウィンドウの中心に配置さ
れる。
背景画素の割合Ψnに基づいて背景画素として認められ
てもよく、または、認められなくてもよい。Ψnが0.
5以上の場合、この候補は背景画素と認められる。そう
でない場合には、背景画素と認められない。
よって従ったバイナリイメージMn(x,y)に適用さ
れた移動ウィンドウ平均化演算として実行され得る。
素の強力な候補が検出され得る。この第2の閾値T
sは、信号ヒストグラムhs(t)から計算され得る。前
に示したように、信号ヒストグラムは、初めは、第1の
イメージがセグメント化されるまで、利用可能でないか
もしれない。第1のイメージについて、この閾値は、T
nから単に推定され得、次のように得られる。
1.5〜2に設定される。
ント化される前に、信号強度の初めの推定にのみ使用さ
れ得る。前面ターゲットの初期位置についてのさらなる
情報がある場合には、この式を使わなくても良い。前面
オブジェクトが、図6に示すように,まずイメージの中
心に配置された場合、その時例えば、イメージの中央領
域が使用され、初めの信号ヒストグラムが構成され得
る。
セグメント化された前面オブジェクトから構成される。
セグメント化された前面オブジェクトは、第1のイメー
ジがセグメント化されてすぐに利用可能になる。次い
で、第2の閾値Tsは、次の不等式を満たすtの最大値
として規定される。
数である。ηnの通常の値は0.75である。
ない場合には、動いているオブジェクトの強度および色
は背景と類似しており、それらの差分はノイズの影響よ
りも小さい。したがって、セグメント化は非常に難しく
なる。
値Tsを用いて、差分イメージを閾値化して、前面画素
の強力な候補を検出する。閾値化の後にバイナリマスク
が得られる。
る必要はないが、これらの画素は、以下に説明するよう
にフィルタリング処理に寄与する。
y)について、約ηs・Ks個の画素が、閾値Tsを超え
る信号値を有する。残りの(1−ηs)・Ks個の画素
は、この閾値Ts未満の値を有し、このプロセスでは、
前面画素として検出されない。背景画素の強力な候補の
検出においてと同様、ノイズ値が第2の閾値Tsを超え
た場合、背景画素を誤って前面画素として検出すること
がある。これらの誤って検出された画素は、通常、孤立
した状態で不規則に分布しており、これまでに説明した
演算と同様の移動ウィンドウ演算を用いて除去し得る。
その基準もまた同様の基準である。初めに識別された前
面画素候補に隣接する画素のうち、少なくとも半分が前
面画素の候補である場合、初めに識別された前面画素候
補は、前面画素と認められる。そうでない場合には、前
面画素と認められない。
る、前面画素の強力な候補の割合であり、近隣領域は、
通常、現在の画素を中心とする方形のウィンドウとして
選択される。そのサイズは、通常、背景画素の強力な候
補を検出するために、9×9または11×11に設定さ
れる。場合によって、前面オブジェクトが小さい場合
は、このウィンドウサイズは減少され得る。
強力な候補としても認められない画素は、さらなる閾値
化およびフィルタリング処理において分類され得る。第
3の閾値Tmが導入され、この閾値Tmは、次の式によっ
て得られる、閾値Tnと閾値Tsとの間の値を有する。
定され得る。
再び閾値化される。しかし、ここでは、残りの画素のみ
を処理すればよい。新たなバイナリマスク関数は、次の
式によって得られる。
定」の画素に適用される。ウィンドウ内の半数を超える
数の画素が背景画素である場合、現在の画素は、背景画
素として分類され、そうでない場合は、前面画素として
分類される。バイナリマスクは最終的に次の式によって
得られる。
Ψmは、検証される現在の画素を中心とする方形ウィン
ドウ内の前面画素の割合である。前に述べたように、ウ
ィンドウサイズは、通常、9×9または11×11であ
るが、異なるサイズのオブジェクトに適合するように調
節され得る。
において、異なるタイプの候補を示すために、異なる値
を使用する場合、Ms、Mn、およびMmの記憶装置が共
有され得る。例えば、背景画素の強力な候補を決定する
第1の処理において、背景画素の強力な候補を0と示
し、それ以外を(1の代わりに)2と示し得る。第2の
処理において、前面画素の強力な候補を1と示し、残り
の画素を3と示し得る。Sharp(登録商標) In
ternet ViewCam等のアプリケーションに
ついて、記憶装置が制限される場合、このことは有用で
ある。
用して、イメージを前面領域および背景領域へとセグメ
ント化し得る。セグメント化された前面領域は、さらに
処理される(例えば、データ速度を減少するために圧縮
される)。背景領域は、破棄されるか、または他のイメ
ージと置き換えられて、使用者が望む特殊効果が生成さ
れる。
号ヒストグラムおよびノイズヒストグラムが、前面領域
および背景領域を用いてそれぞれ再度計算され得る。ま
た、イメージは、バイナリマスクと共にセーブされ得
る。その後、次のイメージが得られ、上のプロセスを繰
り返すことによりセグメント化される。
ント化の結果が向上され得る。前に述べたように、ノイ
ズの項nr、ng、およびnbは、画素毎に独立した確率
変数である。ここで、絶対値演算が適用される前、ノイ
ズの項は直接差分である。一方で、前面画素についての
信号値は、小さな近隣領域に亘って、互いに相関付けら
れる。例えば、赤成分について、直接差分イメージDr
は次のように得られる。
算がこのイメージに適用された場合、ウィンドウサイズ
が小さい場合には、平均化された信号がほぼ同じままで
あるが、ノイズ分散は低減される。簡略化のために、ノ
イズの項nr、ng、およびnbの各々は分散σを有する
ものとする。n×n画素のウィンドウサイズについて、
平滑化されたイメージのノイズ分散は、σからσ/nへ
と低減される。通常、ウィンドウサイズは3×3に設定
され、各カラー成分におけるノイズ分散は、3分の1に
低減される。この演算は、絶対値演算子が適用される前
に、3つの色成分全てに適用されて、式(3)によって
規定された差分イメージが生成される。
た点で図3に示した方法とは異なる方法を示す。ステッ
プ5は、サブステップ5a〜5cを含む。ステップ5a
が、全ての色成分またはチャネルについて直接差分イメ
ージを計算し、ステップbが、移動ウィンドウ平均化演
算を実行して、直接色成分差分イメージの各々にノイズ
低減を提供する。その後、ステップ5cが、最終的な差
分イメージを生成する。
グメント化された後に信号ヒストグラムおよびノイズヒ
ストグラムが再度計算されるので、これらのヒストグラ
ムは、常に信号およびノイズの最新の統計学的特性を反
映する。しかし、この方法は、前面オブジェクトのサイ
ズの影響を受け得る。いくつかの場合において、前面オ
ブジェクトが非常に大きく、イメージのほぼ全体を占
め、わずかな背景のみがイメージ内の残され得る。した
がって、ノイズのヒストグラムを計算するために、少数
の画素しか使用できず、このことが推定の精度に影響を
及ぼす。同様に、前面オブジェクトが小さい場合もあり
得、この場合、信号ヒストグラムの推定は信頼できない
かもしれない。
グラムを更新することにより解決され得る。例えば、信
号ヒストグラムは次のように更新され得る。
化するのに使用された前の信号ヒストグラムであり、H
s(x)は、直前のフレームのセグメント化された結果
を用いて得られた新しいヒストグラムであり、λは、通
常1/2の値を有する定数である。
する重み付けで前の全てのヒストグラムから部分的に得
た、重み付けされたヒストグラムを有することに相当す
る。
いて計算され得る。
計算能力および記憶装置は、重要である必要はない。こ
れは、Hs(x)の計算コストが、この手順の主要なコ
ストからなり、それは、累積的な技術が使用されるかど
うかに関わりなく要求されるからである。
れた結果に基づいて更新され得る。背景の元のイメージ
をB0(x,y)、最新のイメージをI(x,y)、バ
イナリマスクイメージをM(x,y)と示した場合、新
たな背景イメージは次の式によって得られる。
ずかな外乱による、背景における小さな変化を克服する
ために非常に有用である。
のステップ16に対する修正を示す。
背景が除去され、新たな背景イメージと置き換えられ
る。新たな背景イメージは、前面オブジェクトとの大き
なコントラストを有し得、したがって、前面オブジェク
トの周囲の境界線において明瞭な切り抜き(cut−o
ut)を有する。これは、境界画素についての平滑化演
算を適用することにより「和らげ」られ得る。
が前面画素である場合、オブジェクト内に存在するとみ
なされる。これらの隣接画素は、図8の参照符号22に
示すような4個の接続された近隣画素または図8の参照
符号23に示すような8個の接続された近隣画素として
規定され得る。オブジェクト内のオブジェクト画素に対
して、演算は要求されない。
る場合、オブジェクト画素は境界線とみなされる。この
画素は、次の式によって得られる新たな画素と置き換え
られ得る。
イメージであり、εは、通常1/2の値を有する定数で
ある。
前面オブジェクトが存在する現実の背景とは異なり得
る。この問題を引き起こす多くの要因のうち、最も重要
な要因が2つある: 1)イメージングデバイスは、スイッチオフし得ないホ
ワイトバランス自動調節機能を有し得る。 2)前面オブジェクトは、背景から入射する光を遮る。
存在する場合、背景における強度および色が変化する。
これらの変化が著しくない場合、これらの変化を各色要
素について定数として概算し得る。つまり、これらの変
化を次のように表し得る。
係のない定数である。
ストグラムHR、HG、およびHBが次に示す式から計算
される。
5)内の値を有するものとし、各色成分R、G、および
Bの有する値が確実に範囲(0,511)内になるよう
に定数255が加えられる。照明の変化が無い場合、各
ヒストグラムは、255の位置にピークを示すはずであ
る。実際のピーク位置と255との間の差分は、色成分
の一定のシフトを示し、それにしたがって背景が調節さ
れ得る。
イメージがセグメント化される前の初めにのみ要求され
る。しかし、イメージング処理の間に照明の変化が起こ
る場合、この処理は、各フレームがセグメント化された
後に繰り返され得る。あるいは、この処理は、固定され
た個数のイメージがセグメント化された後に実行され
て、計算コストを低減し得る。
任意の適切な装置上で実行され得る。プログラミングさ
れたデータプロセッサが、CPUバス31に接続された
中央処理ユニット(CPU)30を含む。システムメモ
リ32は、バス31に接続され、データプロセッサを動
作させるためのシステムソフトウェアまたはプログラム
を全て含んでいる。
arp(登録商標) Internet ViewCa
m等のイメージングデバイス33によって、イメージが
得られる。なお、イメージ信号がデジタルデータフォー
マットになっていない場合、ビデオデジタイザ34はデ
ータバス35に接続される。また、追加的な表示デバイ
ス36がデータバス35に接続されて、全画面内に、ま
たは、出力イメージが1つのウィンドウ内に表示される
場合には別のウィンドウ内に、入力が表示され得る。
を形成し得、既に、ハードディスクまたはデータバス3
5に接続された他の記憶デバイス37に格納され得るコ
ンピュータファイルの形態であり得る。
格納するフレームバッファ38と、背景のイメージのた
めのフレームバッファ39と、バイナリマスクのための
フレームバッファ40と、セグメント化処理の間に生成
された一時的なデータのために必要な場合には、他のメ
モリバッファ41とを含む。
域は、さらなる処理のために、バイナリマスクと共に他
の装置に送信され得るか、または、ハードディスク等の
他の記憶装置に格納され得る。
が割り当てた新たな背景イメージを用いて、構成された
イメージが生成され得る。新たな構成されたイメージ
が、表示デバイス36上の、全画面内に、または、別個
のウィンドウ内に表示された元のイメージと比較するた
めに、ウィンドウ内に表示され得る。
ジを、前面領域と背景領域とにセグメント化する技術が
提供される。先行するイメージの背景領域および前面領
域が分析され、ノイズヒストグラムおよび信号ヒストグ
ラムが提供される。第1の閾値は、所定の割合の背景画
素がより低いノイズレベルを有するような最低のレベル
として生成される。第2の閾値は、所定の割合の前面画
素が最も高い信号レベルを有するような最高のレベルと
して生成される。イメージの各画素と非遮蔽背景イメー
ジの対応する画素との差分として、差分イメージが形成
される。差分イメージ画素の値が第1の閾値よりも小さ
く、且つ、この画素を取り囲む近隣差分イメージ画素の
大部分が背景領域に割り当てられている場合、差分イメ
ージ画素の各々は、背景画素として割り当てられる。そ
の後、残りの画素の各々は、その値が第2の閾値よりも
大きく、且つ、その近隣画素の大部分が前面領域に割り
当てられている場合に、前面領域に割り当てられる。そ
の後、残りの画素は、第1の閾値と第2の閾値との間に
ある第3の閾値との比較によって、前面画素の候補また
は背景画素の候補として割り当てられる。その後、各候
補画素は、近隣画素の大部分が既に背景領域に割り当て
られているか、または、背景画素の候補である場合に、
背景画素として割り当てられる。そうでない場合には、
各候補画素は、前面に割り当てられる。
またはシーケンスのイメージの前面領域および背景領域
をセグメント化するロバストな技術が提供される。
イプ技術を示すヒストグラムである。
イプ技術を示すヒストグラムである。
のイメージをセグメント化する方法の機能図である。
成を示す図である。
ストグラムおよび信号ヒストグラムを示す図である。
の始めの計算を行なう技術を示す図である。
のイメージをセグメント化する方法を示す機能図であ
る。
れた近隣画素を示す図である。
ンスのイメージをセグメント化する装置のブロック図で
ある。
Claims (56)
- 【請求項1】 画素化されたイメージをセグメント化す
る方法であって、 (a)第1の基準イメージから少なくとも1つの第1領
域を選択するステップと、 (b)該少なくとも1つの第1領域に含まれる画素の値
から、該画素のうちの第1の所定の割合の画素が、第1
の閾値の第1の側にある値を有するような第1の閾値を
得るステップと、 (c)該イメージの各画素と非遮蔽背景のイメージの対
応する画素との差分として、差分イメージを形成するス
テップと、 (d)該差分イメージ画素の値が該第1の閾値の該第1
の側にあり、且つ、第1の所定の数よりも多くの数の近
隣差分イメージ画素の値が該第1の閾値の該第1の側に
ある場合、各差分イメージ画素を、少なくとも1つの第
1タイプの領域に割り当てるステップと、を含む方法。 - 【請求項2】 前記第1の所定の割合が0.5〜1であ
る、請求項1に記載の方法。 - 【請求項3】 前記第1の所定の割合が0.75にほぼ
等しい、請求項2に記載の方法。 - 【請求項4】 前記第1の所定の数が、近隣差分イメー
ジ画素の数の半分にほぼ等しい、請求項2または3に記
載の方法。 - 【請求項5】 前記少なくとも1つの第1領域および前
記少なくとも1つの第1タイプの領域の各々が、少なく
とも1つの背景領域を含み、前記第1の閾値の前記第1
の側が、該第1の閾値よりも小さい、前記請求項のいず
れか1つに記載の方法。 - 【請求項6】 前記第1の基準イメージが、前記非遮蔽
背景の2つのイメージの間の差分を含み、該少なくとも
1つの第1領域が、該第1の基準イメージのほぼ全体を
含む、請求項5に記載の方法。 - 【請求項7】 前記少なくとも1つの第1領域が、自動
的に選択される、請求項1から5のいずれか1つに記載
の方法。 - 【請求項8】 前記少なくとも1つの第1領域が、前記
第1の基準イメージの少なくとも1つの側部を含む、請
求項7に記載の方法。 - 【請求項9】 前記少なくとも1つの第1領域が、手動
で選択される、請求項1から5のいずれか1つに記載の
方法。 - 【請求項10】 前記ステップ(d)における前記近隣
画素がアレイ状に配置され、前記差分イメージ画素の位
置が該アレイのほぼ中心にある、前記請求項のいずれか
1つに記載の方法。 - 【請求項11】 共通の背景を有するシーケンスのイメ
ージについて、前記ステップ(a)〜(d)を繰り返す
ことを特徴とする、前記請求項のいずれか1つに記載の
方法。 - 【請求項12】 前記第1の基準イメージが、先行する
差分イメージである、請求項11に記載の方法。 - 【請求項13】 前記少なくとも1つの第1領域が、前
記先行するステップ(d)の、前記少なくとも1つの第
1タイプの領域を含む、請求項12に記載の方法。 - 【請求項14】 各ステップ(d)は、前記少なくとも
1つの第1タイプの領域に割り当てられた前記差分イメ
ージ画素の値を含む第1の初期ヒストグラムを形成する
ステップを含み、 前記ステップ(b)は、先行するステップ(d)におい
て形成された該第1の初期ヒストグラムと先行するステ
ップ(b)の第1の得られたヒストグラムの1つよりも
小さな第1の所定の分画との合計を含む該第1の得られ
たヒストグラムから、前記第1の閾値を得る、請求項1
3に記載の方法。 - 【請求項15】 前記第1の所定の分画が1/2であ
る、請求項14に記載の方法。 - 【請求項16】 画素化されたイメージをセグメント化
する方法であって、 (e)第2の基準イメージから少なくとも1つの第2領
域を選択するステップと、 (f)該少なくとも1つの第2領域に含まれる画素の値
から、該画素のうちの第2の所定の割合の画素が、第2
の閾値の、前記第1の側の反対の第2の側にある値を有
するような第2の閾値を得るステップと、 (g)前記差分イメージ画素の値が該第2の閾値の該第
2の側にあり、且つ、第2の所定の数よりも多くの数の
近隣差分イメージ画素の値が該第2の閾値の該第2の側
にある場合、前記少なくとも1つの第1タイプの領域に
割り当てられない差分イメージ画素の各々を、少なくと
も1つの第2タイプの領域に割り当てるステップと、を
含む、前記請求項のいずれか1つに記載の方法。 - 【請求項17】 前記第2の所定の割合が0.5〜1で
ある、請求項16に記載の方法。 - 【請求項18】 前記第2の所定の割合が0.75にほ
ぼ等しい、請求項17に記載の方法。 - 【請求項19】 前記第2の所定の数が、近隣差分イメ
ージ画素の数の半分にほぼ等しい、請求項16または1
7に記載の方法。 - 【請求項20】 前記少なくとも1つの第2領域および
前記少なくとも1つの第2タイプの領域の各々が、少な
くとも1つの前面領域を含み、前記第2の閾値の前記第
2の側が、該第2の閾値よりも大きい、前記請求項16
から19のいずれか1つに記載の方法。 - 【請求項21】 前記少なくとも1つの第2領域が、自
動的に選択される、請求項16から20のいずれか1つ
に記載の方法。 - 【請求項22】 前記少なくとも1つの第2領域が、前
記第2の基準イメージの中間部分を含む、請求項21に
記載の方法。 - 【請求項23】 前記少なくとも1つの第2領域が、手
動で選択される、請求項16から20のいずれか1つに
記載の方法。 - 【請求項24】 前記第2の基準イメージが前記第1の
基準イメージを含む、請求項16から23のいずれか1
つに記載の方法。 - 【請求項25】 前記ステップ(g)における前記近隣
画素がアレイ状に配置され、前記差分イメージ画素の位
置が該アレイのほぼ中心にある、請求項16から24の
いずれか1つに記載の方法。 - 【請求項26】 共通の背景を有するシーケンスのイメ
ージについて、前記ステップ(e)〜(g)を繰り返す
ことを特徴とする、請求項16から25のいずれか1つ
に記載の方法。 - 【請求項27】 前記第2の基準イメージが、先行する
差分イメージである、請求項26に記載の方法。 - 【請求項28】 前記少なくとも1つの第2領域が、前
記先行するステップ(g)の、前記少なくとも1つの第
2タイプの領域を含む、請求項27に記載の方法。 - 【請求項29】 各ステップ(g)は、前記少なくとも
1つの第2タイプの領域に割り当てられた前記差分イメ
ージ画素の値を含む第2の初期ヒストグラムを形成する
ステップを含み、 前記ステップ(f)は、先行するステップ(g)におい
て形成された該第2の初期ヒストグラムと先行するステ
ップ(f)の第2の得られたヒストグラムの1つよりも
小さな第2の所定の分画との合計を含む該第2の得られ
たヒストグラムから、前記第2の閾値を得る、請求項2
8に記載の方法。 - 【請求項30】 前記第2の所定の分画が1/2であ
る、請求項29に記載の方法。 - 【請求項31】 前記少なくとも1つの第1タイプの領
域に割り当てられず、且つ、前記少なくとも1つの第2
タイプの領域に割り当てられない、各差分イメージ画素
のうち、該差分イメージ画素の値が第3の閾値よりも小
さい画素を、第1タイプの画素の候補として割り当てる
ステップを含む、請求項16から30のいずれか1つに
記載の方法。 - 【請求項32】 前記第3の閾値が、前記第1の閾値と
前記第2の閾値との間の値である、請求項31に記載の
方法。 - 【請求項33】 前記第3の閾値が、前記第1および第
2の閾値の算術平均である、請求項32に記載の方法。 - 【請求項34】 前記少なくとも1つの第1タイプの領
域に割り当てられず、且つ、前記少なくとも1つの第2
タイプの領域に割り当てられない、各差分イメージ画素
について、該差分イメージ画素の前記近隣画素のうち
の、第3の所定の数を超える数の近隣画素が、該少なく
とも1つの第1タイプの領域に割り当てられるか、また
は、第1タイプの画素の候補として割り当てられる場
合、該各差分イメージ画素を該少なくとも1つの第1タ
イプの領域に割り当てるステップを含む、請求項31か
ら33のいずれか1つに記載の方法。 - 【請求項35】 前記近隣画素が1アレイの画素を含
み、前記差分イメージ画素の位置が該アレイのほぼ中心
にある、請求項34に記載の方法。 - 【請求項36】 前記第3の所定の数が、近隣差分イメ
ージ画素の数の半分である、請求項34または35に記
載の方法。 - 【請求項37】 前記少なくとも1つの第1タイプの領
域に割り当てられず、且つ、前記少なくとも1つの第2
タイプの領域に割り当てられない、各差分イメージ画素
を、該少なくとも1つの第2タイプの領域に割り当てる
ステップを含む、請求項34から36のいずれか1つに
記載の方法。 - 【請求項38】 前記イメージまたは各イメージならび
に前記背景イメージが、グレイレベルイメージであり、
前記ステップ(c)が、各イメージ画素と対応する背景
画素との差分を、該各イメージ画素のグレイレベルと該
対応する背景画素のグレイレベルとの差分として形成す
る、前記請求項のいずれか1つに記載の方法。 - 【請求項39】 前記ステップ(c)は、前記差分イメ
ージまたは各差分イメージに対して移動ウィンドウ平均
化ステップを実行するステップを含む、前記請求項のい
ずれか1つに記載の方法。 - 【請求項40】 前記イメージまたは各イメージならび
に前記背景イメージが、カラーイメージであり、前記ス
テップ(c)が、各イメージ画素と対応する背景画素と
の差分を、該各イメージ画素の色と該対応する背景画素
の色との間の色距離として形成する、請求項1から37
のいずれか1つに記載の方法。 - 【請求項41】 前記色距離は、 【数1】 (nは各画素の色成分の数であり、Iiはイメージ画素
のi番目の色成分であり、Biは背景画素のi番目の色
成分であり、αiは重み係数である)として形成され
る、請求項40に記載の方法。 - 【請求項42】 各αiは1に等しい、請求項41に記
載の方法。 - 【請求項43】 nが3に等しく、I1およびB1が赤色
成分であり、I2およびB2が緑色成分であり、I3およ
びB3が青色成分である、請求項41または42に記載
の方法。 - 【請求項44】 前記ステップ(c)が色成分差分イメ
ージIi−Biを形成し、該色成分差分イメージの各々に
対して、移動ウィンドウ平均化ステップを実行する、請
求項41から43のいずれか1つに記載の方法。 - 【請求項45】 前記ウィンドウは、3×3画素のサイ
ズを有する、請求項39または44に記載の方法。 - 【請求項46】 差分イメージ画素に対応するエレメン
トを有するバイナリマスクを形成するステップであっ
て、各エレメントは、前記対応する差分イメージ画素が
前記少なくとも1つの第1タイプの領域に割り当てられ
た場合に第1の値を有し、該対応する差分イメージ画素
が前記少なくとも1つの第2タイプの領域に割り当てら
れた場合に該第1の値と異なる第2の値を有することを
含む、前記請求項のいずれか1つに記載の方法。 - 【請求項47】 前記少なくとも1つの背景領域に割り
当てられた差分イメージ画素に対応する前記イメージま
たは各イメージの各画素の値を、対応する背景イメージ
画素の値と置き換えるステップを含む、請求項5に記載
の方法。 - 【請求項48】 前記少なくとも1つの背景領域に割り
当てられた差分イメージ画素に対応する前記イメージま
たは各イメージの各画素の値を、異なる背景の対応する
画素の値と置き換えるステップを含む、請求項5に記載
の方法。 - 【請求項49】 少なくとも1つの前面領域の境界線に
割り当てられた差分イメージ画素に対応する前記イメー
ジまたは各イメージの各画素の値を、該イメージ画素の
値と前記対応する異なる背景画素の値との線形結合と置
き換えるステップを含むことを含む、請求項48に記載
の方法。 - 【請求項50】 前記線形結合が、対または各対の対応
する画素成分値の算術平均を含む、請求項49に記載の
方法。 - 【請求項51】 各色成分について、前記少なくとも1
つの背景領域に割り当てられた画素の色成分値と、前記
非遮蔽背景イメージの対応する画素の色成分値との差分
の分布を形成するステップと;該分布におけるピークの
位置の、所定の位置からのシフトを判定するステップ
と;該シフトに基づいて、該少なくとも1つの背景領域
に割り当てられた画素の該色成分値を補正するステップ
とを含む、請求項5に記載の方法。 - 【請求項52】 画素化されたイメージをセグメント化
する装置であって、 第1の基準イメージから少なくとも1つの第1領域を選
択する手段と、 該少なくとも1つの第1領域に含まれる画素の値から、
該画素のうちの第1の所定の割合の画素が、第1の閾値
の第1の側にある値を有するような第1の閾値を得る手
段と、 該イメージの各画素と非遮蔽背景のイメージの対応する
画素との差分として、差分イメージを形成する手段と、 該差分イメージ画素の値が該第1の閾値の該第1の側に
あり、且つ、第1の所定の数よりも多くの数の近隣差分
イメージ画素の値が該第1の閾値の該第1の側にある場
合、各差分イメージ画素を、少なくとも1つの第1タイ
プの領域に割り当てる手段と、を含む装置。 - 【請求項53】 画素化されたイメージをセグメント化
する装置であって、 プログラミング可能なデータプロセッサと、 該データプロセッサを制御して、請求項1から51のい
ずれか1つに記載の方法を実行するプログラムを含む記
憶媒体と、を含む装置。 - 【請求項54】 データプロセッサを制御して、請求項
1から51のいずれか1つに記載の方法を実行するプロ
グラムを含む記憶媒体。 - 【請求項55】 データプロセッサを制御して、請求項
1から51のいずれか1つに記載の方法を実行するプロ
グラム。 - 【請求項56】 請求項52または53に記載の装置を
含むイメージキャプチャデバイス。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB0000155.2 | 2000-01-06 | ||
GB0000155A GB2358098A (en) | 2000-01-06 | 2000-01-06 | Method of segmenting a pixelled image |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001229390A true JP2001229390A (ja) | 2001-08-24 |
JP3862140B2 JP3862140B2 (ja) | 2006-12-27 |
Family
ID=9883215
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000393856A Expired - Lifetime JP3862140B2 (ja) | 2000-01-06 | 2000-12-25 | ピクセル化されたイメージをセグメント化する方法および装置、並びに記録媒体、プログラム、イメージキャプチャデバイス |
Country Status (4)
Country | Link |
---|---|
US (1) | US6819796B2 (ja) |
EP (1) | EP1115254A3 (ja) |
JP (1) | JP3862140B2 (ja) |
GB (1) | GB2358098A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008192131A (ja) * | 2007-01-31 | 2008-08-21 | Fuji Xerox Co Ltd | 特徴レベル・セグメンテーションを実行するシステムおよび方法 |
JP2009536417A (ja) * | 2006-05-03 | 2009-10-08 | フォトネーション アイルランド リミテッド | デジタル画像における改良された前景/背景分離 |
CN101894372A (zh) * | 2010-08-03 | 2010-11-24 | 新疆大学 | 含噪遥感图像分割的新方法 |
JP2012059076A (ja) * | 2010-09-09 | 2012-03-22 | Canon Inc | 情報処理装置、その認識方法及びプログラム |
US8170350B2 (en) | 2004-08-16 | 2012-05-01 | DigitalOptics Corporation Europe Limited | Foreground/background segmentation in digital images |
JP2013122763A (ja) * | 2011-12-12 | 2013-06-20 | Samsung Electronics Co Ltd | 映像処理装置及び映像処理方法 |
US8593542B2 (en) | 2005-12-27 | 2013-11-26 | DigitalOptics Corporation Europe Limited | Foreground/background separation using reference images |
KR101545359B1 (ko) | 2007-01-16 | 2015-08-18 | 톰슨 라이센싱 | 이미지에서 아티팩트를 감소시키는 시스템 및 방법 |
Families Citing this family (131)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7650015B2 (en) * | 1997-07-22 | 2010-01-19 | Image Processing Technologies. LLC | Image processing method |
JP3642258B2 (ja) * | 2000-05-08 | 2005-04-27 | 松下電器産業株式会社 | 映像合成装置 |
US7460130B2 (en) * | 2000-09-26 | 2008-12-02 | Advantage 3D Llc | Method and system for generation, storage and distribution of omni-directional object views |
US6678413B1 (en) * | 2000-11-24 | 2004-01-13 | Yiqing Liang | System and method for object identification and behavior characterization using video analysis |
US7643655B2 (en) * | 2000-11-24 | 2010-01-05 | Clever Sys, Inc. | System and method for animal seizure detection and classification using video analysis |
US6915011B2 (en) * | 2001-03-28 | 2005-07-05 | Eastman Kodak Company | Event clustering of images using foreground/background segmentation |
US6912313B2 (en) * | 2001-05-31 | 2005-06-28 | Sharp Laboratories Of America, Inc. | Image background replacement method |
DE10132589B4 (de) * | 2001-07-05 | 2005-11-03 | Koenig & Bauer Ag | Verfahren zur qualitativen Beurteilung von Material |
GB2377333A (en) * | 2001-07-07 | 2003-01-08 | Sharp Kk | Segmenting a pixellated image into foreground and background regions |
WO2003010727A1 (en) * | 2001-07-25 | 2003-02-06 | Vislog Technology Pte Ltd. | Method and apparatus for processing image data |
DE10138650A1 (de) * | 2001-08-07 | 2003-02-27 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zum Verschlüsseln eines diskreten Signals sowie Verfahren und Vorrichtung zur Entschlüsselung |
KR100516638B1 (ko) * | 2001-09-26 | 2005-09-22 | 엘지전자 주식회사 | 화상 통신 시스템 |
US7277580B2 (en) * | 2001-12-12 | 2007-10-02 | Sony Corporation | Multiple thresholding for video frame segmentation |
US7257252B2 (en) * | 2001-12-12 | 2007-08-14 | Sony Corporation | Voting-based video background mosaicking |
US20030128873A1 (en) * | 2002-01-07 | 2003-07-10 | Barry Bronson | Imaging system and method for generating a digital image file |
TW582168B (en) * | 2002-03-01 | 2004-04-01 | Huper Lab Co Ltd | Method for abstracting multiple moving objects |
US7254268B2 (en) * | 2002-04-11 | 2007-08-07 | Arcsoft, Inc. | Object extraction |
US7203356B2 (en) * | 2002-04-11 | 2007-04-10 | Canesta, Inc. | Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications |
US7263227B2 (en) * | 2002-04-25 | 2007-08-28 | Microsoft Corporation | Activity detector |
US7024039B2 (en) * | 2002-04-25 | 2006-04-04 | Microsoft Corporation | Block retouching |
US7110596B2 (en) * | 2002-04-25 | 2006-09-19 | Microsoft Corporation | System and method facilitating document image compression utilizing a mask |
US7043079B2 (en) * | 2002-04-25 | 2006-05-09 | Microsoft Corporation | “Don't care” pixel interpolation |
US7164797B2 (en) * | 2002-04-25 | 2007-01-16 | Microsoft Corporation | Clustering |
US7120297B2 (en) * | 2002-04-25 | 2006-10-10 | Microsoft Corporation | Segmented layered image system |
US7392472B2 (en) * | 2002-04-25 | 2008-06-24 | Microsoft Corporation | Layout analysis |
GB2395780A (en) * | 2002-11-29 | 2004-06-02 | Sony Uk Ltd | Face detection |
US7899245B2 (en) * | 2002-12-30 | 2011-03-01 | Lockheed Martin Corporation | Morphological based segmenter |
JP4307910B2 (ja) * | 2003-03-07 | 2009-08-05 | 富士フイルム株式会社 | 動画像切り出し装置および方法並びにプログラム |
US7489829B2 (en) * | 2003-03-11 | 2009-02-10 | Sightic Vista Ltd. | Adaptive low-light image processing |
US7440613B2 (en) * | 2003-09-12 | 2008-10-21 | Sony Corporation | Binary mask interpolation |
US7623728B2 (en) * | 2004-03-24 | 2009-11-24 | General Electric Company | Method and product for processing digital images |
US7248736B2 (en) * | 2004-04-19 | 2007-07-24 | The Trustees Of Columbia University In The City Of New York | Enhancing images superimposed on uneven or partially obscured background |
KR101183000B1 (ko) | 2004-07-30 | 2012-09-18 | 익스트림 리얼리티 엘티디. | 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및방법 |
US8681100B2 (en) | 2004-07-30 | 2014-03-25 | Extreme Realty Ltd. | Apparatus system and method for human-machine-interface |
US8872899B2 (en) | 2004-07-30 | 2014-10-28 | Extreme Reality Ltd. | Method circuit and system for human to machine interfacing by hand gestures |
JP4215014B2 (ja) * | 2005-03-17 | 2009-01-28 | ソニー株式会社 | 画像処理装置および画像処理プログラム |
US7672516B2 (en) * | 2005-03-21 | 2010-03-02 | Siemens Medical Solutions Usa, Inc. | Statistical priors for combinatorial optimization: efficient solutions via graph cuts |
TWI267061B (en) * | 2005-06-21 | 2006-11-21 | Asustek Comp Inc | Method for processing multi-layered images |
EP1940290B1 (en) * | 2005-10-18 | 2012-01-11 | Koninklijke Philips Electronics N.V. | Patient scan time optimization for pet/spect imaging |
US9046962B2 (en) | 2005-10-31 | 2015-06-02 | Extreme Reality Ltd. | Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region |
US20070285554A1 (en) | 2005-10-31 | 2007-12-13 | Dor Givon | Apparatus method and system for imaging |
US7720283B2 (en) * | 2005-12-09 | 2010-05-18 | Microsoft Corporation | Background removal in a live video |
WO2007076890A1 (en) * | 2005-12-30 | 2007-07-12 | Telecom Italia S.P.A. | Segmentation of video sequences |
US8077969B2 (en) * | 2005-12-30 | 2011-12-13 | Telecom Italia S.P.A. | Contour finding in segmentation of video sequences |
US8078618B2 (en) | 2006-01-30 | 2011-12-13 | Eastman Kodak Company | Automatic multimode system for organizing and retrieving content data files |
US8150155B2 (en) * | 2006-02-07 | 2012-04-03 | Qualcomm Incorporated | Multi-mode region-of-interest video object segmentation |
US8265392B2 (en) * | 2006-02-07 | 2012-09-11 | Qualcomm Incorporated | Inter-mode region-of-interest video object segmentation |
US8265349B2 (en) * | 2006-02-07 | 2012-09-11 | Qualcomm Incorporated | Intra-mode region-of-interest video object segmentation |
JP2007241479A (ja) | 2006-03-06 | 2007-09-20 | Toshiba Corp | 変動領域検出装置及びその方法 |
US8026931B2 (en) * | 2006-03-16 | 2011-09-27 | Microsoft Corporation | Digital video effects |
CN101867679B (zh) * | 2006-03-27 | 2013-07-10 | 三洋电机株式会社 | 缩略图生成装置及摄像装置 |
US7760395B2 (en) * | 2006-09-28 | 2010-07-20 | Konica Minolta Systems Laboratory, Inc. | Background color conversion for toner-saving printing |
US8300890B1 (en) * | 2007-01-29 | 2012-10-30 | Intellivision Technologies Corporation | Person/object image and screening |
US8290257B2 (en) * | 2007-03-02 | 2012-10-16 | The Procter & Gamble Company | Method and apparatus for simulation of facial skin aging and de-aging |
CN101543058A (zh) * | 2007-04-02 | 2009-09-23 | M.苏福特有限公司 | 视频合成方法和视频合成*** |
US7834894B2 (en) * | 2007-04-03 | 2010-11-16 | Lifetouch Inc. | Method and apparatus for background replacement in still photographs |
JP5045371B2 (ja) * | 2007-10-30 | 2012-10-10 | Kddi株式会社 | 動画像の各画素の前景背景分類装置、方法及びプログラム |
US8831357B2 (en) * | 2007-11-09 | 2014-09-09 | Cognitech, Inc. | System and method for image and video search, indexing and object classification |
JP4952627B2 (ja) * | 2008-03-21 | 2012-06-13 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
US9078048B1 (en) * | 2008-07-15 | 2015-07-07 | Google Inc. | Finding and populating spatial ad surfaces in video |
US8346010B2 (en) * | 2008-09-17 | 2013-01-01 | Panasonic Corporation | Image processing device, imaging device, evaluation device, image processing method, and optical system evaluation method |
EP2350925A4 (en) * | 2008-10-24 | 2012-03-21 | Extreme Reality Ltd | METHOD, SYSTEM AND ASSOCIATED MODULES AND SOFTWARE COMPONENTS FOR PRODUCING A MAN-MACHINE INTERFACE BASED ON IMAGE SENSOR |
US8634635B2 (en) * | 2008-10-30 | 2014-01-21 | Clever Sys, Inc. | System and method for stereo-view multiple animal behavior characterization |
CN101742324A (zh) * | 2008-11-14 | 2010-06-16 | 北京中星微电子有限公司 | 视频编解码方法、视频编解码***及编解码器 |
JP2013505493A (ja) | 2009-09-21 | 2013-02-14 | エクストリーム リアリティー エルティーディー. | 電子機器とのヒューマン・マシン・インタフェーシングの為の方法、回路、装置及びシステム |
US8878779B2 (en) | 2009-09-21 | 2014-11-04 | Extreme Reality Ltd. | Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen |
KR101603242B1 (ko) * | 2009-12-07 | 2016-03-15 | 엘지디스플레이 주식회사 | 로컬 디밍을 위한 표시 영역의 분할 방법과 그를 이용한 액정 표시 장치 및 그 구동 방법 |
US20110150298A1 (en) * | 2009-12-23 | 2011-06-23 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US9875719B2 (en) * | 2009-12-23 | 2018-01-23 | Gearbox, Llc | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US20110211738A1 (en) * | 2009-12-23 | 2011-09-01 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US20110211739A1 (en) * | 2009-12-23 | 2011-09-01 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US20110150297A1 (en) * | 2009-12-23 | 2011-06-23 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US20110150295A1 (en) * | 2009-12-23 | 2011-06-23 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US20110150299A1 (en) * | 2009-12-23 | 2011-06-23 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US20110150276A1 (en) * | 2009-12-23 | 2011-06-23 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US20110206245A1 (en) * | 2009-12-23 | 2011-08-25 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US8712110B2 (en) * | 2009-12-23 | 2014-04-29 | The Invention Science Fund I, LC | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US20110150296A1 (en) * | 2009-12-23 | 2011-06-23 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US8730396B2 (en) * | 2010-06-23 | 2014-05-20 | MindTree Limited | Capturing events of interest by spatio-temporal video analysis |
US8655093B2 (en) * | 2010-09-02 | 2014-02-18 | Edge 3 Technologies, Inc. | Method and apparatus for performing segmentation of an image |
WO2012038009A1 (de) * | 2010-09-20 | 2012-03-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zum unterscheiden von hintergrund und vordergrund einer szenerie sowie verfahren zum ersetzen eines hintergrundes in bildern einer szenerie |
TWI450154B (zh) * | 2010-09-29 | 2014-08-21 | Pixart Imaging Inc | 光學觸控系統及其物件偵測方法 |
CA2806520C (en) | 2011-01-23 | 2016-02-16 | Extreme Reality Ltd. | Methods, systems, devices and associated processing logic for generating stereoscopic images and video |
JP5716448B2 (ja) * | 2011-02-24 | 2015-05-13 | 富士ゼロックス株式会社 | 画像形成装置 |
US20120237125A1 (en) * | 2011-03-14 | 2012-09-20 | Yen Hsiang Chew | Isolating Background and Foreground Objects in Video |
GB2489674A (en) * | 2011-03-29 | 2012-10-10 | Sony Corp | 3D image generation |
US8928769B2 (en) | 2011-03-31 | 2015-01-06 | Drs Sustainment Systems, Inc. | Method for image processing of high-bit depth sensors |
JP5555672B2 (ja) * | 2011-07-14 | 2014-07-23 | 東芝テック株式会社 | 画像処理装置 |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US20130301918A1 (en) * | 2012-05-08 | 2013-11-14 | Videostir Ltd. | System, platform, application and method for automated video foreground and/or background replacement |
US9106908B2 (en) * | 2012-07-30 | 2015-08-11 | Intel Corporation | Video communication with three dimensional perception |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US10042510B2 (en) | 2013-01-15 | 2018-08-07 | Leap Motion, Inc. | Dynamic user interactions for display control and measuring degree of completeness of user gestures |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US9702977B2 (en) | 2013-03-15 | 2017-07-11 | Leap Motion, Inc. | Determining positional information of an object in space |
US10620709B2 (en) | 2013-04-05 | 2020-04-14 | Ultrahaptics IP Two Limited | Customized gesture interpretation |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US9747696B2 (en) | 2013-05-17 | 2017-08-29 | Leap Motion, Inc. | Systems and methods for providing normalized parameters of motions of objects in three-dimensional space |
KR102116791B1 (ko) * | 2013-06-04 | 2020-06-09 | 삼성전자주식회사 | 깊이 정보를 사용한 움직인 물체 검출 장치, 방법 및 컴퓨터 판독 가능한 기록 매체 |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
US9721383B1 (en) | 2013-08-29 | 2017-08-01 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
TWI497062B (zh) * | 2013-12-05 | 2015-08-21 | Inventec Corp | 中央處理器腳座的光學檢測系統及其方法 |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
JP2016038889A (ja) | 2014-08-08 | 2016-03-22 | リープ モーション, インコーポレーテッドLeap Motion, Inc. | モーション感知を伴う拡張現実 |
RU2607415C2 (ru) * | 2015-04-21 | 2017-01-10 | Федеральное государственное казенное военное образовательное учреждение высшего образования "Академия Федеральной службы охраны Российской Федерации" (Академия ФСО России) | Способ идентификации кадров потока мультимедийных данных на основе корреляционного анализа гистограмм изображений кадров |
KR102372164B1 (ko) | 2015-07-24 | 2022-03-08 | 삼성전자주식회사 | 촬영 장치, 그의 오브젝트 감지 방법 및 비일시적 컴퓨터 판독가능 기록매체 |
JP6642021B2 (ja) * | 2016-01-15 | 2020-02-05 | 富士ゼロックス株式会社 | 画像処理装置、画像処理システムおよびプログラム |
TWI615806B (zh) * | 2016-10-11 | 2018-02-21 | 威聯通科技股份有限公司 | 影像背景學習方法及電子裝置 |
WO2019047985A1 (zh) * | 2017-09-11 | 2019-03-14 | Oppo广东移动通信有限公司 | 图像处理方法和装置、电子装置和计算机可读存储介质 |
CN109598276A (zh) * | 2017-09-30 | 2019-04-09 | 佳能株式会社 | 图像处理装置和方法及监控*** |
RU2673966C1 (ru) * | 2017-10-23 | 2018-12-03 | Федеральное государственное казенное военное образовательное учреждение высшего образования "Академия Федеральной службы охраны Российской Федерации" (Академия ФСО России) | Способ идентификации кадров в потоке мультимедийных данных |
JP7075773B2 (ja) * | 2018-02-16 | 2022-05-26 | オリンパス株式会社 | 画像処理装置、顕微鏡システム、画像処理方法および画像処理プログラム |
US11875012B2 (en) | 2018-05-25 | 2024-01-16 | Ultrahaptics IP Two Limited | Throwable interface for augmented reality and virtual reality environments |
CN110400355B (zh) * | 2019-07-29 | 2021-08-27 | 北京华雨天成文化传播有限公司 | 一种单***的确定方法、装置、电子设备及存储介质 |
CN111583485A (zh) * | 2020-04-16 | 2020-08-25 | 北京澎思科技有限公司 | 小区门禁***、门禁控制方法和装置、门禁单元及介质 |
US11790535B2 (en) * | 2020-05-12 | 2023-10-17 | True Meeting Inc. | Foreground and background segmentation related to a virtual three-dimensional (3D) video conference |
US11580832B2 (en) * | 2020-10-23 | 2023-02-14 | Himax Technologies Limited | Motion detection system and method |
CN113160109B (zh) * | 2020-12-15 | 2023-11-07 | 宁波大学 | 反背景差分的细胞图像分割方法 |
CN112863010B (zh) * | 2020-12-29 | 2022-08-05 | 宁波友好智能安防科技有限公司 | 一种防盗锁的视频图像处理*** |
CN113345003B (zh) * | 2021-05-31 | 2023-08-25 | 中国农业大学 | 一种池塘水草面积估计方法 |
CN117934689B (zh) * | 2024-03-25 | 2024-06-11 | 四川省医学科学院·四川省人民医院 | 一种骨折ct影像的多组织分割与三维渲染方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69126585T2 (de) * | 1990-09-20 | 1998-01-02 | Nec Corp | Verfahren und Gerät zur Kodierung von bewegten Bildsignalen |
US5481620A (en) * | 1991-09-27 | 1996-01-02 | E. I. Du Pont De Nemours And Company | Adaptive vision system |
US5617484A (en) * | 1992-09-25 | 1997-04-01 | Olympus Optical Co., Ltd. | Image binarizing apparatus |
US5933524A (en) * | 1993-09-27 | 1999-08-03 | Siemens Aktiengesellschaft | Method for segmentation of digital color images |
US5812787A (en) * | 1995-06-30 | 1998-09-22 | Intel Corporation | Video coding scheme with foreground/background separation |
US5915044A (en) * | 1995-09-29 | 1999-06-22 | Intel Corporation | Encoding video images using foreground/background segmentation |
US5912994A (en) | 1995-10-27 | 1999-06-15 | Cerulean Colorization Llc | Methods for defining mask of substantially color-homogeneous regions of digitized picture stock |
WO1997016807A1 (en) * | 1995-10-31 | 1997-05-09 | Sarnoff Corporation | Method and apparatus for image-based object detection and tracking |
US5781198A (en) * | 1995-12-22 | 1998-07-14 | Intel Corporation | Method and apparatus for replacing a background portion of an image |
US6259827B1 (en) * | 1996-03-21 | 2001-07-10 | Cognex Corporation | Machine vision methods for enhancing the contrast between an object and its background using multiple on-axis images |
US5903664A (en) | 1996-11-01 | 1999-05-11 | General Electric Company | Fast segmentation of cardiac images |
US6249613B1 (en) * | 1997-03-31 | 2001-06-19 | Sharp Laboratories Of America, Inc. | Mosaic generation and sprite-based coding with automatic foreground and background separation |
US5903660A (en) | 1997-07-16 | 1999-05-11 | The Regents Of The University Of California | Automatic background recognition and removal (ABRR) in projection digital radiographic images (PDRI) |
US6061476A (en) * | 1997-11-24 | 2000-05-09 | Cognex Corporation | Method and apparatus using image subtraction and dynamic thresholding |
US6335985B1 (en) * | 1998-01-07 | 2002-01-01 | Kabushiki Kaisha Toshiba | Object extraction apparatus |
DE19958553A1 (de) * | 1999-12-04 | 2001-06-07 | Luratech Ges Fuer Luft Und Rau | Verfahren zur Kompression von gescannten Farb- und/oder Graustufendokumenten |
-
2000
- 2000-01-06 GB GB0000155A patent/GB2358098A/en not_active Withdrawn
- 2000-12-25 JP JP2000393856A patent/JP3862140B2/ja not_active Expired - Lifetime
- 2000-12-26 US US09/748,751 patent/US6819796B2/en not_active Expired - Fee Related
-
2001
- 2001-01-04 EP EP01300037A patent/EP1115254A3/en not_active Ceased
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8170350B2 (en) | 2004-08-16 | 2012-05-01 | DigitalOptics Corporation Europe Limited | Foreground/background segmentation in digital images |
US8593542B2 (en) | 2005-12-27 | 2013-11-26 | DigitalOptics Corporation Europe Limited | Foreground/background separation using reference images |
JP2009536417A (ja) * | 2006-05-03 | 2009-10-08 | フォトネーション アイルランド リミテッド | デジタル画像における改良された前景/背景分離 |
US8363908B2 (en) | 2006-05-03 | 2013-01-29 | DigitalOptics Corporation Europe Limited | Foreground / background separation in digital images |
US9117282B2 (en) | 2006-05-03 | 2015-08-25 | Fotonation Limited | Foreground / background separation in digital images |
KR101545359B1 (ko) | 2007-01-16 | 2015-08-18 | 톰슨 라이센싱 | 이미지에서 아티팩트를 감소시키는 시스템 및 방법 |
JP2008192131A (ja) * | 2007-01-31 | 2008-08-21 | Fuji Xerox Co Ltd | 特徴レベル・セグメンテーションを実行するシステムおよび方法 |
CN101894372A (zh) * | 2010-08-03 | 2010-11-24 | 新疆大学 | 含噪遥感图像分割的新方法 |
JP2012059076A (ja) * | 2010-09-09 | 2012-03-22 | Canon Inc | 情報処理装置、その認識方法及びプログラム |
US8923554B2 (en) | 2010-09-09 | 2014-12-30 | Canon Kabushiki Kaisha | Information processing device, recognition method thereof and non-transitory computer-readable storage medium |
JP2013122763A (ja) * | 2011-12-12 | 2013-06-20 | Samsung Electronics Co Ltd | 映像処理装置及び映像処理方法 |
Also Published As
Publication number | Publication date |
---|---|
US20020037103A1 (en) | 2002-03-28 |
GB0000155D0 (en) | 2000-02-23 |
GB2358098A (en) | 2001-07-11 |
EP1115254A2 (en) | 2001-07-11 |
US6819796B2 (en) | 2004-11-16 |
EP1115254A3 (en) | 2003-12-03 |
JP3862140B2 (ja) | 2006-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3862140B2 (ja) | ピクセル化されたイメージをセグメント化する方法および装置、並びに記録媒体、プログラム、イメージキャプチャデバイス | |
EP1274251A2 (en) | Method and apparatus for segmenting a pixellated image | |
US10298905B2 (en) | Method and apparatus for determining a depth map for an angle | |
US20020172420A1 (en) | Image processing apparatus for and method of improving an image and an image display apparatus comprising the image processing apparatus | |
KR100846513B1 (ko) | 영상 처리 방법 및 장치 | |
JP6715864B2 (ja) | 画像に対する深度マップを決定するための方法及び装置 | |
EP2034436A1 (en) | Method for non-photorealistic rendering | |
KR20110014067A (ko) | 스테레오 컨텐트의 변환 방법 및 시스템 | |
KR101034518B1 (ko) | 화상을 개선하는 화상 처리 장치 및 방법과, 화상 처리 장치를 포함하는 화상 디스플레이 장치 | |
US20060104535A1 (en) | Method and apparatus for removing false edges from a segmented image | |
JP2009044739A (ja) | デジタル画像の背景色を決定するための方法およびシステム | |
JP2020195127A (ja) | 画像処理装置、画像処理方法、撮像装置、プログラム、記憶媒体 | |
JPH09270002A (ja) | 物体強調手段 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060117 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060523 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060622 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060921 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060921 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091006 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101006 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111006 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121006 Year of fee payment: 6 |