JP6598952B2 - 画像処理装置及び方法及び監視システム - Google Patents

画像処理装置及び方法及び監視システム Download PDF

Info

Publication number
JP6598952B2
JP6598952B2 JP2018167192A JP2018167192A JP6598952B2 JP 6598952 B2 JP6598952 B2 JP 6598952B2 JP 2018167192 A JP2018167192 A JP 2018167192A JP 2018167192 A JP2018167192 A JP 2018167192A JP 6598952 B2 JP6598952 B2 JP 6598952B2
Authority
JP
Japan
Prior art keywords
group
image
visual
visual element
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018167192A
Other languages
English (en)
Other versions
JP2019067377A (ja
Inventor
シャオ シューユー
チン ソクイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2019067377A publication Critical patent/JP2019067377A/ja
Application granted granted Critical
Publication of JP6598952B2 publication Critical patent/JP6598952B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、画像処理に関し、特に、例えば前景検出及び監視に関するものである。
画像処理では、1つの態様において、画像(例えば映像の1つの画像)は一般に、画像の外観に寄与する視認可能な特性である視覚要素から構成されている。1つの視覚要素は、例えば、画素、複数画素のグループを表す離散的コサイン変換(DCT)ブロック、又は、類似属性(類似テクスチャ、類似色、類似輝度)を有する複数画素のグループを表すスーパーピクセルである。別の態様において、特に前景検出では、現画像よりも前の任意の継続時間における映像の画像に基づいて取得されている背景画像と比較することによって“前景”又は“背景”として映像の現画像における視覚要素を分類するために既存の背景差分技術が一般に使用される。“前景”とは映像上で撮像されたシーンに現れる一時的な物体を指す。そうした一時的な物体は、例えば、移動する人間又は移動する車を含んでもよい。シーンの残りの部分は“背景”であるものと考えられる。
しかしながら、いくつかの状況では、誤った前景検出が起こるだろう。例えば、1つの状況では、背景画像における対応する視覚要素と比較することによって現画像における水面のさざなみ又は葉の視覚要素が任意の変化を有する場合、実際には背景である水面のさざなみ又は風で動く葉が誤って前景として検出されるだろう。例えば、別の状況では、低精度のグラフセグメンテーションアルゴリズムがスーパーピクセル(すなわち視覚要素)を取得するために使用される場合、すなわち、現画像から取得された視覚要素が、現画像の前の画像から取得された対応視覚要素と一定を保つことができないかもしれない場合、それにより、背景画像における対応視覚要素と比較することによって現画像における視覚要素は任意の変化を有するだろうし、誤った前景検出にも至るだろう。
それ故、上述の誤った前景検出を可能な限り排除するために、“Moving Objects Detection and Segmentation Based on Background Subtraction and Image Over-Segmentation” (Yun-fang Zhu, <Journal of Software> VOL. 6, NO. 7, July, 2011)において1つの例示的技術が開示されている。現画像における1つの視覚要素について、この例示的技術は、この視覚要素の背景信頼度に従って前景又は背景としてこの視覚要素を検出する。より具体的には、この視覚要素の背景信頼度が閾値よりも大きい場合、この視覚要素は背景として検出されるだろう。この視覚要素の背景信頼度は第1の数の第2の数に対する割合(比率)であり、第1の数は、この視覚要素の近くであり且つこの視覚要素と同じ色を有する現画像における視覚要素の数を示しており、第2の数は、この視覚要素の近くであり且つ前景として検出される現画像における視覚要素の数を示している。
しかしながら、検出されるべき1つの視覚要素の近くの視覚要素のグループが誤って前景として検出される場合、上述の第1の数及び上述の第2の数の両方がより大きくなるだろうし、それは、検出されるべきこの視覚要素の背景信頼度を小さくし、閾値よりも小さくしてしまうだろう。それ故、上述の誤った前景検出を可能な限り排除することができず、前景検出を可能な限り改良することができない。
本発明の一態様によれば、画像処理装置であって、入力映像から現画像を取得すると共に、背景画像及び視覚要素の分類情報を含む背景モデルを取得する取得手段であって、前記視覚要素の前記分類情報は前景及び背景を含む、前記取得手段と、前記現画像及び前記背景モデル中の前記背景画像に従って前記現画像における前記視覚要素を前記前景又は前記背景として分類する分類手段と、前記現画像中のグループ及び前記背景モデル中のグループの間の類似度を判定する類似度判定手段であって、前記現画像中の前記グループの視覚要素は、前記分類手段により前記前景として分類された前記現画像中の前記視覚要素であり、前記背景モデル中の前記グループの視覚要素は、分類情報が前記前景である前記視覚要素であり、前記背景モデル中の前記グループの前記視覚要素は、前記現画像中の前記グループの前記視覚要素の対応部分の近くの視覚要素である、前記類似度判定手段と、前記類似度判定手段により判定された前記類似度に従って、前記分類手段により前記前景として分類されている前記現画像中の前記視覚要素が誤って分類されているか否かを識別する識別手段と、を備えることを特徴とする画像処理装置が提供される。
前記背景モデル中の前記背景画像は、前記現画像の少なくとも1つの前の画像に従って取得される。前記背景モデル中の前記視覚要素の前記分類情報は、前記現画像の少なくとも1つの前の画像において前記前景又は前記背景として識別されている前記視覚要素に従って取得される。
本発明を利用することで、前景検出の精度が向上するだろう。
本発明の更なる特性、特徴及び利点が、図面を参照した以下の記載から明らかになるだろう。
明細書に組み込まれ、明細書の一部を構成する添付の図面は、本発明の実施形態を説明し、その記載と共に本発明の原則を説明するのに役立つものである。
図1は、本発明の実施形態に従った技術を実施できるハードウェア構成を概略的に示すブロック図である。 図2は、本発明の実施形態に従った画像処理装置の構成を例示するブロック図である。 図3A乃至図3Hは、本発明に従った、現画像の前の画像における要素の視覚前景/背景の分類結果、及び、背景モデルにおける視覚要素の前景/背景の分類情報を概略的に示す。 図4は、本発明の実施形態に従った画像処理のフローチャートを概略的に示す。 図5は、本発明に従った図4に示されるようなステップS420のフローチャートを概略的に示す。 図6は、本発明に従った図4に示されるようなステップS430のフローチャートを概略的に示す。 図7A乃至図7Bは、本発明に従った、現画像、及び、背景モデルにおける視覚要素の前景/背景の分類情報を概略的に示す。 図8は、本発明に従った例示的な監視の構成を示す。
以下、図面を参照しながら、本発明の例示的な実施形態を詳細に説明する。以下の記載は性質の単なる例証及び例示であり、決して本発明及びその適用又は使用を制限する意図はないことに留意されたい。構成要素及びステップの相対的な配置、実施形態で説明される数式及び数値は、具体的に述べられていない限り、本発明の範囲を制限するものではない。さらに、当業者に知られている技術、方法及び装置は詳細に議論されないかもしれないが、必要に応じて明細書の一部であることが意図されている。
類似の参照番号及び文字は図面において類似の項目を示しており、1つの図面においてある項目が定義されると、以降の図面についてはそれが議論される必要はない。
一般に、映像上で撮像されたシーンにおいて、真の物体(すなわち前景)が映像において突然現れたり、或いは、消えたりすることは不可能である。すなわち、真の物体は映像において移動軌跡を有するだろう。それ故、映像の現画像における視覚要素のグループ(例えば1つの視覚要素、又は、1つよりも多い視覚要素)が前景である場合、一般に、このグループの視覚要素の対応部分の近くの、現画像の少なくとも1つの前の画像における視覚要素も前景であるだろう。それ故、発明者は、前景検出において、前景として分類されている少なくとも1つの視覚要素を含む映像の現画像における視覚要素のグループについて、現画像の前の画像において前景として識別されており且つ現画像の前の画像においてこのグループの視覚要素の対応部分の近くの視覚要素を、このグループの視覚要素が誤って分類されているか否かを識別するための基準とみなすことができることを見出した。
それ故、本発明では、映像の現画像における視覚要素が前景又は背景として分類された後、前景として分類されている視覚要素について、これらの視覚要素が誤って分類されているか否かを識別するために、これらの視覚要素、及び、前の画像で前景として識別されており且つ前の画像におけるこれらの視覚要素の対応部分の近くにある視覚要素、の間の類似度を考慮するだろう。例えば、前景として分類されている少なくとも1つの視覚要素を含む現画像における視覚要素のグループについて、これらの視覚要素のテクスチャ/色/輝度が類似する等、前の画像において前景として識別されており且つ前の画像においてこのグループの視覚要素の対応部分の近くにある視覚要素と類似するこのグループの視覚要素が多いほど、このグループの視覚要素が正確に分類されている確率が高くなり、すなわち、このグループの視覚要素が真の物体である確率が高くなる。それにより、前の画像において前景として識別されており且つ前の画像においてこのグループの視覚要素の対応部分の近くにある視覚要素に類似するこのグループの視覚要素が少ない場合、このグループの視覚要素は誤って分類されたと識別されるだろう。
それ故、本発明によれば、たとえ背景が、映像の任意の画像において動き(例えば水面のさざなみ又は風に動く葉)を含むとしても、或いは、たとえ低精度のグラフセグメンテーションアルゴリズムが前景検出のために使用される視覚要素を取得するために使用されたとしても、前の処理で取得されている識別された前景/背景の分類結果が後続の処理の基準として使用されるため、誤った前景検出を効率的に排除することができる。従って、前景検出の精度が向上する。
(ハードウェア構成)
まず、図1を参照して、以降に記載の技術を実施できるハードウェア構成を説明する。
ハードウェア構成100は、例えば、中央処理装置(CPU)110、ランダムアクセスメモリ(RAM)120、リードオンリーメモリ(ROM)130、ハードディスク140、入力装置150、出力装置160、ネットワークインタフェース170及びシステムバス180を含む。さらに、一実施形態において、ハードウェア構成100は、タブレットコンピュータ、ラップトップ、デスクトップ又は他の適当な電子装置等の、コンピュータにより実施できる。別の実施形態では、ハードウェア構成100は、デジタルカメラ、ビデオカメラ、ネットワークカメラ又は他の適当なデジタル装置等の、モニタにより実施されうる。ハードウェア構成100がモニタにより実施される場合、ハードウェア構成100は、例えば光学系190を更に含む。
一実施形態において、本発明に従った画像処理は、ハードウェア又はファームウェアにより構成され、ハードウェア構成100のモジュール又は構成要素としての機能を果たす。例えば、図2を参照して以降詳細に説明される画像処理装置200が、ハードウェア構成100のモジュール又は構成要素としての機能を果たす。別の実施形態では、本発明に従った画像処理は、ROM130又はハードディスク140に格納されて且つCPU110により実行されるソフトウェアにより構成される。例えば、図4を参照して以降詳細に記載される手順400が、ROM130又はハードディスク140に格納されたプログラムとしての機能を果たす。
CPU110は、任意の適当なプログラム可能な制御装置(プロセッサ等)であり、ROM130又はハードディスク140(メモリ等)に格納されている様々なアプリケーションプログラムを実行することにより、以降に記載される様々な機能を実行できる。RAM120は、ROM130又はハードディスク140からロードされるプログラム又はデータを一時的に格納するために使用され、図4乃至図6を参照して詳細に説明される技術及び他の利用可能な機能を実行する等、CPU110が様々な手順を実行するスペースとしても使用される。ハードウェア140は、オペレーティングシステム(OS)、様々なアプリケーション、制御プログラム、映像、映像の各画像についての処理結果、及び/又は、予め定義されたデータ(例えば閾値(TH))等の、多くの種類の情報を格納する。
一実施形態において、入力装置150は、ユーザがハードウェア構成100と対話するのを可能にするために使用される。一例では、ユーザは、入力装置150を介して画像/映像/データを入力できる。別の例では、ユーザは、入力装置150を介して本発明の対応する処理をトリガできる。さらに、入力装置150は、ボタン、キーパッド又はタッチスクリーン等の様々な形態を取ることができる。別の実施形態では、入力装置150は、デジタルカメラ、ビデオカメラ及び/又はネットワークカメラ等の、特別な電子装置から出力される画像/映像を受信するために使用される。加えて、ハードウェア構成100がモニタにより実施される場合、ハードウェア構成100における光学系190は、監視場所の画像/映像を直接撮像するだろう。
一実施形態において、出力装置160は、処理結果(前景等)をユーザに対して表示するために使用される。そして、出力装置160は、陰極線管(CRT)又は液晶ディスプレイ等の、様々な形態を取ることができる。別の実施形態において、出力装置160は、警告をユーザに与えるか否かに関する監視解析等の後続の処理へ処理結果を出力するために使用される。
ネットワークインタフェース170は、ハードウェア構成100をネットワークと接続するためのインタフェースを提供する。例えば、ハードウェア構成100は、ネットワークインタフェース170を介して、ネットワークを介して接続された他の電子装置とのデータ通信を実行できる。或いは、無線データ通信を実行するために無線インタフェースがハードウェア構成100に提供されてもよい。システムバス180は、CPU110、RAM120、ROM130、ハードディスク140、入力装置150、出力装置160及びネットワークインタフェース170等へ、これらから、又はこれらの間で、互いに、データを転送するためのデータ転送パスを提供してもよい。バスと称されるものの、システムバス180は任意の特定の転送技術に限定されるものではない。
上記のハードウェア構成100は、単なる例示的なものであり、決して本発明及びその適用又は使用を制限する意図はない。そして、簡単化のために、1つだけのハードウェア構成が図1に示されている。しかし、複数のハードウェア構成も必要に応じて使用できる。
(画像処理)
次に、図2乃至図7Bを参照して、本発明に従った画像処理を説明する。
図2は、本発明の実施形態に従った画像処理装置200の構成を示すブロック図である。図2に示されるブロックのいくつか又は全ては専用ハードウェアにより実施できる。図2に示されるように、画像処理装置200は、取得部210、分類部220、類似度判定部230及び識別部240を備えている。
加えて、図2に示される記憶装置250は、映像、及び、映像の各画像についての処理結果(すなわち、視覚要素の識別された前景/背景の分類結果)を格納する。例えば、映像は、ユーザにより入力され、或いは、特別な電子装置(例えばカメラ)から出力され、或いは、図1に示されるような光学系により撮像される。或いは、映像及び処理結果は、異なる記憶装置に格納できる。一実施形態において、記憶装置250は、図1に示されるROM130又はハードディスク140である。別の実施形態において、記憶装置250は、(不図示の)ネットワークを介して画像処理装置200と接続されるサーバ又は外部記憶装置である。
第1に、一実施形態において、例えば、図1に示されるハードウェア構成100がコンピュータにより実施される場合、入力装置150は、特別な電子装置(例えばカメラ)から出力された或いはユーザにより入力された映像を受信する。第2に、入力装置150は、受信した映像を、システムバス180を介して画像処理装置200へ転送する。別の実施形態において、例えば、ハードウェア構成がモニタにより実施される場合、画像処理装置200は、光学系190により撮像される映像を直接受信する。
次に、図2に示されるように、一態様では、取得部210は、受信した映像(すなわち入力映像)から現画像を取得する。例えば、現画像はt番目の画像であり、tは自然数であって2≦t≦Tであり、Tは入力映像の画像の合計数である。別の態様では、取得部210は、記憶装置250から背景モデルを取得する。背景モデルは、背景画像及び視覚要素の分類情報を含む。視覚要素の分類情報は、前景及び背景を含む。以降、“視覚要素の分類情報”は、視覚要素の“前景/背景の分類情報”とみなされるだろう。
背景モデルにおける背景画像は、t番目の画像の少なくとも1つの前の画像に従って取得される。すなわち、背景画像はt番目の画像より前の任意の継続時間における映像の少なくとも1つの画像に従って取得されるものであり、任意の継続時間は限定されるものではなく、実験的な統計及び/又は経験に基づいて設定される。一例では、背景画像はt番目の画像の前の複数画像の平均画像である。別の例では、背景画像はt番目の画像の前の画像の何れか1つである。他の例では、背景画像は、例えばガウスモデルに基づいて各画像について生成されるモデルに従ってタイムリーに取得される。しかしながら、それらに限定される必要がないことは容易に明らかである。
背景モデルにおける視覚要素の前景/背景の分類情報は、t番目の画像の少なくとも1つの前の画像において前景又は背景として識別される視覚要素に従って取得される。一例では、視覚要素の前景/背景の分類情報は、t番目の画像の前の複数画像における視覚要素の識別された前景/背景の分類結果を平均化することによって取得される。別の例では、視覚要素の前景/背景の分類情報は、t番目の画像の前の複数画像の何れか1つにおける視覚要素の識別された前景/背景の分類結果である。他の例では、視覚要素の前景/背景の分類情報は、例えばガウスモデルに基づいて各視覚要素について生成されるモデルに従ってタイムリーに取得される。しかしながら、それらに限定される必要がないことは容易に明らかである。
例えば、視覚要素がスーパーピクセルであると仮定すると、且つ、背景モデルにおける視覚要素の前景/背景の分類情報がt番目の画像の3枚の前の画像における視覚要素の識別された前景/背景の分類結果に従って取得されると仮定すると、t番目の画像の3枚の前の画像は、例えば、図3Aに示される(t−3)番目の画像、図3Bに示される(t−2)番目の画像、及び図3Cに示される(t−1)番目の画像であり、ここで、図3A乃至図3Cに示される画像における1つのブロックは、1つの視覚要素を表しており、各ブロックにおける“B”又は“F”は、“背景”又は“前景”として識別されており、従って、平均化操作が実行される場合、背景モデルにおける視覚要素の取得された前景/背景の分類情報は、例えば図3Dに示される。同様に、例えば、視覚要素がDCTブロックである場合、図3E乃至図3Gはt番目の画像の3枚の前の画像を示しており、図3Hは、平均化操作が実行される場合の背景モデルにおける視覚要素の取得された前景/背景の分類情報を示す。加えて、視覚要素が画素である場合、同じ方法で背景モデルにおける視覚要素の前景/背景の分類情報が取得されうる。
加えて、t番目の画像の前の複数画像のうちの1つが、背景モデルにおける背景画像として選択される場合、且つ、t番目の画像の前の複数画像のうちの1つにおける視覚要素の識別された前景/背景の分類結果が、背景モデルにおける視覚要素の前景/背景の分類情報として選択される場合、これらの2つの前の画像は、同じ画像でありうるし、或いは、異なる画像でもありうる。
図2に戻り、取得部210がt番目の画像及び背景モデルを取得した後、分類部220は、t番目の画像及び背景モデルにおける背景画像に従って、t番目の画像における視覚要素を前景又は背景として分類する。
次に、類似度判定部230は、t番目の画像におけるグループ(すなわち視覚要素グループ)及び背景モデルにおけるグループ(すなわち視覚要素グループ)の間の類似度を判定する。背景モデルにおけるグループ内の視覚要素は、分類情報が前景である視覚要素であり、且つ、背景モデルにおけるグループ内の視覚要素は、t番目の画像におけるグループ内の視覚要素の対応部分の近くの視覚要素である。t番目の画像におけるグループは、ユーザにより設定される方法や、分類部220により前景として分類されたt番目の画像における視覚要素をクラスタリングすることにより判定される方法等の何れかの方法に従って判定されうる。t番目の画像におけるグループの各々は少なくとも1つの視覚要素を含み、グループの各々における視覚要素は、分類部220により前景として分類されるt番目の画像における視覚要素である。t番目の画像におけるグループの何れか1つについて、このグループ内の視覚要素の各々は、背景モデルにおけるこの視覚要素の1つの対応部分に対応する。そして、このグループ内の視覚要素の何れか1つについて、この視覚要素の対応部分は、背景モデルにおける位置がt番目の画像におけるこの視覚要素の位置と同じ部分である。t番目の画像におけるグループの何れか1つについて、このグループに対応する類似度が大きいほど、このグループ内の視覚要素が正確に分類される確率(可能性)が高くなり、すなわち、このグループ内の視覚要素が真の物体である確率(可能性)が高くなる。
続いて、識別部240は、類似度判定部230により判定された類似度に従って、分類部220により前景として分類されているt番目の画像における視覚要素が、誤って分類されているか否かを識別する。
最後に、t番目の画像における視覚要素が識別部240により識別された後、一態様では、識別部240は、記憶装置250に格納された対応情報を更新できるように、且つ、次の画像(例えばt+1番目の画像)のために使用される背景画像を更新された情報に従って取得できるように、t番目の画像における視覚要素の識別された前景/背景の分類結果を記憶装置250へ転送する。別の態様では、識別部240は、t番目の画像における視覚要素の識別された前景/背景の分類結果を、t番目の画像における前景をユーザに対して表示するために、或いは、監視解析等の後続の処理へt番目の画像における前景を出力するために、システムバス180を介して図1に示される出力装置160へ転送する。
加えて、一般に、前景検出では、入力映像の最初の画像における視覚要素は黙従的に背景としてみなされるだろう。
図4に示されるフローチャート400は、図2に示される画像処理装置200の対応する手順である。
図4に示されるように、取得ステップS410において、取得部210は、入力映像からt番目の画像を取得し、記憶装置250から背景画像及び視覚要素の前景/背景の分類情報を取得する。ここで2≦t≦Tである。
分類ステップS420において、分類部220は、t番目の画像及び背景モデルにおける背景画像に従って、t番目の画像における視覚要素を前景又は背景として分類する。一実施形態において、分類部220は、図5の参照によりt番目の画像における視覚要素を前景又は背景として分類する。
図5に示されるように、ステップS421において、t番目の画像における視覚要素の各々について、分類部220は、この視覚要素及び背景画像における対応視覚要素の間の類似度を算出する。対応視覚要素は、背景画像における位置がt番目の画像におけるこの視覚要素の位置と同じである視覚要素である。以降、t番目の画像における視覚要素及び背景画像における対応視覚要素の間の類似度は、“t番目の画像における視覚要素及び背景画像における対応視覚要素の間の視覚距離”とみなされるだろう。t番目の画像における視覚要素の何れか1つについて、対応する視覚距離が大きいほど、この視覚要素及び背景画像における対応視覚要素の間にはより多くの差異(すなわち変化)が含まれ、すなわち、この視覚要素が前景である確率(可能性)が高くなる。
一実施形態において、t番目の画像における視覚要素の各々について、この視覚要素及び背景画像における対応視覚要素の間の視覚距離は、これら2つの視覚要素の特徴値に従って算出される。例えば、これら2つの視覚要素の特徴値間の絶対差分が、対応視覚距離とみなされる。それに限定される必要がないことは容易に明らかである。1つの画像における1つの視覚要素の特徴値は、画像におけるこの視覚要素のチャネル特徴に従って判定できる。例えば、画像がYCbCr色空間にある場合、1つの視覚要素は、Y(輝度)チャネル特徴、Cb(青)チャネル特徴及びCr(赤)チャネル特徴を含む。画像がRGB色空間にある場合、1つの視覚要素は、赤チャネル特徴、緑チャネル特徴及び青チャネル特徴を含む。
図5に戻ると、ステップS422において、分類部220は、予め定義された閾値(例えばTH1)及びステップS421から取得される視覚距離に従って、t番目の画像における視覚要素を前景又は背景として分類する。例えばt番目の画像における1つの視覚要素を挙げると、ステップS421において取得された対応視覚距離がTH1よりも大きい場合、分類部220は、この視覚要素を前景として分類する。そうでない場合、この視覚要素は背景として分類されるだろう。
図4に戻り、類似度判定ステップ430において、類似度判定部230は、t番目の画像におけるグループ及び背景モデルにおけるグループの間の類似度を判定する。背景モデルにおけるグループの視覚要素は、分類情報が前景である視覚要素であり、且つ、背景モデルにおけるグループの視覚要素は、t番目の画像におけるグループの視覚要素の対応部分の近くの視覚要素である。一実施形態において、t番目の画像におけるグループの何れか1つについて、類似度判定部230は、図6の参照によりこのグループに対応する類似度を判定する。
図6に示されるように、ステップS431において、t番目の画像における1つのグループ内のi番目の視覚要素について、ここで1≦i≦Iであり、Iはこのグループ内の視覚要素の合計数であり、類似度判定部230は、背景モデルにおける複数グループのうちの1つにおける視覚要素に従ってi番目の視覚要素に対応する類似度を判定する。
背景モデルにおけるこのグループ内の視覚要素は、分類情報が前景である視覚要素であり、且つ、背景モデルにおけるこのグループ内の視覚要素は、i番目の視覚要素の対応部分の近くの視覚要素である。t番目の画像におけるこのグループ内の視覚要素の何れか1つについて、この視覚要素に対応する類似度が大きいほど、この視覚要素が前景である確率(可能性)が高くなる。
例えば図7Aに示されるt番目の画像及び図7Bに示される背景モデルにおける視覚要素の前景/背景の分類情報を挙げると、視覚要素は例えばスーパーピクセルである。図7Aに示されるように、t番目の画像の各視覚要素における“B”又は“F”は、例えば、この視覚要素が分類ステップS420において分類部220により“背景”又は“前景”として分類されることを表しており、類似度が判定されている対応するグループは、例えば視覚要素710−740を含む。例えばこのグループ内の視覚要素710を挙げると、類似度判定部230は、以下のように視覚要素710に対応する類似度を判定する。このグループ内の視覚要素710について、視覚要素710の対応部分は図7Bに示される視覚要素750であり、背景モデルにおける分類情報が前景である視覚要素であって且つ背景モデルにおける視覚要素750の近くの視覚要素は、例えば図7Bに示される視覚要素760−780である。
従って、最初に、視覚要素760−780の各々について、例えば視覚要素760を挙げると、類似度判定部230は、視覚要素710及び視覚要素760の間の類似度を、これら2つの視覚要素の特徴値に従って判定する。例えば、これら2つの視覚要素の特徴値の間の絶対差分が、対応類似度としてみなされる。それに限定される必要がないことは容易に明らかである。上記のように、1つの画像における1つの視覚要素の特徴値は、画像におけるこの視覚要素のチャネル特徴に従って判定できる。それ故、視覚要素710の特徴値は、t番目の画像におけるそのチャネル特徴に従って判定される。視覚要素760の特徴値は、t番目の画像の前の複数画像における視覚要素の特徴値に従って判定され、前の複数画像におけるこれらの視覚要素の位置は、視覚要素760の位置と同じであり、且つ、これらの視覚要素の前景/背景の分類結果は、視覚要素760の前景/背景の分類情報を判定するために使用される。
続いて、類似度判定部230が、視覚要素710及び視覚要素760の間の類似度(例えばSim1とされる)、視覚要素710及び視覚要素770の間の類似度(例えばSim2とされる)、及び、視覚要素710及び視覚要素780の間の類似度(例えばSim3とされる)を判定した後に、類似度判定部230は、判定された類似度(すなわちSim1、Sim2及びSim3)に従って視覚要素710に対応する類似度を判定する。一例では、Sim1乃至Sim3の平均値が、視覚要素710に対応する類似度として判定される。別の例では、Sim1乃至Sim3のうち値が最大の1つの類似度が、視覚要素710に対応する類似度として判定される。しかしながら、それらに限定される必要がないことは容易に明らかである。
図6に戻り、ステップS432において、類似度判定部230は、このグループ内の視覚要素の全てが処理されたか否かを判断する。すなわち、iがIよりも大きいか否かを判断する。そうでない場合、ステップS433において、類似度判定部230はi=i+1を設定して、上述したステップS431−S432を繰り返す。そうでなければ、手順はステップS434へ進む。
ステップS434において、類似度判定部230は、ステップS431において判定された類似度に従ってt番目の画像におけるこのグループに対応する類似度を判定する。一実施形態において、類似度判定部230は、以下のようにこのグループに対応する類似度を判定する。最初に、類似度判定部230は、予め定義された閾値(例えばTH2)よりも大きい対応する類似度を有するこのグループ内の視覚要素の数を算出することによってカウント数を取得する。続いて、類似度判定部230は、このグループ内の視覚要素の合計数に対するカウント数の割合(比率)を算出することによって、このグループに対応する類似度を判定する。例えば、割合(比率)は、以下の式(1)を使用して算出される。
Figure 0006598952
加えて、このグループが1つの視覚要素だけを含む場合、類似度判定部230は、この視覚要素に対応する類似度を、直接このグループに対応する類似度とみなす。
図4に戻り、識別ステップ440において、識別部240は、分類ステップ420において前景として分類されているt番目の画像における視覚要素が誤って分類されているか否かを、類似度判定ステップ430において判定された類似度に従って識別する。
一実施形態において、t番目の画像における複数グループの何れか1つについて、識別部240は、このグループ内の視覚要素が誤って分類されているか否かを、予め定義された閾値(例えばTH3)及びこのグループに対応する類似度に従って識別する。上記のように、t番目の画像における複数グループの何れか1つについて、このグループに対応する類似度が大きいほど、このグループ内の視覚要素が真の物体である確率(可能性)が高くなる。それ故、例えば、このグループに対応する類似度(すなわち割合(比率))は、上述した式(1)を使用することにより算出され、且つTH3よりも小さい場合、それは、このグループ内の視覚要素が真の物体である確率(可能性)が低いことを意味しており、識別部240は、このグループ内の視覚要素は誤って分類されていると識別する。すなわち、分類部220により前景として分類されているこのグループ内の視覚要素は誤った前景である。そうではなく、このグループに対応する類似度(すなわち割合(比率))がTH3以上である場合、識別部240は、このグループ内の視覚要素は真の前景(すなわち真の物体)であると識別する。換言すると、何れか1つのグループ内の視覚要素について、識別部240は、以下のように視覚要素を識別する。
Figure 0006598952
図4に示されるように、t番目の画像における視覚要素が識別ステップS440において識別部240により識別された後、一態様では、識別部240は、t番目の画像における視覚要素の識別された前景/背景の分類結果を、図2に示される記憶装置250又は図1に示される出力装置160へ転送する。別の態様では、ステップS450において、画像処理装置200は、入力映像における画像の全てが処理されたかどうか判断する。すなわち、tがTよりも大きいか否かを判断する。そうでない場合、ステップS460において、画像処理装置200はt=t+1を設定して、上述したステップS410−S450を繰り返す。そうでなければ、図4に示される手順を終了する。
本発明によれば、以前の処理で取得されている識別された前景/背景の分類結果が、後続の処理のための基準として使用されるので、誤った前景検出を効率的に排除することができる。従って、前景検出の精度が向上する。
(監視システム)
上記のように、本発明は、コンピュータ(例えば、タブレットコンピュータ、ラップトップ又はデスクトップ)により実施されうるか、或いは、モニタ(例えばデジタルカメラ、ビデオカメラ又はネットワークカメラ)により実施されうる。例えば、本発明がネットワークカメラにより実施されることを挙げると、ネットワークカメラが本発明の対応処理をトリガされた後、ネットワークカメラは、対応する処理結果(すなわち前景)を、ユーザに対して警告を与えるか否かに関する監視解析等の後続の処理へ出力できる。それ故、本発明の例示的な適用として、例示的なモニタ(例えばネットワークカメラ)が、図8を参照して次に記載されるだろう。図8は、本発明に従った例示的なモニタ800の構成を示す。図8に示されるように、モニタ800は、光学系810及び上記の画像処理装置200を備えている。
加えて、図8に示される記憶装置820は、撮像映像、及び、当該撮像映像の各画像についての処理結果(すなわち視覚要素の前景/背景の分類結果)を格納する。一実施形態において、記憶装置820は、モニタ800の内部記憶装置である。別の実施形態において、記憶装置820は、(不図示)のネットワークを介してモニタ800と接続されるサーバ又は外部記憶装置である。
図8に示されるように、最初に、光学系810は、監視場所(例えば駐車禁止エリア)の映像を継続的に撮像し、撮像映像を記憶装置820に格納する。
続いて、画像処理装置200は、図2乃至図7Bの参照により、撮像映像の画像における視覚要素を前景又は背景として識別し、視覚要素の識別された前景/背景の分類結果を記憶装置820に格納する。
例えば、モニタ800が、監視解析を実行するために使用されるプロセッサへ検出された前景を出力することを挙げ、監視場所が駐車禁止エリアであり且つ予め定義された警告ルールが車又は他の物体が駐車禁止エリアに駐車している場合にユーザに対して警告を与えることであると仮定する。すなわち、駐車禁止エリアは背景であり、車又は駐車禁止エリアに現れる他の物体は前景である。それによって、モニタ800は、駐車禁止エリアの映像を継続的に撮像し、図8の参照により撮像映像に関する前景検出を実行するだろう。そして、車が検出された場合、モニタ800は、プロセッサが警告をユーザに与えることができるように、その車をプロセッサに出力するだろう。上記のように、駐車禁止エリアに木々があり、任意の期間において葉が風で動く場合、モニタ800は、動く葉を誤って前景として検出せず、従って、プロセッサは誤った警告をユーザに与えないだろう。
上記のユニット(部)の全ては、本開示に記載の処理を実施するための例示的且つ/又は好適なモジュールである。これらのユニットは、(フィールド・プログラマブル・ゲート・アレイ(FPGA)、デジタル信号プロセッサ、特定用途向け集積回路等の)ハードウェアユニット及び/又は(コンピュータ可読プログラム等の)ソフトウェアモジュールでありうる。様々なステップを実施するためのユニットは、網羅的には上に記載されてはいない。しかしながら、任意の処理を実行するステップがある場合、同処理を実施するための(ハードウェア及び/又はソフトウェアにより実施される)対応する機能的なモジュール又はユニットがあってもよい。記載されたステップ及びこれらのステップに対応するユニットの全ての組み合わせによる技術的解決が、それらが構成する技術的解決が完全且つ適用可能である限り、本願の開示に含まれる。
多くの方法で本発明の方法及び装置を実行することができる。例えば、ソフトウェア、ハードウェア、ファームウェア又はそれらの何れかの組み合わせを通じて本発明の方法及び装置を実行することができる。上記の方法のステップの順序は、ほんの例示的なものであることが意図されており、本発明の方法のステップは、具体的にそうでないと述べられていない限り、具体的に上に記載した順序に限定されるものではない。その上、いくつかの実施形態において、本発明は、本発明に従った方法を実施するための機械可読命令を含んだ、記録媒体に記録されたプログラムとして具体化されてもよい。従って、本発明は、本発明に従った方法を実施するためのプログラムを格納する記録媒体もカバーする。
本発明のいくつかの特定の実施形態が例と共に詳細に明示されているが、当業者は、上の例はほんの例示的なものに過ぎず、本発明の範囲を制限しないことが意図されていることを理解すべきである。当業者は、上の実施形態が本発明の範囲及び精神を逸脱することなく修正されうることを理解すべきである。本発明の範囲は、添付の請求項により規定される。

Claims (11)

  1. 画像処理装置であって、
    入力映像から現画像を取得すると共に、背景画像及び視覚要素の分類情報を含む背景モデルを取得する取得手段であって、前記視覚要素の前記分類情報は前景及び背景を含む、前記取得手段と、
    前記現画像及び前記背景モデル中の前記背景画像に従って前記現画像における前記視覚要素を前記前景又は前記背景として分類する分類手段と、
    前記現画像中のグループ及び前記背景モデル中のグループの間の類似度を判定する類似度判定手段であって、前記現画像中の前記グループの視覚要素は、前記分類手段により前記前景として分類された前記現画像中の前記視覚要素であり、前記背景モデル中の前記グループの視覚要素は、分類情報が前記前景である前記視覚要素であり、前記背景モデル中の前記グループの前記視覚要素は、前記現画像中の前記グループの前記視覚要素の対応部分の近くの視覚要素である、前記類似度判定手段と、
    前記類似度判定手段により判定された前記類似度に従って、前記分類手段により前記前景として分類されている前記現画像中の前記視覚要素が誤って分類されているか否かを識別する識別手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記背景モデル中の前記背景画像は、前記現画像の少なくとも1つの前の画像に従って取得され、
    前記背景モデル中の前記視覚要素の前記分類情報は、前記現画像の少なくとも1つの前の画像において前記前景又は前記背景として識別されている前記視覚要素に従って取得されることを特徴とする請求項1に記載の画像処理装置。
  3. 前記現画像における前記グループの何れか1つについて、前記類似度判定手段は、
    このグループにおける前記視覚要素及び前記背景モデル中の前記グループの一部における前記視覚要素の間の類似度に従って、このグループに対応する前記類似度を判定し、
    前記背景モデル中の前記グループの前記一部における前記視覚要素は、分類情報が前記前景である前記視覚要素であり、前記背景モデル中の前記グループの前記一部における前記視覚要素は、前記現画像におけるこのグループの前記視覚要素の対応部分の近くの視覚要素であることを特徴とする請求項1に記載の画像処理装置。
  4. 前記現画像におけるこのグループの前記視覚要素の何れか1つについて、この視覚要素に対応する前記類似度は、この視覚要素及び前記背景モデル中の前記グループのうちの1つにおける前記視覚要素の間で類似度を判定することによって判定され、
    前記背景モデル中のこのグループの前記視覚要素は、分類情報が前記前景である視覚要素であり、前記背景モデル中のこのグループの前記視覚要素は、前記現画像におけるこのグループのこの視覚要素の対応部分の近くの視覚要素であることを特徴とする請求項3に記載の画像処理装置。
  5. 前記現画像におけるこのグループの前記視覚要素の何れか1つについて、この視覚要素の前記対応部分は、前記背景モデルにおける位置が前記現画像におけるこの視覚要素の位置と同じ部分であることを特徴とする請求項4に記載の画像処理装置。
  6. 前記現画像における前記グループの何れか1つについて、このグループが1つの視覚要素を含む場合、前記類似度判定手段は、この視覚要素に対応する前記類似度を、このグループに対応する前記類似度とみなすことを特徴とする請求項3に記載の画像処理装置。
  7. 前記現画像における前記グループの何れか1つについて、このグループが1つより多い視覚要素を含む場合、前記類似度判定手段は、このグループにおける前記視覚要素に対応する前記類似度、このグループにおける前記視覚要素の合計数及び予め定義された閾値に従って、このグループに対応する前記類似度を判定することを特徴とする請求項3に記載の画像処理装置。
  8. 前記現画像における前記グループの何れか1つについて、前記識別手段は、予め定義された閾値と、前記類似度判定手段により判定されたこのグループに対応する前記類似度とに従って、このグループにおける前記視覚要素が誤って分類されているか否か識別することを特徴とする請求項1に記載の画像処理装置。
  9. 画像処理方法であって、
    入力映像から現画像を取得すると共に、背景画像及び視覚要素の分類情報を含む背景モデルを取得する取得ステップであって、前記視覚要素の前記分類情報は前景及び背景を含む、前記取得ステップと、
    前記現画像及び前記背景モデル中の前記背景画像に従って前記現画像における前記視覚要素を前記前景又は前記背景として分類する分類ステップと、
    前記現画像中のグループ及び前記背景モデル中のグループの間の類似度を判定する類似度判定ステップであって、前記現画像中の前記グループの視覚要素は、前記分類ステップで前記前景として分類された前記現画像中の前記視覚要素であり、前記背景モデル中の前記グループの視覚要素は、分類情報が前記前景である前記視覚要素であり、前記背景モデル中の前記グループの前記視覚要素は、前記現画像中の前記グループの前記視覚要素の対応部分の近くの視覚要素である、前記類似度判定ステップと、
    前記類似度判定ステップで判定された前記類似度に従って、前記分類ステップで前記前景として分類されている前記現画像中の前記視覚要素が誤って分類されているか否かを識別する識別ステップと、
    を含むことを特徴とする画像処理方法。
  10. 前記現画像における前記グループの何れか1つについて、前記類似度判定ステップでは、このグループに対応する前記類似度は、このグループの前記視覚要素及び前記背景モデル中の前記グループの一部における前記視覚要素の間の類似度に従って判定され、
    前記背景モデル中の前記グループの前記一部における前記視覚要素は、分類情報が前記前景である前記視覚要素であり、前記背景モデル中の前記グループの前記一部における前記視覚要素は、前記現画像におけるこのグループの前記視覚要素の対応部分の近くの視覚要素であることを特徴とする請求項9に記載の画像処理方法。
  11. 監視システムであって、
    映像を取得する取得装置と、
    請求項1乃至8の何れか1項に記載の、前記取得された映像の画像における視覚要素を前景又は背景として識別する画像処理装置と、
    前記取得された映像及び前記画像処理装置により判定された処理結果を格納する記憶装置と、
    を備えることを特徴とする監視システム。
JP2018167192A 2017-09-30 2018-09-06 画像処理装置及び方法及び監視システム Active JP6598952B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710916408.7 2017-09-30
CN201710916408.7A CN109598276A (zh) 2017-09-30 2017-09-30 图像处理装置和方法及监控***

Publications (2)

Publication Number Publication Date
JP2019067377A JP2019067377A (ja) 2019-04-25
JP6598952B2 true JP6598952B2 (ja) 2019-10-30

Family

ID=65897861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018167192A Active JP6598952B2 (ja) 2017-09-30 2018-09-06 画像処理装置及び方法及び監視システム

Country Status (3)

Country Link
US (1) US10916016B2 (ja)
JP (1) JP6598952B2 (ja)
CN (1) CN109598276A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109598741A (zh) * 2017-09-30 2019-04-09 佳能株式会社 图像处理装置和方法及监控***
CN110390033B (zh) * 2019-07-25 2023-04-21 腾讯科技(深圳)有限公司 图像分类模型的训练方法、装置、电子设备及存储介质

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7136525B1 (en) * 1999-09-20 2006-11-14 Microsoft Corporation System and method for background maintenance of an image sequence
GB2358098A (en) * 2000-01-06 2001-07-11 Sharp Kk Method of segmenting a pixelled image
JP3886784B2 (ja) * 2001-11-21 2007-02-28 株式会社東芝 動画像内の物体識別装置及び方法
EP1567988A1 (en) * 2002-10-15 2005-08-31 University Of Southern California Augmented virtual environments
US8159536B2 (en) * 2004-06-14 2012-04-17 Agency For Science, Technology And Research Method for detecting desired objects in a highly dynamic environment by a monitoring system
US7599555B2 (en) * 2005-03-29 2009-10-06 Mitsubishi Electric Research Laboratories, Inc. System and method for image matting
US8064695B2 (en) * 2007-09-27 2011-11-22 Behavioral Recognition Systems, Inc. Dark scene compensation in a background-foreground module of a video analysis system
JP5218168B2 (ja) * 2009-03-11 2013-06-26 ソニー株式会社 撮像装置、動体検知方法、動体検知回路、プログラム、及び監視システム
AU2010241260B2 (en) * 2010-10-29 2013-12-19 Canon Kabushiki Kaisha Foreground background separation in a scene with unstable textures
AU2010238543B2 (en) * 2010-10-29 2013-10-31 Canon Kabushiki Kaisha Method for video object detection
AU2011203219B2 (en) * 2011-06-30 2013-08-29 Canon Kabushiki Kaisha Mode removal for improved multi-modal background subtraction
US9317908B2 (en) * 2012-06-29 2016-04-19 Behavioral Recognition System, Inc. Automatic gain control filter in a video analysis system
US9589363B2 (en) * 2014-03-25 2017-03-07 Intel Corporation Object tracking in encoded video streams
US9275289B2 (en) * 2014-03-27 2016-03-01 Xerox Corporation Feature- and classifier-based vehicle headlight/shadow removal in video
JP6445775B2 (ja) * 2014-04-01 2018-12-26 キヤノン株式会社 画像処理装置、画像処理方法
US9563960B2 (en) * 2014-04-09 2017-02-07 Mediatek Inc Method for detecting foreground
CN105205830A (zh) * 2014-06-17 2015-12-30 佳能株式会社 用于更新场景模型和视频监视的方法和设备
US9460522B2 (en) * 2014-10-29 2016-10-04 Behavioral Recognition Systems, Inc. Incremental update for background model thresholds
US20170083765A1 (en) * 2015-09-23 2017-03-23 Behavioral Recognition Systems, Inc. Detected object tracker for a video analytics system
CN106611417B (zh) * 2015-10-20 2020-03-31 佳能株式会社 将视觉元素分类为前景或背景的方法及装置
JP2017103744A (ja) * 2015-12-04 2017-06-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、及び画像符号化復号装置

Also Published As

Publication number Publication date
CN109598276A (zh) 2019-04-09
JP2019067377A (ja) 2019-04-25
US10916016B2 (en) 2021-02-09
US20190102888A1 (en) 2019-04-04

Similar Documents

Publication Publication Date Title
US10872262B2 (en) Information processing apparatus and information processing method for detecting position of object
US20150248590A1 (en) Method and apparatus for processing image of scene of interest
US9747523B2 (en) Information processing apparatus, information processing method, and recording medium
US10096117B2 (en) Video segmentation method
Nonaka et al. Evaluation report of integrated background modeling based on spatio-temporal features
EP3082065A1 (en) Duplicate reduction for face detection
US9202126B2 (en) Object detection apparatus and control method thereof, and storage medium
Fradi et al. Towards crowd density-aware video surveillance applications
US10079974B2 (en) Image processing apparatus, method, and medium for extracting feature amount of image
US20150146006A1 (en) Display control apparatus and display control method
Huerta et al. Chromatic shadow detection and tracking for moving foreground segmentation
CN111079613B (zh) 姿势识别方法和装置、电子设备及存储介质
US10455144B2 (en) Information processing apparatus, information processing method, system, and non-transitory computer-readable storage medium
JP2018124689A (ja) 移動物体検出装置、移動物体検出システム、及び移動物体検出方法
CN109447022B (zh) 一种镜头类型识别方法及装置
JP6598952B2 (ja) 画像処理装置及び方法及び監視システム
US10614336B2 (en) Method, system, and computer-readable recording medium for image-based object tracking
JP2018097611A (ja) 画像処理装置およびその制御方法
US20180314893A1 (en) Information processing device, video image monitoring system, information processing method, and recording medium
KR20160037480A (ko) 지능형 영상 분석을 위한 관심 영역 설정 방법 및 이에 따른 영상 분석 장치
JPWO2018179119A1 (ja) 映像解析装置、映像解析方法およびプログラム
EP3543902B1 (en) Image processing apparatus and method and storage medium storing instructions
KR101438451B1 (ko) 비고정 카메라 영상에 대한 이중모드 sgm 기반의 이동체 고속 검출 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체
US20210034915A1 (en) Method and apparatus for object re-identification
US20180013932A1 (en) Detecting shot changes in a video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191001

R151 Written notification of patent or utility model registration

Ref document number: 6598952

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151