JP6675984B2 - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP6675984B2
JP6675984B2 JP2016540146A JP2016540146A JP6675984B2 JP 6675984 B2 JP6675984 B2 JP 6675984B2 JP 2016540146 A JP2016540146 A JP 2016540146A JP 2016540146 A JP2016540146 A JP 2016540146A JP 6675984 B2 JP6675984 B2 JP 6675984B2
Authority
JP
Japan
Prior art keywords
current frame
region
head
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016540146A
Other languages
English (en)
Other versions
JPWO2016021411A1 (ja
Inventor
直規 葛谷
直規 葛谷
堅一郎 多井
堅一郎 多井
弘長 佐野
弘長 佐野
奈々 松本
奈々 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of JPWO2016021411A1 publication Critical patent/JPWO2016021411A1/ja
Application granted granted Critical
Publication of JP6675984B2 publication Critical patent/JP6675984B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Description

本開示は、画像処理装置、画像処理方法、およびプログラムに関し、特に、例えば、動画像上に出現する物体を追尾する場合に用いて好適な画像処理装置、画像処理方法、およびプログラムに関する。
従来、動画像上に出現する物体を検出する技術は存在し、動きがある物体(以下、動物体と称する)はもちろん、画像上で止まっている物体(以下、静止物体と称する)も検出することができる。
例えば、特許文献1には、短期間の動画像に基づいて生成した短期背景画像と入力画像の差分のみを用いて物体の位置を算出する。そして、その動物体がある一定時間停止した場合、長期間の動画像に基づいて生成した長期背景画像と入力画像の差分を用いて、その停止している物体の位置の算出する発明が記載されている。
特許文献1の発明では、短期背景画像を用いることで動物体や短期間だけ停止している静止物体を検出することができ、それとは独立して、長期背景画像を用いることで長期間停止している静止物体を検出することができる。ただし、動物体と静止物体は独立して検出されるので、検出された動物体と静止物体が同一の物体であるか否かについては確認できない。よって、例えば、動きのある物体が画像上で停止し、長期間経過後に再び動き出したような場合、それらを同一の物体として検出し、追尾することはできない。
特開2013−33317号公報
図1は、上記問題を具体的に説明するためのものであり、動画像上で検出された物体(同物体および静止物体)と、それに付与されるIDを示していて、縦方向に時間が経過しているものとする。
同図の左側の列に示すように、特許文献1の発明では、時刻t1,t2のフレーム上を移動する自動車を動物体として検出することができ、それに同一のID:8を付与することができる。ただし、時刻t3からt4にかけてフレーム上で自動車が停止すると、それは静止物体として検出されてID:100が付与される。
さらに、停止していた自動車が時刻t5からt6にかけて再び動き出すと、該自動車は再び動物体として検出されて、それまでとは異なるID:9が付与れる。さらに、自動車が停止していた跡に対して動物体(ID:10)が誤検出されることも起こり得る。
上述したように、従来の技術では、動画像上で検出した動物体や静止物体が同一の物体であったとしても、それを同一の物体として処理すること、具体的には、同図の右側の列のように、同一のIDを付与することができない。
本開示はこのような状況に鑑みてなされたものであり、動画像上の物体を継続的に追尾できるようにするものである。
本開示の一側面である画像処理装置は、動画像上の物体を検出する画像処理装置において、前記動画像の現フレームから、それぞれが異なる基準に基づいて画像上の物体に関する物体特徴量を計算する複数の物体特徴量計算部と、前記動画像の前フレーム上の物体に関する物体属性情報を利用して、前記異なる基準に基づいて計算された複数の前記物体特徴量の中から利用する物体特徴量を選択する特徴量選択部と、選択された前記特徴量と、前記前フレーム上の物体に関する物体情報としての位置ベクトルを用いて、現フレーム上の物体に関する物体情報としての位置ベクトルを計算する物体情報計算部と、計算された現フレーム上の物体に関する前記物体情報としての前記位置ベクトルに基づき、現フレーム上の物体に関する物体属性情報を計算する物体属性情報計算部とを備える。
前記複数の物体特徴量計算部は、短期背景画像と前記現フレームとの対応する画素の輝度の差分を第1の物体特徴量として計算する第1の物体特徴量計算部と、長期背景画像と前記現フレームとの対応する画素の輝度の差分を第2の物体特徴量として計算する第2の物体特徴量計算部とを有し、前記特徴量選択部は、前記前フレーム上の物体に関する物体属性情報としての停止カウント値を利用して、画素毎に前記第1または第2の特徴量を選択することにより差分画像を生成し、前記物***置計算部は、生成された前記差分画像と、前記前フレーム上の物体に関する物体情報としての前記位置ベクトルを用いて、現フレーム上の物体に関する物体情報としての前記位置ベクトルを計算し、前記物体属性情報計算部は、計算された現フレーム上の物体に関する前記物体情報としての前記位置ベクトルに基づき、現フレーム上の物体に関する前記物体属性情報としての前記停止カウント値をカウントすることができる。
前記物***置計算部は、生成された前記差分画像に基づいて現フレーム上の物体候補を検出し、前記前フレーム上の物体にもっとも距離が近い現フレーム上の前記物体候補に対して、前記前フレーム上の前記物体に付与されている物体IDを引き継がせることができる。
本開示の一側面である画像処理装置は、頭部検出領域を設定する頭部検出領域設定部をさらに備えることができ、前記複数の物体特徴量計算部は、前記現フレームの前記頭部検出領域以外から人の全身領域候補を第1の物体特徴量として計算する第1の物体特徴量計算部と、前記現フレームの前記頭部検出領域から人の頭部領域候補を第2の物体特徴量として計算する第2の物体特徴量計算部とを有し、前記特徴量選択部は、前記前フレームの全身領域および頭部領域を一つずつ注目領域に指定し、前記注目領域の頭部の中心座標が前記頭部検出領域内にあるか否かに応じて、前記現フレームの前記全身領域候補または前記頭部領域候補を選択して、現フレームの全身領域または頭部領域に特定し、前記物***置計算部は、前記前フレーム上の物体に関する物体情報としての前記注目領域の前記位置ベクトルを用いて、現フレーム上の物体に関する物体情報として、特定された前記全身領域または前記頭部領域の前記位置ベクトルを計算し、前記物体属性情報計算部は、計算された現フレーム上の物体に関する前記物体情報としての前記全身領域または前記頭部領域の前記位置ベクトルに基づき、現フレーム上の物体に関する前記物体属性情報として、前記全身領域の頭部の中心座標または前記頭部領域の中心座標を計算することができる。
前記特徴量選択部は、前記注目領域の頭部の中心座標が前記頭部検出領域内にある場合、前記注目領域に最も距離が近い前記現フレームの前記頭部領域候補を選択して、前記注目領域の物体IDを引き継がせて、現フレームの頭部領域に特定し、前記注目領域の頭部の中心座標が前記頭部検出領域内にない場合、前記注目領域に最も距離が近い前記現フレームの前記全身領域候補を選択して、前記注目領域の物体IDを引き継がせて、現フレームの全身領域に特定することができる。
本開示の一側面である画像処理方法は、動画像上の物体を検出する画像処理装置の画像処理方法において、前記画像処理装置による、前記動画像の現フレームから、それぞれが異なる基準に基づいて画像上の物体に関する複数の物体特徴量を計算する物体特徴量計算ステップと、前記動画像の前フレーム上の物体に関する物体属性情報を利用して、前記異なる基準に基づいて計算された複数の前記物体特徴量の中から利用する物体特徴量を選択する特徴量選択ステップと、選択された前記特徴量と、前記前フレーム上の物体に関する物体情報としての位置ベクトルを用いて、現フレーム上の物体に関する物体情報としての位置ベクトルを計算する物体情報計算ステップと、計算された現フレーム上の物体に関する前記物体情報としての前記位置ベクトルに基づき、現フレーム上の物体に関する物体属性情報を計算する物体属性情報計算ステップとを含む。
本開示の一側面であるプログラムは、動画像上の物体を検出するコンピュータを、前記動画像の現フレームから、それぞれが異なる基準に基づいて画像上の物体に関する物体特徴量を計算する複数の物体特徴量計算部と、前記動画像の前フレーム上の物体に関する物体属性情報を利用して、前記異なる基準に基づいて計算された複数の前記物体特徴量の中から利用する物体特徴量を選択する特徴量選択部と、選択された前記特徴量と、前記前フレーム上の物体に関する物体情報としての位置ベクトルを用いて、現フレーム上の物体に関する物体情報としての位置ベクトルを計算する物体情報計算部と、計算された現フレーム上の物体に関する前記物体情報としての前記位置ベクトルに基づき、現フレーム上の物体に関する物体属性情報を計算する物体属性情報計算部として機能させる。
本開示の一側面においては、動画像の現フレームから、それぞれが異なる基準に基づいて画像上の物体に関する複数の物体特徴量が計算され、前記動画像の前フレーム上の物体に関する物体属性情報を利用して、前記異なる基準に基づいて計算された複数の前記物体特徴量の中から利用する物体特徴量が選択され、選択された前記特徴量と、前記前フレーム上の物体に関する物体情報としての位置ベクトルを用いて、現フレーム上の物体に関する物体情報としての位置ベクトルが計算される。さらに、計算された現フレーム上の物体に関する前記物体情報としての前記位置ベクトルに基づき、現フレーム上の物体に関する物体属性情報が計算される。
本開示の一側面によれば、動画像上の物体を継続的に追尾することができる。
従来技術の問題を説明するための図である。 本開示を適用した監視システムの構成例を示すブロック図である。 画像処理装置の第1の構成例を示すブロック図である。 現フレーム上で特定された物体領域の例を示す図である。 図4に対応するカウントテーブルの例を示す図である。 図4に対応する長期差分が選択される領域の例を示す図である。 画像処理装置の第1の構成例による物体検出処理を説明するフローチャートである。 画像処理装置の第2の構成例による動作概要を説明するための図である。 画像処理装置の第2の構成例を示すブロック図である。 頭部検出領域の設定について説明するための図である。 全身領域の頭部の中心座標の計算方法を説明する図である。 頭部領域の中心座標の計算方法を説明する図である。 画像処理装置の第2の構成例による物体検出処理を説明するフローチャートである。 検出結果の一例を示す図である。 コンピュータの構成例を示すブロック図である。
以下、本開示を実施するための最良の形態(以下、実施の形態と称する)について、図面を参照しながら詳細に説明する。
<本開示の実施の形態である監視システムの構成例>
図2は、本開示の実施の形態である監視システムの構成例を示している。
この監視システム10は、撮像装置11、画像処理装置12、および表示装置13から構成される。
撮像装置11は、所定の撮像範囲を継続的に動画像として撮像し、その結果得られるビデオ信号を画像処理装置12に出力する。
画像処理装置12は、撮像装置11からのビデオ信号(以下、入力画像と称する)を入力とし、入力画像上に出現する動きの有る物体と、停止している動きのない物体を検出してその位置情報を取得する。さらに、検出した物体に対して物体IDを付与するが、同一の物体に対しては、同一の物体IDを付与し続けるようする。さらに、画像処理装置12は、検出した物体の物体IDと位置情報を表示装置13に出力する。
表示装置13は、撮像装置11からの入力画像上に、画像処理装置12が検出した物体の位置を示す枠と、物体IDを重畳して表示する。
<画像処理装置12の第1の構成例>
次に、図3は、画像処理装置12の第1の構成例を示している。画像処理装置12の第1の構成例は、特に、動画像上における動物体と静止物体とを相互に継続的に追尾できるようにするものである。
画像処理装置12の第1の構成例は、短期背景画像更新部21、短期背景差分計算部22、長期背景画像更新部23、長期背景差分計算部24、背景差分選択部25、物***置計算部26、および物体停止時間カウント部27から構成される。
短期背景画像更新部21は、入力画像に対して速やかに追従する短期背景画像を保持しており、前段の撮像装置11から入力画像の現フレームが入力される毎に、保持する短期背景画像を更新するとともに、更新した短期背景画像を短期背景差分計算部22に出力する。なお、短期背景画像の更新は、例えば次式(1)に従って同一座標の画素毎に行われる。
t+1=αs×It+(1−αs)×Ic
・・・(1)
ただし、
t+1は更新後の短期背景画像の画素の輝度値
tは更新前の短期背景画像の画素の輝度値
cは入力画像の画素の輝度値
αsは0以上1未満の短期更新係数
である。
短期背景差分計算部22は、入力画像の現フレームと短期背景画像の対応する画素どうしの輝度値の差分を算出し、その結果を短期差分として背景差分選択部25に出力する。
長期背景画像更新部23は、入力画像に対してゆっくりと追従する長期背景画像を保持しており、前段の撮像装置11から入力画像の現フレームが入力される毎に、保持する長期背景画像を更新するとともに、更新した長期背景画像を長期背景差分計算部24に出力する。なお、長期背景画像の更新は、例えば次式(2)に従って同一座標の画素毎に行われる。
t+1=αl×It+(1−αl)×Ic
・・・(2)
ただし、
t+1は更新後の短期背景画像の画素の輝度値
tは更新前の短期背景画像の画素の輝度値
cは入力画像の画素の輝度値
αlはαsよりも大きく、かつ、0以上1未満の長期更新係数
である。
長期背景差分計算部24は、入力画像の現フレームと長期背景画像の対応する画素どうしの輝度値の差分を算出し、その結果を長期差分として背景差分選択部25に出力する。
なお、短期背景画像および長期背景画像の生成、更新については、上述した式(1),(2)を用いる方法に限定するものではなく、例えば、混合ガウス分布を用いた背景モデル(C. Stauffer and W.E.L. Grimson, “Adaptive background mixture models for real-time tracking,” Proc. IEEE CVPR 1999, pp. 24&252, June 1999.)を用いたり、カーネル密度推定(A. Elgammal, D. Hanvood, and L.S. Davis, “Nonparametric model for background subtraction,” Proc. ECCV 2000, pp. 751-767, June 2000.)を用いたりしてもよい。
背景差分選択部25は、短期背景差分計算部22から入力される短期差分、または長期背景差分計算部24から入力される長期差分の一方を画素毎に選択することにより、差分画像を生成して物***置計算部26に出力する。具体的には、前フレームにおいて特定された物体領域のうち、停止カウント値(後述)が所定の長短選択閾値以上である物体領域(長く停止している物体の領域)に属する画素については、長期差分を選択し、その他の画素については短期差分を選択して差分画像を生成する。
なお、入力画像の全画素について、短期差分と長期差分の両方を計算して一方を選択するのではなく、前フレームにおいて特定された物体領域のうち、停止カウント値が所定の長短選択閾値以上である物体領域に属する画素についてだけ長期差分を計算し、その他の画素については短期差分だけを計算するようにしてもよい。
物***置計算部26は、背景差分選択部25から入力される差分画像の画素の画素値(長期差分、または短期差分)に着目し、その値が所定の差分閾値以上である画素を抽出し、隣接する画素が抽出された場合にはそれらをグルーピングすることにより物体領域候補を生成して、各物体領域候補に対して新たな物体IDを付与する。
また、物***置計算部26は、前のフレームにおいて特定した物体領域毎に、現フレームの物体領域候補の中で最も距離が近いものを特定し、その距離が所定の距離閾値以下である場合には、該物体領域候補に前記フレームにおける物体領域の物体IDを引き継がせる。さらに、前フレームの物体領域と、現フレームの物体領域候補の位置に基づいて、現フレームにおける物体領域の位置を計算する。具体的には、次式(3)に従って現フレームにおける物体領域の位置を計算する。
t+1=β×xt+(1−β)×x0
・・・(3)
ただし、
t+1は現フレームにおいて特定する物体領域の位置ベクトル
tは前フレームにおいて特定された物体領域の位置ベクトル
cは現フレームにおける物体領域候補の位置ベクトル
βは更新係数
である。
なお、現フレームにおける物体領域の位置の計算については、上述した式(3)を用いる方法に限定するものではなく、例えば、カルマンフィルタ(R. E. Kalman, “A New Approach to Linear Filtering and Prediction Problems”, J. Fluids Eng. 82(1), 35-45 (Mar 01, 1960))など他の方法を用いるようにしてもよい。
さらに、物***置計算部26は、現フレームの物体領域候補であって、前フレームで特定された物体領域の物体IDを引き継いでいないものについては、そのまま物体領域として特定し、全ての物体領域の位置情報と物体IDを後段の表示装置13、背景差分選択部25、および物体停止時間カウント部27に出力する。
物体停止時間カウント部27は、特定された物体領域の物体IDに停止カウント値を対応付けたカウントテーブルを保持している。そして、物体停止時間カウント部27は、前フレームにおいて特定された物体領域と、その物体IDが引き継がれた、現フレームにおいて特定された物体領域との位置の差が所定の停止判定閾値以下であるか否かを判定する。両者の位置の差が停止判定閾値以下であると判定された場合、該物体領域は停止しているものとして、物体停止時間カウント部27は、カウントテーブルにおける該物体領域の物体IDに対応付けられている停止カウント値を1だけカウントアップする。反対に、両者の位置の差が停止判定閾値よりも大きいと判定された場合、該物体領域は移動したものとして、物体停止時間カウント部27は、カウントテーブルにおける該物体領域の物体IDに対応付けられている停止カウント値を0にリセットする。
図4は、現フレーム上で物体領域が特定された場合の例を示している。同図の場合、画面の左下の自動車と、右上の自動車が物体領域として検出されており、それぞれには物体IDとしてID:1とID:3が付与されている。
図5は、図4に対応するカウンタテーブルの一例を示している。同図の場合、物体ID:1の物体領域の停止カウント値は10であり、物体ID:3の物体領域の停止カウント値は0である。これは、物体ID:1の物体領域が停止してから10フレームが経過したことを意味し、物体ID:3の物体領域が移動していることを意味する。ここで、例えば、長短選択閾値が5であると仮定すれば、次のフレームの差分画像が生成される際に、長短選択閾値=5よりも停止カウント値が大きい物体ID:1の物体領域については長期差分が選択され、その他の領域については短期差分が選択されることになる。
<画像処理装置12の第1の構成例による物体検出処理>
次に、図7は、画像処理装置12の第1の構成例による物体検出処理を説明するフローチャートである。
この物体検出処理は、撮像装置11から画像処理装置12に入力される入力画像の各フレームに対して実行される。
ステップS1において、短期背景画像更新部21は、入力画像の現フレームに基づき、保持する短期背景画像を更新し、更新した短期背景画像を短期背景差分計算部22に出力する。短期背景差分計算部22は、入力画像の現フレームと短期背景画像の対応する画素どうしの輝度値の差分を算出し、その結果を短期差分として背景差分選択部25に出力する。
ステップS2において、長期背景画像更新部23は、入力画像の現フレームに基づき、保持する長期背景画像を更新し、更新した長期背景画像を長期背景差分計算部24に出力する。長期背景差分計算部24は、入力画像の現フレームと長期背景画像の対応する画素どうしの輝度値の差分を算出し、その結果を長期差分として背景差分選択部25に出力する。
なお、上述したステップS1の処理とステップS2の処理とは、平行して実行することができる。
ステップS3において、背景差分選択部25は、前フレームにおいて特定された物体領域のうち、停止カウント値が所定の長短選択閾値以上である物体領域に属する画素については、長期差分を選択し、その他の画素については短期差分を選択して差分画像を生成する。
ステップS4において、物***置計算部26は、背景差分選択部25から入力された差分画像の画素の画素値に着目し、その値が所定の差分閾値以上である画素を抽出し、隣接する画素が抽出された場合にはそれらをグルーピングすることにより物体領域候補を生成して、各物体領域候補に対して新たな物体IDを付与する。
ステップS5において、物***置計算部26は、前のフレームにおいて特定した物体領域を一つずつ注目物体領域に指定する。ステップS6において、物***置計算部26は、現フレームの物体領域候補のから、注目物体領域と距離が所定の距離閾値以下であって、その距離が最も近いものを特定し、特定した該物体領域候補に前記フレームにおける注目物体領域の物体IDを引き継がせる。さらに、物***置計算部26は、前フレームの注目物体領域と、現フレームの物体領域候補の位置に基づいて、現フレームにおける物体領域の位置を計算し、計算結果を現フレームの物体領域として特定する。さらに、物***置計算部26は、特定した現フレームの物体領域の位置情報と物体IDを後段の表示装置13、背景差分選択部25、および物体停止時間カウント部27に出力する。
ステップS7において、物体停止時間カウント部27は、前フレームにおいて特定された物体領域と、その物体IDが引き継がれた、現フレームにおいて特定された物体領域との位置の差が所定の停止判定閾値以下であるか否かを判定し、判定結果が肯定(YES)である場合、ステップS8に進み、該物体領域は停止しているものとして、カウントテーブルにおける該物体領域の物体IDに対応付けられている停止カウント値を1だけカウントアップする。反対に、判定結果が否定(NO)である場合、ステップS9に進み、該物体領域は移動したものとして、カウントテーブルにおける該物体領域の物体IDに対応付けられている停止カウント値を0にリセットする。
ステップS10において、物***置計算部26は、前のフレームにおいて特定した物体領域の全てを注目物体領域に指定したか否かを判定する。この判定結果が否定である場合、注目物体領域に指定していないものが残っているので、処理はステップS5に戻され、それ以降が繰り返される。その後、ステップS10における判定結果が肯定(YES)となった場合、処理はステップS11に進められる。
ステップS11において、物***置計算部26は、現フレームの物体領域候補であって、前フレームで特定された物体領域の物体IDを引き継いでいないものについては、そのまま物体領域に特定し、その位置情報と物体IDを後段の表示装置13、背景差分選択部25、および物体停止時間カウント部27に出力する。以上で、物体検出処理は終了される。
以上に説明した物体検出処理をフレーム毎に実行することにより、動画像に継続して登場する物体については、その動きや停止に拘わらず、継続して同一の物体IDを付与したまま追尾することができる。また、新たに出現した物体に対しては、新しい物体IDを付与することができる。
よって、長期的に停止している物体も含めて物体の経路を特定することが可能となる。監視システム10の具体的に適用例としては、長期間にわたって停止したりうろついたりしている人を不信人物として発見したり、渋滞などで自動車が長時間停車している場合でも正しく交通流量を計測できるなど、長時間停止する被写体を追跡することが可能になる。
<画像処理装置12の第2の構成例>
次に、画像処理装置12の第2の構成例をついて説明する。画像処理装置12の第2の構成例は、特に、動画像上において物体の全体が見える状態から、その一部分だけが見える状態となった場合においても、その物体を継続的に追尾できるようにするものである。
図8は、画像処理装置12の第2の構成例の動作概要を説明するためのものであり、人物の全身を検出する場合を例にしている。
従来、人物の全身を検出対象としている場合、同図の左側の列に示すように、時刻t1のフレームでは人物の全身が検出されてID:1が付与されるが、時刻t2のフレームのように、全身の一部分(同図の場合、頭部)だけが見えている場合、全身を検出対象としているので何も検出されない。そして、時刻t3のフレームでは、人物の全身が検出されるものの、改めてID:2が付与されてしまうことになる。
これに対して、画像処理装置12の第2の構成例は、時刻t2のフレームのように、全身の一部分(同図の場合、頭部)だけが見えている場合にも、時刻t2のフレームの全身に付与されたIDと同一のIDが付与されるようにし、さらに、時刻t3のフレームにように再び全身が見えた場合にも、時刻t2のフレームの頭部に付与されたIDと同一のIDが付与されるようにするものである。
図9は、画像処理装置12の第2の構成例を示している。画像処理装置12の第2の構成例は、頭部検出領域設定部31、頭部検出部32、全身検出部33、検出手法選択部34、人位置検出部35、および頭部中心座標計算部36から構成される。
頭部検出領域設定部31は、オペレータの操作に基づき、図10に示されるように、撮像範囲の中に遮蔽物が存在することにより、該遮蔽物が人の全身の一部を隠してしまい、頭部だけしか見えなくなってしまう可能性がある領域を頭部検出領域51に設定して、頭部検出部32、全身検出部33、検出手法選択部34および頭部中心座標計算部36に通知する。
頭部検出部32は、前段の撮像装置11から入力画像の現フレームが入力される毎に、その頭部検出領域51内から人の頭部を検出し、検出結果に新たな物体IDを付与して頭部領域候補として検出手法選択部34に出力する。全身検出部33は、前段の撮像装置11から入力画像の現フレームが入力される毎に、その頭部検出領域51以外から人の全身を検出し、検出結果に新たな物体IDを付与して全身領域候補として検出手法選択部34に出力する。
なお、頭部検出部32における頭部検出や全身検出部33における全身検出には、例えば、(Navneet Dalal and Bill Triggs, “Histogramsof Oriented Gradients for Human Detection”, “International Conference on Computer Vision & Pattern Recognition (CVPR '05) 1 (2005) 886--893")などに記載されている機械学習を用いた方法などの既存の任意の方法を採用することができる。
検出手法選択部34は、前フレームにおいて特定された頭部領域および全身領域を一つずつ注目領域に指定し、注目領域の頭部の中心座標が頭部検出領域51内にある場合には、現フレームの頭部領域候補の中から、注目領域の頭部の中心座標との距離が所定の距離閾値以内であって最も近いものを特定し、該頭部領域候補に注目領域の物体IDを引き継がせる。
また、検出手法選択部34は、注目領域の頭部の中心座標が頭部検出領域51内にない場合には、現フレームの全身領域候補の中から、注目領域の頭部の中心座標との距離が所定の距離閾値以内であって最も近いものを特定し、該全身領域候補に注目領域の物体IDを引き継がせる。
なお、頭部検出部32および全身検出部33が、入力画像の全領域からそれぞれ頭部領域候補、または全身領域候補を検出するようにし、検出手法選択部34が、頭部領域候補については頭部検出領域51内から検出されたものだけを採用し、全身領域候補については頭部検出領域51以外から検出されたものだけを採用するようにしてもよい。
人位置計算部35は、前フレームの注目領域と、その物体IDを引き継いだ現フレームの頭部領域候補(または全身領域候補)の位置に基づいて、現フレームにおける頭部領域(または全身領域候補)の位置を計算し、計算結果を現フレームの頭部領域(または全身領域候補)として特定する。なお、頭部領域(または全身領域候補)の位置を計算には、上述した式(3)を用いることができる。
また、人位置計算部35は、特定した現フレームの頭部領域および全身領域の位置情報と物体IDを後段の表示装置13、検出手法選択部34、および頭部中心座標計算部36に出力する。
頭部中心座標計算部36は、次のフレームに対する処理で用いるため、現フレームで特定した全身領域と頭部領域それぞれの頭部の中心座標を計算し、計算結果を検出手法選択部34に出力する。
図11は、全身領域の頭部の中心座標の計算方法を説明する図である。全身領域の頭部の中心座標の計算する場合、特定された全身領域の外接矩形サイズから次式(4)に従って頭部の中心座標(x,y)を計算する。
x=物体幅/2
y=物体高×平均顔サイズ/平均身長/2
・・・(4)
ただし、平均顔サイズと平均身長は、この監視システム10が使われる地域、すなわち、被写体となり得る人種などの平均値を予め設定しておくものとする。
図12は、頭部頭域の中心座標の計算方法を説明する図である。頭部領域の中心座標の計算この場合、特定される頭部領域の外接矩形サイズから次式(5)に従って頭部の中心座標(x,y)を計算する。
x=物体幅/2
y=物体高/2
・・・(5)
<画像処理装置12の第2の構成例による物体検出処理>
次に、図13は、画像処理装置12の第2の構成例による物体検出処理を説明するフローチャートである。
この物体検出処理は、撮像装置11から画像処理装置12に入力される入力画像の各フレームに対して実行される。
ステップS31において、頭部検出領域設定部31は、オペレータの操作に基づき、頭部検出領域51に設定して、頭部検出部32、全身検出部33、検出手法選択部34および頭部中心座標計算部36に通知する。
ステップS32において、頭部検出部32は、入力画像の現フレームの頭部検出領域51内から人の頭部を検出し、検出結果に新たな物体IDを付与して頭部領域候補として検出手法選択部34に出力する。ステップS33において、全身検出部33は、入力画像の現フレームの頭部検出領域51以外から人の全身を検出し、検出結果に新たな物体IDを付与して全身領域候補として検出手法選択部34に出力する。
なお、上述したステップS32の処理とステップS33の処理とは、平行して実行することができる。
ステップS34において、検出手法選択部34は、前フレームにおいて特定された頭部領域および全身領域を一つずつ注目領域に指定する。ステップS35において、検出手法選択部34は、注目領域の頭部の中心座標が頭部検出領域51内にあるか否かを判定する。この判定結果が肯定(YES)である場合、処理はステップS36に進められる。反対に、判定結果が否定(NO)である場合、処理はステップS37に進められる。
例えば、前フレームから図14に示されるように、二つの全身領域と、一つの頭部領域が特定されていて、頭部検出領域51内の頭部領域が注目領域に指定されている場合には処理はステップS36に進められる。また、二つの全身領域のどちらかが注目領域に指定されている場合には処理はステップS37に進められる。
ステップS36においては、検出手法選択部34は、現フレームから検出された頭部領域候補の中から、注目領域の頭部の中心座標との距離が所定の距離閾値以内であって最も近いものを特定し、該頭部領域候補に注目領域の物体IDを引き継がせる。人位置計算部35は、前フレームの注目領域と、その物体IDを引き継いだ現フレームの頭部領域候補の位置に基づいて、現フレームにおける頭部領域の位置を計算し、計算結果を現フレームの頭部領域として特定する。そして、人位置計算部35は、特定した現フレームの頭部領域の位置情報と物体IDを後段の表示装置13、検出手法選択部34、および頭部中心座標計算部36に出力する。
一方、ステップS37においては、検出手法選択部34は、現フレームから検出された全身領域候補の中から、注目領域の頭部の中心座標との距離が所定の距離閾値以内であって最も近いものを特定し、該全身領域候補に注目領域の物体IDを引き継がせる。人位置計算部35は、前フレームの注目領域と、その物体IDを引き継いだ現フレームの全身領域候補の位置に基づいて、現フレームにおける全身領域の位置を計算し、計算結果を現フレームの全身領域として特定する。そして、人位置計算部35は、特定した現フレームの全身領域の位置情報と物体IDを後段の表示装置13、検出手法選択部34、および頭部中心座標計算部36に出力する。
ステップS38において、頭部中心座標計算部36は、現フレームで特定した頭部領域または全身領域の頭部の中心座標を計算し、計算結果を検出手法選択部34に出力する。
ステップS39において、検出手法選択部34は、前フレームにおいて特定された頭部領域および全身領域の全てを注目領域に指定したか否かを判定する。この判定結果が否定である場合、注目領域に指定していないものが残っているので、処理はステップS34に戻されてそれ以降が繰り返される。その後、ステップS39における判定結果が肯定である場合、処理はステップS40に進められる。
ステップS40において、人位置計算部35は、現フレームの頭部領域候補または全身領域候補であって、前フレームで特定された頭部領域または全身領域の物体IDを引き継いでいないものについては、そのまま頭部領域または全身領域に特定し、その位置情報と物体IDを後段の表示装置13、背景差分選択部25、および物体停止時間カウント部27に出力する。以上で、物体検出処理は終了される。
以上に説明した物体検出処理をフレーム毎に実行することにより、動画像に継続して登場する物体については、その一部が隠れたとしても、継続して同一の物体IDを付与したまま追尾することができる。また、新たに出現した物体に対しては、新しい物体IDを付与することができる。
監視システム10の具体的に適用例としては、工場の作業効率化検討のための作業員の動線解析や、客がどういう行動をとったかを記録してその情報をマーケティング利用するといったことも可能になる。
なお、画像処理装置12の第2の構成例は、全身のうちの頭部だけが見える場合について説明したが、例えば、頭部以外の身体のパーツに関する特徴量(顔の特徴量,スポーツ選手等が着用するユニフォーム・作業服の固有のマークに関する特徴量など)を学習しておけば、それらを検出して追尾することも可能となる。
ところで、画像処理装置12の上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図15は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータ200において、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、およびドライブ210が接続されている。
入力部206は、キーボード、マウス、マイクロフォンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記憶部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインタフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア211を駆動する。
以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205およびバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
なお、コンピュータ200が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであってもよいし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであってもよい。
なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
11 撮像装置, 12 画像処理装置, 13 表示装置, 21 短期背景画像更新部, 22 短期背景差分計算部, 23 長期背景画像更新部, 24 長期背景差分計算部, 25 背景差分選択部, 26 物***置計算部, 27 物体停止時間カウント部, 31 頭部検出領域設定部, 32 頭部検出部, 33 全身検出部, 34 検出手法選択部, 35 人位置計算部, 36 頭部中心座標計算部, 51 頭部検出領域, 200 コンピュータ, 201 CPU

Claims (7)

  1. 動画像上の物体を検出する画像処理装置において、
    前記動画像の現フレームから、それぞれが異なる基準に基づいて画像上の物体に関する物体特徴量を計算する複数の物体特徴量計算部と、
    前記動画像の前フレーム上の物体に関する物体属性情報を利用して、前記異なる基準に基づいて計算された複数の前記物体特徴量の中から利用する物体特徴量を選択する特徴量選択部と、
    選択された前記特徴量と、前記前フレーム上の物体に関する物体情報としての位置ベクトルを用いて、現フレーム上の物体に関する物体情報としての位置ベクトルを計算する物体情報計算部と、
    計算された現フレーム上の物体に関する前記物体情報としての前記位置ベクトルに基づき、現フレーム上の物体に関する物体属性情報を計算する物体属性情報計算部と
    を備える画像処理装置。
  2. 前記複数の物体特徴量計算部は、
    短期背景画像と前記現フレームとの対応する画素の輝度の差分を第1の物体特徴量として計算する第1の物体特徴量計算部と、
    長期背景画像と前記現フレームとの対応する画素の輝度の差分を第2の物体特徴量として計算する第2の物体特徴量計算部とを有し、
    前記特徴量選択部は、前記前フレーム上の物体に関する物体属性情報としての停止カウント値を利用して、画素毎に前記第1または第2の特徴量を選択することにより差分画像を生成し、
    前記物***置計算部は、生成された前記差分画像と、前記前フレーム上の物体に関する物体情報としての前記位置ベクトルを用いて、現フレーム上の物体に関する物体情報としての前記位置ベクトルを計算し、
    前記物体属性情報計算部は、計算された現フレーム上の物体に関する前記物体情報としての前記位置ベクトルに基づき、現フレーム上の物体に関する前記物体属性情報としての前記停止カウント値をカウントする
    請求項1に記載の画像処理装置。
  3. 前記物***置計算部は、生成された前記差分画像に基づいて現フレーム上の物体候補を検出し、前記前フレーム上の物体にもっとも距離が近い現フレーム上の前記物体候補に対して、前記前フレーム上の前記物体に付与されている物体IDを引き継がせる
    請求項2に記載の画像処理装置。
  4. 頭部検出領域を設定する頭部検出領域設定部をさらに備え、
    前記複数の物体特徴量計算部は、
    前記現フレームの前記頭部検出領域以外から人の全身領域候補を第1の物体特徴量として計算する第1の物体特徴量計算部と、
    前記現フレームの前記頭部検出領域から人の頭部領域候補を第2の物体特徴量として計算する第2の物体特徴量計算部とを有し、
    前記特徴量選択部は、前記前フレームの全身領域および頭部領域を一つずつ注目領域に指定し、前記注目領域の頭部の中心座標が前記頭部検出領域内にあるか否かに応じて、前記現フレームの前記全身領域候補または前記頭部領域候補を選択して、現フレームの全身領域または頭部領域に特定し、
    前記物***置計算部は、前記前フレーム上の物体に関する物体情報としての前記注目領域の前記位置ベクトルを用いて、現フレーム上の物体に関する物体情報として、特定された前記全身領域または前記頭部領域の前記位置ベクトルを計算し、
    前記物体属性情報計算部は、計算された現フレーム上の物体に関する前記物体情報としての前記全身領域または前記頭部領域の前記位置ベクトルに基づき、現フレーム上の物体に関する前記物体属性情報として、前記全身領域の頭部の中心座標または前記頭部領域の中心座標を計算する
    請求項1に記載の画像処理装置。
  5. 前記特徴量選択部は、
    前記注目領域の頭部の中心座標が前記頭部検出領域内にある場合、前記注目領域に最も距離が近い前記現フレームの前記頭部領域候補を選択して、前記注目領域の物体IDを引き継がせて、現フレームの頭部領域に特定し、
    前記注目領域の頭部の中心座標が前記頭部検出領域内にない場合、前記注目領域に最も距離が近い前記現フレームの前記全身領域候補を選択して、前記注目領域の物体IDを引き継がせて、現フレームの全身領域に特定する
    請求項4に記載の画像処理装置。
  6. 動画像上の物体を検出する画像処理装置の画像処理方法において、
    前記画像処理装置による、
    前記動画像の現フレームから、それぞれが異なる基準に基づいて画像上の物体に関する複数の物体特徴量を計算する物体特徴量計算ステップと、
    前記動画像の前フレーム上の物体に関する物体属性情報を利用して、前記異なる基準に基づいて計算された複数の前記物体特徴量の中から利用する物体特徴量を選択する特徴量選択ステップと、
    選択された前記特徴量と、前記前フレーム上の物体に関する物体情報としての位置ベクトルを用いて、現フレーム上の物体に関する物体情報としての位置ベクトルを計算する物体情報計算ステップと、
    計算された現フレーム上の物体に関する前記物体情報としての前記位置ベクトルに基づき、現フレーム上の物体に関する物体属性情報を計算する物体属性情報計算ステップと
    を含む画像処理方法。
  7. 動画像上の物体を検出するコンピュータを、
    前記動画像の現フレームから、それぞれが異なる基準に基づいて画像上の物体に関する物体特徴量を計算する複数の物体特徴量計算部と、
    前記動画像の前フレーム上の物体に関する物体属性情報を利用して、前記異なる基準に基づいて計算された複数の前記物体特徴量の中から利用する物体特徴量を選択する特徴量選択部と、
    選択された前記特徴量と、前記前フレーム上の物体に関する物体情報としての位置ベクトルを用いて、現フレーム上の物体に関する物体情報としての位置ベクトルを計算する物体情報計算部と、
    計算された現フレーム上の物体に関する前記物体情報としての前記位置ベクトルに基づき、現フレーム上の物体に関する物体属性情報を計算する物体属性情報計算部と
    して機能させるプログラム。
JP2016540146A 2014-08-06 2015-07-23 画像処理装置、画像処理方法、およびプログラム Active JP6675984B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014160416 2014-08-06
JP2014160416 2014-08-06
PCT/JP2015/070923 WO2016021411A1 (ja) 2014-08-06 2015-07-23 画像処理装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2016021411A1 JPWO2016021411A1 (ja) 2017-05-18
JP6675984B2 true JP6675984B2 (ja) 2020-04-08

Family

ID=55263683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016540146A Active JP6675984B2 (ja) 2014-08-06 2015-07-23 画像処理装置、画像処理方法、およびプログラム

Country Status (4)

Country Link
US (1) US10157327B2 (ja)
JP (1) JP6675984B2 (ja)
CN (1) CN106663325B (ja)
WO (1) WO2016021411A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015132665A2 (en) * 2014-03-07 2015-09-11 Wolf, Lior System and method for the detection and counting of repetitions of repetitive activity via a trained network
US10102423B2 (en) * 2016-06-30 2018-10-16 Snap Inc. Object modeling and replacement in a video stream
JP6551491B2 (ja) * 2017-11-06 2019-07-31 京セラドキュメントソリューションズ株式会社 監視システム
KR20190078292A (ko) * 2017-12-26 2019-07-04 삼성전자주식회사 뉴럴 네트워크 연산을 수행하는 장치 및 이의 동작 방법
JP7169752B2 (ja) * 2018-03-22 2022-11-11 キヤノン株式会社 監視装置、監視システム、制御方法、及びプログラム
JP7272365B2 (ja) 2018-09-05 2023-05-12 日本電気株式会社 移動体追跡システム、移動体追跡方法及びプログラム
CN109785429B (zh) * 2019-01-25 2020-08-21 北京极智无限科技有限公司 一种三维重建的方法和装置
JP2021197623A (ja) * 2020-06-12 2021-12-27 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
JP7509044B2 (ja) * 2021-01-18 2024-07-02 オムロン株式会社 情報処理装置および情報処理方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4425642B2 (ja) 2004-01-08 2010-03-03 富士重工業株式会社 歩行者抽出装置
CN101231755B (zh) * 2007-01-25 2013-03-06 上海遥薇(集团)有限公司 运动目标跟踪及数量统计方法
JP4623200B2 (ja) * 2008-10-27 2011-02-02 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP4623199B2 (ja) * 2008-10-27 2011-02-02 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
KR101183781B1 (ko) * 2009-12-22 2012-09-17 삼성전자주식회사 실시간 카메라 모션 추정을 이용한 물체 검출/추적 방법 및 단말
JP2012133759A (ja) * 2010-11-29 2012-07-12 Canon Inc 侵入物体の検知を行うことができる物体追尾装置、物体追尾方法及び記憶媒体
CN102289940B (zh) * 2011-07-26 2013-07-03 西南交通大学 一种基于混合差分的车流量检测方法
JP2013033317A (ja) 2011-08-01 2013-02-14 Sony Corp 画像処理装置、画像処理方法、及び、プログラム
CN102281385B (zh) * 2011-08-16 2013-03-27 上海交通大学 基于运动视频的周期运动检测方法
CN102496276B (zh) * 2011-12-01 2013-08-21 青岛海信网络科技股份有限公司 一种高效车辆检测方法
JP6046948B2 (ja) * 2012-08-22 2016-12-21 キヤノン株式会社 物体検知装置及びその制御方法、プログラム、並びに記憶媒体
JP5892075B2 (ja) 2013-01-16 2016-03-23 トヨタ自動車株式会社 対象物検出装置及び対象物検出方法、警報装置及び警報方法、運転支援装置及び運転支援方法
CN103456009B (zh) * 2013-08-28 2016-04-20 深圳市中瀛鑫科技股份有限公司 目标检测方法与装置、监控***
US9275286B2 (en) * 2014-05-15 2016-03-01 Xerox Corporation Short-time stopping detection from red light camera videos
JP6618767B2 (ja) * 2015-10-27 2019-12-11 株式会社デンソーテン 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
US20170220894A1 (en) 2017-08-03
CN106663325A (zh) 2017-05-10
JPWO2016021411A1 (ja) 2017-05-18
US10157327B2 (en) 2018-12-18
WO2016021411A1 (ja) 2016-02-11
CN106663325B (zh) 2020-06-16

Similar Documents

Publication Publication Date Title
JP6675984B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP7428213B2 (ja) 情報処理システム、情報処理方法及びプログラム
US10417503B2 (en) Image processing apparatus and image processing method
CN109076198B (zh) 基于视频的对象跟踪遮挡检测***、方法和设备
JP5102410B2 (ja) 移動体検出装置および移動体検出方法
US8989448B2 (en) Moving object detecting device, moving object detecting method, moving object detection program, moving object tracking device, moving object tracking method, and moving object tracking program
JP6655878B2 (ja) 画像認識方法及び装置、プログラム
EP2548174B1 (en) Method and apparatus for trajectory estimation, and method for segmentation
CN105957110B (zh) 用于检测对象的设备和方法
Cuevas et al. Improved background modeling for real-time spatio-temporal non-parametric moving object detection strategies
KR101139930B1 (ko) 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법
JP2016018374A (ja) 物体追跡装置、物体追跡方法および物体追跡プログラム
JP2016143335A (ja) グループ対応付け装置、グループ対応付け方法及びグループ対応付け用コンピュータプログラム
CN107665495B (zh) 对象跟踪方法及对象跟踪装置
Minematsu et al. Evaluation of foreground detection methodology for a moving camera
JP2007510994A (ja) ビデオ画像内でのオブジェクトトラッキング
KR102151748B1 (ko) 비디오 영상에서 사람과 배경을 분리하기 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
JP2021077177A (ja) 動作認識装置、動作認識方法及び動作認識プログラム
Badie et al. Global tracker: an online evaluation framework to improve tracking quality
JP6516609B2 (ja) 動物体検出装置及びその背景モデル構築方法
Bhuvaneswari et al. TRACKING MANUALLY SELECTED OBJECT IN VIDEOS USING COLOR HISTOGRAM MATCHING.
Hati et al. Review and improvement areas of mean shift tracking algorithm
Chandrajit et al. Motion Segmentation from Surveillance Video using modified Hotelling's T-Square Statistics
JP2013114583A (ja) 移動方向識別装置
Jeong et al. Soft assignment and multiple keypoint analysis-based pedestrian counting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200311

R150 Certificate of patent or registration of utility model

Ref document number: 6675984

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150