JP2023091670A - 映像に対するオブジェクト検出方法及びオブジェクト検出システム - Google Patents

映像に対するオブジェクト検出方法及びオブジェクト検出システム Download PDF

Info

Publication number
JP2023091670A
JP2023091670A JP2021206538A JP2021206538A JP2023091670A JP 2023091670 A JP2023091670 A JP 2023091670A JP 2021206538 A JP2021206538 A JP 2021206538A JP 2021206538 A JP2021206538 A JP 2021206538A JP 2023091670 A JP2023091670 A JP 2023091670A
Authority
JP
Japan
Prior art keywords
range
foreground
background
unit
current image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021206538A
Other languages
English (en)
Other versions
JP7346535B2 (ja
Inventor
莉珮 王
li-pei Wang
宇哲 李
Yu-Je Li
冠徳 李
guan-de Li
名嘉 ▲黄▼
ming-jia Huang
宏軒 林
Hung-Hsuan Lin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Technology Research Institute ITRI
Original Assignee
Industrial Technology Research Institute ITRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial Technology Research Institute ITRI filed Critical Industrial Technology Research Institute ITRI
Priority to JP2021206538A priority Critical patent/JP7346535B2/ja
Publication of JP2023091670A publication Critical patent/JP2023091670A/ja
Application granted granted Critical
Publication of JP7346535B2 publication Critical patent/JP7346535B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】膨大なコンピューティング要件を低減させ、オブジェクト検出の速度を加速させる、オブジェクト検出方法及びオブジェクト検出システムを提供する。【解決手段】本オブジェクト検出方法は、現在画像内のオブジェクト選択範囲をフィルタリングすることにより背景範囲を取得し、オブジェクト前景範囲及びオブジェクト背景範囲をオブジェクト選択範囲から取得し、オブジェクト前景範囲に対応するオブジェクト前景動きベクトルの数がオブジェクト背景範囲における背景動きベクトルの数よりも多い場合、オブジェクト前景範囲に対応するオブジェクト前景動きベクトルの前景動き傾向を算出し、現在画像内のオブジェクト選択範囲は、オブジェクト前景範囲に対応するオブジェクト前景動きベクトルの前景動き傾向、又は背景範囲に対応する背景動きベクトルの背景動き傾向に従って更新する。【選択図】図3B

Description

本開示は、概して、映像に対するオブジェクト検出方法及びオブジェクト検出システムに関する。
人工知能の急速な発展に伴い、人工知能は、多くの分野で顔認識、ゴミ分類、車両認識、及び他の行為に使用することができる。いくつかの用途では、映像に対するオブジェクト認識を実施する必要さえある。例えば、特許文献1には、画像に対するオブジェクト追跡方法が開示されている。
台湾特許第I640931号明細書
しかしながら、画像に対するオブジェクト認識は、多くのコンピューティングリソースを必要とし、その結果として、ハードウェアを配備する多額のコストが必要となる。とりわけ映像の場合、このオブジェクト認識は膨大なコンピューティングリソースを必要とする。少なくとも毎秒60フレームの取り込み速度に追いつくためには、多額のハードウェアコストが分配される必要がある。このため、人工知能技術は現在、映像用途で広く普及させることが困難となっている。オブジェクト認識や多額のコンピューティングコストの消費によって発生する膨大なコンピューティング要件をどのように低減するか、そしてオブジェクト検出の速度をどのように加速させるかが、現在重要なトピックとなっている。
本開示は、映像に対するオブジェクト検出方法及びオブジェクト検出システムに関する。
一実施形態によれば、映像に対するオブジェクト検出方法が提供される。本オブジェクト検出方法は、以下のステップを含む。複数の連続画像のうちの現在画像が受信される。現在画像内のオブジェクト選択範囲をフィルタリングすることにより、背景範囲が取得される。オブジェクト選択範囲に対応する複数の選択範囲動きベクトルと、背景範囲に対応する複数の背景動きベクトルとの複数の類似度を比較し、これによって、オブジェクト選択範囲内のオブジェクト前景範囲及びオブジェクト背景範囲が取得される。オブジェクト前景範囲に対応する複数のオブジェクト前景動きベクトルの数と、オブジェクト背景範囲に対応する複数のオブジェクト背景動きベクトルの数とが比較される。オブジェクト前景範囲に対応するオブジェクト前景動きベクトルの数がオブジェクト背景範囲に対応するオブジェクト背景動きベクトルの数よりも多い場合、オブジェクト前景範囲に対応するオブジェクト前景動きベクトルの前景動き傾向が算出される。現在画像内のオブジェクト選択範囲は、オブジェクト前景範囲に対応するオブジェクト前景動きベクトルの前景動き傾向、又は背景範囲に対応する背景動きベクトルの背景動き傾向に従って更新される。
別の実施形態によれば、映像に対するオブジェクト検出システムが提供される。本オブジェクト検出システムは、受信部と、範囲定義部と、比較部と、傾向分析部と、更新部と、を備える。受信部は、複数の連続画像のうちの現在画像を受信するように構成されている。範囲定義部は、受信部に接続されている。範囲定義部は、現在画像内のオブジェクト選択範囲をフィルタリングして背景範囲を取得し、かつオブジェクト選択範囲に対応する複数の選択範囲動きベクトルと、背景範囲に対応する複数の背景動きベクトルとの複数の類似度を比較し、これによって、オブジェクト選択範囲内のオブジェクト前景範囲及びオブジェクト背景範囲を取得するように構成されている。比較部は、範囲定義部に接続されている。比較部は、オブジェクト前景範囲に対応する複数のオブジェクト前景動きベクトルの数と、オブジェクト背景範囲に対応する複数のオブジェクト背景動きベクトルの数とを比較するように構成されている。傾向分析部は、比較部及び範囲定義部に接続されている。オブジェクト前景範囲に対応するオブジェクト前景動きベクトルの数がオブジェクト背景範囲に対応するオブジェクト背景動きベクトルの数よりも多い場合、傾向分析部は、オブジェクト前景範囲に対応するオブジェクト前景動きベクトルの前景動き傾向を算出する。更新部は、傾向分析部及び比較部に接続されている。更新部は、オブジェクト前景範囲に対応するオブジェクト前景動きベクトルの前景動き傾向、又は背景範囲に対応する背景動きベクトルの背景動き傾向に従って、現在画像内のオブジェクト選択範囲を更新するように構成されている。
一実施形態による、複数の連続画像に対するオブジェクト検出のプロセスを示す。
一実施形態による、映像に対するオブジェクト検出システムのブロック図を示す。
一実施形態による、映像に対するオブジェクト検出方法のフローチャートを示す。 一実施形態による、映像に対するオブジェクト検出方法のフローチャートを示す。
図3のステップを示す。 図3のステップを示す。 図3のステップを示す。 図3のステップを示す。 図3のステップを示す。 図3のステップを示す。 図3のステップを示す。 図3のステップを示す。 図3のステップを示す。
以下の発明を実施するための形態では、説明を目的として、開示している実施形態についての完全な理解をもたらすために、多数の具体的な詳細事項を記載している。しかしながら、これらの具体的な詳細事項がなくても1つ又は複数の実施形態が実践され得ることは明らかであろう。他の例では、図面を簡略化するために、周知の構造及び装置が概略的に示されている。
一実施形態による、複数の連続画像に対するオブジェクト検出のプロセスを示す図1を参照されたい。これらの連続画像は、画像キャプチャ装置100によってキャプチャされ、時系列に並べられる。これらの画像の数は制限されていない。図1には、画像IM0~IM6の7枚の画像が示されている。以下で述べている連続画像は、一例として画像IM0~IM6をキャプチャしたものである。画像IM0は画像IM1よりも先にキャプチャされ、画像IM1は画像IM2よりも先にキャプチャされ、以下同様となる。画像キャプチャ装置100は、カメラ、携帯電話、又はタブレットなどの画像キャプチャ機能を有する装置とすることができる。これらの画像IM0~IM6は、画像キャプチャ装置100からリアルタイムで取得され得る一方、画像IM0~IM6は、オフラインでストレージ装置又はクラウドストレージセンタからも取得され得る。画像キャプチャ装置100は、通常、毎秒60フレーム又は120フレームの速度で画像IM0~IM6をキャプチャしている。画像キャプチャ装置100が画像IM0~IM6をキャプチャしているとき、この画像キャプチャ装置100は携帯型又は固定型であり得る。
画像キャプチャ装置100が画像IM0~IM6をキャプチャした後、画像IM0~IM6に対して少なくとも1つのオブジェクトに対するオブジェクト検出を実施して、画像IM0~IM6内にそれぞれ位置する少なくとも1つのオブジェクトの位置が取得され得る。画像IM0~IM6がキャプチャされているとき、オブジェクトは移動状態又は静止状態にあり得るので、画像IM0~IM6のそれぞれにおけるオブジェクトの位置は、同じでもあり得るし、又は異なることもあり得る。オブジェクト検出中、このオブジェクト検出がリアルタイムで実施されるかオフラインで実施されるかにかかわらず、画像IM0~IM6のそれぞれが人工知能(Artificial Intelligence:AI)オブジェクト認識アルゴリズムに従って検出される場合、その検出は膨大なコンピューティングリソースを必要とすることになる。
図1に示すように、本実施形態の連続画像IM0~IM6では、オブジェクト認識手順P1によって検出する必要があるのはこれらの画像の一部のみであり、残りの画像はオブジェクト推定手順P2によって検出され得る。このオブジェクト認識手順P1は、AIオブジェクト認識アルゴリズムを用いてオブジェクトのオブジェクト選択範囲を検出するために使用される。例えば、画像IM0~IM2には猫の図が含まれており、当該オブジェクトOBは、図示された猫の頭部として定義される。本オブジェクト検出方法では、画像IM0に対してのみオブジェクト認識手順P1が実施され、これによってオブジェクト選択範囲BX0が取得される。このオブジェクト選択範囲BX0は、猫の頭部を1つのボックス内で囲んでいる。このAIオブジェクト認識アルゴリズムは、例えば、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)アルゴリズム、k近傍分類(k-nearest neighbor classification:KNN)アルゴリズム、又はサポートベクターマシン(Support Vector Machine:SVM)アルゴリズムである。
また、オブジェクト推定手順P2を使用して、画像IM1及びIM2内の一部のピクセルの動きベクトルやオプティカルフローを介した、オブジェクトOBのオブジェクト選択範囲BX1、BX2が推定され、かつ補正される。このオプティカルフローは、1×1ピクセルごとの動きを表している。複数のピクセル(例えば、4×4、4×8、8×8ピクセルなど)の動きは動きベクトルと呼ばれている。この動きベクトルは、ストリーミング画像内の類似のピクセル領域を検出するために使用されることが多い。通常、連続画像IM1及びIM2内のオブジェクトOBの変位量はそれ程変化しないので、オブジェクト推定手順P2でこの特徴を使用して、オブジェクトOBのオブジェクト選択範囲BX1、BX2が推定され、かつ修正され得る。画像IM0に対してオブジェクト認識手順P1を実施してオブジェクト選択範囲BX0が取得された後、この画像IM0のオブジェクト選択範囲BX0に従って、画像IM1に対してオブジェクト推定手順P2が実施され、次いでこの画像IM1のオブジェクト選択範囲BX1に従って、画像IM2に対してオブジェクト推定手順P2が実施される。画像IM0~IM2内のオブジェクトOBのオブジェクト選択範囲BX0、BX1、BX2がそれぞれ取得され得、次いでこれらのオブジェクト選択範囲BX0、BX1、BX2に従って画像IM1~IM2内のオブジェクトOBの位置が把握され得る。以上を踏まえて、画像IM3~IM6において、一部の画像IM3~IM6に対してオブジェクト認識手順P1が実施され得、次いで画像IM3~IM6のその他に対してオブジェクト推定手順P2が実施され得る。例えば、画像IM3及びIM4に対して推定手順P2が実施され得、画像IM5に対してオブジェクト認識手順P1が実施され得、その後画像IM6に対してオブジェクト推定手順P2が実施されてもよい。
両者を比較すると、オブジェクト認識手順P1が必要とするコンピューティングリソースはより多くなり、オブジェクト推定手順P2が必要とするコンピューティングリソースはより少なくなる。連続画像IM0~IM6では、オブジェクト認識手順P1とオブジェクト推定手順P2とが交互に実施されている。このようにして、膨大なコンピューティングリソースを消費することなく、オブジェクト検出を達成することができる。オブジェクト認識手順P1は、一定の時間間隔ごとに実施することもできるし、一定数の画像ごとに実施することもできる。あるいは、オブジェクト推定手順P2が実施された後、オブジェクト選択範囲BX1又はBX2の変位量が大きすぎること、オブジェクト選択範囲BX1又はBX2のサイズが変化しすぎること、又はオブジェクトOBの状態が急変したこと(例えば、静止状態から移動状態へ)が判明した場合、オブジェクト推定手順P2を実施するステップは、オブジェクト認識手順P1を実施するステップによって置き換えられ得る。本実施形態のオブジェクト検出方法では、オブジェクト認識手順P1とオブジェクト推定手順P2とが交互に実施されている。オブジェクト認識手順P1を実施する必要があるのは、一部の画像においてのみである(例えば、図1では、画像IM0に対してオブジェクト認識手順P1のみが実施される)が、依然として一定レベルの精度を維持することができる。
一実施形態による、映像に対するオブジェクト検出システム1000のブロック図を示す図2を参照されたい。オブジェクト検出システム1000は、受信部101と、オブジェクト認識判定部102と、オブジェクト認識部103と、オブジェクト選択部105と、範囲定義部106と、比較部109と、傾向分析部110と、更新部111と、精度判定部113と、を備える。オブジェクト認識判定部102は、受信部101、オブジェクト認識部103及びオブジェクト選択部105に接続されている。範囲定義部106は、比較部109及びオブジェクト選択部105に接続されている。傾向分析部110は、範囲定義部106、比較部109及び更新部111に接続されている。精度判定部113は、オブジェクト認識部103及び更新部111に接続されている。受信部101は、例えば、画像キャプチャ装置100から画像IM0~IM6を受信したり、ストレージ装置から画像IM0~IM6を受信したりしている。オブジェクト認識判定部102は、画像IM0~IM6のそれぞれに対して、オブジェクト認識手順P1又はオブジェクト推定手順P2のいずれかを実施する必要があるかどうかを判定するために使用されている。現在画像は、現在時点でオブジェクト検出が実施されている画像IM0~IM6のうちの1つとして定義される。先行画像は、現在画像に先行する画像として定義される。先行時点で、この先行画像は、オブジェクト認識手順P1を介して検出され、これによって当該オブジェクトのオブジェクト選択範囲が取得され得、あるいはこの先行画像は、オブジェクト推定手順P2を介して検出され、これによっても当該オブジェクトのオブジェクト選択範囲が取得され得る。同様に、現在時点で、この現在画像は、オブジェクト認識手順P1を介して検出され、これによって当該オブジェクトのオブジェクト選択範囲が取得され得、あるいはこの現在画像は、オブジェクト推定手順P2を介して検出され、これによっても当該オブジェクトのオブジェクト選択範囲が取得され得る。
図1及び図2に示すように、連続画像IM0~IM6において、現在時点では、画像IM1が現在画像として定義され、画像IM0が先行画像として定義される。現在時点で、オブジェクト認識判定部102は、画像IM1に対して、オブジェクト認識手順P1又はオブジェクト推定手順P2の実施に関する判定を行う。一方、先行時点では、画像IM0は現在画像として定義され、また、画像IM1は次画像として定義される。先行時点で、オブジェクト認識判定部102は、画像IM0に対して、オブジェクト認識手順P1又はオブジェクト推定手順P2の実施に関する判定を行う。一方、次時点では、画像IM1は先行画像として定義され、また、画像IM2は現在画像として定義される。画像IM2~IM6の現在画像、先行画像及び次画像は、上記と同様に定義され得るため、その類似点については繰り返さない。
図1及び図2に示すように、オブジェクト認識部103はオブジェクト認識判定部102に接続されている。このオブジェクト認識判定部102は、画像IM0~IM6のそれぞれに対して、オブジェクト認識手順P1又はオブジェクト推定手順P2のいずれかを異なる時点で実施する必要があるかどうかを判定している。オブジェクト認識手順P1を実施する必要のある画像IM0~IM6の一部は、このオブジェクト認識手順P1を実施するためにオブジェクト認識部103に送信され、次いでオブジェクトOBのオブジェクト選択範囲が取得される。例えば、画像IM0に対してオブジェクト認識手順P1を実施する必要がある、即ち、画像IM0に対してオブジェクト推定手順P2を実施する必要がないとオブジェクト認識判定部102が判定した場合、オブジェクト認識判定部102は、画像IM0をオブジェクト認識部103に送信し、次いでオブジェクト認識部103は、画像IM0に対してオブジェクト認識手順P1を実施して、画像IM0におけるオブジェクトOBのオブジェクト選択範囲BX0を取得する。例えば、画像IM1に対してオブジェクト認識手順P1を実施する必要がない、即ち、画像IM1に対してオブジェクト推定手順P2を実施する必要があるとオブジェクト認識判定部102が判定した場合、オブジェクト認識判定部102は、画像IM1をオブジェクト選択部105に送信し、次いでオブジェクト選択部105は、画像IM1に対してオブジェクト推定手順P2を実施して、画像IM1におけるオブジェクトOBのオブジェクト選択範囲BX1を取得する。
オブジェクト選択部105、範囲定義部106、比較部109、傾向分析部110、更新部111及び精度判定部113は、オブジェクト推定手順P2を実施するために使用されている。これらの構成要素は、独立した個々の装置であってもよく、又は同じ装置にこれらが組み込まれてもよい。これらの構成要素は、例えば、回路、チップ、回路基板、プログラムコード、又は、プログラムコードを記憶するストレージ装置である。以下は、各構成要素の動作について詳述するフローチャートである。
図2~図12を参照されたい。図3A~図3Bは、一実施形態による、映像に対するオブジェクト検出方法のフローチャートを示す。図4~図12は、図3のステップを示す。この映像は、例えば、ドライビングレコーダのドライブ映像である。本実施形態では、第1の時点が現在時点として定義されており、また、画像IM0~IM6のうち、画像IM0が現在画像IM0*として定義されている。ステップS101で、受信部101は図3A及び図4に示すように、第1の時点において、画像IM0~IM6のうちIM0を受信する。以下、画像IM0を現在画像IM0*と呼んでいる。本ステップでは、受信部101は、画像キャプチャ装置100から、又はストレージ装置若しくはクラウドストレージセンタから現在画像IM0*を受信してもよい。
次いで、ステップS102で、オブジェクト認識判定部102は、現在画像IM0*に対してオブジェクト認識手順P1を実施する必要があるかどうかを判定する。現在画像IM0*に対してオブジェクト認識手順P1を実施する必要がある、即ち「はい」であるとオブジェクト認識判定部102が判定した場合、このオブジェクト認識判定部102は、現在画像IM0*をオブジェクト認識部103に送信し、本プロセスはステップS103へと進む。
一実施形態では、オブジェクト認識判定部102は、所定の許容経過時間に従って、現在画像IM0*に対してオブジェクト認識手順P1を実施する必要があるかどうかを判定してもよい。この所定の許容経過時間の値はこれに限定されず、ユーザの設定に応じて調整され得る。オブジェクト推定手順P2が所定の許容経過時間にわたって実施された後、現在画像IM0*に対してオブジェクト認識手順P1を実施する必要があると判定される。
あるいは、別の実施形態では、オブジェクト認識判定部102は実行画像の許容数に応じて、現在画像IM0*に対してオブジェクト認識手順P1を実施する必要があるかどうかを判定してもよい。これらの実行画像の許容数の値はこれに限定されず、ユーザの設定に応じて調整され得る。オブジェクト推定手順P2で許容数の実行画像が実行された後、現在画像IM0*に対してオブジェクト認識手順P1を実施する必要があると判定される。
ステップS103で、オブジェクト認識部103は図4に示すように、オブジェクト認識判定部102から現在画像IM0*を受信し、次いでオブジェクト認識手順P1を実施して、現在画像IM0*におけるオブジェクト選択範囲BX0*を取得する。オブジェクト認識部103は、AIオブジェクト認識アルゴリズムを用いて、現在画像IM0*におけるオブジェクトOBのオブジェクト選択範囲BX0*を検出する。AIオブジェクト認識アルゴリズムを用いて、オブジェクト認識部103は、現在画像IM0*内のオブジェクトOBを正確に検出し、次いで、現在画像IM0*(画像IM0)内のオブジェクトOBの位置を把握できるように、オブジェクト選択範囲BX0*にマークを付すことができる。その後、オブジェクト認識部103はステップS104を実行して、現在画像IM0*(画像IM0)におけるオブジェクト選択範囲BX0*を出力する。本実施形態では、このオブジェクト選択範囲BX0*は、例えば正方形のオブジェクトボックスである。
一実施形態では、オブジェクト認識部103は、現在画像IM0*全体を検出してもよい。あるいは、別の実施形態では、オブジェクト認識部103は、現在画像IM0*から部分画像領域を選択し、次いでこの部分画像領域に対してオブジェクト認識手順P1を実施してもよい。
ステップS103~S104は、オブジェクト認識手順P1を実施するために実行され、ステップS105~S113は、オブジェクト推定手順P2を実施するために実行される。
一実施形態では、第2の時点が現在時点として定義されており、第1の時点が先行時点として定義されている。第2の時点は第1の時点よりも後になる。画像IM0~IM6のうちの画像IM1が現在画像IM1*として定義されており、また、画像IM0が先行画像として定義されている。ステップS101~ステップS102において、受信部101は、画像IM0~IM6のうち画像IM1を受信する。以下、画像IM1を現在画像IM1*と呼んでいる。オブジェクト認識判定部102は、現在画像IM1*に対してオブジェクト認識手順P1を実施する必要があるかどうかを判定する。現在画像IM1*に対してオブジェクト認識手順P1を実施する必要がない、即ち「いいえ」であるとオブジェクト認識判定部102が判定した場合、このオブジェクト認識判定部102は、現在画像IM1*をオブジェクト選択部105に送信し、本プロセスはステップS105へと進む。
ステップS105で、オブジェクト選択部105は図5に示すように、オブジェクト認識判定部102から現在画像IM1*を受信し、次いでオブジェクト推定手順P2を実施する。オブジェクト認識判定部102は先行画像(画像IM0)に従って、現在画像IM1*におけるオブジェクト選択範囲BX1*を取得する。図5の左側が先行画像(画像IM0)であり、図5の右側が現在画像IM1*(画像IM1)である。画像IM0では、先行時点(第1の時点)におけるオブジェクトOBのオブジェクト選択範囲BX0*が範囲指定されている。本ステップでは、現在画像IM1*におけるオブジェクトOBのオブジェクト選択範囲BX1*は、先行画像(画像IM0)のオブジェクト選択範囲BX0*に従って直接的に推定されており、また、ステップS106~S113を実行して、オブジェクト選択範囲BX1*が調整される。別の実施形態では、図5の先行画像(画像IM0)におけるオブジェクト選択範囲BX0*は、オブジェクト推定手順P2を実施することによって取得されてもよい。
次いでステップS106で、範囲定義部106は図6に示すように、現在画像IM1*内のオブジェクト選択範囲BX1*をフィルタリングすることにより、背景範囲BGを取得する。本ステップでは、範囲定義部106は、例えば、オブジェクト選択範囲BX1*によってカバーされている範囲(即ち、図6のオブジェクト選択範囲BX1*の黒塗りされた部分)を除外し、オブジェクト選択範囲BX1*外の範囲のみを保持する。通常、連続画像IM0~IM6では、画像IM0~IM6のそれぞれにおける背景範囲BGは変化しないことが多い(又は、動き変化量が少ない)。この背景範囲BGに動き変化があったとしても、その変化は動的変位に基づくものではなく、画像キャプチャ装置100の動きによって生じる受動的変位に基づくものであることが多い。このオブジェクトOBは、動的変位をより生じやすい。ステップS106でオブジェクト選択範囲BX1*を除去した後、背景範囲BGの受動的変位の解析が実施され得る。
次いで、ステップS107で、傾向分析部110は図7及び図8に示すように、現在画像IM1*における背景範囲BGに対応する複数の背景動きベクトルMVbの背景動き傾向TDbを、多数決アルゴリズム、投票アルゴリズム、線形回帰アルゴリズム、又は補間アルゴリズムを用いて算出する。現在画像IM1*の背景動きベクトルMVbは、現在画像IM1*と先行画像との間の背景範囲BGに対応するピクセルの動きベクトル、即ち、背景範囲BGにおけるオプティカルフローの変位量である。背景動き傾向TDbは、背景範囲BGに対応するオプティカルフローの変位量の傾向である。図7の実施例では、現在画像IM1*の背景範囲BGには、看板B1、衝突防止バーB2、などの固定オブジェクトの画像が含まれている。現在画像IM1*における背景範囲BGの受動的変位は、主として画像キャプチャ装置100が前進することに起因しているため、現在画像IM1*の背景動きベクトルMVbは、一定の変化傾向を有する。図8に示すように、現在画像IM1*の背景範囲BGに対応する背景動きベクトルMVbの変位量を、X軸方向(例えば、現在画像IM1*の水平方向)に示す。図8を参照すると、変位量の変化傾向が求められ得る。傾向分析部110は、背景動きベクトルMVbに従って、X軸方向におけるオプティカルフローの変位量に対応する変位量傾向線を生成することができる。この変位量傾向線は、背景動き傾向TDbである。この背景動き傾向TDbは、複数の二次元座標値を含む。第1の寸法値は、現在画像IM1*におけるX軸方向の位置点を表し、また、第2の寸法値は、オブジェクトOBのオブジェクト選択範囲BX1*を調整する際の、その後の調整量を表す。一方、背景動きベクトルMVbも、Y軸方向(例えば、現在画像IM1*の垂直方向)に一定の変化傾向を有する。傾向分析部110は、ここには図示されていない背景動きベクトルMVbに従って、Y軸方向におけるオプティカルフローの変位量に対応する別の背景動き傾向を生成することができる。
傾向分析部110は、背景動きベクトルMVbをデフォルトの外れ値と比較して、背景動きベクトルMVbのうちでこのデフォルトの外れ値以上となる一部を除外することができる。背景動きベクトルMVbのうちの1つがデフォルトの外れ値以上であった場合、この背景動きベクトルMVbの変位量が背景動きベクトルMVbのうちの他のものと比較して、より大きくなっていることを意味する。このデフォルトの外れ値の値は、ユーザ設定に応じて調整され得る。傾向分析部110は、デフォルトの外れ値よりも小さい背景動きベクトルMVbに従って、背景範囲BGに対応する背景動きベクトルMVbの背景動き傾向TDbを算出し、これによって、前景動き傾向TDbを算出する際の精度を高めるようにしている。
一実施形態では、背景範囲BGは図9に示すように、空、建物、道路及び他の背景を含んでいてもよい。傾向分析部110は、個々の背景に応じて背景範囲BGをいくつかの背景範囲ブロックBKへとトリミングし、次いで背景範囲ブロックBKのそれぞれについて対応する背景動きベクトルMVbを求めることができる。次いで、傾向分析部110は、それぞれの背景動きベクトルMVbに従って、対応する背景動き傾向を生成する。図9は、4つの背景範囲ブロックBKの一例を示す。
次いで、ステップS108で、範囲定義部106は図10に示すように、オブジェクト選択範囲BX1*に対応する複数の選択範囲動きベクトルMVと、背景範囲BGに対応する背景動きベクトルMVbとの複数の類似度を比較し、これによって、オブジェクト選択範囲BX1*内のオブジェクト前景範囲FN及びオブジェクト背景範囲BNを取得するようにしている。これら選択範囲動きベクトルMVのそれぞれは、現在画像IM1*と先行画像との間のオブジェクト選択範囲BX1*内の各ピクセルに対応する動きベクトル、即ち、オブジェクト選択範囲BX1*における各オプティカルフローの変位量を表す。詳細には、オブジェクト選択範囲BX1*に対応する選択範囲動きベクトルMVと、背景範囲BGに対応する背景動きベクトルMVbとの類似度を比較する際に、選択範囲動きベクトルMVのうちの少なくとも1つがこの背景動きベクトルMVbの背景動き傾向TDbと類似していない場合、範囲定義部106は、この少なくとも1つの選択範囲動きベクトルMVをオブジェクト前景動きベクトルMVfとして定義する。オブジェクト選択範囲BX1*における少なくとも1つのオブジェクト前景動きベクトルMVfの範囲は、オブジェクト前景範囲FNとして定義される。一方、オブジェクト選択範囲BX1*におけるオブジェクト前景動きベクトルMVfの範囲によってカバーされない残りの範囲は、オブジェクト背景範囲BNとして定義され得る。このオブジェクト背景範囲BNは、複数のオブジェクト背景動きベクトルMVb2を含む。これらのオブジェクト背景動きベクトルMVb2は、その比較結果が 「類似している」 選択範囲動きベクトルMVの一部である。
図10の実施例では、現在画像IM1*のオブジェクト選択範囲BX1*には、衝突防止バーB2及びオブジェクトOBが含まれている。衝突防止バーB2は受動的変位を有し、オブジェクトOBは動的変位を有する。オブジェクト選択範囲BX1*内の衝突防止バーB2及び背景範囲BGは受動的変位を有するので、範囲定義部106は、オブジェクト選択範囲BX1*に対応する選択範囲動きベクトルMVと、背景動きベクトルMVbの背景動き傾向TDbとを比較し、これによって、背景動きベクトルMVbと類似していないオブジェクト前景動きベクトルMVfを検出することができる。背景動きベクトルMVbと類似している選択範囲動きベクトルMVの一部は、オブジェクト背景動きベクトルMVb2として定義され得る。このようにして、オブジェクト選択範囲BX1*において、背景動きベクトルMVbと類似していない選択範囲動きベクトルMVの一部(即ち、オブジェクト前景動きベクトルMVf)を使用して、オブジェクト前景範囲FNが定義され得る。図10の右側に示すように、オブジェクト前景範囲FNは、オブジェクト選択範囲BX1*内に位置している。オブジェクト選択範囲BX1*は、オブジェクト前景範囲FNを含む。オブジェクト選択範囲BX1*によってカバーされている範囲は、オブジェクト前景範囲FNによってカバーされている範囲よりも大きい。
一実施形態では、範囲定義部106は、背景範囲BGに対応する背景動きベクトルMVbと、この背景動きベクトルMVbから生成される背景動き傾向TDbとを比較することもできる。背景動きベクトルMVbのうちの少なくとも1つが背景動き傾向TDbと類似していない場合、範囲定義部106は、この少なくとも1つの背景動きベクトルMVbを選択して、新規のオブジェクト選択範囲BXNを取得する。この新規のオブジェクト選択範囲BXNは、現在画像IM1*内の新規のオブジェクトを示す。このオブジェクトは先行画像内にまだ出現していないか、又は先行画像内に完全には出現していないため、オブジェクト認識手順P1又はオブジェクト推定手順P2を用いてもこのオブジェクトが検出され得ず、したがって、このオブジェクトもここには図示されていない。
その後、図3Bに示すように、ステップS109で比較部109は、現在画像IM1*において、オブジェクト前景範囲FNに対応するオブジェクト前景動きベクトルMVfの数と、オブジェクト背景範囲BNに対応するオブジェクト背景動きベクトルMVb2の数とを比較する。オブジェクト前景範囲FNに対応するオブジェクト前景動きベクトルMVfの数がオブジェクト背景範囲BNに対応するオブジェクト背景動きベクトルMVb2の数よりも多い場合、本プロセスはステップS110へと進み、オブジェクト前景範囲FNに対応するオブジェクト前景動きベクトルMVfの数がオブジェクト背景範囲BNに対応するオブジェクト背景動きベクトルMVb2の数よりも少ない場合、本プロセスはステップS112へと進む。オブジェクト前景動きベクトルMVfのそれぞれは、現在画像IM1*と先行画像との間のオブジェクト前景範囲FN内の各ピクセルに対応する動きベクトルを表し、これは即ち、オブジェクト前景範囲FNにおける各オプティカルフローの変位量を表す。例えば、図10の右側に示すように、オブジェクト選択範囲BX1*は、オブジェクト前景範囲FN及びオブジェクト背景範囲BNを含む。選択範囲動きベクトルMVは、オブジェクト前景動きベクトルMVf及びオブジェクト背景動きベクトルMVb2を含む。オブジェクト前景動きベクトルMVfはオブジェクト前景範囲FN内に位置し、オブジェクト背景動きベクトルMVb2はオブジェクト背景範囲BN内に位置し、かつオブジェクト前景範囲FNの外側にある。
ステップS110で、傾向分析部110は、現在画像IM1*において、オブジェクト前景範囲FNに対応するオブジェクト前景動きベクトルMVfの前景動き傾向TDfを算出する。この前景動き傾向TDfは、オブジェクト前景範囲FNに対応するオプティカルフローの変位量を示す変位量の傾向である。本ステップでは、オブジェクト前景動きベクトルMVfがオブジェクト選択範囲BX1における過半数であると傾向分析部110が判定するので、オブジェクトOBが動的変位を有することが立証され得る。したがって、オブジェクト選択範囲BX1における受動的変位(即ち、オブジェクト選択範囲BX1における背景範囲BGに対応する背景動きベクトルMVb)はノイズと見なされて、フィルタリングされ得る。前景動き傾向TDfを算出する際に、傾向分析部110が必要とするのは、オブジェクト前景範囲FNに対応するオブジェクト前景動きベクトルMVfを考慮することのみになる。
現在画像IM1*内のオブジェクト前景動きベクトルMVfのX軸方向における変位量を示す図11を参照されたい。この図11から、変位量の変化傾向が把握され得る。傾向分析部110は、オブジェクト前景動きベクトルMVfに従って、X軸方向におけるオプティカルフローの変位量に対応する変位量傾向線を生成することができる。この変位量傾向線は、前景動き傾向TDfである。この前景動き傾向TDfは、複数の二次元座標値を含む。第1の寸法値は、現在画像IM1*におけるX軸方向の位置点を表す。第2の寸法値は、オブジェクトOBのオブジェクト選択範囲BX1*を調整する際に、X軸方向の位置点に対して調整が必要な変位量を表す。一方、オブジェクト前景動きベクトルMVfも、Y軸方向に一定の変化傾向を有する。傾向分析部110は、ここには図示されていない背景動きベクトルMVbに基づいて、Y軸方向におけるオプティカルフローの変位量に対応する別の前景動き傾向を生成することができる。傾向分析部110は、X軸方向及びY軸方向に対応するオブジェクト前景動きベクトルMVfの変位量の変化傾向に従って、前景動き傾向TDfを算出することができる。
一実施形態では、この傾向分析部110は、多数決アルゴリズム、投票アルゴリズム、線形回帰アルゴリズム、又は補間アルゴリズムを用いて、オブジェクト前景範囲FNに対応する動きベクトルMVfの前景動き傾向TDfを算出する。
別の実施形態では、傾向分析部110は、オブジェクト前景動きベクトルMVfをデフォルトの外れ値と比較して、前景動きベクトルMVfのうちでこのデフォルトの外れ値以上となる一部を除外してもよい。オブジェクト前景動きベクトルMVfのうちの1つがデフォルトの外れ値以上であった場合、この前景動きベクトルMVfの変位量が前景動きベクトルMVfのうちの他のものと比較して、より大きくなっていることを意味する。このデフォルトの外れ値は、ユーザ設定に応じて調整され得る。傾向分析部110は、デフォルトの外れ値よりも小さいオブジェクト前景動きベクトルMVfに従って、オブジェクト前景範囲FNに対応するオブジェクト前景動きベクトルMVfの前景動き傾向TDfを算出し、これによって、前景動き傾向を算出する際の精度を高めるようにしている。
一実施形態では、傾向分析部110は、前景動き傾向TDfを算出するために、所定の距離範囲条件又はオブジェクトの特性条件に従って、オブジェクト前景動きベクトルMVfの一部を選択してもよい。この所定の距離範囲条件及びオブジェクトの特性条件は、ユーザ設定に応じて調整され得る。例えば、ある画像のオブジェクト前景範囲は、人間の骨格を含んでいてもよい。人間の骨格におけるほとんどのノードは骨格の関節にあり(例えば、手首、肘など)、それらの数は少ないため、手首と肘との間の結合範囲を使用してオブジェクト前景動きベクトルMVfの一部を選択し、これによって、前景動き傾向TDfを算出することができる。これらのノードの数はオブジェクトの特性条件として定義され得、また、手首と肘との間の結合範囲は、所定の距離範囲条件として定義され得る。
ステップS110を実行した後、本プロセスはステップS111へと進む。更新部111は、オブジェクト前景範囲FNに対応するオブジェクト前景動きベクトルMVfの前景動き傾向TDfに従って、現在画像IM1*のオブジェクト選択範囲BX1*を更新する。詳細には、更新部111は、現在画像IM1*におけるオブジェクト前景動きベクトルMVfの位置と前景動き傾向TDfの二次元座標値とを比較して、その位置に対応して調整する必要のある変位量を求める。その後、更新部111は、その変位量に応じて位置を移動させることで、オブジェクトOBのオブジェクト選択範囲BX1*の最終位置を求めることができる。図12に示すように、更新されたオブジェクト選択範囲BX1*は、前景動き傾向TDfに従って右方に移動している。更新部111は、オブジェクト前景範囲FN内の座標点C(4、3)を、図11の前景動き傾向TDfにマッピングする。X軸方向の位置点が4であるため、更新部111は前景動き傾向TDf上の座標点P(4、5)に従って、位置点4の調整に必要となる変位量が5であると判定する。その結果、更新部111は、座標点C(4、3)を座標点C’(9、3)へと移動させ、次いでオブジェクト前景範囲FN内の他の位置点(X軸方向及びY軸方向を含む)も、上記の類推に従う。更新部111はこのようにして、現在画像IM1*のオブジェクト選択範囲BX1*を更新する。更新部111は、現在画像IM1*内のオブジェクトOBの位置を示すために、現在画像IM1*内で動的に変位させたオブジェクトOBに対して正確にラベル付けすることができる。
ステップS109で、オブジェクト前景動きベクトルMVfがオブジェクト選択範囲BX1における過半数ではない場合、オブジェクト選択範囲BX1内のオブジェクトOBも固定オブジェクトである(例えば、当該車両は停止状態にある)ことを意味するため、本プロセスはステップS112へと進む。ステップS112で、更新部111は、背景範囲BGに対応する背景動きベクトルMVbの背景動き傾向TDbに従って、現在画像IM1のオブジェクト選択範囲BX1を更新する。本ステップは、上記のステップS111と同様である。ステップS111のオブジェクト前景動きベクトルMVfを背景動きベクトルMVbに置き換えており、したがって、これに関する説明は省略する。
ステップS111又はS112を実行した後、本プロセスはステップS113へと進む。ステップS113で、精度判定部113は、オブジェクト選択範囲BX1*がある精度条件を満たしているかどうかを判定する。この精度条件とは、例えば、オブジェクト選択範囲BX1*の位置変化が所定の程度未満となる必要があること、オブジェクト選択範囲BX1*の面積変化が所定の程度未満となる必要があること、及びオブジェクト前景動きベクトルMVfの変化率が所定の程度未満となる必要があることを指す。この所定の程度は、ユーザ設定に応じて調整され得る。オブジェクト推定手順P2の結果がこの精度条件を満たすことができない(即ち、上記変化量が所定の程度を超えている)場合、オブジェクト推定手順P2によって取得されたオブジェクト選択範囲BX1*は出力されず、代わりにオブジェクト認識手順P1が実施され、これによってオブジェクト選択範囲BX1*が取得され、かつ出力される。その一方で、オブジェクト認識部103は、現在画像IM1*において当該精度条件を満たしていない部分に基づいて部分画像領域を選択し、この部分画像領域に基づいて、オブジェクト認識手順P1を実施することもできる。
オブジェクト選択範囲BX1が当該精度条件を満たしていない場合には、本プロセスはステップS103に戻る。オブジェクト認識部103は、現在画像IM1*に対してオブジェクト認識手順P1を実施することにより、別の新規のオブジェクト選択範囲BXUを生成し、次いでこの別の新規オブジェクト選択範囲BXUに従ってオブジェクト推定手順P2を実施することにより、元のオブジェクト選択範囲BX1*を更新して置き換えている一方、オブジェクト選択範囲BX1*が当該精度条件を満たしている場合は、オブジェクト選択範囲BX1*が出力される。
受信部101は、画像IM1のオブジェクトを追跡した後、第3の時点で連続画像IM0~IM6内の画像IM2を受信する。この時点で、画像IM2は現在画像として定義され、また、画像IM1は先行画像として定義される。次いで、本オブジェクト検出システムは、画像IM2に対してステップS101~S113を実行する。画像IM3~IM6は、類推によって検出され得る。画像IM3~IM6のそれぞれにおいて、オブジェクトOBのオブジェクト選択範囲を正確に検出することにより、連続画像のオブジェクト検出が完了され得る。
一実施形態では、本オブジェクト検出方法は、あらゆる不規則形状のオブジェクトに適用され得る。このオブジェクト選択範囲は、例えば、オブジェクトOBの先端とすることができる。本出願では、このオブジェクト選択範囲は不規則形状となっている。つまり、オブジェクト選択範囲の形状は限定されるものではなく、ユーザの設定に応じて調整され得る。
上述した様々な実施形態によれば、オブジェクト認識手順とオブジェクト推定手順とは交互に実施され、その結果、多くのコンピューティングリソースを消費することなく、連続画像におけるオブジェクト検出が一定の精度レベルで維持され得る。このように、AI技術は、多額のハードウェアコストをかけることなく、連続画像において広く促進され得る。
開示している実施形態に対して様々な修正及び変形をなすことが可能であることは、当業者には明らかであろう。本明細書及び実施例は例示としてのみ考慮され、本開示の真の範囲は、以下の特許請求の範囲及びそれらの均等物によって示されることが意図される。

Claims (24)

  1. 複数の連続画像のうちの現在画像を受信するステップと、
    前記現在画像内のオブジェクト選択範囲をフィルタリングすることにより、背景範囲を取得するステップと、
    前記オブジェクト選択範囲に対応する複数の選択範囲動きベクトルと、前記背景範囲に対応する複数の背景動きベクトルとの複数の類似度を比較し、これによって、前記オブジェクト選択範囲内のオブジェクト前景範囲及びオブジェクト背景範囲を取得するステップと、
    前記オブジェクト前景範囲に対応する複数のオブジェクト前景動きベクトルの数と、前記オブジェクト背景範囲に対応する複数のオブジェクト背景動きベクトルの数とを比較するステップと、
    前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの数が前記オブジェクト背景範囲に対応する前記オブジェクト背景動きベクトルの数よりも多い場合、前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前景動き傾向を算出するステップと、
    前記現在画像内の前記オブジェクト選択範囲を、前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前記前景動き傾向、又は前記背景範囲に対応する前記背景動きベクトルの背景動き傾向に従って更新するステップと、
    を含む、映像に対するオブジェクト検出方法。
  2. 前記現在画像に対してオブジェクト認識手順を実施する必要があるかどうかを判定するステップと、
    前記現在画像に対して前記オブジェクト認識手順を実施する必要がない場合、前記連続画像のうちの先行画像に従って、前記現在画像における前記オブジェクト選択範囲を取得するステップと、
    を含む、請求項1に記載の映像に対するオブジェクト検出方法。
  3. 前記現在画像に対して前記オブジェクト認識手順を実施する必要があるかどうかが、所定の許容経過時間に従って判定される、請求項2に記載の映像に対するオブジェクト検出方法。
  4. 前記現在画像に対して前記オブジェクト認識手順を実施する必要があるかどうかが、実行画像の許容数に応じて判定される、請求項2に記載の映像に対するオブジェクト検出方法。
  5. 前記背景範囲に対応する前記背景動きベクトルの前記背景動き傾向を、多数決アルゴリズム、投票アルゴリズム、線形回帰アルゴリズム、又は補間アルゴリズムを用いて算出するステップをさらに含む、請求項1に記載の映像に対するオブジェクト検出方法。
  6. 前記オブジェクト選択範囲に対応する前記選択範囲動きベクトルと、前記背景範囲に対応する前記背景動きベクトルとの前記類似度を比較する前記ステップでは、前記選択範囲動きベクトルのうちの少なくとも1つが、前記背景範囲に対応する前記背景動きベクトルの前記背景動き傾向と類似していない場合、前記オブジェクト選択範囲からの前記選択範囲動きベクトルのうちの少なくとも1つに従って、前記オブジェクト前景範囲が取得される、請求項1に記載の映像に対するオブジェクト検出方法。
  7. 前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの数が前記オブジェクト背景範囲に対応する前記オブジェクト背景動きベクトルの数よりも多い場合、前記前景動き傾向に従って前記現在画像内の前記オブジェクト選択範囲が更新され、
    前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの数が前記オブジェクト背景範囲に対応する前記オブジェクト背景動きベクトルの数よりも少ない場合、前記背景動き傾向に従って前記現在画像内の前記オブジェクト選択範囲が更新される、請求項1に記載の映像に対するオブジェクト検出方法。
  8. 前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前記前景動き傾向を算出する前記ステップでは、所定の距離範囲条件又はオブジェクトの特性条件に従って選択される前記オブジェクト前景動きベクトルの一部が、前記前景動き傾向を算出するために使用される、請求項1に記載の映像に対するオブジェクト検出方法。
  9. 前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前記前景動き傾向を算出する前記ステップでは、前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前記前景動き傾向を取得するために、多数決アルゴリズム、投票アルゴリズム、線形回帰アルゴリズム、又は内部差分アルゴリズムが実行される、請求項1に記載の映像に対するオブジェクト検出方法。
  10. 前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前記前景動き傾向を算出する前記ステップでは、前記オブジェクト前景動きベクトルがデフォルトの外れ値と比較され、前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前記前景動き傾向が、前記デフォルトの外れ値よりも小さい前記オブジェクト前景動きベクトルの一部に従って取得される、請求項1に記載の映像に対するオブジェクト検出方法。
  11. 前記現在画像内の前記オブジェクト選択範囲を更新する前記ステップを実行した後、前記オブジェクト検出方法が、
    前記オブジェクト選択範囲がある精度条件を満たしているかどうかを判定するステップと、
    前記オブジェクト選択範囲が前記精度条件を満たしていない場合には、前記オブジェクト認識手順を実施することにより、前記現在画像内の前記オブジェクト選択範囲を更新するステップと、
    をさらに含む、請求項1に記載の映像に対するオブジェクト検出方法。
  12. 前記オブジェクト認識手順を実施する前記ステップでは、前記精度条件に従って前記現在画像から部分画像領域が選択され、また、前記部分画像領域に対して前記オブジェクト認識手順が実施され、その結果、前記部分画像領域内で前記オブジェクト選択範囲が更新される、請求項11に記載の映像に対するオブジェクト検出方法。
  13. 複数の連続画像のうちの現在画像を受信するように構成されている、受信部と、
    前記受信部に接続されている範囲定義部であって、前記範囲定義部が、前記現在画像内のオブジェクト選択範囲をフィルタリングして背景範囲を取得し、かつ前記オブジェクト選択範囲に対応する複数の選択範囲動きベクトルと、前記背景範囲に対応する複数の背景動きベクトルとの複数の類似度を比較し、これによって、前記オブジェクト選択範囲内のオブジェクト前景範囲及びオブジェクト背景範囲を取得するように構成されている、範囲定義部と、
    前記範囲定義部に接続されている比較部であって、前記比較部が、前記オブジェクト前景範囲に対応する複数のオブジェクト前景動きベクトルの数と、前記オブジェクト背景範囲に対応する複数のオブジェクト背景動きベクトルの数とを比較するように構成されている、比較部と、
    前記比較部及び前記範囲定義部に接続されている傾向分析部であって、前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの数が前記オブジェクト背景範囲に対応する前記オブジェクト背景動きベクトルの数よりも多い場合、前記傾向分析部が、前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前景動き傾向を算出する、傾向分析部と、
    前記傾向分析部及び前記比較部に接続されている更新部であって、前記更新部が、前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前記前景動き傾向、又は前記背景範囲に対応する前記背景動きベクトルの前記背景動き傾向に従って、前記現在画像内の前記オブジェクト選択範囲を更新するように構成されている、更新部と、
    を備える、映像に対するオブジェクト検出システム。
  14. オブジェクト認識手順を実施するように構成されているオブジェクト認識部と、
    前記受信部及び前記オブジェクト認識部に接続されているオブジェクト認識判定部であって、前記オブジェクト認識判定部は、前記現在画像に対して前記オブジェクト認識部が前記オブジェクト認識手順を実施する必要があるかどうかを判定するように構成されている、オブジェクト認識判定部と、
    前記オブジェクト認識判定部及び前記範囲定義部に接続されているオブジェクト選択部であって、前記現在画像に対して、前記オブジェクト認識部が前記オブジェクト認識手順を実施する必要がない場合、前記オブジェクト選択部が、前記連続画像のうちの先行画像に従って、前記現在画像における前記オブジェクト選択範囲を取得する、オブジェクト選択部と、
    をさらに備える、請求項13に記載の映像に対するオブジェクト検出システム。
  15. 前記オブジェクト認識判定部が、所定の許容経過時間に従って、前記現在画像に対して前記オブジェクト認識部が前記オブジェクト認識手順を実施する必要があるかどうかを判定している、請求項14に記載の映像に対するオブジェクト検出システム。
  16. 前記オブジェクト認識判定部は、実行画像の許容数に応じて、前記現在画像に対して前記オブジェクト認識部が前記オブジェクト認識手順を実施する必要があるかどうかを判定している、請求項14に記載の映像に対するオブジェクト検出システム。
  17. 前記傾向分析部が、前記背景範囲に対応する前記背景動きベクトルの前記背景動き傾向を、多数決アルゴリズム、投票アルゴリズム、線形回帰アルゴリズム、又は補間アルゴリズムを用いて算出している、請求項13に記載の映像に対するオブジェクト検出システム。
  18. 前記選択範囲動きベクトルのうちの少なくとも1つが、前記背景範囲に対応する前記背景動きベクトルの前記背景動き傾向と類似していない場合、前記範囲定義部が、前記オブジェクト選択範囲からの前記選択範囲動きベクトルのうちの少なくとも1つに従って、前記オブジェクト前景範囲を取得する、請求項13に記載の映像に対するオブジェクト検出システム。
  19. 前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの数が前記オブジェクト背景範囲に対応する前記オブジェクト背景動きベクトルの数よりも多い場合、前記更新部が、前記前景動き傾向に従って前記現在画像内の前記オブジェクト選択範囲を更新し、前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの数が前記オブジェクト背景範囲に対応する前記オブジェクト背景動きベクトルの数よりも少ない場合、前記更新部が、前記背景動き傾向に従って前記現在画像内の前記オブジェクト選択範囲を更新する、請求項13に記載の映像に対するオブジェクト検出システム。
  20. 前記傾向分析部が、前記前景動き傾向を算出するために、所定の距離範囲条件又はオブジェクトの特性条件に従って、前記オブジェクト前景動きベクトルの一部を選択している、請求項13に記載の映像に対するオブジェクト検出システム。
  21. 前記傾向分析部が、多数決アルゴリズム、投票アルゴリズム、線形回帰アルゴリズム、又は内部差分アルゴリズムを実施して、前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前記前景動き傾向を求めている、請求項13に記載の映像に対するオブジェクト検出システム。
  22. 前記傾向分析部が、前記オブジェクト前景動きベクトルをデフォルトの外れ値と比較し、前記オブジェクト前景範囲に対応する前記オブジェクト前景動きベクトルの前記前景動き傾向を、前記デフォルトの外れ値よりも小さい前記オブジェクト前景動きベクトルに従って取得している、請求項13に記載の映像に対するオブジェクト検出システム。
  23. 前記更新部に接続されている精度判定部であって、前記精度判定部は、前記オブジェクト選択範囲がある精度条件を満たしているかどうかを判定するように構成されている、精度判定部と、
    前記精度判定部に接続されているオブジェクト認識部であって、前記オブジェクト選択範囲が前記精度条件を満たしていない場合には、前記オブジェクト認識部が前記オブジェクト認識手順を実施することにより、前記現在画像内の前記オブジェクト選択範囲を更新する、オブジェクト認識部と、
    をさらに備える、請求項13に記載の映像に対するオブジェクト検出システム。
  24. 前記オブジェクト認識部が、前記精度条件に従って前記現在画像から部分画像領域を選択し、また、前記部分画像領域に対して前記オブジェクト認識手順を実施し、その結果、前記部分画像領域内で前記オブジェクト選択範囲が更新される、請求項23に記載の映像に対するオブジェクト検出システム。
JP2021206538A 2021-12-20 2021-12-20 映像に対するオブジェクト検出方法及びオブジェクト検出システム Active JP7346535B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021206538A JP7346535B2 (ja) 2021-12-20 2021-12-20 映像に対するオブジェクト検出方法及びオブジェクト検出システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021206538A JP7346535B2 (ja) 2021-12-20 2021-12-20 映像に対するオブジェクト検出方法及びオブジェクト検出システム

Publications (2)

Publication Number Publication Date
JP2023091670A true JP2023091670A (ja) 2023-06-30
JP7346535B2 JP7346535B2 (ja) 2023-09-19

Family

ID=86941732

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021206538A Active JP7346535B2 (ja) 2021-12-20 2021-12-20 映像に対するオブジェクト検出方法及びオブジェクト検出システム

Country Status (1)

Country Link
JP (1) JP7346535B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05227463A (ja) * 1992-02-15 1993-09-03 Sony Corp 画像処理装置
JP2018508078A (ja) * 2015-03-12 2018-03-22 クアルコム,インコーポレイテッド オブジェクト追跡のためのシステムおよび方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05227463A (ja) * 1992-02-15 1993-09-03 Sony Corp 画像処理装置
JP2018508078A (ja) * 2015-03-12 2018-03-22 クアルコム,インコーポレイテッド オブジェクト追跡のためのシステムおよび方法

Also Published As

Publication number Publication date
JP7346535B2 (ja) 2023-09-19

Similar Documents

Publication Publication Date Title
Wang et al. Development of UAV-based target tracking and recognition systems
CN105654512B (zh) 一种目标跟踪方法和装置
US9232140B2 (en) Image stabilization techniques for video surveillance systems
CN111798487B (zh) 目标跟踪方法、装置和计算机可读存储介质
TWI469062B (zh) 影像穩定方法及影像穩定裝置
Zhao et al. Stacked multilayer self-organizing map for background modeling
US11790661B2 (en) Image prediction system
JP2009048240A (ja) 動画像における移動物体の検出方法、検出装置、監視方法および監視システム
Jiang et al. A 500-fps pan-tilt tracking system with deep-learning-based object detection
Nguyen et al. A continuous real-time hand gesture recognition method based on skeleton
Li et al. A head pose tracking system using RGB-D camera
Agarwal et al. Six object tracking algorithms: A comparative study
JP2023091670A (ja) 映像に対するオブジェクト検出方法及びオブジェクト検出システム
Macesanu et al. A time-delay control approach for a stereo vision based human-machine interaction system
JP2021182288A (ja) 移動体追跡装置及び移動体追跡方法
JP2008085491A (ja) 画像処理装置及びその方法
US20230196584A1 (en) Object detection method and object detection system for video
EP4198918A1 (en) Object detection method and object detection system for video
Russo et al. Blurring prediction in monocular slam
Xiao et al. 3D-assisted coarse-to-fine extreme-pose facial landmark detection
Hadviger et al. Stereo event lifetime and disparity estimation for dynamic vision sensors
Zhang et al. The video stabilization based on improved smoothing filtering and curve fitting
Al Jilani et al. Autonomous motion tracking for dynamic objects using a temporal quad-tree algorithm
CN104751448A (zh) 基于pca和噪声分离的在线视频跟踪方法
Tanakian et al. Digital video stabilization system by adaptive fuzzy Kalman filtering

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230906

R150 Certificate of patent or registration of utility model

Ref document number: 7346535

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150