JP6871199B2 - 目標物認識装置 - Google Patents

目標物認識装置 Download PDF

Info

Publication number
JP6871199B2
JP6871199B2 JP2018102163A JP2018102163A JP6871199B2 JP 6871199 B2 JP6871199 B2 JP 6871199B2 JP 2018102163 A JP2018102163 A JP 2018102163A JP 2018102163 A JP2018102163 A JP 2018102163A JP 6871199 B2 JP6871199 B2 JP 6871199B2
Authority
JP
Japan
Prior art keywords
target
likelihood
image
recognition
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018102163A
Other languages
English (en)
Other versions
JP2019207523A (ja
Inventor
英治 尾形
英治 尾形
Original Assignee
大井電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 大井電気株式会社 filed Critical 大井電気株式会社
Priority to JP2018102163A priority Critical patent/JP6871199B2/ja
Publication of JP2019207523A publication Critical patent/JP2019207523A/ja
Application granted granted Critical
Publication of JP6871199B2 publication Critical patent/JP6871199B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、目標物認識装置に関し、特に、画像に示される目標物を認識する装置に関する。
画像に示された特定の物体を認識する技術につき研究開発が行われている。画像認識技術には、時間経過と共に順次取得される画像のそれぞれにおいて目標物を認識し、目標物を追跡するものがある。
例えば、以下の特許文献1には、カメラ映像から人物を検出し、検出された人物を追跡する画像認識装置が記載されている。この画像認識装置は、時間経過と共に順次取得された画像から検出対象物としての人物を検出し、各画像における人物の位置を求めることで人物を追跡する。人物を検出する処理は、処理対象の画像における特定の領域が人物を示す可能性としての尤度を求め、尤度が所定の尤度閾値よりも大きい場合に、その特定の領域に対応する物体を人物として確定することで行われる。
なお、画像上で認識される物体は、実際には、画像上で特定の領域を占める物体の像を指すが、本願明細書では、表現を簡略化するため、画像上で特定の領域を占める物体の像を、単に画像上の物体と表現する。
特開2016−162232号公報
画像上で目標物を認識する処理については、次のような課題がある。すなわち、尤度が近い複数の物体が1つの画像から認識された場合、いずれの物体を目標物として認識すべきかの判定が困難となる場合がある。これによって、例えば、時間経過と共に順次取得される画像において目標物を追跡する場合には、追跡の途中で目標物でない別の物体を誤って追跡してしまうことがある。
本発明は、画像に示された目標物を確実に認識することを目的とする。
本発明は、時間経過と共に画像を順次取得する画像取得部と、画像上で目標物を認識する物体認識部と、を備え、前記物体認識部は、先に取得された画像で認識された前記目標物の位置に基づいて、前記目標物が認識されると予測される予測範囲を、次に取得された画像上に設定する予測範囲設定部と、次に取得された画像上の物体について前記目標物に対する尤度を求めると共に、当該尤度が所定の認識条件を満たす物体のうち、前記予測範囲に対する所定の位置条件が満たされる物体を前記目標物として認識する目標物認識部と、を備え、前記尤度が前記認識条件を満たす物体であって、前記予測範囲に対する所定の位置条件が満たされる物体がないときに、前記目標物認識部は、前記尤度が前記認識条件を満たさない物体であって、前記予測範囲に対する所定の位置条件が満たされる仮目標物があるときは、先に取得された画像のうち、前記尤度が前記認識条件を満たすことで前記目標物が認識された目標物認識画像の数に応じて、当該仮目標物についての前記尤度を修正し、修正尤度を求める修正処理と、前記修正尤度が前記認識条件を満たすときに、前記仮目標物を前記目標物として認識する修正認識処理と、を実行することを特徴とする。
望ましくは、前記修正尤度は、前記目標物認識画像の数が大きい程、大きい値を有する。
本発明によれば、画像に示された目標物を確実に認識することができる。
物体認識装置の構成を示す図である。 予測範囲を設定する処理を概念的に示す図である。 予測範囲を設定する処理を概念的に示す図である。 出力画像の例を示す図である。 1つの画像から目標物を認識する処理を示すフローチャートである。 第4の画像データが示す画像上で認識された物体Oの尤度が尤度閾値以下であったときの例を示す図である。 追跡誤りについて説明するための図である。
図1には、本発明の実施形態に係る物体認識装置10の構成が示されている。物体認識装置10は、画像取得部12、物体認識部14、追跡結果記憶部26、プログラム記憶部28、物体認識データベース30および追跡成功回数記憶部32を備えている。追跡結果記憶部26、プログラム記憶部28、および追跡成功回数記憶部32は、アドレスによって複数の部分に分けられた1つのメモリによって構成されてもよい。
物体認識装置10は、画像取得部12によって動画像を撮影し、動画像上の目標物を認識し追跡する。動画像は、画像取得部12によって時間経過と共に順次撮影される個々の画像によって構成される。すなわち、物体認識装置10は、時間経過と共に順次撮影される画像上で目標物を認識し、各画像上で認識された目標値の位置を求めることで目標物の追跡を行う。
画像取得部12はカメラを備えており、所定のフレームレートで画像を撮影(取得)し、1フレーム周期が経過するごとに1フレームの画像データを物体認識部14に出力する。画像取得部12が取得する画像データが示す画像の視野(撮影視野)は一定であり、目標物の追跡は一定の撮影視野内で行われる。また、画像取得部12はカメラを備えていなくてもよく、画像取得部12に接続された外部のカメラから画像を取得してもよい。さらに、画像取得部12は、外部に設けられたメモリから動画データを読み込んでもよいし、動画データを出力する情報処理装置から動画データを読み込んでもよい。
物体認識部14は、予測範囲設定部18、目標物認識部20、追跡結果生成部22および出力画像生成部24を備えている。物体認識部14は、例えば、プログラム記憶部28に記憶されたプログラムを実行するプロセッサによって構成される。この場合、プロセッサはプログラムを実行することで、予測範囲設定部18、目標物認識部20、追跡結果生成部22および出力画像生成部24を自らの内部に構成する。また、これらの構成要素は、ハードウエアとしてのディジタル回路によって個別に構成されてもよい。
物体認識部14は、画像取得部12から出力された画像データが示す画像において目標物を探索し、撮影視野内で目標物を追跡する。具体的には、以下に説明する目標物追跡処理を実行し、1フレームの画像における目標物の位置を求め、目標物の位置を表す追跡結果データを1フレームごとに求め、追跡結果記憶部26に記憶させる。追跡結果データは、目標物の位置を座標値によって表す数値データであってもよいし、目標物の位置を画像によって表す画像データであってもよい。目標物の位置を表す画像は、画像取得部12が取得した画像データが示す画像上に目標物を示す図形を重ねたものであってもよい。
目標物追跡処理について説明する。予測範囲設定部18は、画像取得部12から出力された画像データが示す画像に対し、目標物が認識される予測範囲を設定する。予測範囲の設定は、最新の画像データよりも先に取得されたMフレームの画像データのそれぞれに対して求められた追跡結果データを用いて行われる。ただし、Mは1以上の整数であり、最新の画像データよりも先に取得された画像データが1フレームであるときは、予測範囲設定部18は、先に取得された画像データが示す画像上で認識された目標物の位置から所定距離だけ所定方向にずれた範囲を予測範囲として設定する。また、最新の画像データよりも先に画像データが取得されていないときは、予測範囲設定部18は、予め定められた初期範囲を予測範囲として設定する。
予測範囲設定部18は、追跡結果記憶部26に記憶されている各追跡結果データ、すなわち、過去のMフレームの画像データに対して求められた各追跡結果データを参照する。そして、Mフレームの間に目標物が撮影視野内で移動した経路を示す軌跡を求め、その軌跡を未来側に延長する処理によって、最後に取得された画像データが示す画像、すなわち、最新の画像データが示す最新画像に対して予測範囲を設定する。
図2には、予測範囲を設定する処理が概念的に示されている。この図では、目標物としてワゴン車が撮影視野34内に示されている。目標物T1〜T3は、最新の画像データよりも先に取得された3フレームの画像データが示す画像上で認識された目標物である。目標物T1は、最も先に取得された第1の画像データが示す画像上で認識された目標物であり、目標物T2はその次に取得された第2の画像データが示す画像上で認識された目標物である。目標物T3は、第2の画像データの次に取得された第3の画像データが示す画像上で認識された目標物である。なお、図2では、説明の便宜上、1フレーム周期で目標物が移動する距離、すなわち、隣接する目標物の距離が誇張して描かれている。実際の1フレーム周期では、1フレーム周期で目標物が移動する距離は図2に示されているよりも短い場合が多い。
予測範囲設定部18は、目標物T1〜T3の移動軌跡を求め、その移動軌跡の未来側への延長線上に予測範囲36を設定する。図2では、矩形の予測範囲36が二点鎖線によって示されている。予測範囲36の形状は、矩形の他、円形や楕円形、あるいはその他の多角形であってもよい。また、予測範囲36の形状は、目標物に近似した形状であってもよい。なお、図2には、目標物としてのワゴン車が最新画像上で探索される可能性のある位置が、ワゴン車を表す破線で示されている。
目標物認識部20は、目標物に対する尤度が0でない領域を最新画像上で検出し、その領域を物体であると認識すると共に、目標物に対する尤度が尤度閾値Hを超える物体を最新画像において探索する。ここで、目標物に対する尤度とは、物体が目標物である可能性の高さを示す値(物体が目標物であるらしいことの度合いを示す値)をいう。以下の説明では「目標物に対する尤度」を単に「尤度」という。尤度は、物体からの距離または方向が異なる複数の位置から物体を眺めたときの画像についても、目標物である可能性が高い物体については、尤度閾値Hを超えるように定義されている。
最新画像上で尤度を求める処理は、物体認識データベース30を参照しながら実行される。物体認識データベース30には、複数の異なる位置から1つの物体を見たときの形状を示す多元的物体データが、複数種の目標物のそれぞれについて予め記憶されている。多元的物体データが記憶される複数種の目標物は、自動車、オートバイ、人、動物等、物体認識装置10が認識することを予定している複数種の物体であってもよい。目標物認識部20は、目標物としてのワゴン車の多元的物体データを参照し、尤度が尤度閾値Hを超える物体を最新画像において探索する。
目標物認識部20は、尤度が尤度閾値Hを超える1つの物体が最新画像上で探索されたときは、この物体と予測範囲36との間の判定距離を求める。判定距離は、例えば、探索された物体の重心と、予測範囲36の重心との間の距離として定義される。目標物認識部20は、判定距離が所定の距離閾値以下である場合には、この物体を目標物であると認識する。
目標物認識部20は、尤度が尤度閾値Hを超える複数の物体が最新画像上で探索されたときは、これら複数の物体のそれぞれについて判定距離を求める。目標物認識部20は、これら複数の物体のうち、判定距離が所定の距離閾値以下であり、判定距離が最短である物体を目標物であると認識する。
追跡結果生成部22は、目標物認識部20が目標物を認識したことに応じて追跡結果データを生成し、追跡結果記憶部26に追跡結果データを記憶させる。追跡結果生成部22は、追跡成功回数記憶部32に記憶されている追跡成功回数を1だけ増加させる。追跡成功回数は、尤度が尤度閾値Hを超え、かつ、判定距離が距離閾値以下である物体が探索された追跡成功回数を示す0以上の整数である。なお、尤度が尤度閾値Hを超えると共に、判定距離が距離閾値以下である物体が最新画像上で探索されなかった場合の修正処理については後述する。
図3には、目標物T1〜T3に加えて、第3の画像データの次に取得された第4の画像データが示す画像上で認識された目標物T4が示されている。第1〜第4の画像データに対して実行された処理と同様の処理によって、物体認識部14は、最新の画像データ(第5の画像データ)が示す最新画像上に予測範囲36を設定し、尤度が尤度閾値Hを超える物体を最新画像上で探索する。物体認識部14は、探索された物体について判定距離を求め、判定距離が距離閾値以下である場合には、この物体を目標物であると認識する。また、最新画像において尤度が尤度閾値Hを超える複数の物体が探索された場合には、物体認識部14は、判定距離が距離閾値以下であり、判定距離が最短である物体を目標物であると認識する。物体認識部14は、さらに、目標物に対して追跡結果データを生成して追跡結果記憶部26に記憶させると共に、追跡成功回数記憶部32に記憶されている追跡成功回数を1だけ増加させる。
出力画像生成部24は、追跡結果記憶部26に記憶された追跡結果データを参照することで目標物の軌跡を示す出力画像データを生成し、物体認識部14から出力する。出力画像データが示す出力画像は、例えば、最新画像に対して目標物の軌跡を示す図形を重ねて示したものである。図4には、出力画像の例が示されている。この出力画像40では、最新画像に対し、曲線および矢印によって表された目標物Tの軌跡38が重ねて示されている。出力画像生成部24は、画像取得部12から順次出力された各画像データに対応する出力画像データを物体認識部14から順次出力する。また、出力画像生成部24は、各出力画像データを動画像データとして追跡結果記憶部26に記憶させてもよいし、物体認識部14に接続されたその他のメモリに記憶させてもよい。
尤度が尤度閾値Hを超えると共に、判定距離が距離閾値以下である物体が最新画像上で探索されなかった場合の修正処理について説明する。目標物認識部20は、尤度が尤度閾値H0を超え、尤度閾値H以下である物体を最新画像上で探索する。
目標物認識部20は、尤度が尤度閾値H0を超え、尤度閾値H以下である1つの物体が最新画像上で探索されたときは、この物体と予測範囲36との間の判定距離を求める。目標物認識部20は、判定距離が所定の距離閾値以下である場合には、この物体を仮目標物であると認識する。
目標物認識部20は、目標物に対する尤度が尤度閾値H0を超え、尤度閾値H以下である複数の物体が最新画像上で探索されたときは、これら複数の物体のそれぞれについて判定距離を求める。目標物認識部20は、これら複数の物体のうち、判定距離が所定の距離閾値以下であり、判定距離が最短である物体を仮目標物であると認識する。物体認識部14は、各物体について求められた判定距離が所定の距離閾値を超える場合には、目標物の追跡を終了する。この場合、物体認識部14は、目標物を探索し追跡する処理を最初から実行する。
目標物認識部20は、追跡成功回数記憶部32に記憶されている追跡成功回数SCを読み込み、仮目標物に対して求められた尤度L0と追跡成功回数SCを用いた以下の(数1)に基づいて尤度L0を修正し、修正尤度L1を求める。
(数1)L1=L0+k・SC
kは正の調整係数であり、例えば、実験やシミュレーションによって適切な値に設定される。(数1)は、最新の画像データよりも先に取得された画像データに対して求められた追跡成功回数SCが大きい程、尤度L0に対する加算値k・SCを大きくし、追跡成功回数SCが大きい程、修正尤度L1を大きくすることを意味する。
目標物認識部20は、修正尤度L1が尤度閾値Hを超えるときは、仮目標物を目標物として認識する。追跡結果生成部22は、目標物認識部20が仮目標物を目標物として認識したことに応じて追跡結果データを生成し、追跡結果記憶部26に追跡結果データを記憶させる。
なお、修正処理では、追跡成功回数記憶部32に記憶されている追跡成功回数はそのままに維持される。目標物認識部20は、修正尤度L1が尤度閾値H以下であるときは、これまで追跡していた目標物の追跡を終了する。この場合、物体認識部14は、目標物を探索し追跡する処理を最初から実行する。
図5には、目標物追跡処理において、画像上で目標物を認識する処理を例示するフローチャートが示されている。物体認識部14は、画像取得部12から出力された画像データが示す画像上で尤度が0でない領域を検出することで物体を探索する(S101)。物体認識部14は、尤度が尤度閾値Hを超え、かつ、判定距離が距離閾値以下の物体があるか否かを判定し(S102)、その物体が複数あるときは、判定距離が最短の物体を目標物として認識する(S103)。また、物体認識部14は、尤度が尤度閾値Hを超え、かつ、判定距離が距離閾値以下の物体が1つである場合には、その物体を目標物として認識する(S103)。物体認識部14は、追跡成功回数記憶部32に記憶された追跡成功回数に1を加算する(S104)。物体認識部14は、処理対象の画像上で目標物を探索する処理を終了し、次の画像上で目標物を認識する処理に進む。
物体認識部14は、尤度が尤度閾値Hを超え、かつ、判定距離が距離閾値以下の物体がないときは、尤度が尤度閾値H0を超え、尤度閾値H以下であり、かつ、判定距離が距離閾値以下の物体があるか否かを判定し(S105)、そのような物体が複数あるときは、判定距離が最短の物体を仮目標物として認識する(S106)。物体認識部14は、尤度が尤度閾値H0を超え、尤度閾値H以下であり、かつ、判定距離が距離閾値以下の物体が1つである場合には、その物体を仮目標物として認識する(S106)。
物体認識部14は、仮目標物についての尤度L0を修正して修正尤度L1を求める(S107)。そして、修正尤度L1が尤度閾値Hを超えるか否かを判定する(S108)。物体認識部14は、修正尤度L1が尤度閾値Hを超えるときは、その仮目標物を目標物として認識し(S109)、処理対象の画像上で目標物を探索する処理を終了し、次の画像上で目標物を認識する処理に進む。
物体認識部14は、尤度が尤度閾値H0を超え、尤度閾値H以下であり、かつ、判定距離が距離閾値以下の物体がないとき(S105)、あるいは、仮目標物の修正尤度が尤度閾値H以下であるときは(S108)、処理対象の画像上で目標物を探索する処理を終了し、目標物の追跡を終了する。
図6には、第4の画像データが示す画像上で認識された物体Oの尤度が尤度閾値H以下であったときの例が示されている。この例では、物体Oに対して修正尤度L1が求められ、修正尤度L1が尤度閾値Hを超えたことによって、物体Oが目標物T4として認識されている。尤度が尤度閾値H以下となった原因としては、例えば、処理対象の物体Oが暗闇にあることや、逆光で撮影されたこと等によって尤度が低下したことがある。物体認識部14は、目標物T1〜T3に加えて目標物T4に基づいて、第5の画像データが示す画像上に予測範囲を設定し、目標物追跡処理を引き続き実行し、目標物T5を認識する。
このように、本実施形態に係る物体認識装置10は、時間経過と共に画像を順次取得する画像取得部12と、画像上で目標物を認識する物体認識部14とを備えている。物体認識部14は、少なくとも予測範囲設定部18および目標物認識部20を備えている。予測範囲設定部18は、先に取得された画像で認識された目標物の位置に基づいて、目標物が認識されると予測される予測範囲36を、次に取得された画像上に設定する。目標物認識部20は、次に取得された画像上の物体について尤度を求めると共に、尤度が所定の認識条件を満たす物体のうち、予測範囲36に対する所定の位置条件が満たされる物体を目標物として認識する。
本実施形態における認識条件は、目標物に対する尤度が尤度閾値Hを超えるという条件である。また、本実施形態における位置条件は、物体または仮目標物と予測範囲36との間の判定距離が距離閾値以下であるという条件である。
目標物認識部20は、目標物に対する尤度が認識条件を満たさない物体であって、予測範囲36に対する所定の位置条件が満たされる仮目標物があるときは、先に取得された画像のうち、追跡成功回数SC(尤度が認識条件を満たすことで目標物が認識された目標物認識画像の数)に応じて、その仮目標物についての尤度を修正し、修正尤度を求める修正処理を実行する。目標物認識部20は、修正尤度が認識条件を満たすときに、仮目標物を目標物として認識する修正認識処理を実行する。
なお、上記の尤度閾値H、尤度閾値H0、および距離閾値は、実験やシミュレーションによって適切な値が求められてもよい。
本実施形態に係る物体認識装置10では、尤度が認識条件を満たさないものの予測範囲に対する位置条件が満たされる物体が仮目標物として認識される。仮目標物については、過去に追跡が成功した回数が多い程、その値が大きくなるような修正尤度が求められ、修正尤度によって、仮目標物が目標物であると認識され得る。したがって、画像取得部12で順次取得される画像が、目標物追跡の途中で劣化した場合であっても、過去に目標物として認識された物体は再び目標物として認識され易く、目標物の追跡が確実に行われる。なお、画像の劣化には、視界が良好でない領域に目標物が入り込んだり、逆光で撮影されたりしたことによるものがある。
従来技術では、目標物に対する尤度が近い複数の物体が1つの画像内にある場合には、目的物とすべきでない物体を誤って追跡してしまう可能性がある。例えば、図7に示されているように、目標物としてのワゴン車の他、目標物でない乗用車が撮影視野34内に現れている場合について、追跡誤りが生じる問題点について説明する。対象物体A1〜A4は、それぞれ、画像取得部12で順次取得された第1〜第4の画像データから認識された目標物を撮影視野34内に概念的に示したものである。非対象物体B1〜B4は、それぞれ、第1〜第4の画像データから認識された目標物でない物体を撮影視野34内に概念的に示したものである。対象物体A1、A2およびA4の尤度は尤度閾値Hを超えるものの、対象物体A3の尤度は尤度閾値H以下であるものとする。
乗用車はワゴン車に形態が近似しているため、非対象物体B1〜B4の尤度は、対象物体A1〜A4の尤度に近くなる可能性が高い。さらに、非対象物体B3は、対象物体A3に接近している。このような条件の下、従来技術では、対象物体A3ではなく非対象物体B3が誤って目標物であると認識され、それ以降は、ワゴン車ではなく乗用車が追跡されてしまう可能性がある。
本実施形態に係る物体認識装置10によれば、非対象物体B3は、尤度について認識条件が満たされたとしても、予測範囲に対する位置条件が満たされない可能性が高い。一方、対象物体A3については修正尤度が求められ、修正尤度に基づいて対象物体A3が目標物であると認識される可能性が高い。したがって、非対象物B3を目標物であると誤って認識してしまう可能性が低くなり、目標物の追跡が確実に行われる。
なお、修正尤度L1は、(数1)で定義される他、追跡成功回数SCが大きい程、大きい値となるように定義されるものであればよい。例えば、修正尤度L1は、(数2)で定義される値であってもよい。(数2)中のcは1を超える調整係数であり、実験やシミュレーションによって適切な値に設定される。
(数2)L1=L0・c・SC
物体認識部14は、物体認識データベース30を自ら更新する学習機能を備えていてもよい。すなわち、物体認識部14は、自動車、オートバイ、人物等に分類される目標物の各分類について、多元的物体データを自動的に生成する機能を備えていてもよい。この場合、物体認識部14はインターネットに接続されていてもよい。物体認識部14は、目標物の分類ごとにインターネットから物体の外見の特徴を表す情報を取得して多元的物体データを生成し、物体認識データベース30に蓄積する。多元的物体データの生成に際しては、画像取得部12によって取得された画像データが素材として用いられてもよい。
10 物体認識装置、12 画像取得部、14 物体認識部、18 予測範囲設定部、20 目標物認識部、22 追跡結果生成部、24 出力画像生成部、26 追跡結果記憶部、28 プログラム記憶部、30 物体認識データベース、32 追跡成功回数記憶部、34 撮影視野、36 予測範囲、38 軌跡、40 出力画像。

Claims (2)

  1. 時間経過と共に画像を順次取得する画像取得部と、
    画像上で目標物を認識する物体認識部と、を備え、
    前記物体認識部は、
    先に取得された画像で認識された前記目標物の位置に基づいて、前記目標物が認識されると予測される予測範囲を、次に取得された画像上に設定する予測範囲設定部と、
    次に取得された画像上の物体について前記目標物に対する尤度を求めると共に、当該尤度が所定の認識条件を満たす物体のうち、前記予測範囲に対する所定の位置条件が満たされる物体を前記目標物として認識する目標物認識部と、を備え、
    前記尤度が前記認識条件を満たす物体であって、前記予測範囲に対する所定の位置条件が満たされる物体がないときに、前記目標物認識部は、
    前記尤度が前記認識条件を満たさない物体であって、前記予測範囲に対する所定の位置条件が満たされる仮目標物があるときは、先に取得された画像のうち、前記尤度が前記認識条件を満たすことで前記目標物が認識された目標物認識画像の数に応じて、当該仮目標物についての前記尤度を修正し、修正尤度を求める修正処理と、
    前記修正尤度が前記認識条件を満たすときに、前記仮目標物を前記目標物として認識する修正認識処理と、を実行することを特徴とする物体認識装置。
  2. 請求項1に記載の物体認識装置において、
    前記修正尤度は、前記目標物認識画像の数が大きい程、大きい値を有することを特徴とする物体認識装置。
JP2018102163A 2018-05-29 2018-05-29 目標物認識装置 Active JP6871199B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018102163A JP6871199B2 (ja) 2018-05-29 2018-05-29 目標物認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018102163A JP6871199B2 (ja) 2018-05-29 2018-05-29 目標物認識装置

Publications (2)

Publication Number Publication Date
JP2019207523A JP2019207523A (ja) 2019-12-05
JP6871199B2 true JP6871199B2 (ja) 2021-05-12

Family

ID=68767038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018102163A Active JP6871199B2 (ja) 2018-05-29 2018-05-29 目標物認識装置

Country Status (1)

Country Link
JP (1) JP6871199B2 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4961850B2 (ja) * 2006-06-15 2012-06-27 ソニー株式会社 動き検出方法、動き検出方法のプログラム、動き検出方法のプログラムを記録した記録媒体及び動き検出装置
JP5387052B2 (ja) * 2009-03-02 2014-01-15 富士通株式会社 データ配信システム及びデータ配信方法
JP5136504B2 (ja) * 2009-04-02 2013-02-06 トヨタ自動車株式会社 物体識別装置
JP6488647B2 (ja) * 2014-09-26 2019-03-27 日本電気株式会社 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体
JP6656987B2 (ja) * 2016-03-30 2020-03-04 株式会社エクォス・リサーチ 画像認識装置、移動体装置、及び画像認識プログラム

Also Published As

Publication number Publication date
JP2019207523A (ja) 2019-12-05

Similar Documents

Publication Publication Date Title
EP3338248B1 (en) Systems and methods for object tracking
US11138467B2 (en) Method, device, product, and computer program for operating a technical system
JP6046666B2 (ja) 走路境界推定装置及び走路境界推定方法
JP7176478B2 (ja) 画像認識装置
JP5178276B2 (ja) 画像認識装置
US10474884B2 (en) Action determination device
CN106183979A (zh) 一种根据车距对车辆进行提醒的方法和装置
JP7311310B2 (ja) 情報処理装置、情報処理方法及びプログラム
Lee et al. A memory model based on the Siamese network for long-term tracking
JP2019215755A (ja) 画像認識装置、画像認識方法、機械学習モデル提供装置、機械学習モデル提供方法、機械学習モデル生成方法、および機械学習モデル装置
JP6953818B2 (ja) 動作判定装置
JP2012118683A (ja) 歩行者認識装置
JP2020177648A (ja) 遺留物誤検出の認識方法、装置及び画像処理装置
CN107430821B (zh) 图像处理装置
JP6871199B2 (ja) 目標物認識装置
JP2016173795A (ja) 画像処理装置、画像処理方法およびプログラム
CN111178218B (zh) 一种基于人脸识别的多特征联合视频追踪方法及***
US20200226763A1 (en) Object Detection Method and Computing System Thereof
JP2008243111A (ja) 画像処理装置および画像処理方法
CN116434156A (zh) 目标检测方法、存储介质、路侧设备及自动驾驶***
JP2010128961A (ja) 画像監視装置
CN115082526A (zh) 目标追踪方法及装置
US20230343105A1 (en) Method for detecting road users
Tian et al. Tracking vulnerable road users with severe occlusion by adaptive part filter modeling
WO2011157280A1 (en) Method of predetermined road object recognition in images and vehicle driving assistance device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210415

R150 Certificate of patent or registration of utility model

Ref document number: 6871199

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250