JP7280426B1 - 物体検出装置および物体検出方法 - Google Patents

物体検出装置および物体検出方法 Download PDF

Info

Publication number
JP7280426B1
JP7280426B1 JP2022175367A JP2022175367A JP7280426B1 JP 7280426 B1 JP7280426 B1 JP 7280426B1 JP 2022175367 A JP2022175367 A JP 2022175367A JP 2022175367 A JP2022175367 A JP 2022175367A JP 7280426 B1 JP7280426 B1 JP 7280426B1
Authority
JP
Japan
Prior art keywords
detection result
machine learning
detection
image
object included
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022175367A
Other languages
English (en)
Other versions
JP2024066084A (ja
Inventor
貴広 上原
昇 蛯子
大輔 武内
優里 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2022175367A priority Critical patent/JP7280426B1/ja
Application granted granted Critical
Publication of JP7280426B1 publication Critical patent/JP7280426B1/ja
Publication of JP2024066084A publication Critical patent/JP2024066084A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】物体検出における誤検出を抑制して検出精度向上を可能とする。【解決手段】物体検出装置100は、背景差分の手法を用いて画像(カメラ200の撮像画像)に含まれる物体を検出し、検出結果である背景差分検出結果を出力する背景差分処理部112と、機械学習の手法を用いて画像に含まれる物体を検出し、検出結果である機械学習検出結果を出力する機械学習処理部113と、背景差分検出結果および機械学習検出結果を基に、当該画像に含まれる物体を検出する誤検出抑制部114と、を備える。誤検出抑制部114は、背景差分検出結果に含まれる物体の位置と機械学習検出結果に含まれる物体の位置とが一致する場合に、当該物体を検出してもよいし、機械学習検出結果に含まれる物体の検出の確信度が所定値以上である場合に、当該物体を検出してもよい。【選択図】図1

Description

本発明は、撮像画像に含まれる物体を検出する物体検出装置および物体検出方法に関する。
製造やセキュリティ、社会基盤など様々な分野において、カメラが撮像した画像に写る検出対象を見つける物体検出が行われている。物体検出技術は、例えば道路監視用カメラの撮像画像から車道上にある障害物の検出や、防犯カメラの撮像画像から侵入者の検出に用いられる。
物体検出技術として背景差分を用いる手法が存在する。特許文献1に記載の道路交通異常検出方法は、入力画像から背景画像を除去して車両画像のみを抽出する。
特開平06-274786号公報
背景差分手法を用いた物体検出は、カメラの振動、光源の移動などの外部影響を受けやすく、誤検出が多いという問題がある。他の手法として、機械学習技術の1つである深層学習(Deep Learning)が存在する。しかし、学習データが少ないと検出精度が低く、検出対象と色合いや形状が似ている物体を誤検出してしまうという問題がある。深層学習の検出精度向上のためには再学習用の画像データ(再学習用データ)の収集が必要だが、カメラの撮像画像のなかで検出対象の物体が存在している画像は一部しかない。このため、再学習用データの収集には、膨大な画像のなかから深層学習の検出精度向上に寄与する画像のみを収集するという困難な問題がある。
本発明は、このような背景に鑑みてなされたものであり、物体検出における誤検出を抑制して検出精度向上を可能とする物体検出装置および物体検出方法を提供することを課題とする。
上記した課題を解決するため、本発明に係る物体検出装置は、背景差分の手法を用いて画像に含まれる物体を検出し、検出結果である背景差分検出結果を出力する背景差分処理部と、機械学習の手法を用いて当該画像に含まれる物体を検出し、検出結果である機械学習検出結果を出力する機械学習処理部と、前記背景差分検出結果および前記機械学習検出結果を基に、当該画像に含まれる物体を検出する誤検出抑制部と、を備え、前記誤検出抑制部は、前記背景差分検出結果に含まれる物体の位置と前記機械学習検出結果に含まれる物体の位置とが一致する場合に、当該物体を検出する。
また本発明に係る物体検出装置は、背景差分の手法を用いて画像に含まれる物体を検出し、検出結果である背景差分検出結果を出力する背景差分処理部と、機械学習の手法を用いて当該画像に含まれる物体を検出し、検出結果である機械学習検出結果を出力する機械学習処理部と、前記背景差分検出結果および前記機械学習検出結果を基に、当該画像に含まれる物体を検出する誤検出抑制部と、を備え、前記誤検出抑制部は、前記背景差分検出結果に含まれる物体の形状または大きさと、前記機械学習検出結果に含まれる物体の種別とが対応しない場合には、当該物体を検出しない。
本発明に係る物体検出装置は、背景差分の手法を用いて画像に含まれる物体を検出し、検出結果である背景差分検出結果を出力する背景差分処理部と、機械学習の手法を用いて当該画像に含まれる物体を検出し、検出結果である機械学習検出結果を出力する機械学習処理部と、前記背景差分検出結果および前記機械学習検出結果を基に、当該画像に含まれる物体を検出する誤検出抑制部と、前記背景差分検出結果に含まれる物体と位置とが一致する物体が前記機械学習検出結果に含まれない前記画像、および、前記機械学習検出結果に含まれる物体と位置とが一致する物体が前記背景差分検出結果に含まれない前記画像を、前記機械学習処理部が用いる機械学習モデルの再学習用データとして収集する再学習用データ収集部と、を備える。
また本発明に係る物体検出装置は、 背景差分の手法を用いて画像に含まれる物体を検出し、検出結果である背景差分検出結果を出力する背景差分処理部と、機械学習の手法を用いて当該画像に含まれる物体を検出し、検出結果である機械学習検出結果を出力する機械学習処理部と、前記背景差分検出結果および前記機械学習検出結果を基に、当該画像に含まれる物体を検出する誤検出抑制部と、前記背景差分検出結果に含まれる物体と位置とが一致する物体が前記機械学習検出結果に含まれない前記画像を、前記機械学習処理部が用いる機械学習モデルの再学習用データとして収集する再学習用データ収集部と、を備える。
本発明によれば、物体検出における誤検出を抑制して検出精度向上を可能とする物体検出装置および物体検出方法を提供することができる。上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。
本実施形態に係る物体検出装置の機能ブロック図である。 本実施形態に係る物体検出処理を説明するための撮像画像である。 本実施形態に係る背景差分処理部の検出結果を説明するための画像である。 本実施形態に係る機械学習処理部の検出結果を説明するための画像である。 本実施形態に係る再学習用データを説明するための図である。 本実施形態に係る物体検出処理のフローチャートである。 本実施形態の変形例に係る判定基準テーブルのデータ構成図である。
≪物体検出装置の概要≫
以下に本発明を実施するための形態(実施形態)における物体検出装置について説明する。物体検出装置は、背景差分手法を用いた物体検出結果と、機械学習を用いた物体検出結果とが一致した場合に、物体を検出したと判定する。物体検出装置は、背景差分では物体が検出されない場合であっても、機械学習における検出の確信度が所定値より高い場合には、物体を検出したと判定してもよい。また物体検出装置は、背景差分手法で物体が検出され、機械学習では検出されなかった画像を、機械学習モデル(物体検出モデル)の再学習用データとして収集する。
このような物体検出装置によれば、背景差分手法や機械学習を単独で用いた物体検出より高精度に物体を検出できるようになる。また、物体検出装置が収集した再学習用データを用いて機械学習モデルを再訓練することで、さらなる物体検出精度の向上が見込める。
≪物体検出装置の構成≫
図1は、本実施形態に係る物体検出装置100の機能ブロック図である。物体検出装置100はコンピュータであり、制御部110、記憶部120、および入出力部180を備える。入出力部180には、ディスプレイやキーボード、マウスなどのユーザインターフェイス機器が接続される。入出力部180は通信デバイスを備えており、カメラ200が撮像した画像(撮像画像)を受信する。
≪物体検出装置:記憶部≫
記憶部120は、ROM(Read Only Memory)やRAM(Random Access Memory)、SSD(Solid State Drive)などの記憶機器を含んで構成される。記憶部120には、画像データベース130、物体検出モデル121、背景画像122、およびプログラム128が記憶される。
画像データベース130には、カメラ200から受信した撮像画像、タイムスタンプ、および検出された物体が関連付けられて記憶される。検出された物体については、後記する。
物体検出モデル121は、画像に写る物体を検出する機械学習モデルである。詳しく説明すると物体検出モデル121は、撮像画像を入力とし、当該撮像画像に写る物体の位置、当該物体の種別、および当該物体の検出の確信度を出力する機械学習処理が用いる機械学習モデルである。物体検出モデル121は、例えば畳み込みニューラルネットワークやVision Transformerを用いた機械学習モデルである。
背景画像122は、撮影画像から背景差分手法を用いて物体を検出する際に参照される画像である。背景画像122は、検出対象となる物体が写っていない撮像画像である。背景画像122は、例えば検出対象となる物体が写っていないカメラ200が撮像した複数の撮像画像の平均値となる画像である。
プログラム128は、物体検出処理(後記する図6参照)の手順の記述を含む。
≪物体検出装置:制御部≫
制御部110は、CPU(Central Processing Unit)を含んで構成され、画像取得部111、背景差分処理部112、機械学習処理部113、誤検出抑制部114、および再学習用データ収集部115が備わる。制御部110は、GPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)などを含んで構成されてもよい。
≪制御部:画像取得部、背景差分処理部≫
画像取得部111は、カメラ200の撮像画像を取得し、タイムスタンプ(撮像日時情報)とともに画像データベース130に格納する。
背景差分処理部112は、撮像画像と背景画像122との差分を算出することで物体を検出する。以下に背景差分処理部112の物体検出結果を説明する。
図2は、本実施形態に係る物体検出処理を説明するための撮像画像310である。撮像画像310は、カメラ200がトンネル内を写した画像であって、照明灯311、非常口サイン312、および車両313が写っている。照明灯311、非常口サイン312、および車両313のなかで検出対象となる物体は車両313である。
図3は、本実施形態に係る背景差分処理部112の検出結果を説明するための画像320である。背景差分処理部112は、背景画像122との差分として、照明灯311に対応する差分画像321と、車両313に対応する差分画像323とを検出する。照明灯311は物体検出の対象外であるが、輝度が変化するために誤検出する場合がある。このように背景差分処理部112が出力する検出結果(背景差分検出結果)である差分画像321,323には、誤検出(差分画像321)が含まれる。背景差分処理部112は、検出結果を画像データベース130に記録する。
以上に説明したように物体検出装置100は、背景差分の手法を用いて画像(撮像画像)に含まれる物体を検出し、検出結果である背景差分検出結果を出力する背景差分処理部112を備える。
≪制御部:機械学習処理部≫
図1に戻って制御部110の説明を続ける。機械学習処理部113は、物体検出モデル121を用いて撮像画像に写る物体を検出する。図4は、本実施形態に係る機械学習処理部113の検出結果を説明するための画像330である。機械学習処理部113は、検出結果(機械学習検出結果)として、非常口サイン312を示すバウンディングボックス332、「非常口サイン」という物体種別および確信度、並びに、車両313を示すバウンディングボックス333、「乗用車」という物体種別および確信度を出力する。確信度は、検出結果の確からしさであり、例えば0~100の数値で示される。非常口サイン312は物体検出の対象外であるが、物体として検出される。このように機械学習処理部113が出力する検出結果には、誤検出(バウンディングボックス332参照)が含まれる。機械学習処理部113は、検出結果を画像データベース130に記録する。
以上に説明したように物体検出装置100は、機械学習の手法を用いて画像(撮像画像)に含まれる物体を検出し、検出結果である機械学習検出結果を出力する機械学習処理部113を備える。
≪制御部:誤検出抑制部≫
図1に戻って制御部110の説明を続ける。誤検出抑制部114は、背景差分処理部112が出力する背景差分検出結果、および機械学習処理部113が出力する機械学習検出結果の双方に含まれる物体を物体検出結果として出力する。背景差分検出結果には差分画像321,323(図3参照)が含まれ、機械学習検出結果にはバウンディングボックス332,333(図4参照)が含まれる。
このなかで、バウンディングボックス333と差分画像323とは、位置が重なり(位置が一致するとも記す)、バウンディングボックス333は差分画像323を囲んで含んでいる。このような場合に誤検出抑制部114は、バウンディングボックス333と差分画像323とは、同じ物体を検出していると判定し、機械学習検出結果に含まれる物体種別「乗用車」と確信度と合わせて物体検出結果として出力する。換言すれば誤検出抑制部114は、背景差分検出結果および機械学習検出結果のうち、何れか一方のみに含まれる検出結果は誤検出と見なして、物体検出結果には含めない。誤検出抑制部114は、誤検出を含めて検出結果を画像データベース130に記録する。
以上に説明したように物体検出装置100は、背景差分検出結果および機械学習検出結果を基に、画像(撮像画像)に含まれる物体を検出する誤検出抑制部114を備える。
誤検出抑制部114は、背景差分検出結果に含まれる物体の位置と機械学習検出結果に含まれる物体の位置とが一致する場合に、当該物体を検出する。
≪制御部:再学習用データ収集部≫
再学習用データ収集部115は、物体検出モデル121の再学習用の撮像画像を収集する。詳しく説明すると再学習用データ収集部115は、背景差分検出結果と機械学習検出結果とが異なり、対応しない差分画像やバウンディングボックスが含まれる場合には、背景差分処理部112、および機械学習処理部113の入力である撮像画像を再学習用データに含める。再学習用データ収集部115は、再学習用データとして収集した撮像画像を画像データベース130に記録する。
図5は、本実施形態に係る再学習用データを説明するための図である。マル「〇」は検出対象物体を含む撮像画像を示し、バツ「×」は検出対象物体を含まない撮像画像を示す。楕円351に含まれるマルとバツとは、機械学習処理部113が物体を検出した撮像画像を示す。楕円355に含まれるマルとバツとは、背景差分処理部112が物体を検出した撮像画像を示す。楕円351の内側で楕円355の外側の領域352にあるバツは、機械学習処理部113が誤検出した物体を含む撮像画像である。楕円355の内側で楕円351の外側の領域354にあるバツは、背景差分処理部112が誤検出した物体を含む撮像画像である。領域354にあるマルは、機械学習処理部113が未検出の検出対象物体を含む撮像画像であり、再学習用データとなる撮像画像である。
再学習用データ収集部115は、領域352,354にある撮像画像を再学習用データとして収集する。換言すれば再学習用データ収集部115は、背景差分検出結果および機械学習検出結果が異なる撮像画像を収集する。収集された再学習用データは、人手で検出対象物体を含む再学習用データが抽出され、検出対象物体にバウンディングボックスと物体種別が付与(アノテーション)されて、物体検出モデル121の再学習に利用される。
以上に説明したように物体検出装置100は、背景差分検出結果に含まれる物体と位置とが一致する物体が機械学習検出結果に含まれない画像(撮像画像)、および、機械学習検出結果に含まれる物体と位置とが一致する物体が背景差分検出結果に含まれない画像を、機械学習処理部113が用いる機械学習モデル(物体検出モデル121)の再学習用データとして収集する再学習用データ収集部115を備える。
≪物体検出処理≫
図6は、本実施形態に係る物体検出処理のフローチャートである。図6を参照しながら物体検出装置100が撮像画像ごとに繰り返し実行する物体検出処理を説明する。
ステップS11において画像取得部111は、カメラ200から撮像画像を取得し、画像データベース130に格納する。
ステップS12において背景差分処理部112は、背景差分の手法を用いてステップS11で取得した撮像画像から物体を検出して、背景差分検出結果として出力する。
ステップS13において機械学習処理部113は、物体検出モデル121を用いてステップS11で取得した撮像画像から物体を検出して、機械学習検出結果として出力する。
ステップS14において誤検出抑制部114は、ステップS12,S13の何れかで物体が検出されれば(ステップS14→YES)ステップS15に進み、ステップS12,S13の何れでも物体が検出されなければ(ステップS14→NO)物体検出処理を終了する。
ステップS15において誤検出抑制部114は、背景差分検出結果および機械学習検出結果に含まれる検出物体(図3記載の差分画像321,323、図4記載のバウンディングボックス332,333参照)ごとにステップS16~S20の処理を繰り返す。以下、この繰り返す処理の対象となる検出物体を処理対象検出物体と記す。
ステップS16において誤検出抑制部114は、処理対象検出物体に最も近く、処理対象検出物体になっていない(未処理の)検出物体を探す。誤検出抑制部114は、処理対象物体が背景差分検出結果に含まれれば、機械学習検出結果に含まれる検出物体のなかで最も近い検出物体を探す。また誤検出抑制部114は、処理対象物体が機械学習検出結果に含まれれば、背景差分検出結果に含まれる検出物体のなかで最も近い検出物体を探す。処理対象検出物体および検出物体(以下、最近傍検出物体と記す)は、一方が背景差分検出結果に含まれ、他方は機械学習検出結果に含まれる。
ステップS17において誤検出抑制部114は、ステップS16で見つかった最近傍検出物体の位置と処理対象検出物体の位置とが一致すれば(ステップS17→YES)ステップS18に進み、不一致ならば(ステップS17→NO)ステップS20に進む。ここで位置が一致するとは、最近傍検出物体および処理対象検出物体のうち機械学習検出結果に含まれる一方のバウンディングボックスが、背景差分検出結果に含まれる他方の差分画像を含む(囲う)ということである。
ステップS18において誤検出抑制部114は、最近傍検出物体と処理対象検出物体とが、背景差分処理部112と機械学習処理部113との双方が検出した物体であるという検出結果を、画像データベース130に記録する。
ステップS19において誤検出抑制部114は、ステップS18で記録された物体を検出結果として出力する。出力先は、例えば入出力部180を介して通信可能な監視システムであり、物体の位置や種別を含む。なお、最近傍検出物体は、以降の繰り返し処理の対象から外される。
ステップS20において誤検出抑制部114は、処理対象検出物体を、誤検出された物体であるという検出結果を、画像データベース130に記録する。この検出結果には、背景差分処理部112および機械学習処理部113の何れが検出したかを含む。
≪物体検出装置の特徴≫
物体検出装置100は、背景差分手法を用いた背景差分検出結果と、物体検出モデル121を用いた機械学習検出結果とが一致した場合に、物体を検出したと判定する。また物体検出装置100は、背景差分検出結果と機械学習検出結果とが一致しなかった物体を含む撮像画像を再学習用データとして収集する。
物体検出装置100によれば、背景差分手法や機械学習を単独で用いた物体検出より高精度に物体を検出できるようになる。また、物体検出装置100が収集した再学習用データを用いて物体検出モデル121を再訓練することで、さらなる物体検出精度の向上が見込める。
≪変形例:物体検出の判定基準≫
誤検出抑制部114は、背景差分処理部112、および機械学習処理部113の双方が検出した場合に検出対象の物体と判定している。誤検出抑制部114は、機械学習処理部113が出力する確信度に応じて判定基準を変えてもよい。
図7は、本実施形態の変形例に係る判定基準テーブル140のデータ構成図である。判定基準テーブル140は記憶部120に記憶され、誤検出抑制部114が参照する。テーブルの列は機械学習処理部113が出力する確信度を示し、行は背景差分処理部112の検出結果を示す。誤検出抑制部114は、背景差分処理部112が検出した物体であって、機械学習処理部113の確信度が40以上であれば、物体と判定する。また、誤検出抑制部114は、背景差分処理部112が未検出であっても、機械学習処理部113の確信度が80以上であれば、物体と判定する。換言すれば誤検出抑制部114は、機械学習処理部113が出力した確信度が十分高く所定値以上であれば、背景差分処理部112の結果によらず物体と判定する。
また別の判定基準として、機械学習処理部113が出力する物体種別と、背景差分処理部112が出力する差分画像とが対応するかを、判定基準に含めてもよい。誤検出抑制部114は、例えば物体種別と差分画像の形状や大きさとが対応しているかを判定する。二輪車と乗用車とトラックとを比較すると、差分画像の形状や大きさが異なる。物体種別と、差分画像の形状または大きさとが対応しない場合には、誤検出抑制部114は誤検出と判定するようにしてもよい。
以上に説明したように誤検出抑制部114は、機械学習検出結果に含まれる物体の検出の確信度が所定値以上である場合に、当該物体を検出する。
また誤検出抑制部114は、背景差分検出結果に含まれる物体の形状または大きさと、機械学習検出結果に含まれる物体の種別とが対応しない場合には、当該物体を検出しない。
≪変形例:再学習用データ≫
再学習用データ収集部115は、背景差分検出結果と機械学習検出結果とが異なる撮像画像を再学習用データとして収集する。これは、領域352,354(図5参照)に含まれる撮像画像を収集していることになる。これに対して再学習用データ収集部115は、背景差分処理部112が検出した物体で、機械学習処理部113が検出していない物体を含む撮像画像を再学習用データとして収集してもよい。このような撮像画像は、領域354に含まれる。
さらに再学習用データ収集部115は、背景差分処理部112が検出し、機械学習処理部113が検出していない物体である差分画像を囲むバウンディングボックスを、撮像画像に示して再学習用データとしてもよい。このバウンディングボックスは、機械学習処理部113が見逃した物体の候補を示しており、アノテーションの工数削減に寄与する。
以上に説明したように物体検出装置100は、背景差分検出結果に含まれる物体と位置とが一致する物体が機械学習検出結果に含まれない画像(撮像画像)を、機械学習処理部113が用いる機械学習モデル(物体検出モデル121)の再学習用データとして収集する再学習用データ収集部115を備える。
≪その他変形例≫
以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。機械学習処理部113は、検出した物体の位置を、辺が撮像画像の辺に平行となる物体を囲う矩形のバウンディングボックスで示しているが、これに限らず物体を囲う多角形や曲線であってもよい。多角形や曲線の場合における差分画像との一致の判定は、多角形や曲線が囲む領域と差分画像の重なり度合いを基に判定してもよい。例えば重なる領域が、差分画像やバウンディングボックスの所定比以上の面積であれば一致と判定してもよい。
本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100 物体検出装置
111 画像取得部
112 背景差分処理部
113 機械学習処理部
114 誤検出抑制部
115 再学習用データ収集部
121 物体検出モデル
122 背景画像
128 プログラム
130 画像データベース
140 判定基準テーブル

Claims (8)

  1. 背景差分の手法を用いて画像に含まれる物体を検出し、検出結果である背景差分検出結果を出力する背景差分処理部と、
    機械学習の手法を用いて当該画像に含まれる物体を検出し、検出結果である機械学習検出結果を出力する機械学習処理部と、
    前記背景差分検出結果および前記機械学習検出結果を基に、当該画像に含まれる物体を検出する誤検出抑制部と、を備え
    前記誤検出抑制部は、
    前記背景差分検出結果に含まれる物体の位置と前記機械学習検出結果に含まれる物体の位置とが一致する場合に、当該物体を検出する
    物体検出装置。
  2. 背景差分の手法を用いて画像に含まれる物体を検出し、検出結果である背景差分検出結果を出力する背景差分処理部と、
    機械学習の手法を用いて当該画像に含まれる物体を検出し、検出結果である機械学習検出結果を出力する機械学習処理部と、
    前記背景差分検出結果および前記機械学習検出結果を基に、当該画像に含まれる物体を検出する誤検出抑制部と、を備え
    前記誤検出抑制部は、
    前記背景差分検出結果に含まれる物体の形状または大きさと、前記機械学習検出結果に含まれる物体の種別とが対応しない場合には、当該物体を検出しない
    物体検出装置。
  3. 背景差分の手法を用いて画像に含まれる物体を検出し、検出結果である背景差分検出結果を出力する背景差分処理部と、
    機械学習の手法を用いて当該画像に含まれる物体を検出し、検出結果である機械学習検出結果を出力する機械学習処理部と、
    前記背景差分検出結果および前記機械学習検出結果を基に、当該画像に含まれる物体を検出する誤検出抑制部と
    前記背景差分検出結果に含まれる物体と位置とが一致する物体が前記機械学習検出結果に含まれない前記画像、および、前記機械学習検出結果に含まれる物体と位置とが一致する物体が前記背景差分検出結果に含まれない前記画像を、前記機械学習処理部が用いる機械学習モデルの再学習用データとして収集する再学習用データ収集部と、を備える
    物体検出装置。
  4. 背景差分の手法を用いて画像に含まれる物体を検出し、検出結果である背景差分検出結果を出力する背景差分処理部と、
    機械学習の手法を用いて当該画像に含まれる物体を検出し、検出結果である機械学習検出結果を出力する機械学習処理部と、
    前記背景差分検出結果および前記機械学習検出結果を基に、当該画像に含まれる物体を検出する誤検出抑制部と
    前記背景差分検出結果に含まれる物体と位置とが一致する物体が前記機械学習検出結果に含まれない前記画像を、前記機械学習処理部が用いる機械学習モデルの再学習用データとして収集する再学習用データ収集部と、を備える
    物体検出装置。
  5. 物体検出装置が、
    背景差分の手法を用いて画像に含まれる物体を検出し、検出結果である背景差分検出結果を出力するステップと、
    機械学習の手法を用いて当該画像に含まれる物体を検出し、検出結果である機械学習検出結果を出力するステップと、
    前記背景差分検出結果および前記機械学習検出結果を基に、当該画像に含まれる物体を検出するステップと、を実行し、
    前記物体を検出するステップにおいて、前記背景差分検出結果に含まれる物体の位置と前記機械学習検出結果に含まれる物体の位置とが一致する場合に、当該物体を検出する
    物体検出手法。
  6. 物体検出装置が、
    背景差分の手法を用いて画像に含まれる物体を検出し、検出結果である背景差分検出結果を出力するステップと、
    機械学習の手法を用いて当該画像に含まれる物体を検出し、検出結果である機械学習検出結果を出力するステップと、
    前記背景差分検出結果および前記機械学習検出結果を基に、当該画像に含まれる物体を検出するステップと、を実行し、
    前記物体を検出するステップにおいて、前記背景差分検出結果に含まれる物体の形状または大きさと、前記機械学習検出結果に含まれる物体の種別とが対応しない場合には、当該物体を検出しない
    物体検出手法。
  7. 物体検出装置が、
    背景差分の手法を用いて画像に含まれる物体を検出し、検出結果である背景差分検出結果を出力するステップと、
    機械学習の手法を用いて当該画像に含まれる物体を検出し、検出結果である機械学習検出結果を出力するステップと、
    前記背景差分検出結果および前記機械学習検出結果を基に、当該画像に含まれる物体を検出するステップと、
    前記背景差分検出結果に含まれる物体と位置とが一致する物体が前記機械学習検出結果に含まれない前記画像、および、前記機械学習検出結果に含まれる物体と位置とが一致する物体が前記背景差分検出結果に含まれない前記画像を、前記機械学習検出結果を出力するステップで用いる機械学習モデルの再学習用データとして収集するステップと、を実行する
    物体検出手法。
  8. 物体検出装置が、
    背景差分の手法を用いて画像に含まれる物体を検出し、検出結果である背景差分検出結果を出力するステップと、
    機械学習の手法を用いて当該画像に含まれる物体を検出し、検出結果である機械学習検出結果を出力するステップと、
    前記背景差分検出結果および前記機械学習検出結果を基に、当該画像に含まれる物体を検出するステップと、
    前記背景差分検出結果に含まれる物体と位置とが一致する物体が前記機械学習検出結果に含まれない前記画像を、前記機械学習検出結果を出力するステップで用いる機械学習モデルの再学習用データとして収集するステップと、を実行する
    物体検出手法。
JP2022175367A 2022-11-01 2022-11-01 物体検出装置および物体検出方法 Active JP7280426B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022175367A JP7280426B1 (ja) 2022-11-01 2022-11-01 物体検出装置および物体検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022175367A JP7280426B1 (ja) 2022-11-01 2022-11-01 物体検出装置および物体検出方法

Publications (2)

Publication Number Publication Date
JP7280426B1 true JP7280426B1 (ja) 2023-05-23
JP2024066084A JP2024066084A (ja) 2024-05-15

Family

ID=86395866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022175367A Active JP7280426B1 (ja) 2022-11-01 2022-11-01 物体検出装置および物体検出方法

Country Status (1)

Country Link
JP (1) JP7280426B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007058751A (ja) 2005-08-26 2007-03-08 Fujitsu Ten Ltd 物体判別装置、物体判別方法および物体判別プログラム
JP2016085487A (ja) 2014-10-22 2016-05-19 キヤノン株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
JP2022142165A (ja) 2021-03-16 2022-09-30 トヨタ自動車株式会社 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007058751A (ja) 2005-08-26 2007-03-08 Fujitsu Ten Ltd 物体判別装置、物体判別方法および物体判別プログラム
JP2016085487A (ja) 2014-10-22 2016-05-19 キヤノン株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
JP2022142165A (ja) 2021-03-16 2022-09-30 トヨタ自動車株式会社 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム

Also Published As

Publication number Publication date
JP2024066084A (ja) 2024-05-15

Similar Documents

Publication Publication Date Title
CN110781768A (zh) 目标对象检测方法和装置、电子设备和介质
CN108960266A (zh) 图像目标检测方法及装置
US20230072731A1 (en) System and method for panoptic segmentation of point clouds
CN111274926B (zh) 图像数据筛选方法、装置、计算机设备和存储介质
CN113033604A (zh) 一种基于SF-YOLOv4网络模型的车辆检测方法、***及存储介质
Ye et al. Application of lightweight railway transit object detector
Salma et al. Development of ANPR framework for Pakistani vehicle number plates using object detection and OCR
Farag A lightweight vehicle detection and tracking technique for advanced driving assistance systems
KC Enhanced pothole detection system using YOLOX algorithm
Benjdira et al. TAU: A framework for video-based traffic analytics leveraging artificial intelligence and unmanned aerial systems
Parvin et al. Vehicle number plate detection and recognition techniques: a review
CN113724286A (zh) 显著性目标的检测方法、检测设备及计算机可读存储介质
Srividhya et al. [Retracted] A Machine Learning Algorithm to Automate Vehicle Classification and License Plate Detection
Khan et al. A novel deep learning based anpr pipeline for vehicle access control
Soni et al. A review on strategic pavement maintenance with machine learning techniques
Matsuda et al. A system for real-time on-street parking detection and visualization on an edge device
JP7280426B1 (ja) 物体検出装置および物体検出方法
CN113449629B (zh) 基于行车视频的车道线虚实识别装置、方法、设备及介质
Caballo et al. YOLO-based Tricycle Detection from Traffic Video
Fadili et al. A one-stage modified Tiny-YOLOv3 method for Real time Moroccan license plate recognition
CN112016534B (zh) 车辆违停检测的神经网络的训练方法、检测方法和装置
JP2024516642A (ja) 行動検出方法、電子機器およびコンピュータ読み取り可能な記憶媒体
Mei et al. A cost effective solution for road crack inspection using cameras and deep neural networks
Adewopo et al. Smart city transportation: Deep learning ensemble approach for traffic accident detection
CN113065428A (zh) 基于特征选择的自动驾驶目标识别方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221101

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230511

R150 Certificate of patent or registration of utility model

Ref document number: 7280426

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150