JP7314645B2 - 物体検出プログラム、物体検出方法、及び、物体検出装置 - Google Patents

物体検出プログラム、物体検出方法、及び、物体検出装置 Download PDF

Info

Publication number
JP7314645B2
JP7314645B2 JP2019117022A JP2019117022A JP7314645B2 JP 7314645 B2 JP7314645 B2 JP 7314645B2 JP 2019117022 A JP2019117022 A JP 2019117022A JP 2019117022 A JP2019117022 A JP 2019117022A JP 7314645 B2 JP7314645 B2 JP 7314645B2
Authority
JP
Japan
Prior art keywords
detection
image
detected
masked
object image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019117022A
Other languages
English (en)
Other versions
JP2021005128A (ja
Inventor
稜 大岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019117022A priority Critical patent/JP7314645B2/ja
Publication of JP2021005128A publication Critical patent/JP2021005128A/ja
Application granted granted Critical
Publication of JP7314645B2 publication Critical patent/JP7314645B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、物体検出プログラム、物体検出方法、及び、物体検出装置に関する。
例えば、事件または事故などにおいて捜索対象の物体である車両または人物の画像である物体画像を検出するために、防犯カメラから取得される大量の映像データの解析が行われている。しかしながら、映像データの解析による物体画像の検出精度は依然100%ではなく、映像データに捜索対象の物体画像が含まれていても、適切に検出されない場合がある。
検出精度を100%に近づけるために多くの対策が施されているが、様々な条件で撮影される映像データの全てにおいて、物体画像の検出精度を100%に近づけることは困難である。検出精度が100%でないと、映像データに含まれているにもかかわらず検出されていない可能性がある物体画像を探すために、映像データを、例えば、肉眼で再検討することとなり、時間及び労力を要している。
特開2015-222881号公報
肉眼での再検討を容易にするために、映像データの解析によって検出された物体画像をマスクした映像データを生成する技術が存在する。しかしながら、画像解析によって検出されなかった、即ち、検出が困難である物体画像の検出は、物体画像をマスクしただけでは困難である場合がある。
本発明は、1つの側面として、映像データからの検出が困難である物体画像の検出精度を向上させることを目的とする。
1つの実施形態では、設定された検出条件に基づいて、検出対象画像から所定の物体を表す物体画像を検出する第1検出処理を実行し、検出対象画像における第1検出処理で検出した物体画像をマスクしたマスク済み画像を生成する。生成されたマスク済み画像から所定の物体を表す物体画像を過検出可能とする処理を行った後、マスク済み画像から物体画像を検出する第2検出処理を実行する。
本発明は、1つの側面として、映像データからの検出が困難である物体画像の検出精度を向上させることができる。
実施形態に係る物体検出装置の一例を示すブロック図である。 物体画像を囲む矩形の一例を示す概要図である。 物体画像を囲む矩形の一例を示す概要図である。 矩形領域内の画像の一例を示す概要図である。 物体画像をマスクするために使用する静止画像の一例を示す概要図である。 物体画像をマスクするために使用する画像の一例を示す概要図である。 物体画像がマスクされた検出対象画像の一例を示す概要図である。 物体画像がマスクされたマスク済み画像の一例を示す概要図である。 検出された物体画像を強調して表示した画像の一例を示す概要図である。 検出された物体画像を強調して表示した画像の一例を示す概要図である。 検出された物体画像を強調して表示した画像の一例を示す概要図である。 物体画像を囲む矩形の一例を示す概要図である。 マスク済み画像において検出された物体画像を囲む矩形の一例を示す概要図である。 物体検出装置のハードウェアの一例を示すブロック図である。 物体検出処理の一例を示すフローチャートである。 第1検出部の検出結果及び第2検出部の検出結果を例示する概要図である。
以下、図面を参照して実施形態の一例を詳細に説明する。
図1に示す物体検出装置10は、映像データ入力部11、第1検出部12、マスク部13、第2検出部14、及び、映像データ出力部15を含む。映像データ入力部11は、例えば、街頭などに設置された監視カメラで撮影された映像データを入力し、映像データから所定時間毎の静止画像を抽出する。所定時間は、例えば、1/30[秒]であってよい。
第1検出部12は、検出対象画像である静止画像の各々から設定された検出条件に基づいて、検出対象となる人物または車両などである所定の物体を表す物体画像を検出する第1検出処理を実行する。検出条件は、例えば、予めユーザによって設定され、物体画像の検出には、既知の手法を使用する。第1検出部12は、検出された物体画像の静止画像上の座標を取得する。検出された物体画像の座標とは、例えば、検出された物体画像を囲む矩形の左上及び右下頂点の座標であってよい。なお、物体は、人物または車両に限定されない。例えば、人物が装着している装着物、または、車両に装着されている装着物などであってもよい。
図2Aに、検出対象画像から検出された物体画像を囲む矩形の左上頂点A及び右下頂点Bを例示する。ここでは、「歩いている人」を検出している。図2B及び図2Cに例示するように、図2Bにおいて矩形で囲まれた矩形領域内の画像Pを、図2Cに例示するように切り出し、検出結果の確認に利用してもよい。
マスク部13は、検出対象画像の矩形領域内の画像Pをマスクする。詳細には、マスク部13は、今回第1検出部12で検出された物体画像を囲む矩形の矩形領域RCと、以前第1検出部12で物体画像の検出が行われた静止画像R上の矩形領域RPとが重複するか否か判定する。重複しないと判定された場合に、矩形領域RC内の画像である画像Pを静止画像Rの矩形領域RCに対応する位置の画像と置き換えることで画像Pをマスクする。即ち、マスク部13は、第1検出部12で検出した物体画像の位置に対応する検出対象物体の背景画像を使用して、検出した物体画像をマスクする。
また、マスク部13は、上記判定において、重複しないと判定される静止画像Rが存在しない場合には、例えば、所定の色で矩形領域RCを塗りつぶすことでマスクする。
図3Aは、上記判定において、重複しないと判定される静止画像Rを例示する。静止画像Rは、映像データ入力部11から入力された映像データから抽出された静止画像の内、物体検出処理済みの静止画像から検索されてもよい。また、映像データ入力部11から入力された映像データを撮影した固定カメラで撮影され保存されていた映像データから抽出された静止画像の内、物体検出処理済みの静止画像から検索されてもよい。図3Bは、図3Aの静止画像の矩形領域RCに対応する位置の画像Qを例示する。
図3Cは、第1検出部12で検出された物体画像を囲む矩形の矩形領域RCを、画像Qでマスクしたマスク済み画像を例示する。重複しないと判定される静止画像Rが存在しない場合、図3Dに例示するように、所定の色で矩形領域RCを塗りつぶすことでマスクする。所定の色は、例えば、ユーザによって、RGB値が予め指定されることで決定されてもよい。また、所定の色に代えて、所定のパターンであってもよい。
第2検出部14は、矩形領域、即ち、第1検出部12で検出された物体画像をマスクした静止画像であるマスク済み画像から、再度同一物体画像を検出する第2検出処理を実行する。第2検出部14は、第1検出部12で検出しようとした物体画像を過検出するような検出を行う。即ち、第2検出部14は、物体画像が過検出されるようにマスク済み画像を加工するか、または、第1検出部12で使用した検出条件を物体画像が過検出されるように変更した検出条件を使用して検出を行う。
第2検出部14では、第1検出部12で使用した検出条件に基づいて、物体画像を過検出可能とする処理を行う。したがって、ユーザは、第2検出部14での検出のために別途検出条件を設定しなくてよい。また、第2検出部14では、検出した物体画像を強調して表示するための処理を行う。
図4Aは、第1検出部12で使用した検出条件が、例えば、「所定の色を含む人物」である場合、まず、マスク済み画像に対して、当該所定の色、例えば、赤を強調する処理、即ち、R値だけを高く変更する処理を行い、赤を含む人物の検出を行う場合を例示する。これにより、第1検出部12では検出されなかった赤を含む人物が検出される。
さらに、検出した物体画像を囲む矩形領域内において、当該所定の色、例えば、赤を強調するようにしてもよい。この場合、当該所定の色、例えば、赤であると判定された部分のR値だけを高く変更するようにしてもよいし、当該所定の色を当該所定の色とは異なる色、例えば、黄に変更してもよいし、表示される際に当該部分だけが点滅するように設定してもよい。また、当該所定の色の強調に加えて、物体画像を囲む矩形F1を静止画像に重畳してもよい。
図4Bでは、第2検出部14で検出した物体画像、即ち、「所定の色を含む人物」の移動を示すベクトルであるオプティカルフローを検出し、検出したオプティカルフローを示す矢印OFをマスク済み画像に重畳する。オプティカルフローに加えて、物体画像を囲む矩形をマスク済み画像に重畳してもよい。
図4Cは、例えば、第1検出部12で使用した検出条件よりも検出条件を低く設定して第2検出部14で「移動している人物」を検出した画像を例示する。検出条件を低く設定する、とは、例えば、ニューラルネットワークを使用した検出において、「移動している人物である」と判定するスコアを、第1検出部12で使用した値よりも低い値に設定することである。ここでは、第1検出部12で検出されなかった人物を囲む矩形F2及び第1検出部12で検出されマスクされた人物の影を囲む矩形F3をマスク済み画像に重畳する。
比較を容易にするため、図8の上図に、図2Aに例示する第1検出部12での検出結果を示し、図8の下図に図4Cで例示する第2検出部14の検出結果を示す。図8の上図に例示されるように第1検出部12では検出されなかった人物及び第1検出部12で検出されマスクされた人物の影が、図8の下図に例示されるように第2検出部14では検出される。人物の影は過検出であり不利益ではあるが、第2検出部14の検出では、第1検出部12では検出されなかった人物が検出される利益のほうが大きい。
映像データ出力部15は、第2検出部14の検出結果を示す情報を含むマスク済み画像を時系列に並べて結合することで、映像データを生成する。検出結果を示す情報は、上記した通り、検出した物体画像を強調して表示するための情報である。検出結果を示す情報は、検出された物体画像のオプティカルフローを示す矢印、検出された物体画像を囲む矩形、物体画像の検出条件を強調した情報、例えば、検出条件である色を強調した色などである。生成された映像データは、表示装置に表示されてもよいし、記憶装置に保存されてもよい。
なお、検出対象画像である1つの静止画像において検出する物体画像は、多数、例えば、3つ以上存在してもよい。図5Aに、第1検出部12で検出した人物の物体画像を囲む多数の矩形F4を例示する。図5Aでは、人物の物体画像が多数存在するため、矩形F4も多数存在する。
図5Bに、マスク部13で、矩形F4領域内の物体画像をマスクし、第2検出部14で、過検出するように、人物の物体画像を検出した例を示す。図5Bでは、第1検出部12で検出されていなかった右奥の人物が検出されている。右奥の人物の物体画像を囲む矩形F6を例示する。また、図5Bでは、図5Aの物体画像を囲む矩形F4に対応する矩形F5を例示しているが、矩形F5は、例えば、表示装置に表示されなくてもよい。
物体検出装置10は、一例として、図6に示すように、CPU(Central Processing Unit)51、一次記憶部52、二次記憶部53、及び、外部インタフェース54を含む。CPU51は、ハードウェアであるプロセッサの一例である。CPU51、一次記憶部52、二次記憶部53、及び、外部インタフェース54は、バス59を介して相互に接続されている。
一次記憶部52は、例えば、RAM(Random Access Memory)などの揮発性のメモリである。二次記憶部53は、例えば、HDD(Hard Disk Drive)、又はSSD(Solid State Drive)などの不揮発性のメモリである。
二次記憶部53は、プログラム格納領域53A及びデータ格納領域53Bを含む。プログラム格納領域53Aは、一例として、物体検出プログラムなどのプログラムを記憶している。データ格納領域53Bは、一例として、映像データなどを記憶する。
CPU51は、プログラム格納領域53Aから物体検出プログラムを読み出して一次記憶部52に展開する。CPU51は、物体検出プログラムをロードして実行することで、図1の映像データ入力部11、第1検出部12、マスク部13、第2検出部14、及び、映像データ出力部15として動作する。
なお、物体検出プログラムなどのプログラムは、外部サーバに記憶され、ネットワークを介して、一次記憶部52に展開されてもよい。また、物体検出プログラムなどのプログラムは、DVD(Digital Versatile Disc)などの非一時的記録媒体に記憶され、記録媒体読込装置を介して、一次記憶部52に展開されてもよい。
外部インタフェース54には外部装置が接続され、外部インタフェース54は、外部装置とCPU51との間の各種情報の送受信を司る。外部インタフェース54を介して接続されるカメラ21は、所定の位置に設置され、継続的に映像データを取得する監視カメラであってよい。
ここでは、1台のカメラ21のみを例示しているが、カメラは複数存在し、複数のカメラで撮影された映像データの各々に対し、物体検出処理が行われてもよい。同様に、外部インタフェース54を介して接続されるディスプレイ22は、例えば、第2検出部14の物体検出処理の結果を示す情報を含む映像データを表示する。カメラ21及びディスプレイ22は、外部インタフェース54に接続される代わりに、物体検出装置10に内蔵されていてもよい。
物体検出装置10は、例えば、パーソナルコンピュータであってもよいし、専用のデバイスであってもよい。
次に、物体検出処理の作用の概要について説明する。図7は、物体検出処理の流れを例示する。CPU51は、ステップ101で、映像データを入力する。カメラ21で取得した映像データをリアルタイムで入力してもよいし、カメラ21で取得され、データ格納部53Bまたは外部記憶装置に記憶されている映像データを入力してもよい。
CPU51は、ステップ102で、映像データから所定時間毎の静止画像を抽出する。ステップ103~ステップ108の処理は、静止画像の各々に対して行われる。CPU51は、ステップ103で、設定された検出条件に基づいて、既知の検出手法を使用して物体画像を検出する。CPU51は、ステップ104で物体画像が検出されたか否か判定する。ステップ104の判定が否定された場合、即ち、物体画像が検出されなかった場合、CPU51はステップ109に進む。
ステップ104の判定が肯定された場合、即ち、物体画像が検出された場合、CPU51は、ステップ105で、マスクに使用できる静止画像が存在するか否か判定する。例えば、ステップ103で検出された物体画像を囲む矩形の矩形領域RCと、以前に物体画像の検出が行われた静止画像R上の物体画像を囲む矩形領域RPとが重複するか否か判定する。重複しないと判定された場合、静止画像Rがマスクに使用できるマスク画像であると判定する。
ステップ105の判定が肯定された場合、CPU51は、ステップ106で、静止画像Rをマスク画像として使用して、物体画像をマスクする。例えば、検出した物体画像を囲む矩形領域RCを静止画像Rの矩形領域RCに対応する位置の画像と置き換えることで物体画像をマスクする。ステップ105の判定が否定された場合、CPU51は、ステップ107で、例えば、所定の色を使用して、検出した物体画像を囲む矩形領域RCをマスクする。
CPU51は、ステップ108で、ステップ106または107でマスクされたマスク済み画像から物体画像を検出する。ここでも、ステップ103と同様に既知の手法を使用する。しかしながら、ステップ108では、ステップ103で検出しようとした物体画像を過検出するような検出を行う。また、ステップ108では、検出した物体画像を強調して表示するための処理を行う。
CPU51は、ステップ109で、未処理の静止画像が存在するか否か判定する。ステップ109の判定が肯定された場合、即ち、未処理の静止画像が存在する場合、CPU51は、ステップ103に戻る。ステップ109の判定が否定された場合、即ち、未処理の静止画像が存在しない場合、CPU51は、ステップ110で、検出した物体画像を強調して表示するための処理が行われたマスク済み画像を時系列に結合して映像データを生成する。
CPU51は、ステップ111で、例えば、ディスプレイ22に生成した映像データを出力して表示する。生成した映像データは、例えば、データ格納領域53Bに格納されてもよいし、外部記憶装置に記憶されてもよい。なお、検出された物体画像を囲む形状は矩形に限定されない。例えば、円形または楕円形などであってもよい。図7のフローチャートは一例であり、処理の順序は適宜変更されてもよい。
本実施形態では、設定された検出条件に基づいて、検出対象画像から所定の物体を表す物体画像を検出する第1検出処理を実行し、検出対象画像における第1検出処理で検出した物体画像をマスクしたマスク済み画像を生成する。生成されたマスク済み画像から所定の物体を表す物体画像を過検出可能とする処理を行った後、マスク済み画像から物体画像を検出する第2検出処理を実行する。
即ち、本実施形態では、第1検出処理で検出された物体画像をマスクしたマスク済み画像から第2検出処理で当該物体画像を過検出するように検出している。これにより、本実施形態では、例えば、肉眼で映像データを再検討する場合、映像データからの検出が困難である物体画像の検出精度を向上させることができる。
以上の各実施形態に関し、更に以下の付記を開示する。
(付記1)
設定された検出条件に基づいて、検出対象画像から所定の物体を表す物体画像を検出する第1検出処理を実行し、
前記検出対象画像における前記第1検出処理で検出した前記物体画像をマスクしたマスク済み画像を生成し、
生成された前記マスク済み画像から前記所定の物体を表す物体画像を過検出可能とする処理を行った後、前記マスク済み画像から前記物体画像を検出する第2検出処理を実行する、
物体検出処理をコンピュータに実行させるための物体検出プログラム。
(付記2)
前記物体画像を過検出可能とする処理は、
前記マスク済み画像の加工、及び、前記検出条件の変更の少なくとも一方を行って、前記マスク済み画像から、前記第1検出処理では検出されない前記物体画像を検出可能とする処理である、
付記1の物体検出プログラム。
(付記3)
前記第2検出処理の検出結果を強調して表示装置に表示する、
付記1または付記2の物体検出プログラム。
(付記4)
前記第2検出処理の検出結果を強調することは、
検出した前記物体画像にオプティカルフローを付加すること、
検出した前記物体画像の検出条件に対応する情報を強調すること、
の少なくとも一方を含む、
付記1~付記3の何れかの物体検出プログラム。
(付記5)
前記マスク済み画像を生成することは、
前記第1検出処理で検出した前記物体画像の位置に対応する前記所定の物体の背景画像を使用して、検出した前記物体画像をマスクすること、または、
所定の色またはパターンを使用して、検出した前記物体画像をマスクすること、
を含む、
付記1~付記4の何れかの物体検出プログラム。
(付記6)
コンピュータが、
設定された検出条件に基づいて、検出対象画像から所定の物体を表す物体画像を検出する第1検出処理を実行し、
前記検出対象画像における前記第1検出処理で検出した前記物体画像をマスクしたマスク済み画像を生成し、
生成された前記マスク済み画像から前記所定の物体を表す物体画像を過検出可能とする処理を行った後、前記マスク済み画像から前記物体画像を検出する第2検出処理を実行する、
物体検出方法。
(付記7)
前記物体画像を過検出可能とする処理は、
前記マスク済み画像の加工、及び、前記検出条件の変更の少なくとも一方を行って、前記マスク済み画像から、前記第1検出処理では検出されない前記物体画像を検出可能とする処理である、
付記6の物体検出方法。
(付記8)
前記第2検出処理の検出結果を強調して表示装置に表示する、
付記6または付記7の物体検出方法。
(付記9)
前記第2検出処理の検出結果を強調することは、
検出した前記物体画像にオプティカルフローを付加すること、
検出した前記物体画像の検出条件に対応する情報を強調すること、
の少なくとも一方を含む、
付記6~付記8の何れかの物体検出方法。
(付記10)
前記マスク済み画像を生成することは、
前記第1検出処理で検出した前記物体画像の位置に対応する前記所定の物体の背景画像を使用して、検出した前記物体画像をマスクすること、または、
所定の色またはパターンを使用して、検出した前記物体画像をマスクすること、
を含む、
付記6~付記9の何れかの物体検出方法。
(付記11)
設定された検出条件に基づいて、検出対象画像から所定の物体を表す物体画像を検出する第1検出処理を実行する第1検出部と、
前記第1検出部で検出した前記物体画像をマスクしたマスク済み画像を生成するマスク部と、
前記マスク部で生成された前記マスク済み画像から前記所定の物体を表す物体画像を過検出可能とする処理を行った後、前記マスク済み画像から前記物体画像を検出する第2検出処理を実行する第2検出部と、
を含む、物体検出装置。
(付記12)
前記物体画像を過検出可能とする処理は、
前記マスク済み画像の加工、及び、前記検出条件の変更の少なくとも一方を行って、前記マスク済み画像から、前記第1検出処理では検出されない前記物体画像を検出可能とする処理である、
付記11の物体検出装置。
(付記13)
前記第2検出処理の検出結果を強調して表示装置に表示する、
付記11または付記12の物体検出装置。
(付記14)
前記第2検出処理の検出結果を強調することは、
検出した前記物体画像にオプティカルフローを付加すること、
検出した前記物体画像の検出条件に対応する情報を強調すること、
の少なくとも一方を含む、
付記11~付記13の何れかの物体検出装置。
(付記15)
前記マスク済み画像を生成することは、
前記第1検出処理で検出した前記物体画像の位置に対応する前記所定の物体の背景画像を使用して、検出した前記物体画像をマスクすること、または、
所定の色またはパターンを使用して、検出した前記物体画像をマスクすること、
を含む、
付記11~付記14の何れかの物体検出装置。
10 物体検出装置
12 第1検出部
13 マスク部
14 第2検出部
51 CPU
52 一次記憶部
53 二次記憶部

Claims (7)

  1. 設定された検出条件に基づいて、検出対象画像から所定の特徴を示す物体を表す物体画像を検出する第1検出処理を実行し、
    前記検出対象画像における前記第1検出処理で検出した前記物体画像をマスクしたマスク済み画像を生成し、
    生成された前記マスク済み画像から前記所定の特徴を示す物体と同一の特徴を示す物体を表す物体画像を過検出可能とする処理を行った後、前記マスク済み画像から前記所定の特徴を示す物体と同一の特徴を示す物体を表す前記物体画像を検出する第2検出処理を実行する、
    物体検出処理をコンピュータに実行させるための物体検出プログラム。
  2. 前記物体画像を過検出可能とする処理は、
    前記マスク済み画像の加工、及び、前記検出条件の変更の少なくとも一方を行って、前記マスク済み画像から、前記第1検出処理では検出されない前記所定の特徴を示す物体と同一の特徴を示す物体を表す前記物体画像を検出可能とする処理である、
    請求項1に記載の物体検出プログラム。
  3. 前記第2検出処理の検出結果を強調して表示装置に表示する、
    請求項1または請求項2に記載の物体検出プログラム。
  4. 前記第2検出処理の検出結果を強調することは、
    検出した前記物体画像にオプティカルフローを付加すること、
    検出した前記物体画像の検出条件に対応する情報を強調すること、
    の少なくとも一方を含む、
    請求項1~請求項3の何れか1項に記載の物体検出プログラム。
  5. 前記マスク済み画像を生成することは、
    前記第1検出処理で検出した前記物体画像の位置に対応する前記所定の特徴を示す物体の背景画像を使用して、検出した前記物体画像をマスクすること、または、
    所定の色またはパターンを使用して、検出した前記物体画像をマスクすること、
    を含む、
    請求項1~請求項4の何れか1項に記載の物体検出プログラム。
  6. コンピュータが、
    設定された検出条件に基づいて、検出対象画像から所定の特徴を示す物体を表す物体画像を検出する第1検出処理を実行し、
    前記検出対象画像における前記第1検出処理で検出した前記物体画像をマスクしたマスク済み画像を生成し、
    生成された前記マスク済み画像から前記所定の特徴を示す物体と同一の特徴を示す物体を表す物体画像を過検出可能とする処理を行った後、前記マスク済み画像から前記所定の特徴を示す物体と同一の特徴を示す物体を表す前記物体画像を検出する第2検出処理を実行する、
    物体検出方法。
  7. 設定された検出条件に基づいて、検出対象画像から所定の特徴を示す物体を表す物体画像を検出する第1検出処理を実行する第1検出部と、
    前記第1検出部で検出した前記物体画像をマスクしたマスク済み画像を生成するマスク部と、
    前記マスク部で生成された前記マスク済み画像から前記所定の特徴を示す物体と同一の特徴を示す物体を表す物体画像を過検出可能とする処理を行った後、前記マスク済み画像から前記所定の特徴を示す物体と同一の特徴を示す物体を表す前記物体画像を検出する第2検出処理を実行する第2検出部と、
    を含む、物体検出装置。
JP2019117022A 2019-06-25 2019-06-25 物体検出プログラム、物体検出方法、及び、物体検出装置 Active JP7314645B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019117022A JP7314645B2 (ja) 2019-06-25 2019-06-25 物体検出プログラム、物体検出方法、及び、物体検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019117022A JP7314645B2 (ja) 2019-06-25 2019-06-25 物体検出プログラム、物体検出方法、及び、物体検出装置

Publications (2)

Publication Number Publication Date
JP2021005128A JP2021005128A (ja) 2021-01-14
JP7314645B2 true JP7314645B2 (ja) 2023-07-26

Family

ID=74097661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019117022A Active JP7314645B2 (ja) 2019-06-25 2019-06-25 物体検出プログラム、物体検出方法、及び、物体検出装置

Country Status (1)

Country Link
JP (1) JP7314645B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010151762A (ja) 2008-12-26 2010-07-08 Seiko Epson Corp 欠陥検出方法および欠陥検出装置
JP2012022370A (ja) 2010-07-12 2012-02-02 Hitachi Kokusai Electric Inc 監視システムおよび監視方法
JP2012203680A (ja) 2011-03-25 2012-10-22 Secom Co Ltd 画像処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010151762A (ja) 2008-12-26 2010-07-08 Seiko Epson Corp 欠陥検出方法および欠陥検出装置
JP2012022370A (ja) 2010-07-12 2012-02-02 Hitachi Kokusai Electric Inc 監視システムおよび監視方法
JP2012203680A (ja) 2011-03-25 2012-10-22 Secom Co Ltd 画像処理装置

Also Published As

Publication number Publication date
JP2021005128A (ja) 2021-01-14

Similar Documents

Publication Publication Date Title
US10885365B2 (en) Method and apparatus for detecting object keypoint, and electronic device
Li et al. Finding the secret of image saliency in the frequency domain
JP6719457B2 (ja) 画像の主要被写体を抽出する方法とシステム
JP5763965B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6240199B2 (ja) 画像における対象物の識別方法及び装置
EP3113112A1 (en) Apparatus for and method of processing image based on object region
KR102476022B1 (ko) 얼굴검출 방법 및 그 장치
JP7093427B2 (ja) オブジェクト追跡方法および装置、電子設備並びに記憶媒体
JP7419080B2 (ja) コンピュータシステムおよびプログラム
US11720745B2 (en) Detecting occlusion of digital ink
JP6756406B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP5489340B2 (ja) 顔マスキング装置及び方法
CN110766027A (zh) 图像的区域定位方法和目标区域定位模型的训练方法
US20230060211A1 (en) System and Method for Tracking Moving Objects by Video Data
KR20200039043A (ko) 객체 인식 장치 및 그 동작 방법
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
KR102509823B1 (ko) 그리드 기반의 평면 추정 방법 및 장치
CN115210773A (zh) 利用对象实时检测模型实时检测对象的方法及优化方法
JP2007025902A (ja) 画像処理装置、画像処理方法
JP6132996B1 (ja) 画像処理装置,画像処理方法,画像処理プログラム
JP7314645B2 (ja) 物体検出プログラム、物体検出方法、及び、物体検出装置
JP2007026308A (ja) 画像処理方法、画像処理装置
JP6963038B2 (ja) 画像処理装置および画像処理方法
JP5952942B2 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20210055532A (ko) 전자 장치, 행동 인스턴스 생성 방법 및 기록 매체

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220308

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20230206

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20230206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230626

R150 Certificate of patent or registration of utility model

Ref document number: 7314645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150