JP2020017136A - 物体検出認識装置、方法、及びプログラム - Google Patents

物体検出認識装置、方法、及びプログラム Download PDF

Info

Publication number
JP2020017136A
JP2020017136A JP2018140533A JP2018140533A JP2020017136A JP 2020017136 A JP2020017136 A JP 2020017136A JP 2018140533 A JP2018140533 A JP 2018140533A JP 2018140533 A JP2018140533 A JP 2018140533A JP 2020017136 A JP2020017136 A JP 2020017136A
Authority
JP
Japan
Prior art keywords
recognition
detection
category
unit
candidate region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018140533A
Other languages
English (en)
Inventor
泳青 孫
Yongqing Sun
泳青 孫
慎吾 安藤
Shingo Ando
慎吾 安藤
杵渕 哲也
Tetsuya Kinebuchi
哲也 杵渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018140533A priority Critical patent/JP2020017136A/ja
Priority to PCT/JP2019/028838 priority patent/WO2020022329A1/ja
Publication of JP2020017136A publication Critical patent/JP2020017136A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

【課題】サイズの小さな物体についても精度よく検出及び認識ができる。【解決手段】物体の検出の対象となる画像を取得し、画像に含まれる背景と物体が写った前景とを分離し、分離された前景を表す領域のうち、所定のサイズ以下の領域を物体候補領域として抽出し、抽出された物体候補領域に基づいて、物体候補領域及び物体候補領域の周辺に対応する複数の入力画像を生成し、生成された複数の入力画像の各々を、予め学習された物体の検出及び物体のカテゴリの認識を行うためのCNNに入力して、入力画像の各々について入力画像に含まれる物体の位置を検出すると共に、入力画像の各々について検出された物体のカテゴリを認識し、入力画像の各々の物体のカテゴリの認識結果に基づいて、物体のカテゴリの認識結果を統合する。【選択図】図1

Description

本発明は、物体検出認識装置、方法、及びプログラムに係り、特に、画像の物体を検出し、認識するための物体検出認識装置、方法、及びプログラムに関する。
映像や画像の中から物体を検出し、検出した物体のカテゴリ(クラス)を認識する技術がある。この技術は、映像や画像のシーン内容を解析し理解するために用いられるものである。一般的な処理の流れとしては、まず、映像や画像から被写体(物体や人物)を表す物体候補領域を抽出する。そして、物体候補領域において物体の特徴量を求め、当該特徴量を用いてカテゴリの認識を行う。また、個々の物体候補領域の認識結果を統合することにより映像や画像中の物体の検出及び認識を実現する。例えば、深層学習による物体検出と認識検出は次のような方法がある。
まず、入力画像をS*Sのセルの領域に分割し、領域ごとに幅と長さの異なるP個のバウンディングボックスを予め決めておく。次に、入力画像をCNN(Convolutional Neural Network)などのニューラルネットワークのモデル(例えば、VGG(Visual Geometry Group))において、S*S領域内の物体があるカテゴリに属する確率と、セルに対応するP個のバウンディングボックスと、信頼度(信頼度の指標はバウンディングボックスの長さ、高さ、及び座標に応じて定まる)の高い真の物体の領域を表すバウンディングボックスとを同時に導出することで、物体の検出及び認識とを実現できる。
"You Only Look Once: Unified, Real-Time Object Detection", Joseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi, CVPR2016
もっとも、実環境で撮影された画像や映像には、複雑な背景がある場合や、サイズの小さい物体が映されている場合がよくある。例えば、図4に示すような森や山の映像や、飛んでいるドローンや道路シーンにおいて小さな道路標識はよく挙げられる物体の検出と認識の対象である。
上記の非特許文献1に示すような従来手法は画像全体を固定サイズの候補領域に分割し、それぞれの分割領域ごとに物体の種類と領域推定を行っている。そのため、物体候補領域に複数の物体が映っている場合やサイズの小さい物体があった場合、CNNの層が深くなるにつれて出力の特徴マップにおけるそれらの物体を表現するための情報量(特徴量)が少なくなるため、検出及び認識の精度が低くなる問題が生じる。
本発明は、上記問題点を解決するために成されたものであり、サイズの小さな物体についても精度よく検出及び認識ができる物体検出認識装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、第1の発明に係る物体検出認識装置は、物体の検出の対象となる画像を取得し、前記画像に含まれる背景と物体が写った前景とを分離する分離部と、前記分離された前景を表す領域のうち、所定のサイズ以下の領域を物体候補領域として抽出する物体候補領域抽出部と、前記抽出された物体候補領域に基づいて、前記物体候補領域及び前記物体候補領域の周辺に対応する複数の入力画像を生成する入力画像生成部と、生成された前記複数の入力画像の各々を、予め学習された物体の検出及び前記物体のカテゴリの認識を行うためのCNN(Convolutional Neural Network)に入力して、前記入力画像の各々について前記入力画像に含まれる前記物体の位置を検出すると共に、前記入力画像の各々について検出された前記物体のカテゴリを認識し、前記入力画像の各々の前記物体のカテゴリの認識結果に基づいて、前記物体のカテゴリの前記認識結果を統合する検出認識部と、を含んで構成されている。
また、第1の発明に係る物体検出認識装置において、前記画像は、物体の検出の対象となる映像のシーンごとに取得し、前記シーンの画像ごとに、前記分離部、物体候補領域抽出部、入力画像生成部、及び検出認識部の各処理を行うようにしてもよい。
また、第1の発明に係る物体検出認識装置において、前記入力画像生成部は、前記抽出された物体候補領域及び前記物体候補領域の周辺から得られる複数の領域をアップサンプリングすることにより前記複数の入力画像を生成するようにしてもよい。
また、第1の発明に係る物体検出認識装置において、前記検出認識部の前記認識結果の統合は、前記入力画像の各々についてのカテゴリの認識において算出されるカテゴリの各々の信頼度から求められる、カテゴリごとの前記信頼度の最大値、又は平均値を用いて、最も前記信頼度が高いカテゴリを求め、統合した認識結果とするようにしてもよい。
また、第1の発明に係る物体検出認識装置において、前記検出認識部で前記画像から検出された物体、及び前記物体のカテゴリを用いて、前記CNNを学習する学習部を更に含み、前記検出認識部により、学習した前記CNNを用いて、前記検出及び前記認識を行うようにしてもよい。
第2の発明に係る物体検出認識方法は、分離部が、物体の検出の対象となる画像を取得し、前記画像に含まれる背景と物体が写った前景とを分離するステップと、物体候補領域抽出部が、前記分離された前景を表す領域のうち、所定のサイズ以下の領域を物体候補領域として抽出するステップと、入力画像生成部が、前記抽出された物体候補領域に基づいて、前記物体候補領域及び前記物体候補領域の周辺に対応する複数の入力画像を生成するステップと、検出認識部が、生成された前記複数の入力画像の各々を、予め学習された物体の検出及び前記物体のカテゴリの認識を行うためのCNN(Convolutional Neural Network)に入力して、前記入力画像の各々について前記入力画像に含まれる前記物体の位置を検出すると共に、前記入力画像の各々について検出された前記物体のカテゴリを認識し、前記入力画像の各々の前記物体のカテゴリの認識結果に基づいて、前記物体のカテゴリの前記認識結果を統合するステップと、を含んで実行することを特徴とする。
第3の発明に係るプログラムは、コンピュータを、第1の発明に記載の物体検出認識装置の各部として機能させるためのプログラムである。
本発明の物体検出認識装置、方法、及びプログラムによれば、物体の検出の対象となる画像を取得し、画像に含まれる背景と物体が写った前景とを分離し、分離された前景を表す領域のうち、所定のサイズ以下の領域を物体候補領域として抽出し、抽出された物体候補領域に基づいて、物体候補領域及び物体候補領域の周辺に対応する複数の入力画像を生成し、生成された複数の入力画像の各々を、予め学習された物体の検出及び物体のカテゴリの認識を行うためのCNNに入力して、入力画像の各々について入力画像に含まれる物体の位置を検出すると共に、入力画像の各々について検出された物体のカテゴリを認識し、入力画像の各々の物体のカテゴリの認識結果に基づいて、物体のカテゴリの認識結果を統合することにより、サイズの小さな物体についても精度よく検出及び認識ができる、という効果が得られる。
本発明の実施の形態に係る物体検出認識装置の構成を示すブロック図である。 物体候補領域から複数の領域を生成する場合の一例を示す図である。 本発明の実施の形態に係る物体検出認識装置における物体検出認識処理ルーチンを示すフローチャートである。 物体の検出と認識の対象となる画像の一例を示す図である。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の実施の形態に係る概要>
まず、本発明の実施の形態における概要を説明する。上述した課題に対し、映像や画像において背景と物体が写った前景とを分離し、前景からサイズの小さい物体を表す物体候補領域を抽出して、抽出された物体候補領域だけを対象にして物体の検出及び認識を行う手法はサイズの小さい物体検出に対して有効であると考えられる。
本発明の実施の形態では、映像や画像中の背景と前景とを分離する分離手段と、前景から一定サイズ以下の物体候補領域を抽出する手段と、Deep Learningベースで予め学習した物体の検出及び物体のカテゴリの認識を行うためのCNNに入力する入力画像を生成する手段とを設けることで、サイズの小さい物体を精度よく検出及び認識できるようにする。
<本発明の実施の形態に係る物体検出認識装置の構成>
次に、本発明の実施の形態に係る物体検出認識装置の構成について説明する。図1に示すように、本発明の実施の形態に係る物体検出認識装置100は、CPUと、RAMと、後述する物体検出認識処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この物体検出認識装置100は、機能的には図1に示すように、蓄積部20と、取得部22と、分離部30と、物体候補領域抽出部32と、入力画像生成部34と、検出認識部36と、学習部38とを含んで構成されている。
蓄積部20には、物体の検出及び認識の対象となる映像を蓄積する。蓄積部20は、処理対象の取得部22から処理指示を受け取ると、処理対象の取得部22に対して映像を出力する。また、検出認識部36で求められた検出結果及び認識結果を蓄積部20に格納する。なお、蓄積部20に映像でなく画像を蓄積し、画像ごとに分離部30、物体候補領域抽出部32、入力画像生成部34、及び検出認識部36による物体の検出及び認識の処理を行ってもよい。
取得部22は、蓄積部20に検出及び認識の処理指示を出力し、蓄積部20に格納された映像を取得し、取得した映像を分離部30へ出力する。また、検出認識部36の処理後に、蓄積部20に学習の処理指示を出力し、蓄積部20に格納された、入力画像の各々の検出結果、及びカテゴリの認識結果を統合したものを取得し、学習部38に出力する。
分離部30は、物体の検出の対象となる画像を映像のシーンごとに取得し、画像に含まれる背景と物体が写った前景とを分離する。分離部30では、まず、取得部22から受け取った映像において、一定の時間間隔のフレームで画像(v,v,...,v)を抽出する。次に、時系列順に前後のフレーム間の動的な特徴量を用いて、画像中において背景と物体の写る前景とを分離する。分離には、例えば、画像処理のライブラリOpenCVのcv2.absdiff()の処理を用いればよい。分離された前景を物体候補領域抽出部32へ出力する。
物体候補領域抽出部32は、分離部30で分離された前景を表す領域のうち、所定のサイズ以下の領域を物体候補領域として抽出し、入力画像生成部34へ出力する。
具体的には、まず下記非特許文献2に示すようなエッジ情報を用いた物体領域抽出手法を用いて、前景を表す領域を抽出する。
非特許文献2:Edge Boxes: Locating Object Proposals from Edges, C.LawrenceZitnickPiotrDollar,ECCV 2014
次に、物体候補領域抽出部32は、抽出した前景を表す領域の個々のサイズを計算する。例えば、前景を表す領域のバウンディングボックスの面積を計算すればよい。そして、所定のサイズ以下(例えば、50*50pixel以下)の領域を物体候補領域として抽出する。
入力画像生成部34は、抽出された物体候補領域に基づいて、物体候補領域及び物体候補領域の周辺に対応する複数の入力画像を生成する。例えば、抽出された物体候補領域及び物体候補領域の周辺から得られる複数の領域をアップサンプリングすることにより複数の入力画像を生成する。具体的には、図2に示すように、eのボックスを一つの物体候補領域として、eと同じ面積を持つ左上に隣接した領域をaの領域として生成する、同じく、左下、右上、及び右下の周辺領域を用いて、b,c,dのような複数の領域を生成することができる。次に、a,b,c,d,eの領域に対してアップサンプリング処理する。例えば、画像処理の最近傍補間(Nearest neighbor)やバイリニア補間(bilinear)処理を用いれば領域を拡大することができる。そして、アップサンプリングされたa,b,c,d,eの領域を入力画像として検出認識部36へ出力する。このように複数の領域を用いることで認識の精度を高められる。また、後述する学習部38において、解像度の高い画像やトレーニング用の複数の画像を用いて、Deep Learningベースで学習した物体の検出及び物体のカテゴリの認識を行うためのCNNのパラメータのチューニングをすることができる。CNNのパラメータのチューニングにより、検出及び認識の精度が高くなることが見込めるため、上記eの領域を含め、データ量を増やす目的で、周辺領域のa,b,c,dの領域の入力画像は生成されるのである。図2は一つの態様であり、応用ニーズに応じて、データを増やす他の方法を取り入れてもよい。例えば、eの領域を拡大した領域を生成してデータを増やしてもよい。
検出認識部36は、入力画像生成部34で生成された複数の入力画像の各々を、予め学習された物体の検出及び物体のカテゴリの認識を行うためのCNNに入力して、入力画像の各々について入力画像に含まれる物体の位置を検出すると共に、入力画像の各々について検出された物体のカテゴリを認識し、入力画像の各々の物体のカテゴリの認識結果に基づいて、物体のカテゴリの認識結果を統合する。CNNを用いた検出及び認識の手法としては、例えば非特許文献1に記載のYoloを用いる。同手法では、例えば、入力画像の各々について、セルごとの物体検出確率が算出されると共に、カテゴリの認識において、複数のバウンディングボックスの各々に対して、カテゴリの各々の信頼度が算出される。そこで、入力画像の各々について算出したカテゴリの各々の信頼度から、カテゴリごとの信頼度の最大値を求め、最大値が最も高いカテゴリを、カテゴリの認識結果を統合したものとすればよい。もしくは、入力画像の各々についてのカテゴリごとの信頼度の平均値を用いて、信頼度の平均値が最も高いカテゴリを、カテゴリの認識結果を統合したものとしてもよい。
検出認識部36は、上記の入力画像の各々の物体の検出結果、及びカテゴリの認識結果を統合したものを蓄積部20に格納する。
学習部38は、取得部22から、蓄積部20に格納された、入力画像の各々の検出結果、及びカテゴリの認識結果を統合したものを受け取り、検出結果、及び認識結果を用いて、物体の検出及び物体のカテゴリの認識を行うためのCNNのパラメータをチューニングし、学習結果を検出認識部36にフィードバックする。学習は誤差逆伝播法などの一般的なCNNの学習手法を用いればよい。学習部38の学習により、検出認識部36では、パラメータがチューニングされたCNNを用いて物体の検出及び認識をすることができる。
なお、学習部38の処理については、取得部22、分離部30、物体候補領域抽出部32、入力画像生成部34、及び検出認識部36による一連の物体の検出及び認識の処理とは別個に、任意のタイミングで行えばよい。
<本発明の実施の形態に係る物体検出認識装置の作用>
次に、本発明の実施の形態に係る物体検出認識装置100の物体の検出及び認識に関する作用について説明する。物体検出認識装置100は、図3に示す物体検出認識処理ルーチンを実行する。
まず、ステップS100では、取得部22は、蓄積部20に検出及び認識の処理指示を出力し、蓄積部20に格納された映像を取得し、取得した映像を分離部30へ出力する。
次に、ステップS102では、分離部30は、映像のシーンごとに、一定の時間間隔のフレームから、物体の検出の対象となる画像(v,v,...,v)を抽出する。
ステップS104では、分離部30は、対象の画像vを選択する。
ステップS106では、分離部30は、対象の画像vについて、時系列順に前後のフレーム間の動的な特徴量を用いて、画像中において背景と物体の写る前景とを分離する。
ステップS108では、物体候補領域抽出部32は、ステップS106で分離された前景を表す領域のうち、所定のサイズ以下の領域を物体候補領域として抽出し、入力画像生成部34へ出力する。
ステップS110では、入力画像生成部34は、対象の画像vについて、抽出された物体候補領域に基づいて、物体候補領域及び物体候補領域の周辺に対応する複数の入力画像を生成する。
ステップS112では、検出認識部36は、対象の画像vについて、ステップS110で生成された複数の入力画像の各々を、予め学習された物体の検出及び物体のカテゴリの認識を行うためのCNNに入力して、入力画像の各々について入力画像に含まれる物体の位置を検出すると共に、入力画像の各々について検出された物体のカテゴリを認識し、入力画像の各々の物体のカテゴリの認識結果に基づいて、物体のカテゴリの認識結果を統合する。
ステップS114では、検出認識部36は、対象の画像vについて、入力画像の各々の物体の検出結果、及びカテゴリの認識結果を統合したものを蓄積部20に格納する。
ステップS116では、検出認識部36は、全ての対象の画像vについて処理を終了したかを判定し、終了していれば物体検出認識処理ルーチンを終了し、終了していなければステップS104に戻って次の対象の画像vを選択して処理を繰り返す。
以上説明したように、本発明の実施の形態に係る物体検出認識装置によれば、物体の検出の対象となる画像を取得し、画像に含まれる背景と物体が写った前景とを分離し、分離された前景を表す領域のうち、所定のサイズ以下の領域を物体候補領域として抽出し、抽出された物体候補領域に基づいて、物体候補領域及び物体候補領域の周辺に対応する複数の入力画像を生成し、生成された複数の入力画像の各々を、予め学習された物体の検出及び物体のカテゴリの認識を行うためのCNNに入力して、入力画像の各々について入力画像に含まれる物体の位置を検出すると共に、入力画像の各々について検出された物体のカテゴリを認識し、入力画像の各々の物体のカテゴリの認識結果に基づいて、物体のカテゴリの認識結果を統合することにより、サイズの小さな物体についても精度よく検出及び認識ができる。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上述した実施の形態では、学習部38を物体検出認識装置100に含める場合を例に説明したが、これに限定されるものではなく、物体検出認識装置100とは別個の学習装置として構成するようにしてもよい。
20 蓄積部
22 取得部
30 分離部
32 物体候補領域抽出部
34 入力画像生成部
36 検出認識部
38 学習部
100 物体検出認識装置

Claims (7)

  1. 物体の検出の対象となる画像を取得し、前記画像に含まれる背景と物体が写った前景とを分離する分離部と、
    前記分離された前景を表す領域のうち、所定のサイズ以下の領域を物体候補領域として抽出する物体候補領域抽出部と、
    前記抽出された物体候補領域に基づいて、前記物体候補領域及び前記物体候補領域の周辺に対応する複数の入力画像を生成する入力画像生成部と、
    生成された前記複数の入力画像の各々を、予め学習された物体の検出及び前記物体のカテゴリの認識を行うためのCNN(Convolutional Neural Network)に入力して、前記入力画像の各々について前記入力画像に含まれる前記物体の位置を検出すると共に、前記入力画像の各々について検出された前記物体のカテゴリを認識し、前記入力画像の各々の前記物体のカテゴリの認識結果に基づいて、前記物体のカテゴリの前記認識結果を統合する検出認識部と、
    物体検出認識装置。
  2. 前記画像は、物体の検出の対象となる映像のシーンごとに取得し、前記シーンの画像ごとに、前記分離部、物体候補領域抽出部、入力画像生成部、及び検出認識部の各処理を行う請求項1に記載の物体検出認識装置。
  3. 前記入力画像生成部は、前記抽出された物体候補領域及び前記物体候補領域の周辺から得られる複数の領域をアップサンプリングすることにより前記複数の入力画像を生成する請求項1又は請求項2に記載の物体検出認識装置。
  4. 前記検出認識部の前記認識結果の統合は、前記入力画像の各々についてのカテゴリの認識において算出されるカテゴリの各々の信頼度から求められる、カテゴリごとの前記信頼度の最大値、又は平均値を用いて、最も前記信頼度が高いカテゴリを求め、統合した認識結果とする請求項1〜請求項3の何れか1項に記載の物体検出認識装置。
  5. 前記検出認識部で前記画像から検出された物体、及び前記物体のカテゴリを用いて、前記CNNを学習する学習部を更に含み、
    前記検出認識部により、学習した前記CNNを用いて、前記検出及び前記認識を行う請求項1〜請求項4の何れか1項に記載の物体検出認識装置。
  6. 分離部が、物体の検出の対象となる画像を取得し、前記画像に含まれる背景と物体が写った前景とを分離するステップと、
    物体候補領域抽出部が、前記分離された前景を表す領域のうち、所定のサイズ以下の領域を物体候補領域として抽出するステップと、
    入力画像生成部が、前記抽出された物体候補領域に基づいて、前記物体候補領域及び前記物体候補領域の周辺に対応する複数の入力画像を生成するステップと、
    検出認識部が、生成された前記複数の入力画像の各々を、予め学習された物体の検出及び前記物体のカテゴリの認識を行うためのCNN(Convolutional Neural Network)に入力して、前記入力画像の各々について前記入力画像に含まれる前記物体の位置を検出すると共に、前記入力画像の各々について検出された前記物体のカテゴリを認識し、前記入力画像の各々の前記物体のカテゴリの認識結果に基づいて、前記物体のカテゴリの前記認識結果を統合するステップと、
    物体検出認識方法。
  7. コンピュータを、請求項1〜請求項5のいずれか1項に記載の物体検出認識装置の各部として機能させるためのプログラム。
JP2018140533A 2018-07-26 2018-07-26 物体検出認識装置、方法、及びプログラム Pending JP2020017136A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018140533A JP2020017136A (ja) 2018-07-26 2018-07-26 物体検出認識装置、方法、及びプログラム
PCT/JP2019/028838 WO2020022329A1 (ja) 2018-07-26 2019-07-23 物体検出認識装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018140533A JP2020017136A (ja) 2018-07-26 2018-07-26 物体検出認識装置、方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2020017136A true JP2020017136A (ja) 2020-01-30

Family

ID=69182117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018140533A Pending JP2020017136A (ja) 2018-07-26 2018-07-26 物体検出認識装置、方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP2020017136A (ja)
WO (1) WO2020022329A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102218255B1 (ko) * 2020-09-25 2021-02-19 정안수 갱신 영역 학습을 통한 인공지능 기반의 영상 분석 시스템 및 방법과, 이를 위한 컴퓨터 프로그램
JPWO2022070250A1 (ja) * 2020-09-29 2022-04-07

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022185473A1 (ja) * 2021-03-04 2022-09-09 日本電気株式会社 物体検知モデル生成装置、物体検知モデル生成方法、物体検知装置、物体検知方法、及び、記録媒体

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0655703A2 (en) * 1993-11-29 1995-05-31 Hewlett-Packard Company Method for scanning small fonts in an optical character recognition system
GB2573221B (en) * 2016-12-05 2023-04-19 Motorola Solutions Inc System and method for CNN layer sharing
US9965865B1 (en) * 2017-03-29 2018-05-08 Amazon Technologies, Inc. Image data segmentation using depth data

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102218255B1 (ko) * 2020-09-25 2021-02-19 정안수 갱신 영역 학습을 통한 인공지능 기반의 영상 분석 시스템 및 방법과, 이를 위한 컴퓨터 프로그램
JPWO2022070250A1 (ja) * 2020-09-29 2022-04-07
WO2022070250A1 (ja) * 2020-09-29 2022-04-07 日本電気株式会社 情報処理装置、情報処理方法、および、プログラム
JP7380904B2 (ja) 2020-09-29 2023-11-15 日本電気株式会社 情報処理装置、情報処理方法、および、プログラム

Also Published As

Publication number Publication date
WO2020022329A1 (ja) 2020-01-30

Similar Documents

Publication Publication Date Title
US20230045519A1 (en) Target Detection Method and Apparatus
CN109255352B (zh) 目标检测方法、装置及***
CN109284670B (zh) 一种基于多尺度注意力机制的行人检测方法及装置
CN110235138B (zh) 用于外观搜索的***和方法
CN110738207B (zh) 一种融合文字图像中文字区域边缘信息的文字检测方法
US11416710B2 (en) Feature representation device, feature representation method, and program
CN109918987B (zh) 一种视频字幕关键词识别方法及装置
CN108388879B (zh) 目标的检测方法、装置和存储介质
CN111950424B (zh) 一种视频数据处理方法、装置、计算机及可读存储介质
JP6330385B2 (ja) 画像処理装置、画像処理方法およびプログラム
EP3101594A1 (en) Saliency information acquisition device and saliency information acquisition method
KR101932009B1 (ko) 다중 객체 검출을 위한 영상 처리 장치 및 방법
KR101896357B1 (ko) 객체를 검출하는 방법, 디바이스 및 프로그램
JP4877374B2 (ja) 画像処理装置及びプログラム
US9613266B2 (en) Complex background-oriented optical character recognition method and device
US11113507B2 (en) System and method for fast object detection
RU2697649C1 (ru) Способы и системы сегментации документа
CN110909724B (zh) 一种多目标图像的缩略图生成方法
WO2020022329A1 (ja) 物体検出認識装置、方法、及びプログラム
JP2015082245A (ja) 画像処理装置、画像処理方法及びプログラム
CN108875456B (zh) 目标检测方法、目标检测装置和计算机可读存储介质
CN112101386B (zh) 文本检测方法、装置、计算机设备和存储介质
EP3073443A1 (en) 3D Saliency map
KR102069694B1 (ko) 영상 분할 기반의 해양 상황 인식 장치 및 그 방법
CN113297959B (zh) 一种基于角点注意力孪生网络的目标跟踪方法及***