JP7340487B2 - プログラム作成装置、対象物検知システム、アンカー設定方法及びアンカー設定プログラム - Google Patents

プログラム作成装置、対象物検知システム、アンカー設定方法及びアンカー設定プログラム Download PDF

Info

Publication number
JP7340487B2
JP7340487B2 JP2020063281A JP2020063281A JP7340487B2 JP 7340487 B2 JP7340487 B2 JP 7340487B2 JP 2020063281 A JP2020063281 A JP 2020063281A JP 2020063281 A JP2020063281 A JP 2020063281A JP 7340487 B2 JP7340487 B2 JP 7340487B2
Authority
JP
Japan
Prior art keywords
anchor
program
image
setting
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020063281A
Other languages
English (en)
Other versions
JP2021163127A (ja
Inventor
聡 飯尾
喜一 杉本
健太 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2020063281A priority Critical patent/JP7340487B2/ja
Priority to DE102021201031.8A priority patent/DE102021201031A1/de
Priority to CN202110159215.8A priority patent/CN113470040A/zh
Priority to US17/170,244 priority patent/US11769322B2/en
Publication of JP2021163127A publication Critical patent/JP2021163127A/ja
Application granted granted Critical
Publication of JP7340487B2 publication Critical patent/JP7340487B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Description

本開示は、プログラム作成装置、対象物検知システム、アンカー設定方法及びアンカー設定プログラムに関するものである。
取得した画像から物体を検出するシステムとして、多数の画像で深層学習(機械学習)させた学習済みプログラムを用いて物体を検出するシステムがある。一般的な深層学習を用いた物体検出では、まず入力となる画像に対して特定のフィルタ係数を用いた畳み込み処理を行い特徴量の抽出を行う。次に、畳み込み処理の過程で得られた解像度の異なる特徴量空間において、アンカーと呼ばれる矩形領域(バウンディングボックス)を配置し、アンカー毎に領域内の特徴量から対象物らしさを表すスコアを算出する。算出したスコアを用いて、スコアがしきい値以上となるアンカーを回帰処理によってサイズ調整し、検出結果として出力する。
特開2018-22484号公報 特許第5172749号公報
深層学習ではアンカーの形状を複数種類設定し、異なる形状のアンカーを用いて、対象物の検出を行うことで、対象物の検出の精度を向上することができる。しかしながら、アンカーの数が多くなると、演算処理の処理量も増加する。このため、処理能力と演算結果が求められるまでの時間の長さに応じて、使用できるアンカーの数が限られる。以上より、設定するアンカーの数の増加を抑制しつつ、対象物の検出の精度を高めることが求められている。
本開示の少なくとも一実施形態は、上記課題を解決するために、アンカーの形状を適切に設定し、高い精度で対象物を検知できるプログラム作成装置、対象物検知システム、アンカー設定方法及びアンカー設定プログラムを提供することを課題とする。
本開示は、画像に対象物が含まれているかを検出する対象物検知プログラムを作成するプログラム作成装置であって、対象物のエリア情報が含まれた複数の画像データを含む教師データと、画像から対象物の有無を検出するセルごとの領域を特定する枠の情報であるアンカーを設定する設定部と、設定部の情報に基づいて、教師データを機械学習し、画像から対象物を抽出する学習済みプログラムを作成する学習部と、を含み、前記設定部は、前記教師データの対象領域と、アンカーのアスペクト比の情報を取得し、アンカーのサイズを変化させつつ、各アスペクト比での、アンカーと対象領域の一致度を算出し、一致度が閾値以上となる割合である前記対象領域の採用率を算出し、算出した結果に基づいて、学習済みプログラムで使用するアンカーのサイズを決定するプログラム作成装置を提供する。
また、本開示は、上記に記載のプログラム作成装置と、前記プログラム作成装置で作成された学習済みプログラムを実行する演算部、画像を取得するカメラ部、オペレータに報知を行う報知部と、を含み、前記演算部は、前記カメラ部で取得した画像と前記学習済みプログラムで解析し、前記画像の対象物が含まれていることを検知した場合、前記報知部から報知する対象物検知装置と、を備える対象物検知システムを提供する。
また、本開示は、画像に対象物が含まれているかを検出する対象物検知プログラムに用いるアンカーを設定するアンカー設定方法であって、対象物のエリア情報が含まれた複数の画像データを含む教師データを取得するステップと、画像から対象物の有無を検出するセルごとの領域を特定する枠の情報であるアンカー情報を取得するステップと、前記教師データの対象領域と、アンカーのアスペクト比の情報を取得し、アンカーのサイズを変化させつつ、各アスペクト比での、アンカーと対象領域の一致度を算出し、一致度が閾値以上となる割合である前記対象領域の採用率を算出するステップと、算出した結果に基づいて、学習済みプログラムで使用するアンカーのサイズを決定するステップと、を含むアンカー設定方法を提供する。
また、本開示は、画像に対象物が含まれているかを検出する対象物検知プログラムに用いるアンカーを設定させる処理を実行させるアンカー設定プログラムであって、対象物のエリア情報が含まれた複数の画像データを含む教師データを取得するステップと、画像から対象物の有無を検出するセルごとの領域を特定する枠の情報であるアンカー情報を取得するステップと、前記教師データの対象領域と、アンカーのアスペクト比の情報を取得し、アンカーのサイズを変化させつつ、各アスペクト比での、アンカーと対象領域の一致度を算出し、一致度が閾値以上となる割合である前記対象領域の採用率を算出するステップと、算出した結果に基づいて、学習済みプログラムで使用するアンカーのサイズを決定するステップと、を実行させるアンカー設定プログラムを提供する。
上記構成とすることで、アンカーの形状を適切に設定することができ、高い精度で対象物を検知できるという効果を奏する。
図1は、対象物検知システムの一例を示すブロック図である。 図2は、対象物検知システムの画像処理の一例を説明するための説明図である。 図3は、画像処理の一例を説明するための説明図である。 図4は、画像処理の一例を説明するための説明図である。 図5は、画像処理の一例を説明するための説明図である。 図6は、アンカーを説明するための説明図である。 図7は、アンカーを説明するための説明図である。 図8は、アンカー設定部の処理の一例を示すフローチャートである。 図9は、アンカー設定部の処理の一例を説明するための説明図である。 図10は、アンカー設定部の処理の一例を説明するための説明図である。 図11は、アンカーのサイズと採用率との関係の一例を示すグラフである。 図12は、それぞれのアンカーのサイズについて、検知率と誤検知率との関係の一例を示すグラフである。 図13は、学習部の動作の一例を示すフローチャートである。 図14は、対象物検知装置の動作の一例を示すフローチャートである。 図15は、アンカー設定部の処理の他の例を示すフローチャートである。 図16は、アンカー設定部の処理の他の例を説明するための説明図である。 図17は、アンカー設定部の処理の他の例を示すフローチャートである。 図18は、アンカー設定部の処理の他の例を説明するための説明図である。
以下に、本開示に係る実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。さらに、以下に記載した構成要素は適宜組み合わせることが可能であり、また、実施形態が複数ある場合には、各実施形態を組み合わせることも可能である。
<対処物検知システム>
図1は、対象物検知システムの一例を示すブロック図である。本実施形態に係る対象物検知システム100は、プログラム作成装置10と、対象物検知装置102と、を含む。対象物検知システム100は、プログラム作成装置10で、機械学習、たとえば深層学習を用いて画像から対象物の検知を行う画像判定処理を実行できる学習済みプログラムを作成し、対象物検知装置102で学習済みプログラムを実行して対象物の検知を行う。対象物検知装置102は、例えば、車両や飛行体等の移動体や、建造物に設置される。
プログラム作成装置10は、入力部12と、出力部14と、演算部16と、記憶部18と、を含む。入力部12は、キーボード及びマウス、タッチパネル、またはオペレータからの発話を集音するマイク等の入力装置を含み、オペレータが入力装置に対して行う操作に対応する信号を演算部16へ出力する。出力部14は、ディスプレイ等の表示装置を含み、演算部16から出力される表示信号に基づいて、処理結果や処理対象の画像等、各種情報を含む画面を表示する。また、出力部14は、データを記録媒体で出力する記録装置を含んでもよい。また、プログラム作成装置10は、入力部12及び出力部14として、通信インターフェースを用いて、データの送信を行う通信部を含んでいてもよい。通信部は、外部機器と通信を行い取得した各種データ、プログラムを記憶部16に送り、保存する。通信部は、有線の通信回線で外部機器と接続しても、無線の通信回線で外部機器と接続してもよい。
演算部16は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等の集積回路(プロセッサ)と、作業領域となるメモリとを含み、これらのハードウェア資源を用いて各種プログラムを実行することによって各種処理を実行する。具体的に、演算部16は、記憶部18に記憶されているプログラムを読み出してメモリに展開し、メモリに展開されたプログラムに含まれる命令をプロセッサに実行させることで、各種処理を実行する。演算部16は、教師データ作成部(データ作成部の一例)30と、アンカー設定部(設定部の一例)32と、学習部34と、対象物検知処理部(処理部の一例)36と、を含む。演算部16の各部の説明の前に記憶部18について説明する。
記憶部18は、磁気記憶装置や半導体記憶装置等の不揮発性を有する記憶装置からなり、各種のプログラムおよびデータを記憶する。記憶部18は、画像データ40と、設定データ42と、学習実行プログラム44と、アンカー設定プログラム46と、対象物検知プログラム48と、学習済みプログラム50と、を含む。
また、記憶部18に記憶されるデータとしては、画像データ40と、設定データ42と、が含まれる。画像データ40は、学習に使用する教師データを含む。教師データは、画像のデータと、画像に対象物が含まれる場合、対象物が表示される領域(バウンディングボックス)とが対応付けられたデータである。教師データの画像は、学習に用いるデータと、学習後のプログラムの精度の評価するデータとに分かれていてもよい。また、画像データは、対象物を検出する必要がある画像データを含んでいてもよい。設定データ42は、後述するアンカーの設定情報や、学習済みプログラムを実行するための条件の情報等を含む。
記憶部18に記憶されるプログラムとしては、学習実行プログラム44と、アンカー設定プログラム46と、対象物検知プログラム48と、学習済みプログラム50と、がある。
学習実行プログラム44は、画像データ40に含まれる教師データを、設定データ42の設定に基づいて深層学習処理を行い、学習済みプログラム50を作成する。深層学習モデルとしては、R-CNN(Regions with Convolutional Neural Networks)やYOLO(You Only Look Once)、SSD(Single Shot multibox Detector)等、いわゆるアンカーと言われるバウンディングボックスを画像に対して設定し、設定に基づいたアンカー内の特徴量を処理することで、画像に対象物が含まれているかを検出する深層学習モデルを用いることができる。
アンカー設定プログラム46は、学習実行プログラム44及び学習済みプログラムで、深層学習モデルを用いて画像処理を実行する際に用いるアンカーを設定する処理を実行する。アンカー設定プログラム46は、アンカーのサイズを設定する処理を実行する。さらにアンカー設定プログラム46は、アンカーのアスペクト比、用いるアンカーの数を設定する処理を実行することが好ましい。アンカー設定プログラム46で設定した情報は、設定データ42に記憶される。
対象物検知プログラム48は、学習済みプログラム50を用いて、対象物の検出処理を実行するプログラムである。対象物検知プログラム48は、画像の取得処理と、判定結果の出力処理も設定されている。対象物検知プログラム48は、画像データを加工する処理を設定いてもよい。学習済みプログラム50は、学習実行プログラム44を実行して作成されたプログラムである。対象物検知プログラム48は、学習済みプログラム50を、画像処理を行う演算部で実行することで、学習した判断基準の特徴量(スコア)を算出でき、特徴量に基づいて対象物を検出する処理を実行することができる。
記憶部18は、記録媒体に記録された学習実行プログラム44と、アンカー設定プログラム46と、対象物検知プログラム48と、を読み込むことで、学習実行プログラム44と、アンカー設定プログラム46と、対象物検知プログラム48と、がインストールされてもよいし、ネットワーク上で提供される学習実行プログラム44と、アンカー設定プログラム46と、対象物検知プログラム48と、を読み込むことで、学習実行プログラム44と、アンカー設定プログラム46と、対象物検知プログラム48と、がインストールされてもよい。
演算部16の各部の機能について説明する。演算部16の各部は、記憶部18に記憶されるプログラムを実行することで、実行することができる。教師データ作成部30は、画像データに対象物がある場合、対象物の領域を示す枠情報(バウンディングボックス)を対応付ける。設定される枠は、矩形である。教師データ作成部30は、例えば画像を出力部14に表示させた状態で、入力部12に入力される操作から枠情報を設定する。入力部12に入力される操作は、オペレータが画像を見ながら枠の位置(対象物)を囲う位置の情報を入力する操作である。また、教師データ作成部30は、対象物検知処理部36で実行した画像の抽出処理の結果を取得してもよい。この場合、抽出した枠の位置が、教師データの正解のデータできるか判定するオペレータの操作を検出し、オペレータにより枠の位置が正しいと判定されたデータを教師データとして取得するようにしてもよい。
アンカー設定部32は、アンカー設定プログラム46の処理を実行し、学習部34、対象物検知処理部36で実行する深層学習モデルの画像処理で使用するアンカーの情報を設定する。アンカー設定部32の処理は後述する。
学習部34は、アンカー設定部32で設定したアンカーの設定を用いて、学習実行プログラム44の処理を実行して、画像データ40の教師データとして深層学習を行い、学習済みプログラムを作成する。学習部34の処理は後述する。
対象物検知処理部36は、対象物検知プログラム48を用いて、学習済みプログラム50を処理し、取得した画像に対象物が含まれているかを判定する処理、つまり対象物検知処理を実行する。対象物検知処理部36の処理は後述する。
なお、本実施形態では、プログラム作成部10に、教師データ作成部30と、対象物検知処理部36と、を備える構成としたが、プログラム作成装置10が備えていなくてもよい。つまり、教師データは、別の装置で作成してもよい。また、画像から対象物を検出する処理を実行する対象物検知処理部36は、対象物検知装置102のみに備えていてもよい。
対象物検知装置102は、上述したように移動体や建造物に設置される。対象物検知装置102は、プログラム作成装置10と通信可能としてもよいが、通信機能を備えなくてもよい。通信機能を備えない対象物検知装置102は、各種処理条件が予め設定され、設定された条件に基づいて対象物の検知処理を実行する。対象物検知装置102は、検出した結果を設置されている機構を制御する制御装置に出力してもよい。これにより、例えば移動体の場合、対象物を検知した場合、停止する処理や、対象物を回避する処理等を実行することができる。
対象物検知装置102は、対象物検知装置102は、カメラ部112と、演算部114と、記憶部116と、報知部118と、を含む。カメラ部112は、対象視野の画像を取得する。カメラ部112は、所定のフレームレートで連続して画像を取得しても、所定の操作をトリガーとして画像を取得してもよい。
演算部114は、CPU、GPU等の集積回路(プロセッサ)と、作業領域となるメモリとを含み、これらのハードウェア資源を用いて各種プログラムを実行することによって各種処理を実行する。具体的に、演算部16は、記憶部18に記憶されているプログラムを読み出してメモリに展開し、メモリに展開されたプログラムに含まれる命令をプロセッサに実行させることで、各種処理を実行する。演算部16は、記憶部116に記憶されているプログラムを実行することで、画像から対象物を検出する処理を実行する。
記憶部116は、磁気記憶装置や半導体記憶装置等の不揮発性を有する記憶装置からなり、各種のプログラムおよびデータを記憶する。記憶部116は、対象物検知プログラム120と、学習済みプログラム122を記憶する。
報知部118は、オペレータに報知する。報知部118は、スピーカ、発光装置、ディスプレイ等である。報知部118は、演算部114で処理を実行し、画像に含まれる対象物を検出した場合、対象物があることをオペレータに通知する。対象物が人である場合、検知の対象である人に通知してもよい。
図2は、対象物検知システムの画像処理の一例を説明するための説明図である。図3から図5は、それぞれ画像処理の一例を説明するための説明図である。
本実施形態の対象物検知処理部36は、設定されている深層学習による画像処理を行うことで、画像に対象物が含まれているかを判定する。学習部34は、教師データ作成部30で作成した教師データを用いて、機械学習、例えば深層学習を行うことで、対象物検知処理部36で実行する学習済みプログラムを作成する。
ここで、本実施形態の深層学習は、対象の画像に対して畳み込み処理を行い、複数の画素から得られる特徴量を1つのセル情報とする。そして、図2に示すように複数のセルから得られる特徴量をまた1つのセル情報とする処理を繰り返す。こうして画像に対してセルサイズが異なる複数の特徴量マップを取得することができる。深層学習は、特徴量マップの取得時に各セルに割り当てられたアンカーを用いた処理を実行し、対象物を検出する。
つまり、1つの画像を図2に示すように、特徴量マップ(分割マップ)202を処理して、画像データ202よりも分割数が少ない特徴量マップ202Aを作成する。特徴量マップ202Aは、1つのセル210Aが、セル210よりも画像全体に対して占める割合が大きい。特徴量マップ202Aに対して同様の処理を複数回実行して、1つのセル(領域)210Bのみ設定された特徴量マップ202Bを生成する。ここで、異なる分割数に移行する際の処理は、深層学習で実行される演算処理で各種パラメータが設定される。
ここで、深層学習の設定では、1つのセルの評価を算出するために、情報を取得する枠の情報として、アンカー212が設定される。本実施形態のアンカー212は、評価対象のセルの中心と、中心が一致するように設定される。また、アンカー212は、セルに対する大きさが設定されており、セルが大きくなると、アンカー212も大きくなる。また、深層学習で処理を行うアンカー212は、複数設定される。
次に、教師データについて説明する。図3は、犬230と、猫232と、が含まれる画像220である。対象物の検知では、対象物を犬とする場合、犬230が表示されている領域に枠224を設定する。枠224は、領域情報であり、対象物が表示されていることを示す情報、つまりバウンディングボックスである。枠224は、画像220上での位置情報となる。また、対象物を猫とする場合、猫232が表示されている領域に枠226を設定する。また、対象物が動物である場合、枠224と枠226の両方を1つの画像220に対して設定する場合がある。図3に示すように、画像220に対象物を囲う枠224、226の情報が対応付けられた情報が正解データ、教師データの画像データとなる。
対象物検知プログラム100は、画像データの枠224、226の情報を含む画像220を含む複数の画像のデータを教師データに対して、設定されたアンカーを各セルに適応させつつ学習処理を行うことで、対象物を抽出することができる学習済みモデルを作成する。
図4及び図5は、図3の画像を解析する状態を模式的に示している。図4に示す特徴量マップ(分割マップ)240は、8行8列で画像を分割している。図5示す特徴量マップ240aは、4行4列で分割される。特徴量マップ240は、セル252に対応するアンカーユニット242に示すように各セルに対してアスペクト比が異なる複数のアンカー250a、250b、250c、250dが適用され、それぞれのアンカーについてアンカーの領域に含まれる画像の特徴量の比較が行われる。特徴量マップ240aも同様である。
図3に示す画像220の場合、猫232の枠226は、図4に示す特徴量マップ240で、画像の領域をセル242の大きさで分割したアンカーユニット244に一致するアンカーが検出される。犬230の枠224に対応するアンカーは、特徴量マップ240のアンカーでは、大きさが異なるため、検出されない。犬230の枠224に対応するアンカーは、分割数が少ない特徴量マップ240aで設定さえるアンカーユニット246に含まれるアンカーで検出される。
このように、対象物検知システム100は、特徴量マップのセルのそれぞれにアンカーを適用して、アンカー内の画像を深層学習で処理することで、画像データ内に対象物が含まれるかを検出する。
ここで、対象物が表示される領域、教師データではバウンディングボックスとアンカーとの重なる割合である一致度が、高い状態を維持できると、学習の精度も高くなり、対象物を高い精度で検出することができる。ここで、一致度は、IoU(Intersection over Union)で評価される。具体的には、(バウンディングボックスとアンカーの一致部分)/(バウンディングボックスとアンカーの和集合)の100分率である。一方、対象物が表示される領域、教師データではバウンディングボックスが、アンカーの境界にあると、深層学習時のいずれのアンカーでも一致度が低くなり、深層学習での学習量が増加せず、学習済みプログラムでの対象物が検出できなくなる場合が生じる。また、実際の検出時も、対象物が含まれる領域と高い一致率となるアンカーが生じないことになり検出ができない場合が生じる。これに対して、対象物検知システム100は、下記の処理を実行している。
<アンカー設定方法>
次に、図6から図12を用いて、アンカーの設定方法について説明する。図6及び図7は、それぞれアンカーを説明するための説明図である。図8は、アンカー設定部の処理の一例を示すフローチャートである。図9及び図10は、それぞれアンカー設定部の処理の一例を説明するための説明図である。図11は、アンカーのサイズと採用率との関係の一例を示すグラフである。図12は、それぞれのアンカーのサイズについて、検知率と誤検知率との関係の一例を示すグラフである。
図6及び図7に示す例では、アンカー212は、4つの形状のアンカー212a、212b、212c、212dが設定される。アンカー212a、212b、212c、212dは、面積が同じで、アスペクト比が異なる。アンカー212a、212b、212c、212dは、セル282に対して設定される状態を示している。アンカー212a、212b、212c、212dは、この順で縦方向の大きさが小さくなる。アンカー212aは、縦長の矩形である。アンカー212dは、横長の矩形である。
深層学習では、アンカー212の形状を複数の形状とすることで、対象物が含まれると設定されている領域であるバウンディングボックス280、280aの形状に近いアンカーを設けることができる。例えば、図6の場合、バウンディングボックス280とアンカー212aの一致度が45%であり、バウンディングボックス280とアンカー212bの一致度が80%であり、バウンディングボックス280とアンカー212cの一致度が60%であり、バウンディングボックス280とアンカー212dの一致度が30%である。また、図7の場合、バウンディングボックス280aとアンカー212aの一致度が30%であり、バウンディングボックス280aとアンカー212bの一致度が30%であり、バウンディングボックス280aとアンカー212cの一致度が30%であり、バウンディングボックス280aとアンカー212dの一致度が5%である。ここで、一致度はIoUで評価される。
本実施形態のアンカー設定部32は、教師データのバウンディングボックスに基づいて、アンカーを設定することで、対象物の検知精度を高くすることができる。図8を用いて、アンカーの設定処理について説明する。図8に示す処理は、アンカー設定部32が処理を実行することで実現することができる。
アンカー処理部32は、対象物の領域情報、つまりバウンディングボックスの情報を含む、教師データを取得する(ステップS12)。アンカー処理部32は、アンカーの設定を読み出す(ステップS14)。ここで、アンカーの設定は、学習で使用する全てのアンカーについての、アンカーのアスペクト比、セルに対する基準のサイズの情報である。
ここで、図9と図10は、セル285aとセル285bとにまたがってバウンディングボックス284が配置されている場合を示している。図9と図10は、同じセル285aとセル285bとに対応付けるアンカーの大きさが異なる場合を示している。図9は、セル285aで使用するアンカー286aと、セル285aに隣接するセル285bで使用するアンカー286bとを示している。図10は、セル285aで使用するアンカー288aと、セル285aに隣接するセル285bで使用するアンカー288bとを示している。図10のアンカー288a、288bは、図9のアンカー286a、286bよりもサイズが大きい。なお、図10のアンカー288a、288bのアスペクト比は、図9のアンカー286a、286bのアスペクト比と同一である。図9及び図10は、セル285a、285bにまたがって、対象物のバウンディングボックス284が設定されている。
図9に示すように、アンカー286aと隣接するアンカー286bとの間に隙間がある大きさでは、対象物のバウンディングボックスとの面積の一致率が高くなりにくい傾向がある。これに対して、図10に示すように、アンカー288aと隣接するアンカー288bとの間に隙間がない大きさでは、位置により、対象物のバウンディングボックスとの面積の一致率が極端に低くなることが減り、検出率が高くなりやすい傾向がある。そのため、アンカーの大きさは、図10のように、アンカー288aと隣接するアンカー288bとの間に隙間がない大きさを中心として、大きさを大きくした場合と、小さくした場合について、評価することが好ましい。
アンカー設定部32は、対象物の領域情報と、アンカーの情報に基づいて、各位置でのIoUを算出する(ステップS16)。
アンカー処理部32は、全てのアンカーのサイズの評価が終了したかを判定する(ステップS18)。アンカー処理部32は、全てのアンカーのサイズの評価が終了していない(ステップS18でNo)と判定した場合、アンカーのサイズを変化させ(ステップS20)、ステップS16の処理に戻る。つまり、評価していないサイズにアンカーを変化せて、変化させたサイズについて、IoUを算出する。
アンカー処理部32は、全てのアンカーのサイズの評価が終了した(ステップS18でYes)と判定した場合、評価結果に基づいて、アンカーの大きさ(サイズ)を決定する(ステップS22)。
アンカー処理部32は、アンカーのサイズを異なる大きさとした場合について、アンカーと対象物の領域情報との比較を行い、採用率を評価することで、教師データに含まれる対象物の領域情報を抽出できるアンカーの大きさを検出することができる。
図11に示すように、IoUの閾値(IoU閾値)を種々の値とした場合に、教師データの対象領域の採用率を算出する。採用率は、(IoUが閾値以上となる対象物の数)/(教師データの全画像データに含まれる対象物の数)である。アンカー処理部32は、設定されたサイズで作成した複数のアンカーのそれぞれと対象物の領域情報を比較し、いずれか1つのアンカーで、IoUが閾値以上となると、IoUが閾値以上となる画像データの数に含める。アンカー処理部32は、例えば、この値にIoUの閾値がそれぞれの場合について、最も採用率が高くなるアンカーのサイズを算出する。
図12は、IoUの閾値をIoU閾値条件D、IoU閾値条件E、IoU閾値条件Fとした場合に、採用率が高かったサイズのアンカーを設定し、評価用の画像データの評価を行い、検出率と誤検出率を算出した結果である。ここで、検出率と誤検出率の評価は、図13で説明する学習済みプログラムの作成方法で、学習済みプログラムを作成し、作成した学習済みプログラムを用いて、評価用の画像データのユニットの対象物の抽出処理を行った結果から抽出することができる。図12に示すように、同じ誤検知率で比較すると、いずれの場合も基準よりも高い検知率とすることができる。ここで、IoU閾値は、深層学習の学習時パラメータになる。IoU閾値は、図12に示すグラフの結果に基づいて、所望の検知率及び誤検知率となるIoU閾値を決定する。決定したIoU閾値は、学習時のパラメータとする。なお、アンカー処理部32は、図12の検出率、誤検出率を算出せずに図11の情報のみでアンカーのサイズを決定してもよい。
<学習済みプログラム作成方法>
図13は、学習部の動作の一例を示すフローチャートである。図13に示す処理は、学習部34が学習実行プログラムを演算処理することで実行する。学習部34は、アンカー処理部32決定したアンカーのサイズの情報を用いて、学習済みプログラムを作成する。また、学習部34は、アンカー処理部32でアンカーのサイズを決定する処理、つまり上述したステップS22でアンカーを決定する際に、候補となるアンカーのサイズの情報を用いて、学習済みプログラムを作成することもある。
学習部34は、対象物の領域情報を含む、教師データを取得する(ステップS30)。学習部34は、アンカーの設定を読み出す(ステップS32)。つまり、学習部34は、アンカー設定部32で設定したアンカーのサイズ情報、アスペクト比の情報を読み出す。学習部34は、教師データとアンカーの情報に基づいて深層学習を実行する(ステップS34)。学習部34は、教師データの画像をアンカーの情報に基づいて深層学習モデルを設定し、設定したモデルを用いて、教師データの画像の学習を行う。これにより、学習部34は、教師データを用いた学習を実行した学習済みプログラムを生成する。
学習部34は、学習結果を評価用の画像で評価する(ステップS36)。ここで、評価用の画像は、対象物を含んでいる画像、含んでいない画像の両方を含んだデータセットである。評価用の画像は、対象物が含んでいるか含んでいないかを示す情報が対応付けられている。学習部34は、評価時点の学習済みプログラムで評価用画像についての対象物の検出を行うことで、対象物が含まれている評価用画像の対象物が検出できているか、対象物が含まれていない評価用画像について対象物が含まれているという誤検出を行っているか等を評価する。学習部34は、評価として、検出率、誤検出率等を算出する。
学習部34は、評価を算出したら、学習を終了するかを判定する(ステップS38)。学習終了の評価基準は、任意に設定することができ、例えば、学習を行った回数や、演算量を基準としてもよく、検出率、誤検出率が設定した性能を満たした場合に処理終了としてもよい。
学習部34は、学習終了ではない(ステップS38でNo)と判定した場合、深層学習の条件を調整し(ステップS40)、ステップS34に戻る。これにより、再度学習処理を実行する。ここで、深層学習の条件としては、特に限定されないが、ステップS34で学習開始時の学習プログラムとして、現時点の学習プログラムを設定することや、教師データの画像の一部入れ替え等がある。学習部34は、学習終了である(ステップS38でYes)と判定した場合、学習結果のプログラムを学習済みプログラムに設定し(ステップS42)、処理を終了する。
学習部34は、以上のように、アンカー設定部32で設定したアンカーを用いて、深層学習処理を実行し、学習済みプログラムを作成する。
<対象物検知方法>
次に、図14を用いて、学習済みプログラムを用いた対象物検知方法について説明する。図14は、対象物検知装置の動作の一例を示すフローチャートである。図14の処理は、対象物検知装置102で実行する処理として説明するが、プログラム作成装置10に画像データを供給し、対象物検知処理部36で同様の処理を実行してもよい。
対象物検知装置102は、学習済みプログラムを読み込む(ステップS50)。対象物検知装置102は、プログラム作成装置10で作成した学習済みプログラムを取得する。対象物検知装置102は、画像データを取得する(ステップS52)。具体的には、対象物検知装置102は、カメラ部112で画像を取得する。
対象物検知装置102は、学習済プログラムに基づいて画像データを解析する(ステップS54)。対象物検知装置102は、演算部114で、アンカー設定部32でアンカーを設定し、その設定したアンカーの条件で深層学習を行って作成した学習済みプログラムを用いて、画像データに対象物が含まれているかを検出する。
対象物検知装置102は、ステップS54の解析結果から対象物があるかを判定する(ステップS56)。対象物検知装置102は、対象物がある(ステップS56でYes)と判定した場合、対象物を検出したことを報知部118から報知する(ステップS58)。対象物検知装置102は、対象物がない(ステップS56でNo)と判定した場合、またはステップS58の処理を実行した後、処理終了かを判定する(ステップS60)。対象物検知装置102は、処理終了ではない(ステップS60でNo)と判定した場合、ステップS52に戻り、次の画像データを取得し、対象物の検知処理を行う。対象物検知装置102は、処理終了である(ステップS60でYes)と判定した場合、本処理を終了する。
本実施形態は、以上のように、教師データの対象物の領域情報を用いて、アンカーの大きさ(スケール)を変化させた種々の場合について、領域同士の比較を行って、一致率を算出し、閾値以上の割合で一致するアンカーが多くなる、アンカーの大きさを算出し、算出したアンカーの大きさで深層学習を行う。これにより、対象物の検出精度をより高くすることができる。また、領域比較を行う処理で、アンカーの大きさを決定することで、アンカーについて、種々の組み合わせについて深層学習を行い、最適な条件を見つける場合よりも大幅に少ない計算で、対象物の検出精度をより高くできる、アンカーの大きさを決定することができる。また、領域情報が設定されている教師データの情報を用いることで、新たなデータを作成せずに処理を実行することができる。
<アンカー設定方法の他の例>
ここで、アンカー設定部32は、アンカーのアスペクト比を教師データの対象領域の枠の情報に基づいて、決定してもよい。図15は、アンカー設定部の処理の他の例を示すフローチャートである。図16は、アンカー設定部の処理の他の例を説明するための説明図である。
アンカー設定部32は、教師データを取得する(ステップS70)。アンカー設定部32は、対象物の領域のアスペクト比の分布を抽出する(ステップS72)。アンカー設定部32は、教師データの全ての画像について、設定されている領域のアスペクト比を検出する。アンカー設定部32は、アスペクト比の情報が予め設定されている場合、設定されているアスペクト比の情報を読み込んでもよい。
アンカー設定部32は、アスペクト比の分布を算出する(ステップS74)。これにより、図16に示すように、学習データである教師データに設定されているバウンディングボックスのアスペクト比の分布が算出される。
アンカー設定部32は、アスペクト比の分布に基づいて、アンカーの複数のアスペクト比を決定する(ステップS76)。具体的には、教師データのアスペクト比の分布に基づいて、例えば、分布の割合の2%の位置と98%の位置と、その2つの位置を基準として、等分に分割したアスペクト比の位置を、使用するアンカーのアスペクト比とする。また、分布のピーク位置を使用するアンカーのアスペクト比としてもよい。
このように、アンカーのアスペクト比を、教師データのアスペクト比の分布に基づいて、設定することで、検出する対象物の画像上でのアスペクト比を基準として、アンカーのアスペクト比を決定することができる。これにより、アンカーでの対象物の検出精度をより高くすることができる。
<アンカー設定方法の他の例>
また、アンカー設定部32は、アンカーのサイズを決定した後、使用するアンカーを評価し、アンカーの数を減少させてもよい。つまり、使用するアンカーのアスペクト比の組み合わせを評価し、検出率への影響が小さいアスペクト比のアンカーを使用しない設定としてもよい。図17は、アンカー設定部の処理の他の例を示すフローチャートである。図18は、アンカー設定部の処理の他の例を説明するための説明図である。
アンカー設定部32は、図8に示すアンカーの大きさ(サイズ)を決定した後に本処理を実行する。アンカー設定部32は、アンカーのサイズ情報を取得する(ステップS80)。アンカー設定部32は、教師データ(学習データ)の読み出しを行う(ステップS82)。アンカー設定部32は、アンカーのアスペクト比のそれぞれの組み合わせについて学習データの採用率を算出する(ステップS84)。
例えば、図18に示す例では、初期設定では、パターンPに示すように、アスペクト比が、3、2、1、1/2、1/3の、アスペクト比の異なる5つのアンカーを用いる設定となっている。これに対して、4つのアンカーを用いた場合の採用率を算出する。パターンPは、アスペクト比が2、1、1/2、1/3と、アスペクト比が3のアンカー以外の組み合わせである。パターンPは、アスペクト比が3、1、1/2、1/3と、アスペクト比が2のアンカー以外の組み合わせである。パターンPは、アスペクト比が3、2、1/2、1/3と、アスペクト比が1のアンカー以外の組み合わせである。パターンPは、アスペクト比が3、2、1、1/3と、アスペクト比が1/2のアンカー以外の組み合わせである。パターンPは、アスペクト比が3、2、1、1/2と、アスペクト比が1/3のアンカー以外の組み合わせである。アンカー設定部32は、全てのパターについて、採用率を算出する。
アンカー設定部32は、それぞれのアンカーの組み合わせでの採用率を比較する(ステップS86)。アンカー設定部32は、図18に示すように、それぞれのパターンでの学習データの採用率を比較する。アンカー設定部32は、使用するアスペクト比の組み合わせを決定する(ステップS88)。アンカー設定部32は、学習データの採用率の低減が閾値以内で、かつ、使用するアンカーの数がより少なくなる組み合わせを、使用する使用するアスペクト比の組み合わせとする。アンカーの数は同じ場合、最も学習データの採用率が高い組み合わせを、使用するアスペクト比のアンカーの組み合わせとする。図18に示す例では、Pのアンカーの組み合わせを採用する。
このように、アンカー設定部32は、アンカーの組み合わせを評価し、採用率の低減を抑止しつつ、使用するアンカーを減らす組み合わせを考慮することで、対象物の検出の精度の低減を抑制しつつ、計算量を低減することができる。また、教師データを用いて、評価を行うことで、対象物の検出に適したアンカーの組み合わせとすることができる。
10 プログラム作成装置
12 入力部
14 出力部
16 演算部
18 記憶部
30 教師データ作成部
32 アンカー設定部
34 学習部
36 対象物検知処理部
40 画像データ
42 設定データ
44 学習実行プログラム
46 アンカー設定プログラム
48、120 対象物検知プログラム
50、122 学習済みプログラム
100 対象物検知システム
102 対象物検知装置
112 カメラ部
114 演算部
116 記憶部
118 報知部
212 アンカー
230、232 バウンディングボックス

Claims (9)

  1. 画像に対象物が含まれているかを検出する対象物検知プログラムを作成するプログラム作成装置であって、
    対象物のエリア情報が含まれた複数の画像データを含む教師データと、
    画像から対象物の有無を検出するセルごとの領域を特定する枠の情報であるアンカーを設定する設定部と、
    設定部の情報に基づいて、教師データを機械学習し、画像から対象物を抽出する学習済みプログラムを作成する学習部と、を含み、
    前記設定部は、前記教師データの対象領域と、アンカーのアスペクト比の情報を取得し、アンカーのサイズを変化させつつ、各アスペクト比での、アンカーと対象領域の一致度を算出し、一致度が閾値以上となる割合である前記対象領域の採用率を算出し、
    算出した結果に基づいて、学習済みプログラムで使用するアンカーのサイズを決定するプログラム作成装置。
  2. 前記設定部は、閾値を複数の一致度の値として、それぞれの採用率を算出し、算出した結果に基づいて、複数のアンカーのサイズを決定する請求項1に記載のプログラム作成装置。
  3. 前記設定部は、閾値に基づいて、採用率が最も高いアンカーのサイズを、決定するアンカーのサイズとする請求項1または請求項2に記載のプログラム作成装置。
  4. 前記設定部は、前記教師データの対象領域のアスペクト比を算出し、対象領域のアスペクト比の分布に基づいて、前記アンカーのアスペクト比を決定する請求項1から請求項3のいずれか一項に記載のプログラム作成装置。
  5. 前記設定部は、決定したアンカーのサイズに基づいて、教師データに対して、設定されたアスペクト比のそれぞれについて検出率を算出し、
    算出した結果に基づいて、学習済みプログラムで使用するアンカーのアスペクト比の組み合わせを決定する請求項1から請求項4のいずれか一項に記載のプログラム作成装置。
  6. 前記設定部は、検出率を算出したアスペクト比のアンカーのうち一部のアンカーを、学習済みプログラムで使用するアンカーとする請求項5に記載のプログラム作成装置。
  7. 請求項1から請求項6のいずれか一項に記載のプログラム作成装置と、
    前記プログラム作成装置で作成された学習済みプログラムを実行する演算部、画像を取得するカメラ部、オペレータに報知を行う報知部と、を含み、前記演算部は、前記カメラ部で取得した画像と前記学習済みプログラムで解析し、前記画像の対象物が含まれていることを検知した場合、前記報知部から報知する対象物検知装置と、を備える対象物検知システム。
  8. 画像に対象物が含まれているかを検出する対象物検知プログラムに用いるアンカーを設定するアンカー設定方法であって、
    対象物のエリア情報が含まれた複数の画像データを含む教師データを取得するステップと、
    画像から対象物の有無を検出するセルごとの領域を特定する枠の情報であるアンカー情報を取得するステップと、
    前記教師データの対象領域と、アンカーのアスペクト比の情報を取得し、アンカーのサイズを変化させつつ、各アスペクト比での、アンカーと対象領域の一致度を算出し、一致度が閾値以上となる割合である前記対象領域の採用率を算出するステップと、
    算出した結果に基づいて、学習済みプログラムで使用するアンカーのサイズを決定するステップと、を含むアンカー設定方法。
  9. 画像に対象物が含まれているかを検出する対象物検知プログラムに用いるアンカーを設定させる処理を実行させるアンカー設定プログラムであって、
    対象物のエリア情報が含まれた複数の画像データを含む教師データを取得するステップと、
    画像から対象物の有無を検出するセルごとの領域を特定する枠の情報であるアンカー情報を取得するステップと、
    前記教師データの対象領域と、アンカーのアスペクト比の情報を取得し、アンカーのサイズを変化させつつ、各アスペクト比での、アンカーと対象領域の一致度を算出し、一致度が閾値以上となる割合である前記対象領域の採用率を算出するステップと、
    算出した結果に基づいて、学習済みプログラムで使用するアンカーのサイズを決定するステップと、を実行させるアンカー設定プログラム。
JP2020063281A 2020-03-31 2020-03-31 プログラム作成装置、対象物検知システム、アンカー設定方法及びアンカー設定プログラム Active JP7340487B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020063281A JP7340487B2 (ja) 2020-03-31 2020-03-31 プログラム作成装置、対象物検知システム、アンカー設定方法及びアンカー設定プログラム
DE102021201031.8A DE102021201031A1 (de) 2020-03-31 2021-02-04 Programmerstellungsvorrichtung, Objekterkennungssystem, Ankersetzverfahren und Ankersetzprogramm
CN202110159215.8A CN113470040A (zh) 2020-03-31 2021-02-05 程序生成装置、对象物感测***、锚设定方法以及记录有锚设定程序的计算机可读记录介质
US17/170,244 US11769322B2 (en) 2020-03-31 2021-02-08 Program creation device, object detection system, anchor setting method, and anchor setting program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020063281A JP7340487B2 (ja) 2020-03-31 2020-03-31 プログラム作成装置、対象物検知システム、アンカー設定方法及びアンカー設定プログラム

Publications (2)

Publication Number Publication Date
JP2021163127A JP2021163127A (ja) 2021-10-11
JP7340487B2 true JP7340487B2 (ja) 2023-09-07

Family

ID=77659092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020063281A Active JP7340487B2 (ja) 2020-03-31 2020-03-31 プログラム作成装置、対象物検知システム、アンカー設定方法及びアンカー設定プログラム

Country Status (4)

Country Link
US (1) US11769322B2 (ja)
JP (1) JP7340487B2 (ja)
CN (1) CN113470040A (ja)
DE (1) DE102021201031A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024082924A (ja) 2022-12-09 2024-06-20 株式会社豊田自動織機 物体検出装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5172749U (ja) 1975-12-05 1976-06-08
JP5172749B2 (ja) 2009-03-13 2013-03-27 株式会社東芝 信号探索装置、信号探索方法及びプログラム
US20180039853A1 (en) 2016-08-02 2018-02-08 Mitsubishi Electric Research Laboratories, Inc. Object Detection System and Object Detection Method
JP6972756B2 (ja) * 2017-08-10 2021-11-24 富士通株式会社 制御プログラム、制御方法、及び情報処理装置
CN109658455B (zh) * 2017-10-11 2023-04-18 阿里巴巴集团控股有限公司 图像处理方法和处理设备
US10007865B1 (en) * 2017-10-16 2018-06-26 StradVision, Inc. Learning method and learning device for adjusting parameters of CNN by using multi-scale feature maps and testing method and testing device using the same
JP2020027405A (ja) * 2018-08-10 2020-02-20 コニカミノルタ株式会社 物体検出プログラム、および物体検出装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Shaoqing Ren, Kaiming He, Ross Girshick, and Jian Sun,Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks,arXiv,米国,Cornell University,2016年01月06日

Also Published As

Publication number Publication date
CN113470040A (zh) 2021-10-01
US11769322B2 (en) 2023-09-26
JP2021163127A (ja) 2021-10-11
US20210303823A1 (en) 2021-09-30
DE102021201031A1 (de) 2021-09-30

Similar Documents

Publication Publication Date Title
JP6871314B2 (ja) 物体検出方法、装置及び記憶媒体
US7995866B2 (en) Rotation angle detection apparatus, and control method and control program of rotation angle detection apparatus
US11915430B2 (en) Image analysis apparatus, image analysis method, and storage medium to display information representing flow quantity
JP2010244178A (ja) 顔特徴点検出装置及びプログラム
EP3989162A1 (en) Defect image generation method for deep learning and system therefore
JP7340487B2 (ja) プログラム作成装置、対象物検知システム、アンカー設定方法及びアンカー設定プログラム
KR102470422B1 (ko) 합성곱 신경망 특징맵 기반 봉제 스티치 불량 자동 검출 방법 및 시스템
US20220012514A1 (en) Identification information assignment apparatus, identification information assignment method, and program
JP5976126B2 (ja) ターゲットサイズを見積もるためのシステム及び方法
KR101982258B1 (ko) 오브젝트 검출 방법 및 오브젝트 검출 장치
JP2010028429A (ja) 画像処理装置、画像処理方法およびプログラム
US11954865B2 (en) Image processing apparatus, image processing method, and storage medium for foreground extraction
KR20160011535A (ko) 영상 처리 장치 및 방법
US11244443B2 (en) Examination apparatus, examination method, recording medium storing an examination program, learning apparatus, learning method, and recording medium storing a learning program
JP2022013433A (ja) 情報処理装置、情報処理方法
JPH10123163A (ja) 流速分布測定方法
WO2020107196A1 (zh) 一种对拍摄装置的拍摄质量评测方法、装置及终端设备
WO2021199540A1 (ja) データ作成装置、プログラム作成装置、対象物検知装置、データ作成方法及び対象物検知方法
US20050201602A1 (en) Fully automated segmentation of genetic micro-array images
JP2006260410A (ja) 画像処理アルゴリズムの評価装置、生成装置、評価方法、生成方法、コンピュータをその評価装置として機能させるためのプログラム、およびコンピュータをその生成装置として機能させるためのプログラム
JP2017073138A (ja) 水状態検出装置、方法及び画像処理装置
JP2023136850A (ja) 文字検知装置、文字検知方法及び文字検知プログラム
JP2003108997A (ja) 二値化処理におけるしきい値設定方法、二値化処理回路および二値化処理プログラムならびにコンピュータで読み取り可能な記録媒体
KR102622941B1 (ko) 작은 객체의 검출 및 인식 성능 향상을 위한 영상 처리 장치 및 방법
JP2000200359A (ja) 画像処理装置及び画像処理方法及び画像処理プログラムを記録した記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230828

R150 Certificate of patent or registration of utility model

Ref document number: 7340487

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150