JP7054278B1 - 深層学習に基づくエッジ識別方法 - Google Patents
深層学習に基づくエッジ識別方法 Download PDFInfo
- Publication number
- JP7054278B1 JP7054278B1 JP2021157869A JP2021157869A JP7054278B1 JP 7054278 B1 JP7054278 B1 JP 7054278B1 JP 2021157869 A JP2021157869 A JP 2021157869A JP 2021157869 A JP2021157869 A JP 2021157869A JP 7054278 B1 JP7054278 B1 JP 7054278B1
- Authority
- JP
- Japan
- Prior art keywords
- target
- network
- image
- mesh
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
1、本発明は、習性を介してネットワーク構造を構築し、残差ネットワーク、ダウンサンプリング操作を融合し、7層特徴抽出ネットワークを設計し、検出速度が遅いという課題を解決し、検出速度を短縮した。
2、本発明は、畳み込み層周囲充填によりエッジ情報抽出とダウンサンプリング方法を提案し、識別精度を向上させ、小さな目標の定位という課題を解決し、定位の正確度を向上させた。
3、本発明は、Softmax関数を採用して正規化することにより、目標確率可能値を生成し、多分類識別を実現し、SVM分類器の汎用性が低いという課題を解決した。
4、本発明は、一括正規化、マルチスケールトレーニングなどのトレーニング方法により、アルゴリズムのロバスト性を向上させた。
図1に示すように、本実施例は、深層学習に基づくエッジ識別方法を提供する。この方法は、主に以下のステップを含む。
比値が0に近い場合、予測フレームが真実フレームからずれていることを表す。
式中、TPは真の正サンプルを表し、FPは偽の正サンプルを表し、FNは偽の負サンプルを表し、iは種別を表す。アルゴリズムの比較は表1に示すとおりである。表1から分かるように、T-YOLOアルゴリズムは平均正確度でも検出速度でも最適な効果が得られ、YOLOv2アルゴリズムに比べて、T-YOLOアルゴリズムの平均正確度は7.1%向上し、検出速度は1フレームあたり4.9ms短縮し、Faster R-CNNアルゴリズムに比べて、T-YOLOアルゴリズムの速度は、124倍向上し、精度は3.8%向上し、従来のHOG+SVMアルゴリズムに比べて、検出精度は13%向上した。
Claims (3)
- ネットワーク構造構築を行い、ネットワーク構造上にアンカーanchorを人為的に設定し、目標予測を行い、7層畳み込み層を設計してネットワーク特徴を抽出するステップS1と、
畳み込み層周囲充填を採用して、エッジ情報を抽出し、残差ネットワークと畳み込みダウンサンプリング操作を融合するステップS2と、
各畳み込み層に一括正規化操作を加え、Softmax関数を採用して正規化し、画像を0及び1に分類し、目標確率可能値を生成するステップS3と、
目標ネットワーク検出を行い、入力画像の解像度を調整するステップS4とを含み、
(1)ステップS1において、
(1-1)ネットワーク構造構築は、画像を同一スケールに正規化し、検出画像対象全体をS×S個のメッシュに分割し、各メッシュでは、目標画像の中心点位置を検出し、目標画像の中心点位置がこのメッシュにあれば、目標可能性をPr(Object)=1とし、そうでなければ、目標可能性をPr(Object)=0とし、
(1-2)目標予測のプロセスは、以下のとおりであり、
アンカーanchorを設定することにより、定量個数の予測フレームが生成され、各予測フレームには、座標情報(x,y,w,h)と信頼度(Confidence)が生成され、そのうち、xはメッシュ左上角横座標に対するオフセット値であり、yはメッシュ左上角縦座標に対するオフセット値であり、w、hはそれぞれこの予測フレームの幅と高さであり、信頼度confidenceは境界フレームが目標を含む可能性Pr(object)と境界フレーム正確度IOUとの相乗積であり、式(1)に示すとおりであり、同時に、各予測フレームには、一つの固定カテゴリCが生成され、
(3)ステップS3において、一括正規化操作のプロセスは、以下のとおりであり、
S31、最小batchを見つけ、最小batchにおける入力データをxとし、
S32、βを入力xからなるセットとし、β={x1,x2、…、xm}であり、
S33、最小batchにおける平均値と二乗差を取得し、正規化操作し、原始データからトレーニングデータへのマッピング表現式を取得し、式(2)に示すとおりであり
S41、検出対象画像を56×56個のメッシュに分割し、各メッシュは、目標画像を検出し、メッシュ中心値を取得し、目標中心点が位置するメッシュを決定し、
S42、目標中心点メッシュを検出すれば、メッシュ切り取りを行い、設定された予選フレーム画像を取得し、切り取り画像をニューラルネットワーク領域に送り、局所的目標画像を含むメッシュに対して、ニューラルネットワークを介して判断・認識し、
S43、メッシュから出力する予選フレーム画像の数を設定し、k平均クラスタリング(Kmeans)を採用して、設定された予選フレームのサイズを解き、k個の対象をランダムに選択して初期クラスタ中心とし、次いで、目標における点とクラスタ中心との距離を計算し、毎回生成された対象を最も近い中心点に割り当て、サンプルを1つ割り当てるごとに、クラスタ中心点を再計算し、その後、すべてのサンプルが計算完了されるまで、クラスタリングを継続し、最終的にすべてのクラスタ点が生成され、そのうちのクラスタリングがもっとも多い若干個の矩形フレームの点を予選フレームとして選択する、
ことを特徴とする深層学習に基づくエッジ識別方法。 - ステップS2において、エッジ情報を抽出し、3×3の畳み込みカーネルを介してステップサイズを2に設定して、画像ダウンサンプリングを行い、パラメータを初期化して、ネットワークトレーニングを行い、逆伝播アルゴリズムにより浅層パラメータを更新する、ことを特徴とする請求項1に記載の深層学習に基づくエッジ識別方法。
- ネットワークトレーニングの具体的なプロセスは、以下のとおりであり、
S21、すべてのフィルタを初期化し、ランダム値を使用してパラメータ又は重みを設定し、
S22、ネットワークは、1枚のトレーニング画像を入力として受信し、畳み込み、Reluとプーリング化操作、及び全接続層の順方向伝達プロセスを介して、様々なエッジ情報の出力確率を見つけ、
S23、出力層で総誤差を算出し、
S24、逆伝播アルゴリズムを使用して、ネットワークの重みに基づいて、誤差の勾配を算出し、勾配降下アルゴリズムを使用して、全てのフィルタの値又は重み及びパラメータの値を更新し、出力誤差を最小化にし、
S25、トレーニングデータ中のすべての画像に対してステップ1~4を繰り返し、トレーニングを完了する、ことを特徴とする請求項2に記載の深層学習に基づくエッジ識別方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110427265.X | 2021-04-21 | ||
CN202110427265.XA CN113139979A (zh) | 2021-04-21 | 2021-04-21 | 一种基于深度学习的边缘识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7054278B1 true JP7054278B1 (ja) | 2022-04-13 |
JP2022166799A JP2022166799A (ja) | 2022-11-02 |
Family
ID=76812990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021157869A Active JP7054278B1 (ja) | 2021-04-21 | 2021-09-28 | 深層学習に基づくエッジ識別方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7054278B1 (ja) |
CN (1) | CN113139979A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115130619A (zh) * | 2022-08-04 | 2022-09-30 | 中建电子商务有限责任公司 | 一种基于聚类选择集成的风险控制方法 |
CN117315670A (zh) * | 2023-09-26 | 2023-12-29 | 天津市金超利达科技有限公司 | 一种基于计算机视觉的水表读数区域检测方法 |
CN117649675A (zh) * | 2024-01-29 | 2024-03-05 | 广州亚信技术有限公司 | 一种表格生成方法、装置、设备及存储介质 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023220888A1 (en) * | 2022-05-16 | 2023-11-23 | Intel Corporation | Modeling graph-structured data with point grid convolution |
CN117422717B (zh) * | 2023-12-19 | 2024-02-23 | 长沙韶光芯材科技有限公司 | 一种掩膜板污渍智能定位方法和*** |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109522963A (zh) * | 2018-11-26 | 2019-03-26 | 北京电子工程总体研究所 | 一种单机运行的特征建筑目标检测方法和*** |
CN110490174A (zh) * | 2019-08-27 | 2019-11-22 | 电子科技大学 | 基于特征融合的多尺度行人检测方法 |
CN111507416B (zh) * | 2020-04-21 | 2023-08-04 | 湖北马斯特谱科技有限公司 | 一种基于深度学习的吸烟行为实时检测方法 |
CN112232184B (zh) * | 2020-10-14 | 2022-08-26 | 南京邮电大学 | 一种基于深度学习和空间转换网络的多角度人脸识别方法 |
-
2021
- 2021-04-21 CN CN202110427265.XA patent/CN113139979A/zh active Pending
- 2021-09-28 JP JP2021157869A patent/JP7054278B1/ja active Active
Non-Patent Citations (2)
Title |
---|
Chen Zhang,A Fast Filtering Mechanism to Improve Efficiency of Large-Scale Video Analytics,IEEE Transactions on Computers,米国,IEEE,2020年01月30日,Volume 69,p.914-p. 928,https://ieeexplore.ieee.org/document/8976261 |
CHEN ZHANG: "A Fast Filtering Mechanism to Improve Efficiency of Large-Scale Video Analytics", IEEE TRANSACTIONS ON COMPUTERS, vol. 69, JPN6021049499, 30 January 2020 (2020-01-30), US, pages 914 - 928, XP011787328, ISSN: 0004732194, DOI: 10.1109/TC.2020.2970413 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115130619A (zh) * | 2022-08-04 | 2022-09-30 | 中建电子商务有限责任公司 | 一种基于聚类选择集成的风险控制方法 |
CN117315670A (zh) * | 2023-09-26 | 2023-12-29 | 天津市金超利达科技有限公司 | 一种基于计算机视觉的水表读数区域检测方法 |
CN117649675A (zh) * | 2024-01-29 | 2024-03-05 | 广州亚信技术有限公司 | 一种表格生成方法、装置、设备及存储介质 |
CN117649675B (zh) * | 2024-01-29 | 2024-03-29 | 广州亚信技术有限公司 | 一种表格生成方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113139979A (zh) | 2021-07-20 |
JP2022166799A (ja) | 2022-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7054278B1 (ja) | 深層学習に基づくエッジ識別方法 | |
CN108416307B (zh) | 一种航拍图像路面裂缝检测方法、装置及设备 | |
CN111368788B (zh) | 图像识别模型的训练方法、装置及电子设备 | |
CN111027493B (zh) | 一种基于深度学习多网络软融合的行人检测方法 | |
CN109711416B (zh) | 目标识别方法、装置、计算机设备和存储介质 | |
WO2020062360A1 (zh) | 一种图像融合分类的方法及装置 | |
CN111461213B (zh) | 一种目标检测模型的训练方法、目标快速检测方法 | |
CN111813997B (zh) | 入侵分析方法、装置、设备及存储介质 | |
CN110197716B (zh) | 医学影像的处理方法、装置及计算机可读存储介质 | |
CN109934216B (zh) | 图像处理的方法、装置、计算机可读存储介质 | |
CN114758288A (zh) | 一种配电网工程安全管控检测方法及装置 | |
CN112926652B (zh) | 一种基于深度学习的鱼类细粒度图像识别方法 | |
CN107944403A (zh) | 一种图像中的行人属性检测方法及装置 | |
CN108932455B (zh) | 遥感图像场景识别方法及装置 | |
CN111724566A (zh) | 基于智慧灯杆视频监控***的行人跌倒检测方法和装置 | |
CN110689044A (zh) | 一种结合目标间关系的目标检测方法及*** | |
CN111833353B (zh) | 一种基于图像分割的高光谱目标检测方法 | |
CN114283326A (zh) | 一种结合局部感知和高阶特征重构的水下目标重识别方法 | |
KR20220144269A (ko) | 인공지능 기반 객체 재인식 장치 | |
CN117437691A (zh) | 一种基于轻量化网络的实时多人异常行为识别方法及*** | |
Wang et al. | Text detection algorithm based on improved YOLOv3 | |
CN117152625A (zh) | 一种基于CoordConv和YOLOv5的遥感小目标识别方法、***、设备及介质 | |
CN111738069A (zh) | 人脸检测方法、装置、电子设备及存储介质 | |
CN116543308A (zh) | 一种基于多模型融合的滑坡检测预警模型及预警方法 | |
CN116310832A (zh) | 遥感图像处理方法、装置、设备、介质及产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210928 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220302 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220325 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7054278 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |