JP7054278B1 - 深層学習に基づくエッジ識別方法 - Google Patents

深層学習に基づくエッジ識別方法 Download PDF

Info

Publication number
JP7054278B1
JP7054278B1 JP2021157869A JP2021157869A JP7054278B1 JP 7054278 B1 JP7054278 B1 JP 7054278B1 JP 2021157869 A JP2021157869 A JP 2021157869A JP 2021157869 A JP2021157869 A JP 2021157869A JP 7054278 B1 JP7054278 B1 JP 7054278B1
Authority
JP
Japan
Prior art keywords
target
network
image
mesh
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021157869A
Other languages
English (en)
Other versions
JP2022166799A (ja
Inventor
静 朱
▲興▼涛 凌
家輝 明
坤輝 王
林 李
綺嵐 鐘
泳隆 何
宣博 趙
邦政 尹
斌盛 謝
Original Assignee
▲広▼州大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ▲広▼州大学 filed Critical ▲広▼州大学
Application granted granted Critical
Publication of JP7054278B1 publication Critical patent/JP7054278B1/ja
Publication of JP2022166799A publication Critical patent/JP2022166799A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

【課題】目標のエッジ情報から、検出速度が遅いという課題を解決し、目標定位の正確度を実現し、識別精度を向上させるT-YOLO検出アルゴリズムを提供する。【解決手段】検出アルゴリズムは、ネットワーク構造構築を行い、ネットワーク構造上にアンカーanchorを設定し、目標予測を行い、7層畳み込み層を設計してネットワーク特徴を抽出するステップと、畳み込み層周囲充填を採用して、エッジ情報を抽出し、残差ネットワークと畳み込みダウンサンプリング操作を融合するステップと、各畳み込み層に一括正規化操作を加え、Softmax関数を採用して正規化し、画像を0及び1に分類し、目標確率可能値を生成するステップと、目標ネットワーク検出を行い、マルチスケールトレーニング方式を採用して、入力画像の解像度を調整するステップと、を含む。【選択図】図1

Description

本発明は、エッジ識別技術分野に関し、特に深層学習に基づくエッジ識別方法に関する。
現在、エッジ識別技術の応用シーンは、ますます広くなり、例えば、手書き識別、顔輪郭識別、交通標識識別などである。従来のエッジ識別技術において、境界を利用して領域を探すことによって、物体の識別とシーン解析を実現し、目標エッジ、画像テクスチャ特徴などが検出のエッジとなる可能性があるため、エッジ検出の多くの手法では、検出速度が遅く、識別精度が低く、小さな目標の精確定位を実現できないなど様々な制約と欠点が存在する。
従来のカラー空間に基づく識別方法は、又は形状特徴に基づいてエッジ情報を識別したり、色と形状特徴とを融合して識別したり、顔色空間を介して関心領域を抽出したり、その後、サポートベクタマシン(Support Vector Machine、SVM)を使用して分類したりする。しかしながら、これらの方法にも一定の欠点が存在する。例えば、雨の日、霧の日、遮蔽などの場合には、特殊場合下でのエッジ情報特徴を顔色と形状で抽出することが困難であり、さらに精度が低くなる。
そのため、エッジ検出精度を向上させる方法を探す必要がある。
従来技術に存在する技術課題を解決するために、本発明は、深層学習に基づくエッジ識別方法を提供する。この方法は、目標のエッジ情報から、検出速度が遅いという課題を解決し、目標定位の正確度を実現し、識別精度を向上させるT-YOLO検出アルゴリズムを提案する。
本発明は、以下の技術案によって実現される。
深層学習に基づくエッジ識別方法であって、以下のステップを含む。
ステップS1、ネットワーク構造構築を行い、ネットワーク構造上にアンカーanchorを設定し、目標予測を行い、7層畳み込み層を設計してネットワーク特徴を抽出する。
ステップS2、畳み込み層周囲充填を採用して、エッジ情報を抽出し、残差ネットワークと畳み込みダウンサンプリング操作を融合する。
ステップS3、各畳み込み層に一括正規化操作を加え、Softmax関数を採用して正規化し、画像を0及び1に分類し、目標確率可能値を生成する。
ステップS4、目標ネットワーク検出を行い、マルチスケールトレーニング方式を採用して、入力画像の解像度を調整する。
本発明は、従来技術に比べて、以下の利点及び有益な効果を有する。
1、本発明は、習性を介してネットワーク構造を構築し、残差ネットワーク、ダウンサンプリング操作を融合し、7層特徴抽出ネットワークを設計し、検出速度が遅いという課題を解決し、検出速度を短縮した。
2、本発明は、畳み込み層周囲充填によりエッジ情報抽出とダウンサンプリング方法を提案し、識別精度を向上させ、小さな目標の定位という課題を解決し、定位の正確度を向上させた。
3、本発明は、Softmax関数を採用して正規化することにより、目標確率可能値を生成し、多分類識別を実現し、SVM分類器の汎用性が低いという課題を解決した。
4、本発明は、一括正規化、マルチスケールトレーニングなどのトレーニング方法により、アルゴリズムのロバスト性を向上させた。
本発明の方法のフローチャートである。 本発明の予測概略図である。 本発明の7層畳み込み層である。 本発明のダウンサンプリング概略図である。 本発明の残差ネットワークフローチャートである。 本発明のネットワーク概略図である。 異なる解像度画像の正確度である。 異なる解像度画像の検出速度である。
以下、実施例及び図面を結び付けながら、本発明についてさらに詳細に説明するが、本発明の実施形態はこれらに限定されない。
実施例
図1に示すように、本実施例は、深層学習に基づくエッジ識別方法を提供する。この方法は、主に以下のステップを含む。
ステップS1、ネットワーク構造構築を行い、ネットワーク構造上にアンカーanchorを設定し、目標予測を行い、7層畳み込み層を設計してネットワーク特徴を抽出する。
本実施例では、ステップS1において、ネットワーク構造構築は、画像を同一スケールに正規化し、検出画像対象全体をS×S個のメッシュに分割し、各メッシュでは、目標画像の中心点位置を検出し、目標画像の中心点位置がこのメッシュにあれば、目標可能性をPr(Object)=1とし、そうでなければ、目標可能性をPr(Object)=0とする。
図2に示すように、本実施例では、人為的に設定されたアンカーanchorを介して定量個数の予測フレームが生成され、各予測フレームには、座標情報(x,y,w,h)と信頼度(Confidence)が生成される。そのうち、xはメッシュ左上角横座標に対するオフセット値であり、yはメッシュ左上角縦座標に対するオフセット値であり、w、hはそれぞれこの予測フレームの幅と高さであり、信頼度は境界フレームが目標を含む可能性Pr(Object)と境界フレーム正確度IOU(Intersection Over Union)との相乗積であり、式(1)に示すとおりであり、同時に、各予測フレームには、一つの固定カテゴリCが生成され、

Figure 0007054278000002

比値が0に近い場合、予測フレームが真実フレームからずれていることを表す。
図3に示すように、本実施例では、モデル特徴抽出速度を短縮するために、7層畳み込み層を採用してネットワーク特徴を抽出する。
ステップS2、手書き、交通標識などの特定シーンに対して、畳み込み層周囲充填0を採用して、エッジ情報を抽出し、ダウンサンプリング方法を利用して識別精度を向上させ、残差ネットワークを加え、モデルの過剰フィッティングを防止する。
図4に示すように、本実施例では、畳み込み層を採用して、3×3の畳み込みカーネルを介してステップサイズを2に設定し、画像ダウンサンプリングを行うことによって、エッジ情報が失われないようにし、さらに検出精度を向上させる。そのうち、深さが深いほどネットワーク層は、パラメータ初期化は一般に0に近く、ネットワークトレーニングプロセスでは、繰り返し回数の増加につれて、ネットワークは逆伝播アルゴリズムにより浅層パラメータを更新し、さらに勾配消失を引き起こし、勾配爆発などの現象を産生することによって、収束できなくなり、損失率が増加する。しかし、残差ネットワークは、勾配消失及び勾配爆発などの現象を解決することができ、さらにモデルを収束させることができる。このために、エッジ情報を抽出した後に残差ネットワークを加え、モデルの過剰フィッティング防止のために用いる。
具体的には、ネットワークトレーニングの具体的なプロセスは、以下のとおりである。
S21、すべてのフィルタを初期化し、ランダム値を使用してパラメータ又は重みを設定する。
S22、ネットワークは、1枚のトレーニング画像を入力として受信し、畳み込み、Reluとプーリング化操作、及び全接続層の順方向伝達プロセスを介して、様々なエッジ情報の出力確率を見つける。
S23、出力層で総誤差を算出する。
S24、逆伝播アルゴリズムを使用して、ネットワークの重みに基づいて、誤差の勾配を算出し、勾配降下アルゴリズムを使用して、全てのフィルタの値又は重み及びパラメータの値を更新し、出力誤差を最小化にする。
S25、トレーニングデータ中のすべての画像に対してステップ1~4を繰り返し、トレーニングを完了する。
図5、図6に示すように、本実施例では、残差ネットワークの出力と入力を融合して、ダウンサンプリングすることにより、小型目標の識別課題を解決し、精度を向上させる。
ステップS3、各畳み込み層に一括正規化操作を加え、Softmax関数を採用して正規化し、画像を0及び1に分類し、目標確率可能値を生成する。
本実施例では、ステップS3において、一括正規化操作のプロセスは、以下のとおりである。
S31、最小batchを見つけ、最小batchにおける入力データをxとする。
S32、βを入力xからなるセットとし、β={x1,x2、…、xm}である。
S33、最小batchにおける平均値と二乗差を取得し、正規化操作し、さらに原始データからトレーニングデータへのマッピング表現式を生成し、式(2)に示すとおりである。

Figure 0007054278000003
S4、目標ネットワーク検出を行い、マルチスケールトレーニング方式を採用して、10ラウンドごとに入力画像の解像度を1回調整し、さらにモデルが異なる解像度に対して有効な識別と定位を行うことができるようにする。
本実施例では、目標ネットワーク検出のプロセスは、以下のとおりである。
S41、検出対象画像を56×56個のメッシュに分割し、各メッシュは、目標画像が含まれているか否かを検出し、メッシュ中心値を取得し、さらに目標中心点が位置するメッシュを決定する。
S42、目標中心点メッシュを検出すれば、メッシュ切り取りを行い、大きさが事前設定済みである予選フレーム画像を生成し、切り取り画像をニューラルネットワーク領域に送り、局所的目標画像を含むメッシュに対して、ニューラルネットワークを介して判断・認識する。
S43、メッシュから出力する予選フレーム画像の数を5個に設定し、k平均クラスタリング(Kmeans)を採用して、予め設定された予選フレームのサイズを解き、k個の対象をランダムに選択して初期クラスタ中心とし、次いで、目標における点とクラスタ中心との距離を計算し、毎回生成された対象を最も近い中心点に割り当て、サンプルを1つ割り当てるごとに、クラスタ中心点を再計算し、その後、すべてのサンプルが計算完了されるまで、クラスタリングを継続し、最終的にすべてのクラスタ点が生成され、そのうちのクラスタリングがもっとも多い5つの矩形フレームの点を予選フレームとして選択する。
本実施例では、目標中心点のメッシュには、(5+3)×5個の予選フレーム画像が生成され、このメッシュにおいて生成された40個の予選フレーム画像はいずれもニューラルネットワークに送られて判断識別される。
本発明の正確性と信頼性を検証するために、ハードウェアプラットフォームGPU RXT2080 TiとCPU Intel (R)Xeon(R) W-2133及びソフトウェアプラットフォームUbuntu16.04、opencv3.4.3を基礎として、テストセット3000枚の画像を異なるネットワークに送り、画像サイズは1024 pixel×768 pixelであり、平均正確率(m AP)、平均再現率(Average Recall、AR)、GPU検出速度(ms/frame)を検証指標として選択する。AR計算式は、式(3)に示すとおりである。
Figure 0007054278000004

式中、TPは真の正サンプルを表し、FPは偽の正サンプルを表し、FNは偽の負サンプルを表し、iは種別を表す。アルゴリズムの比較は表1に示すとおりである。表1から分かるように、T-YOLOアルゴリズムは平均正確度でも検出速度でも最適な効果が得られ、YOLOv2アルゴリズムに比べて、T-YOLOアルゴリズムの平均正確度は7.1%向上し、検出速度は1フレームあたり4.9ms短縮し、Faster R-CNNアルゴリズムに比べて、T-YOLOアルゴリズムの速度は、124倍向上し、精度は3.8%向上し、従来のHOG+SVMアルゴリズムに比べて、検出精度は13%向上した。
Figure 0007054278000005
同様に、T-YOLOアルゴリズムのロバスト性を検証するために、異なる解像度入力画像を採用してテストを行った。224 pixel×224 pixel、320 pixel×320 pixel、416 pixel×416 pixel、512 pixel×512 pixel、608 pixel×608 pixelの5種類の解像度画像を採用して、原始画像を上記解像度固定サイズに等比例方式に従って拡大縮小し、空き画素領域に対して黒画素0を充填し、各分類の正確率及び平均精度、検出速度という3つの指標をそれぞれ検証し、その結果は、図7と図8に示すとおりである。画像サイズ320 pixel×320 pixelから大きい方に向かって、平均精度がだんだん高くなる。図7と図8から分かるように、低解像度の画像に対しては検出速度が速いが、対応する平均精度は低く、224 pixel×224 pixelの画像に対してGPU上での検出速度が13.69 ms/frameに達し、解像度が向上するにつれて、検出所要時間も増加している。
実験により、本実施例の方法は真実且つ有効であり、従来のエッジ識別アルゴリズムに比べて、精度と速度両方面でも大幅に向上し、GPUプラットフォーム上で原始画像データ(1024 pixel×768 pixel)を採用する場合、その検出速度は19.31ms/frame、m APは97.3%であった。マルチスケールトレーニング方式を採用したため、モデルのロバスト性を向上させたことが明らかになった。
上記実施例は、本発明の好適な実施形態であるが、本発明の実施形態は上記実施例に限定されるものではなく、本発明の技術的思想内及び原理下で行われる他の任意の変形、修飾、置換、組み合わせ、簡略化は、いずれも等価の置換方式であり、いずれも本出願の保護範囲内に含まれる。

Claims (3)

  1. ネットワーク構造構築を行い、ネットワーク構造上にアンカーanchorを人為的に設定し、目標予測を行い、7層畳み込み層を設計してネットワーク特徴を抽出するステップS1と、
    畳み込み層周囲充填を採用して、エッジ情報を抽出し、残差ネットワークと畳み込みダウンサンプリング操作を融合するステップS2と、
    各畳み込み層に一括正規化操作を加え、Softmax関数を採用して正規化し、画像を0及び1に分類し、目標確率可能値を生成するステップS3と、
    目標ネットワーク検出を行い、入力画像の解像度を調整するステップS4とを含み、
    (1)ステップS1において、
    (1-1)ネットワーク構造構築は、画像を同一スケールに正規化し、検出画像対象全体をS×S個のメッシュに分割し、各メッシュでは、目標画像の中心点位置を検出し、目標画像の中心点位置がこのメッシュにあれば、目標可能性をPr(Object)=1とし、そうでなければ、目標可能性をPr(Object)=0とし、
    (1-2)目標予測のプロセスは、以下のとおりであり、
    アンカーanchorを設定することにより、定量個数の予測フレームが生成され、各予測フレームには、座標情報(x,y,w,h)と信頼度(Confidence)が生成され、そのうち、xはメッシュ左上角横座標に対するオフセット値であり、yはメッシュ左上角縦座標に対するオフセット値であり、w、hはそれぞれこの予測フレームの幅と高さであり、信頼度confidenceは境界フレームが目標を含む可能性Pr(object)と境界フレーム正確度IOUとの相乗積であり、式(1)に示すとおりであり、同時に、各予測フレームには、一つの固定カテゴリCが生成され、
    Figure 0007054278000006
    (2)ステップS2において、畳み込み層周囲充填0を採用し、
    (3)ステップS3において、一括正規化操作のプロセスは、以下のとおりであり、
    S31、最小batchを見つけ、最小batchにおける入力データをxとし、
    S32、βを入力xからなるセットとし、β={x1,x2、…、xm}であり、
    S33、最小batchにおける平均値と二乗差を取得し、正規化操作し、原始データからトレーニングデータへのマッピング表現式を取得し、式(2)に示すとおりであり
    Figure 0007054278000007
    (4)ステップS4において、目標ネットワーク検出のプロセスは、以下のとおりであり、
    S41、検出対象画像を56×56個のメッシュに分割し、各メッシュは、目標画像を検出し、メッシュ中心値を取得し、目標中心点が位置するメッシュを決定し、
    S42、目標中心点メッシュを検出すれば、メッシュ切り取りを行い、設定された予選フレーム画像を取得し、切り取り画像をニューラルネットワーク領域に送り、局所的目標画像を含むメッシュに対して、ニューラルネットワークを介して判断・認識し、
    S43、メッシュから出力する予選フレーム画像の数を設定し、k平均クラスタリング(Kmeans)を採用して、設定された予選フレームのサイズを解き、k個の対象をランダムに選択して初期クラスタ中心とし、次いで、目標における点とクラスタ中心との距離を計算し、毎回生成された対象を最も近い中心点に割り当て、サンプルを1つ割り当てるごとに、クラスタ中心点を再計算し、その後、すべてのサンプルが計算完了されるまで、クラスタリングを継続し、最終的にすべてのクラスタ点が生成され、そのうちのクラスタリングがもっとも多い若干個の矩形フレームの点を予選フレームとして選択する、
    ことを特徴とする深層学習に基づくエッジ識別方法。
  2. ステップS2において、エッジ情報を抽出し、3×3の畳み込みカーネルを介してステップサイズを2に設定して、画像ダウンサンプリングを行い、パラメータを初期化して、ネットワークトレーニングを行い、逆伝播アルゴリズムにより浅層パラメータを更新する、ことを特徴とする請求項1に記載の深層学習に基づくエッジ識別方法。
  3. ネットワークトレーニングの具体的なプロセスは、以下のとおりであり、
    S21、すべてのフィルタを初期化し、ランダム値を使用してパラメータ又は重みを設定し、
    S22、ネットワークは、1枚のトレーニング画像を入力として受信し、畳み込み、Reluとプーリング化操作、及び全接続層の順方向伝達プロセスを介して、様々なエッジ情報の出力確率を見つけ、
    S23、出力層で総誤差を算出し、
    S24、逆伝播アルゴリズムを使用して、ネットワークの重みに基づいて、誤差の勾配を算出し、勾配降下アルゴリズムを使用して、全てのフィルタの値又は重み及びパラメータの値を更新し、出力誤差を最小化にし、
    S25、トレーニングデータ中のすべての画像に対してステップ1~4を繰り返し、トレーニングを完了する、ことを特徴とする請求項に記載の深層学習に基づくエッジ識別方法。
JP2021157869A 2021-04-21 2021-09-28 深層学習に基づくエッジ識別方法 Active JP7054278B1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110427265.X 2021-04-21
CN202110427265.XA CN113139979A (zh) 2021-04-21 2021-04-21 一种基于深度学习的边缘识别方法

Publications (2)

Publication Number Publication Date
JP7054278B1 true JP7054278B1 (ja) 2022-04-13
JP2022166799A JP2022166799A (ja) 2022-11-02

Family

ID=76812990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021157869A Active JP7054278B1 (ja) 2021-04-21 2021-09-28 深層学習に基づくエッジ識別方法

Country Status (2)

Country Link
JP (1) JP7054278B1 (ja)
CN (1) CN113139979A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115130619A (zh) * 2022-08-04 2022-09-30 中建电子商务有限责任公司 一种基于聚类选择集成的风险控制方法
CN117315670A (zh) * 2023-09-26 2023-12-29 天津市金超利达科技有限公司 一种基于计算机视觉的水表读数区域检测方法
CN117649675A (zh) * 2024-01-29 2024-03-05 广州亚信技术有限公司 一种表格生成方法、装置、设备及存储介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023220888A1 (en) * 2022-05-16 2023-11-23 Intel Corporation Modeling graph-structured data with point grid convolution
CN117422717B (zh) * 2023-12-19 2024-02-23 长沙韶光芯材科技有限公司 一种掩膜板污渍智能定位方法和***

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109522963A (zh) * 2018-11-26 2019-03-26 北京电子工程总体研究所 一种单机运行的特征建筑目标检测方法和***
CN110490174A (zh) * 2019-08-27 2019-11-22 电子科技大学 基于特征融合的多尺度行人检测方法
CN111507416B (zh) * 2020-04-21 2023-08-04 湖北马斯特谱科技有限公司 一种基于深度学习的吸烟行为实时检测方法
CN112232184B (zh) * 2020-10-14 2022-08-26 南京邮电大学 一种基于深度学习和空间转换网络的多角度人脸识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Chen Zhang,A Fast Filtering Mechanism to Improve Efficiency of Large-Scale Video Analytics,IEEE Transactions on Computers,米国,IEEE,2020年01月30日,Volume 69,p.914-p. 928,https://ieeexplore.ieee.org/document/8976261
CHEN ZHANG: "A Fast Filtering Mechanism to Improve Efficiency of Large-Scale Video Analytics", IEEE TRANSACTIONS ON COMPUTERS, vol. 69, JPN6021049499, 30 January 2020 (2020-01-30), US, pages 914 - 928, XP011787328, ISSN: 0004732194, DOI: 10.1109/TC.2020.2970413 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115130619A (zh) * 2022-08-04 2022-09-30 中建电子商务有限责任公司 一种基于聚类选择集成的风险控制方法
CN117315670A (zh) * 2023-09-26 2023-12-29 天津市金超利达科技有限公司 一种基于计算机视觉的水表读数区域检测方法
CN117649675A (zh) * 2024-01-29 2024-03-05 广州亚信技术有限公司 一种表格生成方法、装置、设备及存储介质
CN117649675B (zh) * 2024-01-29 2024-03-29 广州亚信技术有限公司 一种表格生成方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN113139979A (zh) 2021-07-20
JP2022166799A (ja) 2022-11-02

Similar Documents

Publication Publication Date Title
JP7054278B1 (ja) 深層学習に基づくエッジ識別方法
CN108416307B (zh) 一种航拍图像路面裂缝检测方法、装置及设备
CN111368788B (zh) 图像识别模型的训练方法、装置及电子设备
CN111027493B (zh) 一种基于深度学习多网络软融合的行人检测方法
CN109711416B (zh) 目标识别方法、装置、计算机设备和存储介质
WO2020062360A1 (zh) 一种图像融合分类的方法及装置
CN111461213B (zh) 一种目标检测模型的训练方法、目标快速检测方法
CN111813997B (zh) 入侵分析方法、装置、设备及存储介质
CN110197716B (zh) 医学影像的处理方法、装置及计算机可读存储介质
CN109934216B (zh) 图像处理的方法、装置、计算机可读存储介质
CN114758288A (zh) 一种配电网工程安全管控检测方法及装置
CN112926652B (zh) 一种基于深度学习的鱼类细粒度图像识别方法
CN107944403A (zh) 一种图像中的行人属性检测方法及装置
CN108932455B (zh) 遥感图像场景识别方法及装置
CN111724566A (zh) 基于智慧灯杆视频监控***的行人跌倒检测方法和装置
CN110689044A (zh) 一种结合目标间关系的目标检测方法及***
CN111833353B (zh) 一种基于图像分割的高光谱目标检测方法
CN114283326A (zh) 一种结合局部感知和高阶特征重构的水下目标重识别方法
KR20220144269A (ko) 인공지능 기반 객체 재인식 장치
CN117437691A (zh) 一种基于轻量化网络的实时多人异常行为识别方法及***
Wang et al. Text detection algorithm based on improved YOLOv3
CN117152625A (zh) 一种基于CoordConv和YOLOv5的遥感小目标识别方法、***、设备及介质
CN111738069A (zh) 人脸检测方法、装置、电子设备及存储介质
CN116543308A (zh) 一种基于多模型融合的滑坡检测预警模型及预警方法
CN116310832A (zh) 遥感图像处理方法、装置、设备、介质及产品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210928

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220325

R150 Certificate of patent or registration of utility model

Ref document number: 7054278

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150