JP7105383B2 - 画像処理方法、装置、記憶媒体及び電子機器 - Google Patents
画像処理方法、装置、記憶媒体及び電子機器 Download PDFInfo
- Publication number
- JP7105383B2 JP7105383B2 JP2021557461A JP2021557461A JP7105383B2 JP 7105383 B2 JP7105383 B2 JP 7105383B2 JP 2021557461 A JP2021557461 A JP 2021557461A JP 2021557461 A JP2021557461 A JP 2021557461A JP 7105383 B2 JP7105383 B2 JP 7105383B2
- Authority
- JP
- Japan
- Prior art keywords
- interaction
- target
- keypoint
- image
- center point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 38
- 230000003993 interaction Effects 0.000 claims description 583
- 230000009471 action Effects 0.000 claims description 96
- 238000001514 detection method Methods 0.000 claims description 70
- 238000013528 artificial neural network Methods 0.000 claims description 43
- 238000000034 method Methods 0.000 claims description 40
- 230000015654 memory Effects 0.000 claims description 34
- 238000012545 processing Methods 0.000 claims description 24
- 238000012549 training Methods 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 13
- 230000006399 behavior Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 230000005291 magnetic effect Effects 0.000 description 7
- 230000001360 synchronised effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 235000019504 cigarettes Nutrition 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005294 ferromagnetic effect Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 230000000391 smoking effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Description
本願は、2019年12月30日に中国特許局に提出された、出願番号が201911404450.6である中国特許出願に基づいて提出されるものであり、当該中国特許出願の優先権を主張し、当該中国特許出願の全ての内容が引用によって本願に組み込まれる。
[技術分野]
本発明は、画像処理技術に関し、具体的に、画像処理方法、装置、記憶媒体及び電子機器に関する。
前記抽出ユニットは、第1画像の特徴データを抽出するように構成され、
前記第1決定ユニットは、前記抽出ユニットによって抽出された前記特徴データに基づいて、前記第1画像内の各インタラクションキーポイント及び各ターゲットの中心点を決定するように構成され、1つのインタラクションキーポイントは、連結線の中点からプリセットされた範囲内の前記連結線上の一点であり、前記連結線は、1つのインタラクション動作における2つのターゲットの中心点間の連結線であり、
前記第2決定ユニットは、前記抽出ユニットによって抽出された前記特徴データに基づいて、少なくとも2つのオフセットを決定するように構成され、1つのオフセットは、1つのインタラクション動作におけるインタラクションキーポイントと前記インタラクション動作における1つのターゲットの中心点の間のオフセットを表し、
前記第3決定ユニットは、各ターゲットの中心点、前記インタラクションキーポイント及び前記少なくとも2つのオフセットに基づいて、前記第1画像内のターゲット間のインタラクション関係を決定するように構成される。
前記第3決定ユニットは、各ターゲットの中心点、前記インタラクションキーポイント、前記少なくとも2つのオフセット、各ターゲットの信頼度、及び各インタラクションキーポイントに対応する各プリセットされたインタラクション動作カテゴリの信頼度に基づいて、前記第1画像内のターゲット間のインタラクション関係を決定するように構成される。
前記第3決定ユニットは、各ターゲットの中心点及びそのカテゴリ、前記インタラクションキーポイント、前記少なくとも2つのオフセット、各ターゲットが各プリセットされたカテゴリに属する信頼度、及び各インタラクションキーポイントに対応する各プリセットされたインタラクション動作カテゴリの信頼度に基づいて、前記第1画像内のターゲット間のインタラクション関係を決定するように構成される。
前記各ターゲットの中心点、前記インタラクションキーポイント及び前記少なくとも2つのオフセットに基づいて、前記第1画像内のターゲット間のインタラクション関係を決定することは、各ターゲットの中心点に基づいて、前記インタラクションキーポイント、前記少なくとも2つのオフセット、各ターゲットの信頼度及び各インタラクションキーポイントに対応する各プリセットされたインタラクション動作カテゴリの信頼度、前記第1画像内のターゲット間のインタラクション関係を決定することを含む。
前記抽出ユニット41は、第1画像の特徴データを抽出するように構成され、
前記第1決定ユニット42は、前記抽出ユニット41によって抽出された前記特徴データに基づいて、前記第1画像内の各インタラクションキーポイント及び各ターゲットの中心点を決定するように構成され、1つのインタラクションキーポイントは、連結線の中点からプリセットされた範囲内の前記連結線上の一点であり、前記連結線は、1つのインタラクション動作における2つのターゲットの中心点間の連結線であり、
前記第2決定ユニット43は、前記抽出ユニット41によって抽出された前記特徴データに基づいて、少なくとも2つのオフセットを決定するように構成され、1つのオフセットは、1つのインタラクション動作におけるインタラクションキーポイントと前記インタラクション動作における1つのターゲットの中心点の間のオフセットを表し、
前記第3決定ユニット44は、各ターゲットの中心点、前記インタラクションキーポイント及び前記少なくとも2つのオフセットに基づいて、前記第1画像内のターゲット間のインタラクション関係を決定するように構成される。
前記第3決定ユニット44は、各ターゲットの中心点、前記インタラクションキーポイント、前記少なくとも2つのオフセット、各ターゲットの信頼度、及び各インタラクションキーポイントに対応する各プリセットされたインタラクション動作カテゴリの信頼度に基づいて、前記第1画像内のターゲット間のインタラクション関係を決定するように構成される。
前記第3決定ユニット44は、各ターゲットの中心点及びそのカテゴリ、前記インタラクションキーポイント、前記少なくとも2つのオフセット、各ターゲットが各プリセットされたカテゴリに属する信頼度、及び各インタラクションキーポイントに対応する各プリセットされたインタラクション動作カテゴリの信頼度に基づいて、前記第1画像内のターゲット間のインタラクション関係を決定するように構成される。
上記の本発明の実施例で開示された方法は、プロセッサ51に適用されてもよく、またはプロセッサ51によって実現されてもよい。プロセッサ51は、信号処理機能を備える集積回路チップであり得る。具現プロセスにおいて、上記した方法の各ステップは、プロセッサ51におけるハードウェアの集積論理回路またはソフトウェアの形の命令を介して完了されることができる。上記のプロセッサ51は、汎用プロセッサ、DSP、または他のプログラマブルロジックデバイス、ディスクリートゲートまたはトランジスタロジックデバイス、ディスクリートハードウェアコンポーネントなどであってもよい。プロセッサ51は、本発明の実施例で開示された各方法、ステップおよび論理ブロック図を実現または実行することができる。汎用プロセッサは、マイクロプロセッサであってもよいし、任意の従来のプロセッサなどであってもよい。本発明の実施例を組み合たせて開示された方法のステップは、直接に、ハードウェア復号化プロセッサによって実行されて完了すると具現されることができ、または復号化プロセッサにおけるハードウェアおよびソフトウェアモジュールの組み合わせによって実行して完了する。ソフトウェアモジュールは記憶媒体に配置されることができ、当該記憶媒体は、メモリ52に配置され、プロセッサ51は、メモリ52内の情報を読み取り、そのハードウェアと組み合わせて前記方法のステップを完成する。
Claims (14)
- 画像処理装置に適用される画像処理方法であって、
第1画像の特徴データを抽出することと、
前記特徴データに基づいて、前記第1画像の各インタラクションキーポイント及び各ターゲットの中心点を決定することであって、1つのインタラクションキーポイントは、連結線の中点からプリセットされた範囲内の前記連結線上の一点であり、前記連結線は、1つのインタラクション動作における2つのターゲットの中心点間の連結線である、ことと、
前記特徴データに基づいて、少なくとも2つのオフセットを決定することであって、1つのオフセットは、1つのインタラクション動作におけるインタラクションキーポイントと前記インタラクション動作における1つのターゲットの中心点の間のオフセットを表す、ことと、
各ターゲットの中心点、前記インタラクションキーポイント及び前記少なくとも2つのオフセットに基づいて、前記第1画像内のターゲット間のインタラクション関係を決定することと、を含む、前記画像処理方法。 - 前記特徴データに基づいて、前記第1画像の各インタラクションキーポイント及び各ターゲットの中心点を決定することは、
前記特徴データに基づいて、前記第1画像内の各ターゲットの中心点、及び各ターゲットの信頼度を決定することと、
前記特徴データに基づいて、前記第1画像内のインタラクションキーポイント、及び各インタラクションキーポイントに対応する各プリセットされたインタラクション動作カテゴリの信頼度を決定することと、を含み、
前記各ターゲットの中心点、前記インタラクションキーポイント及び前記少なくとも2つのオフセットに基づいて、前記第1画像内のターゲット間のインタラクション関係を決定することは、
各ターゲットの中心点、前記インタラクションキーポイント、前記少なくとも2つのオフセット、各ターゲットの信頼度、及び各インタラクションキーポイントに対応する各プリセットされたインタラクション動作カテゴリの信頼度に基づいて、前記第1画像内のターゲット間のインタラクション関係を決定することを含む、
請求項1に記載の画像処理方法。 - 前記特徴データに基づいて、前記第1画像内の各ターゲットの中心点及び各ターゲットの信頼度を決定することは、
前記特徴データに基づいて、前記第1画像内の各ターゲットの中心点及びそのカテゴリ、及び各ターゲットが各カテゴリに属する信頼度を決定することと、
前記各ターゲットの中心点、前記インタラクションキーポイント、前記少なくとも2つのオフセット、各ターゲットの信頼度、及び各インタラクションキーポイントに対応する各プリセットされたインタラクション動作カテゴリの信頼度に基づいて、前記第1画像内のターゲット間のインタラクション関係を決定することは、
各ターゲットの中心点及びそのカテゴリ、前記インタラクションキーポイント、前記少なくとも2つのオフセット、各ターゲットが各カテゴリに属する信頼度、及び各インタラクションキーポイントに対応する各プリセットされたインタラクション動作カテゴリの信頼度に基づいて、前記第1画像内のターゲット間のインタラクション関係を決定することを含む、
請求項2に記載の画像処理方法。 - 前記各ターゲットの中心点、前記インタラクションキーポイント、前記少なくとも2つのオフセット、各ターゲットの信頼度、及び各インタラクションキーポイントに対応する各プリセットされたインタラクション動作カテゴリの信頼度に基づいて、前記第1画像内のターゲット間のインタラクション関係を決定することは、
1つのインタラクションキーポイントについて、前記インタラクションキーポイントに対応する2つのオフセットを決定することと、
前記インタラクションキーポイント及び前記インタラクションキーポイントに対応する2つのオフセットに従って、前記インタラクションキーポイントに対応する2つの予測中心点を決定することと、
各ターゲットの中心点及び各インタラクションキーポイントに対応する2つの予測中心点に従って、各インタラクションキーポイントに対応する2つのターゲットを決定することと、
各インタラクションキーポイントに対応する2つのターゲット、各ターゲットの信頼度、及び各インタラクションキーポイントに対応する各プリセットされたインタラクション動作カテゴリの信頼度に従って、前記第1画像内のターゲット間のインタラクション関係を決定することと、を含む、
請求項2又は3に記載の画像処理方法。 - 前記各インタラクションキーポイントに対応する2つのターゲット、各ターゲットの信頼度、及び各インタラクションキーポイントに対応する各プリセットされたインタラクション動作カテゴリの信頼度に従って、前記第1画像内のターゲット間のインタラクション関係を決定することは、
1つのインタラクションキーポイントについて、前記インタラクションキーポイントに対応する1つのプリセットされたインタラクション動作カテゴリの信頼度と前記インタラクションキーポイントに対応する2つのターゲットの信頼度とを乗算して、第1信頼度を取得することであって、前記第1信頼度は、前記インタラクションキーポイントに対応する2つのターゲット間のインタラクション関係が前記プリセットされたインタラクション動作カテゴリに属する信頼度であることと、
前記第1信頼度が信頼度閾値を超えることに応答して、前記インタラクションキーポイントに対応する2つのターゲット間のインタラクション関係が前記プリセットされたインタラクション動作カテゴリに属すると決定することと、
前記第1信頼度が信頼度閾値を超えないことに応答して、前記インタラクションキーポイントに対応する2つのターゲット間のインタラクション関係が前記プリセットされたインタラクション動作カテゴリに属しないと決定することと、を含む、
請求項4に記載の画像処理方法。 - 前記画像処理方法は、
1つのインタラクションキーポイントに対応する2つのターゲット間のインタラクション関係が各プリセットされたインタラクション動作カテゴリに属しないと決定した後、前記インタラクションキーポイントに対応する2つのターゲット間にインタラクション関係がないと決定することを更に含む、
請求項5に記載の画像処理方法。 - 前記各ターゲットの中心点及び各インタラクションキーポイントに対応する2つの予測中心点に従って、各インタラクションキーポイントに対応する2つのターゲットを決定することは、
1つの予測中心点について、各ターゲットの中心点と前記予測中心点との間の距離を決定することと、
中心点と前記予測中心点との間の距離がプリセットされた距離閾値より小さいターゲットを、前記予測中心点に対応するインタラクションキーポイントに対応するターゲットとして使用することと、を含む、
請求項4-6のいずれか1項に記載の画像処理方法。 - 前記特徴データに基づいて、前記第1画像内の各ターゲットの中心点を決定することは、
前記特徴データをダウンサンプリングして前記第1画像のヒットマップを取得することと、
前記ヒットマップに従って、前記第1画像内の各点の位置オフセット、前記第1画像内の各ターゲットの中心点及び各ターゲットの検出ボックスの高さと幅を決定することと、
前記特徴データに基づいて、前記第1画像内の各ターゲットの中心点を決定した後、前記画像処理方法は、
前記第1画像においてインタラクション関係を有するターゲットの中心点の位置オフセットに従って、前記第1画像においてインタラクション関係を有するターゲットの中心点の位置を補正して、前記第1画像においてインタラクション関係を有するターゲットの中心点の補正後の位置を取得することと、
前記第1画像においてインタラクション関係を有するターゲットの中心点の補正後の位置及びその検出ボックスの高さと幅に従って、前記第1画像においてインタラクション関係を有するターゲットの検出ボックスを決定することと、を更に含む、
請求項1-7のいずれか1項に記載の画像処理方法。 - 前記画像処理装置は、ニューラルネットワークを介して前記画像処理方法を実行し、前記ニューラルネットワークは、サンプル画像を用いてトレーニングすることによって得られたものであり、前記サンプル画像には、インタラクション関係を有するターゲットの検出ボックスがマークされ、前記サンプル画像においてインタラクション関係を有するターゲットのマークされた中心点及びマークされたインタラクションキーポイントは、マークされた検出ボックスに従って決定され、マークされたオフセットは、インタラクション関係を有するターゲットのマークされた中心点及びマークされたインタラクションキーポイントに従って決定される、
請求項8に記載の画像処理方法。 - サンプル画像を用いて前記ニューラルネットワークをトレーニングすることは、
前記ニューラルネットワークを用いて、前記サンプル画像の特徴データを抽出することと、
前記ニューラルネットワークを用いて、前記サンプル画像の特徴データをダウンサンプリングして前記サンプル画像のヒットマップを取得することと、
前記ニューラルネットワークを用いて、前記サンプル画像のヒットマップに基づいて、前記サンプル画像内の各点の位置オフセット、前記サンプル画像内の各インタラクションキーポイント、前記サンプル画像内の各ターゲットの中心点、前記サンプル画像内の各ターゲットの検出ボックスの高さと幅を予測することと、
前記ニューラルネットワークを用いて、前記サンプル画像の特徴データに基づいて、少なくとも2つのオフセットを予測することと、
前記サンプル画像内の各ターゲットの中心点、前記サンプル画像内の前記インタラクションキーポイント及び前記サンプル画像内の少なくとも2つのオフセットに基づいて、前記サンプル画像内のターゲット間のインタラクション関係を予測することと、
予測された位置オフセット、前記サンプル画像においてインタラクション関係を有するターゲットの予測された中心点及び予測された検出ボックスの高さと幅、前記サンプル画像においてインタラクション関係を有するターゲットに対応する予測されたインタラクションキーポイント及びそれに対応する予測されたオフセット、及びマークされた位置オフセット及び前記サンプル画像にマークされたインタラクション関係を有するターゲットの検出ボックスに従って、前記ニューラルネットワークのネットワークパラメータ値を調整することと、を含む、
請求項9に記載の画像処理方法。 - 画像処理装置であって、
抽出ユニット、第1決定ユニット、第2決定ユニット及び第3決定ユニットを備え、
前記抽出ユニットは、第1画像の特徴データを抽出するように構成され、
前記第1決定ユニットは、前記抽出ユニットによって抽出された前記特徴データに基づいて、前記第1画像内の各インタラクションキーポイント及び各ターゲットの中心点を決定するように構成され、1つのインタラクションキーポイントは、連結線の中点からプリセットされた範囲内の前記連結線上の一点であり、前記連結線は、1つのインタラクション動作における2つのターゲットの中心点間の連結線であり、
前記第2決定ユニットは、前記抽出ユニットによって抽出された前記特徴データに基づいて、少なくとも2つのオフセットを決定するように構成され、1つのオフセットは、1つのインタラクション動作におけるインタラクションキーポイントと前記インタラクション動作における1つのターゲットの中心点の間のオフセットを表し、
前記第3決定ユニットは、各ターゲットの中心点、前記インタラクションキーポイント及び前記少なくとも2つのオフセットに基づいて、前記第1画像内のターゲット間のインタラクション関係を決定するように構成される、前記画像処理装置。 - コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、
当該プログラムがプロセッサによって実行されるときに、請求項1-10のいずれか1項に記載の方法を実現する、前記コンピュータ可読記憶媒体。 - 電子機器であって、
メモリ、プロセッサ、およびメモリに記憶された、コンピュータによって実行可能なコンピュータプログラムを含み、前記プロセッサが、前記プログラムを実行するときに、請求項1-10のいずれか1項に記載の方法を実現する、前記電子機器。 - コンピュータ可読コードを含むコンピュータプログラムであって、
前記コンピュータ可読コードが電子機器で実行されるときに、前記電子機器のプロセッサに、請求項1-10のいずれか1項に記載の方法を実行させる、前記コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911404450.6 | 2019-12-30 | ||
CN201911404450.6A CN111104925B (zh) | 2019-12-30 | 2019-12-30 | 图像处理方法、装置、存储介质和电子设备 |
PCT/CN2020/116889 WO2021135424A1 (zh) | 2019-12-30 | 2020-09-22 | 图像处理方法、装置、存储介质和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022520498A JP2022520498A (ja) | 2022-03-30 |
JP7105383B2 true JP7105383B2 (ja) | 2022-07-22 |
Family
ID=70424673
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021557461A Active JP7105383B2 (ja) | 2019-12-30 | 2020-09-22 | 画像処理方法、装置、記憶媒体及び電子機器 |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP7105383B2 (ja) |
KR (1) | KR102432204B1 (ja) |
CN (1) | CN111104925B (ja) |
WO (1) | WO2021135424A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111104925B (zh) * | 2019-12-30 | 2022-03-11 | 上海商汤临港智能科技有限公司 | 图像处理方法、装置、存储介质和电子设备 |
CN111695519B (zh) | 2020-06-12 | 2023-08-08 | 北京百度网讯科技有限公司 | 关键点定位方法、装置、设备以及存储介质 |
CN112560726B (zh) * | 2020-12-22 | 2023-08-29 | 阿波罗智联(北京)科技有限公司 | 目标检测置信度确定方法、路侧设备及云控平台 |
CN116258722B (zh) * | 2023-05-16 | 2023-08-11 | 青岛奥维特智能科技有限公司 | 基于图像处理的桥梁建筑智能检测方法 |
CN116862980B (zh) * | 2023-06-12 | 2024-01-23 | 上海玉贲智能科技有限公司 | 图像边缘的目标检测框位置优化校正方法、***、介质及终端 |
CN117523645B (zh) * | 2024-01-08 | 2024-03-22 | 深圳市宗匠科技有限公司 | 一种人脸关键点检测方法、装置、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018072939A (ja) | 2016-10-25 | 2018-05-10 | 東芝デジタルソリューションズ株式会社 | 映像処理プログラム、映像処理方法、及び映像処理装置 |
US10089556B1 (en) | 2017-06-12 | 2018-10-02 | Konica Minolta Laboratory U.S.A., Inc. | Self-attention deep neural network for action recognition in surveillance videos |
JP2019057836A (ja) | 2017-09-21 | 2019-04-11 | キヤノン株式会社 | 映像処理装置、映像処理方法、コンピュータプログラム、及び記憶媒体 |
JP2019179459A (ja) | 2018-03-30 | 2019-10-17 | 株式会社Preferred Networks | 推定処理装置、推定モデル生成装置、推定モデル、推定方法およびプログラム |
WO2019235350A1 (ja) | 2018-06-06 | 2019-12-12 | 日本電気株式会社 | 情報処理システム、情報処理方法及び記憶媒体 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9870523B2 (en) * | 2016-01-26 | 2018-01-16 | Kabushiki Kaisha Toshiba | Image forming system and image forming apparatus |
CN109726808B (zh) * | 2017-10-27 | 2022-12-09 | 腾讯科技(深圳)有限公司 | 神经网络训练方法和装置、存储介质及电子装置 |
CN108268863B (zh) * | 2018-02-13 | 2020-12-01 | 北京市商汤科技开发有限公司 | 一种图像处理方法、装置和计算机存储介质 |
JP2019148865A (ja) * | 2018-02-26 | 2019-09-05 | パナソニックIpマネジメント株式会社 | 識別装置、識別方法、識別プログラムおよび識別プログラムを記録した一時的でない有形の記録媒体 |
CN110532838A (zh) * | 2018-05-25 | 2019-12-03 | 佳能株式会社 | 对象检测装置和方法及存储介质 |
CN109241835A (zh) * | 2018-07-27 | 2019-01-18 | 上海商汤智能科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN109255296A (zh) * | 2018-08-06 | 2019-01-22 | 广东工业大学 | 一种基于深度卷积神经网络的日常人体行为识别方法 |
KR101969050B1 (ko) * | 2019-01-16 | 2019-04-15 | 주식회사 컨티넘 | 자세 추정 |
CN109685041B (zh) * | 2019-01-23 | 2020-05-15 | 北京市商汤科技开发有限公司 | 图像分析方法及装置、电子设备和存储介质 |
CN110232706B (zh) * | 2019-06-12 | 2022-07-29 | 睿魔智能科技(深圳)有限公司 | 多人跟拍方法、装置、设备及存储介质 |
CN110348335B (zh) * | 2019-06-25 | 2022-07-12 | 平安科技(深圳)有限公司 | 行为识别的方法、装置、终端设备及存储介质 |
CN111104925B (zh) * | 2019-12-30 | 2022-03-11 | 上海商汤临港智能科技有限公司 | 图像处理方法、装置、存储介质和电子设备 |
-
2019
- 2019-12-30 CN CN201911404450.6A patent/CN111104925B/zh active Active
-
2020
- 2020-09-22 JP JP2021557461A patent/JP7105383B2/ja active Active
- 2020-09-22 WO PCT/CN2020/116889 patent/WO2021135424A1/zh active Application Filing
- 2020-09-22 KR KR1020217034504A patent/KR102432204B1/ko active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018072939A (ja) | 2016-10-25 | 2018-05-10 | 東芝デジタルソリューションズ株式会社 | 映像処理プログラム、映像処理方法、及び映像処理装置 |
US10089556B1 (en) | 2017-06-12 | 2018-10-02 | Konica Minolta Laboratory U.S.A., Inc. | Self-attention deep neural network for action recognition in surveillance videos |
JP2019057836A (ja) | 2017-09-21 | 2019-04-11 | キヤノン株式会社 | 映像処理装置、映像処理方法、コンピュータプログラム、及び記憶媒体 |
JP2019179459A (ja) | 2018-03-30 | 2019-10-17 | 株式会社Preferred Networks | 推定処理装置、推定モデル生成装置、推定モデル、推定方法およびプログラム |
WO2019235350A1 (ja) | 2018-06-06 | 2019-12-12 | 日本電気株式会社 | 情報処理システム、情報処理方法及び記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
CN111104925B (zh) | 2022-03-11 |
WO2021135424A1 (zh) | 2021-07-08 |
CN111104925A (zh) | 2020-05-05 |
KR102432204B1 (ko) | 2022-08-12 |
KR20210136138A (ko) | 2021-11-16 |
JP2022520498A (ja) | 2022-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7105383B2 (ja) | 画像処理方法、装置、記憶媒体及び電子機器 | |
CN109948497B (zh) | 一种物体检测方法、装置及电子设备 | |
CN108875511B (zh) | 图像生成的方法、装置、***及计算机存储介质 | |
TWI658730B (zh) | 圖像焦距檢測方法及其裝置 | |
CN108875510B (zh) | 图像处理的方法、装置、***及计算机存储介质 | |
CN108875493B (zh) | 人脸识别中相似度阈值的确定方法以及确定装置 | |
CN109376631B (zh) | 一种基于神经网络的回环检测方法及装置 | |
CN112036381B (zh) | 视觉跟踪方法、视频监控方法及终端设备 | |
CN110969045B (zh) | 一种行为检测方法、装置、电子设备和存储介质 | |
CN111652054A (zh) | 关节点检测方法、姿态识别方法及装置 | |
CN113642639B (zh) | 活体检测方法、装置、设备和存储介质 | |
CN111753826B (zh) | 车辆与车牌的关联方法、装置和电子*** | |
CN112037254A (zh) | 目标跟踪方法及相关装置 | |
CN109961103B (zh) | 特征提取模型的训练方法、图像特征的提取方法及装置 | |
CN111401335B (zh) | 一种关键点检测方法及装置、存储介质 | |
CN112132110A (zh) | 一种智能判断人体姿态的方法及看护设备 | |
JP6713422B2 (ja) | 学習装置、イベント検出装置、学習方法、イベント検出方法、プログラム | |
CN112989932A (zh) | 基于改进原型网络的少样本森林火灾烟雾识别方法及装置 | |
JP2020173781A (ja) | 番号認識装置、方法及び電子機器 | |
CN110895691B (zh) | 图像处理方法、装置及电子设备 | |
CN112581500A (zh) | 用于在目标跟踪中匹配行人和人脸的方法和装置 | |
CN111368624A (zh) | 基于生成对抗网络的回环检测方法和装置 | |
CN116980744B (zh) | 基于特征的摄像头追踪方法、装置、电子设备及存储介质 | |
US20240144729A1 (en) | Generation method and information processing apparatus | |
CN116259072B (zh) | 一种动物识别方法、装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211001 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211001 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20211001 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220614 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220711 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7105383 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |