JP2023512359A - 関連対象検出方法、及び装置 - Google Patents
関連対象検出方法、及び装置 Download PDFInfo
- Publication number
- JP2023512359A JP2023512359A JP2021536266A JP2021536266A JP2023512359A JP 2023512359 A JP2023512359 A JP 2023512359A JP 2021536266 A JP2021536266 A JP 2021536266A JP 2021536266 A JP2021536266 A JP 2021536266A JP 2023512359 A JP2023512359 A JP 2023512359A
- Authority
- JP
- Japan
- Prior art keywords
- target
- matching
- detection
- objects
- matching object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 227
- 230000000007 visual effect Effects 0.000 claims abstract description 87
- 238000000034 method Methods 0.000 claims description 63
- 230000008569 process Effects 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 16
- 230000004927 fusion Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 9
- 238000007499 fusion processing Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 14
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 6
- 241000283086 Equidae Species 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/086—Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Biodiversity & Conservation Biology (AREA)
- Physiology (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、出願日が2020年12月29日であり、出願番号が10202013169Qであり、発明名称が「関連対象検出方法、及び装置」であるシンガポール特許出願の優先権を主張し、当該シンガポール特許出願の全ての内容が参照として本願に組み入れられる。
検出待ち画像内から少なくとも2つの目標対象を含むマッチング対象組を少なくとも1つ検出して得るための検出モジュール410と、
各マッチング対象組中の各目標対象の視覚情報および各マッチング対象組中の少なくとも2つの目標対象の空間情報を取得するための取得モジュール420と、
各マッチング対象組中の少なくとも2つの目標対象の視覚情報および空間情報に基づいて、各マッチング対象組中の少なくとも2つの目標対象が関連しているか否かを確定するための確定モジュール430と、を備える。
検出待ち画像内から各目標対象、および、各目標対象の対象タイプを検出して得るための検出サブモジュール411と、
対象タイプごとに、前記対象タイプ中の各目標対象をそれぞれ他の対象タイプ中の各目標対象と組み合わせて、少なくとも同じマッチング対象組を得るための組合せサブモジュール412と、を備え得る。
マッチング対象組中の各目標対象に対して視覚特徴抽出を実行して、目標対象の視覚情報を得る。
検出待ち画像内から各目標対象の検出フレームを検出して得、
各マッチング対象組に対して、マッチング対象組中の少なくとも2つの目標対象の検出フレームの位置情報に基づいて、マッチング対象組中の少なくとも2つの目標対象の空間情報を生成する。
マッチング対象組の補助バウンディングフレームを生成し、ここで、補助バウンディングフレームは、マッチング対象組中の各目標対象の検出フレームをカバーし、
補助バウンディングフレームおよび各目標対象の検出フレームに基づいて、マッチング対象組中の各目標対象の位置特徴情報をそれぞれ確定し、
同じマッチング対象組中の各目標対象の位置特徴情報を融合して、マッチング対象組中の少なくとも2つの目標対象の空間情報を得る。
各マッチング対象組中の少なくとも2つの目標対象の視覚情報および空間情報に対して融合処理を実行して、各マッチング対象組の融合特徴を得るための融合サブモジュール431と、
各マッチング対象組の融合特徴に対して関連性分類処理を実行して、マッチング対象組中の少なくとも2つの目標対象が関連しているか否かを確定するための確定サブモジュール432と備え得る。
各マッチング対象組の融合特徴に対して関連性分類処理を実行して、各マッチング対象組中の少なくとも2つの目標対象同士の間の関連度スコアを得、
同じ目標対象が属している複数のマッチング対象組に対して、関連度スコアが最も高いマッチング対象組を目標マッチング対象組として確定し、
目標マッチング対象組中の少なくとも2つの目標対象を関連目標対象として確定する。
同じマッチング対象組中の各人体部位が1つの人体に属するか否かを確定する。
プロセッサと、
プロセッサと通信可能に接続され、プロセッサによってアクセス可能なコンピュータ命令が格納されているメモリと、コンピュータ命令がプロセッサによってアクセスされると、プロセッサが第1態様の任意の実施形態の方法を実行するようにする。
Claims (20)
- 関連対象検出方法であって、
検出待ち画像内から、少なくとも2つの目標対象を含むマッチング対象組を、少なくとも1つ検出して得ること、
各前記マッチング対象組中の各前記目標対象の視覚情報、および、各前記マッチング対象組中の前記少なくとも2つの目標対象の空間情報を取得すること、
各前記マッチング対象組中の前記少なくとも2つの目標対象の前記視覚情報および前記空間情報に基づいて、各前記マッチング対象組中の前記少なくとも2つの目標対象が関連しているか否かを確定すること、を含む
ことを特徴とする関連対象検出方法。 - 検出待ち画像内からマッチング対象組を少なくとも1つ検出して得ることは、
前記検出待ち画像内から各前記目標対象、および、各前記目標対象の対象タイプを検出して得ること、
前記対象タイプごとに、前記対象タイプ中の各目標対象をそれぞれ他の前記対象タイプ中の各前記目標対象と組み合わせて、前記マッチング対象組を少なくとも1つ得ること、を含む
ことを特徴とする請求項1に記載の前記方法。 - 各前記マッチング対象組中の各前記目標対象の視覚情報を取得することは、
前記マッチング対象組中の各目標対象に対して視覚特徴抽出を実行して前記目標対象の視覚情報を得ることを含む
ことを特徴とする請求項1に記載の前記方法。 - 各前記マッチング対象組中の前記少なくとも2つの目標対象の空間情報を取得することは、
前記検出待ち画像内から各前記目標対象の検出フレームを検出して得ること、
各前記マッチング対象組に対して、前記マッチング対象組中の前記少なくとも2つの目標対象の前記検出フレームの位置情報に基づいて、前記マッチング対象組中の前記少なくとも2つの目標対象の前記空間情報を生成すること、を含む
ことを特徴とする請求項1に記載の前記方法。 - 各前記マッチング対象組に対して、前記マッチング対象組中の前記少なくとも2つの目標対象の前記検出フレームの位置情報に基づいて、前記マッチング対象組中の前記少なくとも2つの目標対象の前記空間情報を生成することは、
前記マッチング対象組中の各目標対象の検出フレームをカバーする、前記マッチング対象組の補助バウンディングフレームを、生成すること、
前記補助バウンディングフレームおよび各目標対象の検出フレームに基づいて、前記マッチング対象組中の各目標対象の位置特徴情報をそれぞれ確定すること、
同じマッチング対象組中の各目標対象の前記位置特徴情報を融合して、前記マッチング対象組中の前記少なくとも2つの目標対象の前記空間情報を得ること、を含む
ことを特徴とする請求項4に記載の前記方法。 - 前記補助バウンディングフレームは、前記マッチング対象組中の各目標対象をカバーするバウンディングフレームの中の最小面積を持つバウンディングフレームである
ことを特徴とする請求項5に記載の前記方法。 - 各前記マッチング対象組中の前記少なくとも2つの目標対象の前記視覚情報および前記空間情報に基づいて、各前記マッチング対象組中の前記少なくとも2つの目標対象が関連しているか否かを確定することは、
各マッチング対象組中の前記少なくとも2つの目標対象の前記視覚情報および前記空間情報に対して融合処理を実行して、各マッチング対象組の融合特徴を得ること、
各マッチング対象組の融合特徴に対して関連性分類処理を実行して、前記マッチング対象組中の前記少なくとも2つの目標対象が関連しているか否かを確定すること、を含む
ことを特徴とする請求項1から6のいずれか1項に記載の前記方法。 - 各マッチング対象組の融合特徴に対して関連性分類処理を実行して、前記マッチング対象組中の前記少なくとも2つの目標対象が関連しているか否かを確定することは、
各マッチング対象組の融合特徴に対して関連性分類処理を実行して、各前記マッチング対象組中の前記少なくとも2つの目標対象同士の間の関連度スコアを得ること、
同じ目標対象が属している複数のマッチング対象組に対して、前記関連度スコアが最も高いマッチング対象組を目標マッチング対象組として確定すること、
前記目標マッチング対象組中の前記少なくとも2つの目標対象を関連目標対象として確定すること、を含む
ことを特徴とする請求項7に記載の前記方法。 - 前記目標対象が人体部位である場合、前記各前記マッチング対象組中の前記少なくとも2つの目標対象が関連しているか否かを確定することは、
同じ前記マッチング対象組中の各人体部位が1つの人体に属するか否かを確定することを含む
ことを特徴とする請求項1に記載の前記方法。 - サンプル画像セットを取得することであって、前記サンプル画像セットは、少なくとも1つのサンプル画像を含み、各前記サンプル画像は、少なくとも1つのサンプルマッチング対象組および前記サンプルマッチング対象組に対応するラベル情報を含み、各前記サンプルマッチング対象組は、少なくとも2つのサンプル目標対象を含み、前記ラベル情報は、前記サンプルマッチング対象組中の各サンプル目標対象の関連結果を示すこと、
トレーニング待ちの関連検出ネットワークを利用して、前記サンプル画像に対して処理を実行して、前記サンプル画像内から前記サンプルマッチング対象組を検出して得ること、
トレーニング待ちの対象検出ネットワークを利用して、前記サンプル画像に対して処理を実行して、各前記サンプルマッチング対象組中の各前記サンプル目標対象の視覚情報を得、トレーニング待ちの前記関連検出ネットワークを利用して、前記サンプル画像に対して処理を実行して、各前記サンプルマッチング対象組中の前記少なくとも2つのサンプル目標対象の空間情報を得ること、
トレーニング待ちの前記関連検出ネットワークを利用して、各前記サンプルマッチング対象組中の前記少なくとも2つのサンプル目標対象の前記視覚情報および前記空間情報に基づいて、各前記サンプルマッチング対象組の関連性検出結果を得ること、
各前記サンプルマッチング対象組の前記関連性検出結果と対応するラベル情報との間の誤差を確定し、前記誤差が収束するまで、前記誤差に基づいて前記関連検出ネットワークおよび前記対象検出ネットワークの中の少なくとも1つのネットワークパラメータを調整すること、をさらに含む
ことを特徴とする請求項1に記載の前記方法。 - 関連対象検出装置であって、
検出待ち画像内から、少なくとも2つの目標対象を含むマッチング対象組を、少なくとも1つ検出して得るための検出モジュールと、
各前記マッチング対象組中の各前記目標対象の視覚情報、および、各前記マッチング対象組中の前記少なくとも2つの目標対象の空間情報を取得するための取得モジュールと、
各前記マッチング対象組中の前記少なくとも2つの目標対象の前記視覚情報および前記空間情報に基づいて、各前記マッチング対象組中の前記少なくとも2つの目標対象が関連しているか否かを確定するための確定モジュールと、を備える
ことを特徴とする関連対象検出装置。 - 前記検出モジュールは、
前記検出待ち画像内から各前記目標対象、および、各前記目標対象の対象タイプを検出して得るための検出サブモジュールと、
前記対象タイプごとに、前記対象タイプ中の各目標対象をそれぞれ他の前記対象タイプ中の各前記目標対象と組み合わせて、前記マッチング対象組を少なくとも1つ得るための組合せサブモジュールと、を備える
ことを特徴とする請求項11に記載の前記装置。 - 前記取得モジュールは、さらに、
前記マッチング対象組中の各目標対象に対して視覚特徴抽出を実行して前記目標対象の視覚情報を得る
ことを特徴とする請求項11に記載の前記装置。 - 前記取得モジュールは、さらに、
前記検出待ち画像内から各前記目標対象の検出フレームを検出して得、
各前記マッチング対象組に対して、前記マッチング対象組中の前記少なくとも2つの目標対象の前記検出フレームの位置情報に基づいて、前記マッチング対象組中の前記少なくとも2つの目標対象の前記空間情報を生成する
ことを特徴とする請求項11に記載の前記装置。 - 前記取得モジュールは、さらに、
前記マッチング対象組中の各目標対象の検出フレームをカバーする、前記マッチング対象組の補助バウンディングフレームを、生成し、
前記補助バウンディングフレームおよび各目標対象の検出フレームに基づいて、前記マッチング対象組中の各目標対象の位置特徴情報をそれぞれ確定し、
同じマッチング対象組中の各目標対象の前記位置特徴情報を融合して、前記マッチング対象組中の前記少なくとも2つの目標対象の前記空間情報を得る
ことを特徴とする請求項14に記載の前記装置。 - 前記確定モジュールは、
各マッチング対象組中の前記少なくとも2つの目標対象の前記視覚情報および前記空間情報に対して融合処理を実行して、各マッチング対象組の融合特徴を得るための融合サブモジュールと、
各マッチング対象組の融合特徴に対して関連性分類処理を実行して、前記マッチング対象組中の前記少なくとも2つの目標対象が関連しているか否かを確定するための確定サブモジュールと、を備える
ことを特徴とする請求項11~15のいずれか1項に記載の前記装置。 - 前記確定サブモジュールは、さらに、
各マッチング対象組の融合特徴に対して関連性分類処理を実行して、各前記マッチング対象組中の前記少なくとも2つの目標対象同士の間の関連度スコアを得、
同じ目標対象が属している複数のマッチング対象組に対して、前記関連度スコアが最も高いマッチング対象組を目標マッチング対象組として確定し、
前記目標マッチング対象組中の前記少なくとも2つの目標対象を関連目標対象として確定する
ことを特徴とする請求項16に記載の前記装置。 - 電子デバイスであって、
プロセッサと、
前記プロセッサと通信可能に接続され、前記プロセッサによってアクセス可能なコンピュータ命令が格納されているメモリと、を備え、
前記コンピュータ命令が前記プロセッサによってアクセスされるときに、前記プロセッサが請求項1から10のいずれか1項に記載の方法を実行するようにする
ことを特徴とする電子デバイス。 - コンピュータ可読命令が格納されている記録媒体であって、
前記コンピュータ可読命令は、コンピュータが請求項1から10のいずれか1項に記載の方法を実行するようにする
ことを特徴とする記録媒体。 - コンピュータ可読コードを含むコンピュータプログラムであって、
前記コンピュータ可読コードが電子デバイスで運行されるときに、前記電子デバイスのプロセッサが請求項1から10のいずれか1項に記載の方法を実装するようにする
ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SG10202013169Q | 2020-12-29 | ||
SG10202013169Q | 2020-12-29 | ||
PCT/IB2021/053488 WO2022144601A1 (en) | 2020-12-29 | 2021-04-28 | Method and apparatus for detecting associated objects |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023512359A true JP2023512359A (ja) | 2023-03-27 |
Family
ID=78092818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021536266A Ceased JP2023512359A (ja) | 2020-12-29 | 2021-04-28 | 関連対象検出方法、及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220207261A1 (ja) |
JP (1) | JP2023512359A (ja) |
KR (1) | KR102580281B1 (ja) |
CN (1) | CN113544701B (ja) |
AU (1) | AU2021203870A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114973334A (zh) * | 2022-07-29 | 2022-08-30 | 浙江大华技术股份有限公司 | 人体部件关联方法、装置、电子装置和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008271522A (ja) * | 2007-04-18 | 2008-11-06 | Fuji Xerox Co Ltd | ノンリニアビデオ再生制御方法およびノンリニアビデオ再生制御プログラム |
WO2012014590A1 (ja) * | 2010-07-28 | 2012-02-02 | パイオニア株式会社 | 映像処理装置及び方法 |
JP2013253717A (ja) * | 2012-06-05 | 2013-12-19 | Hitachi Appliances Inc | 空気調和機、及び空気調和機の制御方法 |
JP2015176253A (ja) * | 2014-03-13 | 2015-10-05 | オムロン株式会社 | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 |
JP2018125670A (ja) * | 2017-01-31 | 2018-08-09 | 森ビル株式会社 | 空中監視装置、空中監視方法及びプログラム |
JP2020149111A (ja) * | 2019-03-11 | 2020-09-17 | オムロン株式会社 | 物体追跡装置および物体追跡方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10740617B2 (en) * | 2017-12-19 | 2020-08-11 | Intel Corporation | Protection and recovery of identities in surveillance camera environments |
CN108710885B (zh) * | 2018-03-29 | 2021-07-23 | 百度在线网络技术(北京)有限公司 | 目标对象的检测方法和装置 |
CN110889314B (zh) * | 2018-09-10 | 2022-09-13 | 北京市商汤科技开发有限公司 | 图像处理方法、装置、电子设备、服务器及*** |
CN110163889A (zh) * | 2018-10-15 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、目标跟踪装置、目标跟踪设备 |
KR102251704B1 (ko) * | 2019-05-29 | 2021-05-12 | 에스케이텔레콤 주식회사 | 관계형 질의를 이용한 객체 검출방법 및 그 장치 |
CN110533685B (zh) * | 2019-08-30 | 2023-10-24 | 腾讯科技(深圳)有限公司 | 对象跟踪方法和装置、存储介质及电子装置 |
CN110705478A (zh) * | 2019-09-30 | 2020-01-17 | 腾讯科技(深圳)有限公司 | 人脸跟踪方法、装置、设备及存储介质 |
CN110717476A (zh) * | 2019-10-22 | 2020-01-21 | 上海眼控科技股份有限公司 | 图像处理方法、装置、计算机设备和计算机可读存储介质 |
CN111091091A (zh) * | 2019-12-16 | 2020-05-01 | 北京迈格威科技有限公司 | 目标对象重识别特征的提取方法、装置、设备及存储介质 |
CN111178261B (zh) * | 2019-12-30 | 2023-05-16 | 武汉恩智电子科技有限公司 | 一种基于视频编码技术的人脸检测加速方法 |
CN111754368A (zh) * | 2020-01-17 | 2020-10-09 | 天津师范大学 | 一种高校教学评估方法及基于边缘智能的高校教学评估*** |
CN111275002A (zh) * | 2020-02-18 | 2020-06-12 | 上海商汤临港智能科技有限公司 | 一种图像处理方法、装置及电子设备 |
US10846857B1 (en) * | 2020-04-20 | 2020-11-24 | Safe Tek, LLC | Systems and methods for enhanced real-time image analysis with a dimensional convolution concept net |
CN111709974B (zh) * | 2020-06-22 | 2022-08-02 | 苏宁云计算有限公司 | 基于rgb-d图像的人体跟踪方法及装置 |
WO2022134120A1 (zh) * | 2020-12-26 | 2022-06-30 | 西安科锐盛创新科技有限公司 | 基于目标活动预测的停车场管控方法、装置及电子设备 |
-
2021
- 2021-04-28 JP JP2021536266A patent/JP2023512359A/ja not_active Ceased
- 2021-04-28 KR KR1020217019168A patent/KR102580281B1/ko active IP Right Grant
- 2021-04-28 CN CN202180001429.0A patent/CN113544701B/zh active Active
- 2021-04-28 AU AU2021203870A patent/AU2021203870A1/en not_active Abandoned
- 2021-06-11 US US17/345,469 patent/US20220207261A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008271522A (ja) * | 2007-04-18 | 2008-11-06 | Fuji Xerox Co Ltd | ノンリニアビデオ再生制御方法およびノンリニアビデオ再生制御プログラム |
WO2012014590A1 (ja) * | 2010-07-28 | 2012-02-02 | パイオニア株式会社 | 映像処理装置及び方法 |
JP2013253717A (ja) * | 2012-06-05 | 2013-12-19 | Hitachi Appliances Inc | 空気調和機、及び空気調和機の制御方法 |
JP2015176253A (ja) * | 2014-03-13 | 2015-10-05 | オムロン株式会社 | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 |
JP2018125670A (ja) * | 2017-01-31 | 2018-08-09 | 森ビル株式会社 | 空中監視装置、空中監視方法及びプログラム |
JP2020149111A (ja) * | 2019-03-11 | 2020-09-17 | オムロン株式会社 | 物体追跡装置および物体追跡方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113544701B (zh) | 2024-06-14 |
US20220207261A1 (en) | 2022-06-30 |
KR20220098310A (ko) | 2022-07-12 |
AU2021203870A1 (en) | 2022-07-14 |
CN113544701A (zh) | 2021-10-22 |
KR102580281B1 (ko) | 2023-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7265034B2 (ja) | 人体検出用の方法及び装置 | |
EP3576017A1 (en) | Method, apparatus, and device for determining pose of object in image, and storage medium | |
US11238272B2 (en) | Method and apparatus for detecting face image | |
Rekimoto | Matrix: A realtime object identification and registration method for augmented reality | |
WO2018137623A1 (zh) | 图像处理方法、装置以及电子设备 | |
CN108388882B (zh) | 基于全局-局部rgb-d多模态的手势识别方法 | |
WO2022156626A1 (zh) | 一种图像的视线矫正方法、装置、电子设备、计算机可读存储介质及计算机程序产品 | |
JP2003525504A (ja) | モデルを使用して画像内のオブジェクトの位置を特定するシステム及び方法 | |
CN105095853B (zh) | 图像处理装置及图像处理方法 | |
CN113807361B (zh) | 神经网络、目标检测方法、神经网络训练方法及相关产品 | |
CN111325107A (zh) | 检测模型训练方法、装置、电子设备和可读存储介质 | |
CN111784658A (zh) | 一种用于人脸图像的质量分析方法和*** | |
US20240161461A1 (en) | Object detection method, object detection apparatus, and object detection system | |
JP2023512359A (ja) | 関連対象検出方法、及び装置 | |
Lupión et al. | 3D Human Pose Estimation from multi-view thermal vision sensors | |
JP7501747B2 (ja) | 情報処理装置、制御方法、及びプログラム | |
WO2024001617A1 (zh) | 玩手机行为识别方法及装置 | |
CN112329663A (zh) | 一种基于人脸图像序列的微表情时刻检测方法及装置 | |
CN111274854B (zh) | 一种人体动作识别方法和视觉增强处理*** | |
CN111709269A (zh) | 一种深度图像中基于二维关节信息的人手分割方法和装置 | |
CN113139504B (zh) | 身份识别方法、装置、设备及存储介质 | |
CN114998743A (zh) | 一种视觉地图点的构建方法、装置、设备及介质 | |
CN113628148A (zh) | 红外图像降噪方法和装置 | |
KR101844367B1 (ko) | 부분 포즈 추정에 의하여 개략적인 전체 초기설정을 사용하는 머리 포즈 추정 방법 및 장치 | |
CN113128277A (zh) | 一种人脸关键点检测模型的生成方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210621 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230628 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20240222 |