JP2022522071A - 画像処理方法及び装置、電子機器並びに記憶媒体 - Google Patents

画像処理方法及び装置、電子機器並びに記憶媒体 Download PDF

Info

Publication number
JP2022522071A
JP2022522071A JP2020536741A JP2020536741A JP2022522071A JP 2022522071 A JP2022522071 A JP 2022522071A JP 2020536741 A JP2020536741 A JP 2020536741A JP 2020536741 A JP2020536741 A JP 2020536741A JP 2022522071 A JP2022522071 A JP 2022522071A
Authority
JP
Japan
Prior art keywords
target
image
target image
images
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020536741A
Other languages
English (en)
Inventor
ゾンアン ツァイ
ツンジュン ユ
ハイユ ジャオ
シュアイ イ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sensetime International Pte Ltd
Original Assignee
Sensetime International Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sensetime International Pte Ltd filed Critical Sensetime International Pte Ltd
Publication of JP2022522071A publication Critical patent/JP2022522071A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本開示は、少なくとも2つの目標画像を取得することと、前記少なくとも2つの目標画像のうちの各目標画像の目標検出結果に基づいて、各目標画像における少なくとも1つの目標の、1つの目標の目標画像での位置を示すための注意画像を決定することと、各目標画像及び各目標画像における少なくとも1つの目標の注意画像に基づいて、別々の目標画像における少なくとも一部の目標の間に対応関係が存在するか否かについての対応付け結果を決定することと、を含む画像処理方法及び装置、電子機器並びに記憶媒体に関する。【選択図】図1

Description

本開示は、コンピュータビジョン技術に関し、特に、画像処理方法及び装置、電子機器並びに記憶媒体に関する。
コンピュータビジョンは、コンピュータ及び関連装置を用いて生物学的視覚をシミュレートする技術であり、取得された画像又は動画を処理することにより、対応シーンの三次元情報を取得することができる。コンピュータビジョンの一応用において、取得された画像又は動画を用いて目標検出を行って、目標対象の画像での位置を決定することができる。
本開示は、画像処理の技術的解決手段を提供する。
本開示の一方面によれば、
少なくとも2つの目標画像を取得することと、
前記少なくとも2つの目標画像のうちの各目標画像の目標検出結果に基づいて、各目標画像における少なくとも1つの目標の、1つの目標の目標画像での位置を示すための注意画像を決定することと、
各目標画像及び各目標画像における少なくとも1つの目標の注意画像に基づいて、別々の目標画像における少なくとも一部の目標の間に対応関係が存在するか否かについての対応付け結果を決定することと、を含む画像処理方法を提供する。
可能な一実施形態では、前記少なくとも2つの目標画像のうちの各目標画像の目標検出結果に基づいて、各目標画像における少なくとも1つの目標の注意画像を決定することは、
各目標画像における1つの目標について、各目標画像の目標検出結果に基づいて、この目標の存在する第1画像領域を決定することと、
目標画像における第1画像領域及びこの目標画像における第1画像領域以外の第2画像領域によって、この目標の注意画像を決定することと、を含む。
可能な一実施形態では、目標画像における第1画像領域及びこの目標画像における第1画像領域以外の画像領域によって、この目標の注意画像を決定することは、
画像サイズが前記目標画像に合う初期画像を取得することと、
前記初期画像における、前記第1画像領域に対応する第1目標画像領域中の画素点の画素値を第1画素値とすることと、
前記初期画像における、前記第2画像領域に対応する第2目標画像領域中の画素点の画素値を前記第1画素値に等しくない第2画素値として、この目標の注意画像を得ることと、を含む。
可能な一実施形態では、各目標画像及び各目標画像における少なくとも1つの目標の注意画像に基づいて、別々の目標画像における少なくとも一部の目標の間に対応関係が存在するか否かについての対応付け結果を決定することは、
各目標画像とこの目標画像における1つの目標の注意画像を融合して、各被処理画像を得ることと、
各被処理画像に対して、それぞれ特徴抽出を行って各被処理画像の特徴マップを得ることと、
各被処理画像の特徴マップに基づいて、別々の目標画像における少なくとも一部の目標の間に対応関係が存在するか否かについての対応付け結果を決定することと、を含む。
可能な一実施形態では、各目標画像とこの目標画像における1つの目標の注意画像を融合して、各被処理画像を得ることは、
各目標画像とこの目標画像における1つの目標の注意画像を所定次元で繋ぎ合わせて各被処理画像を得ること、又は、
各目標画像とこの目標画像における1つの目標の注意画像を所定次元で加算して各被処理画像を得ることを含む。
可能な一実施形態では、各被処理画像に対して、それぞれ特徴抽出を行って各被処理画像の特徴マップを得ることは、
ニューラルネットワークの、被処理画像に対して一対一に特徴抽出を行い且つ同じネットワーク構造とネットワークパラメータを有する各分岐ネットワークを用いて、各被処理画像に対して、それぞれ特徴抽出を行って各被処理画像の特徴マップを得ることを含む。
可能な一実施形態では、各被処理画像の特徴マップに基づいて、別々の目標画像における少なくとも一部の目標の間に対応関係が存在するか否かについての対応付け結果を決定することは、
前記被処理画像のうちの任意2つの被処理画像の特徴マップに対して、特徴対応付けを行って対応付け特徴マップを得ることと、
前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に対応関係が存在するか否かについての対応付け結果を決定することと、を含む。
可能な一実施形態では、前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に対応関係が存在するか否かについての対応付け結果を決定することは、
前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間の対応スコアを得ることと、
前記対応スコアがスコア閾値より大きい場合に、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に潜在的な対応性があると決定することと、を含む。
可能な一実施形態では、前記方法は、
前記対応スコアが前記スコア閾値以下である場合に、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に対応性がないと決定することを更に含む。
可能な一実施形態では、前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に対応関係が存在するか否かについての対応付け結果を決定することは、
前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間の対応スコアを得ることと、
特徴マップが対応付けられた2つの被処理画像に対応する目標画像における各目標間の対応スコアに基づいて、別々の目標画像における目標のマッチングを実行して、別々の目標画像における各目標間に対応関係が存在するか否かについての対応付け結果を得ることであって、マッチングが実行される目標は、別々の目標画像に属することと、を含む。
可能な一実施形態では、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における各目標間の対応スコアに基づいて、別々の目標画像における目標のマッチングを実行して、別々の目標画像における各目標間に対応関係が存在するか否かについての対応付け結果を得ることは、
特徴マップが対応付けられた2つの被処理画像に対応する目標画像における各目標間の対応スコアに基づいて、前記別々の目標画像のうちの第1目標画像における各目標と前記別々の目標画像のうちの第2目標画像における各目標との対応スコアの総和を決定することと、
前記対応スコアの総和が最も大きく且つ予め設定された総和スコア閾値より大きい場合に、前記第1目標画像における目標と前記第2目標画像における目標が一対一にマッチングすると決定することと、を含む。
可能な一実施形態では、前記方法は、
前記対応スコアの総和のうちの最大の対応スコアの総和が前記総和スコア閾値以下である場合に、前記第1目標画像における目標と前記第2目標画像における目標がマッチングしないと決定することを更に含む。
可能な一実施形態では、前記少なくとも2つの目標画像は、異なる視角で同一シーンを同期撮影して得られたものである。
本開示の別の方面によれば、
少なくとも2つの目標画像を取得するための取得モジュールと、
前記少なくとも2つの目標画像のうちの各目標画像の目標検出結果に基づいて、各目標画像における少なくとも1つの目標の、1つの目標の目標画像での位置を示すための注意画像を決定するための第1決定モジュールと、
各目標画像及び各目標画像における少なくとも1つの目標の注意画像に基づいて、別々の目標画像における少なくとも一部の目標の間に対応関係が存在するか否かについての対応付け結果を決定するための第2決定モジュールと、を含む画像処理装置を提供する。
可能な一実施形態では、前記第1決定モジュールは、
各目標画像における1つの目標について、各目標画像の目標検出結果に基づいて、この目標の存在する第1画像領域を決定するための第1決定サブモジュールと、
目標画像における第1画像領域及びこの目標画像における第1画像領域以外の第2画像領域によって、この目標の注意画像を決定するための第2決定サブモジュールと、を含む。
可能な一実施形態では、前記第2決定サブモジュールは、
画像サイズが前記目標画像に合う初期画像を取得するための取得ユニットと、
前記初期画像における、前記第1画像領域に対応する第1目標画像領域中の画素点の画素値を第1画素値とするための第1設置ユニットと、
前記初期画像における、前記第2画像領域に対応する第2目標画像領域中の画素点の画素値を前記第1画素値に等しくない第2画素値として、この目標の注意画像を得るための第2設置ユニットと、を含む。
可能な一実施形態では、前記第2決定モジュールは、
各目標画像とこの目標画像における1つの目標の注意画像を融合して、各被処理画像を得るための融合サブモジュールと、
各被処理画像に対して、それぞれ特徴抽出を行って各被処理画像の特徴マップを得るための特徴抽出サブモジュールと、
各被処理画像の特徴マップに基づいて、別々の目標画像における少なくとも一部の目標の間に対応関係が存在するか否かについての対応付け結果を決定するための判断サブモジュールと、を含む。
可能な一実施形態では、前記融合サブモジュールは、
各目標画像とこの目標画像における1つの目標の注意画像を所定次元で繋ぎ合わせて各被処理画像を得るための繋ぎ合わせユニット、又は、
各目標画像とこの目標画像における1つの目標の注意画像を所定次元で加算して各被処理画像を得るための加算ユニットを含む。
可能な一実施形態では、前記特徴抽出サブモジュールは、
ニューラルネットワークの、被処理画像に対して一対一に特徴抽出を行い且つ同じネットワーク構造とネットワークパラメータを有する各分岐ネットワークを用いて、各被処理画像に対して、それぞれ特徴抽出を行って各被処理画像の特徴マップを得るための分岐ユニットを含む。
可能な一実施形態では、前記特徴抽出サブモジュールは、
前記被処理画像のうちの任意2つの被処理画像の特徴マップに対して、特徴対応付けを行って対応付け特徴マップを得るための対応付けユニットと、
前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に対応関係が存在するか否かについての対応付け結果を決定するための決定ユニットと、を含む。
可能な一実施形態では、前記決定ユニットは、
前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間の対応スコアを得るための第1対応付けサブユニットと、
前記対応スコアがスコア閾値より大きい場合に、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に潜在的な対応性があると決定するための第1決定サブユニットと、を含む。
可能な一実施形態では、前記装置は、
前記対応スコアが前記スコア閾値以下である場合に、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に対応性がないと決定するための第2決定サブユニットを更に含む。
可能な一実施形態では、前記決定ユニットは、
前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間の対応スコアを得るための第2対応付けサブユニットと、
特徴マップが対応付けられた2つの被処理画像に対応する目標画像における各目標間の対応スコアに基づいて、別々の目標画像における目標のマッチングを実行して、別々の目標画像における各目標間に対応関係が存在するか否かについての対応付け結果を得るためのものであって、マッチングが実行される目標は、別々の目標画像に属するマッチングサブユニットと、を含む。
可能な一実施形態では、前記マッチングサブユニットは、
特徴マップが対応付けられた2つの被処理画像に対応する目標画像における各目標間の対応スコアに基づいて、前記別々の目標画像のうちの第1目標画像における各目標と前記別々の目標画像のうちの第2目標画像における各目標との対応スコアの総和を決定することと、
前記対応スコアの総和が最も大きく且つ予め設定された総和スコア閾値より大きい場合に、前記第1目標画像における目標と前記第2目標画像における目標が一対一にマッチングすると決定することとに用いられる。
可能な一実施形態では、前記マッチングサブユニットは、更に、
前記対応スコアの総和のうちの最大の対応スコアの総和が前記総和スコア閾値以下である場合に、前記第1目標画像における目標と前記第2目標画像における目標がマッチングしないと決定するために用いられる。
可能な一実施形態では、前記少なくとも2つの目標画像は、異なる視角で同一シーンを同期撮影して得られたものである。
本開示の一方面によれば、
プロセッサと、
プロセッサにより実行可能なコマンドを記憶するためのメモリと、を含み、
前記プロセッサは、上記画像処理方法を実行するように構成される電子機器を提供する。
本開示の一方面によれば、コンピュータプログラムコマンドが記憶されているコンピュータ読み取り可能な記憶媒体において、前記コンピュータプログラムコマンドがプロセッサによって実行されると、上記画像処理方法を実現するコンピュータ読み取り可能な記憶媒体を提供する。
本開示の一方面によれば、コンピュータ読み取り可能なコードを含み、コンピュータ読み取り可能なコードが電子機器上で作動すると、電子機器のプロセッサが指示を出して上記画像処理方法を実行するコンピュータプログラムを提供する。
本開示の実施例では、少なくとも2つの目標画像を取得し、続いて少なくとも2つの目標画像のうちの各目標画像の目標検出結果に基づいて、各目標画像における少なくとも1つの目標の注意画像を決定し、次に各目標画像及び各目標画像における少なくとも1つの目標の注意画像に基づいて、別々の目標画像における少なくとも一部の目標の間に対応関係が存在するか否かについての対応付け結果を決定することができる。このようにして、得られた対応付け結果に基づいて、別々の複数の目標画像における目標を対応付けて、複数の画像取得装置で撮影されたシーンでの目標間の関連を確立して、視野の範囲を増加して、シーンのより全面的な情報を取得することができる。
以上の一般な説明と以下の詳細な説明は、例示的及び説明的なものに過ぎず、本開示を制限しないものではないと理解すべきである。
以下、図面を参考しながら例示的な実施例を詳細に説明することによって、本開示の他の特徴および方面は明確になる。
ここの図面は、明細書の一部として組み込まれて、本開示に適合する実施例を示すものであって、明細書と共に本開示の技術的手段を説明するために用いられる。
本開示の実施例に係る画像処理方法のフローチャートを示す。 本開示の実施例に係る画像処理の一例のフローチャートを示す。 本開示の実施例においてニューラルネットワークを用いて2つの目標の対応付け結果を得る一例のブロック図を示す。 本開示の実施例に係る画像処理装置のブロック図を示す。 本開示の実施例に係る電子機器の例のブロック図を示す。 本開示の実施例に係る電子機器の例のブロック図を示す。
以下に図面を参照しながら本開示の様々な例示的実施例、特徴および方面を詳細に説明する。図面において、同じ符号が同じまたは類似する機能の要素を表す。図面において実施例の様々な方面を示したが、特に断らない限り、比例に従って図面を描く必要がない。
ここの用語「例示的」とは、「例、実施例として用いられることまたは説明的なもの」を意味する。ここで「例示的」に説明されるいかなる実施例も他の実施例より好ましい又は優れるものであると理解すべきではない。
本明細書において、用語の「及び/又は」は、関連対象の関連関係を記述するためのものに過ぎず、3つの関係が存在可能であることを示し、例えば、A及び/又はBは、Aのみが存在し、AとBが同時に存在し、Bのみが存在するという3つの場合を示すことができる。また、本明細書において、用語の「少なくとも1つ」は複数のうちのいずれか1つ、又は複数のうちの少なくとも2つの任意の組合を示し、例えば、A、B及びCのうちの少なくとも1つを含むということは、A、B及びCで構成される集合から選択されたいずれか1つ又は複数の要素を含むことを示すことができる。
また、本開示をより効果的に説明するために、以下の具体的な実施形態において様々な具体的な詳細を示す。当業者であれば、何らかの具体的な詳細がなくても、本開示は同様に実施できるということを理解すべきである。いくつかの実施例では、本開示の趣旨を強調するために、当業者に既知の方法、手段、要素および回路について、詳細な説明を行わない。
本開示の実施例で提供される画像処理手段は、少なくとも2つの目標画像を取得し、続いて少なくとも2つの目標画像のうちの各目標画像の目標検出結果に基づいて、各目標画像における少なくとも1つの目標の、1つの目標の目標画像での位置を示すための注意画像を決定することができる。続いて、各目標画像及び各目標画像における少なくとも1つの目標の注意画像に基づいて、別々の目標画像における少なくとも一部の目標間に対応関係が存在するか否かについての対応付け結果を得ることができる。このようにして、得られた対応付け結果に基づいて、別々の目標画像における1つ又は複数の目標を対応付けて、撮影された目標のより完全な情報を得ることができ、例えば、同一目標の上面図と側面図を対応付けて、該目標のより全面的な情報を取得することができる。
関連技術において、一般的には、複数の目標画像における目標を共通ベクトル空間に投影し、共通ベクトル空間での別々の目標の投影間の距離を計算することにより、別々の目標画像において互いに対応する目標を決定する。このような目標対応付け方式では、目標を共通ベクトル空間に投影する時に、投影のための投影行列のキャリブレーションを行う必要があるが、投影行列が画像取得装置の姿勢に影響され、即ち、画像取得装置の姿勢が変化すると投影行列のずれが発生するため、得られる対応付け結果に大きい誤差が生じてしまう。本開示の実施例で提供される画像処理手段は、各目標画像及び各目標画像における目標の注意画像に基づいて、別々の目標画像における複数の目標間に対応関係が存在するか否かについての対応付け結果を得ることで、目標の共通ベクトル空間への投影、投影行列のキャリブレーションを行う必要がなく、画像取得装置の姿勢による影響が小さく、目標間の対応付けの正確性を高めることができる。
本開示の実施例は、例えば、対象マーキングや画像対応付け等の拡張のシーンに利用可能であり、例えば、同じシーンで異なる視角から取得された複数の画像を対応付けることができ、更に例えば、複数の画像における同じ対象をマーキングすることができる。本開示は特定の応用シーンに限定されない。以下、実施例によって本開示の実施例で提供される画像処理手段を説明する。
図1に本開示の実施例に係る画像処理方法のフローチャートを示す。この画像処理方法は、ユーザ側装置(User Equipment、UE)、携帯機器、ユーザ端末、端末、セルラーホン、コードレス電話、パーソナル・デジタル・アシスタント(Personal Digital Assistant、PDA)、手持ちの機器、計算装置、車載装置、ウエアラブル装置等の端末装置、サーバ又は他の情報処理装置により実行されてよい。いくつかの可能な実施形態では、この画像処理方法は、プロセッサによりメモリに記憶されているコンピュータ読み取り可能なコマンドを呼び出すことで実現されてもよい。以下、画像処理装置を実行主体とする例として本開示の実施例の画像処理手段を説明する。
図1に示すように、前記画像処理方法は、以下のステップを含む。
ステップS11、少なくとも2つの目標画像を取得する。
本開示の実施例では、画像取得装置により取得された少なくとも2つの目標画像を取得してよい。別々の目標画像は、同一の画像取得装置からのものであってもよいし、別々の画像取得装置からのものであってもよい。目標画像は、別々に取得された1つの画像であってもよいし、取得されたビデオストリームにおける1フレームの画像であってもよい。ここで、目標画像は、赤(R)、緑(G)、青(B)との3色を重ね合わせた画像と理解されるカラー画像であってよい。
ステップS12、前記少なくとも2つの目標画像のうちの各目標画像の目標検出結果に基づいて、各目標画像における少なくとも1つの目標の、1つの目標の目標画像での位置を示すための注意画像を決定する。
本開示の実施例では、少なくとも2つの目標画像に対して、それぞれ目標検出を行って各目標画像の目標検出結果を得て、続いて各目標画像の目標検出結果に基づいて、各目標画像における1つ又は複数の対象物の注意画像を得るようにしてよい。ここで、目標検出結果は、目標の目標画像での投影に対する検出結果であってよく、検出枠で表されてよい。例を挙げると、交通シーンでは、目標は、歩行者、自動車又は非自動車等の交通道路を通行可能な物体で、目標検出結果は、目標画像において目標の投影をマーキングする検出枠であってよい。ここで、1つの注意画像は1つの目標の目標画像での位置を示してよく、この位置は画像位置であってよい。
ここで、複数の目標がある場合に、複数の目標から1つの目標を選択し、この目標について1つの注意画像を取得するようにしてよい。このようにして、複数の目標間の干渉を低減することができる。
可能な一実施形態では、各目標画像における1つの目標について、各目標画像の目標検出結果に基づいて、この目標の存在する第1画像領域を決定し、続いて目標画像における第1画像領域及びこの目標画像における第1画像領域以外の第2画像領域によって、この目標の注意画像を決定するようにしてよい。
この実施形態では、いずれか1つの目標画像について、この目標画像の目標検出結果に対応する検出枠に基づいて、この検出枠によってマーキングした目標の、目標画像での第1画像領域を決定するようにしてよく、この第1画像領域は閉鎖画像領域であってよい。続いて、目標画像における第1画像領域及びこの目標画像における第1画像領域以外の第2画像領域によって、この目標の注意画像を決定するようにしてよい。例えば、第1画像領域中の画素点の画素値をコピーし、且つ第2画像領域の画素値を変更するか、コピーした第1画像領域の画素値を増加又は減少することで、第1画像領域の画素値と第2画像領域の画素値が明らかに異なるようにして、この目標画像における1つの目標の注意画像を得るようにしてよい。このようにして、注意画像において目標の存在する画像領域を他の画像領域から区別して、別々の目標画像の目標間の対応付け結果の正確性を高めることができる。
この実施形態の一例において、画像サイズが前記目標画像に合う初期画像を取得し、前記初期画像における、第1目標画像領域中の画素点の画素値を第1画素値とし、前記初期画像における、前記第2画像領域に対応する第2目標画像領域中の画素点の画素値を前記第1画素値に等しくない第2画素値として、この目標の注意画像を得るようにしてよい。
この例において、1つの初期画像を生成してもよく、又は、目標画像をコピーして初期画像を得てもよい。この初期画像の画像サイズが目標画像に合う。即ち、初期画像は目標画像と画像サイズが同じ、例えば、目標画像の画像サイズが3×3cmであれば、初期画像の画像サイズも3×3cmであると理解されてよい。初期画像は第1目標画像領域を含み、第1目標画像領域の初期画像での画像位置は第1画像領域の目標画像での画像位置と同じ、第1目標画像領域の画素値は第1画素値とされ、第1画素値は第1画像領域中の画素点の画素値と同じ、即ち、第1目標画像領域はカラーの画像領域であるようにしてよい。又は、第1画素値は所定値、例えば、白色に対応する画素値とされてもよい。第2目標画像領域は、初期画像における、第1目標画像領域が含まらない画像領域であり、第2画像領域の画素値は第2画素値とされるようにしてよい。第2画素値は予め設定された画素値、例えば、黒色に対応する画素値されてもよい。第2画素値と第1画素値とが異なるので、第2画像領域と第1画像領域を画素点の画素値で区別することができる。このような方式によれば、目標に対応する画像領域を表示し、即ち目標の位置を示す、目標に対応する注意画像を取得でき、別々の目標画像における目標間の対応付け結果の正確性を高めることができる。
例を挙げると、目標画像が1つのチャネルに対応する場合に、初期画像の第1目標画像領域中の画素点の画素値を1に直接設置し、第2目標画像領域中の画素点の画素値を0に設置して、注意画像を得るようにしてよい。目標画像が3つのチャネルに対応する場合に、目標画像の第1画像領域中の画素点の画素値を初期画像の目標画像領域にコピーし、第2画像領域中の画素点の画素値を0に設置して、注意画像を得るようにしてよい。
ステップS13、各目標画像及び各目標画像における少なくとも1つの目標の注意画像に基づいて、別々の目標画像における少なくとも一部の目標の間に対応関係が存在するか否かについての対応付け結果を決定する。
本開示の実施例では、訓練されたニューラルネットワークを用いて、各目標画像及びこの目標画像における1つの目標の注意画像に対して特徴抽出を行って、複数の目標画像に対応する特徴マップを得るようにしてよい。続いて、各目標画像に対応する特徴マップに基づいて、別々の目標画像における目標間に対応関係が存在するか否かについての対応付け結果を得るようにしてよい。ここの対応関係は、別々の目標画像における目標が同一目標であると理解されてよい。ここで、ニューラルネットワークは少なくとも2つの分岐ネットワークを含んでよく、1つの目標画像及びこの目標画像における1つの目標の注意画像を1つの分岐ネットワークの入力としてよい。別々の目標画像の目標検出結果間の対応付け結果をこのニューラルネットワークの出力としてもよく、又は、ニューラルネットワークの出力に対して特徴処理を行って、例えば、出力結果に対して比較、正規化等の処理を行って、別々の目標画像の目標検出結果間の対応付け結果を得てもよい。
ここで、目標しかを含まない画像に比べて、目標画像をニューラルネットワークの入力とする場合に、目標画像に更に目標の周囲の画像を含むので、より全面的な画像特徴を得ることができる。また、目標に対応する注意画像もニューラルネットワークの入力とされるので、目標の位置情報を提供でき、得られる目標間の対応付け結果がより正確になる。
可能な一実施形態では、各目標画像とこの目標画像における1つの目標の注意画像を融合して各被処理画像を得て、続いて、各被処理画像に対して、それぞれ特徴抽出を行って各被処理画像の特徴マップを得て、更に、各被処理画像の特徴マップに基づいて、別々の目標画像における少なくとも一部の目標の間に対応関係が存在するか否かについての対応付け結果を決定する。
この実施形態では、各目標画像とこの目標画像における1つの目標の注意画像を融合して複数の被処理画像を得るようにしてよい。続いて、複数の被処理画像をニューラルネットワークの入力情報として、ニューラルネットワークを用いて各被処理画像に対して特徴抽出を行って、最終的には別々の目標画像における目標間の対応付け結果を得るようにしてよい。各目標画像とこの目標画像における1つの目標の注意画像を融合することによって、2つの画像からの画像情報をより好適に融合することができ、抽出された画像特徴がより正確になる。
一例において、各目標画像とこの目標画像における1つの目標の注意画像を所定次元で繋ぎ合わせて各被処理画像を得るか、又は、各目標画像とこの目標画像における1つの目標の注意画像を所定次元で加算して各被処理画像を得る。
この例において、各目標画像とこの目標画像における1つの目標の注意画像を所定次元で繋ぎ合わせることは、例えば、各目標画像とこの目標画像における1つの目標の注意画像を、画像の長さ、画像の幅、又は、深度次元、即ちチャネル次元(例えば、RGBとの3つのチャネル)で繋ぎ合わせると理解されてよい。深度次元で繋ぎ合わせることを例とすると、目標画像と注意画像を深度次元で繋ぎ合わせて6チャネルの画像を形成し、得られた被処理画像の画像サイズは目標画像と注意画像の所定次元でのサイズの和であってよい。ここで、目標画像と注意画像の深度が同じの場合に、注意画像は目標の位置情報だけでなく、目標の画像特徴も提供でき、ニューラルネットワークによる特徴マップはより正確且つ全面的な画像特徴を有するようになる。
この例において、各目標画像とこの目標画像における1つの目標の注意画像を所定次元で加算することは、各目標画像とこの目標画像における1つの目標の注意画像を深度次元、即ちチャネル次元で加算するようにしてよい。ここで、チャネル数が画像の深度次元に対応する。各目標画像とこの目標画像の注意画像は同じチャネル数を有してよく、例えば、目標画像と注意画像は共にRGB画像であり、共に3つのチャネルを有する。又は、各目標画像とこの目標画像における1つの目標の注意画像は、チャネル数が異なってもよく、例えば、目標画像が3つのチャネルを有し、注意画像が1つのチャネルを有する。目標画像及びこの目標画像の注意画像を深度次元で加算し、例えば、2つの画像の対応位置での画素点のR値、G値、B値をそれぞれ加算し、又は、目標画像が3チャネルを有し、注意画像が1チャネルを有する場合に、対応位置での目標画像の画素点のR値に注意画像の画素点の画素値を加算することにより、被処理画像を得るようにしてよい。被処理画像のチャネル数が目標画像のチャネル数と同じである。
一例において、ニューラルネットワークの、被処理画像に対して一対一に特徴抽出を行い且つ同じネットワーク構造とネットワークパラメータを有する各分岐ネットワークを用いて、各被処理画像に対して、それぞれ特徴抽出を行って各被処理画像の特徴マップを得るようにしてよい。
この例において、ニューラルネットワークの分岐ネットワークを用いて各被処理画像に対して特徴抽出処理を行ってよく、例えば、入力された各被処理画像に対して、畳み込み、プーリング、チャネル数低減等の特徴抽出を行って、各分岐ネットワークの特徴マップを得る。分岐ネットワーク同士のネットワーク結果は同じ、各分岐ネットワークはネットワークパラメータを共用するようにしてよく、それによって、ニューラルネットワークの複雑度を低減する。
一例において、前記被処理画像のうちの任意2つの被処理画像の特徴マップに対して、特徴対応付けを行って対応付け特徴マップを得て、続いて、前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に対応関係が存在するか否かについての対応付け結果を決定するようにしてよい。
この例において、複数の被処理画像のうちの任意2つの被処理画像に対応する特徴マップに対して特徴対応付けを行って、1つの対応付け特徴マップを得るようにしてよい。次に、ニューラルネットワークを用いて、得られた対応付け特徴マップに対して特徴抽出を行い、例えば、得られた対応付け特徴マップに対して、複数回の畳み込み、バッチ標準化、正規化線形、全結合等の特徴抽出を行って、ニューラルネットワークの出力を取得し、このニューラルネットワークの出力を上記任意2つの被処理画像に対応する目標画像における目標間の対応付け結果としてよい。或いは、ニューラルネットワークの出力を更に処理して、例えば、正規化、標準化等の処理を行って、上記任意2つの被処理画像に対応する目標画像における目標間の対応付け結果を取得するようにしてもよい。この実施形態では、任意2つの被処理画像の特徴マップに対して特徴対応付けを行うことによって、別々の目標画像における目標を比較して目標間の対応付け結果を得ることができる。
一例において、前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間の対応スコアを得て、前記対応スコアがスコア閾値より大きい場合に、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に潜在的な対応性があると決定するようにしてよい。
この例において、ニューラルネットワークを用いて対応付け特徴マップに対して特徴抽出を行って、例えば、得られた対応付け特徴マップに対して、複数回の畳み込み、バッチ標準化、正規化線形、全結合等の特徴抽出操作を行って、上記の任意の被処理画像に対応する目標画像における目標間の対応スコアを取得するようにしてよい。この対応スコアは上記の任意の被処理画像に対応する目標画像における任意2つの目標間の対応程度を示すものであってよく、例えば、対応スコアが高いほど、2つの目標間の対応程度が大きいことを示し、対応スコアが低いほど、2つの目標間の対応程度が小さいことを示す。この例において、対応スコアと予め設定されたスコア閾値を比較して、得られた対応スコアがスコア閾値より大きければ、2つの目標間に潜在的な対応性があり、即ち、2つの目標が同一目標である可能性があると考えられる。このような方式によれば、目標間の対応スコアに基づいて、2つの目標画像から対応関係がある可能な目標を迅速に選び出すことができる。
一例において、前記対応スコアが前記スコア閾値以下である場合に、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に対応性がないと決定する。
この例において、得られた対応スコアが予め設定されたスコア閾値以下であれば、2つの目標間に対応関係がなく、即ち、2つの目標が同一目標でないと考えられる。このような方式によれば、任意2つの目標間の対応スコアに基づいて、2つの目標が同一目標であるか否かを迅速に決定することができる。
可能な一実施形態では、前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間の対応スコアを得て、続いて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における各目標間の対応スコアに基づいて、別々の目標画像における目標のマッチングを実行して、別々の目標画像における各目標間に対応関係が存在するか否かについての対応付け結果を得る。ここで、マッチングが実行される目標は、別々の目標画像に属する。
この実施形態では、各目標画像のそれぞれに複数の目標を含んでよいので、1つの目標画像におけるある目標が別の1つの目標画像における複数の目標検出結果に対して潜在的な対応性を有する可能性があるが、実は1つの目標画像におけるある目標が別の1つの目標画像における1つの目標に対応するため、被処理画像に対応する目標画像における目標間の対応スコアに基づいて、別々の目標画像における目標の一対一のマッチングを実行して、1つの目標画像における1つの目標を別の1つの目標画像における1つの目標とマッチングさせて、別々の目標画像における各目標間に対応関係が存在するか否かについての対応付け結果を得て、別々の目標画像における複数の目標間のグローバルマッチングを実現するようにしてよい。ここで、更にマッチングしている目標をマーキングし、例えば、マッチングしている目標に対して、同じ番号でマーキングしたり、同じ色又はラベルでマーキングしたりする等ことにより、同じ目標を識別しやすくするようにしてよい。
この実施形態の一例では、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における各目標間の対応スコアに基づいて、前記別々の目標画像のうちの第1目標画像における各目標と前記別々の目標画像のうちの第2目標画像における各目標との対応スコアの総和を決定し、続いて前記対応スコアの総和が最も大きく且つ予め設定された総和スコア閾値より大きい場合に、前記第1目標画像における目標と前記第2目標画像における目標が一対一にマッチングすると決定して前記マッチング結果を得るようにしてよい。
この例において、各目標間の対応スコアの対応スコア総和を計算することによって、2つの目標画像における目標のマッチングを実行してよい。即ち、第1目標画像における複数の目標と第2目標画像における複数の目標に対して、一対一にマッチングを実行し、続いてマッチングが実行された目標対の対応スコアを計算することによって、対応スコアの総和を得る。対応スコアの総和が最大の場合に、第1目標画像における目標と第2目標画像における目標のマッチングが最適であると考えられ、この最大の対応スコアの総和が予め設定された総和スコア閾値より大きければ、第1目標画像における複数の目標と第2目標画像における複数の目標に対応関係が存在し、第1目標画像と第2目標画像が同一シーンを撮影して得られた画像であると考えられる。
この例において、前記対応スコアの総和のうちの最大の対応スコアの総和が前記総和スコア閾値以下である場合に、前記第1目標画像における目標と前記第2目標画像における目標がマッチングしないと決定する。
ここで、この最大の対応スコアの総和が予め設定された総和スコア閾値以下であれば、第1目標画像における目標と第2目標画像における目標のマッチングが最適であるが、最大の対応スコアの総和が予め設定された総和スコア閾値に到達しておらず、第1目標画像における複数の目標と第2目標画像における複数の目標に対応関係がなく、第1目標画像と第2目標画像が同一シーンを撮影して得られた画像でないと考えられ、例えば、第1目標画像と第2目標画像に含まれる目標は一部で同じで、一部で異なり、又は第1目標画像と第2目標画像に含まれる目標のすべては異なる。
例を挙げると、第1目標画像にそれぞれA、B及びCとなる3つの目標が存在し、第2目標画像にそれぞれa、b及びcとなる3つの目標が存在すると仮定する。第1目標画像におけるAと第2目標画像におけるaの間の対応スコアをAaで表して良い。各目標間の対応スコアの総和は、第1目標画像における3つの目標と第2目標画像における3つの目標をランダムにペアリングして、ペアリングされた2つ目標間の対応スコアを加算して得られるものであってよく、ランダムにペアリングするたびに、第1目標画像における1つの目標に第2目標画像における1つの目標が割り当てられる。即ち、Aa、Bb、Ccが1回のランダムペアリングに対応し、Aa、Bc、Cbが1回のランダムペアリングに対応し、Ab、Ba、Ccが1回のランダムペアリングに対応し、Ab、Bc、Caが1回のランダムペアリングに対応し、Ac、Ba、Cbが1回のランダムペアリングに対応し、Ac、Bb、Caが1回のランダムペアリングに対応し、ここで、対応スコアの和の最も大きい1回のランダムペアリングを選択し、このランダムペアリングの目標対の対応スコアの和を最大の対応スコアの総和としてよい。
説明したいのは、本開示では、別々の目標画像における目標をペアリングする時の具体的な割り当て方法が限定されない。ここで、例えば、貪欲法のような関連アルゴリズムを用いて、1つの目標画像における複数の目標と別の1つの目標画像における複数の目標とをペアリングして、対応スコアの総和の最も大きいペアリングを得て、別々の目標画像における目標間の最適なマッチングを得るようにしてよい。
本開示の実施例で提供された画像処理手段によれば、各目標画像及び各目標画像における少なくとも1つの目標の注意画像に基づいて、別々の目標間の正確な対応付け結果を取得でき、得られた対応付け結果に基づいて、別々の目標画像における目標を対応付けて、複数の画像取得装置により取得した目標画像間の関連を確立することができ、視野の範囲を大きくして、現在シーンのより全面的な情報を取得することができる。
図2に本開示の実施例に係る画像処理の一例のフローチャートを示す。
本開示の実施例の一例は、更に、複数の画像取得装置によって異なる視角で同一シーンを同期撮影して得られた少なくとも2つの目標画像を対応付ける応用シーンを提供する。図2に示すように、以下のステップを含んで良い。
ステップS21、複数の画像取得装置によって異なる視角で同一シーンを同期撮影して得られた少なくとも2つの目標画像を取得し、ここで、別々の目標画像が別々の画像取得装置に対応する。
ステップS22、前記少なくとも2つの目標画像のうちの各目標画像の目標検出結果に基づいて、各目標画像における少なくとも1つの目標の注意画像を決定する。
ステップS23、各目標画像及びこの目標画像における少なくとも1つの目標の注意画像に基づいて、別々の目標画像における少なくとも一部の目標間に対応関係が存在するか否かについての対応付け結果を得る。
この例において、複数の画像取得装置により異なる視角で同一シーンを同期撮影することができるので、画像取得装置のそれぞれの撮影角度と位置が異なり、異なる角度で同一シーンを撮影した目標画像、例えば、同一物体の正面図と上面図を取得できる。別々の目標画像の目標間の対応付け結果に基づいて、複数の画像取得装置によって同期撮影した目標画像における同一目標のマッチングを実行でき、例えば、別々の目標画像において同じ目標に同じ番号、色又は形状等を付けて、別々の目標画像において同一の目標を対応付けることを達成する。
以下、この例について、2つの目標画像の目標を対応付ける過程によって説明する。
図3に本開示の実施例においてニューラルネットワークを用いて2つの目標の対応付け結果を得る一例のブロック図を示す。
複数の画像取得装置は異なる視角で同一シーンを同期撮影でき、複数の画像取得装置のうちの任意2つの画像取得装置により取得した目標画像を、第1画像取得装置による第1画像と第2画像取得装置による第2画像としてよい。第1画像と第2画像に対して、それぞれ目標検出を行って、第1画像と第2画像のそれぞれに含まれる目標を決定し、各目標画像において目標が複数含まれてよい。各目標画像における複数の目標からいずれか1つの目標を選択して、選択された目標について、ニューラルネットワークを用いて2つの目標間の対応付け結果を決定するようにしてよい。第1画像に第1目標を含み、第1目標によって得られた注意画像を第1注意画像としてよい。第2画像に第2目標を含み、第2目標によって得られた注意画像を第2注意画像としてよい。
上記ニューラルネットワークは2つの分岐ネットワーク、即ち、第1分岐ネットワークと第2分岐ネットワークを含んで良い。第1画像と第1注意画像を第1分岐ネットワークに入力し、且つ第2画像と第2注意画像を第2分岐ネットワークに入力するようにしてよい。第1分岐ネットワークによる処理過程を例とすると、第1画像と第1注意画像を深度次元で繋ぎ合わせて入力画像を得るようにしてよく、ここで、第1画像が3つのチャネルに対応し、第1注意画像が3つのチャネルに対応し、入力画像が6つのチャネルに対応し、各チャネルがそれぞれ1つの深度に対応する。続いて、第1分岐ネットワークを用いて入力画像に対して畳み込み処理を行って、入力画像のチャネル数を6から3に低減し、続いて、チャネル数が低減された入力画像に対して、特徴抽出を行って第1分岐ネットワークによる特徴マップを得るようにしてよく、この特徴マップは3つの次元の特徴を有するテンソルであってよく、3つの次元の特徴は長さ特徴、幅特徴及び深度特徴を含んで良い。特徴抽出を行う時に、チャネル数が低減された初期特徴マップに対して複数回の畳み込み処理を行って良い。第2分岐ネットワークの特徴マップも、同様な方式によって得ることができる。
続いて、ニューラルネットワークの対応付け層によって第1分岐ネットワークによる特徴マップと第2分岐ネットワークによる特徴マップを対応付け、1つの対応付け特徴マップを得るようにしてよい。第1分岐ネットワークによる特徴マップと第2分岐ネットワークによる特徴マップを対応付ける時に、以下の対応付け式(1)を利用してよい。
Figure 2022522071000002
ただし、
Figure 2022522071000003
は対応付け特徴マップであり、
Figure 2022522071000004
であり、そのうち、
Figure 2022522071000005
は実数の集合を表す。
Figure 2022522071000006
は第1分岐ネットワークによる特徴マップの特徴ベクトルであり、
Figure 2022522071000007
は第2分岐ネットワークによる特徴マップの特徴ベクトルであり、iは特徴マップの行を表し、特徴マップの長さ特徴に対応し、jは特徴マップの列を表し、特徴マップの幅特徴に対応し、iとjは共に正整数であり、kは行と列に対応するインデックスを表し、例えば、
Figure 2022522071000008
である。
続いて、この対応付け特徴マップに対して、グローバル回帰処理を行って第1目標と第2目標の間の対応スコアを取得するようにしてよい。ここのグローバル回帰処理は、複数回の畳み込み処理、バッチ標準化処理、正規化線形処理及び全結合層の処理を含んで良い。同様な方式によって、第1画像と第2画像の任意2つの目標間の対応スコアを取得できる。続いて、複数の目標対の対応スコアに基づいて、マッチングした複数の目標対の対応スコアの総和が最も大きいように、複数の第1目標と複数の第2目標の一対一のマッチングを実行するようにしてよい。マッチングした目標対を決定した後、第1画像と第2画像においてマッチングした目標対をマーキングしてよい。
上記の画像処理手段によれば、目標画像に目標の存在する画像領域の画像特徴だけでなく、目標の周囲の画像領域の画像特徴も含むので、目標画像からより全面的な画像特徴を取得できる。注意画像に目標の位置情報と画像特徴を含むため、更に目標の位置情報と画像特徴に基づいて、2つの目標が対応するか否かについての対応付け結果を得ることができる。
本開示で言及される上記各方法の実施例は、原理と論理に違反しない限り、相互に組み合わせて実施例を形成することができることが理解すべきであり、ページ数に限りがあるので、本開示では詳細な説明を省略する。
また、本開示は画像処理装置、電子機器、コンピュータ読み取り可能な記憶媒体、プログラムを更に提供し、それらはいずれも本開示で提供される画像処理方法のいずれか1つを実現することに利用可能であり、対応する技術的解決手段及び説明については方法部分の対応する記載を参照すればよく、ここで詳細な説明を省略する。
当業者であれば、具体的な実施形態の上記方法において、各ステップの記述順序は厳しい実行順序であるというわけではなく、実施プロセスの何の制限にもならなく、各ステップの具体的な実行順序はその機能と可能な内在的論理に依存することが理解すべきである。
図4は本開示の実施例に係る画像処理装置のブロック図を示し、図4に示すように、前記画像処理装置は、
少なくとも2つの目標画像を取得するための取得モジュール41と、
前記少なくとも2つの目標画像のうちの各目標画像の目標検出結果に基づいて、各目標画像における少なくとも1つの目標の、1つの目標の目標画像での位置を示すための注意画像を決定するための第1決定モジュール42と、
各目標画像及び各目標画像における少なくとも1つの目標の注意画像に基づいて、別々の目標画像における少なくとも一部の目標の間に対応関係が存在するか否かについての対応付け結果を決定するための第2決定モジュール43と、を含む。
可能な一実施形態では、前記第1決定モジュール42は、
各目標画像における1つの目標について、各目標画像の目標検出結果に基づいて、この目標の存在する第1画像領域を決定するための第1決定サブモジュールと、
目標画像における第1画像領域及びこの目標画像における第1画像領域以外の第2画像領域によって、この目標の注意画像を決定するための第2決定サブモジュールと、を含む。
可能な一実施形態では、前記第2決定サブモジュール42は、
画像サイズが前記目標画像に合う初期画像を取得するための取得ユニットと、
前記初期画像における、前記第1画像領域に対応する第1目標画像領域中の画素点の画素値を第1画素値とするための第1設置ユニットと、
前記初期画像における、前記第2画像領域に対応する第2目標画像領域中の画素点の画素値を前記第1画素値に等しくない第2画素値として、この目標の注意画像を得るための第2設置ユニットと、を含む。
可能な一実施形態では、前記第2決定モジュール42は、
各目標画像とこの目標画像における1つの目標の注意画像を融合して、各被処理画像を得るための融合サブモジュールと、
各被処理画像に対して、それぞれ特徴抽出を行って、各被処理画像の特徴マップを得るための特徴抽出サブモジュールと、
各被処理画像の特徴マップに基づいて、別々の目標画像における少なくとも一部の目標の間に対応関係が存在するか否かについての対応付け結果を決定するための判断サブモジュールと、を含む。
可能な一実施形態では、前記融合サブモジュールは、
各目標画像とこの目標画像における1つの目標の注意画像を所定次元で繋ぎ合わせて、各被処理画像を得るための繋ぎ合わせユニット、又は、
各目標画像とこの目標画像における1つの目標の注意画像を所定次元で加算して、各被処理画像を得るための加算ユニットと、を含む。
可能な一実施形態では、前記特徴抽出サブモジュールは、
ニューラルネットワークの、被処理画像に対して一対一に特徴抽出を行い且つ同じネットワーク構造とネットワークパラメータを有する各分岐ネットワークを用いて、各被処理画像に対して、それぞれ特徴抽出を行って各被処理画像の特徴マップを得るための分岐ユニットを含む。
可能な一実施形態では、前記特徴抽出サブモジュールは、
前記被処理画像のうちの任意2つの被処理画像の特徴マップに対して、特徴対応付けを行って対応付け特徴マップを得るための対応付けユニットと、
前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に対応関係が存在するか否かについての対応付け結果を決定するための決定ユニットと、を含む。
可能な一実施形態では、前記決定ユニットは、
前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間の対応スコアを得るための第1対応付けサブユニットと、
前記対応スコアがスコア閾値より大きい場合に、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に潜在的な対応性があると決定するための第1決定サブユニットと、を含む。
可能な一実施形態では、前記装置は、
前記対応スコアが前記スコア閾値以下である場合に、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に対応性がないと決定するための第2決定サブユニットを更に含む。
可能な一実施形態では、前記決定ユニットは、
前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間の対応スコアを得るための第2対応付けサブユニットと、
特徴マップが対応付けられた2つの被処理画像に対応する目標画像における各目標間の対応スコアに基づいて、別々の目標画像における目標のマッチングを実行して、別々の目標画像における各目標間に対応関係が存在するか否かについての対応付け結果を得るためのものであって、マッチングが実行される目標は、別々の目標画像に属するマッチングサブユニットと、を含む。
可能な一実施形態では、前記マッチングサブユニットは、
特徴マップが対応付けられた2つの被処理画像に対応する目標画像における各目標間の対応スコアに基づいて、前記別々の目標画像のうちの第1目標画像における各目標と前記別々の目標画像のうちの第2目標画像における各目標との対応スコアの総和を決定することと、
前記対応スコアの総和が最も大きく且つ予め設定された総和スコア閾値より大きい場合に、前記第1目標画像における目標と前記第2目標画像における目標が一対一にマッチングすると決定することとに用いられる。
可能な一実施形態では、前記マッチングサブユニットは、更に、
前記対応スコアの総和のうちの最大の対応スコアの総和が前記総和スコア閾値以下である場合に、前記第1目標画像における目標と前記第2目標画像における目標がマッチングしないと決定するために用いられる。
可能な一実施形態では、前記少なくとも2つの目標画像は、異なる視角で同一シーンを同期撮影して得られたものである。
いくつかの実施例では、本開示の実施例で提供された装置に備える機能又はモジュールは、上記方法実施例に記載の方法を実行するために用いられ、その具体的な実施形態については上記方法実施例の説明を参照すればよく、簡潔化するために、ここで重複説明は割愛する。
本開示の実施例は、コンピュータプログラムコマンドが記憶されているコンピュータ読み取り可能な記憶媒体において、前記コンピュータプログラムコマンドがプロセッサによって実行されると、上記方法を実現するコンピュータ読み取り可能な記憶媒体を更に提供する。コンピュータ読み取り可能な記憶媒体は非揮発性コンピュータ読み取り可能な記憶媒体であってよい。
本開示の実施例は、プロセッサと、プロセッサにより実行可能なコマンドを記憶するためのメモリと、を含み、前記プロセッサは上記方法を実行するように構成される電子機器を更に提供する。
電子機器は、端末、サーバ又は他の形態の装置として提供されてよい。
図5は例示的な一実施例に基づいて示した電子機器800のブロック図である。例えば、電子機器800は、携帯電話、コンピュータ、デジタル放送端末、メッセージ送受信装置、ゲームコンソール、タブレット装置、医療機器、フィットネス器具、パーソナル・デジタル・アシスタントなどの端末であってよい。
図5を参照すると、電子機器800は処理コンポーネント802、メモリ804、電源コンポーネント806、マルチメディアコンポーネント808、オーディオコンポーネント810、入力/出力(I/O)インターフェイス812、センサコンポーネント814、および通信コンポーネント816のうちの一つ以上を含んでもよい。
処理コンポーネント802は通常、電子機器800の全体的な動作、例えば表示、電話の呼び出し、データ通信、カメラ動作および記録動作に関連する動作を制御する。処理コンポーネント802は、命令を実行して上記方法の全てまたは一部のステップを実行するための一つ以上のプロセッサ820を含んでもよい。また、処理コンポーネント802は、他のコンポーネントとのインタラクションための一つ以上のモジュールを含んでもよい。例えば、処理コンポーネント802は、マルチメディアコンポーネント808とのインタラクションのために、マルチメディアモジュールを含んでもよい。
メモリ804は電子機器800での動作をサポートするための様々なタイプのデータを記憶するように構成される。これらのデータは、例として、電子機器800において操作するためのあらゆるアプリケーションプログラムまたは方法の命令、連絡先データ、電話帳データ、メッセージ、ピクチャー、ビデオなどを含む。メモリ804は、例えば静的ランダムアクセスメモリ(SRAM)、電気的消去可能プログラマブル読み取り専用メモリ(EEPROM)、消去可能なプログラマブル読み取り専用メモリ(EPROM)、プログラマブル読み取り専用メモリ(PROM)、読み取り専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気ディスクまたは光ディスクなどのあらゆるタイプの揮発性または非揮発性記憶装置またはそれらの組み合わせによって実現できる。
電源コンポーネント806は電子機器800の各コンポーネントに電力を供給する。電源コンポーネント806は電源管理システム、一つ以上の電源、および電子機器800のための電力生成、管理および配分に関連する他のコンポーネントを含んでもよい。
マルチメディアコンポーネント808は前記電子機器800とユーザとの間で出力インターフェイスを提供するスクリーンを含む。いくつかの実施例では、スクリーンは液晶ディスプレイ(LCD)およびタッチパネル(TP)を含んでもよい。スクリーンがタッチパネルを含む場合、ユーザからの入力信号を受信するために、タッチスクリーンとして実現してもよい。タッチパネルは、タッチ、スライドおよびタッチパネルでのジェスチャを検知するために、一つ以上のタッチセンサを含む。前記タッチセンサはタッチまたはスライド動きの境界を検知するのみならず、前記タッチまたはスライド操作に関連する持続時間および圧力を検出するようにしてもよい。いくつかの実施例では、マルチメディアコンポーネント808は前面カメラおよび/または後面カメラを含む。電子機器800が動作モード、例えば撮影モードまたは撮像モードになる場合、前面カメラおよび/または後面カメラは外部のマルチメディアデータを受信するようにしてもよい。各前面カメラおよび後面カメラは固定された光学レンズ系、または焦点距離および光学ズーム能力を有するものであってもよい。
オーディオコンポーネント810はオーディオ信号を出力および/または入力するように構成される。例えば、オーディオコンポーネント810は、マイク(MIC)を含み、マイク(MIC)は電子機器800が動作モード、例えば呼び出しモード、記録モードおよび音声認識モードになる場合、外部のオーディオ信号を受信するように構成される。受信されたオーディオ信号はさらにメモリ804に記憶されるか、または通信コンポーネント816によって送信されてもよい。いくつかの実施例では、オーディオコンポーネント810はさらに、オーディオ信号を出力するためのスピーカーを含む。
I/Oインターフェイス812は処理コンポーネント802と周辺インターフェイスモジュールとの間でインターフェイスを提供し、上記周辺インターフェイスモジュールはキーボード、クリックホイール、ボタンなどであってもよい。これらのボタンはホームボタン、音量ボタン、スタートボタンおよびロックボタンを含んでもよいが、これらに限定されない。
センサコンポーネント814は電子機器800の各面での状態評価のために一つ以上のセンサを含む。例えば、センサコンポーネント814は電子機器800のオン/オフ状態、例えば電子機器800の表示装置およびキーパッドであるコンポーネントの相対的画像処理を検出でき、センサコンポーネント814はさらに、電子機器800または電子機器800のあるコンポーネントの位置の変化、ユーザと電子機器800との接触の有無、電子機器800の方位または加減速および電子機器800の温度変化を検出できる。センサコンポーネント814は、いかなる物理的接触もない場合に近傍の物体の存在を検出するように構成された近接センサを含んでもよい。センサコンポーネント814はさらに、CMOSまたはCCDイメージセンサのような、イメージングアプリケーションにおいて使用するための光センサを含んでもよい。いくつかの実施例では、該センサコンポーネント814はさらに、加速度センサ、ジャイロスコープセンサ、磁気センサ、圧力センサまたは温度センサを含んでもよい。
通信コンポーネント816は電子機器800と他の機器との有線または無線通信を実現するように配置される。電子機器800は通信規格に基づく無線ネットワーク、例えばWiFi、2Gまたは3G、またはそれらの組み合わせにアクセスできる。一例示的実施例では、通信コンポーネント816は放送チャネルによって外部の放送管理システムからの放送信号または放送関連情報を受信する。一例示的実施例では、前記通信コンポーネント816はさらに、近距離通信を促進させるために、近距離無線通信(NFC)モジュールを含む。例えば、NFCモジュールは無線周波数識別(RFID)技術、赤外線データ協会(IrDA)技術、超広帯域(UWB)技術、ブルートゥース(登録商標/BT)技術および他の技術によって実現できる。
例示的な実施例では、電子機器800は一つ以上の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理デバイス(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサまたは他の電子要素によって実現され、上記方法を実行するために用いられることができる。
例示的な実施例では、さらに、非揮発性コンピュータ読み取り可能な記憶媒体又は揮発性コンピュータ読み取り可能な記憶媒体、例えばコンピュータプログラム命令を含むメモリ804が提供され、上記コンピュータプログラム命令は電子機器800のプロセッサ820によって実行されると、上記方法を実行させることができる。
図6は例示的な一実施例に基づいて示した電子機器1900のブロック図である。例えば、電子機器1900はサーバとして提供されてもよい。図6を参照すると、電子機器1900は、一つ以上のプロセッサを含む処理コンポーネント1922、および、処理コンポーネント1922によって実行可能な命令、例えばアプリケーションプログラムを記憶するための、メモリ1932を代表とするメモリ資源を含む。メモリ1932に記憶されたアプリケーションプログラムはそれぞれが1つの命令群に対応する一つ以上のモジュールを含んでもよい。また、処理コンポーネント1922は命令を実行することによって上記方法を実行するように構成される。
電子機器1900はさらに、電子機器1900の電源管理を実行するように構成された電源コンポーネント1926、電子機器1900をネットワークに接続するように構成された有線または無線ネットワークインターフェイス1950、および入出力(I/O)インターフェイス1958を含んでもよい。電子機器1900はメモリ1932に記憶されたオペレーティングシステム、例えばWindows(登録商標)ServerTM、Mac OS XTM、UnixTM、LinuxTM、FreeBSDTMまたは類似するものに基づいて動作できる。
例示的な実施例では、さらに、非揮発性コンピュータ読み取り可能な記憶媒体又は揮発性コンピュータ読み取り可能な記憶媒体、例えばコンピュータプログラム命令を含むメモリ1932が提供され、上記コンピュータプログラム命令は電子機器1900の処理コンポーネント1922によって実行されると、上記方法を実行させることができる。
本開示はシステム、方法および/またはコンピュータプログラム製品であってもよい。コンピュータプログラム製品はプロセッサに本開示の各方面を実現させるためのコンピュータ読み取り可能なプログラム命令が有しているコンピュータ読み取り可能な記憶媒体を含んでもよい。
コンピュータ読み取り可能な記憶媒体は命令実行装置により使用される命令を保存および記憶可能な有形装置であってもよい。コンピュータ読み取り可能な記憶媒体は例えば、電気記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置または上記の任意の適当な組み合わせであってもよいが、これらに限定されない。コンピュータ読み取り可能な記憶媒体のさらに具体的な例(非網羅的リスト)としては、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMまたはフラッシュメモリ)、静的ランダムアクセスメモリ(SRAM)、携帯型コンパクトディスク読み取り専用メモリ(CD-ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピーディスク、例えば命令が記憶されているせん孔カードまたはスロット内突起構造のような機械的符号化装置、および上記の任意の適当な組み合わせを含む。ここで使用されるコンピュータ読み取り可能な記憶媒体は瞬時信号自体、例えば無線電波または他の自由に伝播される電磁波、導波路または他の伝送媒体を経由して伝播される電磁波(例えば、光ファイバーケーブルを通過するパルス光)、または電線を経由して伝送される電気信号と解釈されるものではない。
ここで記述したコンピュータ読み取り可能なプログラム命令はコンピュータ読み取り可能な記憶媒体から各計算/処理機器にダウンロードされてもよいし、またはネットワーク、例えばインターネット、ローカルエリアネットワーク、広域ネットワークおよび/または無線ネットワークによって外部のコンピュータまたは外部記憶装置にダウンロードされてもよい。ネットワークは銅伝送ケーブル、光ファイバー伝送、無線伝送、ルーター、ファイアウォール、交換機、ゲートウェイコンピュータおよび/またはエッジサーバを含んでもよい。各計算/処理機器内のネットワークアダプタカードまたはネットワークインターフェイスはネットワークからコンピュータ読み取り可能なプログラム命令を受信し、該コンピュータ読み取り可能なプログラム命令を転送し、各計算/処理機器内のコンピュータ読み取り可能な記憶媒体に記憶させる。
本開示の動作を実行するためのコンピュータプログラム命令はアセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械語命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、C++などのオブジェクト指向プログラミング言語、および「C」言語または類似するプログラミング言語などの一般的な手続き型プログラミング言語を含む一つ以上のプログラミング言語の任意の組み合わせで書かれたソースコードまたは目標コードであってもよい。コンピュータ読み取り可能なプログラム命令は、完全にユーザのコンピュータにおいて実行されてもよく、部分的にユーザのコンピュータにおいて実行されてもよく、スタンドアロンソフトウェアパッケージとして実行されてもよく、部分的にユーザのコンピュータにおいてかつ部分的にリモートコンピュータにおいて実行されてもよく、または完全にリモートコンピュータもしくはサーバにおいて実行されてもよい。リモートコンピュータに関与する場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を含む任意の種類のネットワークを経由してユーザのコンピュータに接続されてもよく、または、(例えばインターネットサービスプロバイダを利用してインターネットを経由して)外部コンピュータに接続されてもよい。いくつかの実施例では、コンピュータ読み取り可能なプログラム命令の状態情報を利用して、例えばプログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)またはプログラマブル論理アレイ(PLA)などの電子回路をパーソナライズし、該電子回路によりコンピュータ読み取り可能なプログラム命令を実行することにより、本開示の各方面を実現するようにしてもよい。
なお、ここで本開示の実施例に係る方法、装置(システム)およびコンピュータプログラム製品のフローチャートおよび/またはブロック図を参照しながら本開示の各方面を説明したが、フローチャートおよび/またはブロック図の各ブロックおよびフローチャートおよび/またはブロック図の各ブロックの組み合わせは、いずれもコンピュータ読み取り可能なプログラム命令によって実現できることが理解すべきである。
これらのコンピュータ読み取り可能なプログラム命令は、汎用コンピュータ、専用コンピュータまたは他のプログラマブルデータ処理装置のプロセッサへ提供されて、これらの命令がコンピュータまたは他のプログラマブルデータ処理装置のプロセッサによって実行されると、フローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作を実現するように機械を製造してもよい。また、これらのコンピュータ読み取り可能なプログラム命令は、コンピュータ読み取り可能な記憶媒体に記憶し、コンピュータ、プログラマブルデータ処理装置および/または他の機器を特定の方式で動作させるようにしてもよい。命令を記憶しているコンピュータ読み取り可能な記憶媒体には、フローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作の各方面を実現するための命令を有する製品を含む。
コンピュータ読み取り可能なプログラム命令は、コンピュータ、他のプログラマブルデータ処理装置、または他の機器にロードし、コンピュータ、他のプログラマブルデータ処理装置または他の機器において一連の動作ステップを実行させることにより、コンピュータにより実施されるプロセスを生成し、コンピュータ、他のプログラマブルデータ処理装置、または他の機器において実行される命令によりフローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作を実現する。
図面のうちフローチャートおよびブロック図は本開示の複数の実施例に係るシステム、方法およびコンピュータプログラム製品の実現可能なシステムアーキテクチャ、機能および動作を示す。この点では、フローチャートまたはブロック図における各ブロックは一つのモジュール、プログラムセグメントまたは命令の一部分を代表することができ、前記モジュール、プログラムセグメントまたは命令の一部分は指定された論理機能を実現するための一つ以上の実行可能命令を含む。いくつかの代替としての実現形態では、ブロックに表記される機能は図面に付した順序と異なって実現してもよい。例えば、二つの連続的なブロックは実質的に同時に実行してもよく、また、係る機能によって、逆な順序で実行してもよい場合がある。なお、ブロック図および/またはフローチャートにおける各ブロック、およびブロック図および/またはフローチャートにおけるブロックの組み合わせは、指定される機能または動作を実行するハードウェアに基づく専用システムによって実現してもよいし、または専用ハードウェアとコンピュータ命令との組み合わせによって実現してもよいことに注意すべきである。
以上、本開示の各実施例を記述したが、上記説明は例示的なものに過ぎず、網羅的なものではなく、かつ披露された各実施例に限定されるものでもない。当業者にとって、説明された各実施例の範囲および精神から逸脱することなく、様々な修正および変更が自明である。本明細書に選ばれた用語は、各実施例の原理、実際の適用または市場における技術への技術的改善を好適に解釈するか、または他の当業者に本文に披露された各実施例を理解させるためのものである。
本願は、2019年12月30日に提出された、発明の名称が「IMAGE PROCESSING METHOD AND APPARATUS,ELECTRONIC DEVICE,AND STORAGE MEDIUM」であるシンガポール特許出願10201913754X号の優先権を主張する。これらの出願の全ての内容が参照によって本願に組み込まれる。

Claims (20)

  1. 少なくとも2つの目標画像を取得することと、
    前記少なくとも2つの目標画像のうちの各目標画像の目標検出結果に基づいて、各目標画像における少なくとも1つの目標の、1つの目標の目標画像での位置を示すための注意画像を決定することと、
    各目標画像及び各目標画像における少なくとも1つの目標の注意画像に基づいて、別々の目標画像における少なくとも一部の目標の間に対応関係が存在するか否かについての対応付け結果を決定することと、を含むことを特徴とする画像処理方法。
  2. 前記少なくとも2つの目標画像のうちの各目標画像の目標検出結果に基づいて、各目標画像における少なくとも1つの目標の注意画像を決定することは、
    各目標画像における1つの目標について、各目標画像の目標検出結果に基づいて、この目標の存在する第1画像領域を決定することと、
    目標画像における第1画像領域及びこの目標画像における第1画像領域以外の第2画像領域によって、この目標の注意画像を決定することと、を含むことを特徴とする請求項1に記載の方法。
  3. 目標画像における第1画像領域及びこの目標画像における第1画像領域以外の画像領域によって、この目標の注意画像を決定することは、
    画像サイズが前記目標画像に合う初期画像を取得することと、
    前記初期画像における、前記第1画像領域に対応する第1目標画像領域中の画素点の画素値を第1画素値とすることと、
    前記初期画像における、前記第2画像領域に対応する第2目標画像領域中の画素点の画素値を前記第1画素値に等しくない第2画素値として、この目標の注意画像を得ることと、を含むことを特徴とする請求項2に記載の方法。
  4. 各目標画像及び各目標画像における少なくとも1つの目標の注意画像に基づいて、別々の目標画像における少なくとも一部の目標の間に対応関係が存在するか否かについての対応付け結果を決定することは、
    各目標画像とこの目標画像における1つの目標の注意画像を融合して、各被処理画像を得ることと、
    各被処理画像に対して、それぞれ特徴抽出を行って各被処理画像の特徴マップを得ることと、
    各被処理画像の特徴マップに基づいて、別々の目標画像における少なくとも一部の目標の間に対応関係が存在するか否かについての対応付け結果を決定することと、を含むことを特徴とする請求項1~3のいずれか一項に記載の方法。
  5. 各目標画像とこの目標画像における1つの目標の注意画像を融合して、各被処理画像を得ることは、
    各目標画像とこの目標画像における1つの目標の注意画像を所定次元で繋ぎ合わせて各被処理画像を得ること、又は、
    各目標画像とこの目標画像における1つの目標の注意画像を所定次元で加算して各被処理画像を得ることを含むことを特徴とする請求項4に記載の方法。
  6. 各被処理画像の特徴マップに基づいて、別々の目標画像における少なくとも一部の目標の間に対応関係が存在するか否かについての対応付け結果を決定することは、
    前記被処理画像のうちの任意2つの被処理画像の特徴マップに対して、特徴対応付けを行って対応付け特徴マップを得ることと、
    前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に対応関係が存在するか否かについての対応付け結果を決定することと、を含むことを特徴とする請求項4に記載の方法。
  7. 前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に対応関係が存在するか否かについての対応付け結果を決定することは、
    前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間の対応スコアを得ることと、
    前記対応スコアがスコア閾値より大きい場合に、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に潜在的な対応性があると決定することと、
    前記対応スコアが前記スコア閾値以下である場合に、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に対応性がないと決定することと、を含むことを特徴とする請求項6に記載の方法。
  8. 前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に対応関係が存在するか否かについての対応付け結果を決定することは、
    前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間の対応スコアを得ることと、
    特徴マップが対応付けられた2つの被処理画像に対応する目標画像における各目標間の対応スコアに基づいて、別々の目標画像における目標のマッチングを実行して、別々の目標画像における各目標間に対応関係が存在するか否かについての対応付け結果を得ることであって、マッチングが実行される目標は別々の目標画像に属することと、を含むことを特徴とする請求項6に記載の方法。
  9. 特徴マップが対応付けられた2つの被処理画像に対応する目標画像における各目標間の対応スコアに基づいて、別々の目標画像における目標のマッチングを実行して、別々の目標画像における各目標間に対応関係が存在するか否かについての対応付け結果を得ることは、
    特徴マップが対応付けられた2つの被処理画像に対応する目標画像における各目標間の対応スコアに基づいて、前記別々の目標画像のうちの第1目標画像における各目標と前記別々の目標画像のうちの第2目標画像における各目標との対応スコアの総和を決定することと、
    前記対応スコアの総和が最も大きく且つ予め設定された総和スコア閾値より大きい場合に、前記第1目標画像における目標と前記第2目標画像における目標が一対一にマッチングすると決定することと、
    前記対応スコアの総和のうちの最大の対応スコアの総和が前記総和スコア閾値以下である場合に、前記第1目標画像における目標と前記第2目標画像における目標がマッチングしないと決定することと、を含むことを特徴とする請求項8に記載の方法。
  10. 少なくとも2つの目標画像を取得するための取得モジュールと、
    前記少なくとも2つの目標画像のうちの各目標画像の目標検出結果に基づいて、各目標画像における少なくとも1つの目標の、1つの目標の目標画像での位置を示すための注意画像を決定するための第1決定モジュールと、
    各目標画像及び各目標画像における少なくとも1つの目標の注意画像に基づいて、別々の目標画像における少なくとも一部の目標の間に対応関係が存在するか否かについての対応付け結果を決定するための第2決定モジュールと、を含むことを特徴とする画像処理装置。
  11. 前記第1決定モジュールは、
    各目標画像における1つの目標について、各目標画像の目標検出結果に基づいて、この目標の存在する第1画像領域を決定するための第1決定サブモジュールと、
    目標画像における第1画像領域及びこの目標画像における第1画像領域以外の第2画像領域によって、この目標の注意画像を決定するための第2決定サブモジュールと、を含むことを特徴とする請求項10に記載の装置。
  12. 前記第2決定サブモジュールは、
    画像サイズが前記目標画像に合う初期画像を取得するための取得ユニットと、
    前記初期画像における、前記第1画像領域に対応する第1目標画像領域中の画素点の画素値を第1画素値とするための第1設置ユニットと、
    前記初期画像における、前記第2画像領域に対応する第2目標画像領域中の画素点の画素値を前記第1画素値に等しくない第2画素値として、この目標の注意画像を得るための第2設置ユニットと、を含むことを特徴とする請求項11に記載の装置。
  13. 前記第2決定モジュールは、
    各目標画像とこの目標画像における1つの目標の注意画像を融合して、各被処理画像を得るための融合サブモジュールと、
    各被処理画像に対して、それぞれ特徴抽出を行って各被処理画像の特徴マップを得るための特徴抽出サブモジュールと、
    各被処理画像の特徴マップに基づいて、別々の目標画像における少なくとも一部の目標の間に対応関係が存在するか否かについての対応付け結果を決定するための判断サブモジュールと、を含むことを特徴とする請求項10~12のいずれか一項に記載の装置。
  14. 前記融合サブモジュールは、
    各目標画像とこの目標画像における1つの目標の注意画像を所定次元で繋ぎ合わせて各被処理画像を得るための繋ぎ合わせユニット、又は、
    各目標画像とこの目標画像における1つの目標の注意画像を所定次元で加算して各被処理画像を得るための加算ユニットと、を含むことを特徴とする請求項13に記載の装置。
  15. 前記特徴抽出サブモジュールは、
    前記被処理画像のうちの任意2つの被処理画像の特徴マップに対して特徴対応付けを行って対応付け特徴マップを得るための対応付けユニットと、
    前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に対応関係が存在するか否かについての対応付け結果を決定するための決定ユニットと、を含むことを特徴とする請求項13に記載の装置。
  16. 前記決定ユニットは、
    前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間の対応スコアを得るための第1対応付けサブユニットと、
    前記対応スコアがスコア閾値より大きい場合に、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に潜在的な対応性があると決定するための第1決定サブユニットと、
    前記対応スコアが前記スコア閾値以下である場合に、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間に対応性がないと決定するための第2決定サブユニットと、を含むことを特徴とする請求項15に記載の装置。
  17. 前記決定ユニットは、
    前記対応付け特徴マップに基づいて、特徴マップが対応付けられた2つの被処理画像に対応する目標画像における目標間の対応スコアを得るための第2対応付けサブユニットと、
    特徴マップが対応付けられた2つの被処理画像に対応する目標画像における各目標間の対応スコアに基づいて、別々の目標画像における目標のマッチングを実行して、別々の目標画像における各目標間に対応関係が存在するか否かについての対応付け結果を得るためのものであって、マッチングが実行される目標は別々の目標画像に属するマッチングサブユニットと、を含むことを特徴とする請求項15に記載の装置。
  18. 前記マッチングサブユニットは、
    特徴マップが対応付けられた2つの被処理画像に対応する目標画像における各目標間の対応スコアに基づいて、前記別々の目標画像のうちの第1目標画像における各目標と前記別々の目標画像のうちの第2目標画像における各目標との対応スコアの総和を決定することと、
    前記対応スコアの総和が最も大きく且つ予め設定された総和スコア閾値より大きい場合に、前記第1目標画像における目標と前記第2目標画像における目標が一対一にマッチングすると決定することと、
    前記対応スコアの総和のうちの最大の対応スコアの総和が前記総和スコア閾値以下である場合に、前記第1目標画像における目標と前記第2目標画像における目標がマッチングしないと決定することとに用いられることを特徴とする請求項17に記載の装置。
  19. プロセッサと、
    プロセッサにより実行可能なコマンドを記憶するためのメモリと、を含み、
    前記プロセッサは、前記メモリに記憶されているコマンドを呼び出して請求項1~9のいずれか一項に記載の方法を実行するように構成されることを特徴とする電子機器。
  20. コンピュータプログラムコマンドが記憶されているコンピュータ読み取り可能な記憶媒体において、前記コンピュータプログラムコマンドがプロセッサによって実行されると、請求項1~9のいずれか一項に記載の方法を実現することを特徴とするコンピュータ読み取り可能な記憶媒体。
JP2020536741A 2019-12-30 2020-03-12 画像処理方法及び装置、電子機器並びに記憶媒体 Pending JP2022522071A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SG10201913754X 2019-12-30
SG10201913754XA SG10201913754XA (en) 2019-12-30 2019-12-30 Image processing method and apparatus, electronic device, and storage medium
PCT/IB2020/052210 WO2021136978A1 (en) 2019-12-30 2020-03-12 Image processing method and apparatus, electronic device, and storage medium

Publications (1)

Publication Number Publication Date
JP2022522071A true JP2022522071A (ja) 2022-04-14

Family

ID=74101454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020536741A Pending JP2022522071A (ja) 2019-12-30 2020-03-12 画像処理方法及び装置、電子機器並びに記憶媒体

Country Status (6)

Country Link
JP (1) JP2022522071A (ja)
KR (1) KR20210088438A (ja)
CN (1) CN113261011A (ja)
AU (1) AU2020323956B2 (ja)
SG (1) SG10201913754XA (ja)
WO (1) WO2021136978A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112967264A (zh) * 2021-03-19 2021-06-15 深圳市商汤科技有限公司 缺陷检测方法及装置、电子设备和存储介质
US20230131977A1 (en) * 2021-10-22 2023-04-27 The Boeing Company Method For Large Area Inspection
CN113986057A (zh) * 2021-10-22 2022-01-28 北京三快在线科技有限公司 图像处理方法、装置、可读存储介质及无人设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018026108A (ja) * 2016-08-08 2018-02-15 パナソニックIpマネジメント株式会社 物体追跡方法、物体追跡装置およびプログラム
JP2018534712A (ja) * 2015-11-04 2018-11-22 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. 単一ビューオブジェクト再構成のためのファイングレインデータセットにおける教師なしマッチング
WO2019111550A1 (ja) * 2017-12-08 2019-06-13 日本電気株式会社 人物照合装置、方法、及び非一時的なコンピュータ可読媒体
JP2019125368A (ja) * 2018-01-13 2019-07-25 トヨタ自動車株式会社 複数のコネクティッド車両による観測値を関連付ける方法
US20190304102A1 (en) * 2018-03-30 2019-10-03 Qualcomm Incorporated Memory efficient blob based object classification in video analytics
WO2019221551A1 (ko) * 2018-05-18 2019-11-21 오드컨셉 주식회사 이미지 내 객체의 대표 특성을 추출하는 방법, 장치 및 컴퓨터 프로그램
JP2019200716A (ja) * 2018-05-18 2019-11-21 株式会社リクルートコミュニケーションズ 設定装置、設定方法及び設定プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180087994A (ko) * 2017-01-26 2018-08-03 삼성전자주식회사 스테레오 매칭 방법 및 영상 처리 장치
CN106934397B (zh) * 2017-03-13 2020-09-01 北京市商汤科技开发有限公司 图像处理方法、装置及电子设备
CN108229493A (zh) * 2017-04-10 2018-06-29 商汤集团有限公司 对象验证方法、装置和电子设备
CN108965687B (zh) * 2017-05-22 2021-01-29 阿里巴巴集团控股有限公司 拍摄方向识别方法、服务器及监控方法、***及摄像设备
CN107330920B (zh) * 2017-06-28 2020-01-03 华中科技大学 一种基于深度学习的监控视频多目标追踪方法
CN108229531B (zh) * 2017-09-29 2021-02-26 北京市商汤科技开发有限公司 对象特征提取方法、装置、存储介质和电子设备
CN109241835A (zh) * 2018-07-27 2019-01-18 上海商汤智能科技有限公司 图像处理方法及装置、电子设备和存储介质
CN108960209B (zh) * 2018-08-09 2023-07-21 腾讯科技(深圳)有限公司 身份识别方法、装置及计算机可读存储介质
CN109635721B (zh) * 2018-12-10 2020-06-30 山东大学 基于轨迹加权深度卷积次序池化描述子的视频人体跌倒检测方法及***
CN109829501B (zh) * 2019-02-01 2021-02-19 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
CN110298298B (zh) * 2019-06-26 2022-03-08 北京市商汤科技开发有限公司 目标检测及目标检测网络的训练方法、装置及设备
CN110298413B (zh) * 2019-07-08 2021-07-16 北京字节跳动网络技术有限公司 图像特征提取方法、装置、存储介质及电子设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018534712A (ja) * 2015-11-04 2018-11-22 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. 単一ビューオブジェクト再構成のためのファイングレインデータセットにおける教師なしマッチング
JP2018026108A (ja) * 2016-08-08 2018-02-15 パナソニックIpマネジメント株式会社 物体追跡方法、物体追跡装置およびプログラム
WO2019111550A1 (ja) * 2017-12-08 2019-06-13 日本電気株式会社 人物照合装置、方法、及び非一時的なコンピュータ可読媒体
JP2019125368A (ja) * 2018-01-13 2019-07-25 トヨタ自動車株式会社 複数のコネクティッド車両による観測値を関連付ける方法
US20190304102A1 (en) * 2018-03-30 2019-10-03 Qualcomm Incorporated Memory efficient blob based object classification in video analytics
WO2019221551A1 (ko) * 2018-05-18 2019-11-21 오드컨셉 주식회사 이미지 내 객체의 대표 특성을 추출하는 방법, 장치 및 컴퓨터 프로그램
JP2019200716A (ja) * 2018-05-18 2019-11-21 株式会社リクルートコミュニケーションズ 設定装置、設定方法及び設定プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HIROSHI FUKUI ET AL.: ""Attention Branch Network: Learning of Attention Mechanism for Visual Explanation"", 2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), JPN6022014775, 15 June 2019 (2019-06-15), US, pages 10697 - 10706, XP033687020, ISSN: 0004754073, DOI: 10.1109/CVPR.2019.01096 *
HYEONWOO NOH ET AL.: ""Large-Scale Image Retrieval with Attentive Deep Local Features"", 2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV), JPN6022014773, 22 October 2017 (2017-10-22), US, pages 3476 - 3485, XP033283217, ISSN: 0004838522, DOI: 10.1109/ICCV.2017.374 *

Also Published As

Publication number Publication date
AU2020323956A1 (en) 2021-07-22
KR20210088438A (ko) 2021-07-14
SG10201913754XA (en) 2020-12-30
CN113261011A (zh) 2021-08-13
AU2020323956B2 (en) 2022-07-14
WO2021136978A1 (en) 2021-07-08

Similar Documents

Publication Publication Date Title
CN109670397B (zh) 人体骨骼关键点的检测方法、装置、电子设备及存储介质
CN106651955B (zh) 图片中目标物的定位方法及装置
JP7262659B2 (ja) 目標対象物マッチング方法及び装置、電子機器並びに記憶媒体
JP2022522596A (ja) 画像識別方法及び装置、電子機器並びに記憶媒体
US9674395B2 (en) Methods and apparatuses for generating photograph
JP7061191B2 (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
TW202029055A (zh) 一種行人識別方法、裝置、電子設備及非臨時性電腦可讀儲存介質
CN112219224B (zh) 图像处理方法及装置、电子设备和存储介质
CN104918107B (zh) 视频文件的标识处理方法及装置
JP2022522071A (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
US11450021B2 (en) Image processing method and apparatus, electronic device, and storage medium
CN110928627B (zh) 界面展示方法及装置、电子设备和存储介质
CN111553864A (zh) 图像修复方法及装置、电子设备和存储介质
JP2021536069A (ja) 信号表示灯の状態検出方法及び装置、運転制御方法及び装置
US20180144546A1 (en) Method, device and terminal for processing live shows
CN111325786B (zh) 图像处理方法及装置、电子设备和存储介质
JP7084485B2 (ja) 画像処理方法及び装置、電子機器、並びに記憶媒体
CN109040837B (zh) 视频处理方法及装置、电子设备和存储介质
CN112330717B (zh) 目标跟踪方法及装置、电子设备和存储介质
US11265529B2 (en) Method and apparatus for controlling image display
CN109919126B (zh) 一种移动物体探测方法、装置及存储介质
CN114390189A (zh) 图像处理方法、装置、存储介质及移动终端
CN109034068B (zh) 视频处理方法及装置、电子设备和存储介质
CN115706848A (zh) 对焦控制方法、装置、电子设备及存储介质
CN116012661A (zh) 动作识别方法、装置、存储介质及终端

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220719

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220801