JP7153091B2 - 両眼マッチング方法及び装置、機器並びに記憶媒体 - Google Patents
両眼マッチング方法及び装置、機器並びに記憶媒体 Download PDFInfo
- Publication number
- JP7153091B2 JP7153091B2 JP2020565808A JP2020565808A JP7153091B2 JP 7153091 B2 JP7153091 B2 JP 7153091B2 JP 2020565808 A JP2020565808 A JP 2020565808A JP 2020565808 A JP2020565808 A JP 2020565808A JP 7153091 B2 JP7153091 B2 JP 7153091B2
- Authority
- JP
- Japan
- Prior art keywords
- features
- feature
- correlation
- cross
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 130
- 238000003860 storage Methods 0.000 title claims description 25
- 238000010586 diagram Methods 0.000 claims description 44
- 238000013527 convolutional neural network Methods 0.000 claims description 33
- 238000012549 training Methods 0.000 claims description 25
- 230000006870 function Effects 0.000 claims description 22
- 230000002776 aggregation Effects 0.000 claims description 14
- 238000004220 aggregation Methods 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 9
- 238000012512 characterization method Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/16—Image acquisition using multiple overlapping images; Image stitching
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本願は、2019年02月19に中国特許局に提出された、出願番号が201910127860.4であり、発明名称が「両眼マッチング方法及び装置、機器並びに記憶媒体」である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に援用される。
により、異なる視差
での、第g組の第1特徴グループと第g組の第2特徴グループの相互相関結果を決定することであって、前記
は、前記左図の特徴又は前記右図の特徴のチャネル数を表し、前記
は、第1所定数量又は第2所定数量を表し、前記
は、前記第1特徴グループにおける特徴を表し、前記
は、前記第2特徴グループにおける特徴を表し、前記
は、横座標が
であって縦座標が
である画素点の画素座標を表し、前記
は、横座標が
であって、縦座標が
である画素点の画素座標である、ことを含む。
視差における、前記画素点の3Dマッチング特徴を抽出することで、各可能な視差の確率を決定する。前記確率を加重平均化して、画像の視差を得ることができる。ここで、前記
は、処理しようとする画像に対応する使用シーンでの最大視差を表す。可能な視差のうちの確率が最も高い視差を画像の視差として決定することもできる。
である場合、あり得る視差0,1,……,
-1に対して、それぞれ対応する2D特徴が得られ、そしてそれらを結合して、3D特徴を得る。
を利用して、可能なそれぞれ視差
に対して、左図の特徴と右図の特徴の結合結果を決定し、
個の結合マップを得ることでができる。ここで、前記
は、前記左図の特徴を表し、前記
は、前記右図の特徴を表し、前記
は、横座標が
であって縦座標が
である画素点の画素特徴を表し、前記
は、横座標が
であって縦座標が
である画素点の画素座標を表し、前記
は、2つの特徴に対して結合を行うことを表す。続いて、前記
個の結合マップを結合し、連結特徴を得る。
により、取得された各画素点が対応する異なる視差
の確率の加重平均値を決定することができる。ここで、前記視差
は、0以上であり、
未満の自然数であり、前記
は、処理しようとする画像に対応する使用シーンでの最大視差を表し、前記
は、前記視差
に対応する確率を表す。
により、取得された画素点の視差
に対応する深度情報
を決定することであって、前記
は、サンプルを撮影するカメラのレンズ焦点距離を表し、前記
は、サンプルを撮影するカメラのレンズベースライン距離を表す、ことを更に含む。
に対する、
個の第1特徴グループと
個の第2特徴グループの相互相関結果を決定し、
*
個の相互相関マップを得て、前記視差
は、0以上であり、
未満の自然数であり、前記
は、サンプル画像に対応する使用シーンでの最大視差である。
に対する、
個の第1特徴グループと
個の第2特徴グループの相互相関結果を決定し、
*
個の相互相関マップを得ることは、前記視差
に対する、第g組の第1特徴グループと第g組の第2特徴グループの相互相関結果を決定し、
個の相互相関マップを得ることであって、gは、1以上
以下の自然数である、ことと、前記視差
に対する、
個の第1特徴グループと
個の第2特徴グループの相互相関結果を決定し、
*
個の相互相関マップを得ることと、を含む。
に対する、第g組の第1特徴グループと第g組の第2特徴グループの相互相関結果を決定し、
個の相互相関マップを得ることは、式
により、前記視差
に対する、第g組の第1特徴グループと第g組の第2特徴グループの相互相関結果を決定し、
個の相互相関マップを得ることであって、前記
は、前記第1の2D結合特徴又は前記第2の2D結合特徴のチャネル数を表し、前記
は、第1特徴グループにおける特徴を表し、前記
は、前記第2特徴グループにおける特徴を表し、前記
は、横座標が
であって縦座標が
である画素点の画素座標を表し、前記
は、横座標が
であって縦座標が
である画素点の画素座標を表す、ことを含む。
であり、前記
は、グループの数である。左図及び右図に対応する特徴グループに対して相互相関計算を行い、視差0,1,……,
-1での、各対応する特徴グループの相互相関性を計算し、
*
個の相互相関マップ33を得ることができる。前記単一の相互相関マップ33の形状は、[
,H,W]である。前記
*
個の相互相関マップ33を特徴次元で結合し、グループ化相互相関特徴を得ることができる。続いて、前記グループ化相互相関特徴を3Dマッチングコスト特徴とする。前記3Dマッチングコスト特徴の形状は、[
,
,H,W]であり、つまり、前記グループ化相互相関特徴の形状は、[
,
,H,W]である。
に対する結合結果を決定し、
個の結合マップを得て、前記視差
は、0以上であり、
未満の自然数であり、前記
は、サンプル画像に対応する使用シーンでの最大視差である。
により、取得された第1の2D結合特徴と第2の2D結合特徴の前記視差
に対する結合結果を決定し、
個の結合マップを得ることができる。ここで、前記
は、前記第1の2D結合特徴における特徴を表し、前記
は、前記第2の2D結合特徴における特徴を表し、前記
は、横座標が
であって縦座標が
である画素点の画素座標を表し、前記
は、横座標が
であって縦座標が
である画素点の画素座標を表し、前記
は、2つの特徴を結合することを表す。
-1で連結し、
個の結合マップ37を得る。前記
個の結合マップ37を結合し、連結特徴を得る。ここで、前記2D結合特徴の形状は、[C,H,W]であり、前記単一の結合マップ37の形状は、[2C,H,W]であり、前記連結特徴の形状は、[2C,
,H,W]であり、前記Cは、2D結合特徴のチャネル数であり、前記
は、左図又は右図に対応する使用シーンでの最大視差を表し、前記Hは、左図又は右図の高さであり、前記Wは、左図又は右図の幅である。
の確率を決定することであって、前記視差
は、0以上であり、
未満の自然数であり、前記
は、サンプル画像に対応する使用シーンでの最大視差である、ことを含む。
の確率を決定するために用いられる。
の確率の加重平均値を前記画素点の予測視差として決定し、サンプル画像の予測視差を得ることであって、前記視差
は、0以上であり、
未満の自然数であり、前記
は、サンプル画像に対応する使用シーンでの最大視差である、ことを含む。
により、取得された各画素点が対応する異なる視差
の確率の加重平均値を決定することができる。ここで、前記
は、0以上であり、
未満の自然数であり、前記
は、サンプル画像に対応する使用シーンでの最大視差であり、前記
は、前記視差
に対応する確率を表す。
組に分け、左右図に対応する第g組の特徴グループを選択し(例えば、g=1である場合、第1組の左図特徴及び第1組の右図特徴を選択する)、視差dに対する、それらの相互相関結果を計算する。各特徴グループg(0<=g<
)について、各可能な視差d(0<=d<
)によれば、
*
個の相互相関マップを得ることができる。これらの結果を連結して併合すると、形状が[
,
,H,W]であるグループ化相互相関特徴を得ることができる。ここで、
、
、H及びWはそれぞれ、特徴グループの数、特徴マップに対する最大視差、特徴の高さ及び特徴の幅である。
及び
で表し、
でチャネルを表し、2D特徴のサイズは、元画像の1/4である。従来技術において、左右特徴を様々な差分層で連結して様々なマッチングコストを形成する。しかしながら、マッチングメトリックは、3D集約ネットワークを利用して学習を行う必要がある。また、連結前に、メモリを節約するために、特徴を極めて少ないチャネルに圧縮する必要がある。しかしながら、このような圧縮特徴を表すための情報が損失することがある。上記問題を解決するために、本願の実施例は、グループ化相互相関に基づいて、従来のマッチングメトリックを利用して、マッチングコスト特徴を確立することを提出する。
を利用してグループ化相互相関性を計算する。ここで、前記
は、2D特徴のチャネル数を表し、前記
は、グループの数を表し、前記
は、グループ化された左図に対応する特徴グループにおける特徴を表し、前記
は、グループ化された右図に対応する特徴グループにおける特徴を表し、前記
は、横座標が
であって縦座標が
である画素点の画素座標を表し、前記
は、横座標が
であって縦座標が
である画素点の画素座標を表し、ここで、
は、2つの特徴の積を表す。ここで、相関性計算とは、全ての特徴グループgと全ての視差dの相関性の計算を指す。
を利用して、グループ化相互相関に基づいたネットワークを訓練する。ここで、
は、実施例で用いられるグループ化相互相関に基づいたネットワークに3つの仮結果及び1つの最終的結果があることを表し、
は、異なる結果について付加した異なる重みを表し、
は、前記グループ化相互相関に基づいたネットワークを利用することで得られた視差を表し、前記
は、実視差を表し、前記
は、従来の損失関数計算方法を表す。
により決定されてもよい。ここで、
は、本願の実施例で提供された両眼マッチング方法で決定された処理しようとする画像の左図又は右図におけるi番目の画素点の予測視差を表し、
は、前記i番目の画素点の実視差を表す。
処理しようとする画像を取得するように構成される取得ユニットであって、前記画像は、左図及び右図を含む2D画像である、取得ユニット501と、
抽出された前記左図の特徴及び前記右図の特徴を利用して、前記画像の3Dマッチングコスト特徴を生成するように構成される生成ユニットであって、前記3Dマッチングコスト特徴は、グループ化相互相関特徴を含むか、又はグループ化相互相関特徴と連結特徴を結合した特徴を含む、生成ユニット502と、
前記3Dマッチングコスト特徴を利用して、前記画像の深度を決定するように構成される決定ユニット503と、を備える。
抽出された前記左図の特徴及び前記右図の特徴を利用して、グループ化相互相関特徴を決定するように構成される第1生成サブモジュールと、
前記グループ化相互相関特徴を3Dマッチングコスト特徴として決定するように構成される第2生成サブユニットと、を備える。
抽出された前記左図の特徴及び前記右図の特徴を利用して、グループ化相互相関特徴及び連結特徴を決定するように構成される第1生成サブユニットと、
前記グループ化相互相関特徴と前記連結特徴を結合した特徴を3Dマッチングコスト特徴として決定するように構成される第2生成サブユニットと、を備え、
前記連結特徴は、前記左図の特徴と前記右図の特徴を特徴次元で結合して得られたものである。
抽出された前記左図の特徴及び前記右図の特徴をそれぞれグループ化し、異なる視差における、グループ化された左図の特徴とグループ化された右図の特徴の相互相関結果を決定するように構成される第1生成モジュールと、
前記相互相関結果を結合し、グループ化相互相関特徴を得るように構成される第2生成モジュールと、を備える。
抽出された前記左図の特徴をグループ化し、第1所定数量の第1特徴グループを形成するように構成される第1生成サブモジュールと、
抽出された前記右図の特徴をグループ化し、第2所定数量の第2特徴グループを形成するように構成される第2生成サブモジュールであって、前記第1所定数量は、前記第2所定数量と同じである、第2生成サブモジュールと、
異なる視差における、第g組の第1特徴グループと第g組の第2特徴グループの相互相関結果を決定するように構成される第3生成サブモジュールであって、gは、1以上であり、第1の所定数量以下の自然数であり、前記異なる視差は、ゼロ視差、最大視差、及び最大視差とゼロ視差との間のいずれか1つの視差を含み、前記最大視差は、処理しようとする画像に対応する使用シーンでの最大視差である、第3生成サブモジュールと、を備える。
パラメータを共有する完全畳み込みニューラルネットワークを利用して、前記左図の2D特徴及び前記右図の2D特徴をそれぞれ抽出するように構成される抽出ユニットを更に備える。
3Dニューラルネットワークを利用して、前記3Dマッチングコスト特徴における各画素点が対応する異なる視差の確率を決定するように構成される第1決定サブユニットと、
前記各画素点が対応する異なる視差の確率の加重平均値を決定するように構成される第2決定サブユニットと、
前記加重平均値を前記画素点の視差として決定するように構成される第3決定サブユニットと、
前記画素点の視差に基づいて、前記画素点の深度を決定するように構成される第4決定サブモジュールと、を備える。
両眼マッチングネットワークを利用して、取得されたサンプル画像の3Dマッチングコスト特徴を決定するように構成される特徴抽出ユニット601であって、前記サンプル画像は、深度アノテーション情報を有する左図及び右図を含み、前記左図のサイズは、右図のサイズと同じであり、前記3Dマッチングコスト特徴は、グループ化相互相関特徴を含むか、又はグループ化相互相関特徴と連結特徴を結合した特徴を含む、特徴抽出ユニット601と、
前記3Dマッチングコスト特徴に基づいて、前記両眼マッチングネットワークを利用して、サンプル画像の予測視差を決定するように構成される視差予測ユニット602と、
前記深度アノテーション情報と前記予測視差を比較し、両眼マッチングの損失関数を得るように構成される比較ユニット603と、
前記損失関数を利用して、前記両眼マッチングネットワークに対して訓練を行うように構成される訓練ユニット604と、を備える。
両眼マッチングネットワークにおける完全畳み込みニューラルネットワークを利用して、前記左図の2D結合特徴及び前記右図の2D結合特徴をそれぞれ決定するように構成される第1特徴抽出サブユニットと、
前記左図の2D結合特徴及び前記右図の2D結合特徴を利用して、3Dマッチングコスト特徴を生成するように構成される第2特徴抽出サブユニットと、を備える。
両眼マッチングネットワークにおける完全畳み込みニューラルネットワークを利用して、前記左図の2D特徴及び前記右図の2D特徴をそれぞれ抽出するように構成される第1特徴抽出モジュールと、
2D特徴の結合を行うための畳み込み層の識別子を決定するように構成される第2特徴抽出モジュールと、
前記識別子に基づいて、前記左図における異なる畳み込み層の2D特徴を特徴次元で結合し、第1の2D結合特徴を得るように構成される第3特徴抽出モジュールと、
前記識別子に基づいて、前記右図における異なる畳み込み層の2D特徴を特徴次元で結合し、第2の2D結合特徴を得るように構成される第4特徴抽出モジュールと、を備える。
取得された第1の2D結合特徴及び取得された第2の2D結合特徴を利用して、グループ化相互相関特徴を決定するように構成される第1特徴決定モジュールと、
前記グループ化相互相関特徴を3Dマッチングコスト特徴として決定するように構成される第2特徴決定モジュールと、を備える。
取得された第1の2D結合特徴及び取得された第2の2D結合特徴を利用して、グループ化相互相関特徴を決定するように構成される第1特徴決定モジュールであって、取得された第1の2D結合特徴及び取得された第2の2D結合特徴を利用して、連結特徴を決定するように更に構成される第1特徴決定モジュールと、
前記グループ化相互相関特徴と前記連結特徴を特徴次元で結合し、3Dマッチングコスト特徴を得るように構成される第2特徴決定ユニットと、を備える。
取得された第1の2D結合特徴を
組に分け、
個の第1特徴グループを得るように構成される第1特徴決定サブモジュールと、
取得された第2の2D結合特徴を
組に分け、
個の第2特徴グループを得るように構成される第2特徴決定サブモジュールであって、
は、1以上の自然数である、第2特徴決定サブモジュールと、
前記視差
に対する、
個の第1特徴グループと
個の第2特徴グループの相互相関結果を決定し、
*
個の相互相関マップを得るように構成される第3特徴決定サブモジュールであって、前記視差
は、0以上であり、
未満の自然数であり、前記
は、サンプル画像に対応する使用シーンでの最大視差である、第3特徴決定サブモジュールと、
前記
*
個の相互相関マップを特徴次元で結合し、グループ化相互相関特徴を得るように構成される第4特徴決定サブモジュールと、を備える。
に対する、第g組の第1特徴グループと第g組の第2特徴グループの相互相関結果を決定し、
個の相互相関マップを得るように構成され、gは、1以上
以下の自然数であり、前記第3特徴決定サブモジュールは、前記視差
に対する、
個の第1特徴グループと
個の第2特徴グループの相互相関結果を決定し、
*
個の相互相関マップを得るように構成される。
前記視差
に対する、取得された第1の2D結合特徴と第2の2D結合特徴の結合結果を決定し、
個の結合マップを得るように構成される第5特徴決定サブモジュールであって、前記視差
は、0以上であり、
未満の自然数であり、前記
は、サンプル画像に対応する使用シーンでの最大視差である、第5特徴決定サブモジュールと、
前記
個の結合マップを結合し、連結特徴を得るように構成される第6特徴決定サブモジュールと、を更に備える。
前記両眼マッチングネットワークを利用して、前記3Dマッチングコスト特徴に対して、マッチングコスト集約を行うように構成される第1視差予測サブユニットと、
集約された結果に対して視差回帰を行い、サンプル画像の予測視差を得るように構成される第2視差予測サブユニットと、を備える。
の確率を決定するように構成され、前記視差
は、0以上であり、
未満の自然数であり、前記
は、サンプル画像に対応する使用シーンでの最大視差である。
の確率の加重平均値を前記画素点の予測視差として決定し、サンプル画像の予測視差を得るように構成され、
前記視差
は、0以上であり、
未満の自然数であり、前記
は、サンプル画像に対応する使用シーンでの最大視差である。
プロセッサ701は、一般的には、コンピュータ機器700の全体操作を制御する。
Claims (22)
- コンピュータが実行する両眼マッチング方法であって、前記方法は、
処理しようとする画像を取得することであって、前記画像は、左図及び右図を含む2D画像である、ことと、
抽出された前記左図の特徴及び前記右図の特徴を利用して、前記画像の3Dマッチングコスト特徴を生成することであって、前記3Dマッチングコスト特徴は、グループ化相互相関特徴を含むか、又はグループ化相互相関特徴と連結特徴を結合した特徴を含み、前記グループ化相互相関特徴は、前記左図及び前記右図の特徴をグループ化することによって得られた特徴グループに対して相互相関計算を行って得られた、異なる視差における相互相関性を表すための相互相関マップを特徴次元で結合して得られたものであり、前記連結特徴は、前記左図の特徴と前記右図の特徴を特徴次元で結合して得られたものである、ことと、
前記3Dマッチングコスト特徴を利用して、前記画像の深度を決定することと、を含む、両眼マッチング方法。 - 抽出された前記左図の特徴及び前記右図の特徴を利用して、前記画像の3Dマッチングコスト特徴を生成することは、
抽出された前記左図の特徴及び前記右図の特徴を利用して、グループ化相互相関特徴を決定することと、
前記グループ化相互相関特徴を3Dマッチングコスト特徴として決定することと、を含み、又は、
抽出された前記左図の特徴及び前記右図の特徴を利用して、前記画像の3Dマッチングコスト特徴を生成することは、
抽出された前記左図の特徴及び前記右図の特徴を利用して、グループ化相互相関特徴及び連結特徴を決定することと、
前記グループ化相互相関特徴と前記連結特徴を結合した特徴を3Dマッチングコスト特徴として決定することと、を含むことを特徴とする
請求項1に記載の方法。 - 抽出された前記左図の特徴及び前記右図の特徴を利用して、グループ化相互相関特徴を決定することは、
抽出された前記左図の特徴及び前記右図の特徴をそれぞれグループ化し、異なる視差における、グループ化された左図の特徴とグループ化された右図の特徴の相互相関結果を決定することと、
前記相互相関結果を結合し、グループ化相互相関特徴を得ることと、を含むことを特徴とする
請求項2に記載の方法。 - 抽出された前記左図の特徴及び前記右図の特徴をそれぞれグループ化し、異なる視差における、グループ化された左図の特徴とグループ化された右図の特徴の相互相関結果を決定することは、
抽出された前記左図の特徴をグループ化し、第1所定数量の第1特徴グループを形成することと、
抽出された前記右図の特徴をグループ化し、第2所定数量の第2特徴グループを形成することであって、前記第1所定数量は、前記第2所定数量と同じである、ことと、
異なる視差における、第g組の第1特徴グループと第g組の第2特徴グループの相互相関結果を決定することであって、gは、1以上であり、第1の所定数量以下の自然数であり、前記異なる視差は、ゼロ視差、最大視差、及び最大視差とゼロ視差との間のいずれか1つの視差を含み、前記最大視差は、処理しようとする画像に対応する使用シーンでの最大視差である、ことと、を含むことを特徴とする
請求項3に記載の方法。 - 抽出された前記左図の特徴及び前記右図の特徴を利用する前に、前記方法は、
パラメータを共有する完全畳み込みニューラルネットワークを利用して、前記左図の2D特徴及び前記右図の2D特徴をそれぞれ抽出することを更に含むことを特徴とする
請求項1から4のいずれか一項に記載の方法。 - 前記3Dマッチングコスト特徴を利用して、前記画像の深度を決定することは、
3Dニューラルネットワークを利用して、前記3Dマッチングコスト特徴における各画素点が対応する異なる視差の確率を決定することと、
前記各画素点が対応する異なる視差の確率の加重平均値を決定することと、
前記加重平均値を前記画素点の視差として決定することと、
前記画素点の視差に基づいて、前記画素点の深度を決定することと、を含むことを特徴とする
請求項5に記載の方法。 - 両眼マッチングネットワークの訓練方法であって、前記方法は、
両眼マッチングネットワークを利用して、取得されたサンプル画像の3Dマッチングコスト特徴を決定することであって、前記サンプル画像は、深度アノテーション情報を有する左図及び右図を含み、前記左図のサイズは、右図のサイズと同じであり、前記3Dマッチングコスト特徴は、グループ化相互相関特徴を含むか、又はグループ化相互相関特徴と連結特徴を結合した特徴を含み、前記グループ化相互相関特徴は、前記左図及び前記右図の特徴をグループ化することによって得られた特徴グループに対して相互相関計算を行って得られた、異なる視差における相互相関性を表すための相互相関マップを特徴次元で結合して得られたものであり、前記連結特徴は、前記左図の特徴と前記右図の特徴を特徴次元で結合して得られたものである、ことと、
前記3Dマッチングコスト特徴に基づいて、前記両眼マッチングネットワークを利用して、サンプル画像の予測視差を決定することと、
前記深度アノテーション情報と前記予測視差を比較し、両眼マッチングの損失関数を得ることと、
前記損失関数を利用して、前記両眼マッチングネットワークに対して訓練を行うことと、を含む、両眼マッチングネットワークの訓練方法。 - 両眼マッチングネットワークを利用して、取得されたサンプル画像の3Dマッチングコスト特徴を決定することは、
両眼マッチングネットワークにおける完全畳み込みニューラルネットワークを利用して、前記左図の2D結合特徴及び前記右図の2D結合特徴をそれぞれ決定することと、
前記左図の2D結合特徴及び前記右図の2D結合特徴を利用して、3Dマッチングコスト特徴を生成することと、を含むことを特徴とする
請求項7に記載の方法。 - 両眼マッチングネットワークにおける完全畳み込みニューラルネットワークを利用して、前記左図の2D結合特徴及び前記右図の2D結合特徴をそれぞれ決定することは、
両眼マッチングネットワークにおける完全畳み込みニューラルネットワークを利用して、前記左図の2D特徴及び前記右図の2D特徴をそれぞれ抽出することと、
2D特徴の結合を行うための畳み込み層の識別子を決定することと、
前記識別子に基づいて、前記左図における異なる畳み込み層の2D特徴を特徴次元で結合し、第1の2D結合特徴を得ることと、
前記識別子に基づいて、前記右図における異なる畳み込み層の2D特徴を特徴次元で結合し、第2の2D結合特徴を得ることと、を含むことを特徴とする
請求項8に記載の方法。 - 2D特徴の結合を行うための畳み込み層の識別子を決定することは、
第i畳み込み層の間隔率が変動した場合、前記第i畳み込み層を、2D特徴の結合を行うための畳み込み層として決定することであって、iは、1以上の自然数である、ことを含むことを特徴とする
請求項9に記載の方法。 - 前記完全畳み込みニューラルネットワークは、パラメータを共有する完全畳み込みニューラルネットワークであり、
両眼マッチングネットワークにおける完全畳み込みニューラルネットワークを利用して、前記左図の2D特徴及び前記右図の2D特徴をそれぞれ抽出することは、
両眼マッチングネットワークにおける、パラメータを共有する完全畳み込みニューラルネットワークを利用して、前記左図の2D特徴及び前記右図の2D特徴をそれぞれ抽出することであって、前記2D特徴のサイズは、前記左図又は右図のサイズの四分の一である、ことを含むことを特徴とする
請求項9又は10に記載の方法。 - 前記左図の2D結合特徴及び前記右図の2D結合特徴を利用して、3Dマッチングコスト特徴を生成することは、
取得された第1の2D結合特徴及び取得された第2の2D結合特徴を利用して、グループ化相互相関特徴を決定することと、
前記グループ化相互相関特徴を3Dマッチングコスト特徴として決定することと、を含み、又は、
前記左図の2D結合特徴及び前記右図の2D結合特徴を利用して、3Dマッチングコスト特徴を生成することは、
取得された第1の2D結合特徴及び取得された第2の2D結合特徴を利用して、グループ化相互相関特徴を決定することと、
取得された第1の2D結合特徴及び取得された第2の2D結合特徴を利用して、連結特徴を決定することと、
前記グループ化相互相関特徴と前記連結特徴を特徴次元で結合し、3Dマッチングコスト特徴を得ることと、を含むことを特徴とする
請求項8から11のいずれか一項に記載の方法。 - 取得された第1の2D結合特徴及び取得された第2の2D結合特徴を利用して、グループ化相互相関特徴を決定することは、
取得された第1の2D結合特徴をNg組に分け、Ng個の第1特徴グループを得ることと、
取得された第2の2D結合特徴をNg組に分け、Ng個の第2特徴グループを得ることであって、Ngは、1以上の自然数である、ことと、
前記視差dに対する、Ng個の第1特徴グループとNg個の第2特徴グループの相互相関結果を決定し、Ng*Dmax個の相互相関マップを得ることであって、前記視差dは、0以上であり、D max 未満である自然数であり、前記Dmaxは、サンプル画像に対応する使用シーンでの最大視差である、ことと、
前記Ng*Dmax個の相互相関マップを特徴次元で結合し、グループ化相互相関特徴を得ることと、を含むことを特徴とする
請求項12に記載の方法。 - 前記視差dに対する、Ng個の第1特徴グループとNg個の第2特徴グループの相互相関結果を決定し、Ng*Dmax個の相互相関マップを得ることは、
前記視差dに対する、第g組の第1特徴グループと第g組の第2特徴グループの相互相関結果を決定し、Dmax個の相互相関マップを得ることであって、gは、1以上Ng以下の自然数である、ことと、
前記視差dに対する、Ng個の第1特徴グループとNg個の第2特徴グループの相互相関結果を決定し、Ng*Dmax個の相互相関マップを得ることと、を含むことを特徴とする
請求項13に記載の方法。 - 取得された第1の2D結合特徴及び取得された第2の2D結合特徴を利用して、連結特徴を決定することは、
取得された第1の2D結合特徴と第2の2D結合特徴の前記視差dに対する結合結果を決定し、Dmax個の結合マップを得ることであって、前記視差dは、0以上であり、D max 未満である自然数であり、前記Dmaxは、サンプル画像に対応する使用シーンでの最大視差である、ことと、
前記Dmax個の結合マップを結合し、連結特徴を得ることと、を含むことを特徴とする
請求項12に記載の方法。 - 前記3Dマッチングコスト特徴に基づいて、前記両眼マッチングネットワークを利用して、サンプル画像の予測視差を決定することは、
前記両眼マッチングネットワークを利用して、前記3Dマッチングコスト特徴に対して、マッチングコスト集約を行うことと、
集約された結果に対して視差回帰を行い、サンプル画像の予測視差を得ることと、を含むことを特徴とする
請求項7に記載の方法。 - 前記両眼マッチングネットワークを利用して、前記3Dマッチングコスト特徴に対して、マッチングコスト集約を行うことは、
前記両眼マッチングネットワークにおける3Dニューラルネットワークを利用して、前記3Dマッチングコスト特徴における各画素点が対応する異なる視差dの確率を決定することであって、前記視差dは、0以上であり、D max 未満である自然数であり、前記Dmaxは、サンプル画像に対応する使用シーンでの最大視差である、ことを含むことを特徴とする
請求項16に記載の方法。 - 集約された結果に対して視差回帰を行い、サンプル画像の予測視差を得ることは、
前記各画素点が対応する異なる視差dの確率の加重平均値を前記画素点の予測視差として決定し、サンプル画像の予測視差を得ることであって、前記視差dは、0以上であり、D max 未満である自然数であり、前記Dmaxは、サンプル画像に対応する使用シーンでの最大視差である、ことを含むことを特徴とする
請求項16に記載の方法。 - 両眼マッチング装置であって、前記装置は、
処理しようとする画像を取得するように構成される取得ユニットであって、前記画像は、左図及び右図を含む2D画像である、取得ユニットと、
抽出された前記左図の特徴及び前記右図の特徴を利用して、前記画像の3Dマッチングコスト特徴を生成するように構成される生成ユニットであって、前記3Dマッチングコスト特徴は、グループ化相互相関特徴を含むか、又はグループ化相互相関特徴と連結特徴を結合した特徴を含み、前記グループ化相互相関特徴は、前記左図及び前記右図の特徴をグループ化することによって得られた特徴グループに対して相互相関計算を行って得られた、異なる視差における相互相関性を表すための相互相関マップを特徴次元で結合して得られたものであり、前記連結特徴は、前記左図の特徴と前記右図の特徴を特徴次元で結合して得られたものである、生成ユニットと、
前記3Dマッチングコスト特徴を利用して、前記画像の深度を決定するように構成される決定ユニットと、を備える、両眼マッチング装置。 - コンピュータ機器であって、メモリと、プロセッサと、を備え、前記メモリに、プロセッサで実行可能なコンピュータプログラムが記憶されており、前記プロセッサが前記プログラムを実行する時、請求項1から6のいずれか一項に記載の両眼マッチング方法におけるステップを実現させるか又は請求項7から18のいずれか一項に記載の両眼マッチングネットワークの訓練方法におけるステップを実現させる、コンピュータ機器。
- コンピュータ可読記憶媒体であって、コンピュータプログラムが記憶されており、該コンピュータプログラムがプロセッサにより実行される時、請求項1から6のいずれか一項に記載の両眼マッチング方法におけるステップを実現させるか又は請求項7から18のいずれか一項に記載の両眼マッチングネットワークの訓練方法におけるステップを実現させる、コンピュータ可読記憶媒体。
- コンピュータプログラムであって、コンピュータに、請求項1から6のいずれか一項に記載の両眼マッチング方法におけるステップ、又は請求項7から18のいずれか一項に記載の両眼マッチングネットワークの訓練方法におけるステップを実現させる、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910127860.4A CN109887019B (zh) | 2019-02-19 | 2019-02-19 | 一种双目匹配方法及装置、设备和存储介质 |
CN201910127860.4 | 2019-02-19 | ||
PCT/CN2019/108314 WO2020168716A1 (zh) | 2019-02-19 | 2019-09-26 | 双目匹配方法及装置、设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021526683A JP2021526683A (ja) | 2021-10-07 |
JP7153091B2 true JP7153091B2 (ja) | 2022-10-13 |
Family
ID=66928674
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020565808A Active JP7153091B2 (ja) | 2019-02-19 | 2019-09-26 | 両眼マッチング方法及び装置、機器並びに記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210042954A1 (ja) |
JP (1) | JP7153091B2 (ja) |
KR (1) | KR20200136996A (ja) |
CN (1) | CN109887019B (ja) |
SG (1) | SG11202011008XA (ja) |
WO (1) | WO2020168716A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111260538B (zh) * | 2018-12-03 | 2023-10-03 | 北京魔门塔科技有限公司 | 基于长基线双目鱼眼相机的定位及车载终端 |
CN111383256B (zh) * | 2018-12-29 | 2024-05-17 | 北京市商汤科技开发有限公司 | 图像处理方法、电子设备及计算机可读存储介质 |
CN109887019B (zh) * | 2019-02-19 | 2022-05-24 | 北京市商汤科技开发有限公司 | 一种双目匹配方法及装置、设备和存储介质 |
CN110689060B (zh) * | 2019-09-16 | 2022-01-28 | 西安电子科技大学 | 一种基于聚合特征差异学习网络的异源图像匹配方法 |
US11763433B2 (en) * | 2019-11-14 | 2023-09-19 | Samsung Electronics Co., Ltd. | Depth image generation method and device |
CN111260711B (zh) * | 2020-01-10 | 2021-08-10 | 大连理工大学 | 一种弱监督可信代价传播的视差估计方法 |
CN111709977A (zh) * | 2020-03-17 | 2020-09-25 | 北京航空航天大学青岛研究院 | 一种基于自适应单峰立体匹配成本滤波的双目深度学习方法 |
CN112819777B (zh) * | 2021-01-28 | 2022-12-27 | 重庆西山科技股份有限公司 | 一种双目内窥镜辅助显示方法、***、装置和存储介质 |
KR20220127642A (ko) * | 2021-03-11 | 2022-09-20 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN113393366B (zh) * | 2021-06-30 | 2024-07-02 | 上饶市纯白数字科技有限公司 | 双目匹配方法、装置、设备以及存储介质 |
CN113283848B (zh) * | 2021-07-21 | 2021-09-28 | 湖北浩蓝智造科技有限公司 | 一种货物入库检测方法、仓储入库***及存储介质 |
CN114627535B (zh) * | 2022-03-15 | 2024-05-10 | 平安科技(深圳)有限公司 | 基于双目摄像头的坐标匹配方法、装置、设备及介质 |
CN114419349B (zh) * | 2022-03-30 | 2022-07-15 | 中国科学技术大学 | 一种图像匹配方法和装置 |
CN115063467B (zh) * | 2022-08-08 | 2022-11-15 | 煤炭科学研究总院有限公司 | 煤矿井下高分辨率图像视差估计方法及装置 |
CN115908992B (zh) * | 2022-10-22 | 2023-12-05 | 北京百度网讯科技有限公司 | 双目立体匹配的方法、装置、设备以及存储介质 |
CN116229123B (zh) * | 2023-02-21 | 2024-04-30 | 深圳市爱培科技术股份有限公司 | 基于多通道分组互相关代价卷的双目立体匹配方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003099760A (ja) | 2001-08-10 | 2003-04-04 | Stmicroelectronics Inc | マルチプレーンステレオ及び空間伝播を使用して奥行を復元する方法及び装置 |
CN101908230A (zh) | 2010-07-23 | 2010-12-08 | 东南大学 | 一种基于区域深度边缘检测和双目立体匹配的三维重建方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104680510B (zh) * | 2013-12-18 | 2017-06-16 | 北京大学深圳研究生院 | Radar视差图优化方法、立体匹配视差图优化方法及*** |
US9430834B2 (en) * | 2014-01-20 | 2016-08-30 | Nokia Corporation | Visual perception matching cost on binocular stereo images |
KR102016551B1 (ko) * | 2014-01-24 | 2019-09-02 | 한화디펜스 주식회사 | 위치 추정 장치 및 방법 |
TWI549477B (zh) * | 2014-04-17 | 2016-09-11 | 聚晶半導體股份有限公司 | 產生深度資訊的方法與裝置 |
US10582179B2 (en) * | 2016-02-01 | 2020-03-03 | Samsung Electronics Co., Ltd. | Method and apparatus for processing binocular disparity image |
CN105956597A (zh) * | 2016-05-04 | 2016-09-21 | 浙江大学 | 一种基于卷积神经网络的双目立体匹配方法 |
CN106447661A (zh) * | 2016-09-28 | 2017-02-22 | 深圳市优象计算技术有限公司 | 一种深度图快速生成方法 |
CN106679567A (zh) * | 2017-02-14 | 2017-05-17 | 成都国铁电气设备有限公司 | 基于双目立体视觉的接触网及支柱几何参数检测测量*** |
CN107316326B (zh) * | 2017-06-29 | 2020-10-30 | 海信集团有限公司 | 应用于双目立体视觉的基于边的视差图计算方法和装置 |
CN108230235B (zh) * | 2017-07-28 | 2021-07-02 | 北京市商汤科技开发有限公司 | 一种视差图生成***、方法及存储介质 |
CN107506711B (zh) * | 2017-08-15 | 2020-06-30 | 江苏科技大学 | 基于卷积神经网络的双目视觉障碍物检测***及方法 |
CN107767413B (zh) * | 2017-09-20 | 2020-02-18 | 华南理工大学 | 一种基于卷积神经网络的图像深度估计方法 |
CN108257165B (zh) * | 2018-01-03 | 2020-03-24 | 上海兴芯微电子科技有限公司 | 图像立体匹配方法、双目视觉设备 |
CN108381549B (zh) * | 2018-01-26 | 2021-12-14 | 广东三三智能科技有限公司 | 一种双目视觉引导机器人快速抓取方法、装置及存储介质 |
CN108961327B (zh) * | 2018-05-22 | 2021-03-30 | 深圳市商汤科技有限公司 | 一种单目深度估计方法及其装置、设备和存储介质 |
CN109191512B (zh) * | 2018-07-27 | 2020-10-30 | 深圳市商汤科技有限公司 | 双目图像的深度估计方法及装置、设备、程序及介质 |
CN109887019B (zh) * | 2019-02-19 | 2022-05-24 | 北京市商汤科技开发有限公司 | 一种双目匹配方法及装置、设备和存储介质 |
-
2019
- 2019-02-19 CN CN201910127860.4A patent/CN109887019B/zh active Active
- 2019-09-26 WO PCT/CN2019/108314 patent/WO2020168716A1/zh active Application Filing
- 2019-09-26 KR KR1020207031264A patent/KR20200136996A/ko not_active Application Discontinuation
- 2019-09-26 JP JP2020565808A patent/JP7153091B2/ja active Active
- 2019-09-26 SG SG11202011008XA patent/SG11202011008XA/en unknown
-
2020
- 2020-10-28 US US17/082,640 patent/US20210042954A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003099760A (ja) | 2001-08-10 | 2003-04-04 | Stmicroelectronics Inc | マルチプレーンステレオ及び空間伝播を使用して奥行を復元する方法及び装置 |
CN101908230A (zh) | 2010-07-23 | 2010-12-08 | 东南大学 | 一种基于区域深度边缘检测和双目立体匹配的三维重建方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020168716A1 (zh) | 2020-08-27 |
US20210042954A1 (en) | 2021-02-11 |
CN109887019B (zh) | 2022-05-24 |
SG11202011008XA (en) | 2020-12-30 |
CN109887019A (zh) | 2019-06-14 |
JP2021526683A (ja) | 2021-10-07 |
KR20200136996A (ko) | 2020-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7153091B2 (ja) | 両眼マッチング方法及び装置、機器並びに記憶媒体 | |
US20220014723A1 (en) | Enhancing performance capture with real-time neural rendering | |
US11983850B2 (en) | Image processing method and apparatus, device, and storage medium | |
CN103339651B (zh) | 图像处理装置、摄像装置以及图像处理方法 | |
CN109377530A (zh) | 一种基于深度神经网络的双目深度估计方法 | |
CN112862877B (zh) | 用于训练图像处理网络和图像处理的方法和装置 | |
JP6551743B2 (ja) | 画像処理装置および画像処理方法 | |
US20220230338A1 (en) | Depth image generation method, apparatus, and storage medium and electronic device | |
CN115205489A (zh) | 一种大场景下的三维重建方法、***及装置 | |
CN106952247B (zh) | 一种双摄像头终端及其图像处理方法和*** | |
TW201520973A (zh) | 三維立體模型之建立方法和裝置 | |
WO2022151661A1 (zh) | 一种三维重建方法、装置、设备及存储介质 | |
CN112449152A (zh) | 多路视频同步的方法、***及设备 | |
JP2019121349A (ja) | 視差マップを生成するための方法、画像処理デバイス、およびシステム | |
CN111553296B (zh) | 一种基于fpga实现的二值神经网络立体视觉匹配方法 | |
Chai et al. | Monocular and binocular interactions oriented deformable convolutional networks for blind quality assessment of stereoscopic omnidirectional images | |
CN106909904B (zh) | 一种基于可学习形变场的人脸正面化方法 | |
CN112423191A (zh) | 一种视频通话设备和音频增益方法 | |
CN112509021A (zh) | 一种基于注意力机制的视差优化方法 | |
CN114742703A (zh) | 双目立体全景图像的生成方法、装置、设备和存储介质 | |
JP2017229067A (ja) | 少なくとも1つのライトフィールドカメラにより一対の立体画像を生成する方法及び装置 | |
CN113793420A (zh) | 深度信息处理方法、装置、电子设备及存储介质 | |
CN116630388A (zh) | 基于深度学习的热成像图像双目视差估计方法及*** | |
WO2023240764A1 (zh) | 混合代价体的双目立体匹配方法、设备及存储介质 | |
CN109961092A (zh) | 一种基于视差锚点的双目视觉立体匹配方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201124 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220418 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220930 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7153091 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |