JP6970283B2 - 画像ステッチング方法および装置、記憶媒体 - Google Patents
画像ステッチング方法および装置、記憶媒体 Download PDFInfo
- Publication number
- JP6970283B2 JP6970283B2 JP2020515105A JP2020515105A JP6970283B2 JP 6970283 B2 JP6970283 B2 JP 6970283B2 JP 2020515105 A JP2020515105 A JP 2020515105A JP 2020515105 A JP2020515105 A JP 2020515105A JP 6970283 B2 JP6970283 B2 JP 6970283B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- overlap
- matrix
- remapping
- column
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 96
- 239000011159 matrix material Substances 0.000 claims description 184
- 230000007704 transition Effects 0.000 claims description 112
- 239000013598 vector Substances 0.000 claims description 105
- 238000013507 mapping Methods 0.000 claims description 93
- 230000004927 fusion Effects 0.000 claims description 70
- 230000003287 optical effect Effects 0.000 claims description 39
- 230000008569 process Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 238000007499 fusion processing Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/521—Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0077—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0085—Motion estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
第1の画像において第2の画像と重なる領域である第1のオーバーラップ画像と、第2の画像において第1の画像と重なる領域である第2のオーバーラップ画像とを取得することであって、前記第1の画像と前記第2の画像はステッチング対象の隣接画像であることと、
前記第1のオーバーラップ画像における各画素点から前記第2のオーバーラップ画像における対応する画素点までの動きベクトルを決定し、オプティカルフローベクトル行列を得ることと、
前記オプティカルフローベクトル行列に基づいて、前記第1のオーバーラップ画像を再マッピングして第1の再マッピング画像を得、及び、前記第2のオーバーラップ画像を再マッピングして第2の再マッピング画像を得ることと、
前記第1の再マッピング画像と前記第2の再マッピング画像を融合して、前記第1のオーバーラップ画像と第2のオーバーラップ画像の融合画像を得て、前記融合画像に基づいて前記第1の画像と前記第2の画像のステッチング画像を決定することとを含む。
少なくとも1つのメモリと、
少なくとも1つのプロセッサと、を備え、
ここで、前記少なくとも1つのメモリに、前記少なくとも1つのプロセッサによって実行されるように配置されている少なくとも1つの命令モジュールが記憶されており、前記少なくとも1つの命令モジュールは、
第1の画像において第2の画像と重なる領域である第1のオーバーラップ画像と、第2の画像において第1の画像と重なる領域である第2のオーバーラップ画像とを取得する取得モジュールであって、前記第1の画像と前記第2の画像はステッチング対象の隣接画像である取得モジュールと、
前記第1のオーバーラップ画像における各画素点から前記第2のオーバーラップ画像における対応の画素点までの動きベクトルを決定し、オプティカルフローベクトル行列を得る決定モジュールと、
前記オプティカルフローベクトル行列に基づいて、前記第1のオーバーラップ画像を再マッピングして第1の再マッピング画像を得、及び、前記第2のオーバーラップ画像を再マッピングして第2の再マッピング画像を得る再マッピングモジュールと、
前記第1の再マッピング画像と前記第2の再マッピング画像を融合して、前記第1のオーバーラップ画像と第2のオーバーラップ画像の融合画像を得て、前記融合画像に基づいて前記第1の画像と前記第2の画像のステッチング画像を決定する融合モジュールとを備える。
S101で、第1の画像において第2の画像と重なる領域である第1のオーバーラップ画像と、第2の画像において第1の画像と重なる領域である第2のオーバーラップ画像とを取得し、前記第1の画像と前記第2の画像はステッチング対象の隣接画像であり、
パノラマの画像またはビデオのステッチングプロセス中に、複数のカメラまたは複数のレンズシステムによって捕捉された複数の画像には重複部分があり、つまり、隣接する2つの画像について、一部が重複しており、第1の画像において重複された部分は第1のオーバーラップ画像であり、第2の画像において重複された部分は第2のオーバーラップ画像である、ということが理解できる。
上記の動きベクトルは、水平方向の成分と垂直方向の成分を含む2次元ベクトルである。ある1つの画素は、第1のオーバーラップ画像での位置と第2のオーバーラップ画像での位置とが異なる可能性があり、つまり、位置が変化しており、この画素のx方向の変化とy方向の変化がこの画素の動きベクトルを構成し、第1のオーバーラップ画像における各画素の動きベクトルがオプティカルフローベクトル行列を形成する。
S1021で、前記第2のオーバーラップ画像において前記第1のオーバーラップ画像の各画素点に対応する画素点の座標を決定し、
第1のオーバーラップ画像のある1つの画素に対して、第2のオーバーラップ画像における対応する画素の座標を決定する方式はいくつかがあり、そのうちの1つは、第1のオーバーラップ画像におけるこの画素(i,j)を中心とする1つの領域(例えば、1つの矩形領域)内の全ての画素の各カラーチャンネルの色値の和を決定し、次に、第2のオーバーラップ画像において同じ位置での画素(i,j)を中心として1つの探索領域を決定し、当該探索領域内の各画素について、この画素を中心とする1つの領域(例えば、1つの矩形領域)内の全ての画素の各カラーチャンネルの色値の和を計算し、その後、各カラーチャンネルの色値の和と、第1のオーバーラップ画像における画素(i,j)の各カラーチャンネルの色値の和との差を取得し、差が最小となる画素を第2のオーバーラップ画像において第1のオーバーラップ画像における画素(i,j)に対応する画素とする。もちろん、第2のオーバーラップ画像において第1のオーバーラップ画像における画素に対応する画素を決定する他の方式もあり得る。
図3bおよび図3cに示すように、図3bは、図3aにおける第1のオーバーラップ画像を再マッピングして得られた第1の再マッピング画像であり、図3cは、図3aにおける第2のオーバーラップ画像を再マッピングして得られた第2の再マッピング画像である。
ここで、第1の再マッピング画像と第2の再マッピング画像を融合した後、第1のオーバーラップ画像と第2のオーバーラップ画像の融合画像を得ることができ、その後、この融合画像と、第1の画像および第2の画像における非重複部分とを共に第1の画像と第2の画像のステッチング画像を構成し、2つの画像のステッチングを実現する。もちろん、他の方式を採用して、第1の画像と第2の画像のステッチング画像を取得することもでき、例えば、第1の画像における第1のオーバーラップ画像を第1の再マッピング画像に置き換えて、第2の画像における第2のオーバーラップ画像を第2の再マッピング画像に置き換え、その後、置き換えられた第1の画像と置き換えられた第2の画像を融合して、第1の画像と第2の画像のステッチング画像を得ることができる。つまり、上記の画像ステッチング方法は、前記第1の画像における前記第1のオーバーラップ画像を前記第1の再マッピング画像に置き換えて、前記第2の画像における前記第2のオーバーラップ画像を前記第2の再マッピング画像に置き換えることをさらに含み、このようにして、ステップS104の具体的なプロセスは、前記第1の画像における第1の再マッピング画像と第2の画像における第2の再マッピング画像を融合し、第1の画像と第2の画像のステッチング画像を得ることを含む。第1の画像と第2の画像を融合するプロセスは、実際には、前記第1の画像における前記第1の再マッピング画像と前記第2の画像における前記第2の再マッピング画像を融合するプロセスである。上記の前者の方式は、まず融合を行って、融合画像を得てからステッチングを行うことにより、ステッチング画像を得る一方、後者の方式は、まず画像を置き換えてから融合を行って、融合画像を得てからステッチング画像を得る、ということが理解できる。いずれにしても、融合画像に基づいてステッチング画像を得ることができる。そのため、上記のステップS104で、融合画像を得た後、融合画像に基づいて第1の画像と第2の画像のステッチング画像を決定することができる。
前記第1のオーバーラップ画像から前記第2のオーバーラップ画像への遷移重み行列を決定し、
このようにして、ステップS103は、前記遷移重み行列と前記オプティカルフローベクトル行列とに基づいて、前記第1のオーバーラップ画像を再マッピングして第1の再マッピング画像を得、及び、前記第2のオーバーラップ画像を再マッピングして第2の再マッピング画像を得ることを具体的に含むようにしてもよい。
実際に画像を撮影する際に、撮影して得られた画像は本物の長方形ではないため、図5を参照して、図5は、図3aにおける第1の画像と第2の画像の境界の概略図であり、図から分かるように、第1の画像と第2の画像の左右両側及び下側に円弧状の凹みがあり、これは、カメラやレンズの構造に起因するものである。第1のオーバーラップ画像にとって、凹みは右側にあり、第2のオーバーラップ画像にとって、凹みは左側にあり、また、第1のオーバーラップ画像と第2のオーバーラップ画像の下側にも部分的な凹みがあり、これらの凹んだ部分には実際の画像コンテンツがないため、無効な部分になる。したがって、このステップにおいて、「有効」とは、実際の画像コンテンツがあることを意味し、「無効」とは、実際の画像コンテンツがないことを意味する。
図6に示す画像に対応するオーバーラップ行列を例として、列座標範囲を決定するプロセスを例示して説明する。
overlap(i,j)=255であれば、対応するjがstart_iより小さいかどうかを判断し、そうであれば、start_i=jになり、そうでなければ、start_iのままになる。その後、対応するjがend_iより大きいかどうかを判断し、そうであれば、end_i=jになり、そうでなければ、end_iのままになる。
S1031で、前記オプティカルフローベクトル行列と前記遷移重み行列とに基づいて、第1の遷移マッピング行列と第2の遷移マッピング行列を計算し、ここで、前記第1の遷移マッピング行列は、前記第1のオーバーラップ画像から前記第2のオーバーラップ画像への遷移マッピング行列であり、前記第2の遷移マッピング行列は、前記第2のオーバーラップ画像から前記第1のオーバーラップ画像への遷移マッピング行列である。
S1041で、前記オーバーラップ行列における各要素の遷移重みと所定閾値との間の関係に基づいて、対応する要素の融合重みを決定し、前記オーバーラップ行列における各要素の融合重みを融合重み行列に形成し、
上記の所定閾値は、必要に応じて選択されてもよいし、本願の実施例ではこれに対して限定されていない。
S10421で、前記第1の再マッピング画像および前記第2の再マッピング画像のラプラシアンピラミッド(Laplacian pyramids)をそれぞれ確立し、前記融合重み行列のガウシアンピラミッド(Gaussian pyramid)を確立する。
少なくとも1つのメモリと、
少なくとも1つのプロセッサと、を備え、
ここで、前記少なくとも1つのメモリに、前記少なくとも1つのプロセッサによって実行されるように配置されている少なくとも1つの命令モジュールが記憶されており、図8に示すように、前記画像ステッチング装置における少なくとも1つの命令モジュールは、
第1の画像において第2の画像と重なる領域である第1のオーバーラップ画像と、第2の画像において第1の画像と重なる領域である第2のオーバーラップ画像とを取得する取得モジュール801であって、前記第1の画像と前記第2の画像はステッチング対象の隣接画像である取得モジュール801と、
前記第1のオーバーラップ画像における各画素点から前記第2のオーバーラップ画像における対応する画素点までの動きベクトルを決定し、オプティカルフローベクトル行列を得る決定モジュール802と、
前記オプティカルフローベクトル行列に基づいて、前記第1のオーバーラップ画像を再マッピングして第1の再マッピング画像を得、及び、前記第2のオーバーラップ画像を再マッピングして第2の再マッピング画像を得る再マッピングモジュール803と、
前記第1の再マッピング画像と前記第2の再マッピング画像を融合して、前記第1のオーバーラップ画像と第2のオーバーラップ画像の融合画像を得る融合モジュール804とを備える。
前記第1のオーバーラップ画像から前記第2のオーバーラップ画像への遷移重み行列を決定するようにしてもよいし、
ここで、再マッピングモジュール803は、前記オプティカルフローベクトル行列と前記遷移重み行列とに基づいて、前記第1のオーバーラップ画像を再マッピングして第1の再マッピング画像を得、及び、前記第2のオーバーラップ画像を再マッピングして第2の再マッピング画像を得るようにしてもよい。
前記第1のオーバーラップ画像と前記第2のオーバーラップ画像のオーバーラップ行列を決定し、ここで、前記第1のオーバーラップ画像と前記第2のオーバーラップ画像の共通の有効部分の画素の前記オーバーラップ行列における対応する位置にある要素の値は、第1の所定値であり、他の部分の画素の前記オーバーラップ行列における対応する位置にある要素の値は、第1の所定値とは異なる第2の所定値であり、
前記オーバーラップ行列の各行における前記第1の所定値の要素の列座標範囲を決定し、
前記列座標範囲と、この行の各要素の列座標とに基づいて、この要素の遷移重みを決定し、前記オーバーラップ行列における各要素の遷移重みを前記遷移重み行列に形成する。
前記オプティカルフローベクトル行列と前記遷移重み行列とに基づいて、第1の遷移マッピング行列と第2の遷移マッピング行列を決定し、ここで、前記第1の遷移マッピング行列は、前記第1のオーバーラップ画像から前記第2のオーバーラップ画像への遷移マッピング行列であり、前記第2の遷移マッピング行列は、前記第2のオーバーラップ画像から前記第1のオーバーラップ画像への遷移マッピング行列であり、
前記第1の遷移マッピング行列を用いて、前記第1のオーバーラップ画像を再マッピングして前記第1の再マッピング画像を得、及び、前記第2の遷移マッピング行列を用いて、前記第2のオーバーラップ画像を再マッピングして前記第2の再マッピング画像を得る。
いくつかの実施例では、再マッピングモジュール803は、下式を採用して、前記第1の再マッピング画像におけるi行目j列目の画素の色値を決定することができ、
ここで、融合モジュール804は、前記融合重み行列を用いて、前記第1の再マッピング画像と前記第2の再マッピング画像を融合するようにしてもよい。
この要素の遷移重みが所定閾値より大きい場合、この要素に対応する融合重みは1になり、そうでなければ、この要素に対応する融合重みは0になる。
前記第1の再マッピング画像および前記第2の再マッピング画像のラプラシアンピラミッドをそれぞれ確立し、前記融合重み行列のガウシアンピラミッドを確立し、
前記ガウシアンピラミッドを用いて、前記第1の再マッピング画像のラプラシアンピラミッドと前記第2の再マッピング画像のラプラシアンピラミッドを融合し、融合ピラミッドを得、
前記融合ピラミッドを画像復元し、前記融合画像を得る。
少なくとも1つのメモリと、
少なくとも1つのプロセッサと、を備え、
ここで、前記少なくとも1つのメモリに、少なくとも1つの命令が記憶されており、前記少なくとも1つの命令が前記少なくとも1つのプロセッサによって実行される場合、上記の画像ステッチング方法のステップが実現される。
プロセッサ902は、ネットワーク通信および/またはローカル通信を実現するように、通信モジュール904を介してデータを受送信することができる。
各基本システムサービスを処理し、かつ、ハードウェア関連タスクを実行するためのプログラムを含むオペレーティングシステム916と、
ビデオセリフ処理用の各種アプリケーションを含むアプリケーション918と、を備え、このようなアプリケーションは、上記の各実施例の処理フローを実現することができ、例えば、画像ステッチング装置800の一部または全部の命令モジュールまたはユニットを含むことができるる。プロセッサ902は、メモリ906における各ユニットのうちの少なくとも1つにおけるマシン実行可能命令を実行することにより、上記の各ユニットまたはモジュールのうちの少なくとも1つの機能を実現することができる。
Claims (16)
- サーバまたは端末デバイスによって実行される画像ステッチング方法であって、
前記サーバまたは端末デバイスが、
第1のオーバーラップ画像及び第2のオーバーラップ画像を取得するステップであって、前記第1のオーバーラップ画像が第1の画像における、第2の画像と重なる領域であり、前記第2のオーバーラップ画像が前記第2の画像における、前記第1の画像と重なる領域であり、前記第1の画像および前記第2の画像がステッチング待ちの隣接画像であるステップと、
前記第1のオーバーラップ画像における各画素点から前記第2のオーバーラップ画像における対応する画素点までの動きベクトルを決定し、オプティカルフローベクトル行列を取得するステップと、
前記オプティカルフローベクトル行列に基づいて、前記第1のオーバーラップ画像に対して再マッピングを行って第1の再マッピング画像を取得し、かつ、前記第2のオーバーラップ画像に対して再マッピングを行って第2の再マッピング画像を取得するステップと、
前記第1の再マッピング画像と前記第2の再マッピング画像を融合し、前記第1のオーバーラップ画像と前記第2のオーバーラップ画像の融合画像を取得し、前記融合画像に基づいて前記第1の画像と前記第2の画像のステッチング画像を決定するステップと、
を含む、ことを特徴とする画像ステッチング方法。 - 前記方法は、前記サーバまたは端末デバイスが前記第1のオーバーラップ画像から前記第2のオーバーラップ画像への遷移重み行列を決定するステップをさらに含み、
前記オプティカルフローベクトル行列に基づいて、前記第1のオーバーラップ画像に対して再マッピングを行って第1の再マッピング画像を取得し、かつ、前記第2のオーバーラップ画像に対して再マッピングを行って第2の再マッピング画像を取得するステップは、
前記オプティカルフローベクトル行列と前記遷移重み行列とに基づいて、前記第1のオーバーラップ画像に対して再マッピングを行って第1の再マッピング画像を取得し、かつ、前記第2のオーバーラップ画像に対して再マッピングを行って第2の再マッピング画像を取得することを含む、
ことを特徴とする請求項1に記載の方法。 - 前記第1のオーバーラップ画像から前記第2のオーバーラップ画像への遷移重み行列を決定するステップは、
前記第1のオーバーラップ画像と前記第2のオーバーラップ画像のオーバーラップ行列を決定することであって、前記第1のオーバーラップ画像と前記第2のオーバーラップ画像の共通の有効部分の画素の、前記オーバーラップ行列における対応する位置にある要素の値が第1の所定値であり、他の部分の画素の、前記オーバーラップ行列における対応する位置にある要素の値が前記第1の所定値とは異なる第2の所定値であることと、
前記オーバーラップ行列の各行における前記第1の所定値の要素の列座標範囲を決定することと、
前記列座標範囲と、当該行における各要素の列座標とに基づいて、当該要素の遷移重みを決定し、前記オーバーラップ行列における各要素の遷移重みにより前記遷移重み行列を形成することと、を含む、
ことを特徴とする請求項2に記載の方法。 - 前記第1のオーバーラップ画像に対して再マッピングを行って第1の再マッピング画像を取得し、かつ、前記第2のオーバーラップ画像に対して再マッピングを行って第2の再マッピング画像を取得することは、
前記オプティカルフローベクトル行列と前記遷移重み行列とに基づいて、第1の遷移マッピング行列および第2の遷移マッピング行列を決定することであって、前記第1の遷移マッピング行列が前記第1のオーバーラップ画像から前記第2のオーバーラップ画像への遷移マッピング行列であり、前記第2の遷移マッピング行列が前記第2のオーバーラップ画像から前記第1のオーバーラップ画像への遷移マッピング行列であることと、
前記第1の遷移マッピング行列を用いて、前記第1のオーバーラップ画像に対して再マッピングを行って前記第1の再マッピング画像を取得し、かつ、前記第2の遷移マッピング行列を用いて、前記第2のオーバーラップ画像に対して再マッピングを行って前記第2の再マッピング画像を取得することと、を含む、
ことを特徴とする請求項2に記載の方法。 -
ことを特徴とする請求項5に記載の方法。 - 前記第1のオーバーラップ画像に対して再マッピングを行って前記第1の再マッピング画像を取得することは、
下式を採用して、前記第1の再マッピング画像におけるi行目j列目の要素の色値を決定することを含み、
ことを特徴とする請求項5に記載の方法。 -
ことを特徴とする請求項5に記載の方法。 - 前記第2のオーバーラップ画像に対して再マッピングを行って前記第2の再マッピング画像を取得することは、
下式を採用して、前記第2の再マッピング画像におけるi行目j列目の要素の色値を決定することを含み、
ことを特徴とする請求項5に記載の方法。 - 前記方法は、前記サーバまたは端末デバイスが前記オーバーラップ行列における各要素の遷移重みと所定閾値との間の関係に基づいて、対応する要素の融合重みを決定し、前記オーバーラップ行列における各要素の融合重みにより融合重み行列を形成するステップをさらに含み、
前記第1の再マッピング画像と前記第2の再マッピング画像を融合することは、
前記融合重み行列を用いて、前記第1の再マッピング画像と前記第2の再マッピング画像を融合することを含む、
ことを特徴とする請求項3に記載の方法。 - 前記の対応する要素の融合重みを決定することは、
当該要素の遷移重みが所定閾値よりも大きい場合、当該要素に対応する融合重みを1とし、そうでなければ、当該要素に対応する融合重みを0とすることを含む、
ことを特徴とする請求項10に記載の方法。 - 前記融合重み行列を用いて、前記第1の再マッピング画像と前記第2の再マッピング画像を融合することは、
前記第1の再マッピング画像および前記第2の再マッピング画像のラプラシアンピラミッドをそれぞれ確立し、前記融合重み行列のガウシアンピラミッドを確立することと、
前記ガウシアンピラミッドを用いて、前記第1の再マッピング画像のラプラシアンピラミッドと前記第2の再マッピング画像のラプラシアンピラミッドを融合し、融合ピラミッドを取得することと
前記融合ピラミッドに対して画像復元を行って前記融合画像を取得することと、を含む、
ことを特徴とする請求項10に記載の方法。 - 下式を採用して、前記第1の再マッピング画像および前記第2の再マッピング画像のラプラシアンピラミッドにおける第level層のi行目j列目の画素を決定し、
ことを特徴とする請求項12に記載の方法。 - 画像ステッチング装置であって、
少なくとも1つのメモリと、
少なくとも1つのプロセッサと、を含み、
前記少なくとも1つのメモリには、前記少なくとも1つのプロセッサによって実行されるように構成される少なくとも1つの命令モジュールが記憶されており、前記少なくとも1つの命令モジュールは、
第1のオーバーラップ画像及び第2のオーバーラップ画像を取得する取得モジュールであって、前記第1のオーバーラップ画像が第1の画像における、第2の画像と重なる領域であり、前記第2のオーバーラップ画像が前記第2の画像における、前記第1の画像と重なる領域であり、前記第1の画像および前記第2の画像がステッチング待ちの隣接画像である取得モジュールと
前記第1のオーバーラップ画像における各画素点から前記第2のオーバーラップ画像における対応する画素点までの動きベクトルを決定し、オプティカルフローベクトル行列を取得する決定モジュールと、
前記オプティカルフローベクトル行列に基づいて、前記第1のオーバーラップ画像に対して再マッピングを行って第1の再マッピング画像を取得し、かつ、前記第2のオーバーラップ画像に対して再マッピングを行って第2の再マッピング画像を取得する再マッピングモジュールと、
前記第1の再マッピング画像と前記第2の再マッピング画像を融合し、前記第1のオーバーラップ画像と第2のオーバーラップ画像の融合画像を取得し、前記融合画像に基づいて前記第1の画像と前記第2の画像のステッチング画像を決定する融合モジュールと、を含む、
ことを特徴とする画像ステッチング装置。 - コンピュータに、請求項1〜13のうちのいずれか一項に記載の画像ステッチング方法を実行させるためのプログラム。
- 画像ステッチング装置であって、
少なくとも1つのメモリと、
少なくとも1つのプロセッサと、を含み、
前記少なくとも1つのメモリには、少なくとも1つの命令が記憶されており、前記少なくとも1つの命令は、前記少なくとも1つのプロセッサによって実行されたときに、請求項1〜13のうちのいずれか一項に記載の画像ステッチング方法を実現する、
ことを特徴とする画像ステッチング装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710831538.0A CN109509146B (zh) | 2017-09-15 | 2017-09-15 | 图像拼接方法及装置、存储介质 |
CN201710831538.0 | 2017-09-15 | ||
PCT/CN2018/105700 WO2019052534A1 (zh) | 2017-09-15 | 2018-09-14 | 图像拼接方法及装置、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020533710A JP2020533710A (ja) | 2020-11-19 |
JP6970283B2 true JP6970283B2 (ja) | 2021-11-24 |
Family
ID=65722406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020515105A Active JP6970283B2 (ja) | 2017-09-15 | 2018-09-14 | 画像ステッチング方法および装置、記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11178428B2 (ja) |
EP (1) | EP3660781B1 (ja) |
JP (1) | JP6970283B2 (ja) |
KR (1) | KR102317524B1 (ja) |
CN (1) | CN109509146B (ja) |
WO (1) | WO2019052534A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021031210A1 (zh) * | 2019-08-22 | 2021-02-25 | 深圳市铂岩科技有限公司 | 视频处理方法和装置、存储介质和电子设备 |
CN110853106B (zh) * | 2019-10-29 | 2022-10-11 | 苏州佳世达光电有限公司 | 口扫***及口扫影像处理方法 |
CN111738923B (zh) * | 2020-06-19 | 2024-05-10 | 京东方科技集团股份有限公司 | 图像处理方法、设备及存储介质 |
CN111915587B (zh) * | 2020-07-30 | 2024-02-02 | 北京大米科技有限公司 | 视频处理方法、装置、存储介质和电子设备 |
WO2022130379A1 (en) * | 2020-12-15 | 2022-06-23 | Tetavi Ltd. | Method of fusing mesh sequences within volumetric video |
CN112700382B (zh) * | 2020-12-23 | 2024-03-26 | 杭州海康微影传感科技有限公司 | 一种图像接缝消除方法、装置及电子设备 |
CN112750078B (zh) * | 2020-12-28 | 2023-06-02 | 广州市明美光电技术有限公司 | 基于面向电动平台的显微图像实时拼接方法及存储介质 |
US11948315B2 (en) * | 2020-12-31 | 2024-04-02 | Nvidia Corporation | Image composition in multiview automotive and robotics systems |
CN112819696A (zh) * | 2021-01-29 | 2021-05-18 | 青岛海信移动通信技术股份有限公司 | 电子设备及其图像处理方法 |
CN113450252A (zh) * | 2021-05-11 | 2021-09-28 | 点智芯科技(北京)有限公司 | 一种超像素分割单映矩阵聚类图像拼接方法 |
CN113298695B (zh) * | 2021-06-25 | 2024-04-26 | 北京爱芯科技有限公司 | 一种图像处理组件和芯片、图像处理方法和存储介质 |
CN113674157B (zh) * | 2021-10-21 | 2022-02-22 | 广东唯仁医疗科技有限公司 | 眼底图像拼接方法、计算机装置和存储介质 |
KR102571530B1 (ko) * | 2021-11-15 | 2023-08-28 | 국방과학연구소 | 이미지 스티칭을 위한 장치 및 그 방법 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6469710B1 (en) * | 1998-09-25 | 2002-10-22 | Microsoft Corporation | Inverse texture mapping using weighted pyramid blending |
US7450270B2 (en) * | 2004-01-16 | 2008-11-11 | Hewlett-Packard Development Company, L.P. | Image data processing methods, hard imaging devices, and articles of manufacture |
CN100455266C (zh) * | 2005-03-29 | 2009-01-28 | 深圳迈瑞生物医疗电子股份有限公司 | 宽景成像处理方法 |
US8903191B2 (en) * | 2008-12-30 | 2014-12-02 | Intel Corporation | Method and apparatus for noise reduction in video |
KR100987412B1 (ko) * | 2009-01-15 | 2010-10-12 | 포항공과대학교 산학협력단 | 멀티프레임을 고려한 비디오 오브젝트 매팅 시스템 및 방법 |
KR101224061B1 (ko) * | 2011-01-28 | 2013-01-21 | 포항공과대학교 산학협력단 | 영상 합성 장치 및 방법 |
JP5982751B2 (ja) | 2011-08-04 | 2016-08-31 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
CN103841297B (zh) * | 2012-11-23 | 2016-12-07 | 中国航天科工集团第三研究院第八三五七研究所 | 一种适用于合成运动摄像载体的电子稳像方法 |
CN103974055B (zh) * | 2013-02-06 | 2016-06-08 | 城市图像科技有限公司 | 3d照片生成***及方法 |
CN104835115A (zh) * | 2015-05-07 | 2015-08-12 | 中国科学院长春光学精密机械与物理研究所 | 用于航空相机的图像成像方法及*** |
CN106803899B (zh) * | 2015-11-26 | 2019-10-01 | 华为技术有限公司 | 合并图像的方法和装置 |
CN105976320A (zh) * | 2016-05-06 | 2016-09-28 | 安徽伟合电子科技有限公司 | 一种图像拼接方法 |
CN106910159A (zh) * | 2016-10-12 | 2017-06-30 | 王玲 | 视频拼接方法及装置 |
CN106815802A (zh) * | 2016-12-23 | 2017-06-09 | 深圳超多维科技有限公司 | 一种图像拼接方法及装置 |
-
2017
- 2017-09-15 CN CN201710831538.0A patent/CN109509146B/zh active Active
-
2018
- 2018-09-14 KR KR1020207007040A patent/KR102317524B1/ko active IP Right Grant
- 2018-09-14 WO PCT/CN2018/105700 patent/WO2019052534A1/zh unknown
- 2018-09-14 EP EP18856585.7A patent/EP3660781B1/en active Active
- 2018-09-14 JP JP2020515105A patent/JP6970283B2/ja active Active
-
2020
- 2020-03-06 US US16/810,950 patent/US11178428B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3660781A1 (en) | 2020-06-03 |
US20200213620A1 (en) | 2020-07-02 |
JP2020533710A (ja) | 2020-11-19 |
CN109509146A (zh) | 2019-03-22 |
EP3660781B1 (en) | 2023-06-07 |
WO2019052534A1 (zh) | 2019-03-21 |
US11178428B2 (en) | 2021-11-16 |
CN109509146B (zh) | 2023-03-24 |
KR102317524B1 (ko) | 2021-10-25 |
EP3660781A4 (en) | 2020-07-29 |
KR20200035457A (ko) | 2020-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6970283B2 (ja) | 画像ステッチング方法および装置、記憶媒体 | |
KR101956149B1 (ko) | 이미지 사이의 광학 흐름의 효율적 결정 | |
JP2019525515A5 (ja) | ||
EP2765769A1 (en) | Image processing method and image processing device | |
JP2018524710A (ja) | ユーザ端末のパノラマ画像生成方法及び装置 | |
JP6882868B2 (ja) | 画像処理装置、画像処理方法、システム | |
JP6921686B2 (ja) | 生成装置、生成方法、及びプログラム | |
JP2022524806A (ja) | 画像融合方法及び携帯端末 | |
JP7484055B2 (ja) | 深度情報付きのパノラマ画像を生成する方法、装置、記憶媒体、電子機器及びコンピュータプログラム | |
US11783445B2 (en) | Image processing method, device and apparatus, image fitting method and device, display method and apparatus, and computer readable medium | |
WO2017113533A1 (zh) | 一种全景拍摄处理方法及装置 | |
TWI545508B (zh) | 用於執行臉部追蹤功能的方法及其電子裝置 | |
CN108665415B (zh) | 基于深度学习的图像质量提升方法及其装置 | |
JP2018113683A (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN110072056B (zh) | 基于多个摄像头模组的数据处理方法及装置 | |
CN107426561B (zh) | 一种3d360度的虚拟现实直播方法及装置 | |
JP5645448B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
WO2018006669A1 (zh) | 视差融合方法和装置 | |
CN114332329A (zh) | 一种双目视觉定位方法、装置及存储介质 | |
JP2010068193A (ja) | 画像処理装置、撮像装置、画像処理方法及びプログラム | |
CN112565623A (zh) | 一种动态图像显示*** | |
WO2022033314A1 (zh) | 3d显示方法、3d显示装置及3d显示器件 | |
KR102461031B1 (ko) | 네트워크 기반의 영상 처리 방법 및 이를 위한 장치 | |
CN112312022B (zh) | 图像处理方法、图像处理装置、电子设备及存储介质 | |
JP2024041435A (ja) | 画像処理装置、画像処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200508 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210727 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210910 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211019 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211028 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6970283 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |