JP6970283B2 - 画像ステッチング方法および装置、記憶媒体 - Google Patents

画像ステッチング方法および装置、記憶媒体 Download PDF

Info

Publication number
JP6970283B2
JP6970283B2 JP2020515105A JP2020515105A JP6970283B2 JP 6970283 B2 JP6970283 B2 JP 6970283B2 JP 2020515105 A JP2020515105 A JP 2020515105A JP 2020515105 A JP2020515105 A JP 2020515105A JP 6970283 B2 JP6970283 B2 JP 6970283B2
Authority
JP
Japan
Prior art keywords
image
overlap
matrix
remapping
column
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020515105A
Other languages
English (en)
Other versions
JP2020533710A (ja
Inventor
ジャオ,ヨンフェイ
ワン,リアン
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2020533710A publication Critical patent/JP2020533710A/ja
Application granted granted Critical
Publication of JP6970283B2 publication Critical patent/JP6970283B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0077Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本願は、画像処理の技術分野に関し、特に、画像ステッチング(image stitching)方法、画像ステッチング装置、および記憶媒体に関する。 本願は、2017年09月15日に中国特許局に提出された、出願番号が201710831538.0であり、出願名称が「画像ステッチング方法および装置、記憶媒体」である中国特許出願の優先権を主張し、その全ての内容が、参照することにより本願に組み込まれる。
360度のパノラマビデオは、視野が限られている従来のビデオとは異なる、より鮮明な没入型視聴体験をユーザに提供できるため、徐々に仮想現実の分野の主要なコンテンツの1つになる。現在、パノラマビデオを捕捉するための単一レンズシステムは比較的少量であるため、通常、パノラマビデオが複数のカメラまたは複数のレンズシステムによって捕捉されたビデオをステッチングすることによって作成される。
本願の実施例は、画像ステッチング方法および装置、記憶媒体を提供する。
一態様では、本願の実施例は、サーバまたは端末デバイスによって実行される画像ステッチング方法を提供し、前記方法は、
第1の画像において第2の画像と重なる領域である第1のオーバーラップ画像と、第2の画像において第1の画像と重なる領域である第2のオーバーラップ画像とを取得することであって、前記第1の画像と前記第2の画像はステッチング対象の隣接画像であることと、
前記第1のオーバーラップ画像における各画素点から前記第2のオーバーラップ画像における対応する画素点までの動きベクトルを決定し、オプティカルフローベクトル行列を得ることと、
前記オプティカルフローベクトル行列に基づいて、前記第1のオーバーラップ画像を再マッピングして第1の再マッピング画像を得、及び、前記第2のオーバーラップ画像を再マッピングして第2の再マッピング画像を得ることと、
前記第1の再マッピング画像と前記第2の再マッピング画像を融合して、前記第1のオーバーラップ画像と第2のオーバーラップ画像の融合画像を得て、前記融合画像に基づいて前記第1の画像と前記第2の画像のステッチング画像を決定することとを含む。
別の態様では、本願の実施例は、画像ステッチング装置を提供し、前記装置は、
少なくとも1つのメモリと、
少なくとも1つのプロセッサと、を備え、
ここで、前記少なくとも1つのメモリに、前記少なくとも1つのプロセッサによって実行されるように配置されている少なくとも1つの命令モジュールが記憶されており、前記少なくとも1つの命令モジュールは、
第1の画像において第2の画像と重なる領域である第1のオーバーラップ画像と、第2の画像において第1の画像と重なる領域である第2のオーバーラップ画像とを取得する取得モジュールであって、前記第1の画像と前記第2の画像はステッチング対象の隣接画像である取得モジュールと、
前記第1のオーバーラップ画像における各画素点から前記第2のオーバーラップ画像における対応の画素点までの動きベクトルを決定し、オプティカルフローベクトル行列を得る決定モジュールと、
前記オプティカルフローベクトル行列に基づいて、前記第1のオーバーラップ画像を再マッピングして第1の再マッピング画像を得、及び、前記第2のオーバーラップ画像を再マッピングして第2の再マッピング画像を得る再マッピングモジュールと、
前記第1の再マッピング画像と前記第2の再マッピング画像を融合して、前記第1のオーバーラップ画像と第2のオーバーラップ画像の融合画像を得て、前記融合画像に基づいて前記第1の画像と前記第2の画像のステッチング画像を決定する融合モジュールとを備える。
また、別の態様では、本願の実施例は、コンピュータプログラムが記憶されている不揮発性コンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータプログラムがプロセッサによって実行される場合、上記方法のステップが実現される。
また、別の態様では、本願の実施例は、画像ステッチング装置を提供し、前記装置は、少なくとも1つのメモリと、少なくとも1つのプロセッサとを備え、ここで、前記少なくとも1つのメモリに、少なくとも1つの命令が記憶されており、前記少なくとも1つの命令が前記少なくとも1つのプロセッサによって実行される場合、上記方法のステップが実現される。
以上の技術的解決策によれば、画像を融合する前に、オプティカルフローベクトル行列を用いて第1のオーバーラップ画像と第2のオーバーラップ画像を再マッピングすることにより、重複領域の画素を1つずつ整列させるため、画像の継ぎ目によく発生する破断や違和感などの問題を改善し、ステッチング画像の品質を改善することができる。
本願の実施例または先行技術における技術的解決策をより明確に説明するために、以下では、実施例または先行技術の説明において必要とされる図面を簡単に説明する。明らかに、以下の説明における図面は、本願のいくつかの実施例にすぎず、当業者にとっては、創造的な労働性を行わない前提で、これらの図面に基づいて他の図面を取得することができる。
本願の実施例に係るシステムアーキテクチャの概略図である。 本願の一実施例における画像ステッチング方法の概略フローチャートである。 本願の一実施例における動きベクトルを計算することの概略フローチャートである。 本願の一実施例における遷移重み行列を決定することの概略フローチャートである。 本願の一実施例における遷移重み行列とオプティカルフローベクトル行列とに基づいて、第1のオーバーラップ画像と第2のオーバーラップ画像を再マッピングすることの概略フローチャートである。 本願の一実施例における画像融合の概略フローチャートである。 本願の一実施例における多重解像度融合の概略フローチャートである。 本願の一実施例におけるステッチング対象の第1の画像の階調と第2の画像の階調の概略図である。 本願の一実施例における第1のオーバーラップ画像の階調の概略図である。 本願の一実施例における第2のオーバーラップ画像の階調の概略図である。 本願の一実施例における融合画像の階調の概略図である。 ステッチングにより得られた融合画像の階調の概略図である。 本願の一実施例におけるオプティカルフローベクトル行列に対応する階調の概略図である。 本願の一実施例における第1の画像、第2の画像の境界の概略図である。 本願の一実施例におけるオーバーラップ行列に対応する概略図である。 本願の一実施例における遷移重み行列に対応する概略図である。 本願の一実施例における融合重み行列に対応する概略図である。 本願の一実施例における画像ステッチング装置の構成ブロック図である。 本願の一実施例におけるコンピュータデバイスの構成ブロック図である。
以下、本願の実施例における図面を参照しながら、本願の実施例における技術的解決策を明確かつ完全に説明し、明らかに、記載された実施例は、全ての実施例ではなく、本願の一部の実施例にすぎない。本願の実施例に基づいて、当業者が創造的な労働がなされていない前提で得られる他のすべての実施例は、本願の保護範囲に属するものである。
一態様では、本願は、画像ステッチング方法を提供し、この方法が適用されるシステムアーキテクチャは、図1に示すようになる。このシステムは、端末デバイス100とサーバ200とを備え、端末デバイス100とサーバ200は、通信ネットワーク300を介して接続されてもよい。
上記の端末デバイス100は、ユーザのスマートフォンまたはコンピュータであってもよく、カメラ、レンズシステムなどであってもよいし、それらには様々なアプリケーションソフトウェアのクライアントがインストールされてもよい。ユーザは、これらのクライアントにログインして使用することができ、例えば、図1におけるApp101は、画像ステッチングを実行することができるクライアントである。
上記のサーバ200は、1つのサーバであってもよく、サーバクラスタであってもよいし、端末デバイス100にインストールされたクライアントに対応するものであり、対応する画像ステッチングサービスを端末デバイスに提供することができる。
上記の通信ネットワーク300は、ローカルネットワーク(LAN:Local Area Network)、メトロポリタンエリアネットワーク(MAN:Metroplityan Area Network)、広域ネットワーク(WAN:Wide Area Network)、モバイルネットワーク、有線ネットワークや無線ネットワーク、プライベートネットワークなどであってもよい。
本願の実施例により提供される方法は、上記のサーバ200によって実行されてもよい。具体的には、ユーザは、端末デバイス100でステッチング対象の画像をApp101にインポートすることができ、サーバ200は、端末デバイス100のApp101からこれらの画像を取得してステッチングし、ステッチングされた画像を端末デバイス100のApp101に返信することができ、そうすると、ユーザは、端末デバイス100からステッチングされた画像を得ることができる。
もちろん、画像ステッチング方法に対応するコンピュータプログラムが端末デバイス100に記憶され、さらに端末デバイスがこれらのコンピュータプログラムを実行できる限り、本願により提供される方法は、サーバ200だけでなく、端末デバイス100で実行されてもよい。この場合、端末デバイスがサーバと接続状態にある必要はなく、すなわち、端末デバイスがネットワーク接続状態にある必要はない。
ここから分かるように、本願の実施例により提供される方法は、画像ステッチング方法に対応するコンピュータプログラムが記憶されているサーバによってバックグラウンドで実行されてもよく、画像ステッチング方法に対応するコンピュータプログラムが記憶されている端末デバイスによってオフラインで実行されてもよいし、どのようなハードウェアデバイスによって実行されても、本願の保護範囲に含まれている。
図2aに示すように、本願の実施例により提供される画像ステッチング方法は、以下のステップを含み、即ち、
S101で、第1の画像において第2の画像と重なる領域である第1のオーバーラップ画像と、第2の画像において第1の画像と重なる領域である第2のオーバーラップ画像とを取得し、前記第1の画像と前記第2の画像はステッチング対象の隣接画像であり、
パノラマの画像またはビデオのステッチングプロセス中に、複数のカメラまたは複数のレンズシステムによって捕捉された複数の画像には重複部分があり、つまり、隣接する2つの画像について、一部が重複しており、第1の画像において重複された部分は第1のオーバーラップ画像であり、第2の画像において重複された部分は第2のオーバーラップ画像である、ということが理解できる。
第1の画像と第2の画像のステッチング方式は、左右ステッチングであってもよく、上下ステッチングであってもよい。2つの画像が左右にステッチングされる場合、第1の画像が左側に位置する画像であり、第2の画像が右側に位置する画像であると仮定すると、第1のオーバーラップ画像は、第1の画像の右側の部分であり、第2のオーバーラップ画像は、第2の画像の左側の部分である。2つの画像が上下にステッチングされる場合、第1の画像が上側に位置する画像であり、第2の画像が下側に位置する画像であると仮定すると、第1のオーバーラップ画像は、第1の画像の下側の部分であり、第2のオーバーラップ画像は、第2の画像の上側の部分である。図3aに示すように、上側の画像201は第1の画像であり、下側の画像202は第2の画像であり、第1の画像において矩形枠203内に位置する部分は、第1のオーバーラップ画像であり、第2の画像において矩形枠内に位置する部分は、第2のオーバーラップ画像である。図3aから分かるように、第1のオーバーラップ画像と第2のオーバーラップ画像のサイズは同じである。
実際の適用中に、第1の画像と2の画像とに対してパノラマ投影変換を実行することができ、そうすると、第1のオーバーラップ画像と第2のオーバーラップ画像とを得ることができる。
S102で、前記第1のオーバーラップ画像における各画素点から前記第2のオーバーラップ画像における対応する画素点までの動きベクトルを決定し、オプティカルフローベクトル行列を得、
上記の動きベクトルは、水平方向の成分と垂直方向の成分を含む2次元ベクトルである。ある1つの画素は、第1のオーバーラップ画像での位置と第2のオーバーラップ画像での位置とが異なる可能性があり、つまり、位置が変化しており、この画素のx方向の変化とy方向の変化がこの画素の動きベクトルを構成し、第1のオーバーラップ画像における各画素の動きベクトルがオプティカルフローベクトル行列を形成する。
図2bを参照して、動きベクトルを計算する具体的なプロセスは、以下のステップを含み、即ち、
S1021で、前記第2のオーバーラップ画像において前記第1のオーバーラップ画像の各画素点に対応する画素点の座標を決定し、
第1のオーバーラップ画像のある1つの画素に対して、第2のオーバーラップ画像における対応する画素の座標を決定する方式はいくつかがあり、そのうちの1つは、第1のオーバーラップ画像におけるこの画素(i,j)を中心とする1つの領域(例えば、1つの矩形領域)内の全ての画素の各カラーチャンネルの色値の和を決定し、次に、第2のオーバーラップ画像において同じ位置での画素(i,j)を中心として1つの探索領域を決定し、当該探索領域内の各画素について、この画素を中心とする1つの領域(例えば、1つの矩形領域)内の全ての画素の各カラーチャンネルの色値の和を計算し、その後、各カラーチャンネルの色値の和と、第1のオーバーラップ画像における画素(i,j)の各カラーチャンネルの色値の和との差を取得し、差が最小となる画素を第2のオーバーラップ画像において第1のオーバーラップ画像における画素(i,j)に対応する画素とする。もちろん、第2のオーバーラップ画像において第1のオーバーラップ画像における画素に対応する画素を決定する他の方式もあり得る。
S1022で、前記第1のオーバーラップ画像におけるこの画素点の座標と、前記第2のオーバーラップ画像における対応する画素点の座標とに基づいて、対応する動きベクトルを決定する。
第1のオーバーラップ画像における画素(i,j)が第2のオーバーラップ画像における画素(ii,jj)に対応すると仮定すると、flow(i,j).x=jj−j、flow(i,j).y=ii−i、flow(i,j)=(flow(i,j).x、flow(i,j).y)となる。ここで、flow(i,j)は、第1のオーバーラップ画像における画素(i,j)の動きベクトルであり、flow(i,j).xは、動きベクトルの水平方向の成分であり、flow(i,j).yは、垂直方向の成分である。図4に示すように、図4は、第1のオーバーラップ画像から第2のオーバーラップ画像までのオプティカルフローベクトル行列の階調の概略図であり、その中に、白の部分の画素の動きベクトルは(0,0)であり、すなわち、変位が発生していなく、他の色の部分の画素は変位が発生し、異なる色は異なる動きベクトルすなわち異なる変位値を表す。
S103で、前記オプティカルフローベクトル行列に基づいて、前記第1のオーバーラップ画像を再マッピングして第1の再マッピング画像を得、及び、前記第2のオーバーラップ画像を再マッピングして第2の再マッピング画像を得、
図3bおよび図3cに示すように、図3bは、図3aにおける第1のオーバーラップ画像を再マッピングして得られた第1の再マッピング画像であり、図3cは、図3aにおける第2のオーバーラップ画像を再マッピングして得られた第2の再マッピング画像である。
オプティカルフローベクトル行列は、第1のオーバーラップ画像と第2のオーバーラップ画像との違いを表すことができるため、オプティカルフローベクトル行列に基づいて、第1のオーバーラップ画像における各画素と第2のオーバーラップ画像における対応する画素との間の整列が実現されることができる。ここで、オプティカルフローベクトル行列に基づいて、第1のオーバーラップ画像と第2のオーバーラップ画像を再マッピングするプロセスは、実際には、画素を整列するプロセスである。
S104で、前記第1の再マッピング画像と前記第2の再マッピング画像を融合して、前記第1のオーバーラップ画像と第2のオーバーラップ画像の融合画像を得、
ここで、第1の再マッピング画像と第2の再マッピング画像を融合した後、第1のオーバーラップ画像と第2のオーバーラップ画像の融合画像を得ることができ、その後、この融合画像と、第1の画像および第2の画像における非重複部分とを共に第1の画像と第2の画像のステッチング画像を構成し、2つの画像のステッチングを実現する。もちろん、他の方式を採用して、第1の画像と第2の画像のステッチング画像を取得することもでき、例えば、第1の画像における第1のオーバーラップ画像を第1の再マッピング画像に置き換えて、第2の画像における第2のオーバーラップ画像を第2の再マッピング画像に置き換え、その後、置き換えられた第1の画像と置き換えられた第2の画像を融合して、第1の画像と第2の画像のステッチング画像を得ることができる。つまり、上記の画像ステッチング方法は、前記第1の画像における前記第1のオーバーラップ画像を前記第1の再マッピング画像に置き換えて、前記第2の画像における前記第2のオーバーラップ画像を前記第2の再マッピング画像に置き換えることをさらに含み、このようにして、ステップS104の具体的なプロセスは、前記第1の画像における第1の再マッピング画像と第2の画像における第2の再マッピング画像を融合し、第1の画像と第2の画像のステッチング画像を得ることを含む。第1の画像と第2の画像を融合するプロセスは、実際には、前記第1の画像における前記第1の再マッピング画像と前記第2の画像における前記第2の再マッピング画像を融合するプロセスである。上記の前者の方式は、まず融合を行って、融合画像を得てからステッチングを行うことにより、ステッチング画像を得る一方、後者の方式は、まず画像を置き換えてから融合を行って、融合画像を得てからステッチング画像を得る、ということが理解できる。いずれにしても、融合画像に基づいてステッチング画像を得ることができる。そのため、上記のステップS104で、融合画像を得た後、融合画像に基づいて第1の画像と第2の画像のステッチング画像を決定することができる。
本願の実施例により提供される画像ステッチング方法は、画像を融合する前に、オプティカルフローベクトル行列を用いて第1のオーバーラップ画像と第2のオーバーラップ画像を再マッピングすることにより、重複領域の画素を1つずつ整列させるため、画像の継ぎ目によく発生する破断や違和感などの問題を改善することができ、パノラマビデオのライブ放送に非常に適用することができる。図3dに示すように、図3dにおける左側は、図3bと図3cを融合して得られた融合画像であり、図3dにおける右側は、融合画像における破線枠領域の拡大概略図である。図3eに示すように、図3eにおける右側は、再マッピングするためにオプティカルフローベクトル行列を用いないで直接に融合を行って得られた融合画像であり、図3eにおける左側は、この融合画像における破線枠領域の拡大概略図であり、図3eにおいて継ぎ目部分に著しい破断が生じているが、図3dにおいて、継ぎ目部分に破断などの問題は発生しない。ここから分かるように、融合を行う前に、オプティカルフローベクトル行列を用いてオーバーラップ画像を再マッピングすることは、破断などの問題を解決するための有効な方法である。
いくつかの実施例では、ステッチングプロセス中に第1のオーバーラップ画像から第2のオーバーラップ画像への遷移変化を制御するために、S103を実行する前に、本願の実施例により提供される方法は、さらに、以下のステップを含み、即ち、
前記第1のオーバーラップ画像から前記第2のオーバーラップ画像への遷移重み行列を決定し、
このようにして、ステップS103は、前記遷移重み行列と前記オプティカルフローベクトル行列とに基づいて、前記第1のオーバーラップ画像を再マッピングして第1の再マッピング画像を得、及び、前記第2のオーバーラップ画像を再マッピングして第2の再マッピング画像を得ることを具体的に含むようにしてもよい。
上記のプロセスでは、遷移重み行列を決定する方式は様々があり、以下では、図2cを参照しながら、そのうちの1つを紹介する。
S201で、前記第1のオーバーラップ画像と前記第2のオーバーラップ画像のオーバーラップ行列を決定し、ここで、前記第1のオーバーラップ画像と前記第2のオーバーラップ画像の共通の有効部分の画素の前記オーバーラップ行列における対応する位置にある要素の値は、第1の所定値であり、他の部分の画素の前記オーバーラップ行列における対応する位置にある要素の値は、第1の所定値とは異なる第2の所定値であり、
実際に画像を撮影する際に、撮影して得られた画像は本物の長方形ではないため、図5を参照して、図5は、図3aにおける第1の画像と第2の画像の境界の概略図であり、図から分かるように、第1の画像と第2の画像の左右両側及び下側に円弧状の凹みがあり、これは、カメラやレンズの構造に起因するものである。第1のオーバーラップ画像にとって、凹みは右側にあり、第2のオーバーラップ画像にとって、凹みは左側にあり、また、第1のオーバーラップ画像と第2のオーバーラップ画像の下側にも部分的な凹みがあり、これらの凹んだ部分には実際の画像コンテンツがないため、無効な部分になる。したがって、このステップにおいて、「有効」とは、実際の画像コンテンツがあることを意味し、「無効」とは、実際の画像コンテンツがないことを意味する。
オーバーラップ行列において、第1のオーバーラップ画像と第2のオーバーラップ画像の共通の有効部分、及び、第1のオーバーラップ画像と第2のオーバーラップ画像の他の部分を反映する必要があるため、オーバーラップ行列のサイズと、第1のオーバーラップ画像、第2のオーバーラップ画像のサイズとは同じであり、つまり、オーバーラップ行列における要素の個数と、第1のオーバーラップ画像、第2のオーバーラップ画像における画素の個数とはいずれも同じである。
上記の第1の所定値および第2の所定値は、必要に応じて設定されることができ、例えば、第1の所定値が255に設定され、第2の所定値が0に設定され、この場合、オーバーラップ行列が画像に変換されると、図6に示すように、第1のオーバーラップ画像と第2のオーバーラップ画像の共通の有効部分に対応する部分は白色のものになり、他の部分は黒色のものになる。
S202で、前記オーバーラップ行列の各行における前記第1の所定値の要素の列座標範囲を決定し、
図6に示す画像に対応するオーバーラップ行列を例として、列座標範囲を決定するプロセスを例示して説明する。
オーバーラップ行列はoverlapで表され、オーバーラップ行列overlapのi行目に対して、列座標範囲の最小列座標start_iと最大列座標end_iとを初期化し、start_i=W−1、end_i=0であり、ここで、Wは、オーバーラップ行列の幅である。
i行目について、j=0から、j=W−1まで以下の動作が行われ、即ち、
overlap(i,j)=255であれば、対応するjがstart_iより小さいかどうかを判断し、そうであれば、start_i=jになり、そうでなければ、start_iのままになる。その後、対応するjがend_iより大きいかどうかを判断し、そうであれば、end_i=jになり、そうでなければ、end_iのままになる。
i行目における各要素がトラバースされた後、最終的なstart_iとend_iを得、この時のstart_iは、i行目における第1の所定値の要素の最小列座標であり、end_iは、i行目における第1の所定値の要素の最大列座標である。
overlapの各行について、start_i、end_iをいずれも初期化してトラバースし、各行における第1の所定値の要素の列座標範囲を得る。ここで、iは、0からH−1までトラバースされ、Hは、オーバーラップ行列overlapの高さである。
S203で、前記列座標範囲とこの行における各要素の列座標とに基づいて、この要素の遷移重みを計算し、前記オーバーラップ行列における各要素の遷移重みを前記遷移重み行列に形成する。
オーバーラップ行列の各行における第1の所定値の要素の列座標範囲に基づいて、各要素の遷移重みを決定する方式は様々があり、そのうちの1つは、下式を採用して、前記オーバーラップ行列におけるi行目j列目の要素の遷移重み、すなわち、遷移重み行列におけるi行目j列目の要素の値を計算することである。
Figure 0006970283
式では、Weight1(i,j)は、前記オーバーラップ行列におけるi行目j列目の要素の遷移重みであり、start_iは、前記オーバーラップ行列におけるi行目の前記列座標範囲内の最小列座標であり、end_iは、前記オーバーラップ行列におけるi行目の値が前記列座標範囲内の最大列座標である。
オーバーラップ行列における各要素(第1のオーバーラップ画像と第2のオーバーラップ画像の共通の有効部分に対応する要素を含み、他の部分に対応する要素も含む)は、いずれも上式(1)を採用してトラバースされ、対応する遷移重みを得る。上式(1)を採用して計算を行うプロセスでは、ある遷移重みが1より大きいまたは0より小さい場合がある可能性があり、1より大きい場合で、この1より大きい遷移重みを1に設定でき、0より小さい場合で、この0より小さい遷移重みを0に設定でき、これによって、遷移重み行列における各要素が0〜1の範囲内に維持される。図6に示すように、図6は、遷移重み行列の概略図であり、この遷移重み行列において、左から右にかけては、白から黒へ変化され、つまり、遷移重み行列における各列の要素の値が大から小へ徐々に減少されるということが分かる。
ここで、まず遷移重み行列を計算し、その後、遷移重み行列とオプティカルフローベクトル行列を用いてオーバーラップ画像を再マッピングし、遷移重み行列を用いない方式に対して、画像を滑らかに遷移させ、さらに、ステッチング画像の品質を向上させることができる。
いくつかの実施例では、図2dを参照して、遷移重み行列とオプティカルフローベクトル行列とに基づいて、第1のオーバーラップ画像と第2のオーバーラップ画像を再マッピングするプロセスは、以下のステップを含み、即ち、
S1031で、前記オプティカルフローベクトル行列と前記遷移重み行列とに基づいて、第1の遷移マッピング行列と第2の遷移マッピング行列を計算し、ここで、前記第1の遷移マッピング行列は、前記第1のオーバーラップ画像から前記第2のオーバーラップ画像への遷移マッピング行列であり、前記第2の遷移マッピング行列は、前記第2のオーバーラップ画像から前記第1のオーバーラップ画像への遷移マッピング行列である。
具体的に実施する際に、第1の遷移マッピング行列は、以下のように計算されてもよく、即ち、
Figure 0006970283
であれば、下式(2)を採用して、前記第1の遷移マッピング行列におけるi行目j列目の要素を計算し、
Figure 0006970283
そうでなければ、下式(3)を採用して、第1の遷移マッピング行列におけるi行目j列目の要素を計算し、
Figure 0006970283
上式(2)および(3)では、Weight1(i,j)は、前記遷移重み行列におけるi行目j列目の要素の値であり、Warp1(i,j)は、前記第1の遷移マッピング行列におけるi行目j列目の要素で表されるマッピングベクトルであり、Warp1(i,j).xは、前記マッピングベクトルの水平方向の成分であり、Warp1(i,j).yは、前記マッピングベクトルの垂直方向の成分であり、flow(i,j)は、前記オプティカルフローベクトル行列におけるi行目j列目の要素で表される動きベクトルであり、flow(i,j).yは、前記動きベクトルの垂直方向の成分であり、flow(i,j).xは、前記動きベクトルの水平方向の成分である。
同様に、第2の遷移マッピング行列は、以下のように計算されてもよく、即ち、
Figure 0006970283
Figure 0006970283
そうでなければ、下式(5)を採用して、前記第2の遷移マッピング行列におけるi行目j列目の要素を計算し、
Figure 0006970283
上式(4)および(5)では、Warp2(i,j)は、前記第2の遷移マッピング行列におけるi行目j列目の要素で表されるマッピングベクトルであり、Warp2(i,j).xは、前記マッピングベクトルの水平方向の成分であり、Warp2(i,j).yは、前記マッピングベクトルの垂直方向の成分である。
S1032で、前記第1の遷移マッピング行列を用いて、前記第1のオーバーラップ画像を再マッピングして前記第1の再マッピング画像を得、及び、前記第2の遷移マッピング行列を用いて、前記第2のオーバーラップ画像を再マッピングして前記第2の再マッピング画像を得る。
画像に再マッピングするプロセスは、実際には、再マッピング画像における各画素の色値を求めるプロセスであり、具体的に実施する際に、下式(6)を採用して、第1の再マッピング画像におけるi行目j列目の画素の色値を計算し、
Figure 0006970283
上式では、overlap_left_dst(i,j)は、前記第1の再マッピング画像におけるi行目j列目の画素の色値であり、overlap_left_src(ii,jj)は、前記第1のオーバーラップ画像におけるii行目jj列目の画素の色値であり、ii=Warp1(i,j).y、jj=Warp1(i,j).xであり、Warp1(i,j)は、前記第1の遷移マッピング行列におけるi行目j列目の要素で表されるマッピングベクトルであり、Warp1(i,j).xは、前記マッピングベクトルの水平方向の成分であり、Warp1(i,j).yは、前記マッピングベクトルの垂直方向の成分である。
同様に、下式(7)を採用して、第2の再マッピング画像におけるi行目j列目の画素の色値を計算し、
Figure 0006970283
式では、overlap_right_dst(i,j)は、前記第2の再マッピング画像におけるi行目j列目の画素の色値であり、overlap_right_src(ii,jj)は、前記第2の再マッピング画像におけるii行目jj列目の画素の色値であり、ii=Warp2(i,j).y、jj=Warp2(i,j).xであり、Warp2(i,j)は、前記第2の遷移マッピング行列におけるi行目j列目の要素で表されるマッピングベクトルであり、Warp2(i,j).xは、前記マッピングベクトルの水平方向の成分であり、Warp2(i,j).yは、前記マッピングベクトルの垂直方向の成分である。
ここで、まず遷移マッピング行列を計算し、その後、遷移マッピング行列を用いてオーバーラップ画像を再マッピングし、この方法によって、オーバーラップ画像を再マッピングすることが実現され、方法は、簡単で、実現しやすい。
いくつかの実施例では、ステップS104で融合を行うプロセスは、様々な方式があり、通常の画像融合技術を参照すればよく、もちろん、図2eを参照して以下の融合方式で画像ステッチングを実現してもよく、即ち、
S1041で、前記オーバーラップ行列における各要素の遷移重みと所定閾値との間の関係に基づいて、対応する要素の融合重みを決定し、前記オーバーラップ行列における各要素の融合重みを融合重み行列に形成し、
上記の所定閾値は、必要に応じて選択されてもよいし、本願の実施例ではこれに対して限定されていない。
融合重みを決定する具体的なプロセスは、以下のものを含み、即ち、この要素の遷移重みが所定閾値より大きい場合、この要素に対応する融合重みは1になり、そうでなければ、この要素に対応する融合重みは0になる。
以下、所定閾値が0.5であるということを例として、このステップを説明する。
前記オーバーラップ行列における各要素の遷移重みも、遷移重み行列における対応する要素の値であり、Weight1(i,j)にとって、Weight1(i,j)が0.5より大きい場合、Weight2(i,j)は1になり、そうでなければ、Weight2(i,j)は0になる。ここから分かるように、得られた融合重み行列における要素の値は1または0である。
図7aに示すように、図7aは、遷移重み行列の概略図であり、左から右にかけては、画像の色が徐々に深くなる。図7bに示すように、図7bは、融合重み行列の概略図であり、画像には、黒と白のみがあり、遷移色はないということが分かる。
S1042で、前記融合重み行列を用いて、前記第1の再マッピング画像と前記第2の再マッピング画像を融合する。
具体的に融合を行うプロセスでは、多重解像度融合(multiresolution blending)を用いることができ、図2fに示すように、具体的な融合プロセスは、以下のステップを含み、即ち、
S10421で、前記第1の再マッピング画像および前記第2の再マッピング画像のラプラシアンピラミッド(Laplacian pyramids)をそれぞれ確立し、前記融合重み行列のガウシアンピラミッド(Gaussian pyramid)を確立する。
ラプラシアンピラミッドとガウシアンピラミッドは、いずれも多重解像度表現の方式であり、違いのは、ラプラシアンピラミッドが融合プロセスにおいてより多くの詳細を維持することができ、ガウシアンピラミッドが融合プロセスにおいて継ぎ目を曖昧化にすることができ、つまり、高周波部分においては小さな融合領域を用いて、低周波部分においては大きな融合領域を用いることにより、継ぎ目を除去するとともに画像の元の詳細情報を最大限に維持することができる。
S10422で、前記ガウシアンピラミッドを用いて、前記第1の再マッピング画像のラプラシアンピラミッドと前記第2の再マッピング画像のラプラシアンピラミッドを融合し、融合ピラミッドを得る。
ガウシアンピラミッドとラプラシアンピラミッドは、いずれも多層があるため、下式(8)を採用し、前記第1の再マッピング画像のラプラシアンピラミッドと前記第2の再マッピング画像のラプラシアンピラミッドにおける第level層のi行目j列目の画素を融合する。
Figure 0006970283
式では、Result_dst_LS(i,j,level)は、前記融合ピラミッドの第level層のi行目j列目の画素の色値であり、overlap_left_dst_LS(i,j,level)は、前記第1の再マッピング画像のラプラシアンピラミッドの第level層のi行目j列目の画素の色値であり、overlap_right_dst_LS(i,j,level)は、前記第2の再マッピング画像のラプラシアンピラミッドの第level層のi行目j列目の画素の色値であり、Weight2_GR(i,j,level)は、前記ガウシアンピラミッドの第level層のi行目j列目の要素の値である。
ラプラシアンピラミッドにおける各層の各画素について、いずれも上式(8)を採用して計算し、最後に1つの融合ピラミッドを得ることができる。
S10423で、前記融合ピラミッドに対して画像復元(image restoration)を行い、前記融合画像を得る。
ここでの還元とは、画像ピラミッドを画像に還元するプロセスのことであり、前の第1の再マッピング画像と第2の再マッピング画像とに基づいてラプラシアンピラミッドを生成するプロセスとは正反対である。具体的には、最上階から最下階まで順に補間拡大を行って、次の層に加算し、最終的には1つの画像、つまり融合画像を得る。ここでの融合画像は、第1のオーバーラップ画像と第2のオーバーラップ画像の融合画像であり、第1の画像および第2の画像における非重複部分を加えて、第1の画像と第2の画像の全体的なステッチング画像を構成する必要がある。
ラプラシアンピラミッドは融合プロセスにおいてより多くの詳細を維持することができ、ガウシアンピラミッドは融合プロセスにおいて継ぎ目を曖昧化にすることができるため、継ぎ目を除去するとともに画像の元の詳細情報が最大限に維持され、更に、ステッチング画像の品質が改善されることができる。
説明すべきものとして、本願の実施例では、画像の単位は画素であり、行列の単位は要素であり、実際には、画像と行列は対応するものであり、画素と要素も対応するものである。
一方、本願の実施例は、図1のサーバ200に設けられてもよく、図1の端末デバイス100に設けられてもよい、画像ステッチング装置をも提供し、該装置は、
少なくとも1つのメモリと、
少なくとも1つのプロセッサと、を備え、
ここで、前記少なくとも1つのメモリに、前記少なくとも1つのプロセッサによって実行されるように配置されている少なくとも1つの命令モジュールが記憶されており、図8に示すように、前記画像ステッチング装置における少なくとも1つの命令モジュールは、
第1の画像において第2の画像と重なる領域である第1のオーバーラップ画像と、第2の画像において第1の画像と重なる領域である第2のオーバーラップ画像とを取得する取得モジュール801であって、前記第1の画像と前記第2の画像はステッチング対象の隣接画像である取得モジュール801と、
前記第1のオーバーラップ画像における各画素点から前記第2のオーバーラップ画像における対応する画素点までの動きベクトルを決定し、オプティカルフローベクトル行列を得る決定モジュール802と、
前記オプティカルフローベクトル行列に基づいて、前記第1のオーバーラップ画像を再マッピングして第1の再マッピング画像を得、及び、前記第2のオーバーラップ画像を再マッピングして第2の再マッピング画像を得る再マッピングモジュール803と、
前記第1の再マッピング画像と前記第2の再マッピング画像を融合して、前記第1のオーバーラップ画像と第2のオーバーラップ画像の融合画像を得る融合モジュール804とを備える。
理解できるものとして、本願の実施例により提供される画像ステッチング装置は、第1の態様における実施例により提供される画像ステッチング方法の機能アーキテクチャモジュールであるため、本願の実施例における関連内容の解釈、例、有益な効果などの部分について、第1の態様における実施例により提供される画像ステッチング方法における対応する部分を参照することができ、ここでは改めて説明しない。
いくつかの実施例では、決定モジュール802は、また、
前記第1のオーバーラップ画像から前記第2のオーバーラップ画像への遷移重み行列を決定するようにしてもよいし、
ここで、再マッピングモジュール803は、前記オプティカルフローベクトル行列と前記遷移重み行列とに基づいて、前記第1のオーバーラップ画像を再マッピングして第1の再マッピング画像を得、及び、前記第2のオーバーラップ画像を再マッピングして第2の再マッピング画像を得るようにしてもよい。
いくつかの実施例では、決定モジュール802が前記第1のオーバーラップ画像から前記第2のオーバーラップ画像への遷移重み行列を決定するプロセスは、以下のステップを含み、即ち、
前記第1のオーバーラップ画像と前記第2のオーバーラップ画像のオーバーラップ行列を決定し、ここで、前記第1のオーバーラップ画像と前記第2のオーバーラップ画像の共通の有効部分の画素の前記オーバーラップ行列における対応する位置にある要素の値は、第1の所定値であり、他の部分の画素の前記オーバーラップ行列における対応する位置にある要素の値は、第1の所定値とは異なる第2の所定値であり、
前記オーバーラップ行列の各行における前記第1の所定値の要素の列座標範囲を決定し、
前記列座標範囲と、この行の各要素の列座標とに基づいて、この要素の遷移重みを決定し、前記オーバーラップ行列における各要素の遷移重みを前記遷移重み行列に形成する。
いくつかの実施例では、決定モジュール802は、下式を採用して、前記オーバーラップ行列におけるi行目j列目の要素の遷移重みを決定することができ、
Figure 0006970283
式では、Weight1(i,j)は、前記オーバーラップ行列におけるi行目j列目の要素の遷移重みであり、start_iは、前記オーバーラップ行列のi行目における前記列座標範囲内の最小列座標であり、end_iは、前記オーバーラップ行列のi行目における前記列座標範囲内の最大列座標である。
いくつかの実施例では、再マッピングモジュール803が、前記第1のオーバーラップ画像を再マッピングして第1の再マッピング画像を得、及び、前記第2のオーバーラップ画像を再マッピングして第2の再マッピング画像を得るプロセスは、以下のステップを含むようにしてもよく、即ち、
前記オプティカルフローベクトル行列と前記遷移重み行列とに基づいて、第1の遷移マッピング行列と第2の遷移マッピング行列を決定し、ここで、前記第1の遷移マッピング行列は、前記第1のオーバーラップ画像から前記第2のオーバーラップ画像への遷移マッピング行列であり、前記第2の遷移マッピング行列は、前記第2のオーバーラップ画像から前記第1のオーバーラップ画像への遷移マッピング行列であり、
前記第1の遷移マッピング行列を用いて、前記第1のオーバーラップ画像を再マッピングして前記第1の再マッピング画像を得、及び、前記第2の遷移マッピング行列を用いて、前記第2のオーバーラップ画像を再マッピングして前記第2の再マッピング画像を得る。
いくつかの実施例では、再マッピングモジュール803が第1の遷移マッピング行列を決定する方法は、以下のステップを含むようにしてもよく、即ち、
Figure 0006970283
Figure 0006970283
そうでなければ、下式を採用して、前記第1の遷移マッピング行列におけるi行目j列目の要素を計算し、
Figure 0006970283
上式では、Weight1(i,j)は、前記遷移重み行列におけるi行目j列目の要素の値であり、Warp1(i,j)は、前記第1の遷移マッピング行列におけるi行目j列目の要素で表されるマッピングベクトルであり、Warp1(i,j).xは、前記マッピングベクトルの水平方向の成分であり、Warp1(i,j).yは、前記マッピングベクトルの垂直方向の成分であり、flow(i,j)は、前記オプティカルフローベクトル行列におけるi行目j列目の要素で表される動きベクトルであり、flow(i,j).yは、前記動きベクトルの垂直方向の成分であり、flow(i,j).xは、前記動きベクトルの水平方向の成分である。
いくつかの実施例では、再マッピングモジュール803は、下式を採用して、前記第1の再マッピング画像におけるi行目j列目の画素の色値を決定することができ、
Figure 0006970283
上式では、overlap_left_dst(i,j)は、前記第1の再マッピング画像におけるi行目j列目の画素の色値であり、overlap_left_src(ii,jj)は、前記第1のオーバーラップ画像におけるii行目jj列目の画素の色値であり、ii=Warp1(i,j).y、jj=Warp1(i,j).xであり、Warp1(i,j)は、前記第1の遷移マッピング行列におけるi行目j列目の要素で表されるマッピングベクトルであり、Warp1(i,j).xは、前記マッピングベクトルの水平方向の成分であり、Warp1(i,j).yは、前記マッピングベクトルの垂直方向の成分である。
いくつかの実施例では、再マッピングモジュール803が第2の遷移マッピング行列を決定する方法は、以下のステップを含むようにしてもよく、即ち、
Figure 0006970283
Figure 0006970283
そうでなければ、下式を採用して、前記第2の遷移マッピング行列におけるi行目j列目の要素を計算し、
Figure 0006970283
上式では、Weight1(i,j)は、前記遷移重み行列におけるi行目j列目の要素の値であり、Warp2(i,j)は、前記第2の遷移マッピング行列におけるi行目j列目の要素で表されるマッピングベクトルであり、Warp2(i,j).xは、前記マッピングベクトルの水平方向の成分であり、Warp2(i,j).yは、前記マッピングベクトルの垂直方向の成分であり、flow(i,j)は、前記オプティカルフローベクトル行列におけるi行目j列目の要素で表される動きベクトルであり、flow(i,j).yは、前記動きベクトルの垂直方向の成分であり、flow(i,j).xは、前記動きベクトルの水平方向の成分である。
いくつかの実施例では、再マッピングモジュール803は、下式を採用して、前記第2の再マッピング画像におけるi行目j列目の画素の色値を決定することができ、
Figure 0006970283
式では、overlap_right_dst(i,j)は、前記第2の再マッピング画像におけるi行目j列目の画素の色値であり、overlap_right_src(ii,jj)は、前記第2の再マッピング画像におけるii行目jj列目の画素の色値であり、ii=Warp2(i,j).y、jj=Warp2(i,j).xであり、Warp2(i,j)は、前記第2の遷移マッピング行列におけるi行目j列目の要素で表されるマッピングベクトルであり、Warp2(i,j).xは、前記マッピングベクトルの水平方向の成分であり、Warp2(i,j).yは、前記マッピングベクトルの垂直方向の成分である。
いくつの実施例では、決定モジュール802は、また、前記オーバーラップ行列における各要素の遷移重みと所定閾値との間の関係に基づいて、対応する要素の融合重みを決定し、前記オーバーラップ行列における各要素の融合重みを融合重み行列に形成するようにしてもよく、
ここで、融合モジュール804は、前記融合重み行列を用いて、前記第1の再マッピング画像と前記第2の再マッピング画像を融合するようにしてもよい。
いくつかの実施例では、決定モジュール802が、対応する要素の融合重みを決定するプロセスは、以下のステップを含むようにしてもよく、即ち、
この要素の遷移重みが所定閾値より大きい場合、この要素に対応する融合重みは1になり、そうでなければ、この要素に対応する融合重みは0になる。
いくつかの実施例では、融合モジュール804が、前記第1の再マッピング画像と前記第2のマッピング画像を融合するプロセスは、以下のステップを含むようにしてもよく、即ち、
前記第1の再マッピング画像および前記第2の再マッピング画像のラプラシアンピラミッドをそれぞれ確立し、前記融合重み行列のガウシアンピラミッドを確立し、
前記ガウシアンピラミッドを用いて、前記第1の再マッピング画像のラプラシアンピラミッドと前記第2の再マッピング画像のラプラシアンピラミッドを融合し、融合ピラミッドを得、
前記融合ピラミッドを画像復元し、前記融合画像を得る。
いくつかの実施例では、融合モジュール804は、下式を採用して、前記第1の再マッピング画像および前記第2の再マッピング画像のラプラシアンピラミッドにおける第level層のi行目j列目の画素を融合するようにしてもよく、
Figure 0006970283
式では、Result_dst_LS(i,j,level)は、前記融合ピラミッドの第level層のi行目j列目の画素の色値であり、overlap_left_dst_LS(i,j,level)は、前記第1の再マッピング画像のラプラシアンピラミッドの第level層のi行目j列目の画素の色値であり、overlap_right_dst_LS(i,j,level)は、前記第2の再マッピング画像のラプラシアンピラミッドの第level層のi行目j列目の画素の色値であり、Weight2_GR(i,j,level)は、前記ガウシアンピラミッドの第level層のi行目j列目の要素の値である。
上記の各モジュールは、上記の方法における各ステップに対応しているため、本願の実施例により提供される画像ステッチング装置の構成は、以下のように説明されてもよい、ということが理解される。
前記画像ステッチング装置は、
少なくとも1つのメモリと、
少なくとも1つのプロセッサと、を備え、
ここで、前記少なくとも1つのメモリに、少なくとも1つの命令が記憶されており、前記少なくとも1つの命令が前記少なくとも1つのプロセッサによって実行される場合、上記の画像ステッチング方法のステップが実現される。
別の態様では、本願のいくつかの実施例は、また、不揮発性コンピュータ読み取り可能な記憶媒体を提供し、、記憶媒体には、コンピュータプログラムが記憶されてあり、このプログラムがプロセッサによって実行される場合、上記のいずれかの方法のステップが実現される。
上記の記憶媒体は、例えば、Uディスク、モバイルハードディスク、リードオンリーメモリ(ROM:Read−Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気ディスクまたは光ディスクなど、プログラムコードを記憶することができる様々な媒体がある。
別の態様では、本願の実施例は、また、コンピュータデバイスを提供し、図9に示すように、このコンピュータデバイスは、1つまたは複数のプロセッサ(CPU)902と、通信モジュール904と、メモリ906と、ユーザインターフェース910と、これらのコンポーネントを相互接続するための通信バス908とを備え、ここで、
プロセッサ902は、ネットワーク通信および/またはローカル通信を実現するように、通信モジュール904を介してデータを受送信することができる。
ユーザインターフェース910は、1つまたは複数のスピーカおよび/または1つまたは複数の可視化ディスプレイを含む1つまたは複数の出力デバイス912を含む。ユーザインタフェース910は、例えばキーボード、マウス、音声コマンド入力ユニットまたは拡声器、タッチスクリーンディスプレイ、タッチセンサー入力ボード、姿勢キャプチャカメラまたは他の入力ボタンまたはコントロールなどを含む1つまたは複数の入力デバイス914をも含む。
メモリ906は、例えばDRAM、SRAM、DDR RAM、または他のランダムアクセス固体記憶デバイスのような高速ランダムアクセスメモリであってもよく、または、例えば1つまたは複数の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、または他の不揮発性固体記憶デバイスのような不揮発性メモリであってもよい。
メモリ906は、プロセッサ902が実行可能な命令セットを記憶し、
各基本システムサービスを処理し、かつ、ハードウェア関連タスクを実行するためのプログラムを含むオペレーティングシステム916と、
ビデオセリフ処理用の各種アプリケーションを含むアプリケーション918と、を備え、このようなアプリケーションは、上記の各実施例の処理フローを実現することができ、例えば、画像ステッチング装置800の一部または全部の命令モジュールまたはユニットを含むことができるる。プロセッサ902は、メモリ906における各ユニットのうちの少なくとも1つにおけるマシン実行可能命令を実行することにより、上記の各ユニットまたはモジュールのうちの少なくとも1つの機能を実現することができる。
説明すべきものとして、上記の各フローおよび各構成図には、すべてのステップおよびモジュールが必要ではなく、実際の必要に応じて、いくつかのステップまたはモジュールが無視されることができる。各ステップの実行順序は固定されていなく、必要に応じて調整されることができる。各モジュールの区分は、採用された機能上の区分を説明しやすくするためだけに、実際に実現される場合、1つのモジュールが複数のモジュールに分けて実現されてもよく、複数のモジュールの機能が同一のモジュールによって実現されてもよいし、これらのモジュールが同一のデバイスにあってもよく、異なるデバイスにあってもよい。
各実施例におけるハードウェアモジュールは、ハードウェア方式またはハードウェアプラットフォームにソフトウェアを加えた方式で実装されてもよい。上記のソフトウェアは、不揮発性記憶媒体に記憶される機器読み取り可能な命令を含む。したがって、各実施例は、ソフトウェア製品としても具現化され得る。
各実施例では、ハードウェアは、専用ハードウェアまたは機器読み取り可能な命令を実行するハードウェアによって実現され得る。例えば、ハードウェアは、特定の動作を完成するための、専門的に設計された永久回路または論理デバイス(例えば、FPGAまたはASICなどのような専用プロセッサ)であってもよい。ハードウェアは、特定の動作を実行するための、ソフトウェアによって一時的に配置されたプログラム可能論理デバイスまたは回路を含む(例えば、汎用プロセッサまたは他のプログラマブルプロセッサを含む)ようにしてもよい。
また、本願の各実施例は、例えばコンピュータのようなデータ処理デバイスにより実行されるデータ処理プログラムによって実現されてもよい。明らかに、データ処理プログラムは本願を構成している。また、通常、1つの記憶媒体に記憶されているデータ処理プログラムは、プログラムを直接に記憶媒体から読み出したりしたり、プログラムをデータ処理デバイスの記憶デバイス(ハードディスクやメモリ)にインストールまたはコピーしたりすることによって実行される。したがって、このような記憶媒体も本願を構成しており、本願は、また、本願の上記方法の実施例のうちのいずれかを実行できるためのデータ処理プログラムが記憶されている不揮発性の記憶媒体をも提供する。
図9のモジュールに対応する機器読み取り可能な命令は、コンピュータで動作するオペレーティングシステムなどに、ここで説明する部分または全部の動作を完了させることができる。不揮発性コンピュータ読み取り可能な記憶媒体は、コンピュータ内に挿入された拡張ボードに設定されたメモリ、またはコンピュータに接続された拡張ユニットに設定されたメモリであってもよい。拡張ボードや拡張ユニットにインストールされたCPUなどは、命令に従って、部分と全部の実際の操作を実行することができる。
以上述べたのは、本願の一部の実施例にすぎず、本願を限定するものではない。本願の精神及び原則の範囲内で行われた、いかなる修正、均等置換、改善等は、すべて本願の保護範囲内に含まれるべきである。

Claims (16)

  1. サーバまたは端末デバイスによって実行される画像ステッチング方法であって、
    前記サーバまたは端末デバイスが、
    第1のオーバーラップ画像及び第2のオーバーラップ画像を取得するステップであって、前記第1のオーバーラップ画像が第1の画像における、第2の画像と重なる領域であり、前記第2のオーバーラップ画像が前記第2の画像における、前記第1の画像と重なる領域であり、前記第1の画像および前記第2の画像がステッチング待ちの隣接画像であるステップと、
    前記第1のオーバーラップ画像における各画素点から前記第2のオーバーラップ画像における対応する画素点までの動きベクトルを決定し、オプティカルフローベクトル行列を取得するステップと、
    前記オプティカルフローベクトル行列に基づいて、前記第1のオーバーラップ画像に対して再マッピングを行って第1の再マッピング画像を取得し、かつ、前記第2のオーバーラップ画像に対して再マッピングを行って第2の再マッピング画像を取得するステップと、
    前記第1の再マッピング画像と前記第2の再マッピング画像を融合し、前記第1のオーバーラップ画像と前記第2のオーバーラップ画像の融合画像を取得し、前記融合画像に基づいて前記第1の画像と前記第2の画像のステッチング画像を決定するステップと、
    を含む、ことを特徴とする画像ステッチング方法。
  2. 前記方法は、前記サーバまたは端末デバイスが前記第1のオーバーラップ画像から前記第2のオーバーラップ画像への遷移重み行列を決定するステップをさらに含み、
    前記オプティカルフローベクトル行列に基づいて、前記第1のオーバーラップ画像に対して再マッピングを行って第1の再マッピング画像を取得し、かつ、前記第2のオーバーラップ画像に対して再マッピングを行って第2の再マッピング画像を取得するステップは、
    前記オプティカルフローベクトル行列と前記遷移重み行列とに基づいて、前記第1のオーバーラップ画像に対して再マッピングを行って第1の再マッピング画像を取得し、かつ、前記第2のオーバーラップ画像に対して再マッピングを行って第2の再マッピング画像を取得することを含む、
    ことを特徴とする請求項1に記載の方法。
  3. 前記第1のオーバーラップ画像から前記第2のオーバーラップ画像への遷移重み行列を決定するステップは、
    前記第1のオーバーラップ画像と前記第2のオーバーラップ画像のオーバーラップ行列を決定することであって、前記第1のオーバーラップ画像と前記第2のオーバーラップ画像の共通の有効部分の画素の、前記オーバーラップ行列における対応する位置にある要素の値が第1の所定値であり、他の部分の画素の、前記オーバーラップ行列における対応する位置にある要素の値が前記第1の所定値とは異なる第2の所定値であることと、
    前記オーバーラップ行列の各行における前記第1の所定値の要素の列座標範囲を決定することと、
    前記列座標範囲と、当該行における各要素の列座標とに基づいて、当該要素の遷移重みを決定し、前記オーバーラップ行列における各要素の遷移重みにより前記遷移重み行列を形成することと、を含む、
    ことを特徴とする請求項2に記載の方法。
  4. 下式を採用して、前記オーバーラップ行列におけるi行目j列目の要素の遷移重みを決定し、
    Figure 0006970283
    式では、Weight1(i,j)は、前記オーバーラップ行列におけるi行目j列目の要素の遷移重みであり、start_iは、前記オーバーラップ行列におけるi行目の前記列座標範囲内の最小列座標であり、end_iは、前記オーバーラップ行列におけるi行目の前記列座標範囲内の最大列座標である、
    ことを特徴とする請求項3に記載の方法。
  5. 前記第1のオーバーラップ画像に対して再マッピングを行って第1の再マッピング画像を取得し、かつ、前記第2のオーバーラップ画像に対して再マッピングを行って第2の再マッピング画像を取得することは、
    前記オプティカルフローベクトル行列と前記遷移重み行列とに基づいて、第1の遷移マッピング行列および第2の遷移マッピング行列を決定することであって、前記第1の遷移マッピング行列が前記第1のオーバーラップ画像から前記第2のオーバーラップ画像への遷移マッピング行列であり、前記第2の遷移マッピング行列が前記第2のオーバーラップ画像から前記第1のオーバーラップ画像への遷移マッピング行列であることと、
    前記第1の遷移マッピング行列を用いて、前記第1のオーバーラップ画像に対して再マッピングを行って前記第1の再マッピング画像を取得し、かつ、前記第2の遷移マッピング行列を用いて、前記第2のオーバーラップ画像に対して再マッピングを行って前記第2の再マッピング画像を取得することと、を含む、
    ことを特徴とする請求項2に記載の方法。
  6. Figure 0006970283
    であれば、下式を採用して、前記第1の遷移マッピング行列におけるi行目j列目の要素を決定し、
    Figure 0006970283
    そうでなければ、下式を採用して、前記第1の遷移マッピング行列におけるi行目j列目の要素を決定し、
    Figure 0006970283
    上式では、Weight1(i,j)は、前記遷移重み行列におけるi行目j列目の要素の値であり、Warp1(i,j)は、前記第1の遷移マッピング行列におけるi行目j列目の要素で表されるマッピングベクトルであり、Warp1(i,j).xは、前記マッピングベクトルの水平方向の成分であり、Warp1(i,j).yは、前記マッピングベクトルの垂直方向の成分であり、flow(i,j)は、前記オプティカルフローベクトル行列におけるi行目j列目の要素で表される動きベクトルであり、flow(i,j).yは、前記動きベクトルの垂直方向の成分であり、flow(i,j).xは、前記動きベクトルの水平方向の成分である、
    ことを特徴とする請求項5に記載の方法。
  7. 前記第1のオーバーラップ画像に対して再マッピングを行って前記第1の再マッピング画像を取得することは、
    下式を採用して、前記第1の再マッピング画像におけるi行目j列目の要素の色値を決定することを含み、
    Figure 0006970283
    上式では、overlap_left_dst(i,j)は、前記第1の再マッピング画像におけるi行目j列目の画素の色値であり、overlap_left_src(ii,jj)は、前記第1のオーバーラップ画像におけるii行目jj列目の画素の色値であり、ii=Warp1(i,j).yであり、jj=Warp1(i,j).xであり、Warp1(i,j)は、前記第1の遷移マッピング行列におけるi行目j列目の要素で表されるマッピングベクトルであり、Warp1(i,j).xは、前記マッピングベクトルの水平方向の成分であり、Warp1(i,j).yは、前記マッピングベクトルの垂直方向の成分である、
    ことを特徴とする請求項5に記載の方法。
  8. Figure 0006970283
    であれば、下式を採用して、前記第2の遷移マッピング行列におけるi行目j列目の要素を決定し、
    Figure 0006970283
    そうでなければ、下式を採用して、前記第2の遷移マッピング行列におけるi行目j列目の要素を決定し、
    Figure 0006970283
    上式では、Weight1(i,j)は、前記遷移重み行列におけるi行目j列目の要素の値であり、Warp2(i,j)は、前記第2の遷移マッピング行列におけるi行目j列目の要素で表されるマッピングベクトルであり、Warp2(i,j).xは、前記マッピングベクトルの水平方向の成分であり、Warp2(i,j).yは、前記マッピングベクトルの垂直方向の成分であり、flow(i,j)は、前記オプティカルフローベクトル行列におけるi行目j列目の要素で表される動きベクトルであり、flow(i,j).yは、前記動きベクトルの垂直方向の成分であり、flow(i,j).xは、前記動きベクトルの水平方向の成分である、
    ことを特徴とする請求項5に記載の方法。
  9. 前記第2のオーバーラップ画像に対して再マッピングを行って前記第2の再マッピング画像を取得することは、
    下式を採用して、前記第2の再マッピング画像におけるi行目j列目の要素の色値を決定することを含み、
    Figure 0006970283
    式では、overlap_right_dst(i,j)は、前記第2の再マッピング画像におけるi行目j列目の画素の色値であり、overlap_right_src(ii,jj)は、前記第2の再マッピング画像におけるii行目jj列目の画素の色値であり、ii=Warp2(i,j).yであり、jj=Warp2(i,j).xであり、Warp2(i,j)は、前記第2の遷移マッピング行列におけるi行目j列目の要素で表されるマッピングベクトルであり、Warp2(i,j).xは、前記マッピングベクトルの水平方向の成分であり、Warp2(i,j).yは、前記マッピングベクトルの垂直方向の成分である、
    ことを特徴とする請求項5に記載の方法。
  10. 前記方法は、前記サーバまたは端末デバイスが前記オーバーラップ行列における各要素の遷移重みと所定閾値との間の関係に基づいて、対応する要素の融合重みを決定し、前記オーバーラップ行列における各要素の融合重みにより融合重み行列を形成するステップをさらに含み、
    前記第1の再マッピング画像と前記第2の再マッピング画像を融合することは、
    前記融合重み行列を用いて、前記第1の再マッピング画像と前記第2の再マッピング画像を融合することを含む、
    ことを特徴とする請求項3に記載の方法。
  11. 前記の対応する要素の融合重みを決定することは、
    当該要素の遷移重みが所定閾値よりも大きい場合、当該要素に対応する融合重みを1とし、そうでなければ、当該要素に対応する融合重みを0とすることを含む、
    ことを特徴とする請求項10に記載の方法。
  12. 前記融合重み行列を用いて、前記第1の再マッピング画像と前記第2の再マッピング画像を融合することは、
    前記第1の再マッピング画像および前記第2の再マッピング画像のラプラシアンピラミッドをそれぞれ確立し、前記融合重み行列のガウシアンピラミッドを確立することと、
    前記ガウシアンピラミッドを用いて、前記第1の再マッピング画像のラプラシアンピラミッドと前記第2の再マッピング画像のラプラシアンピラミッドを融合し、融合ピラミッドを取得することと
    前記融合ピラミッドに対して画像復元を行って前記融合画像を取得することと、を含む、
    ことを特徴とする請求項10に記載の方法。
  13. 下式を採用して、前記第1の再マッピング画像および前記第2の再マッピング画像のラプラシアンピラミッドにおける第level層のi行目j列目の画素を決定し、
    Figure 0006970283
    式では、Result_dst_LS(i,j,level)は、前記融合ピラミッドの第level層のi行目j列目の画素の色値であり、overlap_left_dst_LS(i,j,level)は、前記第1の再マッピング画像のラプラシアンピラミッドの第level層のi行目j列目の画素の色値であり、overlap_right_dst_LS(i,j,level)は、前記第2の再マッピング画像のラプラシアンピラミッドの第level層のi行目j列目の画素の色値であり、Weight2_GR(i,j,level)は、前記ガウシアンピラミッドの第level層のi行目j列目の要素の値である、
    ことを特徴とする請求項12に記載の方法。
  14. 画像ステッチング装置であって、
    少なくとも1つのメモリと、
    少なくとも1つのプロセッサと、を含み、
    前記少なくとも1つのメモリには、前記少なくとも1つのプロセッサによって実行されるように構成される少なくとも1つの命令モジュールが記憶されており、前記少なくとも1つの命令モジュールは、
    第1のオーバーラップ画像及び第2のオーバーラップ画像を取得する取得モジュールであって、前記第1のオーバーラップ画像が第1の画像における、第2の画像と重なる領域であり、前記第2のオーバーラップ画像が前記第2の画像における、前記第1の画像と重なる領域であり、前記第1の画像および前記第2の画像がステッチング待ちの隣接画像である取得モジュールと
    前記第1のオーバーラップ画像における各画素点から前記第2のオーバーラップ画像における対応する画素点までの動きベクトルを決定し、オプティカルフローベクトル行列を取得する決定モジュールと、
    前記オプティカルフローベクトル行列に基づいて、前記第1のオーバーラップ画像に対して再マッピングを行って第1の再マッピング画像を取得し、かつ、前記第2のオーバーラップ画像に対して再マッピングを行って第2の再マッピング画像を取得する再マッピングモジュールと、
    前記第1の再マッピング画像と前記第2の再マッピング画像を融合し、前記第1のオーバーラップ画像と第2のオーバーラップ画像の融合画像を取得し、前記融合画像に基づいて前記第1の画像と前記第2の画像のステッチング画像を決定する融合モジュールと、を含む、
    ことを特徴とする画像ステッチング装置。
  15. コンピュータに、請求項1〜13のうちのいずれか一項に記載の画像ステッチング方法を実行させるためのプログラム
  16. 画像ステッチング装置であって、
    少なくとも1つのメモリと、
    少なくとも1つのプロセッサと、を含み、
    前記少なくとも1つのメモリには、少なくとも1つの命令が記憶されており、前記少なくとも1つの命令は、前記少なくとも1つのプロセッサによって実行されたときに、請求項1〜13のうちのいずれか一項に記載の画像ステッチング方法を実現する、
    ことを特徴とする画像ステッチング装置。
JP2020515105A 2017-09-15 2018-09-14 画像ステッチング方法および装置、記憶媒体 Active JP6970283B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710831538.0A CN109509146B (zh) 2017-09-15 2017-09-15 图像拼接方法及装置、存储介质
CN201710831538.0 2017-09-15
PCT/CN2018/105700 WO2019052534A1 (zh) 2017-09-15 2018-09-14 图像拼接方法及装置、存储介质

Publications (2)

Publication Number Publication Date
JP2020533710A JP2020533710A (ja) 2020-11-19
JP6970283B2 true JP6970283B2 (ja) 2021-11-24

Family

ID=65722406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020515105A Active JP6970283B2 (ja) 2017-09-15 2018-09-14 画像ステッチング方法および装置、記憶媒体

Country Status (6)

Country Link
US (1) US11178428B2 (ja)
EP (1) EP3660781B1 (ja)
JP (1) JP6970283B2 (ja)
KR (1) KR102317524B1 (ja)
CN (1) CN109509146B (ja)
WO (1) WO2019052534A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021031210A1 (zh) * 2019-08-22 2021-02-25 深圳市铂岩科技有限公司 视频处理方法和装置、存储介质和电子设备
CN110853106B (zh) * 2019-10-29 2022-10-11 苏州佳世达光电有限公司 口扫***及口扫影像处理方法
CN111738923B (zh) * 2020-06-19 2024-05-10 京东方科技集团股份有限公司 图像处理方法、设备及存储介质
CN111915587B (zh) * 2020-07-30 2024-02-02 北京大米科技有限公司 视频处理方法、装置、存储介质和电子设备
WO2022130379A1 (en) * 2020-12-15 2022-06-23 Tetavi Ltd. Method of fusing mesh sequences within volumetric video
CN112700382B (zh) * 2020-12-23 2024-03-26 杭州海康微影传感科技有限公司 一种图像接缝消除方法、装置及电子设备
CN112750078B (zh) * 2020-12-28 2023-06-02 广州市明美光电技术有限公司 基于面向电动平台的显微图像实时拼接方法及存储介质
US11948315B2 (en) * 2020-12-31 2024-04-02 Nvidia Corporation Image composition in multiview automotive and robotics systems
CN112819696A (zh) * 2021-01-29 2021-05-18 青岛海信移动通信技术股份有限公司 电子设备及其图像处理方法
CN113450252A (zh) * 2021-05-11 2021-09-28 点智芯科技(北京)有限公司 一种超像素分割单映矩阵聚类图像拼接方法
CN113298695B (zh) * 2021-06-25 2024-04-26 北京爱芯科技有限公司 一种图像处理组件和芯片、图像处理方法和存储介质
CN113674157B (zh) * 2021-10-21 2022-02-22 广东唯仁医疗科技有限公司 眼底图像拼接方法、计算机装置和存储介质
KR102571530B1 (ko) * 2021-11-15 2023-08-28 국방과학연구소 이미지 스티칭을 위한 장치 및 그 방법

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6469710B1 (en) * 1998-09-25 2002-10-22 Microsoft Corporation Inverse texture mapping using weighted pyramid blending
US7450270B2 (en) * 2004-01-16 2008-11-11 Hewlett-Packard Development Company, L.P. Image data processing methods, hard imaging devices, and articles of manufacture
CN100455266C (zh) * 2005-03-29 2009-01-28 深圳迈瑞生物医疗电子股份有限公司 宽景成像处理方法
US8903191B2 (en) * 2008-12-30 2014-12-02 Intel Corporation Method and apparatus for noise reduction in video
KR100987412B1 (ko) * 2009-01-15 2010-10-12 포항공과대학교 산학협력단 멀티프레임을 고려한 비디오 오브젝트 매팅 시스템 및 방법
KR101224061B1 (ko) * 2011-01-28 2013-01-21 포항공과대학교 산학협력단 영상 합성 장치 및 방법
JP5982751B2 (ja) 2011-08-04 2016-08-31 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
CN103841297B (zh) * 2012-11-23 2016-12-07 中国航天科工集团第三研究院第八三五七研究所 一种适用于合成运动摄像载体的电子稳像方法
CN103974055B (zh) * 2013-02-06 2016-06-08 城市图像科技有限公司 3d照片生成***及方法
CN104835115A (zh) * 2015-05-07 2015-08-12 中国科学院长春光学精密机械与物理研究所 用于航空相机的图像成像方法及***
CN106803899B (zh) * 2015-11-26 2019-10-01 华为技术有限公司 合并图像的方法和装置
CN105976320A (zh) * 2016-05-06 2016-09-28 安徽伟合电子科技有限公司 一种图像拼接方法
CN106910159A (zh) * 2016-10-12 2017-06-30 王玲 视频拼接方法及装置
CN106815802A (zh) * 2016-12-23 2017-06-09 深圳超多维科技有限公司 一种图像拼接方法及装置

Also Published As

Publication number Publication date
EP3660781A1 (en) 2020-06-03
US20200213620A1 (en) 2020-07-02
JP2020533710A (ja) 2020-11-19
CN109509146A (zh) 2019-03-22
EP3660781B1 (en) 2023-06-07
WO2019052534A1 (zh) 2019-03-21
US11178428B2 (en) 2021-11-16
CN109509146B (zh) 2023-03-24
KR102317524B1 (ko) 2021-10-25
EP3660781A4 (en) 2020-07-29
KR20200035457A (ko) 2020-04-03

Similar Documents

Publication Publication Date Title
JP6970283B2 (ja) 画像ステッチング方法および装置、記憶媒体
KR101956149B1 (ko) 이미지 사이의 광학 흐름의 효율적 결정
JP2019525515A5 (ja)
EP2765769A1 (en) Image processing method and image processing device
JP2018524710A (ja) ユーザ端末のパノラマ画像生成方法及び装置
JP6882868B2 (ja) 画像処理装置、画像処理方法、システム
JP6921686B2 (ja) 生成装置、生成方法、及びプログラム
JP2022524806A (ja) 画像融合方法及び携帯端末
JP7484055B2 (ja) 深度情報付きのパノラマ画像を生成する方法、装置、記憶媒体、電子機器及びコンピュータプログラム
US11783445B2 (en) Image processing method, device and apparatus, image fitting method and device, display method and apparatus, and computer readable medium
WO2017113533A1 (zh) 一种全景拍摄处理方法及装置
TWI545508B (zh) 用於執行臉部追蹤功能的方法及其電子裝置
CN108665415B (zh) 基于深度学习的图像质量提升方法及其装置
JP2018113683A (ja) 画像処理装置、画像処理方法及びプログラム
CN110072056B (zh) 基于多个摄像头模组的数据处理方法及装置
CN107426561B (zh) 一种3d360度的虚拟现实直播方法及装置
JP5645448B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2018006669A1 (zh) 视差融合方法和装置
CN114332329A (zh) 一种双目视觉定位方法、装置及存储介质
JP2010068193A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
CN112565623A (zh) 一种动态图像显示***
WO2022033314A1 (zh) 3d显示方法、3d显示装置及3d显示器件
KR102461031B1 (ko) 네트워크 기반의 영상 처리 방법 및 이를 위한 장치
CN112312022B (zh) 图像处理方法、图像处理装置、电子设备及存储介质
JP2024041435A (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211028

R150 Certificate of patent or registration of utility model

Ref document number: 6970283

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150