JP7166390B2 - デジタル画像を整列させること - Google Patents

デジタル画像を整列させること Download PDF

Info

Publication number
JP7166390B2
JP7166390B2 JP2021092110A JP2021092110A JP7166390B2 JP 7166390 B2 JP7166390 B2 JP 7166390B2 JP 2021092110 A JP2021092110 A JP 2021092110A JP 2021092110 A JP2021092110 A JP 2021092110A JP 7166390 B2 JP7166390 B2 JP 7166390B2
Authority
JP
Japan
Prior art keywords
digital
digital image
pixels
image
digital images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021092110A
Other languages
English (en)
Other versions
JP2022003769A5 (ja
JP2022003769A (ja
Inventor
ヴィクトル エドパルム,
ソン ユアン,
ヨハン フェルベルク,
ヴィクトルス ジャコベルス,
Original Assignee
アクシス アーベー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アクシス アーベー filed Critical アクシス アーベー
Publication of JP2022003769A publication Critical patent/JP2022003769A/ja
Publication of JP2022003769A5 publication Critical patent/JP2022003769A5/ja
Application granted granted Critical
Publication of JP7166390B2 publication Critical patent/JP7166390B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、デジタル画像を整列させるための方法に関する。本発明は、デジタル画像を整列させるように構成されるデジタルカメラにさらに関する。
パノラマ撮像は、描写されるシーンの拡大視野を有する画像を生成するためのよく知られている技法である。この技法において、カメラによって取り込まれる複数の画像は、結合されスティッチングされて、単一パノラマ画像になる。
シーンのパノラマ撮像における一般的な問題は視差(parallax)に関連する。シーンは、異なる位置および/または方向からカメラによって通常描写され、それは、異なる画像においてオブジェクトの位置の明らかなシフトとして現れる。複数の画像を結合して、パノラマ画像にするときの手法は、或る距離における、例えば、シーン内の関心エリアまでの距離における視差を最小にすることであるとすることができる。これは、複数の画像間の位置ずれが、シーン内のこのエリアについて低減されることを可能にする。しかしながら、シーンは、典型的には3次元であるため、視差がそれについて最小化されない、他の距離における特徴部を含む場合もある。これは、これらの距離について複数の画像間の位置ずれをもたらす場合があり、それは、次に、パノラマ画像が品質に疑問があることをもたらす場合がある。例えば、パノラマ画像が、この技法の目標である単一カメラの代わりに、複数のカメラを使用して取り込まれることがユーザーにとって明らかである場合がある。この効果は、パノラマ画像を生成するカメラにより近いオブジェクトについて見ることができる。例えば、カメラに近い直線は、典型的には、パノラマ画像内で位置ずれする場合があり、それにより、パノラマ画像の品質を低下させる。パノラマ画像における位置ずれは、パノラマ画像が、例えば、オブジェクト検出、画像コンテンツ分析、または他の自動画像処理アルゴリズムのために使用される場合に問題となる場合もある。
当技術分野における上記で識別された欠点および不利益の1つまたは複数を単独でまたは任意の組み合わせで軽減し、緩和し、またはなくすことが目的である。
第1の態様によれば、デジタル画像を整列させるための方法が提供される。方法は、シーンの第1の領域を描写する第1のデジタル画像およびシーンの第2の領域を描写する第2のデジタル画像を含むデジタル画像を受信することであって、第1および第2の領域は、第1の方向に沿ってオーバーラップし変位する、受信すること;変換を使用してデジタル画像を整列させることであって、第1および第2のデジタル画像はオーバーラップする、整列させること;第1および第2のデジタル画像の間のオーバーラップについての視差値を決定することであって、オーバーラップについての各視差値は、第1のデジタル画像内のピクセルのブロックと、第2のデジタル画像内のピクセルの整合ブロックとの間の、第1の方向に垂直である第2の方向に沿う相対変位を示す、決定すること;第1のデジタル画像内のピクセルのブロックであって、第2の方向に沿って同じ位置を有し、第1の所定の閾値より低い変動性を示しかつ第2の所定の閾値より大きい平均を示す視差値の分布を有する、第1のデジタル画像内のピクセルのブロックを識別することによって、デジタル画像間の位置ずれを識別すること;第1のデジタル画像内のピクセルの識別されたブロックおよび第2のデジタル画像内のピクセルのそれらの整合ブロックについて変換を調整すること;および、識別された位置ずれを補償するために、調整された変換を使用してデジタル画像を再整列させることを含む。
高い平均視差を一貫して示す行または列(シーン内の第1および第2の領域の間の変位方向に依存する)が位置ずれする場合があることが見出された。そのため、デジタル画像間の位置ずれは、視差値が、それについて(第1の所定値に対して)小さい程度に変動しかつ(第2の所定値に対して)高い平均値を有する、第1のデジタル画像内のピクセルの行/列として識別することができる。正しく整列した行/列は、デジタル画像のピクセルの整合ブロックが、デジタル画像間のオーバーラップ内で(第1および第2の方向に沿って)実質的に同じ位置を有することができることを示す低い平均視差を有することができる。さらに、(例えば、第1の所定値に対して)大きい程度に同様に変動する高い平均視差を示す行/列は、深度が変動する(カメラからの距離の変動)シーン内の特徴部に対応することができ、したがって、そのような行/列は、正しく整列することができる。それにより、デジタル画像間の位置ずれを識別し、それらを補償することによって、描写される実際のシーンとより合致するシーンの再生が許容される。さらに、デジタル画像を再整列させることは、デジタル画像の画像処理(例えば、オブジェクト検出)の向上を可能にすることができる。
表現「視差値(disparity value)」は、ピクセルのブロックおよびピクセルのその整合ブロックが、2つのデジタル画像間でシフトする程度および方向を示す値として解釈されるべきである。
表現「ピクセルのブロック(block of pixels)」は、デジタル画像の1つまたは複数のピクセルとして解釈されるべきである。したがって、ピクセルのブロックは、デジタル画像の単一ピクセルまたは複数ピクセル(例えば、マクロブロック)であるとすることができる。ピクセルのブロックが、視差値を決定するために使用されるアルゴリズムに基づいて決定することができることが理解される。例えば、ピクセルのブロックは、視差値がピクセルレベルに関して決定される場合、単一ピクセルであるとすることができる。
方法は、再整列したデジタル画像をスティッチングすることであって、それにより、スティッチングされたデジタル画像を形成する、スティッチングすることをさらに含むことができる。
それにより、実際のシーンとより合致するシーンを描写するスティッチングされたデジタル画像を許容することができる。
第1のデジタル画像内のピクセルの識別されたブロックおよび第2のデジタル画像内のそれらのピクセルの整合ブロックについての変換は、それらのピクセルのブロックに関連する視差値に基づいて調整することができる。
そのため、変換、したがって、デジタル画像の局所的調整を、許容することができる。これは、デジタル画像の他の部分(位置ずれしているとして識別されていないピクセルのブロック)に対する、調整された変換の効果を低減することができる。それにより、再整列したデジタル画像は、描写される実際のシーンにより合致したシーンの向上した表現を提供することができる。
変換は、或る投影距離における共通投影表面上へのデジタル画像の投影を含むことができ、変換を調整するステップは、第1のデジタル画像内のピクセルの識別されたブロックおよび第2のデジタル画像内のピクセルのそれらの整合ブロックについて投影距離を局所的に調整することであって、それにより、それらのピクセルのブロックについて第2の方向に沿う相対変位が低減される、局所的に調整することを含むことができる。
そのため、変換、したがって、デジタル画像の局所的調整を、許容することができる。これは、デジタル画像の他の部分(位置ずれしているとして識別されていないピクセルのブロック)に対する、調整された変換の効果を低減することができる。それにより、再整列したデジタル画像は、描写される実際のシーンにより合致したシーンの向上した表現を提供することができる。
デジタル画像を受信するステップは、デジタル画像を取り込むことを含むことができ、第1および第2のデジタル画像を同時に取り込むことができる。
それにより、第1および第2のデジタル画像はそれぞれ、同じ時点におけるシーンを描写する。したがって、移動オブジェクト(例えば、乗り物)は、実際のシーン内の同じ位置において第1および第2のデジタル画像内で描写することができる。これは、次に、デジタル画像間の改善された整列を可能にすることができる。
デジタル画像を受信するステップは、第1の画像センサを使用して第1のデジタル画像を取り込むこと、および、第2の画像センサを使用して第2のデジタル画像を取り込むことを含むことができる。
2つの画像センサを使用して第1および第2のデジタル画像を取り込むことによって、シーンのより多くの部分を、デジタル画像によって描写することができる。
変換は、第1および第2の画像センサの間の相対距離および/または第1および第2の画像センサの相対配向に基づくとすることができる。
それにより、デジタル画像を整列させるときに必要とされる計算資源のレベルを低減することができる、デジタル画像を整列させるための良好開始ポイントを提供することができる。
変換はホモグラフィ(homography)であるとすることができる。
ホモグラフィは、デジタル画像を整列させることに関連する計算資源のレベルを低減することができる、デジタル画像の良好な整列を提供することができる。デジタル画像を整列させるときに必要とされる計算資源のレベルをさらに低減することができるホモグラフィを予め決定することができることをさらに理解することができる。
第1の方向は水平方向に平行であるとすることができ、第2の方向は垂直方向に平行であるとすることができる。したがって、水平方向(例えば、シーン内の水平線)に沿って伸長する特徴部の位置ずれを、それにより、識別し、その後、補償することができる。
デジタル画像は、シーンの第3の領域を描写する第3のデジタル画像をさらに含むことができ、第1および第3の領域は、オーバーラップすることができ、第1の方向に沿って変位することができ;デジタル画像を整列させるステップ後に、第1および第3のデジタル画像はオーバーラップすることができ;視差値は、第1および第3のデジタル画像の間のさらなるオーバーラップについてさらに決定することができ、さらなるオーバーラップについての各視差値は、第1のデジタル画像内のピクセルのブロックと、第2または第3のデジタル画像内のピクセルの整合ブロックとの間の第2の方向に沿う相対変位を示すことができ;変換は、第1のデジタル画像内の識別されたブロックおよび第3のデジタル画像内のピクセルのそれらの整合ブロックについてさらに調整することができる。デジタル画像を受信するステップは、第3の画像センサを使用して第3の画像を取り込むことを含むことができる。
デジタル画像間の位置ずれを識別するときに2つ以上のオーバーラップを使用することによって、位置ずれを不正に識別するリスクを低減することができる。例えば、1つのオーバーラップ内の行/列についての視差分布は、位置ずれとして(不正に)識別することができる平均および変動性を、単独で示すことができ、さらなるオーバーラップを含むとき、行/列についての視差分布(ここでは、オーバーラップとさらなるオーバーラップの両方についての視差値を含む)は、位置ずれでないとして(正しく)識別することができる平均および変動性を示す。換言すれば、位置ずれが識別されるために、位置ずれは、オーバーラップとさらなるオーバーラップの両方において存在する必要があるとすることができる。それにより、位置ずれの識別を、改善することができ、次に、再整列したデジタル画像によって描写されるシーンが、実際のシーンにより合致することを可能にすることができる。
第3のデジタル画像をさらに含むデジタル画像によって、シーンの多くの部分を描写することができることをさらに理解することができる。
第2の態様によれば、デジタルカメラが提供される。デジタルカメラは、シーンの第1の領域を描写する第1のデジタル画像およびシーンの第2の領域を描写する第2のデジタル画像を含むデジタル画像を取り込むように構成される少なくとも1つの画像センサであって、シーンの第1および第2の領域は、第1の方向に沿ってオーバーラップし変位する、少なくとも1つの画像センサと、回路とを備え、回路は、第1および第2のデジタル画像がオーバーラップを有するように、変換を使用してデジタル画像を整列させるように構成される整列関数、第1および第2のデジタル画像の間のオーバーラップについての視差値を決定するように構成される視差関数であって、オーバーラップについての各視差値は、第1のデジタル画像内のピクセルのブロックと、第2のデジタル画像内のピクセルの整合ブロックとの間の、第1の方向に垂直である第2の方向に沿う相対変位を示す、視差関数、第1のデジタル画像内のピクセルのブロックであって、第2の方向に沿って同じ位置を有し、第1の所定の閾値より低い変動性を示しかつ第2の所定の閾値より大きい平均を示す視差値の分布を有する、第1のデジタル画像内のピクセルのブロックを識別することによって、デジタル画像間の位置ずれを識別するように構成される位置ずれ関数、第1のデジタル画像内のピクセルの識別されたブロックおよび第2のデジタル画像内のピクセルのそれらの整合ブロックについて変換を調整するように構成される調整関数、および、識別された位置ずれを補償するために、調整された変換を使用してデジタル画像を再整列させるように構成される再整列関数を実行するように構成される。
第1の態様の上記で述べた特徴は、適用可能である場合、この第2の態様にも適用される。不当な反復を回避するために、参照が上記に対して行われる。
回路は、再整列したデジタル画像をスティッチングするように構成されるスティッチング関数であって、それにより、スティッチングされたデジタル画像を形成する、スティッチング関数を実行するようにさらに構成することができる。
整列関数は、共通投影表面上にデジタル画像を投影するようにさらに構成することができ、調整関数は、第1のデジタル画像内のピクセルの識別されたブロックおよび第2のデジタル画像内のピクセルのそれらの整合ブロックについて投影距離を局所的に調整するようにさらに構成することができる。
少なくとも1つの画像センサは、第1のデジタル画像を取り込むように構成される第1の画像センサおよび第2のデジタル画像を取り込むように構成される第2の画像センサを備えることができる。
第3の態様によれば、非一時的コンピュータ可読記憶媒体が提供される。非一時的コンピュータ可読記憶媒体は、プログラムコード部分を含み、プログラムコード部分は、処理能力を有するデバイス上で実行されると、第1の態様による方法を実施する。
第1の態様および第2の態様の上記で述べた特徴は、適用可能である場合、この第3の態様にも適用される。不当な反復を回避するために、参照が上記に対して行われる。
本開示の適用性のさらなる範囲は、以下で示す詳細な説明から明らかになるであろう。しかしながら、本発明の概念の範囲内の種々の変更および修正が、この詳細な説明から当業者に明らかになるため、詳細な説明および特定の例が、本発明の概念の好ましい変形を示しながら、例証としてのみ示されることが理解されるべきである。
したがって、本発明の概念が、述べる方法の特定のステップおよび述べるシステムの特定のコンポーネント部品に限定されず、なぜならば、そのような方法およびシステムが変動する場合があるからであることが理解される。本明細書で使用される用語が特定の実施形態を述べるためのものに過ぎず、制限的であることを意図されないことも理解される。本明細書および添付特許請求の範囲で使用するとき、冠詞「1つの(a)」、「1つの(an)」、「その(the)」、および「前記(said)」が、別段に文脈が明確に指示しない限り、要素の1つまたは複数が存在することを意味することを意図されることが留意されなければならない。そのため、例えば、「1つのユニット(a unit)」または「そのユニット(the unit)」に対する参照は、幾つかのデバイスおよび同様なものを含むことができる。さらに、語「備えている(comprising)」、「含んでいる(including)」、「含んでいる(containing)」、および同様な語は、他の要素またはステップを排除しない。
本発明の概念の上記のおよび他の態様は、ここで、本発明の変形を示す添付図面を参照してより詳細に述べられる。図は、本発明を特定の変形に限定すると考えられるべきでない;代わりに、図は、本発明の概念を説明し理解するために使用される。
図に示すように、層および領域のサイズは、例証のために誇張され、したがって、本発明の概念の変形の全体的な構造を示すために提供される。同様の参照符号は全体と通して同様の要素を指す。
デジタルカメラがシーンを描写する例のシナリオを示す図である。 図1のデジタルカメラによって取り込まれるシーンの第1および第2のデジタル画像を示す図である。 両方の画像が変換を使用して整列したときの、図2Aの第1および第2のデジタル画像を示す図である。 両方の画像が、調整された変換を使用して再整列したときの、図2Bの第1および第2のデジタル画像を示す図である。 デジタル画像を整列させるための方法のフローチャートである。
本発明は、ここで、現在のところ好ましい本発明の概念の変形が示される添付図面を参照して以降でより完全に述べられるであろう。しかしながら、本発明の概念は、多くの異なる形態で具現化することができ、本明細書で述べる変形に限定されるものと解釈されるべきでない;むしろ、これらの変形は、徹底さおよび完全さ(thoroughness and completeness)のために、また、本発明の概念の範囲を当業者に完全に伝えるために提供される。
以下において、デジタル画像を整列させるための方法30が、図1および図2A~2Cに示す例のシナリオならびに図3に示すフローチャートを参照して述べられる。図1において、デジタルカメラ10は、シーン20のパノラマ画像を生成するために配置される。図1のデジタルカメラ10は、第1の画像センサ104aおよび第2の画像センサ104bを備える。本発明の概念が、単一画像センサまたは3つ以上の画像センサを備えるデジタルカメラに適用することができ、ただし、デジタルカメラが、第1の方向に沿って(例えば、水平方向に沿って)変位する少なくとも2つのデジタル画像を取り込むことができる場合に限る(provided that)ことが理解される。これは、例えば、シーンの異なる領域を描写するように構成される2つ以上の画像センサを備えるカメラを使用することによって達成することができる。代替的に、シーンの異なる領域を描写するように構成される単一画像センサを備えるカメラを使用することができる。そのようなカメラは、例えば、それ自身の軸の周りに回転する、および/または、単一画像センサ上にシーンの異なる部分を結像するように構成される結像光学部品(imaging optics)(例えば、カメラレンズ)を備えることができる。本発明の概念がデジタルカメラを参照して述べられることになる場合でも、デジタルカメラを、結像能力なしのデバイス、例えば、コンピュータにおいて実装することができることがさらに理解される。そのような場合、コンピュータは、異なるデバイス、例えば、カメラおよび/またはコンピュータ可読記憶デバイスからデジタル画像を受信するS300ことができる。
ここで、デジタルカメラ10およびデジタルカメラ10によって描写されるシーン20を示す図1を参照する。図1に示すシーン20は、第1の建物210、第2の建物220、および壁230を含む。第1の建物210および第2の建物220は、デジタルカメラ10から方向Zに沿って壁230より遠い距離に位置決めされる。図1に示すシーン20は、座標系であって、カメラ10の位置が座標系の原点に対応することができる、座標系によって示すことができる。第1および第2の画像センサ102a、102bはそれぞれ、座標系の原点に対するそれぞれの位置に対応することができるシーン20内の位置を有する。さらに、第1の建物210、第2の建物220、および壁230はそれぞれ、座標系の原点に対するそれぞれの位置に対応することができるシーン20内の位置を有する。
図1に示すように、第1のカメラレンズ104aは、第1の画像センサ102a上にシーン20の第1の領域200aを結像するように構成され、第2のカメラレンズ104bは、第2の画像センサ102b上にシーン20の第2の領域200bを結像するように構成される。この例において、第1および第2の画像センサ102a、102bは、異なる方向からシーン20を描写し、したがって、第1および第2の領域200a、200bは、水平方向Xに沿って変位する。水平方向Xは距離Zに垂直であるとすることができる。図1にさらに見ることができるように、第1の画像センサ102aに関連する視野(FOV:field-of-view)は、第2の画像センサ102bに関連するFOVに部分的にオーバーラップし、したがって、第1の領域200aおよび第2の領域200bは、オーバーラップ部分202を有する。第1の画像センサ102aは、シーン20の第1の領域200aを描写する第1のデジタル画像40aを取り込むS320ように構成され、第2の画像センサ102bは、シーン20の第2の領域200bを描写する第2のデジタル画像40bを取り込むS322ように構成される。第1および第2の画像センサ102a、102bは、デジタル画像を同時に取り込むS318ように構成することができる。図1に示すように、デジタルカメラ10は回路110をさらに備えることができる。回路110は、デジタルカメラ10の1つまたは複数の関数を制御するように構成される。回路110は非一時的コンピュータ可読記憶媒体112を備えることができる。回路110は処理能力114(例えば、処理ユニット)を備えることができる。非一時的コンピュータ可読記憶媒体112は、プログラムコード部分を記憶するように構成することができ、プログラムコード部分は、回路によって実行されると、デジタルカメラ10の1つまたは複数の関数を実施する。特に、非一時的コンピュータ可読記憶媒体112は、この例において後に述べることになる1つまたは複数の関数を記憶することができる。デジタルカメラ10の関数の1つまたは複数は、ハードウェアおよび/またはソフトウェアで実装することができる。非一時的コンピュータ可読記憶媒体112は、デジタルカメラ10によって取り込まれるデジタル画像および/または回路110によって実行される任意の関数の結果を記憶するようにさらに構成することができる。回路110はデータバス(図示せず)をさらに備えることができる。回路110は、データバスを介して内部で通信するように構成することができる。回路110は、データバスを介して、第1の画像センサ102a、第2の画像センサ102b、第1のカメラレンズ104a、および第2のカメラレンズ104bの1つまたは複数と通信するようにさらに構成することができる。
カメラ10によって取り込まれるシーン10の第1および第2のデジタル画像40a、40bは図2Aに示される。第1のデジタル画像40aにおいて、第1の建物210の部分および壁230が見える。第2のデジタル画像40bにおいて、第1の建物210の部分、第2の建物220、および壁230が見える。第1および第2のデジタル画像40a、40bは、異なる方向からシーン20を撮像するため、歪んで見える(例えば、水平線が傾斜して見える)。シーン20のパノラマ画像は、第1のデジタル画像40aと第2のデジタル画像40bをスティッチングすることによって生成することができる。実際のシーン20により合致したパノラマ画像を生成するために、第1および第2のデジタル画像40a、40bは、変換を使用して整列されるS302。この例の場合のように、変換は、第1および第2の画像センサ102a、102bの間の相対距離に基づくとすることができる。変換は、第1および第2の画像センサ102a、102bの相対配向にさらに基づくとすることができる。第1および第2の画像センサ102a、102bの相対位置および相対配向を知ることによって、第1および第2のデジタル画像40a、40bが互いにどのように関連するかを決定することが可能であるとすることができる。例えば、第1および第2のデジタル画像40a、40bが、デジタルカメラ10からの(座標系内の)或る距離においてどの程度オーバーラップするか決定することが可能であるとすることができる。整列は、回路110が実行するように構成される整列関数120によって実装される。
図2Bは、変換を使用して整列されるときの、第1および第2のデジタル画像40a、40bを示す。図2Bに示すように、第1および第2のデジタル画像40a、40bはオーバーラップし、このオーバーラップ402は、シーン20の第1および第2の領域200a、200bの間のオーバーラップ202に対応する。この特定の例において、変換は、デジタル画像40a、40bが変換を使用して整列されるときに、第1および第2の建物210、220が無歪状態で見えるように構成される。そのような変換は、デジタル画像40a、40bを共通投影表面上に投影することを含むことができる。共通投影表面は、上記で述べた座標系内に位置決めされた算術的平面であるとすることができ、その平面上にデジタル画像40a、40bが投影される。共通投影表面は、図2Bの例に示される平坦表面であるとすることができる。しかしながら、共通投影表面が異なる形状を有することができ、共通投影表面が、例えば、円柱表面または球表面であるとすることができることを当業者は認識する。当技術分野で知られているように、使用することができる多数の異なる投影表面が存在し、どの投影表面が選択されるかを、画像センサ102a、102bの位置および/または方向ならびにそれらの関連するFOVによって決定することができる。共通投影表面は、カメラ10とシーン20内の第1および第2の建物210、220との間のZに沿う距離に対応する距離であって、Zに沿うこの距離において、整列したデジタル画像500における位置ずれ(例えば、視差効果による)が、少なくとも減少するかまたは好ましくは最小になる、距離に座標系内で位置決めすることができる。座標系内の共通投影表面の位置は、例えば、デジタルカメラ10の設置中に手動で設定する、および/または、カメラ10の使用中に動的に設定することができる。座標系内の共通投影表面の位置を、カメラ10のユーザーが設定する、および/または、カメラ10内にハードコーディングすることができる。回路110は、解析関数を実行するようにさらに構成することができる。解析関数は、シーン20内のオブジェクトおよびカメラ10と検出されるオブジェクトとの間の距離を検出するように構成することができ、整列関数120は、座標系内の原点(すなわち、カメラ10に対応する座標系内の位置)と座標系内の共通投影表面との間の距離が、カメラ10とシーン20内の検出されるオブジェクトとの間のZに沿う距離に対応するように、座標系内の共通投影表面の位置を設定するように構成することができる。変換は、例えば、ホモグラフィであるとすることができる。ホモグラフィは、第1のデジタル画像40a内のピクセルのブロックの位置と、第2のデジタル画像40b内のピクセルの整合ブロックの位置との間の関係の情報(例えば、ベクトル場)を含むことができる。しかしながら、壁230が、共通投影表面に比べてカメラ10からZに沿う短い距離になるため、壁230の部分232は、第1のデジタル画像40aと第2のデジタル画像40bとの間のオーバーラップ402内で(例えば、視差によって)位置ずれする。
位置ずれを識別するS306ために、第1のデジタル画像40aと第2のデジタル画像40bとの間のオーバーラップ402に対応する視差値が決定されるS304。図2Bに示す例において、位置ずれは、位置ずれした水平線(すなわち。壁230の部分232の水平特徴部)である。オーバーラップ402についての各視差値は、第1のデジタル画像40a内のピクセルのブロックの位置と、第2のデジタル画像40b内のピクセルの整合ブロックの位置との間の第2の方向Yに沿う相対変位を示す。オーバーラップ402についての視差値は、当技術分野で知られている技法のうちの1つの技法を使用して決定することができる。オーバーラップ402についての視差値は、第1のデジタル画像40a内のピクセルのブロックを第2のデジタル画像40b内のピクセルのブロックと比較することによって決定することができる。例えば、第1のデジタル画像40a内のピクセルのブロックについての最良一致である、第2の方向Yに沿う第2のデジタル画像40b内のピクセルのブロック(すなわち、第2のデジタル画像40b内で第1の方向Xに沿って、第1のデジタル画像40a内のピクセルのブロックと同じ位置を有する)を決定することができる。ピクセルの2つのブロックの比較は、ブロック内のピクセル値間の差分絶対値の和(SAD:sum of absolute difference)を計算することを含むことができる。ピクセルの最良一致ブロックは、最も小さいSADに関連するピクセルのブロックであるとすることができる。視差値は、その後、第1のデジタル画像40aに対するピクセルのブロックの第2の方向Yに沿う位置と、第2のデジタル画像40bに対するピクセルの整合ブロックの第2の方向Yに沿う位置との差として決定することができる。例えば、図2Bに示すオーバーラップ402に見られるように、第1の建物210に関連する特徴部は、第2の方向Yに沿って小さい(またはさらに非存在の)変位を有する。第1の建物210の特定の特徴部に対応する第1のデジタル画像40aに対するピクセルのブロックおよび第2のデジタル画像40b内のピクセルの整合ブロック(すなわち、第1の建物210の同じ特定の特徴部に対応する)は、第2の方向Yに沿って小さい(またはさらに非存在の)程度に変位し、したがって、関連する視差値は小さい。しかしながら、図2Bに見られるように、壁230に関連する特徴部232は、第2の方向Yに沿ってより大きい変位を有する。壁230の特定の特徴部に対応する第1のデジタル画像40a内のピクセルのブロックおよび第2のデジタル画像40b内のピクセルの整合ブロック(すなわち、壁230の同じ特定の特徴部に対応する)は、第2の方向Yに沿って大きい程度に変位し、したがって、関連する視差値は大きい。視差値は、例えば、第1のデジタル画像40aと第2のデジタル画像40bとの間で第2の方向Yに沿って特徴部が変位するピクセルの数またはピクセルのブロックであるとすることができる。第1および第2のデジタル画像40a、40bの間のオーバーラップ402についての視差値は、視差行列によって示すことができる。視差行列の各要素は、視差行列内の行列要素の位置に対応する第1のデジタル画像40a内の位置について決定された視差値であるとすることができる。視差値の決定は、回路110が実行するように構成される視差関数122によって実装される。
第1および第2のデジタル画像40a、40bの間の位置ずれは、第1のデジタル画像40a内のピクセルのブロックであって、第2の方向Yに沿って同じ位置を有し、第1の所定の閾値より低い変動性を示しかつ第2の所定の閾値より大きい平均を示す視差値の分布を有する、第1のデジタル画像40a内のピクセルのブロックを識別するS308ことによって、識別されるS306。この例において、第2の方向Yに沿って同じ位置を有する第1のデジタル画像40a内のピクセルのブロックは、第1のデジタル画像40a内のピクセルのブロックの行である。第1のデジタル画像40a内の行について、関連する視差値が分配され、これらの視差値の平均および変動性(例えば、標準偏差等)を決定することができる。第1のデジタル画像40a内の行は、変動性が第1の所定値より低くかつ平均が第2の所定値より大きい場合、位置ずれとして識別される。例えば、位置ずれを、平均と変動性との間の比が第3の所定値より大きい場合に識別することができる。換言すれば、第1のデジタル画像40a内の行は、関連する視差値が、比較的高く、第1および第2の所定の閾値と比較して比較的低い程度に変動する場合に位置ずれとして識別される。位置ずれした線の場合、図2Bの例に示すように、視差値は、典型的には、大きく、低い変動性を示すことになる。こうして、第1および第2のデジタル画像40a、40bの間のオーバーラップ402内の位置ずれを識別することが可能であるとすることができる。さらに、オーバーラップ402内の位置ずれを、カメラ10からの所定の最大距離より短い距離ついて識別することができるだけである。位置ずれの識別は、回路110が実行するように構成される位置ずれ関数124によって実装される。この特定の場合、壁230の部分232に対応する第1のデジタル画像40aの行は、位置ずれとして識別される。
変換は、識別された位置ずれに関連するピクセルのブロック(すなわち、第1のデジタル画像40a内のピクセルの識別されたブロックおよび第2のデジタル画像40b内のピクセルのそれらの整合ブロック)について調整されるS310。ピクセルの識別されたブロックについての変換は、ピクセルのそれらのブロックに関連する視差値に基づいて調整することができる。例えば、変換は、第1のデジタル画像40a内のピクセルの識別されたブロックおよび第2のデジタル画像内のピクセルのそれらの整合ブロックについて投影距離を局所的に調整するS316ことによって調整することができる。上記で論じたように、視差効果が、共通投影表面までの距離によって、影響を受ける、特に、減少する場合がある。こうして、ピクセルのそれらのブロックについての第2の方向に沿う相対変位が減少する(すなわち、第1および第2のデジタル画像40a、40bの間の位置ずれを減少させる)ことができる。変換の調整は、第1のデジタル画像40a内のピクセルの識別されたブロックに関連する平均視差値に基づくとすることができ、それにより、高い平均視差値についての調整は、低い平均視差値の場合より比較的大きい。平均視差値に基づく変換の調整は、例えば、ルックアップテーブルによって予め決定することができる。ルックアップテーブは、平均視差値を変換の調整と関連付ける情報を含むことができる。例えば、ルックアップテーブルは、平均視差値を、共通投影表面が調整されるべきである距離と関連付ける情報を含むことができる。代替的にまたは付加的に、変換は反復的に調整することができ、各反復について、更新された視差値を決定することができる。変換は、更新された視差値の平均が所定の閾値範囲内に入るまで反復的に調整することができる。変換がホモグラフィである場合、変換の調整は、識別された位置ずれに関連するピクセルのブロックについて、変換を記述するベクトル場を調整することを含むことができる。ベクトル場が調整される程度は、第1のデジタル画像40a内のピクセルの識別されたブロックに関連する平均視差値に基づくとすることができ、それにより、高い平均視差値についての調整は、低い平均視差値の場合より比較的大きい。平均視差値に基づくベクトル場の調整は、例えば、ルックアップテーブルによって予め決定することができる。ルックアップテーブは、平均視差値をベクトル場の調整と関連付ける情報を含むことができる。代替的にまたは付加的に、ベクトル場は反復的に調整することができ、各反復について、更新された視差値を決定することができる。ベクトル場は、更新された視差値の平均が所定の閾値範囲内に入るまで反復的に調整することができる。変換の調整は、回路110が実行するように構成される調整関数126によって実装される。第1および第2のデジタル画像40a、40bは、識別された位置ずれを補償するために、調整された変換を使用して再整列されるS312。再整列は、回路110が実行するように構成される再整列関数128によって実装される。
図2Cは、調整された変換を使用して再整列された後の、図2Bの第1および第2のデジタル画像40a、40bを示す。図2Cに見られるように、位置ずれは、再整列したデジタル画像600内で補償されており、実際のシーン20により合致する結合式デジタル画像を可能にする。特に、オーバーラップ402内の壁230の部分232は、図2Bに示す整列したデジタル画像500と比較して、図2Cの再整列したデジタル画像600の場合、第2の方向Yに沿って低い程度に変位する。図2Cに示す再整列したデジタル画像600を、スティッチングするS314ことができ、それにより、スティッチングされた画像を形成する。スティッチングは、回路110が実行するように構成されるスティッチング関数130によって実装される。スティッチングされた画像は、非一時的コンピュータ可読記憶媒体112上に記憶することができる。
位置ずれの識別は、3つ以上のデジタル画像が使用される場合にさらに向上することができることを理解することができる。例えば、シーン20の第3の領域を描写する第3のデジタル画像を(例えば、第3の画像センサを備えるカメラによって)取り込むS324ことができ、第3の領域は、第1の領域200aとオーバーラップすることができ、水平方向Xに沿って変位することができる。デジタル画像を整列させた後、第1および第3のデジタル画像がオーバーラップすることができ、視差値を、第1および第3のデジタル画像の間のさらなるオーバーラップについてさらに決定することができる。さらなるオーバーラップについての各視差値は、第1のデジタル画像内のピクセルのブロックと第2または第3のデジタル画像内のピクセルの整合ブロックとの間の第2の方向Yに沿う相対変位を示すことができ、第1のデジタル画像内の識別されたブロックおよび第3のデジタル画像内のピクセルのそれらの整合ブロックについて、変換をさらに調整することができる。この場合、例えば、第1のデジタル画像40a内の行に沿う位置ずれに関連するより多くのデータ(すなわち、視差値)が利用可能であるとすることができ、それが、位置ずれの改善された識別を可能にすることができることが認識される。特定の例として、第1のデジタル画像内の行であって、行が位置ずれしていることを、第1および第2のデジタル画像の間のオーバーラップについての関連する視差値の分布の平均および変動性が不正に示す、第1のデジタル画像内の行を考える。第3のデジタル画像を含むことによって、第1および第2のデジタル画像の間のオーバーラップについての、ならびに、第1および第3のデジタル画像の間のさらなるオーバーラップについての関連する視差値の分布の平均および変動性は、行が実際に整列していることを正しく示すことができる。
当業者は、本発明の概念が、上述した好ましい変形に決して限定されないことを認識する。逆に、多くの修正および変形が、添付特許請求項の範囲内で可能である。
例えば、本発明の概念は、水平方向に沿って変位する2つのデジタル画像を参照して述べられた。しかしながら、当業者は、本発明の概念が、デジタルカメラの他の構成に適合することができることを認識し、また、どのように適合することができるかを理解する。例えば、デジタル画像は、垂直方向、または、垂直方向と水平方向の組み合わせの方向に沿って変位することができる。
さらに、方法のステップは、特定の順序で実施されるように述べられる。しかしながら、特定のステップが述べた順序と異なる順序で実施することができることが理解される。特定のステップの1つまたは複数は、同時にさらに実施することができる。
さらに、図面、本開示、および添付特許請求の範囲の調査によって、開示する変形に対する変形を、特許請求される本発明を実施するときに当業者が理解し実施することができる。

Claims (15)

  1. デジタル画像(40a、40b)を整列させるためのコンピュータ実装式方法(30)であって、
    シーン(20)の第1の領域(200a)を描写する第1のデジタル画像(40a)および前記シーン(20)の第2の領域(200b)を描写する第2のデジタル画像(40b)を含むデジタル画像(40a、40b)を受信する(S300)ことであって、前記第1および前記第2の領域(200a、200b)は、第1の方向(X)に沿ってオーバーラップし変位する、デジタル画像(40a、40b)を受信する(S300)こと、
    変換を使用して前記デジタル画像(40a、40b)を整列させる(S302)ことであって、前記第1および前記第2のデジタル画像(40a、40b)はオーバーラップする、前記デジタル画像(40a、40b)を整列させる(S302)こと、
    前記第1および前記第2のデジタル画像(40a、40b)の間のオーバーラップ(402)についての視差値を決定する(S304)ことであって、前記オーバーラップ(402)についての各視差値は、前記第1のデジタル画像(40a)内のピクセルのブロックと、前記第2のデジタル画像(40b)内のピクセルの整合ブロックとの間の、第1の方向(X)に垂直である第2の方向(Y)に沿う相対変位を示す、視差値を決定する(S304)こと、
    前記第1のデジタル画像(40a)内のピクセルのブロックであって、前記第2の方向(Y)に沿って同じ位置を有し、第1の所定の閾値より低い変動性を示しかつ第2の所定の閾値より大きい平均を示す視差値の分布を有する、前記第1のデジタル画像(40a)内のピクセルのブロックを識別する(S308)ことによって、前記デジタル画像(40a、40b)間の位置ずれを識別する(S306)こと、
    前記第1のデジタル画像(40a)内のピクセルの識別された前記ブロックおよび前記第2のデジタル画像(40b)内のピクセルの前記整合ブロックについて前記変換を調整する(S310)こと、および、
    識別された前記位置ずれを補償するために、調整された前記変換を使用して前記デジタル画像(40a、40b)を再整列させる(S312)こと
    を含む、方法(30)。
  2. 再整列した前記デジタル画像(600)をスティッチングし(S314)、それにより、スティッチングされたデジタル画像を形成することをさらに含む、請求項1に記載の方法(30)。
  3. 前記第1のデジタル画像(40a)内のピクセルの識別された前記ブロックおよび前記第2のデジタル画像(40b)内のピクセルの前記整合ブロックについて、前記変換は、ピクセルの前記ブロックに関連する前記視差値に基づいて調整される、請求項1または2に記載の方法(30)。
  4. 前記変換は、或る投影距離における共通投影表面上への前記デジタル画像(40a、40b)の投影を含み、
    前記変換を調整する(S310)ステップは、前記第1のデジタル画像(40a)内のピクセルの識別された前記ブロックおよび前記第2のデジタル画像(40b)内のピクセルの前記整合ブロックについて前記投影距離を局所的に調整し(S316)、それにより、前記デジタル画像を再整列させるステップ後に、ピクセルの前記ブロックについて前記第2の方向(Y)に沿って前記相対変位を低減することを含む、請求項1から3のいずれか一項に記載の方法(30)。
  5. 前記デジタル画像(40a、40b)を受信する(S300)ステップは、前記デジタル画像(40a、40b)を取り込む(S318)ことを含み、前記第1および第2のデジタル画像(40a、40b)は同時に取り込まれる、請求項1から4のいずれか一項に記載の方法(30)。
  6. 前記デジタル画像(40a、40b)を受信する(S300)ステップは、
    第1の画像センサ(102a)を使用して前記第1のデジタル画像(40a)を取り込む(S320)こと、および、
    第2の画像センサ(102b)を使用して前記第2のデジタル画像(40b)を取り込む(S322)こと
    を含む、請求項1から5のいずれか一項に記載の方法(30)。
  7. 前記変換は、前記第1および第2の画像センサ(102a、102b)の間の相対距離および/または前記第1および第2の画像センサ(102a、102b)の相対配向に基づく、請求項6に記載の方法(30)。
  8. 前記変換はホモグラフィである、請求項1から7のいずれか一項に記載の方法(30)。
  9. 前記第1の方向(X)は水平方向に平行であり、前記第2の方向(Y)は垂直方向に平行である、請求項1から8のいずれか一項に記載の方法(30)。
  10. 前記デジタル画像(40a、40b)は、前記シーン(20)の第3の領域を描写する第3のデジタル画像をさらに含み、前記第1および第3の領域は、オーバーラップし、前記第1の方向(X)に沿って変位し、
    前記デジタル画像(40a、40b)を整列させる(S302)ステップ後に、前記第1および第3のデジタル画像はオーバーラップし、
    前記視差値は、前記第1および第3のデジタル画像の間のさらなるオーバーラップについてさらに決定され、前記さらなるオーバーラップについての各視差値は、前記第1のデジタル画像内のピクセルのブロックと、前記第2または第3のデジタル画像内のピクセルの整合ブロックとの間の前記第2の方向(Y)に沿う相対変位を示し、
    前記変換は、前記第1のデジタル画像内の識別された前記ブロックおよび前記第3のデジタル画像内のピクセルの前記整合ブロックについてさらに調整される、請求項1から9のいずれか一項に記載の方法(30)。
  11. デジタルカメラ(10)であって、
    シーン(20)の第1の領域(200a)を描写する第1のデジタル画像(40a)および前記シーン(20)の第2の領域(200b)を描写する第2のデジタル画像(40b)を含むデジタル画像(40a、40b)を取り込むように構成される少なくとも1つの画像センサ(102a、102b)であって、前記シーン(20)の前記第1および前記第2の領域(200a、200b)は、第1の方向(X)に沿ってオーバーラップし(202)変位する、少なくとも1つの画像センサ(102a、102b)と、
    回路(110)と
    を備え、前記回路は、
    前記第1および前記第2のデジタル画像(40a、40b)がオーバーラップ(402)を有するように、変換を使用して前記デジタル画像(40a、40b)を整列させるように構成される整列関数(120)、
    前記第1および前記第2のデジタル画像(40a、40b)の間のオーバーラップ(402)についての視差値を決定するように構成される視差関数(122)であって、前記オーバーラップ(402)についての各視差値は、前記第1のデジタル画像(40a)内のピクセルのブロックと、前記第2のデジタル画像(40b)内のピクセルの整合ブロックとの間の、前記第1の方向(X)に垂直である第2の方向(Y)に沿う相対変位を示す、視差関数(122)、
    前記第1のデジタル画像(40a)内のピクセルのブロックであって、前記第2の方向(Y)に沿って同じ位置を有し、第1の所定の閾値より低い変動性を示しかつ第2の所定の閾値より大きい平均を示す視差値の分布を有する、前記第1のデジタル画像(40a)内のピクセルのブロックを識別することによって、前記デジタル画像(40a、40b)間の位置ずれを識別するように構成される位置ずれ関数(124)、
    前記第1のデジタル画像(40a)内のピクセルの識別された前記ブロックおよび前記第2のデジタル画像(40b)内のピクセルの前記整合ブロックについて前記変換を調整するように構成される調整関数(126)、および、
    識別された前記位置ずれを補償するために、調整された前記変換を使用して前記デジタル画像(40a、40b)を再整列させるように構成される再整列関数(128)
    を実行するように構成される、デジタルカメラ(10)。
  12. 前記回路(110)は、
    再整列した前記デジタル画像(600)をスティッチングするように構成される、スティッチング関数(130)であって、それにより、スティッチングされたデジタル画像を形成する、スティッチング関数(130)
    を実行するようにさらに構成される、請求項11に記載のデジタルカメラ(10)。
  13. 前記整列関数(120)は、共通投影表面上に前記デジタル画像(40a、40b)を投影するようにさらに構成され、
    前記調整関数(126)は、前記第1のデジタル画像(40a)内のピクセルの識別された前記ブロックおよび前記第2のデジタル画像(40b)内のピクセルの前記整合ブロックについて投影距離を局所的に調整するようにさらに構成され、それにより、前記デジタル画像の再整列後に、ピクセルの前記ブロックについて前記第2の方向(Y)に沿って前記相対変位を低減する、請求項11または12に記載のデジタルカメラ(10)。
  14. 前記少なくとも1つの画像センサ(102a、102b)は、前記第1のデジタル画像(40a)を取り込むように構成される第1の画像センサ(102a)および前記第2のデジタル画像(40b)を取り込むように構成される第2の画像センサ(102b)を備える、請求項11から13のいずれか一項に記載のデジタルカメラ(10)。
  15. プログラムコード部分を備える非一時的コンピュータ可読媒体であって、前記プログラムコード部分は、処理能力を有するデバイス上で実行されると、請求項1から10のいずれか一項に記載の方法(30)を前記デバイスに実施させる、非一時的コンピュータ可読媒体。
JP2021092110A 2020-06-09 2021-06-01 デジタル画像を整列させること Active JP7166390B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP20179049 2020-06-09
EP20179049.0A EP3923241B1 (en) 2020-06-09 2020-06-09 Aligning digital images

Publications (3)

Publication Number Publication Date
JP2022003769A JP2022003769A (ja) 2022-01-11
JP2022003769A5 JP2022003769A5 (ja) 2022-05-20
JP7166390B2 true JP7166390B2 (ja) 2022-11-07

Family

ID=71083420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021092110A Active JP7166390B2 (ja) 2020-06-09 2021-06-01 デジタル画像を整列させること

Country Status (6)

Country Link
US (1) US11610282B2 (ja)
EP (1) EP3923241B1 (ja)
JP (1) JP7166390B2 (ja)
KR (1) KR102414362B1 (ja)
CN (1) CN113781369B (ja)
TW (1) TWI800835B (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI787638B (zh) * 2020-07-30 2022-12-21 杰悉科技股份有限公司 影像物件追蹤方法
US20220058825A1 (en) * 2020-08-18 2022-02-24 Here Global B.V. Attention guidance for correspondence labeling in street view image pairs
CN116406461B (zh) * 2020-10-13 2023-10-20 弗莱瑞尔公司 通过自动分析传感器数据生成物理结构和环境的测量结果
WO2023206475A1 (zh) * 2022-04-29 2023-11-02 北京小米移动软件有限公司 图像处理方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017161491A (ja) 2015-07-29 2017-09-14 ヤマハ発動機株式会社 異常画像検出装置、異常画像検出装置を備えた画像処理システムおよび画像処理システムを搭載した車両
US20180262685A1 (en) 2015-11-23 2018-09-13 Gopro, Inc. Apparatus and methods for image alignment

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4341564B2 (ja) * 2005-02-25 2009-10-07 株式会社豊田中央研究所 対象物判定装置
KR20100138806A (ko) 2009-06-23 2010-12-31 삼성전자주식회사 자동 3차원 영상 포맷 변환 방법 및 그 장치
JP5387856B2 (ja) 2010-02-16 2014-01-15 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
CA2938159C (en) 2013-02-04 2021-07-27 Valorisation-Recherche, Limited Partnership Omnistereo imaging
US9900505B2 (en) 2014-07-23 2018-02-20 Disney Enterprises, Inc. Panoramic video from unstructured camera arrays with globally consistent parallax removal
US9973694B1 (en) 2014-08-21 2018-05-15 Jaunt Inc. Image stitching to form a three dimensional panoramic image
US10257494B2 (en) * 2014-09-22 2019-04-09 Samsung Electronics Co., Ltd. Reconstruction of three-dimensional video
JP6350374B2 (ja) * 2015-04-17 2018-07-04 トヨタ自動車株式会社 路面検出装置
KR101832189B1 (ko) 2015-07-29 2018-02-26 야마하하쓰도키 가부시키가이샤 이상화상 검출장치, 이상화상 검출장치를 구비한 화상 처리 시스템 및 화상 처리 시스템을 탑재한 차량
US10136116B2 (en) * 2016-03-07 2018-11-20 Ricoh Company, Ltd. Object segmentation from light field data
KR102236222B1 (ko) * 2016-08-24 2021-04-05 한국전자통신연구원 중첩영역의 제어점들을 이용한 시차 최소화 스티칭 장치 및 방법
US20180343431A1 (en) * 2017-05-24 2018-11-29 Nokia Technologies Oy Method and apparatus for disparity-based image adjustment of a seam in an image derived from multiple cameras
US11049218B2 (en) * 2017-08-11 2021-06-29 Samsung Electronics Company, Ltd. Seamless image stitching
EP3606032B1 (en) * 2018-07-30 2020-10-21 Axis AB Method and camera system combining views from plurality of cameras
US10964034B1 (en) * 2019-10-30 2021-03-30 Nvidia Corporation Vertical disparity detection in stereoscopic images from optical flow data

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017161491A (ja) 2015-07-29 2017-09-14 ヤマハ発動機株式会社 異常画像検出装置、異常画像検出装置を備えた画像処理システムおよび画像処理システムを搭載した車両
US20180262685A1 (en) 2015-11-23 2018-09-13 Gopro, Inc. Apparatus and methods for image alignment

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHIGANG ZHU et al.,An efficient method for geo-referenced video mosaicing for environmental monitoring,MACHINE VISION AND APPLICATIONS,vol.16, no.4,ドイツ,SPRINGER,2005年09月01日,pages 203-216

Also Published As

Publication number Publication date
KR102414362B1 (ko) 2022-06-28
TW202147253A (zh) 2021-12-16
CN113781369B (zh) 2022-11-25
CN113781369A (zh) 2021-12-10
JP2022003769A (ja) 2022-01-11
US11610282B2 (en) 2023-03-21
TWI800835B (zh) 2023-05-01
KR20210152950A (ko) 2021-12-16
EP3923241A1 (en) 2021-12-15
EP3923241B1 (en) 2022-04-06
US20210383501A1 (en) 2021-12-09

Similar Documents

Publication Publication Date Title
JP7166390B2 (ja) デジタル画像を整列させること
TWI253006B (en) Image processing system, projector, information storage medium, and image processing method
US11039121B2 (en) Calibration apparatus, chart for calibration, chart pattern generation apparatus, and calibration method
US7092015B1 (en) Apparatus and method for stereo matching and method of calculating an infinite distance corresponding point
US9946955B2 (en) Image registration method
CN110913188B (zh) 从减少的测试图案集合生成更新的摄像头-投影仪对应关系的设备和方法
CN112689135A (zh) 投影校正方法、装置、存储介质及电子设备
US20110149031A1 (en) Stereoscopic image, multi-view image, and depth image acquisition apparatus and control method thereof
WO2010061956A1 (en) Stereoscopic image processing device, method, recording medium and stereoscopic imaging apparatus
JP2005157921A (ja) 画像処理装置及び方法
US10628967B2 (en) Calibration for multi-camera systems
US9984444B2 (en) Apparatus for correcting image distortion of lens
JP3741136B2 (ja) 障害物適応投射型表示装置
TW202029056A (zh) 來自廣角影像的像差估計
TW202038185A (zh) 影像的修正方法及其裝置
US10726528B2 (en) Image processing apparatus and image processing method for image picked up by two cameras
JP2014176053A (ja) 画像信号処理装置
CN112419383B (zh) 一种深度图的生成方法、装置及存储介质
KR20220115223A (ko) 다중 카메라 캘리브레이션 방법 및 장치
CN111815512A (zh) 用于检测失真图像中的对象的方法、***和设备
EP2953096B1 (en) Information processing device, information processing method, system and carrier means
TWI812369B (zh) 控制方法、追蹤系統以及非暫態電腦可讀取媒體
WO2022044807A1 (ja) 情報処理装置および方法
US20160212395A1 (en) Method of determining an optimal point in three-dimensional space
JP2012015982A (ja) 映像間のシフト量の決定方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220512

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220512

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221025

R150 Certificate of patent or registration of utility model

Ref document number: 7166390

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150