JP6587626B2 - カメラシステムによって様々な位置で撮影された複数の個別画像を1つの共通の画像につなぎ合わせるための方法 - Google Patents

カメラシステムによって様々な位置で撮影された複数の個別画像を1つの共通の画像につなぎ合わせるための方法 Download PDF

Info

Publication number
JP6587626B2
JP6587626B2 JP2016551714A JP2016551714A JP6587626B2 JP 6587626 B2 JP6587626 B2 JP 6587626B2 JP 2016551714 A JP2016551714 A JP 2016551714A JP 2016551714 A JP2016551714 A JP 2016551714A JP 6587626 B2 JP6587626 B2 JP 6587626B2
Authority
JP
Japan
Prior art keywords
projection plane
camera
image
camera system
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016551714A
Other languages
English (en)
Other versions
JP2017512334A (ja
Inventor
リーペルト,ダーヴィト
カーノ,ラファエル
ハッカー,デニス
ガルシア,ホセ ドミンゴ エスパルザ
ガルシア,ホセ ドミンゴ エスパルザ
エスパルザ,マリア—ヘスス
エスパルザ,マリア―ヘスス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of JP2017512334A publication Critical patent/JP2017512334A/ja
Application granted granted Critical
Publication of JP6587626B2 publication Critical patent/JP6587626B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Geometry (AREA)
  • Studio Devices (AREA)

Description

本発明は、カメラシステムによって様々な位置から撮影された複数の個別画像を1つの共通の画像につなぎ合わせるための方法に関する。
このような方法は、例えばドライブアシストシステムに使用される。ドライブアシストシステムは、車両の移動中に車両の運転者を支援することを目指している。
このような支援は次のような形式で行われる。
運転者の視野内に存在しない障害物との衝突を避けるために、車両の近傍領域の周囲を運転者に表示し、車両の移動中に走行快適性を高めるために、運転者のいくつかのアクティビティを肩代わりし、運転者のアクティビティを監視して、危険な状況が発生した場合に介入し、かつ/または乗車している運転者の必要性なしに自動運転する。
本発明は、特に、構成された視界をサラウンドビューシステム内にマッピングすることを目指している。
複数のカメラを備えたシステムにおいて、複数のカメラ画像をつなぎ合わせることが困難な課題であることは明らかである。画像が様々な位置にあるセンサにより検出されるという事実によって、複数の画像は視野変化に基づいて異なるものになる。2つのセンサが互いに離れていればいるほど、視野変化は大きくなり、それによって2つの画像の相違は互いに大きくなる。
複数のカメラ画像をつなぎ合わせるための様々な方法は、複数の画像の1つの共通の視界を生成するために設計されている。これらの画像は、一般的な形式で、同時に作動する様々なセンサによって検出されるか、様々な位置において連続する時点で作動する個別のセンサによって検出される。
様々な視界の画像をつなぎ合わせるための最新の従来技術は間隔評価に基づいており、この間隔評価は、個別の画像間の相違が大きいことによる影響を修正するための手段を提供する。間隔評価は、画像データから直接的に行われるか、または別のセンサデータとの融合の結果であってよい(例えば超音波システム、ライダーシステムまたはレーダシステム)。
自動車の周囲を所定の視界で表示するための方法はドイツ連邦共和国特許公開第102011082881号明細書により公知である。ドイツ連邦共和国特許公開第102011082881号明細書では、自動車の周囲の第1の画像情報が車載カメラシステムの少なくとも1つの車載カメラによって検出される。この方法では、三次元情報、例えば奥行き情報または三次元座標が、撮影された第1の画像情報に関連して決定される。三次元情報を用いて、第1第2の画像情報が所望の視界に応じて変換される。最終的に、第2の画像情報に基づく所望の視界における自動車の周囲が表示される。
サラウンドビューシステムにおいては、それぞれ構成された視界は、画像に基づくレンダリング(IBR=image based rendering)によって生成され、この場合、想定された投影面にテクスチャを備えるために、実際の画像が使用される。この投影面は、典型的な形式で、様々なセンサによって供給可能な間隔情報に基づいて表される。
類似の複数の点が互いに近くで投影されることによって、間隔情報に基づく投影面の変形が2つの画像の相違を小さくすることは明らかである。
それにも拘わらず、この解決策の公知の問題点は、投影面をダイナミックに変化させる必要があり、それによってしばしば、視覚上の不都合な効果を引き起こす原因となる鋭いエッジが生ぜしめられる、という点にある。
カメラシステムによって様々な位置から撮影された複数の個別画像を1つの共通の画像につなぎ合わせるための本発明の方法は、第1の幾何学形状を有する第1の投影面および第2の幾何学形状を有する第2の投影面を提供し、この場合、第1の投影面の各点に、第2の投影面上の点が所属しており、個別画像内に表示された対象物の、カメラシステムに対する配置を表す位置情報を検出し、検出された位置情報に基づいて、第1の投影面の第1の幾何学形状を変形し、個別画像のテクスチャ情報を、変形された第1の投影面の面領域に割り当て、第1の投影面の点のテクスチャ情報を、第2の投影面の対応する所属の点に伝送し、第2の投影面の視界から共通の画像を生成することを含む。この場合、第1および第2の投影面は仮想の面である。
これは好適である。何故ならば、このような形式でつなぎ合った範囲における複数の画像の大きい相違が縮小されるからである。さらに、第2の投影面の最小限の幾何学的変化によって若しくは幾何学的変化が存在しないことによって、スムーズな視覚的効果が得られる。画像妨害信号は減少される。しかも、共通の画像の生成時の演算コストの低減が得られる。
従属請求項は、本発明の好適な実施態様を示す。
この場合、第1の投影面が複数の多角形または基本形より形成され、これらの多角形または基本形の位置がそれぞれ1つのベクトルまたは頂点によって規定されていれば、好適である。これによって、必要な演算出力を最小限にすることができる。さらに、これによって第1の投影面の幾何学的な分解能の簡単な適合を行うことができる。
さらに、個別画像が、カメラシステムの周囲内の1つの共通の領域を示すオーバラップ領域をマッピングするようになっていれば、好適である。このようなオーバラップ領域によって、2つの個別画像間の特にスムーズな視覚的移行が得られる。
同様に、位置情報が複数の個別画像と同時に検出されるようになっていれば、好適である。これによって、幾何学的なデータとグラフィックなデータとの間のずれは最小化され、それによって、このようなずれに基づいて発生する画像妨害信号は阻止される。
好適には、カメラシステムは車両のサラウンドビューシステムである。これは好適である。何故ならば、このような周辺状況内には、位置情報を検出するために必要なセンサがしばしば既に存在しているからである。
さらに、個別画像が、時間的にずらしてカメラシステムの同じカメラによって検出されるようになっていれば、好適である。これによって、必要なカメラの数は減少され、ひいてはさらなるコスト的な利点が得られる。
本発明による方法を実行するために設計された画像処理ユニットまたはコンピュータは、同様に好適である。このような画像処理ユニットまたはコンピュータは、本発明による方法のすべての利点を有している。さらに、これによって、既存のカメラシステムを簡単な形式で拡張することができるユニットが提供される。
また、コンピュータで読み込まれたときに、本発明による方法を実行するために適したプログラム部分を有しているコンピュータプログラム製品が好適である。このようなコンピュータプログラム製品によって、既存の画像処理ユニットを拡張するための簡単な方法が提供される。
本発明による方法を実行するために設計された画像処理ユニットを備えた車両を示す図である。 第1および第2の投影面を示す図である。 変形された第1の投影面を示す図である。 伝送されたテクスチャ情報を有する第2の投影面を示す図である。
本発明の実施例を、添付の図面を用いて以下に詳しく説明する。
図1は、本発明による方法を実行するために設計された画像処理ユニット2を備えた車両1を示す。
車両1は、カメラシステムを有するサラウンドビューシステムを装備している。カメラシステムは、車両1の全周囲を検出する4つのカメラ11〜14を有している。第1のカメラ11の光軸は車両の縦軸線に沿って前方に向けられており、第2のカメラ12の光軸は車両の縦軸線に沿って後方に向けられており、第3のカメラ13の光軸は車両の横軸線に沿って右方向に向けられており、第4のカメラ14の光軸は車両の横軸線に沿って左方向に向けられている。これらのカメラ11〜14によって、相応のカメラの視野内に存在する、車両の周囲のそれぞれの部分を表示する個別画像が検出される。隣接し合うカメラの視野はオーバラップしている。従って、例えば車両の前方右側の領域は、第1のカメラ11によっても、また第3のカメラ13によっても検出される。従って、カメラ11〜14のそれぞれ検出された個別画像によって、それぞれ隣接するカメラによっても検出される、カメラシステムの周囲内の領域を示すオーバラップ領域がマッピングされ、カメラ11〜14によって検出された個別画像は、それぞれ1つの画像データ配線を介して画像処理ユニット2に伝送される。
車両はさらに間隔センサ装置を装備している。この間隔センサ装置は、複数の超音波センサ20を有している。これらの超音波センサ20は、車両1の外側範囲に配置されていて、これらの超音波センサ20が全体で車両1の全周囲を検出し、それによって車両1の周囲内に存在する対象物30の位置情報を検出するように、それぞれ互いに間隔を保っている。カメラシステムおよびひいてはカメラ11〜14も、また間隔センサ装置およびひいては超音波センサ20も、それぞれ車両1の定置の位置に配置されているので、間隔センサ装置は、カメラシステムに対する対象物30の位置情報を検出することができる。超音波センサ20によって検出された位置情報は、それぞれ1つのデータ配線を介して画像処理ユニット2に伝送される。画像処理ユニット2は電子計算機である。
画像処理ユニット2によって、個別画像を1つの共通の画像につなぎ合わせるための方法が実行される。この場合、幾何学的に形成された投影面の2重のセットが使用され、この際に、一方の投影面はレンダリングされるのではなく、単に個別画像をつなぎ合わせるための補助として使用されるだけであることが、基本的な考え方である。この幾何学的に形成された補助的な投影面は、これらの投影面がこれらの投影面間に同数の頂点および結合部を有するように、可視的な投影面に1対1結合で結合される。
このために、第1段階でまず、第1の幾何学形状を有する第1の投影面G′および第2の幾何学形状を有する第2の投影面Gが準備される。第1の投影面G′も、また第2の投影面Gも、仮想の三次元空間内で、その幾何学構造の幾何学形状を例えばベクトルによって示すことができる。この場合、仮想の三次元空間は最も簡単なケースでは、車両周囲の実際に存在する空間のマップである。つまり、仮想の三次元空間内の各位置点に、車両周囲の実際に存在する空間内の位置点が割り当てられている、ということである。第1の投影面G′および第2の投影面Gは、例えばそれぞれ複数の多角形およびそれぞれ1つの所属の頂点によって規定されていてよい。
図2は、仮想の三次元空間内の第1の投影面G′および第2の投影面Gを示す。この場合、簡略化のために、第1の投影面G′および第2の投影面Gが設定されている仮想の三次元空間の二次元平面だけが示されている。第1の投影面G′は、複数の点P′〜P′より成っている。第2の投影面Gは、複数の点P〜Pより成っている。これらの点の数は、ここに記載された8つの点に限定されるものではなく、それぞれの要求に適合され得ることは自明である。第1の投影面G′の各点P′〜P′に、第2の投影面G上の点P〜Pが所属している。図面に示した例では、第1の投影面G′の点P′に、第2の投影面Gの点Pが割り当てられている。第1の投影面G′の点P′に、第2の投影面Gの点Pが割り当てられている。第1の投影面G′の点P′に、第2の投影面Gの点Pが割り当てられている。第1の投影面G′の点P′に、第2の投影面Gの点Pが割り当てられている、等々である。
この場合、第2の投影面の幾何学形状は、例えば第2の投影面の各点が、仮想のカメラの位置である仮想の三次元空間内の点から見ることができるように選定されている。この場合、仮想のカメラは、複数の個別画像からつなぎ合わされた共通の画像に相当する画像を検出するであろうカメラである。従って、第2の投影面は、仮想のカメラの位置を巡って例えば球面状に延在していてよく、この場合、仮想のカメラの位置は必ずしもこの球面の範囲の中央に位置していなくてもよい。別の例では、第2の投影面Gの幾何学形状は、もちろん異なって規定されてよい。従って、第2の投影面Gの幾何学形状は、同様に、車両1を完全にまたは部分的にのみ包囲するかまたは特別にカメラ11〜14によって検出された領域に適合された、別の丸い形状または角張った形状を有していてよい。
第2段階S2で、カメラシステムに対する、個別画像内に表示された対象物30の配置を表す位置情報が、間隔センサによって検出され、画像処理ユニット2に伝送される。
第3段階S3で、検出された位置情報に基づいて、第1の投影面G′の第1の幾何学形状の変形が行われる。これは、例えば、まず位置情報が、同様に第1の投影面G′も設定されている仮想の三次元空間内に伝送されることによって行うことができる。
これは図3に例として示されている。図3は、変形された第1の投影面G′を示す。個別画像内に示された対象物30は、この対象物30に該当する位置情報によって、仮想の三次元空間に伝送される。これは可能である。何故ならば、仮想の三次元空間内の各位置点に、車両周囲の実際に存在する空間内の位置点が割り当てられているからである。
ここに記載された例として挙げられた状況において、対象物30は、車両1の右隣にある対象物である。対象物30は、超音波センサ20によって検出され、車両1およびカメラシステムに対する、対象物30の形状および対象物30の位置を表す位置情報が、画像処理ユニットに伝送される。画像処理ユニットで、対象物30のマップが仮想の三次元空間内に生成される。
第1の投影面G′の幾何学形状は、仮想のカメラの位置に対する第1の投影面上のすべての点の間隔が、これらの第1の投影面上のすべての点が仮想のカメラに向けられた、対象物30の表面上に位置するように、短縮されることによって、変形される。この場合、第1の投影面G′のこのような変形は、例えば対象物30の、車両1とは反対側およびひいては対象物の全形状が、間隔センサ装置によって完全に検出され得ないときでも可能であることは明らかである。点の位置は、特に、1つの点が位置する多角形の位置が変えられ、つまり所属の頂点が変えられることによって、変えられる。つまり、第1の投影面G′の補助的な幾何学形状は、間隔情報に基づいて変形される。
第4段階S4で、変形された第1の投影面G′の面領域に対する、個別画像のテクスチャ情報の割り当てが行われる。この例では、テクスチャ情報は、カメラ11〜13のうちの1つの個別画像から得られる色情報に相当する。
これは、同様に図3に例として示されている。図3では、第3のカメラ13の光学的な中心31が仮想の三次元空間内に示されている。仮想の三次元空間内の各位置点に、車両周囲の実際に存在する空間内に位置点が割り当てられているので、同様に、仮想の三次元空間内のカメラシステムの第3のカメラ13の位置が明らかである。第3のカメラ13の光学的な中心31の前に、第3のカメラ13によって検出された、カメラ投影面32内の個別画像が位置している。実際に存在する空間内で、このカメラ投影面32は第3のカメラ13の画像センサに相当し、ひいては第3のカメラ13によって検出された個別画像にも相当する。第3のカメラ13の個別画像の各点は、カメラ投影面32上の点である。これらの点は、例えば、同様に色情報と関連付けられている座標(u,v)によって表される。カメラ投影面32は、対象物30と第3のカメラ13の光学的な中心31との間に位置している。このことは同時に、第3のカメラ13の個別画像内の対象物30が示されている、ということである。
各点P′〜P′と第3のカメラ13の光学的な中心31との間に直線が引かれ、各点P′〜P′に、それぞれ所属の直線が通る、個別画像の点の色情報が割り当てられることによって、第1の投影面G′の各点P′〜P′に色情報が割りふられる。従って、各点P′〜P′に、第3のカメラ13の個別画像より成る、同様に色情報が関連付けられている座標(u,v)が割り当てられる。
第1の点P′に、第3のカメラ13の個別画像より成る第1の座標(u,v)が割り当てられ、第2の点P′に、第3のカメラ13の個別画像より成る第2の座標(u,v)が割り当てられ、第3の点P′に、第3のカメラ13の個別画像より成る第3の座標(u,v)が割り当てられる、等々である。従って、第1の投影面G′の点のそれぞれに、色情報およびひいてはテクスチャも割り当てられる。
対象物30が2つのカメラの個別画像のオーバラップ範囲内に位置しているために、対象物30がカメラシステムの2つのカメラの個別画像内に示されている場合、第1の投影面の個別点に、2つのカメラのテクスチャ情報を割り当てることができる。対象物30が、例えば第3のカメラ13の個別画像内にも、また第1のカメラ11の個別画像内にも示されている場合、この領域に、第1のカメラ11の個別画像のテクスチャ情報または第3のカメラ13の個別画像のテクスチャ情報(つまり色情報)が割り当てられてよい。この場合、一方のカメラが優先されるか、またはこのような点に例えば、2つの可能な色値の中間値から形成される色値が割り当てられる。
この場合、各個別点のためにテクスチャ情報を個別に算出する必要は必ずしもない。同様に、個別画像の領域、およびひいては複数の点の色情報も、第1の投影面G′のそれぞれ1つの多角形、若しくはこの多角形に所属する頂点に割り当てられてよい。
第5の方法段階で、第1の投影面の複数の点のテクスチャ情報が第2の投影面の相応の所属する複数の点に伝送される。これは、第1の投影面G′の点に割り当てられた座標(u,v)または少なくともこの座標に関連付けられた色情報が、第2の投影面Gの所属の点に伝送されることによって、行われる。従って、テクスチャ情報は、変形にさらされていない第2の投影面Gに伝送されている。
テクスチャ情報が各個別点のために個別に算出されるのではなく、多角形的に算出されている場合、第1の投影面G′の多角形の色情報は、それぞれ第2の投影面Gの所属の多角形に伝送される。
これは図4に示されている。図4は、伝送されたテクスチャ情報を有する第2の投影面Gを示す。第1の点Pに、第3のカメラ13の個別画像より成る第1の座標(u,v)が割り当てられ、第2の点Pに、第3のカメラ13の個別画像より成る第2の座標(u,v)が割り当てられ、第3の点Pに、第3のカメラ13の個別画像より成る第3の座標(u,v)が割り当てられ、等々であることが明らかである。従って、第2の投影面Gの点P〜Pのそれぞれに、色情報およびひいてはテクスチャが割り当てられる。
第6の方法段階で、第2の投影面の視界から1つの共通の画像の生成が行われる。この視界は、ここでは仮想のカメラの位置から見た視界である。つまり、第2の投影面Gだけが見えて、この第2の投影面Gのために第1の投影面G′が見えないときに、仮想のカメラがその仮想の三次元空間内の位置から撮影されるであろう画像が算出されるか若しくはレンダリングされる、ということである。第2の投影面Gは、全体的にまたは部分的に表示される可視的な投影面としてみなされてよい。この場合、仮想のカメラの位置はこの時点では必要に応じて新たに選択され得る、ということを指摘しておく。
次いで、共通の画像が画像アウトプット装置、例えば車両1の内部に設けられたディスプレイにアウトプットされる。
要約すれば、本発明によれば、まず様々なセンサデータから得られる間隔情報が受信される。次いで、第1の投影面G′の幾何学形状を変形するために必要なパラメータが間隔情報から抽出される。このパラメータによって、第1の投影面の幾何学形状の変形が行われる。次いで、第1の投影面G′の各多角形/頂点のための座標の形のテクスチャ情報が算出される。この座標の形のテクスチャ情報が第2の投影面Gに伝送される。次いで、算出されたテクスチャ情報を有する第2の投影面Gから画像のレンダリングが行われる。
本発明は、車両に設けられたサラウンドビューシステムを用いて表されているが、本発明による方法は、複数の個別画像が1つの共通の画像につなぎ合わせられる別の分野においても用いることができる。
以上の文書的な開示の他に、明示的には図1〜4の開示が参照される。
1 車両
2 画像処理ユニット
11 第1のカメラ
12 第2のカメラ
13 第3のカメラ
14 第4のカメラ
20 超音波センサ
30 対象物
31 光学的な中心
32 カメラ投影面
G 第2の投影面
G′ 第1の投影面
〜P;P′〜P′
u,v 座標

Claims (10)

  1. カメラシステムによって様々な位置から撮影された複数の個別画像を1つの共通の画像につなぎ合わせるための方法において、
    第1の幾何学形状を有する第1の投影面(G′)および球面状に延在する第2の投影面(G)を提供し、この場合、前記第1の投影面(G′)の各点(P′0−P′7)に、前記第2の投影面(G)上の点(P0−P7)が所属しており、
    前記個別画像内に表示された対象物(30)の、前記カメラシステムに対する配置を表す位置情報を検出し、
    検出された前記位置情報に基づいて、前記第1の投影面(G′)の前記第1の幾何学形状を変形し、
    前記個別画像のテクスチャ情報を、変形された前記第1の投影面(G′)の面領域に割り当て、
    前記第1の投影面(G′)の前記点(P′0−P′7)のテクスチャ情報を、変形されていない前記第2の投影面(G)の対応する所属の前記点(P0−P7)に伝送し、
    前記第2の投影面(G)の視界から前記共通の画像を生成する
    ことを特徴とするカメラシステムによって様々な位置から撮影された複数の個別画像を1つの共通の画像につなぎ合わせるための方法。
  2. 前記第1の投影面(G′)を複数の多角形または基本形より形成し、これらの多角形または基本形の位置をそれぞれ1つのベクトルまたは頂点によって規定する
    ことを特徴とする請求項1記載の方法。
  3. 前記個別画像が、前記カメラシステムの周囲内の1つの共通の領域を示すオーバラップ領域をマッピングする
    ことを特徴とする請求項1又は2に記載の方法。
  4. 前記位置情報が前記個別画像と同時に検出される
    ことを特徴とする請求項1〜3の何れか1項に記載の方法。
  5. 前記カメラシステムが、
    車両(1)のサラウンドビューシステムによって取り囲まれている
    ことを特徴とする請求項1〜4の何れか1項に記載の方法。
  6. 前記個別画像が、
    時間的にずらして前記カメラシステムの同じカメラによって検出される
    ことを特徴とする請求項1〜5の何れか1項に記載の方法。
  7. 請求項1〜6の何れか1項に記載の方法を実行するために設計されている
    画像処理ユニット(2)。
  8. 請求項1〜6の何れか1項に記載の方法を実行するために設計されている
    コンピュータ。
  9. コンピュータに請求項1〜6のいずれかに1項に記載の方法を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
  10. コンピュータに請求項1〜6のいずれかに1項に記載の方法を実行させるためのプログラム。
JP2016551714A 2014-03-10 2015-01-20 カメラシステムによって様々な位置で撮影された複数の個別画像を1つの共通の画像につなぎ合わせるための方法 Active JP6587626B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102014204303.4 2014-03-10
DE102014204303.4A DE102014204303A1 (de) 2014-03-10 2014-03-10 Verfahren zum Zusammenfügen von Einzelbildern, die von einem Kamerasystem aus unterschiedlichen Positionen aufgenommen wurden, zu einem gemeinsamen Bild
PCT/EP2015/050978 WO2015135670A1 (de) 2014-03-10 2015-01-20 Verfahren zum zusammenfügen von einzelbildern, die von einem kamerasystem aus unterschiedlichen positionen aufgenommen wurden, zu einem gemeinsamen bild

Publications (2)

Publication Number Publication Date
JP2017512334A JP2017512334A (ja) 2017-05-18
JP6587626B2 true JP6587626B2 (ja) 2019-10-09

Family

ID=52394245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016551714A Active JP6587626B2 (ja) 2014-03-10 2015-01-20 カメラシステムによって様々な位置で撮影された複数の個別画像を1つの共通の画像につなぎ合わせるための方法

Country Status (6)

Country Link
US (1) US10384606B2 (ja)
EP (1) EP3117399B1 (ja)
JP (1) JP6587626B2 (ja)
CN (1) CN106104629B (ja)
DE (1) DE102014204303A1 (ja)
WO (1) WO2015135670A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9948914B1 (en) * 2015-05-06 2018-04-17 The United States Of America As Represented By The Secretary Of The Air Force Orthoscopic fusion platform
WO2017045129A1 (zh) * 2015-09-15 2017-03-23 华为技术有限公司 图像畸变校正方法及装置
DE102017200965A1 (de) * 2017-01-20 2018-07-26 Robert Bosch Gmbh Verfahren zur Darstellung einer Umgebung eines Fahrzeuges
JP7208356B2 (ja) * 2018-09-26 2023-01-18 コーヒレント・ロジックス・インコーポレーテッド 任意の世界ビューの生成
RU2716896C1 (ru) * 2019-04-01 2020-03-17 Акционерное общество Научно-производственный центр "Электронные вычислительно-информационные системы" Способ автоматической настройки системы разнесенных в пространстве телекамер для формирования панорамного изображения
DE102019204656A1 (de) * 2019-04-02 2020-10-08 Conti Temic Microelectronic Gmbh Parkassistenzsystem
DE102020214093A1 (de) 2020-11-10 2022-05-12 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Detektieren eines bewegten Objekts

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10303015A1 (de) * 2003-01-27 2004-08-12 Daimlerchrysler Ag System aus laserscanner und katadioptrischer Kamera
US6811264B2 (en) * 2003-03-21 2004-11-02 Mitsubishi Electric Research Laboratories, Inc. Geometrically aware projector
US6680689B1 (en) * 2003-03-28 2004-01-20 Visteon Global Technologies, Inc. Method for determining object classification from side-looking sensor data
JP4583883B2 (ja) * 2004-11-08 2010-11-17 パナソニック株式会社 車両用周囲状況表示装置
JP4928956B2 (ja) 2007-01-18 2012-05-09 三洋電機株式会社 俯瞰画像提供装置、車両、および俯瞰画像提供方法
JP5057936B2 (ja) * 2007-11-09 2012-10-24 アルパイン株式会社 鳥瞰画像生成装置および方法
JP5182042B2 (ja) * 2008-11-28 2013-04-10 富士通株式会社 画像処理装置、画像処理方法及びコンピュータプログラム
JP5550970B2 (ja) * 2010-04-12 2014-07-16 住友重機械工業株式会社 画像生成装置及び操作支援システム
DE102011082881A1 (de) 2011-09-16 2013-03-21 Bayerische Motoren Werke Aktiengesellschaft Darstellung der Umgebung eines Kraftfahrzeugs in einer bestimmten Ansicht unter Verwendung räumlicher Information
JP5682788B2 (ja) * 2011-09-27 2015-03-11 アイシン精機株式会社 車両周辺監視装置
JP5634643B2 (ja) * 2012-05-22 2014-12-03 三菱電機株式会社 画像処理装置
JP6079131B2 (ja) * 2012-10-25 2017-02-15 富士通株式会社 画像処理装置、方法、及びプログラム

Also Published As

Publication number Publication date
US20170018085A1 (en) 2017-01-19
US10384606B2 (en) 2019-08-20
WO2015135670A1 (de) 2015-09-17
CN106104629A (zh) 2016-11-09
EP3117399B1 (de) 2021-03-10
EP3117399A1 (de) 2017-01-18
JP2017512334A (ja) 2017-05-18
CN106104629B (zh) 2021-01-01
DE102014204303A1 (de) 2015-09-10

Similar Documents

Publication Publication Date Title
JP6587626B2 (ja) カメラシステムによって様々な位置で撮影された複数の個別画像を1つの共通の画像につなぎ合わせるための方法
EP2481637B1 (en) Parking Assistance System and Method
JP6559253B2 (ja) 車両の車両周囲を表示するための方法
JP6287237B2 (ja) 情報処理装置、情報処理方法及びプログラム
US9479740B2 (en) Image generating apparatus
JP6310652B2 (ja) 映像表示システム、映像合成装置及び映像合成方法
JP5077307B2 (ja) 車両周囲画像表示制御装置
JP3894322B2 (ja) 車両用視界モニタシステム
US20130194256A1 (en) Viewing system and method for displaying an environment of a vehicle
KR20140114373A (ko) 차량 주변 환경을 시각화하는 방법과 장치
EP2233358A1 (en) Obstruction detecting apparatus
JP2009118415A (ja) 鳥瞰画像生成装置および方法
JPWO2009119110A1 (ja) 死角表示装置
US20160301864A1 (en) Imaging processing system for generating a surround-view image
US20160301863A1 (en) Image processing system for generating a surround-view image
US9162621B2 (en) Parking support apparatus
JP2015184839A (ja) 画像生成装置、画像表示システム及び画像生成方法
JP2020126208A5 (ja)
JP7028609B2 (ja) 画像表示装置、及び画像表示システム
US10475154B2 (en) Machine surround view system and method for generating 3-dimensional composite surround view using same
JP5861871B2 (ja) 俯瞰画像提示装置
JP7084400B2 (ja) 三次元サラウンドビュー・システム
JP2021067977A (ja) 画像処理装置、画像処理プログラム
JP7385024B2 (ja) 車両の視覚化を提供する方法および装置ならびに車両
US20210256760A1 (en) Information display control device, method, and non-transitory computer-readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171006

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180302

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180806

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180815

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20180907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190910

R150 Certificate of patent or registration of utility model

Ref document number: 6587626

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250