JP7208356B2 - 任意の世界ビューの生成 - Google Patents

任意の世界ビューの生成 Download PDF

Info

Publication number
JP7208356B2
JP7208356B2 JP2021506937A JP2021506937A JP7208356B2 JP 7208356 B2 JP7208356 B2 JP 7208356B2 JP 2021506937 A JP2021506937 A JP 2021506937A JP 2021506937 A JP2021506937 A JP 2021506937A JP 7208356 B2 JP7208356 B2 JP 7208356B2
Authority
JP
Japan
Prior art keywords
image
output image
location
view
input images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021506937A
Other languages
English (en)
Other versions
JP2021535464A (ja
Inventor
ブランズ,マイケル・ダブリュ
ハント,マーティン・エイ
シッダヤ,マンジュナート・エイチ
Original Assignee
コーヒレント・ロジックス・インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コーヒレント・ロジックス・インコーポレーテッド filed Critical コーヒレント・ロジックス・インコーポレーテッド
Publication of JP2021535464A publication Critical patent/JP2021535464A/ja
Application granted granted Critical
Publication of JP7208356B2 publication Critical patent/JP7208356B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/12Shadow map, environment map

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Diaphragms For Electromechanical Transducers (AREA)

Description

本発明の分野は、一般に透視図生成および画像描画に関する。
多くのタイプの車両は、運転、ナビゲーション、または他のタスクを支援するために、1つまたは複数のカメラを利用して、車両の周りの画像および/またはビデオを取り込む、表示する、および/または記録する。追加で、他の可能性の中でも監視、セキュリティ、または娯楽のために、多様な実用的用途で広範囲にカメラを採用して、特定の環境の画像および/またはビデオを記録する。しかしながら、実際的な理由で、画像またはビデオを記録することが望ましい特定の場所にカメラを設置することは困難であることがある、または法外な費用がかかることがある。したがって、本分野で改善が望まれる。
複数の入力画像から出力画像を描画するための、任意の世界ビューシステムおよび方法のさまざまな実施形態について記述し、この場合、出力画像は、入力画像を得た複数の場所の各々と異なる場所に対応する透視図から得られる。
いくつかの実施形態では、複数の入力画像を受信し、各入力画像を異なる第1の場所から得る。出力画像を描画するためのビュー明細事項を受信してもよく、ビュー明細事項は、少なくとも第2の場所を含む。いくつかの実施形態では、世界座標フレームで3つの空間座標(たとえば(x,y,z))により第1の場所および第2の場所をそれぞれ指定してよい。ビュー明細事項は、方位角および/または極角を含む姿勢明細事項、視界(たとえば、ズームまたは拡大)、投影面深度、1つまたは複数の投影面パラメータ、画素解像度、および融合幅のうち1つまたは複数をさらに含んでよい。
第2の場所は、第1の場所の各々と異なってよい。複数の入力画像およびビュー明細事項に少なくとも一部は基づき出力画像を描画してよく、出力画像は、第2の場所から見たときの領域の画像を含んでよい。たとえば、第2の場所は、出力画像を描画するために使用する「仮想の場所」であってよく、たとえカメラは「仮想の場所」に配置されなくともよい。
いくつかの実施形態では、投影面を決定し、複数の入力画像に少なくとも一部は基づき出力画像を描画するステップは、投影面の上に複数の入力画像の画素をマッピングするステップ、および出力画像の画素に投影面上の場所をマッピングするステップを含む。複数の入力画像を取得するために使用するカメラの周囲を近似するように投影面を決定してよい。
いくつかの実施形態では、複数の入力画像およびビュー明細事項に少なくとも一部は基づき出力画像を描画するステップは、出力画像の複数の画素ブロックごとに、それぞれの画素ブロックの外周に沿った複数の画素と入力画像の1つまたは複数の各々の対応する複数の画素との間のマッピングを決定するステップを含む。たとえば、それぞれの画素ブロックの外周に沿った複数の画素は、正方形の画素ブロックの4隅の画素であってよい。1つまたは複数の入力画像ごとに、および出力画像の複数の画素ブロックごとに、入力画像の対応する画素の外周の内部に配置された画素から出力画像内のそれぞれの画素への投影マッピングを遂行してよく、前記投影マッピングは、それぞれの画素ブロックの外周に沿った複数の画素と1つまたは複数の入力画像の対応する複数の画素との間のマッピングに少なくとも一部は基づいてよい。
出力画像を表示装置上に表示してよい。いくつかの実施形態では、連続したそれぞれの複数の入力画像に基づき、連続した出力画像を反復して描画してよく、連続した出力画像を表示装置上にリアルタイムで表示して、リアル・タイム・ビデオを作り出す。出力画像および/または出力ビデオは、(たとえば、さらに処理するために)別のアプリケーションへの入力の役割を果たしてよく、および/または出力を記憶媒体に記憶してよい。
この要約は、本文書で記述する主題のいくつかについて概要を提供することを意図したものである。したがって、上述の特徴は実施例でしかなく、本明細書で記述する主題の範囲または精神を狭くすると解釈されるべきでは決してないことが認識されよう。本明細書で説明する主題の他の特徴、様態、および利点は、以下の発明を実施するための形態、図面、および特許請求の範囲から明らかになるであろう。
以下の図面と併せて好ましい実施形態についての以下の詳細な記述を考慮するとき、本発明のよりよい理解を得ることがある。
いくつかの実施形態による先進運転支援システム(Advanced Driver Assistance System、ADAS)プラットフォームの概略図である。 いくつかの実施形態による、車両に取り付けた4つのカメラから得た未加工のカメラデータの例示である。 いくつかの実施形態による、図2Aに示す未加工のカメラデータから作り出した2つのビュー出力画像の例示である。 いくつかの実施形態による、図2Aに示す未加工のカメラデータから作り出した、車両の上方および後方の視点から得られる出力画像の例示である。 いくつかの実施形態による、複数の入力画像から出力画像を描画するための方法を例示する流れ図である。 いくつかの実施形態による、投影面を決定するための方法を例示する流れ図である。 いくつかの実施形態による、ブロックごとの出力画像描画を遂行するための方法を例示する流れ図である。 いくつかの実施形態による、複数の入力画像から得られる出力画像を較正および描画するステップのための、高水準のデータの流れを例示する概略図である。 いくつかの実施形態による、等角ピンホールカメラ投影モデルの例示である。 いくつかの実施形態による、ピンホール・カメラ・モデルを使用する、未加工の等角(魚眼)レンズ画像および再投影画像の例示である。 いくつかの実施形態による、世界座標フレームでの物点から像点への投影の例示である。 いくつかの実施形態による、ビュー像点からソース画像への再投影の例示である。 いくつかの実施形態による、基平面上での物点の深さの例示である。 いくつかの実施形態による、乗用車の周りの円筒状投影面モデルの例示である。 いくつかの実施形態による、2つの魚眼ソース画像にマッピングしたビュー画像ブロックのグリッドを例示する。 いくつかの実施形態による、JSON(JavaScript(登録商標) Object Notification)ファイルフォーマットでのBlockInfoに関するコード構造を例示する擬似コードである。 いくつかの実施形態による、C/C++構造としてBlockInfoに関するコード構造を例示する擬似コードである。 いくつかの実施形態による、JSONファイルフォーマットでのCamDataに関するコード構造を例示する擬似コードである。 いくつかの実施形態による、世界座標フレームの公称配向の下向きの例示である。 いくつかの実施形態による、JSONファイルフォーマットでのViewSpecに関するコード構造を例示する擬似コードである。 いくつかの実施形態による、乗用車上のカメラに対する方位角および高度角の例示である。 いくつかの実施形態による、カメラ較正処理から得られる第1の検証画像を例示する。 いくつかの実施形態による、カメラ較正処理から得られる第2の検証画像を例示する。 いくつかの実施形態による、3つのソースカメラから描画した後方ビュー出力画像である。 いくつかの実施形態による、2チップ設計のための資源割当てを例示する並列処理ハードウェア図である。 いくつかの実施形態による、チップ3のための資源割当てを例示する並列処理ハードウェア図である。 いくつかの実施形態による3チップ設計に関する概略のデータ流れ図である。 いくつかの実施形態による、チップ1およびチップ2に関する概略のデータ流れ図である。 いくつかの実施形態による、デモザイク(demosaic)・グループ・セルの内部構造の概略図である。 いくつかの実施形態による、チップ3に関する概略のデータ流れ図である。 いくつかの実施形態による、測光アラインメントに関する概略のデータ流れ図である。 いくつかの実施形態による、マルチ・プロセッサ・システム(multi-processor system、MPS)の一実施形態を例示する構成図である。 いくつかの実施形態による、MPS接続方式の一実施形態を例示する構成図である。 いくつかの実施形態による、MPS機構の一実施形態を例示するより詳細な図である。 いくつかの実施形態による、図32のアーキテクチャ例と調和するDMR(円)を均一に散在させたPE(正方形)から構成される例示的MPSを示す。
本発明は、さまざまな修正形態および代替形態が可能であるが、それらの具体的実施形態について、図面で例として示し、本明細書で詳細に記述する。しかしながら、それらの実施形態に対する図面および詳細な記述は、開示する特定の形態に本発明を限定することを意図するものではなく、それどころか、本発明は、添付の特許請求の範囲により規定されるような本発明の精神および範囲に入るすべての修正形態、均等物、および代替形態を包含することが意図されることを理解されたい。
参照による組込み
以下の参照事項は、あたかも本明細書にあらゆる点で完全に示されているかのように、全体が参照により本明細書に組み入れられる。
用語
以下は、本出願で使用する用語の解説である。
記憶媒体-さまざまなタイプのメモリ装置または記憶装置のいずれか。用語「記憶媒体」は、インストール媒体、たとえば、CD-ROM、フロッピーディスク、もしくはテープ装置;DRAM、DDR RAM、SRAM、EDO RAM、Rambus RAMなどのようなコンピュータ・システム・メモリもしくはランダム・アクセス・メモリ;またはハードドライブなどの磁気媒体、光学記憶装置、もしくはROM、EPROM,フラッシュなどのような不揮発性メモリを含むことが意図される。記憶媒体は、同様に他のタイプのメモリも、またはそれらの組合せを備えてよい。それに加えて、記憶媒体は、プログラムを実行する第1のコンピュータ内に配置されてよい、および/またはインターネットなどのネットワークを介して第1のコンピュータに接続する第2の異なるコンピュータ内に配置されてよい。第2の異なるコンピュータ内に配置される実例では、第2のコンピュータは、実行するために第1のコンピュータにプログラム命令を提供してもよい。用語「記憶媒体」は、異なる場所に、たとえば、ネットワークを介して接続される異なるコンピュータに常駐してよい2つ以上の記憶媒体を含んでよい。
キャリア媒体-上述のような記憶媒体、ならびにバス、ネットワーク、および/または電気信号もしくは光信号などの信号を伝達する他の物理的伝送媒体などの物理的伝送媒体。
プログラム可能ハードウェア要素-プログラム可能な相互接続または有線接続された相互接続を介して接続された多数のプログラム可能機能ブロックを備えるさまざまなハードウェア機器を含む。例は、FPGA(Field Programmable Gate Array),PLD(Programmable Logic Device)、FPOA(Field Programmable Object Array)、およびCPLD(Complex PLD)を含む。プログラム可能能機能ブロックは、微細なもの(組合せ論理またはルック・アップ・テーブル)から粗大なもの(算術論理演算装置またはプロセッサコア)までの範囲に及んでよい。プログラム可能ハードウェア要素はまた、「再構成可能論理」とも呼ばれることがある。
特定用途向け集積回路(Application Specific Integrated Circuit、ASIC)-この用語は、その通常の意味の広さを完全に有することが意図される。ASICは、構成単位としてプログラム可能プロセッサコアを含有してよいが、用語ASICは、汎用プログラム可能装置というよりはむしろ特定用途のためにカスタマイズされた集積回路を含むことが意図される。携帯電話プロセッサ、MP3プレーヤチップ、および多くの他の単一機能ICは、ASICの例である。ASICは、通常はVerilogまたはVHDLなどのハードウェア記述言語で記述される。
プログラム-用語「プログラム」は、その通常の意味の広さを完全に有することが意図される。用語「プログラム」は、1)メモリに記憶されてよい、プロセッサにより実行可能なソフトウェアプログラム、または2)プログラム可能ハードウェア要素またはASICを構成するために使用可能なハードウェア構成プログラムを含む。
ソフトウェアプログラム-用語「ソフトウェアプログラム」は、その通常の意味の広さを完全に有することが意図され、記憶媒体に記憶して、プロセッサにより実行してよい、任意のタイプのプログラム命令、コード、スクリプト、および/もしくはデータ、またはそれらの組合せを含む。代表的ソフトウェアプログラムは、テキストベースのプログラミング言語、たとえば、C、C++、PASCAL、FORTRAN、COBOL、JAVA、アセンブラ言語などのような命令型言語もしくは手続き型言語で書かれたプログラム;グラフィカルプログラム(グラフィカルプログラミング言語で書かれたプログラム);アセンブラ言語プログラム;機械語にコンパイルされたプログラム;スクリプト;および他のタイプの実行可能ソフトウェアを含む。ソフトウェアプログラムは、何らかの手法で相互運用する2つ以上のソフトウェアプログラムを備えてよい。
ハードウェア構成プログラム-プログラム可能ハードウェア要素またはASICをプログラムまたは構成するために使用することができるネットリストまたはビットファイルなどのプログラム。
コンピュータシステム-パーソナル・コンピュータ・システム(PC)、メインフレーム・コンピュータ・システム、ワークステーション、ネット家電、インターネット家電、携帯情報端末(personal digital assistant、PDA)、グリッド・コンピューティング・システム、もしくは他の機器、または機器の任意の組合せを含む、さまざまなタイプのコンピューティングシステムまたは処理システムのいずれか。一般に、用語「コンピュータシステム」を広く規定して、記憶媒体から得られる命令を実行する少なくとも1つのプロセッサを有する任意の機器(または機器の組合せ)を包含することができる。
自動的に-ユーザ入力が動作または活動を直接指定または遂行することなく、コンピュータシステム(たとえば、コンピュータシステムが実行するソフトウェア)または機器(回路、プログラム可能ハードウェア要素、ASICなど)により遂行される動作または活動を指す。したがって、用語「自動的に」は、ユーザが動作を直接遂行するための入力を提供する、ユーザが動作を手動で遂行する、または指定することとは対照をなす。自動手順は、ユーザが提供する入力により開始されてよいが、「自動的に」遂行される後続の動作は、ユーザにより指定されない、すなわち、「手動で」遂行されず、この場合、ユーザは、遂行すべき各活動を指定する。たとえば、ユーザが各フィールドを選択し、情報を指定する入力を提供することにより(たとえば、情報をタイプし、チェックボックス、ラジオボタン選択などを選択することにより)電子式フォームに必要事項を書き入れることは、たとえコンピュータシステムがユーザの活動に応答してフォームを更新することがあっても、フォームに必要事項を手動で書き入れることになる。コンピュータシステムは、フォームに必要事項を自動的に書き入れてよく、この場合、どのユーザ入力もフィールドへの回答を指定することなく、コンピュータシステム(たとえば、コンピュータシステム上で実行されるソフトウェア)は、フォームのフィールドを分析し、フォームに書き込む。上記に示したように、ユーザは、フォームの自動書込みを起動してよいが、フォームを実際に書き込むことには関与しない(たとえば、ユーザは、フィールドへの回答を手動で指定するのではなく、むしろ、フィールドは自動的に完成される)。本明細書は、ユーザが行った活動に応答して動作が自動的に行われるさまざまな例を提供する。
Figure 0007208356000001
詳細な説明
はじめに
本明細書の実施形態は、まるで浮遊しているような仮想カメラが取得したように環境の仮想描画ビデオを合成するために、多数のカメラから得た画像および/またはビデオのフレームの多視点幾何学的変換を利用する任意の世界ビュー描画出力画像および/またはビデオを作り出すためのシステムおよび方法を提示する。いくつかの実施形態では、この仮想カメラは、x、y、zの位置、方位角および高度姿勢、ならびに視野角を含む6つの自由度を有してよい。有利には、仮想カメラは、多数のカメラの場所の各々と異なる位置に配置されてよい。それに加えて、出力画像および/またはビデオを描画するために使用する投影面は、動的であってよく、仮想カメラの周りの対象物に至る距離推定値に連結されてよい。超音波測距センサもしくはミリ波測距センサ、レーダ、ライダ(lidar)のような距離測定センサを用いて、またはビデオフレームに適用するコンピュータビジョン技法を使用して、距離推定値を得てよい。本明細書の実施形態を車両先進運転支援システム(ADAS)、ドローンビデオ取得、オフィスもしくは家庭の環境、または多数のカメラを用いる他のプラットフォームのためなどのさまざまな用途で採用してよい。
いくつかの実施形態では、車両または他の対象物の周辺に位置決めした多数のカメラから合成した仮想視点を操作者が制御できるようにする単一透視図の中に多数のカメラビューを組み合わせる。この合成ビューは、多数の個々のカメラのストリームを、個々のカメラから得られる歪みおよび照明を補正した画像のシームレスな融合に統合してよい。それに加えて、ユーザは、透視図視点または仮想視点を指定して、たとえば車両上方からの下向きビューを表示してよい。
いくつかの実施形態では、HyperX(登録商標)技術などの並列処理アーキテクチャを利用して、マルチ・モード・センサ・データを取り入れて運転者および乗用車システムに情報を提供するアルゴリズムを実行する高い計算費用に対応してよい。有利には、仮想的な任意の世界ビューを描画して、動的仮想カメラの位置および動的投影面を伴う360°サラウンドビューを提供する。いくつかの実施形態による、任意の世界ビューシステムの構成要素間の機能関係の概念図を図1に示す。有利には、本明細書のいくつかの実施形態は、車両自体の構造により、または運転者の周りの全方向を物理的に仮想化する能力により、車両の周りのビューが制約されるときに運転者が安全な手法で車両を動作させるのを支援するシステムを生み出す。本明細書では、いくつかのデジタル・ビデオ・カメラから取得したビデオデータを車両または他の対象物の周りのビューの仮想視点を表す描画ビデオ表示に変換するための方法およびシステムについて記述する。いくつかの実施形態では、1つまたは複数の描画出力画像は、(たとえば、さらに処理するための)別のアプリケーションへの入力の役割を果たしてよい、および/またはメモリまたは他のタイプの記憶媒体に記憶されてよい。
図3-出力画像描画の流れ図
図3は、いくつかの実施形態による、複数の入力画像から出力画像を描画するための方法を例示する流れ図である。いくつかの実施形態では、多重カメラシステムに連結したプロセッサを備えるコンピュータシステムにより、記述する方法を遂行してよい。記述する方法を遂行するためのプログラム命令を記憶していてよい1つまたは複数の非一時的コンピュータ可読記憶媒体にプロセッサを連結してよい。いくつかの実施形態では、第5節でより詳細に記述するように、プロセッサは、計算ステップの待ち時間を低減するために利用してよい並列処理ハードウェアシステムであってよい。さまざまな実施形態では、図示する方法の要素のいくつかを、同時に遂行してよい、図示するのと異なる順序で遂行してよい、他の方法要素と置換してよい、または省略してよい。また、追加の方法の要素を望み通りに遂行してよい。図示するように、方法は以下のように動作してよい。
302で、複数の入力画像を受信し、異なる第1の場所から複数の入力画像の各入力画像を得る。換言すれば、異なる第1の場所に配置されたカメラまたは別のタイプの画像取得機器により各入力画像を得てよく、その結果、複数の入力画像は、複数のそれぞれの第1の場所に対応する。乗用車、トラック、飛行機、もしくは船などの車両、ドローン、家具、または任意の他のタイプの対象物のさまざまな場所にカメラを搭載してよい。複数のカメラは、それぞれ自身の場所、配向、および/または視界を有してよく、複数のカメラのさまざまなカメラの視界は、部分的に重なってよい。
304で、出力画像を描画するためのビュー明細事項を受信する。ユーザ入力に応答してビュー明細事項を受信してよい。たとえば、ユーザは、出力画像を描画する際に使用するためにコンピューティングシステムに提供してよいビュー明細事項の1つまたは複数のパラメータを決定するための入力を提示してよい。ビュー明細事項は、出力画像を描画するための第2の場所を含んでよく、第2の場所は、第1の場所の各々と異なってよい。一例として、複数の入力画像が(たとえば、図2Aに例示するように)車両上の4つの異なる第1の場所から得た4つの入力画像を含む場合、第2の場所は、車両の上方に、または車両の外側の別の場所に配置されてよい。ビュー明細事項は、出力画像を描画する際に使用するための1つまたは複数の追加パラメータをさらに指定してよく、方位角、極角、視界、投影面深度、1つまたは複数の投影面パラメータ、画素解像度、および/または融合幅を含むがそれらに限定されない。原点が第2の場所にある球座標系で方位角および極角を測定することが意図されることが留意される。それにより、方位角および極角は、第2の場所の透視図から出力画像を描画するためのビュー配向を指定してよい。視界は、出力画像の立体角および/または拡大率を指定してよい。さらに、ビュー明細事項は、出力画像の画素解像度(たとえば、1280×720、1920×1080、または他の解像度)、および/または重なりのある異なる入力画像のいくつかの部分から得られる出力画像への寄与を融合するための融合幅を指定してよい。投影面深度は、出力画像を描画するために使用する投影面の1つまたは複数の深度パラメータを指定してよい。たとえば、投影面が楕円状円筒である実施形態については、ビュー明細事項は、楕円状円筒の長軸および短軸のうち一方または両方を指定してよい。1つまたは複数の投影面パラメータは、異なるサイズ、形状、投影面に関する事前設定をさらに指定してよい。あるいは以下でより詳細に記述するように、コンピューティングシステムにより投影面を自動的に決定してよい。
それぞれの連続した複数の入力画像に基づき連続した出力画像を描画して、出力ビデオを作り出す実施形態については、ユーザがビュー明細事項を動的に改変して、出力ビデオの1つまたは複数のパラメータをリアルタイムで変更してよい。たとえば、ユーザは、第2の場所および/または視点方向などの、ビュー明細事項の1つまたは複数のパラメータを調節して、出力ビデオの視点をリアルタイムで滑らかに改変してよい。これは、一例として、ユーザが駐車手順の間にビュー明細事項の1つまたは複数のパラメータを変更することにより出力ビデオの透視図を改変してよい駐車シナリオで有利であることがある。
いくつかの実施形態では、1つまたは複数の第2のビュー明細事項を指定するユーザ入力をさらに受信し、1つまたは複数の第2のビュー明細事項および複数の入力画像に少なくとも一部は基づき1つまたは複数の第2の出力画像を描画する。換言すれば、単一組の入力画像データを使用して、第1のビュー明細事項および第2のビュー明細事項により記述される異なる視点から複数の異なる出力画像を描画してよい。1つまたは複数の第2の出力画像を第1の出力画像(すなわち、第1のビュー明細事項から作り出された出力画像)と同じ表示装置上に表示してよい、または1つまたは複数の異なる表示装置上に表示してよい。
306で、複数の入力画像およびビュー明細事項に少なくとも一部は基づき出力画像を描画してよい。出力画像は、第2の場所から見たときの、ビュー明細事項の1つまたは複数の他のパラメータによる領域の画像である。いくつかの実施形態では、図4を参照して以下でより詳細に記述するように、投影面にさらに基づき出力画像を描画する。追加で、または代わりに、図5を参照して以下でより詳細に記述するように、ブロックごとに出力画像を描画してよい。有利には、複数の入力画像のいずれかの視点とも異なる視点(すなわち、ビュー明細事項の他の可能性のある性質の中でも、場所、方位角、および/または極角)から出力画像を描画してよい。
いくつかの実施形態では、複数の入力画像のうち2つ以上の入力画像から出力画像の少なくとも一部分を供給し、出力画像の少なくとも一部分を描画するステップは、複数の入力画像のうち2つ以上の入力画像からの寄与を融合するステップを含む。たとえば、入力画像のうち2つは、それらの視界で部分的に重なってよく、その結果、重なりの部位の内部にある、これらの入力画像の両方から得られる画素は、出力画像の対応する部分に寄与してよい。
いくつかの実施形態では、出力画像の少なくとも一部分の投影場所に2つ以上の入力画像の第1の場所が近いことに少なくとも一部は基づき、融合に重み付けする。たとえば、入力画像のうち2つがそれらのそれぞれの視界の一部分の中で重なるとき、重なりの部位の投影場所が、2つの入力画像の各々を得た第1の場所からどれだけ遠く離れているかを決定してよい。この例では、投影場所により近い第1の場所から得た入力画像が、さらに遠い第1の場所から得たその他の入力画像よりも大きな重みを与えられるように、出力画像の対応する部分への2つの入力画像の寄与を重み付けしてよい。追加で、または代わりに、融合は、2つ以上の入力画像間の照明の不一致を補正してよい。
308で、出力画像を表示装置上に表示する。表示装置は、出力画像を描画するコンピューティング機器と並べて置かれてよい、または互いに遠隔にあり、ネットワークを介して接続されてよい。いくつかの実施形態では、表示装置を車両内部に設置して、車両の運転者または操作者にADASサービスを提供してよい。あるいは、表示装置は、車両から遠隔に配置されてよく、車両を遠隔で運転する、または動作させるように構成された機器の内部に備わってよい。
いくつかの実施形態では、連続したそれぞれの複数の入力画像に基づき連続した出力画像を反復して描画してよく、連続した出力画像を表示装置上にリアルタイムで表示して、リアル・タイム・ビデオを作り出す。換言すれば、図3を参照して記述する方法は、複数の入力画像から描画した単一出力画像について記載するが、その一方で、複数の入力ビデオから出力ビデオを作り出すためのいくつかの実施形態の範囲に入り、本明細書で記述する方法は、ビデオのフレームごとに反復される。
図4-投影面の流れ図
図4は、いくつかの実施形態による、出力画像を描画するのを支援する投影面を決定する方法を例示する流れ図である。複数の入力画像から出力画像を描画する方法の一部として、図3および/または図5を参照して記述する方法ステップと併せて、図4に記述する方法ステップを遂行してよい。いくつかの実施形態では、多重カメラシステムに連結したプロセッサを備えるコンピュータシステムにより、記述する方法を遂行してよい。記述する方法を遂行するためのプログラム命令を記憶していてよい1つまたは複数の非一時的コンピュータ可読記憶媒体にプロセッサを連結してよい。いくつかの実施形態では、第5節により詳細に記述するように、プロセッサは、計算ステップの待ち時間を低減するために利用してよい並列処理ハードウェアシステムであってよい。さまざまな実施形態では、示す方法の要素のいくつかを、同時に遂行してよい、図示するのと異なる順序で遂行してよい、他の方法要素と置換してよい、または省略してよい。また、望み通りに追加の方法要素を遂行してよい。図示するように、方法は以下のように動作してよい。
402で、環境の幾何学的配置を決定する。たとえば、複数の入力画像に関連する第1の場所を取り囲む環境の幾何学的配置を決定してよい。幾何学的配置は、出力画像を描画するための有効投影面を決定するために使用してよい、第1の場所の周囲の近似を表すと理解されてよい。ステップ302は任意選択であることが留意され、環境の幾何学的配置を決定することなく1つまたは複数の要因に基づき投影面を決定してよい。たとえば、以下に記述するように、投影面は、デフォルトで楕円状円筒であってよく、車両の速度、またはたとえば近くにある対象物までの距離などの他の要因に基づき楕円状円筒のサイズ(たとえば、長軸および/または短軸の長さ)を決定してよい。
いくつかの実施形態では、環境の幾何学的配置を決定するステップは、第1の場所を取り囲む部位に関係がある測距情報を決定するステップを含み、測距情報に少なくとも一部は基づき、投影面を決定する前記ステップを遂行する。たとえば、複数の入力画像を取得するために使用する複数のカメラの1つまたは複数と1つまたは複数の測距装置を並べて置いてよい。1つまたは複数の測距装置は、レーダ、ソナー、ライダ、コンピュータビジョン処理アルゴリズム、機械学習、および/またはそれぞれの第1の場所からそれぞれの入力画像のさまざまな部分までの距離を推定するための他の技法を利用してよい。たとえば、特定の入力画像が道路、別の車両、および/または木もしくは他の対象物を示す場合、測距装置は、特定の入力画像の第1の場所から道路、車両、木、または他の対象物上のさまざまな地点までの距離を推定してよい。
404で、投影面を決定する。投影面は、複数の入力画像に関連する第1の場所を取り囲む環境を近似するB-スプライン表面を含んでよい。いくつかの実施形態では、1つまたは複数の測距装置が作り出した推定距離を使用して、投影面を推定してよい。たとえば、1つまたは複数の測距装置により得た距離から導出される投影面を決定してよい。換言すれば、複数のカメラを搭載した車両または他の対象物の周囲を近似する投影面を決定してよく、測距情報を使用して、この近似を通知してよい。
いくつかの実施形態では、投影面は、車両の環境または他の要因に基づき決定される区分的表面および/または不連続面であってよい。換言すれば、投影面は、原点を取り囲む任意の所望の立体角(たとえば、最大4πステラジアンまでを含む)の原点に対する、投影面の場所の画素ごとの深度明細事項を最大で含む、任意の所望のレベルの明細事項または詳細に対して決定されてよい。
いくつかの実施形態では、第1の場所は車両上の場所であり、投影面は、車両を取り囲む水平部分および水平部分を取り巻く垂直部分を含む。いくつかの実施形態では、投影面の水平部分は、車両を取り囲む楕円状ディスクであり、投影面の垂直部分は、楕円状ディスクを取り巻く楕円状円筒であり、投影面は、楕円状ディスクおよび楕円状円筒を滑らかに連結する中間領域をさらに含む。入力画像を得るために使用するカメラを第1の車両に搭載するADASの実施形態では、円筒状ディスクの長軸は、車両の前方から車両の後方へ伸びてよく、楕円状ディスクの短軸は、車両の左側から車両の右側へ伸びてよい。いくつかの実施形態では、投影面の楕円状の円筒状形状を修正して、第1の車両のすぐそばの内部にあると判断された1つまたは複数の対象物を収容してよい(たとえば、この文脈で「すぐそば」を、楕円状円筒の垂直部分の内部を意味すると理解してよい)。換言すれば、測距手順または別の機構を通して、第2の車両などの対象物が第1の車両のすぐそばにあると判断された場合、第2の車両の場所および形状の近似を含むように楕円状の円筒状投影面を修正してよい。
いくつかの実施形態では、現在の車両速度に少なくとも一部は基づき水平部分のサイズを決定し、そこでは、より速い現在の車両速度は、より遅い現在の車両速度よりも広い水平部分を決定する。いくつかの実施形態では、近くにある対象物までの最短距離に少なくとも一部は基づき水平部分のサイズを決定する。たとえば、別の車両または他の対象物から複数のカメラまでの近さに基づき水平部分のサイズをスケール変更してよい。換言すれば、一例として、入力画像を作り出す複数のカメラを上に搭載した車両に車両がより近く接近するとき、接近している車両までの距離と調和するように水平部分のサイズを低減してよい。
いくつかの実施形態では、較正処理の一部としてステップ402および404の一方または両方を遂行してよい。換言すれば、出力画像を描画するように構成されたコンピューティングシステムの設計および製造中にステップ402および404を遂行してよい。
406で、投影面に少なくとも一部は基づき出力画像を描画する。いくつかの実施形態では、出力画像を描画するステップは、投影面の上に複数の入力画像の画素をマッピングするステップ、および出力画像の画素に投影面上の場所をマッピングするステップを含む。たとえば、投影面の上に複数の入力画像の各入力画像を投影して、描画された環境を作り出してよく、ビュー明細事項により記述された透視図から見た場合、投影面上の描画された環境がどのように見えるかを決定することにより、出力画像を描画してよい。
図5-ブロック特有の描画の流れ図
図5は、いくつかの実施形態による、出力画像を複数の画素ブロックに分割して、出力画像を描画するのを支援するための方法を例示する流れ図である。複数の入力画像から出力画像を描画するための方法の一部として、図3および/または図4を参照して記述する方法ステップと併せて、図5に記述する方法ステップを遂行してよい。いくつかの実施形態では、多重カメラシステムに連結したプロセッサを備えるコンピュータシステムにより、記述する方法を遂行してよい。記述する方法を遂行するためのプログラム命令を記憶していてよい1つまたは複数の非一時的コンピュータ可読記憶媒体にプロセッサを連結してよい。いくつかの実施形態では、第5節により詳細に記述するように、プロセッサは、計算ステップの待ち時間を低減するために利用してよい並列処理ハードウェアシステムであってよい。さまざまな実施形態では、図示する方法の要素のいくつかを、同時に遂行してよい、図示するのと異なる順序で遂行してよい、他の方法要素と置換してよい、または省略してよい。また、望み通りに追加の方法要素を遂行してよい。図示するように、方法は以下のように動作してよい。
いくつかの実施形態では、502で、出力画像を描画するステップは、出力画像の複数の画素ブロックごとに前記描画するステップを遂行するステップを含む。たとえば、任意のサイズおよび/または形状の複数の画素ブロックに出力画像を分割してよく、出力画像を描画するステップをブロックごとに遂行してよい。いくつかの実施形態では、広角魚眼レンズ、または歪みを導入する別のタイプのレンズを用いて入力画像を得たのであってよい。小さなブロック(たとえば、16×16のブロックまたは別のサイズ)を別個に描画することにより、入力画像から出力画像への投影マッピングを遂行する際に導入される歪みの程度は、出力画像全体を1つの大きなブロックとして描画することに対して低減されてよい。いくつかの実施形態では、歪みの受け入れ可能なしきい値レベルと、所望のレベルのスループットおよび待ち時間を維持しながら多数のブロックを処理するために必要な処理資源の量との間を均衡させるように、ブロックのサイズを選択してよい。たとえば、より小さなブロックサイズは、出力画像全体に対して多数のブロックをもたらし、それにより、所望の待ち時間で出力画像を描画するために、より多数の並列処理資源を必要とすることがあり、処理システムの計算能力および出力画像の使用事例(すなわち、他の可能性の中でも、所望のスループット、解像度、および/または待ち時間)に応じて、処理資源と出力画像の歪みの間で所望の均衡を選択してよい。たとえば、連続する出力画像を描画して、毎秒30フレームで出力ビデオをリアルタイムで作り出す実施形態については、出力画像を描画する待ち時間が1/30秒未満になるような特定のブロックサイズを得るために、資源を並列処理する程度を選択してよい。換言すれば、いくつかの実施形態では、特定の使用事例のために、投影マッピングにより導入される画像歪みの程度と受け入れ可能な待ち時間で出力画像を描画するために利用する処理資源の量を均衡させるように、複数の画素ブロックの各々のサイズを選択してよい。
504で、出力画像の複数の画素ブロックごとに、それぞれの画素ブロックの外周に沿った複数の画素と入力画像の1つまたは複数の各々の対応する複数の画素との間のマッピングを決定する。
いくつかの実施形態では、それぞれの画素ブロックの外周に沿った複数の画素は、それぞれの画素ブロックの4隅の画素である。たとえば、画素ブロックは、4×4、16×16、または別のサイズの長方形の画素ブロックであってよく、出力画像の正方形の画素ブロックの4隅に関して、それぞれの画素ブロックの外周に沿った複数の画素と入力画像の1つまたは複数の各々の対応する複数の画素との間のマッピングを遂行してよい。あるいは、他の実施形態では、他の形状の画素ブロックを使用してよく、外周画素は、それぞれの形状の隅であってよい。たとえば、出力画像をタイルのように並べた三角形のブロックに分割してよく、外周画素は、三角形の各画素ブロックの3つの隅であってよい。望み通りに、五角形、六角形などのようなタイルのように並べた他の形状もまた使用してよい。図4を参照して上述した投影面に基づき、マッピングを遂行してよい。たとえば、投影面を使用して、出力画像の画素ブロックの4隅の画素と1つまたは複数の入力画像内の対応する4つの画素との間のマッピングを決定してよい。
506で、1つまたは複数の入力画像ごとに、入力画像の対応する画素の外周内部に配置された画素から出力画像内のそれぞれの画素への投影マッピングを遂行する。投影マッピングは、それぞれの画素ブロックの外周に沿った複数の画素と1つまたは複数の入力画像の対応する複数の画素との間のマッピングに少なくとも一部は基づいてよい。たとえば、入力画像の画素ブロックの4隅の画素を1つまたは複数の入力画素の対応する4つの画素にマッピングすると、出力画像の画素ブロックの内部画素にマッピングする、隅の画素の線形外挿により、出力画像の4隅の内部に配置された画素(たとえば、外周画素内部に配置されたこれらの画素は、出力画像の画素ブロックの「内部画素」と呼ばれることがある)と1つまたは複数の出力画像の画素との間のマッピングを遂行してよい。
出力画像の外周画素から1つまたは複数の入力画像へのマッピングは、内部画素のうちの画素の投影マッピングよりも計算的に負荷が高いことがある。有利には、比較的少数の画素(たとえば、上記で記述する具体的例では4つ)に関して外周画素のマッピングを遂行し、一方では、多数の画素(たとえば、16×16の画素ブロックに関しては、256-4=252画素)に関して、はるかに高速な内部画素投影マッピングを遂行し、その結果、描画手順の全処理負荷を低減する。
追加の記述
以下の番号付きの段落は、本明細書で記述する実施形態に関する追加の詳細および説明を提供する。参照しやすいように、段階的番号付けシステムに従って以下の段落の節および下位の節を番号付けする。具体的には、節の見出しに単一の数字(たとえば、「2」)でラベルを付けて、下位の節に2つの数字(たとえば、2.3)でラベルを付けて、さらに下位の節に3つの数字(たとえば、2.3.1)でラベルを付ける。
1.要約
以下の節は、車両ADASの実施形態に関係がある追加の詳細(第2節)、較正機能およびビュー生成機能(第3.1節)および描画機能(第3.2節)を含む画像処理アルゴリズム(第3節)、パラメータおよび構成ファイル(第4.1節)ならびにソフトウェア構成要素(第4.2節)を含むソフトウェア(第4節)、並列処理ハードウェアシステム設計(第5節)、ならびにチップ設計(第6節)を提供する。
2.車両ADASの適用例
いくつかの実施形態では、多数のカメラを含むシステムを車両上に搭載して、車両の周りの任意の世界ビューを生成してよい。いくつかの実施形態では、広角視界(field of view、FOV)光学部品を伴う4つのカメラを車両の各側面に位置決めし、計算プラットフォームの中にネットワーク化してよい。計算プラットフォームは、カメラから画像を取得し、指定した窓から組み合わせたビューである(たとえば、上方などの車両の周りの場所から、車両上で見下ろす)単一表示画像を合成してよい。デジタル視覚インタフェース(digital visual interface、DVI)に基づく表示または他のタイプの表示は、4つの画像上でレンズ歪みを補正して画像を一緒につなぎ合わせた後に合成ビューを提示してよい。最終的透視変換を適用して、表示装置で提示すべき仮想の窓および/または透視図を指定してよい。
静的較正処理を使用して、個々のカメラ画像を前処理するために必要な、さまざまな空間補正および輝度補正を生成してよい。
操作者は、タブレットコンピュータまたは簡単なユーザインタフェースを伴う他の機器を使用して窓の選択を制御できてよい。コンピューティングプラットフォームに(たとえば、有線または無線で)接続されたモニタから直接任意の世界ビュー画像を表示してよい。
3.画像処理アルゴリズム
いくつかの実施形態では、任意の世界ビューシステムは、乗用車の周りの画像サンプルを取得するための魚眼レンズ(およそ180°のFOV)を伴う4つのカメラを含む。水平面内で、4つのカメラは90°ごとに配向されてよく、各カメラは180°の視界を有してよく、隣り合ったカメラ間で多くの画像の重なりを提供する。垂直軸に沿って、カメラを45°の角度で下方に配向して、乗用車の周りの地面の完全な視野を、および全方向で水平線までのビューを提供してよい。
画像処理アルゴリズムは、これら複数のカメラソースからの画像サンプルを組み合わせて、特定のビュー透視図を表す単一出力ビューにしてよい。以下の節は、出力ビューを描画するための機能ステップについてより詳細に記述する。
画像処理ステップを2つのグループに分割してよい。乗用車の上にカメラを設置した後、ステップの第1のグループを一度だけ遂行する。ステップの第1のグループを利用して、既知の位置を伴う較正標的を使用して、共通世界座標系に対して各カメラの位置および配向を較正してよい。次いで、4つのカメラに基づき、各ビューのブロック単位の記述を生成してよい。この第1のグループの機能は、任意の世界ビューの較正およびビュー生成のためにある。
第2のグループの動作は、較正中に計算したブロック単位のビュー記述を使用して、ビデオレートでビュー透視図を描画するためのリアル・タイム・システムを備える。カメラから画像サンプルを受信し、デモザイク(demosaic)機能を適用して、最大解像度の色を回復し、次いで、ワーピング(warping)を遂行して、透視図を表す仮想的直線状カメラの焦点面の上にサンプルを投影してよい。ビュー透視図の一部を2つ以上のカメラからのサンプルで埋める場合、最良の2つのカメラからのサンプルを融合してよい。また、測光アラインメントアルゴリズムをリアルタイムで適用して、車両または他の対象物が可変動する照明条件を通って移動する、または変動する照明条件を体験するときに変動する、カメラ間の露光の差を補償してよい。
両方のカテゴリで機能を適用する一般的取り組み方法は、多数のビューの幾何形状の基本原理を使用して、所望の機能性を達成するためにある。いくつかの実施形態では、モデルは、OpenCVなどのオープン・ソース・ライブラリを使用して、画像の投影変換を発見および適用するための機能の多くを実装してよい。
図6は、いくつかの実施形態による、モデルに含まれる2つのグループの処理に関するデータ流れ図を例示する。図の上部は、較正セットおよびビュー明細事項ごとに一度、オフラインで遂行してよいステップの第1のグループである。描画ブロックパラメータのアレイは、所望のビュー明細事項ごとに生成され、カメラから得られる各組の画像入力に対して遂行してよい動作の第2のグループに利用可能になってよい。
3.1 較正機能およびビュー生成機能
乗用車の上にカメラを設置した後に一度、校正機能を遂行してよい。乗用車に対する仮想カメラの位置および配向を含んでよいビュー明細事項ごとに一度、ビュー生成機能を遂行してよい。これらの機能の出力は、1つのカメラから4つ(または5つ以上)のカメラまでの画像サンプルを使用して、規定されたビューを反復して生成して、ビデオ出力を形成してよい1組のパラメータであってよい。校正機能およびビュー生成機能は、標準的コンピュータ上で作動するオフライン処理であってよい。
3.1.1 魚眼歪み補正
画像の投影変換の概念は、基本的なピンホール・カメラ・モデルなどの、基礎となる投影カメラに基づいてよい。このモデルでは、光線は、中心点から直線状像平面を通って世界の中の対象物まで伸びる。世界の中の対象物の位置を、光線が像平面と交差する地点により表してよい。
投影カメラモデルは、図7に示すように、直線状像平面と湾曲した魚眼画像表面の両方を通過する光線を描くことにより、魚眼レンズ画像と対応する直線状表現の間のマッピングを理解する基礎を提供する(この文書の図では、画像の2Dユークリッド部位を表す1次元で、すなわち直線で像平面を描く。同次画像座標および世界の対象物の3D空間を表す2次元で、中央投影カメラの光線を描く)。
異なる種類の魚眼レンズがいくつかある。いくつかの実施形態で使用するレンズは、等距離モデルとも呼ばれる等角投影モデルに従うと仮定され、次式により表される。
F=fFθ 式(1)
式中、rFは、魚眼画像表面内での主軸から像点までの距離であり、θは、光線と主軸の間の角度であり、fFは、焦点距離に似ている。
ピンホール・カメラ・モデルについては、対応する式は以下である。
P=fPtanθ 式(2)
上式は、θを通して魚眼ソース画像からその直線状表現へのマッピングを提供する。このモデルは、ソース画像が投影幾何形状変換に関与するときはいつでもこのマッピングを使用してよい。等角魚眼歪み補正の例を図8に示す。図8Aは、等角(魚眼)歪み(180°の視界)を伴うソース画像を示し、図8Bは、ピンホール・カメラ・モデル(120°の視界)を使用する再投影を示す。本明細書で使用するとき、「ソース画像」は、図3~図5を参照して記述する入力画像と同義語であると理解されてよい。
3.1.2 カメラ較正
カメラ較正機能は、世界座標系に対するカメラの位置および配向を見いだしてよい。処理への入力は、図13に示すようなチェス盤パターンの画像であってよい。以下のステップを遂行してよい。
1.歪んでいない(直線状の)入力画像内でチェス盤の隅の画素の場所を識別する。これをcv::findChessboardCorners()機能を使用して行ってよい。
2.ユーザは、対応するチェス盤の隅の場所を世界座標で示すアレイを提供する。
3.歪んでいないソース画像の中に世界座標を再度投影してよいように、回転行列Rソースおよび並進ベクトルTソースに関して数値的に解く。これをcv::solvePnP()機能を使用して行ってよい。
4.カメラ較正処理の成功の尺度である、画素単位での平均再投影誤差を報告する。
再投影方程式を以下のように記述してよい。
ソース=Rソース世界+Tソース 式(3)
ソース=KXソース 式(4)
式中、
Figure 0007208356000002
は、世界座標フレームでのチェス盤の隅の位置であり、
ソース は、ソースカメラ座標フレームでの同じ地点であり、
Kは、ソース像平面の焦点距離および主点パラメータについて記述する固有カメラ行列であり、
ソース=s(u、v、1)T は、ソース画像の画素位置である。
再投影方程式を図9にグラフで示す。回転行列Rソースは、世界座標フレームをカメラ座標フレームの配向に回転させ、一方で、並進ベクトルTソースは、ピンホールカメラの光学的中心であってよいカメラの中心に世界座標の原点を移動させる。RソースおよびTソースは、世界でのカメラの位置および配向を記述するのに十分である。
画素位置xおよび固有カメラ較正行列Kは、ソース画像の直線状表現に関係があってよいことに留意されたい。次いで、魚眼レンズマッピング機能を使用して、チェス盤の隅に対応する、魚眼ソース画像内の実際の画素位置を決定してよい。
カメラ較正機能は、カメラの外在的較正パラメータである回転行列Rソースおよび並進ベクトルTソースを提供する。これらのパラメータを用いて、世界座標フレームからソース画像の中に任意の地点X世界=(x、y、z)T を投影することが可能であってよい。これは、以下でより詳細に記述するように、ビューの任意の仮想地点に基づき新しい画像を作成するための基礎を提供してよい。
乗用車にカメラを取り付けると、これらの外在的較正パラメータを固定してよい。カメラごとに回転行列Rソースおよび並進ベクトルTソースを見いだすために、カメラ較正処理を一度遂行してよい。カメラの相対的な位置および配向が変化しない限り、これらのパラメータを使用して、同じ1組のソースカメラを使用して乗用車の周りの任意の数のビューを生成してよい。
3.1.3 投影変換
いくつかの実施形態では、第3.1.2節で記述するように、投影方程式で世界座標と較正画像の間で投影変換を利用する。世界の対象物の位置は、z軸が地面に対して垂直に配向されてよい世界座標フレームで既知であってよい。投影変換は、カメラ座標フレームの配向に座標フレームを回転させ、次いでカメラの中心まで原点を移動させる並進を加えるステップを含んでよい。その場合、世界の対象物に関する変換された3D座標を、世界の対象物の画素位置をもたらす、画像の投影面内の同次座標として解釈してよい。
図10に示すように、ソース画像から得た画像サンプルを使用していくつかの仮想カメラ位置に関する新しいビューを作成するステップは、2つの投影変換を伴ってよい。第一に、ビュー画像内の各画素の位置は、世界座標フレーム内の対象物の位置に投影されてよい。本明細書で使用するとき、「ビュー画像」は、図3~図5を参照して記述した「出力画像」と同義語であると理解されてよい。第二に、その世界の地点をソース画像内の画素位置に戻して再投影してよい。
1.ビュー画像からソース画像へのマッピングを、以下の一連のステップにより記述してよい。
Figure 0007208356000003
をビュー画像座標フレームでの何らかの画素位置に関する同次表現であるとする。zがその画素で画像を提供する世界の対象物の実際の深度になるように、特定の地点の値を選んでよい。
2.ビュー座標フレームから世界座標フレームに軸を回転させる。
3.Pビュー(世界座標フレームでのビューカメラの位置)を加算することにより、ビューカメラの中心から世界の原点に原点を移動させる。
Figure 0007208356000004
4.世界座標フレームから画像座標フレームに軸を回転させる。
5.世界の原点から画像カメラの中心に原点を移動させる。
ソース=Rソース世界+Tソース 式(6)
式の組合せは、ソース画像からビュー画像内の画素に関するサンプル値をどこで得るべきかを示す。
Figure 0007208356000005
投影幾何学では、Xビューは、カメラの中心から伸びて、Xビューで世界の対象物上に衝突する光線を表す。この光線が像平面を通過する画素位置での画像の色は、Xビューでの世界の対象物の色である。対象物の深度を、Xビューのz成分として規定してよい。TソースおよびPビューの値は世界座標単位であるので、TソースおよびPビューを加算するその後のステップからXビューを世界座標単位にスケール変更することが望ましいことがある。回転行列Rソースおよび
Figure 0007208356000006
は直交行列であることに留意されたい。これらの回転行列は単位なしであり、これらの回転行列により変換されたベクトルの長さを変えない。
3.1.4 世界の対象物に関する表面モデル
いくつかの実施形態では、任意のビューカメラの中心から対象物の深度を決定することは、自明ではないことがある。世界の中の対象物の3次元モデルを利用して、1つまたは複数のソース画像から事実上または容易には得られないことがある投影面を得てよい。
ビュー生成アルゴリズムは、2つの交差する表面を伴うハイブリッド表面モデルを利用してよい。世界の対象物は、この表面上にあると仮定されてよい。深度を計算する機能は、表面モデルを用いて画像画素を表す光線間の交点としてXビューを計算するステップを伴ってよい。
画素位置から始まる数学的方程式として、最初にこの位置を同次表現で表してよい。
Figure 0007208356000007
次いで、逆固有カメラ行列Kを適用する。
Figure 0007208356000008
その後の動作のためにXビューを適切にスケール変更するように、Xビューのz成分が、ビューカメラから得られる対象物の深度になるように、スケーリング因子sを見いだしてよい。実際は、ピンホール・カメラ・モデルに関する固有カメラ行列Kは、ビューカメラから得られる対象物の深度にsが等しくなるようなものであってよい。
乗用車の周りの世界がz=0で基平面であると仮定される実施形態について、深度の計算を式11に示す。これらの実施形態では、ビューカメラ明細事項は、地面の上の何らかの高さPビューzでのカメラの位置Pビュー、および高度θ+φを含み、ここでは、θは、ビュー主軸と+z軸の間の角度であり、φは、ビュー主軸と画像光線の間の角度である。
ビューに対する光線の長さは、
Figure 0007208356000009
であり、深度は、ビューカメラ主軸に沿ったこの長さの成分である。
Figure 0007208356000010
基平面表面モデルは、上から見た乗用車の周りのビューに関してうまく機能するが、水平線の上に物点を含むビューに関して望ましくないことがある。前景内の垂直な対象物もまた、水平基平面表面モデルを仮定する描画されたビューで歪むことがある。ビューの高度が上昇して、水平線に接近するにつれ、ビュー内のより多くの対象物は、他の可能性の中でもとりわけ建築物、植生、他の車両、および/または人々などの垂直な表面を表すことがある。
いくつかの実施形態では、円筒状投影面モデルを導入して、垂直ではない主軸を伴うビューに関するより現実的な描画を提供する。このモデルは、図12に示すように、少し離れた距離で乗用車を包む垂直な表面の上に物点があると仮定する。円筒の主軸は、乗用車の中心を通ってz方向に伸びてよい。
任意の世界ビューシステムは、円筒状の表面が乗用車からどれだけ遠く離れているかに関する仮定を行ってよいが、多くの事例では、描画されたビューは、この距離が世界の対象物までの実際の距離とどれだけ厳密に調和するかに強く依存しなくてよい。いくつかの実施形態では、円筒のサイズは、乗用車が移動している速度に連結されてよい。制止している乗用車は、隣接する障害物をより正確に描画するためにより短い距離を使用してよいが、一方で、移動している乗用車で描画されたビューは、より現実的により大きな円筒寸法を仮定していてよい。
いくつかの実施形態は、仮想カメラの中心からカメラの主軸に向けて(x、y)平面内で伸びる光線の交差を見いだすことによって動作する。その場合、任意の垂直成分を考慮するように光線の長さ増大させてよく、その結果、仮定した物点Xビューを円筒表面上に得る。
(x、y)平面内の円筒状境界の形状は、楕円形であってよく、長軸は乗用車の長さに沿って配向し、短軸は幅に沿って配向する。ビュー明細事項の一部として、ユーザは、乗用車の縁部から円筒状表面までの距離を表す単一の表面深度値を指定してよい。
ビュー生成機能は、ハイブリッド実装で基平面表面モデルと円筒状表面モデルの両方を採用してよい。両方のモデルを使用して、ビューカメラの中心から得られる所与の光線に関する深度を計算してよく、より小さな値を選んでよい。両方のモデルが深度に関してほぼ等しい値を提供する場合、半径機能は、減少した値を計算してよい。結果は、平坦な底部、乗用車を取り囲む垂直な側面、および垂直な側面の間にある滑らかな丸みのついた境界面を伴うくぼみの形状で仮定された世界の対象物表面であってよい。
仮定した円筒寸法が実際の世界の対象物までの距離よりも短い場合、ハイブリッドモデルは、描画された画像に興味深い効果を引き起こすことがある。たとえば、乗用車の近くにある対象物は、期待された透視図で描画されることがあるが、遠く離れた地点は、魚眼レンズ効果を示すことがある。半径機能は、描画された画像内のこれらの部位の間の遷移が滑らかであることをもたらす。
3.1.5 ソース画像からビュー画像への区画ごとの線形変換
前節は、次式のようにマップ関数として要約されることがある、任意の視点に関してソース画像(すなわち、入力画像)画素をビュー画像(すなわち、出力画像)にマッピングする投影変換について概要を述べている。
ソース=Rマップビュー+Tマップ 式(12)
x=KXソース 式(13)
上式は、ピンホール・カメラ・モデルによればソース画像内の画素位置x=s(u、v、1)Tをもたらしてよい。最終ステップとして、第3.1.1節で記述する非線形マッピングを適用して、当初の魚眼ソース画像内の画素位置を得てよい。
ビュー画像のあらゆる画素に関してマップ関数を評価することが可能であることがあるが、これは、あらゆるビューに関して大量のマッピング情報をもたらすことがある。これに対処して、描画時間および計算負荷を低減するために、いくつかの実施形態では、出力ビュー画像を画素ブロック(たとえば、16×16の画素ブロック、または別のサイズもしくは形状の画素ブロック)のグリッドに分割してよく、各ブロックの隅に関してだけマップ関数を評価してよい。図13は、ビュー画像内の16×16のグリッドに対応する、2つの魚眼ソース画像での1組のブロックを示す。例示するように、白いブロックをビュー画像にマッピングし、灰色のブロックを別のソース画像から得られるブロックと融合して、ビュー画像にマッピングし、黒いブロックは、代わりによりよいソース画像を使用してよいので、ビュー画像で使用されない。赤い痕跡は、2つのソース画像間の融合領域の中心線を示す。ハイブリッド表面モデルは、地面の上にあると仮定される、乗用車に近い地点、および乗用車を取り囲む円筒の表面上にあると仮定される、より遠くにある地点を伴って見ることができてよい。
出力ブロックごとにアフィン変換の係数を計算して、ソース画像サンプルをビュー画像の中にワープさせてよい。一般的投影変換を3×3行列の乗算演算として実装してよいが、アフィン変換は、より少ない自由度を伴う特殊事例であることがあり、変換行列の最後の行を使用する必要がないことがある。したがって、各出力ブロック内の画素に関するマッピングは、次式に還元されてよい。
Figure 0007208356000011
わずか6つの値を利用して、出力ブロックごとにアフィン変換を記述し、各ビュー画像ブロックの4隅のソース画像位置は、値a11、…、a23を解くための十分な情報を提供する。
ビュー画像位置をソース画像にマッピングする機能は、魚眼レンズ歪みに対する較正を含むとき、非線形になることがある。アフィン変換は、線形であってよく、一般的投影変換よりも制限的であってよいが、16×16の出力ブロックごとに別個に適用されてよいので、出力ビューを描画するのに十分であることがある。前記の別の方法では、レンズ歪みの程度は、出力画像を分割する画素ブロックのサイズと共に増大することがある。より小さな画素ブロックサイズはより大きな計算負荷に変換されるので、16×16の画素ブロックサイズは、十分に小さな歪みの度合いを導入することと資源を処理することの間で望ましい均衡を提示することがある。これは、基礎になる非線形マッピングへの、区画ごとの近似を形成する。いくつかの実施形態は、描画するための計算とリアルタイム描画システムでのブロックマッピング情報のための記憶領域要件を均衡させてよい。
3.1.6 融合比の計算
ソースカメラ上の魚眼レンズは、180°の視界を提供してよい。いくつかの実施形態では、隣接するカメラが取得した画像の間にかなりの重なりが存在してよいように、4つの基本方向を向く4つのカメラが存在する。
いくつかの実施形態では、どのソースカメラがビュー画像内の各ブロックに寄与するかを決定するために、融合比計算を使用してよい。ビュー画像内の所与のブロックの場所について、対応するソース画像および魚眼画像の中心からの距離に基づき、距離指標を計算してよい。2つのソースに関して計算した距離指標が、隣接するブロックの距離指標以上である場合、2つのソース間の中心線上に存在するとしてビュー画像ブロックを識別してよい。この指標は、最も高い解像度を有する各画像の中心に最も近いソースサンプルのほう好むという影響を及ぼしてよい。
いくつかの実施形態では、各ソース画像は、描画されたビュー画像に出現すべきではないソースサンプルを不適格と判定するための排除境界を含んでよい。ソース画像ブロックが排除境界に近い場合、中心線を排除境界から離して移動させるようにソース画像ブロックの距離指標を調節してよい。
ビュー画像内の中心線ブロックを識別した後、隣接するブロックに、中心線からの距離に基づき融合比の値を割り当ててよい。2つのソース画像から得られる、寄与するブロックからビューブロックが構成される場合、ビューブロック自体の画像中心は、0.5~1.0の間の融合比を割り当てられてよく、一方では、その他のソースブロックは、小さい方の相補的値を割り当てられてよい(たとえば、その他のソースブロックは、より近いブロックに割り当てられた値を1から減算した加重値を割り当てられてよい)。
融合比計算は、カメラ較正機能およびビュー生成機能の最後のステップであってよい。いくつかの実施形態では、重なるビュー画像ブロックの比は、描画機能に関して各ビューを規定する1組のパラメータに含まれてよい。
3.2 描画機能
いくつかの実施形態では、任意の世界ビュー例証システムの描画機能を反復して遂行して、所与のビュー明細事項に関して出力ビデオを作り出してよい。いくつかの実施形態では、描画機能は、仮想統合表示システム(visual integrated display system、VIDS)プラットフォーム上で、リアルタイムで作動してよいHyperX(登録商標)アプリケーションなどの並列処理システムを通して実装されてよい。
また、いくつかの実施形態では、描画機能のモデル実装を利用してよい。モデル実装は、標準的コンピュータ上で作動してよく、単一フレームに対して機能し、任意の世界ビューアルゴリズムを評価するためのプラットフォームを提供してよい。モデルの機能は、リアルタイムHyperX(登録商標)と密接に関係があるので、モデルはまた、HyperX(登録商標)アプリケーションの開発を支援するための試験ベクトルを提供してよい。
描画機能の入力は、所与の視点に関して出力画像の16×16のブロックごとに1組のパラメータを含んでよい。4つのカメラから得られるソース画像はまた、描画機能への入力の役割を果たしてよい。
3.2.1 デモザイク
いくつかの実施形態では、単一CCDデジタルカメラから得られるカラー画像を、赤、緑、および青のサンプルのモザイクを形成する色フィルタアレイであってよいベイヤー(Bayer)フィルタを通して取得してよい。デモザイク機能は、画素あたり1つのサンプル値を、完全な赤、緑、および青のカラープレーンを表す、画素あたり3つの値に変換してよい。
リアルタイムの任意の世界ビューHyperX(登録商標)システムでは、ビュー画像内の各16×16の画素ブロックに対応するソース画像ブロックにデモザイク機能を適用してよい。ソース画像ブロックは、アフィン変換適用後に結果として得られるビュー画像ブロックよりも小さくても、大きくてもよいサイズを伴う長方形の形状を有してよい。長方形の入力ブロックは、ビュー画像ブロックごとに使用するソース画像サンプルを完全に包含するので、「バウンディングボックス」と呼ばれることがある。図11に示すブロックのグリッドを参照すると、バウンディングボックスは、各ソース画像ブロックを完全に包含する直角の長方形であってよい。
さまざまな実施形態では、異なるデモザイク方法を選んでよい。バウンディングボックスが1000画素以下である場合、従来のデモザイクアルゴリズムを適用してよい。いくつかの実施形態では、各画素の場所で、色が欠落した2つのサンプルを補完してよい。
1000~4000ワードの間のバウンディングボックスについては、ダウン・ダンプリング・デモザイク・アルゴリズムを使用してよい。各画素サンプルを対応する色の隣接するサンプルの加重平均として計算して、フィルタ動作でフィルタリング、ダウンサンプリング、および補完を完了してよい。入力バウンディングボックスに対して出力バウンディングボックスを垂直および水平に2分の1だけ縮小してよい。アフィン変換係数を事前に補完して、縮小されたバウンディングボックスを考慮してよい。
ダウン・サンプリング・デモザイク法は、リアルタイムの任意の世界ビューにより処理されてよい入力ブロックサイズの範囲を拡張する。デモザイク動作の出力は、対応する16×16のビュー画像ブロックを描画するのに十分大きなソース画像サンプルのブロックであってよい。
3.2.2 ワープおよびブロック平均
いくつかの実施形態では、ワープ関数を採用して、アフィン変換を適用する。入力は、デモザイク関数から得られる、画素あたり3サンプルを伴うソース画像ブロックであってよく、出力は、16×16のビュー画像ブロックであってよい。
ブロック画素位置ごとに、バウンディングボックス内部の対応する画素位置を次式のように計算してよい。
Figure 0007208356000012
式中、係数a11、…、a23は、ビュー生成機能により計算された1組のパラメータの一部であってよい。位置
Figure 0007208356000013
は、uおよびvの整数値に制約されない実数値の位置であってよく、その結果、その位置に関する赤、緑、および青のサンプル値を補完してよい。双一次補完を使用してよい。
入力ブロックをビュー画像ブロックにワープすることに加えて、ビュー画像ブロック全体にわたって平均した赤、緑、および青のサンプル値を計算してよい。以下の第3.2.3節に記述する測光アラインメント機能により、ブロック平均値を使用してよい。
3.2.3 測光アラインメント
異なる照明条件が、異なる方向から車両の方を向くことに応答して、異なるカメラが露光および絞りの設定を独立して自動的に調節するのを保証するために、測光アラインメントシステムを利用してよい。2つのソース画像が、重なるブロックをビュー画像に提供する場合、その結果得られる融合された領域は、2つのソース画像の測光特性が互いに調和するように調節した場合、より自然に見えることがある。
図13Aおよび図13Bは、多数の入力画像による重なりを例証する。例示するように、ミッドグレーの境界を伴うソース画像ブロックは、ビュー画像の重なる融合領域内にある。測光アラインメントは、ソース画像の色を等しくして、描画されたビュー画像内の継ぎ目が消えるようにするのに役立つことがある。
いくつかの実施形態では、2つのソース画像間で、重なる領域内でブロック平均サンプル値を比較してよい。同じ場所に配置されたブロック内のサンプル値を最適に等しくなるように、ソース画像ごとに大域利得補正値を計算してよい。赤、緑、および青のカラープレーンごとに、別個の利得値を計算してよい。ビュー画像全体にわたって収集したブロック平均値を使用して、4つのソース画像に関して最大12までの利得値を計算してよい。
先行する1組のソース画像に関して計算した利得値を、現在のビュー画像内の画像サンプルのすべてに適用してよい。対応する色およびソース画像に関する利得値を各サンプル値に単に積算してよい。
3.2.4 融合
いくつかの実施形態では、描画処理の最終ステップを利用して、異なるカメラソースから、重なるビュー画像を融合する。大部分のビュー画像ブロックは、単一ソース画像から得られるサンプルだけを含み、融合機能は、これらのブロックについてはパススルー機能であってよい。残りのビュー画像ブロックについては、赤、緑、および青の値を、2つの画像ソースから得られる2つの同じ場所に位置する描画されたブロックの加重平均として画素ごとに組み合わせてよい。
第3.1.6節に記述するように、融合のために使用する加重値をビュー生成処理で計算した。単一ビュー画像ブロックに寄与する2つの加重値は、合計して1になってよい。
融合機能の出力は、1組のソースカメラから得られるソース画像サンプルが存在するブロック位置に関する1組の16×16のビュー画像ブロックであってよい。ビュー画像内のいくつかのブロック位置は、どのソースカメラにもマッピングされないことがあり、これらのブロックは描画されないことがある。
外部メモリ内のフレーム画像の中に出力ブロックを合成してよい。別個のタスクは、VIDSプラットフォームのDVI出力を通して提示するために外部メモリからラインごとにビュー画像を読み出す責任を負ってよい。
4. ソフトウェア
いくつかの実施形態では、1つから4つまでのソース画像から得られる画像サンプルに基づき所与の視点に関する単一画像を描画するために、一緒に作動する4つのソフトウェアの形をとる任意の世界ビューシステムを提供してよい。各プログラムは、独立に構築され、作動してよいが、一緒に作動可能にする共通の1組の構成およびパラメータのファイルを共有してよい。
4.1 パラメータおよび構成のファイル
モデル・ソフトウェア・アプリケーション・スイート内のプログラムは、多くのパラメータを利用して、ソースカメラ、所望のビュー、および描画されるビュー画像内の各16×16のブロックまたはタイルに関する情報について記述してよい。プログラムのすべては、パラメータファイルからこれらのパラメータを取り込んでよく、いくつかの実施形態では、コマンド・ライン・オプションは一般に使用されない。
4.1.1 BlockInfo
ブロックレベルのパラメータは、BlockInfoと呼ばれ、第3.1節に記述するビュー生成動作と第3.2節に記述する描画動作の間の橋渡しになる。これらのパラメータは、JSON(JavaScript(登録商標) Object Notification)フォーマットファイルに包含されてよい。JSONは、人間が読むことができてよいがソフトウェアもまた容易に取り入れてよい共通のウェブ・アプリケーション・プログラミング慣行から借用した軽量なデータ交換フォーマットであってよい。
ある例のBlockInfo構造を図14に示し、パラメータについて以下の表2で説明する。
Figure 0007208356000014
所与のビュー明細事項に関してビュー画像内のあらゆるブロックについて記述するブロック・パラメータ・セットのすべてを包含するファイルの中でBlockInfo構造体を使用してよい。
デモザイクモデルおよびリアルタイムの任意の世界ビューHyperX(登録商標)システムは、図15に示すようなCまたはC++構造体としてフォーマットされたBlockInfoパラメータを使用してよい。これは、人間が読むことができなくてよいが、ソフトウェアで取り扱うのに効率的であることがあるバイナリフォーマットであってよい。
4.1.2 CamData
いくつかの実施形態では、CamData構成ファイルをJSONフォーマットで利用してよい。CamData構成ファイルは、ビュー生成機能により使用されなくてよく、描画するために必要ではなくてよい。camera_calibrateプログラムは、入力と出力の両方としてCamDataファイルを使用してよく、一方では、view_generateプログラムは、入力としてCamDataファイルを使用してよい。ある例のCamDataファイルは、図16に示され、表2に示すように、3つのセクションを含む。例示するように、第1のセクションは、カメラ較正に必要な最小の1組のパラメータを包含する。第2のセクションは、カメラ較正処理の結果であるビュー生成に必要なパラメータを追加する。第3のセクションは、ただ人間の読み手だけのための情報であってよく、どのプログラムによっても使用されなくてよい。CamDataファイルを読み出すソフトウェアが使用する機能は、存在するファイルをできるだけ読み出すので、第2のセクションおよび第3のセクション内の任意の未知のパラメータは、ファイルから単に省かれててよいことに留意されたい。
Figure 0007208356000015
いくつかの実施形態では、targetPositionパラメータは、図17に例示する世界座標フレームに基づいてよい。乗用車の中心は、x-y軸の原点に必ずしもなくてよいが、カメラ較正動作は、軸方向が、図示されているようなものであることを仮定する。具体的には、いくつかの実施形態では、-y軸方向は、乗用車の前方から前へ伸びてよい。
4.1.3 ViewSpec
ViewSpecは、仮想カメラに関する所望の視点について記述する。このビューを「生成するステップ」は、ViewSpecで指定されたビューを描画するために使用するBlockInfo構造体のファイルを作り出すステップを伴う。いくつかの実施形態では、ViewSpecファイルは、ビュー生成処理だけで使用されてよく、リアルタイム描画システムにより必要とされなくてよい。
ある例のViewSpecファイルを図18に示し、表1に記述するパラメータを含む。ビュー配向を記述する角度パラメータは、図19に示すように、乗用車の前方軸を基準とする。
Figure 0007208356000016
4.2 ソフトウェア構成要素
任意の世界ビューシステムに関するモデルソフトウェアは、2つのライブラリおよびいくつかのコマンド・ライン・アプリケーションを含んでよい。ライブラリは、ビュー生成および描画アルゴリズムの機能の多くを実装してよい。アプリケーションは、ライブラリの機能を呼び出して、高水準の一連の動作およびファイルI/Oを取り扱うコードを追加してよい。
4.2.1 OpenCV(登録商標)ライブラリ
OpenCV(登録商標)は、コンピュータ・ビジョン・アプリケーションをサポートするオープン・ソース・ライブラリ機能である。OpenCV(登録商標)は、すべての標準プラットフォーム用にパッケージ化された形態で利用可能であり、1組の中心的な基本データ型および機能を提供する。たとえば、投影幾何学を伴う動作のすべては、たとえベクトルおよび行列を伴う線形代数方程式を表しても、簡単な数学的演算としてC++で表現される。ビューブロックごとにアフィン変換を見いだすために使用する特異値分解(singular value decomposition、SVD)アルゴリズムなどのいくつかの機能はかなり複雑であり、OpenCV(登録商標)を使用することは、モデルの効率的実装に利益となることがある。いくつかの実装形態では、任意の世界ビューモデルは、OpenCV(登録商標)のC++ APIのバージョン2.4を使用する。
4.2.2 ArthroCVライブラリ
いくつかの実装形態では、ArthroCVライブラリは、モデルアルゴリズムの機能の多くを包含する。ArthroCVライブラリは、OpenCV(登録商標)から得られる、より基本的機能よりも任意の世界ビューアプリケーションに特有な共通機能にアクセスするアプリケーションのためのC++アプリケーション・プログラミング・インタフェース(application programming interface、API)を表す。たとえば、等角(魚眼)カメラモデルとピンホール・カメラ・モデル(第3.1.1節)の間でのソース画像サンプルのマッピングは、ArthroCV(登録商標) APIの一部であってよいC++クラスであってよい。
ArthroCV(登録商標)ライブラリは、単一の共有オブジェクトライブラリとして、すなわち、Windows(登録商標)についてはarthrocv.dll、またはLinux(登録商標)についてはlibarthrocv.soとして提供されてよい。
4.2.3 デモザイク
いくつかの実施形態では、デモザイクプログラムは、単一CCDカメラが取得した画像を変換する独立型プログラムであってよい。機能への入力は、色サンプルの、ベイヤーモザイクを伴う未加工の2値画像であってよい。一例として、未加工の2値画像が画素あたり10ビットを包含する場合、出力は、あらゆる画素位置に関して画素ファイルあたり32ビットであってよく、10ビットの赤、緑、および青のサンプルを伴う。
いくつかの実施形態では、画像ファイルを変換するために、デモザイクプログラムは、
demosaic -image blockinfo_image_alignment.bin bayerInputFile.raw outfile.raw
を起動してよい。ここで、blockinfo_image_alignment.binは、ベイヤー・パターン・アラインメントを含むソース画像を記述する単一の2値BlockInfoパラメータセットを包含する。
追加のオープン・ソース・ユーティリティを用いてデモザイクプログラムを包み込んで.pgm(portable gray map)および.png(portable graphics format、移植性のあるグラフィックスフォーマット)などの他の標準画像フォーマットとの間で変換するシェルスクリプトを提供してよい。
4.2.4 カメラ較正
いくつかの実施形態によるカメラ較正機能について、第3.1.2節で上記に記述した。カメラ較正の結果は、世界座標フレームでのカメラの位置および配向を示す回転行列および並進ベクトルであってよい。
乗用車の上にカメラを設置した後、カメラごとにカメラ較正を一度遂行してよい。カメラにより、チェス盤較正標的を包含する画像を取得してよい。カメラおよび標的のパラメータを第4.1.2節および表2に記述するように、CamData構成ファイルのセクション1で指定してよい。
その後、カメラ較正は、
camera_calilbrate cam0.json
を起動してよい。
プログラムは、いくつかの実施形態によれば、セクション2およびセクション3で更新したパラメータを用いてカメラ構成ファイルを書き直してよい。いくつかの実施形態では、プログラムはまた、正しい動作を検証するために2つの画像を表示してよい。第1の画像のある例は、図20に示され、魚眼レンズの視界の円形境界が識別される当初のソース画像であってよい。ソフトウェアは、画像データの等角(魚眼)カメラモデルの表現とピンホール・カメラ・モデルの表現の間で正確なマッピングを生成するため使用してよい、円形画像の中心および半径を自動的に発見してよい。第1の検証画像はまた、CamData構成ファイルで指定した排除境界を示してよい。
第2の検証画像のある例は、図21に例示され、魚眼レンズ歪みを補正した後の較正標的を示す。例示するように、画像内でチェス盤画像の隅を自動的に検出する。較正プログラムは、これらの隅を使用して、カメラの位置および配向を解決する。
camera_calibrateプログラムは、ソース画像に戻して再投影された、世界座標フレームでのチェス盤の隅の場所の平均誤差である再投影誤差を報告してよい。再投影誤差の単位は、ソース画像のピンホールカメラ表現では画素であってよい。いくつかの実施形態では、ほぼ1画素以下の再投影誤差が望ましいことがある。
多数のカメラを使用して、任意のビューに関する融合ビュー画像を形成してよい。ビュー生成アルゴリズムは、較正後、互いに固定した相対的な位置および配向を維持するカメラに依存することがある。したがって、地上の1つの場所で乗用車を駐車しながら、すべてのカメラに関する較正画像を取得することが望ましいことがある。
4.2.5 ビュー生成
いくつかの実施形態では、単一プログラムは、第3.1.3節~第3.1.6節に記述するビュー生成動作のすべてを包含する。入力は、仮想カメラの位置、配向、サイズ、および視界を提供するViewSpec構成ファイル(第4.1.3節を参照のこと)であってよい。出力は、描画された画像内のあらゆる16×16のタイルに関するBlockInfoパラメータセットを包含するファイルであってよい。このファイルは、リアルタイムビュー描画システムへの入力であってよい。
BlockInfoパラメータセットは、コマンドラインで提供される、できるだけ多くのカメラ、たとえば最大4つまでのカメラからソース画像データを参照してよい。たとえば、所与のビューに関するBlockInfoパラメータのファイルを作成するために、以下のコマンドを使用してよい。
view_generate top_down_view.json cam1_front.json cam2_rear.json cam3_left.json cam4_right.json
ここで、view0.jsonは、ViewSpec構成ファイルであり、コマンドライン上のその他のファイルは、CamData構成ファイルである。任意の数のCamData構成ファイルを指定してよく(この実施形態では、最大4つまで)、CamData構成ファイルは、コマンドライン上で任意の順序であってよい。
いくつかの実施形態では、view_generateは、動作するとき、出力ビュー画像で使用するブロックの重なりを伴う、各CamData構成ファイルに対応するソース画像を示す。図13Aおよび図13Bは、これらの注釈付きソース画像のある例を示す。例示するように、薄い色のブロックをビュー画像にマッピングし、灰色のブロックを別のソース画像からのブロックと融合させて、ビュー画像にマッピングし、羊羹色のブロックは、代わりによりよいソース画像を使用してよいので、ビュー画像で使用されない。一連の印は、図13Aおよび図13Bの2つのソース画像間の融合領域を示す。
4.2.6 ビュー描画
いくつかの実施形態では、view_renderプログラムを第3.2節に記述する描画処理全体のモデル実装として利用する。
view_generateにより作り出されるBlockInfoパラメータファイルは、多数のカメラ情報源から所与のビューを描画する方法の、ブロックごとの完全な記述であってよい。コマンドライン上で利用される唯一の追加データは、ソース画像のcameraId値に加えてソース画像自体のファイル名であってよい。
ある例のコマンドラインは、
view_render blockinfo.json 1 front_c.png 2 rear_c.png 3 left_c.png 4 right_c.png
であり、ここで、ファイル引数は、view_generateにより作り出されるBlockInfoパラメータファイルであってよい。次の引数は、その生成されたビューで使用したカメラのすべてに関する1対の{cameraId,sourceImage}である。
この機能モデルは、ビデオレートで作動しているカメラから得られる実況の取得により最大4つまでのソース画像が提供されるシステムのためにあってよいので、画像ファイル名は、較正用に提供されるファイルと同じである必要がなくてよい。しかしながら、各画像ファイルは、同じカメラが取得した較正画像と同じcameraIdに関連づけられることが望ましいことがある。
図22は、描画されたビューのある例である。画像の中央の欠けたブロックは、乗用車自体が4つのカメラから地面のビューを遮断することによりもたらされた。画像の残りの部分は、3つのカメラから得られるデータから構成されてよく、3つのカメラの間で融合された遷移を伴う。たとえ第4のカメラをコマンドラインで指定していたことがあるとしても、第4のカメラの画像サンプルは、ViewSpec構成が記述する視界の範囲内にない場合、描画された画像で使用されないことがある。
5. 並列プロセッサシステム設計
以下の節は、いくつかの実施形態による、任意の世界ビューシステムおよび方法のビュー描画部分のための設計について概要を述べる。設計は、4つのGigE Visionカメラ入力およびDVI表示装置用の直接出力を含むHyperX(登録商標)開発システム内のHyperX(登録商標) hx3100プロセッサに基づいてよい、または別のタイプの並列処理ハードウェアシステムに基づいてよい。
5.1 機能分析
機能分析は、上記の第3.2節で記述するように、ビュー描画アルゴリズムの計算動作を考慮してよい。この場合、機能を遂行するために何プロセッササイクルを利用してよいかに関する推定値を提供してよい基本動作数を機能ごとに推定してよい。ビュー画像の1ブロックを取り扱う機能ごとのサイクルカウントを理解することにより、システムがどれだけ多くのプロセッサ要素を利用して、リアルタイムで作動させて、特定のフレームレート(たとえば、1秒あたり30または60フレーム)で特定の解像度(たとえば、1440×900または他の解像度)のビュー画像を作り出すかを示すことが可能である。
いくつかの実施形態による、任意の世界ビュー描画機能の主要な計算ステップについて以下の節で記述する。以下の例示的な1組の明細事項によれば、処理でのステップごとのブロックスループット要件は、標的ビュー画像のサイズおよびフレームレートに基づいてよい。
5.1.1 デモザイク
いくつかの実施形態では、デモザイクアルゴリズムのために(たとえば、第3.2.1節に記述するように)2つの機能カーネルを利用してよく、一方の機能カーネルは、ベイヤー・モザイク・パターンで、緑の場所で赤および青の画素を補完するためにあり、第2の機能カーネルは、青/赤の場所で緑および赤/青の画素を補完するためにある。
次に、デモザイク処理のためのブロックサイズに関して仮定を行ってよい。これは、単一出力の16×16のブロックを描画するために使用するソース画像データのバウンディングボックスであってよい。分析は、ブロックごとに、最悪の場合を想定した1000サンプルのサイズを仮定した。バウンディングボックスのサイズが1000~4000サンプルの間である場合、代わりのダウン・サンプリング・デモザイク・アルゴリズムを使用してよいことを想記されたい。
5.1.2 ワーパ(warper)
ワーパ機能は、第3.2.2節に記述するように、ソース画像サンプルの長方形ブロックから得られる16×16のビューブロックの256画素を計算してよい。機能の2つの部分は、アフィン変換を適用して、入力サンプルブロック内の(非整数の)位置を得るステップ、およびその位置に基づき入力サンプルを補完するステップを含んでよい。測光アラインメントアルゴリズムで使用するために、ブロック平均の赤、緑、および青の値もまたワーパ内で計算してよい。
5.1.3 測光アラインメント
測光アラインメントアルゴリズム(第3.2.3節)を2つのセルの中に実装してよく、一方のセルは、利得推定のためにあり、他方のセルは、利得値を適用して、カラーサンプル値を調節してよい利得補正であってよい。利得推定セルは、自乗差の合計を計算し、しきい値機能を適用して、調和が不完全なブロックを不適格と判定する。各フレームの終わりで、利得推定セルはまた、記憶した自乗差値の合計を伴う連立方程式を解く。
5.1.4 融合
融合されたビューブロックは、サンプル値に寄与する2つのソース画像を有する1つの融合されたビューブロックであってよい。この例示的実施形態では、ビュー画像ブロックの20%は融合されると仮定され、残りの80%は融合されない。融合計算は、融合されるビューブロックだけに適用されてよい。他のブロックは、単に単一入力から出力にコピーされてよい。
5.2 アーキテクチャ考慮事項
本節は、システム設計に制約を課すことがあるさまざまなアーキテクチャ考慮事項を列挙し、ハードウェアプラットフォームの詳細および高水準の機能明細事項を含む。いくつかの実施形態では、任意の世界ビューシステムは、自身の機能を遂行して、これらの考慮事項により記述される要件を満たしてよい。前節による機能分析と共にこれらの考慮事項は、システム設計の性能を決定する重要な要因となることがある。
5.2.1 高水準の機能明細事項
アーキテクチャ考慮事項である高水準の機能明細事項は、システムの標的入力/出力および計算スループットを決定する明細事項であってよい。いくつかの実施形態では、任意の世界ビューシステム要件文書で以下の明細事項を確立してよい。
例証システムは、ユーザが選択した車両のビューを表示するビデオモニタを提供してよい。表示装置は、公称解像度1440×900を有してよく、DVI信号方式インタフェースを有してよい。
例証システムは、カメラから少なくとも30fpsのレートで画像を取得し、同じレートで表示装置へのフレームを処理してよい。表示装置の実際のリフレッシュレートは、より高くてよいが、システムが処理する内容の更新レートは、少なくとも30fpsであってよい。
5.2.2 ハードウェアプラットフォーム
いくつかの実施形態では、任意の世界ビューアプリケーションのための計算プラットフォームは、チップ1、チップ2、およびチップ3というラベルのついた3つのHyperX(登録商標)プロセッサを装備したHyperX(登録商標)開発システムであってよい。チップ1およびチップ2はそれぞれ、図23に示すように、UDP/IPパケットを送受信するHyperX(登録商標)セルの形をとるソフトウェアドライバを含むギガビット・イーサネット・インタフェースを伴うボード上に提供されてよい。ソフトウェアI/Oドライバセルは、GigE Vision画像伝送プロトコルをサポートしてよく、各チップは、2つのカメラからビデオを同時に受信してよい。
図19 チップ1およびチップ2の資源
いくつかの実施形態では、チップ1およびチップ2はそれぞれ、以下の追加能力および資源を有してよい。
1.それぞれサイズが少なくとも128MBの4つの外部メモリ
2.生帯域幅(raw bandwidth)が125MW/秒の、左側の隣接に至る2つのLVDS I/Oインタフェース
3.生帯域幅が125MW/秒の、右側の隣接に至る2つのLVDS I/Oインタフェース
4.500MHzに設定されたコアクロック
5.ギガビット・イーサネット・ドライバ・セルのために使用するのよりも少ない100のプロセッサ要素および121のデータ・メモリ・ルータ
図24に示す第3のチップは、ビデオ出力用DVIインタフェースを伴うボード上に提供される。ソフトウェアビデオ出力ドライバセルを提供して、チップ3上で作動しているHyperX(登録商標)アプリケーションからボード上のハードウェア・ライン・ドライバを通して標準的DVIコンピュータモニタに至る直接接続を可能にしてよい。
いくつかの実施形態では、チップ3は、以下の追加能力および資源を有してよい。
1.それぞれサイズが少なくとも128MBの3つの利用可能な外部メモリ
2.生帯域幅が125MW/秒の、右側の隣接に至る2つのLVDS I/Oインタフェース
3.425MHzに設定されたコアクロック(このレートは、1440×900×60fpsのDVI出力のために使用される)
4.DVI出力ドライバセルのために使用するのよりも少ない100のプロセッサ要素および121のデータ・メモリ・ルータ
6. チップ設計
前節は、ビデオレートでビュー画像をリアルタイムで描画するための任意の世界ビューシステムのためのシステム設計について記述している。第3.2節は、描画システムが遂行してよいアルゴリズムについて記述し、第4.2.6節は、アルゴリズムのためのソフトウェアモデルを提供している。高水準性の性能明細事項について第5.2.1節で記述し、標的プラットフォームについて第5.2.2節で記述している。
さまざまな実施形態では、この適用例のためのシステム設計に対する解決手段が2つ以上あってよく、異なる解決手段は、実装の詳細が変動する。本節で記述する特定の解決手段は、明細事項を満たして、さらにまたセル再利用および設計の保守性という一般的な工学的目標もサポートするように設計された。
6.1 3チップ設計
いくつかの実施形態では、開発プラットフォームにより課されるアーキテクチャ上の制約は、2つの異なるチップの各々で2つのカメラからビデオを受信することであることがある。これはまた、2つのチップ間で描画処理の主要な計算作業を等しく分割することを好都合にすることがある。いくつかの実施形態では、これは、図25に示すように、高水準作業負荷分割を通して達成されてよい。例示するように、右から左へと、HX1およびHX2というラベルのついたチップ1およびチップ2でビデオを受信および処理してよい。各チップ上での処理は、4つのカメラすべてから得られるビデオサンプルへのアクセスを利用してよいので、2つのチップは、直接受信しなかったビデオデータを交換してよい。
HX3というラベルのついた第3のチップは、部分的に処理されたビューブロックを第1の2つのチップから受信してよく、描画処理を完了して、ビデオフレームをDVI表示装置に送信してよい。
次節では、3チップの内部設計についてより詳細に記述する。
6.2 チップ1およびチップ2の設計
図26は、いくつかの実施形態による、チップ1およびチップ2に関するデータフロー設計を示す。例示するように、カメラデータのためのGigE Vision入力は、図の右上にある。処理ネットワークは、以下の要素のうち1つまたは複数を含んでよい。
1.入力画像を脱パケット化し(depacketize)、入力画像をDDR外部メモリに書き込むための2つの並列パス
2.外部メモリに記憶する4つのカメラストリームを、すなわち、ローカル・イーサネット・インタフェースからの2つのカメラストリームおよびその他のチップからの2つのカメラストリームを考慮するMemSvr3セルおよびMemSvrExt3セル
3.異なるDDR外部メモリに記憶され、セル生成により読み出されるBlockInfoパラメータ
4.ブロックごとに各BlockInfoパラメータで指定されるようなバウンディングボックスを読み出すInputReader
5.いくつかのデモザイクセルを含むデモザイクグループ
6.いくつかのワーパセルを含むワーパグループ
7.異なるサイズのBlockInfoに起因するブロック処理レートの変動を吸収するための、いくつかの通信チャネル上に含まれるFIFO
8.チップ3に送信される、ビュー画像ブロックのストリームであってよい、チップ1およびチップ2からの出力
6.2.1 デモザイクグループ
demosaic_groupセルは、2つの入力および1つの出力を伴う単一セルであってよい。デモザイクグループの内部には、いくつかのデモザイクセル、および作業負荷分配専用の他のPEが存在する。いくつかの実施形態による、demosaic_groupセルの内部構造を図27に示す。ワーパグループは、ただ1つの単一入力を伴うことを除き、類似の構造を有してよい。
6.3 チップ3の設計
チップ3は、図28に示すように、チップ1およびチップ2からビューブロックのストリームを受信する。ストリームは、出力画像内のビュー画像すべてを測光アラインメントのために一緒に考慮してよいように、単一ストリームに合併されてよい。チップ3上のセルに関する機能分析は、セルが機能あたり2つ以上または3つ以上のPEを必要としなくてよいことを示す(第5.1.3節および第5.1.4節を参照のこと)。
測光アラインメント複合セルの出力は、ビューブロックの最終形態ではビューブロックのストリームであってよい。外部メモリ内のフレームバッファにブロックを書き込んでよい。次いで、DVI出力セルを通して表示するために、描画された完成フレームをラインごとに外部メモリから読み出してよい。
6.3.1 測光アラインメント複合セル
いくつかの実施形態では、チップ3内の画像処理機能のすべては、図29に示す測光アラインメント複合セルにより包含されてよい。機能は、第3.2.3節、第3.2.4節、第5.1.3節、および第5.1.4節に記述するように、利得推定、利得補正、および融合を含んでよい。
6.4 システムの設計目標
任意の世界ビューシステムのために描画されたビュー画像を作り出してよいシステム設計は、2つ以上存在してよい。前の図および段落で記述した特定の設計は、HyperX(登録商標)技術に基づく最も高度な並列実装に共通の、いくつかの一般的な設計目標を満たすように選ばれた。しかしながら、これらの特有の設計パラメータは、例示することだけを意図され、本明細書で記述する実施形態を実装するために他の設計パラメータおよびシステムを利用することは、本開示の範囲に入ることが理解される。
6.4.1 局所化
前のいくつか節で遂行される異なる機能を異なるセルに分割してよい。外部メモリ・インタフェース・セルなどのいくつかのセルは、主として計算のためにではなくデータ移動のためにあってよい。局所化は、選ばれた設計分解の重要な目標(たとえば、多くのセルの間でのアルゴリズム分割)であってよい。局所化は、設計でその他のセルが遂行している機能の知識なしに各セルが自身の機能を行ってよいことを意味すると解釈されてよい。セルが自身のタスクを遂行するために利用してよい唯一の情報を自身の入力上で受信してよく、セルは、下流のセルが下流のセルのタスクを行うために利用する作業結果だけを送信してよい。
任意の世界ビューシステムでの局所化のある例は、セルがビューブロックを処理しているときにセルの作業負荷がどのフレームに属しているかを多くのセルが設計の際にわかっていないという点に認められてよい。セルの機能は、あらゆるブロックについて同じであってよい。必要に応じてフレーム境界を追跡して、外部メモリ内のフレームポインタを更新することは、他のセルの責任であってよい。
システム内のセルのインタフェースは、設計で良好な局所化が存在するかどうかを例証することがある。セルごとのインタフェースが、簡単であると言っても差し支えないほどに簡単である場合、局所化は良好であってよい。簡単なインタフェースは、いくつかの他の設計分解と比較して、作業負荷あたり最小の入力データサイズおよび出力データサイズを伴う少数の入力ポートおよび出力ポートを有してよい。
設計が局所化を重要視することにより、設計の中で、および他の設計で、再利用可能である傾向がある簡単なセルがもたらされることがある。さまざまな実施形態によれば、デモザイクグループおよびワーパグループは、設計の中でのセル再利用の例であり、外部メモリインタフェースは、多くの設計で再利用されてよいセルのある例である。
6.4.2 フィードフォワード
いくつかの実施形態では、設計で各セルが上流のセルからデータを受信し、データに対して自身の機能を遂行し、次いで下流のセルに結果を送信することを意味すると解釈されてよいフィードフォワード設計を利用してよい。この設計は、設計でセルが上流のセルにデータを送り返すなどの明示的フィードバック通信を有しなくてよい。
純粋にフィードフォワードな設計は、フロー制御および性能に関する簡単なモデルを有してよい。任意の世界ビューシステムの所望のスループットは、毎秒30フレームであってよく、これは、特定のブロック処理レートに変換されてよい。設計であらゆるセルが自身の機能を所望のレートで遂行することができる場合、設計全体はまた、設計にフィードバックパスがまったく存在しない限り性能目的を達成してよい。フロー制御モデルを個々のセルそれぞれの内部で局所化してよく、各セルは、所望のレートで各セルに作業負荷を供給する各セルの上流の隣接に、および所望のレートで各セルの結果を受け入れる下流の隣接に、単に依存してよい。
6.4.3 分散制御
いくつかの実施形態では、分散制御の原理は、任意の大規模計算にスケール変更するHyperX(登録商標)技術に基づく並列処理用途に有利であることがある。分散制御は、セルが自身の命令を上流の隣接からだけ受信して、下流の隣接だけに命令を送信することを意味すると解釈されてよい。いくつかの実施形態では、分散制御は、局所化のある様態であってよい。
分散制御の反対は、大域制御であって、この場合、設計で星形または他のタイプの通信トポロジを介してさまざまな他のセルに命令を送信している側にコントローラセルが存在してよい。分散制御に伴う問題は、同期であると言ってよい。たとえば、大域制御セルは、命令をいつ送信すべきであるか。設計の一部は、位置の間の処理のパイプラインに起因してビデオフレーム内の別の位置と異なる位置を処理していてよい。分散処理を用いれば、設計範囲内の時間オフセットは、それほど重要ではないことがあり、考慮する必要がないことがある。
任意の世界ビューシステムでの分散制御のある例は、一方はソース画像のための、他方は表示画像のための、2組のフレームバッファに見られることがある。一方のフレームから次のフレームに進む判定をライタ(writer)セルおよびリーダセルでローカルに取り扱ってよい。有利には、これは、いくつかの実施形態では、ソース画像バッファと表示画像バッファの間のフレーム同期を調整することなく達成されてよい。
MPSシステム概観
以下の段落は、いくつかの実施形態による、HyperX(登録商標)アーキテクチャまたは別のタイプのマルチ・プロセッサ・システム(multi-processor system、MPS)などのMPSのためのハードウェア構成に関する詳細を追加で補充する。
マルチ・プロセッサ・システム(MPS)および関連する方法のさまざまな実施形態について記述する。マルチ・プロセッサ・システム(MPS)は、複数の処理要素(processing element、PE)を含むシステムとして規定されてよい。MPSは、PEの間に散在した複数のメモリを有してよい、または代わりに単一の共用メモリを有してよい。本明細書で使用するとき、用語「処理要素」は、プロセッサもしくはCPU(central processing unit、中央処理装置)、マイクロプロセッサ、またはプロセッサコアを指す。MPSは、任意の数の2つ以上のPEを含んでよいが、いくつかのMPSは、典型的には1つの汎用プロセッサ(general purpose processor、GPP)だけ、または数少ないGPPを含む従来のコンピュータシステムよりもかなり多くのPEを含んでよいことが留意される。たとえば、いくつかのMPSは、4、8、16、32、または64のPEを含んでよい(他の例は、たとえば12、数100、または数1000のPEさえ含む)。いくつかの実施形態では、大規模MPSに適したPEは、低電力消費の目的のためにPEが特殊な構成であるために、従来のコンピュータシステムが使用する汎用プロセッサよりもエネルギー効率がよいことがある。
MPSはまた、PEおよび/またはメモリを相互接続する相互接続ネットワーク(interconnection network、IN)を含んでよい。PEおよびメモリは、円形の次元(たとえば、ループまたはリング)を含む1つ、2つ、3つ、またはより多くの次元で相互接続されてよい。より高次元のMPSを、より低次元の製作媒体の上にマッピングすることができる。たとえば、4次元(four dimensional、4D)ハイパーキューブの形状を伴うMPSを、ケイ素集積回路(integrated circuit、IC)チップの3D積層の上に、または単一の2Dチップの上に、または計算ユニットの1Dラインの上にさえマッピングすることができる。また、低次元MPSをより高次元の媒体にマッピングすることができる。たとえば、計算ユニットの1Dラインを、ICチップの2D平面の上にサーペンタイン形状で配置する、またはチップの3D積層の中に渦巻状に巻くことができる。MPSは、多数のタイプの計算ユニット、ならびにプロセッサおよびメモリの散在した配列を含んでよい。また、広い意味でMPSに含まれるのは、MPSの階層配列またはネストされた配列であり、特に、さらにまたより深い階層構造を有してよい1つまたは複数のMPSをICチップが包含する、相互接続されたICチップから構成されるMPSである。
本明細書で使用するとき、用語MPSは、比較的均質な1組のプロセッサだけではなく、汎用の異質の集合体と、いわゆる「プラットフォームIC」チップ上に集積された専用プロセッサの両方に適用される。プラットフォームICチップは、典型的には、共用メモリおよびおそらくはオン・チップ・ネットワークと相互接続された数少ないプロセッサから多くのプロセッサまで包含してよい。MPSと「プラットフォームIC」チップの間に差があっても、なくてもよい。しかしながら、「プラットフォームIC」チップは、特有の垂直市場で特有の技術的要件に対処するためにマーケティングされてよい。
一般に、MPS用メモリを階層の形に組織化してよく、高速メモリが最上部にあり、より遅いが、より大容量のメモリが階層の下の各段階にある。MPSでは、階層の最上部にあるサポートメモリ(supporting memory、SM)を各PEの近くに配置してよい。各サポートメモリを、命令だけまたはデータだけを保持するように専用化してよい。特定のPE用サポートメモリは、そのPE専用であってよい、または他のPEと共用されてよい。
メモリ階層をさらに下ると、各PEに近接するサポートメモリのビット容量よりも何倍も大きいビット容量を伴う半導体同期ダイナミック・ランダム・アクセス・メモリ(synchronous dynamic random access memory、SDRAM)などの、より大規模な共用メモリが存在してよい。SDRAMを別個のICチップ上に、またはPEおよびサポートメモリに由来するチップ上に配置して、SDRAMの製作を特殊化してよい。メモリ階層をさらに下ると、フラッシュメモリ、磁気ディスク、および光ディスクなどの他のタイプのメモリが存在してよい。
ソフトウェアプログラムを用いてMPSをプログラムして、特有の機能を達成してよい。MPS内のPEの1つまたは複数により機能の各々を実行してよい。多くの場合、多数のプログラムをMPS上で互いに同時に実行してよい。プログラムは、一緒に実行され、互いに通信して、より複雑な機能を遂行してよい、または並列処理技法を採用することにより、より簡単な機能をより高速に遂行してよい。PE間のそのような調整を、本明細書では協同処理と呼ぶ。
MPSは、データおよびコマンドの関連供給源が入力データおよびコマンドを提供することができ、かつ無視できるほど十分に短い待ち時間で結果を提供することができるよりも高速に入力データおよびコマンドを受け入れることができるほど十分に高速にアプリケーションまたはプログラムを実行してよい。そのようなアプリケーションを、リアルタイムで遅延のない動作または「リアル・タイム・アプリケーション」と呼ぶ。関連入力データ(またはコマンド)を、「リアル・タイム・データ」(または「リアル・タイム・コマンド」)と呼ぶことがある。たとえば、MPSは、入力信号を介してリアル・タイム・データを受信してよい。アプリケーション、プログラム、または機能のうち1つまたは複数は、入力信号を処理し、場合によっては1つまたは複数のプログラムに基づき、修正された、または追加のリアル・タイム・データを伴う出力信号を作り出してよい。
図30-MPSのブロック図および外観
図30は、マルチ・プロセッサ・システム(MPS)の一実施形態を例示する構成図である。例示する実施形態では、MPS10は、複数の処理要素(PE)と、データおよび命令を互いに通信するように連結された、動的に構成可能なコミュニケータまたは動的に構成可能な通信要素と呼ばれることもある複数のデータ・メモリ・ルータ(data memory router、DMR)とを含む。本明細書で使用するとき、PEはまた、PEノードと呼ばれることもあり、DMRはまた、DMRノードと呼ばれることもある。
処理システム(MPS)10は、現在はGPMC、DSP、FPGA、またはASICを使用するさまざまなシステムおよびアプリケーションのいずれでも使用されてよい。したがって、たとえば、処理システム10は、さまざまなタイプのコンピュータシステム、または計算を必要とする他の機器のいずれでも使用されてよい。企図される一実施形態では、デジタルビデオ表示システムで信号処理機器として処理システム10を使用する。
一実施形態では、PEは、データを操作するように構成された1つまたは複数の算術論理演算装置(arithmetic-logic unit、ALU)、ALUを制御するように構成された1つまたは複数の命令処理ユニット(instruction processing unit、IPU)、命令またはデータを保持するように構成された1つまたは複数のメモリ、ならびにさまざまな種類のマルチプレクサおよび復号器を含んでよい。そのような実施形態は、いくつかのポート(「プロセッサポート」)を含んでよく、DMRに接続するように構成されてよいポートがあれば、他のPEに接続するように構成されてよいポートもある。
一実施形態では、DMRは、データおよび命令を保持するように構成された1つまたは複数のランダム・アクセス・メモリ(random access memory、RAM)と、構成可能なコントローラと、クロスバスイッチなどのネットワークスイッチと、レジスタと、マルチプレクサとを含んでよい。そのような実施形態は、複数のポートを含んでよく、PEに接続するように構成されてよいポート(本明細書ではPEタイプのポートと呼ばれる)があれば、DMRに接続するように構成されてよいポート(本明細書ではDMRタイプのポートと呼ばれる)もある。任意の所与のポートでは、DMRとの間で接続するために構成されていようがPEとの間で接続するように構成されていようが、特定のクロックサイクルでそのような所与のポートを通して転送可能なデータの量は、さまざまな実施形態で変わってよいことが留意される。たとえば、一実施形態では、クロックサイクルあたり1ワードのデータを転送するように所与のポートを構成してよいのに対して、別の実施形態では、クロックサイクルあたり多数のワードのデータを転送するように所与のポートを構成してよい。さらに別の実施形態では、所与のポートは、時分割多重などの技法を採用して、多数のクロックサイクルにわたり1ワードのデータを転送してよく、それにより、ポートを備える物理接続の数は低減される。
MPS10の一実施形態では、各PEは、命令用に確保された小規模ローカルメモリを含んでよく、非常に少ないローカルデータ記憶領域を含んでよい。そのような実施形態では、各PEに隣接するDMRは、所与のPEにオペランドを提供するように構成されてよい。特定の実施形態では、多くのPE命令については、所与のPEは、1クロックサイクル内に、隣接するDMRからオペランドを読み出し、ALU動作を実行し、所与の隣接するDMRにALUの結果を記憶してよい。それにより、1つのPEから得られるALUの結果は、実行直後のクロックサイクルでいくつかの他のPEに利用可能になってよい。この方式で結果を作り出すことにより、隣接するPEの実行が密接に調和可能に、または「密結合」可能になってよい。
本明細書で使用するとき、所与のDMRまたはPEの観点から、隣接するDMRまたはPEは、特定の待ち時間の範囲内に所与のDMRまたはPEからアクセスすることができるDMRまたはPEを指す。いくつかの実施形態では、隣接関係の範囲を規定する待ち時間は、たとえばクロック速度などの要因に応じて変動してよい。さらに、いくつかの実施形態では、多数の隣接度を規定してよく、隣接度は、異なるアクセス待ち時間に対応してよい。たとえば、一実施形態では、「最も近い隣接」を、データを要求する同じクロックサイクルの間にデータを供給することができる機器と規定してよく、「次に最も近い隣接」を、データ要求後の1クロックサイクル以内にデータを供給することができる機器と規定してよいなどである。他の実施形態では、他の指標を使用して、隣接関係を定量化してよいことが企図される。
所与のMPSの実施形態では、いくつかのDMRおよびPEは、他のDMRおよびPEに論理的に近接してよい。本明細書で使用するとき、「論理的に近接した」は、一方のDMRと別のDMR、または一方のDMRと一方のPEなど、2つの機器間の関係を指し、その結果、一方の機器の1つまたは複数のポートは、介在するDMRまたはPEを通過することなく他方の機器の対応するポートに直接接続される。さらに、所与のMPSの実施形態では、いくつかのDMRおよびPEは、他のDMRおよびPEに物理的に近接してよい。本明細書で使用するとき、「物理的に近接した」は、一方のDMRと別のDMR、または一方のDMRと一方のPEなど、2つの機器間の関係を指し、その結果、他のどのDMRもPEも、2つの機器の間に物理的に配置されない。
いくつかのMPSの実施形態では、論理的および/または物理的に近接するDMRおよびPEなどの機器はまた、隣接している、または隣接機器である。しかしながら、いくつかの実施形態では、所与の機器間の論理的近接および/または物理的近接は、所与の機器間の隣接関係または特定の程度の隣接関係を必然的に伴うわけではないことが留意される。たとえば、一実施形態では、一方のDMRは、かなり距離を離して配置した別のDMRに直接接続されてよい。そのような対は、論理的に近接しているが、物理的に近接しておらず、一方のDMRから他方のDMRへの信号伝播時間は、大きすぎて、隣接の待ち時間要件を満足させることができないことがある。同様に、一実施形態では、一方のDMRは、別のDMRに物理的に近接しているが、別のDMRに直接接続されず、したがって、別のDMRに論理的に近接していないことがある。一方のDMRから他方のDMRへのアクセスは、1つまたは複数の中間ノードを横断し、結果として得られる通過遅延は、大きすぎて、隣接の待ち時間要件を満足させることができないことがある。
MPS10の所与の実施形態の技術および実装に応じて、DMRの複数のポートの特有の数だけではなくDMRメモリのサイズも、全体の所望の実行速度およびDMRのサイズと均衡をとってよい。たとえば、DMRの一実施形態は、4つのPEタイプのポート、4つのDMRタイプのポート、および4Kワードのメモリを含んでよい。そのようなDMRの実装形態は、直接メモリアクセス(direct memory access、DMA)の仕組みを提供するように構成されてよい。DMAの仕組みは、PEが結果を計算している間、所与のDMRが他のDMRとの間で、またはMPS10の外部の場所との間で、データを効率的にコピーできるようにしてよい。
MPS10の一実施形態では、いくつかの異なる方法の1つで、DMR間でデータおよび命令を転送してよい。MPS10内のすべてのメモリに直列バスを提供してよく、そのようなバスを使用して、外部メモリからMPS10を初期化してよい、またはMPSデータ構造の試験をサポートしてよい。短距離転送については、所与のPEをプログラムして、所与のPEの隣接DMR間でデータを直接移動させてよい。より長い距離にわたりデータまたは命令を転送するために、DMRのネットワーク内で通信経路を動的に作成し、消滅させてよい。
そのようなより長い距離をデータ転送するために、MPS10内部で相互接続されたDMRのネットワークは、通信経路用切替えルーティング機構(switched routing fabric、SRF)を構成してよい。そのような実施形態では、SRF内の通信経路を管理するための方法が少なくとも2つ存在してよい。第1の方法は、大域プログラミングによるものであり、そこでは、パスは、ソフトウェア制御により(たとえば、人間のプログラマにより、またはルーティング能力を有するコンパイラにより)選択されてよく、命令は、クロスバを適切にプログラムするDMR構成コントローラの中に符号化されてよい。経路を作成するために、その経路に沿ったあらゆるDMRは、特定のルーティング機能を用いて明示的にプログラムされてよい。経路が頻繁に作成され、消滅させられる動的環境では、多数のクロスバ構成コードを必要とすることがあり、さらにまた、コードの記憶領域は、潜在的に制限されたDMRのRAM資源を消費することがある。
通信経路を管理するための第2の方法は、「ワームホールルーティング」と呼ばれる。ワームホールルーティングを実装するために、各DMRは、1組のステアリング(steering)機能と、SRFを通して、メッセージと呼ばれるワードのシーケンスの進行を停止および再開させる仕組みとを含んでよい。ステアリング機能は、すべての通信経路により共通に使用され、再利用されてよいので、DMRのRAMを占有してよい構成コードの量は、上述の大域プログラミング法よりもはるかに少なくてよい。ワームホールルーティング法では、ソフトウェア制御を依然として使用して、経路が使用する特定のリンクを選択するが、経路作成(本明細書ではセットアップとも呼ばれる)および消滅/リンク解放(本明細書では解体(teardown)とも呼ばれる)の処理は、ソフトウェアの介在を最小にしてハードウェアの形で実装されてよい。
経路上でデータワードが損失する可能性を回避するために、MPS10のある実施形態は、経路に沿って受信側と送信側の間でフロー制御を実装してよい。フロー制御は、伝送側の対応する受信側がデータをもはや受信することができない場合に伝送側を停止させてよく、かつ伝送側の対応する受信側がデータを受信する準備ができたときに伝送側を再開してよい仕組みを指す。経路上でのデータの流れを停止および再開させることは、ワームホールルーティングでメッセージの進行を停止および再開させることと多くの類似点があるので、一体化した方式で両者を組み合わせてよい。
一実施形態では、MPS10は、均一なアレイの形で一緒に接続された、同一であってよい複数のPEおよび同一であってよい複数のDMRを含んでよい。均一なアレイでは、PEの大多数は、同一であってよく、PEの大多数の各々は、MRへの接続を同数有してよい。また、均一なアレイでは、DMRの大多数は、同一であってよく、DMRの大多数の各々は、他のDMRおよびPEへの接続を同数有してよい。PEおよびDMRは、MPSの一実装形態では、実質的に均質な方式で散在してよい。本明細書で使用するとき、実質的に均質な散在は、DMRに対するPEの比がアレイの副領域の大部分にわたり不変な配列を指す。
実質的に均質な方式で配列された均一なアレイは、予測可能な相互接続パターンを提供する、およびソフトウェアモジュールをアレイ全体にわたって再利用可能にするなど、ある種の有利な特性を有してよい。一実施形態では、均一なアレイは、PEおよびDMRの少数のインスタンスを設計および試験することを可能にすることがある。この場合、DMRおよびPEを備えるユニットを製作し、次いでそのようなユニットを複数回反復する、または「タイルのように並べる」ことにより、システムを組み立ててよい。そのような取り組み方法は、共通のシステム要素を再利用することによって設計および試験の費用を安くすることがある。
PEおよびDMRの構成可能な性質は、多種多様の非均一な挙動を、物理的に均一なアレイ上で行うようにプログラムできるようにすることがあることもまた留意される。しかしながら、ある代替実施形態ではさらにまた、規則的もしくは不規則なアレイの形に、またはランダムな方法でさえ接続されてよい非均一なDMRおよびPEのユニットを用いてMPS10を形成してもよい。一実施形態では、たとえば集積回路(IC)、セラミック基板、またはプリント回路基板(printed circuit board、PCB)上に回路トレースとしてPEおよびDMRの相互接続を実装してよい。しかしながら、代替実施形態では、そのような相互接続は、たとえば電磁エネルギー(すなわち、無線または光のエネルギー)用導波管、無線(すなわち、導波管なし)エネルギー、粒子(電子ビームなど)、または分子上の電位など、さまざまな小型通信リンクのいずれであってもよい。
単一集積回路上にMPS10を実装してよい。一実施形態では、複数のMPS集積回路を組み合わせて、より大きなシステムを作り出してよい。MPS10の所与の実施形態は、ケイ素集積回路(Si-IC)技術を使用して実装されてよく、そのような技術の特有の特性の原因となるさまざまな特徴を採用してよい。たとえば、Si-ICチップ上の回路を、薄い平面に閉じ込めてよい。それに応じて、MPS10の所与の実施形態は、図30に例示するような、PEおよびDMRの2次元アレイを採用してよい。しかしながら、PEおよびDMRの異なる配列を含むMPSの代替実施形態が企図される。
さらに、Si-IC上の利用可能な配線密度は、そのようなチップの間よりもはるかに高いことがあり、各チップは、チップ上の信号およびチップ外の信号とインタフェースをとる周辺の特殊な入力/出力(I/O)回路を有してよい。それに応じて、MPS10の所与の実施形態は、チップのコア内にPEおよびDMRの均一なアレイと、チップの周辺に沿った、修正されたPE/DMRユニットとから構成される少し非均一なアレイを採用してよい。しかしながら、異なる配列、および均一なPE/DMRユニットと修正されたPE/DMRユニットの組合せを含むMPSの代替実施形態が企図される。
また、Si-IC回路が遂行する計算動作は、熱を生じさせることがあり、その熱は、ICパッケージングにより取り除かれてよい。ICパッケージングが大きくなることにより、追加空間を必要とすることがあり、ICパッケージングを通した相互作用およびICパッケージングの周りの相互接続は、パス長に比例する遅延を招くことがある。したがって、上記で指摘したように、非常に大規模なMPSは、多数のチップを相互接続することにより構築されてよい。そのような多数のチップのMPSの実施形態のプログラミングは、チップ間信号遅延がチップ内信号遅延よりもはるかに大きくなることを考慮してよい。
所与のSi-ICのMPS10の実装形態では、単一チップ上に実装してよいPEおよびDMRの最大数は、所与のSi-IC技術で可能な小型化、および各PEおよびDMRの複雑性により決定されてよい。そのようなMPSの実装形態では、PEおよびDMRの回路の複雑性は、目標とするレベルの計算スループットの達成を条件として最小化されてよい。そのように最小化されたPEおよびDMRを、本明細書では簡素化されたと呼ぶことがある。MPS10の一実施形態では、PEに関して目標とするスループットのレベルは、同じSi-IC技術で作られた最良のデジタル・シグナル・プロセッサ(digital signal processor、DSP)の算術実行ユニットのレベルに匹敵してよい。しかしながら、目標とするPEスループットに関する代替基準を使用してよい他のMPSの実施形態が企図される。
いくつかの実施形態では、MPS10は、DSPおよびFPGAのアーキテクチャが有する最良の特徴を採用してよい。DSPと同様に、MPS10は、多数の処理ユニットおよびオン・チップ・メモリを伴う、プログラム可能なチップであってよい。しかしながら、DSPと比べて、MPS処理ユニットは簡素化されてよく、さらに多くのMPS処理ユニットが存在してよく、MPS処理ユニットは、MPS処理ユニット間のデータ移動の帯域幅だけではなく、チップ上およびチップ外のデータ移動の帯域幅も最大にする新規な方法で相互接続されてよい。DSPよりも多くの処理ユニットを有することにより、MPS10は、単位時間あたりより多くの積算を行うことができるようになり、簡素化された処理ユニットは、エネルギー使用を最小にすることがある。内部並列処理を有する多くのDSPは、バス指向アーキテクチャであってよい。いくつかの実施形態では、MPS10は、バスを含むのではなく、むしろバス指向アーキテクチャよりも著しく高い全帯域幅を提供してよいSRF内に埋め込まれたDMR内などに、隣接する共有ローカルメモリを含んでよい。
FPGAの取り組み方法と比較して、いくつかのMPSの実施形態は、より粗い粒状であってよい。たとえば、MPSの一実施形態では、演算は自然な語長(たとえば、16ビット)を有してよく、計算は、自然な語長の倍数のデータを使用して遂行する場合、最も効率的であってよい。いくつかのMPSの実施形態では、PEおよびDMRは、FPGAで実現される等価な構造より高密度あってよく、その結果、より短い平均配線長、より低い配線容量、およびより少ないエネルギー使用がもたらされることがある。FPGAの実装とは対照的に、いくつかのMPSの実施形態では、MPS内のあらゆるALUは、プロセッサ(すなわち、PE)の一部であってよく、それにより、オペランドのフェッチ、およびDMR内の周囲の高速メモリへ結果を書き戻すのが容易になることがある。ALUに関するタイミングおよびクロックスキューの問題、フェッチ動作、および書き戻し動作は、ICチップを設計する間に一度解決すればよく、FPGAの実装で特有なように、新しいアプリケーションごとに再度解決する必要はない。
MPSのトポロジおよび通信
図30に例示するMPS10は、図示するように、PE間にDMRを散在させることにより、高速メモリへの十分な接続をPEに供給してよい。そのような配列は、分離した(すなわち、散在していない)配列に比べて所与のPEがDMR内のメモリにアクセスするために必要とされる時間を低減することがあり、本明細書では散在グリッド配列と呼ばれることがある。図30の実施形態では、PE対DMRの比はおおよそ1:1である。しかしながら、PE対DMRの異なる比を含んでよい、MPSの他の実施形態が企図される。
異なるタイプおよび数の接続を使用する多くの可能な接続方式が存在してよいので、DMRとPEの間の接続を図30に明示的に示していない。
図31-MPS接続方式
図31は、MPS接続方式の一実施形態を例示する構成図である。MPS接続方式20は、複数のDMRおよびPEを含み、図30のMPSの一部分を例証するものであってよい。MPS接続方式20では、各PEは、4つの隣接DMRに接続され、一方では、各DMRは、4つの隣接PEだけではなく4つの隣接DMRにも接続される。したがって、MPS接続方式20は、上記で論じたPlanarA接続方式を例証するものであってよい。
MPS接続方式20で広帯域幅ポートをサポートするために、ポート間の接続(PEからDMRまたはDMRからDMR)は、短い(すなわち、隣接に限定された)ワード幅であってよく、接続のデータ部分の電気伝導体(線)の数は、ALUオペランドで使用するビットの数と同じであってよいことを意味する。PEからDMRへの接続は、アドレス線を含んでよい。DMRからDMRへの接続は、アドレス線を必ずしも有していなくてよいが、フロー制御用の線を有してよい。
PEノードを簡単に保つことにより、大規模アレイ(たとえば、MPSの一実施形態では、16行×16列=256PE)を適度の費用で単一のVLSI IC上に載せてよい。適切なVLSI技術は、ケイ素または他の半導体でバイポーラトランジスタありまたはなしの相補型金属酸化膜半導体(complementary metal-oxide semiconductor、CMOS)電界効果トランジスタを含んでよいが、それに限定されない。
いくつかのMPSの実施形態では、ノード間通信は、プログラマの制御を受けてよい。MPSでは、各PEは、隣接するDMRとデータ/命令を通信し、任意選択で、続けてそれらのDMRを通して他のDMRおよびPEに伝達してよい。これは、短距離にわたり少量のデータを伝達するのに非常に効果的である。しかしながら、より大規模なデータブロックまたはより長い距離については、DMAエンジンを使用してデータを移動させることは、より効率的であり、したがって、ALU演算を遂行できるようにPEを解放する。
より長い距離のブロック移動については、いくつかのMPSの実施形態は、PEを関与させることなくDMR間のメモリ間転送のための手段を提供してよい。PEは、隣接DMR内のDMRタイプのポートに、そのようなポートに関連する特殊なSMアドレスを通して間接的にアクセスしてよい。これにより、PEは、メッセージを送信するための新しい経路を作成し、後でそのような経路を破棄できるようになってよい、または代わりにメッセージを受信できるようになってよい。PEはまた、転送すべきデータのブロックを隣接DMR内のSMバッファに保存し、次いでDMA動作をそのような動作に関連する特殊なSMアドレスを通して開始するよう隣接DMRに指示してよい。これにより、PEは、隣接DMRがデータのDMA転送を調和させながら他のタスクに進むことができるようになってよい。
MPSのさまざまな実施形態は、有用なアルゴリズムを実行するための有利な環境を提供してよい。(たとえば、画像データを分析するための)関心のあるアルゴリズムをALUの流れ図の中に分割してよい。多数のフィードバックパス/フィードフォワードパスを含む木、格子、またはどんな任意のネットワークとしてもMPSアレイの上に各流れ図をマッピングしてよい。いくつかのPEおよびDMRを組み合わせることにより、1つのALUの有限な精度を拡張して、マルチワードの精度の結果を得てよい。流れ図をMPSにマッピングするとき、ノード間の距離に比例するPE/DMRノード間通信遅延が生じることがある。また、マッピングは、通信キューが大きい場合、または再構成が頻繁にある場合、各ノードでメモリをより多く必要とすることがある。通信遅延、キューイング、および再構成を考慮にいれてよい注意深いプログラミングにより、これらの要因を補償してよい。
シストリック(systolic)アルゴリズムは、MPSのさまざまな実施形態に特に効果的にマッピングしてよいアルゴリズムのクラスを表す。シストリックアルゴリズムは、行列演算、画像処理、および信号処理で多様な用途のために開発されてきた。シストリックアルゴリズムでは、多くのプロセッサは、同期して協同して困難な計算を遂行してよい。理想的アルゴリズム実装では、各プロセッサは、アルゴリズを必要とする限り何度も何度も同じ動作(または小さな動作ループ)を遂行してよく、データは、データワードの生産および消費を均衡させて、隣接する接続によりプロセッサのネットワークを通して流れてよい。次いで、生産された各中間結果データワードが後続の計算により直ちに消費される場合、必要とされるメモリ量を最小にしてよい。シストリックアルゴリズムの利点は、簡素化されたプロセッサを使用し、メモリ要件を最小にし、標準的で費用がかからないVLSI技術を使用して高い算術演算レートを達成する能力を含んでよい。
MPSの実施形態は、チップあたり多くのプロセッサを、ならびにSIMDシステムおよび分散MIMDシステムなどの他のクラスのシステムの動作をエミュレートするように構成されてよい総体的MIMDアーキテクチャを有してよい。いくつかの実施形態では、MPSは、チップの異なる部位で異なるアルゴリズムを同時に作動させてよい。また、電力を節約するために、いくつかの実施形態では、プログラマは、少なくともいくつかのPEおよびDMRへのクロックを選択的に有効にし、無効にすることができる。したがって、未使用のPEおよびDMRを無効にしてよい。
PE/DMRの機構
図32は、MPS機構の一実施形態を例示するより詳細な図である。図32では、各PEは、メモリリクエストおよびメッセージを伝達してよい4つのDMRにより取り囲まれている。各DMRは、チップI/Oポートに近接してよい、機構の縁部近くにある場所を除き、4つの他のDMRにより取り囲まれている。各DMRは、隣接するDMRまたはチップI/Oポートと通信して、通信経路をセットアップして、前記経路上でメッセージを送信/受信してよい。
MPSの動作
図33は、図32のアーキテクチャ例と調和する9×9のDMRアレイ(円形)と共に均一に散在した8×8のPEアレイ(正方形)から構成される、ある例のMPSを例示する。PEに割り当てるタスクの中にプログラムをコンパイルしてよい。第1の例のプログラムを、タスクID=62でコンパイルして、アレイの左上隅にある特有のPEに割り当てた。変数(u,v,w)は、プログラム・ソース・コード内で宣言した通信変数であり、近接するDMR内の特有のメモリアドレスに割り当てられ、uおよびvは、I/Oポート用バッファであり、wは、タスクID=62の関連するDMRとのチップ上でのネットワーク通信用バッファである。第2の例のプログラムを、タスクID=71でコンパイルして、アレイの内部にある特有のPEに割り当てた。変数xは、宣言された通信変数であり、図示するDMRに割り当てられる。変数xに関連する通信経路は、タスクID=71の割り当てられたDMRから他のDMRを経由して最上部の行にあるI/Oポートまで伸びている。図示するように、2つの例のプログラムは、互いに通信しないが、タスク71に別の通信変数を追加し、タスク71のDMRとタスク62に近接するDMR内の変数wとの間の経路を追加することにより、容易に通信するようにできる。
本開示の実施形態は、さまざまな形態のいずれかで実現されてよい。たとえば、いくつかの実施形態では、本発明は、コンピュータ実装方法、コンピュータ可読記憶媒体、またはコンピュータシステムとして実現されてよい。他の実施形態では、ASICなどの1つまたは複数のカスタム設計ハードウェア素子を使用して本発明を実現してよい。他の実施形態では、FPGAなどの1つまたは複数のプログラム可能ハードウェア要素を使用して本発明を実現してよい。
いくつかの実施形態では、非一時的コンピュータ可読媒体は、プログラム命令および/またはデータを記憶するように構成されてよく、この場合、プログラム命令は、コンピュータシステムにより実行された場合、方法を、たとえば、本明細書に記述する方法の実施形態のいずれか、または本明細書に記述する方法の実施形態の任意の組合せ、または本明細書に記述する方法の実施形態のいずれかからなる任意のサブセット、またはそのようなサブセットの任意の組合せをコンピュータシステムに遂行させる。
いくつかの実施形態では、コンピューティング機器は、プロセッサ(または1組のプロセッサ)および記憶媒体を含むように構成されてよく、この場合、記憶媒体は、プログラム命令を記憶し、この場合、プロセッサは、記憶媒体からプログラム命令を読み出し、実行するように構成され、この場合、プログラム命令は、本明細書に記述するさまざまな方法の実施形態のいずれか(または本明細書に記述する方法の実施形態の任意の組合せ、または本明細書に記述する方法の実施形態のいずれかからなる任意のサブセット、またはそのようなサブセットの任意の組合せ)を実装するように実行可能である。機器は、さまざまな形態のいずれかで実現されてよい。
具体的実施形態について上記に記述してきたが、これらの実施形態は、特定の特徴に関して単一の実施形態だけについて記述している場合でさえ、本開示の範囲を限定することを意図するものではない。本開示で提供する特徴の例は、特に指定のない限り、制限的ではなく、例示的であることが意図される。上記の記述は、本開示の恩恵を受ける当業者に明らかなように、そのような代替形態、修正形態、および均等物を包含することが意図される。
本開示の範囲は、(明示的に、または暗示的に)本明細書で開示する任意の特徴もしくは特徴の組合せ、またはそれらの任意の一般化を、それが本明細書で対処する問題のいずれか、もしくはすべてを軽減してもしなくても含む。したがって、本出願(またはその優先権を主張する出願)の手続き中に、任意のそのような特徴の組合せに対して、新しい請求項を考案してもよい。詳細には、添付の特許請求の範囲を参照すると、従属クレームからの特徴は、独立クレームの特徴と組み合わせられてよく、それぞれの独立クレームに由来する特徴は、添付の特許請求の範囲に列挙された具体的組合せだけではなく、任意の適切な手法で組み合わせられてよい。

Claims (18)

  1. 出力画像を描画するための方法であって、
    異なる第1の場所から各入力画像が得られる複数の前記入力画像を受信するステップと、
    前記出力画像を描画するための、第2の場所を備えるビュー明細事項を受信するステップと、
    前記複数の入力画像および前記ビュー明細事項に少なくとも一部は基づき前記出力画像を投影面に描画するステップであって、前記出力画像は、前記第2の場所から見たときの領域の画像を備え、前記第2の場所は、前記第1の場所の各々と異なり、前記複数の入力画像および前記ビュー明細事項に少なくとも一部は基づき前記出力画像を描画する前記ステップは、
    前記出力画像の複数の画素ブロックごとに、
    それぞれの前記画素ブロックの外周に沿った複数の画素と前記入力画像の1つまたは複数の各々の対応する複数の画素との間のマッピングを決定するステップを備えるステップと、
    出力画像を表示装置上に表示するステップと
    を備えるステップと、
    表示装置上に前記出力画像を表示するステップと
    を備え
    前記複数の入力画像および前記ビュー明細事項に少なくとも一部は基づき前記出力画像を描画する前記ステップは、
    前記出力画像の複数の画素ブロックごとに、
    前記1つまたは複数の入力画像ごとに、
    前記入力画像の前記対応する画素の外周内部に配置された画素から前記出力画像内のそれぞれの画素への投影マッピングを遂行するステップ
    をさらに備え、
    前記投影マッピングは、それぞれの前記画素ブロックの前記外周に沿った前記複数の画素と前記1つまたは複数の入力画像の前記対応する複数の画素との間のマッピングに少なくとも一部は基づき、
    前記複数の画素ブロックの各々のサイズは、前記投影マッピングにより導入される画像歪みの程度と、前記出力画像を描画する前記ステップに関連する計算資源とを均衡させるように選択され、
    より小さな前記画素ブロックのサイズは、前記画像歪みの程度を低減し、一方で、所望の待ち時間で前記出力画像を描画するためにより多数の並列の計算資源を必要とする、
    方法。
  2. 連続したそれぞれの前記複数の入力画像に基づき、リアル・タイム・ビデオを作り出すために前記表示装置上にリアルタイムで表示される連続した前記出力画像を反復して描画するステップ
    をさらに備える、請求項1に記載の方法。
  3. 前記投影面を決定するステップ
    をさらに備え、
    前記複数の入力画像に少なくとも一部は基づき前記出力画像を描画する前記ステップは、前記投影面の上に前記複数の入力画像の画素をマッピングするステップと、前記出力画像の画素に前記投影面上の場所をマッピングするステップとを備える、
    請求項1に記載の方法。
  4. 前記第1の場所を取り囲む部位に関係がある測距情報を決定するステップ
    をさらに備え、前記投影面を決定する前記ステップは、前記測距情報に少なくとも一部は基づき遂行される、
    請求項3に記載の方法。
  5. 前記第1の場所は、車両上の場所であり、
    前記投影面は、前記車両を取り囲む水平部分、および前記水平部分を取り巻く垂直部分を備える、請求項3に記載の方法。
  6. 前記車両の現在の速度に少なくとも一部は基づき前記水平部分のサイズを決定するステップ
    をさらに備え、
    前記車両のより速い現在の速度は、前記車両のより遅い現在の速度よりも広い水平部分を決定する、
    請求項5に記載の方法。
  7. 前記投影面の前記水平部分は、前記車両を取り囲む楕円状ディスクを備え、
    前記投影面の前記垂直部分は、前記楕円状ディスクを取り巻く楕円状円筒を備え、
    前記投影面は、前記楕円状ディスクおよび前記楕円状円筒を滑らかに連結する中間領域をさらに備える、
    請求項5に記載の方法。
  8. 前記楕円状ディスクの長軸は、前記車両の前方から前記車両の後方に伸び、
    前記楕円状ディスクの短軸は、前記車両の左側から前記車両の右側に伸びる、
    請求項7に記載の方法。
  9. 前記第1の場所を取り囲む環境の幾何学的配置を決定するステップ
    をさらに備え、
    前記投影面は、前記第1の場所を取り囲む前記環境を近似するB-スプライン表面を備える、
    請求項1に記載の方法。
  10. 前記それぞれの画素ブロックの前記外周に沿った前記複数の画素は、前記それぞれの画素ブロックの4隅の画素を備える、請求項に記載の方法。
  11. 1つまたは複数の第2のビュー明細事項を指定するユーザ入力を受信するステップと、
    前記1つまたは複数の第2のビュー明細事項および前記複数の入力画像に少なくとも一部は基づき1つまたは複数の第2の出力画像を描画するステップと、
    前記表示装置上に前記1つまたは複数の第2の出力画像を表示するステップと
    をさらに備える、請求項1に記載の方法。
  12. 前記出力画像の少なくとも1つの部分は、前記複数の入力画像のうち2つ以上の入力画像から供給され、
    前記出力画像の前記少なくとも1つの部分を描画する前記ステップは、前記複数の入力画像のうち前記2つ以上の入力画像からの寄与を融合するステップを備える、請求項1に記載の方法。
  13. 融合する前記ステップは、前記出力画像の前記少なくとも1つの部分の投影場所に前記2つ以上の入力画像の前記第1の場所が近いことに少なくとも一部は基づき重み付けされる、請求項1に記載の方法。
  14. 前記融合するステップは、前記2つ以上の入力画像の間にある照明の不一致を補正する、請求項1に記載の方法。
  15. 前記ビュー明細事項は、
    前記第2の場所にある原点から測定した方位角、
    前記第2の場所にある前記原点から測定した極角、
    視界、
    投影面深度、
    1つまたは複数の投影面パラメータ、
    画素解像度、および
    融合幅
    のうち1つまたは複数をさらに備える、請求項1に記載の方法。
  16. 非一時的コンピュータ可読記憶媒体であって、1つまたは複数のプロセッサにより実行されたとき、コンピューティングシステムに、
    異なる第1の場所から各入力画像が得られる複数の前記入力画像を受信するステップと
    出力画像を描画するための、第2の場所を備えるビュー明細事項を受信するステップと
    投影面を決定するステップと
    前記複数の入力画像、前記ビュー明細事項、および前記投影面に少なくとも一部は基づき出力画像を描画するステップと
    を実行させるプログラム命令を備え、
    前記出力画像は、前記第2の場所から見たときの領域の画像を備え、前記第2の場所は、前記第1の場所の各々と異なり、前記複数の入力画像および前記ビュー明細事項に少なくとも一部は基づき前記出力画像を描画する前記ステップは、
    前記出力画像の複数の画素ブロックごとに、
    それぞれの前記画素ブロックの外周に沿った複数の画素と前記入力画像の1つまたは複数の各々の対応する複数の画素との間のマッピングを決定するステップ
    を備え
    前記複数の入力画像および前記ビュー明細事項に少なくとも一部は基づき前記出力画像を描画する前記ステップは、
    前記出力画像の複数の画素ブロックごとに、
    前記1つまたは複数の入力画像ごとに、
    前記入力画像の前記対応する画素の外周内部に配置された画素から前記出力画像内のそれぞれの画素への投影マッピングを遂行するステップ
    をさらに備え、
    前記投影マッピングは、前記それぞれの画素ブロックの前記外周に沿った前記複数の画素と前記1つまたは複数の入力画像の前記対応する複数の画素との間のマッピングに少なくとも一部は基づき、
    前記複数の画素ブロックの各々のサイズは、前記投影マッピングにより導入される画像歪みの程度と、前記出力画像を描画する前記ステップに関連する計算資源とを均衡させるように選択され、
    より小さな前記画素ブロックのサイズは、前記画像歪みの程度を低減し、一方で、所望の待ち時間で前記出力画像を描画するためにより多数の並列の計算資源を必要とする、
    非一時的コンピュータ可読記憶媒体。
  17. 前記プログラム命令は、前記1つまたは複数のプロセッサにより前記コンピューティングシステムに、
    前記第1の場所を取り囲む環境の幾何学的配置を決定するステップを実行させる
    ようにさらに実行可能であり、
    前記投影面は、前記第1の場所を取り囲む前記環境を近似するB-スプライン表面を備える、
    請求項1に記載の非一時的コンピュータ可読記憶媒体。
  18. コンピューティングシステムであって、
    1つまたは複数のメモリと、
    前記1つまたは複数のメモリに結合した1つまたは複数のプロセッサと
    を備え、
    前記1つまたは複数のメモリは、前記1つまたは複数のプロセッサにより実行されたとき、前記コンピューティングシステムに、
    異なる第1の場所から各入力画像が得られる複数の前記入力画像を受信するステップと
    出力画像を描画するための、第2の場所を備えるビュー明細事項を受信するステップと
    前記複数の入力画像および前記ビュー明細事項に少なくとも一部は基づき前記出力画像を描画するステップと
    を実行させるプログラム命令を記憶し、
    前記出力画像は、前記第2の場所から見たときの領域の画像を備え、前記第2の場所は、前記第1の場所の各々と異なり、
    前記出力画像を描画するために、前記コンピューティングシステムは、前記出力画像の複数の画素ブロックごとに、
    それぞれの前記画素ブロックの外周に沿った複数の画素と前記入力画像の1つまたは複数の各々の対応する複数の画素との間のマッピングを決定し、
    前記1つまたは複数の入力画像ごとに、
    前記入力画像の前記対応する画素の外周内部に配置された画素から前記出力画像内のそれぞれの画素への投影マッピングを遂行する
    ように構成され、
    前記投影マッピングは、れぞれの前記画素ブロックの前記外周に沿った前記複数の画素と前記1つまたは複数の入力画像の前記対応する複数の画素との間のマッピングに少なくとも一部は基づき、
    前記複数の画素ブロックの各々のサイズは、前記投影マッピングにより導入される画像歪みの程度と、前記出力画像を描画する前記ステップに関連する計算資源とを均衡させるように選択され、
    より小さな前記画素ブロックのサイズは、前記画像歪みの程度を低減し、一方で、所望の待ち時間で前記出力画像を描画するためにより多数の並列の計算資源を必要とする、
    コンピューティングシステム。
JP2021506937A 2018-09-26 2019-09-25 任意の世界ビューの生成 Active JP7208356B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862737050P 2018-09-26 2018-09-26
US62/737,050 2018-09-26
PCT/US2019/052926 WO2020068960A1 (en) 2018-09-26 2019-09-25 Any world view generation

Publications (2)

Publication Number Publication Date
JP2021535464A JP2021535464A (ja) 2021-12-16
JP7208356B2 true JP7208356B2 (ja) 2023-01-18

Family

ID=68172275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021506937A Active JP7208356B2 (ja) 2018-09-26 2019-09-25 任意の世界ビューの生成

Country Status (6)

Country Link
US (1) US11544895B2 (ja)
EP (1) EP3776485B1 (ja)
JP (1) JP7208356B2 (ja)
CN (1) CN112930557A (ja)
TW (1) TWI805848B (ja)
WO (1) WO2020068960A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
DE102018102047A1 (de) * 2018-01-30 2019-08-01 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Darstellen eines Umgebungsbereichs eines Kraftfahrzeugs mit virtuellen, länglichen Abstandsmarkierungen in einem Bild, Computerprogrammprodukt, sowie Anzeigesystem
US11288842B2 (en) 2019-02-15 2022-03-29 Interaptix Inc. Method and system for re-projecting and combining sensor data for visualization
KR102653252B1 (ko) * 2019-02-21 2024-04-01 삼성전자 주식회사 외부 객체의 정보에 기반하여 시각화된 인공 지능 서비스를 제공하는 전자 장치 및 전자 장치의 동작 방법
US11341607B2 (en) * 2019-06-07 2022-05-24 Texas Instruments Incorporated Enhanced rendering of surround view images
WO2021199283A1 (ja) * 2020-03-31 2021-10-07 富士通株式会社 画像処理制御装置、画像処理制御プログラム、及び画像処理制御方法
US11263729B2 (en) * 2020-05-26 2022-03-01 Microsoft Technology Licensing, Llc Reprojection and wobulation at head-mounted display device
TWI740623B (zh) * 2020-08-26 2021-09-21 財團法人資訊工業策進會 視訊整合裝置、方法及其電腦程式產品
TWI772968B (zh) * 2020-11-17 2022-08-01 佐臻股份有限公司 具深度或影像監視系統的架設方法
US11593996B2 (en) 2021-02-09 2023-02-28 Waymo Llc Synthesizing three-dimensional visualizations from perspectives of onboard sensors of autonomous vehicles
US20220320042A1 (en) * 2021-03-30 2022-10-06 Advanced Micro Devices, Inc. Die stacking for modular parallel processors
DE102021112646A1 (de) 2021-05-17 2022-11-17 Connaught Electronics Ltd. Erzeugen eines zusammengefügten bildes aus kameradaten
TWI762353B (zh) * 2021-06-09 2022-04-21 信驊科技股份有限公司 以縮放調整及接縫拼接來產生投影影像的方法
CN113115037B (zh) * 2021-06-15 2021-09-14 深圳市中鹏教育科技股份有限公司 一种在线教育方法、***、设备及存储介质
FR3128530B1 (fr) * 2021-10-21 2024-02-23 Continental Automotive Gmbh Procédé de calibrage géométrique extrinsèque pour un système d’acquisition de données tridimensionnelles
US11812153B2 (en) * 2022-03-07 2023-11-07 Volvo Car Corporation Systems and methods for fisheye camera calibration and bird's-eye-view image generation in a simulation environment
DE102022206782A1 (de) 2022-07-04 2024-01-04 Continental Autonomous Mobility Germany GmbH Verfahren zum Erzeugen einer Ansicht mit einem Kamerasystem sowie Kamerasystem
TWI814680B (zh) * 2023-02-14 2023-09-01 國立中正大學 三維影像處理之校正方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012227913A (ja) 2011-04-14 2012-11-15 Harman Becker Automotive Systems Gmbh 車両のサラウンドビューシステム
US20140278065A1 (en) 2013-03-14 2014-09-18 Robert Bosch Gmbh System and Method for Distortion Correction in Three-Dimensional Environment Visualization
JP2017068826A (ja) 2015-09-30 2017-04-06 アイシン精機株式会社 車両用画像処理装置
US20170195564A1 (en) 2016-01-06 2017-07-06 Texas Instruments Incorporated Three Dimensional Rendering for Surround View Using Predetermined Viewpoint Lookup Tables
WO2018102990A1 (en) 2016-12-06 2018-06-14 SZ DJI Technology Co., Ltd. System and method for rectifying a wide-angle image

Family Cites Families (225)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994018799A1 (en) * 1993-02-03 1994-08-18 Qualcomm Incorporated Interframe video encoding and decoding system
US6498620B2 (en) * 1993-02-26 2002-12-24 Donnelly Corporation Vision system for a vehicle including an image capture device and a display system having a long focal length
DE19855885A1 (de) * 1997-12-04 1999-08-05 Fuji Photo Film Co Ltd Bildverarbeitungsverfahren und -vorrichtung
US6266442B1 (en) * 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream
US6559853B1 (en) * 2000-02-16 2003-05-06 Enroute, Inc. Environment map creation using texture projections with polygonal curved surfaces
US7259760B1 (en) * 2000-02-16 2007-08-21 Be Here Corporation Polygonal curvature mapping to increase texture efficiency
US6756990B2 (en) * 2001-04-03 2004-06-29 Be Here Corporation Image filtering on 3D objects using 2D manifolds
KR100866450B1 (ko) * 2001-10-15 2008-10-31 파나소닉 주식회사 차량 주위 감시 장치 및 그 조정 방법
JP3871614B2 (ja) * 2002-06-12 2007-01-24 松下電器産業株式会社 運転支援装置
JP2005149409A (ja) * 2003-11-19 2005-06-09 Canon Inc 画像再生方法及び装置
US7561966B2 (en) * 2003-12-17 2009-07-14 Denso Corporation Vehicle information display system
US7561751B2 (en) * 2004-11-02 2009-07-14 Panasonic Corporation Image processing method
US7751641B2 (en) * 2005-04-28 2010-07-06 Imagenomic, Llc Method and system for digital image enhancement
US20070030452A1 (en) * 2005-08-08 2007-02-08 N-Lighten Technologies Image adaptation system and method
JP4859652B2 (ja) * 2006-12-15 2012-01-25 アルパイン株式会社 画像表示装置
US20090087115A1 (en) * 2007-10-02 2009-04-02 Ping Wah Wong Correction for geometric distortion in images in pipelined hardware
JP2009100342A (ja) * 2007-10-18 2009-05-07 Sanyo Electric Co Ltd カメラ校正装置及び方法、並びに、車両
JP4919978B2 (ja) * 2008-01-26 2012-04-18 三洋電機株式会社 歪補正装置
US8063918B2 (en) * 2008-05-28 2011-11-22 Adobe Systems Incorporated Method and apparatus for rendering images with and without radially symmetric distortions
EP2285109B1 (en) * 2008-05-29 2018-11-28 Fujitsu Limited Vehicle image processor, and vehicle image processing system
JP5182042B2 (ja) * 2008-11-28 2013-04-10 富士通株式会社 画像処理装置、画像処理方法及びコンピュータプログラム
US8265422B1 (en) * 2009-02-20 2012-09-11 Adobe Systems Incorporated Method and apparatus for removing general lens distortion from images
US8446433B1 (en) * 2009-06-12 2013-05-21 Lucasfilm Entertainment Company Ltd. Interactive visual distortion processing
US8502860B2 (en) * 2009-09-29 2013-08-06 Toyota Motor Engineering & Manufacturing North America (Tema) Electronic control system, electronic control unit and associated methodology of adapting 3D panoramic views of vehicle surroundings by predicting driver intent
JP5593060B2 (ja) * 2009-11-26 2014-09-17 株式会社メガチップス 画像処理装置、および画像処理装置の動作方法
JP2011131678A (ja) * 2009-12-24 2011-07-07 Fujitsu Ten Ltd 画像処理装置、画像処理システム、および、画像処理方法
TWI417639B (zh) * 2009-12-30 2013-12-01 Ind Tech Res Inst 全周鳥瞰影像無縫接合方法與系統
TWI392366B (zh) * 2009-12-31 2013-04-01 Ind Tech Res Inst 全周鳥瞰影像距離介面產生方法與系統
JP5479956B2 (ja) * 2010-03-10 2014-04-23 クラリオン株式会社 車両用周囲監視装置
JP5604146B2 (ja) * 2010-03-25 2014-10-08 富士通テン株式会社 車載照明装置、画像処理装置、画像表示システム及び照明方法
JP5135380B2 (ja) * 2010-04-12 2013-02-06 住友重機械工業株式会社 処理対象画像生成装置、処理対象画像生成方法、及び操作支援システム
JP5550970B2 (ja) * 2010-04-12 2014-07-16 住友重機械工業株式会社 画像生成装置及び操作支援システム
TWI423659B (zh) * 2010-11-09 2014-01-11 Avisonic Technology Corp 影像校正方法與相關影像校正系統
US9900522B2 (en) * 2010-12-01 2018-02-20 Magna Electronics Inc. System and method of establishing a multi-camera image using pixel remapping
US8447134B1 (en) * 2010-12-20 2013-05-21 Ambarella, Inc. Image warp caching
US8723959B2 (en) * 2011-03-31 2014-05-13 DigitalOptics Corporation Europe Limited Face and other object tracking in off-center peripheral regions for nonlinear lens geometries
WO2012145822A1 (en) * 2011-04-25 2012-11-01 Magna International Inc. Method and system for dynamically calibrating vehicular cameras
WO2012145818A1 (en) * 2011-04-25 2012-11-01 Magna International Inc. Method and system for dynamically calibrating vehicular cameras
EP2530647A1 (en) * 2011-06-01 2012-12-05 Harman Becker Automotive Systems GmbH Method of calibrating a vehicle vision system and vehicle vision system
CN103609100B (zh) * 2011-06-09 2017-09-29 爱信精机株式会社 图像生成装置
KR101265667B1 (ko) * 2011-06-21 2013-05-22 ㈜베이다스 차량 주변 시각화를 위한 3차원 영상 합성장치 및 그 방법
US10793067B2 (en) * 2011-07-26 2020-10-06 Magna Electronics Inc. Imaging system for vehicle
JP5668857B2 (ja) * 2011-07-29 2015-02-12 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
EP2554434B1 (en) * 2011-08-05 2014-05-21 Harman Becker Automotive Systems GmbH Vehicle surround view system
TWI478833B (zh) * 2011-08-31 2015-04-01 Autoequips Tech Co Ltd 調校車用影像裝置之方法及其系統
DE102011084554A1 (de) * 2011-10-14 2013-04-18 Robert Bosch Gmbh Verfahren zur Darstellung eines Fahrzeugumfeldes
US9491451B2 (en) * 2011-11-15 2016-11-08 Magna Electronics Inc. Calibration system and method for vehicular surround vision system
KR101265711B1 (ko) * 2011-11-30 2013-05-20 주식회사 이미지넥스트 3d 차량 주변 영상 생성 방법 및 장치
US9762880B2 (en) * 2011-12-09 2017-09-12 Magna Electronics Inc. Vehicle vision system with customized display
GB2499635B (en) * 2012-02-23 2014-05-14 Canon Kk Image processing for projection on a projection screen
JP5893445B2 (ja) * 2012-03-07 2016-03-23 株式会社メガチップス 画像処理装置、および画像処理装置の動作方法
JP6029306B2 (ja) * 2012-03-29 2016-11-24 住友建機株式会社 作業機械用周辺監視装置
US9256961B2 (en) * 2012-06-28 2016-02-09 Here Global B.V. Alternate viewpoint image enhancement
JP5911775B2 (ja) * 2012-08-21 2016-04-27 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法
US20140067333A1 (en) * 2012-09-04 2014-03-06 Belcan Corporation CAD-Based System for Product Definition, Inspection and Validation
JP6014442B2 (ja) * 2012-09-27 2016-10-25 富士通テン株式会社 画像生成装置、画像表示システム、および、画像生成方法
US20140114534A1 (en) * 2012-10-19 2014-04-24 GM Global Technology Operations LLC Dynamic rearview mirror display features
US9445011B2 (en) * 2012-10-22 2016-09-13 GM Global Technology Operations LLC Dynamic rearview mirror adaptive dimming overlay through scene brightness estimation
JP6136190B2 (ja) * 2012-10-23 2017-05-31 株式会社ソシオネクスト 画像処理装置、撮像装置
JP6079131B2 (ja) * 2012-10-25 2017-02-15 富士通株式会社 画像処理装置、方法、及びプログラム
WO2014100985A1 (en) * 2012-12-26 2014-07-03 Harman International Industries, Incorporated Method and system for generating a surround view
TWI517094B (zh) * 2013-01-10 2016-01-11 瑞昱半導體股份有限公司 影像校正方法及影像校正電路
US9922356B1 (en) * 2013-01-22 2018-03-20 Carvana, LLC Methods and systems for online transactions
US10179543B2 (en) * 2013-02-27 2019-01-15 Magna Electronics Inc. Multi-camera dynamic top view vision system
JP6302624B2 (ja) * 2013-04-24 2018-03-28 住友重機械工業株式会社 画像生成装置
TWI552897B (zh) * 2013-05-17 2016-10-11 財團法人工業技術研究院 影像動態融合方法與裝置
TWI530157B (zh) * 2013-06-18 2016-04-11 財團法人資訊工業策進會 多視角影像之顯示系統、方法及其非揮發性電腦可讀取紀錄媒體
KR102068992B1 (ko) * 2013-06-20 2020-01-22 삼성전자 주식회사 렌즈 캘리브레이션 방법 및 영상 복원 방법
JP6036601B2 (ja) * 2013-08-09 2016-11-30 株式会社デンソー 画像処理装置及び画像処理方法
EP2851870B1 (en) * 2013-09-20 2019-01-23 Application Solutions (Electronics and Vision) Limited Method for estimating ego motion of an object
JP6347934B2 (ja) * 2013-10-11 2018-06-27 株式会社デンソーテン 画像表示装置、画像表示システム、画像表示方法、及び、プログラム
US20150187224A1 (en) * 2013-10-15 2015-07-02 Mbfarr, Llc Driving assessment and training method and apparatus
US20150104757A1 (en) * 2013-10-15 2015-04-16 Mbfarr, Llc Driving assessment and training method and apparatus
TWI528325B (zh) * 2013-10-18 2016-04-01 財團法人資訊工業策進會 影像處理方法及應用影像處理方法之系統
US20150131924A1 (en) * 2013-11-13 2015-05-14 Microsoft Corporation Creation of Rectangular Images from Input Images
KR101811157B1 (ko) * 2013-12-19 2018-01-25 인텔 코포레이션 사발형 영상 시스템
JP6010870B2 (ja) * 2013-12-24 2016-10-19 カシオ計算機株式会社 画像補正装置、及び画像補正方法、プログラム
US9978146B2 (en) * 2014-01-27 2018-05-22 Xylon d.o.o. Data-processing system and method for calibration of a vehicle surround view system
DE102014204303A1 (de) * 2014-03-10 2015-09-10 Robert Bosch Gmbh Verfahren zum Zusammenfügen von Einzelbildern, die von einem Kamerasystem aus unterschiedlichen Positionen aufgenommen wurden, zu einem gemeinsamen Bild
JP6330383B2 (ja) * 2014-03-12 2018-05-30 株式会社デンソー 合成画像生成装置、および合成画像生成プログラム
DE102014208664A1 (de) * 2014-05-08 2015-11-12 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zum verzerrungsfreien anzeigen einer fahrzeugumgebung eines fahrzeuges
US9619894B2 (en) * 2014-05-16 2017-04-11 GM Global Technology Operations LLC System and method for estimating vehicle dynamics using feature points in images from multiple cameras
US9672593B2 (en) * 2014-06-25 2017-06-06 International Business Machines Corporation Lens distortion correction using a neurosynaptic system
US20180182261A1 (en) * 2014-07-02 2018-06-28 Iotmotive Ltd. Real Time Car Driving Simulator
US10442355B2 (en) * 2014-09-17 2019-10-15 Intel Corporation Object visualization in bowl-shaped imaging systems
US9437001B2 (en) * 2014-09-18 2016-09-06 Intel Corporation Tracking objects in bowl-shaped imaging systems
US10008027B1 (en) * 2014-10-20 2018-06-26 Henry Harlyn Baker Techniques for determining a three-dimensional representation of a surface of an object from a set of images
US10127463B2 (en) * 2014-11-21 2018-11-13 Magna Electronics Inc. Vehicle vision system with multiple cameras
DE102014117888A1 (de) * 2014-12-04 2016-10-13 Connaught Electronics Ltd. Online-Kalibrierung eines Kraftfahrzeug-Kamerasystems
US10255665B2 (en) * 2014-12-04 2019-04-09 Mitsubishi Electric Corporation Image processing device and method, image capturing device, program, and record medium
US9818201B2 (en) * 2014-12-22 2017-11-14 Lucasfilm Entertainment Company Ltd. Efficient lens re-distortion
US10284794B1 (en) * 2015-01-07 2019-05-07 Car360 Inc. Three-dimensional stabilized 360-degree composite image capture
JP6548900B2 (ja) * 2015-01-20 2019-07-24 株式会社デンソーテン 画像生成装置、画像生成方法及びプログラム
EP3057061B1 (en) * 2015-02-16 2017-08-30 Application Solutions (Electronics and Vision) Limited Method and device for the estimation of car egomotion from surround view images
US10652466B2 (en) * 2015-02-16 2020-05-12 Applications Solutions (Electronic and Vision) Ltd Method and device for stabilization of a surround view image
US9582881B2 (en) * 2015-03-18 2017-02-28 Intel Corporation Machine vision image sensor calibration
US10013761B2 (en) * 2015-03-24 2018-07-03 Intel Corporation Automatic orientation estimation of camera system relative to vehicle
DE102015205507B3 (de) * 2015-03-26 2016-09-29 Zf Friedrichshafen Ag Rundsichtsystem für ein Fahrzeug
US20160301864A1 (en) * 2015-04-10 2016-10-13 Caterpillar Inc. Imaging processing system for generating a surround-view image
US10089538B2 (en) * 2015-04-10 2018-10-02 Bendix Commercial Vehicle Systems Llc Vehicle 360° surround view system having corner placed cameras, and system and method for calibration thereof
US20160301863A1 (en) * 2015-04-10 2016-10-13 Caterpillar Inc. Image processing system for generating a surround-view image
EP3086284A1 (en) * 2015-04-23 2016-10-26 Application Solutions (Electronics and Vision) Limited Camera extrinsic parameters estimation from image lines
US20160321940A1 (en) * 2015-04-29 2016-11-03 Ivan Banga Driver Education and Training System and Method for Training Drivers in Simulated Emergencies
KR101750876B1 (ko) * 2015-05-28 2017-06-26 엘지전자 주식회사 차량용 디스플레이 장치 및 차량
US9866752B2 (en) * 2015-06-02 2018-01-09 Qualcomm Incorporated Systems and methods for producing a combined view from fisheye cameras
EP3308361B1 (de) * 2015-06-11 2024-04-10 Continental Autonomous Mobility Germany GmbH Verfahren zur erzeugung eines virtuellen bildes einer fahrzeugumgebung
US10040394B2 (en) * 2015-06-17 2018-08-07 Geo Semiconductor Inc. Vehicle vision system
US20160379381A1 (en) * 2015-06-23 2016-12-29 Freescale Semiconductor, Inc. Apparatus and method for verifying the origin of texture map in graphics pipeline processing
DE102015112289A1 (de) * 2015-07-28 2017-02-02 Valeo Schalter Und Sensoren Gmbh Verfahren zum Identifizieren eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
US10015499B1 (en) * 2015-07-30 2018-07-03 Teradici Corporation Method and apparatus for layered wavelet image compression
EP3142066B1 (en) * 2015-09-10 2024-06-12 KNORR-BREMSE Systeme für Nutzfahrzeuge GmbH Image synthesizer for a surround monitoring system
US10262466B2 (en) * 2015-10-14 2019-04-16 Qualcomm Incorporated Systems and methods for adjusting a combined image visualization based on depth information
US11332061B2 (en) * 2015-10-26 2022-05-17 Atnomity Ltd. Unmanned carrier for carrying urban manned vehicles
TWI607901B (zh) * 2015-11-06 2017-12-11 財團法人工業技術研究院 影像修補系統及其方法
US20170132476A1 (en) * 2015-11-08 2017-05-11 Otobrite Electronics Inc. Vehicle Imaging System
US9955186B2 (en) * 2016-01-11 2018-04-24 Qualcomm Incorporated Block size decision for video coding
JP6780661B2 (ja) * 2016-01-15 2020-11-04 ソニー株式会社 画像処理装置および方法、プログラム、並びに画像処理システム
EP3416377B1 (en) * 2016-02-08 2021-06-16 Ricoh Company, Ltd. Image display apparatus and image display method
DE102016104732A1 (de) * 2016-03-15 2017-09-21 Connaught Electronics Ltd. Verfahren zur Bewegungsabschätzung zwischen zwei Bildern eines Umgebungsbereichs eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
US10922559B2 (en) * 2016-03-25 2021-02-16 Bendix Commercial Vehicle Systems Llc Automatic surround view homography matrix adjustment, and system and method for calibration thereof
US20170297488A1 (en) * 2016-04-19 2017-10-19 GM Global Technology Operations LLC Surround view camera system for object detection and tracking
US10434877B2 (en) * 2016-05-05 2019-10-08 Via Technologies, Inc. Driver-assistance method and a driver-assistance apparatus
JP6723820B2 (ja) * 2016-05-18 2020-07-15 株式会社デンソーテン 画像生成装置、画像表示システムおよび画像表示方法
US10699389B2 (en) * 2016-05-24 2020-06-30 Qualcomm Incorporated Fisheye rendering with lens distortion correction for 360-degree video
JP6868805B2 (ja) * 2016-06-07 2021-05-12 パナソニックIpマネジメント株式会社 画像生成装置、画像生成方法、およびプログラム
JP2018050119A (ja) * 2016-09-20 2018-03-29 国立大学法人 東京大学 作業車両の表示システム
US10643391B2 (en) * 2016-09-23 2020-05-05 Apple Inc. Immersive virtual display
US10037598B2 (en) * 2016-11-29 2018-07-31 Intel Corporation Multi-block memory reads for image de-warping
CN106767706B (zh) * 2016-12-09 2019-05-14 中山大学 一种无人机勘查交通事故现场的航拍图像采集方法及***
DE102016225066A1 (de) * 2016-12-15 2018-06-21 Conti Temic Microelectronic Gmbh Rundumsichtsystem für ein Fahrzeug
EP3565260A1 (en) * 2016-12-28 2019-11-06 Sony Corporation Generation device, identification information generation method, reproduction device, and image generation method
US10911745B2 (en) * 2016-12-28 2021-02-02 Texas Instruments Incorporated Calibration of a surround view camera system
US10194097B2 (en) * 2017-01-13 2019-01-29 Gopro, Inc. Apparatus and methods for the storage of overlapping regions of imaging data for the generation of optimized stitched images
US20180210442A1 (en) * 2017-01-23 2018-07-26 Qualcomm Incorporated Systems and methods for controlling a vehicle using a mobile device
US11298062B2 (en) * 2017-02-01 2022-04-12 Conflu3Nce Ltd Multi-purpose interactive cognitive platform
US20180232866A1 (en) * 2017-02-10 2018-08-16 Gentex Corporation Vehicle display comprising projection system
GB2559760B (en) * 2017-02-16 2019-08-28 Jaguar Land Rover Ltd Apparatus and method for displaying information
GB2559758B (en) * 2017-02-16 2021-10-27 Jaguar Land Rover Ltd Apparatus and method for displaying information
GB2559759B (en) * 2017-02-16 2020-07-29 Jaguar Land Rover Ltd Apparatus and method for displaying information
CN110520903B (zh) * 2017-03-28 2023-11-28 三星电子株式会社 基于用户移动信息显示图像的方法和装置
US10223766B2 (en) * 2017-03-31 2019-03-05 Apical Ltd. Image processing including geometric distortion adjustment
EP3392801A1 (en) * 2017-04-21 2018-10-24 Harman International Industries, Incorporated Systems and methods for driver assistance
US10740972B2 (en) * 2017-04-28 2020-08-11 Harman International Industries, Incorporated System and method for presentation and control of augmented vehicle surround views
US11615566B2 (en) * 2017-05-10 2023-03-28 Fotonation Limited Multi-camera vehicle vision system and method
WO2018229549A2 (en) * 2017-06-16 2018-12-20 Nauto Global Limited System and method for digital environment reconstruction
US10523913B2 (en) * 2017-06-30 2019-12-31 Apple Inc. Packed image format for multi-directional video
JP7065383B2 (ja) * 2017-06-30 2022-05-12 パナソニックIpマネジメント株式会社 表示システム、情報提示システム、表示システムの制御方法、プログラム、及び移動体
US10357715B2 (en) * 2017-07-07 2019-07-23 Buxton Global Enterprises, Inc. Racing simulation
JP7039879B2 (ja) * 2017-08-03 2022-03-23 株式会社アイシン 表示制御装置
US10599161B2 (en) * 2017-08-08 2020-03-24 Skydio, Inc. Image space motion planning of an autonomous vehicle
GB201713052D0 (en) * 2017-08-15 2017-09-27 Imagination Tech Ltd Single pass rendering for head mounted displays
JP7091624B2 (ja) * 2017-09-15 2022-06-28 株式会社アイシン 画像処理装置
JP7080613B2 (ja) * 2017-09-27 2022-06-06 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US10621753B2 (en) * 2017-09-29 2020-04-14 Intel IP Corporation Extrinsic calibration of camera systems
US20190100147A1 (en) * 2017-10-02 2019-04-04 Hua-Chuang Automobile Information Technical Center Co., Ltd. Parking assistant panoramic image system
US10572982B2 (en) * 2017-10-04 2020-02-25 Intel Corporation Method and system of image distortion correction for images captured by using a wide-angle lens
DE102017123452A1 (de) * 2017-10-10 2019-04-11 Connaught Electronics Ltd. Verfahren zum Erzeugen eines ein Kraftfahrzeug und einen Umgebungsbereich des Kraftfahrzeugs in einer vorbestimmten Zielansicht zeigenden Ausgangsbildes, Kamerasystem sowie Kraftfahrzeug
US10560628B2 (en) * 2017-10-30 2020-02-11 Visual Supply Company Elimination of distortion in 360-degree video playback
JP6946963B2 (ja) * 2017-11-17 2021-10-13 株式会社アイシン 重畳画像表示装置及びコンピュータプログラム
JP7106846B2 (ja) * 2017-11-24 2022-07-27 株式会社アイシン 周辺監視装置
DE102017222708A1 (de) * 2017-12-14 2019-06-19 Conti Temic Microelectronic Gmbh 3D-Umfelderfassung mittels Projektor und Kameramodulen
US10169678B1 (en) * 2017-12-21 2019-01-01 Luminar Technologies, Inc. Object identification and labeling tool for training autonomous vehicle controllers
JP2019125193A (ja) * 2018-01-17 2019-07-25 アイシン精機株式会社 周辺監視装置
US20200349367A1 (en) * 2018-01-19 2020-11-05 Sony Corporation Image processing device, image processing method, and program
US10726522B2 (en) * 2018-01-24 2020-07-28 Fotonation Limited Method and system for correcting a distorted input image
US10863154B2 (en) * 2018-02-20 2020-12-08 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
US10935878B2 (en) * 2018-02-20 2021-03-02 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program
US20190281273A1 (en) * 2018-03-08 2019-09-12 Mediatek Inc. Adaptive loop filtering method for reconstructed projection-based frame that employs projection layout of 360-degree virtual reality projection
WO2019170154A1 (en) * 2018-03-09 2019-09-12 Mediatek Inc. De-blocking method for reconstructed projection-based frame that employs projection layout of 360-degree virtual reality projection
JP6857147B2 (ja) * 2018-03-15 2021-04-14 株式会社日立製作所 三次元画像処理装置、及び三次元画像処理方法
JP2019156298A (ja) * 2018-03-15 2019-09-19 株式会社デンソーテン 車両遠隔操作装置及び車両遠隔操作方法
DE102019106738B4 (de) * 2018-03-27 2021-11-04 Panasonic Intellectual Property Management Co., Ltd. Anzeigesystem, elektronisches Spiegelsystem, fahrendes Fahrzeug und Anzeigeverfahren
CN108761777B (zh) * 2018-03-30 2021-04-20 京东方科技集团股份有限公司 一种确定光学装置畸变量、畸变校正的方法及设备
US10854011B2 (en) * 2018-04-09 2020-12-01 Direct Current Capital LLC Method for rendering 2D and 3D data within a 3D virtual environment
DE102018108751B4 (de) * 2018-04-12 2023-05-04 Motherson Innovations Company Limited Verfahren, System und Vorrichtung zum Erhalten von 3D-Information von Objekten
EP3564917B1 (en) * 2018-05-04 2020-07-01 Axis AB A method for detecting motion in a video sequence
US20190349571A1 (en) * 2018-05-11 2019-11-14 Ford Global Technologies, Llc Distortion correction for vehicle surround view camera projections
GB2573792B (en) * 2018-05-17 2022-11-09 Denso Corp Surround monitoring system for vehicles
US20190378251A1 (en) * 2018-06-07 2019-12-12 Zeng Hsing Industrial Co., Ltd. Image processing method
US10683596B2 (en) * 2018-06-07 2020-06-16 Zeng Hsing Industrial Co., Ltd. Method of generating an image that shows an embroidery area in an embroidery frame for computerized machine embroidery
JP7026325B2 (ja) * 2018-06-21 2022-02-28 パナソニックIpマネジメント株式会社 映像表示システム、映像表示方法、プログラム、及び移動体
JP6987707B2 (ja) * 2018-06-28 2022-01-05 ルネサスエレクトロニクス株式会社 半導体装置、画像認識システム
US10298910B1 (en) * 2018-06-29 2019-05-21 Zoox, Inc. Infrastructure free intrinsic calibration
US10829045B2 (en) * 2018-07-11 2020-11-10 Continental Automotive Systems, Inc. System and method for calibrating a motion estimation algorithm using a vehicle camera
JP7140580B2 (ja) * 2018-07-13 2022-09-21 マクセル株式会社 ステレオ撮像装置
EP3599569A1 (en) * 2018-07-24 2020-01-29 Continental Automotive GmbH Method and system for representation of vehicle surroundings with reduced artefacts
DE102018214602B3 (de) * 2018-08-29 2019-11-28 Robert Bosch Gmbh Verfahren zur Anzeige eines Modells einer Umgebung, Steuergerät und Fahrzeug
US10901417B2 (en) * 2018-08-31 2021-01-26 Nissan North America, Inc. Autonomous vehicle operational management with visual saliency perception control
JP2020042417A (ja) * 2018-09-07 2020-03-19 アイシン精機株式会社 表示制御装置
JP7119798B2 (ja) * 2018-09-07 2022-08-17 株式会社アイシン 表示制御装置
JP7200572B2 (ja) * 2018-09-27 2023-01-10 株式会社アイシン 付着物検出装置
WO2020071703A1 (ko) * 2018-10-01 2020-04-09 엘지전자 주식회사 포인트 클라우드 데이터 전송 장치, 포인트 클라우드 데이터 전송 방법, 포인트 클라우드 데이터 수신 장치 및/또는 포인트 클라우드 데이터 수신 방법
US11055541B2 (en) * 2018-10-12 2021-07-06 Volvo Car Corporation Vehicle lane marking and other object detection using side fisheye cameras and three-fold de-warping
JP7263731B2 (ja) * 2018-10-26 2023-04-25 株式会社デンソー 画像処理装置
WO2020092271A1 (en) * 2018-10-29 2020-05-07 Holosports Corporation Racing helmet with visual and audible information exchange
WO2020105499A1 (ja) * 2018-11-20 2020-05-28 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP7283059B2 (ja) * 2018-11-28 2023-05-30 株式会社アイシン 周辺監視装置
US10969595B2 (en) * 2018-11-30 2021-04-06 International Business Machines Corporation In-vehicle content display apparatus
KR102559686B1 (ko) * 2018-12-17 2023-07-27 현대자동차주식회사 차량 및 차량 영상 제어방법
TWI736052B (zh) * 2018-12-21 2021-08-11 宏達國際電子股份有限公司 環境地圖建立方法以及其系統
US10896335B2 (en) * 2019-01-07 2021-01-19 Ford Global Technologies, Llc Adaptive transparency of virtual vehicle in simulated imaging system
BR102019000922A2 (pt) * 2019-01-16 2020-10-13 Samsung Eletrônica da Amazônia Ltda. Método para comprimir dados de campo de luz usando transformadas de quatro dimensões de tamanho de bloco variável e decomposição por planos de bits
JP7202903B2 (ja) * 2019-01-23 2023-01-12 本田技研工業株式会社 表示システム、走行制御装置、表示制御方法およびプログラム
US20200294194A1 (en) * 2019-03-11 2020-09-17 Nvidia Corporation View synthesis using neural networks
JP7261642B2 (ja) * 2019-03-29 2023-04-20 株式会社ソニー・インタラクティブエンタテインメント 画像処理方法、画像処理装置、およびヘッドマウントディスプレイ
US11126001B2 (en) * 2019-03-29 2021-09-21 Sony Interactive Entertainment Inc. Image generating apparatus, head-mounted display, content processing system and image displaying method
US11059493B2 (en) * 2019-04-10 2021-07-13 Honda Motor Co., Ltd. Systems and methods for estimating velocity of an autonomous vehicle and state information of a surrounding vehicle
US10926715B1 (en) * 2019-06-13 2021-02-23 Vidal M. Soler Vehicle camera system
CN110264520B (zh) * 2019-06-14 2021-06-08 北京百度网讯科技有限公司 车载传感器与车辆位姿关系标定方法、装置、设备和介质
US11104350B2 (en) * 2019-06-28 2021-08-31 GM Cruise Holdings, LLC Wireless vehicle control of vehicle sensor calibration environment
US11482008B2 (en) * 2019-07-05 2022-10-25 Nvidia Corporation Directing board repositioning during sensor calibration for autonomous vehicles
US11380046B2 (en) * 2019-07-23 2022-07-05 Texas Instruments Incorporated Surround view
US10909668B1 (en) * 2019-07-31 2021-02-02 Nxp Usa, Inc. Adaptive sub-tiles for distortion correction in vision-based assistance systems and methods
US20210042890A1 (en) * 2019-08-05 2021-02-11 Nxp Usa, Inc. Adaptive Tiles for Geometric Correction
US11140364B2 (en) * 2019-09-09 2021-10-05 Texas Instruments Incorporated Sensor fusion based perceptually enhanced surround view
US11669942B2 (en) * 2019-09-20 2023-06-06 Synaptics Incorporated Image de-warping system
US11244431B2 (en) * 2019-10-18 2022-02-08 Apical Limited Image processing
US11034298B2 (en) * 2019-11-18 2021-06-15 Continental Automotive Systems, Inc. Vehicle surround view system for identifying unobservable regions while reversing a trailer
US20210158493A1 (en) * 2019-11-21 2021-05-27 GM Global Technology Operations LLC Generation of composite images using intermediate image surfaces
US11856205B2 (en) * 2019-11-22 2023-12-26 Intel Corporation Subjective visual quality enhancement for high spatial and temporal complexity video encode
US11295540B2 (en) * 2020-03-30 2022-04-05 GM Cruise Holdings, LLC Combined sensor calibration target for calibrating multiple types of sensors, including infrared cameras and visible light cameras
US11453348B2 (en) * 2020-04-14 2022-09-27 Gm Cruise Holdings Llc Polyhedral sensor calibration target for calibrating multiple types of sensors
US11257231B2 (en) * 2020-06-17 2022-02-22 Toyota Research Institute, Inc. Camera agnostic depth network
US11443411B2 (en) * 2020-07-08 2022-09-13 Nxp Usa, Inc. Method and system for image distortion correction using quarter and tangential lookup tables
CN112634414B (zh) * 2020-12-24 2023-09-05 北京百度网讯科技有限公司 地图显示方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012227913A (ja) 2011-04-14 2012-11-15 Harman Becker Automotive Systems Gmbh 車両のサラウンドビューシステム
US20140278065A1 (en) 2013-03-14 2014-09-18 Robert Bosch Gmbh System and Method for Distortion Correction in Three-Dimensional Environment Visualization
JP2017068826A (ja) 2015-09-30 2017-04-06 アイシン精機株式会社 車両用画像処理装置
US20170195564A1 (en) 2016-01-06 2017-07-06 Texas Instruments Incorporated Three Dimensional Rendering for Surround View Using Predetermined Viewpoint Lookup Tables
WO2018102990A1 (en) 2016-12-06 2018-06-14 SZ DJI Technology Co., Ltd. System and method for rectifying a wide-angle image

Also Published As

Publication number Publication date
WO2020068960A1 (en) 2020-04-02
EP3776485B1 (en) 2022-01-26
TWI805848B (zh) 2023-06-21
JP2021535464A (ja) 2021-12-16
US20200098164A1 (en) 2020-03-26
US11544895B2 (en) 2023-01-03
TW202025716A (zh) 2020-07-01
CN112930557A (zh) 2021-06-08
EP3776485A1 (en) 2021-02-17

Similar Documents

Publication Publication Date Title
JP7208356B2 (ja) 任意の世界ビューの生成
CN110392902B (zh) 使用稀疏体积数据的操作
US10326981B2 (en) Generating 3D images using multi-resolution camera set
US8817079B2 (en) Image processing apparatus and computer-readable recording medium
US9900584B2 (en) Depth map generation based on cluster hierarchy and multiple multiresolution camera clusters
JP7250784B2 (ja) ボリュームデータの密度座標ハッシュ化
TWI534755B (zh) 三維立體模型之建立方法和裝置
CN111698463A (zh) 使用神经网络进行视图合成
US11341607B2 (en) Enhanced rendering of surround view images
KR20210087043A (ko) 병행 텍스처 샘플링
CN111161398A (zh) 一种图像生成方法、装置、设备及存储介质
Seyid et al. A real-time multiaperture omnidirectional visual sensor based on an interconnected network of smart cameras
JP6719596B2 (ja) 画像生成装置、及び画像表示制御装置
US10212406B2 (en) Image generation of a three-dimensional scene using multiple focal lengths
CN107845126A (zh) 一种三维动画制作方法及装置
WO2022247394A1 (zh) 图像拼接方法及装置、存储介质及电子设备
CN112184662B (zh) 应用于无人机图像拼接中的相机外参数初始方法及***
Hu et al. 3D map reconstruction using a monocular camera for smart cities
WO2023048983A1 (en) Methods and apparatus to synthesize six degree-of-freedom views from sparse rgb-depth inputs
CN113610930B (zh) 一种大场景相机阵列传递标定方法、***及存储介质
Jiang et al. A Configurable Local-Expansion-Move Accelerator for Accurate Stereo Matching
Yi High-quality, real-time HD video stereo matching on FPGA
EP4285313A1 (en) Three-dimensional modelling from photographs in series
KR20230156046A (ko) 픽셀-대-픽셀 신경망들에서 데이터의 프로세싱
Seyid et al. Real-time omnidirectional imaging system with interconnected network of cameras

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20210209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

R155 Notification before disposition of declining of application

Free format text: JAPANESE INTERMEDIATE CODE: R155

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230105

R150 Certificate of patent or registration of utility model

Ref document number: 7208356

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150