JP2013524688A - 複数の画像センサからのデータを結合すること - Google Patents

複数の画像センサからのデータを結合すること Download PDF

Info

Publication number
JP2013524688A
JP2013524688A JP2013503854A JP2013503854A JP2013524688A JP 2013524688 A JP2013524688 A JP 2013524688A JP 2013503854 A JP2013503854 A JP 2013503854A JP 2013503854 A JP2013503854 A JP 2013503854A JP 2013524688 A JP2013524688 A JP 2013524688A
Authority
JP
Japan
Prior art keywords
data
image
line
camera
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013503854A
Other languages
English (en)
Inventor
ゴマ、セルジウ・アール.
アレックシック、ミリボジェ
ホワン、ハウ
チャン、ジョセフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2013524688A publication Critical patent/JP2013524688A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

複数のセンサからのデータを結合する方法が開示される。この方法は、単一カメラ用の入力を有する画像プロセッサで複数のラインの画像データを受信することを含む。各ラインの画像データは、第1のカメラによって取り込まれた第1の画像からの第1のラインデータと、第2のカメラによって取り込まれた第2の画像からの第2のラインデータとを含む。この方法はまた、第1の画像のラインデータに対応する第1のセクションを有し、第2の画像のラインデータに対応する第2のセクションを有する出力フレームを生成することを含む。第1のセクション及び第2のセクションは、三次元(3D)画像フォーマット又は3D映像フォーマットを生成するために使用されるように構成される。

Description

優先権の主張
本出願は、2010年4月5日に出願された米国仮特許出願番号第61/320,940号、2010年4月14日に出願された米国仮特許出願番号第61/324,259号、2010年6月28日に出願された米国仮特許出願番号第61/359,312号、及び2010年11月11日に出願された米国仮特許出願番号第61/412,755号のそれぞれの利益を主張し、参照によりこれを組み込む。
本開示は、概して、複数の画像センサからのデータを結合することに関する。
技術の進歩により、より小さくかつより強力なコンピューティング機器がもたらされた。例えば現在、携帯型無線電話、携帯情報端末(PDA)、及び小型で、軽量の、ユーザが持ち運び易いページング機器などの無線コンピュータ機器を含む、様々な携帯型パーソナルコンピュータ機器が存在する。より詳細には、セル方式の電話及びインターネットプロトコル(IP)電話などの携帯型無線電話は、無線網を通じて音声及びデータパケットを伝えることができる。さらに、このような多くの無線電話は、その中に他のタイプの機器を組み込まれている。例えば、無線電話は、デジタル静止カメラ及びデジタルビデオカメラを搭載することもできる。また、このような無線電話は、インターネットにアクセスするために使用することができる、ウェブブラウザアプリケーションなどのソフトウェアアプリケーションを含む、実行可能命令を処理することができる。
さらに無線機器は、3次元(3D)アプリケーションを実行することができる。3Dアプリケーションでは、一般に少なくとも2つの画像センサを使用して、センサから立体情報を取り込む。2つの画像センサからのフレームデータが結合されて、距離情報を推論するように処理されて、3D表示を構築するために使用される。センサのそれぞれからの画像データを結合することは、一般に、フレーム同期及びライン同期を行うことを含み、その結果として、同期及び整列(alignment)の問題がもたらされる可能性がある。さらに、複数のセンサからの画像データをフィルタリングすること及びこのような画像データを交互配置すること(interleaving)は、ソースセンサが異なる周波数又は位相でデータを提供するとき、さらに複雑である可能性がある。画像処理システム全体のコスト及び複雑さを低減するために、複数のセンサ空のデータを効果的に同期し、データを効率的に処理することが有利である。
複数のカメラアレイの応用では、複数のセンサのそれぞれからの画像データは、ラインレベルで同期され、処理されなければならない。第1の画像センサ及び第2の画像センサからの画像データが同期されて、処理される、複数のセンサからのデータを結合するための画像処理システムを開示する。第1の画像センサによって生成された第1のデータストリームからの第1のデータを、第2の画像センサによって生成された第2のデータストリームからの第2のデータと同期して、結合することによって、同期されるデータラインが生成される。画像信号プロセッサは、結合器から受信される、同期されたデータラインを処理し、処理したフレームを表示器に出力するように構成される。
特定の実施形態において、方法を開示する。この方法は、同期される複数の画像センサに共通の制御信号を提供することを含む。この方法はさらに、複数の画像センサのうちの第1の画像センサから第1のデータラインを受信することと、複数の画像センサのうちの第2の画像センサから第2のデータラインを受信することと、第1のデータライン及び第2のデータラインを結合して同期されたデータラインを生成することとを含む。
別の特定の実施形態において、装置を開示する。この装置は、共通制御信号によって同期される複数の画像センサのうちの第1の画像センサから第1のデータラインを受信するように構成された第1の入力を含む。この装置はさらに、複数の画像センサのうちの第2の画像センサから第2のデータラインを受信するように構成された第2の入力と、第1の入力及び第2の入力に連結された結合器とを含み、結合器は、第1のデータラインと第2のデータラインを結合して、同期されたデータラインを生成するように構成される。
別の特定の実施形態において、方法を開示する。この方法は、複数の画像センサに共通の制御信号を提供することを含む。複数の画像センサのそれぞれは、この共通の制御信号に応答して、画像データを生成する。この方法はさらに、複数の画像センサのそれぞれからの同期されたデータ出力を受信することと、複数の画像センサのそれぞれからの同期されたデータ出力を結合して、同期されたデータラインを生成することと、画像プロセッサの単一カメラ入力を介して画像プロセッサに同期されたデータラインを提供することとを含む。
別の特定の実施形態において、装置を開示する。この装置は、複数の画像センサに共通の制御信号を提供するように構成されたセンサ同期装置を含む。複数の画像センサのそれぞれは、この共通の制御信号に応答して、画像データを生成する。この装置はさらに、複数の画像センサのそれぞれから受信される、同期されたデータ出力を結合して同期されたデータラインを生成し、画像プロセッサの単一カメラ入力によって画像プロセッサに提供されるように構成された結合器を含む。
別の特定の実施形態において、方法を開示する。この方法は、複数の画像センサに共通の制御信号を提供することを含む。複数の画像センサのそれぞれは、この共通の制御信号に応答して、画像データを生成する。この方法はさらに、複数の画像センサのそれぞれから同期されたデータ出力を受信することを含む。
別の特定の実施形態において、方法を開示する。この方法は、複数の画像センサで共通の制御信号を受信することを含む。複数の画像センサのそれぞれは、この共通の制御信号に応答して、画像データを生成する。この方法はさらに、複数の画像センサのそれぞれから同期されたデータ出力を生成することを含む。
別の特定の実施形態において、装置を開示する。この装置は、複数の画像センサに共通の制御信号を提供して、複数の画像センサに画像データを生成させるように構成されたセンサ同期装置を含む。この装置はさらに、複数の画像センサのそれぞれから同期されたデータ出力を受信するように構成されたセンサデータインターフェースを含む。
別の特定の実施形態において、方法を開示する。この方法は、単一カメラ用の入力を有する画像プロセッサで画像データのラインを受信することを含む。画像データの各ラインは、第1のカメラによって取り込まれた第1の画像からの第1のラインデータと、第2のカメラによって取り込まれた第2の画像からの第2のラインデータとを含む。この方法はさらに、第1の画像のラインデータに対応する第1のセクションを有し、第2の画像のラインデータに対応する第2のセクションを有する出力フレームを生成することを含む。第1のセクション及び第2のセクションは、三次元(3D)画像フォーマット又は3D映像フォーマットを生成するために使用されるように構成される。
別の特定の実施形態において、装置を開示する。この装置は、単一カメラ用の入力を有する画像プロセッサを含む。画像プロセッサは、入力を介して画像データのラインを受信するように構成される。画像データの各ラインは、第1のカメラによって取り込まれた第1の画像からの第1のラインデータと、第2のカメラによって取り込まれた第2の画像からの第2のラインデータとを含む。画像プロセッサは、第1のセクションが第1の画像のラインデータに対応し、第2のセクションが第2の画像のラインデータに対応する出力フレームを生成するように構成される。第1のセクション及び第2のセクションは、三次元(3D)画像フォーマット又は3D映像フォーマットを生成するために使用されるように構成される。
特定の実施形態において、複数のセンサからのデータを1つのフレームに結合する方法を開示する。この方法は、第1の画像センサから第1のデータストリームを受信することと、第2の画像センサから第2のデータストリームを受信することと、第1のデータストリームからのデータと第2のデータストリームからのデータを結合してフレームを生成することとを含む。この方法はさらに、画像信号プロセッサでフレームを処理して処理済みフレームを生成することと、処理済みフレームを出力して表示することとを含む。第1の画像センサ及び第2の画像センサのそれぞれは、画像信号プロセッサに直接応答する。
別の特定の実施形態において、装置を開示する。この装置は、第1のデータストリームを生成するように構成された第1の画像センサと、第2のデータストリームを生成するように構成された第2の画像センサと、第1のデータストリームからの第1のデータと第2のデータストリームからの第2のデータとを結合してフレームを生成するように構成された結合器とを含む。この装置はさらに、フレームを処理し、処理済みフレームを出力して表示するように構成された画像信号プロセッサを含む。第1の画像センサ及び第2の画像センサのそれぞれは、画像信号プロセッサに直接応答する。
別の特定の実施形態において、方法を開示する。この方法は、第1の画像センサから画像の第1の画像データを受信することと、第2の画像センサから画像の第2の画像データを受信することと、画像データの取得中に第1の画像センサ及び第2の画像センサの露出をラインごとに同期することとを含む。第1の画像センサ及び第2の画像センサは、互いに独立している。同期はラインごとであることが可能であり、またフレームごとであることが可能である。
別の特定の実施形態において、装置を開示する。この装置は、メモリバッファを含む。メモリバッファは、各フレームのストリーミングを通して決定論的順序で入ってくるストリームを整列させる(align)ためのセクションと、ストリーム間のプログラム可能ギャップセクションとを含む。
別の特定の実施形態において、方法を開示する。この方法は、単一カメラ用の入力を有する画像プロセッサで複数行(rows)の画像データを受信することを含む。各行の画像データは、第1のカメラによって取り込まれた1行の第1の画像からのデータと、第2のカメラによって取り込まれた1行の第2の画像からのデータとを含む。この方法はまた、3次元(3D)画像フォーマット又は3D映像フォーマットを有する出力を生成することを含む。出力は、第1の画像及び第2の画像に対応する。
別の特定の実施形態において、装置を開示する。この装置は、単一カメラ用の入力を有する画像プロセッサを含む。この装置はまた、複数行の画像データを画像プロセッサに送信するように構成された結合器を含む。各行の画像データは、第1のカメラによって取り込まれた1行の第1の画像からの第1のデータと、第2のカメラによって取り込まれた1行の第2の画像からの第2のデータとを含む。画像プロセッサは、3次元(3D)画像フォーマット又は3D映像フォーマットを有する出力を生成するように構成される。出力は、第1の画像及び第2の画像に対応する。
開示する実施形態の少なくとも1つによって提供される1つの特定の利点は、単一画像信号プロセッサを使用して、複数の画像センサからのデータを同期及び制御することができるということである。もう1つの特定の利点は、ストリーム間にギャップを有することにより、画像信号プロセッサで単一フレームとして結合されたストリームを処理するという柔軟性が提供され、その後のブロックベースの処理によるストリームの汚染(contamination)が回避されるということである(即ち、ギャップが最大のブロックベースの処理に等しい場合、ストリームの汚染は回避される)。
本開示の他の態様、利点、及び特徴点は、図面の簡単な説明、発明を実施するための形態、及び特許請求の範囲を検討後に明らかになるであろう。
複数の画像センサからのデータを結合するための画像処理システムの特定の例示的実施形態のブロック図。 複数の画像センサからのデータを結合するための画像処理システムの第2の例示的実施形態のブロック図。 複数の画像センサからのデータを結合するための画像処理システムの第3の例示的実施形態のブロック図。 第1の画像センサ及び第2の画像センサが共通の制御データを受信する、図2の画像処理システムの選択された部分の特定の例示的実施形態のブロック図。 複数の画像センサからのデータを結合するための画像処理システムの第4の例示的実施形態のブロック図。 第1の画像センサの出力における第1のデータストリーム及び第2の画像センサの出力における第2のデータストリームが結合されて同期されたデータラインを形成する第1の実施形態を表す図。 第1の画像センサの出力における第1のデータストリーム及び第2の画像センサの出力における第2のデータストリームが結合されて同期されたデータラインを形成する第2の実施形態を表す図。 第1のセンサからの第1のデータストリームと第2のセンサからの第2のデータストリームとの間の2つのラインの位相差を示す位相図の第1の実施形態を表す図。 第1のセンサからの第1のデータストリームと第2のセンサからの第2のデータストリームとの間の1つのラインの位相差を示す位相図の第2の実施形態を表す図。 複数のセンサのそれぞれの画素データ及び同期されたデータラインを表す図。 複数のセンサのフレーム有効(frame valid)及びライン有効(line valid)信号タイミングを示すタイミング図。 第1のセンサからの第1のデータストリームと第2のセンサからの第2のデータストリームとの間の3つのラインの位相差を示す位相図の第3の実施形態を表す図。 複数の画像センサからのデータを結合して3次元画像フォーマットを作り出すための画像処理システムの特定の例示的実施形態のブロック図。 複数の画像センサからのデータを結合するための画像処理システムを有するモバイル機器の様々な実施形態を表す図。 画像間に重複を含むカメラのアレイによって取り込まれる画像の一例を表す図。 各画像がその独自の移動成分(shifting component)及び回転成分(rotation component)を有することができる、画像間に重複を含むカメラのアレイによって取り込まれる画像の一例を表す図。 カメラのアレイ及びカメラのアレイと関連する電気接続の特定の実施形態を示すブロック図。 カメラアレイ処理システムの第1の特定の例示的実施形態のブロック図。 カメラアレイ処理システムの第1の特定の例示的実施形態のブロック図。 メインレンズと、アレイ状に配列された複数のカメラとを含むカメラシステムを表す図。 自動車内部の複数のカメラモジュールを表す図。 複数のセンサからのデータを結合して同期されたデータラインにする方法の特定の例示的実施形態の流れ図。 複数の画像センサに共通の制御信号を提供し、画像プロセッサの単一カメラ入力を介して画像プロセッサに同期されたデータラインを提供する方法の特定の例示的実施形態の流れ図。 複数の画像センサに共通の制御信号を提供し、複数の画像センサのそれぞれからの同期されたデータ出力を受信する方法の特定の例示的実施形態の流れ図。 複数の画像センサで共通の制御信号を受信し、複数の画像センサのそれぞれからの同期されたデータ出力を生成する方法の特定の例示的実施形態の流れ図。 単一カメラ用の入力を有する画像信号プロセッサにおいて複数のセンサからのデータを結合する方法の特定の例示的実施形態の流れ図。 複数のセンサからのデータを結合してフレームにする方法の特定の例示的実施形態の流れ図。 第1の画像センサ及び第2の画像センサの露出をラインごとに同期する方法の特定の例示的実施形態の流れ図。 複数のセンサからのデータを結合して3次元画像データを生成する方法の第1の例示的実施形態の流れ図。 複数のセンサからのデータを結合して3次元画像データを生成する方法の第2の例示的実施形態の流れ図。 第1の画像センサ及び第2の画像センサの露出をラインごとに同期する方法の特定の例示的実施形態の流れ図。 複数のセンサからのデータを結合して同期されたデータラインから3次元画像データを生成する方法の特定の例示的実施形態の流れ図。 複数の画像センサからのデータを結合するための画像処理システムの特定の例示的実施形態のブロック図。 複数の画像センサからのデータを結合するための画像処理システムを含む無線機器の第1の例示的実施形態のブロック図。 複数の画像センサからのデータを結合するための画像処理システムを含む無線機器の第2の例示的実施形態のブロック図。
図1を参照すると、複数のセンサからのデータを結合するための画像処理システムの特定の例示的実施形態が描かれ、全体として100と示されている。画像処理システム100は、複数のカメラモジュール102と、センサモジュール104と、単一カメラのチップモジュール106とを含む。特定の実施形態において、センサモジュール104は、図2及び図3のセンサ202及び204などの複数のセンサを含むことができ、複数のセンサのそれぞれが、画像のデータラインを含むデータストリームを生成するように構成される。単一カメラモジュール106は、図2及び図3の画像プロセッサ208などの、単一カメラ入力を有する画像プロセッサを含むことができる。複数のセンサの画像データストリームの画像データをラインごとに結合して同期されたデータライン108にすることにより、画像プロセッサがたとえ単一カメラ入力を有する場合でも、画像プロセッサが複数のカメラの処理のためのフォーマットを行うことができるようになる。結果として、システム100は、各カメラに個々のプロセッサを使用するシステム、又は複数のカメラ入力を有するプロセッサを使用するシステムと比べてコストを削減して実装されることが可能である。
図2を参照すると、複数のセンサからのデータを結合するための画像処理システムの特定の例示的実施形態が描かれ、全体として200と示されている。画像処理システム200は、第1のセンサ202と第2のセンサ204とを含む。画像処理システム200はさらに、結合器206と、画像信号プロセッサ又はビデオフロントエンド208と、センサ同期装置230とを含む。画像信号プロセッサ208は、表示装置(図示せず)に結合することができる。結合器206は、1つ以上のラインバッファ216を含む。画像処理システム200は、少なくとも1つの半導体ダイに組み込むことができる。
第1のセンサ202は、第1の画像データストリーム212として示す、第1のデータストリームを生成するように構成することができる。第1の画像データストリーム212は、第1のデータライン222を含む。第2のセンサ204は、第2の画像データストリーム214として示す、第2のデータストリームを生成するように構成することができる。第2の画像データストリーム214は、第2のデータライン224を含む。第1及び第2のセンサ202、204は、互いに独立していて、センサ同期装置230から共通の同期信号234を受信する実質的に同様の画像センサとすることができる。センサ同期装置230は、制御/データ信号232を受信し、第1のセンサ202及び第2のセンサ204に共通の制御信号234を出力するように構成され、第1のセンサ202及び第2のセンサ204が近接して整列されたデータストリーム212、214を生成できるようにする。例えば、データストリーム212、214は、周波数及び位相など、実質的に同じタイミング特性を有することができる。特定の実施形態において、制御/データ信号232は、画像信号プロセッサ208から受信されることがある。
結合器206は、第1の画像データストリーム212及び第2の画像データストリーム214に応答する。結合器206は、ラインバッファ216内で、第1の画像データストリーム212からのデータと第2の画像データストリーム214からのデータとを結合するように構成される。特定の実施形態において、ラインバッファ216は、第1のセンサ202からの第1のデータライン222などの第1のデータと、第2のセンサ204からの第2のデータライン224などの第2のデータとを整列させるように構成される。特定の実施形態において、結合器206は、ラインバッファ216内に格納されたデータに応答して、画像信号プロセッサ208にラインデータ218を提供する。特定の実施形態において、ラインデータ218は、図6に関して記載するような、各行が各センサ202、204からの対応する行の組合せである複数の行を含むことができる。
画像信号プロセッサ208は、ラインデータ218を処理し、処理済みラインデータ240を生成するように構成される。特定の実施形態において、処理済みラインデータ240は、処理済みフレームデータとして提供されることが可能である。2つのセンサを示したが、他の実施形態は3つ以上のセンサを含むことができることを理解されたい。例えば、図3は、3つ以上のセンサを含む実施形態300を示している。第Nのセンサ305は、第Nの画像データストリーム315として示す、第Nのデータストリームを生成するように構成することができる。第Nの画像データストリーム315は、第Nのデータライン325を含む。第Nのセンサ305は、第1の画像センサ202及び第2の画像センサ204と実質的に同様である可能性があり、センサ同期装置230から共通の制御信号234を受信することができ、第1のセンサ202、第2のセンサ204、及び第Nのセンサ305が近接して整列されたデータストリーム212、214、315を生成できるようにする。例えば、データストリーム212、214、315は、周波数及び位相など、実質的に同じタイミング特性を有することができる。結合器206は、第1の画像データストリーム212、第2の画像データストリーム214、及び第Nの画像データストリーム315に応答する。結合器206は、ラインバッファ216内で、第1の画像データストリーム212、第2の画像データストリーム214、及び第Nの画像データストリーム315からのデータを結合するように構成される。
共通に制御された、同様のセンサ(例えば、図2の202、204、又は、図3の202、204、305)が実質的に同じ周波数及び位相を有するので、結合器206で受信されたデータストリーム間の同期は、画像データの単一画像ライン内で行われることが可能である。特定の実施形態において、ラインバッファ216は、ずれ(misalignment)の最悪の場合に備えたサイズにされることが可能である(即ち、同期のずれが3つのラインであるとき、ラインバッファ212は、少なくとも6つのラインをバッファする大きさにされるべきである)。結果として、結合されたデータは、単一画像信号プロセッサを使用して効率的に処理されることが可能である。従って、複数のプロセッサのシステム(例えば、各センサにプロセッサが割り当てられる)と比べて、画像システム全体のコスト及び複雑さを低減することができる。
図4を参照すると、図2の画像処理システム200の選択された部分400の特定の例示的実施形態を示している。画像処理システムのこの部分400は、第1のセンサ202と、第2のセンサ204と、センサ同期装置230とを含む。特定の実施形態において、第1のセンサ202及び第2のセンサ204は、センサ同期装置230から入力された同じスタートアップ信号又はリセット信号及び同じクロックを受信する同一のセンサ又は実質的に同一のセンサである。例えば、第1のセンサ202及び第2のセンサ204は、センサ同期装置230から共通の制御データ/信号をそれぞれ受信することができる。特定の実施形態において、制御データ/信号は、制御クロック信号404、制御データ信号406、カメラクロック信号408、及びカメラリセット信号410を含むことができる。制御データ/信号404〜410は、I2C(Inter-Integrated Circuit)マルチマスタシリアルコンピュータバスなど、2線チップ間通信プロトコルに準拠したインターフェースを介して形成され、伝送されることが可能である。或いは、制御データ/信号404〜410は、CSI(Camera Serial Interface)などデジタルカメラモジュールと携帯電話エンジンとの間のシリアルインターフェース、CSI−2(Camera Serial Interface 2)など周辺装置(カメラ)とホストプロセッサ(ベースバンド、アプリケーションエンジン)との間のインターフェース、CPI(Camera Parallel Interface)などデジタルカメラモジュールと携帯電話エンジンとの間のパラレルインターフェース、又は他の制御インターフェースの仕様に準拠したインターフェースに従って形成され、伝送されることが可能である。
第1のセンサ202は、図2又は図5のシステムに示すように、第1のタイミングデータ420及び第1のセンサ画像データ422を結合器206に送信するように構成することができる。同様に、第2のセンサ204は、第2のタイミングデータ430及び第2のセンサ画像データ432を、図2又は図5の結合器206に送信するように構成することができる。
動作中、第1のセンサ202及び第2のセンサ204は、それぞれタイミングの観点から同一又は実質的に同一の条件で動作する。例えば、第1のセンサ202及び第2のセンサ204は、それぞれ同じ制御クロック信号404、同じ制御データ信号406、同じカメラクロック信号408、及び同じカメラリセット信号410を受信する。第1のセンサ202及び第2のセンサ204は、同一又は実質的に同一であるので、これらは同じタイミング条件の下で実質的に同様に動作する。例えば、第1のセンサ202からのデータ出力は、第2のセンサ204からのデータ出力と実質的に同じ周波数及び位相を有する。例えば、第1のセンサ202及び第2のセンサ204からのデータ出力の間の位相差は、位相差の単一水平線よりも少ないことが可能であり、2つの画像センサ202、204からの画像データを同期及び制御するために単一画像信号プロセッサを使用できるようにする。
図5を参照すると、複数のセンサからのデータを結合するための画像処理システムの特定の例示的実施形態のブロック図が描かれ、全体として500と示されている。システム500は、第1の画像センサ202と、第2の画像センサ204と、結合器206と、センサ同期装置230と、画像信号プロセッサ208とを含む。システム500はさらに、レジスタインターフェース510と、クロック管理機器512とを含む。特定の実施形態において、レジスタインターフェース510は、センサ同期装置230内にあることが可能である。或いはレジスタインターフェース510は、独立型モジュールであることが可能である。特定の実施形態において、システム500はさらに、薄い出力フォーマッタ(thin output formatter)506(陰影で示す)と、トランスポートパッカ及びフォーマッタ508(陰影で示す)とを含むことができる。
特定の実施形態において、結合器206は、第1のセンサ202から第1のタイミングデータ420及び第1のセンサ画像データ422を受信するように構成される。結合器206はまた、第2のセンサ204から第2のタイミングデータ430及び第2のセンサ画像データ432を受信するように構成される。結合器206はさらに、クロック管理機器512からクロック信号526を受信するように構成される。結合器206は、第1のタイミングデータ420と、第1のセンサ画像データ422と、第2のタイミングデータ430と、第2のセンサ画像データ432とを使用して、同期されたデータラインを生成し、これが画像信号プロセッサ208に提供される。画像信号プロセッサ208は、同期されたデータラインを処理して、処理済みデータラインデータを作成する。処理済みデータラインデータは、表示装置など、別の構成要素に提供することができる。このように、複数のセンサからの画像データは結合され、処理され、レンダリングされて表示装置に表示される。
特定の実施形態において、第1のタイミングデータ420を第1の画素クロックと関連付けることができ、第1のセンサ画像データ422を第1の画素サイズと関連付けることができ、第2のタイミングデータ430を第2の画素クロックと関連付けることができ、第2のセンサ画像データ432を第2の画素サイズと関連付けることができる。結合器406が第1のタイミングデータ420と、第1のセンサ画像データ422と、第2のタイミングデータ430と、第2のセンサ画像データ432とを結合して同期されたデータラインを生成するとき、第1の画像データの第1のラインと第2の画像データの対応するラインが結合されて単一画像ラインになる。特定の実施形態において、単一画像ラインのサイズは、第1の画像データの第1のライン又は第2の画像データの対応するラインのサイズの実質的に2倍である可能性があり(例えば、第1の画素サイズ又は第2の画素サイズの2倍)、結合された単一画像ラインの画素クロックのレートは、第1の画素クロック又は第2の画素クロックのレートの実質的に2倍である可能性がある(例えば、第1の画素クロック周波数又は第2の画素クロック周波数の2倍であるクロック周波数を有する可能性がある)。生成された同期済みデータラインは、結合器タイミングデータ信号528及び結合器画像データ信号530によって画像信号プロセッサ208に送信される。
特定の実施形態において、結合器206によって生成される同期済みデータラインは、薄い出力フォーマッタ506に提供されて、フォーマットされたデータを作成することが可能であり、これがトランスポートパッカ及びフォーマッタ508に提供された後に画像信号プロセッサ208に提供される。
特定の実施形態において、薄い出力フォーマッタ506は、結合器タイミングデータ信号528及び結合器画像データ信号530を受信して、フォーマットされたデータを作成する。フォーマットされたデータは、出力フォーマッタタイミングデータ信号536、出力フォーマッタ画像データ信号538、出力フォーマッタ統計データ信号540、出力フォーマッタ開始データ信号542、及び出力フォーマッタ有効データ信号544を含むことができる。特定の実施形態において、トランスポートパッカ及びフォーマッタ508は、薄い出力フォーマッタ506からのフォーマットされたデータ536〜544を受信し、トランスポートタイミングデータ信号546及びトランスポート画像データ信号548を含むトランスポートデータストリームを生成する。
特定の実施形態において、レジスタインターフェース510は、画像信号プロセッサ208に結合され、またクロック管理機器512に結合されることが可能である。特定の実施形態において、レジスタインターフェース510は、クロック管理機器512からクロック信号527を受信することができ、またレジスタバス572に結合されることが可能である。クロック管理機器512は、第2のタイミングデータ信号430を受信し、クロック信号526を出力するように構成される。特定の実施形態において、クロック信号526は、結合器206が複数のセンサからの同時データを結合する間、フレーム処理レートを維持できるように、第2のタイミングデータ信号430の周波数の実質的に2倍である。
共通に制御された同様のセンサからのデータ出力は、実質的に同じ周波数及び位相を有するので、データストリーム間の同期は、画像データの単一画像ラインの中で行われることが可能である。このように、結合されたデータは、画像データの単一ラインにアクセスすることができる単一画像信号プロセッサを使用して効率的に処理されることが可能である。
図6を参照すると、第1の画像センサの出力の第1のデータストリーム及び第2の画像センサの出力の第2のデータストリームが結合されて同期されたデータラインを形成する特定の実施形態を表す図が描かれ、全体として600と示される。図2の第1のセンサ202などの第1のセンサが、画像の第1の画像データに対応する第1のデータストリーム602を生成する。図2の第2のセンサ204などの第2のセンサが、画像の第2の画像データに対応する第2のデータストリーム604を生成する。第1のデータストリーム602からのデータ及び第2のデータストリーム604からのデータが結合されて、データアウトのデータストリーム606を形成する。
特定の実施形態において、第1のデータストリーム602は、画像の第1の画像データの第1のラインと関連するデータを含み、第2のデータストリーム604は、画像の第2の画像データの対応するラインと関連するデータを含む。第1のデータストリーム602は、第1のラインインデックス値を有するラインデータ610、第2のラインインデックス値を有するラインデータ612、第3のラインインデックス値を有するラインデータ614、及び第4のラインインデックス値を有するラインデータ616を含む第2のデータストリーム604は、第1のデータストリームのラインデータに対応するラインデータを含み、第1のラインインデックス値を有する対応するラインデータ620、第2のラインインデックス値を有する対応するラインデータ622、第3のラインインデックス値を有する対応するラインデータ624、及び第4のラインインデックス値を有する対応するラインデータ626を含む。
データアウトのデータストリーム606は、画像の第1の画像データの第1のラインと画像の第2の画像データの対応するラインの組合せを含む。図のように、第1のデータストリーム602及び第2のデータストリーム604は交互配置されてデータアウトのデータストリーム606を形成する。例えば、データアウトのデータストリーム606は、第1のラインインデックス値を有する結合されたラインデータ630、第2のラインインデックス値を有する結合されたラインデータ632、及び第3のラインインデックス値を有する結合されたラインデータ634を含む。結合されたラインデータ630は、ラインデータ610及び対応するラインデータ620を含む。結合されたラインデータ632は、ラインデータ612及び対応するラインデータ622を含む。結合されたラインデータ634は、ラインデータ614及び対応するラインデータ624を含む。それぞれの結合されたライン630〜634は、図2のラインバッファ216などのラインバッファ内で対応するラインを結合することによって生成することができる。
特定の実施形態において、第1のデータストリーム602からのデータは、第2のデータストリーム604からのデータと結合されて、複数の同期されたデータラインを生成し、これらがフレーム660を形成する。フレーム660は、複数の行642を含むことができ、それぞれの行があるラインインデックス値に対応し、そのラインインデックス値を有する第1の画像データのラインと、そのラインインデックス値を有する第2の画像データの対応するラインとを含む同期されたデータラインを格納する。例えば、フレーム660の第1の行は、結合されたラインデータ630を含むことができ、フレーム660の第2の行は、結合されたラインデータ632を含むことができ、フレーム660の第3の行は、結合されたラインデータ634を含むことができる。各同期された画像データラインは、フレーム660のデータが整列するようにフレーム660の一部を形成する。
フレーム660は、画像センサからの画像データの読み取り順(read order)に一致する行642の順序で示されている(即ち、画像センサのトップライン(ラインインデックス1)からの結合されたデータがフレーム660の最上ラインにあり、画像センサの次のライン(ラインインデックス2)からの結合されたデータがフレーム660の次のラインにある)。或いは、他の実施形態では、フレーム660の行は、画像データの読み取り順に一致しない場合があり、代わりに画像データのいかなる他の順序に対応することもできる。例えば、フレーム660の最上行がラインインデックス2に対応することができ、フレーム660の次の行がラインインデックス1に対応することができる。フレーム660は、行642のそれぞれを画像データのラインインデックス値のいずれかに対応するようにプログラムすることができるように、プログラム可能とすることができる。
特定の実施形態において、第1の画像データの第1のライン610は、第1の画素サイズ(例えば、ラインあたりの画素数)及び第1の画素クロックと関連し、第2の画像データの対応するライン620は、第2の画素サイズ及び第2の画素クロックと関連する。データストリーム602、604を生成する第1のセンサ及び第2のセンサは、共通のクロック信号及び共通のリセット信号を受信するように構成される。第1の画像データの第1のライン610及び第2の画像データの対応するライン620が、単一画像ラインに結合されるとき、単一画像ラインのサイズは、第1の画像データの第1のライン610又は第2の画像データの対応するライン620のサイズの実質的に2倍であり、結合された単一画像ラインの画素クロック信号(例えば、第3の画素クロック信号)は、実質的に第1の画素クロック信号又は第2の画素クロック信号の2倍のクロックレートを有する。例えば、結合されたラインデータ630は、実質的にラインデータ610の2倍又は対応するラインデータ620の2倍の画像サイズを有することができる。同様に、結合されたラインデータ630の画素クロック周波数は、実質的にラインデータ610と関連する第1の画素クロック信号の2倍又は対応するラインデータ620と関連する第2の画素クロック信号の2倍の周波数を有することができ、結合されたラインデータ630の画素クロック周波数は、第1の画素クロック又は第2の画素クロックの実質的に2倍の周波数を有する第3の画素クロック信号と関連付けることができる。
或いは、等しいラインサイズを有するラインデータの3つの画像センサが結合される実行では、同期されるラインサイズは、実質的に3倍のセンサラインサイズであることが可能であり、画素クロックレートは、実質的に個々のセンサの3倍の画素クロックレートであることが可能である。等しくないサイズを有する可能性がある任意の数のセンサの一般的な場合では、同期されるラインサイズは、結合されるラインライズの合計以上と設定することができ、画素クロックレートは、出力ライン帯域幅が入力帯域幅の合計以上であるように設定することができる。
フレーム660は、図2の画像信号プロセッサ208などの画像信号プロセッサで処理して、処理済みフレーム650を生成することができる。処理済みフレーム650は、図2のセンサ202などの第1の画像センサからの第1の画像データを含む第1のセクション652と、図2のセンサ204などの第2の画像センサからの第2の画像データを含む第2のセクション654と、ギャップセクション656とを含む。ギャップセクション656は、第1のセクション652と第2のセクション654との間に配置された非画像データを含むことができる。
特定の実施形態において、第1のセクション652は、第1の画像データのラインを含み、第2のセクション654は、第2の画像データの対応するラインを含む。特定の実施形態において、ギャップセクション656は、エッジフィルタリングに使用されることが可能であり、幅が約5画素のブラックギャップ(black gap)を含むことができる。さらなる例として、ギャップセクション656は、ライン間に追加され、補完カーネルのサイズ、又は画像信号プロセッサによってフレーム650に適用される最大の2次元フィルタのサイズに等しいサイズを有することがある。
特定の例示的実施形態では、自動露出、自動フォーカス、及び自動ホワイトバランスの統計を、第1のセクション652又は第2のセクション654から収集することができ、そのうちのいずれも、それぞれのセンサのうちの1つからのフル画像であることが可能である。従って、自動露出、自動フォーカス、及び自動ホワイトバランスの統計は、最終的な画像の半分(例えば第1のセクション652)から集めることができ、両方のセンサが実質的に同一のタイミング情報を受信しているので、両方のセンサに適用することができる。このように、複数のセンサからのデータ出力が実質的に同じ周波数及び位相を有し、画像の画像データの1つの画像ライン内で同期が行われるようにする。
フレーム650は、少なくとも1つの半導体ダイに組み込まれているメモリに格納することができる。フレーム650は、セットトップボックス、音楽プレーヤ、映像プレーヤ、娯楽装置、航法機器(navigation device)、通信機器、携帯情報端末(PDA)、固定位置データユニット、及びコンピュータなどの、家庭用電子機器に組み込まれているメモリに格納することができる。電子機器は、複数のセンサからの画像データを処理する3D応用を含む、画像処理方法を利用することができる。
図7を参照すると、第1の画像センサの出力における第1のデータストリーム及び第2の画像センサの出力における第2のデータストリームが結合されて同期されたデータラインを形成する第2の実施形態を表す図が描かれ、全体として700と示されている。図2の第1の画像センサ202などの第1のセンサが、画像の第1の画像データに対応する第1のデータストリーム702を生成する。図2の第2の画像センサ204などの第2のセンサが、画像の第2の画像データに対応する第2のデータストリーム704を生成する。第1のデータストリーム702からのデータ及び第2のデータストリーム704からのデータが結合されて、データアウトのデータストリーム706を形成する。
特定の実施形態において、第1のデータストリーム702は、画像の第1の画像データの第1のラインと関連するデータを含み、第2のデータストリーム704は、画像の第2の画像データの対応するラインと関連するデータを含む。第1のデータストリーム702は、第1のラインインデックス値を有するラインデータ710、第2のラインインデックス値を有するラインデータ712、第3のラインインデックス値を有するラインデータ714、及び第4のラインインデックス値を有するラインデータ716を含む第2のデータストリーム704は、第1のデータストリームのラインデータに対応するラインデータを含み、第1のラインインデックス値を有する対応するラインデータ720、第2のラインインデックス値を有する対応するラインデータ722、第3のラインインデックス値を有する対応するラインデータ724、及び第4のラインインデックス値を有する対応するラインデータ726を含む。
データアウトのデータストリーム706は、画像の第1の画像データの第1のラインと画像の第2の画像データの対応するラインの組合せを含む。図のように、第1のデータストリーム702及び第2のデータストリーム704は、ギャップセクション708を有して交互配置されてデータアウトのデータストリーム706を形成する。例えば、データアウトのデータストリーム706は、第1のラインインデックス値を有する組合されたラインデータ730、第2のラインインデックス値を有する組合されたラインデータ732、及び第3のラインインデックス値を有する組合されたラインデータ734を含む。組合されたラインデータ730は、ギャップセクション708によって対応するラインデータ720から分離されたラインデータ710を含む。組合されたラインデータ732は、ギャップセクション708によって対応するラインデータ722から分離されたラインデータ712を含む。組合されたラインデータ734は、ギャップセクション708によって対応するラインデータ724から分離されたラインデータ714を含む。それぞれの組合されたライン730〜734は、図2のラインバッファ216などのラインバッファ内で対応するライン間にギャップセクション708を有して対応するラインを結合することによって生成することができる。
特定の実施形態において、第1のデータストリーム702からのデータは第2のデータストリーム704からのデータと結合されて、複数の同期されたデータラインを生成し、これらがフレーム740を形成する。フレーム740は、複数の行742を含むことができ、各行があるラインインデックス値に対応し、そのラインインデックス値を有する第1の画像データのラインを格納し、そのラインインデックス値を有する第2の画像データの対応するラインを格納する。例えば、フレーム740の第1の行は、組合されたラインデータ730含むことができ、フレーム740の第2の行は、組合されたラインデータ732を含むことができ、フレーム740の第3の行は、組合されたラインデータ734を含むことができるなどのように、フレーム740中のデータは並べられる。
特定の実施形態において、第1の画像データの第1のライン710は、第1の画素サイズ(例えば、ラインあたり数画素)及び第1の画素クロックと関連し、第2の画像データの対応するライン720は、第2の画素サイズ及び第2の画素クロックと関連する。データストリーム702、704を生成する第1のセンサ及び第2のセンサは、共通のクロック信号及び共通のリセット信号を受信するように構成される。第1の画像データの第1のライン710及び第2の画像データの対応するライン720が単一画像ラインに結合されるとき、単一画像ラインのサイズは、第1の画像データの第1のライン710又は第2の画像データの対応するライン720のサイズの約2倍となる。さらに、結合された信号画像ラインの画素クロック信号(例えば、第3の画素クロック信号)は、第1の画素クロック信号又は第2の画素クロック信号のクロックレートの実質的に2倍のクロックレートを有する。例えば、結合されたラインデータ730は、およそラインデータ710の画像サイズの2倍又は対応するラインデータ720の画像サイズの2倍である画像サイズを有することができる。同様に、結合されたラインデータ730の画素クロック周波数は、およそラインデータ710と関連する第1の画素クロック信号の周波数の2倍、又は対応するラインデータ720と関連する第2の画素クロックの周波数の2倍である周波数を有することができ、従って組合されたラインデータ730の画素クロック周波数は、第1の画素クロック又は第2の画素クロックの信号のおよそ2倍の周波数を有する第3の画素クロック信号と関連付けることができる。
各ギャップセクション708は、非画像データを含むことができる。特定の実施形態において、ギャップセクション708によって形成されるフレーム740中の非画像データエリアは、エッジフィルタリングに使用されることが可能である。ギャップセクション708は、幅が約5画素のブラックギャップを含むことができる。他の実施形態では、各ギャップセクション708は、補間カーネルのサイズ又は図2の画像プロセッサ208などの画像プロセッサによってフレーム740に適用される最大の2次元フィルタのサイズに等しいサイズを有する。フレーム740は、画像プロセッサによって処理されて、3D画像を生成することが可能である。
図8を参照すると、第1のセンサからの第1のデータストリームと第2のセンサからの第2のデータストリームとの間の2つのラインの位相差を示す位相図の第1の実施形態を表す図が描かれ、全体として800と示されている。図2の第1のセンサ202などの第1のセンサは、第1のセンサの第1のラインデータ802と、第1のセンサの第2のラインデータ804と、第1のセンサの第3のラインデータ806とを含む第1のデータストリームを生成する。図2の第2のセンサ204などの第2のセンサは、第2のセンサの第1のラインデータ812と、第2のセンサの第2のラインデータ814と、第2のセンサの第3のラインデータ816とを含む第2のデータストリームを生成する。第1のデータストリームからのデータ及び第2のデータストリーム704からのデータが結合されて、結合されたライン820を形成する。図8に示す特定の実施形態において、第1、第2、及び第3のラインデータを示している。或いは、いかなる数のラインデータを生成することもできる(例えば、図6及び7に示す720のライン)。
図8の特定の実施形態において、第1のデータストリームのデータと第2のデータストリームのデータとの間に2つのラインの位相差がある。例えば、第1のセンサの第1のラインデータ802は、第1のラインの位相中に図2の結合器216などの結合器によって受信されることが可能であり、第1のセンサの第2のラインデータ804は、第2のラインの位相中に受信されることが可能であり、第1のセンサの第3のラインデータ806及び第2のセンサの第1のラインデータ812は、第3のラインの位相中に受信されることが可能である。このように、第1のセンサの第1のラインデータ802と第2のセンサの第1のラインデータ812との間に2つのラインの位相差がある。
結合されたライン820は、画像の第1の画像データの第1のラインと画像の第2の画像データの対応するラインの組合せを含む。図のように、第1のデータストリーム及び第2のデータストリームは交互配置されて、結合されたライン820を形成する。例えば、結合されたライン820は、第1のセンサの第1のラインデータ802と第2のセンサの第1のラインデータ812とを有する結合されたラインデータ822、第1のセンサの第2のラインデータ804と第2のセンサの第2のラインデータ814とを有する結合されたラインデータ824、及び第1のセンサの第3のラインデータ806と第2のセンサの第3のラインデータ816とを有する結合されたラインデータ826を含む。それぞれの結合されたライン822〜826は、図2のラインバッファ216などのラインバッファ内で対応するラインを結合することによって生成することができる。ラインバッファは、同期されたデータライン(例えば、結合されたラインデータ822)を生成する前に、第1の画像センサから受信される次のデータライン(例えば、第1のセンサの第2のラインデータ804)の少なくとも一部をバッファするように構成することができる。このように、2つのラインの位相差を有する複数のセンサからのデータ出力は、画像の画像データの1つの画像ライン内で同期が行われるように結合されることが可能である。
図9を参照すると、第1のセンサからの第1のデータストリームと第2のセンサからの第2のデータストリームとの間の1つのラインの位相差を示す位相図の第1の実施形態を表す図が描かれ、全体として900と示されている。図2の第1のセンサ202などの第1のセンサは、第1のセンサの第1のラインデータ902と、第1のセンサの第2のラインデータ904と、第1のセンサの第3のラインデータ906と、第1のセンサの第4のラインデータ908とを含む第1のデータストリームを生成する。図2の第2のセンサ204などの第2のセンサは、第2のセンサの第1のラインデータ912と、第2のセンサの第2のラインデータ914と、第2のセンサの第3のラインデータ916と、第2のセンサの第4のラインデータ918とを含む第2のデータストリームを生成する。第1のデータストリームからのデータ及び第2のデータストリーム704からのデータが結合されて、結合されたライン920を形成する。図9に示す特定の実施形態において、第1、第2、第3、及び第4のラインデータを示している。或いは、いかなる数のラインデータを生成することもできる(例えば、図6及び7に示す720のライン)。
図9の特定の実施形態において、第1のデータストリームのデータと第2のデータストリームのデータとの間に1つのラインの位相差がある。例えば、第1のセンサの第1のラインデータ902は、第1のラインの位相中に図2の結合器216などの結合器によって受信されることが可能であり、第1のセンサの第2のラインデータ904及び第2のセンサの第1のラインデータ912は、第2のラインの位相中に受信されることが可能である。このように、第1のセンサの第1のラインデータ902と第2のセンサの第1のラインデータ912との間に1つのラインの位相差がある。
結合されたライン920は、画像の第1の画像データの第1のラインと画像の第2の画像データの対応するラインの組合せを含む。図のように、第1のデータストリーム及び第2のデータストリームは交互配置されて、結合されたライン920を形成する。例えば、結合されたライン920は、第1のセンサの第1のラインデータ902、及び第2のセンサの第1のラインデータ912を有する結合されたラインデータ922と、第1のセンサの第2のラインデータ904、及び第2のセンサの第2のラインデータ914を有する結合されたラインデータ924と、第1のセンサの第3のラインデータ906、及び第2のセンサの第3のラインデータ916を有する結合されたラインデータ926と、第1のセンサの第4のラインデータ908、及び第2のセンサの第4のラインデータ918を有する結合されたラインデータ928とを含む。それぞれの結合されたライン922〜926は、図2のラインバッファ216などのラインバッファ内で対応するラインを結合することによって生成することができる。このように、1つのラインの位相差を有する複数のセンサからのデータ出力は、画像の画像データの1つの画像ライン内で同期が行われるように結合されることが可能である。
図10を参照すると、複数のセンサのそれぞれのred-green-blue(RGB、赤緑青)データを表し、同期されたデータラインを表す図が描かれ、全体として1000と示されている。図10に示す実施形態において、図3の第1のセンサ202などの第1のセンサは、第1のセンサの第1のラインデータ1002と、第1のセンサの第2のラインデータ1004と、第1のセンサの第3のラインデータ1006とを含む第1のデータストリームを生成する。図3の第2のセンサ204などの第2のセンサは、第2のセンサの第1のラインデータ1012と、第2のセンサの第2のラインデータ1014と、第2のセンサの第3のラインデータ1016とを含む第2のデータストリームを生成する。図3の第Nのセンサ305などの第3のセンサは、第3のセンサの第1のラインデータ1022と、第3のセンサの第2のラインデータ1024と、第3のセンサの第3のラインデータ1026とを含む第3のデータストリームを生成する。第1のデータストリームからのデータ、第2のデータストリームからのデータ、及び第3のデータストリームからのデータが結合されて、結合されたライン1020を形成する。
説明的な例として、バイエルフィルタパターン(Bayer filter pattern)に従って、第1のラインのデータ1002、1012、1022のそれぞれは、交互になった赤と緑の画素値を含み、第2のラインのデータ1004、1014、1024のそれぞれは、交互になった緑と青の画素値を含み、第3のラインのデータ1006、1016、1026は、交互になった赤と緑の画素値を含む。
図のように、第1のデータストリーム、第2のデータストリーム、及び第3のデータストリームは交互配置されて、結合されたラインデータストリーム1020を形成する。例えば、結合されたラインデータストリーム1020は、第1のセンサの第1のラインデータ1002、第2のセンサの第1のラインデータ1012、及び第3のセンサの第1のラインデータ1002を有する結合されたラインデータ1040と、第1のセンサの第2のラインデータ1004、第2のセンサの第2のラインデータ1014、及び第3のセンサの第2のラインデータ1024を有する結合されたラインデータ1050と、第1のセンサの第3のラインデータ1006、第2のセンサの第3のラインデータ1016、及び第3のセンサの第3のラインデータ1026を有する結合されたラインデータ1060とを含む。それぞれの結合されたライン1040〜1060は、図3のラインバッファ216などのラインバッファ内で対応するラインを結合することによって生成することができる。それぞれの結合されたライン1040〜1060は、図3の画像信号プロセッサ208などの画像信号プロセッサで逆モザイク化される(demosaiced)ように、そのそれぞれのセンサのラインデータから読み取られる生(raw)画素(例えば、R、G、及びB)値を含むことができる。このように、複数のセンサからのデータ出力は、画像の画像データの1つの画像ライン内で同期が行われるように結合されることが可能である。
図10は、バイエルフィルタパターンに従ったRGBデータを含んでいる生画素値を示しているが、他の実施形態では、センサからのラインデータは、バイエルのRGB画素値を含まない場合がある。例えば、代わりにセンサは、ルマ((luma)輝度)、青色差クローマ、赤色差クローマ(YCbCr)値、シアン、黄、緑、及びマゼンタ(CYGM)値、赤、緑、青、及びエメラルド(RGBE)値、赤、緑、青、及び白(RGBW)値、又は説明的、非限定的な例として、他のいかなるタイプの値を提供することもできる。或いは、又は追加として、センサの1つ又は複数は、全色性のセル、受光器群を覆うマイクロレンズ、垂直カラーフィルタ、又は生画像データをラインごとに読み出すことができる他のいかなるセンサ技術を実装することもできる。
図11を参照すると、複数のセンサを有する装置と関連する信号タイミングを示すタイミング図の特定の実施形態が描かれ、全体として1100と示されている。信号は、第1のセンサのフレーム有効(FV)信号1102及びライン有効(LV)信号1104と、第2のセンサのFV1106及びLV1108と、第3のセンサのFV1110及びLV1112とを含む。特定の実施形態において、第1のセンサ、第2のセンサ、及び第3のセンサは、図3の第1、第2、及び第3のセンサ202、204、305とすることができる。結合されたフレーム有効信号1114もまた、結合されたライン有効/データ信号1116及びライン負荷(LL)信号1118と併せて示される。
特定の実施形態において、信号1114〜1118は、結合器によって生成された図6のフレーム660などのフレームの1つ以上の同期されたデータラインと関連するシグナリングに対応し、信号1102〜1112は、結合器で受信されたシグナリングに対応する。図のように、第1のラインデータ1120と、第2のラインデータ1122と、第3のラインデータ1124が第1のセンサから受信され、第1のラインデータ1130、第2のラインデータ1132、及び第3のラインデータ1134が第2のセンサから受信され、第1のラインデータ1140、第2のラインデータ1142、及び第3のラインデータ1144が第3のセンサから受信される。
第1のラインデータ1130は、第1のラインデータ1120及び第1のラインデータ1140より前に第2のセンサから受信される。第1のラインデータ1130と第2のラインデータ1120の受信間の位相差を、第1の位相差1180として示している。第1のセンサの第1のラインデータ1120は、第3のセンサの第1のラインデータ1140より前に受信され、第2の位相差1182として示している。センサのそれぞれからのラインデータは、対応するフレーム有効信号の立ち上がりエッジに続くことができ、画像データラインによって受信されるデータが、それぞれの特定のセンサからの有効ラインデータであることを示している。図のように、結合されたフレーム有効ライン1114は、例えば図2の結合器206では、第1のラインデータ1120、1130、及び1140が受信されるまで、非有効データを示すロー(low)のままである。第1のライン1120、1130、及び1140のそれぞれが受信された後、結合されたフレームの有効信号1114が立ち上がって、ライン有効信号1116上に有効データを示す。有効信号がLLライン1118上でアサートされるとともに、第1の同期されたデータライン1150が生成される。第1の同期されたラインデータ1150を生成した後、結合されたフレーム有効信号1114は有効状態を維持し、LL信号1118は非有効状態に戻り、その後第2の同期されたデータライン1160が生成されるとLL信号1118は有効状態に戻り、続いて第3の同期されたデータライン1170が生成される。
図12を参照すると、第1のセンサからの第1のデータストリーム、第2のセンサからの第2のデータストリーム、及び第3のセンサからの第3のデータストリームの間の3つのラインの位相差を示す位相図の第1の実施形態を表す図が描かれ、全体として1200と示されている。図3の第1のセンサ202などの第1のセンサは、第1のセンサの第1のラインデータ1202と、第1のセンサの第2のラインデータ1204と、第1のセンサの第3のラインデータ1206と、第1のセンサの第4のラインデータ1208とを含む第1のデータストリームを生成する。図3の第2のセンサ204などの第2のセンサは、第2のセンサの第1のラインデータ1212と、第2のセンサの第2のラインデータ1214と、第2のセンサの第3のラインデータ1216と、第2のセンサの第4のラインデータ1218とを含む第2のデータストリームを生成する。図3の第Nのセンサ305などの第3のセンサは、第3のセンサの第1のラインデータ1222と、第3のセンサの第2のラインデータ1224と、第3のセンサの第3のラインデータ1226と、第3のセンサの第4のラインデータ1228とを含む第3のデータストリームを生成する。第1のデータストリームからのデータ、第2のデータストリームからのデータ、及び第3のデータストリームからのデータが結合されて、結合されたライン1220を形成する。図12に示す特定の実施形態において、第1、第2、第3、及び第4のラインデータを示している。或いは、いかなる数のラインデータを生成することもできる(例えば、図6及び7に示す720のライン)。
特定の実施形態において、第1のデータストリームのデータ、第2のデータストリームのデータ、及び第3のデータストリームからのデータの間には3つのラインの位相差がある。例えば、第3のセンサの第1のラインデータ1222は、第1のラインの位相中に図2の結合器216などの結合器によって受信されることが可能であり、第1のセンサの第1のラインデータ1202及び第3のセンサの第2のラインデータ1224は、第2のラインの位相中に受信されることが可能であり、第1のセンサの第2のラインデータ1204及び第3のセンサの第3のラインデータ1226は、第3のラインの位相中に受信されることが可能であり、第1のセンサの第3のラインデータ1206、第2のセンサの第1のラインデータ1212、及び第3のセンサの第4のラインデータ1228は、第4のラインの位相中に受信されることが可能である。このように、第1のセンサの第1のラインデータ1202、第2のセンサの第1のラインデータ1212、及び第3のセンサの第1のラインデータ1222の間に3つのラインの位相差がある。
結合されたライン1220は、画像の第1の画像データの第1のラインと、画像の第2の画像データの対応するラインと、画像の第3の画像データの組合せを含む。図のように、第1のデータストリーム、第2のデータストリーム、及び第3のデータストリームは交互配置されて、結合されたライン1220を形成する。例えば、結合されたライン1220は、第1のセンサの第1のラインデータ1202、第2のセンサの第1のラインデータ1212、及び第3のセンサの第1のラインデータ1222を有する結合されたラインデータ1232と、第1のセンサの第2のラインデータ1204、第2のセンサの第2のラインデータ1214、及び第3のセンサの第2のラインデータ1224を有する結合されたラインデータ1234と、第1のセンサの第3のラインデータ1206、第2のセンサの第3のラインデータ1216、及び第3のセンサの第3のラインデータ1226を有する結合されたラインデータ1236とを含む。それぞれの結合されたライン1232〜1236は、図3のラインバッファ216などのラインバッファ内の対応するラインを結合することによって生成することができる。このように、3つのラインの位相差を有する複数のセンサからのデータ出力は、画像の画像データの1つの画像ライン内で同期が行われるように結合されることが可能である。
図13を参照すると、複数のセンサからのデータを結合して3Dデータを生成するための画像処理システムの特定の例示的実施形態が描かれ、全体として1300と示されている。画像処理システム1300は、第1の画像センサ1302と第2の画像センサ1304とを含む。画像処理システム1300はさらに、結合器1306と、画像プロセッサ1308とを含む。画像プロセッサ1308は、表示装置1310に結合される。結合器1306は、少なくとも1つのラインバッファ1312を含む。画像処理システム1300は、少なくとも1つの半導体ダイに組み込むことができる。
第1の画像センサ1302は、第1の画像データストリーム1314として示す第1のデータストリームを生成するように構成され、第2の画像センサ1304は、第2の画像データストリーム1316として示す第2のデータストリームを生成するように構成される。特定の実施形態において、第1の画像データストリーム1314は、第2の画像データストリーム1316とは非同期とすることができる。第1及び第2の画像センサ1302、1304は、互いから独立していて、プロセッサ(例えば、結合器1306又は画像プロセッサ1308)から共通の制御信号を受信して近接して整列された画像データストリーム1314、1316を生成することができる実質的に同様の画像センサとすることができる。例えば、画像データストリーム1314、1316は、周波数及び位相など、実質的に同じタイミング特性を有することができる。例えば図2の信号同期装置230によって、プロセッサが共通の制御信号を生成することができるので、画像センサ1302、1304のそれぞれは、信号プロセッサに直接応答し、これによって制御されることが可能である。2つの画像センサ1302、1304を示したが、画像処理システム1300で3つ以上の画像センサを使用することができることを理解すべきである。
結合器1306は、第1の画像データストリーム1314及び第2の画像データストリーム1316に応答する。結合器1306は、ラインバッファ1312内で、第1の画像データストリーム1314からのデータと第2の画像データストリーム1316からのデータとを結合するように構成される。特定の実施形態において、ラインバッファ1312は、第1の画像センサ1302からの第1のデータと、第2の画像センサ1304からの第2のデータを並べるように構成される。特定の実施形態において、結合器1306は、ラインバッファ1312内に格納されたデータに応答して、画像信号プロセッサ1308にフレームデータ1318を提供する。特定の実施形態において、フレームデータ1318は、複数の行の画像データを含むことができ、各行は、図3に関して説明するように、各センサ1302、1304からの対応する行の組合せである。
画像プロセッサ1308は、フレームデータ1318を処理し、処理済みフレームデータ1320を表示装置1310に出力するように構成される。処理済みフレームデータ1320は、3D画像フォーマット又は3D映像フォーマットを有することができる。
表示装置1310は、処理済みフレームデータ1320を受信することに応答して画像データをレンダリングし、表示する。このように、複数の画像センサからの画像データを結合し、処理し、次いでレンダリングして表示装置1310で表示することができる。特定の実施形態において、表示装置1310は、画像プロセッサ1308に直接応答しないように画像プロセッサ1308から切り離すことができる。例えば表示装置1310は、画像プロセッサ1308とは別個の機器とすることができる。
共通に制御される同様の画像センサ1302、1304から受信されるデータは実質的に同じ周波数及び位相を有することができるので、データストリーム1314、1316間の同期は、画像データの単一画像ライン内で行われることが可能である。特定の実施形態において、ラインバッファ1312は、ずれの最悪の場合に備えたサイズにされることが可能である(例えば、同期のずれが3つのラインである場合、ラインバッファ1312は少なくとも6つのラインを格納する大きさにされるべきである)。その結果、結合されたデータは、単一画像プロセッサ1308を使用して効率的に処理されることが可能である。従って、複数のプロセッサのシステム(例えば、各センサにプロセッサが割り当てられる)と比べて、画像システム全体のコスト及び複雑さを低減することができる。
諸実施形態は、3D/立体的な画像及び/又は映像データを提供するように構成されることが可能である。例えば、このような1つの実施形態では、第1の画像センサ1302及び第2の画像センサ1304は、左/右の(立体的な)画像を提供するように、並べて配置されることが可能である。結合器1306によって提供された信号は受信され、画像プロセッサ1308によって処理されて3D画像を作成することが可能である。ユーザコマンドにより、画像プロセッサ1308が単一センサ(即ち、第1の画像センサ1302又は第2の画像センサ1304)のみからデータを受信し、これを処理して3D画像を作成する代わりに2次元(2D)画像を作成できるようになる場合もある。
画像プロセッサ1308など、単一カメラ用の入力を有する画像プロセッサは、結合器1306によって提供される2つのカメラからの結合されたデータを使用することによって3D処理に使用することができるデータを処理することができる。画像プロセッサ1308は、結合器1306から、又は結合器1306からの画像データを格納するメモリから、画像データを受信することができる。このような1つの実施形態では、画像プロセッサ1308は、受信した画像データを2D画像/映像データとして処理し、画像プロセッサ1308によるその後の処理により、画像プロセッサ1308からの処理済みデータに基づいて、3D立体画像/映像ストリームを提供する。或いは、画像プロセッサ1308は、受信した画像データに基づいて3D立体画像/映像ストリームを直接提供するように構成されることが可能である。1つの実施形態では、3D取り込みシステムは、第1の集積回路として実装された結合器1306と、第2の集積回路として実装された画像プロセッサ1308とを備える。第1及び第2の集積回路は、例えば、シリアルバス、パラレルバス、又はI2Cバスのうちの1つ又は複数によって接続されることが可能である。
画像データストリーム1314、1316を結合してフレームデータ1318を生成することにより、画像プロセッサ1308が単一カメラ入力を有する場合でも、画像プロセッサ1308がマルチカメラの3D処理のためのフォーマットを行うことができるようになる。その結果、システム1300は、各カメラに別々のプロセッサを使用する、又は複数のカメラ入力を有するプロセッサを使用するシステムと比べて削減されたコストで実装されることが可能である。
図14を参照すると、複数の画像センサからのデータを結合するための画像処理システムを有するモバイル機器の様々な実施形態を表す図が描かれ、全体として1400と示されている。1402に示す特定の実施形態において、モバイル機器は、2つの隣接したカメラのアレイを有する画像処理システムを含む。1404に示す特定の実施形態において、モバイル機器は、一列に並んだ構成で配列された3つのカメラのアレイを有する画像処理システムを含む。或いは、いかなる数のカメラも、一列に並んだ構成で配置されることが可能である。1406に示す特定の実施形態において、モバイル機器は、3×3のカメラのアレイを有する画像処理システムを含む。1408に示す特定の実施形態において、モバイル機器は、5×5のカメラのアレイを有する画像処理システムを含む。或いは、いかなる数のカメラも、2次元配列で配置されることが可能である。
図15を参照すると、複数のカメラ又は画像センサによって取り込まれる画像のアレイの一例が描かれ、全体として1500と示されている。図15に示されるように、1つのカメラによって取り込まれる画像は、他の隣接カメラによって取り込まれる画像と一部重なることが可能である。画像の重なりは、カメラのそれぞれによって取り込まれた画像を組み合わせて単一画像にする際に役立つことが可能である。図15に示す特定の実施形態において、アレイ1500は、カメラ又は画像センサの4×4のアレイに対応する。或いは、いかなる数のカメラも、2次元配列(例えば、図18及び19に示す5×5のアレイ)で配置されることが可能である。
各カメラは、アレイ1500の単一カメラ画像を取り込む。図15に示す実施形態では、アレイ1500は、4×4のアレイである。従って、アレイ1500は、第1の行1502と、第2の行1504と、第3の行1506と、第4の行1508とを含んでいる。さらに、アレイ1500は、第1の列1510と、第2の列1512と、第3の列1514と、第4の列1516とを含んでいる。説明的な例として、単一カメラ画像1518は、第1の行1502及び第4の列1516に対応するカメラによって取り込まれることが可能である。単一カメラ画像1518は、隣接セルの他のカメラによって取り込まれるカメラ画像と一部重なることが可能である。第1の行1502及び第4の列1516に対応するカメラの場合には、隣接セルのカメラは、第1の行1502及び第3の列1514に対応するカメラ、第2の行1504及び第3の列1514に対応するカメラ、又は第2の行1504及び第4の列1516に対応するカメラを含むことができる。例えば、単一カメラ画像の重なり1520は、第1の行1502及び第4の列1516に対応するカメラによって取り込まれる単一カメラ画像1508と関連付けることができる。図15は、行1502〜1508のそれぞれの各カメラと列1510〜1516のそれぞれの各カメラの絶対的な配列の理論的事例を示している。従って、隣接行(例えば、第2の行1504)に対応するカメラによって取り込まれる画像との画像の重なりは、隣接列(例えば、第3の列1514)に対応するカメラによって取り込まれる画像との画像の重なりと同じであることが可能である。
個々の画像は、特定の水平解像度(「H-res」)で取り込まれることが可能である。例えば、水平解像度1522は、第1の行1502及び第4の列1516に対応するカメラによって取り込まれる単一カメラ画像1518と関連付けることができる。図15は、各カメラが同じ水平解像度1522を有する画像の重なりの理論的事例を示している。従って、全水平解像度1524(即ち、行1502〜1508のそれぞれにおける画素の数)は、個々のカメラの水平解像度1522と行におけるセルの数(「n」)の組合せに基づいて計算することができる。図15の4×4のアレイの場合には、各行に4つのセル(即ち、列1510〜1516のそれぞれと関連付けられるセル)がある。全水平解像度1524は、画像の重なりを計上することができる。例えば、全水平解像度1524は、H_res*n−重なり*(n−2)として計算することができ、ここで重なりは、隣接画像の重なり合った画素の数を示す。同様の計算を行って、全垂直解像度を求めることができる。
図15は、同じ画像の重なりを有する各カメラの絶対的な配列の理論的事例を示している。個々のカメラによって取り込まれる画像間の画像の重なりにより、個々の画像のそれぞれが「縫い合わされ(stitched together)」て、単一画像になることができる。
図16を参照すると、複数のカメラ又は画像センサによって取り込まれる画像のアレイの一例が描かれ、全体として1600と示されている。図16に示されるように、1つのカメラによって取り込まれる画像は、他の隣接カメラによって取り込まれる画像と一部重なることが可能である。画像の重なりは、カメラのそれぞれによって取り込まれた画像を組み合わせて単一画像にする際に役立つことが可能である。図16に示す特定の実施形態において、アレイ1600は、カメラ又は画像センサの4×4のアレイに対応する。或いは、いかなる数のカメラも2次元配列で配置されることが可能である。図16は、機械的制約により、(図15に示す)行又は列でカメラの絶対的な配列を実現することが可能ではない場合があることを示している。
アレイ1600の各画像は、独自の回転1602、ずれ(shift)1604、及び傾き(tilt)(図示せず)を有することができる。1つ以上の位置決め公差1606を各画像と関連付けることができる。位置決め公差1606は、回転公差、ずれ公差、傾き公差、又はその組合せを含むことができる。画像の重なりは、カメラのそれぞれによって取り込まれた画像を組み合わせて単一画像にする際に役立つことが可能である。図16は、画像を結合する際に使用される画像の重なりが、機器を構築することと関連する機械的制約によって生じる各画像の回転1602、ずれ1604、及び傾きを計上する可能性があることを示している。機器が構築されると、画像の重なりが認識され、安定することが可能である。従って、画像の重なりは、数量化されることが可能であり、後の段階で修正されることが可能である。
図17を参照すると、カメラのアレイの特定の実施形態及びこのアレイと関連する電気的接続が描かれ、全体として1700と示されている。図17は、アレイ1700の各カメラが第1のタイプのインターフェース(即ち、データインターフェース1702)と、第2のタイプのインターフェース(即ち、制御インターフェース1704)とを有することを示している。図17に示す実施形態では、アレイ1700は、カメラの3×3のアレイである。或いは、アレイ1700は、4×4のアレイ(例えば、図15及び16のアレイ1500、1600)で配置されたカメラ、又は2次元配列で配置された他のいかなる数のカメラも含むことができる。
データインターフェース1702は、シリアルデータバス(例えば、モバイルインダストリプロセッサインターフェース(Mobile Industry Processor Interface)又は標準モバイル画像化アーチテクチャ(Standard Mobile Imaging Architecture)のインターフェース)を含むことができる。図17のデータインターフェース1702は、アレイ1700の第1の行1706、アレイ1700の第2の行1708、及びアレイ1700の第3の行1710と関連付けられる。データインターフェース1702と関連付けられたラインを使用して、並行して処理される行1706〜1710のそれぞれのカメラからデータを収集することができる。説明的な例として、最大5メガ画素(mpix)の解像度及び1秒あたり10フレームでは、4線が必要とされる可能性がある(例えば、差分データ及びクロック)。
図17の例示的な3×3のアレイでは、行1706〜1710のそれぞれが、アレイ1700の第1の列1712のカメラと、アレイ1700の第2の列1714のカメラと、アレイ1700の第3の列1716のカメラとを含む。従って、データインターフェース1702を使用して、並行して処理される9個のカメラからデータを収集することができる。
制御インターフェース1704は、アレイ1700のすべてのカメラを同期するために使用されるラインを含むことができる。例えば、制御インターフェースのラインは、クロック、リセット、及びI2C通信と関連付けることができる。図17の例示的な3×3のアレイ1700では、制御インターフェース1704を使用して、アレイ1700の9個のカメラを同期することができる。
図18を参照すると、カメラアレイ処理システムの特定の実施形態が描かれ、全体として1800と示されている。アレイ1802のすべてのカメラは、結果として生じる画像データが結合されて最終的な画像になる前に、共通の制御信号に応答し、整列され、処理されることが可能である。図18に示す実施形態では、アレイ1802は、カメラの5×5のアレイを含む。或いは、アレイ1802は、2次元配列(例えば、図17の3×3のアレイ1700)に整列された他のいかなる数のカメラを含むこともできる。
アレイ1802のすべてのカメラは、単一のISPパイプラインを使用する同時画像センササポートの方法を使用して同期することができる。さらに、カメラの各行は、整列方法を使用して整列することができる。即ち、1つの行の画像が収集され、同じ順序で整列されて、送信され、nが1行のカメラ数であって、lineが1つのカメラの水平サイズ(即ち、図15に記載する「H_res」)であるとき、n*lineのサイズを有する単一ラインとして処理される。図18に示す5×5のアレイ1802は、第1の行1804と、第2の行1806と、第3の行1808と、第4の行1810と、第5の行1812とを含む。さらに、5×5のアレイ1802は、第1の列1814と、第2の列1816と、第3の列1818と、第4の列1820と、第5の列1822とを含んでいる。行1804〜1812のそれぞれは、VFEコンポーネントで色に関して並行して処理することができ、行1804〜1812のそれぞれは、個々のそれぞれの画像を一列に整列して修正するように、グラフィックプロセッサ又はグラフィック処理装置(GPU)コンポーネントで処理することができる。修正及び整列後に、GPU処理を行って、行1804〜1812のすべてをまとめて結合し、最終的な画像をもたらすことができる。
第1の行1804は、第1の整列ブロック1824と関連付けることができ、第2の行1806は、第2の整列ブロック1826と関連付けることができ、第3の行1808は、第3の整列ブロック1828と関連付けることができ、第4の行1810は、第4の整列ブロック1830と関連付けることができ、第5の行1812は、第5の整列ブロック1832と関連付けることができる。例えば、第1の整列ブロック1824は、第1の行1804の各カメラ(即ち、アレイ1802の5つの列1814〜1822の5つのカメラ)から画像データラインを収集するように構成することができる。第1の整列ブロック1824は、同じ順序で画像データラインを整列させ、単一ラインとして処理するために画像データラインを送信するように構成することができる。第1の整列ブロック1824は、単一ラインとして処理するために画像データラインを、図2、3、及び5の結合器に関して説明するように、色に関して処理される第1のVFEコンポーネント1834に送信するように構成することができる。単一ラインのサイズは、カメラの数(即ち、5つのカメラ)、及び第1の行1804の各カメラの水平サイズ(即ち、図15に記載する「H_res」)に基づいて決定することができる。
第2の整列ブロック1826は、第2の行1806の各カメラから画像を収集し、同じ順序で画像を整列し、単一ラインとして処理するために画像を第2のVFEコンポーネント1836に送信するように構成することができる。第3の整列ブロック1828は、第3の行1808の各カメラから画像データラインを収集し、同じ順序で画像データラインを整列し、単一ラインとして処理するために画像データラインを第3のVFEコンポーネント1838に送信するように構成することができる。第4の整列ブロック1830は、第4の行1810の各カメラから画像データラインを収集し、同じ順序で画像データラインを整列し、単一ラインとして処理するために画像データラインを第4のVFEコンポーネント1840に送信するように構成することができる。第5の整列ブロック1832は、第5の行1812の各カメラから画像データラインを収集し、同じ順序で画像データラインを整列し、単一ラインとして処理するために画像データラインを第5のVFEコンポーネント1832に送信するように構成することができる。
制御同期ブロック1844を使用して、センサ同期装置230と同様の方法で、アレイ1802のカメラ(即ち、図18の例示的な5×5のアレイ1802の場合は25個のカメラ)のそれぞれを同期することができる。特定の実施形態において、制御同期ブロック1834は、図17の制御インターフェース1704を実装することができる。制御同期ブロック1844は、アレイ1802のカメラのそれぞれと、及びVFEコンポーネント1834〜1842のそれぞれと、通信可能に接続することができる。アレイ1802のすべてのカメラを同期することにより、高解像度でのローリングシャッター(rolling shutter)の使用を可能にすることができる。すべてのカメラを同時に読み出すことができるので、(アレイのサイズとともに)ローリングシャッター効果を減少させることができる。例えば、図18の5×5のアレイ1802では、25個のカメラの同期により、相補型金属酸化膜半導体(CMOS)カメラと関連するローリングシャッター効果を減少させることができる。
第1のVFEコンポーネント1834は、第1の行1804のそれぞれの個々の画像(即ち、5つの列1814〜1822のカメラによって取り込まれる5つの画像)を整列し、修正するように、第1のGPUコンポーネント1846と通信可能に結合されることが可能である。第2のVFEコンポーネント1836は、第2の行1806のそれぞれの個々の画像を整列し、修正するように、第2のGPUコンポーネント1848に通信可能に結合されることが可能である。第3のVFEコンポーネント1838は、第3の行1808のそれぞれの個々の画像を整列し、修正するように、第3のGPUコンポーネント1850に通信可能に結合されることが可能である。第4のVFEコンポーネント1840は、第4の行1810のそれぞれの個々の画像を整列し、修正するように、第4のGPUコンポーネント1852に通信可能に結合されることが可能である。第5のVFEコンポーネント1842は、第5の行1812のそれぞれの個々の画像を整列し、修正するように、第5のGPUコンポーネント1854に通信可能に結合されることが可能である。GPUコンポーネント1846〜1854のそれぞれは、行1804〜1812のすべてを合わせて結合し、最終的な画像をもたらすGPU処理コンポーネント1856に通信可能に結合されることが可能である。
図18に示す実施形態では、整列ブロック1824〜1832のそれぞれが、その独自のVFEコンポーネントならびにその独自のGPU修正及び整列コンポーネントと関連付けられる。従って、図18は、行1804〜1812のそれぞれが、個々のVFEコンポーネントを使用して色に関して並行して処理されることが可能であり、行1804〜1812のそれぞれが、個々のGPUコンポーネントを使用して、特定の行のそれぞれ個々の画像を整列させて修正するように処理されることが可能であることを示している。或いは、整列ブロック1824〜1832のそれぞれが、単一VFEコンポーネントならびに単一GPU修正及び整列コンポーネントと関連付けられることが可能である(図19参照)。
図19を参照すると、カメラアレイ処理システムの特定の実施形態が描かれ、全体として1900と示されている。アレイ1902のすべてのカメラを同期し、整列し、処理した後に、結合して最終的な画像にすることができる。図19に示す実施形態では、アレイ1902は、カメラの5×5のアレイを含む。或いは、アレイ1902は、2次アレイで配置された他のいかなる数のカメラを含むこともできる。図19は、図18に示す複数のVFEならびにGPU修正及び整列コンポーネントではなく、単一VFEコンポーネントならびに単一GPU修正及び整列コンポーネントを使用して、アレイ1902のすべての行を処理することができることを示している。
図19に示す5×5のアレイ1902は、第1の行1904と、第2の行1906と、第3の行1908と、第4の行1910と、第5の行1912とを含む。さらに、5×5のアレイ1902は、第1の列1914と、第2の列1916と、第3の列1918と、第4の列1920と、第5の列1922とを含んでいる。第1の行1904は、第1の整列ブロック1924と関連付けることができ、第2の行1906は、第2の整列ブロック1926と関連付けることができ、第3の行1908は、第3の整列ブロック1928と関連付けることができ、第4の行1910は、第4の整列ブロック1930と関連付けることができ、第5の行1912は、第5の整列ブロック1932と関連付けることができる。例えば、第1の整列ブロック1924は、第1の行1904の各カメラ(即ち、アレイ1902の5つの列1914〜1922の5つのカメラ)から画像データラインを収集するように構成することができる。
第1の整列ブロック1924は、同じ順序で画像データラインを整列し、単一ラインとして処理するために画像データラインを送信するように構成することができる。第2の整列ブロック1926は、第2の行1906の各カメラから画像データラインを収集し、同じ順序で画像データラインを整列し、単一ラインとして処理するために画像データラインを送信するように構成することができる。第3の整列ブロック1928は、第3の行1908の各カメラから画像データラインを収集し、同じ順序で画像データラインを整列し、単一ラインとして処理するために画像データラインを送信するように構成することができる。第4の整列ブロック1930は、第4の行1910の各カメラから画像データラインを収集し、同じ順序で画像データラインを整列し、単一ラインとして処理するために画像データラインを送信するように構成することができる。第5の整列ブロック1932は、第5の行1912の各カメラから画像データラインを収集し、同じ順序で画像データラインを整列し、単一ラインとして処理するために画像データラインを送信するように構成することができる。
図19に示す実施形態では、整列ブロック1924〜1932のそれぞれは、色に関して処理される単一VFEコンポーネント1934にその画像を処理するために送信するように構成することができる。単一VFEコンポーネント1934は、5つの整列ブロック1924〜1932から送信される5つのラインのそれぞれを処理することができる。上記のように、特定の整列ブロックからの単一ラインのサイズは、特定の行のカメラの数(即ち、5つのカメラ)及び特定の行の各カメラの水平サイズ(即ち、図15に記載する「H_res」)に基づいて決定されることが可能である。従って、図19の単一VFEコンポーネント1934によって処理される複数のラインのサイズは、図18のVFEコンポーネント1834〜1842の1つによって処理される単一ラインのサイズの5倍となることが可能である。
制御同期ブロック1936を使用して、アレイ1902のカメラのそれぞれを同期し、例えば共通制御信号を1つ以上の行1904〜1912のカメラに提供することができる。制御同期ブロック1936は、アレイ1902のカメラのそれぞれと、及び単一VFEコンポーネント1934と、通信可能に接続することができる。アレイ1902のすべてのカメラの同期により、高解像度でのローリングシャッターの使用を可能にすることができる。すべてのカメラを同時に読み出すことができるので、ローリングシャッター効果を(アレイのサイズとともに)減少させることができる。例えば、図19の5×5のアレイ1902では、25個のカメラの同期により、CMOSカメラと関連するローリングシャッター効果を減少させることができる。
単一VFEコンポーネント1934は、行1904の〜1912のそれぞれの個々の画像を整列し、修正するように、単一GPUコンポーネント1938に通信可能に結合されることが可能である。従って、図19の単一GPUコンポーネント1938は、図18のGPU整列及び修正コンポーネント1846〜1854のそれぞれによって処理される5個の画像に対して25個の画像を整列し、修正することができる。単一GPUコンポーネント1938は、行1904〜1912のすべてを合わせて結合し、最終的な画像をもたらすように構成されたGPU処理コンポーネント1940に通信可能に結合されることが可能である。
図20は、入射光2004に焦点を合わせるように構成されたメインレンズ2002と、アレイ2006に配置された複数のカメラとを含む高解像度のデジタルカメラシステム2000を示している。アレイ2006のカメラのそれぞれで取り込まれた画像を結合することによって、高解像度の画像を合成(又は「モザイク」)画像として生成することができる。例えば、アレイ2006のカメラのそれぞれは、CMOS型カメラ又は電荷結合素子(CCD:Charge Coupled Device)型カメラとすることができる。メインレンズ2002は、平面2008(メインレンズ2002の「焦点面」又はアレイ2006のカメラの「対物面」と呼ばれる)に取り込まれるシーンの焦点を合わせることができ、アレイ2006の各カメラは、全画像の一部を取り込むことができる。アレイ2006の各カメラは、平面2008でそのビューの隣接フィールドの一部が重なるビューのフィールドを有する。この重なりにより、アレイ2006の隣接カメラから撮影される画像が行ごとに整列され、その後の処理の間に「縫い」合わせられることが可能になり、(図16に関して説明したように)アレイ内のカメラの理想的でない位置及び整列に対する許容を提供することができる。
合成画像は、アレイ2006のカメラからの画像データを行ごとに整列させることによって生成することができる。例えば、図20のアレイ2006は、3行を有する3×3のアレイを含む。アレイ2006の特定の行(「アレイ行」)内の各カメラは、行及び列(「センサ列」及び「センサ行」)に配置された光検出器を有する画像センサを含むことができる。アレイ行内のカメラは、センサ行が実質的に整列されるように位置付けることができる。例えば、あるアレイ行の各カメラの第1のセンサ行は、同じアレイ行のすべての他のカメラの第1のセンサ行と実質的に整列されている。
画像の取り込み中に、画像データの第1のセンサ行は、アレイ行の各カメラから読み取られ、(図17〜19に関して記載するような)画像処理回路に提供される。第1のセンサ行からの画像データは、アレイ行の各カメラの位置に従ってマージされる。マージされた画像データは、より大型のカメラからの画像データの単一行であるかのように処理される。第2、第3、及びそれに続く画像センサ行は、読み取られ、マージされ、画像処理回路に提供されて、合成画像の行として処理される。各アレイ行は、他のアレイ行と並行して処理されることが可能である。
図20の配置は、高解像度のカメラの安価な代替物を提供することができる。例えば、メインレンズの背後に20個の5メガ画素(mpix)のCMOSカメラのアレイを使用して、100mpixのカメラを構築することができる。各カメラが画像の一部を取り込む複数のCMOSカメラを使用して画像の取り込みを行うことができるので、単一の100mpixのCMOSカメラが画像全体を取り込むのに比べて、「ローリングシャッター」アーチファクトを削減することができる。
図21を参照すると、マルチカメラモジュールの実装の特定の実施形態が描かれ、全体として2100と示されている。システム2100は、自動車に搭載された、図1〜5に示す複数のカメラモジュールのような、複数のカメラモジュールを示している。複数のカメラモジュールは、図6〜7に関して記載するように、3次元画像又は映像データとしてフォーマットするために同期されたラインデータのフレームを生成するように構成されることが可能である。自動車の後部に複数のカメラモジュールを搭載することによって、3次元表示を取得して、自動車をバックさせる間に内部表示器(図示せず)上で奥行感覚を自動車の運転者に提供することができる。複数のカメラモジュールは、自動車に限らず、いかなるタイプの車両にも搭載できることを理解されるであろう。
図22を参照すると、複数のセンサからのデータを結合して同期されたデータラインにする方法の特定の例示的実施形態の流れ図が描かれ、全体として2200と示されている。説明のための例として、方法2200は、図2のシステム、図3のシステム、図5のシステム、又はその任意の組合せによって行われることが可能である。
2202において、同期される複数の画像センサに共通の制御信号を提供することができる。例えば、共通の制御信号は、図4に示す共通の制御信号404〜410のような、共通クロック信号及び共通リセット信号を含むことができる。
2204において、複数の画像センサの第1の画像センサからの第1のデータラインを受信することができる。2206において、複数の画像センサの第2の画像センサからの第2のデータラインを受信することができる。例えば、第1のセンサ及び第2のセンサは、図2のセンサ202、204であることが可能である。
第1のデータライン及び第2のデータラインは、2208において、結合されたラインとなって同期されたデータラインを生成することができる。例えば、方法2200は、第1の画像センサから受信される第1のデータストリームと、第2の画像センサから受信される第2のデータストリームとをラインごとに交互配置することを含むことができる。同期されたデータラインは、図5に示す第1のセンサ画像データ422と第2のセンサ画像データ432とを結合する結合器406に関して記載するように形成されることが可能である。
同期されたデータラインは、図6のフレーム660のようなフレームの一部を形成することができる。フレームは、第1の画像センサからの第1の画像データを含む第1のセクション(例えば、第1のセクション652)と、第2の画像センサからの第2の画像データを含む第2のセクション(例えば、第2のセクション654)と、第1のセクションと第2のセクションとの間に配列された非画像データを含むギャップセクション(例えば、ギャップセクション656)とを含むことができる。他の実施形態では、フレームは、第1のセクションと第2のセクションとの間にギャップセクションを含まないことがある。
第1のデータラインの受信を完了した後に、第2のデータラインの受信を完了することが可能であり、同期されたデータラインは、第2のデータラインの受信を完了した後に生成することができる。例えば、図8の結合されたデータライン822は、第2のセンサの第1のラインデータ812が受信された後に生成される。
3つ以上の画像センサを有する実施形態では、図11に示すように、複数の画像センサのうちの第3の画像センサから第3のデータラインを受信することができる。第3のデータラインは、第1のデータライン及び第2のデータラインと結合されて、図11の第1の同期されたデータライン1150のような、同期されたデータラインを生成することができる。
図23を参照すると、複数の画像センサに共通の制御信号を提供し、画像プロセッサの単一カメラ入力を介して画像プロセッサに同期されたデータラインを提供する方法の特定の例示的実施形態の流れ図が描かれ、全体として2300と示されている。この方法2300は、説明のための、非限定的例として、図2、3、及び5のシステムの1つ又は複数で行うことができる。
2302において、複数の画像センサに共通の制御信号を提供することができる。複数の画像センサのそれぞれは、この共通の制御信号に応答して、画像データを生成することができる。例えば、共通の制御信号は、図2のセンサ同期装置230のような、複数の画像センサのそれぞれに結合されたセンサ同期装置によって提供されることが可能である。例えば、センサ同期装置は、集積回路間(I2C:inter-integrated circuit)制御インターフェースによって、カメラシリアルインターフェース(CSI)規格に準拠したインターフェースによって、又はカメラパラレルインターフェース(CPI)規格に準拠したインターフェースによって、複数の画像センサのそれぞれに結合されることが可能である。
2304において、複数の画像センサのそれぞれからの同期されたデータ出力を受信することができる。複数の画像センサの第1の画像センサから第1のデータラインを受信することができ、複数の画像センサの第2の画像センサから第2のデータラインを受信することができる。第1のデータラインの受信が完了された後に、第2のデータラインの受信が完了されることが可能であり、図8において第2のセンサの第1のラインデータ812が受信された後に生成される結合されたデータライン822のように、第2のデータラインの受信が完了された後に、同期されたデータラインが生成されることが可能である。
2306において、複数の画像センサのそれぞれからの同期されたデータ出力は結合されて、同期されたデータラインを生成することができる。例えば、図2の結合器206は、第1の画像センサ202から受信される第1のデータストリームと、第2の画像センサ204から受信される第2のデータストリームとをラインごとに交互配置することができる。
2308において、同期されたデータラインは、画像プロセッサの単一カメラ入力を介して画像プロセッサに提供されることが可能である。同期されたデータラインは、図6のフレーム660のような、複数の行を有するフレームの一部を形成することができる。例えば、フレームは、第1の画像センサからの第1の画像データを含む第1のセクションと、第2の画像センサからの第2の画像データを含む第2のセクションと、第1のセクションと第2のセクションとの間のギャップセクションとを含む
図24を参照すると、複数の画像センサに共通の制御信号を提供し、複数の画像センサのそれぞれからの同期されたデータ出力を受信する方法の特定の例示的実施形態の流れ図が描かれ、全体として2400と示されている。
2402において、複数の画像センサに共通の制御信号を提供することができる。複数の画像センサのそれぞれは、この共通の制御信号に応答して、画像データを生成する。例えば、共通の制御信号は、図2〜5のいずれかのセンサ同期装置230、図18の制御同期ブロック1844、図19の制御同期ブロック1936、又はその任意の組合せのような、複数の画像センサのそれぞれに結合されたセンサ同期装置によって提供されることが可能である。
2404において、複数の画像センサのそれぞれからの同期されたデータ出力を受信することができる。同期されたデータ出力は、第1の画像センサから受信される第1のデータラインと、第2の画像センサから受信される第2のデータラインとを含むことができる。第1の画像センサからの受信された各データラインと第2の画像センサからの対応する各データラインとの間の位相オフセットは、説明のための、非限定的な例として、図9の1ラインの位相差、図8の2ラインの位相差、又は図12の3ラインの位相差など、実質的に一定であることが可能である。
図25を参照すると、複数の画像センサで共通の制御信号を受信し、複数の画像センサのそれぞれからの同期されたデータ出力を生成する方法の特定の例示的実施形態の流れ図が描かれ、全体として2500と示されている。
2502において、複数の画像センサで共通の制御信号を受信することができる。複数の画像センサのそれぞれは、この共通の制御信号に応答して、画像データを生成する。例えば、共通の制御信号は、図2〜5のいずれかのセンサ同期装置230、図18の制御同期ブロック1844、図19の制御同期ブロック1936、又はその任意の組合せのような、複数の画像センサのそれぞれに結合されたセンサ同期装置によって受信されることが可能である。
2504において、複数の画像センサのそれぞれからの同期されたデータ出力を生成することができる。同期されたデータ出力は、第1の画像センサから受信される第1のデータラインと、第2の画像センサから受信される第2のデータラインとを含むことができる。第1の画像センサからの受信される各データラインと、第2の画像センサからの対応する各データラインとの間の位相オフセットは、説明のための非限定的な例として、図9の1ラインの位相差、図8の2ラインの位相差、又は図12の3ラインの位相差のように、実質的に一定であることが可能である。
図26を参照すると、単一カメラ用の入力を有する画像信号プロセッサにおいて複数のセンサからのデータを結合する方法の特定の例示的実施形態の流れ図が描かれ、全体として2600と示されている。
2602において、単一カメラ用の入力を有する画像プロセッサで、画像のラインを受信することができる。画像データの各ラインは、第1のカメラによって取り込まれた第1の画像からの第1のラインデータと、第2のカメラによって取り込まれた第2の画像からの第2のラインデータとを含むことができる。説明のための、非限定的な例として、画像プロセッサは、図2〜3もしくは図5の画像信号プロセッサ208、図13の画像プロセッサ1308、図18のVFE1834〜1842、図19のVFE1934〜1942、又はその任意の組合せを含むことができる。
複数ラインの画像データは、第1のカメラ及び第2のカメラに結合された結合器から画像プロセッサで受信することができる。第1のカメラからの第1の画像データ及び第2のカメラからの第2の画像データのラインごとの読み出しは、結合器を使用して同期されて、画像データの各ラインを生成することができる。例えば、結合器は、図2〜3もしくは図5の結合器206、図13の結合器1306、図18のデータ整列ブロック1824〜1832、図19のデータ整列ブロック1924〜1932、又はその任意の組合せであることが可能である。
2604において、第1の画像のラインデータに対応する第1のセクションを有し、第2の画像のラインデータに対応する第2のセクションを有する出力フレームを生成することができる。第1のセクション及び第2のセクションは、三次元(3D)画像フォーマット又は3D映像フォーマットを生成するために使用されるように構成することができる。
特定の実施形態では、出力フレームは、3D画像データを生成するように処理され、3D画像データは表示装置に送信される。別の実施形態では、出力フレームは、3D映像データを生成するように処理され、3D映像データは、図13の表示装置1310のような表示装置に送信される。例えば、表示装置は、通信機器、カメラ、携帯情報端末、及びコンピュータのうちの少なくとも1つの構成要素であることが可能である。
図27を参照すると、複数のセンサからのデータを結合してフレームにする方法の例示的実施形態の流れ図が描かれ、全体として2700と示されている。説明のための例として、方法2700は、図2のシステム、図5のシステム、又はその任意の組合せによって行われることが可能である。
2702において、図2の第1のセンサ202のような第1の画像センサから、第1のデータストリームを受信することができる。図2の第1の画像データストリーム212、図6の第1のデータストリーム602、或いは図5のタイミングデータ信号420及び画像データ信号422のような第1のデータストリームは、画像の第1の画像データに対応することができる。2704において、図2の第2のセンサ204のような第2の画像センサから、第2のデータストリームを受信することができる。図2の第2の画像データストリーム214、図6の第2のデータストリーム604、或いは図5のタイミング信号データ430及び画像データ信号432のような第2のデータストリームは、画像の第2の画像データに対応することができる。
2706において、第1のデータストリームからのデータ及び第2のデータストリームからのデータを結合することができる。例えば、図2の結合器206又は図5の結合器206のような結合器は、第1のデータストリームからの第1の画像データと第2のデータストリームからの第2の画像データを結合し、結果として生じるフレームを生成することができる。例えば、第1のデータストリームは、第1のラインインデックス値を有するラインデータ、第2のラインインデックス値を有するラインデータなどを含む第1の画像データの第1のラインと関連するデータを含むことができる。第2のデータストリームは、第1のラインインデックス値を有する対応するラインデータ、第2のラインインデックス値を有する対応するラインデータなどを含む、第1のデータストリームのラインデータに対応するラインデータを含むことができる。第1のラインインデックス値を有する第1のデータストリームからのラインデータと、対応する第1のラインインデックス値を有する第2のデータストリームからのラインデータは、互いに追加されて、又は結合されて、単一画像ラインを形成することができる。このプロセスを各ラインインデックス値に対して繰り返し、図6のフレーム660のような、結果として生じるフレームを生成することができる。特定の実施形態ではフレームは、複数の行を含むことができ、各行があるラインインデックス値に対応し、そのラインインデックス値を有する第1の画像データのラインを格納し、そのラインインデックス値を有する第2の画像データの対応するラインを格納する。特定の実施形態では、第1の画像データの第1のライン及び第2の画像データの対応するラインが単一画像ラインに結合されるとき、単一画像ラインのサイズは、第1の画像データの第1のライン又は第2の画像データの対応するラインのサイズの実質的に2倍となる。
フレームは、2708において、画像信号プロセッサで処理されて、処理済みフレームを生成することができる。特定の実施形態では、画像信号プロセッサは、図2の画像信号プロセッサ208、又は図5の画像信号プロセッサ208であることが可能であり、処理済みフレームは、図2の処理済みフレーム240、又は図6の処理済みフレーム650であることが可能である。特定の実施形態では、処理済みフレームは、第1のセクション652のような、第1の画像センサからの第1の画像データを含む第1のセクションと、第2のセクション654のような、第2の画像センサからの第2の画像データを含む第2のセクションと、図6のギャップセクション656のようなギャップセクションとを含むことができる。ギャップセクションは、第1のセクションと第2のセクションとの間に配置された非画像データを含むことができる。特定の実施形態において、第1のセクションは、第1の画像データのラインを含み、第2のセクションは、第2の画像データの対応するラインを含むことができる。
処理済みフレームは、2710において出力されて、表示装置で表示されることが可能である。特定の実施形態では、第1の画像センサ及び第2の画像センサは、それぞれ画像信号プロセッサに直接応答し、表示装置は、画像信号プロセッサから切り離すことができる。
図28を参照すると、第1の画像センサと第2の画像センサを同期する方法の例示的実施形態の流れ図が描かれ、全体として2800と示されている。説明のための例として、方法2800は、図2のシステム200、図5のシステム600、又はその任意の組合せで行われることが可能である。
2802において、第1の画像センサから、画像の第1の画像データを受信することができる。特定の実施形態では、第1の画像センサは、図2の第1のセンサ202であることが可能である。2804において、第1の画像センサから第1の画像データと関連する第1のデータストリームを受信することができる。特定の実施形態では、第1のデータストリームは、画像センサによって生成されることが可能であり、図2の第1の画像データストリーム212、図6の第1のデータストリーム602、或いは図5のタイミングデータ信号420及び画像データ信号422であることが可能である。
2806において、第2の画像センサから画像の第2の画像データを受信することができる。特定の実施形態では、第2の画像センサは、図2の第2のセンサ204であることが可能である。2808において、第2の画像センサから第2の画像データと関連する第2のデータストリームを受信することができる。特定の実施形態では、第2のデータストリームは、画像センサによって生成されることが可能であり、図2の第2の画像データストリーム214、図6の第2のデータストリーム604、或いは図5のタイミングデータ信号430及び画像データ信号432であることが可能である。
2810において、画像データの取得中の第1の画像センサ及び第2の画像センサのラインごとの露出を同期することができる。特定の実施形態では、同期は、図2の結合器206、又は図5の結合器206のような結合器を含むホストで画像の画像データ取得中に行われることが可能である。特定の実施形態では、第1の画像センサ及び第2の画像センサは、互いに独立している。例えば、図2の第1及び第2のセンサ202、204は、互いとは独立したまま同様のタイミング特性を有するように、制御信号232によって画像信号プロセッサ208に直接応答する。第1のデータストリームと第2のデータストリームは、2812において、交互配置されることが可能である。特定の実施形態では、第1のデータストリームと第2のデータストリームは、ラインごとに交互配置することができる。例えば、第1のラインインデックス値を有する第1のデータストリームからのラインデータと、対応する第1のラインインデックス値を有する第2のデータストリームからのラインデータは互いに追加されて、交互配置された単一画像ラインを形成することができる。
従って、結合されたデータは、単一画像信号プロセッサを使用して効率的に処理されることが可能である。従って、プロセッサが各センサに割り当てられる複数のプロセッサのシステムと比べて、画像システム全体のコスト及び複雑さを低減することができる。
図29を参照すると、複数のセンサからのデータを結合して3D画像データを生成する方法の第1の例示的実施形態の流れ図が描かれ、全体として2900と示されている。説明のための例として、方法2900は、図13のシステムによって行われることが可能である。
この方法は、2902において、第1のカメラ及び第2のカメラからの第1の画像データのラインごとの読み出しを同期して、複数行の画像データを生成することを含む。第1のカメラからの第1の画像データは、図1の第1の画像センサ1302からの画像データストリーム1314であることが可能であり、第2の画像データは、図13の第2の画像センサ1304からの画像データストリーム1316であることが可能である。
この方法は、2904において、単一カメラ用の入力を有する画像プロセッサで複数行の画像データを受信することを含む。画像データの各行は、第1のカメラによって取り込まれた第1の画像の行からのデータと、第2のカメラによって取り込まれた第2の画像の行からのデータとを含む。複数行の画像データは、図7に示すデータアウトストリーム706であることが可能である。
この方法は、2906において、画像プロセッサを用いて、3D画像フォーマット及び3D映像フォーマットのうちの1つを有する出力を生成することを含む。出力は、第1の画像及び第2の画像に対応する。出力は、2908において、表示装置(例えば、図13の表示装置1310)に送信される。
図30を参照すると、複数のセンサからのデータを結合してフレームにする方法の例示的実施形態の流れ図が描かれ、全体として3000と示されている。説明のための例として、方法3000は、図13のシステムによって行われることが可能である。
3002において、図13の第1の画像センサ1302のような第1の画像センサから、第1のデータストリームが受信される。図13の第1の画像データストリーム1314又は図7の第1のデータストリーム702のような第1のデータストリームは、第1の画像の第1の画像データに対応することができる。3004において、図13の第2の画像センサ1304のような第2の画像センサから、第2のデータストリームを受信することができる。図13の第2の画像データストリーム1316、図7の第2のデータストリーム704のような第2のデータストリームは、第2の画像の第2の画像データに対応することができる。第1の画像及び第2の画像は、あるシーンの画像であることが可能である。このシーンの第1の画像及び第2の画像は、実質的に同じ時間に撮影されることが可能であり、又は異なる時間に撮影されることが可能である。このシーンの第1の画像及び第2の画像から奥行情報を判断することができるように、第1の画像は、第2の画像とは異なる見晴らしの利く地点から撮影されることが可能である。
3006において、第1のデータストリームからのデータ及び第2のデータストリームからのデータが結合される。例えば、図13の結合器1306のような結合器は、第1のデータストリームからの第1の画像データと第2のデータストリームからの第2の画像データを結合し、結果として生じるフレームを生成することができる。例えば、第1のデータストリームは、第1のラインインデックス値を有するラインデータ、第2のラインインデックス値を有するラインデータなどを含む、第1の画像データの第1のラインと関連するデータを含むことができる。第2のデータストリームは、第1のラインインデックス値を有する対応するラインデータ、第2のラインインデックス値を有する対応するラインデータなどを含む、第1のデータストリームのラインデータに対応するラインデータを含むことができる。第1のラインインデックス値を有する第1のデータストリームからのラインデータと、対応する第1のラインインデックス値を有する第2のデータストリームからのラインデータは、互いに追加されて、又は結合されて、単一画像ラインを形成することができる。このプロセスを各ラインインデックス値に対して繰り返し、図7のフレーム740のような、結果として生じるフレームを生成することができる。特定の実施形態ではフレームは、複数の行を含むことができ、各行があるラインインデックス値に対応し、そのラインインデックス値を有する第1の画像データのラインを格納し、そのラインインデックス値を有する第2の画像データの対応するラインを格納する。特定の実施形態では、第1の画像データの第1のライン及び第2の画像データの対応するラインが単一画像ラインに結合されるとき、単一画像ラインのサイズは、第1の画像データの第1のライン又は第2の画像データの対応するラインのサイズの実質的に2倍となる。
フレームは、3008において、単一カメラ用の入力を介して複数行の画像データとして受信される。特定の実施形態では、単一カメラ用の入力は、図13の画像プロセッサ1308のような画像プロセッサの入力であることが可能である。フレームは、図7のフレーム740であることが可能である。
3010において、フレームから出力が生成される。出力は、3D画像フォーマット及び3D映像フォーマットのうちの1つを有する。出力は、第1の画像及び第2の画像に対応する。出力は、図13の処理済みフレームデータ1320であることが可能である。出力は、3012において表示装置に送信される。特定の実施形態では、表示装置は、図13の表示装置1310であることが可能である。
図31を参照すると、第1の画像センサと第2の画像センサを同期する方法の例示的実施形態の流れ図が描かれ、全体として3100と示されている。説明のための例として、方法3100は、図13のシステム1300によって行われることが可能である。
3102において、第1の画像センサから画像の第1の画像データを受信することができる。特定の実施形態では、第1の画像センサは、図13の第1の画像センサ1302であることが可能である。3104において、第1の画像センサから第1の画像データと関連する第1のデータストリームを受信することができる。特定の実施形態では、第1のデータストリームは、画像センサによって生成されることが可能であり、図13の第1の画像データストリーム1314又は図7の第1のデータストリーム702であることが可能である。
3106において、第2の画像センサから画像の第2の画像データを受信することができる。特定の実施形態では、第2の画像センサは、図13の第2の画像センサ1304であることが可能である。3108において、第2の画像センサから第2の画像データと関連する第2のデータストリームを受信することができる。特定の実施形態では、第2のデータストリームは、画像センサによって生成されることが可能であり、図13の第2の画像データストリーム1316又は図7の第2のデータストリーム704であることが可能である。
3110において、画像データの取得中の第1の画像センサ及び第2の画像センサのラインごとの露出を同期することができる。特定の実施形態では、同期は、図13の結合器1306のような結合器を含むホストで画像の画像データ取得中に行われることが可能である。特定の実施形態では、第1の画像センサ及び第2の画像センサは、互いに独立している。例えば、図13の第1及び第2の画像センサ1302、1304は、互いと独立したまま同様のタイミング特性を有するように、制御信号によって画像プロセッサ1308に直接応答することができる。別の実施形態では、第1及び第2の画像センサ1302、1304は、互いと独立したまま同様のタイミング特性を有するように、制御信号によって結合器1306に直接応答する。3112において、第1のデータストリームと第2のデータストリームを交互配置することができる。特定の実施形態では、第1のデータストリームと第2のデータストリームは、ラインごとに交互配置することができる。例えば、第1のラインインデックス値を有する第1のデータストリームからのラインデータと、対応する第1のラインインデックス値を有する第2のデータストリームからのラインデータは互いに追加されて、交互配置された単一画像ラインを形成することができる。
従って、結合されたデータは、単一画像プロセッサを使用して効率的に処理されることが可能である。従って、プロセッサが各センサに割り当てられる複数のプロセッサのシステムと比べて、画像システム全体のコスト及び複雑さを低減することができる。
図32を参照すると、画像プロセッサを用いて3D画像を生成する方法の例示的実施形態の流れ図が描かれ、全体として3200と示されている。画像プロセッサは、図13の画像プロセッサ1308であることが可能である。方法3200は、画像プロセッサが結合器(例えば、図1の結合器1306)から受信されたフレーム、メモリからのフレームを扱うとき、又はユーザが3D画像を表示している機器のズーム機能もしくはパン機能を使用して表示3D画像を変更することを選ぶとき、使用することができる。
画像プロセッサは、3202において、キャリブレーション行列のパラメータに基づいて第1の画像及び第2の画像を修正する。キャリブレーション行列は、第1の画像及び第2の画像を取り込む第1の画像センサ及び第2の画像センサの相対位置について調整を行うことができる。2つのカメラの相対位置は、シーンの歪み及び目の疲労を最小にするように選択することができる。キャリブレーション行列は、3D画像を撮影する機器の製造工程中に決定されることが可能であり、第1の画像センサ及び第2の画像センサの位置が互いに対して固定される。キャリブレーションは、機器のメモリに格納することができる。第1の画像センサ、第2の画像センサ、又は両方の位置が調節できる、3D画像を撮影する機器では、機器のプロセッサを使用して、キャリブレーション行列を決定して、メモリにキャリブレーション行列を格納するためのキャリブレーションルーチンを実行することができる。キャリブレーションルーチンは、第1の画像センサと第2の画像センタが、画像センサから規定の距離に位置する特定のキャリブレーションシーンに焦点を合わせることを必要とする可能性がある。キャリブレーションルーチンは、画像センサを互いに対して位置調整した後に行うことができる。
画像プロセッサは、3204において、第1の画像中のキーポイントを検出する。画像プロセッサは、第1の画像中に特有の(高周波の)ポイントを検出することができる。画像プロセッサは、3206において、第1の画像及び第2の画像中のローカル画像パッチの間でブロックマッチングして、第1の画像中の検出された各キーポイントの視差を計算する。誤った一致が確実に廃棄されるように、キーポイントごとに信頼性推定値(reliability estimator)を生成することができる。画像プロセッサは、3208において、計算された視差から決定される視差範囲に基づいて、収束調整(convergence adjustment)を決定する。収束調整は、シーンの奥行き(scene depth)及び表示形状(display geometry)を考慮に入れる。
3210において画像プロセッサは、収束調整が、出力を生成する3D画像を表示する表示装置の機能の範囲内であるとき、収束調整に基づいて第1の画像及び第2のうちの画像の少なくとも1つを選択的に移動させる。画像プロセッサは、3212において、収束調整が出力を生成する表示装置の機能の範囲内ではないとき、シーンの大部分に一致するように視差を調整した第1の画像を使用する。画像プロセッサは、3214において表示装置の1つ以上の表示特性に基づいて出力をクロップ(crop)する。
図33は、複数の画像センサからのデータを結合するための画像処理システム3300の特定の例示的実施形態のブロック図である。画像処理システム3300は、第1のレンズ3304に結合され、第2のレンズ3306に結合され、かつ携帯型マルチメディア機器3308のアプリケーションプロセッサチップセットに結合された画像センサ機器3302を含むことができる。画像センサ装置3302は、結合器3310と、単一カメラ用の入力を受信する画像プロセッサ3312とを含むことができる。画像プロセッサ3312は、結合器3310から、又は携帯型マルチメディア機器3308のアプリケーションプロセッサチップセットのメモリ装置3314から、単一カメラ入力を受信することができる。結合器3310は、例えば図13のシステム1300を実装することによって、図29〜31の実施形態のいずれかに従って動作することによって、又はそのいずれかの組合せによって、第1のデータストリームからのデータと第2のデータストリームからのデータを結合してフレームを生成することができる。
結合器3310は、第1のアナログ−デジタル変換器3318を介して第1のセンサ3316から画像データを受信するように結合される。結合器3310は、第2のアナログ−デジタル変換器3322を介して第2のセンサ3320から画像データを受信するように結合される。結合器3310又は画像プロセッサ3312は、第1のセンサ3316及び第2のセンサ3320を制御することができ、別の状況では互いに独立していることが可能である。特定の実施形態では、画像プロセッサ3312は、センサ同期装置3330(影で示す)を介して第1のセンサ3316及び第2のセンサ3320を制御することができる。
特定の実施形態では、結合器3310のような、画像処理回路を含む集積回路が、フレームを生成するように構成される。画像処理回路は、第1のセンサ3316のような第1の画像センサから第1のデータストリームを受信し、第2のセンサ3320のような第2の画像センサから第2のデータストリームを受信し、第1のデータストリームからのデータ及び第2のデータストリームからのデータを結合してフレームを生成するように構成される。例えば、図7の第1のデータストリーム702及び第2のデータストリーム704は、結合器3310によって結合されて、図7のフレーム740を形成することができる。
結合器3310からの出力は、携帯型マルチメディア機器3308のアプリケーションプロセッサチップセットのメモリ装置3314に、画像プロセッサ3312に、又は両方に、送信することができる。画像プロセッサ3312は、画像処理システムによって行われる1つ以上の動作のような、さらなる画像処理動作を行うように構成されることが可能である。画像プロセッサ3312は、結合器3310から、又はメモリ装置3314から、フレームを受信することができる。画像プロセッサ3312は、3D画像フォーマット又は3D映像フォーマットを有する処理済みフレームなどの、処理済み画像データを作り出すことができる。一実施形態では、処理済み画像データを作り出すための平均時間は、約20ミリ秒である。画像プロセッサ3312は、さらなる処理、伝送、格納、表示装置3324への表示、又はその任意の組合せのために、処理済み画像データを携帯型マルチメディア機器3308のアプリケーションプロセッサチップセットに提供することができる。
図34を参照すると、本明細書に記載するフレーム生成モジュールを含む、ワイヤレス電話などの電子機器の特定の例示的実施形態のブロック図が描かれ、全体として3400と示されている。機器3400は、メモリ3432に結合されたプロセッサ3410を含んでいる。プロセッサは、コントローラ3464を含んでいる、又はこれに結合されている。或いは、電子機器は、セットトップボックス、音楽プレーヤ、映像プレーヤ、娯楽装置、航法機器、通信機器、携帯情報端末(PDA)、カメラ、固定位置データユニット、又はコンピュータであることが可能である。
また図34は、プロセッサ3410及び表示器3428に結合された表示器コントローラ3426を示している。符号器/復号器(CODEC)3434もまた、プロセッサ3410に結合することができる。CODEC3434に、スピーカ3439及びマイク3438を結合することができる。カメラコントローラ3470もまた、プロセッサ3410に結合することができる。カメラコントローラ3470に、第1のカメラ3472及び第2のカメラ3473を結合することができる。
また図34は、ワイヤレスインターフェース3440がプロセッサ3410及びワイヤレスアンテナ3442に結合できることを示している。特定の実施形態では、プロセッサ3410、表示器コントローラ3426、メモリ3432、CODEC3434、ワイヤレスインターフェース3440、及びコントローラ3464は、システムインパッケージ(system-in-package)又はシステムオンチップ(system-on-chip)3422に含まれる。特定の実施形態では、入力装置3430及び電源3444が、オンチップシステム3422に結合される。さらに、特定の実施形態では、図34に示すように、表示器3428、入力装置3430、スピーカ3439、マイク3438、ワイヤレスアンテナ3442、及び電源3444は、オンチップシステム3422の外部にある。しかしながら、それぞれは、インターフェース又はコントローラなど、オンチップシステム3422の構成要素に結合されることが可能である。
特定の実施形態では、プロセッサ3410は、メモリ3432に格納されたプログラム命令3482のような、プロセッサ可読媒体からのプロセッサ可読プログラム命令を実行する。例えば、メモリ3432は、プロセッサ3410によって読み取り可能とすることができ、命令3482は、図22の方法2200を実行するためにプロセッサ3410によって実行可能な操作命令とすることができる。例えば、命令3482は、カメラ3473のような第1の画像センサから第1のデータストリームを受信し、カメラ3472のような第2の画像センサから第2のデータストリームを受信し、第1のデータストリームからのデータと第2のデータストリームからのデータを結合してフレームを生成するために、プロセッサ3410によって実行可能な命令を含むことができる。例えば、第1の画像センサは、図2の第1のセンサ202であることが可能であり、第2の画像センサは、図2の第2のセンサ204であることが可能である。命令3482は、プロセッサ3410で、又は画像信号プロセッサ(図示せず)で、フレームを処理して処理済みフレームを生成するために、プロセッサ3410によって実行可能な命令をさらに含むことができる。命令3482は、処理済みフレームを出力して表示装置3428に表示する、又は画像データ3480としてメモリ3432に格納するために、プロセッサ3410によって実行可能な命令をさらに含むことができる。
図35を参照すると、携帯電話などの電子機器の特定の例示的実施形態のブロック図が描かれ、全体として3500と示されている。機器3500は、メモリ3504に結合されたプロセッサ3502を含んでいる。プロセッサ3502は、画像プロセッサ3506を含んでいる、又はこれに結合されている。画像プロセッサ3506は、単一カメラ入力を受信することができ、3Dデータ3590を出力することができる。3Dデータ3590は、3D画像フォーマット又は3D映像フォーマットであることが可能である。或いは、電子機器3500は、セットトップボックス、音楽プレーヤ、映像プレーヤ、娯楽装置、航法機器、通信機器、携帯情報端末(PDA)、カメラ、固定位置データユニット、コンピュータ、又はその組合せであることが可能である。
また図35は、プロセッサ3502及び表示器3510に結合された表示器コントローラ3508を示している。符号器/復号器(CODEC)3512もまた、プロセッサ3502に結合することができる。CODEC3512に、スピーカ3514及びマイク3516を結合することができる。カメラコントローラ3518もまた、プロセッサ3502に結合することができる。カメラコントローラ3518は、結合器3520を含むことができる。結合器3520は、画像プロセッサ3506に画像データを提供することができる。説明のための例として、結合器3520は、図13の結合器1306、又は図7に関して説明した複数のカメラからのデータを結合するように構成された他のハードウェア回路若しくはプロセッサであることが可能である。カメラコントローラ3518に、第1のカメラ3522及び第2のカメラ3524を結合することができる。
また図35は、ワイヤレスインターフェース3526がプロセッサ3502及びワイヤレスアンテナ3528に結合できることを示している。特定の実施形態では、プロセッサ3502、表示器コントローラ3508、メモリ3504、CODEC3512、カメラコントローラ3518、及びワイヤレスインターフェース3526は、システムインパッケージ又はシステムオンチップ3530に含まれる。特定の実施形態では、入力装置3532及び電源3534が、オンチップシステム3530に結合される。さらに、特定の実施形態では、図35に示すように、表示器3510、入力装置3532、スピーカ3514、マイク3516、ワイヤレスアンテナ3528、及び電源3534は、オンチップシステム3530の外部にある。しかしながら、それぞれは、インターフェース又はコントローラなど、オンチップシステム3530の構成要素に結合されることが可能である。
特定の実施形態では、プロセッサ3502は、メモリ3504に格納されたプログラム命令3536のような、プロセッサ可読媒体からのプロセッサ可読プログラム命令を実行する。例えば、メモリ3504は、プロセッサ3502によって読み取り可能とすることができ、命令3536は、図25の方法2500を実行するためにプロセッサ3502によって実行可能な操作命令とすることができる。例えば、命令3536は、カメラ3522のような第1の画像センサから第1のデータストリームを受信し、カメラ3524のような第2の画像センサから第2のデータストリームを受信し、カメラコントローラ3518の結合器3520を使用して第1のデータストリームからのデータと第2のデータストリームからのデータを結合してフレームを生成するために、プロセッサ3502によって実行可能な命令を含むことができる。例えば、第1の画像センサは、図13の第1の画像のセンサ1302であることが可能であり、第2の画像センサは、図13の第2の画像センサ1304であることが可能である。命令3536は、画像プロセッサ3506でフレームを処理して処理済みフレームを生成するために、プロセッサ3502によって実行可能な命令をさらに含むことができる。命令3536は、処理済みフレームを3Dデータとして表示器コントローラ3508に出力して表示装置3510で表示するために、又は処理済みフレームを画像データ3538としてメモリ3504に格納するために、プロセッサ3502によって実行可能な命令をさらに含むことができる。
さらに、本明細書に開示する諸実施形態と関連して説明する様々な例示的論理ブロック、構成、モジュール、回路、及びアルゴリズムのステップは、電子ハードウェア、プロセッサによって実行されるコンピュータソフトウェア、又は両方の組合せとして実装できることを、当業者は理解するであろう。様々な例示的構成要素、ブロック、構成、モジュール、回路、及びステップについて、これらの機能に関して上記で大まかに説明した。このような機能がハードウェアとして実装されるか、又はプロセッサによって実行されるソフトウェアとして実装されるかは、特定の応用及びシステム全体に課される設計の制約によって決まる。当業者は、それぞれ特定の応用に対して、記載した機能を様々な方法で実装することができるが、このような実装の決定は、本開示の範囲からの逸脱を引き起こすと解釈されるべきではない。
図22〜32の方法は、コンピュータ可読命令の形態でメモリに格納することができるプログラムコードを実行することによって行われることが可能である。その場合、デジタル信号プロセッサ(DSP)、画像信号プロセッサ(ISP)、又は他のプロセッサなどのプロセッサが、画像処理方法の1つ又は複数を行うために、メモリに格納された命令を実行することができる。ある場合では、方法は、画像処理を加速するための様々なハードウェアコンポーネントを呼び出すDSP又はISPによって実行されることが可能である。他の場合では、本明細書に記載するユニットは、マイクロプロセッサ、1つ以上の特定用途向け集積回路(ASIC)、1つ以上のフィールドプログラマブルゲートアレイ(FPGA)、又はその任意の組合せとして実装されることが可能であり、或いは方法は、これらによって実行されることが可能である。
本明細書に開示した実施形態と関連して記載した方法又はアルゴリズムの諸ステップは、直接ハードウェアで、プロセッサによって実行されるソフトウェアモジュールで、又はこの2つの組合せで、具体化されることが可能である。ソフトウェアモジュールは、ランダムアクセスメモリ(RAM)、フラッシュメモリ、リードオンリメモリ(ROM)、プログラマブルリードオンリメモリ(PROM)、消去可能プログラマブルリードオンリメモリ(EPROM)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、レジスタ、ハードディスク、リムーバブルディスク、コンパクトディスクリードオンリメモリ(CD−ROM)、又は任意の他の形態の当技術分野で知られる非一時的(non-transitory)コンピュータ可読媒体に存在することが可能である。例示的な記憶媒体は、プロセッサがこの記憶媒体から情報を読み取ること、及びこの記憶媒体に情報を書き込むことができるように、プロセッサに結合される。代替的には記憶媒体は、プロセッサと一体化されることが可能である。プロセッサ及び記憶媒体は、特定用途向け集積回路(ASIC)に存在することが可能である。ASICは、コンピューティング機器又はユーザ端末に存在することが可能である。代替的にはプロセッサ及び記憶媒体は、コンピューティング機器又はユーザ端末にディスクリート部品として存在することが可能である。
開示する実施形態についての前述の説明は、当業者が開示する実施形態を作成又は利用することができるように提供する。これらの実施形態への様々な変更が当業者には容易に理解され、本明細書で定める一般的な原理は、本開示の範囲から逸脱することなく他の実施形態に適用することができる。従って本開示は、本明細書に示す実施形態に限定されるものではなく、次の特許請求の範囲で定める原理及び新規の特徴と一致する可能性がある最大の範囲を与えられるものとする。
開示する実施形態についての前述の説明は、当業者が開示する実施形態を作成又は利用することができるように提供する。これらの実施形態への様々な変更が当業者には容易に理解され、本明細書で定める一般的な原理は、本開示の範囲から逸脱することなく他の実施形態に適用することができる。従って本開示は、本明細書に示す実施形態に限定されるものではなく、次の特許請求の範囲で定める原理及び新規の特徴と一致する可能性がある最大の範囲を与えられるものとする。
以下に本件出願当初の特許請求の範囲に記載された発明を付記する。
[1] 画像データを生成する方法であって、第1のカメラによって取り込まれる第1の画像からの第1のラインデータと第2のカメラによって取り込まれる第2の画像からの第2のラインデータとを各ラインが含む複数ラインの画像データを単一カメラ用の入力を有する画像プロセッサで受信すること、前記第1の画像のラインデータに対応する第1のセクションを有し、前記第2の画像のラインデータに対応する第2のセクションを有する出力フレームを生成すること、を含み、前記第1のセクション及び前記第2のセクションが、3次元(3D)画像フォーマット又は3D映像フォーマットを生成するために使用されるように構成される、方法。
[2] 前記複数のラインの画像データのが、前記第1のカメラ及び前記第2のカメラに結合された結合器から前記画像プロセッサで受信される、請求項1に記載の方法。
[3] 前記画像データの各ラインを生成するため、前記結合器を使用して、前記第1のカメラからの第1の画像データ及び前記第2のカメラからの第2の画像データのラインごとの読み出しを同期すること、さらに備える、[2]に記載の方法。
[4] 前記出力フレームを処理して3D画像データを生成することと、前記3D画像データを表示装置に送信することと、をさらに含む、[1]に記載の方法。
[5] 前記出力フレームを処理して3D映像データを生成することと、前記3D映像データを表示装置に送信することと、をさらに含む、[1]に記載の方法。
[6] 前記表示装置が、通信機器、カメラ、携帯情報端末、及びコンピュータのうちの少なくとも1つの構成要素である、[5]に記載の方法。
[7] 前記画像データの各ラインが、前記第1のラインデータと前記第2のラインデータとの間にギャップセクションを含み、前記ギャップセクションが非画像データを含む、[1]に記載の方法。
[8] 前記単一カメラ用の前記入力が、単一カメラのパラレルインターフェース又はシリアルインターフェースと、集積回路間インターフェースとを備える、[1]に記載の方法。
[9] 画像データを生成する装置であって、単一カメラ用の入力を有し、前記入力を介して、第1のカメラによって取り込まれる第1の画像からの第1のラインデータと第2のカメラによって取り込まれる第2の画像からの第2のラインデータとを各ラインが含む複数ラインの画像データを受信するように構成される画像プロセッサを備え、前記画像プロセッサが、前記第1の画像のラインデータに対応する第1のセクションを有し、前記第2の画像のラインデータに対応する第2のセクションを有する出力フレームを生成するように構成され、前記第1のセクション及び前記第2のセクションが、3次元(3D)画像フォーマット又は3D映像フォーマットを生成するために使用されるように構成される、装置。
[10] 前記第1のカメラ及び前記第2のカメラに結合された結合器をさらに備え、画像データの前記ラインが前記結合器から前記画像プロセッサで受信される、[9]に記載の装置。
[11] 前記結合器が、前記第1のカメラからの第1の画像データ及び前記第2のカメラからの第2の画像データのラインごとの読み出しを整列させて、前記画像データの各ラインを生成するように構成された、[10]に記載の装置。
[12] 前記出力フレームを処理して、3D画像データ又は3D映像データを生成するように構成されたグラフィック処理ユニットをさらに備える、[9]に記載の装置。
[13] 前記3D画像データ又は前記3D映像データを表示するために結合される表示装置をさらに備え、前記表示装置が、通信機器、カメラ、携帯情報端末、及びコンピュータのうちの少なくとも1つの構成要素である、[12]に記載の装置。
[14] 前記単一カメラ用の前記入力が、単一カメラのパラレルインターフェース又はシリアルインターフェースと、集積回路間インターフェースとを備える、[13]に記載の装置。
[15] プロセッサによって実行されるとき、前記プロセッサに、第1のカメラによって取り込まれる第1の画像からの第1のラインデータと、第2のカメラによって取り込まれる第2の画像からの第2のラインデータとを各ラインが含む複数ラインの画像データを、単一カメラ用の入力を介して受信させ、3次元(3D)画像フォーマット又は3D映像フォーマットを生成するために使用されるように構成された、前記第1の画像のラインデータに対応する第1のセクションと前記第2の画像のラインデータに対応する第2のセクションとを有する出力フレームを生成させる命令を含む非一時的コンピュータ可読媒体。
[16] 前記複数のラインの画像データのが、前記第1のカメラ及び前記第2のカメラに結合された結合器から受信される、[15]に記載の非一時的コンピュータ可読媒体。
[17] グラフィックプロセッサに、前記出力フレームを処理して3D画像データを生成させ、前記3D画像データを表示装置に送信させる命令をさらに含む、[15]に記載の非一時的コンピュータ可読媒体。
[18] グラフィックプロセッサに、前記出力フレームを処理して3D映像データを生成させ、前記3D映像データを表示装置に送信させる命令をさらに含む、[15]に記載の非一時的コンピュータ可読媒体。
[19] 第1のカメラによって取り込まれる第1の画像からの第1のラインデータと第2のカメラによって取り込まれる第2の画像からの第2のラインデータとを各ラインが含む複数ラインの画像データを単一カメラ用の入力で受信するための手段と、前記第1の画像のラインデータに対応する第1のセクションを有し、前記第2の画像のラインデータに対応する第2のセクションを有する出力フレームを生成するための手段と、を具備し、前記第1のセクション及び前記第2のセクションが、3次元(3D)画像フォーマット又は3D映像フォーマットを生成するために使用されるように構成される、装置。
[20] 前記第1のラインデータと前記第2のラインデータとを結合するための手段をさらに備え、結合するための前記手段が、前記第1のカメラ及び前記第2のカメラに結合され、画像データの前記ラインを前記単一カメラ用の前記入力に提供するように構成された、[19]に記載の装置。
[21] 前記出力フレームを処理して3D画像データを生成するための手段と、前記3D画像データを表示装置に送信するための手段と、をさらに備える、[19]に記載の装置。
[22] 前記出力フレームを処理して3D映像データを生成するための手段と、前記3D映像データを表示装置に送信するための手段と、をさらに備える、[19]に記載の装置。

Claims (22)

  1. 画像データを生成する方法であって、
    第1のカメラによって取り込まれる第1の画像からの第1のラインデータと第2のカメラによって取り込まれる第2の画像からの第2のラインデータとを各ラインが含む複数ラインの画像データを単一カメラ用の入力を有する画像プロセッサで受信すること、
    前記第1の画像のラインデータに対応する第1のセクションを有し、前記第2の画像のラインデータに対応する第2のセクションを有する出力フレームを生成すること、
    を含み、前記第1のセクション及び前記第2のセクションが、3次元(3D)画像フォーマット又は3D映像フォーマットを生成するために使用されるように構成される、方法。
  2. 前記複数のラインの画像データのが、前記第1のカメラ及び前記第2のカメラに結合された結合器から前記画像プロセッサで受信される、請求項1に記載の方法。
  3. 前記画像データの各ラインを生成するため、前記結合器を使用して、前記第1のカメラからの第1の画像データ及び前記第2のカメラからの第2の画像データのラインごとの読み出しを同期すること、さらに備える、請求項2に記載の方法。
  4. 前記出力フレームを処理して3D画像データを生成することと、
    前記3D画像データを表示装置に送信することと、
    をさらに含む、請求項1に記載の方法。
  5. 前記出力フレームを処理して3D映像データを生成することと、
    前記3D映像データを表示装置に送信することと、
    をさらに含む、請求項1に記載の方法。
  6. 前記表示装置が、通信機器、カメラ、携帯情報端末、及びコンピュータのうちの少なくとも1つの構成要素である、請求項5に記載の方法。
  7. 前記画像データの各ラインが、前記第1のラインデータと前記第2のラインデータとの間にギャップセクションを含み、前記ギャップセクションが非画像データを含む、請求項1に記載の方法。
  8. 前記単一カメラ用の前記入力が、単一カメラのパラレルインターフェース又はシリアルインターフェースと、集積回路間インターフェースとを備える、請求項1に記載の方法。
  9. 画像データを生成する装置であって、
    単一カメラ用の入力を有し、前記入力を介して、第1のカメラによって取り込まれる第1の画像からの第1のラインデータと第2のカメラによって取り込まれる第2の画像からの第2のラインデータとを各ラインが含む複数ラインの画像データを受信するように構成される画像プロセッサを備え、
    前記画像プロセッサが、前記第1の画像のラインデータに対応する第1のセクションを有し、前記第2の画像のラインデータに対応する第2のセクションを有する出力フレームを生成するように構成され、前記第1のセクション及び前記第2のセクションが、3次元(3D)画像フォーマット又は3D映像フォーマットを生成するために使用されるように構成される、装置。
  10. 前記第1のカメラ及び前記第2のカメラに結合された結合器をさらに備え、画像データの前記ラインが前記結合器から前記画像プロセッサで受信される、請求項9に記載の装置。
  11. 前記結合器が、前記第1のカメラからの第1の画像データ及び前記第2のカメラからの第2の画像データのラインごとの読み出しを整列させて、前記画像データの各ラインを生成するように構成された、請求項10に記載の装置。
  12. 前記出力フレームを処理して、3D画像データ又は3D映像データを生成するように構成されたグラフィック処理ユニットをさらに備える、請求項9に記載の装置。
  13. 前記3D画像データ又は前記3D映像データを表示するために結合される表示装置をさらに備え、前記表示装置が、通信機器、カメラ、携帯情報端末、及びコンピュータのうちの少なくとも1つの構成要素である、請求項12に記載の装置。
  14. 前記単一カメラ用の前記入力が、単一カメラのパラレルインターフェース又はシリアルインターフェースと、集積回路間インターフェースとを備える、請求項13に記載の装置。
  15. プロセッサによって実行されるとき、前記プロセッサに、
    第1のカメラによって取り込まれる第1の画像からの第1のラインデータと、第2のカメラによって取り込まれる第2の画像からの第2のラインデータとを各ラインが含む複数ラインの画像データを、単一カメラ用の入力を介して受信させ、
    3次元(3D)画像フォーマット又は3D映像フォーマットを生成するために使用されるように構成された、前記第1の画像のラインデータに対応する第1のセクションと前記第2の画像のラインデータに対応する第2のセクションとを有する出力フレームを生成させる命令を含む非一時的コンピュータ可読媒体。
  16. 前記複数のラインの画像データのが、前記第1のカメラ及び前記第2のカメラに結合された結合器から受信される、請求項15に記載の非一時的コンピュータ可読媒体。
  17. グラフィックプロセッサに、
    前記出力フレームを処理して3D画像データを生成させ、
    前記3D画像データを表示装置に送信させる命令をさらに含む、請求項15に記載の非一時的コンピュータ可読媒体。
  18. グラフィックプロセッサに、
    前記出力フレームを処理して3D映像データを生成させ、
    前記3D映像データを表示装置に送信させる命令をさらに含む、請求項15に記載の非一時的コンピュータ可読媒体。
  19. 第1のカメラによって取り込まれる第1の画像からの第1のラインデータと第2のカメラによって取り込まれる第2の画像からの第2のラインデータとを各ラインが含む複数ラインの画像データを単一カメラ用の入力で受信するための手段と、
    前記第1の画像のラインデータに対応する第1のセクションを有し、前記第2の画像のラインデータに対応する第2のセクションを有する出力フレームを生成するための手段と、
    を具備し、前記第1のセクション及び前記第2のセクションが、3次元(3D)画像フォーマット又は3D映像フォーマットを生成するために使用されるように構成される、装置。
  20. 前記第1のラインデータと前記第2のラインデータとを結合するための手段をさらに備え、結合するための前記手段が、前記第1のカメラ及び前記第2のカメラに結合され、画像データの前記ラインを前記単一カメラ用の前記入力に提供するように構成された、請求項19に記載の装置。
  21. 前記出力フレームを処理して3D画像データを生成するための手段と、
    前記3D画像データを表示装置に送信するための手段と、
    をさらに備える、請求項19に記載の装置。
  22. 前記出力フレームを処理して3D映像データを生成するための手段と、
    前記3D映像データを表示装置に送信するための手段と、 をさらに備える、請求項19に記載の装置。
JP2013503854A 2010-04-05 2011-04-05 複数の画像センサからのデータを結合すること Pending JP2013524688A (ja)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
US32094010P 2010-04-05 2010-04-05
US61/320,940 2010-04-05
US32425910P 2010-04-14 2010-04-14
US61/324,259 2010-04-14
US35931210P 2010-06-28 2010-06-28
US61/359,312 2010-06-28
US41275510P 2010-11-11 2010-11-11
US61/412,755 2010-11-11
US13/079,640 US8896668B2 (en) 2010-04-05 2011-04-04 Combining data from multiple image sensors
US13/079,640 2011-04-04
PCT/US2011/031288 WO2011127080A1 (en) 2010-04-05 2011-04-05 Combining data from multiple image sensors

Publications (1)

Publication Number Publication Date
JP2013524688A true JP2013524688A (ja) 2013-06-17

Family

ID=44120948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013503854A Pending JP2013524688A (ja) 2010-04-05 2011-04-05 複数の画像センサからのデータを結合すること

Country Status (8)

Country Link
US (1) US8896668B2 (ja)
EP (1) EP2556659A1 (ja)
JP (1) JP2013524688A (ja)
KR (1) KR101400515B1 (ja)
CN (1) CN102859989B (ja)
AR (1) AR081162A1 (ja)
TW (1) TW201207768A (ja)
WO (1) WO2011127080A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101809727B1 (ko) 2016-09-27 2017-12-15 주식회사 켐트로닉스 Svm 시스템 및 그의 영상입력 및 처리방법
JP2021189439A (ja) * 2020-06-04 2021-12-13 エンヴィニクス リミテッド ディスプレイ装置およびシステム
US11948225B2 (en) 2020-09-18 2024-04-02 Kabushiki Kaisha Toshiba Image processing apparatus

Families Citing this family (81)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
EP4336447A1 (en) 2008-05-20 2024-03-13 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US9001227B2 (en) 2010-04-05 2015-04-07 Qualcomm Incorporated Combining data from multiple image sensors
JP5848754B2 (ja) 2010-05-12 2016-01-27 ペリカン イメージング コーポレイション 撮像装置アレイおよびアレイカメラのためのアーキテクチャ
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
KR101852811B1 (ko) * 2011-01-05 2018-04-27 엘지전자 주식회사 영상표시 장치 및 그 제어방법
EP2708019B1 (en) 2011-05-11 2019-10-16 FotoNation Limited Systems and methods for transmitting and receiving array camera image data
US20130070060A1 (en) 2011-09-19 2013-03-21 Pelican Imaging Corporation Systems and methods for determining depth from multiple views of a scene that include aliasing using hypothesized fusion
IN2014CN02708A (ja) 2011-09-28 2015-08-07 Pelican Imaging Corp
US9049433B1 (en) * 2012-01-06 2015-06-02 John H. Prince High-speed railroad inspection using coordinated 3D cameras
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
JP2015534734A (ja) 2012-06-28 2015-12-03 ペリカン イメージング コーポレイション 欠陥のあるカメラアレイ、光学アレイ、およびセンサを検出するためのシステムおよび方法
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
SG11201500910RA (en) 2012-08-21 2015-03-30 Pelican Imaging Corp Systems and methods for parallax detection and correction in images captured using array cameras
WO2014032020A2 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
US9229526B1 (en) * 2012-09-10 2016-01-05 Amazon Technologies, Inc. Dedicated image processor
US20140092281A1 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating Images from Light Fields Utilizing Virtual Viewpoints
JP6041630B2 (ja) * 2012-11-09 2016-12-14 キヤノン株式会社 画像処理装置
US9143711B2 (en) 2012-11-13 2015-09-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
EP2739049A1 (en) * 2012-11-29 2014-06-04 Axis AB Method and system for generating real-time motion video
US9875543B2 (en) * 2012-12-10 2018-01-23 Intel Corporation Techniques for rectification of camera arrays
US9686460B2 (en) * 2012-12-27 2017-06-20 Intel Corporation Enabling a metadata storage subsystem
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
US9253380B2 (en) 2013-02-24 2016-02-02 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
WO2014138695A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
EP2973476A4 (en) 2013-03-15 2017-01-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
JP2014230179A (ja) * 2013-05-24 2014-12-08 ソニー株式会社 撮像装置及び撮像方法
US9955142B2 (en) 2013-07-05 2018-04-24 Mediatek Inc. On-line stereo camera calibration device and method for generating stereo camera parameters
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US9185276B2 (en) 2013-11-07 2015-11-10 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
WO2015081279A1 (en) 2013-11-26 2015-06-04 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
KR102128468B1 (ko) 2014-02-19 2020-06-30 삼성전자주식회사 복수의 이미지 신호 프로세서들을 포함하는 이미지 처리 장치 및 이미지 처리 방법
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US8988509B1 (en) 2014-03-20 2015-03-24 Gopro, Inc. Auto-alignment of image sensors in a multi-camera system
US9197885B2 (en) 2014-03-20 2015-11-24 Gopro, Inc. Target-less auto-alignment of image sensors in a multi-camera system
CN106233722B (zh) * 2014-03-20 2018-05-15 高途乐公司 多相机***中的图像传感器的自动对准
EP2950058B1 (en) 2014-05-28 2018-03-28 Axis AB Calibration data in a sensor system
US10419703B2 (en) 2014-06-20 2019-09-17 Qualcomm Incorporated Automatic multiple depth cameras synchronization using time sharing
EP3206130B1 (en) 2014-07-01 2018-01-31 Axis AB Methods and devices for finding settings to be used in relation to a sensor unit connected to a processing unit
JP6183305B2 (ja) * 2014-07-02 2017-08-23 株式会社デンソー 故障検出装置および故障検出プログラム
US9773334B1 (en) * 2014-09-02 2017-09-26 Rockwell Collins, Inc. High performance, low latency combined vision system for use in degraded visual environments
JP6415190B2 (ja) * 2014-09-03 2018-10-31 キヤノン株式会社 ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
EP3467776A1 (en) 2014-09-29 2019-04-10 Fotonation Cayman Limited Systems and methods for dynamic calibration of array cameras
US9672594B2 (en) * 2014-10-21 2017-06-06 The Boeing Company Multiple pixel pitch super resolution
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
US9756268B2 (en) * 2015-04-23 2017-09-05 Google Inc. Line buffer unit for image processor
US11024082B2 (en) 2015-05-04 2021-06-01 Google Llc Pass-through display of captured imagery
JP6834976B2 (ja) * 2015-11-17 2021-02-24 ソニー株式会社 マルチカメラシステム、マルチカメラシステムの制御方法およびカメラ
KR102503442B1 (ko) * 2015-12-24 2023-02-28 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
CN109391764A (zh) * 2017-08-10 2019-02-26 聚晶半导体股份有限公司 双摄像头图像获取装置及其摄像方法
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10764512B2 (en) 2018-03-26 2020-09-01 Mediatek Inc. Method of image fusion on camera device equipped with multiple cameras
US10853014B2 (en) 2018-04-17 2020-12-01 Rockwell Collins, Inc. Head wearable device, system, and method
US10965728B2 (en) * 2018-10-22 2021-03-30 Tesla, Inc. Method and system for aggregating and converting sensor data streams
US11032460B2 (en) 2019-01-18 2021-06-08 Cista System Corp. Image sensor with image receiver and automatic image combining
US10965932B2 (en) * 2019-03-19 2021-03-30 Intel Corporation Multi-pass add-on tool for coherent and complete view synthesis
CN110392149A (zh) 2019-07-23 2019-10-29 华为技术有限公司 图像摄取显示终端
MX2022003020A (es) 2019-09-17 2022-06-14 Boston Polarimetrics Inc Sistemas y metodos para modelado de superficie usando se?ales de polarizacion.
CA3157197A1 (en) 2019-10-07 2021-04-15 Boston Polarimetrics, Inc. Systems and methods for surface normals sensing with polarization
KR102558903B1 (ko) 2019-11-30 2023-07-24 보스턴 폴라리메트릭스, 인크. 편광 신호를 이용한 투명 물체 분할을 위한 시스템 및 방법
JP7462769B2 (ja) 2020-01-29 2024-04-05 イントリンジック イノベーション エルエルシー 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法
WO2021154459A1 (en) 2020-01-30 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11743440B2 (en) 2021-04-19 2023-08-29 Apple Inc. Transmission and consumption of multiple image subframes via superframe
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
US20230123736A1 (en) * 2021-10-14 2023-04-20 Redzone Robotics, Inc. Data translation and interoperability

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001069530A (ja) * 2000-07-28 2001-03-16 Fujitsu Ltd 立体映像高能率符号化装置
JP2003111101A (ja) * 2001-09-26 2003-04-11 Sanyo Electric Co Ltd 立体画像処理方法、装置、およびシステム
JP2005130313A (ja) * 2003-10-24 2005-05-19 Sony Corp 立体視画像処理装置
JP2005522958A (ja) * 2002-04-09 2005-07-28 テッグ センソリアル テクノロジーズ インコーポレイティド 立体映像シーケンス符号化システムおよび方法
JP2008193693A (ja) * 2002-12-13 2008-08-21 Sharp Corp 画像データ作成装置及び画像データ再生装置
WO2009048254A1 (en) * 2007-10-08 2009-04-16 Stereopia Co., Ltd. Osmu(one source multi use)-type stereoscopic camera and method of making stereoscopic video content thereof

Family Cites Families (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4323925A (en) 1980-07-07 1982-04-06 Avco Everett Research Laboratory, Inc. Method and apparatus for arraying image sensor modules
US4523226A (en) * 1982-01-27 1985-06-11 Stereographics Corporation Stereoscopic television system
JPH0530423A (ja) * 1991-07-25 1993-02-05 Nippon Television Network Corp ワイド画面edtv信号用映像切替装置
WO1994018789A1 (en) 1993-02-11 1994-08-18 Polycom, Inc. Resolution enhancement system
JPH06350937A (ja) * 1993-06-14 1994-12-22 Pioneer Electron Corp 画像合成再生装置
US5475422A (en) * 1993-06-21 1995-12-12 Nippon Telegraph And Telephone Corporation Method and apparatus for reconstructing three-dimensional objects
WO1995006283A1 (en) 1993-08-24 1995-03-02 Downs Roger C Topography processor system
WO1995018512A1 (de) 1993-12-29 1995-07-06 Leica Ag Verfahren und vorrichtung zur darstellung von stereoskopischen videobildern auf einem display
US5786850A (en) * 1994-02-17 1998-07-28 Ultrak, Inc. Multiple room portable camera system
JP3428132B2 (ja) 1994-03-14 2003-07-22 ソニー株式会社 テレビジョン方式及び表示装置
US6064355A (en) 1994-05-24 2000-05-16 Texas Instruments Incorporated Method and apparatus for playback with a virtual reality system
DE19542308A1 (de) 1994-11-25 1996-05-30 Zeiss Carl Fa Verfahren und Vorrichtung zur Darstellung dreidimensionaler Videobilder
JP3771954B2 (ja) * 1995-08-04 2006-05-10 ソニー株式会社 画像表示制御装置および方法
US5995140A (en) 1995-08-28 1999-11-30 Ultrak, Inc. System and method for synchronization of multiple video cameras
US6108005A (en) 1996-08-30 2000-08-22 Space Corporation Method for producing a synthesized stereoscopic image
UA22127C2 (uk) 1996-09-10 1998-04-30 Сергій Іванович Мірошніченко Телевізійhа система високої розрізhяльhої здатhості
US6278480B1 (en) 1997-02-07 2001-08-21 Canon Kabushiki Kaisha Compound eye camera system
GB2343320B (en) 1998-10-31 2003-03-26 Ibm Camera system for three dimentional images and video
WO2000039998A2 (en) 1998-12-30 2000-07-06 Chequemate International, Inc. System and method for recording and broadcasting three-dimensional video
US6611289B1 (en) 1999-01-15 2003-08-26 Yanbin Yu Digital cameras using multiple sensors with multiple lenses
US7050085B1 (en) * 2000-10-26 2006-05-23 Imove, Inc. System and method for camera calibration
JP3619063B2 (ja) 1999-07-08 2005-02-09 キヤノン株式会社 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体
GB2355612A (en) 1999-10-19 2001-04-25 Tricorder Technology Plc Image processing arrangement producing a combined output signal from input video signals.
WO2001048537A2 (en) 1999-12-28 2001-07-05 Vrex, Inc. Stereoscopic camera
WO2001097531A2 (en) 2000-06-12 2001-12-20 Vrex, Inc. Electronic stereoscopic media delivery system
EP3388784B1 (en) 2001-05-04 2019-07-17 Vexcel Imaging GmbH Method and large format camera for acquiring a large format image of a large area object
US7002618B2 (en) * 2001-06-01 2006-02-21 Stereographics Corporation Plano-stereoscopic DVD movie
US7277121B2 (en) 2001-08-29 2007-10-02 Sanyo Electric Co., Ltd. Stereoscopic image processing and display system
US7319720B2 (en) 2002-01-28 2008-01-15 Microsoft Corporation Stereoscopic video
WO2004001667A2 (en) 2002-06-21 2003-12-31 The Trustees Of Columbia University In The City Of New York Systems and methods for de-blurring motion blurred images
US7804995B2 (en) * 2002-07-02 2010-09-28 Reald Inc. Stereoscopic format converter
US20040075741A1 (en) 2002-10-17 2004-04-22 Berkey Thomas F. Multiple camera image multiplexer
KR100477801B1 (ko) 2002-12-26 2005-03-22 한국전자통신연구원 3차원 영상정보 기술장치와 그 방법 및 이를 이용한 3차원영상정보 검색장치 및 그 방법
US7525576B2 (en) 2003-02-17 2009-04-28 Axis, Ab Method and apparatus for panning and tilting a camera
SE0300428D0 (sv) 2003-02-17 2003-02-17 Axis Ab Digital camera having panning and/or tilting functionality
KR100771299B1 (ko) 2003-06-26 2007-10-29 삼성전기주식회사 색 보간용 라인 버퍼 및 라인 데이터 제공 방법
SE0302065D0 (sv) 2003-07-14 2003-07-14 Stefan Carlsson Video - method and apparatus
RU2250504C1 (ru) 2003-07-18 2005-04-20 Мироничев Сергей Юрьевич Способ многоканального видеоаудионаблюдения и реализующая его интегрированная высокочастотная система
US7112774B2 (en) 2003-10-09 2006-09-26 Avago Technologies Sensor Ip (Singapore) Pte. Ltd CMOS stereo imaging system and method
JP4125252B2 (ja) * 2004-03-02 2008-07-30 株式会社東芝 画像生成装置、画像生成方法、及び画像生成プログラム
JP4293053B2 (ja) 2004-05-19 2009-07-08 ソニー株式会社 撮像装置及び方法
JP2006005608A (ja) 2004-06-17 2006-01-05 Hitachi Ltd 撮像装置
JP4424088B2 (ja) 2004-06-25 2010-03-03 株式会社日立製作所 撮像装置
WO2006026354A2 (en) 2004-08-25 2006-03-09 Newport Imaging Corporation Apparatus for multiple camera devices and method of operating same
KR100782811B1 (ko) * 2005-02-04 2007-12-06 삼성전자주식회사 영상의 주파수 특성에 따라 포맷을 달리하는 스테레오 영상 합성 방법 및 장치와, 그 영상의 송신 및 수신 방법과, 그 영상의 재생 방법 및 장치
US7206136B2 (en) 2005-02-18 2007-04-17 Eastman Kodak Company Digital camera using multiple lenses and image sensors to provide an extended zoom range
US7561191B2 (en) 2005-02-18 2009-07-14 Eastman Kodak Company Camera phone using multiple lenses and image sensors to provide an extended zoom range
US7577881B1 (en) 2005-05-10 2009-08-18 Ikanos Communications Inc. Method and apparatus for an interleaver
JP4665166B2 (ja) 2005-06-29 2011-04-06 ソニー株式会社 ステレオ画像処理装置、ステレオ画像処理方法およびステレオ画像処理用プログラム
US20070146478A1 (en) 2005-07-14 2007-06-28 Butler-Smith Bernard J Stereoscopic 3D rig calibration and viewing device
WO2007014293A1 (en) 2005-07-25 2007-02-01 The Regents Of The University Of California Digital imaging system and method to produce mosaic images
JP4630149B2 (ja) * 2005-07-26 2011-02-09 シャープ株式会社 画像処理装置
KR101185870B1 (ko) 2005-10-12 2012-09-25 삼성전자주식회사 3d 입체 영상 처리 장치 및 방법
TW200721803A (en) 2005-10-17 2007-06-01 Via Tech Inc 3-D stereoscopic image display system
JP4199238B2 (ja) 2006-01-11 2008-12-17 パナソニック株式会社 撮影システム
US20070248260A1 (en) 2006-04-20 2007-10-25 Nokia Corporation Supporting a 3D presentation
US7701439B2 (en) * 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
US8456515B2 (en) * 2006-07-25 2013-06-04 Qualcomm Incorporated Stereo image and video directional mapping of offset
KR101311896B1 (ko) 2006-11-14 2013-10-14 삼성전자주식회사 입체 영상의 변위 조정방법 및 이를 적용한 입체 영상장치
US8330801B2 (en) 2006-12-22 2012-12-11 Qualcomm Incorporated Complexity-adaptive 2D-to-3D video sequence conversion
US8520079B2 (en) * 2007-02-15 2013-08-27 Pictometry International Corp. Event multiplexer for managing the capture of images
EP1988713A1 (en) 2007-04-30 2008-11-05 STMicroelectronics (Research & Development) Limited Image processing apparatus and method using padding data
JP4720785B2 (ja) 2007-05-21 2011-07-13 富士フイルム株式会社 撮像装置、画像再生装置、撮像方法及びプログラム
US7918398B2 (en) 2007-06-04 2011-04-05 Hand Held Products, Inc. Indicia reading terminal having multiple setting imaging lens
US8009200B2 (en) 2007-06-15 2011-08-30 Microsoft Corporation Multiple sensor input data synthesis
TW200939763A (en) * 2008-03-07 2009-09-16 Sunplus Technology Co Ltd Image processing system and method for processing divisional TV pictures
JP4793451B2 (ja) * 2009-01-21 2011-10-12 ソニー株式会社 信号処理装置、画像表示装置、信号処理方法およびコンピュータプログラム
GB0912970D0 (en) 2009-07-27 2009-09-02 St Microelectronics Res & Dev Improvements in or relating to a sensor and sensor system for a camera
WO2011028024A2 (en) 2009-09-03 2011-03-10 Lg Electronics Inc. Cable broadcast receiver and 3d video data processing method thereof
US9001227B2 (en) 2010-04-05 2015-04-07 Qualcomm Incorporated Combining data from multiple image sensors

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001069530A (ja) * 2000-07-28 2001-03-16 Fujitsu Ltd 立体映像高能率符号化装置
JP2003111101A (ja) * 2001-09-26 2003-04-11 Sanyo Electric Co Ltd 立体画像処理方法、装置、およびシステム
JP2005522958A (ja) * 2002-04-09 2005-07-28 テッグ センソリアル テクノロジーズ インコーポレイティド 立体映像シーケンス符号化システムおよび方法
JP2008193693A (ja) * 2002-12-13 2008-08-21 Sharp Corp 画像データ作成装置及び画像データ再生装置
JP2005130313A (ja) * 2003-10-24 2005-05-19 Sony Corp 立体視画像処理装置
WO2009048254A1 (en) * 2007-10-08 2009-04-16 Stereopia Co., Ltd. Osmu(one source multi use)-type stereoscopic camera and method of making stereoscopic video content thereof
JP2010541513A (ja) * 2007-10-08 2010-12-24 ステレオピア カンパニー リミテッド ワンソース・マルチユース(osmu)タイプのステレオカメラ及びそのステレオ画像コンテンツ制作方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101809727B1 (ko) 2016-09-27 2017-12-15 주식회사 켐트로닉스 Svm 시스템 및 그의 영상입력 및 처리방법
JP2021189439A (ja) * 2020-06-04 2021-12-13 エンヴィニクス リミテッド ディスプレイ装置およびシステム
JP7430663B2 (ja) 2020-06-04 2024-02-13 エンヴィシクス リミテッド ディスプレイ装置およびシステム
US11948225B2 (en) 2020-09-18 2024-04-02 Kabushiki Kaisha Toshiba Image processing apparatus

Also Published As

Publication number Publication date
AR081162A1 (es) 2012-07-04
CN102859989B (zh) 2016-06-08
CN102859989A (zh) 2013-01-02
TW201207768A (en) 2012-02-16
WO2011127080A1 (en) 2011-10-13
US20120081519A1 (en) 2012-04-05
US8896668B2 (en) 2014-11-25
EP2556659A1 (en) 2013-02-13
KR101400515B1 (ko) 2014-05-28
KR20130028095A (ko) 2013-03-18

Similar Documents

Publication Publication Date Title
JP5675959B2 (ja) 複数の画像センサからのデータの合成
US8896668B2 (en) Combining data from multiple image sensors
WO2011078244A1 (ja) 多眼撮像装置および多眼撮像方法
KR20110109905A (ko) 카메라 시스템, 영상 처리 장치 및 카메라 장치
EP2720455B1 (en) Image pickup device imaging three-dimensional moving image and two-dimensional moving image, and image pickup apparatus mounting image pickup device
EP4333445A1 (en) Electronic device and control method therefor
WO2013047080A1 (ja) 立体画撮像装置
WO2016046959A1 (ja) 撮像方法および撮像装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140603

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141028