JP5953305B2 - 高ダイナミック・レンジ・ビデオ - Google Patents

高ダイナミック・レンジ・ビデオ Download PDF

Info

Publication number
JP5953305B2
JP5953305B2 JP2013526074A JP2013526074A JP5953305B2 JP 5953305 B2 JP5953305 B2 JP 5953305B2 JP 2013526074 A JP2013526074 A JP 2013526074A JP 2013526074 A JP2013526074 A JP 2013526074A JP 5953305 B2 JP5953305 B2 JP 5953305B2
Authority
JP
Japan
Prior art keywords
image
exposure
content
image data
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013526074A
Other languages
English (en)
Other versions
JP2013538518A (ja
JP2013538518A5 (ja
Inventor
ジャナード、ジェイムス
ナットレス、グレーム
マーサー、バイマル
マーサー、ウダイ
ダシルバ、ディーナン
ランド、ピーター、ジャレッド
Original Assignee
レッド.コム,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by レッド.コム,インコーポレイテッド filed Critical レッド.コム,インコーポレイテッド
Publication of JP2013538518A publication Critical patent/JP2013538518A/ja
Publication of JP2013538518A5 publication Critical patent/JP2013538518A5/ja
Application granted granted Critical
Publication of JP5953305B2 publication Critical patent/JP5953305B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/583Control of the dynamic range involving two or more exposures acquired simultaneously with different integration times
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/587Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
    • H04N25/589Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields with different integration times, e.g. short and long exposures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20204Removing film grain; Adding simulated film grain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Description

関連出願への相互参照
本願は、2010年8月23日に出願された米国仮特許出願第61/376,172号および2011年4月8日に出願された第61/473,711号からの優先権の利益を主張する。これらの仮特許出願は、参照によって全体を本明細書の中に組み入れられる。
本明細書における開示は、たとえば、デジタルカメラを用いて検出された静止または動画シーンの画像から、改善されたダイナミックレンジ画像を作り出すデバイスに関する。
デジタル画像のダイナミックレンジは、画像内の最も明るい測定値と最も暗い測定値との間の強度の比として特性化される。ゆえに、広いダイナミックレンジを有する画像は、現実のシーンの中で発見される強度レベルの広い範囲を一層正確に表す。
従来のデジタルカメラおよび手法は、典型的には、相対的に低いダイナミックレンジの画像を作り出し、ダイナミックレンジを制御する上で限定された柔軟性を提供する。ダイナミックレンジは、各々のセンサ素子によって検出可能な明るさのレベル(たとえば、各々のピクセルのビット幅)および露出のレベルを含む因子によって限定され得る。たとえば、キャプチャされた画像は、シーンの相対的に暗い領域の強度を正確に表すが、同じシーンの相対的に明るい領域を正確に表さなくてもよく、また、この逆のことも言える。
画像のダイナミックレンジを向上させるため、異なる手法が使用され得る。しかしながら、特に動画については、既存の手法は、一般的に過度に複雑であり、最適に満たない画質を提供し、または限定された独創的柔軟性を許す。たとえば、幾つかの手法は、相対的に大きい制御されない動きアーチファクト(たとえば、ブラーまたはフリッカ)を作り出す。これらおよび他の理由によって、本明細書で説明される或るカメラおよびシステムは、向上したダイナミックレンジの画像を作り出し、これらの画像は、さらに、制御または低減された動きアーチファクトを有する。さらに、幾つかの態様によれば、システムは、ダイナミックレンジおよび/または動きアーチファクトを調整して、所望の映画効果を達成することをユーザに許すインタフェースを提供する。
或る態様によれば、行および列の画素アレイを備えるデジタル撮像センサを使用して画像データを取得する方法が提供される。方法は、画素アレイ内の複数の画素を使用して、第1の画像に対応する光を第1の露出レベルでキャプチャし、画素アレイ内の複数の画素を使用して、第2の画像に対応する光を、第1の露出レベルとは異なる第2の露出レベルでキャプチャすることを含み得る。方法は、さらに、第1の画像について複数の画素によってキャプチャされた光をデジタル測定値へ変換すること、および第2の画像について複数の画素によってキャプチャされた光をデジタル測定値へ変換することを含み得る。幾つかの実施形態において、画素アレイ内の複数の画素を使用して、第2の画像に対応する光を第2の露出レベルでキャプチャするステップは、第1の画像について複数の画素によってキャプチャされた光をデジタル測定値へ変換するステップの完了の前に開始する。さらに、或る実施形態において、第1の画像について複数の画素によってキャプチャされた光をデジタル測定値へ変換するステップは、第2の画像について複数の画素によってキャプチャされた光をデジタル測定値へ変換するステップの開始の前に略完了する。
追加の態様によれば、アレイの中に配列された複数の画素を含む撮像システムが提供される。撮像システムは、さらに、制御回路を含み、該制御回路は、画素アレイ内の複数の画素を用いて第1の画像に対応する光を第1の露出レベルでキャプチャし、画素アレイ内の複数の画素を用いて、第2の画像に対応する光を、第1の露出レベルとは異なる第2の露出レベルでキャプチャするように構成され得る。制御回路は、さらに、第1の画像について複数の画素によってキャプチャされた光をデジタル測定値へ変換し、第2の画像について複数の画素によってキャプチャされた光をデジタル測定値へ変換するように構成され得る。幾つかの実施形態によれば、制御回路は、第1の画像についてキャプチャされた光をデジタル測定値へ変換することの完了の前に、第2の画像に対応する光を第2の露出レベルでキャプチャすることを開始する。制御回路は、加えて、第2の画像について光をデジタル値へ変換することの開始の前に、第1の画像について光をデジタル測定値へ変換することを略完了してもよい。
さらなる態様によれば、画像データを処理する方法が提供される。方法は、第1の画像に対応する光を第1の露出レベルでキャプチャするために使用される画素アレイ内の複数の画素に対応する第1の画像データを受け取ることを含み得る。方法は、さらに、第2の画像に対応する光を第2の露出レベルでキャプチャするために使用される画素アレイ内の複数の画素に対応する第2の画像データを受け取ることを含んでもよい。方法は、加えて、第1の画像データおよび第2の画像データを選択的に結合して、第1の画像または第2の画像のいずれかよりも広いダイナミックレンジを有する結合画像に対応する結合画像データを作り出すことを含み得る。幾つかのケースにおいて、画素アレイ内の複数の画素を使用して、第2の画像に対応する光を第2の露出レベルでキャプチャすることは、第1の画像について複数の画素によってキャプチャされた光をデジタル測定値へ変換することの完了の前に開始する。さらに、第1の画像について複数の画素によってキャプチャされた光をデジタル測定値へ変換することは、第2の画像について複数の画素によってキャプチャされた光をデジタル測定値へ変換するステップの開始の前に略完了する。
さらなる実施形態において、デジタル撮像センサを使用して画像データを取得する方法が提供される。方法は、センサを用いて第1の画像を第1の露出レベルでキャプチャすること、およびセンサを用いて、第2の画像を、第1の露出レベルとは異なる第2の露出レベルでキャプチャすることを含み得る。方法は、加えて、第1の画像を出力すること、および第2の画像を出力することを含んでもよい。幾つかのケースにおける第1の画像のキャプチャは、第2の画像の前記キャプチャが開始する前に開始する。加えて、第1の画像のキャプチャおよび第2の画像の前記キャプチャは、幾つかのケースでは時間的にオーバラップする。さらに、第1の画像の出力および第2の画像の前記出力は、幾つかの実施形態では時間的にオーバラップしない。
図1は、本明細書で説明される実施形態に従った例示的撮像システムを示すブロック図である。
図2は、幾つかの実施形態に従って、複数の時間的に接近した露出を生成することのできる例示的センサアーキテクチャを示すブロック図である。
図3A〜3Dは、或る実施形態に従って、記録されたビデオの複数のフレームについて複数の時間的に接近した露出を記録する例示的センサの動作を示すタイミング図である。
図3Eは、時間的に接近した露出を記録することなく動作するセンサの動作を示すタイミング図である。
図4A〜4Cは、画像センサの幾つかの行について時間的に接近した露出を記録するセンサの実施形態の動作を示すタイミング図である。
図5は、幾つかの実施形態に従って、異なる露出レベルを有する時間的に接近した露出のトラックを混合する例示的プロセスを示すブロック図である。
図6A〜6Bは、或る実施形態に従って、異なる露出レベルを有する時間的に接近した露出のトラックを混合する例示的動作を示す。
図7は、幾つかの実施形態に従って、異なる露出レベルを有するトラックを混合する他の例示的プロセスを示す。
図8は、露出の異なるレベルを有する時間的に接近した露出のトラックを混合して、動きアーチファクトを制御するプロセスの実施形態を示す。
或る態様によれば、異なる露出レベルを有する第1および第2の画像を逐次にキャプチャおよび出力することのできるセンサを有するカメラシステムが提供される。さらに、システムは、単一のフレーム周期内で第1および第2の(または、もっと多くの)画像をキャプチャすることを開始し、他の有利性の中でも、制御可能または低減された動きアーチファクトを提供する。
たとえば、第1および第2の画像は、相互に関して時間的に接近している。さらに、システムが第1の画像についてピクセルをキャプチャするときと、第2の画像について対応するピクセルをキャプチャするときとの間には、時間的にいくらかの分離が存在し得るが、それでも第1および第2の画像は、相互に時間的に「結合」していると言われてもよい。なぜなら、画像が結合されるとき、分離は、視覚的に有意のアーチファクトを生じないからである。この効果を達成するため、第1および第2の画像の少なくとも幾つかの部分についての露出時間は、幾つかの構成では相互にオーバラップする。ビデオ画像を記録するとき、本明細書で開示される幾つかのセンサは、少なくとも第1および第2の時間的に接近した(または「結合した」)画像ストリーム(本明細書では、「トラック」とも言われる)を出力する。追加の態様によれば、本明細書で説明されるシステムおよび方法は、第1および第2の画像ストリームを処理して(たとえば、カメラ内または後処理中に)、結合された出力ストリームを作り出す。
たとえば、各々のビデオフレームについて、撮像システムは、第1の(たとえば、相対的に低い露出の)トラック内の対応する露出をキャプチャした後、極めて直ちに、第2の(たとえば、相対的に高い露出の)トラック内の個々の露出をキャプチャする。このようにして、本明細書で説明される或る手法は、異なる露出レベルを有する画像トラック内の同じ対象と比較されたときの、第1の露出レベルを有する画像トラック内の対象との視覚分離の潜在性を低減または除去する。そうでないと、たとえば、シーン内の対象またはカメラのいずれかの動きに起因して、第1の画像内の対象と第2の画像内の対応する対象との間に、対象間の視覚分離の不所望のレベルが生じ得る。
さらに、システムは、センサからの個々の画像を相対的に迅速に獲得する。システムが、たとえば、ロールシャッタを組み込んでいる場合、特定の画像のためにセンサの最初の行について露出を開始することと、その画像のためにセンサの最後の行について露出を開始することとの間の遅延の周期は、相対的に短い。同様に、画像のために最初の行を読み出すことと、その画像のためにセンサの最後の行を読み出すこととの間の遅延の周期も、相対的に短い。このようにして、システムは、ロールシャッタによって導入される動きアーチファクト(たとえば、揺れ、スキュー、汚れ)の量を限定する。これは、全体の露出をキャプチャおよび読み出すための時間量が、大きい時間周期を消費する構成と対照的である。
さらに、幾つかの態様に従って本明細書で説明されるシステムは、第1および第2の画像間の極小ギャップ、限定されたロール・シャッタ・アーチファクト、および本明細書で説明される手法の他の態様を利用して、多様な所望の独創的効果を達成する。たとえば、システムは、時間的に接近した画像ストリームを選択的に混合または結合して、ダイナミックレンジ、動き効果の性格(たとえば、ブラー(blur)の量または品質)、または他の特性を調節し得る。
幾つかのケースにおいて、画像ストリームの混合は、動きが人間の目によって知覚される方法と略同じ動き効果を達成するように調整される。幾つかの事例において、混合は、ブラー効果が従来のカメラと類似するように調節される。ユーザは、有利には、画像ストリーム混合の量または品質を制御し、加えて、独創的能力および柔軟性を提供してもよい。なお、そのようなプロセスは、部分的または全体的に自動化され得る。
ゆえに、本明細書で説明される手法は、多様な利点を提供する。特に、動画ビデオを記録する分野において、或る実施形態は、改善されたダイナミックレンジ、カスタマイズされた動きまたは他の視覚効果、およびこれらの組み合わせを有する記録を提供する。
本明細書で説明される手法は、主として、連続ビデオを記録するデジタル動画カメラに関して論述されるが、本明細書で説明される発明の様々な態様は、スチルカメラ、ならびにデジタルスチルおよび動画カメラ(DSMC)と両立可能であることが理解されるであろう。
システムの概観
図1は、光学データを検出して、検出されたデータを処理する例示的システム100のブロック図である。システム100は、光学モジュール110を含み得る撮像デバイス101、および多重露出生成器113を含む画像センサ112を含み得る。デバイス101は、さらに、メモリ114および画像処理モジュール116を含み得る。画像処理モジュール116は、転じて、混合モジュール117を含む。混合モジュール117は、一般的に、出力画像または画像ストリームのダイナミックレンジを調節するように構成される。混合モジュール117は、さらに、出力ストリーム内の動き効果を調節するように構成される。
撮像デバイス101は、たとえば、カメラシステムであり、光学モジュール110、画像センサ112、メモリ114、および画像処理モジュール116またはこの一部分は、カメラハウジングの中に格納されるか、カメラハウジングによって支えられる。さらに、システム100の一部分は、別個のデバイス内に含められる。たとえば、図示されるように、幾つかの構成における混合モジュール117、またはその一部分は、別個のコンピューティングデバイス102、たとえば、ラップトップまたは他のコンピュータ内に存在する。
光学モジュール110は、画像を画像センサ112上に合焦する。センサ112は、たとえば、電荷結合素子(CCD)または相補型金属酸化膜半導体(CMOS)画像センサセル、たとえば、アクティブピクセル(active-pixel)センサセルのアレイを含む。そのような画像センサは、典型的には、シリコンチップ上に構築され、何百万という画像センサセルを含む。各々のセンサセルは、その表面に到着する光を検出し、検出された光の強度に対応する信号を出力する。検出された光は、次いでデジタル化される。
これらの画像センサは、光の波長の広範なスペクトルを感知するので、そのようなセンサの光感知表面上に、カラー・フィルタ・アレイが配置され得る。カラー・フィルタ・アレイの1つのタイプは、ベイヤ・パターン・カラー・フィルタ・アレイである。このアレイは、赤、青、または緑の波長をセンサ素子へ選択的に通す。しかしながら、そのようなセンサの出力は、モザイク像である。このモザイク像は、赤、緑、および青ピクセルのオーバラップするマトリックスによって形成される。モザイク像は、通常、非モザイク化され、各々の画素がカラー画像データの完全集合を有するようにされる。カラー画像データは、RGBカラーフォーマットまたは他のカラーフォーマットで表現される。
本明細書で開示される実施形態の幾つかは、ベイヤ・パターン・フィルタを有する単一のセンサデバイスを有するビデオカメラの文脈で説明される。しかしながら、本明細書の実施形態および発明は、さらに、他のタイプの画像センサ(たとえば、CMYベイヤならびに他の非ベイヤパターン)、他の数の画像センサを有し、異なる画像フォーマットタイプ上で動作し、静止画および/または動画のために構成されているカメラへ適用され得る。本明細書で開示される実施形態は、例示的であるが非限定的な実施形態であること、および本明細書で開示される発明は、開示された例示的実施形態へ限定されないことを理解すべきである。
光学ハードウェア110は、入ってくる画像を画像センサ112上に合焦するように構成された少なくとも1つのレンズを有するレンズ系の形態であり得る。光学ハードウェア110は、任意的に、可変ズーム、アパーチュア、および焦点を提供する多レンズ系の形態であり得る。加えて、光学ハードウェア110は、カメラハウジングによって支えられ、複数の異なるタイプのレンズ系を受け取るように構成されたレンズソケットの形態であってもよく、たとえば、非限定的に、光学ハードウェア110は、50〜100ミリメートル(T3)ズームレンズ、50〜150ミリメートル(T3)ズームレンズ、18〜50ミリメートル(T3)ズームレンズ、18〜85ミリメートル(T2.9)ズームレンズ、300ミリメートル(T2.8)レンズ、18ミリメートル(T2.9)レンズ、25ミリメートル(T1.8)レンズ、35ミリメートル(T1.8)レンズ、50ミリメートル(T1.8)レンズ、85ミリメートル(T1.8)レンズ、85ミリメートル(T1.8)レンズ、100ミリメートル(T1.8)および/または任意の他のレンズまたは任意の他のレンズを含む様々なサイズのレンズ系を受け取るように構成されたソケットを含む。或る実施形態において、50〜100ミリメートル(F2.8)ズームレンズ、18〜50ミリメートル(F2.8)ズームレンズ、300ミリメートル(F2.8)レンズ、15ミリメートル(F2.8)レンズ、25ミリメートル(F1.9)レンズ、35ミリメートル(F1.9)レンズ、50ミリメートル(F1.9)レンズ、85ミリメートル(F1.9)レンズ、および/または任意の他のレンズを含む。上記で指摘したように、光学ハードウェア110は、どのようなレンズがそれに取り付けられようと、画像が画像センサ112の光感知表面に合焦され得るように構成され得る。
画像センサ112は、たとえば、非限定的に、CCD、CMOS、垂直スタックCMOSデバイス、たとえば、Foveon(登録商標)センサ、またはプリズムを使用してセンサ間に光を分割するマルチセンサアレイを含む任意のタイプの画像感知デバイスであり得る。幾つかの実施形態において、画像センサ112は、約1200万のフォトセルを有するCMOSデバイスを含み得る。しかしながら、他のサイズのセンサも使用され得る。幾つかの構成において、カメラ10は、「5k」(たとえば、5120×2700)、クアド(Quad)HD(たとえば、3840×2160ピクセル)、「4.5k」分解能(たとえば、4520×2540)、「4k」(たとえば、4096×2540ピクセル)、「2k」(たとえば、2048×1152ピクセル)または他の分解能でビデオを出力するように構成され得る。本明細書で使用される場合、xkの形式(たとえば、上記で言及された2kおよび4k)で表現された用語において、「x」の量は、近似的水平分解能を意味する。そのようなものとして、「4k」分解能は、約4000以上の水平ピクセルに対応し、「2k」は、約2000以上のピクセルに対応する。
カメラは、さらに、センサ112の出力をダウンサンプルし、続いて処理し、2K、1080p、720p、または任意の他の分解能でビデオ出力を作り出すように構成され得る。たとえば、センサ112からの画像データは、「ウィンドウ化」され、これによって出力画像のサイズを低減し、高い読み出しスピードを許す。しかしながら、他のサイズのセンサも使用され得る。加えて、カメラは、センサ112の出力をアップサンプルして、高い分解能でビデオ出力を作り出すように構成され得る。さらに、カメラは、秒当たり10、20、24、30、60、および120フレーム、または他のフレームレートでビデオをキャプチャおよび記録するように構成され得る。加えて、本明細書で説明される混合手法は、一般的に、上記で列挙された分解能およびフレームレートを含む多様な分解能およびフレームレートと両立可能である。
メモリ114は、任意のタイプのデジタル記憶装置、たとえば、非限定的に、ハードドライブ、ソリッドステートドライブ、フラッシュメモリ、光ディスク、または任意の他のタイプのメモリデバイスの形態であり得る。幾つかの実施形態において、メモリ114のサイズは、十分に大きく、12メガピクセル分解能、12ビットカラー分解能、および秒当たり60フレームでビデオの少なくとも約30分に対応する圧縮モジュールからの画像データを記憶し得る。しかしながら、メモリ114は、任意のサイズを有し得る。
幾つかの実施形態において、メモリ114は、カメラハウジングの外部に搭載され得る。さらに、幾つかの実施形態において、メモリは、たとえば、非限定的に、イーサネット(登録商標)、USB、USB2、USB3、IEEE1394(非限定的に、FireWire400、FireWire800、FireWire S3200、FireWire S800T、i.LINK、DVを含む)、SATA、およびSCSIを含む標準またはカスタムの通信ポートを介して他のコンポーネントへ接続され得る。さらに、幾つかの実施形態において、メモリ114は、たとえば、RAIDプロトコルのもとで動作する複数のハードドライブを備え得る。しかしながら、任意のタイプの記憶デバイスが使用され得る。
画像処理モジュール116は、たとえば、メモリ114内に記憶されたデータ上で動作する。代替として、画像処理モジュールは、データが画像センサ112から来るときに、データ上で動作し、処理されたデータは、次いでメモリ114内に記憶される。画像処理モジュール116は、多様な動作をデータ上で実行する。動作に依存して、処理モジュール116は、混合前に、個々の第1および第2の画像ストリーム上で動作を実行するか、代替として、混合されたHDR出力ストリーム上で動作を実行する。
たとえば、画像処理モジュール116は、画像センサからのデータを圧縮し、事前圧縮データ準備(たとえば、プリエンファシスおよび/またはエントロピ低減)を実行し、圧縮されたデータをフォーマットし、その他の動作を行う。そのような手法の例は、「VIDEOCAMERA」と題する米国特許第7,830,967号(’967特許)で一層詳細に説明されている。この米国特許は、参照によって全体を本明細書に組み入れられる。幾つかの事例において、画像処理モジュール116は、図8Aに関して下記で詳細に説明されるように、個々の画像ストリーム(または、結合された画像ストリーム)を処理して、画像ストリームを知覚空間へ調整する。追加の両立可能な手法は、’967特許(たとえば、図8〜図11および欄11〜欄13)で図示および説明されているグリーンデータ(green data)修正およびプリエンファシスプロセスを含む。一般的に、本明細書で説明される或る実施形態は、‘967特許で説明されている実施形態と両立可能であり、および/またはそれらの実施形態のコンポーネントである。ゆえに、本明細書で説明される特徴の幾つかまたは全ては、本明細書で明白に論述されていないが’967特許では説明されている特徴を含めて、‘967特許で説明されている様々な特徴と一緒に使用され得るか、組み合わせられ得る。
センサ112は、異なる露出レベルを有する少なくとも第1および第2の画像ストリーム(またはトラック)を逐次にキャプチャおよび出力するように構成され得る。たとえば、多重露出生成器113は、センサ112を制御して画像ストリームを出力する特別設計のタイミング制御論理を備える。幾つかのケースにおいて、センサ112は、様々な露出レベルを有する2トラックを超えるトラック(たとえば、全部で3、4、5、または10以上)を出力し得る。
第1のトラック内の露出または露出部分と、第2のトラック内の対応する露出または露出部分との間に、有意の遅延量が存在する場合、不所望の動きアーチファクトが生じ得る。たとえば、そのようなアーチファクトは、第1の画像ストリームフレームがキャプチャされた時間と、第2の画像ストリームフレームがキャプチャされた時間との間に、記録されたシーン内の対象(たとえば、動作主または他の被写体)が、視覚的に有意の距離を動く場合に生じ得る。そのようなケースにおいて、他のトラック内の同じ対象と比較されたときの、1つのトラック内の対象間に、視覚分離(visual separation)または「ギャップ」が生じ得る。そのような問題は、後処理で補正すること、または制御することが困難であり得る。
これら、および他の理由によって、或る態様に従ったセンサ112は、異なる露出レベルを有して相互に時間的に接近している少なくとも第1および第2の画像ストリームを、逐次に出力するように構成される。たとえば、多重露出生成器113は、センサ112のピクセルアレイおよび出力回路を制御して、センサ112が第1および第2の画像ストリームを出力することを引き起こす。各々の画像ストリームは、他の画像ストリームからの対応するフレームと時間的に接近および/または時間的に少なくとも部分的にオーバラップする複数のフレームを有し得る。たとえば、システムが、第1のストリームからの画像内の画素について、キャプチャされたデータをデジタル値へ変換するときと、第2の画像ストリーム内の対応する画像について、同じ画素の露出を開始するときとの間の時間量は、比較的短い。さらに、幾つかのケースにおいて、多重露出生成器113は、オーバラップする時間周期中に、第2のストリーム内の画像について画素の少なくとも幾つかをキャプチャし、同時に第1のストリーム内の対応する画像について他の画素をキャプチャする。このようにして、第1の画像ストリーム内の動いている対象と、第2の画像ストリーム内の同一の動いている対象との間の視覚分離は、相対的に非有意であるか、略低減される。多重露出生成器113は、一般的に、センサ112へ結合された特殊タイミング生成器であり、図2に関して一層詳細に説明される。
第1の画像トラックフレーム内のフレーム内の対象と、第2の画像トラック内で続いてキャプチャされたフレーム内の対応する対象との間に、有意の視覚分離は存在しないので、第1および第2の画像トラックは、さらに、相互に「ギャップ」を有しないと言われるか、相互と略「接触する」と言われてもよい。たとえば、第1の画像についての画素のキャプチャと、第2の画像内の画素のキャプチャとの間には、幾らかの小さい遅延が存在するが、その遅延が非常に小さいので、完全センサ分解能、1つまたは複数のスケールダウン分解能、またはこれらの組み合わせにおいて、対象の視覚分離は、低減されるか略存在しない。トラックの時間的に接近した性質に起因して、結合された出力トラック内の動きアーチファクトは、略低減されるか、除去されるか、所望のやり方で制御され得る。
本明細書で説明されるセンサは、本明細書では「隣接読み出し」または「結合露出」能力を有すると言われる。加えて、画像トラックは、「隣接している」、「時間的に接近している」、「結合している」、などと言われてもよい。
さらに、上記で説明されたように、幾つかの実施形態に従った個々の露出は、コンパクトなやり方でキャプチャおよび/または出力され、フレーム周期の使用を効率的にする。
或る実施形態に従った混合モジュール117は、時間的に接近したトラックを選択的に結合し、所望の視覚効果を有する出力トラックを作り出す。たとえば、出力ビデオストリームは、個々の第1および第2の画像トラックのダイナミックレンジに対して、相対的に向上したダイナミックレンジを有し得る。例として、第1の画像ストリームは、相対的に低い露出レベル(たとえば、短い積分時間)を有し、キャプチャされたシーンの相対的に明るい領域で有用なデータ、たとえば、ハイライトディテール(detail)を提供する。第2の画像ストリームは、相対的に高い露出レベル(たとえば、長い積分時間)を有し、シーンの相対的に暗い領域で有用なデータ、たとえば、シャドウ内のディテールを提供する。
さらに、センサ112が2トラックよりも多いトラックを出力する幾つかのケースにおいて、混合モジュール117は、対応する数のトラックを結合することができる。混合モジュール117またはその一部分が外部コンピューティングデバイス102内に存在する場合、ダイナミックレンジおよび/または動き処理は、後処理で行われ得る。加えて、実装に依存して、混合モジュール117は、メモリ114内に記憶されたデータ、画像センサ112から出力されるときのデータ、または外部コンピューティングデバイス102内に記憶されたデータの上で動作する。
論述されるように、結合された出力ストリームは、後処理の間に、カメラ上、または代替として、カメラ外で作り出される。1つの構成において、ユーザは、所望に応じて、出力ストリームのカメラ上またはカメラ外での作り出しを選択し得る。さらに、図5〜図9に関して下記で一層詳細に説明されるように、様々な実施形態において、混合モジュール117は、多様なアルゴリズムに従って、時間的に接近したトラックを結合し得る。アルゴリズムは、固定されているか、ユーザによって選択可能であるか、調節可能である。たとえば、1つの実施形態において、画像ストリームは、固定されたアルゴリズムに従ってカメラ上で結合される。他の構成において、ユーザは、所望の独創的効果に依存して多様なアルゴリズムから選択する。
複数の露出レベルを有する時間的に接近した画像のトラックの生成
図2は、本明細書で説明される実施形態に従って、時間的に接近した露出を生成することのできる例示的画像センサ200を示すブロック図である。図2を参照すると、画像センサ200は、ピクセルアレイ202、出力回路204、および多重露出生成器206を含む。これから一層詳細に説明されるように、多重露出生成器206は、一般的に、センサ200の様々なコンポーネントを制御して、さらなる記憶および処理のために、センサ200の出力バス212上に、時間的に接近した露出を提供する。
画像センサ200は、たとえば、図1に関して上記で説明された画像センサ12と同じであり、ピクセルアレイ202は、「M」行および「N」列を含むマトリックス内に配列された複数のピクセル(たとえば、フォトセル)を含む。「M」および「N」について極めて多様な値が可能であるが、例示的な「5k」センサは、5120行および2700列を含み、例示的なクアドHDセンサは3840および2160ピクセルを含み、例示的な「4.5k」分解能センサは4520行および2540列を含み、例示的な「4k」センサは4096行および2540列を含み、例示的な「2k」センサは2048および1152列を含む。
例示された例において、センサ200は、所与の時間に単一の行を出力するように構成され、センサ200は、単一の行について画像情報を処理および出力するように構成された出力回路204の1つのインスタンス(instance)を含む。他の実施形態において、たとえば、ベイヤパターンセンサが使用される場合、センサは、同時に2つの行を出力し、出力回路204の2つのインスタンスを含み得る。さらなる他の構成において、センサ200は、所与の時間スロット中に他の数の行(たとえば、2、3、4、5、10以上の行)を出力し、出力回路204の対応する数のインスタンスを含み得る。
動作中、多重露出生成器206は、入力バス208を介してピクセルアレイ202の行デコード論理(図示されず)へ行選択情報を提供する。選択された行の各々について、ピクセルアレイ202は、選択された行(または、行の部分集合)の列に対応するNピクセルの記憶された値を出力回路204へ提供する。
例示的センサ200の出力回路204は、さらに、多重露出生成器206からのバス210上でタイミング制御信号を受け取り、一般的に、ピクセルアレイから受け取られたアナログピクセル値を処理およびデジタル化するように構成される。例示的センサ200の出力回路204は、プログラム可能利得増幅器(PGA)およびアナログ/デジタル変換器(ADC)の集合を含むが、もっとも、多様なコンポーネントは、様々な実現で使用されてもよい。出力回路204は、転じて、現在選択された行のデジタル化され処理された値を出力バス212上で提示する。たとえば、センサ200は、値を、記憶および処理のために、図1のシステムのメモリ114、画像処理モジュール116、または他のコンポーネントへ伝送する。幾つかのインスタンスにおいて、センサは、出力バス212上での伝送の前に、1つまたは複数の行について値をバッファする。
図2で示されるように、多重露出生成器206は、パッケージング214の外側に存在する。たとえば、パッケージング214は、集積回路パッケージングであり、ピクセルアレイ202および出力回路204は、パッケージング214内に格納された集積回路上に形成される。他方、多重露出生成器206は、別個のパッケージ内に格納される別個の集積回路の一部分を形成する。他の実施形態において、多重露出生成器206は、他のコンポーネントと同じ集積回路上に含まれ、センサパッケージ214内に格納される。
幾つかのケースにおいて、多重露出生成器206は、フィールド・プログラマブル・ゲート・アレイ(FPGA)内に実現された論理を備えるが、もっとも、多重露出生成器206は、多様な方途で実現され、ハードウェア、ソフトウェア、アナログおよび/またはデジタル回路、たとえば、カスタム回路、マイクロプロセッサ、特定用途集積回路(ASIC)、これらの組み合わせ、などを含み得る。
図3Aは、実施形態に従って2つの時間的に接近した画像トラック(画像ストリームとも言われる)を記録しているカメラについて、ビデオの2つの連続フレームを示す例示的タイミング図300である。2つの時間的に接近した露出302、304は、各々のビデオフレーム内で、各々の画像トラックについて1つを取られる。ゆえに、第1の画像トラックは、一連の記録されたビデオフレーム上で取られた第1の露出302に対応し、第2の画像トラック304は、同じ一連のビデオフレーム上で取られた第2の露出304に対応する。
カメラは、第1の積分周期306の間、各々のフレームについて第1の露出302を露出し、第2の積分周期308の間、各々のフレームについて第2の露出304を露出する。タイミング図300は、たとえば、図1および図2のセンサ112、200の動作を表現する。さらに、図は、例示を目的として、2つのフレームだけについて動作を示すが、記録の長さに依存して、カメラは、任意の数のフレームを記録することが了解されるであろう。
図示されるように、例示された例のカメラは、オーバラップするやり方で、センサの行0→Mを露出する。このようにして、第1の行(または、行の部分集合)は、時間tで開始し時間tで終了する第1の積分周期の間、露出される。残りの行(または、行の部分集合)は、連続してオーバラップする時間スロット内で露出され、最後の行についての第1の積分周期は、時間tから時間tまでにわたる。この一般的な露出スキームは、連続する行(または、行の部分集合)が、連続してオーバラップする時間スロット内で露出され、一般的に「ロールシャッタ」手法と言われる。
第2の露出304についての画素は、有利には、第1の露出302について同じ画素をキャプチャした後、相対的に直ちにキャプチャされる。たとえば、各々の行(または、行の部分集合)についての第1の露出周期306の終了と、同じ行についての第2の露出周期308の開始との間の、露出間遅延312は、相対的に極小である。たとえば、図4Aに関して下記で一層詳細に論述されるように、露出間遅延312は、1つのインスタンスにおいて、センサの1つまたは複数の行についてのリセット時間に依存する。他のケースにおいて、露出間遅延312は、幾つかの他のパラメータに依存し得る。図2のセンサ200を再び参照すると、多重露出生成器206は、ピクセルアレイ202および出力回路204を作動する制御信号を生成し、時間的に接近した露出302、304を生成するように構成される。
さらに、ロールシャッタによって導入された個々の露出302、304についての行間スキュー(skew)は、相対的に極小である。これは、短い全体的画像獲得時間を生じ、さもなければ、ロールシャッタによって導入される任意の動きアーチファクトの制御を助ける。図4Aに関してさらに論述されるように、行間スキューおよび画像獲得時間は、行(または、部分集合の行)についての読み出し時間に関係し得る。
示されるように、システムは、加えて、第1および第2の露出の或る部分を時間的にオーバラップすることによって、センサのハードウェアおよびフレーム周期を効率的に使用する。たとえば、システムは、第1の露出302について全ての行が変換および/または読み出される前に、第2の露出304について少なくとも幾つかの行(または、行の部分集合)の露出を開始する。さらに、少なくとも幾つかの行は、第2の露出304についての他の行と同時に、第1の露出302について露出される。
或る実施形態におけるシステムは、加えて、第2の露出304について行の変換および/または読み出しを開始する前に、第1の露出302についてセンサ行(または、行の部分集合)の変換および/または読み出しを略完了する。それぞれの露出が完了するまで、それらの露出の各々のために変換および読み出し回路を専用することによって、システムは、個々の露出302、304についてコンパクトな全体的獲得時間を維持することを助ける。例示された実施形態において、システムは、第2の露出304について任意の行の変換および/または読み出しを開始する前に、第1の露出302についてセンサ行の100パーセントを変換および/または読み出すことを完了する。他のケースにおいて、システムは、第2の露出304について行を変換および/または読み出すことを開始する前に、第1の露出302についてセンサ行の少なくとも80パーセント、少なくとも90パーセント、少なくとも95パーセント、少なくとも96パーセント、少なくとも97パーセント、少なくとも98パーセント、または少なくとも99パーセントを変換および/または読み出すことを完了する。さらなるケースにおいて、システムは、第2の露出304について行のいずれかを読み出す前に、または実施形態に依存して、第2の露出304について行の1パーセントよりも多く、2パーセントよりも多く、3パーセントよりも多く、4パーセントよりも多く、5パーセントよりも多く、10パーセントよりも多く、または20パーセントよりも多くを読み出す前に、第1の露出302について行の変換および/または読み出しを略完了する。センサタイミングの仕様に関するさらなる詳細は、図4A〜4Cに関して下記で提供される。
具体的な構成に依存して、図3Aで示される様々な時間周期の持続時間は、フレーム周期312、第1および第2の露出積分時間302、304、露出間遅延312、およびセンサ非活動310を含めて、大きく変動し得る。センサ非活動時間310は、センサ素子が略非活動であって露出されていない場合の周期を意味する。たとえば、第1および第2の露出をキャプチャしているとき、センサは、ロールシャッタ手法に従って適当な画素を電子的に活性化し、入射光を感知してキャプチャする。対照的に、センサ非活動周期310の間では、適当な画素は、電子的に非活性化され、それゆえに入射光を感知しない。他の実装において、物理的なシャッタが使用され、物理的なシャッタが電子的活性化/非活性化の代わりに開放/閉鎖される。センサ非活動周期は、さらに、第2の露出304内の最後の行について露出が完了する時間tから、第1の露出302における最初の行が次のフレームについて露出を開始する直前の、フレーム周期の終了までの、時間周期としても規定され得る。
図3B〜3Dは、幾つかの例示的構成についてタイミング図を示す。明瞭にするため、露出間遅延312は、図3B〜3Dで示されていない。1つの実施形態において、図3Bは、フレーム周期が約41.7ミリ秒(24fps)、第1の積分時間306が約2.6ミリ秒、第2の積分時間308が約20.8ミリ秒、露出間遅延312が約15.6マイクロ秒、およびシャッタ閉鎖時間が約18.2ミリ秒であるシナリオを示す。第2の積分時間308は、フレーム周期の約半分であり、ゆえに、一般的に180度シャッタを実現するセンサについての積分時間に対応する。他の例示的ケースにおいて、図3Cは、フレーム周期312が約41.7ミリ秒(24fps)、第1の積分時間306が約2.6ミリ秒、第2の積分時間308が約31.6ミリ秒、露出間遅延312が約15.6マイクロ秒、およびシャッタ閉鎖時間310が約7.4ミリ秒であるシナリオを示す。このケースにおいて、第2の積分時間308は、273度シャッタを実現するセンサについての積分時間に対応する。さらに他の事例において、図3Dは、フレーム周期312が約41.7ミリ秒(24fps)、第1の積分時間306が約0.65ミリ秒、第2の積分時間308が約5.2ミリ秒、露出間遅延312が約15.6マイクロ秒、およびシャッタ閉鎖時間310が約35.75ミリ秒であるケースを示す。ここで、第2の積分時間308は、45度シャッタについての積分時間に対応する。
比較のため、図3Eは、異なる露出レベルを有する多重露出をキャプチャする他の例示的カメラについてのタイミング図を示す。しかしながら、図3A〜3Dで示される実施形態とは異なり、図3Eのカメラは、異なる交番フレーム上で長い露出304および短い露出306をキャプチャする。ゆえに、露出304および306は、時間的に接近しておらず、有意の不所望な動きアーチファクトが存在するかも知れない。たとえば、長い露出304内の画像シーン対象と、次のフレーム内の短い露出306で比較される画像シーン対象との間には、視覚分離の相対的に大きいギャップが存在するかも知れない。ゆえに、そのようなケースにおいて、短いおよび長い露出304、306を結合して、制御された動きアーチファクトを有する高ダイナミックレンジ画像を作り出すことは困難であり得る。
図4Aは、記録されるビデオの1つのフレームについて、時間的に接近した第1および第2の露出402、404を示す。明瞭にするため、タイミング図は、画像センサの最初の3つの行(または、行の部分集合)R1、R2、R3のみについて示される。たとえば、図解400は、図3A〜3Dのいずれかで描写される動作を有するセンサの最初の3つの行について、露出タイミングの一層詳細な描写の1つの実施形態に対応する。最初の行R1を参照すると、第1の露出402が開始する前に、「リセット」の標示を付けられた垂直矢印によって示されるように、行R1が最初にリセットされる。
行R1内のピクセルをリセットするために要する時間量に対応して、リセット周期410が経過した後、行R1内のフォトセルは、第1の積分周期406の間に電荷の累積を開始する。第1の積分周期406に続いて、第1の行R1内のピクセルは、第1の露出レベルに対応して電荷を累積する。次いで、「読み出し/リセット」と標示を付けられた垂直矢印によって示されるように、行R1についての読み出しサイクルは、他のリセットサイクルと共に始められる。図2を参照すると、読み出し周期412の終了時に、行R1は、出力回路204によってピクセルアレイ202から読み出され、記憶および/または処理のために出力212上に提供される。
加えて、一度、行R1が第2のリセットサイクルを完了すると、第2の露出404が開始する。そのようなものとして、1つの実施形態における第1および第2の露出間の露出間遅延410は、ピクセルの行(または、1行を超える行が一度に読み出される場合、行の部分集合)についてのリセット時間410に依存する。たとえば、露出間遅延410は、1つの行(または、行の部分集合)についてのリセット時間410に対応するか、略対応するか、略等しい。他の事例において、露出間遅延410は、行(または、行の部分集合)について略1、略2、略5、略10、略20、略50、または略100のリセット時間410よりも小さいか等しい。さらなるケースにおいて、露出間遅延410は、実施形態に依存して、行(または、行の部分集合)についての略1のリセット時間410と、略2、略5、略10、略20、略50、または略100のリセット時間との間の、或る値である。下記で一層詳細に説明されるように、リセット時間410は、有利には相対的に短い。これは、時間的に接近した第1および第2の露出402、404を導く。
他の構成において、第1および第2の露出402、404の間の遅延は、リセット時間410以外の多様な値に対応し得る。たとえば、露出間遅延410は、読み出し時間がリセット時間よりも大きいか等しい場合のように、読み出し時間412に対応するか、略対応するか、依存する。1つのそのような実施形態において、露出間遅延410は、読み出し時間412と略等しい。他のケースでは、具体的な実装に依存して、露出間遅延410は、行(または、行の部分集合)について略1、略2、略5、略10、略20、略50、または略100の読み出し時間412よりも小さいか等しい。さらなる実施形態によれば、露出間遅延410は、行(または、行の部分集合)についての略1の読み出し時間412と、略2、略5、略10、略20、略50、または略100の読み出し時間412との間の、或る値である。さらなるケースにおいて、第1および第2の露出402、404の間の遅延410は、読み出し時間およびリセット時間の双方に依存する。たとえば、1つの実施形態におけるリセット動作は、読み出し動作の完了後にのみ始められる。このケースにおいて、第1および第2の露出402、404の間の遅延は、読み出し時間412およびリセット時間の合計に対応するか、略対応する。そのようなケースにおいて、露出間遅延410は、行(または、行の部分集合)についてリセット時間410および読み出し時間412の近似的合計よりも小さいか等しく、または代替として、リセット時間410および読み出し時間412の近似的合計に、2、5、10、20、50、または100の因子を乗じたものよりも小さいか等しい。さらなる実施形態において、露出間遅延410は、行(または、行の部分集合)についてのリセット時間410および読み出し時間412の近似的合計と、リセット時間410および読み出し時間412の近似的合計に、2、5、10、20、50、または100の因子を乗じたものとの間の、或る値であり得る。
示されるように、センサは、他の行R2,R3,…,RMについて類似の動作系列を始める。しかしながら、図2に関して上記で説明されたように、センサは、同時に1つだけの行(または、2つ以上の行から成る部分集合)を出力するように構成されてもよい。ゆえに、各々の後続の行について、多重露出生成器206は、最初のリセットサイクルを始める前に、少なくとも1つの読み出し周期412を待機する。そのようなものとして、各々の行についての露出タイミングは、他の行に関して時間的にジグザグである。例示された例において、各々の後続の行は、先行する行に関して読み出し周期412だけ遅延される。そのようなものとして、特定の行について積分周期402、404が完了したとき、出力回路204は、一般的に即時に利用可能となる。このようにして、読み出し回路(たとえば、図2の出力回路204)の利用は、相対的に高い。図2を再び参照すると、多重露出生成器206は、バス208を介してピクセルアレイへ、およびバス210を介して出力回路204へ、適当な制御信号を送り、説明されたようにして行R1,R2,R3,…,RMのリセットおよび読み出しを始める。
多様な値が可能であるが、1つの例示的センサ200は、一時に2つの行を読み出すように構成されたピクセルの2740行を有し、例示的センサ200の2つの行についての読み出し時間412は、約7.4マイクロ秒である。この例において、2つの行から成る部分集合をリセットするためのリセット時間410は、約15.6マイクロ秒である。ゆえに、第1および第2の露出402、404の間の時間、および時間的に接近した画像ストリーム間の時間は、約15.6マイクロ秒、または24fpsのフレームレートについてのフレーム周期の約0.03パーセントであり、30、50、59.94、および100fpsのフレームレートについての、それぞれのフレーム周期の約0.05、0.08、0.09、および0.16パーセントである。他の構成において、たとえば、センサ200は、時間的に約7マイクロ秒よりも多くない間隔を空けられた第1および第2の画像ストリームを作り出す。そのようなものとして、各々のフレームについて、センサ200は、そのフレーム(第1の画像ストリームに対応する)について、先行する露出402をキャプチャした後に、約7マイクロ秒を超えることなく後続の404(第2の画像ストリームに対応する)をキャプチャする。他の実施形態において、第1および第2の露出402、404、および対応する画像ストリームは、約4マイクロ秒を超えることなく、約2マイクロ秒を超えることなく、または約1マイクロ秒を超えることなく、時間的に間隔を空けられる。さらに他の実施形態において、第1および第2の露出402、404は、約1ミリ秒を超えることなく、約100マイクロ秒を超えることなく、約50マイクロ秒を超えることなく、約25マイクロ秒を超えることなく、約20マイクロ秒を超えることなく、約16マイクロ秒を超えることなく、15.6マイクロ秒を超えることなく、約15マイクロ秒を超えることなく、または約10マイクロ秒を超えることなく、間隔を空けられる。上記で示されたように、幾つかの実施形態において、各々のフレーム内に2つの露出を超える露出が存在する。そのようなケースにおいて、任意の2つの隣接した露出間の遅延は、上記で列挙された値または値域のいずれかに対応する。様々な実施形態において、露出間遅延は、フレーム周期の約0.01、0.02、0.03、0.04、0.05、0.1、0.2、0.5、1、2、5、10、20、または30パーセントよりも小さい。
加えて、前に言及されたように、各々の行(または、行の部分集合)の獲得が、直前に先行する行から、相対的に極小量だけ時間的にジグザグであるから、ロールシャッタによって導入されるスキューおよび結果として得られる動きアーチファクトは、低減される。たとえば、システムが行(または、行の部分集合)について画像データの獲得を開始する時間と、直後に後続する行について画像データの獲得を開始する時間との間の、行間獲得スキューは、示された実施形態における行(または、行の部分集合)についての読み出し時間412に対応する。同様に、システムが行(または、行の部分集合)について獲得された画像データの読み出しを完了する時間と、後続の行(または、行の部分集合)について獲得された画像データの読み出しを完了する時間との間の、行間読み出しスキューは、行(または、行の部分集合)についての読み出し時間412に対応する。様々な実施形態において、行間獲得スキューおよび/または行間読み出しスキューは、行、または行の部分集合についての1つの読み出し時間412に略等しく、または、略1、略1.5、略2、略2.5、または略3の読み出し時間412よりも小さいか等しい。
図4Aについて行の全てを横切って行間スキューを拡げると、システムが行(または、行の部分集合)の最初の行の獲得を開始する時間から、行の全てまたは行の略全て(たとえば、少なくとも90、95、または99パーセント)の獲得を開始する時間までの間の、全体の画像を横切る総露出内獲得スキューは、近似的に、
(M−1)*読み出し時間 (式1)
によって与えられる。
同様に、システムが行の最初の行の読み出しを完了する時間と、行の略全ての読み出しを完了する時間との間の、露出内読み出しスキューは、同じ量に対応する。具体的な例として、上記で説明された2740行センサの場合、露出内獲得および読み出しスキューの双方は、約10.1ミリ秒((2740/2−1)*7.4マイクロ秒)に等しい。
さらに、システムが行(または、行の部分集合)の最初の行の獲得を開始する時間と、露出について行の略全ての読み出しを完了する時間との間からの、全体の露出についての獲得時間は、近似的に、
露出時間+[(M−1)*読み出し時間] (式2)
によって与えられる。
さらなる両立可能な実施形態において、画像獲得時間は、次式の1つよりも小さいか等しい。
露出時間+[(M−1)*読み出し時間] (式3)
露出時間+[(M−1)*1.5*読み出し時間] (式4)
露出時間+[(M−1)*2*読み出し時間] (式5)
露出時間+[(M−1)*2.5*読み出し時間] (式6)
露出時間+[(M−1)*3*読み出し時間] (式7)
上記で説明された具体的な例の各々におけるシステムは、各々のフレームについて第1の相対的に低い露出(たとえば、短い露出)、これに続く第2の相対的に高い露出(たとえば、長い露出)を記録する。しかしながら、フレーム間露出の数および順序は、変動可能であり、所望に応じてカスタマイズ可能である。たとえば、1つのインスタンスにおいて、各々のフレームは、長いトラックと、これに続く短いトラックとを含む。加えて、デバイスは、フレーム当たり2つの露出を超える露出、たとえば、3、4、5、10以上の露出をキャプチャするように構成され得る。単なる少数の例示として、フレーム当たり2つの露出を超える露出を含む次のキャプチャパターンが可能である。(1)長、短、長、(2)短、長、短、(3)短、短+x、短+x*2、…、短+x*k、(4)長、長−x、長−x*2、…、長−x*k、(4)短、中間、長、(5)長、中間、短、(6)中間、長、短である。
図3A〜3Dおよび図4Aの図解300、400は、センサが各々の行について同じ順序で露出を出力する構成に対応する。たとえば、図4を参照すると、行R1,…,RNの各々は、各々のフレームについて短い露出402と、これに続く長い露出404とを出力する。しかしながら、幾つかのケースにおいて、多重露出生成器206は、センサ200が、行に依存して第1および第2の露出を異なる順序で出力することを引き起こし、より大きい独創的柔軟性を提供するように構成される。
図4Bは、1つのそのような例を示し、この例において、短いおよび長い露出402、404の順序は、行から行へ(または、行の部分集合から行の部分集合へ)と交互に起こる。したがって、第1の行R1は、短い露出402と、続いて長い露出404とを出力し、第2の行R2は、長い露出404と、続いて短い露出とを出力し、第3の行は、短い露出402と、続いて長い露出404とを出力し、以下同様である。他の類似の実施形態において、奇数行についての短い露出および長い露出に対する1つまたは複数の積分時間は、偶数行についての短い露出および長い露出とは異なる。
さらに他の事例において、行の1つまたは複数は、フレーム当たり1つだけの露出をキャプチャし、残りの行は複数の露出をキャプチャする。たとえば、図4Cは、1つのそのようなケースを示し、奇数行は、フレーム当たり1つだけの長い露出402を出力し、偶数行は、フレーム当たり3つの時間的に接近した露出(たとえば、短、中間、短)404、406、408を出力する。ゆえに、時間的に接近した露出を作り出すためには、極めて多様な可能性が存在することが了解され得る。
明瞭にするため、「短い」および「長い」の用語は、本明細書では、異なる露出を区別するために使用される。たとえば、或る露出は、他の露出よりも相対的に短い積分時間、またはシャッタスピードを有し、ゆえに他の露出よりも相対的に長い。しかしながら、上記で説明された手法は、積分時間の代わりに、または積分時間に加えて、他のパラメータが操作され露出の程度に影響する実施形態と両立可能である。そのようなパラメータは、たとえば、利得(たとえば、アナログ利得)、アパーチュア、およびISOを含み得る。ゆえに、実施形態に依存して、露出が「短い」または「長い」と言われる場合、実際には「低い」または「高い」と言われるのが一層正確であることが了解される。本明細書で使用される場合、「画素リセット時間」および「画素読み出し時間」の用語は、画素(たとえば、ピクセル)の行、画素の1つの行を超える行から成る部分集合、単一の画素、またはピクセル要素の行ではない他の群、たとえば、画素の1つまたは複数の列を読み出すのに要する時間量の1つまたは複数を意味し得る。幾つかのケースにおいて、たとえば、複数の画素が並列に読み出される場合、特定の群(たとえば、ピクセル要素の行、または行の部分集合)についての読み出し時間は、単一の画素の読み出し時間と同じ時間量に対応する。
複数の露出レベルを有する時間的に接近した画像のトラックの生成
図5は、時間的に接近した露出フレームの複数のトラックから、混合された出力トラックを作り出す例示的プロセス500を示す流れ図である。説明されるように、プロセス500および本明細書で説明される他の手法によれば、混合モジュール117は、一般的に、時間的に接近した露出フレームのトラックを受け取って処理する。混合モジュール117は、フレームごとにトラックを受け取って処理するか、任意の所与の時点でトラックの任意の部分(たとえば、5、10、100、1000以上のフレーム、または全体のトラック)の上で動作する。
ブロック502において、混合モジュール117は、時間的に接近した(たとえば、約20、16、7、4、または2マイクロ秒を超えない間隔を空けられた)露出を有するビデオフレームの複数のトラック(または、その一部分)を受け取る。混合モジュール117は、多様な方途でトラックを受け取り得る。1つの例として、混合モジュール117は、外部コンピューティングデバイス上で実行するソフトウェア内に存在する。カメラ100は、時間的に接近した露出トラックをメモリデバイス114へ記録し、トラックは、メモリデバイス114から外部コンピューティングデバイスへ転送され、外部コンピューティングデバイスは、記録されたトラックを処理用の混合モジュール117へ回送する。他の例として、混合モジュール117は、カメラ100上のソフトウェアまたはハードウェア内に存在し、メモリデバイス114またはセンサ112から、記録されたトラックを直接受け取る。
ブロック504において、混合モジュール117は、所望の(たとえば、固定またはユーザ選択可能な)アルゴリズムに従って、受け取られた露出を処理する。混合モジュール117は、アルゴリズムに従って第1および第2のトラックを一緒に混合し、第1および第2の(または、もっと多くの)トラックに基いて出力トラックを生成する。幾つかの例示的混合手法が、図6A〜9に関して図示および説明される。
ブロック506において、混合モジュール117は、混合された出力トラックを提供する。たとえば、混合モジュール117がカメラ上に存在する場合、それは、出力画像ストリームフレームを記憶用のメモリ114へ提供する。代替として、カメラは、混合された画像トラックを外部処理および/または記憶用のコンピューティングデバイス102へストリームする。混合モジュール117が、同時に、各々のトラックの1つのフレームまたは他の部分上でのみ動作する場合、処理500は、ブロック502へ戻り、混合モジュール117は、それぞれのトラック内の次のフレームまたはフレーム群について第1および第2の露出を受け取る。
図6A〜6Bは、例示的な混合動作を示す。たとえば、混合モジュール117は、図6A〜6Bで示された混合手法を実装することができる。一般的に、これらおよび他の混合手法を使用して、混合モジュール117は、それぞれの画像から所望のコンテンツを組み込んだ出力トラックを提供し、不所望の画像コンテンツを廃棄することができる。廃棄される画像コンテンツは、トラックの1つまたは複数における雑音部分、ならびに所望の審美的効果を提供するためには必要でない他の部分を含み得る。さらに、幾つかのケースにおいて、ユーザは、どのコンテンツを出力トラック内に含めるかを選択し、改善された独創的柔軟性を提供し得る。
図6Aを参照すると、混合動作600は、各々のビデオフレームについて第1の(たとえば、長い)604および第2の(たとえば、短い)606の時間的に接近した露出を、それぞれ、カメラがキャプチャするシナリオを表す。長いおよび短い露出604、606を表す棒の幅は、一般的に、センサのダイナミックレンジに対応し、転じて、ダイナミックレンジは、センサ112について可能なピクセル値の範囲(たとえば、10ビットセンサについては、0〜1023、12ビットセンサについては、0〜4095、16ビットセンサについては、0〜65535など)に対応し得る。図6Aは、出力トラックが、センサ112と比較して拡張されたビット深度(bit-depth)を有し、2つのトラック604、606からコンテンツを選択的に含めることに起因して、個々のトラック604、606のいずれかと比較して改善されたダイナミックレンジを有する構成に対応する。
示されるように、長いおよび短い露出604、606の各々について、或る数のキャプチャされた値は、相対的に雑音であり、相対的に低い信号対雑音比(SNR)を有する。たとえば、SNRは、低いピクセル値について相対的に低く、測定されたピクセル値が増加するにつれて徐々に増加する。さらに、主題のシーンは、或る明るい領域でハイライトを含む。示されるように、短い露出606は、より短い積分時間を理由として、ハイライトの有意の部分をキャプチャし、ハイライトが洗い落とされる機会を低減し得る。他方、例示されるように、幾つかのケースにおける長い露出604は、相対的に長い積分時間に起因して、多くのハイライトディテールをキャプチャせず、洗い落としを導き得る。
シーンは、さらに、シャドウ(shadows)を含む暗い領域を含み、この領域は、多くの場合、より明るい領域と並置され得る。示されるように、長い露出604は、長い積分時間に起因して、これらの領域内の相対的に多くのディテールをキャプチャする。逆に、短い露出606は、より短い積分時間に起因して、これらの領域内の少ないディテールをキャプチャする。
さらに、示されるように、長いおよび短い露出604、606は、画像シーンの「ノーマル(normal)」部分に対応するコンテンツをさらに含み得る。これらの部分は、たとえば、特に暗いか明るいわけではなく、一般的に、通常または中間の明るさレベルを有し得る。図6A〜6Bに関して使用される標示(「シャドウ」、「ノーマル」、「ハイライト」)は、混合コンセプトを例示する目的だけに使用され、限定的ではない。たとえば、より短い露出は、幾つかのケースにおいて、画像シーンからシャドウコンテンツの或る量をキャプチャすることが了解されるであろう。同様に、幾つかの事例において、より長い露出は、或るハイライトディテールを記録するであろう。
例示された例において、混合モジュール117は、2つの露出604、606の間の光レベルをマッチさせる。たとえば、混合モジュール117は、混合の前にNビット(たとえば、1、2、4、または8以上のビット)だけ露出を相互に関してシフトするか、露出の1つまたは複数の上で他の数学演算を実行し得る。例示された例において、短い露出606は、Nビットだけシフトアップされ、それゆえに、2の因子だけ乗ぜられる。そのようなケースにおいて、長い露出604は、短い露出606よりも2の因子だけ多く露出される。そのようなものとして、シフトの後に、対応する画像シーン領域についての2つの露出604、606の間の光レベルは、一層接近してマッチする。さらに、示されるように、短い露出606内の最も雑音の多いコンテンツは、幾つかのケースにおいて廃棄される。
混合の前に露出604、606を相互に関して調節するために、多様な他のプロセスが可能である。たとえば、幾つかのケースにおいて、短い露出606の代わりに、長い露出604がシフトまたは調節される。1つのインスタンスにおいて、短い露出606をNビットだけシフトアップする代わりに、長い露出604がNビットだけシフトダウンされる。下記で論述される図3Bは、1つのそのような実施形態を示す。他の実施形態において、露出604、606の双方がシフトされる。たとえば、露出604、606は、等しくおよび反対方向へシフトされる。さらなる他のケースにおいて、システムは、露出604、606を反対方向へシフトするが、異なる値だけシフトする。たとえば、第1の露出604が第2の露出606よりも2の因子だけ大きく露出され、N=X+Yである場合、第1の露出604は、Xビットだけシフトダウンされ、第2の露出は、Yビットだけシフトアップされる。多様な他の実施形態が可能である。たとえば、露出604、606についてピクセル値を乗じるか除する代わりに、減法、加法、または他の適当な演算が使用され得る。
光レベルをマッチさせた後、混合モジュールは、露出604、606を一緒に混合する。例示のため、3つの混合アルゴリズム(i)〜(iv)が示される。
第1のアルゴリズム(i)を参照すると、1つの実施形態における混合モジュール117は、出力トラック内に含めるため線分A−Bに対応する長い露出604の画像コンテンツを選択する。1つの例において、センサは、12ビットセンサであり、短い露出は、2ビットだけシフトアップされ、線分A−Bは、0と2048との間のピクセル値に対応する。混合モジュール117は、長い露出からの測定された値を参照として使用し、混合される出力トラック内にどのピクセル値を含めるかを決定する。たとえば、混合モジュール117は、長い露出604内のどの測定されたピクセルが0〜2048の値を有するかを決定し、それらのピクセル値を、混合される出力画像内の対応するピクセルの中へ組み込む。長い露出604からの値は、出力トラックの中へ略直接に、修正されないで組み込まれるが、幾つかの代替の構成において、混合モジュール117は、組み込む前に、数学演算、たとえば、スケーリング、シフト、または丸めを値の上で実行する。
長いおよび短い露出604、606について示されるチャート608、610は、それぞれ、混合アルゴリズム(i)に従って出力トラック内に含められる各々のトラックのパーセンテージを示す。たとえば、点AとBとの間のピクセル値については、出力トラックの100%が、長い露出604からのコンテンツから構成される。
混合モジュール117は、代替として、短い露出606を参照として使用し、部分A−Bについて長い露出604からのどの測定されたピクセル値を出力トラック内に含めるべきかを決定する。例示的なケースにおいて、たとえば、混合モジュール117は、短い露出606内のどのピクセルが0と2048との間の測定された値を有するかを決定し、長い露出604内の対応するピクセルについて、測定された値を選択して出力トラック内に含める。さらに他の事例において、混合モジュール117は、他のタイプの参照を使用する。たとえば、混合モジュール117は、各々のピクセルについて短いおよび長い露出606、604の測定された値の組み合わせ(たとえば、平均)を計算し、計算された値を参照として使用し、長い露出604からのどのピクセルを出力トラック内に含めるかを決定する。同様に、残りの混合動作(たとえば、線B−C、C−Dに沿った混合動作、および他の例示的な混合スキーム(ii)〜(iv)の混合動作)は、長い露出604を参照として使用することを説明されるが、短い露出606、短いおよび長い露出606、604の組み合わせ、または他のタイプの参照が、それらのケースにおいて同様に採用される。
線分A−Bに沿った長い露出604からの、この画像コンテンツは、シャドウ内の相対的に良好なディテールを含む。幾つかの他のケースにおいて、混合モジュール117は、線A−Bに沿った値について、短いおよび長い露出604、606を、或る程度まで一緒に混合する。混合の量は、入力ピクセル値がどのようなものであっても相対的に一定である。加えて、混合は、トラックの1つ、たとえば、長いトラック604に都合よくバイアスされる。たとえば、混合モジュール117は、長いトラック604および短いトラック606からの入力値の加重平均を実行し、ここで、長いトラックは、短いトラック606よりも高い加重を有する。幾つかのケースにおいて、バイアスまたは加重の程度は、ユーザによって制御可能であるか、特定の動作モードに依存して自動的に調節される。下記で説明される混合アルゴリズム(iv)は、混合される出力トラック内の画像コンテンツの幾つかを生成するため、加重平均が使用される例を示す。
アルゴリズム(i)を依然として参照すると、出力トラックの次の部分は、傾斜線B−Cに沿った長いおよび短い露出604、606の双方からの画像コンテンツの組み合わせに対応する。さらに、それぞれの露出604、606が出力露出内に含まれる程度は、測定された入力値に基づいて変動する。これは、線分A−BおよびC−Dに対応する出力画像の部分と対比され得る(下記で論述される)。たとえば、線分A−BおよびC−Dについては、1つだけのトラックからのピクセルが出力トラック内に含められるように選択されるか、混合の量が一般的に一定であり(たとえば、加重平均)、測定された入力値に関係しない。
線分B−Cについて露出604、606を混合するためには、多様な動作が可能である。たとえば、幾つかの実施形態において、出力トラック内に含められる長いトラック604の量は、点Bで最大である。逆に、混合動作で使用される短いトラック606の量は、点Bで最小である。さらに、BとCとの間の増加するピクセル値xについて、出力トラック内に含まれる長いトラック604の量は、徐々に減少する。逆に、出力トラック内に含まれる第2のトラック606の量は、増加し、点Cで最大に達する。これは、チャート608で示されており、該チャート608は、増加するピクセル値BからCについて100パーセントから0パーセントへ線形に減少する出力トラック内の長い露出604のパーセンテージを示す。逆に、チャート610は、BからCについて0パーセントから100パーセントへ線形に増加する出力トラック内の短い露出606のパーセンテージを示す。例示的なケースにおいて、センサは、12ビットセンサであり、短い露出606は、2ビットだけシフトアップされ、Bは、2048のピクセル値に対応し、Cは、4094のピクセル値に対応する。例として、3071のピクセル値に対応するBとCとの中間点を例に取ると、混合モジュール117は、長い露出604(参照露出)内のどのピクセルが3071の値を有するかを決定する。点は、BとCとの中間にあるから、混合モジュール117は、次式に従って出力トラック内の対応するピクセルについて値を計算する。
出力ピクセル値=0.5*長いピクセル値*0.5短いピクセル値 (式8)
幾つかの事例での部分B−Cについては、線形補間が使用され、1つのケースでは、補間子(interpolant)は、次式によって与えられる。

Figure 0005953305
ここで、xは、BとCとの間の測定された入力ピクセル値に対応し、たとえば、B≦x≦Cである。転じて、補間子は、xの各々の値について、補間される出力ピクセル値を計算するために使用される。たとえば、出力ピクセル値は、次式に従って計算される。
出力ピクセル値=y*長いピクセル値+(1−y)*短いピクセル値 (式10)
線分B−Cに対応するピクセル値については、他のタイプの混合が使用され得る。幾つかのケースにおいて、線形補間手法とは異なり、混合される露出内に含まれるそれぞれの露出604、606の量は、入力値に依存しない。たとえば、出力トラックのこの部分については、混合モジュール117は、長い露出604からの画像コンテンツおよび短い露出606の画像コンテンツの平均を計算し、平均を出力トラック内に含める。非限定的に、合計、差、加重平均、などを含む多様な他の演算が、平均の代わりに使用され得る。下記で説明される混合アルゴリズム(iii)は、曲線混合機能を組み込んでいる。
1つの実施形態において、混合モジュール117は、線C−Dに対応する短い露出606の画像コンテンツを選択して出力トラックを完成し、出力トラックのこの部分については露出を混合しない。たとえば、12ビットセンサの例を参照すると、点Cは、4095のピクセル値に対応し、この値は、長い露出604についての飽和値に対応する。混合モジュール117は、それゆえに、長い露出604内のどのピクセルが4095の飽和値を有するかを決定し、短い露出606内の対応するピクセルからの値を出力画像内に組み込む。示されるように、線C−Dに沿った画像コンテンツは、相対的に良好なハイライトディテールを含む。他のケースにおいて、線分C−Dに対応する出力トラックの部分については、或る程度の混合が使用される。たとえば、部分C−Dについて、混合モジュール117は、線分A−Bに関して上記で説明された加重平均または他の演算と類似した演算を実行する。しかしながら、加重平均は、部分A−Bの場合とは異なり、部分C−Dについて長いトラック604の代わりに短いトラック606に都合よくバイアスされる。下記で説明されるアルゴリズム(iv)は、これらの線に沿った混合機能を組み込んでいる。
ゆえに、そのような混合手法によれば、混合モジュール117は、短い露出606を使用して、結果として得られる出力トラック内にハイライトを保存し、ハイライトディテールの可能な損失を補正する。短い露出フレームから作り上げられたトラックは、それゆえに、たとえば、「ハイライト保護トラック」または「ハイライト補正トラック」と言われる。
矢印で示されるように、点A、B、C、およびDの1つまたは複数は、混合プロフィールを調節するために調節され得る。これは、ダイナミックレンジおよび結果として得られる出力トラックの動き特性の双方に大きく影響し得る。たとえば、線分A−BおよびC−Dの長さは、画像のダイナミックレンジを有意に変更し得る。さらに、動き効果は、線分B−Cの長さ、または、この部分に使用される特定の混合動作(たとえば、線形補間、加重平均、など)を調節することによって調整され得る。具体的な動き制御動作は、下記で図8に関して一層詳細に説明される。
混合アルゴリズム(ii)は、混合アルゴリズム(i)と類似しているが、例外は、短い線分B−Cによって示されるように、混合モジュール117が、出力トラックの非常に小さい部分について、長いおよび短い露出604、606を一緒に混合することである。さらに、相対的に長い線分A−Bによって示されるように、アルゴリズム(i)と比較して、長いトラック604の大きい部分が出力トラック内に直接含められることである。
アルゴリズム(iii)についてチャート608、610によって示されるように、アルゴリズム(iii)を実現する混合モジュール117は、測定された入力値に曲線を適用して出力トラックを生成する。多様な異なる曲線が可能であるが、例示された例での混合モジュール117は、点BとCとの間のピクセル値に対応する出力トラックの部分に「S」曲線を適用する。曲線は、S字形曲線または他のタイプの曲線である。前の例と同じように、様々な線分の長さおよび対応する混合プロフィールを変更するため、点A、B、C、およびDの1つまたは複数が調節され得る。1つのインスタンスにおいて、曲線は、全体の出力トラックに適用される。
加えて、離散的混合プロフィールを有する出力トラックの3つの部分(A−B、B−C、C−D)を超える部分が存在してもよい。アルゴリズム(iv)は、そのようなケースを示し、出力トラックの5つの異なる部分について別々の混合プロフィールが存在する。すなわち、(1)A−B−長いトラック604の直接組み込み、(2)B−C−加重平均、ここで長いトラック604は、短いトラック606よりも重く加重される、(3)C−D−長いトラック604と短いトラック606との間の線形補間、(4)D−E−加重平均、ここで短いトラック606は、長いトラック604よりも重く加重される、および(5)E−F−短いトラック606の直接組み込み、である。
ここで図6Bを参照すると、例示された混合動作は、図6Aの動作と類似し、システムは、再び第1(たとえば、長い)および第2(たとえば、長い)の、時間的に接近した露出604、606をキャプチャし一緒に混合する。しかしながら、図6Aで示される動作とは異なり、図6Bは、混合モジュール117が、入力トラックと比較して出力トラックのビット幅を拡張しない構成を示す。むしろ、ビット幅は、同じままである。1つの例として、センサ112は、12ビットセンサであり、12ビットの長いおよび短い露出604、606を出力しているが、もっとも、他のビット幅も可能である。混合モジュール117は、長い露出604に関してビットの或る数だけ(たとえば、2、4、8、など)、長い露出604をシフトダウンすることによって、光レベルマッチングを実行する。しかしながら、図4Aで示される動作とは異なり、シフトされた部分は、図6Bの実施形態では保存される。次いで第1および第2のトラック604、606は、選択されたアルゴリズムに従って一緒に混合され、16ビット出力トラックを作り出す。3つの例示的混合アルゴリズム(i)、(ii)、および(iii)が示されているが、もっとも、非常に多様な他の可能性が存在する。示されるように、長い露出604内の最も雑音を有するコンテンツは、幾つかのケースでは廃棄されるが、依然としてシャドウ内のディテールは保存される。
図6A〜6Bでは、多数の具体的な例に関して説明されたが、混合は、多様な追加のやり方で起こり得る。たとえば、混合は、図9に関して下記で説明されるように、コントラストレベルに基づくことができる。
図7は、複数の時間的に接近した露出から出力露出を作り出す混合プロセス700を示す。例示を目的として、単一の第1および第2の露出に関して説明されるが、代わりに、プロセス700に関して下記で説明される動作は、第1および第2の露出の全体のトラック、または、その一部分の上で実行されてもよい。
ブロック702A、702Bにおいて、センサ112は、第1(たとえば、長い)および第2(たとえば、長い)の露出をキャプチャする。ブロック704A、704Bにおいて、混合モジュール117または他のコンポーネントは、キャプチャされた露出を処理する。
たとえば、図6A〜6Bを参照すると、幾つかのケースにおいて、露出604、606の1つまたは複数は、たとえば、2つの露出間の光レベルをマッチさせるため、混合の前に調節される。これらのケースの幾つかにおいて、混合モジュール117は、1つまたは双方の露出604、606をシフトし、それゆえに、2つの対応する因子によってピクセル値を乗じるか除する。しかしながら、幾つかのケースにおけるセンサピクセルは、光がピクセル上に入射しないときでも(たとえば、レンズキャップがセンサ上にあるとき)、非ゼロ値を出力し、「非ゼロブラック」値を作り出す。混合の前に、これを考慮に入れることが望ましい。たとえば、光マッチングプロセスで、これらの「非ゼロブラック」値を乗じることは、後の処理段階を複雑にするか、他の不所望の結果を作り出し得る。
ゆえに、1つの実施形態において、モジュール117は、光マッチングの前に第1および/または第2の露出からオフセット(たとえば、ブラックオフセット)を減じる。次いでモジュール117は、露出上で光マッチングまたは他の数学演算を実行し、たとえば、露出の各々を所定の因子で乗じる。最後に、混合モジュール117は、オフセット、たとえば、光マッチングの前に減じられた値と同じ大きさを有するブラックオフセットを、第1および第2の露出へ加え得る。
幾つかの構成では、ブロック704A、704Bにおいて、混合モジュールは、第1および第2の露出上で1つまたは複数の動作を実行し、画像データの圧縮を改善する。たとえば、1つの事例において、画像処理モジュール116は、第1および第2の露出の双方からのウェーブレットの選択された(たとえば、低い)周波数成分を結合して、圧縮効率を改善する。画像処理モジュール116は、さらに、露出の1つまたは複数(たとえば、暗い、短い露出)上でプリエンファシス曲線を実現する。例示的プリエンファシス機能は、‘967特許で一層詳細に説明されており(たとえば、’967特許の図8、8A、11、および欄11〜12に関する)、参照によって本明細書の中に組み入れられる。そのような手法は、圧縮の効率または他の品質を改善し得る。たとえば、幾つかのケースにおいて、プリエンファシスまたは他の手法は、特定の露出の低いビット上で起こる圧縮の量を回避または低減し得る。
ブロック706において、混合モジュール117は、混合動作で使用されるパラメータを受け取る。たとえば、混合パラメータは、一般的に第1および第2の露出がどのように結合されるかを規定する。幾つかのケースにおいて、たとえば、システム100は、混合パラメータの1つまたは複数を設定するためのインタフェースを提供する。たとえば、システム100は、グラフィカル・ユーザ・インタフェース(GUI)をユーザへ表示し、ユーザは、GUIと対話してパラメータを設定し得る。GUIまたは他のインタフェースは、ソフトウェアを介して外部コンピュータのディスプレイ上に提供され得るか、代わりに、構成に依存してカメラ上に提供されてもよい。
1つのインスタンスにおいて、GUIは、スライダ、または、1つまたは複数の他のアイコンを含み、ユーザは、これらを操作して混合パラメータを調節し得る。図形707は、図6A〜6Bのアルゴリズムに関して示される図形に類似する。したがって、「A」、「B」、「C」、および「D」の位置は、一般的に第1および第2の露出(「露出1」、「露出2」)をどのように混合するかを規定する。図7で示されるように、幾つかのケースにおけるユーザは、インタフェースを使用して「B」および「C」の位置を調節し、これによって、第1および第2の(または、もっと多くの)露出のどれくらいを結果として得られる出力トラック内に含めるべきか、および、トラックのどの部分が一緒に混合されるべきか、を設定することができる。幾つかのケースにおいて、ユーザは、「B」および「C」の代わりに、または、これらに加えて、「A」および/または「D」の位置を調節し得る。例示された例に加えて、多数の他の両立可能なインタフェースが可能である。さらに、インタフェースは、多様な他のパラメータを調節することをユーザに許し得る。
他の構成において、ユーザは、「ハイライト保護」値を選択でき、該「ハイライト保護」値は、採用すべきハイライト保護の量を決定する。図6A〜6Bを参照すると、選択された「ハイライト保護」値は、一般的に、短いトラック内の露出606の露出(たとえば、積分時間)である。1つの実施形態において、ユーザは、含めるべきハイライト保護の停止の数(たとえば、2、3、4、5、または6の停止)を選択し得る。たとえば、もしユーザがハイライト保護の2停止を選択するならば、短い露出606トラックについての露出は、長いトラック604についての露出よりも2停止少ない。たとえば、長いトラック604の露出値が1/48秒である場合、短いトラック606についての露出は、1/192秒へ設定される。
他の構成において、システムは事前設定アルゴリズムのメニューをユーザに提供するが、事前設定アルゴリズムの各々は、特定の独創的効果を有する。事前設定アルゴリズムの各々は、所定の混合パラメータ(たとえば、「B」および「C」値)を有する。特定の事前設定アルゴリズムは、さらに、幾つかのケースにおいて、どのようなタイプの処理(たとえば、線形補間、加重平均、「S」曲線、など)がブロック704A、704Bで起こるかを決定する。
ブロック708において、混合モジュール117は、選択された混合パラメータに基づいて混合動作を実行する。たとえば、混合モジュール117は、一般的に、図5〜6Bに関して上記で説明されたやり方で混合を実行し得る。最後に、ブロック710において、混合モジュール117は、混合された露出(または、露出のトラック)を出力する。たとえば、混合された露出は、記憶および/または再生のためにユーザへ提供される。
幾つかの実施形態において、システム100は、一般的にリアルタイムフィードバックをユーザに提供する。たとえば、ユーザが1つまたは複数の混合パラメータを変更するか、異なる事前設定混合アルゴリズムを選択するにつれて、システムは、混合された出力トラックまたはその一部分を再生し、ユーザはカメラまたはコンピュータモニタ上でそれを観察する。ゆえに、ユーザは、その場で調節を行って所望の視覚効果を達成し得る。
ブロック708へ戻ると、幾つかの実施形態において、混合モジュール117は、選択されたアルゴリズムに従い各々のトラックのどの部分が適正に露出されるかを決定することによって、時間的に接近したトラックを混合する。たとえば、各々の露出について、混合モジュール117は、結合される出力画像内に含めるため、適切に露出されたピクセルにフラグを付ける。他の実施形態によれば、混合モジュール117は、1つの露出からのピクセルを他の露出内の対応するピクセルと比較し、所定のアルゴリズムに従って、混合される出力内の対応するピクセル値を計算する。
説明されたように、混合手法のいずれかが、一般的に、たとえば、フレームベースまたは他の微細度で実現され、極めて多様な両立可能混合手法が可能である。或る構成において、第1および/または第2の(または、もっと多い)トラックからの、1つのフレームを超えるフレームは、出力トラックを作り出すにあたって比較または解析される。たとえば、そのようなケースにおいて、混合モジュール117は、第1のトラックからのフレームn−w,n,…,n+xを、第2のトラックからのn―y,…,n,…n+zと比較し、出力画像ストリーム内のフレームnを作り出す。ここで、nは、現在の出力トラックフレームである。
動き効果の制御
論述されたように、本明細書で説明される画像キャプチャ手法は、フレーム周期を効率的に使用し、個々のフレーム内で異なる露出レベルを有するトラックを提供する。露出間遅延は、相対的に小さく、異なる露出を有するトラック間で、略低減されたギャップを生じるか、時間的ギャップを生じない。たとえば、1つのトラック内の対象を、他のトラック内の同じ対象と比較したとき、視覚分離は、略存在しない。さらに、論述されたように、個々のトラックについての露出間スキューは、相対的に極小である。或る態様によれば、システムは、本明細書で説明されたダイナミックレンジの利点を提供することに加え、これらおよび他の態様を利用して、結合される出力トラック内の動き効果、たとえば、ブラーの量または品質を制御する。たとえば、結合された出力ストリーム内の動きアーチファクトは、略低減されるか、除去されるか、所望のやり方で制御され得る。加えて、本明細書で説明される幾つかの手法は、幾つかの従来のアプローチで必要な動きアーチファクトの検出および処理の量を低減または削除する。
図8は、制御された動き効果を有する出力画像トラックを提供するプロセス800を示す。ブロック802において、混合モジュール117は、少なくとも2つの時間的に接近したトラックを受け取り、これらのトラックは、本明細書で説明される手法のいずれかに従って記録され得る。たとえば、トラックは、図3A〜6Bで図示および説明されるトラックである。ブロック804において、混合モジュール117は、動き制御パラメータの集合を受け取る。これらのパラメータは、一般的に、トラックを選択的に結合しているとき混合モジュール117が実行する動き制御アルゴリズムを規定する。上記で説明されたダイナミックレンジ混合パラメータ(たとえば、「ハイライト保護」の量)と同じように、動き制御パラメータは、実装に依存してユーザ選択可能であるか固定されている。幾つかのケースにおいて、ユーザは、様々な動き制御手法のリストを有するメニューを提供され、動き制御手法を選ぶ。これらの手法は、ブロック806に関して下記で説明される手法のいずれかであるか、他の手法である。
ブロック806において、プロセス800は、時間的に接近した画像のトラックを結合し、所望の動き効果を有する出力画像ストリームを作り出す。多様な動き制御手法が可能である。
時間的に接近した画像の複数のトラックは、異なる露出レベルで記録される場合、従来のビデオ記録と同じように、トラックの1つは相対的にブラーを有するかも知れない。たとえば、図3A〜4Cおよび図6A〜6Bで示されるような相対的に長い積分時間のトラック内に、たとえば、有意のブラーが存在する。しかしながら、他のトラックは鋭く、低減された、または最小のブラーを含む。たとえば、図3A〜4Cおよび図6A〜6Bに示される短い積分時間の露出は、相対的に鋭い。典型的なビデオ記録(たとえば、180度シャッタを有する24fps)は、動いている対象について一般的に一定のブラーを示し、鋭い参照を有しない。しかしながら、シーンを生で観察しているとき人間の目が見るものは、対象へのブラーを有する参照、ならびに、動いている対象への離散的で鋭い参照、の双方の組み合わせに近い。
この効果を模倣するため、幾つかの実施形態において、混合モジュール117は、ブラーの多いトラックおよび鋭いトラックの双方を使用して動き効果を制御し、動いている対象へのブラー参照および鋭い参照の双方を含む出力トラックを作り出す。たとえば、図6A〜6Bを再び参照すると、出力トラック内に含まれる動き効果の量または品質は、混合パラメータ、たとえば、A、B、C、Dの位置または使用される混合動作のタイプを調節することによって制御され得る。1つの例として、ユーザは、BおよびCの位置を調節し、線分A−B、B−C、およびC−Dの長さおよび位置を調節することによって、出力トラック内で表されるブラー参照および鋭い参照の量を制御し得る。具体的には、図6Aで示されるアルゴリズム(i)を参照すると、線B−Cに沿って増加する測定ピクセル値について混合モジュール117が補間機能を実現する場合、出力トラックは、ブラー参照および鋭い参照の変動混合を含む傾向がある。具体的には、線B−Cに沿った出力トラックは、短いトラック606からの画像コンテンツの増加する有意部分および長いトラック604の対応する少ない部分を含む。そのようなものとして、線分B−Cに対応する出力トラック部分は、長いトラック604からの画像シーン対象への相対的に多いブラー参照、および短いトラック606からの同じ画像シーン対象への相対的に鋭い参照、の変動混合を含む。このようにして、混合モジュール117は、シーンを生で注視している人間の目が見るものを一層密接に模倣する出力トラックを作り出し得る。システムまたはユーザは、加えて、BおよびCの位置を調節し、効果を修正し得る。
加えて、たとえば、線形補間または曲線機能を使用し、大きいトラック604および短いトラック606の相対的貢献を増分的に徐々にシフトすることは(または、この逆)、2つのトラックの相対的貢献における突然の変化から生じるバンディングまたは他の不所望の視覚アーチファクトを限定または防止することを助け得る。幾つかのケースにおいて、徐々のシフトは、さらに、(たとえば、短いトラック606から)出力トラック内に組み込まれる低SNR画像コンテンツの量を低減することを助け、画質を改善し得る。
他の例において、混合モジュール117は、線B−Cに沿った出力トラック部分について、長いおよび短い露出604、606の加重平均を実現する。たとえば、50/50加重平均は、短いトラック606からの鋭いコンテンツ、および長いトラック604からのブラーコンテンツの、概して一様な混合を有する出力トラックを生じる。加重は、効果を調整するために調節され得る。1つの実施形態において、システムは、各々のトラックからどれくらいの動き効果を結果として得られる出力トラック内に含めるか、を制御するインタフェースをユーザに提供する。一般的に、システムは、例示された機能の代わりに、または例示された機能と組み合わせて、極めて多様な他の機能を採用し得る。
さらなる構成において、混合モジュール117は、コントラストレベルに基づいて、出力トラック内の短いおよび長いトラック604、606の相対的加重を設定し得る。たとえば、混合モジュール117は、特定の画像領域内のコントラストレベルを決定するため長いトラック604、短いトラック606、またはこれらの組み合わせの測定入力値を処理し、決定されたコントラストレベルを使用して、それらの画像領域におけるピクセルについての長いトラック604と短いトラック606との間の相対的加重を選択する。たとえば、混合モジュール117は、短いトラック606(および/または長いトラック606)について画像データ上に高域フィルタ(high-pass filter)を適用し、高コントラスト領域を決定する。相対的に高いコントラスト領域については、混合モジュール117は、出力トラック内で長いトラック604よりも重く、短いトラック606を加重する。相対的に低いコントラスト領域については、混合モジュール117は、長いトラック604を高く加重するか、2つのトラックを均等に加重する。このようにして、結果として得られる出力トラックは、動いている対象への鋭い参照(短いトラック606の高コントラスト領域から)、および動いている対象へのブラー参照(長いトラック604の隣接した相対的に低いコントラスト領域から)、の双方を含み得る。混合モジュール117は、たとえば、長いおよび/または短い露出604、606の上に低域フィルタを実行することによって、高コントラスト領域の代わりに、または高コントラスト領域に加えて、低コントラスト領域を同定し得る。
さらに、線分A−Bおよび/またはC−Dに対応する出力トラック部分については、幾つかの実施形態におけるユーザは、出力トラック内に含める各々の画像の量を制御することによって、動き効果を調節する。たとえば、ユーザは、加重平均混合動作におけるバイアス値を調節し、各々の入力トラックが混合動作で与えられる加重を制御し得る。たとえば、システムは、スライダ、他のGUI、または他の入力メカニズムを提供して、ユーザが効果を調整することを許す。
他の実施形態において、混合モジュール117は、従来のカメラ(たとえば、180度シャッタを有する24fps)の動き効果に一層密接にマッチするやり方でトラックを一緒に混合するように構成される。たとえば、1つまたは複数のトラックの動きブラーを従来のカメラの動きブラーにマッチさせるため、カスタマイズされた動き推定アルゴリズムが使用される。たとえば、図3Aを参照すると、短い積分時間のトラック302内のブラーは、長い積分時間のトラック304のブラーとマッチするように増加される。1つの実施形態において、ブラーマッチングは露出の混合の前に行われるが、もっとも、他の実現において、それは、後に行われ得る。
ブロック908において、混合モジュール117は、再生またはさらなる処理のために、動き調節されたトラックを出力する。
用語/追加の実施形態
添付の図面と関連させて、実施形態が説明された。しかしながら、図面は、原寸に比例して描かれていないことを理解すべきである。距離、角度、などは単なる例であって、例示されたデバイスの実際の寸法およびレイアウトとの正確な関係を必ずしも保有しない。加えて、これまでの実施形態は、本明細書で説明されたデバイス、システムなどの作成および使用を当業者に許す詳細レベルで説明された。極めて多様な変形が可能である。コンポーネント、要素、および/またはステップは、変更、追加、除去、または再配列され得る。或る実施形態は明瞭に説明されたが、他の実施形態は、この開示に基づいて当業者へ明らかになるであろう。
本明細書で使用される条件言語、たとえば特に、「し得る(can)」、「し得る(could)」、「してもよい、かも知れない(might)」、「してもよい、かも知れない(may)」、「たとえば(e.g.)」などは、特に他の意味で記述されない限り、または、使用される文脈内で理解されない限り、或る実施形態が或る特徴、要素、および/または状態を含み、他の実施形態が含まないことを伝達する意図で使用される。ゆえに、そのような条件言語は、一般的に、特徴、要素、および/または状態が、1つまたは複数の実施形態で何としても要求されること、または、1つまたは複数の実施形態が、これらの特徴、要素、および/または状態が含まれるかどうか、または特定の実施形態で実行されるべきかどうかを、原作者の入力またはプロンプトを用いてまたは用いないで、決定する論理を含む必要があること、を暗示する意図では使用されない。
実施形態に従って、本明細書で説明される方法の或る行為、事象、または機能は、異なる系列で実行され、追加され、合併され、または全く除外され得る(たとえば、説明される行為または事象の全てが、方法の実施に必要であるわけではない)。さらに、或る実施形態において、行為または事象は、逐次ではなく並行して、たとえば、マルチスレッド処理、割り込み処理、または複数のプロセッサまたはプロセッサコアを介して実行され得る。幾つかの実施形態において、本明細書で開示されたアルゴリズムは、メモリデバイス内に記憶されたルーチンとして実現され得る。加えて、プロセッサは、ルーチンを実行するように構成され得る。幾つかの実施形態において、カスタム回路が使用される。
本明細書で開示された実施形態と関連して説明された様々な例示的論理ブロック、モジュール、回路、およびアルゴリズムステップは、電子ハードウェア、コンピュータソフトウェア、または双方の組み合わせとして実現され得る。ハードウェアおよびソフトウェアの、この互換性を明瞭に示すため、様々な例示的コンポーネント、ブロック、モジュール、回路、およびステップは、一般的に、それらの機能性に関して上記で説明された。そのような機能性がハードウェアとして実現されるか、ソフトウェアとして実現されるかは、全体的システムに課された特定の応用および設計制約に依存する。説明された機能性は、各々の特定の応用について様々な方途で実現され得るが、そのような実現の意思決定は、本開示の範囲からの逸脱を引き起こすとして解釈されるべきではない。
本明細書で開示された実施形態に関連して説明された様々な例示的論理ブロック、モジュール、および回路は、本明細書で説明された機能を実行するように設計された汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途集積回路(ASIC)、フィールド・プログラマブル・ゲート・アレイ(FPGA)、または他のプログラム可能論理デバイス、離散的ゲートまたはトランジスタ論理、離散的ハードウェアコンポーネント、またはこれらの任意の組み合わせ、を用いて実現または実行され得る。汎用プロセッサは、マイクロプロセッサであり得るが、代替として、プロセッサは、従来のプロセッサ、コントローラ、マイクロコントローラ、または状態機械であり得る。プロセッサは、さらに、コンピューティングデバイスの組み合わせ、たとえば、DSPとマイクロプロセッサとの組み合わせ、複数のマイクロプロセッサ、DSPコアと結合した1つまたは複数のマイクロプロセッサ、または他のそのような構成として実現され得る。
本明細書で開示された実施形態と関連して説明された方法およびアルゴリズムのブロックは、ハードウェア、プロセッサによって実行されるソフトウェアモジュール、またはこれら2つの組み合わせ、の中で直接具体化され得る。ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、取り外し可能ディスク、CD−ROM、または当技術分野で公知のコンピュータ読み取り可能記憶メディアの任意の他の形態の中に存在し得る。例示の記憶メディアは、プロセッサへ結合され、プロセッサは、記憶メディアから情報を読み出し、記憶メディアへ情報を書き込み得る。代替として、記憶メディアは、プロセッサと一体化され得る。プロセッサおよび記憶メディアは、ASIC内に存在し得る。ASICは、ユーザ端末内に存在し得る。代替として、プロセッサおよび記憶メディアは、ユーザ端末内で離散的コンポーネントとして存在し得る。
上記の詳細な説明は、様々な実施形態へ適用される新規な特徴を図示、説明、および指摘したが、本開示の趣旨から逸脱することなく、例示されたデバイスまたはアルゴリズムの形態および細部における様々な省略、置換、および変更を行い得ることが理解されるであろう。認識されるように、本明細書で説明された発明の或る実施形態は、本明細書で記述された特徴および利点の全てを提供するものではない形態の中で具体化され得る。というのは、幾つの特徴は、他の特徴とは別々に使用または実施され得るからである。本明細書で開示された或る発明の範囲は、これまでの説明によってではなく、添付された特許請求の範囲によって表される。特許請求の範囲の均等の意味および範囲に入る全ての変更は、特許請求の範囲の中に包含されるべきである。

Claims (6)

  1. 少なくとも一つの画素アレイを使用して取得された画像データを結合する方法であって、
    一つまたはそれ以上のハードウェアプロセッサによって実現されるように、
    第1の画像に対応する第1の画像データであって、複数の画素を含む少なくとも一つの画素アレイによって第1の露出レベルでキャプチャされた光に対応する第1のデジタル測定値に由来する第1の画像データを取得することと、
    第2の画像に対応する第2の画像データであって、前記第1の露出レベルとは異なる第2の露出レベルで前記画素アレイによってキャプチャされた光に対応する第2のデジタル測定値に由来する第2の画像データを取得し、前記画素の各々が、前記第2の画像に対応する光をキャプチャすることを開始する前に、前記第1の画像に対応する光をキャプチャすることを完了することと、
    結合画像に対応する結合画像データを作り出すために、前記第1の画像データと前記第2の画像データとを選択的に結合することと、
    を含み、
    前記第2の画像に対応する光をキャプチャする前記ステップは、前記第1のデジタル測定値の読み出しの完了の前に開始され、
    さらに、前記第1のデジタル測定値を読み出す実質的な完了から、前記第2のデジタル測定値を読み出す実質的な完了までの時間は、前記第1の画像についての第1の画素の読み出しの完了から、前記第1の画像についての実質的に全ての画素の読み出しの完了までの時間よりも大きく、
    前記第1の画像データと前記第2の画像データとを選択的に結合する前記ステップは、
    前記第1の画像および前記第2の画像の1つまたは複数に対応する画素値に応答して、前記混合されるコンテンツに含まれる第1の画像からのコンテンツおよび第2の画像からのコンテンツの相対的量を変動させることと、
    前記結合画像の高画素値域においては、前記結合画像の画素値を、前記第1の画像からのコンテンツ及び前記第2の画像からのコンテンツの一方のみから構成し、前記結合画像の低画素値域においては、前記結合画像の画素値を、前記第1の画像からのコンテンツ及び前記第2の画像からのコンテンツの他方のみから構成し、前記結合画像における前記高画素値域と前記低画素値域との間の中間画素値域においては、前記結合画像の画素値を、前記第1の画像からのコンテンツと前記第2の画像からのコンテンツとを一緒に混合して構成することと、
    ユーザ入力に応答して、前記高画素値域と前記中間画素値域とを区画する閾値と、前記低画素値域と前記中間画素値域とを区画する閾値と、を調節することと、
    ユーザ入力に応答して、前記中間画素値域における、前記第1の画像からのコンテンツと前記第2の画像からのコンテンツとの混合される量を調節することと、
    を含む、方法。
  2. 前記第1の画像および第2の画像は、一連の動画ビデオフレームにおける第1のフレームに対応しており、
    前記方法は、
    第3の画像に対応する第3の画像データであって、前記画素アレイによって前記第1の露出レベルでキャプチャされた光に対応する第3のデジタル測定値に由来する第3の画像データを取得することと、
    第4の画像に対応する第4の画像データであって、前記画素アレイによって前記第2の露出レベルでキャプチャされた光に対応する第4のデジタル測定値に由来する第4の画像データを取得し、前記画素の各々が、前記第4の画像に対応する光をキャプチャすることを開始する前に、前記第3の画像に対応する光をキャプチャすることを完了し、前記第3の画像および第4の画像が、一連の動画ビデオフレームにおける第2のフレームに対応していることと、
    第2の結合画像に対応する結合画像データを作り出すために、前記第3の画像データと前記第4の画像データとを選択的に結合することと、
    をさらに含み、
    前記第4の画像に対応する光をキャプチャする前記ステップは、前記第3のデジタル測定値の読み出しの完了の前に開始され、
    さらに、前記第3のデジタル測定値を読み出す実質的な完了から、前記第4のデジタル測定値を読み出す実質的な完了までの時間は、前記第3の画像についての第1の画素の読み出しの完了から、前記第3の画像についての実質的に全ての画素の読み出しの完了までの時間よりも大きい、
    請求項1に記載の方法。
  3. 前記コンテンツを一緒に混合することは、前記第1および第2の画像の1つまたは複数から相対的に低い信号対雑音のコンテンツを廃棄することをさらに含む、請求項1に記載の方法。
  4. 少なくとも一つの画素アレイを使用して取得された画像データを混合するシステムであって、
    一つまたはそれ以上のハードウェアプロセッサと、
    前記一つまたはそれ以上のハードウェアプロセッサを実行する混合モジュールと、
    を含み、
    該混合モジュールは、
    第1の画像に対応する第1の画像データであって、複数の画素を含む少なくとも一つの画素アレイによって第1の露出レベルでキャプチャされた光に対応する第1のデジタル測定値から由来する第1の画像データを取得し、
    第2の画像に対応する第2の画像データであって、前記第1の露出レベルとは異なる第2の露出レベルで前記画素アレイによってキャプチャされた光に対応する第2のデジタル測定値に由来する第2の画像データを取得し、前記画素の各々が、前記第2の画像に対応する光をキャプチャすることを開始する前に、前記第1の画像に対応する光をキャプチャすることを完了し、
    結合画像に対応する結合画像データを作り出すために、第1の画像データと第2の画像データとを選択的に結合する、
    ように構成され、
    前記第2の画像に対応する光をキャプチャすることは、前記第1のデジタル測定値の読み出しの完了の前に開始され、
    さらに、前記第1のデジタル測定値を読み出す実質的な完了から、前記第2のデジタル測定値を読み出す実質的な完了までの時間は、前記第1の画像についての第1の画素の読み出しの完了から、前記第1の画像についての実質的に全ての画素の読み出しの完了までの時間よりも大きく、
    前記混合モジュールは、
    前記第1の画像および前記第2の画像の1つまたは複数に対応する画素値に応答し、前記混合されるコンテンツに含まれる第1の画像コンテンツおよび第2の画像コンテンツの相対的量を変動させるように、構成され、そして、
    前記結合画像の高画素値域においては、前記結合画像の画素値を、前記第1の画像からのコンテンツ及び前記第2の画像からのコンテンツの一方のみから構成し、前記結合画像の低画素値域においては、前記結合画像の画素値を、前記第1の画像からのコンテンツ及び前記第2の画像からのコンテンツの他方のみから構成し、前記結合画像における前記高画素値域と前記低画素値域との間の中間画素値域においては、前記結合画像の画素値を、前記第1の画像からのコンテンツと前記第2の画像からのコンテンツとを一緒に混合して構成し、さらに、
    ユーザ入力に応答して、前記高画素値域と前記中間画素値域とを区画する閾値と、前記低画素値域と前記中間画素値域とを区画する閾値と、を調節し、
    ユーザ入力に応答して、前記中間画素値域における、前記第1の画像からのコンテンツと前記第2の画像からのコンテンツとの混合する量を調節するように、
    構成される、システム。
  5. 前記第1の画像および第2の画像は、一連の動画ビデオフレームにおける第1のフレームに対応しており、
    前記混合モジュールは、
    第3の画像に対応する第3の画像データであって、前記画素アレイによって前記第1の露出レベルでキャプチャされた光に対応する第3のデジタル測定値に由来する第3の画像データを取得し、
    第4の画像に対応する第4の画像データであって、前記画素アレイによって前記第2の露出レベルでキャプチャされた光に対応する第4のデジタル測定値に由来する第4の画像データを取得し、前記画素の各々が、前記第4の画像に対応する光をキャプチャすることを開始する前に、前記第3の画像に対応する光をキャプチャすることを完了し、前記第3の画像および第4の画像が、一連の動画ビデオフレームにおける第2のフレームに対応し、
    第2の結合画像に対応する結合画像データを作り出すために、前記第3の画像データと前記第4の画像データとを選択的に結合する、
    ようにさらに構成され、
    前記第4の画像に対応する光をキャプチャすることは、前記第3のデジタル測定値の読み出しの完了の前に開始され、
    さらに、前記第3のデジタル測定値を読み出す実質的な完了から、前記第4のデジタル測定値を読み出す実質的な完了までの時間は、前記第3の画像についての第1の画素の読み出しの完了から、前記第3の画像についての実質的に全ての画素の読み出しの完了までの時間よりも大きい、
    請求項記載のシステム。
  6. 前記混合モジュールは、前記第1の画像および前記第2の画像の1つまたは複数から相対的に低い信号対雑音のコンテンツを廃棄することによって、少なくとも部分的にコンテンツを一緒に混合することを実行する、請求項に記載のシステム。
JP2013526074A 2010-08-23 2011-08-22 高ダイナミック・レンジ・ビデオ Active JP5953305B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US37617210P 2010-08-23 2010-08-23
US61/376,172 2010-08-23
US201161473711P 2011-04-08 2011-04-08
US61/473,711 2011-04-08
PCT/US2011/048670 WO2012027290A1 (en) 2010-08-23 2011-08-22 High dynamic range video

Publications (3)

Publication Number Publication Date
JP2013538518A JP2013538518A (ja) 2013-10-10
JP2013538518A5 JP2013538518A5 (ja) 2014-10-09
JP5953305B2 true JP5953305B2 (ja) 2016-07-20

Family

ID=45593767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013526074A Active JP5953305B2 (ja) 2010-08-23 2011-08-22 高ダイナミック・レンジ・ビデオ

Country Status (6)

Country Link
US (5) US8625013B2 (ja)
EP (1) EP2606637B1 (ja)
JP (1) JP5953305B2 (ja)
ES (1) ES2599174T3 (ja)
TW (1) TWI468009B (ja)
WO (1) WO2012027290A1 (ja)

Families Citing this family (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7442629B2 (en) 2004-09-24 2008-10-28 President & Fellows Of Harvard College Femtosecond laser-induced formation of submicrometer spikes on a semiconductor substrate
US7057256B2 (en) 2001-05-25 2006-06-06 President & Fellows Of Harvard College Silicon-based visible and near-infrared optoelectric devices
KR101520068B1 (ko) * 2008-12-16 2015-05-13 삼성전자 주식회사 다중영상 합성장치 및 그 방법
US9673243B2 (en) 2009-09-17 2017-06-06 Sionyx, Llc Photosensitive imaging devices and associated methods
US8692198B2 (en) 2010-04-21 2014-04-08 Sionyx, Inc. Photosensitive imaging devices and associated methods
WO2011160130A2 (en) 2010-06-18 2011-12-22 Sionyx, Inc High speed photosensitive devices and associated methods
WO2012027290A1 (en) 2010-08-23 2012-03-01 Red. Com, Inc. High dynamic range video
JP5738080B2 (ja) * 2011-06-09 2015-06-17 キヤノン株式会社 撮像装置及びその制御方法
US9496308B2 (en) 2011-06-09 2016-11-15 Sionyx, Llc Process module for increasing the response of backside illuminated photosensitive imagers and associated methods
CN103946867A (zh) 2011-07-13 2014-07-23 西奥尼克斯公司 生物计量成像装置和相关方法
US20130044237A1 (en) * 2011-08-15 2013-02-21 Broadcom Corporation High Dynamic Range Video
JP2013066142A (ja) * 2011-08-31 2013-04-11 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US8913153B2 (en) * 2011-10-06 2014-12-16 Aptina Imaging Corporation Imaging systems and methods for generating motion-compensated high-dynamic-range images
WO2013116394A2 (en) 2012-01-30 2013-08-08 Mark Olsson Adjustable variable resolution inspection systems and methods
JP5950678B2 (ja) * 2012-04-27 2016-07-13 キヤノン株式会社 撮像装置、制御方法、及びプログラム
US8976254B2 (en) 2012-06-08 2015-03-10 Apple Inc. Temporal aliasing reduction and coding of upsampled video
US20140028861A1 (en) * 2012-07-26 2014-01-30 David Holz Object detection and tracking
US9167169B1 (en) 2014-11-05 2015-10-20 Duelight Llc Image sensor apparatus and method for simultaneously capturing multiple images
US9531961B2 (en) 2015-05-01 2016-12-27 Duelight Llc Systems and methods for generating a digital image using separate color and intensity data
US9179062B1 (en) 2014-11-06 2015-11-03 Duelight Llc Systems and methods for performing operations on pixel data
US9179085B1 (en) 2014-11-06 2015-11-03 Duelight Llc Image sensor apparatus and method for obtaining low-noise, high-speed captures of a photographic scene
US9137455B1 (en) * 2014-11-05 2015-09-15 Duelight Llc Image sensor apparatus and method for obtaining multiple exposures with zero interframe time
US9918017B2 (en) 2012-09-04 2018-03-13 Duelight Llc Image sensor apparatus and method for obtaining multiple exposures with zero interframe time
US9167174B1 (en) 2014-11-05 2015-10-20 Duelight Llc Systems and methods for high-dynamic range images
US9154708B1 (en) 2014-11-06 2015-10-06 Duelight Llc Image sensor apparatus and method for simultaneously capturing flash and ambient illuminated images
US8976264B2 (en) 2012-09-04 2015-03-10 Duelight Llc Color balance in digital photography
US9160936B1 (en) 2014-11-07 2015-10-13 Duelight Llc Systems and methods for generating a high-dynamic range (HDR) pixel stream
US8446481B1 (en) 2012-09-11 2013-05-21 Google Inc. Interleaved capture for high dynamic range image acquisition and synthesis
JP2014057268A (ja) * 2012-09-13 2014-03-27 Toshiba Corp 撮像装置
US9338372B2 (en) 2012-09-19 2016-05-10 Semiconductor Components Industries, Llc Column-based high dynamic range imaging systems
US9087391B2 (en) 2012-12-13 2015-07-21 Google Inc. Determining an image capture payload burst structure
US8866927B2 (en) 2012-12-13 2014-10-21 Google Inc. Determining an image capture payload burst structure based on a metering image capture sweep
US8866928B2 (en) 2012-12-18 2014-10-21 Google Inc. Determining exposure times using split paxels
US9247152B2 (en) 2012-12-20 2016-01-26 Google Inc. Determining image alignment failure
US8995784B2 (en) 2013-01-17 2015-03-31 Google Inc. Structure descriptors for image processing
US9686537B2 (en) * 2013-02-05 2017-06-20 Google Inc. Noise models for image processing
US10558848B2 (en) 2017-10-05 2020-02-11 Duelight Llc System, method, and computer program for capturing an image with correct skin tone exposure
US9807322B2 (en) 2013-03-15 2017-10-31 Duelight Llc Systems and methods for a digital image sensor
US9819849B1 (en) 2016-07-01 2017-11-14 Duelight Llc Systems and methods for capturing digital images
WO2014127376A2 (en) * 2013-02-15 2014-08-21 Sionyx, Inc. High dynamic range cmos image sensor having anti-blooming properties and associated methods
US9117134B1 (en) 2013-03-19 2015-08-25 Google Inc. Image merging with blending
US9066017B2 (en) * 2013-03-25 2015-06-23 Google Inc. Viewfinder display based on metering images
US9955084B1 (en) 2013-05-23 2018-04-24 Oliver Markus Haynold HDR video camera
US9131201B1 (en) 2013-05-24 2015-09-08 Google Inc. Color correcting virtual long exposures with true long exposures
US9077913B2 (en) 2013-05-24 2015-07-07 Google Inc. Simulating high dynamic range imaging with virtual long-exposure images
US9209345B2 (en) 2013-06-29 2015-12-08 Sionyx, Inc. Shallow trench textured regions and associated methods
US9344647B2 (en) * 2013-07-08 2016-05-17 Semiconductor Components Industries, Llc Imaging systems with dynamic shutter operation
US9615012B2 (en) 2013-09-30 2017-04-04 Google Inc. Using a second camera to adjust settings of first camera
US20150097978A1 (en) * 2013-10-07 2015-04-09 Qualcomm Incorporated System and method for high fidelity, high dynamic range scene reconstruction with frame stacking
TWI645707B (zh) * 2013-10-21 2018-12-21 索尼半導體解決方案公司 Solid-state imaging device and electronic device
US8830367B1 (en) * 2013-10-21 2014-09-09 Gopro, Inc. Frame manipulation to reduce rolling shutter artifacts
US10104318B2 (en) 2013-12-04 2018-10-16 Rambus Inc. High dynamic-range image sensor
AU2013273843A1 (en) * 2013-12-23 2015-07-09 Canon Kabushiki Kaisha Motion blur compensation for depth from defocus
EP3114432B1 (en) * 2014-03-05 2017-11-22 Sick IVP AB Image sensing device and measuring system for providing image data and information on 3d-characteristics of an object
US9835862B1 (en) 2014-05-15 2017-12-05 Google Llc Graphic interface for real-time vision enhancement
US9438812B2 (en) * 2014-07-15 2016-09-06 Himax Imaging Limited Method for controlling exposure level of frame in image sensor, computer readable recording media for performing the method, and image processing system
US9894304B1 (en) 2014-08-18 2018-02-13 Rambus Inc. Line-interleaved image sensors
US10277771B1 (en) 2014-08-21 2019-04-30 Oliver Markus Haynold Floating-point camera
US9729801B2 (en) 2014-10-02 2017-08-08 Dolby Laboratories Licensing Corporation Blending images using mismatched source and display electro-optical transfer functions
US10225485B1 (en) 2014-10-12 2019-03-05 Oliver Markus Haynold Method and apparatus for accelerated tonemapping
US10924688B2 (en) 2014-11-06 2021-02-16 Duelight Llc Image sensor apparatus and method for obtaining low-noise, high-speed captures of a photographic scene
US11463630B2 (en) 2014-11-07 2022-10-04 Duelight Llc Systems and methods for generating a high-dynamic range (HDR) pixel stream
US10171745B2 (en) * 2014-12-31 2019-01-01 Dell Products, Lp Exposure computation via depth-based computational photography
EP3046319A1 (en) * 2015-01-19 2016-07-20 Thomson Licensing Method for generating an HDR image of a scene based on a tradeoff between brightness distribution and motion
US10217022B2 (en) * 2015-03-06 2019-02-26 Ricoh Company, Ltd. Image acquisition and management
US10136050B2 (en) 2015-03-06 2018-11-20 Ricoh Company, Ltd. Image acquisition and management using a reference image
CN107431759B (zh) * 2015-04-09 2021-06-15 索尼公司 摄像装置、摄像方法、电子设备以及车载电子设备
GB2537886B (en) * 2015-04-30 2022-01-05 Wsou Invest Llc An image acquisition technique
JP6549409B2 (ja) * 2015-05-13 2019-07-24 オリンパス株式会社 撮像装置、撮像方法、およびプログラム
AU2016264606B2 (en) * 2015-05-19 2020-09-03 Magic Leap, Inc. Semi-global shutter imager
JP2017046259A (ja) * 2015-08-28 2017-03-02 ルネサスエレクトロニクス株式会社 半導体装置
US9521351B1 (en) * 2015-09-21 2016-12-13 Rambus Inc. Fractional-readout oversampled image sensor
CN105163041A (zh) * 2015-10-08 2015-12-16 广东欧珀移动通信有限公司 一种局部双重曝光的实现方法、装置及移动终端
US9743025B2 (en) * 2015-12-30 2017-08-22 Omnivision Technologies, Inc. Method and system of implementing an uneven timing gap between each image capture in an image sensor
US10991281B2 (en) * 2016-02-22 2021-04-27 Dolby Laboratories Licensing Corporation Apparatus and method for encoding high frame rate content in standard frame rate video using temporal interlacing
US9787909B1 (en) * 2016-03-31 2017-10-10 Stmicroelectronics (Research & Development) Limited Controlling signal-to-noise ratio in high dynamic range automatic exposure control imaging
US10110813B1 (en) * 2016-04-27 2018-10-23 Ambarella, Inc. Multi-sensor camera using rolling shutter sensors
US10148888B2 (en) 2016-05-18 2018-12-04 Texas Instruments Incorporated Image data processing for multi-exposure wide dynamic range image data
EP3468168B1 (en) * 2016-05-30 2020-08-12 Sony Corporation Image capturing apparatus, solid-state image capturing device, and control method of image capturing apparatus
JP6746421B2 (ja) * 2016-07-29 2020-08-26 キヤノン株式会社 撮像装置
CN109792478B (zh) 2016-09-01 2021-11-12 迪尤莱特公司 基于焦点目标信息调整焦点的装置和方法
TWI636686B (zh) * 2016-09-20 2018-09-21 品尼高影像股份有限公司 High dynamic range imaging
JP6697684B2 (ja) 2016-10-13 2020-05-27 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法、及び画像処理回路
US10992876B2 (en) 2016-10-18 2021-04-27 Texas Instruments Incorporated WDR imaging with LED flicker mitigation
JP2018191230A (ja) * 2017-05-11 2018-11-29 ソニーセミコンダクタソリューションズ株式会社 撮像素子及びその駆動方法、並びに、電子機器
EP3610453B1 (en) * 2017-05-16 2023-05-10 Apple Inc. Synthetic long exposure image with optional enhancement using a guide image
US10334141B2 (en) 2017-05-25 2019-06-25 Denso International America, Inc. Vehicle camera system
US10212356B1 (en) 2017-05-31 2019-02-19 Snap Inc. Parallel high dynamic exposure range sensor
US20180376087A1 (en) * 2017-06-23 2018-12-27 Qualcomm Incorporated Using the same pixels to capture both short and long exposure data for hdr image and video
JP7313330B2 (ja) 2017-07-05 2023-07-24 レッド.コム,エルエルシー 電子機器でのビデオ画像データ処理
KR20190032818A (ko) * 2017-09-20 2019-03-28 삼성전자주식회사 롤링 셔터 방식을 이용한 복수의 카메라를 포함하는 전자 장치
US10497104B2 (en) * 2017-10-24 2019-12-03 Adobe Inc. Empirical exposure normalization
CN112541414A (zh) * 2017-10-30 2021-03-23 深圳市大疆创新科技有限公司 一种图像处理方法、装置以及终端
TWI648982B (zh) * 2017-12-08 2019-01-21 群光電子股份有限公司 影像串流畫質處理方法
CN109936700B (zh) * 2017-12-19 2020-12-29 群光电子股份有限公司 影像串流画质处理***及影像串流画质处理方法
US11922639B2 (en) 2018-06-07 2024-03-05 Dolby Laboratories Licensing Corporation HDR image generation from single-shot HDR color image sensors
CN116567433A (zh) * 2018-12-27 2023-08-08 富士胶片株式会社 成像元件、摄像装置、摄像方法及计算机可读存储介质
TWI694723B (zh) * 2018-12-28 2020-05-21 恆景科技股份有限公司 自動曝光成像系統與方法
CN110149484B (zh) * 2019-04-15 2020-07-10 浙江大华技术股份有限公司 图像合成方法、装置及存储装置
CN110933324B (zh) * 2019-11-27 2021-05-11 深圳市派科斯科技有限公司 频闪光源使用方法、装置及存储介质
EP3836527B1 (en) * 2019-12-13 2021-11-10 Axis AB Multi-sensor high dynamic range imaging
US20220374428A1 (en) * 2021-05-24 2022-11-24 Nvidia Corporation Simulation query engine in autonomous machine applications

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4647975A (en) * 1985-10-30 1987-03-03 Polaroid Corporation Exposure control system for an electronic imaging camera having increased dynamic range
US5638118A (en) 1987-06-09 1997-06-10 Canon Kabushiki Kaisha Image sensing device with diverse storage times used in picture composition
US5247366A (en) 1989-08-02 1993-09-21 I Sight Ltd. Color wide dynamic range camera
US6219093B1 (en) * 1990-01-05 2001-04-17 Light & Sound Design, Ltd. Method and device for creating a facsimile of an image
US5420635A (en) 1991-08-30 1995-05-30 Fuji Photo Film Co., Ltd. Video camera, imaging method using video camera, method of operating video camera, image processing apparatus and method, and solid-state electronic imaging device
JP3074967B2 (ja) * 1992-10-27 2000-08-07 松下電器産業株式会社 高ダイナミックレンジ撮像・合成方法及び高ダイナミックレンジ撮像装置
US5517242A (en) 1993-06-29 1996-05-14 Kabushiki Kaisha Toyota Chuo Kenkyusho Image sensing device having expanded dynamic range
JPH0738815A (ja) * 1993-07-19 1995-02-07 Olympus Optical Co Ltd 固体撮像素子
US6204881B1 (en) 1993-10-10 2001-03-20 Canon Kabushiki Kaisha Image data processing apparatus which can combine a plurality of images at different exposures into an image with a wider dynamic range
US5929908A (en) 1995-02-03 1999-07-27 Canon Kabushiki Kaisha Image sensing apparatus which performs dynamic range expansion and image sensing method for dynamic range expansion
US6278490B1 (en) * 1996-05-23 2001-08-21 Olympus Optical Co., Ltd. Exposure control for an image pickup apparatus that uses an electronic flash
JPH1042182A (ja) 1996-07-26 1998-02-13 Canon Inc 撮像装置
JP3630905B2 (ja) 1997-02-28 2005-03-23 キヤノン株式会社 撮像方法及び撮像装置
EP0912047B1 (en) 1997-10-23 2004-04-07 Olympus Optical Co., Ltd. Imaging apparatus comprising means for expanding the dynamic range
NZ332626A (en) * 1997-11-21 2000-04-28 Matsushita Electric Ind Co Ltd Expansion of dynamic range for video camera
JP3805094B2 (ja) 1998-01-16 2006-08-02 松下電器産業株式会社 固体撮像装置
US6809766B1 (en) * 1998-03-11 2004-10-26 Micro Technology, Inc. Look ahead rolling shutter system in CMOS sensors
US6847398B1 (en) 1998-03-31 2005-01-25 Micron Technology, Inc. Latched row logic for a rolling exposure snap
JP2000078463A (ja) * 1998-08-28 2000-03-14 Nikon Corp 画像取り込み装置
US6707492B1 (en) 1999-03-31 2004-03-16 Cirrus Logic, Inc. Successive approximation calibration apparatus, system, and method for dynamic range extender
US6806902B1 (en) * 1999-06-08 2004-10-19 Chrontel, Inc. System and method for correcting bad pixel data in a digital camera
US7193652B2 (en) 1999-08-17 2007-03-20 Applied Vision Systems, Inc. Dynamic range video recording and playback system and method
IL147672A0 (en) 1999-08-17 2002-08-14 Applied Vision Systems Inc Improved dynamic range video camera, recording system, and recording method
KR100316717B1 (ko) 1999-10-05 2001-12-20 윤종용 영상처리 시스템의 다이나믹 레인지 확대 장치 및 방법
EP1371223A1 (en) 2001-03-16 2003-12-17 Personal Robotics Inc. System and method to increase effective dynamic range of image sensors
US6795117B2 (en) 2001-11-06 2004-09-21 Candela Microsystems, Inc. CMOS image sensor with noise cancellation
US7061524B2 (en) 2001-11-13 2006-06-13 The Board Of Trustees Of The Leland Stanford Junior University Motion/saturation detection system and method for synthesizing high dynamic range motion blur free images from multiple captures
EP1313066B1 (en) 2001-11-19 2008-08-27 STMicroelectronics S.r.l. A method for merging digital images to obtain a high dynamic range digital image
JP4135360B2 (ja) * 2001-12-25 2008-08-20 ソニー株式会社 固体撮像装置
US6879731B2 (en) 2003-04-29 2005-04-12 Microsoft Corporation System and process for generating high dynamic range video
KR100523671B1 (ko) * 2003-04-30 2005-10-24 매그나칩 반도체 유한회사 이중 게이트절연막을 구비하는 씨모스 이미지 센서 및그의 제조 방법
JP2006101227A (ja) * 2004-09-29 2006-04-13 Victor Co Of Japan Ltd 撮像装置および撮像システム
JP4389766B2 (ja) * 2004-11-22 2009-12-24 セイコーエプソン株式会社 撮像装置
US8319166B2 (en) * 2006-01-18 2012-11-27 National University Corporation Shizuoka University Solid-state image pick-up device and pixel signal readout method having dual potential well, dual transfer gate electrode and dual floating-diffusion region for separately transferring and storing charges respectively
US20070291104A1 (en) * 2006-06-07 2007-12-20 Wavetronex, Inc. Systems and methods of capturing high-resolution images of objects
JP4743007B2 (ja) 2006-06-16 2011-08-10 ソニー株式会社 画像処理装置および画像処理方法、記録媒体、並びに、プログラム
US8068140B2 (en) 2006-08-07 2011-11-29 Avago Technologies General Ip (Singapore) Pte. Ltd. Still image stabilization suitable for compact camera environments
JP4609428B2 (ja) 2006-12-27 2011-01-12 ソニー株式会社 固体撮像装置、固体撮像装置の駆動方法および撮像装置
JP4058459B1 (ja) 2007-03-02 2008-03-12 キヤノン株式会社 撮像装置及び撮像システム
US8237830B2 (en) 2007-04-11 2012-08-07 Red.Com, Inc. Video camera
US8223235B2 (en) * 2007-12-13 2012-07-17 Motorola Mobility, Inc. Digital imager with dual rolling shutters
JP2010103913A (ja) * 2008-10-27 2010-05-06 Toshiba Corp A/d変換器、及びそれを備えた固体撮像装置
JP2010147786A (ja) * 2008-12-18 2010-07-01 Fujifilm Corp 撮像装置及び画像処理方法
US8570386B2 (en) 2008-12-31 2013-10-29 Stmicroelectronics S.R.L. Method of merging images and relative method of generating an output image of enhanced quality
JP5343588B2 (ja) * 2009-01-30 2013-11-13 株式会社リコー 撮像装置
US8625012B2 (en) * 2009-02-05 2014-01-07 The Hong Kong University Of Science And Technology Apparatus and method for improving dynamic range and linearity of CMOS image sensor
JP4973719B2 (ja) 2009-11-11 2012-07-11 カシオ計算機株式会社 撮像装置、撮像方法、及び撮像プログラム
WO2012027290A1 (en) * 2010-08-23 2012-03-01 Red. Com, Inc. High dynamic range video

Also Published As

Publication number Publication date
US20170094205A1 (en) 2017-03-30
JP2013538518A (ja) 2013-10-10
US20120044381A1 (en) 2012-02-23
US8159579B2 (en) 2012-04-17
TW201216691A (en) 2012-04-16
US9876970B2 (en) 2018-01-23
WO2012027290A1 (en) 2012-03-01
US20160037045A1 (en) 2016-02-04
US9462193B2 (en) 2016-10-04
EP2606637A1 (en) 2013-06-26
US20140211042A1 (en) 2014-07-31
EP2606637B1 (en) 2016-09-21
TWI468009B (zh) 2015-01-01
US9077911B2 (en) 2015-07-07
US8625013B2 (en) 2014-01-07
ES2599174T3 (es) 2017-01-31
US20120069213A1 (en) 2012-03-22

Similar Documents

Publication Publication Date Title
JP5953305B2 (ja) 高ダイナミック・レンジ・ビデオ
EP2415254B1 (en) Exposing pixel groups in producing digital images
US7940311B2 (en) Multi-exposure pattern for enhancing dynamic range of images
JP5935876B2 (ja) 画像処理装置、撮像素子、および画像処理方法、並びにプログラム
JP5589446B2 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
US8994849B2 (en) Method and apparatus for increasing dynamic range of image by using electronic shutter
EP2523452A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and program
JP2013066145A (ja) 画像処理装置、および画像処理方法、並びにプログラム
EP3276956B1 (en) Image processing device and image processing method, and program
JP2007201985A (ja) 広ダイナミックレンジ撮像装置
CN107211092B (zh) 用于生成图像的相机、相机***以及方法
JP2015144339A (ja) 画像処理装置、画像処理方法およびプログラム
JP2007006243A (ja) ディジタルカメラ及びその制御方法

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20130701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140822

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140822

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20140822

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20140905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141125

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150223

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150318

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151117

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151217

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160613

R150 Certificate of patent or registration of utility model

Ref document number: 5953305

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250