JP5615973B2 - 高ダイナミックレンジ画像を捕捉するデバイスの作動法 - Google Patents

高ダイナミックレンジ画像を捕捉するデバイスの作動法 Download PDF

Info

Publication number
JP5615973B2
JP5615973B2 JP2013518781A JP2013518781A JP5615973B2 JP 5615973 B2 JP5615973 B2 JP 5615973B2 JP 2013518781 A JP2013518781 A JP 2013518781A JP 2013518781 A JP2013518781 A JP 2013518781A JP 5615973 B2 JP5615973 B2 JP 5615973B2
Authority
JP
Japan
Prior art keywords
image
images
mobile device
luma
exposure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013518781A
Other languages
English (en)
Other versions
JP2013533706A (ja
Inventor
ガイ コート
ガイ コート
ギャレット エム ジョンソン
ギャレット エム ジョンソン
ザ フォース ジェームズ エドムンド オア
ザ フォース ジェームズ エドムンド オア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2013533706A publication Critical patent/JP2013533706A/ja
Application granted granted Critical
Publication of JP5615973B2 publication Critical patent/JP5615973B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)

Description

近年、独立型デバイスとして、及び携帯電話、スマートフォン、他のモバイルコンピュータデバイスのようなより複雑なデバイスの一部としてデジタルカメラの激増がある。この激増で、製造業者はこれらのデバイス上のデジタルカメラの技術的な特徴を迅速に増大させた。例えば、多くのモバイルデバイスは、今日、通常は、高品質画像を生成するのに必要とされることが多い5台のメガピクセルカメラを含む。
残念ながら、たとえこのようなカメラの技術仕様が改善したとしても、これらのカメラは、高品質画像を捕捉及び生成することができないことが多く、その理由は、これらのカメラの画像処理機能は、改善されるハードウエア機能に適合していないからである。例えば、多くのカメラは、今日、依然として、高ダイナミックレンジ(HDR)の画像の捕捉及び生成のでき栄えが貧弱である。
HDR場面の典型的な例は、日中に窓の前に屋内に立っている人物である。このような場面を捕捉する多くのカメラでは、人の全ての特徴を示すわけではなく、前景は暗く、背景が暗い画像が生成される。モバイルデバイスのカメラによる(例えば、電話のカメラによる)このようなHDR場面を捕捉するという問題は、このようなカメラにより使用された小さい画像センサにより悪化する。
本発明の一部の実施形態は、高ダイナミックレンジを有する画像を捕捉及び生成するモバイルデバイスを提供する。高ダイナミックレンジ画像を捕捉及び生成するために、一部の実施形態のモバイルデバイスは、新しい画像捕捉及び処理モジュールを含む。一部の実施形態において、モバイルデバイスは、(1)画像捕捉モジュールに異なる画像露光持続時間に一連の画像を迅速に捕捉させ、かつ(2)その画像処理モジュールにこれらの画像を合成してHDR画像を生成させることによって高ダイナミックレンジ(HDR)画像を生成する。
一連の画像を迅速に捕捉するために、一部の実施形態の画像捕捉モジュールは、2つのアクションを取る。第1に、モバイルデバイスがHDRモードに入った後に、又は画像捕捉モード(以下では、カメラモードとも呼ばれる)に入った後に、特定のフレーム率で画像を捕捉し始める。一部の実施形態において、フレーム率は、約15フレーム/秒(fp)である。他の実施形態において、初期フレーム率は、照明条件が異なれば異なる(例えば、通常の照明条件に対しては15fp、より暗い条件に対しては10fpのような)。
このフレーム率により、カメラは、現在の照明条件に対して通常の露光設定で画像を捕捉することができる(すなわち、カメラは、画像捕捉モジュールが現在の照明条件に対して正常露光持続時間として計算する露光持続時間に各画像を捕捉する)。画像捕捉モジュールは、デバイスのフレームバッファ内に特定のフレーム率で捕捉する各画像を記憶する。一部の実施形態において、捕捉モジュールは、バッファが最大記憶容量に到達した時にモジュールが後に記憶したフレームの前に先に記憶したフレームを削除することを可能にする回状式にこのフレームバッファに書き込む。
第2には、モバイルデバイスが高ダイナミックレンジ(HDR)モードに入った時に、画像捕捉モジュールは、カメラが画像を捕捉している照明条件(現在の照明条件と以下で呼ぶ)に対して露光不足画像及び露光過多画像を捕捉する露光持続時間を計算する。本発明の実施形態が異なれば、露光過多画像及び露光不足画像の持続時間を計算する異なる技術を使用する。例えば、一部の実施形態は、デバイスが特定のフレーム率で捕捉している正常露光画像のヒストグラムに基づいて、露光過多画像及び露光不足画像の持続時間を計算する。
デバイスがHDRモードに入った後に、HDR画像を撮る(例えば、リモートユーザ又はタイマなどにより、デバイス上のタイマにより、デバイスのユーザにより)ようにデバイスに指示することができる。デバイスがHDR画像を撮るように指示された時に、一部の実施形態の画像捕捉モジュールは、迅速に連続して2つの画像を捕捉する。一方の画像は、現在の照明条件に対して先だって計算した露光過多持続時間に基づいて捕捉する露光過多画像であるが、他方の画像は、現在の照明条件に対して先だって計算した露光不足持続時間に基づいて捕捉する露光不足画像である。異なる実施形態において、画像捕捉モジュールは、異なる順序で露光過多画像及び露光不足画像を捕捉する(例えば、最初に露光過多画像を捕捉する実施形態もあれば、最初に露光不足画像を捕捉する実施形態もある)。
露光過多画像及び露光不足画像を捕捉することに加えて、画像捕捉モジュールは、正常露光持続時間で先に捕捉してフレームバッファに記憶した画像の検索もする。このモジュールは、画像処理モジュールに3つの画像の各々を供給する。一部の実施形態において、画像捕捉モジュールは、カメラが画像を捕捉した色空間に3つの画像を供給する。例えば、一部の実施形態の画像捕捉モジュールは、画像を捕捉してY’CbCr(ルマ、青色色度、及び赤色色度)色空間にこれらの画像を供給する。一部の実施形態は、様々な画像編集作動を行う前にYCbCr(ルミナンス、青色色度、赤色色度)画像にカメラのY’CbCr(ルマ)画像を逆ガンマ補正し、次に、Y’CbCr(ルマ)画像に得られるYCbCr(ルミナンス)画像をガンマ補正する。
画像処理モジュールは、次に、2つの作動を提供する。第1の作動は、カメラが3つの画像を捕捉する時間中に移動することがあり得るので3つの画像の全てを互いとのアラインメントである。実施形態が異なれば、このアラインメントを違った方法で行う。例えば、2つの画像を整列させるために、一部の実施形態は、2つの画像において適合する特徴を識別しようとする階層的検索を提供する。適合する特徴を識別するために、一部の実施形態は、2つの画像のルマ成分(例えば、Y’CbCr色空間のY’チャンネル成分)のみを調べる。画像のルマ成分は、本明細書で「ルマ画像」又は「画像」と呼ぶことがある。2つのルマ画像は、数対のルマ画像が識別されるまで各方向で数回(例えば、6回)特定の係数(例えば、2)により間引かれる。各対のルマ画像は、検索階層において異なるレベルで検索を行うのに使用される。各レベルで、ビットマップが各ルマ画像に対して生成される(例えば、そのレベルのルマ中心値を使用して中心値よりも大きいか又は下回るかに基づいて1又は0にピクセル値を生成することにより)。
各レベルで、少なくとも1つのビットマップは、いくつかのタイルに分割され、各タイルは、いくつかのピクセルを包含する。タイルを使用し、他のビットマップにおいて対応する適合するタイルを識別し、それによって2つのビットマップ間のオフセットを識別する。一部の実施形態において、タイルの一部は、それらのタイルが白色ピクセルのみ、黒色ピクセルのみを含むか、タイルが白色ピクセルの閾値よりも小さい時又は黒色ピクセルの閾値よりも小さい時に廃棄される。これらのタイルは、他のタイルと適合するのに使用することができる十分な数の特徴(例えば、エッジ)を有していないタイルである。これらのタイルは、タイルを比較してそれによってビットマップの2対間のオフセットを識別する処理を迅速化するために廃棄される。
残りのタイルに基づいて、2つのビットマップは、階層の現在の分解能レベルで2つのビットマップを最良に整列させるオフセットを識別するために様々な異なるオフセットで比較される。階層の現在の分解能レベルが階層の最高分解能レベルでなかった場合に、一部の実施形態の画像処理モジュールは、階層の現在の分解能レベルに対して計算されたオフセットを階層の次のレベルでの検索の開始点として使用する。この次のレベルにおいて、モジュールは、再び、階層のそのレベルに対して2つの異なるルマ画像に対する2つのビットマップを生成し、次に、検索の指定の開始点で始まるオフセットを検索する。
2つの画像のルマ成分の階層的な比較において、階層の最高レベルで識別されるオフセットは、2つの画像間のオフセットである。画像処理モジュールが1つの画像(例えば、規則正しく露光された画像)と他の画像(例えば、露光過多画像及び露光不足画像)の各々の間のこのオフセットを判断すると、これらのオフセットを使用して3つの画像を整列させる。例えば、一部の実施形態において、2つのオフセットを使用して、全てが同じ場面の重なり合う部分のみを含むようにこれらの3つの画像を切り取る。代替的に、3つの画像の全てを切り取る代わりに、一部の実施形態は、露光過多画像及び露光不足画像を切り取るだけであり、切り取られるこれらの画像の部分に対して、正常露光画像からのデータを使用して合成HDR画像を生成する。また、画像を切り取る代わりに、他の実施形態は、画像内の重なりなしの区域に対処するために、他の作動を使用することがあり得る(例えば、画像の結合を識別することがあり得る)。一部の実施形態は、エッジピクセルを切り取らず、その代わりに反復する。エッジピクセルを反復すると、画像間のオフセットが通常は小さいので満足できる結果が得られる。
また、色度は、通常はY’CbCr4:2:2又は4:2:0フォーマットである。これは、色度のサンプリングがルマと異なることを意味する。4:2:2において、色度は、ルマの水平サイズの半分であり、一方、4:2:0において、色度は、水平サイズの半分、及びルマの垂直のサイズの半分である。従って、画像を整列させる時に、一部の実施形態は、このフォーマットに基づいて色度のベクトルを調節する。
画像を整列させた後に、画像処理モジュールは、第2の作動を提供し、第2の作動は、合成HDR画像を生成するための3つの整列した画像の合成である。異なる実施形態において、画像処理モジュールは、異なる技術を使用して3つの画像を合成する。例えば、一部の実施形態は、これらの画像のルマチャンネルに対して、これらの画像の色度チャンネルとは異なる組の作動を行うことによって3つの画像を合成する。また、HDR合成画像を生成することにおいて、一部の実施形態は、値の望ましい範囲よりも大きいルマ値及び色度値を生成することがあり得る。従って、HDR画像を生成している間、一部の実施形態は、同時にスケーリング作動を行って、確実にHDR画像のルマ及び色度値が望ましい範囲で生成されるようにする。
当業者は、画像捕捉及び処理作動を上述したものと異なる方法で実行することができると認識するであろう。例えば、フレームバッファから1つの正常露光画像のみを戻す代わりに、一部の実施形態の画像捕捉モジュールは、画像処理モジュールにいくつかの正常露光画像を戻す。この群から、画像処理モジュールは、次に、最も鮮明であって捕捉された露光過多画像及び露光不足画像に最良に適合する正常露光画像を選択する。代替的に、一部の実施形態において、画像捕捉モジュールは、1つの正常露光画像のみを戻すが、確実にこの戻された画像がぼけない(すなわち、鮮明である)ようにしようとする。異なる実施形態において、画像捕捉モジュールは、異なる方法で画像が確実に鮮明であるようにしようとする。例えば、デバイスが加速度計及び/又はジャイロを有する一部の実施形態において、画像捕捉モジュールは、加速度計及び/又はジャイロから記録されたデータを使用して、鮮明である正常露光画像を選択するために正常露光画像のぼけの可能性を確認する。代替的に、一部の実施形態において、フレームバッファから正常露光画像を使用するのではなく、HDR指令を受信した後に、モバイルデバイスは、通常の露光での1つ又はそれよりも多くの画像、並びに露光過多画像及び露光不足画像を撮る。一部のこのような実施形態において、画像処理モジュールは、合成HDR画像の生成に使用する正常露光画像(例えば、最も鮮明なもの、最後のものなど)の1つを選択する。
以上の「課題を解決するための手段」は、本発明の一部の実施形態の短い導入部として機能することを意図している。それは、本明細書に開示する全て本発明の主題の紹介又は概要であることを意味しない。以下の「発明を実施するための形態」及び「発明を実施するための形態」で言及する図面では、「課題を解決するための手段」に説明する実施形態、並びに他の実施形態を更に説明する。従って、本明細書により説明する全ての実施形態を理解するためには、「課題を解決するための手段」、「発明を実施するための形態」、及び図面の完全な考察が必要である。更に、主張する主題は、「課題を解決するための手段」、「発明を実施するための形態」、及び図面における例示的な詳細によって限定すべきではなく、特許請求の範囲によって定めるべきであり、その理由は、主張する主題は、主題の精神から逸脱することなく他の特定の形態で実施することができるからである。
高ダイナミックレンジを有する画像を捕捉及び生成するモバイルデバイスを示す図である。 一部の実施形態のモバイルデバイスにおける高ダイナミックレンジ(HDR)モードの呼出し及びこのモードにおいてHDR画像の撮影を示す図である。 一部の実施形態のモバイルデバイスにおける高ダイナミックレンジ(HDR)モード呼出し中のプレビュー画像の表示及びこのモードでのHDR画像の撮影を示す図である。 一部の実施形態のモバイルデバイスのソフトウエアアーキテクチャを概念的に示す図である。 HDR画像捕捉セッション中の画像処理モジュールの作動を示す図である。 本発明の一部の実施形態の画像捕捉モジュールを示す図である。 本発明の一部の他の実施形態の画像捕捉モジュールを示す図である。 HDR画像捕捉セッション中の画像捕捉モジュールの一連の作動を概念的に表す処理を示す図である。 画像を整列させる一連のビットマップを生成する一部の実施形態の処理を示す図である。 一部の実施形態の間引き画像から製造されたビットマップの例を示す図である。 2つの画像を整列させるオフセットベクトルを判断する一部の実施形態の処理を示す図である。 2つのビットマップを整列させるオフセットベクトルを判断する処理を示す図である。 最終オフセットベクトルの判断の例を示す図である。 同じ場面の3つの異なる露光のルマチャンネル画像を合成して得られる合成画像の様々なルマ値を調節する処理を示す図である。 特定の場面に合成処理を行う例を示す図である。 別々の画像からマスクを生成している間に合成処理を実行する例を示す図である。 色度チャンネル画像を合成する一部の実施形態の処理を示す図である。 一部の実施形態において色度チャンネル画像を合成する例を示す図である。 一部の実施形態のモバイルコンピュータデバイス1600の例の図である。 タッチI/Oデバイスの図である。
本発明の以下の詳細説明において、本発明の多くの詳細、実施例、及び実施形態を定めると共に説明する。しかし、本発明は、定める実施形態に限定されず、かつ本発明は、説明する特定の詳細及び実施例の一部がなくても実施することができることが当業者には明確かつ明らかであろう。
本発明の一部の実施形態は、高ダイナミックレンジで画像を捕捉及び生成するモバイルデバイスを提供する。図1は、1つのこのようなモバイルデバイス100を示している。このモバイルデバイスは、カメラ、移動電話、スマートフォン、携帯情報端末(PDA)、タブレットパーソナルコンピュータ(iPad(登録商標)のような)、ラップトップ、又はあらゆる他のタイプのモバイルコンピュータデバイスとすることができる。図1は、高ダイナミックレンジを有する場面のデジタル画像を捕捉するモバイルデバイス100を示している。この場面において、人が、天気のよい日に窓の前に立っており、一方、背景には、車が運転されている。
図1は、モバイルデバイス100が、3つの異なる露光設定で捕捉される3つの画像135、140、及び145を捕捉、整列、及び合成することによって高ダイナミックレンジ画像180を生成することも示している。この図に示すように、モバイルデバイス100は、画像捕捉モジュール105及び画像処理モジュール110を含み、画像捕捉モジュール105及び画像処理モジュール110は、モバイルデバイスが高ダイナミックレンジ画像を捕捉及び生成することを可能にする作動を提供する。一部の実施形態において、モバイルデバイスは、(1)画像捕捉モジュールに異なる画像露光持続時間に一連の画像を迅速に捕捉させ、かつ(2)その画像処理モジュールにこれらの画像を合成してHDR画像を生成させることによって高ダイナミックレンジ(HDR)画像を生成する。本明細書の説明は、3つの画像を含むが、当業者は、一部の実施形態は、3つよりも多い画像を使用する(例えば、一部の実施形態は、非常に露光過多と、露光過多と、通常と、露光不足と、非常に露光不足との5つの画像を使用する)ことを認識するであろう。一部の実施形態は、様々な条件下で様々な数の画像を使用する。
一連の画像を迅速に捕捉するために、一部の実施形態の画像捕捉モジュールは、カメラが高ダイナミックレンジ(HDR)モードに入った時に、2つのアクションを取る。第1に、特定のフレーム率で画像を捕捉し始める。一部の実施形態において、フレーム率は、約15フレーム/秒(fp)である。他の実施形態において、初期フレーム率は、照明条件が異なれば異なる(例えば、通常の照明状態に対しては15fp、より暗い状態に対しては10fpのような)。このフレーム率により、カメラは、現在の照明条件に対して通常の露光設定で画像を捕捉することができる(すなわち、カメラは、画像捕捉モジュールが現在の照明条件に対して正常露光持続時間として計算される露光持続時間に各画像を捕捉する)。画像捕捉モジュールは、デバイスのフレームバッファ(図示せず)内に特定のフレーム率で捕捉する各画像を記憶する。一部の実施形態において、捕捉モジュールは、バッファが最大記憶容量に到達した時にモジュールが後に記憶したフレームの前に先に記憶したフレームを削除することを可能にする回状式にこのフレームバッファに書き込む。
カメラが画像を捕捉している照明条件(現在の照明条件と以下で呼ぶ)に対して、画像捕捉モジュールは、露光不足画像及び露光過多画像を捕捉する露光持続時間を計算する。例えば、一部の実施形態は、デバイスが特定のフレーム率で捕捉している正常露光画像のヒストグラムに基づいて、露光過多画像及び露光不足画像の持続時間を計算する。例えば、正常露光画像が多くの飽和状態のピクセルを有する場合に、露光過多画像の持続時間は、正常露光画像がより少ない飽和状態のピクセルを有する場合よりも小さい正常露光持続時間の倍数に設定される。
デバイスがHDRモードに入った後に、HDR画像を撮る(例えば、リモートユーザ又はタイマなどにより、デバイス上のタイマにより、デバイスのユーザにより)ようにデバイスに指示することができる。デバイスがHDR画像を撮るように指示された時に、一部の実施形態の画像捕捉モジュールは、迅速に連続して2つの画像を捕捉する。一方の画像は、現在の照明条件に対して先だって計算した露光過多持続時間に基づいて捕捉する露光過多画像であり、一方、他方の画像は、現在の照明条件に対して先だって計算した露光不足持続時間に基づいて捕捉する露光不足画像である。異なる実施形態において、画像捕捉モジュールは、異なる順序で露光過多画像及び露光不足画像を捕捉する(例えば、一部の実施形態は、最初に露光過多画像を捕捉し、一方、他の実施形態は、最初に露光不足画像を捕捉する)。
露光過多画像及び露光不足画像を捕捉することに加えて、画像捕捉モジュールは、正常露光持続時間に先に捕捉してフレームバッファに記憶した画像(例えば、HDR捕捉指令の前に撮られたごく最近の画像)の検索もする。このモジュール105は、画像処理モジュール110に3つの画像の各々を供給する。図1は、画像捕捉モジュール105の出力での露光過多画像135、正常露光画像140、及び露光不足画像145としてこれらの3つの画像を示している。一部の実施形態において、画像捕捉モジュールは、カメラが画像を捕捉した色空間に3つの画像を供給する。例えば、一部の実施形態の画像捕捉モジュールは、画像を捕捉してY’CbCr色空間にこれらの画像を供給する。
以上の説明は、HDR捕捉指令が受信される前に正常露光持続時間に複数の画像を撮る段階、及びHDR捕捉指令を受信した後に露光過多画像及び露光不足画像を撮る段階を含む。しかし、一部の実施形態において、複数の露光不足画像は、HDR捕捉指令が受信される前に撮られ、正常露光画像及び露光過多画像は、HDR捕捉指令が受信される後に撮られる。更に、一部の実施形態において、複数の露光過多画像が、HDR捕捉指令が受信される前に撮られ、正常露光画像及び露光不足画像は、HDR捕捉指令が受信される後に撮られる。
図1に示すように、一部の実施形態内の画像処理モジュール110は、(1)受信する3つの画像を整列させるためのアラインメントモジュール115及び(2)HDR画像180を生成するために受信する3つの画像を合成する合成モジュール120を含む。アラインメントモジュールは、カメラが3つの画像を捕捉した時間中に移動することがあり得るので3つの画像の全てを互いに整列させる。
図1に更に示すように、一部の実施形態内のアラインメントモジュール115は、(1)整列させるために画像を比較する検索モジュール125、及び(2)画像間に重なる区域のみを含むように整列させた画像の1つ又はそれよりも多くを切り取るトリミングモジュール130を含む。2つの画像を整列させるために、検索モジュール125は、2つの画像において適合する特徴を識別しようとする検索を提供する。これを行うために、一部の実施形態は、2つの画像のルマ成分(例えば、Y’CbCr色空間のY’チャンネル成分)のみを調べる。
一部の実施形態において、検索モジュール125は、数対のルマ画像が識別されるまで各方向で数回(例えば、6回)特定の係数(例えば、2)により2つのルマ画像を間引く階層的検索を提供する。各対のルマ画像は、検索階層において異なるレベルで検索を行うのに使用される。各レベルで、ビットマップが各ルマ画像に対して生成される(例えば、そのレベルのルマ中心値を使用して中心値よりも大きいか又は下回るかに基づいて、1又は0にピクセル値を生成することにより)。
各レベルで、検索モジュールは、少なくとも1つのビットマップをいくつかのタイルに分割し、各タイルは、いくつかのピクセルを包含する。モジュールは、タイルを使用し、他のビットマップにおいて対応する適合するタイルを識別し、それによって2つのビットマップ間のオフセットを識別する。一部の実施形態において、検索モジュールは、タイルが白色ピクセルのみ、黒色ピクセルのみを含むか、タイルが白色ピクセルの閾値よりも小さいか又は黒色ピクセルの閾値よりも小さい時にタイルの一部を廃棄する。これらのタイルは、他のタイルと適合するのに使用することができる十分な数の特徴(例えば、エッジ)を有していないタイルである。これらのタイルは、タイルを比較してそれによってビットマップの2対間のオフセットを識別する処理を迅速化するために廃棄される。
検索モジュールは、残りのタイルに基づいて、階層の現在の分解能レベルで2つのビットマップを最良に整列させるオフセットを識別するために様々な異なるオフセットで2つのビットマップを比較する。階層の現在の分解能レベルが階層の最高分解能レベルでなかった場合に、検索モジュールは、階層の現在の分解能レベルに対して計算されたオフセットを階層の次のレベルでの検索の開始点として使用する。この次のレベルにおいて、モジュールは、再び、階層のそのレベルに対して2つの異なるルマ画像に対する2つのビットマップを生成し、次に、検索の指定の開始点で始まるオフセットを検索する。
2つの画像のルマ成分の階層的な比較において、階層の最高レベルで識別されるオフセットは、2つの画像間のオフセットである。検索モジュール125が2対の画像を階層的検索を完了した状態で、全ての3つの画像が整列するように画像のうちの2つの平行移動を定める2つのオフセットを識別する。図1に示す例では、一部の実施形態内の探索モジュールは、露光不足/露光過多画像のルマ成分を規則正しく露光された画像のルマ成分と比較する。この比較により、2つのオフセットが識別され、一方は、露光不足ルマ画像と正常露光画像の間の平行移動を定め、他方は、露光過多ルマ画像と正常露光画像間の平行移動を定める。これらの2つのオフセットにより、3つのルマ画像150、155、及び160において適合する区域を識別する図1の破線によって示すように、3つの画像が整列させることができる方法が識別される。
検索モジュールが1つの画像(例えば、規則正しく露光された画像)と他の画像(例えば、露光過多画像及び露光不足画像)の各々との間にこのオフセットを判断した状態で、トリミングモジュール130は、これらのオフセットを使用して3つの画像をトリミングする。具体的には、一部の実施形態において、2つのオフセットを使用して、全てが同じ場面の重なり合う部分のみを含むようにこれらの3つの画像を切り取る。図1は、切り取られた整列した画像165、170、及び175を示すことによってこの切取り結果を示している。全ての3つの画像を切り取る代わりに、一部の実施形態は、露光過多画像及び露光不足画像のみを切り取り、切り取られるこれらの画像の部分に対して、正常露光画像からのデータを使用して合成HDR画像を生成する。代替的に、画像を切り取る代わりに、他の実施形態は、画像内の重なりなしの区域に対処するために他の作動を使用することがあり得る(例えば、画像の結合を識別することがあり得る)。一部の実施形態は、エッジピクセルを切り取らず、その代わりに反復する。エッジピクセルを反復すると、画像間のオフセットが通常は小さいので満足できる結果が得られる。
また、色度は、通常はY’CbCr4:2:2又は4:2:0フォーマットである。これは、色度のサンプリングがルマと異なることを意味する。4:2:2において、色度は、ルマの水平サイズの半分であり、一方、4:2:0において、色度は、水平サイズの半分、及びルマの垂直のサイズの半分である。従って、画像を整列させる時に、一部の実施形態は、このフォーマットに基づいて色度のベクトルを調節する。
この図に示すように、合成モジュール120は、切り取られた整列した画像を受信し、次に、切り取られた整列した画像を合成して合成HDR画像180を生成する。異なる実施形態において、合成モジュールは、異なる技術を使用して3つの画像を合成する。例えば、一部の実施形態は、これらの画像のルマチャンネルに対して、これらの画像の色度チャンネルとは異なる組の作動を行うことによって3つの画像を合成する。また、HDR合成画像を生成することにおいて、一部の実施形態は、値の望ましい範囲よりも大きいルマ値及び色度値を生成することがあり得る。従って、HDR画像を生成している間、一部の実施形態の合成モジュール120は、同時にスケーリング作動を行って、確実にHDR画像のルマ及び色度値が望ましい範囲で生成されるようにする。
当業者は、画像捕捉及び処理作動を上述したものと異なる方法で実行することができると認識するであろう。例えば、フレームバッファに1つの正常露光画像のみ(例えば、ごく最近の画像)を戻す代わりに、一部の実施形態の画像捕捉モジュールは、画像処理モジュールにいくつかの正常露光画像を戻す。この群から、画像処理モジュールは、次に、最も鮮明であり、及び/又は捕捉された露光過多画像及び露光不足画像に最良に適合する正常露光画像を選択する。代替的に、一部の実施形態において、画像捕捉モジュールは、1つの正常露光画像のみを戻すが、確実にこの戻された画像がぼけない(すなわち、鮮明である)ようにしようとする。異なる実施形態において、画像捕捉モジュールは、異なる方法で画像が確実に鮮明であるようにしようとする。例えば、デバイスが加速度計及び/又はジャイロを有する一部の実施形態において、画像捕捉モジュールは、加速度計及び/又はジャイロから記録されたデータを使用して、正常露光画像のぼけの可能性を確認する(例えば、1つ又はそれよりも多くの動きに関連の属性を定量化する)。鮮明である正常露光画像を選択するために、一部の実施形態において、画像捕捉モジュールは、ぼける可能性がない(例えば、特定の動き閾値未満である動きに関連の属性を有する)ごく最近の画像を選択する。動き検出センサを使用する代わりに又はそれに加えて、一部の実施形態は、デジタル信号加工技術を使用して各画像の周波数成分を判断することによって複数の画像のうちのどれが最も鮮明かを判断する。このような実施形態において、最も高い周波数成分を有する画像が最も鮮明な画像と識別される。
代替的に、一部の実施形態において、フレームバッファからの正常露光画像を使用するのではなく、HDR指令を受信した後に、モバイルデバイスは、通常の露光での1つ又はそれよりも多くの画像、並びに露光過多画像及び露光不足画像を撮る。一部のこのような実施形態において、画像処理モジュールは、合成HDR画像の生成に使用する正常露光画像(例えば、最も鮮明なもの、最後のものなど)の1つを選択する。
本発明のいくつかのより詳細な実施形態を以下に説明する。第I節では、一部の実施形態のユーザインタフェースがどのようにしてユーザがHDRモードを呼び出してHDR画像を捕捉することを可能にするかを説明する。次に、第II節は、メディアデバイスがHDR画像を捕捉及び処理するために一部の実施形態に使用するソフトウエアアーキテクチャを説明する。次に、第III節では、一部の実施形態のモバイルデバイスの画像捕捉モジュールを更に説明する。次に、第IV節では、一部の実施形態においてモバイルデバイスの画像処理モジュールの画像アラインメント処理を説明する。次に、第V節では、一部の実施形態におけるモバイルデバイスの画像処理モジュールの画像合成処理を説明する。最後に、第VI節では、一部の実施形態のモバイルデバイスのシステムアーキテクチャを説明する。
I.HDRモードの呼出し及びHDR捕捉
一部の実施形態において、HDRモードは、モバイルデバイスのユーザインタフェース(UI)における選択によって示される。図2Aは、一部の実施形態のモバイルデバイス200におけるHDRモードの呼出し及びこのモード中でのHDR画像の撮影を示している。この図は、デバイス200のユーザインタフェースの6つの段階245、250、255、257、260、及び265でこれらの作動を示している。
図2Aに示すように、モバイルデバイス200は、表示区域220、画像捕捉UI品目215、及びフラッシュUI品目210を含む。一部の実施形態における表示区域220は、モバイルデバイスがカメラとして作動するモードになった時にモバイルデバイスのセンサにより捕捉された場面の画像を表示する。画像捕捉UT品目215は、ユーザにより選択されると、モバイルデバイスに1つ又はそれよりも多くの画像を捕捉するように指示するユーザが選択可能な品目である。
一部の実施形態において、モバイルデバイスは、カメラのためのフラッシュを含む。従って、これらの実施形態において、フラッシュUI品目210により、ユーザは、フラッシュの電源を投入又は切断することができる。更に以下に説明するように、フラッシュUI品目210により、ユーザは、モバイルデバイスのカメラをHDRモードにすることができる。
HDR画像を捕捉する際のモバイルデバイス200の作動をここで説明する。第1の段階245は、デバイスが画像捕捉モードになった後のモバイルデバイスのユーザインタフェースを示している。一部の実施形態において、ユーザは、表示区域220内に表示されたカメラアイコンを選択することにより、デバイスをこのモードに置くことができる。一部の実施形態において、デバイスがカメラモードに入る時に、デバイスは、画像を捕捉し、そのフレームバッファ内にこれらの画像を一時的に記憶し、かつ表示区域220にこれらの画像を表示することを開始する。しかし、フラッシュ品目210及び表示されるUI品目及び行われる作動のシーケンスを強調表示するために、図2Aの第1〜第4の段階245〜257では、表示区域220内で一時的に表示された画像のいずれも表示しない。
第2の段階250は、フラッシュUI品目210を選択するユーザを示している。図2Aに示すように、ユーザは、フラッシュ品目210の位置でデバイスのタッチスクリーン表示区域に触れる(例えば、指225で)ことによってこの選択を行うことができる。ユーザは、一部の実施形態では、他のUI選択技術を通じてこの品目を選択することができる。
第3の段階255は、フラッシュ品目210の選択により結果としてフラッシュメニュー230の表示が行われることを示している。このメニューには、フラッシュに電源を投入する選択可能なUI品目280、フラッシュの電源を切断する選択可能なUI品目285、自動フラッシュモードにフラッシュを設定する選択可能なUI品目290、及びHDR画像捕捉モードをオンにする選択可能なUI品目235がある。選択可能なHDR−モード品目235は、図2Aのフラッシュメニュー230の一部であると一部の実施形態に対して示されたが、当業者は、この品目235は、一部の実施形態ではデバイスのUIにおいて異なる配置を有することを認識するであろう。
第4の段階257は、HDRモード選択品目235のユーザの選択を示している。モバイルデバイスのディスプレイタッチスクリーン上でこの品目の位置を触れる(例えば、指240で)ことによってこの選択を提供する。一部の実施形態において、ユーザは、他のUI選択技術を通じてこの品目を選択することができる。
第5の段階260は、ユーザがモバイルデバイスのディスプレイタッチスクリーン上でこの品目の位置に触れる(例えば、指270で)ことによって画像捕捉品目215を選択することを示している。表示区域内の他の選択可能な品目の場合と同様に、ユーザは、一部の実施形態では、他のUI選択技術を通じて画像捕捉品目を選択することができる。品目215の選択により、デバイスは、ユーザが表示区域220内で見ているHDR場面(天気のよい日に窓の前に立っている人の)のHDR画像を捕捉する。ここでもまた、HDRモードに入って画像−捕捉品目の選択を受信する前でさえも、表示区域は、プレビュー画像262のようなカメラモードに入った時にカメラが一時的かつ反復的に捕捉する一時的な画像を表示する。しかし、上述のように、これらの一時的に表示された画像は、UI品目の表示及び様々なUI品目の選択を不明瞭にしないように図2Aの段階245〜257では示されない。
第6の段階265は、カメラが捕捉して画像−捕捉品目215の選択で記憶するHDR画像267を示している。一部の実施形態内のこの画像は、画像捕捉モジュールに連続して異なる露光でいくつかの画像を捕捉させて画像合成モジュールにこれらの画像を合成させた後にデバイスが生成する画像が処理されたデジタル画像である。一部の実施形態において、HDR画像267は、プレビュー画像262内では見えない詳細を含む。例えば、HDR画像267は、鳥275を含む。
上述のように、プレビュー画像262は、UI品目及びその選択の表示を不明瞭にしないように図2Aのディスプレイでは示されていない。従って、図2Bは、図2Aに関して説明するHDR捕捉作動の段階中のプレビュー画像262の表示を示している。
II.ソフトウエアアーキテクチャ
図3は、一部の実施形態のモバイルデバイスのソフトウエアアーキテクチャ300を概念的に示している。一部の実施形態において、このデバイスは、HDR場面の画像を捕捉することができ、これらの画像を処理してHDR画像を生成することができ、かつこれらの画像(例えば、JPEG画像として)を符号化することができる。これらの作動をするために、このデバイスは、図3に示すように、捕捉モジュール(CM)ドライバ305、メディア交換モジュール310、符号化器ドライバ320、及び画像処理モジュール325を含む。
一部の実施形態において、メディア交換モジュール310は、メディアコンテンツの消費者及び製作者であるデバイス上のプログラムがメディアコンテンツの処理に関し、メディアコンテンツ及び命令を交換することを可能にする。従って、一部の実施形態において、メディア交換モジュール310は、画像処理モジュール325とCMドライバ305間に、及び画像処理モジュール325と符号化器ドライバ320間に命令及びメディアコンテンツを経路指定する。このような命令及びメディアコンテンツの経路指定を容易にするために、一部の実施形態のメディア交換モジュール310は、メディアコンテンツの消費者及び製作者を使用する1組のアプリケーションプログラミングインタフェース(API)を供給する。一部のこのような実施形態において、メディア交換モジュール310は、モバイルデバイス上で実行中であるオペレーティングシステムの一部である1つ又はそれよりも多くのフレームワークの組である。このようなメディア交換モジュール310の1つの例は、アップル・インコーポレーテッドによって供給される「コア・メディア」フレームワークである。
画像処理モジュール325は、デバイスのカメラにより捕捉された画像に画像処理を提供する。このような作動の例には、露光調節作動、焦点調節作動、パースペクティブ補正、画像サイズ変更などが含まれる。これらの作動に加えて、画像処理モジュール325は、HDR画像処理作動を提供する。具体的には、一部の実施形態において、モジュール325は、図1のHDR画像処理モジュール110を含む。このモジュール110と共に、モジュール325は、図1を参照して上述したアラインメント作動及び合成作動をすることを提供する。
メディア交換モジュール310を通じて、画像処理モジュール325は、上述のように、CMドライバ305及び符号化器ドライバ320とインタフェースで接続する。CMドライバ305は、画像捕捉モジュール(ICM)330とメディア交換モジュール310間の通信インタフェースとして機能する。ICM330は、HDR画像を生成するのに必要である異なる分解能で一連の画像を捕捉することを担うモバイルデバイスの構成要素である。
メディア交換モジュール310を通じて画像処理モジュール325から、CMドライバ305は、デバイスがHDRモードに入り、かつHDR画像捕捉要求が行われたという指示を受信する。CMドライバ305はICM330にこのような要求を中継し、これに応答し、HDR画像を生成する必要な異なる分解能の1組の画像を受信する。CMドライバ305は、次に、メディア交換モジュール310を通じて、画像処理モジュール325にこれらの画像を送る。
符号化器ドライバ320は、メディア交換モジュール310と符号化器ハードウエア335間の通信インタフェース(例えば、符号化器チップ、システム・オン・チップ上の符号化構成要素のような)として機能する。一部の実施形態において、符号化器ドライバ320は、メディア交換モジュール310を通じて、画像(例えば、生成されたHDR画像)及び画像処理モジュール325からの画像を符号化する要求を受信する。符号化器ドライバ320は、符号化すべき画像を符号化器335に送り、符号化器335は、次に、画像に画像符号化(例えば、JPEG符号化)を提供する。符号化器ドライバ320が符号化器335から符号化された画像を受信した時に、符号化器ドライバ320は、メディア交換モジュール310を通じて画像処理モジュール325に符号化された画像を送り返す。
一部の実施形態において、画像処理モジュール325は、符号化器から受信する符号化された画像に異なる作動を行うことができる。このような作動の例には、符号化された画像をデバイスのストレージに記憶すること、別のデバイスにデバイスのネットワークインタフェースを通じて符号化された画像を送信することが含まれる。
一部の実施形態において、モジュール305、310、320、及び325の一部又は全ては、デバイスのオペレーティングシステムの一部である。他の実施形態は、デバイスのオペレーティングシステムの一部として、メディア交換モジュール310、CMドライバ305、及び符号化器ドライバ320を実行し、同時に、オペレーティングシステム上で実行されるアプリケーションとして画像処理モジュール325を有する。モジュール300の更に他の例が可能である。
HDR画像捕捉セッション中の画像処理モジュール325の作動をここで図4を参照して説明する。この図は、画像処理モジュール325が符号化されたHDR画像を生成するために一部の実施形態において行う一連の作動を表す処理400を概念的に示している。デバイスがHDRモードに入る度に(例えば、図2Aに示す例におけるHDR選択品目235の選択で)、画像処理モジュール325は、この処理400を提供する。従って、図4に示すように、画像処理モジュール325は、最初にHDRモードに入る(405で)。
次に、モジュール325は、画像捕捉モジュール330に対してメディア交換モジュール310及びCMドライバ305を通じてHDR画像捕捉モードに入るように指示する(410で)。この指示を受信した時に、画像捕捉モジュール330は、上述して以下で更に説明するように、現在の照明条件下で露光過多画像及び露光不足画像を生成する露光持続時間を計算する。また、この段階で、画像捕捉モジュール330は、正常露光画像を捕捉して一時的にフレームバッファに記憶している。このような画像を捕捉するために、画像捕捉モジュール330は、デバイスがカメラモード作動にある間に反復的に露光持続時間を計算する。
画像捕捉モジュール330にHDRモードに入るように指示した後に、画像処理モジュール325は、HDR画像を捕捉及び生成する指令を受信した(例えば、図2Aに示す例内の画像捕捉品目215の選択で)と画像捕捉モジュール330に指示する(415で)。この指示は、メディア交換モジュール310及びCMドライバ305を通じて画像捕捉モジュール330に中継される。
この指示に応答し、画像捕捉モジュール330は、迅速かつ連続的に、現在の照明条件に対して先だって計算した露光過多持続時間に基づいて捕捉する露光過多画像、及び現在の照明条件に対して先だって計算した露光不足持続時間に基づいて捕捉する露光不足画像を捕捉する。これらの画像に加えて、画像捕捉モジュールは、正常露光持続時間で先に捕捉してフレームバッファに記憶した画像の検索もする。
CMドライバ305及びメディア交換モジュール310を通じて、画像処理モジュール325は、画像捕捉モジュール330から3つの画像の各々を受信する(415で)。一部の実施形態において、画像処理モジュールは、カメラが画像を捕捉した色空間に3つの画像を受信する。例えば、一部の実施形態の画像捕捉モジュール330は、画像を捕捉してY’CbCr色空間にこれらの画像を供給する。
画像処理モジュールは、カメラが3つの画像を捕捉した時間中に移動することがあり得るので3つの画像の全てを互いに整列させる(420で)。上述して以下で更に説明するように、画像処理モジュールは、階層的検索技術を使用し、対で露光過多画像及び露光不足画像を規則正しく露光された画像に整列させる。
画像を整列させた後に、画像処理モジュールは、合成HDR画像を生成するために3つの画像において画像データを合成する(425で)。異なる実施形態において、画像処理モジュールは、異なる技術を使用して3つの画像を合成する。例えば、一部の実施形態は、これらの画像のルマチャンネルに対して、これらの画像の色度チャンネルとは異なる組の作動を行うことによって3つの画像を合成する。また、HDR合成画像を生成することにおいて、一部の実施形態は、値の望ましい範囲よりも大きいルマ値及び色度値を生成することがあり得る。従って、HDR画像を生成している間、一部の実施形態は、同時にスケーリング作動を行って、確実にHDR画像のルマ及び色度値が望ましい範囲で生成されるようにする。
HDR画像を生成した後に、画像処理モジュールは、生成されたHDR画像を表示する(425で)。次に、このモジュールは、符号化器335に(メディア交換モジュール310及び符号化器ドライバ320を通じて)HDR画像を符号化するように指示する(430)。一部の実施形態における符号化器は、この画像を符号化して(例えば、JPEGフォーマットに符号化して)、符号化されたHDR画像を戻す。一部の実施形態における画像処理モジュールは、次に、符号化されたHDR画像をデバイスのストレージ上に記憶する(430で)。一部の実施形態の画像処理モジュールは、符号化されたHDR画像に対して他の作動を行うことができる。例えば、一部の場合には、画像処理モジュールは、デバイスのネットワークインタフェースにより確立されたネットワーク接続を通して、符号化された生成画像を別のデバイスに送信する。
当業者は、処理作動を上述したものと異なる方法で実行することができると認識するであろう。例えば、1つの正常露光画像のみを処理する代わりに、一部の実施形態の画像処理モジュールは、画像捕捉モジュールが戻すいくつかの正常露光画像を調べる。この群から、画像処理モジュールは、最も鮮明であり、及び/又は捕捉された露光過多画像及び露光不足画像に最良に適合する正常露光画像を選択する。代替的に、一部の実施形態において、フレームバッファからの正常露光画像を使用するのではなく、HDR指令を受信した後に、モバイルデバイスは、通常の露光での1つ又はそれよりも多くの画像、並びに露光過多画像及び露光不足画像を撮る。一部のこのような実施形態において、画像処理モジュールは、合成HDR画像の生成に使用する正常露光画像(例えば、最も鮮明なもの、最後のものなど)の1つを選択する。一部の実施形態において、正常露光画像は、フレームバッファからではなくHDR捕捉指令の後に撮られる。
当業者は、フレームバッファから通常の画像を撮り、かつHDR指令を受信した後に通常の画像を撮る各方法は、他のものに勝るいくつかの利点を有することを理解するであろう。HDR捕捉指令アイコンに触れる行為により、モバイルデバイスは、フレームバッファ内の画像が取られた時の位置から離れる。フレームバッファから画像が使用される場合、HDR捕捉指令アイコンに触れることによって引き起こされるモバイルデバイスの移動は、正常露光画像の撮影と露光過多画像及び露光不足画像の撮影との間に発生することになる。代替的に、HDR捕捉指令アイコンが触れられた後に新しい正常露光画像が撮られる場合に、タッチにより引き起こされた移動は、画像の捕捉間にはなく通常の画像が撮られる前に発生することになる。従って、新しい正常露光画像を撮ることにより、3つの露光の捕捉中にデバイスの移動量を低減することができる。画像捕捉中に移動を低減することにより、合成される重なり合う区域が増大する。
上述のように、一部の実施形態は、プレビュー画像としてフレームバッファからの最近の画像を表示して正常露光画像としてプレビュー画像の1つを使用する。フレームバッファから通常の画像を使用する可能な利点は、その画像は、HDR捕捉指令が受信される前に表示されるプレビュー画像により似ることである。フレームバッファから通常の画像を読み取る別の可能な利点は、起動されるHDR指令と表示される合成HDR画像の間の時間を短縮することができる(例えば、正常露光画像の露光時間だけ)という点である。
一部の実施形態は、フレームバッファからの画像ではなく新しく捕捉された通常の露光のものを使用するので、それらの一部の実施形態は、モバイルデバイスがHDRモードである間に、正常露光プレビュー画像を取らずフレームバッファに記憶する。しかし、HDR指令を受信した後に捕捉された正常露光画像を使用する実施形態の間でさえも、一部の実施形態は、依然として、正常露光プレビュー画像を撮って照明条件に関するデータを収集し、どの通常の露光時間を使用すべきか、どの露光値を使用すべきかなどを判断する。
III.画像捕捉モジュール
図5Aは、本発明の一部の実施形態の画像捕捉モジュール330を示している。画像処理モジュール325の指示で、画像捕捉モジュール330は、デバイスカメラに画像を捕捉するように指示する。例えば、上述のように、一部の実施形態内の画像捕捉モジュール330は、カメラに、デバイスがカメラ作動モードに入った時に特定のフレーム率で正常露光画像を捕捉し始めるように指示する。また、デバイスがHDRモードに入った時に、モジュール330は、露光過多画像及び露光不足画像を撮る露光持続時間を計算することにより、HDRモードに入る(画像処理モジュール325の指示で)。次に、それがHDRモードにある間にそれが画像捕捉指令を受信した時に、一部の実施形態における画像捕捉モジュール330は、(1)2つの連続した画像を1つを露光過多持続時間にかつ1つを露光不足続時間に撮り、(2)フレームバッファからの1つ又はそれよりも多くの正常露光画像と共にこれらの2つの画像を戻す。
図5Aに示すように、画像捕捉モジュール330は、センサモジュール515、フレームバッファ520、画像処理パイプライン525、統計値エンジン530、及びコントローラモジュール535を含む。一部の実施形態において、画像捕捉モジュール330のモジュールの全ては、ハードウエア(例えば、ASTC、FPGA、マイクロコントローラによるSOCのような)に実施され、一方、他の実施形態において、画像捕捉モジュール330のモジュールの一部又は全ては、ソフトウエアに実施される。
センサモジュール515は、デバイスのカメラのセンサインタフェース510とカメラセンサ505とに通信的に結合する。一部の実施形態において、カメラセンサ505は、CMOSセンサであり、センサインタフェース10は、カメラセンサ505の一部である。センサモジュールとカメラセンサ/センサインタフェース間の通信的な結合は、あらゆる数の公知のセンサインタフェースを通じて容易にされる。この通信的な結合を通じて、センサモジュール515は、電力レベル、ズームレベル、焦点、露光レベルのようなカメラの作動の様々な態様を制御する指示をカメラに転送することができる。一部の実施形態において、これらの指示は、通常はコントローラモジュール535から生じる。また、カメラとの通信的な結合を通じて、センサモジュール515は、更に以下に説明するように、画像処理モジュール325がカメラに画像の捕捉を開始するように要求し、センサモジュール515がコントローラモジュール535を通じてこの要求を受信した時に画像の捕捉を開始するようにカメラセンサに指示することができる。
一部の実施形態において、バイエルフィルタは、カメラセンサ上に重畳され、従って、カメラセンサは、バイエルパターン画像を出力し、バイエルパターン画像は、カメラセンサに関連のセンサインタフェースに記憶される。バイエルパターン画像は、各ピクセルが1つの色値、すなわち、赤色、青色、又は緑色のみを記憶する画像である。センサインタフェース510との結合を通じて、センサモジュール515は、カメラセンサインタフェース510に記憶された生バイエルパターン画像を検索する。センサモジュール515がカメラのセンサインタフェースから画像を検索する速度を制御することにより、センサモジュール515は、特定のカメラにより捕捉された画像のフレーム率を制御することができる。
センサモジュール515は、フレームバッファ520内のセンサインタフェース510からそれが検索する画像を記憶する。フレームバッファ520に記憶された画像は、生の又は未処理の画像である。画像処理モジュール325がこれらの画像を処理することができる前に、画像捕捉モジュール330の画像処理パイプライン525は、これらの画像にいくつかの前処理作動を行う必要がある。実施形態が異なれば、行う前処理の作動の組も異なる。例えば、一部の実施形態において、画像処理パイプライン525は、バイエルパターン画像内の各組の色に対して色値を補間することによってフレームバッファ520に記憶されたバイエルパターン画像から赤色、緑色、青色(RGB)画像を再現する間引きモジュール(図示せず)を含む。また、一部の実施形態の画像処理パイプライン525は、Y’CbCr画像にRGB画像を変換する色空間変換モジュール(図示せず)を含む。一部の実施形態の画像処理パイプライン525内に含まれる他のモジュールの例には、(1)フレームバッファから検索された画像内の不良ピクセルを補正することを試みる不良ピクセル除去、(2)カメラレンズにより引き起こされた画像欠陥を補正するレンズシェーディング補正、(3)正しく中間色調をレンダリングするために画像の色を調節する白色均衡補正などを行うモジュールがある。本明細書で使用する時に、フォーマット間の変換は、1つのフォーマットの画像からデータを使用して異なるフォーマットで画像を生成することを指す。一部の実施形態において、画像の新バージョンは、旧画像に取って代わり、他の実施形態において、画像の旧バージョン及び新バージョンが保たれる。
統計値エンジン530は、画像処理パイプライン525の様々な段階で画像データを収集する。また、異なる実施形態において、このエンジンは、画像処理パイプライン525の異なる段階とは異なる方法でデータを収集する。統計値エンジン530は、収集されたデータを処理し、処理したデータに基づいて、コントローラモジュール535及びセンサモジュール515を通じてカメラセンサ505の作動を調節する。このような作動の例には、露光及び焦点がある。一部の実施形態において、露光持続時間は、センサ積分時間及びセンサ/捕捉モジュールアナログ/デジタル利得の組合せにより決まる。図5Aは、コントローラモジュール535を通じてカメラセンサ505を制御する統計値エンジン530を示すが、他の実施形態における統計値エンジン530は、センサモジュール515のみを通じてカメラセンサを制御する。また、統計値エンジン530は、コントローラモジュール535と別々であるように示されているが、このエンジンの作動は、コントローラモジュール535により行われる。換言すると、図5Aの統計値エンジンのモジュール分割は、画像捕捉モジュール330により行われる一連の作動の概念化である。
一部の実施形態のコントローラモジュール535は、画像捕捉モジュール330の作動を制御するマイクロコントローラである。例えば、一部の実施形態において、コントローラモジュール535は、センサモジュール15を通じてカメラセンサ505に画像を捕捉するように指示する。また、一部の実施形態において、コントローラモジュール535は、(1)センサモジュール515を通じたカメラセンサの作動(例えば、露光レベル)、(2)画像処理パイプライン525の作動、及び(3)一部の実施形態のモバイルデバイスの一部であるフラッシュ/ストロボ(図示せず)を制御する。コントローラモジュール535から露光設定を受信する代わりに、又はこれらの設定に関連して、一部の実施形態のカメラセンサ505又はセンサモジュール515は、カメラセンサ作動に向けてデフォルト値を使用する。
コントローラモジュール535の一部の実施形態は、統計値エンジン530及び捕捉モジュールドライバ305から受信した指示を処理する。一部の実施形態において、捕捉モジュールドライバ305から受信した指示は、モバイルデバイスからの(すなわち、ローカルデバイスから受信した)指示であり、一方、他の実施形態において、捕捉モジュールドライバ305から受信した指示は、別のデバイスからの指示である。処理された指示に基づいて、コントローラモジュール535は、画像捕捉モジュール330の作動を調節することができる。
図5Bは、本発明の一部の他の実施形態の画像捕捉モジュール330を示している。図5Bでは、センサモジュール515は、直接にカメラセンサ505を制御せず、かつコントローラモジュール535から指令を受信しない。この図では、コントローラモジュール535は、カメラセンサ505を制御する。図5Bでは、センサモジュール515は、ちょうど図5A内のセンサモジュール515がするように、センサインタフェース10からフレームバッファ520にデータを渡す。
図6は、HDR画像捕捉セッション中の画像捕捉モジュール330の一連の作動を概念的に表す処理600を示している。この処理は、デバイスがその画像−捕捉モードに入る度に開始される。図6に示すように、この処理は、最初に特定のデフォルト速度で画像の捕捉を開始する(605で)。捕捉された画像の1つ又はそれよりも多くの1つ又はそれよりも多くの品質(例えば、ヒストグラム又は全体的な光レベル)に基づいて、一部の実施形態におけるコントローラモジュール535は、現在の光条件を検出する(605で)。現在の光条件に基づいて、コントローラモジュールは、正常露光画像(以下、EV0画像と呼ぶ)を捕捉する露光持続時間を定めて(605で)、センサモジュール515にこの露光持続時間を中継する(605で)。他の実施形態において、カメラセンサ505又はセンサモジュール515に関連の制御論理回路は、光条件を検出し、通常の露光(EV0露光と呼ぶ)の露光持続時間を定める。一部の実施形態において、この制御論理回路は、デバイスが作動中である光量を定量化することができる光検出回路を含む。
正常露光持続時間がどこでどのように計算されるかとは無関係に、処理600では、正常露光持続時間で画像の捕捉を開始し、捕捉された画像をフレームバッァに記憶する。一部の実施形態において、処理600は、照明条件が変わる時に正常露光持続時間を識別するために画像捕捉セッション中に正常露光持続時間を反復計算する。
605の後に、コントローラモジュール535は、画像処理モジュール325からCMドライバ305及びメディア交換モジュール310を通じてHDRモード指令を受信したという指示を受信する(610で)。この指令に基づいて、コントローラモジュール535は、現在の照明条件中に露光過多画像及び露光不足画像を撮る(EV+画像及びEV−画像を撮る)露光持続時間を計算する(615で)。一部の実施形態において、コントローラモジュールは、照明条件が変わる時に、露光過多及び露光不足露光持続時間を識別するためにHDR捕捉セッション中に作動615を反復的に行う。
次に、620で、コントローラモジュール535は、画像を取るための命令を受信する。それに応答して、コントローラモジュール535は、センサモジュールに露光過多持続時間で1つの露光過多画像、及び露光不足持続時間で1つの露光不足画像を捕捉するように指令する(625及び630で)。コントローラモジュール535は、次に、画像処理パイプライン525にフレームバッファにおいて1つ又はそれよりも多くのEV0画像と共にフレームバッファから捕捉されたEV+及びEV−画像を取り出すように指令する(635で)。上述のように、画像捕捉モジュールは、EV+画像及びEV−画像に整列させる最良のEV0画像を選択することをモジュール325に可能にするために、一部の実施形態では画像処理モジュール325にいくつかのEV0画像を戻す。代替的に、一部の実施形態において、画像捕捉モジュール330は、1つの正常露光画像のみを戻すが、確実にこの戻された画像がぼけない(すなわち、鮮明である)ようにしようとする。異なる実施形態において、画像捕捉モジュール330は、異なる方法で画像が確実に鮮明であるようにしようとする。例えば、デバイスが加速度計及び/又はジャイロを有する一部の実施形態において、画像捕捉モジュールは、加速度計及び/又はジャイロから記録されたデータを使用して、鮮明である正常露光画像を選択するために正常露光画像のぼけの可能性を確認する。
異なる実施形態において、コントローラモジュール535は、画像処理パイプライン525に異なる方法で露光過多画像、露光不足画像、及び正常露光画像を検索するように指示する(635で)。一部の実施形態において、コントローラモジュール535は、単に露光過多画像及び露光不足画像が捕捉されたと処理パイプライン525に通知し、処理パイプライン525は、フレームバッファ520から正しい画像を検索する。
画像処理パイプライン525は、フレームバッファ520から検索した各画像を前処理する(640で)。画像捕捉モジュール330は、HDR画像生成に向けて画像処理モジュール325に各検索済み及び前処理された画像を戻す(640で)。640の後に、処理は、デバイスがもはやHDR捕捉モードでない場合に終了するか、又は別の「画像を撮る」指令を待機するために620に戻る。
以上の説明は、捕捉された画像を照明条件に関する情報源として識別する。しかし、一部の実施形態において、カメラセンサ505は、画像データを生成することなく、照明条件を判断する。一部の実施形態のモバイルデバイスは、カメラセンサ505の代わりに又はそれに加えて、付加的なセンサを使用して照明条件を判断する。
IV.画像アラインメント
A.序文
モバイルデバイスにより撮られる場面の3つの画像から合成画像を製造するために、場面の特定部分を示す各画像内のピクセルは、場面の同じ部分を示す他の画像の各々におけるピクセルと合成すべきである。画像が撮られている間にモバイルデバイスが移動しなかった場合、各画像内の場面の特定部分を表すピクセルは、画像内では、他の画像の各々において場面の同じ部分を表すピクセルと同じ座標を有する。このような画像はアラインメント済みと特徴付けることができる。しかし、モバイルデバイスが画像を撮る間に移動する場合に、1つの画像内の場面の特定部分を表すピクセルは、他の画像内の場面の同じ部分を表すピクセルと僅かに異なる座標を有する。換言すると、移動中のデバイスにより撮られた画像は、アラインメントから外れていることになる。
画像を合成する前に、一部の実施形態は、画像を合成する前に画像を整列させることによってモバイルデバイスの移動を補正する。すなわち、生の画像が垂直方向及び水平方向で互いからオフセットしているピクセルの数が判断され、従って、モバイルデバイスは、次に、たとえ対応するピクセルが生の画像の各々において同じ座標を有してなくても、場面の同じ部分に対応する各画像からピクセルを結合することができる。2つの画像内の対応するピクセルを整列させるオフセットは、ピクセルで測定されるオフセットベクトルとして特徴付けることができる。
撮られる同じ場面の2つの画像間のオフセットは、画像が撮られる間にモバイルデバイスの回転又は平行移動の動きにより引き起こすことができる。ユーザが一部の実施形態のモバイルデバイスに高ダイナミックレンジ画像を撮るように指令した時に、モバイルデバイスは、各画像の撮影間に時間が殆どなく迅速に連続して3つの画像を撮る。しかし、画像の各々の撮影間の小さい時間にも関わらず、手持ち式モバイルデバイスは、たいがい3つの画像を撮る中に移動する。例えば、HDR画像を撮るように指令するためにモバイルデバイスに触れる行動により、デバイスが移動する可能性がある。モバイルデバイスの移動のために、各画像は、僅かに異なる位置から撮られることになる。位置内の僅かな変化のために、生の画像は、互いにアラインメント状態にはならない。高ダイナミックレンジ処理で異なる露光で撮られる画像を合成することができる前に、画像を整列させる特定のオフセットベクトルを見出すことによって画像を互いに整列させるべきである(例えば、モバイルデバイスにより)。このようなアラインメントは、「レジストレーション」と呼ぶこともある処理の一部である。
画像が別の画像からオフセットしているピクセルの数は、画像を撮っている間にカメラがどれ程度移動するか(平行移動動き及び回転により)、及び画像のスケール(例えば、場面の何センチ又は何度は、画像内の各ピクセルにより表される)に依存する。例えば、カメラの回転又は平行移動の動きにより、場面の2つの画像が10cmアラインメントから外れていることがあり得る(例えば、一方の画像は、他方の画像より場面の左側が10cm多く、場面の右側が10cm少ない)。このような場合に、画像のスケールで1ピクセルの長さを場面中の1cmに合わせた場合に、画像は、10ピクセルだけアラインメント外れであることになる。このスケールは、場面内の実際の世界の品目に対する画像の位置の変化を画像を構成するピクセルに対する画像の変化に変換することができる方法を説明するために提供している。一部の実施形態において、モバイルデバイスは、画像の実際のスケールを測定しない。
一部の実施形態のモバイルデバイスは、デバイスが画像を撮る最中にどの程度遠くに移動するかという正確な尺度を有していない。従って、このような実施形態において画像を整列させるオフセットは、画像が撮られる時には分らない。一部の実施形態のモバイルデバイスは、様々なオフセットベクトルを試験することによって2つの画像を整列させるオフセットを識別する。画像の特定の対を整列させるか否かを判断するためにモバイルデバイスにより試験される範囲のオフセットベクトルの組は、本明細書では「潜在的なオフセットベクトル」又は「潜在的なオフセット」と呼ばれる。一部の実施形態のモバイルデバイスは、オフセットベクトルの異なる値で画像(又は画像から導出されたビットマップ)を比較することにより、どの潜在的なオフセットベクトルが画像を整列させるかを判断する。潜在的なオフセットの範囲は、一部の実施形態において、画像間に有意な重なりができるオフセットに限定される。有意な重なりができるオフセットは、このような実施形態において試験されず、その理由は、合成処理は、主として画像の重なり合う部分に機能するからである。画像を撮る間に確実に保持しようとするユーザの手中のモバイルデバイスの移動は、比較的小さい可能性があり、従って、アラインメントオフセットは、画像のサイズに対して小さいことが多い。しかし、一部の実施形態は、移動がいつもより大きい場合にのみより大きいオフセット範囲を試験する。一部の実施形態において、1つ又はそれよりも多くの外部センサ(例えば、ジャイロ、動きセンサのような)を使用し、変位及び/又はモバイルデバイスの回転を推定する。一部の実施形態において、このような推定値を使用して、オフセットベクトルを検索する開始点を判断する。一部の実施形態において、推定値を使用して、調べるべきオフセットベクトルの範囲を判断する(例えば、モバイルデバイスが非常にしっかりと保持された場合に、検索範囲は、モバイルデバイスがさほど確実に保持されていない場合よりも狭い)。
画像間に有意な重なりができる潜在的なオフセットの範囲を制限する実施形態においてさえも、潜在的なオフセットの数は、多い可能性がある。例えば、潜在的なオフセットが、1000ピクセル平方である画像の幅と高さの0%〜6.4%の範囲である場合に、潜在的なオフセットベクトルは、あらゆる方向(上、下、左、又は右)の0〜64のピクセルである可能性がある。可能なオフセットベクトルのその範囲で、可能なオフセットベクトルの総数は、約16,000(約128個の水平ピクセルx約128個の垂直のピクセル)である。試験すべき潜在的なオフセットベクトルが何千もある時に、各可能なオフセットベクトルで大きな画像(又は大きなビットマップ)を直接に比較することによって潜在的なオフセットベクトルを試験するには、非常に多くの回数の計算が必要である。
実際のオフセットを見つけるために行う計算の回数を低減するために、一部の実施形態は、階層的なアラインメント処理を提供する。一部の実施形態の階層的なアラインメント処理では、より低い分解能で画像の各バージョンを生成する。画像の分解能が低くなっても同じ場面を含むが、倍率が増大する。例えば、1000x1000(ピクセルxピクセル)画像が10m幅の場面を表す場合に、画像内の1つのピクセル長は、場面において1cmを表している。1000x1000画像から生成された500x500分解能画像内の1つのピクセル長は、場面において2cmを表している。同様に、500x500画像から生成された250x250分解能画像内の1つのピクセル長は、場面において4cmを表している。
スケールの差のために(すなわち、同じ場面を表すピクセルの少数化)、低分解能化時の潜在的なオフセットベクトルは、画像の同じ画分を対象とするが、潜在的なオフセットベクトルの絶対数は小さくなっている。上述の例では、分解能を4分の1に落とせば(正方形の1000平方のピクセルから250平方のピクセルに)、可能なオフセットの範囲は、±64ピクセルから±16ピクセル(すなわち、64ピクセル÷4)に低減する。このような低減により、可能なオフセットベクトルの数は、16分の1に減少する(すなわち、約16,000個の可能なオフセットベクトルから約1,000個の可能なオフセットベクトルに)。このような処理では、第1の近似値から開始し、次に、連続的により細かい近似値を通じて実際のオフセットベクトルを判断することにより、オフセットベクトルを見つける。
一部の実施形態の処理は、生の画像の分解能が低減されたバージョンを生成し、画像の分解能が低減されたバージョンから1ビットビットマップを生成してビットマップを整列させることによって2つの画像を整列させるオフセットベクトルの逐次近似を計算する。最低分解能ビットマップから開始してビットマップを整列させる。ビットマップを整列させるために、処理では、様々な試験オフセットベクトルを使用して互いに2つのビットマップを比較してビットマップ間の実際のオフセットベクトルを判断する。一部の実施形態の処理では、ビットマップ内の全てピクセルを比較するのではなく、ビットマップ内のピクセルの部分集合を比較する。一部のこのような実施形態において、2つのビットマップを比較する前に、処理では、一方又は両方のビットマップをタイルに分割して閾値よりも大きい百分率の黒色ピクセル又は閾値よりも大きい百分率の白色ピクセルを含むタイルを廃棄する。このような処理では、次に、残りのタイル内のピクセルを比較してビットマップ間のオフセットベクトルを判断する。ビットマップの各分解能に対して識別されたオフセットベクトルは、ビットマップの次の高分解能化に向けてオフセットベクトルを試験する開始点として使用される。これらの処理を以下で更に図7〜図11に関して説明する。
B.アラインメントのためのビットマップの生成
一部の実施形態は、2つの画像を整列させるオフセットベクトルを検索するのに使用すべき複数のビットマップを生成する。図7は、画像を整列させるそのような一連のビットマップを生成する一部の実施形態の処理700を示している。本明細書で使用する時の「ビットマップ」という用語は、ピクセル当たり1ビットの色の深みを有する画像のバージョンを指す。このようなビットマップ内の各ピクセルは、黒色又は白色として表すことができる。
処理700では、最初の画像を受信する(710で)。一部の実施形態において、画像は、モバイルデバイスのカメラから受信される。一部の実施形態のモバイルデバイスのカメラ作動は、処理700を行うプログラムとは独立しているプログラムにより制御される。一部のこのような実施形態において、画像は、カメラ作動を制御するプログラムから受信される。他の実施形態において、単一のプログラムが、両方のカメラ作動を制御して処理700を提供する。一部のこのような作動において、ビットマップ生成処理700及びモバイルデバイスのカメラ作動を実行するプログラムが、カメラハードウエアから画像を受信する。一部の実施形態のプログラムは、カメラハードウエアから画像を受信する代わりに又はそれに加えて、モバイルデバイスのメモリから画像を受信する。モバイルデバイスの実施形態が異なれば、画像を供給するフォーマットも異なる。一部の実施形態において、画像は、各ピクセルに対して明度値及び1組の色値に関して表される。例えば、一部の実施形態において、処理では、Y’CbCr(ルマ、青色色度、及び赤色色度)フォーマットで画像を受信する。一部の実施形態において、画像は、異なる色成分値に関して表される。ルマ/色度フォーマットにおいて画像を供給する代わりに又はそれに加えて、一部の実施形態のモバイルデバイスは、異なる色成分値に関して画像を供給する。一部の実施形態の色成分値は、RGBフォーマット(例えば、sRGB画像)で供給される。このような実施形態において、処理700では、受信作動の一部としてルマ画像に画像を変換する。
この処理では、最初のルマ画像を間引く(720で)。最初の画像の間引きにより、最初の画像の分解能(各寸法の)の半分で画像のコピーが作成される。例えば、最初の画像が1920x1280の分解能を有する場合に、コピーは、960x640の分解能を有する。
処理700は、特定の回数の間引きを提供し、例えば、図9〜図10の処理においては、オフセットベクトルの逐次近似に向けて使用すべき異なる分解能レベルのいくつかの画像を生成する。様々な実施形態は、様々な回数で画像を間引く。一部の実施形態において、間引きの回数は、潜在的なオフセットの範囲に影響を与える。特定の画像の分解能が低いほど、画像の特定の百分率が得られるように潜在的なオフセットベクトル数は少ない。従って、一部の実施形態において、試験すべき潜在的なオフセットの範囲が大きいほど、使用される間引きのレベルは多い。間引きのレベルの数は、一部の実施形態では予めプログラムされる。例えば、一部の実施形態は、間引きの最初の画像及び5つのレベルを供給し、間引かれた画像の最低分解能は、最初の画像の分解能の1/32であり(各寸法において)、ピクセル数は1/1024である。一部の実施形態は、間引きの最初の画像及び6つのレベルを供給し、間引かれた画像の最低分解能は、最初の画像の分解能の1/64であり(各寸法において)、ピクセル数は1/4096である。分解能の減少により、結果として、画像の特定の画分において潜在的なオフセットベクトルの数の対応する減少が発生する。従って、ピクセルの数の1〜4096の低減により、画像の特定の画分における潜在的なオフセットベクトルの数が4096分の1に減少する。
間引きの回数は、一部の実施形態において予め設定される。しかし、震える手又は弱光レベルのような局所条件は、モバイルデバイスの作動に影響を与える可能性がある。従って、予め設定された(デフォルト)数の間引きを使用することに加えて又はその代わりに、一部の実施形態により、ユーザは、間引きレベルの数を決めるか、又は最初の画像が撮られる時にモバイルデバイスに利用可能な1つ又はそれよりも多くの変数に応答して動的に間引きレベルの数を判断させることができる。例えば、総露光時間を長くして(例えば、弱光条件において)3つのHDR画像を撮る時に、ユーザの手は、移動する時間が増えて、従って、同じ速度でより遠くに移動することができる。一部の実施形態は、間引きのレベルを増大させて付加的な移動時間を補正することによって付加的な移動を補正する。一部の実施形態のモバイルデバイスは、ユーザの手が移動中の速度の少なくとも何らかの表示を行う動きセンサを含む。一部のこのような実施形態において、画像の捕捉中にモバイルデバイスの移動が速くなるほど、多くの間引きレベルを生成するようにモバイルデバイスは促される。
間引きの数を判断する方法と無関係に、有限数の間引きがある。従って、処理では、間引きが望ましい数の間引き画像を生成するのに十分な回数で反復されたか否かを判断する(730で)。間引きが十分な回数で反復されなかった場合に、処理は、前回の間引きで生成された画像を間引くために720に戻る。間引きの各々の反復により(720で)、連続的に小さくなる分解能で画像の新しいコピーが生成される。例えば、間引きが1920x1280の分解能で最初の画像から始まって6回行われた場合に、画像の総数は、分解能1920x1280(最初)、960x640(第1の間引き画像)、480x320(第2の間引き画像)、240x160(第3の間引き画像)、120x80(第4の間引き画像)、60x40(第5の間引き画像)、及び30x20(第6の間引き画像)で7つになる(最初の画像を含む)。
一部の実施形態における間引きは、画像を間引くあらゆる公知の方法により行われる。例えば、一部の実施形態は、以下の技術、すなわち、(1)ピクセルをnxn平方にグループ分けし(ここで、nは、間引き係数(例えば、2)である)、次に、平方でピクセルの値を平均化すること、(2)移動平均フィルタ、(3)加重移動平均フィルタ、(4)全てのnxn群内で1つのピクセル値(例えば、中心ピクセル値又は群内の特定の位置でのピクセル値)を選択すること、(5)最小自乗解析法を使用すること、(6)二段抽出、及び(7)他の間引き方法のうちの1つ又はそれよりも多くを使用する。
処理700で各画像(すなわち、間引きから生じる最初のルマ画像及び各画像)から間引かれた画像の正しい数が生成されたと判断すると(730で)、処理は、1ビットビットマップを生成する。ビットマップ画像は、画像から生成されるが、その理由は、2つのビットマップ間のオフセットを見つける方が画像自体間のオフセットを直接に見つけるよりも計算的に厳しくないからである。ビットマップを生成する一部の実施形態の作動により、比較すべき画像の異なる露光レベルから生じるルマ値の差が補正される。各露光の異なるルマ値にも関わらず、各露光により、場面の暗い部分より明るいものとして場面の明るい部分が見出される。より具体的には、一方の露光でのピクセルの明るい(及び暗い)半分は、他方の露光でのピクセルの明るい(及び暗い)半分の形状及び位置が密接に適合するものになる。各画像のルマ中心値を使用してその画像内のピクセルの暗い半分からその画像内のピクセルの明るい半分を分離する。画像のルマ中心値は、画像内のピクセルの半分が低い方のルマ値(又は同じルマ値)を有し、画像内のピクセルの半分が高い方のルマ値(又は同じルマ値)を有するルマ値である。従って、その画像のルマ中心値を使用して各画像に行われる閾値演算により、異なる露光時間と無関係に、他の画像によって生成されたビットマップとほぼ同じであるビットマップが生成される。
従って、ルマ画像からビットマップの生成の準備をするために、処理700では、各画像(最初の画像及び全ての間引き画像を含む)に対してルマ中心値を識別する(740で)。ルマ中心値を使用して、ビットマップを生成する。上述のように、各画像に対して個々のルマ中心値を使用することにより、アラインメント処理700では、異なる露光でのルマ値の異なる範囲を補正する。当業者は、一部の実施形態は、ビットマップを生成する他の方法を使用することがあり得ることを理解するであろう。例えば、一部の実施形態の閾値は、ルマ中心値(例えば、閾値はルマ中心値÷2である)から導出されるが、ルマ中心値ではない。一部の他の実施形態の閾値は、画像の一部の他の特性から判断される(例えば、閾値はルマの中心値ではなくルマ範囲の平均値である)。
この処理は、次に、閾値としてその画像のルマ中心値を使用して閾値作動を行うことによって各画像の1−ビットビットマップバージョンを生成する(750で)。ルマ画像内のピクセルに対する閾値演算により、ビットマップにおいて対応するピクセルが生成される。閾値演算により、画像内の対応するピクセルが閾値ルマ値よりも明るい場合に、ビットマップにおいて白色ピクセルが生成され、画像内の対応するピクセルが閾値ルマ値よりも暗い場合に、ビットマップにおいて黒色ピクセルが生成される。この演算に使用される閾値ルマ値は、ビットマップを生成するのに使用される画像のルマ中心値であるので、ビットマップ内のピクセルのほぼ半分は黒色になり、ピクセルのほぼ半分は白色になる。処理700は、次に終了する。
処理700は、いくつかの特徴を含むと上述した。当業者は、上述の特徴の全てが、全ての実施形態において見られるというわけではないことを理解するであろう。また、処理700の様々な実施形態は、上述の特徴の1つ又はそれよりも多くに加えて又はその代わりに他の特徴を有する。当業者は、一部の個々の実施形態は、同じ作動内で実行されるのではなく、互いの代替として実行される複数の特徴を含むことを認識するであろう。例えば、以上の説明した処理は、ルマ画像の上で作用する。しかし、当業者は、一部の実施形態は、ルマ画像の代わりにルミナンス画像(YCbCr画像のルミナンス成分)を使用することを理解するであろう。更に他の実施形態は、一部の場合にはルマ画像を使用し、他の場合には代替的にルミナンス画像を使用する。上述の処理では、ルマ画像から別々のビットマップを生成するが、一部の実施形態において、ビットマップは、対応するルマ画像を上書きする。一部の実施形態における間引かれた画像は、ビットマップ生成処理中に上書きされ、又はメモリを節約するためにそれぞれのビットマップが生成された後に削除される。
上述の処理700では、全ての間引き画像が生成された後に間引かれた画像からビットマップを生成するが、当業者は、一部の実施形態は、間引かれた画像が生成された後であるが、全ての間引き画像が生成される前に、間引かれた画像からビットマップを生成することを理解するであろう。上述の実施形態は、1/2に画像を間引く。しかし、当業者は、一部の実施形態は、2以外の係数により画像を間引くことを理解するであろう。上述の処理において、各々の間引き画像は、次の最高分解能の間引き画像から生成される。しかし、一部の実施形態において、次の最高分解能の間引き画像以外の画像を使用して間引かれた画像を生成する(例えば、間引かれた画像は、最初のルマ画像から、又は分解能レベルが2つ上の間引き画像から生成することができる)。上述の処理において、ビットマップ内の黒色ピクセルは、ルマ画像内の中心値より暗いピクセルに対応し、ビットマップ内の白色ピクセルは、ルマ画像内の中心値より明るいピクセルに対応する。しかし、当業者は、「黒色」及び「白色」は、ビットマップ内のピクセルの2つの可能性がある2進値を表すために色のあらゆる選択を表すことを理解するであろう。一部の実施形態において、画像内の暗いピクセルは、2進値「0」としてビットマップにおいて表され、画像内の明るいピクセルは、2進値「1」としてビットマップにおいて表される。他の実施形態において、画像内の暗いピクセルは、2進値「1」としてビットマップにおいて表され、画像内の明るいピクセルは、2進値「0」としてビットマップにおいて表される。
図8は、アラインメントを検索するのに使用することができる一部の実施形態のビットマップの例を示している。このビットマップは、車の画像から生成されたものである。図8のビットマップは、スケール通りに描かれていない。図は、最初の画像800及び805、ビットマップ810A〜810C及び15A〜815C、及びタイル張りビットマップ820及び825を含む。最初の画像800は、モバイルデバイスから中間持続時間露光で撮られた画像である。最初の画像805は、それよりも短い持続時間露光で撮られた同じモバイルデバイスから画像である。ビットマップ810A〜810Cは、最初の画像800のコピーから生成された(異なる分解能で)ビットマップである。ビットマップ815A〜815Cは、最初の画像805のコピーから生成された(異なる分解能で)ビットマップである。タイル張りビットマップ820は、タイルに概念的に分割されたビットマップ810Cのコピーである。タイル張りビットマップ825は、タイルに概念的に分割されたビットマップ815Cのコピーである。
同じ分解能によるこの図のビットマップは、最初の画像800及び805のオフセットを検索するために、互いと比較することができる。画像800及び805のオフセットにより、画像の1つに適用された時に、他方の画像に整列させるベクトルである。この場合に、画像800の車は、その画像の右側に向けて近く、一方、画像805の車は、画像の左側に向けて近い。従って、正しい量で右側にそのピクセルを移動するオフセットを画像805に適用すれば、画像805は、画像800に整列する。
ビットマップ810A及び815Aは、ビットマップ810A及び815Aが最初の画像から直接に生成されたので、画像800及び805と同じ量でオフセットされる。画像800及び805のオフセットは、ビットマップ810A及び815Aのオフセットを見つけることによって見つけることができる。しかし、オフセットでビットマップが整列するか否かを確かめるためにあらゆる可能なオフセットを試すことによって単にビットマップ810A及び815Cのオフセットを見つけるのは、2つの高分解能ビットマップを整列させるために検査すべき可能なオフセットが多数あるために計算機的に高価であるものになる。従って、一部の実施形態の処理では、高値分解能ビットマップに対して全ての可能なオフセットベクトルを試すのではなく、逐次近似の階層的な処理を通じて正しいアラインメントを検索する。
ビットマップ810C及び815Cの低分解能化により、結果として、ビットマップ810C及び815Cを整列させる時に検査すべき可能なオフセットが少なくなる。しかし、同じく検査すべき可能なオフセットの少数化は、その分解能で見られるオフセットの精度の低下を意味する。具体的には、ビットマップ810Cと815C間の1つのピクセルのオフセットは、最初の画像800及び805間のいくつかのピクセル(例えば、64個のピクセル)のオフセットを表すので、ビットマップ810C及び815Cを整列させるオフセットは、ビットマップ810A及び815Aを整列させるオフセットを正確に指定しない。しかし、ビットマップ810C及び815Cを整列させるオフセットは、ビットマップ810A及び815Aを整列させるオフセットの第1の近似値として使用することができる。ビットマップ810C及び815Cを整列させるオフセットは、分解能がより高いビットマップのオフセットを見つける階層的な処理における開始点である。
連続的に増大するビットマップの組により、オフセットの値は、分解能が連続的に高くなる各ビットマップを使用して精緻化することができる。図8では、ビットマップの特定の縦列内の各々の連続的なビットマップは、縦列内の前のビットマップを生成するのに使用された画像の分解能の半分で概念的に画像から生成されたビットマップを表すので、各ビットマップのオフセットは、次の最高分解能のオフセットの半分である。例えば、ビットマップ810Aは、分解能1920x1280(最初)で最初の画像800から生成され、ビットマップ810Bは、分解能960x640(第1の間引き画像)で最初の画像800の間引かれたコピー(図示せず)から生成されたものである。ビットマップ810Bと815B間の右側寄りの10個のピクセルのオフセットは、ビットマップ810Aと815A間に右側寄りの20個のピクセル(±1個のピクセル)のオフセットを表している。分解能がより大きいビットマップ810A及び815Aのオフセットが見つけられた時に、検索の開始点は、右寄りの20個のピクセルになる。以下で図9〜図11に関して更に説明するように、アラインメント処理は、次に、右寄りの19個のピクセル、20個のピクセル、及び21個のピクセルで実際のオフセットを検索する開始点から1個のピクセル以内の可能なオフセットを評価する。
図8において、ビットマップ810Bと810C間の省略記号は、先行する間引かれた画像の分解能の半分(各寸法において)の各々の間引き画像から生成された連続的に小さくなる分解能のビットマップを無視するものである。図7に関して説明するように、ビットマップの間引き及び生成は、分解能の一部の特定の数のレベル(例えば、6つのレベル)に対して続行される。図8では、ビットマップ810A〜810C及び815A〜815C及び最初の画像800及び805は、スケール通りに描かれていない。
上述の実施形態は、生成されたビットマップと同じ分解能で各ビットマップを間引かれた画像から生成する。代替的に、一部の実施形態において、分解能が低いビットマップは、間引かれた画像からではなく、分解能が高いビットマップから生成することができる。一部の実施形態において、分解能が高いビットマップからビットマップを生成する方が間引かれた画像からビットマップを生成するよりも速い。しかし、ビットマップを間引かれた画像からではなく分解能が高いビットマップから生成すると、オフセットベクトルの検索の効率及び/又は精度を低減し兼ねないアーチファクトがビットマップ内に生成される傾向がある。従って、この技術は、全ての実施形態に使用されるというわけではない。
一部の実施形態は、一方又は両方のビットマップをタイルに分割し、各画像の特徴を一列に並ばせるオフセットベクトルを見つけるために他のビットマップ内の対応するピクセルとタイルの一部又は全て内のピクセルを比較することにより、ビットマップを整列させる。以下の短い説明は、各分解能で1つのビットマップにタイルを張る実施形態に関するものである。
一部の実施形態の処理では、複数の試験オフセットベクトルを使用して2つのビットマップ画像を複数回比較する。この比較では、1つのビットマップ内のピクセル(「タイル張りされたビットマップ」)を第2のビットマップ(「ターゲットビットマップ」)内の対応するピクセルと系統的に比較する。この処理では、タイル張りされたビットマップ内のピクセルをオフセットベクトルによりオフセットしているターゲットビットマップ内のピクセルと比較する。各試験オフセットベクトルに対して、一部の実施形態の処理では、互いと異なる対応するピクセルの数を数える。試験オフセットベクトルが2つの画像間の実際のオフセットに近いほど、(シフトした)ターゲットビットマップに対してタイル張りビットマップとは異なる2つのビットマップ内のピクセルの数はより少ない。
間引かれた画像から生成された一部のビットマップは、殆ど全て黒色又は殆ど全て白色であるタイルを含む。比較結果から全て黒色、殆ど全て黒色、全て白色、又は殆ど全て白色であるタイルを省くと、一部の実施形態では、識別されたオフセットベクトルを変更することなく比較が迅速化される。従って、一部の実施形態は、比較結果から黒色、殆ど全て黒色、白色、及び殆ど全て白色のタイルを廃棄する。
従って、一部の実施形態のビットマップは、オフセットベクトルを見つける処理(図9及び10に関して以下に説明)の一部として、タイル張りビットマップ820及び825のようなタイルに概念的に分割される。各タイルは、いくつかのピクセルを含む。2つのビットマップのオフセットベクトルを見つける一部の実施形態の処理において、白色タイルの何らかの閾値数よりも小さい全て黒色又は殆ど全て黒色(例えば、タイル張りビットマップ820内の前輪の上半分)タイルは無視され、黒色タイルの何らかの閾値数よりも小さい全て白色(例えば、タイル張りビットマップ820の左及び上エッジのタイル)、又は殆ど全て白色(例えば、タイル張りビットマップ820のフロントガラス)であるタイルは無視される。すなわち、それらのタイル内のピクセルは、それらの2つのビットマップを整列させるオフセットベクトルを検索中に行われる2つのビットマップの比較結果には含まれない。
C.画像の階層的アラインメント
ビットマップが複数の分解能で生成された状態で、一部の実施形態は、ビットマップを使用して画像を整列させるオフセットベクトルを見つける。図9〜図10は、2つの画像を整列させるオフセットベクトルを見つける一部の実施形態の処理900及び処理1000を示している。明瞭さを期すために、処理900の説明では、互いとの2つの画像のアラインメントに対して説明する。しかし、一部の実施形態において、処理900では、異なる露光の3つの最初の画像に対して3組のビットマップを受信して3つの画像を整列させる。3つの画像を整列させる際に、処理900では、まず2つの画像を整列させ、次に、第3の画像を他の2つの画像の一方に整列させる。処理900は、分解能が低いビットマップを使用してオフセットに向けて大雑把な近似値を見つけ、次に、連続的に増大する分解能ビットマップを使用して実際のオフセットベクトルに連続的に近くなる近似値を見つけることにより、実際のオフセット値を絞り込むことによって2つの画像間のオフセットを見つける階層的な処理である。この処理では、各分解能で9つの候補オフセットベクトルを試験し、どのオフセットベクトルがその分解能でビットマップをアラインメントに最も近づけるかを見つける。
図9〜図10は、図11を参照して説明する。図11は、一部の実施形態において2つの画像を整列させるオフセットベクトルを見つける例を示している。この図は、一度に1つの階層レベルを使用して2つの画像間のオフセットベクトルがどのようにして処理900により見つけられるかを示している。図は、横列/段階1110〜1140及び縦列1165〜1180を含む。段階1110〜1140の各々は、概念的に、2つの画像間のオフセットベクトルの特定における階層的なレベルを表している。縦列1165〜1180の各々は、各段階の本質的な特徴を表している。段階1110〜1140の各々は、間引かれた分解能(縦列1165に)、開始オフセットベクトル(縦列1170に)、オフセットベクトルへの識別された追加オフセットベクトル(縦列1175に)、及び新しいオフセットベクトル(縦列1180に)を含む。
縦列1165の間引かれた分解能値により、各段階において比較すべきビットマップの分解能が識別される。これは、処理900における分解能の選択(920及び970で)を概念的に示している。縦列1170の開始オフセットベクトルは、候補ベクトルが試験される起点として作用するオフセットベクトルを表している。縦列1175の各横列は、9つの候補ベクトルを含む。縦列1175の様々な段階における矢印(及び丸)は、その分解能でビットマップで最良のアラインメントを生成する候補オフセットベクトルとして処理1000により概念的に選択された候補ベクトルを示している。縦列1180の新しいオフセットベクトルは、同じ段階における開始オフセットベクトル及び縦列1175において識別されたベクトルのベクトル合計を表している。縦列1180内のオフセットベクトルは、最終段階1140において、2つの最初の完全分解能画像のオフセットを表している。
一部の実施形態において、処理900は、図7の処理700のような処理によって生成されたビットマップを使用する。処理900は、2組のビットマップを受信する(910で)ことによって始まる。ビットマップの各組は、モバイルデバイスからの最初の画像から生成されたものである。受信した組のビットマップの各々は、次のより大きい分解能よりも2倍小さい様々な分解能を含む。処理900は、協働すべき(例えば、ビットマップを整列させるオフセットベクトルを見つけるために)ビットマップの現在の対として最低分解能のビットマップを選択する(920で)。図11の例では、段階1110は、最低階層的レベルを表している。段階1110のビットマップの分解能は、縦列1165に示すように30x20である。
タイル張りビットマップ820及び825の関連において上述したように、ビットマップは、タイルに概念的に分割することができる。処理900では、各組の現在のビットマップをタイルに分割する(930で)。一部の実施形態は、ビットマップの各対(共通分解能を有する)の一方のビットマップのみをタイルに分割する。各タイルは、特定の組のピクセルを含む。この関連では、タイルは、ピクセルがそのタイルにより識別された位置の範囲である時にピクセルを含むと考えられる。例えば、ビットマップの左下のピクセルを座標(0,0)として使用し、特定のタイルは、10個のピクセルと19個のピクセル間にx座標、及び20個のピクセルと29個のピクセル間にy座標を有する全てタイルを含むことができる。座標(13,25)を有するピクセルは、そのタイル内のピクセルであり、座標(22,25)を有するピクセルは、異なるタイル内のピクセルである。当業者は、タイルは、実施形態が異なれば異なるサイズとすることができ、同じ実施形態でも異なるサイズとすることさえ可能であることを理解するであろう。例えば、異なる分解能のタイルは、異なるサイズとすることができる。一部の実施形態のタイルは、ビットマップの分解能に対して異なるサイズである。
一部のタイルは、有意な数の黒色ピクセル及び白色ピクセルを含む。他のタイルは、全て(代替的に、殆ど全て)黒色ピクセル又は全て(代替的に、殆ど全て)白色ピクセルを含む。2枚のタイルを整列させるオフセットベクトルを見つける後の比較を迅速化するために、一部の実施形態の処理では、殆ど1色のピクセル(黒色又は白色)を含む全てのタイルを廃棄する(940で)。すなわち、候補オフセットベクトルがいかに良好に2つのビットマップを整列させるかを見つけるために後の比較を行う時に、処理900では、それらの比較結果内に廃棄されたタイルからのピクセルを含まない。一部の実施形態において、タイルは、それらが少数派色の閾値数未満を有する場合は廃棄される。一部の実施形態内の閾値数は、タイル内のピクセルの総数の5%である。他の実施形態において、少数派色の閾値数は、タイル内のピクセルの何らかの他の百分率である。1対のビットマップの一方のみのタイルが、一部の実施形態では廃棄される。他の実施形態において、タイルは両方のビットマップから廃棄される。
処理900では、現在の分解能の2つのビットマップを整列させるオフセットベクトルを識別する(950で)。オフセットベクトルを見つける作動950を図10の処理1000として更に説明する。図11は、縦列1175における作動950を概念的に示している。例えば、縦列1175、段階1110に示すように、作動950では、起点の1つのピクセル内の全てのベクトルを評価し、この分解能(30x20)でビットマップ間の最も接近したアラインメントを行うオフセットベクトルを見つける。段階1110での縦列1175の矢印は、最も接近したアラインメントがオフセット(1,1)によって生成されることを示している。最低解能の段階1110において、作動950では、最初の画像の分解能の1/64(各寸法が)であるビットマップを整列させる。識別されたオフセットベクトルの値は、各段階で2倍になり、従って、1つの段階内の候補オフセットベクトルの寄与率は、全てのその後の段階において2倍になる。例えば、段階1110、縦列1180内の選択された候補オフセットベクトルは、(1,1)である。このベクトルは、各々のその後の段階(6回)において2倍になり、最終オフセットベクトル(64、64)に全体的に寄与する。同様に、段階1120(−1,−1)内の選択された候補オフセットベクトルは、4回2倍になり、最終オフセットベクトル、(−16,−16)のベクトルに全体的に寄与する。
実際上、完全分解能(1920x1280)画像間の実際のオフセットベクトルにより、段階1110において、作動950では、2つの完全分解能画像間のオフセットは(64、64)であることを見つける(すなわち、識別されたオフセットベクトルの64倍)。オフセット(64、64)は、その以降の段階において精緻化されることになる大ざっぱな判断である。例えば、段階1115内の作動950では、各方向で0又は±1分オフセットベクトルを変えることができる段階1140まで、各方向(垂直及び水平)で0又は±32だけオフセットベクトルを変えることができ、段階1120において、各方向で0又は±16だけのようにオフセットベクトルを変えることができる。従って、図11に示す特定のオフセットベクトルではなく、その後の段階において一連の可能なオフセットを仮定し、最低分解能でのオフセットを(1、1)を考慮すると、その後の段階において、作動950では、水平方向で1〜127のピクセルの画像、及び垂直方向で1〜127のピクセルに対して最終オフセットを見つけることができる。同様に、段階1115において、作動950では、実際の画像の分解能の1/32(各寸法が)であるビットマップを整列させる。完全分解能(1920x1280)画像間の実際のオフセットベクトルに関し、段階1115において、作動950では、2つの完全分解能画像間のオフセットは(96、64)であることを見つける(すなわち、識別されたオフセットベクトルの32倍)。オフセット(96、64)は、依然としてその後の段階1120〜1140において精緻化されることになる大ざっぱな判断である。その後の段階は、最大31ピクセルまで上下にベクトルの値を調節することができる。図11に示す特定のオフセットベクトルではなく、その後の段階において一連の可能なオフセットを仮定し、オフセットがこの分解能(60x40)で(3,2)である考慮すると、その後の段階の処理900は、水平方向で33〜95のピクセルの画像、及び垂直方向で65〜127のピクセルに対して最終オフセットを見つけることができる。
オフセットベクトルが特定の分解能で見つけられた状態で、処理900は、整列していないビットマップが更にあるか否かを判断する(960で)。処理で評価する必要があるビットマップが更にあると判断した場合に(960で)、処理は、現在のビットマップとして次の最低分解能ビットマップを選択する(970で)。例えば、図11では、段階1110後に、作動970は、次の最低分解能ビットマップ(60x40)を選択する。処理は、次に、新しい分解能のビットマップのための候補オフセットベクトルを評価する開始点として使用すべき作動950において識別されたオフセットベクトルを倍増する(980で)。例えば、図11では、段階1110、縦列1180のオフセットベクトル(1,1)は、段階1115の縦列1170において、(1,1)から(2,2)に倍増される。各段階において、開始オフセットベクトルは、段階の分解能は先行する段階の分解能の2倍であることに対処するために、先行する段階からの新しいオフセットベクトルの2倍である。実際上、ビットマップの全ての座標は1つの分解能から次に2倍になり、新しい開始オフセットベクトルは、相応に2倍になる。
処理が評価する必要があるビットマップはこれ以上はないと判断した場合(960で)(すなわち、ごく最近比較されたビットマップが完全分解能ビットマップであった時)、処理900では、2つの最初の画像を整列させるオフセットベクトルを見つけている。例えば、図11では、段階1140後に、評価すべきビットマップはこれ以上はない。従って、段階1140、縦列1180のオフセットベクトル、具体的に(87、48)は、2つの画像を整列させるオフセットベクトルである。画像が問題なく整列させた状態で、処理900は、次に終了する。
上述のように特定の分解能でビットマップの特定の対を整列させる作動950を図10により詳細に示している。図10は、2つのビットマップを整列させるオフセットベクトルを見つける処理1000を示している。処理1000は、様々な候補オフセットベクトル(及び開始オフセットベクトル(もしあれば))によってシフトされている時の2つのビットマップのピクセルを比較し、どの候補オフセットベクトルが最も接近したアラインメントを生成するかを見つける。処理1000は、一部の実施形態の処理900の一部である。
処理1000では、候補オフセットベクトルを選択する(1010で)。候補オフセットベクトルは、1組の可能なオフセットベクトルから選択されたベクトルである。可能なオフセットベクトルは、全て垂直にゼロ又は±1ピクセルだけ、及び水平にゼロ又は±1ピクセルだけ起点からオフセットしているベクトルである。候補オフセットベクトルは、(−1,−1)、(−1,0)、(−1,1)、(0,−1)、(0,0)、(0,1)、(1,1)、(1,0)、及び(1,1)である。候補オフセットベクトルは、図11の縦列1175に示されている。
処理は、開始オフセットベクトルに候補オフセットベクトルを追加して複合ベクトルを生成する(1020で)。開始オフセットベクトルは、前の分解能(もしあれば)のビットマップを整列させることを処理1000により見つけられたオフセットベクトルである。図11では、段階1110において、最低分解能ビットマップを整列させる。前の分解能がないので、開始オフセットベクトルは、(0,0)である。ゼロ以外の開始オフセットベクトルを有する第1の段階(すなわち、段階1115)において、処理1000は、開始オフセットベクトル(2,2)の1つのピクセル内の全ての可能なオフセットベクトルを評価する。すなわち、段階1115において、処理1000は、ベクトル(1,1)、(1,2)、(1,3)、(2,1)、(2,2)、(2,3)(3,1)、(3,2)、及び(3,3)を試験する。
上述のように、縦列1175内の矢印(及び段階1130の丸)は、図11に示す例では、2つのビットマップを比較する時にどの候補オフセットベクトルが最少数の差を生成するかを概念的に識別する。段階1115の縦列1175の矢印は、候補オフセットベクトル(1,0)が開始オフセットベクトル(2,2)に追加された時に最も接近したアラインメントが生成されることを示している。候補オフセットベクトル(1、0)が開始オフセットベクトル(2,2)に追加された時に、結果は、段階1115の縦列1180に示すようにオフセットベクトル(3,2)である。
処理は、次に、結合したベクトルを試験オフセットベクトルとして使用して2つのビットマップを比較する(1030で)。この比較は、タイル張りビットマップ内のあらゆる廃棄されていないタイル内の各ピクセルをターゲットビットマップ内の対応するピクセルと系統的に比較する。ターゲットビットマップ内の対応するピクセルは、ターゲットビットマップ内の座標がタイル張りビットマップに内のピクセルの座標から試験オフセットベクトルによりオフセットしたピクセルである。例えば、試験オフセットベクトル(25,30)に対して、タイル張りビットマップの座標(x,y)のピクセルは、ターゲットビットマップの座標(x+25,y+30)のピクセルと比較される。一部の実施形態において、XOR演算を使用して、2つの1ビット値(例えば、2つのビットマップ内のピクセルの値)を比較し、互いと異なるか否かを調べる。比較されたピクセルが異なる場合に(すなわち、1つのピクセルは黒色、他のピクセルは白色である)、XOR演算により、ピクセルが同じである場合に(すなわち、両方のピクセルが黒色であり、又は両方のピクセルが白色である)、1の出力を生成し、次に、XOR演算によりゼロの出力を生成する。各試験オフセットベクトルに対して、一部の実施形態の処理1000では、互いと異なる対応するピクセルの数を数える。試験オフセットベクトルが2つのビットマップ間の実際のオフセットに近いほど、タイル張りビットマップと(シフトした)ターゲットビットマップとの異なる2つのビットマップ内のピクセル数が少ない。
一方のビットマップと(シフトした)他方のビットマップ間でいくつのピクセルが異なるかを数えることによってビットマップを比較している際に、一部の実施形態の処理1000では、廃棄されたタイルにおけるピクセルを比較には含まない。黒色及び白色の両方のピクセルの本質的な存在(例えば、一部の実施形態では5%よりも大きい)を伴ってタイル内にあるピクセルのみが比較に含まれる。ビットマップの一方のみのタイルを廃棄する一部の実施形態において、タイル張りビットマップからの廃棄されていないタイルにより、どのピクセルが比較されるかが指定される。例えば、試験オフセットベクトル(25,30)に対して、タイル張りビットマップの座標(x,y)のピクセルは、通常、ターゲットビットマップの座標(x+25,y+30)のピクセルと比較される。しかし、座標(x,y)がタイル張りビットマップの廃棄されたタイル内にある場合に、それらの座標でのタイル張りビットマップのピクセルは、ターゲットビットマップのピクセルとは比較されない。換言すると、座標(x,y)がタイル張りビットマップの廃棄されたタイル内にある時に、一部の実施形態の処理は、タイル張りビットマップの(x,y)でのピクセルのターゲットビットマップの(x+25,y+30)でのピクセル又はターゲットビットマップのあらゆる他のピクセルとの比較を単に実行しないことになる。
一部の実施形態において、殆ど全て黒色又は殆ど全て白色であるタイルを廃棄する理由は、それらのタイルが結果に有意に影響を与えるものではないからである。例えば、全て白色のタイルが全て白色の区域にある場合に、いずれの小さいオフセットも、他方のビットマップの対応する区域において別の1組の全て白色のピクセルとそのタイルにおいて白色ピクセルを整列させる。候補ベクトルの各々によりその白色タイルが全て白色のピクセルの異なる組と比較された場合に、白色タイル内のピクセルをターゲットビットマップ内の対応するピクセルと比較してもオフセットベクトルを他の候補ベクトルと区別するのに使用することができるいずれのデータも得られない。
処理は、特定の試験オフセットベクトルで一方のビットマップと他方のビットマップ間に異なると判明したピクセルの数により決まる値を記憶する(1040で)。一部の実施形態において、値は、単に異なるピクセルの数である。他の実施形態において、値は、異なるピクセルの実数ではなく異なるピクセルの数から導出される。
処理は、次に、評価する必要がある候補ベクトルが更にあるか否かを判断する(1050で)。評価する必要がある候補ベクトルが更にある場合に、処理は、1010に戻って、新しい候補ベクトルを選択する。全ての候補ベクトルが評価された場合に、処理は、各ビットマップに対して記憶された値に基づいてビットマップで最良のアラインメントを行う候補ベクトルを識別する(1060で)。例えば、一部の実施形態において、結果としてタイル張りビットマップとシフトしたターゲットビットマップの最低数の異なる候補ベクトルが最良のアラインメントを行う候補ベクトルと識別される。オフセットベクトルが得られるように最良の候補ベクトルを開始オフセットベクトルに加算する(1070で)。処理1000は、次に終了し、処理900は、960で再開する。
ビットマップの次の最高分解能の対は、現在の分解能と同じ画像を表すがよりスケールが精密化している。スケールの精密化のために、この新しいオフセットベクトルは、ビットマップの次の最高分解能の対の正確なオフセットを識別しない。しかし、1つの分解能で最良にビットマップを整列させる新しいオフセットベクトルを見つけることによって次の最高分解能でビットマップで最良のアラインメントを一部の場合に行うことができるオフセットベクトルの範囲が絞られる。各レベルで分解能を2倍にする実施形態において、特定の分解能でのアラインメントの精度は、次の最高分解能でのアラインメントの精度の半分に過ぎない。処理1000により識別されたこの新しいオフセットベクトルは、現在の分解能で1ピクセル未満の精度である。従って、この新しいオフセットベクトルが次の分解能にスケーリングされた時に(例えば、作動980において)、アラインメントの値内の不確実性も同様にスケーリングされる。すなわち、次の分解能が現在の分解能の2倍である場合に、開始オフセットベクトルは、その分解能で実際のオフセットの2ピクセル(各方向で)未満になる。開始オフセットベクトルから2ピクセル未満離れる方向にいる全てのオフセットベクトルの組は、9つのベクトルを含む。具体的には、9つのベクトルは、開始オフセットベクトル及び9つの候補オフセットベクトルのベクトルの合計である。
各分解能の開始オフセットベクトルは、次の最低分解能で2つのビットマップを整列させる新しいオフセットベクトルから導出される。最低分解能ビットマップには次の最低分解能がない。従って、処理1000には、最低分解能ビットマップを整列させる時は開始オフセットベクトルがない。最低分解能ビットマップに対して、可能なオフセットの範囲は絞られてはおらず、従って、最低分解能でビットマップを整列させるオフセットベクトルは、探索の開始点から離れる方向にいる距離が2ピクセルよりも大きい場合がある。従って、一部の実施形態において、処理1000では、最低分解能ビットマップに対して、分解能がより高いビットマップの場合よりも大きい範囲の候補ベクトルを評価する。
どの候補ベクトルが各段階で選択されるかに基づいて6つの間引きレベルがある実施形態において、処理900の階層的検索により見つけられるオフセットベクトルの可能性がある値は、水平に−127〜127、垂直に−127〜127である。各々の連続した段階により、可能なオフセットベクトルの範囲がほぼ1/2に絞り込まれる。各レベルで選択された候補オフセットベクトルが1の値を有する場合に、オフセットの水平成分の127の値に到達する。このような場合に、最低分解能レベルでは、最高分解能レベルで合計に1ピクセルが加算されるまで、64ピクセルが合計に加算され、次の最低分解能レベルでは、32ピクセルが合計に加算される。
先の説明では各分解能で9つの候補ベクトルが含まれていたが、当業者は、他の実施形態は、異なる数の候補ベクトルを使用することを理解するであろう。一部の実施形態は、2倍以外で間引く。このような実施形態において、候補ベクトルの数は、低い分解能から高い分解能になる時に、補正する分解能の増加が大きいほど増加する。例えば、画像は一部の実施形態では各方向で1/4に間引かれる。一部のこのような実施形態において、開始オフセットベクトルは、1/4に縮小され(分解能間に)、候補オフセットベクトルには、開始オフセットベクトルから3ピクセル以内の全てのベクトルが含まれる。一部のこのような実施形態は、49個の候補ベクトルを使用する。
先の説明では全ての分解能レベルで主に白色タイル及び主に黒色タイルを廃棄することが含まれていたが、一部の実施形態は、より高い分解能レベルでのみタイルを廃棄する。低い分解能で、画像内のピクセルの数は少なくなるので、タイルを排除する方が探索の結果に影響を与える可能性が高い。更に、分解能が低いビットマップを整列させるオフセットベクトルの検索は、タイルを廃棄しなくても適度に速い。低い分解能でタイルを廃棄する時のエラーの危険性の増加及びオフセットベクトルの検索への利点の減少のために、一部の実施形態は、特定の分解能レベルよりも大きいビットトマップに関してのみタイルを廃棄する。例えば、一部の実施形態は、5つの間引きレベルで、画像から生成されたビットマップのタイルを廃棄する。同様に、一部の実施形態は、4つ、3つ、2つ、1つの間引きレベル又は0間引きレベルで、画像から生成されたビットマップに関してのみタイルを廃棄する。分解能がより高い画像に関してのみタイルを廃棄する一部の実施形態は、分解能がより低いビットマップにはタイルを張らない。一部のこのような実施形態は、低い分解能レベルでビットマップ全体を比較する。一部の実施形態は、各オフセットに対して同数のピクセルを比較するために、ビットマップの1つ又はそれよりも多くの1つ又はそれよりも多くのエッジの近くのピクセルを除外する。
V.画像処理:HDR画像生成及びスケーリング
A.序文
写真撮影において、場面が異なれば撮影時の露光持続時間も異なる。露光持続時間が長いと、薄暗い被写体に対して高度の詳細が得られる。露光持続時間が短いと、明るい被写体に対して高度の詳細が得られる。しかし、撮影された被写体の明度に適合していない露光時間は、不良な結果が生じる可能性がある。例えば、明るい被写体の画像を撮る時に、露光持続時間が長すぎると、明るい被写体の画像のピントが合わされる時のセンサが飽和状態になる。詳細は、その場合には失われ、その理由は、飽和レベルよりも大きい光レベルは、単に白色(最大値で)として表示されるからである。全てのピクセルが白色を表示された時に、そうでない場合に詳細が得られる光レベルの差が捕捉されない。不良な結果の別の例は、短すぎる露光持続時間に暗い被写体の画像を撮る時に得られる。短い露光持続時間が短すぎると、暗い被写体の画像のピントを合わせる時のセンサの感度に不適切な光をもたらす。詳細が失われ、その理由は、センサは、受け取られた少量の光の僅かな割合の差を正確に識別することができないからである。場面が異なれば露光時間も異なる方が良く見えるので、撮影者及び自動カメラは、露光時間を調節して照明条件を補正する。一部の実施形態のモバイルデバイスは、撮影している場面の照明条件に従って露光時間も調節する。長い露光時間を使って暗い場面の詳細を捕捉し、短い露光時間を使って明るい場面の詳細を捕捉し、中程度の露光時間を使って明と暗の間に存在する(中間色調)場面の詳細を捕捉する。
しかし、1つの場面が明るい被写体及び暗い被写体、並びに中間色調被写体を含む時に、暗い被写体の詳細を捕捉するのに十分な長い露光時間には、明るい被写体は、画像においては飽和状態になり、中間色調被写体は過度に明るいものになる。明るい被写体の詳細を捕捉するのに十分な短い露光時間には、暗い被写体は、殆どは黒色になり、中間色調被写体は暗すぎるものになる。中間色調品目を捕捉するのにちょうど合った露光時間には、暗い被写体は暗すぎ、明るい被写体は明るすぎるものになる。
明るい被写体の飽和及び暗い被写体のぼかした詳細を回避する。一部の実施形態は、異なる露光(露光過多、露光不足、及び正常露光)で3つの画像を撮り、その特定の露光が良好に捕捉する露光の各々で詳細を強調するように像を合成する。露光過多画像では、暗区域で詳細が良好であり、従って、合成画像は、画像の暗区域においてピクセルを生成するために露光過多画像からのピクセルを使用することに向けて重み付けされる。露光不足画像では、明区域で詳細が良好であり、従って、合成画像は、画像の明区域においてピクセルを生成するために露光不足画像からのピクセルを使用することに向けて重み付けされる。正常露光画像では、中間色調区域で詳細が良好であり、従って、合成画像は、画像の中間色調区域に対して正常露光画像からのピクセルを使用することに向けて重み付けされる。
画像を整列させた後に、節IVで上述したように、一部の実施形態の画像処理モジュールは、3つの整列した画像の合成を行って合成HDR画像を生成する。異なる実施形態において、画像処理モジュールは、異なる技術を使用して3つの画像を合成する。一部の実施形態は、これらの画像のルマチャンネルに対して、これらの画像の色度チャンネルとは異なる組の作動を行うことによって3つの画像を合成する。一部の実施形態において、色度チャンネル画像上の別々の作動は、ルマ画像上の作動と同じか又は類似のものである。また、HDR合成画像を生成することにおいて、一部の実施形態は、値の望ましい範囲よりも大きいルマ値及び色度値を生成することがあり得る。従って、HDR画像を生成している間、一部の実施形態は、同時にスケーリング作動を行って、確実にHDR画像のルマ及び色度値が望ましい範囲で生成されるようにする。一部の実施形態において、最終HDR画像の生成は、HDR捕捉作動及びHDRレンダリング作動に概念的に分割される。HDR捕捉作動において、初期HDR画像は、異なる露光時間に撮られた複数の画像から生成される。一部の実施形態のHDRレンダリング作動において、初期HDR画像は、画像の影の強調、画像の高ルマ表示の減衰、画像のヒストグラム引伸し、及び画像の色度成分の彩度を含む1つ又はそれよりも多くの作動により調節される。
合成画像ルマ画像の対応する区域を生成するために各画像のどの区域を使用すべきかを識別するために、一部の実施形態は、3つのマスクを生成する。3つのマスクは、3つの露光レベルに対応する。合成画像に使用すべき各露光の区域を識別するために、各マスクにより、その対応する露光の各点で重み係数が得られる。一部の実施形態において、正常露光画像は、3つのマスクを生成するために画像の明区域、暗区域、及び中間色調区域を識別するのに使用される。合成画像は、次に、各ピクセルに対して重み係数としてのマスクを使用してピクセル単位で生成される。特定のピクセルの特定のマスク内の高い値は、そのマスクに対応する露光のピクセルが合成画像内の対応するピクセルに及ぼす影響が強いことを意味する。特定のピクセルの特定のマスク内の低い値は、そのマスクに対応する露光のピクセルが合成画像内の対応するピクセルに及ぼす影響が弱いことを意味する。スケールの両端で、特定の露光のマスク内の特定のピクセルの1という値は、合成画像内の対応するピクセルの値がその露光の対応するピクセルの値に完全に依存することを意味する。同様に、特定の露光のマスク内の特定のピクセルの0という値は、合成画像内の対応するピクセルの値がその露光の対応するピクセルの値に全く依存しないことを意味する。
マスクにより個々のピクセルが重み付けされるが、一部の実施形態は、各露光の相対露光時間を補正する係数により各画像内の全てのピクセルを重み付けする。一部の実施形態において、これらの計算に使用される露光時間は、モバイルデバイスのカメラによって供給される。
一部の実施形態において、色を確実にルマ値でスケーリングさせるために、画像の色度値も、ルマ値として類似の重み付け方式で合成される。すなわち、露光の色度チャンネル(Cb及びCr)は、露光のルマチャンネルと同じマスク及びスケーリングで合成される。画像の中間色調の色は、一部の実施形態において、合成中又は合成後に強調される。
B.ルマ又はルミナンスの合成
一部の実施形態のモバイルデバイスは、異なる露光で撮られた複数の画像を合成することにより、HDR画像を生成する。画像を合成すると、一部の実施形態において、各ピクセルの値が3つの画像の各々における対応するピクセルの値の重み付き平均である画像を生成する。一部の実施形態において、合成画像は、画像のルマ成分の重み付き平均である。他の実施形態において、合成画像は、画像のルミナンス成分の重み付き平均である。すなわち、様々な実施形態は、様々な異なる画像フォーマットで画像を合成する。一部の実施形態は、ルマ(Y’)フォーマットで画像に全ての作動を提供する。他の実施形態において、全ての作動は、ルミナンス(Y)フォーマットで画像に行われる。更に他の実施形態において、モバイルデバイスは、ルマ(Y’)フォーマットで画像から開始し、ルミナンス(Y)成分にルマ(Y’)成分を変換し、次に、ルミナンス(Y)成分に作動を提供する。ルミナンス画像が合成された後に、一部の実施形態のモバイルデバイスは、ルミナンス(Y)からルマ(Y’)に得られる合成画像を変換する。以下の説明では、このような変換が行われる可能性がある合成処理における一部の位置を識別するが、当業者は、他の実施形態において、変換が処理の他の部分中に行われる可能性があることを理解するであろう。
図12は、同じ場面の3つの異なる露光のルマチャンネル画像を合成して得られる合成画像の様々なルマ値を調節する処理1200を示している。処理1200は、合成モジュール120がアラインメントモジュール115から3つの(一部の実施形態では切り取られた)画像を受信する度に行われる。この処理を図13Aを参照して説明するが、図13Aは、特定の場面に処理1200を行う例を示している。処理1200を図13Aで品目を参照して説明するが、当業者は、これは、説明し易くしたものであり、かつ計算は、その図の特定の場面に限定されないことを理解するであろう。
図13A内の場面は、山道に止まっている車である。場面は、明るい空及び暗い逆行の山並み、並びに中間色調化された車及び道路を含む。図13Aは、異なる露光で撮られた3つの画像1310A〜1310C(例えば、色画像)、画像の各々のルマチャンネル画像(時にはルマ画像と呼ぶ)1320A〜1320C、マスク1330A〜1330C、合成ルマ画像1340、ガウスぼかし合成画像1350、強調表示−減衰画像1360A、陰影−強化画像1360B、合成画像1370、及び最終ルマ画像1380を含む。異なる露光1310A〜1310Cで撮られた3つの画像は、異なる露光レベルで撮られた色画像を表している。画像1310Aは露光不足画像、1310Bは正常露光画像、1310Cは露光過多画像である。一部の実施形態において、画像1310Aは、画像1310Bの長さの1/4で露光され、画像1310Cは、画像1310Bの4倍の長さで露光される。露光時間比率は、同じ実施形態において、又は他の実施形態では4以外の数とすることができる。ルマチャンネル画像1320A〜1320Cは、色画像のルマ1310A〜1310Cの情報のみを表している。一部の実施形態において、ルマチャンネルデータは色度チャンネルデータとは別々に供給され、他の実施形態において、ルマチャンネルデータは、色画像から抽出される。
図1に関して上述したように、一部の実施形態のモバイルデバイスは、各画像に対して異なる露光時間に3つの画像(例えば、画像1310A−1310C)を生成する。一部の実施形態において、これらの露光時間は、露光値報酬(EV)に関して測定される。モバイルデバイス上のカメラの特定の開口に対して、露光時間の量は、EVの2の累乗に比例している。例えば、3のEVでは、露光時間を8倍に増大する。一部の実施形態において、正常露光画像に対して、露光過多画像は、+2のEVで撮られ、露光不足画像は、−2のEVで撮られる。このような実施形態において、露光過多画像は、正常露光画像の4倍の長さで露光され、露光不足画像は、正常露光画像の1/4の長さで露光される。様々な実施形態は、±2と異なるEV値を使用する。一部の実施形態は、異なる照明条件に合うようにEVを調節する。例えば、一部の実施形態は、正常露光画像(例えば、正常露光プレビュー画像から生成されたヒストグラム)のヒストグラムに基づいてどの露光値を使用すべきかを判断する。一部のこのような実施形態は、EV+値とEV−値間に一定差を維持する。一部の実施形態において、露光過多のEVは、一部の照明条件内の露光不足のEVと異なるマグニチュードとすることができる。例えば、一部の実施形態は、非常に明るい場面においてはそれぞれ露光不足画像及びで露光過多画像に対してEV−3及びEV+1を使用する。一部の実施形態は、非常に暗い場面においてはそれぞれ露光不足画像及び露光過多画像に対してEV−1及びEV+3を使用する。
図12の合成処理1200では、最初に、異なる露光時間(例えば、ルマ画像1320A〜1320C)で撮られた3つのルマ画像で始まるHDR捕捉作動を提供する。処理では、正常露光ルマ画像1320Bから、3ルマ画像1320A〜1320Cに対応する3つのマスクを生成する(1210で)。正常露光ルマ画像1320Bを使用し、撮影された場面のどの部分が明るいか、どの部分が中間色調化されたか、場面のどの部分が暗いかを識別する。図13Aでは、正常露光ルマ画像1320Bの明区域は、空及び車の車輪を含み、暗区域は山を含み、中間色調区域は車体及び道路を含む。マスクは、ピクセルを合成する1組の重みである。一部の実施形態において、各マスクは、合成される画像と同じ分解能を有する。マスクは、画像として表すことができ、マスク内の値をピクセル値と説明することが有利である、しかし、マスク内のデータは、主として視覚表示のためでなくて、合成時の計算における使用を意図している。
3つのマスクは、3つのルマ画像1320A〜1320Cに対応する。露光不足ルマ画像1320Aで、明区域において最良の詳細が得られる。従って、露光不足ルマ画像1320Aのマスク1330Aは、正常露光ルマ画像1320B内の光輝ピクセルに対応するピクセルに対して高い値、正常露光ルマ画像1320B内の中間ピクセル及び暗いピクセルに対応するピクセルに対して低い値を有する。露光過多ルマ画像1320Cで、暗区域において最良の詳細が得られる。従って、露光過多ルマ画像1320Cのマスク1330Cは、正常露光ルマ画像1320B内の暗いピクセルに対応するピクセルに対して高い値、正常露光ルマ画像1320B内の中間ピクセル及び光輝ピクセルに対応するピクセルに対して低い値を有する。正常露光ルマ画像1320Bで、中間色調区域において最良の詳細が得られる。従って、正常露光ルマ画像1320Bのマスク1330Bは、正常露光ルマ画像1320B内の中間色調ピクセルに対応するピクセルに対して高い値、正常露光ルマ画像1320B内の光輝ピクセル及び暗いピクセルに対応するピクセルに対して低い値を有する。
一部の実施形態において、各画像からの別々のピクセルを使用するのではなく、異なるルマ画像1320A〜1320Cからのピクセルを調合する様々な値を有するマスクが得られる。マスク内のピクセルの値が高いほど、対応する画像内の対応するピクセルが合成画像内の対応するピクセルの値に与える影響が大きい。各画像の区域を識別し易いように、マスク1330A〜1330Cは、図13Aでは黒色の区域及び白色区域のみを有するが、一部の実施形態のマスクの視覚表示は、灰色のピクセルが含まれる。このような灰色のピクセルは、合成画像内の対応するピクセルの値に影響を与えるが完全には決めない値を表している。
一部の実施形態において、以下の方程式(1)〜(3)を使用してマスクを生成する。従って、これらの方程式により、3組の重み付け値が得られる双曲線正接に基づいて、3本の曲線が得られ、3組の重み付け値により、上述のように、露光過多画像から暗区域の詳細部を取り、露光不足画像から明区域の詳細を取り、正常露光画像から中間色調の詳細を取ることによってHD画像を合成する初期バイアスが得られる。双曲線正接に基づいて方程式/曲線を使用する代わりに、他の実施形態は、他のタイプのシグモイド又は他の非線形関数/曲線を使用し、合成画像を生成するために画像を選択的に重み付けするのに使用されるマスキング値を指定する。
本明細書の方程式では、慣例に従い、各変数は、単一の大文字により表され、一部の場合には、大文字の次に、特に異なるマスク又は画像に向けて同じ関数に供される変数が使用された時には単一の小文字の英字がある。画像内の異なる個々のピクセルに向けて異なる値を有する変数は、方程式内の値がピクセル当たりで判断することを示す頭文字の後の[x,y]によって示されており、x及びyは、画像内のピクセルの座標を表している。異なるピクセルの異なる値を有する変数は、画像内のピクセルの範囲にわたって各ピクセルに対して計算される。方程式は、図13A内の品目を参照して説明するが、当業者は、これは、説明し易くしたものであり、かつ計算は、その図の特定の場面に限定されないことを理解するであろう。
一部の実施形態において、以下の方程式を使用してマスク1330A〜1330C内のピクセルの値を生成する。
Mb[x,y]=0.5*(tanh(−Sb*(Ln[x,y]−Tb))+1) (1)
Mu[x,y]=0.5*(tanh(Su*(Ln[x,y]−Tu))+1) (2)
Mn[x,y]=1−Mb[x,y]−mu[x,y] (3)
方程式(1)において、Mb[x,y]は、座標[x,y]での露光過多マスク1330Cの値を表し、かつ正常露光ルマ画像1320Bの対応するピクセルのルマ値Ln[x,y]の関数である。Tbは、露光過多画像の閾値ルマ値である。Sbは、関数の勾配に影響を与える。Sbが本明細書で表示される方程式において、tanhは、双曲線正接である。リアルタイムで双曲線正接計算を行う代わりに、一部の実施形態は、ルックアップテーブルを使用して特定の入力に向けて双曲線正接によって生成された値を識別する。一部の実施形態は、双曲線正接の代わりに又はそれと同じく、他の計算の代わりにルックアップテーブルを使用する。
方程式(2)において、Mu[x,y]は、座標[x,y]での露光不足マスク1330Aの値を表している。それは、Mb[x,y]と同様に、正常露光ルマ画像1320Bの対応するピクセルのルマ値Ln[x,y]の関数でもある。Tuは、露光不足画像の閾値ルマ値である。Suは、関数の勾配に影響を与える。方程式(3)において、Mn[x,y]は、座標[x,y]での通常の露光マスク1330Bの値を表している。
露光過多マスク1330Cの目的は、薄暗区域内のピクセルの影響を増大させ(露光過多ルマ画像1320Cで良好な詳細が得られる場合)、かつ明区域内のピクセルの影響を増大させる(露光過多ルマ画像1320Cが一部の場合に飽和状態である場合)ことである。従って、方程式(1)において、露光過多ルマ画像1320Cからのピクセルの重み付けは、正常露光ルマ画像1320B内の対応するピクセルのルマ値の滑らかな減少する関数である。Sbは、その前に負の符号を有し、Sbの正の値により、一部の実施形態で用いられているように、結果としてルマ値と共に減少する関数になることになることを示している。Sbの正の値に対して、正常露光ルマ画像1320B内のピクセルが明るいほど、合成画像を生成する時に露光過多画像内の対応するピクセルに与えられる重み付けが少ない。
上述のように、Tbは、露光過多画像の閾値ルマ値である。正常露光ルマ画像1320B内のピクセルがTbよりも小さい値を有する時に(閾値より暗い)、露光過多マスク1330Cの対応するピクセルは、1/2よりも大きい値を有する。正常露光ルマ画像1320B内のピクセルがTbの値を有する時に(閾値での)、露光過多マスク1330Cの対応するピクセルは、1/2の値を有する。正常露光ルマ画像1320B内のピクセルがTbよりも大きい値を有する時に(閾値より明るい)、露光過多マスク1330Cの対応するピクセルは、1/2よりも小さい値を有する。一部の実施形態において、Tbの値は、正常露光ルマ画像1320B内のピクセルのルマの中心値で0.015を割ることによって判断される。例えば、正常露光ルマ画像1320B内のピクセルのルマの中心値が0.1である場合に、Tbの値であれば0.15である。一部の実施形態において、Tbの値は、正常露光ルマ画像1320B内のピクセルのルマの中心値により、0.02(又は一部の他の値)により判断される。一部の実施形態は、画像の特性に基づいてTbを計算する異なる方法を有する。例えば、一部の実施形態は、Tbを中心値ルマからではなくルマ画像(例えば、1320B)の平均的(平均値)ルマに基づいて計算する。
Sbは、関数Mb[x,y]が閾値に関していかに迅速にTbを変更するかを判断する。Sbの非常に高い値により、結果として急激な変化が発生する。Sbの高い値に対して、正常露光ルマ画像1320B内のピクセルが閾値Tbのすぐ上のルマ値を有すると、従って、マスク1330C内の対応するピクセルは、非常に低い値を有する。マスク内のピクセルの低い値は、露光過多ルマ画像1320C内の対応するピクセルは、合成画像1340の対応するピクセルの値に殆ど影響を与えないことになることを意味する。従って、正常露光ルマ画像1320B内のピクセルが閾値のすぐ下のルマ値を有すると、マスク1330C内の対応するピクセルは、非常に高い値(1の最大値で)を有する。露光過多ルマ画像1320C内の対応するピクセルの値により、合成画像1340の対応するピクセルの値を殆ど完全に決まることになる。これとは対照的に、Sbの低い値により、従って、閾値と交差する時に漸進的な影響のシフトが発生する。Sbの低い値に対して、正常露光ルマ画像1320B内のピクセルが閾値のすぐ下のルマ値を有すると、従って、マスク1330C内の対応するピクセルは、合成画像1340の対応するピクセルに及ぼす影響が50%を僅かに超える。従って、Sbの低い値に対して、正常露光ルマ画像1320B内のピクセルが閾値のすぐ上のルマ値を有すると、マスク1330C内の対応するピクセルは、合成画像1340の対応するピクセルに及ぼす影響が50%を僅かに下回る。一部の実施形態において、Sbの値は、10である。
露光不足マスク1330Aの目的は、明区域内のピクセルの影響を増大させ(露光不足ルマ画像1320Aで良好な詳細が得られる場合)、かつ薄暗区域内のピクセルの影響を低減する(露光不足ルマ画像1320Aが詳細を示すには一部の場合に暗い過ぎる場合)ことである。従って、方程式(2)において、露光不足マスク1330A内のピクセルの値は、正常露光ルマ画像1320B内の対応するピクセルのルマ値の増加する関数であるべきである。勾配を決めるSuは、その前にマイナスを持たず、従って、Suの正の値は、結果としてルマの正の関数になる。方程式(2)内の閾値Tuは、方程式(1)において閾値Tbと異なっている。一部の実施形態において、Tuの値は、正常露光ルマ画像1320Bのルマ中心値に6(又は一部の他の値)を掛けることによって判断される。一部の実施形態において、ルマ中心値及び係数(例えば、6)の積が1よりも大きい時に、Tuの値は1に設定される。一部の実施形態は、画像の特性に基づいてTuを計算する異なる方法を有する。Sbの場合と同様に、Suのマグニチュードにより、露光不足ルマ画像1320Aのピクセルの影響(合成画像1340に対する)が正常露光ルマ画像内の対応するピクセルのルマ値の関数としていかに迅速に1320Bを変更するかが決まる。Suの高い値は、正常露光ルマ画像1320Bのピクセルのルマ値が閾値Tuより下から閾値より上になる時に影響なしから影響大への急激な変化をもたらすものである。Suの低い値は、正常露光ルマ画像1320Bのピクセルのルマ値が閾値Tuより下から閾値より上になる時に影響なしから影響大への緩やかな変化をもたらすものである。
通常の露光マスク1330Bのピクセルは、1から他のマスク1330A及び1330C内の対応するピクセルの値を差し引いた値を有する。通常の露光マスク1330Bは、両方の他のマスクが下位値を有する場合は高い値を、かつ他のマスク(代替的に、そのアセンブリ)のいずれかが高い値を有する場合は低い値を有する。Su値が他のマスクを生成するのに使用されるSb値に等しいと仮定すると、他の2つのマスクの結合値は、Tb及びTuの平均値でのピクセルとしては最低である。従って、通常の露光マスク1330Bは、Tb及びTuの平均値でルマ値を有する正常露光ルマ画像1320B内のピクセルに対応する際にはピクセルに対しては最高値を有する。
ピクセルの値を制する1つのマスクからピクセルの値を制する別のマスクへの漸進的な遷移を有するマスクの視覚表示は(例えば、Su又はSbの低いマグニチュードで)、部分的に1つのマスクによりかつ部分的に別のマスクにより影響を与えられた合成画像の区域に対処する中間区域を含む。これとは対照的に、1つのマスクから別のマスクへの急激な遷移を有するマスクの視覚表示であれば(例えば、Su又はSbの高いマグニチュードで)、灰色のピクセルは(あるとしても)殆どなく、殆ど完全に黒色のピクセル及び白色ピクセルである。マスク1330A〜1330Cは、Su及びSbの非常に高い値を使用して生成したものであり、従って、灰色のピクセルは有していない。正常露光ルマ画像1320B内のピクセルが閾値Tbよりいくらかでも薄暗いと、露光過多マスク1330Cでは白色ピクセルが生じる。正常露光ルマ画像1320B内のピクセルが閾値Tbよりいくらかでも明るいと、露光過多マスク1330Cでは黒色ピクセルが生じる。正常露光ルマ画像1320B内のピクセルが閾値Tuよりいくらかでも明るいと、露光不足マスク1330Aでは黒色のピクセルが生じる。正常露光ルマ画像1320B内のピクセルが閾値Tuよりいくらかでも明るいと、露光過多マスク1330Aでは白色ピクセルが生じる。閾値TuとTbの間に存在する正常露光ルマ画像1320B内のピクセルは、通常の露光マスク1330Bにおいて、結果として白色ピクセルになる。正常露光ルマ画像1320B内のピクセルが閾値TuとTbの間にないと、通常の露光マスク1330Bでは黒色ピクセルが生じる。要約して言えば、露光不足マスク1330Aでは、光輝ピクセルの重み全体が得られ(合成画像において)、通常の露光マスク1330Bでは中間位置ピクセルの重み全体が得られ、露光過多マスクでは暗いピクセルの重み全体が得られる。マスク1330A〜1330C内の極端な遮断が行われ、その理由は、この極端な遮断により、白黒図においては重み付け高、重み付け低の様々な区域を識別しやすくなるからである。しかし、Sb及びSuの低い値を有する実施形態は、対応するマスクが様々な値を含む。視覚的には、マスクは、合成画像内のピクセルのルマにわたって共有の影響力を表す中間区域を含む。
露光過多画像マスクを生成するために、一部の実施形態は、上述の値から閾値ルマ値Tbを調節する。一部の実施形態は、閾値ルマ値Tbを調節するが、その理由は、露光過多画像のSN比は、露光時間の増加と共に減少するからである(例えば、露光時間が長いと、画像内のノイズが増加する)。従って、合成画像においてノイズを低減するために、一部の実施形態は、最終合成画像に含まれる露光過多画像が少なくなるように閾値ルマ値Tbを調節する。一部の実施形態において、以下の方程式を使用して、閾値を調節する。
Tb=Tb*0.5*(tanh(4*(Fb−Ft))+1) (4)
方程式(4)において、第1のTbは、調節後の閾値ルマ値であり、第2のTbは、調節前の閾値ルマ値である。Fbは、露光過多画像のデシベル(dB)でのSN比である。Ftは、閾値SN比である。SN比がFt閾値よりも大きいと、露光過多画像の閾値ルマが増大し、それによって合成画像1340に大きな影響を与えるピクセルの数が露光過多画像内で増加する。一部の実施形態において、Ftは、24dBである。一部の実施形態内のモバイルデバイス(又はモバイルデバイスの試作モデル)の較正中、SN比を一連の光レベル(例えば、5つの光レベル)に対して測定する。これらの測定したSN比を使用して特定の画像に対してSN比を判断する。一部の実施形態において、較正を各モバイルデバイスに行う。他の実施形態において、較正をモバイルデバイスのサンプル(1つ又はそれよりも多く)に行って、そのタイプのモバイルデバイスの較正点を判断し、次に、これらの較正点を同じタイプの他のモバイルデバイスに使用する。一部の実施形態は、デフォルト較正点を有するが、新しい較正点を特定のモバイルデバイスに対して計算することを可能にする。特定の画像の光レベルは、画像が捕捉された時にモバイルデバイスにより判断される。較正されたモバイルデバイスを使用する実施形態において、光レベルに基づいて、画像のSN比は、較正点のSN比から補間される。
一部の実施形態において、マスキングが個々のピクセルに基づくと、結果としてコントラストの損失になる可能性がある。近くのピクセルに適合しないピクセル(他の暗区域内の明るいピクセルのような)が受ける影響がそのピクセル値に最良の詳細が得られる画像ではなくその区域に最良の詳細が得られる画像による方が大きい時により多くの詳細は維持される。例えば、このような実施形態において、明るい背景内の暗いピクセルの合成値が最も影響を受けるのは、暗いピクセルに向けて詳細が得られるのに有効である露光過多画像によってではなく、明るいピクセル(背景のような)に向けて詳細が得られるのに有効である露光不足画像の対応するピクセルである。更に、マスクをぼけさせることなく合成すると、重みが空間的に滑らかでないので異なる露光から導出されたピクセル間の高周波遷移が合成画像内に発生する可能性がある。従って、一部の実施形態は、マスクをぼけさせて、光と暗区域の境界でコントラストを改善するためにマスクをぼけさせることに加えて又はその代わりに、空間的に重みを滑らかにすることによって合成画像において高周波遷移を低減する。従って、一部の実施形態において、処理1200は、光と暗区域の境界でコントラストを改善し、及び/又は合成画像において高周波遷移を低減するようにマスクを調節する(1215で)。従って、一部の実施形態のマスクは、合成画像1340の重みとして適用される前にぼける。一部のこのような実施形態において、以下のような方程式を使用してマスクをぼかす。
Mb[x,y]=filter(Mb[x,y]、k) (5)
Mu[x,y]=filter(Mu[x,y]、k) (6)
方程式(5)において、第1のMb[x,y]は、ぼかしフィルタが適用された後のマスクを表し、第2のMb[x,y]は、ぼかしフィルタが適用される前のマスクを表している。方程式(5)及び(6)内のフィルタは、フィルタkを使用する2Dフィルタ作動である。項kは、2Dガウスフィルタカーネルである。一部の実施形態において、7x7又は9x9フィルタカーネルが、3のピクセル分散に使用される。方程式(6)において、第1のMu[x,y]は、ぼかしフィルタが適用された後のマスクを表し、第2のMu[x,y]は、ぼかしフィルタが適用される前のマスクを表している。
フィルタカーネル(k)のサイズは、ぼかし作動の結果に影響を与える可能性がある。kの値が大きいと、その結果、大きなハロー効果が発生する可能性があるが、kの値が小さいと、その結果、区域内のコントラストの損失が発生する可能性がある。ぼかしは、マスクにより、個々のピクセルの明度に基づいて重みが得られるのではなく、ピクセルがある区域の明度に基づいて重みが得られることを保証する。一部の実施形態において、それによって複数の範囲(暗、中間色調、及び/又は明)からのピクセルを有する区域内のコントラストが改善する。一部の実施形態において、方程式(5)及び(6)を方程式(3)の前に実行し、通常の露光マスク1330Bが方程式(1)及び(2)によって生成されるマスクによってではなく、方程式(5)及び(6)によって生成されるぼけたマスクから生成されるようにする。
マスク生成の以上の説明では、他のルマ画像1320A及び1320Cからではなく、正常露光ルマ画像1320Bからのデータを使用するマスクの生成を説明した。しかし、正常露光ルマ画像1320Bを使用して3つのマスク1330A〜1330Cの全てを生成すると、露光過多画像の誇張された(例えば、飽和した)区域が使用される条件になる可能性がある。それはまた、暗すぎる露光不足画像の区域が使用される条件になる可能性もある。従って、一部の実施形態において、ルマ画像から生成するマスクは、通常の画像からルマ値の代わりに又はそれに加えて、露光過多画像及び露光不足画像からのルマ値を使用して生成する。図13Bは、処理1200を実行して各画像からマスク1330A〜1330Cを生成する例を示している。図13Bでは、露光不足マスク1330Aは露光不足ルマ画像1320Aから生成され、露光過多マスク1330Cは露光過多ルマ画像1320Cから生成され、通常の露光マスク1330Bは露光過多ルマ画像1320C及び露光不足ルマ画像1320Aから生成される。図13Bは通常の露光マスクが露光不足ルマ画像1320A及び露光過多ルマ画像1320Cを使用して生成されるように示すが、一部の実施形態において、方程式(3)を使用して露光不足マスク1320A及び露光過多マスク1320Cから通常の露光マスク1330Bを生成する。一部の実施形態において、露光不足マスク1320A及び露光過多マスク1320Cがぼけた後に、露光不足マスク1320A及び露光過多マスク1320Cから通常の露光マスク1330Bを生成する。
露光不足画像及び露光過多画像からマスクを生成する一部の実施形態において、方程式(1)〜(6)と類似の方程式を使用してマスクを生成するが、露光過多画像からのルマ値(Lb[x,y])は、露光過多マスクのLn[x,y]の代わりをし、露光不足画像からのルマ値(Lu[x,y])は、露光不足マスクのLn[x,y]の代わりをし、閾値が、相応に調節される。一部のこのような実施形態において、露光過多マスク及び露光不足マスクを計算する閾値は、それぞれの画像のルマ中心値から導出される。他の実施形態において、閾値は、正常露光画像のルマ中心値から導出される(例えば、正常露光画像からマスクを生成する上述の実施形態の場合と同じ方法で)。他の実施形態において、閾値は、Tbに対しては(露光過多マスクに向けて)0.4のデフォルト値、Tuに対しては(露光不足マスクに向けて)0.5に設定される。更に他の実施形態において、閾値は、Tbに対しては(露光過多マスクに向けて)0.5のデフォルト値、Tuに対しては(露光不足マスクに向けて)0.5に設定される。
処理1200後に、マスク(例えば、マスク1330A〜1330C)が生成される(1210で)。処理は、次に、各個々のルマ露光(例えば、1320A〜1320C)から取った詳細を含む合成ルマ画像(例えば、ルマ画像1340)を生成する(1220で)。合成ルマ画像1340においては、正常露光ルマ画像1320Bの車体及び道路からの詳細、露光過多ルマ画像1320Cの山からの詳細、及び露光不足ルマ画像1320Aの空及び車輪からの詳細の全てが存在する。一部の実施形態において、以下の方程式を使用してルマ画像1330A〜1330Cを合成する。
Lc[x,y]=Eb*Lb[x,y]*Mb[x,y]+En*Ln[x,y]*Mn[x,y]+Eu*Lu[x,y]*Mu[x,y] (7A)
方程式(7A)において、Lc[x,y]は、合成画像1340内の座標[x,y]でのピクセルのルマ値である。Lb[x,y]は、露光過多(明)ルマ画像1320C内の座標[x,y]でのピクセルのルマ値である。Ln[x,y]及びLu[x,y]は、それぞれ、正常露光ルマ画像1320B及び露光不足ルマ画像1320Aのルマ値である。2Ebは、露光過多ルマ画像1320Cの露光の露光倍率である。En及びEuは、それぞれ、正常露光ルマ画像1320B及び露光不足ルマ画像1320Aの対応する倍率である。Mb[x,y]は、座標[x,y]での露光過多マスク1330Cの値を表している。Mn[x,y]及びMu[x,y]は、それぞれ、正常露光マスク1330B及び露光不足マスク1330Aの値を表している。マスク1330C内のピクセルの値により、露光過多ルマ画像1320C内の対応するピクセルがどれだけ合成画像に影響を与えるかが決まる。マスク1330B内のピクセルの値により、正常露光ルマ画像1320B内の対応するピクセルがどれだけ合成画像に影響を与えるかが決まる。マスク1330A内のピクセルの値により、露光不足ルマ画像1320A内の対応するピクセルがどれだけ合成画像に影響を与えるかが決まる。各マスク1330A〜1330Cにおいて、値が高いほど、合成画像に与える影響が大きいことを意味する。
露光倍率(Eu、En、及びEb)は、画像の異なる露光時間を補正する(例えば、露光過多画像は、露光時間が正常露光画像の4倍である場合に、Eb=En/4)。画像は、露光が多いほどルマ値が高い。その理由は、露光時間が長くなるからであり、データが「より良い」からでも、値が表す画像の部分が明るくなるからでもない。露光の長時間化を補正しなければ、図示の情報よりも露光過多画像からのデータが結果を制する。一部の実施形態において、露光時間の比率は、4以外のものである。露光不足持続時間:正常露光持続時間の比率は、一部の実施形態では、正常露光持続時間:露光過多持続時間の比率と異なっている。このような実施形態において、露光倍率は、露光時間の異なる比率を反映するように調節される。
ピクセルの値が対応するセンサに到達する光の線形関数であるフォーマットを使用する実施形態において、露光倍率により、異なる露光時間により引き起こされたピクセル値内の差が均一に補正される。ピクセルの値がセンサに到達する光の線形関数である時に、他の要素(例えば、特定のセンサにより捕捉された場面の部分の変化する明度)がない場合には、ピクセルの値は、同じ場面の正常露光画像内の対応するピクセルの値の4倍の通常の露光時間に露光過多画像において4倍になる。このようなフォーマットにおいて、同じ場面の各露光内のピクセルは、互いに対して同じ値を有する。すなわち、正常露光画像内の1つのピクセルが正常露光画像内の別のピクセルの値の2倍である場合に、通常の画像内の第1のピクセルに対応する露光過多画像のピクセルは、通常の画像内の第2のピクセルに対応する露光過多画像内のピクセルの2倍の値を有する。
一部のモバイルデバイスは、センサに到達する(飽和点まで)光量の線形関数である成分(例えば、ルミナンス)を含むフォーマットで画像を捕捉する。しかし、一部のこのようなデバイスは、非線形変換(例えば、ガンマ補正)を使用し、自動的にルミナンス画像をルマ画像に変換する。ルミナンスからルマへの非線形変換のために、ルマ値は、露光時間の線形関数でない。ルマ値は、線形関数でなく、その理由は、ガンマ補正は、ルミナンス範囲の中心及び高い両端の近くの値よりもルミナンス範囲の底部の近くの値を変更するからであり、長い露光時間に撮られる露光過多画像は、正常露光画像より明るくて、カメラのルミナンス範囲の上部の近くに集まるルミナンス値を有する。短い露光時間に撮られる露光不足画像は、正常露光画像より暗くて、カメラのルミナンス範囲の底部の近くに集まるルミナンス値を有する。正常な露光で撮られた画像は、カメラのルミナンス範囲の中心の近くに集まるルミナンス値を有する。異なる露光の明度の異なるレベルのために、ガンマ補正は、異なる方法で異なる露光の対応する被写体の相対的な明度を変更することができる。異なる露光内の被写体の相対的な明度を変えると、画像を合成する結果がその影響を受ける。
従って、値が露光時間の線形関数であるフォーマットに画像を戻すために、一部の実施形態は、画像のルマ(Y’)成分のガンマ補正を逆転させて、ルミナンス(Y)画像を生成する。一部のこのような実施形態は、作動をルミナンス画像に行い、次に、作動後に新しいガンマ補正を適用し、ルマ(Y’)成分で最終画像を生成する。逆ガンマ補正は、一部の実施形態では合成中に行われる。一部のこのような実施形態は、方程式(7A)を使用するよりも、むしろ以下の方程式(7B)を使用して合成画像を生成する。
Lc[x,y]=Eb*Lb[x,y](1/γ)*Mb[x,y]+En*Ln[x,y](1/γ)*Mn[x,y]+Eu*Lu[x,y](1/γ)*Mu[x,y] (7B)
方程式(7B)は、ルマ値Lb[x,y]、Ln[x,y]、及びLu[x,y]が(1/γ)の累乗に上げられた点を除き、方程式(7A)と殆ど同じである。また、Lc[x,y]値は、ルマ値ではなくルミナンス値である。一部の実施形態において、モバイルデバイスは、ガンマ(γ)(一部の実施形態において、ガンマは、1/2.2に等しい)の累乗に上げられた捕捉された画像のルミナンス値に基づくルマ値を供給する。一部の実施形態のモバイルデバイスは、供給された画像のメタデータとしてガンマの値を供給する。一部のこのような実施形態において、供給されたガンマを方程式(7B)内で用いて、画像が合成される間に最初のルミナンス値を再現する。他のこのような実施形態は、画像を合成する前に逆ガンマ補正を行って、合成作動とは別の作動において生成されたルミナンス値で方程式(7A)を使用する。
同様に、上述の方程式をルマ画像から生成されたマスクに関して説明したが、当業者は、一部の実施形態のマスクが他のフォーマットで画像から生成されることを理解するであろう。例えば、一部の実施形態において、マスクは、ルマバージョンではなく画像の1つ又はそれよりも多くのルミナンスバージョンから生成される。一部の実施形態において、マスク(例えば、ルマ又はルミナンス)を生成するのに使用される画像のタイプは、合成画像を生成するのに使用される画像のタイプと同じである。他の実施形態において、マスク(例えば、ルマ又はルミナンス)を生成するのに使用される画像のタイプは、合成画像を生成するのに使用される画像のタイプと異なっている。
方程式(7A)又は(7B)を使用して合成画像を生成するために、露光過多画像(Eb)の倍率は、一部の実施形態において露光時間の実際の比率から調節される。一部の実施形態は、以下の方程式を使用し、影を強調させるように露光過多画像Ebの倍率を調節する。
Eb=En/(Er+(2/3*(Ts−0.25)*(1−Er)*(1−tanh(12N−3.5)))) (8)
方程式(8)において、Ebは露光過多画像の倍率であり、Enは、正常露光画像の倍率である。Erは、正常露光画像の露光時間:露光過多画像の露光時間の比率であり(例えば、露光過多画像の露光の長さが正常露光画像の4倍である場合に、1/4)、Tsは、閾値係数である。一部の実施形態において、Tsは、0.4に設定される。Nは、ルマ中心値である(0〜1のルマスケールで)。ルミナンス中心値は、一部の実施形態においてルマ中心値の代わりにNに使用される。
一部の実施形態において、方程式(7A)又は(7B)が実行されると、計算された合成画像は、正規化により特定の範囲(例えば、0〜1又は0〜255)にマップされる(例えば、再スケーリングされる)。
Lc[x,y]=Ec*Lc[x,y]/max(Lc) (9A)
方程式(9A)において、第1のLc[x,y]は、正規化後の合成画像1340内の座標[x,y]でのピクセルのルマである。第2のLc[x,y]は、正規化前の合成画像内の座標[x,y]でのピクセルのルマである。max(Lc)は、正規化前の合成画像内のあらゆるピクセルの最大ルマ値であり、Ecは、範囲を指定する倍率である。一部の実施形態は、1*Euである最高可能ピクセル値より正規化する。これは、EV0と比較されたHDR画像の過度明度を変更することを回避するために行われる。
一部の実施形態は、max(Lc)ではなく異なる正規化係数を適用する。方程式(9B)により、合成画像を正規化する代替方程式が得られる。
Lc[x,y]=Ec*Lc[x,y]/Eu (9B)
方程式(9A)において、第1のLc[x,y]は、正規化後の合成画像1340内の座標[x,y]でのピクセルのルマである。第2のLc[x,y]は、正規化前の合成画像内の座標[x,y]でのピクセルのルマである。En/Ebは、露光過多ルマ画像の露光の露光倍率であり(例えば、露光過多画像の露光時間が通常の露光の4倍である場合に、En/Eb=4)、Ecは、範囲を指定する倍率である。一部の実施形態において、Ecは、1に設定され、他の実施形態において、Ecは、1.2に設定され、他の実施形態において、Ecは、他の値に設定される。
一部の実施形態において、捕捉作動は、方程式(9A)又は(9B)の再スケーリング後に終了する。このような実施形態において、次に、処理1200で合成ルマ画像1340のガウスぼかし合成1350バージョンを生成した時に(1230で)、レンダリング作動が始まる。ガウスぼかし合成画像1350は、個々のマスクのガウスぼけを作成する理由と類似の理由で作成される。ガウスぼかし合成画像1350は、処理1200の他の部分で他の画像を調節する重みとして使用され、ぼかしは、その回りのピクセルと非常に異なる値を有するピクセルの効果(最終画像上で)を高める。ガウスぼけは、方程式(5)及び(6)のマスクぼかしと類似の処理によって生成される。
G[x,y]=filter(Lc[x,y]、k) (10)
方程式(10)において、G[x,y]は、ガウスぼかし合成画像1350を表している。Lc[x,y]は、合成画像1340の(x、y)でのピクセルのルマを表している。フィルタは、フィルタkを使用する2Dフィルタ作動である。項kは、2Dガウスフィルタである。一部の実施形態において、7x7又は9x9フィルタが、3のピクセル分散と共に使用される。同じフィルタ及びカーネルは、一部の実施形態において、方程式(5)及び(6)においてマスクをぼかし、かつ方程式(10)においてガウスぼかし画像をぼかすために使用され、他の実施形態において、異なるフィルタ及び/又はカーネルが使用される。
マスクの場合と同様に、kの値が大きいと、その結果、大きなハロー効果が発生する可能性があるが、kの値が小さいと、その結果、区域内のコントラストの損失が発生する可能性がある。ぼかしは、ガウスぼかし合成画像1350により、個々のピクセルの明度に基づいて重みが得られるのではなくピクセルがある区域の明度に基づいて重みが得られることを保証する。一部の実施形態において、区域に基づく重み付けにより、複数の範囲(暗、中間色調、及び/又は明)からのピクセルを有する区域内のコントラストが改善する。
ガウスぼかし合成画像1350が生成された状態で、処理1200では、強調表示−減衰画像1360A及び影より強調された画像1360Bを生成する(1240で)。陰影−強化画像1360Bは、画像の暗区域内の光レベルの拡張された範囲及び明区域内の光レベルの圧縮された範囲を含む。換言すると、暗区域において、ルマ値間の差は、陰影−強化画像において拡張される。例えば、0.02のルマの合成画像1340内のピクセルは、0.14の陰影−強化画像内のピクセルに変換されることがあり、0.03のルマの合成画像1340内のピクセルは、0.19の陰影−強化画像内のピクセルに変換されることがあり得る。各々の場合に、ピクセルのルマ値のマグニチュードは増加するが、より重要なことに、ルマ値のマグニチュード内の差が増加する。より明るい区域内のピクセルに対して、ピクセルのルマ値のマグニチュードも増加するが、2つのピクセルのルマ値のマグニチュード間の差は減少する。換言すると、影の強調は、範囲を通して明度値を増大させるが、範囲の下端において、隣接値間の増加は、範囲の上端におけるものよりも大きい(すなわち、暗区域の明度の増加は、明区域の明度の増加よりも大きい)。
同様に、強調表示−減衰画像1360Aは、明るい方のピクセルのルマの範囲を拡張し、合成画像1340の暗い方のピクセルのルマの範囲を収縮する。換言すると、強調表示減衰は、範囲を通して明度値を低減するが、範囲の上端において、隣接値間の減少は、範囲の下端におけるものよりも大きい(すなわち、暗区域の明度の減少は、明区域の明度の増加よりも大きい)。
一部の実施形態において、陰影−強化画像1360Bは、以下の方程式によって生成される。
Ls[x,y]=Lc[x,y]/(Bs*G[x,y]+(1−Bs)) (11)
方程式(11)において、Ls[x,y]は、陰影−強化画像1360B内の座標[x,y]でのピクセルのルマ値である。G[x,y]は、ガウスぼかし合成画像1350内の座標[x,y]でのピクセルのルマ値である。Bsは、倍率である。Bsは、一部の実施形態において0.83に等しい。他の実施形態において、他の値が使用される。
強調表示−減衰画像1360Aは、一部の実施形態において以下の方程式によって生成される。
Lh[x,y]=1−((1−Lc[x,y])/((1−Bh)*(1−G[x,y])+Bh)) (12)
方程式(12)において、Lh[x,y]は、強調表示−減衰画像1360A内の座標[x,y]でのピクセルのルマ値である。G[x,y]は、ガウスぼかし合成画像1350内の座標[x,y]でのピクセルのルマ値である。Bsは、倍率である。一部の実施形態において、Bsは、0.7に等しい。他の実施形態において、他の値が倍率に使用される。
処理1200は、陰影−強化画像1360B及び強調表示−減衰画像1360Aを合成して合成画像1370を作成する(1250で)。一部の実施形態の合成画像1370は、以下の方程式を使用して生成される。
Lc[x,y]=(Ls[x,y]*(l−G[x,y]))+(Lh[x,y]*G[x,y]) (13)
Lc[x,y]は、合成画像1370内の座標[x,y]でのピクセルのルマ値である。Lh[x,y]は、強調表示−減衰画像1360A内の座標[x,y]でのピクセルのルマ値である。G[x,y]は、ガウスぼかし合成画像1350内の座標[x,y]でのピクセルのルマ値である。Ls[x,y]は、陰影−強化画像1360B内の座標[x,y]でのピクセルのルマ値である。陰影−強化画像1360B及び強調表示−減衰画像1360Aの組合せは、方程式(13)において重み付けされるように、画像の明区域及び暗区域において詳細を強調する正味効果を有する。一部の実施形態において、陰影−強化画像1360B及び強調表示−減衰画像1360Aを合成することの一部として、許容範囲の上部よりも大きいルマを有するあらゆるピクセルは、許容範囲の上部まで低減される(例えば、0〜1の範囲の1.1のルマは、1のルマに低減される)。
一部の実施形態は、この時点でルマ値を増大及び減衰するのを止めて作動1260に移動する。しかし、一部の実施形態において、画像1360A及び1360Bを合成することは、中間色調ピクセルの増大も含む。一部のこのような実施形態は、中間色調を強調するために以下の方程式を実行する。
Lc[x,y]=Lc[x,y](2((Bm*G[x,y]*(1−G[x,y]))2) (14)
方程式(14)において、第1のLc[x,y]は、中間色調ピクセルの強調後の合成画像1370内の座標[x,y]でのピクセルのルマ値である。第2のLc[x,y]は、中間色調ピクセルの強調前の合成画像内の座標[x,y]でのピクセルのルマ値である。G[x,y]は、ガウスぼかし合成画像1350内の座標[x,y]でのピクセルのルマ値である。Bmは、増大曲線を判断する倍率である。一部の実施形態は、他の方程式を使用して中間色調を強調する。上述のように、一部の実施形態は、中間色調を強調しない。
合成ルマ画像1340(例えば、方程式(7A)を使用して)ではなく合成画像ルミナンス画像1340(例えば、方程式(7B)を使用して)を生成する一部の実施形態において、陰影−強化画像1360B、強調表示−減衰画像1360A、及び合成画像1370は、ルマ画像ではなくルミナンス画像である。すなわち、画像1360A及び1360B及び1370が、全てルミナンス画像であるのは、ルマ画像1340ではなくルミナンス画像1340から生成されるからである(直接、間接に関わらず)。一部のこのような実施形態において、ルミナンス画像1370は、ガンマ補正(例えば、ガンマの累乗に画像1370のルミナンス値を上げる)によりルマ画像1370に変換される。一部の実施形態のモバイルデバイスは、ルマ画像1370にルミナンス画像1370を変換するのに使用されるガンマ値を供給する。ガンマ値は、一部の実施形態では1/2.2である。
様々な合成処理では、値の利用可能な範囲の1つの小さい区域内に集まったルマ値を有する画像を生成することができる。例えば、画像は、利用可能なスケールの50%より殆ど全て暗いピクセルを有するか、又は利用可能なスケールの50%より殆ど全て明るいピクセルを有する場合がある。画像内のルマ値の範囲を増大させて利用可能なスケールを利用するために、一部の実施形態の処理1200では、合成画像1370のルマバージョン上でヒストグラム拡張を適用して最初の正常露光ルマ画像1320Bの大体のルマ分布に戻す(1260で)。このヒストグラム拡張により、合成画像1370のルマのヒストグラムが生成されて、画像1370に対して0.5百分率と99.5百分率間のルマの範囲を判断する。処理は、次に、正常露光ルマ画像1320Bのピクセルに対して同じ判断をする。処理は、次に、合成画像1370のピクセルに以下の方程式を適用する。
Lf[x,y]=(Lc[x,y]−L1)*((H2−L2)/(H1−L1))+L2 (15)
方程式(15)において、Lf[x,y]は、合成画像1380内の座標[x,y]でのピクセルのルマ値である。Lc[x,y]は、合成画像1370内の座標[x,y]でのピクセルのルマ値である。L1は、合成画像1370内のピクセルの99.5%より暗いルマ値である。H1は、合成画像1370内のピクセルの99.5%より明るいルマ値である。L2は、正常露光ルマ画像1320B内のピクセルの99.5%より暗いルマ値である。H2は、正常露光ルマ画像1320B内のピクセルの99.5%より明るいルマ値である。一部の実施形態において、百分率は、異なる場合がある。
このヒストグラム拡張では、正常露光ルマ画像1320Bと同じ全体的な照明範囲の条件が得られる。百分率による遮断の理由は、範囲外のルマのピクセルが最初の正常露光ルマ画像1320Bと比較して圧縮され過ぎるか又は広過ぎる範囲の画像を製造することを防止することである。一部の実施形態は、次に、利用可能な範囲の上部よりも大きいルマ値を有するピクセルのルマ値を範囲の最高値に変更する。一部の実施形態は、利用可能な範囲の底部よりも小さいルマ値を有するピクセルのルマ値を範囲の最小値に変更する。
一部の実施形態は、利用可能なルマの範囲全体を利用するためにルマ値をあらゆる範囲(例えば、利用可能な範囲全体)に拡張する。例えば、一部の実施形態は、最初の正常露光ルマ画像1320Bが狭い範囲のルマを有する時にルマの範囲全体に拡張する。ヒストグラム拡張後に、処理1200は、次に終了する。
ヒストグラム拡張の以上の説明では、ルマ合成画像1370にヒストグラムを適用する実施形態を説明した。しかし、一部の実施形態において、ヒストグラム拡張はルミナンス合成画像1370に適用され、ガンマ補正は、合成画像1380のルマバージョンを生成するために最終合成画像1380のルミナンスバージョンに適用される。
C.色度チャンネル画像の合成
ルマ、青色色度、赤色色度(Y’CbCr)フォーマット又はルミナンス、青色色度、赤色色度(YCbCr)フォーマットの画像は、色情報を伝達する色度成分(Cb及びCr)を有する。処理1200は、それらのフォーマット内で画像のルマ(又はルミナンス)成分を合成するが、一部の実施形態は、ルマ成分の合成とは別に画像1310A〜1310Cの色度チャンネル画像を合成する。一部の実施形態において、ルマ画像を合成する際に使用される同じマスクが、色度画像を合成する際に使用される。図14は、色度チャンネル画像を合成する一部の実施形態の処理1400を示している。図14を図15に関連して説明する。図15は、一部の実施形態では色度チャンネル画像を合成する例を示している。図15は、露光不足色度チャンネル画像1520A、正常露光色度チャンネル画像1520B、露光過多色度チャンネル画像1520C、合成色度チャンネル画像1530、及びルマ合成からインポートされたデータ1540を含む。露光不足色度チャンネル画像1520Aは、画像1310Aからの色度値(例えば、Cr及びCb)を含む。正常露光色度チャンネル画像1520Bは、画像1310Bからの色度値(例えば、Cr及びCb)を含む。露光過多色度チャンネル画像1520Cは、画像1310Cからの色度値(例えば、Cr及びCb)を含む。一部の実施形態において、色度チャンネル画像(Cb及びCr)の各組には、同じ作動が行われる。一部の実施形態の合成色度画像1530は、色度データの2つのチャンネルも含む。当業者は、一部のこのような実施形態において、合成処理が別々に各色度チャンネルに行われることを理解するであろう。しかし、明瞭さを期すために、色度合成処理での下記の説明では、「合成画像の1つのチャンネルのピクセル」ではなく、むしろ「合成画像のピクセル」に言及する。
処理1400は、露光過多、露光不足、及び正常露光のマスク(例えば、ルマ合成処理1200中に生成されるマスク)を受信する(1410で)ことによって始まる。図15では、インポートされたデータ1540は、これらのマスクを含む。一部の実施形態において、このようなマスクは、処理1400に対してはルマ合成処理におけるマスクのコピーではなく別々に生成される。一部の実施形態において、ルマ合成と異なるマスクが色度合成するのに使用される。例えば、一部の実施形態において、色度合成のマスクは、最終ルマ合成画像から生成される。一部の実施形態は、正常露光ルマ画像から1組のマスクを、個々のルマ画像から別の1組のマスクを生成し、異なるタイプの画像成分を合成するのに各組を使用する(例えば、ルマに一方、色度に他方)。
マスクが受信(又は生成)された後に、処理1400は、マスク(例えば、マスク1330A〜1330C)から合成画像の1つの色度チャンネル及び1520A〜1520C色度画像の1つのチャンネル(すなわち、Cb又はCr)を生成する(1420で)。一部の実施形態において、色度画像1520A〜1520Cのチャンネルを以下の方程式を使用して合成する。
Cc[x,y]=Eb*Cb[x,y]*Mb[x,y]+En*Cn[x,y]*Mn[x,y]+Eu*Cu[x,y]*Mu[x,y] (16)
方程式(16)において、Cc[x,y]は、合成色度チャンネル画像1530(図15の)内の座標[x,y]でのピクセルの色度値である。Cb[x,y]は、露光過多(明)ルマ画像1520C内の座標[x,y]でのピクセルの色度値である。Cn[x,y]及びCu[x,y]は、それぞれ、正常色度チャンネル画像1520B及び露光不足色度チャンネル画像1520Aの色度値である。Ebは、露光過多色度画像1520Aの露光の露光倍率である。En及びEuは、それぞれ、正常色度チャンネル画像1520B及び露光不足色度チャンネル画像1520Aの色度値である。Mb[x,y]は、座標[x,y]での露光過多マスク1330Cの値を表している。Mn[x,y]及びMu[x,y]は、それぞれ、正常露光マスク1330B及び露光不足マスク1330Aの値を表している。マスク1330C内のピクセルの値により、露光過多色度チャンネル画像1520C内の対応するピクセルが合成色度にどれだけの影響を与えるかが決まる。マスク1330B内のピクセルの値により、正常色度チャンネル画像1520B内の対応するピクセルが合成色度にどれだけの影響を与えるかが決まる。マスク1330A内のピクセルの値により、露光不足色度チャンネル画像1520A内の対応するピクセルが合成色度にどれだけの影響を与えるかが決まる。各マスク1330A−1330Cにおいて、値が高いほど影響が大きいことを意味する。ルマ画像と同じマスクを使用することにより、色度調節は、色度チャンネル画像1520A〜1520C内の各ピクセルの色データが、ルマ画像内の各ピクセルに対して対応するルマデータに確実に適合することを保証する。例えば、露光過多ルマ画像1320C内の対応するピクセルからのルマ値の62%を得る特定のピクセルは、ここでもまた、露光過多色度チャンネル画像1520Cの対応するピクセルからのその色度値の62%を得る。
処理1400では、ガウスぼかしマスクを受信する(1430で)。一部の実施形態において、これは、ルマ合成画像1340から生成された同じガウスぼかし合成1350のコピーである。当業者は、ガウスぼかし合成画像1350は処理1400内の先又は後の時点で受信することができることを理解するであろう。処理1400では、方程式(15)で分るように、ヒストグラム拡張値(例えば、(H2−L2)/(H1−L1)を受信する(1440で)。この値は、一部の実施形態において、処理1200中に記憶されて処理1400中に受信されるのではなく、処理1400中に独立して計算される。
処理1400は、次に、ガウスぼかし合成画像1350及びヒストグラム拡張値を使用して合成色度を調節する(1450で)。この調節ではまた、一部の実施形態において、合成色度画像に飽和係数を掛ける。一部の実施形態は、予めプログラムされた飽和係数を供給する。一部の実施形態において、予めプログラムされた飽和係数に加えて又はその代わりにユーザ調節可能な飽和係数が供給される。更に他の実施形態において、色度画像調節は、方程式(17)〜(19)により判断される。
F[x,y]=1+(H2−L2)(H1−L1)**G[x,y]*(1−G[x,y])) (17)
方程式(17)内の飽和係数(F[x,y])は、一部の実施形態において、以下で方程式(19)に示すように座標[x,y]でピクセルの色度を調節するのに使用される。L1は、図13又は図14の合成画像1370内のピクセルの99.5%より暗いルマ値である。H1は、合成画像1370内のピクセルの99.5%より明るいルマ値である。L2は、正常露光ルマ画像1320B内のピクセルの99.5%より暗いルマ値である。H2は、正常露光ルマ画像1320B内のピクセルの99.5%より明るいルマ値である。Xは、異なる実施形態では異なり、かつ一部の実施形態では変更することができる(例えば、ユーザ又はモバイルデバイスにより)飽和係数(例えば、1.2)である。一部の実施形態において、ヒストグラム拡張係数を計算するのに使用される百分率は、上述のものと異なる場合がある。G[x,y]は、ガウスぼかし合成画像1350内の座標[x,y]でのピクセルの値である。係数G*(l−G)は、G=0.5の時に最大にされ、G=l又はG=0の時に最小にされる。従って、このようにガウスぼかし合成画像1350を使用し、明るい又は暗いピクセルを有する画像の部分の色度値ではなく中間色調ルマを有する画像の部分の色度値が増大する。中間色調ピクセルの色を強調すると、色を均一に強調するのと異なる最終画像が得られる。
一部の実施形態において、合成色度は、以下の方程式を使用して生成される正規化係数で色度値を割ることによって正規化される(1460で)。
N[x,y]=(Eb*Mb[x,y])+(En*Mn[x,y])+(Eu*Mu[x,y]) (18)
方程式(18)内の正規化係数(N[x,y])は、一部の実施形態において、以下で方程式(19)に示すように座標[x,y]でピクセルの色度を調節するのに使用される。Ebは、露光過多色度画像1520Aの露光の露光倍率である。En及びEuは、それぞれ、正常色度チャンネル画像1520B及び露光不足色度チャンネル画像1520Aの色度値である。Mb[x,y]は、座標[x,y]での露光過多マスク1330Cの値を表している。Mn[x,y]及びMu[x,y]は、それぞれ、正常露光マスク1330B及び露光不足マスク1330Aの値を表している。
従って、一部の実施形態において、最終合成色度チャンネル画像1530は、以下の方程式により判断される。
Cf[x,y]=Cc[x,y]*F[x,y]/N[x,y] (19)
方程式(19)において、Cf[x,y]は、合成色度チャンネル画像1530(飽和後)内の座標[x,y]でのピクセルの色度値である。N[x,y]は、合成色度画像の色度値を割るために使用される正規化係数(例えば、方程式(18)からの正規化係数)である。Cc[x,y]は、合成色度チャンネル画像1530内の座標[x,y]でのピクセルの色度値である。F[x,y]は、座標[x,y]でピクセルの色度に掛けるために使用される飽和係数である(例えば、方程式(17)からの飽和係数)。これらの調節を行う実施形態において、調節により最終合成色度チャンネル画像1530が生成される。当業者は、方程式(19)を使用する一部の実施形態において、方程式(17)及び(18)と異なる方程式を使用してF[x,y]又はN[x,y]を計算することを理解するであろう。
処理1400は、次に、合成すべき別の色度チャンネル画像があるか否かを判断する(1470で)。合成すべき別の色度チャンネルがある場合(例えば、処理1400がCr色度画像でなくCb色度画像を合成し終えていた場合にCr色度画像を調節する)、処理1400は、作動1420に戻って新しい色度チャンネル画像にマスクを適用する。一部の実施形態において、作動1420〜1460を一方の色度チャンネル画像に行うのではなく個々の作動を各色度チャンネル画像に行い、次に、1420〜1460を他方の色度チャンネル画像に行う。処理1400は、一部の実施形態では全ての色度チャンネルに行われる。
上述の色度関連の方程式は、画像の対応するルマ(又はルミナンス)成分と同じ分解能を有する画像の色度成分を合成することを説明するものであるが、当業者は、一部の実施形態において、画像の色度成分は、画像のルマ(又はルミナンス)成分と異なる分解能を有することを理解するであろう。一部のこのような実施形態において、マスクは、分解能の差に対処するように調節される。例えば、一部の実施形態は、画像のルマ/ルミナンス成分内の2つの水平に隣接するピクセルに対応する画像の色度成分内の各ピクセルに対して4:2:2のフォーマットを使用する。一部の実施形態のマスクは画像のルマ/ルミナンス成分と同じ分解能を有するので、画像の色度成分内の各ピクセルは、対応するマスク内の2つの水平に隣接するピクセルに対応する。一部のこのような実施形態において、画像の色度ピクセルの値は、対応するマスク内の水平に隣接するピクセルの対応する対の平均値により重み付けされる。他のこのような実施形態において、色度ピクセルの値は、マスク内の水平に隣接するピクセルの対応する対の一方又は他方の値(例えば、対の一番左のピクセルの値)により重み付けされる。同様に、一部の実施形態は、各色度ピクセルがルマ/ルミナンス成分において(及びマスクにおいて)ピクセルの2x2平方に対応する4:2:0のフォーマットを使用する。一部のこのような実施形態において、色度ピクセルの値は、マスクにおいて対応する4つのピクセルの平均値により重み付けされる。他のこのような実施形態において、色度ピクセルの値は、マスク内の4つの対応するピクセルの1つの値(例えば、4つの左上ピクセルの値)により重み付けされる。代替的に、一部の実施形態において、色度成分の合成は、マスクの分解能で行われ、合成ルマ/ルミナンス成分と同じ分解能を有する合成色度成分が生成される。一部のこのような実施形態において、合成色度成分は、何らかの時点で最初の色度成分の分解能に変換される。
一部の実施形態の合成モジュールは、最終ルマ画像1380(図13A又は図13Bの)及び最終合成色度チャンネル画像1530(図15の)の各チャンネルを結合して最終HD画像を生成する。代替的に、一部の実施形態における合成モジュールは、最終ルマ画像1380及び最終合成色度チャンネル画像1530をRGBフォーマット(例えば、sRGB)に変換して最終HDR画像を生成する。
D.露光条件のための調節
一部の実施形態のモバイルデバイスは、モバイルデバイスが画像を撮っている時に局所照明条件に対処するように正常露光画像の露光時間を自動的に調節する。一部の実施形態において、露光時間は、カメラのCMOセンサのリフレッシュ間の時間である。モバイルデバイスは、正常持続時間露光の露光時間を増大させることによって弱光条件を補正する。一部のこのような実施形態において、モバイルデバイスは、露光の持続時間に関する上限値も有する。一部の実施形態における露光過多画像の露光持続時間は、正常露光持続時間の倍数である(例えば、正常露光持続時間の4倍)。弱光条件において、通常の露光の持続時間の増大及び露光過多画像の露光時間のデフォルト乗数により、モバイルデバイスにより許容される上限値より長い露光過多画像の露光時間になる可能性がある。これらの条件に向けて調節するために、一部の実施形態は、露光過多画像に対して、デフォルト値より低い露光乗数(例えば、4のデフォルト乗数ではなく2の乗数)を使用する。一部の実施形態の合成処理では、相応に倍率Ebを増大させる。
一部の場合には、光は、正常露光持続時間が許容露光時間の上限値又はその近くにあるほど薄暗い。このような場合に、露光過多持続時間は、長くても強制的に正常露光持続時間と同じ長さ(又は殆ど同じ長さ)にされる。一部の実施形態のモバイルデバイスは、正常露光画像と同量の時間に(又は殆ど同量の時間に)露光過多画像を撮ってとにかく合成を提供する。当業者は、正常露光画像及び露光過多画像が同じ露光持続時間に撮られる場合には、画像は、正常露光画像及び露光過多画像とではなく、2つの正常露光画像と呼ぶことができることを理解するであろう。
正常露光持続時間がモバイルデバイスの最大許容露光である場合に、一部の実施形態は、最終画像においてノイズレベルを低減するために同じ露光持続時間に撮られる2つの正常露光画像を合成する。正常露光持続時間がモバイルデバイスの最大許容露光の近くである場合に、露光過多画像は、正常露光画像の露光持続時間より僅かに長いだけである露光持続時間で撮られる。露光持続時間の低い比率のために、このような場合の露光過多画像では、通常ほど中分散範囲が増大しない。しかし、一部の実施形態は、ダイナミックレンジの増加が小さくて済むように及び/又は最終画像内のノイズレベルを低減するために、露光過多画像及び正常露光画像を合成する。
露光持続時間を制限する実施形態において、露光過多持続時間の上限を定められた時に、倍率Ebは、露光時間の変更された比率に従って増大される。同じか又は他の一部の実施形態において、モバイルデバイスは、露光過多画像を撮っている間はフラッシュを使用し、露光過多画像の露光時間の長時間の欠如を補正するために正常露光画像を撮っている間にはフラッシュを使用しない。一部の実施形態において、フラッシュは、正常露光持続時間が最大露光持続時間の一部の特定の閾値内のある時に使用される。例えば、一部の実施形態において、フラッシュは、正常露光持続時間が最大露光持続時間の50%よりも長い時に使用される。他の実施形態において、他の百分率が閾値として使用される。一部の実施形態において、正常露光持続時間が閾値よりも大きい時に、露光過多持続時間は、最大露光持続時間(例えば、より明るい照明条件に使用されるより低い正常露光持続時間の倍数)に設定され、フラッシュは、露光過多持続時間に使用されるが、正常持続時間又は露光不足持続時間に対しては使用されない。一部の実施形態において、フラッシュが使用される場合に、モバイルデバイスは、露光過多で正常露光画像を捕捉及び合成するが露光不足画像を捕捉せず、及び/又は他の2つの画像で露光不足画像を合成しない。
一部の実施形態のモバイルデバイスは、露光の長さに下限値を有する。このような実施形態において、明るい光条件において、露光不足画像の露光時間のデフォルト乗数により、露光時間は、モバイルデバイスが許容する下限値より短くなる場合がある。一部のこのような実施形態において、露光不足画像では、他の場合よりも高い露光乗数を使用する(例えば、1/4のデフォルト露光乗数ではなく1/2の露光乗数)。一部の場合には、光は、正常露光持続時間が許容露光時間の下限値であるほど明るい。このような場合に、露光不足は、正常露光画像と同量の時間に撮られて(結果として2つの正常露光画像になる)、かつ最終画像においてノイズレベルを低減するためで合成する際に使用される。一部のこのような実施形態において、倍率Euは、露光時間の変更された比率に従って低減される。
本明細書に説明する実施形態の多くの説明では、3つの画像(例えば、露光不足画像、正常露光画像、及び露光過多画像)を撮って合成することに言及したが、当業者は、他の実施形態において、他の数の画像を撮り及び/又は合成することができることを理解するであろう。例えば、一部の実施形態は、3つの画像の代わりに2つの画像(例えば、露光不足画像及び正常露光画像)を合成する。
更に、一部の実施形態は、照明条件に基づいて異なる数の画像を撮る。例えば、一部のこのような実施形態は、モバイルデバイスが暗区域及び明区域を有する場面の画像を捕捉している時には3つの画像を合成し、モバイルデバイスが殆ど暗区域又は殆ど明区域がない画像を捕捉している時には2つの画像を合成する。場面に殆ど暗区域がない時に、一部のこのような実施形態は、正常露光画像及び露光不足画像を合成する。場面に殆ど明区域がない時に、一部のこのような実施形態は、正常露光画像及び露光不足画像を合成する。一部のこのような実施形態は、1つ又はそれよりも多くの画像(例えば、プレビュー画像)のヒストグラムを使用し、場面に殆ど明区域がないか又は殆ど暗区域がないかを判断する。明区域又は暗区域が小さいか又は不在の時に2つの画像を合成する一部の実施形態は、依然として明区域及び暗区域が小さいか又は不在の時に(すなわち、主に中間色調である場面)3つの画像を使用する。代替的に、捕捉すべき場面の個々の区域の品質に基づいて画像のタイプを除外するのではなく、一部の実施形態は、特定の総合光レベルよりも大きい場面を捕捉する時に露光過多画像を除外し、一部の実施形態は、特定の総合光レベルよりも小さい場面を捕捉する時に露光不足画像を除外する。
以上の説明には、多くの組のデータ(例えば、ガウスぼかし画像、陰影−強化画像、露光過多画像のような)に関して「画像」又は「複数の画像」という用語が含まれていたが、当業者は、一部の実施形態において、これらの「画像」内のデータは、通常、実施形態を実施する際に視覚形態では表示されないことを理解するであろう。このような実施形態において、「画像」内のデータは、最終的に視覚形態で表示される他のデータを操作及び調節するのに使用される。一部の実施形態は、最終製品、すなわち、HDR画像のみを表示する。しかし、他の実施形態は、他の画像、並びに最終HDR画像の1つ又はそれよりも多くを表示する。
1つのフラッシュ照明画像を1つ又はそれよりも多くの非フラッシュ照明画像に結合する実施形態により、デバイスのHDR画像捕捉モードは、デバイスのフラッシュモードに関連して作動させることができる。しかし、他の実施形態において、デバイスは、フラッシュモード又はHDRモードでのみ作動させることができる。従って、自動フラッシュモードが有効である時に、これらの実施形態は、HDR画像捕捉モードを無効にする。
E.画像フォーマット
上述の実施形態の多くは、1つ又はそれよりも多くの画像フォーマットに関して説明した。当業者は、異なる実施形態が異なるフォーマットで画像を供給及び操作することを理解するであろう。一部の実施形態において、色画像は、ルマチャンネル及び2つの色度チャンネルのような情報の3つのチャンネルとして供給される。このタイプの情報に使用される1つの色フォーマットは、Y'CbCr(ルマ、青色色度、及び赤色色度)色フォーマットである。一部の実施形態のモバイルデバイスのカメラ機能は、Y'CbCrフォーマットで画像を自動的に供給する。モバイルデバイスの光センサ(例えば、電荷結合素子)は、各センサに到達する光の強度を測定して強度に比例したルミナンス値(Y)を生成する。モバイルデバイスは、カメラの光センサから受信したルミナンスデータを取ってルミナンスデータにガンマ補正を適用すること(例えば、1/2.2のような何らかの累乗にルミナンス値を数学的に上げること)により、画像のY’成分を生成する。
Y’CbCrフォーマットにおいて、ルマ(Y’)チャンネルは、画像のルマ情報を伝達し、Cb(時にCBとして外部参考文献に書かれる)チャンネルは、画像の青色値がどれ程度ルマ(Y’)値と異なるかに関する情報を伝達し、Cr(時にCRとして外部参考文献に書かれる)チャンネルは、画像の赤色値がどれ程度ルマ(Y’)値と異なるかに関する情報を伝達し、実際上、ルマチャンネル(Y’)は、モノクロ(及び灰色)画像を供給し、色度チャンネル(Cb及びCr)は、画像に色を追加する。一部の実施形態において、Y’CbCr値のスケールは、任意に変更することができる。本明細書に説明する計算結果に対して、ルマ(Y’)は、検査結果に対しては1の最大値及び0の最小値にスケーリングされ、色度(Cb及びCr)は0.5から0.5までスケーリングされる。しかし、他のスケールが、一部の実施形態の範囲で可能である。例えば、ルマ(Y’)は、一部の実施形態では、0から255までスケーリングされる。他の実施形態は、ルマを16から235までスケーリングし、色度を16から240までスケーリングする。YUVのような他の色フォーマットが、一部の実施形態では使用される。
一部のモバイルデバイスは、直接にYCbCr色フォーマットで画像を捕捉し、次に、RGB画像(例えば、標準的なRGB)に又はY’CbCr画像に画像を変換する。一部の実施形態において、上述の作動は、Y’CbCrフォーマットで捕捉された時に画像に行われる(モバイルデバイスのスケールからのあらゆる必要な再スケーリングと共に)。他の実施形態において、この作動は、RGBフォーマットで最初に受信されてY’CbCrに変換された画像に行われる。作動及び数学的な方程式では、以下でY’CbCrカラーフォーマットを仮定するが、他の実施形態は、他の色フォーマット(例えば、YUVのような)を使用する。一部の実施形態において、他の色フォーマットで、作動及び方程式が相応に調節される。同様に、一部の実施形態は、間引かれた画像及び上述のように画像を整列させるのに使用されるビットマップを生成する時に、ルマ値ではなくルミナンス値を使用する。
処理及び上述の方程式を特定の画像フォーマットに関して説明したが、当業者は、処理及び方程式は、一部の実施形態では他の画像フォーマットに対して使用することができることを理解するであろう。例えば、一部の箇所では、以上の説明は、ルマデータに言及し、一部の箇所では、ルミナンスデータに言及している。しかし、特に断らない限り、本明細書に説明する方程式及び処理は、一部の実施形態ではルマ値に適用され、他の実施形態ではルミナンス値に適用され、その逆も同様である。当業者は、ルマ及びルミナンスは、画像強度データのフォーマットの2つの例にすぎず、かつ説明した処理及びルミナンス及びルマに関連して本明細書に説明する方程式は、一部の実施形態では強度情報を記憶する他のフォーマットに適用することができることを理解するであろう。例えば、一部の実施形態は、RGBフォーマット、sRGBフォーマット、R’G’B’フォーマット(すなわち、ガンマ補正RGBフォーマット)、又は別々の成分として強度データ及び色データを供給しない他のフォーマットの画像の赤色、青色、及び緑色の成分に対して上述の作動を行う。このような作動を赤色、青色、緑色の成分に行う一部の実施形態は、上述の同じ作動又は類似の作動でガンマ補正されたフォーマットとガンマ補正されていないフォーマット間で変換する。
同様に、色度データに適用されると本明細書に説明する方程式及び処理は、一部の実施形態では強度データとは別に色データを記憶する他のフォーマットに適用することができる。更に、以上の説明では一方のフォーマットから別のフォーマットへの(例えば、ルマからルミナンス又はRGBからルマへの)変換を行うことができる処理の一部の特定の部分を指摘しているが、当業者は、画像間の変換は、一部の実施形態では処理のいずれかの1つ又は複数の段階で行うことができることを理解するであろう。
VI.モバイルデバイス
図16は、一部の実施形態のモバイルコンピュータデバイス1600の例である。モバイルコンピュータデバイスの例は、1つ又はそれよりも多くの処理ユニット1605、メモリインタフェース1610、及び周辺機器インタフェース1615を含む。コンピュータデバイスアーキテクチャを構成するこれらの構成要素の各々は、別々の構成要素とすることができ、又は1つ又はそれよりも多くの集積回路に一体化することができる。これらの様々な構成要素は、1つ又はそれよりも多くの通信バス又は信号線により互いに結合することができる。
周辺機器インタフェース1615は、様々なセンサ、及びカメラサブシステム1620、無線通信サブシステム1625、オーディオサブシステム1630、I/Oサブシステム1635などを含むサブシステムに結合する。周辺機器インタフェース1615は、プロセッサと周辺機器間の通信を可能にする。方位センサ1645又は加速度センサ1650のような周辺機器は、方位及び加速度機能を容易にするために周辺機器インタフェース1615に結合することができる。
カメラサブシステム1620は、デバイスの1つ又はそれよりも多くのカメラに向けて1つ又はそれよりも多くの光センサ1640(例えば、電荷結合素子(CCD))光センサ、相補的金属酸化物半導体(捕捉モジュール)光センサに結合することができる。一部の実施形態において、デバイスは、1台のカメラのみを有し、一方、他の実施形態において、デバイスは1つよりも多い(例えば、2つの)カメラを有する。一部の実施形態において、デバイスは、デバイスの複数の側面上のカメラを有する(例えば、デバイス前面のカメラ及びデバイス後面のカメラ)。センサに結合したカメラサブシステム1620は、画像及び/又は映像データ捕捉のようなカメラ機能を容易にすることができる。無線通信サブシステム1625は、通信機能を容易にする役目をすることができる。無線通信サブシステム1625は、無線周波数受信機及び送信機、及び光受信機及び送信機を含むことができる。無線通信サブシステム1625は、GSM(登録商標)ネットワーク、Wi−Fiネットワーク、Bluetooth(登録商標)ネットワークのような1つ又はそれよりも多くの通信ネットワーク上で作動するように実施することができる。オーディオサブシステム1630は、音声認識、デジタル録音のような音声対応関数を容易にするためにスピーカ1631及びマイク1632に結合される。
I/Oサブシステム1635は、周辺機器インタフェース1615を通じて、ディスプレイ、タッチスクリーンのようなI/O周辺デバイスとCPUのデータバス間の転送を提供する。I/Oサブシステム1635は、これらの関数を容易にするために、タッチスクリーンコントローラ1655及び他の入力コントローラ1660を含むことができる。タッチスクリーンコントローラ1655は、タッチスクリーン1665に結合することができ、かつ複数のタッチ感度技術のいずれかを使用して画面上の接触及び移動を検出することができる。他の入力コントローラ1660を1つ又はそれよりも多くのボタンのような他の入力/制御デバイスに結合することができる。
メモリインタフェース1610は、メモリ1670に結合することができ、メモリ1670は、フラッシュメモリのような高速ランダムアクセスメモリ及び/又は不揮発性メモリを含むことができる。メモリは、オペレーティングシステム(OS)1672を記憶することができる。OS1672は、基本システムサービスを処理する命令及びハードウエア従属タスクを行う命令を含むことができる。
メモリは、1つ又はそれよりも多くの付加的なデバイスと通信することを容易にする通信命令1674、グラフィカルユーザインタフェース処理を容易にするグラフィカルユーザインタフェース命令1676、画像関連の処理及び関数を容易にする画像処理命令1678、電話関連の処理及び機能を容易にする電話命令1680、メディア通信及び処理関連の処理及び機能を容易にするメディア交換及び処理命令1682、カメラ関連の処理及び機能を容易にするカメラ命令1684、及びHDRにおいて生成処理及び機能を容易にするHDR画像生成命令1686を含むことができる。先に識別した命令は、別々のソフトウエアプログラム又はモジュールとして実施された必要はない。モバイルコンピュータデバイスの様々な機能は、1つ又はそれよりも多くの信号処理及び/又は特定用途向け集積回路を含むハードウエア及び/又はソフトウエアに実施することができる。
図17は、タッチI/Oデバイスを示している。上述の実施形態は、有線又は無線通信チャンネル1702を通じて、図17に示すように、コンピュータシステム1703と相互作用するタッチ入力を受信することができるタッチI/Oデバイス1701を含むことができる。タッチI/Oデバイス1701を使用して、キーボードマウスのような他の入力デバイスの代わりに又はそれらと組み合わせてコンピュータシステム1703にユーザ入力を供給することができる。1つ又はそれよりも多くのタッチI/Oデバイス1701は、コンピュータシステム1703にユーザ入力を供給するのに使用することができる。タッチI/Oデバイス1701は、コンピュータシステム1703の不可欠な部分(例えば、ラップトップ上のタッチスクリーン)とすることができ、又はコンピュータシステム1703とは別々のものとすることができる。
タッチI/Oデバイス1701は、全体的に又は部分的に透明、半透明、不透明、不明瞭、又はそのあらゆる組合せである接触感知パネルを含むことができる。タッチI/Oデバイス1701は、タッチスクリーン、タッチパッド、タッチパッドとして機能するタッチスクリーン(例えば、ラップトップのタッチパッドに取って代わるタッチスクリーン)、あらゆる他の入力デバイス(例えば、キーボード上に配置されたタッチスクリーン又はタッチパッド)、又はタッチ入力を受信するタッチ感応面を有するあらゆる多次元物体と組み合わされたか又は組み込まれたタッチスクリーン又はタッチパッドとして具現化することができる。
1つの例では、タッチスクリーンとして実施されるタッチI/Oデバイス1701は、少なくとも一部のディスプレイ上に部分的に又は全体的に位置決めされた透明及び/又は半透明の接触感知パネルを含むことができる。この実施形態により、タッチI/Oデバイス1701は、コンピュータシステム1703(及び/又は別のソース)から送信されたグラフィックデータを表示するように機能し、かつユーザ入力を受信するようにも機能する。他の実施形態において、タッチI/Oデバイス1701は、タッチ感応構成要素/デバイスがディスプレイ構成要素/デバイスと一体である一体型タッチスクリーンとして具現化することができる。更に他の実施形態において、タッチスクリーンは、補足的なグラフィックデータ又は主要なディスプレイと同じグラフィックデータを表示してタッチ入力を受信する補足的又は付加的な表示画面として使用することができる。
タッチI/Oデバイス1701は、容量測定、抵抗測定、光学測定、音響測定、誘導測定、機械的測定、化学的測定、又はデバイス1701の近くの1つ又はそれよりも多くのタッチ又はニアタッチの発生に対して測定することができるあらゆる現象に基づいてデバイス1701上で1つ又はそれよりも多くのタッチ又はニアタッチの位置を検出するように構成することができる。ソフトウエア、ハードウエア、ファームウエア、又はそのあらゆる組合せを使用して、1つ又はそれよりも多くの動作を特定及び追跡するように検出されたタッチの測定を処理することができる。動作は、タッチI/Oデバイス1701上の静止中又は非静止中の単一又は複数のタッチ又はニアタッチに対応することができる。動作は、本質的に同時に、隣接して、又は順番に、タッピング、押圧、揺動、擦動、捩り、向き変更、及び様々な圧力による押圧などのようなタッチI/Oデバイス1701上の特定の方法で1つ又はそれよりも多くの指又は他の物体を移動することによって行うことができる。動作は、指の間又はあらゆる他の指でのつまみ、摺動、強打、回転、屈曲、引き、又はタッピングの動きにより特徴付けることができるが、これらに限定されない。単一の動作は、1つ又はそれよりも多くの手により、1人又はそれよりも多くのユーザにより、又はそのあらゆる組合せによって行うことができる。
コンピュータシステム1703は、グラフィックデータでディスプレイを駆動してグラフィカルユーザインタフェース(GUT)を表示することができる。GUTは、タッチT/Oデバイス1701を通じてタッチ入力を受信するように構成することができる。タッチスクリーンとして実施されたタッチI/Oデバイス1701は、GUIを表示することができる。代替的に、GUIは、タッチI/Oデバイス1701とは別のディスプレイ上に表示することができる。GUIは、インタフェース内の特定の位置で表示される図形要素を含むことができる。図形要素は、仮想スクロールホイール、仮想キーボード、仮想ノブ、仮想ボタン、あらゆる仮想UIなどを含む様々な表示された仮想入力デバイスを含むことができるがこれらに限定されない。ユーザは、GUIの図形要素に関連付けることができるタッチI/Oデバイス1701上の1つ又はそれよりも多くの特定の位置で動作を行うことができる。他の実施形態において、ユーザは、GUIの図形要素の位置とは独立している1つ又はそれよりも多くの位置で動作を行うことができる。タッチI/Oデバイス1701に行われる動作では、カーソル、アイコン、メディアファイル、リスト、テキスト、画像のような全て又は様々な部分のような図形要素を直接、間接に関わらず、GUI内で操作、制御、改造、移動、起動、開始、又は全体的に影響を与えることができる。例えば、タッチスクリーンの場合に、ユーザは、タッチスクリーン上で図形要素の上に動作を行うことにより、図形要素と直接に対話することができる。代替的に、タッチパッドにより、一般的に間接的な対話が行われる。動作は、表示されないGUI要素(例えば、ユーザインタフェースを表示させる)に影響を与えることができ、又はコンピュータシステム1703内の他のアクションに影響を与えることができる(例えば、GUI、アプリケーション、又はオペレーティングシステムの状態又はモードに影響を与える)。動作は、表示されたカーソルに関連してタッチI/Oデバイス1701上で行われる場合もあれば、行われない場合もある。例えば、動作がタッチパッドに行われる場合に、カーソル(又はポインタ)は、表示画面又はタッチスクリーン上に表示することができ、カーソルは、表示画面上のグラフィカルオブジェクトと対話するためにタッチパッド上のタッチ入力を通じて制御することができる。動作が直接にタッチスクリーンに行われる他の実施形態において、ユーザは、タッチスクリーン上に表示されたカーソル又はポインタの有無に関わらずタッチスクリーンで直接にオブジェクトと対話することができる。
フィードバックは、タッチI/Oデバイス1701上のタッチ又はニアタッチに応答して又はそれに基づいて通信チャンネル1702を通じてユーザに供給することができる。フィードバックは、光学的、機械的、電気的、嗅覚的、又は音響的など、又はそのあらゆる組合せで可変的又は非可変的方式で送信することができる。
上述のこれらの機能は、デジタル電子回路においてコンピュータソフトウエア、ファームウエア、又はハードウエアに実施することができる。これらの技術は、1つ又はそれよりも多くのコンピュータプログラム製品を使用して実施することができる。プログラマブルプロセッサ及びコンピュータは、モバイルデバイスに含めるか、又はモバイルデバイスとしてパッケージ化することができる。処理及び論理回路フローは、1つ又はそれよりも多くのプログラマブルプロセッサにより、及び1つ又はそれよりも多くのプログラマブル論理回路によって実行することができる。汎用及び専用コンピュータデバイス及びストレージデバイスを通信ネットワーク上で相互接続することができる。
一部の実施形態は、機械可読又はコンピュータ可読媒体(又はコンピュータ可読ストレージ媒体、機械可読媒体、又は機械可読ストレージ媒体と呼ぶ)内にコンピュータプログラム命令を記憶するマイクロプロセッサ、ストレージ、及びメモリのような電子部品を含む。このようなコンピュータ可読媒体の一部の例は、RAM、ROM、読取専用コンパクトディスク(CD−ROM)、記録可能コンパクトディスク(CD−R)、再書込可能コンパクトディスク(CD−RW)、読取専用デジタル多用途ディスク(例えば、DVD−ROM、二重層DVD−ROM)、様々な記録可能/再書込可能DVD(例えば、DVD−RAM、DVD−RW、DVD+RWのような)、フラッシュメモリ(例えば、SDカード、ミニSDカード、マイクロSDカードのような)、磁気及び/又は半導体ハードドライブ(読取専用及び記録可能Blu−Ray(登録商標)ディスク、超高密度光ディスク、あらゆる他の光学媒体又は磁気媒体及びフロッピー(登録商標)ディスク)を含む。コンピュータ可読媒体は、少なくとも1つの処理ユニットによって実行可能であり、かつ様々な作動を行う命令の組を含むコンピュータプログラムを記憶することができる。コンピュータプログラム又はコンピュータコードの例には、コンパイラによって生成されるような機械コード、及び解釈プログラムを使用してコンピュータ、電子部品、又はマイクロプロセッサによって実行される高水準コードを含むファイルがある。
上述の内容では主としてソフトウエアを実行するマイクロプロセッサ又はマルチコアプロセッサに言及しているが、一部の実施形態は、特定用途向け集積回路(ASIC)又はフィールドプログラマブルゲートアレイ(FPGA)のような1つ又はそれよりも多くの集積回路によって実行される。一部の実施形態において、このような集積回路は、回路自体に記憶された命令を実行する。
本明細書及び本出願のあらゆる特許請求の範囲で使用する時の用語「コンピュータ」、「サーバ」、「プロセッサ」、及び「メモリ」は、全て電子デバイス又は他の技術的デバイスを指す。これらの用語では、人々又人々の群を除外する。本明細書の目的上、ディスプレイ又は表示手段という用語は、電子デバイスで表示することを意味する。本明細書及び本出願のあらゆる特許請求の範囲で使用する時の用語「コンピュータ可読媒体」、「複数のコンピュータ可読媒体」、「機械可読媒体」、又は「複数の機械可読媒体」は、コンピュータ、コンピュータデバイス、又は1つ又はそれよりも多くの処理ユニットを有する他の電子デバイスにより可読である形式で情報を記憶する有形の物理的物体に完全に限定される。これらの用語では、あらゆる無線信号、有線ダウンロード信号、及びあらゆる他の一時信号を除外する。
本発明では多くの特定の詳細を言及して説明したが、当業者は、本発明が本発明の精神から逸脱することなく他の特定の形態で実施することができることを認識するであろう。例えば、一部の実施形態をモバイルデバイスに対して上述したが、当業者は、他の実施形態におけるデバイスは、デスクトップコンピュータのような非モバイルデバイスであり得ることを認識するであろう。
更に、いくつかの図(図4、図6、図7、図9、図10、図12、及び図14を含む)は、概念的に処理を示している。これらの処理の特殊な作動は、図示のように説明する正確な順序で行われない場合がある。特殊な作動は、1つの連続した一連の作動において行われない場合があり、作動は、異なる実施形態において異なって行われる場合がある。更に、処理は、いくつかの副工程を使用し、又はより大きいマクロ処理の一部として行われる可能性がある。また、連続して登場する作動は、織り交ぜられて行われる場合がある。従って、当業者は、本発明は、上述の例示的な詳細により限定されることを意図したものではなく、特許請求の範囲により定めるべきであることを理解するであろう。
100 モバイルデバイス
105 画像捕捉モジュール
120 合成モジュール
125 検索モジュール
135 露光過多画像
140 正常露光画像
145 露光不足画像

Claims (20)

  1. 高ダイナミックレンジ(HDR)場面の画像を捕捉するモバイルデバイスであって、
    モバイルデバイスがHDRモードに入るのに応答して、第1の露光レベルでHDR場面の複数の画像を捕捉し、かつ
    前記HDR場面を捕捉する指令の受信に応答して、第2の露光レベルで第1の画像及び第3の露光レベルで第2の画像を捕捉する、
    ためのカメラと、
    前記第1の露光レベルで前記捕捉された複数の画像から第3の画像を選択し、かつ
    前記第1、第2、及び第3の画像を合成して前記HDR場面の合成画像を生成する、
    ための画像処理モジュールと、
    を含むことを特徴とするモバイルデバイス。
  2. 前記第3の画像は、前記HDR場面を捕捉する前記指令を受信する直前に捕捉されたものであることを特徴とする請求項1に記載のモバイルデバイス。
  3. 前記第3の画像を前記選択する段階は、前記HDR場面を捕捉する前記指令を受信する前の期間内にかつ前記モバイルデバイスが閾値量よりも少なく移動された間に捕捉された画像を選択する段階を含むことを特徴とする請求項1に記載のモバイルデバイス。
  4. モバイルデバイスが、時間の複数の異なるインスタンスでのモバイルデバイスの動きに関連する複数の異なる値を生成する回路を含み、
    前記閾値量は、前記回路によって生成された前記値に関連する、
    ことを特徴とする請求項3に記載のモバイルデバイス。
  5. モバイルデバイスが、時間の複数の異なるインスタンスでのモバイルデバイスの動きに関連する複数の異なる値を生成する回路を含み、
    前記画像を前記選択する段階は、
    前記回路によって生成された前記複数の値の各々に対して、時間のインスタンスでのモバイルデバイスの前記動きを表す動きパラメータを計算する段階と、
    前記期間内に捕捉された前記画像の各々を動きパラメータに対して相関させる段階と、 前記期間内に捕捉された各画像の前記動きパラメータの前記閾値量との比較に基づいて、該期間内に捕捉された1つの画像を前記第3の画像として選択する段階と、
    を含む、
    ことを特徴とする請求項3に記載のモバイルデバイス。
  6. 前記第3の画像を選択する前記段階は、前記複数の画像のうちの最も鮮明な画像を選択する段階を含むことを特徴とする請求項1に記載のモバイルデバイス。
  7. モバイルデバイスが、時間の複数の異なるインスタンスでのモバイルデバイスの前記動きに関連する複数の異なる値を生成する回路を含み、
    前記複数の画像のうちの前記最も鮮明な画像は、ある一定のインスタンスで前記回路によって生成された前記値がモバイルデバイスが最も少なく移動したことを示す時の時間のそのインスタンスで捕捉された画像である、
    ことを特徴とする請求項6に記載のモバイルデバイス。
  8. モバイルデバイスが、前記第1の露光レベルで捕捉して記憶された一群の画像の各々を処理するデジタル信号プロセッサを含み、
    前記複数の画像からの前記最も鮮明な画像は、最も高い周波数コンテンツを有する画像である、
    ことを特徴とする請求項6に記載のモバイルデバイス。
  9. 前記第1の露光レベルは、正常露光レベルであり、
    前記第2及び第3の露光レベルの一方が、露光不足レベルであり、
    前記第2及び第3の露光レベルの他方が、露光過多レベルである、
    ことを特徴とする請求項1に記載のモバイルデバイス。
  10. 前記第1の露光レベルは、露光過多レベルであり、
    前記第2及び第3の露光レベルの一方が、正常露光レベルであり、
    前記第2及び第3の露光レベルの他方が、露光不足レベルである、
    ことを特徴とする請求項1に記載のモバイルデバイス。
  11. 高ダイナミックレンジ(HDR)場面の画像を捕捉する方法であって、
    モバイルデバイスのカメラにより、かつ該モバイルデバイスがHDRモードに入るのに応答して、第1の露光レベルでHDR場面の複数の画像を捕捉する段階と、
    前記モバイルデバイスの前記カメラにより、かつ前記HDR場面を捕捉する指令の受信に応答して、第2の露光レベルで第1の画像及び第3の露光レベルで第2の画像を捕捉する段階と、
    前記モバイルデバイスの1つ又はそれよりも多くのプロセッサにより、前記第1の露光レベルで前記捕捉された複数の画像から第3の画像を選択する段階と、
    前記モバイルデバイスの前記1つ又はそれよりも多くのプロセッサにより、前記第1、第2、及び第3の画像を合成して前記HDR場面の合成画像を生成する段階と、
    を含むことを特徴とする方法。
  12. 前記第3の画像は、前記HDR場面を捕捉する前記指令を受信する直前に捕捉されたものであることを特徴とする請求項11に記載の方法。
  13. 前記第3の画像を選択する前記段階は、前記HDR場面を捕捉する前記指令を受信する前の期間内にかつ前記モバイルデバイスが閾値量よりも少なく移動した間に捕捉された画像を選択する段階を含むことを特徴とする請求項11に記載の方法。
  14. 前記モバイルデバイスは、時間の複数の異なるインスタンスでの該モバイルデバイスの動きに関連する複数の異なる値を生成する回路を含み、
    前記閾値量は、前記回路によって生成された前記値に関連する、
    ことを特徴とする請求項13に記載の方法。
  15. 前記モバイルデバイスは、時間の複数の異なるインスタンスでの該モバイルデバイスの動きに関連する複数の異なる値を生成する回路を含み、
    前記画像を選択する前記段階は、
    前記回路によって生成された前記複数の値の各々に対して、時間のインスタンスでの前記モバイルデバイスの前記動きを表す動きパラメータを計算する段階と、
    前記期間内に捕捉された前記画像の各々を動きパラメータに対して相関させる段階と、 前記期間内に捕捉された各画像の前記動きパラメータの前記閾値量との比較に基づいて、該期間内に捕捉された1つの画像を前記第3の画像として選択する段階と、
    を含む、
    ことを特徴とする請求項13に記載の方法。
  16. 前記第3の画像を選択する前記段階は、前記複数の画像のうちの最も鮮明な画像を選択する段階を含むことを特徴とする請求項11に記載の方法。
  17. 前記モバイルデバイスは、時間の複数の異なるインスタンスでの該モバイルデバイスの前記動きに関連する複数の異なる値を生成する回路を含み、
    前記複数の画像のうちの前記最も鮮明な画像は、ある一定のインスタンスで前記回路によって生成された前記値が前記デバイスが最も少なく移動したことを示す時の時間のそのインスタンスで捕捉された画像である、
    ことを特徴とする請求項16に記載の方法。
  18. 前記モバイルデバイスは、前記第1の露光レベルで捕捉して記憶された一群の画像の各々を処理するデジタル信号プロセッサを含み、
    前記複数の画像からの前記最も鮮明な画像は、最も高い周波数コンテンツを有する画像である、
    ことを特徴とする請求項16に記載の方法。
  19. 前記第1の露光レベルは、正常露光レベルであり、
    前記第2及び第3の露光レベルの一方が、露光不足レベルであり、
    前記第2及び第3の露光レベルの他方が、露光過多レベルである、
    ことを特徴とする請求項11に記載の方法。
  20. プログラム命令を記憶するコンピュータ可読ストレージ媒体であって、
    プログラム命令が、モバイルデバイスの1つ又はそれよりも多くのプロセッサによって実行された時に請求項11から請求項19のいずれか1項に記載の段階を実行する、
    ことを特徴とするコンピュータ可読ストレージ媒体。
JP2013518781A 2010-07-05 2011-07-01 高ダイナミックレンジ画像を捕捉するデバイスの作動法 Expired - Fee Related JP5615973B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US36151610P 2010-07-05 2010-07-05
US61/361,516 2010-07-05
US36152510P 2010-07-06 2010-07-06
US61/361,525 2010-07-06
US37893310P 2010-08-31 2010-08-31
US61/378,933 2010-08-31
US12/876,100 US8885978B2 (en) 2010-07-05 2010-09-03 Operating a device to capture high dynamic range images
US12/876,100 2010-09-03
PCT/US2011/042886 WO2012006253A1 (en) 2010-07-05 2011-07-01 Operating a device to capture high dynamic range images

Publications (2)

Publication Number Publication Date
JP2013533706A JP2013533706A (ja) 2013-08-22
JP5615973B2 true JP5615973B2 (ja) 2014-10-29

Family

ID=45399445

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013518781A Expired - Fee Related JP5615973B2 (ja) 2010-07-05 2011-07-01 高ダイナミックレンジ画像を捕捉するデバイスの作動法
JP2013518780A Active JP5530563B2 (ja) 2010-07-05 2011-07-01 高ダイナミックレンジ画像の捕捉及びレンダリング

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2013518780A Active JP5530563B2 (ja) 2010-07-05 2011-07-01 高ダイナミックレンジ画像の捕捉及びレンダリング

Country Status (6)

Country Link
US (6) US8699821B2 (ja)
JP (2) JP5615973B2 (ja)
KR (2) KR101428427B1 (ja)
CN (2) CN103069454B (ja)
DE (1) DE102011078662B4 (ja)
WO (3) WO2012006251A1 (ja)

Families Citing this family (410)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US7978925B1 (en) 2005-04-16 2011-07-12 Apple Inc. Smoothing and/or locking operations in video editing
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US7912337B2 (en) 2005-11-02 2011-03-22 Apple Inc. Spatial and temporal alignment of video sequences
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US9633426B2 (en) 2014-05-30 2017-04-25 General Electric Company Remote visual inspection image capture system and method
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
JP5436367B2 (ja) * 2009-09-29 2014-03-05 富士フイルム株式会社 グラフィック配置決定方法ならびにそのプログラムおよび情報処理装置
KR20110052124A (ko) * 2009-11-12 2011-05-18 삼성전자주식회사 파노라마 이미지 생성 및 조회 방법과 이를 이용한 휴대 단말기
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
DE202011111062U1 (de) 2010-01-25 2019-02-19 Newvaluexchange Ltd. Vorrichtung und System für eine Digitalkonversationsmanagementplattform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US8699821B2 (en) 2010-07-05 2014-04-15 Apple Inc. Aligning images
JP2012109900A (ja) * 2010-11-19 2012-06-07 Aof Imaging Technology Ltd 撮影装置、撮影方法、およびプログラム
US9900522B2 (en) * 2010-12-01 2018-02-20 Magna Electronics Inc. System and method of establishing a multi-camera image using pixel remapping
CN103053163A (zh) * 2010-12-16 2013-04-17 松下电器产业株式会社 图像生成装置、图像生成***、方法及程序
DE102010055974A1 (de) * 2010-12-23 2012-06-28 Giesecke & Devrient Gmbh Verfahren und Vorrichtung zur Bestimmung eines Klassenreferenzdatensatzes für die Klassifizierung von Wertdokumenten
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
JP5655667B2 (ja) * 2011-03-31 2015-01-21 カシオ計算機株式会社 撮像装置及び撮像制御方法、画像処理装置及び画像処理方法、並びにプログラム
US8836816B2 (en) * 2011-05-19 2014-09-16 Foveon, Inc. Method of adjusting the brightness of a digital camera image
US8823745B2 (en) * 2011-06-02 2014-09-02 Yoostar Entertainment Group, Inc. Image processing based on depth information and color data of a scene
US8989492B2 (en) * 2011-06-03 2015-03-24 Apple Inc. Multi-resolution spatial feature extraction for automatic handwriting recognition
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
JP5787648B2 (ja) * 2011-07-11 2015-09-30 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法
US20130044237A1 (en) * 2011-08-15 2013-02-21 Broadcom Corporation High Dynamic Range Video
GB201114591D0 (en) * 2011-08-23 2011-10-05 Tomtom Int Bv Methods of and apparatus for displaying map information
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US8781238B2 (en) * 2011-09-08 2014-07-15 Dolby Laboratories Licensing Corporation Efficient decoding and post-processing of high dynamic range images
CN103002195B (zh) * 2011-09-09 2016-03-30 中磊电子(苏州)有限公司 运动检测方法及运动检测装置
US8200020B1 (en) 2011-11-28 2012-06-12 Google Inc. Robust image alignment using block sums
JP5713885B2 (ja) * 2011-12-26 2015-05-07 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
JP6136086B2 (ja) * 2011-12-28 2017-05-31 ソニー株式会社 撮像装置および画像処理装置
JP5798497B2 (ja) * 2012-01-20 2015-10-21 ルネサスエレクトロニクス株式会社 移動量検出装置、移動体検出装置及び移動量検出方法
US8965120B2 (en) 2012-02-02 2015-02-24 Canon Kabushiki Kaisha Image processing apparatus and method of controlling the same
US9075975B2 (en) * 2012-02-21 2015-07-07 Andrew Bud Online pseudonym verification and identity validation
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
JP5978949B2 (ja) * 2012-03-16 2016-08-24 富士通株式会社 画像合成装置及び画像合成用コンピュータプログラム
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9031319B2 (en) * 2012-05-31 2015-05-12 Apple Inc. Systems and methods for luma sharpening
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
TWI523500B (zh) * 2012-06-29 2016-02-21 私立淡江大學 影像的動態範圍壓縮方法與影像處理裝置
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9030571B2 (en) * 2012-07-11 2015-05-12 Google Inc. Abstract camera pipeline for uniform cross-device control of image capture and processing
RU2580093C2 (ru) 2012-08-08 2016-04-10 Долби Лабораторис Лайсэнзин Корпорейшн Обработка изображений для изображений с расширенным динамическим диапазоном (hdr)
US9676207B2 (en) * 2012-08-08 2017-06-13 Tabletop Media, LLC Printer control mechanism for a device having a mobile operating system
KR101207343B1 (ko) * 2012-08-30 2012-12-04 재단법인대구경북과학기술원 영상 밝기 조절 방법 및 그 장치와, 스테레오 카메라
US9531961B2 (en) 2015-05-01 2016-12-27 Duelight Llc Systems and methods for generating a digital image using separate color and intensity data
US9154708B1 (en) * 2014-11-06 2015-10-06 Duelight Llc Image sensor apparatus and method for simultaneously capturing flash and ambient illuminated images
US9918017B2 (en) 2012-09-04 2018-03-13 Duelight Llc Image sensor apparatus and method for obtaining multiple exposures with zero interframe time
US8446481B1 (en) 2012-09-11 2013-05-21 Google Inc. Interleaved capture for high dynamic range image acquisition and synthesis
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
TWI479362B (zh) * 2012-09-19 2015-04-01 Wistron Corp 雙模式遙控方法
FR2996034B1 (fr) * 2012-09-24 2015-11-20 Jacques Joffre Procede pour creer des images a gamme dynamique etendue en imagerie fixe et video, et dispositif d'imagerie implementant le procede.
US9846958B1 (en) 2012-10-04 2017-12-19 Aftershock Services, Inc. System and method for display object bitmap caching
TWI548284B (zh) * 2012-10-18 2016-09-01 鴻海精密工業股份有限公司 白平衡調整方法
KR101767094B1 (ko) * 2012-12-03 2017-08-31 한화테크윈 주식회사 영상 처리 장치 및 방법
US9087391B2 (en) 2012-12-13 2015-07-21 Google Inc. Determining an image capture payload burst structure
US8866927B2 (en) 2012-12-13 2014-10-21 Google Inc. Determining an image capture payload burst structure based on a metering image capture sweep
WO2014099320A1 (en) * 2012-12-17 2014-06-26 The Trustees Of Columbia University In The City Of New York Methods, systems, and media for high dynamic range imaging
US8866928B2 (en) 2012-12-18 2014-10-21 Google Inc. Determining exposure times using split paxels
US9247152B2 (en) 2012-12-20 2016-01-26 Google Inc. Determining image alignment failure
US9307207B2 (en) * 2013-01-07 2016-04-05 GM Global Technology Operations LLC Glaring reduction for dynamic rearview mirror
US8995784B2 (en) 2013-01-17 2015-03-31 Google Inc. Structure descriptors for image processing
CN103973958B (zh) * 2013-01-30 2018-04-03 阿里巴巴集团控股有限公司 图像处理方法及设备
US9491366B2 (en) * 2013-02-01 2016-11-08 Htc Corporation Electronic device and image composition method thereof
US20140218410A1 (en) * 2013-02-05 2014-08-07 Sirui Hu System And Method For Efficiently Generating Device-Dependent Anaglyph Images
US9686537B2 (en) * 2013-02-05 2017-06-20 Google Inc. Noise models for image processing
KR102516577B1 (ko) 2013-02-07 2023-04-03 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
US9509919B2 (en) 2014-11-17 2016-11-29 Duelight Llc System and method for generating a digital image
US10558848B2 (en) 2017-10-05 2020-02-11 Duelight Llc System, method, and computer program for capturing an image with correct skin tone exposure
US9807322B2 (en) 2013-03-15 2017-10-31 Duelight Llc Systems and methods for a digital image sensor
US10477087B2 (en) 2017-11-16 2019-11-12 Duelight Llc System, method, and computer program for capturing a flash image based on ambient and flash metering
US10088989B2 (en) 2014-11-18 2018-10-02 Duelight Llc System and method for computing operations based on a first and second user input
US9819849B1 (en) 2016-07-01 2017-11-14 Duelight Llc Systems and methods for capturing digital images
US9215433B2 (en) 2014-02-11 2015-12-15 Duelight Llc Systems and methods for digital photography
US9741150B2 (en) 2013-07-25 2017-08-22 Duelight Llc Systems and methods for displaying representative images
US9202129B2 (en) 2013-03-12 2015-12-01 Qualcomm Incorporated Reducing object detection time by utilizing space localization of features
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US8902328B2 (en) * 2013-03-14 2014-12-02 Konica Minolta Laboratory U.S.A., Inc. Method of selecting a subset from an image set for generating high dynamic range image
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US9117134B1 (en) 2013-03-19 2015-08-25 Google Inc. Image merging with blending
US9066017B2 (en) 2013-03-25 2015-06-23 Google Inc. Viewfinder display based on metering images
CN104125408B (zh) 2013-04-28 2018-06-12 比亚迪股份有限公司 一种高动态范围图像处理方法及装置
KR101805629B1 (ko) * 2013-05-07 2017-12-07 삼성전자주식회사 영상의 상태에 따라 적응적인 영상 처리를 위한 방법 및 장치
US9413992B2 (en) * 2013-05-20 2016-08-09 Omnivision Technologies, Inc. High dynamic range image sensor with full resolution recovery
US9077913B2 (en) 2013-05-24 2015-07-07 Google Inc. Simulating high dynamic range imaging with virtual long-exposure images
US9131201B1 (en) 2013-05-24 2015-09-08 Google Inc. Color correcting virtual long exposures with true long exposures
RU2536675C1 (ru) * 2013-05-27 2014-12-27 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Южно-Российский государственный университет экономики и сервиса" (ФГБОУ ВПО "ЮРГУЭС") Устройство объединения изображений в единую композицию сцены
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
KR101922663B1 (ko) 2013-06-09 2018-11-28 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
GB2516883B (en) 2013-08-02 2017-01-18 Anthropics Tech Ltd Image manipulation
WO2015020942A1 (en) 2013-08-06 2015-02-12 Apple Inc. Auto-activating smart responses based on activities from remote devices
TWI464526B (zh) * 2013-08-08 2014-12-11 Quanta Comp Inc 高動態範圍影像曝光時間控制方法
US20150063694A1 (en) * 2013-08-30 2015-03-05 Qualcomm Incorporated Techniques for combining images with varying brightness degrees
US9767521B2 (en) * 2013-08-30 2017-09-19 The Climate Corporation Agricultural spatial data processing systems and methods
US9615012B2 (en) 2013-09-30 2017-04-04 Google Inc. Using a second camera to adjust settings of first camera
US9460118B2 (en) 2014-09-30 2016-10-04 Duelight Llc System, method, and computer program product for exchanging images
US9565416B1 (en) 2013-09-30 2017-02-07 Google Inc. Depth-assisted focus in multi-camera systems
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
EP2887645A1 (en) * 2013-12-19 2015-06-24 Thomson Licensing Method and apparatus for acquiring a set of images illuminated by a flash
KR102209066B1 (ko) * 2014-01-17 2021-01-28 삼성전자주식회사 다수의 초점거리를 이용한 이미지 합성 방법 및 장치
US10057483B2 (en) * 2014-02-12 2018-08-21 Lg Electronics Inc. Mobile terminal and method thereof
CN104077759A (zh) * 2014-02-28 2014-10-01 西安电子科技大学 一种基于色觉感知及全局质量因子的多曝光度图像融合方法
US10554967B2 (en) * 2014-03-21 2020-02-04 Futurewei Technologies, Inc. Illumination compensation (IC) refinement based on positional pairings among pixels
US9544505B2 (en) * 2014-04-11 2017-01-10 Hanwha Techwin Co., Ltd. Image processing apparatus for synthesizing images based on a plurality of exposure time periods and image processing method thereof
EP2933999B1 (en) * 2014-04-14 2018-02-21 Alcatel Lucent Method and apparatus for obtaining an image with motion blur
US10222824B2 (en) * 2014-05-12 2019-03-05 Intel Corporation Dual display system
CN103973941B (zh) * 2014-05-14 2017-05-10 深圳市大疆创新科技有限公司 数码影像的动态对比度调整方法和***
US10178329B2 (en) 2014-05-27 2019-01-08 Rambus Inc. Oversampled high dynamic-range image sensor
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
WO2015184186A1 (en) 2014-05-30 2015-12-03 Apple Inc. Multi-command single utterance input method
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9344636B2 (en) 2014-05-30 2016-05-17 Apple Inc. Scene motion correction in fused image systems
US9342871B2 (en) 2014-05-30 2016-05-17 Apple Inc. Scene motion correction in fused image systems
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
CN103997590B (zh) * 2014-06-13 2018-04-20 广州广电运通金融电子股份有限公司 一种图像校准方法及装置
CN105323493B (zh) * 2014-06-25 2018-11-06 恒景科技股份有限公司 局部增强装置、多重曝光影像***以及局部增强方法
JP6444073B2 (ja) * 2014-06-25 2018-12-26 キヤノン株式会社 画像処理装置
US9979894B1 (en) * 2014-06-27 2018-05-22 Google Llc Modifying images with simulated light sources
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
WO2016017987A1 (en) 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Method and device for providing image
KR102301231B1 (ko) * 2014-07-31 2021-09-13 삼성전자주식회사 영상 제공 방법 및 이를 위한 장치
US20160037043A1 (en) * 2014-08-01 2016-02-04 Omnivision Technologies, Inc. High dynamic range (hdr) images free of motion artifacts
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9613408B2 (en) * 2014-09-25 2017-04-04 Intel Corporation High dynamic range image composition using multiple images
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
CN104320576B (zh) * 2014-09-30 2018-11-13 百度在线网络技术(北京)有限公司 一种用于便携式终端的图像处理方法及图像处理装置
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10924688B2 (en) 2014-11-06 2021-02-16 Duelight Llc Image sensor apparatus and method for obtaining low-noise, high-speed captures of a photographic scene
US11463630B2 (en) 2014-11-07 2022-10-04 Duelight Llc Systems and methods for generating a high-dynamic range (HDR) pixel stream
US9998935B2 (en) 2014-11-18 2018-06-12 Duelight Llc System and method for sharing data based on a combined bandwidth consumption
CN106464815B (zh) 2014-11-21 2020-01-14 深圳市大疆创新科技有限公司 高动态范围成像的快速自适应混合的***以及方法
US9378688B2 (en) * 2014-11-24 2016-06-28 Caterpillar Inc. System and method for controlling brightness in areas of a liquid crystal display
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9607366B1 (en) * 2014-12-19 2017-03-28 Amazon Technologies, Inc. Contextual HDR determination
US9430457B2 (en) 2014-12-24 2016-08-30 Xerox Corporation Ambiguity reduction for image alignment applications
US10410398B2 (en) * 2015-02-20 2019-09-10 Qualcomm Incorporated Systems and methods for reducing memory bandwidth using low quality tiles
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10055672B2 (en) 2015-03-11 2018-08-21 Microsoft Technology Licensing, Llc Methods and systems for low-energy image classification
US10268886B2 (en) 2015-03-11 2019-04-23 Microsoft Technology Licensing, Llc Context-awareness through biased on-device image classifiers
JP6380986B2 (ja) * 2015-03-12 2018-08-29 富士フイルム株式会社 撮影装置および方法
CN104639845B (zh) * 2015-03-17 2017-12-26 上海兆芯集成电路有限公司 高动态范围图像产生方法以及使用该方法的装置
CN104683779B (zh) * 2015-03-17 2017-08-29 上海兆芯集成电路有限公司 自动白平衡补偿方法以及使用该方法的装置
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
TWI537875B (zh) * 2015-04-08 2016-06-11 大同大學 影像合成方法與影像處理裝置
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
EP3286915B1 (en) 2015-04-23 2021-12-08 Apple Inc. Digital viewfinder user interface for multiple cameras
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
JP6390512B2 (ja) 2015-05-21 2018-09-19 株式会社デンソー 車載カメラ装置
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
JP6282303B2 (ja) * 2015-05-29 2018-02-21 キヤノン株式会社 撮像素子および撮像装置
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10176553B2 (en) * 2015-06-26 2019-01-08 Sony Corporation Image processing system with three-dimensional viewing and method of operation thereof
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US9654699B2 (en) * 2015-07-02 2017-05-16 Omnivision Technologies, Inc. High dynamic range imaging with reduced frame buffer
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
CN105163047B (zh) * 2015-09-15 2018-11-06 厦门美图之家科技有限公司 一种基于色彩空间转换的hdr图像生成方法、***及拍摄终端
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
CN105227856A (zh) * 2015-09-28 2016-01-06 广东欧珀移动通信有限公司 一种图像处理的方法及移动终端
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
CN106558034A (zh) * 2015-09-30 2017-04-05 北京奇虎科技有限公司 一种在移动设备中清理图像数据的方法和装置
US9552626B1 (en) * 2015-10-07 2017-01-24 Adobe Systems Incorporated Digital image blemish removal
US9936151B2 (en) * 2015-10-16 2018-04-03 Capsovision Inc Single image sensor for capturing mixed structured-light images and regular images
KR102519288B1 (ko) 2015-10-27 2023-04-07 삼성전자주식회사 콘텐츠 에코시스템에서 콘텐츠의 명암비 제어 장치 및 방법
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
CN105657244A (zh) * 2015-11-06 2016-06-08 乐视移动智能信息技术(北京)有限公司 防抖拍照方法、装置及移动终端
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
TWI546772B (zh) * 2015-11-18 2016-08-21 粉迷科技股份有限公司 影像疊層處理方法與系統
CN105450939A (zh) * 2015-11-19 2016-03-30 上海斐讯数据通信技术有限公司 一种高动态范围图像的显示方法及移动终端
KR102446442B1 (ko) 2015-11-24 2022-09-23 삼성전자주식회사 디지털 촬영 장치 및 그 동작 방법
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
CN105516696A (zh) * 2015-12-18 2016-04-20 广东欧珀移动通信有限公司 图像传感器、成像方法、成像装置和电子装置
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
JP6762714B2 (ja) * 2015-12-28 2020-09-30 ブリルニクス インク 固体撮像装置およびその駆動方法、電子機器
US10264196B2 (en) 2016-02-12 2019-04-16 Contrast, Inc. Systems and methods for HDR video capture with a mobile device
US10257394B2 (en) 2016-02-12 2019-04-09 Contrast, Inc. Combined HDR/LDR video streaming
US9864925B2 (en) * 2016-02-15 2018-01-09 Ebay Inc. Digital image presentation
CN105744159B (zh) * 2016-02-15 2019-05-24 努比亚技术有限公司 一种图像合成方法及装置
US12008034B2 (en) 2016-02-15 2024-06-11 Ebay Inc. Digital image presentation
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US10281378B2 (en) * 2016-05-05 2019-05-07 Honeywell Federal Manufacturing & Technologies, Llc System and method for testing true stress and true strain
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
CN105959591A (zh) * 2016-05-30 2016-09-21 广东欧珀移动通信有限公司 局部hdr的实现方法及***
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
EP3610452B1 (en) * 2016-06-08 2024-04-24 Google LLC Generating a composite image from a physical item
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US10009536B2 (en) 2016-06-12 2018-06-26 Apple Inc. Applying a simulated optical effect based on data received from multiple camera sensors
KR102603426B1 (ko) 2016-06-27 2023-11-20 삼성전자주식회사 이미지 처리장치 및 방법
US10070109B2 (en) * 2016-06-30 2018-09-04 Apple Inc. Highlight recovery in images
US10757344B2 (en) * 2016-07-01 2020-08-25 Maxell, Ltd. Imaging apparatus, imaging method and imaging program
WO2018006390A1 (en) * 2016-07-08 2018-01-11 SZ DJI Technology Co., Ltd. System and method for image processing
JP7081835B2 (ja) 2016-08-09 2022-06-07 コントラスト, インコーポレイテッド 車両制御のためのリアルタイムhdrビデオ
CN106204513B (zh) * 2016-08-15 2019-07-05 厦门美图之家科技有限公司 图像处理的方法、装置和***
JP6762806B2 (ja) * 2016-08-26 2020-09-30 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
US10097766B2 (en) 2016-08-31 2018-10-09 Microsoft Technology Licensing, Llc Provision of exposure times for a multi-exposure image
WO2018044314A1 (en) 2016-09-01 2018-03-08 Duelight Llc Systems and methods for adjusting focus based on focus target information
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US9916644B1 (en) * 2016-09-09 2018-03-13 Omnivision Technologies, Inc. Ghost artifact removal system and method
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10565966B2 (en) * 2016-10-06 2020-02-18 Arm Limited Display controllers
US10070098B2 (en) * 2016-10-06 2018-09-04 Intel Corporation Method and system of adjusting video quality based on viewer distance to a display
US10284761B2 (en) * 2016-11-17 2019-05-07 Motorola Mobility Llc Multi-camera capture of a high dynamic range image
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
KR20180078961A (ko) * 2016-12-30 2018-07-10 삼성전자주식회사 이미지 촬상 장치 및 이의 구동 방법
US10250794B2 (en) 2017-01-04 2019-04-02 Motorola Mobility Llc Capturing an image using multi-camera automatic focus
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
CN106709888B (zh) * 2017-01-09 2019-09-24 电子科技大学 一种基于人眼视觉模型的高动态范围图像产生方法
US10169671B2 (en) 2017-02-17 2019-01-01 Motorola Mobility Llc Face detection with temperature and distance validation
US10057499B1 (en) 2017-02-21 2018-08-21 Motorola Mobility Llc Automatic exposure control convergence procedure by auxiliary camera
US10706512B2 (en) * 2017-03-07 2020-07-07 Adobe Inc. Preserving color in image brightness adjustment for exposure fusion
US10250795B2 (en) 2017-03-15 2019-04-02 Motorola Mobility Llc Identifying a focus point in a scene utilizing a plurality of cameras
US10158797B2 (en) * 2017-03-31 2018-12-18 Motorola Mobility Llc Combining images when a face is present
JP6887853B2 (ja) * 2017-04-03 2021-06-16 キヤノン株式会社 撮像装置、その制御方法、プログラム
US10122943B1 (en) 2017-05-05 2018-11-06 Motorola Mobility Llc High dynamic range sensor resolution using multiple image sensors
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770411A1 (en) 2017-05-15 2018-12-20 Apple Inc. MULTI-MODAL INTERFACES
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
WO2018223882A1 (en) 2017-06-08 2018-12-13 Zhejiang Dahua Technology Co., Ltd. Methods and devices for processing images of traffic light
CN109035181B (zh) * 2017-06-08 2022-02-08 小元感知(北京)科技有限公司 一种基于图像平均亮度的宽动态范围图像处理方法
US10863105B1 (en) * 2017-06-27 2020-12-08 Amazon Technologies, Inc. High dynamic range imaging for event detection and inventory management
CN107343130B (zh) * 2017-08-17 2019-07-05 中国人民解放军国防科技大学 一种基于dmd动态分光的高动态成像模块
JP7057079B2 (ja) * 2017-09-01 2022-04-19 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
CN107820022A (zh) * 2017-10-30 2018-03-20 维沃移动通信有限公司 一种拍照方法及移动终端
CN107864317B (zh) * 2017-11-07 2020-03-13 西北核技术研究所 一种基于衰减掩膜的瞬态成像动态范围扩展方法
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
KR102650217B1 (ko) * 2017-12-07 2024-03-21 삼성전자주식회사 이미지를 제공하기 위한 방법 및 이를 지원하는 전자 장치
WO2019118319A1 (en) * 2017-12-15 2019-06-20 Gopro, Inc. High dynamic range processing on spherical images
US10757320B2 (en) 2017-12-28 2020-08-25 Waymo Llc Multiple operating modes to expand dynamic range
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
WO2019209694A1 (en) * 2018-04-23 2019-10-31 Wrapped Llc High-resolution animated raster artwork for display
US10554902B2 (en) * 2018-05-01 2020-02-04 Hanwha Techwin Co., Ltd. Apparatus and method for processing images
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
CN108665510B (zh) * 2018-05-14 2022-02-08 Oppo广东移动通信有限公司 连拍图像的渲染方法、装置、存储介质及终端
CN108777786A (zh) * 2018-05-16 2018-11-09 长春理工大学 一种基于相机转移特性曲线的图像融合方法
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
US10944859B2 (en) 2018-06-03 2021-03-09 Apple Inc. Accelerated task performance
US10951888B2 (en) 2018-06-04 2021-03-16 Contrast, Inc. Compressed high dynamic range video
US10447942B1 (en) 2018-06-07 2019-10-15 Qualcomm Incorporated Flash control for video capture
US11423514B2 (en) * 2018-08-14 2022-08-23 Contrast, Inc. Image processing noise reduction
US10855964B2 (en) 2018-08-29 2020-12-01 Apple Inc. Hue map generation for highlight recovery
US11100620B2 (en) 2018-09-04 2021-08-24 Apple Inc. Hue preservation post processing for highlight recovery
TWI695622B (zh) 2018-09-06 2020-06-01 華晶科技股份有限公司 影像處理方法及影像處理裝置
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
CN109388457B (zh) * 2018-09-21 2022-02-25 杨立群 一种多场景的远程快速界面交互方法及装置
CN109298806B (zh) * 2018-09-21 2022-01-11 杨立群 一种基于对象识别的远程快速界面交互方法及装置
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US10867392B2 (en) * 2018-10-03 2020-12-15 Apical Limited Spatially multiplexed exposure
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
CN113170158B (zh) * 2018-11-19 2023-07-11 杜比实验室特许公司 视频编码器和编码方法
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
CN109788207B (zh) * 2019-01-30 2021-03-23 Oppo广东移动通信有限公司 图像合成方法、装置、电子设备及可读存储介质
DE102019102484A1 (de) * 2019-01-31 2020-08-06 Carl Zeiss Smt Gmbh Verarbeitung von dreidimensionalen Bilddatensätzen
US10554890B1 (en) * 2019-02-18 2020-02-04 Samsung Electronics Co., Ltd. Apparatus and method for generating low-light images with improved bokeh using mobile electronic device
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
CN110149484B (zh) 2019-04-15 2020-07-10 浙江大华技术股份有限公司 图像合成方法、装置及存储装置
WO2020214966A1 (en) * 2019-04-19 2020-10-22 Direct Electron, Lp Apparatus and method for high dynamic range counting by pixelated detectors
JP7007324B2 (ja) * 2019-04-25 2022-01-24 ファナック株式会社 画像処理装置、画像処理方法、及びロボットシステム
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
CN111901475A (zh) * 2019-05-06 2020-11-06 苹果公司 用于捕获和管理视觉媒体的用户界面
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
CN112887586B (zh) * 2019-05-06 2022-05-10 苹果公司 用于捕获和管理视觉媒体的用户界面
US11062436B2 (en) 2019-05-10 2021-07-13 Samsung Electronics Co., Ltd. Techniques for combining image frames captured using different exposure settings into blended images
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
WO2020250163A1 (en) * 2019-06-11 2020-12-17 Nerkar Sarang Dilip Methods, systems and computer program products for generating high dynamic range image frames
CN110177221B (zh) * 2019-06-25 2021-02-26 维沃移动通信有限公司 高动态范围图像的拍摄方法及装置
CN110290323B (zh) * 2019-06-28 2021-09-07 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备和计算机可读存储介质
CN110445989B (zh) * 2019-08-05 2021-03-23 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
IL268612A (en) * 2019-08-08 2021-03-01 HYATT Yonatan Using an HDR image in a visual inspection process
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators
US20230138331A1 (en) * 2019-10-07 2023-05-04 Inspekto A.M.V. Ltd. Motion in images used in a visual inspection process
CN110784645B (zh) * 2019-10-09 2021-01-01 中国航空工业集团公司洛阳电光设备研究所 基于单色双通道sCMOS摄像机的灰度调制图像融合方法
US11297286B1 (en) 2019-11-13 2022-04-05 Facebook Technologies, Llc Monochrome cameras with sparsely arranged clusters of color filters for coloration of content
US20210152791A1 (en) * 2019-11-19 2021-05-20 Facebook Technologies, Llc Correction for lateral chromatic aberration in images
CN111031254B (zh) * 2020-01-15 2021-02-26 浙江大华技术股份有限公司 摄像模式的切换方法及装置、计算机装置及可读存储介质
CN113364964B (zh) * 2020-03-02 2023-04-07 RealMe重庆移动通信有限公司 图像处理方法、图像处理装置、存储介质与终端设备
US11265469B1 (en) * 2020-04-10 2022-03-01 Amazon Technologies, Inc. System to mitigate image jitter by an actuator driven camera
EP3902240B1 (en) 2020-04-22 2022-03-30 Axis AB Method, device, camera and software for performing electronic image stabilization of a high dynamic range image
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11430094B2 (en) 2020-07-20 2022-08-30 Samsung Electronics Co., Ltd. Guided multi-exposure image fusion
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
KR20220015114A (ko) * 2020-07-30 2022-02-08 삼성전자주식회사 이미지를 처리하기 위한 전자 장치 및 그의 동작 방법
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11906895B2 (en) * 2020-10-06 2024-02-20 Mediatek Inc. Method and system for blending images captured under different strobe conditions
US11671715B2 (en) 2021-01-14 2023-06-06 Qualcomm Incorporated High dynamic range technique selection for image processing
US12014478B2 (en) * 2021-01-22 2024-06-18 Arm Limited Image adjustment based on local contrast
WO2022216295A1 (en) * 2021-04-09 2022-10-13 Zeku, Inc. Method and apparatus for operating an image signal processor
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US20230021726A1 (en) * 2021-07-15 2023-01-26 Samsung Electronics Co., Ltd. System and method for multi-exposure, multi-frame blending of red-green-blue-white (rgbw) images
US11961206B2 (en) 2021-09-09 2024-04-16 Samsung Electronics Co., Ltd. Image generation using non-linear scaling and tone-mapping based on cubic spline curves
CN113962915B (zh) * 2021-10-20 2022-04-29 哈尔滨工业大学 非均匀照明条件下的自适应非线性超动态图像合成方法
WO2023094871A1 (en) * 2021-11-29 2023-06-01 Weta Digital Limited Increasing dynamic range of a virtual production display
WO2023094872A1 (en) * 2021-11-29 2023-06-01 Weta Digital Limited Increasing dynamic range of a virtual production display
US11671714B1 (en) * 2022-01-24 2023-06-06 Qualcomm Incorporated Motion based exposure control
US11863880B2 (en) * 2022-05-31 2024-01-02 Microsoft Technology Licensing, Llc Image frame selection for multi-frame fusion
US11526990B1 (en) * 2022-08-10 2022-12-13 Bio-Marketing-T, Ltd. (BMT) Computer systems and computer-implemented methods for rapid diagnostic test result interpretation platform utilizing computer vision
WO2024096308A1 (ko) * 2022-11-02 2024-05-10 삼성전자 주식회사 광원 객체 이미지 처리 방법 및 장치

Family Cites Families (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3450536A (en) 1961-03-24 1969-06-17 Eg & G Inc Silver halide photographic film having increased exposure-response characteristics
US3620747A (en) 1968-05-20 1971-11-16 Eastman Kodak Co Photographic element including superimposed silver halide layers of different speeds
BE754842A (fr) 1969-08-14 1971-01-18 Eastman Kodak Co Produit photographique aux halogenures d'argent positif direct a latitude d'exposition amelioree
US3888676A (en) 1973-08-27 1975-06-10 Du Pont Silver halide films with wide exposure latitude and low gradient
US4647975A (en) 1985-10-30 1987-03-03 Polaroid Corporation Exposure control system for an electronic imaging camera having increased dynamic range
IT1188553B (it) 1986-02-24 1988-01-20 Minnesota Mining & Mfg Materiale fotografico multistrato a colori agli alogenuri d'argento
US5162914A (en) 1987-06-09 1992-11-10 Canon Kabushiki Kaisha Image sensing device with diverse storage fumes used in picture composition
IL87306A0 (en) 1988-08-02 1989-01-31 Technion Res & Dev Foundation Wide dynamic range camera
US5325449A (en) 1992-05-15 1994-06-28 David Sarnoff Research Center, Inc. Method for fusing images and apparatus therefor
US5323204A (en) 1992-11-03 1994-06-21 Eastman Kodak Company Automatic optimization of photographic exposure parameters for non-standard display sizes and/or different focal length photographing modes through determination and utilization of extra system speed
US5627905A (en) 1994-12-12 1997-05-06 Lockheed Martin Tactical Defense Systems Optical flow detection system
JPH09107499A (ja) 1995-10-11 1997-04-22 Canon Inc 撮像装置及びその画像処理方法
US5828793A (en) 1996-05-06 1998-10-27 Massachusetts Institute Of Technology Method and apparatus for producing digital images having extended dynamic ranges
US6459451B2 (en) 1996-06-24 2002-10-01 Be Here Corporation Method and apparatus for a panoramic camera to capture a 360 degree image
JPH10262182A (ja) 1997-03-17 1998-09-29 Ricoh Co Ltd 画像合成装置
US6160913A (en) * 1998-03-25 2000-12-12 Eastman Kodak Company Method and apparatus for digital halftone dots detection and removal in business documents
DK0947955T3 (da) 1998-04-03 2001-12-17 Da Vinci Systems Inc Fremgangsmåder og apparatur til frembringelse af kundespecifikke gammakurver for farvekorrektionsudstyr
US6104441A (en) 1998-04-29 2000-08-15 Hewlett Packard Company System for editing compressed image sequences
US6535650B1 (en) 1998-07-21 2003-03-18 Intel Corporation Creating high resolution images
US6459822B1 (en) 1998-08-26 2002-10-01 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Video image stabilization and registration
US7023913B1 (en) 2000-06-14 2006-04-04 Monroe David A Digital security multimedia sensor
JP4163353B2 (ja) 1998-12-03 2008-10-08 オリンパス株式会社 画像処理装置
US6549643B1 (en) 1999-11-30 2003-04-15 Siemens Corporate Research, Inc. System and method for selecting key-frames of video data
US6900840B1 (en) 2000-09-14 2005-05-31 Hewlett-Packard Development Company, L.P. Digital camera and method of using same to view image in live view mode
US6731821B1 (en) 2000-09-29 2004-05-04 Hewlett-Packard Development Company, L.P. Method for enhancing compressibility and visual quality of scanned document images
US6792160B2 (en) * 2001-07-27 2004-09-14 Hewlett-Packard Development Company, L.P. General purpose image enhancement algorithm which augments the visual perception of detail in digital images
US7221776B2 (en) 2001-10-31 2007-05-22 Arcsoft, Inc. Video stabilizer
US7061524B2 (en) * 2001-11-13 2006-06-13 The Board Of Trustees Of The Leland Stanford Junior University Motion/saturation detection system and method for synthesizing high dynamic range motion blur free images from multiple captures
US7009636B2 (en) * 2001-11-13 2006-03-07 The Board Of Trustees Of The Leland Stanford Junior University Photocurrent estimation from multiple captures for simultaneous SNR and dynamic range improvement in CMOS image sensors
US7277580B2 (en) 2001-12-12 2007-10-02 Sony Corporation Multiple thresholding for video frame segmentation
US7409104B2 (en) * 2002-07-18 2008-08-05 .Sightic Vista Ltd Enhanced wide dynamic range in imaging
US7734144B2 (en) 2002-10-30 2010-06-08 Koninklijke Philips Electronics N.V. Method and apparatus for editing source video to provide video image stabilization
US20040240562A1 (en) * 2003-05-28 2004-12-02 Microsoft Corporation Process and system for identifying a position in video using content-based video timelines
JP2004357202A (ja) * 2003-05-30 2004-12-16 Canon Inc 撮影装置
US7280753B2 (en) 2003-09-03 2007-10-09 Canon Kabushiki Kaisha Display apparatus, image processing apparatus, and image processing system
US7561731B2 (en) * 2004-12-27 2009-07-14 Trw Automotive U.S. Llc Method and apparatus for enhancing the dynamic range of a stereo vision system
US7239805B2 (en) 2005-02-01 2007-07-03 Microsoft Corporation Method and system for combining multiple exposure images having scene and camera motion
ATE381852T1 (de) 2005-02-03 2008-01-15 Sony Ericsson Mobile Comm Ab Verfahren und vorrichtung zur erzeugung von verbesserten bildern aus mehreren konsekutiven belichtungen
US7612804B1 (en) 2005-02-15 2009-11-03 Apple Inc. Methods and apparatuses for image processing
US7626614B1 (en) * 2005-02-15 2009-12-01 Apple Inc. Transfer function and high dynamic range images
EP1701536A1 (en) * 2005-03-08 2006-09-13 Sony Ericsson Mobile Communications AB Method and device for creating pictures, using global shutter and multiple exposures
US7978925B1 (en) 2005-04-16 2011-07-12 Apple Inc. Smoothing and/or locking operations in video editing
US7480421B2 (en) 2005-05-23 2009-01-20 Canon Kabushiki Kaisha Rendering of high dynamic range images
US7443443B2 (en) 2005-07-28 2008-10-28 Mitsubishi Electric Research Laboratories, Inc. Method and apparatus for enhancing flash and ambient images
US7912337B2 (en) 2005-11-02 2011-03-22 Apple Inc. Spatial and temporal alignment of video sequences
WO2008022005A2 (en) * 2006-08-09 2008-02-21 Fotonation Vision Limited Detection and correction of flash artifacts from airborne particulates
TW200820123A (en) 2006-10-20 2008-05-01 Primax Electronics Ltd Method and system of generating high dynamic range image corresponding to specific scene
JP4821626B2 (ja) 2007-01-23 2011-11-24 株式会社ニコン 画像処理装置、電子カメラ、および画像処理プログラム
US8184926B2 (en) * 2007-02-28 2012-05-22 Microsoft Corporation Image deblurring with blurred/noisy image pairs
US7884871B2 (en) * 2007-06-15 2011-02-08 Aptina Imaging Corporation Images with high speed digital frame transfer and frame processing
US7969475B2 (en) * 2007-07-17 2011-06-28 Seiko Epson Corporation Low memory auto-focus and exposure system for large multi-frame image acquisition
US20090033755A1 (en) 2007-08-03 2009-02-05 Tandent Vision Science, Inc. Image acquisition and processing engine for computer vision
CN101420531A (zh) * 2007-10-23 2009-04-29 鸿富锦精密工业(深圳)有限公司 高动态范围图片撷取装置及方法
US7949249B2 (en) * 2007-11-28 2011-05-24 Bowei Gai Software based photoflash synchronization of camera equipped portable media device and external lighting apparatus
US8098957B2 (en) * 2008-02-13 2012-01-17 Qualcomm Incorporated Shared block comparison architechture for image registration and video coding
KR101257942B1 (ko) * 2008-04-23 2013-04-23 고려대학교 산학협력단 광역 역광보정 영상처리에서의 전처리 방법 및 장치
US8724921B2 (en) * 2008-05-05 2014-05-13 Aptina Imaging Corporation Method of capturing high dynamic range images with objects in the scene
EP2289235A4 (en) * 2008-05-20 2011-12-28 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES BY MONOLITHIC CAMERA ARRANGEMENT WITH HETEROGENIC IMAGE TRANSFORMER
US8090184B2 (en) * 2008-07-23 2012-01-03 Seiko Epson Corporation Fault detection of a printed dot-pattern bitmap
US8339475B2 (en) * 2008-12-19 2012-12-25 Qualcomm Incorporated High dynamic range image combining
US8437537B2 (en) * 2009-03-27 2013-05-07 Mitsubishi Electric Research Laboratories, Inc. Method and system for estimating 3D pose of specular objects
US8228400B2 (en) * 2009-04-17 2012-07-24 Sony Corporation Generation of simulated long exposure images in response to multiple short exposures
WO2010123923A1 (en) 2009-04-23 2010-10-28 Zoran Corporation Multiple exposure high dynamic range image capture
KR101604068B1 (ko) * 2009-09-22 2016-03-17 삼성전자주식회사 고대비 영상 생성 장치 및 방법
US8699821B2 (en) 2010-07-05 2014-04-15 Apple Inc. Aligning images

Also Published As

Publication number Publication date
US20150062382A1 (en) 2015-03-05
CN103069453B (zh) 2015-06-03
JP2013533706A (ja) 2013-08-22
US20180338078A1 (en) 2018-11-22
CN103069453A (zh) 2013-04-24
WO2012006251A4 (en) 2012-02-23
US9420198B2 (en) 2016-08-16
DE102011078662B4 (de) 2020-09-24
KR101433542B1 (ko) 2014-08-22
US20120002898A1 (en) 2012-01-05
US20120002082A1 (en) 2012-01-05
CN103069454A (zh) 2013-04-24
US8885978B2 (en) 2014-11-11
US10341574B2 (en) 2019-07-02
JP2013530657A (ja) 2013-07-25
DE102011078662A1 (de) 2012-06-21
KR20130033446A (ko) 2013-04-03
JP5530563B2 (ja) 2014-06-25
US8760537B2 (en) 2014-06-24
WO2012006251A1 (en) 2012-01-12
WO2012006252A1 (en) 2012-01-12
US20120002899A1 (en) 2012-01-05
WO2012006253A1 (en) 2012-01-12
KR20130033445A (ko) 2013-04-03
US8699821B2 (en) 2014-04-15
CN103069454B (zh) 2015-05-06
US20170048442A1 (en) 2017-02-16
WO2012006253A4 (en) 2012-02-23
KR101428427B1 (ko) 2014-08-07
US10038855B2 (en) 2018-07-31

Similar Documents

Publication Publication Date Title
JP5615973B2 (ja) 高ダイナミックレンジ画像を捕捉するデバイスの作動法
EP2987135B1 (en) Reference image selection for motion ghost filtering
JP6020199B2 (ja) 画像処理装置、方法、及びプログラム、並びに撮像装置
US10129485B2 (en) Methods and systems for generating high dynamic range images
US8982251B2 (en) Image processing apparatus, image processing method, photographic imaging apparatus, and recording device recording image processing program
JP5624809B2 (ja) 画像信号処理装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131209

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140307

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140910

R150 Certificate of patent or registration of utility model

Ref document number: 5615973

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees