JP5301715B2 - 画像の照明検出 - Google Patents

画像の照明検出 Download PDF

Info

Publication number
JP5301715B2
JP5301715B2 JP2012152977A JP2012152977A JP5301715B2 JP 5301715 B2 JP5301715 B2 JP 5301715B2 JP 2012152977 A JP2012152977 A JP 2012152977A JP 2012152977 A JP2012152977 A JP 2012152977A JP 5301715 B2 JP5301715 B2 JP 5301715B2
Authority
JP
Japan
Prior art keywords
image
mapping
light
pixel
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012152977A
Other languages
English (en)
Other versions
JP2012238317A (ja
Inventor
グラハム ディー フィンレイスン
マーク サムエル ドゥルー
クレメント フレイデムバス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB0622251A external-priority patent/GB0622251D0/en
Priority claimed from GB0710786A external-priority patent/GB0710786D0/en
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2012238317A publication Critical patent/JP2012238317A/ja
Application granted granted Critical
Publication of JP5301715B2 publication Critical patent/JP5301715B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Color Television Image Signal Generators (AREA)

Description

コンピュータビジョン、画像処理及び撮像の多くは、一般的に、シーンを照らす単一の優勢発光体が存在という前提に基づいている。しかし、光が複数あることもしばしばである。一般的な例として、陰影を伴う屋外のシーン、典型的にスカイライトと人工照明が照らす屋内のオフィス環境、店舗や展示場などで使用されるスポットライトなどが挙げられる。これらの混合照明条件に応じて、(単一照明を前提とする)多くの画像処理アルゴリズムが役立たなくなる。失敗の例として、影との境界を通過した対象物の追跡ができなくなったり、対象物ではなく影を追跡したり、画像再生(例えば写真の焼付け)で誤ったカラーバランスを選んだり、シーンで撮像した情報を誤ってレンダリングしたりなどが挙げられる。濃い陰影を含む画像を再生する場合、最後に述べた問題は特に深刻である。単一照明を前提として処理すると、画像処理実施者は、より明るい画像エリアの詳細を圧縮することで画像を明るくする(陰影を見透かす)か、反対に、明るいエリアを損なわない代償として陰影の詳細を引き出せないかのどちらかを選択することになる。我々の視覚体系は、全く異なる知覚画像に到達するように空間的に適応する方法で陰影領域とハイライト領域を処理するため、多くの写真は、実際、我々が記憶するシーンの粗悪な模写といえる。
画像の照明変化を識別するための文献に多くの業績が見られる。従来技術による手法の大部分は、空間的に隣接するピクセル(または領域)を比較することで機能する。ルビンス及びリチャーズ(文献1)は、陰影境界を横切るRGBが所定の明確な関係を有していると述べている。この関係が保たれない場合、境界(edge)は陰影境界ではない。フリーマン他(文献2)は、反射率と照明境界の統計を研究し、画像における境界を分類することにある程度成功している。フィンレイソン他(文献3)は、照明に起因する境界が無い場合、カラー画像からどのように単一のグレースケール画像を形成できるかを開示している。さらに、フレデンバック及びフィンレイソン(文献4)は、コヒーレント陰影領域を識別するためにいかに局所的境界を融合できるかを考察している。境界を横切って結合した陰影境界を再融合させることで、陰影なしの色が程度よく得られる。こうした手法では、陰影境界が鍵を握る。この方法はうまく機能するが、完璧には程遠く、照明検出の課題とは対照的に、陰影検出に併せて調整を行う。さらに、境界ベースでない、領域ベースの方法は陰影を示す、よりたくさんの痕跡をもたらす。
本発明の態様は、画像における照明を分割するための方法を提供することを目的とする。
本発明の第1態様によれば、複数であるm個の光源を有する画像を相異なる領域に分割することによって前記画像を処理する方法であって、前記相異なる領域のそれぞれは前記m個の光源の1つだけで照らされ、前記方法は、相異なるスペクトル成分集合を有するペアをなす画像を取得する工程と、事前に計算されたm個のマッピングからなる集合を前記画像ペアにピクセルレベル又は領域レベルで適用する工程とを有することを特徴とする方法が提供される。
画像は、相異なるフィルタリングを有するペアをなす画像、例えばフィルタ処理済の画像とフィルタ未処理の画像とであってもよい。
本発明は、画像の色(例えばRGB)と、色フィルタを通して撮像された対応する画像の色との関係が、照明に依存するとの認識に基づいている。本発明の方法は、画像とフィルタ処理済みの画像とのペア(対)に存在する区別できる関係の個数を判定し、各ピクセルまたは領域に関係を割り当てることで、画像のどの部分が光の相異なる色に対応するかを識別する。この方法は、N個のスペクトル感度のカメラで一次画像を撮像し、その画像とM個のセンサ測定結果を有する二次画像との関係を分析することを前提にすれば、RGBカメラと、R,G又はBのフィルタ処理済の対応物に対して、また、RGBカメラと、1個以上のセンサ応答の第2集合(例えばC,M及び/又はY)とに対して、さらには、(2個以上のセンサでの)一次多重スペクトル画像と、(1個以上のセンサでの)二次多重スペクトル画像とを撮影する任意のカメラに対しても動作する。例えば、n個のセンサカメラの場合、第1のm個の測定結果が、残りのn−m個のセンサと関連付けることができれば、この関係は(n−m)×m行列になる。n=6且つm=3とすれば、3×3行列の関係が得られる。
関係は、画像データに基づいて計算することができ、または、トレーニング段階で事前に計算することができる。ロバスト統計的最適化手順、または単純な検索手順を用いて関係をピクセルまたは領域(及び特定の発光体として識別された領域またはピクセル)に割り当てることができる。検索手順は2つの段階を含む。初めに、全ての取り得るN個の関係からなる集合からm個の関係からなる集合を選択する。次に、選択したm個要素集合の妥当性を、一次画像ペア及び二次画像ペアについて計算する。全体的に最適であるm個要素集合が、どのピクセル又は領域がどの光で照射されるかを判定する。
所与の関係の妥当性は、対応する一次応答ベクトルに鑑みて、どの程度良く特定の二次画像応答ベクトルを予測するかで判定される。関係が線形変換の場合、m個要素集合の中のm個の関係の1つによって、一次画像からの応答がマッピングされ、二次画像出力に最も近い新らたな出力集合を生成するものが最適とみなされる。数学的な見地から(他のm−1個と比べて)候補となりそうな関係が、概して、最適である。
一次画像と二次画像とを組み合わせたものが、ピクセル当りp個の測定結果を有すると仮定して、多数の方法で尤度を計算できる。これらの方法は(線形関数または非線形関数及び任意の距離尺度を使用して)先頭のq−p個の応答と最後のp個の応答との関係をテストする。同様に、q次元ベクトルの位置が直接に使用可能であり、これは、所与の平面への近傍の計算若しくは確率的尺度またはその他の尺度の計算を含む。q次元ベクトルが所与の光と整合するかどうかを判断するのに必要な情報は、事前に計算されてもよいし、画像自体の統計に基づいて計算されてもよい。
関係の妥当性は、ピクセル又は領域について計算されうる。
どれがピクセルの集合への適用に最良な関係であるかをを評価するために統計分析が使用されうる。ピクセルの集合を最良にモデル化する関係は、最も頻繁に適当と認められた関係でありうる。
これに代えて、画像にわたって関係の集合の妥当性(適切性)が計算される。実際の二次応答と、関係によって予測されたものとの差は、画像にわたって合計される。これによって、m個要素集合の特定の関係の良さに対するスコアが得られる。画像データを最もよく説明するm個要素集合の関係は、検索によって見つかる。
投影された陰影を有するシーンの画像は、2つの発光体を有する(直射光と空及び空のみ(すなわち、陰影付き領域)。本発明によれば、陰影エリアと非陰影エリアとは、関係のすべてのペアの妥当性を順番にテストすることで見つけられる。
頭上からの照明と窓からの光とを有する屋内シーン、すなわち直射と影付きとでありうる室内シーンでは、3つの取り得る光を許容する。本発明によれば、全ての3つの関係の妥当性を順番にテストすることによって、領域が3つの光の1つに分類される。
本発明の第2態様によれば、複数であるm個の光源を有する画像を相異なる領域に分割することによって前記画像を処理する方法であって、前記相異なる領域のそれぞれは前記m個の光源の1つだけで照らされ、前記方法は、相異なるスペクトル成分集合を有するペアをなす画像を取得する工程と、前記画像間の最良のマッピングを見つける工程と、前記見つかったマッピングの下で最良に変換されたピクセルの過半数を第1ラベルに割り当て、その他を第2ラベルに割り当てる工程とを有することを特徴とする方法が提供される。
本発明の第3態様によれば、複数であるm個の光源を有する画像を相異なる領域に分割することによって前記画像を処理する方法であって、前記相異なる領域のそれぞれは前記m個の光源の1つだけで照らされ、前記方法は、相異なるスペクトル成分集合を有するペアをなす画像を取得する工程と、各ピクセル又は各領域についてm個の要素の部分集合Rの前記m個の関係のどれが前記2つの画像を最良にマッピングするかを判定するN個の関係
Figure 0005301715
を形成するために、複数であるN個の発光体(ただし、N>m)についてクロマジェニック前処理を行う工程とを有することを特徴とする方法が提供される。
画像は相異なるフィルタリングを有し、例えばフィルタ処理済の画像とフィルタ未処理の画像とである。
本発明の第4態様は、第1、第2及び第3の態様の工程を採用して画像の情報の精度を向上し、それに応じて画像の情報のレンダリングを調整する方法を提供する。
本発明の第5態様は、画像の照明を検出する手段と、画像の処理を調整するために第1、第2、第3又は第4の態様での工程を実行する手段とを備える画像処理システムを提供する。
本発明は、画像の照明を識別する方法に関する。特に、相異なるm個の光が存在する入力領域において、各領域が複数であるm個の光のうちの1つだけで照らされる相異なる領域に画像を分割するための方法が開示される。本発明の方法は、文献5、6、7が開示するクロマジェニック・カメラで始まる。クロマジェニック・カメラで1つのシーンの2枚の写真を撮る。1枚目は従来型のRGB画像であり、2枚目は、同じカメラだが、カメラの光学系の前に配置されたカラーフィルタを用いて撮影された画像である。クロマジェニック概念は、例えば、一般論として、3個よりも多くのセンサを備えたカメラがクロマジェニック・カメラとして認識されるなど、他のカメラ構造にも拡張される(文献5,8参照)。過去の研究は2つの結果を示す。第1に、RGBとフィルタ処理済のRGBとの関係は照明に依存し、相異なる光は相異なる関係をもたらすという点である。第2に、(事前に計算された)関係だけを利用すると、シーンに存在する光の色の推定が可能という点である。さらに、クロマジェニック手法が、他の方法よりも発光体の色を正確に推定することが分かった(文献7)。クロマジェニック手法が単一の優勢光照明の推定問題で平均的に良く動作する一方、複数の光の検出には直接に適用できない。実際、入力ピクセルのごく一部だけを使った場合、照明推定のクロマジェニック・アルゴリズムの性能は低下する。従って、入力ピクセルの多くが別の光で照らされると、クロマジェニック照明推定の精度は低下する。
本願では、我々は、相異なるN個の照明について、RGBをフィルタ処理済の対応物にもっともらしくマッピングするであろうN個の関係からなる集合Rを、特定のカメラについて事前に計算することだけを想定した。実際に、新しく提供された画像にm個の光が存在するのであれば、本発明によって、我々のデータを最も良く予測するm個の関係からなる集合を見つけられる。ここで、各ピクセルまたは領域は、これらをフィルタ処理済の対応物に最も良くマッピングする関係(m個のうちの1つ)に関連付けられる。このカメラ用に確立されたN個の事前に計算された関係を用いて、これらのm個の関係が見つかる。ひとたび見つかったら、同じ関係に関連付けられたピクセル又は領域は、同一光の下で照らされたと想定される。もちろん、m個の関係の部分集合だけが使用されることを判明した場合は、当初の仮説よりも少数の光が存在するとの結論に至る。実際にm個よりも少ない光が存在する場合、アルゴリズムがその事実を報告するならば、合理的に実行するアルゴリズムは任意の所与のシーンにm個の光が存在することを想定できるだけなので、これは重要なポイントである。例えば、多くの環境で、2個以下の光が存在することを想定すれば十分である。2つの光が存在する場合には2つの光を検出するが、シーンが単一光で照らされる場合に単一照明を検出する方法を求める。
添付の図面を参照しながら、本発明の好適な実施形態を例示の形で説明する。
本発明の好適な実施形態による方法を説明する図である。 原画像を示す図である。 本発明の方法によって取得した推定照明を示す図である。 本発明による画像の初期分割を示す図である。 図2b及び図3aが示す情報を使った領域ベースの光源検出手順の結果を示す図である。
本発明による方法を図1に概略的に示す。(ここではスカラー乗法因子である1,1/3,1/2で表される)事前に計算されたマッピングをフィルタ未処理のピクセル値{3,4}に適用し、フィルタ処理済の対応物{1,2}に最良に合致させる。ここで、この例示の目的に沿って、単一の数字で表される2つの領域を有する極めて単純な画像を用いる(この画像はおそらく、地上を飛行中の飛行機の投影された影である)。一番上の画像Iは、影を表す"3"をラベル付けされた領域を有する。この図表示では、本発明の方法が実際に使用するだろう色を用いたアルゴリズムの説明はしない。その代わり、説明を分かりやすくするために、各ピクセルが1つのスカラー値になるように単純化した。図1で、ラベル‘1’、‘2’、‘3’、‘4’は、各領域に対するラベルであり、ピクセル値でもある。例えば、画像Iの陰影領域において、画像ピクセルのスカラー値は数字の3である。同様に2つの領域を有する対応のフィルタ処理済の画像は、領域‘1’、‘2’を有するように示され、IFで示される。
これらのスカラー値画像において、フィルタ未処理のピクセル値からフィルタ処理済のピクセル値へのマッピングからなる事前に計算された集合
Figure 0005301715
は、単純に、N個の光源のそれぞれに1つずつであるN個のスカラーからなる集合である。この例では、3つの光に対してN=3個のマッピングからなる集合を事前に決定し、フィルタ未処理のカメラ応答からフィルタ処理済のカメラ応答へのマッピングが3個のスカラー{1,1/3,1/2}で与えられると仮定する。右手側に、これら3個の取りうるマッピングを示す。最初のマッピングが‘*1’で示され、*1は、画像ピクセルを1倍して対応のフィルタ処理済の出力を予測できることを意味する。その他も同様である。(一般の場合にマッピングである)3個の倍率が存在するので、‘32’=N!/((N−2)!2!)=3!/(1!2!)=3通りの取りうる組み合わせが2個のマッピングに関して存在する。図では、これらのマッピング集合をA、B、Cでラベル付けする。次に、これらのマッピング集合を1つずつ順番に適用する。例えば、候補マッピングである*1と*1/3とからなる集合Aをテストするならば、まず、画像全体Iに*1を適用し、実際に観察されたフィルタ応答IFとの誤差を比較し、画像全体Iに*1/3も適用し、フィルタ応答IFとの誤差を比較する。2個のマッピング*1,*1/3で構成されるこのマッピングAにおいて、ピクセルレベルで誤差が最小のピクセルは、第1マッピング又は第2マッピングと関連付けるようにラベル付けされる(領域全体との関連付けは後述する)。
代替マッピングB、すなわち、スカラー乗数集合{*1/3,*1/2}と、代替マッピングC、すなわち、スカラー乗数集合{*1,*1/2}とを上記の通り実行する。ここで、どのマッピングが全体的に最良かを決定するための方法を判定する。Aをラベル付けされた線を辿ると、このマッピング集合の良さの推定を伴う計算が見える。画像Iの入力ピクセル3に対して、マッピング集合Aから*1又は*1/3のどちらか一方のマッピングを適用できる。各マッピングを順番に適用して、図1の左端の2個の葉ノードに到達する:実際のピクセル応答を減算することで、実際に観察されたフィルタ処理済の画像IFから予測フィルタ応答の計算誤差を算出する(すなわち、ピクセル値にマッピングを適用する)。この例では、3*1−1及び3*1/3−1(それぞれ、領域‘1’にマッピングされた領域‘3’のピクセル誤差について、誤差2及び0に等しい)を計算する。0は2よりも小さいので、このピクセルに関連付けるものとしてマッピング*1/3が選択される。木ノードの左から2番目のペアに移り、第2ピクセル‘4’について同様の手順を行う。ここでも、*1/3が実際のフィルタ出力をより良く予測する(が、正確ではない)ことが分かる。関係集合Aのみに基づいて、ピクセル‘3’と‘4’との両方とも同一の関係*1/3を用いて対応するフィルタ処理済の対応物に最良にマッピングされるとの結論に達する。そこで、この段階では、両方のピクセルが同一の光の下で撮像されたと結論付ける。関係集合Aが我々のデータを全体的に最良にモデル化するならば、2つの光が存在したという我々の仮説は誤りということになる(ただ1つの関係が存在することが分かり、従って、1つの光が存在することが分かった)。
ツリーの残りの解析を進めるうちに、真ん中の関係枝(関係集合B)のときに、予測応答と実際の応答との絶対差の総計が最小であることがわかる。(この単純な例では、実際に絶対差はちょうどゼロである。)さらに、ピクセル'3'と'4'とがそれぞれ、*1/3と*1/2という2つの相異なる関係でマッピングされることがわかる。そのため、この場合に、各ピクセルが異なる発光体で撮像されるとの結論に至る。この例は単純であるが、これが、本質的に、本発明の重要な工程を成す。
もちろん、実際の画像処理では、画像はk個のピクセルまたは領域を有する。対応のフィルタ処理済の対応物と同様に、各ピクセルは典型的にRGBトリプレットによって表現される。カメラ応答がフィルタ処理済の対応物にどのようにマッピングされるかを予測する関係は、スカラー関数でなく多次元関数である。例えば、関係は、3×3行列変換、又はより複雑な非線形マッピングでありうる。さらに、図1に示すものよりも多数のマッピング(我々の実験では、N=50から100を使用)が存在し、それ故、考慮すべきより多くのマッピング集合が存在する。しかし、本質的に計算は同じである。画像の全てのピクセル又は領域について、RGBをフィルタ処理済の対応物に最良にマッピングするマッピング(m=2を検討するならば、2個のマッピングからなる集合に属する)を見つける。次に、画像全体の予測誤差を計算する。この処理は全ての取りうるマッピング集合について反復される。画像RGBからフィルタ処理済の対応物を最良に予測するマッピング集合は、相異なる光で照らされる領域に画像を直接に分割するために用いられうる。本発明によれば、同じマッピングに割り当てられたピクセル又は領域は、同一の光で照らされると想定される。
フィルタ未処理の応答からフィルタ処理済の応答への利用可能な事前に計算されたマッピングを有しないならば、2つの画像間の最良マッピングを探し、見つかったマッピングの下で最良に変換される過半数のピクセルを1つのラベルに割り当て、その他のピクセル全てを第2ラベルに割り当てることで、クロマジェニック(chromagenic)アイデアをなおも得ることができる。例えば、少なくとも画像の半分(プラス1ピクセル)がそのマッピングと大よそ関連しているとの前提で、‘ロバスト’な統計処理により、一方の画像から他方の画像への最良のマッピングを見つける。正しく関連付けられていないピクセルは‘異常値’であり、第2ラベルに属する。事実に、ロバストマッピングは、階層的に進めることが可能であり、第2ラベル領域で最良なマッピングを発見し、個々のピクセルについて適当なラベルが無くなるまで、下降し続ける。その後に、領域ラベル付けを活用する(後述)。
我々の手法は緻密である:相異なる光で照らされる領域を見つけるためだけにクロマジェニック理論を利用し、照明の色自体を推定しない。これは奇妙に聞こえるかもしれない。結局のところ、各ピクセル又は各領域は単一の関係と関連していて、各関係は、特定の光においてRGBをフィルタ処理済の対応物に転写させるマッピングとして(学習段階で)定義される。ひとたび、どの領域が同一光で照らされているかを識別したら、これらの領域について、光の色も知ることになると結論付ける(誤りかもしれない)。クロマジェニック発光体推定では、シーンに色の多様性があるほど性能が上がる傾向があるため、我々は光の色を知らない。しばしば、陰影で見つけたピクセルの総数は、画像の大きさと比べて、相対的にほんの一部であったりする。このような場合に、フィルタ処理済の対応物へRGBをマッピングする最良の関係は、間違った発光体のためのものかもしれない。光の色の推定を目的とする場合に、これは問題を引き起こす。しかし、ここでは、発光体を区別するための手段としてのみ関係を利用することを目指している。
クロマジェニック理論について述べる。光、反射率、センサを、それぞれ、E(λ)、S(λ)、Qk(λ)とする。ただし、kはR、G、Bを示す。ランバート面において、像形成は、以下の式で表すことができる。
Figure 0005301715
ここで、積分は可視スペクトルωにわたって評価される。センサ応答qkのトリプレットを単一のベクトルに結合することが有益であり、ここでは
Figure 0005301715
で表す(下線は、ベクトル量を示す)。
ここで、光及び表面についての線形モデルを導入する:
Figure 0005301715
ここで、Ei(λ)(i=1,…,DE)は発光体についての近似基準集合を形成し、Sj(λ)(j=1,…,DS)は表面についての近似基準集合を形成する。重み
Figure 0005301715
及びσjはこれらの基準集合に対する特定の光及び表面についての最良適合を形成する。そして、像形成の式(式(1))は以下のように簡潔に表せる。
Figure 0005301715
ここで、
Figure 0005301715
はRGB応答への3×N行列マッピング反射率重みである。このライティング行列のkj番目の項は以下の式で与えられる。
Figure 0005301715
色彩恒常の課題に関する1つの定式化は以下の通りである:測定された応答ベクトル
Figure 0005301715
からなる集合を前提として、反射率と照明特性、すなわち
Figure 0005301715

Figure 0005301715
とをどのように再生できるか?
式(2)で用いられる光および反射率の線形モデル基準集合は、一般的に、主成分分析(文献9)または固有ベクトル解析(文献10)を用いて決定される。この場合、モデル次元DEとDSとは3(昼の光)、反射率については6から8であることが分かる。各ピクセルについて3つの測定結果だけがあると仮定して、これらの大規模なモデルでは色彩恒常が解決できるか疑わしい。しかし、式(3)を見ると、像形成は、実際に、反射率重みベクトルを乗算する(光依存の)ライティング行列で予測される。E(λ)またはS(λ)についての知識を有さなくても、式(1)の線形性が保たれていることが分かる。2つの光を加えるならば、それぞれのライティング行列を加える。像形成の見地から見た光と表面の次元性は、N×1重みベクトルモデルと相互作用するM個の3×Nライティング行列からなる集合がどの程度良くRGBを観察したかに依存することが分かる。このような論理によって、マリモントとワンデル(Marimont and Wandell)(文献11)は、DE=3(3個のライティング行列)で、DS=3(反射率の自由度3)のときのみ、像形成の優良なモデル化が可能であることを示した。
モデルの数が少ないため、これは励みになる。しかし、光と反射率を分離できるほどには少なくはない。その理由を明らかにするために、3s個の測定結果と3s+3個の未知要素をもたらす単一の発光体とs個の反射率を有すると仮定した。(互いに乗算されるため)表面明度と発光体輝度との間にスカラー不確定性が存在するとの観察を経て、未知数3s+2であり、これは、既知数の個数よりさらに少ない:すなわち、3s<3s+2である。
しかし、ここで、2つの光の下でのs個の表面を観察すると仮定する。2つ又は3つ以上の表面について、6s個の測定結果を有し、未知の個数より既知の個数が多く、6s>3s+5である(すなわち、5=6−1=2つの光源を3で乗算し、明度不確定性を減算する)。実際、多数の著者が、この場合の色彩恒常問題を代数的に解決できるアルゴリズムを教示している(文献12,13,14)。これらの手法が暗示するのは、3×3線形写像によってRGBが照明を交差してマッピングされるという思考である:
Figure 0005301715
フィンレイソン(文献14)の考察に基づき、我々は、(シグマ重みを思慮深く選択することで)任意の光の下で常に同一のRGBを生成できるため、3×3線形変換が一意であれば、2つの光の色彩恒常問題を解くことだけを期待できる。実際、大部分のセンサ、光、表面について、単純化された近似モデルにおいては一意性が維持されることが示され、そのため、2つの光の恒常性の問題が解決可能なことが示された。しかし、この手法による不具合の1つは、2つの光の下で見られる同一表面の画像が利用可能であるという要件であり、これは、一般的に、非現実的な要件である。
クロマジェック理論において、2つの相異なる光の下でシーンを撮像するのではなく、カメラの前にフィルタを置き、第2光をシミュレートして、付加的な画像を生成する。新しいフィルタ応答は以下のとおり表せる。
Figure 0005301715
フィルタ処理済の発光体を以下のように定義する。
Figure 0005301715
従って、式(6)は、以下のようになる:
Figure 0005301715
ここで、上付き文字Fは、カラーフィルタへの依存を示す。式・計数の見地から、我々は、ここで未知数を解くための既知数を十分に有する。全てのシーンについて、単に、1枚はフィルタ処理済であり、もう1枚はフィルタ未処理である2枚の写真を撮る。文献7が開示するように、ここで重要なのは、光と表面の自由度3が自然を正確に表現できると仮定し、RGBをフィルタ処理済の対応物へマッピングする変換が発光体色を一意に定義することである。この結果が発光体推定のクロマジェニック理論へと導く。
アルゴリズムは2つの段階で動作する。前処理工程で、N個の発光体のそれぞれについて1つずつ、RGBをフィルタ処理済の対応物へマッピングする関係を事前に計算する。例えば、N個の3×3行列変換からなる集合を見つける。実行フェーズでは、クロマジェニック画像ペア、すなわち1枚がフィルタ未処理であり、もう1枚がフィルタ処理済である2つの画像を撮影する。この新しいテスト・ペアの照明は未知である。そこで、事前に計算された関係をそれぞれ適用し、RGBをフィルタ処理済の対応物に最良にマッピングする関係を用いてインデックスを作成し、優勢発光体色を推定する(文献7)。
発光体推定のためのクロマジェニック法は以下の通りである。
前処理:N個の光Ei(λ)とs個の表面Si(λ)のデータベースについて、
Figure 0005301715
を計算する。ここで、Qi及びQi Fはi番目の光の下でのs個の表面に対するフィルタ未処理のセンサ応答及びフィルタ処理済のセンサ応答の行列を示し、上付き文字+は、擬似逆を示す(文献15)。これは最良の最小二乗変換を生成するが、この方法は、最小二乗に限定されず(例えばロバスト法も使用されうる)、線形(すなわち、行列)変換にも限定されない。
実行:新しいテスト画像で、P個の表面を仮定すると、3×P測定画像RGB行列Q及びQFを有する。ここで、シーン発光体Eest(λ)の最良推定を見つけるタスクは、合計が最小の二乗誤差を生成するN個の発光体からなる集合のインデックスiを発見することで解決する:
Figure 0005301715
このとき、
Figure 0005301715
である。
最も簡単な手法では、変換行列を回帰で定義する(例えば、ムーア・ペンローズ逆数は最小二乗回帰を使用する)ことが注目に値する。従って、3×3行列として実装される発光体関係は、RGBをフィルタ処理済の対応物に完璧に変換するわけではない。このささやかな不確定性は、後述するように本発明による方法に2つの重要な影響をもたらす。第1に、最良変換を正確に推定するために、多数のテスト表面集合が必要になる(全ての表面に関係を適用することを望むためである)。第2に、小さな表面集合で光の色を推定しようとするならば、発光体を誤って推定する可能性が生じる。紅斑集合の最良変換は、大きな色集合(例えば、赤、緑、白など)の最良変換とは異なるかもしれない。
従って、小さな表面集合しかない画像のクロマジェニック・アルゴリズムを実行する際に、上述したアルゴリズムによって関係を見つけるが、この関係は、実際、間違った光の色を指し示すかもしれない。
本発明による方法の好適な実施形態を以下に記載する。クロマジェニック画像ペア、すなわち、対応するフィルタ処理済の対応物を伴うRGBを仮定して、どのピクセルまたは領域が同一光で照らされるかを判定することができる。以下に、画像にm個の光が存在できると仮定して、我々の手法を正式に定義する。実際には、大部分の画像に対してm≦2が適当なため、次節で記載される本発明のアルゴリズムの特定の実装を概説する際に、m=2と設定する。
N個の光についてクロマジェニック前処理ステップを実行し、RGBを最良にフィルタ処理済の対応物にマッピングするN個の関係
Figure 0005301715
を求めると仮定して始める。しかし、この関係が3×3行列変換であることを必ずしも仮定する必要はなく、一般に、任意の関数
Figure 0005301715
を仮定する。ここで、
Figure 0005301715
は、カラー画像における取りうる整数からなる集合である(例えば、16ビットのカラーチャンネルでは、
Figure 0005301715
は集合[0..65536]となる)。ここで、m個の要素からなる部分集合
Figure 0005301715
を選択したと仮定する。各ピクセル又は各領域を順番に取り、m個の関係のうちのどれがRGBをフィルタ処理済の対応物に最良にマッピングするかを判定する。単一の関係を各ピクセル又は各領域に割り当てたら、m個の関係Rからなる集合がどの程度良く我々のデータを説明できるかを計算することは単純な問題である。当然、
Figure 0005301715
には取りうるm個の要素からなる部分集合Rが多く存在する。数学的に、
Figure 0005301715
における全てのm個の要素からなる部分集合を
Figure 0005301715
で示し、この集合を
Figure 0005301715
のm個要素集合と呼ぶ。次に、全体として画像とフィルタ処理済の対応物との関係を最適に表現する
Figure 0005301715
が(本質的に検索アルゴリズムである)最適化手法で見つけられる。これはm個の最良マッピング、従って、ピクセルのmレベルのラベル付けを効率的に見つける。例えば、m=2の場合に、これはピクセルの2値ラベル付けになる。このラベル付けは、例えば、影付き領域及び影なし領域から生じてもよい。この最適化を数学的に記載する前に、若干の表記法を導入する必要がある。
Figure 0005301715
とし、Ik及びIF kが画像のk番目のピクセル又は領域とそのフィルタ処理済の対応物とを示すとする。関係fiは、iをラベル付けされた特定の発光体について画像をフィルタ処理済の対応物にマッピングする数学的関数又はコンピュータアルゴリズムと考えることができる。従って、画像領域Ikについてfiが適当な場合に、以下の式が予想されうる。
Figure 0005301715
所与の関係集合Rについて、どれがIF kを最も良く予測するかに基づいて、m個の関係fi(i∈1,2,…,N)の1つのであるIkを各ピクセル又は各領域に割り当てなければならない。前述したように
Figure 0005301715

Figure 0005301715
のm個の要素の全ての部分集合を表し、ik∈1,2,…,mがm個の関係のうちk番目のピクセル又は領域で最良に適用される関係を示すとき、以下の最適化を解く必要がある。
最適化の概要:
Figure 0005301715
kが単一ピクセルの場合、||.||は、例えば、ベクトル成分の絶対値の合計または二乗した絶対値の合計の平方根などの単純なスカラー関数である。Ikが領域の場合、例えばメジアン偏差のように||.||をよりロバストな測定にする範囲が存在する。
本発明の方法の最終ステップでは、相異なる光に属する相異なる領域として識別することを目指す。最適化(11)を解いた後、マッピングRの全体的に最良なm個要素集合及びピクセルラベルik(k∈1,2,...,m)の最良な集合に到達する。これは、以下に示すように、関係インデックスikによってm個の光についてのラベルに領域を直接に関連付ける。ik=1が同一光の下で撮像されたとみなされる場合、全ピクセル又はピクセルのエリアは、‘1’でインデックスされる。同様に、i=2が別の光の下で撮像されたとみなされる場合、全ピクセル又はピクセルのエリアは‘2’でインデックスされる。ik=mまで同様である。
本発明の手法を若干、より一般的にするために、ピクセルの点で適合度動作が行われることを許容するが、ライティング・ラベルを領域単位に割り当てる。画像においてk(k=1,2,...,n)でインデックスされたn個の領域の割り当てを計算すると仮定する。このようなタスクには多数のアルゴリズムが存在する。こうしたアルゴリズムは分割手順と呼ばれる。Ikjがk番目の領域におけるj番目のピクセルを示すとする。初めに、最小化によって関係ラベルikjを割り当てる:
領域主導最適化文:
Figure 0005301715
元になるピクセルとの適合に基づいて領域全体へラベルと割り当てることができる。
k=bestlabel({ikj:ikj∈Ik}) (13)
ここで、関数bestlabel()は、領域KのピクセルIkjに割り当てられる高々m個のラベルの全てからどのラベルを領域kに割り当てるかを選ぶ必要がある。関数bestlabel()の自明な候補はモード関数である。例えば、Ikが100個のピクセルを有し、これら100個のうち、90個が関係ラベルiを有する場合、モードもiであり、その領域の全体ラベルもiとなるべきである。別の候補は、その領域kにおいて、フィルタ未処理のピクセルからフィルタ処理済のピクセルへのマッピングでの誤差全体を最小化するラベルであろう。
式(11)又は式(12)の最小化は、計算的に労力を要しうることに着目する。計算コストは集合
Figure 0005301715
の濃度に比例する。例えば、
Figure 0005301715
に50個(典型的な光の範囲を描写するのに合理的な数(文献16))の関係が存在する場合、m個要素集合
Figure 0005301715
の濃度は50!/m!(50−m)!で得られ、m=2、3、4、5に対して1225、19600、230300、2118110に等しい。ブルートフォース検索は、現実的には、小さなm(すなわち、m=2又は3)についてのみ現実的に可能である。
もちろん、全ての取りうるマッピングが
Figure 0005301715
に含まれることを許容すると(例えば、全ての取りうる3×3行列)、我々の解法戦略は、古典的な最適化理論を追随することになる(これは、前述の組合せ手法ではない)。最適化手法では、m個の良い変換の初期の推測から始めて、コスト関数を最小化することで、これらを増加的に更新していく。例えば、広く使用される勾配降下法を採用してもよい。これらの微分最適化は、大域的とは対照的な、局所的な最適解を見つける傾向がある。焼き鈍し法のような発見的方法が大域的最適条件を見つけるために用いられてもよい。
この節の締めとして、照明検出で使用可能な基礎アルゴリズムのその他の変更例を述べる。第1に、3個のRGBセンサと3個のフィルタ処理済の対応物を想定して基礎理論を提示してきたが、本発明の実施形態は、6個の任意センサ応答関数を有する場合にも適用できる(必ずしもフィルタ補正と区別する必要はない)。この場合、関係f()は、初めの3個のセンサ応答を次の3個に最良にマッピングする。さらに、多次元応答データに到達する他の手段を許容する。例えば、本発明の方法は、標準RGB画像と、シーンを照らすためにフラッシュを使って撮影した第2画像を想定して陰影を検出できる。一般的に、本発明の方法は、以下の式で得られる任意の撮像条件に適用できる:
Figure 0005301715
ここで、Qk(λ)は、センサ応答関数又はフィルタ透過率で乗算されたセンサであってもよい。
Figure 0005301715
と設定することで、シーンに付加されたフラッシュ光の影響を正確にモデル化し、これも本発明に含まれる。
本発明では、センサの数も重要ではない。実際、q個のセンサカメラを想定すると、相異なる光や表面について記録されたセンサ応答のうちのp個が関数f()によって残りのq−p個の応答に関連するならば、本発明の方法はなおも適用できる。上述した実施形態では、q=6且つp=3であるが、q及びpは、p<qを満たす任意の2つの数、q=7且つp=2やq=3且つp=1でありうる。最後の例について、従来型のRGBカメラでは、上記の方法で青色応答を赤色応答及び緑色応答に関連付けることができるという事実に注目されたい。関係がそれほど強くない(例えば、式(9)の適合が著しい誤差を有する)場合でも、本発明の方法はなおも、ある程度の照明検出を提供する。
さらに、(q個の応答カメラにおいて)最初のp個の応答の残りのq−p個の応答に関連付ける手段をいくつかの一般的な形に書くことができる。q=6且つp=3である上記の方法では、3×3行列変換によってフィルタ未処理の応答がフィルタ処理済の応答に関連付けられる。より一般的には、このマッピングは形式
Figure 0005301715
の任意の関数(3次元入力を3次元出力にマッピングする関数)でありうる。任意のq(センサの数)及びp(依存する応答の数)について、マッピング関数は
Figure 0005301715
となる。
||f(Ik q-p)−Ik p||(ここで、Iq-pとIpとは、最初のq−p個の応答と残りのp個の応答とを表し、上付き文字kはk番目のピクセル又は領域を示す)と記述されていた距離の計算法が法則化できたことを指摘する。これは2通りの方法で達成できる。第1に、例えば、任意の定義の大きさ関数||・||を使用できる。これは、例えば、標準ユークリッド距離であってもよいし、(ミンコフスキー・ファミリーのノルムの1つのような)任意の合理的な距離関数とすることができる。第2に、f(Ik q-p)≒Ik pであるならば、q次元空間の特定部分にq次元ベクトルが存在することを示唆することを観察する。例えば、f()がp×(q−p)行列変換のとき、応答のq次元ベクトルは、q次元空間に組み込まれたq−p次元平面上に存在しなければならない。従って、関係f()を直接に計算し、次に、||f(Ik q-p)−Ik p||を計算する代わりに、q−p次元平面への応答のq次元ベクトルの距離を計算できる。従って、我々の適合関数は||P(Ik)−Ik||と書き換え可能であり、Pはq次元ベクトルをq−p次元平面に射影する。射影ベクトルをオリジナルから減算すると適当な距離測定が可能である。
この考えをさらに発展させて、
Figure 0005301715
と書き、これは、Ikの存在が期待されるq−p次元平面に直交するp次元平面に応答のq次元ベクトルを射影する。より一般的には、尺度P(Ik)を計算してもよい。ここで、Pは、検討中の発光体について応答ベクトルの可能性が高い場合に小さい数を返す関数である。このとき、Pは例えば、何らかの確率的尺度であってもよい。
本発明の好適な実施形態によれば、前処理ステップで、所与の光について所与の応答のq次元ベクトルが生じる適合(fit)または尤度を判定できる。これは、所与のテスト集合についてRGBをフィルタ処理済の対応物に最良にマッピングする3×3行列であってもよい。または、上述の別の実施形態について、形式
Figure 0005301715
の最良の関係を事前に計算できる。さらに、応答ベクトルの位置を直接に使用する場合、最良の適合面を事前計算することもできるし、相異なる光の下で所与のq次元ベクトルが発生する尤度と考えられる確率モデルを事前に計算することもできる。一方、画像統計を用いて、所与の光で所与の応答のq次元ベクトルが発生する適合または尤度を単一画像内で計算可能なことに気付いたので、これも本発明に含める。例えば、RGBをフィルタ処理済の対応物にする3×3線形写像の場合について、ちょうど2個の光がシーンに存在する場合、ロバスト統計を用いて、画像データを最良に説明する変換ペアを見つけることができる(どの光が存在するかによって、ペアの一方が各ピクセルに適用される)。画像の少なくとも50%+1個のピクセルをフィルタ処理済の対応物にマッピングする最良の3×3行列を見つける。残りのピクセルは異常値として扱い、個別に適合されうる。正常値及び異常値は、相異なる光によって画像のどの部分が照らされるかを判定する。我々の実験は、この場合に良好な照明検出を示す。さらに、原理上、標準的な技術を用いて、距離尺度の全ての相異なる組み合わせと、上述した適合関数とを画像データ自身で学習させることができる。
要約すると、本発明の方法によれば、カメラで測定された応答のq次元ベクトルの位置が照明の影響を強く受け、反射率の影響が弱ければ、その光の下で発生するこの応答の尤度を測定するためにq次元空間における位置を使用できる。(線形関数または非線形関数と任意の距離尺度とを使用する)初めのq−p個の応答と最後のp個の応答との関係のテストを含む多くの手法でこの尺度が計算されうる。同様に、q次元ベクトルの位置を直接に使用でき、これは、所与の平面への近傍の計算、あるいは、確率的尺度又は他の尺度の計算を含む。所与の光についてq次元ベクトルが一致しているかどうかを測定するのに必要な情報は事前に計算が可能であってもよいし、画像自体の統計に基づいて計算されてもよい。
実際の画像を使って、2つの発光体が照らす画像領域を見つける方法を説明する。ほぼ間違いなく、m=2の場合が最も興味深く、かつ、最も一般的な場合である。多くのシーンが単一の光か2つの光で照らされる。屋外環境ではしばしば単一の光であるが、2個の光がある場合、すなわち、太陽+空(陰影無し)および空のみ(陰影有り)もしばしばである。同様に、夜間の室内において、単一の白熱電球で部屋を照らすことがある。しかし、日中は、多くのオフィス環境で、デスクの上方からの人工光と窓から差し込む自然光との組み合わせである。実際、mが2よりも遥かに多い場合の通常の状況を思いつくのは困難である。
従って、式(11)に示すアルゴリズムを、m=2で実行する。この場合に、50個の3×3行列変換からなる集合
Figure 0005301715
を生成することから始める。これらの変換は、(線形画像(未処理ロー画像)を出力する)ニコンD70カメラを使って、カラーフィルタ無しと有りとで、50個の光の下で標準色見本表(マクベスカラーチェッカー(文献17))を1つずつ撮像することで計算した。毎日出会う典型的な光を代表するものとして50個の光を選択した。これは、青空のみ、青空+太陽、雲に覆われた空、蛍光灯、白熱照明を含む。マクベスカラーチェッカーは24個の相異なる色のパッチを含む。そこで、24個のフィルタ未処理のRGBをフィルタ処理済の対応物に回帰させることで、各3×3変換の解を得た。
ここでアルゴリズムを実行する。最初のパスで、式(11)を用いて、ピクセルベースの最適化アルゴリズムの使用から始める。2個集合
Figure 0005301715
、すなわち2個の要素を有する
Figure 0005301715
のすべての部分集合からなる集合を計算する。50個の変換が存在するので、‘502’に等しい1225個の組合せが存在する。3×3行列の特定ペアを含む所与の関係集合Rについて、どの行列が各画像ピクセルをフィルタ処理済の対応物に最良にマッピングするかをテストする。この過程で、写像されたRGBと実際のフィルタ応答との齟齬又は誤差を計算する。2つの光(それ故、2つのマッピング)の1225通りの組合せのすべてについてこの処理を繰り返し、フィルタ未処理の画像をフィルタ処理済の画像に全体として最良にマッピングする変換の1つのペアを決定し、ペアの一方が各ピクセルに適用される。図1は、ちょうど3つの関係(マッピング)が存在し、行列の代わりに、関係が単純なスカラー乗数の場合の処理を示す。図2は、ピクセルレベルで式(11)を適用した最適化の典型的な結果を示す。図2(a)は、原画像を示す。陰影を有するので、シーンにはっきりと2つの光が存在する。これは、ノイズのあるピクセルベース検出を表す。
各ピクセルに単一変換が適用されるため、この処理の出力を二値画像として観測できる。データに最良に適合する行列変換を(第1変換について)‘0’及び(第2変換について)‘1’で表す。シーンに存在する照明の推定を図2(b)に示す。陰影領域と非陰影領域との間に一致が見られるため、本発明のアルゴリズムが有効なのは明らかであるが、完璧からは程遠い。正解に見えるが、高度のノイズの悪影響を受けている。
ここで、式(12)、続いて式(13)の最適化で得た領域ベースのラベル割り当てを適用する。平均シフトアルゴリズム(文献18)または任意の同様のエッジ保存分割アルゴリズムを使って、画像の初期分割を計算する。図3(a)は、標準平均シフトアルゴリズムで達成した分割を示す。画像に多数の領域があることに注目されたい。すなわち、我々の目下の目的、すなわち非陰影領域と陰影領域との曖昧さをなくすことに比べて画像を過剰に分割した。入力画像の分割が、相異なる光で照らされる領域を統合しないことを保証したいので、これは重要である(分割の度合いは平均シフトアルゴリズムが使用するパラメータを使って制御可能であり、これはその他のエッジ保存分割アルゴリズムにも適用できる)。
図3(b)に領域ベースの発光体検出手順の結果を示す。図2(b)で得た出力で始める。図3(a)の平均シフト分割を使って得られた領域を併用して、式(13)での出力ラベルの割り当てを行う。この変形では、各領域について‘0’と‘1’との割合を計算し、過半数の数を領域全体に割り当てる。図3(b)に示す結果から、シーンに存在する光のすばらしい分割が得られたことが明らかである。
図3は陰影エリアのクリーンな判定を示す。重要なのは、この単純な照明検出へのアプローチが信頼性の高い良好な結果をもたらしたことである。
画像における照明を分割するための方法を開示してきた。この方法は、フィルタ未処理バージョンからフィルタ処理済バージョンへの画像ペアの事前に決定された変換の使用を含み、クロマジェニック・フィルタが使用される。m個以下の発光体ラベルを有する分割を決定するために、画像ペアに対してm個のマッピングからなる集合がピクセルレベルまたは領域レベルで適用され、ラベルの割り当てが最良に生成される。これに代えて、事前に計算されたマッピングを利用できない場合、階層的な手法で画像ペアに適用される回帰または類似の方法によって、m個以下のラベル割り当てを決定できる。一般的に、領域ベースのアプローチは、よりクリーンな照明分割をもたらす。
本明細書で、フィルタ処理済の画像及びフィルタ未処理の画像に言及する場合、相異なるフィルタリング特性を有する画像を含む。相異なるフィルタリングを有する2個のフィルタ処理済の画像を代わりに用いてもよい。あるいは、例えば、相異なるメーカーのカメラなど、単純に2個の相異なるカメラを使ってもよい。特定の例では、従来型のデジタルカメラと黄色フィルタつきのカメラが用いられる。
<参考文献一覧>
[1] J. M. Rubin and W. A. Richards. Color vision and image intensities: When are changes material. Biological Cybernetics, 45:215-226, 1982.
[2] M.F. Tappen, W.T. Freeman, and E.H. Adelson. Recovering intrinsic images from a single image. In Advances in Neural Information Processing Systems 15. MIT Press, 2003.
[3] G.D. Finlayson, S.D. Hordley, and M.S. Drew. Removing shadows from images. In ECCV 2002: European Conference on Computer Vision, pages 4:823-836, 2002. Lecture Notes in Computer Science Vol. 2353.
[4] C. Fredembach and G.D. Finlayson. Hamiltonian path based shadow removal. In British Machine Vision Conf, 2005.
[5] G.D. Finlayson and P.M. Morovic. Human visual processing: Beyond 3 sensors. In IEE Int. Conf. on Visual Information Engg. (VIE2005), pages 1-7, 2005.
[6] G.D. Finlayson, S.D. Hordley, and P.M Morovic. Chromagenic filter design. In 10th. Congress of the Int. Colom Assoc. (AIC2005), 2005.
[7] G.D. Finlayson, S.D. Hordley, and P.M Morovic. Colour constancy using the chromagenic constraint. In Computer Vision and Ratt. Rec. (CVPR2005), 2005.
[8] G.D. Finlayson. Image recording apparatus employing a single ccd chip to record two digital optical images. Awarded US Patent, My 06, Pat num 7,046,288.
[9] J.P.S. Parkkinen, J. Hallikainen, and T. Jaaskelainen. Characteristic spectra of Munsell colors. J. Opt. Soc. Am. A, 6:318-322, 1989.
[10] L.T. Maloney and B. A. Wandell. Color constancy: a method for recovering surface spectral reflectance. J. Opt. Soc. Am. A, 3:29-33, 1986.
[11] D. H. Marimont and B. A. Wandell. Linear models of surface and illuminant spectra. J Opt. Soc. Am. A, 9:1905-1913, 1992.
[12] M. D'Zmura and G. Iverson. Color constancy. I. Basic theory of two-stage linear recovery of spectral descriptions for lights and surfaces. J. Opt. Soc. Am. A, 10:2148-2165, 1993.
[13] M. Tsukada and Y. Ohta. An approach to color constancy using multiple images. In Int. Conf. on Computer Vision (ICCV90), 1990.
[14] G.D. Finlayson, M.S. Drew, and B.V. Funt. Diagonal transforms suDce for color constancy. In M. Conf. on Computer Vision (ICCV93), 1993.
[15] G. Strang. Linear Algebra, and its Applications. Harcourst, Brace, Jovanovich, 3rd edition, 1988.
[16] K.Barnard, L. Martin, B.V. Funt, and A. Coath. A data set for colour research. Color Research and Application, 27:147-151, 2002.
[17] CS. McCamy, H. Marcus, and J.G. Davidson. A color-rendition chart. J. App. Photog. Eng., 2:95-99, 1976.
[18] D. Comaniciu and P. Meer. Mean shift: A robust approach toward feature space analysis. PAMI, 24:603-619, 2002.

Claims (7)

  1. 2以上の自然数であるm個の光源を有するシーンの撮像された画像を相異なる領域に分割することによって前記画像を処理する方法であって、各領域は前記m個の光源の1つだけによって照らされ、前記方法は、
    (a)前記シーンの第1画像及び第2画像を撮像する工程であって、前記第1画像及び前記第2画像は相異なるスペクトル成分を用いて撮像される、工程と、
    (b)前記第1画像内の領域と前記第2画像内の対応する領域との間のマッピングを取得する工程であって、各マッピングは、
    (1)前記m個の光源の1つだけに関連し、
    (2)前記第1画像におけるマルチスペクトル応答に基づいて前記第2画像において空間的に対応するマルチスペクトル応答の予測を提供する、工程と、
    (c)最小の予測誤差を有する1つ以上のマッピングを識別する工程と、
    (d)前記最小の予測誤差を有する前記識別されたマッピングの1つから前記画像の前記相異なる領域を取得する工程とを有することを特徴とする方法。
  2. 前記第1画像と前記第2画像との間の前記マッピングはピクセルレベルであることを特徴とする請求項1に記載の方法。
  3. 前記第1画像及び前記第2画像は相異なるフィルタリングを有する互いの対応物であることを特徴とする請求項1に記載の方法。
  4. 前記シーンの画像をレンダリングする工程を更に有し、
    前記レンダリングする工程は前記画像の前記マッピングに基づいて調整されることを特徴とする請求項1に記載の方法。
  5. m=2であることを特徴とする請求項1乃至4の何れか1項に記載の方法。
  6. m=3であることを特徴とする請求項1乃至4の何れか1項に記載の方法。
  7. 画像内の所定の情報の精度を向上する方法であって、
    請求項1乃至6の何れか1項に記載の方法を実行して、前記識別された1つ以上のマッピングを取得する工程と、
    前記画像内の所定の情報のレンダリングを調整するために前記識別された1つ以上のマッピングを使用する工程とを有することを特徴とする方法。
JP2012152977A 2006-11-08 2012-07-06 画像の照明検出 Active JP5301715B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
GB0622251.7 2006-11-08
GB0622251A GB0622251D0 (en) 2006-11-08 2006-11-08 Detecting illumination in images
GB0710786A GB0710786D0 (en) 2007-06-05 2007-06-05 Detecting illumination in images
GB0710786.5 2007-06-05

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009535795A Division JP5076055B2 (ja) 2006-11-08 2007-11-08 画像の照明検出

Publications (2)

Publication Number Publication Date
JP2012238317A JP2012238317A (ja) 2012-12-06
JP5301715B2 true JP5301715B2 (ja) 2013-09-25

Family

ID=39027269

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2009535795A Active JP5076055B2 (ja) 2006-11-08 2007-11-08 画像の照明検出
JP2012152977A Active JP5301715B2 (ja) 2006-11-08 2012-07-06 画像の照明検出

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2009535795A Active JP5076055B2 (ja) 2006-11-08 2007-11-08 画像の照明検出

Country Status (4)

Country Link
US (1) US8385648B2 (ja)
JP (2) JP5076055B2 (ja)
GB (1) GB2456482B (ja)
WO (1) WO2008056140A2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101833749B (zh) * 2009-03-12 2012-03-28 株式会社理光 检测图像中阴影的装置和方法
US8194975B2 (en) * 2009-06-29 2012-06-05 Tandent Vision Science, Inc. Use of an intrinsic image in face recognition
TR201101980A1 (tr) * 2011-03-01 2012-09-21 Ulusoy İlkay Bir nesne temelli bölütleme yöntemi.
CN102184403B (zh) * 2011-05-20 2012-10-24 北京理工大学 基于优化的本征图像提取方法
KR20130028370A (ko) * 2011-09-09 2013-03-19 삼성전자주식회사 영상 모델링 시스템에서 형상 정보, 재질 정보 및 조명 정보를 획득하는 장치 및 방법
US8976249B2 (en) 2011-11-04 2015-03-10 Empire Technology Development Llc IR signal capture for images
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
JP5382831B1 (ja) * 2013-03-28 2014-01-08 株式会社アクセル 照明機器マッピング装置、及び照明機器マッピング方法、及びプログラム
JP6446790B2 (ja) * 2014-02-21 2019-01-09 株式会社リコー 画像処理装置、撮像装置、画像補正方法およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9813855D0 (en) 1998-06-27 1998-08-26 Univ Derby Image recording apparatus
US7084907B2 (en) * 2001-01-15 2006-08-01 Nikon Corporation Image-capturing device
FR2827109B1 (fr) * 2001-07-05 2003-11-07 Eastman Kodak Co Procede d'identification des ombres dans une image et image obtenue grace a ce procede
US6691051B2 (en) * 2001-08-14 2004-02-10 Tektronix, Inc. Transient distance to fault measurement
SE0402576D0 (sv) * 2004-10-25 2004-10-25 Forskarpatent I Uppsala Ab Multispectral and hyperspectral imaging
WO2006081437A2 (en) * 2005-01-27 2006-08-03 Tandent Vision Science, Inc. Method and system for identifying illumination flux in an image

Also Published As

Publication number Publication date
US20100098330A1 (en) 2010-04-22
GB0909767D0 (en) 2009-07-22
JP2012238317A (ja) 2012-12-06
GB2456482B (en) 2011-08-17
GB2456482A (en) 2009-07-22
WO2008056140A2 (en) 2008-05-15
JP5076055B2 (ja) 2012-11-21
US8385648B2 (en) 2013-02-26
JP2010509666A (ja) 2010-03-25
WO2008056140A3 (en) 2008-10-02

Similar Documents

Publication Publication Date Title
JP5301715B2 (ja) 画像の照明検出
Finlayson et al. On the removal of shadows from images
Gijsenij et al. Improving color constancy by photometric edge weighting
Joze et al. Exemplar-based color constancy and multiple illumination
Sulami et al. Automatic recovery of the atmospheric light in hazy images
US7751639B1 (en) Obtaining intrinsic images
US8811729B2 (en) Illuminant estimation
Lu et al. Color constancy using 3D scene geometry
US8611660B2 (en) Detecting illumination in images
Banić et al. Using the red chromaticity for illumination estimation
Zhu et al. Atmospheric light estimation in hazy images based on color-plane model
US20140300599A1 (en) Method for Factorizing Images of a Scene into Basis Images
JP5265338B2 (ja) イルミナントの推定
Rezagholizadeh et al. Edge-based and efficient chromaticity spatio-spectral models for color constancy
JP2005283197A (ja) 画面のスジ欠陥検出方法及び装置
Martinkauppi et al. Face video database
Angiati et al. Identification of roofs perimeter from aerial and satellite images
Mindru et al. Model estimation for photometric changes of outdoor planar color surfaces caused by changes in illumination and viewpoint
Gevers et al. Object recognition based on photometric color invariants
Lakehal et al. Multiple illuminant estimation from the covariance of colors
Romero et al. Feature points tracking adaptive to saturation
Chen et al. Shadow detection based on rgb color model
Afreen et al. A method of shadow detection and shadow removal for high resolution remote sensing images
Morimoto et al. Color restoration method based on spectral information using normalized cut
Dogra et al. Evaluating the Limitations of Different Color Constancy Techniques

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130619

R150 Certificate of patent or registration of utility model

Ref document number: 5301715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250