JP5301715B2 - 画像の照明検出 - Google Patents
画像の照明検出 Download PDFInfo
- Publication number
- JP5301715B2 JP5301715B2 JP2012152977A JP2012152977A JP5301715B2 JP 5301715 B2 JP5301715 B2 JP 5301715B2 JP 2012152977 A JP2012152977 A JP 2012152977A JP 2012152977 A JP2012152977 A JP 2012152977A JP 5301715 B2 JP5301715 B2 JP 5301715B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- mapping
- light
- pixel
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005286 illumination Methods 0.000 title description 28
- 238000001514 detection method Methods 0.000 title description 10
- 238000000034 method Methods 0.000 claims description 69
- 238000013507 mapping Methods 0.000 claims description 65
- 230000004044 response Effects 0.000 claims description 52
- 238000012545 processing Methods 0.000 claims description 11
- 230000003595 spectral effect Effects 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 6
- 238000009877 rendering Methods 0.000 claims description 4
- 239000013598 vector Substances 0.000 description 24
- 238000004422 calculation algorithm Methods 0.000 description 23
- 239000011159 matrix material Substances 0.000 description 21
- 230000009466 transformation Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 17
- 238000005457 optimization Methods 0.000 description 12
- 238000013459 approach Methods 0.000 description 10
- 238000012360 testing method Methods 0.000 description 10
- 238000005259 measurement Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 3
- 238000002310 reflectometry Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000005316 response function Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 206010015150 Erythema Diseases 0.000 description 1
- 238000000137 annealing Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000004456 color vision Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 231100000321 erythema Toxicity 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
- H04N23/88—Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
- G06T2207/20012—Locally adaptive
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Probability & Statistics with Applications (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Color Television Image Signal Generators (AREA)
Description
を形成するために、複数であるN個の発光体(ただし、N>m)についてクロマジェニック前処理を行う工程とを有することを特徴とする方法が提供される。
は、単純に、N個の光源のそれぞれに1つずつであるN個のスカラーからなる集合である。この例では、3つの光に対してN=3個のマッピングからなる集合を事前に決定し、フィルタ未処理のカメラ応答からフィルタ処理済のカメラ応答へのマッピングが3個のスカラー{1,1/3,1/2}で与えられると仮定する。右手側に、これら3個の取りうるマッピングを示す。最初のマッピングが‘*1’で示され、*1は、画像ピクセルを1倍して対応のフィルタ処理済の出力を予測できることを意味する。その他も同様である。(一般の場合にマッピングである)3個の倍率が存在するので、‘3C2’=N!/((N−2)!2!)=3!/(1!2!)=3通りの取りうる組み合わせが2個のマッピングに関して存在する。図では、これらのマッピング集合をA、B、Cでラベル付けする。次に、これらのマッピング集合を1つずつ順番に適用する。例えば、候補マッピングである*1と*1/3とからなる集合Aをテストするならば、まず、画像全体Iに*1を適用し、実際に観察されたフィルタ応答IFとの誤差を比較し、画像全体Iに*1/3も適用し、フィルタ応答IFとの誤差を比較する。2個のマッピング*1,*1/3で構成されるこのマッピングAにおいて、ピクセルレベルで誤差が最小のピクセルは、第1マッピング又は第2マッピングと関連付けるようにラベル付けされる(領域全体との関連付けは後述する)。
ここで、積分は可視スペクトルωにわたって評価される。センサ応答qkのトリプレットを単一のベクトルに結合することが有益であり、ここでは
で表す(下線は、ベクトル量を示す)。
ここで、Ei(λ)(i=1,…,DE)は発光体についての近似基準集合を形成し、Sj(λ)(j=1,…,DS)は表面についての近似基準集合を形成する。重み
及びσjはこれらの基準集合に対する特定の光及び表面についての最良適合を形成する。そして、像形成の式(式(1))は以下のように簡潔に表せる。
ここで、
はRGB応答への3×N行列マッピング反射率重みである。このライティング行列のkj番目の項は以下の式で与えられる。
フィルタ処理済の発光体を以下のように定義する。
従って、式(6)は、以下のようになる:
ここで、上付き文字Fは、カラーフィルタへの依存を示す。式・計数の見地から、我々は、ここで未知数を解くための既知数を十分に有する。全てのシーンについて、単に、1枚はフィルタ処理済であり、もう1枚はフィルタ未処理である2枚の写真を撮る。文献7が開示するように、ここで重要なのは、光と表面の自由度3が自然を正確に表現できると仮定し、RGBをフィルタ処理済の対応物へマッピングする変換が発光体色を一意に定義することである。この結果が発光体推定のクロマジェニック理論へと導く。
前処理:N個の光Ei(λ)とs個の表面Si(λ)のデータベースについて、
を計算する。ここで、Qi及びQi Fはi番目の光の下でのs個の表面に対するフィルタ未処理のセンサ応答及びフィルタ処理済のセンサ応答の行列を示し、上付き文字+は、擬似逆を示す(文献15)。これは最良の最小二乗変換を生成するが、この方法は、最小二乗に限定されず(例えばロバスト法も使用されうる)、線形(すなわち、行列)変換にも限定されない。
実行:新しいテスト画像で、P個の表面を仮定すると、3×P測定画像RGB行列Q及びQFを有する。ここで、シーン発光体Eest(λ)の最良推定を見つけるタスクは、合計が最小の二乗誤差を生成するN個の発光体からなる集合のインデックスiを発見することで解決する:
このとき、
である。
を求めると仮定して始める。しかし、この関係が3×3行列変換であることを必ずしも仮定する必要はなく、一般に、任意の関数
を仮定する。ここで、
は、カラー画像における取りうる整数からなる集合である(例えば、16ビットのカラーチャンネルでは、
は集合[0..65536]となる)。ここで、m個の要素からなる部分集合
を選択したと仮定する。各ピクセル又は各領域を順番に取り、m個の関係のうちのどれがRGBをフィルタ処理済の対応物に最良にマッピングするかを判定する。単一の関係を各ピクセル又は各領域に割り当てたら、m個の関係Rからなる集合がどの程度良く我々のデータを説明できるかを計算することは単純な問題である。当然、
には取りうるm個の要素からなる部分集合Rが多く存在する。数学的に、
における全てのm個の要素からなる部分集合を
で示し、この集合を
のm個要素集合と呼ぶ。次に、全体として画像とフィルタ処理済の対応物との関係を最適に表現する
が(本質的に検索アルゴリズムである)最適化手法で見つけられる。これはm個の最良マッピング、従って、ピクセルのmレベルのラベル付けを効率的に見つける。例えば、m=2の場合に、これはピクセルの2値ラベル付けになる。このラベル付けは、例えば、影付き領域及び影なし領域から生じてもよい。この最適化を数学的に記載する前に、若干の表記法を導入する必要がある。
とし、Ik及びIF kが画像のk番目のピクセル又は領域とそのフィルタ処理済の対応物とを示すとする。関係fiは、iをラベル付けされた特定の発光体について画像をフィルタ処理済の対応物にマッピングする数学的関数又はコンピュータアルゴリズムと考えることができる。従って、画像領域Ikについてfiが適当な場合に、以下の式が予想されうる。
は
のm個の要素の全ての部分集合を表し、ik∈1,2,…,mがm個の関係のうちk番目のピクセル又は領域で最良に適用される関係を示すとき、以下の最適化を解く必要がある。
最適化の概要:
の濃度に比例する。例えば、
に50個(典型的な光の範囲を描写するのに合理的な数(文献16))の関係が存在する場合、m個要素集合
の濃度は50!/m!(50−m)!で得られ、m=2、3、4、5に対して1225、19600、230300、2118110に等しい。ブルートフォース検索は、現実的には、小さなm(すなわち、m=2又は3)についてのみ現実的に可能である。
に含まれることを許容すると(例えば、全ての取りうる3×3行列)、我々の解法戦略は、古典的な最適化理論を追随することになる(これは、前述の組合せ手法ではない)。最適化手法では、m個の良い変換の初期の推測から始めて、コスト関数を最小化することで、これらを増加的に更新していく。例えば、広く使用される勾配降下法を採用してもよい。これらの微分最適化は、大域的とは対照的な、局所的な最適解を見つける傾向がある。焼き鈍し法のような発見的方法が大域的最適条件を見つけるために用いられてもよい。
ここで、Qk(λ)は、センサ応答関数又はフィルタ透過率で乗算されたセンサであってもよい。
と設定することで、シーンに付加されたフラッシュ光の影響を正確にモデル化し、これも本発明に含まれる。
の任意の関数(3次元入力を3次元出力にマッピングする関数)でありうる。任意のq(センサの数)及びp(依存する応答の数)について、マッピング関数は
となる。
と書き、これは、Ikの存在が期待されるq−p次元平面に直交するp次元平面に応答のq次元ベクトルを射影する。より一般的には、尺度P(Ik)を計算してもよい。ここで、Pは、検討中の発光体について応答ベクトルの可能性が高い場合に小さい数を返す関数である。このとき、Pは例えば、何らかの確率的尺度であってもよい。
の最良の関係を事前に計算できる。さらに、応答ベクトルの位置を直接に使用する場合、最良の適合面を事前計算することもできるし、相異なる光の下で所与のq次元ベクトルが発生する尤度と考えられる確率モデルを事前に計算することもできる。一方、画像統計を用いて、所与の光で所与の応答のq次元ベクトルが発生する適合または尤度を単一画像内で計算可能なことに気付いたので、これも本発明に含める。例えば、RGBをフィルタ処理済の対応物にする3×3線形写像の場合について、ちょうど2個の光がシーンに存在する場合、ロバスト統計を用いて、画像データを最良に説明する変換ペアを見つけることができる(どの光が存在するかによって、ペアの一方が各ピクセルに適用される)。画像の少なくとも50%+1個のピクセルをフィルタ処理済の対応物にマッピングする最良の3×3行列を見つける。残りのピクセルは異常値として扱い、個別に適合されうる。正常値及び異常値は、相異なる光によって画像のどの部分が照らされるかを判定する。我々の実験は、この場合に良好な照明検出を示す。さらに、原理上、標準的な技術を用いて、距離尺度の全ての相異なる組み合わせと、上述した適合関数とを画像データ自身で学習させることができる。
を生成することから始める。これらの変換は、(線形画像(未処理ロー画像)を出力する)ニコンD70カメラを使って、カラーフィルタ無しと有りとで、50個の光の下で標準色見本表(マクベスカラーチェッカー(文献17))を1つずつ撮像することで計算した。毎日出会う典型的な光を代表するものとして50個の光を選択した。これは、青空のみ、青空+太陽、雲に覆われた空、蛍光灯、白熱照明を含む。マクベスカラーチェッカーは24個の相異なる色のパッチを含む。そこで、24個のフィルタ未処理のRGBをフィルタ処理済の対応物に回帰させることで、各3×3変換の解を得た。
、すなわち2個の要素を有する
のすべての部分集合からなる集合を計算する。50個の変換が存在するので、‘50C2’に等しい1225個の組合せが存在する。3×3行列の特定ペアを含む所与の関係集合Rについて、どの行列が各画像ピクセルをフィルタ処理済の対応物に最良にマッピングするかをテストする。この過程で、写像されたRGBと実際のフィルタ応答との齟齬又は誤差を計算する。2つの光(それ故、2つのマッピング)の1225通りの組合せのすべてについてこの処理を繰り返し、フィルタ未処理の画像をフィルタ処理済の画像に全体として最良にマッピングする変換の1つのペアを決定し、ペアの一方が各ピクセルに適用される。図1は、ちょうど3つの関係(マッピング)が存在し、行列の代わりに、関係が単純なスカラー乗数の場合の処理を示す。図2は、ピクセルレベルで式(11)を適用した最適化の典型的な結果を示す。図2(a)は、原画像を示す。陰影を有するので、シーンにはっきりと2つの光が存在する。これは、ノイズのあるピクセルベース検出を表す。
[1] J. M. Rubin and W. A. Richards. Color vision and image intensities: When are changes material. Biological Cybernetics, 45:215-226, 1982.
[2] M.F. Tappen, W.T. Freeman, and E.H. Adelson. Recovering intrinsic images from a single image. In Advances in Neural Information Processing Systems 15. MIT Press, 2003.
[3] G.D. Finlayson, S.D. Hordley, and M.S. Drew. Removing shadows from images. In ECCV 2002: European Conference on Computer Vision, pages 4:823-836, 2002. Lecture Notes in Computer Science Vol. 2353.
[4] C. Fredembach and G.D. Finlayson. Hamiltonian path based shadow removal. In British Machine Vision Conf, 2005.
[5] G.D. Finlayson and P.M. Morovic. Human visual processing: Beyond 3 sensors. In IEE Int. Conf. on Visual Information Engg. (VIE2005), pages 1-7, 2005.
[6] G.D. Finlayson, S.D. Hordley, and P.M Morovic. Chromagenic filter design. In 10th. Congress of the Int. Colom Assoc. (AIC2005), 2005.
[7] G.D. Finlayson, S.D. Hordley, and P.M Morovic. Colour constancy using the chromagenic constraint. In Computer Vision and Ratt. Rec. (CVPR2005), 2005.
[8] G.D. Finlayson. Image recording apparatus employing a single ccd chip to record two digital optical images. Awarded US Patent, My 06, Pat num 7,046,288.
[9] J.P.S. Parkkinen, J. Hallikainen, and T. Jaaskelainen. Characteristic spectra of Munsell colors. J. Opt. Soc. Am. A, 6:318-322, 1989.
[10] L.T. Maloney and B. A. Wandell. Color constancy: a method for recovering surface spectral reflectance. J. Opt. Soc. Am. A, 3:29-33, 1986.
[11] D. H. Marimont and B. A. Wandell. Linear models of surface and illuminant spectra. J Opt. Soc. Am. A, 9:1905-1913, 1992.
[12] M. D'Zmura and G. Iverson. Color constancy. I. Basic theory of two-stage linear recovery of spectral descriptions for lights and surfaces. J. Opt. Soc. Am. A, 10:2148-2165, 1993.
[13] M. Tsukada and Y. Ohta. An approach to color constancy using multiple images. In Int. Conf. on Computer Vision (ICCV90), 1990.
[14] G.D. Finlayson, M.S. Drew, and B.V. Funt. Diagonal transforms suDce for color constancy. In M. Conf. on Computer Vision (ICCV93), 1993.
[15] G. Strang. Linear Algebra, and its Applications. Harcourst, Brace, Jovanovich, 3rd edition, 1988.
[16] K.Barnard, L. Martin, B.V. Funt, and A. Coath. A data set for colour research. Color Research and Application, 27:147-151, 2002.
[17] CS. McCamy, H. Marcus, and J.G. Davidson. A color-rendition chart. J. App. Photog. Eng., 2:95-99, 1976.
[18] D. Comaniciu and P. Meer. Mean shift: A robust approach toward feature space analysis. PAMI, 24:603-619, 2002.
Claims (7)
- 2以上の自然数であるm個の光源を有するシーンの撮像された画像を相異なる領域に分割することによって前記画像を処理する方法であって、各領域は前記m個の光源の1つだけによって照らされ、前記方法は、
(a)前記シーンの第1画像及び第2画像を撮像する工程であって、前記第1画像及び前記第2画像は相異なるスペクトル成分を用いて撮像される、工程と、
(b)前記第1画像内の領域と前記第2画像内の対応する領域との間のマッピングを取得する工程であって、各マッピングは、
(1)前記m個の光源の1つだけに関連し、
(2)前記第1画像におけるマルチスペクトル応答に基づいて前記第2画像において空間的に対応するマルチスペクトル応答の予測を提供する、工程と、
(c)最小の予測誤差を有する1つ以上のマッピングを識別する工程と、
(d)前記最小の予測誤差を有する前記識別されたマッピングの1つから前記画像の前記相異なる領域を取得する工程とを有することを特徴とする方法。 - 前記第1画像と前記第2画像との間の前記マッピングはピクセルレベルであることを特徴とする請求項1に記載の方法。
- 前記第1画像及び前記第2画像は相異なるフィルタリングを有する互いの対応物であることを特徴とする請求項1に記載の方法。
- 前記シーンの画像をレンダリングする工程を更に有し、
前記レンダリングする工程は前記画像の前記マッピングに基づいて調整されることを特徴とする請求項1に記載の方法。 - m=2であることを特徴とする請求項1乃至4の何れか1項に記載の方法。
- m=3であることを特徴とする請求項1乃至4の何れか1項に記載の方法。
- 画像内の所定の情報の精度を向上する方法であって、
請求項1乃至6の何れか1項に記載の方法を実行して、前記識別された1つ以上のマッピングを取得する工程と、
前記画像内の所定の情報のレンダリングを調整するために前記識別された1つ以上のマッピングを使用する工程とを有することを特徴とする方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB0622251.7 | 2006-11-08 | ||
GB0622251A GB0622251D0 (en) | 2006-11-08 | 2006-11-08 | Detecting illumination in images |
GB0710786A GB0710786D0 (en) | 2007-06-05 | 2007-06-05 | Detecting illumination in images |
GB0710786.5 | 2007-06-05 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009535795A Division JP5076055B2 (ja) | 2006-11-08 | 2007-11-08 | 画像の照明検出 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012238317A JP2012238317A (ja) | 2012-12-06 |
JP5301715B2 true JP5301715B2 (ja) | 2013-09-25 |
Family
ID=39027269
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009535795A Active JP5076055B2 (ja) | 2006-11-08 | 2007-11-08 | 画像の照明検出 |
JP2012152977A Active JP5301715B2 (ja) | 2006-11-08 | 2012-07-06 | 画像の照明検出 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009535795A Active JP5076055B2 (ja) | 2006-11-08 | 2007-11-08 | 画像の照明検出 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8385648B2 (ja) |
JP (2) | JP5076055B2 (ja) |
GB (1) | GB2456482B (ja) |
WO (1) | WO2008056140A2 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101833749B (zh) * | 2009-03-12 | 2012-03-28 | 株式会社理光 | 检测图像中阴影的装置和方法 |
US8194975B2 (en) * | 2009-06-29 | 2012-06-05 | Tandent Vision Science, Inc. | Use of an intrinsic image in face recognition |
TR201101980A1 (tr) * | 2011-03-01 | 2012-09-21 | Ulusoy İlkay | Bir nesne temelli bölütleme yöntemi. |
CN102184403B (zh) * | 2011-05-20 | 2012-10-24 | 北京理工大学 | 基于优化的本征图像提取方法 |
KR20130028370A (ko) * | 2011-09-09 | 2013-03-19 | 삼성전자주식회사 | 영상 모델링 시스템에서 형상 정보, 재질 정보 및 조명 정보를 획득하는 장치 및 방법 |
US8976249B2 (en) | 2011-11-04 | 2015-03-10 | Empire Technology Development Llc | IR signal capture for images |
US8509545B2 (en) | 2011-11-29 | 2013-08-13 | Microsoft Corporation | Foreground subject detection |
JP5382831B1 (ja) * | 2013-03-28 | 2014-01-08 | 株式会社アクセル | 照明機器マッピング装置、及び照明機器マッピング方法、及びプログラム |
JP6446790B2 (ja) * | 2014-02-21 | 2019-01-09 | 株式会社リコー | 画像処理装置、撮像装置、画像補正方法およびプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9813855D0 (en) | 1998-06-27 | 1998-08-26 | Univ Derby | Image recording apparatus |
US7084907B2 (en) * | 2001-01-15 | 2006-08-01 | Nikon Corporation | Image-capturing device |
FR2827109B1 (fr) * | 2001-07-05 | 2003-11-07 | Eastman Kodak Co | Procede d'identification des ombres dans une image et image obtenue grace a ce procede |
US6691051B2 (en) * | 2001-08-14 | 2004-02-10 | Tektronix, Inc. | Transient distance to fault measurement |
SE0402576D0 (sv) * | 2004-10-25 | 2004-10-25 | Forskarpatent I Uppsala Ab | Multispectral and hyperspectral imaging |
WO2006081437A2 (en) * | 2005-01-27 | 2006-08-03 | Tandent Vision Science, Inc. | Method and system for identifying illumination flux in an image |
-
2007
- 2007-11-08 US US12/514,079 patent/US8385648B2/en active Active
- 2007-11-08 JP JP2009535795A patent/JP5076055B2/ja active Active
- 2007-11-08 GB GB0909767A patent/GB2456482B/en active Active
- 2007-11-08 WO PCT/GB2007/004247 patent/WO2008056140A2/en active Application Filing
-
2012
- 2012-07-06 JP JP2012152977A patent/JP5301715B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US20100098330A1 (en) | 2010-04-22 |
GB0909767D0 (en) | 2009-07-22 |
JP2012238317A (ja) | 2012-12-06 |
GB2456482B (en) | 2011-08-17 |
GB2456482A (en) | 2009-07-22 |
WO2008056140A2 (en) | 2008-05-15 |
JP5076055B2 (ja) | 2012-11-21 |
US8385648B2 (en) | 2013-02-26 |
JP2010509666A (ja) | 2010-03-25 |
WO2008056140A3 (en) | 2008-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5301715B2 (ja) | 画像の照明検出 | |
Finlayson et al. | On the removal of shadows from images | |
Gijsenij et al. | Improving color constancy by photometric edge weighting | |
Joze et al. | Exemplar-based color constancy and multiple illumination | |
Sulami et al. | Automatic recovery of the atmospheric light in hazy images | |
US7751639B1 (en) | Obtaining intrinsic images | |
US8811729B2 (en) | Illuminant estimation | |
Lu et al. | Color constancy using 3D scene geometry | |
US8611660B2 (en) | Detecting illumination in images | |
Banić et al. | Using the red chromaticity for illumination estimation | |
Zhu et al. | Atmospheric light estimation in hazy images based on color-plane model | |
US20140300599A1 (en) | Method for Factorizing Images of a Scene into Basis Images | |
JP5265338B2 (ja) | イルミナントの推定 | |
Rezagholizadeh et al. | Edge-based and efficient chromaticity spatio-spectral models for color constancy | |
JP2005283197A (ja) | 画面のスジ欠陥検出方法及び装置 | |
Martinkauppi et al. | Face video database | |
Angiati et al. | Identification of roofs perimeter from aerial and satellite images | |
Mindru et al. | Model estimation for photometric changes of outdoor planar color surfaces caused by changes in illumination and viewpoint | |
Gevers et al. | Object recognition based on photometric color invariants | |
Lakehal et al. | Multiple illuminant estimation from the covariance of colors | |
Romero et al. | Feature points tracking adaptive to saturation | |
Chen et al. | Shadow detection based on rgb color model | |
Afreen et al. | A method of shadow detection and shadow removal for high resolution remote sensing images | |
Morimoto et al. | Color restoration method based on spectral information using normalized cut | |
Dogra et al. | Evaluating the Limitations of Different Color Constancy Techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130619 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5301715 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |