JP3935499B2 - 画像処理方法、画像処理装置および画像処理プログラム - Google Patents

画像処理方法、画像処理装置および画像処理プログラム Download PDF

Info

Publication number
JP3935499B2
JP3935499B2 JP2006528350A JP2006528350A JP3935499B2 JP 3935499 B2 JP3935499 B2 JP 3935499B2 JP 2006528350 A JP2006528350 A JP 2006528350A JP 2006528350 A JP2006528350 A JP 2006528350A JP 3935499 B2 JP3935499 B2 JP 3935499B2
Authority
JP
Japan
Prior art keywords
image
light source
base
region
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006528350A
Other languages
English (en)
Other versions
JPWO2006011261A1 (ja
Inventor
智 佐藤
一生 登
和豊 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Application granted granted Critical
Publication of JP3935499B2 publication Critical patent/JP3935499B2/ja
Publication of JPWO2006011261A1 publication Critical patent/JPWO2006011261A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理技術に関し、特に、一般環境で撮影した画像の処理の際に問題となる鏡面反射や影の影響を除去するための技術に関する。
従来、対象物の位置や姿勢の検出、対象物の認識、対象物の動きの検出等を行うために、カメラを用いる方法が広く用いられている。これは、カメラで撮影された画像に対し、例えばパターンマッチングやオプティカルフロー検出、特徴点抽出といった画像処理を適用することによって実現される。
例えば、カメラ画像から対象物の位置・姿勢を検出するものとして、対象物の3次元形状モデルをステレオカメラの画像に位置合わせして統合するものがあった(例えば、特許文献1)。
しかしながら、上述の特許文献1のような画像処理は、ノイズのない画像に対しては有効であるが、一般環境で撮影された画像に対しては十分な信頼性・精度が得られないといった問題がある(例えば、非特許文献1参照)。この原因は主として、通常の画像処理が拡散反射のみの物体を仮定しているため、鏡面反射の影響により画像データの色情報がカメラ位置によって変化することや、影が生じるために画素値が大幅に変化してしまうことを考慮していないためである。
例えば、家庭内のような実環境では、光源の正反射によって生じる鏡面反射が検出精度や認識率の低下の原因となる。図37は携帯電話201を家庭内で撮影したときの画像を模式的に示す図である。家庭内では通常、1個以上の光源202が存在する。そして、光源とカメラが携帯電話201の表面に対して正反射の関係を満たすとき、画素値の高い鏡面反射領域203が生じる。このため、例えば、図38に示すパターン画像204を用いてパターンマッチングにより携帯電話201を検出しようとする場合、鏡面反射領域203はパターン画像204において対応する領域205とは輝度もエッジ情報も大きく異なっている。したがって、検出精度は極端に劣化してしまう。しかも、鏡面反射領域は、カメラ位置によって位置が異なり、また、光源状態によって輝度も変化する。
また、鏡面反射はステレオマッチング処理でも重要な影響を及ぼす。図40は、図39に示すように対象物207をステレオカメラ206L,206Rによってそれぞれ撮影したときの画像である。図40に示すように、光源202の影響により、左画像および右画像のいずれにも鏡面反射領域203L,203Rが生じている。ところが、鏡面反射領域203L,203Rの位置と色情報はカメラ位置によって異なっているため、左画像と右画像とは全く異なる画像になっている。このことは、ステレオマッチングの精度を劣化させる原因となる。
また、このような問題は、鏡面反射だけでなく、近傍に存在する物体が落とす影(cast shadow)や、対象物の法線方向Nと光源方向Lとの角度(図41参照)が90°以上になるときに生じる影(attached shadow)によっても生じる。図37のように、携帯電話201の近傍に遮蔽物208が存在している場合、遮蔽物208が作り出す影は携帯電話201上に落ち、携帯電話201上に影領域209が生じる。影領域209はパターン画像204とは異なる画像であるため、鏡面反射同様に精度を劣化させる原因となる。
このような問題を解決するために、画像処理を行う前処理として、鏡面反射や影領域を補正することが広く行われている。鏡面反射や影領域を推定する手法としては、鏡面反射と拡散反射との偏光特性の違いを利用し、偏光フィルタを用いる第1の従来例(例えば、特許文献2)、対象物を回転させ、マルチスペクトルカメラを利用することによって鏡面反射領域を分離する第2の従来例(例えば、特許文献3)、さらには、様々な方向から光源を当てた対象物の画像を利用し、鏡面反射が生じない理想状態での画像である「線形化画像」を合成し、この線形化画像を利用して鏡面反射や影領域を分離する第3の従来例(例えば、非特許文献2)などがある。
しかしながら、第1の従来例では、カメラに偏光フィルタを取り付ける必要があり、一般のカメラによって実現することは難しい。また、第2の従来例では、対象物を回転テーブルに載せて撮像する必要があるため、家庭内等での利用には不向きである。
一方、第3の従来例は、対象物に照射する光源の位置のみを変化させればよく、しかも、その光源の位置は未知でもかまわないため、家庭内のような一般環境において効果的であると考えられる。
この第3の従来例について説明する。まず、光学現象である拡散反射、鏡面反射および影について、図42を用いて説明する。
2色性反射モデルを仮定すると、物体の輝度は、拡散反射成分と鏡面反射成分との和として表現される。また、Lambertianモデルによれば、拡散反射成分の画素値Iは、次式で示される。
=n・s (式1)
ここで、nは物体表面の法線方向Nと拡散反射率(albedo)との積であり、sは光源方向単位ベクトルと光源照度との積を表す。
また、影は、図42に示すように、物体の法線が光源方向を向いていないために生じるattached shadowと、他の物体により光が遮蔽されることによって生じるcast shadowの2種類に分けられる。環境光や相互反射の影響がない場合、両者とも輝度は0になる。しかし、(式1)では、attached shadowは負の値となり、cast shadowは正の値となる。
Shashuaは、平行光源および完全拡散反射面を仮定することによって、光源方向の異なる3枚の画像の線形結合により、任意の光源方向の画像を表現できることを示した(非特許文献3参照)。つまり、光源方向の異なる3枚の画像をベクトル表現したものをI,I,Iとすると、任意の方向の画像Iは、次式のように線形結合によって表現できる。
=c +c +c (式2)
ここで、
=[c
を画像Iに対する「線形化係数組」と呼ぶ。またこのように、線形和によって作成された画像を「線形化画像」と呼ぶ。
しかし、実画像は影や鏡面反射を含むため、(式2)を満たさない。そこで第3の従来例では、(式2)を満たす拡散反射のみの3枚の画像を作成するために、光源方向の異なる複数枚の画像を撮影し、RANSAC(非特許文献4参照)を利用する。こうして作成した拡散反射のみの画像を「基底画像」と呼ぶ。基底画像をShashuaの方法に適用することによって、撮影画像の光源環境に対応する線形化画像を作成することができる。すなわち、線形化画像は次の式で示される。
=c +c +c (式3)
ただし、I は入力画像Iに対応する線形化画像、I ,I ,I はそれぞれ上述の方法で作成した3枚の基底画像を示す。このようにして生成された線形化画像は、鏡面反射が生じていない、理想状態での画像である。このため、この線形化画像を用いて画像処理を行うことによって、鏡面反射や影の影響を受けない画像処理を実現することができる。
また、第3の従来例では、この線形化画像を利用した、光学特性に基づく領域分割についても示されている。ここで、入力画像Iにおける画素pの画素値をik(p)、これに対応する線形化画像の画素値をik(p) とすると、拡散反射、鏡面反射、cast shadowおよびattached shadowは、次の関係式に従って分離できる。図43はこれを図示したものである。
拡散反射 if |ik(p)−ik(p) |≦T・ik(p)
鏡面反射 if (ik(p)−ik(p) >T・ik(p)) and (ik(p) ≧0)
cast shadow if (ik(p)−ik(p) <−T・ik(p)) and (ik(p) <Ts)
attached shadow if(ik(p) <0) and (ik(p) <Ts)
(式4)
特許第2961264号公報 特許第3459981号公報 特開2003−85531号公報 特開2004−5509号公報 阪野貴彦、池内克史"移動カメラによる自空間画像を用いた車両からのスペキュラ除去",情報処理学会 研究報告 CVIM,2003−CVIM−141,pp.17−23,2003 石井育規,福井孝太郎,向川康博,尺長健"光学現象の分類に基づく画像の線形化",情報処理学会論文誌, vol.44, no. SIG5 (CVIM6), pp.11-21, 2003 Shashua A., "Geometry and Photometry in 3D Visual Recognition", P.D. thesis, Dept. Brain and Cognitive Science, MIT, 1992 M. A. Fischler and R. C. Bolles, "Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography", Communications of the ACM, Volume 24, Issue 6, pp. 381-395
図44は第3の従来例を用いて画像処理を行った結果を示す図である。ここでは、入力画像として、平行光源の向きを変化させた24枚の画像を利用した。同図中、(a)は入力画像の一部、(b)は(a)の画像を利用して作成した線形化画像である。また(c),(d),(e)は、(a)および(b)の画像から(式4)を利用して分離した鏡面反射、cast shadowおよびattached shadowをそれぞれ示している。図44から分かるように、平行光源については良好な結果が得られる。
これに対して図45は、点光源の位置を変化させた24枚の入力画像に対し、同様の処理を行った結果を示す図である。同図中、(a)は入力画像の一部、(b)は(a)の画像を利用して作成した線形化画像、(c)は(a)および(b)の画像から(式4)を利用して分離した鏡面反射を示す。図45から、平行光源でなく点光源を用いたために、線形化画像の生成に失敗し、この結果、鏡面反射成分が誤って分離されていることが分かる。
一般に、屋外など遮蔽物の存在しない環境では、太陽光は平行光源に近似できることが知られているが、家庭内の光源である電球などの照明器具は平行光源では近似できず、むしろ点光源であることが知られている。このため、平行光源を仮定している第3の従来例の手法を家庭内等にそのまま適応することはできず、家庭内等の一般環境において利用可能にするためには、第3の従来例を、点光源を考慮した手法に拡張することが必須条件である。
また、第3の従来例は、カメラ固定および対象物固定であれば、光源の位置は未知であっても、処理が実現できる。ただし、次の2つの条件が必要である。
○ランダムサンプリングにおいて、処理画像中の拡散反射領域の3点を選択する。
○選択された拡散反射領域の3点の法線方向が異なっている。
ここで、第2の条件について説明する。(式2)から明らかなように、線形化係数組を求めるためには、I,I,Iが独立であることが条件である。しかし、I,I,Iの法線方向が全て異なっていない場合、これらの画素値は独立にならない。もし、これらの画素値が独立でない場合、すなわち3画素の法線方向が全て異なっていない場合、(式2)は縮退してしまい、正確な解を求めることはできない。
前記の問題に鑑み、本発明は、平行光源を仮定できないような家庭内等の一般環境においても、線形化画像を生成可能にし、鏡面反射や影の影響を除去できるようにすることを課題とする。
前記の課題を解決するために、本発明は、画像処理として、同一の対象物を撮影した複数の入力画像を、共通に複数の小領域に分割し、各小領域について各入力画像から基底画像を生成し、基底画像が生成不能であった小領域について、その近傍小領域における基底画像生成に係る演算値を用いた補間処理によって基底画像を生成するものであり、生成した各基底画像を用いて、与えられた光源環境における前記対象物の線形化画像を生成するものである。
この発明によると、複数の入力画像は、小領域に分割されるので、平行光源が仮定できないような光源環境で撮影された場合であっても、それぞれの小領域では、平行光源を仮定できるようになり、基底画像を生成可能になる。また、基底画像が生成不能であった小領域についても、その近傍小領域における基底画像生成に係る演算値を用いた補間処理によって、基底画像が生成される。そして、生成した各基底画像を用いて、与えられた光源環境における対象物の線形化画像が生成される。すなわち、家庭内等一般環境においても、線形化画像が生成可能になり、したがって、この線形化画像を用いることによって、鏡面反射や影の影響が除去された画像処理を実現することができる。
本発明によると、家庭内のような一般環境において、非常に簡易な構成によって、鏡面反射が生じない理想状態での画像である線形化画像を生成することができる。したがって、画像処理において、従来、問題になっていた鏡面反射や影の影響を除去することができる。さらに、この線形化画像を用いて、画像中の鏡面反射領域や影領域の分離を行うことも可能になる。
本発明の第1態様では、画像処理方法として、同一の対象物を撮影した複数の入力画像を取得する第1ステップと、取得した各入力画像を共通に複数の小領域に分割する第2ステップと、分割した各小領域について、各入力画像から基底画像を生成する第3ステップと、基底画像が生成不能であった小領域について、その近傍小領域における基底画像生成に係る演算値を用いた補間処理によって、基底画像を生成する第4ステップとを備え、生成した各基底画像を用いて、与えられた光源環境における前記対象物の線形化画像を生成するものを提供する。
本発明の第2態様では、生成された線形化画像を用いて、画像処理を行うステップを備えた第1態様の画像処理方法を提供する。
本発明の第3態様では、前記画像処理は、対象物の光学特性に基づいた領域分離、対象物識別、対象物3次元位置・形状推定のうちの少なくとも1つの処理を含む第2態様の画像処理方法を提供する。
本発明の第4態様では、前記対象物を、光源環境を変化させつつ撮影し、前記複数の画像を取得する第1態様の画像処理方法を提供する。
本発明の第5態様では、前記複数の画像において、前記対象物に生じる影の位置が異なるように光源を制御する第4態様の画像処理方法を提供する。
本発明の第6態様では、前記対象物を、光源環境の変化を検出したとき撮影し、前記複数の画像を取得する第1態様の画像処理方法を提供する。
本発明の第7態様では、前記対象物に生じる影の位置が変化したとき、光源環境が変化したものと検出する第6態様の画像処理方法を提供する。
本発明の第8態様では、前記第3ステップは、K枚の入力画像からN(Nは正の整数:N<K)枚の基底元画像を選択するステップと、残り(K−N)枚の入力画像について、前記N枚の基底元画像を用いて線形化係数組をそれぞれ決定するステップと、決定した線形化係数組を用いて前記N枚の基底元画像を線形化し、N枚の基底画像を生成するステップとを備えた第1態様の画像処理方法を提供する。
本発明の第9態様では、Nは3である第8態様の画像処理方法を提供する。
本発明の第10態様では、前記線形化係数組決定ステップにおいて、当該入力画像から所定数の点をランダムに選択し、この所定数の点から、線形化係数組候補を求めるともに、その確からしさを示す評価指標の値を求める候補算出処理を、繰り返し実行し、前記評価指標の値が最も確からしい線形化係数組候補を、当該入力画像の線形化係数組として決定する第8態様の画像処理方法を提供する。
本発明の第11態様では、前記候補算出処理は、前記所定数の点の法線方向が互いに異なっているか否かを判断するステップを含み、繰り返し毎に選択した前記所定数の点が、いずれも、その法線方向が互いに等しいと判断したとき、当該小領域は基底画像が生成不能と判断する第10態様の画像処理方法を提供する。
本発明の第12態様では、前記第4ステップは、当該小領域の線形化係数組を、その近傍小領域について求められた線形化係数組を用いて補間する第8態様の画像処理方法を提供する。
本発明の第13態様では、補間の際に、各近傍小領域の線形化係数組に係る前記評価指標の値を加味する第12態様の画像処理方法を提供する。
本発明の第14態様では、前記第3ステップは、前記N枚の基底画像を用いて、前記入力画像の少なくともいずれか1つと光源環境が共通する線形化画像を生成するステップを含む第8態様の画像処理方法を提供する。
本発明の第15態様では、前記第2ステップは、平行光源とみなせる光の広がりの上限値、光源と対象物との距離、カメラと対象物との距離、およびカメラパラメータのうちの少なくとも1つに基づいて、小領域のサイズを決定する第1態様の画像処理方法を提供する。
本発明の第16態様では、基底画像が生成不能の小領域について、前記第4ステップにおける補間処理に代えて、そのサイズを変更し、再度、前記第3ステップを実行する第1態様の画像処理方法を提供する。
本発明の第17態様では、基底画像が生成不能の小領域について、前記第4ステップにおける補間処理に代えて、前記小領域の切り出し位置を変更し、再度、前記第3ステップを実行する第1態様の画像処理方法を提供する。
本発明の第18態様では、前記複数の入力画像は、光源が複数存在する環境において、撮影されたものである第1態様の画像処理方法を提供する。
発明の第19態様では、前記画像処理は、前記対象物が有する突起物または窪みの位置を推定する処理である第2態様の画像処理方法を提供する。
本発明の第20態様では、同一の対象物を撮影した複数の入力画像を取得する画像入力部と、前記画像入力部によって取得された各入力画像を共通に複数の小領域に分割する画像領域分割部と、前記画像領域分割部によって分割された各小領域について、各入力画像から基底画像を生成する小領域合成画像生成部と、前記小領域合成画像生成部において基底画像が生成不能であった小領域について、その近傍小領域における基底画像生成に係る演算値を用いた補間処理によって、基底画像を生成する画像補間部とを備え、生成した各基底画像を用いて、与えられた光源環境における前記対象物の線形化画像を生成する画像処理装置を提供する。
本発明の第21態様では、コンピュータに画像処理を実行させるプログラムとして、同一の対象物を撮影した複数の入力画像を共通に複数の小領域に分割するステップと、分割した各小領域について、各入力画像から基底画像を生成するステップと、基底画像が生成不能であった小領域について、その近傍小領域における基底画像生成に係る演算値を用いた補間処理によって、基底画像を生成するステップと、生成した各基底画像を用いて、与えられた光源環境における前記対象物の線形化画像を生成するステップとをコンピュータに実行させる画像処理プログラムを提供する。
以下、本発明の実施の形態について、図面を参照しながら説明する。
(第1の実施形態)
図1は本発明の第1の実施形態に係る画像処理方法を実行する画像処理装置の構成を示すブロック図である。この画像処理装置は、光源の位置を制御する光源制御部101と、光源制御部101によって光源環境が変化している状態で複数の画像を入力する画像入力部102と、画像入力部102によって入力された光源環境が異なる複数の画像を用いて、線形化画像を生成する線形化画像生成部103とを備えている。
線形化画像生成部103は、入力された複数の画像を保持する画像保持部104と、画像保持部104が保持している入力画像を小領域に分割する画像領域分割部105と、分割した各小領域について、複数の画像から合成画像として基底画像を生成する小領域合成画像生成部106と、合成画像が生成不能であった小領域について、補間処理によって、基底画像を生成する画像補間部107とを備えている。そして、線形化画像生成部103は、生成した各小領域の基底画像を用いて、鏡面反射が生じない理想状態での合成画像である線形化画像を生成する。
さらに、生成された線形化画像を利用して、光学特性に基づく領域分割、対象物の識別、対象物の3次元位置・形状の推定等の画像処理を行う画像処理部108を備えていてもよい。
ここでは、図2のような家庭内作業ロボットに、図1の画像処理装置が設けられているものとする。図2において、ロボット10は、撮像を行うカメラ11と、例えば腕などの可動部12に設置された光源13とを備えている。この光源13は、点光源であってもよいし、液晶ディスプレィのような面光源であってもよい。
光源制御部101はロボット10の可動部12の動きを制御することによって、光源13の位置や姿勢を変更し、これにより、光源環境を変化させる。画像入力部102は、光源制御部101が光源環境を変化させている間に、カメラ11を利用して、ある対象物について複数の画像を撮影する。このとき、例えば、対象物に生じる影の位置が異なるように光源13を制御すればよい。画像保持部104は画像入力部102が入力した画像を次々に保持することによって、光源環境が異なる複数枚の画像を蓄え、以下の処理に備える。なお、画像保持部104は、入力画像の他に、線形化画像生成部103が生成した基底画像や線形化画像を蓄えてもかまわない。
<小領域分割>
画像領域分割部105は画像保持部104によって保持されている入力画像を、基底画像を生成する単位としての小領域に分割する。この小領域分割は、光源環境を平行光源と仮定して、線形化画像を生成可能にするために行うものである。
まず、平行光源と点光源の関係について説明する。平行光源とは、撮像範囲内の対象物に入射する光の広がりθが非常に狭い範囲に限定されている(θ≒0)光源である。一方、点光源は、光が広がって到達する光源である。このため、同一光源であっても、光源と対象物との距離や撮像範囲によって、平行光源とみなせたり、点光源とみなせたりする。
すなわち、図3(a)に示すように、対象物21の長さLに対して光源22と対象物21との距離Dが十分に長い場合、光の広がりθnarrow は十分に小さくなる(θnarrow≒0)。このため、光源22に照射される対象物21上の全ての点は、光源22からの距離がほぼ等しくなり、光源22は平行光源とみなすことができる。一方、図3(b)に示すように、対象物21の長さLに対して光源22と対象物21との距離Dが十分長くはない場合、入射角θwideは大きくなる(θwide≠0)。このため、光源22を平行光源とみなすことはできず、点光源であるとみなされる。
言い換えると、光源と対象物との距離、および対象物の長さを変更することによって、点光源であっても、平行光源と仮定して処理することが可能である。
そこで本実施形態では、入力画像の光源環境を平行光源とみなせるように、入力画像を小領域に分割し、分割した小領域毎に画像処理を行うものとする。
いま、図4(a)に示すように、台24の上に置いた球25を光源22によって照射し、台24の上方からカメラ23によって撮影するものとする。このとき、図4(b)のような画像が得られる。この状態では、光の広がりθは十分に広いため光源22は点光源とみなされる。
そこで、図5(a)に示すように画像を小領域に分割し、小領域ごとに処理を行う。図5(b)に、図5(a)で示した小領域nに対応した視野範囲Anを示す。図5(b)から、画像を小領域に分割することによって、光の広がりθはθに比べて十分に小さくなることが分かる。つまり、平行光源を仮定できる程度に光の広がりθが十分に小さくなるように画像を小さく分割すれば、点光源であっても、平行光源を仮定した画像処理を行うことが可能である。
ここで、対象物は、突起物や窪みのない、形状が滑らかに変化する物体である平面と仮定する。図5(b)において、光源22から対象物平面までの距離をD、視野範囲Anにおける対象物平面の一辺の長さをLsとすると、光の広がりは次の式を満たす。
θ≦2・tan−1(Ls/(2・D)) (式5)
ここで、例えば平行光源を仮定するための条件が、
θ≦θTh
と分かっているものとすると、長さLsが次の条件を満たせば、平行光源を仮定できることになる。
2・tan−1(Ls/(2・D))≦θTh
∴ Ls≦2・Dtan(θTh/2) (式6)
つまり、Ls=2・Dtan(θTh/2) となるように、小領域を設定すればよい。
そして、対象物平面の一辺の長さLsから画像上の小領域のサイズを決定するためには、カメラパラメータ、およびカメラと対象物との距離が既知であればよい。
また、(式6)から、小領域の設定は、光源と被写体との距離Dに基づいて行えばよいことがわかる。つまり、距離Dが長い領域では、小領域を比較的広く設定し、また、距離Dが短い領域では、小領域を比較的狭く設定すればよい。
また、平行光源では、対象物各点に照射される光源の照度はすべて等しいことを仮定している。点光源など実際の光源では、光は減衰するため、この仮定は成り立たない。しかし、光源と被写体との距離が等しい領域では、光の減衰度合が等しくなるため、光源の照度は等しくなる。そのため、光源からの距離がほぼ等しい領域ごとに小領域を設定することが望ましい。
カメラパラメータは、焦点距離(投影中心と撮像平面の距離)、レンズ歪み係数、画像の歪み中心、画面の縦横比、画素サイズなどのカメラ内部パラメータと、カメラの焦点位置、姿勢(向き)などのカメラ外部パラメータとを含む。画像処理を行う際には、事前にこれらのパラメータを推定する必要がある。カメラ内部パラメータは、例えば、「Roger Y.Tsai,“An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision”,Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,pp.364−374,1986」などの方法を利用して、事前に求めておけばよい。またカメラ外部パラメータは、例えば、特開平5−38688号公報に開示された既存の方法を用いて求めればよい。
また、カメラと対象物との距離も、容易に得ることができる。例えば、特願2003−057886に示されている物品管理システムでは、ロボットに画像パターンを設けて、天井等に設置したカメラの画像にパターンマッチング処理を行うことによって、ロボットの位置を認識する。また、対象物に関しては、背景差分などの手法によってその位置を認識する。これらの処理の結果から、ロボットに設置したカメラと対象物との距離を、容易に検出することができる。
このように、処理領域に対する光の広がりθThを設定することによって、小領域のサイズを設定することができる。広がりθThは例えば5°程度に設定すればよい。ただし、この値はこの限りではない。
<基底画像と線形化画像の作成>
小領域合成画像生成部106は、画像領域分割部105によって分割された各小領域について、それぞれ、画像保持部104に保持された複数の入力画像を基にして、合成画像を生成する。画像保持部104にK(Kは正の整数)枚の入力画像が保持されており、各小領域の処理も、K枚の入力画像を用いて行われるものとする。
ここでは、上述した第3の従来例の手法を基にして、RANSACを用いて、基底画像と線形化画像の作成を行う。その手順としては、(1)線形化係数組の算出、(2)基底画像の作成、および(3)入力画像の線形化 を実行する。分割された全ての小領域について処理を行うことによって、入力画像に対応する線形化画像を作成することができる。
(1)線形化係数組の算出
まず、K枚の入力画像から、3枚の基底元画像I,I,Iを選択する。この選択方法については後述する。そして、この基底元画像I,I,Iから、残りの入力画像I(k=4,5,6,…,K)について、これを表現するための線形化係数組をそれぞれ算出する。ここでは、RANSACを利用する。
図6は線形化係数組の算出処理を示すフローチャートである。図6に示すように、まず、初期化処理としてカウンタkに4(ステップS11)、カウンタiteに1、Num_muxに0を代入する(ステップS12)。kは処理を行う入力画像を表すカウンタであり、iteは繰り返し演算を行った回数を表すカウンタである。Num_muxについては後述する。また処理の反復回数は、ite_thとして予め定めておく。
次に、入力画像kの画像内から3点をランダムに選択する(ステップS13)。ここで、選択された3点を(x,y),(x,y),(x,y)とする。こうして選択された3点を利用して、線形化係数組候補tmp_cを算出する(ステップS14)。これは、次の方程式を計算することによって求められる。
ここで、ik(u,v)は入力画像kにおける画素(u,v)の画素値を表している。
次に、こうして求めた線形化係数組候補を利用して、次式から線形化画像を作成する(ステップS15)。
=tmp_c+tmp_c+tmp_c (式8)
ただし、tmp_c=[tmp_c tmp_c tmp_c
そして入力画像kの画像領域を、(式8)によって作成した線形化画像I と(式4)を用いて光学特性に基づき分類する。そして画像上の拡散反射領域を求め、この拡散反射領域に属する画素数Num_dを算出する(ステップS16)。ステップS13〜S16が候補算出処理に相当する。
ここで、入力画像は拡散反射領域が支配的であると考えると、作成した線形化係数組候補tmp_cが適当であればあるほど、拡散反射領域の画素数Num_dは多くなると考えられる。つまり、拡散反射領域の画素数Num_dを評価指標として、その値が最も大きくなる線形化係数組tmp_cを、最適な線形化係数組として検出すればよい。そこで、これまで反復を行った中で、最も大きい画素数Num_dをNum_maxとし、そのときの線形化係数組候補tmp_cをcとして保持しておく。
すなわち、ステップS16において算出した画素数Num_dをそれまでの最大値Num_maxと比較し(S17)、Num_dの方が大きいときは(S17でYes)、Num_maxの値をNum_dに置き換えるとともに、さらにcをtmp_cに置き換え(ステップS18)、次のランダムサンプリングの準備を行う(ステップS19)。一方、Num_dの方が小さいときは(S17でNo)、Num_d,cの置き換えは行わず、ステップS19に進む。
ステップS19では、所定回数(ite_th回)ランダムサンプリングが行われたかをチェックする。もし、まだ所定回数ランダムサンプリングが行われていないときは(ステップS19でNo)、カウンタiteを1つインクリメントし(ステップS20)、再度、ランダムサンプリングを行う(ステップS13)。一方、すでに所定回数ランダムサンプリングが行われているときは(ステップS19でYes)、入力画像kの線形化係数組cとしてcを選択し(ステップS21)、入力画像kの処理を終了する。
このとき、まだ処理を行っていない入力画像があるとき(ステップS22でNo)、カウンタkを1つインクリメントし(ステップS23)、次の入力画像について処理を行う(ステップS12)。一方、もし、すべての入力画像において処理が終わっているときは(ステップS22でYes)、処理を終了する。
なお、ここでの基底元画像としては、鏡面反射や影領域の少ない画像を選択するのが好ましい。このために例えば、輝度が極端に高くも低くもない画素が多い入力画像を基底元画像とすることが望ましい。
また、基底元画像としては、光源環境が大きく異なる3枚の入力画像を選択するのが好ましい。このためには例えば、画像上の数点の画素値が互いに大きく異なる3枚の入力画像を選択すればよい。また例えば、光源環境を推定し、光源の位置や強度ができるだけ異なる3枚の入力画像を選択するようにしても構わない。光源環境を推定する方法としては、鏡面球を利用する方法や、広角カメラを天井方向に向けて光源状態を撮影する方法が広く知られている。表面が鏡面の物質である球の表面に写っているものは、球が置かれた位置に入射している光源の情報である。そこでこのような鏡面球をカメラで撮影し、その画像を解析することによって、光源の位置と照射輝度分布を推定する(例えば、「田中法博、富永昌治 “全方位の光源分光分布の計測とその応用”,画像の認識・理解シンポジウム(MIRU2002),vol.II,pp.99−1004,2000」)。
(2)基底画像の作成
次に、(1)で求めた線形化係数組cと各入力画像Iを用いて、基底元画像を線形化し、基底画像を作成する。ここでもRANSACを利用し、1画素ずつの処理を行う。
ここで、(式3)を見直してみる。入力画像kの画素mに対して(式3)を適用すると、次の式が求まる。
k(m) =c 1(m) +c 2(m) +c 3(m) (式9)
ここで、i(m) =[i1(m) 2(m) 3(m) ] は画素mに対する基底画像の画素値を示しており、基底画素値と呼ぶ。この式において、線形化係数組c=[c は(1)の処理によりすでに求まっている。このため、もし入力画像kの画素mが ik(m)=ik(m) を満たす、すなわち拡散反射を起しているとき、(式9)における未知数は、基底画素値i(m) =[i1(m) 2(m) 3(m) ]のみの3個となる。
したがって、入力画像k(k=4,5,6,…,K)のうち、画素mが拡散反射領域である3枚を選択することができれば、(式9)を一意に解くことができる。ところが、実際にはどの画素が拡散反射を起しているかは分からないため、ここではRANSACによるランダムサンプリングを利用し、また評価指標として、(1)の処理と同様に拡散反射領域の画素数を用いることによって、基底画素値を求める。
図7は基底画像の生成処理を示すフローチャートである。ここでは、上述の線形化係数組の算出処理と異なり、処理を画素ごとに行う。つまり、基底画素値を1画素ずつRANSACの枠組みで求める。
まず、処理を行う画素mを設定する(ステップS31)。次に、初期化のためにカウンタiteに1、Num_maxに0を代入する(ステップS32)。カウンタiteは繰り返し演算を行った回数を示し、また処理の反復回数はite_thとして予め定めておく。Num_maxについては後述する。次に、線形化係数組が既に求まっている(K−3)枚の入力画像から3枚をランダムに選択する(ステップS33)。ここで、選択された3枚の入力画像をk,k,kとする。こうして選択された3枚の画素値を(式9)に代入すると、次の方程式が求まる。
ここで、
tmp_i(m) =[tmp_i1(m) tmp_i2(m) tmp_i3(m)
は、ik1(m),ik2(m),ik3(m)がすべて拡散反射であるとき、基底画素値となるが、そうでないときは意味のない値になる。そこで、tmp_i(m) を基底画素値候補と呼ぶ。(式10)を解くことにより、基底画素値候補tmp_i(m) を算出する(ステップS34)。すなわち、
次に、こうして求めた基底画素値候補tmp_i(m) を利用して、(K−3)枚の入力画像に対して、次の式から線形化画素値ik(m) を作成する(ステップS35)。
k(m) =c tmp_i1(m) +c tmp_i2(m) +c tmp_i3(m)
ただし、k=4,5,6,…,K (式12)
さらに、入力画像kの画素値を、(式12)で作成した線形化画素値ik(m) と(式4)を用いて光学特性に基づき分類する。そして、分類したik(m)(k=4,5,6,…,K)において、拡散反射領域の画素数Num_dを算出する(ステップS36)。
ここで、入力画像は拡散反射領域が支配的であると考えると、作成した線形化画像候補が適当であればあるほど、拡散反射領域の画素数Num_dは多くなると考えられる。つまり、拡散反射領域の画素数Num_dを評価指標として、その値が最も大きくなる基底画素値候補を、最適な基底画素値として検出すればよい。そこで、これまで反復を行ってきた中で、最も大きい画素値Num_dをNum_maxとし、そのときの基底画素値候補tmp_i(m) をiとして保持しておく。
すなわち、ステップS36において算出した画素数Num_dをそれまでの最大値Num_maxと比較し(S37)、Num_dの方が大きいときは(S37でYes)、Num_maxの値をNum_dに置き換えるとともに、さらにiをtmp_i(m) に置き換え(ステップS38)、次のランダムサンプリングの準備を行う(ステップS39)。一方、Num_dの方が小さいときは(S37でNo)、Num_d,iの置き換えは行わず、ステップS39に進む。
ステップS39では、所定回数(ite_th回)ランダムサンプリングが行われたかをチェックする。もし、まだ所定回数ランダムサンプリングが行われていないときは(ステップS39でNo)、カウンタiteを1つインクリメントし(ステップS40)、再度、ランダムサンプリングを行う(ステップS43)。一方、すでに所定回数ランダムサンプリングが行われているときは(ステップS39でYes)、画素mの基底画素値i(m) としてiを選択し(ステップS41)、画素mの処理を終了する。
このとき、まだ処理を行っていない画素がある場合(ステップS42でNo)、カウンタmを1つインクリメントし(ステップS43)、次の画素について処理を行う(ステップS32)。一方、もし、すべての画素について処理が終わっているときは(ステップS42でYes)、処理を終了する。
以上の処理を、分割された全ての画像の全ての画素について行うことによって、基底画像を生成する。
(3)入力画像の線形化
次に、(式3)に従って、各入力画像の線形化係数組cと基底画像I ,I ,I の線形結合によって、入力画像kの線形化画像I を作成する。
=c +c +c (式3)
上述したように、線形化画像とは、鏡面反射が生じていない理想状態のときに観測される画像である。このため、この線形化画像を利用して画像処理を行うことによって、鏡面反射や影の影響を受けない画像処理が可能になる。
なお、ここでの線形化係数組cは、(1)の処理において求めたものをそのまま用いてもかまわないし、入力画像I ,I ,I の代わりに基底画像I ,I ,I を用いて、再度、(1)の処理によって求めなおしてもかまわない。
以上のような処理を行うことによって、画像保持部104に保持されている画像の線形化画像を作成することができる。
なおここでは、入力画像を線形化するまでの処理を示したが、もちろん、(2)の基底画像作成処理までで処理を終えてもかまわない。このような基底画像を画像保持部104に保持することによって、画像入力部102が入力した画像に対し、(3)の処理を行うだけで、線形化画像を作成することが可能である。
<補間処理>
以上のように、画像を小領域に分割して処理することによって、点光源であっても、平行光源として仮定して、第3の従来例と同様の方法によって取り扱うことができる。ただし、画像を小領域に分割することに起因して、次のような問題が生じる。
上述のように第3の従来例では、次の条件を満たす3点以上の画素が存在していることが、前提条件になっている。
○ 法線方向が異なる。
○ 拡散反射領域である。
前者の前提条件を満たさないとき、(式7)の行列Dや(式11)の行列Eが縮退を起すので、(式7)や(式8)の解を求めることができない。また、後者の前提条件を満たさないとき、RANSACにおいて評価関数として用いた拡散反射領域の画素数は、拡散反射領域がそもそも存在しないため、常に0になってしまい、このため、評価関数としての役割を果たさなくなる。そして、小領域に分割することは、これらの前提条件を満たさない領域の存在可能性を高める原因となる。
図8は図5(a)のように分割した各小領域において、第3の従来例を適用した結果である。まず平面領域31,32すなわち画像内に1平面しか存在せず、ほとんどの画素で法線方向が等しい領域では、線形化画像を生成できない。また影領域33のように、拡散反射領域を含まず、影か鏡面反射しか存在しない領域でも、やはり解を求めることができない。このように、小領域に分割して処理を行っても、全ての領域について基底画像や線形化画像を生成できるとは限らず、生成できるのは画像上の一部であり、残りの領域については生成不能となる場合があり得る。
そこで本実施形態では、画像補間部107が、小領域合成画像生成部106において基底画像や線形化画像を生成不能であった小領域について、補間処理によって、基底画像や線形化画像を生成する。まず、次のような仮定をおく。
○ 画像を分割した各小領域では、線形化係数組は、近傍小領域の線形化係数組と相関がある。
これは、各小領域における光の入射角が連続に変化していくことを考えると、妥当な仮定である。この仮定より、次の式が導かれる。
ここで、Ik(x,y) は入力画像kの小領域(x,y)(図9の注目領域41)における線形化画像、I1(x,y) ,I2(x,y) ,I3(x,y) はそれぞれ3枚の基底画像における小領域(x,y)の画像、ck(x、y) =[ck(x、y) k(x、y) k(x、y) は入力画像kの小領域(x,y)における線形化係数組を示している。すなわち、(式13)は「ある小領域(x,y)の線形化係数組は、その8近傍領域(図9の領域42)の線形化係数組を利用することによって生成できる」ことを示している。
すなわち、ここでは、基底画像が生成不能であった小領域(注目領域)について、基底画像生成に係る演算値としての線形化係数組を、その近傍小領域における線形化係数組を用いた補間処理によって求め、基底画像や線形化画像を生成する。以下、その手法について説明する。
1.Nearest neighbor
まず、前提条件として、撮影された画像上では鏡面反射領域に比べて拡散反射領域が支配的であるとする。これは、鏡面反射が、光源方向とカメラ方向が対象物の法線方向に対して正反射の関係になったときにのみ生じるものであることから明らかである。
図10は注目領域の線形化係数組として、近傍領域の線形化係数組のうち最適なものを選択する方法を示すフローチャートである。まず、Rate_maxの初期化を行うために、0を代入する(ステップS51)。次に、注目領域の近傍領域を1つ選択する(ステップS52)。選択した近傍領域xについて線形化係数組が求まっているか否かを調べ(ステップS53)、もし求まっていないときは(S53でNo)、他の近傍領域のチェックを行う(ステップS59)。もし、全ての近傍領域のチェックが終了しているときは(S59でYes)、処理を終了する。
一方、選択した近傍領域xの線形化係数組が求まっているとき(S53でYes)、その線形化係数組と(式3)を用いて、近傍領域xの線形化画像を生成する(ステップS54)。さらに、生成した線形化画像と(式4)を用いて、その近傍領域xの画像について光学特性に基づく領域分割を行う(ステップS55)。ここで求めた拡散反射、鏡面反射、cast shadow、attached shadowの各領域の画素数をそれぞれXd,Xs,Xc,Xa、近傍領域内の総画素数をXallとする。このとき、次式で定義する拡散反射画素率Rate_xを計算する(ステップS56)。
Rate_x=Xd/(Xall−(Xc+Xa)) (式14)
(式14)で定義された拡散反射画素率Rate_xは、総画素数から影と判別された画素数を除いた画素数と、拡散反射領域と判別された画素数の比を表している。上述のように、入力画像において拡散反射領域は鏡面反射領域に比べて支配的であるため、求まった線形化係数組が正しいほど拡散反射画素率Rate_xの値は高くなる。すなわち、拡散反射画素率Rate_xは線形化係数組の確からしさを示す評価指標として用いることができる。
そこで、Rate_xとRate_maxとを比較し(ステップS57)、Rate_xの方が大きいときは(S57でYes)、この近傍領域xの線形化係数組の信頼性は十分高いと考えられる。そこで、Rate_maxにRate_xを代入するとともに、この近傍領域xの線形化係数組を線形化係数組候補として保持する(ステップS58)。一方、Rate_xがRate_maxよりも小さいとき(S57でNo)、この近傍領域xの線形化係数組の信頼性はすでに保持されている線形化係数組候補よりも低いと判断し、その線形化係数組を線形化係数組候補とはせず、他の近傍領域のチェックを行う(ステップS59)。
このような処理を全ての近傍小領域について繰り返すことによって、近傍8領域の中で最も確からしい線形化係数組を線形化係数組候補として求めることができる。上述したように、近傍の領域同士の線形化係数組には相関があるため、近傍領域において最も確からしい線形化係数組は、注目領域においても確からしい線形化係数組であると考えられる。このため、このような補間処理によって求めた線形化係数組候補を用いることによって、基底画像生成において解を求めることができなかった領域についても、線形化画像を作成し、光学的な領域分割を行うことができる。
なお、ここでは、注目領域について最も確からしい線形化係数組を選択する範囲として、8近傍領域を用いたが、これに限られるものではない。例えば図11(a)に示すように、4近傍領域43のみを用いてもよい。このように近傍領域を狭く設定することによって、処理時間を短縮することができる。逆に、例えば図11(b)に示す12近傍領域44や図11(c)に示す24近傍領域45のように、近傍領域を広く設定してもかまわない。近傍領域を広く設定することによって、選択肢が増えるので、注目領域の線形化係数組を高精度に選択することができる。
またここでは、拡散反射画素率Rate_xを評価関数として用いたが、線形化係数組を選択するための評価指標は、これに限られるものではない。例えば、単に拡散反射領域の画素数Xdを評価指標として用いてもかまわない。また、影領域も加えて、Xd+Xc+Xdを評価指標として用いてもかまわない。
またここでは、評価指標値の算出はその近傍領域のみにおいて行うものとしたが、この代わりに、評価指標値を算出するための評価領域を、当該近傍領域とは別個に定めてもかまわない。例えば上述の図10のフローのステップS54〜S56において、近傍領域Xとは別個に定めた評価領域について、線形化画像を生成し、光学特性に基づき領域を分割し、評価指標としての拡散反射画素率Rate_xを計算すればよい。
この方法は、分割した領域ごとに画像特徴が全く異なる場合に有効である。例えば図9において、領域(x−1,y)はその2/3が影領域であるのに対し、領域(x+1,y)は全く影を含まない、ということは多々ある。この場合、上述したように、各領域の線形化係数組を当該領域の拡散反射画素率Rate_xを用いて評価することは、必ずしも適切ではない。そこで例えば、注目領域41と8近傍領域42とを合わせた9個の小領域全体を、評価領域として設定する。すなわち、各近傍領域の線形化係数組を、共通の領域41,42に適用して拡散反射画素率Rate_xなどの評価指標値を計算し、比較する。これにより、より適切な評価を行うことが可能になる。
もちろん、この評価領域は、線形化係数組を求めるために分割した小領域を基にして設定する必要は必ずしもなく、例えば図9の評価領域46,47のように設定してもかまわない。
また、境界領域の連続性を利用して、線形化係数組を推定してもかまわない。隣り合った画素は相関が強いと考えられるので、注目領域の最外位置の画素値は、その画素に隣り合った近傍領域の画素値とほぼ等しいと考えられる(図12の境界領域48)。そこで、この連続性を評価関数として利用する。すなわち、評価関数として、境界領域の連続性を考慮した次式のFunc(Xk(x,y) )を用いる。
ここで、小領域の画素数はすべて(PxQ)画素、xk(x,y,p,q) は入力画像kの小領域(x,y)において、その小領域内の画素(p,q)の線形化画素値を示している。
2.2次補間
ここでは、近傍領域の線形化係数組を2次補間することによって、注目領域の線形化係数組を求める方法について説明する。
まず、線形化係数組の値を領域の位置(m,n)の関数g(m,n)とし、この曲面を以下の2次式によって、近似することを考える。
g(m,n)=A/2・m+B/2・n+Cmn+Dm+En+F (式15)
ここで、位置(m,n)はその領域の中心位置を示す。この(式15)を解くためには、6個以上の線形化係数組が求まっていればよい。そこで、注目領域の近傍領域のうち、線形化係数組が求まっている6領域を選択し、その線形化係数組と位置(m,n)を代入することによって、(式15)を解くことができる。
このとき、線形化係数組cの各要素c ,c ,c ごとに独立に(式15)を解いてもよいし、またc ,c ,c を極座標表示し、その要素それぞれに対して(式15)を解いてもかまわない。
また、6領域から解を一意に求める代わりに、6個以上の領域を選択し、最小自乗法によって解を求めるようにしてもかまわない。また、さらに広い領域を(式15)によって近似するようにしてもかまわない。これは例えば、多くの領域の線形化係数組を用い、RANSACを用いることによって解を求めればよい。
もちろん、例えば、スプライン補間処理などを用いてもかまわないし、また、3次以上のフィッティングを行ってもかまわない。
3.重み付け処理
ここでは、重み付け処理によって、注目領域の線形化係数組を求める方法を説明する。これは、上述の拡散反射画素率Rate_xなど、近傍領域の線形化係数組の確からしさの指標を重みとして利用する。近傍の小領域(m,n)における拡散反射画素率をRate_x(m,n)とすると、注目領域(x,y)の線形化係数組は次の式で表される。
ここで、Sは注目領域(x,y)の近傍において線形化係数組が求まっている領域を示している。つまり、(式16)は拡散反射画素率で重み付けをした近傍領域の平均線形化係数組を表している。
もちろん、重みは拡散反射画素率に限られるものではなく、上述の拡散反射領域の画素数を用いたり、また、重み付けを行わず、単純な近傍領域の線形化係数組の平均値を用いたりしてもかまわない。
また、1.〜3.のようにして求めた線形化係数組を初期値とし、さらに勾配法を用いて最適な線形化係数組を求めるようにしてもかまわない。
このように、点光源を制御しながら撮影した複数の画像に対して、処理領域を分割し、さらに補間処理を行うことによって、点光源においても、鏡面反射や影の影響を補正した線形化画像を作成することができる。そして画像処理部108は、線形化画像生成部103によって生成された線形化画像を用いて、画像処理を行う。線形化画像は鏡面反射や影が除去された理想的な画像であるため、線形化画像を用いることによって、鏡面反射や影の影響を受けない画像処理を実現することができる。ここでの画像処理としては、例えば、対象物の3次元位置・形状推定、対象物の識別、光学特性に基づいた領域分割などがある。
図13は図40のステレオ画像に対する線形化画像である。図13から、鏡面反射が画像からきれいに除去できていることが分かる。したがって、ステレオマッチングの精度も向上し、3次元位置・形状の推定の精度も向上する。また、対象物識別処理においても、線形化画像を用いることによって鏡面反射などによる精度劣化を抑えることができる。
さらに、入力画像に対し、線形化画像と(式4)を用いて、拡散反射や鏡面反射、cast shadowやattached shadowといった光学特性に基づいた領域分離を行うこともできる。
図14(a)は図45(a)の入力画像から本実施形態の方法によって生成した線形化画像を示す図である。また図14(b)は図45(a)の入力画像から図14(a)の線形化画像および(式4)を用いて分離した鏡面反射成分を示す図である。図14(a),(b)を第3の従来例による図45(b),(c)と比較すると、特に平面領域において線形化画像の生成精度が上がっていることが分かる。また鏡面反射領域と拡散反射領域の分離精度は、第3の従来例では70%であるのに対し、本実施形態では91%と大幅に改善されている。なお、分離精度は次式により計算される。
(分離精度)
=((正しく鏡面反射と推定された画素数)+(正しく拡散反射と推定された画素数))/((拡散反射の画素数)+(鏡面反射の画素数))
なお、以上の説明では、領域の分割は各小領域間の重なりがないように行うものとしたが、もちろん図15に示すように、各小領域が重なり合うように領域分割を行ってもかまわない。このように領域を分割することによって、注目領域41と近傍領域42との間の相関が高くなるので、補間処理の精度がより向上する。
また、小領域の形状は矩形である必要はなく、例えば図16のように、任意の形状であってもかまわない。
また、重みを、領域ごとに設定するのでなく、画像上での位置の関数として設定してもかまわない。図17はこの処理の様子を示す図であり、ここでは小領域を円形に設定している。まず、評価領域を半径rの円形領域51として設定し、分離精度E(r)を求める。次に、評価領域を半径r’の円形領域52に変更し、再度、分離精度E(r’)を求める。評価領域の半径を変えながらこの処理を繰り返すことによって、分離精度を、評価円形領域の中心位置(x,y)と半径rの関数E(x,y,r)として表現することができる。この分離精度E(x,y,r)は求まった線形係数ごとに存在するため、ある線形化係数組C=[c]における分離精度E(x,y,r)をE(x,y,r)とする。図18は各線形化係数組C〜Cの分離精度E〜Eを模式的に示した図である。
このとき、任意の点(xm,ym)の線形化係数組Cは、次のような重み付け処理によって求められる。
もちろん、任意の点(xm,ym)の線形化係数組Cは前述のNearest neighborを利用し、次のように求めてもかまわない。
このような処理を用いることによって、画像の領域を明に分割しなくても線形化画像を作成することができる。これは、上述のように評価領域を変化させるため、確定的な評価領域を用いる必要がないためである。
また、光源制御部101は、撮影環境の光源、例えば、家庭内の照明を切り替えることによって、光源環境を変化させるものでもよい。このような光源の切り替えは、例えば電力線を用いたエコーネットなどを利用すればよい。
家庭内で通常用いられる白熱灯や蛍光灯は、第3の従来例では、平行光仮定が成り立たないために光源として用いることができなかった。ところが本発明では、点光源においても線形化画像の作成や光学特性に基づいた領域分離を行うことができるので、家庭内照明を点光源の集合体と捉えることによって、処理が可能である。家庭内照明を光源として利用することができれば、照明を別途準備する必要がなくなるため、非常にシンプルな画像処理装置において本発明を実現することができる。
さらに、光源制御部101による光源環境の変更は、家庭内であれば、住居人がいなくなる夜や出勤・通勤後の時間帯に定期的に行うようにしてもかまわない。
図19は本実施形態によって生成された線形化画像の例である。図19に示すように、本実施形態の画像処理方法によると、鏡面反射が生じない理想状態での画像である線形化画像が生成される。
また、画像入力部102は、必ずしも撮像を行う必要はない。例えば、メモリやハードディスクなどに蓄えられている画像をネットワークやインターフェイスを通じて取り込むようにしてもかまわない。
また、撮影された画像から合成画像を作成するようにしてもかまわない。これは、撮影した複数画像の視点位置や視点方向が異なる場合に有効である。上述のように、本実施形態では視点位置は固定でなくてはならないが、任意視点合成の技術を用いることにより、視点が動いた場合においてもカメラ位置情報、動き情報などを用いてあたかも同じ視点から撮影した画像に変換できる。画像入力部102はこの任意視点合成技術を利用することによって、視点位置が等しい合成画像を作成すればよい。
(変形例)
また、画像補間部107は、次の3つの処理を切り替えるような制御手段を含んでいてもかまわない。
○ 上述の手法によって補間処理を行う。
○ 補間処理を行わずに、小領域合成画像生成部105が作成した画像をそのまま画像処理部108へ送る。
○ 画像領域分割部105によって小領域の大きさや位置を変更し、再度、小領域合成画像生成部106によって合成画像を作成しなおす。
本実施形態では分割した小領域ごとに処理を行うため、RANSACのランダムサンプリングにおいて、選択した3点の法線方向が全て等しくなることが起こり易くなる。この場合、行列Dが縮退し、解が求まらず、線形化係数を求めることができない。
そこで、まず行列Dの縮退を調べることによって、RANSACでサンプリングした各3点の法線方向が等しいか否かを判断する。もし、行列Dが縮退しているときは、処理を中断することによって処理の効率化を図ることができる。すなわち、行列Dの縮退を確認することによって、処理を高速化することができる。そして、すべてのランダムサンプリング点において行列Dが縮退している場合、上述のように処理を切り替える。
行列の縮退を調べる指標としては、まず、行列の次元数がある。通常、行列の次元数を調べるためには行列式を求めればよい。次の行列Aの行列式|A|は、(式17)によって表される。
行列式|A|が0のとき、行列Aは縮退していると考えられる。
ところが本実施形態では、たとえ選択された3点の法線方向が等しい場合でも、点光源を平行光と近似している点や、量子化誤差やノイズの影響によって、行列式|A|は小さな値にはなるものの必ずしも0にはならない。そこで、次の条件を満たすとき、選択された3点の法線方向が等しいと判断する。
|A|≦Th1 (式18)
また、行列の縮退を検出するために、例えば、行列Aの要素である3つのベクトルa,a,aを利用する方法も考えられる。行列Aが縮退しているとき、図20(a)(b)に示すように、ベクトルa,a,aが平面上または直線上に並ぶ。そこで、これら3つのベクトルa,a,aのなす角度成分を、行列の縮退の指標として用いればよい。すなわち、aとa,aとa,aとaがなす角度をそれぞれ求め、それらの角度の最小値を求める。これは、次の条件を満たす場合に、3画素の法線方向が等しいと判断すればよい。
(式19)は指標の単位が角度であるため、(式18)に比べて閾値がわかりやすいといった長所があるが、図20(a)のように3つのベクトルが同一平面上に存在しているときには、検出に失敗するという問題がある。このため、行列式とともに用いるのが好ましい。
また同様の方法として、(式20)のように、行列式を3つのベクトルの長さで正規化するという方法が考えられる。
行列式|A|は、図20(c)に示すように、3つのベクトルa,a,aによって張られる平行六面体61の体積を表している。したがって、行列式|A|を各ベクトルの大きさによって正規化することによって、ベクトル間の角度成分のみが抽出される。
また、行列の縮退を調べる指標として、行列の条件数を用いてもかまわない。行列Aの条件数とは、行列Aが良条件(well-conditioned)か悪条件(ill-conditioned)かの指標であり、次のようなもので表される。
○ 行列Aの最大固有値と最小固有値との比
○ 行列Aの最大特異値と最小特異値との比
○ 行列Aのノルムと逆行列A−1のノルムとの比
さらに、行列の三角化を行い、その対角成分を用いてもかまわない。行列Aは、次式のように展開できる。
このような処理を行列の三角化と呼ぶ。行列の三角化は、Gram-Schmidtの直交化などの手法を利用することによって実現される。Gram-Schmidtの直交化を用いた場合、(式21)は以下のように求められる。
ここで、v,v,vが正規直交基底であることに着目すると、次のことが分かる。
○ x22はaからaへ下ろした足の長さである
○ x33はaからaとaが張る平面に下ろした足の長さである
図21はこの関係を図示したものである。このことから、次の条件式を満たすとき、3点の法線方向が等しいと判断できる。
min(x22,x33)≦Th4
次に、上述した各条件式を用いた判断手法における閾値決定の方法について説明する。ここでは、実際に撮像するであろう条件において、平面と、それ以外の対象物とをそれぞれ撮像することによって、閾値を決めるものとする。
まず図22に示すように、カメラ71によって平面72と対象物としての球73を撮像する。ここで、図22(a)のように平面72を撮像したとき、画像中の各点の法線方向は全て等しくなり、また図22(b)のように球73を撮像したとき、画像中の各点の法線方向は全て異なっている。カメラ71と対象物73は実際の環境と同様に設置する。ここでは、家庭内作業ロボットが作業を行うことを想定し、カメラ71は平面72から50cm離して設置し、球73の半径は10cmとした。カメラ71は実際のロボットに設置されるものと同様の水平画角56°、画素数640x480のものを利用した。
そして、図22(a),(b)の状況でそれぞれ撮影した画像における各条件式の評価関数の頻度を求めることによって、最適な閾値を決定することができる。図23〜図25は各条件式の評価値を示すグラフである。ただし、これらの評価値は、撮像された画面中央部の160x160画素における評価値である。
図23は行列式を3個のベクトルの長さで正規化した値、すなわち(式20)において絶対値を外したものの頻度を示すグラフである。また図24は行列の最大固有値と最小固有値の比を利用した条件数の値の頻度とその累積値を示すグラフである。さらに、図25は(式22)で示した、行列を三角化した際の対角成分の最小値の頻度とその累積値を示すグラフである。グラフ上に鎖線で示した閾値Th2,Th3,Th4を定めることによって、いずれの条件式においても、3点の法線方向が等しいか否かの判別を90%以上の精度で実現できることが分かる。
なお、ここでは、行列Aの行要素ベクトルa,a,aを用いる方法について説明したが、もちろん、下のような列要素ベクトルb,b,bを用いてもかまわない。
このような法線方向検出を利用した線形化係数組の算出方法について、図26のフローチャートを用いて説明する。図26は図6と基本的な処理の流れは同様であり、共通するステップには同一の符号を付しており、ここではその詳細な説明を省略する。
図26に示すように、まず、初期化処理としてカウンタkに4(ステップS11)、カウンタiteに1、Num_maxに0、そしてcに初期値cを代入する(ステップS61)。ここで初期値cには、線形化係数組として存在しない値を設定することが望ましい。例えば、c=[000]などとすればよい。
次に、入力画像kの画像内から3点をランダムに選択する(ステップS13)。ここで、選択された3点を(x,y),(x,y),(x,y)とする。この3点を利用して、上述したような3点の法線方向が等しいか否かの判別を行う(ステップS62)。3点の法線方向が異なっているときは(S62でYes)、選択された3点を利用して線形化画像を作成し、拡散反射領域の画素数Num_dを評価指標として用いて、線形化係数組を評価する(S14〜S18)。一方、3点の法線方向が等しいときは(S62でNo)、線形化画像の作成を行わないで、ステップS19に進む。
このようにして所定回数(ite_th回)ランダムサンプリングを行った後(S19でYes)、cに初期値c以外の値が入っているか否かを調べる(ステップS63)。もし初期値cのままのときは(S63でYes)、入力画像kのこの小領域については解が求まらないと判断して処理を終了する(ステップS64)。そして、他の入力画像の処理を行う(S22,S23)。解が求まらないのは、この小領域内の法線方向がほとんど等しい場合、または、この小領域では影や鏡面反射が支配的である場合である。解が求まらないと判断された領域の処理については、後述する。
一方、cに初期値c以外の値が入っているときは(S63でNo)、入力画像kの線形化係数組cとしてcを選択し(ステップS21)、入力画像kの処理を終了する。そして、他の入力画像の処理を行う(S22,S23)。
なお、ステップS64において解が求まらないと判断された小領域については、画像補間部107によって、上述したような補間処理を行えばよい。
また、解が求まらないと判断された小領域については、再度、画像領域分割部105において小領域のサイズを大きくし、再度、処理を行うようにしてもよい。これは、処理領域が広いほど、3点の法線方向が等しくなる可能性が低くなるからである。ところが、処理領域をあまり広くし過ぎてしまうと、平行光源仮定が成り立たなくなってしまう。このため、処理領域の拡大は平行光源仮定が成り立つ範囲で行うようにすることが望ましい。例えば、光源と対象物の距離を基準にして、(式6)で示された
Ls=2・Dtan(θTh/2)
というサイズの処理領域の大きさをまず設定し、もしその小領域について解が求まらないとき、領域を拡大するようにすればよい。また、逆に、適当なサイズの処理領域を設定し、解が求まるときはそのサイズを縮小していき、解が求まる最小のサイズの領域を最適な処理領域として設定するようにしてもかまわない。この場合、光源と対象物の距離は未知であってもよい。
また、(1)線形化係数組の算出処理時に解が求まらないと判断されたとき、基底元画像I,I,Iを別の入力画像I,I,Iに変更するようにしてもよい。この際、基底元画像の選択のときと同様に、鏡面反射や影領域の少ない画像を新しい基底元画像として選択することが望ましい。
ただし、一部の小領域のみについて基底元画像を変更してしまうと、上述の(式13)の関係式が成り立たなくなる。そこで、領域(m,n)において、変更後の基底元画像Ix(m,n),Iy(m,n),Iz(m,n)を基にして生成した基底画像Ix(m,n) ,Iy(m,n) ,Iz(m,n) を、変更前の基底元画像I1(m,n),I2(m,n),I3(m,n)を基にして生成した基底画像I1(m,n) ,I2(m,n) ,I3(m,n) に変更することが望ましい。この処理について、説明する。
基底画像は、線形化画像であることに着目すると、次の関係式が成り立つ。
ここで、行列C1(m,n)は未知であるが、これを求めることができれば、基底画像Ix(m,n) ,Iy(m,n) ,Iz(m,n) から基底画像I1(m,n) ,I2(m,n) ,I3(m,n) を作成することができる。
一方、領域(m,n)の近傍領域(m’,n’)においては、変更前の基底元画像I1(m’,n’),I2(m’,n’),I3(m’,n’)を基にして生成した基底画像I1(m’,n’) ,I2(m’,n’) ,I3(m’,n’) が求まっているため、次の関係式が成り立っている、
ここで、行列C1(m,n)と異なり、行列C2(m,n)は既知である。また、上述したように、近傍の線形化係数組には相関があることに着目し、次のような仮定を導入する。
2(m,n)=C2(m’,n’) (式25)
ここで、
であることに着目すると、(式23)、(式25)、(式26)から、行列C1(m,n)は次のように求まる。
(式23)、(式27)から、基底画像I1(m,n) ,I2(m,n) ,I3(m,n) は、基底画像Ix(m,n) ,Iy(m,n) ,Iz(m,n) から次の関係式によって求まる。
ここで、近傍領域(m’,n’)は、上述のように、nearest neighborや2次補間、重み付け処理等によって最適なものを選べばよい。
なお、解が求まらない領域を検出するためには、法線方向を調べる手法だけでなく、例えば、作成された基底画像や線形化画像の領域内でのエッジを調べる方法によっても可能である。一般に、画像は近傍領域で滑らかに変化するという性質がある。そこで、このエッジ情報を利用して、解が求まらない領域を検出する。
図27は上述した方法によって生成した基底画像の一例である。図27において、領域81は解が求まり正確な基底画像が生成された領域、領域82は正確な解が求まらず、正確な基底画像が求まらなかった領域である。
ところで、画像上のエッジは、次の3つの要因によって生成されると考えられる。
1)テクスチャによるエッジ
2)複数個の物体間の境界や、奥行きが急激に変化する境界に生じるエッジ
3)影や鏡面反射とそれ以外の領域との境界によるエッジ
ここで、カメラと対象物は固定したまま光源環境を変更しつつ撮影したとき、画像上のエッジのうちその位置が変化するのは、3)のエッジのみである。一方、基底画像や線形化画像ではその性質上、3)のエッジは存在しない。以上のことから、入力画像には1)、2)、3)のエッジが存在するが、基底画像や線形化画像には1)と2)のエッジしか存在しないことが分かる。すなわち、もし、基底画像や線形化画像が正しく求まっている場合、次の関係式を満たす。
ただし、Edge(I)は画像Iからエッジを抽出した結果を示す。
図28において、(a)は図27の領域81を拡大した図、(b)は各入力画像における領域81に対応する領域を示す図である。図28から分かるように、領域81については(式33)を満たしている。一方、図29において、(a)は図27の領域82を拡大した図、(b)は各入力画像における領域82に対応する領域を示す図である。図29から分かるように、領域83のエッジは、いずれの入力画像(図29(b))にも含まれておらず、したがって領域82は(式33)を満たさない。これは、領域82では解が求まらなかったからである。
このように、(式33)を解が求まるか否かの判別式として利用することができる。すなわち、この(式33)を満たす領域については正確な基底画像が求まっているが、満たさない領域については、正確な基底画像が求まっていないと判断すればよい。
また上述したように、解が求まらない小領域について、そのサイズを拡大して再度、処理を行うようにしてもよいが、分割する小領域の変更は、その大きさだけに限られるものではなく、例えば、領域分割を行う位置を変更するようにしてもよい。
図30は4個の球が置かれた状態を撮影した画像である。このとき、実線のように領域分割を行うと、図31(a)に示すように、領域内に1平面しか存在しないため線形化画像を生成できない平面領域84が生じる。一方、図30を図31(b)のように領域分割すると、いずれの領域も複数の法線方向を持つため、全ての領域において線形化画像を生成することができる。したがって、解が求まらない小領域が存在するとき、領域を分割する位置を変更するようにしてもよい。
また、図15のように、小領域の設定を、領域同士に重なりがあるように行ってもかまわない。領域の大きさが一様でなく、また、領域間に重なりがある場合でも、上述したような補間処理によって線形化係数組を補間することができる。これは例えば、注目領域の重心位置と近傍領域との距離、およびその近傍領域の拡散反射画素率などの信頼性などを利用して、重み付け補間を行うことによって実現できる。
もちろん、解が求まらないと判断された小領域は、領域分割から処理をやり直すのではなく、補間処理を行うようにしてもかまわない。
また、小領域の分割方法を変更しながら複数の基底画像を作成し、作成した基底画像を組み合わせることによって、最適な基底画像を作成するようにしてもかまわない。この処理について詳述する。
図46(a)は平面上におかれた2個の球状物体461、462を撮影した画像を示している。このような状況において、光源位置を変えて、K枚の画像を撮影し、これらの画像を入力画像として線形化画像を作成する。
ここで、図46(b),(c)に示したように、画面領域分割の切り出し位置を変更し、処理を別々に行うことを考える。この図において、直線で区切られた領域が分割された小領域を示している。
まず、領域467について考える。図46(b)のように領域分割を行った場合、領域467は切り出し領域469に含まれる。この切り出し領域469は図46(b)から明らかなように、球状物体462が支配的であるため、基底画像が正しく求まっていると考えられる。一方、図46(c)のように領域分割を行った場合、領域467は切り出し領域470に含まれる。この切り出し領域470は図46(c)から明らかなように、平面が支配的であるため、前述のように基底画像が正しく求まらないと考えられる。
一方、領域468について考える。図46(b)のように領域分割を行った場合、領域467は切り出し領域471に含まれる。この切り出し領域471は図46(b)から明らかなように、平面が支配的であるため、基底画像が正しく求まらないと考えられる。一方、図46(c)のように領域分割を行った場合、領域467は切り出し領域472に含まれる。この切り出し領域472は図46(c)から明らかなように、球状物体461が支配的であるため、前述のように基底画像が正しく求まっていると考えられる。
このように、同じ入力画像を利用しても、領域分割の切り出し位置によって、基底画像が正しく求まる領域と求まらない境域が変化する。そこで、切り出し位置を変更しながら基底画像を作成する処理を複数回行い、さらに、こうして求まった複数の基底画像から、正しく基底画像が求まっている領域のみを組み合わせることによって、正確な基底画像を作成することができる。
このとき、正しく基底画像が求まっているかどうかを判断する評価関数が必要であるが、これは、例えば、定性的3値表現(例えば、「山口修、福井和広 “定性的3値表現に基づく画像マッチング”,電子情報通信学会技術研究報告PRMU2002−34,pp.23−30,2002」参照)を利用すればよい。定性的3値表現とは、近傍画素との輝度値の大小関係、同値関係を表現したものであり、光源変動に強い特徴量であることが知られている。ここで、図47のような8近傍における定性的3値表現は、以下のように表現される。
ただし、fi,jは(i,j)における輝度値を示している。
以下、処理の流れについて説明する。
まず、上述のように、領域分割の切り出し位置Sを変更しながら基底画像を作成する処理を複数回行い、複数の基底画像を作成する。ここで、切り出し位置Sで求めた基底画像を[IS1 S2 S3 ]とする。
こうして求まった複数の基底画像を図48のように再度、小領域に分割し、領域ごとに定性的3値表現を求める。この図において、直線で区切られた領域が分割された小領域を示している。さらに、K枚の入力画像I,I…Iの対応領域においても同様に定性的3値表現を求める。(x,y)における画像Iの定性値3値表現をQTR(I(x,y))と表現すると、領域mの基底画像[I (m) I (m) I (m)]は以下のように表現される。
ここで、定性的3値表現は8近傍を利用したが、本手法はもちろんこれに限定されるものではない。例えば、水平方向、垂直方向のみの定性的3値表現を用いてもかまわない。もちろん、評価関数として必ず定性的3値表現を使う必要はなく、例えば、前述のエッジ情報や空間輝度勾配、増分符号相関(例えば、「村瀬一朗、金子俊一、五十嵐悟 “増分符号相関によるロバスト画像照合”,電子情報通信学会論文誌,vol.J83−D−II,No.5,pp.1323−1331,2000」参照)などであってもかまわない。
図51〜53はこの処理により基底画像を生成した様子を示している。図51の入力画像に対し、切り出し位置Sを16通り変えながら作成した基底画像を図52に示す。この図において、実線は分割された領域を示している。図53は、こうして求めた16枚の基底画像から、定性値3値表現を利用して合成した、基底画像を示している。このように、領域分割の切り出し位置を変更し、それぞれの切り出し位置で求まった基底画像を組み合わせることで、正確な基底画像が作成できることがわかる。
(第2の実施形態)
図32は本発明の第2の実施形態に係る画像処理方法を実行する画像処理装置の構成を示す図である。図32において、図1と共通の構成要素には同一の符号を付しており、ここではその詳細な説明を省略する。
図32の構成を図1と対比すると、光源制御部101の代わりに、撮像環境において光源環境の変化を検出する光源環境変化検出部109が設けられている。本実施形態では、光源環境変化検出部109によって光源環境の変化が検出されたとき、画像入力部102が撮像を行い、これによって複数の画像を取得する。すなわち、本実施形態では、光源を自ら制御するのではなく、光源環境が変化したときに撮像を行うことによって、光源環境の異なる複数の画像を取得する。取得した画像は画像保持部104に保持され、第1の実施形態と同様の手法によって処理が行われる。
光源環境変化検出部109は例えば、照度計を有し、この照度計による計測値が変化したとき、光源環境が変化したと判断する構成であればよい。照度計は撮影領域の一部に1個だけ取り付けてもよいし、複数個取り付けてもかまわない。
あるいは、画面上の輝度値やRGB値などを測定し、この測定値が変化したとき、光源環境が変化したと判断する構成であってもよい。このとき、画面上の一部または複数部に測定対象領域を設定し、その領域の変化のみを調べるようにしてもかまわない。なお、このような測定対象領域は、変化が分かりやすいように、白色の領域に設定することが望ましい。また、撮影領域に、例えば完全拡散反射を起し、鏡面反射を生じない硫酸バリウムやスペクトラロンのような測定用対象物を設置し、その領域の輝度値はRGB値の変化を検出するようにしてもよい。
また、光源環境は経時的に変化すると考えられるので、光源環境変化検出部109は、所定時間経過ごとに光学環境が変化したと判断するような構成としてもかまわない。この構成は、例えば窓から太陽光が入り込んでいる環境において、特に有効である。
また、光源状態を実際に観察し、その変化を検出するようにしてもよい。上述したように、光源状態の観察は、鏡面球を用いて光源状態を撮像したり、広角カメラを天井方向に向けて光源を撮影したりすることによって実現できる。
また、撮像領域内において最も輝度が高い画素の位置を認識し、その位置が変化したとき、光源環境が変化したと判断するようにしてもよい。これは、最も輝度が高い画素は鏡面反射を起しているはずなので、この位置が動いたときは、光源位置が変化したものと考えられるからである。
あるいは、対象物に生じる影の位置が変化したとき、光源環境が変化したものとして検出するようにしてもよい。
以上のように本実施形態によると、光源を能動的に変化させなくても、第1の実施形態と同様に、線形化画像を生成することができる。
(第3の実施形態)
図33は本発明の第3の実施形態に係る画像処理方法を実行する画像処理装置の構成を示す図である。図33において、図1と共通の構成要素には同一の符号を付しており、ここではその詳細な説明を省略する。
図33の構成を図1と対比すると、光源制御部101が省かれている。本実施形態では、上述の方法によって基底画像が既に作成され、画像保持部104に保持されており、画像入力部102によって入力された画像の線形化画像を生成する。このため、基底画像の生成を行う必要がないので、高速に処理することができる。
画像入力部102によって入力された画像は、画像保持部104に保持される。一方、画像保持部104には、既に基底画像が保持されている。このとき、入力画像と保持されている基底画像とは、視点位置が同じであるものとする。これらの画像に対し、画像領域分割部105は上述の手法によって画像を小領域に分割する。そして、小領域合成画像生成部106は画像領域分割部105によって分割された各小領域において、第1の実施形態で説明した「(3)入力画像の線形化」の手法によって、入力画像を線形化する。さらに、解が求まらない領域については、画像補間部107により、補間処理を行い、線形化画像を生成する。この際、上述したように画像領域分割部105によって領域分割の方法を変更し、再度、処理を行うようにしてもかまわない。
このように本実施形態では、既に作成された基底画像を画像保持部104に保持することによって、入力画像に対する線形化画像を、より高速に生成することができる。
また本実施形態では、第1の実施形態のように光源環境を変化させたり、第2の実施形態のように光源環境の変化を検出したりしないため、画像保持部104に保持された複数の入力画像について、光源環境が異なっているか否かは不明である。ただし、もし、光源環境が等しい入力画像を検出することができれば、これを廃棄し、光源環境が異なる複数の入力画像のみを準備することができる。
ここで、行列の縮退を調べることによって、3点の法線方向が等しいか否かを判断できることをすでに説明したが、光源環境が等しい場合も、同様に行列が縮退する。すなわち、同様の手法によって、光源環境が等しい画像を検出することができる。そこで、光源環境が異なる画像のみを用いることが可能になり、したがって、光源環境を能動的に変化させたり、光源環境の変化を検出したりしなくても、線形化画像を生成することができる。
なお、上述した処理では、ランダムサンプリングにおいて3点を選択し、RANSACを利用して、線形化係数組や基底画素値、さらには線形化画像を求めるものとしたが、もちろん、他の方法を用いてもかまわない。例えば、4点以上の点をランダムサンプリングし、それらの点から最小自乗法によって、最適な解を求めてもかまわない。また、RANSACの手法の代わりに、例えば、「向川康博,宮木一,三橋貞彦,尺長健 “Photometric Image-Based Renderingによる仮想照明画像の生成“,情報処理学会論文誌,コンピュータビジョンとイメージメディア,vol.41, no. SIG10 (CVIM1), pp.19-30, 2000」に記載されたランダムサンプリングを利用した手法を用いてもかまわない。
なお、これまでの説明では、光源は単一光源としたが、複数光源であってもかまわない。このことについて説明する。
図34(a)は2個の光源22A,22Bが存在する環境において、対象物をカメラ23によって撮影している状況を示す模式図である。2個の光源22A,22Bは色ベクトルが等しい、すなわち同じ光源である。また、カメラ23の焦点距離やゲイン、ホワイトバランスは固定であるとする。
図34(a)の状況において撮像される画像IA+Bは、図34(b)のように光源22Aのみが存在するときの画像Iと、図34(c)のように光源22Bのみが存在するときの画像Iとの和によって表される。すなわち、
A+B=I+I (式29)
このとき、光源22A,22Bは同じ光源であるため、(式2)より、I,Iは次のように同じ基底ベクトルで表現される。
=c +c +c (式30)
=c +c +c (式31)
(式30)(式31)を(式29)に代入すると、次の関係式が導かれる。
A+B=I+I
=(c +c +c )+(c +c +c
=(c +c )I+(c +c )I+(c +c )I
= cA+B +cA+B +cA+B (式32)
(式32)より、光源が複数であっても色ベクトルが同じであれば、同様に処理可能であることがわかる。
また、これまでの説明では、光源制御部101が制御できる光源のみが存在する場合を説明してきたが、太陽光や屋内照明のような外光が存在しても構わない。このことについて説明する。
外光が存在する場合、実際に撮像される画像Iは、次の式で表される。
I=I+I
ここで、Iは光源制御部101により制御される光源13のみが照射されたときに撮像される画像、Iはそれ以外の外光のみによって照らされたときに撮像される画像を示している。
通常、このような外光は、光源制御部101が光源を変化させるような短い時間においてはほとんど変化しないと考えられる。そこで、光源制御部101が制御する光源13を消灯させた状態で画像Iの撮像を行う。さらに、次の式に従い、すべての入力画像Iからこの画像Iの差分をとった差分画像を、新しい入力画像I’とする。
I’=I=I−I
このような画像I’を入力画像として利用することによって、外光が存在している環境においても、上述の方法によって処理可能である。
また、光源の色ベクトルが異なる場合についても、画素の輝度値を基準に考えると、光源による輝度値の変化は線形に変化する。このため、色ベクトルが同じ場合と同様に、上述の方法によって処理可能である。
また、上述の各実施形態では、Shashuaの画像線形化を基にしたため、3枚の基底画像を用いる場合について説明したが、もちろん、本発明はこれに限られるものではない。例えば、点光源が遠方に存在する場合、球面調和関数を利用することによって、画像を9枚の基底画像の線形和によって表されることが知られている(例えば、「Ronen Basri, David Jacobs, “Photometric stereo with general, unknown lighting”, IEEE Conference on Computer Vision and Pattern Recognition pp.II-374-381, 2001」)。ところが、実際には、光源環境が一様でない場合や点光源仮定にならない環境光などが存在する。この場合、画像領域を小領域に分割すると光源環境を一様にすることができるため、やはり本発明は有効である。
また、基底画像の枚数は、光源状態によって切り替えるようにしてもかまわない。例えば、光源は単一で位置も固定、ただし放射輝度のみが異なる場合、基底画像は1枚でよく、放射輝度の変化はゲインのみの変化によって表現される。また、光源が2個あるが、位置は固定、放射輝度のみが変化する場合、基底画像は2枚でよい。これは上述のように、2個の光源に照らされた状態で撮像される画像は、各光源のみにおいて撮像された画像の線形和に等しいことから明らかである。
このような状況は、例えば家庭内の照明器具を光源として利用する場合などに有効である。家庭内に設置された照明器具は通常、複数個あるが、その位置は固定されている。また、インバータ照明であれば放射輝度は変化する。また放射輝度は、照明のちらつきなどにより変化する。
以上説明したような画像処理方法を実現する装置を、図2のような家庭内作業ロボットに設けることによって、家庭内のような一般環境においても、作業を正確に行うことができる。光源環境を固定できる工場などと違い、家庭内では光源環境が大きく変化するため、鏡面反射や影による画像処理精度の劣化が著しい。これは、例えばロボットが対象物を把持する際にその位置姿勢をステレオカメラ等によって計測するときに、計測ミスを招く大きな要因となる。ロボットの例えば腕などのような可動部に光源を設置し、その光源を動かしながら画像を撮像することによって、本発明に係る画像処理を行うことができる。このとき、鏡面反射などの影響が除去された線形化画像が生成されるので、この線形化画像において対象物の位置計測を行うことによって、正確な位置姿勢計測ができる。
なお、上述の説明では、対象物は固定であり、光源環境が変化することを前提にしていたが、もちろん、本発明はこれに限られるものではない。例えば、光源が固定であるが、対象物の位置姿勢が変化する場合であってもかまわない。この場合、対象物の位置姿勢が変化した画像において特徴点抽出を行い、さらに各画像間でその対応点を求めることによって、画像間の対応関係を求めるようにすればよい。特徴点の抽出や対応点検索は例えば、「J. Shi and C. Tomasi, "Good Features to Track," IEEE Conference on Computer Vision and Pattern Recognition ,1994, pp. 593-600, 1994」のような手法を用いればよい。
なお、特許文献4には、任意の照明を照らして撮影された物体の画像を合成する手法が開示されているが、この手法は第3の従来例と同様に平行光を前提としているため、一般環境にそのまま適用することは極めて困難である。ところが、上述した本発明の手法を適用することによって、一般環境である点光源においても実施できる。もちろん、光源と対象物の両方を移動させてもかまわない。
また、上記の処理を利用して、突起物や窪みのように、光源からの距離が、周囲と比べて極端に異なる領域を推定することも可能である。すなわち、画像処理によって、対象物の突起物や窪みの位置を推定することができる。この処理について説明する。
図49のように、対象物21に、光源からの距離が周囲に比べ、極端に異なる突起物26が存在する場合を考える。ここで、対象物が拡散物体であると仮定し、カメラは図49の光源22の近傍に設置されているとする。このとき撮像される画像と、その画像を利用して画像の線形化を行ない、光学特性に基づき分類した結果を示した模式図を図50(a)、(b)に示す。図50(b)において、黒色領域27が拡散反射領域と分類された領域を、また、白色領域28が未定義領域または鏡面反射領域と分類された領域を示している。本来、影領域が存在するが、ここでは説明を簡単にするために省略している。この図から、光源からの距離がほぼ等しい対象物は正確に拡散反射領域と分類されているが、拡散物体である突起物26はその分類に失敗していることがわかる。
これは以下の理由による。画像の線形化は前述のようにRANSACを利用して行なっているため、撮像範囲内で拡散反射領域と分類された画素数Num_dが最大となる線形化画像が作成される。また、前述のように、画像の線形化が正確に動作するためには、光源からの距離がほぼ等しい領域のみで処理を行なう必要がある。ここで、図6のフローチャートで示した線形化係数組の算出処理におけるステップS13の3点の選択処理を考える。ここで、突起物から3点が選択された場合、その3点における光源との距離Dとほぼ等しい光源との距離をもつ領域のみが拡散反射領域と分類される。そのため、拡散反射領域と分類される画素数Num_dは非常に小さくなる。一方、突起物ではない対象物から3点が選択された場合、拡散反射領域と分類される領域は、その3点における、光源との距離Dとほぼ等しい光源との距離をもつ領域となるが、この領域は対象物において支配的である。そのため、拡散反射領域と分類される画素数Num_dは非常に大きくなる。そのため、図50(b)のように、光源からの距離がほぼ等しい対象物は正確に拡散反射領域と分類されるが、拡散物体であるはずの突起物26はその分類に失敗してしまう。
以上のことから、突起物や窪みのように、光源からの距離が、周囲と比べ極端に異なる被写体領域を推定することが可能である。つまり、対象物が鏡面反射を起こさないことが既知の場合、鏡面反射領域または未定義領域に分類される領域は、周囲と比べ極端に異なる領域であると判断する。
鏡面反射や影の影響の除去は、前述のように対象物の位置・姿勢検出といった3次元計測に利用されることがある。上記の手法により、突起物や窪みの位置を推定することは、3次元計測を直接行なっているため、非常に有効である。
もちろん、このように画像の線形化処理が正確に求まらない領域を作らないために、画像領域分割部105による小領域分割を、光源からの距離がほぼ等しい領域ごとに行うようにしてもかまわない。
また、本発明に係る画像処理は、バイオメトリック認証などで特に有効である。顔認証や虹彩認証において、鏡面反射による映り込みは画像のノイズとなり、認証精度の劣化を招いてしまう。これに対して本発明では、拡散反射のみの画像である線形化画像を生成できるため、鏡面反射による認証精度の劣化を防ぐことができる。
例えば、顔認証を行う場合、光源環境を変更した画像を複数枚撮影し、それらの画像から固定照明環境の線形化画像を作成し、その線形化画像を利用して認証処理を行えばよい。これは、車内での人物認証などに特に有効である。本発明では、対象の位置は固定であることが望ましいが、車内では人物はシート上にしか存在しないため、認証対象は固定されていると仮定することが可能である。
また、携帯端末を用いた認証に本発明を適用してもよい。図35はある人物91が携帯端末92を利用して顔認証を行っている図である。携帯端末92はカメラと複数のLED光源を有しており(図示は省略)、第1の実施形態に係る画像処理を実行可能に構成されている。そして、生成した線形化画像を利用して、従来の方法によって顔認証を行う。
画像入力部102としてのカメラが撮影を行う際、携帯端末92内の光源制御部101は複数のLED光源を順に点灯させる。これにより、光源環境が異なる複数の画像を撮像することができる。この際、手ブレなどによりカメラ位置がずれてしまう可能性が高いため、ジャイロなど、手ブレ補正処理を導入することが望ましい。
ここで、光源となりうるものとして、携帯端末92に設けられた複数のLED光源の他に、環境光源93が存在している。図36(a)は図35の状況で撮影した画像の一例である。図36(a)から分かるように、認証を行う人物領域94とその背景領域95とでは光源環境が全く異なる。これは、背景が空などの場合に特に顕著である。人物領域94では、携帯端末92に十分近いため、その光源の影響を強く受ける。一方、背景領域95では、携帯端末92からは相当遠いため、その光源の影響はほとんど受けず、したがって環境光源93が支配的になる。このため、光源環境が全く異なる領域が一枚の画像上に共存することになり、第3の従来例では、線形化係数を推定することが難しく、信頼性の低い線形化画像を作成してしまい、この結果、認証精度を劣化させる。
一方、本発明では、図36(b)に示すように、画像を小領域96に分割して処理を行うため、人物領域94における各小領域では、背景領域95との境界を含む小領域を除き、光源環境は等しくなる。このため、信頼性の高い線形化画像を生成することができ、この結果、認証精度を向上させることができる。
また、本発明に係る画像処理は、画像を提示する際に適用してもよい。これは、例えばカットされた宝石や金属のように、鏡面反射が非常に強い対象物において特に有効である。このような対象物は鏡面反射が強すぎるため、その形状を黙視で確かめることが難しい。ところが、本発明を適用することによって、鏡面反射が生じていない画像を生成できるので、形状を確認するのに適した画像を提示することができる。
また、基底画像を線形結合することによって任意光源の画像を生成することができるので、光源環境が異なった画像を容易に生成することができる。これにより、ある対象物について、様々な光源環境における見え方を前もって確かめることが可能になる。これは例えば、家庭内のインテリアを検討するときに有効である。例えば、椅子を購入する際、その椅子を家のリビングに置いたときどのように見えるのかは、光源環境に大きく依存する。朝と夕方とで印象が全く異なることも多々ある。このため、その椅子の画像を、光源環境を変えて提示することによって、購入者は、様々な光源環境における実際の見え方を前もって確かめることができる。
なお、本発明に係る画像処理方法は、そのステップの全部または一部を、専用のハードウェアを用いて実現してもかまわないし、または、コンピュータのプログラムによってソフトウェア的に実現してもかまわない。例えば、本発明の各実施形態に係る画像処理方法は、当該方法を実現するためのプログラムを、コンピュータに実行させることによって、実現することができる
本発明に係る画像処理は、光源環境が複雑な状況下でも、非常に簡易な構成によって、鏡面反射が生じない理想状態での画像である線形化画像を生成することができ、鏡面反射や影の影響を除去できるので、例えば、家庭内用ロボットや自動車などの画像処理装置、または、認証装置や画像提示装置等に有用である。
本発明の第1の実施形態に係る画像処理装置の構成図である。 家庭内作業ロボットの模式図である。 平行光源と点光源との相違を説明するための図である。 ある撮影状況と、そのときの画像とを示す図である。 図4の場合における小領域分割を示す図である。 本発明の第1の実施形態における線形化係数組の算出処理を示すフローチャートである。 本発明の第1の実施形態における基底画像の生成処理を示すフローチャートである。 図5(a)に第3の従来例を適用した結果を示す図である。 近傍領域の例を示す図である。 近傍領域の線形化係数組のうち最適なものを選択する方法を示すフローチャートである。 近傍領域の他の例を示す図である。 近傍領域との境界領域を示す図である。 図40に対する線形化画像である。 (a)は図45(a)から生成した線形化画像、(b)は図45(a)から分離した鏡面反射成分である。 領域分割の他の例であり、小領域同士が重なりを持つ例である。 領域分割の他の例であり、小領域の形状が矩形でない例である。 重みを位置の関数として設定して線形化係数組を算出する方法を説明するための図である。 線形化係数組の分離精度を模式的に示す図である。 本発明の第1の実施形態によって生成された線形化画像の一例である。 行列が縮退しているときのその要素ベクトルの関係を示す図である。 行列の三角化とその対角成分の幾何学的な意味を示す図である。 3点の法線方向が等しいか否かの判断方法における閾値決定を説明するための図である。 図22における、各条件式の評価値を示すグラフである。 図22における、各条件式の評価値を示すグラフである。 図22における、各条件式の評価値を示すグラフである。 本発明の第1の実施形態の他の例における、法線方向検出を利用した線形化係数組の算出処理を示すフローチャートである。 基底画像が求まらない領域を画像のエッジを利用して検出する方法を説明するための図である。 基底画像が求まらない領域を画像のエッジを利用して検出する方法を説明するための図である。 基底画像が求まらない領域を画像のエッジを利用して検出する方法を説明するための図である。 領域分割の変更を説明するための図である。 領域分割の変更を説明するための図である。 本発明の第2の実施形態に係る画像処理装置の構成図である。 本発明の第3の実施形態に係る画像処理装置の構成図である。 光源が複数存在する場合の処理を説明するための図である。 携帯端末を利用した顔認証を示す図である。 図35の状況で撮影した画像と領域分割を示す図である。 携帯電話201を家庭内で撮影したときの画像を模式的に示す図である。 図37の携帯電話を検出するためのパターン画像である。 対象物をステレオカメラによって撮影する状況を示す図である。 図39において撮影された画像である。 光源とカメラ、対象物の法線方向の関係を示す概念図である。 光学現象である拡散反射、鏡面反射および影を示す概念図である。 光学特性に基づく領域分割の基準を示すグラフである。 平行光源において、第3の従来例を用いて画像処理を行った結果を示す図である。 点光源において、第3の従来例を用いて画像処理を行った結果を示す図である。 領域分割の切り出し位置によって、基底画像が変化することを説明するための概念図である。 8近傍を利用した定性的3値表現を表現するための概念図である。 領域分割の切り出し位置を変更させながら基底画像を作成する処理を説明するための概念図である。 突起物を有する対象物の撮影状況を示す図である。 図49における画像と、その光学特性に基づく領域分割の結果を示す図である。 領域分割の切り出し位置を変更しながら基底画像を作成した際の入力画像を示す図である。 領域分割の切り出し位置を16通り変更しながら作成した16枚の基底画像を示す図である。 図52の基底画像を組み合わせて作成した正確な基底画像を示す図である。
符号の説明
101 光源制御部
102 画像入力部
103 線形化画像生成部
104 画像保持部
105 画像領域分割部
106 小領域合成画像生成部
107 画像補間部
108 画像処理部
109 光源環境変化検出部

Claims (21)

  1. 同一の対象物を撮影した複数の入力画像を取得する第1ステップと、
    取得した各入力画像を、共通に、複数の小領域に分割する第2ステップと、
    分割した各小領域について、各入力画像から基底画像を生成する第3ステップと、
    基底画像が生成不能であった小領域について、その近傍小領域における基底画像生成に係る演算値を用いた補間処理によって、基底画像を生成する第4ステップとを備え、
    生成した各基底画像を用いて、与えられた光源環境における前記対象物の線形化画像を、生成する
    ことを特徴とする画像処理方法。
  2. 請求項1において、
    生成された線形化画像を用いて、画像処理を行うステップを備えた
    ことを特徴とする画像処理方法。
  3. 請求項2において、
    前記画像処理は、対象物の光学特性に基づいた領域分離、対象物識別、対象物3次元位置・形状推定のうちの少なくとも1つの処理を、含む
    ことを特徴とする画像処理方法。
  4. 請求項1において、
    前記対象物を、光源環境を変化させつつ、撮影し、前記複数の画像を取得する
    ことを特徴とする画像処理方法。
  5. 請求項4において、
    前記複数の画像において、前記対象物に生じる影の位置が異なるように、光源を制御する
    ことを特徴とする画像処理方法。
  6. 請求項1において、
    前記対象物を、光源環境の変化を検出したとき、撮影し、前記複数の画像を取得する
    ことを特徴とする画像処理方法。
  7. 請求項6において、
    前記対象物に生じる影の位置が変化したとき、光源環境が変化したものと検出する
    ことを特徴とする画像処理方法。
  8. 請求項1において、
    前記第3ステップは、
    K枚の入力画像から、N(Nは正の整数:N<K)枚の基底元画像を選択するステップと、
    残り(K−N)枚の入力画像について、前記N枚の基底元画像を用いて、線形化係数組をそれぞれ決定するステップと、
    決定した線形化係数組を用いて前記N枚の基底元画像を線形化し、N枚の基底画像を生成するステップとを備えた
    ことを特徴とする画像処理方法。
  9. 請求項8において、
    Nは3である
    ことを特徴とする画像処理方法。
  10. 請求項8において、
    前記線形化係数組決定ステップにおいて、
    当該入力画像から所定数の点をランダムに選択し、この所定数の点から、線形化係数組候補を求めるともに、その確からしさを示す評価指標の値を求める候補算出処理を、繰り返し実行し、
    前記評価指標の値が最も確からしい線形化係数組候補を、当該入力画像の線形化係数組として決定する
    ことを特徴とする画像処理方法。
  11. 請求項10において、
    前記候補算出処理は、前記所定数の点の法線方向が互いに異なっているか否かを判断するステップを含み、
    繰り返し毎に選択した前記所定数の点が、いずれも、その法線方向が互いに等しいと判断したとき、当該小領域は、基底画像が生成不能と判断する
    ことを特徴とする画像処理方法。
  12. 請求項8において、
    前記第4ステップは、
    当該小領域の線形化係数組を、その近傍小領域について求められた線形化係数組を用いて、補間するものである
    ことを特徴とする画像処理方法。
  13. 請求項12において、
    補間の際に、各近傍小領域の線形化係数組に係る前記評価指標の値を、加味する
    ことを特徴とする画像処理方法。
  14. 請求項8において、
    前記第3ステップは、
    前記N枚の基底画像を用いて、前記入力画像の少なくともいずれか1つと光源環境が共通する線形化画像を生成するステップを含む
    ことを特徴とする画像処理方法。
  15. 請求項1において、
    前記第2ステップは、
    平行光源とみなせる光の広がりの上限値、光源と対象物との距離、カメラと対象物との距離、およびカメラパラメータのうちの少なくともいずれか1つに基づいて、小領域のサイズを決定する
    ことを特徴とする画像処理方法。
  16. 請求項1において、
    基底画像が生成不能の小領域について、前記第4ステップにおける補間処理に代えて、そのサイズを変更し、再度、前記第3ステップを実行する
    ことを特徴とする画像処理方法。
  17. 請求項1において、
    基底画像が生成不能の小領域について、前記第4ステップにおける補間処理に代えて、前記小領域の切り出し位置を変更し、再度、前記第3ステップを実行する
    ことを特徴とする画像処理方法。
  18. 請求項1において、
    前記複数の入力画像は、光源が複数存在する環境において、撮影されたものである
    ことを特徴とする画像処理方法。
  19. 請求項2において、
    前記画像処理は、前記対象物が有する突起物または窪みの位置を推定する処理である
    ことを特徴とする画像処理方法。
  20. 同一の対象物を撮影した複数の入力画像を取得する画像入力部と、
    前記画像入力部によって取得された各入力画像を、共通に、複数の小領域に分割する画像領域分割部と、
    前記画像領域分割部によって分割された各小領域について、各入力画像から基底画像を生成する小領域合成画像生成部と、
    前記小領域合成画像生成部において基底画像が生成不能であった小領域について、その近傍小領域における基底画像生成に係る演算値を用いた補間処理によって、基底画像を生成する画像補間部とを備え、
    生成した各基底画像を用いて、与えられた光源環境における前記対象物の線形化画像を、生成する
    ことを特徴とする画像処理装置。
  21. コンピュータに、画像処理を実行させるプログラムであって、
    同一の対象物を撮影した複数の入力画像を、共通に、複数の小領域に分割するステップと、
    分割した各小領域について、各入力画像から基底画像を生成するステップと、
    基底画像が生成不能であった小領域について、その近傍小領域における基底画像生成に係る演算値を用いた補間処理によって、基底画像を生成するステップと、
    生成した各基底画像を用いて、与えられた光源環境における前記対象物の線形化画像を、生成するステップと
    をコンピュータに実行させる画像処理プログラム。
JP2006528350A 2004-07-26 2005-03-02 画像処理方法、画像処理装置および画像処理プログラム Active JP3935499B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004217864 2004-07-26
JP2004217864 2004-07-26
PCT/JP2005/003453 WO2006011261A1 (ja) 2004-07-26 2005-03-02 画像処理方法、画像処理装置および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP3935499B2 true JP3935499B2 (ja) 2007-06-20
JPWO2006011261A1 JPWO2006011261A1 (ja) 2008-05-01

Family

ID=35657190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006528350A Active JP3935499B2 (ja) 2004-07-26 2005-03-02 画像処理方法、画像処理装置および画像処理プログラム

Country Status (3)

Country Link
US (2) US7203362B2 (ja)
JP (1) JP3935499B2 (ja)
WO (1) WO2006011261A1 (ja)

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006011255A1 (ja) * 2004-07-28 2006-02-02 Matsushita Electric Industrial Co., Ltd. パノラマ画像合成方法および物体検出方法、パノラマ画像合成装置、撮像装置、物体検出装置、並びにパノラマ画像合成プログラム
WO2006077710A1 (ja) * 2005-01-19 2006-07-27 Matsushita Electric Industrial Co., Ltd. 画像変換方法、テクスチャマッピング方法、画像変換装置、サーバークライアントシステム、および画像変換プログラム
US9092458B1 (en) 2005-03-08 2015-07-28 Irobot Corporation System and method for managing search results including graphics
KR100624387B1 (ko) * 2005-04-25 2006-09-20 엘지전자 주식회사 주행영역 지정이 가능한 로봇 시스템
US9002511B1 (en) 2005-10-21 2015-04-07 Irobot Corporation Methods and systems for obstacle detection using structured light
JP4566120B2 (ja) * 2005-11-21 2010-10-20 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及び画像生成システム
JP4201207B2 (ja) * 2005-11-21 2008-12-24 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及び画像生成システム
US8976173B2 (en) * 2006-01-27 2015-03-10 Tandent Vision Science, Inc. Bi-illuminant dichromatic reflection model for image manipulation
US7995058B2 (en) * 2006-01-27 2011-08-09 Tandent Vision Science, Inc. Method and system for identifying illumination fields in an image
US8976174B2 (en) * 2006-01-27 2015-03-10 Tandent Vision Science, Inc. Bi-illuminant dichromatic reflection model for image manipulation
KR100801087B1 (ko) * 2006-07-05 2008-02-11 삼성전자주식회사 스트럭처드 라이트를 이용한 이동체 감지 시스템 및 방법,상기 시스템을 포함하는 이동 로봇
US7894662B2 (en) * 2006-10-11 2011-02-22 Tandent Vision Science, Inc. Method for using image depth information in identifying illumination fields
JP5228157B2 (ja) * 2007-06-04 2013-07-03 国立大学法人豊橋技術科学大学 表面欠陥自動検査装置および検査方法
US8319821B2 (en) * 2007-06-05 2012-11-27 Tandent Vision Science, Inc. Polarization-based shadow detection
US7760912B2 (en) * 2007-08-01 2010-07-20 Tandent Vision Science, Inc. Image segregation system with method for handling textures
CN101542233B (zh) * 2007-08-07 2011-12-28 松下电器产业株式会社 图像处理装置以及图像处理方法
RU2009107141A (ru) * 2007-08-07 2010-09-10 Панасоник Корпорэйшн (Jp) Устройство формирования информации нормальных векторов и способ формирования информации нормальных векторов
US7995854B2 (en) * 2008-03-28 2011-08-09 Tandent Vision Science, Inc. System and method for identifying complex tokens in an image
US8260050B2 (en) * 2008-12-05 2012-09-04 Tandent Vision Science, Inc. Test bed for optimizing an image segregation
US8139850B2 (en) * 2008-12-05 2012-03-20 Tandent Vision Science, Inc. Constraint generation for use in image segregation
US8139867B2 (en) 2008-12-05 2012-03-20 Tandent Vision Science, Inc. Image segregation system architecture
US20100142846A1 (en) * 2008-12-05 2010-06-10 Tandent Vision Science, Inc. Solver for image segregation
JP2010152550A (ja) * 2008-12-24 2010-07-08 Canon Inc 作業装置及びその校正方法
WO2010079557A1 (ja) * 2009-01-06 2010-07-15 パナソニック株式会社 撮像装置向き検出装置および当該装置を備える移動体
JP5517685B2 (ja) * 2009-04-14 2014-06-11 キヤノン株式会社 画像処理装置および方法
US8391634B1 (en) * 2009-04-28 2013-03-05 Google Inc. Illumination estimation for images
US8194975B2 (en) * 2009-06-29 2012-06-05 Tandent Vision Science, Inc. Use of an intrinsic image in face recognition
AU2015202072B2 (en) * 2009-09-03 2017-05-25 Commonwealth Scientific And Industrial Research Organisation Illumination spectrum recovery
WO2011026167A1 (en) * 2009-09-03 2011-03-10 National Ict Australia Limited Illumination spectrum recovery
JP2013504239A (ja) * 2009-09-04 2013-02-04 ブライトブリック ゲーエムベーハー 携帯型広角映像記録システム
JP2011175477A (ja) * 2010-02-24 2011-09-08 Canon Inc 3次元計測装置、処理方法及びプログラム
US8639038B2 (en) * 2010-06-18 2014-01-28 National Ict Australia Limited Descriptor of a hyperspectral or multispectral image
DE102010034987A1 (de) * 2010-08-20 2012-03-01 Steinbichler Optotechnik Gmbh Verfahren zur 3D-Digitalisierung eines Objekts mit veränderlicher Oberfläche
US20120062719A1 (en) * 2010-09-09 2012-03-15 University Of Southern California Head-Mounted Photometric Facial Performance Capture
US8798393B2 (en) 2010-12-01 2014-08-05 Google Inc. Removing illumination variation from images
JP5744510B2 (ja) * 2010-12-28 2015-07-08 キヤノン株式会社 画像処理方法
JP5780053B2 (ja) * 2011-08-22 2015-09-16 富士通株式会社 生体認証装置、生体認証方法、及びプログラム
US9656392B2 (en) * 2011-09-20 2017-05-23 Disney Enterprises, Inc. System for controlling robotic characters to enhance photographic results
GB201117804D0 (en) 2011-10-14 2011-11-30 Siemens Medical Solutions Automatic local contrast quantification tool
EP2669845A3 (en) * 2012-06-01 2014-11-19 Ricoh Company, Ltd. Target recognition system, target recognition method executed by the target recognition system, target recognition program executed on the target recognition system, and recording medium storing the target recognition program
US8610976B1 (en) * 2012-06-27 2013-12-17 3M Innovative Properties Company Image enhancement methods
US20140002722A1 (en) * 2012-06-27 2014-01-02 3M Innovative Properties Company Image enhancement methods
US9912847B1 (en) * 2012-09-25 2018-03-06 Amazon Technologies, Inc. Image capture guidance to reduce specular reflection effects
US8670621B1 (en) * 2012-11-06 2014-03-11 Alex Simon Blaivas Using invariants of spherical harmonics to rotational and translational transformations for image recognition in industrial and security applications
US9857470B2 (en) * 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9044863B2 (en) * 2013-02-06 2015-06-02 Steelcase Inc. Polarized enhanced confidentiality in mobile camera applications
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
JP2014174132A (ja) * 2013-03-13 2014-09-22 Ricoh Co Ltd 光学センサ及び画像形成装置
JP5841587B2 (ja) * 2013-12-25 2016-01-13 株式会社Pfu 撮像システム
JP6371847B2 (ja) * 2014-06-30 2018-08-08 富士フイルム株式会社 光音響画像生成装置、信号処理装置、及び光音響画像生成方法
US9727945B1 (en) 2016-08-30 2017-08-08 Alex Simon Blaivas Construction and evolution of invariants to rotational and translational transformations for electronic visual image recognition
US9858638B1 (en) 2016-08-30 2018-01-02 Alex Simon Blaivas Construction and evolution of invariants to rotational and translational transformations for electronic visual image recognition
US10559095B2 (en) * 2016-08-31 2020-02-11 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and medium
WO2018097677A1 (en) * 2016-11-28 2018-05-31 Samsung Electronics Co., Ltd. Image processing apparatus, image processing method, and computer-readable recording medium thereof
CN107943067B (zh) * 2017-10-17 2020-05-15 哈尔滨工业大学(威海) 一种基于集群控制的无人机编队方法、装置及***
US10401563B2 (en) * 2017-12-14 2019-09-03 Ofs Fitel, Llc Optical fibers for simultaneous measurement of temperature and strain
US20220005172A1 (en) 2018-11-21 2022-01-06 Sony Group Corporation Work determination system, work determination apparatus, and work determination method
KR20210030147A (ko) * 2019-09-09 2021-03-17 삼성전자주식회사 3d 렌더링 방법 및 장치
CN111696067B (zh) * 2020-06-16 2023-04-07 桂林电子科技大学 一种基于图像融合***的宝石图像融合方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0538688A (ja) 1991-07-30 1993-02-19 Nok Corp 産業用ロボツトシステムの座標系較正方法
US6205259B1 (en) * 1992-04-09 2001-03-20 Olympus Optical Co., Ltd. Image processing apparatus
US6445807B1 (en) * 1996-03-22 2002-09-03 Canon Kabushiki Kaisha Image processing method and apparatus
JP3580670B2 (ja) * 1997-06-10 2004-10-27 富士通株式会社 入力画像を基準画像に対応付ける方法、そのための装置、及びその方法を実現するプログラムを記憶した記憶媒体
US6088470A (en) 1998-01-27 2000-07-11 Sensar, Inc. Method and apparatus for removal of bright or dark spots by the fusion of multiple images
JP2961264B1 (ja) 1998-09-21 1999-10-12 工業技術院長 3次元物体モデル生成方法及び3次元物体モデル生成プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2000115539A (ja) * 1998-09-30 2000-04-21 Fuji Photo Film Co Ltd 画像処理方法、画像処理装置及び記録媒体
JP2001014454A (ja) * 1999-06-29 2001-01-19 Sharp Corp 画像処理装置
JP2001118074A (ja) * 1999-10-20 2001-04-27 Matsushita Electric Ind Co Ltd 3次元画像作成方法、3次元画像作成装置及びプログラム記録媒体
JP4207336B2 (ja) * 1999-10-29 2009-01-14 ソニー株式会社 移動ロボットのための充電システム、充電ステーションを探索する方法、移動ロボット、コネクタ、及び、電気的接続構造
JP3459981B2 (ja) 2000-07-12 2003-10-27 独立行政法人産業技術総合研究所 拡散および鏡面反射成分の分離方法
JP3529709B2 (ja) 2000-07-26 2004-05-24 晃 赤岡 手摺りの取付構造
JP4756148B2 (ja) 2001-09-06 2011-08-24 独立行政法人情報通信研究機構 光沢・色再現システム、光沢・色再現プログラム
JP3940690B2 (ja) 2002-03-25 2007-07-04 株式会社東芝 画像処理装置及びその方法
JP2004021388A (ja) * 2002-06-13 2004-01-22 Nippon Hoso Kyokai <Nhk> 画像処理装置及びそれを備えた撮影システム
JP2004054947A (ja) 2002-07-16 2004-02-19 Nec Corp 物体照合システム、物体照合方法および物体照合プログラム
US7804982B2 (en) * 2002-11-26 2010-09-28 L-1 Secure Credentialing, Inc. Systems and methods for managing and detecting fraud in image databases used with identification documents

Also Published As

Publication number Publication date
US7236630B2 (en) 2007-06-26
US20060018539A1 (en) 2006-01-26
US20070092132A1 (en) 2007-04-26
JPWO2006011261A1 (ja) 2008-05-01
US7203362B2 (en) 2007-04-10
WO2006011261A1 (ja) 2006-02-02

Similar Documents

Publication Publication Date Title
JP3935499B2 (ja) 画像処理方法、画像処理装置および画像処理プログラム
CN108898567B (zh) 图像降噪方法、装置及***
US20200374461A1 (en) Still image stabilization/optical image stabilization synchronization in multi-camera image capture
US9420276B2 (en) Calibration of light-field camera geometry via robust fitting
JP5342036B2 (ja) 3d表面形状をキャプチャーするための方法
KR101643607B1 (ko) 영상 데이터 생성 방법 및 장치
JP4113570B2 (ja) 画像処理方法、画像処理システムおよび画像処理プログラム
JP2019530261A (ja) 改良されたカメラ較正システム、標的、およびプロセス
JP6352208B2 (ja) 三次元モデル処理装置およびカメラ校正システム
Zheng et al. Real-time high-dynamic-range fringe acquisition for 3D shape measurement with a RGB camera
US10091490B2 (en) Scan recommendations
US9031355B2 (en) Method of system for image stabilization through image processing, and zoom camera including image stabilization function
CN110458940A (zh) 动作捕捉的处理方法和处理装置
CN108846837A (zh) 物体表面缺陷检测方法和装置
JP2020088647A (ja) 情報処理装置、情報処理方法及びプログラム
CN105574844B (zh) 辐射响应函数估计方法和装置
Ifthekhar et al. Radiometric and geometric camera model for optical camera communications
JP6866419B2 (ja) ビデオシーケンスにおいて動きを検出するための方法
US11721063B1 (en) Systems and methods for dynamic image rendering using a depth map
JP2019021189A (ja) 物体検出装置
WO2019176614A1 (ja) 画像処理装置、画像処理方法、およびコンピュータプログラム
Luxman et al. Next Best Light Position: A self configuring approach for the Reflectance Transformation Imaging acquisition process
KR101444207B1 (ko) 요철형 패턴 영상 획득 장치 및 방법
Alasal et al. Improving passive 3D model reconstruction using image enhancement
JP2003091726A (ja) 反射パラメータ取得装置、反射成分分離装置、反射パラメータ取得用プログラム、及び反射成分分離用プログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070319

R150 Certificate of patent or registration of utility model

Ref document number: 3935499

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110330

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110330

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120330

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140330

Year of fee payment: 7