JP2006119817A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2006119817A
JP2006119817A JP2004305638A JP2004305638A JP2006119817A JP 2006119817 A JP2006119817 A JP 2006119817A JP 2004305638 A JP2004305638 A JP 2004305638A JP 2004305638 A JP2004305638 A JP 2004305638A JP 2006119817 A JP2006119817 A JP 2006119817A
Authority
JP
Japan
Prior art keywords
shadow
area
background
image
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004305638A
Other languages
English (en)
Inventor
Toshihiko Kako
俊彦 加來
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2004305638A priority Critical patent/JP2006119817A/ja
Priority to US11/253,718 priority patent/US20060082849A1/en
Publication of JP2006119817A publication Critical patent/JP2006119817A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/273Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/62Retouching, i.e. modification of isolated colours only or in isolated picture areas only

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 単純パターン背景に影を有する被写体の写真画像から、背景のみの画像を用いることなく、影を除去することができるようにする。
【解決手段】 局部領域確定部125aは、顔検出部100により検出された顔より上の領域を影無し背景領域の一部となる局部領域として確定する。抽出実行部130aは、局部領域の平均色と類似色を有する画素より構成され、かつ局部領域と隣接する領域を影無し背景領域Waとして抽出する。影領域抽出部140aは、影無し背景領域Waと隣接し、かつ色相、彩度と、局部領域の平均色相、平均彩度との差が夫々所定の閾値以下であり、かつ明度が局部領域の平均明度より低く、その差が所定の閾値より大きい画素より構成される領域を影領域KSとして抽出する。補正部は、影領域KSの明度が局部領域の明度になるように影領域KSの明度を補正して影を除去する。
【選択図】 図3

Description

本発明は写真画像から影を検出する画像処理装置および検出された影を除去する画像処理装置に関するものである。
写真画像から影を除去する処理は、様々な分野で必要とされている。例えば、証明写真の分野において、照明などの設備が整えた撮影スタジオで撮像した場合には問題がないが、簡易な装置で撮像した場合には、背景の上に、前景物体となる主要被写体(証明写真の場合は人物の顔を含む上半身の一部)の近傍に影が出来てしまうことある。このように得られた写真画像を証明写真に用いるのに際し、影部分を除去する処理が必要である。
特許文献1と特許文献2には、写真画像から影を除去する技術が記載されている。特許文献1に記載された方法は、背景画像、すなわち背景のみを撮像して得た前景物体無し画像と、前景物体有り画像とを用いて論理演算を行うことによって、背景領域上に出来た、主要被写体の影の領域を検出して影を除去するものであり、特許文献2に記載された方法は、背景画像(前景物体無し画像)と前景物体有り画像との差分画像を求め、この差分画像から影領域を推定して除去するものである。
特開平07−220049号公報 特開2001−209808号公報
しかしながら、上記いずれの方法も、前景物体が無い、すなわち背景のみを撮像して得た背景画像を必要とする。そのため、写真画像から影を除去するためには撮像を2度行うことが必要であり、手間と時間がかかるという問題がある。また、例えば全国に支社がある会社の社員の社員証などの写真付きIDカードを発行する場合、撮像する場所(撮像ポイント)と実際にIDカードを作成する場所(カード発行センター)とが異なり、複数の撮像ポイントで撮像して写真画像を得、これらの写真画像をカード発行センターに送付し、カード発行センターにおいてこれらの写真画像を用いてカードを作成するシステムが用いられている。このような場合、各撮像ポイントの背景画像を取得することが難しく、取得できない場合には、写真画像から影を除去することができないという問題もある。
本発明は、上記事情に鑑み、背景画像を必要とせずに、写真画像から影を検出して除去することができる画像処理装置を提供することを目的とするものである。
本発明の第1の画像処理装置は、主要被写体の影が単純パターン背景内に存在する写真画像から前記影を除去する画像処理装置であって、
該写真画像から、前記影を含まない影無し背景領域を抽出する影無し背景領域抽出手段と、
該影無し背景領域以外の領域から前記影の領域を抽出する影領域抽出手段と、
前記影無し背景領域の画素値および/または前記影領域の画素値を調整することによって前記写真画像から前記影を除去する補正手段とを備えてなることを特徴とするものである。
本発明における「写真画像」は、単純パターン背景上に主要被写体が写った写真画像を意味し、デジタルカメラで撮像して得たものに限らず、スキャナなどの読取装置で写真フイルム上や、プリント用紙上などの画像を読み取って得たものも含むものである。
また、本発明における「影」は、主要被写体の影を意味し、主要被写体を除いた背景上に存在するものである。例えば、図19に示す写真画像の場合、領域Aと領域Bとは背景領域(影を含む背景領域、すなわち影有り背景領域)を構成し、領域Cは主要被写体(図19の例では人物の顔を含む上半身)の領域となる。また、影無し背景領域は、主要被写体以外の領域(すなわち背景領域)のうち、影領域(図19の例では領域B)を除いた領域を意味し、図19の例では、領域Aとなる。なお、図19に示す例において、影領域(領域B)が主要被写体の領域(領域C)と隣接しているが、照明の角度や、写真画像に写った主要被写体の部位などによっては、影領域が必ずしも主要被写体の領域と隣接しない場合もある。例えば、右下から左上へ向かった照明角度で背景スクリーンの前に立った人物を撮像して人物の全身を含む写真画像を得る場合には、この写真画像においては、人物の左下(写真画像に向かった方向で観察する場合の左下、人物の実際の右下)の部位例えば右膝部位と隣接して左上に向かって延びる影領域ができてしまう可能性がある。しかし、写真画像として、人物の上半身部分のみを取得した場合、前述の影領域が上半身と隣接していないので、写真画像から見ては、影領域と主要被写体(ここでは人物の上半身)と隣接しないこととなる。本発明における「影」は、このような影も含むものである。
本発明の第1の画像処理装置は、写真画像からまず図19の領域Aのような影無し背景領域を抽出し、この影無し背景領域以外の領域から影領域を抽出するものである。
通常、特に肩より上の部分しか写らない照明写真画像の場合、影領域と影無し背景領域とが必ず隣接しているが、場合によっては影領域と影無し背景領域とが隣接しないときもある。例えば手を腰に当てた人物の上半身を撮像して得た写真画像には、人物の腕と体との間に閉じた環状(円環状ではないが)の背景領域ができてしまう場合がある。このような写真画像の場合、照明条件などによって影がその環状の背景領域上に出来てしまうと、影領域(環状内部)と環状の外の影無し背景領域とが、腕を挟む形になり、隣接しないこととなる。本発明の画像処理装置における「影領域抽出手段」は、このような特別な場合においても影領域を抽出することができるようにしてもよいが、正確かつ迅速に影領域を抽出するために、特に照明写真画像を対象とする場合においては、影無し背景領域と隣接する領域から影領域を抽出するものであることが好ましい。
ここで、「影無し背景領域抽出手段」は、前記影無し背景領域の局部領域を取得する局部領域取得手段を備え、該局部領域取得手段により取得された前記局部領域と隣接し、かつ前記局部領域の画素と類似色を有する画素の領域を取得し、取得された該領域と前記局部領域とを合わせて前記影無し背景領域として抽出するものとすることができる。
「局部領域」とは、影を含まない影無し背景領域の一部を意味し、単一背景(1色、模様無し)の場合には1画素さえあればよいが、木目、砂目、格子などの単純なパターンを有する背景の場合には、少なくとも1つのパターン全体を包含する領域であることが望ましい。
また、比較される画素が類似色を有することとは、これらの画素が色度図における位置間の距離は所定の閾値以下であることを意味する。例えば、色度、彩度、明度とも夫々略同じである画素や、R値、G値、B値とも、夫々略同じ画素は、類似色を有する画素とすることができる。
「局部領域の画素と類似色を有する画素の領域」とは、局部領域内の画素と類似色を有する画素から構成される領域を意味し、例えば、局部領域は1つの画素しか有しない場合には、この画素の画素値、例えば色度、彩度、明度またはR値、G値、B値(以下同じ)と略同じ画素値を有する画素により構成される領域とすることができる一方、局部領域が複数の画素を有する場合には、局部領域を構成する複数の画素の平均画素値を基準にし、この平均画素値との差が所定の閾値以内の画素値を有する画素により構成される領域としてもよく、複数の画素からなる画素ブロック毎に平均画素値を求め、局部領域の平均画素値と略同じ平均画素値を有する画素ブロックにより構成される領域とするようにしてもよい。
本発明の第2の画像処理装置は、主要被写体の影が単純パターン背景内に存在する写真画像から前記影を除去する画像処理装置であって、
前記影を含む影有り背景領域を抽出する影有り背景領域抽出手段と、
該影有り背景領域を、前記影を含まない影無し背景領域と、前記影の領域とに分離することによって前記影を抽出する影領域抽出手段と、
前記影無し背景領域の画素値および/または前記影領域の画素値を調整することによって前記写真画像から前記影を除去する補正手段とを備えてなることを特徴とするものである。
すなわち、本発明の第1の画像処理装置は、写真画像から影無し背景領域(図19に示す例の場合、領域A)を抽出し、抽出された影無し背景領域以外の領域から影領域(図19に示す例の場合、領域B)を抽出するものであるのに対し、本発明の第2の画像処理装置は、写真画像から影有り背景領域(図19に示す例の場合、領域Aと領域B)を抽出し、抽出された影有り背景領域を、影無し背景領域(図19に示す領域A)と影領域(図19に示す領域B)とに分離することによって、影領域を抽出するものである。
本発明の第2の画像処理装置において、前記影有り背景領域抽出手段は、前記影無し背景領域の局部領域を取得する局部領域取得手段を備え、取得された前記局部領域を包含し、かつ前記局部領域の画素と略同じ色相および/または彩度を有する画素の領域を取得し、取得された該領域と前記局部領域とを合わせて前記影有り背景領域として抽出するものとすることができる。
ここで、「局部領域」は、上記において説明した「局部領域」と同じである。
単純パターン背景は、影がある部分か影が無い部分かに関係なく、画素間において色相および/または彩度が略同じであるため、本発明の第2の画像処理装置は、この点を利用して局部領域と略同じ色相および/または彩度を有する画素の領域(局部領域を含む)を影あり背景領域、すなわち主要被写体となる前景物体の領域を除いた全ての背景領域をまず抽出する。
影有り背景領域を抽出する際に、あらゆる色合いの背景にも対応することができるように、色相と彩度とが、局部領域の画素の色と彩度と夫々略同じである画素の領域を取得するようにすることが望ましいが、予め背景の色合いが分かっている場合には、色相または彩度のいずれか一方のみを用いるようにしてもよい。例えば、グレーの背景である場合には、彩度のみを用い、局部領域の画素の彩度と略同じ彩度を有する画素の領域を影有り背景領域として抽出してもよい。
本発明の第1の画像処理装置および第2の画像処理装置における局部領域取得手段は、影無し背景領域の一部分を取得することができればいかなる手法を用いるものであってもよく、例えば、前記写真画像が、人物の証明写真画像である場合、前記局部領域取得手段は、前記写真画像から顔領域を検出する顔検出手段を備え、該顔検出手段により検出された前記顔領域に基づいて、前記局部領域を取得するものとすることができる。
証明写真画像の場合、人物の顔の中心部より上に影が出来てしまうことが稀であるので、例えば、顔検出手段により顔領域を検出し、検出された顔領域の中心部より上にある、顔領域を除いた部分(またはこの部分の一部)を局部領域としてもよいし、顔領域の位置より上の部分(またはこの部分の一部)を局部領域とするようにしてもよい。
また、局部領域取得手段は、前記局部領域をユーザに指定させるための入力手段を備え、該入力手段を介しての入力に基づいて前記局部領域を取得するように構成されたものであってもよい。
本発明の第1の画像処理装置における影領域抽出手段は、影無し背景領域以外の領域から影領域を抽出するものであるのに対し、本発明の第2の画像処理装置における影領域抽出手段は、影有り背景領域を、影無し背景領域と影領域とに分離することによって影領域を抽出するものであり、具体的には、影無し背景領域と影有り背景領域とは、夫々の画素の色相および/彩度が略同じであるが、影無し背景領域の画素の明度よりも、影領域の画素の明度が低いことを利用し、色相および/または彩度が影無し背景領域の色相および/または彩度と略同じであり、明度が影無し背景領域の明度より低い領域を影領域として抽出(分離)するものとすることができる。
また、本発明の画像処理装置における補正手段は、影無し背景領域および/または影領域の画素値を調整して影の除去を実現するものであり、影無し背景領域と影領域との画素値を一致させることができれば、影領域と影無し背景領域との両方またはいずれか一方のみの画素値を調整するものであってもよい。例えば影領域の明度を影無し背景領域の明度に合わせるように調整したり、影領域の画素の明度と、影無し背景領域の明度との両方を所定の明度に調整したりするのは勿論、影無し背景領域の明度を影領域の明度に合わせるように調整してもよい。
本発明の画像処理装置により影領域の抽出手法は、影領域を写真画像から除去することのみならず、影領域を抽出する必要のあるいかなる目的にも適用することができる。例えば、写真画像から撮像の時間を特定する分野において、位置などが知られている建物であれば、この建物の壁面を背景とする写真画像から影領域を抽出し、影領域の位置に基づいて撮像する時間を特定することができる。
また、本発明の画像処理装置による処理をコンピュータに実行させ、コンピュータを本発明の画像処理装置にするプログラムを提供するようにしてもよい。
本発明の画像処理装置は、写真画像から影無し背景領域を抽出し、該影無し背景領域に基づいて影領域を抽出して影を除去する。または、写真画像から影有り背景領域を抽出し、該影有り背景領域を、影無し背景領域と影領域とに分離することによって影領域を抽出して影を除去する。背景のみが写った背景画像が無くても、写真画像から影を除去することができる。
以下、図面を参照して、本発明の実施形態について説明する。
図1は、本発明の第1の実施形態となるIDカード発行システムAの構成を示すブロック図である。なお、本実施形態のIDカード発行システムAは、各撮像ポイントにおいて人物の撮像を行って得た顔画像をIDカード作成センター(その詳細については後述する)に送信し、IDカード作成センターにおいて各撮像ポイントから送信されて来た顔画像に対して影を除去する処理を行い、写真付きIDカードを作成するものであり、その影を除去する処理が、補助記憶装置に読み込まれた処理プログラムをコンピュータ(たとえばパーソナルコンピュータ等)上で実行することにより実現される。また、この処理プログラムは、CD−ROM等の情報記憶媒体に記憶され、もしくはインターネット等のネットワークを介して配布され、コンピュータにインストールされることになる。
図1に示すように、本実施形態のIDカード発行システムAは、人物を撮像して顔画像を得る複数の撮像ポイント1と、各撮像ポイント1において得られた顔画像を用いて写真付きIDカードを作成するIDカード作成センター50aとを有し、撮像ポイント1とIDカード作成センター50aとは、ネットワーク10により接続されており、撮像ポイント1はネットワーク10を介して顔画像をIDカード作成センター50aに送信する。
図2は、IDカード作成センター50aの構成を示すブロック図である。
図2に示すように、IDカード作成センター50aは、各撮像ポイント1から送信されてきた顔画像S0を受信する受信部52と、顔画像S0から影を検出する影検出部80aと、影検出部80aにより検出された影を除去して補正済み画像S1を得る補正部54と、補正済み画像S1を用いて、トリミング処理や、印刷処理などを経て写真付きIDカードPを得るカード作成部56とを有してなる。
図3は、IDカード作成センター50aにおける影検出部80aの構成を示すブロック図である。図示のように、本実施形態における影検出部80aは、影を含まない背景領域、すなわち影無し背景領域を抽出する影無し背景領域抽出部90aと、抽出された影無し背景領域に基づいて影領域を抽出する影領域抽出部140aとを備えてなり、影無し背景領域抽出部90aは、顔検出部100と、局部領域確定部125aと、抽出実行部130aとを備えてなる。ここで、まず、影無し背景領域抽出部90aの各構成について説明する。
図4は、影無し背景領域抽出部90aにおける顔検出部100の詳細構成を示すブロック図である。図示のように、顔検出部100は、顔画像S0から特徴量C0を算出する特徴量算出部110と、後述する参照データH0により構成されるデータベース115と、特徴量算出部110が算出した特徴量C0とデータベース115内の参照データH0とに基づいて、顔画像S0から顔領域を検出し、顔の位置および大きさを示す情報(以下顔情報H1という)を得る検出実行部120とを備えてなる。
顔検出部100の特徴量算出部110は、顔の識別に用いる特徴量C0を顔画像S0から算出する。具体的には、勾配ベクトル(すなわち顔画像S0上の各画素における濃度が変化する方向および変化の大きさ)を特徴量C0として算出する。以下、勾配ベクトルの算出について説明する。まず、特徴量算出部110は、顔画像S0に対して図5(a)に示す水平方向のエッジ検出フィルタによるフィルタリング処理を施して顔画像S0における水平方向のエッジを検出する。また、特徴量算出部110は、顔画像S0に対して図5(b)に示す垂直方向のエッジ検出フィルタによるフィルタリング処理を施して顔画像S0における垂直方向のエッジを検出する。そして、顔画像S0上の各画素における水平方向のエッジの大きさHおよび垂直方向のエッジの大きさVとから、図6に示すように、各画素における勾配ベクトルKを算出する。
なお、このようにして算出された勾配ベクトルKは、図7(a)に示すような人物の顔の場合、図7(b)に示すように、目および口のように暗い部分においては目および口の中央を向き、鼻のように明るい部分においては鼻の位置から外側を向くものとなる。また、口よりも目の方が濃度の変化が大きいため、勾配ベクトルKは口よりも目の方が大きくなる。
そして、この勾配ベクトルKの方向および大きさを特徴量C0とする。なお、勾配ベクトルKの方向は、勾配ベクトルKの所定方向(例えば図6におけるx方向)を基準とした0から359度の値となる。
ここで、勾配ベクトルKの大きさは正規化される。この正規化は、顔画像S0の全画素における勾配ベクトルKの大きさのヒストグラムを求め、その大きさの分布が顔画像S0の各画素が取り得る値(8ビットであれば0〜255)に均一に分布されるようにヒストグラムを平滑化して勾配ベクトルKの大きさを修正することにより行う。例えば、勾配ベクトルKの大きさが小さく、図8(a)に示すように勾配ベクトルKの大きさが小さい側に偏ってヒストグラムが分布している場合には、大きさが0〜255の全領域に亘るものとなるように勾配ベクトルKの大きさを正規化して図8(b)に示すようにヒストグラムが分布するようにする。なお、演算量を低減するために、図8(c)に示すように、勾配ベクトルKのヒストグラムにおける分布範囲を例えば5分割し、5分割された頻度分布が図8(d)に示すように0〜255の値を5分割した範囲に亘るものとなるように正規化することが好ましい。
データベース115内を構成する参照データH0は、後述するサンプル画像から選択された複数画素の組み合わせからなる複数種類の画素群の夫々について、各画素群を構成する各画素における特徴量C0の組み合わせに対する識別条件を規定したものである。
参照データH0中の、各画素群を構成する各画素における特徴量C0の組み合わせおよび識別条件は、顔であることが分かっている複数のサンプル画像と顔でないことが分かっている複数のサンプル画像とからなるサンプル画像群の学習により、あらかじめ決められたものである。
なお、本実施形態においては、参照データH0を生成する際には、顔であることが分かっているサンプル画像として、30×30画素サイズを有し、図9に示すように、1つの顔の画像について両目の中心間の距離が10画素、9画素および11画素であり、両目の中心間距離において垂直に立った顔を平面上±15度の範囲において3度単位で段階的に回転させた(すなわち、回転角度が−15度,−12度,−9度,−6度,−3度,0度,3度,6度,9度,12度,15度)サンプル画像を用いるものとする。したがって、1つの顔の画像につきサンプル画像は3×11=33通り用意される。なお、図9においては−15度、0度および+15度に回転させたサンプル画像のみを示す。また、回転の中心はサンプル画像の対角線の交点である。ここで、両目の中心間の距離が10画素のサンプル画像であれば、目の中心位置はすべて同一となっている。この目の中心位置をサンプル画像の左上隅を原点とする座標上において(x1,y1)、(x2,y2)とする。また、図面上上下方向における目の位置(すなわちy1,y2)はすべてのサンプル画像において同一である。
また、顔でないことが分かっているサンプル画像としては、30×30画素サイズを有する任意の画像を用いるものとする。
ここで、顔であることが分かっているサンプル画像として、両目の中心間距離が10画素であり、平面上の回転角度が0度(すなわち顔が垂直な状態)のもののみを用いて学習を行った場合、参照データH0を参照して顔であると識別されるのは、両目の中心間距離が10画素で全く回転していない顔のみである。顔画像S0に含まれる可能性がある顔のサイズは一定ではないため、顔が含まれるか否かを識別する際には、後述するように顔画像S0を拡大縮小して、サンプル画像のサイズに適合するサイズの顔の位置を識別できるようにしている。しかしながら、両目の中心間距離を正確に10画素とするためには、顔画像S0のサイズを拡大率として例えば1.1単位で段階的に拡大縮小しつつ識別を行う必要があるため、演算量が膨大なものとなる。
また、顔画像S0に含まれる可能性がある顔は、図10(a)に示すように平面上の回転角度が0度のみではなく、図10(b)、(c)に示すように回転している場合もある。しかしながら、両目の中心間距離が10画素であり、顔の回転角度が0度のサンプル画像のみを使用して学習を行った場合、顔であるにも拘わらず、図10(b)、(c)に示すように回転した顔については識別を行うことができなくなってしまう。
このため、本実施形態においては、顔であることが分かっているサンプル画像として、図9に示すように両目の中心間距離が9,10,11画素であり、各距離において平面上±15度の範囲にて3度単位で段階的に顔を回転させたサンプル画像を用いて、参照データH0の学習に許容度を持たせるようにしたものである。これにより、後述する検出実行部120において識別を行う際には、顔画像S0を拡大率として11/9単位で段階的に拡大縮小すればよいため、顔画像S0のサイズを例えば拡大率として例えば1.1単位で段階的に拡大縮小する場合と比較して、演算時間を低減できる。また、図10(b)、(c)に示すように回転している顔も識別することができる。
以下、図11のフローチャートを参照しながらサンプル画像群の学習手法の一例を説明する。
図12を参照しながらある識別器の作成について説明する。図12の左側のサンプル画像に示すように、この識別器を作成するための画素群を構成する各画素は、顔であることが分かっている複数のサンプル画像上における、右目の中心にある画素P1、右側の頬の部分にある画素P2、額の部分にある画素P3および左側の頬の部分にある画素P4である。そして顔であることが分かっているすべてのサンプル画像について全画素P1〜P4における特徴量C0の組み合わせが求められ、そのヒストグラムが作成される。ここで、特徴量C0は勾配ベクトルKの方向および大きさを表すが、勾配ベクトルKの方向は0〜359の360通り、勾配ベクトルKの大きさは0〜255の256通りあるため、これをそのまま用いたのでは、組み合わせの数は1画素につき360×256通りの4画素分、すなわち(360×256)4通りとなってしまい、学習および検出のために多大なサンプルの数、時間およびメモリを要することとなる。このため、本実施形態においては、勾配ベクトルの方向を0〜359を0〜44と315〜359(右方向、値:0),45〜134(上方向値:1),135〜224(左方向、値:2),225〜314(下方向、値3)に4値化し、勾配ベクトルの大きさを3値化(値:0〜2)する。そして、以下の式を用いて組み合わせの値を算出する。
組み合わせの値=0(勾配ベクトルの大きさ=0の場合)
組み合わせの値=((勾配ベクトルの方向+1)×勾配ベクトルの大きさ(勾配ベクトルの大きさ>0の場合)
これにより、組み合わせ数が94通りとなるため、特徴量C0のデータ数を低減できる。
同様に、顔でないことが分かっている複数のサンプル画像についても、ヒストグラムが作成される。なお、顔でないことが分かっているサンプル画像については、顔であることが分かっているサンプル画像上における上記画素P1〜P4の位置に対応する画素が用いられる。これらの2つのヒストグラムが示す頻度値の比の対数値を取ってヒストグラムで表したものが、図12の一番右側に示す、識別器として用いられるヒストグラムである。この識別器のヒストグラムが示す各縦軸の値を、以下、識別ポイントと称する。この識別器によれば、正の識別ポイントに対応する特徴量C0の分布を示す画像は顔である可能性が高く、識別ポイントの絶対値が大きいほどその可能性は高まると言える。逆に、負の識別ポイントに対応する特徴量C0の分布を示す画像は顔でない可能性が高く、やはり識別ポイントの絶対値が大きいほどその可能性は高まる。ステップS2では、識別に使用され得る複数種類の画素群を構成する各画素における特徴量C0の組み合わせについて、上記のヒストグラム形式の複数の識別器が作成される。
続いて、ステップS2で作成した複数の識別器のうち、画像が顔であるか否かを識別するのに最も有効な識別器が選択される。最も有効な識別器の選択は、各サンプル画像の重みを考慮して行われる。この例では、各識別器の重み付き正答率が比較され、最も高い重み付き正答率を示す識別器が選択される(S3)。すなわち、最初のステップS3では、各サンプル画像の重みは等しく1であるので、単純にその識別器によって画像が顔であるか否かが正しく識別されるサンプル画像の数が最も多いものが、最も有効な識別器として選択される。一方、後述するステップS5において各サンプル画像の重みが更新された後の2回目のステップS3では、重みが1のサンプル画像、重みが1よりも大きいサンプル画像、および重みが1よりも小さいサンプル画像が混在しており、重みが1よりも大きいサンプル画像は、正答率の評価において、重みが1のサンプル画像よりも重みが大きい分多くカウントされる。これにより、2回目以降のステップS3では、重みが小さいサンプル画像よりも、重みが大きいサンプル画像が正しく識別されることに、より重点が置かれる。
次に、それまでに選択した識別器の組み合わせの正答率、すなわち、それまでに選択した識別器を組み合わせて使用して各サンプル画像が顔の画像であるか否かを識別した結果が、実際に顔の画像であるか否かの答えと一致する率が、所定の閾値を超えたか否かが確かめられる(S4)。ここで、組み合わせの正答率の評価に用いられるのは、現在の重みが付けられたサンプル画像群でも、重みが等しくされたサンプル画像群でもよい。所定の閾値を超えた場合は、それまでに選択した識別器を用いれば画像が顔であるか否かを十分に高い確率で識別できるため、学習は終了する。所定の閾値以下である場合は、それまでに選択した識別器と組み合わせて用いるための追加の識別器を選択するために、ステップS6へと進む。
ステップS6では、直近のステップS3で選択された識別器が再び選択されないようにするため、その識別器が除外される。
次に、直近のステップS3で選択された識別器では顔であるか否かを正しく識別できなかったサンプル画像の重みが大きくされ、画像が顔であるか否かを正しく識別できたサンプル画像の重みが小さくされる(S5)。このように重みを大小させる理由は、次の識別器の選択において、既に選択された識別器では正しく識別できなかった画像を重要視し、それらの画像が顔であるか否かを正しく識別できる識別器が選択されるようにして、識別器の組み合わせの効果を高めるためである。
続いて、ステップS3へと戻り、上記したように重み付き正答率を基準にして次に有効な識別器が選択される。
以上のステップS3からS6を繰り返して、顔が含まれるか否かを識別するのに適した識別器として、特定の画素群を構成する各画素における特徴量C0の組み合わせに対応する識別器が選択されたところで、ステップS4で確認される正答率が閾値を超えたとすると、顔が含まれるか否かの識別に用いる識別器の種類と識別条件とが確定され(S7)、これにより参照データH0の学習を終了する。
なお、上記の学習手法を採用する場合において、識別器は、特定の画素群を構成する各画素における特徴量C0の組み合わせを用いて顔の画像と顔でない画像とを識別する基準を提供するものであれば、上記のヒストグラムの形式のものに限られずいかなるものであってもよく、例えば2値データ、閾値または関数等であってもよい。また、同じヒストグラムの形式であっても、図12の中央に示した2つのヒストグラムの差分値の分布を示すヒストグラム等を用いてもよい。
また、学習の方法としては上記手法に限定されるものではなく、ニューラルネットワーク等他のマシンラーニングの手法を用いることができる。
検出実行部120は、複数種類の画素群を構成する各画素における特徴量C0の組み合わせのすべてについて参照データH0が学習した識別条件を参照して、各々の画素群を構成する各画素における特徴量C0の組み合わせについての識別ポイントを求め、すべての識別ポイントを総合して顔を検出する。この際、特徴量C0である勾配ベクトルKの方向は4値化され大きさは3値化される。本実施形態では、すべての識別ポイントを加算して、その加算値の正負および大小によって顔を検出する。例えば、識別ポイントの総和が正の値である場合、顔であると判断し、負の値である場合には顔ではないと判断する。
ここで、顔画像S0のサイズは30×30画素のサンプル画像とは異なり、各種サイズを有するものとなっている可能性がある。また、顔が含まれる場合、平面上における顔の回転角度が0度であるとは限らない。このため、検出実行部120は、図13に示すように、顔画像S0を縦または横のサイズが30画素となるまで段階的に拡大縮小するとともに平面上で段階的に360度回転させつつ(図13においては縮小する状態を示す)、各段階において拡大縮小された顔画像S0上に30×30画素サイズのマスクMを設定し、マスクMを拡大縮小された顔画像S0上において1画素ずつ移動させながら、マスク内の画像が顔の画像であるか否か(すなわち、マスク内の画像に対して得られた識別ポイントの加算値が正か負か)の識別を行う。そして、この識別を拡大縮小および回転の全段階の顔画像S0について行い、識別ポイントの加算値が最も高い正の値が得られた段階におけるサイズおよび回転角度の顔画像S0から、識別されたマスクMの位置に対応する30×30画素の領域を顔領域として検出すると共に、この領域の位置および大きさを示す顔情報H1を局部領域確定部125aへ出力する。
なお、参照データH0の生成時に学習したサンプル画像として両目の中心位置の画素数が9,10,11画素のものを使用しているため、顔画像S0を拡大縮小する時の拡大率は11/9とすればよい。また、参照データH0の生成時に学習したサンプル画像として、顔が平面上で±15度の範囲において回転させたものを使用しているため、顔画像S0は30度単位で360度回転させればよい。
なお、特徴量算出部110は、顔画像S0の拡大縮小および回転という変形の各段階において特徴量C0を算出する。
影検出部80aの顔検出部100は、このようにして顔画像S0における顔の位置および大きさを示す顔情報H1を取得する。
局部領域確定部125aは、顔情報H1に基づいて、顔画像S0における影無し背景領域の一部を確定するものである。具体的には、証明写真の場合、主要被写体となる人物の顔より上の部分に影が形成されることは殆どないことを利用し、顔情報H1により示される顔の位置および範囲(大きさ)に基づいて、顔より上の部分における任意の位置(点または所定の範囲)を局部領域として確定する。なお、証明写真の場合、人物の顔の中心部より上の部分に影が形成されることも稀であるため、顔の中心部より上の、顔を除いた部分における任意の位置を局部領域として確定するようにしてもよい。本実施形態において、局部領域確定部125aは、顔より上の部分の全てを局部領域として確定する。
抽出実行部130aは、局部領域確定部125aにより得られた局部領域に基づいて、影無し背景領域Waを抽出するものであり、具体的には、まず、局部領域の平均色を算出する。本実施形態においては、局部領域の平均色相、平均彩度、平均明度を算出する。次いで、抽出実行部130aは、顔領域および局部領域以外の領域の各画素のうちの、色相、彩度、明度と、局部領域の平均色相、平均彩度、平均明度との夫々の差が所定の閾値以下の画素より構成され、かつ局部領域と隣接する領域を検出すると共に、検出された領域と局部領域とを合わせて影無し背景領域Waとして抽出する。図19に示す例の場合においては、領域Aが影無し背景領域Waとして抽出される。
抽出実行部130aは、影無し背景領域Waを示す情報、ここでは領域Waの位置範囲を示す情報を影領域抽出部140aに出力し、影領域抽出部140aは、影無し背景領域Waと隣接し、かつ色相、彩度と、局部領域の平均色相、平均彩度との差が夫々所定の閾値以下であり、かつ明度が局部領域の平均明度より低く、その差が所定の閾値より大きい画素より構成される領域を影領域KSとして抽出する。
補正部54は、顔画像S0から影を除去する処理を行うものであり、具体的には、影検出部80aにおける影領域抽出部140aにより抽出された影領域KSの各画素の明度が、局部領域の平均明度になるように、影領域KSの各画素の明度を補正して補正済み画像S1を得る。
なお、ここで、補正部54は、影無し背景領域Waの平均明度を求め、影領域KSの各画素の明度が影無し背景領域Waの平均明度になるように補正してもよい。さらに、影領域KSの明度を調整する代わりに、影無し背景領域Waの各画素の明度が影領域KSの明度(平均明度)になるように影無し背景領域Waの各画素の明度を調整してもよいし、影無し背景領域Waと、影領域KSとの両方の各画素の明度が所定の同じ値になるように、影無し背景領域Waと、影領域KSとの両方の各画素の明度を調整するようにしてもよい。
図14は、図1に示すIDカード発行システムAにおけるIDカード作成センター50aにおいて行われる処理を示すフローチャートである。図示のように、各撮像ポイント1において得られた顔写真画像S0は、IDカード作成センター50aの受信部52により受信される(S10)。受信された顔画像S0から、影検出部80aの影無し背景領域抽出部90aにおける顔検出部100により顔領域が検出され、顔情報H1が得られる(S15)。局部領域確定部125aは、顔情報H1に基づいて、顔より上の部分の全てを局部領域として確定する(S20)。抽出実行部130aは、局部領域確定部125aにより確定された局部領域の局部領域の平均色相、平均彩度、平均明度を算出すると共に、顔領域および局部領域以外の領域の各画素のうちの、色相、彩度、明度と、局部領域の平均色相、平均彩度、平均明度との夫々の差が所定の閾値以下の画素より構成され、かつ局部領域と隣接する領域を検出して、検出された領域と局部領域とを合わせて影無し背景領域Waとして抽出する(S25)。図19に示す例の場合においては、領域Aが影無し背景領域Waとして抽出される。そして、影領域抽出部140aは、影無し背景領域Waと隣接し、かつ色相、彩度と、局部領域の平均色相、平均彩度との差が夫々所定の閾値以下であり、かつ明度が局部領域の平均明度より低く、その差が所定の閾値より大きい画素より構成される領域を影領域KSとして抽出する(S30)。補正部54は、影領域抽出部140aにより抽出された影領域KSの各画素の明度が、局部領域の平均明度になるように、影領域KSの各画素の明度を補正して補正済み画像S1を得る(S35)。カード作成部56は、補正済み画像S1を用いて写真付きIDカードPを作成する(S40)。
図15は、本発明の第2の実施形態となるIDカード発行システムBの構成を示すブロック図である。図示のように、本実施形態の本IDカード発行システムBは、人物を撮像して顔画像を得る複数の撮像ポイント1と、各撮像ポイント1において得られた顔画像を用いて写真付きIDカードを作成するIDカード作成センター50bとを有し、撮像ポイント1とIDカード作成センター50bとは、ネットワーク10により接続されており、撮像ポイント1はネットワーク10を介して顔画像をIDカード作成センター50bに送信する。
図16は、IDカード作成センター50bの構成を示すブロック図である。なお、図15に示すIDカード発行システムBは、IDカード作成センター50bが図1に示すIDカード発行システムAのIDカード作成センター50aと異なる点を除いて他の構成が同じであるので、ここで、IDカード作成センター50bについてのみ説明すると共に、IDカード発行システムAのと同じ構成については同じ符号を付与する。
図16に示すように、IDカード作成センター50bは、各撮像ポイント1から送信されてきた顔画像S0を受信する受信部52と、顔画像S0から影を検出する影検出部80bと、影検出部80bにより検出された影を除去して補正済み画像S1を得る補正部54と、補正済み画像S1を用いて、トリミング処理や、印刷処理などを経て写真付きIDカードPを得るカード作成部56とを有してなる。
図17は、図16に示すIDカード作成センター50bにおける影検出部80bの構成を示すブロック図である。図示のように、影検出部80bは、影有り背景領域抽出部90bと、影領域抽出部140bとを備えてなり、影有り背景領域抽出部90bは、入力部125bと、抽出実行部130bとからなる。
入力部125bは、顔画像S0に対して、ユーザに「影が無い背景領域の一部分」、すなわち局部領域を指定させるためのものであり、顔画像S0をユーザに表示するモニタ、モニタに表示された画像(顔画像S0)における局部領域を指定するマウスなどから構成される。例えば、ユーザが入力部125bを介して、図20に示す局部領域Q0を指定することができる。なお、局部領域は、1つに限らず、例えば図20に示す例において、領域Q0と共に、領域Q1、領域Q2も局部領域として指定されるようにしてもよい。
本実施形態において、入力部125bは、ユーザに1つの局部領域を指定させるものである。ここで例えば、領域Q0が指定されたとする。
抽出実行部130bは、まず、領域Q0の平均色相、平均彩度を算出する。そして、色相、彩度と、領域Q0の平均色相、平均彩度との夫々の差が所定の閾値以下の画素により構成され、かつ領域Q0と隣接する領域を抽出し、領域Q0と合わせて影有り背景領域Wbとして抽出する。図19および図20の例においては、領域Aと領域Bとからなる領域が抽出される。
影領域抽出部140bは、影有り背景領域Wbから影領域KSを分離することによって影領域KSを抽出する。具体的には、影有り背景領域Wbの各画素の明度を求め、局部領域Q0の平均明度より低く、局部領域Q0の平均明度との差が所定の閾値より大きい画素から構成された領域を影領域KSとして抽出する。
図18は、本実施形態のIDカード作成システムBにおいて行われる処理を示すフローチャート。図示のように、各撮像ポイント1において得られた顔写真画像S0は、IDカード作成センター50bの受信部52により受信される(S50)。受信された顔画像S0に対して、影検出部80bの影有り背景領域抽出部90bにおける入力部125bを介して、局部領域Q0が指定される(S55)。抽出実行部130bは、ステップS55において指定された局部領域Q0の平均色相、平均彩度を算出すると共に、色相、彩度と、局部領域Q0の平均色相、平均彩度との夫々の差が所定の閾値以下の画素より構成され、かつ局部領域Q0と隣接する領域を検出して、検出された領域と局部領域Q0とを合わせて影有り背景領域Wbとして抽出する(S60)。図19および図20に示す例の場合においては、領域Aと領域Bとからなる領域が影有り背景領域Wbとして抽出される。そして、影領域抽出部140bは、影有り背景領域Wbから、明度が局部領域Q0の平均明度より低く、その差が所定の閾値より大きい画素より構成される領域を影領域KSとして影有り背景領域Wbから分離する(S65)。補正部54は、影領域抽出部140bにより抽出された影領域KSの各画素の明度が、局部領域Q0の平均明度になるように、影領域KSの各画素の明度を補正して補正済み画像S1を得る(S57)。カード作成部56は、補正済み画像S1を用いて写真付きIDカードPを作成する(S75)。
このように、上述した実施形態のIDカード作成システムは、顔画像から影を除去するのに際し、顔画像そのものから影領域を抽出して除去するようにしているので、背景のみの画像が無くても、影を除去することができる。
以上、本発明の望ましい実施形態について説明したが、本発明は、上述した実施形態に限られることがなく、本発明の主旨から逸脱しない限り、様々な増減、変更を加えることができる。
例えば、図1に示す実施形態のIDカード発行システムAのように、顔画像から顔の領域を検出して局部領域を確定する場合、顔画像から顔の位置および大きさを得ることができれば、いかなる顔検出技術を用いてもよい。
また、影有り背景領域、影無し背景領域、影領域などを抽出する際に、色空間として色相、彩度、明度を用いるのに限らず、RGB色空間や、Lab色空間などを用いてもよい。
本発明の第1の実施形態となるIDカード発行システムAの構成を示すブロック図 図1に示すIDカード発行システムAにおけるIDカード作成センター50aの構成を示すブロック図 図2に示すIDカード作成センター50aにおける影検出部80aの構成を示すブロック図 図3に示す影検出部80aにおける顔検出部100の構成を示すブロック図 (a)は水平方向のエッジ検出フィルタを示す図、(b)は垂直方向のエッジ検出フィルタを示す図 勾配ベクトルの算出を説明するための図 (a)は人物の顔を示す図、(b)は(a)に示す人物の顔の目および口付近の勾配ベクトルを示す図 (a)は正規化前の勾配ベクトルの大きさのヒストグラムを示す図、(b)は正規化後の勾配ベクトルの大きさのヒストグラムを示す図、(c)は5値化した勾配ベクトルの大きさのヒストグラムを示す図、(d)は正規化後の5値化した勾配ベクトルの大きさのヒストグラムを示す図 参照データの学習に用いられる顔であることが分かっているサンプル画像の例を示す図 顔の回転を説明するための図 参照データの学習手法を示すフローチャート 識別器の導出方法を示す図 識別対象画像の段階的な変形を説明するための図 図1に示す実施形態のIDカード発行システムAの処理を示すフローチャート 本発明の第2の実施形態となるIDカード発行システムBの構成を示すブロック図 図15に示すIDカード発行システムBにおけるIDカード作成センター50bの構成を示すブロック図 図16に示すIDカード作成センター50bにおける影検出部80bの構成を示すブロック図 図15に示す実施形態のIDカード発行システムBの処理を示すフローチャート 顔画像の例を示す図(その1) 顔画像の例を示す図(その2)
符号の説明
1 撮像ポイント
10 ネットワーク
50a,50b IDカード作成センター
52 受信部
54 補正部
56 カード作成部
80a,80b 影検出部
90a 影無し背景領域抽出部
90b 影有り背景領域抽出部
100 顔検出部
110 特徴量算出部
115 データベース
120 検出実行部
125a 局部領域確定部
125b 入力部
130a,130b 抽出実行部
140a,140b 影領域抽出部
S0 顔画像
S1 補正済み画像
Wa 影無し背景領域
Wb 影有り背景領域
KS 影領域

Claims (13)

  1. 主要被写体の影が単純パターン背景内に存在する写真画像から前記影を除去する画像処理装置であって、
    該写真画像から、前記影を含まない影無し背景領域を抽出する影無し背景領域抽出手段と、
    該影無し背景領域以外の領域から前記影の領域を抽出する影領域抽出手段と、
    前記影無し背景領域の画素値および/または前記影領域の画素値を調整することによって前記写真画像から前記影を除去する補正手段とを備えてなることを特徴とする画像処理装置。
  2. 前記影領域抽出手段が、前記影無し背景領域と隣接する領域から前記影の領域を抽出するものであることを特徴とする請求項1記載の画像処理装置。
  3. 主要被写体の影が単純パターン背景内に存在する写真画像から前記影を除去する画像処理装置であって、
    前記影を含む影有り背景領域を抽出する影有り背景領域抽出手段と、
    該影有り背景領域を、前記影を含まない影無し背景領域と、前記影の領域とに分離することによって前記影を抽出する影領域抽出手段と、
    前記影無し背景領域の画素値および/または前記影領域の画素値を調整することによって前記写真画像から前記影を除去する補正手段とを備えてなることを特徴とする画像処理装置。
  4. 前記影無し背景領域抽出手段が、前記影無し背景領域の局部領域を取得する局部領域取得手段を備え、
    取得された前記局部領域と隣接し、かつ前記局部領域の画素と類似色を有する画素の領域を取得し、取得された該領域と前記局部領域とを合わせて前記影無し背景領域として抽出するものであることを特徴とする請求項1または2記載の画像処理装置。
  5. 前記影有り背景領域抽出手段が、前記影無し背景領域の局部領域を取得する局部領域取得手段を備え、
    取得された前記局部領域と隣接し、かつ前記局部領域の画素と略同じ色相および/または彩度を有する画素の領域を取得し、取得された該領域と前記局部領域とを合わせて前記影有り背景領域として抽出するものであることを特徴とする請求項3記載の画像処理装置。
  6. 前記写真画像が、人物の証明写真画像であり、
    前記局部領域取得手段が、前記写真画像から顔領域を検出する顔検出手段を備え、
    該顔検出手段により検出された前記顔領域に基づいて、前記局部領域を取得するものであることを特徴とする請求項4または5記載の画像処理装置。
  7. 前記局部領域取得手段が、前記局部領域を指定させるための入力手段を備え、
    該入力手段を介しての入力に基づいて前記局部領域を取得するものであることを特徴とする請求項4または5記載の画像処理装置。
  8. 前記影領域抽出手段が、色相および/または彩度が前記影無し背景領域の色相および/または彩度と略同じであり、明度が前記影無し背景領域の明度より低い領域を前記影領域として抽出するものであることを特徴とする請求項1から7のいずれか1項記載の画像処理装置。
  9. 主要被写体の影が単純パターン背景内に存在する写真画像から前記影を除去する画像処理をコンピュータに実行させるプログラムであって、
    前記画像処理が、前記写真画像から、前記影を含まない影無し背景領域を抽出する処理と、
    該影無し背景領域以外の領域から前記影の領域を抽出する処理と、
    前記影無し背景領域の画素値および/または前記影領域の画素値を調整することによって前記写真画像から前記影を除去する処理とを有することを特徴とするプログラム。
  10. 前記影の領域を抽出する処理が、前記影無し背景領域と隣接する領域から前記影の領域を抽出する処理であることを特徴とする請求項9記載のプログラム
  11. 主要被写体の影が単純パターン背景内に存在する写真画像から前記影を除去する画像処理をコンピュータに実行させるプログラムであって、
    前記画像処理が、前記影を含む影有り背景領域を抽出する処理と、
    該影有り背景領域を、前記影を含まない影無し背景領域と、前記影の領域とに分離することによって前記影を抽出する処理と、
    前記影無し背景領域の画素値および/または前記影領域の画素値を調整することによって前記写真画像から前記影を除去する処理とを有することを特徴とするプログラム。
  12. 主要被写体の影が単純パターン背景内に存在する写真画像から前記影を検出する画像処理装置であって、
    該写真画像から、前記影を含まない影無し背景領域を抽出する影無し背景領域抽出手段と、
    該影無し背景領域以外の領域から前記影の領域を抽出する影領域抽出手段とを備えてなることを特徴とする画像処理装置。
  13. 主要被写体の影が単純パターン背景内に存在する写真画像から前記影を検出する画像処理装置であって、
    前記影を含む影有り背景領域を抽出する影有り背景領域抽出手段と、
    該影有り背景領域を、前記影を含まない影無し背景領域と、前記影の領域とに分離することによって前記影の領域を抽出する影領域抽出手段とを備えてなることを特徴とする画像処理装置。
JP2004305638A 2004-10-20 2004-10-20 画像処理装置 Withdrawn JP2006119817A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004305638A JP2006119817A (ja) 2004-10-20 2004-10-20 画像処理装置
US11/253,718 US20060082849A1 (en) 2004-10-20 2005-10-20 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004305638A JP2006119817A (ja) 2004-10-20 2004-10-20 画像処理装置

Publications (1)

Publication Number Publication Date
JP2006119817A true JP2006119817A (ja) 2006-05-11

Family

ID=36180438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004305638A Withdrawn JP2006119817A (ja) 2004-10-20 2004-10-20 画像処理装置

Country Status (2)

Country Link
US (1) US20060082849A1 (ja)
JP (1) JP2006119817A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011078041A (ja) * 2009-10-02 2011-04-14 Sanyo Electric Co Ltd 画像処理装置および電子カメラ
KR101079826B1 (ko) 2009-07-13 2011-11-03 부산대학교 산학협력단 영상 감시에서 이동 물체 영역을 추출하기 위한 방법
KR101394474B1 (ko) * 2009-04-27 2014-05-29 서울대학교산학협력단 그림자 추정 장치
US8923564B2 (en) 2007-03-05 2014-12-30 DigitalOptics Corporation Europe Limited Face searching and detection in a digital image acquisition device
JP2017146856A (ja) * 2016-02-18 2017-08-24 富士通フロンテック株式会社 画像処理装置及び画像処理方法
JP2018147109A (ja) * 2017-03-02 2018-09-20 国立大学法人大阪大学 画像領域分割装置、画像領域分割方法、画像領域分割プログラム、及び画像特徴抽出方法
JP2020077285A (ja) * 2018-11-09 2020-05-21 富士通フロンテック株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム
WO2021071118A1 (ko) * 2019-10-10 2021-04-15 주식회사 신세계아이앤씨 전경 분리 장치 및 방법

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005100100A (ja) * 2003-09-25 2005-04-14 Toyota Motor Corp 車輪情報処理装置および車輪情報処理方法
JP4934843B2 (ja) * 2006-11-29 2012-05-23 株式会社リコー 情報処理装置、画像登録方法、およびプログラム
TWI351872B (en) * 2008-01-11 2011-11-01 Quanta Comp Inc Image processing apparatus and method
JP2009237976A (ja) * 2008-03-27 2009-10-15 Seiko Epson Corp 顔画像出力制御装置、顔画像出力制御方法、顔画像出力制御プログラムおよび印刷装置
JP2010066853A (ja) * 2008-09-09 2010-03-25 Fujifilm Corp 画像処理装置、方法およびプログラム
US8391634B1 (en) * 2009-04-28 2013-03-05 Google Inc. Illumination estimation for images
US20100278395A1 (en) * 2009-05-04 2010-11-04 Jonathan Yen Automatic backlit face detection
US8798393B2 (en) 2010-12-01 2014-08-05 Google Inc. Removing illumination variation from images
JP5716222B2 (ja) * 2011-05-13 2015-05-13 株式会社Pfu 画像読取装置、画像処理方法、及びプログラム
CN103377462B (zh) * 2012-04-16 2016-05-04 富士通株式会社 对扫描图像进行处理的方法和装置
KR102434754B1 (ko) * 2015-11-17 2022-08-23 삼성전자 주식회사 전자 장치 및 전자 장치의 컨텐츠 표시 방법
US9799106B2 (en) 2015-12-16 2017-10-24 Dropbox, Inc. Enhancing a digital image
JP2021012098A (ja) * 2019-07-05 2021-02-04 株式会社イシダ 検査装置
CN112532879B (zh) * 2020-11-26 2022-04-12 维沃移动通信有限公司 图像处理方法及装置
EP4189638A4 (en) * 2020-12-12 2024-01-24 Samsung Electronics Co Ltd METHOD AND ELECTRONIC DEVICE FOR MANAGING IMAGE ARTIFACTS

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3679512B2 (ja) * 1996-07-05 2005-08-03 キヤノン株式会社 画像抽出装置および方法
US6532022B1 (en) * 1997-10-15 2003-03-11 Electric Planet, Inc. Method and apparatus for model-based compositing
US6134345A (en) * 1998-08-28 2000-10-17 Ultimatte Corporation Comprehensive method for removing from an image the background surrounding a selected subject
SG103253A1 (en) * 2000-01-26 2004-04-29 Kent Ridge Digital Labs Method and apparatus for cancelling lighting variations in object recognition
JP3999505B2 (ja) * 2001-11-30 2007-10-31 オリンパス株式会社 カメラ
JP2005190435A (ja) * 2003-12-26 2005-07-14 Konica Minolta Photo Imaging Inc 画像処理方法、画像処理装置及び画像記録装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8923564B2 (en) 2007-03-05 2014-12-30 DigitalOptics Corporation Europe Limited Face searching and detection in a digital image acquisition device
US9224034B2 (en) 2007-03-05 2015-12-29 Fotonation Limited Face searching and detection in a digital image acquisition device
KR101394474B1 (ko) * 2009-04-27 2014-05-29 서울대학교산학협력단 그림자 추정 장치
KR101079826B1 (ko) 2009-07-13 2011-11-03 부산대학교 산학협력단 영상 감시에서 이동 물체 영역을 추출하기 위한 방법
JP2011078041A (ja) * 2009-10-02 2011-04-14 Sanyo Electric Co Ltd 画像処理装置および電子カメラ
JP2017146856A (ja) * 2016-02-18 2017-08-24 富士通フロンテック株式会社 画像処理装置及び画像処理方法
JP2018147109A (ja) * 2017-03-02 2018-09-20 国立大学法人大阪大学 画像領域分割装置、画像領域分割方法、画像領域分割プログラム、及び画像特徴抽出方法
JP2020077285A (ja) * 2018-11-09 2020-05-21 富士通フロンテック株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム
JP7057268B2 (ja) 2018-11-09 2022-04-19 富士通フロンテック株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム
WO2021071118A1 (ko) * 2019-10-10 2021-04-15 주식회사 신세계아이앤씨 전경 분리 장치 및 방법

Also Published As

Publication number Publication date
US20060082849A1 (en) 2006-04-20

Similar Documents

Publication Publication Date Title
US20060082849A1 (en) Image processing apparatus
CN108446617B (zh) 抗侧脸干扰的人脸快速检测方法
EP1918872B1 (en) Image segmentation method and system
US7599568B2 (en) Image processing method, apparatus, and program
US7844135B2 (en) Detecting orientation of digital images using face detection information
US8391645B2 (en) Detecting orientation of digital images using face detection information
US7720302B2 (en) Method, apparatus and program for image processing
US8170350B2 (en) Foreground/background segmentation in digital images
US8577099B2 (en) Method, apparatus, and program for detecting facial characteristic points
US7848545B2 (en) Method of and system for image processing and computer program
US20050117802A1 (en) Image processing method, apparatus, and program
JP2007047965A (ja) デジタル画像の対象物検出方法および装置並びにプログラム
JP4515208B2 (ja) 画像処理方法および装置並びにプログラム
CN111222433A (zh) 自动人脸稽核方法、***、设备及可读存储介质
JP2006164133A (ja) 画像処理方法および装置並びにプログラム
JP3962517B2 (ja) 顔面検出方法及びその装置、コンピュータ可読媒体
RU2329535C2 (ru) Способ автоматического кадрирования фотографий
JP2005108195A (ja) 対象物識別装置および方法並びにプログラム
JP2007025901A (ja) 画像処理装置、画像処理方法
JP4831344B2 (ja) 目の位置の検出方法
JP2004199200A (ja) パターン認識装置、撮像装置、情報処理システム、パターン認識方法、記録媒体、及びプログラム
JP6776532B2 (ja) 画像処理装置、撮像装置、電子機器及び画像処理プログラム
JP2005250771A (ja) 対象物識別装置および方法並びにプログラム
CN117496019B (zh) 一种驱动静态图像的图像动画处理方法及***
Shen et al. Towards intelligent photo composition-automatic detection of unintentional dissection lines in environmental portrait photos

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061208

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080108