JP2006139369A - 画像処理方法および装置並びにプログラム - Google Patents

画像処理方法および装置並びにプログラム Download PDF

Info

Publication number
JP2006139369A
JP2006139369A JP2004326334A JP2004326334A JP2006139369A JP 2006139369 A JP2006139369 A JP 2006139369A JP 2004326334 A JP2004326334 A JP 2004326334A JP 2004326334 A JP2004326334 A JP 2004326334A JP 2006139369 A JP2006139369 A JP 2006139369A
Authority
JP
Japan
Prior art keywords
center line
trimming
image
inclination
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004326334A
Other languages
English (en)
Other versions
JP4647289B2 (ja
Inventor
Sukekazu Kameyama
祐和 亀山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2004326334A priority Critical patent/JP4647289B2/ja
Priority to US11/270,503 priority patent/US7848545B2/en
Publication of JP2006139369A publication Critical patent/JP2006139369A/ja
Application granted granted Critical
Publication of JP4647289B2 publication Critical patent/JP4647289B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3877Image rotation
    • H04N1/3878Skew detection or correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Exposure Control For Cameras (AREA)
  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)

Abstract

【課題】 バランスの良いトリミング画像を得る。
【解決手段】 目検出部30は、写真画像S0における両目の夫々の位置を検出する。胴体傾き検出部50は、上半身の胴体が顔に対する傾きを検出する。トリミング中心線設定部60は、両目間の中心点を通り、かつ両目を結ぶ直線と直交する顔中心線Mを、重要度設定部80により設定された胴体の重要度αと、胴体の傾きの度合いおよび方向とに基づいて、傾きの度合いおよび重要度αが大きいほど、傾きの方向に傾かせるように補正してトリミング中心線M’を得る。トリミング実行部85は、トリミング中心線M’を中心線として左右対称する領域の画像を切り出してトリミング画像S2を得る。
【選択図】 図2

Description

本発明はトリミング処理、具体的には複数の部位から構成された被写体の写真画像に対してトリミング処理を行う画像処理および装置並びにそのためのプログラムに関するものである。
パスポートや免許証の交付申請、あるいは履歴書の作成などの場合において、本人の顔が写っている予め定められた出力規格の写真(以下証明写真という)の提出が要求されることが多い。このため、利用者の撮影を行うための撮影室が設けられ、撮影室内の椅子に着座した利用者を撮影し、利用者の証明写真用の顔写真画像をシートに記録した証明写真シートを作成することを自動的に行う証明写真の自動作成装置が従来より利用されている。このような自動作成装置は、大型であるため、設置場所が限られているため、利用者が証明写真を取得するためには、自動作成装置が設置された場所を探して出向く必要があり、不便である。
この問題を解決するために、例えば、証明写真の作成に用いる顔写真画像(顔が写されている画像)から顔の位置を求めると共に、証明写真の出力規格に基づいて、顔が証明写真における所定の位置に配置されるようにトリミング領域を設定して、トリミング領域内の画像を切り出して証明写真画像を形成する方法が提案されている。このような方法によって、利用者は、証明写真の自動作成装置よりも多数存在しているDPE店などに証明写真の作成を依頼することができると共に、手持ちの写真のうち、写りが良いなどのような気に入った写真が記録された写真フィルムまたは記録媒体をDPE店などに持ち込むことで、気に入った写真から証明写真を作成させることも可能となる。
また、証明写真画像の性質から、顔全域はトリミング領域に含まれることが必要であると共に、トリミング領域は顔の中心を中心にして左右対称であることが要求されるため、通常、トリミング領域を設定する際に、顔の中心線をトリミングの中心線(以下トリミング中心線という)にして、トリミング中心線を中心に左右対称する領域をトリミング領域として設定することが行われている。顔の中心線としては、例えば特許文献1に記載されたように、両目間の中心点、鼻の中心点、口の中心点を結ぶ直線を用いることができ、トリミング領域を設定するのに際しては、この顔中心線をトリミング中心線にして、縦辺がトリミング中心線と平行になるようにトリミング領域の枠を設定する。この方法によれば、入力された顔写真画像において顔部分が傾いていても(図21(a)参照)、切り出した画像(図21(c)における点線枠内の画像)においては顔が傾かないようにすることができる。
特開2003−92726号公報
しかしながら、特許文献1に記載された方法は、撮像時に顔と胴体部分とが同じ方向に同じ程度に傾いた場合には、顔も胴体も傾かないようにトリミングすることができるが、顔のみが傾いたなど、元々同じ中心線を有する顔と胴体とは異なる中心線を有する場合、顔中心線をトリミング中心線にしてトリミングすると、トリミング画像(トリミング領域内の画像)は、図21(c)に例示したように胴体部分の傾きが激しかったり、胴体部分が異常に小さかったりするなど、トリミング画像全体のバランスが良くないという問題がある。
本発明は、上記事情に鑑み、バランス良くトリミング処理を行うことができる画像処理方法および装置並びにそのためのプログラムを提供することを目的とするものである。
本発明の画像処理方法は、基準部位と、傾かない状態において該基準部位の中心線と同じ中心線を有し、かつ前記基準部位の中心線の伸びる方向に沿って前記基準部位と並ぶ1つ以上の他部位とからなる被写体を撮像して得た写真画像に対して、前記基準部位の中心線と所定の角度を成すトリミング中心線で前記基準部位および前記他部位の一部または全部を含む領域の画像を切り出すトリミング処理を行ってトリミング画像を得る画像処理方法において、
前記写真画像から、前記基準部位の中心線を取得すると共に、該写真画像の撮像時において各前記他部位の傾きの度合いおよび方向を検出し、
検出された各前記他部位の傾き度合いに基づいて該傾きの度合いが大きいほど前記トリミング中心線が前記基準部位の中心線から該傾きの方向に大きく傾くように前記所定の角度を決定し、
決定された前記所定の角度のトリミング中心線で前記トリミング処理を行うことを特徴とするものである。
ここで、「トリミング中心線」とは、前記トリミング処理を行う際に切り出す前記領域の中心線を意味し、トリミング画像は、このトリミング中心線を中心にして左右対称な領域の画像である。
また、前記「他部位の傾き」とは、他部位が基準部位に対する相対的な傾きを意味し、この傾きは、撮像時に他部位が傾いたことに起因するものに限らず、基準部位または、基準部位と他部位との両方が傾いたことに起因するものも含むものである。本発明が対象とする写真画像は、顔と胴体とからなる人物の上半身のような、どの部位も傾かない状態においては同じ中心線を有する基準部位および基準部位以外の他部位からなる被写体を撮像して得た写真画像であるため、他部位が基準部位に対する相対的な傾きは、写真画像における、基準部位の中心線を基準にした他部位の中心線の傾きと同じである。
本発明の画像処理方法は、前記他部位の夫々の重要度を取得し、
該重要度が大きいほど大きくなるように前記所定の角度を決定することが好ましい。
ここで、「重要度」とは、トリミング画像において、基準部位に対して、前記他部位の向きを重視したい相対的な程度を意味する。
本発明の画像処理方法は、人物の顔写真画像のトリミングに適用することができ、この場合、前記被写体が、人物の上半身であり、前記基準部位が、前記上半身における顔部位であり、前記他部位が、前記上半身における胴体部位となる。
本発明の画像処理装置は、基準部位と、傾かない状態において該基準部位の中心線と同じ中心線を有し、かつ前記基準部位の中心線の伸びる方向に沿って前記基準部位と並ぶ1つ以上の他部位とからなる被写体を撮像して得た写真画像に対して、前記基準部位の中心線と所定の角度を成すトリミング中心線で前記基準部位および前記他部位の一部または全部を含む領域を切り出すトリミング処理を行ってトリミング画像を得る画像処理装置であって、
前記写真画像から、前記基準部位の中心線を取得する基準部位中心線取得手段と、
前記写真画像から、該写真画像の撮像時において各前記他部位の傾きの度合いおよび方向を検出する傾き検出手段と、
検出された各前記他部位の傾き度合いに基づいて該傾きの度合いが大きいほど前記トリミング中心線が該傾きの方向に大きく傾くように前記所定の角度を決定するトリミング角度決定手段と、
決定された前記所定の角度のトリミング中心線で前記トリミング処理を行うトリミング手段とを有してなることを特徴とするものである。
本発明の画像処理装置は、前記他部位の夫々の重要度を取得する重要度取得手段をさらに備え、
前記トリミング角度決定手段が、前記他部位の前記重要度が大きいほど大きくなるように前記所定の角度を決定するものであることが好ましい。
本発明の画像処理装置は、人物の顔写真画像のトリミングに適用することができ、この場合、前記被写体が、人物の上半身であり、前記基準部位が、前記上半身における顔部位であり、前記他部位が、前記上半身における胴体部位となる。
ここで、前記基準部位中心線取得手段は、前記顔部位における両目の位置を取得し、該両目の位置に基づいて、前記両目の中間点を通り、かつ前記両目を結んだ線と垂直する線を前記基準部位中心線として求めるものであることが好ましい。
また、前記傾き検出手段は、前記胴体部位に含まれる両肩の傾斜度を夫々検出し、検出された前記両肩の傾斜度の差に基づいて前記胴体部位の傾きの度合いおよび方向を求めるものとすることができる。
本発明の画像処理方法を、コンピュータに実行させるプログラムとして提供してもよい。
本発明の画像処理方法および装置によれば、顔と胴体とからなる人物の上半身のような、どの部位も傾かない状態においては同じ中心線を有する基準部位および基準部位以外の他部位からなる被写体を撮像して得た写真画像をトリミングする際に、基準部位の中心線をそのままトリミング中心線とする代わりに、基準部位に対する他部位の傾きを検出して、他部位の傾きに応じて基準部位の中心線を傾かせてトリミング中心線を得るようにしているので、他部位が基準部位に対して傾きが無い場合には、基準部位も他部位も傾かずに切り出すことができると共に、他部位が基準部位に対して傾きがある場合には、トリミング画像において、基準部位が多少傾くものの、他部位の極端な傾きを避けることができ、バランスが良い。
また、他部位の重要度に応じた程度で基準部位の中心線を傾かせることができるので、被写体の種類、トリミング画像の用途、ユーザの好みなどを反映したトリミング画像を得ることができる。
以下、図面を参照して、本発明の実施形態について説明する。
図1は、本発明の実施形態となるIDカード発行システムの構成を示すブロック図である。なお、本実施形態のIDカード発行システムは、各撮像ポイントにおいて人物の撮像を行って得た顔写真画像(以下略して写真画像という)をIDカード作成センター(その詳細については後述する)に送信し、IDカード作成センターにおいて各撮像ポイントから送信されて来た写真画像に対してトリミング処理を行ってトリミング画像を得、得られたトリミング画像を用いて写真付きIDカードを作成するものであり、そのトリミング処理が、補助記憶装置に読み込まれた処理プログラムをコンピュータ(たとえばパーソナルコンピュータ等)上で実行することにより実現される。また、この処理プログラムは、CD−ROM等の情報記憶媒体に記憶され、もしくはインターネット等のネットワークを介して配布され、コンピュータにインストールされることになる。
図1に示すように、本実施形態のIDカード発行システムは、人物を撮像して写真画像を得る複数の撮像ポイント1と、各撮像ポイント1において得られた顔画像を用いて写真付きIDカードを作成するIDカード作成センター100とを有し、撮像ポイント1とIDカード作成センター100とは、ネットワーク5により接続されており、撮像ポイント1はネットワーク5を介して写真画像をIDカード作成センター100に送信する。
図2は、IDカード作成センター100の構成を示すブロック図である。
図2に示すように、IDカード作成センター100は、写真画像S0を入力する画像入力部10と、画像入力部10により入力された写真画像S0における顔のおおよその位置および大きさを検出し、顔部分の画像(以下顔画像という)S1を得る顔検出部20と、顔画像S1から両目の位置を夫々検出する目検出部30と、顔検出部20および目検出部30に用いられる後述する参照データE1、E2を記憶したデータベース40と、写真画像S0に写った人物の胴体の傾きを検出する胴体傾き検出部50と、目検出部30により検出された両目の位置、胴体傾き検出部50により検出された胴体の傾き、および後述する重要度設定部80により設定された胴体の重要度αに基づいて写真画像S0をトリミングするトリミング中心線を設定するトリミング中心線設定部60と、胴体の重要度αを設定する重要度設定部80と、目検出部30により検出された両目の位置およびトリミング中心線設定部60により設定されたトリミング中心線に基づいてトリミング領域を求めると共に、求められたトリミング領域の画像を切り出してトリミング画像S2を得るトリミング実行部85と、トリミング画像S2に対して必要な拡大縮小処理や、印刷処理などを施して写真付きIDカードPを作成するカード作成部90とを備えてなる。
画像入力部10は、本実施形態のIDカード発行システムの処理対象の写真画像S0を入力するものであり、ここでは、ネットワークを介して送信されてきた写真画像S0を受信する受信部となる。なお、本発明の画像処理方法および装置が対象とする写真画像は、デジタルカメラで撮像して得た写真画像は勿論、紙、プリント用紙などの印刷媒体に印刷(プリントを含む)された画像や、写真フィルムに写った画像などをスキャナなどの光電変換装置によって読み取った写真画像も含むものである。
図3は、図2に示すIDカード作成センター100における顔検出部20の構成を示すブロック図である。図示のように、顔検出部20は、写真画像S0から特徴量C0を算出する第1の特徴量算出部22と、特徴量C0およびデータベース40に記憶された参照データE1とを用いて顔検出を実行する顔検出実行部24とを備えてなる。ここで、データベース40に記憶された参照データE1、顔検出部20の詳細について説明する。
顔検出部20の第1の特徴量算出部22は、顔の識別に用いる特徴量C0を写真画像S0から算出する。具体的には、勾配ベクトル(すなわち写真画像S0上の各画素における濃度が変化する方向および変化の大きさ)を特徴量C0として算出する。以下、勾配ベクトルの算出について説明する。まず、第1の特徴量算出部22は、写真画像S0に対して図6(a)に示す水平方向のエッジ検出フィルタによるフィルタリング処理を施して写真画像S0における水平方向のエッジを検出する。また、第1の特徴量算出部22は、写真画像S0に対して図6(b)に示す垂直方向のエッジ検出フィルタによるフィルタリング処理を施して写真画像S0における垂直方向のエッジを検出する。そして、写真画像S0上の各画素における水平方向のエッジの大きさHおよび垂直方向のエッジの大きさVとから、図7に示すように、各画素における勾配ベクトルKを算出する。
なお、このようにして算出された勾配ベクトルKは、図8(a)に示すような人物の顔の場合、図8(b)に示すように、目および口のように暗い部分においては目および口の中央を向き、鼻のように明るい部分においては鼻の位置から外側を向くものとなる。また、口よりも目の方が濃度の変化が大きいため、勾配ベクトルKは口よりも目の方が大きくなる。
そして、この勾配ベクトルKの方向および大きさを特徴量C0とする。なお、勾配ベクトルKの方向は、勾配ベクトルKの所定方向(例えば図7におけるx方向)を基準とした0から359度の値となる。
ここで、勾配ベクトルKの大きさは正規化される。この正規化は、写真画像S0の全画素における勾配ベクトルKの大きさのヒストグラムを求め、その大きさの分布が写真画像S0の各画素が取り得る値(8ビットであれば0〜255)に均一に分布されるようにヒストグラムを平滑化して勾配ベクトルKの大きさを修正することにより行う。例えば、勾配ベクトルKの大きさが小さく、図9(a)に示すように勾配ベクトルKの大きさが小さい側に偏ってヒストグラムが分布している場合には、大きさが0〜255の全領域に亘るものとなるように勾配ベクトルKの大きさを正規化して図9(b)に示すようにヒストグラムが分布するようにする。なお、演算量を低減するために、図9(c)に示すように、勾配ベクトルKのヒストグラムにおける分布範囲を例えば5分割し、5分割された頻度分布が図9(d)に示すように0〜255の値を5分割した範囲に亘るものとなるように正規化することが好ましい。
データベース40に記憶された参照データE1は、後述するサンプル画像から選択された複数画素の組み合わせからなる複数種類の画素群の夫々について、各画素群を構成する各画素における特徴量C0の組み合わせに対する識別条件を規定したものである。
参照データE1中の、各画素群を構成する各画素における特徴量C0の組み合わせおよび識別条件は、顔であることが分かっている複数のサンプル画像と顔でないことが分かっている複数のサンプル画像とからなるサンプル画像群の学習により、あらかじめ決められたものである。
なお、本実施形態においては、参照データE1を生成する際には、顔であることが分かっているサンプル画像として、30×30画素サイズを有し、図10に示すように、1つの顔の画像について両目の中心間の距離が10画素、9画素および11画素であり、両目の中心間距離において垂直に立った顔を平面上±15度の範囲において3度単位で段階的に回転させた(すなわち、回転角度が−15度,−12度,−9度,−6度,−3度,0度,3度,6度,9度,12度,15度)サンプル画像を用いるものとする。したがって、1つの顔の画像につきサンプル画像は3×11=33通り用意される。なお、図10においては−15度、0度および+15度に回転させたサンプル画像のみを示す。また、回転の中心はサンプル画像の対角線の交点である。ここで、両目の中心間の距離が10画素のサンプル画像であれば、目の中心位置はすべて同一となっている。この目の中心位置をサンプル画像の左上隅を原点とする座標上において(x1,y1)、(x2,y2)とする。また、図面上上下方向における目の位置(すなわちy1,y2)はすべてのサンプル画像において同一である。
また、顔でないことが分かっているサンプル画像としては、30×30画素サイズを有する任意の画像を用いるものとする。
ここで、顔であることが分かっているサンプル画像として、両目の中心間距離が10画素であり、平面上の回転角度が0度(すなわち顔が垂直な状態)のもののみを用いて学習を行った場合、参照データE1を参照して顔であると識別されるのは、両目の中心間距離が10画素で全く回転していない顔のみである。写真画像S0に含まれる可能性がある顔のサイズは一定ではないため、顔が含まれるか否かを識別する際には、後述するように写真画像S0を拡大縮小して、サンプル画像のサイズに適合するサイズの顔の位置を識別できるようにしている。しかしながら、両目の中心間距離を正確に10画素とするためには、写真画像S0のサイズを拡大率として例えば1.1単位で段階的に拡大縮小しつつ識別を行う必要があるため、演算量が膨大なものとなる。
また、写真画像S0に含まれる可能性がある顔は、図12(a)に示すように平面上の回転角度が0度のみではなく、図12(b)、(c)に示すように回転している場合もある。しかしながら、両目の中心間距離が10画素であり、顔の回転角度が0度のサンプル画像のみを使用して学習を行った場合、顔であるにも拘わらず、図12(b)、(c)に示すように回転した顔については識別を行うことができなくなってしまう。
このため、本実施形態においては、顔であることが分かっているサンプル画像として、図10に示すように両目の中心間距離が9,10,11画素であり、各距離において平面上±15度の範囲にて3度単位で段階的に顔を回転させたサンプル画像を用いて、参照データE1の学習に許容度を持たせるようにしたものである。これにより、後述する顔検出実行部24において識別を行う際には、写真画像S0を拡大率として11/9単位で段階的に拡大縮小すればよいため、写真画像S0のサイズを例えば拡大率として例えば1.1単位で段階的に拡大縮小する場合と比較して、演算時間を低減できる。また、図12(b)、(c)に示すように回転している顔も識別することができる。
以下、図13のフローチャートを参照しながらサンプル画像群の学習手法の一例を説明する。
図14を参照しながらある識別器の作成について説明する。図14の左側のサンプル画像に示すように、この識別器を作成するための画素群を構成する各画素は、顔であることが分かっている複数のサンプル画像上における、右目の中心にある画素P1、右側の頬の部分にある画素P2、額の部分にある画素P3および左側の頬の部分にある画素P4である。そして顔であることが分かっているすべてのサンプル画像について全画素P1〜P4における特徴量C0の組み合わせが求められ、そのヒストグラムが作成される。ここで、特徴量C0は勾配ベクトルKの方向および大きさを表すが、勾配ベクトルKの方向は0〜359の360通り、勾配ベクトルKの大きさは0〜255の256通りあるため、これをそのまま用いたのでは、組み合わせの数は1画素につき360×256通りの4画素分、すなわち(360×256)4通りとなってしまい、学習および検出のために多大なサンプルの数、時間およびメモリを要することとなる。このため、本実施形態においては、勾配ベクトルの方向を0〜359を0〜44と315〜359(右方向、値:0),45〜134(上方向値:1),135〜224(左方向、値:2),225〜314(下方向、値3)に4値化し、勾配ベクトルの大きさを3値化(値:0〜2)する。そして、以下の式を用いて組み合わせの値を算出する。
組み合わせの値=0(勾配ベクトルの大きさ=0の場合)
組み合わせの値=((勾配ベクトルの方向+1)×勾配ベクトルの大きさ(勾配ベクトルの大きさ>0の場合)
これにより、組み合わせ数が94通りとなるため、特徴量C0のデータ数を低減できる。
同様に、顔でないことが分かっている複数のサンプル画像についても、ヒストグラムが作成される。なお、顔でないことが分かっているサンプル画像については、顔であることが分かっているサンプル画像上における上記画素P1〜P4の位置に対応する画素が用いられる。これらの2つのヒストグラムが示す頻度値の比の対数値を取ってヒストグラムで表したものが、図14の一番右側に示す、識別器として用いられるヒストグラムである。この識別器のヒストグラムが示す各縦軸の値を、以下、識別ポイントと称する。この識別器によれば、正の識別ポイントに対応する特徴量C0の分布を示す画像は顔である可能性が高く、識別ポイントの絶対値が大きいほどその可能性は高まると言える。逆に、負の識別ポイントに対応する特徴量C0の分布を示す画像は顔でない可能性が高く、やはり識別ポイントの絶対値が大きいほどその可能性は高まる。ステップS2では、識別に使用され得る複数種類の画素群を構成する各画素における特徴量C0の組み合わせについて、上記のヒストグラム形式の複数の識別器が作成される。
続いて、ステップS2で作成した複数の識別器のうち、画像が顔であるか否かを識別するのに最も有効な識別器が選択される。最も有効な識別器の選択は、各サンプル画像の重みを考慮して行われる。この例では、各識別器の重み付き正答率が比較され、最も高い重み付き正答率を示す識別器が選択される(S3)。すなわち、最初のステップS3では、各サンプル画像の重みは等しく1であるので、単純にその識別器によって画像が顔であるか否かが正しく識別されるサンプル画像の数が最も多いものが、最も有効な識別器として選択される。一方、後述するステップS5において各サンプル画像の重みが更新された後の2回目のステップS3では、重みが1のサンプル画像、重みが1よりも大きいサンプル画像、および重みが1よりも小さいサンプル画像が混在しており、重みが1よりも大きいサンプル画像は、正答率の評価において、重みが1のサンプル画像よりも重みが大きい分多くカウントされる。これにより、2回目以降のステップS3では、重みが小さいサンプル画像よりも、重みが大きいサンプル画像が正しく識別されることに、より重点が置かれる。
次に、それまでに選択した識別器の組み合わせの正答率、すなわち、それまでに選択した識別器を組み合わせて使用して各サンプル画像が顔の画像であるか否かを識別した結果が、実際に顔の画像であるか否かの答えと一致する率が、所定の閾値を超えたか否かが確かめられる(S4)。ここで、組み合わせの正答率の評価に用いられるのは、現在の重みが付けられたサンプル画像群でも、重みが等しくされたサンプル画像群でもよい。所定の閾値を超えた場合は、それまでに選択した識別器を用いれば画像が顔であるか否かを十分に高い確率で識別できるため、学習は終了する。所定の閾値以下である場合は、それまでに選択した識別器と組み合わせて用いるための追加の識別器を選択するために、ステップS6へと進む。
ステップS6では、直近のステップS3で選択された識別器が再び選択されないようにするため、その識別器が除外される。
次に、直近のステップS3で選択された識別器では顔であるか否かを正しく識別できなかったサンプル画像の重みが大きくされ、画像が顔であるか否かを正しく識別できたサンプル画像の重みが小さくされる(S5)。このように重みを大小させる理由は、次の識別器の選択において、既に選択された識別器では正しく識別できなかった画像を重要視し、それらの画像が顔であるか否かを正しく識別できる識別器が選択されるようにして、識別器の組み合わせの効果を高めるためである。
続いて、ステップS3へと戻り、上記したように重み付き正答率を基準にして次に有効な識別器が選択される。
以上のステップS3からS6を繰り返して、顔が含まれるか否かを識別するのに適した識別器として、特定の画素群を構成する各画素における特徴量C0の組み合わせに対応する識別器が選択されたところで、ステップS4で確認される正答率が閾値を超えたとすると、顔が含まれるか否かの識別に用いる識別器の種類と識別条件とが確定され(S7)、これにより参照データE1の学習を終了する。
なお、上記の学習手法を採用する場合において、識別器は、特定の画素群を構成する各画素における特徴量C0の組み合わせを用いて顔の画像と顔でない画像とを識別する基準を提供するものであれば、上記のヒストグラムの形式のものに限られずいかなるものであってもよく、例えば2値データ、閾値または関数等であってもよい。また、同じヒストグラムの形式であっても、図14の中央に示した2つのヒストグラムの差分値の分布を示すヒストグラム等を用いてもよい。
また、学習の方法としては上記手法に限定されるものではなく、ニューラルネットワーク等他のマシンラーニングの手法を用いることができる。
顔検出実行部24は、複数種類の画素群を構成する各画素における特徴量C0の組み合わせのすべてについて参照データE1が学習した識別条件を参照して、各々の画素群を構成する各画素における特徴量C0の組み合わせについての識別ポイントを求め、すべての識別ポイントを総合して顔を検出する。この際、特徴量C0である勾配ベクトルKの方向は4値化され大きさは3値化される。本実施形態では、すべての識別ポイントを加算して、その加算値の正負および大小によって顔を検出する。例えば、識別ポイントの総和が正の値である場合、顔であると判断し、負の値である場合には顔ではないと判断する。
ここで、写真画像S0のサイズは30×30画素のサンプル画像とは異なり、各種サイズを有するものとなっている可能性がある。また、顔が含まれる場合、平面上における顔の回転角度が0度であるとは限らない。このため、顔検出実行部24は、図15に示すように、写真画像S0を縦または横のサイズが30画素となるまで段階的に拡大縮小するとともに平面上で段階的に360度回転させつつ(図15においては縮小する状態を示す)、各段階において拡大縮小された写真画像S0上に30×30画素サイズのマスクMを設定し、マスクMを拡大縮小された写真画像S0上において1画素ずつ移動させながら、マスク内の画像が顔の画像であるか否か(すなわち、マスク内の画像に対して得られた識別ポイントの加算値が正か負か)の識別を行う。そして、この識別を拡大縮小および回転の全段階の写真画像S0について行い、識別ポイントの加算値が最も高い正の値が得られた段階におけるサイズおよび回転角度の写真画像S0から、識別されたマスクMの位置に対応する30×30画素の領域を顔領域として検出すると共に、この領域の画像を顔画像S1として写真画像S0から抽出する。
なお、参照データE1の生成時に学習したサンプル画像として両目の中心位置の画素数が9,10,11画素のものを使用しているため、写真画像S0を拡大縮小する時の拡大率は11/9とすればよい。また、参照データE1の生成時に学習したサンプル画像として、顔が平面上で±15度の範囲において回転させたものを使用しているため、写真画像S0は30度単位で360度回転させればよい。
なお、第1の特徴量算出部22は、写真画像S0の拡大縮小および回転という変形の各段階において特徴量C0を算出している。
顔検出部20は、このようにして写真画像S0からおおよその顔の位置および大きさを検出して、顔画像S1を得る。
目検出部30は、顔検出部20により得られた顔画像S1から両目の位置を検出するものであり、図4は、その構成を示すブロック図である。図示のように、目検出部30は、顔画像S1から特徴量C0を算出する第2の特徴量算出部32と、特徴量C0およびデータベース40に記憶された参照データE2に基づいて目の位置の検出を実行する目検出実行部34とを備えてなる。本実施形態において、目検出実行部34により識別される目の位置とは、顔における目尻から目頭の間の中心位置(図5中×で示す)であり、図5(a)に示すように真正面を向いた目の場合においては瞳の中心位置と同様であるが、図5(b)に示すように右を向いた目の場合は瞳の中心位置ではなく、瞳の中心から外れた位置または白目部分に位置する。
目検出部30における第2の特徴量算出部32は、写真画像S0ではなく、顔画像S1から特徴量C0を算出する点を除いて、図3に示す顔検出部20における第1の特徴量算出部22と同じであるため、ここで、その詳細な説明を省略する。
データベース40に記憶された第2の参照データE2は、第1の参照データE1と同じように、後述するサンプル画像から選択された複数画素の組み合わせからなる複数種類の画素群のそれぞれについて、各画素群を構成する各画素における特徴量C0の組み合わせに対する識別条件を規定したものである。
ここで、第2の参照データE2の学習には、図11に示すように両目の中心間距離が9.7,10,10.3画素であり、各距離において平面上±3度の範囲にて1度単位で段階的に顔を回転させたサンプル画像を用いている。そのため、第1の参照データE1と比較して学習の許容度は小さく、精確に目の位置を検出することができる。なお、第2の参照データE2を得るための学習は、用いられるサンプル画像群が異なる点を除いて、第1の参照データE1を得るための学習と同じであるので、ここでその詳細な説明を省略する。
目検出実行部34は、顔検出部20により得られた顔画像S1上において、複数種類の画素群を構成する各画素における特徴量C0の組み合わせのすべてについて第2の参照データE2が学習した識別条件を参照して、各々の画素群を構成する各画素における特徴量C0の組み合わせについての識別ポイントを求め、すべての識別ポイントを総合して顔に含まれる目の位置を識別する。この際、特徴量C0である勾配ベクトルKの方向は4値化され大きさは3値化される。
ここで、目検出実行部34は、顔検出部20により得られた顔画像S1のサイズを段階的に拡大縮小するとともに平面上で段階的に360度回転させつつ、各段階において拡大縮小された顔画像上に30×30画素サイズのマスクMを設定し、マスクMを拡大縮小された顔上において1画素ずつ移動させながら、マスク内の画像における目の位置の検出を行う。
なお、第2参照データE2の生成時に学習したサンプル画像として両目の中心位置の画素数が9.07,10,10.3画素のものを使用しているため、顔画像S1の拡大縮小時の拡大率は10.3/9.7とすればよい。また、第2の参照データE2の生成時に学習したサンプル画像として、顔が平面上で±3度の範囲において回転させたものを使用しているため、顔画像は6度単位で360度回転させればよい。
なお、第2の特徴量算出部32は、顔画像S1の拡大縮小および回転という変形の各段階において特徴量C0を算出する。
そして、本実施形態では、顔画像S1の変形の全段階においてすべての識別ポイントを加算し、加算値が最も大きい変形の段階における30×30画素のマスクM内の画像において、左上隅を原点とする座標を設定し、サンプル画像における目の位置の座標(x1,y1)、(x2,y2)に対応する位置を求め、変形前の顔画像S1におけるこの位置に対応する位置を目の位置として検出する。
目検出部30は、このようにして、顔検出部20により得られた顔画像S1から両目の位置を夫々検出する。
IDカード作成センター100の胴体傾き検出部50は、目検出部30により検出された両目の位置に基づいて、写真画像S0に写った上半身の胴体部分が顔に対する傾きを検出するものであり、図16は、その構成を示すブロック図である。図示のように、胴体傾き検出部50は、肩検出範囲設定部52と、エッジ検出部54と、肩ライン取得部56と、傾き算出部58とを備えてなるものであり、ここで胴体傾き検出部50の各構成の詳細について説明する。
肩検出範囲設定部52は、図17に示すように、顔枠推定部52aと、肩範囲推定部52bとを備えてなるものである。顔枠推定部52aは、目検出部30により検出された両目の位置(図中A1、A2)に基づいて、両目間の距離D(両目の夫々の位置間の距離)を算出し、算出された両目間の距離Dに基づいて、下記の式(1)にしたがって顔の外接枠(図18の例に示す点線枠)を推定する。

La=D×Ua
Lb=D×Ub (1)
Lc=D×Uc
Ua=3.250
Ub=1.905
Uc=2.170

ここで、La、Lb、Lcは図18に示すように、夫々顔写真画像S0における両目間の中心位置を横方向の中心とする顔枠の横幅、中心位置から顔枠の上辺までの距離、中心位置から顔枠の下辺までの距離である。なお、係数Ua、Ub、Ucは、多数のサンプル画像を用いて求められた経験値であり、図示しない記憶部に記憶されている。
肩範囲推定部52bは、顔枠推定部52aにより推定された顔枠に基づいて肩を検出する範囲、すなわち肩の存在可能な範囲(以下略して肩範囲という)を推定するものであり、本実施形態においては、下記のように推定する。まず、肩範囲推定部52bは、両目を結ぶ直線と垂直し、かつ両目間の中心点を通る直線(以下顔中心線という)Mを求める。そして、顔枠と隣接し、かつ顔中心線Mを右辺の一部とする、幅が(1.5×La)であり、高さが(La+Lb)である領域WLと、領域WLの右辺を左辺とし、領域WLと同じ大きさの領域WR(図18に示す斜線部分)とを夫々左肩範囲と右肩範囲として推定する。なお、ここで、「左肩」と「右肩」とは、写真画像S0を観察する側から見た左側の肩と右側の肩を意味する。
肩検出範囲設定部52は、肩範囲推定部52bにより推定された肩範囲WLとWRとの位置および大きさを示す情報をエッジ検出部54に出力する。
エッジ検出部54は、肩検出範囲設定部52により設定された肩範囲WLとWRとに対して、夫々縦方向(図18に示す顔中心線Mの伸びる方向)においてエッジ検出処理を行うと共に、所定の閾値以下の強度のエッジを除去して図19における太線により示される輪郭線、すなわち肩の輪郭線を検出する。エッジ検出部54は、この2つの輪郭線の各々の画素の位置を示す情報を肩ライン取得部56に出力する。
肩ライン取得部56は、2つの輪郭線に対して夫々最小2乗法による直線近似処理を行い、図19の細線により示される2本の直線N1、N2を夫々左肩ライン、右肩ラインとして取得する。
傾き算出部58は、肩ライン取得部56により取得された肩ラインを示す直線に基づいて上半身の胴体部分が顔部分に対する傾きを算出するものである。具体的には、傾き算出部58は、まず、肩ラインN1とN2との交点Bを求めると共に、交点Bにおいて、夫々の肩ラインが、顔中心線Mと平行する直線Maと成す角度K1、K2を求める。写真画像において、上半身の胴体部分が傾いていなければ、角度K1とK2とが同じであるはずなので、傾き算出部58は、角度K1とK2との差に基づいて胴体部分の傾きを求める。なお、「胴体部分の傾き」とは、胴体部分と顔との相対的な傾きを意味し、撮像時に胴体が傾いたことに起因する傾きは勿論、顔が傾いたことに起因する傾きも含むものである。
傾き算出部58は、角度K1とK2との差(K1−K2)を求め、この差の絶対値の1/2を胴体の傾きの度合いとして算出すると共に、(K1−K2)が正か負かに基づいて傾きの方向を求める。具体的には、(K1−K2)が正であるとき(すなわち、K1>K2のとき)には時計回り方向であり、(K1−K2)が負であるとき(すなわち、K1<K2のとき)には時計回り方向の逆方向であるように胴体の傾きの方向を求める。なお、図19に示す例では、胴体の傾きの方向は時計回り方向となる。
胴体傾き検出部50は、このようにして得られた胴体の傾きの度合いおよび方向をトリミング中心線設定部60に出力する。
図20は、トリミング中心線設定部60の構成を示すブロック図であり、図示のように、トリミング中心線設定部60は、基準中心線を算出する基準中心線算出部62と、基準中心線を補正してトリミング中心線を得る中心線補正部64とを備えてなる。
本実施形態のIDカード発行システムは、写真付きのIDカードを作成して発行するものであるため、ここで、基準中心線算出部62は、図21(a)に示すような顔中心線Mを基準中心線として算出する。なお、顔中心線Mは、両目の位置を結ぶ直線と垂直し、かつ両目間の中心点Pmを通る直線であり、ここで、目検出部30により検出された両目の位置に基づいて新たに求めるようにしてもよいし、肩範囲推定部52bが肩範囲を推定するときに既に算出した顔中心線Mをそのまま用いるようにしてもよい。
従来のトリミング処理方法では、顔中心線をトリミング中心線とし、トリミング中心線に対して左右対称の領域を切り出してトリミング画像を得るため、図21(a)に示すような、胴体部分が顔に対して傾いた状態で撮像した写真画像の場合、トリミング画像(図21(c)における点線枠部分の画像)は、胴体部分の傾きが眼立ち、バランスが良くない。
そこで、本実施形態のIDカード発行システムにおけるIDカード作成センター100のトリミング中心線設定部60は、中心線補正部64により、胴体傾き検出部50により検出された胴体部分の傾き、および重要度設定部80により設定された胴体の重要度αに応じて顔中心線Mを補正して図21(b)に示すトリミング中心線M’を得る。具体的には、両目間の中心点Pmを軸点にして、胴体の傾きの方向(図示の例では、時計回り方向)と同じ方向に顔中心線Mを回転させて得た線をトリミング中心線M’とする。なお、顔中心線Mを回転させる角度Kは、下記の式(2)にしたがって算出される。

K=α×|(K1−K2)|/2 (2)
(0≦α≦1)
但し,K:回転角度
K1,K2:肩ラインが顔中心線と成す角度
α:重要度

また、本実施形態において、重要度設定部80は、胴体が顔に対する相対的な重要度、すなわち、トリミング中心線を決定する上で、胴体の傾きに応じて顔中心線を補正する程度をユーザに入力させる図示しない入力手段を備え、該入力手段を介してユーザが入力された重要度を0から1の値に変換してトリミング中心線設定部60に供するものである。
なお、重要度設定部80がユーザに提供するGUI(グラフィック・ユーザ・インターフェース)としては、重要度αを入力することができればいかなるものであってもよい。例えば、モニタなどの表示手段にスライドバーを設け、スライドバー上のポイントをマウスなどで移動させることによって重要度の入力をさせるようにすることができる。なお、ユーザによる入力が無い場合は、デフォルトの重要度(α=0)が入力されたこととする。この場合、胴体の傾きに応じた補正をしない。
トリミング中心線設定部60は、中心線補正部64により顔中心線Mを補正して得たトリミング中心線M’を示す情報をトリミング実行部85に出力し、トリミング実行部85は、トリミング中心線M’に基づいて、トリミング中心線M’を中心にして左右対称するトリミング領域(図21(c)に示す点線枠)を設定すると共に、設定されたトリミング領域の画像を切り出してトリミング画像S2を得る。
カード作成部90は、トリミング画像S2に対して必要な拡大縮小処理を行うと共に、処理後の画像をIDカードに印刷して、写真付きIDカードPを得る。
図22は、図1に示す実施形態のIDカード発行システムにおけるIDカード作成センター100における処理を示すフローチャートである。図示のように、IDカード作成センター100は、画像入力部10により写真画像S0を入力すると、顔検出部20は、写真画像S0に対して顔を検出する処理を行って顔画像S1を得る(S10)。目検出部30は、顔画像S1から両目の位置を検出し(S15)、胴体傾き検出部50は、検出された両目の位置に基づいて肩を検出する範囲の設定、両肩の検出、肩ラインの算出などを行うと共に、この肩ラインに基づいて胴体の傾き(傾きの度合いおよび方向)を算出する(S20)。トリミング中心線設定部60は、顔中心線Mを取得すると共に、重要度設定部80により設定された胴体の重要度αと、胴体の傾きとに基づいて顔中心線Mを補正してトリミング中心線M’を得る(S25、S30、S35)。トリミング実行部85は、トリミング中心線設定部60により得られたトリミング中心線M’を中心に左右対称するトリミング領域を設定し、このトリミング領域内の画像を切り出してトリミング画像S2を得る(S40)。カード作成部90は、トリミング画像S2に対して必要な拡大縮小処理を行って、処理後のトリミング画像をIDカードに印刷して写真付きIDカードを作成する(S45)。
このように、本発明の実施形態のIDカード発行システムによれば、基準部位となる顔の中心線を、胴体の傾きに応じて補正してトリミング中心線を得るようにしているので、胴体が顔に対して傾きが無い場合には、顔も胴体も傾かずにトリミング画像を得ることができると共に、胴体が顔に対して傾きがある場合には、トリミング画像において、顔が多少傾くものの、胴体の極端な傾きを避けることができ、バランスが良い。
また、胴体の重要度に応じた程度で顔の中心線を補正しているので、ユーザの好みなどを反映したトリミング画像を得ることができる。
以上、本発明の望ましい実施形態について説明したが、本発明の画像処理方法および装置並びにそのためのプログラムは、上述した実施形態に限られることがなく、本発明の主旨を逸脱しない限り、様々な増減、変化を加えることができる。
例えば、上述した実施形態において、両目間の中心点を通り、かつ両目を結んだ直線と直交する直線を顔の中心線として取得しているが、例えば特許文献1に記載されたように、両目間の中心点、鼻の中心点、口の中心点を取得し、これらの中心点を結ぶ直線を顔中心線としてもよい。
また、顔の検出方法、目の検出方法、肩の検出方法も、上述した実施形態に限られたものではなく、夫々の目的を達成することができれば行かなる方法であってもよい。さらに、ユーザに指定させるようにしてもよい。
また、胴体の傾きの検出も、肩ラインを検出することによって得られる方法に限られるものではない。
また、顔中心線を補正してトリミング中心線を得る際の具体的な手法も、結果として顔中心線が補正されていればよく、上述のような直接に顔中心線を補正する手法に限られるものではない。例えば、両肩の両肩の夫々の外端点を取得し、両目間の中心点を通り、かつこの2つの外端点を結ぶ直線と直交する直線を第1の直線とし、顔中心線を第2の直線とし、両目間の中心点において第1の直線と第2の直線と交差し、かつ第1の直線と第2の直線の内側にはさまれる直線をトリミング中心線として得るようにしてもよい。この場合、胴体の重要度に応じて、重要度が高いほど第1の直線側に寄るようにトリミング中心線の傾きを決めればよい。
また、上述した実施形態において、顔中心線を補正する際に、両目間の中心点を回転中心にして顔中心線を回転させるようにしているが、顔の中心、上半身の中心を回転の中心としてもよく、さらに、自動写真ボックスのように椅子の高さから腰の位置が分かる場合には、腰の中心を回転の中心としてもよい。
また、本実施形態のIDカード発行システムは、処理対象が例として証明写真画像であるため、被写体を構成する部位が胴体と顔のみであるが、本発明の画像処理方法および装置は、3つ以上の部位から構成された被写体の写真画像のトリミング処理に適用することができ、被写体の種類も人物に限られたものではない。
本発明の実施形態となるIDカード発行システムの構成を示すブロック図 図1に示す実施形態におけるIDカード作成センター100の構成を示すブロック図 図2に示すIDカード作成センター100における顔検出部20の構成を示すブロック図 図2に示すIDカード作成センター100における目検出部30の構成を示すブロック図 目の位置を説明するための図 (a)は水平方向のエッジ検出フィルタを示す図、(b)は垂直方向のエッジ検出フィルタを示す図 勾配ベクトルの算出を説明するための図 (a)は人物の顔を示す図、(b)は(a)に示す人物の顔の目および口付近の勾配ベクトルを示す図 (a)は正規化前の勾配ベクトルの大きさのヒストグラムを示す図、(b)は正規化後の勾配ベクトルの大きさのヒストグラムを示す図、(c)は5値化した勾配ベクトルの大きさのヒストグラムを示す図、(d)は正規化後の5値化した勾配ベクトルの大きさのヒストグラムを示す図 参照データE1の学習に用いられる顔であることが分かっているサンプル画像の例を示す図 参照データE2の学習に用いられる顔であることが分かっているサンプル画像の例を示す図 顔の回転を説明するための図 参照データの学習手法を示すフローチャート 識別器の導出方法を示す図 識別対象画像の段階的な変形を説明するための図 図2に示すIDカード作成センター100における胴体傾き検出部50の構成を示すブロック図 図16に示す胴体傾き検出部50における肩検出範囲設定部52の構成を示すブロック図 図17に示す肩検出範囲設定部52の動作を説明するための図 図16に示す胴体傾き検出部50における傾き算出部58の動作を説明するための図 図2に示すIDカード作成センター100におけるトリミング中心線設定部60の構成を示すブロック図 写真画像およびトリミング画像の例を示す図 図2に示すIDカード作成センター100における処理を示すフローチャート
符号の説明
1 撮像ポイント
5 ネットワーク
10 画像入力部
20 顔検出部
22 第1の特徴量算出部
24 顔検出実行部24
30 目検出部
32 第2の特徴量算出部
34 目検出実行部
40 データベース
50 胴体傾き検出部
52 肩検出範囲設定部
52a 顔枠推定部
52b 肩範囲推定部
54 エッジ検出部
56 肩ライン取得部
58 傾き算出部
60 トリミング中心線設定部
62 基準中心線算出部
64 中心線補正部
80 重要度設定部
85 トリミング実行部
90 カード作成部
100 IDカード作成センター
S0 写真画像
S1 顔画像
S2 トリミング画像
E1,E2 特徴量
M 顔中心線
M’ トリミング中心線
α 重要度

Claims (11)

  1. 基準部位と、傾かない状態において該基準部位の中心線と同じ中心線を有し、かつ前記基準部位の中心線の伸びる方向に沿って前記基準部位と並ぶ1つ以上の他部位とからなる被写体を撮像して得た写真画像に対して、前記基準部位の中心線と所定の角度を成すトリミング中心線で前記基準部位および前記他部位の一部または全部を含む領域を切り出すトリミング処理を行ってトリミング画像を得る画像処理方法において、
    前記写真画像から、前記基準部位の中心線を取得すると共に、該写真画像の撮像時において各前記他部位の傾きの度合いおよび方向を検出し、
    検出された各前記他部位の傾き度合いに基づいて該傾きの度合いが大きいほど前記トリミング中心線が該傾きの方向に大きく傾くように前記所定の角度を決定し、
    決定された前記所定の角度のトリミング中心線で前記トリミング処理を行うことを特徴とする画像処理方法。
  2. 前記他部位の夫々の重要度を取得し、
    該重要度が大きいほど大きくなるように前記所定の角度を決定することを特徴とする請求項1記載の画像処理方法。
  3. 前記被写体が、人物の上半身であり、
    前記基準部位が、前記上半身における顔部位であり、
    前記他部位が、前記上半身における胴体部位であることを特徴とする請求項1または2記載の画像処理方法。
  4. 基準部位と、傾かない状態において該基準部位の中心線と同じ中心線を有し、かつ前記基準部位の中心線の伸びる方向に沿って前記基準部位と並ぶ1つ以上の他部位とからなる被写体を撮像して得た写真画像に対して、前記基準部位の中心線と所定の角度を成すトリミング中心線で前記基準部位および前記他部位の一部または全部を含む領域を切り出すトリミング処理を行ってトリミング画像を得る画像処理装置であって、
    前記写真画像から、前記基準部位の中心線を取得する基準部位中心線取得手段と、
    前記写真画像から、該写真画像の撮像時において各前記他部位の傾きの度合いおよび方向を検出する傾き検出手段と、
    検出された各前記他部位の傾き度合いに基づいて該傾きの度合いが大きいほど前記トリミング中心線が該傾きの方向に大きく傾くように前記所定の角度を決定するトリミング角度決定手段と、
    決定された前記所定の角度のトリミング中心線で前記トリミング処理を行うトリミング手段とを有してなることを特徴とする画像処理装置。
  5. 前記他部位の夫々の重要度を取得する重要度取得手段をさらに備え、
    前記トリミング角度決定手段が、前記他部位の前記重要度が大きいほど大きくなるように前記所定の角度を決定するものであることを特徴とする請求項4記載の画像処理装置。
  6. 前記被写体が、人物の上半身であり、
    前記基準部位が、前記上半身における顔部位であり、
    前記他部位が、前記上半身における胴体部位であることを特徴とする請求項4または5記載の画像処理装置。
  7. 前記基準部位中心線取得手段が、前記顔部位における両目の位置を取得し、該両目の位置に基づいて、前記両目の中間点を通り、かつ前記両目を結んだ線と垂直する線を前記基準部位中心線として求めるものであることを特徴とする請求項6記載の画像処理装置。
  8. 前記傾き検出手段が、前記胴体部位に含まれる両肩の傾斜度を夫々検出し、検出された前記両肩の傾斜度の差に基づいて前記胴体部位の傾きの度合いおよび方向を求めるものであることを特徴とする請求項6または7記載の画像処理装置。
  9. 基準部位と、傾かない状態において該基準部位の中心線と同じ中心線を有し、かつ前記基準部位の中心線の伸びる方向に沿って前記基準部位と並ぶ1つ以上の他部位とからなる被写体を撮像して得た写真画像に対して、前記基準部位の中心線と所定の角度を成すトリミング中心線で前記基準部位および前記他部位の一部または全部を含む領域を切り出すトリミング処理を行ってトリミング画像を得る画像処理をコンピュータに実行させるプログラムであって、
    前記画像処理が、前記写真画像から、前記基準部位の中心線を取得すると共に、該写真画像の撮像時において各前記他部位の傾きの度合いおよび方向を検出する処理と、
    検出された各前記他部位の傾き度合いに基づいて該傾きの度合いが大きいほど前記トリミング中心線が該傾きの方向に大きく傾くように前記所定の角度を決定するトリミング角度決定処理と、
    決定された前記所定の角度のトリミング中心線で前記トリミング処理を実行する処理とからなることを特徴とするプログラム。
  10. 前記他部位の夫々の重要度を取得する処理をさらにコンピュータに実行させ、
    前記トリミング角度決定処理が、前記他部位の前記重要度が大きいほど大きくなるように前記所定の角度を決定する処理であることを特徴とする請求項9記載のプログラム。
  11. 前記被写体が、人物の上半身であり、
    前記基準部位が、前記上半身における顔部位であり、
    前記他部位が、前記上半身における胴体部位であることを特徴とする請求項9または10記載のプログラム。
JP2004326334A 2004-11-10 2004-11-10 画像処理方法および装置並びにプログラム Expired - Fee Related JP4647289B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004326334A JP4647289B2 (ja) 2004-11-10 2004-11-10 画像処理方法および装置並びにプログラム
US11/270,503 US7848545B2 (en) 2004-11-10 2005-11-10 Method of and system for image processing and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004326334A JP4647289B2 (ja) 2004-11-10 2004-11-10 画像処理方法および装置並びにプログラム

Publications (2)

Publication Number Publication Date
JP2006139369A true JP2006139369A (ja) 2006-06-01
JP4647289B2 JP4647289B2 (ja) 2011-03-09

Family

ID=36315995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004326334A Expired - Fee Related JP4647289B2 (ja) 2004-11-10 2004-11-10 画像処理方法および装置並びにプログラム

Country Status (2)

Country Link
US (1) US7848545B2 (ja)
JP (1) JP4647289B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027355A (ja) * 2006-07-25 2008-02-07 Fujifilm Corp 画像表示装置、撮影装置、画像表示方法およびプログラム
WO2009078701A2 (en) * 2007-12-14 2009-06-25 Mimos Berhad A multiple object symmetry axis extractor
JP2009237614A (ja) * 2008-03-25 2009-10-15 Seiko Epson Corp 対象画像における顔の画像に対応する顔領域の設定
JP2009237613A (ja) * 2008-03-25 2009-10-15 Seiko Epson Corp 対象画像からの顔の画像に対応する顔領域の検出
JP2010170275A (ja) * 2009-01-21 2010-08-05 Secom Co Ltd 取引監視装置
JP2014092886A (ja) * 2012-11-01 2014-05-19 Fujitsu Ltd 画像処理装置、プログラム、及び方法
JP2019101536A (ja) * 2017-11-29 2019-06-24 辰巳電子工業株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4624947B2 (ja) * 2006-03-22 2011-02-02 富士フイルム株式会社 画像のトリミング方法および装置並びにプログラム
US7706579B2 (en) * 2006-12-21 2010-04-27 Sony Ericsson Communications Ab Image orientation for display
JP2009188697A (ja) 2008-02-06 2009-08-20 Fujifilm Corp 多焦点カメラ装置、それに用いられる画像処理方法およびプログラム
JP2009237976A (ja) * 2008-03-27 2009-10-15 Seiko Epson Corp 顔画像出力制御装置、顔画像出力制御方法、顔画像出力制御プログラムおよび印刷装置
US20110054295A1 (en) * 2009-08-25 2011-03-03 Fujifilm Corporation Medical image diagnostic apparatus and method using a liver function angiographic image, and computer readable recording medium on which is recorded a program therefor
TWI477246B (zh) * 2010-03-26 2015-03-21 Hon Hai Prec Ind Co Ltd 化妝鏡調整系統、方法及具有該調整系統的化妝鏡
JP2012068948A (ja) * 2010-09-24 2012-04-05 Renesas Electronics Corp 顔属性推定装置およびその方法
JP5312701B1 (ja) * 2013-02-08 2013-10-09 三三株式会社 名刺管理サーバ、名刺画像取得装置、名刺管理方法、名刺画像取得方法、およびプログラム
CN106296596B (zh) * 2016-07-27 2019-05-21 扬州大学 基于点对邻域正交化算法的对称特征化石三维模型局部变形恢复方法
WO2019216593A1 (en) 2018-05-11 2019-11-14 Samsung Electronics Co., Ltd. Method and apparatus for pose processing
CN110248037B (zh) * 2019-05-30 2022-01-07 苏宁金融服务(上海)有限公司 一种身份证件扫描方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003092726A (ja) * 2001-09-18 2003-03-28 Ricoh Co Ltd 撮像装置
JP2003319169A (ja) * 2002-04-26 2003-11-07 Fuji Photo Film Co Ltd 画像処理方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6606458B2 (en) * 2001-09-05 2003-08-12 Nisca Corporation Automatic framing camera
US7298412B2 (en) * 2001-09-18 2007-11-20 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003092726A (ja) * 2001-09-18 2003-03-28 Ricoh Co Ltd 撮像装置
JP2003319169A (ja) * 2002-04-26 2003-11-07 Fuji Photo Film Co Ltd 画像処理方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027355A (ja) * 2006-07-25 2008-02-07 Fujifilm Corp 画像表示装置、撮影装置、画像表示方法およびプログラム
JP4683228B2 (ja) * 2006-07-25 2011-05-18 富士フイルム株式会社 画像表示装置、撮影装置、画像表示方法およびプログラム
WO2009078701A2 (en) * 2007-12-14 2009-06-25 Mimos Berhad A multiple object symmetry axis extractor
WO2009078701A3 (en) * 2007-12-14 2009-10-15 Mimos Berhad A multiple object symmetry axis extractor
JP2009237614A (ja) * 2008-03-25 2009-10-15 Seiko Epson Corp 対象画像における顔の画像に対応する顔領域の設定
JP2009237613A (ja) * 2008-03-25 2009-10-15 Seiko Epson Corp 対象画像からの顔の画像に対応する顔領域の検出
JP2010170275A (ja) * 2009-01-21 2010-08-05 Secom Co Ltd 取引監視装置
JP2014092886A (ja) * 2012-11-01 2014-05-19 Fujitsu Ltd 画像処理装置、プログラム、及び方法
JP2019101536A (ja) * 2017-11-29 2019-06-24 辰巳電子工業株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP7085722B2 (ja) 2017-11-29 2022-06-17 辰巳電子工業株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Also Published As

Publication number Publication date
US7848545B2 (en) 2010-12-07
JP4647289B2 (ja) 2011-03-09
US20060098256A1 (en) 2006-05-11

Similar Documents

Publication Publication Date Title
JP4647289B2 (ja) 画像処理方法および装置並びにプログラム
US7542591B2 (en) Target object detecting method, apparatus, and program
US8577099B2 (en) Method, apparatus, and program for detecting facial characteristic points
US7720302B2 (en) Method, apparatus and program for image processing
US7809173B2 (en) Face detection method, apparatus, and program
JP5256806B2 (ja) 目標画像検出方法及び画像検出装置
US20050196069A1 (en) Method, apparatus, and program for trimming images
US7848588B2 (en) Method and apparatus for judging direction of blur and computer-readable recording medium storing a program therefor
US20070189584A1 (en) Specific expression face detection method, and imaging control method, apparatus and program
US20050117802A1 (en) Image processing method, apparatus, and program
US20060082849A1 (en) Image processing apparatus
US20030161506A1 (en) Face detection computer program product for redeye correction
JP2007272685A (ja) 自動トリミング方法および装置ならびにプログラム
JP4515208B2 (ja) 画像処理方法および装置並びにプログラム
JP4619762B2 (ja) 画像処理方法および装置並びにプログラム
JP2005084980A (ja) 顔画像付きカード用データ生成装置および方法並びにプログラム
JP4690190B2 (ja) 画像処理方法および装置並びにプログラム
JP2005122688A (ja) 画像処理方法および装置並びにプログラム
JP2005332382A (ja) 画像処理方法および装置並びにプログラム
JP4685966B2 (ja) 画像処理方法および装置並びにプログラム
JP2005108207A (ja) 画像処理方法および装置並びにプログラム
JP2005244571A (ja) トリミング処理方法および装置並びにプログラム
JP2006133824A (ja) 画像処理方法および装置並びにプログラム
JP2005250773A (ja) 対象物識別装置および方法並びにプログラム
JP2005242641A (ja) トリミング用データ作成方法およびトリミング用データおよびトリミング処理システム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100713

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101116

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101208

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131217

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4647289

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees