JP5127592B2 - 画像処理装置および画像処理方法、プログラム並びに、コンピュータ読み取り可能な記録媒体 - Google Patents

画像処理装置および画像処理方法、プログラム並びに、コンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
JP5127592B2
JP5127592B2 JP2008166254A JP2008166254A JP5127592B2 JP 5127592 B2 JP5127592 B2 JP 5127592B2 JP 2008166254 A JP2008166254 A JP 2008166254A JP 2008166254 A JP2008166254 A JP 2008166254A JP 5127592 B2 JP5127592 B2 JP 5127592B2
Authority
JP
Japan
Prior art keywords
main subject
image processing
area
image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008166254A
Other languages
English (en)
Other versions
JP2010010938A5 (ja
JP2010010938A (ja
Inventor
信二郎 堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008166254A priority Critical patent/JP5127592B2/ja
Priority to US12/485,571 priority patent/US8374439B2/en
Publication of JP2010010938A publication Critical patent/JP2010010938A/ja
Publication of JP2010010938A5 publication Critical patent/JP2010010938A5/ja
Application granted granted Critical
Publication of JP5127592B2 publication Critical patent/JP5127592B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00132Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture in a digital photofinishing system, i.e. a system where digital photographic images undergo typical photofinishing processing, e.g. printing ordering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00132Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture in a digital photofinishing system, i.e. a system where digital photographic images undergo typical photofinishing processing, e.g. printing ordering
    • H04N1/00167Processing or editing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像データを適切に補正する画像処理装置及び画像処理方法、プログラム、並びに、コンピュータ読み取り可能な記録媒体に関する。詳細には、主要被写体を検出して画像データを補正し、補正された画像から再度主要被写体を検出して異なる画像補正を行う画像処理装置、画像処理方法、および記録媒体に関する。
近年、画像の入力装置や画像処理装置で、画像の入力時や印刷時に画像を解析して補正を行うことが多くなってきた。ここで、入力装置とは、例えば、画像を撮影するデジタルカメラであり、画像処理装置とは、例えば、入力装置から画像を受取って、画像を印刷出力するプリンタである。
入力装置や画像処理装置で用いられる画像の解析機能として、画像中の主要被写体である人物の顔検出機能が注目されている。
画像中の顔を検出することで、入力装置では、検出された顔にAFや露出を合わせて制御され、画像処理装置では検出された顔の情報をもとに印刷用の補正の制御が行われている。
このような状況の中、入力装置と画像処理装置がそれぞれに顔検出機能を持っているといった環境が構築されるようになってきた。
しかし、一言で顔検出機能といってもその機能には様々な仕様や特徴がある。
例えば、入力装置では、画像の入力時に顔検出が行われるので動画像に対応した顔検出が顔検出機能により行われ、顔領域の追尾性やリアルタイム性が求められる顔検出アルゴリズム、パラメータが採用されている。特に、入力装置による画像の入力時に露出補正を組み合わせて検出することで、入力装置の顔検出機能により、暗い、逆光などのシーンでは露出を上げて顔を検出しやすくすることができる。また、入力装置の顔検出機能により、逆に明るい場合には露出を下げて検出するなどダイナミックに入力画像を変更しながら検出することも可能である。
また、入力装置の顔検出機能により、加速度センサや角度センサと組み合わせることで、顔の検出方向をカメラの撮影する天方向に限定して検出を行うことで検出時間の短縮を行うことも可能である。
さらに、入力装置の顔検出機能により、ユーザがファインダや液晶に表示された顔検出結果を見ながらフォーカス、画角、ピント調整が行うのであまり精度が高くない画像検出技術で十分な性能を維持することができる。
また、入力装置の顔検出機能では、誤検出もユーザがその場で判断できることもあり、最終的な誤検出が少なくできるといったメリットがある。
しかも、入力装置の顔検出機能では、被写体の測距情報、フォーカス点などが即座に観測できるために、これらの情報を顔検出にフィードバックすることでトータルの顔検出性能を上げることも可能である。
一方、画像処理装置の顔検出機能では、入力装置の顔検出機能と異なり、一般的に一枚の静止画像データからの検出となり、リアルタイム性が求められない。また、画像処理装置の顔検出機能では、入力装置でのフォーカス時の情報をすべて活用できないので、顔検出の処理時間がかかる傾向にある。
このため、画像の入力時の入力装置の各種制御情報が記載されたExif(Exchangeable Image File Format)ファイルのタグの情報を利用して、画像処理装置の顔検出機能のパラメータを制御することも行われている。
画像処理装置の顔検出機能の最大の特徴は、リアルタイム性が求められないため、顔検出の方向や顔のサイズを細かく変化させながら顔検出を行うことができる点になる。
入力装置の顔検出機能では、大まかな顔の位置が検出できればよいが、画像処理装置ではさらに詳細な顔の位置、サイズ、方向等を検出することが容易である。さらに、PC(Personal Computer)などで処理をすれば、入力装置の顔検出機能により、画像処理装置の顔検出機能よりも高精度な検出が可能になる。
特許文献1には、入力装置による画像の撮影時に検出された顔座標がExifファイルの情報の一部として保持されている撮影画像データが、画像処理装置に受け取られ、顔座標を利用して画像補正を行って印刷される発明が開示されている。
また、入力装置では、リアルタイム性を重視し、動画像での顔検出、顔検出以外のセンサ情報をフィーバックしながら検出が行われる場合もある。
特開2004−207987号公報 特開2002−183731号公報 特開2003−30667号公報 特開平8−63597号公報 特開2000−105829号公報 特開平8−77334号公報 特開2001−216515号公報 特開平5−197793号公報 特開平11−53525号公報 特開2000−132688号公報 特開2000−235648号公報 特開平11−250267号公報 特開平4−24503号公報 特開平6−121332号公報 特開平11−146405号公報 特開2002−044469号公報 特開平2004−303193号公報
しかしながら、顔検出の精度という点では、画像処理装置の顔検出機能の方が、一般に高い。特に、顔の大きさや傾きといった情報の検出精度が高い。
さらに、入力装置では、顔検出を行ってから実際の撮影までのタイムラグが発生するために、被写体である人物の移動、および撮影者の移動等によって、検出時の顔領域と、撮影画像データ上の顔検出結果が異なる場合が発生する。
図16は、入力装置による撮影時の顔検出と画像処理装置が入力装置から受取った画像データで顔検出を行った場合に、顔領域がずれている例を示している。画像1601は、入力装置による撮影時、つまりユーザがシャッターを半押し状態にして入力装置により顔検出を行った時の顔位置を示している。このとき顔領域1602は、左上(LT)、左下(LB)、右上(RT)、右下(RB)の4点の座標として表わされている。
画像1603は、ユーザが、入力装置のシャッターを全押しにして撮影した時に、入力装置が回転するなどして撮影画像データが傾いてしまった例である。このとき顔領域1604は、左上(LT’)、左下(LB’)、右上(RT’)、右下(RB’)の4点となる。
画像1605は、ユーザが、入力装置のシャッターを全押しにして撮影した時に、被写体が向かって右に移動して撮影した例である。このとき、顔領域1606は、左上(LT’’)、左下(LB’’)、右上(RT’’)、右下(RB’’)の4点の座標となる。
以上のように、入力装置により検出された顔領域1602と、入力装置により撮影後に画像処理装置により検出された顔領域1604、1606の座標が異なる場合が発生する。
このように、入力装置により検出された顔領域と画像処理装置により検出された画像データ上の顔領域が異なって、位置ずれが発生している場合、画像処理装置では間違った顔領域の情報に基づいて後の処理が行われるといった問題があった。
特に、顔領域の検出結果を利用した局所的な補正を行う場合に、この検出誤差(位置ずれ)が問題となり、顔領域を含む画像の補正結果が適切にならない場合があった。
本発明は、上記問題点を解消するためになされたものであり、その目的とするところは、顔領域のような画像の主要被写体の検出位置に位置ずれが発生した場合に、適切に補正を行うことができる画像処理装置を提供することである。
上記課題を解決するために、本発明に係る画像処理装置は、入力装置において検出された主要被写体の情報を含む画像を読み込む読み込み手段と、前記画像の主要被写体の検出を行う検出手段と、記検出手段により検出された主要被写体の領域と前記読み込み手段によって読み込まれた主要被写体の領域との比較を行う比較手段と、前記比較手段による比較の結果に応じて主要被写体の領域を決定し、前記主要被写体の領域に対して補正を行う補正手段とを備えたことを特徴とする。
以上説明したように、本発明によれば、画像の主要被写体の検出位置に位置ずれが発生した場合に、適切に補正を行うことができる。
<第1の実施形態>
図1は、本発明における第1の実施形態に係るシステムの概略ブロック図である。
図1に示されているシステムは、入力装置100と画像処理装置200を含む。
ここで、入力装置100は、例えば、デジタルカメラでも良い。また画像処理装置200は、例えば、プリンタでも良い。
まず、入力装置100について、以下で説明する。
入力装置100で撮影された画像データは、メモリカード300によって、またはそれぞれのI/O I/F(インターフェース)110、213を、例えば、ケーブルや無線LANで接続して転送される。
光量調整装置103は、絞りおよびシャッター装置を備えている。
撮像装置105は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサである。ここで、撮像装置105は、レンズ群101と光量調整装置103を通過した被写体像である光束を電気信号に変換する。
撮像装置105では、例えば、CCDやCMOSセンサのアナログ信号の出力にクランプ処理、ゲイン処理が行われる。そして、さらにデジタル信号に変換するアナログ/デジタル(A/D)変換が行われた後に、画素補間処理や色変換処理が行われ、撮影データとして出力される。
焦点制御部102は、TTL(Through The Lens)方式のAF(Auto Focus)処理に応じてレンズ群101を制御する。
露出制御部104は、TTL方式のAWB(Auto White Balance)処理を行って光量調整装置103を制御する。
I/O I/F110は、入力装置100の入出力機能を提供するものであり、操作ボタンや、USB(Universal Serial Bus)、無線LAN(Local Area Network)などの外部機器との接続機能を提供している。
操作ボタンには、電源、モード切替え、シャッターなどのボタンや、各種機能を設定できる入力手段が、ユーザからの入力を受け付けて、入力装置100を任意に制御して動作させる。
表示I/F111は、撮影された画像のプレビューや、操作メニューなどを表示する表示装置112の制御を行う。
表示装置112には液晶ディスプレイなど表示デバイスが使用される。
CPU(Central Processing Unit)107は、ROM(Read Only Memory)108に格納されているプログラムを実行しながら入力装置100の制御を行う。このとき、CPU107は、一時的に必要となるデータの格納のために、RAM(Random Access Memory)109を利用する。
メモリI/F113は、CF(Compact Flash)メモリカードや、SD(Secure Digital)メモリカードといった不揮発性のメモリ機能を搭載したメモリカード300のコネクタを有する。また、メモリI/F113は、データの読み書きを制御する機能も有する。
特に、撮影した画像データはメモリカード300に格納しておくことで、入力装置100の電源をOFFにした状態でも保存され、またメモリカード300を他の装置から読み取ることで撮影データを使用できる。
画像処理部106は、撮像装置105でデジタルデータに変換された画像情報から主要被写体の検出を行う。
なお、本実施形態では、主要被写体検出手段が複数あってもよい。この場合、複数の主要被写体検出手段を「第1の主要被写体検出手段」、および「第2の主要被写体検出手段」と呼んでもよい。
本実施形態の説明では、一例として、入力画像の主要被写体とは人物の顔であるとして説明を行う。
人物の顔の検出には、特許文献2に示されているように、まず、入力画像から目領域を検出し、目領域周辺を顔候補領域としても良い。
また、該顔候補領域に対して、画素毎の輝度勾配、および輝度勾配の重みが算出され、これらの値が、あらかじめ設定されている理想的な顔基準画像の勾配、および勾配の重みと比較されても良い。
その結果、各勾配間の平均角度が所定の閾値以下であった場合、入力画像は顔領域を有すると判定されても良い。
また、特許文献3に示されているように、まず画像中から肌色領域が検出され、同領域内において、人間の虹彩色画素が検出されることにより、目の位置が検出されても良い。
また、特許文献4に示されているように、複数の顔の形状をしたテンプレートと画像とのマッチング度が計算されても良い。
その結果、マッチング度が最も高いテンプレートが選択され、最も高かったマッチング度があらかじめ定められた閾値以上であれば、選択されたテンプレート内の領域が顔候補領域とされても良い。
同テンプレートが用いられることで、目の位置が検出されても良い。
また、特許文献5に示されているように、まず、鼻画像パターンがテンプレートとされ、画像全体、あるいは画像中の指定された領域が走査され、最もマッチする位置が鼻の位置として出力されても良い。
次に、画像の鼻の位置よりも上の領域が、目が存在する領域とされ、目画像パターンがテンプレートとされて、目存在領域が走査されて、マッチングがとられ、ある閾値よりもマッチ度が大きい画素の集合である目存在候補位置集合が求められても良い。
さらに、目存在候補位置集合に含まれる連続した領域がクラスタとして分割され、各クラスタと鼻位置との距離が算出されても良い。その距離が最も短くなるクラスタが、目が存在するクラスタと決定されることで、器官位置の検出が行われても良い。
その他、顔および器官位置を検出する方法として、例えば、特許文献6〜13に示されている手法を用いても良い。
また、本実施形態で用いられる顔および器官位置の検出法については、上記記載に限定されることはなく、その他のどのような手法を用いても良い。なお、顔および器官位置の検出に関しては、従来方法が様々な文献で開示されているため、詳細な説明を省略する。
次に、図1の画像処理装置200について以下で説明する。
図1の画像処理装置200でも同様に、CPU(Central Processing Unit)201がROM(Read Only Memory)202に格納されているプログラムを実行しながら後述の各機能を制御する。
このとき、一時的に必要となるデータは、RAM(Random Access Memory)203に格納される。
センサI/F205は、画像処理装置200で使用されている各種センサ206のインターフェース機能を提供する。
各種センサ206は、例えば、印刷用紙の搬送量を測定する紙送りセンサ、印刷ヘッドの位置を測定するヘッド位置センサ、インク残量検出センサである。
モータI/F207は、画像処理装置200で使用されている各種モータ208のインターフェース機能を提供する。
モータ208は、例えば、印刷用紙の搬送する搬送モータ、印刷ヘッドを移動させるヘッドモータである。
ヘッドI/F209は、画像処理装置200で使用されている印刷ヘッド210のインターフェース機能を提供する。
印刷ヘッドには各色のインク毎にインクを吐出するノズルが多数配置されており、インクの吐出パターンを制御することで印刷紙面上に印刷画像を形成する。
IO I/F213は、画像処理装置200の入出力機能を提供するものであり、操作ボタンや、USB、無線LANなどの外部機器との接続機能を提供する。
操作ボタンには、電源、印刷、コピーなどの各種ボタンや、各種機能を設定できる入力手段があり、これらによってユーザは画像処理装置200を任意に制御して動作させることができる。
メモリI/F204は、入力装置100のメモリI/F113と同じ機能を提供するものであるが、主な使用方法としては、入力装置100で撮影された画像データを読み込んで印刷するために使用される。
図2は、図1で説明したシステムの典型的な動作の流れを示している。
図2の動作の説明では、典型的な動作として、ユーザが、図1の入力装置100で画像を撮影し、そのデータを画像処理装置200が読み込んで印刷する操作を想定している。
まず、ステップS201で、入力装置100が動作し、入力装置100の撮影対象の被写体の焦点や露出などの撮影条件が調整される。
このとき、入力装置100は、撮影前に画像処理部106で撮像装置105に結像している画像の解析の1機能として人物の顔検出を実行する。
その後、入力装置100の人物優先モードにより、例えば、主要被写体である人物の顔に適したフォーカス調整、露出調整、シャッター速度の調整が自動的に行われる。
入力装置100において、上記のステップS201で実行される撮影時画像解析が行われているときの状態遷移が図3に示されている。
まず、電源がON(オン)されたとき、または撮影モードになったときに、リセットされ、初期状態のステップS301に遷移する。
次に、シャッターボタンが半押し状態になったときに、撮影条件調整が実行されるステップS302に遷移する。
撮影条件調整が実行されるステップS302に遷移した状態で、シャッターボタンが全押し状態になると、撮影が実行されるステップS303へ、状態が遷移する。
撮影が実行されるステップS303は、図2の撮影が実行されるステップS202、画像の補正/符号化が実行されるステップS203、撮影データの格納が実行されるステップS204に相当する。
図3の撮影が実行されるステップS303の状態で、連写モードが選択されていた場合、またはシャッターボタンが所定時間以上全押し状態にある場合には、再度撮影条件調整が実行されるステップS302に戻って、撮影条件が調整される。
撮影条件調整が実行されるS302、撮影が実行されるS303において、シャッターボタンがOFF(オフ)になった場合には、初期状態のステップS301に状態が戻り、次の操作を待つ状態になる。
図4は、撮影条件調整が実行される図3のS302の詳細を示している。図4を利用して、一例として、人物優先モードでの撮影条件の決定プロセスを説明する。
入力装置100が人物優先モードで撮影を行う場合、撮影条件調整が実行されるS302では、はじめに顔検出が実行されるステップS401に遷移して顔検出が実行される。
次に、ステップS401で顔が検出された場合、されなかった場合にかかわらずその結果を持って、フォーカス調整が実行されるステップS402に状態が遷移する。
フォーカス調整が実行されるステップS402では、顔検出結果として顔が検出されていた場合には、その位置にフォーカスを合わせるように図1の焦点制御部102が、レンズ群101を制御する。
ステップS402では、顔検出結果として、顔が検出されなかった場合にはTTL方式のAF処理により、レンズ群101がフォーカス処理を実行する。フォーカス調整が実行されるステップS402が完了すると、次の露出調整が実行されるステップS403へ状態が遷移する。
露出調整が実行されるステップS403で、顔が検出されていた場合には、その顔を優先させたAWB調整が実行される。一方、露出調整が実行されるステップS403で、顔が検出されなかった場合には、通常のTTL方式のAWB処理で図1の露出制御部104が光量調整装置103を動作させる。
露出調整が実行されるステップS403が完了すると、シャッター速度調整が実行されるステップS404へ状態が遷移する。
シャッター速度調整が実行されるステップS404では、フォーカス調整が実行されるS402と露出調整が実行されるS403の調整結果を受けて、最適なシャッター速度が算出される。この算出されたシャッター速度で図1の撮像装置105の光束の受光時間が決定される。
シャッター速度調整が実行されるステップS404が完了すると、調整判定が実行されるステップS405へ状態が遷移する。
調整判定が実行されるステップS405では、全体の撮影条件の判定が行われ、調整判定がOK(適切)であれば、待機処理が実行されるステップS406へ状態が遷移する。
ステップS405において、調整判定がNG(不適切)であれば、フォーカス調整が実行されるS402へ状態が遷移して、再度撮影条件の調整がやり直される。
待機処理が実行されるステップS406では所定時間が経過するまでにシャッターボタンが全押し状態になった場合に、撮影が実行される図3のステップS303へ状態が遷移する。一方、ステップS406で、待機(所定時間の待ち状態)が経過すると再度、顔検出が実行されるステップS401へ状態が遷移して撮影条件の調整が再開される。
図4のすべての状態の途中でシャッターボタンがOFF(オフ)になった場合には初期状態の図3のステップS301へ状態が遷移する。
人物優先モードで撮影が行われると、図2のステップS202で、被写体像である光束が撮像装置105により電気信号に変換される。そして、電気信号に、クランプ処理、ゲイン処理等、デジタル変換処理、画素補間処理や色変換処理が行われて、撮影データとなってRAM109に格納される。
RAM109に格納された撮影データの記録方式としては、市場で一般に使用されている代表的な画像ファイル形式である「Exif」ファイル形式(Ver.2.2)を使用するものとして説明する。
図5は、Exifファイルのデータ構造を示す図である。
Exifファイルの構造は、基本的には通常のJPEGファイルの形式そのものであり、その中にサムネイル画像や撮影関連データ等のデータをJPEGファイルの規約に準拠した形で埋め込んだものである。
JPEGファイルの形式をサポートしているインターネットブラウザー、画像ビュアー、フォトレタッチソフト等を使えば、Exifファイルは、通常のJPEGファイルと同様に閲覧することができる。
Exifファイルには、図5の左側部分に示されているように、最初にSOI(Start of image/0xFFD8)501aがある。
さらに、Exifファイルには、SOI501aの後に、APP1(501b)、DQT(Define Quantization Table)501c、DHT(Define Huffman Table)501dがある。
さらに、Exifファイルには、DHT501dの後に、SOF(Start of Frame)501e、SOS(Start of Stream)501f、圧縮データ(DATA)501g、EOI(End of Image)501hがある。
Exifファイルにおいて、DQT501cは、量子化テーブルの実態を定義し、DHT501dは、ハフマン・テーブルの実態を定義している。また、Exifファイルにおいて、SOF501eは、フレームのスタートを示し、SOS501fは、画像データの開始を示し、EOI501hは、画像ファイルの終了を示している。
Exifファイルに使われるマーカー(Maker)のうち、0xFFE0〜0xFFEFまでのマーカーは、アプリケーションマーカーと呼ばれるが、これらは、Exifファイルをデコードするためには不要である。
しかし、アプリケーションマーカーは、Exifファイルを、それぞれのアプリケーションプログラムで使用するためのデータ領域として定義されている。
Exifファイルにおいては、例えば、撮影条件を格納するためにAPP1(0xFFE1)というマーカーが使用されている。
「APP1」の構造は、図5の右側部分に示されている。
即ち、「APP1」の構造は、まず、先頭にAPP1 Maker(0xFFE1/2byte)502aがあり、その次にAPP1 Lenght(2byteのAPP1領域の大きさ)502bがある。そして、その次にAPP1のデータ領域であるExif識別code502cがある。
このExif識別code502cに続くデータの最初の6バイトには、識別子としてASCII文字の「Exif」がある。そして、その次に、2バイトの0x00が続く。そして、その次に、Tiff(Tagged Image File Format)形式でデータが格納されている。
Tiff形式の最初の8バイトはTiffヘッダー(Header)502dとなり、最初の2バイトはバイト並びの形式を定義している。
例えば、0x4d4d:「MM」は、モトローラ形式を表し、0x4848:「II」は、インテル形式を表わしている。
Tiff Header(ヘッダー)502dの次の0th IFD(IFD of main image)502eに、最初のIFFD(Image file directory)が格納される。
通常、メイン画像データ及び画像関連データは、IFFDに格納されていて、記載項目毎にメイン情報項目、サブ情報項目(Exif SubIFD/0x8768)、メーカ独自情報項目(Maker note/0x827c)と、記載事項が分かれている。
図6は、Exifファイルのメイン情報項目の一例を示している。
図6に示されているように、メイン情報項目として、例えば、タイトル、入力装置100のメーカ名や機種、画像方向、幅の解像度、高さの解像度、解像度単位、ソフトウェア、変更日時のような一般情報が記載されている。図6には、一例として、それぞれの項目について、「tag」アドレス(tag No.)が記載されている。例えば、図6において、「タイトル」項目のtag No.は、「0x010e」である。
図7は、Exifファイルのサブ情報項目の一例を示している。
図7に示されているように、サブ情報項目としては、例えば、光源、レンズ焦点距離等の入力装置100の詳細情報や、露出時間F値、ISO感度、自動露出測光モードのような各種撮影条件が記載されている。図7には、一例として、それぞれの項目について、「tag」アドレス(tag No.)が記載されている。例えば、図7において、「露出時間」項目のtag No.は、「0x829a」である。
図8は、Exifファイルのメーカ独自情報項目の一例を示している。
図8に示されているメーカ独自情報項目は、入力装置100のメーカ毎に独自に設定される。したがって、図8のメーカ独自情報項目には、例えば、図7のサブ情報項目に定義されていない撮影関連データがtag No.とともに記載されても良い。
本実施形態では、一例として、図8のメーカ独自情報項目の中に、入力装置100による顔検出結果が格納される。ここで、顔検出結果には、顔検出に用いられたパラメータも含まれる。
顔検出結果は、図9に示されているような位置関係として表現される。領域901は、図2の一般的な撮影データD201の画像部分を示しており、撮影されたときの画像データを含んでいる。
図9の領域901は、所定の幅(Width)と高さ(Height)の画素を含み、そこに人物が撮影されており、さらに顔検出機能により顔が検出されている状態を示している。
図9において、Xが横軸、Yが縦軸を表しており、画像の左上が原点(0,0)である。
図9において、人物の顔は、領域902にあると表現される。
本実施形態では、図9に示されているように、顔領域を左上(LT)、右上(RT)、左下(LB)、右下(RB)の4点の座標で囲まれる領域であるとしている。この4点はそれぞれ(x,y)の2次元座標で表すことができる。
顔領域の表現には、他に中心と大きさ、中心点と幅と高さといった表現方法をとることも可能である。
さらに、各顔領域にID番号を振って管理すれば、複数の顔検出にも対応することが可能である。
図2のステップS203で、Exifファイル形式で格納された撮影データD201は、次に、ステップS204で、メモリI/F113を介して撮影データD201がメモリカード300に格納される。
次に、ステップS205で、入力装置100による撮影が終了した否かが判定される。ステップS205で、入力装置100による撮影が終了したと判定された場合には、画像の入力が終了する。一方、ステップS205で、入力装置100による撮影が終了していないと判定された場合には、ステップS201に処理が戻る。
撮影データD201が格納されたメモリカード300が、画像処理装置200のメモリカードI/F204に挿入されると、画像処理装置200で撮影データD201が使用可能になる。
次に、ステップS206で、画像処理装置200は、メモリカード300に格納された撮影データD201を読み込む。
このとき、画像処理装置200の表示装置212にユーザの操作を促すUI(User Interface)が表示され、当該UIは、例えば、IO I/F213に接続されているボタンによる画像の選択の操作を受け付ける。ここで、表示装置212は、表示I/F211に接続されている。
さらに、ステップS206では、印刷する用紙、印刷品位、画像補正機能の選択のような、印刷に必要な条件の設定も行われる。
ここで、画像補正機能とは、例えば、画像全体を自動的に最適な画像の補正する機能、赤目補正を行う機能、顔の部分のみを補正する機能である。
次に、ステップS207で、ステップS206で選択された画像が1枚ずつ解析される。以下で、ステップS207の動作を、図10を用いて説明する。図10は、画像処理装置200で行われるフローチャートである。CPU201が、ROM202またはRAM203に格納された図10の処理を行うプログラムを読み出して実行することで、図10のフローチャートが実行される。
画像処理装置200の表示装置212で選択された画像は、撮影データD201に含まれ、図5のExifファイルのデータ構造を有する。まず、図10のS1001で、撮影データD201に含まれるExifファイルの解析が行われる。
次に、ステップS1001で、撮影データD201に含まれるExifファイルのメーカ独自情報項目を含む、入力装置100による画像の撮影情報が読み込まれる。
次に、ステップS1002で、撮影情報に含まれるExifファイルのメーカ独自情報項目の中に入力装置100による顔検出結果が格納されているか否かが判定される。ステップS1002で、撮影データD201に含まれるExifファイルのメーカ独自情報項目の中に入力装置100による顔検出結果が格納されていたと判定された場合には、ステップS1003に処理が進む。
一方、ステップS1002で、撮影データD201に含まれるExifファイルのメーカ独自情報項目の中に入力装置100による顔検出結果が格納されていないと判定された場合には、ステップS1004に処理が進む。
ステップS1003で、撮影データD201に格納されていた入力装置100による顔検出結果が画像処理装置200のRAM203の顔座標データD202の格納領域に格納される。
ステップS1003で、撮影データD201のすべての入力装置100による顔検出結果が画像処理装置200のRAM203に格納された後、ステップS1004に処理が進む。
ステップS1004で、撮影データD201の画像データの圧縮データ(DATA)501gと、DQT501c、DHT501dが読み込まれて、JPEGファイルの形式で圧縮されている入力装置100によって撮影された画像データがデコードされる。そして、入力装置100によって撮影された、解析可能な画像データが得られる。
ステップS1004でデコードされた画像データは画像処理装置200のRAM203のデコード画像の格納領域に格納される。
次に、ステップS1005で、ステップS1004において画像処理装置200のRAM203に格納された画像データに対して画像処理装置200による顔検出処理が実行される。
ステップS1005では、ステップS1003で格納された入力装置100による顔検出結果が存在するならば、その顔検出結果に基づいて、画像処理装置200による顔検出処理の制御が行われてもよい。
例えば、ステップS1005では、画像処理装置200により、入力装置100で検出された顔の近傍が重点的に顔検出されてもよい。
また、ステップS1005では、画像処理装置200による顔検出処理において、入力装置100で実行された顔検出処理で用いられた顔検出アルゴリズムと同じ顔検出アルゴリズムが採用されてもよい。
ただし、画像処理装置200での顔検出処理では、リアルタイム性は求められない。したがって、画像処理装置200での顔検出処理の処理時間は、入力装置100の顔検出処理の処理時間より長くなってもよい。
しかし、画像処理装置200での顔検出処理における検出対象は、撮影後の静止画像であるので、動画像で使用できるフレーム間の差分からの移動体検出などのアルゴリズムを、画像処理装置200での顔検出処理で採用することはできない。
しかし、画像処理装置200での顔検出処理では、用いられる顔検出器の精度を高めたり、顔検出器の検出移動のステップを小さくしたり、顔の向きおよび傾きを正確に検出するように、検出性能の異なるアルゴリズムが採用されてもよい。
以下では、図11〜13を用いて、一例として、入力装置100による顔検出処理の結果と、画像処理装置200による顔検出処理の結果がどのように異なるかを説明する。
図11は、入力装置100のシャッター半押し状態の画像1101を示している。
図11に示されているように、入力装置100による顔検出処理の結果得られた顔領域1102は、概略位置はあっているが、顔の向きに対して角度のずれを持っている。
図12は、入力装置100のシャッターが押されて撮影された後の画像1201を示している。
図12に示されているように、入力装置100による顔検出処理の結果得られた顔領域1202は、図11の顔領域1102と同じ座標である。しかし、画像1201は、入力装置100の撮影条件の調整、さらには画像補正等の処理によって最適な画像となっている。
すなわち、図11に示されているように、入力装置100による撮影前の状態では、全体的に画像が暗かった。一方、図12に示されているように、入力装置100による撮影後の状態では、入力装置100の露出、シャッター速度の改善や、撮影後のゲイン調整等のために、画像が明るくなっている。
図13は、画像処理装置200で画像データ1301に対して実行された顔検出処理の結果得られた顔領域1302を示している。
図13において、画像データ1301は、図12の画像データ1201と同一である。
図13に示されているように、画像処理装置200による顔検出処理の結果得られた顔領域1302は、図11の入力装置100による撮影前の顔検出処理の結果得られた顔領域1102とは異なり、精度のよい顔検出が可能となっていることがわかる。
すなわち、図13にも示されているように、画像処理装置200により、顔検出処理が実行された結果、顔の傾きも正確に検出している顔領域1302が得られている。
特に、図13の画像データ1301は、入力装置100による撮影前と比較して、顔に適した撮影条件で撮影されている。そのために、画像処理装置200で、画像データ1301に対して、顔領域の検出が行われると、顔領域の検出が容易になる。
図10のステップS1005の画像処理装置200による顔検出の結果、ステップS1006で、顔が検出されなかった場合には図2のステップS207の解析が終了してステップS208へ処理が進む。ステップS1006で、画像処理装置200により顔が検出された場合はステップS1007へ処理が進む。
ステップS1007では、入力装置100と画像処理装置200の顔検出処理の結果の比較が行われる。ステップS1007では、ステップS1002において、入力装置100による顔検出結果が格納されてないと判定された場合には、画像処理装置200の顔検出処理の結果のみの比較が行われる。
図15は、顔検出処理の結果得られた顔領域の位置関係の比較の一例を示している。
図15において、顔領域1501は、基準となる顔領域である。顔領域1501は、例えば、入力装置100による顔検出処理の結果得られた顔領域でも良いし、画像処理装置200の顔検出処理の結果得られた顔領域でも良い。
顔領域1501により、顔領域が、左上(LT)、右上(RT)、左下(LB)、右下(RB)の4点と、対角にある2点の中点となる中心点CTRの座標により算出される。
図15の顔領域1501に対して、顔領域1502、1503のような関係で顔検出結果があった場合の判定が、図10のステップS1008、S1009で、以下で説明するように行われる。
図15において、例えば、顔領域1501は、入力装置100による顔検出処理の結果得られたものであり、顔領域1502、1503は、画像処理装置200による顔検出処理の結果得られたものである。
ステップS1008で、近傍に存在する顔領域の組合せがあるか否かが判定される。ステップS1008で、近傍に存在する顔領域の組合せがあると判定された場合には、ステップS1009に処理が進む。ステップS1008で、近傍に存在する顔領域の組合せがないと判定された場合には、ステップS1011に処理が進む。
ステップS1008における、近傍であるかの判定は、例えば、顔領域の組み合わせの互いの中心CTRの座標がぞれぞれの顔領域の中に含まれているという条件を満たしているかで行われる。
さらに追加の条件として、ステップS1008において、線分LT−RTと線分LT’−RT’の成す角度が所定の範囲以内であるかという条件が使用されても良い。
ステップS1008において、例えば、顔領域の組合せの互いの中心CTRの座標がぞれぞれの顔領域の中に含まれていて、線分LT−RTと線分LT’−RT’の成す角度が、±15度以内の場合に、近傍であると判定されてもよい。
このような判定により、例えば、ステップS1008では、顔領域1501に対して顔領域1503は、近傍にあると判定されるが、顔領域1502は、近傍にはないと判定される。
次に、ステップS1009で、顔領域が一致しているか否かの判定が行われる。
ステップS1009で、顔領域が一致していると判定された場合には、ステップS1012に処理が進む。一方、ステップS1009で、顔領域が一致していないと判定された場合には、ステップS1010に処理が進む。
ステップS1012で、顔領域の全部を比較するか否かが判定される。ステップS1012で、顔領域の全部を比較すると判定された場合には、ステップS1013に処理が進む。一方、ステップS1012で、顔領域の全部を比較しないと判定された場合には、ステップS1007に処理が戻る。
ステップS1013で、顔領域が一致しているか又は近傍に存在する顔領域の組合せがあるか、否かが判定される。ステップS1013で、顔検出領域が一致している又は近傍に存在する顔領域の組合せがあると判定された場合には、処理が終了する。ステップS1013で、顔領域が一致しておらず、近傍に存在する顔領域の組合せがないと判定された場合には、ステップS1014に処理が進む。
ステップS1014で、顔座標データD202が削除される。
ステップS1009では、判定条件が、ステップS1008で用いられている判定条件をより狭められても良い。例えば、ステップS1009において、判定条件として、顔領域の組合せのお互いの中心CTR−CTR’の距離が線分LT−RTの長さの1/2以下にするといった条件を使ってもよい。
さらに、例えば、ステップS1009において、判定条件に、線分LT−RTと線分LT’−RT’'の長さが1/2から2倍の範囲内であるという条件を追加してもよい。このようにすることで、検出顔領域の大きさも考慮することができるようになる。
ステップS1008、S1009の判定条件として、上記で説明する以外の条件を用いてもかまわない。
ステップS1008、S1009の判定は、ステップS1005で実行された顔検出処理の結果と、顔座標データD202に格納されている入力装置100の顔検出処理の結果のすべてとで行われる。ただし、ステップS1002において、入力装置100による顔検出結果が格納されてないと判定された場合には、ステップS1005で実行された顔検出処理の結果のみについて、ステップS1008、S1009の判定の比較が行われる。
ステップS1008で、入力装置100の顔検出結果の近傍にない顔領域は、ステップS1011で新規の顔領域として顔座標データD202に追加される。これにより、入力装置100により検出することができなかった顔領域を顔座標データD202に追加することができる。
ステップS1009で一致していると判定された顔領域がない場合には、ステップS1010で入力装置100の顔検出処理の結果の値に、画像処理装置200による顔検出処理の結果が上書きされて顔座標データD202に格納される。これにより、画像処理装置200により検出された信頼性の高い顔領域を顔座標データD202に格納することができる。
すべての顔検出結果の処理が終了すると、解析処理S207は終了してステップS208へ処理が進む。
ステップS208で、ステップS206で読み込まれた画像データに対して、顔座標データD202を使用して補正が行われる。
ステップS208では、顔座標データD202が存在しない場合には、顔座標データD202を使用しない画像補正が行われても良い。
ステップS208の画像補正では、顔座標データD202を使用して、顔に特化した補正が行われる。
例えば、ステップS208において、顔領域の明るさ、色見、彩度といった色情報を顔に最適になる様に補正するという処理を行ってもよい。
人物に注目した画像補正に関しては、以下のような自動的に補正を行う方法が提案されている。
例えば、特許文献14、15では映像信号中から、肌色領域または人の顔の領域を検出し、その検出領域のみ、輝度補正,色補正,アパーチャ補正を行うことが公開されている。
特許文献14、15に係る発明では、顔検出および補正領域の決定方法として肌色検出により領域抽出を行っている。
また、特許文献16には、 人間の顔や肌の領域を含んだ写真画像からなるデジタル画像データに対して、該人間の顔や肌の領域の色を自然な色に補正するとともに、画像全体としても良好なカラーバランスとなる色の補正が開示されている。
また、特許文献17には、顔を検出して、顔領域のみに限定して補正を行うために、顔領域から肌の色成分を特定して、その色成分にだけ補正を行う方法が開示されている。
逆に顔領域にハイパスフィルタをかけることで、少しボケたような顔領域を鮮鋭化してくっきりと見せる処理であってもよい。
さらには、検出顔領域の中から赤目となって撮影されている瞳孔領域を検出して、赤目補正を行ってもよい。
上記のように、ステップS208において、顔領域を使って、様々な補正処理を行ってもよい。
ここでは、図14に示されているように、画像データ1401の顔領域1402の内部(図14中で白い領域)に限定して人肌をきれいに見せる美肌補正が行われたとする。
ステップS208で補正された画像データは、ステップS209で印刷される。
ステップS206で選択された画像の印刷処理が終了するまでステップS206からステップS209の処理が繰り返し実行される。
すなわち、ステップS210で、画像処理が終了した否かが判定される。そして、ステップS210で画像処理が終了したと判定された場合には、ステップS211に処理が進み、ステップS210で画像処理が終了しなかったと判定された場合には、ステップS206に処理が戻る。
ステップS211で、画像処理装置200で検出された顔座標データを撮影データに書き戻して保存するか否かが判定される。
ステップS211で、画像処理装置200で検出された顔座標データを撮影データに書き戻して保存しないと判定された場合には、出力処理が終了する。
ステップS211で、画像処理装置200で検出された顔座標データを撮影データに書き戻して保存すると判定された場合には、ステップS212へ処理が進む。そして、顔座標データD202が、撮影データD201が格納されているメモリカード300の、Exifファイルの中のメーカ独自情報項目の中に書き込まれて終了する。
以上の通り、発明によれば、入力装置100による顔検出処理の結果と画像処理装置200による顔検出処理の結果にずれがある場合に、適切な顔領域を検出して、補正を行うことができる。
また、上記の実施形態では、補正として、主要被写体の領域に限定したローパス補正やハイパス補正が用いられてもよい。
なお、本実施形態では、画像補正手段が複数あってもよい。この場合、複数の画像補正手段を「第1の画像補正手段」、および「第2の画像補正手段」と呼んでもよい。
また、上記で示した本実施形態の処理が、入力装置100のCPU107、又は画像処理装置200のCPU201により実行されてもよい。
本実施形態を、複数の機器(例えば、PCホストコンピュータ、インターフース機器、リーダ等)を含むシステムに適用してもよい。また、本実施形態において、入力装置100の中で、撮影前と撮影後のデータでそれぞれ検出を行ってもよい。
また、本実施形態を、一つの機器からなる装置(例えば、複写機、ファクシミリ装置等)に適用しても良い。
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給することによっても達成される。また、本発明の目的は、そのシステムあるいは装置のコンピュータが記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明に含まれる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現される。これに加えて、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部が行われる。そして、その処理によって前述した実施形態の機能が実現される場合も、本発明に含まれることは言うまでもない。
記憶媒体から読み出されたプログラムコードは、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も、本発明に含まれることは言うまでもない。
第1の実施形態に係るシステムのブロック図である。 図1のシステムで実行される処理のフローチャートである。 入力装置の撮影画像解析時の状態遷移図である。 入力装置の撮影条件調整の状態遷移図である。 Exifファイルのデータ構造を示す図である。 Exifファイルのメイン情報項目の一例を示す図である。 Exifファイルのサブ情報項目の一例を示す図である。 Exifファイルのメーカ独自情報項目の一例を示す図である。 主要被写体(顔)の検出の一例を示す図である。 画像処理装置の撮影画像解析時のフローチャートである。 画像データと主要被写体検出結果の推移の一例を示す図である。 画像データと主要被写体検出結果の推移の一例を示す図である。 画像データと主要被写体検出結果の推移の一例を示す図である。 画像データと主要被写体検出結果の推移の一例を示す図である。 顔検出処理の結果得られた顔領域の位置関係の比較の一例を示す図である。 顔領域がずれている例を示した図である。
符号の説明
100 入力装置
200 画像処理装置
300 メモリカード

Claims (13)

  1. 入力装置において検出された主要被写体の情報を含む画像を読み込む読み込み手段と、
    前記画像の主要被写体の検出を行う検出手段と、
    記検出手段により検出された主要被写体の領域と前記読み込み手段によって読み込まれた主要被写体の領域との比較を行う比較手段と、
    前記比較手段による比較の結果に応じて主要被写体の領域を決定し、前記主要被写体の領域に対して補正を行う補正手段と
    を備えたことを特徴とする画像処理装置。
  2. 前記比較手段による比較は、前記検出手段により検出された主要被写体の領域と前記読み込み手段によって読み込まれた主要被写体の領域とが近傍にあるか否かを比較することにより行われることを特徴とする請求項1の画像処理装置。
  3. さらに、前記読み込み手段によって読み込まれた主要被写体の情報を記憶部に格納する格納手段を有し、
    前記比較手段による比較の結果、前記検出手段により検出された主要被写体の領域と前記読み込み手段によって読み込まれた主要被写体の領域とが近傍にない場合、前記検出手段により検出された主要被写体の領域を前記記憶部に格納されている主要被写体の領域に追加することを特徴とする請求項2に記載の画像処理装置。
  4. 前記比較手段による比較は、前記検出手段により検出された主要被写体の領域と前記読み込み手段によって読み込まれた主要被写体の領域とが一致するか否かを比較することにより行われることを特徴とする請求項1の画像処理装置。
  5. さらに、前記読み込み手段によって読み込まれた主要被写体の情報を記憶部に格納する格納手段を有し、
    前記比較手段による比較の結果、前記検出手段により検出された主要被写体の領域と前記読み込み手段によって読み込まれた主要被写体の領域とが近傍にあって一致していない場合、前記記憶部に格納されている前記近傍にあって一致していない主要被写体の領域を前記検出手段により検出された主要被写体の領域によって上書きすることを特徴とする請求項に記載の画像処理装置。
  6. 前記主要被写体は、人物の顔であることを特徴とする請求項1乃至5のいずれか一項に記載の画像処理装置。
  7. 前記入力装置において検出された主要被写体の情報は、前記画像のExifファイルに格納されていることを特徴とする請求項に記載の画像処理装置。
  8. 前記補正手段は、前記主要被写体の領域の明るさを補正することを特徴とする請求項に記載の画像処理装置。
  9. 前記補正手段は、前記主要被写体の領域のカラーバランスを補正することを特徴とする請求項に記載の画像処理装置。
  10. 前記補正手段は、前記主要被写体の領域にローパス補正を実行することを特徴とする請求項に記載の画像処理装置。
  11. 前記補正手段は、前記主要被写体の領域にハイパス補正を実行することを特徴とする請求項に記載の画像処理装置。
  12. 入力装置において検出された主要被写体の情報を含む画像を読み込む読み込みステップと、
    前記画像の主要被写体の検出を行う検出ステップと、
    記検出ステップにより検出された主要被写体の領域と前記読み込み手段によって読み込まれた主要被写体の領域との比較を行う比較ステップと、
    前記比較ステップによる比較の結果に応じて主要被写体の領域を決定し、前記主要被写体の領域に対して補正を行う補正ステップと
    を備えたことを特徴とする画像処理方法。
  13. コンピュータを請求項1乃至11のいずれか一項に記載された画像処理装置として機能させるためのプログラム。
JP2008166254A 2008-06-25 2008-06-25 画像処理装置および画像処理方法、プログラム並びに、コンピュータ読み取り可能な記録媒体 Expired - Fee Related JP5127592B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008166254A JP5127592B2 (ja) 2008-06-25 2008-06-25 画像処理装置および画像処理方法、プログラム並びに、コンピュータ読み取り可能な記録媒体
US12/485,571 US8374439B2 (en) 2008-06-25 2009-06-16 Image processing apparatus, image processing method, program, and computer-readable print medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008166254A JP5127592B2 (ja) 2008-06-25 2008-06-25 画像処理装置および画像処理方法、プログラム並びに、コンピュータ読み取り可能な記録媒体

Publications (3)

Publication Number Publication Date
JP2010010938A JP2010010938A (ja) 2010-01-14
JP2010010938A5 JP2010010938A5 (ja) 2011-07-28
JP5127592B2 true JP5127592B2 (ja) 2013-01-23

Family

ID=41447529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008166254A Expired - Fee Related JP5127592B2 (ja) 2008-06-25 2008-06-25 画像処理装置および画像処理方法、プログラム並びに、コンピュータ読み取り可能な記録媒体

Country Status (2)

Country Link
US (1) US8374439B2 (ja)
JP (1) JP5127592B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5500048B2 (ja) * 2010-11-04 2014-05-21 セイコーエプソン株式会社 画像処理方法および画像処理装置
JP5830851B2 (ja) * 2010-11-19 2015-12-09 セイコーエプソン株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
JP5625832B2 (ja) * 2010-12-02 2014-11-19 セイコーエプソン株式会社 画像処理装置および画像処理方法
JP6386803B2 (ja) 2014-06-13 2018-09-05 キヤノン株式会社 装置、方法、及びプログラム
JP6438218B2 (ja) 2014-06-13 2018-12-12 キヤノン株式会社 装置、方法、及びプログラム
JP6008897B2 (ja) 2014-06-13 2016-10-19 キヤノン株式会社 装置、方法、及びプログラム
JP6378645B2 (ja) 2014-06-13 2018-08-22 キヤノン株式会社 情報処理装置、制御方法、及びプログラム
JP6478487B2 (ja) 2014-06-13 2019-03-06 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP6463914B2 (ja) 2014-06-30 2019-02-06 キヤノン株式会社 情報処理装置、処理方法、及びプログラム
JP6138088B2 (ja) 2014-06-30 2017-05-31 キヤノン株式会社 情報処理装置、制御方法、及びソフトウェアプログラム
JP6381319B2 (ja) 2014-06-30 2018-08-29 キヤノン株式会社 情報処理装置、処理方法、及びプログラム
JP2019061484A (ja) * 2017-09-26 2019-04-18 キヤノン株式会社 画像処理装置及びその制御方法及びプログラム
JP7325281B2 (ja) * 2019-09-20 2023-08-14 キヤノン株式会社 撮像装置、制御方法及びプログラム

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2541688B2 (ja) * 1990-05-21 1996-10-09 日産自動車株式会社 眼位置検出装置
JP3366357B2 (ja) 1992-01-13 2003-01-14 三菱電機株式会社 映像信号処理装置および映像信号処理方法
US5638136A (en) * 1992-01-13 1997-06-10 Mitsubishi Denki Kabushiki Kaisha Method and apparatus for detecting flesh tones in an image
US5488429A (en) * 1992-01-13 1996-01-30 Mitsubishi Denki Kabushiki Kaisha Video signal processor for detecting flesh tones in am image
JP3502978B2 (ja) 1992-01-13 2004-03-02 三菱電機株式会社 映像信号処理装置
JP2973676B2 (ja) 1992-01-23 1999-11-08 松下電器産業株式会社 顔画像特徴点抽出装置
JP3557659B2 (ja) 1994-08-22 2004-08-25 コニカミノルタホールディングス株式会社 顔抽出方法
JPH0877334A (ja) 1994-09-09 1996-03-22 Konica Corp 顔画像の特徴点自動抽出方法
US5883699A (en) * 1995-06-30 1999-03-16 Fuji Photo Film, Co., Ltd. Method and apparatus for preparing photographic processing control tool
JP3862789B2 (ja) * 1996-09-30 2006-12-27 株式会社東芝 画像処理装置及び画像処理方法、並びに画像形成装置
JPH1153525A (ja) 1997-08-06 1999-02-26 Matsushita Electric Ind Co Ltd 顔器官検出装置及び媒体
JP3549013B2 (ja) 1998-03-05 2004-08-04 日本電信電話株式会社 目の位置検出方法、目の位置検出装置および目の位置検出プログラムを記録した記録媒体
JP2000105829A (ja) 1998-09-29 2000-04-11 Matsushita Electric Ind Co Ltd 顔パーツ検出方法及びその装置
JP2000132688A (ja) 1998-10-29 2000-05-12 Matsushita Electric Ind Co Ltd 顔パーツ検出方法及びその装置
JP2000235648A (ja) 1999-02-17 2000-08-29 Fujitsu Ltd 目の抽出装置および瞬き検出装置
JP2001216515A (ja) * 2000-02-01 2001-08-10 Matsushita Electric Ind Co Ltd 人物の顔の検出方法およびその装置
JP2002044469A (ja) 2000-07-21 2002-02-08 Noritsu Koki Co Ltd 画像処理方法および画像処理プログラムを記録した記録媒体
US6965684B2 (en) 2000-09-15 2005-11-15 Canon Kabushiki Kaisha Image processing methods and apparatus for detecting human eyes, human face, and other objects in an image
US6895103B2 (en) 2001-06-19 2005-05-17 Eastman Kodak Company Method for automatically locating eyes in an image
JP2004207987A (ja) 2002-12-25 2004-07-22 Fuji Photo Film Co Ltd 画像処理方法及びプリントシステム
JP4461789B2 (ja) * 2003-03-20 2010-05-12 オムロン株式会社 画像処理装置
US20040208363A1 (en) * 2003-04-21 2004-10-21 Berge Thomas G. White balancing an image
US7995239B2 (en) * 2004-03-29 2011-08-09 Fujifilm Corporation Image output apparatus, method and program
JP4602688B2 (ja) * 2004-04-19 2010-12-22 富士フイルム株式会社 画像処理方法、画像処理装置およびそのプログラム
US8131022B2 (en) * 2004-08-31 2012-03-06 Panasonic Corporation Surveillance recorder and its method
JP2006279460A (ja) * 2005-03-29 2006-10-12 Seiko Epson Corp 画像処理装置、印刷装置、画像処理方法、および、画像処理プログラム
JP4350725B2 (ja) * 2005-08-05 2009-10-21 キヤノン株式会社 画像処理方法、画像処理装置、及び、画像処理方法をコンピュータに実行させるためのプログラム
JP4510768B2 (ja) * 2006-02-15 2010-07-28 富士フイルム株式会社 撮影装置および方法並びにプログラム
JP4853707B2 (ja) * 2006-07-21 2012-01-11 カシオ計算機株式会社 撮像装置及びそのプログラム
JP4773924B2 (ja) * 2006-10-24 2011-09-14 キヤノン株式会社 撮像装置及びその制御方法及びプログラム及び記憶媒体

Also Published As

Publication number Publication date
US20090324091A1 (en) 2009-12-31
US8374439B2 (en) 2013-02-12
JP2010010938A (ja) 2010-01-14

Similar Documents

Publication Publication Date Title
JP5127592B2 (ja) 画像処理装置および画像処理方法、プログラム並びに、コンピュータ読み取り可能な記録媒体
JP5087856B2 (ja) 電子カメラ
US7940965B2 (en) Image processing apparatus and method and program storage medium
US20060062487A1 (en) Panorama synthesis processing of a plurality of image data
JP4432886B2 (ja) 電子カメラ
JP2007282119A (ja) 電子カメラおよび画像処理装置
JP2007148691A (ja) 画像処理装置
JP2009089220A (ja) 撮像装置
JP5132445B2 (ja) 画像処理装置および画像処理方法並びにコンピュータプログラムおよび記憶媒体
JP2010130327A (ja) 撮像装置、及びプログラム
JP2006295316A (ja) 撮像装置及び撮像方法及びプログラム及び記憶媒体
US8340431B2 (en) Automatic photographing method with face recognition
JP2007142639A (ja) 撮像装置及びそのプログラム
JP2005340918A (ja) 画像表示装置、画像供給装置、画像表示システムおよび画像表示方法
JP2011118944A (ja) 画像処理装置、印刷装置、画像処理方法、及びコンピュータープログラム
JP5830851B2 (ja) 画像処理装置、画像処理プログラムおよび画像処理方法
JP2010171841A (ja) 撮像装置
JP4829691B2 (ja) 画像処理システム、記録装置及びその制御方法、プログラム、及び記録媒体
JP5245604B2 (ja) 画像処理装置およびプログラム
JP2008172501A (ja) 撮像装置
JP2009130840A (ja) 撮像装置及びその制御方法及びプログラム
JP2007166024A (ja) 撮像装置及びその制御方法
JP2005197885A (ja) 撮像装置及びその制御方法
JP5625832B2 (ja) 画像処理装置および画像処理方法
JP2009260613A (ja) 撮像装置及びその制御方法、並びにプログラム及び記憶媒体

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110613

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121002

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121030

R151 Written notification of patent or utility model registration

Ref document number: 5127592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151109

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees