JP5240305B2 - 被写体特定用プログラム、およびカメラ - Google Patents

被写体特定用プログラム、およびカメラ Download PDF

Info

Publication number
JP5240305B2
JP5240305B2 JP2011020076A JP2011020076A JP5240305B2 JP 5240305 B2 JP5240305 B2 JP 5240305B2 JP 2011020076 A JP2011020076 A JP 2011020076A JP 2011020076 A JP2011020076 A JP 2011020076A JP 5240305 B2 JP5240305 B2 JP 5240305B2
Authority
JP
Japan
Prior art keywords
subject
image
evaluation value
specifying
binarized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011020076A
Other languages
English (en)
Other versions
JP2011217355A (ja
Inventor
啓之 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011020076A priority Critical patent/JP5240305B2/ja
Priority to US13/046,334 priority patent/US8675958B2/en
Publication of JP2011217355A publication Critical patent/JP2011217355A/ja
Application granted granted Critical
Publication of JP5240305B2 publication Critical patent/JP5240305B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Processing (AREA)

Description

本発明は、被写体特定用プログラム、およびカメラに関する。
次のような撮像装置が知られている。この撮像装置は、使用者によって選択されたAF領域に基づいて被写***置を特定し、特定した被写体を対象として焦点調節処理を行う(例えば、特許文献1)。
特開2004−205885号公報
しかしながら、従来の撮像装置では、使用者によって選択されたAF領域に基づいて、被写体の位置や大きさや形状を特定することはできなかった。
請求項1に記載の被写体特定用プログラムは、対象画像の色情報および輝度情報に基づいて1つの画像を複数の区分画像に区分する区分手順と、前記複数の区分画像のそれぞれを色相情報、色差情報、および輝度情報を用いて2値化して複数の2値化画像を生成する2値化手順と、前記対象画像内での被写***置推定点を設定する手順と、前記複数の2値化画像のそれぞれに対して、2値化画像内における白画素で構成される白画素領域の面積を、該白画素領域の前記被写***置推定点を中心とした慣性モーメントで除して算出される第1の評価値を算出する評価値算出手順と、前記第1の評価値に基づいて、前記対象画像内における被写体の位置と大きさと形状との少なくとも一つを特定する被写体特定手順とをコンピュータに実行させることを特徴とする。
請求項2に記載の被写体特定用プログラムは、対象画像の色差情報と輝度情報とに基づいて1つの画像を複数の区分画像に区分する第1の区分手順と、前記対象画像の前記色差情報を組み合わせた色差空間情報に基づいて1つの画像を複数の区分画像に区分する第2の区分手順と、前記第1の区分手順によって区分された前記複数の区分画像のそれぞれを前記色差情報または前記輝度情報を用いて2値化し、前記第2の区分手順によって区分された前記複数の区分画像のそれぞれを前記色差空間情報を用いて2値化して、複数の2値化画像を生成する2値化手順と、前記対象画像内での被写***置推定点を設定する設定手順と、前記複数の2値化画像のそれぞれに対して、2値化画像内における白画素で構成される白画素領域の面積を、該白画素領域の前記被写***置推定点を中心とした慣性モーメントで除して算出される第1の評価値を算出する評価値算出手順と、前記第1の評価値に基づいて、前記対象画像内における被写体の位置と大きさと形状との少なくとも一つを特定する被写体特定手順とをコンピュータに実行させることを特徴とする。
請求項3に記載の被写体特定用プログラムは、請求項1又は2に記載の被写体特定用プログラムにおいて、前記評価値算出手順で評価される評価値は、前記2値化画像内における白画素で構成される白画素領域を包絡する包絡矩形の面積と前記白画素で構成される白画素領域の面積とに基づいて算出される第2の評価値、前記包絡矩形の縦横比に基づいて算出される第3の評価値、および人物の顔を含む領域の大きさに基づいて算出される第4の評価値の少なくとも1つを含むことを特徴とする。
請求項4に記載の被写体特定用プログラムは、請求項3に記載の被写体特定用プログラムにおいて、前記被写体特定手順は、複数の前記白画素領域の中から、前記第2の評価値、前記第3の評価値、および前記第4の評価値に基づいて、前記白画素領域を除外し、残った前記白画素領域の中から、前記第1の評価値が大きい前記白画素領域を被写体候補として特定することを特徴とする。
請求項5に記載の被写体特定用プログラムは、請求項1又は2に記載の被写体特定用プログラムにおいて、前記被写***置推定点は、使用者によって指定された位置、または被写体の顔が検出された位置のいずれかであることを特徴とする。
請求項6に記載の被写体特定用プログラムは、請求項5に記載の被写体特定用プログラムにおいて、前記被写体の顔が検出された位置に基づいて、被写体の上半身位置と下半身位置とを推定する推定手順をさらに有することを特徴とする。
請求項7に記載の被写体特定用プログラムは、請求項6に記載の被写体特定用プログラムにおいて、前記推定手順は、複数の前記上半身位置と複数の前記下半身位置とを推定することを特徴とする。
請求項8に記載の被写体特定用プログラムは、請求項7に記載の被写体特定用プログラムにおいて、前記被写体特定手順は、前記上半身位置に応じた前記白画素領域と、前記下半身位置に応じた前記白画素領域とを合成することにより、前記被写体の位置と大きさと形状との少なくとも一つを特定することを特徴とする。
請求項9に記載の被写体特定用プログラムは、請求項4に記載の被写体特定用プログラムにおいて、前記被写体特定手順は、前記被写体候補のうち前記第1の評価値の大きい候補の複数を組み合わせて各々の白画素領域を合成することにより、前記被写体の位置と大きさと形状との少なくとも一つを特定することを特徴とする。
請求項10に記載の被写体特定用プログラムは、請求項1〜4のいずれか一項に記載の被写体特定用プログラムにおいて、前記被写体特定手順は、被写体推定位置に応じた第1の白画素領域と、前記第1の白画素領域と測距点が最も近くかつ画面上で近い位置にある第2の白画素領域とを合成することにより、前記被写体の位置と大きさと形状との少なくとも一つを特定することを特徴とする。
請求項11に記載のカメラは、請求項1〜10のいずれか一項に記載の被写体特定用プログラムを実行するための実行手段を備えることを特徴とする。
本発明によれば、被写体の位置とともに、被写体の大きさや形状を特定することができる。
カメラの一実施の形態の構成を示すブロック図である。 撮影画面上におけるAFセンサの配置位置を模式的に示した図である。 色相環を示す図である。 第1の実施の形態における被写体抽出処理の流れを示すフローチャート図である。 対象画像の具体例を示す第1の図である。 対象画像の具体例を示す第2の図である。 対象画像を色相に基づいて8つの象限に区分し、各画像を2値化した場合の具体例を示す図である。 2値化したYプレーン画像、2値化したCbプレーン画像、2値化したCrプレーン画像、および2値化したY補数画像の具体例を示す図である。 2値化画像に対してノイズ除去を施した場合を示す第1の図である。 2値化画像に対してノイズ除去を施した場合を示す第2の図である。 従の評価値1によって排除される島の具体例を示す図である。 画面の左端および右端にかかる島を被写体候補から除外する場合の具体例を示す図である。 主の評価値に基づいて抽出された被写体候補の具体例を示す図である。 対象画像内の被写体の位置、大きさ、形状の具体例を示す第1の図である。 対象画像内の被写体の位置、大きさ、形状の具体例を示す第2の図である。 連写撮影の場合の処理について模式的に示した図である。 第2の実施の形態における被写体抽出処理の流れを示すフローチャート図である。 Yプレーン画像、Crプレーン画像、Cbプレーン画像、およびY補数プレーン画像の2値化方法を模式的に示す図である。 第2の実施の形態における対象画像の具体例を示す図である。 Yプレーン画像、Crプレーン画像、Cbプレーン画像、およびY補数プレーン画像の2値化例を示す図である。 色差空間を8つに区分した例を模式的に示す図である。 色差空間上での2値化例を示す図である。 第2の実施の形態におけるマスク合成処理の流れを示すフローチャート図である。 マスクの包含状態の具体例を示す図である。 第2の実施の形態における1位のマスクと2位のマスクの抽出例を示す図である。 第2の実施の形態における1位のマスクと2位のマスクを合成して選択した合成マスクの具体例を示す図である。 第3の実施の形態における処理で用いる6区分の2値化画像の具体例を示す図である。 第3の実施の形態における1位のマスクと2位のマスクの抽出例を示す図である。 第3の実施の形態における1位のマスクと2位のマスクを合成して選択した合成マスクの具体例を示す図である。 第4の実施の形態における対象画像の具体例を示す図である。 第4の実施の形態における処理で用いる6区分の2値化画像の具体例を示す図である。 第5の実施の形態における処理で用いる6区分の2値化画像の具体例を示す図である。 第5の実施の形態における被写体の抽出例を示す図である。
―第1の実施の形態―
図1は、本実施の形態におけるカメラの一実施の形態の構成を示すブロック図である。カメラ100は、操作部材101と、レンズ102と、撮像素子103と、制御装置104と、メモリカードスロット105と、モニタ106とを備えている。操作部材101は、使用者によって操作される種々の入力部材、例えば電源ボタン、レリーズボタン、ズームボタン、十字キー、決定ボタン、再生ボタン、削除ボタンなどを含んでいる。
レンズ102は、複数の光学レンズから構成されるが、図1では代表して1枚のレンズで表している。撮像素子103は、例えばCCDやCMOSなどのイメージセンサーであり、レンズ102により結像した被写体像を撮像する。そして、撮像によって得られた画像信号を制御装置104へ出力する。
制御装置104は、撮像素子103から入力された画像信号に基づいて所定の画像形式、例えばJPEG形式の画像データ(以下、「本画像データ」と呼ぶ)を生成する。また、制御装置104は、生成した画像データに基づいて、表示用画像データ、例えばサムネイル画像データを生成する。制御装置104は、生成した本画像データとサムネイル画像データとを含み、さらにヘッダ情報を付加した画像ファイルを生成してメモリカードスロット105へ出力する。本実施の形態では、本画像データとサムネイル画像データとは、いずれもRGB表色系で表された画像データであるものとする。
メモリカードスロット105は、記憶媒体としてのメモリカードを挿入するためのスロットであり、制御装置104から出力された画像ファイルをメモリカードに書き込んで記録する。また、メモリカードスロット105は、制御装置104からの指示に基づいて、メモリカード内に記憶されている画像ファイルを読み込む。
モニタ106は、カメラ100の背面に搭載された液晶モニタ(背面モニタ)であり、当該モニタ106には、メモリカードに記憶されている画像やカメラ100を設定するための設定メニューなどが表示される。また、制御装置104は、使用者によってカメラ100のモードが撮影モードに設定されると、撮像素子103から時系列で取得した画像の表示用画像データをモニタ106に出力する。これによってモニタ106にはスルー画が表示される。
制御装置104は、CPU、メモリ、およびその他の周辺回路により構成され、カメラ100を制御する。なお、制御装置104を構成するメモリには、SDRAMやフラッシュメモリが含まれる。SDRAMは、揮発性のメモリであって、CPUがプログラム実行時にプログラムを展開するためのワークメモリとして使用されたり、データを一時的に記録するためのバッファメモリとして使用される。また、フラッシュメモリは、不揮発性のメモリであって、制御装置104が実行するプログラムのデータや、プログラム実行時に読み込まれる種々のパラメータなどが記録されている。
本実施の形態では、制御装置104は、画像内におけるAFエリアの位置と、画像の色情報または輝度情報とに基づいて、画像内における被写体の位置を特定するとともに、該被写体の位置と大きさと形状とを特定する。なお、AFエリアの位置とは、撮影時に焦点検出用に選択されたAFエリアの位置をいう。例えば、本実施の形態では、図2に示すように、撮影画面上にAFセンサの配置位置に応じた51個のAFエリアが2次元配列されている。そして、制御装置104は、画像内の被写***置に近い複数のAFエリアをモニタ106上に表示する。そして、使用者がその中から被写***置に最も近いと判断したAFエリアを選択すると、その選択されたAFエリアを対象公知の焦点調節処理(AF処理)を行って焦点調節を行う。
また、本実施の形態では、被写体の位置、大きさ、形状を特定するための情報として、画像の色情報のうち色相を用いる。このために、制御装置104は、まず、被写***置を特定する対象画像の各画素ごとに、R、G、Bの各値を次式(1)を用いて色相(Hue)の角度に変換する。
Figure 0005240305
なお、色相は、図3に示す色相環により表され、色相(Hue)の角度とは、各画素の色相値の色相環上での角度をいう。
以下、図4に示すフローチャートを用いて本実施の形態における焦点調節対象の被写体抽出処理について説明する。なお、図5に示す処理は、撮像素子103からの画像データの入力が開始されると起動するプログラムとして、制御装置104によって実行される。本実施の形態では、後述するように、被写体の顔を検出することができる画像と、被写体の顔を検出できない画像とで処理の内容が異なる。そこで、以下では、被写体の顔を検出することができる画像として例えば図5に示す画像を用いて説明を行い、被写体の顔を検出することができない画像として例えば図6に示す画像を用いて説明を行う。
ステップS100において、制御装置104は、撮像素子103から入力される画像データを読み込んで、ステップS200へ進む。ステップS200では、制御装置104は、以降の処理速度を向上させるために読み込んだ画像データの画像サイズを小さくする。なお、制御装置104に処理能力がある場合はこのステップS200は行なわなくてもよい。その後、ステップS300へ進み、制御装置104は、上述したように、式(1)を用いて、対象画像のR、G、B値を色相(Hue)の角度に変換する。その後、ステップS400へ進む。
ステップS400では、制御装置104は、図3に示した色相環を45度幅で8象限に区分する。これによって、色相環は、0度≦hue<45度の第1象限、45度≦hue<90度の第2象限、90度≦hue<135度の第3象限、135度≦hue<180度の第4象限、180度≦hue<225度の第5象限、225度 ≦hue<270度の第6象限、270度≦hue<315度の第7象限、315度≦hue<360度の第8象限に区分される。
そして、制御装置104は、各象限の画像内の各画素を、各象限の色相の角度に基づいて2値化する。すなわち、制御装置104は、上記各象限の画像内の各画素のうち、色相の角度がその象限の色相の角度の範囲内にある画素を白画素とし、それ以外の画素を黒画素としたマスク画像を生成する。これによって、例えば、図5に示した対象画像に対しては、図7に示すように、第1象限のマスク画像7aから第8象限のマスク画像7hが生成される。
その後、ステップS450へ進み、制御装置104は、対象画像をYCbCr形式の画像に変換し、Y成分の画像(Yプレーン画像)、Cr成分の画像(Crプレーン画像)、および、Cb成分の画像(Cbプレーン画像)をそれぞれ生成する。また、制御装置104は、Yプレーン画像の白画素と黒画素を反転させたY補数プレーン画像を生成する。具体的には、RGB表色系で表されている対象画像を次式(2)〜(4)を用いてYCbCr色空間における輝度成分(Y成分)からなる輝度画像と色差成分(Cb成分、Cr成分)とからなる色差画像とに変換する。
すなわち、制御装置104は、対象画像について、次式(2)を用いてY成分からなる輝度画像をYプレーン画像として生成し、次式(3)および(4)を用いてCb成分からなる色差画像とCr成分からなる色差画像とをそれぞれCbプレーン画像、およびCrプレーン画像として生成する。
Y = 0.299R+0.587G+0.114B ・・・(2)
Cb=−0.169R−0.332G+0.500B ・・・(3)
Cr= 0.500R−0.419G−0.081B ・・・(4)
そして、制御装置104は、生成したYプレーン画像、Cbプレーン画像、およびCrプレーン画像、Y補数プレーン画像のそれぞれについて、画像内の全画素の濃度値を調べ、各濃度値の平均と各濃度の標準偏差とを算出して、ステップS500へ進む。
ステップS500では、制御装置104は、Yプレーン画像、Cbプレーン画像、Crプレーン画像、およびY補数プレーン画像の各画素を各々の平均値で2値化した第1の2値化画像と、各画像の画素を平均値+σで2値化した第2の2値化画像とを作成する。例えば、図5に示した対象画像に対しては、図8に示すように、Yプレーン画像についての第1の2値化画像8aと第2の2値化画像8b、Cbプレーン画像についての第1の2値化画像8cと第2の2値化画像8d、Crプレーン画像についての第1の2値化画像8eと第2の2値化画像8f、Y補数プレーン画像についての第1の2値化画像8gと第2の2値化画像8hとが生成される。
その後、ステップS600へ進み、制御装置104は、内蔵された顔検出機能により顔の検知処理を行い、対象画像内から顔が検知されたか否かを判断する。例えば、制御装置104は、対象画像に対して公知の顔認識処理を実行し、その結果、対象画像内から人物の顔が検出されたか否かを判断する。ステップS600で否定判断した場合、すなわち、対象画像が図6に示したように顔を検知することができない画像である場合には、ステップS700へ進む。ステップS700では、対象画像内の画像の中心位置、または対象画像内の焦点調節位置(AF位置)を被写体の推定位置(被写***置推定点)として設定した後、後述するステップS1000へ進む。
これに対して、ステップS600で肯定判断した場合、すなわち、対象画像が図5に示したように顔を検知することができる画像である場合には、ステップS800へ進む。ステップS800では、制御装置104は、図5に示すように、顔検出処理によって検出された顔を含む領域5aを特定し、特定した領域5aの大きさに基づいて、被写体の上半身の位置と下半身の位置とを推定する。
例えば、制御装置104は、特定した領域5aの中心から垂直方向の下方へ所定距離移動した点5bと、領域5aを囲む垂直方向の枠線を下方へ所定距離延長した点5cおよび点5dとの3点を被写体の上半身の位置として推定する。また、制御装置104は、上記点5bをさらに下方へ所定距離移動させた点5eおよび5fと、上記点5cを下方へ所定距離移動させた点5gと、上記点5dを下方へ所定距離移動させた点5hとの4点を被写体の下半身の位置として推定する。これにより、対象画像内には、上半身位置の推定点5b〜5dと、下半身位置の推定点5e〜5hとが設定される。なお、本実施の形態では、上半身位置の推定点5b〜5dを被写***置推定点と呼ぶ。
その後、ステップS900へ進み、制御装置104は、特定した領域5aの面積に基づいて、後の処理で用いる評価値を算出する。例えば、制御装置104は、領域5aの面積に所定の倍率、例えば0.5と2.0とをかけた2つの評価値を算出する。なお、ここで算出する評価値は、後の処理で算出する他の評価値と区別するための「従の評価値3」と呼ぶこととする。その後、ステップS1000へ進む。
ステップS1000では、制御装置104は、図7および図8に示した16枚の2値化画像のうちの1つを選択し、選択した2値化画像に対して、メディアンフィルタを用いてノイズ除去を施す。例えば、図7に示した各画像に対してノイズ除去を行なった結果として、図9に示す2値画像が得られ、図8に示した各画像に対してノイズ除去を行なった結果として図10に示す2値画像が得られる。以降の処理は、ノイズ除去を行なった2値化画像に対して実行される。
その後、ステップS1100へ進み、制御装置104は、ステップS100で選択してノイズ除去を行なった2値化画像を対象としてラベリング処理を行う。具体的には、制御装置104は以下のようにラベリング処理を行う。まず制御装置104は、2値化画像内から白画素のまとまりと黒画素のまとまりをラベリング領域として抽出し、抽出したラベリング領域のうち、白画素で構成されるラベリング領域を島として検出する。
その後、ステップS1200へ進み、制御装置104は、2値化画像内で検出した各島の面積を算出して、ステップS1300へ進む。ステップS1300では、制御装置104は、2値化画像内で検出した島を対象として、ステップS700またはステップS800で設定した被写***置推定点を中心とした慣性モーメント(白画素の重心周りの慣性モーメント)を算出する。なお、2値化画像における慣性モーメントの算出方法については、公知のため詳細な説明を省略するが、例えば、被写***置推定点からの画素距離の2乗×(0または1)の和により算出することができる。その後、ステップS1400へ進む。
ステップS1400では、制御装置104は、2値化画像内から一定以上の大きさの島、例えば、2値化画像全体の面積に対する面積比が60%以上の島と、一定以下の大きさの島、例えば、2値化画像全体の面積に対する面積比が1%以下の島とを除外する。その後、ステップS1500へ進み、制御装置104は、ステップS1400で除外した結果残った島を対象として、ステップS1300で算出した白画素の重心周りの慣性モーメントに基づいて、対象画像内における被写***置を特定するとともに、対象画像内における被写体の位置と大きさと形状とを特定するために用いる「主の評価値」を次式(5)により算出する。
主の評価値=島を構成する白画素数/白画素の重心を中心とした慣性モーメント ・・・(5)
その後、ステップ1600へ進み、制御装置104は、各島に対して島を包絡する包絡矩形を設定し、次式(6)により各島ごとに「従の評価値1」を算出する。
従の評価値1=白画素面積/包絡矩形の面積 ・・・(6)
この従の評価値1は、例えば、図11に示すような被写体に通常なりえない凸凹やスカスカに空いている島を排除するためのものであり、後述するステップS1720において、この値が所定の閾値(例えば0.2)以下である場合には、制御装置104は、その島を以降の処理対象から除外する。
その後、ステップ1700へ進み、制御装置104は、各島の中から通常被写体としてはあり得ない細長いものを排除するために用いる評価値として、ステップS1600で設定した包絡矩形の縦横比を各島ごとの「従の評価値2」として算出する。後述するステップS1720では、この値が所定の範囲内、例えば0.2以上5未満である島は、通常被写体としてはあり得ない細長いものであるとして、以降の処理対象から除外される。その後、ステップS1720へ進む。
ステップ1720では、制御装置104は、上述した「従の評価値1」と「従の評価値2」とを用いて、2値化画像に含まれる各島の足切りを行なう。すなわち、制御装置104は、上述したように、各島のうち、「従の評価値1」が所定の閾値、例えば0.2以下の島、および「従の評価値2」が所定の範囲内、例えば0.2以上5未満の島を被写体候補か除外することにより、以降の処理対象から排除する。その後、ステップS1750へ進む。
ステップS1750では、制御装置104は、画面の左端および右端にかかる島を被写体候補から除外する。例えば、図12に示すように、左端、右端ともに島の画素数が縦画素の1/3以上であれば排除する。これによって、図12に示す2値化画像では、左端にかかる島12aと右端にかかる島12bとが排除される。その後、ステップS1800へ進む。
ステップS1800では、制御装置104は、上述したステップS600での判断結果に基づいて、対象画像が顔が検知可能な画像であるか否かを判断する。ステップS1800で否定判断した場合には、後述するステップS2000へ進む。これに対して、ステップS1800で肯定判断した場合には、ステップS1900へ進む。ステップS1900では、制御装置104は、ステップ900で算出した従の評価値3を用いて、2値化画像内に含まれる各島の足切りを行なう。例えば、制御装置104は、ステップS900で領域5aの面積に所定の倍率、例えば0.5と2.0とをかけた算出した2つの従の評価値3を用いて、面積が領域5aの面積に0.5をかけて算出した従の評価値3以下の島と、面積が領域5aの面積に2をかけて算出した従の評価値3以上の島を被写体候補から除外する。これにより被写体になり得ない大き過ぎる島と小さ過ぎる島とを除外することができる。
その後、ステップS2000へ進み、上述したように、2値化画像内に含まれる島のうち、従の評価値1〜3を用いて足切りを行った結果、残った島を対象として、主の評価値の大きさが最も大きい1位の島と、2番目に大きい2位の島とを、その2値化画像における被写体候補として抽出し、ステップS2100へ進む。ステップS2100では、制御装置104は、図7および図8に示した16枚の2値化画像の全てに対してステップS1000からステップS2000の処理が完了したか否かを判断する。ステップS2100で否定判断した場合は、ステップS1000へ戻り、制御装置104は、未処理の2値化画像のうちの1つを選択して処理を繰り返す。これに対して、ステップS2100で肯定判断した場合には、ステップS2200へ進む。
ステップS2200では、制御装置104は、上述したステップS600での判断結果に基づいて、対象画像が顔が検知可能な画像であるか否かを判断する。ステップS2200で肯定判断した場合には、ステップS2500へ進み、制御装置104は、各2値化画像について、ステップS2000で抽出した被写体候補、すなわち主の評価値の大きさが最も大きい1位の島と、2番目に大きい2位の島のうち、上半身3箇所(点5b〜5d)と下半身4箇所(点5e〜5h)のそれぞれの位置に対応した島を選択する。これによって、例えば、図13に示すように、2値化画像10b内の下半身を示す島13a〜13cと、2値化画像10c内の上半身を示す島13d〜13hと、2値化画像9d内の上半身を示す島13i〜13mとが選択される。
その後、ステップS2600へ進み、制御装置104は、ステップS2500で島を選択した2値化画像10b、10c、9dを合成して、対象画像内における被写体の形状を抽出する。これによって、図14に示すように、対象画像内における被写体14aの位置と形状が抽出される。また、これにより、対象画像内における被写体14aの大きさも特定される。その後、ステップS2700へ進み、制御装置104は、ステップS2500で選択した各島の対象画像内における重心位置、および合成を行った2値化画像の数をメモリに記録して処理を終了する。
一方、ステップS2200で否定判断した場合には、ステップS2300へ進み、制御装置104は、ステップS2000で抽出した主の評価値の大きさが最も大きい1位の島(第1の島)を被写体推定点とし、該被写体推定点の近傍の測距値を算出する。その後、ステップS2400へ進み、制御装置104は、各2値化画像について、第1の島と、該第1の島と測距点が最も近くかつ画面上で近い位置にある島を第2の島として特定する。そして、制御装置104は、第1の島が抽出された2値化画像と、第2の島が抽出された2値化画像とを合成することによって、対象画像内における被写体の位置と大きさと形状とを特定する。例えば、図15に示すように、2値化画像15a内から第1の島15bが抽出され、2値化画像15cから第2の島15dが抽出された場合には、2値化画像15aと2値化画像15cとを合成して得られた合成画像15eに基づいて、被写体15fの位置と大きさと形状とを特定することができる。
以上説明した第1の実施の形態によれば、以下のような作用効果を得ることができる。
(1)制御装置104は、hueの角度に基づいて対象画像を8つの象限に区分し、各象限の画像を2値化した。また、輝度画像と色差画像とを2値化し、さらに2値化した輝度画像を反転させて2値化したY補数画像を得た。制御装置104は、これらの2値化画像に基づいて、対象画像内における被写体の位置と大きさと形状とを特定するために用いる評価値を算出し、評価値に基づいて対象画像内における被写体の位置と大きさと形状とを特定するようにした。これによって、対象画像内における被写体の位置と大きさと形状とを精度高く特定することができる。
(2)評価値は、式(5)により算出される主の評価値を含むようにした。これによって、島の面積、および島内の白画素がまとまり具合を加味して、精度高く被写体の位置と大きさと形状とを特定することができる。
(3)評価値は、式(6)により算出される従の評価値1、各島に対して島を包絡する包絡矩形の縦横比に基づいて算出される従の評価値2、および人物の顔を含む領域の大きさに基づいて算出される従の評価値3を含むようにした。これによって、通常被写体としてはあり得ない形状や大きさの島をあらかじめ処理対象から除外することができる。
(4)制御装置104は、複数の島の中から、従の評価値1〜3に基づいて、被写体である可能性が低い島を処理対象から除外し、残った島の中から、主の評価値が大きい島を被写体候補として特定するようにした。これによって、被写体候補を精度高く特定することができる。
(5)制御装置104は、使用者によって指定された位置、または被写体の顔が検出された位置のいずれかを被写体推定位置として設定するようにした。これによって、簡易な処理で被写***置を推定することができる。
(6)制御装置104は、被写体の顔が検出された位置に基づいて、被写体の上半身位置と下半身位置とを推定するようにした。これによって、被写体の顔位置を基準に簡易な処理で被写体の上半身位置と下半身位置とを推定することができる。
(7)制御装置104は、被写体の上半身位置に応じた島と、下半身位置に応じた島とを合成することにより、被写体の位置と大きさと形状とを特定するようにした。これによって、被写体の顔が検出できる場合には、精度高く被写体の位置と大きさと形状とを特定することができる。
(8)制御装置104は、主の評価値の大きさが最も大きい第1の島と、該第1の島と測距点が最も近くかつ画面上で近い位置にある島を第2の島を特定し、これらを合成することによって被写体の位置と大きさと形状とを特定するようにした。これによって、被写体の顔が検出できない場合にも、精度高く被写体の位置と大きさと形状とを特定することができる。
―第2の実施の形態―
上述した第1の実施の形態では、制御装置104は、被写体の位置、大きさ、形状を特定するための情報として、画像の色情報のうち色相を用いる例について説明した。これに対して、第2の実施の形態では、制御装置104は、被写体の位置、大きさ、形状を特定するための情報として、画像の色情報のうちの輝度、色差、および色差空間を用いる例について説明する。
図17は、第2の実施の形態における焦点調節対象の被写体抽出処理の流れを示す図である。図17に示す処理は、撮像素子103からの画像データの入力が開始されると起動するプログラムとして、制御装置104によって実行される。ステップS3000において、制御装置104は、撮像素子103から入力される画像データを読み込んで、ステップS3100へ進む。ステップS3100では、ステップS3000で読み込んだ画像データ上における被写体の大まかな位置の使用者からの入力を受け付ける。この被写***置の入力は、行った方が正確に被写体を抽出することができるが、被写体の抽出精度を問わないのであれば、使用者による指定を受け付けずに、制御装置104が、画像内の特定位置、例えば画像の中心位置を被写***置として設定するようにしてもよい。
その後、ステップS3200へ進み、制御装置104は、第1の実施の形態と同様に、対象画像をYCbCr形式の画像に変換し、Yプレーン画像、Crプレーン画像、Cbプレーン画像、およびY補数プレーン画像をそれぞれ生成する。そして、Yプレーン画像、Crプレーン画像、および、Cbプレーン画像、Y補数プレーン画像のそれぞれについて、画素値の平均値Aveと標準偏差σとを算出する。その後、ステップS3300へ進み、制御装置104は、縦軸をCb値、横軸をCr値とした2次元で表した色差空間(CbCr空間)を作成して、ステップS3400へ進む。
ステップS3400では、制御装置104は、図18に示すように、Yプレーン画像、Crプレーン画像、Cbプレーン画像、およびY補数プレーン画像を、各々のプレーン画像の画素値の平均値Aveと標準偏差σとを閾値として2値化する。これにより、図19に示す対象画像に基づいて、図20に示すように、Yプレーン画像、Crプレーン画像、Cbプレーン画像、およびY補数プレーン画像のそれぞれに対して4枚ずつ、すなわち16区分の2値化画像が生成される。
その後、ステップS3500へ進み、制御装置104は、YCbCr形式に変換した画像データを用いて、対象画像をステップS3300で作成した色差空間上で8区分に2値化する。具体的には、制御装置104は、図21に示すように、縦軸をCb値、横軸をCr値として2次元で表した色差空間(CbCr空間)を等角度間隔で8つの区分21a〜21hに分割する。そして、制御装置104は、対象画像と同じ大きさの区分画像を区分21a〜21hのそれぞれに対応させて8枚用意し、それら8枚の区分画像の全ての画素値を0としておく。
制御装置104は、Cbプレーン画像とCrプレーン画像との対応する画素の画素値を用いて、次式(7)〜(14)を用いて対象画像を区分21a〜21hの8区分に2値化する。すなわち、制御装置104は、対象画像のCb値とCr値との大小関係、Cb値の符号、およびCr値の符号に基づいて、対象画像を区分21a〜21hの各区分ごとに2値化する。
Cb≧0 かつ Cr≧0 かつ |Cr|≧|Cb| = 区分21a・・・(7)
Cb≧0 かつ Cr≧0 かつ |Cr|<|Cb| = 区分21b・・・(8)
Cb≧0 かつ Cr<0 かつ |Cr|≦|Cb| = 区分21c・・・(9)
Cb≧0 かつ Cr<0 かつ |Cr|>|Cb| = 区分21d・・・(10)
Cb<0 かつ Cr<0 かつ |Cr|>|Cb| = 区分21e・・・(11)
Cb<0 かつ Cr<0 かつ |Cr|≦|Cb| = 区分21f・・・(12)
Cb<0 かつ Cr≧0 かつ |Cr|<|Cb| = 区分21g・・・(13)
Cb<0 かつ Cr≧0 かつ |Cr|≧|Cb| = 区分21h・・・(14)
具体的には、制御装置104は、Cbプレーン画像とCrプレーン画像との対応する画素の画素値が式(7)を満たす場合には、区分21aの区分画像の対応する画素の画素値を1に変更する。また、制御装置104は、Cbプレーン画像とCrプレーン画像との対応する画素の画素値が式(8)を満たす場合には、区分21bの区分画像の対応する画素の画素値を1に変更する。同様に、制御装置104は、Cbプレーン画像とCrプレーン画像との対応する画素の画素値が式(9)を満たす場合には、区分21cの区分画像の対応する画素の画素値を1に変更し、Cbプレーン画像とCrプレーン画像との対応する画素の画素値が式(10)を満たす場合には、区分21dの区分画像の対応する画素の画素値を1に変更する。
また、制御装置104は、Cbプレーン画像とCrプレーン画像との対応する画素の画素値が式(11)を満たす場合には、区分21eの区分画像の対応する画素の画素値を1に変更し、Cbプレーン画像とCrプレーン画像との対応する画素の画素値が式(12)を満たす場合には、区分21fの区分画像の対応する画素の画素値を1に変更する。また、制御装置104は、Cbプレーン画像とCrプレーン画像との対応する画素の画素値が式(13)を満たす場合には、区分21gの区分画像の対応する画素の画素値を1に変更し、Cbプレーン画像とCrプレーン画像との対応する画素の画素値が式(14)を満たす場合には、区分21hの区分画像の対応する画素の画素値を1に変更する。
制御装置104は、Cbプレーン画像とCrプレーン画像との対応する全ての画素について、上記式(7)〜(14)を用いた判定を行うことにより、8枚の区分画像に基づいて、8枚の2値化画像を生成する。これにより、図19に示した対象画像に基づいて、図22に示す8区分の2値化画像が生成される。
その後、ステップS3600へ進む。ステップS3600からステップS4100までの処理は、図20に示した16区分の2値化画像と、図22に示した8区分の2値化画像との計24区分の2値化画像のそれぞれに対して実行される。ステップS3600では、制御装置104は、図20に示した16区分の2値化画像と、図22に示した8区分の2値化画像との計24区分の画像のうちから選択した1つの2値化画像を対象としてラベリング処理を行って、2値化画像における画素の繋がり状態を認識する。ラベリング処理としては、公知の方法が用いられる。例えば、制御装置104は、2値化画像内から白画素のまとまりと黒画素のまとまりをラベリング領域として抽出し、抽出したラベリング領域のうち、白画素で構成されるラベリング領域を島として検出して、各島に対してラベルを付与することによりラベリングを行う。
その後、ステップS3700へ進み、制御装置104は、ラベルが付与されたそれぞれの島(白画素の塊)が一つもないか否かを判断する。ステップS3700で否定判断した場合には、後述するステップS4200へ進む。これに対して、ステップS3700で肯定判断した場合には、ステップS3800へ進む。ステップS3800では、制御装置104は、ラベリングされた各島の白画素面積を算出する。その後、ステップS3900へ進み、制御装置104は、ラベリングされた各島の白画素を対象として、ステップS3100で使用者によって指定された被写体の位置を中心とした慣性モーメント(白画素の重心周りの慣性モーメント)を演算する。なお、2値化画像における白画素の重心周りの慣性モーメントの算出方法については、公知のため詳細な説明を省略するが、例えば、被写***置推定点からの画素距離の2乗×(0または1)の和により算出することができる。その後、ステップS4000へ進む。
ステップS4000では、制御装置104は、ステップS3900で算出した白画素の重心周りの慣性モーメントに基づいて、次式(15)により主の評価値を算出する。
主の評価値 = 島を構成する白画素数/白画素の重心を中心とした慣性モーメント ・・・(15)
その後、ステップS4100へ進み、制御装置104は、ステップS4000で算出した主の評価値が最も大きい1位の島と、2番目に大きい2位の島とを、その2値化画像における被写体候補として抽出して、ステップS4200へ進む。ステップS4200では、制御装置104は、図20に示した16区分の2値化画像と、図22に示した8区分の2値化画像との計24区分の2値化画像の全てについて、ステップS3600からステップS4100までの処理が完了したか否かを判断する。ステップS4200で否定判断した場合には、ステップS3600へ戻り、まだ処理を行っていない2値化画像の中から1つを選択して、ステップS3600からステップS4100までの処理を実行する。これに対して、ステップS4200で肯定判断した場合には、ステップS4300へ進む。
ステップS4300では、制御装置104は、24区分の全てからそれぞれ抽出した1位の島と2位の島、すなわち合計48個の島の主の評価値を比較して、24区分全体の1位の島と2位の島を抽出する。ここで抽出した24区分全体の1位の島と2位の島を、ステップS4100で各区分ごとに抽出した1位の島と2位の島と区別するために、1位のマスク、2位のマスクと呼ぶ。その後、ステップS4400へ進み、制御装置104は、全体の1位の島と2位の島のそれぞれの重心の座標と、それぞれの島を包絡する包絡枠の座標とを演算して、ステップS4500へ進む。
ステップS4500では、制御装置104は、図23に示すマスク合成処理を実行する。ここで、マスク合成処理について説明する。ステップS4510において、制御装置104は、次式(16)により、MaskRateを算出する。
MaskRate = 2位のマスクの面積/1位のマスクの面積 ・・・(16)
その後、ステップS4520へ進み、制御装置104は、制御装置104は、MaskRateが所定の範囲内にあるか否か、例えば、0.33より大きく3より小さいか否かを判断する。ステップS4520で否定判断した場合には、後述するステップS4540へ進む。これに対して、ステップS4520で肯定判断した場合には、ステップS4530へ進む。このように、MaskRateが所定の範囲内にある場合のみステップS4530の処理を実行するのは、大きさの差が大きい1位のマスクと2位マスクとが合成されるのを防ぐためである。
ステップS4530では、制御装置104は、1位のマスクを包絡する包絡枠と、2位のマスクを包絡する包絡枠とに重なる部分があるか否かを判断する。ステップS4530で否定判断した場合には、ステップS4540へ進む。ステップS4540では、制御装置104は、1位のマスクを合成マスクとして選択して、図17の処理に復帰する。
これに対して、ステップS4520で肯定判断した場合には、ステップS4550へ進む。ステップS4550では、制御装置104は、1位のマスクと2位のマスクのうちの一方が他方を包含しているか否かを判断する。例えば、制御装置104は、図24(a)に示すように、1位のマスクから2位のマスクを減算した結果、−1となる画素がなければ、1位のマスクが2位のマスクを完全包含していると判断する。一方で、1位のマスクから2位のマスクを減算した結果、+1となる画素がなければ、2位のマスクが1位のマスクを完全包含していると判断する。
また、制御装置104は、図24(b)に示すように、1位のマスクから2位のマスクを減算した結果、+1となる画素と−1となる画素とが存在する場合には、+1となる画素の数を1位のマスクの画素数で割った数値(以下「数値1」と呼ぶ)と、−1となる画素の数を2位のマスクの画素数で割った数値(以下「数値2」と呼ぶ)とを算出する。そして、制御装置104は、数値1が数値2以上であり、かつ数値2が所定の値、例えば0.05より小さい場合には、1位のマスクが2位のマスクを部分的に包含していると判断する。一方、制御装置104は、数値2が数値1より大きく、かつ数値1が所定の値、例えば0.05より小さい場合には、2位のマスクが1位のマスクを部分的に包含していると判断する。これにより、本実施の形態では、いずれか一方のマスクが他方を95%以上包含していれば、包含(完全包含または部分包含)とみなされることになる。
ステップS4550で肯定判断した場合には、ステップS4570へ進み、制御装置104は、1位のマスクと2位のマスクのうち、大きい方のマスクを合成マスクとして選択して、図17の処理に復帰する。これに対して、ステップS4550で否定判断した場合には、ステップS4560へ進み、制御装置104は、1位のマスクと2位のマスクの論理和をとって両マスクを合成し、これを合成マスクとして選択して、図17の処理に復帰する。例えば、1位のマスクが図25(a)に示すマスク25aであり、2位のマスクが図25(b)に示すマスク25bである場合には、これらの論理和をとって合成した、図26に示すマスク26aが合成マスクとして選択される。これにより、図19に示した対象画像内の被写体の形状を示す合成マスク26aを抽出することができ、合成マスク26aに基づいて、対象画像内の被写体の位置と大きさと形状とを特定することができる。
図17のステップS4600では、制御装置104は、合成マスクとして選択されたマスクに関する情報として、合成マスクの重心、合成マスクとして選択されたマスクのマスク番号、すなわちラベリング処理でふしたラベル番号、および合成マスクを包絡する包絡枠の4つの端点の座標値を出力して、処理を終了する。
以上説明した第2の実施の形態によれば、制御装置104は、画像の色情報のうちの輝度、色差、および色差空間を用いて対象画像を2値化し、これらの2値化画像に基づいて、対象画像内における被写体の位置と大きさと形状とを特定するために用いる評価値を算出し、評価値に基づいて対象画像内における被写体の位置と大きさと形状とを特定するようにした。これによって、対象画像内における被写体の位置と大きさと形状とをさらに精度高く特定することができる。
―第3の実施の形態―
上述した第2の実施の形態では、図20に示した16区分の2値化画像と、図22に示した8区分の2値化画像との計24区分の2値化画像とを対象として処理を実行することにより、合成マスクを抽出して、対象画像内の被写体の位置と大きさと形状とを特定する例について説明した。この場合、図20の区分4〜12、16はノイズが多いため、これらの区分で被写体を抽出できるマスクが出現する可能性は低いと考えられる。このため、これらの区分については、処理を行っても無駄になってしまう可能性がある。
そこで、第3の実施の形態では、図20に示した16区分の2値化画像のうち図27に示す6区分の2値化画像、すなわち、Yプレーン画像、Crプレーン画像、および、Cbプレーン画像について、画素値が平均値Ave+標準偏差σ以上の画素が白画素になるように2値化した2値化画像と、Yプレーン画像、Crプレーン画像、および、Cbプレーン画像について、画素値が平均値Ave−標準偏差σ以下の画素が白画素になるように2値化した2値化画像、および図22に示した8区分の2値化画像の計14区分の2値化画像を対象として処理を実行する。
これにより、第3の実施の形態では、図19に示した対象画像に基づいて、図28(a)に示す1位のマスク28aと、図28(b)に示す2位のマスクが18bとが抽出され、これらの論理和をとって合成した、図29に示すマスク29aが合成マスクとして選択されることになる。これにより、図19に示した対象画像内の被写体の形状を示す合成マスク29aを抽出することができ、合成マスク29aに基づいて、対象画像内の被写体の位置と大きさと形状とを特定することができる。この第3の実施の形態による処理では、第2の実施の形態と同様の結果を得ることができるが、処理に用いる2値化画像の数を第2の実施の形態よりも少なくすることができるので、処理を高速化することができる。
―第4の実施の形態―
また、図27に示す6区分の2値化画像のみを用いて処理を行うようにしてもよい。例えば、制御装置104は、図30に示す対象画像に基づいて、図31に示すような6区分の2値化画像を生成し、これらの2値化画像に基づいて、対象画像内の被写体、すなわちジェットコースターの位置と大きさと形状とを特定するようにしてもよい。この方法によれば、処理に用いる2値化画像の数をさらに少なくすることができるので、さらなる処理を高速化が可能となる。
―第5の実施の形態―
第4の実施の形態で上述した6区分の2値化画像を用いる方法では、背景と被写体とが同系色の場合に、正確に被写体の位置、大きさ、形状を特定することが困難な場合がある。このような場合には、図32に示すように、さらに3区分の2値化画像を加えた計9区分の2値化画像を用いるようにすればよい。
具体的には、制御装置104は、図32に示すように、Yプレーン画像、Crプレーン画像、および、Cbプレーン画像について、画素値が平均値Ave+標準偏差σ以上の画素が白画素になるように2値化した2値化画像と、Yプレーン画像、Crプレーン画像、および、Cbプレーン画像について、画素値が平均値Ave−標準偏差σ以下の画素が白画素になるように2値化した2値化画像との6区分の2値化画像に、画素値が平均値Ave−1.6σ以上の画素が白画素になるように2値化した3区分の2値化画像32a〜32cを加えて処理を行う。これによって、図33に示すように、2値化画像32c内から抽出された島33aによって、対象画像内における被写体の位置、大きさ、形状を特定することが可能となる。
―変形例―
なお、上述した実施の形態のカメラは、以下のように変形することもできる。
(1)連写撮影によって取得される複数の連写画像を対象として被写体の位置と大きさと形状とを特定する場合には、制御装置104は、上述した第1〜第4の実施の形態に示した方法の他に、以下のように処理を行うこともできる。例えば、図16に示すように、連写によって画像16a画像16b,画像16c、画像16dの順に時系列で画像が取得された場合には、まず、制御装置104は、最初のフレームである画像16aに対して上述した実施の形態の手法を用いて被写体抽出を行って、被写体の位置と大きさと形状とを特定する。そして、連写の場合には被写体の変化が小さいため、次フレーム以降は、ステップS2600で合成を行った2値化画像のみ、例えば、Crプレーン画像の2値化画像16e〜16hのみを用いて、処理を行えば、処理速度を向上することができる。
(2)上述した第1の実施の形態では、制御装置104は、図4に示す処理を実行して、対象画像内における被写体の位置と大きさと形状とを特定する例について説明した。しかしながら、制御装置104は、対象画像内における被写体の位置と大きさと形状の少なくとも一つを特定するようにしてもよい。
(3)上述した第1の実施の形態では、制御装置104は、従の評価値1〜3を用いて、被写体である可能性が低い島を処理対象から除外する例について説明した。しかしながら、制御装置104は、従の評価値1〜3の少なくとも1つを用いて、被写体である可能性が低い島を処理対象から除外するようにしてもよい。
(4)上述した第1の実施の形態では、制御装置104は、対象画像が顔が検知可能な画像である場合には、図4のステップS2400において、各2値化画像について、第1の島と、該第1の島と測距点が最も近くかつ画面上で近い位置にある島を第2の島として特定し、第1の島が抽出された2値化画像と、第2の島が抽出された2値化画像とを合成することによって、対象画像内における被写体の位置と大きさと形状とを特定する例について説明した。しかしながら、制御装置104は、ステップS2000で抽出した主の評価値が大きい候補の複数を組み合わせて各々の白画素領域を合成することにより、被写体の位置と大きさと形状との少なくとも一つを特定するようにしてもよい。
(5)上述した第1〜第4の実施の形態では、式(5)や式(15)によって主の評価値を算出する例について説明した。しかしながら、この式(5)で表される計算式によって算出された主の評価値によって、例えば、図22の区分21fのような背景に白画素の多い区分から被写体が抽出されると、2フレーム目以降の被写体追尾が不安定になる可能性がある。そこで、これを回避するために、次式(17)により、白画素領域(島)には該当しない白画素の面積を加味して主の評価値を算出するようにしてもよい。
主の評価値 = (島を構成する白画素数α×画面画素数)/(白画素の重心を中心とした慣性モーメント×背景画素数) ・・・(17)
なお、式(17)において、αは1.0〜1.5の範囲をとる変数である。また、背景画素数が0の場合には1に置換する。
(6)上述した第1〜第4の実施の形態では、本発明をカメラに適用する場合について説明した。しかしながら、本発明は、画像を読み込んで処理することができる他の装置、例えばパソコンや携帯端末などに適用することも可能である。
なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。また、上述の実施の形態と複数の変形例を組み合わせた構成としてもよい。
100 カメラ、101 操作部材、102 レンズ、103 撮像素子、104 制御装置、105 メモリカードスロット、106 モニタ

Claims (11)

  1. 対象画像の色情報および輝度情報に基づいて1つの画像を複数の区分画像に区分する区分手順と、
    前記複数の区分画像のそれぞれを色相情報、色差情報、および輝度情報を用いて2値化して複数の2値化画像を生成する2値化手順と、
    前記対象画像内での被写***置推定点を設定する設定手順と、
    前記複数の2値化画像のそれぞれに対して、2値化画像内における白画素で構成される白画素領域の面積を、該白画素領域の前記被写***置推定点を中心とした慣性モーメントで除して算出される第1の評価値を算出する評価値算出手順と、
    前記第1の評価値に基づいて、前記対象画像内における被写体の位置と大きさと形状との少なくとも一つを特定する被写体特定手順とをコンピュータに実行させるための被写体特定用プログラム。
  2. 対象画像の色差情報と輝度情報とに基づいて1つの画像を複数の区分画像に区分する第1の区分手順と、
    前記対象画像の前記色差情報を組み合わせた色差空間情報に基づいて1つの画像を複数の区分画像に区分する第2の区分手順と、
    前記第1の区分手順によって区分された前記複数の区分画像のそれぞれを前記色差情報または前記輝度情報を用いて2値化し、前記第2の区分手順によって区分された前記複数の区分画像のそれぞれを前記色差空間情報を用いて2値化して、複数の2値化画像を生成する2値化手順と、
    前記対象画像内での被写***置推定点を設定する設定手順と、
    前記複数の2値化画像のそれぞれに対して、2値化画像内における白画素で構成される白画素領域の面積を、該白画素領域の前記被写***置推定点を中心とした慣性モーメントで除して算出される第1の評価値を算出する評価値算出手順と、
    前記第1の評価値に基づいて、前記対象画像内における被写体の位置と大きさと形状との少なくとも一つを特定する被写体特定手順とをコンピュータに実行させるための被写体特定用プログラム。
  3. 請求項1又は2に記載の被写体特定用プログラムにおいて、
    前記評価値算出手順で評価される評価値は、前記2値化画像内における白画素で構成される白画素領域を包絡する包絡矩形の面積と前記白画素で構成される白画素領域の面積とに基づいて算出される第2の評価値、前記包絡矩形の縦横比に基づいて算出される第3の評価値、および人物の顔を含む領域の大きさに基づいて算出される第4の評価値の少なくとも1つを含むことを特徴とする被写体特定用プログラム。
  4. 請求項3に記載の被写体特定用プログラムにおいて、
    前記被写体特定手順は、複数の前記白画素領域の中から、前記第2の評価値、前記第3の評価値、および前記第4の評価値に基づいて、前記白画素領域を除外し、残った前記白画素領域の中から、前記第1の評価値が大きい前記白画素領域を被写体候補として特定することを特徴とする被写体特定用プログラム。
  5. 請求項1又は2に記載の被写体特定用プログラムにおいて、
    前記被写***置推定点は、使用者によって指定された位置、または被写体の顔が検出された位置のいずれかであることを特徴とする被写体特定用プログラム。
  6. 請求項5に記載の被写体特定用プログラムにおいて、
    前記被写体の顔が検出された位置に基づいて、被写体の上半身位置と下半身位置とを推定する推定手順をさらに有することを特徴とする被写体特定用プログラム。
  7. 請求項6に記載の被写体特定用プログラムにおいて、
    前記推定手順は、複数の前記上半身位置と複数の前記下半身位置とを推定することを特徴とする被写体特定用プログラム。
  8. 請求項7に記載の被写体特定用プログラムにおいて、
    前記被写体特定手順は、前記上半身位置に応じた前記白画素領域と、前記下半身位置に応じた前記白画素領域とを合成することにより、前記被写体の位置と大きさと形状との少なくとも一つを特定することを特徴とする被写体特定用プログラム。
  9. 請求項4に記載の被写体特定用プログラムにおいて、
    前記被写体特定手順は、前記被写体候補のうち前記第1の評価値の大きい候補の複数を組み合わせて各々の白画素領域を合成することにより、前記被写体の位置と大きさと形状との少なくとも一つを特定することを特徴とする被写体特定用プログラム。
  10. 請求項1〜4のいずれか一項に記載の被写体特定用プログラムにおいて、
    前記被写体特定手順は、被写体推定位置に応じた第1の白画素領域と、前記第1の白画素領域と測距点が最も近くかつ画面上で近い位置にある第2の白画素領域とを合成することにより、前記被写体の位置と大きさと形状との少なくとも一つを特定することを特徴とする被写体特定用プログラム。
  11. 請求項1〜10のいずれか一項に記載の被写体特定用プログラムを実行するための実行手段を備えることを特徴とするカメラ。
JP2011020076A 2010-03-19 2011-02-01 被写体特定用プログラム、およびカメラ Active JP5240305B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011020076A JP5240305B2 (ja) 2010-03-19 2011-02-01 被写体特定用プログラム、およびカメラ
US13/046,334 US8675958B2 (en) 2010-03-19 2011-03-11 Subject determination method, computer program product for determining subject, and camera

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010063718 2010-03-19
JP2010063718 2010-03-19
JP2011020076A JP5240305B2 (ja) 2010-03-19 2011-02-01 被写体特定用プログラム、およびカメラ

Publications (2)

Publication Number Publication Date
JP2011217355A JP2011217355A (ja) 2011-10-27
JP5240305B2 true JP5240305B2 (ja) 2013-07-17

Family

ID=44946577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011020076A Active JP5240305B2 (ja) 2010-03-19 2011-02-01 被写体特定用プログラム、およびカメラ

Country Status (2)

Country Link
US (1) US8675958B2 (ja)
JP (1) JP5240305B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6265640B2 (ja) * 2013-07-18 2018-01-24 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
JP2018060567A (ja) * 2017-11-24 2018-04-12 株式会社ニコン 画像処理装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06225328A (ja) * 1993-01-27 1994-08-12 Hitachi Ltd 被写体抽出装置
JP4378785B2 (ja) * 1999-03-19 2009-12-09 コニカミノルタホールディングス株式会社 画像処理機能を備えた画像入力装置
JP4284998B2 (ja) 2002-12-26 2009-06-24 ソニー株式会社 撮像装置および方法、並びにプログラム
US7340443B2 (en) * 2004-05-14 2008-03-04 Lockheed Martin Corporation Cognitive arbitration system
JP4583218B2 (ja) * 2004-07-05 2010-11-17 インターナショナル・ビジネス・マシーンズ・コーポレーション 対象コンテンツを評価する方法、コンピュータ・プログラム、システム
JP2007158941A (ja) * 2005-12-07 2007-06-21 Sony Corp 被写体領域検出装置、撮像装置、被写体領域検出方法及びプログラム
JP4924606B2 (ja) * 2006-04-28 2012-04-25 株式会社ニコン 被写体抽出方法、被写体追跡方法、画像合成方法、被写体抽出コンピュータプログラム、被写体追跡コンピュータプログラム、画像合成コンピュータプログラム、被写体抽出装置、被写体追跡装置、および画像合成装置
US20090278958A1 (en) * 2008-05-08 2009-11-12 Samsung Electronics Co., Ltd. Method and an apparatus for detecting a composition adjusted
JP5246078B2 (ja) 2009-07-10 2013-07-24 株式会社ニコン 被写***置特定用プログラム、およびカメラ

Also Published As

Publication number Publication date
JP2011217355A (ja) 2011-10-27
US20120014592A1 (en) 2012-01-19
US8675958B2 (en) 2014-03-18

Similar Documents

Publication Publication Date Title
JP5246078B2 (ja) 被写***置特定用プログラム、およびカメラ
US9858680B2 (en) Image processing device and imaging apparatus
JP5779089B2 (ja) エッジ検出装置、エッジ検出プログラム、およびエッジ検出方法
JPWO2007125866A1 (ja) 被写体抽出方法、被写体追跡方法、画像合成方法、被写体抽出コンピュータプログラム、被写体追跡コンピュータプログラム、画像合成コンピュータプログラム、被写体抽出装置、被写体追跡装置、および画像合成装置
KR101321780B1 (ko) 화상처리장치 및 화상처리방법
JP5691617B2 (ja) 被写体特定装置、および被写体追尾装置
JP5240305B2 (ja) 被写体特定用プログラム、およびカメラ
US20230386166A1 (en) Image processing apparatus and electronic apparatus
KR20110090080A (ko) 디지털 촬영장치, 그 제어방법 및 이를 실행시키기 위한 프로그램을 저장한 기록매체
JP6776532B2 (ja) 画像処理装置、撮像装置、電子機器及び画像処理プログラム
JP2018152095A (ja) 画像処理装置、撮像装置及び画像処理プログラム
JP6326841B2 (ja) 画像処理装置、撮像装置及び画像処理プログラム
JP2019008830A (ja) 被写体検出装置、撮像装置及びプログラム
JP6248662B2 (ja) 画像処理装置、撮像装置及び画像処理プログラム
JP2011147076A (ja) 画像処理装置、撮像装置およびプログラム
JP6314281B1 (ja) 画像処理方法及び前景領域取得方法
JP6405638B2 (ja) 被写体検出装置、撮像装置及びプログラム
JP6326840B2 (ja) 画像処理装置、撮像装置及び画像処理プログラム
JP2013161286A (ja) マスク抽出プログラム、画像処理装置および撮像装置
JP2019036972A (ja) 被写体検出装置、撮像装置及びプログラム
JP6318661B2 (ja) 被写体検出装置、撮像装置及び画像処理プログラム
JP2021040178A (ja) 画像処理装置、撮像装置、制御方法、およびプログラム
JP2018060567A (ja) 画像処理装置
JP2018141991A (ja) 被写体検出装置
JP2018152096A (ja) 画像処理装置、撮像装置及び画像処理プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130318

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160412

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5240305

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250