JP6525537B2 - 画像処理装置及びその制御方法、プログラム、記憶媒体 - Google Patents

画像処理装置及びその制御方法、プログラム、記憶媒体 Download PDF

Info

Publication number
JP6525537B2
JP6525537B2 JP2014202121A JP2014202121A JP6525537B2 JP 6525537 B2 JP6525537 B2 JP 6525537B2 JP 2014202121 A JP2014202121 A JP 2014202121A JP 2014202121 A JP2014202121 A JP 2014202121A JP 6525537 B2 JP6525537 B2 JP 6525537B2
Authority
JP
Japan
Prior art keywords
area
subject
information
calculating
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014202121A
Other languages
English (en)
Other versions
JP2016071734A (ja
Inventor
小林 悟
悟 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014202121A priority Critical patent/JP6525537B2/ja
Priority to US14/850,599 priority patent/US10121067B2/en
Publication of JP2016071734A publication Critical patent/JP2016071734A/ja
Application granted granted Critical
Publication of JP6525537B2 publication Critical patent/JP6525537B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮影画像中から視覚的に目立つ領域を検出する技術に関するものである。
近年、画像内に存在する被写体のうち、人間の視覚に目立ち易い被写体を検出する技術が提案されている。例えば、特許文献1では、半径の小さい訓練データ抽出領域と半径の大きい検証データ抽出領域の特徴量の違いに基づき、視覚的に顕著な領域を検出している。つまり、訓練データ抽出領域とその周囲の領域である検証データ抽出領域の特徴量の違いが大きいほど、視覚的に顕著な度合い(以下、視覚的顕著度と称す)が高いと判定している。
特開2012−123631号公報
上記の特許文献1では、被写体の学習データに基づき、訓練データ抽出領域と検証データ抽出領域の大きさを決め、画面内の任意の点における視覚的顕著度を算出している。しかしながら、仮に学習データが存在しない被写体の場合には、訓練データ抽出領域と検証データ抽出領域の大きさを決定できず、視覚的顕著度の精度が低下するといった課題がある。また、例えば、複数の大きさの領域を設定し、任意の点における視覚的顕著度を算出すると、処理量が膨大となってしまうといった課題がある。
本発明は上述した課題に鑑みてなされたものであり、その目的は、少ない処理量で精度の高い視覚的顕著度を算出し、注目領域を検出することである。
本発明に係わる画像処理装置は、画像内における被写体が存在すると予想される領域の情報である被写体の空間情報を算出する空間情報算出手段と、前記空間情報に基づき、画像内に探索領域を決定する探索領域決定手段と、前記探索領域内において、前記探索領域より小さい複数の第1の領域を設定する第1の領域設定手段と、前記第1の領域の外側に第2の領域を設定する第2の領域設定手段と、前記第1の領域の第1の特徴量を算出する第1の特徴量算出手段と、前記第2の領域の前記第1の特徴量と同じ種類の特徴量である第2の特徴量を算出する第2の特徴量算出手段と、前記第1の特徴量と前記第2の特徴量の差に基づいて、前記被写体の視覚的な顕著度を算出する顕著度算出手段と、を備えることを特徴とする。
また、本発明に係わる画像処理装置は、画像内における被写体が存在すると予想される領域の情報である被写体の空間情報を算出する空間情報算出手段と、前記空間情報に基づき、画像内に探索領域を決定する探索領域決定手段と、前記探索領域内において、前記探索領域より小さい複数の第1の領域を設定する第1の領域設定手段と、前記第1の領域の外側に第2の領域を設定する第2の領域設定手段と、前記第1の領域の第1の特徴量を算出する第1の特徴量算出手段と、前記第2の領域の前記第1の特徴量と同じ種類の特徴量である第2の特徴量を算出する第2の特徴量算出手段と、前記第1の特徴量と前記第2の特徴量の差に基づいて、注目領域を決定する注目領域決定手段と、を備えることを特徴とする。
本発明によれば、少ない処理量で精度の高い視覚的顕著度を算出し、注目領域を検出することが可能となる。
本発明の画像処理装置を撮像装置に適用した第1の実施形態の構成を示すブロック図。 第1の実施形態における空間情報算出部の構成を示す図。 第1の実施形態における空間情報算出部の処理を示すフローチャート。 合焦領域情報を示す図。 第1の実施形態における注目領域検出部の構成を示す図。 第1の実施形態における注目領域検出部の処理を示すフローチャート。 各領域情報を説明する図。 第1の実施形態における視覚的顕著度を説明する図。 第2の実施形態における空間情報算出部の構成を示す図。 第2の実施形態における空間情報算出部の処理を示すフローチャート。 動領域情報を示す図。 第2の実施形態における視覚的顕著度を説明する図。 第3の実施形態における空間情報算出部の構成を示す図。 第3の実施形態における空間情報算出部の処理を示すフローチャート。 顔領域情報を示す図。 第3の実施形態における視覚的顕著度を説明する図。
以下、本発明の実施形態について、添付図面を参照して詳細に説明する。
(第1の実施形態)
図1は、本発明の画像処理装置を撮像装置に適用した第1の実施形態の構成を示すブロック図である。本実施形態における撮像装置100は、合焦領域情報に応じて決定した被写体の空間情報に基づき、注目領域を検出する。以下、本実施形態の撮像装置の構成について図1を参照して説明する。
図1において、101はズームレンズ、フォーカスレンズを含むレンズ群、102は絞り機能を備えるシャッタ、103は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像部である。104は撮像部103が出力するアナログ信号をデジタル信号に変換するA/D変換器、105はAF制御のために光学像を電気信号に変換するCCDやCMOS素子等で構成されるAFセンサである。106はAFセンサ105が出力するアナログ信号をデジタル信号に変換するAF用A/D変換器である。107はA/D変換器104から出力される画像データに対し、ホワイトバランス処理や、γ処理などの各種画像処理を行う画像処理部である。108は画像メモリ、109は画像メモリ108を制御するメモリ制御部、110は入力デジタル信号をアナログ信号に変換するD/A変換器、111はLCD等の表示部、112は画像データを圧縮符号化・復号化するコーデック部である。
113は、画像データを記録するメモリカードやハードディスク等の記録媒体である。114は、記録媒体113とのインタフェースである記録I/Fである。115は、画像データ内に存在する被写体の位置や大きさを表す空間情報を算出する空間情報算出部である。116は、画像データ内の注目領域を検出する注目領域検出部である。
50は撮像装置100のシステム全体を制御するシステム制御部である。120は各種のユーザからの操作指示を入力するための操作部、121は電源スイッチ、122は電源部である。123は電気的に消去・記録可能な不揮発性メモリであり、例えばEEPROM等が用いられる。124は各種制御に用いる時間や、内蔵された時計の時間を計測するシステムタイマ、125はシステム制御部50の動作用の定数、変数、不揮発性メモリ123から読みだしたプログラム等を展開するシステムメモリである。
次に、上記のように構成された撮像装置100における撮影時の基本的な処理の流れについて説明する。撮像部103は、レンズ101及びシャッタ102を介して入射した光を光電変換し、入力画像信号としてA/D変換器104へ出力する。A/D変換器104は撮像部103から出力されるアナログ画像信号をデジタル画像信号に変換し画像処理部107に出力する。AFセンサ105は、レンズ101及びシャッタ102を介して入射した光を複数の対となるラインセンサーで受光し、AF用A/D変換器106へ出力する。AF用A/D変換器106はAFセンサ105から出力されるアナログ信号をデジタル信号に変換し、システム制御部50に出力する。システム制御部50は、一対のラインセンサーが出力した像信号に基づいて、被写体からの光束の分割方向における相対的位置ずれ量を検出し、いわゆる位相差AF制御を行う。
画像処理部107は、A/D変換器104からの画像データ、又は、メモリ制御部109から読み出した画像データに対し、ホワイトバランス処理や、γ処理などの各種画像処理を行う。画像処理部107から出力された画像データは、メモリ制御部109を介して画像メモリ108に書き込まれる。また、画像処理部107では、撮像部103が撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50が露光制御、焦点調節制御を行う。これにより、AE(自動露出)処理、AF(オートフォーカス)処理などを行う。
画像メモリ108は、撮像部103から出力された画像データや、表示部111に表示するための画像データを格納する。また、D/A変換器110は、画像メモリ108に格納されている画像表示用のデータをアナログ信号に変換して表示部111に供給する。表示部111は、LCD等の表示器上に、D/A変換器110からのアナログ信号に応じた表示を行う。コーデック部112は、画像メモリ108に記録された画像データをJPEGやMPEGなどの規格に基づき圧縮符号化する。
空間情報算出部115は、画像内に存在する被写体の位置や大きさを表す空間情報を算出する。そして、注目領域検出部116は、空間情報算出部115からの空間情報に基づき、画像データ内の例えば被写体が存在すると予想される注目領域を検出し、注目領域情報をシステム制御部50に出力する。システム制御部50は、注目領域情報に基づき、所定処理を優先する領域(処理対象領域)を決定する。所定処理とは、例えば、画像データ内に複数被写体が存在する場合に、注目領域に属する被写体に合焦するようにAF制御することが挙げられる。また、画像データ内に複数被写体が存在する場合に、注目領域に属する被写体が適正な明るさになるようにAE制御することが挙げられる。空間情報算出部115及び注目領域検出部116については、後述する。
上記の基本動作以外に、システム制御部50は、前述した不揮発性メモリ123に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。ここでいうプログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。この際、システム制御部50の動作用の定数、変数、不揮発性メモリ123から読み出したプログラム等をシステムメモリ125に展開する。以上、撮像装置100の構成と、基本動作について説明した。
次に、空間情報算出部115及び注目領域検出部116に関して、詳しく説明する。まず、空間情報算出部115について、図2、図3及び図4を参照して詳しく説明する。
図2は、本実施形態における空間情報算出部115の構成を示す図である。空間情報算出部115は、被写体領域検出部201、被写体候補領域検出部202、被写体空間情報生成部203を備えて構成される。
図3は、空間情報算出部115における処理を示したフローチャートである。以下、図3のフローチャートに従って空間情報算出部115の動作について説明する。
ステップS301において、システム制御部50は、位相差AF制御時(合焦動作時)に位相の差が所定値未満の合焦領域の情報(合焦情報算出)を被写体領域検出部201に出力する。合焦領域情報の例を図4に示す。図4(a)は、撮像部103が撮像した画像データを示し、図4(b)及び図4(c)は、システム制御部50が作成する合焦領域情報を示す。
図4(b)は、AFセンサ105の出力信号に基づき、システム制御部50が作成した合焦領域情報を示す。図4(b)において、p100やp110のような長方形は、AFセンサ105における1測距点を示し、P110のような黒塗りの測距点は、位相差が所定値以上である非合焦点、P100のような白塗りの測距点は、位相差が所定値未満である合焦点であることを示す。つまり、図4(b)の例では、図4(a)における2匹の鳥に合焦していることを示している。
ステップS302において、被写体領域検出部201は、合焦領域を被写体領域に設定する。具体的には、合焦している測距点をグルーピングした領域を被写体領域とする。図4(b)では、合焦しているp100,p101,p102,p103をグルーピングし、被写体領域a200とする。また、合焦しているp104,p105,p106,p107をグルーピングし、被写体領域a202とする。
ステップS303において、被写体領域候補検出部202は、被写体候補領域を設定する。被写体候補領域とは、被写体が存在する可能性がある領域のことを示す。図4(b)の合焦領域情報のように、測距点が離散的であると、例えば、図4(a)の鳥と背景(空)との境界位置を正確に検出することはできない。そこで、被写体が存在する可能性がある領域として、合焦領域の周囲に存在する非合焦測距点までの領域を被写体候補領域とする。すなわち、被写体領域a200に対応する被写体候補領域はa201とし、被写体領域a202に対応する被写体候補領域はa202とする。
ステップS304において、被写体空間情報生成部203は、被写体領域検出部201が算出した被写体領域情報と、被写体候補領域検出部202が算出した被写体候補領域情報を画像データに対応する座標に変換し、空間情報として出力する。
前述の説明では、図4(b)のように離散的な測距点を持つAFセンサ105を例として説明したが、システム制御部50は、撮像部103の画素出力信号を用いて位相差方式のAF制御を行う、いわゆる撮像面位相差AFを利用して合焦領域情報を算出してもよい。この場合、撮像部103は、1つのマイクロレンズ下の画素を分割し、撮影光学系の射出瞳の一部を別々に受光する構成となる。撮像部103の全ての画素に対して、このようにマイクロレンズ下の画素を分割することにより、画素毎に位相差を算出することが可能となり、分解能の高い合焦領域情報を得ることができる。
図4(c)は、前述の撮像面位相差AF方式により、画素毎に位相差を算出し、位相差が所定値未満の領域(合焦領域情報)を示した図である。図4(c)において、白塗り領域が合焦領域であり、黒塗り領域が非合焦領域である。このように、撮像面位相差AF方式に基づき算出した合焦領域情報は、図4(b)のAFセンサ105による位相差AFに基づき算出した合焦領域情報に比べ分解能が高く、被写体の形を精度高く捉えることが可能となる。このように被写体領域を精度高く検出可能な場合は、被写体領域候補検出部202は、被写体候補領域を被写体領域と同一領域とし、別途、被写体が存在する可能性がある領域を検出しなくても良い。
また、図4(b)や図4(c)の例では、被写体領域検出部201は、合焦領域情報に対して被写体を矩形状に囲む領域を被写体領域として検出している例を示しているが、被写体領域の検出は矩形状でなくとも良い。例えば、円形や三角形でも良いし、位相差が所定値未満の合焦領域の形状そのものを被写体領域としても良い。つまり、図4(c)の例では、領域a210内の合焦領域(鳥形状の白塗り領域)及び領域a211内の合焦領域(鳥形状の白塗り領域)を被写体領域としても良い。以上、空間情報算出部115について説明した。
次に、注目領域検出部116について、図5、図6、図7及び図8を参照して詳しく説明する。注目領域検出部116は、空間情報算出部115が算出した空間情報に基づき、画像データ内の注目領域を検出する。
図5は、注目領域検出部116の構成を示す図である。注目領域検出部116は、探索領域決定部501、被写体内領域設定部502、被写体外領域設定部503、被写体内領域特徴量算出部504、被写体外領域特徴量算出部505及び視覚的顕著度算出部506を備えて構成される。
図6は、注目領域検出部116の処理を示したフローチャートである。以下、図6のフローチャートを用いて、注目領域検出部116の動作について説明する。
ステップS601において、探索領域決定部501は、空間情報算出部115が算出した空間情報に含まれる被写体候補領域に基づき、視覚的顕著度を算出するための探索領域を決定する。図7(a)に具体的な探索領域決定の例を示す。図7(a)において、図4を用いて説明した通り、被写体候補領域はa201及びa203となっている。探索領域決定部501では、この被写体候補領域a201及びa203を探索領域に決定する。なお、空間情報に被写体候補領域情報が含まれない場合は、被写体領域を探索領域に決定する。
ステップS602において、被写体内領域設定部502は、空間情報算出部115が算出した空間情報に含まれる被写体領域情報と探索領域決定部501が決定した探索領域に基づき、視覚的顕著度を算出するための被写体内領域を設定する。図7(a)に具体的な被写体内領域設定の例を示す。図7(a)において、図4を用いて説明した通り、被写体領域はa200及びa202となっている。被写体内領域設定部502では、この被写体領域a200及びa202を被写体内領域に設定する。
また、被写体領域の大きさは変えずに、被写体領域の位置を探索領域内において所定画素毎、水平及び垂直方向にずらし、例えば、図7(b)のa200、a300及びa301のように複数の被写体内領域を設定しても良い。また、被写体領域の位置は変えずに、被写体領域の大きさを探索領域内において所定画素数毎に大きくし、例えば、図7(b)のa202、a303及びa304のように複数の被写体内領域を設定しても良い。以上のような動作を行うことにより、被写体が存在する可能性のある領域及び被写体の大きさに対して、後述の視覚的顕著度を算出することができる。
ステップS603において、被写体外領域設定部503は、被写体内領域設定部502により設定された被写体内領域に基づき、視覚的顕著度を算出するために被写体内領域の外側に被写体外領域を設定する。図7(a)に具体的な被写体外領域設定の例を示す。図7(a)において、例えば、被写体内領域はa200となっている。被写体外領域設定部503では、まず、この被写体内領域a200を中心とし、被写体内領域a200よりも大きい領域a204を設定し、領域a204から被写体内領域a200を除外した領域を被写体外領域に設定する。領域a204の大きさは、例えば、被写体内領域a200の一辺の長さや面積の所定数倍とする。また、被写体外領域は、例えば、合焦点を含まない領域に設定しても良い。また、被写体内領域の形状が、円形や三角形であった場合に、被写体外領域の形状も、円形や三角形としても良い。なお、被写体内領域設定部502が複数の被写体内領域を設定した場合は、被写体外領域設定部503は各々の被写体内領域毎に被写体外領域を設定する。
ステップS604において、被写体内領域特徴量算出部504は、被写体内領域設定部502が設定した被写体内領域において、画像データの特徴量を算出する。図8(a)に特徴量を算出する被写体内領域を示す。図8(a)において、図7を用いて説明した通り、被写体内領域設定部502が設定した被写体内領域は、a200及びa202である。そのため、被写体内領域特徴量算出部504は、この2つの領域の特徴量を算出する。
ステップS605において、被写体外領域特徴量算出部505は、被写体外領域設定部503が設定した被写体外領域において、画像データの特徴量を算出する。図8(a)に特徴量を算出する被写体外領域を示す。図8(a)において、図7を用いて説明した通り、被写体外領域設定部503が設定した被写体外領域は、領域a204から領域a200を除外した領域、及び、領域a205から領域a202を除外した領域である。そのため、被写体外領域特徴量算出部505は、この2つの領域の特徴量を算出する。
ここで、被写体内領域特徴量算出部504及び被写体外領域特徴量算出部505が算出する特徴量とは、領域内の明るさ、色、エッジ強度、明るさヒストグラム、色ヒストグラム及びエッジ強度ヒストグラムのうち少なくとも一つを含む同じ種類の特徴量である。
ステップS606において、視覚的顕著度算出部506は、被写体内領域特徴量算出部504が算出した被写体内領域特徴量と、被写体外領域特徴量算出部505が算出した被写体外領域特徴量の違いに基づき、視覚的顕著度を算出する。具体的には、特徴量の差分絶対値を評価して視覚的顕著度を算出する。例えば、特徴量が明るさの場合は、被写体内領域の輝度平均値と被写体外領域の輝度平均値の差分絶対値を視覚的顕著度とする。つまり、図8(a)の例では、被写体内領域a200の主に黒い鳥の輝度平均値と、被写体外領域の主に空の輝度平均値との差分絶対値を視覚的顕著度とする。また、被写体内領域a202の主に白い鳥の輝度平均値と、被写体外領域の主に空の輝度平均値との差分絶対値を視覚的顕著度とする。
図8(b)は、視覚的顕著度を示す図であり、被写体内領域a200(黒い鳥)に対応する視覚的顕著度は領域a400、被写体内領域a202(白い鳥)に対応する視覚的顕著度は領域a401に示している。また、図8(b)の視覚的顕著度は、白いほど視覚的顕著度が大きく、黒いほど視覚的顕著度が小さいことを示している。
前述の方法により算出した被写体内領域a200(黒い鳥)と被写体内領域a202(白い鳥)の視覚的顕著度は、黒い鳥と空の方が輝度平均の差分絶対値が大きいため、図8(b)のように白い鳥よりも視覚的顕著度が高くなる。仮に、被写体内領域a200及び対応する被写体外領域の大きさが、実際の被写体(黒い鳥)よりも大き過ぎたり、小さ過ぎたりした場合は、被写体内領域と被写体外領域の輝度平均の差分絶対値が小さくなり、適切に視覚的顕著度を算出することができない。そのため、実際の被写体の位置や大きさに合った、被写体内領域を設定することが必要である。
また、例えば、特徴量が明るさヒストグラムの場合は、被写体内領域の輝度ヒストグラムと被写体外領域の輝度ヒストグラムのビン毎の差分絶対値を算出し、その積算値を視覚的顕著度とする。
また、視覚的顕著度算出部506は、被写体候補領域内において設定した複数の被写体内領域及び被写体外領域に対し視覚的顕著度を算出する。複数の被写体内領域が重なる場合は、図8(c)の例のように、重なる被写体内領域の視覚的顕著度は、重なる被写体内領域で算出した複数の視覚的顕著度を平均した値を視覚的顕著度とする。また、重なる被写体内領域で算出した複数の視覚的顕著度のうち、最大の視覚的顕著度を視覚的顕著度としても良い。
ステップS607において、ステップS601で決定した全ての探索領域について探索が終了していない場合は、ステップS602以降の処理を繰り返す。
なお、視覚的顕著度算出部506は、被写体内領域の大きさが所定値よりも小さい場合は、視覚的顕著度を算出しなくても良い。また、視覚的顕著度算出部506は、被写体内領域が画面中心から所定距離以上離れている(画面端に位置している)場合は、視覚的顕著度を算出しなくても良い。被写体の大きさが小さい場合や被写体が画面端に位置している場合は、注目され難い被写体のためである。以上、注目領域検出部116について、説明した。
このように算出した視覚的顕著度は、視覚的に目立つ注目領域であるため、様々な処理の優先度付けのために利用される。例えば、この注目領域に対して、優先的にAF制御を行う処理が挙げられる。
例えば、合焦している複数の被写体が動いた場合に、システム制御部50は、AF制御のために算出する位相差の情報と注目領域検出部116が検出する注目領域の情報に基づき、注目領域に対応する被写体に優先的に合焦させるようAF制御する。具体的には、図8の例では、黒い鳥と白い鳥が同時に動いた場合に視覚的顕著度が大きい黒い鳥が合焦するよう優先してAF制御を行う。このように注目領域を優先的にAF制御することにより、注目被写体(注目領域)がボケることなく、合焦させることが可能となる。
なお、前述の説明では、被写体領域検出部201は、位相差が所定値未満の領域(合焦領域情報)に基づき被写体領域を設定していたが、被写体領域の設定方法はこれに限ったものではない。例えば、システム制御部50は、位相差が第1範囲(前ピン状態)の領域、位相差が第2範囲(合焦状態)の領域、位相差が第3範囲(後ピン状態)の領域といったように、複数の領域情報を出力する。そして、被写体領域検出部201が、各々の領域情報に基づき、被写体領域情報を算出しても良い。
注目領域検出部116は、この被写体領域情報に基づき、注目領域を検出する。仮に、注目領域検出部116が、前ピン状態の被写体領域を注目領域と検出した場合、システム制御部50は、非合焦のこの被写体領域を優先して合焦するようにAF制御する。以上のようにAF制御をすることにより、非合焦の注目領域に対し合焦させることが可能となる。
(第2の実施形態)
本発明の第2の実施形態に係わる撮像装置100は、動領域情報(移動体情報)に応じて決定した被写体の空間情報に基づき、注目領域を検出する。以下、第2の実施形態について説明する。なお、第1の実施形態と同じ符号のものは第1の実施形態と同様の動作、処理を行うものであり、説明は省略する。
第2の実施形態は、図1における空間情報算出部の構成及び動作が第1の実施形態と異なる。その他の構成及び動作は、第1の実施形態と同様のため、説明は省略する。第2の実施形態における空間情報算出部115について、図9、図10及び図11を参照して詳しく説明する。
図9は、第2の実施形態における空間情報算出部115の構成を示す図である。空間情報算出部115は、動領域検出部901、被写体領域検出部902、被写体空間情報生成部903を備えて構成される。
図10は、空間情報算出部115の処理を示すフローチャートである。以下、図10のフローチャートを用いて、空間情報算出部115の動作について説明する。
ステップS1001において、撮像部103は、図11(a)及び図11(b)のように、異なる時刻の少なくとも2枚の画像を撮像する。図11(a)は、Nフレーム目の画像データ1を示し、図11(b)は、N+1フレーム目の画像データ2を示している。図11では、移動している野球ボールを撮像した例を示しており、画像データ1と画像データ2は、異なる時刻に撮像されているため、移動している被写体(野球ボール)は、異なる位置に存在している。
ステップS1002において、動領域検出部(動体情報算出部)901は、ステップS1001で撮像した2枚(複数枚)の画像間の画素毎にフレーム間差分絶対値を算出する。そして、図11(c)のように、フレーム間差分絶対値が大きい領域を動領域とする動領域情報を作成する。図11(c)において、フレーム間差分絶対値が大きい動領域は、白く塗りつぶしている。このような動領域情報を参照することにより、被写体の位置や大きさが分かる。
ステップS1003において、被写体領域検出部902は、動領域を被写体領域に設定する。具体的には、図11(c)のように、各々動領域を包含するように被写体領域a500,a501,a502,a503を設定する。
ステップS1004において、被写体空間情報生成部903は、被写体領域検出部902が算出した被写体領域情報を空間情報として出力する。
以上、第2の実施形態における空間情報算出部115について説明した。本実施形態の注目領域検出部116は、第1の実施形態と同様の構成及び動作のため、詳しい説明は省略する。
図12は、第2の実施形態における注目領域検出部116が算出する視覚的顕著度を説明するための図である。第2の実施形態における注目領域検出部116は、第1の実施形態と同様の構成及び動作を行うことにより、図11を用いて説明した空間情報に基づき、図12(a)のような被写体内領域及び被写体外領域を設定する。
ここで、被写体内領域は、図12(a)のa600,a602,a604,a606である。被写体内領域a600に対応する被写体外領域は、図12(a)のa601からa600を除外した領域である。同様に被写体内領域a602,a604,a606に対応する被写体外領域については、それぞれ、a603,a605,a607からa602,a604,a606を除外した領域である。
そして、注目領域検出部116は、被写体内領域と被写体外領域との特徴量の違いに基づき、図12(b)のような視覚的顕著度を算出する。領域a700の視覚的顕著度は、被写体内領域と被写体外領域との特徴量の違いが大きいため、視覚的顕著度は大きな値となる。領域a701の視覚的顕著度は、被写体内領域と被写体外領域との特徴量の違いが中程度のため、視覚的顕著度は中程度の値となる。領域a702及び領域a703の視覚的顕著度は、被写体内領域と被写体外領域との特徴量の違いが小さいため、視覚的顕著度は小さい値となる。
このように算出した視覚的顕著度は、視覚的に目立つ注目領域であるため、様々な処理の優先度付けのために利用される。例えば、この注目領域に対して、優先的にAF制御を行う処理が挙げられる。
例えば、図12(a)のように、複数の動体(野球ボール)が存在していた場合に、システム制御部50は、AF制御のために算出する位相差の情報と注目領域検出部116が検出する注目領域の情報に基づき、注目領域に対応する被写体に優先的に合焦させるようAF制御する。具体的には、図12の例では、上側の野球ボールと下側の野球ボールのうち、視覚的顕著度が大きい上側の野球ボールが合焦するよう優先してAF制御を行う。このように注目領域を優先的にAF制御することにより、注目被写体(注目領域)がボケることなく、合焦させることが可能となる。
(第3の実施形態)
本発明の第3の実施形態に係わる撮像装置100は、顔領域情報に応じて決定した被写体の空間情報に基づき、注目領域を検出する。以下、第3の実施形態について説明する。なお、第1および第2の実施形態と同じ符号のものは第1および第2の実施形態と同様の動作、処理を行うものであり、説明は省略する。
第3の実施形態は、図1における空間情報算出部の構成及び動作が第1および第2の実施形態と異なる。その他の構成及び動作は、第1の実施形態と同様のため、説明は省略する。第3の実施形態における空間情報算出部115について、図13、図14及び図15を参照して詳しく説明する。
図13は、第3の実施形態における空間情報算出部115の構成を示す図である。空間情報算出部115は、顔検出部1301、被写体領域検出部1302、被写体空間情報生成部1303を備えて構成される。
図14は、第3の実施形態の空間情報算出部115の処理を示したフローチャートである。以下、図14のフローチャートを用いて、第3の実施形態における空間情報算出部115の動作について説明する。
ステップS1401において、顔検出部1301は、画像データ内に存在する顔領域を検出し、顔領域情報(顔検出情報)を出力する。図15を用いて、顔検出部1301について説明する。なお、顔領域の検出は、例えば、目や鼻の学習パターンとのマッチング評価方式等の既知の方式を用いる。顔検出部1301は、図15(a)のような画像データが入力され、画像データ内に存在する顔領域を検出し、例えば、図15(b)のような顔領域情報を出力する。図15(b)は、画像データを示す図15(a)に対する顔領域情報であり、4つの顔領域は、それぞれa800,a801,a802,a803となっている。顔検出部1301は、このような顔領域情報を被写体領域検出部1302に出力する。
ステップS1402において、被写体領域検出部1302は、顔領域情報に含まれる顔領域を被写体領域に設定する。ステップS1403において、被写体空間情報生成部1303は、被写体領域検出部1302が算出した被写体領域情報を空間情報として出力する。
なお、顔検出部1301は、顔領域情報として、顔の向きの情報も被写体領域検出部1302に出力しても良い。そして、被写体領域検出部1302は、入力された顔の向きの情報に基づき、例えば、正面を向いている顔のみを被写体領域に設定し、横顔は被写体領域に設定しなくてもよい。
また、前述の説明では、顔領域を検出する例を説明したが、顔領域の検出に限ったものではない。例えば、人体領域を検出して人体検出情報を用いても良いし、一般的な被写体を検出しても良い。つまり、被写体検出及び認識技術により、被写体の領域が検出できれば良い。
また、前述の説明では、被写体領域検出部1302は、顔領域を被写体領域に設定する例について説明したが、顔領域と人体領域を包含する領域を被写体領域に設定しても良い。
また、被写体領域検出部1302は、第1の実施形態で説明したシステム制御部50がAF制御時に算出する位相差情報と顔領域情報に基づき、顔領域と同じ位相差である領域を被写体内領域に設定しても良い。以上、第3の実施形態における空間情報算出部115について説明した。本実施形態の注目領域検出部116は、第1および第2の実施形態と同様の構成及び動作のため、詳しい説明は省略する。
図16は、第3の実施形態における注目領域検出部116が算出する視覚的顕著度を説明するための図である。第3の実施形態における注目領域検出部116は、第1および第2の実施形態と同様の構成及び動作を行うことにより、図15を用いて説明した空間情報に基づき、図16(a)のような被写体内領域及び被写体外領域を設定する。ここで、被写体内領域は、図16(a)のa900,a902,a904,a906である。被写体内領域a900に対応する被写体外領域は、図12(a)のa901からa900を除外した領域である。同様に、被写体内領域a902,a904,a906に対応する被写体外領域については、それぞれ、a903,a905,a907からa902,a904,a906を除外した領域である。
そして、注目領域検出部116は、被写体内領域と被写体外領域との特徴量の違いに基づき、図16(b)のような視覚的顕著度を算出する。領域a1000の視覚的顕著度は、被写体内領域と被写体外領域との特徴量の違いが大きいため、視覚的顕著度は大きな値となる。領域a1002の視覚的顕著度は、被写体内領域と被写体外領域との特徴量の違いが中程度のため、視覚的顕著度は中程度の値となる。領域a1001及び領域a1003の視覚的顕著度は、被写体内領域と被写体外領域との特徴量の違いが小さいため、視覚的顕著度は小さい値となる。
このように算出された視覚的顕著度は、視覚的に目立つ注目領域であるため、様々な処理の優先度付けのために利用される。例えば、この注目領域に対して、優先的にAF制御を行う処理が挙げられる。
例えば、図16(a)のように、複数の顔が存在していた場合に、システム制御部50は、AF制御のために算出する位相差の情報と注目領域検出部116が検出する注目領域の情報に基づき、注目領域に対応する顔を優先的に合焦するようAF制御する。具体的には、図16の例では、4つの顔のうち、視覚的顕著度が大きい、向かって左側の顔が合焦するよう優先してAF制御を行う。このように注目領域を優先的にAF制御することにより、注目被写体(注目領域)がボケることなく、合焦させることが可能となる。
(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
100:撮像装置、101:レンズ、102:シャッタ、103:撮像部、105:AFセンサ、107:画像処理部、115:空間情報算出部、116:注目領域検出部、50:システム制御部、201:被写体領域検出部、202:被写体候補領域検出部、203:被写体空間情報生成部、501:探索領域決定部、502:被写体内領域設定部、503:被写体外領域設定部、504:被写体内領域特徴量算出部、505:被写体外領域特徴量算出部、506:視覚的顕著度算出部

Claims (20)

  1. 画像内における被写体が存在すると予想される領域の情報である被写体の空間情報を算出する空間情報算出手段と、
    前記空間情報に基づき、画像内に探索領域を決定する探索領域決定手段と、
    前記探索領域内において、前記探索領域より小さい複数の第1の領域を設定する第1の領域設定手段と、
    前記第1の領域の外側に第2の領域を設定する第2の領域設定手段と、
    前記第1の領域の第1の特徴量を算出する第1の特徴量算出手段と、
    前記第2の領域の前記第1の特徴量と同じ種類の特徴量である第2の特徴量を算出する第2の特徴量算出手段と、
    前記第1の特徴量と前記第2の特徴量の差に基づいて、前記被写体の視覚的な顕著度を算出する顕著度算出手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記空間情報は、画像内における被写体の位置及び大きさのうち少なくとも1つを含むことを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1の領域設定手段は、前記空間情報に含まれる被写体の大きさに基づいて、前記第1の領域の大きさを設定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記第1の領域設定手段は、前記空間情報に含まれる被写体の位置に基づいて、前記第1の領域の位置を設定することを特徴とする請求項2または3に記載の画像処理装置。
  5. 前記探索領域決定手段は、前記空間情報に基づいて、複数の探索領域を決定し、
    前記顕著度算出手段は、前記複数の探索領域のそれぞれにおいて前記顕著度を算出することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 合焦している領域の情報を算出する合焦情報算出手段をさらに備え、前記空間情報算出手段は、前記合焦している領域の情報に基づいて前記被写体の空間情報を算出することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  7. 前記合焦している領域の情報は、合焦動作時の合焦しているか否かの情報に基づいて算出されることを特徴とする請求項記載の画像処理装置。
  8. 移動体の存在する領域の情報を算出する動体情報算出手段をさらに備え、前記空間情報算出手段は、前記移動体の存在する領域の情報に基づいて前記被写体の空間情報を算出することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  9. 前記移動体の存在する領域の情報は、複数枚の画像間の差分の絶対値に基づいて算出されることを特徴とする請求項に記載の画像処理装置。
  10. 被写体が存在する領域の情報を算出する被写体検出手段をさらに備え、前記空間情報算出手段は、前記被写体が存在する領域の情報に基づいて前記被写体の空間情報を算出することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  11. 前記被写体が存在する領域の情報は、顔検出情報及び人体検出情報のうち少なくとも1つに応じて算出されることを特徴とする請求項10に記載の画像処理装置。
  12. 前記視覚的な顕著度に基づいて、画像内の処理対象領域の優先度を設定することを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  13. 前記顕著度算出手段は、画面の中心に近い領域のみの視覚的な顕著度を算出することを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
  14. 前記顕著度算出手段は、所定値より大きい面積の領域のみの視覚的な顕著度を算出することを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
  15. 前記第1および第2の特徴量は、明るさ、色、エッジ強度、明るさヒストグラム、色ヒストグラム、エッジ強度ヒストグラムのうち少なくとも1つを含むことを特徴とする請求項1乃至14のいずれか1項に記載の画像処理装置。
  16. 画像内における被写体が存在すると予想される領域の情報である被写体の空間情報を算出する空間情報算出手段と、
    前記空間情報に基づき、画像内に探索領域を決定する探索領域決定手段と、
    前記探索領域内において、前記探索領域より小さい複数の第1の領域を設定する第1の領域設定手段と、
    前記第1の領域の外側に第2の領域を設定する第2の領域設定手段と、
    前記第1の領域の第1の特徴量を算出する第1の特徴量算出手段と、
    前記第2の領域の前記第1の特徴量と同じ種類の特徴量である第2の特徴量を算出する第2の特徴量算出手段と、
    前記第1の特徴量と前記第2の特徴量の差に基づいて、注目領域を決定する注目領域決定手段と、
    を備えることを特徴とする画像処理装置。
  17. 撮像手段と、
    前記撮像手段で生成された画像内における被写体が存在すると予想される領域の情報である被写体の空間情報を算出する空間情報算出手段と、
    前記空間情報に基づき、画像内に探索領域を決定する探索領域決定手段と、
    前記探索領域内において、前記探索領域より小さい複数の第1の領域を設定する第1の領域設定手段と、
    前記第1の領域の外側に第2の領域を設定する第2の領域設定手段と、
    前記第1の領域の第1の特徴量を算出する第1の特徴量算出手段と、
    前記第2の領域の前記第1の特徴量と同じ種類の特徴量である第2の特徴量を算出する第2の特徴量算出手段と、
    前記第1の特徴量と前記第2の特徴量の差に基づいて、オートフォーカス制御の対象とする注目領域を決定する注目領域決定手段と、
    を備えることを特徴とする撮像装置。
  18. 画像内における被写体が存在すると予想される領域の情報である被写体の空間情報を算出する空間情報算出工程と、
    前記空間情報に基づき、画像内に探索領域を決定する探索領域決定工程と、
    前記探索領域内において、前記探索領域より小さい複数の第1の領域を設定する第1の領域設定工程と、
    前記第1の領域の外側に第2の領域を設定する第2の領域設定工程と、
    前記第1の領域の第1の特徴量を算出する第1の特徴量算出工程と、
    前記第2の領域の前記第1の特徴量と同じ種類の特徴量である第2の特徴量を算出する第2の特徴量算出工程と、
    前記第1の特徴量と前記第2の特徴量の差に基づいて、前記被写体の視覚的な顕著度を算出する顕著度算出工程と、
    を有することを特徴とする画像処理方法。
  19. 請求項18に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラム。
  20. 請求項18に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
JP2014202121A 2014-09-30 2014-09-30 画像処理装置及びその制御方法、プログラム、記憶媒体 Active JP6525537B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014202121A JP6525537B2 (ja) 2014-09-30 2014-09-30 画像処理装置及びその制御方法、プログラム、記憶媒体
US14/850,599 US10121067B2 (en) 2014-09-30 2015-09-10 Image processing apparatus that determines processing target area of an image based on degree of saliency, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014202121A JP6525537B2 (ja) 2014-09-30 2014-09-30 画像処理装置及びその制御方法、プログラム、記憶媒体

Publications (2)

Publication Number Publication Date
JP2016071734A JP2016071734A (ja) 2016-05-09
JP6525537B2 true JP6525537B2 (ja) 2019-06-05

Family

ID=55585014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014202121A Active JP6525537B2 (ja) 2014-09-30 2014-09-30 画像処理装置及びその制御方法、プログラム、記憶媒体

Country Status (2)

Country Link
US (1) US10121067B2 (ja)
JP (1) JP6525537B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6491581B2 (ja) 2015-10-06 2019-03-27 キヤノン株式会社 画像処理装置およびその制御方法ならびにプログラム
US9699371B1 (en) * 2016-03-29 2017-07-04 Sony Corporation Image processing system with saliency integration and method of operation thereof
US10719927B2 (en) * 2017-01-04 2020-07-21 Samsung Electronics Co., Ltd. Multiframe image processing using semantic saliency
KR20200005440A (ko) * 2018-07-06 2020-01-15 삼성전자주식회사 벤더블 디스플레이를 이용하여 미디어를 촬영하는 디바이스 및 그 방법
US11057553B2 (en) 2018-07-06 2021-07-06 Samsung Electronics Co., Ltd. Electronic device for capturing media using a bendable display and method thereof
US11716536B2 (en) * 2020-04-22 2023-08-01 Canon Kabushiki Kaisha Control device, image capturing apparatus, and control method for detecting obstacle

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08180068A (ja) 1994-12-26 1996-07-12 Canon Inc 電子ファイリング装置
US6282317B1 (en) * 1998-12-31 2001-08-28 Eastman Kodak Company Method for automatic determination of main subjects in photographic images
JP2001167282A (ja) * 1999-12-10 2001-06-22 Toshiba Corp 移動物体抽出装置及びその方法
US7203356B2 (en) * 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications
JP4639754B2 (ja) 2004-11-04 2011-02-23 富士ゼロックス株式会社 画像処理装置
US7940985B2 (en) * 2007-06-06 2011-05-10 Microsoft Corporation Salient object detection
JP2009055272A (ja) * 2007-08-27 2009-03-12 Seiko Epson Corp 画像処理装置、画像処理方法、および、画像処理プログラム
US8406515B2 (en) * 2009-06-24 2013-03-26 Hewlett-Packard Development Company, L.P. Method for automatically cropping digital images
JP5704909B2 (ja) 2010-12-08 2015-04-22 キヤノン株式会社 注目領域検出方法、注目領域検出装置、及びプログラム
US8401292B2 (en) * 2011-04-26 2013-03-19 Eastman Kodak Company Identifying high saliency regions in digital images
CN102779338B (zh) * 2011-05-13 2017-05-17 欧姆龙株式会社 图像处理方法和图像处理装置
JP5862071B2 (ja) * 2011-06-30 2016-02-16 株式会社ニコン 画像処理装置、撮像装置およびプログラム
JP2014022826A (ja) * 2012-07-13 2014-02-03 Nikon Corp 画像処理装置、撮像装置及び画像処理プログラム
US20140254922A1 (en) * 2013-03-11 2014-09-11 Microsoft Corporation Salient Object Detection in Images via Saliency

Also Published As

Publication number Publication date
US20160093064A1 (en) 2016-03-31
US10121067B2 (en) 2018-11-06
JP2016071734A (ja) 2016-05-09

Similar Documents

Publication Publication Date Title
JP6525537B2 (ja) 画像処理装置及びその制御方法、プログラム、記憶媒体
US9876950B2 (en) Image capturing apparatus, control method thereof, and storage medium
CN111698417B (zh) 摄像设备、摄像控制方法和存储介质
US9204034B2 (en) Image processing apparatus and image processing method
US20180027172A1 (en) Focus adjusting apparatus, focus adjusting method, image capturing apparatus, and storage medium
WO2021093637A1 (zh) 追焦方法和装置、电子设备、计算机可读存储介质
US9307168B2 (en) Image capture apparatus and method for controlling image capture apparatus in which defective pixels are indicated
US9900493B2 (en) Focus detecting apparatus, and method of prediction for the same
US10311327B2 (en) Image processing apparatus, method of controlling the same, and storage medium
JP5936358B2 (ja) 画像表示装置、画像表示方法、撮像装置およびその制御方法、プログラムおよびそれを記憶する記憶媒体
EP3002940A1 (en) Imaging apparatus and imaging method
JP2017129788A (ja) 焦点検出装置及び方法、及び撮像装置
JP2017227725A5 (ja)
WO2013108074A1 (en) Focusing control method using colour channel analysis
US20170064191A1 (en) Calculation device and image pickup device using calculation device and calculation method
US20210337129A1 (en) Control device, image capturing apparatus, and control method
KR20170102755A (ko) 라이트필드 카메라용 오토포커싱 장치 및 그 방법
JP6223502B2 (ja) 画像処理装置、画像処理方法、プログラム、それを記憶した記憶媒体
JP6556033B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR101756274B1 (ko) 감시용 카메라 및 감시용 카메라의 동작 방법
JP6272099B2 (ja) 画像処理装置、制御方法およびプログラム
JP7458723B2 (ja) 画像処理装置、撮像装置、制御方法、およびプログラム
US11729502B2 (en) Apparatus including focusing function and method of the same
US11631194B2 (en) Image processing apparatus that performs recognition processing, control method thereof, and storage medium
US20150365599A1 (en) Information processing apparatus, image capturing apparatus, and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190507

R151 Written notification of patent or utility model registration

Ref document number: 6525537

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151