JP2017228082A - 追跡装置、追跡方法、及びプログラム - Google Patents

追跡装置、追跡方法、及びプログラム Download PDF

Info

Publication number
JP2017228082A
JP2017228082A JP2016123608A JP2016123608A JP2017228082A JP 2017228082 A JP2017228082 A JP 2017228082A JP 2016123608 A JP2016123608 A JP 2016123608A JP 2016123608 A JP2016123608 A JP 2016123608A JP 2017228082 A JP2017228082 A JP 2017228082A
Authority
JP
Japan
Prior art keywords
subject
image
tracking
region
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016123608A
Other languages
English (en)
Other versions
JP6800628B2 (ja
Inventor
良介 辻
Ryosuke Tsuji
良介 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016123608A priority Critical patent/JP6800628B2/ja
Priority to GB1708921.0A priority patent/GB2554111B/en
Priority to US15/625,928 priority patent/US10306133B2/en
Priority to DE102017113656.8A priority patent/DE102017113656A1/de
Priority to CN201710482073.2A priority patent/CN107707871B/zh
Publication of JP2017228082A publication Critical patent/JP2017228082A/ja
Application granted granted Critical
Publication of JP6800628B2 publication Critical patent/JP6800628B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Processing (AREA)

Abstract

【課題】追跡対象の画像領域を高い精度で追跡可能にすることを課題とする。
【解決手段】距離分布生成部(203)は、基準画像における各領域の距離を示す距離情報を生成する。被写体尤度分布生成部(204)は、基準画像において追跡対象の被写体として指定された位置に関する情報と距離情報とに基づいて、基準画像における被写体としての確からしさを示す尤度分布を生成する。特徴抽出部(202)は、尤度分布に基づいて基準画像から被写体に対応する画像領域を推定し、画像領域から被写体の追跡に用いる特徴量を算出する。
【選択図】図2

Description

本発明は、追跡対象となされている画像領域を追跡する追跡装置、追跡方法、撮像装置、表示装置、及びプログラムに関する。
時系列的に供給される画像から特定の被写体等の画像領域(以下、被写体領域とする。)を抽出し、その抽出した被写体領域を時系列の各画像において追跡する技術は非常に有用であり、例えば動画像内の人間の顔領域や人体領域等の追跡に利用されている。このような技術は、例えば、通信会議、マン・マシン・インターフェース、セキュリティ、任意の被写体を追跡するためのモニタ・システム、画像圧縮などの多くの分野で使用することができる。
また、特許文献1や特許文献2には、タッチパネルなどを用いて、撮像画像内の任意の被写体領域が指定された場合、その被写体領域を抽出及び追跡して、その被写体領域に対する焦点状態や露出状態を最適化する技術が開示されている。例えば、特許文献1には、撮像画像から顔の位置を検出(抽出)及び追跡し、その顔に対して焦点を合わせると共に最適な露出で撮像する撮影装置が開示されている。また、特許文献2には、テンプレートマッチングを用いて、特定の被写体を自動で追跡する物体追跡装置が開示されている。特許文献2の物体追跡装置は、タッチパネルなどの入力インターフェイスを用いて、撮像画像に含まれる任意の画像領域が指定されると、その画像領域をテンプレート画像として登録する。そして、物体追跡装置は、撮像画像内においてテンプレート画像と最も類似度が高いか、又は相違度の低い画像領域を推定して、その画像領域を追跡対象の被写体領域として追跡する。
特開2005−318554号公報 特開2001−60269号公報
ところで、上述したテンプレートマッチングのような領域ベースの追跡手法では、追跡対象とする画像領域(テンプレート画像)の設定が、追跡精度に大きく影響する。例えば、適切な大きさの領域よりも小さい画像領域がテンプレート画像となされた場合、追跡対象の被写体領域を推定するのに必要な特徴量が不足し、高精度な追跡ができなくなる。また例えば、適切な大きさ領域に対して大きい画像領域がテンプレート画像となされた場合には、テンプレート画像内に被写体以外の例えば背景等が含まれてしまうことがあり、この場合、背景領域を誤って追跡してしまう可能性がある。
ここで、例えば画像情報に加えてカメラから被写体までの距離情報を参照することにより、テンプレート画像に被写体以外の背景等が含まれないようにする手法が考えられる。しかしながら、複数の被写体においてカメラからの距離が略々同じであるような場合、本来追跡すべき被写体領域とは異なる別の画像領域(別の被写体領域)を誤って追跡してしまうことがある。また、追跡対象の画像領域が、距離情報を検出することが難しいパターンの画像である場合には、精度の高い距離情報を求めることが難しくなり、追跡対象の被写体領域の検出精度が低下してしまうことがある。また、例えば処理負荷低減のために撮像画像内の一部の画像領域の距離情報しか算出できないこともあり、この場合も高精度な追跡ができなくなる。
そこで、本発明は、追跡対象の画像領域を高い精度で追跡可能にすることを目的とする。
本発明は、逐次入力される画像から目的とする被写体を追跡する追跡装置であって、基準画像における各領域の距離を示す距離情報を取得する取得手段と、前記基準画像において追跡対象の被写体として指定された位置に関する情報と、前記距離情報とに基づいて、前記基準画像における前記被写体としての確からしさを示す尤度分布を生成する生成手段と、前記尤度分布に基づいて前記基準画像から前記被写体に対応する画像領域を推定し、前記画像領域から被写体の追跡に用いる特徴量を算出する算出手段と、を備えることを特徴とする。
本発明によれば、追跡対象の画像領域を高い精度で追跡可能となる。
実施形態の撮像装置の概略構成を示す図である。 被写体追跡部の概略構成を示す図である。 被写体追跡処理の手順を示すフローチャートである。 テンプレートマッチングを説明する図である。 被写体尤度分布の処理過程を説明する図である。 被写体尤度分布生成の手順を示すフローチャートである。 被写体尤度分布にクラスを説明する図である。 撮像処理の手順を示すフローチャートである。
以下、添付図面を参照して本発明の好適な実施形態について説明する。
本実施形態の追跡装置は、一例として、被写体等を撮影した動画や静止画のデータを磁気テープや固体メモリ、光ディスクや磁気ディスクなどの各種記録メディアに記録可能なデジタルスチルカメラやビデオカメラなどに適用可能である。その他、例えば、カメラ機能を備えたスマートフォンやタブレット端末などの各種携帯端末、工業用カメラ、車載カメラ、医療用カメラなどの各種撮像装置、動画等を表示可能な表示装置等にも、本実施形態の追跡装置は適用可能である。
<撮像装置の概略構成>
図1を参照して、本実施形態の追跡装置の一適用例としての撮像装置100の概略構成について説明する。
詳細は後述するが、本実施形態の撮像装置100は、時系列的に逐次供給される画像から特定の被写体等の画像領域(被写体領域)を抽出して、その被写体領域を目的として追跡する被写体追跡機能を備えている。また、本実施形態の撮像装置100は、特定の被写体領域を追跡する際には、後述する視差画像を用いて撮像装置100から被写体等までの距離を推定し、その推定した距離の情報を基に、特定の被写体領域を推定する。
撮像装置100内の各ユニットは、バス160を介して接続されている。各ユニットは、CPU151(中央演算処理装置)により制御される。撮像装置100のレンズユニット101は、固定1群レンズ102、ズームレンズ111、絞り103、固定3群レンズ121、及び、フォーカスレンズ131を有して構成されている。絞り制御部105は、CPU151からの指令に従い、絞りモータ104(AM)を介して絞り103を駆動することにより、絞り103の開口径を調整して撮影時の光量調節を行う。ズーム制御部113は、ズームモータ112(ZM)を介してズームレンズ111を駆動することにより、焦点距離を変更する。フォーカス制御部133は、レンズユニット101のピント方向のずれ量に基づいてフォーカスモータ132(FM)を駆動する駆動量を決定し、その駆動量により、フォーカスモータ132を介してフォーカスレンズ131を駆動して、焦点調節を行う。このように、フォーカス制御部133は、レンズユニット101のピント方向のずれ量に基づき、フォーカスモータ132を介してフォーカスレンズ131の移動制御を行うことにより、AF(オートフォーカス)制御を行う。フォーカスレンズ131は、焦点調節用レンズであり、図1では単レンズとして簡略的に描かれているが、通常複数のレンズにより構成されている。このような構成のレンズユニット101により、撮像素子141の撮像面上には被写体や背景等の光学像が結像される。
撮像素子141は、撮像面に結像された被写体や背景等の光学像を、光電変換により電気信号に変換する。撮像素子141における撮像動作は、撮像制御部143により制御される。撮像素子141は、一つのマイクロレンズを共有するようになされた複数の光電変換素子(本実施形態では第1、第2の二つの光電変換素子)により視差画像を生成可能な画素が、複数配列された構成となされている。具体的には、撮像素子141は、横方向がm個で縦方向がn個に配列された各画素のそれぞれに、第1、第2の二つの光電変換素子(受光領域)が配置されている。撮像素子141の撮像面に結像されて光電変換された画像信号は、撮像信号処理部142に送られる。このような撮像素子141の構成や光学原理は、例えば特開2008−15754号公報などに開示されている公知の技術を適用できる。
撮像信号処理部142は、画素毎に第1、第2の二つの光電変換素子の出力を加算することで、撮像面に結像されている光学像に対応した画像信号(撮影画像データ)を取得する。また、撮像信号処理部142は、各画素の第1、第2の二つの光電変換素子の出力を各々扱うことにより視差の異なる2つの画像(視差画像)の信号を取得する。本実施形態の説明では、画素毎に第1、第2の二つの光電変換素子の出力を加算することで得られる撮像画像を「A+B像」、各画素における二つの光電変換素子の出力を各々別に扱うことで各々得られる視差画像を「A像」、「B像」と呼称する。本実施形態の撮像素子141は、第1、第2の光電変換素子が横方向(水平方向)に並ぶように配されており、このためA像とB像は水平方向に視差が生じた画像となっている。撮像信号処理部142から出力されるA+B像の撮影画像データと、A像及びB像の視差画像データは、撮像制御部143を介して、RAM154(ランダム・アクセス・メモリ)に送られて一時的に蓄積される。ここで、例えば撮像装置100において動画撮影や一定時間間隔毎の継続的な静止画撮影がなされている場合、撮像信号処理部142からは、A+B像の撮影画像データ、及び、A像とB像の視差画像データが、逐次出力されてRAM154に蓄積される。
RAM154に蓄積された画像データのうち、A+B像の撮影画像データは、画像処理部152に送られる。画像処理部152は、RAM154から読み出された撮影画像データに対するガンマ補正やホワイトバランス処理などの各種画像処理を行う。また、画像処理部152は、画像処理後の画像データに対し、例えばモニタディスプレイ150に表示する際などに最適なサイズへの縮小・拡大処理をも行う。最適なサイズへの縮小・拡大処理がなされた画像データは、モニタディスプレイ150に送られて画像表示される。撮像装置100の操作者(以下、ユーザと表記する。)は、モニタディスプレイ150の表示画像を見ることにより、リアルタイムに撮影画像を観察することができる。なお、本実施形態の撮像装置100の設定が、画像の撮影直後にモニタディスプレイ150の画面上に所定時間だけ撮影画像を表示させる設定となされている場合、ユーザは、画像の撮影がなされた後直ちに、その撮影画像を確認することができる。また、RAM154に蓄積されたA+B像の撮影画像データは、画像圧縮解凍部153にも送られる。画像圧縮解凍部153は、RAM154から読み出された撮影画像データを圧縮した後、記録メディアである画像記録媒体157に送る。画像記録媒体157は、圧縮された画像データを記録する。
RAM154に蓄積された画像データのうち、A像とB像の視差画像データは、フォーカス制御部133に送られる。フォーカス制御部133は、A像、B像の視差画像から、レンズユニット101のピント方向のずれ量を求め、そのピント方向のズレを無くすように、フォーカスモータ132を介してフォーカスレンズ131を駆動させることでAF制御を行う。
操作スイッチ156は、タッチパネル、各種ボタンやスイッチなどを含む入力インターフェイスであり、ボタンやスイッチは撮像装置100の筐体等に設けられ、タッチパネルはモニタディスプレイ150の表示面上に配置されている。本実施形態の撮像装置100は、モニタディスプレイ150の画面上に種々の機能アイコンを表示可能となされており、タッチパネルを介して、それら種々の機能アイコンがユーザにより選択操作される。操作スイッチ156を介してユーザから入力された操作情報は、バス160を介してCPU151に送られる。
CPU151は、操作スイッチ156を介してユーザから操作情報が入力された場合、その操作情報に基づいて各ユニットを制御する。また、CPU151は、撮像素子141による撮像が行われる際には、撮像素子141の電荷の蓄積時間や、撮像素子141から画像データを撮像信号処理部142へ出力する際のゲインの設定値等を決定する。具体的には、CPU151は、操作スイッチ156を介してユーザから入力された操作情報による指示、或いは一時的にRAM154に蓄積されている画像データの画素値の大きさに基づいて、撮像素子141の蓄積時間や出力ゲインの設定値等を決定する。撮像制御部143は、CPU151から蓄積時間、ゲインの設定値の指示を受け取り、それらの指示に応じて撮像素子141を制御する。
バッテリ159は、電源管理部158により適切に管理されており、撮像装置100の全体に安定した電源供給を行う。フラッシュメモリ155は、撮像装置100の動作に必要な制御プログラムを記憶している。ユーザの操作により撮像装置100が起動すると(電源オフ状態から電源オン状態へ移行すると)、フラッシュメモリ155に格納された制御プログラムがRAM154の一部に読み込まれる(ロードされる)。これにより、CPU151は、RAM154にロードされた制御プログラムに従って撮像装置100の動作を制御する。
また、本実施形態の撮像装置100では、RAM154に蓄積されたA+B像の撮影画像データとA像及びB像の視差画像データとは、被写体追跡部161にも送られる。被写体追跡部161は、本実施形態にかかる追跡装置に相当するユニットである。以下の説明では、被写体追跡部161に入力されるA+B像の撮影画像データを、入力画像データと表記する。詳細は後述するが、被写体追跡部161は、RAM154から読み出されて、時系列的に逐次入力されるA+B像の入力画像から、特定の被写体領域を追跡しつつ、その追跡した特定の被写体領域を抽出して出力する。また、詳細は後述するが、被写体追跡部161は、A像及びB像の視差画像を基に、撮像装置100から被写体等までの距離を推定し、その距離情報を、特定の被写体領域の追跡の際に利用する。
被写体追跡部161による被写体追跡の結果の情報、つまり追跡されて抽出された特定の被写体領域の情報は、バス160を介して、フォーカス制御部133、絞り制御部105、画像処理部152、CPU151等の各ユニットに送られる。フォーカス制御部133は、追跡されている特定の被写体領域に対応した被写体をAF制御対象とした撮像条件で、その被写体にピントを合わせるようにAF制御を行う。また、絞り制御部105は、追跡されている特定の被写体領域の輝度値を用い、その被写体領域の明るさが適正となるような撮影条件で露出制御を行う。また、画像処理部152は、特定の被写体領域に対して最適なガンマ補正やホワイトバランス処理がなされるような画像処理を行う。また、CPU151は、追跡されている特定の被写体領域を例えば囲うような矩形画像を、モニタディスプレイ150の画面に表示されている撮影画像に重畳表示させるような表示制御を行う。
<被写体追跡部の概略構成>
以下、本実施形態における被写体追跡部161の構成と動作について説明する。図2は、被写体追跡部161の概略構成を示す図である。
図2に示す被写体追跡部161は、照合部201、特徴抽出部202、距離分布生成部203、被写体尤度分布生成部204を有している。以下の説明では、記載の簡略化のため、被写体尤度分布生成部204を尤度分布生成部204と表記する。特徴抽出部202と照合部201は、本実施形態における推定手段の一例である。RAM154から逐次読み出されて供給される、A+B像の入力画像データは照合部201と特徴抽出部202に送られ、A像及びB像の視差画像データは距離分布生成部203に送られる。
特徴抽出部202は、算出手段の一例であり、後述する尤度分布生成部204から供給される被写体尤度分布の情報を基に、A+B像の入力画像データから、追跡対象の被写体領域の特徴量を抽出し、その特徴量の情報を照合部201に送る。本実施形態において、追跡対象の被写体領域は、例えばモニタディスプレイ150の画面に表示されている撮影画像上でユーザが指定した特定の被写体に対応した画像領域である。照合部201は、特徴抽出部202により抽出された被写体領域の特徴量を用いて、A+B像の入力画像に対する照合処理を行って、追跡対象の被写体領域を推定する。この照合部201により推定された被写体領域が、被写体追跡部161に逐次入力されるA+B像の入力画像において追跡対象となされる特定の被写体領域である。特徴抽出部202における特徴量の抽出処理と、照合部201による照合処理の詳細については後述する。
距離分布生成部203は、本実施形態の取得手段の一例であり、A像及びB像の視差画像を基に、A+B像の入力画像の所定領域について、撮像装置100から被写体等まで距離を算出し、その距離情報から距離分布を生成する。ここで、本実施形態の場合、所定領域は例えばA+B像の入力画像の各画素に相当する領域である。したがって、距離分布生成部203は、A像及びB像の視差画像を用いて、A+B像の入力画像の各画素に対応した各距離情報を算出し、それら各画素の距離情報の分布を表す距離分布を生成する。なお、所定領域は、入力画像を複数に分割した小ブロックの領域であってもよい。距離分布生成処理の詳細は後述する。距離分布生成部203により生成された距離分布情報は、尤度分布生成部204に送られる。
また、尤度分布生成部204は、生成手段の一例であり、照合部201により抽出された特定の被写体領域を示す情報も供給される。尤度分布生成部204は、距離分布生成部203からの距離分布情報と照合部201からの被写体領域の情報とを基に、追跡対象の画像領域が特定の被写体領域である確からしさの分布を表す被写体尤度分布を生成する。尤度分布生成部204が距離分布情報と被写体領域の情報とを基に被写体尤度分布を生成する処理の詳細は後述する。尤度分布生成部204にて生成された被写体尤度分布の情報は、特徴抽出部202に送られる。
特徴抽出部202は、被写体尤度分布の情報を用い、A+B像の入力画像から、追跡対象の被写体領域を推定し、その推定した被写体領域の特徴量を抽出する。被写体尤度分布を用いた被写体領域の推定と特徴量の抽出処理の詳細は後述する。本実施形態の場合、特徴抽出部202は、追跡対象の被写体領域を推定する際に、被写体尤度分布の情報を利用することにより、高い精度で被写体領域の特徴量を抽出可能としている。
<被写体追跡処理の流れ>
図3は、本実施形態の撮像装置100における被写体追跡処理の流れを示すフローチャートである。図3のフローチャートの処理は、撮像装置100において撮影が開始されたときにスタートする。なお、図3のフローチャートの各処理は、本実施形態に係るプログラムを例えばCPU等が実行することにより実現されてもよい。以下の説明では、図3の各処理のステップS301〜ステップS305を、S301〜S305と略記し、このことは他のフローチャートの説明の際にも同様とする。
図3のフローチャートのS301において、CPU151は、追跡発動タイミングであるか否かを判定する。本実施形態において、追跡発動タイミングとは、例えば、操作スイッチ156のタッチパネルを介してユーザが被写体追跡の開始を指示する操作を行ったタイミングであるとする。また本実施形態において、ユーザが被写体追跡の開始を指示する操作は、例えばモニタディスプレイ150の画面上に表示されている画像上で所望の被写体の位置をユーザがタッチ等するような位置指定操作であるとする。CPU151は、S301において、追跡発動タイミングであると判定した場合(YESと判定)にはS302に処理を進める。一方、CPU151は、S301において、追跡発動タイミングではなく既に被写体追跡処理が実行されている場合(NOと判定)には、S305に処理を進める。図3のフローチャートのS302、S305以降は、被写体追跡部161において行われる処理である。
以下、S301において追跡発動タイミングであると判定されてS302以降の処理に進んだ場合の被写体追跡部161の処理から説明する。
S302では、被写体追跡部161の距離分布生成部203は、A像及びB像の視差画像を基に、A+B像の入力画像の各画素について、撮像装置100から被写体等まで距離を算出し、その距離情報から距離分布を生成する。なお、所定領域が入力画像を例えば複数に分割した小ブロックの領域である場合には、距離分布生成部203は、それら各小ブロックの距離情報から距離分布を生成する。S302の後、被写体追跡部161の処理は、尤度分布生成部204にて行われるS303の処理に進む。
S303では、尤度分布生成部204は、距離分布生成部203から供給される距離分布の情報と、被写体追跡位置の情報とに基づいて、被写体尤度分布を生成する。ここで、追跡発動タイミングの際の被写体追跡位置は、追跡発動タイミングにおいてユーザがモニタディスプレイ150の画面に表示されている画像内の所望の被写体領域をタッチ等した際の位置である。本実施形態の場合、モニタディスプレイ150の画面をユーザがタッチした際の操作情報はタッチパネルからCPU151に送られ、CPU151は、その操作情報を基に、被写体追跡位置の情報を生成して被写体追跡部161に通知する。なお、図2の例では、CPU151から被写体追跡部161に通知される被写体追跡位置の情報の図示は省略している。S303における、距離分布と被写体追跡位置に基づく被写体尤度分布生成処理の詳細は後述する。S303の後、被写体追跡部161の処理は、特徴抽出部202にて行われるS304の処理に進む。
S304では、被写体追跡部161の特徴抽出部202は、S304で生成された被写体尤度分布と、A+B像の入力画像の例えば色情報とを用いて、追跡対象の被写体領域を推定し、その推定した被写体領域の特徴量を抽出する。S304による特徴量抽出の処理が完了すると、被写体追跡部161は、図3のフローチャートの処理を終了する。
以下、S301において追跡発動タイミングではなく被写体追跡が実行されていると判定されて、S305以降の処理に進んだ場合の被写体追跡部161の処理について説明する。
S305では、被写体追跡部161の照合部201は、RAM154から読み出されて逐次入力されるA+B像の各入力画像から、特定の被写体領域を推定してその被写体領域を表すデータを逐次出力する。S305の後、被写体追跡部161の処理は、S302〜S304以降の処理に進む。なお、S305〜S304の処理は、RAM154から読み出されてA+B像の各入力画像が逐次入力される毎に行われる。
S305からS302に進んだ場合、S302において、距離分布生成部203は、前述同様に、A像及びB像の視差画像を基に、A+B像の入力画像の各画素の距離情報を求めて距離分布を生成する。
次のS303では、尤度分布生成部204は、距離分布生成部203から供給される距離分布の情報と、被写体追跡位置の情報とに基づいて、被写体尤度分布を生成する。ただし、既に被写体追跡が実行されている場合の被写体追跡位置は、照合部201の照合処理で抽出されている被写体領域の位置が用いられる。すなわち、S303における被写体追跡位置は、S305で推定された被写体領域に基づく位置に逐次更新される。尤度分布生成部204は、照合部201にて抽出された被写体領域の位置情報と、前述した距離分布の情報とを用いて生成した被写体尤度分布の情報を、特徴抽出部202に送る。そして、特徴抽出部202は、S304において前述同様に特徴量を抽出する。
このように、S301において追跡発動タイミングではなく被写体追跡が実行されていると判定されて、S305以降の処理に進んだ場合、被写体追跡部161は、S305で特定の被写体領域が抽出される毎に、S302からS304まで処理を進める。そして、距離分布生成部203によるS302の距離分布、尤度分布生成部204によるS303の被写体尤度分布、特徴抽出部202によるS304の特徴量は、それぞれ逐次更新される。そして、S304による特徴量抽出の処理が完了すると、被写体追跡部161は、図3のフローチャートの処理を終了する。
なお、追跡発動タイミングで被写体領域が抽出された後、逐次入力される各入力画像に対してS302からS304の処理を行って特徴量を更新せず、最初の入力画像(基準画像)から抽出した被写体領域に基づいて求めた特徴量を用いて各入力画像から被写体追跡を行ってもよい。この場合、距離分布生成部203は、基準画像における各画素の距離を示す距離分布を生成する。尤度分布生成部204は、基準画像において追跡対象の被写体として指定された位置の距離と、距離分布とに基づいて、基準画像における被写体としての確からしさを示す被写体尤度分布を生成する。そして、特徴抽出部202は、被写体尤度分布に基づいて基準画像から被写体に対応する画像領域を推定し、画像領域をテンプレートとし、被写体の追跡に用いる特徴量を算出する。この場合でも、基準画像での特徴量抽出において被写体尤度分布の情報に基づく被写体領域を抽出しているので、追跡対象の画像領域を高い精度で追跡することができる。
<被写体追跡部の照合部の詳細>
以下、被写体追跡部161の照合部201にて行われる処理の詳細について説明する。
照合部201は、特徴抽出部202により抽出される特徴量を用いて、RAM154より逐次供給されるA+B像の各入力画像から、追跡対象の被写体領域を推定して、その被写体領域を抽出する。このときの被写体領域の推定は、A+B像の入力画像内の部分領域の特徴量を照合することにより行われる。ここで、特徴量の照合の方式は、多種多様に存在するが、本実施形態では、一例として、画素パターンの類似度に基づくテンプレートマッチングによる照合方式を用いる例を挙げて説明する。
図4(a)と図4(b)を参照して、照合部201で行われるテンプレートマッチングの詳細いついて説明する。図4(a)は、テンプレートマッチングで用いられる被写体モデル(テンプレート)の例を示している。図4(a)の画像401は、テンプレート画像として登録される画像領域(被写体領域)の画像例であり、本実施形態の場合は、前述した追跡発動タイミングにおいてユーザにより指定された位置の画像領域の画像である。本実施形態では、この画像401の各画素の特徴量により表される画素パターンが、被写体モデル(以下、テンプレート402と表記する。)として扱われる。図4(a)のテンプレート402は、格子状の各四角がそれぞれ画素に対応しており、水平方向が画素数W、垂直方向が画素数Hのサイズとなされているとする。また、テンプレート402の各画素内に記されている(i,j)はテンプレート内における(x,y)座標を表し、T(i,j)は各画素の特徴量を表しているとする。また、本実施形態では、テンプレート402の特徴量T(i,j)としては各画素の輝度値が用いられる。本実施形態において、テンプレート402の各画素の特徴量T(i,j)は、下記式(1)により表される。
T(i,j)={T(0,0),T(1,0),・・・,T(W-1,H-1)} 式(1)
図4(b)の画像403は、追跡対象の被写体領域が探索される範囲、つまりA+B像の入力画像を表している。照合部201は、この入力画像403の範囲内において、図中矢印で示すようなラスタ順に部分領域404を設定、つまり、図の左上から順に1画素ずつずらしながら部分領域404を順次設定していく。部分領域404の大きさは、テンプレート402の大きさに対応している。照合部201は、この部分領域404に含まれる各画素の特徴量を画素パターン405として扱う。図4(b)において、部分領域404の各画素の特徴量により表される画素パターン405は、格子状の各四角がそれぞれ画素に対応しており、水平方向が画素数W、垂直方向が画素数Hのサイズとなされているとする。また、画素パターン405の各画素内に記されている(i,j)は部分領域404内における(x,y)座標を表し、S(i,j)は各画素の特徴量を表しているとする。部分領域404の画素パターン405の特徴量としては、各画素の輝度値が用いられる。本実施形態において、部分領域404の画素パターン405の各画素の特徴量S(i,j)は、下記式(2)により表される。
S(i,j)={S(0,0),S(1,0),・・・,S(W-1,H-1)} 式(2)
照合部201は、図4(b)のようにラスタ順に設定される各部分領域404の画素パターン405と、図4(a)に示したテンプレート402との間で順次マッチング処理を行うことにより、それらの類似性を評価する。そして、照合部201は、A+B像の入力画像からラスタ順に設定される部分領域404毎に得られた類似性の評価値を、テンプレート評価値として生成する。
ここで、テンプレート402と部分領域404(画素パターン405)との類似性を評価する際の演算方法としては、一例として、差分絶対値和、いわゆるSAD(Sum of Absolute Difference)値を用いることができる。SDA値(差分絶対値和)V(x,y)は、下記式(3)により算出される。
Figure 2017228082
このように、照合部201は、探索範囲の入力画像403内で部分領域404をラスタ順に1画素ずつずらしながら順に設定し、部分領域404の画素パターン405とテンプレート402との間のSAD値V(x,y)を演算する。この演算により求められたSAD値V(x,y)が最小値となる部分領域404は、探索範囲の入力画像403内でテンプレート402に最も類似した部分領域であると考えられる。照合部201は、SAD値V(x,y)が最小値となる部分領域404の、入力画像403内における座標(x,y)を求める。SAD値V(x,y)が最小値となる部分領域404の座標(x,y)は、探索画像の入力画像403内において追跡対象の被写体領域が存在する可能性の高い位置である。以下の説明では、SAD値V(x,y)が最小値となる部分領域404の座標(x,y)を、被写体追跡位置と表記する。照合部201は、探索範囲の入力画像403内から、SAD値V(x,y)が最小値となる部分領域404の座標(x,y)に対応した領域を抽出して、それを推定した被写体領域として出力する。また、照合部201は、被写体追跡位置の情報を尤度分布生成部204に送る。
なお、上述の説明では、特徴量として輝度値の情報(輝度値のみの一次元情報)を用いる例を挙げたが、例えば、明度、色相、彩度の三つの情報(明度、色相、彩度からなる三次元情報)を特徴量として用いてもよい。また、上述の例では、マッチング評価値の演算方法としてSAD値を挙げたが、例えば、正規化相互相関、いわゆるNCC(Normalized Correlation Coffiecient)など異なる演算方法を用いてもよい。
<被写体追跡部の特徴抽出部の詳細>
以下、被写体追跡部161の特徴抽出部202にて行われる特徴抽出処理の詳細について説明する。
特徴抽出部202は、ユーザにより指定又は照合部201で照合された被写体領域の位置(被写体追跡位置)と、尤度分布生成部204からの被写体尤度分布とに基づいて、A+B像の入力画像の中で特定の被写体の画像領域(被写体領域)を推定する。そして、特徴抽出部202は、その被写体追跡位置の座標周辺の画像領域の特徴量を、特定の被写体領域の特徴量として抽出する。
ここで、特徴抽出部202は、被写体追跡位置の座標周辺の画像領域の色ヒストグラムを、追跡対象の被写体領域の色ヒストグラムHinとして取得する。また、特徴抽出部202は、被写体領域の更に周辺の画像領域の色ヒストグラムHoutを取得する。そして、特徴抽出部202は、それら色ヒストグラムHinと色ヒストグラムHoutを用いて、下記式(4)で表される情報量I(a)を算出する。なお、被写体領域の更に周辺の画像領域の色ヒストグラムHoutは、A+B像の入力画像全体又は一部領域から取得する。
I(a)=−log2Hin(a)/Hout(a) 式(4)
式(4)の情報量I(a)は、色ヒストグラムの各ビンにおいて、A+B像の入力画像全体又は一部領域に対する、被写体領域内の生起確率を表している。特徴抽出部202は、この情報量I(a)に基づいて、A+B像の入力画像の各画素について被写体領域内の画素である確率を表すマップを生成する。
また、特徴抽出部202は、尤度分布生成部204が後述するように距離情報に基づいて生成する被写体尤度分布、つまり、被写体領域である確率を表すマップの情報を取得する。そして、特徴抽出部202は、色ヒストグラムに基づくマップの確率と、距離情報に基づくマップ(被写体尤度分布)の確率とを乗算することにより、特定の被写体領域である確率を表す被写体マップを生成する。特徴抽出部202は、この被写体マップに基づき、A+B像の入力画像に対し、被写体領域を示す矩形をフィッティングすることで被写体領域を推定する。矩形のフィッティング処理は、被写体領域である可能性が高い画素を多く含み、被写体領域である可能性が低い画素を含みにくくする処理である。特徴抽出部202で推定された被写体領域の特徴量が、前述した照合部201のマッチングで使用されるテンプレートとなる。
<被写体追跡部の距離分布生成部の詳細>
以下、被写体追跡部161の距離分布生成部203にて行われる距離分布生成処理の詳細について説明する。
距離分布生成部203は、前述したA像とB像の視差画像により、撮像装置100から被写体等までの距離を、A+B像の入力画像の各画素に対応させて算出する。具体的には、距離分布生成部203は、視差画像を用いた相関演算処理を施すことにより像ズレ量を検出して画素毎の距離を算出する。視差画像から像ズレ量を検出する方法は、例えば特開2008−15754号公報などに開示されており、この公報記載の技術では画像を小領域に分割した小ブロックごとに相関演算を行って像ズレ量を検出する。そして、距離分布生成部203は、像ズレ量に所定の変換係数を乗ずることにより、撮像素子141の撮像面における画素毎の偏差(デフォーカス量)を算出する。本実施形態では、算出したデフォーカス量を、A+B像の入力画像の各画素において被写体等までの推定距離とし、距離分布生成部203は、それら各推定距離を各画素に対応させて配したものを、距離分布として生成する。
また、距離分布生成部203は、画素毎に推定した距離情報に対して、その距離情報の信頼度を判定して、画素毎の推定距離の信頼度の分布を表す信頼度分布を生成する。以下、信頼度分布の生成例について説明する。距離分布生成部203は、前述したようにA像及びB像の視差画像を小領域(小ブロック)に分割し、その小ブロック毎に相関演算を行って画素毎の像ズレ量を検出している。ここで、相関演算により画像パターンの類似度を求める場合、例えば、各小ブロックの画像パターンが類似したものの集合体であたったとすると、相関演算による相関度のピーク値が出難くなり、正確な像ズレ量の検出が困難となる。したがって、距離分布生成部203は、相関演算の平均値とピーク値(類似度の場合は最大値)との差が小さい場合は、信頼性が低いと判断する。この信頼性は小ブロックごとに求められる。また、小ブロックの各画素の位置は座標により表されるため、距離分布生成部203は、各画素の距離情報の信頼度から、信頼度分布を生成することができる。距離分布生成部203は、距離分布の情報とともに、各画素の距離情報に対する信頼度分布の情報も、尤度分布生成部204に送る。
<被写体追跡部の被写体尤度分布生成部の詳細)
以下、被写体追跡部161の尤度分布生成部204にて行われる被写体尤度分布生成処理の詳細について説明する。
尤度分布生成部204は、距離分布生成部203から受け取った距離分布及び信頼度分布の情報と、照合部201からの被写体領域の情報とに基づいて、特定の被写体領域である確からしさを表す被写体尤度分を生成する。被写体尤度分布について図5(a)〜図5(c)を参照して説明する。
図5(a)は、A+B像の入力画像500と、その入力画像500内における追跡対象としての被写体501の一例を示している。図5(a)の入力画像500内には、追跡対象である被写体501とは別の被写体502や背景503も存在している。図5(a)の入力画像500の例では、被写体501と502が撮像装置100からの距離が近い被写体であり、背景503は撮像装置100からの距離が遠くなっているとする。
図5(b)は、図5(a)の入力画像500から、距離分布生成部203が生成した距離分布を表している。本実施形態の場合、距離分布は例えば白黒2値の画像として表される。図5(b)の距離分布の画像例では、白色で表される画素からなる領域が撮像装置100からの距離が近い被写体等の領域を表し、黒色で表される画素からなる領域が撮像装置100からの距離が遠い被写体等の領域を表している。図5(a)の例では、撮像装置100からの距離は、被写体501と502が近く、背景503は遠いため、図5(b)の距離分布は、被写体501,502に対応した領域511,512が白色領域、背景503に対応した領域513が黒色領域となる。また、図5(a)の例では被写体501が追跡対象となされているため、図5(b)の例の場合は、被写体501に対応した領域511の位置が、被写体追跡位置となる。図5(b)の例では、説明を簡略にするために距離分布を白黒2値で表しているが、実際には各画素がそれぞれ距離を表すことができる多値の情報となされている。
図5(c)は、図5(b)の距離分布510を用いて、尤度分布生成部204が生成する被写体尤度分布520の一例を表している。図5(c)の例では、被写体尤度分布は各画素が白黒2値により表されている。図5(c)の被写体尤度分布520の例では、白色で表される画素からなる領域が追跡対象の被写体領域である確からしさが高い領域を表し、黒色で表される画素からなる領域が追跡対象の被写体領域である確からしさが低い領域を表している。尤度分布生成部204は、距離分布における各画素の距離情報の値が、被写体追跡位置に対応した距離情報の値に近い値の各画素を連結した領域を、追跡対象の被写体領域である確からしさが高いと判定する。具体的には、尤度分布生成部204は、被写体追跡位置を基準にしてその位置の画素の距離情報の値に対して近い値の各画素を連結した領域を、追跡対象の被写体領域である確からしさが高いと判定する。
一方、尤度分布生成部204は、距離分布の各画素における距離情報の値が、追跡対象の被写体領域の各画素の距離情報の値から遠い値である場合、その画素については、追跡対象の被写体領域の画素である確からしさが低いと判定する。また、尤度分布生成部204は、被写体追跡位置を基準にしてその位置の画素における距離情報の値に近い値ではあるが、後述するように連結しない領域(非連結の領域)の画素については、追跡対象の被写体領域の画素である確からしさが低いと判定する。
なお、追跡対象の被写体領域の各画素の距離情報の値に近い値、又は遠い値であるかどうかについては、一例として、予め設定された所定の距離閾値を用いて判定すればよい。例えば、距離情報の値が、距離閾値以内である場合には近いと判定し、一方、距離閾値を超える場合には遠いと判定することができる。被写体追跡位置を基準にした領域の連結、非連結については後述する。
図5(c)の例の場合、図5(a)の被写体501に対応した領域521が、追跡対象の被写体領域である確からしさが高いと判定された各画素からなる領域である。この領域521以外の他の領域524は、追跡対象の被写体領域である確からしさが低いと判定された画素からなる領域である。図5(c)の例では、説明を簡略にするために被写体尤度分布を白黒2値で表しているが、本実施形態の場合、実際には多値により、追跡対象の被写体領域の画素である確からしさが表されている。このように、図5(c)の被写体尤度分布502は、図5(b)の距離分布510の各画素の距離情報を、追跡対象の被写体領域である確からしさを表す値に変換したものとなされている。
また、尤度分布生成部204は、距離分布生成部203から距離分布情報とともに送られてくる信頼度分布情報を基に、被写体尤度判定を行うか否かを決定することも可能となされている。例えば、信頼度分布情報により、画素の距離情報の信頼性が低いと判断される場合には、その画素の距離情報を用いた被写体尤度の判定を行わないようにしてもよい。被写体尤度判定を行うか否かは、画素毎に設定可能であるため、信頼性が高い画素についてのみ、前述した追跡対象の被写体領域の確からしさの判定を行うことができる。なお、信頼性が高いか又は低いかについては、一例として、予め設定した信頼性閾値を用いて判定すればよい。例えば、信頼度分布情報の信頼度の値が、予め決めた信頼性閾値以上である場合には信頼性が高いと判定し、一方、信頼性閾値より低い場合には信頼性が低いと判定して、被写体尤度判定を行うか否かを決定することができる。
<被写体尤度分布生成の処理の流れ>
以下、図6及び図7(a)と図7(b)を参照して、尤度分布生成部204における被写体尤度分布生成処理の流れについて説明する。図6は、前述した図3のS303の被写体尤度分布生成処理の詳細な流れを示すフローチャートである。なお、図6のフローチャートの各処理は、本実施形態に係るプログラムを例えばCPU等が実行することにより実現されてもよい。図7(a)と図7(b)は、図6のS601における被写体尤度分布のクラスの説明に用いる図である。
図6のフローチャートのS601において、尤度分布生成部204は、距離分布生成部203から供給された距離分布における各画素を、以下のような4種にクラスタリングする。クラスタリングは、図7(a)に示すように、距離情報の有無、距離情報の信頼度、距離情報の値に応じて行われる。図7(a)に示すように、尤度分布生成部204は、距離分布の画素について、距離情報を有し、その距離情報の信頼度が高く、その距離情報の値が被写体追跡位置の画素の距離情報の値に近ければ、第1のクラスに分類する。本実施形態では、第1のクラスをpositiveクラスと表記する。また、尤度分布生成部204は、距離分布の画素について、距離情報を有し、距離情報の信頼度が高く、距離情報の値が被写体追跡位置の画素の距離情報の値から遠ければ、第2のクラスに分類する。本実施形態では、第2のクラスをnegativeクラスと表記する。また、尤度分布生成部204は、距離分布の画素について、距離情報を有し、距離情報の信頼度が低ければ、その距離情報の値に依存せずに、第3のクラスに分類する。本実施形態では、第3のクラスをunknownクラスと表記する。また、尤度分布生成部204は、距離分布の画素について、距離情報を有していなければ、第4のクラスに分類する。本実施形態では、題4のクラスをnon−valueクラスと表記する。なお、距離分布生成部203は、処理負荷低減のために、A+B像の入力画像の一部領域のみで距離情報を求めることがある。この場合、尤度分布生成部204は、一部領域を除いた他の領域に対応した画素については、距離情報を有さないためnon−valueのクラスに分類する。S601の後、尤度分布生成部204は、S602に処理を進める。
S602では、尤度分布生成部204は、被写体追跡位置を基準にして、positiveクラスとunknownクラスの各画素を、連結の対象の画素としてラベリングする。これにより、尤度分布生成部204は、被写体追跡位置を基準に、positiveクラスとunknownクラスの画素を連結し、一方、negativeクラスとnon−valueクラスの画素は連結しない。S602の後、尤度分布生成部204は、S603に処理を進める。
S603では、尤度分布生成部204は、S602ではラベリングされなかった非ラベリング画素のpositiveクラスとunknownクラスを、negativeクラスに変換する。尤度分布生成部204は、S602でラベリングされた画素については変換しない。ここで、本実施形態においては、追跡対象の被写体は、撮像装置100からの距離が略々同一であり、且つ、一つの塊の物体等であると仮定している。S603の後、尤度分布生成部204は、S604に処理を進める。
S604では、尤度分布生成部204は、non−valueクラスの画素に対して、non−valueクラス以外の最近傍の画素のクラスを判別する。そして、尤度分布生成部204は、その最近傍クラスがnegativeクラスであれば、non−valueクラスの画素のクラスを、negativeクラスに変換する。S604の後、尤度分布生成部204は、S605に処理を進める。
S605では、尤度分布生成部204は、non−valueクラスの画素に対して、non−valueクラス以外の最近傍の画素のクラスを判別する。そして、尤度分布生成部204は、その最近傍クラスがpositiveクラス又はunknownクラスであれば、non−valueクラスの画素のクラスを、unknownクラスに変換する。S605の処理後、尤度分布生成部204は、図6のフローチャートの処理を終了する。
以上のように、本実施形態において、被写体尤度分布の各画素は、positiveクラス、negativeクラス、unknownクラスの、少なくとも3種のクラスに分類される。被写体尤度分布のクラスと各クラスの定義を図7(b)に示す。図7(b)に示すように、positiveクラスは、追跡対象の被写体領域の確からしさが高い状態を表すクラスである。negativeクラスは、追跡対象の被写体領域の確からしさが低い状態を表すクラスである。unknownクラスは追跡対象に被写体領域の確からしさの判別が不能な状態を表すクラスである。
<被写体追跡としての効果>
上述したようにして尤度分布生成部204で生成された被写体尤度分布の情報は、特徴抽出部202に送られ、特徴抽出部202において被写体領域の推定に利用される。具体的には、特徴抽出部202は、前述したように、色情報のヒストグラムに基づく被写体領域の確からしさの確率に、距離情報に基づく被写体領域に確からしさの確率(つまり被写体尤度分布で示される確率)を乗算する。これにより、特定の被写体領域である確率を表す被写体マップが生成されることになる。
ここで、例えば、色情報のみに基づいて被写体領域を推定するようなことを考えた場合、例えば被写体領域内に色が異なる小領域があると、その小領域を被写体領域であるとして誤って決定してしまう可能性がある。これに対し、本実施形態の場合、被写体尤度分布におけるpositiveクラス(被写体である確からしさが高いことを示すクラス)を被写体領域推定に用いているため、色が異なる小領域を被写体領域として誤決定しまうことがなくなる。
また、例えば、色情報のみに基づいて被写体領域を推定する場合、例えば被写体領域の周囲に被写体領域と同じ色の領域があると、それら周囲の領域が被写体領域に含まれていると誤って決定してしまう可能性がある。これに対し、本実施形態の場合、被写体尤度分布におけるnegativeクラス(被写体である確からしさが低いことを示すクラス)を被写体領域推定に用いているため、色が同じ周囲の領域が被写体領域に含めてしまうような誤決定を行うことがなくなる。
また例えば、距離情報のみに基づいて被写体領域を推定する場合には、距離は追跡対象の被写体領域と同じではあるが、追跡対象かどうか不明な領域を、追跡対象の被写体領域として誤って決定してしまう可能性がある。これに対し、本実施形態の場合、被写体尤度分布がunknownクラス(被写体である確からしさの判別が不能なことを示すクラス)の追跡対象かどうか不明な領域については、距離情報を参照することで、追跡対象の被写体領域かどうかを決定できる。ただし、この場合、追跡対象の被写体領域かどうかの決定の精度は低くなる。
<撮像装置の処理の流れ>
図8は、撮影の際に前述したような被写体追跡の処理を実行する本実施形態の撮像装置100の処理の全体の流れを示すフローチャートである。
図8のフローチャートのS801において、CPU151は、撮像装置100の状態を判別する。具体的には、CPU151は、S801において、撮像装置100の操作スイッチ156の撮影スイッチがオンの状態であれば(YESと判定)、S802に処理を進める。一方、CPU151は、S801において、撮影スイッチがオフの状態であれば(NOと判定)、図8のフローチャートの処理を終了する。
S802では、CPU151は、撮像装置100の各ユニットを制御して、各ユニットに対して撮像のために必要な各処理を実行させる。S802の後、CPU151は、S803に処理を進める。
S803では、CPU151は、被写体追跡部161を制御して、前述した図3〜図7等を用いて説明した本実施形態における被写体追跡のための処理を実行させる。S804の後、CPU151は、S804に処理を進める。
S804では、CPU151は、フォーカス制御部133を制御して、被写体追跡部161で被写体追跡されている被写体領域に対応した被写体に対する焦点検出処理を行わせる。すなわちこのときのフォーカス制御部133では、A像とB像の視差画像から、追跡対象の被写体に対するピント方向のズレ量(デフォーカス量)を算出する。S804の後、CPU151は、S805に処理を進める。
S805では、フォーカス制御部133は、S804で求められズレ量を基に、レンズユニット101のフォーカスレンズ131を駆動することにより、追跡対象の被写体にピントを合わせるAF制御を行う。S805の後、CPU151は、S801に処理を戻す。S801において、撮影スイッチがオンの状態であれば、撮像装置100では、引き続きS802〜S805の処理が実行される。
以上説明したように、本実施形態の撮像装置100によれば、距離情報と被写体追跡位置の情報とを基に、距離分布から被写体追跡にとって有効な被写体尤度分布を生成し、その被写体尤度分布を基に被写体領域を追跡している。このため、本実施形態によれば、高い精度で、特定の被写体領域を追跡可能である。
<その他の実施形態>
上述した実施形態では、撮像装置100が被写体追跡機能を備えている例を挙げたが、本実施形態の被写体追跡処理を実行する機器は撮像装置に限定されない。例えば、外部機器から供給、或いは記録媒体等から読み出された画像データから、表示画像を生成して画面表示する表示装置が、被写体追跡機能を備えていてもよい。なお、この場合、表示装置に入力される画像データは、前述したA+B像の画像データ、A像及びB像を含む視差画像データとなる。この例において、表示装置に搭載されているマイクロコントローラ等の制御部は、被写体追跡処理により抽出した被写体領域の情報(画像中の被写体領域の位置、大きさ等)に基づいて、画像を表示する際の表示条件を制御する。具体的には、画像中の被写体領域の位置に枠画像等のような被写体を示す画像を重畳表示等する。
また、表示装置は、距離情報を利用した特徴量の抽出を行ってもよく、距離情報を利用した特徴量抽出の前後で、被写体を示す情報を重畳表示する際の表示条件を異ならせてもよい。例えば、距離情報を利用した特徴量の抽出前は被写体の領域推定の精度が低く、一方、距離情報を利用した特徴量抽出後は被写体の領域推定の精度が高くなる。このため、距離情報を利用した特徴量抽出前には、予め決められた固定の枠を重畳表示するようにし、一方、距離情報を利用した特徴量抽出後には、被写体追跡による被写体領域に対して動的に枠の位置や大きさを変化させるような表示制御が可能となる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、本発明は、上述の実施形態の各機能は回路(例えばASIC)とプログラムとの協働により実現することも可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
100 撮像装置、161 被写体追跡部、201 照合部、202 特徴抽出部、203 距離分布生成部、204 被写体尤度分布生成部

Claims (9)

  1. 逐次入力される画像から目的とする被写体を追跡する追跡装置であって、
    基準画像における各領域の距離を示す距離情報を取得する取得手段と、
    前記基準画像において追跡対象の被写体として指定された位置に関する情報と、前記距離情報とに基づいて、前記基準画像における前記被写体としての確からしさを示す尤度分布を生成する生成手段と、
    前記尤度分布に基づいて前記基準画像から前記被写体に対応する画像領域を推定し、前記画像領域から被写体の追跡に用いる特徴量を算出する算出手段と、
    を備えることを特徴とする追跡装置。
  2. 前記取得手段は、前記基準画像に対応した画像であって視差が異なる視差画像から、前記各領域のデフォーカス量を算出し、前記各領域のデフォーカス量から前記距離情報を求めることを特徴とする請求項1に記載の追跡装置。
  3. 前記取得手段は、前記基準画像に対応した画像であって視差が異なる視差画像から、前記各領域の距離情報の信頼性を表す情報を生成し、
    前記生成手段は、前記追跡対象の被写体として指定された位置に関する情報と前記距離情報を基に前記確からしさが高い領域として連結される対象として、前記距離情報の信頼性が低い領域を含めることを特徴とする請求項1又は2に記載の追跡装置。
  4. 前記生成手段は、前記尤度分布を表す状態として、前記確からしさが高い状態と、前記確からしさが低い状態と、前記確からしさの判断が不能な状態との、少なくとも三つの状態を用い、前記基準画像の前記各領域を前記三つの状態の何れかに分類して前記尤度分布を生成することを特徴とする請求項1乃至3の何れか1項に記載の追跡装置。
  5. 前記生成手段は、前記距離情報が生成されない領域については、前記距離情報が生成されている最近傍の領域の前記尤度分布の前記確からしさが低ければ、確からしさが低い領域とし、前記最近傍の領域の前記尤度分布の前記確からしさが低くなければ、確からしさが不能な領域とすることを特徴とする請求項1乃至4の何れか1項に記載の追跡装置。
  6. 撮像手段と、
    前記撮像手段により撮像された画像が前記基準画像として入力される請求項1乃至5の何れか1項に記載の追跡装置と、
    前記撮像手段が撮像する際の撮像条件を、前記被写体に対応する画像領域の情報に応じて制御する制御手段と、
    を有することを特徴とする撮像装置。
  7. 画像を表示する表示手段と、
    請求項1乃至5の何れか1項に記載の追跡装置と、
    前記表示手段が表示する表示条件を、前記被写体に対応する画像領域の情報に応じて制御する制御手段と、
    を有することを特徴とする表示装置。
  8. 逐次入力される入力画像から追跡対象の画像領域を追跡する追跡装置の追跡方法であって、
    基準画像における各領域の距離を示す距離情報を取得するステップと、
    前記基準画像において追跡対象の被写体として指定された位置に関する情報と、前記距離情報とに基づいて、前記基準画像における前記被写体としての確からしさを示す尤度分布を生成するステップと、
    前記尤度分布に基づいて前記基準画像から前記被写体に対応する画像領域を推定し、前記画像領域から被写体の追跡に用いる特徴量を算出するステップと、
    を有することを特徴とする追跡方法。
  9. コンピュータを、請求項1乃至5の何れか1項に記載の追跡装置の各手段として機能させるためのプログラム。
JP2016123608A 2016-06-22 2016-06-22 追跡装置、追跡方法、及びプログラム Active JP6800628B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016123608A JP6800628B2 (ja) 2016-06-22 2016-06-22 追跡装置、追跡方法、及びプログラム
GB1708921.0A GB2554111B (en) 2016-06-22 2017-06-05 Image processing apparatus, imaging apparatus, and image processing method
US15/625,928 US10306133B2 (en) 2016-06-22 2017-06-16 Image processing apparatus for generating a likelihood distribution of an object
DE102017113656.8A DE102017113656A1 (de) 2016-06-22 2017-06-21 Bildverarbeitungsvorrichtung, bildgebungsvorrichtung und bildverarbeitungsverfahren
CN201710482073.2A CN107707871B (zh) 2016-06-22 2017-06-22 图像处理设备、摄像设备、图像处理方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016123608A JP6800628B2 (ja) 2016-06-22 2016-06-22 追跡装置、追跡方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017228082A true JP2017228082A (ja) 2017-12-28
JP6800628B2 JP6800628B2 (ja) 2020-12-16

Family

ID=59349761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016123608A Active JP6800628B2 (ja) 2016-06-22 2016-06-22 追跡装置、追跡方法、及びプログラム

Country Status (5)

Country Link
US (1) US10306133B2 (ja)
JP (1) JP6800628B2 (ja)
CN (1) CN107707871B (ja)
DE (1) DE102017113656A1 (ja)
GB (1) GB2554111B (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111126159A (zh) * 2019-11-28 2020-05-08 重庆中星微人工智能芯片技术有限公司 用于实时跟踪行人的方法、装置、电子设备和介质
JP2020077951A (ja) * 2018-11-07 2020-05-21 キヤノン株式会社 画像処理装置
JP2020077952A (ja) * 2018-11-07 2020-05-21 キヤノン株式会社 画像処理装置
JP2023011552A (ja) * 2021-07-12 2023-01-24 パナソニックIpマネジメント株式会社 撮像装置

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6702777B2 (ja) 2016-04-12 2020-06-03 キヤノン株式会社 撮像装置、撮像方法、及びプログラム
US10574938B1 (en) * 2017-06-27 2020-02-25 Facebook Technologies, Llc Variable frame rate depth camera assembly
KR102591555B1 (ko) * 2018-05-04 2023-10-23 구글 엘엘씨 자동 어시스턴트를 위한 시각적 단서들의 선택적 검출
JP7195782B2 (ja) * 2018-06-27 2022-12-26 キヤノン株式会社 情報処理装置、制御方法及びプログラム
JP2021177582A (ja) * 2018-07-31 2021-11-11 ソニーグループ株式会社 制御装置、制御方法、およびプログラム
CN110072064B (zh) * 2019-06-12 2020-07-03 睿魔智能科技(深圳)有限公司 一种图像拍摄方法、装置、设备以及存储介质
US20210256665A1 (en) * 2020-02-18 2021-08-19 Canon Kabushiki Kaisha Generation apparatus, generation method, and storage medium
JP2022140057A (ja) * 2021-03-12 2022-09-26 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008236642A (ja) * 2007-03-23 2008-10-02 Hitachi Ltd 物体追跡装置
JP2012015642A (ja) * 2010-06-29 2012-01-19 Sanyo Electric Co Ltd 撮像装置
JP2015203756A (ja) * 2014-04-14 2015-11-16 キヤノン株式会社 視差量算出装置、距離算出装置、撮像装置および視差量算出方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3768073B2 (ja) 1999-06-15 2006-04-19 株式会社日立国際電気 物体追跡方法及び物体追跡装置
JP4154400B2 (ja) 2004-04-01 2008-09-24 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
CN100525395C (zh) * 2005-09-29 2009-08-05 中国科学院自动化研究所 多摄像机下基于主轴匹配的行人跟踪方法
JP5066851B2 (ja) 2006-07-05 2012-11-07 株式会社ニコン 撮像装置
JP5428618B2 (ja) * 2009-07-29 2014-02-26 ソニー株式会社 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
CN103460105B (zh) * 2011-03-30 2016-06-15 富士胶片株式会社 成像装置及其自动对焦控制方法
JP5713821B2 (ja) * 2011-06-30 2015-05-07 キヤノン株式会社 画像処理装置及び方法、並びに画像処理装置を有するカメラ
WO2013061947A1 (ja) * 2011-10-28 2013-05-02 富士フイルム株式会社 撮像方法及び画像処理方法並びにそれらのプログラム、記録媒体、及び撮像装置
JP6197291B2 (ja) * 2012-03-21 2017-09-20 株式会社リコー 複眼カメラ装置、及びそれを備えた車両
AU2012244276A1 (en) * 2012-10-30 2014-05-15 Canon Kabushiki Kaisha Method, apparatus and system for detecting a supporting surface region in an image
CN104424634B (zh) * 2013-08-23 2017-05-03 株式会社理光 对象跟踪方法和装置
US10032280B2 (en) * 2014-09-19 2018-07-24 Brain Corporation Apparatus and methods for tracking salient features

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008236642A (ja) * 2007-03-23 2008-10-02 Hitachi Ltd 物体追跡装置
JP2012015642A (ja) * 2010-06-29 2012-01-19 Sanyo Electric Co Ltd 撮像装置
JP2015203756A (ja) * 2014-04-14 2015-11-16 キヤノン株式会社 視差量算出装置、距離算出装置、撮像装置および視差量算出方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020077951A (ja) * 2018-11-07 2020-05-21 キヤノン株式会社 画像処理装置
JP2020077952A (ja) * 2018-11-07 2020-05-21 キヤノン株式会社 画像処理装置
JP7233886B2 (ja) 2018-11-07 2023-03-07 キヤノン株式会社 画像処理装置
JP7289630B2 (ja) 2018-11-07 2023-06-12 キヤノン株式会社 画像処理装置
CN111126159A (zh) * 2019-11-28 2020-05-08 重庆中星微人工智能芯片技术有限公司 用于实时跟踪行人的方法、装置、电子设备和介质
JP2023011552A (ja) * 2021-07-12 2023-01-24 パナソニックIpマネジメント株式会社 撮像装置
JP7369941B2 (ja) 2021-07-12 2023-10-27 パナソニックIpマネジメント株式会社 撮像装置

Also Published As

Publication number Publication date
DE102017113656A1 (de) 2017-12-28
CN107707871B (zh) 2020-06-19
GB2554111B (en) 2021-02-24
GB201708921D0 (en) 2017-07-19
US20170374272A1 (en) 2017-12-28
GB2554111A (en) 2018-03-28
US10306133B2 (en) 2019-05-28
JP6800628B2 (ja) 2020-12-16
CN107707871A (zh) 2018-02-16

Similar Documents

Publication Publication Date Title
JP6800628B2 (ja) 追跡装置、追跡方法、及びプログラム
JP4961965B2 (ja) 被写体追跡プログラム、被写体追跡装置、およびカメラ
JP6049448B2 (ja) 被写体領域追跡装置、その制御方法及びプログラム
US9117136B2 (en) Image processing method and image processing apparatus
JP7223079B2 (ja) 画像処理装置およびその制御方法、ならびに撮像装置
US10013632B2 (en) Object tracking apparatus, control method therefor and storage medium
US20210256713A1 (en) Image processing apparatus and image processing method
JP2009111716A (ja) 撮像装置、プログラムおよびテンプレート生成方法
JP2014186505A (ja) 視線検出装置及び撮像装置
US10880457B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
US12008773B2 (en) Object tracking apparatus and control method thereof using weight map based on motion vectors
JP2023165555A (ja) 画像処理装置、撮像装置、制御方法及びプログラム
JP2009009206A (ja) 画像中の輪郭抽出方法及びその画像処理装置
JP2016081095A (ja) 被写体追跡装置、その制御方法、撮像装置、表示装置及びプログラム
US9049382B2 (en) Image processing apparatus and image processing method
JP2013179614A (ja) 撮像装置
US10565712B2 (en) Image processing apparatus and method for controlling the same
JP7034781B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP4810440B2 (ja) 撮像装置及びその制御方法及びプログラム及び記憶媒体
US20220309706A1 (en) Image processing apparatus that tracks object and image processing method
US20220270264A1 (en) Image processing device, control method thereof, imaging device, and recording medium
JP7458723B2 (ja) 画像処理装置、撮像装置、制御方法、およびプログラム
US20230065506A1 (en) Image processing apparatus, control method thereof, and image capturing apparatus
JP2017225071A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019079440A (ja) 被写体追跡装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201125

R151 Written notification of patent or utility model registration

Ref document number: 6800628

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151