JP6812387B2 - 画像処理装置及び画像処理方法、プログラム、記憶媒体 - Google Patents

画像処理装置及び画像処理方法、プログラム、記憶媒体 Download PDF

Info

Publication number
JP6812387B2
JP6812387B2 JP2018126359A JP2018126359A JP6812387B2 JP 6812387 B2 JP6812387 B2 JP 6812387B2 JP 2018126359 A JP2018126359 A JP 2018126359A JP 2018126359 A JP2018126359 A JP 2018126359A JP 6812387 B2 JP6812387 B2 JP 6812387B2
Authority
JP
Japan
Prior art keywords
dictionary data
subject
image
detection
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018126359A
Other languages
English (en)
Other versions
JP2020008899A (ja
Inventor
良介 辻
良介 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018126359A priority Critical patent/JP6812387B2/ja
Priority to US16/456,890 priority patent/US11144797B2/en
Publication of JP2020008899A publication Critical patent/JP2020008899A/ja
Application granted granted Critical
Publication of JP6812387B2 publication Critical patent/JP6812387B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Studio Devices (AREA)

Description

本発明は、被写体検出機能を有する画像処理装置に関する。
画像から特定の被写体パターンを自動的に検出する画像処理方法は、例えば、人間の顔領域を画像から特定することができるなど、非常に有用な技術である。特許文献1に開示されているように、デジタルカメラやデジタルビデオカメラといった撮像装置では、人物の顔領域のような特定の被写体パターンの領域を撮影画像から検出し、検出された領域に焦点や露出を最適化させることが行われている。
また、画像中の被写体を学習、認識するために、非特許文献1に開示されているような深層学習と呼ばれる手法が存在する。深層学習の代表的な手法として、コンボリューショナル・ニューラル・ネットワーク(以下、CNNと記す)と呼ばれる手法がある。一般的なCNNは、多段階の演算からなる。CNNの各段階では畳み込み演算を行って画像の局所の特徴を空間的に統合し、次の段階の中間層のニューロンへ入力する。さらにプーリングやサブサンプリングと呼ばれる、特徴量を空間方向へ圧縮する操作を行う。CNNは、このような多段階の特徴変換を通じて複雑な特徴表現を獲得することができる。そのため特徴量に基づいて画像中の被写体のカテゴリ認識や被写体検出を高精度に行うことができる。CNNに代表される機械学習では、画像信号と教師信号がセットとして学習される。学習の結果、被写体検出の処理パラメータである辞書データが生成される。
特開2005−318554号公報 特開2015−5237号公報
Alex Krizhevsky, Ilya Sutskever, Geoffrey E. Hinton, ImageNet Classification with Deep Convolutional Neural Networks, Advances in Neural Information Processing Systems 25 (NIPS’12), 2012
写真撮影を行う場合、撮影シーンによって、被写体特性が異なることがある。ここで言う被写体特性とは、被写体を人物とした場合に、人物の見え方の違いであり、人物の姿勢、人物の重なりなどの検出難易度に影響を与える特性である。被写体特性毎に辞書データを学習し、所定の被写体に特化した辞書データを検出処理に利用することで、検出精度を高めることができる。
そこで、被写体の検出精度を向上させるために、状況に応じて適切な被写体特性の辞書データを切り替えて用いる手法が考えられる。特許文献2では、撮像装置から被写体までの距離に応じて設定された複数の距離範囲について、距離範囲ごとの学習特徴量を記憶し、学習特徴量と被写体の特徴量とを照合して、被写体を検出する。被写体検出用の辞書の切り替えに関しては、公知の技術が存在するが、被写体特性の異なる辞書データの切り替えに関しては開示されていない。また、被写体特性に応じた専用辞書データを利用する方法において、撮影時に特異な被写体特性が発生した場合、汎用的な辞書データよりも検出精度が低下する場合がある。
本発明は上述した課題に鑑みてなされたものであり、その目的は、機械学習による被写体検出の精度を向上させることである。
本発明に係わる画像処理装置は、複数の辞書データのうち、いずれかの辞書データを選択し、選択した辞書データを用いて、取得した画像の解析を行う解析手段を備え、前記複数の辞書データは、少なくとも、第1の辞書データと、第2の辞書データを含み、前記解析手段は、前記第1の辞書データを用いた被写体の検出スコアが閾値よりも低い、あるいは、前記第1の辞書データを用いた前記被写体の検出ができない場合であっても、前記第1の辞書データと異なる辞書データを用いて、再び画像の解析を行うことはせず、前記第2の辞書データを用いた前記被写体の検出スコアが閾値よりも低い、あるいは、前記第2の辞書データを用いた前記被写体の検出ができない場合には、前記第2の辞書データと異なる辞書データを用いて、再び画像の解析を行うものであって、前記第2の辞書データは、目的とする被写体が前記第2の辞書データに対応する条件下にある場合には、前記第1の辞書データよりも前記目的とする被写体を検出することができる確率が高い辞書データであり、前記第1の辞書データは、前記第2の辞書データよりも多くの条件下において前記目的とする被写体を検出することができる辞書データであることを特徴とする。
本発明によれば、機械学習による被写体検出の精度を向上させることが可能となる。
本発明の画像処理装置の一実施形態であるデジタル一眼レフカメラの側断面図。 デジタル一眼レフカメラのブロック構成を示す図。 被写体特性に応じた辞書データの例を示す図。 デジタル一眼レフカメラの撮像動作の手順を示したフローチャート。 デジタル一眼レフカメラの被写体検出の手順を示すフローチャート。 被写体検出で利用する辞書データの状態遷移図。 CNNの全体構成の例を示す模式図。 CNNの部分構成の例を示す模式図。
以下、本発明の一実施形態について、添付図面を参照して詳細に説明する。なお、本発明の以下の実施形態は発明の好ましい形態を示すものであり、本発明の範囲を限定するものではない。以下の実施形態ではデジタル一眼レフカメラの例を用いて説明を行うが、目的とする被写体を検出する機能を備えたミラーレスカメラ、ビデオカメラ、監視カメラ、カメラ機能付きスマートフォンなどであってもよい。また、これらのカメラにて撮影された動画を受け取ったパーソナルコンピュータ、クラウドコンピュータ、あるいは、エッジコンピュータにおいて、目的とする被写体を検出する処理を実施する場合にも、本発明を適用することが可能である。
(撮像装置の構成)
図1は、本発明の画像処理装置の一実施形態であるデジタル一眼レフカメラ100の側断面図であり、図2は、デジタル一眼レフカメラ100のブロック構成を示す図である。
図1において、デジタル一眼レフカメラ100は、カメラ本体101と、カメラ本体101に着脱自在に装着される撮影レンズ102を備えて構成される。また、図2において、カメラ本体101は、デジタル一眼レフカメラ100全体を制御するシステム制御部201を備える。システム制御部201には、後述するクイックリターンミラー103、焦点検出センサー105、測光センサー108、フォーカルプレーンシャッター110、撮像素子111、表示部112、マウント接点群115が接続されている。システム制御部201には、さらに後述する画像記憶部202、操作部203、被写体検出部204、辞書データを記憶した記憶部210が接続されている。なお、システム制御部201は、複数のタスクを並列処理できるマルチコアCPU、RAMおよびROMを備え、カメラ本体101および撮影レンズ102の各部を制御する。
以下、図1及び図2を用いてデジタル一眼レフカメラ100の各部の構成について説明する。撮影レンズ102は交換可能であり、カメラ本体101と撮影レンズ102は、マウント接点群115を介して電気的にも接続される。撮影レンズ102の中には、フォーカシングレンズ113と絞りシャッター114が配置され、マウント接点群115を介した制御により、カメラ内に取り込む光量とピントを調整できるように構成されている。
クイックリターンミラー103は、メインミラー103aとサブミラー103bを備える。メインミラー103aは、ハーフミラーにより構成されている。メインミラー103aはファインダー観測状態では撮影光路上に斜設され、撮影レンズ102から入射される光束をファインダー光学系へと反射する。一方、透過光はサブミラー103bを介して焦点検出センサー105へと入射する。
焦点検出センサー105は、撮影レンズ102の二次結像面に配置された焦点検出ラインセンサーを有し、位相差検出方式によって撮影レンズ102の焦点状態を表すAF信号(自動焦点制御信号)を生成する。生成されたAF信号はシステム制御部201へ送信され、システム制御部201は、AF信号に基づいてフォーカシングレンズ113の焦点状態を検出する。さらにシステム制御部201は、焦点検出の結果に基づいてフォーカシングレンズ113の駆動を制御することにより焦点調節を行う。
ファインダー光学系における撮影レンズ102の予定結像面には、ピント板106が配置されている。ピント板106を通過した光は、ペンタプリズム107により光路が変更され、アイピース109に導かれる。撮影者は、アイピース109を介してピント板106を観察することによって、撮影画面と撮影情報を確認することができる。
アイピース109の脇には、測光センサー108が配置されている。測光センサー108は、照射される光を光電変換し、輝度信号と色差信号を有する画像データを生成する。測光センサー108は、また生成された画像データに基づいてAE信号(自動露出制御信号)を生成し、システム制御部201へ送信する。システム制御部201は、受信したAE信号を用いて露出制御を行う。また、被写体検出部204では、AE信号に基づいて、被写体検出を行う。システム制御部201は、被写体検出部204において検出された被写体に基づき、焦点調節、露出制御を最適化させる。
クイックリターンミラー103の後方には、フォーカルプレーンシャッター110、撮像素子111が配置されている。露光を行う際は、メインミラー103a及びサブミラー103bが撮影光路上から退避し、フォーカルプレーンシャッター110が開くことにより、撮像素子111が露光される。フォーカルプレーンシャッター110は、撮影を行わない時には撮像素子111を遮光し、撮影時には開いて撮像素子111へ被写体光束を導く。
撮像素子111は、CCDやCMOSセンサー等で構成され、赤外カットフィルターやローパスフィルター等を含む。撮像素子111は、撮影レンズ102の撮影光学系を通過して結像した被写体像を光電変換し、画像信号を生成してシステム制御部201に送信する。システム制御部201は、受信した画像信号から画像データを生成して画像記憶部202へ保存するとともに、LCD等の表示部112に表示する。
操作部203は、不図示のレリーズボタン、スイッチ、接続機器等を介して行なわれるユーザー操作を検知し、操作内容に応じた信号をシステム制御部201へ送信する。レリーズボタンが半押し操作されると、レリーズスイッチSW1がオンしてAF(オートフォーカス)やAE(自動露出制御)等の撮影準備動作が行われる。また、レリーズボタンが全押し操作されると、レリーズスイッチSW2がオンして静止画の撮影動作が行われる。撮影結果をユーザーが確認できるように、直前に撮影した静止画を一定時間表示部112に表示する。
次に、上記のように構成されるデジタル一眼レフカメラの被写体検出動作について説明する。
(被写体検出における辞書切り替え)
被写体検出部204では、前述したAE信号から被写体を検出する。被写体検出部204では、記憶部210に記憶された機械学習に基づく辞書データを用いて被写体を検出するための処理パラメ−タが決定される。撮影シーンに応じて、被写体の特性が異なる場合がある。そこで、被写体特性毎に辞書データを用意し、シーンに合わせた辞書データを利用することで被写体の検出精度を高めることができる。すなわち、複数の辞書データを有し、状況に応じて辞書データを選定して利用する。
図2に示すように、記憶部210は、汎用的な辞書データ205、被写体特性に応じた2つ以上の専用辞書データ206−1〜206−N(Nは2以上の整数)を記憶している。辞書データの選択方法としては、操作部203を介して、ユーザーが目的に応じて選択する方法がある。また、システム制御部201が状況に応じて、適正な辞書データを選択する方法でもよい。
図3を用いて、辞書データと被写体の特性の例について説明する。図3は、被写体を人物として、1列目にID、2列名に辞書データの定義、3列目に被写体の例を記載した表を示している。ID1は汎用辞書データであり、一般的な人物被写体の画像データと教師データから機械学習によって獲得される辞書データである。ID2〜ID5は、専用辞書データであり、特定の人物の状態に特化して学習させた辞書データである。専用辞書データは、例えば、被写体の姿勢、被写体の数、被写体の重なり、被写体に対する装飾物の有無および種別の少なくとも1つの要素で区分された辞書データあると言うこともできる。ID2は、人物被写体が特異な姿勢の状態、ID3は人物被写体に重なりがある状態、ID4は人物被写体が多数存在する状態、ID5は人物被写体の頭部などに装飾物がある状態を示す。すなわち、ID1乃至ID5は、いずれも共通の特定の被写体(ここでは人物)を検出するための辞書データである。ID2乃至ID4を用いれば、被写体がそれぞれに対応する特定の条件を満たしていれば、ID1の汎用辞書データよりも高い確率で被写体を検出でき、反対に、特定の条件を満たしていなければ、ID1の汎用辞書データよりも被写体を検出できる確率は低くなる。ID1の汎用辞書データを用いれば、複数の条件下、あるいは、それぞれの専用辞書データよりも多くの条件下においても被写体を検出できるが、ID2乃至IDのいずれかに対応する条件下においては、ID2乃至ID4のいずれかの辞書データよりも被写体を検出できる確率は低くなる。なお、ここでは被写体を人物として説明を行うが、これに限られるものではなく、検出対象は、人物の一部(例えば頭部)、特定の個人、特定の動物、特定の物体、あるいは、特定のシーンなどとすることも可能である。
撮影シーンにおける被写体特性に応じて適切な辞書データを設定することにより、高精度な被写体検出が可能となる。しかしながら、専用辞書データは特定の被写体には検出精度が高いものの、汎化能力は失われている。そのため、撮影時に特異な被写体特性が発生した場合、汎用辞書データよりも専用辞書データの方が検出精度が低下する場合がある。そこで、設定された辞書データが専用辞書データであり、検出評価値が低かった場合は、汎用辞書データと設定された専用辞書データの両方を用いるなど複数の辞書データを用いる。例えば、汎用辞書データと専用辞書データとを交互に利用することで、検出精度が連続的に低下してしまう状況を回避することができる。
(撮像装置の処理の流れ)
次に、図4、図5を参照して、上記構成のデジタル一眼レフカメラの撮像動作について説明する。図4は、デジタル一眼レフカメラ100の撮像動作の手順を示したフローチャートである。このフローチャートの動作は、システム制御部201がROMに格納されたプログラムをRAMに展開して実行することにより実現される。
ステップS401では、操作部203を介して、ユーザーにより被写体検出部204に辞書データが設定される。汎用辞書データ205、専用辞書データ206−1〜206−Nのいずれかが設定される。ユーザーによる設定がない場合は、初期設定を汎用辞書データ205とする。なお、ここで、以下のステップS402〜ステップS409までの一連の処理はカメラの1フレーム分に相当する処理である。
ステップS402では、システム制御部201は、レリーズスイッチSW1とレリーズスイッチSW2の状態を検出し、いずれかがオンであれば、フレームを1つ進めるとともに、ステップS403へ進む。レリーズスイッチSW1とSW2のいずれもオフであれば、処理を終了する。
ステップS403では、システム制御部201は、測光センサー108に電荷蓄積を行わせ、生成された像信号をAE信号として読み出す。また、システム制御部201は、焦点検出センサー105に電荷蓄積を行わせ、生成された像信号をAF信号として読み出す。
ステップS404では、被写体検出部204は、ステップS403で読み出したAE信号を入力画像として、被写体検出を行う。被写体検出の処理の詳細は後述する。ステップS405では、システム制御部201は、ステップS404で検出された被写体の位置に最も近い焦点検出領域を選択し、ステップS403で取得したAF信号を用いて、選択した焦点検出領域の焦点状態を検出する。なお、ステップS404で被写体が検出されなかった場合には、全ての焦点検出領域の焦点検出を行った上で、最もカメラに近い位置に焦点がある焦点検出領域を選択する。
ステップS406では、システム制御部201は、ステップS405で選択された焦点検出領域の焦点状態に基づいて、フォーカシングレンズ113の焦点位置を調節する。ステップS407では、システム制御部201は、ステップS403で読み出したAE信号を用いて公知の方法により自動露出演算を行い、絞り値(AV値)、シャッタスピード(TV値)、ISO感度(ISO値)を決定する。ここでのAV値、TV値、ISO値は、予め記憶されたプログラム線図を用いて決定される。
ステップS408では、システム制御部201は、レリーズスイッチSW2の状態を検出し、レリーズスイッチSW2がオンであればステップS409へ進む。一方、レリーズスイッチSW2がオフであれば、ステップS402へ戻る。
ステップS409では、システム制御部201は、メインミラー103aおよびサブミラー103bをアップすることで光路上から退避させ、撮像素子111を露光させる。露光された撮像素子111は画像信号を生成し、システム制御部201へ画像信号を送信する。そして、システム制御部201は、撮像素子111から受信した画像信号を元に画像データを生成し、画像記憶部202に保存するとともに、表示部112に表示する。以上が、本実施形態におけるデジタル一眼レフカメラの動作手順である。
(被写体検出の処理の流れ)
次に、図5を参照して、図4のステップS404における被写体検出の処理の流れについて説明する。
ステップS501では、システム制御部201が、被写体検出部204で利用する辞書データの種別を判定する。辞書データが汎用辞書データ205であれば(ステップS501でNOと判定)、ステップS504へ進む。ステップS504では、被写体検出部204が、汎用辞書データに基づいて、後述するCNNの手法により画像信号から被写体検出を行う。辞書データが専用辞書データ206−1〜206−Nのいずれかであれば(ステップS501でYESと判定)、ステップS502へ進む。
ステップS502では、被写体検出部204が、設定された専用辞書データに基づいて画像信号から被写体検出を行う。次いで、ステップS503では、システム制御部201が、ステップS502で検出された被写体の検出評価値が所定値よりも低いか否かを判定する。検出評価値が所定値以上であれば(ステップS503でNOと判定)、目的とする被写体を検出できたと判断し、検出処理を終了する。検出評価値が所定値より低ければ(ステップS503でYESと判定)、目的とする被写体を検出できていないと判断する。この場合、特異状況が発生して、汎化能力の低い専用辞書では検出が苦手な状態に陥っている可能性がある。そこで、ステップS504では、被写体検出部204に、汎用辞書データを用いて、被写体の検出処理を再度実施させる。その結果を被写体検出の結果として処理を終了する。
上述の説明では、専用辞書データによる被写体検出の評価値が低ければ、汎用辞書データを用いた被写体検出を行うように説明した。この場合、1フレームあたり2回、被写体検出を行うことになり、処理負荷が高く撮像処理の遅延が大きくなる。そこで、専用辞書データによる被写体検出の評価値が低ければ、この専用辞書データと汎用辞書データとを時間方向で切り替えながら処理する方法が考えられる。この場合、1フレームあたりの検出回数は1回であるため、撮像処理の遅延は大きくならない。この専用辞書データと汎用辞書データを切り替えながら処理する方法において、専用辞書データの検出評価値が高くなると、専用辞書データのみを用いた検出処理に移行する。これによって、一時的に専用辞書データが苦手な特異状況が発生したとしても、専用辞書の特性を活かした検出処理に復帰することができる。
上述した被写体検出部204の辞書データの利用状態を図6の状態遷移図を用いて説明する。状態601,602,603は辞書データの利用状態を示し、状態601は汎用辞書データを利用する状態、状態602は専用辞書データを利用する状態、状態603は専用辞書データと汎用辞書データを交互に利用する状態を示す。状態601は初期状態であり、状態間の矢印は状態遷移の条件を示す。状態601では、操作部203を介してユーザーが専用辞書データを指定すれば状態602に遷移する。状態602では、操作部203を介してユーザーが汎用辞書データを指定すれば状態601に遷移する。また、状態602では、専用辞書データによる被写体検出の評価値が低ければ、状態603へ遷移する。状態603では、操作部203を介してユーザーが汎用辞書データを指定すれば状態601に遷移する。また、状態603では、専用辞書データによる被写体検出の評価値が高ければ、状態602へ遷移する。以上の状態遷移により被写体検出の処理を行う。
ここで、専用辞書データが選択されたときは、被写体検出の評価値が低い場合に汎用辞書データを併用するが、汎用辞書データが選択されたときは、被写体検出の評価値が低くとも専用辞書データを併用しない理由について説明する。ユーザーが専用辞書データを選択したにも関わらず、被写体検出の評価値が低い場合には、検出対象である被写体が選択した専用辞書データの対応する条件下にない可能性が高いと考えられる。そのため、この専用辞書データに対応しない条件下にある被写体も検出するために、汎用辞書データを併用することで、被写体を検出する確率を高くすることができる。反対に、ユーザーが専用辞書データを選択していないということは、検出対象である被写体が専用辞書データに対応する条件下ではない可能性が高いと思われる。そのため、汎用辞書データを用いた場合の被写体検出の評価値が低いからといって、専用辞書データを併用したとしても、被写体を検出する確率が高くなることは期待できない。そのため、汎用辞書データが選択されたときは、被写体検出の評価値が低くとも専用辞書データを併用する状態には遷移しない。 (CNNの詳細説明)
本実施形態では、被写体検出部204をCNN(コンボリューショナル・ニューラル・ネットワーク)で構成する。CNNの基本的な構成について、図7および図8を用いて説明する。図7は、入力された2次元画像データから被写体を検出するCNNの基本的な構成を示す図である。処理の流れは、左端を入力とし、右方向に処理が進んでいく。CNNは、特徴検出層(S層)と特徴統合層(C層)と呼ばれる2つの層を一つのセットとし、それが階層的に構成されている。
CNNでは、まずS層において前段階層で検出された特徴に基づいて次の特徴を検出する。またS層において検出した特徴をC層で統合し、その階層における検出結果として次の階層に送る構成となっている。
S層は特徴検出細胞面からなり、特徴検出細胞面ごとに異なる特徴を検出する。また、C層は、特徴統合細胞面からなり、前段の特徴検出細胞面での検出結果をプーリングする。以下では、特に区別する必要がない場合、特徴検出細胞面および特徴統合細胞面を総称して特徴面と呼ぶ。本実施形態では、最終段階層である出力層ではC層は用いずS層のみで構成している。
特徴検出細胞面での特徴検出処理、および特徴統合細胞面での特徴統合処理の詳細について、図8を用いて説明する。特徴検出細胞面は、複数の特徴検出ニューロンにより構成され、特徴検出ニューロンは前段階層のC層に所定の構造で結合されている。また特徴統合細胞面は、複数の特徴統合ニューロンにより構成され、特徴統合ニューロンは同階層のS層に所定の構造で結合されている。図8中に示した、L階層目S層のM番目細胞面内において、位置(ξ,ζ)の特徴検出ニューロンの出力値をyLS M (ξ,ζ)、L階層目C層のM番目細胞面内において、位置(ξ,ζ)の特徴統合ニューロンの出力値をyLC M (ξ,ζ)と表記する。その時、それぞれのニューロンの結合係数をwLS M (n,u,v)、wLC M (u,v)とすると、各出力値は以下のように表すことができる。
Figure 0006812387
…(1)
Figure 0006812387
…(2)
式(1)のfは、活性化関数であり、ロジスティック関数や双曲正接関数などのシグモイド関数であれば何でもよい。uLS M(ξ,ζ)は、L階層目S層のM番目細胞面における、位置(ξ,ζ)の特徴検出ニューロンの内部状態である。式(2)は活性化関数を用いず単純な線形和をとっている。式(2)のように活性化関数を用いない場合は、ニューロンの内部状態uLC M(ξ,ζ)と出力値yLC M(ξ,ζ)は等しい。また、式(1)のyL-1C n(ξ+u,ζ+v)、式(2)のyLS M(ξ+u,ζ+v)をそれぞれ特徴検出ニューロン、特徴統合ニューロンの結合先出力値と呼ぶ。
式(1)及び式(2)におけるξ,ζ,u,v,nについて説明する。位置(ξ,ζ)は入力画像における位置座標に対応しており、例えばyLS M(ξ,ζ)が高い出力値である場合は、入力画像の画素位置(ξ,ζ)に、L階層目S層M番目細胞面において検出する特徴が存在する可能性が高いことを意味する。またnは式(1)において、L−1階層目C層n番目細胞面を意味しており、統合先特徴番号と呼ぶ。基本的にL−1階層目C層に存在する全ての細胞面についての積和演算を行う。(u,v)は、結合係数の相対位置座標であり、検出する特徴のサイズに応じて有限の範囲(u,v)において積和演算を行う。このような有限な(u,v)の範囲を受容野と呼ぶ。また受容野の大きさを、以下では受容野サイズと呼び、結合している範囲の横画素数×縦画素数で表す。
また式(1)において、L=1つまり一番初めのS層では、式(1)中のyL-1C n(ξ+u,ζ+v)は、入力画像yin-image(ξ+u,ζ+v)となる。ちなみにニューロンや画素の分布は離散的であり、結合先特徴番号も離散的なので、ξ,ζ,u,v,nは連続な変数ではなく、離散的な値をとる。ここでは、ξ,ζは非負整数、nは自然数、u,vは整数とし、何れも有限な範囲となる。
式(1)中のwLS M (n,u,v)は、所定の特徴を検出するための結合係数分布であり、これを適切な値に調整することによって、所定の特徴を検出することが可能になる。この結合係数分布の調整が学習であり、CNNの構築においては、さまざまなテストパターンを提示して、yLS M (ξ,ζ)が適切な出力値になるように、結合係数を繰り返し徐々に修正していくことで結合係数の調整を行う。
次に、式(2)中のwLC M (u,v)は、2次元のガウシアン関数を用いており、以下の式(3)のように表すことができる。
Figure 0006812387
…(3)
ここでも、(u,v)は有限の範囲としているので、特徴検出ニューロンの説明と同様に、有限の範囲を受容野といい、範囲の大きさを受容野サイズと呼ぶ。この受容野サイズは、ここではL階層目S層のM番目特徴のサイズに応じて適当な値に設定すればよい。式(3)数中の、σは特徴サイズ因子であり、受容野サイズに応じて適当な定数に設定しておけばよい。具体的には、受容野の一番外側の値がほぼ0とみなせるような値になるように設定するのがよい。上述のような演算を各階層で行うことにより、最終階層のS層において、被写体検出を行うのが、本実施形態におけるCNNの構成である。
(CNNの学習方法)
具体的な結合係数wLS M (n,u,v)の調整方法について説明する。結合係数の調整、すなわち学習の方法に関して説明する。学習では、テストパターンを与えて実際にニューロンの出力値を求め、その出力値と教師信号(そのニューロンが出力すべき望ましい出力値)の関係から結合係数wLS M (n,u,v)の修正を行う。本実施形態の学習においては、最終層の特徴検出層は最小二乗法を用い、中間層の特徴検出層は誤差逆伝搬法を用いて結合係数の修正を行う。最小二乗法、誤差逆伝搬法等の結合係数の修正手法の詳細は非特許文献1に記載されているため、ここでは詳細な説明は省略する。
学習用のテストパターンとして、検出すべき特定パターンと、検出すべきでないパターンを多数用意する。各テストパターンは、画像信号および教師信号を1セットとする。検出すべき特定パターンを提示した時は、最終層の特徴検出細胞面の、特定パターンが存在する領域のニューロンに対し、出力が1となるように教師信号を与える。逆に、検出すべきでないパターンを提示した時は、そのパターンの領域のニューロンに対し、出力が−1となるように教師信号を与える。
以上説明したように、本実施形態によれば、被写体特性に応じた辞書データを利用することで、被写体検出の精度を向上させるとともに、特異状況において検出精度を悪化させる可能性を抑制することができる。
なお、上記の実施形態では、辞書データの切り替えによって、機械学習によって獲得される検出処理パラメータ、すなわち結合係数wLS M (n,u,v)を切り替えるように説明した。本発明は、これに限定されず、辞書データの切り替えによりCNNのネットワーク構成を含めて切り替えてもよい。CNNのネットワーク構成の変更とは、特徴検出層の数、各層の受容野サイズ、活性化関数の種類などを変更することを意味する。
(その他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
101:カメラ本体、102:撮影レンズ、201:システム制御部、203:操作部、204:被写体検出部、210:記憶部

Claims (9)

  1. 複数の辞書データのうち、いずれかの辞書データを選択し、選択した辞書データを用いて、取得した画像の解析を行う解析手段を備え、
    前記複数の辞書データは、少なくとも、第1の辞書データと、第2の辞書データを含み、
    前記解析手段は、前記第1の辞書データを用いた被写体の検出スコアが閾値よりも低い、あるいは、前記第1の辞書データを用いた前記被写体の検出ができない場合であっても、前記第1の辞書データと異なる辞書データを用いて、再び画像の解析を行うことはせず、前記第2の辞書データを用いた前記被写体の検出スコアが閾値よりも低い、あるいは、前記第2の辞書データを用いた前記被写体の検出ができない場合には、前記第2の辞書データと異なる辞書データを用いて、再び画像の解析を行うものであって、
    前記第2の辞書データは、目的とする被写体が前記第2の辞書データに対応する条件下にある場合には、前記第1の辞書データよりも前記目的とする被写体を検出することができる確率が高い辞書データであり、前記第1の辞書データは、前記第2の辞書データよりも多くの条件下において前記目的とする被写体を検出することができる辞書データであることを特徴とする画像処理装置。
  2. 前記解析手段は、設定した辞書データを用いて、前記取得した画像に含まれる前記被写体を検出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記解析手段は、ユーザの指示に基づいて、いずれかの辞書データを選択することを特徴とする請求項1に記載の画像処理装置。
  4. 前記解析手段は、前記第2の辞書データを用いた前記被写体の検出スコアが閾値よりも低い、あるいは、前記第2の辞書データを用いた前記被写体の検出ができない場合には、前記第2の辞書データと異なる辞書データと、前記第2の辞書データを用いて、再び画像の解析を行うことを特徴とする請求項1または2に記載の画像処理装置。
  5. 前記第2の辞書データと異なる辞書データは、前記第1の辞書データであることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記辞書データは、機械学習によって獲得された辞書データであることを特徴とする請求項1に記載の画像処理装置。
  7. 複数の辞書データのうち、いずれかの辞書データを選択し、選択した辞書データを用いて、取得した画像の解析を行う解析工程を有し、
    前記複数の辞書データは、少なくとも、第1の辞書データと、第2の辞書データを含み、
    前記解析工程、前記第1の辞書データを用いた被写体の検出スコアが閾値よりも低い、あるいは、前記第1の辞書データを用いた前記被写体の検出ができない場合であっても、前記第1の辞書データと異なる辞書データを用いて、再び画像の解析を行うことはせず、前記第2の辞書データを用いた前記被写体の検出スコアが閾値よりも低い、あるいは、前記第2の辞書データを用いた前記被写体の検出ができない場合には、前記第2の辞書データと異なる辞書データを用いて、再び画像の解析を行うものであって、
    前記第2の辞書データは、目的とする被写体が前記第2の辞書データに対応する条件下にある場合には、前記第1の辞書データよりも前記目的とする被写体を検出することができる確率が高い辞書データであり、前記第1の辞書データは、前記第2の辞書データよりも多くの条件下において前記目的とする被写体を検出することができる辞書データであることを特徴とする画像処理方法。
  8. コンピュータを、請求項1乃至のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
  9. コンピュータを、請求項1乃至のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
JP2018126359A 2018-07-02 2018-07-02 画像処理装置及び画像処理方法、プログラム、記憶媒体 Active JP6812387B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018126359A JP6812387B2 (ja) 2018-07-02 2018-07-02 画像処理装置及び画像処理方法、プログラム、記憶媒体
US16/456,890 US11144797B2 (en) 2018-07-02 2019-06-28 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018126359A JP6812387B2 (ja) 2018-07-02 2018-07-02 画像処理装置及び画像処理方法、プログラム、記憶媒体

Publications (2)

Publication Number Publication Date
JP2020008899A JP2020008899A (ja) 2020-01-16
JP6812387B2 true JP6812387B2 (ja) 2021-01-13

Family

ID=69054686

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018126359A Active JP6812387B2 (ja) 2018-07-02 2018-07-02 画像処理装置及び画像処理方法、プログラム、記憶媒体

Country Status (2)

Country Link
US (1) US11144797B2 (ja)
JP (1) JP6812387B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6745465B1 (ja) * 2019-03-06 2020-08-26 パナソニックIpマネジメント株式会社 車両及びカメラモジュール
WO2021192133A1 (ja) * 2020-03-26 2021-09-30 日本電気株式会社 物体認識装置、物体認識方法、及び、記録媒体
US12015865B2 (en) * 2022-06-04 2024-06-18 Jeshurun de Rox System and methods for evoking authentic emotions from live photographic and video subjects

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5901255A (en) * 1992-02-07 1999-05-04 Canon Kabushiki Kaisha Pattern recognition method and apparatus capable of selecting another one of plural pattern recognition modes in response to a number of rejects of recognition-processed pattern segments
JP4154400B2 (ja) 2004-04-01 2008-09-24 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
JP5380789B2 (ja) * 2007-06-06 2014-01-08 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP4759638B2 (ja) * 2009-12-25 2011-08-31 株式会社スクウェア・エニックス リアルタイムなカメラ辞書
CN102959551B (zh) * 2011-04-25 2017-02-08 松下电器(美国)知识产权公司 图像处理装置
JP2013164834A (ja) * 2012-01-13 2013-08-22 Sony Corp 画像処理装置および方法、並びにプログラム
JP6168876B2 (ja) 2013-06-24 2017-07-26 オリンパス株式会社 検出装置、学習装置、検出方法、学習方法及びプログラム
JP6482195B2 (ja) * 2014-07-02 2019-03-13 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
US10176382B1 (en) * 2015-10-01 2019-01-08 Hrl Laboratories, Llc Method and apparatus for sparse associative recognition and recall for visual media reasoning

Also Published As

Publication number Publication date
JP2020008899A (ja) 2020-01-16
US11144797B2 (en) 2021-10-12
US20200005101A1 (en) 2020-01-02

Similar Documents

Publication Publication Date Title
CN102457681B (zh) 图像处理设备和图像处理方法
JP6931369B2 (ja) 画像処理装置および画像処理方法、ならびに撮像装置
JP5247076B2 (ja) 画像追尾装置、焦点調節装置および撮像装置
JP4894661B2 (ja) 撮像装置
JP2006211139A (ja) 撮像装置
JP6812387B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP2007081682A (ja) 画像処理装置、画像処理方法、及び、情報処理装置が実行可能なプログラム
JP6742173B2 (ja) 焦点調節装置及び方法、及び撮像装置
JP2001116985A (ja) 被写体認識機能を有するカメラおよび被写体認識方法
JP2006093860A (ja) 2眼撮像系を搭載したカメラ
JP5056136B2 (ja) 画像追尾装置
JP5403111B2 (ja) 画像追尾装置
JP6463402B2 (ja) 焦点調節装置および方法、および撮像装置
US10896350B2 (en) Image processing apparatus, image processing method, and image capture apparatus
US9094581B2 (en) Imaging device and distance information detecting method
JP4786734B2 (ja) カメラ
JP5256847B2 (ja) 撮像装置
JP5359150B2 (ja) 撮像装置
JP4985155B2 (ja) 焦点調節装置および撮像装置
JP5018932B2 (ja) 撮像装置
JP4391637B2 (ja) カメラ
US20240236472A1 (en) Image capturing apparatus, control method thereof, and storage medium
US20230209188A1 (en) Image processing apparatus, image processing method, and image capture apparatus
US20240244321A1 (en) Focus prediction apparatus, image capturing apparatus, focus prediction method, and storage medium
US20240127476A1 (en) Object determining apparatus, image pickup apparatus, and object determining method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190628

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201216

R151 Written notification of patent or utility model registration

Ref document number: 6812387

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151