JP6330385B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP6330385B2
JP6330385B2 JP2014049586A JP2014049586A JP6330385B2 JP 6330385 B2 JP6330385 B2 JP 6330385B2 JP 2014049586 A JP2014049586 A JP 2014049586A JP 2014049586 A JP2014049586 A JP 2014049586A JP 6330385 B2 JP6330385 B2 JP 6330385B2
Authority
JP
Japan
Prior art keywords
image
foreground
learning
map
saliency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014049586A
Other languages
English (en)
Other versions
JP2015176169A (ja
Inventor
翔 阮
翔 阮
湖川 盧
湖川 盧
ナ トウ
ナ トウ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2014049586A priority Critical patent/JP6330385B2/ja
Priority to KR1020140185692A priority patent/KR101640998B1/ko
Priority to EP14200539.6A priority patent/EP2919162A1/en
Priority to CN201410842620.XA priority patent/CN104915972B/zh
Priority to US14/587,802 priority patent/US9600746B2/en
Publication of JP2015176169A publication Critical patent/JP2015176169A/ja
Application granted granted Critical
Publication of JP6330385B2 publication Critical patent/JP6330385B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像における顕著領域を自動で検出する技術に関する。
従来、画像処理の分野では、画像において人間が注目すると予想される画像領域、あるいは注目すべき画像領域(これらを顕著領域という)を、その画像から検出(抽出)する技術が知られている。また、このような顕著領域検出の技術を用いて、画像における各画素の顕著度(saliency measure)を算出することにより、その画像の各画素の顕著度を示す顕著性マップ(saliency map)を作成することも行われる。
こうした顕著領域検出の技術は、画像から主要被写体を検出したり、画像中に映しだされている異常事象を検出するための要素技術として、例えば、監視カメラ、ロボットビジョン、マシンビジョンなど幅広い応用が期待されている。
顕著領域検出のためのアルゴリズムは、モデルベースの手法と学習ベースの手法に大別される。モデルベースの手法とは、人間の目・脳のモデルあるいは仮説を数式でモデル化し、当該モデルを使って顕著領域を検出する手法である。モデルベースは汎用性に優れるが、人間の目や脳の判断を完璧に再現できるモデルはまだ構築されておらず、現実世界の様々な問題に対応するためには、さらなる精度向上が望まれる。
一方、学習ベースの手法は、多数の事例(サンプル)データや教師信号(ground-truth)を使って顕著領域の画像特徴を学習する手法であり(特許文献1参照)、モデルや仮説が必要なく、より簡単に高精度な検出器を構築できるという利点がある。しかしながら、顕著領域として検出すべきパターンをすべて網羅するような事例データ(学習DB)を用意することが困難であったり、教師信号(ground-truth)の定義が難しい場合が多く、これが学習ベースの手法を実用化する上でのネックとなっている。
この点に鑑みた従来手法として、特許文献2では、事前知識を必要とせず、映像を構成する各フレーム間の情報を用いて顕著領域を検出する技術が提案されている。しかしながら、特許文献2の技術は、事前知識を必要としないが、複数のフレームから構成される動画像のみを対象としており、静止画像に対する顕著度の評価に適用することができない。
特開2001−236508号公報 特開2010−258914号公報
本発明は、上記課題を解決するためになされたものであり、学習用の事例データを必要とせず、1枚の画像からでも顕著領域を精度よく検出可能な、学習ベースの新規な手法を提供することを目的とする。
上記目的を達成するために、本発明に係る画像処理装置は、処理対象となる画像を取得する画像取得部と、前記画像から複数の学習サンプルのデータを抽出する学習サンプル抽出部と、前記複数の学習サンプルを用いて複数の識別器の学習を行う識別器学習部と、学習した前記複数の識別器を組み合わせて強識別器を生成する強識別器生成部と、前記強識
別器を用いて前記画像の顕著性マップを生成する顕著性マップ生成部と、を有することを特徴とする。
この構成によれば、処理対象となる画像自身の情報を用いて学習するため、学習用の事例データ(事前知識)を必要としない。また、処理対象の画像に特化した強識別器を自動生成し、これにより最終的な顕著性マップを得るので、従来よりも高精度の顕著領域検出が実現できる。
前記画像を前景の領域と背景の領域に分類する前景マップを生成する前景マップ生成部をさらに有し、前記学習サンプル抽出部は、前記前景の領域から正の学習サンプルを抽出し、前記背景の領域から負の学習サンプルを抽出することが好ましい。例えば、前記前景マップは、前記画像の画素ごと又はスーパーピクセルごとに前景らしさを示す値をもつマップであり、前記学習サンプル抽出部は、前記前景らしさを示す値が、第1の閾値よりも大きい画素又はスーパーピクセルを正の学習サンプルとして抽出し、前記前景らしさを示す値が、第2の閾値よりも小さい画素又はスーパーピクセルを負の学習サンプルとして抽出するとよい。
このような前景マップをまず作り、前景と背景それぞれから正の学習サンプルと負の学習サンプルを抽出するようにすることで、学習サンプルの妥当性を向上し、識別器の学習の信頼性と精度の向上を図ることができる。
前記前景マップ生成部は、モデルベースのアルゴリズムにより、前記顕著性マップ生成部により得られる顕著性マップよりも精度の低い、ラフな顕著性マップを生成し、前記ラフな顕著性マップから前記前景マップを生成することが好ましい。
モデルベースのアルゴリズムを用いることで、事前知識を必要としない顕著性マップの生成が可能である。なお、前景マップ生成部により生成するラフな顕著性マップは、学習サンプルの抽出のために用いるものなので、ラフな(精度が低い)もので構わない。
前記前景マップ生成部は、前記ラフな顕著性マップに対してセグメンテーション処理を行い、前記ラフな顕著性マップと、前記セグメンテーション処理の結果とを合成することにより、前記前景マップを生成することが好ましい。
ラフな顕著性マップは、画素ごと又はスーパーピクセルごとの個別の(つまり局所的な)顕著度を示すものなので、ノイズや外れ値などを含む可能性がある。これにセグメンテーション処理を組み合わせ、領域単位で(つまりマクロに)前景と背景を分類することで、ノイズや外れ値を低減でき、より妥当な学習サンプルの取得が可能となる。
前記前景マップ生成部は、前記ラフな顕著性マップにおける各画素又は各スーパーピクセルの顕著度を評価する指標の一つとして、画素が暗いほど高い顕著度を示すDark-channel指標を用いることが好ましい。これにより、簡単なアルゴリズムで顕著度を評価できる。
なお、本発明は、上記構成の少なくとも一部を有する画像処理装置として捉えることができる。また、本発明は、上記処理の少なくとも一部を含む画像処理装置の制御方法や顕著性マップ生成方法、または、かかる方法をコンピュータに実行させるためのプログラムやそのプログラムを非一時的に記憶したコンピュータ読取可能な記憶媒体として捉えることもできる。上記構成および処理の各々は技術的な矛盾が生じない限り互いに組み合わせて本発明を構成することができる。
本発明によれば、学習用の事例データを必要とせず、1枚の画像からでも顕著領域を精度よく検出することができる。
実施形態にかかる画像処理装置の機能ブロックを示す図。 実施形態にかかる画像処理方法(顕著性マップ生成方法)の流れを示すフローチャート。 スーパーピクセル画像の例を示す図。 LBPヒストグラムを説明する図。 ブースティング処理の流れを示すフローチャート。 本手法により生成された顕著性マップと従来技術によって生成された顕著性マップの比較を示す図。
本発明の実施形態は、新規な学習ベースの顕著領域検出方法を提案するものである。その最大の特徴は、事例データ(事前知識)を必要とせず、1枚の画像からでも顕著領域の検出(顕著性マップの生成も同義である)が可能な点である。これを実現するための基本的なアイデアとして、本実施形態では以下のようなフレームワークを採用する。
(1)最初にモデルベースのアルゴリズムでラフな前景マップを計算する。
(2)ラフな前景マップにおける前景領域と背景領域とから、それぞれ正の学習サンプルと負の学習サンプルを抽出する。
(3)ステップ(2)で定義した学習サンプルを用いて、複数の識別器を学習する。
(4)学習した複数の識別器を組み合わせて強識別器を構築し、その強識別器を用いて最終的な顕著性マップを生成する。
このようなアルゴリズムによれば、画像自身の情報を用いて学習し、この画像に特化した識別器を生成するので、従来よりも高精度の検出精度を実現できる。しかも従来の学習ベースのアルゴリズムと違い、事例データ(事前知識)や教師信号が一切必要ないという利点もある。
以下、図面を参照しながら本発明の具体的な実施形態について詳しく説明する。
(構成)
本発明の一実施形態にかかる画像処理装置1の構成について説明する。図1は、画像処理装置1の構成を示す機能ブロック図である。図1に示す画像処理装置1は、入力画像を取得し、取得した入力画像の各画素における顕著度を示す顕著性マップを出力する。なお、本実施形態において入力画像は静止画像であるとして説明するが、動画像を入力として、動画像の各フレームに対して顕著性マップを出力してもよい。
図1に示すように、画像処理装置1は、画像取得部11、制御部12、出力部13および記憶部14を備える。
画像取得部11は、外部から処理対象となる入力画像を取得するものである。画像取得部11は、例示的には、ユーザの入力操作に応じて、画像処理装置1に接続されるデジタルカメラあるいはデジタルビデオカメラ等の撮像装置から、リアルタイムで(同期を取って)あるいは非同期で、入力画像を取得する。
ただし、入力画像の取得方法は上記に限定されず、例えば、画像取得部11は、記憶部14に格納されている画像データを入力画像として取得してもよいし、画像処理装置1に接続される周辺機器から入力画像を取得してもよいし、有線あるいは無線の通信ネットワ
ークを介して入力画像を取得してもよい。
制御部12は、画像処理装置1における各種機能を統括的に制御するものである。制御部12の制御機能は、制御プログラムをCPU(Central Processing Unit)などの処理
装置が実行することによって実現される。あるいは、制御機能は、ASIC(Application Specific Integrated Circuit)などによって実現されてもよい。また、これらの組合
せによって実現されてもよい。制御部12は、その制御機能の一部として、画像取得部11から入力される入力画像に対する各種処理を実行するための機能および構成を備えている。制御部12の詳細な機能および構成については後述する。
出力部13は、制御部12による入力画像の処理結果を外部に対して出力するものである。例えば、出力部13は、各種の画像アプリケーションに上記処理結果を出力してもよい。本実施形態の出力部13は、画像取得部11が取得した入力画像に対して制御部12により生成された顕著性マップを出力する。
記憶部14は、各種データおよびコンピュータプログラムを記憶するものである。記憶部14は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、および不揮発性メモリ(例えばフラッシュメモリ)等の記憶装置を組み合わせることにより実現できる。
記憶部14には、例えば、制御部12において実行されるコンピュータプログラムや、当該プログラムにおいて処理される各種データ等が格納される。
(制御部)
次に、制御部12の各部について説明する。図1に示すように、制御部12は、前処理部121、ラフ前景マップ生成部122、学習サンプル抽出部123、識別器学習部124、強識別器生成部125、顕著性マップ生成部126を備える。各機能部の構成を、制御部12による画像処理(顕著性マップ生成処理)の流れを示す図2のフローチャートおよびその他の図面とともに説明する。
(前処理)
まず、制御部12は、画像取得部11に入力された入力画像を取得する(ステップS10)。入力画像は、前処理部121に渡される。前処理部121は、画像取得部11から取得される入力画像を元画像として、画素を単位構成とする元画像から、スーパーピクセル(SP:Super Pixel)を単位構成とするスーパーピクセル画像(SP画像)を生成す
る(ステップS11)。ここで、スーパーピクセルとは、画像において、色または輝度などの各種のパラメータの値が互いに類似している隣接した複数の画素からなる小領域である。すなわち、スーパーピクセル画像は、入力画像の画素の特徴量に基づいて連結された複数の領域に分割された画像といえる。スーパーピクセルを単位構成とする画像を、元画像と区別するために、スーパーピクセル画像と呼ぶ。スーパーピクセル画像の生成アルゴリズムとして複数の生成アルゴリズムが知られているが、本発明ではいずれのアルゴリズムを利用してもよい。
元画像の代わりにスーパーピクセル画像を用いた画像処理を行うことによって、処理のデータ量を大幅に削減できるので処理の高速化および省メモリ化が実現できるとともに、上記の各種パラメータ(輝度、色など)のノイズを抑制することもできる。ただし、本実施形態ではスーパーピクセル画像を用いるが、元画像をそのまま用いても構わない。元画像をそのまま用いる場合には、以降の処理単位が「スーパーピクセル」の代わりに「画素」になるだけである。
図3に、入力画像と、前処理部121で生成されたスーパーピクセル画像の例を示す。
スーパーピクセル画像では網の目状の模様が描画されているが、この網の目で分割された個々のパッチ(領域)がスーパーピクセルである。
(特徴量抽出)
続いて、前処理部121は、スーパーピクセル画像に対し、各スーパーピクセルの特徴量を抽出する処理を行う(ステップS12)。ここでは、特徴量として、スーパーピクセルを構成する画素群のRGBの平均値(Ra,Ga,Ba)、スーパーピクセルを構成する画素群のLの平均値(La,Aa,Ba)、スーパーピクセルを構成する画素群のLBP(Local Binary Pattern)ヒストグラムの3つを用いる。なお、LはCIE(国際照明委員会)により規定された等色色空間の一つである(以後、単にLabと記載する)。
LBPとは、注目画素と、注目画素の近傍にある画素との関係をバイナリパターンで表したものである。図4は、LBPによる特徴量の算出方法を説明する図である。符号201は、入力画像の一部を切り出した、3画素×3画素のサイズを持つ領域であり、中央の黒色で表した画素が処理対象の画素(注目画素)である。
ここでは、注目画素の近傍にある8つの画素の輝度値が、注目画素に対して明るいか暗いかを表すパターンを生成する。具体的には、輝度値が5未満であれば0を、5以上であれば1を与える。この結果、符号202のようなパターンが生成される。このようにして生成したバイナリ値を左上から順に並べ、8ビットの値(LBP値)を生成する。
そして、スーパーピクセルを構成する全画素について算出したLBP値をビットごとに積算し、ヒストグラムを生成する。この結果、符号203に示したようなヒストグラムを得ることができる。このLBPヒストグラム203(すなわち8次元のベクトル)が、スーパーピクセルに対応する特徴量となる。
(ラフ前景マップ生成)
続いて、ラフ前景マップ生成部122が、スーパーピクセル画像に対し、ラフ前景マップの生成を行う(ステップS13〜S15)。詳しくは、モデルベースの顕著性マップ生成処理(S13)、セグメンテーション処理(S14)、ラフ前景マップ生成処理(S15)という手順で行う。以下、各々の処理を詳しく説明する。
(1)モデルベースの顕著性マップ生成処理(S13)
ラフ前景マップ生成部122は、スーパーピクセル画像に対し簡易なモデルベースの顕著領域検出処理を適用し、各スーパーピクセルの顕著度を計算することで、ラフな顕著性マップを生成する。ここで「ラフな」とは、高い精度でなくてもよいことを意味する。つまり、ここで生成するラフな顕著性マップは、学習サンプルを抽出することが目的なので、最終的に得る顕著性マップよりも精度が低くて構わない。本実施形態では、次の3つの仮説に基づく簡易的なモデルを用い、下記式(1)により顕著度を求める。
・Contrast:コントラストの高い部分は顕著度が高い
・Center Prior:画像の中心にあるほど顕著度が高い
・Dark-channel:暗い部分は顕著度が高い
Figure 0006330385

ここで、cは、i番目のスーパーピクセル(注目スーパーピクセル)であり、f(c)は、注目スーパーピクセルの顕著度である。
Contrastは、注目スーパーピクセルとその近傍のスーパーピクセルとの特徴量の差の合計を顕著度とする指標である。kは特徴量の種類であり、本実施形態では、RGBの平均値、Labの平均値、LBPヒストグラムの3種類を用いる。nはj番目の近傍スーパーピクセルであり、Nは近傍スーパーピクセルの数である。dは、特徴量kに関する特徴量空間における、注目スーパーピクセルcと近傍スーパーピクセルnのあいだの距離である。
Center Priorは、注目スーパーピクセルの画像中心に対する近さを顕著度とする指標である。具体的な計算方法を式(2)に示す。
Figure 0006330385
ここで、(x、y)は注目スーパーピクセルの画像内での位置座標であり、(x,y)は画像の中心座標である。また、σとσはガウス分布の広がりを制御するパラメータ(定数)である。
Dark-channelは、注目スーパーピクセルcの暗さを顕著度とする指標である。具体的的な計算方法を式(3)に示す。
Figure 0006330385
ここで、pは注目スーパーピクセル(式(1)のcと同じ)であり、qは注目スーパーピクセルpを構成する各画素である。cは各画素のチャネル(R,G,B)を表し、I(q)は画素qのチャネルcの値である。式(3)により、スーパーピクセルpを構成する全画素の全チャネルのうちの最小値が検出され、その最小値を1から減じた値がDa-rk-channel値として得られる。
式(1)により、画像に含まれる全スーパーピクセルの顕著度を計算することで、画像のラフな顕著性マップfが得られる。
(2)セグメンテーション処理(S14)
次に、ラフ前景マップ生成部122は、ステップS13で得られたラフな顕著性マップfに対してセグメンテーション処理を行い、領域分割マップfを生成する。セグメンテーション処理とは、画像を前景領域と背景領域に分ける領域分割処理であり、ここでは顕著性マップfにおいて顕著度の高いスーパーピクセルができるだけ前景に分類される
ように、前景領域の輪郭(前景と背景の境界)の最適解が探索される。セグメンテーションのアルゴリズムとしては、例えば、グラフカット(Graph Cuts)、レベルセット(Level Sets)、スネーク(Snakes)など従来から様々なものが提案されているが、いずれのアルゴリズムを用いてもよい。本実施形態ではグラフカットを用いる。領域分割マップfは、各スーパーピクセルが前景(1)か背景(0)かを示すものである。なお、各スーパーピクセルの前景らしさを前景(1)/背景(0)の2値で示すのではなく、確率(0〜1の実数値)で示すマップでもよい。
(3)ラフ前景マップ生成処理(S15)
次に、ラフ前景マップ生成部122は、ステップS13で得られた顕著性マップfとステップS14で得られた領域分割マップfとを合成して、ラフ前景マップを生成する。本実施形態では、スーパーピクセルごとに顕著性マップfの値と領域分割マップfの値の平均値を、ラフ前景マップf(=(f+f)/2)とする。
(学習サンプル抽出)
続いて、学習サンプル抽出部123が、ラフ前景マップfに基づき、スーパーピクセル画像から正の学習サンプルと負の学習サンプルを抽出する(ステップS16)。正の学習サンプルとは、後段の識別器学習において、前景(顕著領域)のサンプルとして利用するデータである。ラフ前景マップfの値(前景らしさ)が所定の閾値Tpよりも大きいスーパーピクセル群が、正の学習サンプルとして抽出される。一方、負の学習サンプルとは、後段の識別器学習において、背景(顕著領域でないもの)のサンプルとして利用するデータである。ラフ前景マップfの値(前景らしさ)が所定の閾値Tnよりも小さいスーパーピクセル群が、負の学習サンプルとして抽出される。なお、閾値Tp、TnをTn<Tpのように設定し、ラフ前景マップfの値がTn〜Tpの範囲のスーパーピクセル(つまり、前景か背景かが曖昧なスーパーピクセル)については、学習サンプルから除外するとよい。
(識別器学習)
続いて、識別器学習部124は、ステップS16で得られた学習サンプルを元に、複数の識別器の学習を行う(ステップS17)。識別器としては、正と負の2クラスの識別を行う識別器を用いる。識別器の学習アルゴリズムについては従来から多くのものが提案されており、いずれを用いることもできるが、本実施形態ではサポートベクターマシン(SVM)を利用する。
SVMは、カーネル関数を変えることで、異なる識別器を構成できるという特徴がある。本実施形態では、カーネル関数として、Linear関数、Polynomial関数、RBF(ラジアル基底関数:Radial basis function)、Sigmoid関数の4種類を用いる。また、各スーパーピクセルからは、RGBの平均値、Labの平均値、LBPヒストグラムの3種類の特徴量を得ているので、カーネル4種類×特徴量3種類=12種類の識別器の学習が行われる。なお、カーネル関数や特徴量の数や種類は一例であり、他のものを用いても構わない。
(強識別器の生成)
続いて、強識別器生成部125が、ステップS16で学習した12個の識別器を組み合
わせて強識別器を構築する(ステップS18)。ブースティングとは、複数の弱識別器を組み合わせることで強識別器を生成する操作であり、例えばAdaBoostなど、従来から多くのアルゴリズムが提案されており、いずれを用いてもよい。なお、強識別器とは、弱識別器よりも識別能力の高い識別器である。なお、本実施形態ではブースティングを用いて識別器を組み合わせることで強識別器を生成したが、バギング、ランダムフォレストなど、他の手法を用いてもよい。
図5は、本実施形態のブースティングの処理の流れを示している。ブースティングには、ステップS16で得られた正及び負の学習サンプルを利用する。
まず、強識別器生成部125は、各学習サンプルの重みwに初期値1/Dを設定する(ステップS20)。Dは、学習サンプルの数である。そして、12個の識別器のそれぞれでD個の重み付き学習サンプルの識別を行い、識別誤差の最も小さい識別器Sを選択する(ステップS21)。次に、選択された識別器Sの重みβを、その識別誤差に基づいて決定する(ステップS22)。その後、当該識別器Sと重みβと識別誤差に基づいて、各学習サンプルの重みwを更新する(ステップS23)。このとき、学習サンプルの識別が難しくなるように重みwの調整が行われる。
ステップS21〜S23の処理を、所定の回数(B回)繰り返すことで、識別器Sと重みβの組がB個得られる。強識別器生成部125は、下記式のようにB個の識別器Sを線形結合することで、最終的な強識別器Yを生成する(ステップS24)。
Figure 0006330385
ここで、rは識別対象の画素ないしスーパーピクセルである。
(顕著性マップ生成)
以上の処理により強識別器Yが得られたら、顕著性マップ生成部126が、元画像(ステップS10で入力された画像)の各画素を強識別器Yに入力し、各画素の顕著度を計算することで、最終的な顕著性マップを生成する(ステップS19)。
以上述べた方法によれば、事前知識を一切必要とせず、入力画像自身の情報を用いて識別器の学習を行い、かつ、その識別器で入力画像の顕著性マップを生成することができる。
(実験結果)
本手法および従来技術の手法によって得られる顕著性マップについて説明する。図6には、(a)元画像、(b)〜(j)従来手法によって得られた顕著性マップ、(k)本手法によって得られた顕著性マップ、および、(l)正解マップ(Ground-truth)が示されている。本手法によれば、従来技術と比較して、顕著領域をより精度良く検出できていることが分かる。
(変形例)
上述した実施形態は本発明の一具体例を示したものであり、本発明の範囲をそれらの具体例に限定する趣旨のものではない。
例えば、上記実施形態では、スーパーピクセル画像を用いているが、入力された元画像のまま同様の処理を行ってもよい。その場合は、処理単位がスーパーピクセルではなく一画素になるだけである。また上記実施形態では、モデルベースの顕著領域検出により得た顕著性マップfとセグメンテーションにより得た領域分割マップfとからラフ前景マップfを生成したが、顕著性マップfをそのままラフ前景マップfとして用いてもよい。また上記実施形態では、顕著性マップfを生成する際に、画素のContrast、Dark-channel、Center priorに基づき顕著度を評価したが、他のモデルや仮説を用いてもよい。また上記実施形態では、特徴量としてRGBの平均値、Labの平均値、LBPヒスト
グラムの3つを用いたが、他の種類の特徴量を用いてもよいし、特徴量の数もいくつでも構わない。また識別器の種類、学習アルゴリズム、ブースティング手法も上記実施形態のものに限られない。
(実装例)
上述した画像処理装置の具体的な実装は、ソフトウェア(プログラム)による実装と、ハードウェアによる実装のいずれも可能である。例えば、画像処理装置に内蔵されたコンピュータ(マイコン、CPU、MPU、FPGA等)のメモリにコンピュータプログラムを格納し、当該コンピュータプログラムをコンピュータに実行させて、各処理を実現させてもよい。また、本発明の全部または一部の処理を論理回路により実現するASIC等の専用プロセッサを設けることも好ましい。また、本発明は、クラウド環境におけるサーバーにも適用可能である。
また、例えば、記憶装置に記録されたプログラムを読み込み実行することで前述した実施形態の機能を実現するシステムや装置のコンピュータによって実行されるステップからなる方法によっても、本発明を実施することができる。この目的のために、上記プログラムは、例えば、ネットワークを通じて、又は、上記記憶装置となり得る様々なタイプの記録媒体(つまり、非一時的にデータを保持するコンピュータ読取可能な記録媒体)から、上記コンピュータに提供される。よって、上記コンピュータ(CPU、MPU等のデバイスを含む)、上記方法、上記プログラム(プログラムコード、プログラムプロダクトを含む)、上記プログラムを非一時的に保持するコンピュータ読取可能な記録媒体は、いずれも本発明の範疇に含まれる。
1:画像処理装置
11:画像取得部、12:制御部、13:出力部、14:記憶部
121:前処理部、122:ラフ前景マップ生成部、123:学習サンプル抽出部、124:識別器学習部、125:強識別器生成部、126:顕著性マップ生成部

Claims (7)

  1. 処理対象となる画像を取得する画像取得部と、
    前記画像から複数の学習サンプルのデータを抽出する学習サンプル抽出部と、
    前記複数の学習サンプルを用いて複数の識別器の学習を行う識別器学習部と、
    学習した前記複数の識別器を組み合わせて強識別器を生成する強識別器生成部と、
    前記強識別器を用いて前記画像の顕著性マップを生成する顕著性マップ生成部と、
    前記画像の画素ごと又はスーパーピクセルごとに前景らしさを示す値をもつ前景マップを生成する前景マップ生成部と、
    を有し、
    前記学習サンプル抽出部は、前記前景らしさを示す値が、第1の閾値よりも大きい画素又はスーパーピクセルを正の学習サンプルとして抽出し、前記前景らしさを示す値が、第2の閾値よりも小さい画素又はスーパーピクセルを負の学習サンプルとして抽出し、
    前記第2の閾値は前記第1の閾値よりも小さく、
    前記学習サンプル抽出部は、前記前景らしさを示す値が前記第2の閾値から前記第1の閾値の範囲である画素又はスーパーピクセルを学習サンプルとして抽出しない、
    ことを特徴とする画像処理装置。
  2. 前記前景マップ生成部は、モデルベースのアルゴリズムにより、前記顕著性マップ生成部により得られる顕著性マップよりも精度の低い、ラフな顕著性マップを生成し、前記ラフな顕著性マップから前記前景マップを生成する
    ことを特徴とする請求項に記載の画像処理装置。
  3. 前記前景マップ生成部は、前記ラフな顕著性マップに対してセグメンテーション処理を行い、前記ラフな顕著性マップと、前記セグメンテーション処理の結果とを合成することにより、前記前景マップを生成する
    ことを特徴とする請求項に記載の画像処理装置。
  4. 前記前景マップ生成部は、前記ラフな顕著性マップにおける各画素又は各スーパーピクセルの顕著度を評価する指標の一つとして、画素が暗いほど高い顕著度を示すDark-channel指標を用いる
    ことを特徴とする請求項又はに記載の画像処理装置。
  5. コンピュータによって実行される画像処理方法であって、
    処理対象となる画像を取得する画像取得ステップと、
    前記画像から複数の学習サンプルのデータを抽出する学習サンプル抽出ステップと、
    前記複数の学習サンプルを用いて複数の識別器の学習を行う識別器学習ステップと、
    学習した前記複数の識別器を組み合わせて強識別器を生成する強識別器生成ステップと、
    前記強識別器を用いて前記画像の顕著性マップを生成する顕著性マップ生成ステップと
    前記画像の画素ごと又はスーパーピクセルごとに前景らしさを示す値をもつ前景マップを生成する前景マップ生成ステップと、
    を有し、
    前記学習サンプル抽出ステップでは、前記前景らしさを示す値が、第1の閾値よりも大きい画素又はスーパーピクセルを正の学習サンプルとして抽出し、前記前景らしさを示す値が、第2の閾値よりも小さい画素又はスーパーピクセルを負の学習サンプルとして抽出し、
    前記第2の閾値は前記第1の閾値よりも小さく、
    前記学習サンプル抽出ステップでは、前記前景らしさを示す値が前記第2の閾値から前記第1の閾値の範囲である画素又はスーパーピクセルを学習サンプルとして抽出しない、ことを特徴とする画像処理方法。
  6. 請求項に記載の画像処理方法の各ステップをコンピュータに実行させるためのプログラム。
  7. 請求項に記載のプログラムを非一時的に記憶したコンピュータ読取可能な記憶媒体。
JP2014049586A 2014-03-13 2014-03-13 画像処理装置、画像処理方法およびプログラム Active JP6330385B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014049586A JP6330385B2 (ja) 2014-03-13 2014-03-13 画像処理装置、画像処理方法およびプログラム
KR1020140185692A KR101640998B1 (ko) 2014-03-13 2014-12-22 화상 처리 장치 및 화상 처리 방법
EP14200539.6A EP2919162A1 (en) 2014-03-13 2014-12-30 Image processing apparatus and image processing method
CN201410842620.XA CN104915972B (zh) 2014-03-13 2014-12-30 图像处理装置、图像处理方法以及程序
US14/587,802 US9600746B2 (en) 2014-03-13 2014-12-31 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014049586A JP6330385B2 (ja) 2014-03-13 2014-03-13 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2015176169A JP2015176169A (ja) 2015-10-05
JP6330385B2 true JP6330385B2 (ja) 2018-05-30

Family

ID=52146360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014049586A Active JP6330385B2 (ja) 2014-03-13 2014-03-13 画像処理装置、画像処理方法およびプログラム

Country Status (5)

Country Link
US (1) US9600746B2 (ja)
EP (1) EP2919162A1 (ja)
JP (1) JP6330385B2 (ja)
KR (1) KR101640998B1 (ja)
CN (1) CN104915972B (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9727798B2 (en) * 2014-07-18 2017-08-08 Acrovirt, LLC Generating and using a predictive virtual personification
US10032280B2 (en) * 2014-09-19 2018-07-24 Brain Corporation Apparatus and methods for tracking salient features
ITUB20153912A1 (it) * 2015-09-25 2017-03-25 Sisvel Tech S R L Metodi e apparati per codificare e decodificare immagini digitali mediante superpixel
US10540768B2 (en) * 2015-09-30 2020-01-21 Samsung Electronics Co., Ltd. Apparatus and method to segment object from image
CN105550690B (zh) * 2015-12-14 2018-09-11 南京邮电大学 一种基于Stentiford视觉模型的优化方法
CN105913421B (zh) * 2016-04-07 2018-11-16 西安电子科技大学 基于自适应形状暗通道的遥感图像云检测方法
JP6717049B2 (ja) * 2016-05-19 2020-07-01 株式会社リコー 画像解析装置、画像解析方法およびプログラム
JP6663491B2 (ja) * 2016-06-08 2020-03-11 シャープ株式会社 画像処理装置、画像処理プログラム、および記録媒体
JP6798183B2 (ja) * 2016-08-04 2020-12-09 株式会社リコー 画像解析装置、画像解析方法およびプログラム
JP2018032071A (ja) 2016-08-22 2018-03-01 株式会社クレスコ 検証装置、検証方法及び検証プログラム
CN106844767B (zh) * 2017-02-23 2019-12-13 中国科学院自动化研究所 格式文档关键信息块配准及提取的方法及装置
JP6802756B2 (ja) * 2017-05-18 2020-12-16 株式会社デンソーアイティーラボラトリ 認識システム、共通特徴量抽出ユニット、及び認識システム構成方法
CN107292318B (zh) * 2017-07-21 2019-08-09 北京大学深圳研究生院 基于中心暗通道先验信息的图像显著性物体检测方法
JP7009864B2 (ja) * 2017-09-20 2022-01-26 カシオ計算機株式会社 輪郭検出装置及び輪郭検出方法
CN107945210B (zh) * 2017-11-30 2021-01-05 天津大学 基于深度学习和环境自适应的目标跟踪方法
KR102140873B1 (ko) * 2018-11-27 2020-08-03 연세대학교 산학협력단 동적 객체 검출 장치 및 방법
CN109829932A (zh) * 2019-01-18 2019-05-31 创新奇智(宁波)科技有限公司 一种自动前景提取的数据采集方法及装置
KR20200107555A (ko) * 2019-03-08 2020-09-16 에스케이텔레콤 주식회사 영상 분석 장치, 방법 및 이에 이용되는 영상 분석 모델의 생성 방법
JP2020184146A (ja) * 2019-05-07 2020-11-12 パイオニア株式会社 顕著性推定装置、顕著性推定方法、及びプログラム
US11263752B2 (en) * 2019-05-09 2022-03-01 Boe Technology Group Co., Ltd. Computer-implemented method of detecting foreign object on background object in an image, apparatus for detecting foreign object on background object in an image, and computer-program product
CN112149688A (zh) * 2020-09-24 2020-12-29 北京汽车研究总院有限公司 图像处理方法与装置、计算机可读存储介质、计算机设备
CN112766335B (zh) * 2021-01-08 2023-12-01 四川九洲北斗导航与位置服务有限公司 一种图像处理方法、装置、电子设备及存储介质
CN114418957B (zh) * 2021-12-24 2022-11-18 广州大学 基于机器人视觉的全局和局部二值模式图像裂缝分割方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3848514B2 (ja) 2000-02-23 2006-11-22 富士通株式会社 顕著性算出装置及び方法
GB2370438A (en) * 2000-12-22 2002-06-26 Hewlett Packard Co Automated image cropping using selected compositional rules.
US7400761B2 (en) * 2003-09-30 2008-07-15 Microsoft Corporation Contrast-based image attention analysis framework
JP4639754B2 (ja) * 2004-11-04 2011-02-23 富士ゼロックス株式会社 画像処理装置
WO2006072637A1 (en) * 2005-01-10 2006-07-13 Thomson Licensing Device and method for creating a saliency map of an image
US8249416B2 (en) * 2005-01-28 2012-08-21 Panasonic Corporation Recording medium, program, and reproduction method
US20060182339A1 (en) * 2005-02-17 2006-08-17 Connell Jonathan H Combining multiple cues in a visual object detection system
US7751627B2 (en) * 2006-07-31 2010-07-06 Hewlett-Packard Development Company, L.P. Image dominant line determination and use
US8165407B1 (en) * 2006-10-06 2012-04-24 Hrl Laboratories, Llc Visual attention and object recognition system
US7940985B2 (en) * 2007-06-06 2011-05-10 Microsoft Corporation Salient object detection
US8537409B2 (en) * 2008-10-13 2013-09-17 Xerox Corporation Image summarization by a learning approach
US8175376B2 (en) * 2009-03-09 2012-05-08 Xerox Corporation Framework for image thumbnailing based on visual similarity
JP5235770B2 (ja) 2009-04-27 2013-07-10 日本電信電話株式会社 顕著領域映像生成方法、顕著領域映像生成装置、プログラムおよび記録媒体
US8594439B2 (en) * 2009-05-28 2013-11-26 Hewlett-Packard Development Company, L.P. Image processing
US20110235910A1 (en) * 2009-06-30 2011-09-29 Omri Soceanu Method circuit and system for matching an object or person present within two or more images
WO2011152893A1 (en) * 2010-02-10 2011-12-08 California Institute Of Technology Methods and systems for generating saliency models through linear and/or nonlinear integration
CN102682287B (zh) * 2012-04-17 2014-02-26 电子科技大学 基于显著度信息的行人检测方法

Also Published As

Publication number Publication date
CN104915972B (zh) 2018-02-13
EP2919162A1 (en) 2015-09-16
KR101640998B1 (ko) 2016-07-29
KR20150107579A (ko) 2015-09-23
US9600746B2 (en) 2017-03-21
CN104915972A (zh) 2015-09-16
US20150262039A1 (en) 2015-09-17
JP2015176169A (ja) 2015-10-05

Similar Documents

Publication Publication Date Title
JP6330385B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN109325954B (zh) 图像分割方法、装置及电子设备
US11263434B2 (en) Fast side-face interference resistant face detection method
US12002259B2 (en) Image processing apparatus, training apparatus, image processing method, training method, and storage medium
JP4708909B2 (ja) デジタル画像の対象物検出方法および装置並びにプログラム
CN110298297B (zh) 火焰识别方法和装置
CN113361495B (zh) 人脸图像相似度的计算方法、装置、设备及存储介质
US11657513B2 (en) Method and system for generating a tri-map for image matting
US8103058B2 (en) Detecting and tracking objects in digital images
JP2018022360A (ja) 画像解析装置、画像解析方法およびプログラム
CN111368758A (zh) 一种人脸模糊度检测方法、装置、计算机设备及存储介质
JP2017062778A (ja) 画像のオブジェクトを分類するための方法およびデバイスならびに対応するコンピュータプログラム製品およびコンピュータ可読媒体
JP6756406B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
WO2019197021A1 (en) Device and method for instance-level segmentation of an image
KR20130058286A (ko) 보행자 검출기의 보행자 검출 방법
CN105184771A (zh) 一种自适应运动目标检测***及检测方法
JP2017102622A (ja) 画像処理装置、画像処理方法及びプログラム
Gurrala et al. A new segmentation method for plant disease diagnosis
CN111274964A (zh) 一种基于无人机视觉显著性分析水面污染物的检测方法
CN107704864B (zh) 基于图像对象性语义检测的显著目标检测方法
JP2011170890A (ja) 顔検出方法および装置並びにプログラム
CN116612272A (zh) 一种图像处理智能数字化的检测***及其检测方法
CN104778468B (zh) 图像处理装置、图像处理方法以及监控设备
Jindal et al. Sign Language Detection using Convolutional Neural Network (CNN)
CN107992853B (zh) 人眼检测方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180409

R150 Certificate of patent or registration of utility model

Ref document number: 6330385

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250