JP6330385B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents
画像処理装置、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP6330385B2 JP6330385B2 JP2014049586A JP2014049586A JP6330385B2 JP 6330385 B2 JP6330385 B2 JP 6330385B2 JP 2014049586 A JP2014049586 A JP 2014049586A JP 2014049586 A JP2014049586 A JP 2014049586A JP 6330385 B2 JP6330385 B2 JP 6330385B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- foreground
- learning
- map
- saliency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 39
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000000034 method Methods 0.000 claims description 46
- 230000008569 process Effects 0.000 claims description 19
- 238000004422 calculation algorithm Methods 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 12
- 230000011218 segmentation Effects 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 7
- 230000006870 function Effects 0.000 description 14
- 238000007781 pre-processing Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241000270295 Serpentes Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Description
こうした顕著領域検出の技術は、画像から主要被写体を検出したり、画像中に映しだされている異常事象を検出するための要素技術として、例えば、監視カメラ、ロボットビジョン、マシンビジョンなど幅広い応用が期待されている。
別器を用いて前記画像の顕著性マップを生成する顕著性マップ生成部と、を有することを特徴とする。
(2)ラフな前景マップにおける前景領域と背景領域とから、それぞれ正の学習サンプルと負の学習サンプルを抽出する。
(3)ステップ(2)で定義した学習サンプルを用いて、複数の識別器を学習する。
(4)学習した複数の識別器を組み合わせて強識別器を構築し、その強識別器を用いて最終的な顕著性マップを生成する。
以下、図面を参照しながら本発明の具体的な実施形態について詳しく説明する。
本発明の一実施形態にかかる画像処理装置1の構成について説明する。図1は、画像処理装置1の構成を示す機能ブロック図である。図1に示す画像処理装置1は、入力画像を取得し、取得した入力画像の各画素における顕著度を示す顕著性マップを出力する。なお、本実施形態において入力画像は静止画像であるとして説明するが、動画像を入力として、動画像の各フレームに対して顕著性マップを出力してもよい。
ただし、入力画像の取得方法は上記に限定されず、例えば、画像取得部11は、記憶部14に格納されている画像データを入力画像として取得してもよいし、画像処理装置1に接続される周辺機器から入力画像を取得してもよいし、有線あるいは無線の通信ネットワ
ークを介して入力画像を取得してもよい。
装置が実行することによって実現される。あるいは、制御機能は、ASIC(Application Specific Integrated Circuit)などによって実現されてもよい。また、これらの組合
せによって実現されてもよい。制御部12は、その制御機能の一部として、画像取得部11から入力される入力画像に対する各種処理を実行するための機能および構成を備えている。制御部12の詳細な機能および構成については後述する。
記憶部14には、例えば、制御部12において実行されるコンピュータプログラムや、当該プログラムにおいて処理される各種データ等が格納される。
次に、制御部12の各部について説明する。図1に示すように、制御部12は、前処理部121、ラフ前景マップ生成部122、学習サンプル抽出部123、識別器学習部124、強識別器生成部125、顕著性マップ生成部126を備える。各機能部の構成を、制御部12による画像処理(顕著性マップ生成処理)の流れを示す図2のフローチャートおよびその他の図面とともに説明する。
まず、制御部12は、画像取得部11に入力された入力画像を取得する(ステップS10)。入力画像は、前処理部121に渡される。前処理部121は、画像取得部11から取得される入力画像を元画像として、画素を単位構成とする元画像から、スーパーピクセル(SP:Super Pixel)を単位構成とするスーパーピクセル画像(SP画像)を生成す
る(ステップS11)。ここで、スーパーピクセルとは、画像において、色または輝度などの各種のパラメータの値が互いに類似している隣接した複数の画素からなる小領域である。すなわち、スーパーピクセル画像は、入力画像の画素の特徴量に基づいて連結された複数の領域に分割された画像といえる。スーパーピクセルを単位構成とする画像を、元画像と区別するために、スーパーピクセル画像と呼ぶ。スーパーピクセル画像の生成アルゴリズムとして複数の生成アルゴリズムが知られているが、本発明ではいずれのアルゴリズムを利用してもよい。
スーパーピクセル画像では網の目状の模様が描画されているが、この網の目で分割された個々のパッチ(領域)がスーパーピクセルである。
続いて、前処理部121は、スーパーピクセル画像に対し、各スーパーピクセルの特徴量を抽出する処理を行う(ステップS12)。ここでは、特徴量として、スーパーピクセルを構成する画素群のRGBの平均値(Ra,Ga,Ba)、スーパーピクセルを構成する画素群のL*a*b*の平均値(La,Aa,Ba)、スーパーピクセルを構成する画素群のLBP(Local Binary Pattern)ヒストグラムの3つを用いる。なお、L*a*b*はCIE(国際照明委員会)により規定された等色色空間の一つである(以後、単にLabと記載する)。
続いて、ラフ前景マップ生成部122が、スーパーピクセル画像に対し、ラフ前景マップの生成を行う(ステップS13〜S15)。詳しくは、モデルベースの顕著性マップ生成処理(S13)、セグメンテーション処理(S14)、ラフ前景マップ生成処理(S15)という手順で行う。以下、各々の処理を詳しく説明する。
ラフ前景マップ生成部122は、スーパーピクセル画像に対し簡易なモデルベースの顕著領域検出処理を適用し、各スーパーピクセルの顕著度を計算することで、ラフな顕著性マップを生成する。ここで「ラフな」とは、高い精度でなくてもよいことを意味する。つまり、ここで生成するラフな顕著性マップは、学習サンプルを抽出することが目的なので、最終的に得る顕著性マップよりも精度が低くて構わない。本実施形態では、次の3つの仮説に基づく簡易的なモデルを用い、下記式(1)により顕著度を求める。
・Contrast:コントラストの高い部分は顕著度が高い
・Center Prior:画像の中心にあるほど顕著度が高い
・Dark-channel:暗い部分は顕著度が高い
次に、ラフ前景マップ生成部122は、ステップS13で得られたラフな顕著性マップf0に対してセグメンテーション処理を行い、領域分割マップf1を生成する。セグメンテーション処理とは、画像を前景領域と背景領域に分ける領域分割処理であり、ここでは顕著性マップf0において顕著度の高いスーパーピクセルができるだけ前景に分類される
ように、前景領域の輪郭(前景と背景の境界)の最適解が探索される。セグメンテーションのアルゴリズムとしては、例えば、グラフカット(Graph Cuts)、レベルセット(Level Sets)、スネーク(Snakes)など従来から様々なものが提案されているが、いずれのアルゴリズムを用いてもよい。本実施形態ではグラフカットを用いる。領域分割マップf1は、各スーパーピクセルが前景(1)か背景(0)かを示すものである。なお、各スーパーピクセルの前景らしさを前景(1)/背景(0)の2値で示すのではなく、確率(0〜1の実数値)で示すマップでもよい。
次に、ラフ前景マップ生成部122は、ステップS13で得られた顕著性マップf0とステップS14で得られた領域分割マップf1とを合成して、ラフ前景マップを生成する。本実施形態では、スーパーピクセルごとに顕著性マップf0の値と領域分割マップf1の値の平均値を、ラフ前景マップf2(=(f0+f1)/2)とする。
続いて、学習サンプル抽出部123が、ラフ前景マップf2に基づき、スーパーピクセル画像から正の学習サンプルと負の学習サンプルを抽出する(ステップS16)。正の学習サンプルとは、後段の識別器学習において、前景(顕著領域)のサンプルとして利用するデータである。ラフ前景マップf2の値(前景らしさ)が所定の閾値Tpよりも大きいスーパーピクセル群が、正の学習サンプルとして抽出される。一方、負の学習サンプルとは、後段の識別器学習において、背景(顕著領域でないもの)のサンプルとして利用するデータである。ラフ前景マップf2の値(前景らしさ)が所定の閾値Tnよりも小さいスーパーピクセル群が、負の学習サンプルとして抽出される。なお、閾値Tp、TnをTn<Tpのように設定し、ラフ前景マップf2の値がTn〜Tpの範囲のスーパーピクセル(つまり、前景か背景かが曖昧なスーパーピクセル)については、学習サンプルから除外するとよい。
続いて、識別器学習部124は、ステップS16で得られた学習サンプルを元に、複数の識別器の学習を行う(ステップS17)。識別器としては、正と負の2クラスの識別を行う識別器を用いる。識別器の学習アルゴリズムについては従来から多くのものが提案されており、いずれを用いることもできるが、本実施形態ではサポートベクターマシン(SVM)を利用する。
続いて、強識別器生成部125が、ステップS16で学習した12個の識別器を組み合
わせて強識別器を構築する(ステップS18)。ブースティングとは、複数の弱識別器を組み合わせることで強識別器を生成する操作であり、例えばAdaBoostなど、従来から多くのアルゴリズムが提案されており、いずれを用いてもよい。なお、強識別器とは、弱識別器よりも識別能力の高い識別器である。なお、本実施形態ではブースティングを用いて識別器を組み合わせることで強識別器を生成したが、バギング、ランダムフォレストなど、他の手法を用いてもよい。
以上の処理により強識別器Yが得られたら、顕著性マップ生成部126が、元画像(ステップS10で入力された画像)の各画素を強識別器Yに入力し、各画素の顕著度を計算することで、最終的な顕著性マップを生成する(ステップS19)。
本手法および従来技術の手法によって得られる顕著性マップについて説明する。図6には、(a)元画像、(b)〜(j)従来手法によって得られた顕著性マップ、(k)本手法によって得られた顕著性マップ、および、(l)正解マップ(Ground-truth)が示されている。本手法によれば、従来技術と比較して、顕著領域をより精度良く検出できていることが分かる。
上述した実施形態は本発明の一具体例を示したものであり、本発明の範囲をそれらの具体例に限定する趣旨のものではない。
グラムの3つを用いたが、他の種類の特徴量を用いてもよいし、特徴量の数もいくつでも構わない。また識別器の種類、学習アルゴリズム、ブースティング手法も上記実施形態のものに限られない。
上述した画像処理装置の具体的な実装は、ソフトウェア(プログラム)による実装と、ハードウェアによる実装のいずれも可能である。例えば、画像処理装置に内蔵されたコンピュータ(マイコン、CPU、MPU、FPGA等)のメモリにコンピュータプログラムを格納し、当該コンピュータプログラムをコンピュータに実行させて、各処理を実現させてもよい。また、本発明の全部または一部の処理を論理回路により実現するASIC等の専用プロセッサを設けることも好ましい。また、本発明は、クラウド環境におけるサーバーにも適用可能である。
11:画像取得部、12:制御部、13:出力部、14:記憶部
121:前処理部、122:ラフ前景マップ生成部、123:学習サンプル抽出部、124:識別器学習部、125:強識別器生成部、126:顕著性マップ生成部
Claims (7)
- 処理対象となる画像を取得する画像取得部と、
前記画像から複数の学習サンプルのデータを抽出する学習サンプル抽出部と、
前記複数の学習サンプルを用いて複数の識別器の学習を行う識別器学習部と、
学習した前記複数の識別器を組み合わせて強識別器を生成する強識別器生成部と、
前記強識別器を用いて前記画像の顕著性マップを生成する顕著性マップ生成部と、
前記画像の画素ごと又はスーパーピクセルごとに前景らしさを示す値をもつ前景マップを生成する前景マップ生成部と、
を有し、
前記学習サンプル抽出部は、前記前景らしさを示す値が、第1の閾値よりも大きい画素又はスーパーピクセルを正の学習サンプルとして抽出し、前記前景らしさを示す値が、第2の閾値よりも小さい画素又はスーパーピクセルを負の学習サンプルとして抽出し、
前記第2の閾値は前記第1の閾値よりも小さく、
前記学習サンプル抽出部は、前記前景らしさを示す値が前記第2の閾値から前記第1の閾値の範囲である画素又はスーパーピクセルを学習サンプルとして抽出しない、
ことを特徴とする画像処理装置。 - 前記前景マップ生成部は、モデルベースのアルゴリズムにより、前記顕著性マップ生成部により得られる顕著性マップよりも精度の低い、ラフな顕著性マップを生成し、前記ラフな顕著性マップから前記前景マップを生成する
ことを特徴とする請求項1に記載の画像処理装置。 - 前記前景マップ生成部は、前記ラフな顕著性マップに対してセグメンテーション処理を行い、前記ラフな顕著性マップと、前記セグメンテーション処理の結果とを合成することにより、前記前景マップを生成する
ことを特徴とする請求項2に記載の画像処理装置。 - 前記前景マップ生成部は、前記ラフな顕著性マップにおける各画素又は各スーパーピクセルの顕著度を評価する指標の一つとして、画素が暗いほど高い顕著度を示すDark-channel指標を用いる
ことを特徴とする請求項2又は3に記載の画像処理装置。 - コンピュータによって実行される画像処理方法であって、
処理対象となる画像を取得する画像取得ステップと、
前記画像から複数の学習サンプルのデータを抽出する学習サンプル抽出ステップと、
前記複数の学習サンプルを用いて複数の識別器の学習を行う識別器学習ステップと、
学習した前記複数の識別器を組み合わせて強識別器を生成する強識別器生成ステップと、
前記強識別器を用いて前記画像の顕著性マップを生成する顕著性マップ生成ステップと、
前記画像の画素ごと又はスーパーピクセルごとに前景らしさを示す値をもつ前景マップを生成する前景マップ生成ステップと、
を有し、
前記学習サンプル抽出ステップでは、前記前景らしさを示す値が、第1の閾値よりも大きい画素又はスーパーピクセルを正の学習サンプルとして抽出し、前記前景らしさを示す値が、第2の閾値よりも小さい画素又はスーパーピクセルを負の学習サンプルとして抽出し、
前記第2の閾値は前記第1の閾値よりも小さく、
前記学習サンプル抽出ステップでは、前記前景らしさを示す値が前記第2の閾値から前記第1の閾値の範囲である画素又はスーパーピクセルを学習サンプルとして抽出しない、ことを特徴とする画像処理方法。 - 請求項5に記載の画像処理方法の各ステップをコンピュータに実行させるためのプログラム。
- 請求項6に記載のプログラムを非一時的に記憶したコンピュータ読取可能な記憶媒体。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014049586A JP6330385B2 (ja) | 2014-03-13 | 2014-03-13 | 画像処理装置、画像処理方法およびプログラム |
KR1020140185692A KR101640998B1 (ko) | 2014-03-13 | 2014-12-22 | 화상 처리 장치 및 화상 처리 방법 |
EP14200539.6A EP2919162A1 (en) | 2014-03-13 | 2014-12-30 | Image processing apparatus and image processing method |
CN201410842620.XA CN104915972B (zh) | 2014-03-13 | 2014-12-30 | 图像处理装置、图像处理方法以及程序 |
US14/587,802 US9600746B2 (en) | 2014-03-13 | 2014-12-31 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014049586A JP6330385B2 (ja) | 2014-03-13 | 2014-03-13 | 画像処理装置、画像処理方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015176169A JP2015176169A (ja) | 2015-10-05 |
JP6330385B2 true JP6330385B2 (ja) | 2018-05-30 |
Family
ID=52146360
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014049586A Active JP6330385B2 (ja) | 2014-03-13 | 2014-03-13 | 画像処理装置、画像処理方法およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US9600746B2 (ja) |
EP (1) | EP2919162A1 (ja) |
JP (1) | JP6330385B2 (ja) |
KR (1) | KR101640998B1 (ja) |
CN (1) | CN104915972B (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9727798B2 (en) * | 2014-07-18 | 2017-08-08 | Acrovirt, LLC | Generating and using a predictive virtual personification |
US10032280B2 (en) * | 2014-09-19 | 2018-07-24 | Brain Corporation | Apparatus and methods for tracking salient features |
ITUB20153912A1 (it) * | 2015-09-25 | 2017-03-25 | Sisvel Tech S R L | Metodi e apparati per codificare e decodificare immagini digitali mediante superpixel |
US10540768B2 (en) * | 2015-09-30 | 2020-01-21 | Samsung Electronics Co., Ltd. | Apparatus and method to segment object from image |
CN105550690B (zh) * | 2015-12-14 | 2018-09-11 | 南京邮电大学 | 一种基于Stentiford视觉模型的优化方法 |
CN105913421B (zh) * | 2016-04-07 | 2018-11-16 | 西安电子科技大学 | 基于自适应形状暗通道的遥感图像云检测方法 |
JP6717049B2 (ja) * | 2016-05-19 | 2020-07-01 | 株式会社リコー | 画像解析装置、画像解析方法およびプログラム |
JP6663491B2 (ja) * | 2016-06-08 | 2020-03-11 | シャープ株式会社 | 画像処理装置、画像処理プログラム、および記録媒体 |
JP6798183B2 (ja) * | 2016-08-04 | 2020-12-09 | 株式会社リコー | 画像解析装置、画像解析方法およびプログラム |
JP2018032071A (ja) | 2016-08-22 | 2018-03-01 | 株式会社クレスコ | 検証装置、検証方法及び検証プログラム |
CN106844767B (zh) * | 2017-02-23 | 2019-12-13 | 中国科学院自动化研究所 | 格式文档关键信息块配准及提取的方法及装置 |
JP6802756B2 (ja) * | 2017-05-18 | 2020-12-16 | 株式会社デンソーアイティーラボラトリ | 認識システム、共通特徴量抽出ユニット、及び認識システム構成方法 |
CN107292318B (zh) * | 2017-07-21 | 2019-08-09 | 北京大学深圳研究生院 | 基于中心暗通道先验信息的图像显著性物体检测方法 |
JP7009864B2 (ja) * | 2017-09-20 | 2022-01-26 | カシオ計算機株式会社 | 輪郭検出装置及び輪郭検出方法 |
CN107945210B (zh) * | 2017-11-30 | 2021-01-05 | 天津大学 | 基于深度学习和环境自适应的目标跟踪方法 |
KR102140873B1 (ko) * | 2018-11-27 | 2020-08-03 | 연세대학교 산학협력단 | 동적 객체 검출 장치 및 방법 |
CN109829932A (zh) * | 2019-01-18 | 2019-05-31 | 创新奇智(宁波)科技有限公司 | 一种自动前景提取的数据采集方法及装置 |
KR20200107555A (ko) * | 2019-03-08 | 2020-09-16 | 에스케이텔레콤 주식회사 | 영상 분석 장치, 방법 및 이에 이용되는 영상 분석 모델의 생성 방법 |
JP2020184146A (ja) * | 2019-05-07 | 2020-11-12 | パイオニア株式会社 | 顕著性推定装置、顕著性推定方法、及びプログラム |
US11263752B2 (en) * | 2019-05-09 | 2022-03-01 | Boe Technology Group Co., Ltd. | Computer-implemented method of detecting foreign object on background object in an image, apparatus for detecting foreign object on background object in an image, and computer-program product |
CN112149688A (zh) * | 2020-09-24 | 2020-12-29 | 北京汽车研究总院有限公司 | 图像处理方法与装置、计算机可读存储介质、计算机设备 |
CN112766335B (zh) * | 2021-01-08 | 2023-12-01 | 四川九洲北斗导航与位置服务有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN114418957B (zh) * | 2021-12-24 | 2022-11-18 | 广州大学 | 基于机器人视觉的全局和局部二值模式图像裂缝分割方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3848514B2 (ja) | 2000-02-23 | 2006-11-22 | 富士通株式会社 | 顕著性算出装置及び方法 |
GB2370438A (en) * | 2000-12-22 | 2002-06-26 | Hewlett Packard Co | Automated image cropping using selected compositional rules. |
US7400761B2 (en) * | 2003-09-30 | 2008-07-15 | Microsoft Corporation | Contrast-based image attention analysis framework |
JP4639754B2 (ja) * | 2004-11-04 | 2011-02-23 | 富士ゼロックス株式会社 | 画像処理装置 |
WO2006072637A1 (en) * | 2005-01-10 | 2006-07-13 | Thomson Licensing | Device and method for creating a saliency map of an image |
US8249416B2 (en) * | 2005-01-28 | 2012-08-21 | Panasonic Corporation | Recording medium, program, and reproduction method |
US20060182339A1 (en) * | 2005-02-17 | 2006-08-17 | Connell Jonathan H | Combining multiple cues in a visual object detection system |
US7751627B2 (en) * | 2006-07-31 | 2010-07-06 | Hewlett-Packard Development Company, L.P. | Image dominant line determination and use |
US8165407B1 (en) * | 2006-10-06 | 2012-04-24 | Hrl Laboratories, Llc | Visual attention and object recognition system |
US7940985B2 (en) * | 2007-06-06 | 2011-05-10 | Microsoft Corporation | Salient object detection |
US8537409B2 (en) * | 2008-10-13 | 2013-09-17 | Xerox Corporation | Image summarization by a learning approach |
US8175376B2 (en) * | 2009-03-09 | 2012-05-08 | Xerox Corporation | Framework for image thumbnailing based on visual similarity |
JP5235770B2 (ja) | 2009-04-27 | 2013-07-10 | 日本電信電話株式会社 | 顕著領域映像生成方法、顕著領域映像生成装置、プログラムおよび記録媒体 |
US8594439B2 (en) * | 2009-05-28 | 2013-11-26 | Hewlett-Packard Development Company, L.P. | Image processing |
US20110235910A1 (en) * | 2009-06-30 | 2011-09-29 | Omri Soceanu | Method circuit and system for matching an object or person present within two or more images |
WO2011152893A1 (en) * | 2010-02-10 | 2011-12-08 | California Institute Of Technology | Methods and systems for generating saliency models through linear and/or nonlinear integration |
CN102682287B (zh) * | 2012-04-17 | 2014-02-26 | 电子科技大学 | 基于显著度信息的行人检测方法 |
-
2014
- 2014-03-13 JP JP2014049586A patent/JP6330385B2/ja active Active
- 2014-12-22 KR KR1020140185692A patent/KR101640998B1/ko active IP Right Grant
- 2014-12-30 CN CN201410842620.XA patent/CN104915972B/zh active Active
- 2014-12-30 EP EP14200539.6A patent/EP2919162A1/en not_active Ceased
- 2014-12-31 US US14/587,802 patent/US9600746B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN104915972B (zh) | 2018-02-13 |
EP2919162A1 (en) | 2015-09-16 |
KR101640998B1 (ko) | 2016-07-29 |
KR20150107579A (ko) | 2015-09-23 |
US9600746B2 (en) | 2017-03-21 |
CN104915972A (zh) | 2015-09-16 |
US20150262039A1 (en) | 2015-09-17 |
JP2015176169A (ja) | 2015-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6330385B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
CN109325954B (zh) | 图像分割方法、装置及电子设备 | |
US11263434B2 (en) | Fast side-face interference resistant face detection method | |
US12002259B2 (en) | Image processing apparatus, training apparatus, image processing method, training method, and storage medium | |
JP4708909B2 (ja) | デジタル画像の対象物検出方法および装置並びにプログラム | |
CN110298297B (zh) | 火焰识别方法和装置 | |
CN113361495B (zh) | 人脸图像相似度的计算方法、装置、设备及存储介质 | |
US11657513B2 (en) | Method and system for generating a tri-map for image matting | |
US8103058B2 (en) | Detecting and tracking objects in digital images | |
JP2018022360A (ja) | 画像解析装置、画像解析方法およびプログラム | |
CN111368758A (zh) | 一种人脸模糊度检测方法、装置、计算机设备及存储介质 | |
JP2017062778A (ja) | 画像のオブジェクトを分類するための方法およびデバイスならびに対応するコンピュータプログラム製品およびコンピュータ可読媒体 | |
JP6756406B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
WO2019197021A1 (en) | Device and method for instance-level segmentation of an image | |
KR20130058286A (ko) | 보행자 검출기의 보행자 검출 방법 | |
CN105184771A (zh) | 一种自适应运动目标检测***及检测方法 | |
JP2017102622A (ja) | 画像処理装置、画像処理方法及びプログラム | |
Gurrala et al. | A new segmentation method for plant disease diagnosis | |
CN111274964A (zh) | 一种基于无人机视觉显著性分析水面污染物的检测方法 | |
CN107704864B (zh) | 基于图像对象性语义检测的显著目标检测方法 | |
JP2011170890A (ja) | 顔検出方法および装置並びにプログラム | |
CN116612272A (zh) | 一种图像处理智能数字化的检测***及其检测方法 | |
CN104778468B (zh) | 图像处理装置、图像处理方法以及监控设备 | |
Jindal et al. | Sign Language Detection using Convolutional Neural Network (CNN) | |
CN107992853B (zh) | 人眼检测方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180327 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180409 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6330385 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |