JPWO2007013425A1 - Automatic image processing system - Google Patents
Automatic image processing system Download PDFInfo
- Publication number
- JPWO2007013425A1 JPWO2007013425A1 JP2007528463A JP2007528463A JPWO2007013425A1 JP WO2007013425 A1 JPWO2007013425 A1 JP WO2007013425A1 JP 2007528463 A JP2007528463 A JP 2007528463A JP 2007528463 A JP2007528463 A JP 2007528463A JP WO2007013425 A1 JPWO2007013425 A1 JP WO2007013425A1
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- image
- probability
- pattern
- combination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 208
- 238000011156 evaluation Methods 0.000 claims abstract description 59
- 238000003860 storage Methods 0.000 claims abstract description 24
- 238000000034 method Methods 0.000 claims description 74
- 238000009826 distribution Methods 0.000 claims description 40
- 239000011159 matrix material Substances 0.000 claims description 32
- 230000008569 process Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 11
- 238000002474 experimental method Methods 0.000 description 9
- 230000009194 climbing Effects 0.000 description 6
- 238000007476 Maximum Likelihood Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
画像例が入れ替わる場合であっても、短時間で処理内容を画像例に追従させることができる画像処理自動構成装置。この装置において、組合せ制御器(230)は、パターン確率CTとCBの加重平均のパターン確率Cから、複数のライブラリ組合せパターンを生成する。各ライブラリ組合せパターンは、評価値が計算される。組合せ制御器(230)は、評価値が上位のライブラリ組合せパターンを最も良く生成できるパターン確率を推定する。推定結果は、トップダウン探索器(210)のパターン記憶器(216)とボトムアップ学習器(220)のパターン記憶器(224)に出力される。An image processing automatic configuration apparatus capable of causing processing contents to follow an image example in a short time even when the image example is switched. In this apparatus, the combination controller (230) generates a plurality of library combination patterns from the pattern probabilities CT and the weighted average pattern probability C of CB. An evaluation value is calculated for each library combination pattern. The combination controller (230) estimates a pattern probability that can best generate a library combination pattern having a higher evaluation value. The estimation result is output to the pattern storage unit (216) of the top-down searcher (210) and the pattern storage unit (224) of the bottom-up learning unit (220).
Description
本発明は、画像処理自動構成装置に関する。 The present invention relates to an image processing automatic configuration apparatus.
従来、画像処理のプログラム(ソフトウエア)は、問題ごとに技術者が作成していた。これに対し、近時、進化的手法のような組合せ最適化法などを用いて画像処理タスクに関する事前の知識を持たずに評価値によって探索的に画像処理ソフトウエアを自動構成する研究が行われている。 Conventionally, an image processing program (software) has been created by an engineer for each problem. In contrast, recently, research has been conducted to automatically configure image processing software based on evaluation values without using prior knowledge of image processing tasks using combinatorial optimization methods such as evolutionary methods. ing.
進化的手法により画像処理の自動構成を目指す手法の一例として、例えば、ACTIT(Automatic Construction of Tree−structural Image Transformation:木構造状画像変換自動構築システム)と呼ばれるものが提案されている(非特許文献1)。 As an example of a method aiming at automatic configuration of image processing by an evolutionary method, for example, what is called ACTIT (Automatic Structure of Tree-Structural Image Transformation) is proposed (Non-Patent Document). 1).
この手法では、画像フィルタを木構造に配置し、葉から根へ処理を進行させることで、画像処理を実現するようにしている。また、この手法では、所与の画像例をもとにして、木構造を進化的手法の一つである遺伝的プログラミングにより最適化することで、所望の画像処理の自動構成を可能にしている。
しかしながら、従来の手法においては、最適化までに時間がかかり、しかも、構成された処理が画像例に特化してしまう傾向がある。 However, in the conventional method, it takes time until optimization, and the configured processing tends to be specialized in the image example.
すなわち、従来の手法では、画像処理ライブラリの使用回数を制限せずに木構造そのものを探索するため、木構造が大きくなってしまい、その結果、探索しなければならない木構造の数が膨大になってしまう。また、この手法では、探索の結果として、入力画像に非常に特化した処理が獲得されるため、獲得した処理が一般性に乏しく、類似する画像に対しても再探索に時間がかかってしまう。そのため、例えば、画像例が入れ替わる場合、とりわけ、短時間で画像例が入れ替わり続けるような場合には、最適化までに時間がかかり、処理内容を画像例に追従させることが困難であり、過去の結果を再利用することができないという問題がある。 That is, in the conventional method, the tree structure itself is searched without limiting the number of times the image processing library is used, so that the tree structure becomes large, and as a result, the number of tree structures to be searched becomes enormous. End up. Also, with this method, since processing that is very specific to the input image is acquired as a result of the search, the acquired processing is not general, and it takes time to re-search for similar images. . Therefore, for example, when the image examples are switched, especially when the image examples continue to be switched in a short time, it takes time to optimize, and it is difficult to make the processing content follow the image examples. There is a problem that the result cannot be reused.
本発明の目的は、画像例が入れ替わる場合であっても、短時間で処理内容を画像例に追従させることができる画像処理自動構成装置を提供することである。 An object of the present invention is to provide an automatic image processing configuration apparatus capable of causing processing contents to follow an image example in a short time even when the image example is switched.
本発明は、複数の画像処理要素を含む画像処理ライブラリを記憶するライブラリ記憶手段と、前記複数の画像処理要素間の入出力の接続の確率を示す結合確率行列を用いて、前記画像処理要素の組合せを決定する画像処理要素組合せ決定手段と、決定された組合せに付随する前記画像処理要素のパラメタを用いて、前記画像処理要素のパラメタを更新するライブラリパラメタ更新手段と、を有し、前記画像処理要素のパラメタは、確率分布で表現されている、構成を採る。 The present invention uses a library storage means for storing an image processing library including a plurality of image processing elements, and a joint probability matrix indicating a probability of input / output connection between the plurality of image processing elements. Image processing element combination determining means for determining a combination; and library parameter updating means for updating a parameter of the image processing element using a parameter of the image processing element associated with the determined combination. The parameter of the processing element takes a configuration expressed by a probability distribution.
本発明によれば、画像例が入れ替わる場合であっても、画像処理要素組合せの探索に確率分布の制限がかかっているため、短時間で処理内容を画像例に追従させることができる。 According to the present invention, even when the image examples are switched, since the probability distribution is restricted in the search for the image processing element combination, the processing content can be followed in a short time.
以下、本発明の実施の形態について、図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
本発明者は、短時間で処理内容を画像例に追従させるためには、画像処理要素の組合せとパラメタをそれぞれ確率的に扱う必要があることを見出した。また、その際、追従を加速するためには、可能であれば過去の結果を再利用する必要があることを見出したのである。 The inventor has found that it is necessary to treat each combination of image processing elements and parameters stochastically in order to make the processing content follow the image example in a short time. In addition, at that time, in order to accelerate the follow-up, it has been found that past results need to be reused if possible.
本発明は、確率分布を試行錯誤的に推定する手法により画像処理要素の組合せを確率として保持し統計的に学習すると同時に、確率的探索手法により画像処理要素のパラメタを学習することで、画像処理自動構成を実現するものである。ここで、確率分布を試行錯誤的に推定する手法としては、例えば、一例として、進化的手法の一つである分布推定アルゴリズム(Estimation of Distribution Algorithm:EDA)があり、また、確率的探索手法としては、例えば、一例として、確率的山登り法(Stochastic Hill−Climbing:SHC)がある。なお、概念としては、確率分布を試行錯誤的に推定する手法と、確率的探索手法とは、あまり変わらない。 The present invention holds a combination of image processing elements as probabilities as a probability by a method of estimating a probability distribution by trial and error, and at the same time, learns parameters of the image processing elements by a probabilistic search method, thereby performing image processing. It realizes automatic configuration. Here, as a technique for estimating the probability distribution by trial and error, for example, there is a distribution estimation algorithm (EDA) which is one of evolutionary techniques, and a probabilistic search technique is also available. For example, there is a stochastic hill-climbing (SHC) as an example. Note that, as a concept, the method of estimating the probability distribution by trial and error and the probabilistic search method are not so different.
具体的な画像処理要素の組合せを指定する確率分布は、類似する複数の組合せを同時に表現していると考えられるため、画像例の入れ替わりがあった場合において、要求される画像処理が確率分布により表現されている画像処理と類似するときは、即応的に提示画像例に対応する画像処理が探索・発見されることになる。その結果、画像例が入れ替わる場合であっても、短時間で処理内容を画像例に追従させることが可能になると考えられる。 The probability distribution that specifies a specific combination of image processing elements is considered to represent a plurality of similar combinations at the same time. Therefore, when there is a change in the example of the image, the required image processing depends on the probability distribution. When the image processing is similar to the expressed image processing, the image processing corresponding to the presented image example is searched and discovered immediately. As a result, it is considered that the processing content can follow the image example in a short time even when the image example is switched.
実際、後で詳述するが、本発明者は、画像中の自動車領域を抽出するタスクを、異なる画像群で複数用意し、それらが順次切り替わる実験を行った。その結果、各画像群に対応する画像処理が学習されると同時に、画像の切り替わりに即応的に対応することができた。 Actually, as will be described in detail later, the present inventor conducted an experiment in which a plurality of tasks for extracting an automobile region in an image are prepared in different image groups and these are sequentially switched. As a result, image processing corresponding to each image group was learned, and at the same time, it was possible to respond quickly to image switching.
図1は、本発明の一実施の形態に係る画像処理自動構成装置の構成を示すブロック図である。 FIG. 1 is a block diagram showing a configuration of an image processing automatic configuration apparatus according to an embodiment of the present invention.
図1に示す画像処理自動構成装置100は、例えば、分布推定アルゴリズムにより画像処理要素の組合せを確率として保持し統計的に学習すると同時に、画像処理パラメタを、例えば、確率的山登り法により学習することで、画像処理自動構成を実現するものであって、コンピュータで構成されており、大別して、画像保持部110、画像処理部120、評価部130、および画像処理生成部140を有する。 The image processing
画像保持部110には、画像処理の対象である入力画像群I={I1,I2,…,IN}と、処理例として性能評価の基準である教師画像群T={T1,T2,…,TN}が記憶されている。また、画像保持部110には、入力画像群Iに含まれる入力画像と、教師画像群Tに含まれる教師画像との対応関係も記憶されている。入力画像群Iと教師画像群Tは、いずれも、N個の画像で構成されている。入力画像群Iは、画像処理部120に出力され、教師画像群Tは、評価部130に出力される。The
画像処理部120は、画像保持部110から入力画像群Iを受け取り、受け取った入力画像群Iを画像処理生成部140により生成された画像処理プログラムにより処理し、得られた画像(結果画像)を評価部130に出力する。画像処理生成部140では、後述するように、パターンとして複数(M個)の画像処理プログラム(以下「画像処理パターン」または単に「パターン」ともいう)を含む画像処理群P={p1,p2,…,pM}が生成されるため、画像処理部120は、画像処理群Pに含まれる各画像処理パターンpm(m=1,2,…,M)について順次処理を行う。The
評価部130は、画像処理部120から結果画像を受け取るとともに、画像保持部110から対応する教師画像を受け取り、受け取った結果画像と教師画像を比較して、合成された(自動構成された)画像処理プログラム、つまり、当該画像処理パターンpmの性能評価を行う。この性能評価の結果である評価値f(pm)は、画像処理生成部140に出力される。性能評価は、例えば、画像処理部120からの画像と画像保持部110からの教師画像との正規化画像相関を計算することによって行われる。この場合、評価値f(pm)は、正規化画像相関の計算値である。なお、ここでは、各画像処理パターンpmに対応する評価値f(pm)を含む評価値群{f(p1),f(p2),…,f(pM)}をf(P)と表記する。The
画像処理生成部140は、本発明の特徴部分であって、個別処理を再利用可能に集積した画像処理要素の組合せとパラメタを確率的手法により最適化しつつ、複数(M個)の画像処理パターンを含む画像処理群P={p1,p2,…,pM}を生成し、画像処理部120に提供する。本実施の形態では、画像処理群Pの生成、つまり、画像処理の自動構成は、分布推定アルゴリズムにより画像処理要素の組合せを確率として保持し、その確率分布を多数の組合せ例から統計的に学習すると同時に、当面の対象画像に対しては確率的山登り法により画像処理要素のパラメタを探索することによって行う。The image
画像処理生成部140は、機能的には、D個の画像処理要素(例えば、各種フィルタ)を含む画像処理ライブラリL={l1,l2,…,lD}、画像処理ライブラリLの各要素の組合せ方を決定する結合確率行列C、および画像処理ライブラリLの各要素のパラメタ群Θ={θ1,θ2,…,θD}で構成されている。Functionally, the image
結合確率行列Cの各要素は、画像処理ライブラリLのある画像処理要素とある画像処理要素とが入出力関係を持つかどうかを確率分布で表現したものであり、この確率分布は、確率分布を試行錯誤的に推定する手法(本実施の形態では、分布推定アルゴリズム)により推定される。また、画像処理ライブラリLの各要素のパラメタについても、パラメタ自体が確率分布で表現されており、この確率分布は、ある値の最適値を確率分布を用いて探索する手法、つまり、確率的探索手法(本実施の形態では、確率的山登り法)により推定される。 Each element of the joint probability matrix C expresses whether or not an image processing element in the image processing library L and an image processing element have an input / output relationship by a probability distribution. This is estimated by a trial and error estimation method (in this embodiment, a distribution estimation algorithm). Further, the parameters of each element of the image processing library L are also expressed by a probability distribution, and this probability distribution is a technique for searching for an optimum value of a certain value using the probability distribution, that is, a stochastic search. It is estimated by a method (in this embodiment, a stochastic hill-climbing method).
本実施の形態では、結合確率行列(パターン確率)Cは、当該結合確率行列Cを探索により最適化する探索器から出力されるパターン確率CTと、入力画像群Iから推定パターン確率Cを出力するように学習する学習器から出力されるパターン確率CBとに分けられる。結合確率行列Cは、これらパターン確率CTとCBの加重和、またはいずれか一方により決定される。In the present embodiment, the joint probability matrix (pattern probability) C outputs a pattern probability C T output from a searcher that optimizes the joint probability matrix C by searching, and an estimated pattern probability C from the input image group I. And the pattern probability C B output from the learning device that learns. Joint probability matrix C is determined by one weighted sum or any, of the patterns probabilities C T and C B.
画像処理群Pの生成は、結合確率行列Cに基づいて画像処理ライブラリLの各要素を非循環有向グラフ(DAG:Directed Acyclic Graph)状に配置し、各ライブラリパラメタθd(d=1,2,…,D)を指定することにより行う。画像処理ライブラリLの各要素をDAG状に配置することで、表現能力が高くなる。このとき、生成する各画像処理パターンpm(m=1,2,…,M)は、入力部、中間処理部、および出力部の3つの部分から構成され、DAGの始点が入力部に、終点が出力部にそれぞれ設定される。詳細は、後で説明する。The generation of the image processing group P is performed by arranging each element of the image processing library L in the form of a directed acyclic graph (DAG) based on the joint probability matrix C, and each library parameter θ d (d = 1, 2, ..., D) is specified. By arranging the elements of the image processing library L in a DAG shape, the expression capability is enhanced. In this case, the image generating processing pattern p m (m = 1,2, ... , M) includes an input unit, an intermediate processor, and is composed of three parts of the output section, the DAG of the starting point input unit, Each end point is set in the output section. Details will be described later.
また、画像処理生成部140は、評価部130からの評価値群f(P)を用いてパターン確率CTとCBを更新し、新たな画像処理群Pを生成する。The image
図2は、上記機能を有する画像処理生成部140の構成の一例を示すブロック図である。 FIG. 2 is a block diagram illustrating an example of the configuration of the image
この画像処理生成部140は、大別して、画像処理ライブラリ部200、トップダウン探索器210、およびボトムアップ学習器220を有する。トップダウン探索器210は、結合確率行列(パターン確率)Cを探索により最適化する機能を有し、特徴抽出器212、状況検出器214、およびパターン記憶器216(出力CT)を有する。ボトムアップ学習器220は、入力画像群Iから推定パターン確率Cを出力するように学習する機能を有し、特徴抽出器222およびパターン記憶器224(出力CB)を有する。また、トップダウン探索器210およびボトムアップ学習器220は、共通の組合せ制御器230をさらに有している。The image
画像処理ライブラリ部200には、画像処理要素として、例えば、各種のフィルタが記憶されている。具体的には、例えば、(1)平均値フィルタ、つまり、例えば、3×3領域の平均値を新たな画素値とするフィルタ、(2)しきい値をパラメタとして持つ二値化フィルタ、つまり、決められたしきい値以上の画素値を1(白)、それ以外の画素値を0(黒)とするフィルタ、(3)ラプラシアンフィルタ、つまり、例えば、図3Aに示すように3×3領域の加重平均を新たな画素値とするフィルタ、(4)反転フィルタ、つまり、1−(画素値)を新たな画素値とするフィルタ、(5)メジアンフィルタ、つまり、例えば、3×3領域のメジアンを新たな画素値とするフィルタ、(6)論理和フィルタ、つまり、入力された2画像の同一位置画素値を比較し、大きい方を採用して1画像とするフィルタ、(7)論理積フィルタ、つまり、入力された2画像の同一位置画素値を比較し、小さい方を採用して1画像とするフィルタ、(8)x軸ソベルフィルタ、つまり、横方向への微分値を新たな画素値とする、具体的には、図3Bに示すような3×3領域の加重平均を新たな画素値とするフィルタ、(9)y軸ソベルフィルタ、つまり、縦方向への微分値を新たな画素値とする、具体的には、図3Cに示すような3×3領域の加重平均を新たな画素値とするフィルタ、(10)3×3最大値フィルタ、つまり、3×3領域の最大画素値を新たな画素値とするフィルタ、(11)3×3最小値フィルタ、つまり、3×3領域の最小画素値を新たな画素値とするフィルタ、(12)平均値をしきい値とする二値化フィルタ、つまり、画像全体の平均値を計算し、その値以上の画素値を1(白)、それ以外の画素値を0(黒)とするフィルタ、(13)面積大の領域を1、その他を0と二値化するフィルタ、つまり、領域抽出と面積の計算を行い、平均面積の計算を行い、平均面積よりも大きい面積の領域の画素値を1(白)、それ以外の画素値を0(黒)とするフィルタ、などが記憶されている。 In the image
特徴抽出器212、222は、入力画像群Iを受け取り、各入力画像I(n=1,2,…,N)の特徴を抽出して特徴画像を得る。得られた特徴画像は、状況検出器214と(トップダウン探索器210の場合)、パターン記憶器224に(ボトムアップ学習器220の場合)、それぞれ出力される。 The feature extractors 212 and 222 receive the input image group I and extract the features of each input image I (n = 1, 2,..., N) to obtain feature images. The obtained feature images are output to the situation detector 214 (in the case of the top-down searcher 210) and the pattern storage unit 224 (in the case of the bottom-up learner 220), respectively.
状況検出器214は、特徴抽出器212から特徴画像を受け取り、受け取った特徴画像から、当該入力画像が、どのような場面の画像であるか、または、新規な画像であるかを検出し、検出結果をパターン記憶器216に出力する。ここでは、例えば、過去に処理した特徴画像は、分類されて番号付けがなされており、過去に処理した場面の画像である場合は、対応する番号を出力し、新規な画像である場合は、新しい番号を付与して出力する。また、例えば、特徴画像に基づく状況の学習は、教師付き分類学習器または教師なし分類学習器を用いて行われる。 The
トップダウン探索器210のパターン記憶器216には、パターン確率CTが記憶されている。このパターン確率CTは、状況検出器214の検出結果と対応付けられており、状況検出器214の検出結果に対応するパターン確率CTが組合せ制御器230に出力されるようになっている。The
また、ボトムアップ学習器220のパターン記憶器224には、パターン確率CBが記憶されている。Further, in the
組合せ制御器230は、画像処理要素の組合せとパラメタを確率的手法により最適化しつつ、画像処理群P={p1,p2,…,pM}を生成する機能を有する。処理の概要は、次の通りである。The
まず、トップダウン探索器210のパターン記憶器216からパターン確率CTを、ボトムアップ学習器220のパターン記憶器224からパターン確率CBをそれぞれ受け取り、両者の加重平均(またはいずれか一方)により結合確率行列(パターン確率)Cを計算する。そして、結合確率行列Cに基づいて、複数の画像処理要素組合せパターン、つまり、画像処理群P={p1,p2,…,pM}を生成する。そして、各パターンpm(m=1,2,…,M)の評価値f(pm)を評価部130から受け取り、評価が良好な上位のパターン(Q個、但し、Q<M)を選別する。そして、選別したパターンを生成するようなパターン確率Cnewを推定し、この推定結果を結合確率行列Cに出力する。これにより、結合確率行列Cは、現在のパターン確率Cを、受け取った推定パターン確率Cnewに置き換え、最適な画像処理要素組合せパターンの探索を継続する。First, the pattern probability C T is received from the
また、推定されたパターン確率Cnewは、トップダウン探索器210のパターン記憶器216およびボトムアップ学習器220のパターン記憶器224にそれぞれ出力され、それぞれの学習の教師データとして用いられる。これにより、トップダウン探索器210のパターン記憶器216は、入力画像群Iに対する状況検出結果から推定パターン確率Cnewを、ボトムアップ学習器220のパターン記憶器224は、入力画像群Iから推定パターン確率Cnewを、それぞれ出力するように学習することができる。The estimated pattern probability C new is output to the
また、上記の処理を分布推定アルゴリズムおよび確率的山登り法に即して説明すると、次の通りである。これらの分布推定アルゴリズムおよび確率的山登り法は、組合せ制御器230で実行される。 The above processing will be described in accordance with the distribution estimation algorithm and the stochastic hill climbing method as follows. These distribution estimation algorithms and the stochastic hill-climbing method are executed by the
まず、組合せ制御器230で実行される分布推定アルゴリズムの手順について説明する。 First, the procedure of the distribution estimation algorithm executed by the
まず、組合せ制御器230は、トップダウン探索器210のパターン記憶器216から出力されるパターン確率CTと、ボトムアップ学習器220のパターン記憶器224から出力されるパターン確率CBとの加重平均(またはいずれか一方)のパターン確率Cに基づいて、複数の画像処理要素組合せパターン、つまり、画像処理群P={p1,p2,…,pM}を生成する。First, the
そして、組合せ制御器230は、生成した各画像処理要素組合せパターンpm(m=1,2,…,M)を画像処理部120に出力する。Then, the
なお、この後、画像処理部120では、組合せ制御器230からの各画像処理要素組合せパターンを用いて各入力画像In(n=1,2,…,N)を処理し、得られた画像(結果画像)を評価部130に出力する。そして、評価部130では、当該画像処理要素組合せパターンpmの評価値f(pm)を計算し、組合せ制御器230に出力する。これを画像処理要素組合せパターンの数(M個)だけ繰り返すことにより、すべての画像処理要素組合せパターンP={p1,p2,…,pM}の評価値f(P)={f(p1),f(p2),…,f(pM)}が計算される。After that, the
そして、組合せ制御器230は、評価部130から受け取った評価値群f(P)をもとにして、評価値が上位の画像処理要素組合せパターンをQ個(Q<M)選別し、選別したパターンを最も良く生成することができるパターン確率Cnewを推定する。この推定は、例えば、最尤推定法(Maximum Likelihood)により行われる。評価値が上位のQ個の画像処理組合せパターンをUとすると、推定したパターン確率Cnewは、次の式(1)で表される。
そして、組合せ制御器230は、推定したパターン確率Cnewをトップダウン探索器210のパターン記憶器216とボトムアップ学習器220のパターン記憶器224にそれぞれ出力する。Then, the
なお、この後、推定されたパターン確率Cnewを受け取ったトップダウン探索器210のパターン記憶器216は、当該処理で選択したパターン確率CTを受け取った推定パターン確率Cnewに置き換える。このとき、パターン確率CTは、上記の推定されたパターン確率Cnewを用いて、次の式(2)により学習される。
また、推定されたパターン確率Cnewを受け取ったボトムアップ学習器220のパターン記憶器224は、この推定パターン確率Cnewを教師データとして受け取り、受け取った教師データとしての推定パターン確率Cnewを出力するように、内部のパラメタを更新(学習)する。この詳細は、後述する。The
すなわち、この分布推定アルゴリズムでは、順次、現在の確率分布から画像処理要素の組合せパターンを複数生成し、各組合せパターンの評価値を計算し、上位の組合せパターンを最も良く生成することができる確率分布を例えば最尤推定法などにより推定し、現在の確率分布を推定した確率分布に置き換える。そして、これら一連の処理を、所定の条件を満たすまで繰り返す。所定の条件としては、例えば、所定の回数を超えた場合や、確率分布の変動幅がある一定値よりも小さくなった場合などを挙げることができる。 That is, in this distribution estimation algorithm, a probability distribution that can generate a plurality of combination patterns of image processing elements sequentially from the current probability distribution, calculate an evaluation value of each combination pattern, and best generate an upper combination pattern. Is estimated by the maximum likelihood estimation method, for example, and the current probability distribution is replaced with the estimated probability distribution. These series of processes are repeated until a predetermined condition is satisfied. Examples of the predetermined condition include a case where a predetermined number of times has been exceeded, and a case where the fluctuation range of the probability distribution has become smaller than a certain value.
次に、組合せ制御器230で実行される確率的山登り法について説明する。 Next, the stochastic hill climbing method executed by the
まず、最適化したい値(ここでは、画像処理ライブラリL各要素のパラメタ)を正規分布で表現する。正規分布には平均と分散があり、分散は、ある(任意に設定可能な)規則に従って徐々に小さくなっていく。ここでは、平均を次のようにして求める。例えば、分布推定アルゴリズムにおける上位の画像処理要素組合せパターンの選別結果を利用し、これら上位の画像処理要素組合せパターンに付随しているパラメタの平均を算出する。これを「推定された平均」と呼ぶことにする。そして、次の式(3)により正規分布の平均を更新する。
次いで、上記構成を有するトップダウン探索器210の動作について、図4のフローチャートを用いて説明する。なお、図4のフローチャートに示す手順は、入力画像群Iの各入力画像In(n=1,2,…,N)に対して行われる。また、図4に示すフローチャートは、画像処理自動構成装置100の図示しない記憶装置(例えば、ROMなど)に制御プログラムとして記憶されており、図示しないCPUによって実行される。Next, the operation of the top-down
まず、ステップS1000では、特徴抽出器212で、ある入力画像In(n=1,2,…,N)の特徴を抽出して特徴画像を取得し、取得した特徴画像を状況検出器214に出力する。First, in step S1000, the
そして、ステップS1100では、状況検出器214で、ステップS1000で取得した特徴画像から、当該入力画像が、どのような場面の画像であるか、または、新規な画像であるかを検出し、検出結果をパターン記憶器216に出力する。 In step S1100, the
そして、ステップS1200では、パターン記憶器216で、自己が保持しているパターン確率の中から、ステップS1100で検出した状況に対応するパターン確率を選択し、選択したパターン確率をCTとして組合せ制御器230に出力する。In step S1200, the
そして、ステップS1300では、組合せ制御器230で、ステップS1200で選択したパターン確率CTと、ボトムアップ学習器220のパターン記憶器224から出力されたパターン確率CBとの加重平均を算出して(またはいずれか一方から)パターン確率Cを求め、得られたパターン確率Cに基づいて、複数の画像処理要素組合せパターン、つまり、画像処理群P={p1,p2,…,pM}を生成し、生成した各画像処理要素組合せパターンpm(m=1,2,…,M)を画像処理部120に出力する。Then, in step S1300, a
なお、この後、画像処理部120では、組合せ制御器230からの各画像処理要素組合せパターンを用いて各入力画像In(n=1,2,…,N)を処理し、得られた画像(結果画像)を評価部130に出力する。そして、評価部130では、当該画像処理要素組合せパターンpmの評価値f(pm)を計算し、組合せ制御器230に出力する。これを画像処理要素組合せパターンの数(M個)だけ繰り返すことにより、すべての画像処理要素組合せパターンP={p1,p2,…,pM}の評価値f(P)={f(p1),f(p2),…,f(pM)}が計算される。After that, the
そして、ステップS1400では、組合せ制御器230で、評価部130からすべての画像処理要素組合せパターンPの評価値f(P)を受け取ったかどうかを判断する。この判断の結果として、すべての画像処理要素組合せパターンPの評価値f(P)を受け取った場合は(S1400:YES)、ステップS1500に進み、まだすべての画像処理要素組合せパターンPの評価値f(P)を受け取っていない場合は(S1400:NO)、すべての画像処理要素組合せパターンPの評価値f(P)を受け取るまで待機する。 In step S1400, the
ステップS1500では、組合せ制御器230で、評価値が上位の画像処理要素組合せパターンをQ個(Q<M)選別し、選別したパターンを最も良く生成することができるパターン確率Cnewを推定する。この推定は、例えば、上記のように、最尤推定法により行われる(上記式(1)参照)。In step S1500, the
そして、ステップS1600では、組合せ制御器230で、ステップS1500で推定したパターン確率Cnewをパターン記憶器216とボトムアップ学習器220のパターン記憶器224にそれぞれ出力する。Then, in step S1600, a
そして、ステップS1700では、パターン記憶器216で、ステップS1200で選択したパターン確率CTを、ステップS1600で組合せ制御器230から出力された推定パターン確率Cnewに置き換える。このとき、パターン確率CTは、上記のように、推定パターン確率Cnewを用いて、上記式(2)により学習される。In step S1700, the
次に、上記構成を有するボトムアップ学習器220の動作について、図5のフローチャートを用いて説明する。なお、図5のフローチャートに示す手順は、図4のフローチャートに示す手順と同様、入力画像群Iの各入力画像In(n=1,2,…,N)に対して行われる。また、図5に示すフローチャートは、図4に示すフローチャートと同様、画像処理自動構成装置100の図示しない記憶装置(ROMなど)に制御プログラムとして記憶されており、図示しないCPUによって実行される。また、図5のフローチャートに示す手順の一部は、図4のフローチャートに示す手順と共通しているため、その説明を省略する。Next, the operation of the bottom-up
まず、ステップS2000では、特徴抽出器222で、ある入力画像In(n=1,2,…,N)の特徴を抽出して特徴画像を取得し、取得した特徴画像をパターン記憶器224に出力する。First, in step S2000, the
そして、ステップS2100では、パターン記憶器224で、ステップS2000で取得した特徴画像をもとにしてパターン確率CBを計算し、得られたパターン確率CBを組合せ制御器230に出力する。具体的には、例えば、パターン確率CBは、sigmoid関数を用いて、次の式(4)により計算される。なお、sigmoid関数を用いた下記の式(4)は一例であり、パターン確率CBはどのような関数近似法でも学習することができる。
そして、ステップS1300〜ステップS1600は、図4に示すフローチャートのステップと同様であるため、その説明を省略する。 Steps S1300 to S1600 are the same as the steps in the flowchart shown in FIG.
そして、ステップS2200では、パターン記憶器224で、ステップS1600で組合せ制御器230から出力された推定パターン確率Cnewを教師データとして受け取り、受け取った教師データとしての推定パターン確率Cnewを出力するように、内部のパラメタを更新(学習)する。具体的には、例えば、次の式(6)により、パターン確率CBが推定パターン確率Cnewの近似となるようにパラメタVを学習する。
次いで、上記構成を有する画像処理自動構成装置100の全体動作の概略について、図6のフローチャートを用いて説明する。なお、図6に示すフローチャートは、図4および図5に示すフローチャートと同様、画像処理自動構成装置100の図示しない記憶装置(ROMなど)に制御プログラムとして記憶されており、図示しないCPUによって実行される。 Next, an outline of the overall operation of the image processing
まず、ステップS3000では、システムの各パラメタを初期化する。 First, in step S3000, each parameter of the system is initialized.
そして、ステップS3100では、入力画像群I={I1,I2,…,IN}と教師画像群T={T1,T2,…,TN}の組をシステムに付与して画像保持部110に記憶する。In step S3100, the input image group I = {I 1, I 2 , ..., I N} teacher image group T = {T 1, T 2 , ..., T N} image by applying a set of system Store in the holding
そして、ステップS3200では、画像処理生成部140で、パターン確率CT、CBと画像処理ライブラリLのパラメタ群Θとを初期化する。In step S3200, the image
そして、ステップS3300では、画像処理生成部140で、トップダウン探索器210のパターン記憶器216からのパターン確率CTと、ボトムアップ学習器220のパターン記憶器224からのパターン確率CBとを加重平均して(またはいずれか一方から)結合確率行列Cを決定する。Then, in step S3300, the image
そして、ステップS3400では、画像処理生成部140で、ステップS3300で決定した結合確率行列Cに基づいて、DAGで表現される画像処理群P={p1,p2,…,pM}を生成する。In step S3400, the image
そして、ステップS3500では、画像処理部120で、ステップS3400で生成した画像処理群P={p1,p2,…,pM}を実行する。In step S3500, the
そして、ステップS3600では、評価部130で、ステップS3500で処理された結果画像と対応する教師画像とを比較して評価値f(P)を得る。 In step S3600, the
そして、ステップS3700では、画像処理生成部140で、評価集合を空集合にリセットする。 In step S3700, the image
そして、ステップS3800では、高い評価値の処理を選別する。具体的には、例えば、任意に2処理を選び出し、評価値の高い方を評価集合に追加する。これを一定回数以下繰り返す。 In step S3800, processing with a high evaluation value is selected. Specifically, for example, two processes are arbitrarily selected, and the higher evaluation value is added to the evaluation set. This is repeated a certain number of times.
そして、ステップS3900では、画像処理生成部140で、ステップS3800で得た評価集合から、パターン確率Cを、例えば、最尤推定法により推定する。 In step S3900, the image
そして、ステップS4000では、画像処理生成部140で、ステップS3800で得た評価集合から、画像処理ライブラリLのパラメタ群Θを確率的探索手法(例えば、確率的山登り法)により推定する。 In step S4000, the image
そして、ステップS4100では、画像処理生成部140で、ステップS3900で推定したパターン確率Cを教師とする関数近似手法(例えば、勾配法)によりパターン確率CBを学習する。Then, in step S4100, the image
そして、ステップS4200では、終了条件を満たすかどうかを判断する。具体的には、例えば、所定の回数を超えたかどうか、または、確率分布の変動幅がある一定値よりも小さくなったかどうか、などを判断する。この判断の結果として、終了条件を満たさない場合は(S4200:NO)、ステップS3300に戻って、ステップS3300からステップS4100までの一連の処理を繰り返し、終了条件を満たす場合は(S4200:YES)、ステップS4300に進む。 In step S4200, it is determined whether an end condition is satisfied. Specifically, for example, it is determined whether a predetermined number of times has been exceeded or whether the fluctuation range of the probability distribution has become smaller than a certain value. As a result of this determination, when the end condition is not satisfied (S4200: NO), the process returns to step S3300, and when a series of processing from step S3300 to step S4100 is repeated and the end condition is satisfied (S4200: YES), The process proceeds to step S4300.
ステップS4300では、すべての画像群が終了したかどうかを判断する。この判断の結果として、すべての画像群が終了した場合は(S4300:YES)、アルゴリズムを終了し、すべての画像群が終了していない場合は(S4300:NO)、ステップS3100に戻って、ステップS3100からステップS4200までの一連の処理を繰り返す。 In step S4300, it is determined whether all image groups have been completed. As a result of this determination, when all the image groups are finished (S4300: YES), the algorithm is finished, and when all the image groups are not finished (S4300: NO), the process returns to step S3100, and step A series of processing from S3100 to step S4200 is repeated.
上記のように、結合確率行列C(つまり、パターン確率CTとCB)の各要素は、画像処理ライブラリの画像処理要素間に入出力があるかどうかの確率であり、例えば、CT(6,8)は、6番要素から8番要素への入出力関係の確率である。パターン確率CTは、上記の式(2)により学習され、パターン確率CBは、上記の式(4)により計算された後、上記の式(6)により学習が行われる。実際に画像処理プログラムを生成するための結合確率行列Cは、パターン確率CTとCBの加重平均、またはいずれか一方である。結合確率行列Cに基づいて、画像処理要素の制約(入出力結合数など)を満たしながら画像処理群Pが生成される。生成された画像処理群Pには、評価値f(P)が計算される。評価関数fは、必要に応じて決められる。ライブラリL内の各要素のパラメタは、正規分布で表現されており、確率的探索手法(例えば、確率的山登り法)により推定を行い、パターン確率CTと同様に学習を行う。As described above, each element of the joint probability matrix C (that is, the pattern probabilities C T and C B ) is a probability of whether there is an input / output between the image processing elements of the image processing library, for example, C T ( 6, 8) is the probability of the input / output relationship from the 6th element to the 8th element. The pattern probability C T is learned by the above equation (2), and the pattern probability C B is calculated by the above equation (4), and then learned by the above equation (6). Joint probability matrices C for actually generating an image processing program, the weighted average of the pattern probability C T and C B, or is either. Based on the connection probability matrix C, the image processing group P is generated while satisfying the restrictions (such as the number of input / output connections) of the image processing elements. An evaluation value f (P) is calculated for the generated image processing group P. The evaluation function f is determined as necessary. Parameters of each element in the library L is represented by a normal distribution, performs estimation by probabilistic search techniques (e.g., probabilistic hill climbing method) performs learning like the pattern probability C T.
ここで、結合確率行列Cを用いてどのようにしてDAG状の画像処理要素組合せパターンを生成するかについて説明する。 Here, how to generate a DAG-like image processing element combination pattern using the joint probability matrix C will be described.
上記のように、生成する各画像処理パターンpm(m=1,2,…,M)は、入力部、中間処理部、および出力部の3つの部分から構成され、DAGの始点が入力部に、終点が出力部にそれぞれ設定される。このとき、入力部と出力部は、それぞれ、1つの画像処理要素(ここでは、便宜上、「ライブラリ要素」という)として扱われる。但し、入力部を担当する入力ライブラリ要素は必ず最初のライブラリ要素となり、出力部を担当する出力ライブラリ要素は必ず最後のライブラリ要素となる。例えば、実際に画像を処理するライブラリ要素が4つ存在する場合、これらをB、C、D、Eとして、入力ライブラリ要素をA、出力ライブラリ要素をFとする。なお、結合確率行列Cは、行が入力側ライブラリ要素を、列が出力側ライブラリ要素を表す。例えば、図7Aに示す結合確率行列Cにおいて、3行5列の要素(0.1)は、ライブラリ要素Cからライブラリ要素Eへの結合が存在する確率を表す。As described above, each image processing pattern p m (m = 1, 2,..., M) to be generated is composed of the three parts of the input unit, the intermediate processing unit, and the output unit, and the starting point of the DAG is the input unit. In addition, the end points are respectively set in the output units. At this time, each of the input unit and the output unit is treated as one image processing element (here, referred to as “library element” for convenience). However, the input library element in charge of the input unit is always the first library element, and the output library element in charge of the output unit is always the last library element. For example, if there are four library elements that actually process an image, these are set as B, C, D, and E, the input library element is A, and the output library element is F. In the connection probability matrix C, the rows represent input library elements and the columns represent output library elements. For example, in the connection probability matrix C shown in FIG. 7A, the element (0.1) in 3 rows and 5 columns represents the probability that there is a connection from the library element C to the library element E.
まず、ライブラリ要素Aを選択して親候補集合に入れる。次に、親候補集合以外のライブラリ要素からランダムに1つ選択する。例えば、ライブラリ要素Cを選択する。親候補集合にはライブラリ要素Aしかないため、ライブラリ要素Cの親はライブラリ要素Aとなる。そして、ライブラリ要素Cを親候補集合に入れる。次に、親候補集合以外からランダムに1つライブラリ要素を選択する。例えば、ライブラリ要素Bを選択する。親候補集合から、ライブラリ要素Bの親を結合確率行列Cの確率に従って選択する(図7B参照)。例えば、ライブラリ要素Cを選択する(図7C参照)。 First, library element A is selected and placed in the parent candidate set. Next, one library element other than the parent candidate set is selected at random. For example, the library element C is selected. Since only the library element A exists in the parent candidate set, the parent of the library element C is the library element A. Then, the library element C is put into the parent candidate set. Next, one library element is selected at random from other than the parent candidate set. For example, library element B is selected. From the parent candidate set, the parent of the library element B is selected according to the probability of the joint probability matrix C (see FIG. 7B). For example, the library element C is selected (see FIG. 7C).
次に、ランダムにライブラリ要素Eを選ぶとする。親は結合確率行列の確率に従って選択される(図7D参照)。ここでは、ライブラリ要素Aとライブラリ要素Bが選ばれるとする(図7E参照)。ライブラリ要素Eは親候補集合に入れられる。 Next, assume that library element E is selected at random. Parents are selected according to the probability of the joint probability matrix (see FIG. 7D). Here, it is assumed that library element A and library element B are selected (see FIG. 7E). Library element E is placed in the parent candidate set.
次に、ライブラリ要素Fが選ばれ、親としてライブラリ要素Eが選ばれるとする(図7F参照)。ライブラリ要素Fは出力ライブラリ要素であるため、処理の形成はここで終了する。以上より、処理の流れは、図7Gに示す通りになる(ここでは、ライブラリ要素Dは使用されない)。 Next, assume that library element F is selected and library element E is selected as a parent (see FIG. 7F). Since the library element F is an output library element, the formation of the process ends here. As described above, the processing flow is as shown in FIG. 7G (here, the library element D is not used).
このように、本実施の形態によれば、進化的手法の一つである分布推定アルゴリズムにより画像処理要素の組合せを確率として保持し統計的に学習すると同時に、画像処理ライブラリの各要素のパラメタを確率的山登り法により学習することで、画像処理自動構成を実現するため、画像例が入れ替わる場合であっても、画像処理要素組合せの探索に確率分布の制限がかかっているため、短時間で処理内容を画像例に追従させることができる。すなわち、ボトムアップ側とトップダウン側の知識を確率分布として表現し、これを新しい処理の探索に対する制約とするため、早い探索を実現することができる。 As described above, according to the present embodiment, a combination of image processing elements is held as a probability and statistically learned by a distribution estimation algorithm that is one of evolutionary techniques, and at the same time, parameters of each element of the image processing library are set. To achieve automatic image processing configuration by learning by probabilistic hill-climbing method, even if the image examples are switched, the search for the combination of image processing elements is limited in probability distribution, so it can be processed in a short time The content can be made to follow the image example. That is, since the knowledge on the bottom-up side and the top-down side is expressed as a probability distribution, and this is used as a constraint for a search for a new process, a fast search can be realized.
なお、本実施の形態では、分布推定アルゴリズムや確率的山登り法を用いているが、本発明は、これらの手法に限定されるわけではない。確率分布を試行錯誤的に推定する手法や、確率的探索手法であれば、どのような手法であってもよい。 In this embodiment, a distribution estimation algorithm and a probabilistic hill climbing method are used, but the present invention is not limited to these methods. Any technique may be used as long as it is a technique for estimating the probability distribution by trial and error or a probabilistic search technique.
本発明者は、本発明の効果を実証するために実験を行った。 The inventor conducted an experiment to demonstrate the effect of the present invention.
ここでは、画像から自動車領域を抽出する課題を考える。実験に当たり、入力画像群、教師画像群、画像処理ライブラリを、以下の通り用意した。 Here, a problem of extracting a car region from an image is considered. In the experiment, an input image group, a teacher image group, and an image processing library were prepared as follows.
図8Aは、入力画像群1を示し、図8Bは、入力画像群2を示し、図8Cは、入力画像群3を示し、図8Dは、入力画像群4を示す。また、図9は、教師画像を示す。図9に示す教師画像は、各入力画像群1〜4に共通である。 8A shows the
画像処理ライブラリには、平均値フィルタ、しきい値をパラメタとして持つ二値化フィルタ、ラプラシアンフィルタ、反転フィルタ、メジアンフィルタ、論理和フィルタ、論理積フィルタ、x軸ソベルフィルタ、y軸ソベルフィルタ、3×3最大値フィルタ、3×3最小値フィルタ、平均値をしきい値とした二値化フィルタ、面積大の領域を1その他を0と二値化するフィルタを用意した。 The image processing library includes an average value filter, a binarization filter having a threshold as a parameter, a Laplacian filter, an inversion filter, a median filter, a logical sum filter, a logical product filter, an x-axis Sobel filter, a y-axis Sobel filter, 3 A x3 maximum value filter, a 3x3 minimum value filter, a binarization filter using an average value as a threshold value, and a filter that binarizes a large area with 1 and others as 0 are prepared.
実験では、入力画像群を1→2→3→4の順で提示した。入力画像群1では、すべて初期状態からとなるが、入力画像群2以降では、パターン確率CTとCBを前入力画像群から引き継いで、各入力画像群における初期画像処理群を決定した。パターン確率CTは、入力画像群に対する結合確率行列であるため、前入力画像群が現入力画像群と類似する場合には、パターン確率CBを初期から適切に設定できると期待される。パターン確率CBは、入力画像そのものから計算され、推定パターン確率Cと同じになるように学習されるため、すべての画像についての平均的な結合確率行列となる。評価値には、次の式(7)で表される結果画像と教師画像の正規化相関の和を用いた。但し、Gは特徴画像、G(i,j)は画素値、Gバーは平均画素値、Iは教師画像を表す。
次に、実験の設定について説明する。 Next, experimental settings will be described.
一度に評価される処理数を200、この処理数が一通り実行され評価されるまでを1世代として世代数を100、学習率を0.05とした。画像処理ライブラリの要素数は、上記の通り13であるため、結合確率行列は13×13の正方行列である。良個体選択方法としてトーナメント戦略を用いた。これは個体群からランダムに2個体を選んで、評価値の高い方を良個体とする方法である。入力のカラー画像はHSV成分の3枚の画像に分割される。画像サイズは100×100である。 The number of processes evaluated at one time is 200, the number of generations is 100, and the learning rate is 0.05. Since the number of elements of the image processing library is 13, as described above, the joint probability matrix is a 13 × 13 square matrix. The tournament strategy was used as a good individual selection method. This is a method in which two individuals are randomly selected from the group of individuals and the one with a higher evaluation value is selected as a good individual. The input color image is divided into three images of HSV components. The image size is 100 × 100.
実験の結果、各入力画像群に対して、出力画像として図10に示す画像が得られた。左から順に、入力画像群1、2、3、4の結果である。図10から分かるように、比較的良好に車両領域を抽出することができた。 As a result of the experiment, an image shown in FIG. 10 was obtained as an output image for each input image group. From the left, the results of the
図11は、最大評価値の推移を示す図である。横軸は世代数、縦軸は各入力画像群評価値の合計である。各入力画像群は4枚の画像で構成されているため、合計評価値の最大値は4である。入力画像群は100世代で切り替わる。切り替わった後の評価値の推移から、画像の切り替わりに即応的に対応できていることが読み取れる。基本的には、大きな評価値の変化は画像処理要素の組合せが変わったことにより、小さな変化は画像処理ライブラリのパラメタの学習により起こる。 FIG. 11 is a diagram showing the transition of the maximum evaluation value. The horizontal axis is the number of generations, and the vertical axis is the total of the input image group evaluation values. Since each input image group is composed of four images, the maximum total evaluation value is four. The input image group is switched in 100 generations. From the transition of the evaluation value after switching, it can be seen that the switching of images can be handled promptly. Basically, a large change in evaluation value is caused by a change in the combination of image processing elements, and a small change is caused by learning of parameters in the image processing library.
実験の結果をまとめると、次の通りである。第1に、適切なCT、CB、Θの学習に成功した。すなわち、自動車領域を抽出するための画像処理が自動的に獲得された。第2に、入力画像群2以降では、短時間で評価値の高い画像処理が獲得された。入力画像群の切り替えに対して、短時間で画像処理を追従させることが可能であることを示した。The results of the experiment are summarized as follows. First, it succeeded in learning appropriate C T , C B , and Θ. That is, the image processing for extracting the automobile area is automatically acquired. Second, in the
本明細書は、2005年7月26日出願の特願2005−216390に基づく。この内容はすべてここに含めておく。 This specification is based on Japanese Patent Application No. 2005-216390 of July 26, 2005 application. All this content is included here.
本発明に係る画像処理自動構成装置は、画像例が入れ替わる場合であっても、短時間で処理内容を画像例に追従させることができる画像処理自動構成装置として有用である。 The image processing automatic configuration apparatus according to the present invention is useful as an image processing automatic configuration apparatus capable of causing the processing content to follow the image example in a short time even when the image examples are switched.
特に、本発明は、教師画像(画像例)をもとに画像処理を構築する問題一般への利用が可能であり、教師画像(画像例)をもとにした自動プロトタイピングや、追加的に要求される画像処理への自動対応などが考えられる。 In particular, the present invention can be used for the general problem of constructing image processing based on a teacher image (example image), and can be used for automatic prototyping based on a teacher image (example image) or additionally. An automatic response to the required image processing can be considered.
Claims (7)
前記複数の画像処理要素間の入出力の接続の確率を示す結合確率行列を用いて、前記画像処理要素の組合せを決定する画像処理要素組合せ決定手段と、
決定された組合せに付随する前記画像処理要素のパラメタを用いて、前記画像処理要素のパラメタを更新するライブラリパラメタ更新手段と、を有し、
前記画像処理要素のパラメタは、確率分布で表現されている、
画像処理自動構成装置。Library storage means for storing an image processing library including a plurality of image processing elements;
Image processing element combination determining means for determining a combination of the image processing elements using a joint probability matrix indicating a probability of input / output connection between the plurality of image processing elements;
Library parameter update means for updating the parameters of the image processing element using the parameters of the image processing element associated with the determined combination;
The parameter of the image processing element is expressed by a probability distribution,
Image processing automatic configuration device.
前記画像処理要素を非循環有向グラフ状に配置する、
請求項1記載の画像処理自動構成装置。The image processing element combination determination means
The image processing elements are arranged in a non-circular directed graph.
The image processing automatic configuration apparatus according to claim 1.
前記結合確率行列を探索により最適化する探索手段と、
入力画像群から前記探索手段から出力される確率を出力するように学習する学習手段と、を有し、
前記結合確率行列は、前記探索手段から出力される確率と、前記学習手段から出力される確率とを用いて決定される、
請求項1記載の画像処理自動構成装置。The image processing element combination determination means
Search means for optimizing the joint probability matrix by searching;
Learning means for learning to output a probability output from the search means from an input image group,
The joint probability matrix is determined using a probability output from the search means and a probability output from the learning means.
The image processing automatic configuration apparatus according to claim 1.
請求項1記載の画像処理自動構成装置。The parameters of the image processing element are estimated by a probabilistic search method.
The image processing automatic configuration apparatus according to claim 1.
決定された組合せに付随する前記画像処理要素のパラメタを用いて、前記画像処理要素のパラメタを更新するステップと、を有し、
前記画像処理要素のパラメタは、確率分布で表現されている、
画像処理自動構成方法。Determining a combination of the image processing elements using a joint probability matrix indicating a probability of input / output connection between a plurality of image processing elements included in the image processing library;
Updating the parameters of the image processing element with the parameters of the image processing element associated with the determined combination;
The parameter of the image processing element is expressed by a probability distribution,
Image processing automatic configuration method.
決定された組合せに付随する前記画像処理要素のパラメタを用いて、前記画像処理要素のパラメタを更新するステップと、前記画像処理要素のパラメタは、確率分布で表現されている、
をコンピュータに実行させるための画像処理自動構成プログラム。Determining a combination of the image processing elements using a joint probability matrix indicating a probability of input / output connection between a plurality of image processing elements included in the image processing library;
Updating the parameters of the image processing element using the parameters of the image processing element associated with the determined combination; and the parameters of the image processing element are represented by a probability distribution,
Image processing automatic configuration program for causing a computer to execute.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005216390 | 2005-07-26 | ||
JP2005216390 | 2005-07-26 | ||
PCT/JP2006/314621 WO2007013425A1 (en) | 2005-07-26 | 2006-07-25 | Image processing automatic constructing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2007013425A1 true JPWO2007013425A1 (en) | 2009-02-05 |
Family
ID=37683321
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007528463A Pending JPWO2007013425A1 (en) | 2005-07-26 | 2006-07-25 | Automatic image processing system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2007013425A1 (en) |
WO (1) | WO2007013425A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6177448B2 (en) * | 2014-09-22 | 2017-08-09 | 株式会社日立製作所 | Data processing method and data processing system |
CN110766633B (en) * | 2019-10-22 | 2022-06-28 | 北京数衍科技有限公司 | Video data filtering method and device |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002366929A (en) * | 2001-06-11 | 2002-12-20 | Printing Bureau Ministry Of Finance | Method and device for extracting failure and defect of printed matter |
JP4320438B2 (en) * | 2003-06-06 | 2009-08-26 | 独立行政法人 国立印刷局 | Character string extraction processing device for printed matter |
-
2006
- 2006-07-25 WO PCT/JP2006/314621 patent/WO2007013425A1/en active Application Filing
- 2006-07-25 JP JP2007528463A patent/JPWO2007013425A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2007013425A1 (en) | 2007-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106570453B (en) | Method, device and system for pedestrian detection | |
US11314988B2 (en) | Image aesthetic processing method and electronic device | |
JP6574503B2 (en) | Machine learning method and apparatus | |
JP6813055B2 (en) | Image processing system, image processing method and program storage medium | |
US10909455B2 (en) | Information processing apparatus using multi-layer neural network and method therefor | |
JP6088792B2 (en) | Image detection apparatus, control program, and image detection method | |
US9002101B2 (en) | Recognition device, recognition method, and computer program product | |
CN105960647A (en) | Compact face representation | |
CN112633311A (en) | Efficient black-box antagonistic attacks using input data structures | |
CN109840531A (en) | The method and apparatus of training multi-tag disaggregated model | |
US10460232B2 (en) | Method and apparatus for classifying data, and method and apparatus for segmenting region of interest (ROI) | |
US20180157892A1 (en) | Eye detection method and apparatus | |
EP3316184B1 (en) | Program generating device, program generating method, and generating program | |
JP6641195B2 (en) | Optimization method, optimization device, program, and image processing device | |
CN111783779A (en) | Image processing method, apparatus and computer-readable storage medium | |
JP6426441B2 (en) | Density measuring device, density measuring method, and program | |
JP6577397B2 (en) | Image analysis apparatus, image analysis method, image analysis program, and image analysis system | |
CN114913078A (en) | Image restoration method and device based on continuous shooting image | |
KR101506812B1 (en) | Head pose estimation method using random forests and binary pattern run length matrix | |
KR102427884B1 (en) | Apparatus and method for training object detection model | |
JP6622150B2 (en) | Information processing apparatus and information processing method | |
JPWO2007013425A1 (en) | Automatic image processing system | |
JP7073171B2 (en) | Learning equipment, learning methods and programs | |
KR101991186B1 (en) | Bar detection method and apparatus | |
KR20200134813A (en) | Apparatus and method for image processing for machine learning |