JP2000194865A - Area division method and device using attribute model of area - Google Patents

Area division method and device using attribute model of area

Info

Publication number
JP2000194865A
JP2000194865A JP10368816A JP36881698A JP2000194865A JP 2000194865 A JP2000194865 A JP 2000194865A JP 10368816 A JP10368816 A JP 10368816A JP 36881698 A JP36881698 A JP 36881698A JP 2000194865 A JP2000194865 A JP 2000194865A
Authority
JP
Japan
Prior art keywords
region
area
attribute model
shape information
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10368816A
Other languages
Japanese (ja)
Other versions
JP3196749B2 (en
Inventor
Akio Yamada
昭雄 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP36881698A priority Critical patent/JP3196749B2/en
Publication of JP2000194865A publication Critical patent/JP2000194865A/en
Application granted granted Critical
Publication of JP3196749B2 publication Critical patent/JP3196749B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an area division device for highly accurately detecting an area shape. SOLUTION: This device is provided with an area attribute model selection part 22 for selecting an initial area attribute model and an area attribute model, a pixel classification part 21 for evaluating pixel attributes defined by an input image and a motion vector by the distance function with the attribute model of respective areas and leading out area shape information for indicating the probability that respective pixels belong to respective area candidates, a convergence judgement part 25 for judging convergence from the area shape information and sending out a repetition end instruction, an area shape information output selection part 26 for outputting the area shape information as a final result in the case of receiving the repetition end instruction and sending out the led-out area shape to an area integration control part 24 in the other case, a model generation part 23 for regenerating the area attribute model from the input image and the motion vector based on the area shape information and the area integration control part 24 for evaluating similarity between the attribute model, integrating the areas into one in the case that the similarity is equal to or more than a prescribed threshold, urging regeneration to the attribute model generation part 23 and outputting the area attribute model to the area model selection part 22 in the case that the areas to be integrated are not present.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理技術に関
し、特に、画像の領域分割及び画素動きベクトル測定技
術に関する。後述する説明からも明らかとされるよう
に、本発明は、領域属性の高次モデルを利用した領域形
状推定システム及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing technique, and more particularly, to a technique for dividing an image into regions and measuring a pixel motion vector. As will be apparent from the following description, the present invention relates to a region shape estimation system and method using a higher-order model of region attributes.

【0002】[0002]

【従来の技術】画像内の各部分を特徴量等を考慮して構
造的に分類する画像の領域分割、またはグルーピングに
ついて、従来より、各種手法が提案されている。これら
従来の手法を大きく分けると、(a)統計的な性質を用
いて画素を分類するもの、(b)動きを用いて画素を分
類するもの、(c)部分的な構造を検知しテクスチャー
成分により画像を分割するもの、(d)3D(3次元)
構造情報を物理的あるいは画像処理適手段によって求め
て、画素を分類するもの、に分けることができる。
2. Description of the Related Art Conventionally, various methods have been proposed for image area division or grouping in which each part in an image is structurally classified in consideration of a feature amount or the like. These conventional methods can be roughly divided into (a) a method of classifying pixels using statistical properties, (b) a method of classifying pixels using motion, and (c) a texture component which detects a partial structure. (D) 3D (three-dimensional)
Structural information can be obtained by physical or image processing suitable means and classified into pixels.

【0003】このうち、画像単独で処理が可能でまた比
較的演算コストが低く、それゆえに最も広く用いられて
いるのが、統計的な性質を用いた画素の分類である。こ
の手法は、通常、クラスタリング技術を用いて実装され
ることが多く、画像のカラー成分を用いる方法が広く用
いられている。
[0003] Of these, pixel classification using statistical properties is the most widely used because it can be processed by an image alone and has a relatively low operation cost. This method is usually implemented using a clustering technique, and a method using color components of an image is widely used.

【0004】動画像を対象にした場合には、カラー成分
に加えて、動き情報を用いることができる。カメラ等の
移動によるものを除けば、「動き」画像の投影元である
空間の物理的な集合体を良く反映する為、動きが正確に
得られる条件下では、極めて高精度な領域分割が可能と
なる。
In the case of a moving image, motion information can be used in addition to the color component. Except for the movement of the camera etc., it reflects the physical aggregate of the space from which the "motion" image is projected, so it is possible to segment the region with extremely high accuracy under the conditions where the movement can be obtained accurately Becomes

【0005】カラーと動きを用いた領域形状検出の従来
の方法として、例えば特開平8−63601号公報に記
載されている領域分割方法を、代表例としてあげること
ができる。上記公報には、動画像の領域分割において、
入力画像信号を蓄積し現フレーム画像として出力する過
程と、参照画像信号を蓄積し参照フレーム画像として出
力する過程と、前記フレーム画像及び前記参照フレーム
画像から動きベクトルを検出する過程と、画素位置情報
を発生するアドレス生成過程と、前記現フレーム画像の
画素値情報と前記蓄積した動きベクトルを用い、クラス
タリングにより現フレーム画像を領域分割して出力する
過程と、を備えた領域分割方法が開示されており、一例
として、フレームメモリからの色輝度信号(Y、Cb、C
r、又はRGB)、動きベクトル蓄積手段からの動きベクト
ル(2成分;Vx,Vy)、アドレス生成手段で発生す
る画素位置(2成分;x、y)を、画素ごとクラスタリ
ング生成手段に供給され、7次元特徴量空間のクラスタ
リングを行っている。
[0005] As a conventional method of detecting a region shape using color and motion, for example, a region division method described in JP-A-8-63601 can be mentioned as a typical example. According to the above publication, in dividing a moving image into regions,
Accumulating an input image signal and outputting it as a current frame image; accumulating a reference image signal and outputting it as a reference frame image; detecting a motion vector from the frame image and the reference frame image; And a step of dividing and outputting the current frame image by clustering using the pixel value information of the current frame image and the accumulated motion vector, and outputting the divided image data. As an example, as an example, the color and luminance signals (Y, Cb, C
r or RGB), the motion vector (two components; Vx, Vy) from the motion vector storage means, and the pixel position (two components; x, y) generated by the address generation means are supplied to the clustering generation means for each pixel. Clustering of the 7-dimensional feature space is performed.

【0006】この従来の領域分割方法では、色(3成
分;輝度信号Y、Cb、Cr、又はRGB)、動きベクトル(2
成分;Vx,Vy)、画素位置(2成分;x、y)を用
いて、「シード(領域の特性を示す)」と呼ばれる領域
の平均特性の距離を測定して、各画素を最も近距離にあ
るシードに割り当て、得られた割り当てマップにしたが
ってシード情報を更新するという手続きを繰り返すこと
によって、画像の分割を実現している。
In this conventional area dividing method, color (three components; luminance signal Y, Cb, Cr, or RGB), motion vector (2
Using the components Vx and Vy) and the pixel positions (two components x and y), the distance of the average characteristic of the region called “seed (indicating the characteristics of the region)” is measured, and each pixel is placed at the closest distance The image is divided by repeating the procedure of allocating the seeds to the seeds and updating the seed information according to the obtained allocation map.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、上記し
た領域形状を検出する方式では、単一の平均値または位
置情報を併用する事により同心円状に値が平均値より単
調減少するモデルを各領域の予想され得る姿として用い
ているが、現実世界で単一区画を構成すると考えられる
画像は、このような単純モデルである事はめったに無
く、結果として、人間の視覚特性に沿った領域分割が行
えていない、という問題点がある。
However, in the above-described method of detecting the shape of a region, a model in which the value monotonically decreases from the average value concentrically by using a single average value or position information is used for each region. Images that are used as expected, but are considered to constitute a single block in the real world, are rarely such simple models, and as a result, can be segmented according to human visual characteristics. There is no problem.

【0008】したがって、本発明は、上記問題点に鑑み
てなされたものであって、その目的は、高精度に領域形
状を検出し、人間の視覚特性に沿った領域分割を可能と
する装置及び方法を提供することにある。
Accordingly, the present invention has been made in view of the above problems, and an object of the present invention is to provide a device which detects a region shape with high accuracy and enables region division in accordance with human visual characteristics. It is to provide a method.

【0009】[0009]

【課題を解決するための手段】前記目的を達成する本発
明は、領域の属性モデルを用いて入力画像と画素毎の動
きベクトルから画像を分割するための領域形状情報を導
出する領域形状推定装置であって、領域統合制御手段
と、最初の試行に際しては入力として与えられる初期領
域属性モデルを選択し、それ以外の場合には、前記領域
統合制御手段から送られる領域属性モデルを選択する領
域属性モデル選択手段と、入力画像及び動きベクトルに
より定義される画素属性を各領域の属性モデルとの距離
関数で評価することにより、各画素が領域候補の各々に
どのくらいの確率で所属するかを示す領域形状情報を導
出する画素分類手段と、前記導出された領域形状情報を
前回の試行と比較し収束条件を満たしているか否かを調
べ、収束している場合には、繰り返し処理終了命令を送
出する収束判定手段と、前記繰り返し処理終了命令を受
けた場合には、前記導出された領域形状情報を最終結果
として外部に出力し、それ以外の場合には、前記領域統
合制御手段に前記導出された領域形状を送り出す領域形
状情報出力選択手段と、前記導出された領域形状情報に
基づき入力画像と動きベクトルから領域属性モデルを生
成し直すモデル生成手段と、を備え、前記領域統合制御
手段が、前記生成された属性モデル間の類似度を評価し
て前記類似度が所定の閾値よりも高い場合には、これら
の領域を一つに統合して、前記属性モデル生成手段に再
生成を促し、統合すべき領域が無い場合には、得られた
領域属性モデルを、前記領域モデル選択手段に出力す
る、ことを特徴とする。
In order to achieve the above object, the present invention provides a region shape estimating apparatus for deriving region shape information for dividing an image from an input image and a motion vector for each pixel using a region attribute model. Region integration control means, and an area attribute model for selecting an initial region attribute model given as an input at the time of the first trial, and otherwise selecting an area attribute model sent from the region integration control means An area indicating how likely each pixel belongs to each of the area candidates by evaluating the pixel attribute defined by the input image and the motion vector by a distance function with the attribute model of each area. A pixel classifying unit for deriving shape information; and comparing the derived region shape information with a previous trial to determine whether a convergence condition is satisfied. A convergence determining means for sending an iterative processing end instruction, and when receiving the iterative processing end instruction, outputs the derived area shape information to the outside as a final result, otherwise, Area shape information output selecting means for sending the derived area shape to the area integration control means, and model generating means for regenerating an area attribute model from an input image and a motion vector based on the derived area shape information, The area integration control means evaluates the similarity between the generated attribute models, and when the similarity is higher than a predetermined threshold, integrates these areas into one, and It is characterized in that the model generation means is urged to regenerate, and if there is no area to be integrated, the obtained area attribute model is output to the area model selection means.

【0010】[0010]

【発明の実施の形態】本発明の実施の形態について説明
する。本発明のシステムは、その好ましい実施の形態に
おいて、入力画像(100)と動きベクトル(102)
とから領域形状情報(103)を算出するものであり、
最初の試行に際しては入力として与えられる初期領域属
性モデルを選択し、それ以外の場合には、領域統合制御
部(24)から送られる領域属性モデルを選択する領域
属性モデル選択部(26)と、入力画像(100)及び
動きベクトル(102)により定義される画素属性を各
領域の属性モデルとの距離関数で評価することにより、
各画素が領域候補のおのおのにどのくらいの確率で所属
するかを示す領域形状を導出する画素分類部(21)
と、前記導出された領域形状情報が前回の試行と比較し
て十分に収束しているか否かを調べ、収束している場合
には繰り返し処理終了命令を送出する収束判定部(2
5)と、前記繰り返し処理終了命令を受けた場合には前
記導出された領域形状を最終結果として外部に出力し、
それ以外の場合には、領域統合制御部(24)に、前記
導出された領域形状を送り出す領域形状情報出力選択部
(26)と、前記導出された領域形状情報に基づき入力
画像と動きベクトルから領域属性モデルを生成し直すモ
デル生成部(23)と、を備え、前記領域統合制御部
(24)は、モデル生成部(23)で生成された属性モ
デル間の類似度を評価して前記類似度が予め定められた
値よりも高い場合にはそれらの領域を一つに統合して前
記属性モデル生成部(23)に再生成を促し、統合すべ
き領域が無かったら得られた領域属性モデルを領域モデ
ル選択部(22)に出力する構成とされている。
Embodiments of the present invention will be described. The system of the present invention comprises, in a preferred embodiment thereof, an input image (100) and a motion vector (102).
To calculate the area shape information (103) from
An area attribute model selecting unit (26) that selects an initial area attribute model given as an input at the first trial, and otherwise selects an area attribute model sent from the area integration control unit (24); By evaluating a pixel attribute defined by the input image (100) and the motion vector (102) by a distance function with an attribute model of each area,
A pixel classifying unit (21) for deriving a region shape indicating how much probability each pixel belongs to each of the region candidates
And whether or not the derived region shape information has sufficiently converged as compared with the previous trial, and if it has converged, a convergence determination unit (2
5) and when the repetition processing end command is received, the derived region shape is output to the outside as a final result,
In other cases, an area shape information output selecting section (26) for sending the derived area shape to an area integration control section (24), and an input image and a motion vector based on the derived area shape information. A model generation unit (23) for regenerating a region attribute model, wherein the region integration control unit (24) evaluates the degree of similarity between the attribute models generated by the model generation unit (23), and If the degree is higher than a predetermined value, those areas are integrated into one, and the attribute model generation unit (23) is urged to regenerate. If there is no area to be integrated, the obtained area attribute model is obtained. Is output to the region model selection unit (22).

【0011】また本発明の方法は、その好ましい実施の
形態において、領域の属性モデルを用いて入力画像と画
素毎の動きベクトルから画像を分割するための領域形状
情報を導出する領域形状推定方法であって、以下のステ
ップを含む。 ステップa:最初の試行に際しては入力として与えられ
る初期領域属性モデルを選択し、それ以外の場合には、
一つ前の試行のステップfで生成された領域属性モデル
を選択する。 ステップb:入力画像及び入力された動きベクトルによ
り定義される画素属性を、前記ステップaで選択された
各領域の属性モデルとの距離関数で評価することによ
り、各画素が領域候補のおのおのにどのくらいの確率で
所属するかを示す領域形状情報を導出する。 ステップc:前記ステップbで前記導出された領域形状
情報を、前回の試行と比較し収束条件を満たしているか
否かを調べ、収束している場合には、繰り返し処理終了
指示を出力する。 ステップd:前記繰り返し処理終了指示を受けた場合に
は、前記ステップbで導出された領域形状を、最終結果
として出力し、それ以外の場合には、前記ステップbで
導出された領域形状情報を次ステップeに受け渡す。 ステップe:前記導出された領域形状情報に基づき、前
記入力画像と前記動きベクトルから領域属性モデルを生
成し直す。 ステップf:前記ステップeで生成された領域属性モデ
ル間の類似度を評価し、前記類似度が所定の閾値よりも
高い場合には、これらの領域を一つに統合した上で前記
ステップeに移行して領域属性モデルの再生成させると
もに、統合すべき領域が無い場合には、得られた領域属
性モデルを次回の試行に備えてステップaに供給する。
In a preferred embodiment, the method of the present invention is a region shape estimating method for deriving region shape information for dividing an image from an input image and a motion vector for each pixel using an attribute model of the region. It includes the following steps. Step a: Select an initial region attribute model given as input on the first try, otherwise,
The region attribute model generated in step f of the previous trial is selected. Step b: By evaluating the pixel attributes defined by the input image and the input motion vector by a distance function with the attribute model of each area selected in the step a, how much each pixel is in each of the area candidates Area shape information indicating whether or not they belong is derived. Step c: The region shape information derived in step b is compared with the previous trial to check whether or not the convergence condition is satisfied. If the convergence condition is satisfied, the repetition processing end instruction is output. Step d: When the repetition processing end instruction is received, the region shape derived in step b is output as a final result, otherwise, the region shape information derived in step b is output. Transfer to the next step e. Step e: Regenerate a region attribute model from the input image and the motion vector based on the derived region shape information. Step f: Evaluate the similarity between the region attribute models generated in the step e, and if the similarity is higher than a predetermined threshold, integrate these regions into one and then proceed to the step e. The process proceeds to regenerate the area attribute model, and when there is no area to be integrated, the obtained area attribute model is supplied to step a in preparation for the next trial.

【0012】上記各処理ステップa〜fは、コンピュー
タの主記憶上で実行されるプログラムによってその処理
を実現するようにしてもよい。この場合、該プログラム
を記録した記録媒体からコンピュータでプログラムを読
み出して実行することで本発明を実施することができ
る。
Each of the above processing steps a to f may be realized by a program executed on a main memory of a computer. In this case, the present invention can be implemented by reading out and executing the program from a recording medium on which the program is recorded by a computer.

【0013】[0013]

【実施例】上記した本発明の実施の形態について更に詳
細に説明すべく、本発明の実施例について図面を参照し
て以下に説明する、図1は、本発明の領域形状情報推定
システムの第一の実施例の構成を示す図である。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of a region shape information estimating system according to an embodiment of the present invention. It is a figure showing composition of one example.

【0014】図1を参照すると、本発明の第一の実施例
は、入力画像100と動きベクトル102から領域形状
情報103を算出するもので、画素分類部21、領域属
性モデル選択部22、領域属性モデル生成部23、領域
統合制御部24、収束判定部25、及び領域形状情報選
択部26を備えて構成されている。
Referring to FIG. 1, a first embodiment of the present invention calculates region shape information 103 from an input image 100 and a motion vector 102, and includes a pixel classifying unit 21, a region attribute model selecting unit 22, a region It comprises an attribute model generation unit 23, a region integration control unit 24, a convergence determination unit 25, and a region shape information selection unit 26.

【0015】領域属性モデルは、繰り返し処理を行う方
式において、第n回目の試行時に得られている各領域の
色成分(色輝度信号又はRGB)や動き(動きベクト
ル)からなる領域属性をモデル化したものである。
In the area attribute model, in a method of performing repetitive processing, an area attribute comprising a color component (color / luminance signal or RGB) and a motion (motion vector) of each area obtained at the n-th trial is modeled. It was done.

【0016】本発明においては、領域属性をモデルとし
ては、位置(画素の座標)の関数として与えられる各属
性の値を、直交変換関数(正規直交関数による直交変
換)で展開したモデルや、多項式により展開したモデル
など、単純平均や単調減少関数を用いる従来方式より
も、高次に、領域内での属性変化を表現するモデルを用
いる。
In the present invention, as a model of a region attribute, a model obtained by expanding the value of each attribute given as a function of a position (coordinate of a pixel) by an orthogonal transformation function (orthogonal transformation by an orthonormal function) or a polynomial For example, a model expressing attribute changes in a region is used in a higher order than a conventional method using a simple average or a monotonically decreasing function, such as a model developed by the above.

【0017】画素分類部21は、入力画像100のカラ
ー各成分、及び、動きベクトル102の動き成分を基
に、領域属性モデル選択部22から与えられる、領域属
性モデルのそれぞれに対して、どの位の確からしさでマ
ッチするかを算出する。
The pixel classifying unit 21 determines, based on each color component of the input image 100 and the motion component of the motion vector 102, how much of each of the region attribute models given from the region attribute model selecting unit 22. Calculate whether it matches with certainty.

【0018】ここで、確からしさは、領域属性モデルに
画素位置を与えて得られる属性が、実際の画素の属性
(色成分や動き)と、どのくらい距離があるかを調べる
ことによって算出される。
Here, the certainty is calculated by examining how far an attribute obtained by giving a pixel position to the area attribute model is closer to an actual pixel attribute (color component or movement).

【0019】ここで、距離とは、単純なユークリッド距
離でもよいし、属性各成分になんらかの重み付けを付け
たもの、あるいは各成分の距離の最大値や最小値などの
非線型距離であってもよい。
Here, the distance may be a simple Euclidean distance, a weighted attribute component, or a non-linear distance such as a maximum or minimum distance of each component. .

【0020】画素xにおいて、領域属性モデルRi(i=
1,2,・・・)との距離を、それぞれwi(i=1,2,・・
・)とすると、画素xの領域Riに対するマッチ度P
(x, Ri)は、 P(x, Ri) ={SUM(wi)−wi}/SUM(wi) …(1) として表わされる。上式(1)で、SUM(wi)はwiの合
計を表す。
At pixel x, the region attribute model Ri (i =
1,2, ...), respectively, wi (i = 1,2, ...)
·), The matching degree P of the pixel x with respect to the region Ri
(X, Ri) is expressed as P (x, Ri) = {SUM (wi) −wi} / SUM (wi) (1) In the above equation (1), SUM (wi) represents the sum of wi.

【0021】領域形状情報202は、全画素のマッチ度
を集めたものである。
The area shape information 202 is a collection of the degree of matching of all pixels.

【0022】ある画素がどの領域に属するかを厳密に定
める形の領域分割方式においては、各画素に対して最大
のマッチ度Pをあたえる領域属性モデルRiを、その画
素に対する領域と定義すればよい。
In a region division method in which a certain pixel belongs to a region that is strictly determined, a region attribute model Ri giving the maximum matching degree P to each pixel may be defined as a region for that pixel. .

【0023】画素が属する領域を確率論的にとり扱う手
法では、マッチ度Pを、各画素が領域候補それぞれに所
属する確率として用いることができる。
In the method of probabilistically treating a region to which a pixel belongs, the matching degree P can be used as a probability that each pixel belongs to each region candidate.

【0024】得られた領域形状情報202は、収束判定
部25と同時に領域形状情報出力選択部26に入力され
る。
The obtained region shape information 202 is input to the region shape information output selection unit 26 at the same time as the convergence determination unit 25.

【0025】収束判定部25では、前回の試行時におけ
る領域形状情報を保持しており、今回の試行による結果
が前回とどのくらい変化したかを計算し、変化量が予め
定めた閾値以下である場合には、収束したものと判定し
て、繰り返し処理終了命令207を発行する。
The convergence judging unit 25 holds the area shape information at the time of the previous trial, calculates how much the result of the current trial has changed from the previous trial, and if the amount of change is equal to or less than a predetermined threshold value. Is determined to have converged, and a repetitive processing end instruction 207 is issued.

【0026】領域形状情報出力選択部26は、繰り返し
処理終了命令207によって出力先を制御する切替スイ
ッチよりなり、繰り返し処理終了命令207が入力され
た場合には、選択部26への入力である領域形状情報2
02を最終結果である領域形状情報103としてループ
外へ出力し、それ以外の場合には、領域形状情報202
を領域形状情報206として属性モデル生成部23及び
領域統合制御部24に出力する。
The area shape information output selecting section 26 is constituted by a changeover switch for controlling the output destination according to the repetitive processing end command 207. When the repetitive processing end command 207 is input, the area input as an input to the selecting section 26 is provided. Shape information 2
02 is output to the outside of the loop as region shape information 103 which is the final result, otherwise, the region shape information 202
Is output to the attribute model generation unit 23 and the region integration control unit 24 as the region shape information 206.

【0027】属性モデル生成部23は、与えられた領域
形状情報を最も良く表現できる領域属性モデルを、最小
二乗法等によって計算する。各画素における入力画像1
00と動きベクトル102の値が、領域属性モデル群か
ら算出される値を、領域形状情報で示される所属可能性
で重み付け加算したものに、最も近くなるように、新し
い領域属性モデル203を計算する。
The attribute model generator 23 calculates a region attribute model that can best represent the given region shape information by the least square method or the like. Input image 1 for each pixel
A new area attribute model 203 is calculated so that 00 and the value of the motion vector 102 become the closest to the value calculated from the area attribute model group, which is weighted and added by the belonging possibility indicated by the area shape information. .

【0028】属性モデル生成部23で算出された領域属
性モデル203は、領域統合制御部24に送られる。
The area attribute model 203 calculated by the attribute model generator 23 is sent to the area integration controller 24.

【0029】領域統合制御部24は、領域属性モデル2
03に含まれる全ての領域間の類似性を評価して、予め
定められた閾値以上の類似度を持つ領域同士を統合す
る。
The area integration control unit 24 controls the area attribute model 2
The similarity between all the regions included in the region 03 is evaluated, and regions having similarities equal to or greater than a predetermined threshold are integrated.

【0030】統合対象である領域に関する領域形状情報
206を書き換えて、新たな領域形状情報204とし
て、これを属性モデル生成部23にフィードバックする
ことによって、統合結果を含む領域形状情報204を最
も良く近似できる領域形状情報を再度算出させる。
By rewriting the region shape information 206 relating to the region to be integrated and feeding it back as new region shape information 204 to the attribute model generation unit 23, the region shape information 204 including the integration result is best approximated. The possible region shape information is calculated again.

【0031】領域統合制御部24において、統合すべき
領域属性モデルが検出されなかった場合には、得られた
領域属性モデル205を、領域属性モデル選択部22に
対して送出する。
When the region integration model to be integrated is not detected by the region integration control unit 24, the obtained region attribute model 205 is sent to the region attribute model selection unit 22.

【0032】領域属性モデル選択部22は、入力を切り
かえるスイッチよりなり、第一回目の試行の際のみ、外
部からの入力である初期領域属性モデル206を、領域
属性モデル201として出力するほかは、領域統合制御
部24で生成された領域属性モデル205を選択された
領域属性モデル201として、画像分類部21に出力す
る。
The area attribute model selecting section 22 is composed of a switch for switching an input. Only in the first trial, the area attribute model selecting section 22 outputs the initial area attribute model 206 as an external input as the area attribute model 201. The region attribute model 205 generated by the region integration control unit 24 is output to the image classification unit 21 as the selected region attribute model 201.

【0033】次に、本発明の第2の実施例について説明
する。図2は、本発明の第2の実施例の構成を示す図で
ある。図2において、図1と同一又は同等の要素には同
一の参照符号が付されている。
Next, a second embodiment of the present invention will be described. FIG. 2 is a diagram showing the configuration of the second embodiment of the present invention. 2, the same or equivalent elements as those in FIG. 1 are denoted by the same reference numerals.

【0034】図2を参照すると、本発明の第2の実施例
は、図1に示した前記第1の実施例のように収束判定を
領域形状情報202について行うのではなく、収束判定
部27は、領域統合制御部24で生成された領域属性モ
デル205を用いて収束判定を行う点が相違している。
すなわち、本発明の第2の実施例は、画素分類部21、
領域属性モデル選択部22、領域属性モデル生成部2
3、領域統合制御部24、収束判定部27及び領域形状
情報選択部26を備えて構成されている。
Referring to FIG. 2, the second embodiment of the present invention is different from the first embodiment shown in FIG. Is different in that convergence determination is performed using the region attribute model 205 generated by the region integration control unit 24.
That is, in the second embodiment of the present invention, the pixel classifying unit 21
Region attribute model selection unit 22, region attribute model generation unit 2
3. It includes a region integration control unit 24, a convergence determination unit 27, and a region shape information selection unit 26.

【0035】本発明の第2の実施例は、前記第1の実施
例と相違して、収束判定部27が、領域属性モデル20
5を常に監視している。
The second embodiment of the present invention differs from the first embodiment in that the convergence judgment unit 27
5 is constantly monitored.

【0036】領域属性モデル205が、収束判定部27
の記憶部(不図示)に記憶されている前回試行時の領域
属性モデルと同一または両者の差が予め定めた閾値以下
の場合には、収束判定部27は、繰り返し処理終了命令
207を発行して、全てのループ処理を停止させる。
The area attribute model 205 determines whether the convergence
If the same as the region attribute model at the previous trial stored in the storage unit (not shown) or the difference between the two is equal to or smaller than a predetermined threshold, the convergence determination unit 27 issues an iterative processing end instruction 207. To stop all loop processing.

【0037】本発明の第3の実施例として、複数の収束
判定部を用いる構成としてもよい。すなわち、図1及び
図2で示した、収束判定部25、27の位置に、それぞ
れ第1、第2の収束判定部を備える。
As a third embodiment of the present invention, a configuration using a plurality of convergence judging units may be adopted. That is, the first and second convergence determining units are provided at the positions of the convergence determining units 25 and 27 shown in FIGS. 1 and 2, respectively.

【0038】本発明の第3の実施例において、領域形状
情報または領域属性モデルのうちどちらか一方が収束し
た時点で、処理が打ち切られるので、演算コストが非常
に大きい画素分類部21又は領域統合制御24のいずれ
かの最後の計算を省略することができる。
In the third embodiment of the present invention, when either one of the area shape information and the area attribute model converges, the processing is terminated. The last calculation of any of the controls 24 can be omitted.

【0039】[0039]

【発明の効果】以上説明したように、本発明によれば、
高次な領域モデルを用いたクラスタリング処理を行うこ
とにより、従来法の平均値を用いた単純なクラスタリン
グよりも、はるかに高精度に領域形状を検出することが
できる、という効果を奏する。
As described above, according to the present invention,
Performing the clustering process using the high-order region model has an effect that the region shape can be detected with much higher accuracy than simple clustering using the average value in the conventional method.

【0040】その理由は次の通りである。一般に人間が
視覚的に検知する単一領域は、複雑なグラデーションを
含んでいるためである。すなわち、本発明がクラスタリ
ング処理で採用した高次な領域モデルでは、領域内部で
の輝度や動きベクトルの微妙な起伏や、三次元的な動き
構造に起因する透視変換的な属性変化をも内包できるた
め、人間の視覚特性により近い測定が可能となる。
The reason is as follows. Generally, a single region visually detected by a human includes a complicated gradation. That is, the high-order region model adopted in the clustering process of the present invention can include subtle undulations of luminance and motion vectors inside the region and perspective-based attribute changes caused by a three-dimensional motion structure. Therefore, measurement closer to human visual characteristics is possible.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施例の構成を示す図である。FIG. 1 is a diagram showing a configuration of a first exemplary embodiment of the present invention.

【図2】本発明の第2の実施例の構成を示す図である。FIG. 2 is a diagram showing a configuration of a second exemplary embodiment of the present invention.

【符号の説明】[Explanation of symbols]

21 画素分類部 22 領域属性モデル選択部 23 属性モデル生成部 24 領域統合制御部 25 収束判定部 26 領域形状情報出力選択部 27 収束判定部 100 入力画像 102 動きベクトル 103 領域形状情報 201 領域属性モデル 202 領域形状情報 203 領域属性モデル 204 領域形状情報 205 領域属性モデル 206 領域形状情報 207 繰り返し処理終了命令 Reference Signs List 21 pixel classification unit 22 region attribute model selection unit 23 attribute model generation unit 24 region integration control unit 25 convergence determination unit 26 region shape information output selection unit 27 convergence determination unit 100 input image 102 motion vector 103 region shape information 201 region attribute model 202 Area shape information 203 Area attribute model 204 Area shape information 205 Area attribute model 206 Area shape information 207 Repeat processing end instruction

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】領域の属性モデルを用いて入力画像と画素
毎の動きベクトルから画像を分割するための領域形状情
報を導出する領域形状推定装置であって、 領域統合制御手段と、 最初の試行に際しては入力として与えられる初期領域属
性モデルを選択し、それ以外の場合には、前記領域統合
制御手段から送られる領域属性モデルを選択する領域属
性モデル選択手段と、 入力画像及び入力された動きベクトルにより定義される
画素属性を、各領域の属性モデルとの距離関数で評価す
ることにより、各画素が領域候補の各々にどのくらいの
確率で所属するかを示す領域形状情報を導出する画素分
類手段と、 前記導出された領域形状情報を前回の試行と比較し収束
条件を満たしているか否かを調べ、収束している場合に
は、繰り返し処理終了命令を出力する収束判定手段と、 前記繰り返し処理終了命令が出力された場合には、前記
導出された領域形状情報を最終結果として外部に出力
し、それ以外の場合には、前記領域統合制御手段に前記
導出された領域形状を供給する領域形状情報出力選択手
段と、 前記導出された領域形状情報に基づき前記入力画像と前
記動きベクトルから領域属性モデルを生成し直すモデル
生成手段と、 を備え、 前記領域統合制御手段が、前記生成された属性モデル間
の類似度を評価し前記類似度が所定の閾値よりも高い場
合には、これらの領域を一つに統合した上で、前記属性
モデル生成手段に対して領域属性モデルの再生成を促
し、統合すべき領域が無い場合には、得られた領域属性
モデルを、前記領域モデル選択手段に供給する、 ことを特徴とする、領域形状推定装置。
1. A region shape estimating apparatus for deriving region shape information for dividing an image from an input image and a motion vector for each pixel using a region attribute model, comprising: a region integration control means; In this case, an initial region attribute model given as an input is selected, otherwise, an area attribute model selecting means for selecting an area attribute model sent from the area integration control means, an input image and an input motion vector A pixel classifying unit that derives region shape information indicating at what probability each pixel belongs to each of the region candidates by evaluating the pixel attribute defined by the distance function with the attribute model of each region. The derived region shape information is compared with the previous trial to determine whether or not the convergence condition is satisfied. A convergence determination unit to output, when the iterative processing end command is output, the derived region shape information is output to the outside as a final result, otherwise, the region integration control unit Region shape information output selecting means for supplying a derived region shape; and model generating means for regenerating a region attribute model from the input image and the motion vector based on the derived region shape information. The integrated control unit evaluates the similarity between the generated attribute models, and when the similarity is higher than a predetermined threshold, integrates these regions into one, and then sends the attribute model to the attribute model generating unit. Regenerating a region attribute model, and when there is no region to be integrated, supplies the obtained region attribute model to the region model selecting means. Jo estimation apparatus.
【請求項2】領域の属性モデルを用いて入力画像と画素
毎の動きベクトルから画像を分割するための領域形状情
報を導出する領域形状推定装置であって、 領域統合制御手段と、 最初の試行に際しては入力として与えられる初期領域属
性モデルを選択し、それ以外の場合には、前記領域統合
制御手段から送られる領域属性モデルを選択する領域属
性モデル選択手段と、 入力画像及び入力された動きベクトルにより定義される
画素属性を各領域の属性モデルとの距離関数で評価する
ことにより、各画素が領域候補のおのおのにどのくらい
の確率で所属するかを示す領域形状情報を導出する画素
分類手段と、 繰り返し処理終了命令を受けた場合には、前記導出され
た領域形状情報を最終結果として外部に出力し、それ以
外の場合には、前記領域統合制御手段に前記導出された
領域形状情報を供給する領域形状情報出力選択手段と、 前記導出された領域形状情報に基づき前記入力画像と前
記動きベクトルとから領域属性モデルを生成し直すモデ
ル生成手段と、 前記領域統合制御手段からの領域属性モデルを、前回の
試行と比較し収束条件を満たしているか否かを調べ、収
束している場合には、前記繰り返し処理終了命令を出力
する収束判定手段と、 を備え、 前記領域統合制御手段が、前記生成された属性モデル間
の類似度を評価し前記類似度が所定の閾値よりも高い場
合には、これらの領域を一つに統合した上で、前記属性
モデル生成手段に領域属性モデルの再生成を促し、統合
すべき領域が無い場合には、得られた領域属性モデル
を、前記領域モデル選択手段及び前記束判定手段に供給
する、ことを特徴とする、領域形状推定装置。
2. An area shape estimating apparatus for deriving area shape information for dividing an image from an input image and a motion vector for each pixel using an area attribute model, comprising: an area integration control means; In this case, an initial region attribute model given as an input is selected, otherwise, an area attribute model selecting means for selecting an area attribute model sent from the area integration control means, an input image and an input motion vector Pixel classifying means for deriving region shape information indicating how much probability each pixel belongs to each of the region candidates by evaluating the pixel attribute defined by the distance function with the attribute model of each region, When the repetition processing end command is received, the derived area shape information is output to the outside as a final result. Otherwise, the area integration information is output. Area shape information output selection means for supplying the derived area shape information to the integration control means; and model generation means for regenerating an area attribute model from the input image and the motion vector based on the derived area shape information. And a region attribute model from the region integration control unit, which is compared with the previous trial to check whether or not a convergence condition is satisfied. And wherein the region integration control unit evaluates the similarity between the generated attribute models, and when the similarity is higher than a predetermined threshold, integrates these regions into one. Urges the attribute model generation means to regenerate the area attribute model, and when there is no area to be integrated, supplies the obtained area attribute model to the area model selection means and the bundle determination means. A region shape estimating device.
【請求項3】領域の属性モデルを用いて入力画像と画素
毎の動きベクトルから画像を分割するための領域形状情
報を導出する領域形状推定装置であって、 領域統合制御手段と、 最初の試行に際しては入力として与えられる初期領域属
性モデルを選択し、それ以外の場合には、前記領域統合
制御手段から送られる領域属性モデルを選択する領域属
性モデル選択手段と、 入力画像及び入力された動きベクトルにより定義される
画素属性を各領域の属性モデルとの距離関数で評価する
ことにより、各画素が領域候補のおのおのにどのくらい
の確率で所属するかを示す領域形状情報を導出する画素
分類手段と、 前記導出された領域形状情報が前回の試行と比較し収束
条件を満たしているか否かを調べ、収束している場合に
は、第1の繰り返し処理終了命令を出力する第1の収束
判定手段と、 前記第1の繰り返し処理終了命令、又は第2の繰り返し
処理終了命令を受けた場合には、前記導出された領域形
状情報を最終結果として外部に出力し、それ以外の場合
には、前記領域統合制御手段に前記導出された領域形状
情報を供給する領域形状情報出力選択手段と、 前記導出された領域形状情報に基づき入力画像と動きベ
クトルとから領域属性モデルを生成し直すモデル生成手
段と、 前記領域統合制御手段からの領域属性モデルを、前回の
試行と比較し収束条件を満たしているか否かを調べ、収
束している場合には、前記第2の繰り返し処理終了命令
を出力する第2の収束判定手段と、 を備え、 前記領域統合制御手段が、前記生成された属性モデル間
の類似度を評価して前記類似度が所定の閾値よりも高い
場合には、これらの領域を一つに統合して、前記属性モ
デル生成手段に領域属性モデルの再生成を促し、統合す
べき領域が無い場合には、得られた領域属性モデルを、
前記領域モデル選択手段及び前記第2の収束判定手段に
供給する、ことを特徴とする、領域形状推定装置。
3. A region shape estimating device for deriving region shape information for dividing an image from an input image and a motion vector for each pixel using a region attribute model, comprising: a region integration control means; In this case, an initial region attribute model given as an input is selected, otherwise, an area attribute model selecting means for selecting an area attribute model sent from the area integration control means, an input image and an input motion vector Pixel classifying means for deriving region shape information indicating how much probability each pixel belongs to each of the region candidates by evaluating the pixel attribute defined by the distance function with the attribute model of each region, It is checked whether the derived region shape information satisfies the convergence condition by comparing it with the previous trial. First convergence determining means for outputting a termination command, and when receiving the first repetition processing termination command or the second repetition processing termination command, the derived region shape information is output to the outside as a final result. Output, otherwise, the area shape information output selecting means for supplying the derived area shape information to the area integration control means, based on the input image and the motion vector based on the derived area shape information Model generating means for regenerating the area attribute model, and comparing the area attribute model from the area integration control means with a previous trial to see if a convergence condition is satisfied. A second convergence determination unit that outputs a second repetition processing end command, wherein the region integration control unit evaluates the similarity between the generated attribute models and determines that the similarity is a predetermined value. If the value is higher than the value, these areas are integrated into one, and the attribute model generating means is prompted to regenerate the area attribute model. If there is no area to be integrated, the obtained area attribute model is obtained. To
A region shape estimating apparatus, wherein the region shape estimating device is supplied to the region model selecting unit and the second convergence determining unit.
【請求項4】前記領域属性モデルが、画素の位置座標の
関数として与えられる各属性の値を、直交変換関数で展
開したモデル、もしくは多項式により展開したモデルよ
りなる、ことを特徴とする、請求項1乃至3のいずれか
一に領域形状推定装置。
4. The area attribute model according to claim 1, wherein each of the attribute values given as a function of the position coordinates of the pixel is expanded by an orthogonal transformation function or expanded by a polynomial. Item 1 is a region shape estimation device.
【請求項5】領域の属性モデルを用いて入力画像と画素
毎の動きベクトルから画像を分割するための領域形状情
報を導出する領域形状推定方法であって、 (a)最初の試行に際しては入力として与えられる初期
領域属性モデルを選択し、それ以外の場合には、一つ前
の試行のステップ(f)で生成された領域属性モデルを
選択するステップ、 (b)入力画像及び入力された動きベクトルにより定義
される画素属性を、前記ステップ(a)で選択された各
領域の属性モデルとの距離関数で評価することにより、
各画素が領域候補のおのおのにどのくらいの確率で所属
するかを示す領域形状情報を導出するステップ、 (c)前記ステップ(b)で前記導出された領域形状情
報を、前回の試行と比較し収束条件を満たしているか否
かを調べ、収束している場合には、繰り返し処理終了指
示を出力するステップ、 (d)前記繰り返し処理終了指示を受けた場合には、前
記ステップ(b)で導出された領域形状を、最終結果と
して出力し、それ以外の場合には、前記導出された領域
形状情報を次ステップ(e)に受け渡すステップ、 (e)前記導出された領域形状情報に基づき、前記入力
画像と前記動きベクトルから領域属性モデルを生成し直
すステップ、及び、 (f)前記ステップ(e)で生成された領域属性モデル
間の類似度を評価し、前記類似度が所定の閾値よりも高
い場合には、これらの領域を一つに統合した上で前記ス
テップ(e)に移行して領域属性モデルの再生成させる
ともに、統合すべき領域が無い場合には、得られた領域
属性モデルを次回の試行に備えて上記ステップ(a)に
供するステップ、 を含むことを特徴とする、領域形状推定方法。
5. A region shape estimating method for deriving region shape information for dividing an image from an input image and a motion vector for each pixel using a region attribute model, comprising the steps of: Selecting the initial region attribute model given as: and otherwise selecting the region attribute model generated in step (f) of the previous trial, (b) input image and input motion By evaluating the pixel attribute defined by the vector by a distance function with the attribute model of each area selected in the step (a),
Deriving region shape information indicating how likely each pixel belongs to each of the region candidates; (c) comparing the region shape information derived in step (b) with a previous trial and converging It is checked whether or not the condition is satisfied, and if it is converged, a step of outputting a repetition processing end instruction. (D) If the repetition processing end instruction is received, it is derived in the step (b). Outputting the obtained region shape as a final result; otherwise, passing the derived region shape information to the next step (e). (E) Based on the derived region shape information, Regenerating a region attribute model from an input image and the motion vector; and (f) evaluating a similarity between the region attribute models generated in the step (e), and If the area is higher than the predetermined threshold, these areas are integrated into one, and the process proceeds to step (e) to regenerate the area attribute model. Providing the obtained region attribute model to the step (a) in preparation for the next trial.
【請求項6】領域の属性モデルを用いて入力画像と画素
毎の動きベクトルから画像を分割するための領域形状情
報を導出する領域形状推定方法であって、 (a)最初の試行に際しては入力として与えられる初期
領域属性モデルを選択し、それ以外の場合には、一つ前
の試行のステップ(f)で生成された領域属性モデルを
選択するステップ、 (b)入力画像及び入力された動きベクトルにより定義
される画素属性を、前記ステップ(a)で選択された各
領域の属性モデルとの距離関数で評価することにより、
各画素が領域候補のおのおのにどのくらいの確率で所属
するかを示す領域形状を導出するステップ、 (c)繰り返し処理終了指示を受けた場合には、前記ス
テップ(b)で導出された領域形状情報を、最終結果と
して外部に出力し、それ以外の場合には、前記導出され
た領域形状情報を、次ステップ(d)に受け渡すステッ
プ、 (d)前記導出された領域形状情報に基づき、前記入力
画像と前記動きベクトルから領域属性モデルを生成し直
すステップ、 (e)前記ステップ(d)で生成された領域属性モデル
間の類似度を評価し、前記類似度が所定の閾値よりも高
い場合には、これらの領域を一つに統合して前記ステッ
プ(d)に移行して領域属性モデルの再生成させるとも
に、統合すべき領域が無い場合には、得られた領域属性
モデルを次回の試行に備えてステップ(a)に供すると
共に次ステップ(f)に受け渡すステップ、及び、 (f)前記ステップ(e)で生成された領域属性モデル
を、前回の試行と比較し収束条件を満たしているか否か
を調べ、収束している場合には、繰り返し処理終了指示
を出力するステップ、を含むことを特徴とする、領域形
状推定方法。
6. A region shape estimating method for deriving region shape information for dividing an image from an input image and a motion vector for each pixel using an attribute model of the region, comprising the steps of: Selecting the initial region attribute model given as: and otherwise selecting the region attribute model generated in step (f) of the previous trial, (b) input image and input motion By evaluating the pixel attribute defined by the vector by a distance function with the attribute model of each area selected in the step (a),
A step of deriving a region shape indicating how much probability each pixel belongs to each of the region candidates; (c) region shape information derived in step (b) when an instruction to end the repetitive processing is received; Is output to the outside as a final result, otherwise, the derived region shape information is passed to the next step (d). (D) Based on the derived region shape information, Regenerating a region attribute model from an input image and the motion vector; (e) evaluating a similarity between the region attribute models generated in the step (d), wherein the similarity is higher than a predetermined threshold value In step (d), these areas are integrated into one and the area attribute model is regenerated. If there is no area to be integrated, the obtained area attribute model is Providing for step (a) and passing it to the next step (f) in preparation for the first trial; and (f) comparing the area attribute model generated in step (e) with the previous trial to determine the convergence condition. Checking whether the condition is satisfied and outputting a repetitive processing end instruction when the condition is converged.
【請求項7】画像の各領域の色成分情報や動きベクトル
など領域の属性モデルとして、位置情報の関数として与
えられる各属性の値を、直交変換関数で展開したモデ
ル、もしくは多項式により展開した高次モデルを用い
る、ことを特徴とする、請求項5又は6記載の領域形状
推定方法。
7. A model obtained by developing a value of each attribute given as a function of position information as an attribute model of a region such as color component information or a motion vector of each region of an image by an orthogonal transformation function or a polynomial. 7. The region shape estimation method according to claim 5, wherein a next model is used.
【請求項8】領域の属性モデルを用いて入力画像と画素
毎の動きベクトルから画像を分割するための領域形状情
報を導出する領域形状推定処理において、 (a)最初の試行に際しては入力として与えられる初期
領域属性モデルを選択し、それ以外の場合には、一つ前
の試行の処理(f)で生成された領域属性モデルを選択
する処理、 (b)入力画像及び入力された動きベクトルにより定義
される画素属性を、前記処理(a)で選択された各領域
の属性モデルとの距離関数で評価することにより、各画
素が領域候補のおのおのにどのくらいの確率で所属する
かを示す領域形状情報を導出する処理、 (c)前記処理(b)で前記導出された領域形状情報
を、前回の試行と比較し収束条件を満たしているか否か
を調べ、収束している場合には、繰り返し処理終了指示
を出力する処理、 (d)前記繰り返し処理終了指示を受けた場合には、前
記処理(b)で導出された領域形状を、最終結果として
出力し、それ以外の場合には、前記導出された領域形状
情報を次の処理(e)に受け渡す処理、 (e)前記導出された領域形状情報に基づき、前記入力
画像と前記動きベクトルから領域属性モデルを生成し直
す処理、及び、 (f)前記処理(e)で生成された領域属性モデル間の
類似度を評価し、前記類似度が所定の閾値よりも高い場
合には、これらの領域を一つに統合した上で前記処理
(e)に移行して領域属性モデルの再生成させるとも
に、統合すべき領域が無い場合には、得られた領域属性
モデルを次回の試行に備えて上記ステップ(a)に供す
る処理、 の各処理(a)〜(f)をコンピュータで実行させるた
めのプログラムを記録した記録媒体。
8. A region shape estimating process for deriving region shape information for dividing an image from an input image and a motion vector for each pixel by using a region attribute model, comprising the steps of: Selecting an initial region attribute model to be used, and otherwise selecting a region attribute model generated in the previous trial process (f), (b) using an input image and an input motion vector By evaluating the pixel attributes to be defined by a distance function with respect to the attribute model of each region selected in the process (a), a region shape indicating how much probability each pixel belongs to each of the region candidates (C) comparing the region shape information derived in the process (b) with a previous trial to check whether or not a convergence condition is satisfied; A process of outputting a return process end instruction; (d) outputting the region shape derived in the process (b) as a final result when the repetition process end instruction is received; Passing the derived region shape information to the next process (e); (e) regenerating a region attribute model from the input image and the motion vector based on the derived region shape information; (F) evaluating the similarity between the region attribute models generated in the process (e), and when the similarity is higher than a predetermined threshold, integrating these regions into one, The process proceeds to the process (e) to regenerate the region attribute model. If there is no region to be integrated, the obtained region attribute model is subjected to the step (a) in preparation for the next trial. Processing (a) to (f) A recording medium recording a program for implementing by computer.
【請求項9】領域の属性モデルを用いて入力画像と画素
毎の動きベクトルから画像を分割するための領域形状情
報を導出する領域形状推定処理において、 (a)最初の試行に際しては入力として与えられる初期
領域属性モデルを選択し、それ以外の場合には、一つ前
の試行の処理(f)で生成された領域属性モデルを選択
する処理、 (b)入力画像及び入力された動きベクトルにより定義
される画素属性を、前記処理(a)で選択された各領域
の属性モデルとの距離関数で評価することにより、各画
素が領域候補のおのおのにどのくらいの確率で所属する
かを示す領域形状を導出する処理、 (c)繰り返し処理終了指示を受けた場合には、前記処
理(b)で導出された領域形状情報を、最終結果として
外部に出力し、それ以外の場合には、前記導出された領
域形状情報を、次処理(d)に受け渡すステップ、 (d)前記導出された領域形状情報に基づき、前記入力
画像と前記動きベクトルから領域属性モデルを生成し直
す処理、 (e)前記処理(d)で生成された領域属性モデル間の
類似度を評価し、前記類似度が所定の閾値よりも高い場
合には、これらの領域を一つに統合して前記処理(d)
に移行して領域属性モデルの再生成させるともに、統合
すべき領域が無い場合には、得られた領域属性モデルを
次回の試行に備えて処理(a)に供すると共に次の処理
(f)に受け渡す処理、及び、 (f)前記処理(e)で生成された領域属性モデルを、
前回の試行と比較し収束条件を満たしているか否かを調
べ、収束している場合には、繰り返し処理終了指示を出
力する処理、 の各手段(a)〜(f)をコンピュータで実行させるた
めのプログラムを記録した記録媒体。
9. A region shape estimating process for deriving region shape information for dividing an image from an input image and a motion vector for each pixel using an attribute model of the region. Selecting an initial region attribute model to be used, and otherwise selecting a region attribute model generated in the previous trial process (f), (b) using an input image and an input motion vector By evaluating the pixel attributes to be defined by a distance function with respect to the attribute model of each region selected in the process (a), a region shape indicating how much probability each pixel belongs to each of the region candidates (C) when receiving an instruction to end the repetitive processing, outputs the area shape information derived in the processing (b) to the outside as a final result, otherwise, Passing the derived region shape information to the next process (d); (d) a process of regenerating a region attribute model from the input image and the motion vector based on the derived region shape information; e) The similarity between the region attribute models generated in the process (d) is evaluated. If the similarity is higher than a predetermined threshold, these regions are integrated into one and the process (d) is performed. )
Then, the region attribute model is regenerated, and if there is no region to be integrated, the obtained region attribute model is subjected to the process (a) in preparation for the next trial and to the next process (f). (F) the region attribute model generated in the process (e),
It is checked whether or not the convergence condition is satisfied by comparing with the previous trial. If the convergence condition is satisfied, the means (a) to (f) for outputting a repetitive processing end instruction are executed by the computer. Recording medium on which the program of the above is recorded.
JP36881698A 1998-12-25 1998-12-25 Area dividing method and apparatus using area attribute model Expired - Fee Related JP3196749B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36881698A JP3196749B2 (en) 1998-12-25 1998-12-25 Area dividing method and apparatus using area attribute model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36881698A JP3196749B2 (en) 1998-12-25 1998-12-25 Area dividing method and apparatus using area attribute model

Publications (2)

Publication Number Publication Date
JP2000194865A true JP2000194865A (en) 2000-07-14
JP3196749B2 JP3196749B2 (en) 2001-08-06

Family

ID=18492835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36881698A Expired - Fee Related JP3196749B2 (en) 1998-12-25 1998-12-25 Area dividing method and apparatus using area attribute model

Country Status (1)

Country Link
JP (1) JP3196749B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259974A (en) * 2001-03-02 2002-09-13 Denso Corp Image area extracting device, program and recording medium
US7508983B2 (en) 2004-10-27 2009-03-24 Denso Corporation Method and device for dividing target image, device for image recognizing process, program and storage media
JPWO2015041177A1 (en) * 2013-09-18 2017-03-02 株式会社ニコン Image analysis apparatus, image analysis method, image analysis program, cell manufacturing method, cell culture method, and cell manufacturing apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040724A (en) * 2006-08-04 2008-02-21 Sumitomo Electric Ind Ltd Image processing device and image processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259974A (en) * 2001-03-02 2002-09-13 Denso Corp Image area extracting device, program and recording medium
JP4599730B2 (en) * 2001-03-02 2010-12-15 株式会社デンソー Image region extraction device
US7508983B2 (en) 2004-10-27 2009-03-24 Denso Corporation Method and device for dividing target image, device for image recognizing process, program and storage media
JPWO2015041177A1 (en) * 2013-09-18 2017-03-02 株式会社ニコン Image analysis apparatus, image analysis method, image analysis program, cell manufacturing method, cell culture method, and cell manufacturing apparatus
US10163218B2 (en) 2013-09-18 2018-12-25 Nikon Corporation Image analysis device, image analysis method, image analysis program, cell manufacturing method, cell culturing method, and cell manufacturing device

Also Published As

Publication number Publication date
JP3196749B2 (en) 2001-08-06

Similar Documents

Publication Publication Date Title
JP6871314B2 (en) Object detection method, device and storage medium
US7986813B2 (en) Object pose estimation and comparison system using image sharpness differences, object pose estimation and comparison method using image sharpness differences, and program therefor
EP1677250B1 (en) Image collation system and image collation method
CN102236899B (en) Method and device for detecting objects
US6128410A (en) Pattern matching apparatus and method that considers distance and direction
US7162085B2 (en) Pattern recognition method and apparatus
CN112927279A (en) Image depth information generation method, device and storage medium
EP1588323B1 (en) Method of segmenting a three-dimensional structure
KR20190125029A (en) Methods and apparatuses for generating text to video based on time series adversarial neural network
CN116266387A (en) YOLOV4 image recognition algorithm and system based on re-parameterized residual error structure and coordinate attention mechanism
KR102086351B1 (en) Apparatus and method for learning machine learning models based on virtual data
JP2001076161A (en) Method and device for image processing and storage medium
US7873226B2 (en) Image encoding apparatus
JP3196749B2 (en) Area dividing method and apparatus using area attribute model
KR101506812B1 (en) Head pose estimation method using random forests and binary pattern run length matrix
Moscheni et al. Robust region merging for spatio-temporal segmentation
JP2004513439A (en) Method and apparatus for determining the number of states of a hidden Markov model in a signal processing system
KR101972095B1 (en) Method and Apparatus of adding artificial object for improving performance in detecting object
CN114677578A (en) Method and device for determining training sample data
WO2006090731A1 (en) Face image categorizing method, face image categorizing device, and face image categorizing program
JP7074723B2 (en) Learning equipment and programs
JP7331926B2 (en) LEARNING DEVICE, OBJECT DETECTION DEVICE, LEARNING METHOD, AND PROGRAM
JP4550398B2 (en) Method for representing movement of objects appearing in a sequence of images, method for identifying selection of objects in images in a sequence of images, method for searching a sequence of images by processing signals corresponding to the images, and apparatus
JP7371776B2 (en) Image classification device, image classification method, and image classification program
CN110837770B (en) Video behavior self-adaptive segmentation method and device based on multiple Gaussian models

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010508

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080608

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090608

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100608

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees