JPH11265455A - Image processing method and device - Google Patents

Image processing method and device

Info

Publication number
JPH11265455A
JPH11265455A JP10065438A JP6543898A JPH11265455A JP H11265455 A JPH11265455 A JP H11265455A JP 10065438 A JP10065438 A JP 10065438A JP 6543898 A JP6543898 A JP 6543898A JP H11265455 A JPH11265455 A JP H11265455A
Authority
JP
Japan
Prior art keywords
image
contour
feature
initial
outline
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10065438A
Other languages
Japanese (ja)
Other versions
JP3641126B2 (en
Inventor
Mayumi Yuasa
真由美 湯浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP06543898A priority Critical patent/JP3641126B2/en
Publication of JPH11265455A publication Critical patent/JPH11265455A/en
Application granted granted Critical
Publication of JP3641126B2 publication Critical patent/JP3641126B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately and effectively extract the outline of an object included in an image by dynamically extracting the outline of the object while preserving the positions of feature points which are previously designated and accordingly setting easily an accurate initial outline when the outline of the object is dynamically extracted. SOLUTION: The outline of an object included in an image is dynamically extracted while the positions of feature points which are previously designated are preserved. In such a constitution of an image processor, an image input part 1 inputs an image to the processed. Then an image display part 2 displays the inputted image, and a feature point input part 3 consists of a mouse, etc., for example, and inputs the coordinates of the feature points of an inputted object. An initial outline generation part 4 interpolates the inputted feature point to generate an initial outline. The discrete point movement part of an outline extraction part 5 moves plural discrete points excluding the feature points which specify the initial outline in order to minimize the total energy. However, the feature points which are inputted via the part 3 are not moved.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像中の対象物の
輪郭を抽出する画像処理方法及びそれを用いた画像処理
装置に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image processing method for extracting an outline of an object in an image and an image processing apparatus using the same.

【0002】[0002]

【従来の技術】従来、画像情報から物体の輪郭を抽出す
る方法としては、Snakes:Active Con
tour Models(M.Kass,et.al:
Int.J.Computer Vision,1,
321−331,1988)が提案されている。この方
法は、複数個の離散点が有する弾性エネルギーと、画像
エネルギーとの和を最小にするように離散点を移動させ
ることにより、物体の輪郭を抽出する方法である。
2. Description of the Related Art Conventionally, as a method of extracting an outline of an object from image information, there is a method called Snakes: Active Con.
tour Models (M. Kass, et. al:
Int. J. Computer Vision, 1,
321-331, 1988). In this method, the contour of an object is extracted by moving the discrete points so as to minimize the sum of the elastic energy of the plurality of discrete points and the image energy.

【0003】具体的には図11に示すように、輪郭抽出
の対象とする物体22の例えば外側に閉輪郭23を定義
する。この閉輪郭23の弾性エネルギーは次式(1)で
表される。
Specifically, as shown in FIG. 11, a closed contour 23 is defined, for example, outside the object 22 from which the contour is to be extracted. The elastic energy of the closed contour 23 is expressed by the following equation (1).

【0004】[0004]

【数1】 (Equation 1)

【0005】式(1)において、α、βはそれぞれ弾性
エネルギーの一次および二次の項の重みで、それぞれ閉
輪郭23の収縮および滑らかさに関与している。sは閉
輪郭23上での座標である。また画像エネルギーとして
は次式(2)のEimage のようなエッジなどの画像の特
徴を表すものが用いられる。
In equation (1), α and β are weights of first and second order terms of elastic energy, respectively, and are related to contraction and smoothness of the closed contour 23, respectively. s is a coordinate on the closed contour 23. As the image energy, an energy representing an image feature such as an edge such as E image in the following equation (2) is used.

【0006】[0006]

【数2】 これらのエネルギーの総和をEall とすると、次式
(3)のようになる。
(Equation 2) If the sum of these energies is E all , the following equation (3) is obtained.

【0007】[0007]

【数3】 (Equation 3)

【0008】ただし、wimage は画像エネルギーE
image の重みである。このEall が最小になるように、
閉輪郭23を移動させることにより、対象物体22の輪
郭を抽出する。
Where w image is the image energy E
The weight of the image . To minimize this E all ,
By moving the closed contour 23, the contour of the target object 22 is extracted.

【0009】しかしながら、この方式では、輪郭の初期
値が対象物の輪郭に十分近くなく、また、初期値の近傍
に対象物の輪郭ではない間違ったエッジが存在する場合
には、近くのエッジで止まってしまうという問題点があ
った。
However, according to this method, if the initial value of the contour is not sufficiently close to the contour of the object, and if there is an erroneous edge that is not the contour of the object near the initial value, a nearby edge is used. There was a problem that it stopped.

【0010】特に、心臓部の画像からの左室壁の輪郭を
抽出することは、近年、虚血性心疾患による死亡者の増
加等により、それらの疾患の診断のために、画像による
心壁の動きの解析が行なわれるようになってきているた
め、非常に重要である。心臓部の画像から左室壁の輪郭
を抽出する場合、心腔内のノイズなどの問題より、初期
輪郭を適切に設定しないと高精度な輪郭抽出結果は得ら
れないが、心臓断面の形には個人差があるため効果的な
初期輪郭を少ない手間で設定することは困難である。ま
た、エネルギー関数には多くのパラメータが含まれてい
るが、これらのパラメータを適切に設定する必要がある
という問題点があった。
In particular, extracting the contour of the left ventricle wall from an image of the heart has recently been required to increase the number of deaths due to ischemic heart disease, etc. This is very important because the analysis of the movement is being performed. When extracting the contour of the left ventricular wall from the image of the heart, due to problems such as noise in the heart chamber, a high-precision contour extraction result cannot be obtained unless the initial contour is set properly. It is difficult to set an effective initial contour with a small amount of work because of individual differences. Further, the energy function includes many parameters, but there is a problem that these parameters need to be appropriately set.

【0011】[0011]

【発明が解決しようとする課題】このように、従来、動
的輪郭モデルによる輪郭抽出方法には、各種パラメータ
の設定等、初期輪郭の適切な設定が難しいという問題点
があった。そこで、本発明は、上記問題点に鑑み、画像
中の対象物の動的輪郭抽出の際に、精確な初期輪郭の設
定が容易に行え、その結果、正確で効率的な輪郭抽出が
可能となる画像処理方法およびそれを用いた画像処理装
置を提供することを目的とする。
As described above, the conventional contour extraction method using the active contour model has a problem that it is difficult to appropriately set an initial contour such as setting various parameters. In view of the above problems, the present invention makes it possible to easily set an accurate initial contour when extracting a dynamic contour of an object in an image, and as a result, it is possible to perform accurate and efficient contour extraction. It is an object of the present invention to provide an image processing method and an image processing apparatus using the same.

【0012】[0012]

【課題を解決するための手段】(1)本発明の画像処理
方法は、入力された画像に対し入力された該画像中の対
象物の1または複数の特徴点に基づき前記対象物の初期
輪郭を生成し、前記特徴点の位置を変化させずに、前記
対象物の輪郭形状の特徴量と前記画像の特徴量と必要に
応じて与えられる前記初期輪郭の変化量との総和が最小
になるように前記初期輪郭を変形することにより、前記
画像中の対象物の輪郭を抽出することを特徴とする。
(1) An image processing method according to the present invention provides an initial contour of an object based on one or more feature points of the object in the input image. Is generated, and the total sum of the feature amount of the contour shape of the object, the feature amount of the image, and the change amount of the initial contour given as necessary is minimized without changing the position of the feature point. The contour of the object in the image is extracted by deforming the initial contour as described above.

【0013】本発明によれば、予め指定された特徴点の
位置は保存したまま、画像中の対象物の動的輪郭抽出を
行うことにより、より輪郭に近い初期輪郭の設定が容易
に行え、正確で効率的な輪郭抽出が可能となる。
According to the present invention, by extracting a dynamic contour of an object in an image while preserving the position of a feature point designated in advance, an initial contour closer to the contour can be easily set. Accurate and efficient contour extraction becomes possible.

【0014】(2)本発明の画像処理方法は、入力され
た連続する複数の画像のうちの少なくとも1つの画像に
対し入力された該画像中の対象物の1または複数の特徴
点に基づき他の画像中の特徴点を算出し、前記複数の画
像のうちの少なくとも1つの画像から前記特徴点に基づ
き前記対象物の初期輪郭を生成し、前記特徴点の位置を
変化させずに、前記対象物の輪郭形状の特徴量と前記画
像の特徴量と必要に応じて与えられる前記初期輪郭の変
化量との総和が最小になるように前記初期輪郭を変形す
ることにより、前記画像中の対象物の輪郭を抽出し、こ
の抽出された前記対象物の輪郭を後続の画像の初期輪郭
とすることを特徴とする。
(2) The image processing method according to the present invention is characterized in that at least one of a plurality of input continuous images is processed based on one or more characteristic points of an object in the input image. Calculating an initial contour of the object based on the feature points from at least one of the plurality of images, and changing a position of the feature points without changing a position of the feature points. By deforming the initial contour so that the sum of the feature amount of the contour shape of the object, the feature amount of the image, and the change amount of the initial contour given as needed, the object in the image is reduced. Is extracted, and the extracted outline of the object is used as an initial outline of a subsequent image.

【0015】本発明によれば、入力された連続する複数
の画像のうちの少なくとも1つの画像に対し入力された
該画像中の対象物の1または複数の特徴点に基づき他の
画像中の特徴点を算出し、また、直前の画像の輪郭抽出
結果を初期輪郭として用いて、各画像から特徴点の位置
は保存したまま、画像中の対象物の動的輪郭抽出を行う
ことにより、動画像中の対象物の動的輪郭抽出の際に
も、より輪郭に近い初期輪郭の設定が容易に行え、正確
で効率的な輪郭抽出が可能となる。
According to the present invention, for at least one of a plurality of input continuous images, a feature in another image based on one or more feature points of an object in the input image is input. By calculating points and using the contour extraction result of the immediately preceding image as the initial contour, the dynamic contour of the object in the image is extracted while maintaining the positions of feature points from each image. Even when extracting the active contour of the object inside, the initial contour closer to the contour can be easily set, and accurate and efficient contour extraction can be performed.

【0016】(3)上記画像処理方法において、複数の
サンプル輪郭に基づきそのサンプル輪郭上の特徴点と該
サンプル輪郭とを関係付ける操作量を算出し、必要に応
じて調整された該操作量と前記入力された画像中の特徴
点とに基づき前記対象物の初期輪郭を生成することを特
徴とする。
(3) In the above-mentioned image processing method, an operation amount for associating a feature point on the sample outline with the sample outline is calculated based on the plurality of sample outlines, and the operation amount adjusted as necessary is calculated. An initial contour of the object is generated based on the input feature points in the image.

【0017】本発明によれば、過去の輪郭抽出結果に基
づき特徴点と輪郭とを関係付ける操作量(代表ベクト
ル)を予め算出しておき、この操作量を必要に応じて調
整しながら、これから輪郭を抽出しようとしている画像
中の対象物の1または複数の特徴点に基づき前記対象物
の初期輪郭を生成することにより、より精度の高い初期
輪郭を生成することができる。
According to the present invention, an operation amount (representative vector) for associating a feature point with an outline is calculated in advance based on a past outline extraction result, and the operation amount is adjusted as needed, and By generating an initial contour of the object based on one or more feature points of the object in the image from which the contour is to be extracted, a more accurate initial contour can be generated.

【0018】(4)本発明の画像処理装置は、入力され
た画像に対し入力された該画像中の対象物の1または複
数の特徴点に基づき前記対象物の初期輪郭を生成する生
成手段と、前記特徴点の位置を変化させずに、前記対象
物の輪郭形状の特徴量と前記画像の特徴量と必要に応じ
て与えられる前記初期輪郭の変化量との総和が最小にな
るように前記初期輪郭を変形することにより、前記画像
中の対象物の輪郭を抽出する輪郭抽出手段と、を具備し
たことを特徴とする。
(4) An image processing apparatus according to the present invention includes: a generation unit configured to generate an initial contour of an object based on one or a plurality of feature points of the object in the input image. Without changing the position of the feature point, the sum of the feature amount of the contour shape of the object, the feature amount of the image, and the change amount of the initial contour given as needed is minimized. Contour extracting means for extracting a contour of the object in the image by deforming the initial contour.

【0019】本発明によれば、予め指定された特徴点の
位置は保存したまま、画像中の対象物の動的輪郭抽出を
行うことにより、より輪郭に近い初期輪郭の設定が容易
に行え、正確で効率的な輪郭抽出が可能となる。
According to the present invention, the initial contour closer to the contour can be easily set by extracting the active contour of the object in the image while preserving the position of the feature point designated in advance. Accurate and efficient contour extraction becomes possible.

【0020】(5)本発明の画像処理装置は、入力され
た連続する複数の画像のうちの少なくとも1つの画像に
対し入力された該画像中の対象物の1または複数の特徴
点に基づき他の画像中の特徴点を算出する算出手段と、
前記複数の画像のうちの少なくとも1つの画像から前記
特徴点に基づき前記対象物の初期輪郭を生成する生成手
段と、前記特徴点の位置を変化させずに、前記対象物の
輪郭形状の特徴量と前記画像の特徴量と必要に応じて与
えられる前記初期輪郭の変化量との総和が最小になるよ
うに前記初期輪郭を変形することにより、前記画像中の
対象物の輪郭を抽出する輪郭抽出手段と、を具備し、前
記輪郭抽出手段で抽出された前記対象物の輪郭を後続の
画像の初期輪郭とすることを特徴とする。
(5) The image processing apparatus according to the present invention is configured such that, based on at least one of a plurality of input continuous images, one or more feature points of an object in the input image, Calculating means for calculating feature points in the image of
Generating means for generating an initial contour of the object based on the feature point from at least one of the plurality of images; and a feature amount of a contour shape of the object without changing a position of the feature point Contour extraction for extracting a contour of an object in the image by deforming the initial contour so as to minimize the sum of a feature amount of the image and a change amount of the initial contour given as necessary. Means, wherein the contour of the object extracted by the contour extracting means is set as an initial contour of a subsequent image.

【0021】本発明によれば、入力された連続する複数
の画像のうちの少なくとも1つの画像に対し入力された
該画像中の対象物の1または複数の特徴点に基づき他の
画像中の特徴点を算出し、また、直前の画像の輪郭抽出
結果を初期輪郭として用いて、各画像から特徴点の位置
は保存したまま、画像中の対象物の動的輪郭抽出を行う
ことにより、動画像中の対象物の動的輪郭抽出の際に
も、より輪郭に近い初期輪郭の設定が容易に行え、正確
で効率的な輪郭抽出が可能となる。
According to the present invention, for at least one of a plurality of input continuous images, a feature in another image is determined based on one or more feature points of an object in the input image. By calculating points and using the contour extraction result of the immediately preceding image as the initial contour, the dynamic contour of the object in the image is extracted while maintaining the positions of feature points from each image. Even when extracting the active contour of the object inside, the initial contour closer to the contour can be easily set, and accurate and efficient contour extraction can be performed.

【0022】(6)上記画像処理装置において、前記生
成手段は、複数のサンプル輪郭に基づきそのサンプル輪
郭上の特徴点と該サンプル輪郭とを関係付ける操作量を
算出し、必要に応じて調整された該操作量と前記入力さ
れた画像中の特徴点とに基づき前記対象物の初期輪郭を
生成することを特徴とする。
(6) In the above image processing apparatus, the generating means calculates an operation amount for associating a feature point on the sample outline with the sample outline based on the plurality of sample outlines, and adjusts the operation amount as necessary. Generating an initial contour of the object based on the manipulated variable and a feature point in the input image.

【0023】本発明によれば、過去の輪郭抽出結果に基
づき特徴点と輪郭とを関係付ける操作量(代表ベクト
ル)を予め算出しておき、この操作量を必要に応じて調
整しながら、これから輪郭を抽出しようとしている画像
中の対象物の1または複数の特徴点に基づき前記対象物
の初期輪郭を生成することにより、より精度の高い初期
輪郭を生成することができる。
According to the present invention, an operation amount (representative vector) for associating a feature point with an outline is calculated in advance based on a past outline extraction result, and this operation amount is adjusted as necessary, and By generating an initial contour of the object based on one or more feature points of the object in the image from which the contour is to be extracted, a more accurate initial contour can be generated.

【0024】[0024]

【発明の実施の形態】以下、本発明の実施形態について
図面を参照して説明する。 (第1の実施形態)図1は本発明の第1の実施形態に係
る画像処理装置の構成例を概略的に示したものである。
Embodiments of the present invention will be described below with reference to the drawings. (First Embodiment) FIG. 1 schematically shows a configuration example of an image processing apparatus according to a first embodiment of the present invention.

【0025】画像入力部1は処理対象の画像を入力する
ものである。画像表示部2は画像入力部1で入力された
画像を表示するものである。特徴点入力部3は例えばマ
ウス、トラックボール、レバー、キーボードなどから構
成され、画像入力部1で入力された対象物の特徴点の座
標を入力するものである。ここでは特徴点として例えば
3点を入力するものとする。また、特徴点を入力する際
には、画像表示部2で表示された画像中に、その位置を
直接指示するようにしてもよいし、座標値で入力するよ
うにしてもよい。
The image input unit 1 is for inputting an image to be processed. The image display unit 2 displays an image input by the image input unit 1. The feature point input unit 3 includes, for example, a mouse, a trackball, a lever, a keyboard, and the like, and inputs coordinates of feature points of the object input by the image input unit 1. Here, for example, three points are input as feature points. When a feature point is input, the position may be directly specified in the image displayed on the image display unit 2 or may be input as a coordinate value.

【0026】初期輪郭生成部4では、入力された特徴点
A、B、Cを補間することにより、図3に示すような初
期輪郭を生成するようになっている。例えば、図10に
示すように、特徴点A、B、Cからなる各辺r11、r
12、r13のそれぞれの中点を外側に垂直に一定距離
移動した点y1、y2、y3を求め、特徴点とこれら各
点を通る円弧とをつないだものを初期輪郭としてもよ
い。
The initial contour generating section 4 generates an initial contour as shown in FIG. 3 by interpolating the input characteristic points A, B, and C. For example, as shown in FIG. 10, each side r11, r composed of feature points A, B, C
Points y1, y2, and y3, which are obtained by moving the respective midpoints of the points 12 and r13 vertically outward by a certain distance, may be obtained, and a feature point and an arc passing through each of these points may be used as the initial contour.

【0027】また、各辺r11、r12、r13のそれ
ぞれの中点を外側に垂直に移動する際の距離の調整は、
ユーザによってなされることが望ましい。初期輪郭生成
部4で生成される初期輪郭は、図3に示すように、複数
の離散点(特徴点A、B、Cを含む)の座標値にて特定
されるものである。
The adjustment of the distance when the middle point of each of the sides r11, r12, r13 is vertically moved outward is as follows.
Preferably, it is done by the user. As shown in FIG. 3, the initial contour generated by the initial contour generator 4 is specified by the coordinate values of a plurality of discrete points (including feature points A, B, and C).

【0028】輪郭抽出部5の構成例を図2に示す。離散
点移動部7では式(4)においてEall で表される全エ
ネルギーが最小になるように初期輪郭を特定する特徴点
以外の複数個の離散点を移動させる。ただし、特徴点入
力部3で入力した特徴点については移動させないことと
する。例えば、図3において、二重丸で表される特徴点
A、B、Cの座標値はそのままにしてそれ以外の点(黒
丸で表された点)のみを移動させる。
FIG. 2 shows an example of the configuration of the contour extraction unit 5. The discrete point moving unit 7 moves a plurality of discrete points other than the feature points for specifying the initial contour so that the total energy represented by E all in Equation (4) is minimized. However, the feature points input by the feature point input unit 3 are not moved. For example, in FIG. 3, the coordinate values of the feature points A, B, and C represented by double circles are kept as they are, and only the other points (points represented by black circles) are moved.

【0029】[0029]

【数4】 (Equation 4)

【0030】式(4)において、iは図4で表されるよ
うな複数個の離散点(特徴点を含む)の番号である。w
image (i)、wext (i)は重み係数である。Eint
(i)は初期輪郭の形状の特徴量を表す内部エネルギー
であり、本実施形態では次式(5)を用いるものとす
る。
In equation (4), i is the number of a plurality of discrete points (including feature points) as shown in FIG. w
image (i) and w ext (i) are weighting factors. E int
(I) is the internal energy representing the feature value of the shape of the initial contour. In this embodiment, the following equation (5) is used.

【0031】[0031]

【数5】 ただし、Vi =(xi 、yi )は離散点(特徴点を含
む)の位置座標である。Eimage (i)は処理対象の画
像の特徴量を表す画像エネルギーであり、ここでは式
(6)を用いる。
(Equation 5) However, V i = (x i, y i) is the coordinates of the discrete points (including the feature point). E image (i) is the image energy representing the feature amount of the image to be processed, and here, equation (6) is used.

【0032】[0032]

【数6】 (Equation 6)

【0033】Eext (i)は必要に応じて付加する外部
エネルギーで、具体的には、例えば、式(7)で表すこ
とができる。すなわち、式(7)は離散点をある点V0
から遠ざけたり、V0 に近付けたりするエネルギーであ
る。遠ざけるか近付けるかは係数kの正負によって決ま
る。
E ext (i) is an external energy to be added as required, and can be specifically expressed by, for example, equation (7). That is, equation (7) defines a discrete point as a point V 0
Or away from, the energy to or close to V 0. Whether to move closer or closer depends on the sign of the coefficient k.

【0034】[0034]

【数7】 (Equation 7)

【0035】エネルギーの総和が最小となるような離散
点の位置を求める解法として、変分法による方法を用い
る。変分法によれば式(4)が最小となるためには式
(8)のような連立方程式が成り立つことが必要であ
る。
A variational method is used as a solution for finding the position of a discrete point that minimizes the total energy. According to the variational method, simultaneous equations such as equation (8) need to be satisfied in order to minimize equation (4).

【0036】[0036]

【数8】 ただし、(Equation 8) However,

【0037】[0037]

【数9】 とする。今、x座標のみを考えるとすると、式(8)の
連立方程式はベクトル表示で次式のように表すことがで
きる。
(Equation 9) And Now, assuming only the x-coordinate, the simultaneous equations of the equation (8) can be represented by the following equation in vector representation.

【0038】[0038]

【数10】 ただし、(Equation 10) However,

【0039】[0039]

【数11】 である。この連立方程式をヤコビ法を用いて逐次近似法
で解く。Aを次式(12)のように対角行列Dとそれ以
外の部分Fに分ける。
[Equation 11] It is. This simultaneous equation is solved by the successive approximation method using the Jacobi method. A is divided into a diagonal matrix D and other parts F as in the following equation (12).

【0040】[0040]

【数12】 n回目の近似解をxn とすると、n+1回目の近似解x
n+1 は、
(Equation 12) Assuming that the n-th approximate solution is x n , the (n + 1) -th approximate solution x
n + 1 is

【0041】[0041]

【数13】 となる。ただし、γは収束速度パラメータである。(Equation 13) Becomes Here, γ is a convergence speed parameter.

【0042】以上の計算過程において、先に入力された
特徴点については移動を行なわないものとする。図2の
離散点移動部7の構成例を図5に示す。
In the above calculation process, it is assumed that the previously input feature point is not moved. FIG. 5 shows a configuration example of the discrete point moving unit 7 in FIG.

【0043】画像エネルギー算出部9、外部エネルギー
算出部10では、それぞれ式(4)におけるEimage
(i)、Eext (i)を算出する。パラメータ記憶部1
2には各エネルギーの重み係数、式(13)における行
列D、Fの要素の値、γ等が記憶されている。次座標算
出部11では、式(13)を用いて各離散点の次座標を
計算して、離散点を移動させる。
The image energy calculation section 9 and the external energy calculation section 10 respectively calculate E image in the equation (4).
(I), E ext (i) is calculated. Parameter storage unit 1
2 stores a weight coefficient of each energy, values of elements of matrices D and F in equation (13), γ, and the like. The next coordinate calculation unit 11 calculates the next coordinate of each discrete point using Expression (13), and moves the discrete point.

【0044】離散点を移動させるごとに、図2の収束判
定部8で収束条件を満たすかどうかを判定し、収束条件
を満たさない場合には再び離散点移動部7で離散点の移
動を行ない、収束条件を満たすまで繰り返す。
Each time a discrete point is moved, the convergence determining unit 8 shown in FIG. 2 determines whether the convergence condition is satisfied. If the convergence condition is not satisfied, the discrete point moving unit 7 moves the discrete point again. , Until the convergence condition is satisfied.

【0045】収束条件としては、本実施形態では式(1
4)で表されるようなn回目の繰り返しでのエネルギー
の変化量ΔEall n がある一定値より小さくなったとき
とする。
As the convergence condition, in this embodiment, the expression (1)
Assume that the energy change ΔE all n in the n-th repetition as shown in 4) becomes smaller than a certain value.

【0046】[0046]

【数14】 [Equation 14]

【0047】図2の収束判定部8の構成例を図6に示
す。エネルギー算出部13では、式(4)のEall を算
出する。それをn回目の値Eall n として、記憶部14
に記憶しておく。そしてエネルギー比較部15で、記憶
部14にあらかじめ記憶しておいたn−1回目の値E
all n-1 との差の絶対値ΔEall n を求めて、それが一
定量εより小さければ収束したと判定し、大きければ収
束していないと判定する。
FIG. 6 shows an example of the configuration of the convergence judging section 8 shown in FIG. The energy calculation unit 13 calculates E all in Expression (4). This is set as the n-th value E all n and stored in the storage unit 14.
To memorize it. Then, the energy comparison unit 15 stores the value (E-1) of the (n-1) -th time stored in the storage unit 14 in advance.
The absolute value ΔE all n of the difference from all n−1 is obtained. If the absolute value ΔE all n is smaller than the fixed amount ε, it is determined that the convergence has occurred.

【0048】図1の出力部6では、輪郭抽出部6での輪
郭抽出結果を、例えば、ディスプレイ装置に表示するよ
うになっている。以上説明したように、上記第1の実施
形態によれば、予め指定された特徴点の位置は保存した
まま、画像中の対象物の動的輪郭抽出を行うことによ
り、画像中の対象物の動的輪郭抽出の際に、より輪郭に
近い初期輪郭の設定が容易に行え、正確で効率的な輪郭
抽出が可能となる。 (第2の実施形態)図7は、本発明の第2の実施形態に
係る入力画像が動画像の場合の画像処理装置の構成例を
概略的に示したものである。なお、図1と同一部分には
同一符号を付し、異なる部分について説明する。すなわ
ち、図7では、特徴点生成部16をさらに具備してい
る。
The output unit 6 shown in FIG. 1 displays the result of contour extraction by the contour extracting unit 6 on, for example, a display device. As described above, according to the first embodiment, the active contour extraction of the object in the image is performed while the position of the feature point specified in advance is stored, so that the object in the image is extracted. At the time of active contour extraction, an initial contour closer to the contour can be easily set, and accurate and efficient contour extraction can be performed. Second Embodiment FIG. 7 schematically shows a configuration example of an image processing apparatus according to a second embodiment of the present invention when an input image is a moving image. The same parts as those in FIG. 1 are given the same reference numerals, and different parts will be described. That is, in FIG. 7, the feature point generation unit 16 is further provided.

【0049】特徴点入力部3からは、入力される動画像
の最初の1枚目の画像と、最後の画像に対し特徴点が入
力される。特徴点が入力される動画像中の第1枚目の画
像と最後の画像をここでは、代表画像と呼ぶことにす
る。
From the feature point input unit 3, feature points are input to the first and last images of the input moving image. Here, the first image and the last image in the moving image to which the feature points are input are referred to as representative images.

【0050】特徴点生成部16では、代表画像以外の画
像についての特徴点を生成するものである。すなわち、
2枚の代表画像間に挟まれる代表画像でない各画像中の
特徴点は、2枚の代表画像中の対応し合う特徴点の間で
線形補間して求める。なお、特徴点の指定された画像
(代表画像)は、1枚のみでも3枚以上あってもよい。
代表画像が1枚のみの場合は、他の画像の特徴点につい
ても、この指定された特徴点と同じとしてもよい。代表
画像が3枚以上である場合も、上記同様、その間を線形
補間して他の画像の特徴点を求めるようにしてもよい。
The feature point generator 16 generates feature points for images other than the representative image. That is,
The feature points in each non-representative image sandwiched between two representative images are obtained by linear interpolation between corresponding feature points in the two representative images. Note that the number of images (representative images) for which feature points are specified may be only one or three or more.
When there is only one representative image, the feature points of other images may be the same as the designated feature points. Even when there are three or more representative images, the feature points of other images may be obtained by linear interpolation between the representative images as described above.

【0051】輪郭抽出の際に使用する初期輪郭は、1枚
目以外については、前時相の輪郭抽出結果を利用する。
輪郭抽出方法については、第1の実施形態と同様、初期
輪郭上の特徴点以外の離散点を収束条件を満たすまで移
動させて輪郭抽出を行えばよい。
As for the initial contour used in the contour extraction, the contour extraction result of the previous time phase is used for the sections other than the first sheet.
As for the contour extraction method, as in the first embodiment, the contour extraction may be performed by moving discrete points other than the feature points on the initial contour until the convergence condition is satisfied.

【0052】以下、図7の画像処理装置の処理動作を概
略的に説明する。一枚目の画像について、画像入力部1
では目的とする画像を入力する。画像表示部2では目的
とする画像を表示する。特徴点入力部3では、特徴点の
座標を入力する。ここでは3点を入力するものとする。
入力する手段としては、マウス、トラックボール、レバ
ー、キーボードなどを用いる。初期輪郭生成部4では、
入力された特徴点を補間することにより、初期輪郭を生
成する。輪郭抽出部5については第1の実施形態と同様
とする。
Hereinafter, the processing operation of the image processing apparatus of FIG. 7 will be schematically described. Image input unit 1 for the first image
Then, input a target image. The image display unit 2 displays a target image. The feature point input unit 3 inputs the coordinates of the feature points. Here, it is assumed that three points are input.
As a means for inputting, a mouse, a trackball, a lever, a keyboard, or the like is used. In the initial contour generation unit 4,
An initial contour is generated by interpolating the input feature points. The contour extraction unit 5 is the same as in the first embodiment.

【0053】一枚目ではない代表画像について、画像入
力部1では目的とする画像を入力する。画像表示部2で
は目的とする画像を表示する。特徴点入力部3では、特
徴点の座標を入力する。ここでは3点を入力するものと
する。入力する手段としては、マウス、トラックボー
ル、レバー、キーボードなどを用いる。輪郭抽出部5に
ついては第1の実施形態と同様とするが、初期輪郭とし
ては、直前の画像の輪郭抽出結果を用いる。
For the representative image other than the first image, the image input unit 1 inputs a target image. The image display unit 2 displays a target image. The feature point input unit 3 inputs the coordinates of the feature points. Here, it is assumed that three points are input. As a means for inputting, a mouse, a trackball, a lever, a keyboard, or the like is used. The outline extracting unit 5 is the same as that of the first embodiment, but the result of extracting the outline of the immediately preceding image is used as the initial outline.

【0054】代表画像ではない画像について、画像入力
部1では目的とする画像を入力する。特徴点生成部16
において、特徴点の座標を算出する。輪郭抽出部5につ
いては第1の実施形態と同様とするが、初期輪郭として
は、直前の画像の輪郭抽出結果を用いる。
For an image that is not a representative image, the image input unit 1 inputs a target image. Feature point generation unit 16
, The coordinates of the feature points are calculated. The outline extracting unit 5 is the same as that of the first embodiment, but the result of extracting the outline of the immediately preceding image is used as the initial outline.

【0055】以上説明したように、上記第2の実施形態
によれば、連続する複数の画像のうちの少なくとも1枚
の代表画像(例えば、1枚目の画像と最後の画像)に対
し入力された該画像中の対象物の1または複数の特徴点
から他の画像中の特徴点を求め、複数の画像のうちの少
なくとも1つの画像(例えば、1枚目の画像)から指定
された特徴点に基づき該対象物の初期輪郭を生成して特
徴点の位置を保存したまま該初期輪郭を変形することに
より該対象物の輪郭を抽出したら、それを後続の画像の
初期輪郭として用いて、以下同様に各画像から該対象物
の輪郭を抽出することにより、動画像中の対象物の動的
輪郭抽出の際にも、より輪郭に近い初期輪郭の設定が容
易に行え、正確で効率的な輪郭抽出が可能となる。 (第3の実施形態)本発明の第3の実施形態に係る画像
処理装置は図1、図7と同様であり、初期輪郭生成部4
の構成および処理動作が異なる。
As described above, according to the second embodiment, at least one representative image (for example, the first image and the last image) of a plurality of continuous images is input. A feature point in another image is obtained from one or more feature points of the object in the image, and a feature point specified from at least one image (for example, the first image) of the plurality of images. After extracting the contour of the object by generating the initial contour of the object based on and deforming the initial contour while preserving the position of the feature point, using it as the initial contour of the subsequent image, Similarly, by extracting the contour of the object from each image, it is possible to easily set the initial contour closer to the contour even when extracting the dynamic contour of the object in the moving image, and to achieve accurate and efficient Contour extraction becomes possible. (Third Embodiment) An image processing apparatus according to a third embodiment of the present invention is the same as in FIGS.
Are different in configuration and processing operation.

【0056】図8は、初期輪郭生成部4の構成例を示し
たものでる。特徴点記憶部17には、図1および図7の
特徴点入力部3から入力された特徴点(例えば3点)の
座標データを記憶する。例えば、図9に示すように、特
徴点A、B、Cが指定されたとする。
FIG. 8 shows an example of the configuration of the initial contour generator 4. The feature point storage unit 17 stores the coordinate data of the feature points (for example, three points) input from the feature point input unit 3 in FIG. 1 and FIG. For example, assume that feature points A, B, and C are designated as shown in FIG.

【0057】代表ベクトル生成部18では、すでに輪郭
の抽出されている複数のサンプル輪郭データから、その
各サンプル輪郭データ中の特徴点(その輪郭を抽出する
際にユーザにより指定されたもの)と該輪郭形状とを関
係付けるための操作量として代表ベクトルを生成する。
すなわち、各サンプル輪郭データのそれぞれから、1ま
たは複数の隣り合う特徴点間を結んで作られる単純図形
(特徴点の数により定まり、例えば、特徴点が3点であ
るなら3角形)の各辺(特徴点と特徴点とを結ぶ線分)
上の点(特徴点と特徴点とを結ぶ線分の中点あるいは、
該線分上の複数のサンプル点のそれぞれ)から該輪郭ま
での距離値を1次元のベクトルの集合として求める。例
えば、図9において、特徴点A、B、Cでつくられる線
分AB、BC(図9中、線分m1、m2)の中点あるい
は各線分m1、m2上の複数のサンプル点のそれぞれか
ら輪郭までの距離を求め、それを1次元のベクトルで表
す。その際、必要に応じて線分m1、m2の長さで正規
化を行ってもよい。そして、例えば、複数のサンプルデ
ータ内で対応し合う線分どうしで距離の平均値をとる、
すなわち、ベクトルの平均値を求める、あるいは複数の
サンプルデータベクトルに対して主成分分析を行い、第
1主成分ベクトルのみを取り出すといった統計処理によ
り、各線分を外側に広げる広げ方を定める代表ベクトル
を生成する。このようにして生成された代表ベクトルは
代表ベクトル記憶部19で記憶される。
The representative vector generation unit 18 extracts a feature point (specified by the user when extracting the contour) from each of the plurality of sample contour data from which the contour has been extracted. A representative vector is generated as an operation amount for associating with a contour shape.
That is, from each of the sample contour data, each side of a simple figure (determined by the number of feature points, for example, a triangle if there are three feature points) formed by connecting one or more adjacent feature points (Line segment connecting feature points)
The upper point (the midpoint of the line connecting the feature points or
A distance value from each of the plurality of sample points on the line segment to the contour is obtained as a set of one-dimensional vectors. For example, in FIG. 9, each of a plurality of sample points on line segments AB and BC (in FIG. 9, line segments m1 and m2) formed by feature points A, B, and C, or each of the line segments m1 and m2. The distance to the contour is determined and is represented by a one-dimensional vector. At this time, if necessary, normalization may be performed using the lengths of the line segments m1 and m2. And, for example, taking the average value of the distance between corresponding line segments in a plurality of sample data,
That is, a representative vector that determines how to extend each line segment outward by statistical processing such as obtaining an average value of vectors or performing principal component analysis on a plurality of sample data vectors and extracting only the first principal component vector is obtained. Generate. The representative vector generated in this way is stored in the representative vector storage unit 19.

【0058】パラメータ入力部20には、代表ベクトル
をこれから輪郭を抽出しようとしている画像中の対象物
の形状の特徴に適合させるべく、そのためにユーザによ
り選択された調整量としてのパラメータが入力するよう
になっている。このパラメータとしては、例えば、図9
の特徴点を結ぶ線分m1、m2を外側に広げる際の広げ
方の程度を定める任意の定数であってもよい。
In order to adapt the representative vector to the characteristics of the shape of the object in the image from which the contour is to be extracted, the parameter input unit 20 is used to input a parameter as an adjustment amount selected by the user for that purpose. It has become. As this parameter, for example, FIG.
May be an arbitrary constant that determines the degree of expansion when the line segments m1 and m2 connecting the characteristic points are spread outward.

【0059】パラメータ入力部20を介してパラメータ
が入力されると、輪郭生成部21では、代表ベクトル記
憶部19に記憶されている代表ベクトルに該パラメータ
を乗じて、初期輪郭を生成する。
When a parameter is input via the parameter input unit 20, the contour generation unit 21 multiplies the representative vector stored in the representative vector storage unit 19 by the parameter to generate an initial contour.

【0060】輪郭生成部21では、例えば、図10に示
すように、特徴点A、B、Cからなる各辺r11、r1
2、r13のそれぞれの中点を代表ベクトルの向き(す
なわち、各辺から外側に向く方向)へ該代表ベクトルの
大きさに上記パラメータを乗じた値だけ移動した点y
1、y2、y3を求め、特徴点とこれら各点を通る円弧
とをつないて初期輪郭を生成する。
In the contour generating unit 21, for example, as shown in FIG. 10, each side r11, r1 of feature points A, B, C
A point y obtained by moving the middle point of each of r2 and r13 in the direction of the representative vector (that is, in the direction facing outward from each side) by the value obtained by multiplying the magnitude of the representative vector by the parameter
1, y2, and y3 are determined, and an initial contour is generated by connecting the feature points and the arcs passing through these points.

【0061】以上説明したように、上記第3の実施形態
によれば、過去の輪郭抽出結果に基づき特徴点と輪郭と
を関係付ける操作量(代表ベクトル)を予め算出してお
き、この操作量を必要に応じて調整しながら、これから
輪郭を抽出しようとしている画像中の対象物の1または
複数の特徴点に基づき前記対象物の初期輪郭を生成する
ことにより、より精度の高い初期輪郭を生成することが
できる。
As described above, according to the third embodiment, an operation amount (representative vector) for associating a feature point with an outline is calculated in advance based on the past outline extraction result, and this operation amount is calculated. Generating an initial contour of the object based on one or more feature points of the object in the image from which the contour is to be extracted, while adjusting as necessary, thereby generating a more accurate initial contour. can do.

【0062】本発明は上記第1〜第3実施形態に限定さ
れるものではない。収束判定部8における収束条件とし
ては、エネルギーの変化量による方法をあげたが、複数
個の離散点の移動量がある一定値より小さくなったと
き、あるいはこのような条件で収束しない場合もあるこ
とを考慮して、繰り返しの回数で収束させる、すなわ
ち、ある一定回数収束演算を行なったら収束したとみな
すようにすることもできる。
The present invention is not limited to the first to third embodiments. As the convergence condition in the convergence determination unit 8, a method based on the amount of change in energy has been described. However, there are cases where the amount of movement of a plurality of discrete points becomes smaller than a certain value, or where convergence is not achieved under such conditions. In consideration of this, it is also possible to converge with the number of repetitions, that is, to conclude that the convergence has been performed after a certain number of convergence calculations.

【0063】また、エネルギー最小化の方法として、変
分法による方法を使用したが、他の方法、例えば動的計
画法を用いても差し支えない。また、エッジ検出方法と
しては、グラディエント法を用いたが、他のエッジ検出
方法を用いても差し支えない。例えば、ソーベルオペレ
ータを用いる方法、グラディエントを求めた後、2値化
する方法などが考えられる。
Although the variational method has been used as the energy minimizing method, other methods such as a dynamic programming method may be used. Although the gradient method is used as the edge detection method, another edge detection method may be used. For example, a method using a Sobel operator, a method in which a gradient is obtained, and then binarization is considered.

【0064】また、特徴点として上記第1〜第3の実施
形態では、3点の場合について示したが、それ以上ある
いはそれ以下であっても差し支えない。特に、画像入力
部1から入力される処理対象の画像が、X線、MRI、
聴音波診断装置等から得られる心臓部左心室像であると
き、特徴点は、心尖部1点、弁輪部両端の2点とするこ
とが望ましい。
In the above-described first to third embodiments, three points have been described. However, the number of points may be more or less. In particular, the processing target image input from the image input unit 1 includes X-ray, MRI,
In the case of an image of the heart left ventricle obtained from an acoustic diagnostic apparatus or the like, it is desirable that the characteristic points are one point at the apex and two points at both ends of the valve annulus.

【0065】[0065]

【発明の効果】以上説明したように、本発明によれば、
画像中の対象物の動的輪郭抽出の際に、より輪郭に近い
初期輪郭の設定が容易に行え、正確で効率的な輪郭抽出
が可能となる。
As described above, according to the present invention,
When an active contour is extracted from an object in an image, an initial contour closer to the contour can be easily set, and accurate and efficient contour extraction can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態に係る画像処理装置の
構成例を示した図。
FIG. 1 is a diagram showing a configuration example of an image processing apparatus according to a first embodiment of the present invention.

【図2】輪郭抽出部の構成例を示した図。FIG. 2 is a diagram showing a configuration example of a contour extraction unit.

【図3】入力された特徴点の一例を示した図。FIG. 3 is a diagram showing an example of an input feature point.

【図4】複数の離散点(特徴点を含む)から構成される
初期輪郭の一例を示した図。
FIG. 4 is a diagram showing an example of an initial contour composed of a plurality of discrete points (including feature points).

【図5】離散点移動部の構成例を示した図。FIG. 5 is a diagram showing a configuration example of a discrete point moving unit.

【図6】収束判定部の構成例を示した図。FIG. 6 is a diagram illustrating a configuration example of a convergence determination unit.

【図7】本発明の第2の実施形態に係る画像処理装置の
構成例を示した図。
FIG. 7 is a diagram illustrating a configuration example of an image processing apparatus according to a second embodiment of the present invention.

【図8】本発明の第3の実施形態に係る画像処理装置の
初期輪郭生成部の構成例を示した図。
FIG. 8 is a diagram illustrating a configuration example of an initial contour generation unit of an image processing device according to a third embodiment of the present invention.

【図9】代表ベクトルの生成方法を説明するための図。FIG. 9 is a view for explaining a method of generating a representative vector.

【図10】初期輪郭生成方法を説明するための図。FIG. 10 is a diagram for explaining an initial contour generation method.

【図11】従来の輪郭抽出処理について説明するための
図で、輪郭抽出の対象となる物体の外側に閉輪郭を定義
して初期値としていた場合を示している。
FIG. 11 is a diagram for explaining a conventional contour extraction process, and shows a case where a closed contour is defined outside a target object for contour extraction and set as an initial value.

【符号の説明】[Explanation of symbols]

1…画像入力部 2…画像表示部 3…特徴点入力部 4…初期輪郭生成部 5…輪郭抽出部 6…出力部 7…離散点移動部 8…収束判定部 9…画像エネルギー算出部 10…外部エネルギー算出部 11…次座標算出部 12…記憶部 13…エネルギー算出部 14…記憶部 15…エネルギー比較部 16…特徴点生成部 17…特徴点記憶部 18…代表ベクトル生成部 19…代表ベクトル記憶部 20…パラメータ入力部 21…輪郭生成部 22…輪郭抽出の対象となる物体 23…閉輪郭 REFERENCE SIGNS LIST 1 image input unit 2 image display unit 3 feature point input unit 4 initial contour generation unit 5 outline extraction unit 6 output unit 7 discrete point moving unit 8 convergence determination unit 9 image energy calculation unit 10 External energy calculation unit 11 ... Next coordinate calculation unit 12 ... Storage unit 13 ... Energy calculation unit 14 ... Storage unit 15 ... Energy comparison unit 16 ... Feature point generation unit 17 ... Feature point storage unit 18 ... Representative vector generation unit 19 ... Representative vector Storage unit 20: Parameter input unit 21: Outline generation unit 22: Object to be subjected to outline extraction 23: Closed outline

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 入力された画像に対し入力された該画像
中の対象物の1または複数の特徴点に基づき前記対象物
の初期輪郭を生成し、前記特徴点の位置を変化させず
に、前記対象物の輪郭形状の特徴量と前記画像の特徴量
と必要に応じて与えられる前記初期輪郭の変化量との総
和が最小になるように前記初期輪郭を変形することによ
り、前記画像中の対象物の輪郭を抽出することを特徴と
する画像処理方法。
1. An initial contour of an object is generated based on one or a plurality of feature points of the object in the input image, and the position of the feature point is not changed. By deforming the initial contour so that the sum of the feature amount of the contour shape of the object, the feature amount of the image, and the change amount of the initial contour given as needed is minimized, An image processing method characterized by extracting a contour of an object.
【請求項2】 入力された連続する複数の画像のうちの
少なくとも1つの画像に対し入力された該画像中の対象
物の1または複数の特徴点に基づき他の画像中の特徴点
を算出し、 前記複数の画像のうちの少なくとも1つの画像から前記
特徴点に基づき前記対象物の初期輪郭を生成し、 前記特徴点の位置を変化させずに、前記対象物の輪郭形
状の特徴量と前記画像の特徴量と必要に応じて与えられ
る前記初期輪郭の変化量との総和が最小になるように前
記初期輪郭を変形することにより、前記画像中の対象物
の輪郭を抽出し、この抽出された前記対象物の輪郭を後
続の画像の初期輪郭とすることを特徴とする画像処理方
法。
2. A method for calculating a feature point in another image based on one or more feature points of an object in the input image for at least one image among a plurality of input continuous images. Generating an initial contour of the object based on the feature points from at least one of the plurality of images, and changing a feature amount of the contour shape of the object without changing a position of the feature point; The contour of the object in the image is extracted by deforming the initial contour so that the sum of the feature amount of the image and the change amount of the initial contour given as needed is minimized. An image processing method, wherein the contour of the object is used as an initial contour of a subsequent image.
【請求項3】 複数のサンプル輪郭に基づきそのサンプ
ル輪郭上の特徴点と該サンプル輪郭とを関係付ける操作
量を算出し、必要に応じて調整された該操作量と前記入
力された画像中の特徴点とに基づき前記対象物の初期輪
郭を生成することを特徴とする請求項1または2記載の
画像処理方法。
3. An operation amount for associating a feature point on the sample outline with the sample outline is calculated based on the plurality of sample outlines, and the operation amount adjusted as necessary and the operation amount in the input image are calculated. The image processing method according to claim 1, wherein an initial contour of the object is generated based on a feature point.
【請求項4】 入力された画像に対し入力された該画像
中の対象物の1または複数の特徴点に基づき前記対象物
の初期輪郭を生成する生成手段と、 前記特徴点の位置を変化させずに、前記対象物の輪郭形
状の特徴量と前記画像の特徴量と必要に応じて与えられ
る前記初期輪郭の変化量との総和が最小になるように前
記初期輪郭を変形することにより、前記画像中の対象物
の輪郭を抽出する輪郭抽出手段と、 を具備したことを特徴とする画像処理装置。
And generating means for generating an initial contour of the object based on one or a plurality of feature points of the object in the input image, wherein the position of the feature point is changed. Instead, by deforming the initial contour so that the sum of the feature amount of the contour shape of the object, the feature amount of the image, and the change amount of the initial contour given as needed is minimized, An image processing apparatus comprising: a contour extraction unit configured to extract a contour of an object in an image.
【請求項5】 入力された連続する複数の画像のうちの
少なくとも1つの画像に対し入力された該画像中の対象
物の1または複数の特徴点に基づき他の画像中の特徴点
を算出する算出手段と、 前記複数の画像のうちの少なくとも1つの画像から前記
特徴点に基づき前記対象物の初期輪郭を生成する生成手
段と、 前記特徴点の位置を変化させずに、前記対象物の輪郭形
状の特徴量と前記画像の特徴量と必要に応じて与えられ
る前記初期輪郭の変化量との総和が最小になるように前
記初期輪郭を変形することにより、前記画像中の対象物
の輪郭を抽出する輪郭抽出手段と、 を具備し、 前記輪郭抽出手段で抽出された前記対象物の輪郭を後続
の画像の初期輪郭とすることを特徴とする画像処理装
置。
5. A method for calculating a feature point in another image based on at least one of a plurality of feature points of an object in the input image among at least one of the plurality of input continuous images. Calculating means; generating means for generating an initial contour of the object based on the feature points from at least one of the plurality of images; contours of the object without changing the positions of the feature points By deforming the initial contour so that the sum of the feature amount of the shape, the feature amount of the image, and the change amount of the initial contour given as needed is minimized, the contour of the object in the image is transformed. An image processing apparatus, comprising: a contour extraction unit for extracting, wherein a contour of the object extracted by the contour extraction unit is set as an initial contour of a subsequent image.
【請求項6】 前記生成手段は、複数のサンプル輪郭に
基づきそのサンプル輪郭上の特徴点と該サンプル輪郭と
を関係付ける操作量を算出し、必要に応じて調整された
該操作量と前記入力された画像中の特徴点とに基づき前
記対象物の初期輪郭を生成することを特徴とする請求項
4または5記載の画像処理装置。
6. The method according to claim 1, wherein the generating unit calculates an operation amount for associating a feature point on the sample outline with the sample outline based on a plurality of sample outlines, and adjusts the operation amount adjusted as necessary and the input amount. The image processing apparatus according to claim 4, wherein an initial contour of the object is generated based on a feature point in the image.
JP06543898A 1998-03-16 1998-03-16 Image processing method and image processing apparatus Expired - Fee Related JP3641126B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06543898A JP3641126B2 (en) 1998-03-16 1998-03-16 Image processing method and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06543898A JP3641126B2 (en) 1998-03-16 1998-03-16 Image processing method and image processing apparatus

Publications (2)

Publication Number Publication Date
JPH11265455A true JPH11265455A (en) 1999-09-28
JP3641126B2 JP3641126B2 (en) 2005-04-20

Family

ID=13287143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06543898A Expired - Fee Related JP3641126B2 (en) 1998-03-16 1998-03-16 Image processing method and image processing apparatus

Country Status (1)

Country Link
JP (1) JP3641126B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008204479A (en) * 2001-12-03 2008-09-04 Microsoft Corp Method for automatic detection and tracking of multiple individuals using multiple cues and computer readable storage medium
JP2017148438A (en) * 2016-02-26 2017-08-31 東芝メディカルシステムズ株式会社 Medical image processing device, ultrasonic diagnostic device, and medical image processing program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008204479A (en) * 2001-12-03 2008-09-04 Microsoft Corp Method for automatic detection and tracking of multiple individuals using multiple cues and computer readable storage medium
US7428315B2 (en) 2001-12-03 2008-09-23 Microsoft Corporation Automatic detection and tracking of multiple individuals using multiple cues
US7433495B2 (en) 2001-12-03 2008-10-07 Microsoft Corporation Automatic detection and tracking of multiple individuals using multiple cues
KR100905793B1 (en) * 2001-12-03 2009-07-02 마이크로소프트 코포레이션 Automatic detection and tracking of multiple individuals using multiple cues
JP2017148438A (en) * 2016-02-26 2017-08-31 東芝メディカルシステムズ株式会社 Medical image processing device, ultrasonic diagnostic device, and medical image processing program

Also Published As

Publication number Publication date
JP3641126B2 (en) 2005-04-20

Similar Documents

Publication Publication Date Title
JP4026901B2 (en) Method and apparatus for determining the epicardial boundary of the myocardium
Liu et al. Perceptually based approach for planar shape morphing
US20050169536A1 (en) System and method for applying active appearance models to image analysis
US20090238404A1 (en) Methods for using deformable models for tracking structures in volumetric data
Ebrahimi et al. A composite iterative procedure with fast convergence rate for the progressive-iteration approximation of curves
US20030020714A1 (en) Method of segmenting a three-dimensional structure contained in an object, notably for medical image analysis
US20030006984A1 (en) Image processing method for displaying an image sequence of a deformable 3-D object with indications of the object wall motion
US8149237B2 (en) Information processing apparatus and program
JP4138371B2 (en) Anatomical feature position detecting device, recording medium, subject structure measuring device, and recording medium
JP4644794B2 (en) Image recognition device
JP2006527619A (en) Image segmentation in time series images
EP1851721B1 (en) A method, a system and a computer program for segmenting a surface in a multidimensional dataset
CN113782184A (en) Cerebral apoplexy auxiliary evaluation system based on facial key point and feature pre-learning
EP0318293B1 (en) Apparatus and method for processing tomographic data
EP1573672B1 (en) Method of segmenting a three-dimensional data set allowing user corrections
JPH11265455A (en) Image processing method and device
Parthasarathy et al. Spatiotemporal visualization of the tongue surface using ultrasound and kriging (SURFACES)
US7030874B2 (en) Method of following the three-dimensional deformation of a deformable organ
JP3392690B2 (en) Image processing method and image processing apparatus
JP2002282237A (en) Succeeding deformation of structure per unit length defined concerning image of image sequence of organ deformable with lapse of time
JPH07320068A (en) Method and processor for image processing
JP3392608B2 (en) Image processing apparatus and method
JP7372697B1 (en) Similar drawing search device, similar drawing search method, and similar drawing search program
JPH11345342A (en) Method and device for retrieving time series image, and recording medium having recorded time series image retrieval program
Sallam et al. Screening mammograms images for abnormalities developing over time

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041026

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050120

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080128

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090128

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100128

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100128

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110128

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120128

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130128

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 9

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees