JP2006011996A - Method and device for extracting object contour - Google Patents

Method and device for extracting object contour Download PDF

Info

Publication number
JP2006011996A
JP2006011996A JP2004190694A JP2004190694A JP2006011996A JP 2006011996 A JP2006011996 A JP 2006011996A JP 2004190694 A JP2004190694 A JP 2004190694A JP 2004190694 A JP2004190694 A JP 2004190694A JP 2006011996 A JP2006011996 A JP 2006011996A
Authority
JP
Japan
Prior art keywords
extracting
contour
user
area
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004190694A
Other languages
Japanese (ja)
Inventor
Takanori Shimada
孝徳 島田
Masaki Sato
正樹 佐藤
Kazuya Takagi
一也 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004190694A priority Critical patent/JP2006011996A/en
Publication of JP2006011996A publication Critical patent/JP2006011996A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily extract contours of a target object from a complicated background image without requiring proficiency in tools. <P>SOLUTION: In this method for extracting object contour, an area which a user desires to cutout is specified in a two-dimensional image (S203), Delaunay processing is performed (S205) between pixels constituting an edge of an image to which edge extraction processing is performed (S204), after the area is approximated to the object (S206) based on a weighting function on the Delaunay network from the area specified by the user to the inside, intellectual scissors processing is performed while treating each of the adjacent pixels as a pair of starting point and end point from a pixel to be the first node to a pixel to be the next node and extracts the object contours (S207). <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は複雑な背景の2次元画像から、画像の中にあるオブジェクトの輪郭をできるだけ正確に切り取るオブジェクト輪郭抽出方法およびオブジェクト輪郭抽出装置に関する。   The present invention relates to an object contour extracting method and an object contour extracting apparatus for cutting out the contour of an object in an image as accurately as possible from a complex two-dimensional image.

複雑な背景の画像からオブジェクトを切り取るには従来、特許文献1および非特許文献1、2に示すような技術がある。   Conventionally, there are techniques shown in Patent Document 1 and Non-Patent Documents 1 and 2 for cutting out an object from a complex background image.

図6は特許文献1に記載された画像処理方法を説明する図で、図6(a)は入力画像を色特性に基づいて色ごとに領域分割したことを示す図、図6(b)はフローチャートにおけるS5とS6の処理を説明する図である。特許文献1における処理では、まず図6(a)に示す画像を入力し、画像の色の特性を取得する。つぎに、領域分割処理を利用して入力画像を図6(a)に示すように、家22、ビル23、樹木24、空25、土壌26を色成分毎の領域に分割する。つぎにユーザが図6(b)の太線42に示すように切り取りたいオブジェクトを多角形で囲んで領域を指定し、指定した領域の等高線41、42、43、44、45を指定した領域の内外に引く。つぎに各等高線41、42、43、44、45の内側における家の画像を含む画素数からどの等高線41、42、43、44、45がオブジェクトの領域として適切かを判断し、オブジェクトの領域としての等高線を選択してオブジェクトの領域を抽出する。つぎに、抽出した等高線からより精密にオブジェクトを切り取るために、たとえば非特許文献2に示すような輪郭抽出方式を行って最終的なオブジェクトの輪郭とする。   FIG. 6 is a diagram for explaining the image processing method described in Patent Document 1. FIG. 6A is a diagram showing that an input image is divided into regions based on color characteristics, and FIG. It is a figure explaining the process of S5 and S6 in a flowchart. In the processing in Patent Document 1, first, the image shown in FIG. 6A is input, and the color characteristics of the image are acquired. Next, as shown in FIG. 6A, the region 22, the house 23, the tree 24, the tree 24, the sky 25, and the soil 26 are divided into regions for each color component by using region division processing. Next, the user designates a region by enclosing the object to be cut with a polygon as shown by a thick line 42 in FIG. 6B, and the contours 41, 42, 43, 44, 45 of the designated region are inside and outside the designated region. Pull on. Next, it is determined which contour line 41, 42, 43, 44, 45 is appropriate as the object area from the number of pixels including the image of the house inside each contour line 41, 42, 43, 44, 45. Select the contour line of to extract the object area. Next, in order to cut out an object more precisely from the extracted contour line, for example, a contour extraction method as shown in Non-Patent Document 2 is performed to obtain a final object contour.

図7は非特許文献1に示す処理を説明する図である。図7(a)は入力画像に円で示す始点Aと矩形で示す終点Bを指定し、非特許文献1の処理を行った結果破線47のように領域をたどったことを示す図である。図7(b)は非特許文献1の処理で入力画像にグラジエント(Gradient)処理を行った結果を数値で示し、始点Aと終点Bを示した図である。図7(c)は重み関数に基づいて始点Aから終点Bまで経路探索した結果を示す図である。   FIG. 7 is a diagram for explaining the processing shown in Non-Patent Document 1. FIG. 7A is a diagram showing that a region indicated by a broken line 47 is traced as a result of performing the processing of Non-Patent Document 1 by specifying a start point A indicated by a circle and an end point B indicated by a rectangle in the input image. FIG. 7B is a diagram showing the numerical result of the gradient process performed on the input image in the process of Non-Patent Document 1, and showing the start point A and the end point B. FIG. 7C is a diagram illustrating a result of a route search from the start point A to the end point B based on the weight function.

非特許文献1に示す方式では以下のようにしてオブジェクトの輪郭を抽出する。まず、図7(a)に示す画像を入力する。つぎに、入力画像に対してグラジエント処理を行い、図7(b)に示す数値空間を作成し、円形で示す始点Aと矩形で示す終点Bを指定する。始点Aと終点Bが指定されると、始点Aから終点Bまで各画素間で重み関数に基づいた重みを計算し、始点Aから終点Bまでの重みの総和が最も軽くなる経路を求める。この処理をオブジェクトの輪郭に沿って適切な間隔で繰り返すことによりオブジェクトの輪郭を取り出す。   In the method shown in Non-Patent Document 1, the outline of an object is extracted as follows. First, the image shown in FIG. Next, a gradient process is performed on the input image, a numerical space shown in FIG. 7B is created, and a start point A indicated by a circle and an end point B indicated by a rectangle are designated. When the start point A and the end point B are designated, the weight based on the weight function is calculated between the pixels from the start point A to the end point B, and the path with the smallest sum of the weights from the start point A to the end point B is obtained. By repeating this process at an appropriate interval along the contour of the object, the contour of the object is extracted.

図8(a)と図8(b)は非特許文献2に示す処理を説明する図である。図8(a)は入力図にオブジェクト抽出するための領域を指定したことを示す図、図8(b)はオブジェクトの輪郭を抽出した図である。   FIG. 8A and FIG. 8B are diagrams illustrating the processing shown in Non-Patent Document 2. FIG. 8A is a diagram showing that an area for extracting an object is designated in the input diagram, and FIG. 8B is a diagram in which the contour of the object is extracted.

非特許文献2に示す方式では以下のようにしてオブジェクトの輪郭を抽出する。入力画像に対して図8(a)に点列Pで一例を示すように複数の点をユーザが所望するオブジェクトの回りに指定領域として入力し、指定された点を線で繋いで指定領域とする。次に、入力画像に対してグラジエント処理を行って図7(b)に示したような数値空間を形成し、エネルギー関数に基づいて指定領域の内側に指定領域を遷移させて、図8(b)に示すようにオブジェクトの領域を抽出する。
特開平11−45345号公報 Eric Mortensen and William Barrett 著 「Intelligent Scissors for Image Composition」 インターネット<URL:http://ihome.ust.hk/~fuhb/doc/Intelligent Scissors for Image Composition.pdf> M. Kass, A. Witkin, and D. Terzopoulos 著 「Snakes: Active Contour Models」 the First International Conference on Computer Vision, London, England、259頁〜268頁、 June 1987
In the method shown in Non-Patent Document 2, the outline of an object is extracted as follows. As shown by an example of a point sequence P in FIG. 8A for the input image, a plurality of points are input as a designated area around an object desired by the user, and the designated points are connected by a line. To do. Next, a gradient process is performed on the input image to form a numerical space as shown in FIG. 7B, and the designated area is shifted to the inside of the designated area based on the energy function. ) Extract the object area as shown in FIG.
Japanese Patent Laid-Open No. 11-45345 Eric Mortensen and William Barrett “Intelligent Scissors for Image Composition” Internet <URL: http://ihome.ust.hk/~fuhb/doc/Intelligent Scissors for Image Composition.pdf> M. Kass, A. Witkin, and D. Terzopoulos "Snakes: Active Contour Models" the First International Conference on Computer Vision, London, England, pp. 259-268, June 1987

特許文献1に示す技術ではオブジェクトを囲む多角形を指定しなければならずユーザの負担が高いという課題があった。   In the technique shown in Patent Document 1, there is a problem that a polygon surrounding an object has to be specified and the burden on the user is high.

非特許文献1に示す手法では以下の課題があった。
(a)角張ったオブジェクトを切り出す場合に丸みを帯びてしまう。
(b)複雑な背景でのオブジェクトを切り出す場合には、オブジェクト周辺まで輪郭が収束していかない。
The technique shown in Non-Patent Document 1 has the following problems.
(A) When an angular object is cut out, the object is rounded.
(B) When an object with a complicated background is cut out, the contour does not converge to the periphery of the object.

非特許文献2に示す手法では以下の課題があった。
(a)始点と終点を複数組指定して切り出す手間が必要である。
(b)オブジェクトの形状によっては、始点と終点を細かく指定しなければならないなど、ツールへの習熟が必要であった。
The technique shown in Non-Patent Document 2 has the following problems.
(A) It is necessary to cut out by specifying a plurality of sets of start points and end points.
(B) Depending on the shape of the object, it is necessary to master the tool, such as having to specify the start point and end point in detail.

このように、特許文献1および非特許文献1、2に示される従来技術は、複雑な背景でオブジェクトの形状をできるだけ正確に切り出すためには、ユーザの手間が大きくなるという課題があった。   As described above, the prior arts disclosed in Patent Document 1 and Non-Patent Documents 1 and 2 have a problem that the user's effort is increased in order to cut out the shape of the object with a complicated background as accurately as possible.

本発明はこのような課題を解決するもので、ツールに習熟する必要無く、複雑な背景画像から目的のオブジェクトの輪郭を簡単に抽出することができるオブジェクト輪郭抽出方法およびオブジェクト輪郭抽出装置を提供することを目的とする。   The present invention solves such a problem, and provides an object contour extraction method and an object contour extraction device that can easily extract the contour of a target object from a complex background image without the need to learn a tool. For the purpose.

この課題を解決するために本発明は、エッジ抽出処理された画像のエッジを構成する画素間でネットワークを構成して、ユーザが指定した領域から内側へネットワーク上で重み付け関数に基づいて領域をオブジェクトに近づけることにより、ユーザに従来よりも手間のかからないオブジェクト輪郭抽出装置を提供するものである。   In order to solve this problem, the present invention forms a network between pixels constituting the edge of an image subjected to edge extraction processing, and objects the region based on a weighting function on the network from the region specified by the user to the inside. Thus, the object contour extracting device is provided to the user, which is less time-consuming than in the past.

本発明の第1の態様によるオブジェクト輪郭抽出方法は、2次元の画像から所望するオブジェクトの輪郭を抽出する場合に、ユーザが前記2次元の画面に所望の切り取り領域を指定し、前記ユーザが指定した前記切り取り領域に基づいて前記オブジェクトの輪郭を抽出するものである。本態様によれば、ツールに習熟する必要無く、複雑な背景画像から目的のオブジェクトの輪郭を簡単に抽出することができる。   In the object contour extraction method according to the first aspect of the present invention, when the contour of a desired object is extracted from a two-dimensional image, the user designates a desired clipping region on the two-dimensional screen, and the user designates The outline of the object is extracted based on the cut area. According to this aspect, it is possible to easily extract the contour of a target object from a complex background image without having to become familiar with the tool.

本発明の第2の態様によるオブジェクト輪郭抽出方法は、2次元の画像にユーザが切り取り領域を指定するステップと、前記ユーザが指定した前記切り取り領域のエッジを抽出するステップと、前記切り取り領域のエッジを構成する画素間によりネットワークを構成するステップと、前記ネットワーク上で前記ユーザが指定した前記切り取り領域から内側へ、重み付け関数に基づいて、前記ネットワークを切り取り領域内のオブジェクトに近づけるステップと、前記ネットワークの最初のノードとなる画素から次のノードとなる画素まで各隣り合う画素を一対の始点と終点として取り扱いながら知的鋏処理を行って前記オ
ブジェクトの輪郭を抽出するステップとを有するものである。本態様によれば、ツールに習熟する必要無く、複雑な背景画像から目的のオブジェクトの輪郭を簡単に抽出することができる。
The object contour extraction method according to the second aspect of the present invention includes a step in which a user designates a cutout region in a two-dimensional image, a step of extracting an edge of the cutout region designated by the user, and an edge of the cutout region Forming a network with the pixels constituting the network, moving the network closer to an object in the clipping area based on a weighting function inward from the clipping area specified by the user on the network, and the network A step of extracting an outline of the object by performing an intelligent wrinkling process while treating each adjacent pixel from the first node to the next node as a pair of start and end points. According to this aspect, it is possible to easily extract the contour of a target object from a complex background image without having to become familiar with the tool.

本発明の第3の態様によるオブジェクト輪郭抽出装置は、2次元の画像から所望するオブジェクトの輪郭を抽出する場合に、ユーザが前記2次元の画面に所望の切り取り領域を指定するユーザインタフェースと、前記切り取り領域のエッジを抽出するエッジ抽出手段と、前記切り取り領域のエッジを構成する画素間によりネットワークを構成するネットワーク構成手段と、前記オブジェクトの周囲まで前記切り取り領域を遷移させたオブジェクト領域を抽出するオブジェクト領域抽出手段と、抽出した前記オブジェクト領域のデータに基づいて前記オブジェクトの輪郭を抽出するオブジェクト輪郭抽出手段とを備えたものである。本態様によれば、ツールに習熟する必要無く、複雑な背景画像から目的のオブジェクトの輪郭を簡単に抽出することができる。   An object contour extraction apparatus according to a third aspect of the present invention provides a user interface for a user to specify a desired cutout area on the two-dimensional screen when extracting a contour of a desired object from a two-dimensional image; Edge extracting means for extracting the edge of the cut area, network forming means for forming a network by pixels constituting the edge of the cut area, and an object for extracting the object area obtained by transitioning the cut area to the periphery of the object An area extracting means and an object outline extracting means for extracting the outline of the object based on the extracted data of the object area are provided. According to this aspect, it is possible to easily extract the contour of a target object from a complex background image without having to become familiar with the tool.

本発明の第4の態様は、第3の態様によるオブジェクト輪郭抽出装置において、オブジェクト領域抽出手段は、ネットワーク構成手段で構成したネットワークを用いてユーザが指定した前記切り取り領域から所望するオブジェクトの輪郭の周囲まで、前記切り取り領域を遷移させるものである。本態様によれば、ツールに習熟する必要無く、複雑な背景画像から目的のオブジェクトの輪郭を簡単に抽出することができる。   According to a fourth aspect of the present invention, in the object contour extracting apparatus according to the third aspect, the object region extracting unit is configured to obtain a contour of a desired object from the cut region specified by the user using the network configured by the network configuring unit. The cut region is shifted to the periphery. According to this aspect, it is possible to easily extract the contour of a target object from a complex background image without having to become familiar with the tool.

本発明の第5の態様は、第3の態様によるオブジェクト輪郭抽出装置において、オブジェクト輪郭抽出手段は、前記ノード列と前記知的鋏を用いて前記オブジェクトの輪郭を抽出するものである。本態様によれば、ツールに習熟する必要無く、複雑な背景画像から目的のオブジェクトの輪郭を簡単に抽出することができる。   According to a fifth aspect of the present invention, in the object contour extracting apparatus according to the third aspect, the object contour extracting means extracts the contour of the object using the node sequence and the intelligent trap. According to this aspect, it is possible to easily extract the contour of a target object from a complex background image without having to become familiar with the tool.

本発明によれば、ユーザはオブジェクトを囲む矩形などの単純な多角形や楕円を指定するか、または、オブジェクトの中心を指定する等の単純な操作により、ツールに習熟する必要無く、複雑な背景画像から目的のオブジェクトの輪郭を抽出することができる。   According to the present invention, a user can specify a simple polygon or ellipse such as a rectangle enclosing an object, or specify a center of an object, so that the user does not need to become familiar with the tool. The contour of the target object can be extracted from the image.

以下本発明の実施の形態について、図面を用いて説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(実施の形態1)
図1乃至図5は本発明の実施の形態に関わるオブジェクト輪郭抽出処理を説明する図である。本実施の形態ではネットワークとしてドロネー網を用いたオブジェクト抽出処理について説明する。具体的には、読み込んだ画像にエッジ抽出処理を行い、その結果得られたエッジ画素をノードとしてドロネー網を構成する。ユーザがオブジェクト領域を指定すると、指定領域の内側にあるオブジェクトの輪郭を抽出して表示するものである。
(Embodiment 1)
1 to 5 are diagrams for explaining object contour extraction processing according to the embodiment of the present invention. In the present embodiment, an object extraction process using a Delaunay network as a network will be described. Specifically, an edge extraction process is performed on the read image, and a Delaunay network is configured using the edge pixels obtained as a result as nodes. When the user designates the object area, the outline of the object inside the designated area is extracted and displayed.

図1はオブジェクト抽出処理装置の全体構成図で、オブジェクト輪郭抽出処理装置1、処理対象とする入力画像データベース2およびユーザインタフェース3の3つの要素から構成されている。オブジェクト輪郭抽出処理装置1はオブジェクト抽出処理においてエッジの抽出処理を行うエッジ処理部10、抽出したエッジ画素間でドロネー網を構成するネットワーク構成部11、構成したドロネー網上において、指定領域内部でオブジェクトを抽出するオブジェクト領域抽出部12、ドロネー網上で抽出したオブジェクトに近いエッジ画素と知的鋏を用いて画像上で切り取るオブジェクトの輪郭を切り取る処理を行うオブジェクト輪郭抽出部13、およびこれらの各構成要素の制御を行う制御部14から構成されている。   FIG. 1 is an overall configuration diagram of an object extraction processing device, which is composed of three elements: an object contour extraction processing device 1, an input image database 2 to be processed, and a user interface 3. The object contour extraction processing device 1 includes an edge processing unit 10 that performs edge extraction processing in the object extraction processing, a network configuration unit 11 that configures a Delaunay network between the extracted edge pixels, and an object within a designated area on the configured Delaunay network. Object region extraction unit 12 for extracting the object, object contour extraction unit 13 for performing processing for cutting out the contour of the object to be cut out on the image using edge pixels close to the object extracted on the Delaunay network, and intelligent selection, and each of these components It is comprised from the control part 14 which controls an element.

入力画像データベース2は、オブジェクトの輪郭を抽出するための2次元の画像データが蓄積されているデータベースであり、あらかじめ画像データが蓄積されているが、新たに追加したり、不要なものを除去することもできる。ユーザは、ユーザインタフェース3を利用して、この入力画像データベース2からオブジェクトの輪郭を抽出するための画像を選択してオブジェクト輪郭抽出処理装置1に入力する。   The input image database 2 is a database in which two-dimensional image data for extracting the outline of an object is accumulated. Image data is accumulated in advance, but newly added or unnecessary ones are removed. You can also. The user uses the user interface 3 to select an image for extracting the contour of the object from the input image database 2 and input it to the object contour extraction processing device 1.

ユーザインタフェース3はユーザが入力画像データベース2からオブジェクトの輪郭を抽出するための画像を入力する入力装置および処理中の画像を表示する画像表示装置を備えている。   The user interface 3 includes an input device for inputting an image for the user to extract the outline of the object from the input image database 2 and an image display device for displaying the image being processed.

つぎに図1におけるオブジェクト輪郭抽出装置の動作を図2のフローチャートとともに、説明する。オブジェクト抽出処理は制御部14から起動される。オブジェクト抽出処理が起動されると(S201)、入力画像データベース2から図5(a)に示すような入力画像51を入力する(S202)。つぎに、図5(b)のように、ユーザがユーザインタフェース3によりオブジェクト切り取り領域52を指定する(S203)。オブジェクト切り取り領域52の指定は、矩形等の単純な多角形や楕円形など任意の閉曲線で囲んで指定したり、切り取り領域の中心を指定するなどの単純な操作により行なわれる。   Next, the operation of the object contour extracting apparatus in FIG. 1 will be described with reference to the flowchart of FIG. The object extraction process is activated from the control unit 14. When the object extraction process is started (S201), an input image 51 as shown in FIG. 5A is input from the input image database 2 (S202). Next, as shown in FIG. 5B, the user designates the object cutout area 52 through the user interface 3 (S203). The object cut-out area 52 is specified by a simple operation such as enclosing with an arbitrary closed curve such as a simple polygon such as a rectangle or an ellipse, or specifying the center of the cut-out area.

つぎに、エッジ処理部10で入力した画像のエッジ抽出を行う(S204)。エッジ抽出した画素はネットワーク構成部11で図5(f)のようにノードとしてドロネー網56を構成する(S205)。つぎに、オブジェクト領域抽出部12を起動してオブジェクト領域の抽出処理をする(S206)。オブジェクト領域の抽出処理は図3に示すフローチャートに従って行われる。まず、オブジェクト領域抽出処理を起動すると(S301)、図5(g)に示すようにドロネー網56上にあり、かつオブジェクト切り取り領域52の内部で最も外側のノードを抽出してポリゴンを構成してカレントポリゴン(currentPolygon)53とする。その際ユーザインタフェース3上に図5(c)に黒の実線で示すようにカレントポリゴン53を表示しても良い(S302)。ここで、カレントポリゴン53とは処理対象となっているポリゴンのことである。   Next, the edge extraction of the image input by the edge process part 10 is performed (S204). The edge-extracted pixel forms a Delaunay network 56 as a node in the network configuration unit 11 as shown in FIG. 5F (S205). Next, the object area extraction unit 12 is activated to perform object area extraction processing (S206). The object area extraction processing is performed according to the flowchart shown in FIG. First, when the object area extraction process is started (S301), a polygon is formed by extracting the outermost node on the Delaunay network 56 and inside the object cutout area 52 as shown in FIG. Let it be a current polygon 53. At this time, the current polygon 53 may be displayed on the user interface 3 as shown by a solid black line in FIG. 5C (S302). Here, the current polygon 53 is a polygon to be processed.

カレントポリゴン53はドロネー網56を構成するノードとリンクから構成されており、それぞれカレントノード(currentNodes)とカレントリンク(currentLinks)と呼ぶ。カレントリンクを構成する各リンクは、リンク両端の各ノードを構成する画素に関連する値またはノード間、すなわち、ノードを構成する画素間に基づく重み関数により重みの値を持つカレントノードに接続する。   The current polygon 53 includes nodes and links that constitute the Delaunay network 56, and is referred to as a current node (currentNodes) and a current link (currentLinks), respectively. Each link constituting the current link is connected to a current node having a weight value by a value related to the pixels constituting each node at both ends of the link or between the nodes, that is, a weight function based on the pixels constituting the node.

つぎに、カレントノードの内側のノードで構成されるポリゴンでカレントリンクを構成する各リンクの重みの総和より小さくなるネクストポリゴン(nextPolygon)があるかを調べる(S303)。無い場合は終了する(S306)。ある場合はネクストポリゴンを新たなカレントポリゴンにする(S304)。次に予め指定された終了条件、例えばカレントポリゴンとネクストポリゴンで変更したノード数が閾値以下となった場合等を満たすかを調べ(S305)、満たしている場合はオブジェクト領域抽出処理を終了する(S306)。満たしていない場合はS303に戻り、カレントノードの内側のノードで構成されるポリゴンでカレントリンクを構成する各リンクの重みの総和より小さくなるネクストポリゴン(nextPolygon)があるかを調べるステップを予め指定された終了条件が満たされるまで繰り返す。すなわち、ユーザが指定したオブジェクト切り取り領域52から所望するオブジェクトの輪郭の周辺まで領域を遷移させる。   Next, it is checked whether there is a next polygon (nextPolygon) that is smaller than the sum of the weights of the links constituting the current link among the polygons formed by nodes inside the current node (S303). If not, the process ends (S306). If there is, the next polygon is made a new current polygon (S304). Next, it is checked whether or not an end condition specified in advance, for example, when the number of nodes changed in the current polygon and the next polygon is equal to or less than a threshold value is satisfied (S305). S306). If not, the process returns to S303, and a step for checking whether there is a next polygon (nextPolygon) that is smaller than the sum of the weights of the links constituting the current link among the polygons inside the current node is designated in advance. Repeat until the end condition is met. That is, the region is shifted from the object cut region 52 specified by the user to the periphery of the contour of the desired object.

オブジェクト領域抽出処理を終了した際のドロネー網56にあるカレントポリゴンは、図5(h)に示すような状態のカレントポリゴン54となる。なお、この状態のカレントポリゴン54を、ユーザインタフェース3上で図5(d)に黒の実線で示すように入力画
像51に重ねて表示しても良い。
The current polygon in the Delaunay network 56 when the object area extraction processing is completed becomes the current polygon 54 in a state as shown in FIG. Note that the current polygon 54 in this state may be displayed on the user interface 3 so as to overlap the input image 51 as indicated by a solid black line in FIG.

オブジェクト領域抽出処理(S206)を終了すると(S306)、制御部14はオブジェクト輪郭抽出部13を起動し(S207)、図4のフローチャートに示すオブジェクト輪郭抽出処理を開始する(S401)。まず、最初のノードとなる画素から次のノードとなる画素まで各隣り合う画素を一対の始点と終点として取り扱いながら知的鋏処理を行う(S402)。この知的鋏処理は非特許文献1に記載されている方法と同様にして行われる。この知的鋏処理(S402)をオブジェクト領域を構成する画素がなくなるまで繰り返し(S403)、オブジェクト領域を構成する画素がなくなったら知的鋏処理(S402)を終了し(S404)、図5(e)に示すオブジェクト輪郭抽出の抽出結果55をユーザインタフェース3に表示して、オブジェクト輪郭抽出処理を終了する(S208)。   When the object area extraction process (S206) is completed (S306), the control unit 14 activates the object outline extraction unit 13 (S207), and starts the object outline extraction process shown in the flowchart of FIG. 4 (S401). First, an intelligent selection process is performed while treating each adjacent pixel from the first node to the next node as a pair of start and end points (S402). This intelligent wrinkle processing is performed in the same manner as the method described in Non-Patent Document 1. This intelligent selection process (S402) is repeated until there are no pixels constituting the object area (S403). When there are no more pixels constituting the object area, the intelligent selection process (S402) is terminated (S404), and FIG. ) Is displayed on the user interface 3, and the object contour extraction process is terminated (S208).

本発明にかかるオブジェクト抽出処理は、切り出したオブジェクトを別の背景画像に貼り付けて画像を合成する処理として有用である。また、画像検索において、標本画像(クエリー画像)からオブジェクトの特徴量を抽出して、オブジェクトが撮影されている画像を検索する際に、標本画像(クエリー画像)からオブジェクトを抽出する際に有用である。また、移動体をトラッキングする処理において、移動体を表示する際に移動体の輪郭を表示する際に、本発明を動画の各フレームに適用することにより移動体の輪郭を抽出して表示することが可能である。   The object extraction process according to the present invention is useful as a process for combining an image by pasting the clipped object on another background image. Also, in image search, it is useful when extracting an object from a sample image (query image) when extracting the feature amount of the object from the sample image (query image) and searching for an image in which the object is photographed. is there. In the process of tracking the moving object, when the moving object is displayed, the outline of the moving object is extracted and displayed by applying the present invention to each frame of the moving image. Is possible.

本発明の実施例によるオブジェクト輪郭抽出装置の全体構成を示すブロック図The block diagram which shows the whole structure of the object outline extraction apparatus by the Example of this invention 本発明の実施例によるオブジェクト輪郭抽出方法の処理全体のフローチャートThe flowchart of the whole process of the object outline extraction method by the Example of this invention 本発明の実施例によるオブジェクト輪郭抽出装置のオブジェクト領域抽出処理を示すフローチャートThe flowchart which shows the object area | region extraction process of the object outline extraction apparatus by the Example of this invention. 本発明の実施例によるオブジェクト輪郭抽出装置のオブジェクト輪郭抽出処理を示すフローチャートThe flowchart which shows the object outline extraction process of the object outline extraction apparatus by the Example of this invention. (a)本発明の実施例によるオブジェクト輪郭抽出装置における入力画像を示す図(b)本発明の実施例によるオブジェクト輪郭抽出装置におけるユーザが抽出部を設定した状態を示す図(c)(b)で指定した抽出部から最初のカレントポリゴンを抽出したことを示す図(d)本発明の実施例によるオブジェクト輪郭抽出装置におけるオブジェクト領域を抽出した図(e)本発明の実施例によるオブジェクト輪郭抽出装置におけるオブジェクト領域からオブジェクト輪郭を抽出した図(f)(a)の入力図から構成したドロネー網を示す図(g)本発明の実施例によるオブジェクト輪郭抽出装置におけるドロネー網上で最初のカレントポリゴンを抽出したことを説明する図(h)本発明の実施例によるオブジェクト輪郭抽出装置におけるドロネー網上でオブジェクト領域を抽出したことを説明する図(A) The figure which shows the input image in the object outline extraction apparatus by the Example of this invention (b) The figure which shows the state in which the user in the object outline extraction apparatus by the Example of this invention set the extraction part (c) (b) FIG. 4D is a diagram showing that the first current polygon is extracted from the extraction unit specified in FIG. 4D. FIG. 5E is a diagram showing an object region extracted in the object contour extracting device according to the embodiment of the present invention. (F) A diagram showing a Delaunay network constructed from the input diagrams of (a) and (a) in which an object contour is extracted from the object region in (g). FIG. 6 (h) is a diagram for explaining the extraction; the object outline extraction apparatus according to the embodiment of the present invention Diagram for explaining the extraction of the object area on Natick network (a)従来の画像処理方法における入力画像を色特性に基づいて色事に領域分割したこと示す図(b)従来の画像処理方法のフローチャートにおける要部の処理を説明する図(A) The figure which divided the area | region into the input image in the conventional image processing method according to color characteristics (b) The figure explaining the process of the principal part in the flowchart of the conventional image processing method (a)従来の画像処理方法の入力画像に円で示す始点Aと矩形で示す終点Bを指定し処理を行った結果を示す図(b)従来の画像処理方法の入力画像にグラジエント処理を行った結果を数値で示した図(c)従来の画像処理方法の重み関数に基づいて視点から終点まで経路探索した結果を示す図(A) The figure which shows the result of having specified and processed the start point A shown with a circle and the end point B shown with a rectangle in the input image of the conventional image processing method, (b) Gradient processing is performed on the input image of the conventional image processing method (C) A diagram showing a result of a route search from a viewpoint to an end point based on a weight function of a conventional image processing method (a)従来の画像処理方法において入力図にオブジェクト抽出するための領域を指定したことを示す図(b)従来の従来の画像処理方法においてオブジェクトの輪郭を抽出した図(A) The figure which showed having specified the area | region for object extraction to the input figure in the conventional image processing method (b) The figure which extracted the outline of the object in the conventional conventional image processing method

符号の説明Explanation of symbols

1 オブジェクト輪郭抽出装置
2 入力画像データベース
3 ユーザインタフェース
10 エッジ処理部
11 ネットワーク構成部
12 オブジェクト領域抽出部
13 オブジェクト輪郭抽出部
14 制御部
51 入力画像
52 オブジェクト切り取り領域
53 カレントポリゴン
54 オブジェクト領域抽出処理の終了したカレントポリゴン
55 オブジェクト輪郭の抽出結果
56 ドロネー網


DESCRIPTION OF SYMBOLS 1 Object outline extraction apparatus 2 Input image database 3 User interface 10 Edge processing part 11 Network structure part 12 Object area extraction part 13 Object outline extraction part 14 Control part 51 Input image 52 Object clipping area 53 Current polygon 54 End of object area extraction processing Current polygon 55 Object contour extraction result 56 Delaunay network


Claims (5)

2次元の画像から所望するオブジェクトの輪郭を抽出する場合に、ユーザが前記2次元の画面に所望の切り取り領域を指定し、前記ユーザが指定した前記切り取り領域に基づいて前記オブジェクトの輪郭を抽出するオブジェクト輪郭抽出方法。 When extracting the contour of a desired object from a two-dimensional image, the user designates a desired cutout area on the two-dimensional screen, and extracts the outline of the object based on the cutout area designated by the user. Object contour extraction method. 2次元の画像にユーザが切り取り領域を指定するステップと、
前記ユーザが指定した前記切り取り領域のエッジを抽出するステップと、
前記切り取り領域のエッジを構成する画素間によりネットワークを構成するステップと、前記ネットワーク上で前記ユーザが指定した前記切り取り領域から内側へ、重み付け関数に基づいて、前記ネットワークを切り取り領域内のオブジェクトに近づけるステップと、前記ネットワークの最初のノードとなる画素から次のノードとなる画素まで各隣り合う画素を一対の始点と終点として取り扱いながら知的鋏処理を行って前記オブジェクトの輪郭を抽出するステップと
を有するオブジェクト輪郭抽出方法。
A user specifies a cropping region in a two-dimensional image;
Extracting the edge of the cut region specified by the user;
A step of forming a network by pixels constituting edges of the cut region, and moving the network closer to an object in the cut region based on a weighting function inward from the cut region specified by the user on the network A step of extracting an outline of the object by performing an intelligent wrinkling process while treating each adjacent pixel as a pair of start point and end point from a pixel which is the first node of the network to a pixel which is the next node. An object contour extracting method.
2次元の画像から所望するオブジェクトの輪郭を抽出する場合に、ユーザが前記2次元の画面に所望の切り取り領域を指定するユーザインタフェースと、
前記切り取り領域のエッジを抽出するエッジ抽出手段と、
前記切り取り領域のエッジを構成する画素間によりネットワークを構成するネットワーク構成手段と、
前記オブジェクトの周囲まで前記切り取り領域を遷移させたオブジェクト領域を抽出するオブジェクト領域抽出手段と、
抽出した前記オブジェクト領域のデータに基づいて前記オブジェクトの輪郭を抽出するオブジェクト輪郭抽出手段と
を備えたオブジェクト輪郭抽出装置。
A user interface that allows a user to specify a desired cutout area on the two-dimensional screen when extracting a contour of a desired object from a two-dimensional image;
An edge extracting means for extracting an edge of the cut region;
Network configuration means for configuring a network between pixels constituting the edge of the cut-out area;
An object region extracting means for extracting an object region obtained by transitioning the cut region to the periphery of the object;
An object contour extracting apparatus comprising: object contour extracting means for extracting the contour of the object based on the extracted data of the object region.
前記オブジェクト領域抽出手段は、前記ネットワーク構成手段で構成したネットワークを用いてユーザが指定した前記切り取り領域から所望するオブジェクトの輪郭の周囲まで、前記切り取り領域を遷移させることを特徴とする請求項3に記載のオブジェクト輪郭抽出装置。 4. The object area extracting unit shifts the cut area from the cut area specified by a user to a periphery of a desired object outline using a network configured by the network configuration unit. The object contour extraction device described. 前記オブジェクト輪郭抽出手段は、前記ノード列と前記知的鋏を用いて前記オブジェクトの輪郭を抽出することを特徴とする請求項3に記載のオブジェクト輪郭抽出装置。

4. The object contour extracting apparatus according to claim 3, wherein the object contour extracting means extracts the contour of the object using the node sequence and the intelligent trap.

JP2004190694A 2004-06-29 2004-06-29 Method and device for extracting object contour Pending JP2006011996A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004190694A JP2006011996A (en) 2004-06-29 2004-06-29 Method and device for extracting object contour

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004190694A JP2006011996A (en) 2004-06-29 2004-06-29 Method and device for extracting object contour

Publications (1)

Publication Number Publication Date
JP2006011996A true JP2006011996A (en) 2006-01-12

Family

ID=35779174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004190694A Pending JP2006011996A (en) 2004-06-29 2004-06-29 Method and device for extracting object contour

Country Status (1)

Country Link
JP (1) JP2006011996A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103268384A (en) * 2013-06-01 2013-08-28 哈尔滨工业大学 Method for extracting structure outlines orderly
KR101577764B1 (en) * 2014-05-28 2015-12-15 (주)테슬라시스템 Providing Method of Predicted Putting Trace of Golf Green in Mobile Terminal

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103268384A (en) * 2013-06-01 2013-08-28 哈尔滨工业大学 Method for extracting structure outlines orderly
KR101577764B1 (en) * 2014-05-28 2015-12-15 (주)테슬라시스템 Providing Method of Predicted Putting Trace of Golf Green in Mobile Terminal

Similar Documents

Publication Publication Date Title
CN109376681B (en) Multi-person posture estimation method and system
CN107767328B (en) Migration method and system of any style and content generated based on small amount of samples
CN112348783A (en) Image-based person identification method and device and computer-readable storage medium
KR20190109732A (en) Method and apparatus for synthesizing kanji printed characters images
CN109903276A (en) Convolutional neural networks RGB-D conspicuousness detection method based on multilayer fusion
CN107516290B (en) Image conversion network acquisition method and device, computing equipment and storage medium
EP4075373A1 (en) Image processing method and apparatus
CN112712546A (en) Target tracking method based on twin neural network
KR100813168B1 (en) Method for extracting object in digital image with shape prior and system for executing the method
KR20180067909A (en) Apparatus and method for segmenting image
Shi et al. A benchmark and baseline for language-driven image editing
CN106251348A (en) A kind of self adaptation multi thread towards depth camera merges background subtraction method
JP6389742B2 (en) Image segmentation method, apparatus, and program
CN112528811A (en) Behavior recognition method and device
JP2008146278A (en) Cell outline extraction device, cell outline extraction method and program
CN115294055A (en) Image processing method, image processing device, electronic equipment and readable storage medium
CN114372931A (en) Target object blurring method and device, storage medium and electronic equipment
CN115965844B (en) Multi-focus image fusion method based on visual saliency priori knowledge
CN107767332A (en) A kind of single image depth recovery method and system in real time
JP2006011996A (en) Method and device for extracting object contour
KR101592087B1 (en) Method for generating saliency map based background location and medium for recording the same
CN115631489A (en) Three-dimensional semantic scene completion method, device, equipment and medium
CN113869395A (en) Light-weight underwater target detection method based on feature fusion and neural network search
CN104574429A (en) Automatic selection method for intersection hot spots in panorama roaming
JP2014149788A (en) Object area boundary estimation device, object area boundary estimation method, and object area boundary estimation program