JP2006208339A - Region-extracting device, microscope system and region-extracting program - Google Patents

Region-extracting device, microscope system and region-extracting program Download PDF

Info

Publication number
JP2006208339A
JP2006208339A JP2005024513A JP2005024513A JP2006208339A JP 2006208339 A JP2006208339 A JP 2006208339A JP 2005024513 A JP2005024513 A JP 2005024513A JP 2005024513 A JP2005024513 A JP 2005024513A JP 2006208339 A JP2006208339 A JP 2006208339A
Authority
JP
Japan
Prior art keywords
image
region
area
intermediate image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005024513A
Other languages
Japanese (ja)
Inventor
Yoshinori Ono
義典 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2005024513A priority Critical patent/JP2006208339A/en
Publication of JP2006208339A publication Critical patent/JP2006208339A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enable a region corresponding to an object to be extracted accurately from an image obtained by photographing the object. <P>SOLUTION: A region-extracting device 1 is provide, which comprises; a photographing section 3 for photographing the image of the object OB and generating image data; an image input section 4c for receiving an input of the image data from the photographic section 3; a region-segmenting section 4d for segmenting the image into a plurality of regions, based on respective pixel values making up the image data, in order to generate an intermediate image region; a similarity-computing section 4e for computing the degree of similarity between adjacent intermediate image regions, based on feature quantities representing respective features of the segmented intermediate image regions; a region-integrating section 4f for integrating intermediate image regions adjacent to each other based on the degree of similarity computed, in order to form an object image region, corresponding to the object OB; a parameter-computing section 4g for obtaining a region parameter, representing the characteristics of the formed object image region; and an outputting section 5 for displaying, based on the computed region parameter. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、入力された画像データが示す画像中の撮像対象について画像処理を行う領域抽出装置、顕微鏡システムおよび領域抽出プログラムに関し、特に入力された画像データが示す画像の中から撮像対象に対応する領域を抽出する領域抽出装置、顕微鏡システムおよび領域抽出プログラムに関するものである。   The present invention relates to an area extraction device, a microscope system, and an area extraction program that perform image processing on an imaging target in an image indicated by input image data, and particularly corresponds to an imaging target from images indicated by input image data. The present invention relates to a region extraction apparatus, a microscope system, and a region extraction program for extracting a region.

従来、デジタルカメラや撮像装置を備えた顕微鏡等によって撮像し取得した画像を所望の領域に分割したり、取得した画像から特定の撮像対象に対応する領域を抽出したりする画像処理技術が、様々な分野で利用され、重要な技術となっている。たとえば、病理医学の分野では、このような画像処理技術が、顕微鏡画像から細胞に対応する領域を抽出する方法として利用され、病理学的な診断を下したり、試薬を作用させた細胞の経時変化を観測したりするなどの場面において、重要な技術となっている。   Conventionally, there are various image processing techniques for dividing an image captured and acquired by a microscope or the like equipped with a digital camera or an imaging device into desired regions, or extracting a region corresponding to a specific imaging target from the acquired images. It is used in various fields and has become an important technology. For example, in the field of pathology, such an image processing technique is used as a method for extracting a region corresponding to a cell from a microscopic image, and a pathological diagnosis is made or the time of a cell on which a reagent is applied is changed. It is an important technology in situations such as observing changes.

通常、細胞を撮像した画像では、複数の細胞が重なり合い、連結した1つの細胞として観測される。このような連結細胞から、視覚的に違和感のないように、境界線に忠実に個々の細胞の領域を分割して抽出する細胞画像処理方法が提案されている(たとえば、特許文献1参照)。この細胞画像処理方法では、細胞を撮像した原画像を低感度で2値化して実際の数よりも少なく細胞の領域を抽出した少なめ細胞画像と、原画像を高感度で2値化して実際の数よりも多く細胞の領域を抽出した多め細胞画像とを生成し、少なめ細胞画像の分割対象領域に対応する多め細胞画像の画像領域から、連結細胞を構成する個々の細胞の境界線を分割線として抽出し、抽出した分割線を少なめ細胞画像の分割対象領域に当てはめることによって個々の細胞に対応する領域を分割し抽出するようにしている。   Usually, in an image obtained by imaging cells, a plurality of cells overlap and are observed as one connected cell. A cell image processing method has been proposed in which individual cell regions are divided and extracted from such connected cells so as to avoid visually uncomfortable feeling (for example, see Patent Document 1). In this cell image processing method, an original image obtained by capturing cells is binarized with low sensitivity to extract a cell region less than the actual number, and the original image is binarized with high sensitivity to obtain an actual image. A large cell image is generated by extracting more cell areas than the number, and the boundary lines of the individual cells constituting the connected cell are divided from the image area of the larger cell image corresponding to the division target area of the smaller cell image. And by applying the extracted dividing lines to the division target areas of the cell image, the areas corresponding to the individual cells are divided and extracted.

特開平5−274422号公報JP-A-5-274422

ところで、画像上で観測される連結細胞では、重なり合った細胞の境界線の両端部で各細胞の輪郭線がなす交角は、必ずしも180度より大きくなるとは限らず、つまり、連結細胞の輪郭形状は、必ずしも凹状になるとは限らない。たとえば、図10に示すように楕円形状の2つの細胞が重なり合って1つに観測される連結細胞ARの場合、端点T1,T2を結ぶ境界線T1−T2に関して、一方の端点T1部では、2つの細胞の輪郭線がなす交角θ1は180度より大きく、輪郭形状は凹状となっているが、他方の端点T2部では、2つの細胞の輪郭線がなす交角θ2は約180度であり、ほぼ直線状の輪郭形状となっている。   By the way, in the connected cells observed on the image, the intersection angle formed by the contour lines of the cells at both ends of the boundary line of the overlapping cells is not necessarily larger than 180 degrees, that is, the contour shape of the connected cells is However, it is not always concave. For example, as shown in FIG. 10, in the case of a connected cell AR in which two elliptical cells overlap and are observed as one, with respect to a boundary line T1-T2 connecting the end points T1 and T2, one end point T1 has 2 The intersection angle θ1 formed by the outline of one cell is greater than 180 degrees and the outline shape is concave, but at the other end point T2, the intersection angle θ2 formed by the outline of the two cells is about 180 degrees, It has a linear contour shape.

一方、上述した従来の細胞画像処理方法では、連結細胞の輪郭線上にあってこの輪郭線のなす角があらかじめしきい値として設定された角度以上である点を分割候補点として抽出し、分割候補点が2点以上抽出された場合、各分割候補点に対応する境界線を分割線として抽出するようにしている。分割候補点が2点以上抽出されなかった場合には、分割線が抽出されず、連結細胞の分割は行われない。   On the other hand, in the above-described conventional cell image processing method, a point that is on the outline of a connected cell and whose angle formed by the outline is equal to or larger than a preset angle is extracted as a division candidate point. When two or more points are extracted, a boundary line corresponding to each division candidate point is extracted as a division line. When two or more candidate division points are not extracted, the dividing line is not extracted and the connected cells are not divided.

しかしながら、このような細胞画像処理方法では、通常、輪郭線のなす角のしきい値が180度より大きく設定されるため、図10に示すような連結細胞ARに対しては、分割候補点として端点T1は抽出されるものの端点T2は抽出されず、結果として分割線が抽出されずに連結細胞ARの分割が行われなくなるという問題があった。また、この問題を解決するため、輪郭線のなす角のしきい値を180度より小さく設定すると、本来分割候補点でない点を分割候補点として抽出し、分割する必要のない領域まで過分割してしまう場合が生じるという問題があった。   However, in such a cell image processing method, since the threshold value of the angle formed by the contour line is normally set to be larger than 180 degrees, the connected cell AR as shown in FIG. Although the end point T1 is extracted, the end point T2 is not extracted. As a result, there is a problem in that the dividing line is not extracted and the connected cell AR is not divided. In order to solve this problem, if the threshold of the angle formed by the contour line is set to be smaller than 180 degrees, points that are not originally division candidate points are extracted as division candidate points, and overdivision is performed to areas that do not need to be divided. There was a problem that it might happen.

また、上述した従来の細胞画像処理方法では、分割して抽出すべき細胞の大きさをあらかじめ設定しており、検出した細胞の大きさがあらかじめ設定した大きさに対応するか否かによって領域の分割を行うか否かを判定するようにしているため、対象とする細胞の大きさにばらつきがあると、1つの大きな細胞を過分割してしまう場合が生じるという問題があった。   Further, in the above-described conventional cell image processing method, the size of the cell to be divided and extracted is set in advance, and the region is determined depending on whether or not the detected cell size corresponds to the preset size. Since it is determined whether or not to divide, if there is a variation in the size of the target cells, there is a problem that one large cell may be excessively divided.

さらに、上述した従来の細胞画像処理方法では、原画像の2値化処理を検出感度を変えて2度行うことによって少なめ細胞画像と多め細胞画像とを生成するようにしているため、領域を抽出する処理が非効率的である上に、多大な計算時間を費やしてしまうという問題があった。   Further, in the above-described conventional cell image processing method, since the binarization processing of the original image is performed twice with different detection sensitivities, a smaller cell image and a larger cell image are generated. In addition to the inefficiency of the processing to be performed, there is a problem that a great amount of calculation time is consumed.

本発明は、上記に鑑みてなされたものであって、複数の対象が重なり合っている場合でも、また、対象の大きさにばらつきがある場合でも、対象を撮像した画像から正確に対象に対応する領域を抽出しやすくなるとともに、計算時間および計算負荷を削減して効率的に領域を抽出することができる領域抽出装置、顕微鏡システムおよび領域抽出プログラムを提供することを目的とする。   The present invention has been made in view of the above, and even when a plurality of objects overlap each other or when there is variation in the size of the object, the object is accurately handled from the image obtained by capturing the object. An object of the present invention is to provide a region extraction device, a microscope system, and a region extraction program that can easily extract a region and can efficiently extract a region by reducing calculation time and calculation load.

上記の目的を達成するために、請求項1にかかる領域抽出装置は、画像データが示す画像の中から撮像対象に対応する対象画像領域を抽出する領域抽出装置において、前記画像データの入力を受け付ける画像入力手段と、前記画像データを構成する各画素値をもとに前記画像を複数の中間画像領域に分割する領域分割手段と、前記領域分割手段によって分割された各中間画像領域の特徴量をもとに、互いに隣接する中間画像領域を統合して前記対象画像領域を成形する領域統合手段と、を備えたことを特徴とする。   In order to achieve the above object, an area extracting apparatus according to claim 1 accepts input of image data in an area extracting apparatus that extracts a target image area corresponding to an imaging target from an image indicated by image data. An image input unit, a region dividing unit that divides the image into a plurality of intermediate image regions based on pixel values constituting the image data, and a feature amount of each intermediate image region divided by the region dividing unit. Originally, the image processing apparatus includes an area integration unit that integrates adjacent intermediate image areas to form the target image area.

また、請求項2にかかる領域抽出装置は、画像データが示す画像の中から撮像対象に対応する対象画像領域を抽出する領域抽出装置において、前記画像データの入力を受け付ける画像入力手段と、前記画像データを構成する各画素値をもとに前記画像を複数の中間画像領域に分割する領域分割手段と、前記領域分割手段によって分割された各中間画像領域の特徴量をもとに、前記各中間画像領域の該各中間画像領域に隣接する中間画像領域に対する類似度を算出する類似度算出手段と、前記類似度算出手段によって算出された各中間画像領域の前記類似度をもとに、互いに隣接する中間画像領域を統合して前記対象画像領域を成形する領域統合手段と、を備えたことを特徴とする。   An area extraction apparatus according to claim 2 is an area extraction apparatus that extracts a target image area corresponding to an imaging target from an image indicated by image data, and an image input unit that receives input of the image data; Area dividing means for dividing the image into a plurality of intermediate image areas based on each pixel value constituting the data, and each intermediate image based on the feature amount of each intermediate image area divided by the area dividing means. Similarity calculation means for calculating the similarity of the image area to the intermediate image area adjacent to each intermediate image area, and adjacent to each other based on the similarity of each intermediate image area calculated by the similarity calculation means And an area integration unit that forms the target image area by integrating the intermediate image areas.

また、請求項3にかかる領域抽出装置は、上記の発明において、前記領域分割手段は、処理対象の画素の画素値と前記処理対象の画素に隣接する画素の画素値との差が所定の値を超えている場合、前記処理対象の画素の位置を前記画像の分割位置とすることを特徴とする。   According to a third aspect of the present invention, in the region extraction device according to the above invention, the region dividing unit is configured such that a difference between a pixel value of a processing target pixel and a pixel value of a pixel adjacent to the processing target pixel is a predetermined value If the number of pixels exceeds the threshold, the position of the pixel to be processed is set as a division position of the image.

また、請求項4にかかる領域抽出装置は、上記の発明において、前記領域分割手段は、前記画像データを構成する各画素値をもとにエッジ画像データを求め、前記画像中の処理対象の画素に対応する前記エッジ画像データ中のエッジ画像画素値が所定の値を超えている場合、前記処理対象の画素の位置を前記画像の分割位置とすることを特徴とする。   According to a fourth aspect of the present invention, in the above-described invention, the region dividing unit obtains edge image data based on each pixel value constituting the image data, and the pixel to be processed in the image When the edge image pixel value in the edge image data corresponding to is greater than a predetermined value, the position of the pixel to be processed is set as the division position of the image.

また、請求項5にかかる領域抽出装置は、上記の発明において、前記特徴量は、前記領域分割手段によって分割された中間画像領域の輪郭線と該中間画像領域に隣接する中間画像領域の輪郭線との交角を示す輪郭線交角を含み、前記類似度算出手段は、前記輪郭線交角をもとに前記類似度を算出することを特徴とする。   According to a fifth aspect of the present invention, in the above-described invention, the feature amount includes the contour line of the intermediate image region divided by the region dividing unit and the contour line of the intermediate image region adjacent to the intermediate image region. The similarity calculation means calculates the similarity based on the contour intersection angle.

また、請求項6にかかる領域抽出装置は、上記の発明において、前記特徴量は、前記領域分割手段によって分割された中間画像領域と該中間画像領域に隣接する中間画像領域との境界上にある画素の画素値と該境界の近傍にある画素の画素値との差を示す画素値差を含み、前記類似度算出手段は、前記画素値差をもとに前記類似度を算出することを特徴とする。   According to a sixth aspect of the present invention, in the above-described invention, the feature amount is on a boundary between the intermediate image region divided by the region dividing unit and the intermediate image region adjacent to the intermediate image region. Including a pixel value difference indicating a difference between a pixel value of a pixel and a pixel value of a pixel in the vicinity of the boundary, and the similarity calculation unit calculates the similarity based on the pixel value difference. And

また、請求項7にかかる領域抽出装置は、上記の発明において、前記特徴量は、前記領域分割手段によって分割された中間画像領域と該中間画像領域に隣接する中間画像領域との境界上にある画素のエッジ強度と該境界の近傍にある画素のエッジ強度との差を示すエッジ強度差を含み、前記類似度算出手段は、前記エッジ強度差をもとに前記類似度を算出することを特徴とする。   According to a seventh aspect of the present invention, in the above invention, the feature amount is on a boundary between the intermediate image region divided by the region dividing unit and the intermediate image region adjacent to the intermediate image region. An edge strength difference indicating a difference between an edge strength of a pixel and an edge strength of a pixel in the vicinity of the boundary, and the similarity calculation means calculates the similarity based on the edge strength difference. And

また、請求項8にかかる領域抽出装置は、上記の発明において、前記領域統合手段によって成形された前記対象画像領域の特性を示す領域パラメータを求める領域パラメータ算出手段と、前記領域パラメータ算出手段によって求められた前記領域パラメータに基づく表示を行う出力手段と、をさらに備えたことを特徴とする。   According to an eighth aspect of the present invention, in the above invention, the region extracting device is configured to obtain a region parameter indicating a region parameter indicating a characteristic of the target image region formed by the region integrating unit, and the region parameter calculating unit. And an output means for performing display based on the region parameter.

また、請求項9にかかる領域抽出装置は、上記の発明において、前記領域パラメータ算出手段は、前記対象画像領域毎の特性を示す前記領域パラメータを求めることを特徴とする。   The area extracting apparatus according to claim 9 is characterized in that, in the above invention, the area parameter calculating means obtains the area parameter indicating a characteristic for each target image area.

また、請求項10にかかる領域抽出装置は、上記の発明において、前記領域パラメータ算出手段は、前記対象画像領域の集合の特性を示す前記領域パラメータを求めることを特徴とする。   The area extraction apparatus according to claim 10 is characterized in that, in the above invention, the area parameter calculation means obtains the area parameter indicating a characteristic of the set of the target image areas.

また、請求項11にかかる領域抽出装置は、上記の発明において、前記出力手段は、前記領域パラメータが示す前記特性を画像情報として表示することを特徴とする。   According to an eleventh aspect of the present invention, in the above invention, the output means displays the characteristic indicated by the region parameter as image information.

また、請求項12にかかる領域抽出装置は、上記の発明において、前記出力手段は、前記領域パラメータが示す前記特性を数値情報として表示することを特徴とする。   According to a twelfth aspect of the present invention, in the above invention, the output means displays the characteristic indicated by the region parameter as numerical information.

また、請求項13にかかる領域抽出装置は、上記の発明において、前記出力手段は、前記領域統合手段によって成形された前記対象画像領域を画像情報としてさらに表示することを特徴とする。   According to a thirteenth aspect of the present invention, in the above invention, the output unit further displays the target image region formed by the region integration unit as image information.

また、請求項14にかかる領域抽出装置は、上記の発明において、前記出力手段が行う表示に関する表示指示情報を取得する指示取得手段をさらに備え、前記出力手段は、前記指示取得手段が取得した前記表示指示情報をもとに前記領域パラメータに基づく表示を切り替えることを特徴とする。   The area extracting apparatus according to a fourteenth aspect of the present invention further includes an instruction acquiring unit that acquires display instruction information related to display performed by the output unit in the above invention, wherein the output unit acquires the instruction acquired by the instruction acquiring unit. The display based on the area parameter is switched based on display instruction information.

また、請求項15にかかる領域抽出装置は、上記の発明において、前記撮像対象は、細胞または生体組織であることを特徴とする。   According to a fifteenth aspect of the present invention, in the above-described invention, the imaging object is a cell or a biological tissue.

また、請求項16にかかる領域抽出装置は、上記の発明において、前記撮像対象を撮像して前記画像データを生成する撮像手段をさらに備え、前記画像入力手段は、前記撮像手段によって生成された前記画像データの入力を受け付けることを特徴とする。   According to a sixteenth aspect of the present invention, in the above invention, the region extraction apparatus further includes an imaging unit that images the imaging target and generates the image data, wherein the image input unit is generated by the imaging unit. It is characterized by accepting input of image data.

また、請求項17にかかる顕微鏡システムは、上記の領域抽出装置を備えた顕微鏡システムであって、前記撮像対象の像を拡大投影する結像光学系を備え、前記領域抽出装置における前記撮像手段は、前記結像光学系によって該結像光学系の結像面に拡大投影された前記撮像対象の像を撮像して前記画像データを生成することを特徴とする。   A microscope system according to a seventeenth aspect is a microscope system including the region extraction device described above, and includes an imaging optical system that magnifies and projects the image of the imaging target, and the imaging unit in the region extraction device includes: The imaging optical system generates the image data by capturing an image of the imaging target that is enlarged and projected onto the imaging surface of the imaging optical system.

また、請求項18にかかる領域抽出プログラムは、入力された画像データが示す画像の中から撮像対象に対応する対象画像領域を抽出する領域抽出装置に、前記画像の中から前記撮像対象に対応する領域を抽出させるための領域抽出プログラムであって、前記領域抽出装置に、前記画像データを構成する各画素値をもとに前記画像を複数の中間画像領域に分割する領域分割手順と、前記領域分割手段によって分割された各中間画像領域の特徴量をもとに、前記各中間画像領域の該各中間画像領域に隣接する中間画像領域に対する類似度を算出する類似度算出手順と、前記類似度算出手段によって算出された各中間画像領域の前記類似度をもとに、互いに隣接する中間画像領域を統合して前記対象画像領域を成形する領域統合手順と、を実行させることを特徴とする。   An area extraction program according to claim 18 corresponds to an area extraction device that extracts a target image area corresponding to an imaging target from an image indicated by input image data, and corresponds to the imaging target from the image. An area extraction program for extracting an area, wherein the area extraction apparatus divides the image into a plurality of intermediate image areas based on each pixel value constituting the image data, and the area A similarity calculation procedure for calculating a similarity between each intermediate image area and an intermediate image area adjacent to each intermediate image area based on a feature amount of each intermediate image area divided by the dividing unit; An area integration procedure for forming the target image area by integrating adjacent intermediate image areas based on the similarity of each intermediate image area calculated by the calculation means is executed. And wherein the Rukoto.

本発明にかかる領域抽出装置、顕微鏡システムおよび領域抽出プログラムによれば、複数の対象が重なり合っている場合でも、また、対象の大きさにばらつきがある場合でも、対象を撮像した画像から正確に対象に対応する領域を抽出しやすくなるとともに、計算時間および計算負荷を削減して効率的に領域を抽出することができる。   According to the region extraction device, the microscope system, and the region extraction program according to the present invention, even when a plurality of targets overlap each other or when the size of the target varies, the target is accurately obtained from the image obtained by capturing the target. It is easy to extract a region corresponding to, and the region can be extracted efficiently by reducing calculation time and calculation load.

以下、添付図面を参照して、本発明にかかる領域抽出装置、顕微鏡システムおよび領域抽出プログラムの好適な実施の形態を詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付している。   DETAILED DESCRIPTION Exemplary embodiments of a region extraction device, a microscope system, and a region extraction program according to the present invention will be described below in detail with reference to the accompanying drawings. Note that the present invention is not limited to the embodiments. In the description of the drawings, the same parts are denoted by the same reference numerals.

(実施の形態)
図1は、この実施の形態にかかる領域抽出装置および顕微鏡システムの構成を示すブロック図である。図1に示すように、この実施の形態にかかる領域抽出装置1は、領域抽出装置1の全体の処理および動作を制御する制御部2と、撮像光学系OPの結像面に拡大投影された対象OBの像を撮像して画像データを生成する撮像部3と、撮像部3が生成した画像データを解析し処理する画像処理部4と、画像情報を含む各種情報の表示出力等を行う出力部5と、出力部5による表示出力に関する表示指示情報等の各種情報の入力を受ける入力部6と、画像情報等の各種情報を記憶する記憶部7と、外部装置との間で各種情報の通信を行う通信部8と、を備える。撮像部3、画像処理部4、出力部5、入力部6、記憶部7および通信部8は、制御部2に電気的に接続され、制御部2は、これらの各構成部位を制御する。また、撮像光学系OPは、細胞、生体組織等である撮像対象としての対象OBからの光を集光し、対象OBの像を結像面上に拡大投影する。この実施の形態にかかる顕微鏡システムは、これら撮像光学系OP、領域抽出装置1および対象OBを照明するための図示しない照明装置を備えている。
(Embodiment)
FIG. 1 is a block diagram showing a configuration of a region extraction apparatus and a microscope system according to this embodiment. As shown in FIG. 1, the area extraction apparatus 1 according to this embodiment is enlarged and projected on a control unit 2 that controls the overall processing and operation of the area extraction apparatus 1 and the imaging plane of the imaging optical system OP. An imaging unit 3 that captures an image of the target OB and generates image data, an image processing unit 4 that analyzes and processes the image data generated by the imaging unit 3, and an output that performs display output of various types of information including image information Various information among the external device, the input unit 6 that receives input of various information such as display instruction information related to display output by the output unit 5, the storage unit 7 that stores various information such as image information, and the like. And a communication unit 8 that performs communication. The imaging unit 3, the image processing unit 4, the output unit 5, the input unit 6, the storage unit 7, and the communication unit 8 are electrically connected to the control unit 2, and the control unit 2 controls each of these components. In addition, the imaging optical system OP collects light from the target OB as an imaging target such as a cell or a living tissue, and enlarges and projects an image of the target OB on the imaging plane. The microscope system according to this embodiment includes the imaging optical system OP, the region extraction device 1, and an illumination device (not shown) for illuminating the target OB.

制御部2は、記憶部7が記憶した処理プログラムを実行するCPU等によって実現され、領域抽出装置1の各構成部位が行う各種処理および動作を制御する。なお、制御部2は、撮像光学系OPおよび対象OBを照明するための照明装置をさらに制御するようにし、対象OBの像を拡大投影する際のフォーカス、ズーム、絞り等の各種設定を行うようにしてもよい。   The control unit 2 is realized by a CPU or the like that executes a processing program stored in the storage unit 7 and controls various processes and operations performed by each component of the region extraction device 1. Note that the control unit 2 further controls the imaging optical system OP and the illumination device for illuminating the target OB, and performs various settings such as focus, zoom, and aperture when the image of the target OB is enlarged and projected. It may be.

撮像部3は、CCD、CMOS等の固体撮像素子とA/D変換器とを用いて実現される。撮像部3は、撮像光学系OPが拡大投影した対象OBの像を固体撮像素子によって検出してアナログ信号である電気信号に変換し、変換したアナログ信号をA/D変換器によってデジタル信号に変換し、変換したデジタル信号を対象OBの像を撮像した画像の画像データとして画像処理部4に出力する。なお、撮像部3が生成する画像データは、モノクロ画像データ、カラー画像データ、色差信号データ等、対象OBの像が識別できる画像データであれば任意のデータ形式でよい。   The imaging unit 3 is realized using a solid-state imaging device such as a CCD or CMOS and an A / D converter. The imaging unit 3 detects an image of the target OB enlarged and projected by the imaging optical system OP by a solid-state imaging device, converts the image into an electrical signal that is an analog signal, and converts the converted analog signal into a digital signal by an A / D converter. Then, the converted digital signal is output to the image processing unit 4 as image data of an image obtained by capturing an image of the target OB. The image data generated by the imaging unit 3 may be in any data format as long as the image data can identify the image of the target OB, such as monochrome image data, color image data, and color difference signal data.

画像処理部4は、撮像部3から取得した画像データに対して行う種々の画像処理の制御を行う画像処理制御部4aと、処理する画像データを一時的に記憶する画像メモリ4bと、撮像部3から画像データの入力を受け付ける画像入力部4cと、取得した画像データを構成する各画素値をもとに、対象OBの像を撮像した画像である原画像を複数の領域に分割することで中間画像領域を生成する領域分割部4dと、領域分割部4dによって分割された各中間画像領域の特徴を示す特徴量をもとに、中間画像領域間の類似度を算出する類似度算出部4eと、類似度算出部4eによって算出された各中間画像領域間の類似度をもとに、互いに隣接する中間画像領域を統合して対象OBに対応する対象画像領域を成形する領域統合部4fと、対象画像領域の特性を示す領域パラメータを求めるパラメータ算出部4gと、を備える。領域分割部4d、類似度算出部4e、領域統合部4fおよびパラメータ算出部4gは、画像処理制御部4aからの指示をもとに画像データを処理し、処理結果の画像データおよび領域パラメータ、各種パラメータ等を適宜に画像メモリ4bもしくは記憶部7に出力して記録する。   The image processing unit 4 includes an image processing control unit 4a that controls various image processes performed on the image data acquired from the imaging unit 3, an image memory 4b that temporarily stores image data to be processed, and an imaging unit. By dividing the original image, which is an image of the image of the target OB, into a plurality of regions based on the image input unit 4c that accepts input of image data from 3 and each pixel value constituting the acquired image data An area dividing unit 4d that generates an intermediate image area, and a similarity calculation unit 4e that calculates the similarity between the intermediate image areas based on the feature amount indicating the feature of each intermediate image area divided by the area dividing unit 4d. And an area integration unit 4f that forms the target image area corresponding to the target OB by integrating the adjacent intermediate image areas based on the similarity between the intermediate image areas calculated by the similarity calculation unit 4e. , Target image And a parameter calculation section 4g for obtaining regional parameters indicating the characteristics of the band. The region dividing unit 4d, the similarity calculating unit 4e, the region integrating unit 4f, and the parameter calculating unit 4g process the image data based on an instruction from the image processing control unit 4a, and process image data and region parameters. Parameters and the like are appropriately output to the image memory 4b or the storage unit 7 and recorded.

画像処理制御部4aは、記憶部7が記憶する処理プログラムであって、撮像部3から取得した画像データが示す原画像から所望の対象画像領域を抽出するための領域抽出プログラムを実行し、処理結果の画像データおよび領域パラメータ等を出力部5に出力する。また、画像処理制御部4aは、処理結果とともにこの処理結果の表示に関する表示指示情報を出力部5に出力する。この表示指示情報には、たとえば、画像処理部4によって分割し抽出された各対象画像領域を明るさ、色、ハッチング等によって区別できるように表示する、各対象画像領域の輪郭を実線、破線等の各種線によって表示する、各対象画像領域の重心位置を所定の印によって表示するなど、各対象画像領域を識別して表示するための各種表示指示情報が含まれる。また、各対象画像領域の画像上の位置、面積等の領域パラメータを数値情報として表示するための表示指示情報を含めてもよい。なお、画像処理制御部4aは、取得した画像データに対し、γ補正、Y/C分離(輝度信号/色信号分離)、色変換等の各種画像処理を行うようにしてもよい。   The image processing control unit 4a is a processing program stored in the storage unit 7, and executes a region extraction program for extracting a desired target image region from the original image indicated by the image data acquired from the imaging unit 3. The resulting image data, region parameters, and the like are output to the output unit 5. Further, the image processing control unit 4 a outputs display instruction information related to the display of the processing result to the output unit 5 together with the processing result. In this display instruction information, for example, each target image area divided and extracted by the image processing unit 4 is displayed so as to be distinguished by brightness, color, hatching, and the like. Various display instruction information for identifying and displaying each target image area is included, such as displaying by the various lines, and displaying the center of gravity position of each target image area by a predetermined mark. Further, display instruction information for displaying region parameters such as the position and area on the image of each target image region as numerical information may be included. The image processing control unit 4a may perform various image processing such as γ correction, Y / C separation (luminance signal / color signal separation), and color conversion on the acquired image data.

領域分割部4dは、原画像から対象OBの輪郭線に対応するエッジを検出し、検出したエッジをもとに原画像を分割して、中間画像領域を生成する。このとき、領域分割部4dは、エッジの検出感度を高めに設定するとともに、対象OBの内部構造やデータ処理時のノイズ等の影響を受けることによって、たとえば図2−1および図2−2に示すように、原画像を実際の対象OBよりも多くの中間画像領域に分割する。ここで、図2−1は、対象OBとして細胞を撮像した原画像を示す図であり、図2−2は、この原画像を複数の中間画像領域に分割した結果の一例を示す図である。   The area dividing unit 4d detects an edge corresponding to the contour line of the target OB from the original image, divides the original image based on the detected edge, and generates an intermediate image area. At this time, the region dividing unit 4d sets the edge detection sensitivity to a high level and is affected by the internal structure of the target OB, noise during data processing, and the like, for example, in FIGS. 2-1 and 2-2. As shown, the original image is divided into more intermediate image regions than the actual target OB. Here, FIG. 2-1 is a diagram illustrating an original image obtained by imaging a cell as the target OB, and FIG. 2-2 is a diagram illustrating an example of a result of dividing the original image into a plurality of intermediate image regions. .

この例では、図2−1に斜線で示す1つの細胞の対象画像領域OB1は、図2−2に示すように、境界線BLが誤検出されたことによって、2つの中間画像領域OB1−1,OB1−2に分割されている。この場合、領域統合部4fは、たとえば、類似度算出部4eによって算出される中間画像領域OB1−1の中間画像領域OB1−2に対する類似度をもとに、中間画像領域OB1−1,OB1−2が1つの細胞であるか否かを判断する。領域統合部4fは、中間画像領域OB1−1,OB1−2が1つの細胞であると判断した場合には、中間画像領域OB1−1,OB1−2を統合して1つの対象画像領域とするが、中間画像領域OB1−1,OB1−2が2つの細胞であると判断した場合には、中間画像領域OB1−1,OB1−2のそれぞれを1つの対象画像領域とする。   In this example, the target image area OB1 of one cell indicated by diagonal lines in FIG. 2A is divided into two intermediate image areas OB1-1 due to erroneous detection of the boundary line BL as shown in FIG. , OB1-2. In this case, the region integration unit 4f, for example, based on the similarity between the intermediate image region OB1-1 and the intermediate image region OB1-2 calculated by the similarity calculation unit 4e, the intermediate image regions OB1-1 and OB1-. It is determined whether 2 is one cell. When the region integration unit 4f determines that the intermediate image regions OB1-1 and OB1-2 are one cell, the region integration unit 4f integrates the intermediate image regions OB1-1 and OB1-2 into one target image region. However, when it is determined that the intermediate image regions OB1-1 and OB1-2 are two cells, each of the intermediate image regions OB1-1 and OB1-2 is set as one target image region.

出力部5は、液晶ディスプレイ、有機EL(Electroluminescence)ディスプレイ、LED表示素子等を用いた表示装置を備え、画像情報等の各種情報を表示する。特に、出力部5は、画像処理部4によって処理された画像データおよび領域パラメータ等に対応する画像情報および数値情報を画像処理制御部4aからの表示指示情報にしたがって表示する。なお、出力部5は、入力部6または通信部8を介して取得した外部からの表示指示情報をもとに表示を行うようにしてもよい。また、出力部5は、制御部2が制御する各種処理および動作の開始や完了を報知する報知情報、各種処理および動作で発生したエラーを報知するエラー情報等を表示するようにしてもよい。さらに、出力部5は、スピーカー等をさらに備え、報知情報やエラー情報に関する報知音や警告音等の音声情報を出力するようにしてもよい。   The output unit 5 includes a display device using a liquid crystal display, an organic EL (Electroluminescence) display, an LED display element, and the like, and displays various information such as image information. In particular, the output unit 5 displays the image information and numerical information corresponding to the image data processed by the image processing unit 4 and the region parameters according to the display instruction information from the image processing control unit 4a. Note that the output unit 5 may perform display based on external display instruction information acquired via the input unit 6 or the communication unit 8. Further, the output unit 5 may display notification information for informing the start and completion of various processes and operations controlled by the control unit 2, error information for informing errors generated in the various processes and operations, and the like. Furthermore, the output unit 5 may further include a speaker or the like, and output sound information such as a notification sound or a warning sound related to the notification information or error information.

入力部6は、各種スイッチ、入力キー、タッチパネルなどによって実現され、制御部2が制御する各種処理および動作の指示情報の入力を外部から受け付け、制御部2に出力する。また、入力部6は、マイクロフォン等を備え、音声情報の入力を受け付けるようにしてもよい。   The input unit 6 is realized by various switches, input keys, a touch panel, and the like. The input unit 6 receives input of various processing and operation instruction information controlled by the control unit 2 from the outside, and outputs the information to the control unit 2. The input unit 6 may include a microphone or the like and accept input of audio information.

記憶部7は、所定のOSを起動するプログラムや各種処理プログラムなどが予め記憶されたROMと、制御部2が制御する各種処理の処理パラメータや各構成部位に入出力される各種情報などを記憶するRAMとを用いて実現される。特に、記憶部7は、原画像から所望の対象画像領域を抽出するために画像処理制御部4aが実行する領域抽出プログラムを記憶する。この他、記憶部7は、原画像の画像データ、画像処理部4の処理結果の画像データおよび領域パラメータ、画像処理部4が各種処理で参照する処理パラメータ等を記憶する。   The storage unit 7 stores a ROM in which a program for starting a predetermined OS, various processing programs, and the like are stored in advance, processing parameters for various processes controlled by the control unit 2, and various information input to and output from each component. It implement | achieves using RAM to do. In particular, the storage unit 7 stores a region extraction program executed by the image processing control unit 4a in order to extract a desired target image region from the original image. In addition, the storage unit 7 stores image data of the original image, image data and region parameters of the processing result of the image processing unit 4, processing parameters that the image processing unit 4 refers to in various processes, and the like.

通信部8は、RS232C、USB、IEEE1394、SCSI等の通信用インターフェース、あるいはIrDA規格に準拠した赤外線通信インターフェース等を用いて実現され、外部装置との間で画像情報、音声情報等の各種情報通信を行う。   The communication unit 8 is realized using a communication interface such as RS232C, USB, IEEE 1394, SCSI, or the like, or an infrared communication interface compliant with the IrDA standard, and various information communication such as image information and audio information with an external device. I do.

撮像光学系OPおよび対象OBを照明するための照明装置は、生物顕微鏡、工業顕微鏡、立体顕微鏡等の各種顕微鏡によって実現され、明視野観察、暗視野観察、蛍光観察、位相差観察、微分干渉観察、偏光観察、レーザ光観察、エバネッセント光観察等、各種観察手法に対応する。なお、撮像光学系OPは、デジタルカメラ等、デジタル画像を撮像可能な任意の装置で実現してよい。   The illumination device for illuminating the imaging optical system OP and the target OB is realized by various microscopes such as a biological microscope, an industrial microscope, a stereoscopic microscope, and the like, bright field observation, dark field observation, fluorescence observation, phase difference observation, differential interference observation. It corresponds to various observation methods such as polarization observation, laser light observation, and evanescent light observation. The imaging optical system OP may be realized by an arbitrary device that can capture a digital image, such as a digital camera.

なお、この実施の形態の顕微鏡システムで観測される対象OBは、たとえば、生体組織または生体組織中の細胞であって、蛍光色素等によって染色されている。細胞の染色は、細胞全体を染色するようにしてもよく、細胞核、アクチン、細胞膜等の特定部位のみを染色するようにしてもよい。なお、細胞の染色は、細胞の観測を容易にするためのものであり、染色によって色素の作用した細胞の該当部位が明るく観測されるようになる。このような染色に用いる染色色素は、蛍光色素に限定されるものではなく、対象OBの像のコントラストを一層鮮明にするものであって、コントラストの他に対象OBの特性を変質させないものであれば任意の染色色素でよい。   Note that the target OB observed by the microscope system of this embodiment is, for example, a living tissue or a cell in the living tissue, and is stained with a fluorescent dye or the like. For cell staining, the whole cell may be stained, or only a specific site such as the cell nucleus, actin, or cell membrane may be stained. The cell staining is for facilitating the observation of the cells, and the corresponding part of the cells to which the dye has acted is brightly observed by the staining. The staining dye used for such dyeing is not limited to the fluorescent dye, and may make the contrast of the image of the target OB clearer and not change the characteristics of the target OB in addition to the contrast. Any dye may be used.

つぎに、領域抽出装置1が行う処理および動作について説明する。図3は、領域抽出装置1が行う処理手順を示すフローチャートである。図3に示すように、制御部2からの指示のもと、撮像部3は、撮像光学系OPが結像した対象OBの拡大像を撮像し、撮像した原画像の画像データを生成して画像処理部4に出力する(ステップS101)。そして、画像処理制御部4aが領域抽出プログラムを実行することによって、領域分割部4dは、原画像の画像データを構成する各画素値をもとに原画像を複数の中間画像領域に分割する領域分割処理を行い(ステップS103)、類似度算出部4eは、領域分割部4dによって分割された各中間画像領域の中から、互いに隣接した複数の中間画像領域で構成され見かけ上1つの中間画像領域として観測される連結領域を検出する連結領域検出処理を行い(ステップS105)、この処理結果をもとに、原画像中に連結領域があるか否かを判断する(ステップS107)。   Next, processing and operations performed by the region extraction device 1 will be described. FIG. 3 is a flowchart showing a processing procedure performed by the region extraction apparatus 1. As illustrated in FIG. 3, under the instruction from the control unit 2, the imaging unit 3 captures an enlarged image of the target OB imaged by the imaging optical system OP and generates image data of the captured original image. The image is output to the image processing unit 4 (step S101). Then, when the image processing control unit 4a executes the region extraction program, the region dividing unit 4d is a region that divides the original image into a plurality of intermediate image regions based on each pixel value constituting the image data of the original image. Division processing is performed (step S103), and the similarity calculation unit 4e is apparently composed of a plurality of adjacent intermediate image regions among the intermediate image regions divided by the region dividing unit 4d. Then, a connected region detection process for detecting a connected region observed as follows is performed (step S105), and based on the processing result, it is determined whether or not there is a connected region in the original image (step S107).

原画像中に連結領域がある場合(ステップS107:Yes)、類似度算出部4eは、検出されたすべての連結領域について、連結領域を構成する各中間画像領域の特徴量をもとに、この各中間画像領域の類似度を算出する類似度算出処理を行う(ステップS109)。そして、領域統合部4fは、算出された類似度を参照し、あらかじめ設定された統合条件を満足する類似度をもった中間画像領域があるか否かを判断し(ステップS111)、統合条件を満足する類似度をもった中間画像領域がある場合(ステップS111:Yes)、この中間画像領域に対応する連結領域内の各中間画像領域を統合して対象画像領域を成形する領域統合処理を行う(ステップS113)。その後、画像処理制御部4aは、連結領域が検出されなくなるまでステップS105〜S113の処理を繰り返すように制御を行う。   When there is a connected area in the original image (step S107: Yes), the similarity calculation unit 4e calculates, for all the detected connected areas, based on the feature values of the intermediate image areas constituting the connected area. A similarity calculation process for calculating the similarity of each intermediate image region is performed (step S109). Then, the region integration unit 4f refers to the calculated similarity and determines whether there is an intermediate image region having a similarity that satisfies a preset integration condition (step S111). If there is an intermediate image area having a satisfactory similarity (step S111: Yes), an area integration process is performed in which the intermediate image areas in the connected area corresponding to the intermediate image area are integrated to form the target image area. (Step S113). Thereafter, the image processing control unit 4a performs control so that the processes in steps S105 to S113 are repeated until no connected region is detected.

原画像中に連結領域がない場合(ステップS107:No)、また、統合条件を満足する類似度をもった中間画像領域がない場合(ステップS111:No)、パラメータ算出部4gは、連結領域ではない中間画像領域や、統合条件を満足する類似度をもたない中間画像領域を対象画像領域として、領域統合部4fによって統合し成形された対象画像領域とともに、これら対象画像領域の特性を示す領域パラメータを算出する(ステップS115)。つづいて、画像処理制御部4aは、処理結果の画像データおよび領域パラメータを出力部5に出力して表示させ(ステップS117)、一連の処理を終了する。   When there is no connected area in the original image (step S107: No), and when there is no intermediate image area having a similarity that satisfies the integration condition (step S111: No), the parameter calculation unit 4g A region indicating the characteristics of these target image regions together with the target image region integrated and shaped by the region integration unit 4f, with the intermediate image region having no similarity satisfying the integration condition as the target image region. A parameter is calculated (step S115). Subsequently, the image processing control unit 4a outputs and displays the image data and region parameters of the processing result on the output unit 5 (step S117), and ends the series of processing.

ステップS105では、類似度算出部4eは、領域分割部4dによって分割された中間画像領域毎にその輪郭を示す輪郭線を構成する画素を走査し、他の中間画像領域の輪郭を示す輪郭線を構成する画素と一致した場合、この処理対象の中間画像領域が他の中間画像領域に隣接し連結領域を形成しているものと認識し、対応する連結領域を検出する。逆に、他の中間画像領域の輪郭を示す輪郭線を構成する画素と一致しなかった場合、類似度算出部4eは、この処理対象の中間画像領域が孤立しているものと認識する。   In step S105, the similarity calculation unit 4e scans the pixels constituting the contour line indicating the contour for each intermediate image region divided by the region dividing unit 4d, and uses the contour lines indicating the contours of the other intermediate image regions. When it matches with the constituent pixels, it recognizes that the intermediate image area to be processed is adjacent to another intermediate image area and forms a connected area, and detects the corresponding connected area. On the contrary, when the pixel does not coincide with the pixels constituting the contour line indicating the contour of another intermediate image region, the similarity calculation unit 4e recognizes that the intermediate image region to be processed is isolated.

つぎに、図3に示したステップS103の領域分割処理について説明する。図4は、領域分割処理の処理手順を示すフローチャートである。図4に示すように、画像処理制御部4aからの指示をもとに領域分割部4dは、原画像の中から対象OBの輪郭に対応するエッジを検出してエッジ画像を生成し(ステップS121)、生成したエッジ画像を構成する各画素の画素値を「0」または「1」に変換する2値化処理を行い(ステップS123)、2値化処理した結果の2値画像の中でエッジを示すエッジ線を線幅が「1」の線に変換する細線化処理を行い(ステップS125)、細線化処理した結果の各エッジ線を分割位置として原画像を中間画像領域に分割し(ステップS127)、分割した各中間画像領域に固有の領域標識を付与するラベリング処理を行い(ステップS129)、ステップS103にリターンする。   Next, the area dividing process in step S103 shown in FIG. 3 will be described. FIG. 4 is a flowchart showing the processing procedure of the region division processing. As shown in FIG. 4, based on an instruction from the image processing control unit 4a, the region dividing unit 4d detects an edge corresponding to the contour of the target OB from the original image and generates an edge image (step S121). ), Binarization processing for converting the pixel value of each pixel constituting the generated edge image into “0” or “1” is performed (step S123), and the edge of the binary image as a result of the binarization processing A thinning process is performed to convert the edge line indicating the line width into a line having a line width of “1” (step S125), and the original image is divided into intermediate image areas using each edge line as a result of the thinning process as a division position (step S125). In step S127, a labeling process for assigning a unique area marker to each divided intermediate image area is performed (step S129), and the process returns to step S103.

ステップS121では、領域分割部4dは、ソーベル(Sobel)フィルタ、プレウィット(Prewitt)フィルタ、ラプラシアン(Laplacian)フィルタ等のエッジ検出オペレータを用い、対象OBの輪郭に対応するエッジを抽出したエッジ画像の画像データを生成する。なお、このエッジ画像の画像データを構成する各画素値は、原画像の画素値によって表される輝度分布の変化率の大きさに対応するエッジ強度を示す。   In step S121, the region dividing unit 4d uses an edge detection operator such as a Sobel filter, a Prewitt filter, or a Laplacian filter to extract an edge image obtained by extracting an edge corresponding to the contour of the target OB. Generate image data. Note that each pixel value constituting the image data of the edge image indicates an edge strength corresponding to the magnitude of the change rate of the luminance distribution represented by the pixel value of the original image.

ステップS123では、領域分割部4dは、エッジ画像中の各画素の画素値をあらかじめしきい値として設定した値と比較し、しきい値を超えた画素値に対応する画素の画素値を「1」に変換し、この他の画素の画素値を「0」に変換することによってエッジ画像を2値化処理して2値画像データを得る。なお、この2値化処理で用いるしきい値は、固定の値でもよいが、エッジ画像全体の輝度に応じて判別分析法をもとに設定するなど、適応的に設定した値としてもよい。また、この2値化処理によって変換する画素値は、「1」および「0」に限らす、画素値がしきい値を超えているか否かが識別できる値であれば任意でよく、アルファベットや記号等を用いて符号化するようにしてもよい。   In step S123, the region dividing unit 4d compares the pixel value of each pixel in the edge image with a value set in advance as a threshold value, and sets the pixel value of the pixel corresponding to the pixel value exceeding the threshold value to “1”. The edge image is binarized by converting the pixel values of the other pixels to “0” to obtain binary image data. The threshold value used in the binarization process may be a fixed value, or may be an adaptively set value such as a setting based on a discriminant analysis method according to the luminance of the entire edge image. The pixel values converted by this binarization processing are not limited to “1” and “0”, and any value can be used as long as it can identify whether or not the pixel value exceeds the threshold value. You may make it encode using a symbol.

ステップS129では、領域分割部4dは、分割した各中間画像領域に固有の番号または記号等で表される領域標識を付与する。このとき、領域分割部4dは、各中間画像領域内の平均画素値を算出し、あらかじめ設定した画素値よりも低い平均画素値をもつ中間画像領域には領域標識を付与せずに、この中間画像領域を抽出対象から除外するようにしてもよい。   In step S129, the area dividing unit 4d assigns an area marker represented by a unique number or symbol to each divided intermediate image area. At this time, the area dividing unit 4d calculates an average pixel value in each intermediate image area, and does not add an area marker to an intermediate image area having an average pixel value lower than a preset pixel value. You may make it exclude an image area | region from extraction object.

なお、ステップS123では、エッジ画像中の各画素のエッジ強度や2値化処理で設定するしきい値の大きさによっては、2値画像中のエッジ線は、閉領域を形成せずに途切れてしまう場合がある。このような場合、領域分割部4dは、ステップS125で細線化処理を行った後、エッジ線が途切れた位置にある終端画素に隣接する複数の画素の中から画素値がもっとも大きな画素を選択し、選択した画素によってエッジ線を延長するとよい。領域分割部4dは、終端画素から延長したエッジ線が他のエッジ線もしくは画像を構成する最外周画素に到達するまでこのような延長処理を繰り返すことによって、閉領域を形成するエッジ線を検出することができる。   In step S123, depending on the edge strength of each pixel in the edge image and the threshold value set in the binarization process, the edge line in the binary image is interrupted without forming a closed region. May end up. In such a case, after performing the thinning process in step S125, the region dividing unit 4d selects the pixel having the largest pixel value from the plurality of pixels adjacent to the terminal pixel at the position where the edge line is interrupted. The edge line may be extended by the selected pixel. The region dividing unit 4d detects the edge line forming the closed region by repeating such extension processing until the edge line extended from the terminal pixel reaches another edge line or the outermost peripheral pixel constituting the image. be able to.

このようなエッジ線の延長処理について、図5を参照してより具体的に説明する。図5は、細線化処理を行った後のエッジ線を表したエッジ画像の一例を示す図である。図5に示すように、正方格子状に配列された矩形領域のそれぞれがエッジ画像の各画素に対応し、黒く塗られた画素の列が細線化処理されたエッジ線を示す。なお、画素に対応する矩形の領域内に記された数値は、その画素のエッジ画像での画素値を示している。   Such edge line extension processing will be described more specifically with reference to FIG. FIG. 5 is a diagram illustrating an example of an edge image representing an edge line after performing the thinning process. As shown in FIG. 5, each of the rectangular areas arranged in a square lattice pattern corresponds to each pixel of the edge image, and a row of pixels painted in black indicates an edge line that has been thinned. A numerical value written in a rectangular area corresponding to a pixel indicates a pixel value in the edge image of the pixel.

領域分割部4dは、細線化処理後のエッジ線を構成する各画素について、縦、横、斜めに隣接する8つの画素の画素値を参照し、参照した画素の中に画素値が「1」である画素が1つだけの場合、処理対象の画素位置でエッジ線が途切れていると判定し、この処理対象の画素を終端画素と認識する。たとえば、図5に示す場合、領域分割部4dは、画素P1の位置でエッジ線が途切れていると判定し、画素P1を終端画素と認識する。   The area dividing unit 4d refers to the pixel values of eight pixels adjacent in the vertical, horizontal, and diagonal directions for each pixel constituting the edge line after the thinning process, and the pixel value among the referenced pixels is “1”. When there is only one pixel, it is determined that the edge line is interrupted at the pixel position to be processed, and this pixel to be processed is recognized as a terminal pixel. For example, in the case illustrated in FIG. 5, the region dividing unit 4d determines that the edge line is interrupted at the position of the pixel P1, and recognizes the pixel P1 as a terminal pixel.

つづいて、領域分割部4dは、認識した終端画素に対し、エッジ線を延長する方向を概略推定し、推定した方向にあって終端画素に隣接する画素についてエッジ画像での画素値を参照し、参照した画素の中から画素値がもっとも大きな画素を選択し、選択した画素の画素値を「1」に変換することによってエッジ線を延長する。たとえば、図5に示す場合、画素P1に至るエッジ線が図上で画素P1の左側に位置するため、領域分割部4dは、エッジ線を延長する方向を画素P1の右側方向と推定し、画素P1の右側にあって破線で示した範囲Q内にある3つの画素について、各画素のエッジ画像での画素値を参照する。そして、領域分割部4dは、これら参照した3つの画素のうち、もっとも画素値が大きな画素として、画素値が「55」である画素P2を選択し、この選択した画素P2の画素値を細線化処理した画像において「1」に変換してエッジ線を延長し、画素P2を新たな終端画素として認識する。さらに、領域分割部4dは、新たな終端画素に対して同様の処理を繰り返し行い、順次エッジ線を延長し、結果として、閉領域を形成するエッジ線として斜線を施した画素P2,P3,P4,P5を検出する。   Subsequently, the region dividing unit 4d roughly estimates the direction in which the edge line is extended with respect to the recognized terminal pixel, refers to the pixel value in the edge image for the pixel in the estimated direction and adjacent to the terminal pixel, The pixel having the largest pixel value is selected from the referenced pixels, and the edge value is extended by converting the pixel value of the selected pixel to “1”. For example, in the case shown in FIG. 5, since the edge line reaching the pixel P1 is located on the left side of the pixel P1 in the figure, the region dividing unit 4d estimates the direction in which the edge line is extended as the right direction of the pixel P1, For the three pixels on the right side of P1 and within the range Q indicated by the broken line, the pixel value in the edge image of each pixel is referred to. Then, the region dividing unit 4d selects the pixel P2 having the pixel value “55” as the pixel having the largest pixel value from among the three referenced pixels, and thins the pixel value of the selected pixel P2. In the processed image, the edge line is extended by converting to “1”, and the pixel P2 is recognized as a new terminal pixel. Furthermore, the region dividing unit 4d repeatedly performs the same processing on the new terminal pixel, sequentially extends the edge lines, and as a result, the pixels P2, P3, and P4 that are shaded as the edge lines that form the closed region. , P5 is detected.

なお、図4に示した領域分割処理手順では、エッジ画像を構成する各画素の画素値をもとに分割位置を求めて原画像を中間画像領域に分割するようにしたが、たとえば、原画像での画素値をもとに分割位置を求めて中間画像領域に分割するようにしてもよい。この場合、原画像上で処理対象としている画素の画素値と、この処理対象の画素に隣接する画素の画素値との差を参照し、参照した画素値の差があらかじめしきい値として設定した値を超えている場合、この処理対象の画素を原画像の分割位置とするとよい。   In the region division processing procedure shown in FIG. 4, the division position is obtained based on the pixel value of each pixel constituting the edge image and the original image is divided into intermediate image regions. Alternatively, the division position may be obtained based on the pixel value at and divided into intermediate image regions. In this case, the difference between the pixel value of the pixel to be processed on the original image and the pixel value of the pixel adjacent to the pixel to be processed is set as a threshold value in advance. If the value exceeds the value, the pixel to be processed may be set as the division position of the original image.

つぎに、図3に示したステップS109の類似度算出処理について説明する。図6は、類似度算出処理の処理手順を示すフローチャートである。図6に示すように、画像処理制御部4aからの指示をもとに、類似度算出部4eは、ステップS105で検出した各連結領域について、連結領域を構成する各中間画像領域の輪郭線であって、この各中間画像領域に挟まれた部分の輪郭線に対応する境界線を検出し(ステップS141)、検出した境界線の両端部について、連結領域を構成する各中間画像領域の輪郭線の交角を示す輪郭線交角を算出し(ステップS143)、算出した輪郭線交角をもとに、連結領域を構成する各中間画像領域の輪郭形状に関する類似度を算出する(ステップS145)。つづいて、類似度算出部4eは、連結領域の境界線上にある画素の画素値と境界線近傍にある画素の画素値との差である画素値差を算出し(ステップS147)、算出した画素値差をもとに、連結領域を構成する各中間画像領域の画素値差に関する類似度を算出する(ステップS149)。その後、類似度算出部4eは、ステップS105で検出したすべての連結領域を構成する各中間画像領域の類似度を算出しているか否かを判断し(ステップS151)、すべて算出している場合(ステップS151:Yes)、ステップS109にリターンし、すべて算出していない場合(ステップS151:No)、ステップS141からの処理を繰り返す。   Next, the similarity calculation process in step S109 shown in FIG. 3 will be described. FIG. 6 is a flowchart showing the processing procedure of the similarity calculation processing. As shown in FIG. 6, based on an instruction from the image processing control unit 4a, the similarity calculation unit 4e uses the outlines of the intermediate image regions constituting the connection region for each connection region detected in step S105. Then, the boundary line corresponding to the contour line of the portion sandwiched between the intermediate image areas is detected (step S141), and the contour lines of the intermediate image areas constituting the connection area are detected at both ends of the detected boundary line. A contour intersection angle indicating the intersection angle is calculated (step S143), and based on the calculated contour intersection angle, a similarity degree regarding the contour shape of each intermediate image region constituting the connected region is calculated (step S145). Subsequently, the similarity calculation unit 4e calculates a pixel value difference that is a difference between the pixel value of the pixel on the boundary line of the connected region and the pixel value of the pixel in the vicinity of the boundary line (step S147). Based on the value difference, a similarity degree regarding the pixel value difference of each intermediate image area constituting the connected area is calculated (step S149). Thereafter, the similarity calculation unit 4e determines whether or not the similarity of each intermediate image area constituting all the connected areas detected in step S105 has been calculated (step S151), and if all are calculated ( Step S151: Yes), the process returns to Step S109, and when all of the calculations have not been made (Step S151: No), the processing from Step S141 is repeated.

ステップS141では、類似度算出部4eは、各連結領域を構成する各中間画像領域の輪郭を示す輪郭線を構成する画素の位置情報をもとに、各中間画像領域の輪郭線を構成する画素を走査し、隣り合う中間画像領域の輪郭線を構成する画素と一致した画素を、互いに隣接する中間画像領域の境界線として検出する。たとえば、図7−1に示すように、ステップS105で連結領域AR12が検出された場合、類似度算出部4eは、中間画像領域AR1の輪郭線OL1を構成する画素を走査し、中間画像領域AR2の輪郭線OL2と一致する画素として曲線A−Bを構成する画素を検出し、検出した曲線A−Bを中間画像領域AR1,AR2の境界線A−Bと認識する。なお、このステップS141の境界線を検出する処理は、ステップS105の連結領域検出処理と同時に行うようにしてもよい。   In step S <b> 141, the similarity calculation unit 4 e uses the position information of the pixels that form the contour lines that indicate the contours of the intermediate image regions that form the connected regions, and the pixels that configure the contour lines of the intermediate image regions. , And the pixels that coincide with the pixels constituting the contour lines of the adjacent intermediate image areas are detected as the boundary lines of the adjacent intermediate image areas. For example, as shown in FIG. 7A, when the connection area AR12 is detected in step S105, the similarity calculation unit 4e scans the pixels constituting the contour line OL1 of the intermediate image area AR1, and the intermediate image area AR2 The pixels constituting the curve AB are detected as pixels that coincide with the contour line OL2, and the detected curve AB is recognized as the boundary line AB of the intermediate image areas AR1 and AR2. Note that the process of detecting the boundary line in step S141 may be performed simultaneously with the connected area detection process in step S105.

ステップS143では、類似度算出部4eは、検出した境界線の両端の画素に関し、互いに隣接する中間画像領域の輪郭線であって、この両端の画素位置で交差する輪郭線の交角を示す輪郭線交角を算出する。たとえば、図7−1に示す連結領域AR12の場合、類似度算出部4eは、ステップS141で検出した境界線A−Bの両端の画素A,Bに関し、各画素A,Bの位置で交差する中間画像領域AR1,AR2の輪郭線OL1,OL2の交角α,βを輪郭線交角α,βとして算出する。   In step S143, the similarity calculation unit 4e relates to the pixels at both ends of the detected boundary line, and is a contour line of an intermediate image region adjacent to each other, and indicates the intersection angle of the contour lines intersecting at the pixel positions at both ends. The intersection angle is calculated. For example, in the case of the connection area AR12 illustrated in FIG. 7A, the similarity calculation unit 4e intersects at the positions of the pixels A and B with respect to the pixels A and B at both ends of the boundary line A-B detected in step S141. The intersection angles α and β of the contour lines OL1 and OL2 of the intermediate image areas AR1 and AR2 are calculated as the contour line intersection angles α and β.

なお、輪郭線交角αや輪郭線交角βの算出方法としては、種々の方法が考えられる。たとえば、画素A(または画素B)と、画素A(または画素B)から所定の距離L(たとえば数画素分の距離)隔離した輪郭線OL1,OL2上の各画素とを結んだ線分によって形成される角度を輪郭線交角α(または輪郭線交角β)として算出することができる。さらには、所定の距離Lを種々変化させて複数種類の輪郭線交角αi(または輪郭線交角βi)を算出して、これらの複数の輪郭線交角αi(または輪郭線交角βi)の平均値を輪郭線交角α(または輪郭線交角β)として算出することもできる。   Various methods are conceivable as a method for calculating the contour line intersection angle α and the contour line intersection angle β. For example, it is formed by a line segment connecting pixel A (or pixel B) and each pixel on contour lines OL1 and OL2 separated from pixel A (or pixel B) by a predetermined distance L (for example, a distance of several pixels). The calculated angle can be calculated as the contour line intersection angle α (or the contour line intersection angle β). Further, a plurality of types of contour intersection angles αi (or contour intersection angles βi) are calculated by changing the predetermined distance L variously, and an average value of the plurality of contour intersection angles αi (or contour intersection angles βi) is calculated. It can also be calculated as an outline intersection angle α (or an outline intersection angle β).

ステップS145では、類似度算出部4eは、算出した輪郭線交角から180度を差し引いた数値を各中間画像領域の輪郭形状に関する類似度として算出する。たとえば、図7−1に示す連結領域AR12の場合、類似度算出部4eは、類似度を(α−180),(β−180)として算出し、算出した類似度を各中間画像領域AR1,AR2の類似度として認識する。なお、この場合、輪郭線交角α,βが180度より大きいと連結領域の輪郭形状は凸状となり、類似度(α−180),(β−180)はプラスの値となる。逆に、輪郭線交角α,βが180度より小さいと連結領域の輪郭形状は凹状となり、類似度(α−180),(β−180)はマイナスの値となる。   In step S145, the similarity calculation unit 4e calculates a numerical value obtained by subtracting 180 degrees from the calculated contour line intersection angle as the similarity regarding the contour shape of each intermediate image region. For example, in the case of the connected area AR12 shown in FIG. 7A, the similarity calculation unit 4e calculates the similarity as (α−180) and (β−180), and the calculated similarity is calculated for each intermediate image area AR1, Recognized as AR2 similarity. In this case, when the contour intersection angles α and β are larger than 180 degrees, the contour shape of the connected region becomes convex, and the similarities (α−180) and (β−180) are positive values. On the other hand, when the contour line intersection angles α and β are smaller than 180 degrees, the contour shape of the connected region becomes concave, and the similarities (α−180) and (β−180) are negative values.

一般に、輪郭形状が凸状であれば類似度は高く、凹状であれば類似度は低いと考えられるため、類似度(α−180),(β−180)がプラスの値である場合、各中間画像領域の類似度は高く、マイナスの値である場合、各中間画像領域の類似度は低いと判断できる。また、類似度(α−180),(β−180)の絶対値が大きいほど、類似度または非類似度が高いと判断できる。なお、類似度算出部4eが算出する類似度は(α−180),(β−180)に限定されず、たとえば、これらの値の和、差、積、商、平均値等を類似度として算出するようにしてもよく、各中間画像領域の特徴量でもある輪郭線交角α,β自体を類似度として算出するようにしてもよい。   Generally, if the contour shape is convex, the similarity is high, and if it is concave, the similarity is considered low. Therefore, if the similarity (α−180) and (β−180) are positive values, When the similarity of the intermediate image area is high and a negative value, it can be determined that the similarity of each intermediate image area is low. Further, it can be determined that the similarity or dissimilarity is higher as the absolute values of the similarities (α−180) and (β−180) are larger. The similarity calculated by the similarity calculation unit 4e is not limited to (α−180) and (β−180). For example, the sum, difference, product, quotient, average value, etc. of these values are used as the similarity. You may make it calculate, and you may make it calculate contour line intersection angle (alpha) and (beta) which is also the feature-value of each intermediate image area | region as similarity.

一方、ステップS147では、類似度算出部4eは、ステップS141で検出した境界線上にある画素と、この境界線近傍にある画素とについて、各画素の原画像での画素値の差を示す画素値差を算出し、この画素値差を境界線に沿って複数算出する。さらに、ステップS149では、類似度算出部4eは、算出した複数の画素値差の平均値を各中間画像領域の画素値差に関する類似度として算出する。たとえば、図7−2に示すように、ステップS105で連結領域AR12が検出された場合、類似度算出部4eは、ステップS141で検出した境界線A−B上にある各画素の画素値と、この境界線A−Bの左右それぞれに所定距離離れた曲線A’−B’,A”−B”上の対応する画素の画素値との画素値差を算出し、算出したすべての画素値差の平均値を類似度として算出する。ここで、曲線A’−B’,A”−B”のそれぞれは、境界線A−B上の各画素に対してこの境界線A−Bの法線方向に所定の画素数離れた位置の画素の集合である。なお、類似度算出部4eは、平均値に限らず、最大値、最小値、標準偏差等の統計量を類似度として算出するようにしてもよい。   On the other hand, in step S147, the similarity calculation unit 4e indicates a pixel value indicating a difference between pixel values in the original image of each pixel for the pixel on the boundary detected in step S141 and the pixel in the vicinity of the boundary. A difference is calculated, and a plurality of pixel value differences are calculated along the boundary line. Further, in step S149, the similarity calculation unit 4e calculates the average value of the calculated pixel value differences as the similarity regarding the pixel value difference of each intermediate image region. For example, as illustrated in FIG. 7B, when the connection area AR12 is detected in step S105, the similarity calculation unit 4e includes the pixel value of each pixel on the boundary line AB detected in step S141, The pixel value difference with the pixel value of the corresponding pixel on the curves A′-B ′ and A ″ -B ″ that are separated by a predetermined distance to the left and right of the boundary line AB is calculated, and all the calculated pixel value differences are calculated. Is calculated as the similarity. Here, each of the curves A′-B ′ and A ″ -B ″ is located at a position away from each pixel on the boundary line AB by a predetermined number of pixels in the normal direction of the boundary line AB. A set of pixels. Note that the similarity calculation unit 4e may calculate a statistic such as a maximum value, a minimum value, or a standard deviation as the similarity, not limited to the average value.

また、図6に示した類似度算出処理手順では、輪郭線交角や画素値差といった中間画像領域の特徴量をもとに、連結領域を構成する各中間画像領域の輪郭形状に関する類似度や画素値差に関する類似度を算出するようにしたが、他の特徴量をもとに類似度を算出するようにすることもできる。たとえば、他の特徴量として境界線近傍のエッジ強度の差をもとに類似度を算出するようにしてもよい。ここで、境界線近傍のエッジ強度の差とは、たとえば、互いに隣接する中間画像領域の境界線上にある画素のエッジ強度と境界線近傍にある画素のエッジ強度との差として求められる特徴量である。   Further, in the similarity calculation processing procedure shown in FIG. 6, similarities and pixels related to the contour shape of each intermediate image region constituting the connected region based on the feature amount of the intermediate image region such as the contour intersection angle and the pixel value difference. Although the degree of similarity related to the value difference is calculated, the degree of similarity may be calculated based on another feature amount. For example, the similarity may be calculated based on the difference in edge strength near the boundary line as another feature amount. Here, the difference in edge strength in the vicinity of the boundary line is, for example, a feature amount obtained as a difference between the edge strength of a pixel on the boundary line between adjacent intermediate image regions and the edge strength of a pixel in the vicinity of the boundary line. is there.

このように類似度算出部4eによって算出された各種の類似度をもとに、領域統合部4fは、連結領域内の各中間画像領域を統合するか否かを連結領域毎に判断し、ステップS113に示した領域統合処理を行う。ここで、中間画像領域を統合するか否かの判断は、所定の統合条件を満足するか否かによって判断されるものであって、より具体的には、類似度算出部4eによって算出された輪郭形状に関する類似度または画素値差に関する類似度の一方が所定の統合条件を満足する場合、領域を統合すると判定するものである。このように統合条件を設定することによって、領域統合部4fは、いずれか一方の類似度しか検出されなかった場合にも、連結領域内の各中間画像領域を統合するか否かを判断することができる。   Thus, based on the various similarities calculated by the similarity calculation unit 4e, the region integration unit 4f determines whether or not to integrate the intermediate image regions in the connection region for each connection region, and the step The area integration process shown in S113 is performed. Here, whether or not to integrate the intermediate image regions is determined based on whether or not a predetermined integration condition is satisfied, and more specifically, is calculated by the similarity calculation unit 4e. When one of the similarity regarding the contour shape or the similarity regarding the pixel value difference satisfies a predetermined integration condition, it is determined that the regions are integrated. By setting the integration condition in this way, the region integration unit 4f determines whether to integrate the intermediate image regions in the connected region even when only one of the similarities is detected. Can do.

ここで、輪郭形状に関する類似度に対する統合条件とは、この類似度があらかじめ設定された数値より大きい場合、中間画像領域を統合すると判定するものでる。この場合、領域統合部4fは、連結領域の輪郭形状が凸状であるため、連結形状が1つの領域である可能性が高いと判定する。また、画素値差に関する類似度に対する統合条件とは、この類似度があらかじめ設定された数値より小さい場合、中間画像領域を統合すると判定するものでる。この場合、領域統合部4fは、連結領域の境界付近の画素値差が小さいため、連結形状が1つの領域である可能性が高いと判定する。なお、あらかじめ設定された値とは、中間画像領域を統合させる度合いを示す数値であり、この値の大小によってどの程度の中間画像領域を統合させるかの調整を行うことができる数値である。   Here, the integration condition for the similarity regarding the contour shape determines that the intermediate image regions are integrated when the similarity is larger than a preset numerical value. In this case, the region integration unit 4f determines that the connection shape is likely to be one region because the contour shape of the connection region is convex. Further, the integration condition for the similarity regarding the pixel value difference is to determine that the intermediate image regions are integrated when the similarity is smaller than a preset numerical value. In this case, the region integration unit 4f determines that there is a high possibility that the connected shape is one region because the pixel value difference near the boundary of the connected region is small. Note that the preset value is a numerical value indicating the degree to which the intermediate image regions are integrated, and is a numerical value that can adjust how much intermediate image regions are integrated depending on the magnitude of this value.

また、領域統合部4fは、輪郭形状に関する類似度または画素値差に関する類似度の一方が所定の統合条件を満足する場合でなく、両方の類似度が統合条件を満足する場合に中間画像領域を統合すると判定するようにしてもよい。さらに、領域統合部4fは、輪郭形状に関する類似度および画素値差に関する類似度に限定されず、3つ以上の類似度の統合条件を参照し、このすべての統合条件、任意の複数の統合条件、または所定の複数の統合条件が満足された場合、中間画像領域を統合すると判定するようにしてもよい。   Further, the region integration unit 4f does not select the intermediate image region when one of the similarity regarding the contour shape or the similarity regarding the pixel value difference satisfies the predetermined integration condition but not when both the similarity satisfy the integration condition. You may make it determine with integrating. Further, the region integration unit 4f is not limited to the similarity related to the contour shape and the similarity related to the pixel value difference, and refers to the integration conditions of three or more similarities. Alternatively, when a plurality of predetermined integration conditions are satisfied, it may be determined that the intermediate image regions are integrated.

なお、領域統合部4fは、中間画像領域を統合して成形した対象画像領域に対して、統合する前のいずれかの中間画像領域の識別標識を付与する。あるいは、領域統合部4fは、中間画像領域を統合して成形した対象画像領域に対して、新しい識別標識を付与するようにしてもよい。なお、同一の識別標識をもつ対象画像領域に属する画素に対応づけて、同一の輝度、または同一の色のデータが記憶部7に記憶され、出力部5で各対象画像領域を画像情報として出力するための画像データとして保持される。   Note that the region integration unit 4f gives an identification mark of any intermediate image region before integration to the target image region formed by integrating the intermediate image regions. Alternatively, the region integration unit 4f may give a new identification mark to the target image region formed by integrating the intermediate image regions. The same luminance or the same color data is stored in the storage unit 7 in association with the pixels belonging to the target image region having the same identification mark, and each target image region is output as image information by the output unit 5. Is stored as image data.

図3に示したステップS115において、パラメータ算出部4gは、ステップS103〜S113の処理に続いて、連結領域ではない中間画像領域や、統合条件を満足する類似度をもたない中間画像領域を対象画像領域として、ステップS113で領域統合部4fによって統合し成形された対象画像領域とともに、これら対象画像領域の特性を示す領域パラメータを算出する。領域パラメータとしては、各対象画像領域に対応する画素の原画像における画素値に基づいて算出されるものである。領域パラメータとしては、たとえば、対象画像領域の大きさに関する数値、形状に関する数値、位置に関する数値、輝度や色に関する数値、領域間の比率に関する数値、領域の個数に関する数値、領域の集合に関する数値等を算出する。また、パラメータ算出部4gは、このような2次元的な特性を示す数値に限らず、ラインプロファイル等の1次元的な特性や輝度分布等の3次元的な特性を示す数値を領域パラメータとして算出するようにしてもよい。なお、このような領域パラメータを参照することにより、個々の細胞の集まりや広がり、接触状態、細胞のコロニー等を認識することが可能になる。   In step S115 shown in FIG. 3, the parameter calculation unit 4g targets intermediate image regions that are not connected regions or intermediate image regions that do not have similarities that satisfy the integration conditions following the processing of steps S103 to S113. As image areas, area parameters indicating the characteristics of the target image areas are calculated together with the target image areas integrated and shaped by the area integration unit 4f in step S113. The area parameter is calculated based on the pixel value in the original image of the pixel corresponding to each target image area. As the area parameter, for example, a numerical value related to the size of the target image area, a numerical value related to the shape, a numerical value related to the position, a numerical value related to luminance or color, a numerical value related to the ratio between areas, a numerical value related to the number of areas, a numerical value related to a set of areas, etc. calculate. The parameter calculation unit 4g is not limited to such a numerical value indicating a two-dimensional characteristic, and calculates a numerical value indicating a one-dimensional characteristic such as a line profile or a three-dimensional characteristic such as a luminance distribution as a region parameter. You may make it do. By referring to such region parameters, it is possible to recognize the collection and spread of individual cells, contact states, cell colonies, and the like.

ここで、領域の大きさに関する数値とは、面積、長さ、幅、最大直径、最小直径、平均直径、最大半径、最小半径、平均半径、周囲長、包絡周囲長、楕円周囲長、長軸長、短軸長、最大フェレ径、最小フェレ径、平均フェレ径、外接四角形面積比、凸周囲長等である。また、領域の形状に関する数値とは、縦横比、半径比、円形度、オイラー数、扁平度、フラクタル次元、枝数、端点数、ラフネス度等である。さらに、領域の位置に関する数値とは、位置重心、濃度重心、外接円四角形位置、傾き等である。また、領域の輝度や色に関する数値とは、最大濃度、最小濃度、平均濃度、輝度総和、分散、標準偏差、積分光学濃度、塊状度、不均質性、辺縁度等である。さらに、領域の個数に関する数値とは、領域数、穴の数等である。また、領域の集合に関する数値とは、領域クラス、最大領域間距離、最小領域間距離、平均領域間距離、相対距離、分散、走化性等である。   Here, the numerical values related to the size of the area are area, length, width, maximum diameter, minimum diameter, average diameter, maximum radius, minimum radius, average radius, perimeter length, envelope perimeter, ellipse perimeter, major axis The length, the short axis length, the maximum ferret diameter, the minimum ferret diameter, the average ferret diameter, the circumscribed square area ratio, the convex perimeter, and the like. The numerical values related to the shape of the region are aspect ratio, radius ratio, circularity, Euler number, flatness, fractal dimension, branch number, endpoint number, roughness degree, and the like. Further, the numerical values related to the position of the region are a position centroid, a density centroid, a circumscribed circle position, an inclination, and the like. The numerical values related to the luminance and color of the area are maximum density, minimum density, average density, luminance sum, dispersion, standard deviation, integral optical density, blockiness, heterogeneity, marginal degree, and the like. Furthermore, the numerical values related to the number of regions are the number of regions, the number of holes, and the like. The numerical values related to the set of regions are a region class, a maximum inter-region distance, a minimum inter-region distance, an average inter-region distance, a relative distance, dispersion, chemotaxis, and the like.

つぎに、図3に示したステップS117について説明する。ステップS117では、出力部5は、画像処理制御部4aから画像データおよび領域パラメータとともに入力される表示指示情報をもとに処理結果の表示を行う。出力部5で表示出力する表示結果の一例を図8および図9に示す。図8および図9に示すように、出力部5が備える表示装置の表示画面5aは、大きく左右2つの表示領域に区分されており、表示領域5aaには、領域統合部4fによって成形された対象画像領域等が画像情報として表示され、表示領域5abには、パラメータ算出部4gによって算出された領域パラメータが数値情報として表示される。   Next, step S117 shown in FIG. 3 will be described. In step S117, the output unit 5 displays the processing result based on the display instruction information input together with the image data and the region parameter from the image processing control unit 4a. An example of a display result displayed and output by the output unit 5 is shown in FIGS. As shown in FIGS. 8 and 9, the display screen 5a of the display device included in the output unit 5 is roughly divided into two display areas on the left and right, and the display area 5aa includes an object formed by the area integration unit 4f. An image area or the like is displayed as image information, and the area parameter calculated by the parameter calculation unit 4g is displayed as numerical information in the display area 5ab.

表示領域5aaでは、各対象画像領域は、擬似的な色、輝度、線種、パターン等が付与され、ラベル画像として表示される。図8に示す表示例では、表示領域5aa内の各対象画像領域は、異なるパターンによって表示され、特に、表示領域5ac内で識別標識によって選択された対象画像領域AR4については、輪郭線が太線で強調表示されるとともに、領域パラメータで示されるこの領域の重心位置が十字マークによって画像情報として表示されている。   In the display area 5aa, each target image area is given a pseudo color, brightness, line type, pattern, etc., and is displayed as a label image. In the display example shown in FIG. 8, each target image area in the display area 5aa is displayed with a different pattern. In particular, the outline of the target image area AR4 selected by the identification mark in the display area 5ac is a thick line. While being highlighted, the position of the center of gravity of this area indicated by the area parameter is displayed as image information by a cross mark.

なお、表示領域5aaでは、ラベル画像に限らず、画像処理部4で処理した実際の画像データを用いて対象画像領域を表示するようにしてもよい。また、この画像データを用いた画像とラベル画像とを同時に表示するようにしてもよく、切り替え可能に表示するようにしてもよい。さらに、表示領域5aaでは、対象画像領域の重心位置に限らず、領域パラメータで示される任意の特性値を画像情報として表示するようにしてもよい。   In the display area 5aa, not only the label image but also the target image area may be displayed using actual image data processed by the image processing unit 4. Further, the image using the image data and the label image may be displayed at the same time, or may be displayed in a switchable manner. Furthermore, in the display area 5aa, not only the center of gravity position of the target image area, but also an arbitrary characteristic value indicated by the area parameter may be displayed as image information.

表示領域5abでは、表示領域5ac内で識別標識によって選択された対象画像領域に対応する領域パラメータである各種数値情報が表示される。この表示領域5abの表示では、領域パラメータが有するすべての数値情報を表示するようにしてもよく、あらかじめ設定された項目の数値情報が表示されるようにしてもよい。なお、表示領域5ab内で各種数値情報を一度に表示しきれない場合には、図8に示すように、表示領域5abの右端に入力部6としてのマウス操作等によってスクロール操作が可能な画面スクロールバー等を設けるとよい。   In the display area 5ab, various numerical information as area parameters corresponding to the target image area selected by the identification mark in the display area 5ac is displayed. In the display area 5ab, all numerical information included in the area parameter may be displayed, or numerical information of preset items may be displayed. When various numerical information cannot be displayed at once in the display area 5ab, as shown in FIG. 8, a screen scroll that can be scrolled by a mouse operation or the like as the input unit 6 at the right end of the display area 5ab. A bar or the like may be provided.

また、表示領域5aa,5abでは、入力部6としてのキー操作、マウス操作等によってオペレータから入力される表示指示情報をもとに、表示対象とする対象画像領域およびこの対象画像領域に対応する領域パラメータの表示項目を選択および切り替え可能にするとよい。さらに、オペレータからの入力される表示指示情報をもとに、表示領域5aaで表示する画像範囲の切り替えや、各表示領域5aa,5abの表示/非表示の切り替えなど、各種の表示切替等を行えるようにしてもよい。   In the display areas 5aa and 5ab, the target image area to be displayed and the area corresponding to the target image area based on the display instruction information input from the operator by the key operation as the input unit 6, the mouse operation, or the like. It is preferable that the parameter display items can be selected and switched. Furthermore, various display switching such as switching of the image range displayed in the display area 5aa and switching of display / non-display of the display areas 5aa and 5ab can be performed based on display instruction information input from the operator. You may do it.

図9は、表示対象を連結領域とした場合を例示している。表示領域5ac内で選択された連結領域GR2に対応して、表示領域5aaでは、連結領域GR2を構成する対象画像領域AR3,AR4が強調表示され、表示領域5abでは、連結領域GR2の特性、すなわち対象画像領域AR3,AR4の集合の特性を示す領域パラメータである各種数値情報が表示されている。なお、このように対象画像領域の集合の特性を示す場合の表示対象は、連結領域に限らず、それぞれ孤立した複数の対象画像領域または複数の連結領域を選択するようにしてもよい。   FIG. 9 illustrates a case where the display target is a connected area. Corresponding to the connection area GR2 selected in the display area 5ac, the target image areas AR3 and AR4 constituting the connection area GR2 are highlighted in the display area 5aa, and the characteristics of the connection area GR2 in the display area 5ab, that is, Various numerical information, which are region parameters indicating the characteristics of the set of target image regions AR3 and AR4, are displayed. The display target when the characteristics of the set of target image areas are shown in this way is not limited to a connected area, and a plurality of isolated target image areas or a plurality of connected areas may be selected.

以上説明したように、この実施の形態にかかる領域抽出装置、顕微鏡システムおよび領域抽出プログラムによれば、領域分割部4dによって、入力された画像データが示す原画像を複数の中間画像領域に分割し、類似度算出部4eによって、分割された各中間画像領域の中から連結領域を検出し、各連結領域を構成する各中間画像領域の類似度を算出し、領域統合部4fによって、あらかじめ設定された統合条件を満足する類似度をもった中間画像領域に対応する連結領域内の各中間画像領域を統合して対象画像領域を成形するようにしているため、複数の対象が重なり合っている場合でも、また、対象の大きさにばらつきがある場合でも、原画像から正確に対象に対応する対象画像領域を抽出しやすくなるとともに、計算時間および計算負荷を削減して効率的に対象画像領域を抽出することができる。   As described above, according to the region extraction device, the microscope system, and the region extraction program according to this embodiment, the region dividing unit 4d divides the original image indicated by the input image data into a plurality of intermediate image regions. The similarity calculation unit 4e detects a connected region from the divided intermediate image regions, calculates the similarity of each intermediate image region constituting each connected region, and is set in advance by the region integration unit 4f. Since the target image area is formed by integrating the intermediate image areas in the connected areas corresponding to the intermediate image areas having similarities that satisfy the integration conditions, even when multiple targets overlap. In addition, even when the size of the target varies, it becomes easier to accurately extract the target image area corresponding to the target from the original image, and the calculation time and It can be reduced to efficiently extracting the target image region.

なお、上述した実施の形態では、単一の入力画像を用いて対象画像領域を抽出するようにしたが、これに限らず、たとえば、蛍光画像、位相差画像等、各種画像を複数用いて対象画像領域を抽出するようにしてもよい。この場合、同様の構成で複数の画像から得た情報を総合して対象画像領域を抽出するとよい。   In the embodiment described above, the target image region is extracted using a single input image. However, the present invention is not limited to this, and for example, a plurality of various images such as a fluorescence image and a phase difference image are used. An image region may be extracted. In this case, the target image region may be extracted by combining information obtained from a plurality of images with the same configuration.

また、上述の実施の形態では、対象OBが生体組織または生体組織の細胞である場合について説明したが、対象OBとしてはこれに限定されるものではない。たとえば、車両等の物体や人などを対象OBとして、これらに対応する対象画像領域を抽出する場合にも、本発明の領域抽出装置、領域抽出プログラムを適用することができる。   In the above-described embodiment, the case where the target OB is a living tissue or a cell of the living tissue has been described, but the target OB is not limited thereto. For example, the region extraction device and the region extraction program of the present invention can be applied to the case where an object image region corresponding to an object such as a vehicle or a person as a target OB is extracted.

本発明の実施の形態にかかる領域抽出装置および顕微鏡システムの構成を示すブロック図である。It is a block diagram which shows the structure of the area | region extraction apparatus and microscope system concerning embodiment of this invention. 観測対象を撮像した原画像を示す模式図である。It is a schematic diagram which shows the original image which imaged the observation object. 図2−1に示した原画像を複数の中間画像領域に分割した結果の一例を示す模式図である。FIG. 2 is a schematic diagram illustrating an example of a result obtained by dividing the original image illustrated in FIG. 2A into a plurality of intermediate image regions. 領域抽出装置が行う処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which an area | region extraction apparatus performs. 図3に示した領域分割処理の処理手順を示すフローチャートである。FIG. 4 is a flowchart showing a processing procedure of region division processing shown in FIG. 3. FIG. エッジ線の延長処理の処理方法を説明する模式図である。It is a schematic diagram explaining the processing method of the extension process of an edge line. 図3に示した類似度算出処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the similarity calculation process shown in FIG. 輪郭形状に関する類似度を求める処理方法を説明する模式図である。It is a schematic diagram explaining the processing method which calculates | requires the similarity regarding an outline shape. 画素値差に関する類似度を求める処理方法を説明する模式図である。It is a schematic diagram explaining the processing method which calculates | requires the similarity regarding a pixel value difference. 領域抽出装置の表示結果の一例を示す模式図である。It is a schematic diagram which shows an example of the display result of an area | region extraction apparatus. 領域抽出装置の表示結果の他の一例を示す模式図である。It is a schematic diagram which shows another example of the display result of an area | region extraction apparatus. 分割候補点が1点しか検出されない場合の連結細胞を示す模式図である。It is a schematic diagram which shows a connection cell when only one division | segmentation candidate point is detected.

符号の説明Explanation of symbols

1 領域抽出装置
2 制御部
3 撮像部
4 画像処理部
4a 画像処理制御部
4b 画像メモリ
4c 画像入力部
4d 領域分割部
4e 類似度算出部
4f 領域統合部
4g パラメータ算出部
5 出力部
5a 表示画面
5aa,5ab,5ac 表示領域
6 入力部
7 記憶部
8 通信部
AR 連結細胞
AR12 連結領域
BL,A−B,A’−B’,A”−B”,T1−T2 境界線
OB 対象
OB1,AR3,AR4 対象画像領域
OB1−1,OB1−2,AR1,AR2 中間画像領域
OL1,OL2 輪郭線
OP 撮像光学系
P1,P2,P3,P4,P5 画素
α,β 輪郭線交角
DESCRIPTION OF SYMBOLS 1 Area extraction apparatus 2 Control part 3 Imaging part 4 Image processing part 4a Image processing control part 4b Image memory 4c Image input part 4d Area division part 4e Similarity calculation part 4f Area integration part 4g Parameter calculation part 5 Output part 5a Display screen 5aa , 5ab, 5ac Display area 6 Input section 7 Storage section 8 Communication section AR connected cell AR12 connected area BL, AB, A′-B ′, A ″ -B ″, T1-T2 boundary line OB object OB1, AR3 AR4 Target image region OB1-1, OB1-2, AR1, AR2 Intermediate image region OL1, OL2 Contour line OP Imaging optical system P1, P2, P3, P4, P5 Pixel α, β Contour line intersection angle

Claims (18)

画像データが示す画像の中から撮像対象に対応する対象画像領域を抽出する領域抽出装置において、
前記画像データの入力を受け付ける画像入力手段と、
前記画像データを構成する各画素値をもとに前記画像を複数の中間画像領域に分割する領域分割手段と、
前記領域分割手段によって分割された各中間画像領域の特徴量をもとに、互いに隣接する中間画像領域を統合して前記対象画像領域を成形する領域統合手段と、
を備えたことを特徴とする領域抽出装置。
In an area extraction device that extracts a target image area corresponding to an imaging target from an image indicated by image data,
Image input means for receiving input of the image data;
Area dividing means for dividing the image into a plurality of intermediate image areas based on the pixel values constituting the image data;
Based on the feature amount of each intermediate image area divided by the area dividing means, area integration means for forming the target image area by integrating adjacent intermediate image areas;
An area extracting apparatus comprising:
画像データが示す画像の中から撮像対象に対応する対象画像領域を抽出する領域抽出装置において、
前記画像データの入力を受け付ける画像入力手段と、
前記画像データを構成する各画素値をもとに前記画像を複数の中間画像領域に分割する領域分割手段と、
前記領域分割手段によって分割された各中間画像領域の特徴量をもとに、前記各中間画像領域の該各中間画像領域に隣接する中間画像領域に対する類似度を算出する類似度算出手段と、
前記類似度算出手段によって算出された各中間画像領域の前記類似度をもとに、互いに隣接する中間画像領域を統合して前記対象画像領域を成形する領域統合手段と、
を備えたことを特徴とする領域抽出装置。
In an area extraction device that extracts a target image area corresponding to an imaging target from an image indicated by image data,
Image input means for receiving input of the image data;
Area dividing means for dividing the image into a plurality of intermediate image areas based on the pixel values constituting the image data;
Similarity calculation means for calculating the similarity of each intermediate image area to an intermediate image area adjacent to each intermediate image area based on the feature amount of each intermediate image area divided by the area dividing means;
Based on the similarity of each intermediate image area calculated by the similarity calculation means, area integration means for forming the target image area by integrating adjacent intermediate image areas;
An area extracting apparatus comprising:
前記領域分割手段は、処理対象の画素の画素値と前記処理対象の画素に隣接する画素の画素値との差が所定の値を超えている場合、前記処理対象の画素の位置を前記画像の分割位置とすることを特徴とする請求項1または2に記載の領域抽出装置。   When the difference between the pixel value of the pixel to be processed and the pixel value of a pixel adjacent to the pixel to be processed exceeds a predetermined value, the area dividing unit determines the position of the pixel to be processed in the image. The region extraction apparatus according to claim 1 or 2, wherein the division position is set. 前記領域分割手段は、前記画像データを構成する各画素値をもとにエッジ画像データを求め、前記画像中の処理対象の画素に対応する前記エッジ画像データ中のエッジ画像画素値が所定の値を超えている場合、前記処理対象の画素の位置を前記画像の分割位置とすることを特徴とする請求項1または2に記載の領域抽出装置。   The region dividing unit obtains edge image data based on each pixel value constituting the image data, and an edge image pixel value in the edge image data corresponding to a pixel to be processed in the image is a predetermined value. 3. The region extracting apparatus according to claim 1, wherein the position of the pixel to be processed is set as a division position of the image. 前記特徴量は、前記領域分割手段によって分割された中間画像領域の輪郭線と該中間画像領域に隣接する中間画像領域の輪郭線との交角を示す輪郭線交角を含み、
前記類似度算出手段は、前記輪郭線交角をもとに前記類似度を算出することを特徴とする請求項2に記載の領域抽出装置。
The feature amount includes a contour intersection angle indicating an intersection angle between the contour line of the intermediate image region divided by the region dividing unit and the contour line of the intermediate image region adjacent to the intermediate image region,
The region extraction apparatus according to claim 2, wherein the similarity calculation unit calculates the similarity based on the contour line intersection angle.
前記特徴量は、前記領域分割手段によって分割された中間画像領域と該中間画像領域に隣接する中間画像領域との境界上にある画素の画素値と該境界の近傍にある画素の画素値との差を示す画素値差を含み、
前記類似度算出手段は、前記画素値差をもとに前記類似度を算出することを特徴とする請求項2に記載の領域抽出装置。
The feature amount is a pixel value of a pixel on a boundary between an intermediate image region divided by the region dividing unit and an intermediate image region adjacent to the intermediate image region, and a pixel value of a pixel in the vicinity of the boundary. Including pixel value difference indicating the difference,
The region extraction apparatus according to claim 2, wherein the similarity calculation unit calculates the similarity based on the pixel value difference.
前記特徴量は、前記領域分割手段によって分割された中間画像領域と該中間画像領域に隣接する中間画像領域との境界上にある画素のエッジ強度と該境界の近傍にある画素のエッジ強度との差を示すエッジ強度差を含み、
前記類似度算出手段は、前記エッジ強度差をもとに前記類似度を算出することを特徴とする請求項2に記載の領域抽出装置。
The feature amount is an edge strength of a pixel on a boundary between an intermediate image region divided by the region dividing unit and an intermediate image region adjacent to the intermediate image region, and an edge strength of a pixel near the boundary. Including edge strength differences indicating differences,
The region extraction apparatus according to claim 2, wherein the similarity calculation unit calculates the similarity based on the edge strength difference.
前記領域統合手段によって成形された前記対象画像領域の特性を示す領域パラメータを求める領域パラメータ算出手段と、
前記領域パラメータ算出手段によって求められた前記領域パラメータに基づく表示を行う出力手段と、
をさらに備えたことを特徴とする請求項1または2に記載の領域抽出装置。
Area parameter calculating means for obtaining area parameters indicating the characteristics of the target image area formed by the area integrating means;
Output means for performing display based on the area parameter obtained by the area parameter calculating means;
The region extracting apparatus according to claim 1, further comprising:
前記領域パラメータ算出手段は、前記対象画像領域毎の特性を示す前記領域パラメータを求めることを特徴とする請求項8に記載の領域抽出装置。   9. The area extracting apparatus according to claim 8, wherein the area parameter calculating unit obtains the area parameter indicating characteristics for each target image area. 前記領域パラメータ算出手段は、前記対象画像領域の集合の特性を示す前記領域パラメータを求めることを特徴とする請求項8に記載の領域抽出装置。   9. The area extracting apparatus according to claim 8, wherein the area parameter calculating unit obtains the area parameter indicating characteristics of the set of the target image areas. 前記出力手段は、前記領域パラメータが示す前記特性を画像情報として表示することを特徴とする請求項8に記載の領域抽出装置。   9. The area extracting apparatus according to claim 8, wherein the output unit displays the characteristic indicated by the area parameter as image information. 前記出力手段は、前記領域パラメータが示す前記特性を数値情報として表示することを特徴とする請求項8に記載の領域抽出装置。   9. The area extracting apparatus according to claim 8, wherein the output means displays the characteristic indicated by the area parameter as numerical information. 前記出力手段は、前記領域統合手段によって成形された前記対象画像領域を画像情報としてさらに表示することを特徴とする請求項8〜12のいずれか一つに記載の領域抽出装置。   The region extraction apparatus according to claim 8, wherein the output unit further displays the target image region formed by the region integration unit as image information. 前記出力手段が行う表示に関する表示指示情報を取得する指示取得手段をさらに備え、
前記出力手段は、前記指示取得手段が取得した前記表示指示情報をもとに前記領域パラメータに基づく表示を切り替えることを特徴とする請求項8〜13のいずれか一つに記載の領域抽出装置。
Further comprising instruction acquisition means for acquiring display instruction information relating to display performed by the output means;
The region extraction apparatus according to claim 8, wherein the output unit switches display based on the region parameter based on the display instruction information acquired by the instruction acquisition unit.
前記撮像対象は、細胞または生体組織であることを特徴とする請求項1〜14のいずれか一つに記載の領域抽出装置。   The region extraction apparatus according to claim 1, wherein the imaging target is a cell or a biological tissue. 前記撮像対象を撮像して前記画像データを生成する撮像手段をさらに備え、
前記画像入力手段は、前記撮像手段によって生成された前記画像データの入力を受け付けることを特徴とする請求項1〜15のいずれか一つに記載の領域抽出装置。
It further comprises imaging means for imaging the imaging object and generating the image data,
The area extracting apparatus according to claim 1, wherein the image input unit receives an input of the image data generated by the imaging unit.
請求項16に記載の領域抽出装置を備えた顕微鏡システムであって、
前記撮像対象の像を拡大投影する結像光学系を備え、
前記領域抽出装置における前記撮像手段は、前記結像光学系によって該結像光学系の結像面に拡大投影された前記撮像対象の像を撮像して前記画像データを生成することを特徴とする顕微鏡システム。
A microscope system comprising the region extraction device according to claim 16,
An imaging optical system for enlarging and projecting the image to be imaged;
The image pickup means in the region extracting device picks up an image of the image pickup object enlarged and projected on the image forming plane of the image forming optical system by the image forming optical system, and generates the image data. Microscope system.
入力された画像データが示す画像の中から撮像対象に対応する対象画像領域を抽出する領域抽出装置に、前記画像の中から前記撮像対象に対応する領域を抽出させるための領域抽出プログラムであって、
前記領域抽出装置に、
前記画像データを構成する各画素値をもとに前記画像を複数の中間画像領域に分割する領域分割手順と、
前記領域分割手段によって分割された各中間画像領域の特徴量をもとに、前記各中間画像領域の該各中間画像領域に隣接する中間画像領域に対する類似度を算出する類似度算出手順と、
前記類似度算出手段によって算出された各中間画像領域の前記類似度をもとに、互いに隣接する中間画像領域を統合して前記対象画像領域を成形する領域統合手順と、
を実行させることを特徴とする領域抽出プログラム。
An area extraction program for causing an area extraction device that extracts a target image area corresponding to an imaging target from an image indicated by input image data to extract an area corresponding to the imaging target from the image. ,
In the region extraction device,
A region dividing procedure for dividing the image into a plurality of intermediate image regions based on each pixel value constituting the image data;
A similarity calculation procedure for calculating the similarity of each intermediate image region to an intermediate image region adjacent to each intermediate image region based on the feature amount of each intermediate image region divided by the region dividing unit;
Based on the similarity of each intermediate image area calculated by the similarity calculation means, an area integration procedure for forming the target image area by integrating adjacent intermediate image areas;
A region extraction program characterized by causing
JP2005024513A 2005-01-31 2005-01-31 Region-extracting device, microscope system and region-extracting program Withdrawn JP2006208339A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005024513A JP2006208339A (en) 2005-01-31 2005-01-31 Region-extracting device, microscope system and region-extracting program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005024513A JP2006208339A (en) 2005-01-31 2005-01-31 Region-extracting device, microscope system and region-extracting program

Publications (1)

Publication Number Publication Date
JP2006208339A true JP2006208339A (en) 2006-08-10

Family

ID=36965346

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005024513A Withdrawn JP2006208339A (en) 2005-01-31 2005-01-31 Region-extracting device, microscope system and region-extracting program

Country Status (1)

Country Link
JP (1) JP2006208339A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009109362A (en) * 2007-10-30 2009-05-21 Tokyoto Igaku Kenkyu Kiko Method and apparatus for evaluating condition of sample
WO2009104325A1 (en) * 2008-02-21 2009-08-27 大日本スクリーン製造株式会社 Line drawing processing device, program, and line drawing processing method
JP2010032445A (en) * 2008-07-30 2010-02-12 Olympus Corp Cell measuring instrument and cell measuring method
JP2010204752A (en) * 2009-02-27 2010-09-16 Dainippon Printing Co Ltd Object detection device
JP2010263872A (en) * 2009-05-18 2010-11-25 Olympus Corp Cell image analyzer
JP2012043395A (en) * 2010-08-20 2012-03-01 Chi Mei Electronics Corp Input detection method, input detection device, input detection program and recording medium
WO2013187148A1 (en) * 2012-06-15 2013-12-19 オリンパス株式会社 Image processing device, microscope system, endoscope system, and image processing method
JP2014063376A (en) * 2012-09-21 2014-04-10 Nikon Systems Inc Image processing device and program
WO2014136276A1 (en) * 2013-03-08 2014-09-12 株式会社島津製作所 Device for setting region of interest for analysis
JP2016009210A (en) * 2014-06-20 2016-01-18 株式会社リコー Data generation device, data generation method, and data generation program
JP2017005389A (en) * 2015-06-05 2017-01-05 キヤノン株式会社 Image recognition device, image recognition method, and program

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009109362A (en) * 2007-10-30 2009-05-21 Tokyoto Igaku Kenkyu Kiko Method and apparatus for evaluating condition of sample
WO2009104325A1 (en) * 2008-02-21 2009-08-27 大日本スクリーン製造株式会社 Line drawing processing device, program, and line drawing processing method
JP2009199308A (en) * 2008-02-21 2009-09-03 Dainippon Screen Mfg Co Ltd Line art processor, program, and line art processing method
US20110187721A1 (en) * 2008-02-21 2011-08-04 Itaru Furukawa Line drawing processing apparatus, storage medium storing a computer-readable program, and line drawing processing method
JP2010032445A (en) * 2008-07-30 2010-02-12 Olympus Corp Cell measuring instrument and cell measuring method
JP2010204752A (en) * 2009-02-27 2010-09-16 Dainippon Printing Co Ltd Object detection device
JP2010263872A (en) * 2009-05-18 2010-11-25 Olympus Corp Cell image analyzer
JP2012043395A (en) * 2010-08-20 2012-03-01 Chi Mei Electronics Corp Input detection method, input detection device, input detection program and recording medium
JPWO2013187148A1 (en) * 2012-06-15 2016-02-04 オリンパス株式会社 Image processing apparatus, microscope system, endoscope system, and image processing method
WO2013187148A1 (en) * 2012-06-15 2013-12-19 オリンパス株式会社 Image processing device, microscope system, endoscope system, and image processing method
US9517013B2 (en) 2012-06-15 2016-12-13 Olympus Corporation Image processing apparatus, microscope system, endoscope system, and image processing method
JP2014063376A (en) * 2012-09-21 2014-04-10 Nikon Systems Inc Image processing device and program
WO2014136276A1 (en) * 2013-03-08 2014-09-12 株式会社島津製作所 Device for setting region of interest for analysis
JP5983858B2 (en) * 2013-03-08 2016-09-06 株式会社島津製作所 Analysis area setting device
JPWO2014136276A1 (en) * 2013-03-08 2017-02-09 株式会社島津製作所 Analysis area setting device
US9995922B2 (en) 2013-03-08 2018-06-12 Shimadzu Corporation Analysis target region setting apparatus
JP2016009210A (en) * 2014-06-20 2016-01-18 株式会社リコー Data generation device, data generation method, and data generation program
US10088997B2 (en) 2014-06-20 2018-10-02 Ricoh Company, Ltd. Apparatus for generating data, method for generating data, and non-transitory computer-readable medium
JP2017005389A (en) * 2015-06-05 2017-01-05 キヤノン株式会社 Image recognition device, image recognition method, and program
US10303983B2 (en) 2015-06-05 2019-05-28 Canon Kabushiki Kaisha Image recognition apparatus, image recognition method, and recording medium

Similar Documents

Publication Publication Date Title
JP2006208339A (en) Region-extracting device, microscope system and region-extracting program
US8073233B2 (en) Image processor, microscope system, and area specifying program
JP5117353B2 (en) Image processing apparatus, image processing program, and image processing method
EP2833288B1 (en) Face calibration method and system, and computer storage medium
US10045731B2 (en) Device and apparatus to facilitate cervix cancer screening
JP5804220B1 (en) Image processing apparatus and image processing program
CN101599175B (en) Detection method for determining alteration of shooting background and image processing device
JP5442542B2 (en) Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support, and recording medium recording the control program
WO2008044466A1 (en) Image processing device, image processing method, and image processing program
CN110619318B (en) Image processing method, microscope, system and medium based on artificial intelligence
JP2006209698A (en) Target tracking device, microscope system and target tracking program
EP3299811B1 (en) Image processing device, image processing method, and program for image processing
CN108601509B (en) Image processing apparatus, image processing method, and program-recorded medium
JP2007048006A (en) Image processor and image processing program
JP5182689B2 (en) Fundus image analysis method, apparatus and program thereof
CN107240093B (en) Automatic diagnosis method for cancer cells
JP4496860B2 (en) Cell identification device, cell identification method, cell identification program, and cell analysis device
JP3860540B2 (en) Entropy filter and region extraction method using the filter
JP5530126B2 (en) Three-dimensional cell image analysis system and three-dimensional cell image analyzer used therefor
JP4630106B2 (en) Corneal endothelial cell image processing device
WO2019181072A1 (en) Image processing method, computer program, and recording medium
JP7254283B2 (en) Threshold determination method, image processing method, specimen image evaluation method, computer program and recording medium
JP2008139101A (en) Method and apparatus for extracting region becoming judge target of crystallized state from electronic image of protein solution
JP2006017489A (en) Cell identification device, program for cell identification, cell analysis device, and program for cell analysis
GB2478133A (en) A method of Image classification based on duct and nuclei parameters

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080401