JP2006208339A - Region-extracting device, microscope system and region-extracting program - Google Patents
Region-extracting device, microscope system and region-extracting program Download PDFInfo
- Publication number
- JP2006208339A JP2006208339A JP2005024513A JP2005024513A JP2006208339A JP 2006208339 A JP2006208339 A JP 2006208339A JP 2005024513 A JP2005024513 A JP 2005024513A JP 2005024513 A JP2005024513 A JP 2005024513A JP 2006208339 A JP2006208339 A JP 2006208339A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- area
- intermediate image
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、入力された画像データが示す画像中の撮像対象について画像処理を行う領域抽出装置、顕微鏡システムおよび領域抽出プログラムに関し、特に入力された画像データが示す画像の中から撮像対象に対応する領域を抽出する領域抽出装置、顕微鏡システムおよび領域抽出プログラムに関するものである。 The present invention relates to an area extraction device, a microscope system, and an area extraction program that perform image processing on an imaging target in an image indicated by input image data, and particularly corresponds to an imaging target from images indicated by input image data. The present invention relates to a region extraction apparatus, a microscope system, and a region extraction program for extracting a region.
従来、デジタルカメラや撮像装置を備えた顕微鏡等によって撮像し取得した画像を所望の領域に分割したり、取得した画像から特定の撮像対象に対応する領域を抽出したりする画像処理技術が、様々な分野で利用され、重要な技術となっている。たとえば、病理医学の分野では、このような画像処理技術が、顕微鏡画像から細胞に対応する領域を抽出する方法として利用され、病理学的な診断を下したり、試薬を作用させた細胞の経時変化を観測したりするなどの場面において、重要な技術となっている。 Conventionally, there are various image processing techniques for dividing an image captured and acquired by a microscope or the like equipped with a digital camera or an imaging device into desired regions, or extracting a region corresponding to a specific imaging target from the acquired images. It is used in various fields and has become an important technology. For example, in the field of pathology, such an image processing technique is used as a method for extracting a region corresponding to a cell from a microscopic image, and a pathological diagnosis is made or the time of a cell on which a reagent is applied is changed. It is an important technology in situations such as observing changes.
通常、細胞を撮像した画像では、複数の細胞が重なり合い、連結した1つの細胞として観測される。このような連結細胞から、視覚的に違和感のないように、境界線に忠実に個々の細胞の領域を分割して抽出する細胞画像処理方法が提案されている(たとえば、特許文献1参照)。この細胞画像処理方法では、細胞を撮像した原画像を低感度で2値化して実際の数よりも少なく細胞の領域を抽出した少なめ細胞画像と、原画像を高感度で2値化して実際の数よりも多く細胞の領域を抽出した多め細胞画像とを生成し、少なめ細胞画像の分割対象領域に対応する多め細胞画像の画像領域から、連結細胞を構成する個々の細胞の境界線を分割線として抽出し、抽出した分割線を少なめ細胞画像の分割対象領域に当てはめることによって個々の細胞に対応する領域を分割し抽出するようにしている。 Usually, in an image obtained by imaging cells, a plurality of cells overlap and are observed as one connected cell. A cell image processing method has been proposed in which individual cell regions are divided and extracted from such connected cells so as to avoid visually uncomfortable feeling (for example, see Patent Document 1). In this cell image processing method, an original image obtained by capturing cells is binarized with low sensitivity to extract a cell region less than the actual number, and the original image is binarized with high sensitivity to obtain an actual image. A large cell image is generated by extracting more cell areas than the number, and the boundary lines of the individual cells constituting the connected cell are divided from the image area of the larger cell image corresponding to the division target area of the smaller cell image. And by applying the extracted dividing lines to the division target areas of the cell image, the areas corresponding to the individual cells are divided and extracted.
ところで、画像上で観測される連結細胞では、重なり合った細胞の境界線の両端部で各細胞の輪郭線がなす交角は、必ずしも180度より大きくなるとは限らず、つまり、連結細胞の輪郭形状は、必ずしも凹状になるとは限らない。たとえば、図10に示すように楕円形状の2つの細胞が重なり合って1つに観測される連結細胞ARの場合、端点T1,T2を結ぶ境界線T1−T2に関して、一方の端点T1部では、2つの細胞の輪郭線がなす交角θ1は180度より大きく、輪郭形状は凹状となっているが、他方の端点T2部では、2つの細胞の輪郭線がなす交角θ2は約180度であり、ほぼ直線状の輪郭形状となっている。 By the way, in the connected cells observed on the image, the intersection angle formed by the contour lines of the cells at both ends of the boundary line of the overlapping cells is not necessarily larger than 180 degrees, that is, the contour shape of the connected cells is However, it is not always concave. For example, as shown in FIG. 10, in the case of a connected cell AR in which two elliptical cells overlap and are observed as one, with respect to a boundary line T1-T2 connecting the end points T1 and T2, one end point T1 has 2 The intersection angle θ1 formed by the outline of one cell is greater than 180 degrees and the outline shape is concave, but at the other end point T2, the intersection angle θ2 formed by the outline of the two cells is about 180 degrees, It has a linear contour shape.
一方、上述した従来の細胞画像処理方法では、連結細胞の輪郭線上にあってこの輪郭線のなす角があらかじめしきい値として設定された角度以上である点を分割候補点として抽出し、分割候補点が2点以上抽出された場合、各分割候補点に対応する境界線を分割線として抽出するようにしている。分割候補点が2点以上抽出されなかった場合には、分割線が抽出されず、連結細胞の分割は行われない。 On the other hand, in the above-described conventional cell image processing method, a point that is on the outline of a connected cell and whose angle formed by the outline is equal to or larger than a preset angle is extracted as a division candidate point. When two or more points are extracted, a boundary line corresponding to each division candidate point is extracted as a division line. When two or more candidate division points are not extracted, the dividing line is not extracted and the connected cells are not divided.
しかしながら、このような細胞画像処理方法では、通常、輪郭線のなす角のしきい値が180度より大きく設定されるため、図10に示すような連結細胞ARに対しては、分割候補点として端点T1は抽出されるものの端点T2は抽出されず、結果として分割線が抽出されずに連結細胞ARの分割が行われなくなるという問題があった。また、この問題を解決するため、輪郭線のなす角のしきい値を180度より小さく設定すると、本来分割候補点でない点を分割候補点として抽出し、分割する必要のない領域まで過分割してしまう場合が生じるという問題があった。 However, in such a cell image processing method, since the threshold value of the angle formed by the contour line is normally set to be larger than 180 degrees, the connected cell AR as shown in FIG. Although the end point T1 is extracted, the end point T2 is not extracted. As a result, there is a problem in that the dividing line is not extracted and the connected cell AR is not divided. In order to solve this problem, if the threshold of the angle formed by the contour line is set to be smaller than 180 degrees, points that are not originally division candidate points are extracted as division candidate points, and overdivision is performed to areas that do not need to be divided. There was a problem that it might happen.
また、上述した従来の細胞画像処理方法では、分割して抽出すべき細胞の大きさをあらかじめ設定しており、検出した細胞の大きさがあらかじめ設定した大きさに対応するか否かによって領域の分割を行うか否かを判定するようにしているため、対象とする細胞の大きさにばらつきがあると、1つの大きな細胞を過分割してしまう場合が生じるという問題があった。 Further, in the above-described conventional cell image processing method, the size of the cell to be divided and extracted is set in advance, and the region is determined depending on whether or not the detected cell size corresponds to the preset size. Since it is determined whether or not to divide, if there is a variation in the size of the target cells, there is a problem that one large cell may be excessively divided.
さらに、上述した従来の細胞画像処理方法では、原画像の2値化処理を検出感度を変えて2度行うことによって少なめ細胞画像と多め細胞画像とを生成するようにしているため、領域を抽出する処理が非効率的である上に、多大な計算時間を費やしてしまうという問題があった。 Further, in the above-described conventional cell image processing method, since the binarization processing of the original image is performed twice with different detection sensitivities, a smaller cell image and a larger cell image are generated. In addition to the inefficiency of the processing to be performed, there is a problem that a great amount of calculation time is consumed.
本発明は、上記に鑑みてなされたものであって、複数の対象が重なり合っている場合でも、また、対象の大きさにばらつきがある場合でも、対象を撮像した画像から正確に対象に対応する領域を抽出しやすくなるとともに、計算時間および計算負荷を削減して効率的に領域を抽出することができる領域抽出装置、顕微鏡システムおよび領域抽出プログラムを提供することを目的とする。 The present invention has been made in view of the above, and even when a plurality of objects overlap each other or when there is variation in the size of the object, the object is accurately handled from the image obtained by capturing the object. An object of the present invention is to provide a region extraction device, a microscope system, and a region extraction program that can easily extract a region and can efficiently extract a region by reducing calculation time and calculation load.
上記の目的を達成するために、請求項1にかかる領域抽出装置は、画像データが示す画像の中から撮像対象に対応する対象画像領域を抽出する領域抽出装置において、前記画像データの入力を受け付ける画像入力手段と、前記画像データを構成する各画素値をもとに前記画像を複数の中間画像領域に分割する領域分割手段と、前記領域分割手段によって分割された各中間画像領域の特徴量をもとに、互いに隣接する中間画像領域を統合して前記対象画像領域を成形する領域統合手段と、を備えたことを特徴とする。 In order to achieve the above object, an area extracting apparatus according to claim 1 accepts input of image data in an area extracting apparatus that extracts a target image area corresponding to an imaging target from an image indicated by image data. An image input unit, a region dividing unit that divides the image into a plurality of intermediate image regions based on pixel values constituting the image data, and a feature amount of each intermediate image region divided by the region dividing unit. Originally, the image processing apparatus includes an area integration unit that integrates adjacent intermediate image areas to form the target image area.
また、請求項2にかかる領域抽出装置は、画像データが示す画像の中から撮像対象に対応する対象画像領域を抽出する領域抽出装置において、前記画像データの入力を受け付ける画像入力手段と、前記画像データを構成する各画素値をもとに前記画像を複数の中間画像領域に分割する領域分割手段と、前記領域分割手段によって分割された各中間画像領域の特徴量をもとに、前記各中間画像領域の該各中間画像領域に隣接する中間画像領域に対する類似度を算出する類似度算出手段と、前記類似度算出手段によって算出された各中間画像領域の前記類似度をもとに、互いに隣接する中間画像領域を統合して前記対象画像領域を成形する領域統合手段と、を備えたことを特徴とする。 An area extraction apparatus according to claim 2 is an area extraction apparatus that extracts a target image area corresponding to an imaging target from an image indicated by image data, and an image input unit that receives input of the image data; Area dividing means for dividing the image into a plurality of intermediate image areas based on each pixel value constituting the data, and each intermediate image based on the feature amount of each intermediate image area divided by the area dividing means. Similarity calculation means for calculating the similarity of the image area to the intermediate image area adjacent to each intermediate image area, and adjacent to each other based on the similarity of each intermediate image area calculated by the similarity calculation means And an area integration unit that forms the target image area by integrating the intermediate image areas.
また、請求項3にかかる領域抽出装置は、上記の発明において、前記領域分割手段は、処理対象の画素の画素値と前記処理対象の画素に隣接する画素の画素値との差が所定の値を超えている場合、前記処理対象の画素の位置を前記画像の分割位置とすることを特徴とする。 According to a third aspect of the present invention, in the region extraction device according to the above invention, the region dividing unit is configured such that a difference between a pixel value of a processing target pixel and a pixel value of a pixel adjacent to the processing target pixel is a predetermined value If the number of pixels exceeds the threshold, the position of the pixel to be processed is set as a division position of the image.
また、請求項4にかかる領域抽出装置は、上記の発明において、前記領域分割手段は、前記画像データを構成する各画素値をもとにエッジ画像データを求め、前記画像中の処理対象の画素に対応する前記エッジ画像データ中のエッジ画像画素値が所定の値を超えている場合、前記処理対象の画素の位置を前記画像の分割位置とすることを特徴とする。 According to a fourth aspect of the present invention, in the above-described invention, the region dividing unit obtains edge image data based on each pixel value constituting the image data, and the pixel to be processed in the image When the edge image pixel value in the edge image data corresponding to is greater than a predetermined value, the position of the pixel to be processed is set as the division position of the image.
また、請求項5にかかる領域抽出装置は、上記の発明において、前記特徴量は、前記領域分割手段によって分割された中間画像領域の輪郭線と該中間画像領域に隣接する中間画像領域の輪郭線との交角を示す輪郭線交角を含み、前記類似度算出手段は、前記輪郭線交角をもとに前記類似度を算出することを特徴とする。 According to a fifth aspect of the present invention, in the above-described invention, the feature amount includes the contour line of the intermediate image region divided by the region dividing unit and the contour line of the intermediate image region adjacent to the intermediate image region. The similarity calculation means calculates the similarity based on the contour intersection angle.
また、請求項6にかかる領域抽出装置は、上記の発明において、前記特徴量は、前記領域分割手段によって分割された中間画像領域と該中間画像領域に隣接する中間画像領域との境界上にある画素の画素値と該境界の近傍にある画素の画素値との差を示す画素値差を含み、前記類似度算出手段は、前記画素値差をもとに前記類似度を算出することを特徴とする。 According to a sixth aspect of the present invention, in the above-described invention, the feature amount is on a boundary between the intermediate image region divided by the region dividing unit and the intermediate image region adjacent to the intermediate image region. Including a pixel value difference indicating a difference between a pixel value of a pixel and a pixel value of a pixel in the vicinity of the boundary, and the similarity calculation unit calculates the similarity based on the pixel value difference. And
また、請求項7にかかる領域抽出装置は、上記の発明において、前記特徴量は、前記領域分割手段によって分割された中間画像領域と該中間画像領域に隣接する中間画像領域との境界上にある画素のエッジ強度と該境界の近傍にある画素のエッジ強度との差を示すエッジ強度差を含み、前記類似度算出手段は、前記エッジ強度差をもとに前記類似度を算出することを特徴とする。 According to a seventh aspect of the present invention, in the above invention, the feature amount is on a boundary between the intermediate image region divided by the region dividing unit and the intermediate image region adjacent to the intermediate image region. An edge strength difference indicating a difference between an edge strength of a pixel and an edge strength of a pixel in the vicinity of the boundary, and the similarity calculation means calculates the similarity based on the edge strength difference. And
また、請求項8にかかる領域抽出装置は、上記の発明において、前記領域統合手段によって成形された前記対象画像領域の特性を示す領域パラメータを求める領域パラメータ算出手段と、前記領域パラメータ算出手段によって求められた前記領域パラメータに基づく表示を行う出力手段と、をさらに備えたことを特徴とする。 According to an eighth aspect of the present invention, in the above invention, the region extracting device is configured to obtain a region parameter indicating a region parameter indicating a characteristic of the target image region formed by the region integrating unit, and the region parameter calculating unit. And an output means for performing display based on the region parameter.
また、請求項9にかかる領域抽出装置は、上記の発明において、前記領域パラメータ算出手段は、前記対象画像領域毎の特性を示す前記領域パラメータを求めることを特徴とする。 The area extracting apparatus according to claim 9 is characterized in that, in the above invention, the area parameter calculating means obtains the area parameter indicating a characteristic for each target image area.
また、請求項10にかかる領域抽出装置は、上記の発明において、前記領域パラメータ算出手段は、前記対象画像領域の集合の特性を示す前記領域パラメータを求めることを特徴とする。 The area extraction apparatus according to claim 10 is characterized in that, in the above invention, the area parameter calculation means obtains the area parameter indicating a characteristic of the set of the target image areas.
また、請求項11にかかる領域抽出装置は、上記の発明において、前記出力手段は、前記領域パラメータが示す前記特性を画像情報として表示することを特徴とする。 According to an eleventh aspect of the present invention, in the above invention, the output means displays the characteristic indicated by the region parameter as image information.
また、請求項12にかかる領域抽出装置は、上記の発明において、前記出力手段は、前記領域パラメータが示す前記特性を数値情報として表示することを特徴とする。 According to a twelfth aspect of the present invention, in the above invention, the output means displays the characteristic indicated by the region parameter as numerical information.
また、請求項13にかかる領域抽出装置は、上記の発明において、前記出力手段は、前記領域統合手段によって成形された前記対象画像領域を画像情報としてさらに表示することを特徴とする。 According to a thirteenth aspect of the present invention, in the above invention, the output unit further displays the target image region formed by the region integration unit as image information.
また、請求項14にかかる領域抽出装置は、上記の発明において、前記出力手段が行う表示に関する表示指示情報を取得する指示取得手段をさらに備え、前記出力手段は、前記指示取得手段が取得した前記表示指示情報をもとに前記領域パラメータに基づく表示を切り替えることを特徴とする。 The area extracting apparatus according to a fourteenth aspect of the present invention further includes an instruction acquiring unit that acquires display instruction information related to display performed by the output unit in the above invention, wherein the output unit acquires the instruction acquired by the instruction acquiring unit. The display based on the area parameter is switched based on display instruction information.
また、請求項15にかかる領域抽出装置は、上記の発明において、前記撮像対象は、細胞または生体組織であることを特徴とする。 According to a fifteenth aspect of the present invention, in the above-described invention, the imaging object is a cell or a biological tissue.
また、請求項16にかかる領域抽出装置は、上記の発明において、前記撮像対象を撮像して前記画像データを生成する撮像手段をさらに備え、前記画像入力手段は、前記撮像手段によって生成された前記画像データの入力を受け付けることを特徴とする。 According to a sixteenth aspect of the present invention, in the above invention, the region extraction apparatus further includes an imaging unit that images the imaging target and generates the image data, wherein the image input unit is generated by the imaging unit. It is characterized by accepting input of image data.
また、請求項17にかかる顕微鏡システムは、上記の領域抽出装置を備えた顕微鏡システムであって、前記撮像対象の像を拡大投影する結像光学系を備え、前記領域抽出装置における前記撮像手段は、前記結像光学系によって該結像光学系の結像面に拡大投影された前記撮像対象の像を撮像して前記画像データを生成することを特徴とする。 A microscope system according to a seventeenth aspect is a microscope system including the region extraction device described above, and includes an imaging optical system that magnifies and projects the image of the imaging target, and the imaging unit in the region extraction device includes: The imaging optical system generates the image data by capturing an image of the imaging target that is enlarged and projected onto the imaging surface of the imaging optical system.
また、請求項18にかかる領域抽出プログラムは、入力された画像データが示す画像の中から撮像対象に対応する対象画像領域を抽出する領域抽出装置に、前記画像の中から前記撮像対象に対応する領域を抽出させるための領域抽出プログラムであって、前記領域抽出装置に、前記画像データを構成する各画素値をもとに前記画像を複数の中間画像領域に分割する領域分割手順と、前記領域分割手段によって分割された各中間画像領域の特徴量をもとに、前記各中間画像領域の該各中間画像領域に隣接する中間画像領域に対する類似度を算出する類似度算出手順と、前記類似度算出手段によって算出された各中間画像領域の前記類似度をもとに、互いに隣接する中間画像領域を統合して前記対象画像領域を成形する領域統合手順と、を実行させることを特徴とする。 An area extraction program according to claim 18 corresponds to an area extraction device that extracts a target image area corresponding to an imaging target from an image indicated by input image data, and corresponds to the imaging target from the image. An area extraction program for extracting an area, wherein the area extraction apparatus divides the image into a plurality of intermediate image areas based on each pixel value constituting the image data, and the area A similarity calculation procedure for calculating a similarity between each intermediate image area and an intermediate image area adjacent to each intermediate image area based on a feature amount of each intermediate image area divided by the dividing unit; An area integration procedure for forming the target image area by integrating adjacent intermediate image areas based on the similarity of each intermediate image area calculated by the calculation means is executed. And wherein the Rukoto.
本発明にかかる領域抽出装置、顕微鏡システムおよび領域抽出プログラムによれば、複数の対象が重なり合っている場合でも、また、対象の大きさにばらつきがある場合でも、対象を撮像した画像から正確に対象に対応する領域を抽出しやすくなるとともに、計算時間および計算負荷を削減して効率的に領域を抽出することができる。 According to the region extraction device, the microscope system, and the region extraction program according to the present invention, even when a plurality of targets overlap each other or when the size of the target varies, the target is accurately obtained from the image obtained by capturing the target. It is easy to extract a region corresponding to, and the region can be extracted efficiently by reducing calculation time and calculation load.
以下、添付図面を参照して、本発明にかかる領域抽出装置、顕微鏡システムおよび領域抽出プログラムの好適な実施の形態を詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付している。 DETAILED DESCRIPTION Exemplary embodiments of a region extraction device, a microscope system, and a region extraction program according to the present invention will be described below in detail with reference to the accompanying drawings. Note that the present invention is not limited to the embodiments. In the description of the drawings, the same parts are denoted by the same reference numerals.
(実施の形態)
図1は、この実施の形態にかかる領域抽出装置および顕微鏡システムの構成を示すブロック図である。図1に示すように、この実施の形態にかかる領域抽出装置1は、領域抽出装置1の全体の処理および動作を制御する制御部2と、撮像光学系OPの結像面に拡大投影された対象OBの像を撮像して画像データを生成する撮像部3と、撮像部3が生成した画像データを解析し処理する画像処理部4と、画像情報を含む各種情報の表示出力等を行う出力部5と、出力部5による表示出力に関する表示指示情報等の各種情報の入力を受ける入力部6と、画像情報等の各種情報を記憶する記憶部7と、外部装置との間で各種情報の通信を行う通信部8と、を備える。撮像部3、画像処理部4、出力部5、入力部6、記憶部7および通信部8は、制御部2に電気的に接続され、制御部2は、これらの各構成部位を制御する。また、撮像光学系OPは、細胞、生体組織等である撮像対象としての対象OBからの光を集光し、対象OBの像を結像面上に拡大投影する。この実施の形態にかかる顕微鏡システムは、これら撮像光学系OP、領域抽出装置1および対象OBを照明するための図示しない照明装置を備えている。
(Embodiment)
FIG. 1 is a block diagram showing a configuration of a region extraction apparatus and a microscope system according to this embodiment. As shown in FIG. 1, the area extraction apparatus 1 according to this embodiment is enlarged and projected on a control unit 2 that controls the overall processing and operation of the area extraction apparatus 1 and the imaging plane of the imaging optical system OP. An imaging unit 3 that captures an image of the target OB and generates image data, an image processing unit 4 that analyzes and processes the image data generated by the imaging unit 3, and an output that performs display output of various types of information including image information Various information among the external device, the
制御部2は、記憶部7が記憶した処理プログラムを実行するCPU等によって実現され、領域抽出装置1の各構成部位が行う各種処理および動作を制御する。なお、制御部2は、撮像光学系OPおよび対象OBを照明するための照明装置をさらに制御するようにし、対象OBの像を拡大投影する際のフォーカス、ズーム、絞り等の各種設定を行うようにしてもよい。 The control unit 2 is realized by a CPU or the like that executes a processing program stored in the storage unit 7 and controls various processes and operations performed by each component of the region extraction device 1. Note that the control unit 2 further controls the imaging optical system OP and the illumination device for illuminating the target OB, and performs various settings such as focus, zoom, and aperture when the image of the target OB is enlarged and projected. It may be.
撮像部3は、CCD、CMOS等の固体撮像素子とA/D変換器とを用いて実現される。撮像部3は、撮像光学系OPが拡大投影した対象OBの像を固体撮像素子によって検出してアナログ信号である電気信号に変換し、変換したアナログ信号をA/D変換器によってデジタル信号に変換し、変換したデジタル信号を対象OBの像を撮像した画像の画像データとして画像処理部4に出力する。なお、撮像部3が生成する画像データは、モノクロ画像データ、カラー画像データ、色差信号データ等、対象OBの像が識別できる画像データであれば任意のデータ形式でよい。 The imaging unit 3 is realized using a solid-state imaging device such as a CCD or CMOS and an A / D converter. The imaging unit 3 detects an image of the target OB enlarged and projected by the imaging optical system OP by a solid-state imaging device, converts the image into an electrical signal that is an analog signal, and converts the converted analog signal into a digital signal by an A / D converter. Then, the converted digital signal is output to the image processing unit 4 as image data of an image obtained by capturing an image of the target OB. The image data generated by the imaging unit 3 may be in any data format as long as the image data can identify the image of the target OB, such as monochrome image data, color image data, and color difference signal data.
画像処理部4は、撮像部3から取得した画像データに対して行う種々の画像処理の制御を行う画像処理制御部4aと、処理する画像データを一時的に記憶する画像メモリ4bと、撮像部3から画像データの入力を受け付ける画像入力部4cと、取得した画像データを構成する各画素値をもとに、対象OBの像を撮像した画像である原画像を複数の領域に分割することで中間画像領域を生成する領域分割部4dと、領域分割部4dによって分割された各中間画像領域の特徴を示す特徴量をもとに、中間画像領域間の類似度を算出する類似度算出部4eと、類似度算出部4eによって算出された各中間画像領域間の類似度をもとに、互いに隣接する中間画像領域を統合して対象OBに対応する対象画像領域を成形する領域統合部4fと、対象画像領域の特性を示す領域パラメータを求めるパラメータ算出部4gと、を備える。領域分割部4d、類似度算出部4e、領域統合部4fおよびパラメータ算出部4gは、画像処理制御部4aからの指示をもとに画像データを処理し、処理結果の画像データおよび領域パラメータ、各種パラメータ等を適宜に画像メモリ4bもしくは記憶部7に出力して記録する。
The image processing unit 4 includes an image
画像処理制御部4aは、記憶部7が記憶する処理プログラムであって、撮像部3から取得した画像データが示す原画像から所望の対象画像領域を抽出するための領域抽出プログラムを実行し、処理結果の画像データおよび領域パラメータ等を出力部5に出力する。また、画像処理制御部4aは、処理結果とともにこの処理結果の表示に関する表示指示情報を出力部5に出力する。この表示指示情報には、たとえば、画像処理部4によって分割し抽出された各対象画像領域を明るさ、色、ハッチング等によって区別できるように表示する、各対象画像領域の輪郭を実線、破線等の各種線によって表示する、各対象画像領域の重心位置を所定の印によって表示するなど、各対象画像領域を識別して表示するための各種表示指示情報が含まれる。また、各対象画像領域の画像上の位置、面積等の領域パラメータを数値情報として表示するための表示指示情報を含めてもよい。なお、画像処理制御部4aは、取得した画像データに対し、γ補正、Y/C分離(輝度信号/色信号分離)、色変換等の各種画像処理を行うようにしてもよい。
The image
領域分割部4dは、原画像から対象OBの輪郭線に対応するエッジを検出し、検出したエッジをもとに原画像を分割して、中間画像領域を生成する。このとき、領域分割部4dは、エッジの検出感度を高めに設定するとともに、対象OBの内部構造やデータ処理時のノイズ等の影響を受けることによって、たとえば図2−1および図2−2に示すように、原画像を実際の対象OBよりも多くの中間画像領域に分割する。ここで、図2−1は、対象OBとして細胞を撮像した原画像を示す図であり、図2−2は、この原画像を複数の中間画像領域に分割した結果の一例を示す図である。
The
この例では、図2−1に斜線で示す1つの細胞の対象画像領域OB1は、図2−2に示すように、境界線BLが誤検出されたことによって、2つの中間画像領域OB1−1,OB1−2に分割されている。この場合、領域統合部4fは、たとえば、類似度算出部4eによって算出される中間画像領域OB1−1の中間画像領域OB1−2に対する類似度をもとに、中間画像領域OB1−1,OB1−2が1つの細胞であるか否かを判断する。領域統合部4fは、中間画像領域OB1−1,OB1−2が1つの細胞であると判断した場合には、中間画像領域OB1−1,OB1−2を統合して1つの対象画像領域とするが、中間画像領域OB1−1,OB1−2が2つの細胞であると判断した場合には、中間画像領域OB1−1,OB1−2のそれぞれを1つの対象画像領域とする。
In this example, the target image area OB1 of one cell indicated by diagonal lines in FIG. 2A is divided into two intermediate image areas OB1-1 due to erroneous detection of the boundary line BL as shown in FIG. , OB1-2. In this case, the
出力部5は、液晶ディスプレイ、有機EL(Electroluminescence)ディスプレイ、LED表示素子等を用いた表示装置を備え、画像情報等の各種情報を表示する。特に、出力部5は、画像処理部4によって処理された画像データおよび領域パラメータ等に対応する画像情報および数値情報を画像処理制御部4aからの表示指示情報にしたがって表示する。なお、出力部5は、入力部6または通信部8を介して取得した外部からの表示指示情報をもとに表示を行うようにしてもよい。また、出力部5は、制御部2が制御する各種処理および動作の開始や完了を報知する報知情報、各種処理および動作で発生したエラーを報知するエラー情報等を表示するようにしてもよい。さらに、出力部5は、スピーカー等をさらに備え、報知情報やエラー情報に関する報知音や警告音等の音声情報を出力するようにしてもよい。
The
入力部6は、各種スイッチ、入力キー、タッチパネルなどによって実現され、制御部2が制御する各種処理および動作の指示情報の入力を外部から受け付け、制御部2に出力する。また、入力部6は、マイクロフォン等を備え、音声情報の入力を受け付けるようにしてもよい。
The
記憶部7は、所定のOSを起動するプログラムや各種処理プログラムなどが予め記憶されたROMと、制御部2が制御する各種処理の処理パラメータや各構成部位に入出力される各種情報などを記憶するRAMとを用いて実現される。特に、記憶部7は、原画像から所望の対象画像領域を抽出するために画像処理制御部4aが実行する領域抽出プログラムを記憶する。この他、記憶部7は、原画像の画像データ、画像処理部4の処理結果の画像データおよび領域パラメータ、画像処理部4が各種処理で参照する処理パラメータ等を記憶する。
The storage unit 7 stores a ROM in which a program for starting a predetermined OS, various processing programs, and the like are stored in advance, processing parameters for various processes controlled by the control unit 2, and various information input to and output from each component. It implement | achieves using RAM to do. In particular, the storage unit 7 stores a region extraction program executed by the image
通信部8は、RS232C、USB、IEEE1394、SCSI等の通信用インターフェース、あるいはIrDA規格に準拠した赤外線通信インターフェース等を用いて実現され、外部装置との間で画像情報、音声情報等の各種情報通信を行う。 The communication unit 8 is realized using a communication interface such as RS232C, USB, IEEE 1394, SCSI, or the like, or an infrared communication interface compliant with the IrDA standard, and various information communication such as image information and audio information with an external device. I do.
撮像光学系OPおよび対象OBを照明するための照明装置は、生物顕微鏡、工業顕微鏡、立体顕微鏡等の各種顕微鏡によって実現され、明視野観察、暗視野観察、蛍光観察、位相差観察、微分干渉観察、偏光観察、レーザ光観察、エバネッセント光観察等、各種観察手法に対応する。なお、撮像光学系OPは、デジタルカメラ等、デジタル画像を撮像可能な任意の装置で実現してよい。 The illumination device for illuminating the imaging optical system OP and the target OB is realized by various microscopes such as a biological microscope, an industrial microscope, a stereoscopic microscope, and the like, bright field observation, dark field observation, fluorescence observation, phase difference observation, differential interference observation. It corresponds to various observation methods such as polarization observation, laser light observation, and evanescent light observation. The imaging optical system OP may be realized by an arbitrary device that can capture a digital image, such as a digital camera.
なお、この実施の形態の顕微鏡システムで観測される対象OBは、たとえば、生体組織または生体組織中の細胞であって、蛍光色素等によって染色されている。細胞の染色は、細胞全体を染色するようにしてもよく、細胞核、アクチン、細胞膜等の特定部位のみを染色するようにしてもよい。なお、細胞の染色は、細胞の観測を容易にするためのものであり、染色によって色素の作用した細胞の該当部位が明るく観測されるようになる。このような染色に用いる染色色素は、蛍光色素に限定されるものではなく、対象OBの像のコントラストを一層鮮明にするものであって、コントラストの他に対象OBの特性を変質させないものであれば任意の染色色素でよい。 Note that the target OB observed by the microscope system of this embodiment is, for example, a living tissue or a cell in the living tissue, and is stained with a fluorescent dye or the like. For cell staining, the whole cell may be stained, or only a specific site such as the cell nucleus, actin, or cell membrane may be stained. The cell staining is for facilitating the observation of the cells, and the corresponding part of the cells to which the dye has acted is brightly observed by the staining. The staining dye used for such dyeing is not limited to the fluorescent dye, and may make the contrast of the image of the target OB clearer and not change the characteristics of the target OB in addition to the contrast. Any dye may be used.
つぎに、領域抽出装置1が行う処理および動作について説明する。図3は、領域抽出装置1が行う処理手順を示すフローチャートである。図3に示すように、制御部2からの指示のもと、撮像部3は、撮像光学系OPが結像した対象OBの拡大像を撮像し、撮像した原画像の画像データを生成して画像処理部4に出力する(ステップS101)。そして、画像処理制御部4aが領域抽出プログラムを実行することによって、領域分割部4dは、原画像の画像データを構成する各画素値をもとに原画像を複数の中間画像領域に分割する領域分割処理を行い(ステップS103)、類似度算出部4eは、領域分割部4dによって分割された各中間画像領域の中から、互いに隣接した複数の中間画像領域で構成され見かけ上1つの中間画像領域として観測される連結領域を検出する連結領域検出処理を行い(ステップS105)、この処理結果をもとに、原画像中に連結領域があるか否かを判断する(ステップS107)。
Next, processing and operations performed by the region extraction device 1 will be described. FIG. 3 is a flowchart showing a processing procedure performed by the region extraction apparatus 1. As illustrated in FIG. 3, under the instruction from the control unit 2, the imaging unit 3 captures an enlarged image of the target OB imaged by the imaging optical system OP and generates image data of the captured original image. The image is output to the image processing unit 4 (step S101). Then, when the image
原画像中に連結領域がある場合(ステップS107:Yes)、類似度算出部4eは、検出されたすべての連結領域について、連結領域を構成する各中間画像領域の特徴量をもとに、この各中間画像領域の類似度を算出する類似度算出処理を行う(ステップS109)。そして、領域統合部4fは、算出された類似度を参照し、あらかじめ設定された統合条件を満足する類似度をもった中間画像領域があるか否かを判断し(ステップS111)、統合条件を満足する類似度をもった中間画像領域がある場合(ステップS111:Yes)、この中間画像領域に対応する連結領域内の各中間画像領域を統合して対象画像領域を成形する領域統合処理を行う(ステップS113)。その後、画像処理制御部4aは、連結領域が検出されなくなるまでステップS105〜S113の処理を繰り返すように制御を行う。
When there is a connected area in the original image (step S107: Yes), the
原画像中に連結領域がない場合(ステップS107:No)、また、統合条件を満足する類似度をもった中間画像領域がない場合(ステップS111:No)、パラメータ算出部4gは、連結領域ではない中間画像領域や、統合条件を満足する類似度をもたない中間画像領域を対象画像領域として、領域統合部4fによって統合し成形された対象画像領域とともに、これら対象画像領域の特性を示す領域パラメータを算出する(ステップS115)。つづいて、画像処理制御部4aは、処理結果の画像データおよび領域パラメータを出力部5に出力して表示させ(ステップS117)、一連の処理を終了する。
When there is no connected area in the original image (step S107: No), and when there is no intermediate image area having a similarity that satisfies the integration condition (step S111: No), the
ステップS105では、類似度算出部4eは、領域分割部4dによって分割された中間画像領域毎にその輪郭を示す輪郭線を構成する画素を走査し、他の中間画像領域の輪郭を示す輪郭線を構成する画素と一致した場合、この処理対象の中間画像領域が他の中間画像領域に隣接し連結領域を形成しているものと認識し、対応する連結領域を検出する。逆に、他の中間画像領域の輪郭を示す輪郭線を構成する画素と一致しなかった場合、類似度算出部4eは、この処理対象の中間画像領域が孤立しているものと認識する。
In step S105, the
つぎに、図3に示したステップS103の領域分割処理について説明する。図4は、領域分割処理の処理手順を示すフローチャートである。図4に示すように、画像処理制御部4aからの指示をもとに領域分割部4dは、原画像の中から対象OBの輪郭に対応するエッジを検出してエッジ画像を生成し(ステップS121)、生成したエッジ画像を構成する各画素の画素値を「0」または「1」に変換する2値化処理を行い(ステップS123)、2値化処理した結果の2値画像の中でエッジを示すエッジ線を線幅が「1」の線に変換する細線化処理を行い(ステップS125)、細線化処理した結果の各エッジ線を分割位置として原画像を中間画像領域に分割し(ステップS127)、分割した各中間画像領域に固有の領域標識を付与するラベリング処理を行い(ステップS129)、ステップS103にリターンする。
Next, the area dividing process in step S103 shown in FIG. 3 will be described. FIG. 4 is a flowchart showing the processing procedure of the region division processing. As shown in FIG. 4, based on an instruction from the image
ステップS121では、領域分割部4dは、ソーベル(Sobel)フィルタ、プレウィット(Prewitt)フィルタ、ラプラシアン(Laplacian)フィルタ等のエッジ検出オペレータを用い、対象OBの輪郭に対応するエッジを抽出したエッジ画像の画像データを生成する。なお、このエッジ画像の画像データを構成する各画素値は、原画像の画素値によって表される輝度分布の変化率の大きさに対応するエッジ強度を示す。
In step S121, the
ステップS123では、領域分割部4dは、エッジ画像中の各画素の画素値をあらかじめしきい値として設定した値と比較し、しきい値を超えた画素値に対応する画素の画素値を「1」に変換し、この他の画素の画素値を「0」に変換することによってエッジ画像を2値化処理して2値画像データを得る。なお、この2値化処理で用いるしきい値は、固定の値でもよいが、エッジ画像全体の輝度に応じて判別分析法をもとに設定するなど、適応的に設定した値としてもよい。また、この2値化処理によって変換する画素値は、「1」および「0」に限らす、画素値がしきい値を超えているか否かが識別できる値であれば任意でよく、アルファベットや記号等を用いて符号化するようにしてもよい。
In step S123, the
ステップS129では、領域分割部4dは、分割した各中間画像領域に固有の番号または記号等で表される領域標識を付与する。このとき、領域分割部4dは、各中間画像領域内の平均画素値を算出し、あらかじめ設定した画素値よりも低い平均画素値をもつ中間画像領域には領域標識を付与せずに、この中間画像領域を抽出対象から除外するようにしてもよい。
In step S129, the
なお、ステップS123では、エッジ画像中の各画素のエッジ強度や2値化処理で設定するしきい値の大きさによっては、2値画像中のエッジ線は、閉領域を形成せずに途切れてしまう場合がある。このような場合、領域分割部4dは、ステップS125で細線化処理を行った後、エッジ線が途切れた位置にある終端画素に隣接する複数の画素の中から画素値がもっとも大きな画素を選択し、選択した画素によってエッジ線を延長するとよい。領域分割部4dは、終端画素から延長したエッジ線が他のエッジ線もしくは画像を構成する最外周画素に到達するまでこのような延長処理を繰り返すことによって、閉領域を形成するエッジ線を検出することができる。
In step S123, depending on the edge strength of each pixel in the edge image and the threshold value set in the binarization process, the edge line in the binary image is interrupted without forming a closed region. May end up. In such a case, after performing the thinning process in step S125, the
このようなエッジ線の延長処理について、図5を参照してより具体的に説明する。図5は、細線化処理を行った後のエッジ線を表したエッジ画像の一例を示す図である。図5に示すように、正方格子状に配列された矩形領域のそれぞれがエッジ画像の各画素に対応し、黒く塗られた画素の列が細線化処理されたエッジ線を示す。なお、画素に対応する矩形の領域内に記された数値は、その画素のエッジ画像での画素値を示している。 Such edge line extension processing will be described more specifically with reference to FIG. FIG. 5 is a diagram illustrating an example of an edge image representing an edge line after performing the thinning process. As shown in FIG. 5, each of the rectangular areas arranged in a square lattice pattern corresponds to each pixel of the edge image, and a row of pixels painted in black indicates an edge line that has been thinned. A numerical value written in a rectangular area corresponding to a pixel indicates a pixel value in the edge image of the pixel.
領域分割部4dは、細線化処理後のエッジ線を構成する各画素について、縦、横、斜めに隣接する8つの画素の画素値を参照し、参照した画素の中に画素値が「1」である画素が1つだけの場合、処理対象の画素位置でエッジ線が途切れていると判定し、この処理対象の画素を終端画素と認識する。たとえば、図5に示す場合、領域分割部4dは、画素P1の位置でエッジ線が途切れていると判定し、画素P1を終端画素と認識する。
The
つづいて、領域分割部4dは、認識した終端画素に対し、エッジ線を延長する方向を概略推定し、推定した方向にあって終端画素に隣接する画素についてエッジ画像での画素値を参照し、参照した画素の中から画素値がもっとも大きな画素を選択し、選択した画素の画素値を「1」に変換することによってエッジ線を延長する。たとえば、図5に示す場合、画素P1に至るエッジ線が図上で画素P1の左側に位置するため、領域分割部4dは、エッジ線を延長する方向を画素P1の右側方向と推定し、画素P1の右側にあって破線で示した範囲Q内にある3つの画素について、各画素のエッジ画像での画素値を参照する。そして、領域分割部4dは、これら参照した3つの画素のうち、もっとも画素値が大きな画素として、画素値が「55」である画素P2を選択し、この選択した画素P2の画素値を細線化処理した画像において「1」に変換してエッジ線を延長し、画素P2を新たな終端画素として認識する。さらに、領域分割部4dは、新たな終端画素に対して同様の処理を繰り返し行い、順次エッジ線を延長し、結果として、閉領域を形成するエッジ線として斜線を施した画素P2,P3,P4,P5を検出する。
Subsequently, the
なお、図4に示した領域分割処理手順では、エッジ画像を構成する各画素の画素値をもとに分割位置を求めて原画像を中間画像領域に分割するようにしたが、たとえば、原画像での画素値をもとに分割位置を求めて中間画像領域に分割するようにしてもよい。この場合、原画像上で処理対象としている画素の画素値と、この処理対象の画素に隣接する画素の画素値との差を参照し、参照した画素値の差があらかじめしきい値として設定した値を超えている場合、この処理対象の画素を原画像の分割位置とするとよい。 In the region division processing procedure shown in FIG. 4, the division position is obtained based on the pixel value of each pixel constituting the edge image and the original image is divided into intermediate image regions. Alternatively, the division position may be obtained based on the pixel value at and divided into intermediate image regions. In this case, the difference between the pixel value of the pixel to be processed on the original image and the pixel value of the pixel adjacent to the pixel to be processed is set as a threshold value in advance. If the value exceeds the value, the pixel to be processed may be set as the division position of the original image.
つぎに、図3に示したステップS109の類似度算出処理について説明する。図6は、類似度算出処理の処理手順を示すフローチャートである。図6に示すように、画像処理制御部4aからの指示をもとに、類似度算出部4eは、ステップS105で検出した各連結領域について、連結領域を構成する各中間画像領域の輪郭線であって、この各中間画像領域に挟まれた部分の輪郭線に対応する境界線を検出し(ステップS141)、検出した境界線の両端部について、連結領域を構成する各中間画像領域の輪郭線の交角を示す輪郭線交角を算出し(ステップS143)、算出した輪郭線交角をもとに、連結領域を構成する各中間画像領域の輪郭形状に関する類似度を算出する(ステップS145)。つづいて、類似度算出部4eは、連結領域の境界線上にある画素の画素値と境界線近傍にある画素の画素値との差である画素値差を算出し(ステップS147)、算出した画素値差をもとに、連結領域を構成する各中間画像領域の画素値差に関する類似度を算出する(ステップS149)。その後、類似度算出部4eは、ステップS105で検出したすべての連結領域を構成する各中間画像領域の類似度を算出しているか否かを判断し(ステップS151)、すべて算出している場合(ステップS151:Yes)、ステップS109にリターンし、すべて算出していない場合(ステップS151:No)、ステップS141からの処理を繰り返す。
Next, the similarity calculation process in step S109 shown in FIG. 3 will be described. FIG. 6 is a flowchart showing the processing procedure of the similarity calculation processing. As shown in FIG. 6, based on an instruction from the image
ステップS141では、類似度算出部4eは、各連結領域を構成する各中間画像領域の輪郭を示す輪郭線を構成する画素の位置情報をもとに、各中間画像領域の輪郭線を構成する画素を走査し、隣り合う中間画像領域の輪郭線を構成する画素と一致した画素を、互いに隣接する中間画像領域の境界線として検出する。たとえば、図7−1に示すように、ステップS105で連結領域AR12が検出された場合、類似度算出部4eは、中間画像領域AR1の輪郭線OL1を構成する画素を走査し、中間画像領域AR2の輪郭線OL2と一致する画素として曲線A−Bを構成する画素を検出し、検出した曲線A−Bを中間画像領域AR1,AR2の境界線A−Bと認識する。なお、このステップS141の境界線を検出する処理は、ステップS105の連結領域検出処理と同時に行うようにしてもよい。
In step S <b> 141, the
ステップS143では、類似度算出部4eは、検出した境界線の両端の画素に関し、互いに隣接する中間画像領域の輪郭線であって、この両端の画素位置で交差する輪郭線の交角を示す輪郭線交角を算出する。たとえば、図7−1に示す連結領域AR12の場合、類似度算出部4eは、ステップS141で検出した境界線A−Bの両端の画素A,Bに関し、各画素A,Bの位置で交差する中間画像領域AR1,AR2の輪郭線OL1,OL2の交角α,βを輪郭線交角α,βとして算出する。
In step S143, the
なお、輪郭線交角αや輪郭線交角βの算出方法としては、種々の方法が考えられる。たとえば、画素A(または画素B)と、画素A(または画素B)から所定の距離L(たとえば数画素分の距離)隔離した輪郭線OL1,OL2上の各画素とを結んだ線分によって形成される角度を輪郭線交角α(または輪郭線交角β)として算出することができる。さらには、所定の距離Lを種々変化させて複数種類の輪郭線交角αi(または輪郭線交角βi)を算出して、これらの複数の輪郭線交角αi(または輪郭線交角βi)の平均値を輪郭線交角α(または輪郭線交角β)として算出することもできる。 Various methods are conceivable as a method for calculating the contour line intersection angle α and the contour line intersection angle β. For example, it is formed by a line segment connecting pixel A (or pixel B) and each pixel on contour lines OL1 and OL2 separated from pixel A (or pixel B) by a predetermined distance L (for example, a distance of several pixels). The calculated angle can be calculated as the contour line intersection angle α (or the contour line intersection angle β). Further, a plurality of types of contour intersection angles αi (or contour intersection angles βi) are calculated by changing the predetermined distance L variously, and an average value of the plurality of contour intersection angles αi (or contour intersection angles βi) is calculated. It can also be calculated as an outline intersection angle α (or an outline intersection angle β).
ステップS145では、類似度算出部4eは、算出した輪郭線交角から180度を差し引いた数値を各中間画像領域の輪郭形状に関する類似度として算出する。たとえば、図7−1に示す連結領域AR12の場合、類似度算出部4eは、類似度を(α−180),(β−180)として算出し、算出した類似度を各中間画像領域AR1,AR2の類似度として認識する。なお、この場合、輪郭線交角α,βが180度より大きいと連結領域の輪郭形状は凸状となり、類似度(α−180),(β−180)はプラスの値となる。逆に、輪郭線交角α,βが180度より小さいと連結領域の輪郭形状は凹状となり、類似度(α−180),(β−180)はマイナスの値となる。
In step S145, the
一般に、輪郭形状が凸状であれば類似度は高く、凹状であれば類似度は低いと考えられるため、類似度(α−180),(β−180)がプラスの値である場合、各中間画像領域の類似度は高く、マイナスの値である場合、各中間画像領域の類似度は低いと判断できる。また、類似度(α−180),(β−180)の絶対値が大きいほど、類似度または非類似度が高いと判断できる。なお、類似度算出部4eが算出する類似度は(α−180),(β−180)に限定されず、たとえば、これらの値の和、差、積、商、平均値等を類似度として算出するようにしてもよく、各中間画像領域の特徴量でもある輪郭線交角α,β自体を類似度として算出するようにしてもよい。
Generally, if the contour shape is convex, the similarity is high, and if it is concave, the similarity is considered low. Therefore, if the similarity (α−180) and (β−180) are positive values, When the similarity of the intermediate image area is high and a negative value, it can be determined that the similarity of each intermediate image area is low. Further, it can be determined that the similarity or dissimilarity is higher as the absolute values of the similarities (α−180) and (β−180) are larger. The similarity calculated by the
一方、ステップS147では、類似度算出部4eは、ステップS141で検出した境界線上にある画素と、この境界線近傍にある画素とについて、各画素の原画像での画素値の差を示す画素値差を算出し、この画素値差を境界線に沿って複数算出する。さらに、ステップS149では、類似度算出部4eは、算出した複数の画素値差の平均値を各中間画像領域の画素値差に関する類似度として算出する。たとえば、図7−2に示すように、ステップS105で連結領域AR12が検出された場合、類似度算出部4eは、ステップS141で検出した境界線A−B上にある各画素の画素値と、この境界線A−Bの左右それぞれに所定距離離れた曲線A’−B’,A”−B”上の対応する画素の画素値との画素値差を算出し、算出したすべての画素値差の平均値を類似度として算出する。ここで、曲線A’−B’,A”−B”のそれぞれは、境界線A−B上の各画素に対してこの境界線A−Bの法線方向に所定の画素数離れた位置の画素の集合である。なお、類似度算出部4eは、平均値に限らず、最大値、最小値、標準偏差等の統計量を類似度として算出するようにしてもよい。
On the other hand, in step S147, the
また、図6に示した類似度算出処理手順では、輪郭線交角や画素値差といった中間画像領域の特徴量をもとに、連結領域を構成する各中間画像領域の輪郭形状に関する類似度や画素値差に関する類似度を算出するようにしたが、他の特徴量をもとに類似度を算出するようにすることもできる。たとえば、他の特徴量として境界線近傍のエッジ強度の差をもとに類似度を算出するようにしてもよい。ここで、境界線近傍のエッジ強度の差とは、たとえば、互いに隣接する中間画像領域の境界線上にある画素のエッジ強度と境界線近傍にある画素のエッジ強度との差として求められる特徴量である。 Further, in the similarity calculation processing procedure shown in FIG. 6, similarities and pixels related to the contour shape of each intermediate image region constituting the connected region based on the feature amount of the intermediate image region such as the contour intersection angle and the pixel value difference. Although the degree of similarity related to the value difference is calculated, the degree of similarity may be calculated based on another feature amount. For example, the similarity may be calculated based on the difference in edge strength near the boundary line as another feature amount. Here, the difference in edge strength in the vicinity of the boundary line is, for example, a feature amount obtained as a difference between the edge strength of a pixel on the boundary line between adjacent intermediate image regions and the edge strength of a pixel in the vicinity of the boundary line. is there.
このように類似度算出部4eによって算出された各種の類似度をもとに、領域統合部4fは、連結領域内の各中間画像領域を統合するか否かを連結領域毎に判断し、ステップS113に示した領域統合処理を行う。ここで、中間画像領域を統合するか否かの判断は、所定の統合条件を満足するか否かによって判断されるものであって、より具体的には、類似度算出部4eによって算出された輪郭形状に関する類似度または画素値差に関する類似度の一方が所定の統合条件を満足する場合、領域を統合すると判定するものである。このように統合条件を設定することによって、領域統合部4fは、いずれか一方の類似度しか検出されなかった場合にも、連結領域内の各中間画像領域を統合するか否かを判断することができる。
Thus, based on the various similarities calculated by the
ここで、輪郭形状に関する類似度に対する統合条件とは、この類似度があらかじめ設定された数値より大きい場合、中間画像領域を統合すると判定するものでる。この場合、領域統合部4fは、連結領域の輪郭形状が凸状であるため、連結形状が1つの領域である可能性が高いと判定する。また、画素値差に関する類似度に対する統合条件とは、この類似度があらかじめ設定された数値より小さい場合、中間画像領域を統合すると判定するものでる。この場合、領域統合部4fは、連結領域の境界付近の画素値差が小さいため、連結形状が1つの領域である可能性が高いと判定する。なお、あらかじめ設定された値とは、中間画像領域を統合させる度合いを示す数値であり、この値の大小によってどの程度の中間画像領域を統合させるかの調整を行うことができる数値である。
Here, the integration condition for the similarity regarding the contour shape determines that the intermediate image regions are integrated when the similarity is larger than a preset numerical value. In this case, the
また、領域統合部4fは、輪郭形状に関する類似度または画素値差に関する類似度の一方が所定の統合条件を満足する場合でなく、両方の類似度が統合条件を満足する場合に中間画像領域を統合すると判定するようにしてもよい。さらに、領域統合部4fは、輪郭形状に関する類似度および画素値差に関する類似度に限定されず、3つ以上の類似度の統合条件を参照し、このすべての統合条件、任意の複数の統合条件、または所定の複数の統合条件が満足された場合、中間画像領域を統合すると判定するようにしてもよい。
Further, the
なお、領域統合部4fは、中間画像領域を統合して成形した対象画像領域に対して、統合する前のいずれかの中間画像領域の識別標識を付与する。あるいは、領域統合部4fは、中間画像領域を統合して成形した対象画像領域に対して、新しい識別標識を付与するようにしてもよい。なお、同一の識別標識をもつ対象画像領域に属する画素に対応づけて、同一の輝度、または同一の色のデータが記憶部7に記憶され、出力部5で各対象画像領域を画像情報として出力するための画像データとして保持される。
Note that the
図3に示したステップS115において、パラメータ算出部4gは、ステップS103〜S113の処理に続いて、連結領域ではない中間画像領域や、統合条件を満足する類似度をもたない中間画像領域を対象画像領域として、ステップS113で領域統合部4fによって統合し成形された対象画像領域とともに、これら対象画像領域の特性を示す領域パラメータを算出する。領域パラメータとしては、各対象画像領域に対応する画素の原画像における画素値に基づいて算出されるものである。領域パラメータとしては、たとえば、対象画像領域の大きさに関する数値、形状に関する数値、位置に関する数値、輝度や色に関する数値、領域間の比率に関する数値、領域の個数に関する数値、領域の集合に関する数値等を算出する。また、パラメータ算出部4gは、このような2次元的な特性を示す数値に限らず、ラインプロファイル等の1次元的な特性や輝度分布等の3次元的な特性を示す数値を領域パラメータとして算出するようにしてもよい。なお、このような領域パラメータを参照することにより、個々の細胞の集まりや広がり、接触状態、細胞のコロニー等を認識することが可能になる。
In step S115 shown in FIG. 3, the
ここで、領域の大きさに関する数値とは、面積、長さ、幅、最大直径、最小直径、平均直径、最大半径、最小半径、平均半径、周囲長、包絡周囲長、楕円周囲長、長軸長、短軸長、最大フェレ径、最小フェレ径、平均フェレ径、外接四角形面積比、凸周囲長等である。また、領域の形状に関する数値とは、縦横比、半径比、円形度、オイラー数、扁平度、フラクタル次元、枝数、端点数、ラフネス度等である。さらに、領域の位置に関する数値とは、位置重心、濃度重心、外接円四角形位置、傾き等である。また、領域の輝度や色に関する数値とは、最大濃度、最小濃度、平均濃度、輝度総和、分散、標準偏差、積分光学濃度、塊状度、不均質性、辺縁度等である。さらに、領域の個数に関する数値とは、領域数、穴の数等である。また、領域の集合に関する数値とは、領域クラス、最大領域間距離、最小領域間距離、平均領域間距離、相対距離、分散、走化性等である。 Here, the numerical values related to the size of the area are area, length, width, maximum diameter, minimum diameter, average diameter, maximum radius, minimum radius, average radius, perimeter length, envelope perimeter, ellipse perimeter, major axis The length, the short axis length, the maximum ferret diameter, the minimum ferret diameter, the average ferret diameter, the circumscribed square area ratio, the convex perimeter, and the like. The numerical values related to the shape of the region are aspect ratio, radius ratio, circularity, Euler number, flatness, fractal dimension, branch number, endpoint number, roughness degree, and the like. Further, the numerical values related to the position of the region are a position centroid, a density centroid, a circumscribed circle position, an inclination, and the like. The numerical values related to the luminance and color of the area are maximum density, minimum density, average density, luminance sum, dispersion, standard deviation, integral optical density, blockiness, heterogeneity, marginal degree, and the like. Furthermore, the numerical values related to the number of regions are the number of regions, the number of holes, and the like. The numerical values related to the set of regions are a region class, a maximum inter-region distance, a minimum inter-region distance, an average inter-region distance, a relative distance, dispersion, chemotaxis, and the like.
つぎに、図3に示したステップS117について説明する。ステップS117では、出力部5は、画像処理制御部4aから画像データおよび領域パラメータとともに入力される表示指示情報をもとに処理結果の表示を行う。出力部5で表示出力する表示結果の一例を図8および図9に示す。図8および図9に示すように、出力部5が備える表示装置の表示画面5aは、大きく左右2つの表示領域に区分されており、表示領域5aaには、領域統合部4fによって成形された対象画像領域等が画像情報として表示され、表示領域5abには、パラメータ算出部4gによって算出された領域パラメータが数値情報として表示される。
Next, step S117 shown in FIG. 3 will be described. In step S117, the
表示領域5aaでは、各対象画像領域は、擬似的な色、輝度、線種、パターン等が付与され、ラベル画像として表示される。図8に示す表示例では、表示領域5aa内の各対象画像領域は、異なるパターンによって表示され、特に、表示領域5ac内で識別標識によって選択された対象画像領域AR4については、輪郭線が太線で強調表示されるとともに、領域パラメータで示されるこの領域の重心位置が十字マークによって画像情報として表示されている。 In the display area 5aa, each target image area is given a pseudo color, brightness, line type, pattern, etc., and is displayed as a label image. In the display example shown in FIG. 8, each target image area in the display area 5aa is displayed with a different pattern. In particular, the outline of the target image area AR4 selected by the identification mark in the display area 5ac is a thick line. While being highlighted, the position of the center of gravity of this area indicated by the area parameter is displayed as image information by a cross mark.
なお、表示領域5aaでは、ラベル画像に限らず、画像処理部4で処理した実際の画像データを用いて対象画像領域を表示するようにしてもよい。また、この画像データを用いた画像とラベル画像とを同時に表示するようにしてもよく、切り替え可能に表示するようにしてもよい。さらに、表示領域5aaでは、対象画像領域の重心位置に限らず、領域パラメータで示される任意の特性値を画像情報として表示するようにしてもよい。 In the display area 5aa, not only the label image but also the target image area may be displayed using actual image data processed by the image processing unit 4. Further, the image using the image data and the label image may be displayed at the same time, or may be displayed in a switchable manner. Furthermore, in the display area 5aa, not only the center of gravity position of the target image area, but also an arbitrary characteristic value indicated by the area parameter may be displayed as image information.
表示領域5abでは、表示領域5ac内で識別標識によって選択された対象画像領域に対応する領域パラメータである各種数値情報が表示される。この表示領域5abの表示では、領域パラメータが有するすべての数値情報を表示するようにしてもよく、あらかじめ設定された項目の数値情報が表示されるようにしてもよい。なお、表示領域5ab内で各種数値情報を一度に表示しきれない場合には、図8に示すように、表示領域5abの右端に入力部6としてのマウス操作等によってスクロール操作が可能な画面スクロールバー等を設けるとよい。
In the display area 5ab, various numerical information as area parameters corresponding to the target image area selected by the identification mark in the display area 5ac is displayed. In the display area 5ab, all numerical information included in the area parameter may be displayed, or numerical information of preset items may be displayed. When various numerical information cannot be displayed at once in the display area 5ab, as shown in FIG. 8, a screen scroll that can be scrolled by a mouse operation or the like as the
また、表示領域5aa,5abでは、入力部6としてのキー操作、マウス操作等によってオペレータから入力される表示指示情報をもとに、表示対象とする対象画像領域およびこの対象画像領域に対応する領域パラメータの表示項目を選択および切り替え可能にするとよい。さらに、オペレータからの入力される表示指示情報をもとに、表示領域5aaで表示する画像範囲の切り替えや、各表示領域5aa,5abの表示/非表示の切り替えなど、各種の表示切替等を行えるようにしてもよい。
In the display areas 5aa and 5ab, the target image area to be displayed and the area corresponding to the target image area based on the display instruction information input from the operator by the key operation as the
図9は、表示対象を連結領域とした場合を例示している。表示領域5ac内で選択された連結領域GR2に対応して、表示領域5aaでは、連結領域GR2を構成する対象画像領域AR3,AR4が強調表示され、表示領域5abでは、連結領域GR2の特性、すなわち対象画像領域AR3,AR4の集合の特性を示す領域パラメータである各種数値情報が表示されている。なお、このように対象画像領域の集合の特性を示す場合の表示対象は、連結領域に限らず、それぞれ孤立した複数の対象画像領域または複数の連結領域を選択するようにしてもよい。 FIG. 9 illustrates a case where the display target is a connected area. Corresponding to the connection area GR2 selected in the display area 5ac, the target image areas AR3 and AR4 constituting the connection area GR2 are highlighted in the display area 5aa, and the characteristics of the connection area GR2 in the display area 5ab, that is, Various numerical information, which are region parameters indicating the characteristics of the set of target image regions AR3 and AR4, are displayed. The display target when the characteristics of the set of target image areas are shown in this way is not limited to a connected area, and a plurality of isolated target image areas or a plurality of connected areas may be selected.
以上説明したように、この実施の形態にかかる領域抽出装置、顕微鏡システムおよび領域抽出プログラムによれば、領域分割部4dによって、入力された画像データが示す原画像を複数の中間画像領域に分割し、類似度算出部4eによって、分割された各中間画像領域の中から連結領域を検出し、各連結領域を構成する各中間画像領域の類似度を算出し、領域統合部4fによって、あらかじめ設定された統合条件を満足する類似度をもった中間画像領域に対応する連結領域内の各中間画像領域を統合して対象画像領域を成形するようにしているため、複数の対象が重なり合っている場合でも、また、対象の大きさにばらつきがある場合でも、原画像から正確に対象に対応する対象画像領域を抽出しやすくなるとともに、計算時間および計算負荷を削減して効率的に対象画像領域を抽出することができる。
As described above, according to the region extraction device, the microscope system, and the region extraction program according to this embodiment, the
なお、上述した実施の形態では、単一の入力画像を用いて対象画像領域を抽出するようにしたが、これに限らず、たとえば、蛍光画像、位相差画像等、各種画像を複数用いて対象画像領域を抽出するようにしてもよい。この場合、同様の構成で複数の画像から得た情報を総合して対象画像領域を抽出するとよい。 In the embodiment described above, the target image region is extracted using a single input image. However, the present invention is not limited to this, and for example, a plurality of various images such as a fluorescence image and a phase difference image are used. An image region may be extracted. In this case, the target image region may be extracted by combining information obtained from a plurality of images with the same configuration.
また、上述の実施の形態では、対象OBが生体組織または生体組織の細胞である場合について説明したが、対象OBとしてはこれに限定されるものではない。たとえば、車両等の物体や人などを対象OBとして、これらに対応する対象画像領域を抽出する場合にも、本発明の領域抽出装置、領域抽出プログラムを適用することができる。 In the above-described embodiment, the case where the target OB is a living tissue or a cell of the living tissue has been described, but the target OB is not limited thereto. For example, the region extraction device and the region extraction program of the present invention can be applied to the case where an object image region corresponding to an object such as a vehicle or a person as a target OB is extracted.
1 領域抽出装置
2 制御部
3 撮像部
4 画像処理部
4a 画像処理制御部
4b 画像メモリ
4c 画像入力部
4d 領域分割部
4e 類似度算出部
4f 領域統合部
4g パラメータ算出部
5 出力部
5a 表示画面
5aa,5ab,5ac 表示領域
6 入力部
7 記憶部
8 通信部
AR 連結細胞
AR12 連結領域
BL,A−B,A’−B’,A”−B”,T1−T2 境界線
OB 対象
OB1,AR3,AR4 対象画像領域
OB1−1,OB1−2,AR1,AR2 中間画像領域
OL1,OL2 輪郭線
OP 撮像光学系
P1,P2,P3,P4,P5 画素
α,β 輪郭線交角
DESCRIPTION OF SYMBOLS 1 Area extraction apparatus 2 Control part 3 Imaging part 4
Claims (18)
前記画像データの入力を受け付ける画像入力手段と、
前記画像データを構成する各画素値をもとに前記画像を複数の中間画像領域に分割する領域分割手段と、
前記領域分割手段によって分割された各中間画像領域の特徴量をもとに、互いに隣接する中間画像領域を統合して前記対象画像領域を成形する領域統合手段と、
を備えたことを特徴とする領域抽出装置。 In an area extraction device that extracts a target image area corresponding to an imaging target from an image indicated by image data,
Image input means for receiving input of the image data;
Area dividing means for dividing the image into a plurality of intermediate image areas based on the pixel values constituting the image data;
Based on the feature amount of each intermediate image area divided by the area dividing means, area integration means for forming the target image area by integrating adjacent intermediate image areas;
An area extracting apparatus comprising:
前記画像データの入力を受け付ける画像入力手段と、
前記画像データを構成する各画素値をもとに前記画像を複数の中間画像領域に分割する領域分割手段と、
前記領域分割手段によって分割された各中間画像領域の特徴量をもとに、前記各中間画像領域の該各中間画像領域に隣接する中間画像領域に対する類似度を算出する類似度算出手段と、
前記類似度算出手段によって算出された各中間画像領域の前記類似度をもとに、互いに隣接する中間画像領域を統合して前記対象画像領域を成形する領域統合手段と、
を備えたことを特徴とする領域抽出装置。 In an area extraction device that extracts a target image area corresponding to an imaging target from an image indicated by image data,
Image input means for receiving input of the image data;
Area dividing means for dividing the image into a plurality of intermediate image areas based on the pixel values constituting the image data;
Similarity calculation means for calculating the similarity of each intermediate image area to an intermediate image area adjacent to each intermediate image area based on the feature amount of each intermediate image area divided by the area dividing means;
Based on the similarity of each intermediate image area calculated by the similarity calculation means, area integration means for forming the target image area by integrating adjacent intermediate image areas;
An area extracting apparatus comprising:
前記類似度算出手段は、前記輪郭線交角をもとに前記類似度を算出することを特徴とする請求項2に記載の領域抽出装置。 The feature amount includes a contour intersection angle indicating an intersection angle between the contour line of the intermediate image region divided by the region dividing unit and the contour line of the intermediate image region adjacent to the intermediate image region,
The region extraction apparatus according to claim 2, wherein the similarity calculation unit calculates the similarity based on the contour line intersection angle.
前記類似度算出手段は、前記画素値差をもとに前記類似度を算出することを特徴とする請求項2に記載の領域抽出装置。 The feature amount is a pixel value of a pixel on a boundary between an intermediate image region divided by the region dividing unit and an intermediate image region adjacent to the intermediate image region, and a pixel value of a pixel in the vicinity of the boundary. Including pixel value difference indicating the difference,
The region extraction apparatus according to claim 2, wherein the similarity calculation unit calculates the similarity based on the pixel value difference.
前記類似度算出手段は、前記エッジ強度差をもとに前記類似度を算出することを特徴とする請求項2に記載の領域抽出装置。 The feature amount is an edge strength of a pixel on a boundary between an intermediate image region divided by the region dividing unit and an intermediate image region adjacent to the intermediate image region, and an edge strength of a pixel near the boundary. Including edge strength differences indicating differences,
The region extraction apparatus according to claim 2, wherein the similarity calculation unit calculates the similarity based on the edge strength difference.
前記領域パラメータ算出手段によって求められた前記領域パラメータに基づく表示を行う出力手段と、
をさらに備えたことを特徴とする請求項1または2に記載の領域抽出装置。 Area parameter calculating means for obtaining area parameters indicating the characteristics of the target image area formed by the area integrating means;
Output means for performing display based on the area parameter obtained by the area parameter calculating means;
The region extracting apparatus according to claim 1, further comprising:
前記出力手段は、前記指示取得手段が取得した前記表示指示情報をもとに前記領域パラメータに基づく表示を切り替えることを特徴とする請求項8〜13のいずれか一つに記載の領域抽出装置。 Further comprising instruction acquisition means for acquiring display instruction information relating to display performed by the output means;
The region extraction apparatus according to claim 8, wherein the output unit switches display based on the region parameter based on the display instruction information acquired by the instruction acquisition unit.
前記画像入力手段は、前記撮像手段によって生成された前記画像データの入力を受け付けることを特徴とする請求項1〜15のいずれか一つに記載の領域抽出装置。 It further comprises imaging means for imaging the imaging object and generating the image data,
The area extracting apparatus according to claim 1, wherein the image input unit receives an input of the image data generated by the imaging unit.
前記撮像対象の像を拡大投影する結像光学系を備え、
前記領域抽出装置における前記撮像手段は、前記結像光学系によって該結像光学系の結像面に拡大投影された前記撮像対象の像を撮像して前記画像データを生成することを特徴とする顕微鏡システム。 A microscope system comprising the region extraction device according to claim 16,
An imaging optical system for enlarging and projecting the image to be imaged;
The image pickup means in the region extracting device picks up an image of the image pickup object enlarged and projected on the image forming plane of the image forming optical system by the image forming optical system, and generates the image data. Microscope system.
前記領域抽出装置に、
前記画像データを構成する各画素値をもとに前記画像を複数の中間画像領域に分割する領域分割手順と、
前記領域分割手段によって分割された各中間画像領域の特徴量をもとに、前記各中間画像領域の該各中間画像領域に隣接する中間画像領域に対する類似度を算出する類似度算出手順と、
前記類似度算出手段によって算出された各中間画像領域の前記類似度をもとに、互いに隣接する中間画像領域を統合して前記対象画像領域を成形する領域統合手順と、
を実行させることを特徴とする領域抽出プログラム。 An area extraction program for causing an area extraction device that extracts a target image area corresponding to an imaging target from an image indicated by input image data to extract an area corresponding to the imaging target from the image. ,
In the region extraction device,
A region dividing procedure for dividing the image into a plurality of intermediate image regions based on each pixel value constituting the image data;
A similarity calculation procedure for calculating the similarity of each intermediate image region to an intermediate image region adjacent to each intermediate image region based on the feature amount of each intermediate image region divided by the region dividing unit;
Based on the similarity of each intermediate image area calculated by the similarity calculation means, an area integration procedure for forming the target image area by integrating adjacent intermediate image areas;
A region extraction program characterized by causing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005024513A JP2006208339A (en) | 2005-01-31 | 2005-01-31 | Region-extracting device, microscope system and region-extracting program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005024513A JP2006208339A (en) | 2005-01-31 | 2005-01-31 | Region-extracting device, microscope system and region-extracting program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006208339A true JP2006208339A (en) | 2006-08-10 |
Family
ID=36965346
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005024513A Withdrawn JP2006208339A (en) | 2005-01-31 | 2005-01-31 | Region-extracting device, microscope system and region-extracting program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006208339A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009109362A (en) * | 2007-10-30 | 2009-05-21 | Tokyoto Igaku Kenkyu Kiko | Method and apparatus for evaluating condition of sample |
WO2009104325A1 (en) * | 2008-02-21 | 2009-08-27 | 大日本スクリーン製造株式会社 | Line drawing processing device, program, and line drawing processing method |
JP2010032445A (en) * | 2008-07-30 | 2010-02-12 | Olympus Corp | Cell measuring instrument and cell measuring method |
JP2010204752A (en) * | 2009-02-27 | 2010-09-16 | Dainippon Printing Co Ltd | Object detection device |
JP2010263872A (en) * | 2009-05-18 | 2010-11-25 | Olympus Corp | Cell image analyzer |
JP2012043395A (en) * | 2010-08-20 | 2012-03-01 | Chi Mei Electronics Corp | Input detection method, input detection device, input detection program and recording medium |
WO2013187148A1 (en) * | 2012-06-15 | 2013-12-19 | オリンパス株式会社 | Image processing device, microscope system, endoscope system, and image processing method |
JP2014063376A (en) * | 2012-09-21 | 2014-04-10 | Nikon Systems Inc | Image processing device and program |
WO2014136276A1 (en) * | 2013-03-08 | 2014-09-12 | 株式会社島津製作所 | Device for setting region of interest for analysis |
JP2016009210A (en) * | 2014-06-20 | 2016-01-18 | 株式会社リコー | Data generation device, data generation method, and data generation program |
JP2017005389A (en) * | 2015-06-05 | 2017-01-05 | キヤノン株式会社 | Image recognition device, image recognition method, and program |
-
2005
- 2005-01-31 JP JP2005024513A patent/JP2006208339A/en not_active Withdrawn
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009109362A (en) * | 2007-10-30 | 2009-05-21 | Tokyoto Igaku Kenkyu Kiko | Method and apparatus for evaluating condition of sample |
WO2009104325A1 (en) * | 2008-02-21 | 2009-08-27 | 大日本スクリーン製造株式会社 | Line drawing processing device, program, and line drawing processing method |
JP2009199308A (en) * | 2008-02-21 | 2009-09-03 | Dainippon Screen Mfg Co Ltd | Line art processor, program, and line art processing method |
US20110187721A1 (en) * | 2008-02-21 | 2011-08-04 | Itaru Furukawa | Line drawing processing apparatus, storage medium storing a computer-readable program, and line drawing processing method |
JP2010032445A (en) * | 2008-07-30 | 2010-02-12 | Olympus Corp | Cell measuring instrument and cell measuring method |
JP2010204752A (en) * | 2009-02-27 | 2010-09-16 | Dainippon Printing Co Ltd | Object detection device |
JP2010263872A (en) * | 2009-05-18 | 2010-11-25 | Olympus Corp | Cell image analyzer |
JP2012043395A (en) * | 2010-08-20 | 2012-03-01 | Chi Mei Electronics Corp | Input detection method, input detection device, input detection program and recording medium |
JPWO2013187148A1 (en) * | 2012-06-15 | 2016-02-04 | オリンパス株式会社 | Image processing apparatus, microscope system, endoscope system, and image processing method |
WO2013187148A1 (en) * | 2012-06-15 | 2013-12-19 | オリンパス株式会社 | Image processing device, microscope system, endoscope system, and image processing method |
US9517013B2 (en) | 2012-06-15 | 2016-12-13 | Olympus Corporation | Image processing apparatus, microscope system, endoscope system, and image processing method |
JP2014063376A (en) * | 2012-09-21 | 2014-04-10 | Nikon Systems Inc | Image processing device and program |
WO2014136276A1 (en) * | 2013-03-08 | 2014-09-12 | 株式会社島津製作所 | Device for setting region of interest for analysis |
JP5983858B2 (en) * | 2013-03-08 | 2016-09-06 | 株式会社島津製作所 | Analysis area setting device |
JPWO2014136276A1 (en) * | 2013-03-08 | 2017-02-09 | 株式会社島津製作所 | Analysis area setting device |
US9995922B2 (en) | 2013-03-08 | 2018-06-12 | Shimadzu Corporation | Analysis target region setting apparatus |
JP2016009210A (en) * | 2014-06-20 | 2016-01-18 | 株式会社リコー | Data generation device, data generation method, and data generation program |
US10088997B2 (en) | 2014-06-20 | 2018-10-02 | Ricoh Company, Ltd. | Apparatus for generating data, method for generating data, and non-transitory computer-readable medium |
JP2017005389A (en) * | 2015-06-05 | 2017-01-05 | キヤノン株式会社 | Image recognition device, image recognition method, and program |
US10303983B2 (en) | 2015-06-05 | 2019-05-28 | Canon Kabushiki Kaisha | Image recognition apparatus, image recognition method, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006208339A (en) | Region-extracting device, microscope system and region-extracting program | |
US8073233B2 (en) | Image processor, microscope system, and area specifying program | |
JP5117353B2 (en) | Image processing apparatus, image processing program, and image processing method | |
EP2833288B1 (en) | Face calibration method and system, and computer storage medium | |
US10045731B2 (en) | Device and apparatus to facilitate cervix cancer screening | |
JP5804220B1 (en) | Image processing apparatus and image processing program | |
CN101599175B (en) | Detection method for determining alteration of shooting background and image processing device | |
JP5442542B2 (en) | Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support, and recording medium recording the control program | |
WO2008044466A1 (en) | Image processing device, image processing method, and image processing program | |
CN110619318B (en) | Image processing method, microscope, system and medium based on artificial intelligence | |
JP2006209698A (en) | Target tracking device, microscope system and target tracking program | |
EP3299811B1 (en) | Image processing device, image processing method, and program for image processing | |
CN108601509B (en) | Image processing apparatus, image processing method, and program-recorded medium | |
JP2007048006A (en) | Image processor and image processing program | |
JP5182689B2 (en) | Fundus image analysis method, apparatus and program thereof | |
CN107240093B (en) | Automatic diagnosis method for cancer cells | |
JP4496860B2 (en) | Cell identification device, cell identification method, cell identification program, and cell analysis device | |
JP3860540B2 (en) | Entropy filter and region extraction method using the filter | |
JP5530126B2 (en) | Three-dimensional cell image analysis system and three-dimensional cell image analyzer used therefor | |
JP4630106B2 (en) | Corneal endothelial cell image processing device | |
WO2019181072A1 (en) | Image processing method, computer program, and recording medium | |
JP7254283B2 (en) | Threshold determination method, image processing method, specimen image evaluation method, computer program and recording medium | |
JP2008139101A (en) | Method and apparatus for extracting region becoming judge target of crystallized state from electronic image of protein solution | |
JP2006017489A (en) | Cell identification device, program for cell identification, cell analysis device, and program for cell analysis | |
GB2478133A (en) | A method of Image classification based on duct and nuclei parameters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20080401 |