JP4434705B2 - Image analysis method - Google Patents

Image analysis method Download PDF

Info

Publication number
JP4434705B2
JP4434705B2 JP2003397940A JP2003397940A JP4434705B2 JP 4434705 B2 JP4434705 B2 JP 4434705B2 JP 2003397940 A JP2003397940 A JP 2003397940A JP 2003397940 A JP2003397940 A JP 2003397940A JP 4434705 B2 JP4434705 B2 JP 4434705B2
Authority
JP
Japan
Prior art keywords
blood vessel
point
image
refraction
refraction point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003397940A
Other languages
Japanese (ja)
Other versions
JP2005157902A (en
Inventor
秀樹 田中
涼子 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2003397940A priority Critical patent/JP4434705B2/en
Publication of JP2005157902A publication Critical patent/JP2005157902A/en
Application granted granted Critical
Publication of JP4434705B2 publication Critical patent/JP4434705B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures

Description

本発明は、1ないし複数の線状パターンを含む画像の解析を行う画像解析方法に関する。   The present invention relates to an image analysis method for analyzing an image including one or more linear patterns.

医療分野においてはX線、CT、MRI、超音波観測装置、内視鏡装置等の画像撮像機器を用いた診断が広く行われている。   In the medical field, diagnosis using image capturing devices such as X-rays, CT, MRI, ultrasonic observation apparatuses, and endoscope apparatuses is widely performed.

例えば内視鏡装置においては、細長の挿入部を体腔内に挿入し、固体撮像素子等を撮像手段に用いて体腔内臓器等をモニタ画面により観察し、診断をすることができる。また、前記体腔内臓器へ超音波を照射し、この超音波の反射あるいは透過度等により該体腔内臓器の状況をモニタ画面により観察し、検査あるいは診断することのできる超音波内視鏡装置も広く用いられている。   For example, in an endoscope apparatus, an elongated insertion portion can be inserted into a body cavity, and a body cavity organ or the like can be observed on a monitor screen using a solid-state imaging device or the like as an imaging means for diagnosis. There is also an ultrasonic endoscope apparatus that can irradiate the organ in the body cavity with ultrasound, observe the state of the organ in the body cavity on the monitor screen based on the reflection or transmission of the ultrasound, and inspect or diagnose it. Widely used.

これらの機器により撮像された画像を用いた最終的な診断は、医師の主観に依存している部分が多大であるため、画像解析手法により撮像対象に関する特徴量を算出し、客観的・数値的な診断支援情報を医師に提示することにより、医師の診断行為を支援する、診断支援装置がある。   Since the final diagnosis using images captured by these devices is highly dependent on the subjectivity of the doctor, feature quantities related to the imaging target are calculated using image analysis techniques, and are objective and numerical There is a diagnosis support apparatus that supports a doctor's diagnosis act by presenting the diagnosis support information to the doctor.

ここで、特徴量とは、画像上の様々な所見を反映した数値であり、画像解析手法の適用により得られるものである。   Here, the feature amount is a numerical value reflecting various findings on the image, and is obtained by applying an image analysis method.

例えば内視鏡画像において、粘膜表面の発赤といった色調に関する所見、透見血管像に見られる血管の屈折・蛇行性といった血管の形状に関する所見、胃小区における粘膜模様のパターンに関する所見は、病変の悪性度診断において重要な要素となっている。例えば非特許文献1(「”消化器内視鏡”2001vol.13 No.3 voI.13 東京医学社刊 P349-354」)は、粘膜所見及び血管の形状に関する所見による病変良悪性の鑑別についての例である。   For example, in endoscopic images, findings relating to color tone such as redness of the mucosal surface, findings relating to the shape of blood vessels such as refraction and tortuousness of blood vessels seen in fluoroscopic blood vessel images, and findings relating to mucosal pattern in the gastric subdivision are malignant lesions. Is an important factor in diagnostics. For example, Non-Patent Document 1 (“Gastrointestinal Endoscopy” 2001vol.13 No.3 voI.13 published by Tokyo Medical Co., Ltd. P349-354) describes the identification of benign and malignant lesions based on mucosal findings and vascular shape findings. It is an example.

このような画像解析手法による特徴量算出手法及び診断支援装置として、特開平10−14864号公報がある。   Japanese Patent Laid-Open No. 10-14864 discloses a feature amount calculation method and a diagnosis support apparatus based on such an image analysis method.

また、血管新生の成長度合いを客観化する特徴量として、血管の分岐点を算出する例として、特開2003−44862号公報がある。   Japanese Patent Laid-Open No. 2003-44862 discloses an example of calculating a branch point of a blood vessel as a feature amount that makes the growth degree of angiogenesis objective.

また、血管形状の特徴量として血管の屈折点を検出する際に、非特許文献1(「”細線化図形の屈折点検出の一手法”小山ら、電子通信学会研究会資料PRL80-107 PP,80-90(1980)」)に基づく手法が、従来技術として利用されている。
特開平10−14864号公報 特開2003−44862号公報 ”消化器内視鏡”2001 vol.13 No.3 voI.13 東京医学社刊 P349-354 ”細線化図形の屈折点検出の一手法”小山ら、電子通信学会研究会資料 PRL80-107 PP,80-90(1980) ”画像処理を極めるアルゴリズムラボ” ソフトバンク刊:C MAGAZINE 2000.9PPI23-129 ”コンピュータ画像処理入門” 田村秀行著 総研出版 P.84〜85
In addition, when detecting a refraction point of a blood vessel as a characteristic amount of a blood vessel shape, Non-Patent Document 1 ("" A method of detecting a refraction point of a thinned figure "Koyama et al., IEICE Technical Committee Materials PRL80-107 PP, 80-90 (1980) ") is used as the prior art.
Japanese Patent Laid-Open No. 10-14864 JP 2003-44862 A “Gastrointestinal Endoscopy” 2001 vol.13 No.3 voI.13 published by Tokyo Medical Co., Ltd. P349-354 "A method for detecting the refraction point of thinned figures" Koyama et al., IEICE Technical Report PRL80-107 PP, 80-90 (1980) “Algorithm Lab for Image Processing” Published by Softbank: C MAGAZINE 2000.9PPI23-129 "Introduction to computer image processing" by Tamura Hideyuki Research Institute Publishing P.84-85

しかしながら、従来の画像解析装置においては,以下の(1)〜(3)のような問題があった。   However, the conventional image analysis apparatus has the following problems (1) to (3).

(1)血管を画像解析の撮像対象とするとき、対象となる血管の血管新生の度合いや、血管の存在する粘膜層の深さ、観察倍率に応じて、撮像画像として表示される血管の形態は様々である。画像表示上の血管形態を大きく分類すると、点状に散在する点状血管、血管が樹枝状に不規則に分岐する樹枝状血管、複数の血管要素が多数組み合わさり網状に複雑に絡み合う網状血管と分類される。これらの血管の各形態分類に関して、病変の良悪性の診断に有用な特徴量を得るための処理は、各形態分類ごとに使用する手法が異なる。若しくは、手法が同一であっても使用するパラメータが異なる。また、特定の形態分類においてしか、有用な特徴量を得られない場合がある。 (1) When a blood vessel is an imaging target for image analysis, the form of the blood vessel displayed as a captured image according to the degree of neovascularization of the target blood vessel, the depth of the mucosa layer where the blood vessel exists, and the observation magnification Are various. When the blood vessel morphology on the image display is roughly classified, the dotted blood vessels, the dendritic blood vessels in which the blood vessels branch irregularly in a dendritic shape, and the reticulated blood vessels in which a plurality of blood vessel elements are combined and complicatedly intertwined in a net shape being classified. Regarding the morphological classification of these blood vessels, the processing used to obtain the feature quantity useful for the benign / malignant diagnosis of the lesion differs in the method used for each morphological classification. Or even if the method is the same, the parameters used are different. In some cases, a useful feature amount can be obtained only in a specific form classification.

しかしながら撮像画像の内容は、これらの血管形態が混在した画像であることが多く、算出対象となる血管形態以外の血管形態を含んでいるため、正確な特徴量を算出することが困難であった。 However, the content of the captured image is often an image in which these blood vessel forms are mixed, and includes a blood vessel form other than the blood vessel form to be calculated, so it is difficult to calculate an accurate feature amount. .

(2)血管を撮像対象とするとき、撮像された血管を抽出し、血管の要素ごとに血管の特徴量を求める処理が一般に行われる。例えば、1血管あたりの全長、1血管あたりに含まれる分岐点の数、1血管あたりに含まれる屈折点の数を算出し、血管の分岐や蛇行による異常血管の有無を数値化する特徴量として利用する。 (2) When a blood vessel is to be imaged, a process is generally performed in which the imaged blood vessel is extracted and a blood vessel characteristic amount is obtained for each blood vessel element. For example, the total length per blood vessel, the number of branch points included per blood vessel, the number of refraction points included per blood vessel, and the feature quantity for quantifying the presence or absence of abnormal blood vessels due to blood vessel branching or meandering Use.

しかしながら、撮像画像へのノイズの混入により、実際には存在しない偽血管を抽出してしまい、実際には存在しない分岐点を誤検出してしまう問題があった。   However, there is a problem in that false blood vessels that do not actually exist are extracted due to noise mixed in the captured image, and branch points that do not actually exist are erroneously detected.

また、複数の血管が撮像画像の奥行き方向に絡み合っている場合には、実際には交差または分岐していないのに画像上では交差または分岐してしまうため、誤った血管抽出処理を行ってしまい、正確な分岐点数及び又は血管数を算出することができなかった。 In addition, when a plurality of blood vessels are intertwined in the depth direction of the captured image, they do not actually intersect or branch, but intersect or branch on the image, so that an erroneous blood vessel extraction process is performed. The exact number of branch points and / or the number of blood vessels could not be calculated.

(3)非特許文献1(「”細線化図形の屈折点検出の一手法”小山ら、電子通信学会研究会資料PRL80-107 PP,80-90(1980)」)に示す屈折点の検出手法では、図22に示すように、血管の屈折位置の頂点ではなく、屈折点周辺の複数の点を検出してしまったり、頂点から少しずれた点を検出してしまい、正確な屈折点の検出ができなかった。 (3) Refractive point detection method shown in Non-Patent Document 1 ("" A method for detecting the refraction point of thinned figures "Koyama et al., PRL 80-107 PP, 80-90 (1980), IEICE Technical Committee Meeting) Then, as shown in FIG. 22, a plurality of points around the refraction point are detected instead of the vertex of the blood vessel refraction position, or a point slightly deviated from the vertex is detected. I could not.

本発明は、上記事情に鑑みてなされたものであり、特徴量を利用した所見の客観化結果に基づく病変判定精度を向上させることのできる画像解析方法を提供することを目的としている。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image analysis method capable of improving lesion determination accuracy based on an objectification result of a finding using feature amounts.

本発明の画像解析方法は、医用画像に対して画像解析を行う画像解析方法において、前記医用画像に対して2値化処理及び細線化処理を行って1以上の血管の芯線を表す画像を抽出する線状パターン抽出ステップと、前記線状パターン抽出ステップにおいて抽出された各線状パターンに関して、全長と分岐点数を第1の特徴量として算出する第1の特徴量算出ステップと、前記各線状パターンの前記全長が所定の第1の閾値未満であるときはその血管を点状血管とし、前記各線状パターンの前記全長が前記所定の第1の閾値以上であって前記分岐点数が所定の第2の閾値未満であるときはその血管を樹枝状血管とし、前記各線状パターンの前記全長が前記所定の第1の閾値以上であって前記分岐点数が前記所定の第2の閾値以上であるときはその血管を網状血管と判定して、その判定結果の中から、解析の対象となる前記線状パターンを選択するパターン選択ステップと、前記パターン選択ステップにより選択された前記線状パターンについて、前記医用画像中の血管数と1血管当たりの分岐点数を第2の特徴量として算出する第2の特徴量算出ステップと、前記算出された前記第2の特徴量を表示装置上に表示する表示ステップと、を備えて構成される。
The image analysis method of the present invention is an image analysis method for performing image analysis on a medical image, and performs binarization processing and thinning processing on the medical image to extract an image representing one or more blood vessel core lines. a linear pattern extraction step of, by regarding the respective linear pattern extracted in the linear pattern extraction step, the first feature quantity calculating step of calculating the total length and branching points as the first feature amount, wherein each line When the total length of the linear pattern is less than a predetermined first threshold value, the blood vessel is set as a dotted blood vessel, the total length of each linear pattern is equal to or greater than the predetermined first threshold value, and the number of branch points is predetermined. When the blood pressure is less than the second threshold, the blood vessel is a dendritic blood vessel, the total length of each linear pattern is equal to or greater than the predetermined first threshold, and the number of branch points is equal to or greater than the predetermined second threshold. when The blood vessel is determined reticulated vessels, from the determination result, the pattern selection step of selecting the linear pattern to be analyzed, for the linear pattern selected by said pattern selecting step, the medical display step of displaying the branch points of the blood vessel number and per vessel in the image to a second feature quantity calculation step and, prior SL calculated second feature quantity display device on which calculated as the second feature quantity And comprising.

本発明によれば、特徴量を利用した所見の客観化結果に基づく病変判定精度を向上させるができるという効果がある。   According to the present invention, there is an effect that it is possible to improve the lesion determination accuracy based on the objectification result of the findings using the feature amount.

以下、図面を参照しながら本発明の実施例について述べる。   Embodiments of the present invention will be described below with reference to the drawings.

図1ないし図11は本発明の実施例1に係わり、図1は内視鏡画像解析装置の構成を示すブロック図、図2は図1のメモリ上に記憶される情報を示す図、図3は図1の情報処理装置の処理により表示装置上に表示される血管画像解析結果ウィンドウを示す図、図4は図1のCPUにより実行される画像解析プログラムの処理の流れを示すフローチャート、図5は図4の画像解析処理の流れを示すフローチャート、図6は図5の処理により生成される2値化画像の画像データの例を示す図、図7は図6の2値化画像をラベリング処理した画像データを表す図、図8は図7のラベリング画像を細線化処理した画像データを表す図、図9は図4の形状特徴量算出処理における周囲8近傍を説明する図、図10は図4の形状特徴量算出処理の流れを示すフローチャート、図11は図10の形状特徴量算出処理による選択すべき血管形状として樹枝状血管を選択した時の修正細線化画像を示す図である。   FIGS. 1 to 11 relate to the first embodiment of the present invention, FIG. 1 is a block diagram showing the configuration of the endoscope image analysis apparatus, FIG. 2 is a diagram showing information stored in the memory of FIG. FIG. 4 is a view showing a blood vessel image analysis result window displayed on the display device by the processing of the information processing device of FIG. 1, FIG. 4 is a flowchart showing the flow of processing of the image analysis program executed by the CPU of FIG. Is a flowchart showing the flow of the image analysis processing of FIG. 4, FIG. 6 is a diagram showing an example of image data of the binarized image generated by the processing of FIG. 5, and FIG. 7 is a labeling process for the binarized image of FIG. 8 is a diagram illustrating image data obtained by thinning the labeling image of FIG. 7, FIG. 9 is a diagram for explaining the vicinity of the surrounding 8 in the shape feature amount calculation processing of FIG. 4, and FIG. 4 shows the flow of shape feature calculation processing Flowchart, Fig. 11 is a diagram showing a modified thinned image when you select dendritic vessels as vascular shape should be selected according to the shape feature amount calculation processing of FIG. 10.

(構成)
図1に示すように、本実施例の内視鏡画像解析装置1は、生体内を撮像してアナログ画像信号を出力する内視鏡観察装置2と、内視鏡観察装置2の出力するアナログ画像信号から画像データを生成すると共に生成された画像データを蓄積する内視鏡ファイリング装置3と、画像解析処理を行う画像処理装置4とを備えて構成される。
(Constitution)
As shown in FIG. 1, an endoscope image analysis apparatus 1 according to the present embodiment includes an endoscope observation apparatus 2 that captures an image of a living body and outputs an analog image signal, and an analog output from the endoscope observation apparatus 2. An endoscope filing device 3 that generates image data from an image signal and stores the generated image data, and an image processing device 4 that performs image analysis processing are configured.

画像処理装置4は、情報処理を行う情報処理装置5と、キーボードとマウス等とからなる操作装置6と、ハードディスク等からなる記憶装置7と、CRTあるいは液晶ディスプレイあるいはプラズマディスプレイ等の表示手段からなる表示装置8とを具備して構成される。   The image processing device 4 includes an information processing device 5 that performs information processing, an operation device 6 that includes a keyboard and a mouse, a storage device 7 that includes a hard disk, and display means such as a CRT, a liquid crystal display, or a plasma display. And a display device 8.

内視鏡ファイリング装置3と情報処理装置5は、TCP/IPをプロトコルとするLAN9に接続されており、相互に通信可能である。   The endoscope filing device 3 and the information processing device 5 are connected to a LAN 9 using TCP / IP as a protocol and can communicate with each other.

情報処理装置5は、一般のパーソナルコンピュータが用いられており、内視鏡ファイリング装置3に蓄積されている画像データをLAN9経由で取得し、画像データに対して画像解析処理を行い、画像解析結果を表示装置8に表示するようになっている。ここで、処理を行う画像データの指定、指定された画像データの取得指示、処理実行の指示は、操作装置6を用いた操作によって行われる。   The information processing apparatus 5 uses a general personal computer, acquires image data stored in the endoscope filing apparatus 3 via the LAN 9, performs image analysis processing on the image data, and performs image analysis results. Is displayed on the display device 8. Here, the designation of image data to be processed, an instruction to acquire the designated image data, and an instruction to execute the process are performed by an operation using the operation device 6.

情報処理装置5では、制御・処理を行うCPU10と、処理プログラム・データを記憶するメモリ11と、記憶装置7との間で情報の読み書きを行う外部記憶I/F12と、外部機器との通信を行うネットワークカード13と、操作装置6との入出力を行う操作I/F14と、表示装置8にビデオ信号を出力するグラフィックボード15とが、バス16に接続されており、バス16を介して相互にやり取りを行うようになっている。   In the information processing device 5, the CPU 10 that performs control and processing, the memory 11 that stores processing programs and data, the external storage I / F 12 that reads and writes information between the storage device 7, and communication with external devices are communicated. A network card 13 to be performed, an operation I / F 14 that performs input / output with the operation device 6, and a graphic board 15 that outputs a video signal to the display device 8 are connected to the bus 16, and are mutually connected via the bus 16. To communicate with each other.

ネットワークカード13は、LAN9上に接続されている内視鏡ファイリング装置8とデータの送受信処理を行うようになっている。   The network card 13 performs data transmission / reception processing with the endoscope filing device 8 connected on the LAN 9.

操作I/F14は、操作装置6のキーボードやマウスによって入力された入力信号を受け取り、必要なデータ処理を行うようになっている。   The operation I / F 14 receives an input signal input by a keyboard or a mouse of the operation device 6 and performs necessary data processing.

記憶装置7は情報処理装置5に接続されており、画像解析処理を実行する画像解析プログラムを格納している。該画像解析プログラムは、複数の実行ファイルまたは動的リンクライブラリファイルまたは設定ファイルから構成される。   The storage device 7 is connected to the information processing device 5 and stores an image analysis program for executing image analysis processing. The image analysis program includes a plurality of execution files, dynamic link library files, or setting files.

外部記憶I/F12は、記憶装置7に記憶されている画像解析プログラムを読み込み、メモリ11に記憶させるようになっている。   The external storage I / F 12 reads an image analysis program stored in the storage device 7 and stores it in the memory 11.

図2に示すように、メモリ11は、画像解析プログラム20と、解析データ21を保持している。   As shown in FIG. 2, the memory 11 holds an image analysis program 20 and analysis data 21.

メモリ11に記憶された画像解析プログラム20は、CPU10による実行により、操作装置6によって指定された内視鏡画像データを内視鏡ファイリング装置3から取得し、取得した画像データに対して画像解析処理をし、画像解析結果の表示装置8への表示処理を行うプログラムである。   The image analysis program 20 stored in the memory 11 acquires the endoscope image data designated by the operation device 6 from the endoscope filing device 3 by execution by the CPU 10, and performs image analysis processing on the acquired image data. This is a program for displaying the image analysis result on the display device 8.

メモリ11に記憶された解析データ21は、CPU10における各処理により取得及び生成されるデータである。記憶される解析データ21は、内視鏡ファイリング装置3から取得した画像データである原画像22及び後述する各種処理により生成される2値化画像23、ラベリング画像24、細線化画像25、血管形状特徴量26、血管特徴量27、解析結果画像28からなる。   The analysis data 21 stored in the memory 11 is data acquired and generated by each process in the CPU 10. The analysis data 21 to be stored includes an original image 22 that is image data acquired from the endoscope filing device 3, a binarized image 23, a labeling image 24, a thinned image 25, a blood vessel shape, which are generated by various processes described later. It consists of a feature amount 26, a blood vessel feature amount 27, and an analysis result image 28.

(作用)
CPU10は、画像解析プログラム20を実行して生成された解析データ21を使用して、図3に示すような血管画像解析結果ウィンドウ30を作成する。またCPU10は、グラフィックボード15を介して、表示装置8への血管画像解析結果ウィンドウ30の表示処理を行う。
(Function)
The CPU 10 creates a blood vessel image analysis result window 30 as shown in FIG. 3 using the analysis data 21 generated by executing the image analysis program 20. Further, the CPU 10 performs display processing of the blood vessel image analysis result window 30 on the display device 8 via the graphic board 15.

血管画像解析結果ウィンドウ30は、解析画像表示領域31と、解析値表示領域32とから構成され、解析画像表示領域31には血管解析処理画像を表示し、解析値表示領域32には血管解析値を表示する。   The blood vessel image analysis result window 30 includes an analysis image display area 31 and an analysis value display area 32. The analysis image display area 31 displays a blood vessel analysis processing image, and the analysis value display area 32 displays a blood vessel analysis value. Is displayed.

CPU10にて実行される画像解析プログラム20の処理について説明する。この処理では、図4に示すように、原画像取得処理ステップS1において、操作装置6の操作により指定された画像データを、内視鏡ファイリング装置3から取得し、メモリ11上に原画像22として記憶させる処理を行う。   Processing of the image analysis program 20 executed by the CPU 10 will be described. In this process, as shown in FIG. 4, in the original image acquisition processing step S <b> 1, image data designated by the operation of the operation device 6 is acquired from the endoscope filing device 3 and is stored as an original image 22 on the memory 11. Process to memorize.

次に、画像解析処理ステップS2において、原画像取得処理ステップS1により取得した原画像22を処理し、2値化画像23と、ラベリング画像24と、細線化画像25と、血管形状特徴量26と、血管特徴量27と、解析処理画像28とを生成してメモリ11上に記憶させる処理を行う。   Next, in the image analysis processing step S2, the original image 22 acquired in the original image acquisition processing step S1 is processed, and the binarized image 23, the labeling image 24, the thinned image 25, the blood vessel shape feature amount 26, and the like. The blood vessel feature amount 27 and the analysis processing image 28 are generated and stored in the memory 11.

そして、解析結果表示処理ステップS3において、血管画像解析結果ウィンドウ30を表示装置8上に表示する処理を行う。血管画像解析結果ウィンドウ30の解析画像表示領域31にはメモリ11に記憶される解析処理結果画像28を表示し、解析値表示領域32にはメモリ11に記憶される血管特徴量27に基づき、特徴量の種類と、特徴量の値と、を表示する。   Then, in the analysis result display processing step S3, processing for displaying the blood vessel image analysis result window 30 on the display device 8 is performed. The analysis processing result image 28 stored in the memory 11 is displayed in the analysis image display area 31 of the blood vessel image analysis result window 30, and the analysis value display area 32 is based on the blood vessel feature amount 27 stored in the memory 11. The type of quantity and the value of the feature quantity are displayed.

なお、本実施例においては、解析血管表示処理ステップS3において、解析処理画像として、原画像に細線化画像を重畳処理した血管芯線画像を表示し、血管特徴量として、画像中に存在する血管数と、1血管あたりの分岐点数と、を表示する処理を行うものとする。   In the present embodiment, in the analysis blood vessel display processing step S3, a blood vessel core image obtained by superimposing the thinned image on the original image is displayed as the analysis processing image, and the number of blood vessels present in the image is used as the blood vessel feature amount. And the number of branch points per blood vessel are displayed.

次に、上記画像解析処理ステップS2における処理の詳細を説明する。図5に示すように、2値化処理ステップS10において、原画像22に対する2値化処理を行う。原画像22は、R、G、Bの3プレーンのモノクロ画像データからなるが、そのうちのGのモノクロ画像データに対して2値化処理を行い、2値化画像23を生成する。   Next, details of the processing in the image analysis processing step S2 will be described. As shown in FIG. 5, in the binarization processing step S10, binarization processing is performed on the original image 22. The original image 22 is composed of three-plane monochrome image data of R, G, and B, and binarization processing is performed on the G monochrome image data, and a binary image 23 is generated.

2値化画像23は、原画像22の血管部分の画素値が1、背景部分の画素値が0となる画像データであり、原画像22から血管を抽出した画像に相当する。2値化処理ステップS10は、生成された2値化画像23を、メモリ11上に記憶させる処理を行う。   The binarized image 23 is image data in which the pixel value of the blood vessel portion of the original image 22 is 1 and the pixel value of the background portion is 0, and corresponds to an image obtained by extracting blood vessels from the original image 22. In the binarization processing step S <b> 10, a process of storing the generated binarized image 23 on the memory 11 is performed.

ここで、2値化処理は、対象となる画像データの各画素の画素値について、画素値があらかじめ設定された閾値以上であれば画素値を1とし、閾値よりも小さければ画素値を0とする処理である。2値化画像の画像データの例を図6に示す。   Here, in the binarization processing, regarding the pixel value of each pixel of the target image data, the pixel value is set to 1 if the pixel value is equal to or larger than a preset threshold value, and is set to 0 if the pixel value is smaller than the threshold value. It is processing to do. An example of the image data of the binarized image is shown in FIG.

次に、ラベリング処理ステップS11において、2値化画像23を基にしてラベリング画像24を作成する。ラベリング画像24は、血管の要素ごとにラベルを順次割り振った画像データから構成される。同一のラベルをもち、且つ、隣接する画素を連結した画素は、それぞれ1つの血管を表すことになる。   Next, in a labeling process step S11, a labeling image 24 is created based on the binarized image 23. The labeling image 24 is composed of image data in which labels are sequentially assigned to each blood vessel element. Each pixel having the same label and connecting adjacent pixels represents one blood vessel.

ここで、ラベリング処理は、2値化画像23を画像データの左上より順次走査し、画素値が1である点を抽出し、画素値が1であるを起点として、前記起点に連結する全ての画素を、ラベルにより塗りつぶす処理により実現する。ラベルとして2以上の整数を割り当てる。ラベリング画像24の例として、図6に示す2値化画像をラベリング処理した画像データを表す図を図7に示す。   Here, in the labeling process, the binarized image 23 is sequentially scanned from the upper left of the image data, a point having a pixel value of 1 is extracted, and starting from the pixel value of 1 as a starting point, all the points connected to the starting point are extracted. This is realized by a process of painting a pixel with a label. An integer of 2 or more is assigned as a label. As an example of the labeling image 24, a diagram showing image data obtained by labeling the binarized image shown in FIG. 6 is shown in FIG.

続いて、細線化処理ステップS12において、ラベリング画像24に対して細線化処理することにより、血管の幅が1画素である細線化画像25に変換して、細線化画像25をメモリ11に記憶させる。   Subsequently, in the thinning process step S12, the labeling image 24 is thinned to be converted into a thinned image 25 having a blood vessel width of one pixel, and the thinned image 25 is stored in the memory 11. .

本実施例においては、細線化画像25は、血管の芯線を表す画像であって、線の画素値を前記ラベル、背景の画素値を0とする画像データからなる。ラベルにより、細線化画像25中の血管要素を識別する。   In the present embodiment, the thinned image 25 is an image representing a blood vessel core line, and includes image data in which the pixel value of the line is the label and the pixel value of the background is 0. The vascular element in the thinned image 25 is identified by the label.

ここで、細線化処理は、Hildichの細線化手法として公知に知られる手法に基づくものであって、ラベリング画像24の画素値がラベルである画素について画素の連結性を保持することが可能である場合に、当該画素の画素値を0として線幅を減少させる処理である。   Here, the thinning process is based on a technique known as a Hildich thinning technique, and it is possible to maintain the connectivity of pixels with respect to pixels whose label values of the labeling image 24 are labels. In this case, the line width is reduced by setting the pixel value of the pixel to 0.

なお、Hildichの細線化手法に関しては、非特許文献3:「ソフトバンク刊:C MAGAZINE 2000.9”画像処理を極めるアルゴリズムラボ”PPI23-129」に詳しい。   The thinning method of Hildic is detailed in Non-Patent Document 3: “Softbank Publishing: C MAGAZINE 2000.9”, Algorithm Lab for Image Processing “PPI 23-129”.

血管の線幅が1になるまで細線化処理を反復処理することにより、線幅1の血管芯線を抽出した細線化画像25を生成する。細線化画像25の例として、図7に示すラベリング画像を細線化処理したところの画像データをあらわす図を図8に示す。   By thinning the thinning process until the line width of the blood vessel becomes 1, a thinned image 25 in which the blood vessel core line having the line width of 1 is extracted is generated. As an example of the thinned image 25, FIG. 8 shows image data obtained by thinning the labeling image shown in FIG.

次に、形状特徴量算出ステップS13において、細線化画像25に関する形状特徴量を算出し、形状特徴量を血管形状特徴量26としてメモリ11に記憶させる処理を行う。本実施例では、形状特徴量として、1本の血管の全長と、分岐点数とを算出する。   Next, in a shape feature amount calculation step S13, a shape feature amount related to the thinned image 25 is calculated, and a process of storing the shape feature amount in the memory 11 as the blood vessel shape feature amount 26 is performed. In the present embodiment, the total length of one blood vessel and the number of branch points are calculated as shape feature amounts.

本実施例においては、血管長は、細線化された血管の画素数と同等であるとみなして処理を行う。すなわち、血管長は、細線化画像25上の各血管要素ごとの画素数をカウントし、血管要素のラベルと前記カウントした画素数とを組とする特徴量として算出する。   In this embodiment, processing is performed assuming that the blood vessel length is equal to the number of pixels of the thinned blood vessel. That is, the blood vessel length is calculated as a feature amount by counting the number of pixels for each blood vessel element on the thinned image 25 and combining the label of the blood vessel element and the counted number of pixels.

また本実施例では、分岐点数は、血管要素の細線上に存在する三叉点数または直交点数の和を示す。分岐点数は、各血管要素ごとに存在する三叉点数と直交点数とをカウントし、血管要素のラベルと前記カウントした三叉点数と直交点数とを組とする特徴量として算出する。   In this embodiment, the number of branch points indicates the sum of the number of tridents or orthogonal points existing on the thin line of the blood vessel element. The number of branch points is calculated as a feature quantity obtained by counting the number of trigeminal points and the number of orthogonal points existing for each vascular element and combining the label of the vascular element and the counted number of trigonal points and the number of orthogonal points.

三叉点と直交点を求める方法は、非特許文献2:「”細線化図形の屈折点検出の一手法”小山ら、電子通信学会研究会資料PRL80-107 PP,80-90(1980)」に述べられているように、血管要素上の各点に対して、対象とする点の3×3論理マスクにおいて、周囲8近傍における血管要素点の数をカウントすることにより、三叉点または直交点であるか否かを判断する処理によるものである。   The method for obtaining the trigeminal point and the orthogonal point is described in Non-Patent Document 2: "" A method for detecting the refraction point of a thinned figure "Koyama et al., PRL80-107 PP, 80-90 (1980) As stated, for each point on a vascular element, by counting the number of vascular element points in the vicinity of the surrounding 8 in the 3 × 3 logical mask of the points of interest, at a trident or orthogonal point This is due to the process of determining whether or not there is.

ここで、上記周囲8近傍(単に、「8近傍」とも記す)について図9を用いて説明する。注目点の画素を、図9の中央の画素Oとすると、注目点の周囲8近傍における画素は、画素Oの上下左右斜めに位置する画素A〜Hが該当する。以降の説明に使用する周囲8近傍の意味も同一である。   Here, the vicinity of the surrounding 8 (also simply referred to as “8 vicinity”) will be described with reference to FIG. Assuming that the pixel of interest is the center pixel O in FIG. 9, pixels in the vicinity of the periphery 8 of the attention point correspond to pixels A to H positioned diagonally above, below, left, and right of the pixel O. The meaning of the vicinity of the surrounding 8 used in the following description is also the same.

以上により、血管要素のラベルと血管要素の全長、血管要素の識別値と三叉点数及び直交点数、の各組を血管形状特徴量26としてメモリ11に記憶させる。   As described above, each set of the label of the blood vessel element, the total length of the blood vessel element, the identification value of the blood vessel element, the number of tridents and the number of orthogonal points is stored in the memory 11 as the blood vessel shape feature amount 26.

続いて、血管選択処理ステップS14において、前記形状特徴量算出処理ステップS13において算出された血管形状特徴量26を基にして、あらかじめ選択された血管形状を有する血管要素を検出して選択する。本実施例において選択する血管形状は、点状血管、樹枝状血管、網状血管のうちのいずれかであるものとする。   Subsequently, in the blood vessel selection processing step S14, based on the blood vessel shape feature amount 26 calculated in the shape feature amount calculation processing step S13, a blood vessel element having a preselected blood vessel shape is detected and selected. The blood vessel shape selected in this embodiment is assumed to be any one of a dotted blood vessel, a dendritic blood vessel, and a reticulated blood vessel.

図10を用いて、上記血管選択処理ステップS14における処理の詳細を説明する。   Details of the processing in the blood vessel selection processing step S14 will be described with reference to FIG.

図10に示すように、血管選択処理ステップS14では、まずステップS21において、対象となる識別値Iの初期値として1を設定する。   As shown in FIG. 10, in the blood vessel selection processing step S14, first, in step S21, 1 is set as the initial value of the target identification value I.

そして、ステップS22において、ラベルIに対して1を加算し、ステップS23において、ラベリング画像24上に、画素値がラベルIである画素が存在するか否かを判定する。画素値がラベルIである画素が、ラベリング画像24上に存在しない場合には、処理を終了する。   Then, in step S22, 1 is added to the label I, and in step S23, it is determined whether or not there is a pixel whose pixel value is label I on the labeling image 24. When the pixel whose pixel value is label I does not exist on the labeling image 24, the process is terminated.

次に、ステップS24において、ラベルIに対応する血管要素の血管長をメモリ11の血管形状特徴量26の中から取得し、血管長が閾値T1未満である場合にはステップS25で点状血管として判定する。血管長が閾値T1以上である場合には、ステップS26に進む。   Next, in step S24, the blood vessel length of the blood vessel element corresponding to the label I is acquired from the blood vessel shape feature amount 26 of the memory 11, and if the blood vessel length is less than the threshold value T1, it is determined as a point blood vessel in step S25. judge. If the blood vessel length is greater than or equal to the threshold T1, the process proceeds to step S26.

ここで、閾値T1は、あらかじめ血管選択処理ステップ54が保持している数値であり、本実施例ではT1=2として処理する。   Here, the threshold value T1 is a numerical value previously stored in the blood vessel selection processing step 54, and is processed as T1 = 2 in this embodiment.

ステップS26において、ラベルIに対応する血管要素の三叉点数と直交点数の和をメモリ11の血管形状特徴量26の中から取得し、三叉点数と直交点数の和が閾値T2未満である場合には、樹枝状血管であると判定する。三叉点数と直交点数の和が閾値T2以上である場合には、網状血管であると判定する。   In step S26, the sum of the number of trigeminal points and the number of orthogonal points of the blood vessel element corresponding to the label I is acquired from the blood vessel shape feature amount 26 of the memory 11, and if the sum of the number of trigonal points and the number of orthogonal points is less than the threshold T2. Determined to be a dendritic blood vessel. When the sum of the number of trigeminal points and the number of orthogonal points is equal to or greater than the threshold value T2, it is determined that the blood vessel is a reticulated blood vessel.

ここで、閾値T2は、あらかじめ血管選択処理ステップ54が保持している数値である。本実施例ではT2=8として処理する。   Here, the threshold value T2 is a numerical value that the blood vessel selection processing step 54 holds in advance. In this embodiment, processing is performed with T2 = 8.

続いてステップS27において、既定の選択すべき血管形状と、ステップS24、ステップS25、ステップS26における血管形状の判定結果(点状血管または樹枝状血管または網状血管のいずれかの判定結果)とが異なる場合には、ラベリング画像24及び細線化画像25の画素値がラベルIである全ての画素を0にする。また、血管形状特徴量26のうち、ラベルIに対応する特徴量を消去する。ステップS27における処理終了後、ステップS22に戻り処理を継続する。   Subsequently, in step S27, the predetermined blood vessel shape to be selected is different from the determination result of the blood vessel shape in step S24, step S25, or step S26 (determination result of either a dotted blood vessel, a dendritic blood vessel, or a reticulated blood vessel). In this case, all the pixels whose label values are the label I in the labeling image 24 and the thinned image 25 are set to zero. Further, the feature amount corresponding to the label I is deleted from the blood vessel shape feature amount 26. After the process in step S27 ends, the process returns to step S22 and continues.

例として、図8に示す細線化画像を、血管選択処理ステップS14により、選択すべき血管形状として樹枝状血管を選択した時の修正細線化画像を図11に示す。   As an example, FIG. 11 shows a modified thinned image when the dendritic blood vessel shown in FIG. 8 is selected as a blood vessel shape to be selected in the blood vessel selection processing step S14.

図5に戻り、血管選択処理ステップS14が終わると、特徴量算出処理ステップS15において、血管選択処理ステップS14により処理された紬線化画像25及び血管形状特徴量26を基にして、血管特徴量27の算出処理を行う。本実施例では血管特徴量27として、血管数、1血管あたりの分岐点数を算出する。   Returning to FIG. 5, when the blood vessel selection processing step S14 is completed, in the feature amount calculation processing step S15, the blood vessel feature amount is based on the lined image 25 and the blood vessel shape feature amount 26 processed in the blood vessel selection processing step S14. 27 calculation processes are performed. In this embodiment, the number of blood vessels and the number of branch points per blood vessel are calculated as the blood vessel feature amount 27.

血管数は、血管形状特徴量26として記憶される血管長が0より大きい血管要素の総数として算出する。1血管あたりの分岐点数は、血管形伏特徴量26として記憶される三叉点数と直交点数との総和と、上記血管数との比として算出する。   The number of blood vessels is calculated as the total number of blood vessel elements having a blood vessel length greater than 0 stored as the blood vessel shape feature amount 26. The number of branch points per blood vessel is calculated as the ratio of the sum of the number of trigeminal points and the number of orthogonal points stored as the blood vessel deformity feature amount 26 to the number of blood vessels.

血管数、1血管あたりの分岐点数は、血管特徴量27としてメモリ11に記憶させ、血管画像解析結果ウィンドウ30の表示に利用する。   The number of blood vessels and the number of branch points per blood vessel are stored in the memory 11 as the blood vessel feature amount 27 and used for displaying the blood vessel image analysis result window 30.

次に、解析結果画像処理ステップS16において、原画像22に対して、血管選択処理ステップS14において修正された細線化画像25を重畳処理する。細線化画像25の各面家について、画素値が2以上である場合に、原画像22の対応画素の画素値を、(R,G,B)=(255,255,255)とする。重畳処理画像データを解析結果画像28としてメモリ11に記憶させる。   Next, in the analysis result image processing step S <b> 16, the thinned image 25 corrected in the blood vessel selection processing step S <b> 14 is superimposed on the original image 22. When each pixel of the thinned image 25 has a pixel value of 2 or more, the pixel value of the corresponding pixel of the original image 22 is (R, G, B) = (255, 255, 255). The superimposed image data is stored in the memory 11 as the analysis result image 28.

(効果)
本実施例によれば、対象となる血管形状のみに関する血管特徴量を算出でき、血管の形状に応じて解析対象を選択し、選択した対象に関する特徴量を求めるため、特徴量を利用した所見の客観化結果に基づく病変判定精度を向上させることができる。
(effect)
According to the present embodiment, it is possible to calculate the blood vessel feature amount related only to the target blood vessel shape, select the analysis target according to the shape of the blood vessel, and obtain the feature amount related to the selected target. The lesion determination accuracy based on the objective result can be improved.

なお、本実施例では、血管形状特徴量26として血管長と分岐点数とを用いて、血管選択処理ステップS14において解析対象となる血管を、血管の形状に基づいて選択したが、血管の特徴量として血管を構成する画素のRGB値の平均値を求め、RGB値平均値を用いて、血管の色調に基づいて血管を選択するようにしてもよい。   In this embodiment, the blood vessel length and the number of branch points are used as the blood vessel shape feature value 26, and the blood vessel to be analyzed is selected based on the shape of the blood vessel in the blood vessel selection processing step S14. Alternatively, an average value of RGB values of pixels constituting the blood vessel may be obtained, and the blood vessel may be selected based on the color tone of the blood vessel using the RGB value average value.

図12ないし図16は本発明の実施例2に係わり、図12はCPUにより実行される画像解析プログラムの処理の流れを示すフローチャート、図13は図12の血管分離処理の流れを示すフローチャート、図14は図13の処理における直交点の8近傍の画素値の第1の状態を示す図、図15は図13の処理における直交点の8近傍の画素値の第2の状態を示す図、図16は図12の画像解析プログラムの処理の結果得られる血管画像解析結果ウィンドウを示す図である。   FIGS. 12 to 16 relate to the second embodiment of the present invention, FIG. 12 is a flowchart showing the flow of processing of an image analysis program executed by the CPU, and FIG. 13 is a flowchart showing the flow of blood vessel separation processing of FIG. 14 is a diagram showing a first state of pixel values near eight of the orthogonal points in the processing of FIG. 13, and FIG. 15 is a diagram showing a second state of pixel values near eight of the orthogonal points in the processing of FIG. 16 is a view showing a blood vessel image analysis result window obtained as a result of the processing of the image analysis program of FIG.

実施例2は、実施例1とほとんど同じであるので、異なる点のみ説明し、同一の構成には同じ符号をつけ説明は省略する。   Since the second embodiment is almost the same as the first embodiment, only different points will be described, and the same components are denoted by the same reference numerals and description thereof will be omitted.

実施例2は、実施例1に対し、画像解析処理ステップS2(図4参照)において算出される血管特徴量27として、1血管あたりの屈折点数を追加することが異なる。実施例1との相違点について説明する。   The second embodiment is different from the first embodiment in that the number of refraction points per blood vessel is added as the blood vessel feature amount 27 calculated in the image analysis processing step S2 (see FIG. 4). Differences from the first embodiment will be described.

(構成)
本実施例では、血管特徴量27としての屈折点数算出にあたり、メモリ11に切断血管座標列29を記憶することが、実施例1との変更点である。切断血管座標列29については、後述する。
(Constitution)
In the present embodiment, in calculating the number of refraction points as the blood vessel feature amount 27, storing the cut blood vessel coordinate sequence 29 in the memory 11 is a change from the first embodiment. The cut blood vessel coordinate sequence 29 will be described later.

(作用)
本実施例における画像解析プログラム20の画像解析処理ステップS2における処理フローを図12に示す。
(Function)
FIG. 12 shows a processing flow in the image analysis processing step S2 of the image analysis program 20 in the present embodiment.

実施例1との相違点は、図12に示すように、血管選択処理ステップS14の後に血管分離処理ステップS17を追加し、特徴量算出ステップS15において算出する血管特徴量27として、1血管あたりの屈折点数を算出することである。算出された、1血管あたりの屈折点数は、解析結果表示処理ステップS3にて、解析結果ウィンドウ30の解析値表示領域32に表示する。   The difference from the first embodiment is that, as shown in FIG. 12, a blood vessel separation processing step S17 is added after the blood vessel selection processing step S14, and a blood vessel feature amount 27 calculated in the feature amount calculation step S15 is used. It is to calculate the number of refraction points. The calculated number of refraction points per blood vessel is displayed in the analysis value display area 32 of the analysis result window 30 in the analysis result display processing step S3.

また実施例1では、形状特徴量算出ステップS13において血管要素ごとのラベルと、三叉点と、直交点とを組にして血管形状特徴量26としてメモリ11に記憶させていたが、本実施例ではさらに、三叉点及び直交点の各座標列を組にして、血管形状特徴量26としてメモリ11に記憶させる。   In Embodiment 1, the label for each blood vessel element, the trident point, and the orthogonal point are combined and stored in the memory 11 as the blood vessel shape feature amount 26 in the shape feature amount calculation step S13. Further, each coordinate sequence of the trigeminal point and the orthogonal point is paired and stored in the memory 11 as the blood vessel shape feature amount 26.

血管分離処理ステップS17における処理フローを図13に示す。   FIG. 13 shows a processing flow in the blood vessel separation processing step S17.

血管分離処理では、図13に示すように、ステップS31において、細線化画像25上の全ての画素のラベルを調べて、ラベルの最大値Imaxを取得する。最大値Imaxは、血管のラベルの最大値に相当する。   In the blood vessel separation process, as shown in FIG. 13, in step S31, the labels of all the pixels on the thinned image 25 are examined, and the maximum value Imax of the label is obtained. The maximum value Imax corresponds to the maximum value of the label of the blood vessel.

次に、ステップS32において、対象となるラベルIの初期値として1を設定し、ステップS33において、ラベルIに対して1を加算し、ステップS34において、細線化画像25上に、画素値がラベルIである画素が存在するか否かを判定する。   Next, in step S32, 1 is set as the initial value of the target label I. In step S33, 1 is added to the label I. In step S34, the pixel value is displayed on the thinned image 25 as a label. It is determined whether or not there is a pixel that is I.

画素値がラベルIである画素が細線化画像25上に存在せず、かつI>Imaxである場合には、処理を終了し、そうでなければステップS35に進む。   If there is no pixel with a pixel value of label I on the thinned image 25 and I> Imax, the process ends. Otherwise, the process proceeds to step S35.

そして、ステップS35において、ラベルIに対応する直交点数Fを取得する。直交点数Fは、形状特徴量算出処理ステップS14において血管形状特徴量26としてメモリ11に記憶されるものである。ステップS36において直交点数Fが0であればステップS38に進み、直交点数Fが1以上であればステップS37に進む。   In step S35, the number of orthogonal points F corresponding to the label I is acquired. The number of orthogonal points F is stored in the memory 11 as the blood vessel shape feature amount 26 in the shape feature amount calculation processing step S14. If the number of orthogonal points F is 0 in step S36, the process proceeds to step S38, and if the number of orthogonal points F is 1 or more, the process proceeds to step S37.

直交点の8近傍の画素値の状態は、図14または図15のうちのいずれかである。P0は直交点を表す。ここで、図中”黒塗り□”で示す画素はラベルがIである画素を示し、”□”で示す画素はラベルが0である画素を示す。直交点における細線化血管の交差は、実際の観察対象上において2本の血管が奥行き方向に重なるために生ずるものである。   The state of the pixel values near eight of the orthogonal points is either of FIG. 14 or FIG. P0 represents an orthogonal point. Here, the pixel indicated by “black” in the figure indicates a pixel whose label is I, and the pixel indicated by “□” indicates a pixel whose label is 0. The crossing of the thinned blood vessels at the orthogonal point occurs because two blood vessels overlap in the depth direction on the actual observation target.

ステップS37での処理は、画像上において分岐して観察される細線化血管線分を分離する処理である。ステップS37では、交差点において交差する血管の線分を分離する処理を行う。交差点の8近傍の画素のラベルを調べ、直交点において交差する2本の線分要素のうち、一方の線分要素の細線化画像25の画素のラベルをImax+1に全て更新し、次にImaxに1を加算する処理を行う。この処理を各交差点に対して実行を繰り返し、ステップS38に進む。   The process in step S37 is a process of separating the thinned blood vessel line segment that is branched and observed on the image. In step S37, processing for separating the line segments of the blood vessels that intersect at the intersection is performed. Check the labels of the pixels near 8 at the intersection, update all the labels of the pixels of the thinned image 25 of one line segment element of the two line segment elements intersecting at the orthogonal point to Imax + 1, and then change to Imax A process of adding 1 is performed. This process is repeated for each intersection, and the process proceeds to step S38.

細線化画像25の画素のラベルをImax+1に更新する処理について説明する。   A process for updating the pixel label of the thinned image 25 to Imax + 1 will be described.

まず、メモリ11に記憶されている血管形状特徴量26の中から、該当する直交点の座標を取得する。   First, the coordinates of the corresponding orthogonal point are acquired from the blood vessel shape feature value 26 stored in the memory 11.

次に、直交点の8近傍について細線化画像25の画素のラベルを調べ、交差する線分のうちの一方を、細線化画像25の画素のラベルの更新対象線分として決定する。本実施例では、図14、図15におけるP及びP’を、更新対象の線分の起点画素とする。   Next, the label of the pixel of the thinned image 25 is examined in the vicinity of eight points of the orthogonal point, and one of the intersecting line segments is determined as the update target line segment of the pixel label of the thinned image 25. In this embodiment, P and P ′ in FIGS. 14 and 15 are set as the starting pixels of the line segment to be updated.

またメモリ11上に、トレース判定画像を作成する。トレース判定画像は、細線化画像25と同一の幅及び高さである画像データであって、1または0の画素値を各画素ごとに格納する。トレース判定画像の各画素の画素値の初期値は0とする。   A trace determination image is created on the memory 11. The trace determination image is image data having the same width and height as the thinned image 25, and stores a pixel value of 1 or 0 for each pixel. The initial value of the pixel value of each pixel of the trace determination image is 0.

次に境界線追跡処理を行い、P、P’を起点とする線分のトレースを行う。このトレース処理は、公知の境界線追跡処理により達成され、非特許文献4:「コンピュータ画像処理入門 田村秀行著 総研出版 P.84〜85」に詳しい。   Next, a boundary line tracking process is performed, and a line segment starting from P and P 'is traced. This tracing process is achieved by a well-known boundary line tracking process, and is described in detail in Non-Patent Document 4: “Introduction to Computer Image Processing, Hideyuki Tamura, Research Institute Publishing P.84-85”.

まずPを起点として、8近傍の細線化画像25のラベルがIである画素を順次トレースする。ただし、交差点P0は、トレースの対象とはしない。トレース済みの座標ついて、トレース判定画像の対応画素の画素値を1にする。トレース点の座標に関して、トレース判定画像の対応画素の画素値が0である場合には、トレース点の座標の細線化画像25の画素のラベルを、Imax+1に更新するとともに、トレース判定画像の対応画素の画素値を1にセットする。    First, starting from P, pixels whose label of the thinned image 25 in the vicinity of 8 is I are sequentially traced. However, the intersection P0 is not a trace target. For the traced coordinates, the pixel value of the corresponding pixel in the trace determination image is set to 1. When the pixel value of the corresponding pixel of the trace determination image is 0 with respect to the coordinates of the trace point, the pixel label of the thinned image 25 of the coordinate of the trace point is updated to Imax + 1 and the corresponding pixel of the trace determination image is updated. Is set to 1.

トレース処理において、注目点の8近傍に画素のラベルがIである画素が注目点の8近傍に存在しない場合には、トレースを終了する。途中、三叉点または直交点をトレースした場合には、その点を起点として接続する各血管に対して同様にトレース及び細線化画像25の画素のラベルの更新処理を行う。また、三叉点または直交点をトレースした場合には、ラベルIに関連付けられている、該当する三叉点または交差点を、ラベルImax+1に関連付けるよう更新する。三叉点または直交点であるか否かの判断は、メモリ11に記憶された血管形状特徴量26を基にして処理する。   In the trace processing, if there is no pixel whose pixel label is I in the vicinity of the attention point 8 in the vicinity of the attention point 8, the tracing is ended. In the middle, when a trident or orthogonal point is traced, the update of the label of the pixel of the thinned image 25 is similarly performed for each blood vessel connected from that point. When a trident or orthogonal point is traced, the corresponding trident or intersection associated with label I is updated so as to be associated with label Imax + 1. The determination of whether the point is a trident or an orthogonal point is processed based on the blood vessel shape feature amount 26 stored in the memory 11.

P’に対しても同様の処理を行い、最後に、直交点P0のラベルをImax+1に更新する。   Similar processing is performed for P ', and finally, the label of the orthogonal point P0 is updated to Imax + 1.

以上により、直交点において交差する2本の血管線分のうちの一方の血管線分に関する細線化画像25のラベルを更新して、細線化画像25上での血管線分の分離処理を行う。   As described above, the label of the thinned image 25 relating to one of the two blood vessel line segments intersecting at the orthogonal point is updated, and the blood vessel line segment separation processing on the thinned image 25 is performed.

ステップS38での処理は、細線血管を、分岐点を含まない血管要素に切断分解するとともに、原画像22に生ずるノイズにより発生した、実際の観察対象上には存在しない三叉分岐点を除去する処理である。   The process in step S38 is a process of cutting and decomposing the thin blood vessel into blood vessel elements that do not include a branch point, and removing a trident branch point that is generated on the original image 22 and does not exist on the actual observation target. It is.

ステップS38では、細線化画像25の画素のラベルがIである細線血管について、三叉点で切断する処理を行い、切断後の血管の座標列を、メモリ11に切断血管座標列29として記憶する処理を行う。切断血管点列29を記憶する際に、ラベルIと、切断血管点列の点数とを組として関連付けて記憶するよう処理する。   In step S38, processing for cutting the thin line blood vessel whose pixel label of the thinned image 25 is I at the trident point and storing the cut blood vessel coordinate sequence as the cut blood vessel coordinate sequence 29 in the memory 11 I do. When the cut blood vessel point sequence 29 is stored, the label I and the score of the cut blood vessel point sequence are associated with each other and stored.

三叉点での細線血管の切断処理について説明する。まず、メモリ11に記憶されている血管形状特徴量26の中から、識別値Iに対応する三叉点座標を1つ取得する。   A process of cutting a thin blood vessel at a trident point will be described. First, one trident point coordinate corresponding to the identification value I is acquired from the blood vessel shape feature amount 26 stored in the memory 11.

また、ステップS37での処理と同様に、メモリ11上に、トレース判定画像を作成する。   Further, a trace determination image is created on the memory 11 in the same manner as the processing in step S37.

次に、三叉点の8近傍について細線化画像25の画素のラベルを調べ、ラベルがIである点を起点として、8近傍の画素のラベルがIである画素を、トレースする。   Next, the label of the pixel of the thinned image 25 is examined for the eight neighborhoods of the three-pronged point, and the pixel having the label of the eight neighborhood pixels is traced starting from the point where the label is I.

トレース済みの座標ついて、トレース判定画像の対応画素の画素値を1にする。トレース処理において、注目点の8近傍に未トレースの画素がなく、かつ、細線化画像25のラベルがIである画素がない場合にはトレースを終了する。また、注目画素が三叉点である場合にもトレースを終了する。トレースした各血管の座標列の点数を切断血管の全長とみなし、血管の全長が閾値T3以上である場合には、トレース点の座標列を切断血管座標列29(図12参照)として、ラベルIと、切断血管の全長とみなされた座標列の点数とを組にして、メモリ11に記憶させる。   For the traced coordinates, the pixel value of the corresponding pixel in the trace determination image is set to 1. In the trace processing, if there is no untraced pixel in the vicinity of the attention point 8 and there is no pixel whose label of the thinned image 25 is I, the tracing is ended. The tracing is also terminated when the target pixel is a trident point. The number of points in the coordinate sequence of each traced blood vessel is regarded as the total length of the cut blood vessel, and when the total length of the blood vessel is equal to or greater than the threshold T3, the coordinate sequence of the trace point is set as the cut blood vessel coordinate sequence 29 (see FIG. 12) And the coordinate sequence score regarded as the total length of the cut blood vessel are stored in the memory 11 as a set.

なお、閾値T3は、あらかじめ血管分離処理ステップS17が保持している数値である。本実施例ではT3=2として処理する。   Note that the threshold value T3 is a numerical value held in advance in the blood vessel separation processing step S17. In this embodiment, processing is performed with T3 = 2.

以上の処理を、各三叉点について実行した後、ステップS33に戻り、処理を継続する。   After the above process is executed for each trident point, the process returns to step S33 to continue the process.

特徴量算出ステップS16(図12参照)では、切断血管座標列29をメモリ11から取得し、切断血管座標列29を基にして屈折点の検出を行う。屈折点の検出方法として、非特許文献2:「”細線化図形の屈折点検出の一手法”小山ら、電子通信学会研究会資料PRL80-107 PP,80-90(1980)」に紹介される手法を使用する。   In the feature amount calculation step S <b> 16 (see FIG. 12), the cut blood vessel coordinate sequence 29 is acquired from the memory 11, and the refraction point is detected based on the cut blood vessel coordinate sequence 29. As a method of detecting the refraction point, Non-Patent Document 2: "" A method for detecting the refraction point of a thin line figure "Koyama et al., IEICE Technical Committee Materials PRL80-107 PP, 80-90 (1980)" Use the technique.

切断血管座標列29には、識別値が関連付けられている。識別値は一意な値であり、識別値の総数は、血管要素の数に相当する。各切断血管座標列29に関する屈折点の総和を、識別値の総数で除することにより、1本あたりの屈折点数を算出し、血管特徴量27としてメモリ11に記憶させる。   The cut blood vessel coordinate sequence 29 is associated with an identification value. The identification value is a unique value, and the total number of identification values corresponds to the number of blood vessel elements. The total number of refraction points for each cut blood vessel coordinate sequence 29 is divided by the total number of identification values, thereby calculating the number of refraction points per line and storing it in the memory 11 as the blood vessel feature amount 27.

本実施例における解析結果表示処理ステップS3では、血管画像解析結果ウィンドウ30の解析値表示領域32に、1血管あたりの屈折点数を追加表示する。図16は、本実施例における血管画像解析結果ウィンドウ30を示す。実施例1における血管画像解析結果ウィンドウ30を示す図3と比較して、交差するA血管60と、B血管61とを別個の血管として区別するとともに、血管線分62の全長が短いため実際には存在しない血管線分とみなして細線化画像から除外している。   In the analysis result display processing step S3 in the present embodiment, the number of refraction points per blood vessel is additionally displayed in the analysis value display area 32 of the blood vessel image analysis result window 30. FIG. 16 shows a blood vessel image analysis result window 30 in the present embodiment. Compared with FIG. 3 showing the blood vessel image analysis result window 30 in the first embodiment, the intersecting A blood vessel 60 and B blood vessel 61 are distinguished as separate blood vessels, and the total length of the blood vessel segment 62 is actually short. Is regarded as a non-existing vascular line segment and excluded from the thinned image.

(効果)
本実施例では、実施例1の効果に加え、交差する血管を分離するとともに、血管の誤抽出を補正するため、血管特徴量の精度が向上する。すなわち、本実施例によれば、画像中の交差する血管を別個の血管として認識するとともに、血管上のノイズを除去するため、特徴量の精度を向上させるとともに、特徴量を利用した所見の客観化結果に基づく病変判定精度を向上させることができる。
(effect)
In this embodiment, in addition to the effects of the first embodiment, the intersecting blood vessels are separated and the erroneous extraction of the blood vessels is corrected, so that the accuracy of the blood vessel feature amount is improved. That is, according to the present embodiment, the intersecting blood vessels in the image are recognized as separate blood vessels, and noise on the blood vessels is removed, so that the accuracy of the feature amount is improved and the observation of the observation using the feature amount is performed. The accuracy of lesion determination based on the conversion result can be improved.

図17ないし図21は本発明の実施例3に係わり、図17は特徴量算出処理の流れを示すフローチャート、図18は図17の特徴量算出処理における屈折点頂点評価値Aを算出方法及び屈折点頂点評価値Aを用いての屈折候補点検出処理を説明するための説明図、図19は図17の屈折点決定処理の流れを示すフローチャート、図20は図19の処理において屈折点候補点の中から屈折点を決定することを説明する図、図21は図19の処理における移動平均法による切断血管座標列の平滑化を説明する図である。   FIGS. 17 to 21 relate to the third embodiment of the present invention, FIG. 17 is a flowchart showing a flow of the feature amount calculation process, and FIG. 18 is a calculation method and a refraction point evaluation value A in the feature amount calculation process of FIG. FIG. 19 is a flow chart showing the flow of the refraction point determination process in FIG. 17, and FIG. 20 is a refraction point candidate point in the process of FIG. FIG. 21 is a diagram for explaining the smoothing of the cut blood vessel coordinate sequence by the moving average method in the processing of FIG. 19.

実施例3は、実施例2とほとんど同じであるので、異なる点のみ説明し、同一の構成には同じ符号をつけ説明は省略する。   Since the third embodiment is almost the same as the second embodiment, only different points will be described, and the same components are denoted by the same reference numerals and description thereof will be omitted.

実施例3は、実施例2に対し、画像解析処理ステップS2において算出される血管特徴量27である屈折点数の算出方法が異なる。実施例2との相違点について説明する。   The third embodiment differs from the second embodiment in a method of calculating the number of refraction points that are the blood vessel feature amount 27 calculated in the image analysis processing step S2. Differences from the second embodiment will be described.

本実施例においては、血管の屈折部付近に屈折点候補点を数点検出し、その中から最も適切な屈折点を選択的に決定することにより屈折点数・位置の検出精度を向上させることが可能となる画像処理手法について説明する。   In this embodiment, it is possible to improve the detection accuracy of the number of refraction points and positions by checking a number of refraction point candidate points in the vicinity of the refraction part of the blood vessel and selectively determining the most suitable refraction point from among them. An image processing method will be described.

本実施例において、特徴量算出処理ステップS16は、屈折点候補点を検出する屈折点候補点検出処理と、屈折点候補点の中から最終的な屈折点を決定する屈折点決定処理とを順次実行することにより、屈折点を検出し、屈折点数を算出するところの屈折点数算出処理を含んでいる。実施例2との相違点は特徴量算出ステップS16において算出する屈折点数の算出方法であるため、相違について説明する。   In this embodiment, the feature amount calculation processing step S16 sequentially performs a refraction point candidate point detection process for detecting a refraction point candidate point and a refraction point determination process for determining a final refraction point from among the refraction point candidate points. By executing this, a refraction point calculation process for detecting a refraction point and calculating a refraction point is included. Since the difference from the second embodiment is the method of calculating the number of refraction points calculated in the feature amount calculation step S16, the difference will be described.

図17に示すように、本実施例における屈折点候補点検出処理は、ステップS41において、メモリ11に記憶されたN_Points個の点から成る切断血管座標列29を取得する。   As shown in FIG. 17, in the refraction point candidate point detection process in the present embodiment, a cut blood vessel coordinate sequence 29 composed of N_Points points stored in the memory 11 is acquired in step S41.

ステップS42において、処理の対象となる切断血管の最小点数の閾値threlとの比較を行う。本実施例では、thre1=10とする。N_Points>thre1であればステップS43に進み、そうでなければ処理を終了する。   In step S42, a comparison is made with the threshold threl of the minimum number of cut blood vessels to be processed. In this embodiment, thre1 = 10. If N_Points> thre1, the process proceeds to step S43, and if not, the process ends.

ステップS43において、各点における屈折点頂点評価値A(i)(1≦i≦N_Points)を算出する。ステップS43の詳細については後述する。   In step S43, the refraction point vertex evaluation value A (i) (1 ≦ i ≦ N_Points) at each point is calculated. Details of step S43 will be described later.

ステップS44においてiを初期化し、ステップS45において、点P(i)を対象点とし対象点における屈折点頂点評価値A(i)と、対象点からk点前後する点P(i−k),P(i+k)におる屈折点頂点評価値A(i−k),A(i+k)を取得する。値kは、ステップS46における比較対象を選択するパラメータであり、本実施例ではk=5とする。ステップS45の詳細については後述する。   In step S44, i is initialized, and in step S45, the point P (i) is set as the target point, the refraction point vertex evaluation value A (i) at the target point, and the point P (i−k) around k points from the target point, Refraction point vertex evaluation values A (i−k) and A (i + k) at P (i + k) are acquired. The value k is a parameter for selecting a comparison target in step S46, and in this embodiment, k = 5. Details of step S45 will be described later.

ステップS46において、屈折点頂点評価値A(i),A(i−k),A(i+k)の比較を行う。A(i)<A(i−k)かつA(i)<A(i+k)であればステップS47に進み、そうでなければステップS49に進む。ステップS46の詳細については後述する。   In step S46, the refraction point vertex evaluation values A (i), A (i−k), and A (i + k) are compared. If A (i) <A (i−k) and A (i) <A (i + k), the process proceeds to step S47. Otherwise, the process proceeds to step S49. Details of step S46 will be described later.

ステップ47において、屈折検出のための屈折の大きさを制限する閾値thre2との比較を行う。本実施例では、thre2=0.97とする。A(i)/L<thre2であれば、ステップS48に進み、そうでなければ処理を終了する。   In step 47, a comparison is made with a threshold thre2 that limits the magnitude of refraction for refraction detection. In this embodiment, thre2 = 0.97. If A (i) / L <thre2, the process proceeds to step S48, and if not, the process ends.

ステップS48において、対象点P(i)を屈折点候補点として検出してメモリ11に記憶させる。   In step S48, the target point P (i) is detected as a refraction point candidate point and stored in the memory 11.

ステップS49において、対象点P(i)が切断血管座標列29の最終点つまりi=N_PointsであればステップS50で屈折点を決定して処理を終了し、i≠N_PointsであればステップS51に進む。   In step S49, if the target point P (i) is the final point of the cut blood vessel coordinate sequence 29, i.e., i = N_Points, the refraction point is determined in step S50, and the process ends. If i ≠ N_Points, the process proceeds to step S51. .

ステップS51において、i=i+1として対象点を更新し、ステップS45ないしS49に示す一連の処理を繰り返す。   In step S51, the target point is updated with i = i + 1, and the series of processing shown in steps S45 to S49 is repeated.

ステップS50においての、屈折点決定処理は流れを図19に示し、詳細については後述する。   The flow of the refraction point determination process in step S50 is shown in FIG. 19 and will be described in detail later.

次に、ステップS43における屈折点頂点評価値Aを算出方法と、ステップS45、ステップS46における屈折点頂点評価値Aを用いての屈折候補点検出処理の詳細について説明する。   Next, a method for calculating the refraction point vertex evaluation value A in step S43 and the details of the refraction candidate point detection process using the refraction point vertex evaluation value A in steps S45 and S46 will be described.

図18は本実施例における屈折点頂点評価値Aを算出方法と、屈折点頂点評価値Aを用いての屈折候補点検出処理を説明するための説明図である。   FIG. 18 is an explanatory diagram for explaining a method for calculating a refraction point vertex evaluation value A and a refraction candidate point detection process using the refraction point vertex evaluation value A in the present embodiment.

屈折点頂点評価値Aの算出方法としては、非特許文献2:「”細線化図形の屈折点検出の一手法”小山ら、電子通信学会研究会資料PRL80-107 PP,80-90(1980)」に示される手法を使用する。   As a method for calculating the refraction point apex evaluation value A, Non-Patent Document 2: "" A method for detecting the refraction point of a thinned figure "Koyama et al., IEICE Technical Committee Materials PRL80-107 PP, 80-90 (1980) Is used.

取得した切断血管座標列29の各点について、細線血管像に沿って、各点を中心とする図18に太線にて示す長さLの曲線を抽出し、その曲線の始点終点の距離(弦長)を屈折点頂点評価値A(i)として算出する。ただし、点P(i)が切断血管座標列29の両端から[L/2]の範囲に存在し、長さLの曲線が抽出できない場合、A(i)=Lとする。ここで[]はガウス記号である。   For each point in the acquired cut blood vessel coordinate sequence 29, a curve having a length L indicated by a bold line in FIG. 18 centered on each point is extracted along the thin blood vessel image, and the distance between the start point and end point of the curve (string) Length) is calculated as the refractive point apex evaluation value A (i). However, if the point P (i) exists in the range of [L / 2] from both ends of the cut blood vessel coordinate sequence 29 and a curve of length L cannot be extracted, A (i) = L. Here, [] is a Gaussian symbol.

また、屈折候補点検出処理において点P(i)が両端からkの範囲に存在し、点P(i−k),P(i+k)が切断血管座標列29上の点に成り得ない場合、A(i−k)=L,A(i+k)=Lとする。点P(i)における屈折点頂点評価値A(i)が、k点前の点P(i−k)における屈折点頂点評価値A(i−k)、かつk点後の点P(i+k)における屈折点頂点評価値A(i+k)より小さい場合は、P(i)における屈折が点P(i−k),P(i+k)より大であることを示すから、屈折候補点として検出する。   Further, when the point P (i) exists in the range of k from both ends in the refraction candidate point detection process, and the points P (i−k) and P (i + k) cannot be points on the cut blood vessel coordinate sequence 29, Let A (i−k) = L and A (i + k) = L. The refraction point vertex evaluation value A (i) at the point P (i) is the refraction point vertex evaluation value A (i−k) at the point P (i−k) before the k point, and the point P (i + k) after the k point. ) Is smaller than the refraction point apex evaluation value A (i + k), it indicates that the refraction at P (i) is larger than the points P (i−k) and P (i + k). .

この比較評価を、切断血管座標列29を形成するすべての点に対して順に行う。切断血管座標列29の両端から[L/2]の範囲では、上述した通りA(i)=Lとしたため、屈折点候補点の検出からは除外される。   This comparative evaluation is sequentially performed on all the points forming the cut blood vessel coordinate sequence 29. In the range of [L / 2] from both ends of the cut blood vessel coordinate sequence 29, A (i) = L as described above, and thus is excluded from the detection of refraction point candidate points.

次に屈折点決定処理における処理フローを図19に示す。   Next, FIG. 19 shows a processing flow in the refraction point determination processing.

ステップS61において、前述の屈折点候補点検出処理により検出された屈折点候補点を、メモリ11から取得する。屈折点候補点が隣接して連続している場合は、その点列を一つの組(以下、パターンと称する)として抽出する。ここで切断血管座標列29において生成されたパターン数をN_pattern(1≦N_pattern≦屈折点候補点数)とし、各パターンを形成する屈折点候補点数Cn(1≦n≦N_pattern)を算出する。   In step S 61, the refraction point candidate points detected by the above-described refraction point candidate point detection process are acquired from the memory 11. When the refraction point candidate points are adjacent and continuous, the point sequence is extracted as one set (hereinafter referred to as a pattern). Here, the number of patterns generated in the cut blood vessel coordinate sequence 29 is N_pattern (1 ≦ N_pattern ≦ number of refraction point candidates), and the number of refraction point candidate points Cn (1 ≦ n ≦ N_pattern) forming each pattern is calculated.

そして、ステップS62において、最初のパターンを示すn=1に初期化し、ステップS63において、ステップS61にて生成されたパターンのうちの1つを対象点pattern(n)(1≦n≦N_pattern)として取得し、対象パターンpattern(n)の屈折点候補点数Cn=1であれば、他の屈折候補点が隣接しておらず単独で存在すると判断し、その屈折点候補点を屈折点と決定する。対象パターンpattern(n)の屈折点候補点数Cn≧2であれば、ステップS64に進み、対象パターンの屈折点候補点列の中から1点を屈折点と決定する。   In step S62, n = 1 indicating the first pattern is initialized. In step S63, one of the patterns generated in step S61 is set as a target point pattern (n) (1 ≦ n ≦ N_pattern). If the number of refraction point candidate points Cn = 1 of the target pattern pattern (n) is acquired, it is determined that the other refraction candidate points are not adjacent and exist independently, and the refraction point candidate points are determined as refraction points. . If the number of refraction point candidate points Cn ≧ 2 of the target pattern pattern (n), the process proceeds to step S64, and one point from the refraction point candidate point sequence of the target pattern is determined as the refraction point.

ステップS64において、対象パターンpattern(n)中で、A(i)が最小となる点を屈折点と決定する。図20は、屈折点候補点の中から屈折点を決定することを表す図である。
In step S64, the point at which A (i) is minimum in the target pattern pattern (n) is determined as the refraction point. FIG. 20 is a diagram illustrating determining a refraction point from among refraction point candidate points.

ステップS65において、対象パターンpattern(n)が最終パターン、つまりn=N_patternであれば処理を終了し、n≠N_patternであればステップS66に進む。   In step S65, if the target pattern pattern (n) is the final pattern, that is, n = N_pattern, the process ends. If n ≠ N_pattern, the process proceeds to step S66.

ステップS66において、n=n+1として屈折点決定の対象パターンを更新し、ステップS63ないしS65に示す一連の処理を繰り返す。   In step S66, the target pattern for refraction point determination is updated with n = n + 1, and the series of processing shown in steps S63 to S65 is repeated.

なお、切断血管座標列29が滑らかでない場合は、ステップS41で取得した切断血管座標列29を、非特許文献2:「”細線化図形の屈折点検出の一手法”小山ら、電子通信学会研究会資料PRL80-107 PP,80-90(1980)」に示されるように、移動平均法により座標値を平滑化する。ここでの移動平均法とは、点Pの座標値を座標列の前後[m/2]点の座標値の平均値に設定する手法である。値mは移動平均点数、すなわち平滑化の強さを決定するパラメータである。本実施例では図21に示すようにm=9、すなわち9点の移動平均をもちいる。   If the cut blood vessel coordinate sequence 29 is not smooth, the cut blood vessel coordinate sequence 29 acquired in step S41 is referred to as “Non-Patent Document 2:“ A method for detecting the refraction point of a thinned figure ”Koyama et al. Coordinate values are smoothed by the moving average method as shown in the meeting document PRL80-107 PP, 80-90 (1980). The moving average method here is a method of setting the coordinate value of the point P to the average value of the coordinate values of the [m / 2] points before and after the coordinate sequence. The value m is a parameter that determines the number of moving average points, that is, the strength of smoothing. In this embodiment, as shown in FIG. 21, m = 9, that is, a moving average of 9 points is used.

また、切断血管座標列29の両端から[L/2]の範囲では、A(i)=Lと仮定するため、屈折点候補点は検出されないが、検出対象に含める場合には、非特許文献2:「”細線化図形の屈折点検出の一手法”小山ら、電子通信学会研究会資料PRL80-107 PP,80-90(1980)」に示されるようにステップS41で取得した切断血管座標列29の両端の延長を行えばよい。   In addition, in the range of [L / 2] from both ends of the cut blood vessel coordinate sequence 29, it is assumed that A (i) = L, so that the inflection point candidate point is not detected. 2: “A method for detecting the refraction point of a thinned figure” Koyama et al., Electronic Communication Society of Japan, PRL80-107 PP, 80-90 (1980) ”, as shown in FIG. It is sufficient to extend both ends of 29.

また、ステップS45におけるパラメータkは、切断血管座標列29を形成する点数N_Pointsに基づいて決定してもよい。   The parameter k in step S45 may be determined based on the number N_Points of points forming the cut blood vessel coordinate sequence 29.

また、本実施例では、ステップS64において、対象パターン中の屈折点候補点列のA(i)が極小となる点を屈折点として決定したが、対象パターン中の屈折点候補点列の中心点、すなわち[Cn/2]番目の点と決定するようにしてもよい。   In this embodiment, in step S64, the point at which A (i) of the refraction point candidate point sequence in the target pattern is minimized is determined as the refraction point. However, the center point of the refraction point candidate point sequence in the target pattern is determined. That is, the [Cn / 2] th point may be determined.

(効果)
本実施例では、実施例2の効果に加え、屈折点頂点評価値A(i)をk点前後の屈折点頂点評価値A(i−k),A(i+k)と比較することにより、血管の屈折部付近に屈折点候補点が数点検出され、その中から最も適切な屈折点を選択的に決定することにより屈折点数・位置の検出精度が向上する。すなわち、本実施例によれば、血管の屈折点数、位置の検出精度を向上させるとともに、血管屈折点数、位置を利用した所見の客観化結果に基づく病変判定精度を向上させることができる。
(effect)
In the present embodiment, in addition to the effects of the second embodiment, the refraction point vertex evaluation value A (i) is compared with the refraction point vertex evaluation values A (i−k) and A (i + k) before and after the k point. Several refraction point candidate points are detected in the vicinity of the refraction part, and the most appropriate refraction point is selectively determined from among the refraction point candidate points, thereby improving the refraction point number / position detection accuracy. That is, according to the present embodiment, it is possible to improve the accuracy of detecting the refraction point and position of the blood vessel, and to improve the accuracy of lesion determination based on the objectification result of the finding using the blood vessel refraction point and position.

本発明は、上述した実施例に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。   The present invention is not limited to the above-described embodiments, and various changes and modifications can be made without departing from the scope of the present invention.

本発明の実施例1に係る内視鏡画像解析装置の構成を示すブロック図1 is a block diagram showing the configuration of an endoscopic image analysis apparatus according to Embodiment 1 of the present invention. 図1のメモリ上に記憶される情報を示す図The figure which shows the information memorize | stored on the memory of FIG. 図1の情報処理装置の処理により表示装置上に表示される血管画像解析結果ウィンドウを示す図The figure which shows the blood-vessel image analysis result window displayed on a display apparatus by the process of the information processing apparatus of FIG. 図1のCPUにより実行される画像解析プログラムの処理の流れを示すフローチャートThe flowchart which shows the flow of a process of the image analysis program performed by CPU of FIG. 図4の画像解析処理の流れを示すフローチャートThe flowchart which shows the flow of the image analysis process of FIG. 図5の処理により生成される2値化画像の画像データの例を示す図The figure which shows the example of the image data of the binarized image produced | generated by the process of FIG. 図6の2値化画像をラベリング処理した画像データを表す図The figure showing the image data which carried out the labeling process of the binarized image of FIG. 図7のラベリング画像を細線化処理した画像データを表す図The figure showing the image data which thinned the labeling image of FIG. 図4の形状特徴量算出処理における周囲8近傍を説明する図FIG. 4 is a view for explaining the vicinity of the surrounding 8 in the shape feature amount calculation processing of FIG. 図4の形状特徴量算出処理の流れを示すフローチャートThe flowchart which shows the flow of the shape feature-value calculation process of FIG. 図10の形状特徴量算出処理による選択すべき血管形状として樹枝状血管を選択した時の修正細線化画像を示す図The figure which shows the correction | amendment thinning image when a dendritic blood vessel is selected as a blood vessel shape which should be selected by the shape feature-value calculation process of FIG. 本発明の実施例2に係るCPUにより実行される画像解析プログラムの処理の流れを示すフローチャート10 is a flowchart showing a flow of processing of an image analysis program executed by the CPU according to the second embodiment of the invention. 図12の血管分離処理の流れを示すフローチャートThe flowchart which shows the flow of the blood-vessel separation process of FIG. 図13の処理における直交点の8近傍の画素値の第1の状態を示す図The figure which shows the 1st state of the pixel value of 8 vicinity of the orthogonal point in the process of FIG. 図13の処理における直交点の8近傍の画素値の第2の状態を示す図The figure which shows the 2nd state of the pixel value of 8 vicinity of the orthogonal point in the process of FIG. 図12の画像解析プログラムの処理の結果得られる血管画像解析結果ウィンドウを示す図The figure which shows the blood vessel image analysis result window obtained as a result of the process of the image analysis program of FIG. 本発明の実施例3に係る特徴量算出処理の流れを示すフローチャートThe flowchart which shows the flow of the feature-value calculation process which concerns on Example 3 of this invention. 図17の特徴量算出処理における屈折点頂点評価値Aを算出方法及び屈折点頂点評価値Aを用いての屈折候補点検出処理を説明するための説明図Explanatory drawing for demonstrating the refraction point vertex evaluation value A in the feature amount calculation processing of FIG. 17 and the refraction candidate point detection processing using the refraction point vertex evaluation value A 図17の屈折点決定処理の流れを示すフローチャートThe flowchart which shows the flow of the refraction point determination process of FIG. 図19の処理において屈折点候補点の中から屈折点を決定することを説明する図The figure explaining determining a refraction point from refraction point candidate points in the processing of FIG. 図19の処理における移動平均法による切断血管座標列の平滑化を説明する図The figure explaining the smoothing of the cutting blood vessel coordinate sequence by the moving average method in the process of FIG. 従来の屈折点の検出手法の問題点を説明する図The figure explaining the problem of the detection method of the conventional refraction point

符号の説明Explanation of symbols

1…内視鏡画像解析装置
2…内視鏡観察装置
3…内視鏡ファイリング装置
4…画像処理装置
5…情報処理装置
6…操作装置
7…記憶装置
8…表示装置
9…LAN
10…CPU
11…メモリ
12…外部記憶I/F
13…ネットワークカード
14…操作I/F
15…グラフィックボード
16…バス
20…画像解析プログラム
21…解析データ
22…原画像
23…2値化画像
24…ラベリング画像
25…細線化画像
26…血管形状特徴量
27…血管特徴量
28…解析結果画像
代理人 弁理士 伊藤 進
DESCRIPTION OF SYMBOLS 1 ... Endoscope image analysis apparatus 2 ... Endoscope observation apparatus 3 ... Endoscope filing apparatus 4 ... Image processing apparatus 5 ... Information processing apparatus 6 ... Operation apparatus 7 ... Storage apparatus 8 ... Display apparatus 9 ... LAN
10 ... CPU
11 ... Memory 12 ... External storage I / F
13 ... Network card 14 ... Operation I / F
DESCRIPTION OF SYMBOLS 15 ... Graphic board 16 ... Bus 20 ... Image analysis program 21 ... Analysis data 22 ... Original image 23 ... Binary image 24 ... Labeling image 25 ... Thin line image 26 ... Blood vessel shape feature amount 27 ... Blood vessel feature amount 28 ... Analysis result Image Agent Patent Attorney Susumu Ito

Claims (16)

医用画像に対して画像解析を行う画像解析方法において、
前記医用画像に対して2値化処理及び細線化処理を行って1以上の血管の芯線を表す画像を抽出する線状パターン抽出ステップと、
前記線状パターン抽出ステップにおいて抽出された各線状パターンに関して、全長と分岐点数を第1の特徴量として算出する第1の特徴量算出ステップと、
前記各線状パターンの前記全長が所定の第1の閾値未満であるときはその血管を点状血管とし、前記各線状パターンの前記全長が前記所定の第1の閾値以上であって前記分岐点数が所定の第2の閾値未満であるときはその血管を樹枝状血管とし、前記各線状パターンの前記全長が前記所定の第1の閾値以上であって前記分岐点数が前記所定の第2の閾値以上であるときはその血管を網状血管と判定して、その判定結果の中から、解析の対象となる前記線状パターンを選択するパターン選択ステップと、
前記パターン選択ステップにより選択された前記線状パターンについて、前記医用画像中の血管数と1血管当たりの分岐点数を第2の特徴量として算出する第2の特徴量算出ステップと、
記算出された前記第2の特徴量を表示装置上に表示する表示ステップと、
を備えたことを特徴とする画像解析方法。
In an image analysis method for performing image analysis on a medical image,
A linear pattern extraction step of performing binarization processing and thinning processing on the medical image to extract an image representing one or more blood vessel cores ;
And concerning each linear pattern extracted in the linear pattern extraction step, the first feature quantity calculating step of calculating the total length and branching points as the first feature amount,
When the total length of each linear pattern is less than a predetermined first threshold value, the blood vessel is a pointed blood vessel, the total length of each linear pattern is equal to or greater than the predetermined first threshold value, and the number of branch points is When it is less than the predetermined second threshold, the blood vessel is a dendritic blood vessel, the total length of each linear pattern is equal to or greater than the predetermined first threshold, and the number of branch points is equal to or greater than the predetermined second threshold. A pattern selection step of determining the blood vessel as a reticulated blood vessel and selecting the linear pattern to be analyzed from the determination result ;
A second feature amount calculating step of calculating, as the second feature amount , the number of blood vessels in the medical image and the number of branch points per blood vessel for the linear pattern selected in the pattern selection step;
A display step of displaying the second feature amount before Symbol calculated on a display device,
An image analysis method comprising:
前記パターン選択ステップにおいて選択された線状パターン中の分岐点を含むパターンを、分岐点を含まない血管の線分パターンに分離する血管分離ステップを有し、  A blood vessel separation step of separating a pattern including a branch point in the linear pattern selected in the pattern selection step into a line segment pattern of a blood vessel not including a branch point;
前記第2の特徴量算出ステップは、分離された血管の線分パターンを含む前記選択された前記線状パターンから、前記血管数、前記1血管当たりの分岐数、及び屈折点を、前記第2の特徴量として算出することを特徴とする請求項1に記載の画像解析方法。  The second feature amount calculating step calculates the number of blood vessels, the number of branches per blood vessel, and the refraction point from the selected linear pattern including the segment pattern of separated blood vessels. The image analysis method according to claim 1, wherein the image amount is calculated as a feature amount.
前記血管分離ステップは、前記分離された血管の前記線分パターンの全長が所定の閾値以上である場合に、前記分離された血管を別個の血管と認識することによって、前記血管の線分の分離を行うことを特徴とする請求項2に記載の画像解析方法。  The blood vessel separation step recognizes the separated blood vessel as a separate blood vessel when the total length of the line segment pattern of the separated blood vessel is equal to or greater than a predetermined threshold, thereby separating the line segment of the blood vessel. The image analysis method according to claim 2, wherein: 前記血管分離ステップは、前記分岐点が交差点又は三叉点である場合に、前記血管数を1だけ加算することを特徴とする請求項2又は3に記載の画像解析方法。  4. The image analysis method according to claim 2, wherein the blood vessel separation step adds 1 to the number of blood vessels when the branch point is an intersection or a trigeminal point. 5. 前記第の特徴量算出ステップは、前記各線状パターンの屈折点数も算出することを特徴とする請求項1から4のいずれか1つに記載の画像解析方法。  5. The image analysis method according to claim 1, wherein the first feature amount calculating step also calculates a refraction point number of each linear pattern. 6. 前記表示ステップは、前記表示装置上に、前記内視鏡画像に前記解析の対象である前記線状パターンを重畳した画像と共に、前記第2の特徴量を表示することを特徴とする請求項1から5のいずれか1つに記載の画像解析方法。  The display step includes displaying the second feature amount together with an image obtained by superimposing the linear pattern to be analyzed on the endoscopic image on the display device. 6. The image analysis method according to any one of items 1 to 5. 前記内視鏡画像は、RGB値を有する画像であり、  The endoscopic image is an image having RGB values;
前記第1の特徴量算出ステップ及び前記第2の特徴量算出ステップの算出する特徴量は、前記線状パターンを構成する画素の前記RGB値に基づく前記線状パターンの色調を表す色調特徴量であることを特徴とする請求項1から6のいずれか1つに記載の画像解析方法。  The feature quantity calculated by the first feature quantity calculation step and the second feature quantity calculation step is a color tone feature quantity that represents the color tone of the linear pattern based on the RGB values of the pixels constituting the linear pattern. The image analysis method according to claim 1, wherein the image analysis method is provided.
前記第2の特徴量算出ステップは、  The second feature amount calculating step includes:
前記線状パターンから屈折点候補点を検出する屈折点候補点検出ステップと、  A refraction point candidate point detecting step for detecting a refraction point candidate point from the linear pattern;
前記屈折点候補点検出ステップの検出する前記屈折点候補点の中から、前記線状パターンの屈折点を決定する屈折点決定ステップとを備えたことを特徴とする請求項5に記載の画像解析方法。  The image analysis according to claim 5, further comprising: a refraction point determination step for determining a refraction point of the linear pattern from the refraction point candidate points detected by the refraction point candidate point detection step. Method.
前記屈折点候補点検出ステップは、  The refraction point candidate point detection step includes:
前記線状パターンを構成する各座標点に対して屈折点頂点評価値を算出し、前記屈折点頂点評価値に基づいた評価により、前記屈折点候補点を検出することを特徴とする請求項8に記載の画像解析方法。  9. A refraction point vertex evaluation value is calculated for each coordinate point constituting the linear pattern, and the refraction point candidate point is detected by evaluation based on the refraction point vertex evaluation value. The image analysis method described in 1.
前記屈折点頂点評価値は、対象点の座標位置から前記線状パターンに沿って、既定の距離だけ離れた座標位置を結んだときの弦長であることを特徴とする請求項9に記載の画像解析方法。  The refraction point vertex evaluation value is a chord length when a coordinate position separated by a predetermined distance is connected along the linear pattern from the coordinate position of the target point. Image analysis method. 前記屈折点候補点検出ステップにより行われるところの屈折点候補点の検出は、対象点の前記屈折点頂点評価値が、対象点の座標位置から前記線状パターンに沿って、既定の距離範囲内にある座標点における前記屈折点頂点評価値の最小値である場合に、対象点を前記屈折点候補点として検出することを特徴とする請求項9または10に記載の画像解析方法。  The refraction point candidate point detection performed by the refraction point candidate point detection step is performed such that the refraction point vertex evaluation value of the target point is within a predetermined distance range from the coordinate position of the target point along the linear pattern. 11. The image analysis method according to claim 9, wherein an object point is detected as the refraction point candidate point when the refraction point vertex evaluation value at the coordinate point is at a minimum value. 前記屈折点決定ステップは、前記屈折点候補点検出ステップにより検出された前記屈折点候補点が近接して複数存在する場合、座標位置に基づいた評価を行って、前記屈折点候補点のうちの1つを屈折点として決定することを特徴とする請求項8から11のいずれか1つに記載の画像解析方法。  In the refraction point determination step, when a plurality of refraction point candidate points detected by the refraction point candidate point detection step are close to each other, an evaluation based on a coordinate position is performed, and among the refraction point candidate points, 12. The image analysis method according to claim 8, wherein one is determined as a refraction point. 前記屈折点決定ステップにて行われるところの座標位置に基づいた評価は、前記複数存在する屈折点候補点の中で、中央に位置する屈折点候補点を、屈折点として決定することを特徴とする請求項12に記載の画像解析方法。  The evaluation based on the coordinate position performed in the refraction point determination step is characterized in that, among the plurality of refraction point candidate points, the refraction point candidate point located at the center is determined as a refraction point. The image analysis method according to claim 12. 前記屈折点決定ステップは、前記屈折点候補点検出ステップにより検出された前記屈折点候補点が近接して複数存在する場合,前記屈折点頂点評価値に基づいた評価を行って、前記屈折点候補点のうちの1つを屈折点として決定することを特徴とする請求項8から11のいずれか1つに記載の画像解析方法。  The refraction point determination step performs evaluation based on the refraction point vertex evaluation value when there are a plurality of refraction point candidate points detected in the refraction point candidate point detection step, and the refraction point candidate is evaluated. 12. The image analysis method according to claim 8, wherein one of the points is determined as a refraction point. 前記屈折点決定ステップにて行われるところの前記屈折点頂点評価値に基づいた評価は、前記複数存在する前記屈折点候補点の中で、前記屈折点頂点評価値が最小である前記屈折点候補点を、屈折点として決定することを特徴とする請求項14に記載の画像解析方法。  The evaluation based on the refraction point vertex evaluation value performed in the refraction point determination step is the refraction point candidate having the smallest refraction point vertex evaluation value among the plurality of refraction point candidate points existing. The image analysis method according to claim 14, wherein the point is determined as a refraction point. 被検体組織を撮像して得られた画像データに2値化処理及び細線化処理を施して前記画像データに含まれる1以上の血管の走行形状パターンを抽出する走行形状パターン抽出手段と、
前記走行形状パターン抽出手段により抽出された各走行形状パターンに関して、全長と分岐点数を第1の特徴量として算出する第1の特徴量算出手段と、
前記各走行パターンの前記全長が所定の第1の閾値未満であるときはその血管を点状血管とし、前記各走行パターンの前記全長が前記所定の第1の閾値以上であって前記分岐点数が所定の第2の閾値未満であるときはその血管を樹枝状血管とし、前記各走行パターンの前記全長が前記所定の第1の閾値以上であって前記分岐点数が前記所定の第2の閾値以上であるときはその血管を網状血管と判定して、その判定結果の中から、解析の対象となる前記走行形状パターンを選択するパターン選択手段と、
前記パターン選択手段により選択された前記走行形状パターンについて、前記画像データ中の血管数と1血管当たりの分岐点数を第2の特徴量として算出する第2の特徴量算出手段と、
前記算出された前記第2の特徴量を表示装置上に表示させる表示ステップと、
を備えたことを特徴とする画像解析装置。
A travel shape pattern extracting means for extracting a running shape pattern of one or more blood vessels contained in the image data by performing binarization processing and skeletonization processing on image data obtained by imaging the subject tissue,
First feature amount calculating means for calculating the total length and the number of branch points as the first feature amount for each traveling shape pattern extracted by the traveling shape pattern extracting means;
When the total length of each traveling pattern is less than a predetermined first threshold value, the blood vessel is a pointed blood vessel, the total length of each traveling pattern is equal to or greater than the predetermined first threshold value, and the number of branch points is When it is less than the predetermined second threshold, the blood vessel is a dendritic blood vessel, the total length of each traveling pattern is equal to or greater than the predetermined first threshold, and the number of branch points is equal to or greater than the predetermined second threshold. When it is, the blood vessel is determined as a reticular blood vessel, and from the determination result, a pattern selection means for selecting the running shape pattern to be analyzed,
Second feature amount calculating means for calculating the number of blood vessels in the image data and the number of branch points per blood vessel as a second feature amount for the running shape pattern selected by the pattern selecting means ;
A display step of displaying the calculated second feature amount on a display device;
An image analysis apparatus comprising:
JP2003397940A 2003-11-27 2003-11-27 Image analysis method Expired - Fee Related JP4434705B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003397940A JP4434705B2 (en) 2003-11-27 2003-11-27 Image analysis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003397940A JP4434705B2 (en) 2003-11-27 2003-11-27 Image analysis method

Publications (2)

Publication Number Publication Date
JP2005157902A JP2005157902A (en) 2005-06-16
JP4434705B2 true JP4434705B2 (en) 2010-03-17

Family

ID=34722956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003397940A Expired - Fee Related JP4434705B2 (en) 2003-11-27 2003-11-27 Image analysis method

Country Status (1)

Country Link
JP (1) JP4434705B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014132694A1 (en) 2013-02-27 2014-09-04 オリンパス株式会社 Image processing device, image processing method and image processing program

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4891636B2 (en) 2006-03-14 2012-03-07 オリンパスメディカルシステムズ株式会社 Image analysis device
JP4891637B2 (en) 2006-03-14 2012-03-07 オリンパスメディカルシステムズ株式会社 Image analysis device
JP2008052701A (en) * 2006-07-28 2008-03-06 Sony Corp Image processing method, image processing device, and program
JP4991278B2 (en) * 2006-12-25 2012-08-01 パナソニック株式会社 Image processing device
JP4902735B2 (en) * 2007-04-24 2012-03-21 オリンパスメディカルシステムズ株式会社 Medical image processing apparatus and medical image processing method
JP5100261B2 (en) * 2007-08-29 2012-12-19 株式会社東芝 Tumor diagnosis support system
WO2010082383A1 (en) * 2009-01-15 2010-07-22 オリンパスメディカルシステムズ株式会社 Endoscope system
JP5658873B2 (en) * 2009-11-13 2015-01-28 オリンパス株式会社 Image processing apparatus, electronic apparatus, endoscope system, and program
JP5438571B2 (en) * 2010-03-24 2014-03-12 富士フイルム株式会社 Electronic endoscope system
JP5435746B2 (en) * 2011-01-24 2014-03-05 富士フイルム株式会社 Endoscope device
CN103327883B (en) * 2011-02-22 2016-08-24 奥林巴斯株式会社 Medical image-processing apparatus and medical image processing method
WO2012153568A1 (en) * 2011-05-10 2012-11-15 オリンパスメディカルシステムズ株式会社 Medical image processing device and medical image processing method
CN103561631B (en) 2011-09-08 2016-01-13 奥林巴斯株式会社 Image processing apparatus and image processing method
CN104427927B (en) * 2012-06-28 2018-04-13 皇家飞利浦有限公司 For visualization of blood vessels and the navigation guided by fibre optical sensor of monitoring
JP5749864B2 (en) * 2012-12-19 2015-07-15 オリンパス株式会社 Image processing device
US11344690B2 (en) 2014-09-16 2022-05-31 Truphatek International Ltd. Imaging device and data management system for medical device
CA2969327C (en) * 2014-12-29 2023-04-18 Ventana Medical Systems, Inc. Vessel analysis in multiplexed images
EP3357403B1 (en) * 2015-09-28 2019-08-21 Fujifilm Corporation Image processing device, endoscope system, and image processing method
EP3357404A4 (en) 2015-09-29 2018-10-31 FUJIFILM Corporation Image processing device, endoscopic system, and image processing method
WO2017057573A1 (en) * 2015-09-29 2017-04-06 富士フイルム株式会社 Image processing device, endoscopic system, and image processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014132694A1 (en) 2013-02-27 2014-09-04 オリンパス株式会社 Image processing device, image processing method and image processing program
US9959481B2 (en) 2013-02-27 2018-05-01 Olympus Corporation Image processing apparatus, image processing method, and computer-readable recording medium

Also Published As

Publication number Publication date
JP2005157902A (en) 2005-06-16

Similar Documents

Publication Publication Date Title
JP4434705B2 (en) Image analysis method
JP4891636B2 (en) Image analysis device
US10803582B2 (en) Image diagnosis learning device, image diagnosis device, image diagnosis method, and recording medium for storing program
EP1994878B1 (en) Medical image processing device and medical image processing method
US8244009B2 (en) Image analysis device
EP1975877B1 (en) Method for point-of-interest attraction in digital images
EP1774910A1 (en) Medical image diagnosis assisting system, device and image processing program
CN109830289B (en) Rib image display device
JP2006246941A (en) Image processing apparatus and vessel tracking method
JP5635980B2 (en) Image processing, in particular a method and apparatus for processing medical images
WO2012114600A1 (en) Medical image processing device and medical image processing method
JP2012192125A (en) Network construction apparatus, method and program
CN111214255A (en) Medical ultrasonic image computer-aided diagnosis method
WO2014038428A1 (en) Image processing device and image processing method
JP5105997B2 (en) Medical image processing apparatus, medical image diagnostic apparatus, and program
KR20160118037A (en) Apparatus and method for detecting lesion from medical image automatically
JP6458166B2 (en) MEDICAL IMAGE PROCESSING METHOD, DEVICE, SYSTEM, AND PROGRAM
WO2018088055A1 (en) Image processing device, image processing method, image processing system, and program
US9123163B2 (en) Medical image display apparatus, method and program
JP7298949B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING SYSTEM AND MEDICAL IMAGE PROCESSING METHOD
JP2009078161A (en) Image diagnosis supporting device
WO2010035520A1 (en) Medical image processing apparatus and program
JP2023103170A (en) Image processing device, image processing method, and program
CN115023171A (en) Medical image data generation device for study, medical image data generation method for study, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090901

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091222

R151 Written notification of patent or utility model registration

Ref document number: 4434705

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140108

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees