JP2006180987A - Medical image display device - Google Patents

Medical image display device Download PDF

Info

Publication number
JP2006180987A
JP2006180987A JP2004375655A JP2004375655A JP2006180987A JP 2006180987 A JP2006180987 A JP 2006180987A JP 2004375655 A JP2004375655 A JP 2004375655A JP 2004375655 A JP2004375655 A JP 2004375655A JP 2006180987 A JP2006180987 A JP 2006180987A
Authority
JP
Japan
Prior art keywords
image
pixel value
medical image
region
organ
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004375655A
Other languages
Japanese (ja)
Other versions
JP2006180987A5 (en
Inventor
Kuniyoshi Nakajima
邦佳 中島
Yoshihiro Goto
良洋 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP2004375655A priority Critical patent/JP2006180987A/en
Publication of JP2006180987A publication Critical patent/JP2006180987A/en
Publication of JP2006180987A5 publication Critical patent/JP2006180987A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To set a weighting coefficient to each of pixel value distributions in an internal organ having the plurality of pixel value distributions. <P>SOLUTION: A CPU 10 performs the image recognition processing of an internal organ area in the medical image of a patient gathered by a medical image diagnostic device, divides the internal organ area to which the image recognition processing is performed by a prescribed threshold, analyzes the pixel value distributions of the divided areas, prepares respective weighting coefficient tables corresponding to the feature amounts of the plurality of analyzed pixel value distributions, projects an image emphasizing only the feature amounts of the plurality of pixel value distributions for which the weighting coefficient is determined by the prepared weighting coefficient tables, and displays the projected image on a CRT display 14. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、X線CT装置、MRI装置あるいは超音波断層装置などの医用画像診断装置(モダリティ)から得られた断層像から三次元画像を構成し、該構成された三次元画像を透視変換し、該透視変換された透視変換像を表示する医用画像表示装置に係り、特に前記透視変換処理を行う際の操作性を向上した医用画像表示装置に関する。   The present invention constructs a three-dimensional image from a tomographic image obtained from a medical image diagnostic apparatus (modality) such as an X-ray CT apparatus, an MRI apparatus, or an ultrasonic tomographic apparatus, and perspective-transforms the configured three-dimensional image. In particular, the present invention relates to a medical image display device that displays a perspective transformation image that has undergone perspective transformation, and more particularly to a medical image display device that has improved operability when performing the perspective transformation processing.

大腸や小腸などの腸管を含む管腔臓器の画像診断では、読影医が長い臓器を正確に診断するために大容量の画像を読影しなければならない。このため読影医の読影に要する負担が増加しており、効率的に読影できる技術が要望されている。   In the image diagnosis of luminal organs including the intestinal tract such as the large intestine and the small intestine, the interpretation doctor must interpret a large-capacity image in order to accurately diagnose a long organ. For this reason, the burden required for interpretation by an interpreting doctor has increased, and a technique capable of efficiently interpreting an image is desired.

そこで、この技術の一つが特許文献1に開示されている。この特許文献1では、ボリューム画像を含む複数の断層像から積み上げ画像を生成し、該積み上げ画像に対し任意の位置に視点を設定し、該視点から前記各断層像を投影面に投影して透視変換像を構成し、視点から投影面までの投影線の通過点を前記透視変換像の画素値毎に分類し、分類した画素値毎に画素値標識ビットメモリへ記憶し、記憶した画素値毎の重み付け情報と加算情報とを設定し、該重み付け情報に基づいて画素値間の重み付け処理し、該加算情報に基づき重み付け処理した画素値を加算し、加算した画素値より陰影づけした透視変換像を生成し、該透視変換画像の抽出対象部位を設定し、該対象部位と前記断層像間の間隔情報と前記重み付け処理のパラメータとを関連づけて記憶し、該パラメータで前記重み付け処理を行う。これにより、観察者の操作性を向上した医用画像表示装置を提供していた。
特開2001−351093号公報
Thus, one of these techniques is disclosed in Patent Document 1. In Patent Document 1, a stacked image is generated from a plurality of tomographic images including a volume image, a viewpoint is set at an arbitrary position with respect to the stacked image, and each tomographic image is projected onto a projection plane from the viewpoint to perform fluoroscopy. Constructing a converted image, classifying the passing point of the projection line from the viewpoint to the projection plane for each pixel value of the perspective converted image, storing the classified pixel value in the pixel value indicator bit memory, and for each stored pixel value The weighted information and the addition information are set, the pixel values are weighted based on the weighting information, the pixel values weighted based on the addition information are added, and the perspective transformation image shaded from the added pixel values , The extraction target part of the perspective transformation image is set, the interval information between the target part and the tomographic image and the parameter of the weighting process are stored in association with each other, and the weighting process is performed with the parameter. Thus, a medical image display apparatus with improved observer operability has been provided.
JP 2001-351093 A

しかし、上記特許文献1では、1段階の画素値の重み係数しか設定できないから、画素値の分布が複数存在する腸管などの管腔臓器では複数段階の画素値の重み係数を調整するために、読影医等の操作者がその画素値の重み係数を手動で再設定する必要があり、その画素値の重み係数の再設定操作の煩雑さを解消することへの配慮がされていなかった。   However, in Patent Document 1, since only one-stage pixel value weighting coefficient can be set, in order to adjust the multiple-stage pixel value weighting coefficient in a luminal organ such as the intestinal tract where a plurality of pixel value distributions exist, An operator such as an interpretation doctor needs to manually reset the weight coefficient of the pixel value, and no consideration has been given to eliminating the complexity of the operation of resetting the weight coefficient of the pixel value.

本発明の目的は、複数の画素分布を有する臓器でも容易に画素値の重み係数を設定可能な医用画像表示装置を提供することにある。   An object of the present invention is to provide a medical image display device capable of easily setting a weight coefficient of pixel values even in an organ having a plurality of pixel distributions.

上記目的は、医用画像診断装置によって収集された被検者の医用画像中の臓器領域を画像認識処理する手段と、該画像認識処理された臓器領域について所定の閾値によって分割する手段と、該分割された領域の画素値分布を解析する手段と、該解析された複数の画素値分布の特徴量に対応するそれぞれの重み係数テーブルを作成する手段と、該作成された重み係数テーブルによって重み係数が決められた前記複数の画素値分布の特徴量のみを強調した画像を投影する手段と、該投影された画像を表示する手段とを備えたことで達成される。
また、前記重み係数テーブル作成手段は、前記複数の画素値分布の特徴量に跨って作成されてもよい。
The object is to perform image recognition processing on the organ region in the medical image of the subject collected by the medical image diagnostic apparatus, means for dividing the organ region subjected to the image recognition processing by a predetermined threshold, and the division Means for analyzing the pixel value distribution of the analyzed area, means for creating respective weight coefficient tables corresponding to the feature quantities of the plurality of analyzed pixel value distributions, and a weight coefficient by the created weight coefficient table This is achieved by including means for projecting an image in which only the determined feature values of the plurality of pixel value distributions are emphasized, and means for displaying the projected image.
Further, the weighting coefficient table creation means may be created across the feature values of the plurality of pixel value distributions.

本発明によれば、複数の画素分布を有する臓器でも容易に画素値の重み係数を設定できる。   According to the present invention, the weight coefficient of the pixel value can be easily set even for an organ having a plurality of pixel distributions.

本発明の医用画像表示装置の実施形態について、図面を用いて説明する。
図1は本発明の医用画像表示装置の構成例を示すブロック図である。
An embodiment of a medical image display apparatus of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration example of a medical image display apparatus of the present invention.

医用画像表示装置は、中央処理装置(CPU)10と、CPU10と共通データ転送バス18(「共通バス」ともいう)によりデータ通信可能に接続される主メモリ11、磁気ディスク12、表示メモリ13、マウスコントローラ16、キーボード17、スピーカ18と、表示メモリ13とデータ通信可能に接続されるCRTディスプレイ14と、マウスコントローラ16とデータ通信可能に接続されるマウス15と、を有している。また、共通バス18はローカルエリアネットワーク(LAN)19がデータ通信可能に接続され、そのLAN19にはX線CT装置を始めとするモダリティ20がデータ通信可能に接続されている。   The medical image display device includes a central processing unit (CPU) 10, a main memory 11, a magnetic disk 12, a display memory 13, A mouse controller 16, a keyboard 17, a speaker 18, a CRT display 14 connected to the display memory 13 so as to be able to perform data communication, and a mouse 15 connected to the mouse controller 16 so as to be able to perform data communication. Further, a local area network (LAN) 19 is connected to the common bus 18 so that data communication is possible, and a modality 20 such as an X-ray CT apparatus is connected to the LAN 19 so that data communication is possible.

CPU10は各構成要素の動作を制御する。主メモリ11は医用画像表示装置の制御プログラムや画像データなどを格納する。磁気ディスク12は、複数患者の複数の断層画像データ及び動作プログラム等を格納する。表示メモリ13はCRT表示用の画像データを一時記憶する。CRTディスプレイ14は表示メモリ13に記憶される画像データを表示する。マウス15はマウスコントローラ16を介してCRTディスプレイ14の画面上のソフトスイッチを操作する。キーボード17は各種パラメータ設定用のキーやスイッチを有するものである。LAN19は図示しない通信インターフェースを介してモダリティ20からの患者の断層像などの医用画像を医用画像表示装置にデータ転送できるようになっている。   The CPU 10 controls the operation of each component. The main memory 11 stores a control program for the medical image display device, image data, and the like. The magnetic disk 12 stores a plurality of tomographic image data and operation programs for a plurality of patients. The display memory 13 temporarily stores image data for CRT display. The CRT display 14 displays the image data stored in the display memory 13. The mouse 15 operates a soft switch on the screen of the CRT display 14 via the mouse controller 16. The keyboard 17 has keys and switches for setting various parameters. The LAN 19 can transfer data of a medical image such as a tomogram of a patient from the modality 20 to a medical image display device via a communication interface (not shown).

この実施の形態では、主メモリ11以外の記憶装置として、磁気ディスク12のみが接続されているが、これ以外にFDD、ハードディスクドライブ、CD−ROMドライブ、光磁気ディスク(MO)ドライブ、ZIPドライブ、PDドライブ、DVDドライブなどが接続されていてもよい。さらに、LAN19の代わりにインターネット、電話回線などの種々の通信ネットワーク上に接続可能とし、他のコンピュータやデータベースとの間で画像データのやりとりを行えるようにしてもよい。   In this embodiment, only the magnetic disk 12 is connected as a storage device other than the main memory 11, but besides this, an FDD, hard disk drive, CD-ROM drive, magneto-optical disk (MO) drive, ZIP drive, PD drive, DVD drive, etc. may be connected. Furthermore, instead of the LAN 19, it is possible to connect to various communication networks such as the Internet and a telephone line so that image data can be exchanged with other computers and databases.

次に、図1の医用画像表示装置の動作例について図2を用いて説明する。図2は図1の医用画像表示装置が実行するプログラムの動作例を示すフローチャートである。図1のCPU10はこのフローチャートに従ってプログラムを動作する。   Next, an operation example of the medical image display apparatus in FIG. 1 will be described with reference to FIG. FIG. 2 is a flowchart showing an operation example of a program executed by the medical image display apparatus of FIG. The CPU 10 in FIG. 1 operates the program according to this flowchart.

[ステップS20]
操作者は、医用画像表示装置のディスプレイ14上に表示される被検者のID入力画面を参照しながら患者のID番号を入力する。CPU10は入力された患者のID番号に対応した断層像を、モダリティによって予め撮影された断層像が記憶されている磁気ディスク12から主メモリ11又は表示メモリ13へ読み出す。表示メモリ13に読み出す場合は、読み出された断層像であるか否かを確認するためにCRTディスプレイ14に表示してもよい。
このステップでは、メモリに読み出された断層像に対する臓器領域認識処理を行う。ここで臓器領域認識処理は、モダリティによって収集された被検者の医用画像中の臓器領域を画像認識処理することである。被検者の臓器派解剖学的に知られており、例えば腹部のCT画像を得て、その得られたCT画像に描出される臓器の形状から、その臓器が何であるかが特定できる。画像認識処理は、特定臓器の名称と形状をテーブルで持って、図3は、図2の臓器領域認識処理のサブルーチンを示すフローチャートである。
[Step S20]
The operator inputs the patient ID number while referring to the subject ID input screen displayed on the display 14 of the medical image display device. The CPU 10 reads the tomographic image corresponding to the input patient ID number from the magnetic disk 12 storing the tomographic image previously captured by the modality to the main memory 11 or the display memory 13. When reading to the display memory 13, it may be displayed on the CRT display 14 in order to confirm whether or not the read tomographic image.
In this step, organ region recognition processing is performed on the tomographic image read out to the memory. Here, the organ region recognition processing is to perform image recognition processing on the organ region in the medical image of the subject collected by the modality. For example, an abdominal CT image is obtained, and the shape of the organ depicted in the obtained CT image can identify what the organ is. The image recognition process has the names and shapes of specific organs in a table, and FIG. 3 is a flowchart showing a subroutine of the organ region recognition process in FIG.

[ステップS30]
CPU10は、軟部組織か空気領域かを判別するための閾値処理を行う。このときの空気の閾値を-400と設定したが、判別分析法によって決定した閾値を用いてもよい。ここで、判別分析法とは、例えば、CT値をヒストグラム処理し、そのヒストグラム処理されたCT値の分散から求めるものである。また、この判別分析法の詳細は、「Excelによる多変量解析の基礎」浦上賀久子著、科学技術出版発行に記載されている。
[Step S30]
The CPU 10 performs threshold processing for determining whether the tissue is a soft tissue or an air region. Although the threshold value of air at this time is set to −400, a threshold value determined by a discriminant analysis method may be used. Here, the discriminant analysis method is, for example, a method in which a CT value is subjected to histogram processing and obtained from the variance of the CT value subjected to the histogram processing. The details of this discriminant analysis method are described in "Basics of Multivariate Analysis with Excel" by Hisako Urakami, published by Science and Technology Publishing.

[ステップS31]
ステップS30により閾値判別された軟部組織には、体領域と寝台がある。そこで、CPU10は、抽出面積が最大の領域だけを体領域として抽出する。この抽出処理は図5によって説明される。図5に示されるように、複数の断層像には、体領域50内の腸領域51の図面の下方に寝台52が配置されている。
[Step S31]
The soft tissue determined as a threshold in step S30 includes a body region and a bed. Therefore, the CPU 10 extracts only a region having the maximum extraction area as a body region. This extraction process is illustrated by FIG. As shown in FIG. 5, a bed 52 is disposed below the intestinal region 51 in the body region 50 in the plurality of tomographic images.

[ステップS32]
腸管などの管腔臓器には腸管内ガスなど空気領域が存在することから、その空気領域を体領域以外の空気領域と同様に抽出してしまうため、体領域中の空気領域に穴が生じる。そこで、CPU10はその穴を埋める穴埋め処理を行い、穴のない状態の体領域を抽出する。この抽出処理の結果は図6に示される。ここではそれぞれの断層像において、体領域61が抽出されている。
[Step S32]
Since a luminal organ such as the intestinal tract has an air region such as gas in the intestinal tract, the air region is extracted in the same manner as the air region other than the body region, and a hole is formed in the air region in the body region. Therefore, the CPU 10 performs a hole filling process for filling the hole, and extracts a body region without a hole. The result of this extraction process is shown in FIG. Here, a body region 61 is extracted from each tomographic image.

[ステップS33]
CPU10は、ステップS32で抽出された体領域において、ステップS31で抽出した軟部組織(臓器)領域だけを抽出する。この抽出処理は図7によって説明される。図7では、腸管を示す臓器領域71の輪郭が各断層像において抽出される様子が示されている。
[Step S33]
The CPU 10 extracts only the soft tissue (organ) region extracted in step S31 from the body region extracted in step S32. This extraction process is illustrated by FIG. FIG. 7 shows how the outline of the organ region 71 indicating the intestinal tract is extracted in each tomographic image.

[ステップS21]
CPU10は、ステップS33で認識された臓器領域の画素値分布を解析するために、管腔臓器境界か管腔臓器内腔かを分割処理する。図4は、図2の臓器領域分割処理のサブルーチンを示すフローチャートである。
[Step S21]
In order to analyze the pixel value distribution of the organ region recognized in step S33, the CPU 10 divides the lumen organ boundary or the lumen organ lumen. FIG. 4 is a flowchart showing a subroutine of the organ region dividing process of FIG.

[ステップS40]
CPU10は、ステップS33で認識された領域の辺縁を認識する。
[ステップS41]
CPU10は、ステップS40で認識された辺縁を中心とした関心領域を設定する。この設定は臓器領域の全辺縁点に対して行われる。
[Step S40]
The CPU 10 recognizes the edge of the area recognized in step S33.
[Step S41]
The CPU 10 sets a region of interest centered on the edge recognized in step S40. This setting is performed for all edge points of the organ region.

[ステップS42]
CPU10は、ステップS41で設定された関心領域を用いて、ステップS33で認識した臓器領域を分割処理する。もし、臓器領域が関心領域と重なっていれば臓器境界領域とし、重なっていなければ、臓器内腔領域と認識する。この処理結果の例を図8に示す。ここでは、臓器境界領域80即ち臓器の内壁部分が図7に示された臓器領域71の輪郭との関係から認識される。
[Step S42]
The CPU 10 divides the organ area recognized in step S33 using the region of interest set in step S41. If the organ region overlaps with the region of interest, it is determined as an organ boundary region, and if it does not overlap, it is recognized as an organ lumen region. An example of the processing result is shown in FIG. Here, the organ boundary region 80, that is, the inner wall portion of the organ is recognized from the relationship with the contour of the organ region 71 shown in FIG.

[ステップS22]
CPU10は、ステップS21で分割された領域ごとの画素値の分布を解析する。解析された結果の例を図9に示す。図9からは、腸管の内腔領域と境界付近領域の2つの領域にCT値の頻度のピークがあることが分かる。
[Step S22]
The CPU 10 analyzes the distribution of pixel values for each area divided in step S21. An example of the analysis result is shown in FIG. From FIG. 9, it can be seen that there are peaks in the frequency of CT values in two regions, the lumen region of the intestinal tract and the region near the boundary.

[ステップS23]
CPU10は、ステップS22で解析された画素値の分布を元に強調表示の度合いを決定する重み係数テーブルを作成する。この作成された重み係数テーブルは、その例を図10と図11に示す。図10では、腸管内腔領域と腸管境界付近領域を個別に、下限値1(Low1a,Low1b)、上限値1(Upp1a,Upp1b)及び下限値2(Low2a,Low2b)、上限値2(Upp2a,Upp2b)として設定している。また、図11では、腸管内腔領域と腸管境界付近領域の一部を共有している。つまり、上限値1の重み0部分と及び下限値2の重み0部分がLow3として共有されている。また、この場合、腸管境界付近領域を強調し、腸管内腔を抑制する重み係数テーブルになっていて、後のステップで作成される任意のCT値のみの輪郭部分の三次元画像(クリスタルビュー像)は腸管境界付近領域、即ち腸管の壁部分が強調されるようになる。しかし、クリスタルビュー像で何れの領域が強調されるかは、操作者が任意に決定できるようにしてもよい。具体的には、図10や図11に示されるような重み係数を画像表示し、その画像表示された重み係数を任意に設定できるグラフィカルユーザインターフェースで行うことができる。
[Step S23]
The CPU 10 creates a weighting coefficient table that determines the degree of highlighting based on the distribution of pixel values analyzed in step S22. Examples of the created weight coefficient table are shown in FIGS. In FIG. 10, the intestinal lumen region and the region near the intestinal boundary are individually divided into lower limit value 1 (Low1a, Low1b), upper limit value 1 (Upp1a, Upp1b), lower limit value 2 (Low2a, Low2b), upper limit value 2 (Upp2a, Upp2b) is set. Further, in FIG. 11, a part of the intestinal tract lumen region and the region near the intestinal tract boundary are shared. That is, the weight 0 part of the upper limit value 1 and the weight 0 part of the lower limit value 2 are shared as Low3. Also, in this case, the weight coefficient table that emphasizes the region near the intestinal tract boundary and suppresses the intestinal tract lumen is a three-dimensional image (crystal view image) of only an arbitrary CT value created in a later step. ) Emphasizes the region near the intestinal border, that is, the wall of the intestinal tract. However, the operator may arbitrarily determine which region is emphasized in the crystal view image. Specifically, a graphical user interface that can display an image of the weighting coefficient as shown in FIG. 10 or FIG. 11 and arbitrarily set the displayed weighting coefficient can be performed.

[ステップS24]
CPU10は、投影方向における画素値分布解析処理を行い、クリスタルビュー像を生成するためのCT値が上記重み係数により決定される。このクリスタルビュー像の生成は、具体的には、特許文献1に記載されるので、ここでの説明は省略する。この処理の模式図を図12に示す。つまり、CPU10は強調されるCT値に対し投影線L1と断層像のCT値を読み出し、読み出されたCT値と対応するCT値標識ビットメモリMCに“1”を設定する。
[Step S24]
The CPU 10 performs a pixel value distribution analysis process in the projection direction, and a CT value for generating a crystal view image is determined by the weight coefficient. Since the generation of the crystal view image is specifically described in Patent Document 1, the description thereof is omitted here. A schematic diagram of this process is shown in FIG. That is, the CPU 10 reads the projection line L1 and the CT value of the tomographic image with respect to the enhanced CT value, and sets “1” in the CT value indicator bit memory MC corresponding to the read CT value.

[ステップS25]
CPU10は、ステップS24で設定したCT値標識ビットメモリと、ステップS23で作成した重み係数テーブルを用いて、クリスタルビュー像の再構成処理を行う。これは、“1”が設定されたCT値標識ビットメモリに対応するCT値に対応する重み係数テーブルの重み付けを加算する。そして、再構成されたクリスタルビュー像は、腸管の壁部分を強調するので、腸管の異常部分を一目で発見することができる。また、腸の絡み具合なども把握できる。
[Step S25]
The CPU 10 performs a crystal view image reconstruction process using the CT value indicator bit memory set in step S24 and the weighting coefficient table created in step S23. This adds the weight of the weighting coefficient table corresponding to the CT value corresponding to the CT value indicator bit memory in which “1” is set. Since the reconstructed crystal view image emphasizes the wall portion of the intestinal tract, an abnormal portion of the intestinal tract can be found at a glance. In addition, the intestinal entanglement can be grasped.

本実施形態では、読影医の読影負担を軽減するために、読影画像枚数を削減しつつ、管腔臓器の形状の異常を捉えやすくすることが可能である。つまり、3次元情報を2次元に圧縮する際に、管腔臓器の境界をより明瞭に捉えられる画像を提供することができる。   In the present embodiment, in order to reduce the interpretation burden of the interpreting doctor, it is possible to make it easier to catch abnormalities in the shape of the luminal organ while reducing the number of interpretation images. That is, when compressing 3D information into 2D, it is possible to provide an image that can more clearly capture the boundary of the luminal organ.

本発明の医用画像表示装置の構成例を示すブロック図。The block diagram which shows the structural example of the medical image display apparatus of this invention. 図1の医用画像表示装置が実行するプログラムの動作例を示すフローチャート。FIG. 2 is a flowchart showing an operation example of a program executed by the medical image display apparatus of FIG. 図2の臓器領域判別処理のサブルーチンを示すフローチャート。FIG. 3 is a flowchart showing a subroutine of organ region discrimination processing in FIG. 図2の臓器領域分割処理のサブルーチンを示すフローチャート。FIG. 3 is a flowchart showing a subroutine of organ region division processing in FIG. 2; 図3の臓器領域判別処理のステップ31の処理例を示す図。FIG. 4 is a diagram showing a processing example of step 31 of the organ region discrimination processing of FIG. 図3の臓器領域判別処理のステップ32の処理例を示す図。FIG. 4 is a diagram showing a processing example of step 32 of the organ region discrimination processing of FIG. 図3の臓器領域判別処理のステップ33の処理例を示す図。FIG. 4 is a diagram showing a processing example of step 33 of the organ region discrimination processing of FIG. 図4の臓器領域判別処理のステップ42の処理例を示す図。The figure which shows the process example of step 42 of the organ area | region discrimination | determination process of FIG. 図2のステップ22の処理例を示す図。FIG. 3 is a diagram showing a processing example of step 22 in FIG. 図2のステップ23で作成された重み係数テーブルの例を示す図。FIG. 3 is a diagram showing an example of a weighting coefficient table created in step 23 of FIG. 図10と異なる重み係数テーブルの例を示す図。FIG. 11 is a diagram showing an example of a weighting coefficient table different from FIG. 図2のステップ24の処理例を示す図。FIG. 3 is a diagram showing a processing example of step 24 in FIG.

符号の説明Explanation of symbols

10…CPU、14…CRTディスプレイ   10 ... CPU, 14 ... CRT display

Claims (2)

医用画像診断装置によって収集された被検者の医用画像中の臓器領域を画像認識処理する手段と、該画像認識処理された臓器領域について所定の閾値によって分割する手段と、該分割された領域の画素値分布を解析する手段と、該解析された複数の画素値分布の特徴量に対応するそれぞれの重み係数テーブルを作成する手段と、該作成された重み係数テーブルによって重み係数が決められた前記複数の画素値分布の特徴量のみを強調した画像を投影する手段と、該投影された画像を表示する手段とを備えたことを特徴とする医用画像表示装置。   Means for image recognition processing of an organ region in a medical image of a subject collected by a medical image diagnostic apparatus; means for dividing the organ region subjected to image recognition processing by a predetermined threshold; and Means for analyzing the pixel value distribution, means for creating respective weight coefficient tables corresponding to the analyzed feature values of the plurality of pixel value distributions, and the weight coefficient determined by the created weight coefficient table A medical image display device comprising: means for projecting an image in which only feature values of a plurality of pixel value distributions are emphasized; and means for displaying the projected image. 前記重み係数テーブル作成手段は、前記複数の画素値分布の特徴量に跨って作成されることを特徴とする請求項1に記載の医用画像表示装置。   The medical image display apparatus according to claim 1, wherein the weighting coefficient table creation unit is created across feature quantities of the plurality of pixel value distributions.
JP2004375655A 2004-12-27 2004-12-27 Medical image display device Pending JP2006180987A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004375655A JP2006180987A (en) 2004-12-27 2004-12-27 Medical image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004375655A JP2006180987A (en) 2004-12-27 2004-12-27 Medical image display device

Publications (2)

Publication Number Publication Date
JP2006180987A true JP2006180987A (en) 2006-07-13
JP2006180987A5 JP2006180987A5 (en) 2008-01-17

Family

ID=36734511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004375655A Pending JP2006180987A (en) 2004-12-27 2004-12-27 Medical image display device

Country Status (1)

Country Link
JP (1) JP2006180987A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008038581A1 (en) * 2006-09-27 2008-04-03 Fujifilm Corporation Image compressing method, image compressing device, and medical network system
JP2009153716A (en) * 2007-12-26 2009-07-16 Toshiba Corp Ultrasonic diagnostic system, ultrasonic image processor and ultrasonic image processing program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129751A (en) * 1993-10-29 1995-05-19 Hitachi Medical Corp Medical picture processor
WO1998015226A1 (en) * 1996-10-08 1998-04-16 Hitachi Medical Corporation Method and apparatus for forming and displaying image from a plurality of sectional images
JP2993687B2 (en) * 1989-11-28 1999-12-20 株式会社日立メディコ Organ region extraction method
JP2001351093A (en) * 2000-04-05 2001-12-21 Hitachi Medical Corp Medical image display device
JP2003061949A (en) * 2001-08-24 2003-03-04 Ge Medical Systems Global Technology Co Llc Region extraction method, region extraction device and x-ray ct apparatus
JP2004174218A (en) * 2002-10-01 2004-06-24 Japan Science & Technology Agency Apparatus and method for processing image and recording medium for storing program used for causing computer to execute the method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2993687B2 (en) * 1989-11-28 1999-12-20 株式会社日立メディコ Organ region extraction method
JPH07129751A (en) * 1993-10-29 1995-05-19 Hitachi Medical Corp Medical picture processor
WO1998015226A1 (en) * 1996-10-08 1998-04-16 Hitachi Medical Corporation Method and apparatus for forming and displaying image from a plurality of sectional images
JP2001351093A (en) * 2000-04-05 2001-12-21 Hitachi Medical Corp Medical image display device
JP2003061949A (en) * 2001-08-24 2003-03-04 Ge Medical Systems Global Technology Co Llc Region extraction method, region extraction device and x-ray ct apparatus
JP2004174218A (en) * 2002-10-01 2004-06-24 Japan Science & Technology Agency Apparatus and method for processing image and recording medium for storing program used for causing computer to execute the method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008038581A1 (en) * 2006-09-27 2008-04-03 Fujifilm Corporation Image compressing method, image compressing device, and medical network system
US8218883B2 (en) 2006-09-27 2012-07-10 Fujifilm Corporation Image compression method, image compression device, and medical network system
JP2009153716A (en) * 2007-12-26 2009-07-16 Toshiba Corp Ultrasonic diagnostic system, ultrasonic image processor and ultrasonic image processing program

Similar Documents

Publication Publication Date Title
JP6422486B2 (en) Advanced medical image processing wizard
US9144407B2 (en) Image processing device and method, and program
JP6081907B2 (en) System and method for computerized simulation of medical procedures
JP5312801B2 (en) Medical image viewing protocol
US20200226752A1 (en) Apparatus and method for processing medical image
JP5789211B2 (en) Similar image retrieval apparatus, method and program
EP2365471B1 (en) Diagnosis assisting apparatus, coronary artery analyzing method and recording medium having a coronary artery analzying program stored therein
US20140071072A1 (en) Medical image display apparatus, method and program
JP5943353B2 (en) Image processing apparatus and image processing method
JP4528322B2 (en) Image display device, image display method, and image display program
JP2008086767A (en) System and method for three-dimensional and four-dimensional contrast imaging
JP2015066311A (en) Image processor, image processing method, program for controlling image processor, and recording medium
KR20210098381A (en) Device and method for visualizing image of lesion
JP2009279179A (en) Image display device and image display program
WO2012026090A1 (en) Image display device, method and program
JP4745637B2 (en) Image display device
JP2006180987A (en) Medical image display device
US20230351600A1 (en) Correlating regions of interest
US11138736B2 (en) Information processing apparatus and information processing method
JP4336083B2 (en) Image diagnosis support apparatus and image diagnosis support method
JP5001248B2 (en) Diagnostic imaging support device
JP5279996B2 (en) Image extraction device
JP2009039446A (en) Image processing apparatus, image processing method, and image processing program
CN115546174B (en) Image processing method, device, computing equipment and storage medium
JP2002336242A (en) Three-dimensional image display device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071128

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100615

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101101