JPH0561973A - Medical image display device - Google Patents

Medical image display device

Info

Publication number
JPH0561973A
JPH0561973A JP3246672A JP24667291A JPH0561973A JP H0561973 A JPH0561973 A JP H0561973A JP 3246672 A JP3246672 A JP 3246672A JP 24667291 A JP24667291 A JP 24667291A JP H0561973 A JPH0561973 A JP H0561973A
Authority
JP
Japan
Prior art keywords
image
learning
density
neuron
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3246672A
Other languages
Japanese (ja)
Other versions
JP2616520B2 (en
Inventor
Takeshi Kawasaki
健史 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP3246672A priority Critical patent/JP2616520B2/en
Publication of JPH0561973A publication Critical patent/JPH0561973A/en
Application granted granted Critical
Publication of JP2616520B2 publication Critical patent/JP2616520B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To appropriately set the contrast of every kind of medical image. CONSTITUTION:This device is equipped with a means 2 which generates the density histogram of the medical image, a neural network 3 which finds a window widows(WW) and a window level(WL) that is parameters when contrast is adjusted by performing the load sum calculation of the data of the density histogram, and a leaning means 5 which decides a load to acquire the WW and WL appropriately, respectively by learning a various kinds of density histograms. The contrast in accordance with a various kinds of images can be set by calculating the neural network 3 by using the load decided by the learning means 5.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、X線CT装置や核磁
気共鳴断層撮像装置(以下、MRI装置という)などの
画像診断機器を用いて撮像された被検体の画像を表示す
る医療用画像表示装置に係り、特には、表示される画像
のコントラストを調整するための技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a medical image for displaying an image of a subject imaged by using an image diagnostic device such as an X-ray CT apparatus or a nuclear magnetic resonance tomography apparatus (hereinafter referred to as an MRI apparatus). The present invention relates to a display device, and more particularly to a technique for adjusting the contrast of a displayed image.

【0002】[0002]

【従来の技術】CRTディスプレイなどのモニタに表示
された画像のコントラスト調整は、画像の濃度ヒストグ
ラムにおけるウィンドレベル(以下、WLと略す)とウ
ィンドウ・ウィドゥス(以下、WWと略す)との設定に
より行われている。実際には、モニタが設置された画像
表示装置にWLとWWとを調整するためのトラックボー
ルが設けられており、画像の読影を行う医者や技師など
がトラックボールを操作してモニタに表示されている画
像のコントラスト調整を行っている。この場合におい
て、濃度ヒストグラムが表示されることはなく、トラッ
クボールの操作によるWLとWWとの設定は装置の内部
で処理されて表示画像に反映されるようになっている。
以下に図面を参照しながらWWとWLとについて説明す
る。
2. Description of the Related Art Contrast adjustment of an image displayed on a monitor such as a CRT display is performed by setting a window level (hereinafter abbreviated as WL) and a window window (hereinafter abbreviated as WW) in an image density histogram. It is being appreciated. Actually, a trackball for adjusting WL and WW is provided in an image display device having a monitor, and a doctor or an engineer who interprets an image operates the trackball to display it on the monitor. The contrast of the image is being adjusted. In this case, the density histogram is not displayed, and the setting of WL and WW by the operation of the trackball is processed inside the device and reflected on the display image.
The WW and WL will be described below with reference to the drawings.

【0003】図10は画像診断機器で撮像された被検体の
画像の濃度ヒストグラムを例示している。周知のとお
り、濃度ヒストグラムは画像の各画素の濃度値を取り出
し、その濃度値をカウントして作成される。このような
濃度ヒストグラムで表される画像を表示する装置として
CRTディスプレイを例に挙げる。CRTディスプレイ
の表示階調値は一般に 256階調であるから、濃度ヒスト
グラムの横軸である濃度値の幅は最小値から最大値にか
けて 256分割される。上記のWWはこの濃度値の幅を任
意に設定するパラメータで、WLはWWの中心値のこと
を示している。
FIG. 10 exemplifies a density histogram of an image of a subject imaged by an image diagnostic device. As is well known, the density histogram is created by taking out the density value of each pixel of the image and counting the density value. A CRT display will be taken as an example of an apparatus for displaying an image represented by such a density histogram. Since the display gradation value of a CRT display is generally 256 gradations, the width of the density value on the horizontal axis of the density histogram is divided into 256 from the minimum value to the maximum value. The above WW is a parameter for arbitrarily setting the width of this density value, and WL indicates the central value of WW.

【0004】コントラスト調整は、読影したい部位(例
えば、病巣部位)と、その周囲の部位との明暗差を明確
にする方向で行われる。いま、図10に示した濃度ヒスト
グラムのAの領域の明暗差を明確にしたいとする。上述
のように、濃度ヒストグラムの濃度値は全体で 256分割
されているが、この領域Aの部分の濃度値を 256分割す
れば領域A内の濃度差は顕著になり明暗差は明確にな
る。すなわち、WWをその領域Aに設定し、WLをその
中心値に設定すればよい。従来では、このWW,WLの
設定を、前述のトラックボールを任意に操作して表示画
像のコントラスト変化を見ながら設定していた。
The contrast adjustment is performed in the direction of clarifying the difference between the lightness and darkness between the portion to be interpreted (for example, the lesion portion) and the surrounding portion. Now, suppose that the difference in brightness in the area A of the density histogram shown in FIG. 10 is to be made clear. As described above, the density value of the density histogram is divided into 256 as a whole, but if the density value of the area A is divided into 256, the density difference in the area A becomes noticeable and the difference between light and dark becomes clear. That is, WW may be set in the area A and WL may be set at the center value thereof. Conventionally, the WW and WL are set by arbitrarily operating the trackball described above and observing the contrast change of the display image.

【0005】この方法では、表示画像の1枚1枚に対
し、トラックボールの操作によるコントラスト調整が必
要となる。特に、MRI装置を使って撮像された画像
は、撮像方法や撮像時のパラメータ(パルスシーケンス
等)や撮像部位によって濃度値が大きく異なるため、表
示画像の1枚1枚に対するコントラスト調整は不可欠で
ある。しかし、検査のスループットの向上や患者の負担
軽減から検査時間の短縮化を図りたいという要望は増加
する傾向にあり、ある程度のコントラスト調整ができれ
ばそれでよいという場合も多い。そこで、コントラスト
の自動設定を行うための手法が開発されている。
In this method, it is necessary to adjust the contrast by operating the trackball for each display image. In particular, since the density value of an image captured by using the MRI apparatus greatly differs depending on the imaging method, the parameter (pulse sequence, etc.) at the time of imaging, and the imaging site, it is essential to adjust the contrast for each of the displayed images. .. However, there is an increasing demand for shortening the examination time in order to improve the examination throughput and reduce the burden on the patient, and in many cases it is sufficient if the contrast can be adjusted to some extent. Therefore, a method for automatically setting the contrast has been developed.

【0006】MRI装置で撮像された画像のコントラス
ト自動設定では、まず、撮像方法や撮像パラメータ,撮
像部位に応じて、平均的に適切であると判断されるW
W,WLの値を得るための濃度変換を行う関数式(以
下、評価式という)を求める。そして、撮像された画像
の濃度ヒストグラムを作成し、これを前記求めた評価式
に与えてWW,WLを得る。医者や術者は、その評価式
を撮像方法や撮像パラメータ,撮像部位に応じて選択す
ればよく、これである程度の適切なコントラスト調整が
自動的に行われる。もちろん、細かにコントラストの調
整を行いたい場合に対しては上述したような手動による
微調整が行われるが、そうでない場合では、わずらわし
い手動によるコントラスト調整を省くことができ、しば
しば用いられている自動設定手法である。
In the automatic contrast setting of the image picked up by the MRI apparatus, first, W which is judged to be appropriate on average depending on the image pickup method, the image pickup parameter, and the image pickup site.
A functional expression (hereinafter referred to as an evaluation expression) for performing density conversion to obtain the values of W and WL is obtained. Then, a density histogram of the picked-up image is created, and this is given to the obtained evaluation formula to obtain WW and WL. The doctor or the operator may select the evaluation formula according to the imaging method, the imaging parameter, and the imaging region, and the appropriate contrast adjustment is automatically performed to some extent. Of course, if you want to finely adjust the contrast, the manual fine adjustment as described above is performed, but in other cases, the troublesome manual contrast adjustment can be omitted, and the automatic adjustment that is often used. It is a setting method.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、MRI
装置における撮像方法や撮像パラメータは、実に多種多
様であり、これらの全てに対して評価式を導くのは大変
な作業である。これに加え、撮像方法や撮像パラメータ
は撮像時間の短縮化という目的に向かって日々刻々と新
たなものが開発されており、新たな撮像方法や撮像パラ
メータで撮像された画像に対して即座に対応することが
できないという欠点がある。MRI装置だけに限ること
ではなく、X線CT装置に対しても同様で被検体に曝射
するX線強度やスキャン位置の種類に応じてそれぞれの
評価式を導くのは大変な作業となっている。
[Problems to be Solved by the Invention] However, MRI
There are a wide variety of imaging methods and imaging parameters in the apparatus, and it is a difficult task to derive an evaluation formula for all of them. In addition to this, new imaging methods and imaging parameters are being developed day by day with the aim of shortening the imaging time, and it is possible to immediately respond to images taken with the new imaging method and imaging parameters. There is a drawback that you cannot do it. It is not only limited to the MRI apparatus, but also for the X-ray CT apparatus, it is a difficult task to derive the respective evaluation formulas according to the intensity of the X-rays irradiated on the subject and the type of scan position. There is.

【0008】この発明は、このような事情に鑑みてなさ
れたものであって、上記の欠点を解消したコントラスト
の自動設定を行うことができる医療用画像表示装置を提
供することを目的としている。
The present invention has been made in view of such circumstances, and an object of the present invention is to provide a medical image display apparatus capable of automatically setting the contrast without solving the above-mentioned drawbacks.

【0009】[0009]

【課題を解決するための手段】この発明は、上記目的を
達成するために次のような構成をとる。すなわち、この
発明は、画像診断機器で撮像された画像のコントラスト
調整のパラメータであるウィンドウ・ウィドゥスとウィ
ンドウ・レベルとを、表示画像に対して設定する医療用
画像表示装置であって、前記画像診断機器で撮像された
画像の濃度ヒストグラムを作成する手段と、前記作成さ
れた濃度ヒストグラムのデータを荷重和計算して前記ウ
ィンドウ・ウィドゥスとウィンドウ・レベルとを出力す
るニューラルネットワークと、前記ニューラルネットワ
ークの荷重を多種多様の画像の濃度ヒストグラムに基い
て学習し決定する学習手段とを備えたことを特徴とす
る。
In order to achieve the above object, the present invention has the following constitution. That is, the present invention is a medical image display apparatus for setting a window width and a window level, which are parameters for contrast adjustment of an image captured by an image diagnostic apparatus, with respect to a display image. A means for creating a density histogram of an image captured by a device, a neural network for calculating a weighted sum of the data of the created density histogram and outputting the window width and window level, and a weight of the neural network And learning means for learning and deciding based on the density histograms of a wide variety of images.

【0010】[0010]

【作用】この発明によれば、学習手段が多種多様の画像
の濃度ヒストグラムに基づいてニューラルネットワーク
の荷重を学習して決定する。ニューラルネットワークは
学習の結果決定された荷重を用いて、画像の濃度ヒスト
グラムデータを荷重和計算し、ウィンドウ・ウィドゥス
とウィンドウ・レベルとを出力する。ここで、出力され
るウィンドウ・ウィドゥスとウィンドウ・レベルは、多
種多様の画像の濃度ヒストグラムを学習した結果の荷重
を用いて計算された値であるため、異なる濃度ヒストグ
ラムで表されるそれぞれの画像に対応した適切な値とな
る。
According to the present invention, the learning means learns and determines the weight of the neural network based on the density histograms of various images. The neural network calculates the weighted sum of the density histogram data of the image using the weight determined as a result of the learning, and outputs the window width and the window level. Here, the output window width and window level are values calculated using the weights obtained by learning the density histograms of various types of images, so that the images displayed in different density histograms are different. It is an appropriate value that corresponds.

【0011】[0011]

【実施例】以下、この発明の一実施例を図面に基づいて
説明する。図1は本実施例における医療用画像表示装置
の概略構成を示したブロック図である。X線CT装置や
MRI装置などの画像診断機器1で撮像された被検体の
画像の濃度ヒストグラムを求めるヒストグラム作成手段
2と、作成された濃度ヒストグラムのデータを荷重和計
算してWW,WLの値を求めるニューラルコンピュータ
3(以下では、これをニューラルネットワーク3と称す
る)と、乱数発生器4と、ニューラルネットワーク3の
荷重を学習により決定する学習手段5と、ニューラルネ
ットワーク3で求められたWW,WLの値を用いて画像
のコントラスト調整を行うコントラスト設定部6と、画
像を表示するCRTディスプレイ7とが備えられてい
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of a medical image display device in this embodiment. Histogram creating means 2 for obtaining a density histogram of an image of a subject imaged by an image diagnostic device 1 such as an X-ray CT apparatus or MRI apparatus, and a weighted sum calculation of the created density histogram data to calculate WW and WL values. , A random number generator 4, a learning means 5 for determining the weight of the neural network 3 by learning, and WW, WL obtained by the neural network 3. A contrast setting unit 6 for adjusting the contrast of the image using the value of and a CRT display 7 for displaying the image are provided.

【0012】ニューラルネットワーク3は、図2の概念
的なモデルに示すように、複数個のニューロンN(神経
細胞と同じような荷重和処理を行う電子部品)を層状に
備え、各ニューロンNをシナプス結合Cと呼ばれる結合
手でネットワーク結合して構成される。この例では、入
力層A,中間層B,出力層Cの3層モデルとし、入力層
Aには30個のニューロンNA1〜NAnを備え、中間層
Bには20個のニューロンNB1〜NBmを備え、出力層
Cには2個のニューロンNC1,NC2を備えて構成し
ている。この層数およびニューロンの数は特定されず、
任意の数を設定すればよい。出力層Cのニューロンの数
を2個としているのは、これらのニューロンNC1,N
C2の出力値がWW,WLに相当するからである。な
お、このニューラルネットワーク3はハードウエアで構
成してもよいし、ソフトウエアで実現してもよい。
As shown in the conceptual model of FIG. 2, the neural network 3 is provided with a plurality of neurons N (electronic components that perform the weighted sum processing similar to nerve cells) in layers, and each neuron N is a synapse. It is configured by network bonding with a bond called bond C. In this example, a three-layer model including an input layer A, an intermediate layer B, and an output layer C is used. The input layer A includes 30 neurons NA1 to NAn, and the intermediate layer B includes 20 neurons NB1 to NBm. The output layer C includes two neurons NC1 and NC2. The number of layers and the number of neurons are not specified,
Any number may be set. The number of neurons in the output layer C is set to two because these neurons NC1, N
This is because the output value of C2 corresponds to WW and WL. The neural network 3 may be implemented by hardware or software.

【0013】本実施例における医療画像表示装置の動作
は大まかに2つの流れに分けられる。まずは、(A)学
習手段5を用いてニューラルネットワーク3のシナプス
結合Cの重みを決定し、次には、(B)その学習された
シナプス結合Cの重みをニューラルネットワーク3に設
定して実際の画像のコントラスト調整を行う。(A)の
ニューラルネットワークの学習について以下に説明す
る。
The operation of the medical image display apparatus in this embodiment is roughly divided into two flows. First, (A) the learning means 5 is used to determine the weight of the synapse connection C of the neural network 3, and then (B) the learned weight of the synapse connection C is set in the neural network 3 to be actually used. Adjust the contrast of the image. The learning of the neural network (A) will be described below.

【0014】〔A−1〕学習に用いる画像をヒストグラ
ム作成手段1に入力する。この学習用画像としては、で
きる限り多種類のものを多数にわたって入力するのが望
ましい。例えば、医療診断機器としてMRI装置を用い
るならば、撮像方法や撮像パラメータを夫々変えて撮像
した各種の画像である。ヒストグラム作成手段1は、入
力した画像から所定の数(例えば、4096点) の画素値を
取り出して、同じ値の画素数をカウントし、例えば、図
10に示したような濃度ヒストグラムを得る。ここで、所
定の数だけの画素値を取り出すのは、画像のサイズにか
かわらず、濃度ヒストグラムの作成のためのサンプリン
グ数を一定にするためである。
[A-1] An image used for learning is input to the histogram creating means 1. It is desirable to input as many kinds of learning images as possible as many as possible. For example, when an MRI apparatus is used as a medical diagnostic device, it is various images captured by changing the image capturing method and the image capturing parameters. The histogram creating means 1 extracts a predetermined number (for example, 4096 points) of pixel values from the input image and counts the number of pixels having the same value.
Obtain a density histogram as shown in 10. Here, the reason why a predetermined number of pixel values are extracted is to make the number of samplings for creating the density histogram constant regardless of the size of the image.

【0015】そして、通常 256分割されている濃度ヒス
トグラムの濃度値の最小値から最大値までの幅を30分割
する。これはニューラルネットワーク3の入力層Aのニ
ューロンNAnの個数に対応させるためで、濃度ヒスト
グラムの隣接する濃度値の平均を数回とって、濃度値を
30分割する。
Then, the width from the minimum value to the maximum value of the density value of the density histogram which is normally divided into 256 is divided into 30 parts. This is to correspond to the number of neurons NAn of the input layer A of the neural network 3, and the average of the adjacent density values of the density histogram is taken several times to obtain the density value.
Divide into 30.

【0016】次に、ヒストグラム作成手段1は、作成し
た濃度ヒストグラムをニューラルネットワーク3で学習
しやすいように規格化する。学習の目的は、あらゆるパ
ターンの濃度ヒストグラムに対しても一律に最適なW
W,WLとを設定することができるニューラルネットワ
ークを作ることにある。あらゆるパターンの濃度ヒスト
グラムを学習させることから、濃度ヒストグラムの濃度
値の最大値や最小値、カウント数の最大値や最小値を規
定してパターンのみの学習をさせる。濃度ヒストグラム
の規格化はそのための処理である。例えば、次のように
する。
Next, the histogram creating means 1 normalizes the created density histogram so that it can be easily learned by the neural network 3. The purpose of learning is to set the optimal W even for density histograms of all patterns.
It is to create a neural network that can set W and WL. Since the density histograms of all patterns are learned, the maximum and minimum density values of the density histogram and the maximum and minimum values of the count number are defined and only the patterns are learned. Normalization of the density histogram is a process therefor. For example:

【0017】図3(a) に示したような、濃度ヒストグラ
ムの縦軸の最大カウント数Y1が「1」となるように各
カウント数を変換する。同様に、30分割された横軸の最
大濃度値X2を「1」に規定し、最小濃度値X1を
「0」に規定する。こうして規格化されたのが同図(b)
に示すような濃度ヒストグラムである。図4(a) に示し
た濃度ヒストグラムに対して上記のような規格化を行う
と、同図(b) に示したようになる。
Each count number is converted so that the maximum count number Y1 on the vertical axis of the density histogram as shown in FIG. 3 (a) becomes "1". Similarly, the maximum density value X2 on the horizontal axis divided into 30 is defined as "1", and the minimum density value X1 is defined as "0". In this way, the standardization is shown in Figure (b).
A density histogram as shown in FIG. When the density histogram shown in FIG. 4 (a) is standardized as described above, it becomes as shown in FIG. 4 (b).

【0018】〔A−2〕学習手段5によるニューラルネ
ットワーク3の学習処理 以下、図5および図6のフローチャートを参照しながら
説明する。これらのフローチャートには1回の学習処理
の流れを示している。
[A-2] Learning processing of the neural network 3 by the learning means 5 will be described below with reference to the flowcharts of FIGS. 5 and 6. These flowcharts show the flow of one learning process.

【0019】まず、図5のステップS1で、図1に示し
た乱数発生器4からニューラルネットワーク3に向けて
乱数を発生させ、その乱数値を各ニューロンNを結合し
ているシナプス結合Cの重みとする。ここで設定した重
みを初期値として、以下の学習処理を実行し最終的な重
みを決定していく。なお、説明の簡単化のため図7に示
すように、各層ともにi番目のニューロンに注目する。
ただし、A層のニューロンNAiのiは1〜nまで変化
し、B層のニューロンNBiのiは1〜mまで変化し、
C層のニューロンNCiのiは1,2と変化する。
First, in step S1 of FIG. 5, a random number is generated from the random number generator 4 shown in FIG. 1 toward the neural network 3, and the random number value is weighted for the synaptic connection C connecting each neuron N. And With the weight set here as the initial value, the following learning process is executed to determine the final weight. For simplification of description, attention is paid to the i-th neuron in each layer as shown in FIG.
However, the i of the neuron NAi of the A layer changes from 1 to n, the i of the neuron NBi of the B layer changes from 1 to m,
The i of the C layer neuron NCi changes to 1, 2.

【0020】乱数発生器4で設定された入力層Aのニュ
ーロンNAiと中間層BのニューロンNBiとを結合す
るシナプス結合の重みをWiiで表し、中間層Bのニュ
ーロンNBiと出力層CのニューロンNCiとを結合す
るシナプス結合の重みをWjiで表す。
The weight of the synaptic connection connecting the neuron NAi of the input layer A and the neuron NBi of the intermediate layer B set by the random number generator 4 is represented by Wii, and the neuron NCi of the intermediate layer B and the neuron NCi of the output layer C are represented. The weight of the synaptic connection that connects and is represented by Wji.

【0021】図1のヒストグラム生成手段2で規格化さ
れた、ある画像の濃度ヒストグラムを各ヒストグラムデ
ータ(濃度値×カウント数)を入力層AのニューロンN
Aiに入力する。このヒストグラムデータの値をXAi
とし、これをニューロンNAiのニューロン値とする
(ステップS2)。
The density histogram of an image standardized by the histogram generating means 2 in FIG. 1 is converted into histogram data (density value × count number) of neurons N of the input layer A.
Input in Ai. The value of this histogram data is XAi
And set this as the neuron value of the neuron NAi (step S2).

【0022】ステップS3で、中間層Bの各ニューロン
NBiのニューロン値XBiを次の計算式(1),(2) で算
出する。 XBi’=Σ(XAi×Wii)・・・・(1) この(1) 式の右辺のΣはiを1〜nまで変化させたとき
の総和を求めるもので、入力層AのニューロンNAiと
シナプス結合の重みWiとの荷重和をまず算出する。 XBi=f(XBi')=1/(1+Exp(XBi’)) ・・・・(2) 次に、この(2) 式を用いて、(1) 式で算出された荷重和
をシグモイド関数f(X) に代入してニューロンNBiの
ニューロン値XBiを算出する。シグモイド関数はf
(X)=1/(1+Exp(X))で表される。
In step S3, the neuron value XBi of each neuron NBi of the intermediate layer B is calculated by the following formulas (1) and (2). XBi ′ = Σ (XAi × Wii) ... (1) Σ on the right side of the equation (1) is for obtaining the sum when i is changed from 1 to n, and is equal to the neuron NAi of the input layer A. First, the weight sum with the weight Wi of the synaptic connection is calculated. XBi = f (XBi ′) = 1 / (1 + Exp (XBi ′)) (2) Next, using the formula (2), the sum of loads calculated by the formula (1) is converted into the sigmoid function f. Substituting into (X), the neuron value XBi of the neuron NBi is calculated. The sigmoid function is f
It is represented by (X) = 1 / (1 + Exp (X)).

【0023】ステップS4では、ステップS3と同様に
して、出力層Cの各ニューロンNCiのニューロン値X
Ciを算出する。すなわち、(1),(2) 式と同様な(3),
(4) 式を用いてニューロン値NCiを算出する。 XCi’=Σ(XBi×Wji)・・・・(3) XCi=f(XCi')=1/(1+Exp(XCi’)) ・・・・(4)
In step S4, as in step S3, the neuron value X of each neuron NCi in the output layer C is calculated.
Calculate Ci. That is, (3), which is similar to Eqs. (1) and (2),
The neuron value NCi is calculated using the equation (4). XCi '= Σ (XBi × Wji) ... (3) XCi = f (XCi') = 1 / (1 + Exp (XCi ')) ... (4)

【0024】算出されたこれらの各ニューロン値、XA
i,XBi,XCiを図示しないメモリにストアする
(ステップS5)。
Each of these calculated neuron values, XA
i, XBi, and XCi are stored in a memory (not shown) (step S5).

【0025】ニューラルネットワーク3では、以上のよ
うにして、入力層Aから伝搬され出力層Cに現れたニュ
ーロン値NCi(i=1,2)をそれぞれWW,WLと
するが、いま、伝搬されるときのシナプス結合の重みW
ii,Wjiは乱数で設定した値であるため、ここで出
力されたニューロン値NCiが最適なWW,WLを与え
るものではない。以下の処理では専門家の判断によるW
W,WLに基づく学習を行ってシナプス結合の重みを決
定する。この学習方法は一般的に用いられているバック
プロバケーション法(逆伝搬法)による。
In the neural network 3, the neuron values NCi (i = 1, 2) propagated from the input layer A and appearing in the output layer C as described above are set as WW and WL, respectively. Weight of synaptic connection W
Since ii and Wji are values set by random numbers, the neuron value NCi output here does not give optimum WW and WL. In the following processing, W according to the judgment of an expert
Learning based on W and WL is performed to determine the weight of synaptic connection. This learning method is based on the commonly used backpropagation method (back propagation method).

【0026】ステップS6では、ステップS2で入力し
た濃度ヒストグラムで表される画像を幾人かの専門家
(医者や術者など)にコントラスト調整してもらい、そ
のときの各人が設定したWW,WLの平均値ww,wl
を求める。そして、これを出力層CのニューロンNCi
に入力する。
In step S6, the contrast of the image represented by the density histogram input in step S2 is adjusted by some experts (doctors, surgeons, etc.), and the WW set by each person at that time is set. Average value of WL ww, wl
Ask for. Then, this is output to the neuron NCi of the output layer C.
To enter.

【0027】ステップS7で、出力層CのニューロンN
Ciの値XCiとww,wlとの差を算出して、ニュー
ロンNCiの誤差Eciを求めて学習信号DCiを算出す
る。Eci=NCi−ww(wl)。出力層Cのニューロ
ンNCiの場合は、ここで算出された誤差Eciがそのま
ま学習信号DCiになる(DCi=Eci)
In step S7, the neuron N of the output layer C is
The difference between the value XCi of Ci and ww and wl is calculated, the error Eci of the neuron NCi is obtained, and the learning signal DCi is calculated. Eci = NCi-ww (wl). In the case of the neuron NCi of the output layer C, the error Eci calculated here becomes the learning signal DCi as it is (DCi = Eci).

【0028】ステップS8で、中間層Bの各ニューロン
NBiが負うべき誤差Ebiを求めて学習信号DBiを算
出する。誤差Ebiは次の(5) 式を用いて算出する。 Ebi=Σ(Wji×DCi)・・・・(5) この(5) 式は、図8に示すように、中間層Bのニューロ
ンNBiと、出力層CのニューロンNCi(i=1,
2)とをつなぐシナプス結合の重みWj1,Wj2と、
出力層CのニューロンNCiの学習信号DCiとの荷重
和を求める式である。これがニューロンNBiの負うべ
き誤差Ebiになる。
In step S8, the learning signal DBi is calculated by obtaining the error Ebi that each neuron NBi of the intermediate layer B should bear. The error Ebi is calculated using the following equation (5). Ebi = Σ (Wji × DCi) (5) As shown in FIG. 8, this equation (5) is applied to the neuron NBi of the intermediate layer B and the neuron NCi of the output layer C (i = 1, 1,
2) Synaptic weights Wj1 and Wj2 that connect with
This is an expression for obtaining the weighted sum of the learning signal DCi of the neuron NCi of the output layer C. This becomes the error Ebi that the neuron NBi should bear.

【0029】次に、以下の(6) 式を用いてニューロンN
Biの学習信号DBiを算出する。 DBi=Ebi×f'(XBi') ・・・・(6) この(6) 式のf'(XBi') は、前記のシグモイド関数の微
分式f'(X') に、前記ステップS3で求めたニューロン
NBiの荷重和XBi’=Σ(XAi×Wii)を代入
し、これにステップS8で求めた誤差Ebiを乗算する式
である。これで中間層Bの各ニューロンNBiの学習信
号DBiが算出される。
Next, the neuron N is calculated using the following equation (6).
The learning signal DBi of Bi is calculated. DBi = Ebi × f ′ (XBi ′) (6) The f ′ (XBi ′) of the equation (6) is the differential equation f ′ (X ′) of the sigmoid function in the step S3. This is an expression for substituting the obtained weight sum XBi ′ = Σ (XAi × Wii) of the neuron NBi and multiplying this by the error Ebi obtained in step S8. With this, the learning signal DBi of each neuron NBi of the intermediate layer B is calculated.

【0030】ステップS9では、同様にして入力層Aの
各ニューロンNAiが負うべき誤差Eaiを求めて学習信
号DAiを算出する。すなわち、(5),(6) 式と同様な次
の(7),(8) 式を用いる。 Eai=Σ(Wji×DBi)・・・・(7) DAi=Eai×f'(XAi)・・・・(8)
In step S9, the learning signal DAi is calculated by similarly obtaining the error Eai to be borne by each neuron NAi of the input layer A. That is, the following equations (7) and (8) similar to equations (5) and (6) are used. Eai = Σ (Wji × DBi) ... (7) DAi = Eai × f '(XAi) ... (8)

【0031】図9を参照する。入力層AのニューロンN
Aiが負うべき誤差Eaiは、ニューロンNAiと中間層
BのニューロンNBi(i=1〜m)とをつなぐシナプ
ス都合の重みWii(2文字目のi=1〜m)と、ステ
ップS8で算出したニューロンNBiの学習信号DBi
(i=1〜m)との荷重和で得られる。そして、学習信
号DAiは得られた誤差Eaiに、シグモイド関数の微分
f'(XAi)、ただし、XAi は、ニューロンXAiに入力さ
れたヒストグラムデータ(濃度値×カウント数)の値を
乗算して得られる。
Referring to FIG. Neuron N of input layer A
The error Eai to be borne by Ai is calculated in step S8 with the weight Wii (i = 1 to m of the second letter) of the synapse that connects the neuron NAi and the neuron NBi (i = 1 to m) of the intermediate layer B. Learning signal DBi of neuron NBi
It is obtained by the sum of loads with (i = 1 to m). Then, the learning signal DAi is obtained by multiplying the obtained error Eai by the derivative of the sigmoid function f ′ (XAi), where XAi is multiplied by the value of the histogram data (density value × count number) input to the neuron XAi. Be done.

【0032】ステップS10では、上記算出した学習信号
とニューロン値とを用いてシナプス結合Cの重みWi
i,Wjiを変更する。重みの変更には次の(9),(10)式
を用いる。 ΔWii(n+1)=α(DBi×XAi)+β(ΔWii(n))・・・・(9) この(9) 式において、符号nは変更回数を示し、αは任
意に設定される学習定数,βは任意に設定される安定化
定数を示す。ΔWii(n+1)は今回変更する重みの値を
示し、ΔWii(n) は前回変更された重みの値を示して
いる。いま、1回目の学習であるから前回変更した重み
の値はなく、ΔWii(n) は零である。すなわち、入力
層AのニューロンNAiと中間層BのニューロンNBi
とをつなぐ重みWiiは、α(DBi×XAi)で算出
される値に変更される。
In step S10, the weight Wi of the synaptic connection C is calculated using the above-calculated learning signal and neuron value.
Change i and Wji. Equations (9) and (10) below are used to change the weights. ΔWii (n + 1) = α (DBi × XAi) + β (ΔWii (n)) (9) In the equation (9), the symbol n indicates the number of changes, and α is a learning constant set arbitrarily. β represents a stabilization constant that is arbitrarily set. ΔWii (n + 1) indicates the weight value changed this time, and ΔWii (n) indicates the weight value changed last time. Now, since it is the first learning, there is no previously changed weight value, and ΔWii (n) is zero. That is, the neuron NAi of the input layer A and the neuron NBi of the intermediate layer B
The weight Wii for connecting and is changed to a value calculated by α (DBi × XAi).

【0033】 ΔWji(n+1)=α(DCi×XBi)+β(ΔWji(n))・・・・(10) この(10)式も同様で、中間層BのニューロンNBiと出
力層CのニューロンNCiとをつなぐシナプス結合の重
みWjiは、α(DCi×XBi)で算出される値に変
更される。
ΔWji (n + 1) = α (DCi × XBi) + β (ΔWji (n)) (10) This equation (10) is also the same, and the neuron NCi of the intermediate layer B and the neuron NCi of the output layer C are the same. The weight Wji of the synaptic connection connecting and is changed to a value calculated by α (DCi × XBi).

【0034】以上のようにして、各層のニューロン同士
を結合するシナプス結合の重みを1回変更することで1
回の学習が終了する。2回目の学習では、上記の処理に
よって得られた重みの値が(9),(10)式のΔWii(n),Δ
Wji(n) に代入されて計算される。これを多数回繰り
返す過程で、誤差Eai, Ebi, Eciの値を監視し、誤差
の値が少なくなるように、(9),(10)式のα,βを設定す
る。
As described above, the weight of the synaptic connection connecting the neurons of each layer is changed once to obtain 1
Learning is completed. In the second learning, the values of the weights obtained by the above processing are ΔWii (n), Δ in the equations (9) and (10).
It is calculated by substituting it into Wji (n). In the process of repeating this many times, the values of the errors Eai, Ebi, and Eci are monitored, and α and β of the equations (9) and (10) are set so that the error values are reduced.

【0035】前述したように、この学習の目的は、あら
ゆるパターンの濃度ヒストグラムに対しても一律に最適
なWW,WLを設定することにある。したがって、複数
枚の異なった濃度ヒストグラムで表される画像を用意
し、これらの画像を多数回にわたって学習させ、最終的
なシナプス結合の重みWii,Wjiを決定する。この
とき、異なる画像の入力順序を夫々変えて学習させるの
が望ましい。例えば、10枚の画像を次々に入力してそれ
ぞれ1回の学習を終えると、2回目の学習の際には10枚
の画像の並びを変えて入力する。これは、ニューラルネ
ットワーク3が画像の並びを学習し、それに合わせてシ
ナプス結合の重みを決定してしまうからである。
As described above, the purpose of this learning is to uniformly set the optimum WW and WL for the density histograms of all patterns. Therefore, a plurality of images represented by different density histograms are prepared, these images are learned many times, and final weights Wii, Wji of synaptic connection are determined. At this time, it is desirable to learn by changing the input order of different images. For example, when 10 images are input one after another and one learning is completed for each, the arrangement of 10 images is changed and input when the second learning is performed. This is because the neural network 3 learns the sequence of images and determines the weight of synaptic connection in accordance with it.

【0036】実際に、学習されたニューラルネットワー
ク3を用いて画像のコントラスト調整を行う場合には、
濃度値が異なる画像がランダムに入力される場合も想定
しなけらればならない。そのためにも、画像の並びを変
えて学習させるのが好ましい。本発明者は、この学習に
ついて、異なる撮像方法, 異なる撮像パラメータで撮像
されたMRI画像を 206枚用意し、それぞれの画像の並
びを変えながら3万回の学習を行った。その結果、設定
されたシナプス結合の重みWii,Wjiを用いること
で、濃度値が異なる画像をランダムに入力しても、それ
ぞれが平均的に適切なコントラストが得られた。
When the contrast adjustment of the image is actually performed using the learned neural network 3,
It must be assumed that images with different density values are randomly input. For that reason, it is preferable to change the arrangement of the images for learning. For this learning, the inventor prepared 206 MRI images taken by different imaging methods and different imaging parameters, and learned 30,000 times while changing the order of the images. As a result, by using the set synaptic connection weights Wii and Wji, even if images having different density values were randomly input, appropriate contrast was obtained on average for each.

【0037】さて、学習処理が終り、ニューラルネット
ワーク3のシナプス結合の重みWii,Wjiが決定さ
れると、そのニューラルネットワーク3を用いて実際の
画像のコントラスト調整を行う(前述の符号(B)で記
述した処理)。〔B−1〕まず、表示画像のデータを図
1に示したヒストグラム作成手段2に入力して規格化さ
れた濃度ヒストグラムを作成し、これをニューラルネッ
トワーク3に入力する。
When the learning process is completed and the weights Wii and Wji of the synapse connection of the neural network 3 are determined, the contrast adjustment of the actual image is performed using the neural network 3 (in the above-mentioned code (B)). The described process). [B-1] First, the display image data is input to the histogram creating means 2 shown in FIG. 1 to create a standardized density histogram, which is input to the neural network 3.

【0038】〔B−2〕ニューラルネットワーク3は、
図5に示したフローチャートのステップS2からステッ
プS4までの処理を実行し、出力層CのニューロンNC
1,2の値、XC1,XC2を求める。このニューロン
値XC1,XC2がWW,WLの値となる。図5に示し
たフローチャートのステップS6で、専門家によるw
w,wlの値を出力層CのニューロンNC1,NC2に
入力したが、このとき、ニューロンNC1にwwを入力
して学習すれば、ニューロンNC1の値XC1が求める
WWになり、ニューロンNC2の値XC2が求めるWL
の値になる。
[B-2] The neural network 3 is
The process from step S2 to step S4 of the flowchart shown in FIG.
The values of 1, 2 and XC1, XC2 are obtained. The neuron values XC1 and XC2 become the values of WW and WL. At step S6 of the flowchart shown in FIG.
The values of w and wl are input to the neurons NC1 and NC2 of the output layer C. At this time, if ww is input to the neuron NC1 and learning is performed, the value XC1 of the neuron NC1 becomes the obtained WW, and the value XC2 of the neuron NC2. Wants WL
Becomes the value of.

【0039】しかし、ここで求められたWW,WLは規
格された濃度ヒストグラムに対するWW,WLである。
実際にCRTディスプレイ6に表示される画像はこのよ
うな濃度ヒストグラムの規格化が行われていないので、
前記求めたWW,WLをそれに対応できるように変換す
る。次の(11),(12) 式を用いて行う。 WW’=WW(X2−X1)・・・・(11) WL’=WL(X2−X1)+X1・・・・(12)
However, the WW and WL obtained here are the WW and WL for the standardized density histogram.
The image actually displayed on the CRT display 6 is not standardized for such a density histogram.
The obtained WW and WL are converted so as to correspond thereto. This is done using the following equations (11) and (12). WW '= WW (X2-X1) ... (11) WL' = WL (X2-X1) + X1 ... (12)

【0040】上式の符号X1,X2は図3の(a) に示し
た濃度値の最小値と、最大値のことである。ヒストグラ
ム作成手段1では、規格化するために濃度ヒストグラム
の最小値と最大値の幅「X2−X1」を「1−0=1」
に設定したので、これを元に戻すため、得られたWWに
(X2−X1)を乗算する。その値WW’が実際の画像
に対するウィンドウ・ウィドゥスとなる。WLに対して
も同様に(X2−X1)を乗算し、さらにX1を加算す
る。これは図3(b)に示すようにX1を「0」に規定し
ており、これを補正するためにX1を加算する。得られ
た値WL’が実際の画像に対するウィンドウ・レベルで
ある。
The symbols X1 and X2 in the above equation are the minimum value and the maximum value of the density values shown in FIG. In the histogram creating means 1, the width "X2-X1" between the minimum value and the maximum value of the density histogram is "1-0 = 1" for normalization.
Since it is set to, the obtained WW is multiplied by (X2-X1) to restore it. The value WW 'becomes the window width for the actual image. Similarly, WL is also multiplied by (X2-X1), and X1 is added. This defines X1 as "0" as shown in FIG. 3B, and X1 is added to correct this. The obtained value WL 'is the window level for the actual image.

【0041】先程、本発明者はMRI画像を 206枚用意
し、それぞれの画像の並びを変えながら3万回の学習を
行った旨記載したが、さらに、このニューラルネットワ
ーク3を用いて実際の画像のWW’,WL’とを求めた
ときの処理時間を参考までに以下に記載しておく。画素
数 128×128 のサイズの画像では約0.29秒, 256×256
のサイズの画像も同じく0.29秒, 512×512 のサイズの
画像では約0.43秒である。このような短い時間で、平均
的に適切なWW’とWL’が得られた。
The present inventor described earlier that 206 sheets of MRI images were prepared and learning was performed 30,000 times while changing the arrangement of each image. Furthermore, by using this neural network 3, the actual image was used. The processing times when WW ′ and WL ′ of are calculated are described below for reference. An image with a size of 128 × 128 pixels takes about 0.29 seconds, 256 × 256
An image of size is 0.29 seconds, and an image of size 512 × 512 is about 0.43 seconds. In such a short time, appropriate WW 'and WL' were obtained on average.

【0042】得られたWW’,WL’は、図1に示した
コントラスト設定部6に送られる。コントラスト設定部
5は入力画像に対してそのWW’,WL’を設定してC
RTディスプレイ7に出力表示する。
The obtained WW 'and WL' are sent to the contrast setting section 6 shown in FIG. The contrast setting unit 5 sets the WW ′ and WL ′ of the input image and sets C
The output is displayed on the RT display 7.

【0043】表示された画像を医者や術者が見て、さら
にコントラスト調整が必要と判断されれば、従来例に記
載したように手動による微調整が行われるが、微調整の
必要が特になければ、全くの手動操作なしのコントラス
ト自動設定となる。また、微調整するにしても、平均的
に適切なコントラスト調整が予め行われた状態なので、
その操作は容易になる。
If a doctor or a surgeon looks at the displayed image and determines that the contrast adjustment is necessary, the fine adjustment is manually performed as described in the conventional example, but the fine adjustment is particularly necessary. For example, the contrast is automatically set without any manual operation. Also, even if you make a fine adjustment, the average appropriate contrast adjustment has already been made,
The operation becomes easy.

【0044】[0044]

【発明の効果】以上の説明から明らかなように、この発
明の医療用画像表示装置は、多種多様の画像の濃度ヒス
トグラムに基づく学習によってニューラルネットワーク
の荷重を決定し、決定した荷重を用いて画像の濃度ヒス
トグラムデータを荷重和計算して、コントラスト設定の
パラメータであるウィンドウ・ウィドゥスとウィンドウ
・レベルとを得るようにした。したがって、異なる濃度
ヒストグラムで表される画像に対してもそれぞれに適切
なウィンドウ・ウィドゥスとウィンドウ・レベルが得ら
れる。従来のように、画像の種類に応じた評価式を導く
必要もなく、また、多種多様の画像の濃度ヒストグラム
に基づく学習を行っているので、新たな種類の画像にも
即座に対応して適切なコントラストを自動設定すること
ができる。
As is apparent from the above description, the medical image display apparatus of the present invention determines the weight of the neural network by learning based on the density histograms of various images, and the image is determined using the determined weight. The weighted sum of the density histogram data of (1) is calculated to obtain the window width and the window level, which are the parameters for the contrast setting. Therefore, appropriate window widths and window levels can be obtained for images represented by different density histograms. Unlike the conventional method, it is not necessary to derive an evaluation formula according to the type of image, and since learning is performed based on the density histogram of a wide variety of images, it is possible to respond to new types of images immediately and appropriately. It is possible to automatically set a high contrast.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の一実施例に係る医療用画像表示装置
の概略的な構成を示したブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a medical image display apparatus according to an embodiment of the present invention.

【図2】ニューラルネットワークの構成を概念的にモデ
ル化した図である。
FIG. 2 is a diagram conceptually modeling the configuration of a neural network.

【図3】濃度ヒストグラムの規格化処理を説明する図で
ある。
FIG. 3 is a diagram illustrating a density histogram normalization process.

【図4】同じく濃度ヒストグラムの規格化処理を説明す
る図である。
FIG. 4 is a diagram for explaining a density histogram normalization process.

【図5】1回の学習処理の流れを示したフローチャート
である。
FIG. 5 is a flowchart showing a flow of one learning process.

【図6】図5に続くフローチャートである。FIG. 6 is a flowchart following FIG.

【図7】ニューラルネットワークの構成の一部を概念的
にモデル化した図である。
FIG. 7 is a diagram conceptually modeling a part of the configuration of the neural network.

【図8】バックプロバケーション法による学習の様子を
示したニューラルネットワークのモデル図である。
FIG. 8 is a model diagram of a neural network showing a state of learning by the back-propagation method.

【図9】同じく、バックプロバケーション法による学習
の様子を示したニューラルネットワークのモデル図であ
る。
FIG. 9 is a model diagram of a neural network showing a state of learning by the back propulsion method.

【図10】従来技術において、画像のコントラスト調整
のパラメータであるウィンドウ・ウィドゥスとウィンド
ウ・レベルとを説明する濃度ヒストグラムである。
FIG. 10 is a density histogram for explaining a window width and a window level which are parameters for image contrast adjustment in the related art.

【符号の説明】[Explanation of symbols]

1・・・画像診断機器 2・・・ヒストグラム作成手段 3・・・ニューラルネットワーク 5・・・学習手段 1 ... Image diagnostic device 2 ... Histogram creating means 3 ... Neural network 5 ... Learning means

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G06F 15/62 390 B 9287−5L ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 5 Identification code Office reference number FI technical display location G06F 15/62 390 B 9287-5L

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 画像診断機器で撮像された画像のコント
ラスト調整のパラメータであるウィンドウ・ウィドゥス
とウィンドウ・レベルとを、表示画像に対して設定する
医療用画像表示装置であって、 前記画像診断機器で撮像された画像の濃度ヒストグラム
を作成する手段と、前記作成された濃度ヒストグラムの
データを荷重和計算して前記ウィンドウ・ウィドゥスと
ウィンドウ・レベルとを出力するニューラルネットワー
クと、前記ニューラルネットワークの荷重を多種多様の
画像の濃度ヒストグラムに基いて学習し決定する学習手
段とを備えたことを特徴とする医療用画像表示装置。
1. A medical image display apparatus for setting a window width and a window level, which are parameters for contrast adjustment of an image picked up by an image diagnostic apparatus, to a display image, wherein the image diagnostic apparatus is provided. A means for creating a density histogram of the image captured in, a neural network for calculating the weighted sum of the created density histogram data and outputting the window width and window level, and the weight of the neural network. A medical image display device comprising: learning means for learning and determining based on density histograms of various kinds of images.
JP3246672A 1991-08-30 1991-08-30 Medical image display device Expired - Lifetime JP2616520B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3246672A JP2616520B2 (en) 1991-08-30 1991-08-30 Medical image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3246672A JP2616520B2 (en) 1991-08-30 1991-08-30 Medical image display device

Publications (2)

Publication Number Publication Date
JPH0561973A true JPH0561973A (en) 1993-03-12
JP2616520B2 JP2616520B2 (en) 1997-06-04

Family

ID=17151902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3246672A Expired - Lifetime JP2616520B2 (en) 1991-08-30 1991-08-30 Medical image display device

Country Status (1)

Country Link
JP (1) JP2616520B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006239426A (en) * 2005-03-04 2006-09-14 Siemens Ag Image processing method for digital medical inspection image
JP2009050615A (en) * 2007-08-29 2009-03-12 Ge Medical Systems Global Technology Co Llc Magnetic resonance imaging apparatus and magnetic resonance image displaying method
US7512263B2 (en) 1996-11-13 2009-03-31 Seiko Epson Corporation Image processing system, image processing method, and medium having an image processing control program recorded thereon
JP2012512730A (en) * 2010-03-31 2012-06-07 ザクリトエ、アクツィオネルノエ、オブシェストボ、“インパルス” Method for calculating brightness level in a target area of a digital X-ray image for medical use
CN110522464A (en) * 2018-05-25 2019-12-03 佳能医疗***株式会社 Medical signal processing apparatus and model learning device
WO2020070834A1 (en) * 2018-10-03 2020-04-09 株式会社島津製作所 Learned-model producing method, brightness adjusting method, and image processing device
KR20210012233A (en) * 2019-07-24 2021-02-03 가톨릭대학교 산학협력단 Method and apparatus for converting contrast enhanced image and non-enhanced image using artificial intelligence
US11710230B2 (en) 2019-08-09 2023-07-25 Canon Medical Systems Corporation Medical data processing apparatus and medical image diagnostic apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03266188A (en) * 1990-03-16 1991-11-27 Toshiba Corp Image display method
JPH0464180A (en) * 1990-07-04 1992-02-28 Toshiba Corp Digital image display device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03266188A (en) * 1990-03-16 1991-11-27 Toshiba Corp Image display method
JPH0464180A (en) * 1990-07-04 1992-02-28 Toshiba Corp Digital image display device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7512263B2 (en) 1996-11-13 2009-03-31 Seiko Epson Corporation Image processing system, image processing method, and medium having an image processing control program recorded thereon
JP2006239426A (en) * 2005-03-04 2006-09-14 Siemens Ag Image processing method for digital medical inspection image
JP2009050615A (en) * 2007-08-29 2009-03-12 Ge Medical Systems Global Technology Co Llc Magnetic resonance imaging apparatus and magnetic resonance image displaying method
JP2012512730A (en) * 2010-03-31 2012-06-07 ザクリトエ、アクツィオネルノエ、オブシェストボ、“インパルス” Method for calculating brightness level in a target area of a digital X-ray image for medical use
CN110522464A (en) * 2018-05-25 2019-12-03 佳能医疗***株式会社 Medical signal processing apparatus and model learning device
CN110522464B (en) * 2018-05-25 2023-11-03 佳能医疗***株式会社 Medical signal processing device and model learning device
WO2020070834A1 (en) * 2018-10-03 2020-04-09 株式会社島津製作所 Learned-model producing method, brightness adjusting method, and image processing device
CN112804943A (en) * 2018-10-03 2021-05-14 株式会社岛津制作所 Method for creating learning completion model, luminance adjustment method, and image processing apparatus
JPWO2020070834A1 (en) * 2018-10-03 2021-09-02 株式会社島津製作所 Trained model manufacturing method, brightness adjustment method and image processing equipment
CN112804943B (en) * 2018-10-03 2023-09-26 株式会社岛津制作所 Learning completion model creation method, brightness adjustment method, and image processing apparatus
KR20210012233A (en) * 2019-07-24 2021-02-03 가톨릭대학교 산학협력단 Method and apparatus for converting contrast enhanced image and non-enhanced image using artificial intelligence
US11710230B2 (en) 2019-08-09 2023-07-25 Canon Medical Systems Corporation Medical data processing apparatus and medical image diagnostic apparatus

Also Published As

Publication number Publication date
JP2616520B2 (en) 1997-06-04

Similar Documents

Publication Publication Date Title
US8873826B2 (en) Method for brightness level calculation of the digital x-ray image for medical applications
DE60212917T2 (en) Device for calculating an index of local blood flows
CN110390351A (en) A kind of Epileptic focus three-dimensional automatic station-keeping system based on deep learning
US8270695B2 (en) Diagnostic image processing with automatic self image quality validation
JP7081680B2 (en) Trained model manufacturing method, brightness adjustment method and image processing device
Narayan et al. FuzzyNet: Medical image classification based on GLCM texture feature
JP7115114B2 (en) X-ray image object recognition system
US7676076B2 (en) Neural network based method for displaying an examination image with normalized grayscale values
JPH0561973A (en) Medical image display device
CN111524109A (en) Head medical image scoring method and device, electronic equipment and storage medium
CN110270015B (en) sCT generation method based on multi-sequence MRI
AU2021100684A4 (en) DEPCADDX - A MATLAB App for Caries Detection and Diagnosis from Dental X-rays
JPH09179977A (en) Automatic processor for intensity level of medical image
JPH1131214A (en) Picture processor
US11816815B2 (en) Computer-implemented methods and systems for provision of a correction algorithm for an x-ray image and for correction of an x-ray image, x-ray facility, computer program, and electronically readable data medium
EP3799065A1 (en) Method for operating a medical imaging apparatus, medical imaging apparatus, computer program and electronically readable storage medium
US5845269A (en) Fuzzy control system, particularly for dose rate control in an X-ray diagnostics apparatus
JPH0896125A (en) Medical image display device
US11803970B2 (en) Image judgment device, image judgment method, and storage medium
US20210142889A1 (en) Computer-implemented method for providing an output data set
EP3858241B1 (en) Computer-implemented method for determining at least one main acquisition parameter and method for acquiring a main x-ray image
EP4212090A1 (en) Providing key elements of the examination region in an x-ray image
EP4212101A1 (en) Providing a complete set of key elements in an x-ray image
Aboobacker et al. Improving presentation consistency of radiographic images using deep learning
JP2929031B2 (en) Digital radiographic image position determination device