JP2019129989A - Medical image processing device - Google Patents
Medical image processing device Download PDFInfo
- Publication number
- JP2019129989A JP2019129989A JP2018014246A JP2018014246A JP2019129989A JP 2019129989 A JP2019129989 A JP 2019129989A JP 2018014246 A JP2018014246 A JP 2018014246A JP 2018014246 A JP2018014246 A JP 2018014246A JP 2019129989 A JP2019129989 A JP 2019129989A
- Authority
- JP
- Japan
- Prior art keywords
- medical image
- image
- processing
- medical
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 196
- 238000000034 method Methods 0.000 claims description 83
- 230000008569 process Effects 0.000 claims description 82
- 238000003384 imaging method Methods 0.000 claims description 58
- 230000002123 temporal effect Effects 0.000 claims description 17
- 230000004044 response Effects 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 3
- 238000011946 reduction process Methods 0.000 description 3
- 230000037182 bone density Effects 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 210000004072 lung Anatomy 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000005549 size reduction Methods 0.000 description 2
- 238000013526 transfer learning Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000001739 density measurement Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000012850 discrimination method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002601 radiography Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Description
本発明は、医用画像処理装置に関する。 The present invention relates to a medical image processing apparatus.
従来、患者に関する情報と、検査対象部位に関する情報と、画像データを特定するために用いられる画像特定情報とを含む過去画像情報を格納するデータベースを備え、外部から入力される第1の医用画像データの付帯情報に基づいて前記データベースを検索することにより、第1の医用画像データと患者及び検査対象部位が同一の第2の医用画像データについての過去画像情報を取得し、取得された過去画像情報に対応する第2の医用画像データを外部の画像サーバーから取得して、第1の医用画像データと第2の医用画像データとの差分演算を行う医用画像情報処理装置(医用画像処理装置)が知られている(例えば、特許文献1参照)。この医用画像情報処理装置においては、画像データの付帯情報に基づいてデータベースに検査対象部位に関する情報等が登録されている。 Conventionally, a first medical image data input from the outside has been provided with a database that stores past image information including information on a patient, information on a region to be examined, and image specifying information used for specifying image data. By searching the database based on the incidental information, the past image information about the first medical image data and the second medical image data in which the patient and the examination target part are the same is acquired, and the acquired past image information A medical image information processing apparatus (medical image processing apparatus) that obtains second medical image data corresponding to the above from an external image server and performs a difference calculation between the first medical image data and the second medical image data. It is known (see, for example, Patent Document 1). In this medical image information processing apparatus, information related to a region to be examined is registered in a database based on incidental information of image data.
しかしながら、医用画像によっては、撮影装置のメーカーやモダリティーの違いにより、患者情報やモダリティー情報等の特定の付帯情報以外の、例えば、撮影部位や撮影方向に関する付帯情報がブランクのケースや付帯情報内の文字列が統一されていないケースが存在する。そのため、付帯情報のみでは処理対象の画像か否かを判断することが困難な場合がある。例えば、経時差分処理で胸部正面のみを対象とする場合、付帯情報から撮影部位(=胸部)が分かったとしても、正面か側面を一意に判断できない場合がある。特に、画像データが既に保存された画像サーバーに、後から医用画像処理装置を設置した場合は、画像サーバーに統一されていない様々な付帯情報のデータが入っており、上記事象が頻繁に発生する。 However, depending on the medical device, depending on the manufacturer and modality of the imaging device, the incidental information other than the specific incidental information such as patient information and modality information, for example, the incidental information regarding the imaging region and the imaging direction is blank or in the incidental information. There are cases where strings are not unified. For this reason, it may be difficult to determine whether or not the image is a processing target only with the accompanying information. For example, when only the front of the chest is targeted in the temporal difference processing, even if the imaging region (= chest) is known from the accompanying information, the front or side may not be uniquely determined. In particular, when a medical image processing apparatus is installed later on an image server in which image data has already been stored, various incidental data that are not standardized in the image server are included, and the above events occur frequently. .
このような問題を解決するために、例えば、医用画像処理装置の設置時にサービスマン等の手で画像サーバー内の付帯情報を全て統一することが考えられる。しかし、これには多大な時間を要する。また、付帯情報の文字列を辞書学習し、付帯情報を統一することも考えられるが、付帯情報がブランクの場合は、正しい付帯情報を付与できない。 In order to solve such a problem, for example, it may be possible to unify all the incidental information in the image server by a serviceman or the like when installing the medical image processing apparatus. However, this takes a lot of time. Further, it is conceivable to learn the character string of the incidental information from the dictionary and unify the incidental information. However, if the incidental information is blank, correct incidental information cannot be given.
本発明の課題は、医用画像処理装置において、サーバーから送信された医用画像に係る付帯情報からその医用画像が処理対象の画像であるか否かを判別できない場合であっても、その医用画像が処理対象の画像であるか否かを判別できるようにすることである。 The problem of the present invention is that even when the medical image processing apparatus cannot determine whether or not the medical image is the image to be processed from the incidental information related to the medical image transmitted from the server, the medical image is It is to be able to determine whether or not the image is a processing target.
上記課題を解決するため、請求項1に記載の発明の医用画像処理装置は、
所定の処理の処理対象の候補となる医用画像をサーバーに要求する要求手段と、
前記要求に応じて前記サーバーから送信された医用画像の少なくとも画像データを用いて、当該医用画像が前記所定の処理の処理対象の画像であるか否かを判別する判別手段と、
前記処理対象の画像と判別された医用画像に対して前記所定の処理を施す処理手段と、
を備える。
In order to solve the above-mentioned problem, a medical image processing apparatus according to claim 1 is provided.
Request means for requesting a server for a medical image that is a candidate for processing of a predetermined process;
Determining means for determining whether or not the medical image is a processing target image of the predetermined processing using at least image data of the medical image transmitted from the server in response to the request;
Processing means for performing the predetermined processing on the medical image determined to be the processing target image;
Is provided.
請求項2に記載の発明の医用画像処理装置は、
第1の医用画像を取得する取得手段と、
前記第1の医用画像とともに所定の処理の処理対象となる第2の医用画像の候補となる医用画像をサーバーに要求する要求手段と、
前記要求に応じて前記サーバーから送信された医用画像の少なくとも画像データを用いて、当該医用画像が前記所定の処理の処理対象となる医用画像であるか否かを判別する判別手段と、
前記第1の医用画像及び前記所定の処理の処理対象となる医用画像であると判別された第2の医用画像に対して前記所定の処理を施す処理手段と、
を備える。
The medical image processing apparatus of the invention according to
Acquisition means for acquiring a first medical image;
Request means for requesting a server for a medical image that is a candidate for a second medical image to be processed in a predetermined process together with the first medical image;
Determining means for determining whether or not the medical image is a medical image to be processed by the predetermined processing using at least image data of the medical image transmitted from the server in response to the request;
Processing means for performing the predetermined process on the first medical image and the second medical image determined to be a medical image to be processed by the predetermined process;
Is provided.
請求項3に記載の発明は、請求項2に記載の発明において、
前記処理手段は、前記第1の医用画像と前記第2の医用画像に対して所定の演算処理を施す。
The invention according to
The processing means performs predetermined arithmetic processing on the first medical image and the second medical image.
請求項4に記載の発明は、請求項3に記載の発明において、
前記処理手段は、前記第1の医用画像と前記第2の医用画像に対して経時差分処理を施す。
The invention according to
The processing means performs a temporal difference process on the first medical image and the second medical image.
請求項5に記載の発明は、請求項1〜4のいずれか一項に記載の発明において、
前記判別手段は、前記医用画像の撮影部位と撮影方向の少なくとも一方を判別し、その判別結果に基づいて、当該医用画像が前記所定の処理の処理対象の画像であるか否かを判別する。
The invention according to claim 5 is the invention according to any one of claims 1 to 4,
The determination unit determines at least one of an imaging region and an imaging direction of the medical image, and determines whether the medical image is a processing target image of the predetermined process based on the determination result.
請求項6に記載の発明は、請求項1〜5のいずれか一項に記載の発明において、
前記判別手段は、前記医用画像の付帯情報から前記医用画像が前記所定の処理の処理対象の画像であるか否かを判別可能な場合は、前記付帯情報を用いて当該医用画像が前記所定の処理の処理対象の画像であるか否かを判別し、前記医用画像の付帯情報から前記医用画像が前記所定の処理の処理対象の画像であるか否かを判別不可能な場合は、前記医用画像の画像データを解析することにより当該医用画像が前記所定の処理の処理対象の画像であるか否かを判別する。
The invention according to claim 6 is the invention according to any one of claims 1 to 5,
In the case where it is possible to determine whether the medical image is an image to be processed by the predetermined process from the additional information of the medical image, the determination unit uses the additional information to determine whether the medical image is the predetermined image. It is determined whether or not the image is a processing target image, and if it is impossible to determine from the incidental information of the medical image whether the medical image is a target image for the predetermined processing, By analyzing the image data of the image, it is determined whether or not the medical image is an image to be processed in the predetermined process.
請求項7に記載の発明は、請求項1〜6のいずれか一項に記載の発明において、
前記要求手段は、患者識別情報、撮影部位、撮影方向、撮影モダリティーの少なくとも一つの条件を指定して、前記所定の処理の処理対象の候補となる医用画像を前記サーバーに要求する。
The invention according to claim 7 is the invention according to any one of claims 1 to 6,
The request unit specifies at least one condition of patient identification information, imaging region, imaging direction, and imaging modality, and requests a medical image that is a candidate for a target of the predetermined processing from the server.
請求項8に記載の発明は、請求項1〜7のいずれか一項に記載の発明において、
前記処理手段による処理結果を前記サーバーに送信する送信手段を備える。
The invention according to claim 8 is the invention according to any one of claims 1 to 7,
A transmission unit configured to transmit a processing result of the processing unit to the server;
請求項9に記載の発明は、請求項1〜8のいずれか一項に記載の発明において、
前記処理手段による処理結果を表示する表示手段を備える。
The invention according to claim 9 is the invention according to any one of claims 1 to 8,
Display means for displaying a processing result by the processing means.
請求項10に記載の発明は、請求項1〜9のいずれか一項に記載の発明において、
前記処理手段による処理結果は、数値又は画像である。
The invention according to claim 10 is the invention according to any one of claims 1 to 9,
The processing result by the processing means is a numerical value or an image.
請求項11に記載の発明は、請求項1〜10のいずれか一項に記載の発明において、
前記医用画像の画像識別情報と前記判別手段による判別結果とを対応付けて保存するためのデータベースを備える。
The invention according to claim 11 is the invention according to any one of claims 1 to 10,
A database is provided for associating and storing image identification information of the medical image and a discrimination result by the discrimination means.
請求項12に記載の発明は、請求項11に記載の発明において、
外部装置から前記所定の処理の実施が指示された医用画像に対しては、前記判別手段による判別を行うことなく前記処理手段により前記所定の処理を行うように制御する制御手段を備える。
The invention according to claim 12 is the invention according to claim 11,
Control means for controlling the medical image to be performed by the processing unit without performing determination by the determination unit for a medical image instructed to perform the predetermined processing from an external device.
請求項13に記載の発明は、請求項12に記載の発明において、
前記制御手段は、前記外部装置から前記所定の処理の実施が指示された医用画像の画像識別情報と前記医用画像が前記処理対象の画像の条件を満たすことを示す情報とを対応付けて前記データベースに保存させる。
The invention according to claim 13 is the invention according to claim 12,
The control unit associates image identification information of a medical image instructed to perform the predetermined process from the external device with information indicating that the medical image satisfies a condition of the image to be processed, in the database To save.
本発明によれば、医用画像処理装置において、サーバーから送信された医用画像に係る付帯情報からその医用画像が処理対象の画像であるか否かを判別できない場合であっても、その医用画像が処理対象の画像であるか否かを判別することが可能となる。 According to the present invention, in the medical image processing apparatus, even if it is not possible to determine whether or not the medical image is an image to be processed from the incidental information related to the medical image transmitted from the server, the medical image is It is possible to determine whether the image is a processing target.
以下、図面を参照して本発明の実施形態について説明する。ただし、発明の範囲は、図示例に限定されない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
<第1の実施形態>
(医用画像処理システム100の構成)
まず、第1の実施形態の構成を説明する。
図1に、本実施形態における医用画像処理システム100のシステム構成を示す。
図1に示すように、医用画像処理システム100は、モダリティー1、画像サーバー2、医用画像処理装置3、ビューアー4等を備えて構成されている。これら各装置1〜4は、LAN(Local Area Network)等の医療機関内で構築された通信ネットワークNを介して相互にデータを送受信可能に接続されている。通信ネットワークNは、DICOM(Digital Imaging and Communication in Medicine)規格が適用されている。なお、各装置の台数は、特に限定されない。
<First Embodiment>
(Configuration of Medical Image Processing System 100)
First, the configuration of the first embodiment will be described.
FIG. 1 shows a system configuration of a medical
As shown in FIG. 1, the medical
以下、各構成装置1〜4について説明する。
モダリティー1は、人体を撮影し、その撮影画像(医用画像)の画像データを生成するものであり、例えば、CR(Computed Radiography)、FPD(Flat Panel Detector)、CT(Computed Tomography)、MRI(Magnetic Resonance Imaging)等を適用可能である。本実施形態においては、モダリティー1が単純X線画像を撮影するCR又はFPDであることとして説明するが、他の種類のモダリティーが含まれていてもよい。
Hereinafter, each component apparatus 1-4 is demonstrated.
The modality 1 is for photographing a human body and generating image data of the captured image (medical image). For example, CR (Computed Radiography), FPD (Flat Panel Detector), CT (Computed Tomography), MRI (Magnetic) Resonance Imaging) can be applied. In the present embodiment, the modality 1 is described as being a CR or FPD that captures a simple X-ray image, but other types of modalities may be included.
なお、モダリティー1は、DICOM(Digital Imaging and Communication in Medicine)規格に準拠した装置であり、生成した医用画像に付帯させる各種付帯情報、例えば、患者情報や検査情報を外部から入力可能であるとともに、自動生成することもできる。患者情報には、患者を識別するための患者識別情報(例えば、患者ID)、患者の名前、性別、生年月日等の情報が含まれる。検査情報は、検査を識別するための検査識別情報(例えば、検査ID)、検査日付、撮影部位、撮影方向、モダリティー情報等の情報が含まれる。モダリティー1は、生成された医用画像をDICOM規格に則ったDICOMファイル形式で通信ネットワークNを介して画像サーバー2及び医用画像処理装置3に送信する。
The modality 1 is a device conforming to the DICOM (Digital Imaging and Communication in Medicine) standard, and various incidental information attached to the generated medical image, for example, patient information and examination information can be input from the outside. It can also be generated automatically. The patient information includes information such as patient identification information (for example, patient ID) for identifying the patient, patient name, sex, date of birth, and the like. The examination information includes information such as examination identification information (for example, examination ID) for identifying the examination, examination date, imaging region, imaging direction, modality information, and the like. The modality 1 transmits the generated medical image to the
ここで、DICOMファイルは、画像部とヘッダー部とから構成される。画像部には医用画像の実データ(画像データ)、ヘッダー部には当該医用画像に関する付帯情報、例えば、上記患者情報や検査情報、医用画像を一意に識別するためのUID(例えば、SOP instance UID)等が書き込まれる。なお、DICOMファイルの必須タグであるTYPE1の付帯情報(例えば、患者情報、モダリティー情報等)は、DICOMの規格により必ず書き込まれるが、それ以外の項目の付帯情報(例えば、撮影部位、撮影方向等)は保障されないため、医用画像に付帯されていない場合がある。 Here, the DICOM file is composed of an image portion and a header portion. The image part includes actual data (image data) of the medical image, and the header part includes additional information related to the medical image, for example, the patient information and examination information, and a UID (eg, SOP instance UID) for uniquely identifying the medical image. ) Etc. are written. Note that incidental information (eg, patient information, modality information, etc.) of TYPE1, which is an essential tag of the DICOM file, is always written according to the DICOM standard, but incidental information (eg, imaging region, imaging direction, etc.) of other items. ) Is not guaranteed and may not be attached to medical images.
画像サーバー2は、モダリティー1により生成された医用画像の画像データ、及び医用画像に関する付帯情報を蓄積記憶・管理するコンピューター装置である。
具体的に、画像サーバー2は、ハードディスク等により構成される記憶部21を有する。この記憶部21は、医用画像や差分画像等の画像データを格納する医用画像DB(Data Base)211、医用画像DB211に記憶されている画像に関する付帯情報を検索可能に格納する付帯情報DB212を記憶している。
画像サーバー2は、医用画像処理装置3及びビューアー4から要求された医用画像を医用画像DB211から読み出して要求元の装置に送信する。
The
Specifically, the
The
医用画像処理装置3は、画像サーバー2から医用画像を取得して、取得した医用画像に各種処理を施す装置である。
図2に、医用画像処理装置3の機能構成例を示す。
図2に示すように、医用画像処理装置3は、制御部31、操作部32、表示部33、通信部34、記憶部35を備えて構成され、各部はバス36により接続されている。
The medical
FIG. 2 shows a functional configuration example of the medical
As shown in FIG. 2, the medical
制御部31は、CPU(Central Processing Unit)、RAM(Random Access Memory)等により構成される。制御部31のCPUは、記憶部35に記憶されているシステムプログラムや処理プログラム等の各種プログラムを読み出してRAMに展開し、展開されたプログラムに従って各種処理を実行する。例えば、制御部31は、図3に示す経時差分処理の医用画像処理装置3側の処理を実行する。
制御部31は、要求手段、判別手段、処理手段、制御手段として機能する。
The
The
操作部32は、文字入力キー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードで押下操作されたキーの押下信号とマウスによる操作信号とを、入力信号として制御部31に出力する。
The
表示部33は、例えば、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等のモニタを備えて構成されており、制御部31から入力される表示信号の指示に従って、各種画面を表示する。
The
通信部34は、LANカード等により構成され、スイッチングハブを介して通信ネットワークNに接続された外部機器との間でデータの送受信を行う。
通信部34は、取得手段、送信手段として機能する。
The
The
記憶部35は、例えばHDD(Hard Disk Drive)や半導体の不揮発性メモリー等で構成されている。記憶部35には、前述のように各種プログラムや各種データが記憶されている。
The
図1に戻り、ビューアー4は、表示部を備え、読影医の操作により指定された医用画像又はその処理結果を画像サーバー2又は医用画像処理装置3から取得して表示する。
Returning to FIG. 1, the
(医用画像処理システム100の動作)
次に、医用画像処理システム100の動作について説明する。
図3に、医用画像処理システム100において実行される経時差分処理の流れを示す。以下、図3を参照して経時差分処理の流れについて説明する。
(Operation of Medical Image Processing System 100)
Next, the operation of the medical
FIG. 3 shows a flow of the temporal difference process executed in the medical
まず、モダリティー1は、生成された医用画像を医用画像処理装置3に送信する(ステップS1)。 First, the modality 1 transmits the generated medical image to the medical image processing apparatus 3 (step S1).
医用画像処理装置3において、通信部34によりモダリティー1からの医用画像が受信されると、制御部31は、受信された医用画像(第1の医用画像とする)の付帯情報から患者情報を取得する(ステップS2)。
In the medical
次いで、医用画像処理装置3において、制御部31は、通信部34により画像サーバー2に対して第1の医用画像から取得した患者情報(患者ID等)を送信し、経時差分処理の処理対象の候補画像として、第1の医用画像と同一患者の医用画像の要求を行う(ステップS3)。
Next, in the medical
本実施形態では、第1の医用画像と同一患者の医用画像であることを条件として、この条件を満たす医用画像を画像サーバー2に要求することとしているが、画像サーバー2に要求する医用画像の条件はこれに限定されず、さらにその他の条件(制約)が設定されていてもよい。上述のように、医用画像の付帯情報は、DICOMファイルの必須タグであるTYPE1の付帯情報以外の項目のデータは保障されない。そのため、画像サーバー2に要求する医用画像の条件は、TYPE1の付帯情報に関する条件であることが好ましい。ただし、画像サーバー2に要求する医用画像の条件に必須タグ以外の情報を含めてもよく、画像サーバー2で付帯情報によりある程度絞られた範囲で候補画像を取得して、その中から医用画像処理装置3で最終的に処理対象の画像を判別してもよい。例えば、処理対象の画像の条件が同一患者の胸部正面画像である場合、同一患者の胸部正面画像以外であることが付帯情報から明確な画像(他の患者の患者ID及び他の撮影部位であることを示す撮影部位情報が付帯情報に記載されている画像)を除外した医用画像を画像サーバー2に要求してもよい。この場合、同一患者の胸部正面画像の他、同一患者の医用画像であって、付帯情報が空又は不明な医用画像が画像サーバー2から送信される。このように、画像サーバー2に要求する候補画像に予め所定の条件を付すことで、後段のステップS7の判別処理を効率的に行うことが可能となる。
In this embodiment, on the condition that the first medical image is a medical image of the same patient, a medical image satisfying this condition is requested to the
画像サーバー2は、医用画像処理装置3から患者情報及び医用画像の要求を受信すると、受信した患者情報と一致する患者情報の医用画像(同一患者の医用画像)を医用画像DB211から検索し(ステップS4)、検索により抽出された同一患者の医用画像を医用画像処理装置3に送信する(ステップS5)。
When the
医用画像処理装置3においては、通信部34により画像サーバー2から医用画像が受信されると、制御部31は、受信された医用画像を処理対象の候補画像として取得して(ステップS6)、候補画像が経時差分処理の処理対象の画像であるか否かを判別する判別処理を行う(ステップS7)。
ここで、経時差分処理の処理対象となる画像は、胸部正面の画像である。
In the medical
Here, the image to be processed in the temporal difference process is an image in front of the chest.
図4は、ステップS7において医用画像処理装置3の制御部31により実行される判別処理を示すフローチャートである。
FIG. 4 is a flowchart showing the determination process executed by the
判別処理において、制御部31は、候補画像の付帯情報を参照し、撮影部位情報が「空又は不明」であるか否かを判別する(ステップS71)。
ここで、不明とは、ヘッダー部のタグ内の文字列が事前に登録されている文字以外であることを指す。
In the determination process, the
Here, “unknown” means that the character string in the tag of the header part is other than a previously registered character.
撮影部位情報が「空又は不明」ではないと判別した場合(ステップS71;NO)、制御部31は、付帯情報の撮影部位情報が「胸部」であるか否かを判別する(ステップS72)。
付帯情報の撮影部位情報が「胸部」ではないと判別した場合(ステップS72;NO)、制御部31は、当該候補画像が処理対象外であると判別し(ステップS79)、ステップS81に移行する。
付帯情報の撮影部位情報が「胸部」であると判別した場合(ステップS72;YES)、ステップS75に移行する。
When it is determined that the imaging part information is not “empty or unknown” (step S71; NO), the
When it is determined that the imaging part information of the incidental information is not “chest” (step S72; NO), the
When it is determined that the imaging part information of the incidental information is “chest” (step S72; YES), the process proceeds to step S75.
一方、ステップS71において、撮影部位の情報が「空又は不明」であると判別した場合(ステップS71;YES)、制御部31は、当該候補画像の付帯情報から当該候補画像が処理対象の画像(ここでは、胸部画像)であるか否かを判別することができないと判断し、当該候補画像の画像データを用いて部位判別処理を実行する(ステップS73)。本願でいう画像データとは、画像を構成する画素値のデータ(ピクセルデータ)を指し、付帯情報は含まない。
On the other hand, when it is determined in step S71 that the information of the imaging region is “empty or unknown” (step S71; YES), the
ステップS73においては、例えば、ディープラーニングの分類問題において一般的なAlexNetの転移学習モデルを利用して判定することができる。AlexNetについては、例えば、参照文献1に記載されているように公知である(参照文献1:https://www.cs.toronto.edu~kriz/imagenet_classification_with_deep_convolutional.pdf)。また、候補画像の画像データに対し、8bit正規化、ヒストグラム均一化、画像サイズ縮小等の前処理を行った後、撮影部位を判定するための特徴量を学習済みのCNN(Convolution Neural Network)モデルにて推論処理を実行して候補画像の撮影部位を判別することとしてもよい。 In step S73, for example, it can be determined using a transfer learning model of AlexNet that is general in the deep learning classification problem. AlexNet is known, for example, as described in Reference Document 1 (Reference Document 1: https: //www.cs.toronto.edu~kriz/imagenet_classification_with_deep_convolutional.pdf). In addition, after performing preprocessing such as 8-bit normalization, histogram equalization, and image size reduction on the image data of the candidate image, a CNN (Convolution Neural Network) model having learned feature quantities for determining the imaging region The inference process may be executed to determine the imaging part of the candidate image.
部位判別処理が終了すると、制御部31は、判別結果が「胸部」であるか否かを判別する(ステップS74)。
判別結果が「胸部」ではないと判別した場合(ステップS74;NO)、制御部31は、当該候補画像が処理対象外であると判別し(ステップS79)、ステップS81に移行する。
When the region determination process ends, the
When it is determined that the determination result is not “chest” (step S74; NO), the
判別結果が「胸部」であると判別した場合(ステップS74;YES)、制御部31は、ステップS75に移行する。
When it is determined that the determination result is “chest” (step S74; YES), the
ステップS75において、制御部31は、付帯情報の撮影方向が「空又は不明」であるか否かを判別する(ステップS75)。
付帯情報の撮影方向が「空又は不明」ではないと判別した場合(ステップS75;NO)、制御部31は、付帯情報の撮影方向が「正面」であるか否かを判別する(ステップS76)。
付帯情報の撮影部位情報が「正面」ではないと判別した場合(ステップS76;NO)、制御部31は、当該医用画像が処理対象外であると判別し(ステップS79)、ステップS81に移行する。
付帯情報の撮影部位情報が「正面」であると判別した場合(ステップS76;YES)、制御部31は、当該候補画像が処理対象である(第2の医用画像である)と判別し(ステップS80)、ステップS81に移行する。
In step S75, the
When it is determined that the shooting direction of the auxiliary information is not “empty or unknown” (step S75; NO), the
When it is determined that the imaging part information of the incidental information is not “front” (step S76; NO), the
When it is determined that the imaging part information of the accompanying information is “front” (step S76; YES), the
一方、ステップS75において、撮影方向の情報が「空又は不明」であると判別した場合(ステップS75;YES)、制御部31は、当該候補画像の付帯情報から当該候補画像が処理対象の画像(ここでは、正面画像)であるか否かを判別することができないと判断し、当該候補画像の画像データを用いて正面/側面判別処理を実行する(ステップS77)。
ステップS77の処理では、例えば、3層CNNを用いて行うことができる。ステップS77においては、例えば、候補画像の画像データに対し、8bit正規化、ヒストグラム均一化、画像サイズ縮小等の前処理を行った後、胸部正面と胸部側面を分けるための特徴量を学習済みの3層CNNモデルにて推論処理を実行して候補画像が胸部正面であるか胸部側面であるかを判別する。
なお、胸部正面であるか胸部側面であるかの判別は、参照文献2に記載の、画像データの横方向の濃度値の変化を示すプロジェクションのパターンを用いた判別手法等の他の公知の手法を用いてもよい(参照文献2:木戸淳、竹内博著,「肺正面、側面の自動識別」,Medical Imaging Technology,9 巻 4 号(1991))。また、ディープラーニングの分類問題において一般的なAlexNetの転移学習モデルを利用して、候補画像の画像データが肺正面であるか側面であるかを判定することとしてもよい。
On the other hand, when it is determined in step S75 that the shooting direction information is “empty or unknown” (step S75; YES), the
The process in step S77 can be performed using, for example, a three-layer CNN. In step S77, for example, preprocessing such as 8-bit normalization, histogram equalization, and image size reduction is performed on the image data of the candidate image, and then feature quantities for separating the chest front and the chest side have been learned. Inference processing is executed in the three-layer CNN model to determine whether the candidate image is the front of the chest or the side of the chest.
It should be noted that the discrimination between the front of the chest and the side of the chest is performed by other known methods such as a discrimination method described in
正面/側面判別処理が終了すると、制御部31は、判別結果が「正面」であるか否かを判別する(ステップS78)。
判別結果が「正面」ではないと判別した場合(ステップS78;NO)、制御部31は、当該候補画像が処理対象外であると判別し(ステップS79)、ステップS81に移行する。
When the front / side determination process ends, the
When it is determined that the determination result is not “front” (step S78; NO), the
判別結果が「正面」であると判別した場合(ステップS78;YES)、制御部31は、当該候補画像が処理対象である(第2の医用画像である)と判別し(ステップS80)、ステップS81に移行する。
When it is determined that the determination result is “front” (step S78; YES), the
ステップS81において、制御部31は、受信した全ての候補画像についてステップS71〜S80の処理が終了したか否かを判断する(ステップS81)。
受信した全ての候補画像についてステップS71〜S80の処理が終了していないと判断した場合(ステップS81;NO)、制御部31は、ステップS71に戻る。
受信した全ての候補画像についてステップS71〜S80の処理が終了したと判断した場合(ステップS81;YES)、制御部31は、図3のステップS8に移行する。
In step S81, the
When it is determined that the processing of steps S71 to S80 has not been completed for all received candidate images (step S81; NO), the
When it is determined that the processing in steps S71 to S80 has been completed for all received candidate images (step S81; YES), the
上記判別処理により、候補画像の付帯情報の撮影部位や撮影方向の情報が空又は不明であっても処理対象の画像(第2の医用画像)であるか否かを判別することができ、経時差分処理を正しく実行することができる。 With the above determination processing, it is possible to determine whether or not the image to be processed (second medical image) even if the information on the imaging part and the imaging direction of the incidental information of the candidate image is empty or unknown. Difference processing can be executed correctly.
図3に戻り、ステップS8において、制御部31は、モダリティー1から受信した第1の医用画像と、処理対象と判断された第2の医用画像に対して経時差分処理を実行する(ステップS8)。具体的には、第1の医用画像と、処理対象の画像と判別された第2の医用画像との差分をとることで、差分画像を生成する。
Returning to FIG. 3, in step S <b> 8, the
次いで、制御部31は、生成した差分画像(処理結果)を通信部34により画像サーバー2に送信する(ステップS9)。例えば、制御部31は、生成した差分画像に固有のUIDを割り当てて当該UID及び差分画像を生成する際に使用した医用画像のUID等を付帯情報として付加して画像サーバー2に送信する。
画像サーバー2においては、医用画像処理装置3から差分画像を受信すると、受信した差分画像を医用画像DB211に保存する(ステップS10)。差分画像の保存が終了すると、医用画像処理システム100における経時差分処理は終了する。
Next, the
When the
このように、第1の実施形態においては、医用画像処理装置3の制御部31は、画像サーバー2から送信された候補画像の画像データを用いて、候補画像が胸部正面画像であるか否かを判断し、胸部正面画像であると判断した場合には、当該候補画像が処理対象の画像であると判別する。そして、処理対象の画像と判別された候補画像を第2の医用画像として、第1の医用画像及び第2の医用画像を用いて経時差分処理を施す。したがって、候補画像の付帯情報の撮影部位や撮影方向の情報が空又は不明であり、付帯情報から候補画像が処理対象画像(第2の医用画像)であるか否かを判別することができない場合であっても、候補画像が処理対象画像であるか否かを判別することができ、経時差分処理を正しく実行することができる。
Thus, in the first embodiment, the
<第2の実施形態>
次に、本発明の第2の実施形態について説明する。
第2の実施形態における構成は、第1の実施形態で説明した構成と同様であるので説明を援用し、以下、第2の実施形態における医用画像処理システム100の動作について説明する。
<Second Embodiment>
Next, a second embodiment of the present invention will be described.
Since the configuration in the second embodiment is the same as the configuration described in the first embodiment, the description will be referred to and the operation of the medical
図5に、医用画像処理システム100において実行される肋骨減弱処理の流れを示す。以下、図5を参照して肋骨減弱処理の流れについて説明する。
FIG. 5 shows a flow of rib attenuation processing executed in the medical
医用画像処理装置3の制御部31は、例えば、操作部32による肋骨減弱処理の実行指示等に応じて、通信部34により画像サーバー2に対して胸部画像の要求を行う(ステップS21)。
The
本実施形態では、胸部画像であることを条件として、この条件に合致する医用画像を画像サーバー2に要求することとしているが、画像サーバー2に要求する医用画像の条件はこれに限定されず、さらにその他の条件(制約)が設定されていてもよい。例えば、検査日、患者情報、モダリティー情報等に関する条件が設定されていてもよい。
In the present embodiment, on the condition that the image is a chest image, a medical image that matches this condition is requested to the
画像サーバー2は、医用画像処理装置3から胸部画像の要求を受信すると、付帯情報に基づいて、撮影部位が「胸部」以外であると明確に判断できる画像を除いた医用画像を医用画像DB211から検索し(ステップS22)、検索により抽出された医用画像を医用画像処理装置3に送信する(ステップS23)。
撮影部位が「胸部」以外であると明確に判断できる画像とは、付帯情報の撮影部位情報として、胸部以外の部位が記載されている画像であり、ステップS23においては、付帯情報の撮影部位が胸部の医用画像とともに、付帯情報の撮影部位が空や不明な医用画像が医用画像処理装置3に送信される。
なお、本実施形態では、医用画像処理装置3から胸部画像の要求を受信すると、画像サーバー2において、付帯情報に基づき撮影部位が「胸部」以外であると明確に判断できる画像を除いた医用画像を医用画像DB211から検索することとしたが、医用画像処理装置3側から「撮影部位が「胸部」以外であると明確に判断できる画像を除いた医用画像」を条件として画像サーバー2に医用画像を要求することとしてもよい。
When the
The image that can be clearly determined that the imaging region is other than “chest” is an image in which a region other than the chest is described as the imaging region information of the incidental information. In step S23, the imaging region of the incidental information is A medical image in which the imaging part of the supplementary information is empty or unknown is transmitted to the medical
In the present embodiment, when a chest image request is received from the medical
医用画像処理装置3においては、通信部34により画像サーバー2から医用画像が受信されると、制御部31は、受信された医用画像を処理対象の候補画像として取得して(ステップS24)、候補画像が肋骨減弱処理の処理対象画像であるか否かを判別する判別処理を行う(ステップS25)。
ここで、肋骨減弱処理の処理対象となる画像は、胸部正面の画像である。ステップS25において、制御部31は、図4に示す判別処理を実行する。判別処理については、第1の実施形態で説明したので説明を援用する。判別処理により、候補画像の付帯情報の撮影部位や撮影方向の情報が空又は不明であっても処理対象の画像であるか否かを判別することができる。
In the medical
Here, the image to be processed in the rib attenuation process is an image in front of the chest. In step S25, the
次いで、制御部31は、処理対象と判別された処理対象画像のみに対して肋骨減弱処理(Bone Suppression処理)を実行する(ステップS26)。
Next, the
次いで、制御部31は、肋骨減弱処理済みの医用画像を通信部34により画像サーバー2に送信する(ステップS27)。例えば、制御部31は、肋骨減弱処理済みの医用画像に固有のUIDを割り当てて当該UID及び処理前の医用画像のUID等を付帯情報として付加して画像サーバー2に送信する。
画像サーバー2においては、医用画像処理装置3から肋骨減弱済みの医用画像を受信すると、受信した医用画像を医用画像DB211に保存する(ステップS28)。肋骨減弱済みの医用画像の保存が終了すると、医用画像処理システム100における肋骨減弱処理は終了する。
Next, the
In the
このように、第2の実施形態においては、医用画像処理装置3の制御部31は、画像サーバー2から送信された候補画像の画像データを用いて、候補画像が胸部正面画像であるか否かを判断し、胸部正面画像であると判断した場合には、当該候補画像が処理対象の画像であると判別する。そして、処理対象の画像と判別された候補画像を処理対象の画像として、肋骨減弱処理を施す。
したがって、候補画像の付帯情報の撮影部位や撮影方向の情報が空又は不明であり、付帯情報から候補画像が処理対象画像であるか否かを判別することができない場合であっても、候補画像が処理対象画像であるか否かを判別することができる。
As described above, in the second embodiment, the
Therefore, even if the information on the imaging part and the imaging direction of the supplementary information of the candidate image is empty or unknown and it cannot be determined from the supplementary information whether the candidate image is a processing target image, the candidate image It is possible to determine whether or not is a processing target image.
以上、本発明の第1の実施形態及び第2の実施形態について説明したが、上記実施形態における記述内容は本発明の好適な一例であり、これに限定されるものではない。 The first embodiment and the second embodiment of the present invention have been described above. However, the description in the above embodiment is a preferred example of the present invention, and the present invention is not limited to this.
例えば、第1及び第2の実施形態において、記憶部35にステップS73、ステップS77における判別結果を候補画像のUIDに対応付けて保存するためのDB(判別結果保存用DB)を備える構成とし、制御部31は、ステップS73、S77における判別結果を判別結果保存用DBに保存しておくこととしてもよい。そして、制御部31は、S73、S77の判別処理前に、まず候補画像のUIDで判別結果保存用DBを検索し、判別結果が判別結果保存用DBに記憶されている場合は、判別処理を行わずに、判別結果保存用DBの判別結果を用いて処理対象であるか否かを判断してもよい。または、制御部31は、候補画像の付帯情報にステップS73、S77における判別結果を書き込んで画像サーバー2に送信し、画像サーバー2に医用画像DB211及び付帯情報DB212の情報を更新させてもよい。これにより、一度撮影部位や撮影方向が判別された医用画像に対して、再度同じ処理を繰り返す必要がなくなり、処理の高速化を図ることができる。
For example, in the first and second embodiments, the
また、上記第1及び第2の実施形態で説明した判別処理では、付帯情報で判別できるものについては付帯情報を用いて処理対象であるか否かの判別を行い、付帯情報で判別できない場合に画像データの解析によって処理対象であるか否かを判別することとして説明したが、全ての候補画像に対して画像データの解析を行って処理対象であるか否かを判別してもよい。また、画像データを用いた判別結果と付帯情報の内容が異なる場合、制御部31は、付帯情報の修正やユーザへの注意喚起を促す表示を表示部33に表示したり、音声等により出力したりすることとしてもよい。
In addition, in the determination processing described in the first and second embodiments, the information that can be determined by the supplementary information is determined by using the supplementary information to determine whether it is a processing target, and cannot be determined by the supplementary information. Although it has been described that it is determined whether or not it is a processing target by analyzing image data, it may be determined whether or not it is a processing target by analyzing image data for all candidate images. When the determination result using the image data is different from the content of the incidental information, the
また、上記第1の実施形態においては、第1の医用画像との経時差分処理の対象となる第2の医用画像を判別し、第1の医用画像と、処理対象と判別された第2の医用画像に対して経時差分処理を実行することとしたが、第1の医用画像と第2の医用画像に対して実行する処理は経時差分処理に限定されない。 In the first embodiment, the second medical image that is the target of the temporal difference process with the first medical image is determined, and the first medical image and the second medical image that is determined as the processing target are determined. Although the temporal difference process is performed on the medical image, the process performed on the first medical image and the second medical image is not limited to the temporal difference process.
例えば、第1の医用画像が胸部正面画像である場合、同一患者の医用画像を画像サーバー2に要求して候補画像を取得し、取得した候補画像について判別処理を行い、胸部側面であった場合に、その候補画像が処理対象の第2の医用画像であると決定して、第1の医用画像と第2の医用画像に所定の処理(例えば、ビューアー4等の外部装置に2つの画像をセットで送信する処理等)を行うこととしてもよい。
For example, when the first medical image is a chest front image, the medical image of the same patient is requested to the
また、例えば、第1の医用画像と同一種類のモダリティーにより生成された医用画像を画像サーバー2に要求して候補画像を取得し、取得した候補画像について撮影部位及び/又は撮影方向の判別処理を行い、第1の医用画像と同一の撮影部位及び/又は撮影部位と判別された画像を第2の医用画像(群)であると決定して、第1の医用画像と第2の医用画像を用いて類似画像検索処理を行うこととしてもよい。
Also, for example, a candidate image is obtained by requesting the
また、上記第2の実施形態においては、胸部正面を画像サーバー2に要求して候補画像を取得し、取得した候補画像について判別処理を行い、胸部正面であった場合に、その候補画像を処理対象の画像であると判別して、肋骨減弱処理を行う場合を例にとり説明したが、肋骨減弱処理に限らず、例えば、病変検出処理、骨密度計測処理、骨折予測処理、写損判定処理、体動検知処理等を施すこととしてもよい。
Further, in the second embodiment, a candidate front is obtained by requesting the
また、上記第1及び第2の実施形態における判別処理では、候補画像が胸部正面画像であるか否かを判別し、胸部正面画像であると判別した場合に、処理対象の画像であると判別することとしたが、処理対象の画像の条件は、これに限定されない。例えば、候補画像の撮影部位と撮影方向の少なくとも一方を判別し、判別結果に基づいて、処理対象の画像であるか否かを判別することとしてもよい。また、上記実施形態においては、医用画像が胸部である場合を例にとり説明したが、他の撮影部位であってもよい。 Further, in the determination processing in the first and second embodiments, it is determined whether or not the candidate image is a chest front image, and when it is determined that the candidate image is a chest front image, the image is determined to be a processing target image. However, the condition of the image to be processed is not limited to this. For example, at least one of the imaging part and the imaging direction of the candidate image may be determined, and it may be determined whether the image is a processing target based on the determination result. In the above-described embodiment, the case where the medical image is the chest has been described as an example, but another imaging region may be used.
また、上記第1及び第2の実施形態においては、処理対象画像に対して実行された処理(外部装置に画像を送信する処理を除く)の処理結果(例えば、差分画像、肋骨減弱処理済みの画像、病変位置、骨密度の値等)を画像サーバー2に送信することとして説明したが、処理結果を表示部33に表示することとしてもよい。これにより、医用画像処理装置3において処理結果を確認することが可能となる。
In the first and second embodiments, the processing results (for example, the difference image and the rib attenuation processing have been performed) performed on the processing target image (excluding the processing for transmitting the image to the external device). The image, lesion position, bone density value, etc.) have been described as being transmitted to the
また、医用画像処理装置3において、ビューアー4等の外部装置から所定の処理(例えば、第1の実施形態の経時差分処理や第2の実施形態の肋骨減弱処理)の実行が指示されて医用画像が送信されてきた場合(入力された場合)、制御部31は、その医用画像が所定の処理の処理対象の画像であるか否かを判別することなく、所定の処理を行うように制御することが好ましい。外部装置から所定の処理の実行が指示された医用画像は、すなわち、所定の処理の処理対象の条件を満たす医用画像であるため、その医用画像が所定の処理の処理対象の条件を満たすか否かを判別する必要はないためである。
Further, in the medical
また、外部装置から所定の処理の実行が指示されて医用画像が送信されてきた場合、その医用画像のUID及び所定の処理の処理対象条件を満たすことを示す情報(例えば、所定の処理が経時差分処理である場合、撮影部位=胸部正面等)を対応付けて上述の判別結果保存用DBに保存しておくことが好ましい。そして、画像サーバー2から候補画像を取得した場合、制御部31は、候補画像のUIDで判別結果保存用DBを検索し、判別結果が判別結果保存用DBに記憶されている場合は、上述のステップS73やステップS77の判別処理を行わずに、判別結果保存用DBの判別結果を用いて処理対象であるか否かを判断してもよい。これにより、処理対象画像であることが明らかな医用画像に対して、判別処理を行う必要がなくなり、処理の高速化を図ることができる。
In addition, when a medical image is transmitted in response to an instruction to execute a predetermined process from an external device, the UID of the medical image and information indicating that the processing target condition for the predetermined process is satisfied (for example, the predetermined process is over time) In the case of the difference processing, it is preferable to store in the above-described determination result storage DB in association with the imaging region = the chest front, etc. When the candidate image is acquired from the
また、上記第1及び第2の実施形態においては、被写体部位が胸部である場合を例にとり説明したが、他の部位を撮影した医用画像においても本発明を適用してもよい。 In the first and second embodiments, the case where the subject part is the chest has been described as an example. However, the present invention may be applied to medical images obtained by photographing other parts.
また、例えば、上記の説明では、本発明に係るプログラムのコンピューター読み取り可能な媒体としてハードディスクや半導体の不揮発性メモリー等を使用した例を開示したが、この例に限定されない。その他のコンピューター読み取り可能な媒体として、CD−ROM等の可搬型記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウエーブ(搬送波)も適用される。 For example, in the above description, an example in which a hard disk, a semiconductor nonvolatile memory, or the like is used as a computer-readable medium of the program according to the present invention is disclosed, but the present invention is not limited to this example. As another computer-readable medium, a portable recording medium such as a CD-ROM can be applied. A carrier wave is also applied as a medium for providing program data according to the present invention via a communication line.
その他、医用画像処理システムを構成する各装置の細部構成及び細部動作に関しても、本発明の趣旨を逸脱することのない範囲で適宜変更可能である。 In addition, the detailed configuration and detailed operation of each device constituting the medical image processing system can be changed as appropriate without departing from the spirit of the present invention.
100 医用画像処理システム
1 モダリティー
2 画像サーバー
21 記憶部
211 医用画像DB
212 付帯情報DB
3 医用画像処理装置
31 制御部
32 操作部
33 表示部
34 通信部
35 記憶部
36 バス
100 Medical Image Processing System 1
212 incidental information DB
3 Medical
Claims (13)
前記要求に応じて前記サーバーから送信された医用画像の少なくとも画像データを用いて、当該医用画像が前記所定の処理の処理対象の画像であるか否かを判別する判別手段と、
前記処理対象の画像と判別された医用画像に対して前記所定の処理を施す処理手段と、
を備える医用画像処理装置。 Request means for requesting a server for a medical image that is a candidate for processing of a predetermined process;
Determining means for determining whether or not the medical image is a processing target image of the predetermined processing using at least image data of the medical image transmitted from the server in response to the request;
Processing means for performing the predetermined processing on the medical image determined to be the processing target image;
A medical image processing apparatus comprising:
前記第1の医用画像とともに所定の処理の処理対象となる第2の医用画像の候補となる医用画像をサーバーに要求する要求手段と、
前記要求に応じて前記サーバーから送信された医用画像の少なくとも画像データを用いて、当該医用画像が前記所定の処理の処理対象となる医用画像であるか否かを判別する判別手段と、
前記第1の医用画像及び前記所定の処理の処理対象となる医用画像であると判別された第2の医用画像に対して前記所定の処理を施す処理手段と、
を備える医用画像処理装置。 Acquisition means for acquiring a first medical image;
Request means for requesting a server for a medical image that is a candidate for a second medical image to be processed in a predetermined process together with the first medical image;
Determining means for determining whether or not the medical image is a medical image to be processed by the predetermined processing using at least image data of the medical image transmitted from the server in response to the request;
Processing means for performing the predetermined process on the first medical image and the second medical image determined to be a medical image to be processed by the predetermined process;
A medical image processing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018014246A JP7035569B2 (en) | 2018-01-31 | 2018-01-31 | Medical image processing equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018014246A JP7035569B2 (en) | 2018-01-31 | 2018-01-31 | Medical image processing equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019129989A true JP2019129989A (en) | 2019-08-08 |
JP7035569B2 JP7035569B2 (en) | 2022-03-15 |
Family
ID=67546981
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018014246A Active JP7035569B2 (en) | 2018-01-31 | 2018-01-31 | Medical image processing equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7035569B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021080024A3 (en) * | 2019-10-25 | 2021-06-17 | 直己 岡田 | Severity assessment device and model generation device |
JP2022018415A (en) * | 2020-07-15 | 2022-01-27 | キヤノンメディカルシステムズ株式会社 | Medical data processing device and method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003010166A (en) * | 2001-04-25 | 2003-01-14 | Fuji Photo Film Co Ltd | Image processing method, and device and program |
JP2013126575A (en) * | 2004-06-14 | 2013-06-27 | Canon Inc | Image processing device and method, and program |
JP2016202721A (en) * | 2015-04-27 | 2016-12-08 | コニカミノルタ株式会社 | Medical image display apparatus and program |
-
2018
- 2018-01-31 JP JP2018014246A patent/JP7035569B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003010166A (en) * | 2001-04-25 | 2003-01-14 | Fuji Photo Film Co Ltd | Image processing method, and device and program |
JP2013126575A (en) * | 2004-06-14 | 2013-06-27 | Canon Inc | Image processing device and method, and program |
JP2016202721A (en) * | 2015-04-27 | 2016-12-08 | コニカミノルタ株式会社 | Medical image display apparatus and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021080024A3 (en) * | 2019-10-25 | 2021-06-17 | 直己 岡田 | Severity assessment device and model generation device |
JP2022018415A (en) * | 2020-07-15 | 2022-01-27 | キヤノンメディカルシステムズ株式会社 | Medical data processing device and method |
Also Published As
Publication number | Publication date |
---|---|
JP7035569B2 (en) | 2022-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Thian et al. | Convolutional neural networks for automated fracture detection and localization on wrist radiographs | |
US10529045B2 (en) | Information processing apparatus and information processing method | |
JP3083606B2 (en) | Medical diagnosis support system | |
WO2019150813A1 (en) | Data processing device and method, recognition device, learning data storage device, machine learning device, and program | |
US8306960B2 (en) | Medical image retrieval system | |
US8527296B2 (en) | Medical information processing system, medical information processing method, and computer readable medium | |
JP4911029B2 (en) | Abnormal shadow candidate detection method, abnormal shadow candidate detection device | |
KR102289277B1 (en) | Medical image diagnosis assistance apparatus and method generating evaluation score about a plurality of medical image diagnosis algorithm | |
JP6074455B2 (en) | DIAGNOSIS SUPPORT DEVICE, DIAGNOSIS SUPPORT DEVICE CONTROL METHOD, PROGRAM, AND DIAGNOSIS SUPPORT SYSTEM | |
JP2019153250A (en) | Device, method, and program for supporting preparation of medical document | |
JP2008102665A (en) | Medical image radiography support system and program | |
JP2007280229A (en) | Similar case retrieval device, similar case retrieval method and program | |
US20200365253A1 (en) | Server for building big data database based on quantification and analysis of medical images and server-based medical image analysis method | |
JP2015203920A (en) | Similar case retrieval system, similar case retrieval method and program | |
US11996182B2 (en) | Apparatus and method for medical image reading assistant providing representative image based on medical use artificial neural network | |
JP6894001B2 (en) | Diagnosis support device, endoscopy device, management device, diagnosis support method, management method, diagnosis support program, and management program | |
JP2017099907A (en) | Diagnosis supporting device and diagnosis supporting method | |
JP2009078082A (en) | Medical information processing system, medical information processing method and program | |
JP2023021231A (en) | Information processor, medical image display device, and program | |
JP7035569B2 (en) | Medical image processing equipment | |
CN111226287B (en) | Method, system, program product and medium for analyzing medical imaging data sets | |
JP2010057727A (en) | Medical image reading system | |
JP2012143368A (en) | Medical image display device and program | |
WO2012005023A1 (en) | Medical image display system and program | |
JP2009039221A (en) | Medical image processing system, medical image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200928 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210813 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210817 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211012 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7035569 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |