JP6200249B2 - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
JP6200249B2
JP6200249B2 JP2013188717A JP2013188717A JP6200249B2 JP 6200249 B2 JP6200249 B2 JP 6200249B2 JP 2013188717 A JP2013188717 A JP 2013188717A JP 2013188717 A JP2013188717 A JP 2013188717A JP 6200249 B2 JP6200249 B2 JP 6200249B2
Authority
JP
Japan
Prior art keywords
distance
information
tomographic image
image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013188717A
Other languages
English (en)
Other versions
JP2015054051A5 (ja
JP2015054051A (ja
Inventor
浩一 石津
浩一 石津
貴之 上野
貴之 上野
石田 卓也
卓也 石田
遠藤 隆明
隆明 遠藤
佐藤 清秀
清秀 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013188717A priority Critical patent/JP6200249B2/ja
Priority to EP14178880.2A priority patent/EP2848199B1/en
Priority to EP18200422.6A priority patent/EP3461413B1/en
Priority to US14/477,324 priority patent/US9767619B2/en
Publication of JP2015054051A publication Critical patent/JP2015054051A/ja
Publication of JP2015054051A5 publication Critical patent/JP2015054051A5/ja
Priority to US15/678,727 priority patent/US10008048B2/en
Application granted granted Critical
Publication of JP6200249B2 publication Critical patent/JP6200249B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/502Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of breast, i.e. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0825Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the breast, e.g. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4263Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors not mounted on the probe, e.g. mounted on an external reference frame
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Quality & Reliability (AREA)

Description

本発明は、断層像を取り扱う技術に関するものである。
医療の分野において、医師は、複数のモダリティで撮像した医用画像(被検体内部の3次元的な情報を表す3次元画像データ)や、異なる日時に撮像した医用画像を用いて診断を行っている。複数種類の医用画像を診断に利用するためには、夫々の医用画像において注目する病変部等の部位(注目部位、注目病変部)を対応付ける(同定する)ことが重要である。そのため、医師は、一方の医用画像上で指摘されている注目病変部の画像を見ながら、病変部の形状やその周辺部の見え方等の類似性を手がかりにして、その病変部に対応する部位(対応部位,対応病変部)を他方の医用画像から探索するという作業を行っている。
乳腺科では、伏臥位で撮像した***のMRI画像上で病変部等が指摘された後に、仰臥位による超音波検査で超音波断層画像上における対応病変部を探索して(同定して)診断を行うことがある。しかし、被検体である***が柔らかく、かつ、***の差異が大きいため、病変部の位置や見え方が大きく変化してしまうという課題がある。そのため、対応病変部の探索は容易ではなく、何らかのコンピュータ支援による負荷の軽減が求められている。
特許文献1では、伏臥位から仰臥位への***の変形推定を行う技術が示されている。この変形推定結果を用いれば、仰臥位における病変部の位置を推定し、推定位置を超音波探触子操作の支援情報として提示できる。また、特許文献2では、***の単純X線画像から乳頭位置を自動で抽出し、そこから一定の範囲内に含まれる画像中の領域を該画像中に描画する技術が示されている。
特開2011-123682号公報 特開2010-227215号公報
特許文献1に記載の方法を用いる場合、有限要素法等の変形シミュレーションの計算が必要なため、操作者(医師)は計算が終了するまで待たなくてはならないという課題がある。また、変形シミュレーションを実施するために操作者が入力すべき計測情報が幾つか存在するが、その入力の手間が許容されない場合があるという課題がある。さらに、***の変形を正確に推定すること自体が容易ではないという課題も残されている。また、特許文献2に記載の方法では、被検体の特徴点から一定の範囲内の領域を知ることができるが、それは画像中に特徴点が含まれる断面のみであるため、任意の断面でその領域を知ることができない。
本発明はこのような問題に鑑みてなされたものであり、画像中で病変部等を探索する際の支援情報を、多くの計測情報を用いずに簡易な計算のみで導出して提示する為の技術を提供する。
本発明の一様態によれば、被検体の断層像を取得する手段と、
前記被検体における基準点から前記被検体における注目部位までの距離としての基準距離を表す情報を取得する距離取得手段と、
前記基準距離を表す情報に基づいて、前記基準点の位置から前記基準距離だけ離間している部分に対応する前記断層像中の箇所を特定する特定手段と
前記箇所を示す情報を前記断層像に合成した合成画像を生成する生成手段と
を備えることを特徴とする。
本発明の構成によれば、画像中で病変部等を探索する際の支援情報を、多くの計測情報を用いずに簡易な計算のみで導出して提示することができる。
情報処理システムの機能構成例を示すブロック図。 コンピュータのハードウェア構成例を示すブロック図。 コンピュータが行う処理のフローチャート。 合成画像の一例を示す図。 情報処理システムの機能構成例を示すブロック図。 コンピュータが行う処理のフローチャート。 合成画像の一例を示す図。 合成画像の一例を示す図。 合成画像の一例を示す図。 合成画像の一例を示す図。 データサーバ560に保持されている情報を説明する図である。 統計情報について説明する図。 情報処理システムの機能構成例を示すブロック図。 コンピュータが行う処理のフローチャート。 第3の実施形態における合成画像の例を説明する図である。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態に係る情報処理システムは、MRI等のモダリティで取得した画像上で病変部等の注目部位が指摘された後に、超音波検査で超音波断層画像上における対応部位を探索(同定)して診断する場合に、その探索の支援情報を操作者に提示するものである。本システムは、***を検査対象とした場合、伏臥位・仰臥位といった***の違いに関わらず、乳頭から病変部等の注目部位までの3次元距離(乳頭注目部位間距離)が保たれる傾向にあるという知見に基づいて、対応部位が存在する可能性の高い場所を超音波断層像上に提示する。また、乳頭から画像上の各点までの距離が把握できるような情報を超音波断層像上に表示することで、超音波断層画像上での対応部位の探索を容易にする。以下、本実施形態に係る情報処理システムについて説明する。
先ず、本実施形態に係る情報処理システムの機能構成例について、図1のブロック図を用いて説明する。図1に示す如く、本実施形態に係る情報処理システムは、データサーバ160、情報処理装置100、医用画像収集装置170、表示部180、を有する。
先ず、データサーバ160について説明する。データサーバ160は、観察対象である被検体の基準点(乳頭)から注目部位までの3次元距離(基準点注目部位間距離)等の情報を保持しており、これを情報処理装置100へと出力する。データサーバ160が保持する基準点注目部位間距離は、同一被検体を撮影したMRI画像等の他の3次元の医用画像から予め算出された数値である。この値は、例えばMRI画像から画像処理によって基準点の位置(乳頭位置)を検出し、操作者が同画像上で指摘した注目部位の位置との間の3次元距離を算出する処理を不図示の画像処理システムが実行することで取得できる。
なお、図1ではデータサーバ160は情報処理装置100の外部装置として示しているが、情報処理装置100内の機器としてもよく、例えば、情報処理装置100に内蔵されているハードディスクなどの機器であっても構わない。
次に、医用画像収集装置170について説明する。本実施形態では、医用画像収集装置170は超音波画像診断装置であるものとして説明する。医用画像収集装置170は、被検体の超音波断層画像(断層像)を実時間で撮像する。医用画像収集装置170によって撮像された各フレームの超音波断層画像は順次、断層画像取得部110を介して情報処理装置100に入力される。また、医用画像収集装置170は、不図示の超音波探触子の空間中の位置姿勢(3次元位置姿勢)を実時間で計測するためのセンサシステムを有している。このセンサシステムによって計測された超音波探触子の位置姿勢は順次、位置姿勢取得部120を介して情報処理装置100に入力される。超音波探触子の位置姿勢を計測するためのセンサシステムには様々な構成が考えられる。例えば、超音波探触子の画像を実時間で撮像し、該画像から超音波探触子の位置姿勢を計算により求めても構わないし、磁気センサや超音波センサ、光学式センサを用いた周知の計測方法で計測しても構わない。
次に、情報処理装置100について説明する。情報処理装置100には、例えば、一般のPC(パーソナルコンピュータ)などを適用することもできるし、専用のハードウェアを適用することもできる。
基準距離取得部105は、データサーバ160から送出される基準点注目部位間距離を、基準距離として取得する。断層画像取得部110は上記の通り、医用画像収集装置170から順次送出される超音波断層画像を後段の画像生成部140に転送する。位置姿勢取得部120は上記の通り、医用画像収集装置170から順次送出される位置姿勢を後段の画像生成部140に転送する。
基準点位置取得部130は、操作者の指示に基づき、超音波探触子の位置姿勢を利用して、空間中における基準点の位置を取得する。
画像生成部140は、基準距離と、基準点の位置と、超音波探触子の位置姿勢と、に基づいて後述する計算処理を行うことで、基準点を中心とし且つ基準距離を半径とする球を、超音波断層画像に対応する断層面で切り取った部分(円)を算出する。そして画像生成部140は、この算出した円のうち超音波断層画像に含まれる部分(円弧)に関する情報を超音波断層画像上に重畳(合成)して、表示制御部150に対して送出する。
表示制御部150は、画像生成部140から送出された合成画像、即ち、超音波断層画像上に円弧に関する情報が重畳された画像を、表示部180に送出することで、該画像を表示部180に表示させる。
表示部180は、CRTや液晶画面などにより構成されており、情報処理装置100による処理結果を画像や文字などでもって表示する。表示部180は例えば、後述する合成画像やGUI(グラフィカルユーザインターフェース)などを表示することができる。
ここで、情報処理装置100を構成する各機能部は何れもハードウェアで構成しても良いが、その一部をソフトウェア(コンピュータプログラム)で構成しても良い。この場合、このソフトウェアは、情報処理装置100が有する制御部によって実行されることで対応する機能が実現されることになる。また、情報処理装置100を構成する各機能部のうち1以上を外部の独立した機器としても構わない。もちろん、情報処理装置100を構成する各機能部をソフトウェアで実現させても良い。
本実施形態では、情報処理装置100を構成する各機能部は何れもソフトウェアで構成するものとして説明する。この場合、情報処理装置100には、図2に示すようなハードウェア構成を有するコンピュータを適用することができる。
CPU1001はRAM1002やROM1003に格納されているコンピュータプログラムやデータを用いてコンピュータ全体の動作制御を行うと共に、本コンピュータを適用する情報処理装置100が行うものとして後述する各処理を実行する。
RAM1002は、外部記憶装置1007や記憶媒体ドライブ1008からロードされたコンピュータプログラムやデータ、I/F(インターフェース)1009を介して外部機器から受信したデータを一時的に記憶するためのエリアを有する。また、RAM1002は、CPU1001が各種の処理を実行する際に用いるワークエリアも有する。すなわち、RAM1002は、各種のエリアを適宜提供することができる。ROM1003には、本コンピュータの設定データやブートプログラムなどが格納されている。
キーボード1004やマウス1005は、本コンピュータの操作者が操作することで各種の指示をCPU1001に入力するためのものである。然るに、各種の指示をCPU1001に入力するための機器であれば、キーボード1004、マウス1005以外の機器を用いても構わない。
外部記憶装置1007は、ハードディスクドライブ装置などの大容量情報記憶装置として機能するものである。外部記憶装置1007には、OS(オペレーティングシステム)や、本コンピュータを適用する情報処理装置100が行うものとして後述する各処理をCPU1001に実行させるためのコンピュータプログラムやデータが保存されている。外部記憶装置1007に保存されているコンピュータプログラムには、情報処理装置100内の機能部として図1に示した機能部(105〜150)の機能をCPU1001に実行させるためのコンピュータプログラムが含まれている。外部記憶装置1007に保存されているデータには、以下の説明において既知の情報として取り扱うものが含まれている。
外部記憶装置1007に保存されているものとして説明したコンピュータプログラムやデータは、CPU1001による制御に従って適宜RAM1002にロードされ、CPU1001による処理対象となる。なお、データサーバ160に保存されているものとして説明した情報をこの外部記憶装置1007に保存させるようにしても構わない。
記憶媒体ドライブ1008は、CD−ROMやDVD−ROMなどの記憶媒体に記憶されているコンピュータプログラムやデータをCPU1001からの指示に従って読み出して、RAM1002や外部記憶装置1007に出力する。外部記憶装置1007に保存されているものとして説明したコンピュータプログラムやデータのうち一部をこの記憶媒体に記憶させておくようにしても構わない。
I/F1009は、アナログビデオポートあるいはIEEE1394等のデジタル入出力ポートや、合成画像などの情報を外部へ出力するためのイーサネットポート等によって構成される。このI/F1009には、上記のデータサーバ160、医用画像収集装置170、表示部180が接続される。なお、一形態として、基準距離取得部105、断層画像取得部110、位置姿勢取得部120、および基準点位置取得部130の機能の一部は、I/F1009によって実現される。以上説明した各部は、バス1010を介して相互に接続される。
次に、情報処理装置100として動作する図2のコンピュータが行う処理について、同処理のフローチャートを示す図3を用いて説明する。なお、図3のフローチャートに従った処理をCPU1001に実行させるためのコンピュータプログラムやデータは外部記憶装置1007に保存されている。CPU1001はこのコンピュータプログラムやデータを外部記憶装置1007からRAM1002にロードし、該コンピュータプログラムやデータを用いて処理を実行する。これにより図2のコンピュータは、図3のフローチャートに従った処理を実行することになる。
(S3000:基準距離の取得)
ステップS3000においてCPU1001は基準距離取得部105として機能し、データサーバ160から送出される基準点注目部位間距離を基準距離として取得する。なお、データサーバ160が基準点注目部位間距離を保持しておらず、この基準点注目部位間距離がデータサーバ160から得られない場合には、本ステップでは基準距離は取得しない。
(S3010:断層画像の取得)
ステップS3010においてCPU1001は断層画像取得部110として機能し、医用画像収集装置170から超音波断層画像を取得する。また、本ステップではCPU1001は位置姿勢取得部120として機能し、医用画像収集装置170から、該超音波断層画像を撮像した際の超音波探触子の位置姿勢を取得する。
(S3020:基準点位置の取得)
ステップS3020においてCPU1001は基準点位置取得部130として機能し、空間中における基準点の位置(乳頭位置)を取得する。この取得処理は、操作者が超音波探触子の所定の部位(例えば、探触子面の中央部)を被検体の乳頭位置に接触させた状態でキーボード1004を操作した際(例えば、基準点位置取得コマンドが割り当てられたキーを押下した際)に実行される。すなわち、上記の操作が実行された時点で位置姿勢取得部120が取得している超音波探触子の位置姿勢から上記所定の部位の位置を求め、これを基準点の位置として取得する。超音波探触子の位置姿勢から上記所定の部位の位置を求める場合、位置姿勢に規定のバイアスを加える方法や規定のマトリクス変換を行う方法がある。
なお、基準点が被検体の体内に存在する場合には、操作者が超音波探触子を操作して該基準点が超音波断層画像上に描出されるようにした後に、該断層画像上の該基準点の座標を操作者が指摘することで、その位置を取得する。
(S3030:画像の合成)
ステップS3030においてCPU1001は画像生成部140として機能し、対応部位が存在する可能性の高い場所を示す情報を超音波断層像上に重畳した画像を生成して、表示部180に送出する。
ここで、画像生成部140(CPU1001)が行う処理について説明する。まず、画像生成部140は、ステップS3020で得た基準点の位置を中心として、ステップS3000で得た基準距離を半径とする球を求める。次に、ステップS3010で得た超音波探触子の位置姿勢に基づいて超音波断層画像が含まれる空間中の平面(すなわち、超音波断面(撮像断面))を求め、その平面で上記球を切り取ってできる円を算出する。最後に、算出した円のうち超音波断層画像に含まれる部分(円弧)を超音波断層画像上に重畳して、合成画像を生成する。
図4に、本処理によって生成される合成画像の一例を示す。図4では、基準点の位置としての乳頭位置410を中心として半径が基準距離420である球を上記平面で切り取ってできる円のうち超音波断層画像に含まれる円弧430が超音波断層画像440に重畳されている。ここで、円弧430は、乳頭位置410からの3次元距離が、ステップS3000で得た基準距離と一致している点の集合である。該被検体において乳頭から病変部までの3次元距離が維持されているならば、対応部位450は円弧430の近辺以外には存在しないので、操作者は円弧430を頼りに対応部位450の探索を行うことができる。
なお、基準距離を基準として、超音波断層画像上の各点がそこからどれくらい離れているのかを示す補助的な情報(基準点から断層画像上の各点までの3次元距離と基準距離との関係を示す情報)をこの超音波断層画像上に重畳させて提示するようにしてもよい。例えば、基準距離に所定の値を加減していくつかの距離を求める。そして求めたそれぞれの距離について、ステップS3020で得た基準点の位置を中心として該距離を半径とする球を求める。そしてそれぞれの距離について求めた球について、同様にして上記平面で切り取る円を求め、求めた円のうち超音波断層画像に含まれる部分(円弧)を超音波断層画像上に重畳して、合成画像を生成する。
図7に、等間隔に設定した複数の値(例えば、5mm、10mm、15mm)を所定の値として用いた場合に、本処理によって生成される合成画像の例を示す。図7では、図4における円弧430と共に、基準距離に所定の値を加減した値を半径とするいくつかの同心球について求めた円弧が、補助線735として超音波断層画像440に重畳されている。また、夫々の補助線が基準距離からどれだけ離れているかを示す文字情報(「−5mm」「+10mm」など)が、付加情報として補助線付近に重畳されている。このような合成画像を表示部180に表示することにより、操作者は、画像上の夫々の点が基準点注目部位間距離からどの程度離れているかを知ることができる。なお、補助線の線種や色は、基準距離からの距離に従って変えてもよい。これらの補助線は常に描画してもよいし、操作者が描画するかどうかをキーボード1004やマウス1005を操作して選べるような構成であってもよい。
なお、ステップS3000で基準距離を取得しなかった場合には、画像生成部140は、上記の処理の代わりに以下の処理を実行する。まず、ステップS3020で得た基準点の位置を中心として、所定の距離(例えば、10mmから100mmまでの10mm刻みの各距離)を半径とする複数の球を算出する。そして、ステップS3010で得た超音波探触子の位置姿勢に基づいて、これらの球を超音波断面で切り取ってできる円を算出する。そして、算出した複数の円において超音波断層画像に含まれる部分(円弧)と夫々の距離を示す情報を超音波断層画像上に重畳することで、合成画像を生成する。図8に、本処理によって生成される合成画像の例を示す。図8では、乳頭位置410を中心として半径が所定の距離(20mm〜60mm)である同心球について求めた円弧が、円弧830として超音波断層画像440に重畳されている。この表示は特に、基準点注目部位間距離を操作者が頭の中で把握している場合に効果を発揮する。すなわち、基準点注目部位間距離をシステムが取得していない場合であっても、操作者は、超音波断層画像上に提示された乳頭からの距離の情報を頼りに、対応部位450を探すことができる。ステップS3000で基準距離を取得している場合であっても、操作者からのキーボード1004やマウス1005を介した指示に応じて表示(基準点注目部位間距離の表示)と本表示(所定の等間隔の距離の表示)を任意に切り換えられる構成であってもよい。また、これらの情報を混在させて提示する構成であってもよい。なお、基準点の位置が未取得の場合には、画像生成部140は、超音波断層画像を出力画像とする。
(S3040:終了判定)
ステップS3040においてCPU1001は、全体の処理を終了するか否かの判定を行う。例えば、キーボード1004の所定のキー(終了キー)が操作者によって押下されたことを検知した場合には、処理を終了すると判断する。
終了すると判定した場合には、CPU1001は処理の全体を終了させる。一方、終了すると判定しなかった場合には、ステップS3010へと処理を戻し、新たに撮像される超音波断層画像に対して、ステップS3010以降の処理を再度実行する。
なお、本実施形態では、***を被検体として、乳頭を基準点とした場合を例にとり説明したが、注目部位と基準点との距離が保存される傾向にある対象であれば、被検体や基準点は何れであってもよい。
このように、本実施形態によれば、基準点(乳頭)から超音波画像上の各点までの3次元の距離を、操作者に容易に把握させることができる。特に、基準点(乳頭)からの距離が「基準点注目部位間距離」となるような点やその近辺の点を示すことで、対応部位の存在する可能性が高い場所を操作者に提示できる。本実施形態によると、超音波断層画像中で対応部位を探索する際の目安が超音波断層画像中に表示されるので、操作者が対応部位を探索する範囲を限定することができる。また、探索の範囲を限定できるので、操作者の作業負荷を軽減するとともに、誤った対応付けを行ってしまう危険性を軽減することができる。また、変形推定等の計算は行わないため、操作者を待たせることなく対応部位の検索を支援することができる。また、必要とする入力情報が少ないため、操作者を煩わせることなく対応部位の検索を支援することができる。
<第1の実施形態の変形例>
第1の実施形態では、医用画像収集装置170として超音波画像診断装置を用いる場合を例としたが、医用画像収集装置170は他の何れのモダリティであってもよい。医用画像収集装置170がCTやMRIの場合には、情報処理装置100は、3次元画像を事前に取得しておく。そして、ステップS3010の処理において、周知の医用画像ビューアにあるようなGUIを用いて注目断面を指定し、該3次元画像から断面画像を取得するとともに、その断面の位置姿勢を取得するようにすればよい。また、ステップS3020の処理において、周知の医用画像ビューアにあるようなGUIを用いて該3次元画像中における基準点の3次元座標を取得するようにすればよい。
また、データサーバ160が保持する基準点注目部位間距離は、MRI画像から得たものでなくてもよい。例えば、他のモダリティや過去の超音波検査の際に得た画像から、基準点と注目部位の位置を得ることで求めた距離であってもよい。
また、第1の実施形態では、基準距離取得部105は、データサーバ160から基準点注目部位間距離を取得していたが、基準点注目部位間距離の取得方法はこれに限るものではない。例えば、不図示のGUIを用いて操作者がキーボード1004やマウス1005を用いて入力した距離を基準距離取得部105が基準距離として取得する構成であってもよい。また、基準距離取得部105がデータサーバ160から被検体の医用画像を取得し、この医用画像から注目部位や基準点の位置(乳頭位置)を基準距離取得部105が取得して基準点注目部位間距離を算出する構成であってもよい。また、基準距離取得部105がデータサーバ160から被検体の医用画像と注目部位の位置を取得し、この医用画像から基準点の位置のみを基準距離取得部105が取得して基準点注目部位間距離を算出する構成であってもよい。なお、基準距離取得部105が医用画像から注目部位や基準点の位置を取得する場合、その位置を操作者が手作業で入力する構成であってもよいし、画像処理によって自動検出する構成であってもよい。
[第2の実施形態]
第1の実施形態では、基準点注目部位間距離が保存される傾向にある対象に共通して利用可能な(対象を限定しない)実施形態について説明した。第2の実施形態は、伏臥位のMRI画像から乳頭注目部位間距離を取得し、仰臥位の超音波検査を支援する場合のように、対象、すなわち、臓器(***)、基準点(乳頭)、および前後の***(伏臥位と仰臥位)が特定される場合の実施形態である。本実施形態は、このような特定の対象に関する基準点注目部位間距離の統計情報を取得し、その統計情報に基づいて支援情報を制御することを特徴とする。さらに本実施形態では、乳頭注目部位間距離の統計的な振る舞いが被検体や注目領域の属性によって異なることを考慮し、被検体や注目領域の属性に応じた統計情報に基づいて支援情報を制御することを特徴とする。ここで、被検体や注目領域の属性とは、その差異によって乳頭注目部位間距離の統計的な振る舞いが異なることが知られている属性、例えば、被験者の年齢、バストサイズ、***内において注目部位が属する領域等である。以下、統計情報を用いて表示を制御することを特徴とする本実施形態に係る情報システムについて、第1の実施形態との相違部分についてのみ説明する。即ち、以下で特に触れない限りは、第1の実施形態と同様である。
本実施形態に係る情報処理システムの機能構成例について、図5のブロック図を用いて説明する。なお、図5において図1と同じ機能部については同じ参照番号を付しており、説明は省略する。図5に示す如く、本実施形態に係る情報処理システムは、データサーバ560、情報処理装置500、医用画像収集装置170、表示部180、を有する。
データサーバ560は、被検体の基準点注目部位間距離に加え、当該基準点注目部位間距離を取得する元となった被検体の3次元画像データを保持している。また、その3次元画像データ内での注目部位の位置(3次元座標)を保持している。また、注目部位が***内の何れの領域に属すかを表す情報を保持している。例えば、図11(a)に示すような、***の内側と外側の何れに属すかを表す情報を保持している。あるいは、図11(b)に示すような、***のA領域(内側上部),B領域(内側下部),C領域(外側上部),D領域(外側下部),E領域(乳輪部)の何れに属すかを表す情報を保持している。また、被験者の年齢やバストサイズ(カップサイズや***領域の体積等)の情報等を保持している。データサーバ560は、保持している上記のデータを情報処理装置500へと出力する。
対応距離算出部510は、データサーバ560から、被検体の3次元画像データ、3次元画像データ内での注目部位の位置、注目部位が***内の何れの領域に属するのか、及び、被験者の年齢やバストサイズの情報等を取得する。そして対応距離算出部510は、これらの情報に基づいて基準点注目部位間距離の統計情報を取得し、この統計情報に基づいて基準点注目部位間距離(基準距離)から基準点対応部位間距離の推定値(以下、対応距離)を算出する。そして、算出した対応距離の値を画像生成部540に出力する。
ここで、本実施形態における統計情報と対応距離について説明する。例えば、伏臥位から仰臥位に***が変化すると乳頭注目部位間距離が平均的にはα倍になるという統計情報がある場合には、基準距離r[mm]にαを乗算した値を対応距離r’(対応部位が最も存在しそうな距離)とする。また、伏臥位から仰臥位に***が変化すると乳頭注目部位間距離が標準偏差σ[mm]で維持されるという統計情報がある場合には、r−2σ,r−σ,r,r+σ,r+2σの各距離を対応距離(対応部位が存在しそうな距離の範囲を表す情報)とする。また、上記のαとσが共に得られている場合には、r’−2σ,r’−σ,r’,r’+σ,r’+2σの各距離を対応距離とする。すなわち、本実施形態における統計情報とは、上記の倍率αや標準偏差σを表す。また、対応距離とは、これらの統計情報と基準距離から導出される、***の変化後に対応部位が存在しそうな距離やその範囲を表すものとする。
対応距離算出部510は、多数の症例について収集した伏臥位と仰臥位における乳頭注目部位間距離の計測値を用いて、これらに(症例を区別せずに)統計処理を施すことで算出した、被検体によらない統計情報として上記のαとσを管理している。また、対応距離算出部510は、多数の症例を病変部の属する領域(内側/外側、あるいはA〜E領域)で分類した上で領域毎に統計処理を施すことで算出した、領域ごとの統計情報を管理している。同様に、対応距離算出部510は、被験者の年齢とバストサイズ、乳頭注目部位間距離、体表注目部位間距離、乳腺密度等を所定の区間で区切り、多数の症例を夫々の基準で分類した上で統計処理を施すことで算出した、夫々の基準における区間ごとの統計情報を管理している。なお、統計情報としては、多数の症例に実際に統計処理を施すことで得た値を用いることは必須ではなく、(装置設計者等が)人手で設定した値を用いる構成であってもよい。
なお、統計情報の管理の仕方は、統計処理を施した区間毎の統計情報を保持する方法に限定されるものではなく、他の方法であってもよい。例えば、被験者の年齢、バストサイズ、乳頭注目部位間距離、体表注目部位間距離、乳腺密度等の少なくとも1つ以上の組合せを入力パラメータxとして、統計情報を近似するxの関数を保持するようにしてもよい。すなわち、xを入力としてαを出力する関数f_α(x)や、xを入力としてσを出力する関数f_σ(x)の形で統計情報を管理するようにしてもよい。
画像生成部540は、対応距離算出部510が算出した対応距離と、基準点位置と超音波探触子の位置姿勢に基づいて、基準点を中心とし対応距離を半径とする球を断層面で切り取ってできる円を算出する。そして画像生成部540は、算出した円のうち超音波断層画像に含まれる部分(円弧)に関する情報を超音波断層画像上に重畳して、合成画像を生成して、表示制御部150に対して送出する。即ち、基準距離の代わりに対応距離を用いること以外は、第1の実施形態と同様にして合成画像を生成している。
なお、図5に示した情報処理装置500中の各機能部をコンピュータプログラムで実装した場合には、第1の実施形態と同様、この情報処理装置500には、図2のコンピュータを適用することができる。即ち、情報処理装置500中の各機能部をコンピュータプログラムで実装した場合には、このコンピュータプログラムはCPU1001によって実行されることになり、これによりこのコンピュータは情報処理装置500として機能することになる。
次に、情報処理装置500として動作する図2のコンピュータが行う処理について、同処理のフローチャートを示す図6を用いて説明する。なお、図6のフローチャートに従った処理をCPU1001に実行させるためのコンピュータプログラムやデータは外部記憶装置1007に保存されている。CPU1001はこのコンピュータプログラムやデータを外部記憶装置1007からRAM1002にロードし、該コンピュータプログラムやデータを用いて処理を実行する。これにより図2のコンピュータは、図6のフローチャートに従った処理を実行することになる。
また、図6において、ステップS6000,S6010,S6020,S6040のそれぞれは、図3に示すフローチャートのステップS3000,S3010,S3020,S3040と同じ処理ステップであるため、これらのステップに係る説明は省略する。
(S6003:算出方法の取得)
ステップS6003においてCPU1001は、操作者がキーボード1004の所定のキーを押下するなどにより入力した、対応距離の算出方法を取得する。本実施形態では、以下の算出方法のいずれかを操作者が選択することになる。
1. 被検体によらない統計情報に基づく算出
2. 注目部位が属する領域に基づく算出
3. 被験者の年齢とバストサイズに基づく算出
4. 注目部位の乳頭からの距離(乳頭注目部位間距離)に基づく算出
5. 注目部位の体表からの距離(体表注目部位間距離)に基づく算出
6. 被検体の乳腺密度に基づく算出
例えばこの6つの選択肢を選択可能に表示するGUIを表示部180に表示する。そして、操作者がキーボード1004やマウス1005を用いてこの6つの選択肢のうちの1つを選択する指示を入力すると、CPU1001がこの選択された選択肢を、以降で採用する算出方法として検知するようにしてもよい。
もちろん、算出方法を指定する方法はこのような方法に限るものではなく、予め定められていてもよいし、検査内容やコンピュータが属する科に応じて決められてもよい。また、選択肢(算出方法)も上記の6つに限るものではない。
(S6005:各種データの取得)
ステップS6005においてCPU1001は対応距離算出部510として機能する。これにより、CPU1001は、データサーバ560から、基準距離、被検体の3次元画像データ、3次元画像データ内での注目部位の位置、注目部位が***内の何れの領域に属するのか、及び、被験者の年齢やバストサイズの情報等を取得する。
(S6025:対応距離の算出)
ステップS6025においてCPU1001は対応距離算出部510として機能し、ステップS6005で取得したデータに基づいて、前述の対応距離を算出する。この処理は、統計情報としての倍率αと標準偏差σを得て、その値に基づき基準距離rから対応距離の代表値r’と、その範囲r’−2σ,r’−σ,r’+σ,r’+2σを求めることで実行される。
ステップS6003で方法1(被検体によらない統計情報に基づく算出)が選択されている場合には、被検体によらない統計情報α,σを、以降で用いる統計情報として選択する。
ステップS6003で方法2(注目部位が属する領域に基づく算出)が選択されている場合には、ステップS6005で取得した注目部位が属する領域(内側/外側、あるいはA〜E領域)に対応するαとσの値を、以降で用いる統計情報として選択する。例えば、図12(a)に示すように、被験者1の注目部位がC領域に、被験者2の注目部位がB領域に存在していたとする。このとき、本ステップの処理として、被験者1では、C領域に対応する統計情報である倍率αCと分散σCが選択される。また、被験者2では、B領域に対応する統計情報である倍率αBと分散σBが選択される。
ステップS6003で方法3(被験者の年齢とバストサイズに基づく算出)が選択されている場合には、ステップS6005で取得した被験者の年齢とバストサイズとの組み合わせに対応するαとσの値を、以降で用いる統計情報として選択する。
ステップS6003で方法4(乳頭注目部位間距離に基づく算出)が選択されている場合には、ステップS6000で取得した乳頭注目部位間距離に対応するαとσの値を、以降で用いる統計情報として選択する。
ステップS6003で方法5(体表注目部位間距離に基づく算出)が選択されている場合には、体表注目部位間距離を導出し、導出した体表注目部位間距離に対応するαとσの値を、以降で用いる統計情報として選択する。ここで、体表注目部位間距離の導出は、以下の処理によって行う。まず、CPU1001は対応距離算出部510として機能し、3次元画像データに画像処理を施し、体表領域(***領域と体外との境界領域)を導出する。そして、注目部位に対する体表位置の最近傍点を探索し、注目部位から最近傍点までの距離を体表注目部位間距離として算出する。
また、ステップS6003で方法6(被検体の乳腺密度に基づく算出)が選択されている場合には、被検体の乳腺密度を導出し、導出した乳腺密度に対応するαとσの値を、以降で用いる統計情報として選択する。ここで、被検体の乳腺密度の導出は、以下の処理によって行う。例えば、3次元画像データから***領域を取得し、その中の脂肪領域と乳腺領域を分類し、***領域に含まれる乳腺領域の割合を求めることで、乳腺密度を算出する。***領域は、体表から胸壁までの間の領域であり、体側方向には左右の***の乳腺外縁が含まれるような範囲であるような領域として、画像処理によって取得できる。上記の***領域内での脂肪領域と乳腺領域の分類法として、例えば、画像の輝度値に基づいて、ある閾値で領域内を2値化処理するなどの方法で分類することができる。このようにして***領域内での乳腺領域の割合を求め、これを乳腺密度とすることができる。また、***領域内での輝度値の平均値を求めて、乳腺密度を表す値として取得してもよい。また、注目部位と乳頭の位置(基準点位置)を考慮することで、乳頭−注目部位間の近辺の局所的な乳腺密度を求める構成であってもよい。例えば、注目部位と乳頭を結ぶ線分を中心とした所定の半径の円柱を定義し、この円柱の範囲内における乳腺密度を求めるようにしてもよい。また、***領域を数十ボクセル程度のブロックに分割して夫々のブロック内での乳腺密度を求め、注目部位と乳頭を結ぶ線分から各ブロックまでの距離に応じた重みづけをした各ブロックの乳腺密度の加重平均値を乳腺密度としてもよい。
なお、被験者の年齢、バストサイズ、乳頭注目部位間距離、体表注目部位間距離、乳腺密度等を入力パラメータxとする関数の形で統計情報を保持している場合には、被験者に関する当該パラメータをこの関数に入力することで、倍率αと標準偏差σを算出する。
(S6030:画像の合成)
ステップS6030でCPU1001は画像生成部540として機能し、超音波断層画像、超音波探触子の位置姿勢、基準点位置、対応距離、に基づいて、対応部位が存在する可能性の高い場所を示す情報を超音波断層像上に重畳した画像を生成する。そしてCPU1001は生成した画像を表示部180に送出する。
まず、画像生成部540(CPU1001)は、ステップS6020で得た基準点の位置を中心として、ステップS6025で得た対応距離の夫々(r’−2σ,r’−σ,r’,r’+σ,r’+2σ)を半径とする球を求める。ここでは中心位置は同じで半径が異なる5つの球を求めることになる。
次に、ステップS6010で得た超音波探触子の位置姿勢に基づいて超音波断層画像が含まれる空間中の平面(すなわち、超音波断面(撮像断面))を求め、その平面で上記球(5の球)を切り取ってできる円(5つの円)を算出する。最後に、算出した円のうち超音波断層画像に含まれる部分(円弧)を超音波断層画像上に重畳して、合成画像を生成する。
図9に、本処理によって生成される合成画像の例を示す。図9では、乳頭位置410を中心として半径が対応距離の夫々である同心球の断面が、円弧930及び補助線935として超音波断層画像440に重畳されている。また、標準偏差を示す文字情報(「−2σ」「−σ」「σ」「2σ」など)が、付加情報として夫々の補助線付近に重畳表示されている。前述の図12(a)の状況を考えると、乳頭注目部位間距離が同じrであっても、図12(b)のように、被験者1ではC領域の統計情報に基づく情報が、被験者2ではB領域の統計情報に基づく情報が重畳表示される。
図10は、本実施形態における合成画像の別の例であり、標準偏差σ内の領域と2σ内の領域を半透明に色付けして、存在範囲1035として提示している。このように提示された支援情報を参考にして対応部位450を探索することで、操作者は探索の範囲を絞ることができる。
以上によって、乳頭注目部位間距離に関する統計情報を利用して、対応部位が存在する可能性の高い位置を超音波断層画像中に描画して、操作者に提示することができる。また、被検体や注目領域の属性に応じた統計情報を用いることで、より可能性の高い位置を提示できる。この提示をすることで、より効果的な探索範囲を操作者に示すことができ、操作者が誤った対応付けを行うことを防ぎ、広範囲を探索する手間をさらに低減することができる。
[第3の実施形態]
第3の実施形態は、注目部位の空間的な広がり(サイズ)を考慮した提示を行う実施形態である。以下、本実施形態に係る情報システムについて、第1の実施形態との相違部分についてのみ説明する。即ち、以下で特に触れない限りは、第1の実施形態と同様である。
本実施形態に係る情報処理システムの機能構成例について、図13のブロック図を用いて説明する。なお、図13において図1と同じ機能部については同じ参照番号を付しており、説明は省略する。図13に示す如く、本実施形態に係る情報処理システムは、データサーバ1360、情報処理装置1300、医用画像収集装置170、表示部180、を有する。
データサーバ1360は、第1の実施形態で説明した基準点注目部位間距離等の情報に加えて、注目部位の空間的な広がりに関する情報を保持している。ここで、注目部位の空間的な広がりに関する情報とは、例えば、注目部位の最大径Rである。あるいは、基準点から注目部位の最も近い点までの距離(最小距離Dmin)、及び、最も遠い点までの距離(最大距離Dmax)である。前者の情報は、基準点注目部位間距離を取得する元となった被検体の3次元画像データから、画像処理によって注目部位を表す領域を検出して求めることができる。また後者の情報は、該3次元画像データ内における乳頭位置と、注目部位のボクセルにラベル付けをした情報に基づいて算出することができる。データサーバ1360は、保持している上記データを情報処理装置1300へと出力する。
表示範囲算出部1310は、データサーバ1360から、注目部位の空間的な広がりに関する情報を取得する。そして、この情報に基づいて基準距離に対する表示範囲を算出する。そして、算出した表示範囲の値を画像生成部1340に出力する。
画像生成部1340は、第1の実施形態の画像生成部140と同様に、基準距離と、基準点の位置と、超音波探触子の位置姿勢とに基づいて、基準点からの距離が基準距離となる円弧の情報を超音波断層画像上に重畳する。また、表示範囲算出部1310で算出した表示範囲の値を更に用いることで、基準距離から幅を持たせた領域の情報を超音波断層画像上に重畳する。
なお、図13に示した情報処理装置1300中の各機能部をコンピュータプログラムで実装した場合には、第1の実施形態と同様、この情報処理装置1300には、図2のコンピュータを適用することができる。即ち、情報処理装置1300中の各機能部をコンピュータプログラムで実装した場合には、このコンピュータプログラムはCPU1001によって実行されることになり、これによりこのコンピュータは情報処理装置1300として機能することになる。
次に、情報処理装置1300として動作する図2のコンピュータが行う処理について、同処理のフローチャートを示す図14を用いて説明する。なお、図14のフローチャートに従った処理をCPU1001に実行させるためのコンピュータプログラムやデータは外部記憶装置1007に保存されている。CPU1001はこのコンピュータプログラムやデータを外部記憶装置1007からRAM1002にロードし、該コンピュータプログラムやデータを用いて処理を実行する。これにより図2のコンピュータは、図14のフローチャートに従った処理を実行することになる。
図14において、ステップS14000、S14010、S14020、S14040の夫々は、図3に示すフローチャートのステップS3000、S3010、S3020、S3040と同じ処理ステップであるため、これらのステップに係る説明は省略する。
(S14005:注目部位の空間的な広がりの取得)
ステップS14005においてCPU1001は表示範囲算出部1310として機能し、データサーバ1360から、注目部位の空間的な広がりに関する情報を取得する。例えば、注目部位の最大径Rや、基準点から注目部位までの最小距離Dmin及び最大距離Dmaxを取得する。
(S14007:表示範囲の算出)
ステップS14007においてCPU1001は表示範囲算出部1310として機能し、ステップS14005 で取得した注目部位の空間的な広がりに関する情報に基づいて表示範囲を算出する。具体的には、基準点位置からの距離の下限値と上限値を表示範囲として定める。例えば、注目部位の最大径Rを取得している場合には、基準距離rに基づいて、下限値r−R/2から上限値r+R/2までを表示範囲とする。また、乳頭注目部位間の最小距離Dmin及び最大距離Dmaxを取得している場合には、下限値Dminから上限値Dmaxまでを表示範囲とする。
(S14030:画像の合成)
ステップS14030においてCPU1001は画像生成部1340として機能し、対応部位の空間的な広がりを考慮した上で、対応部位が存在する可能性の高い場所を示す情報を超音波断層像上に重畳した画像を生成する。具体的には、ステップS14007で取得した表示範囲、すなわち、距離の上限値と下限値の夫々に対応する円弧を超音波断層画像上に重畳した合成画像を生成する。あるいは、該円弧で囲まれる領域を半透明に色付けして超音波断層画像上に重畳した合成画像を生成する。なお、基準点から所定の距離にある超音波断層画像上の円弧を求める処理は、第1の実施形態のステップS3030における基準距離に対する処理と同様であるので、説明を省略する。
図15は、本実施形態における合成画像の例である。この例では、基準距離の円弧430を描画すると同時に、基準点から半径r−R/2、r+R/2の球で囲まれる範囲内を半透明で色付けして、存在範囲1510として提示している。
以上によって、注目部位の空間的な広がりを考慮した提示を行う。この提示により、操作者は、対象部位の空間的な広がりを考慮した探索を行うことができる。
[第4の実施形態]
上記の説明において、画面内に一度に表示するものとして説明した情報は、一度に表示することに限るものではなく、そのうちのいくつかを表示するようにしても構わないし、ユーザ指示に応じて切り替えて表示してもよい。
また、上記の説明では、対応部位が存在する可能性の高い位置を様々な形態で超音波断層画像中に描画して操作者に提示していたが、乳腺上で発生する病変ではない場合等、病変の種類によってはこのような提示は誤ったものとなる。そこで、病変の種類に応じて、上記合成処理を行う/行わないを切り替えるようにしても構わない。
例えば、操作者が病変の種類を識別し、乳腺上で発生する病変ではないと判断した場合には、上記合成処理を行わないようにキーボード1004やマウス1005を用いて指定してもよい。
また、超音波断層画像と、MRIによる3次元画像において対応する断面画像と、を同じ画面上に並べて表示する。いわゆる「Fusion表示」というものがある。このようなFusion表示では、それぞれ同じ断面位置における画像を並べて表示することが好ましいが、患者の体動等の影響により超音波断層画像の撮像中にそれぞれの断面位置がずれてしまう。
そこで、「位置合わせモード」と「撮影モード」とを設ける。例えば、表示部180の画面上に「位置合わせモード」を選択指示するためのボタン画像と、「撮影モード」を選択指示するためのボタン画像とを表示させる。そして、操作者がキーボード1004やマウス1005を操作して「位置合わせモード」のボタン画像を指定した場合、CPU1001はコンピュータのモードを「位置合わせモード」に設定する。一方、操作者がキーボード1004やマウス1005を操作して「撮影モード」のボタン画像を指定した場合、CPU1001はコンピュータのモードを「撮影モード」に設定する。なお、モードの設定方法はこれに限るものではない。そして、「位置合わせモード」が設定されると、CPU1001は上記合成処理を許可し、「撮影モード」が設定されると、CPU1001は上記合成処理を禁止する。これにより、同じ断面位置における画像を並べて表示すべく、操作者が超音波探触子の位置を調節する場合の参考情報を提示することができる。
また、伏臥位−仰臥位の各画像をFusion表示する場合は上記合成処理を許可し、仰臥位−仰臥位の各画像をFusion表示する場合には上記合成処理を禁止させるようにしても構わない。
このように、情報処理システムを使用する目的や状況に応じて、上記合成処理を許可したり禁止したりすることも可能である。また、合成処理全てを禁止したり許可したりするのではなく、例えば、円弧及び該円弧に対応する文字情報(例えば5mm、10mm、15mmなど))の何れかのみを許可/禁止してもよい。また、合成処理の許可/禁止に代えて、円弧及び該円弧に対応する文字情報のセットをいくつ表示するのかを制御してもよい。例えば、上記「位置合わせモード」では表示セット数を増加させ、「撮影モード」では表示セット数を減少させる。また、上記の説明は適宜組み合わせて使用しても構わない。
このように、上記の説明の骨子は、被検体の断層像を取得し、被検体における基準点から規定距離だけ離間した部分に対応する断層像中の箇所を特定し、断層像に該特定した箇所を示す情報を合成した合成画像を生成して出力する技術を基本とするものである。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (32)

  1. 被検体の断層像を取得する手段と、
    前記被検体における基準点から前記被検体における注目部位までの距離としての基準距離を表す情報を取得する距離取得手段と、
    前記基準距離を表す情報に基づいて、前記基準点の位置から前記基準距離だけ離間している部分に対応する前記断層像中の箇所を特定する特定手段と、
    前記箇所を示す情報を前記断層像に合成した合成画像を生成する生成手段と
    を備えることを特徴とする情報処理装置。
  2. 前記特定手段は、前記断層像に対応する前記被検体の撮像断面で、前記基準点の位置を中心とし且つ前記基準距離を半径とする球を切り取った円を決定し、該円のうち前記断層像に含まれる円弧を前記箇所として特定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記生成手段は、前記断層像に前記円弧を重畳した画像を前記合成画像として生成することを特徴とする請求項2に記載の情報処理装置。
  4. 前記生成手段は、前記断層像に前記基準距離を示す文字を重畳した画像を前記合成画像として生成することを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
  5. 前記基準距離を表す情報に基づいて対応距離を表す情報を取得する対応距離取得手段を更に備え、
    前記特定手段は、前記対応距離を表す情報に基づいて、前記基準点の位置から前記対応距離だけ離間している部分に対応する前記断層像中の追加箇所を特定し、
    前記生成手段は、前記箇所を示す情報及び前記追加箇所を示す情報を前記断層像に合成した画像を前記合成画像として生成する
    ことを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
  6. 被検体の断層像を取得する手段と、
    前記被検体における基準点から前記被検体における注目部位までの距離としての基準距離を表す情報を取得する距離取得手段と、
    前記基準距離を表す情報に基づいて対応距離を表す情報を取得する対応距離取得手段と、
    前記対応距離を表す情報に基づいて、前記基準点の位置から前記対応距離だけ離間している部分に対応する前記断層像中の箇所を特定する特定手段と、
    前記箇所を示す情報を前記断層像に合成した合成画像を生成する生成手段と
    を備えることを特徴とする情報処理装置。
  7. 前記対応距離取得手段は、前記被検体の特性情報に基づいて前記対応距離を表す情報を取得することを特徴とする請求項5又は6に記載の情報処理装置。
  8. 前記被検体は***であって、前記特性情報は乳腺密度であることを特徴とする請求項7に記載の情報処理装置。
  9. 前記対応距離取得手段は、前記注目部位の位置を表す情報に基づいて前記対応距離を表す情報を取得することを特徴とする請求項5乃至8の何れか1項に記載の情報処理装置。
  10. 前記生成手段は、ユーザから指定されたモードに応じて、前記合成画像を生成せずに前記断層像を出力する、若しくは前記合成画像を生成することを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。
  11. 前記被検体は***、前記基準点は該***における乳頭であることを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
  12. 前記被検体の3次元画像を取得する取得手段を更に備え、
    前記距離取得手段は、前記3次元画像内での前記基準点の位置及び前記注目部位の位置を表す情報を取得し、該基準点の位置及び該注目部位の位置を表す情報に基づいて、前記基準距離を表す情報を取得することを特徴とする請求項1乃至11の何れか1項に記載の情報処理装置。
  13. 表示制御手段を更に備え、
    前記生成手段は、前記基準点から複数の距離のそれぞれ離間した複数の部分に対応する前記断層像中の複数の箇所を示す情報を前記断層像に合成した合成画像を生成し、
    前記表示制御手段は、前記基準点の位置から前記基準距離だけ離間している部分に対応する前記断層像中の箇所を示す情報を前記断層像に合成した合成画像と、前記複数の箇所を示す情報を前記断層像に合成した合成画像と、を切り替えて表示させる
    ことを特徴とする請求項1乃至12の何れか1項に記載の情報処理装置。
  14. 被検体の断層像を取得
    前記被検体における基準点から前記被検体における注目部位までの距離としての基準距離を表す情報を取得
    前記基準距離を表す情報に基づいて、前記基準点の位置から前記基準距離だけ離間している部分に対応する前記断層像中の箇所を特定
    前記箇所を示す情報を前記断層像に合成した合成画像を生成する
    ことを特徴とする情報処理方法。
  15. 前記断層像に対応する前記被検体の撮像断面で、前記基準点の位置を中心とし且つ前記基準距離を半径とする球を切り取った円を決定し、該円のうち前記断層像に含まれる円弧を前記箇所として特定することを特徴とする請求項14に記載の情報処理方法。
  16. 前記断層像に前記円弧を重畳した画像を前記合成画像として生成することを特徴とする請求項15に記載の情報処理方法。
  17. 前記断層像に前記基準距離を示す文字を重畳した画像を前記合成画像として生成することを特徴とする請求項14乃至16の何れか1項に記載の情報処理方法。
  18. 前記基準距離を表す情報に基づいて対応距離を表す情報を取得し、
    前記対応距離を表す情報に基づいて、前記基準点の位置から前記対応距離だけ離間している部分に対応する前記断層像中の追加箇所を特定し、
    前記箇所を示す情報及び前記追加箇所を示す情報を前記断層像に合成した画像を前記合成画像として生成する
    ことを特徴とする請求項14乃至17の何れか1項に記載の情報処理方法。
  19. 被検体の断層像を取得し、
    前記被検体における基準点から前記被検体における注目部位までの距離としての基準距離を表す情報を取得し、
    前記基準距離を表す情報に基づいて対応距離を表す情報を取得し、
    前記対応距離を表す情報に基づいて、前記基準点の位置から前記対応距離だけ離間している部分に対応する前記断層像中の箇所を特定し、
    前記箇所を示す情報を前記断層像に合成した合成画像を生成する
    ことを特徴とする情報処理方法。
  20. 前記被検体の特性情報に基づいて前記対応距離を表す情報を取得することを特徴とする請求項18又は19に記載の情報処理方法。
  21. 前記被検体は***であって、前記特性情報は乳腺密度であることを特徴とする請求項20に記載の情報処理方法。
  22. 前記注目部位の位置を表す情報に基づいて前記対応距離を表す情報を取得することを特徴とする請求項18乃至21の何れか1項に記載の情報処理方法。
  23. ユーザから指定されたモードに応じて、前記合成画像を生成せずに前記断層像を出力する、若しくは前記合成画像を生成することを特徴とする請求項14乃至22の何れか1項に記載の情報処理方法。
  24. 前記被検体は***、前記基準点は該***における乳頭であることを特徴とする請求項14乃至23の何れか1項に記載の情報処理方法。
  25. 前記被検体の3次元画像を取得し、
    前記3次元画像内での前記基準点の位置及び前記注目部位の位置を表す情報を取得し、該基準点の位置及び該注目部位の位置を表す情報に基づいて、前記基準距離を表す情報を取得することを特徴とする請求項14乃至24の何れか1項に記載の情報処理方法。
  26. 前記基準点から複数の距離のそれぞれ離間した複数の部分に対応する前記断層像中の複数の箇所を示す情報を前記断層像に合成した合成画像を生成し、
    前記基準点の位置から前記基準距離だけ離間している部分に対応する前記断層像中の箇所を示す情報を前記断層像に合成した合成画像と、前記複数の箇所を示す情報を前記断層像に合成した合成画像と、を切り替えて表示させる
    ことを特徴とする請求項14乃至25の何れか1項に記載の情報処理方法。
  27. 被検体の断層画像を取得する断層画像取得手段と、
    前記被検体の基準点の3次元位置を取得する基準点位置取得手段と、
    前記断層画像の位置姿勢を取得する位置姿勢取得手段と、
    前記基準点の3次元位置と前記断層画像の位置姿勢とに基づいて、前記基準点から前記断層画像上の各点までの3次元距離に関する情報を前記断層画像上に重畳して表示手段に表示させる表示制御手段と、
    前記基準点から注目部位までの3次元距離である基準距離を表す情報を取得する基準距離取得手段と、
    前記基準距離を表す情報に基づいて対応距離を表す情報を取得する対応距離取得手段と
    を有し、
    前記表示制御手段が表示する情報は、前記基準点から前記断層画像上の各点までの3次元距離と前記対応距離との関係を表す情報であることを特徴とする情報処理装置。
  28. 前記対応距離取得手段は、前記被検体の乳腺密度に基づいて前記対応距離を表す情報取得することを特徴とする請求項27に記載の情報処理装置。
  29. 前記注目部位は、前記被検体における病変部であることを特徴とする請求項1乃至13,27,28の何れか1項に記載の情報処理装置。
  30. 被検体の断層画像を取得し、
    前記被検体の基準点の3次元位置を取得し、
    前記断層画像の位置姿勢を取得し、
    前記基準点の3次元位置と前記断層画像の位置姿勢とに基づいて、前記基準点から前記断層画像上の各点までの3次元距離に関する情報を前記断層画像上に重畳して表示手段に表示させる情報処理方法であって、
    前記基準点から注目部位までの3次元距離である基準距離を表す情報を取得し、
    前記基準距離を表す情報に基づいて対応距離を表す情報を取得し、
    前記表示手段に表示される情報は、前記基準点から前記断層画像上の各点までの3次元距離と前記対応距離との関係を表す情報であることを特徴とする情報処理方法。
  31. 前記注目部位は、前記被検体における病変部であることを特徴とする請求項14乃至26,30の何れか1項に記載の情報処理方法。
  32. コンピュータに請求項14乃至26,30,31の何れか1項に記載の情報処理方法を実行させるためのコンピュータプログラム。
JP2013188717A 2013-09-11 2013-09-11 情報処理装置、情報処理方法 Active JP6200249B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013188717A JP6200249B2 (ja) 2013-09-11 2013-09-11 情報処理装置、情報処理方法
EP14178880.2A EP2848199B1 (en) 2013-09-11 2014-07-29 Information processing apparatus, information processing method, and computer-readable storage medium
EP18200422.6A EP3461413B1 (en) 2013-09-11 2014-07-29 Information processing apparatus, information processing method and computer program
US14/477,324 US9767619B2 (en) 2013-09-11 2014-09-04 Information processing apparatus and information processing method
US15/678,727 US10008048B2 (en) 2013-09-11 2017-08-16 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013188717A JP6200249B2 (ja) 2013-09-11 2013-09-11 情報処理装置、情報処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017162689A Division JP6387166B2 (ja) 2017-08-25 2017-08-25 情報処理装置、情報処理方法

Publications (3)

Publication Number Publication Date
JP2015054051A JP2015054051A (ja) 2015-03-23
JP2015054051A5 JP2015054051A5 (ja) 2016-10-27
JP6200249B2 true JP6200249B2 (ja) 2017-09-20

Family

ID=51392050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013188717A Active JP6200249B2 (ja) 2013-09-11 2013-09-11 情報処理装置、情報処理方法

Country Status (3)

Country Link
US (2) US9767619B2 (ja)
EP (2) EP2848199B1 (ja)
JP (1) JP6200249B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5400466B2 (ja) 2009-05-01 2014-01-29 キヤノン株式会社 画像診断装置、画像診断方法
JP6541334B2 (ja) * 2014-11-05 2019-07-10 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP6467221B2 (ja) 2014-12-22 2019-02-06 キヤノン株式会社 画像処理装置および方法
JP6448356B2 (ja) 2014-12-22 2019-01-09 キヤノン株式会社 画像処理装置、画像処理方法、画像処理システム、及びプログラム
CN106124638B (zh) * 2016-06-15 2018-10-02 中国航空工业集团公司北京航空材料研究院 R角结构超声相控阵检测用曲面线阵探头的声场测量方法
US10463316B2 (en) * 2016-09-12 2019-11-05 Canon Medical Systems Corporation Medical information processing system
JP6535694B2 (ja) * 2017-02-22 2019-06-26 株式会社ジンズ 情報処理方法、情報処理装置及びプログラム
KR20200003400A (ko) * 2017-05-11 2020-01-09 베라톤 인코포레이티드 확률 맵 기반의 초음파 스캐닝
JP7098294B2 (ja) 2017-09-28 2022-07-11 キヤノンメディカルシステムズ株式会社 医用情報処理装置
CN110458982A (zh) 2018-05-07 2019-11-15 开利公司 通往目的地的无缝免提读取器路线
JP6853419B2 (ja) * 2018-05-23 2021-03-31 Eizo株式会社 情報処理装置、情報処理方法、コンピュータプログラム
US10828000B2 (en) * 2018-11-25 2020-11-10 International Business Machines Corporation Medical image data analysis
JP7427497B2 (ja) * 2020-03-26 2024-02-05 キヤノン株式会社 情報処理装置、情報処理方法、プログラムおよび超音波診断装置
US20220292655A1 (en) * 2021-03-15 2022-09-15 Canon Medical Systems Corporation Medical image processing apparatus, x-ray diagnostic apparatus, and method of medical image processing
JP2023077820A (ja) * 2021-11-25 2023-06-06 富士フイルム株式会社 超音波画像分析装置、超音波診断装置および超音波画像分析装置の制御方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6311419B1 (en) * 1989-12-31 2001-11-06 Smartlight Ltd. Dedicated mammogram viewer
EP2059884A1 (en) 2006-08-16 2009-05-20 MeVis BreastCare GmbH & Co. KG Method, apparatus and computer program for displaying marks in an image data set
US7991105B2 (en) * 2006-10-17 2011-08-02 Koninklijke Philips Electronics N.V. Visualization of 3D images in combination with 2D projection images
EP1923839B1 (en) * 2006-11-14 2016-07-27 Hitachi Aloka Medical, Ltd. Ultrasound diagnostic apparatus and volume data processing method
US8160395B2 (en) * 2006-11-22 2012-04-17 General Electric Company Method and apparatus for synchronizing corresponding landmarks among a plurality of images
JP5015580B2 (ja) * 2006-12-25 2012-08-29 日立アロカメディカル株式会社 超音波診断装置及びレポート画像作成方法
JP2009066074A (ja) * 2007-09-11 2009-04-02 Olympus Medical Systems Corp 超音波診断装置
WO2009044672A1 (ja) * 2007-10-01 2009-04-09 Konica Minolta Medical & Graphic, Inc. 画像診断支援装置、左右***画像における位置対応付け方法及びプログラム
JP4810562B2 (ja) 2008-10-17 2011-11-09 キヤノン株式会社 画像処理装置、画像処理方法
JP2010227215A (ja) 2009-03-26 2010-10-14 Konica Minolta Medical & Graphic Inc 医用画像処理装置、シェーマの作成方法及びプログラム
JP5586917B2 (ja) * 2009-10-27 2014-09-10 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP5546230B2 (ja) * 2009-12-10 2014-07-09 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP5737858B2 (ja) * 2010-04-21 2015-06-17 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP5774899B2 (ja) * 2011-04-26 2015-09-09 京セラ株式会社 携帯端末装置、プログラムおよび表示制御方法
JP5822554B2 (ja) 2011-06-17 2015-11-24 キヤノン株式会社 画像処理装置、画像処理方法、撮影システム及びプログラム
US9678644B2 (en) * 2011-06-29 2017-06-13 Koninklijke Philips N.V. Displaying a plurality of registered images
JP5766076B2 (ja) * 2011-09-13 2015-08-19 アルパイン株式会社 方向距離マーク使用地図表示装置
US11109835B2 (en) * 2011-12-18 2021-09-07 Metritrack Llc Three dimensional mapping display system for diagnostic ultrasound machines
US9058647B2 (en) * 2012-01-16 2015-06-16 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP6304970B2 (ja) 2013-08-09 2018-04-04 キヤノン株式会社 画像処理装置、画像処理方法
JP6401459B2 (ja) 2014-02-14 2018-10-10 キヤノン株式会社 画像処理装置、画像処理方法
JP6541334B2 (ja) 2014-11-05 2019-07-10 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP6448356B2 (ja) 2014-12-22 2019-01-09 キヤノン株式会社 画像処理装置、画像処理方法、画像処理システム、及びプログラム
JP6467221B2 (ja) 2014-12-22 2019-02-06 キヤノン株式会社 画像処理装置および方法

Also Published As

Publication number Publication date
US20150070385A1 (en) 2015-03-12
EP2848199A1 (en) 2015-03-18
EP3461413A3 (en) 2019-06-19
US20170345223A1 (en) 2017-11-30
JP2015054051A (ja) 2015-03-23
EP3461413A2 (en) 2019-04-03
US10008048B2 (en) 2018-06-26
EP3461413B1 (en) 2023-01-11
EP2848199B1 (en) 2018-11-28
US9767619B2 (en) 2017-09-19

Similar Documents

Publication Publication Date Title
JP6200249B2 (ja) 情報処理装置、情報処理方法
JP6073971B2 (ja) 医用画像処理装置
JP5538862B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP6039903B2 (ja) 画像処理装置、及びその作動方法
JP6401459B2 (ja) 画像処理装置、画像処理方法
JP6448356B2 (ja) 画像処理装置、画像処理方法、画像処理システム、及びプログラム
JP5631453B2 (ja) 画像処理装置、画像処理方法
JP2010233961A (ja) 画像処理装置、画像処理方法
US11756673B2 (en) Medical information processing apparatus and medical information processing method
JP6066197B2 (ja) 手術支援装置、方法およびプログラム
JP6752254B2 (ja) 情報処理装置、情報処理方法
JP6487999B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6433190B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6387166B2 (ja) 情報処理装置、情報処理方法
JP6263248B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2012085833A (ja) 3次元医用画像データの画像処理システム、その画像処理方法及びプログラム
US9905004B2 (en) Image processing device, method, and recording medium having stored therein program
US11443497B2 (en) Medical image processing apparatus, medical image processing system, medical image processing method, and recording medium
JP5159195B2 (ja) 医用画像処理装置
US20220079539A1 (en) Medical image display apparatus
JP6357049B2 (ja) 画像処理装置、医用画像診断システム、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160907

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170825

R151 Written notification of patent or utility model registration

Ref document number: 6200249

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151