JP2014161734A - 医療画像を整合する方法及びその装置 - Google Patents

医療画像を整合する方法及びその装置 Download PDF

Info

Publication number
JP2014161734A
JP2014161734A JP2014031748A JP2014031748A JP2014161734A JP 2014161734 A JP2014161734 A JP 2014161734A JP 2014031748 A JP2014031748 A JP 2014031748A JP 2014031748 A JP2014031748 A JP 2014031748A JP 2014161734 A JP2014161734 A JP 2014161734A
Authority
JP
Japan
Prior art keywords
image
medical
cross
medical image
probe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2014031748A
Other languages
English (en)
Inventor
Jung-Bae Kim
亭 培 金
Young-Taek Oh
英 珪 黄
Do-Kyoon Kim
道 均 金
Won-Chul Bang
遠 チョル 方
ヨン 澤 呉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014161734A publication Critical patent/JP2014161734A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Physiology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Nuclear Medicine (AREA)
  • Human Computer Interaction (AREA)

Abstract

【課題】患者の身体活動による変化を反映させ、第1医療装置によって撮影されるリアルタイム医療画像と、第2医療装置によって既に撮影された三次元医療画像とを正確に整合する医療画像を整合する方法及びその装置を提供する。
【解決手段】医療画像を整合する方法において、第1医療装置によって撮影されるリアルタイム医療画像と第2医療装置によって既に撮影された三次元医療画像とを用いて、第1医療装置と第2医療装置とで用いられる仮想座標系をマッピングする段階と、マッピングされた結果に基づいて、第1医療装置のプローブが位置した地点を第2医療装置で用いられる仮想座標系から検出する段階と、既に撮影された三次元医療画像から、検出された地点に対応するボリューム画像を決定する段階と、決定されたボリューム画像から、患者の身体活動によって変化するリアルタイム医療画像に対応する断面画像を抽出する段階とを有する。
【選択図】 図2

Description

本発明は、複数個の医療画像を整合する方法及びその装置に関し、特にリアルタイム医療画像と既に撮影された三次元医療画像とを正確に整合する医療画像を整合する方法及びその装置に関する。
近年、医療技術の発達によって、高解像度の医療画像を得ることができ、医療器具の微細な操作が可能になることにより、人体の直接的な切開をせずとも、皮膚に小孔をあけた後、血管あるいはその他所望の身体部位に、直接カテーテルや医療用針を入れ、医学画像装備で体内を観察しながら治療する方法が開発されている。
これを、「画像を利用する施術法」、「インターベンション(interventional)画像施術法」又は「仲裁的画像施術法」と呼ぶ。
施術者は、臓器や病変の位置を画像を介して把握する。
さらに、施術を行う間、患者は呼吸をしたり動いたりするものであるが、それによる変化を把握しなければならない。
従って、施術者は、リアルタイム医療画像を基に、呼吸や動きを正確に迅速に把握し、施術を施さなければが、そのとき、リアルタイム医療画像で、臓器や病変の形状を肉眼で把握し難い。
超音波画像と対照的に、MR(magnetic resonance)画像又はCT(computed tomography)画像は、臓器や病変を明確に識別することができる。
しかしながら、MR画像又はCT画像は、医療施術中に、リアルタイムで画像が取得され得るものではないため、医療施術中に発生する患者の呼吸や動きが反映されにくいという問題点がある。
本発明は上記従来の画像を利用する施術法における問題点に鑑みてなされたものであって、本発明の目的は、患者の身体活動(physical movement)による変化を反映させ、第1医療装置によって撮影されるリアルタイム医療画像と、第2医療装置によって既に撮影された三次元医療画像とを正確に整合する医療画像を整合する方法及びその装置を提供することにある。
上記目的を達成するためになされた本発明による医療画像を整合する方法は、医療画像を整合(registration)する方法において、第1医療装置によって撮影されるリアルタイム医療画像と第2医療装置によって既に撮影された三次元医療画像とを用いて、前記第1医療装置と前記第2医療装置とで用いられる仮想座標系をマッピングする段階と、前記マッピングされた結果に基づいて、前記第1医療装置のプローブが位置した地点を前記第2医療装置で用いられる仮想座標系から検出する段階と、前記既に撮影された三次元医療画像から、前記検出された地点に対応するボリューム画像を決定する段階と、決定された前記ボリューム画像から、患者の身体活動によって変化する前記リアルタイム医療画像に対応する断面画像を抽出する段階とを有することを特徴とする。
上記目的を達成するためになされた本発明によるコンピュータ読取可能記録媒体は、前述医療画像を整合する方法を実行するためのプログラムを記録したことを特徴とする。
上記目的を達成するためになされた本発明による医療画像を整合する装置は、医療画像を整合(registration)する装置において、第1医療装置によって撮影されるリアルタイム医療画像を取得するリアルタイム医療画像取得部と、第1医療装置で用いられる仮想座標系と第2医療装置で用いられる仮想座標系とをマッピングし、該マッピングされた結果を用いて、前記第1医療装置のプローブが位置した地点を前記第2医療装置で用いられる座標系から検出する座標変換部と、前記第2医療装置によって既に撮影された三次元医療画像から、前記検出された地点に対応するボリューム画像を決定するボリューム画像決定部と、決定された前記ボリューム画像から、患者の身体活動によって変化する前記リアルタイム医療画像に対応する断面画像を抽出する画像出力部とを有することを特徴とする。
本発明に係る医療画像を整合する方法及びその装置によれば、第1医療装置のプローブの物理的な移動によるリアルタイム医療画像の変化と、患者の身体活動によるリアルタイム医療画像の変化とをいずれも考慮して、第2医療装置の三次元医療画像と整合することにより、より正確な整合画像を得ることができ、医療画像の整合工程を自動化することにより、迅速に整合が行われるという効果がある。
本発明の一実施形態による医療画像整合システムの構成の概略を示す概略図である。 本発明の一実施形態による医療画像の整合方法を説明するためのフローチャートである。 本発明の一実施形態による第1医療装置と第2医療装置とが用いる仮想座標系をマッピングする工程を説明するためのフローチャートである。 本発明の一実施形態による第1医療装置のプローブが位置した地点を第2医療装置が使用する仮想座標系から検出する工程を説明するためのフローチャートである。 本発明の一実施形態によるボリューム画像を決定する工程を説明するためのフローチャートである。 本発明の一実施形態による患者の身体活動を考慮して三次元医療画像から断面画像を抽出する工程を説明するためのフローチャートである。 本発明の一実施形態によるボリューム画像を決定する工程を説明するためのグラフである。 本発明の一実施形態による医療画像整合装置の構成を示すブロック図である。 本発明の他の一実施形態による医療画像整合装置の構成を示すブロック図である。 本発明の一実施形態による医療画像の整合方法で、平面整合工程の医療画像を示す図である。 患者の身体活動によるリアルタイム医療画像の変化を示す図である。 患者の身体活動によるリアルタイム医療画像の変化を示す図である。
次に、本発明に係る医療画像を整合する方法及びその装置を実施するための形態の具体例を図面を参照しながら説明する。
図1は、本発明の一実施形態による医療画像整合(medical image registration)システムの構成の概略を示す概略図である。
図1を参照すると、医療画像整合システム100は、第1医療装置120、第2医療装置110、医療画像整合装置130及び画像表示装置140を含む。
第2医療装置110は、医療施術前に、対象体の関心ボリューム(VOI:volume of interest)に対する第2医療画像のセットを生成する。
例えば、第2医療装置110は、CT(computed tomography)画像装置、MR(magnetic resonance)画像装置、X線画像装置又はPET(positron emission tomography)画像装置の内のいずれか一つによって構成される。
以下では、説明の便宜のために、第2医療画像は、MR画像又はCT画像であると仮定する。
第2医療装置110で生成したCT画像又はMR画像の場合、臓器の位置や病変の位置が明確に区別されるという長所がある。
しかし、CT画像やMR画像は、施術の間、患者が呼吸をしたり、あるいは体を動かしたとき、臓器が変形したり、あるいは位置が変わることがあるが、このようなリアルタイム的な変化が反映されないという短所がある。
リアルタイム的な変化を反映させることができない理由は、CT画像の場合、放射線を利用した撮影方法であるので、患者と施術者とが長時間放射線に曝される恐れがあるので、短時間の撮影が勧められ、また、MR画像の場合、1回撮影するのに時間が長くかかるためである。
第1医療装置120は、対象体の関心ボリュームに関わって、リアルタイムで医療画像を提供する。
例えば、第1医療装置120は、患者に対する仲裁的医療施術工程で、リアルタイム医療画像を生成する超音波画像装置(ultrasonography machine)で構成される。
第1医療装置120は、該装置に装着されたプローブ(probe)121を用いて、超音波信号を関心領域(area of interest)に照射し、反射する超音波信号を検出することにより、超音波画像を生成する。
プローブ121は、一般的に、圧電変換器(piezoelectric transducer)によって製造される。
プローブ121から、数MHz〜数百MHzの範囲の超音波が、患者体内の特定部位に伝達すれば、その超音波は、さまざまな異なる組織(tissue)間の階層から部分的に反射される。
特に、超音波は、患者体内での密度変化があるところ、例えば、血漿(blood plasma)内の血球(blood cells)、臓器(organs)内の小組織(structures)などで反射する。
そのように反射した超音波は、プローブ121の圧電変換器を振動させ、圧電変換器は、その振動による電気的パルス(electrical pulses)を出力する。そのような電気的パルスが画像に変換される。
このように、第1医療装置120によって得ることができる第1医療画像、例えば、超音波画像は、リアルタイム医療画像を得ることができるという長所があるが、多数のノイズが含まれるので、臓器の輪郭、内部構造や病変を識別し難いという短所がある。
なぜならば、病変と周辺組織は、互いに類似した超音波反射特性を有するので、超音波画像では、病変と周辺組織との境界を表す明暗の対比、すなわち、個体のエッジコントラスト(edge contrast)が相対的に低い。
また、超音波の干渉及び散乱によるノイズとアーティファクト(artifact)とが存在する。
すなわち、超音波医療画像は、MR画像又はCT画像より早く取得可能である代わりに、信号対ノイズ比(SNR)と個体のエッジコントラストとが低いので、MR画像又は医療画像では、識別可能な臓器及び病変が、周辺組織と明確に区分されないという短所がある。
第1医療装置120及び第2医療装置110が撮影する医療画像は、初めは、二次元の断面画像に該当する。
しかし、二次元の断面画像を累積させることにより、三次元医療画像を生成することもできる。例えば、第2医療装置110は、断面画像の位置(location)と方向(orientation)とを変化させながら、複数の断面画像を撮影する。
このような断面画像が蓄積されれば、患者の体の特定部位を三次元的に示す三次元ボリューム(volume)の画像データが生成される。
このように、断面画像を蓄積させて三次元ボリュームの画像データを生成する方式をMPR(multiplanar reconstruction)方式という。
特に、第2医療画像それぞれは、二次元画像に該当するが、画像のピクセルには深度値(depth value)が存在する。
すなわち、第2医療画像は、ボクセル(voxel)によって構成される。従って、第2医療画像を縮尺すれば、関心ボリュームに対する三次元モデルが生成される。
以下では、第2医療装置によって撮影された第2医療画像のセットを、三次元医療画像と呼ぶ。
医療画像整合装置130は、第2医療装置110で取得した第2医療画像と、第1医療装置120で取得した第1医療画像とを整合(registration)する。
本発明で、第1医療画像及び第2医療画像の整合は、第1医療装置120と第2医療装置110とが使用する仮想の座標系を互いに対応させる工程を含む。
整合された医療画像は、第1医療画像及び第2医療画像がオーバレイされた医療画像でもあり、第1医療画像及び第2医療画像が並んで配置された画像でもある。医療画像整合装置130が整合した医療画像は、画像表示装置140によって表示される。
第1医療装置120と第2医療装置110は、それぞれ互いに異なる仮想の座標系を使用する。
医療画像整合装置130は、互いに異なる第1医療装置120と第2医療装置110との仮想座標系を互いにマッピングさせることにより、第1医療装置120と第2医療装置110とが撮影した医療画像を整合することができる。
第1医療装置120と第2医療装置110とが使用する仮想の座標系で、医療画像が撮影された断面を特定するには、3軸の位置情報(x,y,z)と共に、3軸の回転情報(roll,pitch,yaw)が使用される。
図10は、本発明の一実施形態による医療画像の整合方法で、平面整合工程の医療画像(イメージ)を示す図である。
例えば、図10のイメージ(符号1010)を参照すると、第1医療装置120と第2医療装置110は、三次元空間上の位置を識別するために、仮想の座標系を用いる。
第1医療装置120と第2医療装置110とが用いる仮想の座標系を用いれば、撮影された医療画像が、三次元空間上のどの地点で撮影されたかを把握することができる。
MR画像又はCT画像の場合、第2医療装置110が撮影する断面を選択する工程で、仮想の座標系の座標値が用いられる。従って、第2医療装置110によって撮影された医療画像に関わる座標値は、別途にセンシングせずとも把握することができる。
これとは対照的に、第1医療装置120は、プローブ121の動きによって撮影する断面の位置が変化する。
ここで、プローブ121の動きは、第1医療装置120の制御によって動くのではなく、医療施術者の制御によって任意に動くのである。
従って、第1医療装置120が撮影した医療画像が、仮想の座標系でどの位置に該当するかということを把握するためには、プローブ121の動きをセンシングしなければならない。
プローブ121の動きをセンシングする方式としては、例えば、プローブ121にマグネチック・トラッカ(magnetic tracker)を利用して、磁場の変化をセンシングする方式、プローブ121にオプティカルマーカー(optical marker)を付着させ、赤外線又はカラーカメラで光学的変化をセンシングする方式が使用されてもよい。
第1医療装置120と第2医療装置110は、一般的に、互いに異なる三次元座標系を使用し、第1医療装置120が使用する座標系での断面(符号1011)は、B地点の3軸位置情報(x,y,z)と、プローブ121の3軸回転情報(roll,pitch,yaw)とを用いて特定される。
本発明で、リアルタイム医療画像は、第1医療装置120によって撮影される第1医療画像を意味し、三次元医療画像は、第2医療装置110によって撮影される第2医療画像のセットを意味する。
医療画像整合装置130は、第1医療装置120によって撮影されるリアルタイム医療画像を周期的に更新する。
第2医療装置110によって既に撮影された三次元医療画像は、医療画像整合装置130にあらかじめ保存されていると仮定する。
本発明の一実施形態によれば、第1医療装置120と第2医療装置110とが使用する仮想の座標系は、後述する方法によってマッピングされる。
仮想の座標系がマッピングされれば、第1医療装置120のプローブ121が位置した地点が、第2医療装置110が使用する仮想の座標系上で検出される。
従って、第2医療装置110によって撮影された三次元医療画像で、プローブ121の移動を追跡し、それに対応する断面画像を提供することができる。
すなわち、プローブ121が移動される場合、リアルタイム医療画像が変化し、変化するリアルタイム医療画像に対応する断面画像が、三次元医療画像から抽出される。すなわち、リアルタイム医療画像と三次元医療画像とが互いに同期化される。
しかし、プローブ121が移動しない場合にも、リアルタイム医療画像は、患者の身体活動(physical movement)によって続けて変化することもある。
例えば、患者の呼吸によって臓器が移動し、プローブ121が静止した状態でも、リアルタイム医療画像は、続けて変化する。
図11は、患者の身体活動によるリアルタイム医療画像の変化を示す図である。
図11を参照すると、臓器(肝臓)1110は、息吸い(inhalation)と息吐き(exhalation)との中間状態に位置していて、息吸い状態で下側(inferior)に移動して符号1120の位置に位置していて、息吐き状態では、上側(superior)に移動し、符号1130の位置に位置する。
そのとき、プローブ1140の超音波スキャニング面1150が物理的に移動しないにもかかわらず、プローブ1140によって撮影されるリアルタイム医療画像は、呼吸によって変わる。言い換えれば、超音波スキャニング面1150と臓器(肝臓)1110との相対的な位置関係が変化するので、リアルタイム医療画像が変化する。
本発明の医療画像整合装置130は、第1医療装置120のプローブ121が静止した状態で、患者の身体活動によって示されるリアルタイム医療画像の変化を考慮して、リアルタイム医療画像と三次元医療画像とを整合する。
すなわち、リアルタイム医療画像が息吸い状態を示す場合、三次元医療画像でも、息吸い状態に対応する断面画像を抽出し、リアルタイム医療画像と整合する。
リアルタイム医療画像が息吐き状態を示す場合、三次元医療画像でも、息吐き状態に対応する断面画像を抽出し、リアルタイム医療画像と整合する。
従って、本発明で医療画像を整合する方法は、二種に大別される。第一は、プローブ121の物理的な移動を考慮して整合する方法であり、第二は、プローブ121が静止した状態で、患者の身体活動による超音波スキャニング面の相対的な移動を考慮して整合する方法である。
図2は、本発明の一実施形態による医療画像の整合方法を説明するためのフローチャートである。
図2を参照すれば、まず、医療画像整合装置130は、第1医療装置120によって撮影されるリアルタイム医療画像と、第2医療装置110によって既に撮影された三次元医療画像とを用いて、第1医療装置120と、第2医療装置110とで用いられる仮想座標系をマッピングする(S205段階)。
すなわち、医療画像整合装置130は、第1医療装置120が用いる仮想座標系である第1座標系と第2医療装置110が用いる仮想座標系である第2座標系とを互いに対応させる。
S205段階について、図3を参照して、さらに詳細に説明する。
図3は、本発明の一実施形態による第1医療装置と第2医療装置とが用いる仮想座標系をマッピングする工程を説明するためのフローチャートである。
医療画像整合装置130は、第1医療装置によって撮影されるリアルタイム医療画像を取得する(S305段階)。
そのとき取得されるリアルタイム医療画像は、持続的に更新される。一方、医療画像整合装置130は、リアルタイム医療画像を取得するとき、第1座標系でプローブ121が位置した地点に関わる座標値を共に取得する。
医療画像整合装置130は、リアルタイム医療画像の第1断面画像を生成する(S310段階)。
すなわち、リアルタイム医療画像は、プローブ121の動き又は患者の身体活動によって変化する。
従って、静止したイメージを得るために、リアルタイム医療画像の第1断面画像を生成する。
第1断面画像は、第1医療装置120を介して撮影している最中に、ユーザの入力に基づいて生成される。
第1断面画像が撮影された方向と、三次元医療画像を構成する第2医療画像が撮影された方向とが平行になるように、第1断面画像を生成することが望ましい。
その理由は、後述するように、第1断面画像に対応する二次元医療画像を、三次元医療画像から検出するとき、その検出の正確度を高めるためである。
ユーザは、第1断面画像の生成命令を、第1医療装置120を介して入力するか、あるいは医療画像整合装置130を介して入力する。
図10には、符号1020のイメージは、生成された第1断面画像であり、断面1011は、第1断面画像を生成するときの、プローブ121の超音波スキャニング面を示す。
医療画像整合装置130は、第1断面画像に現れる解剖学的特徴に基づいて、三次元医療画像を構成する複数の二次元医療画像のうち、第1断面画像に対応する二次元医療画像を選択する(S315段階)。
すなわち、医療画像整合装置130は、第1断面画像に現れる解剖学的特徴と、三次元医療画像を構成する二次元医療画像に現れる解剖学的特徴とを互いに比較する。
医療画像整合装置130は、比較の結果、第1断面画像と類似度(similarity)が最大になる二次元医療画像を、三次元医療画像から検出する。
図10を参照すると、符号1030の三次元医療画像は、複数の二次元医療画像(1031、1032、1033)を含む。
医療画像整合装置130は、符号1030の三次元医療画像から、符号1020のイメージ(第1断面画像)と最も類似した解剖学的特徴が現れる符号1033の二次元医療画像を検出する。
S315段階についてさらに詳細に説明すれば、医療画像整合装置130は、第1断面画像で現れる解剖学的個体と、三次元医療画像で現れる解剖学的個体とをそれぞれセグメンテーションする。
ここで、解剖学的個体とは、臓器、血管、病変、骨、臓器と臓器との境界面など、第1医療画像で識別可能な人体の構成物をいう。
セグメンテーションとは、そのような解剖学的個体それぞれを、背景の画像と分離することをいう。
医療画像整合装置130には、セグメンテーションを行う解剖学的個体に係わる情報が事前に入力されている。例えば、超音波医療画像の場合、血管組織は、背景に比べてさらに暗い明度値を有し、横隔膜の場合、所定値以下の曲率を有する平面であり、下大静脈は、10mm以上の直径を有する血管であるいう解剖学的特徴に関わる情報が、事前に入力されている。
医療画像整合装置130は、グラフカット(graph cut)技法又は混合ガウスモデル(GMM:Gaussian mixture model)技法を用いて、セグメンテーションを行う。
グラフカット技法によれば、医療画像整合装置130は、背景のシード(seed)値と、解剖学的個体のシード値とを用いて、背景のシードポイントと、解剖学的個体のシードポイントとの領域を徐々に拡張させる。
医療画像整合装置130は、ポイント領域を拡張させる間、背景領域と、解剖学的個体の領域とが出合う境界領域を切り取る方式で、解剖学的個体をセグメンテーションする。
混合ガウスモデル技法によれば、医療画像整合装置130は、医療画像のカラーヒストグラムを、複数個のガウシアン分布モデルで表現する。
次に、医療画像整合装置130は、ヒストグラムで、特定バンドのガウシアン分布モデルを選択する方式で、解剖学的個体をセグメンテーションする。
それ以外にも、他のセグメンテーション方式が医療画像整合装置130に適用されるということは、当業者であるならば、理解することができるであろう。
医療画像整合装置130は、第1断面画像でセグメンテーションされた解剖学的個体と、三次元医療画像でセグメンテーションされた解剖学的個体との類似度を計算する。
さらに直観的に言えば、医療画像整合装置130は、第1断面画像で観察される解剖学的個体が、三次元医療画像を構成する二次元医療画像で、いかほど類似して観察されるかということを数値的に表現する。
医療画像整合装置130は、ガボール・ウェーブレット(Gabor wavelet)技法又はローカルバイナリパターンマッチング(local binary pattern matching)技法を利用して、類似度を計算することができる。
ガボール・ウェーブレット技法によれば、医療画像整合装置130は、解剖学的個体を、互いに異なるフィルタリング特性を有する複数個のガボールフィルタによってフィルタリングする。医療画像整合装置130は、フィルタリングされた結果を比較して、解剖学的個体間の類似度を計算する。
ローカルバイナリパターンマッチング技法によれば、医療画像整合装置130は、1つの中心ピクセルに対する周辺ピクセルの関係を規定する。
すなわち、医療画像整合装置130は、周辺ピクセルの値を中心ピクセルの値を基準に二値化し、その結果を予め定義した方向に整列して示す。
医療画像整合装置130は、二値化された結果を互いに比較することにより、解剖学的個体間の類似度を定量的に評価することができる。
医療画像整合装置130は、三次元医療画像で計算された類似度が最大になる二次元医療画像を選択する。
医療画像整合装置130は、第1断面画像と、三次元医療画像で選択された二次元医療画像とを用いて、第1医療装置120で用いられる第1座標系を、第2医療装置110で用いられる第2座標系に変換するための座標変換関数を生成する(S320段階)。
S320段階について、さらに詳細に説明する。
医療画像整合装置130は、第2医療装置110の仮想座標系である第2座標系上で、第1医療装置120のプローブ121の座標値に対応する地点を検出する。
すなわち、医療画像整合装置130は、第1医療装置120の仮想座標系である第1座標系上で、プローブ121の位置の座標値に対応する地点を、第2座標系上で検出する。
図10を参照すると、符号1010のイメージに表示されたプローブ121が位置した地点Bに対応する地点は、符号1030のイメージで、地点Bに該当し、医療画像整合装置130は、地点Bを検出する。
医療画像整合装置130は、符号1020の第1断面画像でセグメンテーションされた解剖学的個体の位置が、S315段階で選択された符号1033の二次元医療画像において一致するように、符号1033の二次元医療画像と符号1020の第1断面画像とをオーバレイする。
もし符号1020の第1断面画像と符号1030の三次元医療画像との解像度が互いに異なる場合には、解像度を一致させるために、いずれか一方の画像をアップスケーリングするか、あるいはダウンスケーリングする。
医療画像整合装置130は、符号1033の二次元医療画像と符号1020の第1断面画像とがオーバレイされた状態で、プローブ121が位置した地点Bを、符号1033の二次元医療画像で指定する。
従って、医療画像整合装置130は、プローブ121が位置した地点Bに対応する地点Bの位置を、第2座標系上で検出することができる。
医療画像整合装置130は、検出された地点Bの座標値を利用して、第1座標系を第2座標系に変換するための座標変換関数を生成する。
言い換えれば、医療画像整合装置130は、第1座標系上の座標値を、第2座標系上の座標値に変換するための座標変換関数を生成する。
第2座標系で、地点Bの座標をTinitとする。
その後、プローブ121が一定変位ほど移動したとき、プローブ121の移動をT(x,y,z)とし、プローブ121の回転をR(Ψ,θ,φ)とすれば、T(x,y,z)とR(Ψ,θ,φ)は、下記の数式1及び2で表現される。
Figure 2014161734
Figure 2014161734
医療画像整合装置130は、Tinit、T(x,y,z)及びR(Ψ,θ,φ)を用いて、座標変換関数Mを、下記の数式3のように生成することができる。
Figure 2014161734
図2に戻って説明を続ける。
医療画像整合装置130が、S205段階で、第1座標系と第2座標系とがマッピングされた結果を用いて、第1医療装置120のプローブ121が位置した地点を、第2医療装置110で用いられる座標系から検出する(S210段階)。
第1座標系上でプローブ121が位置した地点は、S205段階で、プローブが位置した地点と異なる地点でもある。すなわち、S210段階では、第1座標系でプローブ121が位置した地点が移動すれば、医療画像整合装置130は、数式3の座標変換関数を用いて、プローブ121の移動を第2座標系で追跡する。
一方、S205段階で、座標系がマッピングされれば、プローブ121の物理的な移動によるリアルタイム医療画像の変化を、三次元医療画像で追跡することができる。
すなわち、医療画像整合装置130は、第2座標系から検出されたプローブ121の座標値を用いて、プローブ121の物理的移動によって変化したリアルタイム医療画像に対応する断面画像を、三次元医療画像から抽出して出力する。
図4は、本発明の一実施形態による第1医療装置のプローブが位置した地点を第2医療装置が使用する仮想座標系から検出する工程を説明するためのフローチャートである。
図4を参照して詳細に説明すれば、第1医療装置120は、第1医療装置120が用いる第1座標系上で、プローブ121が位置した地点をセンシングする(S405段階)。
本発明の他の実施形態によれば、医療画像整合装置130が、直接プローブ121が位置した地点をセンシングすることも可能である。
医療画像整合装置130は、センシングされたプローブ121の座標値を受信する(S410段階)。医療画像整合装置130は、プローブ121が物理的に移動すれば、移動した地点Bの座標値を受信する。
ここで、第1座標系上の地点Bの座標値は、リアルタイム医療画像と別途に受信されるか、あるいは共に受信される。
医療画像整合装置130は、座標変換関数を利用して、第1座標系上の地点Bの座標値を、第2座標系上の地点Bの座標値に変換する(S420段階)。
医療画像整合装置130は、第2座標系上の地点Bから、プローブ121の超音波スキャニング面を決定する。
次に、医療画像整合装置130は、決定された超音波スキャニング面に該当する断面画像を、三次元医療画像から抽出して出力する。
このとき、医療画像整合装置130は、リアルタイム医療画像と、抽出された断面画像とを共に出力する。
ここで、抽出された断面画像と、リアルタイム医療画像は、オーバレイされて出力されるか、あるいは並列に並んで配置されて出力される。
図2に戻って説明を続ける。
医療画像整合装置130は、三次元医療画像から、第2座標系から検出されたプローブ121が位置した地点と対応するボリューム画像を決定する(S215段階)。
プローブ121が位置した地点に対応するボリューム画像とは、プローブ121が静止した状態で、患者の呼吸などの身体活動によってプローブ121の超音波スキャニング面が、臓器から相対的に移動する範囲に存在する三次元医療画像をいう。
S215段階については、図5及び図7を参照して詳細に説明する。
図5は、本発明の一実施形態によるボリューム画像を決定する工程を説明するためのフローチャートであり、図7は、本発明の一実施形態によるボリューム画像を決定する工程を説明するためのグラフである。
医療画像整合装置130は、第2座標系から検出されたプローブ121の座標値を用いて、プローブ121の超音波スキャニング面に対応する基準断面を、三次元医療画像から選択する(S505段階)。
図7で、符号710の六面体は、第2座標系における三次元医療画像が存在する領域(全体三次元医療画像)を示す。
第2座標系から検出されたプローブ121の座標値が「c1」であると仮定する。
医療画像整合装置130は、地点Cから、プローブ121の超音波スキャニング面を予測することができる。次に、医療画像整合装置130は、プローブ121の超音波スキャニング面を含む基準断面722を選択する。
医療画像整合装置130は、患者の身体活動によるプローブ121の超音波スキャニング面の相対的な移動範囲を予測する(S510段階)。
プローブ121の超音波スキャニング面が実際に物理的に移動するものではないが、図11に示したように、患者の身体活動によって、臓器1110が、符号1120の位置から符号1130の位置まで移動することがある。
従って、プローブ121の超音波スキャニング面1150は、臓器1110との関係から相対的に移動すると理解される。
医療画像整合装置130には、臓器1110が、患者の身体活動によって移動する範囲に関わる情報が事前に保存されている。
例えば、臓器1110が、上下には、最大40mm、前後には、最大12mm、左右には、最大3mm移動するということが医療画像整合装置130に事前に保存されている。
ただし、説明の便宜のために、本実施形態では、臓器1110が上下のみに移動すると仮定する。
医療画像整合装置130は、そのような事前情報を用いて、超音波スキャニング面の相対的な移動範囲を予測する。
図7を参照すれば、医療画像整合装置130は、超音波スキャニング面が+Z’方向、すなわち、上側には、「d1」ほど移動可能であり、下側には、「d2」ほど移動可能であるということを予測する。
一方、超音波スキャニング面が相対的に移動するということは、結局、地点Cが相対的に移動すると理解される。
図5に戻って説明を続ける。
医療画像整合装置130は、基準断面722(図7参照)から予測された移動範囲(d1、d2)内に存在する隣接断面(721、723)を選択する(S520段階)。
図7では、説明の便宜のために、2個の隣接断面(721、723)のみを選択したが、予測された移動範囲(d1、d2)内で、M(M>2)個の隣接断面が選択されてもよい。
医療画像整合装置130は、基準断面722と隣接断面(721、723)とを累積させ、ボリューム画像720を再構成する(S525段階)。
すなわち、前述のMPR技法により、符号710の全体三次元医療画像からボリューム画像720を再構成する。
図2に戻って説明を続ける。
医療画像整合装置130は、ボリューム画像720から、患者の身体活動によって変化するリアルタイム医療画像に対応する断面画像を抽出する(S220段階)。
図7に示したように、ボリューム画像720は、符号710の全体三次元医療画像に比べて、小さなボリュームを有する。
従って、符号710の三次元医療画像で、リアルタイム医療画像に対応する断面画像を探索する時間に比べ、ボリューム画像720で、断面画像を探索する時間がさらに少なくなる。
一方、医療画像整合装置130は、身体活動によって、プローブ121の超音波スキャニング面が移動すれば、断面画像を更新する。
すなわち、プローブ121の超音波スキャニング面が移動すれば、それに対応する断面画像がさらに抽出される。
図6及び図12を参照し、S220段階について詳細に説明する。
図6は、本発明の一実施形態による患者の身体活動を考慮して三次元医療画像から断面画像を抽出する工程を説明するためのフローチャートであり、図12は、患者の身体活動によるリアルタイム医療画像の変化を示す図である。
医療画像整合装置130は、ボリューム画像1210とリアルタイム医療画像とで現れる解剖学的個体をそれぞれセグメンテーションする(S605段階)。
ここで、セグメンテーションのために、前述のグラフカット技法又は混合ガウスモデル技法が使用される。
医療画像整合装置130は、二次元ではない三次元ボリューム画像1210で、解剖学的個体をセグメンテーションする。
図12に示す臓器1220は、ボリューム画像1210でセグメンテーションされた解剖学的個体である。
また、医療画像整合装置130は、リアルタイム医療画像で現れる解剖学的個体をセグメンテーションする。
医療画像整合装置130は、リアルタイム医療画像とボリューム画像1210とでセグメンテーションされた解剖学的個体間の類似度を計算する(S610段階)。
ボリューム画像1210でセグメンテーションされた解剖学的個体1220は、三次元オブジェクトであり、リアルタイム医療画像でセグメンテーションされた解剖学的個体は、二次元オブジェクトに該当する。
従って、医療画像整合装置130は、三次元オブジェクトと二次元オブジェクトとを互いに比較する。
すなわち、医療画像整合装置130は、三次元オブジェクト内で、二次元オブジェクトを回転及び移動させながら、二次元オブジェクトと最も類似した断面を、三次元オブジェクト内で探索する。
このとき、類似度が最大である断面を見い出すために、前述のガボール・ウェーブレット技法又はローカルバイナリパターンマッチング技法が使用される。
医療画像整合装置130は、ボリューム画像1210で類似度が最大になる断面を抽出する(S615段階)。
すなわち、医療画像整合装置130は、S610段階で探索された断面に関わる二次元断面画像をボリューム画像1210から再構成する。
医療画像整合装置130は、抽出された断面画像を出力する(S620段階)。
このとき、医療画像整合装置130は、リアルタイム医療画像と抽出された断面画像とを共に出力する。
ここで、抽出された断面画像とリアルタイム医療画像は、オーバレイされて出力されるか、あるいは並列に並んで配置されて出力される。
医療画像整合装置130は、プローブ121が静止した状態で、患者の身体活動によって、プローブ121の超音波スキャニング面が、患者の体内で相対的に移動すれば、断面画像を更新する(S625段階)。
すなわち、プローブ121が静止した状態で、リアルタイム医療画像が変化すれば、S605段階〜S620段階を反復する。
ただし、S605段階で、ボリューム画像1210に対するセグメンテーションがすでに行われているので、S625段階で、ボリューム画像1210に対するセグメンテーションは省略可能である。
図12を参照すれば、符号(1232、1242、1252)のイメージ(リアルタイム医療画像)は、患者の身体活動によって変化するリアルタイム医療画像を簡略的に示した図である。
符号1252のリアルタイム医療画像は息吸い状態、符号1232のリアルタイム医療画像は息吐き状態、符号1242のリアルタイム医療画像は、息吸いと息吐きとの中間状態を示す。
図12では、符号(1232、1242、1252)のイメージ(リアルタイム医療画像)に対するセグメンテーションがすでに行われ、臓器は、輪郭線で示され、血管は点で示される。
符号(1232、1242、1252)のイメージ(リアルタイム医療画像)前述のように、S610段階(図6参照)で、医療画像整合装置130は、息吸い状態で取得した符号1252のリアルタイム医療画像に対応する断面を、ボリューム画像1210から探索する。
符号1250の断面は、符号1252のリアルタイム医療画像に対応する断面に該当する。すなわち、符号1250の断面は、相対的に移動する仮想の超音波スキャニング面に該当する。
従って、符号1251の地点は、プローブ121が実際に位置している地点を示すのではなく、仮想の超音波スキャニング面から誘導された地点である。
次に、医療画像整合装置130は、ボリューム画像1210から、符号1250の断面に関わる断面画像を抽出及び出力する。
一方、時間の流れによって、呼吸が吸い込みと吐き出しとの中間状態になれば、医療画像整合装置130は、変化した符号1242のリアルタイム医療画像を取得する。
医療画像整合装置130は、符号1242のリアルタイム医療画像に対応する符号1240の断面を探索し、断面画像を更新する。
同様に工程に従って、息吐き状態になれば、医療画像整合装置130は、符号1232のリアルタイム医療画像に対応する符号1230の断面に係わる断面画像を、ボリューム画像1210から抽出及び出力する。
一方、実施形態によっては、医療画像整合装置130は、符号(1252、1242、1232)のリアルタイム医療画像に対応する断面画像を抽出するとき、符号(1251、1241、1231)の地点の座標値を用いて、ボリューム画像1210から断面画像を抽出することもできる。
すなわち、医療画像整合装置130は、プローブ121が物理的に移動したときと同様に、符号(1251、1241、1231)の地点の座標値を用いて、符号(1252、1242、1232)のリアルタイム医療画像に対応する断面画像を抽出することもできる。
図8は、本発明の一実施形態による医療画像整合装置の構成を示すブロック図であり、図9は、本発明の他の一実施形態による医療画像整合装置の構成を示すブロック図である。
図8及び図9の医療画像整合装置800、900は、上述の医療画像の整合方法を遂行する装置であるので、前述の内容と重複する内容は、記載を省略する。従って、図8及び図9の実施形態のために、上述の説明を参照する。
図8を参照すると、医療画像整合装置800は、リアルタイム医療画像取得部810、ボリューム画像決定部820、座標変換部840、及び画像出力部830を含む。
リアルタイム医療画像取得部810は、第1医療装置120によって撮影されるリアルタイム医療画像を取得する。
リアルタイム医療画像取得部810は、第1医療装置120から周期的にリアルタイム医療画像を取得する。
座標変換部840は、第1医療装置120で用いられる第1座標系と第2医療装置110で用いられる第2座標系とをマッピングする。
座標変換部840は、座標系をマッピングした結果を用いて、第1医療装置120のプローブ121が位置した地点を第2座標系から検出する。
ボリューム画像決定部820は、第2医療装置110によって既に撮影された三次元医療画像から第2座標系から検出されたプローブ121が位置した地点に対応するボリューム画像を決定する。
画像出力部830は、ボリューム画像から患者の身体活動によって変化するリアルタイム医療画像に対応する断面画像を抽出する。
画像出力部830は、患者の身体活動によって、プローブ121の超音波スキャニング面が患者の体内で相対的に移動される場合、断面画像を更新する。
図9を参照すると、医療画像整合装置900は、リアルタイム医療画像取得部910、ボリューム画像決定部920、画像出力部930、座標変換部940、画像分離部950、二次元画像選択部960、及び三次元医療画像保存部970を含む。
図8と重複する部分は、説明を省略する。
三次元医療画像保存部970は、第2医療装置110が、医療施術前に撮影した三次元医療画像を保存する。
保存された三次元医療画像は、複数個の二次元医療画像のセットによって構成されており、それぞれの二次元医療画像には、第2座標系上の位置を示す座標値がマッピングされている。
二次元画像選択部960は、リアルタイム医療画像の第1断面画像を生成し、第1断面画像に現れる解剖学的特徴に基づいて、三次元医療画像を構成する複数の二次元医療画像のうち、第1断面画像に対応する二次元医療画像を選択する。
そのとき、第1断面画像と三次元医療画像とで現れる解剖学的な特徴を比較するために、前述のセグメンテーションが行われる。
画像分離部950は、第1断面画像で現れる解剖学的個体と、三次元医療画像で現れる解剖学的個体とをそれぞれセグメンテーションする。
画像分離部950には、セグメンテーションを行う解剖学的個体に係わる情報が事前に入力されている。
画像分離部950は、グラフカット技法又は混合ガウスモデル技法を使用して、セグメンテーションを行う。
二次元画像選択部960は、第1断面画像でセグメンテーションされた解剖学的個体と、三次元医療画像でセグメンテーションされた解剖学的個体との類似度を計算する。
二次元画像選択部960は、ガボール・ウェーブレット技法又はローカルバイナリパターンマッチング技法を用いて、類似度を計算する。
二次元画像選択部960は、三次元医療画像で計算された類似度が最大になる二次元医療画像を選択する。
座標変換部940は、基準点検出部941及び変換関数生成部942を含む。
基準点検出部941は、第1医療装置120の仮想座標系で、第1医療装置120のプローブ121が位置した地点Bに対応する地点Bを、第2医療装置110の仮想座標系から検出する。
変換関数生成部942は、地点Bの座標値を用いて、第1医療装置120の仮想座標系を、第2医療装置110の仮想座標系に変換するための座標変換関数を生成する。
座標変換部940は、プローブ121が物理的に移動すれば、第1医療装置120で用いられる座標系で移動したプローブの座標値を受信する。
座標変換部940は、マッピングされた結果、すなわち、座標変換関数を用いて、移動されたプローブの座標値を、第2医療装置110で用いられる座標系の座標値に変換する。
このとき、座標変換関数が生成されれば、プローブ121の物理的な移動によるリアルタイム医療画像の変化を、三次元医療画像で追跡することができる。
すなわち、医療画像整合装置900は、第2座標系から検出されたプローブ121の座標値を用いて、プローブ121の物理的移動によって変化したリアルタイム医療画像に対応する断面画像を三次元医療画像から抽出して出力する。
ボリューム画像決定部920は、三次元医療画像から、第2座標系から検出されたプローブ121が位置した地点と対応するボリューム画像を決定する。
プローブ121が位置した地点に対応するボリューム画像とは、プローブ121が静止した状態で、患者の呼吸などの身体活動によって、プローブ121の超音波スキャニング面が、臓器から相対的に移動する範囲に存在する三次元医療画像をいう。
ボリューム画像決定部920は、第2座標系から検出されたプローブ121の座標値を用いて、プローブ121の超音波スキャニング面に対応する基準断面を三次元医療画像から選択する。
ボリューム画像決定部920は、プローブ121が静止した状態で、患者の身体活動によるプローブ121のスキャニング平面の相対的な移動範囲を予測する。
ボリューム画像決定部920は、予測された移動範囲に基づいて、三次元医療画像からボリューム画像のサイズを決定する。
ボリューム画像決定部920は、第2座標系から検出されたプローブ121が位置した地点の座標値を用いて、プローブ121のスキャニング平面に対応する基準断面を三次元医療画像から選択し、基準断面及び基準断面に隣接した断面を三次元医療画像から選択する。
このとき、モデル再構成部931は、基準断面と隣接した断面を累積させ、ボリューム画像を再構成する。
画像出力部930は、ボリューム画像から患者の身体活動によって変化するリアルタイム医療画像に対応する断面画像を抽出する。
画像出力部930は、リアルタイム医療画像と決定されたボリューム画像とで現れる解剖学的個体の類似度に基づいて、断面画像を抽出する。
画像出力部930は、患者の身体活動によって、プローブ121の超音波スキャニング面が患者の体内で相対的に移動される場合、断面画像を更新する。
画像出力部930は、断面画像の抽出のために、画像分離部950に対しリアルタイム医療画像とボリューム画像とで現れる解剖学的個体を、それぞれセグメンテーションすることを要請する。
次に、画像出力部930は、リアルタイム医療画像とボリューム画像とでセグメンテーションされた解剖学的個体間の類似度が最大になる断面を、ボリューム画像から抽出する。
このとき、類似度が最大である断面を見つけるために、前述のガボール・ウェーブレット技法又はローカルバイナリパターンマッチング技法が使用される。
画像出力部930は、モデル再構成部931、断面再構成部932、及び画像整合部933を含む。
モデル再構成部931は、第2医療装置110が撮影した第2医療画像のセット、すなわち、三次元医療画像を用いて、三次元モデルを再構成する。
モデル再構成部931は、三次元医療画像から、ボリューム画像決定部920によって決定されたボリューム画像を三次元モデルとして再構成する。
断面再構成部932は、モデル再構成部931が再構成した三次元モデルから断面画像を再構成する。
言い換えれば、断面再構成部932は、三次元モデルを横切る断面に係わる画像データを三次元モデルから抽出し、それを断面画像に再構成する。
断面再構成部932は、変化するリアルタイム医療画像に対応する断面に係わる画像データを三次元モデルから抽出し、断面画像を再構成する。
リアルタイム医療画像が変化する原因としては、上述のように、プローブ121の物理的な移動又は患者の身体活動を例示する。
画像整合部933は、リアルタイム医療画像と、三次元医療画像から抽出された断面画像とを整合して出力する。
断面画像とリアルタイム医療画像は、オーバレイされて出力するか、あるいは並んで配置して出力する。
画像出力部930が出力した画像は、画像表示装置140に表示される。
上述の本発明の医療画像を整合する方法に係る実施形態は、コンピュータで実行されるプログラムで作成可能であり、コンピュータで読み取り可能な記録媒体を用いて、プログラムを動作させる汎用デジタル・コンピュータで具現してもよい。
また、上記実施形態で用いられるデータの構造は、コンピュータで読み取り可能な記録媒体に、多くの手段を介して記録される。
コンピュータで読み取り可能な記録媒体は、磁気記録媒体(例えば、ROM(read−only memory)、フロッピー(登録商標)ディスク、ハードディスクなど)、光学的読み取り媒体(例えば、CD(compact disc)−ROM、DVD(digital versatile disc)など)のような記録媒体を含む。
尚、本発明は、上述の実施形態に限られるものではない。本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。
本発明による医療画像を整合する方法及びその装置は、リアルタイム医療画像と三次元医療画像とを整合して用いる医療画像装置やシステムに好適に使用される。
100 医療画像整合システム
110 第2医療装置
120 第1医療装置
121、1140 プローブ
130 医療画像整合装置
140 画像表示装置
710 六面体(全体三次元医療画像)
720 ボリューム画像
721、723 隣接断面
722 基準断面
800、900 医療画像整合装置
810、910 リアルタイム医療画像取得部
820、920 ボリューム画像決定部
830、930 画像出力部
840、940 座標変換部
931 モデル再構成部
932 断面再構成部
933 画像整合部
941 基準点検出部
942 変換関数生成部
950 画像分離部
960 二次元画像選択部
970 三次元医療画像保存部
1010、1020 イメージ
1011 座標面での断面
1030 三次元医療画像
1031、1032、1033 二次元医療画像
1110 臓器
1150 超音波スキャニング面
1210 ボリューム画像
1220 臓器
1230、1240、1250 断面
1231、1241、1251 地点
1232、1242、1252 イメージ(リアルタイム医療画像)

Claims (20)

  1. 医療画像を整合(registration)する方法において、
    第1医療装置によって撮影されるリアルタイム医療画像と第2医療装置によって既に撮影された三次元医療画像とを用いて、前記第1医療装置と前記第2医療装置とで用いられる仮想座標系をマッピングする段階と、
    前記マッピングされた結果に基づいて、前記第1医療装置のプローブが位置した地点を前記第2医療装置で用いられる仮想座標系から検出する段階と、
    前記既に撮影された三次元医療画像から、前記検出された地点に対応するボリューム画像を決定する段階と、
    決定された前記ボリューム画像から、患者の身体活動によって変化する前記リアルタイム医療画像に対応する断面画像を抽出する段階とを有することを特徴とする医療画像を整合する方法。
  2. 前記断面画像を抽出する段階は、前記患者の身体活動によって、前記プローブのスキャニング平面が、患者の体内で相対的に移動する場合、前記断面画像を更新することを特徴とする請求項1に記載の医療画像を整合する方法。
  3. 前記ボリューム画像を決定する段階は、前記プローブが静止した状態で、前記患者の身体活動による前記プローブのスキャニング平面の相対的な移動範囲を予測する段階と、
    前記予測された移動範囲に基づいて、前記三次元医療画像から、前記ボリューム画像のサイズを決定する段階とを含むことを特徴とする請求項1に記載の医療画像を整合する方法。
  4. 前記ボリューム画像を決定する段階は、前記検出された地点の座標値を用いて、前記プローブのスキャニング平面に対応する基準断面を、前記三次元医療画像から選択する段階と、
    前記基準断面及び前記基準断面に隣接した断面を、前記三次元医療画像から選択する段階とを含むことを特徴とする請求項1に記載の医療画像を整合する方法。
  5. 前記ボリューム画像を決定する段階は、前記基準断面と、前記隣接した断面とを累積させ、前記ボリューム画像を再構成することを特徴とする請求項4に記載の医療画像を整合する方法。
  6. 前記仮想座標系をマッピングする段階は、前記リアルタイム医療画像の第1断面画像を生成する段階と、
    前記第1断面画像で現れる解剖学的特徴に基づいて、前記三次元医療画像を構成する複数の二次元医療画像の内から前記第1断面画像に対応する二次元医療画像を選択する段階と、
    前記選択された二次元医療画像と前記第1断面画像とに基づいて、前記第1医療装置で用いられる座標系を前記第2医療装置で用いられる座標系に変換するための座標変換関数を生成する段階とを含むことを特徴とする請求項1に記載の医療画像を整合する方法。
  7. 前記プローブが位置した地点を検出する段階は、前記プローブが移動した場合、前記第1医療装置で用いられる座標系で前記移動したプローブの座標値を受信する段階と、
    前記マッピングされた結果を用いて、前記移動したプローブの座標値を前記第2医療装置で用いられる座標系の座標値に変換する段階とを含むことを特徴とする請求項1に記載の医療画像を整合する方法。
  8. 前記断面画像を抽出する段階は、前記リアルタイム医療画像と前記決定されたボリューム画像とで現れる複数の解剖学的個体の類似度に基づいて、前記断面画像を抽出することを特徴とする請求項1に記載の医療画像を整合する方法。
  9. 前記断面画像を抽出する段階は、前記リアルタイム医療画像と前記ボリューム画像とで現れる複数の解剖学的個体を、それぞれセグメンテーションする段階と、
    前記リアルタイム医療画像と前記ボリューム画像とでセグメンテーションされた解剖学的個体間の類似度が最大になる断面を前記ボリューム画像から抽出する段階とを含むことを特徴とする請求項1に記載の医療画像を整合する方法。
  10. 前記断面画像を抽出する段階は、前記プローブが静止した状態で変化するリアルタイム医療画像を取得し、前記取得されたリアルタイム医療画像で現れる解剖学的特徴に基づいて前記断面画像を抽出することを特徴とする請求項1に記載の医療画像を整合する方法。
  11. 請求項1乃至10のいずれか一項に記載の医療画像を整合する方法を実行するためのプログラムを記録したことを特徴とするコンピュータ読取可能記録媒体。
  12. 医療画像を整合(registration)する装置において、
    第1医療装置によって撮影されるリアルタイム医療画像を取得するリアルタイム医療画像取得部と、
    第1医療装置で用いられる仮想座標系と第2医療装置で用いられる仮想座標系とをマッピングし、該マッピングされた結果を用いて、前記第1医療装置のプローブが位置した地点を前記第2医療装置で用いられる座標系から検出する座標変換部と、
    前記第2医療装置によって既に撮影された三次元医療画像から、前記検出された地点に対応するボリューム画像を決定するボリューム画像決定部と、
    決定された前記ボリューム画像から、患者の身体活動によって変化する前記リアルタイム医療画像に対応する断面画像を抽出する画像出力部とを有することを特徴とする医療画像を整合する装置。
  13. 前記画像出力部は、前記身体活動によって、前記プローブのスキャニング平面が、患者の体内で相対的に移動する場合、前記断面画像を更新することを特徴とする請求項12に記載の医療画像を整合する装置。
  14. 前記ボリューム画像決定部は、前記プローブが静止した状態で、前記患者の身体活動による前記プローブのスキャニング平面の相対的な移動範囲を予測し、前記予測された移動範囲に基づいて、前記三次元医療画像から、前記ボリューム画像のサイズを決定することを特徴とする請求項12に記載の医療画像を整合する装置。
  15. 前記ボリューム画像決定部は、前記検出された地点の座標値を用いて、前記プローブのスキャニング平面に対応する基準断面を、前記三次元医療画像から選択し、前記基準断面及び前記基準断面に隣接した断面を、前記三次元医療画像から選択することを特徴とする請求項12に記載の医療画像を整合する装置。
  16. 前記基準断面と、前記隣接した断面とを累積させ、前記ボリューム画像を再構成するモデル再構成部をさらに有することを特徴とする請求項15に記載の医療画像を整合する装置。
  17. 前記リアルタイム医療画像の第1断面画像を生成し、前記第1断面画像で現れる解剖学的特徴に基づいて、前記三次元医療画像を構成する複数の二次元医療画像の内から前記第1断面画像に対応する二次元医療画像を選択する二次元画像選択部をさらに有し、
    前記座標変換部は、前記選択された二次元医療画像と前記第1断面画像とに基づいて、前記第1医療装置で用いられる座標系を前記第2医療装置で用いられる座標系に変換するための座標変換関数を生成することを特徴とする請求項12に記載の医療画像を整合する装置。
  18. 前記座標変換部は、前記プローブが移動した場合、前記第1医療装置で用いられる座標系で前記移動されたプローブの座標値を受信し、前記マッピングされた結果を用いて、前記移動したプローブの座標値を前記第2医療装置で用いられる座標系の座標値に変換することを特徴とする請求項12に記載の医療画像を整合する装置。
  19. 前記画像出力部は、前記リアルタイム医療画像と前記決定されたボリューム画像とで現れる複数の解剖学的個体の類似度に基づいて、前記断面画像を抽出することを特徴とする請求項12に記載の医療画像を整合する装置。
  20. 前記リアルタイム医療画像と前記ボリューム画像とで現れる複数の解剖学的個体をそれぞれセグメンテーションする画像分離部をさらに有し、
    前記画像出力部は、前記リアルタイム医療画像と前記ボリューム画像とでセグメンテーションされた解剖学的個体間の類似度が最大になる断面を前記ボリューム画像から抽出することを特徴とする請求項12に記載の医療画像を整合する装置。
JP2014031748A 2013-02-21 2014-02-21 医療画像を整合する方法及びその装置 Withdrawn JP2014161734A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130018833A KR102094502B1 (ko) 2013-02-21 2013-02-21 의료 영상들의 정합 방법 및 장치
KR10-2013-0018833 2013-02-21

Publications (1)

Publication Number Publication Date
JP2014161734A true JP2014161734A (ja) 2014-09-08

Family

ID=50239376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014031748A Withdrawn JP2014161734A (ja) 2013-02-21 2014-02-21 医療画像を整合する方法及びその装置

Country Status (5)

Country Link
US (1) US10362941B2 (ja)
EP (1) EP2769676B1 (ja)
JP (1) JP2014161734A (ja)
KR (1) KR102094502B1 (ja)
CN (1) CN104008540B (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160047921A (ko) * 2014-10-23 2016-05-03 삼성전자주식회사 초음파 영상 장치 및 그 제어 방법
JP2016096923A (ja) * 2014-11-19 2016-05-30 株式会社東芝 超音波診断装置、医用画像処理装置及び画像診断システム
JP2018102922A (ja) * 2016-12-22 2018-07-05 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. インタラクティブ方式の解剖学的マッピング及び解剖学的マッピングの品質の推定
JP2018538086A (ja) * 2015-12-22 2018-12-27 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 被験者のボリュームを検査する医用撮像装置及び医用撮像方法

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014134188A1 (en) * 2013-02-28 2014-09-04 Rivanna Medical, LLC Systems and methods for ultrasound imaging
US10966688B2 (en) * 2014-08-26 2021-04-06 Rational Surgical Solutions, Llc Image registration for CT or MR imagery and ultrasound imagery using mobile device
KR102294734B1 (ko) * 2014-09-30 2021-08-30 삼성전자주식회사 영상 정합 장치, 영상 정합 방법 및 영상 정합 장치가 마련된 초음파 진단 장치
KR102530170B1 (ko) * 2014-10-08 2023-05-10 삼성전자주식회사 영상 처리 장치, 영상 처리 장치 제어 방법 및 의료 영상 장치
CN104392452B (zh) * 2014-11-28 2015-11-18 成都影泰科技有限公司 一种基于应用的dicom医学图像处理方法
KR102278893B1 (ko) * 2014-11-28 2021-07-19 삼성전자주식회사 의료영상처리장치 및 이를 이용한 의료영상정합방법
KR102367133B1 (ko) * 2015-02-24 2022-02-24 삼성전자주식회사 의료 영상 장치 및 의료 영상 처리 방법
JP6306532B2 (ja) * 2015-03-25 2018-04-04 富士フイルム株式会社 3次元データ処理システム、方法、及びプログラム並びに3次元モデル、並びに3次元モデル造形装置
KR101705199B1 (ko) * 2015-05-12 2017-02-09 주식회사 코어라인소프트 의료 영상을 이용한 전방십자인대 재건 수술의 시뮬레이션 시스템 및 방법
KR102522539B1 (ko) 2015-08-17 2023-04-18 삼성전자주식회사 의료영상 표시장치 및 의료영상 처리방법
WO2017030276A1 (ko) * 2015-08-17 2017-02-23 삼성전자(주) 의료영상 표시장치 및 의료영상 처리방법
US20170084036A1 (en) * 2015-09-21 2017-03-23 Siemens Aktiengesellschaft Registration of video camera with medical imaging
CN108024794B (zh) * 2015-09-29 2020-12-18 富士胶片株式会社 光声测量装置及光声测量装置的信号处理方法
US11653897B2 (en) * 2016-07-07 2023-05-23 Canon Medical Systems Corporation Ultrasonic diagnostic apparatus, scan support method, and medical image processing apparatus
CN107818576B (zh) * 2016-09-14 2023-04-07 国民技术股份有限公司 芯片版图图片与测试图像的坐标映射方法及***
JP6869086B2 (ja) * 2017-04-20 2021-05-12 富士フイルム株式会社 位置合せ装置および位置合せ方法並びに位置合せプログラム
EP3508132A1 (en) * 2018-01-04 2019-07-10 Koninklijke Philips N.V. Ultrasound system and method for correcting motion-induced misalignment in image fusion
KR101890115B1 (ko) * 2018-02-13 2018-08-21 최효돈 발통점에 의한 근육 통증의 치료를 보조하는 방법, 장치, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
KR102084256B1 (ko) 2018-03-26 2020-03-03 (주)레벨소프트 복수의 후보 대응점을 이용하는 영상 정합 장치 및 방법
CN111603204A (zh) * 2019-02-22 2020-09-01 通用电气公司 用于为活检提供实时图像引导的方法和介入引导***
KR102233585B1 (ko) 2020-02-26 2021-03-30 (주)레벨소프트 복수의 후보 대응점을 이용하는 영상 정합 장치 및 방법
JP2022090787A (ja) * 2020-12-08 2022-06-20 富士フイルムヘルスケア株式会社 超音波診断システム及び操作支援方法
US11842485B2 (en) 2021-03-04 2023-12-12 GE Precision Healthcare LLC System and methods for inferring thickness of anatomical classes of interest in two-dimensional medical images using deep neural networks

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19946948A1 (de) * 1999-09-30 2001-04-05 Philips Corp Intellectual Pty Verfahren und Anordnung zur Bestimmung der Position eines medizinischen Instruments
WO2004098414A1 (ja) * 2003-05-08 2004-11-18 Hitachi Medical Corporation 超音波診断におけるリファレンス像表示方法及び超音波診断装置
CN1814323B (zh) 2005-01-31 2010-05-12 重庆海扶(Hifu)技术有限公司 一种聚焦超声波治疗***
US7831073B2 (en) 2005-06-29 2010-11-09 Accuray Incorporated Precision registration of X-ray images to cone-beam CT scan for image-guided radiation treatment
US7713205B2 (en) 2005-06-29 2010-05-11 Accuray Incorporated Dynamic tracking of soft tissue targets with ultrasound images, without using fiducial markers
CN1329874C (zh) 2005-08-29 2007-08-01 上海师范大学 一种通用的数字图像隐形信息检测方法
US7835785B2 (en) 2005-10-04 2010-11-16 Ascension Technology Corporation DC magnetic-based position and orientation monitoring system for tracking medical instruments
US7894649B2 (en) 2006-11-02 2011-02-22 Accuray Incorporated Target tracking using direct target registration
JP2010514488A (ja) * 2006-12-29 2010-05-06 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 改良されたイメージ位置合わせ、および、イメージをガイドする介入処置の手術中の移動を補償するための方法
JP5128140B2 (ja) 2007-02-05 2013-01-23 株式会社日立メディコ 医用画像診断装置
JP4934513B2 (ja) * 2007-06-08 2012-05-16 株式会社日立メディコ 超音波撮像装置
US8885897B2 (en) 2007-10-26 2014-11-11 Koninklijke Philips N.V. Closed loop registration control for multi-modality soft tissue imaging
KR101014551B1 (ko) * 2008-09-29 2011-02-16 주식회사 메디슨 대상체를 자동으로 인식하는 초음파 시스템 및 방법
KR101028365B1 (ko) 2009-02-04 2011-04-11 서울대학교산학협력단 연속된 컴퓨터 단층촬영의 폐결절 다단계 정합 방법 및 장치
WO2012019162A1 (en) 2010-08-06 2012-02-09 Accuray, Inc. Systems and methods for real-time tumor tracking during radiation treatment using ultrasound imaging
US9254112B2 (en) * 2011-03-23 2016-02-09 Siemens Corporation Respiratory interval-based correlation and processing of dynamic imaging data
KR20120111871A (ko) * 2011-03-29 2012-10-11 삼성전자주식회사 3차원적 모델을 이용한 신체 장기의 영상 생성 방법 및 장치
KR20130015146A (ko) * 2011-08-02 2013-02-13 삼성전자주식회사 의료 영상 처리 방법 및 장치, 영상 유도를 이용한 로봇 수술 시스템

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160047921A (ko) * 2014-10-23 2016-05-03 삼성전자주식회사 초음파 영상 장치 및 그 제어 방법
KR102328269B1 (ko) 2014-10-23 2021-11-19 삼성전자주식회사 초음파 영상 장치 및 그 제어 방법
JP2016096923A (ja) * 2014-11-19 2016-05-30 株式会社東芝 超音波診断装置、医用画像処理装置及び画像診断システム
JP2018538086A (ja) * 2015-12-22 2018-12-27 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 被験者のボリュームを検査する医用撮像装置及び医用撮像方法
JP2018102922A (ja) * 2016-12-22 2018-07-05 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. インタラクティブ方式の解剖学的マッピング及び解剖学的マッピングの品質の推定
JP7046591B2 (ja) 2016-12-22 2022-04-04 バイオセンス・ウエブスター・(イスラエル)・リミテッド インタラクティブ方式の解剖学的マッピング及び解剖学的マッピングの品質の推定

Also Published As

Publication number Publication date
EP2769676A1 (en) 2014-08-27
EP2769676B1 (en) 2023-06-28
US10362941B2 (en) 2019-07-30
CN104008540A (zh) 2014-08-27
KR102094502B1 (ko) 2020-03-30
CN104008540B (zh) 2019-01-25
KR20140105101A (ko) 2014-09-01
US20140235998A1 (en) 2014-08-21

Similar Documents

Publication Publication Date Title
KR102094502B1 (ko) 의료 영상들의 정합 방법 및 장치
KR102001219B1 (ko) 의료 영상들의 정합 방법 및 장치
KR102114415B1 (ko) 의료 영상 정합 방법 및 장치
KR101932721B1 (ko) 의료 영상들의 정합 방법 및 장치
KR102204437B1 (ko) 컴퓨터 보조 진단 방법 및 장치
JP4728627B2 (ja) Ct血管造影法における構造を領域分割する方法及び装置
JP5584006B2 (ja) 投影画像生成装置、投影画像生成プログラムおよび投影画像生成方法
EP2297673B1 (en) Feature-based registration method
JP5474342B2 (ja) 3−d画像および表面マッピングによる解剖学的モデル化
KR101982149B1 (ko) 의료 영상의 일부 정보를 활용한 장기 영상 생성 방법 및 장치
KR102205898B1 (ko) 의료영상들을 정합하는 방법 및 장치
JP2020520744A (ja) 画像の三次元再構成及び改善された対象物定位のために、放射状気管支内超音波プローブを用いるための方法
JP2012205899A (ja) 3次元的モデルを利用した身体臓器の映像生成方法及び装置並びにコンピュータ読み取り可能な記録媒体
KR20120111871A (ko) 3차원적 모델을 이용한 신체 장기의 영상 생성 방법 및 장치
KR20130143434A (ko) 고강도 집속 초음파의 초점을 결정하는 방법 및 장치
KR102233966B1 (ko) 의료 영상 정합 방법 및 그 장치
US7376254B2 (en) Method for surface-contouring of a three-dimensional image
JP5364009B2 (ja) 画像生成装置、画像生成方法、及びそのプログラム
KR102250086B1 (ko) 의료 영상 정합 방법, 이를 포함하는 장치 및 컴퓨터 기록 매체
JPWO2018159708A1 (ja) 血流解析装置および方法並びにプログラム
KR20150026354A (ko) 의료영상들을 정합하는 방법 및 장치
TWI840465B (zh) 決定輻射參數的系統和方法以及其非暫態電腦可讀取儲存媒介
Maleika Algorithm for creating three-dimensional models of internal organs based on computer tomography

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170221

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20170323