JPWO2020054019A1 - 画像処理装置、画像処理方法、及びプログラム - Google Patents
画像処理装置、画像処理方法、及びプログラム Download PDFInfo
- Publication number
- JPWO2020054019A1 JPWO2020054019A1 JP2020546624A JP2020546624A JPWO2020054019A1 JP WO2020054019 A1 JPWO2020054019 A1 JP WO2020054019A1 JP 2020546624 A JP2020546624 A JP 2020546624A JP 2020546624 A JP2020546624 A JP 2020546624A JP WO2020054019 A1 JPWO2020054019 A1 JP WO2020054019A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- guide line
- region
- area
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- High Energy & Nuclear Physics (AREA)
- Radiology & Medical Imaging (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Image Analysis (AREA)
Abstract
画像処理装置3は、臓器の撮影画像から、人工知能によって対象組織の領域を推定する領域推定部304と、該領域推定部304により推定された対象組織の領域に基づいて、対象組織の領域に含まれるガイド線を決定するガイド線決定部306と、ガイド線決定部306により決定されたガイド線に基づいて、撮影画像から、対象組織に相当する画像領域を抽出する画像抽出部とを有する。また、対象組織は、管状組織であり、領域推定部304は、管状組織の領域を推定し、ガイド線決定部306は、管状組織が広がる方向及び範囲の少なくとも一方を示すガイド線を決定し、画像抽出部は、管状組織に相当する画像領域を抽出する。
Description
本発明は、画像処理装置、画像処理方法、及びプログラムに関する。
例えば、非特許文献1には、診断画像データからAuto-Seedingとして冠動脈の始点(上行大動脈から冠動脈末端に伸びる始点)を検索し、その始点からVirtual Contrast Injection法にて冠動脈をたどって抽出(分離、骨格化)する方法が開示されている。
また、特許文献2には、現在診断画像をセグメント化するシステムであって、複数の患者から生成された、選択された関心ボリュームの以前に生成された診断画像において、関心ボリュームをセグメント化する1又は複数のワークステーションと、前記以前に生成されセグメント化された画像を位置合わせし、前記以前に生成されセグメント化された画像をマージして、(1)各ボクセルが前記関心ボリュームを表す確率、(2)各ボクセルがバックグラウンドを表す確率、及び(3)平均セグメント化境界、を示す確率マップを与えるようにプログラムされる1又は複数のプロセッサと、前記確率マップを現在患者の関心ボリュームの現在診断画像と位置合わせして、変換された確率マップを生成するセグメント化プロセッサとを有するシステムが開示されている。
また、特許文献3には、生体内部を示す3次元ボリュームデータを用いて医用画像を生成する医用画像処理装置であって、前記3次元ボリュームデータで示される所定の管状組織の断面を含む領域を複数指定する断面領域指定部と、前記断面領域指定部が指定した各断面領域に含まれる前記3次元ボリュームデータを用いて、当該断面領域に含まれる前記管状組織の断面を画像化する画像化部と、前記管状組織の断面を示す画像の中心位置を示す3次元ボリュームデータを特定する中心特定部と、前記中心特定部が特定した各断面領域における管断面の中心位置を示す3次元ボリュームデータに基づいて、前記管状組織の長尺方向中心線を示す前記3次元ボリュームデータを特定する中心線特定部とを備えることを特徴とする医用画像処理装置が開示されている。
An Automatic Seeding Method For Coronary Artery Segmentation and Skeletonization in CTA
特表2013−521844号公報
特開2004‐313736号公報
臓器の撮影画像において、対象組織の特定を容易にする画像処理装置を提供することを目的とする。
本発明に係る画像処理装置は、臓器の撮影画像から、人工知能によって対象組織の領域を推定する領域推定部と、前記領域推定部により推定された対象組織の領域に基づいて、対象組織の領域に含まれるガイド線を決定するガイド線決定部と、前記ガイド線決定部により決定されたガイド線に基づいて、前記撮影画像から、対象組織に相当する画像領域を抽出する画像抽出部とを有する。
本発明に係る画像処理装置は、臓器の撮影画像から、人工知能によって対象組織の領域を推定する領域推定部と、前記領域推定部により推定された対象組織の領域に基づいて、対象組織の領域に含まれるガイド線を決定するガイド線決定部と、前記ガイド線決定部により決定されたガイド線に沿ったガイド画像を、前記撮影画像に重ね合わせて表示する画像表示部とを有する。
好適には、前記対象組織は、管状組織であり、前記領域推定部は、管状組織の領域を推定し、前記ガイド線決定部は、管状組織が広がる方向及び範囲の少なくとも一方を示すガイド線を決定し、前記画像抽出部は、管状組織に相当する画像領域を抽出する。
好適には、前記撮影画像は、冠動脈が含まれた領域のMRI画像であり、前記領域推定部は、冠動脈の領域を推定し、前記ガイド線決定部は、冠動脈が広がる方向及び範囲の少なくとも一方を示すガイド線を決定し、前記画像抽出部は、MRI画像から、冠動脈に相当する画像領域を抽出する。
好適には、前記ガイド線決定部は、管状組織の中央部をとおる中心線を前記ガイド線として決定し、前記画像抽出部は、前記中心線に相当する位置の輝度情報と、この周囲の輝度情報とを比較して、管状組織に相当する画像領域を抽出する。
好適には、前記領域推定部は、冠動脈が含まれた領域の複数のMRI画像と、これらのMRI画像から抽出された冠動脈の画像領域とのセットを教師データとして構成された人工知能を用いて、冠動脈の領域を推定する。
好適には、前記ガイド線決定部は、推定された対象組織の領域を、既定の補間法でつないで、曲線からなるガイド線を決定する。
本発明に係る画像処理方法は、臓器の撮影画像から、人工知能によって対象組織の領域を推定するステップと、推定された対象組織の領域に基づいて、対象組織の領域に含まれるガイド線を決定するステップと、決定されたガイド線に基づいて、前記撮影画像から、対象組織に相当する画像領域を抽出するステップとを有する。
本発明に係るプログラムは、臓器の撮影画像から、人工知能によって対象組織の領域を推定するステップと、推定された対象組織の領域に基づいて、対象組織の領域に含まれるガイド線を決定するステップと、決定されたガイド線に沿ったガイド画像を、前記撮影画像に重ね合わせて表示するステップとをコンピュータに実行させる。
臓器の撮影画像において、対象組織の特定を容易にすることができる。
[背景]
本発明がなされた背景を説明する。
循環器診断ではコンピュータ断層診断装置による診断を行う。診断の手順は、例えば、(1)コンピュータ断層診断装置で撮影、(2)撮影画像から関心領域(VOI)を抽出(トリミング)、(3)冠動脈を抽出、(4)心臓VR(立体三次元画像)データを抽出、(5)これらの情報をもとに数値化などを行い医師が見やすい形式で表示、という流れである。
撮影方法の主流は造影剤を用いた放射線CTであるが造影剤の副作用や放射線リスクが伴う。これらリスクのないMRI(核磁気共鳴画像)方式も今後導入が進むと考えられるが、解像度の荒さやアーチファクト(特有のノイズ)のため、従来の画像処理技術では冠動脈の抽出(分離、骨格化)を自動化することが難しく、熟練した読影医が半手動で抽出を行っている。そしてそのような読影医は不足気味である。そのため診療の現場では、熟練した読影医に頼らずMRI画像などから自動的に冠動脈を抽出し、更に、患者説明に有効な心臓VRデータを抽出して医師が見やすい適切な形式で表示する手段の実現が望まれている。
本発明がなされた背景を説明する。
循環器診断ではコンピュータ断層診断装置による診断を行う。診断の手順は、例えば、(1)コンピュータ断層診断装置で撮影、(2)撮影画像から関心領域(VOI)を抽出(トリミング)、(3)冠動脈を抽出、(4)心臓VR(立体三次元画像)データを抽出、(5)これらの情報をもとに数値化などを行い医師が見やすい形式で表示、という流れである。
撮影方法の主流は造影剤を用いた放射線CTであるが造影剤の副作用や放射線リスクが伴う。これらリスクのないMRI(核磁気共鳴画像)方式も今後導入が進むと考えられるが、解像度の荒さやアーチファクト(特有のノイズ)のため、従来の画像処理技術では冠動脈の抽出(分離、骨格化)を自動化することが難しく、熟練した読影医が半手動で抽出を行っている。そしてそのような読影医は不足気味である。そのため診療の現場では、熟練した読影医に頼らずMRI画像などから自動的に冠動脈を抽出し、更に、患者説明に有効な心臓VRデータを抽出して医師が見やすい適切な形式で表示する手段の実現が望まれている。
一般にMRI画像、とりわけ冠動脈始点が識別困難な画像では、コンピュータ処理による冠動脈の自動的な検出は成功率が低い。成功率が低い要因は、手法上の要因と画像特性の要因とがある。手法上の要因として、従来、画像全体の中で血管がどれであるかを認識する方法は、冠動脈の始点から探索する方法を取っているので、冠動脈の始点が見つからないと、冠動脈は検出できないこと、そして、同様の理由で、狭窄や他の原因で冠動脈の一部に画素情報が認識できないと、その先にある箇所の冠動脈が輝点として存在していても探索対象にならないこと、が挙げられる。
また、画像特性の要因として、冠動脈直径(約3mm)に対して、MRI画像の解像度(1.2mm)が十分でない(CTの解像度は0.6mmであり、比較的成功率は高い)こと、そして、アーチファクトの問題により冠動脈が脂肪細胞など他組織に埋没して見えてしまうことが多く、特に冠動脈の始点は他組織に埋没することが多いことが挙げられる。
また、画像特性の要因として、冠動脈直径(約3mm)に対して、MRI画像の解像度(1.2mm)が十分でない(CTの解像度は0.6mmであり、比較的成功率は高い)こと、そして、アーチファクトの問題により冠動脈が脂肪細胞など他組織に埋没して見えてしまうことが多く、特に冠動脈の始点は他組織に埋没することが多いことが挙げられる。
上記課題に対して、本発明は、読影医の介入無しに人工知能によって冠動脈の領域を推定し、推定した領域において冠動脈中心線を決定し、その中心線に沿ってもとの冠動脈の撮影画像(MRI画像)から輝度情報を基に血管の画素部分を抽出し、冠動脈画像を自動で抽出する方法である。
本発明の実施形態を、図面を参照して説明する。
図1は、画像処理システム1の全体構成を例示する図である。
図1に例示するように、画像処理システム1は、画像送信装置2a、画像送信装置2b、画像送信装置2c及び画像処理装置3を含み、ネットワーク7を介して互いに接続している。画像送信装置2a、画像送信装置2b、画像送信装置2cを合わせて画像送信装置2と称する
画像送信装置2は、コンピュータ端末であり、臓器の撮影画像を画像処理装置に送信する。具体的には、画像送信装置2は、MRI(磁気共鳴画像装置)により撮像された、患者の体の断層画像データ(以下、画像データとする。)を画像処理装置3に送信する。
画像処理装置3は、コンピュータ端末であり、画像送信装置2により受信した画像データに基づいて、対象組織の画像領域を抽出する。本例において、対象組織は管状組織であり、本例においては、冠動脈である。画像処理装置3は、抽出した画像領域を画像送信装置2に送信する。
図1は、画像処理システム1の全体構成を例示する図である。
図1に例示するように、画像処理システム1は、画像送信装置2a、画像送信装置2b、画像送信装置2c及び画像処理装置3を含み、ネットワーク7を介して互いに接続している。画像送信装置2a、画像送信装置2b、画像送信装置2cを合わせて画像送信装置2と称する
画像送信装置2は、コンピュータ端末であり、臓器の撮影画像を画像処理装置に送信する。具体的には、画像送信装置2は、MRI(磁気共鳴画像装置)により撮像された、患者の体の断層画像データ(以下、画像データとする。)を画像処理装置3に送信する。
画像処理装置3は、コンピュータ端末であり、画像送信装置2により受信した画像データに基づいて、対象組織の画像領域を抽出する。本例において、対象組織は管状組織であり、本例においては、冠動脈である。画像処理装置3は、抽出した画像領域を画像送信装置2に送信する。
図2は、画像処理装置3のハードウェア構成を例示する図である。
図2に例示するように、画像処理装置3は、CPU200、メモリ202、HDD204、ネットワークインタフェース206(ネットワークIF206)、表示装置208、及び入力装置210を有し、これらの構成はバス212を介して互いに接続している。
CPU200は、例えば、中央演算装置である。
メモリ202は、例えば、揮発性メモリであり、主記憶装置として機能する。
HDD204は、例えば、ハードディスクドライブ装置であり、不揮発性の記録装置としてコンピュータプログラムやその他のデータファイルを格納する。
ネットワークIF206は、有線又は無線で通信するためのインタフェースである。
表示装置208は、例えば、液晶ディスプレイである。
入力装置210は、例えば、キーボード及びマウスである。
図2に例示するように、画像処理装置3は、CPU200、メモリ202、HDD204、ネットワークインタフェース206(ネットワークIF206)、表示装置208、及び入力装置210を有し、これらの構成はバス212を介して互いに接続している。
CPU200は、例えば、中央演算装置である。
メモリ202は、例えば、揮発性メモリであり、主記憶装置として機能する。
HDD204は、例えば、ハードディスクドライブ装置であり、不揮発性の記録装置としてコンピュータプログラムやその他のデータファイルを格納する。
ネットワークIF206は、有線又は無線で通信するためのインタフェースである。
表示装置208は、例えば、液晶ディスプレイである。
入力装置210は、例えば、キーボード及びマウスである。
図3は、画像処理装置3の機能構成を例示する図である。
図3に例示するように、画像処理装置3には、画像処理プログラム30がインストールされ、画像処理プログラム30は、例えば、CD−ROM等の記録媒体に格納されており、この記録媒体を介して、画像処理装置3にインストールされると共に学習データデータベース600(学習データDB600)を構成する。
なお、画像処理プログラム30の一部又は全部は、ASICなどのハードウェアにより実現されてもよく、また、OS(Operating System)の機能を一部借用して実現されてもよい。また、このプログラム全体が一台のコンピュータ端末にインストールされてもよいし、クラウド上の仮想マシンにインストールされてもよい。
図3に例示するように、画像処理装置3には、画像処理プログラム30がインストールされ、画像処理プログラム30は、例えば、CD−ROM等の記録媒体に格納されており、この記録媒体を介して、画像処理装置3にインストールされると共に学習データデータベース600(学習データDB600)を構成する。
なお、画像処理プログラム30の一部又は全部は、ASICなどのハードウェアにより実現されてもよく、また、OS(Operating System)の機能を一部借用して実現されてもよい。また、このプログラム全体が一台のコンピュータ端末にインストールされてもよいし、クラウド上の仮想マシンにインストールされてもよい。
画像処理プログラム30は、画像取得部300、領域切取部302、領域推定部304、ガイド線決定部306、画像抽出部308、及び画像表示部310を有する。
画像処理プログラム30において、画像取得部300は、画像送信装置2により送信されたMRIの画像データを取得する。
領域切取部302は、画像データから解析に必要な領域(VOI)のみを抽出する。
領域推定部304は、臓器の撮影画像から、人工知能によって対象組織の領域を推定する。具体的には、対象組織は管状組織であり、より具体的には、領域推定部304は、冠動脈の領域を推定する。領域推定部304は、冠動脈が含まれた領域の複数のMRI画像と、これらのMRI画像から抽出された冠動脈の画像領域とのセットを教師データとして構成された人工知能を用いて、冠動脈の領域を推定する。
なお、本発明における人工知能(AI:Artificial Intelligence)は、ニューラルネットワークにおいて、ディープラーニングにより教師データを学習する。教師データは、MRI画像データに関連付けられた、医師が抽出した冠動脈の3Dデータである。人工知能は、教師データを学習し、これに基づいて冠動脈の領域を推定する。学習データDB600は、教師データを保持し、新たな教師データが入力された場合に、人工知能は再学習してもよい。
領域切取部302は、画像データから解析に必要な領域(VOI)のみを抽出する。
領域推定部304は、臓器の撮影画像から、人工知能によって対象組織の領域を推定する。具体的には、対象組織は管状組織であり、より具体的には、領域推定部304は、冠動脈の領域を推定する。領域推定部304は、冠動脈が含まれた領域の複数のMRI画像と、これらのMRI画像から抽出された冠動脈の画像領域とのセットを教師データとして構成された人工知能を用いて、冠動脈の領域を推定する。
なお、本発明における人工知能(AI:Artificial Intelligence)は、ニューラルネットワークにおいて、ディープラーニングにより教師データを学習する。教師データは、MRI画像データに関連付けられた、医師が抽出した冠動脈の3Dデータである。人工知能は、教師データを学習し、これに基づいて冠動脈の領域を推定する。学習データDB600は、教師データを保持し、新たな教師データが入力された場合に、人工知能は再学習してもよい。
ガイド線決定部306は、領域推定部304により推定された冠動脈の領域に基づいて、冠動脈の領域に含まれるガイド線を決定する。具体的には、ガイド線決定部306は、冠動脈が広がる方向及び範囲の少なくとも一方を示すガイド線を決定する。より具体的には、ガイド線決定部306は、冠動脈の中央部を通る中心線をガイド線として決定する。ガイド線の決定方法として、ガイド線決定部306は、推定された冠動脈の領域を、既定の補間法でつないで、曲線からなるガイド線を決定する。ガイド線は、方向又は範囲を示すものであり、線幅やパターンは任意である。ガイド線は、点線や、破線、鎖線、矢印線、中抜き線等であってもよい。
画像抽出部308は、ガイド線決定部306により決定されたガイド線に基づいて、撮影画像から、冠動脈に相当する画像領域を抽出する。具体的には、画像抽出部308は、MRI画像から、冠動脈に相当する画像領域を抽出する。さらに、画像抽出部308は、中心線に相当する位置の輝度情報と、この周囲の輝度情報とを比較して、冠動脈に相当する画像領域を抽出する。より具体的には、画像抽出部308は、抽出した画像領域を抽出図として表す。
画像表示部310は、ガイド線決定部306により決定されたガイド線に沿ったガイド画像を、MRI画像に重ね合わせて表示する。また、画像表示部310は、冠動脈抽出画像と共に、冠動脈の3D画像、または冠動脈直径値等をレポート出力する。
図4は、冠動脈抽出処理(S10)を説明するフローチャートである。
図4に例示するように、ステップ100(S100)において、画像取得部300は、MRIで撮影された、診断対象である画像データを取得する。
ステップ105(S105)において、領域切取部302は、画像データから解析に必要な領域(VOI)のみを抽出する。そして、領域切取部302は、抽出した領域をニューラルネットワークへ入力するために、データファイル形式変換等の前処理を実施する。
ステップ110(S110)において、領域推定部304は、ニューラルネットワークを用いて、抽出した領域において冠動脈を推定し、抽出する。
ステップ115(S115)において、ガイド線決定部306は、冠動脈の中央部を通る中心線をガイド線として決定する。
ステップ120(S120)において、画像抽出部308は、ガイド線決定部306により決定されたガイド線に基づいて、元の患者データ(診断対象のMRI画像データ)の輝度信号をつなぎ、冠動脈抽出図を作成する。
ステップ125(S125)において、画像表示部310は、医師の診断に有用な形状(例えば、3D画像)、または冠動脈直径値等をレポート出力する。
図4に例示するように、ステップ100(S100)において、画像取得部300は、MRIで撮影された、診断対象である画像データを取得する。
ステップ105(S105)において、領域切取部302は、画像データから解析に必要な領域(VOI)のみを抽出する。そして、領域切取部302は、抽出した領域をニューラルネットワークへ入力するために、データファイル形式変換等の前処理を実施する。
ステップ110(S110)において、領域推定部304は、ニューラルネットワークを用いて、抽出した領域において冠動脈を推定し、抽出する。
ステップ115(S115)において、ガイド線決定部306は、冠動脈の中央部を通る中心線をガイド線として決定する。
ステップ120(S120)において、画像抽出部308は、ガイド線決定部306により決定されたガイド線に基づいて、元の患者データ(診断対象のMRI画像データ)の輝度信号をつなぎ、冠動脈抽出図を作成する。
ステップ125(S125)において、画像表示部310は、医師の診断に有用な形状(例えば、3D画像)、または冠動脈直径値等をレポート出力する。
図5は、ガイド線決定処理(S20)を説明するフローチャートである。
図5に例示するように、ステップ200(S200)において、領域推定部304は、教師データ及び血管走行の学習に基づいて、冠動脈の画像のうち、AIにより対象組織の一部であると推定される期待値が、閾値以上のピクセルを特定する。
ステップ205(S205)において、ガイド線決定部306は、特定されたピクセルを含む領域を細線化し、冠動脈の中心線を得る。図6(a)に例示するように、プログラム上において線構造は、空間内での点の列であるから、中心線は冠動脈に沿って点在している状態である。
ステップ210(S210)において、点在する中心線の先端と後端とが近接している場合は、ガイド線決定部306は、S215へ移行し、近接していない場合は、S220へ移行する。
ステップ215(S215)において、ガイド線決定部306は、図6(b)に例示するように、点在している点群を一つの列と捉え、列の降端の点から近い別の列の先端の点を検索し、その間をつなぎ、ガイド線を決定する。
ステップ220(S220)において、ガイド線決定部306は、血管推定技術を用いて、点在する中心線をつなぎ、ガイド線を決定する。具体的には、ガイド線決定部306は、抽出点を通過する曲線回帰手法(例えば、n次スプライン補間)により中心線をつなぐ。
図5に例示するように、ステップ200(S200)において、領域推定部304は、教師データ及び血管走行の学習に基づいて、冠動脈の画像のうち、AIにより対象組織の一部であると推定される期待値が、閾値以上のピクセルを特定する。
ステップ205(S205)において、ガイド線決定部306は、特定されたピクセルを含む領域を細線化し、冠動脈の中心線を得る。図6(a)に例示するように、プログラム上において線構造は、空間内での点の列であるから、中心線は冠動脈に沿って点在している状態である。
ステップ210(S210)において、点在する中心線の先端と後端とが近接している場合は、ガイド線決定部306は、S215へ移行し、近接していない場合は、S220へ移行する。
ステップ215(S215)において、ガイド線決定部306は、図6(b)に例示するように、点在している点群を一つの列と捉え、列の降端の点から近い別の列の先端の点を検索し、その間をつなぎ、ガイド線を決定する。
ステップ220(S220)において、ガイド線決定部306は、血管推定技術を用いて、点在する中心線をつなぎ、ガイド線を決定する。具体的には、ガイド線決定部306は、抽出点を通過する曲線回帰手法(例えば、n次スプライン補間)により中心線をつなぐ。
以上説明したように、本実施形態の画像処理システム1によれば、MRI画像のような低解像度やノイズを持つ、とりわけ冠動脈始点の識別が難しい画像でも、AIによる冠動脈の推定とガイド線とに基づいて冠動脈の抽出処理が可能であるため、より高精度且つ高成功率で冠動脈抽出処理が可能である。また、医師の介在を必要とせずに自動で冠動脈抽出処理を行うことができるため、医師の技量への依存を低減することも可能である。また、AIによる出力は、冠動脈中心線を出力するためのみに用いるため、AIのみを用いた冠動脈抽出よりも学習データによるAIの精度によるばらつきを低減でき、かつ、最終的に輝度情報を基に冠動脈を抽出することから、従来と同等の信頼度で診断に利用可能な情報を得ることができる。
上記実施形態では、画像抽出部308により、冠動脈の抽出図を作成しているが、これに限定されず、例えば、図7に例示するように、画像表示部310が、ガイド線決定部306により決定されたガイド線に沿ったガイド画像8を、MRI画像9に重ね合わせて表示し、表示された画像に基づいて、読影医により冠動脈の抽出図を作成してもよい。
1…画像処理システム
2…画像送信装置
3…画像処理装置
30…画像処理プログラム
2…画像送信装置
3…画像処理装置
30…画像処理プログラム
Claims (9)
- 臓器の撮影画像から、人工知能によって対象組織の領域を推定する領域推定部と、
前記領域推定部により推定された対象組織の領域に基づいて、対象組織の領域に含まれるガイド線を決定するガイド線決定部と、
前記ガイド線決定部により決定されたガイド線に基づいて、前記撮影画像から、対象組織に相当する画像領域を抽出する画像抽出部と
を有する画像処理装置。 - 臓器の撮影画像から、人工知能によって対象組織の領域を推定する領域推定部と、
前記領域推定部により推定された対象組織の領域に基づいて、対象組織の領域に含まれるガイド線を決定するガイド線決定部と、
前記ガイド線決定部により決定されたガイド線に沿ったガイド画像を、前記撮影画像に重ね合わせて表示する画像表示部と
を有する画像処理装置。 - 前記対象組織は、管状組織であり、
前記領域推定部は、管状組織の領域を推定し、
前記ガイド線決定部は、管状組織が広がる方向及び範囲の少なくとも一方を示すガイド線を決定し、
前記画像抽出部は、管状組織に相当する画像領域を抽出する
請求項1又は2に記載の画像処理装置。 - 前記撮影画像は、冠動脈が含まれた領域のMRI画像であり、
前記領域推定部は、冠動脈の領域を推定し、
前記ガイド線決定部は、冠動脈が広がる方向及び範囲の少なくとも一方を示すガイド線を決定し、
前記画像抽出部は、MRI画像から、冠動脈に相当する画像領域を抽出する
請求項3に記載の画像処理装置。 - 前記ガイド線決定部は、管状組織の中央部をとおる中心線を前記ガイド線として決定し、
前記画像抽出部は、前記中心線に相当する位置の輝度情報と、この周囲の輝度情報とを比較して、管状組織に相当する画像領域を抽出する
請求項3に記載の画像処理装置。 - 前記領域推定部は、冠動脈が含まれた領域の複数のMRI画像と、これらのMRI画像から抽出された冠動脈の画像領域とのセットを教師データとして構成された人工知能を用いて、冠動脈の領域を推定する
請求項4に記載の画像処理装置。 - 前記ガイド線決定部は、推定された対象組織の領域を、既定の補間法でつないで、曲線からなるガイド線を決定する
請求項3に記載の画像処理装置。 - 臓器の撮影画像から、人工知能によって対象組織の領域を推定するステップと、
推定された対象組織の領域に基づいて、対象組織の領域に含まれるガイド線を決定するステップと、
決定されたガイド線に基づいて、前記撮影画像から、対象組織に相当する画像領域を抽出するステップと
を有する画像処理方法。 - 臓器の撮影画像から、人工知能によって対象組織の領域を推定するステップと、
推定された対象組織の領域に基づいて、対象組織の領域に含まれるガイド線を決定するステップと、
決定されたガイド線に沿ったガイド画像を、前記撮影画像に重ね合わせて表示するステップと
をコンピュータに実行させるプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/033980 WO2020054019A1 (ja) | 2018-09-13 | 2018-09-13 | 画像処理装置、画像処理方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2020054019A1 true JPWO2020054019A1 (ja) | 2021-04-30 |
Family
ID=69776532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020546624A Pending JPWO2020054019A1 (ja) | 2018-09-13 | 2018-09-13 | 画像処理装置、画像処理方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2020054019A1 (ja) |
WO (1) | WO2020054019A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023075462A (ja) * | 2021-11-19 | 2023-05-31 | 朝日インテック株式会社 | 医療装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009207886A (ja) * | 2008-02-07 | 2009-09-17 | Fujifilm Corp | 椎骨中心検出装置および方法並びにプログラム |
JP2011025005A (ja) * | 2009-07-03 | 2011-02-10 | Fujifilm Corp | 診断支援装置、診断支援プログラムおよび診断支援方法 |
JP2014171908A (ja) * | 2013-03-11 | 2014-09-22 | Toshiba Corp | 解剖学的ランドマーク及び臨床的オントロジー(ontology)を用いて血管樹形図等を作成する医用画像処理装置及び方法 |
WO2016159379A1 (ja) * | 2015-04-02 | 2016-10-06 | イービーエム株式会社 | 血管形状構築装置、その方法及びコンピュータソフトウエアプログラム |
US20180000441A1 (en) * | 2016-06-30 | 2018-01-04 | Shanghai United Imaging Healthcare Co., Ltd. | Methods and systems for extracting blood vessel |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5242235B2 (ja) * | 2008-05-08 | 2013-07-24 | 株式会社東芝 | Mri画像診断装置及びmr画像形成方法 |
-
2018
- 2018-09-13 WO PCT/JP2018/033980 patent/WO2020054019A1/ja active Application Filing
- 2018-09-13 JP JP2020546624A patent/JPWO2020054019A1/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009207886A (ja) * | 2008-02-07 | 2009-09-17 | Fujifilm Corp | 椎骨中心検出装置および方法並びにプログラム |
JP2011025005A (ja) * | 2009-07-03 | 2011-02-10 | Fujifilm Corp | 診断支援装置、診断支援プログラムおよび診断支援方法 |
JP2014171908A (ja) * | 2013-03-11 | 2014-09-22 | Toshiba Corp | 解剖学的ランドマーク及び臨床的オントロジー(ontology)を用いて血管樹形図等を作成する医用画像処理装置及び方法 |
WO2016159379A1 (ja) * | 2015-04-02 | 2016-10-06 | イービーエム株式会社 | 血管形状構築装置、その方法及びコンピュータソフトウエアプログラム |
US20180000441A1 (en) * | 2016-06-30 | 2018-01-04 | Shanghai United Imaging Healthcare Co., Ltd. | Methods and systems for extracting blood vessel |
Also Published As
Publication number | Publication date |
---|---|
WO2020054019A1 (ja) | 2020-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3659114B1 (en) | Evaluating cardiac motion using an angiography image | |
JP6894896B2 (ja) | X線画像特徴検出および位置合わせのシステムおよび方法 | |
KR101478598B1 (ko) | 화상처리장치, 그 제어방법 및 컴퓨터 프로그램 | |
JP4850892B2 (ja) | 眼底画像表示装置及びその制御方法、コンピュータプログラム | |
EP2967480B1 (en) | Vascular data processing and image registration methods | |
JP5571654B2 (ja) | 肺動脈のセグメント化 | |
US8923579B2 (en) | Surgery-assistance apparatus, method and computer-readable recording medium storing a program for setting a margin during organ excision | |
JP2002282235A (ja) | 医用画像の自動セグメント分割の方法 | |
JP2008529641A (ja) | 3次元医療画像からの肺動脈樹の自動抽出の方法 | |
US9198603B2 (en) | Device, method and program for searching for the shortest path in a tubular structure | |
Beichel et al. | Liver segment approximation in CT data for surgical resection planning | |
EP2157905A1 (en) | A method for tracking 3d anatomical and pathological changes in tubular-shaped anatomical structures | |
JP2018134393A (ja) | 血管のセグメンテーションの方法および装置 | |
JP2012075938A (ja) | 画像処理装置及びその制御方法、コンピュータプログラム | |
JP5105997B2 (ja) | 医用画像処理装置、医用画像診断装置、及びプログラム | |
JP7049402B2 (ja) | プロセッサ装置の作動方法 | |
US20220319004A1 (en) | Automatic vessel analysis from 2d images | |
Lin et al. | Retinal vascular tree reconstruction with anatomical realism | |
WO2021191909A1 (en) | Functional measurements of vessels using a temporal feature | |
JPWO2020054019A1 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
US20230222668A1 (en) | Image processing apparatus, image processing method, and recording medium | |
CN114708390B (zh) | 一种生理管状结构的图像处理方法、装置及存储介质 | |
CN112489051B (zh) | 基于血管及病变区域的肝脏裁切方法及*** | |
JP5484425B2 (ja) | 眼科装置及びその制御方法、コンピュータプログラム | |
WO2014155917A1 (ja) | 手術支援装置、方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210903 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220301 |