JP2015515296A - 対象物の画像情報の提供 - Google Patents

対象物の画像情報の提供 Download PDF

Info

Publication number
JP2015515296A
JP2015515296A JP2014561552A JP2014561552A JP2015515296A JP 2015515296 A JP2015515296 A JP 2015515296A JP 2014561552 A JP2014561552 A JP 2014561552A JP 2014561552 A JP2014561552 A JP 2014561552A JP 2015515296 A JP2015515296 A JP 2015515296A
Authority
JP
Japan
Prior art keywords
image
candidate
composite
projection
tagged
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014561552A
Other languages
English (en)
Inventor
エアハルト,クラウス
ホーッセン,アンドレ
ゼップ ヘーゼ,ハラルト
ゼップ ヘーゼ,ハラルト
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2015515296A publication Critical patent/JP2015515296A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10124Digitally reconstructed radiograph [DRR]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/008Cut plane or projection plane definition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2008Assembling, disassembling

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Architecture (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本発明は対象物の画像情報の提供に関する。複雑な画像情報をより効率的に提供するため、a)対象物の3D体積データ(112)を提供する段階(110);b)前記3D体積データ内に存在する候補となる発見物(116)を識別する段階(114)であって、前記候補となる調査結果の空間位置情報は前記の識別された候補となる調査結果に割り当てられる、段階;c)前記3D体積データの複数のタグ付けされたスライス画像(120)を生成する段階(118)であって、各タグ付けされたスライス画像は前記3D体積データの各対応する部分に関連し、かつ、前記タグ付けされたスライス画像は、前記各対応する部分内で識別されたそれらの候補となる調査結果、及び、前記3D体積内の各対応する候補となる調査結果の空間位置情報を有するタグを含む、段階;d)前記複数のタグ付けされたスライス画像のうちの少なくとも一部のスライス画像の少なくとも一部分の順投影によって合成2D投影(124)を計算する段階(122)であって、前記合成2D投影は前記候補となる調査結果の投影を含み、かつ、前記空間位置情報は前記候補となる調査結果の投影に割り当てられる、段階;並びに、e)前記合成2D投影を合成視野画像(128)としてユーザーに与える段階であって、前記候補となる調査結果は、前記合成視野画像の範囲内で選択可能な要素である、段階が提案される。

Description

本発明は対象物の医療画像情報の提供に関する。より具体的には本発明は、対象物の医療画像情報を提供する装置、グラフィカルユーザーインターフェース、対象物の医療画像情報を提供する方法、コンピュータプログラム、及びコンピュータ可読媒体に関する。
たとえば医療分野において、放射線技師又は熟練医療従事者へ複合画像情報を提供することは、厳密な評価を行うことを容易にする上で重要な因子である。近年現れた3D撮像法−トモシンセシス及びコンピュータ支援検出(CAD)−によって、より包括的でより詳細な情報が利用可能となっている。同時に、医療従事者の生産性は、撮像方法又はその関連方法の結果が、その医療従事者によって効率的に評価及び解釈されうることを保証する上で重要である。複合医療画像情報を提供するには、ユーザー側での注意を強めることが必要であることがわかってきた。特許文献1は、CADマーカーを用いることによってコンピュータ支援検出の結果を処理及び表示する方法について記載している。
米国特許第7929432号明細書
従ってより効率的に認識可能な複合画像を提供する必要があると考えられる。
本発明の目的は、独立請求項の記載事項によって解決される。他の実施例は従属請求項に記載されている。
以降で説明する本発明の態様は、対象物の医療画像情報を提供する装置、グラフィカルユーザーインターフェース、方法、コンピュータプログラム、及びコンピュータ可読媒体にも適用されることに留意して欲しい。
本発明の第1態様によると、対象物の画像情報を提供する装置が供される。当該装置は、データ入力ユニット、処理ユニット、及び提供ユニットを有する。前記データ入力ユニットは、対象物の3D体積データを供するように構成される。前記処理ユニットは、前記3D体積データ内に位置する候補となる発見物を識別するように構成される。前記処理ユニットは、前記候補となる発見物の空間位置情報を各対応する前記の識別された候補となる発見物に割り当てることで、前記3D体積データの複数のタグ付けされたスライス画像を生成するように構成される。各タグ付けされたスライス画像は、前記3D画像データの各対応する部分に関連する。前記タグ付けされたスライス画像は、前記各対応する部分内で識別されたそれらの候補となる発見物、及び、前記3D体積内の各対応する候補となる発見物の空間情報を有するタグを含む。合成2D投影は、前記複数のタグ付けされたスライス画像の順投影によって計算される。前記合成2D投影は、前記候補となる発見物の投影を含む。前記空間位置情報は、前記候補となる発見物の投影に割り当てられる。前記提供ユニットは、合成視野画像としての前記合成2D投影をユーザーへ提供するように構成される。前記候補となる発見物は、前記合成視野画像内の選択可能な要素である。
本発明の典型的実施例によると、前記処理ユニットはさらに、前記タグ付けされたスライス画像を生成するために、前記候補となる発見物を前記2D投影内において視認可能となるように改善するように構成される。
本発明の第2態様によると、対象物の画像情報を提供するグラフィカルユーザーインターフェースが供される。当該グラフィカルユーザーインターフェースは、表示ユニット、グラフィカルユーザーインターフェース制御装置、及び入力装置を有する。前記表示ユニットは、対象物の3D体積データの複数のタグ付けされたスライス画像のうちの少なくとも一部の少なくとも一部分の順投影によって生成される合成2D投影に基づいて合成視野画像を提供するように構成される。前記タグ付けされたスライス画像は、識別された候補となる発見物及び前記3D体積内の各対応する候補となる発見物の空間情報を有するタグを含む。前記合成視野画像は、前記の識別された候補となる発見物に関連する複数の相互に関連する画像要素を含む。前記入力装置は、前記表示ユニットによって提供される前記合成視野画像内の相互に関連する画像要素のうちの少なくとも1つを選択するように供される。前記グラフィカルユーザーインターフェース制御装置は、前記表示ユニットへ制御信号を供することで、前記の少なくとも1つの選択された相互に関連する画像要素に関連する空間情報を表示するように構成される。前記表示ユニットはさらに、前記相互に関連する画像要素の選択に依存して、前記空間情報を更新するように構成される。
本発明の典型的実施例によると、前記グラフィカルユーザーインターフェース制御装置は、前記タグ付けされたスライス画像のうち、前記の選択された少なくとも1つの相互に関連する画像要素に関連する候補となる発見物が存在する少なくとも1つのタグ付けされたスライス画像を決定するように構成される。前記表示ユニットは、前記合成視野画像に加えて、前記の決定された少なくとも1つのタグ付けされたスライス画像を表示するように構成される。
本発明の第3態様によると、対象物の画像情報を提供する方法が供される。当該方法は以下の段階を有する。
a) 対象物の3D体積データを提供する段階
b) 前記3D体積データ内に存在する候補となる発見物を識別する段階であって、前記候補となる発見物の空間位置情報は各対応する前記の識別された候補となる発見物に割り当てられる段階
c) 前記3D体積データの複数のタグ付けされたスライス画像を生成する段階であって、各タグ付けされたスライス画像は前記3D体積データの各対応する部分に関連し、かつ、前記タグ付けされたスライス画像は、識別された候補となる発見物及び前記3D体積内の各対応する候補となる発見物の空間情報を有するタグを含む、段階
d) 前記複数のタグ付けされたスライス画像のうちの一部のスライス画像の少なくとも一部分の順投影によって合成2D投影を計算する段階であって、前記合成2D投影は前記候補となる発見物の投影を含み、かつ、前記空間位置情報が前記候補となる発見物の投影に割り当てられる、段階、並びに、
e) 合成視野画像としての前記合成2D投影をユーザーへ提供する段階であって、前記候補となる発見物は前記合成視野画像内の選択可能な要素である、段階
本発明の典型的実施例によると、前記合成2D投影は、前記複数のタグ付けされたスライス画像の各々の少なくとも一部によって計算される。
本発明の典型的実施例によると、前記タグ付けされたスライス画像を生成するため、前記合成視野画像中で視認可能となるような改善が、前記候補となる発見物について行われる。前記改善は、エッジ改善、バイナリマスク、局所ノイズ除去、バックグラウンドノイズ除去、信号減衰値の変更、及び他の画像処理又はマーキング法からなる群のうちの少なくとも1つを含む。
本発明の典型的実施例によると、前記段階b)での前記候補となる発見物の識別は、i)前記3D体積データ内の空間内、及び/又は、ii)前記3D体積データから生成されるスライス画像内で実行される。
たとえば前記対象物は人体の一部である。
本発明の典型的実施例によると、前記対象物は女性の胸で、かつ、前記合成視野画像は合成***画像を含む。
本発明の典型的実施例によると、段階b)での前記候補となる発見物の識別は、候補となる発見物を識別するためのコンピュータ支援視覚化及び解析、並びに/又は、候補となる発見物の手動識別に基づく。
他の例では、前記対象物は患者の胸又は胃部である。
本発明の典型的実施例によると、前記3D体積データは、対象物の様々な方向からの一連のX線画像から再構成される。
本発明の典型的実施例によると、当該方法は以下の段階をさらに有する。
f) 前記3D体積の一部を選択する段階
g) 前記合成2D投影を再計算する段階であって、前記の選択された部分内の関連する候補となる発見物が視認可能となるように改善される、段階、及び、
h) 前記合成視野画像の提供を更新する段階
本発明の典型的実施例によると、当該方法は、前記合成2D投影内の候補となる発見物を選択する段階、及び、前記選択の際に第2作用を実行する段階をさらに有する。前記第2作用は、前記の選択された候補となる発見物を含む前記タグ付けされたスライス画像を提供する段階を含む。
本発明の態様によると、被検査対象物−具体的には女性の胸−の(第1)基本的な概略図を得る過程を容易にするため、空間対象物の単純化された2D全体像が、医療従事者に提供される。このことは特に、医療従事者が、X線装置によって生成される***画像で作業する際に用いる場合に当てはまる。本発明は、「従来の***画像の視野」に追加の情報−たとえば前記3D体積内の候補となる発見物とその位置情報−を結合する、すなわち増やすことを目的とする。前記合成***画像が、2D平面内での投影画像−つまり前記***画像の画像平面−として3Dデータの空間情報しか示さないとしても、前記発見物の各対応する空間データは、それでもなお依然として前記3D体積データの一部として前記スライス画像中に存在して含まれる。前記スライス画像は、各発見物に割り当てられる追加の位置情報によって前記2D合成***画像と相関する。よって2D画像として示される前記合成視野画像は2D+画像である。さらに本発明は、前記従来の***画像の視野内の関心対象−たとえば石灰化部分又は障害−の相互作用的選択を可能にする。前記選択によって、別の表示又は視野が現れることで、より詳細な対応画像の視野−たとえば識別のスライス画像の視野−に移り得る。その結果関連する細胞組織をより詳細に示すことができる。本発明は、医師が、同様の画像の視野内での1つの場所の被検査対象物に関するすべての関連する重要な情報を見ることを可能にする。本発明は特に、マンモグラフィ及び胸部又は腹部の検査処置にとって特に有用である。
本発明の典型的実施例による撮像装置を概略的に表している。 本発明の典型的実施例による対象物の画像情報を提供する装置を概略的に表している。 本発明の典型的実施例による対象物の画像情報を提供するグラフィカルユーザーインターフェースを概略的に表している。 本発明の典型的実施例による対象物の画像情報を提供する方法の基本段階を表している。 本発明による方法の別な例を表している。 候補となる発見物の選択及び改善を行う本発明による方法の例を表している。 本発明による改善の適用例を表している。 第2作用を選択して誘発する本発明による方法の例を表している。 候補となる発見物の識別に関する本発明による方法の例を表している。 本発明による関連するタグ付けされたスライス画像をグラフィカルに表示する例を示している。
本発明の典型的実施例は、図面を参照しながら説明される。
図1は、対象物の画像情報を生成する撮像システム10を表している。たとえばX線が用いられるが、システム10は、好適撮像方向又は好適投影方向を含む任意の他の撮像技術を有しても良い。システム10は、X線源12、対象物14、及び検出器16を有する。X線源12は、対象物14に照射されるX線放射線18を発生させる。対象物14の3次元(3D)投影の再構成を可能にするため、X線源12はある範囲で移動可能である。そのため、対象物14の部分体積(関心領域)を少なくとも網羅する様々な角度からの複数の投影が可能となる。これは運動を示す矢印19によって表されている。検出器16がX線を受け取ることで、信号と投影データが生成及び送信される。以降で詳述するように、この投影データは、対象物の画像情報を供するため、検出器16から装置20へ転送される。
図2は、本発明による対象物の画像情報を提供する装置20の概略的集合体を表している。装置20は、データ入力ユニット22、処理ユニット24、及び提供ユニット26を有する。データ入力ユニット22は、図1で表されている撮像システム10によって生成される(生の)画像データを供する。処理ユニット24は、計算−たとえば撮像システムの投影データからの3D体積の再構成又は候補となる発見物の識別(以降の本発明による方法に関する記載を参照のこと)−を実行するように構成される。提供ユニット26は、結果と情報をユーザーに提供するように構成される。大抵の場合において、これは、TFT若しくはLCD技術に基づくグラフィカルモニタ又は他の装置−たとえば室内利用されるランプに基づく投影装置、スクリーン上のヘッドアップディスプレイ、又は3D眼鏡−であって良い。
図3は、ディスプレイユニット32、グラフィカルユーザーインターフェース制御装置34、及び入力装置36を有する、対象物の画像情報を供するグラフィカルユーザーインターフェース30の概略図を表している。ディスプレイユニット32は、複数の相互に関連する画像要素40と空間情報42を含む合成視野画像38を提供する。合成視野画像38は、対象物の3D体積データの複数のタグ付けされたスライス画像のうちの一部の少なくとも一部分の順投影によって生成される合成2D投影に基づく。タグ付けされたスライス画像は、識別された候補となる発見物及び3D体積内の各対応する候補となる発見物の空間情報を有するタグを含む。相互に関連する画像要素40は、空間情報によって識別された候補となる発見物に関連付けられる。入力装置36が、表示ユニット32によって提供される合成視野画像38内の相互に関連する画像要素40のうちの少なくとも1つを選択するために供される。従って入力装置36によって、たとえば要素を選択して、視野を介して若しくは視野の範囲内での誘導、拡大、視野の切り換え等の作用を実行するように装置と相互作用することが可能となる。グラフィカルユーザーインターフェース制御装置34は、入力装置36に接続され、かつ、制御信号−矢印37によって表されている−をディスプレイユニット32の複数の構成要素へ供する。空間情報42は、選択された候補となる発見物に関連する位置データ及び他の追加情報を示し得る。グラフィカルユーザーインターフェース30は、合成視野画像内の選択された相互に関連する要素40に依存して、関連するタグ付けされたスライス画像を示すように構成される。これにより、いずれの概略図−つまり合成視野画像38ろ詳細なスライス画像(さらに図示はされていない)−が同時に表示される。しかし追加の表示部は任意であるため、点線で示されている。上述のディスプレイユニット32の表示要素−具体的には合成視野画像38、空間情報42、及び、第2表示部44−は、グラフィカルユーザーインターフェース制御装置34によって制御される。簡明を期すため、参照番号37で示された1つの矢印しか表されていない。当然のこととして、インターフェース制御装置34から他の構成要素への他の接続も供される。
図4は、本発明による対象物の画像情報を提供する方法100の例を示している。
第1段階110では、対象物の3Dデータ112が供される。このデータは撮像システム−たとえばX線装置−から得られる。
この3D体積データに基づいて、識別すなわち第2段階114では、候補となる発見物116が、この3D体積データ112内で識別される。この識別は、手動若しくはコンピュータ支援方法に基づき、又は、コンピュータ支援の手動識別法に基づいて実行されて良い。コンピュータ支援視覚化及び解析は、所定のアルゴリズム及び規則を用いて不規則性又は異常細胞組織構造を含む空間部分を発見する方法である。手動識別は、専門家の評価及び選択判断に基づく。専門家の選択判断は、その専門家個人の知識、経験、及び評価に基づいて良い。自動化されたコンピュータに基づく方法は、候補となる発見物の識別の質の高さと精度を支持するように、手動識別と組み合わせられて良い。
「候補となる発見物」という語句は、可能な医療上の発見物−たとえば病変、嚢胞、突起状の腫瘤性病巣、非対称性、石灰化、(微少)石灰化部位の群、構築の乱れ、非浸潤性乳管ガン(DCIS)、侵襲性ガン、小瘤、分岐、破裂、又は破断−を指称する。「候補(となる)」という語句は特に、この識別された発見物には、さらなる検査及び評価が施されることを表す。
候補となる発見物は、様々な基準−たとえば発見物の種類、サイズ、位置等−に基づいて分類されて良い。係る分類はたとえば、提供段階において、選択された発見物からなる群のみを与える、又は、様々なフィルタを適用するのに用いられて良い。さらに分類の選択の改善−たとえば着色、強調等−が行われても良い。
空間位置情報は、3D体積データ内の候補となる発見物の位置の表現を含んで良い。空間情報は、3D体積内での候補となる発見物の位置並びに/又は候補となる発見物の形状及びサイズの決定を可能にする。この情報は、データ記録又はデータベース中のデータとして候補となる発見物と共に格納されて良い。タグは、候補となる発見物に関連する情報を格納するように構成される。候補となる発見物の空間位置情報は、3D体積データ及び/又は2D画像データと共に格納されて良い。
第3段階118では、複数のタグ付けされたスライス画像120が、3D体積データから生成される。「タグ付けされたスライス画像」という語句は、関心領域(ROI)に依存して、完全なスライス又はスライスの一部を指称する。「関心領域」という語句は、撮像目的の観点で関心のある2D画像又は3D体積内の1つ以上の領域を指称する。スライス全体から一部を取り出すことで、注意及びより詳細な検査を必要とするそれらの特定関心領域に注目することが可能となる。よって一部は、関心領域(ROI)に依存する画像の一部分に関する。タグ付けされたスライス画像はまた、3D体積の明確に定められた部分を表す2次元(2D)画像をも指称する。スライス画像の画像情報は、過去の段階で識別された候補となる発見物と結合される。各スライス画像について、3D体積の対応部分において識別されたそれらの候補となる発見物のみが考慮される。それに加えて、各候補となる発見物の空間情報がスライス画像に加えられる。空間情報は、3D体積内の関連する候補となる発見物の位置情報であって良い。この情報はタグ内に供される。タグは、データベース内の記録、又は、候補となる発見物とその候補となる発見物の空間情報の組との関連させる任意の他の方法であって良い。関連する候補となる発見物と共に空間情報を供することの利点は、任意の後続の段階での位置情報の処理が可能になることである。
第4段階122では、合成2D投影124が、順投影によって計算される。合成2D投影は、順投影の結果得られた画像データとみなされてよい。順投影は、タグ付けされたスライス画像全部からなる集合に基づいて実行されて良いし、又は、タグ付けされたスライス画像の部分集合すなわち一部に基づいて実行されても良い。順投影は3D体積から2D画像を取り出す方法である。無限小の地点を起源として、すべての地点は、各対応する投影軸に沿って(擬似的な)検出面へ向けて接近する。値は、選択された順投影方法に基づいて決定される。順投影によって合成2D投影を計算する方法の例には、最大強度投影(MIP)、投影方向に沿った強度値の重み付け平均化、投影方向に沿った強度値の非線形結合が含まれる。合成2D投影はもとのままの取得形状又はその近似−たとえば錐体X線ビームでの取得−で計算される。順投影2D合成画像は、2D合成投影画像内でのX線の焦点と2D画素位置によって定義される各X線ラインと、3D体積データの3Dボクセルグリッドとの交差を評価する線束駆動アルゴリズムによって計算されて良い。錐体X線ビーム取得では、順投影合成2D投影もまた、3D体積データ内のすべてのボクセルをx,y,z方向で平均化することによって近似的に平行な幾何学構造中で計算されて良い。
第5段階126では、合成2D投影124は、合成視野画像128としてユーザーに提供される。合成視野画像は、過去の段階で生成された合成2D投影の(たとえばスクリーン上での)グラフィカル表現である。合成視野画像128は、投影タグ付けされたスライス画像の候補となる発見物を含む。この合成視野画像128では、候補となる発見物は、選択可能な要素として示されている。つまりユーザーは、合成視野画像内の候補となる発見物を指し示し、クリックし、又は他の任意の方法で選択して良い。
第1段階110はまた段階a)と指称され、第2段階114はまた段階b)と指称され、第3段階118はまた段階c)と指称され、第4段階122はまた段階d)と指称され、かつ、第5段階126はまた段階e)と指称される。
図5は、対象物の画像情報を提供する方法200のさらなる例について記載している。最初に撮像システムは210で、たとえばトモシンセシス装置を用いることによって一連の投影画像212を取得する。次の段階214では、3D体積216が、一連の投影画像212に基づいて再構成される。この所謂3D空間はその後、続く段階218において、3D空間の部分220に区分される。これらの部分の各々は、再構成された3D体積216全体の3D部分体積222を表す。次の段階224では、3D体積の部分220は、3D体積の関連部分の画像情報を含むスライス画像226へ投影される。以降の段階では、タグ付けされたスライス画像228が、3D体積216に適用された候補となる発見物の識別方法230及び/又は2Dスライス画像226に適用された識別方法232を用いることによって生成される。結果として得られた候補となる発見物のみならず候補となる発見物の候補となる発見物の関連する空間情報がスライス画像226に追加される。これが、「タグ付けされたスライス画像」という語句が用いられる理由である。特定のタグ付けされたスライス画像は、スライスの画像データに加えて、関連するスライス画像の識別された候補となる発見物のみを含む。合成2D投影234は、続く段階において、タグ付けされたスライス画像の全部又は一部の順投影236によって生成される。次に合成2D投影234は、次の段階238において、合成視野画像240として提供される。
上で示したように、3D体積データは、3D対象物の取得されたデータから再構成される。データはまた、磁気共鳴撮像技術又は超音波技術によって取得されても良い。他の例では、データはX線技術によって取得される。従って上述したように、撮像技術は、好適画像/投影方向を含むすべての撮像技術に関する。
3D体積データを再構成するため、一連のX線画像が、X線トモシンセシスとして取得されて用いられる。一連のX線画像はまた、コンピュータ断層撮像(CT)によって生成されても良い。
図6は、3D空間の選択された部分に依存して候補となる発見物の改善を行うことについて記載している。最初の段階−具体的には図6に示された方法の一部としての、118でのタグ付けされたスライス画像120を生成する段階c)、122での合成2D投影124を計算する段階d)、及び、126で合成視野画像128を提供する段階e)−は、図4で説明された。
図6に示されているように、ユーザーは、130で、上述したユーザー入力装置を用いることによって3D体積の一部を選択する。これはたとえば、ユーザーが、3D体積の特定の領域若しくは部分又は1つ以上の候補となる発見物を指し示すことを可能にするディスプレイのグラフィカル部分であって良い。
空間部分の選択は、任意の候補となる発見物から独立するものと見なされて良い。この方法の目的は、3D対象物を通り抜ける投影軸に沿ってスライス毎にユーザー制御された空間スクロールを行うことを可能にすることである。
他の選択肢は、ディスプレイの別個の部分に示されたすべての候補となる発見物のリストから候補となる発見物の部分集合を選択することである。それに加えて、特定のフィルタ(たとえば石灰化に限定する)が用いられて良い。リストを一覧することで、ユーザーは、たとえばマウスホイールを用いることによって、候補となる発見物のリストを介して順次スクロールさせることが可能となる。
たとえば前述の実施例のうちの一によると、選択130に依存して、1つのタグ付けされたスライス画像120’又は複数のタグ付けされたスライス画像の再計算132が実行される。再計算132では、改善が関連する候補となる発見物に行われる。
再計算段階132及び以降の段階は、基本的には図4で説明した方法の基本段階と似ているので、図6のループ状の構成の各対応する段階もまた、アポストロフィが加えられた以外は同一の参照番号によって指称され得る。
次の段階では、タグ付けされたスライス画像120’は順投影される。その結果、合成2D投影124’が生成され、かつ、選択された部分内の関連する候補となる発見物が改善されることで視認可能となる。
この再計算された合成2D投影は続いて、134で合成視野画像128の提供を更新することによって表示される。その結果合成視野画像128’が生成される。
選択130は段階f)とも指称され、再計算132は段階g)とも指称され、かつ、更新134は段階h)とも指称される。
再計算と更新を行う選択が、矢印136で示されているようにループ状で行われて良い。
たとえば選択された部分内での関連する候補となる発見物が改善されるだけで、合成2D投影内において視認可能となる。よって一例では、合成2D投影は、特定のタグ付けされたスライス画像のみの候補となる発見物の改善、又は、それに加えて他のタグ付けされたスライス画像内の候補となる発見物の改善を含んで良い。たとえば段階g)では、選択された部分の外部での候補となる発見物の改善は、各対応するタグ付けされたスライス画像上では消される。つまり前記選択された部分の外部での候補となる発見物の改善は、各対応するタグ付けされたスライス画像上では視認できない。
スライス画像の選択はユーザーによって実行されて良い。たとえば部分の選択はグラフィカルユーザーインターフェースを用いることによって実行される。
図7では、改善の例が示されている。合成視野画像38を示す画像50はたとえば、過去の段階において識別された複数の候補となる発見物52を含む。候補となる発見物の改善54は、候補となる発見物を周囲の画像テクスチャから視覚的に分離することを目的として、タグ付けされたスライス画像に適用される。その結果、候補となる発見物58が改善された改善画像56が示されている。これは、放射線技師が、より容易かつ迅速に画像中での候補となる発見物を検出することを支援する。なぜなら元の画像では、発見物は、改善画像56において示されているようには画像テクスチャ中では明確に視認できないすなわち隠されているからである。改善は、任意の画像処理又はマーキング法−たとえばエッジの改善、バイナリマスク、局所ノイズ除去、バックグラウンドノイズ除去、信号減衰値の変更−によって実現されて良い。改善のパラメータは、候補となる発見物に割り当てられたタグ60内の他のデータと共に格納されて良い。
改善は、周囲の画像テクスチャからの候補となる発見物の視覚的分離に関する。
図8は方法の他の例を示している。当該方法の他の例では、候補となる発見物が、138において、提供された合成視野画像128内で選択され、かつ、142において、第2作用140が誘発される。合成視野画像128は、図4で説明した過去の段階において計算された。たとえば第2作用140は、合成視野画像に加えて、さらなる画像として、選択された候補となる発見物を含むタグ付けされたスライス画像を対応するスライス画像に提供する段階を含んで良い。たとえばこれにより、ユーザーは、選択された候補となる発見物の関連するスライス画像視野へ移ることが可能となる。
たとえば(図示されていないが)、第2作用として、(複数の)タグ付けされたスライス画像が別個に提供される。
図9は候補となる発見物を識別する2つの方法について記載している。第1段階110は、図4で説明されており、対象物の3D体積データの提供に関する。続く3D体積データ内に位置する候補となる発見物の識別112が、2D空間−たとえばスライス画像中−における第2識別144として、及び/又は、3D体積−たとえば3Dデータ112中−における第2識別146として実行されて良い。
図10は合成2D投影の例を図示している。図からわかるように、合成***画像148が改善された発見物150と共に図示されている。合成***画像は、3D体積データに基づく計算された2D画像である。そのグラフィカルな表現は従来の***画像視野と似ている。画像148の左側は、改善された候補となる発見物150を有する胸の概略図を示している。右側では、関連する詳細図によって、たとえば拡大によってより詳細にある選択された領域を見ることが可能となる。右側には候補となる発見物150も示されている。図10は、放射線技師に提供される典型的な写真様のグレイスケール又は有色画像(図示されていない)の簡略化された概略図を表している。詳細な写真表現を通して、候補となる発見物50の詳細な細胞組織構造及び被検査対象物の周辺の領域は視認可能となる。これらの画像は、典型的なグレイスケール又は有色ディスプレイモード−たとえば多くのディスプレイシステムで用いられている32ビットトゥルーカラーモード−に基づいて良い。実際に提供された写真画像148内の詳細をはるかに高い程度で示しながら、改善によって、明らかに周囲の細胞組織から候補となる発見物150は分離される。この特別な例では、改善された候補となる発見物150は、周囲のテクスチャよりも高いコントラスト及び高い輝度で示されている。大抵を画像処理法に基づくこれらの改善によって、放射線技師は、画像148中の候補となる発見物150を瞬時に識別することが容易になる。
本発明の他の典型的実施例では、適切なシステム上で前述の実施例のうちの一による方法の段階を実行するように構成されることを特徴するコンピュータプログラムが供される。
従ってコンピュータプログラムは、本発明の実施例の一部であり得るコンピュータユニット上に格納されて良い。この計算ユニットは、上述の方法の段階を実行(を誘起)するように構成されて良い。しかも上述の装置の構成要素を動作させるように構成されて良い。計算ユニットは、自動で動作するように構成されて良いし、かつ/又は、ユーザーの命令を実行するように構成されても良い。コンピュータプログラムは、データプロセッサの動作メモリにロードされて良い。よってデータプロセッサは本発明の方法を実行するように構成されて良い。

Claims (15)

  1. 対象物の画像情報を提供する装置であって:
    データ入力ユニット;
    処理ユニット;及び
    提供ユニットを有し、
    前記データ入力ユニットは、対象物の3D体積データを供するように構成され、
    前記処理ユニットは、前記3D体積データ内に位置する候補となる発見物を識別するように構成され、
    前記処理ユニットは、前記候補となる発見物の空間位置情報を各対応する前記の識別された候補となる発見物に割り当て、かつ、前記3D体積データの複数のタグ付けされたスライス画像を生成するように構成され、
    前記タグ付けされたスライス画像の各々は、前記3D画像データの各対応する部分に関連し、
    前記タグ付けされたスライス画像は、前記各対応する部分内で識別されたそれらの候補となる発見物、及び、前記3D体積内の各対応する候補となる発見物の空間情報を有するタグを含み、
    合成2D投影が、前記複数のタグ付けされたスライス画像の順投影によって計算され、
    前記合成2D投影は、前記候補となる発見物の投影を含み、
    前記空間位置情報は、前記候補となる発見物の投影に割り当てられ、
    前記提供ユニットは、合成視野画像としての前記合成2D投影をユーザーへ提供するように構成され、
    前記候補となる発見物は、前記合成視野画像内の選択可能な要素である、
    装置。
  2. 前記処理ユニットはさらに、前記タグ付けされたスライス画像を生成するために、前記候補となる発見物を前記2D投影内において視認可能となるように改善するように構成される、請求項1に記載の装置。
  3. 対象物の画像情報を提供するグラフィカルユーザーインターフェースであって:
    表示ユニット;
    グラフィカルユーザーインターフェース制御装置;及び
    入力装置;
    を有し、
    前記表示ユニットは、対象物の3D体積データの複数のタグ付けされたスライス画像のうちの少なくとも一部の少なくとも一部分の順投影によって生成される合成2D投影に基づいて合成視野画像を提供するように構成され、
    前記タグ付けされたスライス画像は、識別された候補となる発見物及び前記3D体積内の各対応する候補となる発見物の空間情報を有するタグを含み、
    前記合成視野画像は、前記の識別された候補となる発見物に関連する複数の相互に関連する画像要素を含み、
    前記入力装置は、前記表示ユニットによって提供される前記合成視野画像内の相互に関連する画像要素のうちの少なくとも1つを選択するように供され、
    前記グラフィカルユーザーインターフェース制御装置は、前記表示ユニットへ制御信号を供することで、前記の少なくとも1つの選択された相互に関連する画像要素に関連する空間情報を表示するように構成され、
    前記表示ユニットはさらに、前記相互に関連する画像要素の選択に依存して、前記空間情報を更新するように構成される、
    グラフィカルユーザーインターフェース。
  4. 前記グラフィカルユーザーインターフェース制御装置が、前記タグ付けされたスライス画像のうち、前記の選択された少なくとも1つの相互に関連する画像要素に関連する候補となる発見物が存在する少なくとも1つのタグ付けされたスライス画像を決定するように構成され、
    前記表示ユニットは、前記合成視野画像に加えて、前記の決定された少なくとも1つのタグ付けされたスライス画像を表示するように構成される、
    請求項3に記載のグラフィカルユーザーインターフェース。
  5. 対象物の画像情報を提供する方法であって:
    a) 対象物の3D体積データを提供する段階;
    b) 前記3D体積データ内に存在する候補となる発見物を識別する段階であって、前記候補となる発見物の空間位置情報は各対応する前記の識別された候補となる発見物に割り当てられる段階;
    c) 前記3D体積データの複数のタグ付けされたスライス画像を生成する段階であって、各タグ付けされたスライス画像は前記3D体積データの各対応する部分に関連し、かつ、前記タグ付けされたスライス画像は、識別された候補となる発見物及び前記3D体積内の各対応する候補となる発見物の空間情報を有するタグを含む、段階;
    d) 前記複数のタグ付けされたスライス画像のうちの一部のスライス画像の少なくとも一部分の順投影によって合成2D投影を計算する段階であって、前記合成2D投影は前記候補となる発見物の投影を含み、かつ、前記空間位置情報が前記候補となる発見物の投影に割り当てられる、段階;並びに、
    e) 合成視野画像としての前記合成2D投影をユーザーへ提供する段階であって、前記候補となる発見物は前記合成視野画像内の選択可能な要素である、段階;
    を有する方法。
  6. 前記合成2D投影が、前記複数のタグ付けされたスライス画像の各々の少なくとも一部によって計算される、請求項5に記載の方法。
  7. 前記タグ付けされたスライス画像を生成するため、前記合成視野画像中で視認可能となるような改善が、前記候補となる発見物について行われ、
    前記改善は、エッジ改善、バイナリマスク、局所ノイズ除去、バックグラウンドノイズ除去、信号減衰値の変更、及び他の画像処理又はマーキング法からなる群のうちの少なくとも1つを含む、
    請求項5又は6に記載の方法。
  8. 前記段階b)での前記候補となる発見物の識別は、i)前記3D体積データ内の空間内、及び/又は、ii)前記3D体積データから生成されるスライス画像内で実行される、請求項5乃至7のうちのいずれか一項に記載の方法。
  9. 前記対象物は女性の胸で、かつ、前記合成視野画像は合成***画像を含む、請求項5乃至8のうちのいずれか一項に記載の方法。
  10. 前記段階b)での前記候補となる発見物の識別は、候補となる発見物を識別するためのコンピュータ支援視覚化及び解析、並びに/又は、候補となる発見物の手動識別、に基づく、請求項5乃至9のうちのいずれか一項に記載の方法。
  11. 前記3D体積データは、対象物の様々な方向からの一連のX線画像から再構成される、請求項5乃至10のうちのいずれか一項に記載の方法。
  12. f) 前記3D体積の一部を選択する段階;
    g) 前記合成2D投影を再計算する段階であって、前記の選択された部分内の関連する候補となる発見物が視認可能となるように改善される、段階;及び、
    h) 前記合成視野画像の提供を更新する段階;
    をさらに有する、請求項5乃至11のうちのいずれか一項に記載の方法。
  13. 前記合成2D投影内の候補となる発見物を選択する段階;及び、
    前記選択の際に第2作用を実行する段階;
    をさらに有する、請求項5乃至12のうちのいずれか一項に記載の方法であって、
    前記第2作用は、前記の選択された候補となる発見物を含む前記タグ付けされたスライス画像を提供する段階を含む、方法。
  14. 処理ユニットによって実行されるときに請求項5乃至13のうちのいずれか一項に記載の方法の段階を実行するように構成される、請求項1乃至4のうちのいずれか一項に記載の装置を制御するためのコンピュータプログラム。
  15. 請求項14のプログラムを格納するコンピュータ可読媒体。
JP2014561552A 2012-03-12 2013-03-05 対象物の画像情報の提供 Pending JP2015515296A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261609491P 2012-03-12 2012-03-12
US61/609,491 2012-03-12
PCT/IB2013/051729 WO2013136222A2 (en) 2012-03-12 2013-03-05 Providing image information of an object

Publications (1)

Publication Number Publication Date
JP2015515296A true JP2015515296A (ja) 2015-05-28

Family

ID=48143329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014561552A Pending JP2015515296A (ja) 2012-03-12 2013-03-05 対象物の画像情報の提供

Country Status (3)

Country Link
US (1) US20150042658A1 (ja)
JP (1) JP2015515296A (ja)
WO (1) WO2013136222A2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9731300B2 (en) 2012-11-08 2017-08-15 Alfa Laval Corporate Ab Centrifugal separator with sludge space plates
EP4066744A1 (en) 2021-03-29 2022-10-05 FUJI-FILM Corporation Image processing device, image processing method, and image processing program
EP4066745A1 (en) 2021-03-29 2022-10-05 FUJI-FILM Corporation Image processing device, image processing method, and image processing program
JP2023015213A (ja) * 2017-03-30 2023-01-31 ホロジック, インコーポレイテッド 合成***組織画像を生成するための標的オブジェクト増強のためのシステムおよび方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6534998B2 (ja) * 2013-10-30 2019-06-26 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医療画像を表示する方法及び装置
KR20150057064A (ko) * 2013-11-18 2015-05-28 엘지전자 주식회사 전자 다바이스 및 그 제어방법
US9842424B2 (en) * 2014-02-10 2017-12-12 Pixar Volume rendering using adaptive buckets
GB201717011D0 (en) * 2017-10-17 2017-11-29 Nokia Technologies Oy An apparatus a method and a computer program for volumetric video
EP3518182B1 (en) * 2018-01-26 2022-05-18 Siemens Healthcare GmbH Tilted slices in dbt
WO2020156633A1 (en) * 2019-01-28 2020-08-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Localization of elements in the space
US11424037B2 (en) * 2019-11-22 2022-08-23 International Business Machines Corporation Disease simulation in medical images

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7616801B2 (en) * 2002-11-27 2009-11-10 Hologic, Inc. Image handling and display in x-ray mammography and tomosynthesis
FR2897461A1 (fr) * 2006-02-16 2007-08-17 Gen Electric Dispositif de rayonnement x et procede de traitement d'images
US7929743B2 (en) 2007-10-02 2011-04-19 Hologic, Inc. Displaying breast tomosynthesis computer-aided detection results
US9341835B2 (en) * 2009-07-16 2016-05-17 The Research Foundation Of State University Of New York Virtual telemicroscope
FR2963976B1 (fr) * 2010-08-23 2013-05-10 Gen Electric Procede de traitement d'images pour la determination de zones suspectes dans une matrice tissulaire, et son utilisation pour la navigation 3d a travers la matrice tissulaire

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9731300B2 (en) 2012-11-08 2017-08-15 Alfa Laval Corporate Ab Centrifugal separator with sludge space plates
JP2023015213A (ja) * 2017-03-30 2023-01-31 ホロジック, インコーポレイテッド 合成***組織画像を生成するための標的オブジェクト増強のためのシステムおよび方法
EP4066744A1 (en) 2021-03-29 2022-10-05 FUJI-FILM Corporation Image processing device, image processing method, and image processing program
EP4066745A1 (en) 2021-03-29 2022-10-05 FUJI-FILM Corporation Image processing device, image processing method, and image processing program

Also Published As

Publication number Publication date
US20150042658A1 (en) 2015-02-12
WO2013136222A3 (en) 2014-12-04
WO2013136222A2 (en) 2013-09-19

Similar Documents

Publication Publication Date Title
JP2015515296A (ja) 対象物の画像情報の提供
US20190021677A1 (en) Methods and systems for classification and assessment using machine learning
KR102109588B1 (ko) 유방 조직 이미지를 프로세싱하고, 디스플레잉하고, 네비게이팅하기 위한 방법
NL1032508C2 (nl) Klinisch overzicht en analysewerkstroom voor beoordeling van longknobbeltjes.
US8229200B2 (en) Methods and systems for monitoring tumor burden
US8705690B2 (en) Imaging method with improved display of a tissue region, imaging device, and computer program product
JP6396310B2 (ja) 第一レンダリング投影と第二レンダリング投影との間のトランジションをユーザーに表示するための方法および装置
EP2831845B1 (en) Visual suppression of selective tissue in image data
JP6302934B2 (ja) コンピュータ支援による関心組織の特定
JP2008194456A (ja) 医用画像処理装置および医用画像処理方法
US10275946B2 (en) Visualization of imaging uncertainty
JP2010528750A (ja) 管状構造の検査
US20160260231A1 (en) Volumertric image data visualization
US20240008801A1 (en) System and method for virtual pancreatography pipepline
CN108269292B (zh) 用于根据三维图像数据组产生二维投影图像的方法和设备
CN107111881B (zh) 对应性概率图驱动的可视化
US9589204B2 (en) Quantification of a characteristic of a lumen of a tubular structure
CN105684040B (zh) 支持肿瘤响应测量的方法
EP2652487A1 (en) Method and device for analysing a region of interest in an object using x-rays
EP3146505B1 (en) Visualization of tissue of interest in contrast-enhanced image data
RU2639022C2 (ru) Выявление буллезной эмфиземы и диффузной эмфиземы в, например, объемных изображениях компьютерной томографии легких
WO2017149107A1 (en) Medical image navigation system
Furlow CT image visualization: a conceptual introduction
JP2022127566A (ja) 医用画像表示装置、医用画像表示方法およびプログラム
WO2017018230A1 (ja) 画像処理装置、方法、及びプログラム