JP2016013233A - 出力制御方法、画像処理装置、出力制御プログラムおよび情報処理装置 - Google Patents

出力制御方法、画像処理装置、出力制御プログラムおよび情報処理装置 Download PDF

Info

Publication number
JP2016013233A
JP2016013233A JP2014135911A JP2014135911A JP2016013233A JP 2016013233 A JP2016013233 A JP 2016013233A JP 2014135911 A JP2014135911 A JP 2014135911A JP 2014135911 A JP2014135911 A JP 2014135911A JP 2016013233 A JP2016013233 A JP 2016013233A
Authority
JP
Japan
Prior art keywords
image
information
vein pattern
biological
medical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014135911A
Other languages
English (en)
Other versions
JP6481269B2 (ja
Inventor
年邦 吉田
Toshikuni Yoshida
年邦 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014135911A priority Critical patent/JP6481269B2/ja
Priority to US14/736,376 priority patent/US20160004917A1/en
Publication of JP2016013233A publication Critical patent/JP2016013233A/ja
Application granted granted Critical
Publication of JP6481269B2 publication Critical patent/JP6481269B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/366Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Epidemiology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Primary Health Care (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Radiology & Medical Imaging (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Geometry (AREA)

Abstract

【課題】生体画像に医用情報を重畳表示すること。
【解決手段】記憶部1aは、第1の撮像方法により取得した生体についての生体情報に対応づけて当該生体について第2の撮像方法により取得した第1の生体画像を記憶する。表示制御部1bは、ある生体について第1の撮像方法により取得した生体情報が、記憶部1aに記憶された生体情報に対応すると判定すると、該生体について第3の撮像方法により取得した第2の生体画像と第1の生体画像の全部又は一部とを重ね合わせて表示する。
【選択図】図1

Description

本発明は出力制御方法、画像処理装置、出力制御プログラムおよび情報処理装置に関する。
医療の現場では、医師による手術を支援する技術が利用されている。例えば、臓器全体の生理学的パラメータの値の分布(例えば、心臓の内表面全域にわたる局部電位の分布)を規定するマップを取得し、マップおよび臓器の3次元画像を同時に表示する提案がある。この提案では、臓器外部の解剖学的ランドマークを用いた幾何学変換により生理学的パラメータの値を3次元画像に重ね合わせ、重ね合わせた値および3次元画像を表示する。
また、内視鏡や処置具を挿通するトラカールに、トラカールの腹部領域への挿入角度などの情報を検出するセンサを装着し、センサの検出結果に基づいてバーチャル画像データを生成する提案もある。更に、内視鏡画像に対応したリアルタイムで変遷するバーチャル画像をバーチャル画像用モニタに表示すると共に、手技の進行に応じた術者の指示に基づいて、例えば臓器切除を行う場合に、切除面マーキング画像をバーチャル画像上に重畳させる提案もある。
特開2007−268259号公報 特開2005−211531号公報 特開2005−278888号公報
医用情報(例えば、臓器の裏側に隠れた血管や患部病巣の情報など)を術野に重ねてモニタなどに表示させることで、執刀医の視覚的情報を補完することが考えられる。ここで、臓器や病巣の配置は患者や臓器毎に異なる。このため、多数の患者に対して医用情報が管理され得る。また、1人の患者に対して種々の臓器の医用情報が管理され得る。出力される医用情報に誤りがあると(例えば、他の患者や他の臓器の医用画像を出力してしまうなど)、却って手術の妨げになるおそれがある。そこで、術野に対して、適正な医用情報を出力する仕組みをどのようにして実現するかが問題となる。
1つの側面では、本発明は、特定の生体の特定の部位に対応する医用情報を出力できる出力制御方法、出力制御プログラムおよび情報処理装置を提供する。
また、1つの側面では、本発明は、生体画像に医用情報を重畳表示することができる画像処理装置を提供することを目的とする。
1つの態様では、出力制御方法が提供される。この出力制御方法では、コンピュータが、撮像された生体画像を取得する取得処理と、取得した生体画像が、特定の生体の特定の部位の生体情報に対応することを検出すると、該特定の生体の特定の部位に対応づけて登録された医用情報を出力する出力処理と、を行う。
また、1つの態様では、画像処理装置が提供される。この画像処理装置は、記憶部と表示制御部とを有する。記憶部は、第1の撮像方法により取得した生体についての生体情報に対応づけて生体について第2の撮像方法により取得した第1の生体画像を記憶する。表示制御部は、ある生体について第1の撮像方法により取得した生体情報が、記憶部に記憶された生体情報に対応すると判定すると、該ある生体について第3の撮像方法により取得した第2の生体画像と第1の生体画像の全部又は一部とを重ね合わせて表示する。
また、1つの態様では、画像処理装置が提供される。この画像処理装置は、記憶部と表示制御部とを有する。記憶部は、第1の撮像方法により取得した生体の一部についての生体情報に対応づけて生体の一部について第2の撮像方法により取得した第1の生体画像を記憶する。表示制御部は、ある生体の一部について第1の撮像方法により取得した生体情報が、記憶部に記憶された生体情報に対応すると判定すると、該ある生体の一部について第3の撮像方法により取得した第2の生体画像と第1の生体画像の全部又は一部とを重ね合わせて表示する。
1つの側面では、特定の生体の特定の部位に対応する医用情報を出力することができる。又、1つの側面では、生体画像に医用情報を重畳表示することができる。
第1の実施の形態の画像処理装置を示す図である。 第2の実施の形態の画像処理システムの例を示す図である。 実施の形態の画像処理装置のハードウェア例を示す図である。 画像処理装置の機能例を示す図である。 医用画像テーブルの例を示す図である。 静脈紋パターンの例を示す図である。 静脈紋パターンテーブルの例を示す図である。 静脈紋パターンの対比例を示す図である。 映像フレームバッファの例を示す図である。 医用画像の登録例を示すフローチャートである。 3次元モデルに対するバーチャルカメラの配置例を示す図である。 静脈紋の撮像例(その1)を示す図である。 静脈紋の撮像例(その2)を示す図である。 画像処理例を示すフローチャートである。 撮像された画像の例を示す図である。 静脈紋の解析例を示す図である。 特徴点座標の例を示す図である。 バウンディングボックスの例を示す図である。 画像変換用のパラメータの取得例を示す図である。 医用画像の画像変換の例を示す図である。 画像処理システムの他の例(その1)を示す図である。 画像処理システムの他の例(その2)を示す図である。 表示例(その1)を示す図である。 表示例(その2)を示す図である。 表示例(その3)を示す図である。 表示例(その4)を示す図である。 表示例(その5)を示す図である。
以下、本実施の形態を図面を参照して説明する。
[第1の実施の形態]
図1は、第1の実施の形態の画像処理装置を示す図である。画像処理装置1は、生体の画像に対し、医用情報を重ねた画像情報を生成する。例えば、画像処理装置1は、医師による手術支援に用いられる。画像処理装置1は、撮像装置2および表示装置3に接続されている。撮像装置2は、生体の画像を撮像する。表示装置3は、画像処理装置1から取得した画像情報に基づいて、画像を表示する。
画像処理装置1は、記憶部1aおよび表示制御部1bを有する。記憶部1aは、RAM(Random Access Memory)などの揮発性記憶装置でもよいし、HDD(Hard Disk Drive)やフラッシュメモリなどの不揮発性記憶装置でもよい。表示制御部1bは、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などを含み得る。表示制御部1bはプログラムを実行するプロセッサであってもよい。ここでいう「プロセッサ」には、複数のプロセッサの集合(マルチプロセッサ)も含まれ得る。
記憶部1aは、複数の生体情報および複数の医用情報を記憶する。記憶部1aは、生体情報と医用情報とを対応付けて記憶する。1つの生体情報が複数の医用情報に対応付けられてもよい。生体情報は、生体の部位を示す情報である。例えば、生体情報は静脈紋の情報(例えば、静脈紋の特徴を示す情報)でもよい。記憶部1aは、1つの生体に対して複数の部位に対応する生体情報を記憶し得る。医用情報は、医師による手術を視覚的に支援するために用いられる情報である。医用情報は、臓器の裏側に隠れた血管や臓器内外の患部病巣などを示す画像の情報でもよい。
例えば、記憶部1aは、予め取得された複数の生体情報および複数の医用情報を記憶する。記憶部1aは、生体情報の1つとして、患者4の部位4aを示す生体情報5を記憶する。記憶部1aは、医用情報の1つとして、臓器4bにおける病巣の画像を示す医用情報6を記憶する。記憶部1aは、生体情報5と医用情報6とを対応付けて記憶する。
生体情報5および医用情報6は、所定の撮像方法を用いて術前に取得され、記憶部1aに格納される。例えば、画像処理装置1は、コンピュータ断層撮影法(CT:Computed Tomography)、核磁気共鳴画像法(MRI:Magnetic Resonance Imaging)および血管造影法などを用いて、患者4の臓器4bや臓器4bの周辺の他の臓器などの表層や内部の病巣、臓器および血管などの3次元モデルを術前に取得し得る。画像処理装置1は、臓器4bの表層又は臓器4b内部の病巣の画像や、臓器4bの周辺の他の臓器や血管の画像などの医用情報6を、3次元モデルから取得できる。
このとき、画像処理装置1は、例えば、近赤外線により撮像する近赤外線カメラを用いて、体表付近の静脈紋を示す生体情報5も取得し、生体情報5と医用情報6とを対応付けて記憶部1aに格納することが考えられる。
より具体的には、画像処理装置1は、患者4の体外の所定のポイントから体内の臓器4bの方向へ近赤外線カメラの撮像面を向けたときに近赤外線によって撮像される体表付近の静脈紋の情報を、生体情報5として取得する。画像処理装置1は、同じ方向から見たときの病巣などの画像を示す医用情報6(3次元モデルから取得された医用情報)に当該生体情報5を対応付けて記憶部1aに格納しておく。例えば、近赤外線による撮像を第1の撮像方法と呼べる。また、3次元モデルによる医用画像の撮像を第2の撮像方法と呼べる。
あるいは、画像処理装置1は、血管造影などにより静脈紋の撮像を行うこともできる。すなわち、画像処理装置1は、前述の3次元モデルから患者4の体内深部の静脈紋を示す生体情報5を取得してもよい。例えば、画像処理装置1は、医用情報6で示される病巣付近の静脈紋の情報を、3次元モデルから取得してもよい。記憶部1aに格納された情報は、以下に示すように、医用情報の出力制御に利用される。
表示制御部1bは、撮像された生体画像を取得する。表示制御部1bは、当該取得機能を担う取得処理部を含むと考えてもよい。表示制御部1bは、取得した生体画像が特定の生体の特定の部位の生体情報に対応することを検出する。すると、表示制御部1bは、当該特定の生体の特定の部位に対応付けて記憶部1aに登録された医用情報を出力する。表示制御部1bは、当該出力機能を担う出力処理部を含むと考えてもよい。
例えば、表示制御部1bは、患者4の手術中に、撮像装置2を用いて、可視光により撮像された生体画像を取得する。可視光による撮像を第3の撮像方法と呼べる。また、表示制御部1bは、撮像装置2を用いて、近赤外光により撮像された静脈紋の情報を取得する。表示制御部1bは、取得した静脈紋の情報と、記憶部1aに予め格納された複数の生体情報(登録済の静脈紋の情報)とを照合することで、取得した生体画像が特定の生体の特定の部位の生体情報に対応することを検出できる。例えば、表示制御部1bは、手術中に取得した静脈紋の情報が生体情報5に一致すると判定すると、生体情報5に対応付けて記憶部1aに登録された医用情報6を出力する。
表示制御部1bは、撮像された生体画像、又は、別途撮像された生体画像に対応付けて、医用情報6を表示装置3に出力する。より具体的には、表示制御部1bは、生体画像と医用情報6とを重畳した画像情報を生成し、表示装置3に出力する。表示装置3は、表示制御部1bから入力された画像情報に対応する画像7を表示する。画像7は医用情報6で示される画像を含む。表示制御部1bは、画像7を表示させることで、臓器内の病巣、当該臓器内外の血管および周辺の他の臓器の位置などの医師による把握を支援できる。
画像処理装置1によれば、撮像された生体画像が取得される。そして、画像処理装置1により、取得した生体画像が、特定の生体の特定の部位4aの生体情報5に対応することが検出される。すると、画像処理装置1により、該特定の生体の特定の部位4a(すなわち、生体情報5)に対応づけて登録された医用情報6が出力される。これにより、生体画像に医用情報を重畳表示することができる。
例えば、文字列などで表された患者の識別コードと医用情報6とを対応付けて記憶部1aに格納することも考えられる。しかし、この場合、画像処理装置1に入力される識別コードに誤りがあると、他の患者や他の臓器の医用情報が出力されてしまうおそれがある。また、識別コードが患者毎、臓器毎に適切に管理されていない場合にも、他の患者や他の臓器の医用情報が出力されてしまうおそれがある。医用情報の出力の誤りは、医療ミスの要因になるおそれもある。
そこで、画像処理装置1は、生体情報を用いた生体認証により認証が成功した部位に対応する医用情報を出力する。生体情報は、生体に固有の情報である。このため、識別コードなどの他の情報を用いるよりも、生体を適正に識別できる。また、識別コードなどの新たな情報を人為的に付加するものではないので、間違いが起こりにくい。このように、画像処理装置1によれば、例えば手術対象の患者の手術対象の臓器に対する適正な医用情報を出力できる。
生体情報として、静脈紋の情報を用いてもよい。例えば、静脈紋は同じパターンがないため、臓器の特定に利用できる。また、全方位360度の臓器画像(医用情報)と静脈紋の情報とを対応づけて記憶部1aに登録しておくことで、撮像装置2により様々な方向から臓器を撮像したとしても、当該方向に応じた医用情報を出力し得る。画像処理装置1は、前述のように、医用情報を取得する際に、近赤外光により撮像するカメラや血管造影法などを用いて、静脈紋の情報を容易に取得できる。また、画像処理装置1は、例えば手術中でも、当該カメラを用いて術野における静脈紋の情報を容易に取得できる。
更に、画像情報と医用情報とを重畳する際の位置合わせに静脈紋の情報を用いることも考えられる(この場合、生体情報5と医用情報6との相対的な位置関係を示す情報も記憶部1aに保持される)。ここで、例えば、位置合わせのために位置を測位するための基準点(マーカー)を、術野に対して設ける方法も考えられる。しかし、この方法では術野に対してマーカーを設けるという手間が生じる。これに対し、静脈紋の情報を位置合わせに利用すれば、術野に対してマーカーを予め設ける手間を省ける。よって、患者の負担を軽減できる。また、医師の作業を省力化できる。更に、人為的に付したマーカーを用いるよりも、高い精度で位置合わせを行える。よって、手術時などの支援をより適切に行える。
[第2の実施の形態]
図2は、第2の実施の形態の画像処理システムの例を示す図である。第2の実施の形態の画像処理システムは、病院や診療所などの医療施設に設けられ、医師による手術の支援に用いられる。第2の実施の形態の画像処理システムは、画像処理装置100およびストレージ装置200を含む。画像処理装置100およびストレージ装置200は、ネットワーク10に接続されている。ネットワーク10は、例えばLAN(Local Area Network)である。
画像処理装置100は、モニタ11、近赤外線カメラ21および術野撮影カメラ22に接続されている。モニタ11は、画像処理装置100が出力した画像情報に応じた画像を表示する表示装置である。近赤外線カメラ21は、近赤外光により術野を撮像する撮像装置である。術野撮影カメラ22は、可視光により術野を撮像する撮像装置である。近赤外線カメラ21および術野撮影カメラ22は、1台のカメラでもよい。例えば、透過させる光を選択するフィルタを1台のカメラに設ける。そして、当該1台のカメラで、近赤外光および可視光による撮像を切り替えて行うことも考えられる。
ライト30は、可視光や近赤外光を術野に照射する。例えば、医師40が患者50の手術を行っているとき、手術による処置が行われている箇所と当該箇所の周辺が術野となる。例えば、処置対象の臓器が患者50の心臓51であれば、心臓51および心臓51の周辺が術野である。皮膚を切開する前であれば、皮膚の切開対象部分とその周辺を術野と考えることができる。術野には、患者50の静脈52も存在している。例えば、静脈52は、心臓51の静脈、又は、心臓51の周辺臓器の静脈である。皮膚を切開する前であれば、静脈52は皮膚の内側に存在する静脈である。
近赤外線カメラ21は、ライト30により術野から反射した近赤外光を感知して撮像する。近赤外線カメラ21は、撮像により静脈52の画像情報を生成し、画像処理装置100に出力する。術野撮影カメラ22は、ライト30により術野から反射した可視光を感知して撮像する。術野撮影カメラ22は、撮像により術野の画像情報を生成し、画像処理装置100に出力する。
画像処理装置100は、近赤外線カメラ21から取得した画像情報および術野撮影カメラ22から取得した画像情報を画像処理するコンピュータである。画像処理装置100は、近赤外線カメラ21から取得した画像情報に基づいて、ストレージ装置200から医用情報を取得する。医用情報の一例として、病巣や患部周辺の臓器の画像の情報などが考えられる。以下の説明では、医用情報の一例としての画像を指して、医用画像と称することがある。画像処理装置100は、術野撮影カメラ22から取得した画像情報に、医用画像を重ねた画像情報を生成し、モニタ11に出力する。撮影中の画像に、別の画像を重畳して表示させる画像処理技術を、AR(Augmented Reality)と呼ぶことがある。
モニタ11は、画像処理装置100から取得した画像情報に応じた画像11aを表示する。画像11aには、例えば、心臓51の病巣を示す医用画像11bも含まれる。医師40は、医用画像11bを視認することで、心臓51の病巣の位置を把握できる。以下では、このような画像処理システムによる処理を具体的に説明する。
図3は、実施の形態の画像処理装置のハードウェア例を示す図である。画像処理装置100は、プロセッサ101、RAM102、HDD103、画像入力インタフェース104、画像信号処理部105、入力信号処理部106、読み取り装置107および通信インタフェース108を有する。各ユニットは画像処理装置100のバスに接続されている。
プロセッサ101は、画像処理装置100の情報処理を制御する。プロセッサ101は、マルチプロセッサであってもよい。プロセッサ101は、例えばCPU、DSP、ASIC又はFPGAなどである。プロセッサ101は、CPU、DSP、ASIC、FPGAなどのうちの2以上の要素の組み合わせであってもよい。
RAM102は、画像処理装置100の主記憶装置である。RAM102は、プロセッサ101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部を一時的に記憶する。また、RAM102は、プロセッサ101による処理に用いる各種データを記憶する。
HDD103は、画像処理装置100の補助記憶装置である。HDD103は、内蔵した磁気ディスクに対して、磁気的にデータの書き込みおよび読み出しを行う。HDD103には、OSのプログラム、アプリケーションプログラム、および各種データが格納される。画像処理装置100は、フラッシュメモリやSSD(Solid State Drive)などの他の種類の補助記憶装置を備えてもよく、複数の補助記憶装置を備えてもよい。
画像入力インタフェース104は、近赤外線カメラ21および術野撮影カメラ22と接続する。画像入力インタフェース104は、近赤外線カメラ21および術野撮影カメラ22により撮像された画像情報を、近赤外線カメラ21および術野撮影カメラ22から受信し、RAM102やHDD103に格納する。
画像信号処理部105は、プロセッサ101からの命令に従って、画像処理装置100に接続されたモニタ11に画像を出力する。モニタ11としては、CRT(Cathode Ray Tube)ディスプレイや液晶ディスプレイなどを用いることができる。あるいは、後述するように、画像信号処理部105は、スクリーンなどに画像を投影するプロジェクタに画像を出力することもできる。
入力信号処理部106は、画像処理装置100に接続された入力デバイス12から入力信号を取得し、プロセッサ101に出力する。入力デバイス12としては、例えば、マウスやタッチパネルなどのポインティングデバイス、キーボードなどを用いることができる。
読み取り装置107は、記録媒体13に記録されたプログラムやデータを読み取る装置である。記録媒体13として、例えば、フレキシブルディスク(FD:Flexible Disk)やHDDなどの磁気ディスク、CD(Compact Disc)やDVD(Digital Versatile Disc)などの光ディスク、光磁気ディスク(MO:Magneto-Optical disk)を使用できる。また、記録媒体13として、例えば、フラッシュメモリカードなどの不揮発性の半導体メモリを使用することもできる。読み取り装置107は、例えば、プロセッサ101からの命令に従って、記録媒体13から読み取ったプログラムやデータをRAM102又はHDD103に格納する。
通信インタフェース108は、ネットワーク10を介して他の装置と通信を行う。通信インタフェース108は、有線通信インタフェースでもよいし、無線通信インタフェースでもよい。
図4は、画像処理装置の機能例を示す図である。画像処理装置100は、記憶部110、登録部120および表示制御部130を有する。登録部120および表示制御部130は、プロセッサ101がプログラムを実行することで実現されてもよい。
記憶部110は、医用画像テーブル、映像フレームバッファ、静脈紋パターンテーブルを含む情報を記憶する。記憶部110は、RAM102やHDD103などに確保された記憶領域として実現できる。
医用画像テーブルは、医用画像の情報と静脈紋の情報との対応関係を管理するためのテーブルである。医用画像テーブルには、医用画像を撮像したときの撮像領域と同じ撮像領域に存在する静脈紋の画像(静脈紋画像)も、当該医用画像に対応付けて登録される。対応関係にある医用画像および静脈紋画像は、医用画像における被写体(病巣や他の臓器)と静脈との、同一撮像領域における相対的な位置関係が反映された画像となる。
静脈紋パターンテーブルは、静脈紋の特徴パターンを示す情報である。映像フレームバッファは、術野撮影カメラ22から取得した画像情報およびモニタ11に出力する画像情報を一時的に記憶しておくバッファである。
登録部120は、術前に撮像された医用画像および静脈紋の情報を対応付けて医用画像テーブルに登録する。登録部120は、近赤外線カメラ21により撮像された静脈紋画像に基づいて静脈紋パターンテーブルを生成し、記憶部110に格納する。
表示制御部130は、モニタ11による画像表示を制御する。表示制御部130は、静脈紋検索部131、画像変換部132および合成部133を有する。
静脈紋検索部131は、近赤外線カメラ21から取得した静脈紋の情報と、記憶部110に記憶された複数の静脈紋の情報とを照合する。そして、静脈紋検索部131は、記憶部110に記憶された複数の静脈紋の情報のうち、近赤外線カメラ21から取得した静脈紋の情報に最もよく一致する静脈紋の情報を検索する。
画像変換部132は、静脈紋検索部131によって検索された静脈紋の情報に対応する医用画像を、記憶部110に記憶された医用画像テーブルから取得する。画像変換部132は、医用画像テーブルから検索された静脈紋の第1の画像と、近赤外線カメラ21から取得した静脈紋の第2の画像とを対比して、第1の画像に対する第2の画像のサイズ比を求める。画像変換部132は、求めたサイズ比に応じて医用画像の拡縮を行う。
また、画像変換部132は、術野撮影カメラ22により撮像された画像内の領域のうち、拡縮後の医用画像を重畳する位置を決定する。画像変換部132は、医用画像を重畳する位置の決定に静脈紋の情報を用いる。
ここで、前述のように、医用画像テーブルに登録される医用画像と静脈紋画像とは、医用画像における被写体および静脈の相互の相対的な位置関係を保持している。画像変換部132は、医用画像テーブルにおける静脈紋画像が、近赤外線カメラ21による撮像領域の静脈紋画像に重なるよう、医用画像の回転角、拡縮率および平行移動の方向/距離を算出する。例えば、画像変換部132は、医用画像に対する回転、拡縮および平行移動などの画像変換を、アフィン変換により一括して実行し得る。
合成部133は、画像変換部132による変換後の医用画像を、術野撮影カメラ22により撮像された画像に重畳した画像情報を生成し、モニタ11に出力する。モニタ11は、合成部133が出力した画像情報に応じた画像を表示する。
図5は、医用画像テーブルの例を示す図である。医用画像テーブル111は、記憶部110に記憶される。医用画像テーブル111は、管理番号、医用画像、サイズ、タイプ、静脈紋画像および静脈紋パターンの項目を含む。
管理番号の項目には、レコードを識別するための番号が登録される。医用画像の項目には、医用画像が登録される。サイズの項目には、医用画像のサイズが登録される。タイプの項目には、タイプの情報が登録される。タイプは、医用画像を撮像した手段(CT、MRIおよび血管造影など)を示す。タイプは、撮像対象の臓器の名称などの情報を含んでもよい。
静脈紋画像の項目には、医用画像とともに取得された静脈紋画像が登録される。静脈紋パターンの項目には、静脈紋の特徴を示す静脈紋パターンの情報が登録される。ここで、医用画像テーブル111には、1つの静脈紋画像に対して、複数の医用画像が対応付けて登録され得る。
例えば、医用画像テーブル111には、管理番号が“1”、医用画像が“医用xxxx01.jpg”、サイズが“4000×3000”、タイプが“血管造影”、静脈紋画像が“静脈xxxx01.png”、静脈紋パターンが“IDxxxx01”(IDは“IDentifier”の略)という情報が登録される。
これは、医用画像“医用xxxx01.jpg”と、静脈紋画像“静脈xxxx01.jpg”と、静脈紋パターン“IDxxxx01”との情報が対応付けられていることを示す。また、医用画像のサイズが4000×3000ピクセルであることを示す。更に、医用画像が血管造影法によって撮像された血管の画像であることを示す。また、当該レコードは、管理番号“1”で識別されることを示す。
登録部120は、医用画像、静脈紋画像および静脈紋パターンの情報を、術前に予め取得し、医用画像テーブル111に登録する。医用画像を撮像する手段としては、例えば、CT、MRI、ポジトロン断層法(PET:Positron Emission Tomography)、血管造影、磁気共鳴血管画像(MRA:Magnetic Resonance angiography)および非造影MRAなどが考えられる。登録部120は、処置の対象となる臓器や病巣などを、360度全方位から撮像した医用画像を予め取得し、医用画像テーブル111に登録しておく。その際、登録部120は、撮像する方向毎の静脈紋画像を近赤外線カメラ21から取得し、当該方向から撮像した医用画像に対応付けて医用画像テーブル111に登録する。静脈紋パターンは、静脈紋画像から生成される静脈紋の特徴を表す情報である。登録部120は、血管造影などを用いて静脈を撮像することで、医用画像に対応する静脈紋画像を取得することもできる。
図6は、静脈紋パターンの例を示す図である。静脈は、血管が複雑に分岐した構造をもつ。ある分岐点は、血管により他の分岐点と接続している(ある分岐点は、他の分岐点とリンクしているともいえる)。
静脈紋パターンは、血管の分岐点に着目した情報である。静脈紋パターンは、分岐点における分岐数(リンク数と称する)と分岐点間の距離とを静脈紋の特徴として表す。ここで、分岐点は、静脈紋画像で示される血管の構造(単純化した構造でよい)のうち、次の(1)〜(3)で示される条件の何れかに合致する箇所である。
(1)3以上に枝分かれしている箇所。(2)血管が所定の角度範囲内(例えば、160度以下など)で曲がっている箇所。(3)血管の末端の箇所。
(1)に該当する分岐点では、実際の枝の数をリンク数とする。(2)に該当する分岐点では、リンク数を2とする。(3)に該当する分岐点では、リンク数を1とする。
図6の静脈紋パターンの例では、分岐点p−001,p−002,・・・,p−018が示されている。例えば、分岐点p−001は上記(2)に該当する分岐点である。よって、分岐点p−001のリンク数は2である。分岐点p−002は上記(3)に該当する分岐点である。よって、分岐点p002のリンク数は1である。分岐点p−018は上記(1)に該当する分岐点である。分岐点p−018における枝の数は5である。よって、分岐点p−018のリンク数は5である。
画像処理装置100は、静脈紋パターンテーブルにより静脈紋パターンを管理する。画像処理装置100は、静脈紋パターンテーブルを静脈紋画像毎に生成する。
図7は、静脈紋パターンテーブルの例を示す図である。静脈紋パターンテーブル112は、記憶部110に記憶される。静脈紋パターンテーブル112は、図6で例示した静脈紋パターンを管理するための情報である。例えば、静脈紋パターンテーブル112は、識別情報“IDxxxx01”の静脈紋パターンに相当する。静脈紋パターンテーブル112は、ID、リンク数、座標値およびリンク先IDの項目を含む。
IDの項目には、分岐点を識別するための識別子(ID)が登録される。リンク数の項目には、リンク数が登録される。座標値の項目には、分岐点の座標値が登録される。リンク先IDの項目には、当該分岐点と血管で結ばれている別の分岐点(リンク先の分岐点)のIDが登録される。リンク先IDの項目には、複数のIDが登録され得る。複数のIDが登録される場合、着目する分岐点との距離が近い分岐点の順に、IDを並べる。ここで、「分岐点間の距離」は、静脈紋画像(2次元画像)において各分岐点の間を直線で結んだ距離である。リンク先IDの項目では、設定なしを“−”(ハイフン)で示す。
例えば、静脈紋パターンテーブル112には、IDが“p−001”、リンク数が“2”、座標値が“(x1,y1)”、リンク先IDが“p−004,p−012”という情報が登録される。
これは、分岐点p−001のリンク数が2であること、静脈紋画像における分岐点p−001の座標が(x1,y1)であることを示す。また、分岐点p−001は、分岐点p−004,p−012に隣接していることを示す。例えば、分岐点p−001,p−004の距離は、座標(x1,y1)と座標(x4,y4)との間の距離である。リンク先IDは、分岐点p−004,p−012の順番に設定されている。これは、分岐点p−001,p−004間の距離は、分岐点p−001,p−012間の距離よりも短いことを示している。
登録部120は、静脈紋パターンテーブル112と同様の情報を、静脈紋画像毎に生成する。静脈紋検索部131は、静脈紋パターンテーブル112に基づいて、近赤外線カメラ21から取得した静脈紋画像が、登録済みの静脈紋に一致するか否かを判断できる。
図8は、静脈紋パターンの対比例を示す図である。静脈紋検索部131は、静脈紋パターンテーブル112に基づいて量子化パターン112aを生成する。具体的には、静脈紋検索部131は、着目する1つの分岐点におけるリンク数および当該分岐点に対するリンク先の分岐点でのリンク数を、静脈紋パターンテーブル112のリンク先IDに対応する順序で並べることで数列を生成する。静脈紋検索部131は、静脈紋パターンテーブル112に登録された複数の分岐点それぞれについて当該数列を生成し、量子化パターン112aとする。
静脈紋パターンテーブル112のID“p−001”のレコード例でいえば、分岐点p−001のリンク数は2、リンク先である分岐点p−004のリンク数は3、同リンク先である分岐点p−012のリンク数は2(図7参照)である。よって、静脈紋検索部131は、当該レコードに対して、“2−3−2”という数列を生成する。
静脈紋検索部131は、近赤外線カメラ21により撮像された静脈紋画像に基づいて、量子化パターン112aと同様の方法により、量子化パターン112bを生成する。
静脈紋検索部131は、記憶部110に記憶された複数の静脈紋パターンテーブルに対応する複数の量子化パターンと、量子化パターン112bとを対比することで、静脈紋を照合する。このとき、静脈紋検索部131は、数列における数値の並びも含めて一致を判断する。例えば、数列“1−2−3”と数列“1−2−3”とは一致する。一方、数列“1−2−3”と数列“1−3−2”とは一致しない。
静脈紋検索部131は、術中に得られた量子化パターン112bと一致する数列の数の割合(一致度)が最大である量子化パターンを、登録された静脈紋に対する量子化パターンの中から検索する。例えば、量子化パターン112a,112bは、何れも数列“4−3−3−3−4”、“1−4”、“3−2−4−2”、“4−3−1−4−3”などの数列を含む。この場合、静脈紋検索部131は、量子化パターン112a,112bでは、これらの数列が一致していると判断する。
例えば、量子化パターン112bに含まれる全数列が、量子化パターン112aに含まれていれば、100%の一致度である。量子化パターン112bに含まれる全数列のうちの半分が、量子化パターン112aに含まれていれば、50%の一致度である。
静脈紋検索部131は、記憶部110に記憶された複数の静脈紋パターンテーブルそれぞれに対して、量子化パターンを生成する。静脈紋検索部131は、登録済の静脈紋パターンのうち、術中に得た静脈紋パターンに最もよく一致するもの(一致度の最も大きくなるもの)を、上記の比較により、検索する。
図9は、映像フレームバッファの例を示す図である。映像フレームバッファ113は、記憶部110に格納される。映像フレームバッファ113には、フレーム番号、映像フレーム画像、サイズ、タイムスタンプ、静脈紋画像、静脈紋パターン、相対位置、回転角、拡縮率、移動量および出力医用画像の項目が含まれる。
フレーム番号の項目には、フレーム番号が登録される。フレーム番号は、術野撮影カメラ22から画像を取得するごとに、1ずつインクリメントされる。ここで、術野撮影カメラ22は、例えば、30fps(frames per second)のフレームレートで術野を撮像する。
映像フレームバッファ113は、3つの画像を記憶し得る。画像処理装置100は、新たなフレームの画像を取得すると、映像フレームバッファ113内の最古の情報を消去し、映像フレームバッファ113に新たなフレームの画像の情報を追加する。
例えば、フレーム番号k(kは3以上の整数)の画像は、術野撮影カメラ22から取得した最新の画像であり、画像処理装置100による画像処理が未だ行われていない画像である。このとき、フレーム番号kの画像を格納する記憶領域を、映像フレーム画像や静脈紋画像の読み込み用のバッファと呼ぶこともできる。
フレーム番号k−1の画像は、フレーム番号kよりも1フレームだけ前に撮像された画像であり、画像処理装置100による画像処理が行われている画像である。このとき、フレーム番号k−1の画像を格納する記憶領域を、画像処理用のバッファと呼ぶこともできる。
フレーム番号k−2の画像は、フレーム番号kよりも2フレームだけ前に撮像された画像であり、画像処理装置100からモニタ11への出力用の画像である。このとき、フレーム番号k−2の画像を格納する記憶領域を、出力用のバッファと呼ぶこともできる。
映像フレーム画像の項目には、術野撮影カメラ22によって生成された術野の画像(術野画像)の情報が登録される。サイズの項目には、画像のサイズが登録される。タイムスタンプの項目には、画像を取得した時刻を示すタイムスタンプが登録される。静脈紋画像の項目には、術野画像とともに、近赤外線カメラ21によって生成された静脈紋画像の情報が登録される。静脈紋パターンの項目には、当該静脈紋画像に対応する静脈紋パターンの情報が登録される。
相対位置の項目には、静脈紋画像のうち静脈紋が検出された領域を示す矩形の位置を示す座標(原点に最も近い頂点の座標)が登録される。回転角の項目には、術野画像に医用画像を重畳させる際の、医用画像の回転角の情報が登録される。拡縮率の項目には、術野画像に医用画像を重畳させる際の、医用画像の拡縮率の情報が登録される。移動量の項目には、術野画像に医用画像を重畳させる際の、医用画像の平行移動の方向と量とを示すベクトルの情報が登録される。出力医用画像の項目には、術野画像に重畳するための変換(上記回転、拡縮および平行移動)を行った後の、医用画像が登録される。
例えば、映像フレームバッファ113には、フレーム番号が“k”、映像フレーム画像が“フレーム006.raw”、サイズが“1920×1080”、タイムスタンプが“12:01:00.10000”、静脈紋画像が“静脈1006.png”、静脈紋パターン、相対位置、回転角、拡縮率、移動量および出力医用画像が設定なし(“−”)という情報が登録される。
これは、フレーム番号kに対応する“フレーム006.raw”という映像フレーム画像が取得されていることを示す。また、当該映像フレーム画像のサイズが1920×1080ピクセルであること、12時1分0秒1の時刻に撮像された画像であることを示す。更に、当該映像フレーム画像とともに、“静脈1006.png”で示される静脈紋画像が取得されていることを示す。なお、図9に示す映像フレームバッファ113の内容が取得されているタイミングにおいて、フレーム番号kに対する画像処理は行われていない。このため、静脈紋パターン、相対位置、回転角、拡縮率、移動量および出力医用画像の項目は、設定なし(“−”)となる。
また、映像フレームバッファ113には、フレーム番号が“k−1”、映像フレーム画像が“フレーム005.raw”、サイズが“1920×1080”、タイムスタンプが“12:01:00.06667”、静脈紋画像が“静脈1005.png”、静脈紋パターンが“IDxxxx02”、相対位置が“(200,230)”、回転角が“30.22°”、拡縮率が“1.23”、移動量が“(20,12)”、出力医用画像が“Oxxx02−08.jpg”という情報が登録される。
この情報は、次の内容を示す。フレーム番号k−1に対応する“フレーム005.raw”という映像フレーム画像が取得されている。当該映像フレーム画像のサイズが1920×1080ピクセルであり、12時1分0秒06667の時刻に撮像された画像である。当該映像フレーム画像とともに、“静脈1005.png”で示される静脈紋画像が取得されている。更に、当該静脈紋画像に対して“IDxxxx02”で示される静脈紋パターンの情報が取得されている。術野画像のうち静脈紋が検出された領域を示す矩形の原点に最も近い座標が(200,230)である。映像フレーム画像“フレーム005.raw”に重畳させる出力医用画像“Oxxx02−08.jpg”を生成済みである。当該出力医用画像は、回転角30.22度、拡縮率1.23、平行移動を示すベクトル(20,12)を用いて、元の医用画像をアフィン変換することで生成されたものである。
次に、第2の実施の形態の画像処理システムにおける処理手順を説明する。まず、記憶部110に医用画像を登録する手順を説明する。前述のように、医用画像は、CTやMRIなどの方法を用いて、術前に取得される。
図10は、医用画像の登録例を示すフローチャートである。以下、図10に示す処理をステップ番号に沿って説明する。
(S11)登録部120は、手術の対象となる臓器の3次元モデルデータを取得する。画像処理装置100が、CTなどによって取得されたデータから3次元モデルデータを生成してもよいし、他の装置が生成した3次元モデルデータを取得してもよい。3次元モデルデータは、臓器の表層および臓器の内部構造の情報を含む。
(S12)登録部120は、3次元モデルデータに対する所謂バーチャルカメラの位置決めを行う。バーチャルカメラは、登録部120によって実現される1つの機能であり、3次元モデルデータを全方位から撮像可能な仮想的なカメラである。バーチャルカメラは、例えばCTなどによって取得された3次元モデルデータに基づき、一又は複数の臓器表面や臓器断面の画像情報を生成する。例えば、医師が3次元モデルデータに対する角度(撮影方向)を指定すると、バーチャルカメラは、指定の角度から見たときの画像情報を生成することができる。
(S13)登録部120は、医用画像を撮影する。具体的には、登録部120は、バーチャルカメラの機能を用いて、3次元モデルデータにより示される臓器の表面や臓器の内部構造のうち、オペレータにより指定された箇所を撮像し、医用画像を生成する。
(S14)登録部120は、静脈紋画像を撮影する。具体的には、登録部120は、ステップS13における撮像方向と同じ方向から、近赤外線カメラ21を用いて、患者50の表層の静脈紋を撮像する。あるいは、登録部120は、血管造影などを用いて取得された3次元モデルデータにより示される臓器の内部又は外部の静脈紋を、ステップS13における撮像方向と同じ方向から、バーチャルカメラの機能を用いて撮像してもよい。登録部120は、ある方向から患者50を見たときの同じ範囲(例えば、所定の誤差内で一致する範囲)について、医用画像および静脈紋画像を取得する。このため、医用画像および静脈紋画像には、医用画像の被写体(例えば、病巣や他の臓器など)と、静脈紋との相対的な位置関係が保持される。
(S15)登録部120は、ステップS14において撮像した静脈紋画像に基づいて、静脈紋パターンテーブルを生成する。登録部120は、静脈紋画像を参照して、リンク数、座標値およびリンク先IDを分岐点毎に取得し、静脈紋パターンテーブルに登録する。
(S16)登録部120は、ステップS13,S14で撮像した医用画像と静脈紋の情報(静脈紋画像および静脈紋パターンテーブル)とを対応付けて、医用画像テーブル111に登録する。
(S17)登録部120は、被写体(例えば、病巣や他の臓器など)に対して全方向から医用画像を撮影したか否かを判定する。全方向から撮影済みの場合、処理を終了する。未撮影の方向がある場合、処理をステップS12に進める。以降のステップS12では、登録部120は、未選択の方向から撮影するようにバーチャルカメラの位置決めを行う。
このようにして、画像処理装置100は、被写体を撮像した医用画像と、静脈紋の情報とを対応付ける。画像処理装置100は、撮影した方向毎に、医用画像と静脈紋の情報とを対応付けて取得する。また、画像処理装置100は、静脈紋画像毎に、静脈紋パターンテーブルを生成する。
なお、ステップS14において、近赤外線カメラ21を用いて静脈紋画像を取得する場合、例えば、CTなどによる患者50全体のデータ取得が完了した後に、患者50を検査台に乗せた状態で、上記ステップS11〜S17の手順を行うことが考えられる。
ステップS14において、バーチャルカメラの機能を用いて、静脈紋画像を取得する場合、CTや血管造影などによる患者50全体のデータ取得が完了した後の任意のタイミングで、上記ステップS11〜S17の手順を行える(バーチャルカメラの機能により静脈の情報も取得可能なため)。
図11は、3次元モデルに対するバーチャルカメラの配置例を示す図である。直交するX,Y,Z軸を次のように定義する。図11において、X軸は患者50の横方向である(右腕側から左腕側へ向かう方向を正とする)。Y軸は患者50の身長方向である(足側から頭側へ向かう方向を正とする)。Z軸は患者50の正面/背面方向である(背面側から正面側へ向かう方向を正とする)。
例えば、登録部120は、CTなどを用いて取得されたデータに基づき、患者50の心臓51を表す3次元モデル60を取得する。登録部120は、3次元モデル60に対してバーチャルカメラの位置決めを行う。
例えば、バーチャルカメラ71は、正面側(Z軸の正の側)の所定の位置から3次元モデル60を撮像するよう配置されている。バーチャルカメラ71が3次元モデル60を撮像する方向(観察方向)は、Z軸の正側から負側へ向かう方向である。
バーチャルカメラ72は、3次元モデル60の中心(重心でもよい)を通るY軸と同じ方向の軸に関して、3次元モデル60をY軸の正側から眺めたときの時計周り(以下同様)に90度だけ、バーチャルカメラ71を回転させた結果である。バーチャルカメラ72の観察方向は、X軸の負側から正側へ向かう方向である。
バーチャルカメラ73は、3次元モデル60の中心を通るY軸と同じ方向の軸に関して、時計周りに90度だけ、バーチャルカメラ72を回転させた結果である。バーチャルカメラ73の観察方向は、Z軸の負側から正側へ向かう方向である。
バーチャルカメラ74は、3次元モデル60の中心を通るY軸と同じ方向の軸に関して、時計周りに90度だけ、バーチャルカメラ73を回転させた結果である。バーチャルカメラ74の観察方向は、X軸の正側から負側へ向かう方向である。
上記の例では、バーチャルカメラの配置を90度刻みで4箇所例示したが、登録部120は、例えば、0.5度刻み、1度刻みなど(これらより大きい値(5度刻みや10度刻みなど)でもよい)でバーチャルカメラの配置を変更しながら、医用画像を取得できる。また、3次元モデル60の中心を通るY軸と同じ方向の軸に関する回転により、バーチャルカメラの位置決めを行うものとしたが、3次元モデル60の中心を通るX軸やZ軸と同じ方向の軸に関して回転させることも考えられる。2以上の軸に関する回転角の組合せに対して、医用画像を取得してもよい。更に、バーチャルカメラを回転させるものとしたが、バーチャルカメラの位置を固定した上で、3次元モデル60を回転させて、医用画像を取得することも考えられる。
図12は、静脈紋の撮像例(その1)を示す図である。例えば、登録部120は、医用画像を撮像したバーチャルカメラの複数の観察方向それぞれについて、近赤外線カメラ21を用いて静脈紋画像を取得する。例えば、登録部120は、バーチャルカメラを用いて、ある観察方向から3次元モデル60を撮影し、3次元モデル60の表層又は内部の病巣Nの画像を含む医用画像P11を取得する。このとき、登録部120は、近赤外線カメラ21を当該バーチャルカメラと同じ配置にして、患者50の皮膚から反射した近赤外光を、近赤外線カメラ21を用いて撮像し、静脈紋画像P21を得る。
例えば、バーチャルカメラ71に対し、近赤外線カメラ21をバーチャルカメラ71と同じ配置にして、患者50の静脈紋を撮像する。このとき、近赤外線カメラ21と心臓51との距離は、バーチャルカメラ71と3次元モデル60との距離に一致する(所定の誤差内で一致していればよい)。また、近赤外線カメラ21の観察方向も、バーチャルカメラ71の観察方向と同じになる。なお、登録部120は、患者50の体内の心臓51の位置を、CTなどの結果から得ることができるので、術前でも、心臓51の位置に対する近赤外線カメラ21の配置を決定できる。
そして、登録部120は、患者50の表層に存在する静脈53に対応する静脈紋Mを含む静脈紋画像P21を近赤外線カメラ21から取得する。このとき、医用画像P11および静脈紋画像P21は、ある観察方向から患者50を眺めたときの、病巣Nと静脈紋Mとの相対的な位置関係が反映された画像となる。
同様にして、登録部120は、観察方向を変えながら、病巣Nの画像を含む医用画像P12および静脈紋Mを含む静脈紋画像P22の組を取得する。図12では、その他にも、医用画像P13および静脈紋画像P23の組、医用画像P14および静脈紋画像P24の組、医用画像P15および静脈紋画像P25の組が例示されている。
図13は、静脈紋の撮像例(その2)を示す図である。前述のように、血管造影などにより、患者50の血管のデータも得られていることも考えられる。その場合、登録部120は、血管の3次元モデルデータに基づいて、バーチャルカメラにより医用画像P11および静脈紋画像P21を取得してもよい。
具体的には、登録部120は、血管造影などにより、静脈53に対応する3次元モデル60aを取得し、3次元モデル60とともに患者50の体内の配置を再現する。登録部120は、ある観察方向からバーチャルカメラで病巣Nを撮像したときに、3次元モデル60aが撮像範囲に含まれるなら、当該3次元モデル60aを撮像した静脈紋Mの静脈紋画像P21を取得できる。この場合、3次元モデル60aは、患者50の表層に存在する静脈53に限らず、患者50の体内深部の静脈に対応するものでもよい(例えば、心臓51あるいは他の臓器の表面や内部の静脈を示す3次元モデルでもよい)。
登録部120は、図12,13で例示した方法を用いて、医用画像と静脈紋画像との組を観察方向毎に取得し、医用画像と静脈紋画像とを対応付けて記憶部110に格納する。例えば、登録部120は、医用画像P11と静脈紋画像P21とを対応付けて、記憶部110に格納する。更に、登録部120は、静脈紋画像P21を参照して、静脈紋パターンテーブルを生成し、医用画像に対応付けて記憶部110に格納する。登録部120は、角度に応じて異なる箇所の静脈に対する静脈紋画像を取得して、医用画像と対応付けてもよい。
画像処理装置100は、上記のようにして登録した情報を用いて、医師40による患者50の手術を支援する。次に、画像処理装置100による手術中の画像処理の手順を説明する。
図14は、画像処理例を示すフローチャートである。以下、図14に示す処理をステップ番号に沿って説明する。
(S21)静脈紋検索部131は、現フレーム(例えば、フレーム番号k)の術野画像を術野撮影カメラ22から取得し、映像フレームバッファ113に格納する。
(S22)静脈紋検索部131は、現フレーム(例えば、フレーム番号k)の同術野(術野撮影カメラ22が撮像した術野と同じ術野)の静脈紋画像を近赤外線カメラ21から取得し、映像フレームバッファ113に格納する。以下、当該フレーム(例えば、フレーム番号k)の術野画像および静脈紋画像に対して、画像処理が行われる。
(S23)静脈紋検索部131は、静脈紋画像を参照して、被写体相対座標値を取得し、映像フレームバッファ113の相対位置の項目に設定する。被写体相対座標値は、静脈紋画像の原点に対し、静脈紋が検出された領域を示す矩形の位置を示す座標であり、矩形の4つの頂点のうち、原点に最も近い頂点の座標である。
(S24)静脈紋検索部131は、ステップS22で取得した静脈紋画像から静脈紋パターン(撮像パターンと称する)を計算する。
(S25)静脈紋検索部131は、医用画像テーブル111に登録された複数の静脈紋パターン(登録パターンと称する)のうち、ステップS24で取得した撮像パターンと最もよく一致するものを検索する。検索の方法は、図8で例示した通りである。具体的には、静脈紋検索部131は、複数の登録パターンから得られる複数の量子化パターンと、撮像パターンから得られる量子化パターンとを比較する。そして、静脈紋検索部131は、複数の登録静脈紋パターンに対応する複数の量子化パターンのうち、撮像パターンから得られる量子化パターンとの一致度が、指定閾値以上で最大となるものを特定する。指定閾値は、記憶部110に予め格納される。指定閾値は、例えば80%〜95%など、運用に応じた値が設定される。静脈紋検索部131は、特定した量子化パターンに対応する登録パターンを、ステップS25の検索結果とする。
(S26)画像変換部132は、静脈紋検索部131から、ステップS25の検索結果を取得する。画像変換部132は、撮像パターンから複数の特徴点の座標を取得する。画像変換部132は、静脈紋検索部131により検索された登録パターンから複数の特徴点の座標を取得する。ここで、特徴点の座標は、例えば分岐点の座標である。
(S27)画像変換部132は、撮像パターンの複数の特徴点の座標から、第1のバウンディングボックスを取得する。バウンディングボックスとは、着目する複数の特徴点座標が全て収まる最小の矩形である。画像変換部132は、静脈紋検索部131により検索された登録パターンの複数の特徴点の座標から、第2のバウンディングボックスを取得する。画像変換部132は、第2のバウンディングボックスを、第1のバウンディングボックスに一致させるための、第2のバウンディングボックスに対する回転角、拡縮率および平行移動ベクトルを算出する。画像変換部132は、算出した情報を、映像フレームバッファ113に登録する。
(S28)画像変換部132は、静脈紋検索部131により検索された登録パターンに対応する医用画像を、医用画像テーブル111から取得する。
(S29)画像変換部132は、ステップS28で取得した医用画像に対してアフィン変換を実行する。具体的には、医用画像の元の座標値(x,y)を、式(1)により、術野画像における座標値(x’,y’)に変換する。
Figure 2016013233
ここで、パラメータα11,α12,α21,α22は回転と拡縮率とを示す成分である。画像変換部132は、ステップS27で算出した回転角および拡縮率の情報に応じてパラメータα11,α12,α21,α22を決定する。α13,α23は、平行移動の成分である。画像変換部132は、ステップS27で算出した平行移動ベクトルに応じてパラメータα13,α23を決定する。画像変換部132は、アフィン変換後の医用画像を、出力医用画像として、映像フレームバッファ113に登録する。
(S30)合成部133は、術野画像(映像フレーム画像)およびアフィン変換後の医用画像を映像フレームバッファ113から取得し、アフィン変換後の医用画像を術野画像に重畳させた画像情報を生成する。合成部133は、生成した画像情報をモニタ11に出力する。
このようにして、画像処理装置100は、術野画像に医用画像を重畳する。モニタ11は、画像処理装置100から取得した画像情報に基づいて、画像を表示する。医師40は、モニタ11に表示された画像を参照して、病巣や着目している臓器周辺の他の臓器/血管などの配置を確認できる。上記の説明は、フレーム番号kに着目して説明したが、表示制御部130は、フレーム毎に、図14で示した手順を実行する。
なお、画像変換部132は、ステップS26〜S29の処理を、映像フレームバッファ113に登録された相対位置の情報に基づいて簡便に行うことも考えられる。例えば、画像変換部132は、ステップS26において、現在処理対象となっているフレームに対して検索された静脈紋パターンが、直前のフレームの静脈紋パターンと同一であることを検出する。すると、画像変換部132は、今回および直前のフレームとで、映像フレームバッファ113の相対位置の項目に登録された座標値の差分を計算する。そして、画像変換部132は、直前のフレームの出力医用画像を差分の分だけ平行移動させた画像を、現在処理対象のフレームの出力医用画像とする。以後は、ステップS30と同様である。
このように、画像変換部132によるステップS26〜S29の手順を簡易化することで、画像処理装置100の負荷を軽減できる。また、出力医用画像を表示させるための遅延を軽減し得る。
また、上記の手順では、画像処理装置100は、撮像した静脈紋画像に対応する医用画像を、同じタイミング(同一フレーム)で撮像された術野画像に重畳するものとしたが、異なるタイミングで撮像された術野画像に重畳することを妨げるものではない。近赤外線カメラ21や術野撮影カメラ22および患者50が、定位置にあれば、1〜数フレーム分のタイミング差があっても撮像される術野はほぼ一致していると考えられるからである。
更に、後述するように、プロジェクタを用いて医用画像を体表などに投影することも考えられる。その場合、ステップS21を省略してもよい。
図15は、撮像された画像の例を示す図である。図15(A)は、術野撮影カメラ22によって撮像された術野画像80を例示している。術野画像80は長方形である。術野画像80の4つの頂点のうち、紙面に向かって左下の頂点を原点O’とする。また、原点O’から紙面右方向をX’軸、原点から紙面上方向をY’軸とする。術野画像80は、臓器Aの画像81、臓器Bの画像82および臓器Cの画像83を含む。
図15(B)は、近赤外線カメラ21によって撮像された静脈紋画像90を例示している。静脈紋画像90は、術野画像80と同じ領域を近赤外線により撮像したものである。静脈紋画像90の座標系も術野画像80と同様である。静脈紋画像90は、臓器Aの静脈紋画像91、臓器Bの静脈紋画像92および臓器Cの静脈紋画像93を含む。
図15(C)は、静脈紋画像90のうち、静脈紋画像91が検出された領域91aを示している。静脈紋検索部131は、静脈紋画像90を解析して、複数検出した静脈紋画像91,92,93のうち、最も大きな領域で検出された静脈紋画像91に対し、検出領域を囲う矩形の領域91aを特定する。静脈紋検索部131は、領域91aの原点に最も近い頂点の座標V1(当該頂点の位置ベクトルV1ともいえる)を被写体相対座標値とする。
図16は、静脈紋の解析例を示す図である。静脈紋検索部131は、静脈紋画像91における静脈の分岐点の座標値を検出する。例えば、静脈紋検索部131は、分岐点b1,b2,b3,b4,b5,b6,b7を、静脈紋画像91から検出する。そして、静脈紋検索部131は、分岐点毎に分岐数を求める。分岐点および分岐数を求める方法は、図6で例示した通りである。
例えば、分岐点b1の分岐数は3である。分岐点b2の分岐数は4である。分岐点b3の分岐数は1である。分岐点b4の分岐数は4である。分岐点b5の分岐数は3である。分岐点b6の分岐数は3である。分岐点b7の分岐数は3である。
そして、静脈紋検索部131は、静脈紋画像91の静脈紋パターン(撮像パターン91b)の情報を生成し、記憶部110に予め登録された複数の静脈紋パターン(登録パターン)と照合する。例えば、静脈紋検索部131は、撮像パターン91bに対して最もよく一致するもの(一致度が指定閾値以上で最大のもの)として、登録パターンR1を特定する。
なお、静脈紋検索部131は、臓器Aにおける静脈紋画像91の全部を解析対象としてもよいし、静脈紋画像91の一部のみを解析対象としてもよい。静脈紋画像91の一部のみを解析対象とする場合、例えば、静脈紋検索部131は、静脈紋画像91のうち、特徴点(分岐点)が所定数以上含まれる任意の領域を選択し得る。
図17は、特徴点座標の例を示す図である。画像変換部132は、登録パターンR1に対応する静脈紋画像R2の特徴点座標を検出する。画像変換部132は、撮像パターン91bに対応する静脈紋画像91の特徴点座標を検出する。特徴点座標としては、例えば、分岐点の座標が考えられる。ただし、他の種類の点を特徴点としてもよい。例えば、分岐数がある数以上である分岐点に限定して特徴点としてもよいし、静脈の末端の点のみを特徴点としてもよい。
なお、座標軸について、静脈紋画像91に関しては図15で例示したX’Y’座標を考えることができる。同様に、静脈紋画像R2に関しても、矩形の画像領域の4つの頂点のうち、静脈紋画像91の原点O’である頂点に対応する頂点を原点Oとする。そして、X’軸と同じ方向にX軸を、Y’軸と同じ方向にY軸を考えることができる。なお、医用画像の画像領域も矩形であり、当該矩形の画像領域の4つの頂点のうち、静脈紋画像R2と同じ頂点を原点とした同様の座標軸を考えることができる。
静脈紋画像、医用画像の画像領域の形状は矩形(長方形)以外でもよく、直交する座標軸や基準となる原点も任意に決定してよい。ただし、登録された静脈紋画像と医用画像とにおける原点および座標軸は、一致させる。
図18は、バウンディングボックスの例を示す図である。画像変換部132は、静脈紋画像R2から検出した複数の特徴点座標に基づいて、当該複数の特徴点座標を囲むバウンディングボックスC1を検出する。図18(A)は、バウンディングボックスC1を例示している。
画像変換部132は、静脈紋画像91から検出した複数の特徴点座標に基づいて、当該複数の特徴点座標を囲むバウンディングボックスC2を検出する。図18(B)は、バウンディングボックスC2を例示している。
図19は、画像変換用のパラメータの取得例を示す図である。画像変換部132は、静脈紋画像91の原点に静脈紋画像R2の原点を重ねた際に、バウンディングボックスC1の1つの頂点と、バウンディングボックスC2の1つの頂点とが一致するようなバウンディングボックスC1の平行移動ベクトルVを計算する。バウンディングボックスC1を平行移動ベクトルVで移動させた後のバウンディングボックスをバウンディングボックスC1aとする。
バウンディングボックスC1aの1つの頂点と、バウンディングボックスC2の1つの頂点とは重なっている。画像変換部132は、当該重なる頂点を中心にしたバウンディングボックスC1aの回転角θを計算する。回転角θは、バウンディングボックスC1aの少なくとも2つの辺と、バウンディングボックスC2の2つの辺とが重なるように上記重なる頂点を軸にバウンディングボックスC1aを回転させたときの回転角である。バウンディングボックスC1aを回転角θで回転させた後のバウンディングボックスをバウンディングボックスC1bとする。
画像変換部132は、バウンディングボックスC1bをバウンディングボックスC2に一致させるための拡縮率rを計算する。画像変換部132は、バウンディングボックスC1b,C2の辺の比などから拡縮率rを求めることができる。
図20は、医用画像の画像変換の例を示す図である。画像変換部132は、静脈紋画像R2に対応する医用画像R3を、医用画像テーブル111から取得する。ここで、図20では、静脈紋画像R2および医用画像R3が、静脈紋画像91に対して傾いていることが分かり易いよう、画像領域を示す矩形を傾けて表している。また、静脈紋画像R2および医用画像R3のXY座標および原点Oも例示している。
医用画像R3は、例えば病巣N1の画像を含む。画像変換部132は、図19で求めた拡縮率r、回転角θおよび平行移動ベクトルVを用いて、医用画像R3に対するアフィン変換を実行し、出力医用画像R4を生成する。出力医用画像R4は、病巣N1の画像に対応する病巣N1aの画像を含む。
合成部133は、術野画像80および出力医用画像R4を重畳させた術野画像80bの画像情報を生成し、モニタ11に出力する。術野画像80bは、術野画像80に含まれる臓器Aの画像81に、出力医用画像R4に含まれる病巣N1aの画像が重畳されている。モニタ11は、術野画像80bを表示する。医師40は、術野画像80bを閲覧することで、病巣N1aの位置を把握できる。
なお、医用画像R3に、複数の病巣や臓器などの画像が含まれていることもある。その場合、画像処理装置100は、出力対象とする病巣や臓器などの指定(例えば、ユーザによる入力デバイス12の操作入力)を受け付けてもよい。画像処理装置100は、指定された病巣や臓器などのみを出力することも考えられる。このように、画像処理装置100は、医用画像R3の全部又は一部を出力し得る。すなわち、画像処理装置100は、術野画像80に医用画像R3の全部又は一部を重ね合わせて表示させることができる。
図21は、画像処理システムの他の例(その1)を示す図である。医師40は、腹腔鏡手術を行うこともある。腹腔鏡手術において、内視鏡300が利用され得る。その場合、内視鏡300に各種カメラを設けることが考えられる。より具体的には、内視鏡300は、近赤外線カメラ310、術野撮影カメラ320およびライト330を有する。近赤外線カメラ310は、近赤外線カメラ21に相当する。術野撮影カメラ320は、術野撮影カメラ22に相当する。ライト330は、ライト30に相当する。
画像処理装置100は、内視鏡300によって撮像された静脈52の静脈紋画像に基づいて、医用画像を術野画像に重畳した画像情報をモニタ11に出力する。モニタ11は、病巣の医用画像11bを含む画像11aを表示する。
図22は、画像処理システムの他の例(その2)を示す図である。例えば、モニタ11の代わりに、プロジェクタ14を設けてもよい。プロジェクタ14は、術野(例えば、患者50の皮膚や臓器など)に医用画像14aを投影する。この場合、術野撮影カメラ22を設けなくてよい。
画像処理装置100は、近赤外線カメラ21によって撮像された静脈52の静脈紋画像に基づいて、出力医用画像の情報をプロジェクタ14に出力する。プロジェクタ14は、前述の術野撮影カメラ22による撮像領域と同じ領域に、画像を投影するよう予め配置されている。プロジェクタ14は、画像処理装置100から取得した出力医用画像の情報に基づいて、医用画像14aを術野に投影する。
図23は、表示例(その1)を示す図である。図23では、モニタ11を用いて、肝臓K1の周辺臓器や血管を、肝臓K1に重ねて表示する例を示している。図23の例では、モニタ11は、周辺臓器として、膵臓K2および胆嚢K3を表示している。また、モニタ11は、血管として、大動脈K4、下大静脈K5および肝臓K1の内部血管K6を表示している。
図24は、表示例(その2)を示す図である。図24では、周辺臓器画像を肝臓K1に重ねて表示する例を示している。例えば、画像処理装置100は、術野撮影カメラ22から術野画像P1を取得する。術野画像P1は可視光で撮像されたものである。術野画像P1は、肝臓K1、大動脈K4および下大静脈K5を含む。術野画像P1は、肝臓K1の裏側や内部に存在する他の臓器や血管の画像を含んでいない。このため、術野画像P1を参照しても、他の臓器や血管の配置を把握することはできない。
画像処理装置100は、近赤外線カメラ21から取得した静脈紋画像に基づいて、医用画像テーブル111から医用画像P2を取得する。医用画像P2は、肝臓K1の周囲に存在する膵臓K2および胆嚢K3の画像を含む。また、医用画像P2は、肝臓K1の内部に存在する内部血管K6aの画像を含む。
画像処理装置100は、術野画像P1および医用画像P2を重畳することで、表示画像P3の画像情報を生成する。画像処理装置100は、現在の視界では肝臓K1に隠れている膵臓K2、胆嚢K3および内部血管K6aが肝臓K1の裏側又は内部に存在していることが分かるよう、肝臓K1を透かして裏側や内部を見ているような視覚効果を表示画像P3に施してもよい。
図25は、表示例(その3)を示す図である。図25では、肝臓K1内部の血管および肝臓K1周辺の血管を、肝臓K1の画像に重ねて表示する例を示している。例えば、画像処理装置100は、術野撮影カメラ22から術野画像P1を取得する。
画像処理装置100は、近赤外線カメラ21から取得した静脈紋画像に基づいて、医用画像テーブル111から医用画像P4,P5を取得する。なお、前述のように、医用画像テーブル111には、静脈紋画像に対応付けて、複数の医用画像が登録され得る。医用画像P4は、肝臓K1の裏側に存在する大動脈K4aおよび下大静脈K5aの画像を含む。医用画像P5は、肝臓K1の内部に存在する内部血管K6b(動脈や静脈)の画像を含む。
画像処理装置100は、大動脈K4および下大静脈K5の肝臓K1の陰に隠れている部分の画像を、大動脈K4aおよび下大静脈K5aの画像により補える。画像処理装置100は、現在の視界では肝臓K1に隠れている大動脈K4a、下大静脈K5aおよび内部血管K6bの画像を、肝臓K1を透かして見えているような視覚効果を表示画像P6に施してもよい。
図26は、表示例(その4)を示す図である。図26では、皮下にある臓器を、プロジェクタ14を用いて皮膚表面54に投影する例を示している。例えば、図26の例では、患部臓器K7に加え、周辺臓器K8,K8a,K8bが皮膚表面54に投影されている。
この場合、画像処理装置100は、皮膚表面54に対して近赤外線を照射し、皮膚表層の静脈の静脈紋画像を得ることで、登録された静脈紋との照合を行える。
図27は、表示例(その5)を示す図である。図27では、肝臓K1内部の病巣を示す医用画像を、プロジェクタ14を用いて肝臓K1の表面に投影する例を示している。
画像処理装置100は、近赤外線カメラ21から取得した静脈紋画像(例えば、肝臓K1表層あるいは内部の静脈や肝臓K1周辺の静脈の静脈紋画像)に基づいて、医用画像テーブル111から医用画像P8を取得する。医用画像P8は、肝臓K1の内部に存在する病巣K9,K9aの画像を含む。画像処理装置100は、肝臓K1の表面に対して区別し易い色を、病巣K9,K9aの画像に付与し、出力医用画像を生成する。
画像処理装置100は、出力医用画像をプロジェクタ14に出力する。プロジェクタ14は、肝臓K1の表面に病巣K9,K9aを示す医用画像を投影する。
第2の実施の形態の画像処理装置100によれば、生体画像に医用画像を重畳表示することができる。例えば、文字列などで表された患者の識別コードと医用画像とを対応付けて記憶部110に格納することも考えられる。しかし、この場合、画像処理装置100に入力される識別コードに誤りがあると、他の患者や他の臓器の医用画像が出力されてしまうおそれがある。また、識別コードが患者毎、臓器毎に適切に管理されていない場合にも、他の患者や他の臓器の医用画像が出力されてしまうおそれがある。医用画像の出力の誤りは、医療ミスの要因になるおそれもある。
そこで、画像処理装置100は、静脈紋画像を用いた生体認証により認証が成功した部位に対応する医用画像を出力する。静脈紋は、生体に固有の情報である。このため、識別コードなどの他の情報を用いるよりも、生体を適正に識別できる。また、識別コードなどの新たな情報を人為的に付加するものではないので、間違いが起こりにくい。このように、画像処理装置100によれば、手術対象の患者の手術対象の臓器に対する適正な医用画像を出力できる。特に、画像処理装置100は、医用画像とともに、近赤外線カメラ21を用いて、患者に負担をかけずに容易に静脈紋画像を取得できる。同じ観察方向から患者を観察したときの静脈紋画像と医用画像との組を容易に対応付けて事前登録できる。
事前登録される静脈紋画像と医用画像との組は、同じ観察方向から患者を観察したときの画像である。したがって、静脈紋を照合に用いることで、手術中の術野の観察方向に対し、当該観察方向から眺めたときの医用画像を適正に出力可能となる。
更に、画像処理装置100は、画像情報と医用情報とを重畳する際の位置合わせに静脈紋画像を用いる。ここで、例えば、位置合わせのために位置を測位するための基準点(マーカー)を、術野に対して設ける方法も考えられる。しかし、この方法では術野に対してマーカーを設けるという手間が生じる。これに対し、静脈紋画像を位置合わせに利用することで、術野に対してマーカーを予め設ける手間を省ける。
また、医用画像は大量に管理され得る。マーカーと医用画像とを1つ1つ対応付ける作業をユーザに強いるのは現実的ではない。画像処理装置100では、静脈紋を位置合わせに用いるので、マーカーと医用画像とを1つ1つ対応付ける作業をユーザに強いずに済む。よって、患者の負担を軽減できる。また、医師の作業を省力化できる。
更に、静脈紋を位置合わせに用いることで、マーカーを人為的に付与して位置合わせするよりも、精度良く位置合わせを行える。よって、手術時の支援をより適切に行える。
ここで、開腹手術の場合、切開周辺部の皮膚面に、マーカーとなる印をマジックで記載したり、シールなどを張り付けたりすることも考えられる。しかし、一般に開腹手術の場合、開腹部分のみを露出し、開腹部分周辺の皮膚部分は、手術布や鉗子などの術具や術者の手首などで遮られることが多く、これらの皮膚部分に設置したマーカーを常時画像認識させることは不便であった。
これに対し、画像処理装置100では、術野に存在する静脈紋に応じて医用画像を出力できるので、術具や術野の手首などに遮られる可能性が低い。このため、比較的高い位置精度で、医用画像を継続的に表示させることが可能となる。
腹腔鏡手術(内視鏡手術)の場合、体内の臓器などにマーカーを予め付与することが困難である。また、臓器の一部分を撮影しながら手術を行うため、臓器全体像が表示されることは少なく、表示される臓器の形状を抽出してマーカーに変換する処理も困難である。
これに対し、画像処理装置100では、臓器の一部分における静脈紋や体表の静脈紋に応じて医用画像を出力できるので、腹腔鏡手術の場合にも、術野画像に対して医用画像を容易に重畳表示可能となる。
なお、第1の実施の形態の情報処理は、表示制御部1bとして機能するプロセッサにプログラムを実行させることで実現できる。また、第2の実施の形態の情報処理は、プロセッサ101にプログラムを実行させることで実現できる。プログラムは、コンピュータ読み取り可能な記録媒体13に記録できる。
例えば、プログラムを記録した記録媒体13を配布することで、プログラムを流通させることができる。また、プログラムを他のコンピュータに格納しておき、ネットワーク経由でプログラムを配布してもよい。コンピュータは、例えば、記録媒体13に記録されたプログラム又は他のコンピュータから受信したプログラムを、RAM102やHDD103などの記憶装置に格納し(インストールし)、当該記憶装置からプログラムを読み込んで実行してもよい。
以上の第1,第2の実施の形態を含む実施形態に関し、更に以下の付記を開示する。
(付記1) コンピュータが、
撮像された生体画像を取得する取得処理と、
取得した前記生体画像が、特定の生体の特定の部位の生体情報に対応することを検出すると、該特定の生体の前記特定の部位に対応づけて登録された医用情報を出力する出力処理と、
を含むことを特徴とする生体情報を用いた出力制御方法。
(付記2) 前記出力処理は、前記撮像された生体画像、又は、別途撮像された生体画像に対応づけて前記医用情報を表示する処理である、ことを特徴とする付記1記載の出力制御方法。
(付記3) 前記生体情報は、前記生体の静脈紋の情報である、ことを特徴とする付記1又は2記載の出力制御方法。
(付記4) 前記出力処理では、前記静脈紋の情報を用いて、前記撮像された生体画像、又は、別途撮像された生体画像に前記医用情報を重ね合わせる位置を決定する、ことを特徴とする付記3記載の出力制御方法。
(付記5) 前記出力処理では、撮像された第1の静脈紋の情報および前記医用情報に対応付けて登録された第2の静脈紋の情報に基づいて、前記医用情報の表示用の画像を生成する、ことを特徴とする付記4記載の出力制御方法。
(付記6) 前記出力処理では、前記第1および前記第2の静脈紋の情報に基づいて画像変換用のパラメータを決定し、前記パラメータを用いて前記医用情報で示される画像を変換することで、前記表示用の画像を生成する、ことを特徴とする付記5記載の出力制御方法。
(付記7) 前記医用情報は、前記生体の病巣、血管又は臓器の画像の情報である、ことを特徴とする付記1又は2記載の出力制御方法。
(付記8) 第1の撮像方法により取得した生体についての生体情報に対応づけて前記生体について第2の撮像方法により取得した第1の生体画像を記憶する記憶部と、
ある生体について前記第1の撮像方法により取得した生体情報が、前記記憶部に記憶された前記生体情報に対応すると判定すると、該ある生体について第3の撮像方法により取得した第2の生体画像と前記第1の生体画像の全部又は一部とを重ね合わせて表示する表示制御部、
を備えたことを特徴とする画像処理装置。
(付記9) 第1の撮像方法により取得した生体の一部についての生体情報に対応づけて前記生体の一部について第2の撮像方法により取得した第1の生体画像を記憶する記憶部と、
ある生体の一部について前記第1の撮像方法により取得した生体情報が、前記記憶部に記憶された前記生体情報に対応すると判定すると、該ある生体の前記一部について第3の撮像方法により取得した第2の生体画像と前記第1の生体画像の全部又は一部とを重ね合わせて表示する表示制御部、
を備えたことを特徴とする画像処理装置。
(付記10) 前記生体情報は、前記生体の静脈紋の情報である、ことを特徴とする付記8又は9記載の画像処理装置。
(付記11) 前記表示制御部は、前記静脈紋の情報を用いて、前記第2の生体画像に前記第1の生体画像を重ね合わせる位置を決定する、ことを特徴とする付記10記載の画像処理装置。
(付記12) 前記表示制御部は、前記第1の撮像方法により取得した第1の静脈紋の情報および前記第1の生体画像に対応付けて登録された第2の静脈紋の情報に基づいて、前記第1の生体画像の表示用の画像を生成する、ことを特徴とする付記11記載の画像処理装置。
(付記13) 前記表示制御部は、前記第1および前記第2の静脈紋の情報に基づいて画像変換用のパラメータを決定し、前記パラメータを用いて前記第1の生体画像を変換することで、前記表示用の画像を生成する、ことを特徴とする付記12記載の画像処理装置。
(付記14) 前記第1の生体画像は、前記生体の病巣、血管又は臓器の画像である、ことを特徴とする付記8又は9記載の画像処理装置。
(付記15) コンピュータに、
撮像された生体画像を取得する取得処理と、
取得した前記生体画像が、特定の生体の特定の部位の生体情報に対応することを検出すると、該特定の生体の前記特定の部位に対応づけて登録された医用情報を出力する出力処理と、
を実行させることを特徴とする出力制御プログラム。
(付記16) 撮像された生体画像を取得する取得処理部と、
取得した前記生体画像が、特定の生体の特定の部位の生体情報に対応することを検出すると、該特定の生体の前記特定の部位に対応づけて登録された医用情報を出力する出力処理部と、
を含むことを特徴とする生体情報を用いる情報処理装置。
1 画像処理装置
1a 記憶部
1b 表示制御部
2 撮像装置
3 表示装置
4 患者
4a 部位
4b 臓器
5 生体情報
6 医用情報
7 画像

Claims (8)

  1. コンピュータが、
    撮像された生体画像を取得する取得処理と、
    取得した前記生体画像が、特定の生体の特定の部位の生体情報に対応することを検出すると、該特定の生体の前記特定の部位に対応づけて登録された医用情報を出力する出力処理と、
    を含むことを特徴とする生体情報を用いた出力制御方法。
  2. 前記出力処理は、前記撮像された生体画像、又は、別途撮像された生体画像に対応づけて前記医用情報を表示する処理である、ことを特徴とする請求項1記載の出力制御方法。
  3. 前記生体情報は、前記生体の静脈紋の情報である、ことを特徴とする請求項1又は2記載の出力制御方法。
  4. 第1の撮像方法により取得した生体についての生体情報に対応づけて前記生体について第2の撮像方法により取得した第1の生体画像を記憶する記憶部と、
    ある生体について前記第1の撮像方法により取得した生体情報が、前記記憶部に記憶された前記生体情報に対応すると判定すると、該ある生体について第3の撮像方法により取得した第2の生体画像と前記第1の生体画像の全部又は一部とを重ね合わせて表示する表示制御部、
    を備えたことを特徴とする画像処理装置。
  5. 第1の撮像方法により取得した生体の一部についての生体情報に対応づけて前記生体の一部について第2の撮像方法により取得した第1の生体画像を記憶する記憶部と、
    ある生体の一部について前記第1の撮像方法により取得した生体情報が、前記記憶部に記憶された前記生体情報に対応すると判定すると、該ある生体の前記一部について第3の撮像方法により取得した第2の生体画像と前記第1の生体画像の全部又は一部とを重ね合わせて表示する表示制御部、
    を備えたことを特徴とする画像処理装置。
  6. 前記生体情報は、前記生体の静脈紋の情報である、ことを特徴とする請求項4又は5記載の画像処理装置。
  7. コンピュータに、
    撮像された生体画像を取得する取得処理と、
    取得した前記生体画像が、特定の生体の特定の部位の生体情報に対応することを検出すると、該特定の生体の前記特定の部位に対応づけて登録された医用情報を出力する出力処理と、
    を実行させることを特徴とする出力制御プログラム。
  8. 撮像された生体画像を取得する取得処理部と、
    取得した前記生体画像が、特定の生体の特定の部位の生体情報に対応することを検出すると、該特定の生体の前記特定の部位に対応づけて登録された医用情報を出力する出力処理部と、
    を含むことを特徴とする生体情報を用いる情報処理装置。
JP2014135911A 2014-07-01 2014-07-01 出力制御方法、画像処理装置、出力制御プログラムおよび情報処理装置 Active JP6481269B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014135911A JP6481269B2 (ja) 2014-07-01 2014-07-01 出力制御方法、画像処理装置、出力制御プログラムおよび情報処理装置
US14/736,376 US20160004917A1 (en) 2014-07-01 2015-06-11 Output control method, image processing apparatus, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014135911A JP6481269B2 (ja) 2014-07-01 2014-07-01 出力制御方法、画像処理装置、出力制御プログラムおよび情報処理装置

Publications (2)

Publication Number Publication Date
JP2016013233A true JP2016013233A (ja) 2016-01-28
JP6481269B2 JP6481269B2 (ja) 2019-03-13

Family

ID=55017212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014135911A Active JP6481269B2 (ja) 2014-07-01 2014-07-01 出力制御方法、画像処理装置、出力制御プログラムおよび情報処理装置

Country Status (2)

Country Link
US (1) US20160004917A1 (ja)
JP (1) JP6481269B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020137103A (ja) * 2019-02-19 2020-08-31 株式会社シンクアウト 情報処理システムおよび情報処理プログラム
JP2020156860A (ja) * 2019-03-27 2020-10-01 学校法人兵庫医科大学 脈管認識装置、脈管認識方法および脈管認識システム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106920265B (zh) 2015-12-28 2024-04-26 上海联影医疗科技股份有限公司 计算机断层扫描图像重建方法及装置
KR102468133B1 (ko) * 2016-02-29 2022-11-18 엘지전자 주식회사 발 정맥 인증 장치
GB2548853B (en) * 2016-03-30 2020-09-23 Advanced Risc Mach Ltd Data processing
CN116778120A (zh) * 2016-12-13 2023-09-19 奇跃公司 增强现实显示***
US10515281B1 (en) 2016-12-29 2019-12-24 Wells Fargo Bank, N.A. Blood vessel image authentication
US10499997B2 (en) 2017-01-03 2019-12-10 Mako Surgical Corp. Systems and methods for surgical navigation
DE102017214447B4 (de) * 2017-08-18 2021-05-12 Siemens Healthcare Gmbh Planare Visualisierung von anatomischen Strukturen
KR101882281B1 (ko) * 2017-09-15 2018-08-24 엘지전자 주식회사 디지털 디바이스 및 그의 생체 인증 방법
KR101882282B1 (ko) * 2017-09-22 2018-08-24 엘지전자 주식회사 디지털 디바이스 및 그의 생체 인증 방법
US20210030510A1 (en) * 2018-02-09 2021-02-04 Sony Corporation Surgery system, image processor, and image processing method
WO2019231042A1 (ko) * 2018-06-01 2019-12-05 엘지전자 주식회사 생체 인증 장치
US10898151B2 (en) * 2018-10-31 2021-01-26 Medtronic Inc. Real-time rendering and referencing for medical procedures
CN110378267B (zh) * 2019-07-09 2021-07-20 Oppo广东移动通信有限公司 静脉认证方法、装置、介质及电子设备
KR20210051141A (ko) 2019-10-30 2021-05-10 주식회사 스키아 환자의 증강 현실 기반의 의료 정보를 제공하는 방법, 장치 및 컴퓨터 프로그램

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001133696A (ja) * 1999-11-02 2001-05-18 Olympus Optical Co Ltd 手術用顕微鏡装置
JP2002312480A (ja) * 2001-04-18 2002-10-25 Nippon Telegr & Teleph Corp <Ntt> 医療カルテ及び医療情報管理システム
JP2006198032A (ja) * 2005-01-18 2006-08-03 Olympus Corp 手術支援システム
JP2006271810A (ja) * 2005-03-30 2006-10-12 Toshiba Corp 患者取り違え防止システム
JP2007520280A (ja) * 2004-01-21 2007-07-26 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド 手術中の2次元画像および手術前の3次元画像をアフィン重ね合わせするための方法およびシステム
JP2007188290A (ja) * 2006-01-13 2007-07-26 Seiri Kagaku Kenkyusho:Kk 医療情報提供システム
JP2008178524A (ja) * 2007-01-24 2008-08-07 Fujifilm Corp 個人認証方法および装置ならびにプログラム
JP2012196239A (ja) * 2011-03-18 2012-10-18 Morita Mfg Co Ltd 医療用診療装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4428067B2 (ja) * 2004-01-28 2010-03-10 ソニー株式会社 画像照合装置、プログラム、および画像照合方法
US20080298642A1 (en) * 2006-11-03 2008-12-04 Snowflake Technologies Corporation Method and apparatus for extraction and matching of biometric detail
US8463006B2 (en) * 2007-04-17 2013-06-11 Francine J. Prokoski System and method for using three dimensional infrared imaging to provide detailed anatomical structure maps
WO2009009802A1 (en) * 2007-07-12 2009-01-15 Volcano Corporation Oct-ivus catheter for concurrent luminal imaging

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001133696A (ja) * 1999-11-02 2001-05-18 Olympus Optical Co Ltd 手術用顕微鏡装置
JP2002312480A (ja) * 2001-04-18 2002-10-25 Nippon Telegr & Teleph Corp <Ntt> 医療カルテ及び医療情報管理システム
JP2007520280A (ja) * 2004-01-21 2007-07-26 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド 手術中の2次元画像および手術前の3次元画像をアフィン重ね合わせするための方法およびシステム
JP2006198032A (ja) * 2005-01-18 2006-08-03 Olympus Corp 手術支援システム
JP2006271810A (ja) * 2005-03-30 2006-10-12 Toshiba Corp 患者取り違え防止システム
JP2007188290A (ja) * 2006-01-13 2007-07-26 Seiri Kagaku Kenkyusho:Kk 医療情報提供システム
JP2008178524A (ja) * 2007-01-24 2008-08-07 Fujifilm Corp 個人認証方法および装置ならびにプログラム
JP2012196239A (ja) * 2011-03-18 2012-10-18 Morita Mfg Co Ltd 医療用診療装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020137103A (ja) * 2019-02-19 2020-08-31 株式会社シンクアウト 情報処理システムおよび情報処理プログラム
JP7304508B2 (ja) 2019-02-19 2023-07-07 株式会社シンクアウト 情報処理システムおよび情報処理プログラム
JP2020156860A (ja) * 2019-03-27 2020-10-01 学校法人兵庫医科大学 脈管認識装置、脈管認識方法および脈管認識システム
WO2020194942A1 (ja) * 2019-03-27 2020-10-01 学校法人兵庫医科大学 脈管認識装置、脈管認識方法および脈管認識システム
JP7312394B2 (ja) 2019-03-27 2023-07-21 学校法人兵庫医科大学 脈管認識装置、脈管認識方法および脈管認識システム

Also Published As

Publication number Publication date
JP6481269B2 (ja) 2019-03-13
US20160004917A1 (en) 2016-01-07

Similar Documents

Publication Publication Date Title
JP6481269B2 (ja) 出力制御方法、画像処理装置、出力制御プログラムおよび情報処理装置
US11806183B2 (en) Apparatus and methods for use with image-guided skeletal procedures
US20230380909A1 (en) Apparatus and methods for use with skeletal procedures
US10166079B2 (en) Depth-encoded fiducial marker for intraoperative surgical registration
US9990744B2 (en) Image registration device, image registration method, and image registration program
JP6122875B2 (ja) 血管ツリー画像内での見えない分岐部の検出
Gavaghan et al. A portable image overlay projection device for computer-aided open liver surgery
JP6205078B2 (ja) 椎骨レベル用イメージングシステム
US10022199B2 (en) Registration correction based on shift detection in image data
JP2019519257A (ja) 画像処理して解剖学的部分の三次元(3d)ビューを生成するシステム及び方法
JP2010274044A (ja) 手術支援装置、手術支援方法及び手術支援プログラム
Liebmann et al. Automatic registration with continuous pose updates for marker-less surgical navigation in spine surgery
JP6476125B2 (ja) 画像処理装置、及び手術顕微鏡システム
US20190304107A1 (en) Additional information display device, additional information display method, and additional information display program
Qiu et al. Endoscope navigation with SLAM-based registration to computed tomography for transoral surgery
Chen et al. Video-guided calibration of an augmented reality mobile C-arm
Zampokas et al. Augmented reality toolkit for a smart robot-assisted MIS platform
Noblet et al. Registration of 2D monocular endoscopy to 3D CBCT for video-assisted thoracoscopic surgery
US20240095936A1 (en) Combining angiographic information with fluoroscopic images
Fuertes et al. Augmented reality system for keyhole surgery-performance and accuracy validation
Oentoro et al. High-accuracy registration of intraoperative CT imaging
JP2022521615A (ja) 介入装置追跡

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190128

R150 Certificate of patent or registration of utility model

Ref document number: 6481269

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150