JP2016214781A - 手術システム、並びに画像処理装置および方法 - Google Patents

手術システム、並びに画像処理装置および方法 Download PDF

Info

Publication number
JP2016214781A
JP2016214781A JP2015106419A JP2015106419A JP2016214781A JP 2016214781 A JP2016214781 A JP 2016214781A JP 2015106419 A JP2015106419 A JP 2015106419A JP 2015106419 A JP2015106419 A JP 2015106419A JP 2016214781 A JP2016214781 A JP 2016214781A
Authority
JP
Japan
Prior art keywords
eye
image
posture
tomographic image
tomographic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015106419A
Other languages
English (en)
Inventor
大月 知之
Tomoyuki Otsuki
知之 大月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2015106419A priority Critical patent/JP2016214781A/ja
Priority to PCT/JP2016/064083 priority patent/WO2016190113A1/ja
Priority to EP16799821.0A priority patent/EP3305173B1/en
Priority to US15/566,776 priority patent/US10537389B2/en
Publication of JP2016214781A publication Critical patent/JP2016214781A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • A61B90/25Supports therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/14Eye parts, e.g. lenses, corneal implants; Implanting instruments specially adapted therefor; Artificial eyes
    • A61F2/16Intraocular lenses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/14Eye parts, e.g. lenses, corneal implants; Implanting instruments specially adapted therefor; Artificial eyes
    • A61F2/16Intraocular lenses
    • A61F2/1662Instruments for inserting intraocular lenses into the eye
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3616Magnifying glass
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • A61B2090/3735Optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • A61F9/00736Instruments for removal of intra-ocular material or intra-ocular injection, e.g. cataract instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • A61F9/00736Instruments for removal of intra-ocular material or intra-ocular injection, e.g. cataract instruments
    • A61F9/00745Instruments for removal of intra-ocular material or intra-ocular injection, e.g. cataract instruments using mechanical vibrations, e.g. ultrasonic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Ophthalmology & Optometry (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biophysics (AREA)
  • Vascular Medicine (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transplantation (AREA)
  • Human Computer Interaction (AREA)
  • Cardiology (AREA)
  • Robotics (AREA)
  • Gynecology & Obstetrics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Prostheses (AREA)

Abstract

【課題】より堅強かつ高精度に眼の姿勢を求めることができるようにする。【解決手段】画像情報取得部は、患者の眼における眼軸方向と略平行な方向の断面の画像である断層画像を取得する。画像認識部は、断層画像に基づいて画像認識により断層画像上の眼の各部位を認識する。制御部は、眼の各部位の認識結果に基づいて、眼の姿勢を算出する。このように、断層画像に基づいて眼の各部位を認識し、その認識結果に基づいて眼の姿勢を算出することで、より堅強かつ高精度に眼の姿勢を求めることができる。本技術は、手術システムに適用することができる。【選択図】図14

Description

本技術は手術システム、並びに画像処理装置および方法に関し、特に、より堅強かつ高精度に眼の姿勢を求めることができるようにした手術システム、並びに画像処理装置および方法に関する。
従来、患者の眼を対象として手術を行うときに、術中の眼の光学像や画像に重畳させて、患者の眼の角膜範囲や、眼に挿入する眼内レンズの向きなど、術者のガイドとなるガイド情報を提示する技術が提案されている(例えば、特許文献1参照)。
このようなガイド情報を提示するには、例えば術中の各時刻における眼の姿勢を特定する方法があり、眼の姿勢の特定には、例えば患者の眼を正面から撮影して得られた正面画像を用いる方法がある。
具体的には、例えば術前と術中とで正面画像から角膜範囲や瞳孔範囲を認識し、それらの認識結果に基づいて、術前と術中の眼の位置の変化を把握するとともに、正面画像における血管や虹彩の対応関係を認識することで、眼の眼軸回りの回旋角度を眼の姿勢として検出する方法がある。また、このようにして検出された回旋角度等に基づいて、術前に計画された創口作成位置や前嚢切開位置、眼内レンズ向きなどをガイド情報として提示する方法がある。
特開2012−152469号公報
しかしながら、上述した技術では、堅強かつ高精度に眼の姿勢を求めることが困難となり、提示されるガイド情報が術前計画と大きくずれてしまう場合があった。
例えば、患者個人の特徴として正面画像から血管が検出しづらい場合や、正面画像の撮影条件によって血管や虹彩の視認性が低い場合、照明の鏡面反射等により画像に白飛びが生じてしまう場合などには、正面画像から眼の回旋角度を推定することが困難となる。また、患者の眼から出血がある場合や、照明が暗く正面画像のコントラストが低い場合などにおいても眼の回旋角度の推定が困難となる。
さらに、正面画像から眼の3次元的な姿勢を推定することもできるが、高い精度で眼の姿勢を推定できないこともあり、結果としてガイド情報の提示位置にもずれが生じてしまう場合があった。
本技術は、このような状況に鑑みてなされたものであり、より堅強かつ高精度に眼の姿勢を求めることができるようにするものである。
本技術の第1の側面の手術システムは、手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像を取得する断層画像取得部と、前記断層画像に基づいて、前記断層画像における前記眼の所定部位を認識する画像認識部と、前記所定部位の認識結果に基づいて、前記眼の姿勢を算出する姿勢算出部とを備える。
手術システムには、前記手術対象である前記眼を略眼軸方向から撮影する正面画像取得部をさらに設けることができる。
前記姿勢算出部には、前記所定部位の認識結果と、前記正面画像取得部により得られた正面画像とに基づいて、前記眼の姿勢を算出させることができる。
本技術の第1の側面においては、手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像が取得され、前記断層画像に基づいて、前記断層画像における前記眼の所定部位が認識され、前記所定部位の認識結果に基づいて、前記眼の姿勢が算出される。
本技術の第2の側面の画像処理装置は、手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像に基づいて、前記断層画像における前記眼の所定部位を認識する画像認識部と、前記所定部位の認識結果に基づいて、前記眼の姿勢を算出する姿勢算出部とを備える。
前記姿勢算出部には、前記眼軸を回転軸とする前記眼の回旋角度を前記眼の姿勢として算出させることができる。
前記姿勢算出部には、前記眼の3次元の姿勢を算出させることができる。
前記姿勢算出部には、前記眼の回転量に基づいて前記眼の3次元の姿勢を算出させることができる。
前記姿勢算出部には、前記所定部位として認識された視神経乳頭と中心窩の位置関係に基づいて前記眼の姿勢を算出させることができる。
前記画像認識部には、前記眼の手術前または手術中の前記断層画像に基づいて、前記眼の所定部位を認識させることができる。
前記画像認識部には、前記眼を略前記眼軸方向から撮影して得られた正面画像に基づいて、前記正面画像における前記眼の特定の部位を認識させ、前記特定の部位の認識結果により定まる前記断層画像上の領域を対象として、前記断層画像における前記所定部位を認識させることができる。
前記姿勢算出部には、前記所定部位の認識結果に基づく前記眼の姿勢の算出結果と、前記眼を略前記眼軸方向から撮影して得られた正面画像とに基づいて、最終的な前記眼の姿勢を算出させることができる。
前記姿勢算出部には、前記所定部位の認識結果に基づく前記眼の姿勢の算出結果により定まる姿勢の範囲内で、前記正面画像に基づいて前記最終的な前記眼の姿勢を算出させることができる。
前記画像認識部には、前記眼を略前記眼軸方向から撮影して得られた正面画像に基づいて、前記正面画像における前記眼の特定の部位を認識させ、画像処理装置には、前記特定の部位の認識結果により定まる断面位置の前記断層画像を取得させる取得制御部をさらに設けることができる。
前記画像認識部には、前記眼の手術中に前記眼を略前記眼軸方向から撮影して得られた正面画像に基づいて、前記正面画像上の術具を認識させ、前記術具の認識結果により定まる前記断層画像上の領域を除外して、前記所定部位を認識させることができる。
前記画像認識部には、互いに断面位置が異なる複数の前記断層画像から得られるボリュームデータにおける前記所定部位を認識させることができる。
画像処理装置には、前記眼の姿勢に基づいて、前記眼の手術時のガイドとなるガイド情報を生成するガイド情報生成部をさらに設けることができる。
前記断層画像を、光干渉断層計により撮影された画像とすることができる。
本技術の第2の側面の画像処理方法は、手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像に基づいて、前記断層画像における前記眼の所定部位を認識し、前記所定部位の認識結果に基づいて、前記眼の姿勢を算出するステップを含む。
本技術の第2の側面においては、手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像に基づいて、前記断層画像における前記眼の所定部位が認識され、前記所定部位の認識結果に基づいて、前記眼の姿勢が算出される。
本技術の第1の側面および第2の側面によれば、より堅強かつ高精度に眼の姿勢を求めることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
手術システムの構成例を示す図である。 手術顕微鏡の構成例を示す図である。 白内障手術について説明する図である。 術前計画について説明する図である。 術前計画について説明する図である。 術前計画について説明する図である。 ガイド情報の提示について説明する図である。 ガイド情報の提示について説明する図である。 ガイド情報の提示について説明する図である。 断層画像について説明する図である。 断層画像のボリュームデータについて説明する図である。 術前計画について説明する図である。 ガイド情報の提示について説明する図である。 手術システムの構成例を示す図である。 画像情報取得部の構成例を示す図である。 画像情報取得部の構成例を示す図である。 ガイド情報提示処理を説明するフローチャートである。 術具の画像認識への影響について説明する図である。 術具の画像認識への影響について説明する図である。 断層画像を取得する断面位置について説明する図である。 正面画像と断層画像を用いた画像認識について説明する図である。 正面画像と断層画像を用いた画像認識について説明する図である。 コンピュータの構成例を示す図である。
以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
〈手術システムの構成例〉
本技術は、手術対象となる患者の眼の断層画像を用いて眼の各部位を認識することで、より堅強かつ高精度に眼(眼球)の姿勢を求めることができるようにするものである。
図1は、本技術を適用した手術システムの一実施の形態の構成例を示す図である。
図1に示す手術システム11は、手術顕微鏡21および患者用ベッド22を有しており、患者は患者用ベッド22に横たわった状態で眼の手術を受ける。また、術者である医師は、手術顕微鏡21により患者の眼を観察しながら手術を行う。
すなわち、手術顕微鏡21は、手術対象となる患者の眼を拡大観察するための対物レンズ31や接眼レンズ32、モニタ33などを有している。この例では、医師は接眼レンズ32を覗き、対物レンズ31を介して患者の眼を観察しながら手術を行う。また、図示せぬカメラにより撮影された正面画像がモニタ33に表示されるようになっている。
このとき、必要に応じて接眼レンズ32から観察される患者の眼の光学像にガイド情報が重畳表示されたり、モニタ33に表示される正面画像にガイド情報が重畳表示されたりする。
また、手術顕微鏡21の機能的な構成は、例えば図2に示すような構成とされる。なお、図2において図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図2に示す手術顕微鏡21は、光源61、観察光学系62、提示部63、接眼レンズ32、正面画像取得部64、断層画像取得部65、制御部66、インターフェース部67、およびモニタ33を有している。
光源61は、制御部66の制御に従って照明光を射出し、患者の眼を照明する。また、観察光学系62は、例えば対物レンズ31やハーフミラー71、図示せぬレンズなどの光学素子から構成され、患者の眼から入射した光(観察光)を接眼レンズ32および正面画像取得部64へと導く。
すなわち、患者の眼から入射した観察光は、対物レンズ31や図示せぬレンズ等を介してハーフミラー71に入射する。ハーフミラー71に入射した観察光のうちの略半分は、ハーフミラー71をそのまま透過し、透過型の提示部63を介して接眼レンズ32へと入射する。一方、ハーフミラー71に入射した観察光の残りの半分は、ハーフミラー71で反射して正面画像取得部64へと入射する。
接眼レンズ32は、提示部63を介して観察光学系62から入射した観察光を集光して、患者の眼の光学像を結像させる。これにより、接眼レンズ32を覗いている術者には、患者の眼の光学像が観察される。
正面画像取得部64は、例えばビデオカメラなどからなり、観察光学系62から入射した観察光を受光して光電変換することで、患者の眼を正面から観察した画像、つまり患者の眼を略眼軸方向から撮影した画像である正面画像を撮影する。正面画像取得部64は、制御部66の制御に従って正面画像を撮影し、得られた正面画像を制御部66に供給する。
断層画像取得部65は、例えば光干渉断層計(OCT(Optical Coherence Tomography))やシャインプルークカメラなどからなる。断層画像取得部65は、制御部66の制御に従って患者の眼の断面の画像である断層画像を撮影し、得られた断層画像を制御部66に供給する。ここで、断層画像とは、患者の眼における眼軸方向と略平行な方向の断面の画像である。
なお、断層画像取得部65は、例えば赤外光を用いて干渉原理により断層画像を取得するが、その際の赤外光の光路と、観察光学系62内の観察光の光路の一部とが共通の光路となるようにしてもよい。
制御部66は、手術顕微鏡21全体の動作を制御する。提示部63は、透過型の表示デバイスからなり、接眼レンズ32と観察光学系62との間に配置されている。提示部63は、観察光学系62から入射した観察光を透過させて接眼レンズ32に入射させるとともに、制御部66から供給されたガイド情報を提示(表示)する。これにより、接眼レンズ32を覗いている術者に対して、患者の眼の光学像に重畳されてガイド情報が提示されることになる。
インターフェース部67は、例えばモニタ33に重畳して設けられたタッチパネルや、コントローラ、図示せぬリモートコントローラからの指令を受信したり、外部装置との通信を行ったりする通信部などからなり、術者等の操作に応じた情報などを制御部66に供給する。すなわち、インターフェース部67は、操作に応じた情報や画像を取得して制御部66に供給する。
モニタ33は、制御部66の制御に応じて正面画像を表示する。また、モニタ33において、正面画像にガイド情報が重畳表示されるようにしてもよい。
例えば患者の手術時には、まず制御部66は、インターフェース部67から、ガイドとして提示すべきガイド情報を示す情報や、ガイド情報の提示位置を示す情報などからなる術前計画情報と、術前の正面画像や断層画像である術前画像とを取得する。
そして、制御部66は光源61を制御して照明光を射出させる。これにより、患者の眼が照明されて、術者は接眼レンズ32から患者の眼を観察できるようになる。
また、制御部66は、正面画像取得部64を制御して正面画像を撮影させ、得られた正面画像をモニタ33に供給し、表示させる。さらに、制御部66は、断層画像取得部65を制御して術中の断層画像を術中画像として撮影させるとともに、得られた術中画像と、術前画像としての断層画像とから眼の姿勢を推定により求める。
制御部66は、求められた眼の姿勢と、予め取得した術前計画情報とからガイド情報を生成するとともに、ガイド情報を提示部63やモニタ33に供給して提示(表示)させる。これにより、術者は、手術対象である患者の眼の光学像に重畳表示されたガイド情報を参照しながら、効率よく手術を行うことができる。また、モニタ33では、正面画像に重畳されてガイド情報が表示されることになる。
なお、ここでは断層画像に基づいて眼の姿勢を求める例について説明したが、断層画像と正面画像を用いて眼の姿勢を求めるようにしてもよい。
〈ガイド情報について〉
続いて、ガイド情報の具体例について説明する。
本技術は、例えば患者の眼を手術する場合に適用することができるが、以下では例として患者の白内障手術を行う場合について説明する。
白内障手術では、図3の矢印A11に示すように、まず患者の眼球101の角膜102部分がナイフにより切開され、創口103が作成される。そして、創口103部分から術具が挿入されて眼球101内部にある水晶体104の前方部分、つまり前嚢部分が円形状に切開される。
そして、矢印A12に示すように創口103から水晶体104の前嚢切開部分に術具が挿入されて、核処理と呼ばれる超音波振動による水晶体104の核の乳化(粉砕)と吸引が行われ、さらに皮質も吸引される。その後、矢印A13に示すように水晶体104内部に眼内レンズ105が挿入されて手術終了となる。
このような白内障手術が行われる場合、術前に撮影された正面画像から、図4乃至図6に示す術前計画が立てられる。なお、図4乃至図6において、互いに対応する部分には同一の符号を付してあり、その説明は適宜省略する。
まず術前計画では、例えば図4に示すように正面画像上の患者の眼131における角膜部分、具体的には角膜輪部132の付近およびその内側で、創口を作成する位置が決定される。この例では、瞳孔133の図中、右下の部分が創口作成位置134とされている。
続いて、例えば図5に示すように、正面画像上の患者の眼131における角膜輪部132の内側部分の円形状の領域が前嚢切開位置141として決定される。例えば前嚢切開位置141として示される円の半径は、眼内レンズの大きさなどに基づいて定められる。
さらに、図6に示すように、眼内レンズを配置するときの正面画像上の患者の眼131に対する眼内レンズの方向が眼内レンズ向き151として決定される。この例では、眼内レンズ向き151は直線により表されている。
例えば眼内レンズ向き151は、患者の眼の角膜屈折などの眼の各部の屈折情報や、創口作成位置など、各種の情報に基づいて決定される。
このようにして創口作成位置、前嚢切開位置、および眼内レンズ向きが術前計画で定められると、手術中には、それらの術前計画に従って、例えば図7乃至図9に示すようにガイド情報が提示される。なお、図7乃至図9において、互いに対応する部分には同一の符号を付してあり、その説明は適宜省略する。
白内障手術時には、術者が接眼レンズ32を覗くと、図7に示すように患者の眼の光学像が観察される。そして、その患者の眼の光学像に重畳されて、角膜輪部、つまり角膜と強膜の境界を示す角膜輪部情報G11と、創口作成位置を示す創口位置情報G12とがガイド情報として提示部63に提示(表示)される。術者は、創口位置情報G12が表示されている部分をナイフにより切開し、創口を作成する。
このときガイド情報として提示される角膜輪部情報G11および創口位置情報G12は、図4に示した角膜輪部132および創口作成位置134に対応し、それらの角膜輪部132および創口作成位置134と同じ位置に提示される。すなわち、常に患者の眼の光学像における特定部分にガイド情報が提示されるように、眼の動きに合わせてガイド情報の提示位置が調整される。
さらに手術が進められ、図8に示すように患者の眼の光学像に重畳されて角膜輪部情報G11と、前嚢の切開位置を示す前嚢切開位置情報G13とがガイド情報として提示部63に提示される。術者は、患者の眼における前嚢切開位置情報G13が表示されている部分を切開する。
図8の例においても図7における場合と同様に、ガイド情報として提示される角膜輪部情報G11および前嚢切開位置情報G13は、図5に示した角膜輪部132および前嚢切開位置141に対応する位置に表示される。
前嚢が切開され、核処理と皮脂吸引が行われると、その後、図9に示すように患者の眼の光学像に重畳されて角膜輪部情報G11と、眼内レンズの向きを示す眼内レンズ方向情報G14とがガイド情報として提示部63に提示される。術者は、眼内レンズの方向が眼内レンズ方向情報G14により示される方向となるように、患者の眼の水晶体内部に眼内レンズを挿入する。
図9では、ガイド情報として提示される角膜輪部情報G11および眼内レンズ方向情報G14は、図6に示した角膜輪部132および眼内レンズ向き151に対応する位置に表示される。
以上のように、白内障手術を行う場合には、例えばガイド情報として角膜輪部情報G11、創口位置情報G12、前嚢切開位置情報G13、および眼内レンズ方向情報G14が提示される。これらのガイド情報を提示するにあたっては、術前計画で定められたガイド情報の提示位置と、術中の実際のガイド情報の提示位置とにずれが生じないように、術中の患者の眼の各部位の位置や、眼の姿勢を堅強かつ高精度に推定することが重要である。
上述したように正面画像を用いて眼の部位や姿勢を推定する場合には、状況によっては推定精度が低下してしまったり、そもそも推定を行うことが困難となったりすることがある。そこで、本技術では、患者の眼の断層画像を用いることで、より堅強かつ高精度に患者の眼の各部位と眼の姿勢を推定することができるようにした。
例えば断層画像を光干渉断層計などからなる断層画像取得部65により取得(撮影)するようにすれば、照明等の撮影条件や、血管が見えづらい等の個人的な特徴などによらず、断層画像からより堅強に角膜と強膜の境界位置、隅角、虹彩の端点(内縁)などの部位を認識(検出)することが可能である。また、手術時の出血による眼の各部位の認識への影響も正面画像を用いる場合と比較すると十分に小さい。
このように断層画像を用いて、より堅強かつ高精度に眼の各部位を認識することができれば、その認識結果を用いて患者の眼の姿勢を、より堅強かつ高精度に推定することができる。また、患者の眼の各部位の認識結果と、患者の眼の姿勢の推定結果とを用いて、より高精度にガイド情報を提示させることができる。
例えば断層画像取得部65では、図10に示す断層画像P11が得られる。なお、より詳細には、断層画像P11は、実際に得られる断層画像の一部分のみを示している。
図10に示す断層画像P11は、患者の眼の眼軸と略平行な断面の画像、正面画像と略垂直な断面の画像であり、この断層画像P11では、患者の眼の角膜181、強膜182、および虹彩183が観察されている。
手術顕微鏡21の制御部66では、予め学習された辞書を用いた画像認識や、画像のコントラストを利用した画像認識等によって、断層画像P11から眼の各部位を認識することができる。例えば角膜181と強膜182の境界部分である境界位置B11および境界位置B12や、強膜182と虹彩183により形成される隅角の位置である隅角位置B13および隅角位置B14、虹彩の端点(内縁)である虹彩端点B15および虹彩端点B16などを画像認識により特定することができる。さらに、断層画像からは、後眼部における視神経乳頭の位置や中心窩の位置なども画像認識により求めることができる。
また、制御部66では、断層画像取得部65で得られた各断面位置の断層画像から、例えば図11に示すボリュームデータP21を得ることができる。なお、図11において図10における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
ボリュームデータP21は、互いに断面位置が異なる複数の断層画像から再構築された、断層画像の被写体である患者の眼の3次元形状を示す立体画像である。すなわち、ボリュームデータP21は各断面位置の断層画像の集積結果として得られる画像である。
例えばボリュームデータP21では、患者の眼の角膜181、虹彩183、および瞳孔211が観察されており、ボリュームデータP21から、直接、角膜181の境界である角膜輪部や、虹彩183と瞳孔211の境界部分である瞳孔211の輪郭を求めることができる。
さらに、制御部66では、正面画像取得部64で得られる正面画像の撮影方向と同じ方向、つまり眼軸方向から見た患者の眼の画像を、断層画像取得部65で得られた各断面位置の断層画像を用いた被写体の再構築により求めることもできる。
以下では、断層画像から再構築された、正面画像の撮影方向と同じ方向から見た患者の眼の画像を、再構築正面画像とも称することとする。また、以下では、正面画像の撮影方向を正面方向とも称することとする。
制御部66は、上述した断層画像、ボリュームデータ、および再構築正面画像を適宜用いて、ガイド情報を提示するために必要となる角膜範囲、瞳孔範囲、および眼(眼球)の姿勢を認識する。なお、瞳孔範囲は必ずしも必要ではなく、ガイド情報の提示位置を定めるのに用いられる場合にのみ求められる。
以下、これらの角膜範囲、瞳孔範囲、および眼の姿勢の認識について説明する。
(角膜範囲の認識について)
例えば角膜範囲は、以下の(ア)および(イ)に示すように隅角位置、または角膜と強膜の境界位置を認識することで求めることが可能である。
(ア)隅角位置から角膜範囲を求める
(1)1または数枚の断層画像における隅角位置から角膜範囲を推定する
(2)断層画像のボリュームデータにおける隅角内側を角膜範囲とする
(イ)角膜と強膜の境界位置から角膜範囲を求める
(1)1または数枚の断層画像における角膜と強膜の境界から角膜範囲を推定する
(2)断層画像のボリュームデータにおける角膜と強膜の境界内側を角膜範囲とする
すなわち、(ア)の(1)に示す方法で角膜範囲を求める場合、1または複数の断層画像について、断層画像から画像認識により2つの隅角位置が認識される。例えば図10に示した例では、断層画像P11から隅角位置B13および隅角位置B14が認識される。
そして、そのようにして認識された断層画像上の各隅角位置と、各断層画像の断面位置とに基づいて角膜範囲が推定により求められる。
具体的には、例えば複数の断層画像を用いる場合には、各断層画像で認識された隅角位置の正面方向から見たときの位置が求められ、正面方向から見たときに互いに隣接する隅角位置同士を結んで得られる円(環状の線)の内側の領域が角膜範囲とされる。ガイド情報の生成時には、このようにして求められた角膜範囲の輪郭部分が角膜輪部とされる。
また、(ア)の(2)に示す方法で角膜範囲を求める場合、断層画像のボリュームデータから画像認識により隅角が認識される。この場合、認識結果として隅角の3次元形状が得られるので、その認識結果として得られた環状(円状)の隅角部分の内側の領域が角膜範囲とされる。
(イ)の(1)に示す方法で角膜範囲を求める場合、1または複数の断層画像について、各断層画像から画像認識により角膜と強膜の境界位置が2つ認識される。例えば図10に示した例では、断層画像P11から境界位置B11および境界位置B12が認識される。
そして、そのようにして認識された断層画像上の各境界位置と、各断層画像の断面位置とに基づいて、(ア)の(1)の方法と同様にして角膜範囲が推定により求められる。すなわち、例えば正面方向から見たときに互いに隣接する、角膜と強膜の各境界位置同士を結んで得られる円の内側の領域が角膜範囲とされる。
さらに、(イ)の(2)に示す方法で角膜範囲を求める場合、断層画像のボリュームデータから画像認識により角膜と強膜の境界位置が認識される。この場合、認識結果として角膜と強膜の3次元形状が得られる。そのため、認識結果として得られた角膜と強膜の境界は環状(円形状)となるので、その環状の境界の内側の領域が角膜範囲とされる。
(瞳孔範囲の認識について)
また、例えば瞳孔範囲は、以下の(ウ)の(1)または(2)に示すように虹彩の端点の位置に基づいて求めることが可能である。
(ウ)虹彩の端点位置から瞳孔範囲を求める
(1)1または数枚の断層画像における虹彩の端点位置から瞳孔範囲を推定する
(2)断層画像のボリュームデータにおける虹彩端点の内側を瞳孔範囲とする
すなわち、(ウ)の(1)に示す方法で瞳孔範囲を求める場合、1または複数の断層画像について、断層画像から画像認識により虹彩の2つの端点位置が認識される。例えば図10に示した例では、断層画像P11から虹彩端点B15および虹彩端点B16が認識される。
そして、そのようにして認識された断層画像上の各虹彩端点と、各断層画像の断面位置とに基づいて瞳孔範囲が推定により求められる。
具体的には、例えば複数の断層画像を用いる場合には、各断層画像で認識された虹彩端点位置の正面方向から見たときの位置が求められ、正面方向から見たときに互いに隣接する虹彩端点位置同士を結んで得られる円の内側の領域が瞳孔範囲とされる。ガイド情報の生成時には、このようにして求められた瞳孔範囲が適宜利用されてガイド情報の提示位置が定められる。
また、(ウ)の(2)に示す方法で瞳孔範囲を求める場合、断層画像のボリュームデータから画像認識により虹彩が認識される。この場合、認識結果として虹彩の3次元形状が得られるので、その認識結果として得られた虹彩の内側の端点、つまり環状(円状)である、虹彩の内側の端部分さらに内側の領域が瞳孔範囲とされる。
(眼の姿勢の認識について)
さらに、例えば眼(眼球)の姿勢としては、正面方向から見た眼の回旋角度、つまり眼軸を回転軸とした眼球の回転角度と、3次元的な眼球の姿勢とが考えられる。
ここで、眼の回旋角度は、正面方向から眼を見た場合における、術前画像を基準としたときの術中画像における眼球の回転角度、つまり眼球位置の眼軸回りの変化量である。
例えば、眼の姿勢として回旋角度が求められる場合、眼の回旋角度は、以下の(エ)の(1)乃至(3)に示すように、視神経乳頭と中心窩の位置関係、または血管分布から求めることが可能である。
(エ)眼球の回旋角度を眼の姿勢として求める
(1)断層画像のボリュームデータにおける視神経乳頭と中心窩の位置関係から求める
(2)数枚の断層画像における視神経乳頭と中心窩のくぼみの位置関係から求める
(3)数枚の断層画像または断層画像のボリュームデータにおける血管分布から求める
すなわち、(エ)の(1)に示す方法では、断層画像のボリュームデータから視神経乳頭部分のくぼみと、中心窩部分のくぼみとが画像認識により求められ、それらの視神経乳頭部分のくぼみと、中心窩部分のくぼみとを結ぶ線分が、回旋角検出線として求められる。そして、正面方向から見た、術前における回旋角検出線と術中における回旋角検出線とのなす角度が、眼球の回旋角度として求められる。
(エ)の(2)に示す方法では、複数の各断層画像から画像認識により視神経乳頭部分のくぼみと、中心窩部分のくぼみとが求められる。そして、その認識結果、例えばくぼみの深さと、各断層画像の断面位置とから、正面方向から見た視神経乳頭と中心窩の位置が推定され、それらの視神経乳頭と中心窩の位置関係から回旋角検出線が求められて、眼球の回旋角度が求められる。
また、(エ)の(3)に示す方法では、数枚の断層画像、または断層画像のボリュームデータから血管分布が画像認識により求められ、術前と術中での血管分布を比較(マッチング)することにより、眼球の回旋角度が求められる。
さらに、例えば眼の姿勢として、眼球の3次元的な姿勢、つまり3次元空間上の姿勢が求められる場合、以下の(オ)の(1)または(2)に示すように眼の各部位の位置の変化を求めることで、眼の姿勢を求めることができる。
(オ)眼球の3次元的な姿勢を眼の姿勢として求める
(1)上記の(ア)乃至(エ)の一部または全部を組み合わせて求める
(2)上記の(ア)乃至(エ)の一部または全部の組み合わせと、眼の部位の3次元形状とを組み合わせて求める
(オ)の(1)に示す方法では、例えば(ア)または(イ)に示した方法により角膜範囲が認識され、(ウ)に示した方法により瞳孔範囲が認識され、(エ)に示した方法により視神経乳頭と中心窩の位置関係(回旋角検出線)が認識される。
そして、それらの角膜範囲、瞳孔範囲、および回旋角検出線の術前と術中での位置関係から、3次元空間における眼球の位置関係が眼球の3次元的な姿勢として求められる。
ここで、眼球の3次元的な姿勢は、例えば3次元空間における眼の回転移動量に基づいて求めることができる。具体的には、例えば術前での眼の所定部位の位置、つまり3次元座標系における座標(x,y,z)が、術中に座標(x’,y’,z’)へと移動したときの移動量(回転量)を示す行列により眼球の3次元的な姿勢を表現することができる。すなわち、次式(1)に示すように、座標(x,y,z)を座標(x’,y’,z’)へと変換する変換行列により表現することができる。
Figure 2016214781
式(1)では、変換行列の各要素aij(但しi=1,2,3,j=1,2,3)は、例えば変換行列の各行のベクトルのノルムが1となるように定められたり、それぞれの行のベクトルが互いに直交するように定められたりするなどとすればよい。
また、式(1)に示す変換行列を眼球の3次元的な姿勢を示す情報とする場合には、眼球の平行移動は無視され、眼球の向き、つまり回転移動のみが考慮されている。
さらに、(オ)の(2)に示す方法では、上述した(オ)の(1)に示す方法に加えて、断層画像のボリュームデータから得られる強膜や網膜などの3次元形状も加味されて変換行列が求められ、眼球の3次元的な姿勢とされる。
なお、以上において説明した(ア)乃至(オ)に示す方法により断層画像やボリュームデータから角膜範囲、瞳孔範囲、および眼の姿勢を求める対象となるのは、手術中に撮影された断層画像に限らず、手術前に撮影された断層画像でもよい。この場合、例えば手術前に撮影された断層画像に基づいて、手術前の眼の各部位や基準となる眼の姿勢が求められ、術前計画が立てられる。
以上のようにして角膜範囲、瞳孔範囲、および眼の姿勢が求まると、それらの角膜範囲、瞳孔範囲、および眼の姿勢から、術中の眼の光学像や正面画像に重畳させて、ガイド情報を提示することができるようになる。
このとき、ガイド情報を提示するには、角膜範囲や瞳孔範囲などの眼の部位と、ガイドとして提示すべきガイド情報との位置関係を予め求めておく必要がある。
例えばガイド情報として眼内レンズ方向情報が提示される場合、術前計画時に図12に示すように、眼内レンズ方向情報により示される眼内レンズの方向と、回旋角検出線とのなす角度θが予め求められる。
すなわち、図12の矢印A41に示すように、術前に正面画像取得部64により撮影された正面画像における患者の眼241に対する眼内レンズの方向が眼内レンズ向き242として決定されたとする。この例では、術中には患者の眼241における角膜輪部243に対応する角膜輪部情報と、眼内レンズ向き242に対応する眼内レンズ方向情報がガイド情報として提示される。
この場合、矢印A42に示すように、術前に断層画像取得部65により取得された断層画像P31を含むいくつかの断層画像や、断層画像のボリュームデータに基づいて、上述した(エ)の(1)や(エ)の(2)に示した方法と同様にして、視神経乳頭と中心窩の位置が画像認識により求められる。
この例では、断層画像P31における矢印B31に示す部分のくぼみが視神経乳頭の部分であると認識され、矢印B32に示す部分のくぼみが中心窩の部分であると認識される。
このような認識結果から、例えば断層画像P31等から再構築された再構築正面画像P32における視神経乳頭と中心窩の位置関係が求まる。この例では、再構築正面画像P32における矢印B33により示される部分が視神経乳頭の部分を示しており、矢印B34に示す部分が中心窩の部分を示している。そして、これらの視神経乳頭と中心窩を結ぶ線分(直線)が、回旋角検出線244として求められる。
このようにして正面方向における回旋角検出線244が求まると、矢印A41に示した正面画像における回旋角検出線の方向も求まる。矢印A41に示す図では、直線245が回旋角検出線の方向を示している。
術前計画では、例えば直線245により示される回旋角検出線の方向と、眼内レンズ向き242により示される方向とのなす角度が角度θとして求められ、術前計画を示す術前計画情報の1つとされる。
また、手術時には図13の矢印A51に示すように、術中に断層画像取得部65により取得された断層画像P41を含むいくつかの断層画像や、断層画像のボリュームデータに基づいて、上述した(エ)の(1)や(エ)の(2)に示した方法と同様にして、眼の姿勢として回旋角度が求められる。
すなわち、まず画像認識により視神経乳頭と中心窩の位置が求められる。この例では、断層画像P41における矢印B41に示す部分のくぼみが視神経乳頭の部分であると認識され、矢印B42に示す部分のくぼみが中心窩の部分であると認識される。
そして、視神経乳頭と中心窩の認識結果から、例えば断層画像P41等から再構築された再構築正面画像P42における視神経乳頭と中心窩の位置関係が求まる。この例では、再構築正面画像P42における矢印B43により示される部分が視神経乳頭の部分を示しており、矢印B44に示す部分が中心窩の部分を示している。
なお、上記の説明では、断層画像P31や断層画像P41が丁度視神経乳頭や中心窩を通る形で取得される例を用いている。しかし、視神経乳頭と中心窩の双方を含む断層画像が取得できない場合でも、複数の断層画像から構成されるボリュームデータにおけるくぼみの位置に基づき、または、数枚の断層画像の各々におけるくぼみの位置とくぼみの程度に基づき、視神経乳頭と中心窩の位置を推定することができる。
このようにして正面方向から見た視神経乳頭と中心窩の位置関係が求まると、これらの視神経乳頭と中心窩を結ぶ線分(直線)が、回旋角検出線271として求まり、この回旋角検出線271と、術前の回旋角検出線とから眼球の回旋角度が求められる。
すると、眼球の回旋角度からガイド情報としての眼内レンズ方向情報を提示させる角度が分かるので、矢印A52に示すように、患者の眼の光学像に重畳されて、角膜輪部情報G31および眼内レンズ方向情報G32がガイド情報として提示される。
ここで、角膜輪部情報G31は、術中に画像認識により求められた角膜範囲により特定される。また、眼内レンズ方向情報G32の提示方向は、眼球の回旋角度から求まる。すなわち、眼内レンズ方向情報が、術前計画により定められている、角度θにより定まる眼内レンズ方向情報の提示方向に対して、求められた回旋角度の分だけ回転された状態で提示される。換言すれば、眼内レンズ方向情報G32は、回旋角検出線271に対応する方向を示す直線272とのなす角度が、予め求められている角度θとなるように提示される。
なお、ここでは、眼球の回旋角度に応じて眼内レンズ方向情報の提示方向を定める例について説明したが、眼の姿勢としての眼球の3次元的な姿勢と、術前計画とに基づいて眼内レンズ方向情報を表示するようにしてもよい。この場合、眼球の3次元的な姿勢に応じて、適宜、眼内レンズ方向情報に対して線形変換が行われて提示される。これにより、眼内レンズ方向情報が適切な方向で提示されるだけでなく、眼球の3次元的な姿勢に応じて、眼内レンズ方向情報が適切に変形される。
また、例えばガイド情報として提示される創口位置情報については、角膜輪部に対する、眼の中心、すなわち角膜輪部の中心からの位置と大きさなどを術前計画情報として求めておけば、その術前計画情報と、術中の眼の姿勢とから正しい位置に創口位置情報を表示させることができる。
さらに、ガイド情報として提示される前嚢切開位置情報については、角膜輪部に対する前嚢切開位置の大きさを術前計画情報として求めておけば、その術前計画情報と、術中の角膜範囲の認識結果とに基づいて、適切な位置に前嚢切開位置情報を提示することができる。
〈手術システムの構成例〉
次に、以上において説明した手術システム11における、患者の眼の姿勢を推定するとともにガイド情報を生成して提示する部分のより詳細な構成について説明する。
図14は、そのような機能を実現する手術システム11の構成例を示している。なお、図14において図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図14に示す例では、手術システム11は、画像情報取得部301、画像処理装置302、およびガイド情報提示部303を有している。
画像情報取得部301は、断層画像や正面画像を取得して画像処理装置302に供給する。なお、画像情報取得部301では、少なくとも断層画像が取得できればよく、正面画像は必要に応じて取得できればよい。
画像処理装置302は、画像情報取得部301から供給された断層画像に基づいて、患者の眼の姿勢を求めるとともにガイド情報を生成してガイド情報提示部303に供給する。このとき、画像処理装置302は、正面画像にガイド情報を重畳させてガイド情報提示部303に供給するようにしてもよい。
ガイド情報提示部303は、画像処理装置302から供給されたガイド情報を提示する。ここで、ガイド情報提示部303は、例えば図2に示した提示部63やモニタ33などからなる。
また、画像処理装置302は、例えば図2に示した制御部66およびインターフェース部67により実現される。
画像処理装置302は、画像認識部311、制御部312、インターフェース部67、およびガイド情報生成部313を有している。ここで、例えば画像認識部311、制御部312、およびガイド情報生成部313は、図2に示した制御部66がプログラムを実行することにより実現される。
画像認識部311は、画像情報取得部301から供給された断層画像や正面画像に対して画像認識を行って、隅角位置、角膜と強膜の境界位置、虹彩の端点位置、視神経乳頭部、中心窩などの眼の各部位を認識し、その認識結果を制御部312に供給する。
インターフェース部67は、術前の断層画像や正面画像、術前計画情報、術者等の入力指示などを取得して制御部312に供給する。
制御部312は、画像処理装置302の各部を制御する。例えば制御部312は、画像認識部311から供給された眼の各部位の認識結果と、インターフェース部67から供給された術前の断層画像および術前計画情報とに基づいて、角膜範囲などの各部位の範囲や眼の姿勢を認識し、ガイド情報生成部313にガイド情報の生成を指示する。
ガイド情報生成部313は、必要に応じて画像情報取得部301から供給された正面画像を用いて、制御部312の指示に従ってガイド情報を生成し、ガイド情報提示部303に供給する。上述したようにガイド情報は、患者の眼の光学像に重畳表示されるように、ガイドのみが提示される情報とされてもよいし、正面画像に重畳表示される画像情報とされてもよい。ガイド情報が正面画像に重畳表示される場合には、ガイド情報生成部313は、ガイド情報が重畳された正面画像を生成し、ガイド情報提示部303に出力する。
また、画像情報取得部301が正面画像と断層画像を取得する場合、画像情報取得部301は、例えば図15に示す構成とされる。なお、図15において図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図15に示す画像情報取得部301は、正面画像取得部64および断層画像取得部65から構成される。この例では、正面画像取得部64が正面画像を撮影して画像認識部311およびガイド情報生成部313に供給するとともに、断層画像取得部65が断層画像を撮影して画像認識部311に供給する。
また、画像情報取得部301は、図16に示す構成とされるようにしてもよい。なお、図16において図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図16に示す画像情報取得部301は、断層画像取得部65から構成される。この例では、断層画像取得部65が断層画像を撮影して画像認識部311に供給し、画像情報取得部301では正面画像の撮影は行われない。
〈ガイド情報提示処理の説明〉
続いて、図14に示した手術システム11の動作について説明する。なお、以下では、ガイド情報提示部303としての提示部63にガイド情報が提示(表示)される場合を例として説明する。
白内障手術が行われる場合、インターフェース部67は、予め術前の断層画像である術前画像と、術前計画情報とを取得して制御部312に供給する。そして、手術が開始されると、手術システム11は創口作成モード、前嚢切開モード、および眼内レンズ挿入モードの各モードでガイド情報提示処理を行って、ガイド情報を提示する。
ここで、創口作成モードとは、術者が創口を作成するときのガイドとして創口位置情報を提示するモードであり、前嚢切開モードとは、術者が前嚢を切開するときのガイドとして、前嚢切開位置情報を提示するモードである。また、眼内レンズ挿入モードは、術者が水晶体内に眼内レンズを挿入するときのガイドとして眼内レンズ方向情報を提示するモードである。
手術システム11は、適宜、モードの切り替えを行いながら、各モードでガイド情報提示処理を行う。具体的には、まず創口作成モードでガイド情報提示処理が行われた後、前嚢切開モードでガイド情報提示処理が行われ、さらに眼内レンズ挿入モードでガイド情報提示処理が行われる。例えばモードの切り替えは、術者等がインターフェース部67を操作することにより行われてもよいし、正面画像等に基づいて手術システム11により行われるようにしてもよい。
ここで、図17のフローチャートを参照して、創口作成モードである場合を例として、手術システム11により行われるガイド情報提示処理について説明する。
ステップS11において、画像情報取得部301は、画像情報を取得する。すなわち、画像情報取得部301の断層画像取得部65は、術中の断層画像である術中画像を各断面位置において撮影し、画像認識部311に供給する。
ステップS12において、画像認識部311は、断層画像取得部65から供給された術中画像、または術中画像としての断層画像からなるボリュームデータに対して画像認識を行って、眼の各部位の位置を認識し、その認識結果を制御部312に供給する。
ステップS12では、例えば術中画像としての断層画像またはボリュームデータにおける隅角位置や、角膜と強膜の境界位置、虹彩の端点位置、視神経乳頭の位置、中心窩の位置などの各部位の位置が認識される。
ステップS13において、制御部312は、画像認識部311から供給された認識結果と、インターフェース部67から供給された術前画像とに基づいて、患者の眼の姿勢を求める。例えば制御部312は、上述した(ア)乃至(ウ)に示した方法により、適宜、眼の角膜範囲や瞳孔範囲を求め、さらに上述した(エ)や(オ)に示した方法により、眼の姿勢を求める。
ここで、インターフェース部67から供給される術前画像では、術前画像として手術前に撮影された断層画像に対する画像認識等により、事前に角膜範囲や瞳孔範囲、視神経乳頭、中心窩、回旋角検出線、強膜、網膜などの位置や血管分布が求められた状態となっている。換言すれば、基準となる手術前の眼の部位や姿勢が求められた状態となっている。
ステップS14において、制御部312は、現在のモードに従って、提示するガイド情報を決定する。例えば、この例では創口作成モードであるので、角膜輪部情報および創口位置情報が提示するガイド情報として決定される。
提示するガイド情報を決定すると、制御部312は、ガイド情報の生成に必要となる各種の情報をガイド情報生成部313に供給し、ガイド情報の生成を指示する。
例えば、この例では、制御部312は画像認識部311から供給された画像認識の結果から求まる角膜範囲を示す情報をガイド情報生成部313に供給し、ガイド情報としての角膜輪部情報の生成を指示する。
また、制御部312は、ステップS13の処理で求められた眼の姿勢と、角膜範囲等の眼の各部位の位置や範囲と、インターフェース部67から供給された術前計画情報としての創口位置情報の提示位置を示す情報とに基づいて、現時刻において創口位置情報を提示すべき位置を求める。このとき、制御部312は、眼球の姿勢に応じて線形変換を行い、創口位置情報の形状を変形させるようにしてもよい。
制御部312は、このようにして求められた、創口位置情報を提示すべき位置を示す情報をガイド情報生成部313に供給し、ガイド情報としての創口位置情報の生成を指示する。
ステップS15において、ガイド情報生成部313は、制御部312の指示に従ってガイド情報を生成し、ガイド情報提示部303に供給する。この例では、ガイド情報生成部313は、制御部312から供給された情報に基づいて、角膜輪部情報および創口位置情報を生成する。
ステップS16において、ガイド情報提示部303の提示部63は、ガイド情報生成部313から供給されたガイド情報を提示する。これにより、例えば図7に示した角膜輪部情報G11と創口位置情報G12とが、患者の眼の光学像に重畳されて提示される。
なお、モニタ33において、正面画像に角膜輪部情報と創口位置情報とが重畳表示されるようにしてもよい。そのような場合には、ガイド情報生成部313は、画像情報取得部301の正面画像取得部64から供給された正面画像に、生成した角膜輪部情報と創口位置情報を重畳させて、ガイド情報提示部303としてのモニタ33に供給する。
ステップS17において、制御部312は、処理を終了するか否かを判定する。例えば現時点のモードから次のモードへの切り替えが指示されたときなど、ガイド情報の提示の終了が指示された場合に処理を終了すると判定される。
ステップS17においてまだ処理を終了しないと判定された場合、処理はステップS11に戻り、上述した処理が繰り返し行われる。
これに対して、ステップS17において処理を終了すると判定された場合、ガイド情報提示処理は終了する。
以上のようにして手術システム11は、患者の眼の断層画像に基づいて眼の各部位を認識し、その認識結果に基づいて眼の姿勢を求める。そして、手術システム11は、求めた眼の姿勢に基づいてガイド情報を生成し、提示する。
このように断層画像に基づいて眼の各部位を認識し、眼の姿勢を求めることで、より堅強かつ高精度に眼の姿勢を求めることができる。その結果、より高精度にガイド情報を提示することができる。
なお、ここでは創口作成モードである場合におけるガイド情報提示処理について詳細に説明したが、前嚢切開モードである場合、および眼内レンズ挿入モードである場合であっても図17を参照して説明したガイド情報提示処理と同様の処理が行われる。
例えば前嚢切開モードである場合、ステップS14では、創口作成モードである場合と同様に、制御部312は角膜範囲を示す情報をガイド情報生成部313に供給し、ガイド情報としての角膜輪部情報の生成を指示する。
また、制御部312は、現時刻における角膜範囲から定める角膜輪部と、インターフェース部67から供給された術前計画情報としての角膜輪部に対する前嚢切開位置の大きさを示す情報とに基づいて、現時刻において前嚢切開位置情報を提示すべき位置を求める。このとき、制御部312は、眼球の姿勢に応じて線形変換を行い、前嚢切開位置情報の形状を変形させるようにしてもよい。
制御部312は、このようにして求められた、前嚢切開位置情報を提示すべき位置を示す情報をガイド情報生成部313に供給し、ガイド情報としての前嚢切開位置情報の生成を指示する。そして、ステップS15において、ガイド情報生成部313は、制御部312の指示に従って角膜輪部情報と前嚢切開位置情報とをガイド情報として生成する。
また、例えば眼内レンズ挿入モードである場合、ステップS14では創口作成モードである場合と同様に、制御部312は角膜範囲を示す情報をガイド情報生成部313に供給し、ガイド情報としての角膜輪部情報の生成を指示する。
さらに、制御部312は、ステップS13の処理で眼の姿勢として求められた回旋角度と、インターフェース部67から供給された術前計画情報としての角度θとに基づいて、現時刻において眼内レンズ方向情報を提示すべき方向を求める。このとき、制御部312は、眼球の姿勢に応じて線形変換を行い、眼内レンズ方向情報の形状を変形させるようにしてもよい。
制御部312は、このようにして求められた、眼内レンズ方向情報を提示すべき方向を示す情報をガイド情報生成部313に供給し、ガイド情報としての眼内レンズ方向情報の生成を指示する。そして、ステップS15において、ガイド情報生成部313は、制御部312の指示に従って角膜輪部情報と眼内レンズ方向情報とをガイド情報として生成する。
〈第2の実施の形態〉
〈画像認識について〉
ところで、手術中には例えば図18に示すように、術者が術具を用いて手術を行うため、図19に示すようにその術具の影となる部分では、断層情報を取得することができない。なお、図19において図18における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。また、図19は、図18に示す患者の眼における点線PL11の部分の断面図を示している。
図18に示す例では、術者が患者の眼の角膜341の部分から水晶体内部に術具342を挿入して手術を行っている。従って、このような状態で断層画像を撮影した場合、術具342の図中、奥行き側にある部分は影になってしまう。
すなわち、図19に示すように術具342の図中、下側の部分が影になり、断層画像における、その部分に対応する領域が暗くなったり、不鮮明になったりして、有用な情報が得られなくなってしまう。換言すれば、術具342の影となる部分では、患者の眼の各部位の認識を行うことが困難である。
そこで、断層画像における術具の影となる部分を画像認識に用いないようにしてもよい。そのような場合、例えば画像情報取得部301の構成は、図15に示した構成とされ、正面画像取得部64により撮影された正面画像が画像認識部311に供給される。すなわち、図17を参照して説明したステップS11の処理では、正面画像も取得される。
そして、ステップS12では、まず画像認識部311により、正面画像に対する画像認識が行われる。正面画像に対する画像認識では、予め登録された辞書等を用いた画像認識などにより、正面画像から患者の眼以外の領域、例えば術具の領域が認識される。そして、その認識結果に基づいて、断層画像における術具の影となる領域が特定される。
具体的には、正面画像における術具の領域の認識結果から断層画像における術具の領域が特定可能であるので、断層画像における術具の領域よりも正面方向の奥行き側、つまり角膜から見て中心窩側の領域が、術具の影となる領域として特定される。なお、断層画像における術具の影となる領域を特定する処理は、画像認識部311により行われてもよいし、制御部312により行われてもよい。
さらに、画像認識部311は、断層画像における術具の影となる領域を除外して、断層画像や、その断層画像から得られるボリュームデータに基づき、画像認識により眼の各部位の位置を認識する。
なお、上記では断層画像における術具の影となる領域を、正面画像における術具の領域の認識結果から推定しているが、断層画像において術具に関して得られる情報、例えば術具による強反射位置の情報などを用いて断層画像のみから推定するようにする方法を用いてもよい。
このように患者の眼の各部位の位置を認識する際に、断層画像における有用な領域のみを用いることで、さらに堅強かつ高精度に眼の姿勢を求めることができる。
〈第3の実施の形態〉
〈断層画像の取得について〉
また、正面画像を用いれば、画像認識によって大まかに角膜や瞳孔の位置を特定することができる。そこで、画像情報取得部301の構成が図15に示した構成とされる場合には、正面画像に基づいて、断層画像を取得する断面位置を決定するようにしてもよい。
例えば中心窩や視神経乳頭は、眼を正面方向から見たときに瞳孔の中心付近、つまり眼軸付近に位置している。そのため、断層画像やボリュームデータから視神経乳頭や中心窩の位置を認識し、その認識結果を用いて眼の姿勢を求めるときには、正面画像から適切な断面位置を特定し、その特定結果に応じて断層画像を取得するようにすれば、より効率よく眼の姿勢を求めることができる。
例えば術中において、図20に示すように正面画像P61が画像情報取得部301を構成する正面画像取得部64により取得されたとする。
この場合、正面画像P61からは角膜371や瞳孔372の範囲を画像認識により推定することができる。また、角膜371や瞳孔372の中心近傍を通る直線PL31を含む断面位置で断層画像を取得すれば、その断層画像には中心窩や視神経乳頭が含まれている可能性が高い。一方で、角膜371や瞳孔372の端近傍を通る直線PL32を含む断面位置で断層画像を取得しても、その断層画像には中心窩や視神経乳頭が含まれている可能性が低い。
そこで、正面画像P61から角膜371や瞳孔372の範囲を推定し、その推定結果を用いて直線PL31を含む断面位置など、1または複数の適切な断面位置で断層画像を取得し、直線PL32を含む断面位置では断層画像を取得しないようにするなどとすればよい。
このような場合、図17を参照して説明したガイド情報提示処理のステップS11では、まず画像情報取得部301を構成する正面画像取得部64により、術中の正面画像が取得され、画像認識部311に供給される。
そして、画像認識部311は、正面画像取得部64から供給された正面画像に対して画像認識を行って、角膜範囲や瞳孔範囲など、眼の各部位を認識し、その認識結果を制御部312に供給する。
さらに、制御部312は、画像認識部311から供給された、正面画像における角膜範囲や瞳孔範囲などの各部位の認識結果に基づいて、断層画像を取得する断面位置を決定し、その決定に応じて画像情報取得部301の断層画像取得部65を制御する。この場合、例えば図20に示した直線PL31を含む断面位置や、その断面位置近傍のいくつかの断面位置が、断層画像を取得すべき断面位置として決定される。このようにして制御部312が断層画像取得部65を制御するときには、制御部312は取得制御部として機能する。
断層画像取得部65は、制御部312の制御に従って、制御部312により指定された1または複数の断面位置で断層画像を取得して、画像認識部311に供給する。
このように、正面画像から得られる情報に基づいて、適切な断面位置を決定すれば、より効率よく患者の眼の姿勢を求めることができるようになる。
〈第4の実施の形態〉
〈正面画像を用いた画像認識の精度向上について〉
さらに、画像情報取得部301の構成が図15に示した構成とされる場合、術中に撮影された正面画像から、画像認識により大まかな角膜や瞳孔の位置を特定することができる。そこで、その特定結果用いて断層画像からの眼の各部位の検出範囲を定め、その検出範囲を対象とした画像認識により、断層画像から眼の各部位の位置を検出(認識)するようにしてもよい。
例えば図21に示すように、術中に正面画像P61および断層画像P71が撮影されたとする。なお、図21において図20における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図21では、正面画像P61は、術中に正面画像取得部64により取得された正面画像を示しており、断層画像P71は、正面画像P61と同時刻またはほぼ同時刻に断層画像取得部65により撮影された断層画像を示している。
例えば、断層画像P71から隅角位置を認識する画像認識が画像認識部311により行われる場合について考える。この場合、画像認識部311は、まず正面画像P61に対して画像認識を行い、正面画像P61から角膜371を認識する。
そして画像認識部311は、断層画像P71における、角膜371の端部分に対応する位置を含む所定幅の領域である検出範囲ST11および検出範囲ST12を、隅角位置の認識を行う対象となる領域の範囲として決定する。これは、隅角は角膜の端部分近傍に位置するからである。
画像認識部311は、このようにして決定した検出範囲ST11および検出範囲ST12の領域のみを処理対象として、断層画像P71から画像認識により隅角位置を認識する。そして、例えば制御部312では、断層画像P71等からの隅角位置の認識結果に基づいて、角膜範囲が認識される。
このように、正面画像から得られる情報に基づいて、断層画像に対する画像認識時の検出範囲が決定される場合、図17を参照して説明したガイド情報提示処理では、ステップS11において、画像情報として正面画像と断層画像が取得される。
そして、ステップS12において、画像認識部311は、正面画像取得部64から供給された正面画像に対して画像認識を行い、眼の各部位を認識するとともに、その認識結果に基づいて断層画像について認識対象となっている眼の部位ごとに、検出範囲を決定する。
さらに、画像認識部311は、断層画像取得部65から供給された断層画像に対して、決定された検出範囲の領域のみを処理対象として画像認識を行い、断層画像上の眼の各部位の位置を認識する。
このとき、断層画像上の眼の部位を認識するための検出範囲を決定するために、正面画像に対して行われる画像認識では、その画像認識で認識対象となる眼の部位は、断層画像での認識対象となる眼の部位と同じであってもよいし、異なる部位であってもよい。
このようにして正面画像から得られる情報から検出範囲を決定し、その検出範囲を対象として断層画像上の眼の各部位の位置を認識することで、断層画像での眼の各部位の位置の認識精度を向上させることができる。
なお、ここでは、断層画像上の眼の各部位の位置を認識する例について説明したが、正面画像に基づいて、断層画像から得られるボリュームデータについて検出範囲を決定し、ボリュームデータの検出範囲から眼の各部位の位置が認識されるようにしてもよい。
〈第5の実施の形態〉
〈正面画像を用いた画像認識の精度向上について〉
ところで、正面画像に被写体として含まれている眼の血管や虹彩は、正面画像中の血管や虹彩の位置を正確に認識することができれば、術中と術前の眼の位置関係、つまり眼の姿勢を精度よく把握するのに有用な情報である。
そこで、断層画像と正面画像の両方を用いて、より高精度に眼の姿勢を求めるようにしてもよい。具体的には、例えば画像情報取得部301の構成が図15に示した構成とされる場合、断層画像に基づいて、粗い精度で眼の姿勢を把握しておき、さらに正面画像に基づいて、最終的な、より精度の高い眼の姿勢を求めるようにしてもよい。
例えば眼の姿勢として、回旋角度が求められるとする。そのような場合、まず術前に得られた断層画像と、術中に得られた断層画像とから、眼の姿勢を示す回旋角度が求められる。その結果、例えば図22の矢印A71に示すように回旋角度θ1が得られたとする。
図22に示す例では、粗検出として求められた回旋角度θ1は、術前と術中の断層画像に基づいて求められた、術前の断層画像から再構築された再構築正面画像P91における回旋角検出線に対する、術中の断層画像から再構築された再構築正面画像P92における回旋角検出線の回転角度を示している。
このようにして回旋角度θ1が求められると、その回旋角度θ1に基づいて、矢印A72に示すように正面画像を用いた回旋角度の検出範囲ST21が定められる。すなわち、正面画像を用いた回旋角度の検出範囲が、断層画像に基づいて算出された眼の姿勢から定まる、妥当であると思われる眼の姿勢の範囲内に制限される。具体的には、例えば回旋角度θ1を中心とする所定の角度範囲が検出範囲ST21として定められる。
そして、矢印A73に示すように、回旋角度θ1により定められた検出範囲ST21内で、術前に得られた正面画像P93と、術中に得られた正面画像P94とから最終的な回旋角度θ2が求められる。ここで、回旋角度θ2は、必ず回旋角度θ1により定められた検出範囲ST21内の角度となる。
正面画像に基づいて回旋角度θ2を求めるにあたっては、正面画像から画像認識により認識された血管や虹彩等の眼の各部位が用いられる。すなわち、それらの眼の各部位の位置関係がマッチングにより求められて、その結果得られた位置関係から回旋角度θ2が求められる。このとき、検出範囲ST21内で正面画像P93が回転され、正面画像P93上の眼の各部位と、術中に得られた正面画像P94上の眼の各部位とが重なるときの正面画像P93の回転角度が回旋角度θ2とされる。
このように、断層画像に基づいて眼の姿勢としての回旋角度を求め、さらにその回旋角度と正面画像とから最終的な回旋角度を求めることで、より高精度に眼の姿勢としての回旋角度を求めることができる。その結果、さらに堅強かつ高精度にガイド情報を提示することができるようになる。
なお、断層画像と正面画像とに基づいて眼の姿勢が求められる場合、手術システム11では、図17を参照して説明したガイド情報提示処理が開始される前に、予めインターフェース部67により術前の断層画像および正面画像と、術前計画情報とが取得されて制御部312に供給される。
そして、ステップS11では、画像情報取得部301の正面画像取得部64および断層画像取得部65により、術中の正面画像および断層画像が取得されて画像認識部311に供給される。
また、ステップS12では、画像認識部311は、正面画像取得部64から供給された、術中の正面画像に対して画像認識を行って、血管や虹彩等の各部位を認識するとともに、断層画像取得部65から供給された断層画像に対して画像認識を行って、眼の各部位の位置を認識する。そして、画像認識部311は、正面画像からの各部位の認識結果と、断層画像からの各部位の認識結果とを制御部312に供給する。
さらにステップS13では、制御部312は、画像認識部311から供給された、断層画像からの各部位の認識結果と、インターフェース部67から供給された術前の断層画像とに基づいて、患者の眼の姿勢として回旋角度を求める。また、制御部312は、求めた回旋角度から、正面画像を用いた回旋角度の検出時の検出範囲を決定する。
制御部312は、決定した検出範囲内で、画像認識部311から供給された正面画像からの各部位の認識結果と、インターフェース部67から供給された術前の正面画像とに基づいて、眼の回旋角度を最終的な患者の眼の姿勢として求める。
なお、ここでは眼の姿勢として回旋角度を求める例について説明したが、眼の姿勢として眼の3次元的な姿勢を求める場合においても、以上において説明した処理と同様の処理を行って、より高精度に眼の姿勢を求めることが可能である。
ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図23は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、及びドライブ510が接続されている。
入力部506は、キーボード、マウス、マイクロフォン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体511を駆動する。
以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブル記録媒体511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、本技術は、以下の構成とすることも可能である。
(1)
手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像を取得する断層画像取得部と、
前記断層画像に基づいて、前記断層画像における前記眼の所定部位を認識する画像認識部と、
前記所定部位の認識結果に基づいて、前記眼の姿勢を算出する姿勢算出部と
を備える手術システム。
(2)
前記手術対象である前記眼を略眼軸方向から撮影する正面画像取得部をさらに備える
(1)に記載の手術システム。
(3)
前記姿勢算出部は、前記所定部位の認識結果と、前記正面画像取得部により得られた正面画像とに基づいて、前記眼の姿勢を算出する
(2)に記載の手術システム。
(4)
手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像に基づいて、前記断層画像における前記眼の所定部位を認識する画像認識部と、
前記所定部位の認識結果に基づいて、前記眼の姿勢を算出する姿勢算出部と
を備える画像処理装置。
(5)
前記姿勢算出部は、前記眼軸を回転軸とする前記眼の回旋角度を前記眼の姿勢として算出する
(4)に記載の画像処理装置。
(6)
前記姿勢算出部は、前記眼の3次元の姿勢を算出する
(4)に記載の画像処理装置。
(7)
前記姿勢算出部は、前記眼の回転量に基づいて前記眼の3次元の姿勢を算出する
(6)に記載の画像処理装置。
(8)
前記姿勢算出部は、前記所定部位として認識された視神経乳頭と中心窩の位置関係に基づいて前記眼の姿勢を算出する
(5)乃至(7)の何れか一項に記載の画像処理装置。
(9)
前記画像認識部は、前記眼の手術前または手術中の前記断層画像に基づいて、前記眼の所定部位を認識する
(4)乃至(8)の何れか一項に記載の画像処理装置。
(10)
前記画像認識部は、前記眼を略前記眼軸方向から撮影して得られた正面画像に基づいて、前記正面画像における前記眼の特定の部位を認識し、
前記特定の部位の認識結果により定まる前記断層画像上の領域を対象として、前記断層画像における前記所定部位を認識する
(4)乃至(9)の何れか一項に記載の画像処理装置。
(11)
前記姿勢算出部は、前記所定部位の認識結果に基づく前記眼の姿勢の算出結果と、前記眼を略前記眼軸方向から撮影して得られた正面画像とに基づいて、最終的な前記眼の姿勢を算出する
(4)乃至(9)の何れか一項に記載の画像処理装置。
(12)
前記姿勢算出部は、前記所定部位の認識結果に基づく前記眼の姿勢の算出結果により定まる姿勢の範囲内で、前記正面画像に基づいて前記最終的な前記眼の姿勢を算出する
(11)に記載の画像処理装置。
(13)
前記画像認識部は、前記眼を略前記眼軸方向から撮影して得られた正面画像に基づいて、前記正面画像における前記眼の特定の部位を認識し、
前記特定の部位の認識結果により定まる断面位置の前記断層画像を取得させる取得制御部をさらに備える
(4)乃至(9)の何れか一項に記載の画像処理装置。
(14)
前記画像認識部は、前記眼の手術中に前記眼を略前記眼軸方向から撮影して得られた正面画像に基づいて、前記正面画像上の術具を認識し、前記術具の認識結果により定まる前記断層画像上の領域を除外して、前記所定部位を認識する
(4)乃至(9)の何れか一項に記載の画像処理装置。
(15)
前記画像認識部は、互いに断面位置が異なる複数の前記断層画像から得られるボリュームデータにおける前記所定部位を認識する
(4)乃至(9)の何れか一項に記載の画像処理装置。
(16)
前記眼の姿勢に基づいて、前記眼の手術時のガイドとなるガイド情報を生成するガイド情報生成部をさらに備える
(4)乃至(15)の何れか一項に記載の画像処理装置。
(17)
前記断層画像は、光干渉断層計により撮影された画像である
(4)乃至(16)の何れか一項に記載の画像処理装置。
(18)
手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像に基づいて、前記断層画像における前記眼の所定部位を認識し、
前記所定部位の認識結果に基づいて、前記眼の姿勢を算出する
ステップを含む画像処理方法。
11 手術システム, 21 手術顕微鏡, 33 モニタ, 63 提示部, 64 正面画像取得部, 65 断層画像取得部, 66 制御部, 67 インターフェース部, 301 画像情報取得部, 302 画像処理装置, 303 ガイド情報提示部, 311 画像認識部, 312 制御部, 313 ガイド情報生成部

Claims (18)

  1. 手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像を取得する断層画像取得部と、
    前記断層画像に基づいて、前記断層画像における前記眼の所定部位を認識する画像認識部と、
    前記所定部位の認識結果に基づいて、前記眼の姿勢を算出する姿勢算出部と
    を備える手術システム。
  2. 前記手術対象である前記眼を略眼軸方向から撮影する正面画像取得部をさらに備える
    請求項1に記載の手術システム。
  3. 前記姿勢算出部は、前記所定部位の認識結果と、前記正面画像取得部により得られた正面画像とに基づいて、前記眼の姿勢を算出する
    請求項2に記載の手術システム。
  4. 手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像に基づいて、前記断層画像における前記眼の所定部位を認識する画像認識部と、
    前記所定部位の認識結果に基づいて、前記眼の姿勢を算出する姿勢算出部と
    を備える画像処理装置。
  5. 前記姿勢算出部は、前記眼軸を回転軸とする前記眼の回旋角度を前記眼の姿勢として算出する
    請求項4に記載の画像処理装置。
  6. 前記姿勢算出部は、前記眼の3次元の姿勢を算出する
    請求項4に記載の画像処理装置。
  7. 前記姿勢算出部は、前記眼の回転量に基づいて前記眼の3次元の姿勢を算出する
    請求項6に記載の画像処理装置。
  8. 前記姿勢算出部は、前記所定部位として認識された視神経乳頭と中心窩の位置関係に基づいて前記眼の姿勢を算出する
    請求項5に記載の画像処理装置。
  9. 前記画像認識部は、前記眼の手術前または手術中の前記断層画像に基づいて、前記眼の所定部位を認識する
    請求項4に記載の画像処理装置。
  10. 前記画像認識部は、前記眼を略前記眼軸方向から撮影して得られた正面画像に基づいて、前記正面画像における前記眼の特定の部位を認識し、
    前記特定の部位の認識結果により定まる前記断層画像上の領域を対象として、前記断層画像における前記所定部位を認識する
    請求項4に記載の画像処理装置。
  11. 前記姿勢算出部は、前記所定部位の認識結果に基づく前記眼の姿勢の算出結果と、前記眼を略前記眼軸方向から撮影して得られた正面画像とに基づいて、最終的な前記眼の姿勢を算出する
    請求項4に記載の画像処理装置。
  12. 前記姿勢算出部は、前記所定部位の認識結果に基づく前記眼の姿勢の算出結果により定まる姿勢の範囲内で、前記正面画像に基づいて前記最終的な前記眼の姿勢を算出する
    請求項11に記載の画像処理装置。
  13. 前記画像認識部は、前記眼を略前記眼軸方向から撮影して得られた正面画像に基づいて、前記正面画像における前記眼の特定の部位を認識し、
    前記特定の部位の認識結果により定まる断面位置の前記断層画像を取得させる取得制御部をさらに備える
    請求項4に記載の画像処理装置。
  14. 前記画像認識部は、前記眼の手術中に前記眼を略前記眼軸方向から撮影して得られた正面画像に基づいて、前記正面画像上の術具を認識し、前記術具の認識結果により定まる前記断層画像上の領域を除外して、前記所定部位を認識する
    請求項4に記載の画像処理装置。
  15. 前記画像認識部は、互いに断面位置が異なる複数の前記断層画像から得られるボリュームデータにおける前記所定部位を認識する
    請求項4に記載の画像処理装置。
  16. 前記眼の姿勢に基づいて、前記眼の手術時のガイドとなるガイド情報を生成するガイド情報生成部をさらに備える
    請求項4に記載の画像処理装置。
  17. 前記断層画像は、光干渉断層計により撮影された画像である
    請求項4に記載の画像処理装置。
  18. 手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像に基づいて、前記断層画像における前記眼の所定部位を認識し、
    前記所定部位の認識結果に基づいて、前記眼の姿勢を算出する
    ステップを含む画像処理方法。
JP2015106419A 2015-05-26 2015-05-26 手術システム、並びに画像処理装置および方法 Pending JP2016214781A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015106419A JP2016214781A (ja) 2015-05-26 2015-05-26 手術システム、並びに画像処理装置および方法
PCT/JP2016/064083 WO2016190113A1 (ja) 2015-05-26 2016-05-12 手術システム、並びに画像処理装置および方法
EP16799821.0A EP3305173B1 (en) 2015-05-26 2016-05-12 Surgery system, and device and method for processing image
US15/566,776 US10537389B2 (en) 2015-05-26 2016-05-12 Surgical system, image processing device, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015106419A JP2016214781A (ja) 2015-05-26 2015-05-26 手術システム、並びに画像処理装置および方法

Publications (1)

Publication Number Publication Date
JP2016214781A true JP2016214781A (ja) 2016-12-22

Family

ID=57392732

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015106419A Pending JP2016214781A (ja) 2015-05-26 2015-05-26 手術システム、並びに画像処理装置および方法

Country Status (4)

Country Link
US (1) US10537389B2 (ja)
EP (1) EP3305173B1 (ja)
JP (1) JP2016214781A (ja)
WO (1) WO2016190113A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020137103A (ja) * 2019-02-19 2020-08-31 株式会社シンクアウト 情報処理システムおよび情報処理プログラム
WO2022163189A1 (ja) * 2021-01-29 2022-08-04 ソニーグループ株式会社 画像処理装置、画像処理方法及び手術顕微鏡システム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6736490B2 (ja) * 2017-01-17 2020-08-05 キヤノン株式会社 画像処理装置、光干渉断層撮像装置、システム、画像処理方法、及びプログラム
US10993838B2 (en) 2017-05-09 2021-05-04 Sony Corporation Image processing device, image processing method, and image processing program
EP3773149B1 (en) * 2018-06-20 2023-11-01 Alcon Inc. Auxiliary surgical field visualization system
DE102018124065A1 (de) * 2018-09-28 2020-04-02 Carl Zeiss Meditec Ag Verfahren zum Erzeugen einer Referenzinformation eines Auges, insbesondere einer optisch angezeigten Referenzrhexis, sowie ophthalmochirurgische Vorrichtung
EP3917430B1 (en) * 2019-01-31 2023-07-05 Brainlab AG Virtual trajectory planning
WO2022058606A1 (de) * 2020-09-21 2022-03-24 Carl Zeiss Meditec, Inc. Vorrichtung zur positionierung eines implantats in einem zielgebiet eines auges
US20240033035A1 (en) * 2021-01-29 2024-02-01 Sony Group Corporation Image processing device, image processing method, and surgical microscope system
WO2022163190A1 (ja) * 2021-01-29 2022-08-04 ソニーグループ株式会社 画像処理装置、画像処理方法及び手術顕微鏡システム
EP4221630A1 (en) * 2021-09-29 2023-08-09 Cilag GmbH International Surgical devices, systems, and methods using multi-source imaging
US20230133327A1 (en) * 2021-11-03 2023-05-04 Alcon Inc. Computerized treatment plan with alternatives for guiding ophthalmic surgery
US20240081975A1 (en) * 2022-09-13 2024-03-14 Alcon Inc. Toric intraocular lens alignment guide

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2655204T3 (es) * 2007-09-06 2018-02-19 Alcon Lensx, Inc. Fijación de objetivo precisa de foto-disrupción quirúrgica
JP2012152469A (ja) 2011-01-27 2012-08-16 Nidek Co Ltd 眼科用手術顕微鏡
AU2012377102B2 (en) * 2012-04-20 2015-09-24 Alcon Inc. Technique for controlling a corneal ablation laser
JP6241040B2 (ja) * 2013-01-23 2017-12-06 株式会社ニデック 眼科解析装置、及び眼科解析プログラム
JP6278295B2 (ja) * 2013-06-13 2018-02-14 国立大学法人 筑波大学 脈絡膜の血管網を選択的に可視化し解析する光干渉断層計装置及びその画像処理プログラム
CN104249372B (zh) * 2013-06-26 2016-04-27 鸿富锦精密工业(深圳)有限公司 夹取装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020137103A (ja) * 2019-02-19 2020-08-31 株式会社シンクアウト 情報処理システムおよび情報処理プログラム
JP7304508B2 (ja) 2019-02-19 2023-07-07 株式会社シンクアウト 情報処理システムおよび情報処理プログラム
WO2022163189A1 (ja) * 2021-01-29 2022-08-04 ソニーグループ株式会社 画像処理装置、画像処理方法及び手術顕微鏡システム

Also Published As

Publication number Publication date
US10537389B2 (en) 2020-01-21
EP3305173A1 (en) 2018-04-11
EP3305173A4 (en) 2019-02-06
EP3305173B1 (en) 2021-09-15
US20180098812A1 (en) 2018-04-12
WO2016190113A1 (ja) 2016-12-01

Similar Documents

Publication Publication Date Title
WO2016190113A1 (ja) 手術システム、並びに画像処理装置および方法
JP7249278B2 (ja) 眼科手術用の適応的画像レジストレーション
WO2017169823A1 (ja) 画像処理装置および方法、手術システム並びに手術用部材
Richa et al. Vision-based proximity detection in retinal surgery
US20210311295A1 (en) Information processing apparatus, information processing method, and operation microscope apparatus
JP2019500132A (ja) 対象の眼組織に対するツール先端部の位置および配向を決定するためのシステムおよび方法
US20230053366A1 (en) Assembly comprising an oct device for ascertaining a 3d reconstruction of an object region volume, computer program, and computer-implemented method for same
JP2022523306A (ja) アイトラッキングデバイスおよび方法
US20210228284A1 (en) Eye surgery surgical system having an oct device and computer program and computer-implemented method for continuously ascertaining a relative position of a surgery object
JP6819223B2 (ja) 眼科情報処理装置、眼科情報処理プログラム、および眼科手術システム
CN114222521A (zh) 即时眼睛凝视校准***和方法
US20240081921A1 (en) System and method for verification of conversion of locations between coordinate systems
US11766171B2 (en) Method for the continuous control of the fixation of a patient's eye during the detection of biometric measurement data of the patient's eye
US11514553B2 (en) Image processing device, image processing method, and intraocular image processing system
JPWO2018193932A1 (ja) 情報処理装置、術具、情報処理方法及びプログラム
JP7184077B2 (ja) 制御装置および方法、並びに手術顕微鏡システム
JP7024240B2 (ja) 眼科システムおよび眼科システム制御プログラム
WO2022163190A1 (ja) 画像処理装置、画像処理方法及び手術顕微鏡システム
US20240103260A1 (en) Control device, control system, and control method
WO2023203433A1 (en) Ophthalmic image registration using interpretable artificial intelligence based on deep learning