JP2017164007A - 医療用画像処理装置、医療用画像処理方法、プログラム - Google Patents

医療用画像処理装置、医療用画像処理方法、プログラム Download PDF

Info

Publication number
JP2017164007A
JP2017164007A JP2016049232A JP2016049232A JP2017164007A JP 2017164007 A JP2017164007 A JP 2017164007A JP 2016049232 A JP2016049232 A JP 2016049232A JP 2016049232 A JP2016049232 A JP 2016049232A JP 2017164007 A JP2017164007 A JP 2017164007A
Authority
JP
Japan
Prior art keywords
light emission
color
surgical tool
image processing
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016049232A
Other languages
English (en)
Inventor
一木 洋
Hiroshi Ichiki
洋 一木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016049232A priority Critical patent/JP2017164007A/ja
Priority to US16/080,954 priority patent/US20190083180A1/en
Priority to PCT/JP2017/007631 priority patent/WO2017159335A1/ja
Publication of JP2017164007A publication Critical patent/JP2017164007A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • A61B2090/3941Photoluminescent markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • A61B2090/3945Active visible markers, e.g. light emitting diodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/034Recognition of patterns in medical or anatomical images of medical instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Astronomy & Astrophysics (AREA)
  • Optics & Photonics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

【課題】術具を正確に検出する。【解決手段】発光マーカが配置されている物体を撮像する撮像部と、撮像部で撮像された画像を処理する処理部とを備え、処理部は、画像から、発光マーカが発光した色を抽出し、抽出された色が分布する画像内の領域を、物体が位置する領域として検出する。また処理部は、画像内の画素毎に色度を算出し、発光マーカの発光色に該当する色度を有している画素を抽出し、抽出された画素を、物体が存在する領域として検出する。本技術は、例えば、内視鏡システムや外科手術システム、外科手術システム、顕微鏡下手術システムなどに適用できる。【選択図】図3

Description

本技術は医療用画像処理装置、医療用画像処理方法、プログラムに関し、例えば、手術時に用いる術具の検出を精度良く行えるようにした医療用画像処理装置、医療用画像処理方法、プログラムに関する。
手術前に撮影されたCT(computerized tomography)や、MRI(magnetic resonance imaging )などによる断層像をコンピュータで合成してモニタなどの表示部に断層もしくは立体表示すると共に、手術に使用する処置具や、内視鏡などの処置用機器の形状を予めキャリブレーションしておき、それらの機器に位置検出用のマーカを取り付け、外部から赤外線などによる位置検出を行うことにより、前述の生体画像情報上に使用している機器の位置を表示したり、特に脳外科などでは顕微鏡像に脳腫瘍の位置を合成して表示したりすることにより、手術を進める方向をナビゲートする機器が開発されている(例えば、特許文献1,2参照)。
特開平5−305073号公報 特開2001−204738号公報
例えば、人工関節などのインプラント手術のナビゲーションなどでは、位置決め(計測手段)として専用の位置計測プローブが用いられていた。位置決めの方法としては、特許文献1,2などに提案されているように、事前にX線などによる3DCT計測を行い、コンピュータ内に3D位置情報を用意しておき、手術時に、3D位置情報と位置合わせするために、患者に位置決め治具が取り付けられる。そして、手術中の位置測定には、専用のプローブが用いられる。
手術中に、治具と術具を持ち替えないと位置測定が行えないと手術時間が増し、患者への負担が増えてしまう可能性があった。
本技術は、このような状況に鑑みてなされたものであり、位置計測を手術時間が短くなり、かつ精度良く行えるようにするものである。
本技術の一側面の医療用画像処理装置は、発光マーカが配置されている物体を撮像する撮像部と、前記撮像部で撮像された画像を処理する処理部とを備え、前記処理部は、前記画像から、前記発光マーカが発光した色を抽出し、前記抽出された色が分布する前記画像内の領域を、前記物体が位置する領域として検出する。
本技術の一側面の医療用画像処理方法は、発光マーカが配置されている物体を撮像する撮像部と、前記撮像部で撮像された前記画像を処理する処理部とを備える医療用画像処理装置の画像処理方法において、前記処理は、前記画像から、前記発光マーカが発光した色を抽出し、前記抽出された色が分布する前記画像内の領域を、前記物体が位置する領域として検出するステップを含む。
本技術の一側面のプログラムは、発光マーカが配置されている物体を撮像する撮像部と、前記撮像部で撮像された前記画像を処理する処理部とを備える医療用画像処理装置を制御するコンピュータに、前記画像から、前記発光マーカが発光した色を抽出し、前記抽出された色が分布する前記画像内の領域を、前記物体が位置する領域として検出するステップを含む処理を実行させる。
本技術の一側面の医療用画像処理装置、医療用画像処理方法、並びにプログラムにおいては、発光マーカが配置されている物体が撮像され、撮像された画像が処理される。その処理は、画像から、発光マーカが発光した色が抽出され、抽出された色が分布する画像内の領域が、物体が位置する領域として検出される。
本技術の一側面によれば、位置計測を手術時間が短くなり、かつ精度良く行える。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した内視鏡手術システムの一実施の形態の構成を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 発光マーカの配置について説明するための図である。 発光マーカの配置について説明するための図である。 発光マーカの配置について説明するための図である。 発光マーカの配置について説明するための図である。 発光マーカの配置について説明するための図である。 術具の検出について説明するための図である。 術具の検出について説明するための図である。 術具の検出時の汚れによる影響について説明するための図である。 術具の色領域について説明するための図である。 術具の形状認識に係わる処理について説明するための図である。 処理対象の画素について説明するための図である。 術具の色領域について説明するための図である。 術具の先端の存在確認に係わる処理について説明するための図である。 汚れ度合いの推定に係わる処理について説明するための図である。 発光マーカの光量と術具の検出面積との関係を説明するための図である。 術具の色領域の調整について説明するための図である。 三角測量について説明するための図である。 三角測量について説明するための図である。 ステレオカメラを用いた術具の位置推定について説明するための図である。 形状マッチングによる推定に係わる処理について説明するための図である。 術中の処理について説明するための図である。 位置測定センサとの組み合わせについて説明するための図である。 記録媒体について説明するための図である。
以下に、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は、以下の順序で行う。
1.内視鏡システムの構成
2.発光マーカ
3.発光色について
4.術具の形状を認識する処理
5.術具先端の存在確認処理
6.汚れ度合いの推測処理
7.術具の先端位置の推定
8.形状マッチングによる術具の先端位置推定処理
9.術中の処理
10.3次元計測用のアンテナを追加した実施の形態
11.記録媒体について
<内視鏡システムの構成>
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。またここでは、内視鏡手術システムを例に挙げて説明をするが、本技術は、外科手術システム、顕微鏡下手術システムなどにも適用できる。
図1は、本開示に係る技術が適用され得る内視鏡手術システム10の概略的な構成の一例を示す図である。図1では、術者(医師)71が、内視鏡手術システム10を用いて、患者ベッド73上の患者75に手術を行っている様子が図示されている。図示するように、内視鏡手術システム10は、内視鏡20と、その他の術具30と、内視鏡20を支持する支持アーム装置40と、内視鏡下手術のための各種の装置が搭載されたカート50と、から構成される。
内視鏡手術では、腹壁を切って開腹する代わりに、トロッカ37a〜37dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ37a〜37dから、内視鏡20の鏡筒21や、その他の術具30が患者75の体腔内に挿入される。図示する例では、その他の術具30として、気腹チューブ31、エネルギー処置具33及び鉗子35が、患者75の体腔内に挿入されている。また、エネルギー処置具33は、高周波電流や超音波振動により、組織の切開及び剥離、又は血管の封止等を行う処置具である。ただし、図示する術具30はあくまで一例であり、術具30としては、例えば攝子、レトラクタ等、一般的に内視鏡下手術において用いられる各種の術具が用いられてよい。
内視鏡20によって撮影された患者75の体腔内の術部の画像が、表示装置53に表示される。術者71は、表示装置53に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具33や鉗子35を用いて、例えば患部を切除する等の処置を行う。なお、気腹チューブ31、エネルギー処置具33及び鉗子35は、手術中に、術者71又は助手等によって支持される。
(支持アーム装置)
支持アーム装置40は、ベース部41から延伸するアーム部43を備える。図示する例では、アーム部43は、関節部45a、45b、45c、及びリンク47a、47bから構成されており、アーム制御装置57からの制御により駆動される。アーム部43によって内視鏡20が支持され、その位置及び姿勢が制御される。これにより、内視鏡20の安定的な位置の固定が実現され得る。
(内視鏡)
内視鏡20は、先端から所定の長さの領域が患者75の体腔内に挿入される鏡筒21と、鏡筒21の基端に接続されるカメラヘッド23と、から構成される。図示する例では、硬性の鏡筒21を有するいわゆる硬性鏡として構成される内視鏡20を図示しているが、内視鏡20は、軟性の鏡筒21を有するいわゆる軟性鏡として構成されてもよい。
鏡筒21の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡20には光源装置55が接続されており、当該光源装置55によって生成された光が、鏡筒21の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者75の体腔内の観察対象に向かって照射される。なお、内視鏡20は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
カメラヘッド23の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)51に送信される。なお、カメラヘッド23には、その光学系を適宜駆動させることにより、倍率及び焦点距離を調整する機能が搭載される。
なお、例えば立体視(3D表示)等に対応するために、カメラヘッド23には撮像素子が複数設けられてもよい。この場合、鏡筒21の内部には、当該複数の撮像素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられる。
(カートに搭載される各種の装置)
CCU51は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡20及び表示装置53の動作を統括的に制御する。具体的には、CCU51は、カメラヘッド23から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU51は、当該画像処理を施した画像信号を表示装置53に提供する。また、CCU51は、カメラヘッド23に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。
表示装置53は、CCU51からの制御により、当該CCU51によって画像処理が施された画像信号に基づく画像を表示する。内視鏡20が例えば4K(水平画素数3840×垂直画素数2160)又は8K(水平画素数7680×垂直画素数4320)等の高解像度の撮影に対応したものである場合、及び/又は3D表示に対応したものである場合には、表示装置53としては、それぞれに対応して、高解像度の表示が可能なもの、及び/又は3D表示可能なものが用いられ得る。4K又は8K等の高解像度の撮影に対応したものである場合、表示装置53として55インチ以上のサイズのものを用いることで一層の没入感が得られる。また、用途に応じて、解像度、サイズが異なる複数の表示装置53が設けられてもよい。
光源装置55は、例えばLED(light emitting diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡20に供給する。
アーム制御装置57は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置40のアーム部43の駆動を制御する。
入力装置59は、内視鏡手術システム10に対する入力インタフェースである。ユーザは、入力装置59を介して、内視鏡手術システム10に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、入力装置59を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、ユーザは、入力装置59を介して、アーム部43を駆動させる旨の指示や、内視鏡20による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示、エネルギー処置具33を駆動させる旨の指示等を入力する。
入力装置59の種類は限定されず、入力装置59は各種の公知の入力装置であってよい。入力装置59としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ69及び/又はレバー等が適用され得る。入力装置59としてタッチパネルが用いられる場合には、当該タッチパネルは表示装置53の表示面上に設けられてもよい。
あるいは、入力装置59は、例えばメガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであり、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。また、入力装置59は、ユーザの動きを検出可能なカメラを含み、当該カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。
更に、入力装置59は、ユーザの声を収音可能なマイクロフォンを含み、当該マイクロフォンを介して音声によって各種の入力が行われる。このように、入力装置59が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば術者71)が、不潔域に属する機器を非接触で操作することが可能となる。また、ユーザは、所持している術具から手を離すことなく機器を操作することが可能となるため、ユーザの利便性が向上する。
処置具制御装置61は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具33の駆動を制御する。気腹装置63は、内視鏡20による視野の確保及び術者の作業空間の確保の目的で、患者75の体腔を膨らめるために、気腹チューブ31を介して当該体腔内にガスを送り込む。レコーダ65は、手術に関する各種の情報を記録可能な装置である。プリンタ67は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
以下、内視鏡手術システム10において特に特徴的な構成について、更に詳細に説明する。
(支持アーム装置)
支持アーム装置40は、基台であるベース部41と、ベース部41から延伸するアーム部43と、を備える。図示する例では、アーム部43は、複数の関節部45a、45b、45cと、関節部45bによって連結される複数のリンク47a、47bと、から構成されているが、図1では、簡単のため、アーム部43の構成を簡略化して図示している。
実際には、アーム部43が所望の自由度を有するように、関節部45a〜45c及びリンク47a、47bの形状、数及び配置、並びに関節部45a〜45cの回転軸の方向等が適宜設定され得る。例えば、アーム部43は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部43の可動範囲内において内視鏡20を自由に移動させることが可能になるため、所望の方向から内視鏡20の鏡筒21を患者75の体腔内に挿入することが可能になる。
関節部45a〜45cにはアクチュエータが設けられており、関節部45a〜45cは当該アクチュエータの駆動により所定の回転軸まわりに回転可能に構成されている。当該アクチュエータの駆動がアーム制御装置57によって制御されることにより、各関節部45a〜45cの回転角度が制御され、アーム部43の駆動が制御される。これにより、内視鏡20の位置及び姿勢の制御が実現され得る。この際、アーム制御装置57は、力制御又は位置制御等、各種の公知の制御方式によってアーム部43の駆動を制御することができる。
例えば、術者71が、入力装置59(フットスイッチ69を含む)を介して適宜操作入力を行うことにより、当該操作入力に応じてアーム制御装置57によってアーム部43の駆動が適宜制御され、内視鏡20の位置及び姿勢が制御されてよい。当該制御により、アーム部43の先端の内視鏡20を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、アーム部43は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部43は、手術室から離れた場所に設置される入力装置59を介してユーザによって遠隔操作され得る。
また、力制御が適用される場合には、アーム制御装置57は、ユーザからの外力を受け、その外力にならってスムーズにアーム部43が移動するように、各関節部45a〜45cのアクチュエータを駆動させる、いわゆるパワーアシスト制御を行ってもよい。これにより、ユーザが直接アーム部43に触れながらアーム部43を移動させる際に、比較的軽い力で当該アーム部43を移動させることができる。従って、より直感的に、より簡易な操作で内視鏡20を移動させることが可能となり、ユーザの利便性を向上させることができる。
ここで、一般的に、内視鏡下手術では、スコピストと呼ばれる医師によって内視鏡20が支持されていた。これに対して、支持アーム装置40を用いることにより、人手によらずに内視鏡20の位置をより確実に固定することが可能になるため、術部の画像を安定的に得ることができ、手術を円滑に行うことが可能になる。
なお、アーム制御装置57は必ずしもカート50に設けられなくてもよい。また、アーム制御装置57は必ずしも1つの装置でなくてもよい。例えば、アーム制御装置57は、支持アーム装置40のアーム部43の各関節部45a〜45cにそれぞれ設けられてもよく、複数のアーム制御装置57が互いに協働することにより、アーム部43の駆動制御が実現されてもよい。
(光源装置)
光源装置55は、内視鏡20に術部を撮影する際の照射光を供給する。光源装置55は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置55において撮像画像のホワイトバランスの調整を行うことができる。
また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド23の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
また、光源装置55は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド23の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
また、光源装置55は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。
あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注すると共に当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置55は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
(カメラヘッド及びCCU)
図2を参照して、内視鏡20のカメラヘッド23及びCCU51の機能についてより詳細に説明する。図2は、図1に示すカメラヘッド23及びCCU51の機能構成の一例を示すブロック図である。
図2を参照すると、カメラヘッド23は、その機能として、レンズユニット25、撮像部27、駆動部29、通信部26、およびカメラヘッド制御部28を有する。また、CCU51は、その機能として、通信部81、画像処理部83、および制御部85を有する。カメラヘッド23とCCU51とは、伝送ケーブル91によって双方向に通信可能に接続されている。
まず、カメラヘッド23の機能構成について説明する。レンズユニット25は、鏡筒21との接続部に設けられる光学系である。鏡筒21の先端から取り込まれた観察光は、カメラヘッド23まで導光され、当該レンズユニット25に入射する。レンズユニット25は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。レンズユニット25は、撮像部27の撮像素子の受光面上に観察光を集光するように、その光学特性が調整されている。また、ズームレンズ及びフォーカスレンズは、撮像画像の倍率及び焦点の調整のため、その光軸上の位置が移動可能に構成される。
撮像部27は撮像素子によって構成され、レンズユニット25の後段に配置される。レンズユニット25を通過した観察光は、当該撮像素子の受光面に集光され、光電変換によって、観察像に対応した画像信号が生成される。撮像部27によって生成された画像信号は、通信部26に提供される。
撮像部27を構成する撮像素子としては、例えばCMOS(Complementary Metal Oxide Semiconductor)タイプのイメージセンサであり、Bayer配列を有するカラー撮影可能なものが用いられる。なお、当該撮像素子としては、例えば4K以上の高解像度の画像の撮影に対応可能なものが用いられてもよい。術部の画像が高解像度で得られることにより、術者71は、当該術部の様子をより詳細に把握することができ、手術をより円滑に進行することが可能となる。
また、撮像部27を構成する撮像素子は、3D表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成される。3D表示が行われることにより、術者71は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部27が多板式で構成される場合には、各撮像素子に対応して、レンズユニット25も複数系統設けられる。
また、撮像部27は、必ずしもカメラヘッド23に設けられなくてもよい。例えば、撮像部27は、鏡筒21の内部に、対物レンズの直後に設けられてもよい。
駆動部29は、アクチュエータによって構成され、カメラヘッド制御部28からの制御により、レンズユニット25のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部27による撮像画像の倍率及び焦点が適宜調整され得る。
通信部26は、CCU51との間で各種の情報を送受信するための通信装置によって構成される。通信部26は、撮像部27から得た画像信号をRAWデータとして伝送ケーブル91を介してCCU51に送信する。この際、術部の撮像画像を低レイテンシで表示するために、当該画像信号は光通信によって送信されることが好ましい。
手術の際には、術者71が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信が行われる場合には、通信部26には、電気信号を光信号に変換する光電変換モジュールが設けられる。画像信号は当該光電変換モジュールによって光信号に変換された後、伝送ケーブル91を介してCCU51に送信される。
また、通信部26は、CCU51から、カメラヘッド23の駆動を制御するための制御信号を受信する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。通信部26は、受信した制御信号をカメラヘッド制御部28に提供する。
なお、CCU51からの制御信号も、光通信によって伝送されてもよい。この場合、通信部26には、光信号を電気信号に変換する光電変換モジュールが設けられ、制御信号は当該光電変換モジュールによって電気信号に変換された後、カメラヘッド制御部28に提供される。
なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、取得された画像信号に基づいてCCU51の制御部85によって自動的に設定される。つまり、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡20に搭載される。
カメラヘッド制御部28は、通信部26を介して受信したCCU51からの制御信号に基づいて、カメラヘッド23の駆動を制御する。例えば、カメラヘッド制御部28は、撮像画像のフレームレートを指定する旨の情報及び/又は撮像時の露光を指定する旨の情報に基づいて、撮像部27の撮像素子の駆動を制御する。また、例えば、カメラヘッド制御部28は、撮像画像の倍率及び焦点を指定する旨の情報に基づいて、駆動部29を介してレンズユニット25のズームレンズ及びフォーカスレンズを適宜移動させる。カメラヘッド制御部28は、更に、鏡筒21やカメラヘッド23を識別するための情報を記憶する機能を備えてもよい。
なお、レンズユニット25や撮像部27等の構成を、気密性及び防水性が高い密閉構造内に配置することで、カメラヘッド23について、オートクレーブ滅菌処理に対する耐性を持たせることができる。
次に、CCU51の機能構成について説明する。通信部81は、カメラヘッド23との間で各種の情報を送受信するための通信装置によって構成される。通信部81は、カメラヘッド23から、伝送ケーブル91を介して送信される画像信号を受信する。この際、上記のように、当該画像信号は好適に光通信によって送信され得る。この場合、光通信に対応して、通信部81には、光信号を電気信号に変換する光電変換モジュールが設けられる。通信部81は、電気信号に変換した画像信号を画像処理部83に提供する。
また、通信部81は、カメラヘッド23に対して、カメラヘッド23の駆動を制御するための制御信号を送信する。当該制御信号も光通信によって送信されてよい。
画像処理部83は、カメラヘッド23から送信されたRAWデータである画像信号に対して各種の画像処理を施す。当該画像処理としては、例えば現像処理、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の公知の信号処理が含まれる。また、画像処理部83は、AE、AF及びAWBを行うための、画像信号に対する検波処理を行う。
画像処理部83は、CPUやGPU等のプロセッサによって構成され、当該プロセッサが所定のプログラムに従って動作することにより、上述した画像処理や検波処理が行われ得る。なお、画像処理部83が複数のGPUによって構成される場合には、画像処理部83は、画像信号に係る情報を適宜分割し、これら複数のGPUによって並列的に画像処理を行う。
制御部85は、内視鏡20による術部の撮像、及びその撮像画像の表示に関する各種の制御を行う。例えば、制御部85は、カメラヘッド23の駆動を制御するための制御信号を生成する。この際、撮像条件がユーザによって入力されている場合には、制御部85は、当該ユーザによる入力に基づいて制御信号を生成する。あるいは、内視鏡20にAE機能、AF機能及びAWB機能が搭載されている場合には、制御部85は、画像処理部83による検波処理の結果に応じて、最適な露出値、焦点距離及びホワイトバランスを適宜算出し、制御信号を生成する。
また、制御部85は、画像処理部83によって画像処理が施された画像信号に基づいて、術部の画像を表示装置53に表示させる。この際、制御部85は、各種の画像認識技術を用いて術部画像内における各種の物体を認識する。
例えば、制御部85は、術部画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具33使用時のミスト等を認識することができる。制御部85は、表示装置53に術部の画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させる。手術支援情報が重畳表示され、術者71に提示されることにより、より安全かつ確実に手術を進めることが可能になる。
カメラヘッド23及びCCU51を接続する伝送ケーブル91は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
ここで、図示する例では、伝送ケーブル91を用いて有線で通信が行われていたが、カメラヘッド23とCCU51との間の通信は無線で行われてもよい。両者の間の通信が無線で行われる場合には、伝送ケーブル91を手術室内に敷設する必要がなくなるため、手術室内における医療スタッフの移動が当該伝送ケーブル91によって妨げられる事態が解消され得る。
以上、本開示に係る技術が適用され得る内視鏡手術システム10の一例について説明した。
なお、ここでは、一例として内視鏡手術システム10について説明したが、本開示に係る技術が適用され得るシステムはかかる例に限定されない。例えば、本開示に係る技術は、検査用軟性内視鏡システムや顕微鏡手術システムに適用されてもよい。
<発光マーカ>
上記したように、制御部85は、各種の画像認識技術を用いて術部画像内における各種の物体を認識する。例えば、制御部85は、術部画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具33使用時のミスト等を認識することができる。
しかしながら、術部画像に含まれる物体、例えば、鉗子35などの術具30のエッジの形状を検出するとき、出血により術具30に血が付着し、汚れている場合など、正確に術具30のエッジの形状を検出することができないことがある。また、正確に術具30の形状(先端部分の形状)を検出できなければ、術具30の位置の推定も正確にできない可能性がある。
また、術具30の所定の位置にマーカ(以下に説明する発光するマーカではない)を付け、外部のカメラで撮影し、術具30の位置を計測する方法もあるが、上記した場合と同様に、術具30に血が付着し、汚れている場合など、正確に術具30の位置を検出できないことがある。
また、そのようなことを回避するために、血が付着しない部分、例えば術具30の端部にマーカを取り付けて術具30の位置を計測することも考えられるが、端部に付けられたマーカで、高い精度で術具30の先端部分の位置を推定することは困難であった。
また、術具30の先端にマーカを付ける場合、施術の邪魔にならないような形状、位置、大きさなどにしなくてはならず、高い精度で先端部分の位置を推定するための形状、位置、大きさなどでマーカを付けるのは困難であった。
以下に説明する本技術によれば、出血により術具30に血が付着し、汚れている場合などでも、正確に術具30のエッジの形状を検出し、術具30の先端部分を検出できるようになる。また、その検出精度を向上させることができる。また検出された術具30の先端部分から、術具30の位置推定を,精度良く行うことが可能となる。
図3に、本技術を適用した術具30を示す。図3に示した術具30の先端部分には、発光マーカ201−1と発光マーカ201−2が装着されている。以下、発光マーカ201−1と発光マーカ201−2を個々に区別する必要が無い場合、単に、発光マーカ201と記述する。他の部分も同様に記述する。
発光マーカ201は、点灯、点滅するマーカである。また発光マーカ201は、所定の色、例えば青色や緑色で発光する。
図3に示した例では、発光マーカ201は、術具30の先端に配置されている。また、術具30は、先端部分が2箇所あり、発光マーカ201は、それぞれの先端部分に配置されている。図3に示した術具30のように、先端部分が2箇所あるような術具30の場合、それぞれの先端に発光マーカ201が配置されるようにしても良いし、どちらか一方のみに配置されるようにしても良い。換言すれば、複数の先端がある術具30の場合、それぞれの先端に発光マーカ201が配置されても良いし、複数の先端のうちの所定数の先端にのみ発光マーカ201が配置されているようにしても良い。
また図4に示すように、術具30の先端部分ではない部分に、発光マーカ201が配置されても良い。図4に示した例では、術具30の枝の部分(先端部分が稼働するのに対して、稼働しない部分)に、発光マーカ201−3と発光マーカ201−4が配置されている。
図4に示した例では、2個の発光マーカ201が配置されている例を示したが、1個、又は3個などの複数個配置されていても良い。例えば、枝を一周するように、複数の点形状の発光マーカ201が配置されても良い。
図4に示したように、術具30の先端部分以外の部分に発光マーカ201が配置される場合、できる限り、術部30の先端部分に近い位置に発光マーカ201は配置される。
図3や図4では、点形状(円形状)の発光マーカ201を示したが、図5に示すように、枝の部分に巻き付けられたような形で、発光マーカ201が取り付けられていても良い。図5に示した例では、発光マーカ201−5が、術具30の枝の部分に所定の幅を有する形状(四角形状)で、枝を一周するように配置されている。
図3乃至図5に示したように、発光マーカ201を、点発光式のデバイスとして、1又は複数個配置されるようにしても良いし、面発光式のデバイスとして配置されるようにしても良い。
図4又は図5に示したように、術具30の先端部分以外の部分に、発光マーカ201を配置する場合であっても、できる限り先端に近い部分に配置される。
また図6に示すように、発光マーカ201−6を、スポットライト状の発光マーカとすることも可能である。スポットライト状の発光マーカ201を用いた場合、そのスポットライトの光は、術具30の先端部分に照射されるように、発光マーカ201は配置される。
スポットライト状の発光マーカ201を、図6に示したように1個配置しても良いし、図示はしないが複数個配置しても良い。スポットライト状の発光マーカ201の形状は、点形状であっても良いし、面形状であっても良い。
また図7に示すように、術具30が整形外科手術などで用いられるドリルであるような場合、術具30の先端部分に発光マーカ201を配置することはできないため、できる限り先端に近い部分に、スポットライト状の発光マーカ201が配置される。
図3乃至図5に示した発光マーカ201と、図6,7に示したスポットライト状の発光マーカ201が、1つの術具30に配置されても良い。
このように、本技術を適用した術具30には、点灯、点滅する発光マーカ201が配置されている。またその発光マーカ201は、術具30の先端部分、又は先端部分にできる限り近い位置に配置されている。また発光マーカ201は、スポットライト状のマーカとし、術具30の先端部分に光を照射する位置に配置されるようにしても良い。
図8に示すように、発光マーカ201が配置されている術具30は、撮像部27(図2)により撮像される。例えば、図9Aに示すような画像が撮像される場合を考える。図9Aに示したように、棒状の術具30が画面右側から中央部分付近まで存在する状態が、撮像部27により撮像され、表示装置53に表示されている。
このような画像を解析し術具30の形状を認識した結果を図9Bに示す。図9Bに示したように、術具30の形状が認識できれば、ステレオ解析や形状データベースとのマッチングにより、位置、特に、術具30の先端の位置を推定することができる。
図9Aと図9Bを参照するに、図9Aに示した術具30は、図9Bに示したように、術具30’として認識されている。また、認識結果である術具30’は、図9Aに示した実際の術具30と、ほぼ同じ形状、位置に認識されている。
しかしながら、術具30が、血などにより汚れていると、図10に示すような認識結果が得られてしまう可能性がある。術具30に汚れがあると、その認識結果は、図10に示すように、汚れの部分が認識されず、所々欠けたような術具30”となる。特に、術具30の先端部分は、汚れることが多く、欠けたような状態で認識される可能性が高い。すなわち、術具30を認識し、その認識結果を用いて位置や角度を精度良く検出することが困難であった。
本技術によれば、図3乃至図7を参照して説明したように、術具30に発光マーカ201が配置され、その発光マーカ201の発光を撮像することで、術具30が汚れていているような場合でも、図9Bに示したように精度良く検出できるようになる。そして、高い精度で術具30の位置や角度を検出できるようになる。
<発光色について>
ここで、図11を参照し、発光マーカ201の発光色について説明する。図11は、横軸が赤の色度を表し、縦軸が緑の色度を表している。図11は、手術中の画像、例えば、図9Aに示したような術具30で術部を手術しているときに撮像された画像を解析した色分布の結果を表している。
術具30が汚れていないときに術具30を撮像し、解析した場合、図11中の領域A内に、色分布は集中する。また血を含む生体組織を撮像し、解析した場合、図11中の領域B内に、色分布は集中する。血などで汚れている術具30を撮像し、解析した場合、図11中の領域C内に、色分布は集中する。
すなわち、本来、領域A内に分布する術具30の色は、血で汚れて赤味が増すと、領域C内に移動してしまう。血の赤色が、術具30の鏡面反射により反射されたり、術具30に自体に血が付着したりすることで、術具30の色分布が血の色分布の方に近づいてしまう。
このように、術具30の色分布が、領域C内に存在すると、術具30と生体(血)との区別がつかなくなり、術具30を認識しづらくなってしまう。
発光マーカ201を青色で点灯させることで、図11中の領域D内に、術具30の色分布を移動させることができる。領域Dには、汚れていない術部30の色分布(領域A)や、生体の色分布(領域B)とは重なりがない領域である。このような領域Dに、術具30の色分布を移動させることで、術具30を検出できるようになる。
発光マーカ201が、青色で発光することで、その青色が撮像部27で撮像される。そして撮像された画像を解析すると、色分布として、青色の領域、すなわち図11中の領域D内に発光マーカ201の色が分布することになる。発光マーカ201は、上記したように、術具30の先端部分(先端部分の近傍)に配置されているため、術具30の先端部分を、発光マーカ201の発光により検出することが可能となる。
発光マーカ201の発光色は、このように、術具30の色や、生体の色が分布しない領域内の色とすれば良い。
このように、発光マーカ201の発光により、血で汚れた術具30の色味を生体細胞が存在しない色領域に移動させることができ、画像処理で、容易に、かつ安定して、術部30の色情報を、生体細胞の色情報から分離、抽出することが可能となる。
発光マーカ201を点灯させることで(常に発光させておくことで)、常時、術具30を、良好に検出することができる。
発光マーカ201を点滅させることで(必要に応じ発光させたり、所定の間隔で発光させたりすることで)、例えば、撮像部27で撮像されている画像内に、術具30があるか否かを確認することが可能となる。発光マーカ201が点滅することで、術具30の色分布は、領域Cと領域Dを行き来することになる。
発光マーカ201を点滅することで、発光マーカ201が発光しているときには図10Bに示したような認識結果が得られ、発光マーカ201が消灯しているときには、図9Bに示したような認識結果が得られる。このように、異なる認識結果が得られることで、画像内の術具30がある部分を、点灯させたような画像を術者71に見せることが可能となる。よって、画像内に術具30があるか否かを簡便に術者71に確認させることが可能となる。
このように、発光マーカ201の点灯により、血で汚れた術具30の色味を生体細胞が存在しない色領域と交互に変化させることで、画像処理で、容易に、かつ安定して、術部30の色情報を、生体細胞の色情報から分離、抽出することが可能となる。
発光マーカ201の発光色を緑色としても良い。再度図11を参照する。発光マーカ201を緑色で発光させることで、術部30の色分布を、緑色の領域にすることができる。すなわち、図11中において、緑色の領域は、領域Aであり、領域Aは、汚れがないときの術部30の色が分布する領域(本来の術部30の色が分布する領域)である。
術部30が血で汚れ、術部30の色分布が領域Cにあったとしても、発光マーカ201を緑色で発光させることで、術部30の色分布を、領域A、すなわち、術部30の本来の色分布に移動させることができる。
このように、発光マーカ201の発光により、血で汚れた術具30の色味を、本来の術部30の色領域に移動させることができ、画像処理で、容易に、かつ安定して、術部30の色情報を、生体細胞の色情報から分離、抽出することが可能となる。
なお、ここでは、発光マーカ201の発光色は、青または緑であるとして説明を続けるが、術具30の本来の色(領域Aに該当する色領域)や、生体細胞の色が分布していない色領域(領域Bに該当する色領域以外の色領域)に、術部30の色情報を移動させることができる色であればよい。
<術具の形状を認識する処理>
次に、発光マーカ201が配置された術具30の形状の認識に係わる処理について説明する。図12に示したフローチャートを参照し、画像処理部83(図2)で行われる術具30の形状の認識に係わる処理について説明する。図12に示したフローチャートの処理は、撮像部27や制御部85(図2)で撮像された画像に対して画像処理部83により行われる処理である。なお、以下に説明する処理は、予め縮小した画像に対して行われるようにすることも可能である。
ステップS101において、取得された画像内の各画素を対象とし、各画素の輝度(I)と色度(r、g、b)が計算される。ステップS102において、所定の画素を処理対象とし、その画素の近傍に位置する画素の色度を用いて、処理対象とされた画素の色度を設定する。
例えば、図13に示したように、処理対象とされている画素が、画素301−5である場合、その画素301−5と、その画素301−5の近傍に位置する画素301−1乃至301−9の色度が用いられ、画素301−5の色度が設定される。
具体的には、以下のようにして処理対象とされている画素の色度が設定される。以下の式において、rは、処理対象とされている画素の赤色の色度、gは、処理対象とされている画素の緑色の色度、bは、処理対象とされている画素の青色の色度を示す。また、r’は、近傍画素の赤色の色度、g’は、近傍画素の緑色の色度、b’は、近傍画素の青色の色度を示す。
r=min(r,r’)
g=max(g,g’)
b=max(b,b’)
すなわち、処理対象とされている画素の色度のうち、赤色(r)の色度は、処理対象とされている画素の色度と隣接する複数の画素の赤色の色度(r’)のうちの最小の色度に設定される。例えば、図13に示したような状況の場合、画素301−5の赤色の色度は、画素301−1乃至301−9の赤色の色度のうちの最小の色度に設定される。
処理対象とされている画素の色度のうち、緑色(g)の色度は、処理対象とされている画素の色度と隣接する複数の画素の緑色の色度(g’)のうちの最大の色度に設定される。例えば、図13に示したような状況の場合、画素301−5の緑色の色度は、画素301−1乃至301−9の緑色の色度のうちの最大の色度に設定される。
処理対象とされている画素の色度のうち、青色(b)の色度は、処理対象とされている画素の色度と隣接する複数の画素の青色の色度(b’)のうちの最大の色度に設定される。例えば、図13に示したような状況の場合、画素301−5の青色の色度は、画素301−1乃至301−9の青色の色度のうちの最大の色度に設定される。
このように、処理対象とされている画素の色度が設定される。このように、処理対象とされている画素の色度が設定されることで、赤色の影響を小さくし、緑色と青色の影響を大きくすることができる。換言すれば、血の色(赤)による影響を小さくし、術具30の色(緑)による影響を大きくし、発光マーカ201の色(青)による影響を大きくすることができる。
なお、発光マーカ201の発光色が青色ではなく、緑色であった場合、青色による影響を小さくするようにしても良い。例えば、青色も赤色と同じく、 b=min(b,b’)で求められるようにしても良い。また、ここでは、図13に示したように、近傍を、対象画素を中心とした3×3の領域として説明したが、5×5、7×7等の、より広い領域として計算が行われるようにしても良い。
ステップS103(図12)において、輝度が一定値以上、かつ色度が「術具の色領域」に含まれる画素が選択され、ラベル付けが行われる。輝度が一定値以上とは、例えば、255階調であった場合、35階調以上の輝度であるか否かが判定される。
「術具の色領域」とは、図14に示す領域である。図14は、図11と同じ図であり。色分布を示した図である。図14中に縦線を図示したが、縦線の左側の領域が、「術具の色領域」とされる。「術具の色領域」は、本来の術具30の色が分布する領域Aと、発光マーカ201の発光により術具30の色が分布する領域Dを含む領域である。換言すれば、「術具の色領域」は、血の色が分布する領域Bと、血による影響を受けた術具30の色が分布する領域Cを除外した領域である。
ステップS103における処理では、まず、輝度が一定値以上の画素が選択される。この処理により、輝度が低い、すなわち暗い画素は除去される。換言すれば、所定の明るさ以上の画素を残す処理が、ステップS103において実行される。
さらにステップS103における処理では、術具の色領域に含まれる画素が選択される。この処理により、本来の術具30の色が分布する領域Aと、発光マーカ201の発光により術具30の色が分布する領域Dに含まれる画素が選択される。換言すれば、血の色が分布する領域Bと、血による影響を受けた術具30の色が分布する領域Cにある画素が除外される。
そして、輝度が一定値以上の画素であり、かつ術具の色領域に含まれる画素に対してラベル付けが行われる。
ステップS104において、一定面積以上の各ラベルの周長(l)と外接する矩形の短辺(a)と長辺(b)が計算される。例えば、ステップS103におけるラベル付けは、選択された画素同士が近接しているときには同じラベルが付けられるようにし、ステップS104においては、同一ラベルが付けられている画素が、一定面積以上、例えば、2500画素以上であるか否かが判定される。
一定面積以上であると判定された画素(画素が集合している領域)の周長(l)が計算される。また、周長(l)が計算された領域に外接する矩形の短辺(a)と長辺(b)が計算される。なお、ここでは、矩形の辺を区別するために、短辺と長辺との記載をしたが、計算時に、長辺と短辺が区別(特定)されて計算される必要はない。
ステップS105において、比率が算出され、その比率が所定の範囲内であるか否かが判定される。比率としては以下のratio1とratio2が算出される。
ratio1=max(a,b)/min(a,b)
ratio2=I/(2(a+b))
ratio1は、外接する矩形の短辺(a)と長辺(b)のうちの大きい値と小さい値との比(大きい値を小さい値で除算した値)である。ratio2は、外接する矩形の短辺(a)と長辺(b)を加算した値を二倍し、その値で、周長(l)を除算した値である。
このratio1とratio2が、以下の値の範囲内であるか否かが判定される。
1.24<ratio1 && ratio2<1.35
ratio1とratio2が共に、1.24以上であり、1.35以下であるか否かが判定される。そして、この条件が満たされる領域(画素,その画素に付けられたラベル)は、術具30であると判定される。
ステップS104とステップS105おける処理は小さい領域を処理対象(術具30であるか否かの判定を行う対象)から除外するための処理である。また、例えば照明などによる反射による領域を、術具30であるか否かの判定を行う対象から除外するための処理である。このように、小さい領域や反射による影響がある領域を除外するための処理であれば、上記したステップS104、ステップS105以外の処理が行われるようにしても良い。
また、ステップS104、ステップS105の処理、例えば、数式や数値は一例であり、限定を示す記載ではない。
このような処理が行われることで、例えば、図9Aに示したような画像から、図9Bに示したような画像(認識結果)を生成することができる。すなわち、血などの汚れがある術部30であっても、その形状を正確に検出することが可能となる。
<術具先端の存在確認処理>
次に、図15のフローチャートを参照し、術具30の先端の存在を確認するときの処理について説明する。
ステップS201において、発光マーカ201が点灯される。例えば、術者71が術具30の先端部分が、画像内のどこにあるのかを知りたいときなど、所定の操作、例えば、発光マーカ201を点灯させるためのボタンが操作されることで、発光マーカ201が点灯される。
ステップS202において、各画素の輝度(I)と色度(r、g、b)が計算される。そして、ステップS203において、輝度が一定値以上、かつ色度が術具の色領域に含まれる画素が選択され、選択された画素にラベルが付けられる。このステップS202とステップS203の処理は、図12のステップS101とステップS102の処理と同様に行われる。
ステップS204において、一定面積以上のラベルが術具30と判定される。一定面積以上とは、例えば、500画素以上とされる。
ステップS205において、術具が見つかったか否か、および発光マーカ201の光量が最大光量であるか否かが判定される。ステップS205において、術具30は見つかっていない(検出されていない)と判定された場合、又は、発光マーカ201の光量が最大光量ではないと判定された場合、ステップS206に処理が進められる。
ステップS206において、発光マーカ201の光量が上げられる。発光マーカ201の光量が上げられた後、処理は、ステップS202に戻され、それ以降の処理が繰り返される。
一方、ステップS205において、術具30は見つかった(検出された)と判定された場合、又は、発光マーカ201の光量が最大光量であると判定された場合、ステップS207に処理が進められる。
ステップS207において、発光マーカ201の光量が標準状態に戻される。このようにして、術部30の先端部分の存在確認が行われる。
なおここでは、発光マーカ201の光量を徐々に上げ、術部30の先端部分を検出するようにしたが、発光マーカ201の光量を初めから最大光量として術部30の先端部分を検出するようにしても良い。このようにした場合、ステップS201において最大光量で発光マーカ201が発光される。またステップS205、ステップS206の処理は省略された処理フローとされる。
なお、図15に示したフローチャートにおいては、ステップS204において、一定面積以上のラベルを術具30と判定するという処理で術部30(の先端部分)を検出する場合を例に挙げて説明したが、図12に示したフローチャートにおけるステップS103乃至S105の処理が行われることで、術部30が検出されるようにしても良い。
<汚れ度合いの推測処理>
次に、図16のフローチャートを参照し、術具30の汚れを推測するときの処理について説明する。
ステップS301乃至S304の処理は、基本的に、図15に示したフローチャートのステップS201乃至S204と同様に行うことが可能なため、その説明は省略する。ステップS305において、検出された面積が保持される。ステップS306において、発光マーカ201の光量は最大光量であるか否かが判定される。
ステップS306において、発光マーカ201の光量は最大光量ではないと判定された場合、ステップS307に処理は進められ、発光マーカ201の光量が上げられる。その後、ステップS302に処理が戻され、それ以降の処理が繰り返される。
ステップS302乃至S307の処理が繰り返されることで、発光マーカ201の光量が徐々に上げられ、光量毎に、術具30として判定された領域(検出面積)が保持される。そして、ステップS306において、発光マーカ201の光量は、最大光量であると判定された場合、ステップS308に処理が進められ、発光マーカ201の光量が標準状態に戻される。
ステップS309において、汚れ度合いが算出される。ここで汚れ度合いの算出の仕方について一例を示す。図17は、発光マーカ201の光量と検出面積との関係を示す図である。図17において、横軸は、発光マーカ201の光量の制御値を表し、縦軸は、術具30の検出面積を表している。
術具30に汚れが少ない場合、図17に示したように、発光マーカ201の光量が多くなると、比例して術具30の検出面積が増える。しかしながら、その増加は急激ではない。換言すれば一次関数で近似したとき、その傾きは小さい値となる。
これに対して、術具30に汚れが多い場合、図17に示したように、発光マーカ201の光量がある程度増加したときに、急激に術具30の検出面積が増える。発光マーカ201の光量が小さいときには、汚れによる影響が大きく、術具30が検出されづらい状態であるが、所定の光量以上になると、汚れによる影響が除去され、術具30の検出面積が増加する。
図16に示したフローチャートの処理が実行されることで、発光マーカ201の光量毎の術具30の検出面積が取得することができる。その取得された発光マーカ201の光量毎の術具30の検出面積から、図17に示したようなグラフ(汚れ大のようなグラフ)が得られる。得られたグラフを一次関数に近似し、その傾きを求める。
例えば、図17に示したような汚れ大のときのグラフが得られた場合、点線に示すような一次関数の直線に近似される。点線で示した一次関数は、光量をx、検出面積をy、傾きをa、定数をbとすると、y=ax+bで表される。この傾きaが汚れの度合いaとして用いられる。
すなわち、図17に示したように、汚れが小さいときには、傾きaは小さくなり、汚れが大きいときには、傾きaは大きくなる。よって、傾きaを術具30の汚れの度合いaとして用いることができる。
なお、ここでは、発光マーカ201の光量を徐々に大きくし、複数の光量を設定し、光量毎に、術具30の検出面積を取得し、それらのデータから近似した一次関数を生成し、傾きaを求めるとして説明した。このような方法に限らず、傾きaが求められるようにしても良い。
例えば、発光マーカ201の光量が小さいときの術具30の検出面積と、大きいときの術具30の検出面積の2点から、一次関数が生成され、傾きaが算出されるようにしても良い。
このような汚れ度合いを検出するようにした場合、「術具の色領域」を補正することができる。図15のフローチャートを参照したようにして、術具30の存在が確認され、図16に示したフローチャートを参照して説明したように汚れ度合いが算出され、その汚れ度合いが大きな値となるような場合、汚れの度合いが酷いか、ホワイトバランスが狂っている可能性がある。
そのような状態で、例えば、図16のステップS303で画素を選択するときに参照される色領域である「術具の色領域」を参照して画素を選択した場合、誤った画素を選択してしまう可能性がある。そこで、図18に示すように、「術具の色領域」の赤の色度軸の境界を赤方向に変更することで、適切な状態に調整することができる。
赤の色度軸の境界の変更量は、例えば、C×aとすることができる。ここで、Cは定数であり、aは、汚れの度合いを表す傾きaである。定数Cに傾きa(汚れの度合い)を乗算した値を赤の色度軸の境界の変更量とされ、その変更量分だけ、図18に示すように、赤方向に赤の色度軸の境界がずらされる。このように赤の色度軸の境界が変更されることで、「術具の色領域」を適切な領域に調整することができる。
なお、赤の色度軸の境界の変更量は、上記したように定数と汚れ度合いを乗算した値としても良いが、これは一例であり、他の変更量が算出されるようにしても良い。
<術具の先端位置の推定>
上述したような処理により、術具30の画像内での位置や形状を検出することができる。さらに、ステレオカメラを用いて、術具30の位置を立体的に計測できるようにすることも可能である。図19と図20を参照して、三角測量の原理を用いた、術具30の先端の位置の算出方法について説明する。
いま、撮像部27aと撮像部27bが、図19に示されるように、距離Tの間隔を開けて、横方向に並んで配置されており、撮像部27aと撮像部27bのそれぞれが、実世界上の物体P(例えば、術部30)を撮像しているものとする。
撮像部27aと撮像部27bの垂直方向の位置は同一であり、水平方向の位置だけが異なるので、撮像部27aと撮像部27bにより得られるR画像とL画像の画像内における物体Pの位置は、x座標位置のみが異なることとなる。
そこで、例えば、撮像部27aにより得られるR画像では、R画像内に映る物体Pのx座標がxrであり、撮像部27bにより得られるL画像では、L画像内に映る物体Pのx座標がxlであるとする。
三角測量の原理を用いると、図20に示されるように、R画像中の物体Pのx座標=xrは、撮像部27aの光学中心Orと物体Pとを結んだ直線上の位置に相当する。また、L画像中の物体Pのx座標=xlは、撮像部27bの光学中心Olと物体Pとを結んだ直線上の位置に相当する。
ここで、光学中心Or又はOlから、R画像又はL画像の撮像平面までの距離をf、実世界の物体Pまでの距離(奥行き)をZとすると、視差dは、d=(xl−xr)で表される。
また、T,Z,d,fには、
Figure 2017164007
の関係が成り立つ。
従って、物体Pまでの距離Zは、式(1)を変形して、次式(2)により求めることができる。
Figure 2017164007
このような三角測量の原理が用いられて、例えば、術部画像の奥行き情報(術具30の奥行き情報)を用いて、術部画像内に映された術具30の位置、特に先端部分が検出されるようにしても良い。
例えば、撮像部27aで撮像された画像が、図21Aに示したような画像(R画像)であるとき、上記した処理、例えば、図12に示したフローチャートの処理が実行されることで、図21Cに示したような認識結果が得られる。
同様に、撮像部27bで撮像された画像が、図21Bに示したような画像(L画像)であるとき、上記した処理、例えば、図12に示したフローチャートの処理が実行されることで、図21Dに示したような認識結果が得られる。
図21Cおよび図21Dに示した認識結果が得られると、例えば、術具30と術野との境界部分(エッジ)が検出される。術具30は、基本的に直線的な形状をしているため、直線的なエッジが検出される。検出されたエッジから、撮像画像内における3次元空間上の術具30の位置が推定される。
具体的には、検出された直線的なエッジから、術具30に対応する線分(直線)401が算出される。線分401は、例えば、検出された2本の直線的なエッジの中間線などで求めることができる。図21Cに示した認識結果から線分401cが算出され、図21Dに示した認識結果から線分401dが算出される。
そして、算出された線分401と、術具30として認識されている部分との交点が算出される。図21Cに示した認識結果から交点402cが算出され、図21Dに示した認識結果から交点402dが算出される。このようにして、術具30の先端が検出される。このようにして交点402c、交点dと、上記した三角測量の原理により、術具30の先端の奥行き情報を得ることができ、術具30の3次元的な位置を検出することができる。
このように、ステレオカメラの構成とし、ステレオカメラからの術具30の形状認識結果を用いて、術具30の先端位置が、3次元的に検出されるようにすることも可能である。また、術具30の位置を検出するとき、本技術によれば、術具30が汚れていても精度良く検出することができる。
本技術によれば、術具30の先端の位置を、精度良く検出することが可能となる。また、術具30の先端の位置が検出できることで、術具30の先端から患部までの距離を正確に把握したり、どの程度削ったか、切ったかなどを正確に把握したりすることが可能となる。このような把握は、専用のプローブに持ち替えることなく行うことが可能であるため、手術時間を短くすることが可能となり、患者の負担を減少させることが可能となる。
また、術具30の位置を、術中常に計測することが可能であるため、過剰な切削や、切除を防ぐことが可能となる。
<形状マッチングによる術具の先端位置推定処理>
次に形状マッチングによる術具の先端位置推定処理について、図22のフローチャートを参照して説明する。術具30は、同じ術具30、例えば、鉗子35であっても、モデルにより形状が異なるため、モデルが特定されれば、より詳細に術具30の位置を推定することができる。
ステップS401において、位置推定の処理対象とされている術具30の3次元的な形状モデルが選択される。例えば、術具30の3次元的な形状モデルに関するデータベースが予め用意されており、そのデータベースが参照されることで選択される。
ステップS402において、形状モデルの位置、方向、操作状態を変更し、術具領域認識結果と比較する。上記、例えば、図12を参照して説明した処理が実行されることで、術具30の形状が認識されている。その認識されている形状(術具領域認識結果)と、形状モデルの位置、方向、操作状態を変更し、比較し、比較する毎にマッチング度を算出する処理がステップS402において実行される。
ステップS403において、最も一致する位置、方向、操作状況が選ばれる。例えば、マッチング度が最も高い形状モデルの位置、方向、操作状態が選択される。ここでは、マッチング度を算出し、そのマッチング度が高いものが選択されるとして説明したが、マッチグ度を算出する以外の方法で、術具領域認識結果に合う形状モデルの位置、方向、操作状態が選択されるようにしても良い。
術具領域認識結果に合う形状モデルの位置、方向、操作状態が選択されることで、例えば、術具30が上を向いているのか、下を向いているのか、先端部分は開いているのか、閉じているのかといったようなことまで、精度良く検出することが可能となる。すなわち、術具30の位置、方向、操作状態を、精度良く検出することが可能となる。
本技術によれば、上記したように、術具領域認識結果を、術具30が汚れているような場合であっても、精度良く検出することができるため、そのような術具領域認識結果を用いて検出される術具30の位置、方向、操作状態も、精度良く検出することが可能となる。
本技術によれば、術具30の先端の位置を、精度良く検出することが可能となる。また、術具30の先端の位置が検出できることで、術具30の先端から患部までの距離を正確に把握したり、どの程度削ったか、切ったかなどを正確に把握したりすることが可能となる。このような把握は、専用のプローブに持ち替えることなく行うことが可能であるため、手術時間を短くすることが可能となり、患者の負担を減少させることが可能となる。
また、術具30の位置を、術中常に計測することが可能であるため、過剰な切削や、切除を防ぐことが可能となる。
<術中の処理>
上述した処理は、必要に応じて実行されたり、組み合わせたりして行われようにすることも可能である。ここで、上記した処理を組み合わせて行う場合の一例の流れを、図23のフローチャートを参照して説明する。
ステップS501において、発光マーカ201の発光強度の制御と術具30の先端が画像内に存在するか否かの存在確認が開始される。この処理は、図15に示したフローチャートの処理を実行することで行われる。
ステップS502において、術具30は、画像内に存在しているか否かが判定される。ステップS502において、術具30が、画像内に存在していると判定されるまで、ステップS501とステップS502の処理が繰り返され、術具30が、画像内に存在していると判定されると、ステップS503に処理は進められる。
ステップS503において、発光マーカ201の発光強度の制御と,血による汚れ度合いの推測が行われる。この処理は、図16に示したフローチャートの処理を実行することで行われる。この処理が実行されることで、汚れの度合いa(傾きa)が算出される。
ステップS504において、汚れ度合いaに応じて「術具の色領域」が変更される。この処理は図18を参照して説明したように、汚れの度合いが酷い場合やホワイトバランスが狂っている可能性がある場合に、術部30を検出するために参照される色分布の「術具の色領域」を調整するための処理である。
ステップS505において、術具30の先端の形状が認識される。この処理は、図12に示したフローチャートの処理を実行することで行われる。この処理が実行されることで、画像内で、術具30が存在する領域(術具30の形状、特に先端部分の形状)が確定される。
ステップS506において、術具30の先端の位置が推定される。この処理は、図21を参照して説明したように、ステレオカメラで撮像された画像を用いて3次元的に位置が推定されるようにしても良い。また、図22を参照して説明したように、データベースが参照され、マッチング度が算出されることで、術具30の位置、方向、操作状況までも含めた推定が行われるようにしても良い。また、ステレオカメラで撮像された画像を用いて3次元的な推定と、データベースを用いた推定の両方が組み合わされて行われるようにしても良い。
このような処理が術中、繰り返し行われることで、精度良く、術具30、特に術具30の先端の部分の検出(位置、方向、操作状況などの検出)が行われる。
本技術によれば、術具30の先端の位置を、精度良く検出することが可能となる。また、術具30の先端の位置が検出できることで、術具30の先端から患部までの距離を正確に把握したり、どの程度削ったか、切ったかなどを正確に把握したりすることが可能となる。このような把握は、専用のプローブに持ち替えることなく行うことが可能であるため、手術時間を短くすることが可能となり、患者の負担を減少させることが可能となる。
また、術具30の位置を、術中常に計測することが可能であるため、過剰な切削や、切除を防ぐことが可能となる。
<3次元計測用のアンテナを追加した実施の形態>
上述した実施の形態においては、発光マーカ201を術具30に配置し、術具30の位置測定を行う場合を例に挙げて説明したが、さらに、術具30に発光マーカ201とは異なるマーカを付け、そのマーカを用いて3次元計測が行われ、その計測結果も用いられて、術具30の位置測定が行われるようにしても良い。
図24に、発光マーカ201と他のマーカを付けた術具30の構成を示す。術具30は、先端、又は先端に近い部分に発光マーカ201が配置され、その発光マーカ201が配置されている逆側(端部)に、マーカ501が配置されている。マーカ501は、発光マーカ201と異なり、術部30の先端とは遠い側に配置される。
内視鏡手術システム10(図1)には、マーカ501の位置を検出する位置検出センサ502も含まれる構成とされる。マーカ501は、赤外線などの所定の光や電波を発するタイプであっても良いし、突起などの所定の形状で構成された部分であっても良い。
マーカ501が光や電波など発するタイプで構成されている場合、位置検出センサ502は、その光や電波を受信することで、マーカ501が存在する位置を推定する。またマーカ501が突起や所定の形状で構成されている場合、位置検出センサ502は、その形状を撮像することで、マーカ501が存在する位置を推定する。この推定には、例えば、上記したような三角測量の原理を用いることができる。
マーカ501の位置が推定されることで、術具30の先端部分の位置を推定することができる。例えば、マーカ501が取り付けられている位置から、術具30の先端までの距離は、事前に、術具30の種類などにより取得しておくことができる。よって、マーカ501の位置から、事前に取得されている距離を加算することで、術具30の先端の位置を推定することができる。
さらに本技術によれば、発光マーカ201が、術具30の先端部分(先端付近)に配置され、術具30が汚れているような場合であっても、術具30の形状を検出し、その先端を検出することができる。この発光マーカ201を用いた位置推定と、マーカ501を用いた位置推定を合わせて行うことで、より精度良く推定を行うことが可能となる。
例えば、マーカ501を用いた位置推定で推定された位置を、発光マーカ201を用いた位置推定で推定された位置を用いて補正することで、精度を高めた推定が行えるようにしても良い。
上記した実施の形態においては、内視鏡手術システムを例に挙げて説明したが、本技術は、外科手術システム、顕微鏡下手術システムなどにも適用できる。
また本技術は、手術システムに適用範囲が限定されるわけではなく、他のシステムに対しても適用できる。例えば、所定の色で発光するマーカを撮像し、色分布で画像解析することで、所定の物体の形状や位置を計測するシステムに適用できる。
発光マーカ201が発光する所定の色としては、上記したように、手術システムに適用する場合には、生体細胞が存在しない色領域に存在する色とすることができる。また、他のシステムに適用する場合、位置を推定したい物体(物体Aとする)を、その物体Aの周りに位置する物体Bから抽出する必要があるため、物体Bが存在しない色領域に存在する色が、発光マーカ201が発光する色とされる。
<記録媒体について>
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図25は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。コンピュータにおいて、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、入力部1006、出力部1007、記憶部1008、通信部1009、及びドライブ1010が接続されている。
入力部1006は、キーボード、マウス、マイクロフォンなどよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記憶部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインタフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア1011を駆動する。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
なお、本技術は以下のような構成も取ることができる。
(1)
発光マーカが配置されている物体を撮像する撮像部と、
前記撮像部で撮像された画像を処理する処理部と
を備え、
前記処理部は、
前記画像から、前記発光マーカが発光した色を抽出し、
前記抽出された色が分布する前記画像内の領域を、前記物体が位置する領域として検出する
医療用画像処理装置。
(2)
前記処理部は、
前記画像内の画素毎に色度を算出し、
前記発光マーカの発光色に該当する色度を有している画素を抽出し、
抽出された前記画素を、前記物体が存在する領域として検出する
前記(1)に記載の医療用画像処理装置。
(3)
処理対象とされた第1の画素と、前記第1の画素の近傍に位置する複数の第2の画素のそれぞれの色度のうち、前記発光マーカの発光色に該当する色度が最も高い色度を、前記第1の画素の色度に設定し、
設定後の色度を参照して、前記発光マーカの発光色に該当する色度を有している画素を抽出し、
抽出された前記画素を、前記物体が存在する領域として検出する
前記(2)に記載の医療用画像処理装置。
(4)
処理対象とされた第1の画素と、前記第1の画素の近傍に位置する複数の第2の画素のそれぞれの色度のうち、前記物体を表す色の色度が最も高い色度を、前記第1の画素の色度に設定し、
設定後の色度を参照して、前記物体の色度を有している画素を抽出し、
抽出された前記画素を、前記物体が存在する領域として検出する
前記(2)に記載の医療用画像処理装置。
(5)
前記発光マーカの発光強度と前記物体として検出された面積とから、前記物体の汚れ度合いを算出する
前記(1)乃至(4)のいずれかに記載の医療用画像処理装置。
(6)
前記汚れ度合いにより、前記物体を検出する色領域の調整を行う
前記(5)に記載の医療用画像処理装置。
(7)
所定の間隔を有して配置されている2個の前記撮像部からそれぞれ前記画像を取得し、
取得された2つの画像から、それぞれ前記物体を検出し、
前記検出された物体の先端部分の位置を推定する
前記(1)乃至(6)のいずれかに記載の医療用画像処理装置。
(8)
前記物体の形状に関するデータベースを参照し、検出された前記物体とのマッチングを行うことで、前記物体の位置、方向、または操作状況のいずれかを推定する
前記(1)乃至(7)に記載の医療用画像処理装置。
(9)
前記物体は、術具であり、
前記発光マーカは、生体が色分布として存在しない色分布の領域内の色で発光する
前記(1)乃至(8)のいずれかに記載の医療用画像処理装置。
(10)
前記物体は、術具であり、
前記発光マーカは、生体が付着していないときに前記術具の色として分布する色分布の領域内の色で発光する
前記(1)乃至(9)のいずれかに記載の医療用画像処理装置。
(11)
前記発光マーカは、青または緑で発光する
前記(1)乃至(10)のいずれかに記載の医療用画像処理装置。
(12)
前記物体は、術具であり、
前記発光マーカは、前記術具の先端または先端近傍に配置され、点発光する
前記(1)乃至(12)のいずれかに記載の医療用画像処理装置。
(13)
前記物体は、術具であり、
前記発光マーカは、前記術具の先端または先端近傍に配置され、面発光する
前記(1)乃至(12)のいずれかに記載の医療用画像処理装置。
(14)
前記物体は、術具であり、
前記発光マーカは、スポットライト状に発光し、その発光が前記術具の先端部分に対して照射される位置に配置されている
前記(1)乃至(12)のいずれかに記載の医療用画像処理装置。
(15)
発光マーカが配置されている物体を撮像する撮像部と、
前記撮像部で撮像された前記画像を処理する処理部と
を備える医療用画像処理装置の画像処理方法において、
前記処理は、
前記画像から、前記発光マーカが発光した色を抽出し、
前記抽出された色が分布する前記画像内の領域を、前記物体が位置する領域として検出する
ステップを含む医療用画像処理方法。
(16)
発光マーカが配置されている物体を撮像する撮像部と、
前記撮像部で撮像された前記画像を処理する処理部と
を備える医療用画像処理装置を制御するコンピュータに、
前記画像から、前記発光マーカが発光した色を抽出し、
前記抽出された色が分布する前記画像内の領域を、前記物体が位置する領域として検出する
ステップを含む処理を実行させるためのプログラム。
10 内視鏡手術システム, 27 撮像部, 30 術部, 83 画像処理部, 85 制御部, 201 発光マーカ

Claims (16)

  1. 発光マーカが配置されている物体を撮像する撮像部と、
    前記撮像部で撮像された画像を処理する処理部と
    を備え、
    前記処理部は、
    前記画像から、前記発光マーカが発光した色を抽出し、
    前記抽出された色が分布する前記画像内の領域を、前記物体が位置する領域として検出する
    医療用画像処理装置。
  2. 前記処理部は、
    前記画像内の画素毎に色度を算出し、
    前記発光マーカの発光色に該当する色度を有している画素を抽出し、
    抽出された前記画素を、前記物体が存在する領域として検出する
    請求項1に記載の医療用画像処理装置。
  3. 処理対象とされた第1の画素と、前記第1の画素の近傍に位置する複数の第2の画素のそれぞれの色度のうち、前記発光マーカの発光色に該当する色度が最も高い色度を、前記第1の画素の色度に設定し、
    設定後の色度を参照して、前記発光マーカの発光色に該当する色度を有している画素を抽出し、
    抽出された前記画素を、前記物体が存在する領域として検出する
    請求項2に記載の医療用画像処理装置。
  4. 処理対象とされた第1の画素と、前記第1の画素の近傍に位置する複数の第2の画素のそれぞれの色度のうち、前記物体を表す色の色度が最も高い色度を、前記第1の画素の色度に設定し、
    設定後の色度を参照して、前記物体の色度を有している画素を抽出し、
    抽出された前記画素を、前記物体が存在する領域として検出する
    請求項2に記載の医療用画像処理装置。
  5. 前記発光マーカの発光強度と前記物体として検出された面積とから、前記物体の汚れ度合いを算出する
    請求項1に記載の医療用画像処理装置。
  6. 前記汚れ度合いにより、前記物体を検出する色領域の調整を行う
    請求項5に記載の医療用画像処理装置。
  7. 所定の間隔を有して配置されている2個の前記撮像部からそれぞれ前記画像を取得し、
    取得された2つの画像から、それぞれ前記物体を検出し、
    前記検出された物体の先端部分の位置を推定する
    請求項1に記載の医療用画像処理装置。
  8. 前記物体の形状に関するデータベースを参照し、検出された前記物体とのマッチングを行うことで、前記物体の位置、方向、または操作状況のいずれかを推定する
    請求項1に記載の医療用画像処理装置。
  9. 前記物体は、術具であり、
    前記発光マーカは、生体が色分布として存在しない色分布の領域内の色で発光する
    請求項1に記載の医療用画像処理装置。
  10. 前記物体は、術具であり、
    前記発光マーカは、生体が付着していないときに前記術具の色として分布する色分布の領域内の色で発光する
    請求項1に記載の医療用画像処理装置。
  11. 前記発光マーカは、青または緑で発光する
    請求項1に記載の医療用画像処理装置。
  12. 前記物体は、術具であり、
    前記発光マーカは、前記術具の先端または先端近傍に配置され、点発光する
    請求項1に記載の医療用画像処理装置。
  13. 前記物体は、術具であり、
    前記発光マーカは、前記術具の先端または先端近傍に配置され、面発光する
    請求項1に記載の医療用画像処理装置。
  14. 前記物体は、術具であり、
    前記発光マーカは、スポットライト状に発光し、その発光が前記術具の先端部分に対して照射される位置に配置されている
    請求項1に記載の医療用画像処理装置。
  15. 発光マーカが配置されている物体を撮像する撮像部と、
    前記撮像部で撮像された前記画像を処理する処理部と
    を備える医療用画像処理装置の画像処理方法において、
    前記処理は、
    前記画像から、前記発光マーカが発光した色を抽出し、
    前記抽出された色が分布する前記画像内の領域を、前記物体が位置する領域として検出する
    ステップを含む医療用画像処理方法。
  16. 発光マーカが配置されている物体を撮像する撮像部と、
    前記撮像部で撮像された前記画像を処理する処理部と
    を備える医療用画像処理装置を制御するコンピュータに、
    前記画像から、前記発光マーカが発光した色を抽出し、
    前記抽出された色が分布する前記画像内の領域を、前記物体が位置する領域として検出する
    ステップを含む処理を実行させるためのプログラム。
JP2016049232A 2016-03-14 2016-03-14 医療用画像処理装置、医療用画像処理方法、プログラム Pending JP2017164007A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016049232A JP2017164007A (ja) 2016-03-14 2016-03-14 医療用画像処理装置、医療用画像処理方法、プログラム
US16/080,954 US20190083180A1 (en) 2016-03-14 2017-02-28 Medical image processing apparatus, medical image processing method, and program
PCT/JP2017/007631 WO2017159335A1 (ja) 2016-03-14 2017-02-28 医療用画像処理装置、医療用画像処理方法、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016049232A JP2017164007A (ja) 2016-03-14 2016-03-14 医療用画像処理装置、医療用画像処理方法、プログラム

Publications (1)

Publication Number Publication Date
JP2017164007A true JP2017164007A (ja) 2017-09-21

Family

ID=59852103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016049232A Pending JP2017164007A (ja) 2016-03-14 2016-03-14 医療用画像処理装置、医療用画像処理方法、プログラム

Country Status (3)

Country Link
US (1) US20190083180A1 (ja)
JP (1) JP2017164007A (ja)
WO (1) WO2017159335A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6487522B1 (ja) * 2017-08-21 2019-03-20 上銀科技股▲フン▼有限公司 医療器具及び内視鏡操縦システム
WO2019225231A1 (ja) 2018-05-22 2019-11-28 ソニー株式会社 手術用情報処理装置、情報処理方法及びプログラム
WO2020031380A1 (ja) * 2018-08-10 2020-02-13 オリンパス株式会社 画像処理方法および画像処理装置
WO2022254836A1 (ja) * 2021-06-03 2022-12-08 ソニーグループ株式会社 情報処理装置、情報処理システム及び情報処理方法
US11544563B2 (en) 2017-12-19 2023-01-03 Olympus Corporation Data processing method and data processing device
US12026935B2 (en) 2022-01-05 2024-07-02 Olympus Corporation Image processing method, training device, and image processing device

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017212811A1 (ja) * 2016-06-06 2017-12-14 オリンパス株式会社 内視鏡装置
US11839433B2 (en) 2016-09-22 2023-12-12 Medtronic Navigation, Inc. System for guided procedures
US20200163538A1 (en) * 2017-05-17 2020-05-28 Sony Corporation Image acquisition system, control apparatus, and image acquisition method
US20190175059A1 (en) * 2017-12-07 2019-06-13 Medtronic Xomed, Inc. System and Method for Assisting Visualization During a Procedure
JP2019106944A (ja) * 2017-12-19 2019-07-04 オリンパス株式会社 観察装置及びそれを用いた観察方法
AU2019234203B2 (en) * 2018-03-14 2023-11-23 Atlas Pacific Engineering Company Produce orientor

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080039715A1 (en) * 2004-11-04 2008-02-14 Wilson David F Three-dimensional optical guidance for catheter placement
JP2007029416A (ja) * 2005-07-27 2007-02-08 Yamaguchi Univ 体内部位位置検出システム
CA2713113A1 (en) * 2008-01-24 2009-07-30 Lifeguard Surgical Systems Common bile duct surgical imaging system
JP5988907B2 (ja) * 2013-03-27 2016-09-07 オリンパス株式会社 内視鏡システム
JP6323184B2 (ja) * 2014-06-04 2018-05-16 ソニー株式会社 画像処理装置、画像処理方法、並びにプログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6487522B1 (ja) * 2017-08-21 2019-03-20 上銀科技股▲フン▼有限公司 医療器具及び内視鏡操縦システム
JP2019107260A (ja) * 2017-08-21 2019-07-04 上銀科技股▲フン▼有限公司 医療器具及び内視鏡操縦システム
US11544563B2 (en) 2017-12-19 2023-01-03 Olympus Corporation Data processing method and data processing device
WO2019225231A1 (ja) 2018-05-22 2019-11-28 ソニー株式会社 手術用情報処理装置、情報処理方法及びプログラム
WO2020031380A1 (ja) * 2018-08-10 2020-02-13 オリンパス株式会社 画像処理方法および画像処理装置
JPWO2020031380A1 (ja) * 2018-08-10 2021-03-18 オリンパス株式会社 画像処理方法および画像処理装置
WO2022254836A1 (ja) * 2021-06-03 2022-12-08 ソニーグループ株式会社 情報処理装置、情報処理システム及び情報処理方法
US12026935B2 (en) 2022-01-05 2024-07-02 Olympus Corporation Image processing method, training device, and image processing device

Also Published As

Publication number Publication date
US20190083180A1 (en) 2019-03-21
WO2017159335A1 (ja) 2017-09-21

Similar Documents

Publication Publication Date Title
WO2017159335A1 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
JP7074065B2 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
CN110099599B (zh) 医学图像处理设备、医学图像处理方法和程序
WO2018012080A1 (ja) 画像処理装置、画像処理方法、プログラム及び手術用ナビゲーションシステム
JP2019042519A (ja) プロジェクションマッピング装置
WO2018168261A1 (ja) 制御装置、制御方法、及びプログラム
JP7286948B2 (ja) 医療用観察システム、信号処理装置及び医療用観察方法
US20210345856A1 (en) Medical observation system, medical observation apparatus, and medical observation method
WO2019092950A1 (ja) 画像処理装置、画像処理方法および画像処理システム
JPWO2019239942A1 (ja) 手術用観察装置、手術用観察方法、手術用光源装置、及び手術用の光照射方法
US20220400938A1 (en) Medical observation system, control device, and control method
WO2020075773A1 (en) A system, method and computer program for verifying features of a scene
US20230047294A1 (en) Medical image generation apparatus, medical image generation method, and medical image generation program
WO2020009127A1 (ja) 医療用観察システム、医療用観察装置、及び医療用観察装置の駆動方法
JPWO2020116067A1 (ja) 医療システム、情報処理装置及び情報処理方法
JPWO2020045014A1 (ja) 医療システム、情報処理装置及び情報処理方法
JP2020163037A (ja) 医療システム、情報処理装置及び情報処理方法
US20230293258A1 (en) Medical arm control system, medical arm control method, and program
JP7456385B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP7480779B2 (ja) 医療用画像処理装置、医療用画像処理装置の駆動方法、医療用撮像システム、及び医療用信号取得システム
US20240164706A1 (en) In-vivo observation system, observation system, in-vivo observation method, and in-vivo observation device
WO2022172733A1 (ja) 医療用観察装置、観察装置、観察方法及びアダプタ
WO2018220930A1 (ja) 画像処理装置
JP2020151404A (ja) 医療用画像処理装置、医療用観察装置、医療用観察システム、医療用画像処理装置の作動方法および医療用画像処理プログラム