JP5771598B2 - 内視鏡装置 - Google Patents

内視鏡装置 Download PDF

Info

Publication number
JP5771598B2
JP5771598B2 JP2012506883A JP2012506883A JP5771598B2 JP 5771598 B2 JP5771598 B2 JP 5771598B2 JP 2012506883 A JP2012506883 A JP 2012506883A JP 2012506883 A JP2012506883 A JP 2012506883A JP 5771598 B2 JP5771598 B2 JP 5771598B2
Authority
JP
Japan
Prior art keywords
image
unit
forceps
region
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012506883A
Other languages
English (en)
Other versions
JPWO2011118287A1 (ja
Inventor
裕美 志田
裕美 志田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2012506883A priority Critical patent/JP5771598B2/ja
Publication of JPWO2011118287A1 publication Critical patent/JPWO2011118287A1/ja
Application granted granted Critical
Publication of JP5771598B2 publication Critical patent/JP5771598B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/012Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
    • A61B1/018Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor for receiving instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/06Biopsy forceps, e.g. with cup-shaped jaws
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/28Surgical forceps
    • A61B17/29Forceps for use in minimally invasive surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、内視鏡装置に関するものである。
従来、体腔内に挿入される挿入部に、体腔内の画像を取得する対物光学系と鉗子等の処置具とを備えた内視鏡装置が知られている(例えば、特許文献1参照)。このような内視鏡装置によれば、対物光学系により取得した体腔内の画像を見ながら、処置具により病変部の処置を行うことができるようになっている。
特開2002−34904号公報
しかしながら、特許文献1に開示されている内視鏡装置によれば、対物光学系に対して処置具の裏側の領域では、処置具が邪魔になって体腔内の組織を観察することができず、病変部の処置作業に支障をきたすという不都合がある。
本発明は、上述した事情に鑑みてなされたものであって、処置具の裏側の領域についても体腔内の組織を観察しながら、処置具により病変部の処置を行うことができる内視鏡装置を提供することを目的とする。
上記目的を達成するために、本発明は以下の手段を採用する。
本発明は、被検体の画像を取得する画像取得部と、該画像取得部により取得された現在画像を保存する画像保存部と、前記画像取得部により取得された現在画像から、処置具が存在する処置具領域を抽出する処置具領域抽出部と、前記画像保存部に保存された保存画像と前記画像取得部により取得された現在画像との位置合わせを行う画像位置合わせ部と、前記画像保存部に保存された保存画像から、前記処置具領域に対応する領域を抽出する処置具対応領域抽出部と、該処置具対応領域抽出部により抽出された領域の画像と前記画像取得部により取得された現在画像とを合成する画像合成部とを備える内視鏡装置を採用する。
本発明によれば、画像取得部により被検体の画像が取得され、取得された画像は画像保存部に保存される。一方、処置具領域抽出部により、画像取得部で取得された現在画像から、処置具(例えば生検用の鉗子等)が存在する処置具領域が抽出される。そして、画像位置合わせ部により、画像保存部に保存された保存画像と画像取得部により取得された現在画像との位置合わせが行われ、処置具対応領域抽出部により、画像保存部に保存された保存画像から処置具領域に対応する領域が抽出される。このように抽出された処置具領域に対応する領域の画像と、画像取得部により取得された現在画像とが、画像合成部により合成される。
このようにすることで、生検対象の部位が処置具の裏側に隠れてしまう場合にも、画像保存部に予め保存しておいた保存画像から、処置具の裏側に隠れてしまう部分の生体領域(処置具領域に対応する領域)の情報を抽出して、画像取得部により取得された現在画像に合成して表示することができる。これにより、処置具の裏側に隠れてしまう部分についても、生検対象部位と処置具との位置関係を画像内で目視することができ、正確に生検を行うことができる。
上記発明において、前記画像取得部により取得された現在画像から、前記処置具領域抽出部により抽出された処置具領域を除去した画像を生成する画像処理部を備え、前記画像合成部が、前記処置具対応領域抽出部により抽出された領域の画像と前記画像処理部により生成された画像とを合成することとしてもよい。
このようにすることで、画像処理部により、現在画像から処置具領域を除去した画像、すなわち処置具の領域が除去された生体部分のみの現在画像が生成される。そして、画像合成部により、処置具対応領域抽出部により抽出された画像と、画像処理部により生成された画像とが合成される。これにより、完全に処置具の領域が除去された合成画像を生成することができ、生検対象部位の観察精度を向上することができる。
上記発明において、前記画像合成部が、合成した画像に前記処置具領域の位置情報を重畳することとしてもよい。
このようにすることで、合成した画像に処置具領域の位置情報を重ねて表示することができ、処置具の位置および2つの画像が合成された領域の位置を、ユーザが容易に把握することができる。
上記発明において、前記画像合成部が、前記処置具領域の位置情報として処置具の輪郭を重畳することとしてもよい。
このようにすることで、処置具の裏側の生体部分をユーザが目視で把握できるとともに、合成された画像に処置具の位置が輪郭で表示されるので、生検対象部位と処置具との位置関係を容易に把握することができる。
上記発明において、前記画像合成部が、前記処置具領域の位置情報として処置具を半透明化して重畳することとしてもよい。
このようにすることで、処置具の裏側の生体部分をユーザが目視で把握できるとともに、合成された画像に処置具の位置を半透明化して表示することができる。これにより、処置具の形状など立体的な情報も表示することができ、処置具の位置や向きが把握しやすく、生検をより正確に行うことができる。
上記発明において、前記現在画像および前記保存画像の特徴点を検出する特徴点検出部を備え、前記画像位置合わせ部が、前記特徴点検出部により検出された特徴点を用いて前記現在画像と前記保存画像との位置合わせを行うこととしてもよい。
このようにすることで、特徴点検出部により、例えば、現在画像および保存画像における共通の特徴点を検出し、画像位置合わせ部により、これら特徴点の位置を合わせるように、現在画像と保存画像との位置合わせを行うことができる。これにより、現在画像と保存画像との位置合わせの精度を向上させることができる。
上記発明において、前記現在画像において処置具の有無を検出する処置具検出部を備え、前記処置具領域抽出部が、前記処置具検出部が処置具を検出した場合に、前記現在画像から前記処置具領域を抽出することとしてもよい。
このようにすることで、処置具検出部が処置具を検出した場合に、処置具領域抽出部により、画像取得部により取得された現在画像から処置具領域が抽出される。これにより、処置具が検出されない場合において、処置具対応領域抽出部や画像合成部による処理を停止させることができ、装置全体としての処理量を低減して、スムーズな内視鏡観察を行うことができる。
上記発明において、前記処置具検出部が、前記現在画像内の色情報から処置具を検出することとしてもよい。
処置具と生体組織とは色が異なるので、色の違いを利用して処置具が画像内に入ってきたかを検出することができる。これにより、画像内の色の分布を検出するだけで、処置具の有無を容易に検出することができる。
上記発明において、前記現在画像において処置具の位置を検出する処置具位置検出部と、該処置具位置検出部により検出された処置具の位置に基づいて、処理具の移動量を算出する移動量算出部とを備え、前記画像保存部が、前記移動量算出部により算出された移動量が所定距離以上の場合に、保存する画像を更新することとしてもよい。
このようにすることで、処置具が移動して今まで隠れていた場所の画像が取得できるようになった場合に、隠れていた場所の新しい画像を画像取得部により取得して、その画像を画像保存部に保存することができる。これにより、合成に用いられる保存画像を常に更新することができ、できるだけ時間差の少ない画像を用いて処置具に隠れた場所の生体情報を表示することができる。
上記発明において、前記画像保存部が、所定周期毎に保存する画像を更新することとしてもよい。
このようにすることで、合成に用いられる保存画像を所定周期毎に更新することができ、できるだけ時間差の少ない画像を用いて処置具に隠れた場所の生体情報を表示することができる。また、処置具の位置を検出する必要がないので、装置全体としての処理量を低減して、スムーズな内視鏡観察を行うことができる。
上記発明において、前記現在画像および前記保存画像を複数の領域に分割する領域分割部と、前記現在画像および前記保存画像について、前記領域分割部により分割された領域の階調値のヒストグラムを算出する階調値解析部と、該階調値解析部により算出された前記現在画像のヒストグラムを、前記保存画像のヒストグラムと重なる領域が増加する方向に、各領域の階調値を調整する階調値調整部とを備えることとしてもよい。
このようにすることで、画像取得部により取得された現在画像のヒストグラムを、画像保存部に保存された保存画像のヒストグラムに近づけることができる。これにより、現在画像において、処置具の陰によって暗くなった領域や、処置具からの反射光により明るくなった領域の階調値を補正することができる。これにより、処置具の位置による照明条件の変化を抑えて、均一な条件での画像を表示することができる。
上記発明において、前記現在画像および前記保存画像を複数の領域に分割する領域分割部と、前記現在画像および前記保存画像について、前記領域分割部により分割された領域の階調値を検出する階調値検出部とを備え、前記画像合成部が、前記現在画像において階調値が飽和した飽和領域が存在する場合に、該飽和領域の画像を前記保存画像に置き換えることとしてもよい。
このようにすることで、画像取得部により取得された現在画像において、サチレーション(飽和)が起こっている飽和領域については、画像保存部に保存された保存画像に置き換えて表示を行うことができる。これにより、飽和により形態情報が失われている領域でも、画像の入れ替えにより形態情報が取得できるので、照明条件にかかわらず、生体の状態を把握することができる。
上記発明において、前記現在画像の特徴点を検出する特徴点検出部と、該特徴点検出部により検出された特徴点を、前記画像保存部に保存された複数の保存画像から検索する特徴点検索部とを備え、前記処置具対応領域抽出部が、前記特徴点検索部により特徴点が検索された保存画像から、前記処置具領域に対応する領域を抽出することとしてもよい。
このようにすることで、現在画像の特徴点が画像保存部に保存された最新の保存画像の中に見つからない場合にも、保存された複数の保存画像の中から特徴点のある保存画像を探して、この保存画像から処置具領域を抽出して現在画像に合成することができる。これにより、内視鏡先端部が大きく動いて画像が大きく変化した場合や、画角が変わった場合でも、処置具領域の生体情報の表示が可能となる。
上記発明において、前記処置具対応領域抽出部が、前記保存画像を拡大または縮小し、拡大または縮小された保存画像から前記処置具領域に対応する領域を抽出することとしてもよい。
このようにすることで、保存画像の大きさが現在画像の大きさと異なる場合にも、保存画像を拡大または縮小して処置具領域に対応する領域を抽出し、画像取得部により取得された現在画像と合成することができる。
上記発明において、前記現在画像および前記保存画像の特徴点を複数検出する特徴点検出部と、前記現在画像および前記保存画像における、前記特徴点検出部により検出された複数の特徴点間の距離から、前記現在画像に対する前記保存画像の拡大率を設定する拡大率設定部とを備え、前記処置具対応領域抽出部が、前記拡大率設定部により設定された拡大率で前記保存画像を拡大または縮小することとしてもよい。
このようにすることで、現在画像における複数の特徴点間の距離と、保存画像において対応する複数の特徴点間の距離とを比較することで、現在画像に対する保存画像の拡大率を設定することができる。これにより、保存画像の大きさが現在画像の大きさと異なる場合にも、設定された拡大率で保存画像を拡大または縮小して処置具領域に対応する領域を抽出し、画像取得部により取得された現在画像と合成することができる。
本発明によれば、処置具の裏側の領域についても体腔内の組織を観察しながら、処置具により病変部の処置を行うことができるという効果を奏する。
本発明の各実施形態に係る内視鏡装置の全体構成図である。 本発明の第1の実施形態に係る内視鏡装置の機能ブロック図である。 図2の内視鏡装置により実行される各処理における画像例を示す図であり、図3(a)は鉗子挿入前のリアルタイム画像、図3(b)は鉗子挿入後のリアルタイム画像、図3(c)は画像保存メモリ部32に保存された鉗子挿入前の画像、図3(d)は保存画像から鉗子領域に対応する部分を切り取った画像、図3(e)は図3(b)の画像と図3(d)の切り取った画像とを合成した画像を示している。 図2の内視鏡装置により実行される処理を示すフローチャートである。 本発明の第2の実施形態に係る内視鏡装置の機能ブロック図である。 図5の内視鏡装置により実行される各処理における画像例を示す図であり、図6(a)は鉗子挿入前のリアルタイム画像、図6(b)は鉗子挿入後のリアルタイム画像、図6(c)はリアルタイム画像の鉗子領域に保存画像が合成された画像、図6(d)および図6(e)は図6(c)の画像において鉗子が移動した際の画像を示している。 図5の内視鏡装置により実行される処理を示すフローチャートである。 本発明の第3の実施形態に係る内視鏡装置の機能ブロック図である。 保存画像を複数の領域に分割した状態を示す画像例である。 リアルタイム画像を複数の領域に分割した状態を示す画像例である。 リアルタイム画像と保存画像の階調値のヒストグラムである。 図8の内視鏡装置により実行される処理を示すフローチャートである。 本発明の第4の実施形態に係る内視鏡装置の機能ブロック図である。 図13の内視鏡装置により実行される各処理における画像例を示す図であり、図14(a)は鉗子挿入前のリアルタイム画像、図14(b)は鉗子挿入後のリアルタイム画像、図14(c)は撮影位置が変化した際のリアルタイム画像、図14(d)は特徴点の位置検出方法を説明するための画像例、図14(e)は保存画像の拡大/縮小処理を説明するための画像例である。 図13の内視鏡装置により実行される処理を示すフローチャートである。 図13の内視鏡装置により実行される処理を示すフローチャートである。
[第1の実施形態]
本発明の第1の実施形態に係る内視鏡装置1について図面を参照して以下に説明する。
図1に示すように、本実施形態に係る内視鏡装置1は、被検体の画像を取得する内視鏡10と、内視鏡10に照明光を射出する光源装置20と、内視鏡10により取得された画像を処理するコントロールユニット30と、コントロールユニット30により処理された画像を表示するモニタ25とを備えている。
内視鏡10は、体腔内に挿入される細長い挿入部11と、挿入部11の基端側に設けられた把持部12と、挿入部11と把持部12との間に設けられ、鉗子13等の処置具が挿入される鉗子口14とを備えている。
内視鏡10(把持部12の基端部)と光源装置20とは、光源装置20からの照明光を導くライトガイドケーブル15により接続されている。
内視鏡10(把持部12の基端部)とコントロールユニット30とは、ライトガイドケーブル15を介して、内視鏡10により取得された画像データを伝送する画像伝送ケーブル16により接続されている。
ライトガイドケーブル15と画像伝送ケーブル16とは、電気コネクタ17を介して接続されている。
画像伝送ケーブル16とコントロールユニット30とは、接続コネクタ18を介して接続されている。
コントロールユニット30とモニタ25とは、コントロールユニット30により処理された画像データを伝送するモニタケーブル19により接続されている。
このように構成することで、光源装置20から射出された照明光が、ライトガイドケーブル15により導光され、内視鏡10の先端から体腔内の被検体に照射される。そして、被検体の画像が内視鏡10により取得され、その画像データが画像伝送ケーブル16によりコントロールユニット30に送られる。送られてきた画像データは、コントロールユニット30内で画像処理が施された後、モニタケーブル19によってモニタ25に伝送され、モニタ画面上に表示される。
次に、図2を用いて本実施形態の内視鏡装置1の詳細な構成について説明する。
図2に示すように、光源装置20の内部には、キセノンランプ(Xeランプ)21と、リレーレンズ22とが設置されている。Xeランプ21から発せられた光は、リレーレンズ22を介して内視鏡10内のライトガイドケーブル15により導光され、内視鏡10の先端部に配置された照明光学系23によって被検体Aへ照射される。これにより生じた被検体Aからの反射光は、内視鏡10の先端部に配置された撮像光学系24に入射する。
撮像光学系24に入射した反射光は、リレーレンズ26を介して、撮像光学系24の後段に設置されたカラーCCD27によって検出され、画像データに変換される。カラーCCD27によって変換された画像データは、画像伝送ケーブル16によってコントロールユニット30内の画像生成部31に送られる。
コントロールユニット30は、図2に示すように、画像生成部(画像取得部)31と、画像保存メモリ部(画像保存部)32と、鉗子検出部(処置具検出部)33と、画像内特徴マーカー認識部(特徴点検出部)34と、画像位置合わせ部35と、鉗子領域抽出部(処置具領域抽出部、処置具対応領域抽出部)36と、鉗子領域画像処理部(画像処理部)37と、画像合成部38とを機能として備えている。
画像生成部31は、カラーCCD27によって変換された画像データから、被検体Aの画像を生成するようになっている。画像生成部31で生成された画像は、画像保存メモリ部32と鉗子検出部33に送られる。
画像保存メモリ部32は、送られてきた画像を順次保存するようになっている。画像保存メモリ部32には、数秒前から現在に至るまでのある程度の長さ、例えば5秒程度の画像が保存される。後述するように、本実施形態の内視鏡装置1は、この画像保存メモリ部32に保存された保存画像から、鉗子13が検出される前の画像を取得し、鉗子13を検出した後には、鉗子部分に対応する保存画像の一部をはめ込むことで、鉗子裏の生体情報を表示するようになっている。
鉗子検出部33では、送られてきた画像を基に、画像内に鉗子13が存在するかどうかを色認識などで判断する。ここで、内視鏡装置の観察画面は、生体を観察するため、通常は赤系統の色で構成されているのに対し、鉗子13は銀色や白色である。したがって、通常は赤系統である観察画面内に鉗子13が存在すると、鉗子13は銀色や白色といった生体とは異なる色を有するため、鉗子13の存在を色によって検出することができる。
鉗子検出部33は、鉗子13が画像内に存在しないと判断した場合には、画像生成部31により生成された画像をモニタ25にそのまま送り、モニタ25にはリアルタイム画像(現在画像)を表示するとともに、画像保存メモリ部32に順次新しい画像を保存していく。
一方、鉗子検出部33は、画像内に鉗子13が存在すると判断した場合には、画像保存メモリ部32への新しい画像の書き込みを停止するとともに、画像保存メモリ部32へ鉗子13が認識される直前の画像を保持する指示を出力する。この場合、画像保存メモリ部32で保持された保存画像は、画像保存メモリ部32から画像内特徴マーカー認識部34へ送られる。また、鉗子検出部33は、そのときのリアルタイム画像を画像内特徴マーカー認識部34へ送る。
画像内特徴マーカー認識部34では、リアルタイム画像と保存画像に関して、画像内で特徴的なマーカーとなる部分を、例えば、それぞれの画像で周辺より輝度が高い点や、色が異なる点などを選択することで決定するようになっている。
具体的な特徴点の決定方法として、図3(a)〜図3(e)に示す例を用いて説明する。図3(a)は鉗子挿入前のリアルタイム画像、図3(b)は鉗子挿入後のリアルタイム画像、図3(c)は画像保存メモリ部32に保存された鉗子挿入前の画像、図3(d)は保存画像から鉗子領域に対応する部分を切り取った画像、図3(e)は図3(b)の画像と図3(d)の切り取った画像とを合成した画像を示している。
図3(b)に示すリアルタイム画像および図3(c)に示す保存画像において、×印51,52が、特徴点とした特徴マーカー部分である。このようにして特徴マーカーが決定されたリアルタイム画像と保存画像は、画像内特徴マーカー認識部34から画像位置合わせ部35に送られる。
画像位置合わせ部35では、特徴マーカーの情報をもとに、リアルタイム画像と保存画像との位置合わせを行う。図3(a)〜図3(e)に示す例では、リアルタイム画像と保存画像にそれぞれ×印51,52を付け、これら×印51,52の位置が一致するように、リアルタイム画像と保存画像との位置合わせを行う。
なお、ここでは、説明を簡単にするために、画面が平行移動した場合を想定して書いているが、例えば、保存画像とリアルタイム画像が回転してしまっている場合には、位置合わせのために特徴点を2点設定して、その2点の位置を一致させることで位置合わせを行えばよい。
画像位置合わせ部35により位置合わせされたリアルタイム画像と保存画像は、鉗子領域抽出部36に送られる。
鉗子領域抽出部36は、リアルタイム画像について、鉗子検出部33と同様に、色の違いを利用して鉗子13の輪郭を抽出する。つまり、鉗子領域抽出部36は、鉗子13と生体の色の違いから、鉗子13と生体部分の境界を判別することで鉗子領域(処置具領域)の輪郭抽出を行う。
また、鉗子領域抽出部36は、抽出したリアルタイム画像における鉗子領域の情報を基に、保存画像における鉗子領域に対応する部分を抽出しておく。これは後で、リアルタイム画像の鉗子13に対応する画像領域を保存画像から切り取るための準備である。
鉗子領域画像処理部37では、鉗子領域抽出部36から送られてきた画像と鉗子領域の情報を基に、画像の切り抜き作業が行われる。リアルタイム画像に関しては、図3(e)に示すように、鉗子輪郭内の画像を切り取ることで、生体部分のみを残す。ここで、切り取られた鉗子13の画像は、生体の画像を見えなくしてしまっている生体情報を隠すものなので使用しない。
保存画像に関しては、図3(d)に示すように、鉗子領域抽出部36により抽出された、リアルタイム画像の鉗子領域に対応する部分を切り取る。すなわち、保存画像からは、リアルタイム画像で鉗子13の裏になって見えなかった部分が取り出されたことになる。このように生成された、鉗子13を取り除いたリアルタイム画像と、鉗子13の裏になって見えなかった部分に対応する領域を切り出した保存画像は、画像合成部38に送られる。
画像合成部38では、図3(e)に示すように、鉗子領域画像処理部37から送られてきた2つの画像を合成することで、リアルタイム画像と保存画像との画像合成を行う。このように、リアルタイム画像から鉗子13を取り除いた部分に、鉗子13の裏になって見えなかった生体情報を保存画像から取り出してはめ込むことで、鉗子13の裏が見える合成画像が作成される。また、画像合成部38は、2つの画像が合成された境界部分を、鉗子13の輪郭として、輪郭表示も行う。なお、輪郭表示は鉗子13の輪郭部分を数ピクセル残すことで表示しても良い。
上記のように合成された画像をモニタ25に送ることで、鉗子領域を示す輪郭の内部に生体の画像がはめ込まれた合成画像がモニタ画面上に表示される。
なお、本実施形態では、位置合わせをした後に画像の処理を行って鉗子裏の表示を行っているが、鉗子裏の生体情報を最終的に表示できれば良い。したがって、例えば、鉗子領域を抽出し、画像を処理した後にリアルタイム画像と保存画像との位置合わせを行うという順番でも良い。
上記構成を有する内視鏡装置1の作用について、図4に示すフローチャートに従って説明する。図4は、本実施形態の内視鏡装置1を用いて、内視鏡の観察から患部を発見し、生検までを行うまでの過程を示すフローチャートである。
まず、本実施形態の内視鏡装置1を使用して観察を始めると、被検体Aにレーザ光源20から照明光が照射され、被検体Aからの反射光がカラーCCD27により検出されて画像データに変換される。この画像データに基づいて画像生成部31により画像が生成され、生成された被検体Aの画像がモニタ25に表示される(ステップS1)。
モニタ25上には画像が、図3(a)のように表示され、術者はその画像を観察して生検する目的部を探していく。このとき、観察しているときから、例えば5秒前までの画像が画像保存メモリ部32に常に保存される(ステップS2)。
この状態において、鉗子検出部33により画像内に鉗子13が存在するか否かが判断される(ステップS3)。
ステップS3において鉗子13が画像内にない場合には、リアルタイム画像がモニタ25にそのまま表示される(ステップS10)。
リアルタイム画像において、観察視野内に生検目的部が見つかった場合には、内視鏡10の鉗子口14から鉗子13を挿入し、挿入部11の先端部まで鉗子13を挿通させる。これにより、図3(b)に示すように、観察視野内に鉗子13が現れる。鉗子検出部33は、観察視野における鉗子13の有無を画像内の色の変化などで認識する。
ステップS3において鉗子13が画像内にある場合には、鉗子13が現れる直前の保存画像が、画像保存メモリ部32から読み出される(ステップS4)。
次に、画像内特徴マーカー認識部34により、読み出された保存画像およびリアルタイム画像において、周辺より輝度が高い点や、色が異なる点などを利用して特徴マーカーが設定される(ステップS5)。
次に、画像位置合わせ部35により、設定された特徴マーカーを基に、保存画像とリアルタイム画像との位置合わせが行われる(ステップS6)。
次に、鉗子領域抽出部36により、リアルタイム画像において、鉗子13と生体の色の違いから、鉗子13の輪郭および鉗子領域が抽出される(ステップS7)。この鉗子領域は、保存画像から切り抜き作業を行うときにも使用される。
次に、鉗子領域画像処理部37により、リアルタイム画像から鉗子領域が切り抜かれて残りの生体部分を残すとともに、保存画像からは鉗子領域に対応する部分が切り取られる(ステップS8)。そして、画像合成部38により、保存画像から切り取った生体情報が、リアルタイム画像の生体情報を残した画像にはめ込まれる。この際、2つの画像を合成した境界部分は鉗子13の輪郭になるので、輪郭表示も行われる。
次に、画像の表示をリアルタイム表示から画像の重ね合わせモードに切り替える(ステップS9)。画像の重ね合わせモードに切り替わると、図3(e)に示すように、鉗子13が輪郭表示に切り替わり、鉗子13に隠れている部分が見えるようになる。これにより、術者は鉗子13に隠れていた部分が見えるようになった画面を見ながら生検目的部に向かって鉗子13を進め、生検を行うことができる。
なお、生検が終了した場合には、画面から鉗子13が見えなくなるので、鉗子13がなくなったことを認識し、画面表示を画像の重ね合わせモードからリアルタイム表示に切り替える。
以上のように、本実施形態に係る内視鏡装置1によれば、生検対象の部位が鉗子13の裏側に隠れてしまう場合にも、画像保存メモリ部32に予め保存しておいた保存画像から、鉗子13の裏側に隠れてしまう部分の生体領域(鉗子領域に対応する領域)の情報を抽出して、リアルタイム画像に合成して表示することができる。これにより、鉗子13の裏側に隠れてしまう部分についても、生検対象部位と鉗子13との位置関係を画像内で目視することができ、正確に生検を行うことができる。
また、鉗子領域画像処理部37により、リアルタイム画像から鉗子領域を除去した画像、すなわち鉗子13の領域が除去された生体部分のみのリアルタイム画像が生成される。そして、画像合成部38により、鉗子領域抽出部36により抽出された画像と、鉗子領域画像処理部37により生成された画像とが合成される。これにより、完全に鉗子13の領域が除去された合成画像を生成することができ、生検対象部位の観察精度を向上することができる。
また、画像合成部38が、鉗子領域の位置情報として鉗子13の輪郭を重畳することで、鉗子13の裏側の生体部分をユーザが目視で把握できるとともに、合成された画像に鉗子13の位置が輪郭で表示されるので、生検対象部位と鉗子との位置関係を容易に把握することができる。
また、画像内特徴マーカー認識部34により、例えばリアルタイム画像および保存画像における共通の特徴点を検出し、画像位置合わせ部35により、これら特徴点を用いてリアルタイム画像と保存画像との位置合わせを行うことで、リアルタイム画像と保存画像との位置合わせの精度を向上させることができる。
また、鉗子領域抽出部36が、鉗子検出部33が鉗子13を検出した場合に、リアルタイム画像から鉗子領域を抽出することで、鉗子13が検出されない場合において、鉗子領域抽出部36や画像合成部38による処理を停止させることができ、装置全体としての処理量を低減して、スムーズな内視鏡観察を行うことができる。
また、鉗子13と生体組織とは色が異なるので、鉗子検出部33が、リアルタイム画像内の色情報から鉗子13を検出することで、この色の違いを利用して鉗子13が画像内に入ってきたかを検出することができる。これにより、画像内の色の分布を検出するだけで、鉗子13の有無を容易に検出することができる。
[第2の実施形態]
次に、本発明の第2の実施形態に係る内視鏡装置2について、図5から図7を用いて説明する。
図5は実施形態に係る内視鏡装置2の機能ブロック図であり、コントロールユニット30内の処理以外は第1の実施形態に係る内視鏡装置1と同様の構成である。
第2の実施形態に係る内視鏡装置2は、観察画像を生成するところまでは、前述の第1の実施形態に係る内視鏡装置1と同様である。
ここで、第1の実施形態に係る内視鏡装置1では、合成画像を作成するために使用する保存画像を決定して保持したら、その後のリアルタイム画像の鉗子領域は、その保持した保存画像を使用して作成される。そのため、鉗子13が画像内に出現している時間が長くなるほど、保持した保存画像の情報はリアルタイム画像よりも時間的に古いものになってしまう。そこで、鉗子13の有無に関わらず、照明影響により生体部の見え方が変化した場合や、患部の状態が刻々と変わる場合には、保持した保存画像が古い情報のため、現在見ているリアルタイムの画像との不一致が生じる。この場合には、違いが大きくなった2つの画像を合成することとなるため、不自然でみづらい画像を表示することとなる。
そこで、本実施形態に係る内視鏡装置2では、保存画像を逐次更新することで、保存画像とリアルタイム画像の時間差をできる限り少なくし、違和感を無くした最新の画像が提供できるようにしている。以下、本実施形態に係る内視鏡装置2について、第1の実施形態に係る内視鏡装置1と共通する点については説明を省略し、異なる点について主に説明する。
本実施形態に係る内視鏡装置2において、コントロールユニット30は、図5に示すように、図2に示す構成(第1の実施形態の構成)の他に、特徴マーカーと鉗子間距離計算部(処置具位置検出部)41と、保存画像の書き換え判断部(移動量算出部)42と、表示用画像合成部43と、保存用画像合成部44とを機能として備えている。
上記構成を有するコントロールユニット30において、第1の実施形態と同様に画像生成部31により生成された画像は、鉗子検出部33と画像保存メモリ部32に送られる。画像保存メモリ部32は、送られてきた画像を、数秒前から現在に至るまでのある程度の長さ、例えば5秒程度保存する。
鉗子検出部33は、第1の実施形態と同様に、送られてきた画像を基に画像内に鉗子13が存在するか否かを、色認識などで判断する。鉗子13が画像内に存在しないと判断されれば、画像生成部31が生成した画像をモニタ25にそのまま送り、モニタ25にはリアルタイムの画像を表示するとともに、画像保存メモリ部32に順次新しい画像を保存していく。
一方、鉗子検出部33は、画像内に鉗子13が存在すると判断した場合には、画像保存メモリ部32への新しい画像の書き込みを停止するとともに、鉗子検出部33から画像保存メモリ部32へ鉗子13が認識される直前の画像を保持する指示を出力する。この場合、画像保存メモリ部32で保持された保存画像は、画像保存メモリ部32から画像内特徴マーカー認識部34へ送られる。また、鉗子検出部33は、そのときのリアルタイム画像を画像内特徴マーカー認識部34へ送る。
画像内特徴マーカー認識部34は、第1の実施形態と同様に、リアルタイム画像と保存画像に関して、画像内で特徴的なマーカーとなる部分を、それぞれの画像で周辺より輝度が高い点や、色が異なる点などを選択することで決定する。このようにして特徴マーカーが決定されたリアルタイム画像と保存画像は、画像内特徴マーカー認識部34から画像位置合わせ部35に送られる。また、特徴マーカーの情報に加えて、画像内特徴マーカー認識部34は、鉗子13も色認識により判断し、特徴マーカーの位置情報と鉗子先端の位置情報を、特徴マーカーと鉗子間距離計算部41に送る。
画像位置合わせ部35は、第1の実施形態と同様に、特徴マーカーの情報を基に、リアルタイム画像と保存画像との位置合わせを行う。画像位置合わせ部35により位置合わせされたリアルタイム画像と保存画像は、鉗子領域抽出部36に送られる。
鉗子領域抽出部36は、リアルタイム画像について、鉗子検出部33と同様に、色の違いを利用して鉗子13の輪郭を抽出する。つまり、鉗子領域抽出部36は、鉗子13と生体の色の違いから、鉗子13と生体部分の境界を判別することで、鉗子領域(処置具領域)の輪郭抽出を行う。
また、鉗子領域抽出部36は、抽出したリアルタイム画像における鉗子領域の情報を基に、保存画像における鉗子領域に対応する部分を抽出しておく。これは後で、リアルタイム画像の鉗子13に対応する画像領域を保存画像から切り取るための準備である。
一方、特徴マーカーと鉗子間距離計算部41では、図6(c)に示すように、画像内特徴マーカー認識部34から送られてきた特徴マーカー(×印51)の位置情報と鉗子13の先端の位置情報から、これらの2点間の距離が算出される。このようにして算出した距離情報を、保存画像の書き換え判断部42に送る。
ここで、図6(a)は鉗子挿入前のリアルタイム画像、図6(b)は鉗子挿入後のリアルタイム画像、図6(c)はリアルタイム画像の鉗子領域に保存画像が合成された画像、図6(d)および図6(e)は図6(c)の画像において鉗子が移動した際の画像を示している。
保存画像の書き換え判断部42は、鉗子13が特徴マーカーに対して画像内でどれだけ動いたかを判断し、その変化量によって、現在保存されている保存画像を更新するかを決定する。この変化量に対して保存画像の書き換えを判断するための基準値は、任意に設定可能である。具体的には、例えば、鉗子13と特徴マーカー(×印51)との距離が、はじめの保存画像の距離に対して、10ピクセル以上変化したら保存画像の更新を行うこととしてもよい。これは、鉗子13を認識してから、その鉗子13がどれだけ動いているかを認識するためのものであり、鉗子13が動くということは、今までリアルタイム画像では取得できなかった鉗子裏の部分の情報が得られるということである。
このようにリアルタイム画像の鉗子領域以外の情報を使用して、保存画像を更新していくことで、保存画像が最新の情報を有することになる。つまり、リアルタイム画像において鉗子13が動いたことを検出し、これにより保存画像を逐次更新することで、保存画像は常に現在のリアルタイム情報から得られる最新の情報で更新されていくこととなる。
ここで、鉗子13が認識されて初めての画像の場合、保存画像の基準となるデータが取得されたことになる。つまり、移動距離はゼロのため、保存画像の書き換えは行わない。この基準となるデータは、保存画像の書き換え判断部42において、書き換え判断のための基準データとして保存される。つまり、この基準データから特徴点と鉗子13の先端部との距離が算出されて、この距離に対して、新しく送られてくる画像データでの距離が10ピクセル以上の場合には、保存画像の更新処理を行うことになる。ここでは、基準データのため、保存画像の書き換えはしないという判断結果が得られ、その結果は鉗子領域画像処理部37へ送られる。
鉗子領域画像処理部37では、鉗子領域抽出部36から送られてきた画像と鉗子領域の情報を基に、画像の切り抜き作業が行われる。リアルタイム画像に関しては、鉗子13の輪郭内の画像を切り取ることで、生体部分のみを残す。ここで、切り取られた鉗子13の画像は、生体の画像を見えなくしてしまっている生体情報を隠すものなので使用しない。
保存画像に関しては、リアルタイム画像との位置合わせをおこない、リアルタイム画像の鉗子領域に対応する部分を抽出してあるので、その部分を切り取る。保存画像からは、リアルタイム画像で鉗子13の裏になって見えなかった部分が取り出されたことになる。これらの、鉗子13を取り除いたリアルタイム画像と、鉗子13の裏になって見えなかった部分に対応する領域を切り出した保存画像は、表示用画像合成部43に送られる。
表示用画像合成部43は、送られてきた2つの画像の合成を行う。このように、リアルタイム画像から鉗子13を取り除いた画像に、鉗子13の裏になって見えなかった生体情報を保存画像から取り出した画像をはめ込むことで、鉗子13の裏が見える合成画像が作成されたことになる。
そして、合成された画像をモニタ25に送ることで、鉗子領域を示す輪郭の内部に生体の画像がはめ込まれた合成画像が画面に表示される。
次に、画像生成部31で生成された画像が、先ほどと同様にして各処理部で処理され、保存画像の書き換え判断部42に新たな画像情報が送られてきた場合について説明する。この場合には、その画像に関して、特徴マーカーと鉗子間距離計算部41により、特徴マーカーと鉗子13の先端との距離がどれだけか算出し、現在保持されている保存画像の基準データと比較することで、鉗子13が移動しているかを判断する。そして、その結果(鉗子13の移動距離)によって保存画像を更新するかが決定される。
特徴マーカーと鉗子間距離計算部41により計算された結果は、保存画像の書き換え判断部42により比較される。鉗子13の移動距離が設定した基準値、例えば10ピクセルに満たない場合には、特に見えているものに変化がないということで、保存画像の書き換えはないとして鉗子領域画像処理部37へ判断結果が送られる。
一方、鉗子13の移動距離が基準値の10ピクセルを超えた場合には、鉗子13が移動したということである。つまり、今まで鉗子13の裏で見えなかった生体情報が見えているということなので、保存画像を更新するという指示を鉗子領域画像処理部37に送る。また、保存画像が更新されることになるので、基準値も新たに算出された値に更新する。そして、次に送られてくる画像データとの比較用に使用する。
鉗子領域画像処理部37では、鉗子領域抽出部36から送られてきた画像と鉗子領域の情報を基に、画像の切り抜き作業が行われる。リアルタイム画像に関しては、鉗子13の輪郭内の画像を切り取ることで、生体部分のみを残す。ここで切り取られた鉗子13の画像は生体の画像を見えなくしてしまっている生体情報を隠すものなので使用しない。
保存画像に関しては、リアルタイム画像との位置合わせをおこない、リアルタイム画像の鉗子領域に対応する部分を抽出してあるので、その部分を切り取る。保存画像からは、リアルタイム画像で鉗子13の裏になって見えなかった部分が取り出されたことになる。これらの、鉗子13を取り除いたリアルタイム画像と、鉗子裏になって見えなかった部分に対応する領域を切り出した保存画像は、表示用画像合成部43に送られる。また、保存画像の書き換え判断部42の結果を受けて、保存画像を更新するので、保存画像合成部44にも合成した画像を送る。
鉗子領域画像処理部37から表示用画像合成部43に送られた2つの画像情報から、先ほどと同様に合成画像が作成され、その合成された画像をモニタ25に送ることで、鉗子領域を示す輪郭の内部に生体の画像がはめ込まれた合成画像が画面に表示される。
また、保存画像合成部44にも同様に2つの画像が送られてきている。これらに対しても、同様に合成を行うことで、鉗子領域以外が最新のリアルタイム画像である保存用画像が作成される。ただし、表示用画像のような鉗子13の輪郭の表示は行わない。ここで作成された画像は、今後のリアルタイム画像に対して、鉗子13の裏の情報を与える新規な保存画像になる。作成された新規の保存画像は、画像保存メモリ部32に送られ、それまで保持されていた保存画像から、今回新たに作成された新規の保存画像に更新される。
上記構成を有する内視鏡装置2の作用について、図7に示すフローチャートに従って説明する。図7は、本実施形態の内視鏡装置2を用いて、内視鏡の観察から患部を発見し、生検までを行うまでの過程を示すフローチャートである。
まず、本実施形態の内視鏡装置2を使用して観察を始めると、被検体Aにレーザ光源20から照明光が照射され、被検体Aからの反射光がカラーCCD27により検出されて画像データに変換される。この画像データに基づいて画像生成部31により画像が生成され、生成された被検体Aの画像がモニタ25に表示される(ステップS11)。
モニタ25上には画像が、図6(a)のように表示され、術者はその画像を観察して生検する目的部を探していく。このとき、観察しているときから、例えば5秒前までの画像が画像保存メモリ部32に常に保存される(ステップS12)。
この状態において、鉗子検出部33により画像内に鉗子13が存在するか否かが判断される(ステップS13)。
ステップS13において鉗子13が画像内にない場合には、リアルタイム画像がモニタ25に表示される(ステップS25)。
リアルタイム画像において、観察視野内に生検目的部が見つかった場合には、内視鏡10の鉗子口14から鉗子13を挿入し、挿入部11の先端部まで鉗子13を挿通させる。これにより、図6(b)に示すように、観察視野内に鉗子13が現れる。鉗子検出部33は、観察視野における鉗子13の有無を画像内の色の変化などで認識する。
ステップS13において鉗子13が画像内にある場合には、鉗子13が現れる直前の保存画像が、画像保存メモリ部32から読み出される(ステップS14)。
次に、画像内特徴マーカー認識部34により、読み出された保存画像およびリアルタイム画像において、周辺より輝度が高い点や、色が異なる点などを利用して特徴マーカーが設定される(ステップS15)。
次に、特徴マーカーと鉗子間距離計算部41により、図6(c)に示すように、保存画像とリアルタイム画像のそれぞれについて、特徴マーカーと鉗子13との距離が計算される(ステップS16)。
次に、保存画像の書き換え判断部42により、その計算結果を基に、保存画像とリアルタイム画像のそれぞれについて、特徴マーカーと鉗子13との距離が基準値(例えば10ピクセル)以上であるか否かが判断される(ステップS17)。
ステップS17において、特徴マーカーと鉗子13との距離が基準値未満の場合には、今までの処理と同様にして、合成画像を作成する。
一方、特徴マーカーと鉗子13との距離が基準値以上の場合には、保存画像の更新を行うという指示を出し、画像位置合わせ部35により、設定された特徴マーカーを基に、保存画像とリアルタイム画像との位置合わせが行われる(ステップS18)。
次に、鉗子領域抽出部36により、リアルタイム画像において、鉗子13と生体の色の違いから、鉗子13の輪郭および鉗子領域が抽出される(ステップS19)。この鉗子領域は、保存画像から切り抜き作業を行うときにも使用される。
次に、リアルタイム画像から鉗子領域を切り抜き、残りの生体部分を残す(ステップS20)。
次に、保存画像からは鉗子領域に対応する部分を切り取り、その切り取った生体情報をリアルタイム画像の生体情報を残した画像にはめ込む(ステップS21)。このように合成した画像は新規の保存画像として画像保存メモリ部32に保存される。
次に、モニタ25の画面には、2つの画像を合成した境界部分を、鉗子13の輪郭として表示する(ステップS22)。
次に、画像の表示をリアルタイム表示から画像の重ね合わせモードに切り替える(ステップS23)。画像の重ね合わせモードに切り替わると、図6(e)に示すように、鉗子13が輪郭表示に切り替わり、鉗子13に隠れている部分が見えるようになる。これにより、術者は鉗子13に隠れていた部分が見えるようになった画面を見ながら生検目的部に向かって鉗子13を進め、生検を行うことができる。
なお、生検が終了した場合には、画面から鉗子13が見えなくなるので、鉗子13がなくなったことを認識し、画面表示を画像の重ね合わせモードからリアルタイム表示に切り替える。
以上のように、本実施形態に係る内視鏡装置2は、生検目的部が鉗子13によって見えなくなるようなときでも、生検目的部と鉗子13の位置関係が目視できるように表示を行うだけでなく、鉗子13の移動量から判断して保存画像の更新を行うところに特徴がある。このようにすることで、鉗子13が移動して今まで隠れていた場所の画像が取得できるようになった場合に、隠れていた場所の新しい画像を取得して、その画像を画像保存メモリ部32に保存することができる。これにより、画像保存メモリ部32に保存する保存画像を常に更新することができ、これを用いて表示用画像合成部43により画像を合成することで、できるだけ時間差の少ない画像を用いて鉗子13に隠れた場所の生体情報を表示することができる。これにより、配光の影響変化や患部の変化等に対応した自然な画像を得ることができ、観察精度を向上することができる。
なお、本実施形態に係る内視鏡装置2において、画像保存メモリ部32が、所定周期毎に保存する画像を更新することとしてもよい。
このようにすることで、表示用画像合成部43によって合成に用いられる保存画像を所定周期毎に更新することができ、できるだけ時間差の少ない画像を用いて鉗子13に隠れた場所の生体情報を表示することができる。また、鉗子13の位置を検出する必要がないので、装置全体としての処理量を低減して、スムーズな内視鏡観察を行うことができる。
[第3の実施形態]
次に、本発明の第3の実施形態に係る内視鏡装置3について、図8から図12を用いて説明する。
図8は実施形態に係る内視鏡装置3の機能ブロック図であり、コントロールユニット30内の処理以外は第1の実施形態に係る内視鏡装置1と同様の構成である。
第3の実施形態に係る内視鏡装置3は、観察画像を生成するところまでは、前述の第1の実施形態に係る内視鏡装置1と同様である。
ここで、第1の実施形態では、鉗子13が内視鏡10の先端から出てくると、照明光の分布に影響が出るため画像に影響が生じる。つまり、鉗子13によって観察部位に対して照明光が遮断されたり、散乱が起こることによって、鉗子13の陰になって暗くなる部分と、鉗子13によって生じた散乱光が強くあたることで明るくなる部分が生じる。そのため、鉗子13があるときと無いときで、観察対象の見え方に違いが出てしまう。また、鉗子13が存在することによって明るくなりすぎてしまい、飽和状態となる領域も生じる。この領域に関してはその形態情報が失われてしまう。そこで、本実施形態においては、鉗子13の出現による照明光の遮断や散乱光の影響を少なくする。
まず、今回の状況は大きく2つのケースに分けられる。1つ目のケースは、鉗子13の出現によって観察部位の明るさが変化した領域が生じる(鉗子13が無いときよりも明るくなる、または暗くなる)場合である。2つ目のケースは、鉗子13の出現によって飽和してしまい形態情報が失われた(鉗子13の影響で明るくなりすぎてしまった)場合である。以下、本実施形態に係る内視鏡装置3について、第1の実施形態に係る内視鏡装置1と共通する点については説明を省略し、異なる点について主に説明する。
本実施形態に係る内視鏡装置3において、コントロールユニット30は、図8に示すように、図2に示す構成(第1の実施形態の構成)の他に、領域分割部51と、領域ごとのヒストグラム生成部(階調値解析部、階調値検出部)52と、対応領域ごとのヒストグラム比較部53と、対応領域ごとの調整部(階調値調整部)54と、鉗子とサチレーション領域抽出部55と、鉗子とサチレーション領域画像処理部56とを機能として備えている。
上記構成を有するコントロールユニット30において、第1の実施形態と同様に画像生成部31により生成された画像は、鉗子検出部33と画像保存メモリ部32に送られる。画像保存メモリ部32は、送られてきた画像を、数秒前から現在に至るまでのある程度の長さ、例えば5秒程度保存する。
鉗子検出部33は、送られてきた画像を基に画像内に鉗子13が存在するか否かを、第1の実施形態と同様に色認識などで判断する。鉗子13が画像内に存在しないと判断されれば、画像生成部31が生成した画像をモニタ25にそのまま送り、モニタ25にはリアルタイムの画像を表示するとともに、画像保存メモリ部32に順次新しい画像を保存していく。
一方、鉗子検出部33は、画像内に鉗子13が存在すると判断した場合、画像保存メモリ部32への新しい画像の書き込みを停止するとともに、鉗子検出部33から画像保存メモリ部32へ鉗子13が認識される直前の画像を保持する指示を出力する。この場合、画像保存メモリ部32で保持された保存画像は、画像保存メモリ部32から画像内特徴マーカー認識部34へ送られる。また、鉗子検出部33は、そのときのリアルタイム画像を画像内特徴マーカー認識部34へ送る。
画像内特徴マーカー認識部34は、リアルタイム画像と保存画像に関して、画像内で特徴的なマーカーとなる部分を、第1の実施形態と同様に、それぞれの画像で周辺より輝度が高い点や、色が異なる点などを選択することで決定する。このようにして特徴マーカーが決定されたリアルタイム画像と保存画像は、画像内特徴マーカー認識部34から画像位置合わせ部35に送られる。
画像位置合わせ部35では、第1の実施形態と同様に、特徴マーカーの情報を基に、リアルタイム画像と保存画像との位置合わせを行う。画像位置合わせ部35により位置合わせされたリアルタイム画像と保存画像は、領域分割部51に送られる。
領域分割部51では、送られてきた保存画像およびリアルタイム画像を、それぞれ図9および図10に示すように、複数の領域に分割する。分割数は解像度の面から適当な値に設定し、保存画像およびリアルタイム画像に対して、同様の領域分割処理を行う。保存画像とリアルタイム画像は、事前に位置合わせをおこなっているため、その分割領域はそれぞれ対応した位置のものとなる。複数の領域に分割された保存画像およびリアルタイム画像は、領域ごとのヒストグラム生成部52に送られる。
ここで、図9は保存画像を複数の領域に分割した状態、図10はリアルタイム画像を複数の領域に分割した状態を示している。図9および図10において、符号Bは患部、符号61は鉗子13の陰になって暗くなった領域、符号62は鉗子13の反射により明るくなった領域、符号63は飽和領域(サチレーション領域)を示している。
領域ごとのヒストグラム生成部52は、送られてきた保存画像およびリアルタイム画像の各領域について、図11に示すような階調値のヒストグラムを作成する。図11において、符号58はリアルタイム画像における階調値のヒストグラム、符号59は保存画像における階調値のヒストグラムをそれぞれ示している。このように作成された階調値のヒストグラムは、対応領域ごとのヒストグラム比較部53に送られる。
対応領域ごとのヒストグラム比較部53は、保存画像およびリアルタイム画像に関して、対応する領域ごとにヒストグラムの比較を行う。保存画像とリアルタイム画像で対応する領域の比較を行った際に、図11に示すように、保存画像に対してリアルタイム画像のヒストグラムにずれがある場合、リアルタイム画像では鉗子13が存在することによる影響を受けてより明るい(または暗い)画像になっている。そこで、対応領域ごとのヒストグラム比較部53では、そのずれを算出する。ここで算出された保存画像とリアルタイム画像のヒストグラムずれ量は、対応領域ごとの調整部54に送られる。
また、ヒストグラムの比較によって、階調値が飽和してしまっている飽和領域(サチレーション領域)も分かる。そこで、対応領域ごとのヒストグラム比較部53は、サチレーションにより形態情報が失われている領域も抽出し、その領域情報を鉗子とサチレーション領域抽出部55に送る。
対応領域ごとの調整部54は、送られてきた画像情報とヒストグラムずれ量を基に、リアルタイム画像および保存画像に対して、ヒストグラムの調整を行う。例えば、図11に示すように、リアルタイム画像において暗くなりすぎている領域は、保存画像の対応領域と同程度になるように明るくする。同様に、リアルタイム画像において明るくなりすぎている領域は、保存画像の対応領域と同程度になるように暗くする。ここで作成された画像は、鉗子とサチレーション領域抽出部55に送られる。
鉗子とサチレーション領域抽出部55は、リアルタイム画像について、鉗子検出部33と同様に、色の違いを利用して鉗子13の輪郭を抽出する。つまり、鉗子13と生体の色の違いから、鉗子13と生体部分の境界を判別することで、鉗子領域の輪郭抽出を行う。このようにしてリアルタイム画像について鉗子13の領域が抽出されたので、その情報を基にヒストグラム調整をした保存画像から鉗子領域に対応する部分を抽出する。これは後でリアルタイム画像の鉗子領域に対応する画像領域を、ヒストグラムを調整した保存画像から切り取るための準備である。
また、鉗子とサチレーション領域抽出部55は、対応領域ごとのヒストグラム比較部53により検出されたサチレーション領域情報を用いて、リアルタイム画像でサチレーションを起こしている領域の抽出を行う。その鉗子領域とサチレーション領域の情報を加えた画像を、鉗子とサチレーション領域画像処理部56へ送る。
鉗子とサチレーション領域画像処理部56は、鉗子とサチレーション領域抽出部55から送られてきた画像と鉗子領域の情報を基に、鉗子13の輪郭内の画像を切り取って、生体部分のみを残す画像処理を行う。そして、サチレーション領域の情報を基に、形態情報が損なわれている部分の切り取りを行い、生体部分でかつ、サチレーションが起こっていない形態情報が残っている部分のみを残す画像処理を行う。ここで処理された画像は画像合成部38に送られる。
画像合成部38は、鉗子とサチレーション領域画像処理部56から送られてきた画像情報を用いて、リアルタイム画像と保存画像との合成を行う。このように、リアルタイム画像から鉗子13を取り除いた部分に、ヒストグラムの調整された保存画像から取り出した鉗子裏の生体情報をはめ込むことで、鉗子13の裏が見える合成画像が作成されたことになる。また、サチレーション領域部分にも、鉗子13が認識される直前の保存画像を使って、対応する部分をはめ込む画像合成を行うことで、リアルタイム画像において、鉗子13の出現によって飽和し、形態情報が失われた部分を補うことができる。
このように合成された画像をモニタ25に送ることで、鉗子領域を示す輪郭の内部に生体の画像がはめ込まれ、鉗子13による明るさ変化の影響を抑える調整を行った合成画像が画面に表示される。
上記構成を有する内視鏡装置3の作用について、図12に示すフローチャートに従って説明する。図12は、本実施形態の内視鏡装置3を用いて、内視鏡の観察から患部を発見し、生検までを行うまでの過程を示すフローチャートである。第3の実施形態では、鉗子13が画面内にあると判断されるまで、第1および第2の実施形態と同様の処理が実行される。
まず、本実施形態の内視鏡装置3を使用して観察を始めると、被検体Aにレーザ光源20から照明光が照射され、被検体Aからの反射光がカラーCCD27により検出されて画像データに変換される。この画像データに基づいて画像生成部31により画像が生成され、生成された被検体Aの画像がモニタ25に表示される(ステップS31)。
モニタ25上には画像が、図3(a)のように表示され、術者はその画像を観察して生検する目的部を探していく。このとき、観察しているときから、例えば5秒前までの画像が画像保存メモリ部32に常に保存される(ステップS32)。
この状態において、鉗子検出部33により画像内に鉗子13が存在するか否かが判断される(ステップS33)。
ステップS33において鉗子13が画像内にない場合には、リアルタイム画像がモニタ25に表示される(ステップS45)。
リアルタイム画像において、観察視野内に生検目的部が見つかった場合には、内視鏡10の鉗子口14から鉗子13を挿入し、挿入部11の先端部まで鉗子13を挿通させる。これにより、図3(b)に示すように、観察視野内に鉗子13が現れる。鉗子検出部33は、観察視野における鉗子13の有無を画像内の色の変化などで認識する。
ステップS33において鉗子13が画像内にある場合には、鉗子13が現れる直前の保存画像が、画像保存メモリ部32から読み出される(ステップS34)。
次に、画像内特徴マーカー認識部34により、読み出された保存画像およびリアルタイム画像において、周辺より輝度が高い点や、色が異なる点などを利用して特徴マーカーが設定される(ステップS35)。また、画像位置合わせ部35により、設定された特徴マーカーを基に、保存画像とリアルタイム画像との位置合わせが行われる。
次に、保存画像とリアルタイム画像を同様の領域に分割し、それぞれの領域に関するヒストグラムを作成して、これらヒストグラムを比較する(ステップS36)。対応する領域についてヒストグラムを比較することで、リアルタイム画像が、保存画像より明るくなっているのか暗くなっているのか、それとも飽和して形態情報を失っているのかを判別することができる。
ステップS36において、リアルタイム画像において飽和領域と判断された領域については、保存画像における対応する領域の画像に入れ替えられる(ステップS42)。そして、第1の実施形態と同様に、鉗子領域の切り取りとはめ込みが行われ、保存画像から対応する部分が切り取られ、リアルタイム画像の鉗子領域にはめ込まれる。
ステップS36において、リアルタイム画像において飽和領域ではないと判断された領域については、対応領域ごとに画像のヒストグラム調整が行われる(ステップS37)。具体的には、ヒストグラムを比較した結果、保存画像より暗くなってしまっている、もしくは明るくなってしまっている領域は、保存画像と同等の明るさになるように、そのヒストグラムが調整される。
次に、ヒストグラムが調整されたリアルタイム画像において、鉗子13と生体の色の違いから、鉗子13の輪郭を抽出するとともに鉗子13の領域が抽出される(ステップS38)。この領域は保存画像から切り抜き作業を行うときにも使用される。
次に、ヒストグラムが調整されたリアルタイム画像から鉗子領域を切り抜き、残りの生体部分を残す(ステップS39)。
そして、保存画像から鉗子領域に対応する部分を切り取り、その切り取った生体情報をリアルタイム画像の生体情報を残した画像にはめ込む(ステップS40)。また、モニタ25の画面では、2つの画像を合成した境界部分は鉗子13の輪郭になるので、輪郭表示も行う。
次に、画像の表示をリアルタイム表示から画像の重ね合わせモードに切り替える(ステップS41)。画像の重ね合わせモードに切り替わると、図3(e)に示すように、鉗子13が輪郭表示に切り替わり、鉗子13に隠れている部分が見えるようになる。これにより、術者は鉗子13に隠れていた部分が見えるようになった画面を見ながら生検目的部に向かって鉗子13を進め、生検を行うことができる。
なお、生検が終了した場合には、画面から鉗子13が見えなくなるので、鉗子13がなくなったことを認識し、画面表示を画像の重ね合わせモードからリアルタイム表示に切り替える。
以上のように、本実施形態に係る内視鏡装置3によれば、リアルタイム画像における階調値のヒストグラムを、画像保存メモリ部32に保存された保存画像における階調値のヒストグラムに近づけることができる。これにより、リアルタイム画像において、鉗子13の陰によって暗くなった領域や、鉗子からの反射光により明るくなった領域の階調値を補正することができる。これにより、鉗子13の位置による照明条件の変化を抑えて、均一な条件での画像を表示することができる。すなわち、鉗子13が存在することで、照明光の分布への影響や、鉗子13による照明光の散乱影響による見え方の違いを少なくすることができ、鉗子13があるときでも違和感のない見やすい画像を提供することができる。
また、画像合成部38により、リアルタイム画像において階調値が飽和した飽和領域が存在する場合に、飽和領域の画像を保存画像に置き換えることができる。これにより、飽和により形態情報が失われている領域でも、画像の入れ替えにより形態情報が取得できるので、照明条件にかかわらず、生体の状態を把握することができる。
なお、本実施形態では、リアルタイム画像において保存画像による置き換えをおこなったが、保存した分割した領域ごとに求めたヒストグラムから求められる代表値、例えば平均値、などで分割した領域全体を置き換えても良い。
[第4の実施形態]
次に、本発明の第4の実施形態に係る内視鏡装置4について、図13から図16を用いて説明する。
図13は実施形態に係る内視鏡装置4の機能ブロック図であり、コントロールユニット30内の処理以外は第1の実施形態に係る内視鏡装置1と同様の構成である。
本実施形態に係る内視鏡装置4は、観察画像を生成するところまでは、前述の第1の実施形態に係る内視鏡装置1と同様である。
ここで、第1〜第3の実施形態では、内視鏡10の先端が動くと、保存画像で対応すべき範囲を含んでいないために、鉗子13の裏が表示できなくなる。例えば、第2の実施形態では、保存画像の更新を行っているが、これは、リアルタイム画像と保存画像の視野が同じで、比較できるような場合に適応可能である。しかし、鉗子13の先端が大きく動くと、保存画像の領域外の部分に鉗子13が存在するため、鉗子13の部分にはめ込む生体情報が提供できず、鉗子裏の表示ができないという不都合があった。
そこで、本実施形態では、観察を始めたときから画像を保存し、その中かからリアルタイムで観察している視野範囲を含んだ、より画角の広い画像を探し出し、その画像からリアルタイム画像と対応するように、画像の取り出し、拡大を行ったのちに鉗子領域に生体情報をはめ込む構成としている。これにより、内視鏡10の先端が大きく動いたときに数秒間の保存画像では対応できないものにも、対応して鉗子裏の画像を合成することができる。
本実施形態に係る内視鏡装置4において、コントロールユニット30は、図13に示すように、図2に示す構成(第1の実施形態の構成)の他に、画像内特徴マーカー探索部(特徴点検索部)65と、拡大率設定部66と、画像拡大部67とを機能として備えている。
上記構成を有するコントロールユニット30において、第1の実施形態と同様に画像生成部31により生成された画像は、鉗子検出部33と画像保存メモリ部32に送られる。画像保存メモリ部32は、検査開始から作成されている画像を全て保存する。
鉗子検出部33は、送られてきた画像を基に画像内に鉗子13が存在するか否かを、第1の実施形態と同様に色認識などで判断する。鉗子13が画像内に存在しないと判断されれば、画像生成部31が生成した画像をモニタ25にそのまま送り、モニタ25にはリアルタイムの画像を表示するとともに、画像保存メモリ部32に順次新しい画像を保存していく。
一方、鉗子検出部33は、画像内に鉗子13が存在すると判断した場合、画像保存メモリ部32への新しい画像の書き込みを停止するとともに、鉗子検出部33から画像保存メモリ部32へ鉗子13が認識される直前の画像を保持する指示を出力する。この場合、画像保存メモリ部32で保持された保存画像は、画像保存メモリ部32から画像内特徴マーカー認識部34へ送られる。また、鉗子検出部33は、そのときのリアルタイム画像を画像内特徴マーカー認識部34へ送る。
画像内特徴マーカー認識部34は、リアルタイム画像と保存画像に関して、画像内で特徴的なマーカーをそれぞれ2点ずつ、それぞれの画像で周辺より輝度が高い点や、色が異なる点などを選択することで決定する。例えば、図14に示す例において、リアルタイム画像例が図14(c)、保存画像例が図14(a)に対応している。また、図の中の○印71、△印72が、特徴点としたマーカー部分という意味である。このようにして特徴マーカーを同一画像内で2点決定したリアルタイム画像と保存画像は、画像内特徴マーカー探索部65に送られる。
画像内特徴マーカー探索部65は、図14(c)に示すように、特徴マーカーを基に画像内の2点のマーカー間の距離を求める。リアルタイム画像で算出された距離と保存画像から算出された距離を比較することで、保存画像がリアルタイムの画像の何倍の拡大率かが求められる。
また、画像内特徴マーカー探索部65は、図14(d)に示すように、リアルタイム画像の特徴マーカーと画像の四隅間の角度と距離を算出する。そして、その四隅に対する角度と距離を、保存画像で先ほど求めた拡大率に直したとき、保存画像がリアルタイム画像領域を含んでいるかを確認する。この結果がリアルタイムと保存画像で一致すれば(一致するということは、内視鏡先端の動きによる視野のずれがゼロ)、現在保持している保存画像はリアルタイム画像の鉗子裏の情報をもっていると判断できるので、これ以降は前述の第1の実施形態と同様に処理されていく。
一方、リアルタイム画像と保存画像で四隅間の距離と角度が一致しなかった場合には、画像保存メモリ部32から新たに適当な保存画像を探し出す必要があるため、画像内特徴マーカー探索部65は、画像保存メモリ部32からリアルタイム画像領域を含んだ画像を探し出す。
画像内特徴マーカー探索部65は、画像保存メモリ部32から時間を遡るようにして、特徴マーカーを含む画像を探し出す。そして、特徴マーカーが見つかった場合には、先ほどと同様に、特徴マーカー間の距離を測定し、保存画像がリアルタイム画像の何倍の拡大率かを計算する。次に、先に求めたリアルタイム画像の特徴点から画像四隅に対する距離および角度情報を基に、求めた拡大率に保存画像を設定したときリアルタイム画像領域を含んだ画像なのかを判断する。
画像内特徴マーカー探索部65は、探し出した保存画像がリアルタイム画像を含んでいなければ、続けて他の保存画像を探し、含んでいれば画像内特徴マーカー探索部65から拡大率設定部66へ検索によって得られた保存画像を送る。
拡大率設定部66は、リアルタイム画像の特徴点間の距離と保存画像の特徴点間の距離とを比較した拡大率の設定を行う。
画像拡大部67は、図14(e)に示すように、拡大率設定部66により設定された拡大率に基づいて、検索によって得られた保存画像の拡大を行う。拡大された画像は、画像位置合わせ部35に送られる。
ここから先の画像処理は前述の第1の実施形態と同様であるため省略する。
以上のようにして合成された画像をモニタ25に送ることで、鉗子領域を示す輪郭の内部に生体の画像がはめ込まれた合成画像が画面に表示される。また、過去の保存画像から現在検出されている特徴マーカーを基に、最適な保存画像から合成画面を作成することができるため、内視鏡10の先端が動いても、鉗子13と目的部の位置関係が観察できるような表示が行うことができる。
上記構成を有する内視鏡装置4の作用について、図15および図16に示すフローチャートに従って説明する。図15および図16は、本実施形態の内視鏡装置4を用いて、内視鏡の観察から患部を発見し、生検までを行うまでの過程を示すフローチャートである。第4の実施形態では、鉗子13が画面内あると判断するまで、第1〜第3の実施形態と同様の処理が実行される。
まず、本実施形態の内視鏡装置4を使用して観察を始めると、被検体Aにレーザ光源20から照明光が照射され、被検体Aからの反射光がカラーCCD27により検出されて画像データに変換される。この画像データに基づいて画像生成部31により画像が生成され、生成された被検体Aの画像がモニタ25に表示される(ステップS51)。
モニタ25上には画像が図3(a)のように表示され、術者はその画像を観察して生検する目的部を探していく。このとき画像は観察開始時から現在にいたるまで全て保存している(ステップS52)。
この状態において、鉗子検出部33により画像内に鉗子13が存在するか否かが判断される(ステップS53)。
ステップS53において鉗子13が画像内にない場合には、リアルタイム画像がモニタ25に表示される(ステップS66)。
リアルタイム画像において、観察視野内に生検目的部が見つかった場合には、内視鏡10の鉗子口14から鉗子13を挿入し、挿入部11の先端部まで鉗子13を挿通させる。これにより、図3(b)に示すように、観察視野内に鉗子13が現れる。鉗子検出部33は、観察視野における鉗子13の有無を画像内の色の変化などで認識する。
ステップS53において鉗子13が画像内にある場合には、鉗子13が現れる直前の保存画像が、画像保存メモリ部32から読み出される(ステップS54)。
次に、画像内特徴マーカー認識部34により、読み出された保存画像およびリアルタイム画像において、周辺より輝度が高い点や、色が異なる点などを利用して特徴マーカーが2点設定される(ステップS55)。
次に、保存画像がリアルタイム画像に対応できているか否かが判断される(ステップS56)。具体的には、2点の特徴マーカー間の距離をリアルタイム画像と保存画像で比較し、リアルタイム画像に対する保存画像の拡大率を算出する。そして、リアルタイム画像の特徴マーカーから画像の四隅に対する距離と角度を算出し、その範囲が、保存画像内に含まれるか拡大率を含めて判断する。
ステップS56において、保存画像がリアルタイム画像に対応できる、すなわち、上記の範囲が保存画像内に含まれていれば、リアルタイム画像に対応できていることになるので、第1の実施形態と同様にして画像を処理、合成し、表示を行う(ステップS65)。
一方、ステップS56において、保存画像がリアルタイム画像に対応できない、すなわち、保存画像内にリアルタイム画像全領域を含むことができていないのであれば(少しでも保存画像外に視野を持つリアルタイム画像であれば)、現在保持している保存画像では対応できないとして、観察スタート時から保存し続けている画像保存メモリ部32から適した画像を検索する(ステップS57)。
画像保存メモリ部32からの検索も、先ほどと同様にして、特徴マーカー2点を含む保存画像を探し、それについて2点間の距離を計算することで拡大率を算出する(ステップS58)。そして、その拡大率で拡大した画像内にリアルタイム画像の領域を含むことができているかを判断する。
次に、検索してきた保存画像に対して拡大率が決定されているので、その拡大率によって検索した保存画像の拡大を行う(ステップS59)。
次に、特徴マーカーを基に、拡大した保存画像とリアルタイム画像の位置合わせを行う(ステップS60)。
次に、リアルタイム画像において鉗子13と生体の色の違いから、鉗子13の輪郭を抽出するとともに、鉗子13の領域を抽出する(ステップS61)。この領域は、拡大した保存画像から切り抜き作業を行うときにも使用される。
次に、拡大した保存画像からは鉗子領域に対応する部分を切り取る(ステップS62)。
そして、リアルタイム画像から鉗子領域を切り抜き、残りの生体部分を残すとともに、保存画像から切り取った生体情報をリアルタイム画像の生体情報を残した画像にはめ込む(ステップS63)。また、モニタ25表示用の画面では、合成した2つの画像の境界部分は鉗子13の輪郭になるので、輪郭表示も行う。
次に、画像の表示をリアルタイム表示から画像の重ね合わせモードに切り替える(ステップS64)。画像の重ね合わせモードに切り替わると、図3(e)に示すように、鉗子13が輪郭表示に切り替わり、鉗子13に隠れている部分が見えるようになる。これにより、術者は鉗子13に隠れていた部分が見えるようになった画面を見ながら生検目的部に向かって鉗子13を進め、生検を行うことができる。
なお、生検が終了した場合には、画面から鉗子13が見えなくなるので、鉗子13がなくなったことを認識し、画面表示を画像の重ね合わせモードからリアルタイム表示に切り替える。
以上のように、本実施形態に係る内視鏡装置4によれば、リアルタイム画像の特徴点が画像保存メモリ部32に保存された最新の保存画像の中に見つからない場合にも、保存された複数の保存画像の中から特徴点のある保存画像を探して、この保存画像から鉗子領域を抽出してリアルタイム画像に合成することができる。これにより、内視鏡10の先端部が大きく動いて画像が大きく変化した場合や、画角が変わった場合でも、鉗子領域の生体情報の表示が可能となる。
また、画像拡大部67により保存画像を拡大または縮小し、拡大または縮小された保存画像から鉗子領域に対応する領域を抽出することで、保存画像の大きさがリアルタイム画像の大きさと異なる場合にも、保存画像を拡大または縮小して鉗子領域に対応する領域を抽出し、リアルタイム画像と合成することができる。
以上、本発明の各実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
例えば、各実施形態において、鉗子裏に隠れている生体部分の情報を表示するために、鉗子13の輪郭を表示することとしたが、鉗子13の裏に隠れている生体部分の情報が見えるような表示であればどのような表示方法でも良く、例えば、鉗子13を半透明表示として生体部分の画像を重ねあわせることとしてもよい。
このようにすることで、鉗子13の裏側の生体部分をユーザが目視で把握できるとともに、合成された画像に鉗子13の位置を半透明化して表示することができる。これにより、鉗子13の形状など立体的な情報も表示することができ、鉗子13の位置や向きが把握しやすく、生検をより正確に行うことができる。
また、各実施形態において、画像合成部38または表示用画像合成部43により、リアルタイム画像から鉗子領域を除去した画像と保存画像から鉗子に対応する領域を切り取った画像とを合成することとして説明したが、鉗子領域が除去されていないリアルタイム画像に、保存画像から鉗子13に対応する領域を切り取った画像を合成することとしてもよい。
また、各実施形態において、処置具として生検用の鉗子を使用した説明をしたが、これに限られるものではなく、内視鏡観察を行う最中に視野を遮られるような処置具であればどれでもよい。例えば、生検鉗子の他に、把持鉗子、ナイフ、クリップ、チューブ、バスケット、スネアなどにおいても処置具裏を表示できるため、処置の正確性を向上することができる。
1,2,3,4 内視鏡装置
10 内視鏡
20 光源装置
24 撮像光学系
25 モニタ
27 カラーCCD
30 コントロールユニット
31 画像生成部(画像取得部)
32 画像保存メモリ部(画像保存部)
33 鉗子検出部(処置具検出部)
34 画像内特徴マーカー認識部(特徴点検出部)
35 画像位置合わせ部
36 鉗子領域抽出部(処置具領域抽出部、処置具対応領域抽出部)
37 鉗子領域画像処理部(画像処理部)
38 画像合成部
41 特徴マーカーと鉗子間距離計算部(処置具位置検出部)
42 保存画像の書き換え判断部(移動量算出部)
43 表示用画像合成部
44 保存用画像合成部
51 領域分割部
52 領域ごとのヒストグラム生成部(階調値解析部、階調値検出部)
53 対応領域ごとのヒストグラム比較部
54 対応領域ごとの調整部(階調値調整部)
55 鉗子とサチレーション領域抽出部
56 鉗子とサチレーション領域画像処理部
65 画像内特徴マーカー探索部(特徴点検索部)
66 拡大率設定部
67 画像拡大部
A 被検体
B 患部

Claims (15)

  1. 被検体の画像を取得する画像取得部と、
    該画像取得部により取得された現在画像を保存する画像保存部と、
    前記画像取得部により取得された現在画像から、処置具が存在する処置具領域を抽出する処置具領域抽出部と、
    前記画像保存部に保存された保存画像と前記画像取得部により取得された現在画像との位置合わせを行う画像位置合わせ部と、
    前記画像保存部に保存された保存画像から、前記処置具領域に対応する領域を抽出する処置具対応領域抽出部と、
    該処置具対応領域抽出部により抽出された領域の画像と前記画像取得部により取得された現在画像とを合成する画像合成部とを備える内視鏡装置。
  2. 前記画像取得部により取得された現在画像から、前記処置具領域抽出部により抽出された処置具領域を除去した画像を生成する画像処理部を備え、
    前記画像合成部が、前記処置具対応領域抽出部により抽出された領域の画像と前記画像処理部により生成された画像とを合成する請求項1に記載の内視鏡装置。
  3. 前記画像合成部が、合成した画像に前記処置具領域の位置情報を重畳する請求項1に記載の内視鏡装置。
  4. 前記画像合成部が、前記処置具領域の位置情報として処置具の輪郭を重畳する請求項3に記載の内視鏡装置。
  5. 前記画像合成部が、前記処置具領域の位置情報として処置具を半透明化して重畳する請求項3に記載の内視鏡装置。
  6. 前記現在画像および前記保存画像の特徴点を検出する特徴点検出部を備え、
    前記画像位置合わせ部が、前記特徴点検出部により検出された特徴点を用いて前記現在画像と前記保存画像との位置合わせを行う請求項1に記載の内視鏡装置。
  7. 前記現在画像において処置具の有無を検出する処置具検出部を備え、
    前記処置具領域抽出部が、前記処置具検出部が処置具を検出した場合に、前記現在画像から前記処置具領域を抽出する請求項1に記載の内視鏡装置。
  8. 前記処置具検出部が、前記現在画像内の色情報から処置具を検出する請求項7に記載の内視鏡装置。
  9. 前記現在画像において処置具の位置を検出する処置具位置検出部と、
    該処置具位置検出部により検出された処置具の位置に基づいて、処理具の移動量を算出する移動量算出部とを備え、
    前記画像保存部が、前記移動量算出部により算出された移動量が所定距離以上の場合に、保存する画像を更新する請求項1に記載の内視鏡装置。
  10. 前記画像保存部が、所定周期毎に保存する画像を更新する請求項1に記載の内視鏡装置。
  11. 前記現在画像および前記保存画像を複数の領域に分割する領域分割部と、
    前記現在画像および前記保存画像について、前記領域分割部により分割された領域の階調値のヒストグラムを算出する階調値解析部と、
    該階調値解析部により算出された前記現在画像のヒストグラムを、前記保存画像のヒストグラムと重なる領域が増加する方向に、各領域の階調値を調整する階調値調整部とを備える請求項1に記載の内視鏡装置。
  12. 前記現在画像および前記保存画像を複数の領域に分割する領域分割部と、
    前記現在画像および前記保存画像について、前記領域分割部により分割された領域の階調値を検出する階調値検出部とを備え、
    前記画像合成部が、前記現在画像において階調値が飽和した飽和領域が存在する場合に、該飽和領域の画像を前記保存画像に置き換える請求項1に記載の内視鏡装置。
  13. 前記現在画像の特徴点を検出する特徴点検出部と、
    該特徴点検出部により検出された特徴点を、前記画像保存部に保存された複数の保存画像から検索する特徴点検索部とを備え、
    前記処置具対応領域抽出部が、前記特徴点検索部により特徴点が検索された保存画像から、前記処置具領域に対応する領域を抽出する請求項1に記載の内視鏡装置。
  14. 前記処置具対応領域抽出部が、前記保存画像を拡大または縮小し、拡大または縮小された保存画像から前記処置具領域に対応する領域を抽出する請求項1に記載の内視鏡装置。
  15. 前記現在画像および前記保存画像の特徴点を複数検出する特徴点検出部と、
    前記現在画像および前記保存画像における、前記特徴点検出部により検出された複数の特徴点間の距離から、前記現在画像に対する前記保存画像の拡大率を設定する拡大率設定部とを備え、
    前記処置具対応領域抽出部が、前記拡大率設定部により設定された拡大率で前記保存画像を拡大または縮小する請求項14に記載の内視鏡装置。
JP2012506883A 2010-03-24 2011-02-16 内視鏡装置 Active JP5771598B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012506883A JP5771598B2 (ja) 2010-03-24 2011-02-16 内視鏡装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010067409 2010-03-24
JP2010067409 2010-03-24
PCT/JP2011/053200 WO2011118287A1 (ja) 2010-03-24 2011-02-16 内視鏡装置
JP2012506883A JP5771598B2 (ja) 2010-03-24 2011-02-16 内視鏡装置

Publications (2)

Publication Number Publication Date
JPWO2011118287A1 JPWO2011118287A1 (ja) 2013-07-04
JP5771598B2 true JP5771598B2 (ja) 2015-09-02

Family

ID=44672860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012506883A Active JP5771598B2 (ja) 2010-03-24 2011-02-16 内視鏡装置

Country Status (5)

Country Link
US (1) US20130002844A1 (ja)
EP (1) EP2550909A4 (ja)
JP (1) JP5771598B2 (ja)
CN (1) CN102802498B (ja)
WO (1) WO2011118287A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013141155A1 (ja) * 2012-03-17 2013-09-26 学校法人早稲田大学 画像内遮蔽領域の画像補完システム、画像処理装置及びそのプログラム
JP5985916B2 (ja) * 2012-07-25 2016-09-06 Hoya株式会社 内視鏡装置
EP2926714A4 (en) * 2013-06-18 2016-07-13 Olympus Corp ENDOSCOPE SYSTEM AND METHOD OF CONTROLLING ENDOSCOPE SYSTEM
WO2015019957A1 (ja) * 2013-08-07 2015-02-12 オリンパスメディカルシステムズ株式会社 内視鏡システム、内視鏡システムの作動方法
WO2015037340A1 (ja) * 2013-09-10 2015-03-19 ソニー株式会社 画像処理装置、画像処理方法、プログラム
WO2015111263A1 (ja) 2014-01-24 2015-07-30 オリンパス株式会社 立体内視鏡画像処理装置
EP3100668A4 (en) * 2014-01-30 2017-11-15 Olympus Corporation Medical video recording and playback system and medical video recording and playback device
EP3187096B1 (en) * 2014-11-06 2021-09-08 Sony Group Corporation Endoscopic device, method for operating endoscopic device, and program
DE102015100927A1 (de) * 2015-01-22 2016-07-28 MAQUET GmbH Assistenzeinrichtung und Verfahren zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs unter Verwendung mindestens eines medizinischen Instrumentes
JP6608719B2 (ja) * 2016-02-02 2019-11-20 日本電信電話株式会社 画面差異抽出装置、画面差異抽出方法、及びプログラム
JP2019515698A (ja) * 2016-03-02 2019-06-13 コヴィディエン リミテッド パートナーシップ 手術画像および/またはビデオの中で閉塞物体を除去するシステムならびに方法
DE112017002074T5 (de) * 2016-04-19 2019-01-24 Olympus Corporation Endoskopsystem
CN108261167B (zh) * 2017-01-03 2019-12-03 上银科技股份有限公司 内视镜操控***
CN110337259B (zh) 2017-02-24 2023-01-06 富士胶片株式会社 内窥镜***、处理器装置及内窥镜***的工作方法
JP6899903B2 (ja) * 2017-07-03 2021-07-07 富士フイルム株式会社 医療画像処理装置、内視鏡装置、診断支援装置、医療業務支援装置、及び、レポート作成支援装置
JP7092346B2 (ja) * 2018-08-08 2022-06-28 ソニア・セラピューティクス株式会社 画像制御装置
JP6586206B2 (ja) * 2018-08-21 2019-10-02 富士フイルム株式会社 内視鏡システム及びその作動方法
JP7281308B2 (ja) * 2019-03-07 2023-05-25 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置及び医療用観察システム
JP2022083768A (ja) * 2020-11-25 2022-06-06 財團法人金属工業研究発展中心 手術器具点検システムと手術器具点検方法
JP2022181645A (ja) * 2021-05-26 2022-12-08 富士フイルム株式会社 内視鏡業務支援装置及び内視鏡業務支援システム並びに内視鏡業務支援装置の作動方法
CN117396121A (zh) * 2021-06-04 2024-01-12 C·R·巴德股份有限公司 增强现实输尿管镜***
DE102021125161A1 (de) * 2021-09-28 2023-03-30 Blazejewski Medi-Tech Gmbh Medizinisches Instrument
WO2023170889A1 (ja) * 2022-03-10 2023-09-14 オリンパス株式会社 画像処理装置、エネルギー処置具、処置システムおよび画像処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05108819A (ja) * 1991-03-26 1993-04-30 Olympus Optical Co Ltd 画像処理装置
JP2004187711A (ja) * 2002-12-06 2004-07-08 Olympus Corp 内視鏡装置
JP2006198032A (ja) * 2005-01-18 2006-08-03 Olympus Corp 手術支援システム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3625906B2 (ja) * 1995-08-23 2005-03-02 オリンパス株式会社 手術用顕微鏡装置
US6725080B2 (en) * 2000-03-01 2004-04-20 Surgical Navigation Technologies, Inc. Multiple cannula image guided tool for image guided procedures
JP2002034904A (ja) 2000-07-25 2002-02-05 Asahi Optical Co Ltd 内視鏡の処置具挿通路
JP3816811B2 (ja) * 2002-02-14 2006-08-30 オリンパス株式会社 内視鏡装置
US7537561B2 (en) * 2002-11-27 2009-05-26 Olympus Corporation Endoscope apparatus
US20050129324A1 (en) * 2003-12-02 2005-06-16 Lemke Alan P. Digital camera and method providing selective removal and addition of an imaged object
JP4698966B2 (ja) * 2004-03-29 2011-06-08 オリンパス株式会社 手技支援システム
JP2006271871A (ja) * 2005-03-30 2006-10-12 Olympus Medical Systems Corp 内視鏡用画像処理装置
US8073528B2 (en) * 2007-09-30 2011-12-06 Intuitive Surgical Operations, Inc. Tool tracking systems, methods and computer products for image guided surgery
US10555775B2 (en) * 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
US9718190B2 (en) * 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
FR2920086A1 (fr) * 2007-08-24 2009-02-27 Univ Grenoble 1 Systeme et procede d'analyse pour une operation chirurgicale par endoscopie
JP5384869B2 (ja) * 2008-07-24 2014-01-08 オリンパスメディカルシステムズ株式会社 内視鏡処置システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05108819A (ja) * 1991-03-26 1993-04-30 Olympus Optical Co Ltd 画像処理装置
JP2004187711A (ja) * 2002-12-06 2004-07-08 Olympus Corp 内視鏡装置
JP2006198032A (ja) * 2005-01-18 2006-08-03 Olympus Corp 手術支援システム

Also Published As

Publication number Publication date
WO2011118287A1 (ja) 2011-09-29
CN102802498B (zh) 2015-08-19
CN102802498A (zh) 2012-11-28
US20130002844A1 (en) 2013-01-03
EP2550909A1 (en) 2013-01-30
EP2550909A4 (en) 2016-01-27
JPWO2011118287A1 (ja) 2013-07-04

Similar Documents

Publication Publication Date Title
JP5771598B2 (ja) 内視鏡装置
JP5580758B2 (ja) 蛍光観察装置
JP5421828B2 (ja) 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム
WO2013187116A1 (ja) 画像処理装置および立体画像観察システム
EP2554103B1 (en) Endoscope observation supporting system and programme
JP5715312B2 (ja) 内視鏡システム
KR20190078540A (ko) 의료 시술 동안 내비게이션을 돕기 위한 증강 현실의 용도
US20150057498A1 (en) Endoscope system
CN103565393B (zh) 荧光观察装置和荧光观察***
MX2014010163A (es) Sistema de video endoscopico.
JPWO2014156378A1 (ja) 内視鏡システム
US10973585B2 (en) Systems and methods for tracking the orientation of surgical tools
WO2017203814A1 (ja) 内視鏡装置、内視鏡装置の作動方法
JP2019508166A (ja) 腹腔鏡画像及び超音波画像を重畳するための計算装置
US20230389775A1 (en) Image correction of a surgical endoscope video stream
EP3298949B1 (en) Image processing apparatus, image processing method, and surgical system
US9345394B2 (en) Medical apparatus
EP4134012A1 (en) Augmented-reality endoscopic vessel harvesting
JP6211239B1 (ja) 内視鏡装置
JPH0938030A (ja) 内視鏡装置
JP2024508315A (ja) シーン深度推測を強化するための視鏡修正

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150629

R151 Written notification of patent or utility model registration

Ref document number: 5771598

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250