JP7045453B2 - 内視鏡画像処理装置、内視鏡画像処理装置の作動方法およびプログラム - Google Patents

内視鏡画像処理装置、内視鏡画像処理装置の作動方法およびプログラム Download PDF

Info

Publication number
JP7045453B2
JP7045453B2 JP2020525130A JP2020525130A JP7045453B2 JP 7045453 B2 JP7045453 B2 JP 7045453B2 JP 2020525130 A JP2020525130 A JP 2020525130A JP 2020525130 A JP2020525130 A JP 2020525130A JP 7045453 B2 JP7045453 B2 JP 7045453B2
Authority
JP
Japan
Prior art keywords
display
image
unit
determination
support information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020525130A
Other languages
English (en)
Other versions
JPWO2019244255A1 (ja
Inventor
秀和 岩城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2019244255A1 publication Critical patent/JPWO2019244255A1/ja
Application granted granted Critical
Publication of JP7045453B2 publication Critical patent/JP7045453B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00013Operational features of endoscopes characterised by signal transmission using optical means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Description

本発明は、内視鏡画像処理装置、内視鏡画像処理装置の作動方法およびプログラムに関する。
従来、内視鏡装置では、術者が、観察画像を見て病変部の有無等を判断している。術者が観察画像を見る際に病変部の見落としを抑止するために、内視鏡検査を支援するための情報(以下、支援情報と言う。)を表示する技術が提案されている。例えば、日本国特開2011-255006号公報には、画像処理により検出された注目領域にアラート画像を付加して観察画像を表示する内視鏡装置が開示されている。
また、例えば、日本国特許第5597021号公報には、画像内の複数の局所領域において算出した特徴量に基づいて注目領域を検出し、検出した注目領域が表示対象範囲から消失する前に得られた注目領域の情報を用いて表示対象範囲から消失した注目領域の位置を推定し、消失した注目領域への誘導情報である消失方向情報を表示する内視鏡システムの画像処理装置が開示されている。
支援情報であるアラート画像や消失方向情報は、観察画像と共に表示部に表示される。支援情報の対象となる注目領域に対して、詳細観察が完了していない場合には、支援情報を表示させることにより、病変部の検出率を向上させたり、病変部を検出する時間を短縮させたりすることができる。しかし、詳細観察が完了している場合には、表示部に不要な支援情報が表示されることで術者の負担となったり、支援情報が観察画像を隠したりして、内視鏡検査の妨げとなる場合があった。
そこで、本発明は、支援情報を適切に表示させることができる内視鏡画像処理装置、内視鏡画像処理装置の作動方法およびプログラムを提供することを目的とする。
本発明の一態様の内視鏡画像処理装置は、内視鏡によって撮影された被写体の画像を取得する画像取得部と、少なくとも前記画像取得部によって取得された前記画像を含む表示用画像を表示部に出力する表示出力部と、前記画像取得部によって取得された前記画像に含まれる注目領域を検出する注目領域検出部と、前記注目領域検出部における前記注目領域の検出が途絶したか否かを判定する検出途絶判定部と、前記検出途絶判定部において前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行う表示判定部とを備え、前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示出力部は、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力し、前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示出力部は、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力し、前記表示判定部は、詳細観察判定部を含み、前記詳細観察判定部は、前記注目領域が詳細に観察されているか否かによって変化する詳細観察パラメータを算出し、前記詳細観察パラメータに基づいて前記表示可否判定を行い、前記詳細観察パラメータは、前記注目領域の形状変化量、前記注目領域の移動量および前記内視鏡の観察モードのうちの少なくとも1つに基づいて算出される
また、本発明の一態様の内視鏡画像処理装置の作動方法は、内視鏡によって撮影された被写体の画像を処理する画像処理装置の作動方法であって、前記作動方法は、前記画像を取得するステップと、少なくとも取得された前記画像を含む表示用画像を表示部に出力するステップと、取得された前記画像に含まれる注目領域を検出するステップと、前記注目領域の検出が途絶したか否かを判定するステップと、前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行うステップとを含み、前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示部に出力するステップでは、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力し、前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示部に出力するステップでは、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力し、前記表示可否判定を行うステップは、詳細観察判定ステップを含み、前記詳細観察判定ステップは、前記注目領域が詳細に観察されているか否かによって変化する詳細観察パラメータを算出し、前記詳細観察パラメータに基づいて前記表示可否判定を行い、前記詳細観察パラメータは、前記注目領域の形状変化量、前記注目領域の移動量および前記内視鏡の観察モードのうちの少なくとも1つに基づいて算出される
また、本発明の一態様のプログラムは、内視鏡によって撮影された被写体の画像を取得する処理と、少なくとも取得された前記画像を含む表示用画像を表示部に出力する処理と、取得された前記画像に含まれる注目領域を検出する処理と、前記注目領域の検出が途絶したか否かを判定する処理と、前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行う処理と、前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力する第1の表示処理と、前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力する第2の表示処理とを、コンピュータに実行させるプログラムであって、前記表示可否判定を行う処理は、詳細観察判定処理を含み、前記詳細観察判定処理は、前記注目領域が詳細に観察されているか否かによって変化する詳細観察パラメータを算出し、前記詳細観察パラメータに基づいて前記表示可否判定を行い、前記詳細観察パラメータは、前記注目領域の形状変化量、前記注目領域の移動量および前記内視鏡の観察モードのうちの少なくとも1つに基づいて算出される
本発明の第1の実施の形態に係わる画像処理装置を含む内視鏡システムの概略の構成を示す説明図である。 図1に示した本体部と画像処理装置のハードウェア構成の一例を示す説明図である。 本発明の第1の実施の形態に係わる画像処理装置の構成を示す機能ブロック図である。 本発明の第1の実施の形態における表示判定部の構成を示す機能ブロック図である。 本発明の第1の実施の形態における詳細観察判定部、視認性判定部、重要性判定部および経過時間判定部において行われる表示可否判定を示すフローチャートである。 本発明の第1の実施の形態における表示指示判定部において行われる表示可否判定を示すフローチャートである。 本発明の第1の実施の形態における表示用画像の一例を示す説明図である。 本発明の第1の実施の形態における観察画像の第1の例を示す説明図である。 図8に示した観察画像から注目領域が消失した状態を示す説明図である。 本発明の第1の実施の形態における観察画像の第2の例を示す説明図である。 図10に示した観察画像から注目領域が消失した状態を示す説明図である。 本発明の第2の実施の形態に係わる画像処理装置の構成を示す機能ブロック図である。 本発明の第2の実施の形態における表示判定部の構成を示す機能ブロック図である。 本発明の第2の実施の形態における支援情報の第1の例を示す説明図である。 本発明の第2の実施の形態における支援情報の第2の例を示す説明図である。 本発明の第3の実施の形態に係わる画像処理装置の構成を示す機能ブロック図である。 本発明の第3の実施の形態における表示用画像の一例を示す説明図である。
以下、図面を参照して、本発明の実施の形態を説明する。
[第1の実施の形態]
(内視鏡システムの構成)
始めに、本発明の第1の実施の形態に係わる内視鏡画像処理装置を含む内視鏡システムの概略の構成について説明する。図1は、内視鏡システム100の概略の構成を示す説明図である。図1に示したように、内視鏡システム100は、内視鏡1と、本体部2と、本実施の形態に係わる内視鏡画像処理装置(以下、単に画像処理装置と記す。)3と、表示部4と、光源駆動部5とを備えている。内視鏡1は、本体部2に接続されている。光源駆動部5は、内視鏡1と本体部2に接続されている。本体部2は、画像処理装置3に接続されている。画像処理装置3は、表示部4に接続されている。
内視鏡1は、被検体内に挿入される挿入部を有している。挿入部の先端部には、撮像部10が設けられている。撮像部10は、光源部11と撮像素子12とを有している。光源部11は、LED等の発光素子によって構成されており、被写体に照射される照明光を発生する。照明光が照射された被写体の反射光は、図示しない観察窓を介して撮像素子12に取り込まれる。撮像素子12は、例えばCCDまたはCMOSによって構成されており、被写体の反射光を光電変換して、撮像信号を生成する。
撮像素子12によって生成された撮像信号は、撮像部10に設けられた図示しないAD変換器によって、アナログ信号からデジタル信号に変換される。撮像部10は、デジタル信号に変換された撮像信号を、本体部2に出力する。
本体部2は、ビデオプロセッサとして構成されており、内視鏡1と光源駆動部5を制御すると共に撮像信号に対して所定の画像処理を行う制御部21を含んでいる。所定の画像処理としては、例えば、ゲイン調整、ホワイトバランス調整、ガンマ補正、輪郭強調補正、拡大縮小調整等の画像調整がある。制御部21は、所定の画像処理が行われた撮像信号を、観察画像G1として画像処理装置3に順次出力する。
光源駆動部5は、光源部11を駆動する回路であり、内視鏡1の光源部11と本体部2の制御部21とに接続されている。光源駆動部5は、本体部2の制御部21から制御信号が入力されると、光源部11に対して駆動信号を出力し、光源部11を駆動して照明光を発生させる。
画像処理装置3は、本体部2の制御部21から出力された観察画像G1に基づいて表示用画像Gを構成し、表示用画像Gを表示部4に出力する。表示部41は、モニタ装置等によって構成されており、画像処理装置3から出力された表示用画像Gを画面上に表示する。画像処理装置3の構成については、後で説明する。
内視鏡システム100は、更に、本体部2に接続された表示指示部6を備えている。表示指示部6については、後で説明する。
ここで、図2を参照して、本体部2と画像処理装置3のハードウェア構成について説明する。図2は、本体部2と画像処理装置3のハードウェア構成の一例を示す説明図である。図2に示した例では、本体部2は、プロセッサ2Aと、メモリ2Bと、入出力部2Cとによって構成されている。また、画像処理装置3は、プロセッサ3Aと、メモリ3Bと、入出力部3Cとによって構成されている。
プロセッサ2Aは、制御部21等の本体部2の構成要素の機能を実行するために用いられる。プロセッサ3Aは、後述する画像処理装置3の複数の構成要素(記憶部を除く。)の機能を実行するために用いられる。プロセッサ2A,3Aの各々は、例えば、FPGA(Field Programmable Gate Array)によって構成されている。制御部21等の本体部2の構成要素の少なくとも一部と、画像処理装置3の複数の構成要素の少なくとも一部は、それぞれ、FPGAにおける回路ブロックとして構成されていてもよい。
メモリ2B,3Bの各々は、例えば、RAM等の書き換え可能な記憶素子によって構成されている。入出力部2Cは、本体部2と外部との間で信号の送受信を行うために用いられる。入出力部3Cは、画像処理装置3と外部との間で信号の送受信を行うために用いられる。
なお、プロセッサ2A,3Aの各々は、中央演算処理装置(以下、CPUと記す。)によって構成されていてもよい。この場合、制御部21等の本体部2の構成要素の機能は、CPUがメモリ2Bまたは図示しない記憶装置からプログラムを読み出して実行することによって実現されてもよい。同様に、画像処理装置3の複数の構成要素の各々の機能は、CPUがメモリ3Bまたは図示しない記憶装置からプログラムを読み出して実行することによって実現されてもよい。
また、本体部2と画像処理装置3のハードウェア構成は、図2に示した例に限られない。例えば、制御部21と本体部2の制御部21以外の構成要素の各々は、別個の電子回路として構成されていてもよい。また、本体部2と画像処理装置3は、一体化された装置として構成されていてもよい。
(画像処理装置の構成)
次に、図3を参照して、画像処理装置3の構成について説明する。図3は、画像処理装置3の構成を示す機能ブロック図である。画像処理装置3は、画像取得部31と、画像保存部32と、注目領域検出部33と、検出途絶判定部34と、表示判定部35と、表示出力部36とを備えている。
画像取得部31は、内視鏡1によって撮影された被写体の画像として、本体部2から出力された観察画像G1を取得する。また、画像取得部31は、取得した観察画像G1を、画像保存部32、注目領域検出部33および表示出力部36に出力する。
画像保存部32には、画像取得部31によって取得された観察画像G1が入力される。画像保存部32は、例えば、図2に示したメモリ3Bおよび図示しない記憶装置のうちの少なくとも1つによって構成されており、観察画像G1を保存する。表示出力部36は、画像保存部32に保存された観察画像G1を読み出すことができるように構成されている。
注目領域検出部33には、画像取得部31によって取得された観察画像G1が入力される。注目領域検出部33は、観察画像G1に含まれる注目領域を検出する。また、注目領域検出部33は、注目領域の検出結果を、検出途絶判定部34および表示出力部36に出力する。本実施の形態では、注目領域検出部33は、注目領域として、病変候補領域Lを検出する。注目領域検出部33の詳細な構成と、病変候補領域Lの検出方法については、後で説明する。
検出途絶判定部34には、注目領域検出部33の検出結果が入力される。検出途絶判定部34は、入力された検出結果に基づいて、注目領域検出部33における注目領域の検出が途絶したか否かを判定する。また、検出途絶判定部34は、その判定結果を、表示判定部35に出力する。以下、注目領域の検出が途絶したと判定された判定結果を、途絶判定と言う。検出途絶判定部34における判定の方法については、後で説明する。
表示判定部35には、検出途絶判定部34の判定結果が入力される。表示判定部35は、途絶判定が得られた場合に、検出が途絶した注目領域が表示部4の画面上に復帰するように支援する支援情報を表示部4に表示するか否かの判定である表示可否判定を行う。また、表示判定部35は、表示可否判定の結果を、表示出力部36に出力する。表示判定部35の詳細な構成と、表示可否判定の内容については、後で説明する。
表示出力部36は、画像保存部32に保存された観察画像G1を読み出して、少なくとも観察画像G1を含む表示用画像Gを構成し、構成した表示用画像Gを表示部4に出力する。なお、表示出力部36は、画像保存部32に保存された観察画像G1の代わりに、画像取得部31によって出力された観察画像G1を用いて、表示用画像Gを構成してもよい。
また、表示出力部36には、表示判定部35の表示可否判定の結果が入力される。表示可否判定において支援情報を表示部4に表示すると判定された場合には、表示出力部36は、表示用画像Gとして、支援情報を含む画像を構成し、構成した画像を表示部4に出力する。一方、表示可否判定において支援情報を表示部4に表示しないと判定された場合には、表示出力部36は、表示用画像Gとして、支援情報を含まない画像を構成し、構成した画像を表示部4に出力する。表示出力部36の詳細な構成と、表示用画像Gの構成については、後で説明する。
(注目領域検出部の構成)
次に、図3を参照して、注目領域検出部33の構成について説明する。本実施の形態では、注目領域検出部33は、特徴量算出部331と、病変候補検出部332と、記憶部333とを含んでいる。記憶部333は、例えば図2に示したメモリ3Bまたは図示しない記憶装置によって構成されている。
特徴量算出部331には、画像取得部31によって取得された観察画像G1が入力される。特徴量算出部331は、観察画像G1に含まれる画素の特徴量を算出し、算出した特徴量を病変候補検出部332に出力する。特徴量は、例えば、観察画像G1上の所定の小領域毎に、所定の小領域内の各画素と、当該画素に隣接する画素との変化量、すなわち、傾き値を演算して算出される。
病変候補検出部332には、特徴量算出部331によって算出された特徴量が入力される。病変候補検出部332は、特徴量に基づいて、観察画像G1の病変候補領域Lを検出し、病変候補領域Lの検出結果、具体的には病変候補領域Lの位置および大きさ等の情報を含む病変候補情報を、検出途絶判定部34および表示出力部36に出力する。
なお、注目領域検出部33の構成は、上記の例に限られない。例えば、注目領域検出部33は、深層学習等の機械学習の手法によって注目領域である病変候補領域Lを検出するように構成されていてもよい。
(病変候補領域の検出方法)
以下、病変候補検出部332における病変候補領域Lの検出方法について説明する。病変候補領域Lの検出は、特徴量と、病変モデル情報とを比較することによって行われる。病変モデル情報は、多くの病変画像が共通して持つ特徴の特徴量によって構成される。記憶部333には、予め、複数の病変モデル情報が記憶されている。病変候補検出部332は、記憶部333から複数の病変モデル情報を読み出して、入力された特徴量と、複数の病変モデル情報とを比較して、病変候補領域Lを検出する。
具体的には、病変候補検出部332は、例えば、特徴量検出部から入力される所定の小領域毎の特徴量と、病変モデル情報とを比較し、互いの特徴量が一致した領域を、病変候補領域Lとして検出する。
(検出途絶判定部における判定方法)
次に、検出途絶判定部34における判定方法について説明する。前述のように、検出途絶判定部34は、注目領域検出部33の検出結果に基づいて、注目領域検出部33における注目領域の検出が途絶したか否かを判定する。注目領域の検出が途絶したか否かの判定は、注目領域検出部33において、注目領域が継続して検出されているか否かを監視することによって行われる。注目領域が継続して検出されている場合には、検出途絶判定部34は、注目領域検出部33における注目領域の検出が途絶していないと判定する。一方、注目領域の検出が途絶した場合には、検出途絶判定部34は、注目領域検出部33における注目領域の検出が途絶したと判定する。
以下、病変候補領域Lを例にとって、具体的な判定方法の一例について説明する。検出途絶判定部34には、注目領域検出部33の検出結果として、病変候補領域Lの位置および大きさ等の情報を含む病変候補情報が入力される。検出途絶判定部34は、まず、現在の観察画像G1から検出された病変候補情報(以下、第1の病変候補情報と言う。)と、過去の観察画像G1、例えば現在の観察画像G1の1フレーム前の観察画像G1から検出された病変候補情報(以下、第2の病変候補情報と言う。)とを用いて、第1の病変候補情報によって示される病変候補領域Lと、第2の病変候補情報によって示される病変候補領域Lが、同一であるか否かを判定する。同一であるか否かの判定は、例えば、2つの病変候補領域Lの重なり具合に基づいて行われる。2つの病変候補領域Lが同一であると判定された場合には、検出途絶判定部34は、病変候補領域Lの検出が途絶していないと判定する。
一方、2つの病変候補領域Lが同一でないと判定された場合には、検出途絶判定部34は、第2の病変候補情報によって示される病変候補領域Lの検出が途絶したと判定する。また、検出途絶判定部34は、第1の病変候補情報が得られない場合にも、第2の病変候補情報によって示される病変候補領域Lの検出が途絶したと判定する。
なお、検出途絶判定部34は、第2の病変候補情報を記憶する図示しない記憶部を含んでいてもよい。図示しない記憶部は、例えば図2に示したメモリ3Bまたは図示しない記憶装置によって構成されている。
(表示判定部の構成)
次に、図4を参照して、表示判定部35の構成について説明する。図4は、表示判定部35の構成を示す機能ブロック図である。表示判定部35は、途絶判定が得られた場合に表示可否判定を行う複数の判定部を含んでいる。本実施の形態では、表示判定部35は、詳細観察判定部351と、視認性判定部352と、重要性判定部353と、表示指示判定部354と、経過時間判定部355と、記憶部356とを含んでいる。記憶部356は、例えば図2に示したメモリ3Bまたは図示しない記憶装置によって構成されている。
詳細観察判定部351は、注目領域である病変候補領域Lが詳細に観察されているか否かによって変化する詳細観察パラメータを算出し、算出された詳細観察パラメータに基づいて表示可否判定を行う。詳細観察パラメータは、例えば、内視鏡1の使用者が病変候補領域Lを詳細に観察した可能性が高くなるに従って大きな数値になるように規定される。
本実施の形態では、詳細観察パラメータは、病変候補領域Lの形状変化量、病変候補領域Lの移動量および内視鏡1の観察モードのうちの少なくとも1つに基づいて算出される。病変候補領域Lの形状変化量と病変候補領域Lの移動量は、検出が途絶したと判定された病変候補領域Lに対応する複数の病変候補情報を用いて算出することができる。形状変化量と移動量が少ない場合、使用者が病変候補領域Lを詳細に観察した可能性が高くなる。従って、この場合には、詳細観察パラメータは、大きな数値なるように算出される。
なお、記憶部356は、病変候補情報を記憶するように構成されている。詳細観察判定部351は、記憶部356から、検出が途絶したと判定された病変候補領域Lに対応する複数の病変候補情報を読み出して、病変候補領域Lの形状変化量と病変候補領域Lの移動量を算出してもよい。
内視鏡1の観察モードは、例えば、操作ボタンや操作スイッチ等の任意の操作手段によって指定することができる。操作手段としては、例えば、図2に示した操作手段63を用いることができる。操作手段63は、本体部2の入出力部2Cに接続されている。本体部2の制御部21は、内視鏡1の観察モードの情報を画像処理装置3に出力する。詳細観察判定部351には、制御部21が出力した内視鏡1の観察モードの情報が入力される。例えば、検出が途絶したと判定された病変候補領域Lが、狭帯域光観察(Narrow Band Imaging)モードや被検体内を染色して観察するモードの選択時に得られた観察画像G1から検出された場合には、使用者が病変候補領域Lを詳細に観察した可能性が高くなる。従って、この場合には、詳細観察パラメータは、大きな数値なるように算出される。
視認性判定部352は、注目領域である病変候補領域Lの視認のしやすさによって変化する視認性パラメータを算出し、算出された視認性パラメータに基づいて表示可否判定を行う。視認性パラメータは、例えば、病変候補領域Lが視認しやすいほど、大きな数値になるように規定される。
本実施の形態では、視認性パラメータは、病変候補領域Lの色、形状およびテクスチャのうちの少なくとも1つに基づいて算出される。病変候補領域Lの色、形状およびテクスチャは、例えば、検出が途絶したと判定された病変候補領域Lの位置および大きさ等の情報と、この病変候補領域Lが検出された観察画像G1から取得することができる。病変候補領域Lの色、形状およびテクスチャが特徴的であるほど、病変候補領域Lが視認しやすくなる。従って、視認性パラメータは、病変候補領域Lの色、形状およびテクスチャが特徴的な場合、大きな数値なるように算出される。
なお、前述のように、記憶部356は、病変候補情報を記憶するように構成されている。視認性判定部352は、記憶部356から、検出が途絶したと判定された病変候補領域Lに対応する病変候補情報を読み出すと共に、画像保存部32から、この病変候補情報が検出された観察画像G1を読み出して、病変候補領域Lの色、形状およびテクスチャを取得してもよい。
重要性判定部353は、注目領域である病変候補領域Lの医学的な重要度を算出し、算出された重要度に基づいて表示可否判定を行う。本実施の形態では特に、重要性判定部353は、重要度と対応関係を有する重要度パラメータに基づいて表示可否判定を行う。重要度パラメータは、重要度が高くなるすなわち医学的な危険性が高くなるほど小さな数値になり、重要度が低くなるすなわち医学的な危険性が低くなるほど大きな数値になるように規定される。
重要度は、病変候補領域Lの色、形状およびテクスチャのうちの少なくとも1つに基づいて算出される。重要性判定部353は、記憶部356から、検出が途絶したと判定された病変候補領域Lに対応する病変候補情報を読み出すと共に、画像保存部32から、この病変候補情報が検出された観察画像G1を読み出して、病変候補領域Lの色、形状およびテクスチャを取得してもよい。
表示指示判定部354は、途絶判定が得られた場合に、内視鏡1の使用者による支援情報を表示するか否かの指示に基づいて表示可否判定を行う。支援情報を表示するか否かの指示は、例えば、図1に示した表示指示部6を介して取得される。本体部2の制御部21は、取得した指示の内容を画像処理装置3に出力する。表示指示判定部354には、制御部21が出力した指示の内容が入力される。
本実施の形態では、支援情報を表示するか否かの指示は、使用者の視線、使用者の発言および使用者による指示手段の操作のうちの少なくとも1つによって行われる。図2に示したように、表示指示部6は、例えば、使用者の視線を検出するカメラ61、使用者の発言を検出するマイク62、および指示手段としての操作ボタンや操作スイッチ等の操作手段63とを含んでいる。
なお、表示指示部6は、画像処理装置3に接続されていてもよい。この場合、表示指示判定部354が、直接、表示指示部6から指示の内容を取得してもよい。なお、この場合、図2に示したカメラ61、マイク62および操作手段63は、画像処理装置3の入出力部3Cに接続される。
経過時間判定部355は、途絶判定が得られた時点からの経過時間を計測し、計測した経過時間に基づいて表示可否判定を行う。
表示判定部35は、詳細観察判定部351、視認性判定部352、重要性判定部353、表示指示判定部354および経過時間判定部355の各々の判定結果に基づいて、表示出力部36に出力する判定結果の内容を決定し、決定した判定結果を表示出力部36に出力する。
ここで、判定結果の内容の決定方法について説明する。判定結果の内容の決定は、例えば、以下のようにして行われる。まず、詳細観察判定部351、視認性判定部352、重要性判定部353および経過時間判定部355の各々において表示可否判定に用いられたパラメータを規格化して4つの規格化パラメータを算出する。これらの規格化パラメータは、例えば、支援情報を表示しないと判定される可能性が最も高くなる場合が1になり、支援情報を表示すると判定される可能性が最も低くなる場合が0になるように規格化される。また、表示指示判定部354において表示可否判定に用いられた指示を数値化して、規格化パラメータとする。この規格化パラメータは、支援情報を表示しない指示の場合は1であり、支援情報を表示する指示の場合は0である。そして、上記の5つの規格化パラメータのうち、最も数値が大きい規格化パラメータに基づいて、判定結果の内容を決定する。
具体的には、例えば、最も数値が大きい規格化パラメータと所定の閾値(0よりも大きく1未満の値)とを比較する。最も数値が大きい規格化パラメータが所定の閾値以上の場合、表示判定部35は、表示出力部36に出力する判定結果を、支援情報を表示しないという内容に決定する。一方、最も数値が大きい規格化パラメータが所定の閾値未満の場合、表示判定部35は、表示出力部36に出力する判定結果を、支援情報を表示するという内容に決定する。
なお、判定結果の内容の決定方法は、上記の方法に限られない。例えば、上記の5つの規格化パラメータを加重平均し、加重平均された規格化パラメータに基づいて、判定結果の内容を決定してもよい。
また、表示判定部35の構成は、図4に示した例に限られない。例えば、表示判定部35は、図4に示した複数の判定部のうちの一部のみを含んでいてもよいし、図4に示した複数の判定部以外の判定部を含んでいてもよい。
(表示可否判定の内容)
次に、詳細観察判定部351、視認性判定部352、重要性判定部353、表示指示判定部354および経過時間判定部355の各々において行われる表示可否判定の内容について説明する。始めに、図5を参照して、詳細観察判定部351において行われる表示可否判定について説明する。図5は、詳細観察判定部351、視認性判定部352、重要性判定部353および経過時間判定部355において行われる表示可否判定を示すフローチャートである。
詳細観察判定部351は、途絶判定が得られた場合に、まず、詳細観察パラメータを算出する(ステップS11)。次に、詳細観察パラメータと所定の閾値とを比較する(ステップS12)。詳細観察パラメータが所定の閾値以上の場合(YES)、詳細観察判定部351は、支援情報を表示しないと判定する(ステップS13)。一方、詳細観察パラメータが所定の閾値未満の場合(NO)、詳細観察判定部351は、支援情報を表示すると判定する(ステップS14)。図5に示したステップS12,S13,S14が、詳細観察判定部351において行われる表示可否判定に対応する。
なお、詳細観察パラメータが所定の閾値以上の場合は、病変候補領域Lが詳細に観察されていると推定される場合に相当する。詳細観察パラメータが所定の閾値未満の場合は、病変候補領域Lが詳細に観察されていないと推定される場合に相当する。
視認性判定部352、重要性判定部353および経過時間判定部355において行われる表示可否判定の内容は、基本的には、詳細観察判定部351において行われる表示可否判定の内容と同様である。すなわち、視認性判定部352は、途絶判定が得られた場合に、まず、視認性パラメータを算出する(ステップS11)。次に、視認性パラメータと所定の閾値とを比較する(ステップS12)。視認性パラメータが所定の閾値以上の場合(YES)、視認性判定部352は、支援情報を表示しないと判定する(ステップS13)。一方、視認性パラメータが所定の閾値未満の場合(NO)、視認性判定部352は、支援情報を表示すると判定する(ステップS14)。図5に示したステップS12,S13,S14が、視認性判定部352において行われる表示可否判定に対応する。
なお、視認性パラメータが所定の閾値以上の場合は、病変候補領域Lが視認しやすいものである場合に相当する。視認性パラメータが所定の閾値未満の場合は、病変候補領域Lが視認しにくいものである場合に相当する。
また、重要性判定部353は、途絶判定が得られた場合に、まず、重要度を算出し、重要度と対応関係を有する重要度パラメータを算出する(ステップS11)。次に、重要度パラメータと所定の閾値とを比較する(ステップS12)。重要度パラメータが所定の閾値以上の場合(YES)、すなわち重要度が低い場合には、重要性判定部353は、支援情報を表示しないと判定する(ステップS13)。一方、重要度パラメータが所定の閾値未満の場合(NO)、すなわち重要度が高い場合には、重要性判定部353は、支援情報を表示すると判定する(ステップS14)。図5に示したステップS12,S13,S14が、重要性判定部353において行われる表示可否判定に対応する。
また、経過時間判定部355は、途絶判定が得られた場合に、まず、途絶判定が得られた時点からの経過時間を計測する。経過時間は、図5のステップS11におけるパラメータに対応する。次に、パラメータである経過時間と所定の閾値とを比較する(ステップS12)。経過時間が所定の閾値以上の場合(YES)、経過時間判定部355は、支援情報を表示しないと判定する(ステップS13)。一方、経過時間が所定の閾値未満の場合(NO)、経過時間判定部355は、支援情報を表示すると判定する(ステップS14)。図5に示したステップS12,S13,S14が、経過時間判定部355において行われる表示可否判定に対応する。なお、経過時間判定部355において行われる表示可否判定は、例えば、途絶判定後、所定の間隔で繰り返し実行されてもよい。
次に、図6を参照して、表示指示判定部354において行われる表示可否判定について説明する。図6は、表示指示判定部354において行われる表示可否判定を示すフローチャートである。表示指示判定部354は、途絶判定が得られた場合に、まず、支援情報を表示するか否かの指示の内容を取得する(ステップS21)。表示指示判定部354は、次に、取得した指示の内容に基づいて表示可否判定を行う(ステップS22)。取得した指示の内容が支援情報を表示しないという内容である場合、表示指示判定部354は、支援情報を表示しないと判定する。取得した指示の内容が支援情報を表示するという内容である場合、表示指示判定部354は、支援情報を表示すると判定する。なお、表示指示判定部354において行われる表示可否判定は、例えば、途絶判定後、所定の間隔で繰り返し実行されてもよい。
(表示出力部の構成)
次に、図3を参照して、表示出力部36の構成について説明する。本実施の形態では、表示出力部36は、強調処理部361と支援情報処理部362とを含んでいる。表示出力部36は、画像保存部32から読み出した観察画像G1と、病変候補検出部332から入力される病変候補領域Lの検出結果すなわち病変候補情報と、表示判定部35から入力される判定結果に基づいて、強調処理および支援情報表示処理を行うことが可能である。
強調処理部361は、病変候補検出部332において病変候補領域Lが検出された場合に、観察画像G1に対して強調処理を行う。強調処理は、病変候補領域Lの位置を強調して示す表示を行う処理である。具体的には、例えば、強調処理部361は、強調処理として、観察画像G1に対して、病変候補領域Lを囲むマーカ画像を付加する処理を行ってもよいし、病変候補領域Lの明るさや色調を周辺領域とは異なるものとする処理を行ってもよい。
支援情報処理部362は、表示判定部35から入力された判定結果が、支援情報を表示するという内容である場合に、観察画像G1に対して支援情報表示処理を行う。支援情報表示処理は、注目領域である病変候補領域Lが表示部4の画面上から消失した場合に、病変候補領域Lの位置を示す表示を行う処理である。具体的には、例えば、支援情報処理部362は、支援情報表示処理として、観察画像G1に対して、消失した病変候補領域Lの位置や方向を示すアラート画像を付加する処理を行ってもよいし、観察画像G1の外枠の色を変化させる処理を行ってもよい。
病変候補検出部332において病変候補領域Lが検出され、表示判定部35における判定結果が、支援情報を表示するという内容である場合、表示出力部36は、表示用画像Gとして、強調処理および支援情報表示処理が行われた観察画像G1、すなわち病変候補領域Lの位置を強調して示す表示と、支援情報として病変候補領域Lの位置を示す表示を含む画像を、表示部4(図1参照)に出力する。
また、病変候補検出部332において病変候補領域Lが検出されず、表示判定部35における判定結果が、支援情報を表示するという内容である場合、表示出力部36は、表示用画像Gとして、強調処理が行われず支援情報表示処理が行われた観察画像G1、すなわち支援情報として病変候補領域Lの位置を示す表示を含むが、病変候補領域Lの位置を強調して示す表示は含まない画像を、表示部4に出力する。
また、病変候補検出部332において病変候補領域Lが検出されず、表示判定部35における判定結果が、支援情報を表示しないという内容である場合、表示出力部36は、表示用画像Gとして、強調処理と支援情報表示処理が行われていない観察画像G1、すなわち病変候補領域Lの位置を強調して示す表示と、支援情報として病変候補領域Lの位置を示す表示を含まない画像を、表示部4に出力する。
(表示用画像の構成)
次に、表示用画像Gの構成について説明する。図7は、表示用画像Gの構成の一例を示す説明図である。図7に示したように、表示出力部36から出力される表示用画像G上には、観察画像G1が配置される。図7には、観察画像G1の一例として、病変候補領域Lを有する大腸の内壁を表している。
ここで、観察画像G1に対して行われる支援情報表示処理の第1の例と第2の例について説明する。図8は、観察画像G1の第1の例を示す説明図である。図10は、観察画像G1の第2の例を示す説明図である。
図8に示したように、観察画像G1には、病変候補領域Lが表示されている。
図9は、図8に示した観察画像G1から注目領域である病変候補領域Lが消失した状態を示している。図9では、特に、病変候補領域Lが、観察画像G1の外縁よりも外側に移動した例を示している。この状態では、病変候補領域Lは、表示部4の画面上には表示されない。観察画像G1に対して支援情報表示処理を行う場合、支援情報処理部362は、観察画像G1に対してアラート画像G2を付加する。図9には、アラート画像G2として、病変候補領域Lの位置と方向を三角形の頂点で示す画像を付加した例を示している。なお、アラート画像G2は、矢印等の他の画像であってもよい。
図10は、観察画像G1の第2の例を示す説明図である。図10に示したように、観察画像G1には、ひだFの近傍に、病変候補領域Lが表示されている。
図11は、図10に示した観察画像G1から病変候補領域Lが消失した状態を示している。図11では、特に、病変候補領域Lが、ひだFの裏側に隠れた例を示している。この状態では、病変候補領域Lは、表示部4の画面上には表示されない。観察画像G1に対して支援情報表示処理を行う場合、支援情報処理部362は、観察画像G1に対してアラート画像G2を付加する。図9には、アラート画像G2として、ひだFの裏側に隠れた病変候補領域Lが存在すると推定される位置と方向を三角形の頂点で示す画像を付加した例を示している。
なお、観察画像G1に対して支援情報表示処理を行わない場合、すなわち、表示判定部35から入力される判定結果が、支援情報を表示しないという内容の場合、支援情報処理部362は、観察画像G1に対してアラート画像G2を付加しない。
(作用および効果)
次に、本実施の形態に係わる画像処理装置3の作用および効果について説明する。本実施の形態では、表示判定部35は、途絶判定が得られた場合に、支援情報を表示部4に表示するか否かの判定である表示可否判定を行う。これにより、本実施の形態によれば、支援情報を適切に表示させることができる。具体的には、前述のように、表示可否判定において支援情報を表示すると判定された場合には、表示出力部36は、表示用画像Gとして、支援情報を更に含む画像を表示部4に出力する。一方、表示可否判定において支援情報を表示しないと判定された場合には、表示出力部36は、表示用画像Gとして、支援情報を含まない画像を表示部4に出力する。以下、本実施の形態の効果について詳しく説明する。
注目領域である病変候補領域Lが表示部4の画面上から消失した場合であって、病変候補領域Lに対する詳細な観察が完了している場合には、内視鏡1の使用者の負担を軽減したり、支援情報によって他の病変候補領域Lが隠れないようにしたりする観点から、支援情報を表示しないことが好ましい。本実施の形態では、表示判定部35には、詳細観察判定部351が設けられている。詳細観察判定部351は、詳細観察パラメータに基づいて、病変候補領域Lが詳細に観察されていると推定される場合には、支援情報を表示しないと判定し、病変候補領域Lが詳細に観察されていないと推定される場合には、支援情報を表示すると判定する。これにより、本実施の形態によれば、支援情報を適切に表示させることができる。
また、消失した病変候補領域Lが視認しやすいものである場合、病変候補領域Lに対する詳細な観察が完了している可能性がある。一方、消失した病変候補領域Lが視認しにくいものである場合、病変候補領域Lを見落としている可能性がある。本実施の形態では、表示判定部35には、視認性判定部352が設けられている。視認性判定部352は、視認性パラメータに基づいて、病変候補領域Lが視認しやすいものである場合には、支援情報を表示しないと判定し、病変候補領域Lが視認しにくいものである場合には、支援情報を表示すると判定する。これにより、本実施の形態によれば、支援情報を適切に表示させることができる。
また、消失した病変候補領域Lの重要度が低い場合には、消失した病変候補領域Lを復帰させて観察する必要性は少ない。しかし、消失した病変候補領域Lの重要度が高い場合には、消失した病変候補領域Lを復帰させて詳細に観察することが好ましい。本実施の形態では、表示判定部35には、重要性判定部353が設けられている。重要性判定部353は、重要度が低い場合には、支援情報を表示しないと判定し、重要度が高い場合には、支援情報を表示すると判定する。これにより、本実施の形態によれば、支援情報を適切に表示させることができる。
また、本実施の形態では、表示判定部35には、表示指示判定部354が設けられている。表示指示判定部354は、内視鏡1の使用者による支援情報を表示するか否かの指示によって基づいて表示可否判定を行う。すなわち、本実施の形態によれば、直接的な指示によって、支援情報を表示するか否かの選択を行うことができる。これにより、本実施の形態によれば、支援情報を適切に表示させることができる。
また、病変候補領域Lが消失してからの時間が十分に長い場合には、消失した病変候補領域Lを復帰させて観察する意思がない可能性が高い。本実施の形態では、表示判定部35には、経過時間判定部355が設けられている。経過時間判定部355は、病変候補領域Lが消失してからの時間がある程度長くなった場合には、支援情報を表示しないと判定する。これにより、本実施の形態によれば、支援情報を適切に表示させることができる。
なお、表示指示判定部354以外の判定部によって行われる表示可否判定は、いずれも、使用者の指示がない場合であっても、自動的に、支援情報を表示するか否かの選択を行うものである。これにより、本実施の形態によれば、使用者の負担を低減することができる。
[第2の実施の形態]
(画像処理装置の構成)
次に、本発明の第2の実施の形態に係わる画像処理装置について説明する。図12は、本実施の形態に係わる画像処理装置の構成を示す機能ブロック図である。本実施の形態に係わる画像処理装置3は、位置推定部37を備えている。位置推定部37は、記憶部371を含んでいる。記憶部371は、例えば、第1の実施の形態における図2に示したメモリ3Bまたは図示しない記憶装置によって構成されている。
位置推定部37には、検出途絶判定部34の判定結果が入力される。また、位置推定部37は、画像保存部32に保存された観察画像G1を読み出すことができるように構成されている。位置推定部37は、途絶判定後の注目領域である病変候補領域Lの位置を推定し、病変候補領域Lの推定位置を表示判定部35に出力する。病変候補領域Lの位置の推定方法については、後で説明する。
また、図13は、本実施の形態における表示判定部35の構成を示す機能ブロック図である。第1の実施の形態で説明したように、表示判定部35は、検出が途絶した注目領域である病変候補領域Lが表示部4の画面上に復帰するように支援する支援情報を表示部4に表示するか否かの判定である表示可否判定を行う。本実施の形態では、表示判定部35は、第1の実施の形態における複数の判定部と記憶部356の他に、復帰動作判定部357と、枠外距離判定部358とを含んでいる。
復帰動作判定部357は、注目領域である病変候補領域Lが表示部4の画面上に復帰するように内視鏡1を操作する復帰動作が行われているか否かによって変化する復帰動作パラメータを算出し、算出された復帰動作パラメータに基づいて表示可否判定を行う。復帰動作パラメータは、例えば、復帰動作が行われている可能性が低くなるに従って大きな数値になるように規定される。
本実施の形態では、復帰動作パラメータは、位置推定部37によって推定された病変候補領域Lの推定位置の変化に基づいて算出される。病変候補領域Lの推定位置が、現在の観察画像G1上の任意の点から遠ざかるように変化している場合には、復帰動作が行われている可能性は低い。従って、この場合には、復帰動作パラメータは、大きな数値になるように算出される。
枠外距離判定部358は、観察画像G1の外縁から位置推定部37によって推定された病変候補領域Lの推定位置までの距離である枠外距離を算出し、算出した枠外距離に基づいて表示可否判定を行う。
本実施の形態では、表示判定部35は、少なくとも、復帰動作判定部357および枠外距離判定部358の各々の判定結果に基づいて、表示出力部36に出力する判定結果の内容を決定し、決定した判定結果を表示出力部36に出力する。判定結果の内容の決定方法は、第1の実施の形態における、表示判定部35の複数の判定部の各々の判定結果に基づいて判定結果の内容を決定する方法と同様である。
また、第1の実施の形態で説明したように、表示可否判定において支援情報を表示部4に表示すると判定された場合には、表示出力部36は、表示用画像Gとして、支援情報を含む画像を構成し、構成した画像を表示部4に出力する。本実施の形態では、位置推定部37において注目領域である病変候補領域Lの位置が推定され且つ表示可否判定において支援情報を表示すると判定された場合には、表示出力部36の支援情報処理部362は、支援情報表示処理として、病変候補領域Lの推定位置に応じて支援情報を変化させる処理を行う。この場合、支援情報処理部362には、位置推定部37から病変候補領域Lの推定位置が入力される。なお、位置推定部37は、表示判定部35を介して病変候補領域Lの推定位置を支援情報処理部362に出力してもよいし、直接、病変候補領域Lの推定位置を支援情報処理部362に出力してもよい。
(病変候補領域の位置の推定方法)
次に、位置推定部37における病変候補領域Lの位置の推定方法について説明する。位置推定部37は、第1の変位情報と第2の変位情報を生成し、第1の変位情報と第2の変位情報に基づいて、病変候補領域Lの位置を推定する。
始めに、第1の変位情報について説明する。位置推定部37は、病変候補領域Lが継続して検出されている場合、すなわち、検出途絶判定部34において病変候補領域Lの検出が途絶していないと判定された場合に、病変候補領域Lの変位量および変位方向を示す情報である第1の変位情報を生成する。
位置推定部37は、例えば、以下のようにして第1の変位情報を生成する。まず、位置推定部37は、連続する2フレームの観察画像G1の各々から検出された病変候補情報から、病変候補領域Lの重心を算出する。次に、位置推定部37は、連続する2フレーム間における重心の動きを表す第1の動きベクトルを算出する。次に、位置推定部37は、第1の動きベクトルに基づいて重心の速度および加速度を算出する。次に、位置推定部37は、算出された重心の速度および加速度のうちの少なくとも1つに基づいて、第1の変位情報を生成する。
位置推定部37は、病変候補領域Lが継続して検出されている間、第1の変位情報を繰り返し生成する。生成された第1の変位情報は、記憶部371に記憶される。
次に、第2の変位情報について説明する。位置推定部37は、病変候補領域Lの検出が途絶した場合、すなわち、検出途絶判定部34において病変候補領域Lの検出が途絶したと判定された途絶判定が得られた場合に、観察画像G1の任意の点の変位量および変位方向を示す情報である第2の変位情報を生成する。
位置推定部37は、例えば、以下のようにして第2の変位情報を生成する。まず、位置推定部37は、画像保存部32から、現在の観察画像G1(以下、第1の観察画像G1と記す。)を読み出す。次に、位置推定部37は、第1の観察画像G1において位置推定部37が追跡可能な任意の点(以下、追跡点と記す。)を設定する。次に、位置推定部37は、画像保存部32から、第1の観察画像G1の次のフレームの観察画像G1(以下、第2の観察画像G1と記す。)を読み出す。次に、位置推定部37は、第2の観察画像G1における追跡点の位置を検出する。位置推定部37は、第1の観察画像G1と第2の観察画像G1の間における追跡点の動きを表す第2の動きベクトルを算出する。次に、位置推定部37は、第2の動きベクトルに基づいて追跡点の速度および加速度を算出する。次に、位置推定部37は、算出された追跡点の速度および加速度のうちの少なくとも1つに基づいて、第2の変位情報を生成する。
位置推定部37は、病変候補領域Lの検出が途絶している間、第2の変位情報を繰り返し生成する。生成された第2の変位情報は、記憶部371に記憶される。
次に、病変候補領域Lの位置の推定方法について説明する。位置推定部37は、第1の変位情報と第2の変位情報に基づいて、途絶判定が得られた時点よりも後の病変候補領域Lの位置を推定する。より具体的に説明すると、位置推定部37は、第2の変位情報を用いて、途絶判定が得られた時点よりも後の観察画像G1に含まれる被写体の動きを検出し、検出された被写体の動きを第1の変位情報に合成することによって、途絶判定が得られた時点よりも後の病変候補領域Lの位置を推定する。
なお、位置推定部37は、途絶判定が得られる直前の第1の変位情報に基づいて、病変候補領域Lが、観察画像G1の外縁よりも外側に位置するのか、観察画像G1の外縁よりも内側に位置するのかを判定する。病変候補領域Lが観察画像G1の外縁よりも外側に位置することが判定された場合、位置推定部37は、第2の変位情報に基づいて、観察画像G1の外縁よりも外側の領域に存在する病変候補領域Lの位置を推定する。病変候補領域Lが観察画像G1の外縁よりも内側に位置することが判定された場合、位置推定部37は、第2の変位情報に基づいて、観察画像G1中に存在する病変候補領域Lの位置を推定する。
(表示可否判定の内容)
次に、復帰動作判定部357および枠外距離判定部358の各々において行われる表示可否判定について説明する。第1の実施の形態において図5に示したフローチャートは、復帰動作判定部357および枠外距離判定部358の各々において行われる表示可否判定も示している。
始めに、復帰動作判定部357において行われる表示可否判定について説明する。復帰動作判定部357は、途絶判定が得られた場合に、まず、復帰動作パラメータを算出する(図5のステップS11)。次に、復帰動作パラメータと所定の閾値とを比較する(図5のステップS12)。復帰動作パラメータが所定の閾値以上の場合(YES)、復帰動作判定部357は、支援情報を表示しないと判定する(図5のステップS13)。一方、復帰動作パラメータが所定の閾値未満の場合(NO)、復帰動作判定部357は、支援情報を表示すると判定する(図5のステップS14)。図5に示したステップS12,S13,S14が、復帰動作判定部357において行われる表示可否判定に対応する。
なお、復帰動作パラメータが所定の閾値以上の場合は、復帰動作が行われていないと推定される場合に相当する。復帰動作パラメータが所定の閾値未満の場合は、復帰動作が行われていると推定される場合に相当する。復帰動作判定部357において行われる表示可否判定は、例えば、途絶判定後、所定の間隔で繰り返し実行されてもよい。
次に、枠外距離判定部358において行われる表示可否判定について説明する。枠外距離判定部358は、途絶判定が得られた場合に、まず、枠外距離を算出する。枠外距離は、図5のステップS11におけるパラメータに対応する。次に、パラメータである枠外距離と所定の閾値とを比較する(図5のステップS12)。枠外距離が所定の閾値以上の場合(YES)、枠外距離判定部358は、支援情報を表示しないと判定する(図5のステップS13)。一方、枠外距離が所定の閾値未満の場合(NO)、枠外距離判定部358は、支援情報を表示すると判定する(図5のステップS14)。図5に示したステップS12,S13,S14が、枠外距離判定部358において行われる表示可否判定に対応する。
なお、枠外距離判定部358において行われる表示可否判定は、例えば、途絶判定後、所定の間隔で繰り返し実行されてもよい。
(支援情報の例)
次に、位置推定部37において注目領域である病変候補領域Lの位置が推定され且つ表示可否判定において支援情報を表示すると判定された場合に行われる、病変候補領域Lの推定位置に応じて支援情報を変化させる処理の例について説明する。図14は、支援情報の第1の例を示す説明図である。図14は、第1の実施の形態における図9と同様に、病変候補領域Lが観察画像G1の外縁よりも外側に移動することによって、観察画像G1から病変候補領域Lが消失した状態を示している。図14には、位置推定部37によって推定される病変候補領域Lの位置が、図9に示した状態よりも、観察画像G1の外縁からより遠い場合を示している。図9および図14に示したように、支援情報処理部362は、観察画像G1の外縁から病変候補領域Lまでの距離が大きくなるに従って、支援情報であるアラート画像G2(三角形)を大きくしてもよい。
図15は、支援情報の第2の例を示す説明図である。図15は、第1の実施の形態における図11と同様に、病変候補領域LがひだFの裏側に隠れることによって、観察画像G1から病変候補領域Lが消失した状態を示している。図15には、位置推定部37によって推定される病変候補領域Lの位置が、図9に示した状態から変化した例を示している。図11および図15に示したように、支援情報処理部362は、病変候補領域Lの推定位置の変化に追従するように、支援情報であるアラート画像G2(三角形)の位置を変化させてもよい。
(作用および効果)
次に、本実施の形態特有の作用および効果について説明する。本実施の形態では、位置推定部37によって、途絶判定が得られた時点よりも後の注目領域である病変候補領域Lの位置が推定される。表示判定部35は、少なくとも、病変候補領域Lの推定位置に基づいて、表示可否判定を行う。これにより、本実施の形態によれば、支援情報を適切に表示させることができる。以下、この効果について詳しく説明する。
注目領域である病変候補領域Lが表示部4の画面上から消失した場合であって、復帰動作が行われていない場合には、内視鏡1の使用者の負担を軽減したり、支援情報によって他の病変候補領域Lが隠れないようにしたりする観点から、支援情報を表示しないことが好ましい。本実施の形態では、表示判定部35には、復帰動作判定部357が設けられている。復帰動作判定部357は、病変候補領域Lの推定位置の変化に基づいて復帰動作パラメータを算出し、算出した復帰動作パラメータに基づいて、復帰動作が行われていないと推定される場合には、支援情報を表示しないと判定し、復帰動作が行われていると推定される場合には、支援情報を表示すると判定する。これにより、本実施の形態によれば、支援情報を適切に表示させることができる。
なお、復帰動作は、内視鏡1の使用者が、途絶判定後に消失した病変候補領域Lを復帰させて観察する意思がある場合に実行されるものである。本実施の形態によれば、復帰動作判定部357によって、途絶判定後の使用者の意思を推定することができる。
また、病変候補領域Lが観察画像G1の外縁の外側に移動し、観察画像G1の外縁から病変候補領域Lまでの距離が十分に大きい場合には、消失した病変候補領域Lを復帰させて観察する意思がない可能性が高い。本実施の形態では、表示判定部35には、枠外距離判定部358が設けられている。枠外距離判定部358は、枠外距離がある程度大きくなった場合には、支援情報を表示しないと判定する。これにより、本実施の形態によれば、支援情報を適切に表示させることができる。
本実施の形態におけるその他の構成、作用および効果は、第1の実施の形態と同様である。
[第3の実施の形態]
次に、本発明の第3の実施の形態に係わる画像処理装置について説明する。図16は、本実施の形態に係わる画像処理装置の構成を示す機能ブロック図である。本実施の形態に係わる画像処理装置3は、逆再生表示部38を備えている。
逆再生表示部38には、検出途絶判定部34の判定結果が入力される。また、逆再生表示部38は、画像保存部32に保存された観察画像G1を読み出すことができるように構成されている。逆再生表示部38は、検出途絶判定部34において途絶判定が得られた第1の時点からこの第1の時点よりも後の第2の時点までに画像保存部32に時系列順に保存された複数の観察画像G1を読み出す。そして、逆再生表示部38は、読み出した複数の観察画像G1を用いて、表示部4(図1参照)において上記の時系列とは逆の順序で表示される動画像G3を生成し、生成した動画像G3を表示出力部36に出力する。
また、第1の実施の形態で説明したように、表示判定部35における表示可否判定において支援情報を表示部4に表示すると判定された場合には、表示出力部36は、表示用画像Gとして、支援情報を含む画像を構成し、構成した画像を表示部4に出力する。本実施の形態では、表示出力部36は、支援情報として、第1の実施の形態で説明したアラート画像G2の他に、動画像G3を用いる。
図17は、本実施の形態における表示用画像Gの一例を示している。図17には、第1の実施の形態における図9と同様に、病変候補領域Lが観察画像G1の外縁よりも外側に移動して、観察画像G1から注目領域である病変候補領域Lが消失した状態を示している。図17に示した例では、動画像G3は、観察画像G1の横に表示されている。
なお、動画像G3を表示するか否かの判定は、アラート画像G2を表示するか否かの判定とは別に行われてもよい。この場合、表示判定部35は、例えば、動画像G3を表示するか否かの指示に基づいて、動画像G3を表示するか否かの判定を行う。動画像G3を表示するか否かの指示は、例えば、第1の実施の形態における図1に示した表示指示部6を介して取得されてもよい。
本実施の形態におけるその他の構成、作用および効果は、第1の実施の形態と同様である。
本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。例えば、画像処理装置3のハードウェア構成は、図2を参照して説明した例に限られない。具体的には、例えば、画像処理装置3の画像取得部31、注目領域検出部33、検出途絶判定部34、表示判定部35、表示出力部36、位置推定部37(第2の実施の形態)および逆再生表示部38(第3の実施の形態)は、1つのプロセッサによって実現されてもよいし、複数のプロセッサによって実現されてもよい。後者の場合、画像取得部31、注目領域検出部33、検出途絶判定部34、表示判定部35、表示出力部36、位置推定部37および逆再生表示部38は、それぞれ別々のプロセッサによって実現されてもよい。

Claims (30)

  1. 内視鏡によって撮影された被写体の画像を取得する画像取得部と、
    少なくとも前記画像取得部によって取得された前記画像を含む表示用画像を表示部に出力する表示出力部と、
    前記画像取得部によって取得された前記画像に含まれる注目領域を検出する注目領域検出部と、
    前記注目領域検出部における前記注目領域の検出が途絶したか否かを判定する検出途絶判定部と、
    前記検出途絶判定部において前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行う表示判定部とを備え、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示出力部は、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力し、
    前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示出力部は、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力し、
    前記表示判定部は、詳細観察判定部を含み、
    前記詳細観察判定部は、前記注目領域が詳細に観察されているか否かによって変化する詳細観察パラメータを算出し、前記詳細観察パラメータに基づいて前記表示可否判定を行い、
    前記詳細観察パラメータは、前記注目領域の形状変化量、前記注目領域の移動量および前記内視鏡の観察モードのうちの少なくとも1つに基づいて算出されることを特徴とする内視鏡画像処理装置。
  2. 内視鏡によって撮影された被写体の画像を取得する画像取得部と、
    少なくとも前記画像取得部によって取得された前記画像を含む表示用画像を表示部に出力する表示出力部と、
    前記画像取得部によって取得された前記画像に含まれる注目領域を検出する注目領域検出部と、
    前記注目領域検出部における前記注目領域の検出が途絶したか否かを判定する検出途絶判定部と、
    前記検出途絶判定部において前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行う表示判定部とを備え、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示出力部は、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力し、
    前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示出力部は、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力し、
    前記表示判定部は、視認性判定部を含み、
    前記視認性判定部は、前記注目領域の視認のしやすさによって変化する視認性パラメータを算出し、前記視認性パラメータに基づいて前記表示可否判定を行うことを特徴とする内視鏡画像処理装置。
  3. 前記視認性パラメータは、前記注目領域の色、形状およびテクスチャのうちの少なくとも1つに基づいて算出されることを特徴とする請求項に記載の内視鏡画像処理装置。
  4. 内視鏡によって撮影された被写体の画像を取得する画像取得部と、
    少なくとも前記画像取得部によって取得された前記画像を含む表示用画像を表示部に出力する表示出力部と、
    前記画像取得部によって取得された前記画像に含まれる注目領域を検出する注目領域検出部と、
    前記注目領域検出部における前記注目領域の検出が途絶したか否かを判定する検出途絶判定部と、
    前記検出途絶判定部において前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行う表示判定部とを備え、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示出力部は、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力し、
    前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示出力部は、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力し、
    前記表示判定部は、重要性判定部を含み、
    前記重要性判定部は、前記注目領域の重要度を算出し、前記重要度に基づいて前記表示可否判定を行うことを特徴とする内視鏡画像処理装置。
  5. 前記重要度は、前記注目領域の色、形状およびテクスチャのうちの少なくとも1つに基づいて算出されることを特徴とする請求項に記載の内視鏡画像処理装置。
  6. 内視鏡によって撮影された被写体の画像を取得する画像取得部と、
    少なくとも前記画像取得部によって取得された前記画像を含む表示用画像を表示部に出力する表示出力部と、
    前記画像取得部によって取得された前記画像に含まれる注目領域を検出する注目領域検出部と、
    前記注目領域検出部における前記注目領域の検出が途絶したか否かを判定する検出途絶判定部と、
    前記検出途絶判定部において前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行う表示判定部とを備え、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示出力部は、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力し、
    前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示出力部は、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力し、
    前記表示判定部は、経過時間判定部を含み、
    前記経過時間判定部は、前記途絶判定が得られた時点からの経過時間を計測し、前記経過時間に基づいて前記表示可否判定を行うことを特徴とする内視鏡画像処理装置。
  7. 内視鏡によって撮影された被写体の画像を取得する画像取得部と、
    少なくとも前記画像取得部によって取得された前記画像を含む表示用画像を表示部に出力する表示出力部と、
    前記画像取得部によって取得された前記画像に含まれる注目領域を検出する注目領域検出部と、
    前記注目領域検出部における前記注目領域の検出が途絶したか否かを判定する検出途絶判定部と、
    前記検出途絶判定部において前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行う表示判定部と、
    前記途絶判定後の前記注目領域の位置を推定する位置推定部を備え、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示出力部は、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力し、
    前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示出力部は、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力し、
    前記位置推定部において前記注目領域の位置が推定され且つ前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示出力部は、前記注目領域の推定位置に応じて前記支援情報を変化させ、
    前記表示判定部は、枠外距離判定部を含み、
    前記枠外距離判定部は、前記画像の外縁から前記位置推定部によって推定された前記注目領域の位置までの距離を算出し、前記距離に基づいて前記表示可否判定を行うことを特徴とする内視鏡画像処理装置。
  8. 内視鏡によって撮影された被写体の画像を取得する画像取得部と、
    少なくとも前記画像取得部によって取得された前記画像を含む表示用画像を表示部に出力する表示出力部と、
    前記画像取得部によって取得された前記画像に含まれる注目領域を検出する注目領域検出部と、
    前記注目領域検出部における前記注目領域の検出が途絶したか否かを判定する検出途絶判定部と、
    前記検出途絶判定部において前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行う表示判定部とを備え、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示出力部は、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力し、
    前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示出力部は、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力し、
    前記表示判定部は、復帰動作判定部を含み、
    前記復帰動作判定部は、前記注目領域が前記表示部の画面上に復帰するように前記内視鏡を操作する復帰動作が行われているか否かによって変化する復帰動作パラメータを算出し、前記復帰動作パラメータに基づいて前記表示可否判定を行うことを特徴とする内視鏡画像処理装置。
  9. 更に、前記途絶判定後の前記注目領域の位置を推定する位置推定部を備え、
    前記位置推定部において前記注目領域の位置が推定され且つ前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示出力部は、前記注目領域の推定位置に応じて前記支援情報を変化させ、
    前記復帰動作パラメータは、前記位置推定部によって推定された前記注目領域の位置の変化に基づいて算出されることを特徴とする請求項に記載の内視鏡画像処理装置。
  10. 内視鏡によって撮影された被写体の画像を取得する画像取得部と、
    少なくとも前記画像取得部によって取得された前記画像を含む表示用画像を表示部に出力する表示出力部と、
    前記画像取得部によって取得された前記画像に含まれる注目領域を検出する注目領域検出部と、
    前記注目領域検出部における前記注目領域の検出が途絶したか否かを判定する検出途絶判定部と、
    前記検出途絶判定部において前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行う表示判定部と、
    前記画像取得部によって取得された前記画像を保存する画像保存部と、
    逆再生表示部とを備え、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示出力部は、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力し、
    前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示出力部は、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力し、
    前記逆再生表示部は、前記途絶判定が得られた第1の時点から前記第1の時点よりも後の第2の時点までに前記画像保存部に時系列順に保存された複数の前記画像を用いて、前記表示部において前記時系列とは逆の順序で表示される動画像を生成し、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示出力部は、前記支援情報として、前記動画像を用いることを特徴とする内視鏡画像処理装置。
  11. 内視鏡によって撮影された被写体の画像を処理する内視鏡画像処理装置の作動方法であって、
    前記作動方法は、
    前記画像を取得するステップと、
    少なくとも取得された前記画像を含む表示用画像を表示部に出力するステップと、
    取得された前記画像に含まれる注目領域を検出するステップと、
    前記注目領域の検出が途絶したか否かを判定するステップと、
    前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行うステップとを含み、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示部に出力するステップでは、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力し、
    前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示部に出力するステップでは、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力し、
    前記表示可否判定を行うステップは、詳細観察判定ステップを含み、
    前記詳細観察判定ステップは、前記注目領域が詳細に観察されているか否かによって変化する詳細観察パラメータを算出し、前記詳細観察パラメータに基づいて前記表示可否判定を行い、
    前記詳細観察パラメータは、前記注目領域の形状変化量、前記注目領域の移動量および前記内視鏡の観察モードのうちの少なくとも1つに基づいて算出されることを特徴とする内視鏡画像処理装置の作動方法。
  12. 内視鏡によって撮影された被写体の画像を処理する内視鏡画像処理装置の作動方法であって、
    前記作動方法は、
    前記画像を取得するステップと、
    少なくとも取得された前記画像を含む表示用画像を表示部に出力するステップと、
    取得された前記画像に含まれる注目領域を検出するステップと、
    前記注目領域の検出が途絶したか否かを判定するステップと、
    前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行うステップとを含み、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示部に出力するステップでは、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力し、
    前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示部に出力するステップでは、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力し、
    前記表示可否判定を行うステップは、視認性判定ステップを含み、
    前記視認性判定ステップは、前記注目領域の視認のしやすさによって変化する視認性パラメータを算出し、前記視認性パラメータに基づいて前記表示可否判定を行うことを特徴とする内視鏡画像処理装置の作動方法。
  13. 前記視認性パラメータは、前記注目領域の色、形状およびテクスチャのうちの少なくとも1つに基づいて算出されることを特徴とする請求項12に記載の内視鏡画像処理装置の作動方法。
  14. 内視鏡によって撮影された被写体の画像を処理する内視鏡画像処理装置の作動方法であって、
    前記作動方法は、
    前記画像を取得するステップと、
    少なくとも取得された前記画像を含む表示用画像を表示部に出力するステップと、
    取得された前記画像に含まれる注目領域を検出するステップと、
    前記注目領域の検出が途絶したか否かを判定するステップと、
    前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行うステップとを含み、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示部に出力するステップでは、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力し、
    前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示部に出力するステップでは、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力し、
    前記表示可否判定を行うステップは、重要性判定ステップを含み、
    前記重要性判定ステップは、前記注目領域の重要度を算出し、前記重要度に基づいて前記表示可否判定を行うことを特徴とする内視鏡画像処理装置の作動方法。
  15. 前記重要度は、前記注目領域の色、形状およびテクスチャのうちの少なくとも1つに基づいて算出されることを特徴とする請求項14に記載の内視鏡画像処理装置の作動方法。
  16. 内視鏡によって撮影された被写体の画像を処理する内視鏡画像処理装置の作動方法であって、
    前記作動方法は、
    前記画像を取得するステップと、
    少なくとも取得された前記画像を含む表示用画像を表示部に出力するステップと、
    取得された前記画像に含まれる注目領域を検出するステップと、
    前記注目領域の検出が途絶したか否かを判定するステップと、
    前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行うステップとを含み、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示部に出力するステップでは、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力し、
    前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示部に出力するステップでは、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力し、
    前記表示可否判定を行うステップは、経過時間判定ステップを含み、
    前記経過時間判定ステップは、前記途絶判定が得られた時点からの経過時間を計測し、前記経過時間に基づいて前記表示可否判定を行うことを特徴とする内視鏡画像処理装置の作動方法。
  17. 内視鏡によって撮影された被写体の画像を処理する内視鏡画像処理装置の作動方法であって、
    前記作動方法は、
    前記画像を取得するステップと、
    少なくとも取得された前記画像を含む表示用画像を表示部に出力するステップと、
    取得された前記画像に含まれる注目領域を検出するステップと、
    前記注目領域の検出が途絶したか否かを判定するステップと、
    前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行うステップと、
    前記途絶判定後の前記注目領域の位置を推定する位置推定ステップを含み、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示部に出力するステップでは、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力し、
    前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示部に出力するステップでは、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力し、
    前記位置推定ステップにおいて前記注目領域の位置が推定され且つ前記表示可否判定を行うステップにおいて前記支援情報を表示すると判定された場合には、前記表示部に出力するステップは、前記注目領域の推定位置に応じて前記支援情報を変化させ、
    前記表示可否判定を行うステップは、枠外距離判定ステップを含み、
    前記枠外距離判定ステップは、前記画像の外縁から前記位置推定ステップによって推定された前記注目領域の位置までの距離を算出し、前記距離に基づいて前記表示可否判定を行うことを特徴とする内視鏡画像処理装置の作動方法。
  18. 内視鏡によって撮影された被写体の画像を処理する内視鏡画像処理装置の作動方法であって、
    前記作動方法は、
    前記画像を取得するステップと、
    少なくとも取得された前記画像を含む表示用画像を表示部に出力するステップと、
    取得された前記画像に含まれる注目領域を検出するステップと、
    前記注目領域の検出が途絶したか否かを判定するステップと、
    前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行うステップとを含み、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示部に出力するステップでは、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力し、
    前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示部に出力するステップでは、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力し、
    前記表示可否判定を行うステップは、復帰動作判定ステップを含み、
    前記復帰動作判定ステップは、前記注目領域が前記表示部の画面上に復帰するように前記内視鏡を操作する復帰動作が行われているか否かによって変化する復帰動作パラメータを算出し、前記復帰動作パラメータに基づいて前記表示可否判定を行うことを特徴とする内視鏡画像処理装置の作動方法。
  19. 前記作動方法は、更に、前記途絶判定後の前記注目領域の位置を推定する位置推定ステップを含み、
    前記位置推定ステップにおいて前記注目領域の位置が推定され且つ前記表示可否判定を行うステップにおいて前記支援情報を表示すると判定された場合には、前記表示部に出力するステップでは、前記注目領域の推定位置に応じて前記支援情報を変化させ、
    前記復帰動作パラメータは、前記位置推定ステップによって推定された前記注目領域の位置の変化に基づいて算出されることを特徴とする請求項18に記載の内視鏡画像処理装置の作動方法。
  20. 内視鏡によって撮影された被写体の画像を処理する内視鏡画像処理装置の作動方法であって、
    前記作動方法は、
    前記画像を取得するステップと、
    少なくとも取得された前記画像を含む表示用画像を表示部に出力するステップと、
    取得された前記画像に含まれる注目領域を検出するステップと、
    前記注目領域の検出が途絶したか否かを判定するステップと、
    前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行うステップと、
    前記画像を取得するステップによって取得された前記画像を保存する画像保存ステップと、
    逆再生表示ステップとを含み、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示部に出力するステップでは、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力し、
    前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示部に出力するステップでは、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力し、
    前記逆再生表示ステップは、前記途絶判定が得られた第1の時点から前記第1の時点よりも後の第2の時点までに前記画像保存ステップにおいて時系列順に保存された複数の前記画像を用いて、前記表示部において前記時系列とは逆の順序で表示される動画像を生成し、
    前記表示可否判定を行うステップにおいて前記支援情報を表示すると判定された場合には、前記表示部に出力するステップは、前記支援情報として、前記動画像を用いることを特徴とする内視鏡画像処理装置の作動方法。
  21. 内視鏡によって撮影された被写体の画像を取得する処理と、
    少なくとも取得された前記画像を含む表示用画像を表示部に出力する処理と、
    取得された前記画像に含まれる注目領域を検出する処理と、
    前記注目領域の検出が途絶したか否かを判定する処理と、
    前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行う処理と、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力する第1の表示処理と、
    前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力する第2の表示処理とを、コンピュータに実行させるプログラムであって、
    前記表示可否判定を行う処理は、詳細観察判定処理を含み、
    前記詳細観察判定処理は、前記注目領域が詳細に観察されているか否かによって変化する詳細観察パラメータを算出し、前記詳細観察パラメータに基づいて前記表示可否判定を行い、
    前記詳細観察パラメータは、前記注目領域の形状変化量、前記注目領域の移動量および前記内視鏡の観察モードのうちの少なくとも1つに基づいて算出されることを特徴とするプログラム。
  22. 内視鏡によって撮影された被写体の画像を取得する処理と、
    少なくとも取得された前記画像を含む表示用画像を表示部に出力する処理と、
    取得された前記画像に含まれる注目領域を検出する処理と、
    前記注目領域の検出が途絶したか否かを判定する処理と、
    前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行う処理と、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力する第1の表示処理と、
    前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力する第2の表示処理とを、コンピュータに実行させるプログラムであって、
    前記表示可否判定を行う処理は、視認性判定処理を含み、
    前記視認性判定処理は、前記注目領域の視認のしやすさによって変化する視認性パラメータを算出し、前記視認性パラメータに基づいて前記表示可否判定を行うことを特徴とするプログラム。
  23. 前記視認性パラメータは、前記注目領域の色、形状およびテクスチャのうちの少なくとも1つに基づいて算出されることを特徴とする請求項22に記載のプログラム。
  24. 内視鏡によって撮影された被写体の画像を取得する処理と、
    少なくとも取得された前記画像を含む表示用画像を表示部に出力する処理と、
    取得された前記画像に含まれる注目領域を検出する処理と、
    前記注目領域の検出が途絶したか否かを判定する処理と、
    前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行う処理と、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力する第1の表示処理と、
    前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力する第2の表示処理とを、コンピュータに実行させるプログラムであって、
    前記表示可否判定を行う処理は、重要性判定処理を含み、
    前記重要性判定処理は、前記注目領域の重要度を算出し、前記重要度に基づいて前記表示可否判定を行うことを特徴とするプログラム。
  25. 前記重要度は、前記注目領域の色、形状およびテクスチャのうちの少なくとも1つに基づいて算出されることを特徴とする請求項24に記載のプログラム。
  26. 内視鏡によって撮影された被写体の画像を取得する処理と、
    少なくとも取得された前記画像を含む表示用画像を表示部に出力する処理と、
    取得された前記画像に含まれる注目領域を検出する処理と、
    前記注目領域の検出が途絶したか否かを判定する処理と、
    前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行う処理と、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力する第1の表示処理と、
    前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力する第2の表示処理とを、コンピュータに実行させるプログラムであって、
    前記表示可否判定を行う処理は、経過時間判定処理を含み、
    前記経過時間判定処理は、前記途絶判定が得られた時点からの経過時間を計測し、前記経過時間に基づいて前記表示可否判定を行うことを特徴とするプログラム。
  27. 内視鏡によって撮影された被写体の画像を取得する処理と、
    少なくとも取得された前記画像を含む表示用画像を表示部に出力する処理と、
    取得された前記画像に含まれる注目領域を検出する処理と、
    前記注目領域の検出が途絶したか否かを判定する処理と、
    前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行う処理と、
    前記途絶判定後の前記注目領域の位置を推定する位置推定処理と、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力する第1の表示処理と、
    前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力する第2の表示処理とを、コンピュータに実行させるプログラムであって、
    前記位置推定処理において前記注目領域の位置が推定され且つ前記表示可否判定を行う処理において前記支援情報を表示すると判定された場合には、前記第1の表示処理は、前記注目領域の推定位置に応じて前記支援情報を変化させ
    前記表示可否判定を行う処理は、枠外距離判定処理を含み、
    前記枠外距離判定処理は、前記画像の外縁から前記位置推定処理によって推定された前記注目領域の位置までの距離を算出し、前記距離に基づいて前記表示可否判定を行うことを特徴とするプログラム。
  28. 内視鏡によって撮影された被写体の画像を取得する処理と、
    少なくとも取得された前記画像を含む表示用画像を表示部に出力する処理と、
    取得された前記画像に含まれる注目領域を検出する処理と、
    前記注目領域の検出が途絶したか否かを判定する処理と、
    前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行う処理と、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力する第1の表示処理と、
    前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力する第2の表示処理とを、コンピュータに実行させるプログラムであって、
    前記表示可否判定を行う処理は、復帰動作判定処理を含み、
    前記復帰動作判定処理は、前記注目領域が前記表示部の画面上に復帰するように前記内視鏡を操作する復帰動作が行われているか否かによって変化する復帰動作パラメータを算出し、前記復帰動作パラメータに基づいて前記表示可否判定を行うことを特徴とするプログラム。
  29. 前記プログラムは、更に、前記途絶判定後の前記注目領域の位置を推定する位置推定処理をコンピュータに実行させ、
    前記位置推定処理において前記注目領域の位置が推定され且つ前記表示可否判定を行う処理において前記支援情報を表示すると判定された場合には、前記第1の表示処理は、前記注目領域の推定位置に応じて前記支援情報を変化させ、
    前記復帰動作パラメータは、前記位置推定処理によって推定された前記注目領域の位置の変化に基づいて算出されることを特徴とする請求項28に記載のプログラム。
  30. 内視鏡によって撮影された被写体の画像を取得する処理と、
    少なくとも取得された前記画像を含む表示用画像を表示部に出力する処理と、
    取得された前記画像に含まれる注目領域を検出する処理と、
    前記注目領域の検出が途絶したか否かを判定する処理と、
    前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行う処理と、
    前記画像を取得する処理によって取得された前記画像を保存する画像保存処理と、
    逆再生表示処理と、
    前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力する第1の表示処理と、
    前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力する第2の表示処理とを、コンピュータに実行させるプログラムであって、
    前記逆再生表示処理は、前記途絶判定が得られた第1の時点から前記第1の時点よりも後の第2の時点までに前記画像保存処理において時系列順に保存された複数の前記画像を用いて、前記表示部において前記時系列とは逆の順序で表示される動画像を生成し、
    前記表示可否判定を行う処理において前記支援情報を表示すると判定された場合には、前記第1の表示処理は、前記支援情報として、前記動画像を用いることを特徴とするプログラム。
JP2020525130A 2018-06-19 2018-06-19 内視鏡画像処理装置、内視鏡画像処理装置の作動方法およびプログラム Active JP7045453B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/023341 WO2019244255A1 (ja) 2018-06-19 2018-06-19 内視鏡画像処理装置および内視鏡画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2019244255A1 JPWO2019244255A1 (ja) 2021-02-18
JP7045453B2 true JP7045453B2 (ja) 2022-03-31

Family

ID=68983842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020525130A Active JP7045453B2 (ja) 2018-06-19 2018-06-19 内視鏡画像処理装置、内視鏡画像処理装置の作動方法およびプログラム

Country Status (4)

Country Link
US (1) US11871903B2 (ja)
JP (1) JP7045453B2 (ja)
CN (1) CN112040830A (ja)
WO (1) WO2019244255A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7038641B2 (ja) * 2018-11-02 2022-03-18 富士フイルム株式会社 医療診断支援装置、内視鏡システム、及び作動方法
CN113226151B (zh) * 2018-12-28 2024-06-18 奥林巴斯株式会社 内窥镜图像处理装置、显示控制方法及存储介质
US11790524B2 (en) * 2019-06-20 2023-10-17 Ohio State Innovation Foundation System and method for quantitative volumetric assessment and modeling of tumor lesions
WO2021075306A1 (ja) * 2019-10-17 2021-04-22 ソニー株式会社 手術用情報処理装置、手術用情報処理方法及び手術用情報処理プログラム
JPWO2021153471A1 (ja) * 2020-01-27 2021-08-05
WO2021201272A1 (ja) * 2020-04-03 2021-10-07 富士フイルム株式会社 医療画像処理装置、内視鏡システム及び医療画像処理装置の作動方法並びに医療画像処理装置用プログラム
JP7438038B2 (ja) * 2020-06-25 2024-02-26 富士フイルムヘルスケア株式会社 超音波診断装置及び診断支援方法
EP4306035A1 (en) * 2021-03-09 2024-01-17 FUJIFILM Corporation Endoscope system and method for operating same
EP4306032A1 (en) * 2021-03-09 2024-01-17 FUJIFILM Corporation Endoscope system and method for operating same
WO2022191128A1 (ja) * 2021-03-09 2022-09-15 富士フイルム株式会社 内視鏡システム及びその作動方法
WO2024028924A1 (ja) * 2022-08-01 2024-02-08 日本電気株式会社 内視鏡検査支援装置、内視鏡検査支援方法、及び、記録媒体

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011010841A (ja) 2009-07-01 2011-01-20 Hoya Corp 内視鏡装置
JP2011224038A (ja) 2010-04-15 2011-11-10 Olympus Corp 画像処理装置及びプログラム
JP2012170641A (ja) 2011-02-22 2012-09-10 Olympus Corp 蛍光観察装置
JP2013231772A (ja) 2012-04-27 2013-11-14 Morita Mfg Co Ltd 医療用診療装置
WO2014084134A1 (ja) 2012-11-30 2014-06-05 オリンパス株式会社 観察装置
WO2017203560A1 (ja) 2016-05-23 2017-11-30 オリンパス株式会社 内視鏡画像処理装置
WO2018078724A1 (ja) 2016-10-25 2018-05-03 オリンパス株式会社 内視鏡画像処理装置及び内視鏡画像処理方法
JP2019180966A (ja) 2018-04-13 2019-10-24 学校法人昭和大学 内視鏡観察支援装置、内視鏡観察支援方法、及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NZ579125A (en) * 2007-01-19 2012-06-29 Sunnybrook Health Sciences Ct Scanning mechanisms comprising drive mechanism for imparting rotational motion to imaging conduit
JP2009225933A (ja) * 2008-03-21 2009-10-08 Fujifilm Corp カプセル内視鏡システム及びカプセル内視鏡の動作制御方法
JP5802364B2 (ja) * 2009-11-13 2015-10-28 オリンパス株式会社 画像処理装置、電子機器、内視鏡システム及びプログラム
JP5484977B2 (ja) * 2010-03-23 2014-05-07 オリンパス株式会社 蛍光観察装置
JP2011255006A (ja) 2010-06-09 2011-12-22 Olympus Corp 画像処理装置、内視鏡装置、プログラム及び画像処理方法
CN103491850B (zh) * 2011-04-28 2016-08-17 奥林巴斯株式会社 荧光观察装置及其图像显示方法
JP6017219B2 (ja) * 2012-08-01 2016-10-26 オリンパス株式会社 蛍光観察装置および蛍光観察システム
JP6196922B2 (ja) * 2014-03-17 2017-09-13 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2017002184A1 (ja) * 2015-06-29 2017-01-05 オリンパス株式会社 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム
WO2017073338A1 (ja) * 2015-10-26 2017-05-04 オリンパス株式会社 内視鏡画像処理装置
EP3603482B1 (en) * 2017-03-30 2023-03-22 FUJIFILM Corporation Endoscope system, processor device for operating endoscope system
WO2019106712A1 (ja) 2017-11-28 2019-06-06 オリンパス株式会社 内視鏡画像処理装置及び内視鏡画像処理方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011010841A (ja) 2009-07-01 2011-01-20 Hoya Corp 内視鏡装置
JP2011224038A (ja) 2010-04-15 2011-11-10 Olympus Corp 画像処理装置及びプログラム
JP2012170641A (ja) 2011-02-22 2012-09-10 Olympus Corp 蛍光観察装置
JP2013231772A (ja) 2012-04-27 2013-11-14 Morita Mfg Co Ltd 医療用診療装置
WO2014084134A1 (ja) 2012-11-30 2014-06-05 オリンパス株式会社 観察装置
WO2017203560A1 (ja) 2016-05-23 2017-11-30 オリンパス株式会社 内視鏡画像処理装置
WO2018078724A1 (ja) 2016-10-25 2018-05-03 オリンパス株式会社 内視鏡画像処理装置及び内視鏡画像処理方法
JP2019180966A (ja) 2018-04-13 2019-10-24 学校法人昭和大学 内視鏡観察支援装置、内視鏡観察支援方法、及びプログラム

Also Published As

Publication number Publication date
JPWO2019244255A1 (ja) 2021-02-18
US20210106208A1 (en) 2021-04-15
CN112040830A (zh) 2020-12-04
WO2019244255A1 (ja) 2019-12-26
US11871903B2 (en) 2024-01-16

Similar Documents

Publication Publication Date Title
JP7045453B2 (ja) 内視鏡画像処理装置、内視鏡画像処理装置の作動方法およびプログラム
JP6602969B2 (ja) 内視鏡画像処理装置
JP6246431B2 (ja) 内視鏡装置
US20180098690A1 (en) Endoscope apparatus and method for operating endoscope apparatus
US10893792B2 (en) Endoscope image processing apparatus and endoscope image processing method
EP3357407A1 (en) Endoscope image processing device
JPWO2017073337A1 (ja) 内視鏡装置及びビデオプロセッサ
US11025835B2 (en) Imaging device, endoscope apparatus, and method for operating imaging device
US11642005B2 (en) Endoscope system, endoscope image processing method, and storage medium
US11426052B2 (en) Endoscopic system
JP6168876B2 (ja) 検出装置、学習装置、検出方法、学習方法及びプログラム
US20150363942A1 (en) Image processing device, endoscope apparatus, image processing method, and information storage device
US20210338042A1 (en) Image processing apparatus, diagnosis supporting method, and recording medium recording image processing program
JP6956853B2 (ja) 診断支援装置、診断支援プログラム、及び、診断支援方法
US11432707B2 (en) Endoscope system, processor for endoscope and operation method for endoscope system for determining an erroneous estimation portion
JP7247702B2 (ja) 内視鏡システム、内視鏡制御方法、及び、撮像制御装置
WO2021171464A1 (ja) 処理装置、内視鏡システム及び撮像画像の処理方法
WO2023126999A1 (ja) 画像処理装置、画像処理方法、及び、記憶媒体
JPWO2016111178A1 (ja) 内視鏡システム
JP2011244884A (ja) 内視鏡システム
JP2008093213A (ja) 医療用画像処理装置及び医療用画像処理方法
US20220346632A1 (en) Image processing apparatus, image processing method, and non-transitory storage medium storing computer program
US20230245304A1 (en) Medical image processing device, operation method of medical image processing device, medical image processing program, and recording medium
CN114785948B (zh) 内窥镜调焦方法、装置、内镜图像处理器及可读存储介质
JP2022145395A (ja) 検査支援装置、検査支援方法および検査支援プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200907

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220318

R151 Written notification of patent or utility model registration

Ref document number: 7045453

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151