JP6967602B2 - 検査支援装置、内視鏡装置、内視鏡装置の作動方法、及び検査支援プログラム - Google Patents

検査支援装置、内視鏡装置、内視鏡装置の作動方法、及び検査支援プログラム Download PDF

Info

Publication number
JP6967602B2
JP6967602B2 JP2019551062A JP2019551062A JP6967602B2 JP 6967602 B2 JP6967602 B2 JP 6967602B2 JP 2019551062 A JP2019551062 A JP 2019551062A JP 2019551062 A JP2019551062 A JP 2019551062A JP 6967602 B2 JP6967602 B2 JP 6967602B2
Authority
JP
Japan
Prior art keywords
image data
captured image
region
line
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019551062A
Other languages
English (en)
Other versions
JPWO2019087790A1 (ja
Inventor
伸治 林
正明 大酒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2019087790A1 publication Critical patent/JPWO2019087790A1/ja
Application granted granted Critical
Publication of JP6967602B2 publication Critical patent/JP6967602B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/00042Operational features of endoscopes provided with input arrangements for the user for mechanical operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Astronomy & Astrophysics (AREA)
  • Endoscopes (AREA)

Description

本発明は、検査支援装置、内視鏡装置、検査支援方法、及び検査支援プログラムに関する。
CT(Computed Tomography)、MRI(Magnetic Resonance Imaging)、病理標本を取り込むバーチャルスライドスキャナ、又は内視鏡装置等の医療機器の発達により、デジタル化された高精細の医用画像が大量に取得可能となっている。
近年では、医用画像を保存するPACS(Picture Archiving and Communication Systems)の普及が進み、これらの画像が医師の診断所見とともに順次格納されている。このような、医用画像のデジタル化、症例の蓄積が進むにつれ、例えば特許文献1−3に記載されているように、コンピュータを用いて病変の検出又は識別を行うことが可能になってきている。
特許文献1には、医用画像上でユーザが関心領域を指定すると、その関心領域内の画像に対し詳細な解析が実行され、解析結果が表示されるシステムが記載されている。
特許文献2には、医用画像から病変候補領域を抽出し、抽出した病変候補領域に対し、機械学習によって生成された認識モデルによって病変の識別を行うシステムが記載されている。
特許文献3には、内視鏡によって撮像された撮像画像を解析して病変部位を検出し、検出した病変部位を撮像画像に重ねて表示するシステムが記載されている。このシステムでは、撮像画像上の観察者が注目している領域のみに限定して上記の解析を行うことが可能とされている。
特開2014−94157号公報 特開2005−34211号公報 特開2001−258820号公報
上述した医療機器のうち内視鏡装置を用いた検査においては、内視鏡の挿入部を被検者の体内に挿入した状態にて、表示装置に表示される撮像画像を確認しながら、病変部位の有無の判断と病変部位の切除等を行う必要がある。このため、内視鏡装置を用いた検査では、コンピュータを用いた病変の検出又は識別の処理を、検査中にリアルタイムに行う必要がある。
こういったリアルタイム処理は、コンピュータの処理負荷が大きい。特許文献1−2には、医用画像の特定の領域に限定して解析を実行する技術が記載されているが、検査等によって保存済みの画像データを検査後に解析することを想定しており、リアルタイムで病変を検出したり識別を行ったりする場合については想定していない。
特許文献3には、内視鏡を用いた検査時において、撮像画像上の注目されている領域に限定して解析を行うことが記載されている。しかし、この領域をどのようにして選択すべきか考慮されていない。
内視鏡は両手を利用して操作する必要があり、検査時において、操作者は両手が塞がった状態となる。このため、リアルタイムに表示される撮像画像において、コンピュータによる病変の検出又は識別の処理が必要とされている領域をどのように判断するかが、検査の精度と効率を確保する上で重要になる。
本発明は、上記事情に鑑みてなされたものであり、内視鏡を用いた検査の精度と効率を両立させることのできる検査支援装置、内視鏡装置、検査支援方法、及び検査支援プログラムを提供することを目的とする。
本発明の検査支援装置は、内視鏡によって被検体内を撮像して得られた撮像画像データを取得する撮像画像データ取得部と、上記撮像画像データに基づく撮像画像を表示する表示装置に向けられている視線を検出する視線検出部と、上記撮像画像データから病変部位を検出する検出処理、及び、上記検出処理で検出した上記病変部位の種類又は性質を見分ける識別処理を行う処理部と、上記処理部による上記検出処理及び識別処理の結果を上記表示装置に表示させる表示制御部と、を備え、上記処理部は上記視線検出部によって検出された視線に基づいて、上記撮像画像データの注目領域と、上記注目領域を除く領域である非注目領域とを判定し上記注目領域の上記撮像画像データ、及び、上記非注目領域の上記撮像画像データ対して上記検出処理を実行した後の上記識別処理を、上記注目領域の上記撮像画像データ、及び、上記非注目領域の上記撮像画像データの一方に対してのみ実行する、ものである。
また、本発明の検査支援装置は、内視鏡によって被検体内を撮像して得られた撮像画像データを取得する撮像画像データ取得部と、上記撮像画像データに基づく撮像画像を表示する表示装置に向けられている視線を検出する視線検出部と、上記撮像画像データから病変部位を検出する検出処理、及び、上記検出処理で検出した上記病変部位の種類又は性質を見分ける識別処理を行う処理部と、上記処理部による上記検出処理及び識別処理の結果を上記表示装置に表示させる表示制御部と、を備え、上記処理部は、上記視線検出部によって検出された視線に基づいて、上記撮像画像データの注目領域と、上記注目領域を除く領域である非注目領域とを判定し、上記注目領域に対する上記識別処理の性能を上記非注目領域に対する上記識別処理の性能よりも高くする、ものである。
本発明の内視鏡装置は、上記検査支援装置と、上記内視鏡と、を備えるものである。
本発明の内視鏡装置の作動方法は、撮像画像データ取得部と、視線検出部と、処理部と、表示制御部と、を備える内視鏡装置の作動方法であって、前記撮像画像データ取得部が、内視鏡によって被検体内を撮像して得られた撮像画像データを取得する撮像画像データ取得ステップと、前記視線検出部が、前記撮像画像データに基づく撮像画像を表示する表示装置に向けられている視線を検出する視線検出ステップと、前記処理部が、前記視線検出ステップによって検出された視線に基づいて、前記撮像画像データの注目領域と、前記注目領域を除く領域である非注目領域とを判定する領域判定ステップと、前記処理部が、前記注目領域及び非注目領域の前記撮像画像データから病変部位を検出する検出処理ステップと、前記処理部が、前記検出処理ステップで検出された前記病変部位の種類又は性質を見分ける識別処理ステップと、前記表示制御部が、前記検出処理ステップ及び識別処理ステップの処理の結果を前記表示装置に表示する表示制御ステップと、を備え、前記処理部が、前記識別処理ステップの処理を、前記注目領域の前記撮像画像データ、及び、前記非注目領域の前記撮像画像データの一方に対してのみ実行するものである。
本発明の検査支援プログラムは、内視鏡によって被検体内を撮像して得られた撮像画像データを取得する撮像画像データ取得ステップと、上記撮像画像データに基づく撮像画像を表示する表示装置に向けられている視線を検出する視線検出ステップと上記視線検出ステップによって検出された視線に基づいて、上記撮像画像データの注目領域と、上記注目領域を除く領域である非注目領域とを判定する領域判定ステップと、上記注目領域及び非注目領域の上記撮像画像データから病変部位を検出する検出処理ステップと、上記検出処理ステップで検出された上記病変部位の種類又は性質を見分ける識別処理ステップと、上記検出処理ステップ及び識別処理ステップ処理の結果を上記表示装置に表示する表示制御ステップと、をコンピュータに実行させるためのプログラムであり、上記識別処理ステップの処理を、上記注目領域の上記撮像画像データ、及び、上記非注目領域の上記撮像画像データの一方に対してのみ実行するものである。
本発明によれば、内視鏡を用いた検査の精度と効率を両立させることのできる検査支援装置、内視鏡装置、検査支援方法、及び検査支援プログラムを提供することができる。
本発明の一実施形態である内視鏡装置100の概略構成を示す図である。 図1に示す内視鏡装置100の内部構成を示す模式図である。 図2に示す制御装置4のシステム制御部44の機能ブロックを示す図である。 図3に示すシステム制御部44における処理部44Cの動作を説明するための図である。 図3に示すシステム制御部44における表示制御部44Dの制御によって表示装置7に表示される画像の一例を示す図である。 図4に示すシステム制御部44の動作を説明するためのフローチャートである。 図4に示すシステム制御部44の動作の第一の変形例を説明するためのフローチャートである。 図7に示すステップS4aにて表示装置7に表示される画像の一例を示す図である。 図4に示すシステム制御部44の動作の第二の変形例を説明するためのフローチャートである。 図9に示すステップS4bにて表示装置7に表示される画像の一例を示す図である。 図4に示すシステム制御部44の動作の第三の変形例を説明するためのフローチャートである。 図4に示すシステム制御部44の動作の第四の変形例を説明するためのフローチャートである。 図4に示すシステム制御部44の動作の第五の変形例を説明するためのフローチャートである。
以下、本発明の実施形態について図面を参照して説明する。
図1は、本発明の一実施形態である内視鏡装置100の概略構成を示す図である。
図1に示すように、内視鏡装置100は、内視鏡1と、この内視鏡1が接続される制御装置4及び光源装置5からなる本体部2と、を備える。
制御装置4には、内視鏡1によって被検体内を撮像して得られる撮像画像等を表示する表示装置7と、表示装置7の近傍に設置された撮像装置8と、制御装置4に対して各種情報を入力するためのインタフェースである入力部6と、が接続されている。制御装置4は、内視鏡1、光源装置5、表示装置7、及び撮像装置8を制御する。
表示装置7は、表示画素が二次元状に配列された表示面を有し、この表示面の各表示画素に、画像データを構成する画素データが描画されることで、この画像データに基づく画像の表示が行われる。
撮像装置8は、表示装置7の表示面に表示された画像を観察する観察者の視線を検出するために設けられており、この表示面の前方を撮像可能に配置されている。撮像装置8によって被写体を撮像して得られる視線検出用画像データは、制御装置4に伝送される。
内視鏡1は、一方向に延びる管状部材であって被検体内に挿入される挿入部10と、挿入部10の基端部に設けられ、観察モード切替操作、撮影記録操作、鉗子操作、送気送水操作、及び吸引操作等を行うための操作部材が設けられた操作部11と、操作部11に隣接して設けられたアングルノブ12と、内視鏡1を光源装置5と制御装置4にそれぞれ着脱自在に接続するコネクタ部13A,13Bを含むユニバーサルコード13と、を備える。
なお、図1では省略されているが、操作部11及び挿入部10の内部には、細胞又はポリープ等の生体組織を採取するための鉗子を挿入する鉗子孔、送気及び送水用のチャンネル、吸引用のチャンネル等の各種のチャンネルが設けられる。
挿入部10は、可撓性を有する軟性部10Aと、軟性部10Aの先端に設けられた湾曲部10Bと、湾曲部10Bの先端に設けられた硬質の先端部10Cとから構成される。
湾曲部10Bは、アングルノブ12の回動操作により湾曲自在に構成されている。この湾曲部10Bは、内視鏡1が使用される被検体の部位等に応じて、任意の方向及び任意の角度に湾曲でき、先端部10Cを所望の方向に向けることができる。
図2は、図1に示す内視鏡装置100の内部構成を示す模式図である。
光源装置5は、光源制御部51と、光源部52と、を備える。
光源部52は、被写体に照射するための照明光を発生させるものである。光源部52から出射された照明光は、ユニバーサルコード13に内蔵されたライトガイド53に入射し、挿入部10の先端部10Cに設けられた照明用レンズ50を通って被写体に照射される。
光源部52としては、白色光を出射する白色光源、又は、白色光源とその他の色の光を出射する光源(例えば青色光を出射する青色光源)を含む複数の光源等が用いられる。先端部10Cの先端面には、光源部52から出射させる光の種類に合わせて照明用レンズ50が複数設けられていてもよい。
光源制御部51は、制御装置4のシステム制御部44と接続されている。光源制御部51は、システム制御部44からの指令に基づいて光源部52を制御する。
内視鏡1の先端部10Cには、対物レンズ21及びレンズ群22を含む撮像光学系と、この撮像光学系を通して被写体を撮像する撮像素子23と、アナログデジタル変換回路(ADC)24と、RAM(Random Accsess Memory)等のメモリ25と、通信インタフェース(I/F)26と、撮像制御部27と、光源部52から出射された照明光を照明用レンズ50に導くためのライトガイド53と、が設けられている。
ライトガイド53は、先端部10Cからユニバーサルコード13のコネクタ部13Aまで延びている。ユニバーサルコード13のコネクタ部13Aが光源装置5に接続された状態で、光源装置5の光源部52から出射される照明光がライトガイド53に入射可能な状態となる。
撮像素子23は、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等が用いられる。
撮像素子23は、複数の画素が二次元状に配置された受光面を有し、上記の撮像光学系によってこの受光面に結像された光学像を各画素において電気信号(撮像信号)に変換し、ADC24に出力する。撮像素子23は、例えば原色又は補色等のカラーフィルタを搭載するものが用いられる。撮像素子23の受光面の各画素から出力される撮像信号の集合を撮像画像信号という。
なお、光源部52として、白色光源から出射される白色光を複数色のカラーフィルタによって時分割で分光して照明光を生成するものを用いる場合には、撮像素子23はカラーフィルタを搭載していないものを用いてもよい。
撮像素子23は、対物レンズ21の光軸Axに対して受光面が垂直となる状態で先端部10Cに配置されていてもよいし、対物レンズ21の光軸Axに対して受光面が平行となる状態で先端部10Cに配置されていてもよい。
内視鏡1に設けられる撮像光学系は、撮像素子23と対物レンズ21との間における被写体からの光の光路上にあるレンズ、プリズム等の光学部材(上記のレンズ群22を含む)と、対物レンズ21と、によって構成される。撮像光学系は、対物レンズ21のみで構成される場合もある。
ADC24は、撮像素子23から出力された撮像信号を所定のビット数のデジタル信号に変換する。
メモリ25は、ADC24でデジタル変換された撮像信号を一時的に記録する。
通信I/F26は、制御装置4の通信インタフェース(I/F)41と接続される。通信I/F26は、メモリ25に記録された撮像信号を、ユニバーサルコード13内の信号線を通して制御装置4に伝送する。
撮像制御部27は、通信I/F26を介して制御装置4のシステム制御部44と接続されている。撮像制御部27は、通信I/F26で受信されるシステム制御部44からの指令に基づいて、撮像素子23、ADC24、及びメモリ25を制御する。
制御装置4は、ユニバーサルコード13によって内視鏡1の通信I/F26と接続される通信I/F41と、信号処理部42と、表示コントローラ43と、システム制御部44と、記録媒体45と、を備える。
通信I/F41は、内視鏡1の通信I/F26から伝送されてきた撮像信号を受信して信号処理部42に伝達する。
信号処理部42は、通信I/F41から受けた撮像信号を一時記録するメモリを内蔵しており、メモリに記録された撮像信号の集合である撮像画像信号を処理(デモザイク処理又はガンマ補正処理等の画像処理)して、後述する認識処理が可能な形式の撮像画像データを生成する。信号処理部42によって生成された撮像画像データは、ハードディスク又はフラッシュメモリ等の記録媒体45に記録される。
表示コントローラ43は、信号処理部42によって生成された撮像画像データに基づく撮像画像を表示装置7に表示させる。信号処理部42によって生成された撮像画像データを構成する各画素データの座標は、表示装置7の表示面を構成するいずれかの表示画素の座標と対応付けて管理されている。
システム制御部44は、制御装置4の各部を制御すると共に、内視鏡1の撮像制御部27と光源装置5の光源制御部51とに指令を送り、内視鏡装置100の全体を統括制御する。
システム制御部44は、撮像制御部27を介して撮像素子23の制御を行う。また、システム制御部44は、光源制御部51を介して光源部52の制御を行う。
システム制御部44は、プログラムを実行して処理を行う各種のプロセッサと、RAM(Ramdom Access Memory)と、ROM(Read Only Memory)を含む。
各種のプロセッサとしては、プログラムを実行して各種処理を行う汎用的なプロセッサであるCPU(Central Prosessing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、又はASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
これら各種のプロセッサの構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
システム制御部44は、各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ又はCPUとFPGAの組み合わせ)で構成されてもよい。
図3は、図2に示す制御装置4のシステム制御部44の機能ブロックを示す図である。
システム制御部44のプロセッサは、システム制御部44に内蔵されるROMに格納された検査支援プログラムを実行することにより、撮像画像データ取得部44A、視線検出部44B、処理部44C、及び表示制御部44Dを備える検査支援装置として機能する。
撮像画像データ取得部44Aは、撮像素子23によって被検体内を撮像して得られた撮像信号を信号処理部42によって処理して得られた撮像画像データを順次取得する。
視線検出部44Bは、撮像装置8から伝送されてくる視線検出用画像データを取得し、この視線検出用画像データに含まれる人の両眼の画像に基づいて、表示装置7に向けられている観察者(内視鏡1の操作者)の視線を検出する。視線検出部44Bは、表示装置7の表示面において視線が交わる座標の情報を、視線検出結果として出力する。
処理部44Cは、撮像画像データ取得部44Aによって取得された撮像画像データに対し、この撮像画像データからの病変部位の検出とその検出された病変部位の識別とを行うための処理である認識処理を行う。この認識処理のうち、病変部位の検出のための処理を検出処理と言い、病変部位の識別のための処理を識別処理という。
病変部位の検出とは、悪性腫瘍又は良性腫瘍等の病変と疑われる部位(病変候補領域)を撮像画像データの中から見つけ出すことをいう。
病変部位の識別とは、検出処理によって検出された病変部位が悪性であるのか、良性であるのか、悪性であればどのような病気であるのか、その病気の進行度合いはどれくらいか、といったように、検出された病変部位の種類又は性質等を見分けることをいう。
上記の検出処理と識別処理は、それぞれ、機械学習又は深層学習等によって決められた特徴量抽出のためのパラメータ及び階層構造を持つ画像認識モデル(例えば、ニューラルネットワーク又はサポートベクターマシン等)によって行われる。
処理部44Cは、視線検出部44Bによって検出された視線に基づいて、撮像画像データに対して行う上記の認識処理の内容を制御する。
表示制御部44Dは、表示コントローラ43に指令を出して、記録媒体45に記録された撮像画像データに基づく撮像画像をライブビュー画像として表示装置7に表示させる制御と、処理部44Cによる上記の認識処理の結果を表示装置7に表示させる制御と、を行う。
図4は、図3に示すシステム制御部44における処理部44Cの動作を説明するための図である。図4には、撮像画像データ取得部44Aにより取得された撮像画像データIMが示されている。図4に示す撮像画像データIMには、病変部位P1〜P3が含まれている。
処理部44Cは、視線検出部44Bから出力された表示装置7の表示面における操作者の視線と交わる表示画素の座標の情報から、撮像画像データ取得部44Aにより取得された撮像画像データIMにおいて注目されている領域(以下、注目領域)を判定する。
例えば、処理部44Cは、図4に示すように、撮像画像データIMを、分割領域AR1、分割領域AR2、分割領域AR3、及び分割領域AR4の計4つの領域に分割する。
処理部44Cは、視線検出部44Bから出力された表示画素の座標から、この座標に対応する撮像画像データIMの画素データを特定する処理を一定期間繰り返し行う。そして、処理部44Cは、分割領域AR1〜AR4のうち、この一定期間において特定された画素データを最も多く含む分割領域を注目領域として判定する。
処理部44Cは、このようにして判定した撮像画像データIMの注目領域に対してのみ上記の画像認識モデルを用いた認識処理を実行し、撮像画像データIMにおけるこの注目領域を除く領域(以下、非注目領域という)に対しては、上記の認識処理を非実行とする。
図4において、分割領域AR4が注目領域として判定された場合を例にする。この場合には、分割領域AR4内の画素データが画像認識モデルに入力されて認識処理が実行され、分割領域AR1〜AR3内の画素データについては認識処理が行われない。
分割領域AR4内の画素データが画像認識モデルに入力されて認識処理が行われると、この認識処理によって、分割領域AR4に含まれる病変部位P1が検出され、更に、その病変部位P1の識別が行われる。
表示制御部44Dは、処理部44Cによって病変部位P1が検出され、且つ病変部位P1の識別結果が得られると、図5に示すように、撮像画像データIMに基づく撮像画像imにおいて、病変部位P1の部分を強調表示させる(図5の例では太枠で囲んで強調)と共に、撮像画像imと共に識別結果(図5の例では、“癌、stage 2”の文字)を表示させる。
一方、分割領域AR1〜AR3については認識処理が行われない。そのため、図5に示すように、病変部位P2,P3については強調表示されたり、識別結果が表示されたりすることはない。
このように、処理部44Cは、視線検出部44Bによって検出された視線に基づいて、撮像画像データのどの領域に対して認識処理を行うべきかを決定する。
以上のように構成された内視鏡装置100の動作についてフローチャートを参照して説明する。
図6は、図4に示すシステム制御部44の動作を説明するためのフローチャートである。
操作部11の操作によって撮像素子23による動画の撮像が開始されると、撮像素子23から撮像画像信号が出力され、この撮像画像信号が処理されて、動画の1フレーム分の撮像画像データが順次生成され、記録媒体45に記録される。また、この生成された撮像画像データに基づく撮像画像がライブビュー画像として表示装置7に順次表示される。更に、視線検出部44Bによって操作者の視線の検出処理が開始される。
この動画の撮像が開始されると、撮像画像データ取得部44Aは、信号処理部42によって生成された撮像画像データを取得する(ステップS1)。
次に、処理部44Cは、視線検出部44Bによって検出された操作者の視線に基づいて、ステップS1で取得された撮像画像データにおける注目領域を判定する(ステップS2)。
次に、処理部44Cは、判定した注目領域のみに対して上記の認識処理(検出処理と識別処理)を実行する(ステップS3)。
ステップS3の認識処理が終わると、表示制御部44Dの制御により、検出処理の結果である検出結果と、識別処理の結果である識別結果とが、図5に例示したように、撮像画像と共に、表示装置7に表示される(ステップS4)。
ステップS4の後、撮像素子23による撮像の終了指示が行われて検査が終了されると(ステップS5:YES)、システム制御部44は処理を終了する。一方、検査が継続されていれば(ステップS5:NO)、ステップS1に処理が戻り、以降の処理が繰り返される。
以上のように、内視鏡装置100によれば、内視鏡1を操作する操作者の視線が集まっている注目領域に限定して認識処理が行われる。操作者は、両手が塞がっている状況であっても、撮像画像に対して視線を向ける位置を変えるだけで、注目している部位における検出結果と識別結果を得ることができ、検査を効率的かつ精度よく行うことができる。
また、内視鏡装置100によれば、認識処理を行う範囲を狭くすることができる。このため、病変部位の検出と病変部位の識別を、内視鏡検査時にリアルタイムに行う場合に、システム制御部44の処理負荷を軽減することができる。このように、処理負荷の軽減が可能になるため、認識処理に用いる画像認識モデルとして、病変部位の検出精度又は識別精度がより高いものを用いることもでき、内視鏡検査の精度向上を図ることができる。
図7は、図4に示すシステム制御部44の動作の第一の変形例を説明するためのフローチャートである。
図7に示すフローチャートは、ステップS3がステップS3a及びステップS3bに変更され、ステップS4がステップS4aに変更された点を除いては、図6と同じである。図7において、図6と同じ処理には同一符号を付して説明を省略する。
処理部44Cは、ステップS2において注目領域を判定すると、撮像画像データにおけるその注目領域と、その注目領域を除く領域である非注目領域とのそれぞれに対し、同一の画像認識モデルによる検出処理を行って、病変部位の検出を行う。つまり、ステップS3aにおいては、撮像画像データの全体に対して病変部位の検出処理が行われる(ステップS3a)。
ステップS3aの処理によって病変部位が検出された後、処理部44Cは、ステップS2にて判定した注目領域のみに対して識別処理を行う(ステップS3b)。
ステップS3bの後、表示制御部44Dは、ステップS3aの検出処理の結果と、ステップS3bの識別処理の結果を、撮像画像と併せて、表示装置7に表示させる(ステップS4a)。ステップS4aの後はステップS5に移行する。
図8は、図7に示すステップS4aにて表示装置7に表示される画像の一例を示す図である。図8に示すように、撮像画像im上の病変部位P1〜P3については、病変部位の検出結果として強調表示がなされている。そして、操作者の視線が向けられている病変部位P1についてのみ、識別結果が表示されている。
このように、図7に示す第一の変形例においては、システム制御部44の処理部44Cが、検出処理については撮像画像データの全体に対して行い、識別処理については注目領域のみに対して行う。
このように、操作者が注目している領域においては、病変部位がどこにあるのかと、その病変部位の識別結果とが表示されるため、その後の処置の判断に役立てることができる。
また、操作者が注目していない領域においても、病変部位が存在する場合にはそれが明示される。このため、病変部位が見逃されてしまう可能性を減らすことができ、検査の精度を向上させることができる。
また、識別処理については、注目領域に対してのみ行われることで、システム制御部44の処理負荷を軽減したり、精度の高い識別処理を採用することによって検査精度を向上させたりすることができる。
この第一の変形例では、図8に示す状態において、例えば操作者が病変部位P2の識別結果を知りたい場合には、視線を病変部位P1から病変部位P2に向けることで、その識別結果を表示させることができる。このように、必要なときにのみ識別結果が表示されることで、検査を効率的に行うことが可能になる。
図9は、図4に示すシステム制御部44の動作の第二の変形例を説明するためのフローチャートである。
図9に示すフローチャートは、ステップS3がステップS3cに変更され、ステップS4がステップS4bに変更された点を除いては、図6と同じである。図9において、図6と同じ処理には同一符号を付して説明を省略する。
処理部44Cは、ステップS2において注目領域を判定すると、撮像画像データにおけるその注目領域と、その注目領域を除く領域である非注目領域とのそれぞれに対し、異なる性能によって認識処理を行う(ステップS3c)。
つまり、ステップS3cにおいては、処理部44Cが、撮像画像データの注目領域と非注目領域とで認識処理の内容(画像認識モデルの構成又はパラメータの少なくとも一方)を異ならせている。
具体的には、処理部44Cは、注目領域に対する認識処理の内容を、その認識処理の性能が、非注目領域に対する認識処理の性能よりも高くなるものに制御する。
例えば検出処理であれば、画像認識モデルが解析することのできる画像データの解像度が高いほど、検出処理の性能は高い。または、画像認識モデルの階層数が多いほど、検出処理の性能は高い。
また、識別処理であれば、画像認識モデルが結果として出力することのできる情報の種類が多いほど、識別処理の性能は高い。または、画像認識モデルの階層数が多いほど、識別処理の性能は高い。或いは、画像認識モデルが解析することのできる画像データの解像度が高いほど、識別処理の性能は高い。
ステップS3cの後、表示制御部44Dは、ステップS3cの認識処理の結果を撮像画像と併せて表示装置7に表示させる(ステップS4b)。ステップS4bの後はステップS5に移行する。
図10は、図9に示すステップS4bにて表示装置7に表示される画像の一例を示す図である。
図10に示すように、撮像画像im上の病変部位P1〜P3については、これらの検出結果として強調表示がなされている。そして、操作者の視線が向けられている病変部位P1については、識別結果として腫瘍の種類(癌)の他に、癌のステージの情報が表示されている。一方、操作者の視線が向けられていない病変部位P2、P3については、腫瘍の種類のみが表示されている。
このように、操作者の視線が向けられている撮像画像の領域に対しては相対的に高い性能の認識処理が行われることで、検査を効率よく進めることができる。また、操作者の視線が向けられていない撮像画像の領域に対しても、相対的に低い性能の認識処理が行われることで、病変部位の見逃しを防いだり、検査効率を向上させたりすることができる。
図11は、図4に示すシステム制御部44の動作の第三の変形例を説明するためのフローチャートである。
図11に示すフローチャートは、ステップS3がステップS31に変更され、ステップS4がステップS41に変更された点を除いては、図6と同じである。図11において、図6と同じ処理には同一符号を付して説明を省略する。
処理部44Cは、ステップS2において注目領域を判定すると、撮像画像データにおけるその注目領域を除く領域である非注目領域のみに対して識別処理を行う(ステップS31)。
ステップS31の後、表示制御部44Dは、ステップS31の認識処理の結果を、撮像画像と併せて、表示装置7に表示させる(ステップS41)。ステップS41の後はステップS5に移行する。
この第三の変形例では、操作者が注目していない撮像画像の領域に対してのみ認識処理が行われてその結果が表示される。操作者は熟練した医師であることが多い。このため、操作者によって目視されている撮像画像の領域については、操作者の経験によって、病変の検出と病変の識別が高い精度にて行われていると考えることができる。
そこで、第三の変形例のように、視線が向けられていない領域についてのみ識別処理を行うことで、操作者の経験では検出できないような病変部位の見逃しを防ぐことができ、検査の精度を高めることができる。また、第三の変形例によれば、識別処理が行われる範囲が狭くなるため、識別処理の精度を高めたり、システム制御部44の処理負荷を軽減したりすることが可能となる。
図12は、図4に示すシステム制御部44の動作の第四の変形例を説明するためのフローチャートである。
図12に示すフローチャートは、ステップS3bがステップS32に変更され、ステップS4aがステップS42に変更された点を除いては、図7と同じである。図12において、図7と同じ処理には同一符号を付して説明を省略する。
ステップS3aの処理によって病変部位が検出された後、処理部44Cは、ステップS2にて判定した注目領域を除く領域である非注目領域のみに対して識別処理を行う(ステップS32)。
ステップS32の後、表示制御部44Dは、ステップS3aの検出処理の結果と、ステップS32の識別処理の結果とを撮像画像と併せて表示装置7に表示させる(ステップS42)。
第四の変形例によれば、操作者が注目していない領域においては、病変部位がどこにあるのかと、その病変部位の識別結果とが表示される。このため、その後の処置の判断に役立てることができる。
また、操作者が注目している領域においても、病変部位が存在する場合にはそれが明示される。このため、病変部位が見逃されてしまう可能性を減らすことができ、検査の精度を向上させることができる。
また、識別処理については、非注目領域に対してのみ行われることで、システム制御部44の処理負荷を軽減したり、精度の高い識別処理を採用することによって検査精度を向上させたりすることができる。
図13は、図4に示すシステム制御部44の動作の第五の変形例を説明するためのフローチャートである。
図13に示すフローチャートは、ステップS3cがステップS33に変更された点と、ステップS4bがステップS43に変更された点を除いては、図9と同じである。図13において、図9と同じ処理には同一符号を付して説明を省略する。
処理部44Cは、ステップS2において注目領域を判定すると、撮像画像データにおけるその注目領域と、その注目領域を除く領域である非注目領域とのそれぞれに対し、異なる性能によって認識処理を行う(ステップS33)。
つまり、ステップS33においては、処理部44Cが、撮像画像データの注目領域と非注目領域とで認識処理の内容(画像認識モデルの構成又はパラメータの少なくとも一方)を異ならせている。
具体的には、処理部44Cは、非注目領域に対する認識処理の内容を、その認識処理の性能が、注目領域に対する認識処理の性能よりも高くなるものに制御する。
ステップS33の後、表示制御部44Dは、ステップS33の認識処理の結果を、撮像画像と併せて、表示装置7に表示させる(ステップS43)。ステップS43の後はステップS5に移行する。
第五の変形例によれば、操作者の視線が向けられていない撮像画像の領域に対しては相対的に高い性能の認識処理が行われるため、病変部位の見逃しを効率的に防ぐことができ、検査を効率よく進めることができる。また、操作者の視線が向けられている撮像画像の領域に対しても、相対的に低い性能の認識処理が行われることで、病変部位の見逃しを防いだり、検査効率を向上させたりすることができる。
図7と図12にて説明した変形例以外の構成においては、処理部44Cが行う認識処理として、識別処理は必須ではない。処理部44Cが検出処理のみを行う場合であっても、システム制御部44の処理負荷を軽減したり、検出処理の精度を向上させたり、検査効率を向上させたり、等といった効果を得ることができる。
以上の説明では、撮像装置8によって被写体を撮像することで得られる画像データに基づいて操作者の視線を検出するものとしているが、視線を検出する方法はこれに限らず、周知の様々な方法を採用することができる。例えば、操作者が装着するメガネ型のウエアラブル端末に搭載された加速度センサの検出情報に基づいて視線を検出することもできる。
以上説明してきたように、本明細書には以下の事項が開示されている。
(1) 内視鏡によって被検体内を撮像して得られた撮像画像データを取得する撮像画像データ取得部と、上記撮像画像データに基づく撮像画像を表示する表示装置に向けられている視線を検出する視線検出部と、上記撮像画像データからの病変部位の検出と上記検出された上記病変部位の識別とのうちの少なくとも上記検出を行うための処理を上記撮像画像データに行う処理部と、上記処理部による上記処理の結果を上記表示装置に表示させる表示制御部と、を備え、上記処理部は、上記視線検出部によって検出された視線に基づいて、上記撮像画像データに対する上記処理の内容を制御する検査支援装置。
(2) (1)記載の検査支援装置であって、上記処理部は、上記視線検出部によって検出された視線に基づいて、上記撮像画像データにおいて注目されている注目領域を判定し、上記撮像画像データにおける上記注目領域を除く領域である非注目領域に対しては上記処理を非実行とし、上記注目領域に対してのみ上記処理を実行する検査支援装置。
(3) (1)記載の検査支援装置であって、上記処理部は、上記撮像画像データの全体に対して上記病変部位の検出を行うための上記処理を行い、上記視線検出部によって検出された視線に基づいて、上記撮像画像データにおいて注目されている注目領域を判定し、上記病変部位の識別を行うための上記処理を上記注目領域に対してのみ行う検査支援装置。
(4) (1)記載の検査支援装置であって、上記処理部は、上記視線検出部によって検出された視線に基づいて、上記撮像画像データにおいて注目されている注目領域を判定し、上記撮像画像データの全体に対して上記処理を実行し、上記撮像画像データにおける上記注目領域に対する上記処理の内容と、上記撮像画像データにおける上記注目領域を除く領域である非注目領域に対する上記処理の内容と、を異ならせる検査支援装置。
(5) (4)記載の検査支援装置であって、上記処理部は、上記注目領域に対する上記処理の内容を、その処理の性能が上記非注目領域に対する上記処理の性能よりも高くなるものに制御する検査支援装置。
(6) (1)記載の検査支援装置であって、上記処理部は、上記視線検出部によって検出された視線に基づいて、上記撮像画像データにおいて注目されている注目領域を判定し、上記注目領域に対しては上記処理を非実行とし、上記撮像画像データにおける上記注目領域を除く領域である非注目領域に対してのみ上記処理を実行する検査支援装置。
(7) (1)記載の検査支援装置であって、上記処理部は、上記視線検出部によって検出された視線に基づいて、上記撮像画像データにおいて注目されている注目領域を判定し、上記撮像画像データの全体に対して上記病変部位の検出を行うための上記処理を行い、上記病変部位の識別を行うための上記処理を、上記撮像画像データにおける上記注目領域を除く領域である非注目領域に対してのみ行う検査支援装置。
(8) (4)記載の検査支援装置であって、上記処理部は、上記非注目領域に対する上記処理の内容を、その処理の性能が、上記注目領域に対する上記処理の性能よりも高くなるものに制御する検査支援装置。
(9) (1)〜(8)のいずれか1つに記載の検査支援装置と、上記内視鏡と、を備える内視鏡装置。
(10) 内視鏡によって被検体内を撮像して得られた撮像画像データを取得する撮像画像データ取得ステップと、上記撮像画像データに基づく撮像画像を表示する表示装置に向けられている視線を検出する視線検出ステップと、上記撮像画像データからの病変部位の検出と上記検出された上記病変部位の識別とのうちの少なくとも上記検出を行うための処理を上記撮像画像データに行う処理ステップと、上記処理ステップによる上記処理の結果を上記表示装置に表示させる表示制御ステップと、を備え、上記処理ステップでは、上記視線検出ステップによって検出された視線に基づいて、上記撮像画像データに対する上記処理の内容を制御する検査支援方法。
(11) 内視鏡によって被検体内を撮像して得られた撮像画像データを取得する撮像画像データ取得ステップと、上記撮像画像データに基づく撮像画像を表示する表示装置に向けられている視線を検出する視線検出ステップと、上記撮像画像データからの病変部位の検出と上記検出された上記病変部位の識別とのうちの少なくとも上記検出を行うための処理を上記撮像画像データに行う処理ステップと、上記処理ステップによる上記処理の結果を上記表示装置に表示させる表示制御ステップと、をコンピュータに実行させるためのプログラムであり、上記処理ステップでは、上記視線検出ステップによって検出された視線に基づいて、上記撮像画像データに対する上記処理の内容を制御する検査支援プログラム。
本発明によれば、内視鏡を用いた検査の精度と効率を両立させることのできる検査支援装置、内視鏡装置、検査支援方法、及び検査支援プログラムを提供することができる。
100 内視鏡装置
1 内視鏡
2 本体部
10 挿入部
10A 軟性部
10B 湾曲部
10C 先端部
11 操作部
12 アングルノブ
13 ユニバーサルコード
13A、13B コネクタ部
6 入力部
7 表示装置
8 撮像装置
21 対物レンズ
Ax 光軸
22 レンズ群
23 撮像素子
24 ADC
25 メモリ
26 通信インタフェース
27 撮像制御部
4 制御装置
41 通信インタフェース
42 信号処理部
43 表示コントローラ
44 システム制御部
44A 撮像画像データ取得部
44B 視線検出部
44C 処理部
44D 表示制御部
45 記録媒体
5 光源装置
50 照明用レンズ
51 光源制御部
52 光源部
53 ライトガイド
IM 撮像画像データ
im 撮像画像
AR1、AR2、AR3、AR4 分割領域
P1,P2,P3 病変部位

Claims (8)

  1. 内視鏡によって被検体内を撮像して得られた撮像画像データを取得する撮像画像データ取得部と、
    前記撮像画像データに基づく撮像画像を表示する表示装置に向けられている視線を検出する視線検出部と、
    前記撮像画像データから病変部位を検出する検出処理、及び、前記検出処理で検出した前記病変部位の種類又は性質を見分ける識別処理を行う処理部と、
    前記処理部による前記検出処理及び識別処理の結果を前記表示装置に表示させる表示制御部と、を備え、
    前記処理部は、
    前記視線検出部によって検出された視線に基づいて、前記撮像画像データの注目領域と、前記注目領域を除く領域である非注目領域とを判定し、
    前記注目領域の前記撮像画像データ、及び、前記非注目領域の前記撮像画像データに対して前記検出処理を実行した後の前記識別処理を、前記注目領域の前記撮像画像データ、及び、前記非注目領域の前記撮像画像データの一方に対してのみ実行する、
    検査支援装置。
  2. 内視鏡によって被検体内を撮像して得られた撮像画像データを取得する撮像画像データ取得部と、
    前記撮像画像データに基づく撮像画像を表示する表示装置に向けられている視線を検出する視線検出部と、
    前記撮像画像データから病変部位を検出する検出処理、及び、前記検出処理で検出した前記病変部位の種類又は性質を見分ける識別処理を行う処理部と、
    前記処理部による前記検出処理及び識別処理の結果を前記表示装置に表示させる表示制御部と、を備え、
    前記処理部は、
    前記視線検出部によって検出された視線に基づいて、前記撮像画像データの注目領域と、前記注目領域を除く領域である非注目領域とを判定し、
    前記注目領域に対する前記識別処理の性能を前記非注目領域に対する前記識別処理の性能よりも高くする、
    検査支援装置。
  3. 請求項1記載の検査支援装置であって、
    前記処理部は、前記撮像画像データの全体に対して前記検出処理を行い、前記注目領域の前記撮像画像データに対してのみ前記識別処理を行う検査支援装置。
  4. 請求項1記載の検査支援装置であって、
    前記処理部は、前記撮像画像データの全体に対して前記検出処理を行い、前記非注目領域の前記撮像画像データに対してのみ前記識別処理を行う検査支援装置。
  5. 請求項1〜4のいずれか1項記載の検査支援装置であって、
    前記処理部は、前記表示装置の表示画面を、複数の表示画素が含まれる領域に分割し、複数の分割領域の中から、前記視線検出部によって検出された視線に基づいて、注目されている分割領域である前記注目領域と、前記注目領域を除く分割領域である前記非注目領域とを判定する検査支援装置。
  6. 請求項1〜5のいずれか1項記載の検査支援装置と、
    前記内視鏡と、を備える内視鏡装置。
  7. 撮像画像データ取得部と、視線検出部と、処理部と、表示制御部と、を備える内視鏡装置の作動方法であって、
    前記撮像画像データ取得部が、内視鏡によって被検体内を撮像して得られた撮像画像データを取得する撮像画像データ取得ステップと、
    前記視線検出部が、前記撮像画像データに基づく撮像画像を表示する表示装置に向けられている視線を検出する視線検出ステップと、
    前記処理部が、前記視線検出ステップによって検出された視線に基づいて、前記撮像画像データの注目領域と、前記注目領域を除く領域である非注目領域とを判定する領域判定ステップと、
    前記処理部が、前記注目領域及び非注目領域の前記撮像画像データから病変部位を検出する検出処理ステップと、
    前記処理部が、前記検出処理ステップで検出された前記病変部位の種類又は性質を見分ける識別処理ステップと、
    前記表示制御部が、前記検出処理ステップ及び識別処理ステップの処理の結果を前記表示装置に表示する表示制御ステップと、
    を備え、
    前記処理部が、前記識別処理ステップの処理を、前記注目領域の前記撮像画像データ、及び、前記非注目領域の前記撮像画像データの一方に対してのみ実行する内視鏡装置の作動方法
  8. 内視鏡によって被検体内を撮像して得られた撮像画像データを取得する撮像画像データ取得ステップと、
    前記撮像画像データに基づく撮像画像を表示する表示装置に向けられている視線を検出する視線検出ステップと、
    前記視線検出ステップによって検出された視線に基づいて、前記撮像画像データの注目領域と、前記注目領域を除く領域である非注目領域とを判定する領域判定ステップと、
    前記注目領域及び非注目領域の前記撮像画像データから病変部位を検出する検出処理ステップと、
    前記検出処理ステップで検出された前記病変部位の種類又は性質を見分ける識別処理ステップと、
    前記検出処理ステップ及び識別処理ステップの処理の結果を前記表示装置に表示する表示制御ステップと、
    をコンピュータに実行させるためのプログラムであり、
    前記識別処理ステップの処理を、前記注目領域の前記撮像画像データ、及び、前記非注目領域の前記撮像画像データの一方に対してのみ実行する検査支援プログラム。
JP2019551062A 2017-10-31 2018-10-18 検査支援装置、内視鏡装置、内視鏡装置の作動方法、及び検査支援プログラム Active JP6967602B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017210379 2017-10-31
JP2017210379 2017-10-31
PCT/JP2018/038754 WO2019087790A1 (ja) 2017-10-31 2018-10-18 検査支援装置、内視鏡装置、検査支援方法、及び検査支援プログラム

Publications (2)

Publication Number Publication Date
JPWO2019087790A1 JPWO2019087790A1 (ja) 2020-11-12
JP6967602B2 true JP6967602B2 (ja) 2021-11-17

Family

ID=66333201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019551062A Active JP6967602B2 (ja) 2017-10-31 2018-10-18 検査支援装置、内視鏡装置、内視鏡装置の作動方法、及び検査支援プログラム

Country Status (5)

Country Link
US (1) US11302092B2 (ja)
EP (1) EP3705024A4 (ja)
JP (1) JP6967602B2 (ja)
CN (1) CN111295127B (ja)
WO (1) WO2019087790A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109427060A (zh) * 2018-10-30 2019-03-05 腾讯科技(深圳)有限公司 一种影像识别的方法、装置、终端设备和医疗***
JP6872581B2 (ja) * 2018-12-04 2021-05-19 Hoya株式会社 情報処理装置、内視鏡用プロセッサ、情報処理方法およびプログラム
WO2020116115A1 (ja) * 2018-12-04 2020-06-11 Hoya株式会社 情報処理装置およびモデルの生成方法
CN110132547A (zh) * 2019-05-14 2019-08-16 杭州电子科技大学 一种内窥镜头光学性能检测装置及检测方法
EP3998931A4 (en) * 2019-07-16 2023-04-19 Docbot, Inc. REAL-TIME DEPLOYMENT OF MACHINE LEARNING SYSTEMS
JP7214876B2 (ja) * 2019-08-09 2023-01-30 富士フイルム株式会社 内視鏡装置、制御方法、制御プログラム、及び内視鏡システム
JP7373335B2 (ja) * 2019-09-18 2023-11-02 富士フイルム株式会社 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法、及びプログラム
JP7315033B2 (ja) * 2020-01-21 2023-07-26 日本電気株式会社 施術支援装置、施術支援方法、及びプログラム
US11730491B2 (en) 2020-08-10 2023-08-22 Kunnskap Medical, LLC Endoscopic image analysis and control component of an endoscopic system
US20230036851A1 (en) * 2021-07-27 2023-02-02 International Business Machines Corporation Path planning

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT1194149B (it) * 1983-03-07 1988-09-14 Michele Testa Procedimento per la determinazione dell'attivita' ossidativa di un liquido biologico e reagente relativo
JP4298151B2 (ja) 2000-01-13 2009-07-15 富士フイルム株式会社 蛍光画像表示方法および装置
JP2001258802A (ja) 2000-03-16 2001-09-25 Matsushita Electric Ind Co Ltd ガス駆動掃除機
JP2005034211A (ja) 2003-07-16 2005-02-10 Fuji Photo Film Co Ltd 画像判別装置、方法およびプログラム
US20090312817A1 (en) * 2003-11-26 2009-12-17 Wicab, Inc. Systems and methods for altering brain and body functions and for treating conditions and diseases of the same
US20050240882A1 (en) * 2004-04-21 2005-10-27 Ge Medical Systems Information Technologies, Inc. Method and system for displaying regions of pathological interest
CA2587804A1 (en) * 2007-05-08 2008-11-08 William K. Mccroskey Modular multi-modal tomographic detector and system
JP2008301968A (ja) * 2007-06-06 2008-12-18 Olympus Medical Systems Corp 内視鏡画像処理装置
CN101185603A (zh) * 2007-06-22 2008-05-28 北京眼吧科技有限公司 立体视觉训练***及方法
DE102009010263B4 (de) 2009-02-24 2011-01-20 Reiner Kunz Verfahren zur Navigation eines endoskopischen Instruments bei der technischen Endoskopie und zugehörige Vorrichtung
JP5529480B2 (ja) * 2009-09-29 2014-06-25 富士フイルム株式会社 医用画像診断支援装置
JP5535725B2 (ja) * 2010-03-31 2014-07-02 富士フイルム株式会社 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム
JP2012095274A (ja) * 2010-10-28 2012-05-17 Fujifilm Corp 立体視画像表示装置および立体視画像表示方法
JP5663283B2 (ja) * 2010-12-02 2015-02-04 オリンパス株式会社 内視鏡画像処理装置及びプログラム
US20130023767A1 (en) * 2011-05-12 2013-01-24 Mammone Richard J Low-cost, high fidelity ultrasound system
JP6103827B2 (ja) * 2012-06-14 2017-03-29 オリンパス株式会社 画像処理装置および立体画像観察システム
JP6113460B2 (ja) 2012-11-09 2017-04-12 東芝メディカルシステムズ株式会社 医用画像処理装置および医用画像診断装置
JP6112861B2 (ja) * 2012-12-28 2017-04-12 キヤノン株式会社 被検体情報取得装置、信号処理装置および表示装置
JP6389299B2 (ja) * 2013-09-26 2018-09-12 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、内視鏡システムの作動方法、プロセッサ装置の作動方法
JP6264087B2 (ja) * 2014-02-21 2018-01-24 ソニー株式会社 表示制御装置、表示装置および表示制御システム
EP3108801A4 (en) * 2014-02-21 2017-10-25 Sony Corporation Head-mounted display, control device, and control method
CN104055478B (zh) * 2014-07-08 2016-02-03 金纯� 基于视线追踪控制的医用内窥镜操控***
WO2016057960A1 (en) * 2014-10-10 2016-04-14 Radish Medical Solutions, Inc. Apparatus, system and method for cloud based diagnostics and image archiving and retrieval
JP6132984B2 (ja) * 2014-12-12 2017-05-24 オリンパス株式会社 カプセル内視鏡システム及びその撮像方法
WO2016117277A1 (ja) * 2015-01-21 2016-07-28 Hoya株式会社 内視鏡システム
WO2016170604A1 (ja) * 2015-04-21 2016-10-27 オリンパス株式会社 内視鏡装置
US10510144B2 (en) * 2015-09-10 2019-12-17 Magentiq Eye Ltd. System and method for detection of suspicious tissue regions in an endoscopic procedure
WO2017057574A1 (ja) * 2015-09-29 2017-04-06 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理方法
JP2017070636A (ja) * 2015-10-09 2017-04-13 ソニー株式会社 手術システム、並びに、手術用制御装置および手術用制御方法
WO2017081976A1 (ja) * 2015-11-10 2017-05-18 オリンパス株式会社 内視鏡装置
JP6744712B2 (ja) 2015-12-17 2020-08-19 富士フイルム株式会社 内視鏡システム、プロセッサ装置、及び内視鏡システムの作動方法
DE112017002074T5 (de) * 2016-04-19 2019-01-24 Olympus Corporation Endoskopsystem

Also Published As

Publication number Publication date
US20200234070A1 (en) 2020-07-23
EP3705024A4 (en) 2020-11-11
EP3705024A1 (en) 2020-09-09
CN111295127B (zh) 2022-10-25
WO2019087790A1 (ja) 2019-05-09
JPWO2019087790A1 (ja) 2020-11-12
CN111295127A (zh) 2020-06-16
US11302092B2 (en) 2022-04-12

Similar Documents

Publication Publication Date Title
JP6967602B2 (ja) 検査支援装置、内視鏡装置、内視鏡装置の作動方法、及び検査支援プログラム
JP6348078B2 (ja) 分岐構造判定装置、分岐構造判定装置の作動方法および分岐構造判定プログラム
JP6371729B2 (ja) 内視鏡検査支援装置、内視鏡検査支援装置の作動方法および内視鏡支援プログラム
US9445713B2 (en) Apparatuses and methods for mobile imaging and analysis
US20150313445A1 (en) System and Method of Scanning a Body Cavity Using a Multiple Viewing Elements Endoscope
JP6254053B2 (ja) 内視鏡画像診断支援装置、システムおよびプログラム、並びに内視鏡画像診断支援装置の作動方法
JP5748520B2 (ja) 内視鏡挿入支援装置およびその作動方法、並びに内視鏡挿入支援プログラム
CN113573654A (zh) 用于检测并测定病灶尺寸的ai***
JP2014138691A (ja) 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理方法
US11423318B2 (en) System and methods for aggregating features in video frames to improve accuracy of AI detection algorithms
WO2006087981A1 (ja) 医用画像処理装置、管腔画像処理装置、管腔画像処理方法及びそれらのためのプログラム
JP6405138B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
WO2020054543A1 (ja) 医療画像処理装置及び方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム
JP6840263B2 (ja) 内視鏡システム及びプログラム
JP2008289698A (ja) 医用画像表示装置、医用画像表示方法、プログラム、記憶媒体およびマンモグラフィ装置
JP6371613B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP7335157B2 (ja) 学習データ作成装置、学習データ作成装置の作動方法及び学習データ作成プログラム並びに医療画像認識装置
JP7289241B2 (ja) ファイリング装置、ファイリング方法及びプログラム
JP7148534B2 (ja) 画像処理装置、プログラム、及び内視鏡システム
JP6745748B2 (ja) 内視鏡位置特定装置、その作動方法およびプログラム
KR101626802B1 (ko) 내시경기반의 특정병변 추적 및 모니터링 시스템
WO2022208615A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
TW201316954A (zh) 斷層影像處理方法
CN112867430B (zh) 医疗图像处理***及学习方法
EP4302681A1 (en) Medical image processing device, medical image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211025

R150 Certificate of patent or registration of utility model

Ref document number: 6967602

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150