JP6987243B2 - ランドマーク推定方法、内視鏡装置、及び、位置推定プログラム - Google Patents

ランドマーク推定方法、内視鏡装置、及び、位置推定プログラム Download PDF

Info

Publication number
JP6987243B2
JP6987243B2 JP2020525202A JP2020525202A JP6987243B2 JP 6987243 B2 JP6987243 B2 JP 6987243B2 JP 2020525202 A JP2020525202 A JP 2020525202A JP 2020525202 A JP2020525202 A JP 2020525202A JP 6987243 B2 JP6987243 B2 JP 6987243B2
Authority
JP
Japan
Prior art keywords
landmark
axis
insertion portion
unit
endoscope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020525202A
Other languages
English (en)
Other versions
JPWO2019244345A1 (ja
Inventor
潤一 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2019244345A1 publication Critical patent/JPWO2019244345A1/ja
Application granted granted Critical
Publication of JP6987243B2 publication Critical patent/JP6987243B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/273Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the upper alimentary canal, e.g. oesophagoscopes, gastroscopes
    • A61B1/2736Gastroscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Optics & Photonics (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Astronomy & Astrophysics (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Gastroenterology & Hepatology (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Description

本発明は、ランドマーク推定方法、内視鏡装置、及び、位置推定プログラム
従来より、医療分野や工業用分野で内視鏡が広く利用されている。例えば、医療分野では、術者は、表示装置に表示された被検体内の内視鏡画像を見て、被写体である病変部を発見及び識別し、病変部に対する処置具を用いた処理を行うことができる。
一般的に、異なる視点から得られた複数の画像の位置ずれ情報に基づき、三角測量の原理を用いて被写体の3次元座標を算出する技術が知られている。また、被写体に対して投影光を照射し、反射光がセンサに到達するまでの時間や、撮像したパターンなどから、被写体の3次元座標を求める技術も知られている。
これらの技術を用い、2点以上被写体の3次元座標を求めることで、被写体の大きさや体積などの物理量が算出される。内視鏡による観察においても、これらの技術を用いることで、腫瘍のサイズや、噴門や肛門などランドマークとなる箇所から腫瘍までの距離などを計測することが可能である。
被写体の物理量を算出する際には、計測点や計測領域を設定する必要がある。上述のように、内視鏡観察において、ランドマークから腫瘍までの距離を計測する場合、ランドマークの位置や腫瘍の位置を適切に設定する必要がある。
一方で、ランドマークとなる噴門や肛門の近傍に腫瘍が存在する場合、内視鏡スコープを湾曲させ、先端部が振り返った姿勢で被写体を撮影する必要がある。この姿勢で撮影すると、内視鏡画像に内視鏡スコープ自身が映り込んでしまう。このため、映り込んだ内視鏡スコープによって、ランドマークを直接撮影することができないため、計測点を適切に設定することが難しい。そこで、計測点を間接的に推定する方法が提案されている。
例えば、日本国特開2016−80674号公報に提案されている方法を用いることにより、直接指定困難な計測点を内包する関心領域を設定し、この関心領域を解析することで、間接的に計測点を推定することは可能である。
しかし、日本国特開2016−80674号公報による推定方法では、関心領域を平面で設定する必要がある。これに対し、内視鏡スコープが振り返った姿勢でランドマーク近傍の腫瘍を撮影した画像では、内視鏡スコープ自身による遮蔽があり、かつ、被写体である管腔面に対して内視鏡スコープが傾きをもって配置されているため、平面で関心領域を設定することができない。従って、上述した手法では、計測点を推測することができないという問題があった。
本発明は、前述した事情に鑑みてなされたものであり、内視鏡スコープを湾曲させたことによりスコープ自体が内視鏡画像に映り込むことにより、ランドマークが遮蔽され直接的に計測点として指定できない場合にも、ランドマークの位置を精度よく推定することが可能なランドマーク推定方法、内視鏡装置、及び、位置推定プログラムを提供することを目的としている。
本発明の一態様のランドマーク推定方法は、挿入部が湾曲した内視鏡によって被写体を撮像して得られた内視鏡画像において、前記被写体に存在する孔部であって前記挿入部が貫通している部位であるランドマークの位置を推定するランドマーク推定方法において、前記挿入部の軸を推定し、前記挿入部と前記被写体との境界を推定し、前記軸と前記境界とに基づいて前記ランドマークの位置を推定する。
本発明のランドマーク推定方法は、挿入部が湾曲した内視鏡によって被写体を撮像して得られた内視鏡画像において、前記被写体に存在する孔部であって前記挿入部が貫通している部位であるランドマークの位置を、前記内視鏡とランドマーク推定部とを有する内視鏡装置を用いて推定するランドマーク推定方法であって、軸推定部が、前記挿入部の軸を推定し、境界推定部が、前記挿入部と前記被写体との境界を推定し、ランドマーク位置推定部が、前記ランドマーク前記軸と前記境界とに基づいて前記ランドマークの位置を推定する。
本発明の一態様の内視鏡装置は、挿入部が湾曲した内視鏡によって被写体を撮像して得られた内視鏡画像において、前記被写体に存在する孔部であって前記挿入部が貫通している部位であるランドマークの位置を推定するランドマーク推定部を有する内視鏡装置において、前記ランドマーク推定部は、前記挿入部の軸を推定する軸推定部と、前記挿入部と前記被写体との境界を推定する境界推定部と、前記軸と前記境界とに基づいて前記ランドマークの位置を推定するランドマーク位置推定部と、を備える。
本発明の一態様の位置推定プログラムは、挿入部が湾曲した内視鏡によって被写体を撮像して得られた内視鏡画像において、前記被写体に存在する孔部であって前記挿入部が貫通している部位であるランドマークの位置を推定する位置推定プログラムであって、前記挿入部の軸を推定し、前記挿入部と前記被写体との境界を推定し、前記軸と前記境界とに基づいて前記ランドマークの位置を推定する処理をコンピュータに実行させる
本発明の実施形態に係わる内視鏡装置1の全体構成の一例を示す斜視図。 本発明の第1の実施形態に関わるプロセッサ4の画像処理に関わる構成を示すブロック図。 本発明の第1の実施形態に関わる制御演算部22の演算部22bの構成を示すブロック図。 軸推定部32Aの構成を示すブロック部。 ランドマーク推定部32におけるランドマーク推定処理の流れの一例を示すフローチャート。 検出対象となるランドマークの一例を示す概略図。 画像生成部31により生成される内視鏡画像の一例を示す図。 図6Aの内視鏡画像に基づき推定したランドマーク位置を説明する概略図。 第2の実施形態に関わる挿入部9の軸9a推定位置を説明する概略図。 第2の実施形態の変形例に関わる挿入部9の軸9a推定位置を説明する概略図。 第3の実施形態に関わる挿入部9の軸9a推定位置を説明する概略図。 第4の実施形態に関わる内視鏡2の構成の一例を説明する概略図。 第4の実施形態に関わる内視鏡2の構成の別の一例を説明する概略図。 第4の実施形態に関わる内視鏡2の構成の別の一例を説明する概略図。 第4の実施形態に関わる挿入部9の軸9a推定位置を説明する概略図。 第4の実施形態に関わる挿入部9の軸9aの別の推定位置を説明する概略図。 第5の実施形態に関わる制御演算部22の演算部22bの構成を示すブロック図。 ランドマークと病変部との直線距離を表す概略図。 ランドマークと病変部との沿面距離を表す概略図。 第6の実施形態に関わる内視鏡2の構成の一例を説明する概略図。
以下、図面を参照して実施形態を説明する。
(第1の実施形態)
図1は、本発明の実施形態に係わる内視鏡装置の全体構成の一例を示す斜視図である。図1に示すように、本実施形態の内視鏡装置1は、内視鏡スコープとしての電子内視鏡(以下、単に内視鏡という)2と、光源装置3と、プロセッサ4と、モニタ5と、から主に構成されている。
内視鏡2は、長尺で細長な挿入部9と、操作部10と、電気ケーブルであるユニバーサルケーブル19と、を有して構成されている。内視鏡2の挿入部9は、先端から順に、先端部6と、湾曲部7と、可撓管部8と、を有して構成されている。先端部6には、図示しない照明窓及び観察窓が設けられており、照明光が照明窓から被検体へ出射され、被検体からの戻り光が観察窓へ入射される。先端部6には、被写体を撮像する手段として、CCD、CMOSなどの固体撮像素子が配置されおり、観察窓から入射した光による被写体像を光電変換して撮像信号を出力する。撮像信号は、ユニバーサルケーブル19を介してプロセッサ4へ供給される。
操作部10には、挿入部9の湾曲部7を湾曲操作するための湾曲操作部14が回転自在に配設されると共に、フォーカススイッチ15を含む、各種内視鏡機能のスイッチ類などが設けられている。なお、湾曲操作部14は、湾曲部7を上下方向に湾曲操作するためのUD湾曲操作ノブ12と、湾曲部7を左右方向に湾曲操作するためのRL湾曲操作ノブ13とが重畳するように配設されている。
また、挿入部9と操作部10の連結部は、ユーザによる把持部を兼ねる把持部11と、この把持部11及び挿入部9の可撓管部8の一端の間に設けられた折れ止め部に配設されて、挿入部9に配設された各種処置部を挿通する処置具チャネルの開口部となる処置具チャネル挿通部18とを有して構成されている。
操作部10から延設されたユニバーサルケーブル19は、延出端に光源装置3と着脱自在なスコープコネクタ19aを有している。また、スコープコネクタ19aは、コイル状のコイルケーブル20が延設しており、このコイルケーブル20の延出端にプロセッサ4と着脱自在なコネクタとしてのスコープコネクタ20aが設けられている。なお、本実施形態の内視鏡2は、ユニバーサルケーブル19、操作部10及び挿入部9に配設された照明手段のライトガイドケーブルによって、光源装置3から先端部6まで照明光を伝送するものである。
プロセッサ4は、内視鏡画像を表示するモニタ5と電気的に接続され、内視鏡2に搭載されているCCDなどの撮像手段によって光電変換された撮像信号を処理して、画像信号としてモニタ5に出力する。モニタ5には、内視鏡画像が表示される。
図2は、プロセッサ4の画像処理に関わる構成を示すブロック図である。プロセッサ4は、撮像信号取得部21と、制御演算部22と、記憶装置23と、入力部24とを有する画像処理装置である。制御演算部22は、制御部22aと、演算部22bを含む回路である。
撮像信号取得部21は、制御部22aの制御の下、内視鏡2の撮像素子からの撮像信号を受信して取得し、制御演算部22へ出力する回路である。
制御部22aは、中央処理装置(以下、CPUという)、ROM、RAM等を含み、プロセッサ4全体の動作の制御を行うと共に、術者による入力部24への指示に応じて、内視鏡2の撮像素子の駆動の制御、内視鏡2の操作部10からの各種操作信号に基づく各種回路の制御、記憶装置23への各種データの記録及び記憶装置23からの各種データの読み出し制御、及び画像処理の制御を行う。
すなわち、制御部22aは、入力部24においてされた指示あるいは入力に基づいて、内視鏡装置1の動作を制御し、各部への制御信号あるいは設定信号を出力する。
演算部22bは、制御部22aの制御の下で、撮像信号取得部21で取得された撮像信号に基づき、各種画像処理及び各種演算処理を実行すると共に、モニタ5に表示される内視鏡画像の画像信号及び各種表示情報を生成し、モニタ5へ出力する回路である。
なお、制御演算部22における制御部22a及び演算部22bの処理の全部若しくは一部をソフトウエアプログラムで行うようにしてもよい。
記憶装置23は、ハードディスク装置などの大容量の記憶装置であり、内視鏡検査で得られた被検体内の内視鏡画像の画像データ、及び支援情報等の各種データを記憶する。
入力部24は、各種ボタンを有する操作パネルであり、術者が内視鏡装置1の各種設定、各種指示などをプロセッサ4へ与えるための入力装置である。
図3Aは、本実施の形態における、制御演算部22の演算部22bの構成を示すブロック図である。
演算部22bは、画像生成部31、ランドマーク推定部32を含む回路である。
画像生成部31は、撮像信号を受信して、観察モードに応じて、撮像信号に基づいて内視鏡画像を生成する回路である。内視鏡画像に対して所定の強調処理、各種補正処理、各種情報及びメニュー画面などを重畳表示させる重畳処理などを行う。
ランドマーク推定部32は、内視鏡画像中における内視鏡の挿入部9が観察部位に挿入された孔(例えば、消化器内視鏡検査における胃の幽門部)であるランドマークの位置を推定する回路である。ランドマーク推定部32は、軸推定部32Aと、境界推定部32Bと、ランドマーク位置推定部32Cとから構成される。
軸推定部32Aは、内視鏡画像から内視鏡の挿入部9を抽出し、挿入部9の中心軸を推定する回路である。図3Bは、軸推定部32Aの構成を示すブロック部である。図3Bに示す軸推定部32A中の各部の動作については、下記の説明の対応する箇所で後述する。図3Bは、以下に説明する本実施の形態に関わる構成だけでなく、本実施の形態の後に説明する第2から第6の実施形態に関わる構成も含めて示している。
境界推定部32Bは、内視鏡画像中に映り込んでいる挿入部9において、挿入元側(基端側、先端部6から遠い側)を境界として推定する回路である。
ランドマーク位置推定部32Cは、推定された内視鏡の挿入部9の中心軸と、挿入部9と被写体との境界を用いて、ランドマークの位置を推定する回路である。
図4は、ランドマーク推定部32におけるランドマーク推定処理の流れの一例を示すフローチャートである。また、図5は、検出対象となるランドマークの一例を示す概略図である。内視鏡2の挿入部9を湾曲させ、先端部6が振り返った姿勢で被写体を撮影する状況としては、図5に示すように、胃40の噴門49近傍の腫瘍を観察する場合の他、大腸の肛門部近傍の腫瘍を観察する場合や、工業用内視鏡における航空機エンジンのアクセスポートの検査などがあげられる。図5の場合、挿入部9が胃内部に挿入された孔部である噴門49がランドマークとなる。
ランドマーク推定処理に先立ち、制御部22aが、光源の駆動と内視鏡2の撮像素子の駆動とを制御しかつ撮像信号取得部21を制御することによって、演算部22bは、内視鏡2からの撮像信号を取得する。演算部22bの画像生成部31は、制御部22aの制御の下、撮像信号に基づいて内視鏡画像を生成する。図6Aは、画像生成部31により生成される内視鏡画像の一例を示す図である。
ランドマーク推定部32は、生成された内視鏡画像に基づいて、挿入部9の軸を推定する(S1)。S1の処理は、図3Aにおける軸推定部32Aが関わる。軸の推定は、例えば、内視鏡画像から、オブジェクトである挿入部9を抽出し、挿入部9の長手方向を特定することにより推定することができる。
続いて、ランドマーク推定部32は、抽出した挿入部9と被写体との境界を推定する(S2)。S2の処理は、図3Aにおける境界推定部32Bが関わる。先端部6が振り返った姿勢で被写体を撮影する場合、挿入部9の先端側は必ず内視鏡画像の周縁側に位置し、挿入部9の挿入元側は必ず内視鏡画像の中心側に位置する。従って、画像上における挿入部9と被写体(図5の場合、胃の内壁)との境界線のうち、挿入部9の長手方向と交差し、かつ、内視鏡画像の中心側に位置する境界線を、挿入部9と被写体との境界と推定することができる。
最後に、ランドマーク推定部32は、ランドマークの位置を推定する(S3)。S3の処理は、図3Aにおけるランドマーク位置推定部32Cが関わる。図6Bは、図6Aの内視鏡画像に基づき推定したランドマーク位置を説明する概略図である。ランドマークLの位置は、S1で推定した挿入部9の軸9aと、S2で推定した境界9bとの交点として推定することができる。
以上のように、上述した実施の形態のランドマーク推定方法によれば、内視鏡挿入部を湾曲させたことにより挿入部自体が内視鏡画像に映り込むことにより、ランドマークが遮蔽され直接的に計測点として指定できない場合にも、ランドマークの位置を精度よく推定することができる。
(第2の実施形態)
上述の第1の実施形態では、挿入部9の長手方向を検出することにより挿入部9の軸9aを推定しているが、本実施形態では、画像処理を用いて軸9aを検出する。本実施形態の内視鏡装置は、第1の実施形態の内視鏡装置1と同様の構成を有しており、同じ構成要素については、同じ符号を付して説明は省略する。また、本実施形態のランドマーク推定処理は、図4に示すフローチャートと同様の手順で行われる。ただし、S1の具体的な方法が第1の実施形態と異なる。以下、本実施形態による図4のS1の方法、すなわち、挿入部9の軸9aを推定する具体的な方法について説明する。なお、本実施形態におけるS1の処理には、図3Bにおける色解析部32A1が関わる。
図7は、第2の実施形態に関わる挿入部9の軸9a推定位置を説明する概略図である。図7は、図6Aに示す内視鏡画像に後述する処理を施し、挿入部9のエッジを検出した状態を示している。挿入部9の軸9aを推定するにあたり、軸推定部32Aの色解析部32A1は、挿入部9の色(例えば、黒色)と体腔内の色(赤色)との違いを用いて、挿入部9領域と体腔領域とを分割し、オブジェクトとして挿入部9のエッジを検出する。エッジ検出には、ハフ変換などの既存の手法を用いることができる。
検出したエッジに基づき、挿入部9の径方向の幅を二等分する挿入部9の長手方向に沿った直線(中心線)を算出する。中心線の算出は、画像モーメントによる主軸抽出などの既存の手法を用いてもよい。このようにして得られた中心線を、挿入部9の軸9aとして推定する。
以上のように、本実施形態によっても、第1の実施形態と同様の効果を得ることができる。
(第2の実施形態の変形例)
上述の第2の実施形態では、色解析によって挿入部9のエッジを検出することにより挿入部9の軸9aを推定しているが、本変形例では、挿入部9に設けられたマーカをオブジェクトとして用いて軸9aを検出する。本変形例の内視鏡装置は、第1の実施形態の内視鏡装置1と同様の構成を有しており、同じ構成要素については、同じ符号を付して説明は省略する。また、本実施形態のランドマーク推定処理は、図4に示すフローチャートと同様の手順で行われる。ただし、S1の具体的な方法が第2の実施形態と異なる。以下、本変形例による図4のS1の方法、すなわち、挿入部9の軸9aを推定する具体的な方法について説明する。なお、本変形例におけるS1の処理には、図3Bにおけるマーカ解析部32A2が関わる。
図8は、第2の実施形態の変形例に関わる挿入部9の軸9a推定位置を説明する概略図である。一般的に、内視鏡の挿入部9には、先端から一定位置(あるいは一定間隔)で、マーカ9dが設けられている。マーカ9dは、内視鏡画像上で容易に認識できるように、挿入部9の色とは異なる色のマーカが設けられている。例えば、挿入部9の色が黒色である場合、反対色である白色のマーカ9dが設けられる。また、マーカ9dは、挿入方向や挿入深度・挿入の向きなど、挿入部9の挿入状態にかかわらず、常に内視鏡画像上でマーカ9dが識別可能に配置されることが望ましい。従って、例えば、挿入部9の径方向に沿って挿入部9dの外縁を一周するような形状のマーカ9dが、先端から一定間隔で配置される。
軸推定部32Aのマーカ解析部32A2は、記憶部23などに予め保存されているマーカの形状及び色に関する情報に基づき、内視鏡画像中からマーカ9dを検出する。上述のように、挿入部9の径方向に沿って挿入部9dの外縁を一周するような形状のマーカ9dが設けられている場合、マーカ9dとして検出された線分と直交する方向を、軸方向として推定する。なお、マーカ9dの形状に応じて、軸の推定方法は異なる。例えば、数直線のように一定間隔で目盛りが付加された直線の形状を有するマーカ9dが、挿入部9の長手方向に沿って配置されている場合、マーカ9dと同じ方向を軸方向として推定する。
以上のように、本変形例によっても、第1、第2の実施形態と同様の効果を得ることができる。
(第3の実施形態)
上述した実施形態においては、挿入部9の長手方向、エッジ、マーカなどのオブジェクトを、内視鏡画像上から抽出し、それらの情報に基づき軸9aを推定しているが、本実施形態では、画像の輝度情報も用いて軸9aを推定する点が異なっている。本変形例の内視鏡装置は、第1の実施形態の内視鏡装置1と同様の構成を有しており、同じ構成要素については、同じ符号を付して説明は省略する。また、本実施形態のランドマーク推定処理は、図4に示すフローチャートと同様の手順で行われる。ただし、S1の具体的な方法が第2の実施形態と異なる。以下、本変形例による図4のS1の方法、すなわち、挿入部9の軸9aを推定する具体的な方法について説明する。なお、本変形例におけるS1の処理には、図3Bにおける輝度解析部32A3が関わる。
図9は、第3の実施形態に関わる挿入部9の軸9a推定位置を説明する概略図である。輝度解析部32A3は、図6Aに示す内視鏡画像において、各画素の輝度値を算出する。通常、挿入部9の表面は鏡面処理がなされている。従って、体腔内に照射される照明光が挿入部9の表面で鏡面反射される。挿入部9は略筒状であるので、挿入部9の軸9aに近いほど反射角が小さくなり、先端部6に配置された撮像面に対して反射光が垂直に入射される。一方、挿入部の軸9aから遠くエッジ近傍になるほど、反射光の入射角が大きくなり、先端部6に配置された撮像面に対して反射光が傾きをもって入射される。
すなわち、内視鏡画像において、挿入部9の軸9aの近傍に位置する画素ほど輝度値が高く、軸9aから遠くなるにつれて輝度値が低くなる。この現象を利用し、算出した画素値が所定の閾値よりも高い領域を検出し、当該領域(高輝度領域9e)の中心軸に挿入部9の軸9aが存在すると推定することができる。
このように、鏡面反射を利用することで、本来のテクスチャが撮像されない状況(例えば、挿入部9と体腔内の色差が少なく、色による領域分割が難しい場合や、挿入部9に設定されたマーカ9dが検出困難な場合)においても、安定的に軸9aの推定が可能となる。なお、輝度解析部32A3は、上述の実施形態や変形例によって推定した軸9aが、高輝度領域に存在するか否かを判定するために用いてもよい。この場合、間違って推定された軸9aを排除することができるので、軸9aの推定精度が向上する。
以上のように、本実施形態によっても、第1、2の実施形態と同様の効果を得ることができる。更に、第1、第2の実施形態と組み合わることにより、軸9aの検出精度を向上させることができる。
(第4の実施形態)
上述の実施形態では、2次元の内視鏡画像に基づきランドマークを推定しているが、本実施形態では、3次元の内視鏡画像(3Dサーフェスデータ)を取得し、これに基づきランドマークを推定する。本実施形態の内視鏡装置は、内視鏡2に設けられた3Dサーフェスデータを取得する手段以外は、第1の実施形態の内視鏡装置1と同様の構成を有しており、同じ構成要素については、同じ符号を付して説明は省略する。
図10は、本実施の形態に関わる内視鏡2の構成の一例を説明する概略図である。本実施形態の内視鏡2は、3Dサーフェスデータを取得する手段として、投影式計測デバイス41を備えている。投影式計測デバイス41は、TOF(Time оf Flight)法、すなわち、被写体に対して投影光を照射し、被写体からの反射光を検知する。投影光を照射してから反射光を検知するまでの時間を計測することで、該計測時間に基づき被写体の3次元座標を算出する。
投影式計測デバイス41は、例えば、処置具チャネル挿通部18から挿入され、操作部10、挿入部9の内部を通り、先端部6に設けられた処置具チャネル44から投影光を照射する。被写体からの反射光は、処置具チャネル44から入射され、投影式計測デバイス41の図示しない検知部で検知され、検知までに要する時間が計測される。なお、被写体からの反射光は、先端部6に設けられた処置具チャネル44以外の窓を介して検知するように構成してもよい。例えば、観察窓42を介して撮像素子で検知するように構成してもよい。
なお、投影式計測デバイス41は、非接触で3Dサーフェスデータが取得できるものであれば、どのような手法を用いたデバイスでもよく、上述のように既存のデバイスを反射光の戻り時間から3次元座標を算出するのではなく、パターン投影法(被写体にグリッドパターンやなど特定の既知パターンを投影し、撮像素子で撮影したパターンの歪みから被写体の3次元サーフェスデータを計算する方法)など他の方法を用いたデバイスでもよい。
また、計測用の投影光や特定パターンは、図11に示すように、光源装置3から照明窓43を介して被写体に照射するように構成してもよい。図11は、第4の実施形態に関わる内視鏡2の構成の別の一例を説明する概略図である。
また、図12に示すように、内視鏡2にステレオ撮像系を搭載し、位置の異なる2つの観察窓42a、42bで受光した被写体の反射光に基づき得られる2枚の画像の位置ずれ情報に基づき、三角測量の原理を用いて被写体の3Dサーフェスデータを算出してもよい。図12は、第4の実施形態に関わる内視鏡2の構成の別の一例を説明する概略図である。
本実施形態のランドマーク推定処理は、図4に示すフローチャートと同様の手順で行われる。ただし、S1、及び、S3の具体的な方法が上述の実施形態と異なる。以下、本変形例による図4のS1の方法、すなわち、挿入部9の軸9aを推定する具体的な方法について説明する。なお、本実施形態におけるS1の処理には、図3Bにおけるサーフェスデータ解析部32A4が関わる。
図13は、第4の実施形態に関わる挿入部9の軸9a推定位置を説明する概略図である。サーフェスデータ解析部32Aは、被写体の3Dサーフェスデータを取得する。サーフェスデータに基づき、内視鏡2の挿入部9の長手方向のエッジを検出する。図13においては、挿入部9のエッジ9eのうち、サーフェスデータとして取得できるエッジ9e1を実線で示しており、サーフェスデータとして取得できないエッジ9a2を破線で示している。本実施形態においては、サーフェスデータとして取得できるエッジ9e1を、挿入部9の軸9aとして推定する。
なお、挿入部9と体腔との境界のサーフェスデータから、挿入部9の断面形状(楕円形状)を推定し、推定した断面の中心を通り、サーフェスデータとして取得できるエッジ9e1と平行な直線を軸9aとして推定してもよい。図14は、第4の実施形態に関わる挿入部9の軸9aの別の推定位置を説明する概略図である。挿入部9の断面形状は、サーフェスデータから推定してもよいし、内視鏡2に設けられた図示しない記憶部に挿入部9の断面形状の設計データを予め保存しておき、これを参照してもよい。
続いて、挿入部9と体腔との境界を推定した後(S2)、S3において、ランドマークの推定を行う。具体的には、3Dサーフェスデータから体腔(例えば、胃壁)として検出された面Sbと、S1で推定した軸9aとの交点を、ランドマークLと推定する。
以上のように、本実施形態によっても、第1の実施形態と同様の効果を得ることができる。
(第5の実施形態)
本実施形態では、体腔内の病変部を検出し、上述の各実施形態で推定したランドマークと病変部との距離を算出する。本実施形態の内視鏡装置は、第1の実施形態の内視鏡装置1と同様の構成を有しており、同じ構成要素については、同じ符号を付して説明は省略する。以下、第1の実施形態と異なる演算部22bの構成について説明する。
図15は、本発明の第5の実施形態に関わる制御演算部22の演算部22bの構成を示すブロック図である。本実施形態の演算部22bは、画像生成部31、ランドマーク推定部32に加え、病変検出部33と距離解析部34とを有する。
病変検出部33は、例えば、ディープラーニング等の学習手法で腫瘍(ポリープ)画像を識別可能な機能を予め取得した画像識別器を内視鏡画像に対して適用する処理を行うことにより、当該画像から病変部を検出する。なお、病変の検出は、上記に示す学習手法に限定されず、他の手法を用いてもよい。例えば、特開2007−244518号公報に開示のようなポリープ候補検出処理などを用いてもよい。
距離解析部34は、病変部とランドマークとの距離を算出する。なお、2点間の距離は、直線距離として算出してもよいし、被写体の3Dサーフェスデータが取得できている場合は、体腔内表面に沿った沿面距離を求めてもよい。
図16は、ランドマークと病変部との直線距離を表す概略図である。直線距離を算出する場合、距離解析部34は図16に示すように、推定したランドマークLと、検出した病変部Tとを直線で結び、これらの間の距離を算出する。図17は、ランドマークと病変部との沿面距離を表す概略図である。沿面距離を算出する場合、距離解析部34は図17に示すように、推定したランドマークLと、検出した病変部Tとを直線で結び、これらの間の距離を算出する。
以上のように、本実施形態の推定方法によれば、第1の実施形態と同様の効果を得ることができるとともに、推定したランドマークの位置を用いて、病変部との距離を計測することができ、術者の手技に有用な情報を生成し提示することができる。
(第6の実施形態)
上述の実施形態では、内視鏡の状態によらずランドマークの推定を行っていたが、本実施形態では、挿入部9が湾曲状態にある場合にのみランドマークの推定を行う。本実施形態の内視鏡装置は、内視鏡2に設けられた挿入部9の湾曲を検知する手段以外は、第1の実施形態の内視鏡装置1と同様の構成を有しており、同じ構成要素については、同じ符号を付して説明は省略する。
図18は、本実施の形態に関わる内視鏡2の構成の一例を説明する概略図である。本実施形態の内視鏡2は、内視鏡2には、挿入部9を湾曲させるワイヤ51が設けられている。ワイヤの一端は、感圧装置52に接続されている。感圧装置52は、挿入部9を湾曲させるためにワイヤ51に圧力が加えられると、これを検知する。感圧装置52による検知結果は、制御演算部22に出力される。なお、挿入部9の湾曲を検知する手段は、上述した感圧装置52による検知に限定されず、他の手段を用いてもよい。
制御演算部22は、感圧装置52がワイヤ圧を検知している場合のみ、ランドマーク推定部32における各処理を実行する。なお、感圧装置52で検知したワイヤ圧から、挿入部9の湾曲角度を推定し、挿入部の軸9aの推定に用いてもよい。
以上のように、上述した各実施形態及び変形例によれば、内視鏡挿入部を湾曲させたことにより挿入部自体が内視鏡画像に映り込むことにより、ランドマークが遮蔽され直接的に計測点として指定できない場合にも、ランドマークの位置を精度よく推定することができる。
本発明は、上述した実施例に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更や応用が可能であることは勿論である。

Claims (13)

  1. 挿入部が湾曲した内視鏡によって被写体を撮像して得られた内視鏡画像において、前記被写体に存在する孔部であって前記挿入部が貫通している部位であるランドマークの位置を、前記内視鏡とランドマーク推定部とを有する内視鏡装置を用いて推定するランドマーク推定方法であって、
    軸推定部が、前記挿入部の軸を推定し、
    境界推定部が、前記挿入部と前記被写体との境界を推定し、
    ランドマーク位置推定部が、前記ランドマーク前記軸と前記境界とに基づいて前記ランドマークの位置を推定することを特徴とするランドマーク推定方法。
  2. 色解析部が、前記内視鏡画像の色解析によって前記内視鏡画像から前記軸の推定に用いるオブジェクトを抽出し、前記オブジェクトの形状を解析して前記軸を推定することを特徴とする請求項1に記載のランドマーク推定方法。
  3. 前記オブジェクトは、前記挿入部のエッジであることを特徴とする請求項2に記載のランドマーク推定方法。
  4. 前記オブジェクトは、前記挿入部に設けられたマーカであることを特徴とする請求項2に記載のランドマーク推定方法。
  5. 輝度解析部が、前記内視鏡画像の輝度解析によって、前記挿入部の鏡面反射部分を抽出し、前記軸が存在する前記挿入部の中心領域を推定することを特徴とする請求項2に記載のランドマーク推定方法。
  6. 投影式計測デバイスが、前記被写体の内視鏡画像として3Dサーフェスデータを取得し、前記3Dサーフェスデータから抽出した前記挿入部の長手方向のエッジを前記軸と推定することを特徴とする請求項1に記載のランドマーク推定方法。
  7. サーフェスデータ解析部が、前記挿入部と前記被写体との境界の3Dサーフェスデータから、前記挿入部の断面形状を楕円近似し、前記楕円の中心を通り前記3Dサーフェスデータから抽出した前記挿入部の長手方向のエッジと平行な直線を前記軸と推定することを特徴とする請求項6に記載のランドマーク推定方法。
  8. 前記サーフェスデータ解析部が、推定した前記軸と、前記被写体の3Dサーフェスデータとの交点を、前記ランドマークと推定することを特徴とする請求項7に記載のランドマーク推定方法。
  9. 更に、病変検出部が、前記被写体から病変部を検出し、距離解析部が前記ランドマークから前記病変部までの距離を算出することを特徴とする請求項6に記載のランドマーク推定方法。
  10. 前記距離は、前記3Dサーフェスデータに沿った沿面距離であることを特徴とする請求項9に記載のランドマーク推定方法。
  11. 圧力検知部が、前記挿入部の湾曲状態を検知し、前記挿入部が湾曲していることを検知した場合にのみ、前記軸の推定を行うことを特徴とする請求項1に記載のランドマーク推定方法。
  12. 挿入部が湾曲した内視鏡によって被写体を撮像して得られた内視鏡画像において、前記被写体に存在する孔部であって前記挿入部が貫通している部位であるランドマークの位置を推定するランドマーク推定部を有する内視鏡装置において、
    前記ランドマーク推定部は、
    前記挿入部の軸を推定する軸推定部と、
    前記挿入部と前記被写体との境界を推定する境界推定部と、
    前記軸と前記境界とに基づいて前記ランドマークの位置を推定するランドマーク位置推定部と、を備えることを特徴とする内視鏡装置。
  13. 挿入部が湾曲した内視鏡によって被写体を撮像して得られた内視鏡画像において、前記被写体に存在する孔部であって前記挿入部が貫通している部位であるランドマークの位置を推定する位置推定プログラムであって、
    前記挿入部の軸を推定し、
    前記挿入部と前記被写体との境界を推定し、
    前記軸と前記境界とに基づいて前記ランドマークの位置を推定する処理をコンピュータに実行させるための位置推定プログラム。
JP2020525202A 2018-06-22 2018-06-22 ランドマーク推定方法、内視鏡装置、及び、位置推定プログラム Active JP6987243B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/023833 WO2019244345A1 (ja) 2018-06-22 2018-06-22 ランドマーク推定方法、及び、内視鏡装置

Publications (2)

Publication Number Publication Date
JPWO2019244345A1 JPWO2019244345A1 (ja) 2021-02-25
JP6987243B2 true JP6987243B2 (ja) 2021-12-22

Family

ID=68983652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020525202A Active JP6987243B2 (ja) 2018-06-22 2018-06-22 ランドマーク推定方法、内視鏡装置、及び、位置推定プログラム

Country Status (4)

Country Link
US (1) US11430114B2 (ja)
JP (1) JP6987243B2 (ja)
CN (1) CN111936030A (ja)
WO (1) WO2019244345A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115279250A (zh) * 2020-04-28 2022-11-01 豪雅株式会社 内窥镜***
WO2022202400A1 (ja) * 2021-03-22 2022-09-29 富士フイルム株式会社 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8055033B2 (en) 2005-02-15 2011-11-08 Olympus Corporation Medical image processing apparatus, luminal image processing apparatus, luminal image processing method, and programs for the same
JP4832927B2 (ja) * 2006-03-14 2011-12-07 オリンパスメディカルシステムズ株式会社 医療用画像処理装置及び医療用画像処理方法
JP2008237236A (ja) * 2007-03-23 2008-10-09 Olympus Medical Systems Corp 内視鏡及び生体観察システム
WO2008155828A1 (ja) * 2007-06-20 2008-12-24 Olympus Medical Systems Corp. 内視鏡システム、撮像システム及び画像処理装置
JP5477800B2 (ja) * 2008-02-27 2014-04-23 株式会社日立製作所 回転状態検出装置の作動方法および回転状態検出装置
JP2009254783A (ja) * 2008-03-25 2009-11-05 Panasonic Electric Works Co Ltd 内視鏡システム、内視鏡手術訓練システム
KR101764438B1 (ko) * 2009-03-26 2017-08-02 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 하나 이상의 랜드마크를 향해 내시경 디바이스의 팁을 조종하고 운전자의 내시경 길찾기를 돕기 위한 시각적 안내를 제공하는 시스템
US10004387B2 (en) * 2009-03-26 2018-06-26 Intuitive Surgical Operations, Inc. Method and system for assisting an operator in endoscopic navigation
JP5492729B2 (ja) * 2010-09-28 2014-05-14 富士フイルム株式会社 内視鏡画像記録装置、及び内視鏡画像記録装置の作動方法、並びにプログラム
US8870751B2 (en) 2010-09-28 2014-10-28 Fujifilm Corporation Endoscope system, endoscope image recording apparatus, endoscope image acquisition assisting method and computer readable medium
US10019812B2 (en) * 2011-03-04 2018-07-10 General Electric Company Graphic overlay for measuring dimensions of features using a video inspection device
US9875574B2 (en) * 2013-12-17 2018-01-23 General Electric Company Method and device for automatically identifying the deepest point on the surface of an anomaly
RU2018118949A (ru) * 2011-12-03 2018-11-05 Конинклейке Филипс Н.В. Определение местоположения точки введения хирургического инструмента
DE102013219134A1 (de) * 2013-09-24 2015-03-26 Siemens Aktiengesellschaft System und Verfahren zur Korrelation von Objektinformationen mit Röntgenbildern
US20150142372A1 (en) * 2013-11-19 2015-05-21 Polaris Surgical, LLC Prosthetic placement tool and associated methods
EP3064122A4 (en) * 2013-12-05 2017-09-06 Olympus Corporation Stereoscopic endoscope system
US9600928B2 (en) * 2013-12-17 2017-03-21 General Electric Company Method and device for automatically identifying a point of interest on the surface of an anomaly
CN106068093B (zh) * 2014-04-08 2018-09-25 奥林巴斯株式会社 内窥镜***
JP6446251B2 (ja) 2014-10-13 2018-12-26 ゼネラル・エレクトリック・カンパニイ 異常の表面上の関心点を自動的に識別するための方法およびデバイス
JP6013664B1 (ja) * 2014-12-10 2016-10-25 オリンパス株式会社 補助具及び内視鏡システム
WO2017054817A1 (de) * 2015-10-01 2017-04-06 Olaf Christiansen Endoskopisches bildverarbeitungssystem für die chirurgie mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische distanzinformation erzeugen
WO2017081821A1 (ja) * 2015-11-13 2017-05-18 オリンパス株式会社 内視鏡の状態推定方法
JP6824078B2 (ja) * 2017-03-16 2021-02-03 富士フイルム株式会社 内視鏡位置特定装置、方法およびプログラム
US11887502B2 (en) * 2018-01-04 2024-01-30 Applied Medical Resources Corporation Surgical simulation camera scope

Also Published As

Publication number Publication date
US11430114B2 (en) 2022-08-30
JPWO2019244345A1 (ja) 2021-02-25
US20210056695A1 (en) 2021-02-25
CN111936030A (zh) 2020-11-13
WO2019244345A1 (ja) 2019-12-26

Similar Documents

Publication Publication Date Title
CN110049709B (zh) 图像处理装置
JP5676058B1 (ja) 内視鏡システム及び内視鏡システムの作動方法
US9516993B2 (en) Endoscope system
JP6967602B2 (ja) 検査支援装置、内視鏡装置、内視鏡装置の作動方法、及び検査支援プログラム
WO2014168128A1 (ja) 内視鏡システム及び内視鏡システムの作動方法
US9824445B2 (en) Endoscope system
US11928834B2 (en) Systems and methods for generating three-dimensional measurements using endoscopic video data
JP5750669B2 (ja) 内視鏡システム
EP3245932A1 (en) Medical device, medical image generating method, and medical image generating program
US20220398771A1 (en) Luminal structure calculation apparatus, creation method for luminal structure information, and non-transitory recording medium recording luminal structure information creation program
US11430114B2 (en) Landmark estimating method, processor, and storage medium
JP2020516408A (ja) 内視鏡測定の方法および器具
JP7385731B2 (ja) 内視鏡システム、画像処理装置の作動方法及び内視鏡
US20220409030A1 (en) Processing device, endoscope system, and method for processing captured image
US11432707B2 (en) Endoscope system, processor for endoscope and operation method for endoscope system for determining an erroneous estimation portion
JP2023552032A (ja) 医療処置中に未検査領域を識別するためのデバイス、システム、及び方法
JP7335157B2 (ja) 学習データ作成装置、学習データ作成装置の作動方法及び学習データ作成プログラム並びに医療画像認識装置
US20240000299A1 (en) Image processing apparatus, image processing method, and program
US20240013389A1 (en) Medical information processing apparatus, endoscope system, medical information processing method, and medical information processing program
US20230419517A1 (en) Shape measurement system for endoscope and shape measurement method for endoscope
WO2022230563A1 (ja) 内視鏡システム及びその作動方法
US20230157526A1 (en) Endoscope system
JP6335839B2 (ja) 医療装置、医療画像生成方法及び医療画像生成プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200914

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211130

R151 Written notification of patent or utility model registration

Ref document number: 6987243

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151