CN114554934A - 程序、信息处理方法、信息处理装置以及诊断支持*** - Google Patents
程序、信息处理方法、信息处理装置以及诊断支持*** Download PDFInfo
- Publication number
- CN114554934A CN114554934A CN202180005706.5A CN202180005706A CN114554934A CN 114554934 A CN114554934 A CN 114554934A CN 202180005706 A CN202180005706 A CN 202180005706A CN 114554934 A CN114554934 A CN 114554934A
- Authority
- CN
- China
- Prior art keywords
- image
- information
- endoscope
- dimensional medical
- endoscopic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 92
- 238000003745 diagnosis Methods 0.000 title claims description 24
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000003384 imaging method Methods 0.000 claims abstract description 24
- 238000003780 insertion Methods 0.000 claims description 107
- 230000037431 insertion Effects 0.000 claims description 107
- 238000005452 bending Methods 0.000 claims description 36
- 238000000034 method Methods 0.000 claims description 23
- 230000007246 mechanism Effects 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 12
- 238000002591 computed tomography Methods 0.000 description 45
- 238000012545 processing Methods 0.000 description 39
- 238000010586 diagram Methods 0.000 description 26
- 238000004891 communication Methods 0.000 description 20
- 238000001727 in vivo Methods 0.000 description 18
- 239000000203 mixture Substances 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 11
- 210000000056 organ Anatomy 0.000 description 10
- 210000002429 large intestine Anatomy 0.000 description 9
- 238000012549 training Methods 0.000 description 9
- 238000002604 ultrasonography Methods 0.000 description 9
- 239000013598 vector Substances 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 8
- JVTAAEKCZFNVCJ-UHFFFAOYSA-N lactic acid Chemical compound CC(O)C(O)=O JVTAAEKCZFNVCJ-UHFFFAOYSA-N 0.000 description 8
- 210000004798 organs belonging to the digestive system Anatomy 0.000 description 8
- 238000012937 correction Methods 0.000 description 7
- 238000009795 derivation Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000003902 lesion Effects 0.000 description 7
- 210000002569 neuron Anatomy 0.000 description 7
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 7
- 210000000746 body region Anatomy 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000005286 illumination Methods 0.000 description 5
- 238000002347 injection Methods 0.000 description 5
- 239000007924 injection Substances 0.000 description 5
- 235000014655 lactic acid Nutrition 0.000 description 4
- 239000004310 lactic acid Substances 0.000 description 4
- 238000003705 background correction Methods 0.000 description 3
- 210000000621 bronchi Anatomy 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 210000001835 viscera Anatomy 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 210000000436 anus Anatomy 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000009849 deactivation Effects 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 210000001035 gastrointestinal tract Anatomy 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 210000003437 trachea Anatomy 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 210000003445 biliary tract Anatomy 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000000338 in vitro Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 210000000496 pancreas Anatomy 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 210000000813 small intestine Anatomy 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 210000002438 upper gastrointestinal tract Anatomy 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/005—Flexible endoscopes
- A61B1/009—Flexible endoscopes with bending or curvature detection of the insertion part
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00011—Operational features of endoscopes characterised by signal transmission
- A61B1/00016—Operational features of endoscopes characterised by signal transmission using wireless means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/005—Flexible endoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/13—Tomography
- A61B8/14—Echo-tomography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
- G06T2207/10136—3D ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Pathology (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- High Energy & Nuclear Physics (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Computer Networks & Wireless Communication (AREA)
- Endoscopes (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Analysis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
本发明的程序使计算机执行以下处理:从内窥镜获取受试者的内窥镜图像;获取利用X射线CT、X射线锥形束CT、MRI‑CT、超声波诊断装置等能够用三维图像对所述受试者体内进行拍摄的单元拍摄体内的三维医用图像;基于获取的所述内窥镜图像,生成由所述三维医用图像重建的虚拟内窥镜图像;基于所述虚拟内窥镜图像及所述内窥镜图像,导出所述内窥镜图像中的距离图像信息;以及基于所述距离图像信息及所述三维医用图像,输出关于所述内窥镜操作的操作支持信息。
Description
技术领域
本技术涉及一种程序、信息处理方法、信息处理装置以及诊断支持***。
本申请主张基于2020年3月26日提交的日本申请第2020-056712号的优先权,并引用所述日本申请中记载的全部公开内容。
背景技术
在患者的肿瘤检查中,特别是在气管及支气管内、上消化道、胰脏、胆道或肠道等管状器官部位,要将内窥镜***到相关管状器官部位,通过***的内窥镜影像进行大部分检查。但是,在内窥镜图像的二维图像信息中,并不知道到各像素之间的距离,且存在图像的几何失真,图像测量时的误差较大,因此,很难直接用内窥镜图像提供图像诊断支持信息。对此,专利文献1中公开的虚拟内窥镜利用X射线CT(Computed Tomography,计算机断层扫描)图像的数据来提供虚拟内窥镜图像。根据X射线CT的三维图像创建该虚拟内窥镜图像。
现有技术文献
专利文献
专利文献1:日本特开2002-238887号公报
发明内容
发明所要解决的课题
然而,专利文献1中公开的虚拟内窥镜只显示截面的X射线CT重建图像(虚拟内窥镜图像),并没有考虑到基于内窥镜图像及虚拟内窥镜图像提供内窥镜操作的相关信息,进行诊断支持。
一方面,本发明的目的旨在提供一种能提供关于内窥镜操作的信息,开展有效的诊断支持的程序等。
用于解决课题的技术方案
本公开的一个实施方式的程序使计算机执行以下处理:从内窥镜获取受试者的内窥镜图像;获取利用X射线CT、X射线锥形束CT、MRI-CT、超声波诊断装置等能够用三维图像对所述受试者体内进行拍摄的单元拍摄体内的三维医用图像;基于获取的所述内窥镜图像,生成由所述三维医用图像重建的虚拟内窥镜图像;基于所述虚拟内窥镜图像及所述内窥镜图像,导出所述内窥镜图像中的距离图像信息;以及基于所述距离图像信息及所述三维医用图像,输出关于所述内窥镜操作的操作支持信息。
本公开的一个实施方式的信息处理方法使计算机执行以下处理:从内窥镜获取受试者的内窥镜图像;获取利用X射线CT、X射线锥形束CT、MRI-CT、超声波诊断装置等能够用三维图像对所述受试者体内进行拍摄的单元拍摄体内的三维医用图像;基于获取的所述内窥镜图像,生成由所述三维医用图像重建的虚拟内窥镜图像;基于所述虚拟内窥镜图像及所述内窥镜图像,导出所述内窥镜图像中的距离图像信息;以及基于所述距离图像信息及所述三维医用图像,输出关于所述内窥镜操作的操作支持信息。
本公开的一个实施方式的信息处理装置具备:内窥镜图像获取部,其从内窥镜获取受试者的内窥镜图像;三维医用图像获取部,其获取利用X射线CT、X射线锥形束CT、MRI-CT、超声波诊断装置等能够用三维图像对所述受试者体内进行拍摄的单元拍摄体内的三维医用图像;生成部,其基于获取的所述内窥镜图像,生成由所述三维医用图像重建的虚拟内窥镜图像;导出部,其基于所述虚拟内窥镜图像及所述内窥镜图像,导出所述内窥镜图像中的距离图像信息;以及输出部,其基于所述距离图像信息及所述三维医用图像,输出关于所述内窥镜操作的操作支持信息。
本公开的一个实施方式的诊断支持***具备:内窥镜;自动操作机构,其进行所述内窥镜的自动操作;以及内窥镜处理器,其从所述内窥镜获取受试者的内窥镜图像;所述内窥镜处理器包括:三维医用图像获取部,其获取利用X射线CT、X射线锥形束CT、MRI-CT、超声波诊断装置等能够用三维图像对所述受试者体内进行拍摄的单元拍摄体内的三维医用图像;生成部,其基于获取的所述内窥镜图像,生成由所述三维医用图像重建的虚拟内窥镜图像;导出部,其基于所述虚拟内窥镜图像及所述内窥镜图像,导出所述内窥镜图像中的距离图像信息;以及输出部,其基于所述距离图像信息及所述三维医用图像,将关于所述内窥镜操作的操作支持信息输出到所述自动操作机构;所述自动操作机构根据从所述输出部输出的所述操作支持信息,进行所述内窥镜的自动操作。
发明效果
根据本公开,可以提供一种能提供关于内窥镜操作的信息,开展有效的诊断支持的程序等。
附图说明
图1是示出实施方式1所涉及的诊断支持***概要的示意图。
图2是示出诊断支持***中所包括的内窥镜装置的结构例的框图。
图3是示出诊断支持***中所包括的信息处理装置的结构例的框图。
图4是例示内窥镜图像DB的数据布局的说明图。
图5是说明使用操作信息学习模型输出操作支持信息的处理的说明图。
图6是说明使用一致度学习模型输出与内窥镜图像的一致度的处理的说明图。
图7是例示信息处理装置的控制部中所包括的功能部的功能框图。
图8是示出内窥镜***距离(S坐标的值)的说明图。
图9是关于内窥镜图像和三维医用图像之间的关联的说明图。
图10是示出由信息处理装置的控制部执行的处理步骤的一例的流程图。
图11是示出集成图像显示画面的一个形态的说明图。
图12是例示实施方式2(弯曲历史)所涉及的信息处理装置的控制部中所包括的功能部的功能框图。
图13是示出由信息处理装置的控制部执行的处理步骤的一例的流程图。
图14是示出实施方式3(自动操作机构)所涉及的诊断支持***概要的示意图。
图15是例示信息处理装置的控制部中所包括的功能部的功能框图。
具体实施方式
(实施方式1)
在下文中,将参照示出其实施方式的附图来具体说明本发明。图1是示出实施方式1所涉及的诊断支持***S概要的示意图。诊断支持***S包括:内窥镜装置10,以及与内窥镜装置10可通信地连接的信息处理装置6。
内窥镜装置10将由内窥镜40的摄像元件所拍摄的图像(拍摄图像)传送到内窥镜用处理器20,由内窥镜用处理器20进行伽马校正、白平衡校正、阴影校正等各种图像处理,从而生成操作者容易目视的状态的内窥镜图像。内窥镜装置10将所生成的内窥镜图像输出(发送)到信息处理装置6。信息处理装置6获取了从内窥镜装置10发送的内窥镜图像后,基于这些内窥镜图像进行各种信息处理,并输出关于诊断支持的信息。
内窥镜装置10包括内窥镜用处理器20、内窥镜40和显示装置50。显示装置50例如是液晶显示装置或有机EL(Electro Luminescence,电致发光)显示装置。
显示装置50设置在带脚轮的收容架16的上层。内窥镜用处理器20收纳在收容架16的中层。收容架16配置在省略图示的内窥镜检查用床的附近。收容架16具有抽屉式棚架,该抽屉式棚架用于装载与内窥镜用处理器20相连接的键盘15。
内窥镜用处理器20呈大致长方体形状,并且在一面上具备触摸面板25。在触摸面板25的下部配置有读取部28。读取部28例如是USB连接器、SD(Secure Digital,安全数字)卡槽、或者CD-ROM(Compact Disc Read Only Memory,只读光盘存储器)驱动器等的、用于进行便携式记录介质的读写的连接用接口。
内窥镜40具有***部44、操作部43、通用软线49和观测器用连接器48。操作部43设置有控制按钮431。***部44为细长的,一端经由止弯部45与操作部43连接。***部44从操作部43侧依次具有柔性部441、弯曲部442以及前端部443。弯曲部442因应弯曲旋钮433的操作而弯曲。在***部44中安装3轴加速度传感器、陀螺仪传感器、地磁传感器、磁线圈传感器或者内窥镜***形状观测装置(Colonavi)等物理检测装置,当将内窥镜40***受试者的体内时,就可以获取这些物理检测装置的检测结果。
通用软线49是细长的,其中第一端连接到操作部43,第二端连接到观测器用连接器48。通用软线49是柔性的。观测器用连接器48呈大致长方体形状。在观测器用连接器48上设有用于连接供气供水用管的供气供水口36(参照图2)。
图2是示出诊断支持***S中所包括的内窥镜装置10的结构例的框图。控制部21是用于执行本实施方式中的程序的运算控制装置。控制部21使用一个或多个CPU(CentralProcessing Unit,中央处理器)、GPU(Graphics Processing Unit,图形处理器)或者多核CPU等。控制部21经由总线与用于构成内窥镜用处理器20的硬件各部相连接。
主存储装置22例如是SRAM(Static Random Access Memory,静态随机存取存储器)、DRAM(Dynamic Random Access Memory,动态随机存储器)、闪存等存储装置。主存储装置22暂时保存由控制部21进行处理过程中所需的信息、以及在控制部21中正在执行的程序。辅助存储装置23例如是SRAM、闪存或硬盘等存储装置,是容量比主存储装置22大的存储装置。例如可以将获取的拍摄图像、生成的内窥镜图像作为中间数据保存于辅助存储装置23中。
通信部24是用于通过有线或无线方式经由网络与信息处理装置6进行通信的通信模块或通信接口,例如wifi(注册商标)、Bluetooth(注册商标)等窄带无线通信模块或4G、LTE等宽带无线通信模块。触摸面板25包括液晶显示面板等显示部和层叠在显示部上的输入部。通信部24可与CT装置、MRI装置(参照图5)、超声波诊断装置或用于保存从这些装置输出的数据的存储装置(未图示)通信。
显示装置I/F26是用于连接内窥镜用处理器20和显示装置50的接口。输入装置I/F27是用于连接内窥镜用处理器20和键盘15等输入装置的接口。
光源33例如是白色LED、氙气灯等高亮度的白色光源。光源33经由省略图示的驱动器与总线连接。光源33的点亮、熄灭以及亮度的变更由控制部21控制。从光源33照射的照明光入射到光学连接器312上。光学连接器312与观测器用连接器48卡接,并且向内窥镜40提供照明光。
泵34产生内窥镜40的供气供水功能用压力。泵34经由省略图示的驱动器与总线连接。泵34的开、关以及压力的变更由控制部21控制。泵34经由供水箱35与设置在观测器用连接器48上的供气供水口36相连接。
以下说明与内窥镜用处理器20连接的内窥镜40的功能概要。在观测器用连接器48、通用软线49、操作部43和***部44的内部,***有纤维束、线缆束、供气管和供水管等。从光源33射出的照明光经由光学连接器312及纤维束,从设置在前端部443上的照明窗发射。利用设置在前端部443上的摄像元件拍摄由照明光照射的范围。从摄像元件经由线缆束及电连接器311向内窥镜用处理器20传送拍摄图像。
内窥镜用处理器20的控制部21通过执行主存储装置22中所存储的程序,从而发挥图像处理部211的功能。图像处理部211对从内窥镜40输出的图像(拍摄图像)进行伽马校正、白平衡校正、阴影校正等各种图像处理,并作为内窥镜图像输出。
图3是示出诊断支持***S中所包括的信息处理装置6的结构例的框图。信息处理装置6包括控制部62、通信部61、存储部63以及输入输出I/F64。信息处理装置6例如是服务器装置、个人计算机等。服务器装置不仅包括单个服务器装置,还包括由多台计算机构成的云服务器装置或虚拟服务器装置。信息处理装置6也可以设置为云服务器,位于可从内窥镜用处理器20访问的外部网络上。
控制部62包括一个或多个CPU(Central Processing Unit,中央处理器)、MPU(Micro-Processing Unit,微处理器)、GPU(Graphics Processing Unit,图形处理器)等具备计时功能的运算处理装置,通过读出并执行存储在存储部63中的程序P,可以进行涉及信息处理装置6的各种信息处理、控制处理等。或者,控制部62也可以由量子计算机用芯片构成,信息处理装置6可以是量子计算机。
存储部63包括SRAM(Static Random Access Memory,静态随机存取存储器)、DRAM(Dynamic Random Access Memory,动态随机存储器)、闪存等挥发性存储区域以及EEPROM或硬盘等非挥发性存储区域。在存储部63中预先存储有程序P以及处理时要参照的数据。关于存储在存储部63中的程序P,也可以存储从信息处理装置6能够读取的记录介质632读出的程序P。另外,也可以从与未图示的通信网相连接的未图示的外部计算机下载程序P,并存储到存储部63中。在存储部63中保存有构成后述多个学习模型(91、92)的实际文件(神经网络(NN)的实例文件)。这些实际文件也可以构成为程序P的一部分。另外,还可以在存储部63中存储后述内窥镜图像DB631(DataBase,数据库)。
通信部61是用于通过有线或无线方式与内窥镜装置10进行通信的通信模块或通信接口,例如wifi(注册商标)、Bluetooth(注册商标)等窄带无线通信模块或4G、LTE等宽带无线通信模块。通信部61可与CT装置、MRI装置(参照图5)、超声波诊断装置或用于保存从这些装置输出的数据的存储装置(未图示)通信。
输入输出I/F64符合例如USB或DSUB等通信标准,并且是用于与连接到输入输出I/F64的外部设备进行串行通信的通信接口。输入输出I/F64连接有例如显示器等显示部7、键盘等输入部8,控制部62将基于从输入部8输入的执行命令或事件而进行的信息处理结果输出到显示部7。
图4是例示内窥镜图像DB631的数据布局的说明图。内窥镜图像DB631存储在信息处理装置6的存储部63中,由安装于信息处理装置6中的RDBMS(Relational DataBaseManagement System,关系数据库管理***)等数据库管理软件构成。或者,内窥镜图像DB631也可以存储在与信息处理装置6可通信地连接的存储装置等能从信息处理装置6访问的预定存储区域中。或者,内窥镜图像DB631也可以存储在内窥镜装置10的主存储装置22中。也就是说,预定存储区域包括信息处理装置6的存储部63、内窥镜装置10的主存储装置22以及可从信息处理装置6或内窥镜装置10访问的存储装置。信息处理装置6可以获取内窥镜用处理器20输出的内窥镜图像、检查日期时间以及受试者的属性信息,并登录到内窥镜图像DB631中。或者,也可以将从内窥镜用处理器20直接输出的内窥镜图像、检查日期时间以及受试者的属性信息直接登录到内窥镜图像DB631中。
内窥镜图像DB631例如包括受试者主表以及图像表,利用受试者主表和图像表中共同包括的项目(元数据)即受试者ID,对两表建立关联。
受试者主表包括例如受试者ID、性别、出生日期和年龄作为管理项目(元数据)。在受试者ID的项目(字段)中,存储用于唯一确定接受内窥镜检查的受试者的ID信息。在性别及出生日期的项目(字段)中存储该受试者ID的性别及出生日期的生物属性,在年龄的项目(字段)中存储由出生日期计算出的当前时刻的年龄。这些性别、年龄作为受试者的生物信息,通过受试者主表进行管理。
图像表包括例如受试者ID、检查日期时间、内窥镜图像、帧号、S坐标(***距离)、三维医用图像、视点位置、视点方向和虚拟内窥镜图像作为管理项目(元数据)。
受试者ID的项目(字段)用于与由受试者主表所管理的受试者生物属性相关联,存储相关受试者各自的ID值。在检查日期时间的项目(字段)中,存储相关受试者ID的受试者接受内窥镜检查的日期时间。在内窥镜图像的项目(字段)中,将相关受试者ID的内窥镜图像作为对象数据进行存储。内窥镜图像也可以是1帧的例如jpeg格式静止图像或者是数帧的例如avi格式运动图像。在内窥镜图像的项目(字段)中,也可以存储表示作为文件而保存的该内窥镜图像的保存位置(文件路径)的信息。
在帧号的项目(字段)中,如果内窥镜图像是运动图像,则存储该运动图像的帧号。通过存储运动图像的帧号,即使内窥镜图像为运动图像,也可以和静止图像一样地进行处理,并且可以和后述三维医用图像或虚拟内窥镜图像的位置信息(体内坐标系中的坐标)相关联。
在S坐标(***距离)的项目(字段)中,作为S坐标的值,存储同一记录中存储的内窥镜图像拍摄时刻内窥镜40的***距离。***距离(S坐标)的导出等将在后面叙述。
在三维医用图像的项目(字段)中,将基于从CT装置(X射线CT、X射线锥形束CT)或MRI装置(MRI-CT)、超声波诊断装置等能够用三维图像对体内进行拍摄的单元输出的数据而生成的、例如DICOM(Digital Imaging and Communications in Medicine,医学数字成像与通信)格式的三维医用图像作为对象数据进行存储。或者,也可以存储表示作为文件而保存的该三维医用图像的保存位置(文件路径)的信息。
在视点位置的项目(字段)中,存储在拍摄内窥镜图像的时刻内窥镜40在体内的坐标,即三维医用图像坐标系中的坐标。视点位置的导出等将在后面叙述。
在视点方向的项目(字段)中,存储在拍摄内窥镜图像的时刻内窥镜40的方向,即三维医用图像坐标系(体内坐标系中的坐标)中的旋转角。视点方向的导出等将在后面叙述。
在虚拟内窥镜图像的项目(字段)中,将由三维医用图像生成的虚拟内窥镜图像作为对象数据进行存储。也可以存储表示作为文件而保存的该虚拟内窥镜图像的保存位置(文件路径)的信息。由三维医用图像生成虚拟内窥镜图像以执行与内窥镜图像的匹配处理,例如,将与内窥镜图像最为一致的虚拟内窥镜图像登录到与该内窥镜图像相同的记录中。虚拟内窥镜图像的生成等将在后面叙述。
图5是说明使用操作信息学习模型91输出操作支持信息的处理的说明图。信息处理装置6基于训练数据进行学习,所述训练数据将后述距离图像信息及三维医用图像中所包括的体腔信息作为问题数据,将包括内窥镜40的***方向、***量、***速度及表示***目的地的目标点坐标等的至少一个的操作支持信息作为回答数据,从而构建(生成)将距离图像信息及三维医用图像作为输入,将包括内窥镜40的***方向等的操作支持信息作为输出的神经网络(操作信息学习模型91)。
假设使用训练数据进行学习的操作信息学习模型91作为人工智能软件的一部分即程序模块而使用。如上所述,操作信息学习模型91在具备控制部62(CPU等)以及存储部63的信息处理装置6中使用,这样由具有运算处理能力的信息处理装置6来执行相关操作,从而构成神经网络***。也就是说,信息处理装置6的控制部62如下动作:依据存储于存储部63中的操作信息学习模型91的指令,进行运算以提取输入到输入层的距离图像信息及三维医用图像的特征量,并从输出层输出包括内窥镜40的***方向等的操作支持信息。
输入层具有多个神经元用于接受距离图像信息及三维医用图像中所包括的体腔信息,并且将输入的距离图像信息及三维医用图像中所包括的体腔信息传递给中间层。稍后将描述细节,距离图像信息是基于与所获取的内窥镜图像相对应的虚拟内窥镜图像而导出的信息,是该虚拟内窥镜图像中各像素之间的距离的相关信息。内窥镜图像及对应的虚拟内窥镜图像是将同一体内部位的区域作为摄像区域的图像,因此,该距离图像信息相当于内窥镜图像中各像素之间的距离的相关信息。各像素之间的距离是指在三维医用图像坐标系(体内坐标系)中的距离,例如是加上虚拟内窥镜图像中所包括的两个体内部位的纵深而获得的距离。另外,也可以对输入到操作信息学习模型91中的距离图像信息附加内窥镜40的视点位置及方向的相关信息。三维医用图像中所包括的体腔信息是在包括导出了距离图像信息的虚拟内窥镜图像的摄像区域的三维区域中,表示***内窥镜40的体内器官等的形状(器官的内壁形状)的曲面数据,该曲面数据也可以由例如多项近似式或点集构成。
中间层例如呈由一个或多个全连接层组成的单相或多层结构,全连接层中所包括的多个神经元分别基于输入的距离图像信息及三维医用图像中所包括的体腔信息的值,输出表示激活或去激活的信息。信息处理装置6例如使用误差反向传播法(Backpropagation)等来优化在中间层的运算处理中所使用的参数。
输出层具有输出包括内窥镜40的***方向等的操作支持信息的一个或多个神经元,基于从中间层输出的表示各个神经元的激活或去激活的信息,输出该操作支持信息。包括内窥镜40的***方向等的操作支持信息例如可以是以矢量形式表示该***方向上内窥镜40的前端部依次通过的、在三维医用图像坐标系(体内坐标系)中的多个坐标值以及旋转角的信息。另外,该操作支持信息也可以包括内窥镜40依次通过时相邻坐标值之间的移动量所对应的速度分量。
用作训练数据的距离图像信息及三维医用图像问题数据(问题数据)、以及与这些信息有相关性的包括内窥镜40的***方向等的操作支持信息将作为在各医疗机构开展的内窥镜40的检查结果数据而被大量保存,通过采用这些结果数据,能够大量生成训练数据用于学习操作信息学习模型91。
图6是说明使用一致度学习模型92输出与内窥镜图像的一致度的处理的说明图。信息处理装置6基于将内窥镜图像及虚拟内窥镜图像作为问题数据,将这两个图像的一致度的相关信息作为回答数据的训练数据进行学习,从而构建(生成)将内窥镜图像及虚拟内窥镜图像作为输入,将表示两图像一致度的值等信息作为输出的神经网络(一致度学习模型92)。和操作信息学习模型91一样,假设使用训练数据进行学习的一致度学习模型92作为人工智能软件的一部分即程序模块而使用。
输入层具有用于接受内窥镜图像及虚拟内窥镜图像的像素值输入的多个神经元,并且将输入的像素值传递给中间层。中间层具有用于提取内窥镜图像及虚拟内窥镜图像的图像特征量的多个神经元,并将提取的两图像各自的图像特征量传递给输出层。输出层具有一个或多个神经元,用于输出表示所输入的内窥镜图像及虚拟内窥镜图像的一致度的值等该一致度的相关信息,并且基于从中间层输出的两图像各自的图像特征量,输出一致度的相关信息。
当一致度学习模型92是例如CNN(Convolutional Neural Network,卷积神经网络)时,中间层具有使用于对从输入层输入的各像素的像素值进行卷积的卷积层与用于对在卷积层中卷积的像素值进行映射(压缩)的池化层交替连接的结构,并在压缩内窥镜图像及虚拟内窥镜图像的像素信息的同时,最终提取内窥镜图像及虚拟内窥镜图像的特征量。输出层例如包括全连接层及柔性最大值层,在全连接层中导出根据两图像各自的图像特征量的特征量矢量的内积得出的余弦相似度,在柔性最大值层中基于余弦相似度导出表示一致度的值(确定值),并作为一致度的相关信息输出。
在构建(生成)一致度学习模型92时,例如也可以使用在VGG16模型(caffemodel:VGG_ILSVRC_16_layers)中安装的DCNN等知识库(已学习的模型),根据基于内窥镜图像及虚拟内窥镜图像的训练数据进行迁移学习,构建该一致度学习模型92。用作训练数据的内窥镜图像以及对应于该内窥镜图像的虚拟内窥镜图像将作为在各医疗机构开展的内窥镜40检查及CT装置等的结果数据而被大量保存,通过采用这些结果数据,能够大量生成训练数据用于学习一致度学习模型92。
在本实施方式中,以操作信息学习模型91和一致度学习模型92例如为CNN等神经网络(NN)为例进行说明,但这些学习模型(91、92)并不限于NN,也可以是SVM(SupportVector Machine,支持向量机)、贝叶斯网络、回归树等用其他学习算法构建的学习模型(91、92)。
图7是例示信息处理装置的控制部中所包括的功能部的功能框图。内窥镜用处理器20(内窥镜装置10)的控制部21通过执行主存储装置22中所存储的程序,从而发挥图像处理部211的功能。信息处理装置6的控制部62通过执行存储部63中所存储的程序P,从而发挥获取部621、视点位置导出部622、虚拟内窥镜图像生成部623、一致度判定部624、距离图像信息导出部625及操作支持信息输出部626的功能。
内窥镜用处理器20的图像处理部211对从内窥镜输出的图像(拍摄图像)进行伽马校正、白平衡校正、阴影校正等各种图像处理,并作为内窥镜图像输出。图像处理部211将所生成的内窥镜图像及基于内窥镜图像的拍摄时刻的检查日期时间输出(发送)到信息处理装置6。图像处理部211还可以将从键盘15输入的受试者ID输出到信息处理装置6。为了测量内窥镜40的周边环境,图像处理部211还可以向信息处理装置6输出从配置在内窥镜40的***部44(柔性管)上的传感器输出的、关于内窥镜40的***距离(S坐标)的信息。图像处理部211也可以将从传感器获取的、关于内窥镜40的***距离的信息例如叠加于内窥镜图像上并显示于显示装置中。
用于获取内窥镜40***体内的距离即S坐标的传感器,例如包括温度传感器、光传感器、压力传感器、润湿传感器(电极)及湿度传感器。例如,当该传感器为光传感器时,光传感器配置在***部44(柔性管)的内部,即使***部44(柔性管)被***体内,仍然能够受光。因此,可以将光传感器接收到更多光的部分识别为体外,将接收到较少光的部分识别为体内。继而,内窥镜用处理器20的控制部21可以基于光传感器所获得的信号,确定位于体腔***部位即边界位置的光传感器,从而导出***体内的***部44(柔性管)的距离(长度)即S坐标。
如果是上部内窥镜,对与***部44(柔性管)相接的未图示的咬嘴等加装辊编码器,使该辊编码器旋转相当于***部44(柔性管)***体内的距离,借此可以获取内窥镜40***体内的距离即S坐标。咬嘴等的辊编码器随着***部44(柔性管)的进退而旋转,能够测量***体内的内窥镜40的前端部443和例如与口或鼻等管腔连通的开口部之间的长度,即***部44(柔性管)的***距离。辊编码器与内窥镜用处理器20电连接,将所测量的距离传递给内窥镜用处理器20。另外,也可以使用光学式、磁式编码器代替辊编码器。
另外,如果是下部内窥镜,通过在***部加装相当于咬嘴的物体,就能测量内窥镜***距离。在将用于测量内窥镜40的***距离的辅助装置安装到作为被检体入口的体腔***部位时,通过测量内窥镜40的通过距离,就能够获取内窥镜40***体内的距离即S坐标。辅助装置可以是例如加装于***部(柔性管)44的线性标尺等磁场标尺和加装于咬嘴的线性磁头来测量距离,或者可以是加装有辊的内窥镜40的咬嘴。另外,如果将内窥镜40***鼻或***等部位,也可以使用与咬嘴类似的、加装有辊的辅助装置。进而,也可以在内窥镜40的***部(柔性管)44内置以恒定间隔记录***距离的芯片。内窥镜用处理器20可以根据咬嘴等获得的、由该芯片记录的S坐标信息,获取内窥镜40***体内的距离即S坐标。
获取部621获取内窥镜用处理器20输出的受试者ID、检查日期时间、内窥镜图像及S坐标(***距离)。获取部621基于获取的受试者ID,获取该受试者的三维医用图像,所述三维医用图像从可通信地连接的CT装置、锥形束CT装置或MRI装置、超声波诊断装置等能够用三维图像对体内进行拍摄的单元输出。当从CT装置、锥形束CT装置或MRI装置、超声波诊断装置等能够用三维图像对体内进行拍摄的其他检查装置输出的三维医用图像已被保存在例如外部服务器(未图示)中时,信息处理装置6可以访问该外部服务器,并基于从内窥镜用处理器20输出的受试者ID,获取该受试者的三维医用图像。
三维医用图像是从例如CT装置、锥形束CT装置以及MRI装置、超声波诊断装置等能够用三维图像对体内进行拍摄的单元等输出的、由层析图数据构成的体数据所表示的图像,以及从Multi SliceCT装置及采用X射线平板的X射线锥形束CT装置输出的、由体数据所表示的图像。采用X射线CT装置或锥形束CT装置时,图像可以用例如X射线CT进行DualEnergy(双能量)拍摄,通过有效质量数(effective-Z)知晓三维医用图像各像素的组成(体组成)。采用MRI装置时,图像可以附加脂肪或乳酸等三维医用图像的各像素组成(体组成)的相关信息。
获取部621将获取的S坐标输出到视点位置导出部622。视点位置导出部622基于所获取的S坐标导出对应于该S坐标的三维医用图像的坐标(体内坐标系中的坐标),即在内窥镜40拍摄时内窥镜40的前端部443所处的视点位置。图8是示出内窥镜40***距离(S坐标的值)的说明图。如图所示,通过三维医用图像,由内窥镜40拍摄的消化器官等以三维形状展现。在该消化器官等的内壁内侧形成有空间,该空间成为***内窥镜40的***路径。内窥镜40的***距离即S坐标在该***路径的内侧(消化器官等的内壁的内侧),是***路径的路径长度大致等于该***距离的位置,因此,基于S坐标,可以导出位于消化器官等的内壁内侧的内窥镜40的前端部443的坐标。视点位置导出部622将导出的视点位置的相关信息输出到虚拟内窥镜图像生成部623。
获取部621将所获取的三维医用图像输出到虚拟内窥镜图像生成部623。虚拟内窥镜图像生成部623基于所获取的三维医用图像以及从视点位置导出部622获取的视点位置,生成虚拟内窥镜图像。虚拟内窥镜图像是基于对气管及支气管内或肠道等管状器官进行拍摄的X射线CT或MRI或X射线锥形束CT的三维医用图像而生成(重建),通过虚拟内窥镜展现三维医用图像的器官内(体腔内)情况的图像。例如,可以在大肠内充入空气的状态下进行CT拍摄,从大肠内侧对通过该拍摄而获得的三维医用图像进行容积再现,从而生成(重建)大肠的虚拟内窥镜图像。
虚拟内窥镜图像生成部623从所获取的三维医用图像中提取受试者体内器官的体素数据。器官包括例如大肠、小肠、肾脏、支气管或血管等,但并不限定于此,也可以是其他器官。另外,在本实施方式中,提取并获取大肠的体素数据。例如,作为对大肠区域进行提取的方法,具体而言,首先基于三维医用图像重建多个垂直于体轴的截面(轴位断层;axial)的轴位断层图像,对于相关各轴位断层图像,采用公知的方法,以基于X射线吸收系数的X射线CT值为阈值求得体表面与体内的边界,并以体表为基准进行分离体外与体内区域的处理。例如,对于重建的轴位断层图像,根据X射线CT值实施二值化处理,并通过轮廓提取处理提取轮廓,将提取出的轮廓内部作为体内(人体)区域进行提取。接着,对于体内区域的轴位断层图像,根据阈值进行二值化处理,提取各轴位断层图像中大肠区域的候选。具体而言,由于大肠管内有空气,因此,设定与空气CT值对应的阈值(例如,小于等于-600HU(Hounsfield Unit,霍恩斯菲尔德单位)),进行二值化处理,将各轴位断层图像的体内的空气区域作为大肠区域候选进行提取。虚拟内窥镜图像生成部623以基于视点位置和作为视线方向而设定的旋转角的视线矢量为中心,将呈放射线状延伸的多个光线方向上的体素数据投影到预定的投影面上的中心投影图像作为虚拟内窥镜图像进行重建。另外,作为中心投影的具体方法,例如可以使用公知的容积再现方法等。
虚拟内窥镜图像生成部623例如以相当于内窥镜40的前端部443的坐标的视点位置为起点,以例如1°的预定单位量逐次变更视点方向即三维医用图像坐标系中的旋转角(θx,θy,θz),依次生成多个候选的虚拟内窥镜图像。也就是说,虚拟内窥镜图像生成部623例如可以从通过三维医用图像确定的消化器官内部的视点位置,根据被设定为视点方向的多个旋转角投影该消化器官内壁的三维形状,生成多个虚拟内窥镜图像。虚拟内窥镜图像生成部623使所生成的多个虚拟内窥镜图像和生成该虚拟内窥镜图像时所采用的视点方向(旋转角)相关联,并输出到一致度判定部624。
获取部621将所获取的内窥镜图像输出到一致度判定部624。一致度判定部624基于所获取的内窥镜图像、从虚拟内窥镜图像生成部623获取的多个虚拟内窥镜图像以及在生成该虚拟内窥镜图像时所采用的视点方向(旋转角),确定与所获取的内窥镜图像最一致的虚拟内窥镜图像以及在生成该最一致的虚拟内窥镜图像时所采用的视点方向(旋转角)。一致度判定部624通过将所获取的内窥镜图像与多个虚拟内窥镜图像分别进行比较,从而导出内窥镜图像与虚拟内窥镜图像的一致度。
一致度判定部624包括一致度学习模型92,其基于输入的内窥镜图像及虚拟内窥镜图像,输出表示两图像一致度的值等信息。一致度判定部624也可以将所获取的内窥镜图像及虚拟内窥镜图像输入到一致度学习模型92中,在一致度学习模型92输出的表示一致度的值(概率值)中,将成为最高值的虚拟内窥镜图像作为对应于该内窥镜图像的虚拟内窥镜图像进行输出。
或者,一致度判定部624不限于包括一致度学习模型92的情况,例如也可以通过取内窥镜图像的阴影图像与虚拟内窥镜图像的阴影图像之间的相关性等指标来测量一致度。如果要定量地查看虚拟内窥镜图像与内窥镜图像的一致度,可以查看根据亮度信息求得的阴影图像信息的相关度,判断一致度的高低。或者,一致度判定部624也可以比较所构成的多个虚拟内窥镜图像与内窥镜图像之间的相似度。通过公知的图像处理进行两图像的相似度比较,也可以使用像素数据级的匹配或者由图像提取的特征级的匹配中的任一个。可以通过一致度判定部624,将确定为与内窥镜图像一致度最高的虚拟内窥镜图像以及用于生成该虚拟内窥镜图像的视点方向(旋转角)登录到内窥镜图像DB中。一致度判定部624将确定为与内窥镜图像一致度最高的虚拟内窥镜图像以及用于生成该虚拟内窥镜图像的视点位置及方向(旋转角)输出到距离图像信息导出部625。
在本实施方式中,一致度判定部624确定与所获取的内窥镜图像最为一致的虚拟内窥镜图像,但并不限定于此。一致度判定部624也可以将一致度在预定值以上的虚拟内窥镜图像确定为能与所获取的内窥镜图像实质上同等看待的虚拟内窥镜图像。通过确定一致度在预定值以上的虚拟内窥镜图像,不需要与作为候选而生成的所有虚拟内窥镜图像全部进行比较,能够实现信息处理装置6的计算负荷及处理时间的减少。或者,一致度判定部624也可以将与所获取的内窥镜图像的差异(差分指数)最小的虚拟内窥镜图像确定为能与所获取的内窥镜图像实质上同等看待的虚拟内窥镜图像。内窥镜图像与虚拟内窥镜图像的差异(差分指数)相当于该内窥镜图像与虚拟内窥镜图像的一致度的倒数,因此,通过使用导出这种差异(差分指数)的图像比较引擎等,能够有效地获取能与所获取的内窥镜图像实质上同等看待的虚拟内窥镜图像。
当一致度不在预定值以上时,一致度判定部624可以通过对从视点位置导出部622获取的视点位置进行微调而获得的视点位置,再次重新生成多个虚拟内窥镜图像,并导出重新生成的多个虚拟内窥镜图像与内窥镜图像的一致度,确定一致度最高的虚拟内窥镜图像。
距离图像信息导出部625基于从一致度判定部624获取的虚拟内窥镜图像,导出距离图像信息。距离图像信息是虚拟内窥镜图像中关于虚拟内窥镜图像中各像素之间的距离的信息。各像素之间的距离是指在三维医用图像坐标系(体内坐标系)中的距离,例如是加上虚拟内窥镜图像中所包括的两个体内部位的纵深而获得的距离。虚拟内窥镜图像是将三维医用图像投影变换成二维化的图像,虚拟内窥镜图像中的任意地点对应于三维医用图像中的地点,这些地点表示体内部位的相同位置。该虚拟内窥镜图像中的任意地点可以是图像中最小单位的像素编号(像素坐标),或者也可以是例如确定预定的体内部位的局部区域(由多个像素构成的区域)的中央部。这样一来,规定任意2个地点就可以导出三维医用图像坐标系中这2个地点之间的距离。也就是说,距离图像信息中的距离相当于与虚拟内窥镜图像的2点相对应的三维医用图像坐标系中的2点的距离。
通过虚拟内窥镜图像中的2点确定三维医用图像中的2点。基于所确定的三维医用图像中2点各自的坐标值,可以导出这2点的距离和矢量。将导出的三维医用图像中2点的距离和矢量作为与这2点相对应的虚拟内窥镜图像的2点的距离和向量赋予虚拟内窥镜图像,从而可以生成距离图像即虚拟内窥镜图像中附加有三维医用图像坐标系中的距离信息的虚拟内窥镜图像(距离图像)。距离图像信息导出部625可以将附加有关于各像素之间的距离的信息的虚拟内窥镜图像(距离图像)作为距离图像信息输出。另外,距离图像信息导出部625还可以附加在生成虚拟内窥镜图像时所采用的内窥镜40的视点位置及方向并输出。
内窥镜图像对应于基于拍摄该内窥镜图像的内窥镜40的位置(视点位置)和拍摄方向(视点方向),由三维医用图像重建(生成)的虚拟内窥镜图像。因此,对应于内窥镜图像的虚拟内窥镜图像的距离图像信息也可以应用于该内窥镜图像。即,内窥镜图像中2点之间的距离相当于与该内窥镜图像相对应的虚拟内窥镜图像的2点之间的距离(距离图像中的距离,三维医用图像坐标系的距离)。因此,通过将距离图像(虚拟内窥镜图像)中所包括的距离图像信息应用于内窥镜图像,可以确定该内窥镜图像中所包括的体内部位之间的距离、体内部位的大小等距离信息(内窥镜图像中的距离图像信息)。
操作支持信息输出部626获取从距离图像信息导出部625输出的距离图像信息以及内窥镜40的视点位置和方向(旋转角)。操作支持信息输出部626获取从获取部621输出的三维医用图像,并提取该三维医用图像中所包括的体腔信息。如上所述,三维医用图像中所包括的体腔信息是在包括导出了距离图像信息的虚拟内窥镜图像的摄像区域的三维区域中,例如表示***内窥镜40的体内器官等的形状(器官的内壁形状)的曲面数据。
操作支持信息输出部626包括操作信息学习模型91,其基于输入的距离图像信息、内窥镜40的视点位置和方向、以及由曲面数据等表示的三维医用图像中所包括的体腔信息,输出包括内窥镜40的***方向等的操作支持信息。操作支持信息输出部626将所获取的距离图像信息、内窥镜40的视点位置和方向、以及由曲面数据等表示的三维医用图像中所包括的体腔信息输入到操作信息学习模型91中,获取从操作信息学习模型91输出的、包括内窥镜40的***方向等的操作支持信息。
如上所述,从操作信息学习模型91输出的操作支持信息例如包括当前时刻即拍摄内窥镜图像的时刻,从内窥镜40的视点位置和方向到表示***目的地的目标地点为止内窥镜40的***方向、***量或***速度的相关信息。该操作支持信息可以是以矢量形式或矩阵形式表示从内窥镜40的视点位置到目标地点为止的范围内,内窥镜40的前端部443依次通过的、在三维医用图像坐标系(体内坐标系)中的多个坐标值以及旋转角的信息。通过使用内窥镜40依次通过的多个坐标值及旋转角,可以将多个坐标值作为路径点进行连接,从而可以确定***内窥镜40的路径。操作支持信息输出部626可在导出作为路径点的各个坐标值时,根据***部(柔性管)44的硬度进行校正,并导出该坐标值。
操作支持信息输出部626获取从获取部621输出的内窥镜图像,例如生成在该内窥镜图像中叠加有操作支持信息的图像数据,并输出到显示部7。显示部7基于从操作支持信息输出部626获取的图像数据,显示在内窥镜图像中叠加有操作支持信息的内窥镜图像。
将由获取部621获取的受试者ID、检查日期时间、内窥镜图像、S坐标、三维医用图像以及由一致度判定部624导出的虚拟内窥镜图像、内窥镜40的视点位置和方向的相关信息关联地保存于内窥镜图像DB中。即,信息处理装置的控制部作为DB登录部发挥作用,将获取部621以及一致度判定部624获取或导出的各种图像、信息或数据登录到内窥镜图像DB中进行保存。
图9是关于内窥镜图像和三维医用图像之间的关联的说明图。在本图中,以面向对象的方式表示了三维医用图像、虚拟内窥镜图像以及内窥镜图像中的关联性。
如上所述,内窥镜图像DB631中登录的三维医用图像、虚拟内窥镜图像以及内窥镜图像基于该内窥镜图像拍摄时刻的视点位置、视点方向而建立关联。视点位置相当于三维医用图像坐标系(体内坐标系)中的坐标(x,y,z)。视点方向相当于三维医用图像坐标系(体内坐标系)中x轴、y轴和z轴上的旋转角(θx,θy,θz)。
内窥镜图像的各个像素对应于虚拟内窥镜图像(与该内窥镜图像最一致的虚拟内窥镜图像)的各个像素。虚拟内窥镜图像是根据三维医用图像以视点位置为起点,通过采用由视点方向(旋转角)定义的视点矢量进行矢量变换,投影、生成的图像,并且通过虚拟内窥镜图像的像素来确定三维医用图像坐标系(体内坐标系)中的坐标。
如上所述,由于虚拟内窥镜图像的各个像素与内窥镜图像的各个像素相对应,因此,可以基于虚拟内窥镜图像的像素来确定内窥镜图像的像素,即内窥镜图像中所包括的体内部位的三维医用图像坐标系(体内坐标系)中的坐标。也就是说,可以以虚拟内窥镜图像作为中间介质,使内窥镜图像的像素(体内部位)与三维医用图像坐标系(体内坐标系)中的坐标相关联。
也可以对三维医用图像附加内窥镜图像的像素的颜色信息、narrow band(窄频带)像素信息,并将该三维医用图像登录到内窥镜图像DB631中。在将该差异、颜色信息等内窥镜图像的像素信息附加到三维医用图像时,最好用拍摄用光源446进行亮度校正。如上所述,在三维医用图像坐标系上导出内窥镜图像的像素和视点位置(拍摄用光源446的地点)的距离。因此,可以基于导出的该距离的平方的倒数,校正内窥镜图像的像素信息中所包括的亮度。当包括三维医用图像坐标系中位于同一坐标上的像素的内窥镜图像有多个时,可以优先距离最近的内窥镜图像,并根据该距离进行加权,以加权平均或者简单平均的方式将内窥镜图像附加到三维医用图像上。
在拍摄三维医用图像中,采用X射线CT装置或锥形束CT装置时,图像例如可以进行Dual Energy拍摄,通过有效质量数(effective-Z)知晓三维医用图像各像素的组成(体组成)。另外,采用MRI装置时,图像可以附加关于脂肪或乳酸等三维医用图像的各像素组成(体组成)的信息。如上所述,通过对三维医用图像的各像素组成附加有效质量数(effective-Z)、关于脂肪或乳酸等体组成的信息,从而可以向医生等提供如下信息:使这些附加的信息与内窥镜图像相关联的信息,所述内窥镜图像与由该三维医用图像的各像素所确定的坐标相关联。
图10是示出由信息处理装置6的控制部62执行的处理步骤的一例的流程图。例如,信息处理装置6基于从与本装置相连接的输入部8输入的内容,开始该流程图的处理。
信息处理装置6的控制部62获取从内窥镜用处理器20输出的检查日期时间、受试者ID、内窥镜图像以及***距离的相关信息(S101)。控制部62从内窥镜用处理器20获取的内窥镜图像可以是静止图像或运动图像。控制部62在获取内窥镜图像的同时,获取从光传感器等输出的内窥镜40的***距离的相关信息、检查日期时间(内窥镜图像的拍摄日期时间)以及受试者ID等受试者的属性信息。
信息处理装置6的控制部62获取从CT装置或MRI装置、超声波诊断装置等能够用三维图像对体内进行拍摄的检查装置输出的三维医用图像(S102)。可以将信息处理装置6可通信地连接到CT装置或MRI装置、超声波诊断装置等能够用三维图像对体内进行拍摄的检查装置,从而获取三维医用图像。或者,当从CT装置或MRI装置、超声波诊断装置等能够用三维图像对体内进行拍摄的检查装置输出的三维医用图像已被保存在例如外部服务器(未图示)中时,信息处理装置6可以访问该外部服务器,并根据从内窥镜用处理器20输出的受试者ID,获取该受试者的三维医用图像。或者,内窥镜用处理器20可通信地连接到CT装置或MRI装置、超声波诊断装置等能够用三维图像对体内进行拍摄的检查装置,信息处理装置6的控制部62可以经由内窥镜用处理器20,像CT装置或MRI装置、超声波诊断装置那样获取能够用三维图像对体内进行拍摄的三维医用图像。
信息处理装置6的控制部62基于***距离(S坐标)导出视点位置(S103)。控制部62经由内窥镜用处理器20,从例如配置于内窥镜40的***部44(柔性管)内部的光传感器等获取***距离(S坐标)的相关信息,并基于所获取的***距离(S坐标)及三维医用图像,导出位于***了内窥镜40的消化器官等的内壁内侧的内窥镜40的前端部443的坐标。该坐标是以预定地点为原点而设定的三维医用图像坐标系(体内坐标系)中的坐标。
信息处理装置6的控制部62基于视点位置生成多个候选的虚拟内窥镜图像(S104)。控制部62以相当于内窥镜40的前端部443的坐标的视点位置为起点,按照预定单位量逐次变更视点方向即三维医用图像坐标系中的旋转角(θx,θy,θz),依次生成多个候选的虚拟内窥镜图像。例如,当预定单位量是10°时,控制部62相对于各轴的旋转角可以具有36个分辨率,即可以生成36的3次方(46656)个候选的虚拟内窥镜图像。
信息处理装置6的控制部62确定所生成的多个虚拟内窥镜图像中与内窥镜图像一致度最高的虚拟内窥镜图像(S105)。控制部62例如使用一致度学习模型92,确定与内窥镜图像一致度最高的虚拟内窥镜图像。或者,也可以通过取内窥镜图像的阴影图像与虚拟内窥镜图像的阴影图像之间的相关性等指标来测量一致度。控制部62确定一致度最高的虚拟内窥镜图像及生成该虚拟内窥镜图像时的视点位置和方向(旋转角度)。
信息处理装置6的控制部62通过所获取的虚拟内窥镜图像等,导出距离图像信息(S106)。控制部62导出虚拟内窥镜图像中各像素之间的距离的相关信息即距离图像信息。
信息处理装置6的控制部62基于距离图像信息和三维医用图像中所包括的体腔信息,输出操作支持信息(S107)。控制部62对所获取的三维医用图像中所包括的体腔信息进行提取,作为在包括导出了距离图像信息的虚拟内窥镜图像的摄像区域的三维区域中,表示***内窥镜40的体内器官等的形状(器官的内壁形状)的曲面数据。控制部62将所提取的曲面数据、距离图像信息以及表示内窥镜40的位置和方向的信息输入到操作信息学习模型91中,并输出操作信息学习模型91所输出的操作支持信息。
在输出操作支持信息时,控制部62可以生成将该操作支持信息叠加于内窥镜图像、虚拟内窥镜图像或三维医用图像上而获得的图像数据,并且将该图像数据输出到例如显示部。显示部基于从信息处理装置6的控制部62输出的图像数据,显示叠加有操作支持信息的内窥镜图像、虚拟内窥镜图像或三维医用图像。
叠加在内窥镜图像、虚拟内窥镜图像或三维医用图像上的操作支持信息包括内窥镜40的***方向、***量、***速度、以及表示***目的地的目标点坐标等的相关信息,因此,可以向医生等内窥镜40的操作者提供有用的信息,并且可以对医生等提供诊断支持。
图11是示出集成图像显示画面71的一个形态的说明图。如上所述,信息处理装置6的控制部62生成包括叠加有内窥镜40的***方向等操作支持信息的内窥镜图像、虚拟内窥镜图像或三维医用图像的图像数据,并输出到显示部7。集成图像显示画面71是由该图像数据构成的显示画面的一例,显示部7基于该图像数据显示该集成图像显示画面71。
集成图像显示画面71例如包括:显示受试者ID等书目事项的区域,显示内窥镜图像的区域,显示三维医用图像的区域,显示二维医用图像的区域,显示虚拟内窥镜图像的区域,以及显示当前所显示的内窥镜图像的相关信息以及拍摄内窥镜图像的视点位置等的区域。
在显示受试者ID等书目事项的区域,显示为确定与内窥镜图像相对应的三维医用图像而采用的受试者ID、内窥镜40的检查日期时间、三维医用图像的生成日期等数据管理方面的书目事项。
在显示内窥镜图像的区域,实时显示当前时刻内窥镜40所拍摄的内窥镜图像。内窥镜图像中叠加显示了内窥镜40的***方向等操作支持信息。根据后述显示选项的设定,内窥镜图像可以为半透明显示,通过虚线等显示从与该内窥镜图像相对应的虚拟内窥镜图像中提取出的体内部位且位于内窥镜图像中所显示的体内壁面里侧的体内部位。如此在半透明显示中通过虚线等显示的体内部位可以是例如基于三维医用图像所确定的体内部位的形状信息而提取的病变候选部位。
在显示三维医用图像的区域,三维医用图像所表示的消化器官等体内部位作为三维对象而被显示,叠加显示内窥镜40的视点位置以及以该视点位置为起点的***方向等操作支持信息。通过拖动该三维对象的任意部位,可以旋转三维对象。三维医用图像中,基于由该三维医用图像而确定的体内部位的形状信息所提取的病变候选部位的位置例如可以用高亮状态显示。
在显示二维医用图像的区域,显示对三维医用图像中叠加有内窥镜40的***方向等操作支持信息的区域进行投影的二维医用图像。生成二维医用图像时所采用的投影矢量可以根据显示三维医用图像的区域中所显示的三维对象的旋转状态连动地确定。
在显示虚拟内窥镜图像的区域,显示对于显示内窥镜图像的区域中所显示的内窥镜图像而言,一致度最高的虚拟内窥镜图像。在虚拟内窥镜图像中,和内窥镜图像一样,也可以叠加显示内窥镜40的***方向等操作支持信息。
在显示拍摄内窥镜图像的视点位置等的区域,显示在显示内窥镜图像的区域中所显示的内窥镜图像拍摄时刻内窥镜40在体内的位置(视点位置)以及视点方向(旋转角)。如上所述,信息处理装置6的控制部62(获取部621)从内窥镜40用处理器连续地获取内窥镜图像和表示内窥镜40的***距离的S坐标,并基于所获取的S坐标,连续地导出该内窥镜40的前端部的位置(视点位置)。另外,信息处理装置6的控制部62(获取部621)在基于与内窥镜图像的一致度来确定对应(相当)于该内窥镜图像的虚拟内窥镜图像时,连续地导出该内窥镜40的前端部的方向(旋转角)。因此,在显示拍摄内窥镜图像的视点位置等的区域,相应于医生等对内窥镜40的操作,实时地显示该内窥镜40的视点位置及视点方向。
在显示当前所显示的内窥镜图像的信息的区域,例如显示当前所显示的内窥镜图像的图像中心处体内部位或像素的相关信息。如上所述,该体内部位(像素)的相关信息包括三维医用图像中基于X射线的物质辨别信息即有效质量数(effective-Z),或者脂肪或乳酸等三维医用图像的各像素组成(体组成)的相关信息。因此,可以在该区域中显示基于表示内窥镜图像的图像中心的体内坐标系的坐标,从三维医用图像中提取的有效质量数(effective-Z)、体组成的相关信息。另外,关于当前所显示的内窥镜图像中所包括的体内部位有无病变,也可以通过使用输入该内窥镜图像并输出关于有无病变的信息的学习模型,从而在该区域进行显示。这种基于输入的内窥镜图像来输出关于有无病变的信息的学习模型,可以使用例如CNN或RCNN(Regions with Convolutional Neural Network,具有卷积神经网络的区域)、Fast RCNN、Faster RCNN或SSD(Single Shot Multibox Detector,单发多盒探测器)、YOLO(You Only Look Once,只需一眼)等具有分割网络功能的任意物体检测算法。
如上所述,由于可以相应于医生等对内窥镜40的操作而连续地导出内窥镜40的视点位置,因此,也可以计算出该视点位置和例如当前所显示的内窥镜图像的图像中心之间的距离的相关信息,并在该区域显示计算出的距离(从视点位置到图像中心像素的距离)。
集成图像显示画面71包括接受关于显示形态的输入的输入区域,在该输入区域,例如配置有设定显示选项的显示选项字段711,以及接受多个显示模式的选择的显示模式选择字段712。
在显示选项字段711中,设置有用于设定是否对内窥镜图像、虚拟内窥镜图像或者两图像进行半透明显示的切换开关。通过勾选该切换开关,可以基于虚拟内窥镜图像或三维医用图像中所包括的体内部位的形状数据等,对内窥镜图像所显示的体内壁面进行半透明化处理,并用虚线等显示位于该体内壁面里侧的体内部位。如上所述,位于该体内壁面里侧的体内部位可以是例如基于三维医用图像所确定的体内部位的形状信息而提取的病变候选部位。
在显示模式选择字段712中,分别设置有用于选择要与内窥镜图像一同显示的虚拟内窥镜图像、二维医用图像及三维医用图像的切换开关。通过勾选这些与图像相对应的切换开关,显示选中的任意图像。根据显示模式选择字段712中各个切换开关的勾选,可以选择显示虚拟内窥镜图像、二维医用图像及三维医用图像中的任意一个或两个图像,也可以对这3个图像全部显示。可以根据所显示的图像的个数来调整该图像的显示尺寸。
根据本实施方式,基于内窥镜图像,例如获取利用X射线CT、X射线锥形束CT、MRI-CT或超声波诊断装置等能够用三维图像对受试者体内进行拍摄的检查装置拍摄体内的三维医用图像,由所获取的该三维医用图像重建虚拟内窥镜图像,并基于虚拟内窥镜图像以及内窥镜图像,导出内窥镜图像中的距离图像信息。因此,除了内窥镜图像之外,使用由具有三维空间坐标信息的三维医用图像构成的虚拟内窥镜图像,从而可以高精度地导出内窥镜图像中的距离图像信息。基于该导出的距离图像信息和三维医用图像或虚拟内窥镜图像,可以有效地输出关于内窥镜操作的操作支持信息。另外,X射线CT、X射线锥形束CT、MRI-CT或超声波诊断装置是能够以三维图像拍摄体内的检查装置的一例,但并不限定于此。并不限定于从这些检查装置中的任一检查装置获取三维医用图像,也可以从多个检查装置获取。
根据本实施方式,由于操作支持信息中包括内窥镜40的***方向或***速度的相关信息,因此,通过输出该操作支持信息,能够有效地对医生等内窥镜40的操作者提供关于内窥镜40操作的诊断支持。
根据本实施方式,操作支持信息例如在集成图像显示画面71中,叠加显示于当前时刻所拍摄的内窥镜图像以及对应于该内窥镜图像的三维医用图像、二维医用图像或虚拟内窥镜图像上。因此,能够提高医生等内窥镜40的操作者对该操作支持信息的可视性,有效地对医生等提供诊断支持。
(实施方式2)
与实施方式1的不同之处在于,实施方式2的信息处理装置6通过从内窥镜用处理器20获取的弯曲历史来校正视点位置。图12是例示实施方式2(弯曲历史)所涉及的信息处理装置的控制部中所包括的功能部的功能框图。
内窥镜用处理器20的控制部21获取***体内的内窥镜40的弯曲历史信息,根据所获取的弯曲历史信息,判断内窥镜40的***状况。例如,内窥镜用处理器20的控制部21可以利用连接到内窥镜用处理器20的内窥镜***形状检测装置(未图示)来检测弯曲历史信息。该内窥镜***形状检测装置可以是如下的装置:例如,如日本特开2019-37643号公报所公开,在内窥镜40的***部44的内部,沿该***部44的长度方向以预定间隔配置多个磁线圈的装置。屈曲历史信息表示弯曲角度、弯曲方向等弯曲相关的物理参数或信息。
和实施方式1一样,信息处理装置6的获取部621从内窥镜用处理器20获取内窥镜图像等,进而获取弯曲历史信息。获取部621将所获取的弯曲历史信息输出到视点位置导出部622。
视点位置导出部622根据所获取的弯曲历史信息对***距离(S坐标)进行校正,和实施方式1一样,基于校正后的***距离(S坐标)导出视点位置。视点位置导出部622根据弯曲角度和弯曲方向,通过运算处理检测***部44的形状(例如,向右弯曲30度等)。控制部21基于检测到的***部44的形状,重新计算(校正)***距离即S坐标。之后,虚拟内窥镜图像生成部623等各功能部进行与实施方式1相同的处理,操作支持信息输出部626与实施方式1一样生成操作支持信息并输出。
信息处理装置6的视点位置导出部622通过从内窥镜用处理器20获取的弯曲历史来校正视点位置,但并不限定于此。内窥镜用处理器20的控制部21可以基于所获取的弯曲历史信息来校正***距离,并将校正后的***距离输出到信息处理装置6。信息处理装置6的获取部621可以获取由内窥镜用处理器20的控制部21基于弯曲历史信息而校正的视点位置,之后进行与实施方式1相同的处理。
基于弯曲历史的相关信息、***距离的相关信息以及通过三维医用图像确定的内窥镜40的***路径的长度,导出用于使内窥镜图像与三维医用图像相关联的位置信息。利用弯曲历史的相关信息对***距离的相关信息进行校正,从而可以提高***距离(S坐标)的精度。因此,可以精确地确定在拍摄内窥镜图像时三维医用图像坐标系中的内窥镜40的视点位置(坐标)和视点方向(旋转角),有效地生成合适的虚拟内窥镜图像,并能进一步提高内窥镜图像与三维医用图像之间建立关联的精度。
图13是示出由信息处理装置的控制部执行的处理步骤的一例的流程图。例如,信息处理装置6基于从与本装置相连接的输入部8输入的内容,开始该流程图的处理。
信息处理装置6的控制部62获取从内窥镜用处理器20输出的检查日期时间、受试者ID、内窥镜图像、***距离以及弯曲历史的相关信息(S201)。与实施方式1一样,信息处理装置6的控制部62从内窥镜用处理器20获取内窥镜图像等,进而经由内窥镜用处理器20获取例如由内窥镜***形状观测装置检测出的弯曲历史的相关信息。或者,信息处理装置6的控制部62也可以直接从内窥镜***形状观测装置获取弯曲历史的相关信息。
信息处理装置6的控制部62获取从CT装置或MRI装置、超声波诊断装置等能够用三维图像对体内进行拍摄的检查装置输出的三维医用图像(S202)。与实施方式1的处理S102一样,信息处理装置6的控制部62进行S202的处理。
信息处理装置6的控制部62基于从内窥镜用处理器20输出的弯曲历史校正***距离(S坐标),并导出视点位置(S203)。控制部62根据弯曲历史中所包括的弯曲角度及弯曲方向,通过运算处理导出***部44形状(例如,向右弯曲30度等),并基于导出的***部44形状,重新计算(校正)***距离即S坐标。控制部62基于校正后的***距离(S坐标),和实施方式1一样导出视点位置。
信息处理装置6的控制部62基于视点位置生成多个候选的虚拟内窥镜图像(S204)。信息处理装置6的控制部62确定所生成的多个虚拟内窥镜图像中与内窥镜图像一致度最高的虚拟内窥镜图像(S205)。信息处理装置6的控制部62通过所获取的虚拟内窥镜图像等,导出距离图像信息(S206)。信息处理装置6的控制部62基于距离图像信息和三维医用图像中所包括的体腔信息,输出操作支持信息(S207)。与实施方式1的处理S104、S105、S106及S107一样,信息处理装置6的控制部62进行204、S205、S206及S207的处理。
根据本实施方式,基于内窥镜40形状的相关信息、弯曲历史的相关信息、***距离的相关信息以及三维医用图像,导出三维医用图像坐标系中内窥镜40的坐标信息以及方向的相关信息(视点位置)。因此,可以相应于内窥镜40的形状确定在拍摄内窥镜图像时三维医用图像坐标系中内窥镜40的位置及旋转角(x轴、y轴及z轴的旋转角),并基于该内窥镜40的位置及旋转角,高精度且有效地导出内窥镜图像中的距离图像信息。
(实施方式3)
图14是示出实施方式3(自动操作机构434)所涉及的诊断支持***S概要的示意图。图15是例示信息处理装置6的控制部62中所包括的功能部的功能框图。实施方式3的诊断支持***S与实施方式1的不同之处在于,该诊断支持***S中所包括的内窥镜40还具备自动操作机构434。
诊断支持***S中所包括的内窥镜40具备自动操作机构434,其基于从信息处理装置6的控制部62(操作支持信息输出部626)输出的操作支持信息,自动操作控制按钮431和弯曲旋钮433。
自动操作机构434与信息处理装置6可通信地连接,获取(接收)从信息处理装置6输出(发送)的操作支持信息。自动操作机构434例如包括:根据所获取的操作支持信息生成控制按钮431或弯曲旋钮433的接通/断开信号或脉冲信号的微机(未图示);以及基于从微机输出的这些信号,操作或驱动控制按钮431或弯曲旋钮433的电动机及凸轮机构(未图示)。如此基于从信息处理装置6输出的操作支持信息,自动操作机构434、控制按钮431及弯曲旋钮433等互相配合,根据该操作支持信息进行将内窥镜40自动***受试者体内等自动操作。
自动操作机构434从信息处理装置6的控制部62(操作支持信息输出部626)获取的操作支持信息并不限定于***部44的***及弯曲等操作支持信息。例如,可以在内窥镜40的***部44设置空气注入部(未图示)或手部(未图示),操作支持信息中包括通过空气注入部注入空气或者通过手部摘除(采样)病变部位等操作的相关信息。也就是说,操作支持信息输出部626基于所获取的三维医用图像所确定的体内部位的形状信息以及距离图像信息,生成空气注入部或手部操作的相关信息,并将相关信息包括在操作支持信息中,输出到自动操作机构434。自动操作机构434可以基于所获取的该操作支持信息,自动操作空气注入部或手部。另外,包括在操作支持信息中的空气注入部或手部操作的相关信息也可以在集成图像显示画面71上叠加显示于内窥镜图像等上。
根据本实施方式,基于内窥镜图像中的距离图像信息和三维医用图像或虚拟内窥镜图像,可以有效地输出关于内窥镜40操作的操作支持信息,自动操作机构434可以根据从内窥镜用处理器20输出的操作支持信息来进行内窥镜40的自动操作。因此,可以提供诊断支持***S,对医生等操作内窥镜40的操作者有效地支持相关操作。
应该理解的是,本次公开的实施方式在所有方面均为例示性的,而非限制性的。可以相互组合各个实施例中所记载的技术特征,并且旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明范围内。
附图标记说明
S诊断支持***
10内窥镜装置
15键盘
16收容架
20内窥镜用处理器
21控制部
211图像处理部
22主存储装置
23辅助存储装置
24通信部
25触摸面板
26显示装置I/F
27输入装置I/F
28读取部
31内窥镜用连接器
311电连接器
312光学连接器
33光源
34泵
35供水箱
36供气供水口
40内窥镜
43操作部
431控制按钮
433弯曲旋钮
434自动操作机构
44***部(柔性管)
441柔性部
442弯曲部
443前端部
444拍摄部
446拍摄用光源
45止弯部
48观测器用连接器
49通用软线
50显示装置
6信息处理装置
61通信部
62控制部
621获取部
622视点位置导出部
623虚拟内窥镜图像生成部
624一致度判定部
625距离图像信息导出部
626操作支持信息输出部
63存储部
631内窥镜图像DB
632记录介质
P程序
64输入输出I/F
7显示部
71集成图像显示画面
711显示选项字段
712显示模式选择字段
8输入部
91操作信息学习模型
92一致度学习模型。
Claims (11)
1.一种程序,其使计算机执行以下处理:
从内窥镜获取受试者的内窥镜图像;
获取利用X射线CT、X射线锥形束CT、MRI-CT、超声波诊断装置等能够用三维图像对所述受试者体内进行拍摄的单元拍摄体内的三维医用图像;
基于获取的所述内窥镜图像,生成由所述三维医用图像重建的虚拟内窥镜图像;
基于所述虚拟内窥镜图像及所述内窥镜图像,导出所述内窥镜图像中的距离图像信息;以及
基于所述距离图像信息及所述三维医用图像,输出关于所述内窥镜操作的操作支持信息。
2.根据权利要求1所述的程序,其中,
基于所述距离图像信息及所述三维医用图像,输出包括所述内窥镜***方向或***速度、***距离的相关信息的所述操作支持信息。
3.根据权利要求1或2所述的程序,其中,
基于所述虚拟内窥镜图像以及所述内窥镜图像,导出包括所述内窥镜图像中所包括的体内部位大小或体内部位间距离的相关信息的所述距离图像信息。
4.根据权利要求1至3中任一项所述的程序,其中,
获取***所述受试者体内的所述内窥镜的***距离的相关信息,
基于所述***距离的相关信息以及所述三维医用图像,导出所述三维医用图像坐标系中所述内窥镜的坐标信息,
基于所述内窥镜的坐标信息、所述距离图像信息以及所述三维医用图像,输出关于所述内窥镜操作的所述操作支持信息。
5.根据权利要求4所述的程序,其中,
获取***所述受试者体内的所述内窥镜的弯曲历史的相关信息,
基于所述弯曲历史的相关信息、所述***距离的相关信息以及所述三维医用图像,导出所述三维医用图像坐标系中所述内窥镜的坐标信息以及方向的相关信息,
基于所述内窥镜的坐标信息、所述距离图像信息以及所述三维医用图像,输出关于所述内窥镜操作的所述操作支持信息。
6.根据权利要求5所述的程序,其中,
获取所述内窥镜形状的相关信息,
基于所述内窥镜形状的相关信息、所述弯曲历史的相关信息、所述***距离的相关信息以及所述三维医用图像,导出所述三维医用图像坐标系中所述内窥镜的坐标信息以及方向的相关信息,
基于所述内窥镜的坐标信息以及方向的相关信息、所述虚拟内窥镜图像以及所述内窥镜图像,输出关于所述内窥镜操作的所述操作支持信息。
7.根据权利要求1至6中任一项所述的程序,其中,
所述虚拟内窥镜图像的生成包括以下处理:
生成投影所述三维医用图像而获得的二维医用图像,以及
在所生成的所述二维医用图像中,将与所述内窥镜图像的差分在预定值以下的二维医用图像确定为所述虚拟内窥镜图像。
8.根据权利要求1至6中任一项所述的程序,其中,
所述虚拟内窥镜图像的生成包括以下处理:
生成投影所述三维医用图像而获得的二维医用图像,
当输入所述二维医用图像及所述内窥镜图像时,向已学习输出所述二维医用图像及所述内窥镜图像的一致度的学习模型输入所述二维医用图像及所述内窥镜图像,
从所述学习模型获取所述二维医用图像及所述内窥镜图像的一致度,以及
将所述二维医用图像及所述内窥镜图像的一致度在预定值以上的二维医用图像确定为所述虚拟内窥镜图像。
9.一种信息处理方法,其使计算机执行以下处理:
从内窥镜获取受试者的内窥镜图像;
获取利用X射线CT、X射线锥形束CT、MRI-CT、超声波诊断装置等能够用三维图像对所述受试者体内进行拍摄的单元拍摄体内的三维医用图像;
基于获取的所述内窥镜图像,生成由所述三维医用图像重建的虚拟内窥镜图像;
基于所述虚拟内窥镜图像及所述内窥镜图像,导出所述内窥镜图像中的距离图像信息;以及
基于所述距离图像信息及所述三维医用图像,输出关于所述内窥镜操作的操作支持信息。
10.一种信息处理装置,其具备:
内窥镜图像获取部,其从内窥镜获取受试者的内窥镜图像;
三维医用图像获取部,其获取利用X射线CT、X射线锥形束CT、MRI-CT、超声波诊断装置等能够用三维图像对所述受试者体内进行拍摄的单元拍摄体内的三维医用图像;
生成部,其基于获取的所述内窥镜图像,生成由所述三维医用图像重建的虚拟内窥镜图像;
导出部,其基于所述虚拟内窥镜图像及所述内窥镜图像,导出所述内窥镜图像中的距离图像信息;以及
输出部,其基于所述距离图像信息及所述三维医用图像,输出关于所述内窥镜操作的操作支持信息。
11.一种诊断支持***,其具备:
内窥镜;
自动操作机构,其进行所述内窥镜的自动操作;以及
内窥镜处理器,其从所述内窥镜获取受试者的内窥镜图像;
所述内窥镜处理器包括:
三维医用图像获取部,其获取利用X射线CT、X射线锥形束CT、MRI-CT、超声波诊断装置等能够用三维图像对所述受试者体内进行拍摄的单元拍摄体内的三维医用图像;
生成部,其基于获取的所述内窥镜图像,生成由所述三维医用图像重建的虚拟内窥镜图像;
导出部,其基于所述虚拟内窥镜图像及所述内窥镜图像,导出所述内窥镜图像中的距离图像信息;以及
输出部,其基于所述距离图像信息及所述三维医用图像,将关于所述内窥镜操作的操作支持信息输出到所述自动操作机构;
所述自动操作机构根据从所述输出部输出的所述操作支持信息,进行所述内窥镜的自动操作。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020-056712 | 2020-03-26 | ||
JP2020056712A JP7254742B2 (ja) | 2020-03-26 | 2020-03-26 | プログラム、情報処理方法、情報処理装置及び診断支援システム |
PCT/JP2021/002954 WO2021192593A1 (ja) | 2020-03-26 | 2021-01-28 | プログラム、情報処理方法、情報処理装置及び診断支援システム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114554934A true CN114554934A (zh) | 2022-05-27 |
Family
ID=77891261
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180005706.5A Pending CN114554934A (zh) | 2020-03-26 | 2021-01-28 | 程序、信息处理方法、信息处理装置以及诊断支持*** |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220351407A1 (zh) |
JP (1) | JP7254742B2 (zh) |
CN (1) | CN114554934A (zh) |
DE (1) | DE112021001951T5 (zh) |
WO (1) | WO2021192593A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023060702A (ja) * | 2021-10-18 | 2023-04-28 | Hoya株式会社 | プログラム、情報処理方法、情報処理装置及び診断支援システム |
JP2023113300A (ja) * | 2022-02-03 | 2023-08-16 | キヤノン株式会社 | 連続体ロボット制御システム及び連続体ロボット制御方法 |
JPWO2023223476A1 (zh) * | 2022-05-18 | 2023-11-23 | ||
WO2024095866A1 (ja) * | 2022-10-31 | 2024-05-10 | 富士フイルム株式会社 | 処理装置、内視鏡装置、及び処理方法 |
CN117796745B (zh) * | 2024-02-29 | 2024-05-03 | 四川大学 | 一种估计消化内镜镜头进退距离的方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002238887A (ja) | 2001-02-19 | 2002-08-27 | National Cancer Center-Japan | 仮想内視鏡 |
JP5160699B2 (ja) * | 2011-01-24 | 2013-03-13 | オリンパスメディカルシステムズ株式会社 | 医療機器 |
EP4374768A2 (en) * | 2016-06-30 | 2024-05-29 | Intuitive Surgical Operations, Inc. | Graphical user interface for displaying guidance information in a plurality of modes during an image-guided procedure |
JP2019037643A (ja) | 2017-08-28 | 2019-03-14 | Hoya株式会社 | 内視鏡挿入形状検出装置及び内視鏡システム |
JP7175153B2 (ja) | 2018-10-03 | 2022-11-18 | 株式会社日立ハイテク | 分析装置のシミュレーション方法及び装置 |
-
2020
- 2020-03-26 JP JP2020056712A patent/JP7254742B2/ja active Active
-
2021
- 2021-01-28 CN CN202180005706.5A patent/CN114554934A/zh active Pending
- 2021-01-28 WO PCT/JP2021/002954 patent/WO2021192593A1/ja active Application Filing
- 2021-01-28 US US17/766,056 patent/US20220351407A1/en active Pending
- 2021-01-28 DE DE112021001951.1T patent/DE112021001951T5/de active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2021192593A1 (ja) | 2021-09-30 |
JP7254742B2 (ja) | 2023-04-10 |
US20220351407A1 (en) | 2022-11-03 |
DE112021001951T5 (de) | 2023-02-02 |
JP2021153808A (ja) | 2021-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7313512B2 (ja) | 内視鏡用プロセッサ、プログラム、情報処理方法及び情報処理装置 | |
JP7254742B2 (ja) | プログラム、情報処理方法、情報処理装置及び診断支援システム | |
JP7377769B2 (ja) | プログラム、情報処理方法及び情報処理装置 | |
CN101143099A (zh) | 医用图像诊断装置、x射线ct装置和图像处理装置 | |
US10970875B2 (en) | Examination support device, examination support method, and examination support program | |
JP6206869B2 (ja) | 内視鏡観察支援装置 | |
US20230353879A1 (en) | Program, information processing method, and endoscope system | |
CN110301883A (zh) | 用于导航管状网络的基于图像的向导 | |
JP6704095B1 (ja) | プログラム、情報処理方法及び情報処理装置 | |
US20220084194A1 (en) | Computer program, processor for endoscope, and information processing method | |
US11734849B2 (en) | Estimating patient biographic data parameters | |
US11003946B2 (en) | Examination support device, examination support method, and examination support program | |
Luo et al. | Externally navigated bronchoscopy using 2-D motion sensors: Dynamic phantom validation | |
WO2022239518A1 (ja) | プログラム、情報処理方法及び内視鏡システム | |
WO2023067885A1 (ja) | プログラム、情報処理方法、情報処理装置及び診断支援システム | |
WO2023275974A1 (ja) | 画像処理装置、画像処理方法及び記憶媒体 | |
Regef et al. | Laryngeal surface reconstructions from monocular endoscopic videos: a structure from motion pipeline for periodic deformations | |
Chiurazzi et al. | Small bowel to closest human body surface distance calculation through a custom-made software using CT-based datasets | |
KR20230144751A (ko) | 해부학적 구조물을 이용한 내시경 영상과 ct 영상 정합 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |