JP2021531482A - 自動化された外科手術ロボットのためのビジョンシステム内の深度のマルチモード感知のためのシステムおよび方法 - Google Patents

自動化された外科手術ロボットのためのビジョンシステム内の深度のマルチモード感知のためのシステムおよび方法 Download PDF

Info

Publication number
JP2021531482A
JP2021531482A JP2021526407A JP2021526407A JP2021531482A JP 2021531482 A JP2021531482 A JP 2021531482A JP 2021526407 A JP2021526407 A JP 2021526407A JP 2021526407 A JP2021526407 A JP 2021526407A JP 2021531482 A JP2021531482 A JP 2021531482A
Authority
JP
Japan
Prior art keywords
depth
weight
image
markers
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021526407A
Other languages
English (en)
Other versions
JP7297891B2 (ja
JPWO2020018931A5 (ja
Inventor
トーマス ジェイ. カレフ,
ティナ ピー. チェン,
エマニュエル デマイオ,
トニー チェン,
ヴァシリー エフゲニエヴィチ ブハリン,
マイケル ジー. ルールマン,
Original Assignee
アクティブ サージカル, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アクティブ サージカル, インコーポレイテッド filed Critical アクティブ サージカル, インコーポレイテッド
Publication of JP2021531482A publication Critical patent/JP2021531482A/ja
Publication of JPWO2020018931A5 publication Critical patent/JPWO2020018931A5/ja
Application granted granted Critical
Publication of JP7297891B2 publication Critical patent/JP7297891B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/232Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/062Measuring instruments not otherwise provided for penetration depth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3933Liquid markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Robotics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

物体の表面の3次元位置情報のマルチモード感知のためのシステムおよび方法が、開示される。特に、複数の可視化モダリティがそれぞれ、物体の表面の明確に異なる位置情報を収集するために使用される。算出された位置情報はそれぞれ、加重係数を使用して組み合わせられ、最終加重3次元位置を算出する。種々の実施形態では、第1の深度は、基点マーカを使用して記録されてもよく、第2の深度は、構造化された光パターンを使用して記録されてもよく、第3の深度は、明視野カメラを使用して記録されてもよい。加重係数が、記録された深度のそれぞれに適用され得、最終加重深度が、算出され得る。

Description

(関連出願の相互参照)
本願は、参照することによってその全体として本明細書に組み込まれる、2018年7月19日に出願された、米国仮出願第62/700,700号の利益を主張する。
本開示の実施形態は、概して、物体の表面の3次元位置情報のマルチモード感知に関する。
本開示の実施形態によると、物体上の3次元座標を判定するためのシステム、方法、およびコンピュータプログラム製品が、提供される。本方法では、画像が、記録される。画像は、物体と、物体上に配置される、第1の複数のマーカと、物体上に配置される、第2の複数のマーカと、物体上に配置される、第3の複数のマーカとを含む。第1の深度は、画像および第1の複数のマーカを使用して算出される。第2の深度は、画像および第2の複数のマーカを使用して算出される。第3の深度は、画像および第3の複数のマーカを使用して算出される。第1の加重は、第1の深度に割り当てられ、第2の加重は、第2の深度に割り当てられ、第3の加重は、第3の深度に割り当てられる。加重平均深度は、第1の深度、第2の深度、第3の深度、第1の加重、第2の加重、および第3の加重に基づいて算出される。
種々の実施形態では、物体上の3次元座標を判定するためのシステムが、提供される。本システムは、結像デバイスと、それを用いて具現化されるプログラム命令を有する、コンピュータ可読記憶媒体を含む、コンピューティングノードとを含む。プログラム命令は、コンピューティングノードのプロセッサによって、プロセッサに、画像が結像デバイスによって記録される、方法を実施させるように実行可能である。画像は、物体と、物体上に配置される、第1の複数のマーカと、物体上に配置される、第2の複数のマーカと、物体上に配置される、第3の複数のマーカとを含む。第1の深度は、画像および第1の複数のマーカを使用して算出される。第2の深度は、画像および第2の複数のマーカを使用して算出される。第3の深度は、画像および第3の複数のマーカを使用して算出される。第1の加重は、第1の深度に割り当てられ、第2の加重は、第2の深度に割り当てられ、第3の加重は、第3の深度に割り当てられる。加重平均深度は、第1の深度、第2の深度、第3の深度、第1の加重、第2の加重、および第3の加重に基づいて算出される。
種々の実施形態では、物体上の3次元座標を判定するためのコンピュータプログラム製品が、提供される。コンピュータプログラム製品は、それを用いて具現化されるプログラム命令を有する、コンピュータ可読記憶媒体を含む。プログラム命令は、プロセッサによって、プロセッサに、画像が記録される、方法を実施させるように実行可能である。画像は、物体と、物体上に配置される、第1の複数のマーカと、物体上に配置される、第2の複数のマーカと、物体上に配置される、第3の複数のマーカとを含む。第1の深度は、画像および第1の複数のマーカを使用して算出される。第2の深度は、画像および第2の複数のマーカを使用して算出される。第3の深度は、画像および第3の複数のマーカを使用して算出される。第1の加重は、第1の深度に割り当てられ、第2の加重は、第2の深度に割り当てられ、第3の加重は、第3の深度に割り当てられる。加重平均深度は、第1の深度、第2の深度、第3の深度、第1の加重、第2の加重、および第3の加重に基づいて算出される。
種々の実施形態では、物体上の3次元座標を判定するためのシステム、方法、およびコンピュータプログラム製品が、提供される。本方法では、画像が、記録される。画像は、物体と、物体上に配置される、第1の複数のマーカと、物体上に配置される、第2の複数のマーカとを含む。第1の深度は、画像および第1の複数のマーカを使用して算出される。第2の深度は、画像および第2の複数のマーカを使用して算出される。第1の加重は、第1の深度に割り当てられ、第2の加重は、第2の深度に割り当てられる。加重平均深度は、第1の深度、第2の深度、第1の加重、および第2の加重に基づいて算出される。
種々の実施形態では、近位端および遠位端を有する、内視鏡と、内視鏡の遠位端に光学的に結合される、結像デバイスと、それを用いて具現化されるプログラム命令を有する、コンピュータ可読記憶媒体を備える、コンピューティングノードとを含む、統合された外科手術デバイスが、提供される。プログラム命令は、コンピューティングノードのプロセッサによって、プロセッサに、画像が記録される、方法を実施させるように実行可能である。画像は、物体と、物体上に配置される、第1の複数のマーカと、物体上に配置される、第2の複数のマーカと、物体上に配置される、第3の複数のマーカとを含む。第1の深度は、画像および第1の複数のマーカを使用して算出される。第2の深度は、画像および第2の複数のマーカを使用して算出される。第3の深度は、画像および第3の複数のマーカを使用して算出される。第1の加重は、第1の深度に割り当てられ、第2の加重は、第2の深度に割り当てられ、第3の加重は、第3の深度に割り当てられる。加重平均深度は、第1の深度、第2の深度、第3の深度、第1の加重、第2の加重、および第3の加重に基づいて算出される。
図1は、本開示の実施形態による、その中で画像がベースライン画像として使用され得る、基点マーカを有する、表面の例示的画像を図示する。
図2は、本開示の実施形態による、ベースライン画像にオーバーレイする構造化された光マーカの行列を有する、表面の例示的画像を図示する。
図3Aは、本開示の実施形態による、シミュレートされた生物学的組織の例示的画像を図示する。
図3Bは、本開示の実施形態による、シミュレートされた生物学的組織の深度マップの例示的画像を図示する。
図4Aは、本開示の実施形態による、造影剤が表面に適用されている、シミュレートされた生物学的組織の例示的画像を図示する。
図4Bは、本開示の実施形態による、造影剤が表面に適用されている、シミュレートされた生物学的組織の深度マップの例示的画像を図示する。
図5は、本開示の実施形態による、組織を結像する、3D表面結像システムを図示する。
図6は、本開示の実施形態による、3D表面結像システムを図示する、略図を示す。
図7は、本開示の実施形態による、物体上の3次元座標を判定するための方法の例示的フローチャートを示す。
図8は、本開示の実施形態による、分析されたセンサおよびその仕様の表を示す。
図9A−9Cは、本開示の実施形態による、センサバイアスの結果のグラフを図示する。
図10A−10Cは、本開示の実施形態による、センサ精度の結果のグラフを図示する。
図11は、本開示の実施形態による、種々のセンサの側方雑音の表を示す。
図12A−12Dは、本開示の実施形態による、異なる材料および照明条件の精度比率のグラフを図示する(より低い方がより良好である)。 図12A−12Dは、本開示の実施形態による、異なる材料および照明条件の精度比率のグラフを図示する(より低い方がより良好である)。 図12A−12Dは、本開示の実施形態による、異なる材料および照明条件の精度比率のグラフを図示する(より低い方がより良好である)。 図12A−12Dは、本開示の実施形態による、異なる材料および照明条件の精度比率のグラフを図示する(より低い方がより良好である)。
図13Aは、本開示の実施形態による、精度のグラフを図示し、図13Bは、指数が標的までの距離を表す、マルチセンサ設定におけるnan比率のグラフを図示する(より低い方がより良好である)。 図13Aは、本開示の実施形態による、精度のグラフを図示し、図13Bは、指数が標的までの距離を表す、マルチセンサ設定におけるnan比率のグラフを図示する(より低い方がより良好である)。
図14A−14Cは、本開示の実施形態による、付加的センサの影響のグラフを図示する。
図15は、本開示の実施形態による、例示的コンピューティングノードの概略を示す。
標的物体(例えば、生物学的組織)の3次元位置情報(X,Y,Z)を正確に判別する能力は、自動化された外科手術ロボットシステムの必要かつ重要要件である。1つのアプローチは、物体の表面に直接取り付けられる、既知のサイズおよび形状の基点マーカを使用して、表面についての位置情報を判定することである。しかしながら、基点マーカを使用する任意の方法の空間分解能は、組織に適用される基点の数に限定される。基点マーカは、コンピュータビジョンシステムが検出するために十分に大きくなければならないが、また、それに対してそれらが取り付けられる、表面の空間分解能を最大限にするために十分に小さくなければならない。これらの競合要件のため、特に、自動化された外科手術ロボットシステムが小さい閉じ込められた空間内で動作し得る、外科手術設定では、基点マーカによって提供される空間分解能に上限が存在する。
多くの外科手術操縦(例えば、縫合)は、満足の行く外科手術転帰を達成するために、外科手術ツールの高度に巧妙かつ高度に正確な運動を要求する。能動的人間制御を有しない、完全に自動化されたロボット外科手術手技では、ロボットによって制御される外科手術ツールの正確度は、コンピュータビジョンシステムの空間分解能に大きく依存する。外科手術転帰は、ロボットツールを誘導する、コンピュータビジョンシステムの位置正確度に大きく依存するため、外科手術部位の空間分解能は、完全に自動化されたロボット外科手術手技では、さらにより重要である。単に、基点マーカを使用して、完全に自動化された外科手術ロボットを誘導することは、満足の行く転帰を確実にするための外科手術部位の適正な空間分解能を提供しない。
故に、有効ロボット支援外科手術を改良するために、正確な外科手術計画および実行を可能にする、高分解能を伴って、位置情報を正確および確実に感知するためのシステムおよび方法の必要性が存在する。
本開示の実施形態は、概して、物体の表面の3次元位置情報のマルチモード感知に関する。特に、本開示は、次いで、加重係数を使用して組み合わせられ、最終3次元位置を算出する、物体の表面の明確に異なる位置情報を収集するために使用される、複数の可視化モダリティを説明する。本開示は、概して、自動化された外科手術ロボットに対する3次元位置を感知することに焦点を当てるが、本システム、方法、およびコンピュータプログラム製品は、コンピュータビジョン技法を採用して、仮想現実または拡張現実用途等の3次元位置を識別する、他の分野において使用するためにも好適である。
物体の表面(例えば、生物学的組織)上の3次元座標を判定するためのシステムは、概して、物体のベースライン画像を確立するために使用される、第1の結像システムを含む。ベースライン画像は、例えば、物体の表面に添着される、一連の基点マーカを使用して確立され、物体の表面に関する位置情報を生成してもよい。例えば、基点マーカは、スプレーアプリケータ(例えば、スプレーカテーテル)を介して、組織の表面上に設置されてもよい。一般に、基点マーカは、コンピュータビジョンシステムによって認識され、それに対してそれらが添着される、表面についての具体的位置情報を判定し得る、特殊マーカである。基点マーカの非限定的実施例は、シンボル(例えば、英数字)、パターン(例えば、QRコード(登録商標))、液体(例えば、赤外線インク)、または物理的形状(2Dまたは3D)を含んでもよい。本位置情報は、物体の表面をマッピングし、3次元内のその表面のコンピュータシミュレーションを作成するために使用されてもよい。基点マーカは、特定のパターン(例えば、グリッドパターン)において、または無特定パターン(例えば、ランダム化された設置)において、物体に添着されてもよい。
種々の実施形態では、基点マーカは、注射針を通して、液体状態において標的組織に適用される。液体マーカを標的組織に適用することは、いくつかの利点を有する。第1に、マーカは、部位上で混合されることができ、これは、マーカの安定性を改良する。第2に、液体マーカは、場所および標的組織への適用の精密な制御を可能にする。第3に、マーカは、任意の不規則的形状として適用されることができる。注射を用いて液体マーカを適用することによって、潅注された外科手術野は、発熱性反応を引き起こし、マーカを円形形状に固化させ、組織を標的化する。円形マーカは、外科手術手技の間、標的組織上の単一着目点を追跡するために有益であり得る。
種々の実施形態では、注射針またはフェルト芯等のマーキング先端が、基点マーカを線形パターンに分注するために使用されてもよい。基点マーカを持続線として適用することによって、マーカを使用して、境界を標的組織上に画定することができる。境界を定義することは、疾患組織の領域または外科手術手技が実施されるべきではない領域を識別するために有用であり得る。さらに別の実施形態では、液体マーカは、標的組織上に噴霧され、重合化されると、斑点状パターンを作成してもよい。斑点状パターンは、組織の大領域を相互から画定するために着目されてもよい。一実施例では、背景組織が、斑点状にされ、それを前景組織から区別してもよい。ロボットまたは半自律的ワークフロー内の他のコンポーネントは、背景および前景情報を使用して、その運動または提案を計画もしくは制御してもよい。
他の実施形態では、液体マーカは、所定のマスクを通して適用され、任意の恣意的および所定の形状におけるマーカを標的組織上に適用してもよい。
基点マーカを使用して、物体の表面の位置情報を入手するために、第1の結像システムは、1つ以上のカメラ(例えば、1つ、2つ、3つ、4つ、または5つ)を含んでもよい。種々の実施形態では、1つ以上のカメラは、立体視カメラを含んでもよい。種々の実施形態では、立体視カメラは、2つの別個のカメラによって実装されてもよい。種々の実施形態では、2つの別個のカメラは、相互から所定の距離に配置されてもよい。種々の実施形態では、立体視カメラは、外科手術計器(例えば、腹腔鏡、内視鏡等)の最遠位端に位置してもよい。カメラは、基点マーカ毎に検出された位置を既知の基準(例えば、基点の既知のサイズおよび形状)に対して相互参照し、基点マーカ毎に、位置情報(例えば、深度)を判定してもよい。位置情報は、本明細書で使用されるように、概して、3次元座標系内で(X,Y,Z)として定義されてもよい。
1つ以上のカメラは、例えば、赤外線放射を放出し、放出される赤外線放射の反射を検出する、赤外線カメラであってもよい。他の実施形態では、1つ以上のカメラは、当技術分野において公知のように、デジタルカメラであってもよい。他の実施形態では、1つ以上のカメラは、プレノプティックカメラであってもよい。1つ以上のカメラは、下記にさらに詳細に説明されるように、コンピューティングノードに接続されてもよい。
本開示は、結果として生じる位置情報の正確度を改良するために、基点マーカ追跡に加え、他の可視化モダリティもまた組み込むことによって、単に基点マーカを採用する、単一モードアプローチを改良する。第2の結像システムが、個々に、または本明細書に説明される他の結像システムと組み合わせてのいずれかにおいて、物体の表面に関する位置情報を生成するために使用されてもよい(例えば、ベースライン画像が、第1の結像システムを使用して記録され、位置情報が、基点マーカ毎に入手された後)。構造化された光源から投影された構造化されたパターンは、表面上に投影されるとき、パターン特徴の形状、サイズ、および/または間隔を変化させてもよい。第2の結像システムが、これらの変化を検出し、第2の結像システムによって記憶される既知のパターンを前提として、構造化された光パターンへの変化に基づいて、位置情報を判定してもよい。例えば、第2の結像システムは、線の具体的構造化されたパターン(例えば、ドットの行列または一連のストライプ)を物体の表面上に投影する、構造化された光源(例えば、プロジェクタ)を含んでもよい。線のパターンは、源のものと異なる他の視点から歪曲されて現れる、照明の線を生産し、これらの線は、表面形状の幾何学的再構築のために使用され、したがって、物体の表面についての位置情報を提供することができる。
第2の結像システムは、構造化された光の源から投影されたパターンを検出することが可能な1つ以上のカメラ(例えば、1つ、2つ、3つ、4つ、または5つ)を含んでもよい。1つ以上のカメラは、当技術分野において公知のように、デジタルカメラであってもよく、第1の結像システムと併用されるものと同一または異なるカメラであってもよい。1つ以上のカメラは、下記にさらに詳細に説明されるように、コンピューティングノードに接続されてもよい。1つ以上のカメラからの画像を使用して、コンピューティングノードは、物体の表面に沿った任意の好適な数の点に関する位置情報(X,Y,Z)を算出し、それによって、表面の深度マップを生成してもよい。
第3の結像システムは、物体の表面に関する付加的位置情報を生成するために使用されてもよい。第3の結像システムは、明視野カメラ(例えば、プレノプティックカメラ)等の1つ以上のカメラを含んでもよく、第1の結像システムおよび第2の結像システムのために使用されるカメラと同一または異なるカメラであってもよい。プレノプティックカメラは、適切なズームおよび焦点深度設定を有することによって、物体の表面に関する正確な位置情報を生成するために使用されてもよい。
本開示に従って使用され得る、1つのタイプの明視野(例えば、プレノプティック)カメラは、そうでなければ従来の画像センサの正面に設置される、マイクロレンズのアレイを使用して、強度、色、および指向性情報を感知する。マルチカメラアレイは、別のタイプの明視野カメラである。「標準的プレノプティックカメラ」は、研究者によって使用され、異なるタイプのプレノプティック(または明視野)カメラを比較する、標準化された数学的モデルである。定義上、「標準的プレノプティックカメラ」は、センサの像面から1焦点距離だけ離して設置されたマイクロレンズを有する。研究では、その最大ベースラインが主要なレンズ入射瞳サイズに限られることが示されており、これは、小立体視設定と比較して小さいことが証明されている。これは、カメラのパラメータに基づいて計量的に予測され得る、非常に近距離において増加された深度分解能を呈するため、「標準的プレノプティックカメラ」が近距離用途に意図され得ることを含意する。焦点調節プレノプティックカメラ、コーディングされた開口カメラ、および/またはプレノプティックカメラを伴うステレオ等、他のタイプ/配向のプレノプティックカメラが、使用されてもよい。
いったん位置情報が、第1の結像システム、第2の結像システム、および第3の結像システムを使用して生成されると、組み合わせられた位置が、3つの結像システムの加重平均を算出することによって計算され得る。下記の方程式1に示されるように、組み合わせられたピクセル深度は、3つの結像システムのそれぞれから生成された深度の加重平均によって計算されてもよい。
Figure 2021531482
方程式1では、Cは、第1の結像システム(例えば、マーカベースのシステム)に割り当てられる加重を表し、CSLは、第2の結像システム(例えば、構造化された光ベースのシステム)に割り当てられる加重を表し、Cは、第3の結像システム(例えば、構造化された光ベースのシステム)に割り当てられる加重を表し、深度は、第1の結像システムから生成されたピクセルの深度を表し、深度は、第2の結像システムから生成されたピクセルの深度を表し、深度は、第3の結像システムから生成されたピクセルの深度を表す。種々の実施形態では、加重はそれぞれ、0〜1の値であってもよく、全ての加重値の和は、合計で1に加算され得る。
種々の実施形態では、第1の結像システムに割り当てられる加重Cは、第2の結像システムに割り当てられる加重CSLおよび第3の結像システムに割り当てられる加重Cに等しくてもよい。他の実施形態では、第2の結像システムに割り当てられる加重CSLは、第1の結像システムに割り当てられる加重Cおよび/または第3の結像システムに割り当てられる加重Cを上回る。さらに別の実施形態では第3の結像システムに割り当てられる、加重Cは、第1の結像システムに割り当てられる加重Cおよび/または第2の結像システムに割り当てられる加重CSLを上回る。
種々の実施形態では、方程式1における変数毎の加重は、使用される結像システムのタイプに基づいて選択された1つ以上の要因に基づいて判定されてもよい。例えば、明視野結像が、使用される場合、要因は、(1)画像内のコントラストの量、(2)飽和されたピクセルの数(光強度を測定するために使用され得る)、および(3)画像の具体的面積の深度の位置特定された変化を含み得る。高加重値は、場面内に高コントラストを有し、殆どまたは全く飽和されていないピクセルを有しておらず、深度の低局所変化を有する、画像に対応し得る。
別の実施例では、構造化された光結像が、使用される場合、要因は、(1)認識されるパターンの量および(2)飽和されたピクセルの数を含み得る。高加重値は、認識されたパターンの大部分または全てを有し、殆どまたは全く飽和されたピクセルを有していない、画像に対応し得る。
さらに別の実施例では、基点マーカが、使用される場合、要因は、(1)飽和されたピクセルの数、(2)基点マーカの形状/サイズを認識する能力、および(3)基点マーカを周囲環境から判別する能力を含み得る。高加重値は、殆どまたは全く飽和されたピクセルを有しておらず、基点マーカの大部分または全てを認識する能力、および基点を周囲環境から判別する能力を有する、画像に対応し得る。
種々の実施形態では、本明細書に説明される2つの結像モダリティの任意の組み合わせが、物体の表面の第1および第2の深度を算出するために使用されてもよい。本実施形態では、2つの結像モダリティはそれぞれ、その特定のモダリティによって判定された深度に適用される、個別の加重係数を有してもよい。種々の実施形態では、2つの加重係数は、合計で1に加算され得る。種々の実施形態では、ピクセル深度関数が、上記の方程式1に説明されるものと同様に算出されるが、対照的に、2つのモダリティに関するピクセル深度は、2つのみの加重された深度算出に依存する(3つの代わりに)。
種々の実施形態では、各結像システムと関連付けられる加重は、特定の結像システムの全体的品質に依存し得る。例えば、1つの特定の結像システムは、別の結像システムより正確なデータを全体的に提供し得る。本実施例では、より高い正確度を伴う結像システムから受信されたデータは、より低い正確度を伴う結像システムから受信されたデータより高い加重を与えられるであろう。種々の実施形態では、種々の結像システムの正確度および/または精度は、結像されるべき物体から離れた距離、結像されている材料、および/または動作環境の照明に依存し得る。種々の実施形態では、種々の結像システムの正確度および/または精度は、結像システムの視野内の場所に依存し得、例えば、第1の結像システムは、縁に向かって急下り勾配を伴う、高正確度を視野の中心に有し得る一方、別の結像システムは、視野を横断して一貫した正確度を有し得る。
異なる状況において種々のセンサが性能を発揮する程度の議論は、Halmetschlager−Funek et al.による「An Empirical Evaluation of Ten Depth Cameras」(参照することによってその全体として本明細書に組み込まれる)に見出され得る。図8は、Halmetschlager−Funekの論文における分析されるセンサの表を示す。図9−14は、バイアス、精度、側方雑音、材料/照明/距離の影響、および付加的センサの影響に関する、Halmetschlager−Funekの論文からの種々のグラフを図示する。特に、バイアス(図9A−9Cに示される)に関して、本論文は、Kinectv2が、範囲全体にわたって低バイアスをもたらす一方、構造化された光を使用したセンサのためのバイアスの有意な増加が、d>3mから開始して観察されたことを説明する。全3つの構造化された光センサおよび2つのアクティブステレオカメラ(ZR300およびD435)は、距離d<1mに関して、Kinectv2より低いバイアスをもたらすが、3つのセンサ(ZR300、Orbbec、および構造IO)は、深度値d<2.5mに関して、さらにより低いバイアスをもたらす。バイアスの二次増加が、全てのセンサに関して観察された[全範囲:d=0〜8m、図9A;拡大:d=0〜3m、図9B]。近距離センサF200およびSR300[図9C]は、その遠距離対応物より若干高いバイアスを示す一方、Ensenso N35は、測定範囲全体にわたって低バイアスを提供する。
精度(図10A−10Cに示されるように)に関して、精度の二次減少が、全ての遠距離センサにおいて見出された[全範囲:d=0〜8m、図10A;拡大:d=0〜3、m、図10B]が、構造化された光センサは、Kinectv2と比較して規模が異なる。全体として、R200およびZR300センサは、最悪性能を有する一方、構造IOおよびOrbbecセンサは、非常に類似した性能を発揮する。距離d<2mでは、全ての構造化された光センサが、Kinec−tv2より少ない雑音測定を生成することが観察された。さらに、D435は、距離d<1mにおいて、Kinectv2より精密な結果を集めることが可能であった。D435に関する精度結果は、他のセンサに関してより散乱されることが観察された。近距離センサ[図10C]は、最大0.0007mの雑音レベルを被る。製造業者によって規定された範囲内において、0.004m下で精密な値が、取得されることが可能であった。
側方雑音(図11)に関して、側方雑音の分析は、3つの遠距離の構造化された光センサおよび距離に関して類似結果を示す。d<3mに関して、雑音レベルは、構造化された光センサに関して3つのピクセルを伴い、Kinectv2に関して1つのピクセルを伴って、距離から独立した(図11)。2つのアクティブステレオセンサ(D435およびZR300)は、Kinectv2のものに類似する低側方雑音レベルをもたらす。R200は、2mより近い距離に関して、2つのピクセルのより低い側方雑音を達成する。近距離センサでは、Ensenso N35は、最高側方雑音値を達成する。
材料/照明/距離(図12A−12D)に関して、合計384個のデータ点が、センサの精度が、4.2〜535.75luxの4つの異なる照明条件(図12A−12D)と組み合わせて、6つの異なる材料の反射および吸収性質によって影響された程度を判定するために集められた。試験は、構造IOセンサが、変動する物体反射度および照明条件を最良に取り扱うことを明らかにする。d>1.5mの距離に関して、他のセンサと比較してより低い精度を有するが、アルミニウム等の高反射性表面に関して、かつ明るい照明条件下において、情報を集めることが可能であった。構造IOセンサは、稠密深度推定を与えるが、Xtionは、深度値を判定することが不可能であった。Orbbecは、明るい照明条件下では、6つの表面のうち4つに関して深度情報を集めることに失敗し得る。Kinectv2は、d=1mおよびd=1.5mの距離において、かつ明るい照明条件下において、アルミニウムに関する信頼性がある深度データを集めることに失敗し得る。F200およびSR300センサは、明るい照明条件に関して、より有意に低い精度を有し得る。実験の設定の間、アクティブステレオカメラ(EnsensoおよびR200)は、その技術の性質に起因して、構造化された光センサより良好に異なる照明条件を取り扱うことが可能であることが予期された。図12A−12Dでは、ゼロの精度は、センサが任意の深度情報を集めることが不可能であることを示す。
付加的センサによって誘発される雑音(図13A、13B、および14A−14C)に関して、結果(図13A−13B)は、遠距離の構造化された光センサが、1つおよび2つの付加的センサによって誘発される雑音を取り扱うことができることを明らかにする。例外が、標的までの距離が、d=1.5mであって、2つの付加的センサが、場面に導入されるときに生じる。類似影響は、Kinectv2に関しては観察されなかった。センサは、1つまたは2つの付加的センサから独立して、精度に関して安定した結果を与え得る。近距離センサF200およびSR300は、付加的センサを用いると、あまり精密ではなくなり得、Ensenso N35は、第3の観察センサによって若干のみ影響される。本点において、近距離デバイスに関する高nan比率が、部分的に、我々の設定から導出され得ることに留意されたい。場面の半分は、センサの範囲外にある(図14A−14C)。要約すると、1つのセンサを用いた第1の実験は、場面を観察する2つおよび3つのセンサを用いた測定のためのベースラインを提供する。第1の差異が、1つのみのセンサが追加される場合、可視となり得る。特に、SR300およびF200センサは、別の実感知デバイスが場面に追加される場合、nan比率における有意な増加を有し得る。より厳密な分析に関して、対応する深度画像が、示される。図14A−14Cでは、深度抽出が付加的センサによって大きく影響されることが明白である。EnsensoおよびKinectv2センサは、付加的センサによって影響され得ない。
種々の実施形態では、上記に説明されるように、1つ以上のカメラから受信された深度データは、結像システム内の他のカメラからのデータ深度より高い品質(例えば、より信頼性がある)であり得る。種々の実施形態では、深度データの品質は、結像システムの外部の支援特徴に依存し得る。例えば、深度データは、より高い品質であって、したがって、カメラ(例えば、赤外線カメラ)が組織上の所定の数の基点マーカを明確に読み取ることができるとき、より高い加重を与えられ得る。種々の実施形態では、カメラが、所定の数のマーカを読み取ることができない場合、深度データは、より低い品質であり得、したがって、カメラからの深度データは、より低い加重を与えられ得る。類似実施例では、カメラが、構造化された光パターンを構造化された光プロジェクタから明確に読み取ることができるとき、構造化された光から生じる深度データは、より高い品質であって、したがって、より高い加重を与えられ得る。
種々の実施形態では、各結像システムと関連付けられる加重は、深度の信頼度および/または各ピクセルの品質に依存し得る。種々の実施形態では、いくつかの結像システムは、より高い品質画像データを伴う画像内の1つ以上の「スイートスポット」と、より低い品質画像データを伴う1つ以上の「デッドゾーン」と有するため、結像システムと関連付けられる加重はそれぞれ、画像のピクセルレベルにおいてパラメータ化され得る。種々の実施形態では、加重の1つ以上のもの(例えば、全て)が、画像内のピクセルを表す2次元点(x,y)の関数であり得る。種々の実施形態では、画像内のピクセルは、当技術分野において公知のように、任意の好適な方法において座標点を割り当てられてもよい。例えば、画像の左下角は、(0,0)の座標を割り当てられてもよく、画像の右上角は、各個別の軸内の最大数のピクセル(最大xピクセル、最大yピクセル)を割り当てられてもよい。ある実施例では、1つの結像システム(例えば、立体視カメラ)は、画像の中心における高品質画像データと、周縁に関する低品質画像データとを有し得る。本特定の実施例では、より高い加重は、画像の中心におけるピクセルに割り当てられてもよく、加重は、ピクセルが画像の中心半径方向に離れるように移動するにつれて、減少してもよい。種々の実施形態では、パラメータ関数は、連続関数であってもよい。種々の実施形態では、パラメータ関数は、不連続関数(例えば、区分関数)であってもよい。種々の実施形態では、パラメータ関数は、線形関数を含んでもよい。種々の実施形態では、パラメータ関数は、指数関数的関数を含んでもよい。
種々の実施形態では、結像システムが、特定のピクセルにおける深度を算出することができないとき、その特定のピクセルは、特定の結像システムに関してゼロの加重を割り当てられてもよい(すなわち、特定の結像システムは、その特定のピクセルにおける深度の判定に寄与しないであろう)。
種々の実施形態では、結像システムは、立体視深度感知を含んでもよい。種々の実施形態では、立体視深度感知は、1つ以上の一意に識別可能特徴が画像(またはビデオフレーム)内に存在するとき、最良に機能し得る。種々の実施形態では、立体視深度感知は、2つのカメラ(例えば、デジタルカメラ)を使用して実施されてもよい。種々の実施形態では、カメラは、相互に較正されてもよい。例えば、結像システムは、待ち時間、フレームレート、2つのカメラ間の3次元距離、結像システムから離れた種々の距離、種々の照明レベル、マーカタイプ/形状/色等に基づいて較正されてもよい。種々の実施形態では、当技術分野において公知のソフトウェアが、2つのカメラを制御し、立体視深度感知を実装するために使用されてもよい。種々の実施形態では、第1の画像(またはビデオのフレーム)は、第1のカメラにおいて捕捉され、第2の画像(またはビデオのフレーム)は、第1のカメラから離れた所定の距離に位置する、第2のカメラにおいて捕捉される。種々の実施形態では、ピクセル不均衡が、第1の画像(またはビデオのフレーム)と第2の画像(またはビデオのフレーム)との間で算出される。種々の実施形態では、深度が、ピクセル不均衡値から判定されてもよい。種々の実施形態では、より近い物体は、より高いピクセル不均衡値を有し、より遠い物体は、より低いピクセル不均衡値を有する。種々の実施形態では、3次元座標(x,y,z)が、判定された深度およびカメラ較正パラメータから算出されてもよい。種々の実施形態では、立体視深度感知は、基点マーカと併用され、深度を判定してもよい。
種々の実施形態では、結像システムは、アクティブ立体視深度感知を含んでもよい。種々の実施形態では、プロジェクタは、ローカルスケール上で一意である、パターンを投影してもよい。種々の実施形態では、任意の好適なパターンが、使用されてもよく、パターンは、結像システムに事前に把握される必要はない。種々の実施形態では、パターンは、経時的に変化してもよい。種々の実施形態では、プロジェクタを用いたアクティブ立体視深度感知は、非構造化環境内の無特徴画像に関する深度情報を提供し得る。
種々の実施形態では、静的マスクは、場面内の物体の表面(例えば、組織)上に投影されてもよい。例えば、物理的パターン(例えば、ワイヤメッシュ)が、光源の正面に位置付けられてもよく、レンズは、光パターンを表面上に集束させるために使用されてもよい。
種々の実施形態では、デジタルマイクロミラー(DMD)プロジェクタが、パターンを物体の表面上に投影するために使用されてもよい。本実施形態では、光が、マイクロミラー(例えば、矩形に配列される1,000,000個のミラー)のアレイ上で光輝する。ミラーは、光が場面に入射し、それを照明することを可能にするか、またはそれを防止するかのいずれかを行うように制御されてもよい。レンズが、光パターンを場面上に集束させるために使用されてもよい。種々の実施形態では、DMDプロジェクタは、プログラム可能パターン(例えば、QRコード(登録商標)、文字、円形、正方形等)を可能にし得る。類似効果は、DMDの代わりに、光学メタ表面を使用して取得されてもよいことを理解されたい。
種々の実施形態では、走査レーザプロジェクタが、パターンを物体の表面上に投影するために使用されてもよい。本実施形態では、1つ以上のレーザ源が、単一ピクセルを表面上に投影するために使用される。高精細画像が、高周波数で一度に1つのピクセルを光輝させることによって作成され得る。種々の実施形態では、パターンの集束は、走査レーザプロジェクタを用いることで要求され得ない。種々の実施形態では、走査レーザプロジェクタは、プログラム可能パターン(例えば、QRコード(登録商標)、文字、円形、正方形等)を可能にし得る。
種々の実施形態では、カスタムアルゴリズムが、立体視カメラが、既知のプログラム可能パターンを検出し、その上にパターンが投影された表面からの深度データを判定するように開発されてもよい。種々の実施形態では、深度データが、値第1のカメラからの第1の画像(またはビデオフレーム)と第2のカメラからの第2の画像(またはビデオフレーム)との間の不均衡を判定することによって算出される。
種々の実施形態では、光の所定の波長が、表面の材料に応じて、物体の表面上に投影されてもよい。異なる材料は、光の波長の連続を横断して、異なる吸収率および/または反射度性質を有し得る。種々の実施形態では、波長は、光が物体の最外表面から反射するように選択される。種々の実施形態では、光の波長が、物体の表面を透過するように選択される場合、結果として生じる画像は、色褪せた外観を有し、不正確な深度データ(例えば、より低い正確度、高空間時間雑音)をもたらし得る。
種々の実施形態では、結像システムは、干渉計を含んでもよい。種々の実施形態では、光源は、物体を伴う場面を照明し得、センサは、放出された光と反射された光との間の位相差を測定し得る。種々の実施形態では、深度が、直接、センサ測定から算出されてもよい。種々の実施形態では、本アプローチは、低算出リソース要件、より高速の処理を有し、無特徴場面上で機能し、および/または種々の照明レベルで機能し得る。
種々の実施形態では、各ピクセルにおいて算出された深度を含む、結果として生じる深度マップは、後処理されてもよい。深度マップ後処理は、具体的用途のために使用可能となるような深度マップの処理を指す。種々の実施形態では、深度マップ後処理は、正確度改良を含んでもよい。種々の実施形態では、深度マップ後処理は、加速性能のため、および/または審美的理由から使用されてもよい。本開示のシステムおよび方法と併用するために好適である、多くの特殊後処理技法が、存在する。例えば、結像デバイス/センサが、用途のために技術的に必要なものより高い分解能で起動される場合、深度マップのサブサンプリングは、深度マップのサイズを減少させ、スループット改良およびより短い処理時間につながり得る。種々の実施形態では、サブサンプリングは、バイアスされてもよい。例えば、サブサンプリングは、深度値を欠いている(例えば、計算されることが不可能である、および/またはゼロの値を有する)、深度ピクセルを除去するようにバイアスされてもよい。種々の実施形態では、空間フィルタリング(例えば、平滑化)が、単一深度フレーム内の雑音を減少させるために使用されることができ、これは、単純空間平均化ならびに非線形縁保存技法を含んでもよい。種々の実施形態では、時間的フィルタリングが、複数のフレームからのデータを使用して、時間的深度雑音を減少させるために実施されてもよい。種々の実施形態では、単純または時間バイアスされた平均が、採用されてもよい。種々の実施形態では、深度マップ内の穴は、例えば、ピクセルが一貫せず深度値を示すとき、充填されることができる。種々の実施形態では、信号内の時間的変動(例えば、場面内の運動)は、ぼけにつながり得、ぼけを減少および/または除去するための処理を要求し得る。種々の実施形態では、いくつかの用途は、ピクセル毎に存在する深度値を要求し得る。そのような状況に関して、正確度が、それほど重視されないないとき、後処理技法は、深度マップを全てのピクセルに外挿するために使用されてもよい。種々の実施形態では、外挿は、任意の好適な形態の外挿(例えば、線形、指数関数的、対数等)を用いて実施されてもよい。
種々の実施形態では、第1の結像システム、第2の結像システム、および第3の結像システムは、コンピューティングノードに接続される、同一の1つ以上のカメラ(例えば、プレノプティックカメラ)を使用する。コンピューティングノードは、単一の記録された画像を処理し、基点マーカ、構造光パターン、および明視野データを別個の成分として抽出してもよい。別個の成分はそれぞれ、物体の表面の位置情報(例えば、深度マップ)を算出するために使用されてもよい。加重係数が、算出された位置情報のそれぞれに適用され、加重平均深度を算出してもよい。
種々の実施形態では、システムは、上記に述べられた結像モダリティ/システムの任意の組み合わせを使用して、組織の表面についての位置情報を判定することができる。種々の実施形態では、システムは、方程式1における加重値が0であることを判定してもよい。この場合、システムは、複数の結像モダリティ/システムを使用して、位置データを入手するが、それらの結像モダリティ/システムのうちの少なくとも1つが信頼性がある位置データを提供しないことを判定し、したがって、方程式1を適用するとき、信頼性があるデータを提供しない、特定の結像モダリティ/システムを考慮しない。
いくつかの実施形態では、立体視カメラは、それ自体で、または上記に述べられた結像システムのいずれかと組み合わせてのいずれかにおいて、結像システムとして使用されてもよい。
そこから位置情報が取得される、物体は、任意の好適な生物学的組織であってもよい。例えば、物体は、食道組織、胃組織、小/大腸組織、および/または筋組織等の内部身体組織であってもよい。他の実施形態では、物体は、腹部、背部、腕部、脚部、または任意の他の外部身体部分上の皮膚組織等の外部組織であってもよい。さらに、物体は、骨、内蔵、または他の内部身体構造であってもよい。本開示のシステムおよび方法は、同様に、獣医学用途において動物のためにも機能するであろう。
種々の実施形態では、本明細書に説明されるシステムおよび方法は、例えば、診断用途および/または外科手術用途等の任意の好適な用途において使用されてもよい。診断用途の実施例として、本明細書に説明されるシステムおよび方法は、結腸内視鏡検査において、胃腸管内のポリープを結像し、ポリープの寸法を判定するために使用されてもよい。ポリープの寸法等の情報は、保健医療専門家によって、患者のための治療計画(例えば、外科手術、化学療法、さらなる試験等)を判定するために使用されてもよい。別の実施例では、本明細書に説明されるシステムおよび方法は、内蔵の一部または全体を抽出するとき、切開または穴のサイズを測定するために使用されてもよい。外科手術用途の実施例として、本明細書に説明されるシステムおよび方法は、例えば、ハンドヘルド腹腔鏡外科手術、ハンドヘルド内視鏡手技、および/または結像ならびに深度感知が必要であり得る、任意の他の好適な外科手術用途等、ハンドヘルド外科手術用途において使用されてもよい。種々の実施形態では、本明細書に説明されるシステムおよび方法は、組織、器官、糸、および/または任意の計器を含む、外科手術野の深度を算出するために使用されてもよい。種々の実施形態では、本明細書に説明されるシステムおよび方法は、絶対単位(例えば、ミリメートル)で測定を行うことが可能であり得る。
種々の実施形態は、内視鏡等の胃腸(GI)カテーテルにおいて使用するために適合されてもよい。特に、内視鏡は、霧状噴霧器と、IR源と、カメラシステムおよび光学系と、ロボットアームと、画像プロセッサとを含んでもよい。
種々の実施形態では、造影剤が、生物学的組織の表面等の物体の表面に適用され、コントラストをその3次元位置情報がコンピュータビジョンシステムによって生成されることになる表面に提供してもよい。精度がコントラストおよびテクスチャに正比例する、いくつかの可視化モダリティ(例えば、明視野結像)を使用するとき、造影剤は、コントラストを表面に提供するために利用されてもよい。軟質組織が結像されている、種々の実施形態では、表面は、色が実質的に均一であって、非常にわずかなテクスチャを有し得る。この場合、組織(例えば、漿膜)に接着する、霧状染料等の造影剤が、組織に適用されてもよい。染料は、蛍光化され、人工コントラストを提供し、明視野結像システムにおける精度のレベルを大幅に改良してもよい。
コントラストが、組織の表面上で使用されるとき、較正が、深度情報を判定するための造影剤の適用に先立って取得されてもよい。
図1は、その中で画像がベースライン画像として使用され得る、基点マーカ104を有する、表面102の例示的画像100を図示する。図1では、基点マーカ104は、液体マーカの形態において、表面102上に提供される。基点マーカ104は、コンピューティングノード上で起動するコンピュータビジョンシステムが、基点マーカ104を認識し、3次元表面を画像から算出し得るように、行列フォーマットにおいて塗装される。コンピュータビジョンシステムは、物体の画像を記録し、画像をコンピュータビジョンソフトウェアを起動するコンピューティングノードに提供する、1つ以上のカメラを含んでもよい。
種々の実施形態では、コンピュータビジョンシステムは、基点マーカ104毎に、3次元位置情報(X,Y,Z)を生成する。コンピュータビジョンシステムはさらに、基点マーカ104間の位置情報を補間してもよい、または物体の表面102の3次元モデルを生成するように外挿してもよい。
図2は、図1のベースライン画像100にオーバーレイする構造化された光マーカ206の行列を有する、表面202の例示的画像200を図示する。構造化された光マーカ206の行列は、ドットのグリッドの形態にある。構造化された光マーカ206は、コンピューティングノード上で起動するコンピュータビジョンシステムが、構造化された光マーカ206を認識し、3次元表面を画像から算出し得るように、物体の表面202上に構造化された光(例えば、レーザ)の源から投影される。コンピュータビジョンシステムは、物体上に投影された構造化された光マーカ206の画像を記録し、画像をコンピュータビジョンソフトウェアを起動するコンピューティングノードに提供する、1つ以上のカメラを含んでもよい。コンピュータビジョンソフトウェアは、構造化された光マーカ206を異なる視覚的角度において撮影された画像から分析し、幾何学的再構築を実施し、表面202の位置情報を生成してもよい。図2に示されるように、構造化された光マーカ206の行列は、図1に示される基点マーカ104より多くの表面202上に投影されたマーカを有する。したがって、3次元位置情報は、そこからコンピュータビジョンソフトウェアが表面202の3次元モデルを生成し得る、より多くのデータ点が存在するため、構造化された光マーカ206を使用して、より正確となるであろう。
図3Aは、シミュレートされた生物学的組織310の例示的画像を図示する一方、図3Bは、同一のシミュレートされた生物学的組織310の深度マップ315の例示的画像を図示する。図3Aに示されるように、シミュレートされた生物学的組織310(例えば、漿膜)は、色が実質的に均一であって、テクスチャ加工されず、人工マーカを有していない。図3Bに示される深度マップ315は、シミュレートされた組織310の明視野結像によって生産された深度マップを表す。図3Bに示されるように、深度マップ315は、わずかなコントラストの面積、すなわち、縁から離れた組織310の面積内に、ほぼ殆どまたは全く深度データを有していない。深度データは、シミュレートされた組織310と背景との間のコントラストのため、縁に存在する。
図4Aは、造影剤が表面に適用されている、シミュレートされた生物学的組織410の例示的画像を図示する一方、図4Bは、造影剤を有する、同一のシミュレートされた生物学的組織410の深度マップ415の例示的画像を図示する。図4Aに示されるように、造影剤(例えば、霧状青色染料)が、シミュレートされた生物学的組織410(例えば、漿膜)に適用される。図4Bに示される深度マップ415は、造影剤を有するシミュレートされた組織410の明視野結像によって生産された深度マップを表す。図4Bに示されるように、深度マップ415は、組織の表面に適用される造影剤のため、図3Bに示される深度マップ315よりはるかにデータを有する。深度マップ415に基づいて、コンピュータビジョンシステムは、組織410が湾曲表面を有することを認識するであろう。
図5は、本開示の実施形態による、組織を結像する、3D表面結像システム500を図示する。結像システム500は、ともに使用されると、組織502(例えば、胃)の立体視画像を生成する、カメラ521a、521bを有する、内視鏡520を含む。種々の実施形態では、内視鏡520は、随意に、または加えて、赤外線カメラを含んでもよい。組織502は、カメラ(例えば、赤外線カメラ)は、マーカ504を組織502の背景に対して検出することができるように、その上に配置される基点マーカ504を有する。種々の実施形態では、結像システム500はさらに、プロジェクタ522を含む。種々の実施形態では、プロジェクタ522は、構造化された光506(例えば、ドットパターン)を組織502上に投影するように構成されてもよい。種々の実施形態では、プロジェクタは、赤外線光を投影するように構成される。結像システム500はさらに、明視野(例えば、プレノプティック)カメラ524を含む。種々の実施形態では、組織502は、上記に説明されるように、造影剤を噴霧され、結像システム500が、組織502の深度を判定することを可能にしてもよい。
図6は、3D表面結像システムを図示する、略図を示す。システムは、3D結像分解能を改良するために、3つの可視化モダリティを組み合わせる。システムは、ロボットアームによって移動され得る、カメラシステムを含む。可視化モダリティ毎に、カメラシステムは、内視鏡内の光ガイドおよび光学系機構を通して、標的組織の画像を捕捉する。画像は、画像プロセッサによって処理され、仮想的に構築された3D表面を判定する。
1つの可視化モダリティでは、カメラシステムは、標的組織のプレノプティック画像を捕捉するための明視野(例えば、プレノプティック)カメラを含む。画像プロセッサは、標準的技法を使用して、3D表面変動および形状をプレノプティック画像から判定する。
第2の可視化モダリティでは、システムは、光学系機構および内視鏡内の光ガイドを介して、標的組織上に投影される、IRスポットパターンを生成するためのIR(赤外線)源/プロジェクタを使用する。スポットパターンは、事前に定義される、またはランダムであることができる。カメラシステムは、標的組織上のIRスポットの画像を捕捉する、IRセンサを含む。画像は、画像プロセッサに伝送され、これは、標的組織上に投影されたスポットパターン内の歪曲を検出し、3D表面変動および形状を判定する。
第3の可視化モダリティでは、システムは、内視鏡内の霧化器/噴霧器を使用して、霧状液体染料を標的組織の選択された面積に適用し、基点スポットの数を増加させる。霧状染料は、IRスポットパターンより高いスポット濃度を伴うランダムスポットパターンにおいて、標的組織に接着する。染料は、結像システムの精度を改良するために、蛍光化され、拡張コントラストを組織に提供することができる。
画像プロセッサは、所与の状況において最も適切である、可視化モダリティデータを判定し、必要に応じて、データを組み合わせ、3D結像分解能をさらに改良する。データは、加重アルゴリズムを使用して、組み合わせられることができる。システムは、それによって、正確なロボット外科手術計画および実行のために必要とされる、高分解能を伴って、深度を正確かつ確実に感知する。
図7は、物体上の3次元座標を判定するための方法のフローチャート700を示す。702では、本方法は、画像を記録するステップであって、画像は、物体と、物体上に配置される、第1の複数のマーカと、物体上に配置される、第2の複数のマーカと、物体上に配置される、第3の複数のマーカとを備える、ステップを含む。704では、本方法は、画像および第1の複数のマーカを使用して、第1の深度を算出するステップを含む。706では、本方法は、画像および第2の複数のマーカを使用して、第2の深度を算出するステップを含む。708では、本方法は、画像および第3の複数のマーカを使用して、第3の深度を算出するステップを含む。710では、本方法は、第1の加重を第1の深度に、第2の加重を第2の深度に、第3の加重を第3の深度に割り当てるステップを含む。712では、本方法は、第1の深度、第2の深度、第3の深度、第1の加重、第2の加重、および第3の加重に基づいて、加重平均深度を算出するステップを含む。
ここで図15を参照すると、本明細書に説明されるコンピュータビジョンシステムと併用され得る、例示的コンピューティングノードの概略が、示される。コンピューティングノード10は、好適なコンピューティングノードの一実施例にすぎず、本明細書に説明される実施形態の使用または機能性の範囲に関する任意の限界を示唆することを意図するものではない。それにかかわらず、コンピューティングノード10は、本明細書に記載される上記の機能性のいずれかを実装および/または実施することが可能である。
コンピューティングノード10内には、コンピュータシステム/サーバ12が存在し、これは、多数の他の汎用または特殊目的コンピューティングシステム環境もしく構成を伴って動作する。コンピュータシステム/サーバ12と併用するために好適であり得る、周知のコンピューティングシステム、環境、および/または構成の実施例は、限定ではないが、パーソナルコンピュータシステム、サーバコンピュータシステム、シンクライアント、シッククライアント、ハンドヘルドまたはラップトップデバイス、マルチプロセッサシステム、マイクロプロセッサベースのシステム、セットトップボックス、プログラマブル消費者電子機器、ネットワークPC、ミニコンピュータシステム、メインフレームコンピュータシステム、および上記のシステムまたはデバイスのいずれかを含む、分散型クラウドコンピューティング環境、ならびに同等物を含む。
コンピュータシステム/サーバ12は、コンピュータシステムによって実行される、プログラムモジュール等のコンピュータシステム実行可能命令の一般的コンテキストにおいて説明され得る。概して、プログラムモジュールは、特定のタスクまたは実装する特定の抽象データタイプを実施する、ルーチン、プログラム、オブジェクト、コンポーネント、論理、データ構造等を含んでもよい。コンピュータシステム/サーバ12は、タスクが通信ネットワークを通してリンクされる遠隔処理デバイスによって実施される、分散型クラウドコンピューティング環境内で実践されてもよい。分散型クラウドコンピューティング環境では、プログラムモジュールは、メモリ記憶デバイスを含む、ローカルおよび遠隔コンピュータシステム記憶媒体の両方内に位置してもよい。
図15に示されるように、コンピューティングノード10内のコンピュータシステム/サーバ12は、汎用コンピューティングデバイスの形態で示される。コンピュータシステム/サーバ12のコンポーネントは、限定ではないが、1つ以上のプロセッサまたは処理ユニット16、システムメモリ28、およびメモリ28を含む種々のシステムコンポーネントシステムをプロセッサ16に結合する、バス18を含んでもよい。
バス18は、種々のバスアーキテクチャのいずれかを使用する、メモリバスまたはメモリコントローラ、周辺バス、加速グラフィックポート、およびプロセッサまたはローカルバスを含む、いくつかのタイプのバス構造のいずれかのうちの1つ以上のものを表す。一例として、限定ではなく、そのようなアーキテクチャは、産業標準的アーキテクチャ(ISA)バス、マイクロチャネルアーキテクチャ(MCA)バス、拡張ISA(EISA)バス、Video Electronics Standards Association(VESA)ローカルバス、および周辺コンポーネント相互接続(PCI)バスを含む。
コンピュータシステム/サーバ12は、典型的には、種々のコンピュータシステム可読媒体を含む。そのような媒体は、コンピュータシステム/サーバ12によってアクセス可能な任意の利用可能な媒体であってもよく、揮発性および不揮発性媒体のリムーバブルおよび非リムーバブル媒体の両方を含む。
システムメモリ28は、ランダムアクセスメモリ(RAM)30および/またはキャッシュメモリ32等の揮発性メモリの形態におけるコンピュータシステム可読媒体を含むことができる。コンピュータシステム/サーバ12はさらに、他のリムーバブル/非リムーバブル揮発性/不揮発性コンピュータシステム記憶媒体を含んでもよい。一例にすぎないが、記憶システム34は、非リムーバブル不揮発性磁気媒体(示されないが、典型的には、「ハードドライブ」と呼ばれる)から読み取り、そこに書き込むために提供されることができる。図示されないが、リムーバブル不揮発性磁気ディスク(例えば、「フロッピー(登録商標)ディスク」)から読み取り、そこに書き込むための、磁気ディスクドライブ、およびCD−ROM、DVD−ROM、または他の光学媒体等のリムーバブル不揮発性光ディスクから読み取り、そこに書き込むための、光ディスクドライブが、提供されることができる。そのようなインスタンスでは、それぞれ、1つ以上のデータ媒体インターフェースによって、バス18に接続されることができる。下記に描写および説明されるであろうように、メモリ28は、本開示の実施形態の機能を行うように構成される、プログラムモジュールのセット(例えば、少なくとも1つ)を有する、少なくとも1つのプログラム製品を含んでもよい。
プログラムモジュール42のセット(少なくとも1つ)を有する、プログラム/ユーティリティ40は、一例として、限定ではなく、メモリ28内に記憶され、オペレーティングシステム、1つ以上のアプリケーションプログラム、他のプログラムモジュール、およびプログラムデータであってもよい。オペレーティングシステム、1つ以上のアプリケーションプログラム、他のプログラムモジュール、およびプログラムデータまたはそれらのある組み合わせはそれぞれ、ネットワーキング環境の実装を含んでもよい。プログラムモジュール42は、概して、本明細書に説明される実施形態の機能および/または方法論を行う。
コンピュータシステム/サーバ12はまた、キーボード、ポインティングデバイス、ディスプレイ24等の1つ以上の外部デバイス14、ユーザがコンピュータシステム/サーバ12と相互作用することを可能にする、1つ以上のデバイス、および/またはコンピュータシステム/サーバ12が1つ以上の他のコンピューティングデバイスと通信することを可能にする任意のデバイス(例えば、ネットワークカード、モデム等)と通信してもよい。そのような通信は、入力/出力(I/O)インターフェース22を介して生じ得る。さらに、コンピュータシステム/サーバ12は、ネットワークアダプタ20を介して、ローカルエリアネットワーク(LAN)、一般的広域ネットワーク(WAN)、および/またはパブリックネットワーク(例えば、インターネット)等の1つ以上のネットワークと通信することができる。描写されるように、ネットワークアダプタ20は、バス18を介して、コンピュータシステム/サーバ12の他のコンポーネントと通信する。図示されないが、他のハードウェアおよび/またはソフトウェアコンポーネントも、コンピュータシステム/サーバ12と併用され得ることを理解されたい。実施例は、限定ではないが、マイクロコード、デバイスドライバ、冗長処理ユニット、外部ディスクドライブアレイ、RAIDシステム、テープドライブ、およびデータアーカイブ記憶システム等を含む。
他の実施形態では、コンピュータシステム/サーバは、1つ以上のカメラ(例えば、デジタルカメラ、明視野カメラ)または他の結像/感知デバイス(例えば、赤外線カメラまたはセンサ)に接続されてもよい。
本開示は、システム、方法、および/またはコンピュータプログラム製品を含む。コンピュータプログラム製品は、プロセッサに本開示の側面を行わせるためのコンピュータ可読プログラム命令をその上に有する、コンピュータ可読記憶媒体(または複数の媒体)を含んでもよい。
コンピュータ可読記憶媒体は、命令実行デバイスによる使用のための命令を留保および記憶し得る、有形デバイスであることができる。コンピュータ可読記憶媒体は、例えば、限定ではないが、電子記憶デバイス、磁気記憶デバイス、光学記憶デバイス、電磁記憶デバイス、半導体記憶デバイス、または前述の任意の好適な組み合わせであってもよい。コンピュータ可読記憶媒体のより具体的実施例の非包括的リストは、ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、消去可能なプログラム可能読取専用メモリ(EPROMまたはフラッシュメモリ)、静的ランダムアクセスメモリ(SRAM)、ポータブルコンパクトディスク読取専用メモリ(CD−ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピー(登録商標)ディスク、その上に記録される命令を有する、パンチカードまたは溝内の***構造等の機械的にエンコードされたデバイス、および前述の任意の好適な組み合わせを含む。コンピュータ可読記憶媒体は、本明細書で使用されるように、それ自体では、無線波または他の自由に伝搬する電磁波、導波管または他の伝送媒体を通して伝搬する、電磁波(例えば、光ファイバケーブルを通して通過する、光パルス)、またはワイヤを通して伝送される、電気信号等の一過性信号であるとして解釈されるべきではない。
本明細書に説明されるコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体から個別のコンピューティング/処理デバイスに、またはネットワーク、例えば、インターネット、ローカルエリアネットワーク、広域ネットワーク、および/または無線ネットワークを介して、外部コンピュータまたは外部記憶デバイスにダウンロードされることができる。ネットワークは、銅伝送ケーブル、光学伝送ファイバ、無線伝送、ルータ、ファイアウォール、スイッチ、ゲートウェイコンピュータ、および/またはエッジサーバを備えてもよい。各コンピューティング/処理デバイス内のネットワークアダプタカードまたはネットワークインターフェースは、コンピュータ可読プログラム命令をネットワークから受信し、個別のコンピューティング/処理デバイスの中のコンピュータ可読記憶媒体内への記憶のために、コンピュータ可読プログラム命令を転送する。
本開示の動作を行うためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、C++、もしくは同等物等の物体指向プログラミング言語、および「C」プログラミング言語もしくは類似プログラミング言語等の従来の手続型プログラミング言語を含む、1つ以上のプログラミング言語の任意の組み合わせで書き込まれる源コードもしくは物体コードのいずれかであってもよい。コンピュータ可読プログラム命令は、ユーザのコンピュータ上で完全に、ユーザのコンピュータ上で部分的に、独立型ソフトウェアパッケージとして、部分的にユーザのコンピュータ上および部分的に遠隔コンピュータ上で、または遠隔コンピュータもしくはサーバ上で完全に実行されてもよい。後者のシナリオでは、遠隔コンピュータは、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を含む、任意のタイプのネットワークを通して、ユーザのコンピュータに接続されてもよい、または接続は、外部コンピュータに行われてもよい(例えば、インターネットサービスプロバイダを使用して、インターネットを通して)。種々の実施形態では、例えば、プログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)、またはプログラマブル論理アレイ(PLA)を含む、電子回路が、本開示の側面を実施するために、コンピュータ可読プログラム命令の状態情報を利用して、電子回路を個人化することによって、コンピュータ可読プログラム命令を実行してもよい。
本開示の側面は、本開示の実施形態による、方法、装置(システム)、およびコンピュータプログラム製品のフローチャート図および/またはブロック図を参照して本明細書に説明される。フローチャート図および/またはブロック図の各ブロックならびにフローチャート図および/またはブロック図内のブロックの組み合わせは、コンピュータ可読プログラム命令によって実装されることができることを理解されたい。
これらのコンピュータ可読プログラム命令は、コンピュータまたは他のプログラマブルデータ処理装置のプロセッサを介して実行される、命令がフローチャートおよび/またはブロック図のブロックもしくは複数のブロックに規定される機能/行為を実装するための手段を作成するような機械を生産するために、汎用コンピュータ、特殊目的コンピュータ、または他のプログラマブルデータ処理装置のプロセッサに提供されてもよい。これらのコンピュータ可読プログラム命令はまた、その中に記憶される命令を有する、コンピュータ可読記憶媒体が、フローチャートおよび/またはブロック図のブロックもしくは複数のブロックに規定される機能/行為の側面を実装する、命令を含む、製造品を構成するように、コンピュータ、プログラマブルデータ処理装置、および/または他のデバイスに、特定の様式において機能するように指示し得る、コンピュータ可読記憶媒体内に記憶されてもよい。
コンピュータ可読プログラム命令はまた、コンピュータ、他のプログラマブル装置、または他のデバイス上で実行される、命令が、フローチャートおよび/またはブロック図のブロックもしくは複数のブロックに規定される機能/行為を実装するように、コンピュータ、他のプログラマブルデータ処理装置、または他のデバイス上にロードされ、一連の動作ステップをコンピュータ、他のプログラマブル装置、または他のデバイス上で実施させ、コンピュータ実装プロセスを生産させてもよい。
図中のフローチャートおよびブロック図は、本開示の種々の実施形態による、システム、方法、およびコンピュータプログラム製品の可能性として考えられる実装のアーキテクチャ、機能性、および動作を図示する。この点において、フローチャートまたはブロック図内の各ブロックは、規定された論理機能を実装するための1つ以上の実行可能命令を備える、モジュール、セグメント、または命令の一部を表してもよい。種々の代替実装では、ブロック内に記載される機能は、図に記載の順序から外れて生じ得る。例えば、連続して示される2つのブロックは、実際は、実質的に並行して実行されてもよい、またはブロックは、関わる機能性に応じて、時として、逆の順序で実行されてもよい。また、ブロック図および/またはフローチャート図の各ブロックならびにブロック図および/またはフローチャート図内のブロックの組み合わせは、規定された機能または行為を実施する、特殊目的のハードウェアベースのシステム、または特殊目的ハードウェアおよびコンピュータ命令の組み合わせによって実装されることができることに留意されたい。
本開示の種々の実施形態の説明は、例証目的のために提示されたが、包括的である、または開示される実施形態に限定されることを意図するものではない。多くの修正および変形例が、説明される実施形態の範囲および精神から逸脱することなく、当業者に明白となるであろう。本明細書で使用される専門用語は、実施形態の原理、市場に見出される技術に優る実践的用途または技術的改良を最良に説明する、または当業者が本明細書に開示される実施形態を理解することを可能にするように選定された。

Claims (49)

  1. 方法であって、
    画像を記録することであって、前記画像は、物体と、前記物体上に配置される第1の複数のマーカと、前記物体上に配置される第2の複数のマーカと、前記物体上に配置される第3の複数のマーカとを備える、ことと、
    前記画像および前記第1の複数のマーカを使用して、第1の深度を算出することと、
    前記画像および前記第2の複数のマーカを使用して、第2の深度を算出することと、
    前記画像および前記第3の複数のマーカを使用して、第3の深度を算出することと、
    第1の加重を前記第1の深度に割り当て、第2の加重を前記第2の深度に割り当て、第3の加重を前記第3の深度に割り当てることと、
    前記第1の深度、第2の深度、第3の深度、第1の加重、第2の加重、および第3の加重に基づいて、加重平均深度を算出することと
    を含む、方法。
  2. 前記画像を記録することは、1つ以上のデジタルカメラを用いて実施される、請求項1に記載の方法。
  3. 前記1つ以上のデジタルカメラは、立体視カメラシステムを備える、請求項2に記載の方法。
  4. 前記1つ以上のデジタルカメラは、プレノプティックカメラを備える、請求項2または3に記載の方法。
  5. 前記第1の複数のマーカは、基点マーカを備える、前記請求項のいずれかに記載の方法。
  6. 前記基点マーカは、液体インクを備える、請求項5に記載の方法。
  7. 前記画像を記録することは、
    構造化された光源から前記物体の表面上に構造化された光パターンをオーバーレイすることと、
    前記構造化された光パターンを前記物体上に記録することと、
    前記構造化された光パターンの幾何学的再構築を算出することと
    を含む、前記請求項のいずれかに記載の方法。
  8. 前記画像を記録することは、
    光源から前記物体の表面上に光パターンをオーバーレイすることと、
    前記光パターンの第1の画像を第1の場所における第1のカメラを用いて記録することと、
    前記光パターンの第2の画像を前記第1の場所から所定の距離だけ離れた第2の場所における第2のカメラを用いて記録することと、
    前記第1の画像と前記第2の画像との間の不均衡値を算出することと
    を含む、前記請求項のいずれかに記載の方法。
  9. 前記第3の複数のマーカは、前記物体の表面に適用される造影剤を備える、前記請求項のいずれかに記載の方法。
  10. 前記造影剤は、霧状液体染料である、請求項9に記載の方法。
  11. 前記第3の加重は、前記第1の加重および前記第2の加重を上回る、請求項1−10のいずれか1項に記載の方法。
  12. 前記第2の加重は、前記第1の加重および前記第3の加重を上回る、請求項1−10のいずれか1項に記載の方法。
  13. 前記第1の加重は、前記第2の加重および前記第3の加重を上回る、請求項1−10のいずれか1項に記載の方法。
  14. 前記第1の加重は、前記第2の加重および前記第3の加重に等しい、請求項1−10のいずれか1項に記載の方法。
  15. システムであって、
    結像デバイスと、
    コンピュータ可読記憶媒体を備えるコンピューティングノードであって、前記コンピュータ可読記憶媒体は、それとともに具現化されるプログラム命令を有し、前記プログラム命令は、前記コンピューティングノードのプロセッサに、
    画像を記録することであって、前記画像は、物体と、前記物体上に配置される第1の複数のマーカと、前記物体上に配置される第2の複数のマーカと、前記物体上に配置される第3の複数のマーカとを備える、ことと、
    前記画像および前記第1の複数のマーカを使用して、第1の深度を算出することと、
    前記画像および前記第2の複数のマーカを使用して、第2の深度を算出することと、
    前記画像および前記第3の複数のマーカを使用して、第3の深度を算出することと、
    第1の加重を前記第1の深度に割り当て、第2の加重を前記第2の深度に割り当て、第3の加重を前記第3の深度に割り当てることと、
    前記第1の深度、第2の深度、第3の深度、第1の加重、第2の加重、および第3の加重に基づいて、加重平均深度を算出することと
    を含む方法を実施させるように、前記プロセッサによって実行可能である、コンピューティングノードと
    を備える、システム。
  16. 前記結像デバイスは、1つ以上のデジタルカメラを備える、請求項15に記載のシステム。
  17. 前記1つ以上のデジタルカメラは、立体視カメラシステムを備える、請求項16に記載のシステム。
  18. 前記1つ以上のデジタルカメラは、プレノプティックカメラを備える、請求項16または17に記載のシステム。
  19. 前記第1の複数のマーカは、基点マーカを備える、請求項15−18のいずれか1項に記載のシステム。
  20. 前記基点マーカは、液体インクを備える、請求項19に記載のシステム。
  21. 構造化された光パターンを前記物体の表面上に投影するように構成される構造化された光源をさらに備える、請求項15−20のいずれか1項に記載のシステム。
  22. 前記画像を記録することは、
    前記構造化された光源から前記物体の表面上に前記構造化された光パターンをオーバーレイすることと、
    前記構造化された光パターンを前記物体上に記録することと、
    前記構造化された光パターンの幾何学的再構築を算出することと
    を含む、請求項21に記載のシステム。
  23. 前記画像を記録することは、
    光源から前記物体の表面上に光パターンをオーバーレイすることと、
    前記光パターンの第1の画像を第1の場所における第1のカメラを用いて記録することと、
    前記光パターンの第2の画像を前記第1の場所から所定の距離だけ離れた第2の場所における第2のカメラを用いて記録することと、
    前記第1の画像と前記第2の画像との間の不均衡値を算出することと
    を含む、請求項15−22のいずれか1項に記載のシステム。
  24. 前記第3の複数のマーカは、前記物体の表面に適用される造影剤を備える、請求項15−23のいずれか1項に記載のシステム。
  25. 前記造影剤は、霧状液体染料である、請求項24に記載のシステム。
  26. 前記第3の加重は、前記第1の加重および前記第2の加重を上回る、請求項15−25のいずれか1項に記載のシステム。
  27. 前記第2の加重は、前記第1の加重および前記第3の加重を上回る、請求項15−25のいずれか1項に記載のシステム。
  28. 前記第1の加重は、前記第2の加重および前記第3の加重を上回る、請求項15−25のいずれか1項に記載のシステム。
  29. 前記第1の加重は、前記第2の加重および前記第3の加重に等しい、請求項15−25のいずれか1項に記載のシステム。
  30. 近位および遠位端を有する内視鏡をさらに備え、前記結像デバイスは、前記近位端に配置される、請求項15−29のいずれか1項に記載のシステム。
  31. コンピュータ可読記憶媒体を備えるコンピュータプログラム製品であって、前記コンピュータ可読記憶媒体は、それとともに具現化されるプログラム命令を有し、前記プログラム命令は、プロセッサに、
    画像を記録することであって、前記画像は、物体と、前記物体上に配置される第1の複数のマーカと、前記物体上に配置される第2の複数のマーカと、前記物体上に配置される第3の複数のマーカとを備える、ことと、
    前記画像および前記第1の複数のマーカを使用して、第1の深度を算出することと、
    前記画像および前記第2の複数のマーカを使用して、第2の深度を算出することと、
    前記画像および前記第3の複数のマーカを使用して、第3の深度を算出することと、
    第1の加重を前記第1の深度に割り当て、第2の加重を前記第2の深度に割り当て、第3の加重を前記第3の深度に割り当てることと、
    前記第1の深度、第2の深度、第3の深度、第1の加重、第2の加重、および第3の加重に基づいて、加重平均深度を算出することと
    を含む方法を実施させるように、前記プロセッサによって実行可能である、コンピュータプログラム製品。
  32. 前記画像を記録することは、1つ以上のデジタルカメラを用いて実施される、請求項31に記載のコンピュータプログラム製品。
  33. 前記1つ以上のデジタルカメラは、立体視カメラシステムを備える、請求項32に記載のコンピュータプログラム製品。
  34. 前記1つ以上のデジタルカメラは、プレノプティックカメラを備える、請求項32または33に記載のコンピュータプログラム製品。
  35. 前記第1の複数のマーカは、基点マーカを備える、請求項31−34のいずれか1項に記載のコンピュータプログラム製品。
  36. 前記基点マーカは、液体インクを備える、請求項35に記載のコンピュータプログラム製品。
  37. 前記画像を記録することは、
    構造化された光源から前記物体の表面上に構造化された光パターンをオーバーレイすることと、
    前記構造化された光パターンを前記物体上に記録することと、
    前記構造化された光パターンの幾何学的再構築を算出することと
    を含む、請求項31−36のいずれか1項に記載のコンピュータプログラム製品。
  38. 前記画像を記録することは、
    光源から前記物体の表面上に光パターンをオーバーレイすることと、
    前記光パターンの第1の画像を第1の場所における第1のカメラを用いて記録することと、
    前記光パターンの第2の画像を前記第1の場所から所定の距離だけ離れた第2の場所における第2のカメラを用いて記録することと、
    前記第1の画像と前記第2の画像との間の不均衡値を算出することと
    を含む、請求項31−37のいずれか1項に記載のコンピュータプログラム製品。
  39. 前記第3の複数のマーカは、前記物体の表面に適用される造影剤を備える、請求項31−38のいずれか1項に記載のコンピュータプログラム製品。
  40. 前記造影剤は、霧状液体染料である、請求項39に記載のコンピュータプログラム製品。
  41. 前記第3の加重は、前記第1の加重および前記第2の加重を上回る、請求項31−40のいずれか1項に記載のコンピュータプログラム製品。
  42. 前記第2の加重は、前記第1の加重および前記第3の加重を上回る、請求項31−40のいずれか1項に記載のコンピュータプログラム製品。
  43. 前記第1の加重は、前記第2の加重および前記第3の加重を上回る、請求項31−40のいずれか1項に記載のコンピュータプログラム製品。
  44. 前記第1の加重は、前記第2の加重および前記第3の加重に等しい、請求項31−40のいずれか1項に記載のコンピュータプログラム製品。
  45. 方法であって、
    画像を記録することであって、前記画像は、物体と、前記物体上に配置される第1の複数のマーカと、前記物体上に配置される第2の複数のマーカとを備える、ことと、
    前記画像および前記第1の複数のマーカを使用して、第1の深度を算出することと、
    前記画像および前記第2の複数のマーカを使用して、第2の深度を算出することと、
    第1の加重を前記第1の深度に割り当て、第2の加重を前記第2の深度に割り当てることと、
    前記第1の深度、第2の深度、第1の加重、および第2の加重に基づいて、加重平均深度を算出することと
    を含む、方法。
  46. システムであって、
    結像デバイスと、
    コンピュータ可読記憶媒体を備えるコンピューティングノードであって、前記コンピュータ可読記憶媒体は、それとともに具現化されるプログラム命令を有し、前記プログラム命令は、前記コンピューティングノードのプロセッサに、
    画像を記録することであって、前記画像は、物体と、前記物体上に配置される第1の複数のマーカと、前記物体上に配置される第2の複数のマーカとを備える、ことと、
    前記画像および前記第1の複数のマーカを使用して、第1の深度を算出することと、
    前記画像および前記第2の複数のマーカを使用して、第2の深度を算出することと、
    第1の加重を前記第1の深度に割り当て、第2の加重を前記第2の深度に割り当てることと、
    前記第1の深度、第2の深度、第1の加重、および第2の加重に基づいて、加重平均深度を算出することと
    を含む方法を実施させるように、前記プロセッサによって実行可能である、コンピューティングノードと
    を備える、システム。
  47. コンピュータ可読記憶媒体を備えるコンピュータプログラム製品であって、前記コンピュータ可読記憶媒体は、それとともに具現化されるプログラム命令を有し、前記プログラム命令は、プロセッサに、
    画像を記録することであって、前記画像は、物体と、前記物体上に配置される第1の複数のマーカと、前記物体上に配置される第2の複数のマーカとを備える、ことと、
    前記画像および前記第1の複数のマーカを使用して、第1の深度を算出することと、
    前記画像および前記第2の複数のマーカを使用して、第2の深度を算出することと、
    第1の加重を前記第1の深度に割り当て、第2の加重を前記第2の深度に割り当てることと、
    前記第1の深度、第2の深度、第1の加重、および第2の加重に基づいて、加重平均深度を算出することと
    を含む方法を実施させるように、前記プロセッサによって実行可能である、コンピュータプログラム製品。
  48. 統合された外科手術デバイスであって、
    近位端および遠位端を有する内視鏡と、
    前記内視鏡の遠位端に光学的に結合される結像デバイスと、
    コンピュータ可読記憶媒体を備えるコンピューティングノードであって、前記コンピュータ可読記憶媒体は、それとともに具現化されるプログラム命令を有し、前記プログラム命令は、前記コンピューティングノードのプロセッサに、
    画像を記録することであって、前記画像は、物体と、前記物体上に配置される第1の複数のマーカと、前記物体上に配置される第2の複数のマーカと、前記物体上に配置される第3の複数のマーカとを備える、ことと、
    前記画像および前記第1の複数のマーカを使用して、第1の深度を算出することと、
    前記画像および前記第2の複数のマーカを使用して、第2の深度を算出することと、
    前記画像および前記第3の複数のマーカを使用して、第3の深度を算出することと、
    第1の加重を前記第1の深度に割り当て、第2の加重を前記第2の深度に割り当て、第3の加重を前記第3の深度に割り当てることと、
    前記第1の深度、第2の深度、第3の深度、第1の加重、第2の加重、および第3の加重に基づいて、加重平均深度を算出することと
    を含む方法を実施させるように、前記プロセッサによって実行可能である、コンピューティングノードと
    を備える、統合された外科手術デバイス。
  49. 統合された外科手術デバイスであって、
    近位端および遠位端を有する内視鏡と、
    前記内視鏡の遠位端に光学的に結合される結像デバイスと、
    コンピュータ可読記憶媒体を備えるコンピューティングノードであって、前記コンピュータ可読記憶媒体は、それとともに具現化されるプログラム命令を有し、前記プログラム命令は、前記コンピューティングノードのプロセッサに、
    画像を記録することであって、前記画像は、物体と、前記物体上に配置される第1の複数のマーカと、前記物体上に配置される第2の複数のマーカとを備える、ことと、
    前記画像および前記第1の複数のマーカを使用して、第1の深度を算出することと、
    前記画像および前記第2の複数のマーカを使用して、第2の深度を算出することと、
    第1の加重を前記第1の深度に割り当て、第2の加重を前記第2の深度に割り当てることと、
    前記第1の深度、第2の深度、第1の加重、および第2の加重に基づいて、加重平均深度を算出することと
    を含む方法を実施させるように、前記プロセッサによって実行可能である、コンピューティングノードと
    を備える、統合された外科手術デバイス。
JP2021526407A 2018-07-19 2019-07-19 自動化された外科手術ロボットのためのビジョンシステム内の深度のマルチモード感知のためのシステムおよび方法 Active JP7297891B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862700700P 2018-07-19 2018-07-19
US62/700,700 2018-07-19
PCT/US2019/042647 WO2020018931A1 (en) 2018-07-19 2019-07-19 Systems and methods for multi-modal sensing of depth in vision systems for automated surgical robots

Publications (3)

Publication Number Publication Date
JP2021531482A true JP2021531482A (ja) 2021-11-18
JPWO2020018931A5 JPWO2020018931A5 (ja) 2022-07-27
JP7297891B2 JP7297891B2 (ja) 2023-06-26

Family

ID=69163745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021526407A Active JP7297891B2 (ja) 2018-07-19 2019-07-19 自動化された外科手術ロボットのためのビジョンシステム内の深度のマルチモード感知のためのシステムおよび方法

Country Status (7)

Country Link
US (2) US11179218B2 (ja)
EP (1) EP3824621A4 (ja)
JP (1) JP7297891B2 (ja)
KR (1) KR102545980B1 (ja)
CN (1) CN112740666A (ja)
CA (1) CA3106823A1 (ja)
WO (1) WO2020018931A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7076447B2 (ja) 2016-11-24 2022-05-27 ユニヴァーシティ オブ ワシントン ヘッドマウントディスプレイのための光照射野キャプチャおよびレンダリング
EP3824621A4 (en) 2018-07-19 2022-04-27 Activ Surgical, Inc. SYSTEMS AND METHODS FOR MULTIMODAL DETECTION OF DEPTH IN VISION SYSTEMS FOR AUTOMATED SURGICAL ROBOTS

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013544449A (ja) * 2010-09-08 2013-12-12 マイクロソフト コーポレーション 構造化光および立体視に基づく深度カメラ

Family Cites Families (285)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5603318A (en) 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
GB9515311D0 (en) 1995-07-26 1995-09-20 3D Scanners Ltd Stripe scanners and methods of scanning
DE19636354A1 (de) 1996-09-02 1998-03-05 Ruedger Dipl Ing Rubbert Verfahren und Vorrichtung zur Durchführung von optischen Aufnahmen
US6081322A (en) 1997-10-16 2000-06-27 Research Foundation Of State Of New York NIR clinical opti-scan system
US6373963B1 (en) 1998-02-05 2002-04-16 Textile/Clothing Technology Corporation Systems, methods and computer program for measuring the surface contour of an object
DE19815201A1 (de) 1998-04-04 1999-10-07 Link Johann & Ernst Gmbh & Co Meßanordnung zur Erfassung von Dimensionen von Prüflingen, vorzugsweise von Hohlkörpern, insbesondere von Bohrungen in Werkstücken, sowie Verfahren zur Messung solcher Dimensionen
WO1999058930A1 (en) 1998-05-14 1999-11-18 Metacreations Corporation Structured-light, triangulation-based three-dimensional digitizer
DE19829278C1 (de) 1998-06-30 2000-02-03 Sirona Dental Systems Gmbh 3-D-Kamera zur Erfassung von Oberflächenstrukturen, insbesondere für zahnmedizinische Zwecke
US6879324B1 (en) 1998-07-14 2005-04-12 Microsoft Corporation Regional progressive meshes
IL125659A (en) 1998-08-05 2002-09-12 Cadent Ltd Method and device for three-dimensional simulation of a structure
DE19837932C2 (de) 1998-08-20 2000-09-07 Bioshape Ag Verfahren und Vorrichtung zur Ermittlung der Oberflächenform von biologischem Gewebe
US7068825B2 (en) 1999-03-08 2006-06-27 Orametrix, Inc. Scanning system and calibration method for capturing precise three-dimensional information of objects
US7107116B2 (en) 1999-03-29 2006-09-12 Genex Technologies, Inc. Diffuse optical tomography system and method of use
US7099732B2 (en) 1999-03-29 2006-08-29 Genex Technologies, Inc. Sanitary sleeve or tip for intra-oral three-dimensional camera
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6563105B2 (en) 1999-06-08 2003-05-13 University Of Washington Image acquisition with depth enhancement
CA2278108C (en) 1999-07-20 2008-01-29 The University Of Western Ontario Three-dimensional measurement method and apparatus
US7224384B1 (en) 1999-09-08 2007-05-29 3Dv Systems Ltd. 3D imaging system
US7006236B2 (en) 2002-05-22 2006-02-28 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
DE50000335D1 (de) 2000-04-05 2002-09-05 Brainlab Ag Referenzierung eines Patienten in einem medizinischen Navigationssystem mittels aufgestrahlter Lichtpunkte
US6564086B2 (en) 2000-05-03 2003-05-13 Rocky Mountain Biosystems, Inc. Prosthesis and method of making
US6850872B1 (en) 2000-08-30 2005-02-01 Microsoft Corporation Facial image processing methods and systems
JP2002164066A (ja) 2000-11-22 2002-06-07 Mitsubishi Heavy Ind Ltd 積層型熱交換器
JP2002345733A (ja) 2001-05-29 2002-12-03 Fuji Photo Film Co Ltd 撮像装置
JP2003075137A (ja) 2001-09-04 2003-03-12 Minolta Co Ltd 撮影システム並びにそれに用いられる撮像装置および3次元計測用補助ユニット
JP3962588B2 (ja) 2002-01-07 2007-08-22 キヤノン株式会社 三次元画像処理方法、三次元画像処理装置、三次元画像処理システムおよび三次元画像処理プログラム
TW567693B (en) 2002-04-19 2003-12-21 Infopivot Technologies Inc Method for solving unavailability of Internet services using floating IP
JP4054222B2 (ja) 2002-06-05 2008-02-27 オリンパス株式会社 内視鏡装置用光源装置
US7385708B2 (en) 2002-06-07 2008-06-10 The University Of North Carolina At Chapel Hill Methods and systems for laser based real-time structured light depth extraction
US20110015518A1 (en) 2002-06-13 2011-01-20 Martin Schmidt Method and instrument for surgical navigation
US7277599B2 (en) * 2002-09-23 2007-10-02 Regents Of The University Of Minnesota System and method for three-dimensional video imaging using a single camera
US6977732B2 (en) 2002-12-26 2005-12-20 National Taiwan University Miniature three-dimensional contour scanner
DE10304111B4 (de) 2003-01-31 2011-04-28 Sirona Dental Systems Gmbh Aufnahmeverfahren für ein Bild eines Aufnahmeobjekts
JP4798945B2 (ja) 2003-03-05 2011-10-19 トヨタ自動車株式会社 撮像装置
AU2004223469B2 (en) 2003-03-24 2009-07-30 D4D Technologies, Llc Laser digitizer system for dental applications
WO2004109601A1 (en) 2003-05-30 2004-12-16 Dreamworks Rendering of soft shadows using depth maps
US7450783B2 (en) 2003-09-12 2008-11-11 Biopticon Corporation Methods and systems for measuring the size and volume of features on live tissues
US20050096515A1 (en) 2003-10-23 2005-05-05 Geng Z. J. Three-dimensional surface image guided adaptive therapy system
US7951073B2 (en) 2004-01-21 2011-05-31 Boston Scientific Limited Endoscopic device having spray mechanism and related methods of use
US7330577B2 (en) 2004-01-27 2008-02-12 Densys Ltd. Three-dimensional modeling of the oral cavity by projecting a two-dimensional array of random patterns
WO2005076198A1 (en) 2004-02-09 2005-08-18 Cheol-Gwon Kang Device for measuring 3d shape using irregular pattern and method for the same
DE102004008164B3 (de) 2004-02-11 2005-10-13 Karl Storz Gmbh & Co. Kg Verfahren und Vorrichtung zum Erstellen zumindest eines Ausschnitts eines virtuellen 3D-Modells eines Körperinnenraums
US20050253849A1 (en) 2004-05-13 2005-11-17 Pixar Custom spline interpolation
US7698068B2 (en) 2004-06-17 2010-04-13 Cadent Ltd. Method for providing data associated with the intraoral cavity
JP4589048B2 (ja) 2004-08-04 2010-12-01 オリンパス株式会社 カプセル型内視鏡
US7961912B2 (en) 2004-10-14 2011-06-14 Stevick Glen R Method and apparatus for dynamic space-time imaging system
US7620209B2 (en) 2004-10-14 2009-11-17 Stevick Glen R Method and apparatus for dynamic space-time imaging system
US20080312540A1 (en) 2004-12-08 2008-12-18 Vasilis Ntziachristos System and Method for Normalized Flourescence or Bioluminescence Imaging
US8027710B1 (en) 2005-01-28 2011-09-27 Patrick Dannan Imaging system for endoscopic surgery
JP5001286B2 (ja) 2005-10-11 2012-08-15 プライム センス リミティド 対象物再構成方法およびシステム
CA2625775A1 (en) 2005-10-14 2007-04-19 Applied Research Associates Nz Limited A method of monitoring a surface feature and apparatus therefor
KR100752758B1 (ko) 2005-10-19 2007-08-29 (주) 인텍플러스 영상 측정 장치 및 그 방법
US20070115484A1 (en) 2005-10-24 2007-05-24 Peisen Huang 3d shape measurement system and method including fast three-step phase shifting, error compensation and calibration
US7898651B2 (en) 2005-10-24 2011-03-01 General Electric Company Methods and apparatus for inspecting an object
US7489408B2 (en) 2005-11-15 2009-02-10 General Electric Company Optical edge break gage
PL1969307T3 (pl) 2005-11-28 2010-12-31 3Shape As Kodowane światło strukturalne
DE102005060312A1 (de) 2005-12-16 2007-06-28 Siemens Ag Abtasteinrichtung zur optischen Abtastung von Oberflächen
DE102006004583A1 (de) 2006-02-01 2007-08-09 Siemens Ag Optische Abtasteinrichtung
JP5044126B2 (ja) 2006-02-23 2012-10-10 オリンパス株式会社 内視鏡観察装置および画像形成を行う内視鏡の作動方法
WO2007109678A2 (en) 2006-03-20 2007-09-27 Baylor College Of Medicine Method and system for non-contact fluorescence optical tomography with patterned illumination
JP4864511B2 (ja) 2006-03-31 2012-02-01 富士フイルム株式会社 電子内視鏡装置およびプログラム
US7435217B2 (en) 2006-04-17 2008-10-14 Microvision, Inc. Scanned beam imagers and endoscopes with positionable light collector
WO2007139187A1 (ja) 2006-05-31 2007-12-06 National University Corporation Chiba University 3次元画像構築装置及び方法並びにプログラム
EP1862115B1 (de) 2006-05-31 2009-03-18 BrainLAB AG Registrierung mittels Strahlungsmarkierungselementen
US8125648B2 (en) * 2006-06-05 2012-02-28 Board Of Regents, The University Of Texas System Polarization-sensitive spectral interferometry
US20110057930A1 (en) 2006-07-26 2011-03-10 Inneroptic Technology Inc. System and method of using high-speed, high-resolution depth extraction to provide three-dimensional imagery for endoscopy
US20080123910A1 (en) 2006-09-19 2008-05-29 Bracco Imaging Spa Method and system for providing accuracy evaluation of image guided surgery
US20080107305A1 (en) 2006-11-02 2008-05-08 Northern Digital Inc. Integrated mapping system
US8326020B2 (en) 2007-02-28 2012-12-04 Sungkyunkwan University Foundation Structural light based depth imaging method and system using signal separation coding, and error correction thereof
US7995798B2 (en) 2007-10-15 2011-08-09 Given Imaging Ltd. Device, system and method for estimating the size of an object in a body lumen
DE102007054906B4 (de) 2007-11-15 2011-07-28 Sirona Dental Systems GmbH, 64625 Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten
ES2372515B2 (es) 2008-01-15 2012-10-16 Universidad De La Laguna Cámara para la adquisición en tiempo real de la información visual de escenas tridimensionales.
US9072445B2 (en) 2008-01-24 2015-07-07 Lifeguard Surgical Systems Inc. Common bile duct surgical imaging system
US9094675B2 (en) * 2008-02-29 2015-07-28 Disney Enterprises Inc. Processing image data from multiple cameras for motion pictures
US7821649B2 (en) 2008-03-05 2010-10-26 Ge Inspection Technologies, Lp Fringe projection system and method for a probe suitable for phase-shift analysis
JP2009240621A (ja) 2008-03-31 2009-10-22 Hoya Corp 内視鏡装置
EP2286368B1 (en) 2008-05-06 2013-09-04 Flashscan3d, Llc System and method for structured light illumination with frame subwindows
US20100113921A1 (en) 2008-06-02 2010-05-06 Uti Limited Partnership Systems and Methods for Object Surface Estimation
DE102008040947B4 (de) 2008-08-01 2014-02-06 Sirona Dental Systems Gmbh 3D-Dentalkamera zur Erfassung von Oberflächenstrukturen eines Messobjekts mittels Triangulation
CN102113309B (zh) 2008-08-03 2013-11-06 微软国际控股私有有限公司 卷帘相机***
US8406859B2 (en) 2008-08-10 2013-03-26 Board Of Regents, The University Of Texas System Digital light processing hyperspectral imaging apparatus
US9282926B2 (en) 2008-12-18 2016-03-15 Sirona Dental Systems Gmbh Camera for recording surface structures, such as for dental purposes
KR101526866B1 (ko) 2009-01-21 2015-06-10 삼성전자주식회사 깊이 정보를 이용한 깊이 노이즈 필터링 방법 및 장치
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US9091623B2 (en) * 2009-02-16 2015-07-28 Satake Usa, Inc. System to determine product characteristics, counts, and per unit weight details
WO2010096453A1 (en) 2009-02-17 2010-08-26 Board Of Regents, The University Of Texas System Methods of producing laser speckle contrast images
WO2010096447A2 (en) 2009-02-17 2010-08-26 Board Of Regents, The University Of Texas System Quantitative imaging with multi-exposure speckle imaging (mesi)
US20100265557A1 (en) 2009-04-21 2010-10-21 Jesper Sallander Optical Systems Configured to Generate More Closely Spaced Light Beams and Pattern Generators Including the Same
US9135502B2 (en) 2009-05-11 2015-09-15 Universitat Zu Lubeck Method for the real-time-capable, computer-assisted analysis of an image sequence containing a variable pose
US7763841B1 (en) 2009-05-27 2010-07-27 Microsoft Corporation Optical component for a depth sensor
JP5361592B2 (ja) 2009-07-24 2013-12-04 オリンパス株式会社 内視鏡装置、計測方法、およびプログラム
KR20110018696A (ko) 2009-08-18 2011-02-24 주식회사 이턴 입체 영상 처리 장치 및 방법
US8264536B2 (en) 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
DE112010003417A5 (de) 2009-08-27 2012-08-16 Naviswiss AB Endoskop und verfahren zu dessen verwendung
US8723118B2 (en) 2009-10-01 2014-05-13 Microsoft Corporation Imager for constructing color and depth images
US20110080471A1 (en) 2009-10-06 2011-04-07 Iowa State University Research Foundation, Inc. Hybrid method for 3D shape measurement
US10045882B2 (en) 2009-10-30 2018-08-14 The Johns Hopkins University Surgical instrument and systems with integrated optical sensor
US20110123098A1 (en) 2009-11-24 2011-05-26 Maurice Moshe Ernst System and a Method for Three-dimensional Modeling of a Three-dimensional Scene Features with a Cooling System
US20120206587A1 (en) 2009-12-04 2012-08-16 Orscan Technologies Ltd System and method for scanning a human body
US8320621B2 (en) 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
EP2523621B1 (en) 2010-01-13 2016-09-28 Koninklijke Philips N.V. Image integration based registration and navigation for endoscopic surgery
US8723923B2 (en) 2010-01-14 2014-05-13 Alces Technology Structured light system
EP2359745A1 (en) 2010-02-12 2011-08-24 Helmholtz Zentrum München Deutsches Forschungszentrum für Gesundheit und Umwelt (GmbH) Method and device for multi-spectral photonic imaging
EP2533679B1 (en) 2010-02-12 2017-01-11 Koninklijke Philips N.V. Laser enhanced reconstruction of 3d surface
US8872824B1 (en) 2010-03-03 2014-10-28 Nvidia Corporation System, method, and computer program product for performing shadowing utilizing shadow maps and ray tracing
US8279418B2 (en) 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
WO2011134083A1 (en) 2010-04-28 2011-11-03 Ryerson University System and methods for intraoperative guidance feedback
US8330804B2 (en) 2010-05-12 2012-12-11 Microsoft Corporation Scanned-beam depth mapping to 2D image
US9557574B2 (en) 2010-06-08 2017-01-31 Microsoft Technology Licensing, Llc Depth illumination and detection optics
US8558873B2 (en) 2010-06-16 2013-10-15 Microsoft Corporation Use of wavefront coding to create a depth image
US20130253313A1 (en) 2010-08-02 2013-09-26 The Johns Hopkins University Autofocusing endoscope and system
US9833145B2 (en) 2010-08-11 2017-12-05 Snu R&Db Foundation Method for simultaneously detecting fluorescence and raman signals for multiple fluorescence and raman signal targets, and medical imaging device for simultaneously detecting multiple targets using the method
US9157733B2 (en) 2010-09-10 2015-10-13 Dimensional Photonics International, Inc. Method of data acquisition for three-dimensional imaging
AU2011305543A1 (en) 2010-09-21 2013-04-11 The Johns Hopkins University Optical sensing system for cochlear implant surgery
US8760517B2 (en) 2010-09-27 2014-06-24 Apple Inc. Polarized images for security
CN102008282B (zh) 2010-10-29 2012-08-08 深圳大学 数字印模口内扫描仪及口腔内表面形貌图像实时重建***
US9345389B2 (en) 2010-11-12 2016-05-24 Emory University Additional systems and methods for providing real-time anatomical guidance in a diagnostic or therapeutic procedure
US9506749B2 (en) 2010-11-15 2016-11-29 Seikowave, Inc. Structured light 3-D measurement module and system for illuminating an area-under-test using a fixed-pattern optic
US9599461B2 (en) 2010-11-16 2017-03-21 Ectoscan Systems, Llc Surface data acquisition, storage, and assessment system
US8649024B2 (en) 2010-12-03 2014-02-11 Zygo Corporation Non-contact surface characterization using modulated illumination
US8803952B2 (en) 2010-12-20 2014-08-12 Microsoft Corporation Plural detector time-of-flight depth mapping
US20120165681A1 (en) 2010-12-23 2012-06-28 Tyco Healthcare Group Lp Delineating Skin or Surface Lesions
US9226673B2 (en) 2011-01-10 2016-01-05 East Carolina University Methods, systems and computer program products for non-invasive determination of blood flow distribution using speckle imaging techniques and hemodynamic modeling
EP2663222B1 (en) 2011-01-10 2021-10-27 East Carolina University Methods and systems for non-invasive determination of blood flow distribution using speckle imaging techniques and hemodynamic modeling
US8817046B2 (en) * 2011-04-21 2014-08-26 Microsoft Corporation Color channels and optical markers
EP2689708B1 (en) 2011-04-27 2016-10-19 Olympus Corporation Endoscopic apparatus and measurement method
JP5841353B2 (ja) 2011-05-24 2016-01-13 オリンパス株式会社 内視鏡装置および画像取得方法
JP5846763B2 (ja) 2011-05-24 2016-01-20 オリンパス株式会社 内視鏡装置
JP5830270B2 (ja) 2011-05-24 2015-12-09 オリンパス株式会社 内視鏡装置および計測方法
WO2012167201A1 (en) 2011-06-01 2012-12-06 Digital Light Innovations System and method for hyperspectral illumination
WO2012170963A1 (en) 2011-06-08 2012-12-13 Digital Light Innovations System and method for hyperspectral imaging
US9001190B2 (en) 2011-07-05 2015-04-07 Microsoft Technology Licensing, Llc Computer vision system and method using a depth sensor
KR20130011141A (ko) 2011-07-20 2013-01-30 삼성전자주식회사 내시경 및 내시경 시스템
US9444981B2 (en) 2011-07-26 2016-09-13 Seikowave, Inc. Portable structured light measurement module/apparatus with pattern shifting device incorporating a fixed-pattern optic for illuminating a subject-under-test
US8672838B2 (en) 2011-08-12 2014-03-18 Intuitive Surgical Operations, Inc. Image capture unit in a surgical instrument
US8784301B2 (en) 2011-08-12 2014-07-22 Intuitive Surgical Operations, Inc. Image capture unit and method with an extended depth of field
US8764633B2 (en) 2011-08-12 2014-07-01 Intuitive Surgical Operations, Inc. Feature differentiation image capture unit and method in a surgical instrument
US9254103B2 (en) 2011-08-15 2016-02-09 The Trustees Of Dartmouth College Operative microscope having diffuse optical imaging system with tomographic image reconstruction and superposition in field of view
US9491441B2 (en) 2011-08-30 2016-11-08 Microsoft Technology Licensing, Llc Method to extend laser depth map range
JP5926909B2 (ja) * 2011-09-07 2016-05-25 オリンパス株式会社 蛍光観察装置
US9142025B2 (en) 2011-10-05 2015-09-22 Electronics And Telecommunications Research Institute Method and apparatus for obtaining depth information using optical pattern
WO2013058978A1 (en) 2011-10-17 2013-04-25 Kimmel Zebadiah M Method and apparatus for sizing and fitting an individual for apparel, accessories, or prosthetics
US8605993B2 (en) * 2011-11-21 2013-12-10 Robo-team Ltd. Methods and systems of merging depth data from a plurality of disparity maps
DE102011119608B4 (de) 2011-11-29 2021-07-29 Karl Storz Se & Co. Kg Vorrichtung und Verfahren zur endoskopischen 3D-Datenerfassung
US11510600B2 (en) 2012-01-04 2022-11-29 The Trustees Of Dartmouth College Method and apparatus for quantitative and depth resolved hyperspectral fluorescence and reflectance imaging for surgical guidance
KR102011169B1 (ko) 2012-03-05 2019-08-14 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 광 폴오프에 기초한 깊이 이미지의 생성 기법
JP5654511B2 (ja) 2012-03-14 2015-01-14 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法
WO2013136620A1 (ja) 2012-03-14 2013-09-19 独立行政法人産業技術総合研究所 高次元輝度情報を用いた縞画像の位相分布解析方法、装置およびそのプログラム
JP5995484B2 (ja) 2012-03-30 2016-09-21 キヤノン株式会社 三次元形状測定装置、三次元形状測定方法、及びプログラム
JP2015523102A (ja) * 2012-04-16 2015-08-13 チルドレンズ ナショナル メディカル センターChildren’S National Medical Center 手術及び介入処置での追跡及び制御の為のデュアルモードステレオイメージングシステム
US20140194747A1 (en) 2012-05-01 2014-07-10 Empire Technology Development Llc Infrared scanner and projector to indicate cancerous cells
US20130296712A1 (en) 2012-05-03 2013-11-07 Covidien Lp Integrated non-contact dimensional metrology tool
JP5930531B2 (ja) 2012-05-24 2016-06-08 三菱電機エンジニアリング株式会社 撮像装置および撮像方法
US9674436B2 (en) 2012-06-18 2017-06-06 Microsoft Technology Licensing, Llc Selective imaging zones of an imaging sensor
US9471864B2 (en) 2012-06-22 2016-10-18 Microsoft Technology Licensing, Llc Encoding data in depth patterns
US9220570B2 (en) 2012-06-29 2015-12-29 Children's National Medical Center Automated surgical and interventional procedures
US8896594B2 (en) 2012-06-30 2014-11-25 Microsoft Corporation Depth sensing with depth-adaptive illumination
JP6005278B2 (ja) 2012-07-25 2016-10-12 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft 特に透過性かつ散乱性の表面における三次元測定のためのカラーコーディング
US20140031665A1 (en) 2012-07-25 2014-01-30 Covidien Lp Telecentric Scale Projection System for Real-Time In-Situ Surgical Metrology
CN104125794B (zh) 2012-08-07 2016-06-22 奥林巴斯株式会社 扫描型内窥镜装置
US9297889B2 (en) 2012-08-14 2016-03-29 Microsoft Technology Licensing, Llc Illumination light projection for a depth camera
US9696427B2 (en) 2012-08-14 2017-07-04 Microsoft Technology Licensing, Llc Wide angle depth detection
US9057784B2 (en) 2012-08-14 2015-06-16 Microsoft Technology Licensing, Llc Illumination light shaping for a depth camera
US20140092281A1 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating Images from Light Fields Utilizing Virtual Viewpoints
US20150238276A1 (en) 2012-09-30 2015-08-27 M.S.T. Medical Surgery Technologies Ltd. Device and method for assisting laparoscopic surgery - directing and maneuvering articulating tool
US9070194B2 (en) 2012-10-25 2015-06-30 Microsoft Technology Licensing, Llc Planar surface detection
EP2912405B1 (en) 2012-10-29 2017-10-18 7D Surgical Inc. Integrated illumination and optical surface topology detection system and methods of use thereof
DE102012021185A1 (de) 2012-10-30 2014-04-30 Smart Optics Sensortechnik Gmbh Verfahren zur optischen 3D-Vermessung von Zähnen mit verkleinerter Point-Spread-Funktion
US9304603B2 (en) 2012-11-12 2016-04-05 Microsoft Technology Licensing, Llc Remote control using depth camera
KR101918030B1 (ko) * 2012-12-20 2018-11-14 삼성전자주식회사 하이브리드 멀티-뷰 랜더링 방법 및 장치
CA2900268C (en) 2013-02-04 2021-04-06 D4D Technologies, Llc Intra-oral scanning device with illumination frames interspersed with image frames
ES2804681T3 (es) 2013-02-04 2021-02-09 Childrens Nat Medical Ct Sistema robótico quirúrgico de control híbrido
US9962244B2 (en) 2013-02-13 2018-05-08 3Shape A/S Focus scanning apparatus recording color
CN104036226B (zh) 2013-03-04 2017-06-27 联想(北京)有限公司 一种目标物信息获取方法及电子设备
US9351643B2 (en) 2013-03-12 2016-05-31 Covidien Lp Systems and methods for optical measurement for in-situ surgical applications
US9375844B2 (en) 2013-03-15 2016-06-28 Intuitive Surgical Operations, Inc. Geometrically appropriate tool selection assistance for determined work site dimensions
US20140307055A1 (en) 2013-04-15 2014-10-16 Microsoft Corporation Intensity-modulated light pattern for active stereo
US9294758B2 (en) 2013-04-18 2016-03-22 Microsoft Technology Licensing, Llc Determining depth data for a captured image
EP2800055A1 (en) 2013-04-30 2014-11-05 3DDynamics Bvba Method and system for generating a 3D model
US9074868B2 (en) 2013-05-13 2015-07-07 General Electric Company Automated borescope measurement tip accuracy test
US9729860B2 (en) 2013-05-24 2017-08-08 Microsoft Technology Licensing, Llc Indirect reflection suppression in depth imaging
US9274047B2 (en) 2013-05-24 2016-03-01 Massachusetts Institute Of Technology Methods and apparatus for imaging of occluded objects
JP6446357B2 (ja) 2013-05-30 2018-12-26 株式会社ニコン 撮像システム
US9344619B2 (en) * 2013-08-30 2016-05-17 Qualcomm Incorporated Method and apparatus for generating an all-in-focus image
DE102013016752A1 (de) 2013-09-03 2015-03-05 Universität Stuttgart Verfahren und Anordnung zur robusten One-shot-Interferometrie, insbesondere auch zur optischen Kohärenz-Tomografie nach dem Spatial-domain-Ansatz (SD-OCT)
US9462253B2 (en) 2013-09-23 2016-10-04 Microsoft Technology Licensing, Llc Optical modules that reduce speckle contrast and diffraction artifacts
US20150086956A1 (en) 2013-09-23 2015-03-26 Eric Savitsky System and method for co-registration and navigation of three-dimensional ultrasound and alternative radiographic data sets
US9799117B2 (en) 2013-09-30 2017-10-24 Lenovo (Beijing) Co., Ltd. Method for processing data and apparatus thereof
US9443310B2 (en) 2013-10-09 2016-09-13 Microsoft Technology Licensing, Llc Illumination modules that emit structured light
CA2931529C (en) 2013-11-27 2022-08-23 Children's National Medical Center 3d corrected imaging
US10469827B2 (en) 2013-12-27 2019-11-05 Sony Corporation Image processing device and image processing method
US20160309068A1 (en) 2014-01-06 2016-10-20 The Regents Of The University Of California Spatial frequency domain imaging using custom patterns
WO2015105780A1 (en) 2014-01-07 2015-07-16 The Regents Of The University Of California Method for extraction of spatial frequency information for quantitative tissue imaging
WO2015105360A1 (ko) 2014-01-10 2015-07-16 주식회사 고영테크놀러지 3차원 형상측정장치 및 방법
US9720506B2 (en) 2014-01-14 2017-08-01 Microsoft Technology Licensing, Llc 3D silhouette sensing system
US9524582B2 (en) 2014-01-28 2016-12-20 Siemens Healthcare Gmbh Method and system for constructing personalized avatars using a parameterized deformable mesh
US10485425B2 (en) 2014-02-04 2019-11-26 The Trustees Of Dartmouth College Apparatus and methods for structured light scatteroscopy
EP3108447B1 (en) 2014-02-17 2020-03-25 Children's National Medical Center Method and system for providing recommendation for optimal execution of surgical procedures
DE102014002514B4 (de) 2014-02-21 2015-10-29 Universität Stuttgart Vorrichtung und Verfahren zur multi- oder hyperspektralen Bildgebung und / oder zur Distanz- und / oder 2-D oder 3-D Profilmessung eines Objekts mittels Spektrometrie
US9380224B2 (en) 2014-02-28 2016-06-28 Microsoft Technology Licensing, Llc Depth sensing using an infrared camera
JP6535020B2 (ja) 2014-03-02 2019-06-26 ブイ.ティー.エム.(バーチャル テープ メジャー)テクノロジーズ リミテッド 内視鏡画像内で可視の物体の3d距離および寸法を測定するシステム
DE102014204243A1 (de) 2014-03-07 2015-09-10 Siemens Aktiengesellschaft Endoskop mit Tiefenbestimmung
DE102014204244A1 (de) 2014-03-07 2015-09-10 Siemens Aktiengesellschaft Endoskop mit Tiefenbestimmung
US11116383B2 (en) 2014-04-02 2021-09-14 Asensus Surgical Europe S.à.R.L. Articulated structured light based-laparoscope
DE102014207022A1 (de) 2014-04-11 2015-10-29 Siemens Aktiengesellschaft Tiefenbestimmung einer Oberfläche eines Prüfobjektes
DE102014210938A1 (de) 2014-06-06 2015-12-17 Siemens Aktiengesellschaft Verfahren zum Steuern eines medizinischen Gerätes sowie Steuerungssystem für ein medizinisches Gerät
US20150377613A1 (en) 2014-06-30 2015-12-31 Samsung Electronics Co., Ltd. Systems and methods for reconstructing 3d surfaces of tubular lumens
US9261356B2 (en) 2014-07-03 2016-02-16 Align Technology, Inc. Confocal surface topography measurement with fixed focal positions
US9439568B2 (en) 2014-07-03 2016-09-13 Align Technology, Inc. Apparatus and method for measuring surface topography optically
US9261358B2 (en) 2014-07-03 2016-02-16 Align Technology, Inc. Chromatic confocal system
US10398294B2 (en) 2014-07-24 2019-09-03 Z Square Ltd. Illumination sources for multicore fiber endoscopes
CN105509639B (zh) 2014-09-24 2019-01-01 通用电气公司 用来测量几何特征的测量***和测量方法
US10039439B2 (en) 2014-09-30 2018-08-07 Fujifilm Corporation Endoscope system and method for operating the same
CN107405094A (zh) 2014-10-14 2017-11-28 东卡罗莱娜大学 用于使用成像技术来可视化解剖结构以及血流和灌注生理机能的方法、***和计算机程序产品
JP2017534378A (ja) 2014-10-14 2017-11-24 イースト カロライナ ユニバーシティ 血流量及び灌流量のマルチスペクトル画像化によって得られる信号を使用して血行動態パラメータを決定する方法、システム、及びコンピュータプログラム製品
US11553844B2 (en) 2014-10-14 2023-01-17 East Carolina University Methods, systems and computer program products for calculating MetaKG signals for regions having multiple sets of optical characteristics
US20160128553A1 (en) 2014-11-07 2016-05-12 Zheng Jason Geng Intra- Abdominal Lightfield 3D Endoscope and Method of Making the Same
JP6432770B2 (ja) 2014-11-12 2018-12-05 ソニー株式会社 画像処理装置、画像処理方法、並びにプログラム
US9841496B2 (en) 2014-11-21 2017-12-12 Microsoft Technology Licensing, Llc Multiple pattern illumination optics for time of flight system
US9638801B2 (en) 2014-11-24 2017-05-02 Mitsubishi Electric Research Laboratories, Inc Depth sensing using optical pulses and fixed coded aperature
US9330464B1 (en) 2014-12-12 2016-05-03 Microsoft Technology Licensing, Llc Depth camera feedback
KR101671649B1 (ko) 2014-12-22 2016-11-01 장석준 신체 데이터와 의류 데이터를 조합한 3d 합성 이미지 생성 방법 및 시스템
US9958758B2 (en) 2015-01-21 2018-05-01 Microsoft Technology Licensing, Llc Multiple exposure structured light pattern
EP3250104B1 (en) 2015-01-28 2019-03-06 Brainlab AG Light point identification method
US9817159B2 (en) 2015-01-31 2017-11-14 Microsoft Technology Licensing, Llc Structured light pattern generation
CN107431800A (zh) 2015-02-12 2017-12-01 奈克斯特Vr股份有限公司 用于进行环境测量和/或使用此类测量的方法和装置
US9953428B2 (en) 2015-03-03 2018-04-24 Microsoft Technology Licensing, Llc Digital camera unit with simultaneous structured and unstructured illumination
KR102376954B1 (ko) 2015-03-06 2022-03-21 삼성전자주식회사 홍채를 촬영하기 위한 광을 조사하는 방법 및 그 디바이스
US9955140B2 (en) 2015-03-11 2018-04-24 Microsoft Technology Licensing, Llc Distinguishing foreground and background with inframed imaging
KR102306539B1 (ko) 2015-03-12 2021-09-29 삼성전자주식회사 홍채를 촬영하기 위하여 이용되는 광을 조사하는 방법 및 디바이스
US10058256B2 (en) 2015-03-20 2018-08-28 East Carolina University Multi-spectral laser imaging (MSLI) methods and systems for blood flow and perfusion imaging and quantification
US10390718B2 (en) 2015-03-20 2019-08-27 East Carolina University Multi-spectral physiologic visualization (MSPV) using laser imaging methods and systems for blood flow and perfusion imaging and quantification in an endoscopic design
DE102015206511B4 (de) 2015-04-13 2023-10-19 Siemens Healthcare Gmbh Ermittlung einer eindeutigen räumlichen Relation eines medizinischen Geräts zu einem weiteren Objekt
US9690984B2 (en) 2015-04-14 2017-06-27 Microsoft Technology Licensing, Llc Two-dimensional infrared depth sensing
US20170059305A1 (en) 2015-08-25 2017-03-02 Lytro, Inc. Active illumination for enhanced depth map generation
US10132616B2 (en) 2015-04-20 2018-11-20 Samsung Electronics Co., Ltd. CMOS image sensor for 2D imaging and depth measurement with ambient light rejection
US10356392B2 (en) 2015-05-28 2019-07-16 University College Cork—National Univesity of Ireland, Cork Coded access optical sensor
EP3318173A4 (en) 2015-06-30 2019-04-17 Olympus Corporation IMAGE PROCESSING DEVICE, MEASURING SYSTEM AND ENDOSCOPY SYSTEM
WO2017006574A1 (ja) 2015-07-03 2017-01-12 オリンパス株式会社 画像処理装置、画像判別システム、及び内視鏡システム
CA2987058C (en) 2015-07-13 2019-03-19 Synaptive Medical (Barbados) Inc. System and method for providing a contour video with a 3d surface in a medical navigation system
US9958585B2 (en) 2015-08-17 2018-05-01 Microsoft Technology Licensing, Llc Computer vision depth sensing at video rate using depth from defocus
JP6456550B2 (ja) * 2015-09-01 2019-01-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 体の部位の医療像データを表示するための装置
CA3038648A1 (en) 2015-09-28 2017-04-06 Montefiore Medical Center Methods and devices for intraoperative viewing of patient 3d surface images
DK178899B1 (en) 2015-10-09 2017-05-08 3Dintegrated Aps A depiction system
WO2017059870A1 (en) 2015-10-09 2017-04-13 3Dintegrated Aps A laparoscopic tool system for minimally invasive surgery
US9955861B2 (en) 2015-10-16 2018-05-01 Ricoh Company, Ltd. Construction of an individual eye model using a plenoptic camera
US10402992B2 (en) 2015-10-16 2019-09-03 Capsovision Inc. Method and apparatus for endoscope with distance measuring for object scaling
CA3003596A1 (en) 2015-10-31 2017-05-04 Children's National Medical Center Soft surgical tools
US10828125B2 (en) * 2015-11-03 2020-11-10 Synaptive Medical (Barbados) Inc. Dual zoom and dual field-of-view microscope
WO2017143427A1 (en) 2016-02-25 2017-08-31 Synaptive Medical (Barbados) Inc. System and method for scope based depth map acquisition
CN111329551A (zh) 2016-03-12 2020-06-26 P·K·朗 用于脊柱和关节手术的增强现实引导
EP4394703A2 (en) 2016-03-14 2024-07-03 Mohamed R. Mahfouz Method of designing a dynamic patient-specific orthopedic implant
EP3220351A1 (en) 2016-03-14 2017-09-20 Thomson Licensing Method and device for processing lightfield data
US20170280970A1 (en) 2016-03-31 2017-10-05 Covidien Lp Thoracic endoscope for surface scanning
WO2017180097A1 (en) 2016-04-12 2017-10-19 Siemens Aktiengesellschaft Deformable registration of intra and preoperative inputs using generative mixture models and biomechanical deformation
TWI567693B (zh) * 2016-05-17 2017-01-21 緯創資通股份有限公司 產生深度資訊的方法及其系統
US10375330B2 (en) 2016-05-27 2019-08-06 Verily Life Sciences Llc Systems and methods for surface topography acquisition using laser speckle
US20170366773A1 (en) 2016-06-21 2017-12-21 Siemens Aktiengesellschaft Projection in endoscopic medical imaging
TWI597042B (zh) 2016-06-29 2017-09-01 Endoscopic with distance measuring function and distance measuring method
US10217235B2 (en) 2016-07-11 2019-02-26 Nri R&D Patent Licensing, Llc Advanced lensless light-field imaging systems and methods for enabling a wide range of entirely new applications
IL292427B2 (en) 2016-07-25 2023-05-01 Magic Leap Inc Change, display and visualization of imaging using augmented and virtual reality glasses
US9947099B2 (en) 2016-07-27 2018-04-17 Microsoft Technology Licensing, Llc Reflectivity map estimate from dot based structured light systems
US20180042466A1 (en) 2016-08-12 2018-02-15 The Johns Hopkins University Compact endoscope design for three-dimensional surgical guidance
WO2018085797A1 (en) 2016-11-04 2018-05-11 Aquifi, Inc. System and method for portable active 3d scanning
US11998282B2 (en) * 2016-12-16 2024-06-04 Intuitive Surgical Operations, Inc. Systems and methods for teleoperated control of an imaging instrument
US11129681B2 (en) 2017-02-22 2021-09-28 Orthosoft Ulc Bone and tool tracking in robotized computer-assisted surgery
US10485629B2 (en) 2017-02-24 2019-11-26 Sony Olympus Medical Solutions Inc. Endoscope device
US10572720B2 (en) 2017-03-01 2020-02-25 Sony Corporation Virtual reality-based apparatus and method to generate a three dimensional (3D) human face model using image and depth data
CN108694740A (zh) 2017-03-06 2018-10-23 索尼公司 信息处理设备、信息处理方法以及用户设备
CA2960528C (en) * 2017-03-08 2018-03-20 Synaptive Medical (Barbados) Inc. A depth-encoded fiducial marker for intraoperative surgical registration
US10262453B2 (en) 2017-03-24 2019-04-16 Siemens Healthcare Gmbh Virtual shadows for enhanced depth perception
WO2019045971A1 (en) 2017-08-28 2019-03-07 East Carolina University MULTI-SPECTRAL PHYSIOLOGICAL VISUALIZATION (MSPV) USING LASER IMAGING METHODS AND SYSTEMS TO PERFORM IMAGING AND QUANTIFICATION OF BLOOD FLOW AND INFUSION IN ENDOSCOPIC DESIGN
US11278220B2 (en) 2018-06-08 2022-03-22 East Carolina University Determining peripheral oxygen saturation (SpO2) and hemoglobin concentration using multi-spectral laser imaging (MSLI) methods and systems
CN112513617A (zh) 2018-06-28 2021-03-16 儿童国家医疗中心 腹腔镜手术中血流和组织灌注无染料可视化的方法和***
US11850002B2 (en) * 2018-07-16 2023-12-26 International Business Machines Corporation Three-dimensional model for surgical planning
EP3824621A4 (en) 2018-07-19 2022-04-27 Activ Surgical, Inc. SYSTEMS AND METHODS FOR MULTIMODAL DETECTION OF DEPTH IN VISION SYSTEMS FOR AUTOMATED SURGICAL ROBOTS
EP3847660A2 (en) 2018-09-05 2021-07-14 East Carolina University Systems for detecting vascular and arterial disease in asymptomatic patients and related methods
US11125861B2 (en) 2018-10-05 2021-09-21 Zoox, Inc. Mesh validation
US10823855B2 (en) 2018-11-19 2020-11-03 Fca Us Llc Traffic recognition and adaptive ground removal based on LIDAR point cloud statistics
CN113906479A (zh) 2018-12-28 2022-01-07 艾科缇弗外科公司 从局部深度图生成合成三维成像
JP2022525113A (ja) 2019-03-26 2022-05-11 イースト カロライナ ユニバーシティ 血流及び灌流可視化のための近赤外蛍光イメージング及び関連するシステム並びにコンピュータプログラム製品
CN114828725A (zh) * 2019-08-16 2022-07-29 身体视觉医疗有限公司 用于介入和外科手术的装置及其使用方法
EP4135615A1 (en) 2020-04-17 2023-02-22 Activ Surgical, Inc. Systems and methods for enhancing medical images
NL2026240B1 (en) 2020-08-07 2022-04-08 Limis Dev B V Device for coupling coherent light into an endoscopic system
NL2026505B1 (en) 2020-09-18 2022-05-23 Limis Dev B V Motion-compensated laser speckle contrast imaging

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013544449A (ja) * 2010-09-08 2013-12-12 マイクロソフト コーポレーション 構造化光および立体視に基づく深度カメラ

Also Published As

Publication number Publication date
US20210236226A1 (en) 2021-08-05
EP3824621A1 (en) 2021-05-26
US11179218B2 (en) 2021-11-23
WO2020018931A1 (en) 2020-01-23
US20220117689A1 (en) 2022-04-21
JP7297891B2 (ja) 2023-06-26
CA3106823A1 (en) 2020-01-23
KR102545980B1 (ko) 2023-06-21
US11857153B2 (en) 2024-01-02
KR20210035831A (ko) 2021-04-01
EP3824621A4 (en) 2022-04-27
CN112740666A (zh) 2021-04-30

Similar Documents

Publication Publication Date Title
US20210212772A1 (en) System and methods for intraoperative guidance feedback
US20240197241A1 (en) Anatomical surface assessment methods, devices and systems
EP3215044B1 (en) Optical tracking method and system based on passive markers
JP2022525204A (ja) 少なくとも1つの材料特性を識別するための検出器
Shademan et al. Plenoptic cameras in surgical robotics: Calibration, registration, and evaluation
US20140218366A1 (en) Method and device for displaying an object
JP2016514984A (ja) 3次元の画像形成を行うための方法及びシステム
JP2015100712A (ja) 光学認識機能を有する外科手術システム用の縫合針
JP6454489B2 (ja) 観察システム
CN109938837B (zh) 光学跟踪***及光学跟踪方法
US11857153B2 (en) Systems and methods for multi-modal sensing of depth in vision systems for automated surgical robots
Furukawa et al. Shape acquisition and registration for 3D endoscope based on grid pattern projection
US10846883B2 (en) Method for calibrating objects in a reference coordinate system and method for tracking objects
CN105306922A (zh) 一种深度相机参考图的获取方法和装置
JP2018538107A (ja) 発光体を使用して物体距離及びターゲット寸法を測定する方法、システム、及びコンピュータプログラム製品
US20210161604A1 (en) Systems and methods of navigation for robotic colonoscopy
JP2005287900A (ja) 内視鏡
Decker et al. Performance evaluation and clinical applications of 3D plenoptic cameras
JP2009247463A (ja) 画像処理装置、画像処理方法、およびプログラム
EP3836154A1 (en) A method and an apparatus for imaging curved surfaces
WO2021090513A1 (ja) シミ属性判定方法、及びシミ属性判定システム
CN115702444A (zh) 用于确定工具定位及其基准标记物的***和方法
JP2023543010A (ja) ツール追跡のための方法及びシステム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220719

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220719

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220902

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230614

R150 Certificate of patent or registration of utility model

Ref document number: 7297891

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150