JP2021502195A - 軟組織に対する低侵襲医療介入のためのロボット機器 - Google Patents

軟組織に対する低侵襲医療介入のためのロボット機器 Download PDF

Info

Publication number
JP2021502195A
JP2021502195A JP2020526272A JP2020526272A JP2021502195A JP 2021502195 A JP2021502195 A JP 2021502195A JP 2020526272 A JP2020526272 A JP 2020526272A JP 2020526272 A JP2020526272 A JP 2020526272A JP 2021502195 A JP2021502195 A JP 2021502195A
Authority
JP
Japan
Prior art keywords
patient
medical
robot
medical device
robot arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020526272A
Other languages
English (en)
Inventor
ブロンデル,リュシアン
バダノ,フェルナンド
ナホム,ベルタン
Original Assignee
クアンタム サージカル
クアンタム サージカル
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クアンタム サージカル, クアンタム サージカル filed Critical クアンタム サージカル
Publication of JP2021502195A publication Critical patent/JP2021502195A/ja
Priority to JP2023080551A priority Critical patent/JP2023107774A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/0233Pointed or sharp biopsy instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00149Holding or positioning arrangements using articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/02Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by cooling, e.g. cryogenic techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4209Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames
    • A61B8/4218Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames characterised by articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
    • A61B90/13Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints guided by light, e.g. laser pointers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N7/00Ultrasound therapy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3494Trocars; Puncturing needles with safety means for protection against accidental cutting or pricking, e.g. limiting insertion depth, pressure sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00199Electrical control of surgical instruments with a console, e.g. a control panel with a display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00203Electrical control of surgical instruments with speech control or speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00571Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for achieving a particular surgical effect
    • A61B2018/00613Irreversible electroporation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • A61B2034/742Joysticks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • A61B2034/743Keyboards
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/32Surgical robots operating autonomously

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biophysics (AREA)
  • Otolaryngology (AREA)
  • Optics & Photonics (AREA)
  • Plasma & Fusion (AREA)
  • Human Computer Interaction (AREA)
  • Gynecology & Obstetrics (AREA)
  • Manipulator (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Endoscopes (AREA)

Abstract

本発明は、医療器具(13)を使用して患者(30)に医療介入を行うためのロボット機器(10)であって、幾つかの自由度を有し、且つ医療器具を受けるのに適した端部を有するロボットアーム(11)と、患者の体内構造に関する位置情報を捕捉するのに適した画像捕捉システム(14)と、人体の生体力学的モデルを有する記憶媒体(15)と、前記医療器具のための位置セットポイント及び向きセットポイントを、生体力学的モデルに基づいて、位置情報に基づいて、且つ医療介入を行うために医療器具(13)によって辿られる軌跡に基づいて特定するように構成された処理回路(17)と、医療器具(13)を位置セットポイント及び向きセットポイントに設置するためにロボットアーム(11)を制御するように構成された制御回路(16)と、を含むロボット機器(10)に関する。【選択図】図1

Description

本発明は、医療介入の分野に属し、より詳細には、患者の変形可能な組織に対して行われる低侵襲医療介入のための、例えば変形可能な臓器又は解剖学的構造体に対して治療又は診断を行うためのロボット機器に関する。
低侵襲又は経皮的経路による医療介入(診断、治療及び/又は手術のための)は、特に肝臓、腎臓、肺、膵臓、***、前立腺等の病変臓器の細胞に直接作用する癌の局所治療のための腫瘍学において一層重要となっている。
腫瘍学の分野以外でも、例えば針を穿刺することによる低侵襲又は経皮的アクセス経路を使用する医療処置及び用途が多くあり、例えば生検(病理学的分析のための組織採取)、ドレーンの留置(体液吸引)、治療用物質の注入(疼痛治療)等である。
数十センチメートルにも及ぶ切開が必要となり得る直視下又は従来の手術とは対照的に、低侵襲医療介入では、最大でも、目標となる解剖学的領域に到達し、見て、及び/又は治療するために内視鏡、プローブ、針又は他の医療器具をそこから挿入できるだけの小さい切開又は開口が使用される。
低侵襲医療介入は、痛み及び手術創の限定、外科的介入中の出血量の減少及び入院期間の短縮等、多くの利益を提供できる。これにより、医療介入を外来外科で行うことができ、それにより患者の早期回復、手術痕の縮小、感染リスクの低減等が可能となる。
鉗子、鋏及び他の医療器具を用いる従来の外科切除の手技に加えて、低侵襲又は経皮的経路により組織を破壊するための幾つかの手法の有効性が確認されているか又は評価途中にある。例えば、レーザ手術、凍結治療、ラジオ波、マイクロ波、電気穿孔法による治療又はさらに集束超音波及びキャリ療法が挙げられ得る。これらの手法の多くに共通する特徴は、きわめて小さい切開創が作られ、精密で局所的な治療(熱、非加熱又は放射線治療)を行うための1つ又は複数の針、プローブ又は電極が、目標となる解剖学的領域まで挿入されることである。
低侵襲経路により実行される医療介入では、ほとんどの場合、術者は、医療器具を患者の体内の特定の深さまで挿入して、目標となる解剖学的領域に到達させる必要がある。これらの処置は、ときに時間がかかり、難しく、なぜなら、直視下手術と異なり、術者が必ずしも患者の体内の構造及び治療対象の臓器を直接見ることができるとは限らないからである。それにより、解剖学的構造体の識別、医療器具の正確な設置及び繊細な解剖学的構造体(神経、血管、健康な臓器等)の回避が難しくなる。
外科医は、診断目的ですでに取得している術前の医用画像(断層撮影(CT)、磁気共鳴イメージング(MRI)、X線等)を利用して、事前に体内構造のレジストレーションと医療介入の計画とを行いやすくすることができる。術前画像は、ある時点で有効な体内構造の表現を提供し、これは、医療介入が行われる時点ではなく、それより前の時点のものである。
手術中に繊細な解剖学的構造に損傷を与えずに医療器具を患者の体内の所望の位置及び深さまで正確に導入するには、器具が患者の体内の何れの場所にあるかが術者にわからなければならない。今日、顕微鏡又は内視鏡で体内構造の直視が得られない場合、低侵襲介入中に医療器具の位置及び向きを特定するために幾つかのシステム及び方法を利用できる。
画像により案内されるナビゲーションシステム(すなわちコンピュータ支援手術)では、患者の体内の画像上に仮想の医療器具を表示することにより、医療器具の位置及び向きをリアルタイムで追跡できる。これらは、3D位置特定技術を用いて、患者と医療器具との両方のレジストレーションを行うが、最も広く普及しているのは、光学型又は電磁型である。
患者の1つ又は複数の画像を(スキャン、MRI、X線、超音波等により)捕捉するために、画像捕捉システムを医療介入前、その開始時及び/又はその実行中に使用する必要がある。医療介入を開始する前に、これらの画像は、注目すべき点及び/又は面の剛体又は非剛体レジストレーション等の各種の既知のレジストレーション方法又は画像捕捉システム自体の位置の参照により、手術台上の患者の体内構造の実際の位置と調整される。
光学ナビゲーションシステムは、医療器具上及び患者の身体の既知の幾何学特性に応じて設置された赤外線カメラ及びエミッタ又は反射鏡により、医療器具の位置のレジストレーションを行って基準とするか又はその移動を追跡する。
電磁ナビゲーションシステムは、患者の身体の付近に設置された低強度の磁場発生器、医療器具に内蔵可能なセンサ及び患者の身体に設置された参照センサにより、医療器具の位置のレジストレーションを行う。これらの電磁ナビゲーションシステムは、小型であり、光学ナビゲーションシステムのように視野がさえぎられるという問題がない。しかしながら、これらには、磁場発生器により形成される磁場の存在に連結される特定の限定的環境が必要である。
既知のナビゲーションシステムのすべては、画像中で医療器具の位置及び向きをリアルタイムで供給することにより、従来の用手方式と比較して医療処置の正確さを改善できるものの、これらには、変形可能な組織に対する低侵襲医療介入に関して重大な限界がある。
第一の限界は、医療器具を、目標となる解剖学的領域まで導入する最終手順は、術者自身の手で行われることであり、これは、結果が術者の技能に依存し、高い精度を実現できないことを意味する。
第二の限界は、これらのナビゲーションシステムの機能の前提が、参照検査が行われた時点から術者が医療器具を導入する時点までの間に目標臓器又は解剖学的構造体が移動又は変形していないことであるという点である。検査が医療介入の数日前に行われた場合及び患者が、手術台上において、検査台上での姿勢と異なる姿勢をとる場合、目標臓器又は解剖学的構造体は、動いたか又は変形した可能性があり、目標臓器又は解剖学的構造体の表示された位置と実際の位置とのずれがかなりの不正確さをもたらす。加えて、目標臓器又は解剖学的構造体は、単純に患者の呼吸によって変形し得、既知のナビゲーションシステムは、患者の呼吸の制御に基づいており、これは、これらのナビゲーションシステムにより実現可能な精度を大きく制限する。
低侵襲手術のための医学的手順を支援するためのロボット機器もある。
特に、米国特許第8795188号は、患者に対する医療介入のためのシステムを開示しており、このシステムは、ロボットと、患者の動きを記録するための機器と、患者の周期的な動き、典型的には呼吸による胸郭の動きを自動的に考慮に入れる方法とを含む。
しかしながら、ナビゲーション技術又は連続レーザスキャナの使用を説明する変形形態では、手術前の画像捕捉が必要であり、目標臓器又は解剖学的構造体が患者の外被(皮膚)に関して動いたり変形したりしないことを前提としている。介入中におけるX線タイプの画像の使用を説明する変形形態では、連続的画像捕捉システムの複雑な且つ照射のための設置が必要となる。
加えて、医療器具を患者の体内に挿入する必要のある医療介入の場合の前述の限界は、医療器具を患者の体内に挿入する必要のない医療介入も包含するように一般化され得る。例えば、集束超音波による治療を提供する器具の場合、患者の体内の超音波の、前記超音波を集束させなければならない前記患者の体内の目標の解剖学的領域までの経路を制御することも可能である必要がある。
本発明の目的は、先行技術による解決策の限界の全部又は一部、特に前述のものを、術者が、患者の体内の臓器又は解剖学的構造に関して、その臓器又は解剖学的構造体が患者の体内で移動又は変形し得ることを考慮して、診断又は局所的治療を実行するために医療器具を位置決めすることを支援する解決策を提供することによって克服することである。
そのために、第一の態様によれば、本発明は、医療器具を使用して患者に医療介入を行うためのロボット機器であって、
幾つかの自由度を有し、且つ医療器具を受けるのに適した端部を有するロボットアームと、
患者の体内構造に関する位置情報を捕捉するのに適した画像捕捉システムと、
人体の解剖学的構造体の生体力学的モデルを有する記憶媒体と、
前記医療器具のための位置セットポイント及び向きセットポイントを、生体力学的モデルに基づいて、位置情報に基づいて、且つ医療介入を行うために医療器具によって辿られる軌跡に基づいて特定するように構成された処理回路と、
医療器具を位置セットポイント及び向きセットポイントに設置するか又は設置することを支援するためにロボットアームを制御するように構成された制御回路と、を含むロボット機器に関する。
このロボットアームにより、医療器具の位置決めの精度及び再現可能性は、術者のものよりはるかに高い。この精度の向上は、術者により選択された治療が目標臓器又は目標の解剖学的構造体にごく近い場所で実行可能であり、そのため、治療の臨床的効果を改善できることを意味する。小さすぎるか又は重要な領域に近いか若しくはその中にあるために手術できない病変の治療を想定することが可能である。この精度及び再現可能性は、手作業での医療器具の位置決めにおける誤りにより、軌跡上にある繊細な解剖学的構造体に及んだ損傷に起因する出血、疼痛及び機能喪失等の合併症のリスクを低減させることも可能にする。
ロボット機器は、人体の生体力学的モデルの事前の知識も利用する。
人体の「生体力学的モデル」とは、人体、したがって患者の対象の解剖学的領域内における各種の解剖学的構造体(筋肉、腱、骨構造、臓器、血管網等)の数学的モデルと理解され、これにより前記解剖学的構造体の変形及び前記解剖学的構造体間の機械的相互作用のモデル化が可能となる。このような生体力学的モデルは、そのため、特に患者の体内解剖学的構造体、例えば前記患者の外被の変化、臓器の血管の位置の変化、臓器の外被の変化等により誘発される変形及び機械的相互作用(したがって動き)を特定することを可能にする。このような変化は、例えば、患者の呼吸(胸郭及び横隔膜の動きにより誘発される臓器の動き)、前記患者の姿勢の変化(重力により誘発される臓器の動き)、医療器具との接触(局所的変形)等により誘発され得る。対象の解剖学的領域は、例えば、胸部領域、及び/又は腹部領域、及び/又は骨盤領域に対応する。
そのため、ロボット機器は、軌跡、生体力学的モデル及び医療介入中に取得する位置情報を用いて、手術台上の患者の姿勢及び本人の呼吸レベルに関係なく、患者の体内の移動可能及び変形可能な解剖学的構造体の実際の位置を特定する。この機能は、術者による誤りを回避して、先行技術から知られているナビゲーションシステム及びロボットシステムで考慮されない呼吸及び臓器の内部変形に関連する動きを補償することにより、医療介入の性能を大幅に向上させる。
これらの理由のすべてにより、このロボット機器は、患者の変形可能組織への低侵襲医療介入に特に適している。
特定の実施形態において、ロボット機器は、加えて、以下の特徴の1つ又は複数を個別に又は技術的に実現可能なあらゆる組合せにより有することができる。
特定の実施形態において、生体力学的モデルは、胸部領域、及び/又は腹部領域、及び/又は骨盤領域内における人体の解剖学的構造体をモデル化する。
特定の実施形態において、画像捕捉システムは、非照射型である。
実際に、生体力学的モデルを考慮することにより、介入中に使用される画像捕捉システムは、非照射型であり得る。「非照射型」とは、医療介入中に画像を捕捉するために患者の方向に電離放射(特にX線)が生成されないことを意味すると理解される。したがって、照射線量は、患者にとっても、画像捕捉システムの付近にいる医療チームにとっても大幅に減少する。加えて、画像捕捉システムは、例えば、CTスキャナより格段に安価であり、扱いやすく、それにより、ロボット機器は、CTスキャナを備えていない小さい手術室でも使用でき、その利用は、はるかに制約の少ないものとなる。
特定の実施形態において、画像捕捉システムは、患者と接触せずに位置情報を捕捉するのに適した少なくとも1つのいわゆる非接触機器を有する。
特定の実施形態において、画像捕捉システムは、以下の非接触機器:立体カメラ、構造化光カメラ、飛行時間カメラ、深度計測カメラ等の少なとも1つを有する。
特定の実施形態において、画像捕捉システムは、患者の身体の外表面の位置に対応する位置情報を供給するのに適している。
特定の実施形態において、画像捕捉システムは、患者と接触することにより、位置情報を捕捉するのに適した少なくとも1つのいわゆる接触機器を有する。
特定の実施形態において、画像捕捉システムは、以下の接触機器:超音波プローブ、内視鏡等の少なくとも1つを有する。
特定の実施形態において、画像捕捉システムは、1つ又は複数の非接触機器からなり、すなわち、画像捕捉システム、より一般的にはロボット機器は、1つ又は複数の非接触機器のみを有し、画像捕捉のための接触機器を一切含まない。
特定の実施形態において、制御回路は、以下のモード:自動モード、協働モード、自動追跡モード、協働追跡モード等の少なくとも1つに従ってロボットアームを制御するように構成される。
特定の実施形態において、処理回路は、患者の画像に基づいて医療器具の軌跡を特定するか又は特定することを支援するように構成される。
特定の実施形態において、処理回路は、医療介入中に行われる治療のパラメータを、前記パラメータの効果を患者の画像に基づいてシミュレートすることによって調整するか又は調整することを支援するように構成される。
特定の実施形態において、ロボット機器は、ロボットアームの端部に固定されているか又は固定されることを意図される医療器具を案内するのに適したガイドツールを有する。
特定の実施形態において、ロボット機器は、以下の機器:表示スクリーン、タッチセンサ式表示スクリーン、キーボード、2D及び/又は3Dゴーグル、ジョイスティック、移動検出モジュール、音声起動制御モジュール等のうちからの少なくとも1つのマン−マシンインタフェース機器を有する。
特定の実施形態において、ロボット機器は、以下の機器:低侵襲先端を備える医療器具、レーザターゲティングモジュール等のうちからの、進入地点のレジストレーションを行うための少なくとも1つの機器を有する。
特定の実施形態において、医療器具は、以下の医療器具:生検針、カテーテル、内視鏡又は集束超音波を用いる治療器具、レーザ治療器具、凍結療法による治療のための器具、ラジオ波による治療のための器具、電気穿孔法による治療のための器具、キュリ療法による治療のための器具等の1つである。
特定の実施形態において、ロボット機器は、ロボットアームを担持する移動キャリッジを有し、前記移動キャリッジは、固定手段を有する。
図の提示
本発明は、下記の図面を参照して、非限定的な例として提供される以下の説明文を読むことでよりよく理解されるであろう。
軟組織への低侵襲医療介入のためのロボット機器の実施形態の概略図を示す。 図1のロボット機器の代替的実施形態の概略図を示す。 ロボット機器の他の実施形態の概略図を示す。
これらの図では、異なる図面間で同じ参照番号は、同じ又は同様の要素を示す。明瞭にするために、示される要素は、別段のことわりがない限り、正確な縮尺によらない。
図1は、医療介入、例えば軟組織への低侵襲介入において術者を支援するためのロボット機器10の実施形態を概略的に示す。
図1に示されるように、ロボット機器10は、幾つかの自由度を有するロボットアーム11を有する。ロボットアーム11は、医療器具13を受けるのに適した端部を有する。図1に示される例において、医療器具13は、ロボットアーム11の端部に、前記医療器具13を案内するのに適したガイドツール12によって取り付けられる。この目的のために、ロボットアーム11は、前記端部において、前記ガイドツール12を受けるのに適した接合部を有する。
ロボットアーム11は、好ましくは、例えば手術台20上に横たわる患者30に関するガイドツール12の位置及び向きを空間的にモニタする範囲を広くするために、少なくとも6自由度を有する。
ガイドツール12は、医療器具13を案内するのに適しており、すなわち前記ガイドツール12に関する前記医療器具13の移動を制約するのに適している。例えば、ガイドツール12は、医療器具13を並進移動で案内するのに適したスライドであり、これにより例えば患者30の体内へのその挿入中に前記医療器具13の移動を制約する。
ガイドツール12は、例えば、ロボットアーム11に取外し可能に固定され、ロボットアーム11は、好ましくは、例えば異なる医療器具13及び/又は異なる医療処置に関連する異なる種類のガイドツール12を受けるのに適している。
ロボットアーム11の接合部は、例えば、ガイドツール12をロボットアーム11に正しく取り付けることを確実にするためのエラー防止機構を有することができる。好ましい実施形態において、接合部は、加えて、後に計算においてガイドツール12の特性、例えばその基準、その寸法、その重量、その重力中心及びその機能又はその性能に有益な何れかのデータを使用するために、術者により取り付けられたガイドツール12を自動的に識別する電気システムを有することができる。
ロボット機器10は、好ましくは、ロボットアーム11により担持されるガイドツール12上において、何れの種類の医療器具13、特に軟組織への低侵襲介入に使用される何れの種類の医療器具を受けるのにも適している。例えば、ロボット機器10は、好ましくは、以下の手術用医療器具:
− 生体針、
− カテーテル、
− 内視鏡、
− 集束超音波を用いる治療器具、
− レーザ治療器具、
− 凍結療法による治療のための器具、
− ラジオ波による治療のための器具、
− 電気穿孔法による治療のための器具、
− キュリ療法による治療のための器具等
の少なくとも1つを受け、移動させるのに適している。
ロボット機器10は、ガイドツール12の位置及び向きを、ロボット機器10に関連する参照座標系内で変化させるためにロボットアーム11を制御するのに適した制御回路16も有する。制御回路16は、例えば、1つ又は複数のプロセッサと、ロボットアーム11を制御するために実行されるプログラムコード命令のセットの形態でコンピュータプログラム製品が記憶された記憶手段(磁気ハードディスク、電子メモリ、光ディスク等)とを有する。代替的に又は追加的に、制御回路16は、1つ若しくは複数のプログラマブルロジック回路(FPGA、PLD等)、及び/又は1つ若しくは複数の専用集積回路(ASIC等)、及び/又は前記ロボットアーム11を制御するのに適した離散型電子構成要素の組等を有する。
制御回路16、ロボットアーム11及びロボットアーム11により担持されるガイドツール12により、医療器具13が術者により直接操作される場合よりはるかに高い精度で医療器具13を位置決めし、向き付け、案内することが可能となる。
図1に示される例において、ロボット機器10は、例えば、ホイール上に取り付けられた移動キャリッジ18を有し、その上にロボットアーム11が取り付けられる。このような配置は、そのようにするとロボットアーム11を手術台の片側から他方に、手術室の片側から他方に等、移動させることが特に容易となるという点で特に有利である。キャリッジ18は、固定手段(図には示されず)を有し、それによってキャリッジ18を手術台20に関して固定できる。固定手段は、何れの適当な種類のものであり得、特にホイールのブレーキ、引込可能パッド又は足部、手術台20に機械的に取り付けるためのシステム、床に機械的に取り付けるためのシステム等を有することができる。
しかしながら、他の例によれば、ロボットアーム11を手術台に直接、取外し可能又は永久的に(この場合、手術台は、ロボット機器10の一体部分である)取り付けることも一切排除されない。図2は、ロボットアーム11が手術台20に取外し可能に取り付けられているロボット機器10の代替的実施形態を概略的に示す。図2に示される例において、ロボットアーム11は、手術台20のレール21への剛体的な機械的リンクを形成する支持部110上に取り付けられる。
図1及び2に示されているように、ロボット機器10は、ロボット機器10に関連する参照座標系内において、又は前記参照座標系への通過マトリクスが事前にわかっているか若しくは特定可能である、前記参照座標系と異なる座標系内において、患者30の体内構造に関する位置情報を捕捉するのに適した画像捕捉システム14も有する。好ましい実施形態において、画像捕捉システム14は、非照射型であり、それによって患者30及び医療チームが被曝する照射線量が限定される。
画像捕捉システム14により、患者30の体内構造に関する位置情報を捕捉することが可能である。患者30の体内構造に関する位置情報は、例えば、参照座標系内の患者30の身体の外表面の位置、参照座標系内の患者30の前記身体の骨構造の位置、参照座標系内の患者30の前記身体の内部の臓器又は血管の位置等に対応する。
一般に、患者30の体内構造に関する位置情報を供給するのに適した何れの種類の画像捕捉システム14もロボット機器10内で使用できる。例えば、画像捕捉システム14は、患者30に接触せずに位置情報を捕捉するのに適した1つ又は複数のいわゆる非接触機器及び/又は患者30に触れることによって位置情報を捕捉するのに適した1つ又は複数のいわゆる接触機器を有することができる。ロボット機器の画像捕捉システムは、好ましくは、1つ又は複数の非接触機器のみを有し、接触機器を有さない。
特定の実施形態において、画像捕捉システム14は、以下の非接触機器:
− 立体カメラ、
− 構造化光カメラ、
− 飛行時間カメラ(ToFカメラ)、
− 深度計測カメラ(例えば、RGB−Dカメラ)等
の少なくとも1つを有する。
このような非接触機器により、例えば非接触機器に関する患者30の身体の外表面の位置を表す位置情報を捕捉できる。
特定の実施形態において、画像捕捉システム14は、以下の接触機器:
− 超音波プローブ(非侵入的接触による捕捉)、
− 内視鏡(侵入的接触による捕捉)等
の少なくとも1つを有する。
このような接触機器により、例えば患者30の体内の臓器又は血管の位置を表す位置情報を捕捉できる。
画像捕捉システム14は、例えば、ロボットアーム11と一体化されるか、又は前記ロボットアーム11の端部に取り付けられる。
図1及び2に示される例において、画像捕捉システム14は、ロボットアーム11とは別の支持手段に取り付けられる。支持手段は、例えば、任意選択で電動式の関節アーム140であり、この場合、これは、医療器具13のガイドツール12を担持するロボットアーム11とは別のロボットアームを形成する。図1に示される例において、関節アーム140は、ロボットアーム11と同様に移動キャリッジ18により担持される。図2に示される例では、画像捕捉システム14を担持する関節アーム140は、移動キャリッジ18により担持される。
さらに、他の例によれば、画像捕捉システム14が、患者30の体内構造に関する位置情報を取得するために術者により担持されることも一切排除されない。
画像捕捉システム14の位置及び空間的向きは、例えば、ロボット機器10の参照座標系において、それがロボットアーム11により担持される場合にはその幾何学特性の知識から、又は光学、電磁若しくは他の種類のナビゲータ等の3D位置特定システムの使用を通じて把握される。
図1及び2に示されるように、ロボット機器10は、同様に、人体の解剖学的構造体の生体力学的モデルを記憶する記憶媒体15を有する。図1及び2に示される例では、記憶媒体15は、制御回路16とは別に表現されている。しかしながら、他の実施形態によれば、記憶媒体15は、前記制御回路16の記憶手段の1つでもあり得る。
人体の生体力学的モデルは、必ずしもの考慮対象の患者30に特定であるとは限らず、例えば医療的処置が行われる患者30と同じ性別、身長、体格等の一般的患者の生体力学的モデルであり得ることに留意されたい。生体力学的モデルは、好ましくは、胸部、腹部及び骨盤領域の主な解剖学的構造体、例えば胸壁及び腹壁、筋肉、腱、骨及び関節、臓器、血管系等、並びにまたそれらの変形モデル及びそれらの機械的相互作用等を含む。生体力学的モデルは、好ましくは、患者30の姿勢に依存する重力の影響も考慮する。
このような生体力学的モデルは、科学文献において知られており、例えば以下の刊行物を参照されたい:
−“SOFA: A Multi-Model Framework for Interactive Physical Simulation”, F. Faure et al., Soft Tissue Biomechanical Modeling for Computer Assisted Surgery-Studies in Mechanobiology, Tissue Engineering and Biomaterials, volume 11, Springer、
−“A Personalized Biomechanical Model for Respiratory Motion Prediction”, B. Fuerst et al., International Conference on Medical Image Computing and Computer Assisted Intervention,2012、
−“Patient-Specific Biomechanical Model as Whole-Body CT Image Registration Tool”, Mao Li et al., Medical Image Analysis, 2015, May, pages 22-34。
生体力学的モデルは、例えば、3次元医用画像(CTスキャン、MRIスキャン等)のデータベースの転写により製作できる。関心対象の構造体の幾何学特性は、医用画像からセグメント化及び再構成のアルゴリズムにより抽出できる。画像データベースの分析により、生体力学的モデルの構成要素の平均的幾何学特性及びまたデータベースの医用画像のすべてを代表する主要変形パラメータを計算することができる。構造体の各々に機械的特性及び異なる境界条件を割り当てることにより、その生体力学的モデルを製作できる。生体力学的モデルは、好ましくは、骨、筋肉、腱、靭帯及び軟骨組織で構成される筋骨格系のモデル化を含む。
図1及び2に示されるように、ロボット機器10は、処理回路17も有する。処理回路17は、ガイドツール12のための位置セットポイント及び向きセットポイントを、人体の解剖学的構造体の生体力学的モデルに基づいて、且つ画像捕捉システム14によって捕捉された位置情報に基づいて特定するように構成される。
処理回路17は、例えば、1つ又は複数のプロセッサ及び記憶手段(磁気ハードディスク、電子メモリ、光ディスク等)を有し、その中に、コンピュータプログラム製品が、位置セットポイント及び向きセットポイントを特定するために実行されるプログラムコード命令のセットの形態で記憶される。代替的に又は追加的に、処理回路17は、1つ若しくは複数のプログラマブルロジック回路(FPGA、PLD等)、及び/又は1つ若しくは複数の特定集積回路(ASIC等)、及び/又は位置セットポイント及び向きセットポイントを特定するのに適した離散的電子構成要素等を有する。
図1及び2に示される例において、処理回路17は、制御回路16とは別であるように示されている。しかしながら、他の実施形態によれば、処理回路17は、前記制御回路16に統合できるか、又は同じく前記制御回路16により使用される機器を使用することもできる。加えて、記憶媒体15は、処理回路17とは別であるように示されている。しかしながら、他の実施形態によれば、記憶媒体15は、前記処理回路17の記憶手段の1つでもあり得る。
ガイドツール12のための位置セットポイント及び向きセットポイントは、加えて、医療介入中に医療器具13によって辿られる軌跡に基づいて特定される。
医療器具13を患者30の体内に導入する必要のある医療介入の場合、軌跡は、医療介入中に医療器具13が患者30の体内で移動しなければならず、それに沿って前記医療器具が案内されなければならない軌跡に対応する。例えば、軌跡は、例えば、患者30の体内構造の外表面上の、そこから医療器具13を患者30の体内に貫通させなければならない進入地点の位置及びまた前記医療器具13が到達することになる目標の解剖学的構造体の領域における患者30の体内の目標地点の位置に対応する。進入地点及び目標地点は、例えば、患者30の体内構造に関連する座標系の枠内で記憶される。
医療器具13を患者30の体内に導入する必要のない医療介入の場合、例えば集束超音波による治療器具の場合、軌跡は、患者30の体内において超音波がその上で移動しなければならない軌跡に対応する。例えば、軌跡は、患者30の体内構造の外表面上の、そこから超音波が患者30の体内に貫通しなければならない進入地点の位置及びまた患者30の体内の、そこに超音波を集束させなければならない目標地点の位置に対応する。進入地点及び目標地点は、例えば、患者30の体内構造に関連する座標系の形態で記憶される。
軌跡は、ロボット機器10以外の手段により予め特定でき、この場合、それは、例えば、医療介入前に記憶媒体15内に記憶される。代替的に又は追加的に、軌跡は、ロボット機器10によっても特定でき、これは、以下の説明に記載されているとおりである。
例えば、処理回路17は、生体力学的モデルを患者30の体内構造に関する位置情報と調整するためのアルゴリズムを内蔵しており、この情報は、画像捕捉システム14により供給される。そのため、処理回路17は、ロボット機器10に関連する参照座標系内において患者30の位置及び向きを特定できる。処理回路17は、前記軌跡を特定するために、進入地点の位置及び軌跡の目標地点の位置を、前記参照座標系において、考慮対象の患者30の解剖学的構造体に関する患者30の解剖学的構造体の変形(重力、呼吸、医療器具との機械的接触等による)を考慮して特定することもできる。例えば、アルゴリズムにより、皮膚の表面の動きを内部体積に伝搬させて、体内の解剖学的構造体の位置を正確に計算することが可能である。他の例によれば、臓器の位置及び変形を、この臓器の血管の位置に関する情報(位置情報は、例えば、超音波プローブにより供給される)から特定することができる。他の例によれば、臓器の位置及び変形を、前記臓器の外表面の位置(位置情報は、例えば、内視鏡により供給される)を特定することができる。患者30の体内構造の位置に関する情報の捕捉と、生体力学的モデルを患者30の体内構造の位置に関する前記情報と調整するための計算とは、好ましくは、リアルタイム又はほぼリアルタイムで行われ、それによって参照座標系内での進入地点の位置及び目標地点の位置をリアルタイム又はほぼリアルタイムで更新して、患者30の解剖学的構造体の動き及び変形をモニタできる。この更新は、医療器具13を患者30の体内に挿入している間にも行うことができ、それによって前記医療器具13の動きにより誘発される変形も考慮される。
軌跡のパラメータ(進入地点及び目標地点の位置)をロボット機器10に関連する参照座標内で特定した後又はこの特定と同時に、処理回路17は、前記軌跡に適合するようにガイドツール12の位置セットポイント及び向きセットポイントを特定する。
制御回路16は、したがって、ロボットアーム11を制御して、処理回路17により特定された前記位置セットポイント及び前記向きセットポイントにガイドツール12を設置するか又は術者が設置することを支援し得る。好ましい実施形態において、制御回路16は、以下のモード:
− 自動モード、
− 協働モード、
− 自動追跡モード、
− 協働追跡モード
の少なくとも1つに従ってロボットアーム11を制御するのに適している。
自動モードでは、制御回路16は、ロボットアーム11を、その現在位置及び向きから位置セットポイント及び向きセットポイントに、現在位置と位置セットポイントとの間の軌跡を自動的に計算することにより移動させる。
協働モードでは、制御回路16は、ロボットアーム11を、術者により加えられる力の方向に移動させ、これらの力は、ガイドツール12又はロボットアーム11のシャフトの1つに加えられるようにすることができる。力は、ロボットアーム11の端部及び/又はそのシャフトの各々に備え付けられる1つ又は複数のセンサ(図示せず)により測定され、計算される。幾何学的制約を協働モードに組み込んで、ロボットアーム11の移動を制限し、それにより医療処置を容易にすることができる。例えば、移動は、ある領域に、ある領域の外に、軸又は曲線に沿って、ある点の周囲等に制約できる。制約は、何れの種類の幾何学的形状及びそれに関連する挙動によっても定義できる(包含/除外)。協働モードでは、制御回路16は、術者がガイドツール12を位置セットポイント及び向きセットポイントに設置することを支援する。
追跡モードでは、制御回路16は、ロボットアーム11を患者30の移動方向に移動させて、処理回路17によりリアルタイム又はほぼリアルタイムで更新される位置セットポイント及び向きセットポイントにガイドツール12を設置する。この場合、医療器具13は、ロボット機器10に関連する参照座標系内で移動するが、目標臓器に関連する座標系内にある期間では実質的に移動しないままである。
協働追跡モードでは、制御回路16は、制御された位置に関する柔軟性をもって、ロボットアーム11を患者30の移動方向に移動させる。例えば、術者は、ガイドツール12に力を加えることができ、ガイドツール12の位置を位置セットポイント及び向きセットポイントからわずかに一時的にずらすことができる。ロボットアーム11は、術者のそれらに対抗し、術者により力が加えられなくなると、ガイドツール12を位置セットポイント及び向きセットポイントに戻そうとする力を発する。柔軟性の程度は、例えば、硬さパラメータ又は距離パラメータにより調節できる。
図3は、ロボット機器10がマン−マシンインタフェース機器19を有する好ましい実施形態を概略的に示す。図3に示される例において、マン−マシンインタフェース機器19は、表示スクリーン、好ましくはタッチスクリーンである。マン−マシンインタフェース機器19により、術者は、ロボット機器10を制御して、適当な場合、実行される医療処置に関する画像を見ることができる。例えば、マン−マシンインタフェース機器19は、医療処置の計画を立てる際、例えば参照座標系内の目標地点の位置に関する医療器具13のリアルタイムの位置又はほぼリアルタイムの位置を表示することにより、医療器具13の軌跡を確立するか、又は患者30の体内の医療器具13の進行を可視化するために使用できる。マン−マシンインタフェース機器19は、画像捕捉システム14により供給される画像を表示するためにも使用できる。
図3に示される例において、マン−マシンインタフェース機器19は、ロボットアーム11も担持する移動キャリッジ18により担持されている。他の例によれば、マン−マシンインタフェース機器19が別のコンソールにより担持されるようにすること、又はそれが例えば取外し可能に手術台20のレールに取り付けられるようにすることも一切排除されない。さらに、代替的又は追加的に、他のマン−マシンインタフェース機器19も考慮できる。例えば、マン−マシンインタフェース機器19は、マウス、キーボード、タッチパッド、ジョイスティック、術者の手、指、頭若しくは眼の動きのレジストレーションを行う非接触移動検出モジュール又は音声起動制御モジュール等を含むことができる。加えて、2D及び/又は3Dゴーグルも表示スクリーンの代替とするか又はそれを補足することができる。
ロボット機器10の安全な使用を確実にするために、マン−マシンインタフェース機器19は、ロボットアーム11の動きに対する安全機能として確認モジュール(有線又は無線ペダル、ボックス−ノブ、リモートコントロール、ロボットアーム11上のスイッチ)も含み得、したがって、ロボットアーム11の動きは、前記確認モジュールの作動が条件となる。
好ましい実施形態において、処理回路17は、医療器具13の軌跡を患者の画像に基づいて特定するか又は術者が特定することを支援するように構成される。以下の説明では、医療器具を患者30の体内に導入する必要のある医療介入の計画を立てるためのロボット機器10の実装の非限定的な例を説明する。
医療介入は、例えば、軌跡、使用される医療器具13及び治療パラメータにより定義できる。軌跡は、例えば、治療対象の臓器内にある目標地点及び例えば皮膚にある進入地点から構成される。医療器具13は、その長さ、その直径、その3D幾何学形状等の幾つかの特性により定義される。治療パラメータは、アブレーション技術の設定、例えば供給電流のパワー、治療時間、領域の直径、距離マージン等を含むことができる。
ロボット機器10は、例えば、病院のシステム、又は外部システム(クラウドコンピューティング)、又は外部記憶媒体(USB、CD、DVD等)から患者30の画像(CTスキャン、PET(ポジトロン断層法)スキャン、MRIスキャン、X線、超音波等)をダウンロードして、画像を例えばマン−マシンインタフェース機器19上において二次元断層平面で見ることができ、画像は、3次元で再構築される。例えば、剛体及び非剛体レジストレーションアルゴリズムにより、同じ患者30の幾つかの画像を融合して、医療介入の計画を立てるために必要な解剖学的及び機能的情報のすべてを術者に提供できる。術者は、したがって、行われるべき医療介入に応じて1つ又は複数の軌跡を計画することができる。例えば、不可逆電気穿孔法によるアブレーションの場合、ロボット機器10により、治療の効果を最適化するために、正確に平行な軌跡を作ることができる。
軌跡の目標地点及び進入地点の位置は、例えば、術者により画像内において手作業で識別される。体内構造内での医療器具13の軌跡は、画像内で可視化して、医療器具13の端部が確実に最適な目標地点に到達し、医療器具13の挿入が進入地点と目標地点との間の繊細な解剖学的構造体に損傷を与えないように変更できる。計画策定中の意思決定プロセスを容易にするために、ロボット機器10は、関心対象の特定の臓器、神経、動脈、静脈及び血管、骨並びに治療対象の病変の輪郭及び体積を自動的に識別するセグメント化アルゴリズムを統合できる。代替的に、ロボット機器10は、目標地点及び進入地点を自動的に特定できる。例えば、目標地点は、形状認識方法により、治療のパラメータ及び目標病変の体積に基づいて計算される。進入地点は、医療器具13の軌跡と繊細な解剖学的構造体との間の距離及び皮膚上に画定された好ましい挿入領域に関する位置等の基準を最適化するための方法により計算できる。代替的に又は追加的に、ロボット機器10は、その使用中、大量の計画データを蓄積することができ、これを再使用し、分析して、人工知能アルゴリズムを介して最適な進入地点及び目標地点の選択を提案する。
好ましい実施形態において、処理回路17は、医療介入中に行われる治療のパラメータを、前記パラメータの効果を患者の画像に基づいてシミュレートすることによって調整するか又は術者が調整することを支援するように構成される。例えば、治療パラメータ、軌跡情報及び医療器具13から、ロボット機器10は、体内構造への治療の効果を計算し、患者30の画像上での正確なシミュレーションを可視化できるようにすることが可能である。例えば、サーマルアブレーションの場合、計算は、特に隣接する血管の存在及びそれらに対する冷却の影響(ヒートシンク効果)を考慮に入れることができる。したがって、術者は、治療の臨床結果を最適化するために計画データを調節できる。
このようにして、上述の計画策定プロセスでは、レーザ手術、凍結療法、ラジオ波、マイクロ波又は電気穿孔法によるアブレーション、キュリ療法、内視鏡及び1つ又は複数の医療器具13を患者30の体内に挿入する必要のあるあらゆる技術等の幅広い医療処置の計画を立てることができる。上述の計画策定プロセスでは、例えば集束超音波治療の場合等、医療器具13を患者30の体内に挿入する必要のない幅広い医療処置の計画を立てることも可能である。
計画策定に必要なデータのすべては、ロボット機器10により処理回路17の記憶手段内若しくは記憶媒体15内又は外部記憶媒体上において保護され、後にロボット機器10を用いた手術当日に要素を変更するか又は治療を実行するためにリチャージできる。
ロボット機器10を、事前に計画が立てられ、医療器具13を患者30の体内に挿入する必要のある医療処置を実行するために使用する場合の例を説明する。
手術を開始するために、ロボット機器10が手術室に搬入されて、患者30の脇に設置される。ロボットアーム11が移動キャリッジ18に取り付けられている場合、ロボット機器10は、患者30の位置のレジストレーションフェーズ前に固定される。
したがって、術者は、ロボット機器10を例えばマン−マシンインタフェース機器19によって制御し、患者30のレジストレーションフェーズを開始する。患者30のレジストレーションフェーズは、ロボット機器10に関連する参照座標系内で患者30の位置、並びにまた進入地点及び目標地点の位置及、並びにガイドツール12の位置セットポイント及び向きセットポイントを、生体力学的モデル、画像捕捉システム14により供給される位置情報及び計画された軌跡を用いて特定することを目的とする。
患者30の位置がわかり、術前画像と調整されると、術者は、位置決めフェーズを開始し、これは、ガイドツール12を行われるべき医療介入に適した位置セットポイント及び向きセットポイントに設置することを目的とする。
例えば、ロボット機器10は、ガイドツール12の寸法、進入地点の位置及び目標地点の方向を、ガイドツールが選択された軌跡上と、調節可能な進入地点から安全な距離で整合されるように考慮して、自動的にロボットアーム11を位置付ける。したがって、術者は、例えば、協働モードでロボットアーム11を制御して、ガイドツール12の位置を、軌跡と整合した状態を保持しながら進入地点のできるだけ近くに調節し、その後、ロボットアーム11の動きを停止させて、医療器具13を、ガイドツール12を通して挿入することができる。
好ましい実施形態において、ロボット機器10は、レジストレーション機器(図示せず)を有する。そのため、ロボット機器10により、術者は、患者の皮膚上の進入地点の正確なレジストレーションを行い、そこに切開創が作られる。例えば、進入地点のレジストレーションを行う機器は、ガイドツール12内に挿入される低侵襲先端を有する医療器具又は医療器具13若しくはガイドツール12に内蔵されるレーザターゲティングモジュールに対応する。
切開創が作られると、術者は、医療器具13をガイドツール12に、医療器具の先端が計画された目標地点に到達するまで挿入することによるガイドフェーズを開始できる。挿入深さの制御は、単純に医療器具13の長さ及び/又はガイドツール12に組み込まれた機械的停止システムに基づくことができる。代替的に又は追加的に、ガイドツール12は、医療器具13の挿入深さを示すためのセンサを有することができる。ロボット機器10は、したがって、医療器具13の位置を画像内にリアルタイム又はほぼリアルタイムで表示でき、目標地点が近付いた、そこに到達した又はそれを通り過ぎたときに術者にメッセージを供給できる。他の変形形態では、医療器具13は、ガイドツール12に機械的に取り付けられ、ロボットアーム11は、医療器具13を、計画された目標地点まで自動的に挿入する。
挿入中、処理回路17は、患者30の生体力学的モデルを用いて、医療器具13が通過する臓器又は解剖学的構造体の局所的変形を推測し、これらの変形を目標地点の位置の更新のために考慮に入れることができる。
手術の要求事項に応じて、ガイドフェーズ中、ロボット機器10は、例えば、追跡モード又は協働追跡モードで作動されて、患者30の動きに関係なく、目標の体内構造に関するガイドツール12の位置を保持する。ロボット機器10は、ガイドフェーズ中に幾何学的制約を加えるか又は加えないことにより、協働モードで作動させることもできる。軌跡軸上に制約される協働モードは、例えば、段階的生検の実行において有益である。
医療器具13が目標地点に到達すると、計画された医療介入を、診断目的のため又は局所的治療のため、例えば生検用組織採取、冷凍療法のための液体窒素送達、ラジオ波アブレーションのための電流生成、キュリ療法のための放射線源注入、体内構造の直視及び内視鏡下手術のための内視鏡の作業チャネル内への医療器具の挿入のために実行できる。
ガイドフェーズ中又はその後の何れの時点でも、術者は、制御画像を介して医療器具13の挿入の正確な挿入を確認できる。病院及び手術室で利用可能な設備に応じて、関心対象の解剖学的領域は、固定された又は移動式イメージング装置(CTスキャナ、MRIスキャナ、放射線C−アーク、超音波プローブ等)を用いて検査できる。好ましい実施形態において、画像は、ロボット機器10に直接送信され、その処理回路17は、例えば、これらの術中画像を術前画像と自動的に融合するためのレジストレーションアルゴリズムを含む。したがって、ロボット機器10は、計画情報を術中画像上に重ねて表示し、治療の進行又は効果を評価し、必要に応じて行わなければならない補正を特定する。
本発明の好ましい実施形態において、処理回路17は、壊死領域を自動的に識別し、それを計画領域と比較し、直径又は体積として得られたマージンを計算して表示し、依然として治療すべき直径又は体積を指示するためのセグメント化アルゴリズムも含み得る。任意選択により、ロボット機器10は、補完治療に必要な情報、例えば1つ又は複数の追加的アブレーション軌跡の位置及びパラメータも提供できる。
より一般的には、上で考察した実施形態及び利用は、非限定的な例として説明されており、したがって他の変形形態も想定できることに留意されたい。
特に、本発明は、ガイドツール12によりロボットアーム11に取り付けられた医療器具13に基づいて説明されている。しかしながら、ロボット機器10は、ガイドツール12を利用しなくても使用できることに留意されたい。例えば、ガイドツール12の使用は、医療器具13を患者30の体内に導入しなくてよい場合、例えば集束超音波による外的治療の場合は不要である。加えて、医療器具13を患者30の体内に挿入しなければならない場合、ガイドツール12の使用は、医療器具13を患者30の体内に挿入するのが術者であれば必要であるが、医療器具13を患者30の体内に自動的に挿入するのがロボットアーム11である場合、必ずしも必要とは限らない。

Claims (16)

  1. 医療器具(13)を使用して患者(30)に医療介入を行うためのロボット機器(10)であって、
    幾つかの自由度を有し、且つ前記医療器具を受けるのに適した端部を有するロボットアーム(11)と、
    前記患者の体内構造に関する位置情報を捕捉するのに適した画像捕捉システム(14)と、を含むロボット機器(10)において、
    人体の解剖学的構造体の生体力学的モデルを有する記憶媒体(15)と、
    前記医療器具のための位置セットポイント及び向きセットポイントを、前記生体力学的モデルに基づいて、前記患者の前記体内構造に関する前記位置情報に基づいて、且つ前記医療介入を行うために前記医療器具(13)によって辿られる軌跡に基づいて特定するように構成された処理回路(17)と、
    前記医療器具を前記位置セットポイント及び前記向きセットポイントに設置するか又は設置することを支援するために前記ロボットアーム(11)を制御するように構成された制御回路(16)と、を有することを特徴とするロボット機器(10)。
  2. 前記生体力学的モデルは、胸部領域、及び/又は腹部領域、及び/又は骨盤領域内における前記人体の前記解剖学的構造体をモデル化する、請求項1に記載のロボット機器(10)。
  3. 前記画像捕捉システム(14)は、非照射型である、請求項1又は2に記載のロボット機器(10)。
  4. 前記画像捕捉システム(14)は、前記患者(30)と接触せずに位置情報を捕捉するのに適した少なくとも1つのいわゆる非接触機器を有する、請求項1〜3のいずれか1項に記載のロボット機器(10)。
  5. 前記画像捕捉システム(14)は、以下の非接触機器:
    立体カメラ、
    構造化光カメラ、
    飛行時間カメラ、
    深度計測カメラ
    の少なくとも1つを有する、請求項4に記載のロボット機器(10)。
  6. 前記画像捕捉システム(14)は、前記患者30の身体の外表面の位置に対応する位置情報を供給するのに適している、請求項1〜5のいずれか1項に記載のロボット機器(10)。
  7. 前記画像捕捉システム(14)は、前記患者(30)と接触することにより、位置情報を捕捉するのに適した少なくとも1つのいわゆる接触機器を有する、請求項1〜6のいずれか1項に記載のロボット機器(10)
  8. 前記画像捕捉システム(14)は、以下の接触機器:
    超音波プローブ、
    内視鏡
    の少なくとも1つを有する、請求項7に記載のロボット機器(10)。
  9. 前記制御回路(16)は、以下のモード:
    自動モード、
    協働モード、
    自動追跡モード、
    協働追跡モード
    の少なくとも1つに従って前記ロボットアームを制御するように構成される、請求項1〜8のいずれか1項に記載のロボット機器(10)。
  10. 前記処理回路(17)は、前記患者の画像に基づいて前記医療器具の前記軌跡を特定するか又は特定することを支援するように構成される、請求項1〜9のいずれか1項に記載のロボット機器(10)。
  11. 前記処理回路(17)は、前記医療介入中に行われる治療のパラメータを、前記パラメータの効果を前記患者の画像に基づいてシミュレートすることによって調整するか又は調整することを支援するように構成される、請求項1〜10のいずれか1項に記載のロボット機器(10)。
  12. 前記ロボットアーム(11)の端部に固定されているか又は固定されることを意図される前記医療器具(13)を案内するのに適したガイドツール(12)を有する、請求項1〜11のいずれか1項に記載のロボット機器(10)。
  13. 以下の機器:
    表示スクリーン、
    タッチセンサ式表示スクリーン、
    キーボード、
    2D及び/又は3Dゴーグル、
    ジョイスティック、
    移動検出モジュール、
    音声起動制御モジュール
    のうちからの少なくとも1つのマン−マシンインタフェース機器(19)を有する、請求項1〜12のいずれか1項に記載のロボット機器(10)。
  14. 以下の機器:
    低侵襲先端を備える医療器具、
    レーザターゲティングモジュール
    のうちからの、進入地点のレジストレーションを行うための少なくとも1つの機器を有する、請求項1〜13のいずれか1項に記載のロボット機器(10)。
  15. 前記医療器具(13)は、以下の医療器具:
    生検針、
    カテーテル、
    内視鏡、
    集束超音波を用いる治療器具、
    レーザ治療器具、
    凍結療法による治療のための器具、
    ラジオ波による治療のための器具、
    電気穿孔法による治療のための器具、
    キュリ療法による治療のための器具
    の1つである、請求項1〜14のいずれか1項に記載のロボット機器(10)。
  16. 前記ロボットアーム(11)を担持する移動キャリッジ(18)を有し、前記移動キャリッジは、固定手段を有する、請求項1〜15のいずれか1項に記載のロボット機器(10)。
JP2020526272A 2017-11-09 2018-11-08 軟組織に対する低侵襲医療介入のためのロボット機器 Pending JP2021502195A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023080551A JP2023107774A (ja) 2017-11-09 2023-05-16 軟組織に対する低侵襲医療介入のためのロボット機器

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1760553A FR3073135B1 (fr) 2017-11-09 2017-11-09 Dispositif robotise pour une intervention medicale mini-invasive sur des tissus mous
FR1760553 2017-11-09
PCT/FR2018/052769 WO2019092372A1 (fr) 2017-11-09 2018-11-08 Dispositif robotisé pour une intervention médicale mini-invasive sur des tissus mous

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023080551A Division JP2023107774A (ja) 2017-11-09 2023-05-16 軟組織に対する低侵襲医療介入のためのロボット機器

Publications (1)

Publication Number Publication Date
JP2021502195A true JP2021502195A (ja) 2021-01-28

Family

ID=60955257

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020526272A Pending JP2021502195A (ja) 2017-11-09 2018-11-08 軟組織に対する低侵襲医療介入のためのロボット機器
JP2023080551A Pending JP2023107774A (ja) 2017-11-09 2023-05-16 軟組織に対する低侵襲医療介入のためのロボット機器

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023080551A Pending JP2023107774A (ja) 2017-11-09 2023-05-16 軟組織に対する低侵襲医療介入のためのロボット機器

Country Status (11)

Country Link
US (1) US11903659B2 (ja)
EP (1) EP3706656A1 (ja)
JP (2) JP2021502195A (ja)
KR (1) KR102590620B1 (ja)
CN (2) CN115444557A (ja)
AU (1) AU2018364406A1 (ja)
CA (1) CA3082046A1 (ja)
FR (1) FR3073135B1 (ja)
IL (1) IL274453B2 (ja)
SG (1) SG11202004181VA (ja)
WO (1) WO2019092372A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171263A1 (ja) * 2022-03-10 2023-09-14 ソニーグループ株式会社 制御装置および医療用ロボット
JP7498873B2 (ja) 2022-09-07 2024-06-12 河南理行合医療科技有限公司 マイクロ波理学療法の鍼治療器及びその使用方法

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3104934B1 (fr) * 2019-12-18 2023-04-07 Quantum Surgical Méthode de planification automatique d’une trajectoire pour une intervention médicale
US20210186615A1 (en) * 2019-12-23 2021-06-24 Mazor Robotics Ltd. Multi-arm robotic system for spine surgery with imaging guidance
CN111407414A (zh) * 2020-04-07 2020-07-14 上海市第一人民医院 一种用于临床诊疗的多功能远程机器人
JP7469120B2 (ja) * 2020-04-09 2024-04-16 株式会社メディカロイド ロボット手術支援システム、ロボット手術支援システムの作動方法、及びプログラム
TWI821650B (zh) * 2020-04-10 2023-11-11 日商川崎重工業股份有限公司 診斷/治療支援機器人、診斷/治療支援機器人系統、以及診斷/治療支援方法
CN115379815A (zh) * 2020-04-10 2022-11-22 川崎重工业株式会社 机器人***及其运转方法
JP7144813B2 (ja) * 2020-04-14 2022-09-30 ピクシーダストテクノロジーズ株式会社 頭髪ケア装置、および、プログラム
CN111437174A (zh) * 2020-04-16 2020-07-24 深圳瀚维智能医疗科技有限公司 理疗按摩机器人
FR3112072B1 (fr) * 2020-07-03 2023-08-11 Squaremind Dispositif robotique pour le guidage d’un bras robotise
CN116568219A (zh) * 2020-10-01 2023-08-08 真实数字化外科公司 自动导航数字手术显微镜
WO2022107073A1 (en) * 2020-11-19 2022-05-27 Auris Health, Inc. Endoscope and mounting system for a robotic surgical system
CA3212211A1 (en) 2021-03-31 2022-10-06 David Paul Noonan Co-manipulation surgical system for use with surgical instruments for performing laparoscopic surgery
US11812938B2 (en) 2021-03-31 2023-11-14 Moon Surgical Sas Co-manipulation surgical system having a coupling mechanism removeably attachable to surgical instruments
US11819302B2 (en) 2021-03-31 2023-11-21 Moon Surgical Sas Co-manipulation surgical system having user guided stage control
US11844583B2 (en) 2021-03-31 2023-12-19 Moon Surgical Sas Co-manipulation surgical system having an instrument centering mode for automatic scope movements
US11832909B2 (en) 2021-03-31 2023-12-05 Moon Surgical Sas Co-manipulation surgical system having actuatable setup joints
CN113211460B (zh) * 2021-05-01 2022-03-15 吉林大学 两台单臂工业机器人非接触式协同提升加工刚度的装置
FR3124072B1 (fr) * 2021-06-16 2023-10-20 Quantum Surgical Robot équipé d’une sonde échographique pour le guidage temps-réel d’interventions percutanées
CN114288567B (zh) * 2022-01-05 2022-08-30 北京邮电大学 一种可对生物体表及下方组织进行物理作用的机器人***
CN114948221A (zh) * 2022-05-20 2022-08-30 宁波市第六医院 一种rtvit技术辅助手术机器人术中配准方法
CN115252119A (zh) * 2022-07-20 2022-11-01 北京唯迈医疗设备有限公司 一种导管室主控机器人及其人工监测***
US11986165B1 (en) 2023-01-09 2024-05-21 Moon Surgical Sas Co-manipulation surgical system for use with surgical instruments for performing laparoscopic surgery while estimating hold force
US11832910B1 (en) 2023-01-09 2023-12-05 Moon Surgical Sas Co-manipulation surgical system having adaptive gravity compensation
CN116115451A (zh) * 2023-02-06 2023-05-16 深圳瀚维智能医疗科技有限公司 体表贴合作业平台
CN116808334B (zh) * 2023-08-16 2024-03-08 中国人民解放军总医院第一医学中心 一种神经外科引流装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005278992A (ja) * 2004-03-30 2005-10-13 Hamamatsu Univ School Of Medicine 手術支援装置、方法及びプログラム
JP2005537850A (ja) * 2002-09-05 2005-12-15 ラディ・メディカル・システムズ・アクチェボラーグ 医療装置用ガイド
JP2007209531A (ja) * 2006-02-09 2007-08-23 Hamamatsu Univ School Of Medicine 手術支援装置、方法及びプログラム
JP2008526422A (ja) * 2005-01-13 2008-07-24 メイザー サージカル テクノロジーズ リミテッド 鍵穴脳神経外科用画像ガイドロボットシステム
JP2009233043A (ja) * 2008-03-26 2009-10-15 Univ Waseda 穿刺焼灼プランニング支援装置及びそのプログラム、並びに穿刺焼灼条件判定方法
JP2010200869A (ja) * 2009-03-01 2010-09-16 Hamamatsu Univ School Of Medicine 手術支援システム
JP2014511186A (ja) * 2010-12-21 2014-05-15 レニショウ (アイルランド) リミテッド 画像を分析するための方法および装置
US20150366546A1 (en) * 2014-06-18 2015-12-24 Siemens Medical Solutions Usa, Inc. System and method for real-time ultrasound guided prostate needle biopsies using a compliant robotic arm
WO2016127173A1 (en) * 2015-02-06 2016-08-11 The University Of Akron Optical imaging system and methods thereof
WO2017062391A1 (en) * 2015-10-09 2017-04-13 Covidien Lp Surgical robotic cart with selective wheel alignment

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE29521895U1 (de) * 1994-10-07 1998-09-10 St. Louis University, St. Louis, Mo. Chirurgisches Navigationssystem umfassend Referenz- und Lokalisationsrahmen
US20060274071A1 (en) * 2004-09-29 2006-12-07 L'oreal Method of predicting the appearance of at least a portion of an individual's body
US20080186378A1 (en) * 2007-02-06 2008-08-07 Feimo Shen Method and apparatus for guiding towards targets during motion
DE102008022924A1 (de) * 2008-05-09 2009-11-12 Siemens Aktiengesellschaft Vorrichtung und Verfahren für einen medizinischen Eingriff
US8864652B2 (en) * 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
FR2936890B1 (fr) * 2008-10-03 2010-12-03 Univ Grenoble 1 Procede de traitement d'image pour estimer une deformation d'un cerveau d'un patient
CN104780849B (zh) * 2012-08-27 2018-11-13 休斯顿大学 用于成像制导和机器人辅助的手术的机器人装置和***软件、硬件和方法
AU2014231344B2 (en) * 2013-03-15 2018-10-04 Synaptive Medical Inc. Systems and methods for navigation and simulation of minimally invasive therapy
EP3041409A1 (en) * 2013-09-06 2016-07-13 Koninklijke Philips N.V. Navigation system
US9993663B2 (en) * 2013-10-16 2018-06-12 Koninklijke Philips N.V. Estimating position of an organ with a biomechanical model
EP3200718A4 (en) * 2014-09-30 2018-04-25 Auris Surgical Robotics, Inc Configurable robotic surgical system with virtual rail and flexible endoscope
US20170084036A1 (en) * 2015-09-21 2017-03-23 Siemens Aktiengesellschaft Registration of video camera with medical imaging
WO2017116512A1 (en) 2015-12-28 2017-07-06 Metritrack, Inc. System and method for the coregistration of medical image data
US10413366B2 (en) * 2016-03-16 2019-09-17 Synaptive Medical (Bardbados) Inc. Trajectory guidance alignment system and methods

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005537850A (ja) * 2002-09-05 2005-12-15 ラディ・メディカル・システムズ・アクチェボラーグ 医療装置用ガイド
JP2005278992A (ja) * 2004-03-30 2005-10-13 Hamamatsu Univ School Of Medicine 手術支援装置、方法及びプログラム
JP2008526422A (ja) * 2005-01-13 2008-07-24 メイザー サージカル テクノロジーズ リミテッド 鍵穴脳神経外科用画像ガイドロボットシステム
JP2007209531A (ja) * 2006-02-09 2007-08-23 Hamamatsu Univ School Of Medicine 手術支援装置、方法及びプログラム
JP2009233043A (ja) * 2008-03-26 2009-10-15 Univ Waseda 穿刺焼灼プランニング支援装置及びそのプログラム、並びに穿刺焼灼条件判定方法
JP2010200869A (ja) * 2009-03-01 2010-09-16 Hamamatsu Univ School Of Medicine 手術支援システム
JP2014511186A (ja) * 2010-12-21 2014-05-15 レニショウ (アイルランド) リミテッド 画像を分析するための方法および装置
US20150366546A1 (en) * 2014-06-18 2015-12-24 Siemens Medical Solutions Usa, Inc. System and method for real-time ultrasound guided prostate needle biopsies using a compliant robotic arm
WO2016127173A1 (en) * 2015-02-06 2016-08-11 The University Of Akron Optical imaging system and methods thereof
WO2017062391A1 (en) * 2015-10-09 2017-04-13 Covidien Lp Surgical robotic cart with selective wheel alignment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171263A1 (ja) * 2022-03-10 2023-09-14 ソニーグループ株式会社 制御装置および医療用ロボット
JP7498873B2 (ja) 2022-09-07 2024-06-12 河南理行合医療科技有限公司 マイクロ波理学療法の鍼治療器及びその使用方法

Also Published As

Publication number Publication date
SG11202004181VA (en) 2020-06-29
US20200281667A1 (en) 2020-09-10
IL274453A (en) 2020-06-30
AU2018364406A1 (en) 2020-05-28
EP3706656A1 (fr) 2020-09-16
WO2019092372A1 (fr) 2019-05-16
IL274453B2 (en) 2024-06-01
JP2023107774A (ja) 2023-08-03
CN110573105A (zh) 2019-12-13
FR3073135B1 (fr) 2019-11-15
US11903659B2 (en) 2024-02-20
KR20200085762A (ko) 2020-07-15
CA3082046A1 (fr) 2019-05-16
FR3073135A1 (fr) 2019-05-10
CN115444557A (zh) 2022-12-09
KR102590620B1 (ko) 2023-10-17
CN110573105B (zh) 2022-10-14
IL274453B1 (en) 2024-02-01

Similar Documents

Publication Publication Date Title
CN110573105B (zh) 用于对软组织进行微创医疗干预的机器人装置
US11622815B2 (en) Systems and methods for providing proximity awareness to pleural boundaries, vascular structures, and other critical intra-thoracic structures during electromagnetic navigation bronchoscopy
CN111248998B (zh) 用于超声图像引导的消融天线放置的***和方法
Antico et al. Ultrasound guidance in minimally invasive robotic procedures
US20220401151A1 (en) Dynamic planning method for needle insertion
Majewicz et al. Behavior of tip-steerable needles in ex vivo and in vivo tissue
CN111699515B (zh) 用于成像设备的姿态估计以及用于确定医疗设备相对于目标的位置的***和方法
Wood et al. Navigation systems for ablation
US7225012B1 (en) Methods and systems for image-guided surgical interventions
CN108451639B (zh) 用于定位与导航的多数据源集成
US20180286287A1 (en) System and methods for training physicians to perform ablation procedures
Cleary et al. Electromagnetic tracking for image-guided abdominal procedures: Overall system and technical issues
Krempien et al. Projector-based augmented reality for intuitive intraoperative guidance in image-guided 3D interstitial brachytherapy
JP5731267B2 (ja) 治療支援システム及び医用画像処理装置
JP2019514516A (ja) 画像誘導治療提供
Chang et al. Current technology in navigation and robotics for liver tumours ablation
WO2023129562A1 (en) Systems and methods for pose estimation of imaging system
Krempien et al. Frameless image guidance improves accuracy in three-dimensional interstitial brachytherapy needle placement
KR102244287B1 (ko) 신경을 감지하여 에너지를 조사하는 시술장치
JP7414611B2 (ja) ロボット手術支援装置、処理方法、及びプログラム
CN115317005A (zh) 用于提供经校正的数据组的方法和***
CN118216983A (zh) 经皮穿刺方法、装置、***、电子设备及存储介质
Meinzer et al. Computer-assisted soft tissue interventions
Maier-Hein Motion compensation and computer guidance for percutenaneous abdominal interventions
WO2024040348A1 (en) Method of preparing a subject for a medical intervention using a magnetic-field based system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221013

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230523

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230609

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230630

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240313