RU2746458C2 - Система навигации, слежения и направления для позиционирования операционных инструментов в теле пациента - Google Patents

Система навигации, слежения и направления для позиционирования операционных инструментов в теле пациента Download PDF

Info

Publication number
RU2746458C2
RU2746458C2 RU2018117932A RU2018117932A RU2746458C2 RU 2746458 C2 RU2746458 C2 RU 2746458C2 RU 2018117932 A RU2018117932 A RU 2018117932A RU 2018117932 A RU2018117932 A RU 2018117932A RU 2746458 C2 RU2746458 C2 RU 2746458C2
Authority
RU
Russia
Prior art keywords
patient
specified
viewing device
probe
paragraphs
Prior art date
Application number
RU2018117932A
Other languages
English (en)
Other versions
RU2018117932A (ru
RU2018117932A3 (ru
Inventor
Алессандро РОТИЛИО
Марко СОЛЬБЬЯТИ
Маурицио МИРАБИЛЕ
Луиджи ЦЕНИ
Original Assignee
Р.А.В. С.Р.Л.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Р.А.В. С.Р.Л. filed Critical Р.А.В. С.Р.Л.
Publication of RU2018117932A publication Critical patent/RU2018117932A/ru
Publication of RU2018117932A3 publication Critical patent/RU2018117932A3/ru
Application granted granted Critical
Publication of RU2746458C2 publication Critical patent/RU2746458C2/ru

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/062Measuring instruments not otherwise provided for penetration depth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/065Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring contact or contact pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/066Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring torque
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • A61B2090/0807Indication means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Nuclear Medicine (AREA)

Abstract

Группа изобретений относится к медицине. Система навигации, слежения и направления для позиционирования операционных инструментов в теле пациента содержит управляющее устройство, просмотровое устройство и первое средство обнаружения для определения пространственного положения просмотрового устройства. Система дополнительно содержит зонд, соединенный с операционным инструментом и выполненный с возможностью введения во внутреннюю часть тела пациента. Зонд содержит по меньшей мере один световод, имеющий зоны дисперсии светового потока, генерируемого внутри световода, и средство обнаружения для обнаружения дисперсии светового потока, чтобы идентифицировать пространственное расположение зонда, введенного в тело пациента. Управляющее устройство выполнено с возможностью проецирования на просмотровом устройстве изображения внутреннего состояния по меньшей мере одной внутренней части тела пациента и изображения зонда на основе идентифицированного пространственного расположения. Носитель данных, содержит компьютерную программу, при выполнении на компьютере осуществляющую этапы способа. Применение данной группы изобретений позволит оператору оперировать пациента точным, надежным, безопасным способом. 3 н. и 24 з.п. ф-лы, 2 ил.

Description

Настоящее изобретение относится к системе навигации, слежения и направления для позиционирования операционных инструментов в теле пациента, в которой в качестве интерфейса оператора используется дополненная реальность.
Предлагаемая система в частности подходит для таких применений, как рентгенодиагностика, онкологическая хирургическая радиология, сосудистая хирургическая радиология, процедуры, выполняемые путем введения зондов и/или игл (например, с целью биопсии и отсасывания жидкости), и нейрохирургия.
На сегодняшний день в области хирургии и хирургической навигации известно применение систем, использующих радиологические изображения и связывающих их с движением ультразвукового зонда.
Например, во время хирургической навигации этих видов используют системы, оснащенные компьютерными томографами (КТ), которые обеспечивают радиологические изображения в реальном времени и во время операции (интраоперационные компьютерные томограммы).
Существуют также другие известные системы, могущие обеспечить виртуальное отслеживание абляционных зондов, но не дающие информации, касающейся деформации.
С другой стороны, известно использование операционных очков, снабженных дисплеем для просмотра изображений. С этой целью в документе ЕР 2737868 А1 описана система, содержащая беспроводную хирургическую увеличительную линзу, которая позволяет пользователю, использующему беспроводную линзу во время выполнения процедуры, передавать информацию, полученную от беспроводной линзы, и просматривать на дисплее информацию о пациенте. Таким образом, передаваемая информация может использоваться для помощи при процедуре, проводимой в операционной, усовершенствования инструкций и записи для последующего использования.
Кроме того, в документе US 6,847,336 В1 описана система и способ отображения данных на полупрозрачном экране, установленном в нормальном поле зрения пользователя. Этот экран может быть установлен на голове пользователя или смонтирован на подвижной конструкции и расположен перед пользователем. На экране отображается пользовательский интерфейс, включая движущийся курсор и меню из пиктограмм управления компьютером. Рядом с пользователем устанавливается система слежения за глазами, используемая для управления движением курсора.
Кроме того, в документе US 7501995 B2 описана система и способ представления данных клинической поддержки, в которых используется навигация с помощью зрения.
Кроме того, в документе WO 2009083191 A1 описана система избирательного отображения, позволяющая выборочно отображать данные и информацию на устройстве отображения, установленном на очках.
С другой стороны, также известна реконструкция медицинских изображений посредством трехмерного отображения, при котором предусмотрено трехмерное отслеживание объема на пациенте и, возможно, также отслеживание иглы в различных областях медицинского и хирургического применения.
Например, документ US 5526812 A описывает систему отображения, позволяющую увеличивать и улучшать визуальное представление структур тела во время медицинских процедур.
Другие примеры систем и способов навигации в дополненной реальности в процедурах, связанных с медицинскими вмешательствами, описаны в документах US 7,774,044 В2, US 2002/0082498 А1 и US 2013/0267838 А1.
Несмотря на то, что все вышеперечисленные системы описывают различные способы помощи оператору во время операции, в случае минимально-инвазивных вмешательств все еще существуют некоторые ограничения.
Действительно, в случае минимально-инвазивных вмешательств предусмотрен ввод в тело пациента хирургических инструментов, т.е. зондов, делающих возможными операции без вскрытия тела пациента. Такие вмешательства сложны из-за трудностей с точной оценкой положения тканей, на которых необходимо проводить операцию, и вводимых инструментов. Из-за этой сложности при проведении операции часто возникают ошибки.
Эти системы сочетают использование ультразвука, характеризующегося низким пространственным разрешением, воспроизведение радиологических изображений, характеризующихся высоким разрешением, путем отслеживания ультразвукового зонда (зондов) для минимально-инвазивных вмешательств с помощью электромагнитных датчиков или оптических систем без пространственного разрешения или с низким пространственных разрешением.
В этом контексте техническая задача, лежащая в основе настоящего изобретения, заключается в том, чтобы предложить систему навигации, слежения и направления для позиционирования операционных инструментов в теле пациента, позволяющую преодолеть один или более вышеупомянутых недостатков известного уровня техники.
В частности, целью настоящего изобретения является создание системы навигации, слежения и направления для позиционирования операционных инструментов в теле пациента, в которой в качестве интерфейса оператора используется дополненная реальность, чтобы оператор мог оперировать пациента точным, надежным, безопасным и эффективным способом.
Преимущественно изобретение относится к системе и способу, который объединяет различные технологии, позволяющие в совокупности или в их комбинациях отображать на устройствах любого типа изображения, связанные с внутренними структурами тела пациента (биомедицинского, физиологического и патологического типа) и операционными инструментами, частично вводимыми в тело пациента, которые, если тело пациента не вскрыто, извне оператору не видны. Эти изображения в 2, 3 или 4 измерениях становятся видимыми для оператора в позициях, соответствующих реальному положению в пространстве структур, которые они отображают.
Предпочтительно в соответствии с изобретением визуальное отображение также относится к использованию, отслеживанию и позиционированию хирургических инструментов с особой фокусировкой на "нацеливание" на патологии в организме человека.
Таким образом, настоящее изобретение обеспечивает систему навигации, слежения и направления и соответствующий способ для позиционирования операционных инструментов в теле пациента, причем в качестве интерфейса оператора для просмотра в реальном времени операционного поля внутри тела пациента в точном фактическом наружном положении пациента используется дополненная реальность.
В соответствии с первым аспектом изобретения упомянутая техническая задача и указанные цели по существу достигнуты посредством системы навигации, слежения и направления для позиционирования операционных инструментов в теле пациента, имеющей технические признаки, изложенные в одном или нескольких пунктах прилагаемой формулы изобретения.
В частности данное изобретение обеспечивает систему навигации, слежения и направления для позиционирования операционных инструментов в теле пациента, содержащую:
- управляющее устройство, выполненное с возможностью приема множества данных, относящихся к внутреннему состоянию тела пациента;
- просмотровое устройство, выполненное так, что посредством указанного просмотрового устройства обеспечена возможность для оператора видеть по меньшей мере одну внутреннюю часть тела пациента; и
- первое средство обнаружения для определения пространственного положения просмотрового устройства.
Управляющее устройство выполнено с возможностью проецирования на просмотровом устройстве изображения внутреннего состояния внутренней части тела пациента, при этом изображение получено путем обработки множества данных на основе пространственного положения просмотрового устройства.
Предпочтительно система дополнительно содержит зонд, соединенный с операционным инструментом и выполненный с возможностью введения в часть тела пациента, причем зонд содержит по меньшей мере один световод, имеющий зоны дисперсии светового потока, генерируемого внутри световода, и средство обнаружения дисперсии светового потока, чтобы идентифицировать пространственное расположение зонда, введенного в тело пациента.
Предпочтительно управляющее устройство также выполнено с возможностью проецирования на просмотровом устройстве изображения зонда на основе идентифицированного пространственного расположения.
Зависимые пункты формулы изобретения, включенные в настоящий документ путем ссылки, соответствуют различным вариантам осуществления изобретения.
Во втором аспекте изобретения упомянутая техническая задача и указанные цели по существу достигнуты с помощью способа навигации, слежения и направления для позиционирования операционных инструментов в теле пациента, имеющего технические признаки, изложенные в одном или нескольких пунктах прилагаемой формулы изобретения.
В соответствии с изобретением способ содержит следующие этапы:
- обеспечение наличия просмотрового устройства, выполненного так, что посредством этого просмотрового устройства обеспечена возможность для оператора видеть по меньшей мере одну внутреннюю часть тела пациента (Р);
- обеспечение наличия первого средства обнаружения для определения пространственного положения просмотрового устройства;
обеспечение наличия управляющего устройства для выполнения следующих этапов:
- прием множества данных, относящихся к внутреннему состоянию тела пациента;
- обработка указанного множества данных на основе пространственного положения просмотрового устройства; и
- проецирование на просмотровом устройстве изображения внутреннего состояния по меньшей мере одной внутренней части тела пациента на основе осуществленной обработки.
Предпочтительно способ содержит следующие этапы:
- обеспечение наличия зонда, соединенного с операционным инструментом и выполненного с возможностью введения в часть тела пациента, причем зонд содержит по меньшей мере один световод, имеющий зоны дисперсии светового потока, генерируемого внутри световода, и средство обнаружения дисперсии светового потока для идентификации пространственного расположения зонда, введенного в тело пациента;
- кроме того, проецирование посредством управляющего устройства на просмотровом устройстве изображения зонда на основе идентифицированного пространственного расположения.
Зависимые пункты формулы изобретения, включенные в настоящий документ путем ссылки, соответствуют различным вариантам осуществления изобретения.
В третьем аспекте изобретения упомянутая техническая задача и указанные цели по существу достигнуты с помощью способа навигации, слежения и направления для позиционирования операционных инструментов в теле пациента, отличающегося тем, что его осуществляют посредством компьютера, как описано в прилагаемой формуле изобретения.
В четвертом аспекте изобретения упомянутая техническая задача и указанные цели по существу достигнуты с помощью компьютерной программы, отличающейся тем, что при выполнении этой программы на компьютере она выполняет этапы описанного способа.
Дополнительные признаки и преимущества настоящего изобретения станут более понятными из примерного и, следовательно, не ограничивающего описания предпочтительного, но не исключительного варианта осуществления системы навигации, слежения и направления для позиционирования операционных инструментов в теле пациента, как показано на прилагаемом чертеже, причем фиг. 1 представляет собой перспективный схематический вид системы навигации, слежения и направления для позиционирования операционных инструментов в теле пациента в соответствии с настоящим изобретением во время рабочей конфигурации.
Со ссылкой на прилагаемые чертежи, номер позиции 1 обозначает в целом систему навигации, слежения и направления для позиционирования операционных инструментов в теле пациента, далее просто называемую системой 1.
Система 1 содержит управляющее устройство 2, выполненное с возможностью приема множества данных, относящихся к внутреннему состоянию тела пациента Р.
Предпочтительно множество данных, относящихся к внутреннему состоянию тела пациента Р, получают по меньшей мере посредством сканирования, например, облучения рентгеновскими лучами, МРТ (магнитно-резонансная томография), КТ (аксиальная компьютерная томография), ПЭТ-КТ (позитронно-эмиссионная компьютерная томография).
Сканирование может выполняться на месте или предварительно загружаться в управляющее устройство 2.
Система 1 содержит просмотровое устройство 3, выполненное так, что посредством просмотрового устройства 3 обеспечена возможность для оператора, который не показан, видеть по меньшей мере одну внутреннюю часть Pi тела пациента (Р).
Кроме того, система содержит первое средство 4 обнаружения для определения пространственного положения просмотрового устройства 3.
Управляющее устройство 2 выполнено с возможностью проецирования на просмотровом устройстве 3 изображения внутреннего состояния внутренней части Pi тела пациента Р, в частности изображение получается путем обработки множества данных на основе пространственного положения просмотрового устройства 3.
Другими словами, управляющее устройство 2 может проецировать на просмотровом устройстве 3 изображение в дополненной реальности внутренней части тела пациента Р, изменяющееся в зависимости от пространственного расположения просмотрового устройства 3.
Предпочтительно просмотровое устройство 3 расположено вдоль зрительной линии "оператор - часть тела пациента Р", чтобы обеспечить наилучшие эргономические условия для оператора и избежать любых проблем с координацией.
Предпочтительно согласно предпочтительному варианту осуществления настоящего изобретения, показанному на фиг. 1, просмотровое устройство 3 образовано просмотровым устройством, носимым оператором перед лицом (также называемым устанавливаемым на голове дисплеем (Head Mounted Display, HMD)), например, очками с по меньшей мере частично прозрачными линзами.
Предпочтительно просмотровое устройство 3 содержит гироскоп, компас и инерциальное измерительное устройство, преимущественно эти элементы позволяют корректно и точно идентифицировать пространственное положение просмотрового устройства 3.
Предпочтительно просмотровое устройство 3 также содержит датчик глубины, выполненный с возможностью записи восстановленного объема пациента, что предпочтительным образом позволяет оператору исследовать органы и патологии в теле пациента Р, одновременно наблюдая того же пациента Р.
Предпочтительно система 1 в соответствии с настоящим изобретением дополнительно содержит зонд, который не показан, соединенный с операционным инструментом 5 (т.е. вставленный внутрь) и выполненный с возможностью введения в часть Pi тела пациента Р.
Зонд содержит по меньшей мере один световод, который не показан, имеющий зоны дисперсии светового потока, генерируемого внутри световода, и средство обнаружения дисперсии светового потока, чтобы идентифицировать пространственное расположение зонда, введенного в тело пациента Р.
В сущности, управляющее устройство 2 также выполнено с возможностью проецирования на просмотровом устройстве 3 изображения зонда на основе идентифицированного пространственного расположения.
Таким образом, благодаря настоящему изобретению оператор может воспроизвести на просмотровом устройстве 3 то, что иначе не было бы видно невооруженным глазом. Действительно, управляющее устройство 2 передает в просмотровое устройство 3 изображение дополненной реальности, которое показывает не только внутреннее состояние тела пациента Р, но и движение зонда (и, следовательно, соединенного с ним операционного инструмента 5) во внутренней части Pi тела того же пациента Р.
Следовательно, реальное изображение пациента Р, видимое при помощи просмотрового устройства 3, накладывается на мнимое изображение, проецируемое с прозрачностью, и показывает органы и внутренние ткани пациента Р вместе с частью зонда, введенного в тело пациента Р, которые иначе не было бы видны.
Следовательно, благодаря настоящему изобретению оператор может работать на пораженном участке абсолютно безопасно и точно, без необходимости вскрывать тело пациента Р, чтобы отобразить рабочую область и положение/движение операционных инструментов 5.
Как сказано выше, чтобы идентифицировать пространственное расположение зонда, введенного в тело пациента Р, предусмотрен световод, в котором протекает световой поток. Путем модуляции и измерения потерь мощности оптического излучения, отраженного из-за областей дисперсии, с помощью управляющего устройства 2 можно определить и, следовательно, отобразить на просмотровом устройстве 3 положение зонда внутри пациента Р.
Следовательно, можно в реальном времени проконтролировать и отобразить правильность обращения с хирургическими инструментами 5, которые включают в себя зонды, являющиеся объектом настоящего изобретения, чтобы работать точно и надежно.
Другими словами, световод подвергнут микрообработке вдоль его центральной оси, чтобы потери мощности отражаемого оптического излучения могли изменяться в зависимости от существования и направления кривизны, испытываемой световодом.
Зоны дисперсии предпочтительно реализуют посредством процедуры микрообработки световода, заключающейся в прямом механическом истирании поверхностного слоя световода (также называемого "оболочкой"), чтобы локально уменьшить степень удержания света в сердцевине.
Благодаря части световода, подвергнутой избирательному удалению оболочки, свет, уже не ограничиваемый внутри сердцевины, может выходить наружу, что приводит к потере мощности отраженной волны.
Потери мощности оптического излучения возрастают или уменьшаются после положительной или отрицательной кривизны световода, поэтому оказывается, что потери мощности прямо пропорциональны кривизне чувствительной области (также называемой "сердцевиной") световода.
Итак, в соответствии с принципом работы настоящей системы 1 обеспечивается интеграция измерения изгиба зонда с данными о положении, получаемыми от первого средства 4 обнаружения для определения пространственного положения просмотрового устройства 3.
Согласно возможному варианту осуществления настоящего изобретения пространственная система отсчета реализуется с помощью шарнирного манипулятора с пятью степенями свободы, позволяющему обеспечить декартовы координаты X, Y, Z зонда относительно системы отсчета "операционное поле".
Предпочтительно зоны дисперсии образованы рядом первых зон дисперсии, последовательно расположенных вдоль по меньшей мере одной части указанного световода.
Предпочтительно зоны дисперсии, кроме того, образованы рядом вторых зон дисперсии, последовательно расположенных вдоль по меньшей мере одной части указанного световода и со смещением в радиальном направлении относительно центральной оси световода.
Благодаря расположению со смещением этих двух рядов зон дисперсии можно получить точную оценку пространственного расположения зонда.
Еще более предпочтительно вторые зоны дисперсии расположены под углом 90° относительно ряда первых зон дисперсии, измеренным относительно центральной оси световода.
Предпочтительно зонд содержит два параллельных световода, в которых ряд первых зон дисперсии и ряд вторых зон дисперсии соответственно образованы на одном из этих двух световодов.
Предпочтительно световод соединен с источником света, в частности с лазером, который не показан, и имеет отражающую стенку, расположенную на свободном конце, причем между лазером и отражающей стенкой расположен направленный ответвитель, соединенный с осциллографом.
Предпочтительно, закрывая свободный конец оптического волокна светоотражающим материалом, возможно осуществить отражение света в противоположном направлении.
Предпочтительно система содержит узел преобразования видеосигнала, который не показан, соединенный с управляющим устройством 2.
Предпочтительно узел преобразования видеосигнала содержит: по меньшей мере два конвертера VGA-HDMI, по меньшей мере один конвертер BNC-HDMI и по меньшей мере два порта HDMI. Более предпочтительно, конвертеры расположены в одном контейнере, а пять видеосигналов определяют вход "переключателя" и "преобразователя масштаба" с пятью входами и одним выходом HDMI. Видеосигналы принимаются переключателем и отправляются по стандарту HDMI в просмотровое устройство 3.
Видеосигналы передаются в просмотровое устройство 3 устройством зеркального отображения или кодером, в качестве альтернативы можно использовать локальный сервер.
Согласно возможному варианту осуществления настоящей системы предусмотрено, что видеосигналы могут быть выбраны оператором с помощью нажимного устройства, например, педали.
Педаль полезна с точки зрения эргономики во время операции, при которой врач/оператор должен смотреть на разные мониторы, как во время операции, так и во время диагностики, а также при прицеливании в области биопсии.
Предпочтительно система 1 содержит второе средство 6 обнаружения наружной поверхности тела пациента Р, которое не показано, соединенное с управляющим устройством 2 и содержащее, например, камеру или стереоскопическую камеру, предпочтительно составляющую одно целое с просмотровым устройством 3.
Предпочтительно второе средство 6 обнаружения наружной поверхности тела пациента Р делает возможным записывать операцию при осуществлении ее оператором. Кроме того, если это средство установлено на просмотровом устройстве 3, они особенно полезны как с точки зрения инструкций, потому что можно получить непосредственно точку клинического наблюдения, так и с точки зрения правовых аспектов, так как они записывают всю операцию.
Предпочтительно просмотровое устройство 3 содержит устройство передачи и приема данных, которое не показано, предпочтительно при помощи Wi-Fi, соединенное с первым средством обнаружения для определения пространственного положения просмотрового устройства 3 и/или соединенное со вторым средством 6 обнаружения наружной поверхности тела пациента Р.
Чтобы изображение дополненной реальности отображалось как можно точнее и в соответствии с реальным внутренним состоянием пациента Р, необходимо учитывать жизненно важные параметры пациента Р (дыхание, сердцебиение и т.п.). На самом деле, радиологические обследования могут обеспечить только статическое изображение внутренней части тела пациента Р.
Для этого необходимо идентифицировать изменение пространственной конфигурации внешней поверхности тела пациента Р, наблюдаемой оператором при помощи просмотрового устройства 3, чтобы получить корректное перекрытие/проекцию изображения, обработанного управляющим устройством 2, на реальном изображении пациента Р.
Изобретение предусматривает обеспечение второго средства 6 обнаружения наружной поверхности тела пациента Р, соединенного с управляющим устройством 2.
В частности изобретение предусматривает размещение по меньшей мере трех первых физических маркеров, подходящих для размещения на наружной поверхности части Pi тела пациента Р и обнаруживаемых самим вторым средством 6 обнаружения, обнаружение динамического позиционирования первых физических маркеров для передачи множества данных в управляющее устройство 2 и совмещение при помощи управляющего устройства 2 первых виртуальных маркеров изображения внутреннего состояния, спроецированного на просмотровом устройстве 3, с первыми физическими маркерами, расположенными на теле пациента Р.
Другими словами, второе средство 6 обнаружения наружной поверхности тела пациента Р содержит по меньшей мере три первых физических маркера (предпочтительно электромагнитных или оптических), которые не показаны, подходящих для размещения на наружной поверхности части Pi тела пациента Р и выполненных с возможностью обнаружения самим вторым средством 6 обнаружения. Второе средство 6 обнаружения наружной поверхности тела пациента Р обнаруживает динамическое позиционирование первых физических маркеров для передачи множества данных в управляющее устройство 2, предпочтительно выполненное с возможностью совмещения первых виртуальных маркеров изображения внутреннего состояния, спроецированного на просмотровом устройстве 3, с первыми физическими маркерами, расположенными на теле пациента 3.
Это делает возможным создание точного и качественного изображения дополненной реальности, мгновенно отражающего реальное внутреннее состояние пациента, при этом неподвижные изображения "корректируются" с учетом жизненно важных параметров пациента Р.
Изобретение предусматривает установку второго физического маркера, расположенного на зонде и пригодного для расположения вне тела пациента Р, а также для обнаружения физического положения второго маркера с использованием второго средства 6 обнаружения внешней поверхности тела пациента Р.
Другими словами, система 1 содержит второй физический маркер, расположенный на зонде и пригодный для расположения при применении вне тела пациента Р, причем второе средство 6 обнаружения наружной поверхности тела пациента Р также выполнено с возможностью обнаружения физического положения второго маркера.
Предпочтительно таким образом возможно точно идентифицировать позиционирование зонда в теле пациента Р и видеть его в дополненной реальности, проецируемой на просмотровом устройстве 3.
Здесь следует отметить, что пространственный ориентир может быть обеспечен фактом существования антропоморфного манипулятора, используемого оператором, тогда в этой конфигурации второй физический маркер может представлять дополнительную часть информации (по существу избыточную), но полезную для увеличения надежности системы в отношении рукоятки зонда.
Предпочтительно второе средство 6 обнаружения наружной поверхности тела пациента содержит по меньшей мере одно из следующих устройств: ультразвуковой преобразователь, инерциальное измерительное устройство и измерительный датчик, чтобы в реальном времени определять указанные жизненно важные параметры пациента.
В частности, измерительный датчик представляет собой систему, состоящую по меньшей мере из двух рычагов, соединенных посредством шарнира, движение которого определяется датчиком.
Концы этих двух рычагов закреплены на груди человека и, следовательно, движутся в соответствии с движением груди человека при дыхании. Таким образом, они показывают динамическую картину дыхательного цикла. Каждый момент этой картины будет сравниваться с выбранным в этот момент целевым положением, чтобы сопоставить каждую фазу дыхательного цикла, определенную таким образом, с положением шарнира.
Предпочтительно система 1 содержит датчик плотности внутренних тканей пациента Р, предпочтительно волоконно-оптический интерферометрический датчик с модуляцией поглощением.
Предпочтительно благодаря датчику плотности можно интегрировать множество определенных данных, а также определить степень так называемой "жесткости", что позволяет обеспечить параметры, характеризующие ткани, пересекаемые зондом.
Предпочтительно настоящая система 1 может быть успешно применена во время операции, перед операцией, или после операции. Действительно, система 1 позволяет оператору визуализировать перекрытие внутренних органов и патологий в трех измерениях, совмещая их с реальными анатомическими структурами.
Кроме того, настоящая система 1 позволяет отображать операционные инструменты внутри тела пациента Р и их деформацию из-за различных анатомических структур.
Ее можно использовать как для минимально-инвазивных процедур, так и для стандартных хирургических вмешательств. Единственное отличие заключается в том, что при минимально-инвазивных процедурах весь восстанавливаемый объем внутренней части тела пациента Р совмещается с телом пациента Р, в то время как во втором случае совмещение производится между определенной частью органа и той же частью органа в восстановленном объеме. Например, на фиг. 1 схематически показан реальный сегмент печени и его восстанавливаемый объем.
Система согласно настоящему изобретению имеет много преимуществ.
Что касается оператора, решение согласно изобретению позволяет наблюдать изображения в 2, 3 или 4 измерениях, точно в том месте, где расположена структура, к которой они относятся, и с высоким пространственным разрешением, а также увеличить разрешение, точность и распознавание правильного позиционирования операционных инструментов 5.
Кроме того, найденное решение позволяет обнаруживать положение и изгиб зондов и деформируемых инструментов.
В отличие от решений, используемых для решения тех же задач, настоящая система обеспечивает более высокую точность, даже без электромагнитных систем, при помощи механических систем и/или машинного зрения - вместе или по отдельности.
Система согласно настоящему изобретению может быть использована для подготовки или выполнения хирургического вмешательства, лапаротомии, эндоскопии или минимально-инвазивного вмешательства - чрескожного или чрескостного, или во время вмешательства при лапаротомии или эндоскопии. Кроме того, эта система подходит для проведения чрескожных диагностических процедур или диагностических процедур, проводимых под рентгенологическим контролем, таких как, например, биопсия или аспирация иглой.
Предпочтительно изобретение предусматривает, что этап обработки множества данных на основе пространственного положения просмотрового устройства 3 содержит обработку посредством сегментации органов и патологий.
Предпочтительно этап обработки содержит процесс трехмерного рендеринга изображений, полученных при радиологических обследованиях.
Изобретение также содержит создание трехмерного представления с патологией, сегментированной и отделенной от остальной части объема, в зависимости от осуществляемых сегментаций.
Изобретение дополнительно содержит этап проецирования на просмотровом устройстве 3 изображения внутреннего состояния по меньшей мере одной внутренней части Pi тела пациента Р в зависимости от выполняемой обработки, осуществляемый путем проецирования совместного визуального отображения органов и патологий.
В качестве альтернативы предпочтительно изобретение предусматривает, что этап обработки множества данных на основе пространственного положения просмотрового устройства 3 содержит обработку посредством сегментации органов и некроза, образовавшегося после лечения.
Изобретение также содержит создание трехмерного представления с патологией, сегментированной и отделенной от остальной части объема, в зависимости от осуществляемых сегментаций.
Предпочтительно этап обработки содержит процесс трехмерного рендеринга изображений, полученных при радиологических обследованиях.
Изобретение дополнительно содержит этап проецирования на просмотровом устройстве 3 изображения внутреннего состояния по меньшей мере одной внутренней части Pi тела пациента Р в зависимости от выполняемой обработки, осуществляемый путем проецирования совместного визуального отображения патологии и некроза.
Другими словами, в первом из этих двух вариантов изобретение предусматривает применение компьютерной программы, способной осуществить сегментацию органов и патологий (например, опухолей и т.п.) и трехмерный рендеринг изображений, полученных при радиологических обследованиях. Кроме того, программное обеспечение также может сравнивать трехмерный рендеринг изображений, полученных при разных исследованиях. Она состоит из программных кодов, которые включают в себя алгоритмы сегментации.
В частности, программа представляет собой веб-приложение, которое может принимать изображения от разных радиологических обследований (MPT, КТ, ПЭТ-КТ) и преобразовывать их в трехмерное представление с патологией, сегментированной и отделенной от остальной части объема (например, с помощью другого цвета). Сегментация полностью автоматическая, то есть она происходит без вмешательства пользователя, и не требует никакой коррекции.
Кроме того, во втором из двух вариантов осуществления программа также определяет, было ли лечение успешным или нет. Действительно, благодаря применению этого программного обеспечения органы и некроз, образовавшийся после лечения, на изображениях сегментируются (ПЭТ-КТ, МРТ и КТ), объем регистрируется до лечения и после лечения, и выполняется совместное визуальное представление патологии и некроза.
Программа предусматривает получение запроса на обработку изображения внутренней части Pi тела пациента Р и передачу в управляющее устройство 2 данных, репрезентативных для запроса.
Другими словами, веб-клиент запрашивает выполнение скрипта, скрипт помещается в планировщик, который будет управлять очередью или порядком скрипта, который будет выполняться на сервере, и, как только планировщик даст разрешение, сервер обработает файлы с требуемым скриптом и запишет файлы в совместно используемое запоминающее устройство.
Программа предусматривает получение изображение зонда, как определено выше, и отображение этого изображения.
Другими словами, веб-клиент найдет сгенерированные файлы или запрошенные слои и будет просматривать их при помощи просмотрового устройства 3, в частности при помощи устанавливаемого на голове дисплея.
Другой вариант осуществления изобретения содержит регистрацию восстановленного объема тела пациента с использованием датчика глубины. Предпочтительно этот датчик позволяет оператору исследовать органы и патологии в теле пациента Р, одновременно наблюдая того же пациента Р.
Это представляет собой второе решение компьютерной программы, основанной на соответствующих средствах, приспособленных для реализации так называемого "машинного зрения".
Это второе решение предусматривает применение датчиков глубины и стереоскопической камеры, вместе или отдельно, таким образом, чтобы совместить два объема. Вышеупомянутая камера применяется как при распознавании с применением дополненной реальности, так и для создания "карты несоответствия", позволяющей получить больше информации о глубине сцены; по этой второй причине камера должна также обеспечивать возможность регулировки межзрачкового расстояния, чтобы в этом случае работать с разными диапазонами глубины (например, с двумя/тремя фиксированными предварительными установками для большей дальности и дающей большую точность меньшей дальности).
Следует отметить, что для определения карты глубин сцены может быть достаточно одного только датчика глубины, что делает ненужным расчет карты несоответствия с использованием стереоскопической камеры, но, учитывая, что этот тип датчиков часто восприимчив к сильному свету и источникам инфракрасного излучения, могущим помешать считыванию, в некоторых случаях может потребоваться, интегрировать обе технологии, чтобы получить более точное соответствие между реальностью и дополненной реальностью.
Выше была описана система навигации, слежения и направления для позиционирования операционных инструментов в теле пациента, в которой в качестве интерфейса оператора используется дополненная реальность, чтобы оператор мог оперировать пациента точным, надежным, безопасным и эффективным способом.

Claims (54)

1. Система (1) навигации, слежения и направления для позиционирования операционных инструментов (5) в теле пациента (P), содержащая:
- управляющее устройство (2), выполненное с возможностью приема множества данных, относящихся к внутреннему состоянию тела пациента (P);
- просмотровое устройство (3), носимое оператором перед лицом, выполненное так, что посредством указанного просмотрового устройства (3) обеспечена возможность для оператора видеть по меньшей мере внутреннюю часть (Pi) тела пациента (P);
- первое средство (4) обнаружения для определения пространственного положения указанного просмотрового устройства (3);
причем указанное управляющее устройство (2) выполнено с возможностью проецирования на указанном просмотровом устройстве (3) изображения внутреннего состояния указанной по меньшей мере внутренней части (Pi) тела пациента (P), причем указанное изображение получено путем обработки указанного множества данных на основе указанного пространственного положения указанного просмотрового устройства (3);
- зонд, соединенный с операционным инструментом (5) и выполненный с возможностью введения во внутреннюю часть (Pi) тела указанного пациента (P), причем указанный зонд содержит по меньшей мере один световод, имеющий зоны дисперсии светового потока, генерируемого внутри указанного световода, и средство обнаружения дисперсии указанного светового потока, чтобы идентифицировать пространственное расположение зонда, введенного в тело пациента (P), причем указанное управляющее устройство (2) также выполнено с возможностью проецирования на указанном просмотровом устройстве (3) изображения указанного зонда на основе идентифицированного пространственного расположения; отличающаяся тем, что указанные зоны дисперсии образованы рядом первых зон дисперсии, последовательно расположенных вдоль по меньшей мере одной части указанного по меньшей мере одного световода.
2. Система (1) по п. 1, в которой указанные зоны дисперсии также образованы рядом вторых зон дисперсии, последовательно расположенных вдоль по меньшей мере части указанного по меньшей мере одного световода и со смещением в радиальном направлении относительно центральной оси указанного по меньшей мере одного световода.
3. Система (1) по п. 2, в которой указанный ряд вторых зон дисперсии расположен под углом 90° относительно ряда первых зон дисперсии, причем указанный угол измерен относительно центральной оси указанного по меньшей мере одного световода.
4. Система (1) по п. 2 или 3, в которой указанный зонд предпочтительно содержит два параллельных световода, причем указанный ряд первых зон дисперсии и указанный ряд вторых зон дисперсии соответственно образован на одном из указанных двух световодов.
5. Система (1) по любому из пп. 1-4, в которой указанный по меньшей мере один световод соединен с источником света, таким как лазер, и имеет отражающую стенку, расположенную на одном свободном конце, причем между указанным лазером и указанной отражающей стенкой расположен направленный ответвитель, соединенный с осциллографом.
6. Система (1) по любому из пп. 1-5, содержащая узел преобразования видеосигнала, соединенный с управляющим устройством (2), причем предпочтительно указанный узел преобразования видеосигнала содержит: по меньшей мере два конвертера VGA-HDMI, по меньшей мере один конвертер BNC-HDMI и по меньшей мере два порта HDMI.
7. Система по любому из пп. 1-6, в которой указанное множество данных, относящихся к внутреннему состоянию тела пациента, получено посредством по меньшей мере одного сканирования, такого как облучение рентгеновскими лучами, МРТ, КТ или ПЭТ-КТ.
8. Система (1) по любому из пп. 1-7, в которой указанное просмотровое устройство (3) расположено вдоль зрительной линии "оператор - часть тела пациента (P)".
9. Система (1) по любому из пп. 1-9, в которой указанное просмотровое устройство (3), носимое оператором перед лицом, представляет собой очки.
10. Система (1) по любому из пп. 1-9, содержащая второе средство (6) обнаружения наружной поверхности тела пациента (Р), соединенное с управляющим устройством (2), причем указанное второе средство (6) обнаружения содержит такое устройство, как камера или стереоскопическая камера, предпочтительно составляющее одно целое с просмотровым устройством (3).
11. Система (1) по п. 10, в которой указанное второе средство (6) обнаружения наружной поверхности тела пациента (P) содержит по меньшей мере три первых физических маркера, подходящих для расположения на наружной поверхности внутренней части (Pi) тела пациента (P) и выполненных с возможностью обнаружения, причем указанное управляющее средство (2) выполнено с возможностью совмещения первого внутреннего состояния виртуальных маркеров изображения, спроецированного на просмотровом устройстве (3), с указанными первыми физическими маркерами.
12. Система (1) по любому из пп. 10-11, в которой указанное просмотровое устройство (3) содержит устройство передачи и приема данных, предпочтительно при помощи Wi-Fi, соединенное с первым средством (4) обнаружения для определения пространственного положения просмотрового устройства (3) и/или соединенное со вторым средством (6) обнаружения наружной поверхности тела пациента (P).
13. Система (1) по любому из пп. 1-12, в которой указанное просмотровое устройство (3) содержит гироскоп, компас и инерциальное измерительное устройство.
14. Система (1) по любому из пп. 1-13, в которой указанное просмотровое устройство (3) дополнительно содержит датчик глубины, выполненный с возможностью записи восстановленного объема пациента (Р).
15. Система по п. 10, содержащая второй физический маркер, расположенный на зонде и пригодный для расположения при применении вне тела пациента (P), причем второе средство (6) обнаружения наружной поверхности тела пациента (P) также выполнено с возможностью обнаружения физического положения второго маркера.
16. Система по любому из пп. 1-15, содержащая антропоморфный манипулятор с пятью степенями свободы, обеспечивающий декартовы координаты X, Y, Z зонда относительно системы отсчета, предварительно заданной системой (1).
17. Система (1) по любому из пп. 1-16, содержащая датчик плотности внутренних тканей пациента, предпочтительно волоконно-оптический интерферометрический датчик с модуляцией поглощением.
18. Способ навигации, слежения и направления для позиционирования операционных инструментов (5) в теле пациента (P), содержащий следующие этапы:
- обеспечение наличия просмотрового устройства (3), носимого оператором перед
лицом, выполненного так, что посредством указанного просмотрового устройства (3) обеспечена возможность для оператора видеть по меньшей мере внутреннюю часть (Pi) тела пациента (P);
- обеспечение наличия первого средства (4) обнаружения для определения пространственного положения указанного просмотрового устройства (3);
- обеспечение наличия управляющего устройства (2) для выполнения следующих этапов:
- прием множества данных, относящихся к внутреннему состоянию тела пациента (P);
- обработка указанного множества данных на основе пространственного положения просмотрового устройства (3);
- проецирование на указанном просмотровом устройстве (3) изображения внутреннего состояния указанной по меньшей мере внутренней части (Pi) тела пациента (P) в зависимости от выполняемого вмешательства;
отличающийся тем, что способ содержит следующие этапы:
- обеспечение наличия зонда, соединенного с операционным инструментом (5) и выполненного с возможностью введения во внутреннюю часть (Pi) тела пациента (P),
причем указанный зонд содержит по меньшей мере один световод, имеющий зоны дисперсии светового потока, генерируемого внутри указанного по меньшей мере одного световода, и средство обнаружения дисперсии указанного светового потока для идентификации пространственного расположения указанного зонда, введенного в тело пациента (P); и
- дополнительно, проецирование посредством управляющего устройства (2) на указанном просмотровом устройстве (3) изображения указанного зонда на основе идентифицированного пространственного расположения;
причем указанные зоны дисперсии образованы рядом первых зон дисперсии, последовательно расположенных вдоль по меньшей мере одной части указанного по меньшей мере одного световода.
19. Способ по п. 18, содержащий этап получения указанного множества данных, относящихся к внутреннему состоянию тела пациента, посредством по меньшей мере одного сканирования, такого как облучение рентгеновскими лучами, МРТ, КТ, ПЭТ-КТ.
20. Способ по п. 18 или 19, содержащий этап расположения второго средства (6) обнаружения наружной поверхности тела пациента (P), соединенного с управляющим устройством (2).
21. Способ по п. 20, в котором указанный этап обеспечения наличия второго средства (6) обнаружения содержит:
- обеспечение наличия по меньшей мере трех первых физических маркеров, подходящих для размещения на наружной поверхности части (Pi) тела пациента (P) и выполненных с возможностью обнаружения самим вторым средством (6) обнаружения;
- обнаружение динамического позиционирования первых физических маркеров для передачи множества данных в управляющее устройство (2);
- совмещение посредством управляющего устройства (2) первых виртуальных маркеров изображения внутреннего состояния, спроецированного на просмотровом устройстве (3), с первыми физическими маркерами, расположенными на теле пациента (P).
22. Способ по п. 21, в котором указанный этап обеспечения наличия второго средства (6) обнаружения содержит расположение второго физического маркера, расположенного на зонде и пригодного для расположения при применении вне тела пациента (P);
- обнаружение также физического положения второго маркера с использованием второго средства (6) обнаружения внешней поверхности тела пациента (P).
23. Способ по любому из пп. 18 или 22, в котором выполняется следующее:
- указанный этап обработки указанного множества данных на основе указанного пространственного положения указанного просмотрового устройства (3) содержит обработку посредством сегментации органов и патологий;
- создание трехмерного представления с патологией, сегментированной и отделенной от остальной части объема, в зависимости от осуществляемых сегментаций;
- указанный этап проецирования на указанном просмотровом устройстве (3) изображения внутреннего состояния по меньшей мере одной внутренней части (Pi) тела пациента (P) в зависимости от выполняемой обработки, осуществляемый путем проецирования совместного визуального отображения указанных органов и патологий.
24. Способ по любому из пп. 18 или 23, в котором выполняется следующее:
- указанный этап обработки указанного множества данных на основе указанного пространственного положения указанного просмотрового устройства (3) содержит обработку посредством сегментации органов и некроза, образовавшегося после лечения;
- создание трехмерного представления с патологией, сегментированной и отделенной от остальной части объема, в зависимости от осуществляемых сегментаций;
- указанный этап проецирования на указанном просмотровом устройстве (3) изображения внутреннего состояния по меньшей мере одной внутренней части (Pi) тела пациента (P) в зависимости от выполняемой обработки, осуществляемый путем проецирования совместного визуального отображения патологии и некроза.
25. Способ по любому из пп. 18-24, содержащий этап записи восстановленного объема пациента посредством датчика глубины с обеспечением таким образом возможности для оператора исследовать органы и патологии в теле пациента (P), одновременно наблюдая того же пациента (P).
26. Способ по любому из пп. 18-25, отличающийся тем, что его осуществляют посредством компьютера.
27. Носитель данных, содержащий компьютерную программу, при выполнении на компьютере осуществляющую по меньшей мере этапы способа по п. 26.
RU2018117932A 2015-11-23 2016-11-21 Система навигации, слежения и направления для позиционирования операционных инструментов в теле пациента RU2746458C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
ITUB2015A005830A ITUB20155830A1 (it) 2015-11-23 2015-11-23 "sistema di navigazione, tracciamento, e guida per il posizionamento di strumenti operatori"
IT102015000075480 2015-11-23
PCT/IB2016/057001 WO2017089941A1 (en) 2015-11-23 2016-11-21 Navigation, tracking and guiding system for the positioning of operatory instruments within the body of a patient

Publications (3)

Publication Number Publication Date
RU2018117932A RU2018117932A (ru) 2019-12-25
RU2018117932A3 RU2018117932A3 (ru) 2020-04-20
RU2746458C2 true RU2746458C2 (ru) 2021-04-14

Family

ID=55538379

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2018117932A RU2746458C2 (ru) 2015-11-23 2016-11-21 Система навигации, слежения и направления для позиционирования операционных инструментов в теле пациента

Country Status (12)

Country Link
US (2) US20180344408A1 (ru)
EP (1) EP3380034B1 (ru)
JP (1) JP6905535B2 (ru)
CN (1) CN108601628B (ru)
AU (1) AU2016358472A1 (ru)
BR (1) BR112018010382B1 (ru)
CA (1) CA3005705A1 (ru)
DK (1) DK3380034T3 (ru)
ES (1) ES2815800T3 (ru)
IT (1) ITUB20155830A1 (ru)
RU (1) RU2746458C2 (ru)
WO (1) WO2017089941A1 (ru)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
ITUB20155830A1 (it) 2015-11-23 2017-05-23 R A W Srl "sistema di navigazione, tracciamento, e guida per il posizionamento di strumenti operatori"
DE102017108235A1 (de) * 2017-04-18 2018-10-18 Bredent Medical Gmbh & Co. Kg Brille mit wenigstens einem teiltransparenten Bildschirm und Verfahren zum Betrieb einer Brille
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
WO2020181498A1 (zh) * 2019-03-12 2020-09-17 上海复拓知达医疗科技有限公司 体内导航***和方法
US11992373B2 (en) 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
CN111544115A (zh) * 2020-05-16 2020-08-18 中国人民解放军陆军军医大学第二附属医院 一种增强现实导航追踪显示器以及校准方法
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
DE102020212086A1 (de) * 2020-09-25 2022-03-31 Siemens Healthcare Gmbh Ermitteln der Qualität einer Positionierung eines in einen Patientenkörper eingeführten Objekts

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5526812A (en) * 1993-06-21 1996-06-18 General Electric Company Display system for enhancing visualization of body structures during medical procedures
US20040047044A1 (en) * 2002-06-25 2004-03-11 Dalton Michael Nicholas Apparatus and method for combining three-dimensional spaces
US20050020910A1 (en) * 2003-04-30 2005-01-27 Henley Quadling Intra-oral imaging system
US20070273610A1 (en) * 2006-05-26 2007-11-29 Itt Manufacturing Enterprises, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
US20110046483A1 (en) * 2008-01-24 2011-02-24 Henry Fuchs Methods, systems, and computer readable media for image guided ablation
US20140022283A1 (en) * 2012-07-20 2014-01-23 University Health Network Augmented reality apparatus
RU2012142510A (ru) * 2010-04-07 2014-05-20 Софар Спа Роботизированная хирургическая системы с усовершенствованным управлением

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5337758A (en) * 1991-01-11 1994-08-16 Orthopedic Systems, Inc. Spine motion analyzer and method
US5577502A (en) * 1995-04-03 1996-11-26 General Electric Company Imaging of interventional devices during medical procedures
US6847336B1 (en) * 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
US6033415A (en) 1998-09-14 2000-03-07 Integrated Surgical Systems System and method for performing image directed robotic orthopaedic procedures without a fiducial reference system
US7343195B2 (en) * 1999-05-18 2008-03-11 Mediguide Ltd. Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation
WO2002029700A2 (en) 2000-10-05 2002-04-11 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
EP1395194B1 (en) 2001-06-13 2007-08-29 Volume Interactions Pte. Ltd. A guide system
US7001383B2 (en) 2002-10-21 2006-02-21 Biosense, Inc. Real-time monitoring and mapping of ablation lesion formation in the heart
US7283572B2 (en) * 2004-01-15 2007-10-16 Ben Gurion University Of The Negey Measurement of wavelength transients in tunable lasers
US7774044B2 (en) * 2004-02-17 2010-08-10 Siemens Medical Solutions Usa, Inc. System and method for augmented reality navigation in a medical intervention procedure
US20060089626A1 (en) 2004-10-22 2006-04-27 Vlegele James W Surgical device guide for use with an imaging system
US7501995B2 (en) 2004-11-24 2009-03-10 General Electric Company System and method for presentation of enterprise, clinical, and decision support information utilizing eye tracking navigation
US8954134B2 (en) * 2005-09-13 2015-02-10 Children's Medical Center Corporation Light-guided transluminal catheter
CN101309725A (zh) * 2005-11-16 2008-11-19 眼科医疗公司 使用激光间接检眼镜的多光点光学医疗处理
WO2007115826A2 (en) * 2006-04-12 2007-10-18 Nassir Navab Virtual penetrating mirror device for visualizing of virtual objects within an augmented reality environment
EP2143273A4 (en) * 2007-04-02 2012-08-08 Esight Corp APPARATUS AND METHOD FOR INCREASING VISION
US8131379B2 (en) 2007-08-27 2012-03-06 St. Jude Medical Atrial Fibrillation Division, Inc. Cardiac tissue elasticity sensing
WO2009083191A1 (de) 2007-12-21 2009-07-09 Holger Essiger System zur selektiven anzeige von informationen, enthaltend eine brillenartige vorrichtung, insbesondere brille
WO2010067267A1 (en) * 2008-12-09 2010-06-17 Philips Intellectual Property & Standards Gmbh Head-mounted wireless camera and display unit
DE102009025077A1 (de) 2009-06-10 2010-12-16 Karl Storz Gmbh & Co. Kg System zur Orientierungsunterstützung und Darstellung eines Instruments im Inneren eines Untersuchungsobjektes insbesondere im menschlichen Körper
JP2013061521A (ja) * 2011-09-14 2013-04-04 Brother Ind Ltd 画像表示装置および画像表示方法
US20130267838A1 (en) 2012-04-09 2013-10-10 Board Of Regents, The University Of Texas System Augmented Reality System for Use in Medical Procedures
US9729831B2 (en) 2012-11-29 2017-08-08 Sony Corporation Wireless surgical loupe
EP2961308B1 (en) * 2013-02-28 2020-03-18 Cook Medical Technologies LLC Medical devices, systems, and methods for the visualization and treatment of bodily passages
WO2015066037A1 (en) * 2013-10-28 2015-05-07 Brown University Virtual reality methods and systems
US10152796B2 (en) 2014-02-24 2018-12-11 H. Lee Moffitt Cancer Center And Research Institute, Inc. Methods and systems for performing segmentation and registration of images using neutrosophic similarity scores
JPWO2015133608A1 (ja) * 2014-03-07 2017-04-06 国立大学法人京都大学 手術支援システムおよびこれに用いるカメラユニット
US9538962B1 (en) * 2014-12-31 2017-01-10 Verily Life Sciences Llc Heads-up displays for augmented reality network in a medical environment
US20160324580A1 (en) * 2015-03-23 2016-11-10 Justin Esterberg Systems and methods for assisted surgical navigation
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
JP2018534011A (ja) * 2015-10-14 2018-11-22 サージカル シアター エルエルシー 拡張現実感手術ナビゲーション
ITUB20155830A1 (it) * 2015-11-23 2017-05-23 R A W Srl "sistema di navigazione, tracciamento, e guida per il posizionamento di strumenti operatori"

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5526812A (en) * 1993-06-21 1996-06-18 General Electric Company Display system for enhancing visualization of body structures during medical procedures
US20040047044A1 (en) * 2002-06-25 2004-03-11 Dalton Michael Nicholas Apparatus and method for combining three-dimensional spaces
US20050020910A1 (en) * 2003-04-30 2005-01-27 Henley Quadling Intra-oral imaging system
US20070273610A1 (en) * 2006-05-26 2007-11-29 Itt Manufacturing Enterprises, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
US20110046483A1 (en) * 2008-01-24 2011-02-24 Henry Fuchs Methods, systems, and computer readable media for image guided ablation
RU2012142510A (ru) * 2010-04-07 2014-05-20 Софар Спа Роботизированная хирургическая системы с усовершенствованным управлением
US20140022283A1 (en) * 2012-07-20 2014-01-23 University Health Network Augmented reality apparatus

Also Published As

Publication number Publication date
JP2019503820A (ja) 2019-02-14
RU2018117932A (ru) 2019-12-25
BR112018010382B1 (pt) 2022-07-26
ITUB20155830A1 (it) 2017-05-23
ES2815800T3 (es) 2021-03-30
RU2018117932A3 (ru) 2020-04-20
WO2017089941A1 (en) 2017-06-01
BR112018010382A2 (pt) 2018-12-04
EP3380034A1 (en) 2018-10-03
US11596480B2 (en) 2023-03-07
EP3380034B1 (en) 2020-06-03
US20180344408A1 (en) 2018-12-06
DK3380034T3 (da) 2020-08-24
CN108601628B (zh) 2022-09-09
US20190183586A1 (en) 2019-06-20
CN108601628A (zh) 2018-09-28
AU2016358472A1 (en) 2018-06-14
JP6905535B2 (ja) 2021-07-21
CA3005705A1 (en) 2017-06-01

Similar Documents

Publication Publication Date Title
RU2746458C2 (ru) Система навигации, слежения и направления для позиционирования операционных инструментов в теле пациента
JP6987893B2 (ja) 診断試験をリアルタイムの治療に統合する汎用デバイスおよび方法
US20180116732A1 (en) Real-time Three Dimensional Display of Flexible Needles Using Augmented Reality
ES2292593T3 (es) Sistema de guiado.
CN109998678A (zh) 在医学规程期间使用增强现实辅助导航
JP6706576B2 (ja) 最小侵襲性のインターベンションのための形状センスされるロボット超音波
US9641808B2 (en) Navigating attachment for optical devices in medicine, and method
EP2760360B1 (en) Self-localizing medical device
JP6116754B2 (ja) 低侵襲手術において画像データを立体視表示するための装置およびその装置の作動方法
EP2785237B1 (en) Surgical port localization
JP2017500935A5 (ru)
US20210186648A1 (en) Surgical shape sensing fiber optic apparatus and method thereof
JP6952740B2 (ja) ユーザーを支援する方法、コンピュータープログラム製品、データ記憶媒体、及び撮像システム
NL2001680C2 (nl) Beeldgevende werkwijze voor de medische diagnostiek en volgens deze werkwijze werkende inrichting.
US20220022964A1 (en) System for displaying an augmented reality and method for generating an augmented reality
EP4193336A1 (en) Microscope camera calibration
JP5881559B2 (ja) 医療機器
EP3644845B1 (en) Position detection system by fiber bragg grating based optical sensors in surgical fields
JP2004016357A (ja) 手術用観察システム
KR20230147088A (ko) 확대된 치과 치료 부위를 시각화하기 위한 방법, 시스템 및 컴퓨터 판독가능 저장 매체
CN116758248A (zh) 增强现实ToF深度传感器矫正的方法、装置、设备及介质