KR102495465B1 - Mri 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법 및 시스템 - Google Patents

Mri 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법 및 시스템 Download PDF

Info

Publication number
KR102495465B1
KR102495465B1 KR1020210088067A KR20210088067A KR102495465B1 KR 102495465 B1 KR102495465 B1 KR 102495465B1 KR 1020210088067 A KR1020210088067 A KR 1020210088067A KR 20210088067 A KR20210088067 A KR 20210088067A KR 102495465 B1 KR102495465 B1 KR 102495465B1
Authority
KR
South Korea
Prior art keywords
biopsy
image
robot
needle
mri
Prior art date
Application number
KR1020210088067A
Other languages
English (en)
Other versions
KR20230007167A (ko
Inventor
김대관
이현석
문효정
정세미
승성민
박철민
홍주현
박충환
최종균
Original Assignee
재단법인 대구경북첨단의료산업진흥재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 대구경북첨단의료산업진흥재단 filed Critical 재단법인 대구경북첨단의료산업진흥재단
Priority to KR1020210088067A priority Critical patent/KR102495465B1/ko
Publication of KR20230007167A publication Critical patent/KR20230007167A/ko
Application granted granted Critical
Publication of KR102495465B1 publication Critical patent/KR102495465B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/0233Pointed or sharp biopsy instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B2010/0208Biopsy devices with actuators, e.g. with triggered spring mechanisms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

본 발명은 MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법에 관한 것으로, 생검 시술 로봇의 제1 실제 위치와 분할영상에서의 상기 생검 시술 로봇의 제1 영상 위치를 추출하는 단계와, 상기 제1 실제 위치와 상기 제1 영상 위치를 정합하여 정합데이터를 생성하는 단계와, 상기 정합데이터를 기반으로 상기 생검 시술 로봇의 제2 실제 위치를 상기 분할영상에서의 제2 영상 위치로 변환하는 단계 및 상기 제2 영상 위치를 상기 분할영상에 표시하는 단계를 포함할 수 있다.

Description

MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법 및 시스템{Needle Position Prediction Method and System for MRI-compatible Biopsy Robot}
본 발명은 생검 시술 로봇을 위한 바늘 위치 예측 방법 및 시스템에 관한 것으로, 보다 상세하게는 시술 전 MRI 영상에 시술 중인 바늘의 위치를 예측하여 MRI 영상에 표시할 수 있는 생검 시술 로봇을 위한 바늘 위치 예측 방법 및 시스템에 관한 것이다.
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.
생검은 환자의 신체에 종양이나 결절이 생긴 경우 악성 여부를 빨리 판단하여 치료의 방침을 정하기 위해 조직 일부를 중공침을 이용하여 채취하는 검사법의 일종이다.
생검은 암의 초기 진단시 초음파, 컴퓨터 단층촬영(Computer Tomography, CT), 자기공명영상(Magnetic Resonance Imaging, MRI) 등에 의해 종양이 의심되는 부위를 시술 전에 검진하는 것으로, 영상을 기반으로 조직검사를 수행한다.
구체적으로, 시술자는 CT 또는 MRI와 같은 의료 영상을 기반으로 환자의 종양을 영상 촬영하고, 생검 바늘이 삽입된 상태의 환자를 다시 의료 영상으로 촬영하여 바늘이 삽입된 위치를 확인하게 된다.
이와 같이, 생검 바늘의 위치를 알기 위해서는 생검 바늘이 환자에게 삽입된 상태에서 필요할 때마다 의료 영상으로 촬영한 후 위치를 확인해야 한다. 그렇게 되면 생검 시술 소요 시간이 증가하므로, 환자의 몸에 부담을 주게 되고 비용 또한 증가되는 문제점이 있다.
이에 따라, 의료 영상으로 추가 촬영하지 않고도 생검 바늘의 위치를 확인할 수 있는 방법 및 시스템의 도입이 필요한 실정이다.
따라서 이러한 종래 기술의 문제점을 해결하기 위한 것으로, 본 발명의 목적은 생검 시술 로봇의 바늘이 실제 이동한 위치를 확인하기 위해 MRI 영상을 추가 촬영하지 않고 MRI 영상에서의 위치로 변환시킬 수 있는 MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법 및 시스템을 제공하고자 한다.
본 발명의 목적은 상기에 언급된 사항으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기 목적들을 달성하기 위하여, 본 발명의 MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법은, 생검 시술 로봇의 제1 실제 위치와 분할영상에서의 상기 생검 시술 로봇의 제1 영상 위치를 추출하는 단계와, 상기 제1 실제 위치와 상기 제1 영상 위치를 정합하여 정합데이터를 생성하는 단계와, 상기 정합데이터를 기반으로 상기 생검 시술 로봇의 제2 실제 위치를 상기 분할영상에서의 제2 영상 위치로 변환하는 단계 및 상기 제2 영상 위치를 상기 분할영상에 표시하는 단계를 포함할 수 있다.
본 발명의 실시예에서, 상기 제1 영상 위치를 추출하는 단계 이전에, 생검 시술 전 환자와 상기 생검 시술 로봇의 MRI 영상을 촬영하는 단계 및 상기 MRI 영상을 분할하여 상기 분할영상을 생성하는 단계를 더 포함할 수 있다.
본 발명의 실시예에서, 상기 정합데이터를 생성하는 단계 이후에, 생검 시술을 수행하기 위한 상기 생검 시술 로봇의 바늘이 사출되고, 상기 바늘이 목표 위치로 이동하면, 상기 바늘이 실제 이동한 위치를 나타내는 상기 제2 실제 위치를 추출하는 단계를 더 포함할 수 있다.
본 발명의 실시예에서, 상기 정합데이터를 생성하는 단계는, 상기 생검 시술 로봇의 3차원의 실제 위치가 2차원의 영상 위치로 대응될 수 있도록 기준이 되는 정합데이터를 생성하는 단계일 수 있다.
본 발명의 실시예에서, 상기 제1 영상 위치를 추출하는 단계는, 상기 생검 시술 로봇에 구비된 복수의 마커를 기반으로 추출되는 단계일 수 있다.
상기 목적들을 달성하기 위하여, 본 발명의 MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 시스템은, 생검하기 위한 바늘과 복수의 마커가 구비되는 생검 시술 로봇과, 생검 시술 전 환자와 상기 생검 시술 로봇의 MRI 영상을 촬영하는 촬영부와, 상기 촬영부에서 촬영된 영상을 분할하여 분할영상을 생성하는 분할부와, 상기 분할영상에서 상기 생검 시술 로봇의 제1 영상 위치를 추출하고 상기 생검 시술 로봇의 제1 실제 위치를 추출하는 추출부와, 상기 추출부에서 추출된 제1 영상 위치와 제1 실제 위치를 정합하여 정합데이터를 생성하는 정합부와, 상기 정합데이터를 기반으로 제2 실제 위치를 상기 분할영상에서의 제2 영상 위치로 변환하는 제어부 및 상기 제어부에서 변환된 제2 영상 위치를 상기 분할영상에 표시하는 표시부를 포함할 수 있다.
본 발명의 실시예에서, 상기 정합데이터는, 상기 생검 시술 로봇의 3차원의 실제 위치가 2차원의 영상 위치로 대응될 수 있도록 기준이 될 수 있다.
본 발명의 실시예에서, 상기 제어부는, 상기 생검 시술 로봇의 구동을 제어하며, 상기 생검 시술 로봇의 제1 실제 위치와 제2 실제 위치를 확인할 수 있다.
본 발명은 생검 시술 로봇의 초기 위치 정보가 포함된 정합데이터를 기반으로 생검 시술 로봇의 바늘이 실제 이동한 위치를 MRI 영상에서의 위치로 변환시킴으로써, 시술자가 바늘의 위치를 추가 촬영 없이 실시간으로 확인할 수 있다. 이로 인해, 시술 시간이 단축되며, 환자에게 가해지는 부담이 줄어 드는 효과가 있다.
여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.
도 1은 본 발명의 일 실시예에 따른 MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 시스템의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 시술 전 생성되는 정합데이터를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 시술 중 바늘의 위치를 예측 하여 표시되는 과정을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법을 설명하기 위한 흐름도이다.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계 없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 “포함” 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 “...부”, “...기”, “모듈”, “블록”등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
이하, 본 발명의 일 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다.
도 1은 본 발명의 일 실시예에 따른 MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 시스템의 블록도이고, 도 2는 본 발명의 일 실시예에 따른 시술 전 생성되는 정합데이터를 설명하기 위한 도면이며, 도 3은 본 발명의 일 실시예에 따른 시술 중 바늘의 위치를 예측 하여 표시되는 과정을 설명하기 위한 도면이다.
도 1 내지 도 3을 참조하면, MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 시스템(100)은 생검 시술 로봇(110), 촬영부(120), 분할부(130), 추출부(140), 정합부(150), 표시부(160) 및 제어부(170)를 포함할 수 있다.
생검 시술 로봇(110)은 시술 정확도 향상을 위한 하나 이상의 관절이 구비된 슬레이브 로봇(Slave Robot)의 일부일 수 있으며, 엔드이펙터(End-Effector)가 구비될 수 있다. 엔드이펙터에는 의료도구가 장착되며, 의료도구에 동력을 전달하여 의료도구가 구동될 수 있도록 할 수 있다. 여기서 의료 도구는 생검 시술을 수행하는 바늘일 수 있으며, 바늘은 조직채취용 바늘 및 조직채취용 바늘을 가이드 하는 가이드로 구성될 수 있다.
설명의 편의를 위해, 본 발명의 생검 시술 로봇(110)은 가이드를 말하며 바늘(115)을 포함하는 것으로 설명하지만, 이에 한정되는 것은 아니다. 가이드에는 복수의 생검 마커가 가이드의 양 끝점에 구비되어 MRI 영상에서 가이드의 위치 즉, 생검 시술 로봇(110)의 위치를 확인할 수 있다.
또한, 생검 시술 로봇(110)은 시술대에 환자가 위치하면 생검 시술을 수행하기 위해 시술대 옆에 고정되어 바늘만 움직여서 환자 내부에 삽입되도록 구동될 수 있다.
촬영부(120)는 환자와 생검 시술 로봇(110)을 촬영할 수 있다. 이러한 촬영부(120)는 자기 공명 영상(MRI), 초음파, 컴퓨터 단층촬영(CT) 등으로 구현될 수 있으며, 바람직하게는 자기 공명 영상일 수 있다.
본 발명에서 촬영부(120)는 시술하기 바로 직전 상태의 생검 시술 로봇(100)을 환자 옆에 세팅한 후 촬영할 수 있다. 촬영부(120)는 시술 전에만 촬영하기 위해 구동될 뿐, 시술 중에는 구동되지 않아도 된다.
분할부(130)는 촬영부(120)에서 촬영된 영상을 분할 할 수 있다. 보다 구체적으로, 분할부(130)는 생검 시술 로봇(110)의 위치를 확인할 수 있도록 3차원 MRI 영상을 2차원 MRI 영상으로 분할할 수 있다.
추출부(140)는 시술대에서의 생검 시술 로봇(110)의 실제 위치 좌표인 제1 실제 위치와 2차원의 분할된 MRI 영상에서의 생검 시술 로봇(110)의 영상 위치 좌표인 제1 영상 위치를 추출할 수 있다.
보다 구체적으로, 생검 시술 로봇(110)의 구동을 제어하는 제어부(160)에 생검 시술 로봇(110)이 이동한 3차원의 실제 위치 좌표가 저장될 수 있으며, 추출부(140)는 제어부(160)와 연동되어 3차원의 실제 위치 좌표를 전달 받을 수 있다. 또한, 추출부(140)는 생검 시술 로봇(110)의 영상 위치 좌표를 2차원의 분할된 MRI 영상 즉 분할영상에서 추출할 수 있다.
뿐만 아니라, 추출부(140)는 생검 시술 로봇(100)의 바늘이 실제 이동한 위치인 제2 실제 위치를 제어부(160)에서 전달 받을 수 있다.
정합부(150)는 추출부(140)에서 추출된 생검 시술 로봇(110)의 제1 실제 위치와 제1 영상 위치를 정합하여 정합데이터를 생성할 수 있다.
여기서, 정합데이터는 생검 시술 로봇(110)의 초기 위치 정보를 나타낸다. 이러한 정합데이터는 생검 시술 로봇(110)의 바늘이 실제 이동한 위치를 분할영상의 위치로 변환할 때 즉, 3차원의 실제 위치를 2차원의 영상 위치로 대응될 수 있게 하는 기준이 될 수 있다.
표시부(160)는 촬영부(120)에서 촬영한 영상을 시술자가 확인할 수 있도록 디스플레이 할 수 있다. 뿐만 아니라, 표시부(160)는 정합데이터를 영상으로 디스플레이 할 수 있다.
또한, 표시부(160)는 제어부(170)에서 생검 시술 로봇(110)의 제2 실제 위치를 제2 영상 위치로 변환한 결과를 시술자가 확인할 수 있도록 디스플레이 할 수 있다.
보다 구체적으로, 표시부(160)는 생검 시술 로봇(110)의 바늘이 실제 이동한 위치인 제2 실제 위치를 분할영상에서의 위치인 제2 영상 위치로 변환한 결과를 시술자가 실시간으로 확인할 수 있으며, 바늘의 위치 변화에 따른 바늘의 길이 변화도 확인할 수 있다.
제어부(170)는 MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 시스템(100)의 전반적인 동작을 제어하도록 구성될 수 있다. 특히, 제어부(160)는 생검 시술 로봇(110)의 바늘이 실제 이동한 위치인 제2 실제 위치를 분할영상에 표시하여 디스플레이 될 수 있도록 생검 시술 로봇(110), 촬영부(120), 분할부(130), 추출부(140), 정합부(150) 및 표시부(160)를 제어하도록 구성될 수 있다.
일례로, 제어부(170)는 하드웨어인 프로세서(Processor) 또는 해당 프로세서에서 수행되는 소프트웨어인 프로세스(Process) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
도 1 및 도 2를 참조하면, 시술대에 환자(미도시)와 생검 시술 로봇(110)이 설치될 수 있다. 생검 시술 로봇(110)에는 생검 마커(111, 113)가 길이 방향 양 끝에 구비되어 MRI 영상에서 생검 시술 로봇(110)의 위치를 확인할 수 있다.
환자(미도시)와 생검 시술 로봇(110)을 촬영부(120)인 MRI Scan으로 촬영하여 3차원 MRI 영상을 생성하면, 분할부(130)에서 MRI 영상을 생검 시술 로봇(110)의 위치를 확인할 수 있게 MRI Slices로 분할하여 2차원의 MRI 분할영상을 생성할 수 있다. 이때, 분할영상에는 생검 마커(111, 113)가 식별되는 위치(111a, 113a)에 표시될 수 있다. 추출부(140)는 분할영상에서 Pixel 좌표에 의해 식별되는 위치(111a, 113a)의 2차원 좌표를 추출할 수 있으며, 이를 기반으로 생검 시술 로봇(110)의 제1 영상 위치를 추출할 수 있다. 이 후, 정합부(150)는 제어부(170)에서 전달 받은 생검 시술 로봇(110)의 제1 실제 위치를 제1 영상 위치와 정합하여 정합데이터를 생성할 수 있다. 이때의 정합데이터는 생검 시술 로봇(110)의 초기 위치 정보를 나타내며, 생검 시술 로봇(110)의 3차원의 실제 위치가 2차원의 영상 위치로 대응 될 수 있게 하는 기준이 된다.
도 1 및 도 3을 참조하면, 생검 시술을 수행하기 위해 생검 시술 로봇(110)의 바늘(115)이 사출되어 목표 위치로 이동하면, 제어부(170)는 바늘(115)이 실제 이동한 위치를 바늘(115)의 끝 점 좌표로 인식한다. 이후, 정합 데이터를 기반으로 바늘(115)이 실제 이동한 위치인 제2 실제 위치를 NLP(Needle Location Prediction) 알고리즘에 적용하여 분할영상에서의 위치로 변환할 수 있다. 표시부(160)는 바늘(115)이 실제 이동한 거리인 제2 실제 위치를 분할영상에 115a처럼 표시하여 시술자가 확인할 수 있도록 디스플레이 할 수 있다.
도 4는 본 발명의 일 실시예에 따른 MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법을 설명하기 위한 흐름도이다.
도 1 및 도 4를 참조하면, MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법은 먼저, S401단계에서 생검 시술을 수행하기 위해 환자와 생검 시술 로봇(110)을 세팅한 후 촬영부(120)는 MRI 영상을 촬영하여 3차원 MRI 영상을 생성할 수 있다.
다음으로, S403단계에서 분할부(130)는 3차원 MRI 영상을 2차원의 분할영상으로 생성할 수 있다. 이때, 분할영상은 생검 시술 로봇(110)의 위치 확인이 잘 될 수 있도록 분할된 영상을 말한다.
다음으로, S405단계에서 추출부(140)는 제어부(170)에서 생검 시술 로봇(110)의 실제 위치 좌표인 제1 실제 위치를 전달 받고, 분할영상에서 생검 시술 로봇(110)의 제1 영상 위치를 추출할 수 있다.
다음으로, S407단계에서 정합부(150)는 생검 시술 로봇(110)의 제1 실제 위치와 제1 영상 위치를 정합하여 정합데이터를 생성할 수 있다. 이때 정합데이터는 생검 시술 로봇(110)의 바늘이 실제 이동하는 위치인 3차원의 실제 위치를 2차원의 분할영상에서의 위치로 변환되는 기준이 될 수 있다.
다음으로, S409에서 생검 시술 로봇(110)이 생검 목표 위치로 바늘을 이동시키면, 제어부(170)는 바늘의 실제 이동 위치인 제2 실제 위치를 3차원 좌표로 추출할 수 있다.
다음으로, S411에서 제어부(170)는 정합데이터를 기반으로 제2 실제 위치를 제2 영상위치로 변환할 수 있다.
다음으로, S413에서 표시부(160)는 변환된 제2 영상위치를 분할영상에 표시하여 시술자가 시술하면서 실시간으로 생검 시술 로봇(110)의 바늘 위치를 확인할 수 있도록 디스플레이 할 수 있다.
이와 같이, 본 발명의 일 실시예에 따른 MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법은 바늘의 초기 위치 정보가 포함된 정합데이터를 기반으로 생검 시술 로봇의 바늘이 실제 이동한 위치를 MRI 영상에서의 위치로 변환시킴으로써, 시술자가 바늘의 위치를 추가 촬영 없이 실시간으로 확인할 수 있다. 이로 인해, 시술 시간이 단축되며, 환자에게 가해지는 부담이 줄어 드는 효과가 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.
100: MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 시스템
110: 생검 시술 로봇
120: 촬영부
130: 분할부
140: 추출부
150: 정합부
160: 표시부
170: 제어부

Claims (8)

  1. 생검 시술 전 길이 방향 양 끝에 마커가 구비된 생검 시술 로봇과 환자의 MRI 영상을 촬영하는 촬영부;
    상기 MRI 영상을 분할하여 분할 영상을 생성하는 분할부;
    상기 생검 시술 로봇의 구동을 제어하며, 상기 생검 시술 전 상기 생검 시술 로봇의 제1 실제 위치를 인식하여 저장하고, 상기 생검 시술 시 상기 생검 시술 로봇에서 사출되는 바늘의 제2 실제 위치를 인식하여 저장하는 제어부;
    상기 제어부로부터 상기 제1 실제 위치를 전달 받고, 상기 분할 영상에서 식별되는 상기 마커의 위치를 상기 생검 시술 로봇의 제1 영상 위치로 추출하는 추출부;
    상기 제1 실제 위치와 상기 제1 영상 위치를 정합하여 상기 생검 시술 로봇의 초기 위치 정보를 나타내는 정합 데이터를 정합부; 및
    상기 생검 시술 전에 생성된 상기 분할 영상을 표시하는 표시부를 포함하고,
    상기 제어부는
    상기 정합 데이터를 기반으로 상기 제2 실제 위치를 상기 생검 시술 전에 생성된 상기 분할 영상에서의 제2 영상 위치로 변환하고,
    상기 표시부는
    상기 제2 영상 위치를 상기 생검 시술 전에 생성된 상기 분할 영상에 표시하고,
    상기 촬영부는
    상기 생검 시술 전에만 상기 환자 및 상기 생검 시술 로봇의 MRI 영상을 촬영하고,
    상기 정합데이터는,
    상기 생검 시술 로봇에서 사출되는 바늘의 3차원의 실제 위치를 2차원의 분할영상에서의 위치로 변환 하는데 있어 기준이 되는 데이터인
    MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 시스템.
  2. 제 1 항에 있어서,
    상기 생검 시술 로봇은
    시술대에 상기 환자가 위치하면 생검 시술을 수행하기 위해 상기 시술대 옆에 고정되어 상기 생검 시술 시 상기 바늘만 사출되어 환자 내부에 삽입되도록 구동되는
    MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 시스템.
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
KR1020210088067A 2021-07-05 2021-07-05 Mri 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법 및 시스템 KR102495465B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210088067A KR102495465B1 (ko) 2021-07-05 2021-07-05 Mri 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210088067A KR102495465B1 (ko) 2021-07-05 2021-07-05 Mri 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20230007167A KR20230007167A (ko) 2023-01-12
KR102495465B1 true KR102495465B1 (ko) 2023-02-06

Family

ID=84923805

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210088067A KR102495465B1 (ko) 2021-07-05 2021-07-05 Mri 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR102495465B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090143672A1 (en) 2007-12-04 2009-06-04 Harms Steven E Method for mapping image reference points to facilitate biopsy using magnetic resonance imaging
JP2019076693A (ja) 2017-08-11 2019-05-23 キヤノン ユーエスエイ, インコーポレイテッドCanon U.S.A., Inc 患者装着式の針ガイドの位置合わせおよび動き補償
WO2019144904A1 (en) * 2018-01-29 2019-08-01 The University Of Hong Kong Robotic stereotactic system for mri-guided neurosurgery

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9727963B2 (en) * 2015-09-18 2017-08-08 Auris Surgical Robotics, Inc. Navigation of tubular networks

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090143672A1 (en) 2007-12-04 2009-06-04 Harms Steven E Method for mapping image reference points to facilitate biopsy using magnetic resonance imaging
JP2019076693A (ja) 2017-08-11 2019-05-23 キヤノン ユーエスエイ, インコーポレイテッドCanon U.S.A., Inc 患者装着式の針ガイドの位置合わせおよび動き補償
WO2019144904A1 (en) * 2018-01-29 2019-08-01 The University Of Hong Kong Robotic stereotactic system for mri-guided neurosurgery

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Ziyan Guo 외 5인, Techniques for Stereotactic Neurosurgery: Beyond the Frame, Toward the Intraoperative Magnetic Resonance ImagingeGuided and Robot-Assisted Approaches(2018)

Also Published As

Publication number Publication date
KR20230007167A (ko) 2023-01-12

Similar Documents

Publication Publication Date Title
EP2963616B1 (en) Fluoroscopic pose estimation
CN106659373B (zh) 用于在肺内部的工具导航的动态3d肺图谱视图
EP4011313A1 (en) Method and apparatus for image-based navigation field
EP2554103B1 (en) Endoscope observation supporting system and programme
US20170084036A1 (en) Registration of video camera with medical imaging
US20220022979A1 (en) System And Method For Registration Between Coordinate Systems And Navigation
US20070118100A1 (en) System and method for improved ablation of tumors
JP6490820B2 (ja) 超音波撮像装置、画像処理装置、及び方法
JPWO2013141155A1 (ja) 画像内遮蔽領域の画像補完システム、画像処理装置及びそのプログラム
US20240164848A1 (en) System and Method for Registration Between Coordinate Systems and Navigation
EP3881769A1 (en) Methods and systems for biopsy needle reconstruction error assessment
US20210196387A1 (en) System and method for interventional procedure using medical images
CA3102807A1 (en) Orientation detection in fluoroscopic images
JP2021133243A (ja) デジタルマンモグラフィイメージングのための方法およびシステム
KR102495465B1 (ko) Mri 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법 및 시스템
US20230316550A1 (en) Image processing device, method, and program
WO2019130636A1 (ja) 超音波撮像装置、画像処理装置、及び方法
CN109938835A (zh) 用于在调整器械定向时进行配准的方法和机器人***
CN112368739B (zh) 用于肝脏手术的对准***
EP4179975A1 (en) Systems and methods of visualizing a medical device relative to a target
EP4272655A1 (en) Image processing device, method, and program
US11464576B2 (en) System and method for displaying an alignment CT
EP4186436A1 (en) Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus
US20240016365A1 (en) Image processing device, method, and program
WO2020149028A1 (ja) 放射線撮像装置、画像処理方法及び画像処理プログラム

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant