KR101161242B1 - Tubular type manipulator surgical robot system with image guidance for minimal invasive surgery - Google Patents

Tubular type manipulator surgical robot system with image guidance for minimal invasive surgery Download PDF

Info

Publication number
KR101161242B1
KR101161242B1 KR1020100013982A KR20100013982A KR101161242B1 KR 101161242 B1 KR101161242 B1 KR 101161242B1 KR 1020100013982 A KR1020100013982 A KR 1020100013982A KR 20100013982 A KR20100013982 A KR 20100013982A KR 101161242 B1 KR101161242 B1 KR 101161242B1
Authority
KR
South Korea
Prior art keywords
image
effector
robot system
module
shaft
Prior art date
Application number
KR1020100013982A
Other languages
Korean (ko)
Other versions
KR20110094529A (en
Inventor
박석호
박종오
강병전
승성민
김우영
Original Assignee
전남대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전남대학교산학협력단 filed Critical 전남대학교산학협력단
Priority to KR1020100013982A priority Critical patent/KR101161242B1/en
Publication of KR20110094529A publication Critical patent/KR20110094529A/en
Application granted granted Critical
Publication of KR101161242B1 publication Critical patent/KR101161242B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/71Manipulators operated by drive cable mechanisms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/302Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/304Surgical robots including a freely orientable platform, e.g. so called 'Stewart platforms'
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/305Details of wrist mechanisms at distal ends of robotic arms

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Robotics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Manipulator (AREA)
  • Surgical Instruments (AREA)

Abstract

본 발명은 튜블라 타입 매니퓰레이터 수술 로봇 시스템에 관한 것으로서, 더욱 상세하게는 원격 조작 기술이나 정보 전송 기술 등의 발달된 기술을 첨단 의료 서비스에 적용하여 최소 침습 수술을 위한 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템에 관한 것이다.
본 발명은 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템에 있어서, 신체의 단일 절개통로를 이용하여 수술시 조직을 절개하고 봉합하며, 절개된 이물질 제거하며, 물을 주입하고 빨아들이는 복수 개의 엔드-이펙터, 영상을 획득하는 내시경, 상기 엔드-이펙터에 연결되어 각각 독립적인 와이어 구동을 하도록 하는 구동수단으로 이루어지는 시술부와, 영상을 수신하고, 환부와 엔드-이펙터의 3차원 위치좌표를 산출하여, 환부와 엔드-이펙터의 거리가 기 설정된 일정거리 이내인지를 감지하는 영상유도 가이드부와, 시술부의 구동수단에 연결되어 복수 개의 엔드-이펙터가 각각 독립적인 구동이 가능하도록 제어신호를 생성하고, 영상유도 가이드부로부터 접촉감지 신호를 전달받아 힘 반향신호를 출력하는 오퍼레이팅부 및 수술 전의 의료 영상을 3차원 영상으로 변환하여 수술 중 내시경 영상에 투영시킴으로써, 가상 영상을 생성하는 영상처리부를 포함하는 것을 특징으로 한다.
The present invention relates to a tubular-type manipulator surgical robot system, and more particularly, an image-guided tubular manipulator surgical robot system for minimally invasive surgery by applying advanced technologies such as remote manipulation technology and information transmission technology to advanced medical services. It is about.
The present invention relates to an image guided tubular manipulator surgical robot system, comprising: a plurality of end-effectors that incise and suture tissue during surgery using a single incision passage of the body, remove the incised foreign material, inject and suck water, An endoscope for acquiring an image, a surgical part connected to the end-effector to drive the wires independently, and receiving an image, and calculating a three-dimensional position coordinate of the affected part and the end-effector, An image induction guide unit for detecting whether the end-effector distance is within a predetermined predetermined distance, and connected to the driving means of the surgical unit to generate a control signal so that a plurality of end-effectors can be independently driven, and the image induction guide The operating unit that receives the touch detection signal from the unit and outputs the force echo signal and the medical image before the surgery By converting the original image projected onto the image of the surgical endoscope, characterized by comprising an image processing unit for generating a virtual image.

Description

최소 침습 수술을 위한 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템{Tubular type manipulator surgical robot system with image guidance for minimal invasive surgery}Tubular type manipulator surgical robot system with image guidance for minimal invasive surgery}

본 발명은 튜블라 타입 매니퓰레이터 수술 로봇 시스템에 관한 것으로서, 더욱 상세하게는 원격 조작 기술이나 정보 전송 기술 등의 발달된 기술을 첨단 의료 서비스에 적용하여 최소 침습 수술을 위한 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템에 관한 것이다.The present invention relates to a tubular-type manipulator surgical robot system, and more particularly, an image-guided tubular manipulator surgical robot system for minimally invasive surgery by applying advanced technologies such as remote manipulation technology and information transmission technology to advanced medical services. It is about.

수술로봇이란 의사를 보조하여 수술을 수행하는 의료용 로봇으로써, 로봇을 이용한 수술방법은 환자의 회복속도가 빠르고, 제거부위를 최적화하여 정확하게 수술할 수 있어서 많은 각광을 받고 있다. Surgical robots are medical robots that perform surgery by assisting doctors. Surgical methods using robots are rapidly gaining much attention because they can rapidly recover patients by optimizing the removal area.

최소 침습 수술은 신체의 손상을 최소화하고 수술의 정확성과 안전성을 높여 생존율과 수술 후의 삶의 질을 높일 수 있는 신개념의 수술이다. 이러한 최소 침습 수술을 하기 위해서 수술로봇에 이용할 다양한 형태의 매니퓰레이터가 개발되고 있다.Minimally invasive surgery is a new concept of surgery that can minimize the damage to the body, improve the accuracy and safety of the surgery, and improve the survival rate and quality of life after surgery. In order to perform such minimally invasive surgery, various types of manipulators for use in surgical robots have been developed.

기존에 로봇을 이용한 복강경 수술의 경우에 내시경(Laparoscope)영상정보만 의존하여 수술을 수행하기 때문에 안전하고 정밀한 수술을 위해 환부 절개 범위(4-6개)가 많아지게 되어, 수술시 통증 및 출혈이 크고 수술 후 회복시간이 오래 걸리는 문제가 있다.In the case of laparoscopic surgery using a robot, surgery is performed based only on laparoscopic image information, so the area of the incision (4-6) increases for safe and precise surgery. There is a problem that takes a long time to recover after surgery.

또한 내시경 영상정보만을 직접적으로 이용하여 기존의 수술 전(Pre-Operational) 의료영상(CT, MRI Image)은 참고적인 보조영상으로 이용하여 수술을 진행하게 된다. 이로 인해 로봇 수술 시스템은 수술부위의 적정위치를 잘못 찾는 의료사고를 범하는 문제를 가지게 된다. 또한 수술 전(Pre-Operational) 의료영상(CT, MRI Image)에서 제공하여 주는 여러가지 유용한 정보를 활용하지 못하는 문제점이 있다.In addition, by using the endoscope image information directly, the existing pre-operational (CT, MRI Image) is used as a reference image for the operation. As a result, the robotic surgical system has a problem of making a medical accident to find the proper position of the surgical site. In addition, there is a problem that can not utilize a variety of useful information provided from the pre-operational medical imaging (CT, MRI Image).

본 발명의 목적은 기존의 로봇 수술의 경우에는 절개 부위가 많고 내시경(Laparoscope) 영상 정보만 의존하여 수술을 수행하던 부분을 개선하여, 수술시 최소한의 절개로 튜블라 매니퓰레이터를 3차원 의료영상과 좌표매칭을 통해 멀티 다관절 엔드-이펙터(end-effector) 유도로 보다 안전하고 편안한 로봇 수술 환경을 제공함에 있다.An object of the present invention is to improve the portion of the conventional robot surgery to perform the operation based on the many incisions and only the endoscope (Laparoscope) image information, the tubular manipulator with a minimum incision during surgery coordinates with the 3D medical image Through matching, multiple articulated end-effector induction provides a safer and more comfortable robotic surgical environment.

또한 본 발명의 다른 목적은 내시경을 통한 수술 중 영상정보와 더불어 수술 전 의료영상(CT,MRI Image)을 증강현실(Augmented Reality)기술을 적용하여 내시경 영상에 투영하여 보여줌으로써 의사의 수술을 지원함에 있다.In addition, another object of the present invention is to support the surgery of the doctor by projecting the pre-operative medical image (CT, MRI Image) to the endoscope image by applying the Augmented Reality technology in addition to the image information during the operation through the endoscope have.

그리고 본 발명의 또 다른 목적은 3차원 좌표측정을 이용하여 환자 환부의 시각화된 영상과 실제 환부, 수술로봇의 좌표매칭을 통해 엔드-이펙터를 환부에 유도하거나 마스터 힘반향 제어를 통해 수술의 안전성을 부여함에도 있다.In addition, another object of the present invention is to guide the end-effector to the affected area through the coordinate matching of the visualized image of the patient's affected area, the actual affected area, and the surgical robot using 3D coordinate measurement, or to improve the safety of the surgery through the control of master force reflection. It is also given.

본 발명은 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템에 있어서, 신체의 단일 절개통로를 이용하여 수술시 조직을 절개하고 봉합하며, 절개된 이물질 제거하며, 물을 주입하고 빨아들이는 복수 개의 엔드-이펙터, 영상을 획득하는 내시경, 상기 엔드-이펙터에 연결되어 각각 독립적인 와이어 구동을 하도록 하는 구동수단으로 이루어지는 시술부(100); 상기 시술부로부터 영상을 수신하고, 환부와 상기 엔드-이펙터의 3차원 위치좌표를 산출하여, 상기 환부와 엔드-이펙터의 거리가 기 설정된 일정거리 이내인지를 감지하는 영상유도 가이드부(200); 상기 시술부의 구동수단에 연결되어, 상기 복수 개의 엔드-이펙터가 각각 독립적인 구동이 가능하도록 제어신호를 생성하고, 상기 영상유도 가이드부로부터 접촉감지 신호를 전달받아 힘 반향신호를 출력하는 오퍼레이팅부(300); 및 수술 전의 의료 영상을 3차원 영상으로 변환하여 수술 중 내시경 영상에 투영시킴으로써, 가상 영상을 생성하는 영상처리부(400); 를 포함하는 것을 특징으로 한다.The present invention relates to an image guided tubular manipulator surgical robot system, comprising: a plurality of end-effectors that incise and suture tissue during surgery using a single incision passage of the body, remove the incised foreign material, inject and suck water, An endoscope for acquiring an image, and a surgical part 100 connected to the end-effector and including driving means for independent wire driving; An image induction guide unit 200 which receives an image from the procedure unit and calculates three-dimensional position coordinates of the affected part and the end-effector, and detects whether a distance between the affected part and the end-effector is within a predetermined predetermined distance; An operating unit connected to the driving unit of the surgical unit, generating a control signal to enable the plurality of end-effectors to be independently driven, and outputting a force echo signal by receiving a touch detection signal from the image induction guide unit; 300); And an image processor 400 generating a virtual image by converting the medical image before the surgery into a 3D image and projecting the image to an endoscope image during the surgery. Characterized in that it comprises a.

상기와 같은 본 발명에 따르면, 환자의 최소한의 절개를 통해 튜블라 매니퓰레이터를 3차원 의료영상과 좌표매칭을 통해 멀티 다관절 엔드-이펙터(end-effector) 유도로 보다 안전하고 편안한 로봇 수술 환경을 제공하는 효과가 있다.According to the present invention as described above, the tubular manipulator through a three-dimensional medical image and coordinate matching through a minimal incision of the patient to provide a safer and more comfortable robot surgery environment by inducing multiple articulated end-effectors It is effective.

또한, 증강현실 기술을 이용하여 내시경 영상에 투영함으로써 의사의 수술을 지원하는 효과가 있다.In addition, there is an effect of supporting the surgery of the doctor by projecting on the endoscope image using augmented reality technology.

그리고 3차원 좌표측정을 이용하여 환자 환부의 시각화된 영상과 실제 환부, 수술로봇의 좌표매칭을 통해 엔드-이펙터를 환부에 유도하거나 마스터 힘반향 제어를 통해 수술의 안전성을 부여하는 효과가 있다.In addition, it is effective to induce end-effectors to the affected area through visualized images of the patients' lesions and coordinate matching of the surgical robots using the three-dimensional coordinate measurement or to provide safety of surgery through master force control.

도 1은 본 발명의 일실시예에 따른 최소 침습 수술을 위한 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템에 관한 블럭도.
도 2는 본 발명의 일실시예에 따른 시술부에 관한 도면.
도 3,4는 본 발명의 일실시예에 따른 엔드-이펙터에 관한 도면.
도 5는 본 발명의 일실시예에 따른 구동수단에 관한 도면.
1 is a block diagram of an image guided tubular manipulator surgical robot system for minimally invasive surgery according to an embodiment of the present invention.
2 is a view of a surgical unit according to an embodiment of the present invention.
3 and 4 illustrate an end-effector in accordance with one embodiment of the present invention.
5 is a view of a driving means according to an embodiment of the present invention.

본 발명은 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템에 있어서, 신체의 단일 절개통로를 이용하여 수술시 조직을 절개하고 봉합하며, 절개된 이물질 제거하며, 물을 주입하고 빨아들이는 복수 개의 엔드-이펙터, 영상을 획득하는 내시경, 상기 엔드-이펙터에 연결되어 각각 독립적인 와이어 구동을 하도록 하는 구동수단으로 이루어지는 시술부(100); 상기 시술부로부터 영상을 수신하고, 환부와 상기 엔드-이펙터의 3차원 위치좌표를 산출하여, 상기 환부와 엔드-이펙터의 거리가 기 설정된 일정거리 이내인지를 감지하는 영상유도 가이드부(200); 상기 시술부의 구동수단에 연결되어, 상기 복수 개의 엔드-이펙터가 각각 독립적인 구동이 가능하도록 제어신호를 생성하고, 상기 영상유도 가이드부로부터 감지 신호를 전달받아 힘 반향신호를 출력하는 오퍼레이팅부(300); 및 수술 전의 의료 영상을 3차원 영상으로 변환하여 수술 중 내시경 영상에 투영시킴으로써, 가상 영상을 생성하는 영상처리부(400); 를 포함하는 것을 특징으로 한다.The present invention relates to an image guided tubular manipulator surgical robot system, comprising: a plurality of end-effectors that incise and suture tissue during surgery using a single incision passage of the body, remove the incised foreign material, inject and suck water, An endoscope for acquiring an image, and a surgical part 100 connected to the end-effector and including driving means for independent wire driving; An image induction guide unit 200 which receives an image from the procedure unit and calculates three-dimensional position coordinates of the affected part and the end-effector, and detects whether a distance between the affected part and the end-effector is within a predetermined predetermined distance; The operating unit 300 is connected to the driving means of the surgical unit, generates a control signal to enable the plurality of end-effectors to be independently driven, and receives a detection signal from the image guide guide unit and outputs a force echo signal. ); And an image processor 400 generating a virtual image by converting the medical image before the surgery into a 3D image and projecting the image to an endoscope image during the surgery. Characterized in that it comprises a.

바람직하게 상기 시술부의 엔드-이펙터는, 수술시 조직을 절개, 봉합에 해당하는 겸자 역할을 하는 복수 개의 주 엔드-이펙터; 및 상기 주 엔드-이펙터를 통해 절개된 이물질을 제거하고, 물을 주입 또는 흡입하는 부 엔드-이펙터;를 포함하는 것을 특징으로 한다.Preferably, the end-effector of the surgical part includes a plurality of main end-effectors that serve as forceps corresponding to cutting and suturing tissue during surgery; And a secondary end-effector for removing foreign substances cut through the primary end-effector and injecting or inhaling water.

또한 바람직하게 상기 내시경은, 3D영상을 획득하는 스테레오 내시경인 것을 특징으로 한다.Also preferably, the endoscope is a stereo endoscope for acquiring a 3D image.

또한 바람직하게 상기 시술부는, 상기 신체의 환부 상에 빛을 비추는 발광수단;을 더 포함하는 것을 특징으로 한다.Also preferably, the treatment unit further comprises a light emitting means for shining light on the affected part of the body.

또한 바람직하게 상기 엔드-이펙터의 각 구성은, 강체(rigid)타입 일체형, 플렉시블(flexible) 타입 일체형 및 강체 타입과 플렉시블 타입의 혼합형으로 이루어진 것을 특징으로 한다.Also preferably, each end-effector may have a rigid type integrated type, a flexible type integrated type, and a rigid type and a flexible type mixed type.

또한 바람직하게 상기 시술부는, 상기 다수의 엔드-이펙터 및 내시경의 축 구성을 내재하여 튜블라형으로 형성된 몸체;를 포함하는 것을 특징으로 한다.Also preferably, the surgical part, the body formed in a tubular shape inherent in the axial configuration of the plurality of end-effectors and endoscopes, characterized in that it comprises a.

또한 바람직하게 상기 오퍼레이팅부는, 의사에 의해 조종되는 장치로서, 상기 시술부의 구동수단에 연결되어 상기 다수 개의 엔드-이펙터를 각각 독립적인 구동이 가능하도록 제어신호를 생성하는 햅틱 구동모듈; 및 상기 영상유도 가이드부로부터 접촉감지 신호를 전달받아 상기 햅틱 구동모듈로 힘반향 입력신호를 전달하는 힘반향 모듈;을 포함하는 것을 특징으로 한다.Also preferably, the operating unit is a device controlled by a doctor, the haptic driving module is connected to the driving means of the surgical unit for generating a control signal to enable the independent driving of each of the plurality of end-effectors; And a force echo module which receives the touch sensing signal from the image guide guide part and transmits a force echo input signal to the haptic driving module.

또한 바람직하게 상기 영상유도 가이드부(200)는, 환부와 상기 엔드-이펙터의 3차원(3D) 위치좌표를 산출하는 좌표 산출모듈(210); 상기 시술부의 내시경으로부터 영상신호를 수신하고, 영상처리부를 통해 정합되는 3D영상을 수신하는 영상수신모듈(220); 상기 3차원(3D) 위치좌표 및 상기 영상처리부를 통해 정합된 3D영상을 바탕으로 엔드-이펙터의 끝단위치에 따른 환자의 환부, 주요 혈관, 신경의 상대적 위치가 기 설정된 일정거리 이내인지를 감지하는 영상유도 감지모듈(230); 및 상기 영상유도 감지모듈의 감지신호를 상기 오퍼레이팅부로 전달하는 감지신호 전송모듈(240); 을 포함하는 것을 특징으로 한다.Also preferably, the image induction guide unit 200 includes: a coordinate calculation module 210 for calculating a three-dimensional (3D) position coordinate of the affected part and the end-effector; An image receiving module 220 for receiving an image signal from the endoscope of the procedure and receiving a 3D image matched through the image processor; Based on the 3D (3D) position coordinates and the 3D image matched through the image processing unit to detect whether the relative position of the affected part, the main blood vessel, the nerve according to the end position of the end-effector is within a predetermined predetermined distance Image induction detection module 230; And a detection signal transmission module 240 for transmitting a detection signal of the image induction detection module to the operating unit. And a control unit.

또한 바람직하게 상기 영상처리부는, 상기 시술부에 연결되어 내시경 영상을 수신하는 시술영상 수신모듈; 수술 전 영상인 2D 영상을 3D 영상으로 변환하는 3D 영상변환모듈; 시술영상 수신모듈의 내시경 영상과 3D 영상변환모듈의 3D 영상을 매칭하여 정합된 영상을 생성하여 출력하도록 하는 영상정합모듈; 및 정합된 영상 중, 외부로부터 수신하는 입력명령에 따라 선별되는 특정 이미지를 내시경 영상에 투영시켜 생성되는 가상 영상을 출력하는 디스플레이 모듈;을 포함하는 것을 특징으로 한다.Also preferably, the image processing unit, a surgical image receiving module connected to the surgical unit for receiving an endoscope image; A 3D image conversion module for converting a 2D image, which is a preoperative image, into a 3D image; An image registration module for generating a matched image by matching the endoscope image of the procedure image receiving module with the 3D image of the 3D image conversion module; And a display module configured to output a virtual image generated by projecting a specific image selected according to an input command received from the outside of the matched image to the endoscope image.

또한 바람직하게 상기 영상처리부는, 수술 전 환자의 CT 또는 MRI를 포함하는 2D영상에서 얻은 복셀의 크기 정보를 계산하는 분석수단; 및 상기 2D영상을 상기 복셀의 크기정보에 따라 일정한 간격으로 쌓아 올리는 영상 처리를 수행하여 3D영상을 생성하는 3D영상 변환수단;으로 구성된 3D 영상변환모듈을 포함하는 것을 특징으로 한다.Also preferably, the image processing unit, analysis means for calculating the size information of the voxel obtained from the 2D image including the CT or MRI of the patient before surgery; And 3D image converting means for generating a 3D image by performing image processing of stacking the 2D image at regular intervals according to the size information of the voxels.

더욱 바람직하게 상기 주 엔드-이펙터는, 전-후진 및 회전이 가능하도록 하는 주 엔드-이펙터축(11); 상기 주 엔드-이펙터축의 일단에 좌-우 꺽임 회전하도록 하는 좌우회전 축(12)과, 상-하 꺽임 회전하도록 하는 상하회전 축(13)으로 구성된 관절(14); 및 상기 관절의 일단에 그립(grip) 동작하도록 하는 구동 축으로 구성된 집게(15);를 포함하는 것을 특징으로 한다.More preferably the main end-effector comprises: a main end-effector shaft 11 which enables forward-reverse and rotation; A joint (14) comprising a left and right rotation shaft (12) for rotating left and right in one end of the main end-effector shaft and an up and down rotation shaft (13) for rotating up and down; And a forceps (15) comprising a drive shaft for grip operation on one end of the joint.

또한 더욱 바람직하게 상기 부 엔드-이펙터는, 전-후진 및 회전이 가능하도록 하는 부 엔드-이펙터축(21); 및 상기 부 엔드-이펙터축의 일단에 상-하 꺽임 회전구동하도록 하는 상하 회전단(22);이 형성된 것을 특징으로 한다.Also more preferably, the secondary end-effector may include a secondary end-effector shaft 21 for enabling forward-backward rotation and rotation; And an upper and lower rotary stage 22 configured to rotate up and down at one end of the sub-end effector shaft.

또한 더욱 바람직하게 상기 영상정합모듈은, 수술시 환부의 내시경 영상, 상기 3D 영상변환모듈의 3D영상, 가상 영상(AR)을 실시간 정합하여 환부의 주요 혈관, 신경, 병변부/정상세포부를 포함하는 생체정보를 출력하도록 하는 것을 특징으로 한다.More preferably, the image registration module includes a main vessel, nerve, lesion / normal cell part of the affected part by real-time matching of the endoscope image of the affected part, the 3D image of the 3D image conversion module, and the virtual image (AR) during surgery. Characterized in that to output the biometric information.

또한 더욱 바람직하게 상기 구동수단은, 상기 주 엔드-이펙터의 축에 연결되어 전-후진 구동하도록 하는 전-후진 축 구동모듈; 상기 주 엔드-이펙터의 축에 연결되어 회전 구동하도록 하는 회전 축 구동모듈; 상기 주 엔드-이펙터 관절의 좌우회전 축에 연결되어 좌-우 꺽임 회전구동하도록 하는 관절 좌우회전 구동모듈; 상기 관절의 상하회전 축에 연결되어 상-하 꺽임 회전구동하도록 하는 관절 상하회전 구동모듈; 및 상기 관절의 일단에 형성된 그립동작 구동하도록 하는 구동 축에 연결되어 집게를 구동하도록 하는 집게 구동모듈; 을 포함하여 복수의 상기 주 엔드-이펙터 각각에 연결되어 독립적으로 구동하는 것을 특징으로 한다.Still more preferably, the driving means includes: a forward-reverse shaft drive module connected to the shaft of the main end-effector to drive forward-backward; A rotary shaft drive module connected to the shaft of the main end-effector for rotational drive; Joint left and right rotation drive modules connected to the left and right rotation shafts of the main end-effector joint to allow left-right bending rotational driving; Joint up and down rotation drive module connected to the vertical axis of rotation of the joint to drive up-down rotation rotation; And a tongs drive module connected to a drive shaft for driving a grip motion formed at one end of the joint to drive the tongs. It is characterized in that the drive independently connected to each of the plurality of the main end-effectors, including.

그리고 더욱 바람직하게 상기 구동수단은, 상기 부 엔드-이펙터의 축에 연결되어 전-후진 구동하도록 하는 제2 전-후진 축 구동모듈; 상기 부 엔드-이펙터 축에 연결되어 회전 구동하도록 하는 제2 회전 축 구동모듈; 및 상기 부 엔드-이펙터 축의 일단에 형성된 상하 회전단에 연결되어 상-하 꺽임 회전구동하도록 하는 상하회전 구동모듈;을 포함하는 것을 특징으로 한다.
And more preferably, the driving means comprises: a second forward-reverse shaft drive module connected to the shaft of the sub-end effector to drive forward-backward; A second rotary shaft drive module connected to the secondary end-effector shaft to drive rotation; And a vertical rotation drive module connected to an up and down rotational end formed at one end of the sub-end effector shaft so as to rotate up and down.

이하, 본 발명의 바람직한 실시 예를 첨부한 도면에 의하여 상세하게 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Prior to this, terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary terms, and the inventor should appropriately interpret the concepts of the terms appropriately It should be interpreted in accordance with the meaning and concept consistent with the technical idea of the present invention based on the principle that it can be defined.

따라서, 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 하나의 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in the specification and the drawings shown in the drawings are only one of the most preferred embodiments of the present invention, and do not represent all of the technical idea of the present invention, they can be replaced at the time of the present application It should be understood that there may be various equivalents and variations.

이하, 첨부된 도면을 참조하여 설명하면 다음과 같다.Hereinafter, with reference to the accompanying drawings as follows.

본 발명의 일실시예에 따른 최소 침습 수술을 위한 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템은 도 1에 도시된 바와 같이, 시술부(100), 영상유도 가이드부(200), 오퍼레이팅부(300), 영상처리부(400)로 구성된다.As shown in FIG. 1, the image-guided tubular manipulator surgical robot system for minimally invasive surgery according to an embodiment of the present invention includes a surgical part 100, an image guide guide part 200, an operating part 300, The image processing unit 400 is configured.

우선, 시술부(100)는, 환자에게 직접 시술하는 장치로서, 신체의 단일 절개통로를 이용하여 수술시 조직을 절개, 봉합하고, 절개된 이물질 제거하며, 물을 주입하고 빨아들이며, 영상을 획득하는 기능을 수행한다. 이러한 기능을 수행하기 위한 시술부는 주 엔드-이펙터(110), 부 엔드-이펙터(120), 스테레오 내시경(130), 몸체(140), 구동수단(150)으로 구성된다. 참고로, 설명 편의상 주 엔드-이펙터와 부 엔드-이펙터의 상위 개념으로 엔드-이펙터라 한다. 즉, 이하 엔드-이펙터라 함은 주 엔드-이펙터와 부 엔드-이펙터를 포함하는 상위 개념으로, 설명하기로 한다.First, the surgical unit 100 is a device for directly treating a patient, using a single incision passage of the body to incision, suture the tissue during surgery, remove the foreign body incision, inject and suck water, and acquire an image It performs the function. The surgical unit for performing this function is composed of the main end-effector 110, the secondary end-effector 120, the stereo endoscope 130, the body 140, the driving means 150. For reference, it is referred to as an end-effector by a higher concept of a primary end effector and a secondary end effector for convenience of description. That is, the end-effector is hereinafter referred to as a higher concept including a primary end-effector and a secondary end-effector.

주 엔드-이펙터(110)는, 수술시 조직을 절개, 봉합 등의 겸자(鉗子,forceps)역할을 하는 2개 이상의 엔드-이펙터로 구성되고, 부 엔드-이펙터(120)는 상기 주 엔드-이펙터를 통해 절개된 이물질을 제거 및 물을 주입하고 빨아들이는 기능을 수행하는 1개 이상의 엔드-이펙터로 구성되며, 내시경(130)은 3D영상을 획득하여 거리측정이 가능한 스테레오 내시경으로 구성된다.The primary end-effector 110 is composed of two or more end-effectors that serve as forceps for cutting and suturing tissue during surgery, and the secondary end-effector 120 includes the primary end-effector. It is composed of one or more end-effectors to perform the function of removing the foreign matter cut through the injecting and sucking water, the endoscope 130 is composed of a stereo endoscope capable of measuring the distance by obtaining a 3D image.

참고로 본 실시예에 따른 시술부(100)에는 미도시하였으나, 작업의 편의를 위해 환부를 비추는 발광수단 구성을 포함할 수 있음은 물론이다.For reference, although not shown in the surgical part 100 according to the present embodiment, it may of course include a light emitting means for illuminating the affected part for the convenience of operation.

즉, 시술부(100)는 수술시 조직을 절개, 봉합 등의 겸자(鉗子,forceps) 역할을 하는 2개 이상의 주 엔드-이펙터, 절개된 이물질 제거 및 물을 주입하고 빨아들이는 역할(흡입(suction)) 또는 주입(injection))을 하는 1개 이상의 부 엔드-이펙터, 3D영상을 획득할 수 있는 스테레오 내시경으로 총 4개 이상의 채널로 구성된다.That is, the surgical part 100 serves to inject and suck two or more main end-effectors, incised foreign substances removed, and water that act as forceps such as incisions and sutures of tissues during surgery. One or more secondary end-effectors for suction) or injection), and a stereo endoscope capable of acquiring 3D images.

본 실시예에 따른 시술부를 도 2를 참조하여 구체적으로 설명하면 다음과 같다.Referring to Figure 2 the surgical unit according to the embodiment in detail as follows.

우선, 주 엔드-이펙터(110)는 조직을 절개, 봉합 등의 다양한 움직임이 가능하도록 5자유도 이상을 가지는 제1 주 엔드-이펙터(111)와 제2 주 엔드-이펙터(112)로 구성된다. First, the main end-effector 110 is composed of a first main end-effector 111 and a second main end-effector 112 having five or more degrees of freedom to enable various movements such as cutting and suturing tissue. .

이러한 5자유도를 갖는 제1 주 엔드-이펙터(111) 및 제2 주 엔드-이펙터(112) 중, 제1 주 엔드-이펙터의 구조를 도 3을 참조하여 대표로 살펴보면 다음과 같다. 여기서 제2 주 엔드-이펙터의 구조는 제1 주 엔드-이펙터의 구조와 동일한 구조이므로, 그 설명을 생략하기로 한다. Among the first main end-effector 111 and the second main end-effector 112 having the five degrees of freedom, the structure of the first main end-effector is described as a representative with reference to FIG. 3. Since the structure of the second main end-effector is the same as that of the first main end-effector, the description thereof will be omitted.

주 엔드-이펙터가 전-후진(제1 자유도) 및 회전(제2 자유도)이 가능하도록 하는 주 엔드-이펙터 축(11), 상기 주 엔드-이펙터 축의 일단에 좌-우 꺽임 회전(제3 자유도)하도록 하는 좌우회전 축(12)과 상-하로 꺽임 회전(제4 자유도)하도록 하는 상하회전 축(13)으로 구성된 관절(14), 상기 관절의 일단에 그립(grip)동작 구동(제5 자유도)하도록 하는 구동 축으로 구성된 집게(15)를 포함한다. A main end-effector shaft 11 which allows the main end-effector to be forward-reverse (first degree of freedom) and rotation (second degree of freedom), a left-right bending rotation at one end of the main end-effector axis A joint 14 consisting of a left and right rotation shaft 12 to allow a three degrees of freedom) and a vertical rotation shaft 13 to be rotated up and down (fourth degrees of freedom), and a grip operation is driven at one end of the joint. And a tong 15 configured with a drive shaft to allow a (5th degree of freedom).

다음으로 본 실시예에 따른 부 엔드-이펙터(120)는 3자유도를 갖는 구조로, 도 3을 참조하여 구체적으로 살펴보면, 부 엔드-이펙터가 전-후진(제1 자유도) 및 회전(제2 자유도)이 가능하도록 하는 부 엔드-이펙터 축(21), 상기 부 엔드-이펙터 축의 일단이 상-하 꺽임 회전구동(제3 자유도)이 가능하도록 하는 상하 회전단(22)이 형성된다.Next, the sub-end-effector 120 according to the present embodiment has a structure having three degrees of freedom, and specifically, referring to FIG. 3, the sub-end-effector is moved forward-backward (first degree of freedom) and rotation (second). A sub-end-effector shaft 21 is provided, and one end of the sub-end-effector shaft is provided with an upper-lower end 22 which allows up-down bending rotation (third degree of freedom).

이러한 엔드-이펙터(주 엔드-이펙터, 부 엔드-이펙터)는 도 3의 강체(rigid)타입과 도 4의 플렉시블(flexible)타입으로 형성하여, 수술부위 및 타겟에 따라 다양한 형태와 구성으로 변형될 수 있는데, 엔드-이펙터의 각 구성들이 강체타입 일체형, 플렉시블 타입 일체형, 강체타입과 플렉시블 타입의 혼합형으로 변형 구성될 수 있다.Such end-effectors (main end-effectors, minor end-effectors) are formed in the rigid type of FIG. 3 and the flexible type of FIG. 4 to be modified into various shapes and configurations according to the surgical site and the target. Each component of the end-effector may be modified into a rigid type integrated type, a flexible type integrated type, a rigid type and a flexible type mixed type.

다음으로 몸체(140)는 주 엔드-이펙터(110), 부 엔드-이펙터(120), 스테레오 내시경(130)의 축 구성을 내재하여 튜블라형으로 형성된 것을 특징으로 한다. 이러한 몸체는 강체(rigid)타입과 플렉시블(flexible)타입으로 형성하여, 수술부위 및 타겟에 따라 다양한 형태와 구성으로 변형될 수 있다.Next, the body 140 is formed in a tubular shape inherent in the axial configuration of the main end-effector 110, the sub-end effector 120, and the stereo endoscope 130. Such a body may be formed of a rigid type and a flexible type, and may be deformed into various shapes and configurations according to the surgical site and the target.

그리고 구동수단(150)은 몸체를 통해 상기 엔드-이펙터에 연결되어 엔드-이펙터의 주 엔드-이펙터, 부 엔드-이펙터 구성이 후술하는 오퍼레이팅부의 제어신호에 따라 각각 독립적인 구동이 가능하도록 하는 기능을 수행한다.In addition, the driving means 150 is connected to the end-effector through a body so as to enable independent driving according to control signals of an operating unit, in which the main end-effector and the sub-end-effector of the end-effector are described later. To perform.

이러한 구동수단은 텐던 와이어(tendon wire)구동 매커니즘, 즉 엔드-이펙터에 연결되어 각각 독립적인 구동이 가능하도록 하는 모든 구동 액츄에이터를 베이스에 장착하여 오페레이팅부로부터 수신하는 제어신호에 따라 와이어를 통한 구동을 하는 것을 특징으로 한다.The driving means is a tendon wire driving mechanism, that is, all driving actuators connected to the end-effector to enable independent driving, respectively, mounted on the base and driven through wires according to control signals received from the operating unit. Characterized in that.

여기서 본 실시예에 따른 구동수단은 최소 13개의 구동(액츄에이터)모듈로 이루어지는데, 여기서 제2 주 엔드-이펙터의 구조는 제1 주 엔드-이펙터의 구조와 동일한 구조이므로, 구동부의 연결관계에 대한 설명을 생략하기로 한다. Here, the driving means according to the present embodiment is composed of at least 13 drive (actuator) modules, where the second main end-effector has the same structure as that of the first main end-effector, The description will be omitted.

도 5에 도시된 바와 같이, 제1 주 엔드-이펙터(110)에 연결된 구동모듈을 살펴보면, 제1 주 엔드-이펙터 축에 연결되어 전-후진 구동하도록 하는 제1 전-후진 축 구동모듈(151), 상기 제1 주 엔드-이펙터 축에 연결되어 회전 구동하도록 하는 제1 회전 축 구동모듈(152), 제1 주 엔드-이펙터 관절의 좌우회전 축에 연결되어 좌-우 꺽임 회전구동하도록 하는 관절 좌우회전 구동모듈(153), 상기 제1 주 엔드-이펙터 관절의 상하회전 축에 연결되어 상-하 꺽임 회전구동하도록 하는 관절 상하회전 구동모듈(154), 제1 주 엔드-이펙터 관절의 일단에 형성된 그립동작 구동하도록 하는 구동 축에 연결되어 집게를 구동하도록 하는 집게 구동모듈(155)로 구성된다.As shown in FIG. 5, referring to the driving module connected to the first main end-effector 110, the first forward-reverse shaft driving module 151 connected to the first main end-effector shaft to drive forward-backward. ), A first rotation axis drive module 152 connected to the first main end-effector shaft to drive rotation, a joint connected to the left and right rotation axes of the first main end-effector joint to rotate left-right Left and right rotation drive module 153, connected to the vertical axis of rotation of the first main end-effector joint, vertical rotation drive module 154 for driving up and down rotational rotation, one end of the first main end-effector joint It is composed of a tongs drive module 155 is connected to the drive shaft to drive the formed grip operation to drive the tongs.

그리고 부 엔드-이펙터(120)에 연결된 구동모듈을 살펴보면, 부 엔드-이펙터 축에 연결되어 전-후진 구동하도록 하는 제2 전-후진 축 구동모듈(156), 상기 부 엔드-이펙터 축에 연결되어 회전 구동하도록 하는 제2 회전 축 구동모듈(157), 부 엔드-이펙터 축의 일단에 형성된 상하 회전단에 연결되어 상-하 꺽임 회전구동하도록 하는 상하회전 구동모듈(158)로 구성된다.In addition, referring to the driving module connected to the secondary end-effector 120, the second forward-reverse shaft driving module 156 connected to the secondary end-effector shaft to drive forward-backward is connected to the secondary end-effector shaft. The second rotary shaft drive module 157 for rotational drive, and the vertical rotation drive module 158 is connected to the up and down rotational end formed on one end of the secondary end-effector shaft to drive up-down rotation.

영상유도 가이드부(200)는, 환부와 상기 시술부의 엔드-이펙터의 3차원 위치좌표를 산출하는 좌표 산출모듈(210)과, 스테레오 내시경으로부터 영상신호를 수신하고, 영상처리부를 통해 정합된 3D영상을 수신하는 영상수신모듈(220)과, 환부와 엔드-이펙터의 거리가 기 설정된 일정거리 이내인지를 감지하는 영상유도 감지모듈(230)과, 상기 영상유도 감지모듈의 감지신호를 후술하는 오퍼레이팅부로 전달하는 감지신호 전송모듈(240)로 구성된다. 이러한 영상유도 가이드부 구성으로 인해 시술부가 환부 수술범위를 벗어나지 않도록 가이드하여 보다 안전하게 수술할 수 있는 효과가 있다.The image guide unit 200 receives a video signal from a stereo endoscope and a coordinate calculation module 210 that calculates three-dimensional position coordinates of the affected part and the end-effector of the surgical unit, and matches the 3D image through the image processor. The image receiving module 220 for receiving the image, the image induction detecting module 230 for detecting whether the distance between the affected portion and the end-effector is within a predetermined predetermined distance, and the operating unit to describe the detection signal of the image induction detecting module to be described later. It consists of a detection signal transmission module 240 for transmitting. Due to the configuration of the image guided guide part, the surgical part is guided so that it does not leave the affected area of the affected area, thereby having an effect that can be operated safely.

오퍼레이팅부(300)는, 의사에 의해 조종되는 장치로서, 시술부의 구동수단에 연결되어 주 엔드-이펙터와 부 엔드-이펙터 각각 독립적인 구동이 가능하도록 제어신호를 생성하는 햅틱 구동모듈(310), 영상유도 가이드부로부터 접촉감지 신호를 전달받아 상기 햅틱 구동모듈로 힘 반향(force feedback)입력신호를 전달하여 사용자인 의사가 이를 느낄 수 있도록 하는 힘반향 모듈(320)로 구성된다.The operating unit 300 is a device controlled by a doctor, the haptic driving module 310 is connected to the driving means of the surgical unit to generate a control signal to enable independent driving of each of the main end-effector and the sub-end effector, The force reflection module 320 receives a touch detection signal from the image induction guide unit and transmits a force feedback input signal to the haptic driving module so that a doctor as a user can feel it.

영상처리부(400)는, 수술 전의 CT 또는 MRI를 통한 의료 영상을 3차원 영상으로 변환하여, 수술 중 내시경 영상에 투영시키는 기능을 수행한다. The image processor 400 converts a medical image through CT or MRI before surgery into a 3D image, and performs a function of projecting the image onto an endoscope image during surgery.

이러한 기능을 수행하는 영상처리부는, 시술부에 연결되어 스테레오 내시경 영상을 수신하는 시술영상 수신모듈(410), CT와 MRI를 포함하는 수술 전 영상인 2D 영상을 3D 영상으로 변환하는 3D 영상변환모듈(420), 시술영상 수신모듈의 스테레오 내시경 영상과 3D 영상변환모듈의 3D 영상을 매칭하여 정합된 영상을 생성하는 영상정합모듈(430), 정합된 영상 중, 외부로부터 수신하는 입력명령에 따라 특정 이미지(예를 들면, 혈관, 신경계 등)를 선별하여 내시경 영상에 투영시켜 생성되는 가상 영상을 출력하는 디스플레이 모듈(440)로 구성된다.An image processing unit performing such a function is connected to a surgical unit, a surgical image receiving module 410 for receiving a stereo endoscope image, and a 3D image conversion module for converting a 2D image, which is a preoperative image including CT and MRI, into a 3D image. 420, an image matching module 430 for generating a matched image by matching the stereoscopic endoscope image of the surgical image receiving module with the 3D image of the 3D image conversion module, and among the matched images, according to an input command received from the outside The display module 440 selects an image (eg, a blood vessel, a nervous system, etc.) and outputs a virtual image generated by projecting the image onto an endoscope image.

여기서 3D 영상변환모듈은 환자별로 CT, MRI 등의 수술 전 의료 영상이 구축된 의료 영상DB로부터 의료 영상을 수신하여 3차원 영상으로 변환하는 것을 특징으로 한다. 그리고 디스플레이 모듈은 3차원 변환된 의료 영상을, 스테레오 내시경을 통해 획득한 시술영상에 투영시키는 것을 특징으로 한다.Here, the 3D image conversion module is characterized in that for receiving the medical image from the medical image DB in which preoperative medical images such as CT, MRI, etc. are constructed for each patient and converts it into a 3D image. The display module may project the 3D converted medical image onto a surgical image obtained through a stereo endoscope.

이러한 가상 영상은 디스플레이 모듈로 실시간 출력되며, 의사는 이러한 가상 영상을 디스플레이 모듈을 통해 확인함으로써, 시술을 진행할 수 있게 된다. 이러한 증강현실(Augmented Reality)은, 내시경 영상만으로는 알 수 없었던 환자의 생체 주요정보(주요 혈관, 신경, 병변부, 정상 세포부 등)를 좀 더 명확히 알 수 있게 된다. 즉, 기존의 수술에서는 내시경 영상에 의존하여 수술하던 것과 달리, 내시경 영상과 수술 전 영상을 결합함으로써 좀 더 안전한 수술을 가능하게 할 것이다.The virtual image is output to the display module in real time, and the doctor can check the virtual image through the display module to proceed with the procedure. Augmented reality (Augmented Reality), it is possible to more clearly know the vital information of the patient (main blood vessels, nerves, lesions, normal cells, etc.) that could not be known only by the endoscope image. That is, in the conventional surgery, unlike the operation based on the endoscope image, by combining the endoscope image and the preoperative image will enable a more safe operation.

본 발명에 따르면, 시술부의 엔드-이펙터가 환자의 환부와 충돌 전에 영상유도 가이드부를 통해 좌표매칭된 영상정보를 기반으로 오퍼레이팅부의 힘반향 모듈을 통해 힘 반향 입력신호를 햅틱 구동모듈로 전달하여 생성되는 반력을 사용자인 의사가 그 힘을 느껴 수술의 정확도를 높이는 효과가 있다. 또한 3D의료영상과 수술 전의 3차원 변환된 CT, MRI 영상 매칭을 통해 환자의 주요 혈관, 신경, 정상세포부에 엔드-이펙터가 도달하지 않도록 유도하는 힘을 발생시켜, 엔드-이펙터의 위치를 안전한 공간으로 유도하는 "기계적인 영상유도방법"이라 할 수 있다.According to the present invention, the end-effector of the surgical unit is generated by transmitting a force echo input signal to the haptic driving module through the force echo module of the operating unit based on the coordinated matched image information through the image guide guide before impacting the affected part of the patient. Doctors who use reaction force feel the power to increase the accuracy of surgery. In addition, 3D medical images and pre-operative 3D transformed CT and MRI images are matched to generate a force that prevents end-effectors from reaching the main vessels, nerves, and normal cells of the patient. It can be called a "mechanical image induction method" leading to space.

이상과 같이, 본 발명은 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술 사상과 아래에 기재될 청구범위의 균등 범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.As described above, although the present invention has been described by way of limited embodiments and drawings, the present invention is not limited thereto, and the technical idea of the present invention and the following by those skilled in the art to which the present invention pertains. Of course, various modifications and variations are possible within the scope of equivalents of the claims to be described.

100 : 시술부 110 : 주 엔드-이펙터
120 : 부 엔드-이펙터 130 : 스테레오 내시경
140 : 몸체 150 : 구동수단
200 : 영상유도 가이드부 210 : 좌표 산출모듈
220 : 영상수신모듈 230 : 영상유도 감지모듈
240 : 감지신호 전송모듈 300 : 오퍼레이팅부
310 : 햅틱 구동모듈 320 : 힘반향 모듈
400 : 영상처리부 410 : 시술영상 수신모듈
420 : 3D영상변환모듈 430 : 영상정합모듈
440 : 디스플레이모듈
11 : 주 엔드-이펙터축 12 : 좌우회전 축
13 : 상하회전 축 14 : 관절
15 : 집게 21 : 부 엔드-이펙터 축
22 : 상하 회전단
100: operation section 110: main end-effector
120: secondary end-effector 130: stereo endoscope
140: body 150: drive means
200: guide image guide 210: coordinate calculation module
220: image receiving module 230: image induction detection module
240: detection signal transmission module 300: operating unit
310: haptic drive module 320: force reflection module
400: image processing unit 410: surgical image receiving module
420: 3D image conversion module 430: Image registration module
440: display module
11: main end-effector shaft 12: left and right rotation shaft
13: vertical axis of rotation 14: joint
15: tongs 21: minor end-effector shaft
22: up and down rotary stage

Claims (15)

영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템에 있어서,
신체의 단일 절개통로를 이용하여 수술시 조직을 절개하고 봉합하며, 절개된 이물질 제거하며, 물을 주입하고 빨아들이는 복수 개의 엔드-이펙터, 영상을 획득하는 내시경, 상기 엔드-이펙터에 연결되어 각각 독립적인 와이어 구동을 하도록 하는 구동수단으로 이루어지는 시술부(100);
영상처리부를 통해 수술 전의 의료 영상이 3차원 영상으로 변환되어 수술 중 내시경 영상에 투영되는 가상 영상정보와, 상기 시술부로부터 수신하는 영상으로부터 환부와 상기 엔드-이펙터의 3차원 위치 좌표를 산출하여 좌표매칭된 영상정보를 바탕으로 엔드-이펙터의 끝단위치에 따른 환부와의 거리가 기 설정된 일정거리 이내인지를 감지하는 영상유도 가이드부(200);
상기 시술부의 구동수단에 연결되어, 상기 복수 개의 엔드-이펙터가 각각 독립적인 구동이 가능하도록 제어신호를 생성하고, 상기 영상유도 가이드부로부터 감지 신호를 전달받아 힘 반향신호를 출력하는 오퍼레이팅부(300); 및
수술 전의 의료 영상을 3차원 영상으로 변환하여 수술 중 내시경 영상에 투영시킴으로써, 가상 영상을 생성하는 영상처리부(400); 를 포함하는 것을 특징으로 하는 최소 침습 수술을 위한 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템.
In an image guided tubular manipulator surgical robot system,
A single incision path of the body is used to incise and suture the tissue during surgery, remove the incised foreign body, a plurality of end-effectors for injecting and sucking water, an endoscope for acquiring images, and connected to the end-effectors, respectively. A surgical part 100 formed of driving means for independent wire driving;
The 3D image coordinates of the affected part and the end-effector are calculated from the virtual image information that is converted into the 3D image and is projected on the endoscope image during the operation through the image processor, and the image received from the procedure part. An image induction guide unit 200 for detecting whether the distance between the affected part according to the end position of the end-effector is within a predetermined distance based on the matched image information;
The operating unit 300 is connected to the driving means of the surgical unit, generates a control signal to enable the plurality of end-effectors to be independently driven, and receives a detection signal from the image guide guide unit and outputs a force echo signal. ); And
An image processor 400 generating a virtual image by converting a medical image before surgery into a 3D image and projecting the image to a endoscopic image during surgery; Image-guided tubular manipulator surgical robot system for minimally invasive surgery comprising a.
제 1 항에 있어서,
상기 시술부의 엔드-이펙터는,
수술시 조직을 절개, 봉합에 해당하는 겸자 역할을 하는 복수 개의 주 엔드-이펙터; 및
상기 주 엔드-이펙터를 통해 절개된 이물질을 제거하고, 물을 주입 또는 흡입하는 부 엔드-이펙터;를 포함하는 것을 특징으로 하는 최소 침습 수술을 위한 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템.
The method of claim 1,
The end-effector of the procedure,
A plurality of primary end-effectors that act as forceps corresponding to the incision and suture of the tissue during surgery; And
An image guided tubular manipulator surgical robot system for minimally invasive surgery, comprising: a secondary end-effector for removing foreign matter cut through the main end-effector and injecting or inhaling water.
제 1 항에 있어서,
상기 내시경은,
3D영상을 획득하는 스테레오 내시경인 것을 특징으로 하는 최소 침습 수술을 위한 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템.
The method of claim 1,
The endoscope,
An image guided tubular manipulator surgical robot system for minimally invasive surgery, characterized in that the stereoscopic endoscope to obtain a 3D image.
제 1 항에 있어서,
상기 시술부는,
상기 신체의 환부 상에 빛을 비추는 발광수단;을 더 포함하는 것을 특징으로 하는 최소 침습 수술을 위한 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템.
The method of claim 1,
The surgical unit,
Light guide means for shining light on the affected part of the body; Image-guided tubular manipulator surgery robot system for a minimally invasive surgery.
제 1 항에 있어서,
상기 엔드-이펙터의 각 구성은,
강체(rigid)타입 일체형, 플렉시블(flexible) 타입 일체형 및 강체 타입과 플렉시블 타입의 혼합형으로 이루어진 것을 특징으로 하는 최소 침습 수술을 위한 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템.
The method of claim 1,
Each configuration of the end-effector,
An image-guided tubular manipulator surgical robot system for minimally invasive surgery comprising a rigid type integrated type, a flexible type integrated type, and a rigid type and a flexible type mixed type.
제 1 항에 있어서,
상기 시술부는,
상기 다수의 엔드-이펙터 및 내시경의 축 구성을 내재하여 튜블라형으로 형성된 몸체;를 포함하는 것을 특징으로 하는 최소 침습 수술을 위한 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템.
The method of claim 1,
The surgical unit,
Image-guided tubular manipulator surgical robot system for minimally invasive surgery, characterized in that it comprises a; a tubular body formed in the shaft configuration of the end-effector and the endoscope.
제 1 항에 있어서,
상기 오퍼레이팅부는,
의사에 의해 조종되는 장치로서, 상기 시술부의 구동수단에 연결되어 상기 다수 개의 엔드-이펙터를 각각 독립적인 구동이 가능하도록 제어신호를 생성하는 햅틱 구동모듈; 및
상기 영상유도 가이드부로부터 접촉감지 신호를 전달받아 상기 햅틱 구동모듈로 힘반향 입력신호를 전달하는 힘반향 모듈;을 포함하는 것을 특징으로 하는 최소 침습 수술을 위한 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템.
The method of claim 1,
The operating unit,
An apparatus controlled by a doctor, the apparatus comprising: a haptic driving module connected to the driving unit of the surgical unit and generating a control signal to enable independent driving of the plurality of end-effectors; And
An image guided tubular manipulator surgical robot system for minimally invasive surgery, comprising: a force echo module for receiving a touch detection signal from the image guide guide unit and transmitting a force echo input signal to the haptic drive module.
제 1 항에 있어서,
상기 영상유도 가이드부(200)는,
환부와 상기 엔드-이펙터의 3차원(3D) 위치좌표를 산출하는 좌표 산출모듈(210);
상기 시술부의 내시경으로부터 영상신호를 수신하고, 영상처리부를 통해 정합되는 3D영상을 수신하는 영상수신모듈(220);
상기 3차원(3D) 위치좌표 및 상기 영상처리부를 통해 정합된 3D영상을 바탕으로 엔드-이펙터의 끝단위치에 따른 환자의 환부, 주요 혈관, 신경의 상대적 위치가 기 설정된 일정거리 이내인지를 감지하는 영상유도 감지모듈(230); 및
상기 영상유도 감지모듈의 감지신호를 상기 오퍼레이팅부로 전달하는 감지신호 전송모듈(240); 을 포함하는 것을 특징으로 하는 최소 침습 수술을 위한 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템.
The method of claim 1,
The video guide guide unit 200,
A coordinate calculation module 210 for calculating a three-dimensional (3D) position coordinate of the affected part and the end-effector;
An image receiving module 220 for receiving an image signal from the endoscope of the procedure and receiving a 3D image matched through the image processor;
Based on the 3D (3D) position coordinates and the 3D image matched through the image processing unit to detect whether the relative position of the affected part, the main blood vessel, the nerve according to the end position of the end-effector is within a predetermined predetermined distance Image induction detection module 230; And
A detection signal transmission module 240 for transmitting a detection signal of the image induction detection module to the operating unit; Image-guided tubular manipulator surgical robot system for minimally invasive surgery comprising a.
제 1 항에 있어서,
상기 영상처리부는,
상기 시술부에 연결되어 내시경 영상을 수신하는 시술영상 수신모듈;
수술 전 영상인 2D 영상을 3D 영상으로 변환하는 3D 영상변환모듈;
시술영상 수신모듈의 내시경 영상과 3D 영상변환모듈의 3D 영상을 매칭하여 정합된 영상을 생성하여 출력하도록 하는 영상정합모듈; 및
정합된 영상 중, 외부로부터 수신하는 입력명령에 따라 선별되는 특정 이미지를 내시경 영상에 투영시켜 생성되는 가상 영상을 출력하는 디스플레이 모듈;을 포함하는 것을 특징으로 하는 최소 침습 수술을 위한 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템.
The method of claim 1,
Wherein the image processing unit comprises:
A surgical image receiving module connected to the surgical unit to receive an endoscope image;
A 3D image conversion module for converting a 2D image, which is a preoperative image, into a 3D image;
An image registration module for generating a matched image by matching the endoscope image of the procedure image receiving module with the 3D image of the 3D image conversion module; And
Image guided tubular manipulator for minimally invasive surgery, comprising: a display module for outputting a virtual image generated by projecting a specific image selected according to an input command received from the outside of the matched image to the endoscope image Surgical Robot System.
제 1 항에 있어서,
상기 영상처리부는,
수술 전 환자의 CT 또는 MRI를 포함하는 2D영상에서 얻은 복셀의 크기 정보를 계산하는 분석수단; 및
상기 2D영상을 상기 복셀의 크기정보에 따라 일정한 간격으로 쌓아 올리는 영상 처리를 수행하여 3D영상을 생성하는 3D영상 변환수단;으로 구성된 3D 영상변환모듈을 포함하는 것을 특징으로 하는 최소 침습 수술을 위한 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템.
The method of claim 1,
Wherein the image processing unit comprises:
Analysis means for calculating size information of voxels obtained from a 2D image including CT or MRI of a patient before surgery; And
3D image conversion module comprising a; 3D image conversion means for generating a 3D image by performing the image processing to stack the 2D image at regular intervals according to the size information of the voxel; Induction Tubular Manipulator Surgical Robot System.
제 2 항에 있어서,
상기 주 엔드-이펙터는,
전-후진 및 회전이 가능하도록 하는 주 엔드-이펙터축(11);
상기 주 엔드-이펙터축의 일단에 좌-우 꺽임 회전하도록 하는 좌우회전 축(12)과, 상-하 꺽임 회전하도록 하는 상하회전 축(13)으로 구성된 관절(14); 및
상기 관절의 일단에 그립(grip) 동작하도록 하는 구동 축으로 구성된 집게(15);를 포함하는 것을 특징으로 하는 최소 침습 수술을 위한 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템.
The method of claim 2,
The main end-effector is
A main end-effector shaft 11 which enables forward-backward rotation and rotation;
A joint (14) comprising a left and right rotation shaft (12) for rotating left and right in one end of the main end-effector shaft and an up and down rotation shaft (13) for rotating up and down; And
And a forceps (15) configured to drive a grip to one end of the joint. 15. An image guided tubular manipulator surgical robot system for minimally invasive surgery.
제 2 항에 있어서,
상기 부 엔드-이펙터는,
전-후진 및 회전이 가능하도록 하는 부 엔드-이펙터축(21); 및
상기 부 엔드-이펙터축의 일단에 상-하 꺽임 회전구동하도록 하는 상하 회전단(22);이 형성된 것을 특징으로 하는 최소 침습 수술을 위한 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템.
The method of claim 2,
The secondary end-effector is
A secondary end-effector shaft 21 for enabling forward-backward rotation and rotation; And
An image guided tubular manipulator surgical robot system for minimally invasive surgery, characterized in that formed; up and down rotational end (22) for driving the upper and lower bending rotation at one end of the secondary end-effector shaft.
제 9 항에 있어서,
상기 영상정합모듈은,
수술시 환부의 내시경 영상, 상기 3D 영상변환모듈의 3D영상, 가상 영상(AR)을 실시간 정합하여 환부의 주요 혈관, 신경, 병변부/정상세포부를 포함하는 생체정보를 출력하도록 하는 것을 특징으로 하는 최소 침습 수술을 위한 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템.
The method of claim 9,
The image matching module,
During surgery, the endoscopic image of the affected part, the 3D image of the 3D image conversion module, and a virtual image (AR) are matched in real time to output biometric information including main blood vessels, nerves, and lesion / normal cell parts of the affected part. Robotic System for Imaging Tubular Manipulators for Minimally Invasive Surgery.
제 1 항 또는 제 11 항에 있어서,
상기 구동수단은,
상기 주 엔드-이펙터의 축에 연결되어 전-후진 구동하도록 하는 전-후진 축 구동모듈;
상기 주 엔드-이펙터의 축에 연결되어 회전 구동하도록 하는 회전 축 구동모듈;
상기 주 엔드-이펙터 관절의 좌우회전 축에 연결되어 좌-우 꺽임 회전구동하도록 하는 관절 좌우회전 구동모듈;
상기 관절의 상하회전 축에 연결되어 상-하 꺽임 회전구동하도록 하는 관절 상하회전 구동모듈; 및
상기 관절의 일단에 형성된 그립동작 구동하도록 하는 구동 축에 연결되어 집게를 구동하도록 하는 집게 구동모듈; 을 포함하여 복수의 상기 주 엔드-이펙터 각각에 연결되어 독립적으로 구동하는 것을 특징으로 하는 최소 침습 수술을 위한 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템.
The method according to claim 1 or 11, wherein
The driving means includes:
A forward-reverse shaft drive module connected to the shaft of the main end-effector to drive forward-backward;
A rotary shaft drive module connected to the shaft of the main end-effector for rotational drive;
Joint left and right rotation drive modules connected to the left and right rotation shafts of the main end-effector joint to allow left-right bending rotational driving;
Joint up and down rotation drive module connected to the vertical axis of rotation of the joint to drive up-down rotation rotation; And
A tongs drive module connected to a drive shaft for driving a grip motion formed at one end of the joint to drive the tongs; An image guided tubular manipulator surgical robot system for minimally invasive surgery, characterized in that for driving independently connected to each of the plurality of main end-effectors.
제 1 항 또는 제 12 항에 있어서,
상기 구동수단은,
상기 부 엔드-이펙터의 축에 연결되어 전-후진 구동하도록 하는 제2 전-후진 축 구동모듈;
상기 부 엔드-이펙터 축에 연결되어 회전 구동하도록 하는 제2 회전 축 구동모듈; 및
상기 부 엔드-이펙터 축의 일단에 형성된 상하 회전단에 연결되어 상-하 꺽임 회전구동하도록 하는 상하회전 구동모듈;을 포함하는 것을 특징으로 하는 최소 침습 수술을 위한 영상 유도 튜블라 매니퓰레이터 수술 로봇 시스템.
The method of claim 1 or 12,
The driving means includes:
A second forward-reverse shaft drive module connected to the shaft of the sub-end effector to drive forward-backward;
A second rotary shaft drive module connected to the secondary end-effector shaft to drive rotation; And
And an up-and-down rotation drive module connected to an up-and-down rotational end formed at one end of the secondary end-effector shaft to allow up-and-down rotational rotation to be driven. Image-guided tubular manipulator surgical robot system for a minimally invasive surgery.
KR1020100013982A 2010-02-17 2010-02-17 Tubular type manipulator surgical robot system with image guidance for minimal invasive surgery KR101161242B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100013982A KR101161242B1 (en) 2010-02-17 2010-02-17 Tubular type manipulator surgical robot system with image guidance for minimal invasive surgery

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100013982A KR101161242B1 (en) 2010-02-17 2010-02-17 Tubular type manipulator surgical robot system with image guidance for minimal invasive surgery

Publications (2)

Publication Number Publication Date
KR20110094529A KR20110094529A (en) 2011-08-24
KR101161242B1 true KR101161242B1 (en) 2012-07-02

Family

ID=44930512

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100013982A KR101161242B1 (en) 2010-02-17 2010-02-17 Tubular type manipulator surgical robot system with image guidance for minimal invasive surgery

Country Status (1)

Country Link
KR (1) KR101161242B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101476801B1 (en) * 2013-12-03 2014-12-26 한국과학기술연구원 Appratus for parallel scanning guide of Optical Coherence Tomography edoscopic probe
KR20190131672A (en) 2018-05-17 2019-11-27 한국과학기술연구원 High precision robotic platform manipulating peripheral nerve system
US11491664B2 (en) 2019-09-10 2022-11-08 Korea Institute Of Science And Technology Robotic platform manipulating peripeheral nerve system

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102031811B1 (en) * 2013-05-31 2019-10-22 큐렉소 주식회사 End effector for robot of intervention treatment
KR102191035B1 (en) * 2013-07-03 2020-12-15 큐렉소 주식회사 System and method for setting measuring direction of surgical navigation
KR101536115B1 (en) * 2013-08-26 2015-07-14 재단법인대구경북과학기술원 Method for operating surgical navigational system and surgical navigational system
KR101843992B1 (en) * 2017-11-30 2018-05-14 재단법인 구미전자정보기술원 Augmented reality based cannula guide system for interventional cardiology procedures and method thereof
KR102099563B1 (en) 2017-12-28 2020-04-09 서울대학교 산학협력단 Surgical robot system for minimal invasive surgery and method for preventing collision using the same
CN109171978B (en) * 2018-09-18 2024-02-13 上海健康医学院 Master-slave type stomach operation robot system
KR102297517B1 (en) 2019-03-06 2021-09-02 서울대학교 산학협력단 Surgical robot system for minimal invasive surgery and drive method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070156019A1 (en) 2005-12-30 2007-07-05 Larkin David Q Robotic surgery system including position sensors using fiber bragg gratings
WO2009158164A1 (en) 2008-06-27 2009-12-30 Intuitive Surgical, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
WO2010003248A1 (en) 2008-07-10 2010-01-14 Mcmaster University Endoscopic device with end effector mechanism

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070156019A1 (en) 2005-12-30 2007-07-05 Larkin David Q Robotic surgery system including position sensors using fiber bragg gratings
WO2009158164A1 (en) 2008-06-27 2009-12-30 Intuitive Surgical, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
WO2010003248A1 (en) 2008-07-10 2010-01-14 Mcmaster University Endoscopic device with end effector mechanism

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101476801B1 (en) * 2013-12-03 2014-12-26 한국과학기술연구원 Appratus for parallel scanning guide of Optical Coherence Tomography edoscopic probe
KR20190131672A (en) 2018-05-17 2019-11-27 한국과학기술연구원 High precision robotic platform manipulating peripheral nerve system
US11491664B2 (en) 2019-09-10 2022-11-08 Korea Institute Of Science And Technology Robotic platform manipulating peripeheral nerve system

Also Published As

Publication number Publication date
KR20110094529A (en) 2011-08-24

Similar Documents

Publication Publication Date Title
KR101161242B1 (en) Tubular type manipulator surgical robot system with image guidance for minimal invasive surgery
US11576738B2 (en) Systems and instruments for tissue sealing
JP7322057B2 (en) Robotically controllable medical system with multi-function end effector with rotational offset
JP7427654B2 (en) Systems and methods for performing associated medical procedures
US11864849B2 (en) Systems and instruments for suction and irrigation
US20220287785A1 (en) Systems, methods, and workflows for concomitant procedures
WO2020131529A1 (en) Shielding for wristed instruments
US20210085410A1 (en) Coordinated movements of robotic tools
US20210401527A1 (en) Robotic medical systems including user interfaces with graphical representations of user input devices
US20210299862A1 (en) Systems and methods for constrained motion control of medical instruments
US11553984B2 (en) Robotic surgical system with an embedded imager
WO2023037221A1 (en) Robotically controlled uterine manipulator
US20210205040A1 (en) Foot pedal assemblies with indicators for robotic medical systems
US20210298852A1 (en) Systems and methods of communicating thermal information for surgical robotic devices
US11944340B2 (en) Suction and irrigation valve and method of priming same in a robotic surgical system
US20230075930A1 (en) Uterine manipulator with robotically driven colpotomy cup
US20230076663A1 (en) Modular colpotomy cup component for robotically controlled uterine manipulator
US20240000529A1 (en) Systems and methods for intra-operative adjustment of procedural setup
WO2023126770A1 (en) Offscreen indicator viewer user interface

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150430

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160525

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170508

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190523

Year of fee payment: 8