KR102549662B1 - Display method for treatment information for ultrasound brain irradiation - Google Patents

Display method for treatment information for ultrasound brain irradiation Download PDF

Info

Publication number
KR102549662B1
KR102549662B1 KR1020220115787A KR20220115787A KR102549662B1 KR 102549662 B1 KR102549662 B1 KR 102549662B1 KR 1020220115787 A KR1020220115787 A KR 1020220115787A KR 20220115787 A KR20220115787 A KR 20220115787A KR 102549662 B1 KR102549662 B1 KR 102549662B1
Authority
KR
South Korea
Prior art keywords
image
information
irradiation
transducer
brain
Prior art date
Application number
KR1020220115787A
Other languages
Korean (ko)
Inventor
조남규
한대근
이성곤
Original Assignee
주식회사 뉴로소나
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 뉴로소나 filed Critical 주식회사 뉴로소나
Priority to KR1020220115787A priority Critical patent/KR102549662B1/en
Application granted granted Critical
Publication of KR102549662B1 publication Critical patent/KR102549662B1/en
Priority to PCT/KR2023/013479 priority patent/WO2024058497A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N7/00Ultrasound therapy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/501Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the head, e.g. neuroimaging or craniography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N7/00Ultrasound therapy
    • A61N2007/0004Applications of ultrasound therapy
    • A61N2007/0021Neural system treatment
    • A61N2007/0026Stimulation of nerve tissue

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pulmonology (AREA)

Abstract

본 발명은 초음파 뇌 조사를 위한 조사정보 표시방법에 관한 것이다. 이를 위해, 조사전에 컴퓨터에 의해, 환자 뇌의 MRI 영상(10)과 CT 영상(12)을 결합하여 등록영상(14)을 생성하는 단계(S120); 등록영상(14) 중 뇌의 각 부분을 복수의 컬러로 구분하여 표시한 세분화영상(30)을 생성하는 단계(S160); 및 세분화영상(30)에서 트랜스듀서의 위치와 초음파범위(40)를 시뮬레이션해서 표시하는 단계(S180);가 수행되어 시뮬레이션 영상(200)을 기초로 조사위치와 범위를 설정할 수 있고, 조사 중 컴퓨터에 의해, MRI 영상(10), CT 영상(12), 시뮬레이션 영상(200) 및 환자의 정보를 로드하여 표시하는 단계(S220); 환자의 실제 위치와 상기 MRI 영상(10)을 정렬하는 단계(S280); 시뮬레이션 영상(200)의 트랜스듀서의 위치에 따라 환자의 실제 트랜스듀서의 위치를 정렬하는 단계(S300); 및 초음파를 발생하는 실제 트랜스듀서의 정보를 시뮬레이션 영상(200)에 반영하여 표시하는 단계(S340);를 포함하는 것을 특징으로 하는 초음파 뇌 조사를 위한 조사정보 표시방법이 제공된다.The present invention relates to a method for displaying irradiation information for ultrasound brain irradiation. To this end, generating a registration image 14 by combining the MRI image 10 and the CT image 12 of the patient's brain by a computer before irradiation (S120); Generating a segmented image 30 in which each part of the brain is divided into a plurality of colors and displayed in the registered image 14 (S160); and simulating and displaying the position of the transducer and the ultrasonic range 40 in the segmented image 30 (S180); the irradiation position and range can be set based on the simulation image 200, and the computer during irradiation loading and displaying the MRI image 10, the CT image 12, the simulation image 200, and patient information (S220); aligning the actual position of the patient with the MRI image 10 (S280); aligning the position of the actual transducer of the patient according to the position of the transducer of the simulation image 200 (S300); and displaying (S340) the information of the actual transducer generating the ultrasound waves on the simulated image 200 (S340).

Figure R1020220115787
Figure R1020220115787

Description

초음파 뇌 조사를 위한 조사정보 표시방법{Display method for treatment information for ultrasound brain irradiation}Method for displaying irradiation information for ultrasound brain irradiation {Display method for treatment information for ultrasound brain irradiation}

본 발명은 초음파의 뇌 조사를 위한 조사정보 표시방법에 관한 것이다. The present invention relates to a method of displaying irradiation information for ultrasound brain irradiation.

일반적으로, 뇌에 대한 초음파의 조사는 특허등록 제 10-0784117 호와 같이 뇌혈관의 혈류상태를 감시하여 뇌의 상태 변화를 판단하기 위한 목적으로 사용되었다. In general, ultrasound irradiation on the brain is used for the purpose of determining changes in the state of the brain by monitoring the state of blood flow in cerebral blood vessels, as in Patent Registration No. 10-0784117.

또한, 특허공개 제 10-2019-0047251 호와 같이 카테터의 삽입을 위해 초음파 장치로 뇌를 감시하는 목적으로 사용되곤 하였다. In addition, as in Patent Publication No. 10-2019-0047251, it has been used for the purpose of monitoring the brain with an ultrasound device for catheter insertion.

그러나, 이러한 종래의 초음파 조사는 검사 목적에 국한되었고, 침습적으로 행해지기 때문에 환자의 부담이 크다는 단점이 있었다. However, such conventional ultrasound irradiation is limited to examination purposes and has a disadvantage in that the patient's burden is high because it is performed invasively.

최근에는 도 1에 도시된 바와 같이, 뇌의 특정 영역에 초음파를 집중하여 질병(예 : 우울증)을 치료하는 치료적 방법이 시도되고 있다. 예를 들어, 도 1은 종래의 초음파 뇌치료 과정을 나타낸 흐름도이다. Recently, as shown in FIG. 1, a therapeutic method of treating a disease (eg, depression) by focusing ultrasound on a specific region of the brain has been attempted. For example, FIG. 1 is a flowchart showing a conventional ultrasound brain treatment process.

도 1에 도시된 바와 같이, 종래의 초음파 치료는 MRI 영상과 CT영상을 이용(S14, S16)하여 환자와 영상을 일치시킨 후(S18), 트랜스듀서를 조정(S20)한 후 초음파를 조사(S11)하여 치료하는 방식이었다. 이러한 종래의 방식은 오픈 루프 방식으로서 치료전 초음파의 집속 위치, 방향 및 세기를 예측하기 어려웠다. 또한, 초음파가 조사되는 치료 과정 중 초음파가 미치는 영역을 피드백 받을 수 없었기 때문에 최적의 조건을 찾을 수 없었고, 치료 초기 단계의 파라미터에 의존할 수 밖에 없었다. As shown in FIG. 1, conventional ultrasound therapy uses MRI images and CT images (S14, S16) to match the images with the patient (S18), adjusts the transducer (S20), and then irradiates ultrasound (S20). S11) was the method of treatment. This conventional method is an open loop method, and it is difficult to predict the focusing position, direction, and intensity of ultrasound before treatment. In addition, since it was not possible to receive feedback on the area affected by ultrasound during the treatment process where ultrasound was irradiated, it was not possible to find the optimal condition and had to rely on the parameters in the initial stage of treatment.

이러한 기술적 어려움으로 인해 치료 효과(예 : 완치나 증세 완화)가 낮아지거나 예상치 못한 치료 부작용이 발생할 위험이 컸다. These technical difficulties increased the risk of reduced treatment effectiveness (eg, cure or symptom relief) or unexpected treatment side effects.

1. 대한민국 특허등록 제 10-0784117 호(두개골 매입형 초음파 24시간 뇌감시장치),1. Republic of Korea Patent Registration No. 10-0784117 (cranial embedded ultrasound 24-hour brain monitoring device), 2. 대한민국 특허공개 제 10-2019-0047251 호(초음파 안내하의 뇌 치료용 플랫폼).2. Korean Patent Publication No. 10-2019-0047251 (platform for brain treatment under ultrasound guidance).

따라서, 본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 해결하고자 하는 과제는 MRI영상과 CT 영상에 기초하여 조사 전에 미리 시뮬레이션을 실시함으로서 구체적인 조사 계획을 수립할 수 있는 초음파 뇌 조사를 위한 조사 정보 표시방법을 제공하는 것이다.Therefore, the present invention has been devised to solve the above problems, and the problem to be solved by the present invention is to perform a simulation in advance based on MRI images and CT images before irradiation, thereby establishing a specific investigation plan. It is to provide a survey information display method for the survey.

삭제delete

본 발명의 제 3 목적은 초음파의 조사 중에 트랜스듀서의 초음파 범위를 시뮬레이션을 통해 실시간으로 피드백 받아 볼 수 있는 초음파 뇌 조사를 위한 조사정보 표시방법을 제공하는 것이다.A third object of the present invention is to provide a method of displaying irradiation information for ultrasound brain irradiation, which can receive real-time feedback through simulation of the ultrasound range of a transducer during ultrasound irradiation.

다만, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the technical problems to be achieved in the present invention are not limited to the above-mentioned technical problems, and other technical problems not mentioned will be clear to those skilled in the art from the description below. You will be able to understand.

상기의 기술적 과제를 달성하기 위하여, 초음파의 조사 전에 컴퓨터에 의해, 환자 뇌의 MRI 영상(10)과 CT 영상(12)을 결합하여 등록영상(14)을 생성하는 단계(S120); 등록영상(14) 중 뇌의 각 부분을 복수의 컬러로 구분하여 표시한 세분화영상(30)을 생성하는 단계(S160); 및 세분화영상(30)에서 트랜스듀서의 위치와 초음파범위(40)를 시뮬레이션해서 표시하는 단계(S180);가 수행되어 시뮬레이션 영상을 기초로 조사의 위치와 범위를 설정할 수 있고, 조사 중 컴퓨터에 의해, MRI 영상(10), CT 영상(12), 시뮬레이션 영상(200) 및 환자의 정보를 로드하여 표시하는 단계(S220); 환자의 실제 위치와 상기 MRI 영상(10)을 정렬하는 단계(S240, S260, S280); 시뮬레이션 영상(200)의 트랜스듀서의 위치에 따라 환자의 실제 트랜스듀서의 위치를 정렬하는 단계(S300); 및 초음파를 발생하는 실제 트랜스듀서의 정보를 시뮬레이션 영상(200)에 반영하여 표시하는 단계(S340);를 포함하는 것을 특징으로 하는 초음파 뇌 조사를 위한 조사 정보 표시방법이 제공된다.In order to achieve the above technical problem, generating a registration image 14 by combining the MRI image 10 and the CT image 12 of the patient's brain by a computer before irradiation of ultrasound waves (S120); Generating a segmented image 30 in which each part of the brain is divided into a plurality of colors and displayed in the registered image 14 (S160); and simulating and displaying the position of the transducer and the ultrasonic range 40 in the segmentation image 30 (S180); the position and range of irradiation can be set based on the simulated image, and the irradiation can be performed by a computer during the irradiation. Loading and displaying the MRI image 10, CT image 12, simulation image 200, and patient information (S220); aligning the patient's actual position with the MRI image 10 (S240, S260, S280); aligning the position of the actual transducer of the patient according to the position of the transducer of the simulation image 200 (S300); and displaying (S340) the information of the actual transducer generating the ultrasound waves in the simulation image 200 (S340);

또한, 등록영상 생성단계(S120)와 세분화영상(30) 생성단계(S160) 사이에는, MRI영상(10)으로부터 CT 데이터를 추출하여 스컬의 두께를 확인하는 단계(S140)가 더 수행될 수 있다. In addition, between the registration image generation step (S120) and the segmentation image 30 generation step (S160), a step of extracting CT data from the MRI image 10 and confirming the thickness of the skull (S140) may be further performed. .

또한, 시뮬레이션의 표시단계(S180)는 트랜스듀서의 위치정보, 방향정보 및 트랜스듀서의 초음파 세기 정보를 표시한다.In addition, in the display step (S180) of the simulation, the transducer's location information, direction information, and ultrasonic intensity information of the transducer are displayed.

또한, 환자 정보는 텍스트 정보이다.Also, the patient information is text information.

또한, 정렬단계(S240, S260, S280)는 복수개의 마커가 각각 부착된 MRI 영상(10)과 환자(50)를 일치시키는 랜드마크 등록단계(S240); 3D 카메라(80)가 촬영한 실제 환자의 영상(70)을 3차원의 MRI 영상(10)과 일치시키는 표면등록단계(S260); 및 MRI영상(10)과 CT 영상(12)에 기초하여 구축된 3D 메쉬영상을 환자와 일치시키는 3D 깊이단계(S280); 중 적어도 하나이다. In addition, the alignment steps (S240, S260, S280) include a landmark registration step (S240) of matching the patient 50 with the MRI image 10 to which a plurality of markers are respectively attached; A surface registration step (S260) of matching the image 70 of the actual patient captured by the 3D camera 80 with the 3D MRI image 10; and a 3D depth step of matching the 3D mesh image constructed based on the MRI image 10 and the CT image 12 to the patient (S280); at least one of

또한, 실시간 반영 및 표시단계(S340)에서 실제 트랜스듀서의 정보는 실제 트랜스듀서의 전류 및 전압 정보 중 적어도 하나이다. Also, in the real-time reflection and display step (S340), the information of the actual transducer is at least one of current and voltage information of the actual transducer.

또한, 실시간 반영 및 표시단계(S340)는 실제 트랜스듀서의 정보를 시뮬레이션 영상(200)에 실시간으로 반영하여 표시한다.Also, in the real-time reflection and display step (S340), real-time transducer information is reflected on the simulation image 200 and displayed.

또한, 트랜스듀서는 비침습적 집속형 초음파 트랜스듀서이다. Also, the transducer is a non-invasive focused ultrasound transducer.

본 발명의 일실시예에 따르면, 비침습적 집속형 초음파 트랜스듀서를 이용하는 환자의 뇌에 초음파를 조사하는 과정에서 MRI영상과 CT 영상에 기초하여 조사 전에 미리 시뮬레이션을 실시함으로서 구체적인 조사 계획을 수립할 수 있다. 따라서, 조사의 정확도를 높일 수 있고, 조사에 따른 예후가 상당히 좋은 결과를 얻을 수 있다. According to one embodiment of the present invention, in the process of irradiating ultrasound to the brain of a patient using a non-invasive focused ultrasound transducer, a detailed examination plan can be established by conducting a simulation in advance based on MRI images and CT images before irradiation. there is. Therefore, it is possible to increase the accuracy of the examination, and a significantly good prognosis according to the examination can be obtained.

또한, 조사 중에 트랜스듀서의 위치, 초음파의 강도와 조사 범위를 시뮬레이션을 통해 실시간으로 피드백 받아 볼 수 있다. 따라서, 정확한 조사가 진행되고 있음을 실시간으로 확인할 수 있고, 필요한 경우 시뮬레이션 피드백을 통해 육안으로 확인하면 적절한 수정을 할 수 있다. In addition, during irradiation, the position of the transducer, the intensity of ultrasonic waves, and the irradiation range can be fed back in real time through simulation. Therefore, it is possible to confirm in real time that an accurate investigation is in progress, and if necessary, appropriate corrections can be made by visually confirming through simulation feedback.

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects obtainable in the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.

본 명세서에서 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술하는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어서 해석되어서는 아니된다.
도 1은 종래의 초음파 뇌 조사 과정을 나타낸 흐름도,
도 2는 본 발명에 따른 초음파 뇌 조사를 위한 조사정보 표시방법의 전체 흐름도,
도 3은 본 발명 중 MRI영상과 CT영상을 정렬하는 등록영상을 생성하는 과정을 나타낸 설명도,
도 4는 본 발명에 따른 조사 범위와 위치 설정(Target planing)(S200)을 위한 컴퓨터 프로그램의 화면,
도 5는 본 발명에 따른 세분화 영상(30)의 일예,
도 6은 도 4 중 이미지 랜드마크(20)의 부분 확대 화면,
도 7a는 초음파 시뮬레이션된 세분화영상(30)의 일예,
도 7b는 초음파 시뮬레이션된 등록영상(14)의 일예,
도 8a는 본 발명에서 선택 가능한 랜드마크 등록의 제 1 과정의 설명도,
도 8b는 랜드마크 등록의 제 2 과정의 설명도,
도 9a와 도 9b는 본 발명에서 선택 가능한 표면등록 과정의 설명도,
도 10a는 본 발명에서 선택 가능한 3D 깊이등록 과정의 제 1 설명도,
도 10b는 3D 깊이등록 과정에 따른 융합영상(130),
도 11은 본 발명에 따른 제 2 프로그램의 화면,
도 12는 본 발명에 따른 시뮬레이션 영상(200)의 일예,
도 13은 본 발명의 일실시예에 따른 초음파 뇌 조사를 위한 조사정보 표시방법 중 조사 전 단계의 흐름도,
도 14는 본 발명의 일실시예에 따른 초음파 뇌 조사를 위한 조사정보 표시방법 중 조사 중인 단계의 흐름도이다.
The following drawings attached to this specification illustrate preferred embodiments of the present invention, and together with the detailed description of the present invention serve to further understand the technical idea of the present invention, the present invention is the details described in such drawings should not be construed as limited to
1 is a flowchart showing a conventional ultrasound brain irradiation process;
2 is an overall flowchart of a method of displaying irradiation information for ultrasound brain irradiation according to the present invention;
3 is an explanatory diagram showing a process of generating a registration image for aligning an MRI image and a CT image in the present invention;
4 is a screen of a computer program for target planning (S200) of the survey range and location according to the present invention;
5 is an example of a segmentation image 30 according to the present invention;
6 is a partially enlarged screen of the image landmark 20 in FIG. 4;
7A is an example of an ultrasound-simulated segmentation image 30;
7B is an example of an ultrasound-simulated registration image 14;
8A is an explanatory diagram of a first process of registering selectable landmarks in the present invention;
8B is an explanatory diagram of a second process of landmark registration;
9a and 9b are explanatory diagrams of a surface registration process selectable in the present invention;
10A is a first explanatory diagram of a 3D depth registration process selectable in the present invention;
10B shows a fusion image 130 according to a 3D depth registration process;
11 is a screen of a second program according to the present invention;
12 is an example of a simulation image 200 according to the present invention;
13 is a flowchart of a pre-irradiation step in a method of displaying irradiation information for ultrasound brain irradiation according to an embodiment of the present invention;
14 is a flowchart of a step under investigation in a method for displaying investigation information for ultrasonic brain investigation according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the present invention. However, since the description of the present invention is only an embodiment for structural or functional description, the scope of the present invention should not be construed as being limited by the embodiments described in the text. That is, since the embodiment can be changed in various ways and can have various forms, it should be understood that the scope of the present invention includes equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only such effects, the scope of the present invention should not be construed as being limited thereto.

본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.The meaning of terms described in the present invention should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.Terms such as "first" and "second" are used to distinguish one component from another, and the scope of rights should not be limited by these terms. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element. It should be understood that when an element is referred to as “connected” to another element, it may be directly connected to the other element, but other elements may exist in the middle. On the other hand, when an element is referred to as being “directly connected” to another element, it should be understood that no intervening elements exist. Meanwhile, other expressions describing the relationship between components, such as “between” and “immediately between” or “adjacent to” and “directly adjacent to” should be interpreted similarly.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions should be understood to include plural expressions unless the context clearly dictates otherwise, and terms such as “comprise” or “having” refer to a described feature, number, step, operation, component, part, or It should be understood that it is intended to indicate that a combination exists, and does not preclude the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless defined otherwise. Terms defined in commonly used dictionaries should be interpreted as consistent with meanings in the context of related art, and cannot be interpreted as having ideal or excessively formal meanings unless explicitly defined in the present invention.

도 2는 본 발명에 따른 초음파 뇌 조사를 위한 조사정보 표시방법의 전체 흐름도이고, 도 13은 본 발명의 일실시예에 따른 초음파 뇌 조사를 위한 조사정보 표시방법 중 조사전 단계의 흐름도이며, 도 14는 본 발명의 일실시예에 따른 초음파 뇌 조사를 위한 조사정보 표시방법 중 조사 중인 단계의 흐름도이다. 2 is an overall flowchart of a method for displaying irradiation information for ultrasound brain irradiation according to the present invention, and FIG. 13 is a flowchart of a pre-irradiation step in the method for displaying irradiation information for ultrasound brain irradiation according to an embodiment of the present invention. 14 is a flowchart of a step under investigation in a method for displaying investigation information for ultrasonic brain investigation according to an embodiment of the present invention.

도 2, 도 13 및 도 14에 도시된 바와 같이, 본 발명은 크게 제 1 프로그램으로 실행되는 조사(또는 시술)전 단계(Pre-Operative)(S100 ~ S200) 및 제 2 프로그램(140)으로 실행되는 조사중단계(Intra-Operative)(S220 ~ S340)로 구성된다. As shown in FIGS. 2, 13 and 14, the present invention is largely executed by the pre-operative steps (S100 to S200) of the first program and the second program 140 (or operation). It consists of Intra-Operative (S220 ~ S340).

환자영상획득(S100) : 환자의 MRI(Magnetic Resonance Imaging, 자기공명영상) 영상 및 CT(Computed Tomography, 컴퓨터 단층촬영) 영상을 촬영하여 생성한다(S100). Patient image acquisition (S100): A patient's MRI (Magnetic Resonance Imaging) image and CT (Computed Tomography) image are captured and generated (S100).

CT+MRI 등록(S120) : 조사전에 컴퓨터의 이미지 프로세싱 프로그램을 이용하여 환자 뇌의 MRI 영상(10)과 CT 영상(12)을 결합하여 등록영상(14)을 생성한다. 도 3은 MRI영상(10)과 CT영상(12)을 중첩하는 등록영상(14)을 생성하는 과정을 나타낸 설명도이다. CT+MRI registration (S120): Before irradiation, a registration image 14 is created by combining the MRI image 10 and the CT image 12 of the patient's brain using an image processing program of a computer. FIG. 3 is an explanatory diagram showing a process of generating a registration image 14 overlapping an MRI image 10 and a CT image 12. Referring to FIG.

MRI에서 CT데이터 추출(S140) : MRI영상(10)으로부터 CT 데이터를 추출하여 소프트웨어적으로 스컬(Skull)의 두께를 확인할 수 있다. 즉, 마우스(미도시)로 원하는 두지점을 클릭함으로서 두지점 사이의 거리를 산출한다. 이러한 확인단계(S140)는 필요에 따라 수행되는 선택적인 단계가 될 수 있다. CT data extraction from MRI (S140): By extracting CT data from the MRI image 10, the thickness of the skull can be checked in terms of software. That is, by clicking two desired points with a mouse (not shown), the distance between the two points is calculated. This confirmation step (S140) may be an optional step performed as needed.

브레인 세그멘테이션(S160) : 등록영상(14) 중 뇌의 각 부분을 복수의 컬러로 구분하여 표시하는 세분화영상(30)을 생성한다. 도 5는 본 발명에 따른 세분화 영상(30)의 일예이다. 도 5에 도시된 바와 같이, 대뇌, 중뇌, 소뇌 등을 서로 다른 컬러(적색, 녹색, 주황색, 회색 등)로 착색한다. 이러한 세분화영상(30)은 소프트웨어가 등록영상(14)에서 경계를 인식한 뒤 경계로 구획되는 영역을 미리 정해진 컬러로 채워 넣음으로서 수행된다. 선택적으로는, 미리 작성되어 저장된 복수의 세분화영상들 중 유사한 면적을 대응시킬 수도 있다. Brain segmentation (S160): A segmented image 30 is generated in which each part of the brain is divided into a plurality of colors and displayed in the registration image 14. 5 is an example of a segmented image 30 according to the present invention. As shown in FIG. 5, the cerebrum, midbrain, cerebellum, etc. are colored with different colors (red, green, orange, gray, etc.). Such a segmented image 30 is performed by the software recognizing a boundary in the registration image 14 and then filling in a region partitioned by the boundary with a predetermined color. Optionally, similar areas among a plurality of previously prepared and stored segmented images may be matched.

시뮬레이션(S180) : 세분화영상(30)에서 트랜스듀서의 위치와 초음파범위(40)를 시뮬레이션해서 표시한다. 트랜스듀서는 비침습적 집속형 초음파 트랜스듀서로서 피부 상에서 뇌를 향해 초음파를 조사한다. 도 7a는 초음파 시뮬레이션된 세분화영상(30)의 일예이고, 도 7b는 초음파 시뮬레이션된 등록영상(14)의 일예이다. 도 7a 및 도 7b에 도시된 바와 같이, 뇌 내부로 조사되는 초음파는 트랜스듀서의 초음파 범위(40)로 표시된다. 시뮬레이션에서 초음파범위(40)는 직사각형으로 표시되고, 직사각형 내부는 강도에 따라 적색에서 청색으로 계조를 띄며 변화한다. 예를 들어, 직사각형의 길이와 방향은 초음파범위(40)의 한계와 방향을 나타내고, 내부의 적색은 초음파 강도가 제일 센 곳이며, 청색은 초음파 강도가 제일 낮은 곳이 될 수 있다. Simulation (S180): The position of the transducer and the ultrasonic range 40 in the segmented image 30 are simulated and displayed. The transducer is a non-invasive, focused ultrasound transducer that irradiates ultrasound waves from the skin toward the brain. 7A is an example of a segmented image 30 simulated by ultrasound, and FIG. 7B is an example of a registered image 14 simulated by ultrasound. As shown in FIGS. 7A and 7B , ultrasound irradiated into the brain is displayed as an ultrasound range 40 of the transducer. In the simulation, the ultrasonic range 40 is displayed as a rectangle, and the inside of the rectangle changes with a gradation from red to blue according to intensity. For example, the length and direction of the rectangle indicate the limit and direction of the ultrasonic range 40, and the red color inside may be the strongest ultrasonic intensity, and the blue color may be the lowest ultrasonic intensity.

타겟 플래닝(S200) : 시뮬레이션 영상을 기초로 조사의 위치와 범위를 설정한다. 도 4는 본 발명에 따른 조사 범위와 위치 설정(Target planing)(S200)을 위한 컴퓨터 프로그램의 화면이고, 도 6은 도 4 중 이미지 랜드마크(20)의 부분 확대 화면이다. 도 4에는 뇌의 직교하는 3개축의 단면도 및 3D 화면이 표시된다. 이러한 단면도에는 트랜스듀서의 초음파범위(40)가 표시된다. 프로그램 일측의 이미지 랜드마크(20)는 도 6에 도시된 바와 같이, 트랜스듀서의 접촉 위치(Estimated Entry), 뇌속 조사 대상의 위치(Estimated Targety), 직사각형인 초음파범위(40)의 각 꼭지점 좌표가 X, Y, Z축 좌표값으로 각각 표시된다. Target planning (S200): Based on the simulation image, the location and range of irradiation are set. FIG. 4 is a screen of a computer program for target planning (S200) in accordance with the present invention, and FIG. 6 is a partially enlarged screen of the image landmark 20 in FIG. 4 shows cross-sectional views and 3D screens of three orthogonal axes of the brain. In this cross section, the ultrasonic range 40 of the transducer is shown. As shown in FIG. 6, the image landmark 20 on one side of the program has coordinates of each vertex of the contact position of the transducer (Estimated Entry), the position of the brain investigation target (Estimated Targety), and the rectangular ultrasound range 40. X, Y, Z coordinate values are displayed respectively.

이하에서는 도 14에 도시된 바와 같이, 조사 개시에 따른 각 단계를 설명한다.Hereinafter, as shown in FIG. 14, each step according to the start of irradiation will be described.

로드(S220) : 조사 중 컴퓨터의 제 2 프로그램(140)에 의해, MRI 영상(10), CT 영상(12), 등록영상(14), 시뮬레이션 영상(200) 및 환자의 정보를 로드하여 표시한다. Load (S220): The MRI image 10, CT image 12, registration image 14, simulation image 200, and patient information are loaded and displayed by the second program 140 of the computer during irradiation. .

도 11은 본 발명에 따른 제 2 프로그램의 화면이다. 도 11에 도시된 바와 같이, 환자 정보는 정보 모니터(160)에 표시되는 텍스트 정보이다. 로드된 MRI 영상(10), CT 영상(12), 등록영상(14), 시뮬레이션 영상(200)은 중앙의 이미지 뷰(150) 화면에 분할로 표시된다. 도 11에 도시된 바와 같이 뇌의 직교하는 3개축의 단면도 및 3D 화면으로 표시된다. 제 2 프로그램(140)에는 제어패널(170), 기능메뉴(180), 및 IR 상태창(190)이 구분되어 표시된다. 11 is a screen of a second program according to the present invention. As shown in FIG. 11 , the patient information is text information displayed on the information monitor 160 . The loaded MRI image 10, CT image 12, registration image 14, and simulation image 200 are divided and displayed on the central image view 150 screen. As shown in FIG. 11, it is displayed as a cross-sectional view of three orthogonal axes of the brain and a 3D screen. In the second program 140, the control panel 170, function menu 180, and IR status window 190 are displayed separately.

영상 등록(S240, S260, S280) : 환자의 실제 위치와 MRI 영상(10)을 일치하도록 정렬한다. 환자의 실제 위치를 기준으로 MRI 영상(10)을 회전시킬 수도 있고, MRI 영상(10)을 기준으로 환자의 실제 위치를 회전시킬 수도 있다. Image registration (S240, S260, S280): Align the patient's actual position and the MRI image 10 to match. The MRI image 10 may be rotated based on the actual position of the patient, or the actual position of the patient may be rotated based on the MRI image 10 .

구체적으로는, 랜드마크등록(S240), 표면등록(S260) 및 3D 깊이단계(S280) 중 하나 이상이 선택적으로 실행될 수 있다. 이러한 랜드마크등록(S240), 표면등록(S260) 및 3D 깊이단계(S280)는 공지의 방법이 될 수 있으며, 그 밖에도 공지의 정렬 방법이 사용될 수 있다. Specifically, one or more of landmark registration (S240), surface registration (S260), and 3D depth step (S280) may be selectively executed. These landmark registration (S240), surface registration (S260), and 3D depth step (S280) may be known methods, and other known alignment methods may be used.

랜드마크등록(S240)는 복수개(예 3개 ~ 6개)의 마커가 부착된 MRI 영상(10)과 복수개의 마커가 부착된 환자(50) 사이에서 마커끼리 일치시키는 과정이다. 구체적으로는 도 8a과 같은 랜드마크 등록의 제 1 과정과 제 2 과정으로 설명된다. The landmark registration (S240) is a process of matching markers between the MRI image 10 to which a plurality of markers (eg, 3 to 6 markers) are attached and the patient 50 to which a plurality of markers are attached. Specifically, the first process and the second process of landmark registration as shown in FIG. 8A are described.

도 8a에 도시된 바와 같이 환자(50)의 머리에 부착된 복수의 마커를 광학추적항법센서(Vicra, 60)가 인식하여 제 2 기준위치오차(Fiducial Localization Error, 110)가 지정된다. 그리고 도 8b에 도시된 바와 같이, MRI 영상(10) 상에 표시된 복수의 마커에 의해 제 1 기준위치오차(100)가 지정된다. 이러한 제 1, 2 기준위치오차(100, 110)를 대응점으로 일치시킴으로서 타켓 등록오차(Target Registration Error, 120)가 최소가 되도록 한다. As shown in FIG. 8A, the optical tracking navigation sensor (Vicra, 60) recognizes a plurality of markers attached to the head of the patient 50, and a second fiducial localization error (Fiducial Localization Error, 110) is designated. And, as shown in FIG. 8B, the first reference position error 100 is designated by a plurality of markers displayed on the MRI image 10. By matching the first and second reference position errors 100 and 110 as corresponding points, the target registration error 120 is minimized.

표면등록(Surface Registration, S260)은 3D 카메라(80)가 촬영한 실제 환자의 영상(70)을 3차원의 MRI 영상(10)과 일치시키는 방식이다. 도 9a와 도 9b는 표면등록 과정의 설명도이다. Surface registration (S260) is a method of matching the image 70 of a real patient captured by the 3D camera 80 with the 3D MRI image 10. 9A and 9B are explanatory views of the surface registration process.

3D 깊이단계(S280)는 MRI영상(10)과 CT 영상(12)에 기초하여 구축된 3D 메쉬영상을 환자와 일치시키는 방식이다. 도 10a는 3D 깊이등록 과정의 제 1 설명도이고, 도 10b는 3D 깊이등록 과정에 따른 융합영상(130)의 일예이다. 이때, 환자 얼굴의 신체적 특징(예 : 눈, 코, 광대 등)을 신체 마커로 삼아 3D 메쉬 영상과 일치시킨다. The 3D depth step (S280) is a method of matching the 3D mesh image constructed based on the MRI image 10 and the CT image 12 to the patient. 10A is a first explanatory diagram of a 3D depth registration process, and FIG. 10B is an example of a fusion image 130 according to a 3D depth registration process. At this time, the physical characteristics of the patient's face (eg, eyes, nose, cheekbones, etc.) are used as body markers to match the 3D mesh image.

트랙킹(S300) : 도 12와 같은 제 2 프로그램(140)의 시뮬레이션 영상(200)의 트랜스듀서의 위치에 따라 환자의 실제 트랜스듀서의 위치를 일치하도록 정렬한다. 정렬 후 별도의 장치나 지그를 통해 실제 트랜스듀서를 고정한다. Tracking (S300): According to the position of the transducer of the simulation image 200 of the second program 140 as shown in FIG. 12, the position of the actual transducer of the patient is aligned to match. After alignment, the actual transducer is fixed using a separate device or jig.

소닉케이션(S320) : 실제 트랜스듀서를 동작시켜 환자의 뇌 내부로 초음파를 조사한다. Sonication (S320): By operating the actual transducer, ultrasound is irradiated into the patient's brain.

실시간 시뮬레이션(S340) : 초음파를 발생하는 실제 트랜스듀서의 전압 및 전류 정보를 실시간으로 반영하여 시뮬레이션 영상(200)에 표시한다. 도 12는 본 발명에 따른 시뮬레이션 영상(200)의 일예이다. 조사 중인 의사는 도 12와 같은 시뮬레이션 영상(200)을 보면서 조사를 진행함으로서 실시간으로 초음파 조사에 관한 상태 정보를 얻거나 확인할 수 있다. 이러한 시뮬레이션 영상(200)은 초음파가 조사되는 동안 계속 표시된다. Real-time simulation (S340): The voltage and current information of the actual transducer generating ultrasound is reflected in real time and displayed on the simulation image 200. 12 is an example of a simulation image 200 according to the present invention. The doctor under investigation may obtain or check state information related to ultrasound irradiation in real time by conducting the investigation while viewing the simulation image 200 as shown in FIG. 12 . This simulation image 200 is continuously displayed while ultrasound is being irradiated.

상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.Detailed descriptions of the preferred embodiments of the present invention disclosed as described above are provided to enable those skilled in the art to implement and practice the present invention. Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will understand that the present invention can be variously modified and changed without departing from the scope of the present invention. For example, those skilled in the art can use each configuration described in the above-described embodiments in a manner of combining with each other. Thus, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present invention may be embodied in other specific forms without departing from the spirit and essential characteristics of the present invention. Accordingly, the above detailed description should not be construed as limiting in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention. The invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein. In addition, claims that do not have an explicit citation relationship in the claims may be combined to form an embodiment or may be included as new claims by amendment after filing.

10 : MRI 영상,
12 : CT 영상,
14 : 등록 영상,
20 : 이미지 랜드마크,
30 : 세분화 영상,
40 : 트랜스듀서의 초음파 범위,
50 : 환자,
60 : 광학추적항법센서(Vicra),
70 : 실제 환자영상,
80 : 3D 카메라,
90 : 3차원 영상,
100 : 제 1 기준위치오차,
110 : 제 2 기준위치오차,
120 : 타켓등록오차,
130 : 융합영상,
140 : 제 2 프로그램,
150 : 이미지 뷰,
160 : 정보 모니터,
170 : 제어패널,
180 : 기능 메뉴,
190 : IR 상태창,
200 : 시뮬레이션 영상.
10: MRI image,
12: CT image,
14: registration image,
20: image landmark,
30: segmentation image,
40: ultrasonic range of the transducer,
50: patient,
60: optical tracking navigation sensor (Vicra),
70: actual patient image,
80: 3D camera,
90: 3D image,
100: 1st reference position error,
110: 2nd reference position error,
120: target registration error,
130: fusion video,
140: second program,
150 : image view,
160: information monitor,
170: control panel,
180: function menu,
190: IR status window,
200: simulation video.

Claims (8)

초음파의 조사 전에 컴퓨터에 의해,
환자 뇌의 MRI 영상(10)과 CT 영상(12)을 결합하여 등록영상(14)을 생성하는 단계(S120);
상기 등록영상(14) 중 상기 뇌의 각 부분을 복수의 컬러로 구분하여 표시한 세분화영상(30)을 생성하는 단계(S160); 및
상기 세분화영상(30)에서 트랜스듀서의 위치와 초음파범위(40)를 시뮬레이션해서 표시하는 단계(S180);가 수행되어 시뮬레이션 영상을 기초로 상기 초음파 조사의 위치와 범위를 설정할 수 있고,
상기 초음파의 조사 중 상기 컴퓨터에 의해,
상기 MRI 영상(10), 상기 CT 영상(12), 상기 시뮬레이션 영상 및 상기 환자의 정보를 로드하여 표시하는 단계(S220);
상기 환자의 실제 위치와 상기 MRI 영상(10)을 정렬하는 단계(S240, S260, S280);
초음파를 발생하는 상기 실제 트랜스듀서의 정보를 상기 시뮬레이션 영상(200)에 반영하여 표시하는 단계(S340);를 포함하는 것을 특징으로 하는 초음파 뇌 조사를 위한 조사정보 표시방법.
By computer before irradiation of ultrasound,
generating a registration image 14 by combining the MRI image 10 and the CT image 12 of the patient's brain (S120);
generating a segmented image 30 in which each part of the brain is divided into a plurality of colors and displayed in the registered image 14 (S160); and
Simulating and displaying the position of the transducer and the ultrasonic range 40 in the segmented image 30 (S180); is performed to set the position and range of the ultrasonic irradiation based on the simulated image,
By the computer during irradiation of the ultrasound,
loading and displaying the MRI image 10, the CT image 12, the simulation image, and patient information (S220);
aligning the actual position of the patient with the MRI image 10 (S240, S260, S280);
A method of displaying survey information for ultrasonic brain survey, characterized in that it comprises a; step (S340) of reflecting and displaying the information of the actual transducer generating ultrasonic waves in the simulation image 200.
제 1 항에 있어서,
상기 등록영상 생성단계(S120)와 상기 세분화영상(30) 생성단계(S160) 사이에는, 상기 MRI영상(10)으로부터 CT 데이터를 추출하여 스컬의 두께를 확인하는 단계(S140)가 더 수행되는 것을 특징으로 하는 초음파 뇌 조사를 위한 조사정보 표시방법.
According to claim 1,
Between the registration image generation step (S120) and the segmentation image 30 generation step (S160), the step of extracting CT data from the MRI image 10 and confirming the thickness of the skull (S140) is further performed. Survey information display method for ultrasound brain irradiation characterized by.
제 1 항에 있어서,
상기 시뮬레이션의 표시단계(S180)는 상기 트랜스듀서의 위치정보, 방향정보 및 상기 트랜스듀서의 초음파 세기 정보를 표시하는 것을 특징으로 하는 초음파 뇌 조사를 위한 조사정보 표시방법.
According to claim 1,
The displaying step of the simulation (S180) is a survey information display method for ultrasonic brain irradiation, characterized in that for displaying the position information, direction information, and ultrasonic intensity information of the transducer of the transducer.
제 1 항에 있어서,
상기 환자 정보는 텍스트 정보인 것을 특징으로 하는 초음파 뇌 조사를 위한 조사정보 표시방법.
According to claim 1,
The patient information is an investigation information display method for ultrasound brain investigation, characterized in that the text information.
제 1 항에 있어서,
상기 정렬단계(S240, S260, S280)는
복수개의 마커가 각각 부착된 MRI 영상(10)과 환자(50)를 일치시키는 랜드마크 등록단계(S240);
3D 카메라(80)가 촬영한 실제 환자의 영상(70)을 3차원의 MRI 영상(10)과 일치시키는 표면등록단계(S260); 및
상기 MRI영상(10)과 상기 CT 영상(12)에 기초하여 구축된 3D 메쉬영상을 상기 환자와 일치시키는 3D 깊이단계(S280); 중 적어도 하나인 것을 특징으로 하는 초음파 뇌 조사를 위한 조사정보 표시방법.
According to claim 1,
The alignment step (S240, S260, S280)
a landmark registration step of matching the patient 50 with the MRI image 10 to which a plurality of markers are respectively attached (S240);
A surface registration step (S260) of matching the image 70 of the actual patient captured by the 3D camera 80 with the 3D MRI image 10; and
a 3D depth step (S280) of matching the 3D mesh image constructed based on the MRI image 10 and the CT image 12 to the patient; Survey information display method for ultrasonic brain irradiation, characterized in that at least one of.
제 1 항에 있어서,
상기 실시간 반영 및 표시단계(S340)에서
상기 실제 트랜스듀서의 정보는 상기 실제 트랜스듀서의 전류 및 전압 정보 중 적어도 하나인 것을 특징으로 하는 초음파 뇌 조사를 위한 조사정보 표시방법.
According to claim 1,
In the real-time reflection and display step (S340)
The method of displaying irradiation information for ultrasonic brain irradiation, characterized in that the information of the actual transducer is at least one of current and voltage information of the actual transducer.
제 1 항에 있어서,
상기 실시간 반영 및 표시단계(S340)는 상기 실제 트랜스듀서의 정보를 상기 시뮬레이션 영상(200)에 실시간으로 반영하여 표시하는 것을 특징으로 하는 초음파 뇌 조사를 위한 조사정보 표시방법.
According to claim 1,
In the real-time reflection and display step (S340), the information of the actual transducer is reflected in the simulation image 200 in real time and displayed.
제 1 항에 있어서,
상기 트랜스듀서는 비침습적 집속형 초음파 트랜스듀서인 것을 특징으로 하는 초음파 뇌 조사를 위한 조사정보 표시방법.
According to claim 1,
The transducer is an irradiation information display method for ultrasonic brain irradiation, characterized in that the non-invasive focused ultrasound transducer.
KR1020220115787A 2022-09-14 2022-09-14 Display method for treatment information for ultrasound brain irradiation KR102549662B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220115787A KR102549662B1 (en) 2022-09-14 2022-09-14 Display method for treatment information for ultrasound brain irradiation
PCT/KR2023/013479 WO2024058497A1 (en) 2022-09-14 2023-09-08 Method for displaying treatment information for ultrasound brain treatment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220115787A KR102549662B1 (en) 2022-09-14 2022-09-14 Display method for treatment information for ultrasound brain irradiation

Publications (1)

Publication Number Publication Date
KR102549662B1 true KR102549662B1 (en) 2023-06-30

Family

ID=86959493

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220115787A KR102549662B1 (en) 2022-09-14 2022-09-14 Display method for treatment information for ultrasound brain irradiation

Country Status (2)

Country Link
KR (1) KR102549662B1 (en)
WO (1) WO2024058497A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024058497A1 (en) * 2022-09-14 2024-03-21 주식회사 뉴로소나 Method for displaying treatment information for ultrasound brain treatment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100784117B1 (en) 2006-01-25 2007-12-12 주식회사 에스앤지바이오텍 skull embedded ultrasound 24hr brain monitoring system
KR20130015146A (en) * 2011-08-02 2013-02-13 삼성전자주식회사 Method and apparatus for processing medical image, robotic surgery system using image guidance
KR20140130888A (en) * 2013-05-02 2014-11-12 삼성메디슨 주식회사 Ultrasound system and method for providing change information of target object
KR20190047251A (en) 2017-10-27 2019-05-08 (주)헬스허브 Platform for sono-guided brain therapy
KR20200104103A (en) * 2019-02-26 2020-09-03 삼성메디슨 주식회사 Ultrasound diagnosis apparatus for registrating an ultrasound image and other modality image and method for operating the same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101395823B1 (en) * 2010-02-26 2014-05-16 성균관대학교산학협력단 Method of anticancer treatment using ultrasonicwave and apparatus for anticancer treatment using ultrasonicwave
KR102549662B1 (en) * 2022-09-14 2023-06-30 주식회사 뉴로소나 Display method for treatment information for ultrasound brain irradiation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100784117B1 (en) 2006-01-25 2007-12-12 주식회사 에스앤지바이오텍 skull embedded ultrasound 24hr brain monitoring system
KR20130015146A (en) * 2011-08-02 2013-02-13 삼성전자주식회사 Method and apparatus for processing medical image, robotic surgery system using image guidance
KR20140130888A (en) * 2013-05-02 2014-11-12 삼성메디슨 주식회사 Ultrasound system and method for providing change information of target object
KR20190047251A (en) 2017-10-27 2019-05-08 (주)헬스허브 Platform for sono-guided brain therapy
KR20200104103A (en) * 2019-02-26 2020-09-03 삼성메디슨 주식회사 Ultrasound diagnosis apparatus for registrating an ultrasound image and other modality image and method for operating the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024058497A1 (en) * 2022-09-14 2024-03-21 주식회사 뉴로소나 Method for displaying treatment information for ultrasound brain treatment

Also Published As

Publication number Publication date
WO2024058497A1 (en) 2024-03-21

Similar Documents

Publication Publication Date Title
US11839433B2 (en) System for guided procedures
US9082215B2 (en) Method of and system for overlaying NBS functional data on a live image of a brain
JP6208535B2 (en) Radiotherapy apparatus and system and method
US10123841B2 (en) Method for generating insertion trajectory of surgical needle
US20180158201A1 (en) Apparatus and method for registering pre-operative image data with intra-operative laparoscopic ultrasound images
US8260013B2 (en) Data representation for rtp
US8160676B2 (en) Method for planning a surgical procedure
CN1814323B (en) Focusing ultrasonic therapeutical system
US20160256069A1 (en) Computer programs and circuits for visualizations using image data and predefined data of surgical tools
US20150049174A1 (en) System and method for non-invasive patient-image registration
US20150011866A1 (en) Probe for Surgical Navigation
CN103417299A (en) Systems for planning and navigation
JP7221190B2 (en) Structural masking or unmasking for optimized device-to-image registration
KR102549662B1 (en) Display method for treatment information for ultrasound brain irradiation
JP5269543B2 (en) Medical image processing apparatus, ultrasonic diagnostic apparatus, and medical image processing program
JP2001259060A (en) Method and device for measuring positional deviation of patient, method and device for positioning patient by using the method, and radiotherapy apparatus
JP2018042831A (en) Medical image processor, care system and medical image processing program
Leventon A registration, tracking, and visualization system for image-guided surgery
EP3457942B1 (en) Verifying a position of an interventional device
TWI787659B (en) Medical image processing device, medical image processing program, medical device, and treatment system
CN115775611B (en) Puncture operation planning system
WO2023214402A1 (en) Subject-specific image-based multimodal automatic 3d pre-surgical and real-time guidance system for neural intervention
Musienko et al. METHODICAL DEVELOPMENT AND EVALUATION OF USING ADDITIVE MANUFACTURING FOR CREATING NEUROSURGICAL 3D MODELS FOR OPERATIVE PREPARATION AND PROFESSIONAL TRAININGS IN MEDICINE
CN117338387A (en) Laser guided lung puncture positioning method
Kuo Seed localization in image-guided prostate brachytherapy intraoperative dosimetry systems

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant