KR20210067010A - Unity Plug-in for Image and Voice Recognition and Patient Information Processing for Surgery Using AR Glass and Deep Learning - Google Patents
Unity Plug-in for Image and Voice Recognition and Patient Information Processing for Surgery Using AR Glass and Deep Learning Download PDFInfo
- Publication number
- KR20210067010A KR20210067010A KR1020190156159A KR20190156159A KR20210067010A KR 20210067010 A KR20210067010 A KR 20210067010A KR 1020190156159 A KR1020190156159 A KR 1020190156159A KR 20190156159 A KR20190156159 A KR 20190156159A KR 20210067010 A KR20210067010 A KR 20210067010A
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- information
- learning
- image
- medical
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/40—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00203—Electrical control of surgical instruments with speech control or speech recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/256—User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2560/00—Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
- A61B2560/04—Constructional details of apparatus
- A61B2560/0487—Special user inputs or interfaces
- A61B2560/0493—Special user inputs or interfaces controlled by voice
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Radiology & Medical Imaging (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Gynecology & Obstetrics (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
Description
본 발명은 외과 수술 환경에서 오염된 영상과 변조된 음성을 딥러닝 학습을 통해 명령 인식에 대한 성공률을 높이고, 환자와 직접 대면한 상태에서도 환자의 진료 이력, 진단 결과 등을 의료차트에 의존하지 않고 실시간 조회를 통해 확인함으로써 의료차트가 없는 의료 환경 조성 및 진료행위의 편리성을 증진시킬 수 있는 AR 글라스 및 딥러닝을 이용한 외과 수술용 영상·음성 인식 및 환자 정보 처리 유니티 플러그인에 관한 것이다.The present invention increases the success rate for command recognition through deep learning learning of contaminated images and modulated voices in a surgical environment, and does not rely on medical charts to display the patient's medical history, diagnosis results, etc., even when directly facing the patient. It relates to a Unity plug-in for image and voice recognition and patient information processing for surgery using AR glasses and deep learning that can improve the convenience of treatment and creation of a medical environment without medical charts by checking through real-time inquiry.
통상적인 의료정보지원시스템은 기존 환자 정보의 조회 시, 검사자인 의사가 항시 의료용 디지털 영상 및 통신 표준(Digital Imaging and Communication in Medicine, DICOM), 일명 다이콤 시스템에 접속하여 PC 시스템 앞에서만 사용이 가능하다. 따라서 수중 중에는 환자의 정보를 재확인하는 것이 어렵다는 문제가 있었다.In the normal medical information support system, when inquiring about existing patient information, the examiner, the doctor, can always access the medical digital imaging and communication standard (DICOM), also known as the DICOM system, and use it only in front of the PC system. Do. Therefore, there was a problem that it was difficult to reconfirm the patient's information while underwater.
또한 외과 수중 중 환자 정보 조회를 위해 키보드를 사용하는 것은 어렵기 때문에, 이를 해결하기 위해 카메라와 음성을 통해 명령어를 인식하여 환자의 정보를 의료정보지원유닛, 즉 HIS(Hospital Information System)에 요청하여야 한다. 다만 일반적인 환경에서 제스처 인식과 음성 인식은 많은 알고리즘과 학습데이터가 존재하나, 수술실의 낮은 조도 및 수술 중 오염되거나 또는 수술용 장갑을 착용한 경우 제스처 인식은 어려울 뿐만 아니라, 음성 인식에 있어서도 수술용 마스크를 착용하여 변조된 음성에 대한 인식이 어렵다는 문제가 있다.In addition, since it is difficult to use the keyboard to inquire about patient information during surgery, it is necessary to request patient information to the medical information support unit, that is, HIS (Hospital Information System) by recognizing commands through the camera and voice to solve this problem. do. However, in a general environment, there are many algorithms and learning data for gesture recognition and voice recognition, but gesture recognition is difficult in the case of low illumination in the operating room, contaminated during surgery, or wearing surgical gloves, as well as a surgical mask for voice recognition. There is a problem in that it is difficult to recognize the modulated voice by wearing the
본 발명은 상기한 바와 같은 문제점을 해결하기 위해 안출된 것으로,The present invention has been devised to solve the problems as described above,
외과 수술 환경에서 오염된 영상과 변조된 음성을 딥러닝 학습을 통해 명령 인식에 대한 성공률을 높이고, 환자와 직접 대면한 상태에서도 환자의 진료 이력, 진단 결과 등을 의료차트에 의존하지 않고 실시간 조회를 통해 확인함으로써 의료차트가 없는 의료 환경 조성 및 진료행위의 편리성을 증진시킬 수 있는 AR 글라스 및 딥러닝을 이용한 외과 수술용 영상·음성 인식 및 환자 정보 처리 유니티 플러그인을 제공하는 것을 목적으로 한다.In the surgical environment, the success rate for command recognition is increased through deep learning learning of contaminated images and modulated voices, and real-time inquiry of the patient’s medical history and diagnosis results without relying on medical charts even in the face-to-face condition with the patient The purpose of this is to provide a unity plug-in for image and voice recognition and patient information processing for surgical operations using AR glasses and deep learning that can improve the convenience of treatment and creation of a medical environment without medical charts.
본 발명에 따른 AR 글라스 및 딥러닝을 이용한 외과 수술용 영상·음성 인식 및 환자 정보 처리 유니티 플러그인은 피검사자의 의료정보를 수집 및 저장하고, 수집된 의료정보를 제공하기 위한 의료정보지원유닛; 검사자의 두부에 장착되고, 상기 의료정보지원유닛으로부터 제공되는 피검사의 의료정보를 검사자의 양안에 증강 화면으로 디스플레이하고, 피검사자의 검사 시 검사자로부터 취득한 영상 및 음성정보데이터를 송출하는 헤드마운트 디스플레이유닛; 상기 헤드마운트 디스플레이유닛으로부터 전송된 영상 및 음성정보 소스데이터를 딥러닝 학습방법을 통해 분석 및 분류된 인식정보를 상기 의료정보지원유닛으로부터 조회 및 확인하기 위한 학습유닛; 및 상기 학습유닛을 통해 분류된 인식정보를 상기 의료정보지원유닛으로 조회 및 확인을 요청하고, 상기 의료정보지원유닛으로부터 전송된 인식정보 및 분석정보를 상기 헤드마운트 디스플레이유닛으로 전송하기 위한 의료정보통신모듈;을 포함하여 이루어진다.Image/voice recognition and patient information processing unit plug-in for surgical operation using AR glasses and deep learning according to the present invention includes a medical information support unit for collecting and storing medical information of a subject, and providing the collected medical information; A head-mounted display unit mounted on the head of the examiner, displaying the medical information of the examination subject provided from the medical information support unit as augmented screens in both eyes of the examiner, and transmitting image and audio information data obtained from the examiner during the examination of the subject ; a learning unit for inquiring and confirming the image and audio information source data transmitted from the head-mounted display unit by analyzing and classifying recognition information from the medical information support unit through a deep learning learning method; and medical information communication for requesting inquiry and confirmation of the recognition information classified through the learning unit to the medical information support unit, and transmitting the recognition information and analysis information transmitted from the medical information support unit to the head-mounted display unit module; includes.
본 발명은 상기 헤드마운트 디스플레이유닛은 카메라에 의하여 촬영 영상정보 소스데이터와 마이크에 의하여 인식된 음성정보 소스데이터를 학습유닛으로 전송하기 위한 소스데이터전달부와, 상기 의료정보지원유닛 및 상기 학습유닛으로부터 전송된 데이터의 화면 표시를 위해 분류 및 구분하는 증강화면구성부와, 상기 증강화면구성부에 의하여 구성된 화면을 표시하기 위한 증강화면표시부와, 상기 소스데이터전달부의 영상 및 음성데이터를 송출하고, 상기 학습유닛을 통해 상기 의료정보진원유닛으로 정보 조회 요청 및 요청된 정보를 전달받기 위한 통신부를 포함하여 이루어진 것을 특징으로 한다.In the present invention, the head-mounted display unit includes a source data transfer unit for transmitting image information source data captured by a camera and audio information source data recognized by a microphone to a learning unit, and from the medical information support unit and the learning unit. An augmented screen configuration unit for classifying and dividing the transmitted data for screen display, an augmented screen display unit for displaying a screen configured by the augmented screen configuration unit, and transmitting the video and audio data of the source data transfer unit, the It is characterized in that it comprises a communication unit for receiving the information inquiry request and the requested information to the medical information diagnosis unit through the learning unit.
본 발명에 따른 상기 헤드마운트 디스플레이유닛은 상기 통신부를 통하여 전송된 데이터를 파서(Parser)를 통하여 분류 및 구분하여 상기 증강화면구성부로 전달하기 위한 프로토콜해석부를 더 포함하는 것을 특징으로 한다.The head-mounted display unit according to the present invention is characterized in that it further comprises a protocol analysis unit for classifying and dividing the data transmitted through the communication unit through a parser and transmitting the data to the augmented screen composition unit.
본 발명에 따른 상기 학습유닛은 상기 헤드마운트 디스플레이유닛으로부터 전송된 영상 및 음성정보 소스데이터를 딥러닝에 의한 분류 학습을 통해 외과 수술 환경에서 변조된 영상정보 및 음성정보로부터 특징데이터를 추출 및 분류하기 위한 영상학습부와 음성학습부를 포함하여 이루어지는 것을 특징으로 한다.The learning unit according to the present invention extracts and classifies the image and audio information source data transmitted from the head-mounted display unit through classification learning by deep learning to extract and classify feature data from the image information and audio information modulated in the surgical environment. It is characterized in that it comprises a video learning unit and a voice learning unit for
본 발명에 따른 상기 영상학습부는 수술 중 검사자의 손모양 또는 행동에 대한 특징을 추출하기 위한 특징추출부와, 상기 특징추출부로부터 추출된 특징데이터를 특징벡터로 변환하기 위한 특징벡터변환부와, 상기 특징벡터변환부에 의하여 변환된 특징벡터를 분류 인자에 의해 명령어를 인식하기 위한 벡터분류부를 포함하여 이루어진 것을 특징으로 한다.The image learning unit according to the present invention comprises a feature extraction unit for extracting features of the examiner's hand shape or behavior during surgery, and a feature vector conversion unit for converting the feature data extracted from the feature extraction unit into a feature vector; It is characterized in that it comprises a vector classification unit for recognizing the instruction by the classification factor of the feature vector transformed by the feature vector transformation unit.
본 발명에 따른 상기 음성학습부는 수술 중 검사자의 변질된 음성에 대한 특징을 추출하기 위한 변조특징추출부와, 상기 변조특징추출부로부터 추출된 특징데이터를 특징벡터로 변환하기 위한 변조특징벡터변환부와, 상기 변조특징벡터변환부에 의하여 변환된 특징벡터를 분류 인자에 의해 명령어를 인식하기 위한 변조벡터분류부를 포함하여 이루어진 것을 특징으로 한다.The voice learning unit according to the present invention includes a modulation feature extracting unit for extracting features of an examiner's altered voice during surgery, and a modulation feature vector conversion unit for converting the feature data extracted from the modulation feature extracting unit into a feature vector. and a modulation vector classifying unit for recognizing a command by a classification factor using the feature vector converted by the modulation feature vector converting unit.
본 발명에 따른 AR 글라스 및 딥러닝을 이용한 외과 수술용 영상·음성 인식 및 환자 정보 처리 유니티 플러그인은 외과 수술 환경에서 오염된 영상과 변조된 음성을 딥러닝 학습을 통해 명령 인식에 대한 성공률을 높일 수 있다.The Unity plug-in for image and voice recognition and patient information processing for surgery using AR glasses and deep learning according to the present invention can increase the success rate for command recognition through deep learning learning of contaminated images and modulated voices in a surgical environment. have.
또한 본 발명은 환자와 직접 대면한 상태에서도 환자의 진료 이력, 진단 결과 등을 의료차트에 의존하지 않고 실시간 조회를 통해 확인함으로써 의료차트가 없는 의료 환경 조성 및 진료행위의 편리성을 증진시킬 수 있다.In addition, the present invention can improve the convenience of medical care and the creation of a medical environment without a medical chart by checking the patient's medical history, diagnosis result, etc. through real-time inquiry without relying on the medical chart even in the state of direct contact with the patient. .
또한 본 발명은 유니티 플러그(Unity Plug-in)인 형태로 이루어져 타 시스템에도 접목이 용이하고, 이를 통해 증강현실을 이용한 의료지원시스템의 보급률을 늘려 진료행위의 편의성을 향상시킬 수 있다.In addition, the present invention is made in the form of a Unity Plug-in, so that it can be easily grafted to other systems, thereby increasing the penetration rate of the medical support system using augmented reality to improve the convenience of medical treatment.
도 1은 본 발명에 따른 AR 글라스 및 딥러닝을 이용한 외과 수술용 영상·음성 인식 및 환자 정보 처리 유니티 플러그인을 나타내는 개념도,
도 2는 본 발명에 따른 AR 글라스 및 딥러닝을 이용한 외과 수술용 영상·음성 인식 및 환자 정보 처리 유니티 플러그인을 나타내는 상세구성도,
도 3은 본 발명에 따른 헤드마운트 디스플레이유닛을 나타내는 사시도,
도 4는 본 발명에 따른 유니티 플러그인을 나타내는 개념도.1 is a conceptual diagram showing the image/voice recognition and patient information processing Unity plug-in for surgical operation using AR glasses and deep learning according to the present invention;
2 is a detailed configuration diagram showing the image/voice recognition and patient information processing Unity plug-in for surgical operation using AR glasses and deep learning according to the present invention;
3 is a perspective view showing a head mounted display unit according to the present invention;
4 is a conceptual diagram illustrating a Unity plug-in according to the present invention.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 설명하기 위하여 이하에서는 본 발명의 바람직한 실시례를 예시하고 이를 참조하여 살펴본다.In order to explain the present invention, the operational advantages of the present invention, and the objects achieved by the practice of the present invention, preferred embodiments of the present invention are exemplified below and will be described with reference to them.
먼저, 본 출원에서 사용한 용어는 단지 특정한 실시례를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니며, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 또한 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.First, the terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention, and the singular expression may include a plural expression unless the context clearly indicates otherwise. Also in the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other It is to be understood that this does not preclude the possibility of addition or presence of features or numbers, steps, operations, components, parts, or combinations thereof.
본 발명을 설명함에 있어서, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.
도 1 내지 도 3에 도시된 바와 같이 본 발명에 따른 AR 글라스 및 딥러닝을 이용한 외과 수술용 영상·음성 인식 및 환자 정보 처리 유니티 플러그인은 의료정보지원유닛(10)과, 헤드마운트 디스플레이유닛(20)과, 학습유닛(30) 및 의료정보통신모듈(40)을 포함하여 구성된다.As shown in FIGS. 1 to 3, the Unity plug-in for image/voice recognition and patient information processing for surgical operation using AR glasses and deep learning according to the present invention is a medical
도 1 내지 도 3에 도시된 바와 같이 본 발명에 따른 의료정보지원유닛(10)은 피검사자의 의료정보를 수집 및 저장하고, 수집된 의료정보를 제공하게 된다.1 to 3 , the medical
이러한 의료정보지원유닛(10)은 피검사자, 즉 환자의 의료정보를 수집하고 저장하기 위해 RIS(11), PACS(13), EMR(15), OCS(17) 등으로 구성된다.The medical
먼저 RIS(11)(Radiology Information System)는 방서선과 정보 시스템으로 환자의 방사선에 의한 진료 및 진단정보를 저장하고 전송한다. 다음으로 PACS(13)(Picture Archiving and Communications System)는 의료 영상을 저장 및 전송하기 시스템이다. 또한 EMR(15)(Electronic Medical Record)은 환자의 전자 의료 기록에 대한 것이고, OCS(17)(Order Communication System)는 의사의 처방을 전달하기 위한 시스템이다.First, the RIS (11) (Radiology Information System) is a radiographic and information system that stores and transmits treatment and diagnosis information by radiation of a patient. Next, the PACS 13 (Picture Archiving and Communications System) is a system for storing and transmitting medical images. In addition, the EMR ( 15 ) (Electronic Medical Record) is for the electronic medical record of the patient, and the OCS ( 17 ) (Order Communication System) is a system for delivering a doctor's prescription.
이와 같이 의료정보지원유닛(10)은 상기한 바와 같은 시스템을 통하여 피검사자, 즉 환자의 의료정보를 수집하고 저장하며, 후술할 헤드마운트 디스플레이유닛(20)이나 학습유닛(30)에 의하여 정보전달의 요청 및 조회 시, 그 결과 및 해당 정보를 헤드마운트 디스플레이유닛(20)으로 전송하여 환자를 진료하고 있는 검사자, 즉 의사에게 실시간으로 증강화면을 표시하게 된다.As such, the medical
이와 같이 구성된 의료정보지원유닛(10)은 병원 내 진료 현황, 약학 정보, 행정 정보 등이 포괄적으로 수집 및 저장되어 필요에 따라, 즉 일반 진료나 수술 중 필요한 정보의 조회 및 요청 시, 해당 정보를 헤드마운트 디스플레이유닛(20)으로 전송하여 증강화면으로 표시하게 할 수 있다.The medical
도 1 내지 도 3에 도시된 바와 같이 본 발명에 따른 헤드마운트 디스플레이유닛(20)은 검사자의 두부에 장착되고, 의료정보지원유닛(10)으로부터 제공되는 피검사의 의료정보를 검사자의 양안에 증강 화면으로 디스플레이하고, 피검사자의 검사 시 검사자로부터 취득한 영상 및 음성정보데이터를 송출하도록 구성된다.1 to 3, the head mounted
이를 위한 헤드마운트 디스플레이유닛(20)은 소스데이터전달부(21), 증강화면구성부(22), 증강화면표시부(23) 및 통신부(24)를 포함하여 구성된다.The head mounted
먼저 헤드마운트 디스플레이유닛(20)은 검사자의 두부에 착용할 수 있도록 착용밴드(27)가 구비되고, 전면에는 시스루 글라스(26)가 구비된다.First, the head mounted
헤드마운트 디스플레이유닛(20)의 소스데이터전달부(21)는 착용밴드(27) 전방에 구비되는 카메라(21a)와, 착용밴드(27) 측방에 연결되는 마이크(21b)로 구성된다. 즉 소스데이터전달부(21)는 의사가 헤드마운트 디스플레유닛을 착용한 후, 카메라(21a)를 통하여 촬영된 영상정보와 마이크(21b)를 통하여 인식된 음성정보를 소스데이터로 하고, 이러한 소스데이터를 통신부(24)를 통하여 후술할 학습유닛(30)으로 전송하게 된다.The source
아울러 헤드마운트 디스플레이유닛(20)의 증강화면구성부(22)는 장치에 내장되어 있으며, 통신부(24)에 의하여 전달받은 데이터를 화면에 표시하기 위해 분류 배치시키게 된다.In addition, the augmented
이렇게 증강화면구성부(22)에 의하여 분류 배치된 데이터는 헤드마운트 디스플레이유닛(20)의 증강화면표시부(23)에 의하여 시스루 글라스(26)에 증강화면을 표시하여 제공하게 된다.The data classified and arranged by the augmented
또한 헤드마운트 디스플레이유닛(20)의 통신부(24)는 착용밴드(27) 일측에 배치되어 소스데이터전달부(21)에 의하여 취득한 영상데이터 및 음성데이터를 송출하여 학습유닛(30)을 전송하고, 학습유닛(30) 또는 의료정보통신부(24)를 통해 정보 조회 요청 및 요청된 정보를 수신하게 된다. 이렇게 수신된 정보는 증강화면구성부(22) 및 증강화면표시부(23)에 의하여 표시될 수 있다.In addition, the
아울러 통신부(24)의 통신방식은 무선통신, 즉 와이파이(Wi-Fi), 무선네트워크 등의 접속을 통하여 구현될 수 있다.In addition, the communication method of the
아울러 헤드마운트 디스플레이유닛(20)은 착용밴드(27) 일측에 안내용 스피커(28)가 구비되어 진료나 시술 중 필요한 정보를 의사에게 음성을 전달하게 된다.In addition, the head-mounted
나아가 본 발명에 따른 헤드마운트 디스플레이유닛(20)은 통신부(24)에 의하여 전송된 데이터를 파서(Parser)를 통하여 분류 및 구분하여 증강화면구성부(22)로 전달하기 위한 프로토콜해석부(25)가 더 구비될 수 있다.Further, the head mounted
도 1 내지 도 3에 도시된 바와 같이 본 발명에 따른 학습유닛(30)은 헤드마운트 디스플레이유닛(20)으로부터 전송된 영상 및 음성정보 소스데이터를 딥러닝 학습방법을 통해 분석 및 분류된 인식정보를 상기 의료정보지원유닛(10)으로부터 조회 및 확인할 수 있도록 구성된다.1 to 3, the
통상적인 의료정보지원시스템은 기존 환자 정보의 조회 시, 검사자인 의사가 항시 의료용 디지털 영상 및 통신 표준(Digital Imaging and Communication in Medicine, DICOM), 일명 다이콤 시스템에 접속하여 PC 시스템 앞에서만 사용이 가능하다. 따라서 수중 중에는 환자의 정보를 재확인하는 것이 어렵다는 문제가 있었다.In the normal medical information support system, when inquiring about existing patient information, the examiner, the doctor, can always access the medical digital imaging and communication standard (DICOM), also known as the DICOM system, and use it only in front of the PC system. Do. Therefore, there was a problem that it was difficult to reconfirm the patient's information while underwater.
또한 외과 수중 중 환자 정보 조회를 위해 키보드를 사용하는 것은 어렵기 때문에, 이를 해결하기 위해 카메라(21a)와 음성을 통해 명령어를 인식하여 환자의 정보를 의료정보지원유닛(10), 즉 HIS(Hospital Information system)에 요청하여야 한다. 다만 일반적인 환경에서 제스처 인식과 음성 인식은 많은 알고리즘과 학습데이터가 존재하나, 수술실의 낮은 조도 및 수술 중 오염되거나 또는 수술용 장갑을 착용한 경우 제스처 인식은 어려울 뿐만 아니라, 음성 인식에 있어서도 수술용 마스크를 착용하여 변조된 음성에 대한 인식이 어렵다는 문제가 있다.In addition, since it is difficult to use a keyboard for inquiring patient information during surgery, in order to solve this, commands are recognized through the
이에 본 발명에서는 수술 중, 오염되거나, 수술용 장갑 및 마스크 착용으로 인하여 인식이 어려운 제스처 등의 영상정보와 음성정보를 딥러닝에 의한 학습을 통해 분류 및 분석하고, 이렇게 분류 및 분석된 학습데이터를 이용하여 수술 중 의사의 명령에 의한 정보 조회 및 요청에 대한 인식 성공률을 높이고자 한다.Accordingly, in the present invention, image information and voice information such as gestures that are difficult to recognize during surgery, contaminated, or difficult to recognize due to wearing surgical gloves and masks are classified and analyzed through deep learning learning, and the classified and analyzed learning data is used in the present invention. It is intended to increase the recognition success rate for information inquiry and request by the doctor's orders during surgery.
이를 위한 학습유닛(30)은 헤드마운트 디스플레이유닛(20)으로부터 전송된 영상 및 음성정보 소스데이터를 딥러닝에 의한 분류 학습을 통해 외과 수술 환경에서 변조된 영상정보 및 음성정보로부터 특징데이터를 추출 및 분류하는 영상학습부(31)와 음성학습부(33)를 포함하여 이루어진다.The
학습유닛(30)의 영상학습부(31)는 오픈 소스인 'YOLO' 딥러닝 기반의 영상인식을 통한 학습데이터를 생성하고, 음성학습부(33)는 오픈 소스인 'KALDI' 딥러닝 기반의 음성인식을 통한 학습데이터를 생성하게 된다. 여기서, 학습데이터는 외과 수술 중 의사의 제스처, 즉 손모양이나 행동 및 음성을 분석 및 분류하여 학습된 데이터를 의미한다.The
먼저 영상학습부(31)는 수술실의 낮은 조도 및 수술 중 오염되거나 또는 수술용 장갑을 착용한 경우 제스처 인식 성공률을 높이기 위해 특징추출부(31a)와, 특징벡터변환부(31b) 및 벡터분류부(31c)로 구성된다.First, the
여기서 특징추출부(31a)는 수술 중 검사자, 즉 의사의 손모양 또는 행동에 대한 특징을 추출하게 된다. 이렇게 특징추출부(31a)에 의하여 추출된 특징데이터는 특징벡터변환부(31b)에 의하여 특징벡터로 변환하게 된다. 벡터분류부(31c)는 변환된 특징벡터의 분류 인자에 의해 환자의 정보 조회 및 요청에 관한 명령어를 인식하게 된다.Here, the
다음으로 음성학습부(33)는 수술용 마스크를 착용하여 변조된 음성에 대한 인식에 대한 인식 성공률을 높이기 위해 변조특징추출부(33a)와, 변조특징벡터변환부(33b) 및 변조벡터분류부(33c)를 포함하여 구성된다.Next, the
여기서 변조특징추출부(33a)는 수술 중 검사자, 즉 의사의 변질된 음성에 대한 특징을 추출하게 된다. 이렇게 변조특징추출부(33a)에 의하여 추출된 특징데이터는 변조특징벡터변환부(33b)에 의하여 특징벡터로 변환된다. 변조벡터분류부(33c)는 변환된 특징벡터의 분류 인자에 의해 환자의 정보 조회 및 요청에 관한 명령어를 인식하게 된다.Here, the modulation
상기한 바와 같이 학습유닛(30)의 영상학습부(31) 및 음성학습부(33)는 딥러닝 학습을 통해 외과 수술 환경에서의 특징데이터를 추출하여 인식 성공률을 높이기 위한 학습데이터를 제공하게 된다.As described above, the
이렇게 학습유닛(30)에 의하여 외과 시술 환경에서, 즉 오염되거나 변조된 제스처나 음성데이터를 분석 및 분류 학습을 통하여 생성된 학습데이터를 이용하여 인식 성공률을 높여 환자의 정확한 정보가 헤드마운트 디스플레이유닛(20)에 표시될 수 있다. In this way, the
도 1 내지 도 3에 도시된 바와 같이 본 발명에 따른 의료정보통신모듈(40)은 학습유닛(30)을 통해 분류된 인식정보를 의료정보지원유닛(10)으로 조회 및 확인을 요청하고, 의료정보지원유닛(10)으로부터 전송된 인식정보 및 분석정보를 헤드마운트 디스플레이유닛(20)으로 전송할 수 있도록 구성된다.1 to 3, the medical information and
즉 의료정보통신모듈(40)은 학습유닛(30)을 통하여 분석 및 분류된 학습데이터, 즉 외과 수술 환경에서 취하여진 의사에 의한 제스처 내지 음성에 의한 명령어를 인식한 후, 인식된 명령에 의하여 환자의 정보 내지 필요한 정보를 의료정보지원유닛(10)에 전송하여 조회 및 요청하게 된다. 이렇게 전송된 정보 조회 및 요청에 따라 의료정보지원유닛(10)은 의료정보통신모듈(40)을 통하여 인식정보 내지 분석정보를 헤드마운트 디스플레이유닛(20)에 전송하게 된다. 헤드마운트 디스플레이유닛(20)은 전송된 정보를 증강화면을 표시하여 의사에게 전달하게 된다.That is, the medical
나아가 본 발명에 따른 의료정보지원유닛과 헤드마운트 디스플레이유닛은 전술한 바와 같이 학습유닛을 통하지 않고, 통상적인 경우 다이콤 시스템에 의한 영상 및 음성정보를 요청하고, 수신하여 증강화면에 표시하는 것도 가능하다.Furthermore, the medical information support unit and the head-mounted display unit according to the present invention do not go through the learning unit as described above, and in normal cases, it is also possible to request, receive, and display the video and audio information by the daicom system on the augmented screen. Do.
한편 도 4에 도시된 바와 같이 본 발명에 따른 의료정보지원시스템은 유니티 플러그인(Unity Plug-in)(so, DLL)인 형태로 구성될 수 있으며, 이를 통하여 타 시스템에서도 접목이 용이하도록 할 수 있다. 따라서 본 발명에 따른 증강현실을 이용한 의료지원시스템의 보급률을 높이고, 이를 통하여 진료행위의 편의성을 향상에 기여할 수 있다.Meanwhile, as shown in FIG. 4, the medical information support system according to the present invention may be configured in the form of a Unity Plug-in (so, DLL), and through this, it can be easily grafted to other systems. . Therefore, it is possible to increase the penetration rate of the medical support system using augmented reality according to the present invention, thereby contributing to the improvement of the convenience of medical treatment.
이와 같이 본 발명은 도면에 도시된 일실시례를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시례가 가능하다는 점을 이해할 것이다.As described above, the present invention has been described with reference to one embodiment shown in the drawings, but this is merely exemplary, and various modifications and equivalent other embodiments are possible therefrom by those of ordinary skill in the art. will understand
따라서 본 발명의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.
10 : 의료정보지원유닛
11 : RIS
13 : PACS
15 : EMR
17 : OCS
20 : 헤드마운트 디스플레이유닛
21 : 소스데이터전달부
21a : 카메라
21b : 마이크
22 : 증강화면구성부
23 : 증강화면표시부
24 : 통신부
25 : 프로토콜해석부
26 : 시스루 글라스
27 : 착용밴드
28 : 안내용 스피커
30 : 학습유닛
31 : 영상학습부
31a : 특징추출부
31b : 특징벡터변환부
31c : 벡터분류부
33 : 음성학습부(33)
33a : 변조특징추출부
33b : 변조특징벡터변환부
33c : 변조벡터분류부
40 : 의료정보통신모듈10: Medical information support unit
11: RIS 13: PACS
15: EMR 17: OCS
20: head mounted display unit
21: source data transfer
21b: microphone 22: augmented screen composition unit
23: augmented screen display unit 24: communication unit
25: protocol analysis unit 26: see-through glass
27: wearing band 28: speaker for guidance
30: learning unit
31:
31b: feature
33:
33b: modulation feature
40: medical information communication module
Claims (6)
검사자의 두부에 장착되고, 상기 의료정보지원유닛(10)으로부터 제공되는 피검사의 의료정보를 검사자의 양안에 증강 화면으로 디스플레이하고, 피검사자의 검사 시 검사자로부터 취득한 영상 및 음성정보데이터를 송출하는 헤드마운트 디스플레이유닛(20);
상기 헤드마운트 디스플레이유닛(20)으로부터 전송된 영상 및 음성정보 소스데이터를 딥러닝 학습방법을 통해 분석 및 분류된 인식정보를 상기 의료정보지원유닛(10)으로부터 조회 및 확인하기 위한 학습유닛(30); 및
상기 학습유닛(30)을 통해 분류된 인식정보를 상기 의료정보지원유닛(10)으로 조회 및 확인을 요청하고, 상기 의료정보지원유닛(10)으로부터 전송된 인식정보 및 분석정보를 상기 헤드마운트 디스플레이유닛(20)으로 전송하기 위한 의료정보통신모듈(40);
을 포함하여 이루어진 AR 글라스 및 딥러닝을 이용한 외과 수술용 영상·음성 인식 및 환자 정보 처리 유니티 플러그인.
a medical information support unit 10 for collecting and storing the medical information of the subject and providing the collected medical information;
A head mounted on the head of an examiner, displaying the medical information of the subject provided from the medical information support unit 10 as augmented screens in both eyes of the examiner, and transmitting image and audio information data acquired from the examiner during the examination of the subject mount display unit 20;
A learning unit 30 for inquiring and confirming the recognition information classified and analyzed through the deep learning learning method on the image and audio information source data transmitted from the head mounted display unit 20 from the medical information support unit 10 ; and
Request for inquiry and confirmation of the recognition information classified through the learning unit 30 to the medical information support unit 10, and display the recognition information and analysis information transmitted from the medical information support unit 10 on the head mounted display Medical information communication module 40 for transmitting to the unit 20;
A Unity plugin for image/voice recognition and patient information processing for surgical operations using AR glasses and deep learning, including
카메라(21a)에 의하여 촬영 영상정보 소스데이터와 마이크(21b)에 의하여 인식된 음성정보 소스데이터를 학습유닛(30)으로 전송하기 위한 소스데이터전달부(21)와,
상기 의료정보지원유닛(10) 및 상기 학습유닛(30)으로부터 전송된 데이터의 화면 표시를 위해 분류 및 구분하는 증강화면구성부(22)와,
상기 증강화면구성부(22)에 의하여 구성된 화면을 표시하기 위한 증강화면표시부(23)와,
상기 소스데이터전달부(21)의 영상 및 음성데이터를 송출하고, 상기 학습유닛(30)을 통해 상기 의료정보진원유닛으로 정보 조회 요청 및 요청된 정보를 전달받기 위한 통신부(24)를 포함하여 이루어진 것을 특징으로 하는 AR 글라스 및 딥러닝을 이용한 외과 수술용 영상·음성 인식 및 환자 정보 처리 유니티 플러그인.
According to claim 1, wherein the head mounted display unit (20)
A source data transfer unit 21 for transmitting the source data of the image information captured by the camera 21a and the source data of the audio information recognized by the microphone 21b to the learning unit 30;
an augmented screen configuration unit 22 for classifying and classifying data transmitted from the medical information support unit 10 and the learning unit 30 for screen display;
an augmented screen display unit 23 for displaying the screen constituted by the augmented screen construction unit 22;
and a communication unit 24 for transmitting the video and audio data of the source data transmission unit 21 and receiving an information inquiry request and requested information to the medical information diagnosis unit through the learning unit 30 . A Unity plug-in for image and voice recognition and patient information processing for surgical operations using AR glasses and deep learning, characterized in that.
상기 헤드마운트 디스플레이유닛(20)은 상기 통신부(24)를 통하여 전송된 데이터를 파서(Parser)를 통하여 분류 및 구분하여 상기 증강화면구성부(22)로 전달하기 위한 프로토콜해석부(25)를 더 포함하는 것을 특징으로 하는 AR 글라스 및 딥러닝을 이용한 외과 수술용 영상·음성 인식 및 환자 정보 처리 유니티 플러그인.
3. The method of claim 2,
The head mounted display unit 20 categorizes and classifies the data transmitted through the communication unit 24 through a parser and transmits the data to the augmented screen configuration unit 22. A protocol analysis unit 25 is further added. Image and voice recognition and patient information processing Unity plug-in for surgery using AR glasses and deep learning, characterized in that it includes.
상기 헤드마운트 디스플레이유닛(20)으로부터 전송된 영상 및 음성정보 소스데이터를 딥러닝에 의한 분류 학습을 통해 외과 수술 환경에서 변조된 영상정보 및 음성정보로부터 특징데이터를 추출 및 분류하기 위한 영상학습부(31)와 음성학습부(33)를 포함하여 이루어지는 것을 특징으로 하는 AR 글라스 및 딥러닝을 이용한 외과 수술용 영상·음성 인식 및 환자 정보 처리 유니티 플러그인.
According to claim 1, wherein the learning unit (30)
An image learning unit for extracting and classifying the image and audio information source data transmitted from the head mounted display unit 20 through classification learning by deep learning to extract and classify feature data from the image information and audio information modulated in the surgical environment ( 31) and the voice learning unit 33, AR glasses and deep learning for surgical operation using image/voice recognition and patient information processing Unity plug-in, characterized in that it comprises.
수술 중 검사자의 손모양 또는 행동에 대한 특징을 추출하기 위한 특징추출부(31a)와,
상기 특징추출부(31a)로부터 추출된 특징데이터를 특징벡터로 변환하기 위한 특징벡터변환부(31b)와,
상기 특징벡터변환부(31b)에 의하여 변환된 특징벡터를 분류 인자에 의해 명령어를 인식하기 위한 벡터분류부(31c)를 포함하여 이루어진 것을 특징으로 하는 AR 글라스 및 딥러닝을 이용한 외과 수술용 영상·음성 인식 및 환자 정보 처리 유니티 플러그인.
The method of claim 4, wherein the image learning unit (31)
A feature extraction unit (31a) for extracting features of the examiner's hand shape or behavior during surgery;
a feature vector conversion unit 31b for converting the feature data extracted from the feature extraction unit 31a into a feature vector;
Surgical operation image using AR glasses and deep learning, characterized in that it includes a vector classification unit 31c for recognizing a command by a classification factor for the feature vector converted by the feature vector conversion unit 31b Unity plugin for speech recognition and patient information processing.
수술 중 검사자의 변질된 음성에 대한 특징을 추출하기 위한 변조특징추출부(33a)와,
상기 변조특징추출부(33a)로부터 추출된 특징데이터를 특징벡터로 변환하기 위한 변조특징벡터변환부(33b)와,
상기 변조특징벡터변환부(33b)에 의하여 변환된 특징벡터를 분류 인자에 의해 명령어를 인식하기 위한 변조벡터분류부(33c)를 포함하여 이루어진 것을 특징으로 하는 AR 글라스 및 딥러닝을 이용한 외과 수술용 영상·음성 인식 및 환자 정보 처리 유니티 플러그인.According to claim 4, wherein the voice learning unit (33)
A modulation feature extraction unit (33a) for extracting features of the inspector's altered voice during surgery;
a modulation feature vector conversion unit 33b for converting the feature data extracted from the modulation feature extraction unit 33a into a feature vector;
Surgical operation using AR glasses and deep learning, characterized in that it comprises a modulation vector classification unit (33c) for recognizing the command by the classification factor of the feature vector converted by the modulation feature vector conversion unit (33b) Unity plugin for image/voice recognition and patient information processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190156159A KR20210067010A (en) | 2019-11-28 | 2019-11-28 | Unity Plug-in for Image and Voice Recognition and Patient Information Processing for Surgery Using AR Glass and Deep Learning |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190156159A KR20210067010A (en) | 2019-11-28 | 2019-11-28 | Unity Plug-in for Image and Voice Recognition and Patient Information Processing for Surgery Using AR Glass and Deep Learning |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210067010A true KR20210067010A (en) | 2021-06-08 |
Family
ID=76399107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190156159A KR20210067010A (en) | 2019-11-28 | 2019-11-28 | Unity Plug-in for Image and Voice Recognition and Patient Information Processing for Surgery Using AR Glass and Deep Learning |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210067010A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116343538A (en) * | 2023-03-20 | 2023-06-27 | 中山大学附属第六医院 | Surgical teaching implementation method and device based on wearable equipment |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190108923A (en) | 2018-03-16 | 2019-09-25 | 서울여자대학교 산학협력단 | Plastic surgery/surgery support system using augmented reality |
-
2019
- 2019-11-28 KR KR1020190156159A patent/KR20210067010A/en not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190108923A (en) | 2018-03-16 | 2019-09-25 | 서울여자대학교 산학협력단 | Plastic surgery/surgery support system using augmented reality |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116343538A (en) * | 2023-03-20 | 2023-06-27 | 中山大学附属第六医院 | Surgical teaching implementation method and device based on wearable equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11004554B2 (en) | Method and apparatus for identification | |
EP2851831B1 (en) | Mobile Information Gateway for Home Healthcare | |
EP2851832B1 (en) | Mobile information gateway for use by medical personnel | |
EP2851830B1 (en) | Mobile information gateway for use in emergency situations or with special equipment | |
US11297285B2 (en) | Dental and medical loupe system for lighting control, streaming, and augmented reality assisted procedures | |
US10811123B2 (en) | Protected health information voice data and / or transcript of voice data capture, processing and submission | |
US10492062B2 (en) | Protected health information image capture, processing and submission from a mobile device | |
US11275757B2 (en) | Systems and methods for capturing data, creating billable information and outputting billable information | |
US9524530B2 (en) | Method, system and apparatus for transcribing information using wearable technology | |
TW581668B (en) | Endoscopic device | |
US12001600B2 (en) | Service glasses with selective data provision | |
JP6407526B2 (en) | Medical information processing system, medical information processing method, and information processing system | |
KR101580559B1 (en) | Medical image and information real time interaction transfer and remote assist system | |
KR102218674B1 (en) | Method fo providing health management service | |
JP2009045131A (en) | Medical information processing system, medical information processing method, and program | |
KR20210067010A (en) | Unity Plug-in for Image and Voice Recognition and Patient Information Processing for Surgery Using AR Glass and Deep Learning | |
CA3205931A1 (en) | Systems and methods for supporting medical procedures | |
KR101906398B1 (en) | Method for Sharing Endoscope Medical Information Using Real Time Object Tracing | |
CN108806772A (en) | Wisdom Surgery application platform manages system | |
JP2017016347A (en) | Information processing device, information processing method, and program | |
US20230380912A1 (en) | Medical imaging control apparatus, medical imaging system and method of operating a medical imaging system | |
US20230248468A1 (en) | Medical display system, control method, and control device | |
WO2023129061A2 (en) | A patient information management system | |
KR20190053167A (en) | Equipment for providing remote medical service inter-operable with DICOM compliant system using smart glasses | |
KR20230104509A (en) | Realistic Communication System Based on Extended Reality For Improving Trust Between Patient and Operating Surgeon |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |