KR101789677B1 - Observing device for telemedicine, Image processing device including the same and System having the same - Google Patents

Observing device for telemedicine, Image processing device including the same and System having the same Download PDF

Info

Publication number
KR101789677B1
KR101789677B1 KR1020160042376A KR20160042376A KR101789677B1 KR 101789677 B1 KR101789677 B1 KR 101789677B1 KR 1020160042376 A KR1020160042376 A KR 1020160042376A KR 20160042376 A KR20160042376 A KR 20160042376A KR 101789677 B1 KR101789677 B1 KR 101789677B1
Authority
KR
South Korea
Prior art keywords
image
unit
light
image data
terminal
Prior art date
Application number
KR1020160042376A
Other languages
Korean (ko)
Other versions
KR20170114811A (en
Inventor
고철웅
장인훈
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020160042376A priority Critical patent/KR101789677B1/en
Priority to PCT/KR2017/003648 priority patent/WO2017176021A1/en
Publication of KR20170114811A publication Critical patent/KR20170114811A/en
Application granted granted Critical
Publication of KR101789677B1 publication Critical patent/KR101789677B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Physiology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Endoscopes (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은, 헤드부의 탈착이 가능하고 헤드부의 구조에 의해 초점거리가 조절되는 관찰경과 이를 포함하는 원격진료가 가능한 이미지데이터처리시스템에 관한 것에 관한 것으로, 대상의 내부를 촬영하는 관찰경에 있어서, 대상의 내부로부터 반사되는 광을 취득하여 광신호를 생성하는 광취득부를 포함하는 헤드부 및 헤드부에 결합되고, 광신호를 수신하여 이미지데이터를 생성하는 기능을 구비하는 본체부를 포함하여 이루어지고, 헤드부는 본체부로부터 분리될 수 있는 것을 특징으로 하는 관찰경을 제공한다.The present invention relates to a telemedicine-enabled image data processing system capable of attaching and detaching a head part and having a focal length controlled by a structure of a head part and a telemedicine processing system including the same, And a main body unit coupled to the head unit and including a light acquisition unit for acquiring light reflected from the inside of the object and generating an optical signal, and a function for receiving the optical signal and generating image data, And the head part can be separated from the main body part.

Description

원격진료를 위한 관찰경과 이를 포함하는 영상처리장치 및 시스템{Observing device for telemedicine, Image processing device including the same and System having the same}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a telemedicine device,

본 발명은, 원격진료를 위한 관찰경과 이를 포함하는 영상처리장치 및 시스템에 관한 것으로, 더욱 상세하게는, 헤드부의 탈착이 가능하고 헤드부의 구조에 의해 초점거리가 조절되는 관찰경과 이를 포함하는 원격진료가 가능한 이미지데이터처리시스템에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and a system including the same, and more particularly, to an image processing apparatus and a system including the same, And more particularly to an image data processing system capable of performing image processing.

관찰경은 대상의 내부에 삽입된 관찰경의 튜브를 통해 대상의 내부를 촬영함으로써 사용자가 대상의 내부를 관찰할 수 있게 하는 장치이다. 관찰경은 건물 내벽이나 기계 장치 내부에 경성 또는 연성이 있는 튜브가 삽입되어 사용될 수 있을 뿐만 아니라, 인간이나 동물의 내부에 니들 형태나 고무관 형태, 플라스틱 팁 형태의 튜브가 삽입되어 사용될 수도 있다. 특히 관찰경이 인체에 사용되는 경우, 개복 수술이나 절개 수술 없이도 인체의 내부(기관지, 식도, 흉강, 심장, 위, 장, 복강, 방광, 항문, 비강, 고막 등)를 검사할 수 있으므로, 여러 가지 질병의 진단에 유용하게 사용될 수 있다.The observer is a device that enables the user to observe the inside of the object by photographing the inside of the object through a tube of the observer inserted into the object. In addition to the use of a rigid or flexible tube inserted into the inside of a building or inside a machine, observation tubes may be used in the form of a needle, a rubber tube, or a plastic tip in the interior of a human or animal. Especially, when the observer is used in the human body, it is possible to examine the inside of the human body (bronchial, esophagus, thoracic cavity, heart, stomach, intestine, abdominal cavity, bladder, anus, nasal cavity, It can be useful for diagnosis of diseases.

관찰경은 튜브가 대상의 내부에 삽입되기 때문에 튜브나 그 부근의 오염이 문제된다. 특히 수술실 등에서 인체의 내부에 튜브를 삽입하는 경우 높은 수준의 청결이 요구된다. 그러나 통상의 관찰경은 그 복잡한 구조 및 디자인 때문에 살균이나 소독이 매우 까다롭다.Since the tube is inserted into the interior of the object, contamination of the tube or its vicinity is a problem. In particular, when the tube is inserted into the human body in the operating room, a high level of cleanliness is required. However, conventional observation is complicated because of its complicated structure and design.

따라서 관찰경은 세척, 살균 또는 소독에 용이한 구조를 가질 필요가 있다. 이와 관련하여 대한민국 등록특허 0449349호(발명의 명칭 : 개선된유연성삽입튜브를갖는내시경, 이하 종래기술 1이라 한다.)에서는 내부공간을 감싸는 튜브형의 생체적합성 탄성 외피로 이루어지는 가요성 삽입튜브를 갖는 가요성 내시경에 있어서, 상기 삽입 튜브는 외피와 내부 공산 사이에 증기 배리어를 더 포함하여, 증기가 주위대기로부터 외피를 통과하여 내부 공간으로 유입되는 것이 증기 배리어에 의해 방지되고, 또한 증기가 내부 공간 내의 물질과 반응하여 탄성 외피에 해로운 물질을 생성하는 것을 방지하는 것을 특징으로 하는 가요성 삽입튜브를 갖는 가요성 내시경이 개시되어 있다.Therefore, the observation surface needs to have a structure that is easy to clean, sterilize or disinfect. In this connection, Korean Patent No. 0449349 (entitled "Endoscope having an Improved Flexible Insertion Tube", hereinafter referred to as "Prior Art 1") discloses a flexible insertion tube having a flexible insertion tube made of a tubular biocompatible elastic envelope In the endoscope, the insertion tube further includes a vapor barrier between the outer shell and the inner communicator such that the vapor is prevented from entering the inner space through the shell from the ambient atmosphere by the vapor barrier, Wherein the flexible endoscope is configured to react with the material to prevent generation of harmful substances in the elastic skin.

한편 근래에는 IT 시장의 변화가 매우 빠르고, 뉴스에서는 연일 새로운 스마트 기기들의 출시 소식과 스마트 기술 관련 뉴스들이 쏟아지고 있다. 특히 센서 기술, 무선통신기술 등의 발전으로 스마트 기기를 이용하여 사용자 스스로 건강을 관리하거나 원격모니터링시스템 또는 원격진료시스템이 개발되는 등 헬스케어 시장이 급변하고 있다. 원격진료와 관련하여, 대한민국 등록특허 1512068호(발명의 명칭 : 원격 진료 서비스 시스템 및 방법, 이하 종래기술 2라 한다.)에서는 원격 진료 서비스 방법에 있어서, 휴대용 단말기의 카메라를 통하여 원격 진료 서비스 대상에 대한 영상을 획득하는 과정과, 상기 획득된 영상에 대한 계층적 관계를 갖는 복수의 문진정보를 포함하는 환자 상태를 수집하는 과정과, 상기 획득된 영상으로부터 원격 진료 서비스 타입을 인식하고, 상기 인식된 서비스 타입에 해당하는 분석을 수행하여 분석 결과 데이터를 생성하는 과정과, 상기 생성된 분석 결과 데이터에 상기 수집된 환자 상태를 매칭하여 네트워크를 통해 연동된 적어도 하나 이상의 서비스 서버를 통해 브로드캐스팅하는 과정과, 상기 연동된 각 서비스 서버를 통해 브로드캐스팅된 데이터에 대한 결과를 검색하고 이를 수집하여 상기 휴대용 단말기에 표시하는 과정을 포함하고, 상기 문진 정보는, 상기 휴대용 단말기를 조작하여 사용자로부터 선택된 진료 서비스 타입별 혹은 상기 인식된 원격 진료 서비스 타입별 기 설정된 다수의 질문에 대해 입력된 답변을 포함하고, 상기 휴대용 단말기와 통신하고, 다수의 의료 서비스 타입별 특화된 다수의 서비스 서버와 연동된 원격 진료 서비스 서버는 상기 서비스 서버를 통해 검색된 결과 데이터에서 어느 하나의 데이터가 선택되면 상기 연동된 각 서비스 서버를 통해 수집된 해당 데이터에 대한 평가 이력을 상기 휴대용 단말기에 동시에 표시하는 과정을 포함하고, 상기 평가 이력은, 원격 진료 서비스 서버가 각 서비스 서버별 제공되는 데이터에 대한 만족도를 원격 진료 서비스 완료 후 혹은 서비스 중 사용자로부터 수집하여 수집된 데이터 품질에 대한 이력으로 해당 서비스 서버와 대응되게 맵핑하여 저장, 관리되는 것이고, 상기 서비스 서버별 수집된 데이터는, 상기 인식된 서비스 타입에 해당하는 증상에 따라 특화된 의료 서비스 데이터이고, 상기 특화된 의료 서비스 데이터는 장루를 치료할 파우치 제품을 추천하는 의료 서비스 데이터, 상처를 관리하는 간호술 및 암에 관련된 영양, 운동, 생활 습관 권고 내용, 의료 상담에 관련된 데이터를 포함함을 특징으로 하는 원격 진료 서비스 방법이 개시되어 있다.On the other hand, the IT market has changed very rapidly in recent years, and news of new smart devices and smart technology related news are poured in each day. Especially, as the development of sensor technology and wireless communication technology, the healthcare market is rapidly changing, such as the self-management of health by using smart devices or the development of remote monitoring system or telemedicine system. In connection with telemedicine, Korean Patent No. 1512068 (titled "Telemedicine Service System and Method, hereinafter referred to as Prior Art 2") discloses a telemedicine service method in which telemedicine services are provided through a camera of a portable terminal A step of acquiring a medical image for the acquired image, a step for acquiring a patient condition including a plurality of document information having a hierarchical relationship with the acquired image, a step of recognizing a telemedicine service type from the acquired image, The method comprising: generating analysis result data by performing an analysis corresponding to a service type; broadcasting the generated analysis result data through at least one service server coupled through a network by matching the collected patient state; , A result for data broadcast through each of the interworking service servers And displaying the collected information on the portable terminal. The inquiry information may include at least one of a plurality of predetermined questions for each of the service types selected by the user or the recognized remote service type by operating the portable terminal A telemedicine service server communicating with the portable terminal and interworking with a plurality of service servers specialized for a plurality of medical service types, selects one of the data from the result data retrieved through the service server And simultaneously displaying an evaluation history of the corresponding data collected through the interworking service servers on the portable terminal, wherein the evaluation history indicates that the telemedicine service server has satisfied the satisfaction with the data provided for each service server After the telemedicine service is completed or during service Wherein the data collected by the service server is stored and managed in correspondence with the corresponding service server as a history of the collected data collected from the user and the data collected by the service server is managed by the medical service data specialized according to the symptom corresponding to the recognized service type , And the specialized medical service data includes data related to medical service data recommending a pouch product to treat an intestinal tract, nursing care for managing wounds, nutrition, exercise, lifestyle recommendation contents related to cancer, and medical consultation A remote medical service method is disclosed.

대한민국 등록특허 0449349호Korean Patent No. 0449349 대한민국 등록특허 1512068호Korea Patent No. 1512068

본 발명이 이루고자 하는 기술적 과제는 종래기술 1이 살균 및 소독 정도에 한계가 있다는 제1문제점, 종래기술 1은 초점거리를 사용자가 조절할 수 없다는 제2문제점, 종래기술 1은 가요성 튜브만을 사용하여 여러 분야에 응용하기 어렵다는 제3문제점, 종래기술 1은 살균 및 소독 문제를 개선하기 위한 발명이나 내시경이 획득한 이미지를 수술실 등 청결이 요구되는 장소에서 확인하는 경우 여전히 내시경의 오염 문제가 있다는 제4문제점, 종래기술 1은 내시경이 획득한 이미지를 여러 사람이 공유할 수 없다는 제5문제점, 종래기술 1에 의해 사용자가 어떠한 피드백도 받을 수 없다는 제6문제점 및 종래기술 2는 종래기술 1과는 달리 사용자가 원격진료를 받을 수 있다는 장점이 있으나 휴대용 단말기의 카메라를 이용하여 창상 부위 등에 대한 원격진료에 그친다는 제7문제점을 해결하려 하는 것이다.SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and it is an object of the present invention to solve the above problems. The third problem that it is difficult to apply to various fields, the prior art 1 is an invention for improving the disinfection and disinfection problem, or a case where an image acquired by an endoscope is confirmed at a place requiring cleanliness such as an operating room, The fifth problem that the image acquired by the endoscope can not be shared by a plurality of people, the sixth problem that the user can not receive any feedback by the prior art 1, and the prior art 2 are different from the prior art 1 Although the user has the advantage of being able to receive telemedicine, the use of the camera of the handheld terminal makes it possible to perform telemedicine To try to solve the problem that Article 7 ceased.

본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not intended to limit the invention to the precise form disclosed. There will be.

상기 문제점을 해결하기 위해 안출되는 본 발명은, 대상의 내부를 촬영하는 관찰경에 있어서, 상기 대상의 내부로부터 반사되는 광을 취득하여 광신호를 생성하는 광취득부를 포함하는 헤드부 및 상기 헤드부에 결합되고, 상기 광신호를 수신하여 이미지데이터를 생성하는 기능을 구비하는 본체부를 포함하여 이루어지고, 상기 헤드부는 상기 본체부로부터 분리될 수 있는 것을 특징으로 하는 관찰경을 제공한다.According to an aspect of the present invention, there is provided a head unit including a light acquiring unit that acquires light reflected from the inside of the object and generates an optical signal, And a main body having a function of receiving the optical signal and generating image data, wherein the head part can be separated from the main body part.

또한, 본 발명의 일실시예에 따르면, 상기 헤드부는 초점거리(focal length)를 조절하는 기능을 구비하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the head unit may include a function of adjusting a focal length.

또한, 본 발명의 일실시예에 따르면, 상기 헤드부는 회전운동을 직선운동으로 변환하는 구조를 구비하고, 상기 구조에 의하여 상기 초점거리(focal length)가 조절되는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the head unit may include a structure for converting a rotational motion into a linear motion, and the focal length may be adjusted by the structure.

또한, 본 발명의 일실시예에 따르면, 상기 본체부는 상기 광신호를 수신하여 이미지신호를 생성하는 이미지센서를 포함하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the main body may include an image sensor that receives the optical signal and generates an image signal.

또한, 본 발명의 일실시예에 따르면, 상기 본체부는 상기 이미지신호를 처리하여 상기 이미지데이터를 생성하는 이미지프로세서부를 더 포함하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the main body further includes an image processor for processing the image signal to generate the image data.

또한, 본 발명의 일실시예에 따르면, 상기 헤드부는 렌즈 및 복수 개의 광섬유를 포함하고, 상기 대상의 내부에 삽입되어 상기 반사되는 광을 상기 광취득부로 전달하는 튜브를 더 포함하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the head further includes a lens and a plurality of optical fibers, and a tube inserted into the object to transmit the reflected light to the light acquiring unit .

또한, 본 발명의 일실시예에 따르면, 상기 렌즈는 어안렌즈 또는 광각렌즈인 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the lens may be a fish-eye lens or a wide-angle lens.

또한, 본 발명의 일실시예에 따르면, 상기 이미지프로세서부는 상기 이미지신호를 수신하여 왜곡이미지를 보정하는 이미지보정부를 포함하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the image processor may include an image corrector receiving the image signal and correcting the distorted image.

또한, 본 발명의 일실시예에 따르면, 상기 본체부는 상기 이미지데이터를 디스플레이하는 디스플레이부를 포함하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the main body may include a display unit for displaying the image data.

또한, 본 발명의 일실시예에 따르면, 상기 디스플레이부는 고정식 또는 탈착식 디스플레이부인 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the display unit may be a fixed or detachable display unit.

또한, 본 발명의 일실시예에 따르면, 상기 디스플레이부는 접이식 디스플레이부인 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the display unit may be a folding display unit.

또한, 본 발명의 일실시예에 따르면, 상기 본체부는 상기 이미지데이터를 외부기기로 전달하는 통신부를 포함하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the main body may include a communication unit for transmitting the image data to an external device.

또한, 본 발명의 일실시예에 따르면, 상기 본체부는 사용자의 녹화요청에 따라 상기 이미지데이터가 녹화파일로 저장되는 메모리부를 더 포함하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the main body further includes a memory unit storing the image data as a recording file according to a user's recording request.

또한, 본 발명의 일실시예에 따르면, 상기 사용자는 상기 녹화파일을 상기 통신부에 연결되는 유에스비플래시 드라이브(USB flash drive) 또는 메모리카드에 다운로드할 수 있는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the user can download the recording file to a USB flash drive or a memory card connected to the communication unit.

또한, 본 발명의 일실시예에 따르면, 상기 본체부는 상기 대상의 내부에 조사될 광을 생성하는 광원부를 포함하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the main body may include a light source for generating light to be irradiated inside the object.

또한, 본 발명은 상기 관찰경 및 상기 통신부로부터 상기 이미지데이터를 유선 또는 무선통신수단을 통하여 전달받는 단말을 포함하여 이루어지는 것을 특징으로 하는 관찰경시스템을 제공한다.The present invention also provides an observation light system comprising the observation light and a terminal receiving the image data from the communication unit through wired or wireless communication means.

또한, 본 발명의 일실시예에 따르면, 상기 무선통신수단은 적외선(IR)통신, 라디오주파수(RF)통신, 무선랜, 와이파이(Wi-Fi), 와이브로(WiBro), 초광대역통신(UWB), 블루투스, 직비 및 근거리무선통신(NFC) 중 하나 이상인 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the wireless communication means may be an infrared (IR) communication, a radio frequency (RF) communication, a wireless LAN, a Wi-Fi, a WiBro, , Bluetooth, directivity and short range wireless communication (NFC).

또한, 본 발명의 일실시예에 따르면, 상기 관찰경 및 상기 단말은 상기 유선 또는 무선통신수단에 의한 미러링(mirroring)을 통하여 상기 이미지데이터를 공유하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the observation scene and the terminal share the image data through mirroring by the wired or wireless communication means.

또한, 본 발명의 일실시예에 따르면, 상기 본체부는 상기 단말이 거치되는 거치부를 더 포함하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the main body further includes a mounting portion on which the terminal is mounted.

또한, 본 발명은 상기 관찰경, 상기 관찰경과 제1통신수단에 의한 미러링(mirroring)을 통하여 상기 이미지데이터를 공유하는 제1단말 및 상기 제1단말과 제2통신수단에 의한 미러링(mirroring)을 통하여 상기 이미지데이터를 공유하는 제2단말을 포함하여 이루어지는 것을 특징으로 하는 관찰경시스템을 제공한다.In addition, the present invention provides a method for controlling the mirroring by the first terminal sharing the image data and mirroring by the first terminal and the second communication means through mirroring by the observation light, the observation progressing first communication means And a second terminal sharing the image data through the second terminal.

또한, 본 발명은 상기 관찰경 및 상기 통신부로부터 상기 이미지데이터를 전달받아 저장하는 서버를 포함하여 이루어지는 것을 특징으로 하는 관찰경시스템을 제공한다.Further, the present invention provides an observation light system comprising a server for receiving and storing the observation image and the image data from the communication unit.

또한, 본 발명의 일실시예에 따르면, 상기 서버로부터 상기 이미지데이터를 유선 또는 무선통신수단을 통하여 전달받는 단말을 더 포함하여 이루어지는 것을 특징으로 할 수 있다.In addition, according to an embodiment of the present invention, the image forming apparatus may further include a terminal for receiving the image data from the server through wired or wireless communication means.

또한, 본 발명의 일실시예에 따르면, 원격의사가 상기 서버 또는 상기 단말에 전달된 이미지데이터를 분석하여 분석결과를 상기 관찰경의 사용자에게 제공하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, a remote doctor analyzes image data transmitted to the server or the terminal, and provides analysis results to a user of the observation terminal.

또한, 본 발명의 일실시예에 따르면, 가상의사가 상기 서버 또는 상기 단말에 전달된 이미지데이터를 분석하여 분석결과를 상기 관찰경의 사용자에게 제공하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the virtual doctor may analyze the image data transmitted to the server or the terminal, and provide analysis results to the user of the observation field.

또한, 본 발명의 일실시예에 따르면, 상기 서버 또는 상기 단말은 상기 사용자의 아이디를 인증하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the server or the terminal authenticates the identity of the user.

또한, 본 발명의 일실시예에 따르면, 상기 서버 또는 상기 단말은 상기 관찰경의 아이디를 인증하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the server or the terminal authenticates the ID of the observation point.

또한, 본 발명은 상기 관찰경을 이용하여 대상의 내부를 관찰하는 방법에 있어서, 광원부가 대상의 내부에 조사될 광을 생성하는 단계, 생성된 광이 대상의 내부에 조사되는 단계, 광취득부가 대상의 내부로부터 반사되는 광을 취득하여 광신호를 생성하는 단계, 이미지센서가 생성된 광신호를 수신하여 이미지신호를 생성하는 단계, 이미지프로세서부가 생성된 이미지신호를 처리하여 이미지데이터를 생성하는 단계 및 디스플레이부가 생성된 이미지데이터를 디스플레이하는 단계를 포함하여 이루어지는 것을 특징으로 하는 관찰경을 이용하여 대상의 내부를 관찰하는 방법을 제공한다.Further, the present invention provides a method for observing an interior of an object using the observation light, comprising the steps of: generating light to be irradiated inside the object; Receiving light reflected from the inside of the object to generate an optical signal, receiving the optical signal generated by the image sensor to generate an image signal, processing the image signal generated by the image processor unit to generate image data And displaying the generated image data. The present invention also provides a method for observing an inside of an object using the object to be observed.

또한, 본 발명의 일실시예에 따르면, 상기 이미지프로세서부가 생성된 이미지신호를 처리하여 이미지데이터를 생성하는 단계는, 이미지보정부가 생성된 이미지신호를 수신하는 단계, 이미지보정부가 왜곡이미지를 보정하여 보정이미지를 생성하는 단계 및 이미지데이터생성부가 보정이미지에 관한 이미지데이터를 생성하는 단계를 포함하여 구성되는 것을 특징으로 할 수 있다.Further, according to an embodiment of the present invention, the step of processing the image signal generated by the image processor section to generate image data may include the steps of receiving an image signal in which the image correction section has been generated, Generating the correction image, and generating the image data regarding the correction image by the image data generation unit.

또한, 본 발명의 일실시예에 따르면, 상기 이미지보정부가 왜곡이미지를 보정하여 보정이미지를 생성하는 단계는, 이미지보정부가 왜곡보정알고리즘을 이용하여 왜곡이미지의 기하학적 보정을 수행하는 단계를 포함하는 것을 특징으로 할 수 있다.Further, according to an embodiment of the present invention, the step of correcting the distorted image by the image correcting unit to generate the corrected image includes the step of performing the geometric correction of the distorted image using the distortion correcting algorithm by the image correcting unit .

또한, 본 발명의 일실시예에 따르면, 상기 왜곡보정알고리즘은 초점거리(focal length), 주점(principal point), 방사왜곡상수(radial distortion coefficient) 및 접선왜곡상수(tangential distortion coefficient) 중 하나 이상을 포함하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the distortion correction algorithm may further include at least one of a focal length, a principal point, a radial distortion coefficient, and a tangential distortion coefficient And the like.

또한, 본 발명의 일실시예에 따르면, 상기 이미지보정부가 왜곡이미지를 보정하여 보정이미지를 생성하는 단계는, 상기 이미지보정부가 왜곡보정알고리즘을 이용하여 왜곡이미지의 기하학적 보정을 수행하는 단계 이후에, 이미지보정부가 왜곡이미지로부터 소실점좌표를 추출하는 단계, 이미지보정부가 소실점좌표로부터 프로젝션알고리즘을 구성하는 보정계수를 산출하는 단계 및 이미지보정부가 프로젝션알고리즘을 이용하여 보정이미지를 생성하는 단계를 더 포함하고, 프로젝션알고리즘은 수학식 1로 표현되는 것을 특징으로 할 수 있다.Further, according to an embodiment of the present invention, the step of correcting the distorted image by the image correcting unit to generate the corrected image may further include, after the step of performing the geometric correction of the distorted image using the distortion correcting algorithm, Further comprising the steps of: extracting vanishing point coordinates from the distorted image; calculating a correction coefficient constituting a projection algorithm from the vanishing point coordinates of the image correcting unit; and generating the corrected image using the image correcting unit projection algorithm, The projection algorithm is characterized by being expressed by Equation (1).

또한, 본 발명의 일실시예에 따르면, 보정계수는 수학식 2로 표현되는 것을 특징으로 할 수 있다.Also, according to an embodiment of the present invention, the correction coefficient may be expressed by Equation (2).

본 발명은 헤드부의 탈착이 가능하여 헤드부나 본체부의 세척, 살균 또는 소독이 용이하다는 제1효과, 사용자가 초점거리를 조절할 수 있어 사용자가 원하는 화질의 이미지를 획득할 수 있다는 제2효과, 다양한 형태의 튜브를 사용하여 여러 분야에 응용할 수 있다는 제3효과, 관찰경과 무선통신수단에 의해 연결되는 단말로 이미지를 확인할 수 있으므로 디스플레이부 오염의 문제가 해결되고 편의성이 향상된다는 제4효과, 관찰경이 획득한 이미지를 실시간으로 공유하거나 녹화하여 사후에 얻을 수 있다는 제5효과, 관찰경이 획득한 이미지에 기초하여 사용자는 이와 관련된 피드백을 받을 수 있다는 제6효과, 제 6효과와 관련하여 특히 사용자 및/또는 대상 환자의 신체 내부의 이미지에 기초한 원격진료가 가능하다는 제7효과, 관찰경이 획득한 이미지를 원격지에서 확인할 수 있다는 제8효과, 관찰경이 획득한 이미지가 서버에 저장되어 획득된 이미지에 대한 접근성이 용이하다는 제9효과 및 관찰경이 획득한 이미지가 서버에 축적되는 경우 축적된 이미지데이터를 빅데이터 분석이나 치료예후비교에 응용할 수 있다는 제10효과를 갖는다.Disclosure of Invention Technical Problem [10] The present invention has a first effect that a head part and a body part can be easily cleaned, sterilized or disinfected because the head part can be attached and detached, a second effect that a user can adjust a focal distance, A fourth effect that the problem of contamination of the display unit can be solved and the convenience can be improved because the image can be confirmed by the terminal connected by the observation and progress wireless communication means, A fifth effect that an image can be shared or recorded in real time in real time, a sixth effect that a user can receive feedback related to the obtained image based on the image acquired by the observation, The seventh effect that telemedicine based on the internal image of the patient can be performed, The eighth effect that the acquired image is stored in the server and is easily accessible to the acquired image, and the eighth effect that the acquired image is stored in the server, It has a tenth effect that it can be applied to data analysis or comparison of treatment prognosis.

본 발명의 실시예에 따르면 본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.It should be understood that the effects of the present invention are not limited to the above effects and include all effects that can be deduced from the detailed description of the present invention or the composition of the invention described in the claims.

도 1은 본 발명인 관찰경의 일실시예를 나타내는 블록도.
도 2는 프로젝션알고리즘을 적용하기 전의 왜곡이미지를 나타내는 모식도.
도 3은 본 발명인 관찰경시스템의 일실시예를 나타내는 구조도.
도 4는 본 발명인 관찰경시스템의 일실시예를 나타내는 구조도.
도 5는 본 발명인 관찰경시스템의 일실시예를 나타내는 구조도.
도 6은 본 발명인 관찰경의 실시예를 나타내는 사시도.
도 7은 본 발명인 관찰경의 실시예를 나타내는 사시도.
도 8은 본 발명인 관찰경의 실시예를 나타내는 사시단면도.
도 9는 실시예로서, 본 발명인 관찰경의 헤드부를 나타내는 사시도.
도 10은 실시예로서, 본 발명인 관찰경의 락커를 나타내는 사시도.
도 11은 실시예로서, 본 발명인 관찰경의 헤드부를 나타내는 사시도.
도 12는 실시예로서, 본 발명인 관찰경의 헤드부를 나타내는 사시도.
1 is a block diagram showing one embodiment of an observation scope of the present invention.
Fig. 2 is a schematic diagram showing a distorted image before applying the projection algorithm; Fig.
3 is a structural view showing an embodiment of an observation light system according to the present invention.
4 is a structural view showing an embodiment of an observation light system according to the present invention.
5 is a structural view showing an embodiment of an observation light system according to the present invention.
6 is a perspective view showing an embodiment of a viewing mirror according to the present invention.
FIG. 7 is a perspective view showing an embodiment of the observation mirror according to the present invention. FIG.
8 is an oblique sectional view showing an embodiment of the observation mirror according to the present invention.
Fig. 9 is a perspective view showing a head part of an observation scope according to the present invention as an embodiment. Fig.
Fig. 10 is a perspective view showing a rocker of the observation scope according to the present invention as an embodiment. Fig.
11 is a perspective view showing a head part of an observation mirror according to the present invention as an embodiment.
12 is a perspective view showing a head part of an observation mirror according to the present invention as an embodiment;

이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" (connected, connected, coupled) with another part, it is not only the case where it is "directly connected" "Is included. Also, when an element is referred to as "comprising ", it means that it can include other elements, not excluding other elements unless specifically stated otherwise.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

본 발명의 관찰경(1)은 대상의 내부를 촬영하는 장치로서, 대상의 내부에 광을 조사한 다음 대상의 내부로부터 반사되는 광을 취득하여 이미지데이터를 생성한다. 여기서 대상의 내부는 환자의 신체 부위, 동물의 신체 부위, 건물 내벽, 배관 내부 또는 챠량 내부가 될 수 있고, 이하 같으나, 이에 한정하는 것은 아니다. 관찰경(1)은 헤드부(10) 및 본체부(20)를 포함하여 이루어지는데, 헤드부(10)는 광취득부(110)를 포함하고, 광방출부(120)나 튜브(180)를 더 포함할 수 있다. 헤드부(10)에 결합된 본체부(20)는 헤드부(10)로부터 전달되는 광신호를 수신하여 이미지데이터를 생성하는 기능 등을 구비하고, 이미지센서(210), 이미지프로세서부(220), 메모리부(230), 디스플레이부(240), 통신부(250) 및 광원부(260) 중 하나 이상을 포함할 수 있다. 도 1은 관찰경(1)의 일실시예를 블록도로 도시하고 있어, 관찰경(1)의 구성뿐만 아니라 관찰경(1)을 이용하여 대상의 내부를 관찰하는 방법까지 한눈에 파악할 수 있다. 이하, 도 1을 참조하여 관찰경(1)을 이루는 각 구성요소별로 상술하기로 하며, 이를 통해 관찰경(1)을 이용하여 대상의 내부를 관찰하는 방법도 함께 파악될 수 있을 것이다.The observation light (1) of the present invention is an apparatus for photographing the interior of an object. The object is irradiated with light, and then light reflected from the inside of the object is acquired to generate image data. Here, the interior of the object may be the body part of the patient, the body part of the animal, the inner wall of the building, the inside of the pipe, or the inside of the pipe, and is not limited thereto. The observation light 1 includes a head portion 10 and a body portion 20. The head portion 10 includes a light acquisition portion 110 and a light emission portion 120 and a tube 180. [ As shown in FIG. The main body unit 20 coupled to the head unit 10 has a function of receiving image signals transmitted from the head unit 10 and generating image data. The image sensor 210, the image processor unit 220, A memory unit 230, a display unit 240, a communication unit 250, and a light source unit 260. Fig. 1 is a block diagram showing an embodiment of the observation light 1, so that not only the configuration of the observation light 1 but also the method of observing the inside of the object using the observation light 1 can be grasped at a glance. Hereinafter, referring to FIG. 1, each component constituting the observation light 1 will be described in detail, and a method of observing the inside of the object using the observation light 1 may be grasped.

튜브(180)는 대상의 내부에 삽입되는 것으로, 사용자는 관찰경(1)으로 대상의 내부를 관찰함에 있어 튜브(180)를 대상의 내부에 삽입하여 대상의 내부의 이미지를 관찰할 수 있다. 튜브(180)는 대상의 피부를 찔러 들어갈 수 있는 니들(needle) 타입, 경성 타입(예를 들어, 일직선의 금속관이나 검이경의 삽입 부분), 연성 타입(예를 들어, 고무로 되어 있어 자유자재로 휘어지는 것) 또는 경성 타입과 연성 타입의 중간 타입(경성 또는 연성이 경성 타입과 연성 타입의 중간 정도인 것)의 튜브(180)가 될 수 있으나, 이에 한정하는 것은 아니다. 튜브(180)는 렌즈 및 복수 개의 광섬유를 포함하고, 튜브(180)가 대상의 내부에 삽입되면, 후술할 광원부(260)가 생성한 광이 튜브(180)의 복수 개의 광섬유 중 일부(이하, 발광라인이라고 하기로 한다.) 및 렌즈를 통과하여 대상의 내부에 도달하고, 대상의 내부로부터 반사된 광은 다시 튜브(180)의 렌즈 및 복수 개의 광섬유 중 나머지(이하, 촬영라인이라고 하기로 한다.)를 통과하여 관찰경(1) 내부에서 소정의 방식으로 처리된다. 렌즈는 표준렌즈, 망원렌즈, 마이크로렌즈, 광각렌즈 및 어안렌즈 중 하나 이상이 될 수 있으나, 이에 한정하는 것은 아니다.The tube 180 is inserted into the interior of the object so that the user can observe the interior of the object by inserting the tube 180 inside the object in observing the interior of the object with the viewing mirror 1. The tube 180 may be of a needle type, a rigid type (e.g., a straight metal tube or an insertion portion of a goniulid), a soft type (e.g., rubber, But is not limited to, the tube 180 of the intermediate type (hard or soft between the rigid type and the soft type) of the hard type and the soft type. The tube 180 includes a lens and a plurality of optical fibers. When the tube 180 is inserted into the object, the light generated by the light source unit 260, which will be described later, (Hereinafter referred to as a light emission line) and the lens, and reaches the inside of the object, and the light reflected from the inside of the object again passes through the lens of the tube 180 and the other of the plurality of optical fibers And is processed in a predetermined manner inside the observation light 1. The lens may be, but is not limited to, a standard lens, a telephoto lens, a microlens, a wide-angle lens, and a fisheye lens.

광원부(260)는 대상의 내부에 조사될 광을 생성한다. 광원부(260)는 레이저발광다이오드(Laser Emitting Diode, LED) 또는 레이저다이오드(Laser Diode, LD)를 광원으로 하는 램프를 포함할 수 있으나, 광원을 이에 한정하는 것은 아니다. 또한 광원부(260)는 레이저발광다이오드(Laser Emitting Diode, LED) 램프가 UV-Blue 대역의 레이저를 출사하는 경우, 유리나 세라믹 소재로 구성된 색변환플레이트를 더 포함하여 UV-Blue 대역의 레이저를 백색광으로 변환시킬 수 있으나, 광원부(260)의 구성을 이러한 것들에 한정하는 것은 아니다.The light source unit 260 generates light to be irradiated inside the object. The light source unit 260 may include a lamp using a laser emitting diode (LED) or a laser diode (LD) as a light source, but the light source is not limited thereto. The light source unit 260 may further include a color conversion plate formed of glass or a ceramic material to emit a UV-Blue laser beam as white light when a laser diode (Laser Emitting Diode) However, the configuration of the light source unit 260 is not limited to these.

광방출부(120)는 광원부(260)에 결합되어 광원부(260)가 생성한 광을 대상의 내부에 조사한다. 광원부(260)가 생성한 광은 광방출부(120)에 연결된 발광라인을 통해 대상의 내부에 조사된다. 즉, 도 1은 광원부(260)가 생성한 광이 대상의 내부에 조사되는 것을 간단히 화살표로 도시하고 있으나, 구체적으로는 광원부(260)가 생성한 광은 광원부(260)에 결합된 광방출부(120), 광방출부(120)에 연결된 발광라인, 렌즈, 대상의 내부로 순차적으로 전달될 수 있는 것이다.The light emitting unit 120 is coupled to the light source unit 260 and irradiates the light generated by the light source unit 260 to the interior of the object. The light generated by the light source unit 260 is irradiated to the inside of the object through the light emitting line connected to the light emitting unit 120. Specifically, the light generated by the light source unit 260 is transmitted to the light emitting unit 260 coupled to the light source unit 260, and the light emitted from the light source unit 260 is incident on the light source unit 260. That is, The light emitting unit 120, the light emitting unit connected to the light emitting unit 120, the lens, and the object.

광취득부(110)는 대상의 내부로부터 반사되는 광을 취득한다. 도 1은 대상의 내부로부터 반사되는 광이 헤드부(10)에 도달함을 간단히 화살표로 도시하고 있으나, 구체적으로는 대상의 내부로부터 반사되는 광은 렌즈, 촬영라인, 촬영라인에 연결된 광취득부(110)로 순차적으로 전달될 수 있는 것이다. 그리고 대상의 내부로부터 반사되는 광을 취득한 광취득부(110)는 광신호를 생성하여 후술하는 이미지센서(210)로 전달한다.The light acquiring unit 110 acquires light reflected from the inside of the object. 1, the light reflected from the inside of the object reaches the head portion 10 simply by arrows. Specifically, the light reflected from the inside of the object passes through the lens, the photographing line, (110). ≪ / RTI > The light acquiring unit 110 acquires light reflected from the inside of the object and generates an optical signal and transmits the optical signal to an image sensor 210 described later.

지금까지 헤드부(10)의 구성요소인 튜브(180), 광방출부(120) 및 광취득부(110)에 대해 설명하였고, 본체부(20)의 구성요소 중에서는 광원부(260)만 설명하였는데, 본체부(20)의 이미지센서(210)에 대해 설명하기 전에 헤드부(10)의 탈착에 대하여 설명하기로 한다. The tube 180, the light emitting portion 120 and the light obtaining portion 110 which are components of the head portion 10 have been described so far. Of the constituent elements of the main body portion 20, only the light source portion 260 The attachment and detachment of the head unit 10 will be described before the image sensor 210 of the main body unit 20 is explained.

사용자가 관찰경(1)을 사용하여 대상의 내부를 관찰함에 있어서, 헤드부(10)와 본체부(20)가 결합된 관찰경(1)을 사용하나, 헤드부(10)는 본체부(20)로부터 분리될 수 있다. 종래의 기술들은 통상 헤드부(10)를 본체부(20)로부터 분리하는 것이 용이하지 않았다. 왜냐하면 종래의 기술들은 통상 튜브(180)의 광섬유(촬영라인)가 본체부(20)의 이미지프로세서부(220)까지 뻗어 있었기 때문이다. 그러나 본 발명은 발광라인에 연결된 광방출부(120)를 광원부(260)에 결합하거나 광원부(260)로부터 분리할 수 있고, 촬영라인에 연결된 광취득부(110)는 이미지센서(210) 또는 이미지프로세서부(220)와 이격되어 있기 때문에, 발광라인, 광방출부(120), 촬영라인, 광취득부(110)를 포함하는 헤드부(10)는 광원부(260)를 포함하는 본체부(20)로부터 분리될 수 있다. 두 번째로, 관찰경(1)은 헤드부(10) 및 본체부(20) 외에 헤드부(10)와 본체부(20)를 연결하는 연결부(30)를 포함하고, 연결부(30)의 구조가 헤드부(10)의 분리 및 결합을 가능하게 한다. 연결부(30)는 헤드부(10)를 본체부(20)로부터 당기면 헤드부(10)가 분리되고, 헤드부(10)를 본체부(20) 쪽으로 밀면 헤드부(10)가 결합되는 단순한 구조를 가질 수도 있으나, 이런 구조는 사용자가 관찰경(1)을 사용하는 도중에 헤드부(10)가 본체부(20)로부터 분리될 수 있으므로, 연결부(30)는 헤드부(10)의 분리 및 결합이 가능하면서도 헤드부(10)를 본체부(20)에 결합하였을 때 헤드부(10)가 고정되는 구조를 가지는 것이 바람직하고, 이러한 구조는 여러 가지가 있을 수 있으며, 이 중 하나의 예를 후술하는 실시예에서 설명하기로 한다.The user uses the observation light 1 in which the head portion 10 and the body portion 20 are combined in observing the inside of the object using the observation light 1, 20). ≪ / RTI > Conventional techniques have conventionally been difficult to separate the head portion 10 from the main body portion 20. This is because the conventional techniques are generally such that the optical fiber (imaging line) of the tube 180 extends to the image processor portion 220 of the main body portion 20. However, in the present invention, the light emitting unit 120 connected to the light emitting line can be coupled to the light source unit 260 or can be separated from the light source unit 260, The head unit 10 including the light emitting line, the light emitting unit 120, the photographing line, and the light obtaining unit 110 includes the main body unit 20 including the light source unit 260 ). ≪ / RTI > The observation light 1 includes a connecting portion 30 connecting the head portion 10 and the main body portion 20 in addition to the head portion 10 and the main body portion 20 and the structure of the connecting portion 30 Thereby enabling the head portion 10 to be separated and engaged. The connecting portion 30 is a simple structure in which the head portion 10 is detached when the head portion 10 is pulled out from the main body portion 20 and the head portion 10 is engaged when the head portion 10 is pushed toward the main body portion 20 The connecting portion 30 can be separated from the main body portion 20 by the separating and coupling of the head portion 10, It is preferable to have a structure in which the head part 10 is fixed when the head part 10 is coupled to the main body part 20. It is also possible to use various structures, Will be described in the following embodiments.

헤드부(10)는 초점거리(focal length)를 조절하는 기능을 구비하는데, 초점거리(focal length)는 튜브(180)의 렌즈로부터 본체부(20)의 이미지센서(210)까지의 거리를 의미한다. 사용자는 여러 가지 형태의 헤드부(10)를 본체부(20)에 결합할 수 있고, 여러 가지 형태의 튜브(180)를 헤드부(10)의 다른 구성요소에 결합할 수 있으며, 여러 가지 종류의 렌즈를 튜브(180)의 구성요소로서 사용할 수 있다. 따라서 헤드부(10)의 형태, 튜브(180)의 형태 및 렌즈의 종류 중 하나 이상의 요인에 의하여 초점거리가 달라질 수 있기 때문에 관찰경(1)은 이러한 초점거리를 조절하는 기능을 구비할 필요가 있다. 전술한 바와 같이, 연결부(30)가 헤드부(10)를 본체부(20)로부터 당기면 헤드부(10)가 분리되고, 헤드부(10)를 본체부(20) 쪽으로 밀면 헤드부(10)가 결합되는 단순한 구조를 가지는 경우, 헤드부(10)를 분리 또는 결합하는 과정에서 헤드부(10)를 앞·뒤로 움직이는 것이 가능하므로 헤드부(10)를 앞으로 당기면 초점거리가 길어지고, 헤드부(10)를 뒤로 밀면 초점거리가 짧아질 수 있다. 또한 연결부(30)의 구조와는 관계없이, 헤드부(10)가 갖춘 소정의 구조에 의해 초점거리가 조절될 수 있으며, 이러한 구조는 랙앤피니언(rack and pinion)기어와 같은 회전운동을 직선운동으로 변환하는 구조일 수 있으나, 이에 한정하는 것은 아니다. 회전운동을 직선운동으로 변환하는 구조 중 하나의 예는 후술하는 실시예에서 설명하기로 한다.The head portion 10 has a function of adjusting a focal length which means a distance from the lens of the tube 180 to the image sensor 210 of the main body portion 20 do. The user can couple various types of head portions 10 to the body portion 20 and various types of tubes 180 can be coupled to other components of the head portion 10, May be used as a component of the tube 180. Therefore, since the focal length may vary depending on at least one of the shape of the head portion 10, the shape of the tube 180, and the type of the lens, the observation lens 1 needs to have the function of adjusting the focal length have. As described above, when the connecting portion 30 pulls the head portion 10 from the main body portion 20, the head portion 10 is separated. When the head portion 10 is pushed toward the main body portion 20, It is possible to move the head part 10 forward or backward in the process of separating or coupling the head part 10, so that when the head part 10 is pulled forward, the focal length becomes longer, The focal distance can be shortened by pushing the lens 10 backward. Also, irrespective of the structure of the connecting portion 30, the focal length can be adjusted by a predetermined structure equipped with the head portion 10, and this structure can perform a rotational motion, such as a rack and pinion gear, , But the present invention is not limited thereto. One example of the structure for converting the rotational motion into the linear motion will be described in the following embodiments.

이미지센서(210)는 도 1에 도시된 바와 같이 광취득부(110)로부터 광신호를 수신하여 전기신호인 이미지신호를 생성한다. 이미지센서(210)는 상보성금속산화물반도체(Complementary Metal Oxide Semiconductor, CMOS) 또는 전하결합소자(Charge Coupled Device, CCD)일 수 있으나, 이에 한정하는 것은 아니다. 이미지센서(210)는 필요에 따라 VGA, SVGA 또는 SXGA에 해당하는 화소를 가질 수 있으나, 이에 한정하는 것은 아니다.The image sensor 210 receives an optical signal from the light acquisition unit 110 as shown in FIG. 1, and generates an image signal that is an electrical signal. The image sensor 210 may be a Complementary Metal Oxide Semiconductor (CMOS) or a Charge Coupled Device (CCD), but is not limited thereto. The image sensor 210 may have pixels corresponding to VGA, SVGA, or SXGA, as needed, but is not limited thereto.

이미지프로세서부(220)는 도 1에 도시된 바와 같이 이미지센서(210)가 생성한 이미지신호를 처리하여 이미지데이터를 생성한다. 구체적으로 이미지프로세서부(220)는 신호변환부(221), 이미지보정부(222) 및 이미지데이터생성부(223) 중 하나 이상을 포함할 수 있다.The image processor 220 processes image signals generated by the image sensor 210 as shown in FIG. 1 to generate image data. Specifically, the image processor 220 may include at least one of a signal converter 221, an image corrector 222, and an image data generator 223.

신호변환부(221)는 이미지센서(210)가 아날로그 이미지신호를 생성한 경우, 이를 디지털 이미지신호로 변환한다. 또한 필요에 따라 노이즈 제거를 한 후에 디지털 이미지신호로 변환할 수도 있으며, YUV, RGB 등의 색좌표계를 변환할 수도 있다.When the image sensor 210 generates an analog image signal, the signal converter 221 converts the analog image signal into a digital image signal. In addition, if necessary, noise can be removed and converted into a digital image signal, or a color coordinate system such as YUV or RGB can be converted.

이미지보정부(222)는 이미지센서(210) 또는 신호변환부(221)로부터 이미지신호를 수신한 다음, 왜곡이미지를 보정하여 보정이미지를 생성한다. 이미지보정부(222)는 통상적인 컬러보정이나 감마보정을 수행할 수 있을 뿐만 아니라, 왜곡보정알고리즘을 이용하여 왜곡이미지의 기하학적 보정을 수행할 수 있고, 프로젝션알고리즘을 이용하여 왜곡이미지의 원근효과를 제거할 수 있다. 보정의 순서는 기하학적 보정을 수행한 다음에, 원근효과를 제거하는 것이 바람직하다.The image correcting unit 222 receives the image signal from the image sensor 210 or the signal converting unit 221 and then corrects the distorted image to generate a corrected image. Not only can the image correction unit 222 perform normal color correction or gamma correction, but also can perform a geometric correction of the distorted image using the distortion correction algorithm and use the projection algorithm to calculate the perspective effect of the distorted image Can be removed. The order of correction is preferably to remove the perspective effect after performing the geometric correction.

기하학적 보정과 원근효과 제거는 어안렌즈나 광각렌즈를 사용할 경우 특히 효과적인 보정방법이다. 어안렌즈와 광각렌즈는 표준렌즈보다 초점거리가 짧은 렌즈로서, 어안렌즈는 화각이 최소 120도를 넘는 렌즈로 광범위한 영역의 이미지 획득을 가능하게 하고, 광각렌즈는 화각이 60도에서 120도 정도인 렌즈로 어안렌즈만큼은 아니지만 이 역시 넓은 이미지 획득을 가능하게 한다. 그러나 어안렌즈나 광각렌즈는 화각이 넓기 때문에 사물을 왜곡시키고 원근감을 과장시킨다. 따라서 어안렌즈나 광각렌즈를 사용하여 대상의 내부를 관찰하는 경우, 대상의 내부가 왜곡되고, 관심 영역의 주변부에 대해 원근감이 발생하여 대상의 내부의 정확한 상태를 판단하기 곤란하다.Geometric correction and removal of perspective effects are particularly effective when using fisheye lenses or wide-angle lenses. The fisheye lens and the wide angle lens have a shorter focal length than the standard lens. The fisheye lens allows a wide range of image acquisition with a lens having a field angle of at least 120 degrees, and the wide angle lens has an angle of view of 60 to 120 degrees It is not as good as a fisheye lens, but it also enables wide image acquisition. However, a fisheye lens or a wide-angle lens has a wide angle of view, distorting objects and exaggerating perspective. Therefore, when the inside of a subject is observed using a fisheye lens or a wide-angle lens, the inside of the subject is distorted and a perspective is generated about the periphery of the area of interest, making it difficult to determine the accurate state of the inside of the subject.

먼저 기하학적 보정에 대하여 살펴본다. 실제 렌즈는 완벽할 수 없으며 왜곡이 존재하는데, 수학적으로 이상적인 포물선렌즈보다 구면렌즈를 만드는 것이 훨씬 쉬우며, 렌즈와 이미지센서(210)를 완벽하게 정렬하는 것도 쉬운 일이 아니기 때문이다. 렌즈의 왜곡에는 크게 방사왜곡(radial distortion)과 접선왜곡(tangential distortion)이 있다. 방사왜곡은 렌즈의 모양에 의해서 발생하는 왜곡으로 일반적으로 이미지센서(210) 가장자리 부근에서 픽셀의 위치가 볼록하게 왜곡되는 현상을 말한다. 이러한 볼록 현상은 '술통 왜곡'이라고도 하며, 어안효과의 원인이 되기도 한다. 접선왜곡은 이미지센서(210)와 렌즈가 평행하지 않아서 발생하는 왜곡으로 관찰경(1) 제조과정에서 생긴다. 왜곡보정알고리즘은 초점거리(focal length), 주점(principal point), 방사왜곡상수(radial distortion coefficient) 및 접선왜곡상수(tangential distortion coefficient) 중 하나 이상을 포함하는 함수로 나타낼 수 있고, 이미지보정부(222)는 왜곡보정알고리즘을 이용하여 방사왜곡(radial distortion)이나 접선왜곡(tangential distortion)과 같은 기하학적 왜곡을 보정할 수 있다. 기하학적 보정은 공지된 이론으로서, 영상처리분야의 당업자라면 더 이상의 상세한 설명 없이도 이해할 수 있을 것이다.Let us first look at geometric correction. The actual lens is incomplete and there is distortion, because it is much easier to make a spherical lens than an ideal mathematically parabolic lens, and it is not easy to align the lens and image sensor 210 perfectly. The distortion of the lens has radial distortion and tangential distortion. Radiation distortion is a distortion caused by the shape of the lens, and generally refers to a phenomenon in which the position of a pixel is convexly distorted in the vicinity of the edge of the image sensor 210. This convexity phenomenon is called "barrel distortion" and may cause fish effect. Tangent distortion occurs during manufacturing of the viewing mirror 1 due to distortion caused by the image sensor 210 and the lens being not parallel. The distortion correction algorithm may be represented by a function that includes at least one of focal length, principal point, radial distortion coefficient, and tangential distortion coefficient, 222 can correct for geometric distortions such as radial distortion and tangential distortion using a distortion correction algorithm. Geometric correction is a well-known theory, and one of ordinary skill in the art would appreciate without further elaboration.

다음으로 원근효과 제거에 대하여 살펴본다. 도 2는 왜곡이미지의 일실시예를 나타낸 것으로서, 기하학적 보정이 완료되었지만, 원근효과 때문에 각 변이 휘어진 사각형을 도시하고 있다. 이렇게 각 변이 휘어진 사각형 이미지가 생성된 것은, 직사각형을 카메라로 촬영하는 경우 직사각형에서 카메라와의 거리가 가까운 부분은 크게 나타나고 카메라와의 거리가 먼 부분은 작게 나타나서, 원근감이 생성되었기 때문인데, 관찰경(1)이 대상의 내부를 촬영함에 있어서도 대상의 내부에 대해 원근감이 적용된 이미지가 획득된다면 대상의 내부의 정확한 형태를 파악하기 어렵게 된다. 따라서 왜곡이미지의 원근효과를 제거할 필요가 있는데, 그 첫 번째 단계로 이미지보정부(222)가 왜곡이미지로부터 소실점좌표를 추출한다. 도 2에서는 직선 AB와 직선 DC가 연장되어 만나는 제1소실점 P1(XP1, YP1)과 직선 AD와 직선 BC가 연장되어 만나는 제2소실점 P2(XP2, YP2)를 추출한다. 도 2에서는 제1소실점 P1은 x축 상에 위치하고, 제2소실점 P2는 y축 상에 위치하는 것으로 하였다. 두 번째 단계로 이미지보정부(222)가 소실점좌표로부터 프로젝션알고리즘을 구성하는 보정계수를 산출한다. 이를 위해 먼저 하기 수학식 3과 같이 프로젝션매트릭스 [P]를 생성한다.Next, we will look at removing the perspective effect. Fig. 2 shows an embodiment of a distorted image, in which geometric correction has been completed, but a rectangle in which each side is warped due to the perspective effect is shown. The reason why the rectangle image is formed with each of the sides is that when the rectangle is photographed by the camera, the portion near the distance from the camera is large in the rectangle and the portion far from the camera is small and the perspective is generated. (1) Even if the inside of the object is photographed, if an image in which the perspective is applied to the inside of the object is acquired, it is difficult to grasp the exact form of the inside of the object. Therefore, it is necessary to remove the perspective effect of the distorted image. In the first step, the image correction unit 222 extracts the vanishing point coordinates from the distorted image. In FIG. 2, the first vanishing point P1 (X P1 , Y P1 ) and the second vanishing point P2 (X P2 , Y P2 ) where the straight line AD and the straight line BC meet are extracted. In FIG. 2, the first vanishing point P1 is located on the x-axis and the second vanishing point P2 is located on the y-axis. As a second step, the image correction unit 222 calculates correction coefficients constituting the projection algorithm from the vanishing point coordinates. To do this, a projection matrix [P] is first generated as shown in Equation 3 below.

[수학식 3]&Quot; (3) "

Figure 112016033379725-pat00001
Figure 112016033379725-pat00001

(a, b는 보정계수이고, 이하 같다.)(a and b are correction coefficients, and are the same hereinafter).

수학식 3의 프로젝션매트릭스 [P]는 원본매트릭스 [A]에 매트릭스 [B]를 곱함으로써 생성되는 매트릭스로, 3차원 상의 공간이미지를 2차원 상의 평면이미지로 변환하는 매트릭스이다. 그리고 보정계수 a, b는 보정이미지 좌표 (X, Y)로부터 왜곡이미지 좌표 (x, y)를 추출하기 위해 필요한 파라미터이다.The projection matrix [P] of Equation (3) is a matrix generated by multiplying the original matrix [A] by the matrix [B], and is a matrix for converting the three-dimensional space image into a two-dimensional plane image. The correction coefficients a and b are parameters necessary to extract the distorted image coordinates (x, y) from the corrected image coordinates (X, Y).

3차원 상의 임의의 한 점을 프로젝션매트릭스 [P]를 통하여 변환하면 하기 수학식 4와 같이 나타낼 수 있다.If an arbitrary point on the three-dimensional plane is transformed through the projection matrix [P], the following equation (4) can be obtained.

[수학식 4]&Quot; (4) "

Figure 112016033379725-pat00002
Figure 112016033379725-pat00002

그리고 수학식 4의 3열과 4열을 기본벡터 형식으로 나타내기 위하여 수학식 4를 (ax+by+1)로 나누면 하기 수학식 5와 같이 나타낼 수 있다.In order to express the third and fourth columns of Equation (4) as a basic vector form, the equation (4) can be expressed as Equation (5) by dividing the equation (4) by (ax + by + 1).

[수학식 5]&Quot; (5) "

Figure 112016033379725-pat00003
Figure 112016033379725-pat00003

여기서, 수학식 5의 마지막 줄에 나타낸 것처럼, x/(ax+by+1)와 y/(ax+by+1)은 각각 X, Y로 치환하여 나타낼 수 있다. 즉, [X, Y, 0, 1]은 3차원 상의 임의의 한 점 [x, y, z, 1]이 프로젝션매트릭스 [P]를 통하여 변환된 2차원 상의 점이고, 여기서 각 매트릭스의 4열은 보정계수 a, b를 산출하기 위한 기본벡터이다. 한편 도 2에서 제1소실점 P1(XP1, YP1)과 제2소실점 P2(XP2, YP2)는 각각 x축과 y축 상의 점으로 표시되었으므로 x축 상의 단위벡터 [1, 0, 0, 0]과 y축 상의 단위벡터 [0, 1, 0, 0]을 프로젝션매트릭스 [P]를 통하여 변환하면 하기 수학식 6과 같이 나타낼 수 있다.Here, x / (ax + by + 1) and y / (ax + by + 1) can be replaced by X and Y, respectively, as shown in the last line of Equation (5). That is, [X, Y, 0, 1] is a point on a two-dimensional transformed through a projection matrix [P], where an arbitrary point [x, y, z, 1] on a three- Is a basic vector for calculating the correction coefficients a and b. In FIG. 2, since the first vanishing point P1 (X P1 , Y P1 ) and the second vanishing point P2 (X P2 , Y P2 ) are represented by points on the x and y axes, , 0] and the y-axis unit vector [0, 1, 0, 0] through the projection matrix [P]

[수학식 6]&Quot; (6) "

Figure 112016033379725-pat00004
Figure 112016033379725-pat00004

그리고 수학식 6의 3열과 4열을 기본벡터 형식으로 나타내기 위하여 수학식 6의 1행을 a로 나누고, 2행을 b로 나누면 하기 수학식 7과 같이 나타낼 수 있다.In order to express the third and fourth columns of Equation 6 in the basic vector form, the first row of Equation 6 is divided by a, and the second row is divided by b.

[수학식 7]&Quot; (7) "

Figure 112016033379725-pat00005
Figure 112016033379725-pat00005

(XP1은 제1소실점을 x축 상에 위치시켰을 때 제1소실점의 x좌표이고, YP2 는 제2소실점을 y축 상에 위치시켰을 때 제2소실점의 y좌표이며, 이하 같다.)(Where X P1 is the x coordinate of the first vanishing point when the first vanishing point is located on the x axis and Y P2 is the y coordinate of the second vanishing point when the second vanishing point is located on the y axis,

그리고 수학식 7로부터 하기 수학식 2의 관계를 얻을 수 있다.From Equation (7), the following Equation (2) can be obtained.

[수학식 2]&Quot; (2) "

Figure 112016033379725-pat00006
Figure 112016033379725-pat00006

한편 상기 수학식 5를 정리하면, 하기 수학식 8과 같이 나타낼 수 있다.Meanwhile, the equation (5) can be summarized as the following equation (8).

[수학식 8]&Quot; (8) "

Figure 112016033379725-pat00007
Figure 112016033379725-pat00007

그리고 수학식 8의 연립방정식을 풀면 하기 수학식 1과 같은 프로젝션알고리즘을 생성할 수 있다.Then, by solving the simultaneous equations of Equation (8), a projection algorithm such as Equation (1) can be generated.

[수학식 1][Equation 1]

Figure 112016033379725-pat00008
Figure 112016033379725-pat00008

(x, y : 왜곡이미지 좌표, X, Y : 보정이미지 좌표, a, b : 보정계수)(x, y: distorted image coordinates, X, Y: corrected image coordinates, a, b: correction coefficient)

수학식 1로 표현되는 프로젝션알고리즘은 보정계수 a, b 대신에 수학식 2에서 산출한 1/XP1, 1/YP2를 대입하여 이용할 수 있다. 그리고 이러한 수학식 1을 이용함으로써 보정이미지 좌표 (X, Y)로부터 왜곡이미지 좌표 (x, y)를 추출하여 왜곡이미지의 화소를 보정이미지의 화소에 배치할 수 있다. 이는 인버스매핑(inverse mapping) 방식으로 미리 보정이미지를 가정하고 보정이미지의 화소가 왜곡이미지의 어느 화소와 매칭되는지를 찾는 방식이다. 이렇게 이미지보정부(222)는 수학식 1을 이용하는 인버스매핑(inverse mapping) 방식으로 보정이미지를 생성한다. 사용자는 생성된 보정이미지에 원근효과가 기대한 만큼 제거되지 않은 경우, 보정계수 a, b를 조절하여 이미지보정부(222)가 새로운 보정이미지를 생성하도록 할 수 있다.The projection algorithm expressed by Equation (1) can be used by substituting 1 / X P1 , 1 / Y P2 calculated in Equation (2) instead of the correction coefficients a and b. The distortion image coordinates (x, y) can be extracted from the corrected image coordinates (X, Y) by using the equation (1), and the pixels of the distorted image can be arranged in the pixels of the corrected image. This is a method of inversely mapping a correction image in advance and assuming a pixel of the corrected image to match with the pixel of the distorted image. In this way, the image correcting unit 222 generates a corrected image by an inverse mapping method using Equation (1). The user can adjust the correction coefficients a and b to cause the image correction unit 222 to generate a new correction image if the perspective effect is not removed as much as the expected correction effect on the generated correction image.

이미지데이터생성부(223)는 이미지보정부(222)가 생성한 보정이미지에 관하여 이미지데이터를 생성한다. 이미지데이터생성부(223)는 보정이미지를 후술할 디스플레이부(240)의 사이즈에 맞게 스케일링하여 이미지데이터를 생성할 수 있고, 필요에 따라 스케일링된 보정이미지를 압축부호화하는 인코더를 구비하여 스케일링하여 생성한 이미지데이터를 압축할 수도 있다.The image data generation unit 223 generates image data with respect to the correction image generated by the image correction unit 222. [ The image data generator 223 scales the corrected image according to the size of the display unit 240 to be described later and generates an image data by scaling the image with an encoder for compressing and encoding the scaled corrected image as necessary It is also possible to compress one image data.

메모리부(230)는 도 1에 도시된 바와 같이 이미지프로세서부(220)에 의해 이미지데이터가 저장되는 영역이다. 메모리부(230)는 플레시메모리타입(flash memory type), 하드디스크타입(hard disk type), 멀티미디어카드마이크로타입(multimedia card micro type), 카드타입의 메모리(예를 들어 SD메모리, XD메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기메모리, 자기디스크 및 광디스크 중 하나 이상이 될 수 있으나, 이에 한정하는 것은 아니다. 또한 사용자가 관찰경(1)이 촬영하는 이미지를 녹화하길 원하는 경우, 이러한 사용자의 녹화요청에 따라 이미지데이터는 메모리부(230)에서 녹화파일로 저장될 수도 있다. 또한 전술한 왜곡보정알고리즘이나 프로젝션알고리즘이 메모리부(230)에 저장되어 이미지보정부(222)가 왜곡이미지를 보정할 때 메모리부(230)에 저장된 상기 알고리즘을 참조할 수 있으며, 이미지보정부(222)는 특히 왜곡이미지의 원근효과를 제거할 때 보정계수를 산출하여 산출된 보정계수가 적용된 프로젝션알고리즘을 메모리부(230)에 저장할 수 있다.The memory unit 230 is an area in which image data is stored by the image processor unit 220 as shown in FIG. The memory unit 230 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD memory, XD memory, etc.) A random access memory (SRAM), a read-only memory (ROM), an electrically erasable programmable read-only memory (EEROM), a programmable read-only memory (PROM) , A magnetic disk, and an optical disk, but is not limited thereto. Also, if the user wishes to record an image photographed by the observer 1, the image data may be stored as a recording file in the memory unit 230 according to the user's recording request. The distortion correction algorithm or the projection algorithm described above may be stored in the memory unit 230 to refer to the algorithm stored in the memory unit 230 when the image correction unit 222 corrects the distorted image, 222 can store the projection algorithm to which the calculated correction coefficient is applied in the memory unit 230 by calculating the correction coefficient when removing the perspective effect of the distorted image.

디스플레이부(240)는 도 1에 도시된 바와 같이 이미지프로세서부(220)가 생성한 이미지데이터를 디스플레이한다. 디스플레이부(240)는 액정디스플레이(Liquid Crystal Display, LCD), 유기발광다이오드(Organic Light Emitting Diode, OLED), 전계발광디스플레이(Electro Luminescent Display, ELD), 플라즈마디스플레이패널(Plasma Display Panel, PDP), 전계방출디스플레이(Field Emission Display, FED) 및 전기영동디스플레이(Electro Phoretic Display, EPD) 중 선택되는 하나의 디스플레이장치를 포함할 수 있으나, 이에 한정하는 것은 아니다. 디스플레이부(240)는 디스플레이장치가 본체부(20)에 고정되어 있는 고정식 디스플레이부(240)일 수 있고, 디스플레이장치를 탈착할 수 있는 탈착식 디스플레이부(240)일 수도 있다. 탈착식 디스플레이부(240)의 경우, 본체부(20)에 디스플레이장치가 거치되는 거치부(미도시)가 구비될 수 있다. 또한 디스플레이부(240)는, 커버를 구비하여 커버를 접으면 디스플레이장치의 화면을 덮게 되고 커버를 펴면 디스플레이장치의 화면이 보이게 되는, 접이식 디스플레이부(240)일 수도 있다.The display unit 240 displays the image data generated by the image processor 220 as shown in FIG. The display unit 240 may be a liquid crystal display (LCD), an organic light emitting diode (OLED), an electroluminescent display (ELD), a plasma display panel (PDP) But is not limited to, a display device selected from a field emission display (FED) and an electrophoretic display (EPD). The display unit 240 may be a fixed display unit 240 having a display device fixed to the main body 20 or a removable display unit 240 capable of detaching the display device. In the case of the removable display unit 240, the main body unit 20 may be provided with a mount (not shown) on which the display device is mounted. In addition, the display unit 240 may be a foldable display unit 240 having a cover to cover the screen of the display unit when the cover is folded and a screen of the display unit to be visible when the cover is folded.

통신부(250)는 도 1에 도시된 바와 같이 이미지프로세서부(220)가 생성한 이미지데이터를 외부기기로 전달하며, 이로 인해 후술하는 원격진료가 가능하다. 통신부(250)는 이미지데이터를 외부기기로 유선으로 전달할 수도 있고, 이를 위해 USB포트 또는 메모리카드슬롯을 구비할 수 있으나, 이에 한정하는 것은 아니다. 또한 통신부(250)는 이미지데이터를 외부기기로 무선으로 전달할 수도 있고, 이 경우 적외선(IR)통신, 라디오주파수(RF)통신, 무선랜, 와이파이(Wi-Fi), 와이브로(WiBro), 초광대역통신(UWB), 블루투스, 직비 및 근거리무선통신(NFC) 중 하나 이상의 무선통신수단을 이용할 수 있으나, 이에 한정하는 것은 아니다. 사용자의 녹화요청에 따라 이미지데이터가 녹화파일로 저장된 경우, 사용자는 통신부(250)의 USB포트에 유에스비플래시 드라이브(USB flash drive)를 연결하거나 통신부(250)의 메모리카드슬롯에 메모리카드를 연결하여 녹화파일을 다운로드할 수 있다.The communication unit 250 transmits the image data generated by the image processor 220 to an external device as shown in FIG. 1, thereby enabling remote medical treatment described later. The communication unit 250 may transmit image data to an external device by wire, and may include a USB port or a memory card slot, but the present invention is not limited thereto. In addition, the communication unit 250 may transmit image data to an external device wirelessly. In this case, the communication unit 250 may transmit the image data to the external device through infrared communication, radio frequency (RF) communication, wireless LAN, Wi- But is not limited to, one or more of wireless communication means such as communication (UWB), Bluetooth, directivity and short range wireless communication (NFC). When image data is stored as a recording file according to a user's recording request, the user connects a USB flash drive to a USB port of the communication unit 250 or connects a memory card to a memory card slot of the communication unit 250 The recording file can be downloaded.

이미지프로세서부(220)는 이미지데이터의 빠른 저장과 독출을 위해 DMA(Direct Memory Access)컨트롤러(미도시)를 포함하여, DMA(Direct Memory Access) 방식으로 메모리부(230), 디스플레이부(240), 통신부(250) 및 이미지프로세서부(220) 간에 이미지데이터를 수수할 수 있다.The image processor 220 includes a memory unit 230, a display unit 240, and a display unit 240 in a direct memory access (DMA) mode, including a direct memory access (DMA) controller (not shown) The communication unit 250, and the image processor unit 220, respectively.

본 발명의 관찰경시스템은 관찰경(1) 및 단말을 포함하여 이루어지며, 도 3 내지 도 5는 관찰경시스템의 일실시예를 도시하고 있다. 이하, 도 3 내지 도 5를 참조하여 관찰경시스템을 이루는 각 구성요소별로 상술하기로 한다.The observation light system of the present invention comprises an observation light source (1) and a terminal, and Figs. 3 to 5 show an embodiment of an observation light source system. Hereinafter, each component constituting the observation light system will be described in detail with reference to FIGS. 3 to 5. FIG.

관찰경(1)은 전술한 바와 같이, 대상의 내부에 광을 조사한 다음 대상의 내부로부터 반사되는 광을 취득하여 이미지데이터를 생성하는 장치로서, 헤드부(10) 및 본체부(20)를 포함하여 이루어진다.As described above, the observation light 1 is an apparatus for generating image data by irradiating light inside the object and then receiving light reflected from the inside of the object, and includes a head portion 10 and a main body portion 20 .

단말은 관찰경(1)과 유선 또는 무선통신수단을 통하여 연결되는 기기이다. 유선통신수단은 소정의 케이블일 수 있고, 무선통신수단은 적외선(IR)통신, 라디오주파수(RF)통신, 무선랜, 와이파이(Wi-Fi), 와이브로(WiBro), 초광대역통신(UWB), 블루투스, 직비 및 근거리무선통신(NFC) 중 하나 이상일 수 있으나, 다른 유선 또는 무선통신수단을 배제하는 것은 아니다. 단말은 유선단말 또는 무선단말일 수 있고, 도 3은 관찰경(1)과 무선통신수단을 통하여 연결되는 유선단말과 무선단말을 도시하고 있다. 유선단말은 개인컴퓨터(Personal Computer, PC) 및/또는 노트북(notebook)일 수 있고, 이하 같으나, 이에 한정하는 것은 아니다. 무선단말은 개인통신단말기(Personal Communication System, PCS), GSM(Global System for Mobile communications)단말기, 개인디지털셀룰러단말기(Personal Digital Cellular, PDC), PHS(Personal Handyphone System)단말기, 개인정보단말기(Personal Digital Assistant, PDA), 스마트폰(smart phone), 텔레매틱스(telematics) 및 무선데이터통신단말기, 휴대인터넷단말 중 하나 이상이 될 수 있을 뿐만 아니라, 의사가 착용하는 안경도 무선통신모듈을 구비하여 이미지데이터를 전달받을 수 있으므로, 무선단말을 어떤 형태로든 한정하지 않으며, 이하 같다. 관찰경(1)의 본체부(20)가 통신부(250)를 포함하는 경우, 단말은 통신부(250)로부터 이미지데이터를 유선 또는 무선통신수단을 통하여 전달받는다. 또한 관찰경(1)의 본체부(20)는 단말이 거치되는 거치부(미도시)를 포함하여, 단말이 거치부에 거치된 상태에서 관찰경(1)에서 단말로 유선 또는 무선통신수단을 통한 이미지데이터 전달이 이루어질 수 있다.The terminal is a device connected to the observation light 1 through wired or wireless communication means. The wired communication means may be a predetermined cable and the wireless communication means may be an infrared (IR) communication, a radio frequency (RF) communication, a wireless LAN, a Wi-Fi, a WiBro, Bluetooth, head-end, and short-range wireless communication (NFC), but does not preclude other wired or wireless communication means. The terminal may be a wired terminal or a wireless terminal, and Fig. 3 shows a wired terminal and a wireless terminal connected to the observation point 1 through wireless communication means. The wired terminal may be a personal computer (PC) and / or a notebook, and is not limited thereto. The wireless terminal may be a Personal Communication System (PCS), a Global System for Mobile communications (GSM) terminal, a Personal Digital Cellular (PDC), a Personal Handyphone System (PHS) Assistant, PDA), a smart phone, a telematics and a wireless data communication terminal, and a portable Internet terminal. In addition, the glasses worn by a doctor also include a wireless communication module, It is not limited in any way to the wireless terminal, and so on. When the main body 20 of the observation light 1 includes the communication unit 250, the terminal receives image data from the communication unit 250 via wired or wireless communication means. The main body portion 20 of the observation light 1 also includes a stationary portion (not shown) on which the terminal is stationary and is provided with a wired or wireless communication means The image data can be transferred through the network.

관찰경(1) 및 단말은 상기 유선 또는 무선통신수단에 의한 미러링(mirroring)을 통하여 복수 개의 기능을 공유할 수 있다. 예를 들어 관찰경(1)의 본체부(20)가 디스플레이부(240)를 포함하는 경우, 디스플레이부(240)에서 디스플레이되는 화면이 스트리밍(streaming)을 통해 단말로 동일하게 출력될 수 있다.The observation light 1 and the terminal can share a plurality of functions through mirroring by the wired or wireless communication means. For example, when the main body 20 of the observation light 1 includes the display unit 240, a screen displayed on the display unit 240 may be output to the terminal through streaming.

관찰경시스템에서 단말은 복수 개의 단말기를 의미할 수도 있으므로, 관찰경시스템은 관찰경(1), 제1단말 및 제2단말을 포함하여 이루어질 수 있다. 관찰경(1) 및 제1단말은 제1통신수단에 의한 미러링(mirroring)을 통하여 복수 개의 기능을 공유할 수 있고, 제1단말 및 제2단말은 제2통신수단에 의한 미러링(mirroring)을 통하여 복수 개의 기능을 공유할 수 있다. 예를 들어 관찰경(1)의 본체부(20)가 디스플레이부(240)를 포함하는 경우, 디스플레이부(240)에서 디스플레이되는 화면이 스트리밍(streaming)을 통해 제1단말로 동일하게 출력될 수 있고, 제1단말에서 출력되는 화면이 스트리밍(streaming)을 통해 제2단말로 동일하게 출력될 수 있다. 제1통신수단은 상기 유선 또는 무선통신수단일 수 있고, 제2통신수단도 상기 유선 또는 무선통신수단일 수 있으며, 제1단말은 상기 유선단말 또는 상기 무선단말일 수 있고, 제2단말도 상기 유선단말 또는 상기 무선단말일 수 있다. 도 4는 관찰경(1)과 무선통신수단을 통하여 연결되는 제1무선단말 및 제1무선단말과 무선통신수단을 통하여 연결되는 제2무선단말을 도시하고 있다. 제1단말 및 제2단말 간의 미러링(mirroring)은 제2단말이 제1단말에 기능 공유를 위한 요청을 전송하고 요청을 수신한 제1단말이 응답함으로써 이루어질 수 있으나, 이러한 방식에 한정하는 것은 아니다. 특히 관찰경(1) 및 제1단말보다 제1단말 및 제2단말이 더 많은 기능을 공유할 수 있는데, 전술한 화면뿐만 아니라, 오디오, 스케치, 파일, 카메라, 위치, 음성통화, 영상통화, 채팅 등을 공유할 수 있다.Since the terminal may refer to a plurality of terminals in the observation light system, the observation light system may include the observation light 1, the first terminal, and the second terminal. The first terminal and the first terminal can share a plurality of functions through mirroring by the first communication means and the first terminal and the second terminal can perform mirroring by the second communication means A plurality of functions can be shared. For example, when the main body 20 of the observer 1 includes the display unit 240, the screen displayed on the display unit 240 may be output to the first terminal through streaming And a screen output from the first terminal may be output to the second terminal through streaming. The first communication means may be the wired or wireless communication means and the second communication means may be the wired or wireless communication means. The first terminal may be the wired terminal or the wireless terminal, A wired terminal or the wireless terminal. 4 shows a first wireless terminal connected to the observation light 1 through wireless communication means and a second wireless terminal connected to the first wireless terminal through wireless communication means. Mirroring between the first terminal and the second terminal may be accomplished by the second terminal transmitting a request for function sharing to the first terminal and responding by the first terminal receiving the request, . In particular, the first terminal and the second terminal can share more functions than the first terminal and the first terminal, and it is possible to use not only the above screen but also audio, sketch, file, camera, Chat, and so on.

관찰경시스템에서 단말이 관찰경(1)으로부터 원거리에 위치하는 경우, 단말은 관찰경(1)과 WCDMA, HSDPA, CDMA2000, 와이브로(WiBro), 와이맥스(WiMax), LTE, LTE-Advanced 및 와이파이(Wi-Fi) 중 하나 이상 무선통신수단을 이용하여 접속하는 인터넷을 통하여 연결될 수 있으나, 다른 무선통신수단을 배제하지 않음은 물론이다. 도 5는 관찰경(1) 및 관찰경(1)으로부터 원거리에 위치하는 단말이 연결되는 모습을 도시하고 있다. 관찰경(1)과 단말 간에는 하나 이상의 게이트웨이(예를 들어, 유·무선 공유기에 설정된 게이트웨이, 인터넷제공사의 게이트웨이 등)나 하나 이상의 액세스포인트(예를 들어, 무선중계기, 기지국 등)가 존재할 수 있으며, 관찰경(1)이 디지털신호로 이미지데이터를 송출하는 경우 감쇠한 디지털신호를 재생하는 리피터가 하나 이상 존재할 수 있다.When the terminal is located at a distance from the observer 1 in the observer system, the terminal can acquire the observation light 1 and the WCDMA, HSDPA, CDMA2000, WiBro, WiMax, LTE, LTE-Advanced and Wi- Wi-Fi, etc.), but it does not exclude other wireless communication means. 5 shows a state in which terminals located at a distance from the observation light 1 and the observation light 1 are connected. There may be one or more gateways (e.g., gateways configured on a wired / wireless router, gateways on an Internet provider, etc.) or one or more access points (e.g., wireless repeaters, base stations, etc.) , And there may be one or more repeaters for reproducing the attenuated digital signal when the observer 1 transmits image data in a digital signal.

본 발명의 관찰경시스템은 관찰경(1) 및 서버를 포함하여 이루어질 수도 있으며, 도 5는 이러한 관찰경시스템의 일실시예를 도시하고 있다. 이러한 관찰경시스템에서 관찰경(1)과 유선 또는 무선네트워크 상의 서버가 연결되어, 관찰경(1)의 통신부(250)로부터 전달된 이미지데이터가 서버에 저장될 수 있다. 서버에 저장된 이미지데이터는 환자, 의사, 기타 관계인이 소정의 수단을 통하여 이용할 수 있으며, 이러한 관점에서 관찰경시스템은 관찰경(1) 및 서버 외에 서버로부터 이미지데이터를 유선 또는 무선통신수단을 통하여 전달받는 단말을 더 포함하여 이루어질 수 있다. 여기서 단말은 유선단말 또는 무선단말일 수 있다. 이러한 관찰경시스템은 도 5에 도시된 바와 같이, 관찰경(1)과 인터넷을 통하여 연결되는 서버 사이에 하나 이상의 게이트웨이(예를 들어, 유·무선 공유기에 설정된 게이트웨이, 인터넷제공사의 게이트웨이 등)나 하나 이상의 액세스포인트(예를 들어, 무선중계기, 기지국 등)가 존재할 수 있으며, 관찰경(1)이 디지털신호로 이미지데이터를 송출하는 경우 감쇠한 디지털신호를 재생하는 리피터가 하나 이상 존재할 수 있다.The observation light system of the present invention may comprise an observation light 1 and a server, and Fig. 5 shows an embodiment of such an observation light system. In this observation light system, the observation light 1 and the server on the wired or wireless network are connected, so that the image data transmitted from the communication unit 250 of the observation light 1 can be stored in the server. The image data stored in the server can be used by a patient, a doctor, or other persons through a predetermined means. In this respect, the observation image system transmits image data from a server other than the observation image 1 and the server through a wired or wireless communication means And a receiving terminal. The terminal may be a wired terminal or a wireless terminal. As shown in FIG. 5, the observation light system may include one or more gateways (for example, a gateway set in a wired / wireless router, a gateway of an Internet provider, etc.) between the observation light 1 and a server connected through the Internet There may be more than one access point (e.g., a wireless repeater, a base station, etc.), and there may be one or more repeaters that reproduce the attenuated digital signal when the observer 1 transmits image data to the digital signal.

또한 이러한 관찰경시스템에서, 원격진료가 이루어질 수 있다. 관찰경(1)으로부터 원거리에 위치하는 의사인 원격의사가 서버 또는 단말에 전달된 이미지데이터를 분석하여 분석결과 및/또는 이와 관련된 처방을 관찰경(1)의 사용자에게 제공하거나, 서버 또는 단말에 설치된 이미지데이터 분석 프로그램인 가상의사가 서버 또는 단말에 전달된 이미지데이터를 분석하여 분석결과 및/또는 이와 관련된 처방을 관찰경(1)의 사용자에게 제공할 수도 있다. 이 경우 서버 또는 단말은, 관찰경(1) 사용자의 아이디를 인증하여 관찰경(1) 사용자가 소유하는 단말로 분석결과 및/또는 이와 관련된 처방이 전달되게 할 수 있고, 관찰경(1)의 아이디를 인증하여 관찰경(1) 사용자가 소유하는 단말로 분석결과 및/또는 이와 관련된 처방이 전달되게 할 수도 있다.Also, in such an observation system, telemedicine can be performed. A remote doctor, who is a doctor located remotely from the observation field 1, analyzes the image data transmitted to the server or terminal and provides the analysis result and / or the related prescription to the user of the observation field 1, The virtual physician, which is an installed image data analyzing program, may analyze the image data transmitted to the server or the terminal and provide the analysis result and / or the related prescription to the user of the observation field (1). In this case, the server or the terminal can authenticate the user ID of the observer (1) so that the analysis result and / or the related prescription can be transmitted to the terminal owned by the observer (1) Authenticate the identity so that the result of the analysis and / or the associated prescription may be communicated to a terminal owned by the observer (1).

또한 이러한 관찰경시스템에서, 다량의 이미지데이터가 서버 또는 단말에 축적되는 경우 축적된 이미지데이터는 빅데이터 분석이나 치료예후비교에 사용될 수 있고, 빅데이터 분석 결과나 치료예후비교 결과가 관찰경(1)의 사용자에게 제공될 수 있다. 이 경우 서버 또는 단말은, 관찰경(1) 사용자의 아이디를 인증하여 관찰경(1) 사용자가 소유하는 단말로 빅데이터 분석 결과나 치료예후비교 결과가 전달되게 할 수 있고, 관찰경(1)의 아이디를 인증하여 관찰경(1) 사용자가 소유하는 단말로 빅데이터 분석 결과나 치료예후비교 결과가 전달되게 할 수도 있다.Also, in this observation system, when a large amount of image data is accumulated in a server or a terminal, accumulated image data can be used for big data analysis or comparison of treatment outcome, Quot;). ≪ / RTI > In this case, the server or the terminal can authenticate the user ID of the observer (1) so that the result of the big data analysis or the comparison of the treatment outcome can be transmitted to the terminal owned by the observer (1) (1) may allow the user of the observer (1) to transmit the results of the big data analysis or the comparison of the treatment prognosis.

이하, 앞에서 도 1을 참조하여 상술하였던 본 발명의 관찰경(1)에 관하여 실시예를 상술하기로 한다. 앞에서 명확하지 않았던 부분은 하기의 실시예를 통하여 명확하게 이해될 수 있을 것이다.Hereinafter, examples of the observation light 1 of the present invention described above with reference to Fig. 1 will be described in detail. The parts which have not been clarified in the foregoing can be clearly understood through the following examples.

[실시예][Example]

<관찰경(1)의 전반적인 구조><Overall Structure of Observation Light (1)> [

도 6 내지 도 8에 도시된 것과 같은 관찰경(1)을 제조하였다. 제조된 관찰경(1)은 전체적으로 권총 형상으로서, 사용자가 튜브(180)를 연결하고 파지하여 사용할 수 있도록 되어 있다. 제조된 관찰경(1)은 헤드부(10), 본체부(20) 및 연결부(30)로 나눌 수 있고, 도 6 및 도 7에서는 제조된 관찰경(1)의 외형을, 도 8에서는 제조된 관찰경(1)의 내부를 도시하고 있다. 도 6에 도시된 헤드부(10)와 본체부(20)가 결합된 관찰경(1)은 도 7에 도시된 바와 같이 헤드부(10)와 본체부(20)를 분리할 수 있도록 되어 있다.An observation light 1 as shown in Figs. 6 to 8 was produced. The manufactured observation light 1 is in the form of a pistol as a whole, so that the user can connect and grasp the tube 180 and use it. The manufactured observation light 1 can be divided into a head part 10, a main body part 20 and a connecting part 30. The outer shape of the manufactured observation light 1 is shown in Figs. 6 and 7, And the inside of the observation light 1 which has been observed. The observation light 1 having the head unit 10 and the body unit 20 shown in Fig. 6 coupled thereto can separate the head unit 10 and the body unit 20 as shown in Fig. 7 .

헤드부(10)는 도 8에 도시된 광취득부(110), 광방출부(120), 튜브(180), 도 7에 도시된 튜브홀더(130), 턴슬라이더(150), 고정부(160), 고정부홈(170), 도 6 내지 도 8에는 도시하지 않았지만 튜브홀더(130)와 턴슬라이더(150) 사이에 위치하는 턴가이드(140)를 포함하여 이루어진다. 또한 도 6 내지 도 8에는 도시하지 않았지만 튜브홀더(130)는 튜브홀더돌기(131)를 포함하고, 턴가이드(140)는 안내면(141)을 포함하며, 턴슬라이더(150)는 턴슬라이더홈(151)을 포함한다. 튜브홀더(130)는 도 7에 도시된 바와 같이 홀(hole)을 포함하는데, 사용자는 도 8에 도시된 바와 같이 이 홀(hole)에 튜브(180)를 삽입하여 관찰경(1)을 사용할 수 있다. 고정부(160)는 회전하지 않고 고정된 부분이며, 나머지 부분 중 전술하지 않은 부분에 대하여는 후술한다.The head portion 10 includes the light-receiving portion 110, the light-emitting portion 120, the tube 180, the tube holder 130, the turn slider 150, the fixing portion And a turn guide 140 positioned between the tube holder 130 and the turn slider 150, although not shown in FIGS. 6 to 8. 6 to 8, the tube holder 130 includes the tube holder protrusion 131, the turn guide 140 includes the guide surface 141, and the turn slider 150 includes the turn slider groove 151). The tube holder 130 includes a hole as shown in FIG. 7, and the user inserts the tube 180 into the hole as shown in FIG. 8 to use the observation light 1 . The fixing part 160 is a fixed part without rotating, and the remaining part of the remaining part will be described later.

본체부(20)는 도 8에 도시된 이미지센서(210), 이미지프로세서부(220), 광원부(260), 도 7에 도시된 디스플레이부(240), 하우징부(270), 손잡이부(280), 도 6 내지 도 8에는 도시하지 않았지만 메모리부(230), 통신부(250)를 포함하여 이루어진다. 하우징부(270)는 이미지센서(210), 이미지프로세서부(220), 메모리부(230), 통신부(250), 광원부(260) 등을 수용한다. 손잡이부(280)는 사용자가 파지하는 부분이며, 나머지 부분에 대하여는 전술하였다.The main body unit 20 includes the image sensor 210, the image processor unit 220, the light source unit 260, the display unit 240 shown in FIG. 7, the housing unit 270, the handle unit 280 And a memory unit 230 and a communication unit 250 although not shown in FIGS. The housing unit 270 houses the image sensor 210, the image processor unit 220, the memory unit 230, the communication unit 250, and the light source unit 260. The handle portion 280 is a portion gripped by the user, and the remaining portion is described above.

연결부(30)는 도 7에 도시된 바와 같이 헤드부(10) 일측에 형성되는 핀(310) 및 본체부(20) 일측에 형성되는 락커(320)를 포함하여 이루어지고, 헤드부(10)와 본체부(20)를 연결한다. 또한 도 6 내지 도 8에는 도시하지 않았지만 락커(320)는 락커홈(321), 락커외벽(322) 및 락커내벽(323)을 포함한다.7, the connection unit 30 includes a pin 310 formed at one side of the head unit 10 and a locker 320 formed at one side of the main unit 20. The connection unit 30 includes a head unit 10, And the main body 20 are connected to each other. 6 to 8, the locker 320 includes a locker groove 321, a locker outer wall 322, and a locker inner wall 323.

<헤드부(10)의 탈착>&Lt; Dismounting of the head part 10 >

도 6 및 도 7에 도시된 헤드부(10)의 탈착은 연결부(30)의 핀(310)과 락커(320)가 분리 또는 결합하는 구조에 의해 가능하다. 도 9 및 도 10은 연결부(30)의 구조를 상세히 도시하고 있고, 헤드부(10)의 탈착의 설명에 불필요한 부분은 도시하지 않았다. 사용자는 핀(310)을 락커홈(321)에 삽입하고, 락커(320)를 시계 방향 또는 반시계 방향으로 회전시켜 헤드부(10)와 본체부(20)를 결합할 수 있다. 도 9에서 사용자가 핀(310)을 락커홈(321)에 삽입하면 고정부홈(170)이 락커외벽(322)에 맞물리게 되고, 이 상태는 아직 사용자가 헤드부(10)를 앞·뒤로 움직이면 헤드부(10)를 본체부(20)로부터 분리할 수 있는 상태이다. 이 상태에서 사용자가 락커(320)를 시계 방향 또는 반시계 방향으로 회전시키면, 락커홈(321)에 삽입된 핀(310)이 도 10에 도시된 락커내벽(323)에 막혀 헤드부(10)가 본체부(20)로부터 분리될 수 없는 상태가 된다. 또한 사용자는 이 상태에서 락커(320)를 시계 방향 또는 반시계 방향으로 회전시켜 락커홈(321)과 핀(310)을 정렬하고, 헤드부(10)를 앞으로 당김으로써 헤드부(10)를 본체부(20)로부터 분리할 수 있다.The attachment and detachment of the head portion 10 shown in Figs. 6 and 7 is possible by a structure in which the pin 310 of the connection portion 30 and the locker 320 are separated or engaged. 9 and 10 show the structure of the connecting portion 30 in detail, and a portion unnecessary for the explanation of the detachment of the head portion 10 is not shown. The user can insert the pin 310 into the locker groove 321 and rotate the locker 320 clockwise or counterclockwise to engage the head portion 10 and the body portion 20. [ 9, when the user inserts the pin 310 into the locker groove 321, the fixing member groove 170 is engaged with the locker outer wall 322. In this state, when the user still moves the head part 10 forward and backward So that the head portion 10 can be separated from the main body portion 20. When the user rotates the locker 320 clockwise or counterclockwise in this state, the pin 310 inserted into the locker groove 321 is blocked by the locker inner wall 323 shown in FIG. 10, The main body 20 can not be separated from the main body 20. In this state, the user rotates the locker 320 clockwise or counterclockwise to align the locker groove 321 and the pin 310, and by pulling the head portion 10 forward, (20).

<초점거리 조절><Focal length adjustment>

초점거리는 헤드부(10)가 갖춘 회전운동을 직선운동으로 변환하는 구조에 의하여 조절될 수 있고, 이러한 헤드부(10)의 구조를 도 11 및 도 12에서 상세히 도시하고 있으며, 초점거리 조절의 설명에 불필요한 부분은 도시하지 않았다. 도 11 및 도 12에 도시된 바와 같이, 헤드부(10)는 튜브홀더돌기(131)를 포함하고 좁은 선단과 넓은 후단을 가지는 튜브홀더(130), 안내면(141)을 포함하고 튜브홀더(130)의 일부를 둘러싸는 턴가이드(140), 튜브홀더돌기(131)에 맞물리는 턴슬라이더홈(151)을 포함하고 턴가이드(140)의 일부를 둘러싸는 턴슬라이더(150)를 포함하는 구조를 갖추고 있다. 사용자가 턴슬라이더(150)를 반시계 방향으로 회전시키면, 턴슬라이더홈(151)이 튜브홀더돌기(131)에 힘을 가하게 되면서 튜브홀더(130)가 반시계 방향으로 회전하며 뒤로 움직이게 되고(여기서 튜브홀더돌기(131)는 안내면(141)을 따라 이동함.), 초점거리는 짧아진다. 반대로, 사용자가 턴슬라이더(150)를 시계 방향으로 회전시키면, 턴슬라이더홈(151)이 튜브홀더돌기(131)에 힘을 가하게 되면서 튜브홀더(130)가 시계 방향으로 회전하며 앞으로 움직이게 되고(여기서 튜브홀더돌기(131)는 안내면(141)을 따라 이동함.), 초점거리는 길어진다. 여기서 턴가이드(140)와 도 11 및 도 12에는 도시되지 않은 고정부(160)는 움직이지 않는다. 즉 턴슬라이더(150)의 회전운동이 튜브홀더(130)의 직선운동으로 변환되면서 초점거리가 조절되는 것이다.The focal length can be adjusted by a structure for converting the rotational motion of the head portion 10 into a linear motion. The structure of the head portion 10 is shown in detail in FIGS. 11 and 12, Are not shown. 11 and 12, the head portion 10 includes a tube holder 130 having a narrow tip and a wide rear end, including a tube holder projection 131, and a guide surface 141, and the tube holder 130 And a turn slider 150 including a turn slider groove 151 engaging with the tube holder protrusion 131 and surrounding a part of the turn guide 140, It is equipped. When the user rotates the turn slider 150 in the counterclockwise direction, the tube holder 130 rotates counterclockwise and moves backward while the turn slider groove 151 applies a force to the tube holder protrusion 131 The tube holder projection 131 moves along the guide surface 141), the focal length becomes shorter. On the contrary, when the user rotates the turn slider 150 in the clockwise direction, the tube holder 130 rotates clockwise as the turn slider groove 151 applies force to the tube holder protrusion 131 The tube holder projection 131 moves along the guide surface 141), the focal length becomes longer. Here, the turn guide 140 and the fixing portion 160 not shown in Figs. 11 and 12 do not move. That is, the rotational movement of the turn slider 150 is converted into the linear motion of the tube holder 130, and the focal distance is adjusted.

본 발명을 첨부된 도면과 함께 설명하였으나, 이는 본 발명의 요지를 포함하는 다양한 실시 형태 중의 하나의 실시예에 불과하며, 당업계에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 하는 데에 그 목적이 있는 것으로, 본 발명은 상기 설명된 실시예에만 국한되는 것이 아님은 명확하다. 따라서, 본 발명의 보호범위는 하기의 청구범위에 의해 해석되어야 하며, 본 발명의 요지를 벗어나지 않는 범위 내에서의 변경, 치환, 대체 등에 의해 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함될 것이다. 또한, 도면의 일부 구성은 구성을 보다 명확하게 설명하기 위한 것으로 실제보다 과장되거나 축소되어 제공된 것임을 명확히 한다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it should be understood that various changes and modifications will be apparent to those skilled in the art. Obviously, the invention is not limited to the embodiments described above. Accordingly, the scope of protection of the present invention should be construed according to the following claims, and all technical ideas which fall within the scope of equivalence by alteration, substitution, substitution, and the like within the scope of the present invention, Range. In addition, it should be clarified that some configurations of the drawings are intended to explain the configuration more clearly and are provided in an exaggerated or reduced size than the actual configuration.

1 : 관찰경
10 : 헤드부
110 : 광취득부
120 : 광방출부
130 : 튜브홀더
131 : 튜브홀더돌기
140 : 턴가이드
141 : 안내면
150 : 턴슬라이더
151 : 턴슬라이더홈
160 : 고정부
170 : 고정부홈
180 : 튜브
20 : 본체부
210 : 이미지센서
220 : 이미지프로세서부
221 : 신호변환부
222 : 이미지보정부
223 : 이미지데이터생성부
230 : 메모리부
240 : 디스플레이부
250 : 통신부
260 : 광원부
270 : 하우징부
280 : 손잡이부
30 : 연결부
310 : 핀
320 : 락커
321 : 락커홈
322 : 락커외벽
323 : 락커내벽
1: Observation light
10:
110:
120: light emitting portion
130: tube holder
131: projection of the tube holder
140: Turn guide
141: guide surface
150: turn slider
151: Turn slider groove
160:
170: Higher government home
180: tube
20:
210: Image sensor
220: image processor unit
221: Signal conversion section
222: image correction unit
223: Image data generation unit
230: memory unit
240:
250:
260: Light source
270:
280: Handle portion
30: Connection
310: pin
320: Rocker
321: Locker home
322: Locker outer wall
323: Locker inner wall

Claims (32)

대상의 내부를 촬영하는 관찰경(1)에 있어서,
상기 대상의 내부로부터 반사되는 광을 취득하여 광신호를 생성하는 광취득부(110)를 포함하는 헤드부(10); 및
상기 헤드부(10)에 결합되고, 상기 광취득부(110)로부터 광신호를 수신하여 이미지신호를 생성하는 이미지센서(210) 및 상기 이미지센서(210)가 생성한 이미지신호를 처리하여 이미지데이터를 생성하는 이미지프로세서부(220)를 포함하는 본체부(20);
를 포함하여 이루어지고,
상기 헤드부(10)는 상기 본체부(20)로부터 분리될 수 있으며,
상기 이미지프로세서부(220)는 이미지보정부(222)를 더 포함하여, 상기 이미지센서(210)로부터 이미지신호를 수신한 후 왜곡보정알고리즘을 이용한 왜곡이미지의 기하학적 보정을 수행하도록 이루어지는 것을 특징으로 하는 관찰경.
In the observation light (1) for photographing the inside of the object,
A head part (10) including a light acquisition part (110) for acquiring light reflected from the inside of the object and generating an optical signal; And
An image sensor 210 coupled to the head unit 10 and configured to receive an optical signal from the light acquisition unit 110 to generate an image signal and an image sensor 210 to process the image signal generated by the image sensor 210, A main body unit 20 including an image processor unit 220 for generating an image;
, &Lt; / RTI &gt;
The head portion 10 may be detached from the main body portion 20,
The image processor 220 may further include an image corrector 222 to perform geometric correction of a distorted image using a distortion correction algorithm after receiving an image signal from the image sensor 210 Observations.
청구항 1에 있어서,
상기 헤드부(10)는 초점거리(focal length)를 조절하는 기능을 구비하는 것을 특징으로 하는 관찰경.
The method according to claim 1,
Characterized in that the head part (10) has a function of adjusting a focal length.
청구항 2에 있어서,
상기 헤드부(10)는 회전운동을 직선운동으로 변환하는 구조를 구비하고, 상기 구조에 의하여 상기 초점거리(focal length)가 조절되는 것을 특징으로 하는 관찰경.
The method of claim 2,
Characterized in that the head part (10) has a structure for converting a rotational motion into a linear motion, and the focal length is adjusted by the structure.
삭제delete 삭제delete 청구항 1에 있어서,
상기 헤드부(10)는,
렌즈 및 복수 개의 광섬유를 포함하고, 상기 대상의 내부에 삽입되어 상기 반사되는 광을 상기 광취득부(110)로 전달하는 튜브(180)를 더 포함하는 것을 특징으로 하는 관찰경.
The method according to claim 1,
The head portion (10)
Further comprising a lens (180) including a lens and a plurality of optical fibers, the tube (180) being inserted into the object and transmitting the reflected light to the light acquiring unit (110).
청구항 6에 있어서,
상기 렌즈는 어안렌즈 또는 광각렌즈인 것을 특징으로 하는 관찰경.
The method of claim 6,
Wherein the lens is a fish-eye lens or a wide-angle lens.
삭제delete 청구항 1에 있어서,
상기 본체부(20)는,
상기 이미지데이터를 디스플레이하는 디스플레이부(240)를 포함하는 것을 특징으로 하는 관찰경.
The method according to claim 1,
The main body part (20)
And a display unit (240) for displaying the image data.
청구항 9에 있어서,
상기 디스플레이부(240)는 고정식 또는 탈착식 디스플레이부(240)인 것을 특징으로 하는 관찰경.
The method of claim 9,
Wherein the display unit (240) is a fixed or detachable display unit (240).
청구항 9에 있어서,
상기 디스플레이부(240)는 접이식 디스플레이부(240)인 것을 특징으로 하는 관찰경.
The method of claim 9,
Wherein the display unit (240) is a foldable display unit (240).
청구항 1에 있어서,
상기 본체부(20)는,
상기 이미지데이터를 외부기기로 전달하는 통신부(250)를 포함하는 것을 특징으로 하는 관찰경.
The method according to claim 1,
The main body part (20)
And a communication unit (250) for transmitting the image data to an external device.
청구항 12에 있어서,
상기 본체부(20)는,
사용자의 녹화요청에 따라 상기 이미지데이터가 녹화파일로 저장되는 메모리부(230)를 더 포함하는 것을 특징으로 하는 관찰경.
The method of claim 12,
The main body part (20)
Further comprising a memory unit (230) storing the image data as a recording file according to a user's recording request.
청구항 13에 있어서,
상기 사용자는 상기 녹화파일을 상기 통신부(250)에 연결되는 유에스비플래시 드라이브(USB flash drive) 또는 메모리카드에 다운로드할 수 있는 것을 특징으로 하는 관찰경.
14. The method of claim 13,
The user can download the recording file to a USB flash drive or a memory card connected to the communication unit 250. [
청구항 1에 있어서,
상기 본체부(20)는,
상기 대상의 내부에 조사될 광을 생성하는 광원부(260)를 포함하는 것을 특징으로 하는 관찰경.
The method according to claim 1,
The main body part (20)
And a light source unit (260) for generating light to be irradiated inside the object.
청구항 12의 관찰경(1); 및
상기 통신부(250)로부터 상기 이미지데이터를 유선 또는 무선통신수단을 통하여 전달받는 단말;
을 포함하여 이루어지는 것을 특징으로 하는 관찰경시스템.
The observation light (1) of claim 12; And
A terminal for receiving the image data from the communication unit 250 through wired or wireless communication means;
And a second light source.
청구항 16에 있어서,
상기 무선통신수단은 적외선(IR)통신, 라디오주파수(RF)통신, 무선랜, 와이파이(Wi-Fi), 와이브로(WiBro), 초광대역통신(UWB), 블루투스, 직비 및 근거리무선통신(NFC) 중 하나 이상인 것을 특징으로 하는 관찰경시스템.
18. The method of claim 16,
The wireless communication means may be an infrared (IR) communication, a radio frequency (RF) communication, a wireless LAN, a Wi-Fi, a WiBro, an ultra wideband (UWB), a Bluetooth, Or more. &Lt; / RTI &gt;
청구항 16에 있어서,
상기 관찰경(1) 및 상기 단말은 상기 유선 또는 무선통신수단에 의한 미러링(mirroring)을 통하여 상기 이미지데이터를 공유하는 것을 특징으로 하는 관찰경시스템.
18. The method of claim 16,
Wherein the observation light (1) and the terminal share the image data through mirroring by the wired or wireless communication means.
청구항 16에 있어서,
상기 본체부(20)는,
상기 단말이 거치되는 거치부를 더 포함하는 것을 특징으로 하는 관찰경시스템.
18. The method of claim 16,
The main body part (20)
Further comprising a mounting portion on which the terminal is mounted.
청구항 1의 관찰경(1);
상기 관찰경(1)과 제1통신수단에 의한 미러링(mirroring)을 통하여 상기 이미지데이터를 공유하는 제1단말; 및
상기 제1단말과 제2통신수단에 의한 미러링(mirroring)을 통하여 상기 이미지데이터를 공유하는 제2단말;
을 포함하여 이루어지는 것을 특징으로 하는 관찰경시스템.
(1) of claim 1;
A first terminal sharing the image data through the observation light (1) and mirroring by a first communication means; And
A second terminal sharing the image data through mirroring by the first terminal and the second communication means;
And a second light source.
청구항 12의 관찰경(1); 및
상기 통신부(250)로부터 상기 이미지데이터를 전달받아 저장하는 서버;
를 포함하여 이루어지는 것을 특징으로 하는 관찰경시스템.
The observation light (1) of claim 12; And
A server for receiving and storing the image data from the communication unit 250;
And a second light source.
청구항 21에 있어서,
상기 서버로부터 상기 이미지데이터를 유선 또는 무선통신수단을 통하여 전달받는 단말;
을 더 포함하여 이루어지는 것을 특징으로 하는 관찰경시스템.
23. The method of claim 21,
A terminal for receiving the image data from the server through wired or wireless communication means;
Further comprising: a light source;
청구항 22에 있어서,
원격의사가 상기 서버 또는 상기 단말에 전달된 이미지데이터를 분석하여 분석결과를 상기 관찰경(1)의 사용자에게 제공하는 것을 특징으로 하는 관찰경시스템.
23. The method of claim 22,
Wherein the remote doctor analyzes the image data transmitted to the server or the terminal and provides the analysis result to the user of the observer (1).
청구항 22에 있어서,
가상의사가 상기 서버 또는 상기 단말에 전달된 이미지데이터를 분석하여 분석결과를 상기 관찰경(1)의 사용자에게 제공하는 것을 특징으로 하는 관찰경시스템.
23. The method of claim 22,
Wherein the virtual doctor analyzes the image data transmitted to the server or the terminal and provides the analysis result to the user of the observation light (1).
청구항 23 또는 청구항 24에 있어서,
상기 서버 또는 상기 단말은 상기 사용자의 아이디를 인증하는 것을 특징으로 하는 관찰경시스템.
The method of claim 23 or 24,
Wherein the server or the terminal authenticates the identity of the user.
청구항 23 또는 청구항 24에 있어서,
상기 서버 또는 상기 단말은 상기 관찰경(1)의 아이디를 인증하는 것을 특징으로 하는 관찰경시스템.
The method of claim 23 or 24,
Wherein the server or the terminal authenticates the identity of the observer (1).
청구항 1의 관찰경(1)을 이용하여 상기 대상의 내부를 관찰하는 방법에 있어서,
(I) 광원부(260)가 상기 대상의 내부에 조사될 광을 생성하는 단계;
(II) 상기 (I)단계에서 생성된 광이 상기 대상의 내부에 조사되는 단계;
(III) 상기 광취득부(110)가 상기 대상의 내부로부터 반사되는 광을 취득하여 상기 광신호를 생성하는 단계;
(IV) 이미지센서(210)가 상기 (III)단계에서 생성된 광신호를 수신하여 이미지신호를 생성하는 단계;
(V) 이미지프로세서부(220)가 상기 (IV)단계에서 생성된 이미지신호를 처리하여 상기 이미지데이터를 생성하는 단계; 및
(VI) 디스플레이부(240)가 상기 (V)단계에서 생성된 이미지데이터를 디스플레이하는 단계;
를 포함하여 이루어지는 것을 특징으로 하는 관찰경을 이용하여 대상의 내부를 관찰하는 방법.
A method for observing the inside of an object using the object (1) of claim 1,
(I) generating light to be irradiated inside the object;
(II) irradiating light generated in the step (I) inside the object;
(III) obtaining the light reflected from the inside of the object by the light acquisition unit 110 to generate the optical signal;
(IV) receiving the optical signal generated in the step (III) by the image sensor 210 to generate an image signal;
(V) the image processor 220 processes the image signal generated in the step (IV) to generate the image data; And
(VI) displaying the image data generated in the step (V);
And observing the inside of the object using the observation object.
청구항 27에 있어서,
상기 (V)단계는,
(V-1) 이미지보정부(222)가 상기 이미지신호를 수신하는 단계;
(V-2) 상기 이미지보정부(222)가 왜곡이미지를 보정하여 보정이미지를 생성하는 단계; 및
(V-3) 이미지데이터생성부(223)가 상기 보정이미지에 관한 이미지데이터를 생성하는 단계;
를 포함하여 구성되는 것을 특징으로 하는 관찰경을 이용하여 대상의 내부를 관찰하는 방법.
28. The method of claim 27,
The step (V)
(V-1) image correcting unit 222 receiving the image signal;
(V-2) the image correcting unit 222 corrects the distorted image to generate a corrected image; And
(V-3) generating image data related to the corrected image by the image data generating unit 223;
And observing the interior of the object using the observation object.
청구항 28에 있어서,
상기 (V-2)단계는,
(V-2-1) 상기 이미지보정부(222)가 왜곡보정알고리즘을 이용하여 왜곡이미지의 기하학적 보정을 수행하는 단계;
를 포함하는 것을 특징으로 하는 관찰경을 이용하여 대상의 내부를 관찰하는 방법.
29. The method of claim 28,
The step (V-2)
(V-2-1) The image correcting unit 222 performs a geometric correction of a distorted image using a distortion correction algorithm;
And observing the inside of the object using the observation object.
청구항 29에 있어서,
상기 왜곡보정알고리즘은 초점거리(focal length), 주점(principal point), 방사왜곡상수(radial distortion coefficient) 및 접선왜곡상수(tangential distortion coefficient) 중 하나 이상을 포함하는 것을 특징으로 하는 관찰경을 이용하여 대상의 내부를 관찰하는 방법.
29. The method of claim 29,
Wherein the distortion correction algorithm includes at least one of a focal length, a principal point, a radial distortion coefficient, and a tangential distortion coefficient. How to observe the interior of the object.
청구항 29에 있어서,
상기 (V-2)단계는 상기 (V-2-1)단계 이후에,
(V-2-2) 상기 이미지보정부(222)가 상기 왜곡이미지로부터 소실점좌표를 추출하는 단계;
(V-2-3) 상기 이미지보정부(222)가 상기 소실점좌표로부터 프로젝션알고리즘을 구성하는 보정계수를 산출하는 단계; 및
(V-2-4) 상기 이미지보정부(222)가 상기 프로젝션알고리즘을 이용하여 보정이미지를 생성하는 단계;
를 더 포함하고,
상기 프로젝션알고리즘은 하기 수학식 1로 표현되는 것을 특징으로 하는 관찰경을 이용하여 대상의 내부를 관찰하는 방법.
[수학식 1]
Figure 112016033379725-pat00009

(x, y : 왜곡이미지 좌표, X, Y : 보정이미지 좌표, a, b : 보정계수)
29. The method of claim 29,
In the step (V-2), after the step (V-2-1)
(V-2-2) extracting vanishing point coordinates from the distorted image by the image correcting unit 222;
(V-2-3) calculating the correction coefficient constituting the projection algorithm from the vanishing point coordinates by the image correction unit 222; And
(V-2-4) The image correction unit 222 generates a correction image using the projection algorithm;
Further comprising:
Wherein the projection algorithm is expressed by the following equation (1): &quot; (1) &quot;
[Equation 1]
Figure 112016033379725-pat00009

(x, y: distorted image coordinates, X, Y: corrected image coordinates, a, b: correction coefficient)
청구항 31에 있어서,
상기 보정계수는 하기 수학식 2로 표현되는 것을 특징으로 하는 관찰경을 이용하여 대상의 내부를 관찰하는 방법.
[수학식 2]
Figure 112016033379725-pat00010

(XP1 : 제1소실점을 x축 상에 위치시켰을 때 제1소실점의 x좌표, YP2 : 제2소실점을 y축 상에 위치시켰을 때 제2소실점의 y좌표)
32. The method of claim 31,
Wherein the correction coefficient is expressed by the following equation (2): &quot; (2) &quot;
&Quot; (2) &quot;
Figure 112016033379725-pat00010

(X P1 : x coordinate of the first vanishing point when the first vanishing point is located on the x axis, Y P2 : y coordinate of the second vanishing point when the second vanishing point is positioned on the y axis)
KR1020160042376A 2016-04-06 2016-04-06 Observing device for telemedicine, Image processing device including the same and System having the same KR101789677B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160042376A KR101789677B1 (en) 2016-04-06 2016-04-06 Observing device for telemedicine, Image processing device including the same and System having the same
PCT/KR2017/003648 WO2017176021A1 (en) 2016-04-06 2017-04-03 Observation scope for remote medical examination, and image processing device and sysyem comprising same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160042376A KR101789677B1 (en) 2016-04-06 2016-04-06 Observing device for telemedicine, Image processing device including the same and System having the same

Publications (2)

Publication Number Publication Date
KR20170114811A KR20170114811A (en) 2017-10-16
KR101789677B1 true KR101789677B1 (en) 2017-10-25

Family

ID=60001570

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160042376A KR101789677B1 (en) 2016-04-06 2016-04-06 Observing device for telemedicine, Image processing device including the same and System having the same

Country Status (2)

Country Link
KR (1) KR101789677B1 (en)
WO (1) WO2017176021A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000139819A (en) * 1998-09-01 2000-05-23 Olympus Optical Co Ltd Endoscope
KR101444485B1 (en) * 2006-11-16 2014-09-24 스트리커 코포레이션 Wireless endoscopic camera

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040047258A (en) * 2002-11-29 2004-06-05 아람휴비스(주) Multipurpose Multi-Scope and Use Method Thereof
KR20040049036A (en) * 2002-12-03 2004-06-11 김영철 Medical instrument with Microscopic Camera
KR101023937B1 (en) * 2010-10-19 2011-03-21 주식회사메드스타 Detachable type medical image dianostic apparatus and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000139819A (en) * 1998-09-01 2000-05-23 Olympus Optical Co Ltd Endoscope
KR101444485B1 (en) * 2006-11-16 2014-09-24 스트리커 코포레이션 Wireless endoscopic camera

Also Published As

Publication number Publication date
WO2017176021A1 (en) 2017-10-12
KR20170114811A (en) 2017-10-16

Similar Documents

Publication Publication Date Title
CN108965653B (en) Oral cavity speculum
CN102247114B (en) Image processing apparatus and image processing method
CN104756093B (en) For mobile or network equipment interchangeable wireless sensing device
JP6329715B1 (en) Endoscope system and endoscope
JP5949592B2 (en) Endoscope and endoscope apparatus
US20130331648A1 (en) Method and Apparatus for Viewing a Body Cavity
CN108042090B (en) Medical endoscope system configured with artificial intelligence chip and image processing method
JP6140100B2 (en) Endoscope apparatus, image processing apparatus, and operation method of endoscope apparatus
US20190246887A1 (en) Capsule endoscope apparatus for reproducing 3d image, operation method for same capsule endoscope, receiver for reproducing 3d image in association with capsule endoscope, method for reproducing 3d image by receiver in association with capsule endoscope, and capsule endoscope system
KR20160145448A (en) The diagnostic imaging apparatus and method for transmitting a diagnostic image to external system thereby
US10729309B2 (en) Endoscope system
CN108885335B (en) Medical stereoscopic viewing device, medical stereoscopic viewing method, and program
US20240188790A1 (en) Medical display controlling apparatus and display controlling method
KR101789677B1 (en) Observing device for telemedicine, Image processing device including the same and System having the same
JP6352673B2 (en) Endoscope apparatus and operation method of endoscope apparatus
CN117204791A (en) Endoscopic instrument guiding method and system
KR101417361B1 (en) Capsule endoscope system
KR101930509B1 (en) Separable drug infusion device for telemedicine, Image processing device including the same, and System having the same
KR101666482B1 (en) Portable image capturing device and system
US20210209398A1 (en) Medical image processing apparatus, processor device, medical image processing method, and program
KR20180015810A (en) All-in-one drug infusion device for telemedicine, Image processing device including the same, and System having the same
JP6444506B2 (en) Image display control device, display device, and image display system
JPWO2016047563A1 (en) Transmission system and processing device
KR101640930B1 (en) Image processing apparatus for capsule endoscope
JP2012075516A (en) Endoscope system and calibration method of endoscope

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant