KR20230140796A - SYSTEM FOR INFORMATION PROVISION AND MANAGEMsENT USING VR PHYSICAL EXAMINATION - Google Patents

SYSTEM FOR INFORMATION PROVISION AND MANAGEMsENT USING VR PHYSICAL EXAMINATION Download PDF

Info

Publication number
KR20230140796A
KR20230140796A KR1020220039484A KR20220039484A KR20230140796A KR 20230140796 A KR20230140796 A KR 20230140796A KR 1020220039484 A KR1020220039484 A KR 1020220039484A KR 20220039484 A KR20220039484 A KR 20220039484A KR 20230140796 A KR20230140796 A KR 20230140796A
Authority
KR
South Korea
Prior art keywords
user
test
server
medical information
physical examination
Prior art date
Application number
KR1020220039484A
Other languages
Korean (ko)
Inventor
서연진
Original Assignee
주식회사 씨앰지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 씨앰지 filed Critical 주식회사 씨앰지
Priority to KR1020220039484A priority Critical patent/KR20230140796A/en
Publication of KR20230140796A publication Critical patent/KR20230140796A/en

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/06Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision
    • A61B3/066Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision for testing colour vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/12Audiometering
    • A61B5/121Audiometering evaluating hearing capacity
    • A61B5/123Audiometering evaluating hearing capacity subjective methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/162Testing reaction times
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4058Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
    • A61B5/4064Evaluating the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Neurology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Multimedia (AREA)
  • Social Psychology (AREA)
  • Epidemiology (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Educational Technology (AREA)
  • Physiology (AREA)
  • Neurosurgery (AREA)
  • Primary Health Care (AREA)
  • Acoustics & Sound (AREA)
  • Databases & Information Systems (AREA)
  • Ophthalmology & Optometry (AREA)
  • Data Mining & Analysis (AREA)
  • Otolaryngology (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

VR 신체 검사 및 이를 이용한 의료정보 제공 및 관리 시스템이 개시된다. 본 발명은 사용자에게 가상 현실 영상을 제공하는 VR 장치, 상기 사용자의 입력 신호를 획득하는 입력 장치 및 상기 입력 신호를 수신하고, 상기 가상 현실 영상을 상기 VR 장치로 제공하는 서버를 포함하되, 상기 가상 현실 영상은 상기 사용자의 신체 검사용 컨텐츠를 포함하고, 상기 서버는 상기 입력 신호에 기초하여 상기 사용자의 의료 정보를 생성할 수 있다. VR physical examination and medical information provision and management system using it are disclosed. The present invention includes a VR device that provides a virtual reality image to a user, an input device that obtains an input signal from the user, and a server that receives the input signal and provides the virtual reality image to the VR device, The real-life image includes content for a physical examination of the user, and the server may generate medical information of the user based on the input signal.

Description

VR 신체검사 및 이를 이용한 의료정보 제공 및 관리 시스템{SYSTEM FOR INFORMATION PROVISION AND MANAGEMsENT USING VR PHYSICAL EXAMINATION}VR physical examination and medical information provision and management system using it {SYSTEM FOR INFORMATION PROVISION AND MANAGEMSENT USING VR PHYSICAL EXAMINATION}

본 발명은 VR 신체검사 및 이를 이용한 의료정보 제공 및 관리 시스템에 관한 것이다. 보다 상세하게는 가상 현실 영상을 통하여 사용자에 대한 신체 기능 검사 등을 수행한 결과에 기초하여 맞춤형 의료정보 서비스를 제공하는 것이다.The present invention relates to VR physical examination and a medical information provision and management system using the same. More specifically, it provides customized medical information services based on the results of performing physical function tests on users through virtual reality images.

VR(Virtual Reality) 콘텐츠는, 예를 들면, HMD(Head Mounted Display)와 같은 기기를 이용하여 영상 이미지 등을 출력하여 현실감이 느껴지는 가상현실을 제공할 수 있도록, 디지털 방식으로 제작된 콘텐츠를 의미한다.VR (Virtual Reality) content refers to content produced digitally to provide a realistic virtual reality by outputting video images, etc. using devices such as, for example, a Head Mounted Display (HMD). .

이러한 VR 콘텐츠는 예를 들면, 교육, 훈련 등의 체험을 목적으로 하여 다양한 분야에서 제작되고 있다. 한편, 증강현실이나 가상현실을 이용한 헬스케어 관련 서비스들이 개발되고 있으나, 단순히 운동 동작 안내를 보여주거나 미리 정해진 콘텐츠만을 보여주므로서, 사용자는 일방향의 콘텐츠만을 시청할 수 있었다.Such VR content is produced in various fields for the purpose of experiences such as education and training, for example. Meanwhile, healthcare-related services using augmented reality or virtual reality are being developed, but they simply show exercise movement guidance or show only predetermined content, so users can only watch one-way content.

일반 사용자가 증강현실 서비스를 수월하고 유용하게 이용하려면, 사용자 경험(USER EXPERIENCE) 기반의 증강현실 기술과 장치 개발이 있어야 한다. 예를 들어, 안경이나 선글라스와 같이 소형의 가벼운 실생활 제품 형태의 장치에 사용자 중심의 손쉬운 학습법이나 직관적인 인터페이스를 적용하여 증강현실 서비스를 제공할 수 있어야 한다. 이 때, 사용자 중심의 학습법이나 직관적인 인터페이스라 함은, 장치를 처음 조작하는 누구나가 쉽게 따라 할 수 있는 간편한 동작이나 포즈로 습득할 수 있는 사용법이나 장치를 처음 조작하는 누구나가 사용법을 바로 알 수 있는 인터페이스를 의미할 수 있다.In order for general users to use augmented reality services easily and usefully, there must be the development of augmented reality technology and devices based on user experience (USER EXPERIENCE). For example, it should be possible to provide augmented reality services by applying user-centered easy learning methods or intuitive interfaces to devices in the form of small, lightweight real-life products such as glasses or sunglasses. At this time, user-centered learning methods or intuitive interfaces mean that anyone who operates the device for the first time can learn how to use it with simple movements or poses that can be easily followed, or that anyone who operates the device for the first time can immediately know how to use it. It can mean an interface that is present.

최근, 웰빙 라이프 및 건강한 삶에 대한 관심이 급격히 증가하고 있어, VR 신체검사 의료정보시스템을 통하여 간편하고 정확한 건강 정보를 포함하는 의료 정보를 얻을 수 있는 시스템이 필요하다. Recently, interest in well-being and healthy life is rapidly increasing, and a system that can obtain medical information including simple and accurate health information through a VR physical examination medical information system is needed.

대한민국 특허공개번호 제10-2020-0036838호 (2020. 04. 07 공개)Republic of Korea Patent Publication No. 10-2020-0036838 (published on April 7, 2020) 대한민국 특허공개번호 제10-2019-0113265호 (2019. 10. 08 공개)Republic of Korea Patent Publication No. 10-2019-0113265 (published on October 8, 2019)

본 발명의 목적은 가상 현실 영상을 통하여 사용자에 대한 신체 기능 검사 등을 수행한 결과에 기초하여 맞춤형 의료정보 서비스를 제공하는 것이다. The purpose of the present invention is to provide customized medical information services based on the results of performing physical function tests on users through virtual reality images.

상술한 문제점을 해결하기 위하여, 본 발명은 사용자에게 가상 현실 영상을 제공하는 VR 장치, 상기 사용자의 입력 신호를 획득하는 입력 장치 및 상기 입력 신호를 수신하고, 상기 가상 현실 영상을 상기 VR 장치로 제공하는 서버를 포함하되, 상기 가상 현실 영상은 상기 사용자의 신체 검사용 컨텐츠를 포함하고, 상기 서버는 상기 입력 신호에 기초하여 상기 사용자의 의료 정보를 생성할 수 있다. In order to solve the above-described problem, the present invention provides a VR device that provides a virtual reality image to the user, an input device that acquires the user's input signal, and receives the input signal and provides the virtual reality image to the VR device. and a server, wherein the virtual reality image includes content for a physical examination of the user, and the server may generate medical information of the user based on the input signal.

또한, 상기 신체 검사용 컨텐츠는, 색각 인지 레벨을 시험하는 제1 테스트, 기억력 레벨을 시험하는 제2 테스트, 청력 레벨을 시험하는 제3 테스트, 반응속도 레벨을 시험하는 제4 테스트, 순간 인지 능력을 시험하는 제5 테스트 및 뇌 인지 능력을 시험하는 제6 테스트 중 적어도 하나의 컨텐츠를 포함할 수 있다. In addition, the content for the physical examination includes a first test to test the color vision level, a second test to test the memory level, a third test to test the hearing level, a fourth test to test the reaction speed level, and instantaneous cognitive ability. It may include at least one content of the fifth test that tests and the sixth test that tests brain cognitive ability.

또한, 상기 서버는 사용자 입력으로부터 상기 사용자의 신체 정보를 수신하고, 상기 입력 신호 및 상기 신체 정보를 기초로 상기 사용자의 의료 정보를 생성할 수 있다. Additionally, the server may receive the user's body information from the user input and generate the user's medical information based on the input signal and the body information.

또한, 상기 시스템은 상기 사용자를 촬영한 영상 데이터를 생성하는 카메라 장치를 더 포함할 수 있다. Additionally, the system may further include a camera device that generates image data captured by the user.

또한, 상기 서버는 상기 영상 데이터를 기초로 상기 사용자의 동작 정보를 생성하며, 상기 입력 신호 및 상기 동작 정보에 기초하여 상기 사용자의 의료 정보를 생성할 수 있다. Additionally, the server may generate motion information of the user based on the image data and generate medical information of the user based on the input signal and the motion information.

본 발명은 웨어러블 장치 및 VR 장치를 이용하여 6 단계로 제공되는 테스트 콘텐츠를 경험하고, 콘텐츠의 결과값에 따라 사용자 맞춤형 의료 정보를 제공할 수 있어 사용자의 기본적인 신체상태를 정확히 진단할 수 있다.The present invention uses a wearable device and a VR device to experience test content provided in six stages, and provides customized medical information according to the results of the content, so that the user's basic physical condition can be accurately diagnosed.

또한, 본 발명은 웨어러블 장치를 이용하여 사용자의 현재 생체 상태를 판단하고, 가상현실 장치를 통해 헬스케어 서비스를 제공할 수 있어 언택트 시대의 사용자 건강 관리에 효과적이다.In addition, the present invention can determine the user's current biological condition using a wearable device and provide healthcare services through a virtual reality device, making it effective in managing the user's health in the untact era.

본 발명에 따라 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained according to the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.

도 1은 본 발명에 따른 VR 신체 검사 및 이를 이용한 의료 정보 제공 및 관리 시스템을 간략히 나타낸 것이다.
도 2는 본 발명에 따른 서버를 개략적으로 나타낸 것이다.
도 3 및 도 4는 본 발명에 따른 가상 현실 영상의 예시를 나타낸 것이다.
도 5는 본 발명에 따른 색각 검사 예시를 나타낸 것이다.
도 6은 본 발명에 따른 기억력 검사 예시를 나타낸 것이다.
도 7은 본 발명에 따른 청력 검사 예시를 나타낸 것이다.
도 8은 본 발명에 따른 반응속도 검사 예시를 나타낸 것이다.
도 9는 본 발명에 따른 순간 인지 능력 검사 예시를 나타낸 것이다.
도 10은 본 발명에 따른 뇌 인지 능력 검사 예시를 나타낸 것이다.
도 11은 본 발명에 따른 카메라 장치를 나타낸 것이다.
도 12는 본 발명에 따른 이미지 보정 필터의 예시를 나타낸 도면이다.
도 13은 본 발명에 따른 HSV 그래프를 나타낸 것이다.
본 명세서에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 명세서에 대한 실시예를 제공하고, 상세한 설명과 함께 본 명세서의 기술적 특징을 설명한다.
Figure 1 briefly shows a VR physical examination and a medical information provision and management system using the same according to the present invention.
Figure 2 schematically shows a server according to the present invention.
Figures 3 and 4 show examples of virtual reality images according to the present invention.
Figure 5 shows an example of a color vision test according to the present invention.
Figure 6 shows an example of a memory test according to the present invention.
Figure 7 shows an example of a hearing test according to the present invention.
Figure 8 shows an example of a reaction speed test according to the present invention.
Figure 9 shows an example of an instantaneous cognitive ability test according to the present invention.
Figure 10 shows an example of a brain cognitive ability test according to the present invention.
Figure 11 shows a camera device according to the present invention.
Figure 12 is a diagram showing an example of an image correction filter according to the present invention.
Figure 13 shows an HSV graph according to the present invention.
The accompanying drawings, which are included as part of the detailed description to aid understanding of the present specification, provide embodiments of the present specification and explain technical features of the present specification together with the detailed description.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the attached drawings. However, identical or similar components will be assigned the same reference numbers regardless of reference numerals, and duplicate descriptions thereof will be omitted.

또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted.

또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

이하, 상술한 내용들을 바탕으로 본 명세서의 바람직한 일 실시예에 따른, VR 신체 검사 및 이를 이용한 의료 정보 제공 및 관리 시스템에 관하여 상세히 설명하면 다음과 같다.Hereinafter, based on the above-described contents, a VR physical examination and a medical information provision and management system using the same according to a preferred embodiment of the present specification will be described in detail as follows.

도 1은 본 발명에 따른 VR 신체 검사 및 이를 이용한 의료 정보 제공 및 관리 시스템을 간략히 나타낸 것이다. Figure 1 briefly shows a VR physical examination and a medical information provision and management system using the same according to the present invention.

도 1에 따르면, 본 발명에 따른 VR 신체 검사 및 이를 이용한 의료 정보 제공 및 관리 시스템(이하, 시스템)은 VR 장치, 입력 장치 및 서버를 포함할 수 있다. 또한, 본 발명에 따른 시스템은 카메라 장치를 더 포함할 수 있다. According to FIG. 1, a VR physical examination and a medical information provision and management system (hereinafter referred to as system) using the same according to the present invention may include a VR device, an input device, and a server. Additionally, the system according to the present invention may further include a camera device.

본 발명에 따른 VR 장치는 사용자에게 가상 현실 영상을 제공하는 구성일 수 있다. 가상 현실 영상은 사용자의 신체를 검사하기 위한 컨텐츠를 포함하며, 신체 검사용 컨텐츠는 복수의 테스트 내용을 포함할 수 있다. The VR device according to the present invention may be configured to provide virtual reality images to users. The virtual reality image includes content for examining the user's body, and the content for the physical examination may include a plurality of test contents.

본 발명에 따른 입력 장치는 사용자의 입력 신호를 획득하는 장치일 수 있다. 사용자의 입력 신호는 사용자의 동작을 통한 사용자 입력일 수 있다. 또한, 입력 장치는 사용자의 생체 신호를 측정하는 웨어러블 장치를 포함할 수있다. The input device according to the present invention may be a device that acquires a user's input signal. The user's input signal may be a user input through the user's actions. Additionally, the input device may include a wearable device that measures the user's biosignals.

여기서, 사용자의 생체 신호는 사용자의 심박수, 혈압, 체온, 뇌파, 심박 변이도, 근긴장도, 피부전도도, 호흡수, 혈액량 펄스(BVP: Blood Volume Pulse) 및 체온 스트레스 지수, 체내 수분량 및 혈당 등을 포함할 수 있다. Here, the user's biosignals may include the user's heart rate, blood pressure, body temperature, brain waves, heart rate variability, muscle tension, skin conductance, respiratory rate, blood volume pulse (BVP) and body temperature stress index, body moisture, and blood sugar. You can.

일 개시에 의한 입력 장치는 스마트 장갑일 수 있다. 또한 입력 장치는 스마트 글래스, 스마트 워치, 스마트 이어폰, 스마트 양말 등으로 제작될 수 있으며, 사용자에 의하여 장착 및 분리될 수 있는 모든 스마트 기기를 포함할 수 있다.The input device by one disclosure may be a smart glove. Additionally, input devices can be made of smart glasses, smart watches, smart earphones, smart socks, etc., and can include all smart devices that can be attached and detached by the user.

일 개시에 의하여 VR 장치는 사용자에게 가상현실 영상 및 음성을 이용하여 사용자에게 증강현실, 가상현실로 제작된 콘텐츠를 제공할 수 있다. 사용자는 VR 장치를 이용하여 가상현실을 경험할 수 있다.According to one disclosure, a VR device can provide content created in augmented reality and virtual reality to the user using virtual reality images and voices. Users can experience virtual reality using VR devices.

여기서 VR 장치는 VR 기기, 스마트 글래스, 스마트 TV 등과 같이 사용자가 볼 수 있도록 영상 및 음성을 출력할 수 있는 모든 장치를 포함할 수 있다.Here, the VR device may include any device that can output video and audio for the user to view, such as VR devices, smart glasses, smart TV, etc.

일 개시에 의하여 VR 장치는 사용자에게 장착되거나 사용자의 입력 신호를 획득하는 입력 장치를 이용하여 사용자에게 신체 검사용 컨텐츠를 제공할 수 있다. According to one disclosure, a VR device may provide content for a physical examination to a user using an input device that is mounted on the user or acquires an input signal from the user.

신체 검사용 컨텐츠는 색각 인지 레벨을 시험하는 제1 테스트, 기억력 레벨을 시험하는 제2 테스트, 청력 레벨을 시험하는 제3 테스트, 반응속도 레벨을 시험하는 제4 테스트, 순간 인지 능력을 시험하는 제5 테스트 및 뇌 인지 능력을 시험하는 제6 테스트 중 적어도 하나의 컨텐츠를 포함할 수 있다. The content for the physical examination includes the first test to test the color vision level, the second test to test the memory level, the third test to test the hearing level, the fourth test to test the reaction speed level, and the second test to test the instantaneous cognitive ability. It may include at least one content among the 5 test and the 6th test that tests brain cognitive ability.

본 발명에 따른 서버는 입력 신호에 기초하여 사용자의 의료 정보를 생성할 수 있다. 또한, 서버는 카메라 장치에서 생성된 영상 데이터를 기초로 사용자의 동작 정보를 생성할 수 있다. 또한, 서버는 입력 신호 및 동작 정보에 기초하여 사용자의 의료 정보를 생성할 수 있다. 이처럼, 본 발명에 따른 동작 정보는 웨어러블 장치에서 생성되거나 영상 데이터를 기초로 서버에서 생성될 수 있다. 즉, 본 발명에 따른 카메라 장치는 사용자를 촬영한 영상 데이터를 생성할 수 있다.The server according to the present invention can generate the user's medical information based on the input signal. Additionally, the server may generate user motion information based on image data generated by the camera device. Additionally, the server may generate the user's medical information based on the input signal and operation information. As such, motion information according to the present invention may be generated in a wearable device or in a server based on image data. That is, the camera device according to the present invention can generate image data that captures a user.

도 2는 본 발명에 따른 서버를 개략적으로 나타낸 것이다. Figure 2 schematically shows a server according to the present invention.

도 2에 따르면, 본 발명에 따른 서버는 프로세서, 메모리 및 통신 모듈을 포함할 수 있다. According to Figure 2, the server according to the present invention may include a processor, memory, and communication module.

프로세서(210)는 메모리(220)에 저장된 명령어를 실행하여 다른 구성들을 제어할 수 있다. 프로세서(210)는 메모리(220)에 저장된 명령어를 수행할 수 있다. The processor 210 may control other components by executing instructions stored in the memory 220. The processor 210 may execute instructions stored in the memory 220.

프로세서(210)는, 연산을 수행하고 다른 장치를 제어할 수 있는 구성이다. 주로, 중앙 연산 장치(CPU), 어플리케이션 프로세서(AP), 그래픽스 처리 장치(GPU) 등을 의미할 수 있다. 또한, CPU, AP 또는 GPU는 그 내부에 하나 또는 그 이상의 코어들을 포함할 수 있으며, CPU, AP 또는 GPU는 작동 전압과 클락 신호를 이용하여 작동할 수 있다. 다만, CPU 또는 AP는 직렬 처리에 최적화된 몇 개의 코어로 구성된 반면, GPU는 병렬 처리용으로 설계된 수 천 개의 보다 소형이고 효율적인 코어로 구성될 수 있다.The processor 210 is a component that can perform calculations and control other devices. Mainly, it may mean a central processing unit (CPU), an application processor (AP), a graphics processing unit (GPU), etc. Additionally, the CPU, AP, or GPU may include one or more cores therein, and the CPU, AP, or GPU may operate using an operating voltage and clock signal. However, while a CPU or AP consists of a few cores optimized for serial processing, a GPU can consist of thousands of smaller, more efficient cores designed for parallel processing.

프로세서(210)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(220)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The processor 210 can provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the components discussed above, or by running an application program stored in the memory 220.

메모리(220)는 서버의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(220)는 서버에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 서버의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 응용 프로그램은, 메모리(220)에 저장되고, 서버에 설치되어, 프로세서(210)에 의하여 상기 서버의 동작(또는 기능)을 수행하도록 구동될 수 있다.The memory 220 stores data that supports various functions of the server. The memory 220 may store a number of application programs (application programs or applications) running on the server, data for operation of the server, and commands. At least some of these applications may be downloaded from an external server via wireless communication. Additionally, the application program may be stored in the memory 220, installed on the server, and driven by the processor 210 to perform the operation (or function) of the server.

메모리(220)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(220)는 인터넷(internet)상에서 저장 기능을 수행하는 웹 스토리지(web storage)를 포함할 수도 있다.The memory 220 is a flash memory type, a hard disk type, a solid state disk type, an SDD type (Silicon Disk Drive type), and a multimedia card micro type. ), card-type memory (e.g. SD or XD memory, etc.), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), EEPROM (electrically erasable programmable read) -only memory), PROM (programmable read-only memory), magnetic memory, magnetic disk, and optical disk may include at least one type of storage medium. Additionally, the memory 220 may include web storage that performs a storage function on the Internet.

통신 모듈(230)은 안테나를 통해 기지국 또는 통신 기능을 포함하는 카메라와 정보의 송수신을 실행한다. 통신 모듈(230)은 변조부, 복조부, 신호 처리부 등을 포함할 수 있다. 또한, 통신 모듈(230)은 유선 통신 기능을 수행할 수 있다. The communication module 230 transmits and receives information to and from a base station or a camera including a communication function through an antenna. The communication module 230 may include a modulator, demodulator, signal processor, etc. Additionally, the communication module 230 may perform a wired communication function.

무선 통신은, 통신사들이 기존에 설치해둔 통신 시설과 그 통신 시설의 주파수를 사용하는 무선 통신망을 사용한 통신을 말할 수 있다. 이때, 통신 모듈(230)은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 통신 시스템에 사용될 수 있으며, 뿐만 아니라, 통신 모듈(230)은 3GPP(3rd generation partnership project) LTE(long term evolution) 등에도 사용될 수 있다. 또한, 최근 상용화 중인 5G 통신뿐만 아니라, 추후 상용화가 예정되어 있는 6G 등도 사용될 수 있다. 다만, 본 명세서는 이와 같은 무선 통신 방식에 구애됨이 없이 기설치된 통신망을 활용할 수 있다.Wireless communication refers to communication using communication facilities already installed by communication companies and a wireless communication network that uses the frequencies of those communication facilities. At this time, the communication module 230 includes code division multiple access (CDMA), frequency division multiple access (FDMA), time division multiple access (TDMA), orthogonal frequency division multiple access (OFDMA), and single carrier frequency division multiple access (SC-FDMA). It can be used in various wireless communication systems such as access), and in addition, the communication module 230 can also be used in 3rd generation partnership project (3GPP) long term evolution (LTE), etc. In addition, not only 5G communication, which has recently been commercialized, but also 6G, which is scheduled for commercialization in the future, can be used. However, this specification can utilize a pre-installed communication network without being limited to such wireless communication method.

또한, 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), BLE(Bluetooth Low Energy), 비콘(Beacon), RFID(Radio Frequency Identification), NFC(Near Field Communication), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.In addition, short range communication technologies include Bluetooth, BLE (Bluetooth Low Energy), Beacon, RFID (Radio Frequency Identification), NFC (Near Field Communication), and Infrared Data Association (IrDA). ), UWB (Ultra Wideband), ZigBee, etc. may be used.

도 3 및 도 4는 본 발명에 따른 가상 현실 영상의 예시를 나타낸 것이다. Figures 3 and 4 show examples of virtual reality images according to the present invention.

도 3 및 도 4에 따르면, 본 발명에 따른 가상 현실 영상은 색각 인지 레벨을 시험하는 제 1 테스트, 기억력 레벨을 시험하는 제 2 테스트, 청력 레벨을 시험하는 제 3 테스트, 반응속도 레벨을 시험하는 제 4 테스트, 순간 인지 능력을 시험하는 제 5 테스트 및 뇌 인지 능력을 시험하는 제 6 테스트 중 적어도 하나의 테스트 콘텐츠를 포함할 수 있다. According to Figures 3 and 4, the virtual reality image according to the present invention is a first test to test the color vision level, a second test to test the memory level, a third test to test the hearing level, and a reaction speed level. It may include at least one test content among the fourth test, the fifth test that tests instantaneous cognitive ability, and the sixth test that tests brain cognitive ability.

본 발명에 따른 서버는 가상 현실 영상에 따른 정해진 입력 신호의 수신 여부를 감지하고, 정해진 입력 신호가 수신되는 경우 해당 테스트에 따른 점수를 부여할 수 있다. 서버는 각 테스트 별로 미리 정해진 점수를 합산하여, 각 테스트 별 점수 총합을 생성할 수 있다. 점수 총합에 따라, 서버는 미리 정해진 기준에 따라 사용자의 건강 정보를 포함하는 의료 정보를 도출할 수 있다. The server according to the present invention can detect whether a predetermined input signal according to a virtual reality image is received, and can give a score according to the test when the predetermined input signal is received. The server can add up the predetermined scores for each test and generate the total score for each test. According to the total score, the server may derive medical information including the user's health information according to predetermined criteria.

서버는 사용자가 미리 입력한 나이 정보 및 신체 정보를 기초로 빅데이터로부터 미리 학습한 건강 정보를 불러올 수 있다. 서버는 테스트로부터 도출된 사용자의 건강 정보와 빅데이터로부터 미리 학습한 건강 정보를 비교하여, 사용자의 의료 정보를 도출할 수 있다. The server can retrieve health information previously learned from big data based on age information and body information pre-entered by the user. The server can derive the user's medical information by comparing the user's health information derived from the test with health information previously learned from big data.

일 예로, 사용자 나이대에서 미리 학습한 건강 정보 중 뇌 인지 테스트의 점수 분포가 40점 내지 60점 사이인데, 사용자의 테스트 결과 점수 총합이 35점인 경우, 서버는 사용자의 건강 정보를 주의 레벨로 설정할 수 있다. For example, if the score distribution of the brain cognitive test among the health information learned in advance for the user's age range is between 40 and 60 points, and the total score of the user's test result is 35 points, the server may set the user's health information to a caution level. there is.

또한, 일 예로, 사용자의 건강 정보는 경고 레벨, 주의 레벨, 안심 레벨 및 우수 레벨로 나눌 수 있으며, 해당 레벨은 빅데이터 학습 결과를 기초로 정해질 수 있다. Additionally, as an example, the user's health information can be divided into warning level, caution level, safety level, and excellent level, and the corresponding level can be determined based on big data learning results.

서버는 총 6개의 테스트 콘텐츠 중 적어도 하나의 테스트 점수 총합에 기초하여 사용자의 신체 기능을 개선할 수 있는 맞춤형 의료 정보를 생성할 수 있다. 또한, 서버는 기 설정된 주기 동안 누적된 사용자의 테스트 콘텐츠 결과에 기초하여, 사용자의 신체 기능을 주기별로 분석할 수 있다.The server may generate customized medical information that can improve the user's physical function based on the total test score of at least one of a total of six test contents. Additionally, the server may analyze the user's physical function by cycle based on the user's test content results accumulated during a preset cycle.

또한, 서버는 적어도 하나의 테스트 콘텐츠를 하는 사용자가 장착한 웨어러블 장치로부터 생체 신호를 획득할 수 있다. 서버는 획득한 생체 신호를 이용하여 사용자의 신체 영역별 상태를 분석할 수 있다. 서버는 인공지능 모델 또는 전문가 단말기에서 분석된 정보를 이용하여 사용자의 신체 영역별 상태로부터 맞춤형 의료 정보를 생성하여 사용자에게 제공할 수 있다. 서버는 총 6개의 테스트 콘텐츠 중 적어도 하나의 테스트 점수 총합에 기초하여 사용자의 신체 기능에 대한 분석 정보 및 사용자의 신체 기능을 개선할 수 있는 맞춤형 의료 정보를 생성할 수 있다.Additionally, the server may obtain biosignals from a wearable device worn by a user playing at least one test content. The server can analyze the status of each body region of the user using the acquired biosignals. The server can use information analyzed by an artificial intelligence model or an expert terminal to generate customized medical information from the state of each body area of the user and provide it to the user. The server may generate analysis information about the user's physical function and customized medical information that can improve the user's physical function based on the sum of test scores of at least one of a total of six test contents.

여기서, 서버는 총 6개의 테스트 콘텐츠 중 사용자에 의하여 선택된 적어도 하나의 테스트 콘텐츠의 결과를 이용하여 사용자의 신체 기능을 분석할 수 있다. 또한, 서버는 기 설정된 주기 동안 누적된 사용자의 테스트 콘텐츠 결과에 기초하여, 사용자의 신체 기능을 주기별로 분석할 수 있다. 서버는 전문가 단말기로부터 분석 결과 정보를 수신할 수 있으며, 전문가 단말기는 미리 정해 놓은 범위의 정보를 수신한 전문가가 테스트 콘텐츠의 결과 정보를 분석하여 일정한 분석결과를 제시하기 위한 단말 장치일 수 있다. Here, the server may analyze the user's physical function using the results of at least one test content selected by the user among a total of six test content. Additionally, the server may analyze the user's physical function by cycle based on the user's test content results accumulated during a preset cycle. The server may receive analysis result information from an expert terminal, and the expert terminal may be a terminal device for an expert who has received information in a predetermined range to analyze the result information of test content and present a certain analysis result.

서버는 복수의 테스트 결과값을 학습하여 인공지능 모델을 생성할 수 있다. 보다 구체적으로 색각 인지 레벨 테스트 결과값, 기억력 레벨 테스트 결과값, 청력 레벨 테스트 결과값, 반응속도 레벨 테스트 결과값, 순간 인지능력 레벨 테스트 결과값 및 뇌 인지 능력 레벨 테스트 결과값을 반복학습하여 테스트 콘텐츠 결과값과 사용자 신체 영역의 기능에 대한 연관관계를 학습함으로써 인공지능 모델을 생성할 수 있다.The server can create an artificial intelligence model by learning multiple test results. More specifically, test content is created by repeatedly learning the color vision perception level test results, memory level test results, hearing level test results, reaction speed level test results, instantaneous cognitive ability level test results, and brain cognitive ability level test results. An artificial intelligence model can be created by learning the correlation between the results and the functions of the user's body area.

또한, 서버는 웨어러블 장치를 이용하여 사용자의 입력을 수신할 수 있으며, VR 장치를 통해 사용자에게 가상현실 영상을 제공할 수 있다.Additionally, the server can receive user input using a wearable device and provide virtual reality images to the user through a VR device.

도 4에 따르면, VR 장치를 통해 제공되는 가상현실 영상은 사용자 영역을 제공할 수 있다. 일 개시에 의하여 VR 장치는 사용자 영역 내에서만 사용자의 입력을 수신할 수 있도록 하여 사용자의 이동 동선을 최소화할 수 있게 한다. 즉, 사용자가 최대한 제자리에서 테스트를 수행할 수 있도록 하여, 사용자의 안전을 보장할 수 있다.According to Figure 4, a virtual reality image provided through a VR device may provide a user area. By way of disclosure, the VR device allows the user's input to be received only within the user area, thereby minimizing the user's movement path. In other words, the user's safety can be guaranteed by allowing the user to perform the test in place as much as possible.

여기서, 사용자 영역 내에서 사용자의 의도 하에 신호를 전송하는 웨어러블 장치는 사용자 영역에 그래픽화하여 표현될 수 있다. 예를 들어, 사용자의 손의 형태로 표시되어 사용자의 정확한 입력을 도울 수 있다. 여기서, 사용자의 입력을 전달하는 웨어러블 장치는 스마트 장갑으로 표현하였지만, 웨어러블 장치의 종류를 제한하지 않는다.Here, a wearable device that transmits signals within the user area according to the user's intention may be graphically expressed in the user area. For example, it can be displayed in the shape of the user's hand to help the user input accurately. Here, the wearable device that transmits the user's input is represented as a smart glove, but the type of wearable device is not limited.

도 5는 본 발명에 따른 색각 검사 예시를 나타낸 것이다. Figure 5 shows an example of a color vision test according to the present invention.

도 5에 따르면, 서버는 제1 테스트 콘텐츠를 제공하기 위하여, 이시하라 색각 검사표에 포함된 38개의 이미지를 가상현실 장치에서 제공하는 사용자 영역 내에 순차적으로 제공할 수 있다.According to FIG. 5, in order to provide first test content, the server may sequentially provide 38 images included in the Ishihara color vision test table within the user area provided by the virtual reality device.

이시하라 색각 검사표는 빨강-초록 색각 이상을 위한 검사표이다. 1917년에 처음으로 이 검사표를 출판한 도쿄 대학교의 교수 이시하라 시노부의 이름을 따 만들었다. 수많은 이시하라 검사표로 이루어진 이 검사는 색과 크기가 다양한 원형의 점을 포함한다. The Ishihara color vision test chart is a test sheet for red-green color vision deficiency. It was named after Shinobu Ishihara, a professor at the University of Tokyo who first published this checklist in 1917. This test, which consists of numerous Ishihara test charts, includes circular dots of various colors and sizes.

서버는 제공된 이미지에 표시된 색각 인지 숫자를 음성 입력 또는 사용자 영역 내에서 터치 입력하는 사용자의 입력을 수신할 수 있다. 사용자 입력은 별도로 구비된 마이크 장치 또는 웨어러블 장치, 입력 장치를 통하여 서버로 수신될 수 있다. The server may receive input from a user who inputs the color recognition number displayed in the provided image by voice or by touch inputting it within the user area. User input may be received by the server through a separately provided microphone device, wearable device, or input device.

서버는 수신한 사용자 입력이 정해진 정답과 같은 지 여부를 비교하고, 사용자가 입력한 답의 정답 여부를 판단할 수 있다. The server can compare whether the received user input is the same as the predetermined correct answer and determine whether the answer entered by the user is correct.

여기서, 38개의 색각 이미지 중 1-25번까지는 색각 이미지에 포함된 숫자를 인식하는 것이고, 나머지 13개는 색각 이미지에 표시된 선을 따라가는 방식으로 테스트가 진행된다.Here, out of the 38 color vision images, the test is to recognize numbers 1 to 25 included in the color vision images, and the remaining 13 are tested by following the lines displayed on the color vision images.

서버는 38개의 이미지 중 우선순위 25개의 이미지에 표시된 색각 인지 숫자를 인지함에 따른 사용자의 음성 입력을 획득하고, 38개의 이미지 중 나머지 이미지에 표시된 색각 인지 선을 인지함에 따른 사용자의 입력을 웨어러블 디바이스로부터 획득함에 따라, 사용자의 색각 인지 레벨을 결정할 수 있다.The server acquires the user's voice input by recognizing the color vision number displayed in the priority 25 images among the 38 images, and receives the user's input by recognizing the color vision line displayed in the remaining images among the 38 images from the wearable device. As acquired, the user's color vision perception level can be determined.

도 6은 본 발명에 따른 기억력 검사 예시를 나타낸 것이다. Figure 6 shows an example of a memory test according to the present invention.

도 6에 따르면, 서버는 제2 테스트 콘텐츠를 제공하기 위하여, 가상현실 장치에서 제공하는 사용자 영역 내에 3Ⅹ3 퍼즐 이미지, 4Ⅹ3 퍼즐 이미지, 5Ⅹ3 퍼즐 이미지 및 6Ⅹ3 퍼즐 이미지 중 어느 하나의 퍼즐 이미지를 표시할 수 있다. 일 개시에 의하여 VR 의료정보 제공 장치(100)는 퍼즐 이미지를 1~5초 동안 표시한 후 제거할 수 있다.According to FIG. 6, in order to provide second test content, the server may display any one of the 3 there is. As a start, the VR medical information providing device 100 may display the puzzle image for 1 to 5 seconds and then remove it.

이때, 서버는 퍼즐 이미지의 크기에 따라 사용자에게 보여지는 시간을 다르게 설정할 수 있다. 퍼즐의 크기가 커질 수록 사용자에게 보여지는 시간이 길어진다. At this time, the server may set the time to be displayed to the user differently depending on the size of the puzzle image. As the size of the puzzle increases, the time it takes to be displayed to the user increases.

또한, 서버는 주어진 제한 시간 동안 표시된 퍼즐 이미지 안에 포함된 동일한 모양의 이미지를 찾는 사용자 입력을 웨어러블 장치를 통해 획득할 수 있다. 이때, 퍼즐 이미지의 크기가 클 수록 플레이 시간이 길어질 수 있다. 예를 들어, 플레이 시간은 5초 내지 25초 내에서 결정될 있다. Additionally, the server can obtain user input through a wearable device to find images of the same shape included in the displayed puzzle image for a given limited time. At this time, the larger the size of the puzzle image, the longer the play time may be. For example, play time may be determined to be within 5 to 25 seconds.

또한, 서버는 사용자 입력의 정답 여부를 판단하고, 정답 여부의 결과에 따라 사용자의 기억력 레벨을 결정할 수 있다.Additionally, the server can determine whether the user's input is correct and determine the user's memory level based on the result of whether the user's input is correct.

서버는 총 80초의 테스트 시간 동안 4개의 퍼즐 이미지를 연속적으로 표시하고, 플레이하고, 정답을 보여줌으로써 기억력 테스트를 진행할 수 있다.The server can test memory by sequentially displaying four puzzle images, playing them, and showing the correct answers for a total test time of 80 seconds.

도 7은 본 발명에 따른 청력 검사 예시를 나타낸 것이다. Figure 7 shows an example of a hearing test according to the present invention.

도 7에 따르면, 서버는 제3 테스트 콘텐츠를 제공하기 위하여, 사용자의 귀에 장착된 웨어러블 장치를 통해 기본 레벨의 측정음을 출력할 수 있다. 여기서, 웨어러블 장치는 이어폰, 또는 스피커를 포함한 어떤 장치든 포함할 수 있다. According to FIG. 7, in order to provide third test content, the server may output a basic level measurement sound through a wearable device mounted on the user's ear. Here, the wearable device may include any device including earphones or speakers.

또한, 서버는 기본 레벨의 측정음을 인지한지 여부를 알리는 사용자의 입력에 대응하여, 측정음의 레벨을 증가 또는 감소하여 출력할 수 있다. 여기서 기본 레벨은 사람 목소리의 평균 데시벨인 60dB일 수 있다.Additionally, the server may increase or decrease the level of the measurement sound and output it in response to a user's input indicating whether the basic level of the measurement sound is recognized. Here, the basic level may be 60dB, which is the average decibel of the human voice.

또한, 서버는 출력된 측정음을 2번 이상 인지하지 못하는 경우, 인지하지 못한 측정음의 레벨을 사용자의 청력 레벨로 결정할 수 있다.Additionally, if the server does not recognize the output measurement sound more than twice, the server may determine the level of the unrecognized measurement sound as the user's hearing level.

또한, 서버는 사용자가 측정음을 확인하는 경우 10dB을 낮춘 측정음을 제공하고 다음 테스트를 진행할 수 있으며, 사용자가 측정음을 듣지 못하는 경우 10dB를 높여 테스트를 진행할 수 있다. 측정음을 구성하는 주파수는 250Hz 내지 1000Hz 내에서 선택될 수 있으며, 사용자가 소리를 들으면 트리거를 이용해 반응하는 것을 이용하여 테스트를 수행할 수 있다.Additionally, if the user confirms the measurement sound, the server can provide the measurement sound lowered by 10 dB and proceed with the next test. If the user cannot hear the measurement sound, the server can proceed with the test by raising the measurement sound by 10 dB. The frequency that makes up the measurement sound can be selected within 250Hz to 1000Hz, and the test can be performed by using the user to react using a trigger when he or she hears the sound.

도 8은 본 발명에 따른 반응속도 검사 예시를 나타낸 것이다.Figure 8 shows an example of a reaction speed test according to the present invention.

도 8에 따르면, 서버는 제4 테스트 콘텐츠를 제공하기 위하여, 반응속도를 테스트하기 위한 도형을 사용자 영역 내에 제공하고, 사용자의 반응을 분석하여 반응속도 레벨을 평가할 수 있다.According to FIG. 8, in order to provide the fourth test content, the server may provide a figure for testing reaction speed in the user area and evaluate the reaction speed level by analyzing the user's reaction.

또한, 서버는 도면과 같이 가상현실 장치에서 제공하는 사용자 영역 내에 사용자의 터치 입력에 따라 조명이 턴온(turn-on)되는 7개의 구 형상의 아이콘을 표시할 수 있다. Additionally, as shown in the drawing, the server can display seven spherical icons whose lights turn on according to the user's touch input in the user area provided by the virtual reality device.

또한, 서버는 주어진 시간 이내에 7개의 아이콘 중 조명이 턴오프(turn-off)되는 아이콘을 터치하는 사용자 입력을 감지할 수 있다. 예를 들어, 20초 동안 아이콘의 조명이 랜덤으로 꺼지게 하고, 꺼진 조명을 터치 입력을 통해 다시 켜는 사용자의 입력을 통해 사용자의 반응속도를 결정할 수 있다. 또한, 서버는 조명의 턴온에 성공한 아이콘의 개수를 기초로, 사용자의 반응속도 레벨을 결정할 수 있다.Additionally, the server can detect a user input by touching the icon whose lighting turns off among the seven icons within a given time. For example, the icon's lighting can be randomly turned off for 20 seconds, and the user's reaction speed can be determined through the user's input to turn the turned off light back on through a touch input. Additionally, the server can determine the user's reaction speed level based on the number of icons that successfully turn on the lighting.

도 9는 본 발명에 따른 순간 인지 능력 검사 예시를 나타낸 것이다. Figure 9 shows an example of an instantaneous cognitive ability test according to the present invention.

도 9에 따르면, 서버는 제5 테스트 콘텐츠를 제공하기 위하여, 실제 공간에서는 하기 어려운 장애물을 피하거나, 타겟을 쳐내는 등의 테스트를 제공하여 순발력, 집중력, 단기기억 및 반응 속도를 측정할 수 있다. 또한, 장애물의 색깔에 따라 장애물을 피하거나 쳐내는 등의 테스트를 수행함으로써 사용자의 순간 인지 능력을 테스트할 수 있다.According to FIG. 9, in order to provide the fifth test content, the server can measure quickness, concentration, short-term memory, and reaction speed by providing tests such as avoiding obstacles or hitting targets that are difficult to do in real space. Additionally, the user's instantaneous cognitive ability can be tested by performing tests such as avoiding or avoiding obstacles depending on the color of the obstacle.

또한, 서버는 가상현실 장치에서 제공하는 사용자 영역 내에 단계별로 장애물 및 장애물을 극복할 수 있는 안내 메시지를 표시할 수 있다. 예를 들어, 타겟 맞추기 테스트의 경우 어떤 타겟을 어떤 방식으로 맞추어야 할지에 대한 안내 메시지를 표시할 수 있으며, 장애물 피하기의 경우 어떤 것이 장애물인지, 장애물을 어떻게 피해야하는 지에 대한 안내 메시지를 표시할 수 있다.Additionally, the server can display guidance messages for overcoming obstacles and obstacles step by step within the user area provided by the virtual reality device. For example, in the case of a target matching test, a guidance message can be displayed about which target to hit and in what way, and in the case of obstacle avoidance, a guidance message can be displayed about what the obstacle is and how to avoid the obstacle. .

또한, 서버는 주어진 시간 동안 사용자 영역 내에 표시되는 장애물을 극복하기 위한 사용자 입력을 웨어러블 장치로부터 획득할 수 있다. 예를 들어, 60초 동안 사용자가 몇 개의 장애물을 극복하는지 여부를 판단할 수 있다.Additionally, the server can obtain user input from the wearable device to overcome obstacles displayed in the user area for a given time. For example, it can be determined how many obstacles a user overcomes in 60 seconds.

또한, 서버는 사용자가 장애물을 극복한 횟수 및 극복한 장애물의 난이도에 기초하여 사용자의 순간 인지 능력 레벨을 결정할 수 있다.Additionally, the server may determine the user's instantaneous cognitive ability level based on the number of times the user overcomes obstacles and the difficulty of the obstacles overcome.

도 10은 본 발명에 따른 뇌 인지 능력 검사 예시를 나타낸 것이다. Figure 10 shows an example of a brain cognitive ability test according to the present invention.

도 10에 따르면, 본 발명에 따른 서버는 제6 테스트 콘텐츠를 제공하기 위하여, 초성 게임을 통한 사용자의 뇌 인지 능력을 테스트할 수 있다. 서버는 초성 제시어 및 힌트 키워드를 제공하고, 힌트 키워드에 대응하는 알맞은 정답을 마이크 장치 또는 입력 장치 등을 통하여 수신하면 사용자에게 점수를 부여할 수 있다. According to Figure 10, the server according to the present invention can test the user's brain cognitive ability through an initial consonant game in order to provide the sixth test content. The server provides initial suggestion words and hint keywords, and can award points to the user when an appropriate correct answer corresponding to the hint keyword is received through a microphone device or input device.

초성 게임은 미리 정해진 정답과 정답을 유추할 수 있는 힌트 키워드들로 이루어지며, 사용자는 초성 제시어 및 힌트 키워드를 기초로 정답을 유추할 수 있다. 서버는 사용자의 응답을 수신하면, 응답이 정답에 해당하는지 오답인지를 미리 정해진 정답과 매칭하여 판단할 수 있다. The initial consonant game consists of a predetermined correct answer and hint keywords that can infer the correct answer, and the user can infer the correct answer based on the initial suggested word and hint keyword. When the server receives the user's response, it can determine whether the response corresponds to a correct answer or an incorrect answer by matching it with a predetermined correct answer.

도 11은 본 발명에 따른 카메라 장치를 나타낸 것이다. Figure 11 shows a camera device according to the present invention.

본 발명에 따른 카메라 장치(130)는 광 이미지로부터 이미지 데이터를 생성할 수 있다. 카메라 장치(130)은 측벽에 관통홀을 포함하는 하우징, 관통홀에 설치된 렌즈(1321) 및 렌즈(1321)를 구동하는 구동부(1323)를 포함할 수 있다. 관통홀은 렌즈(1321)의 직경에 대응되는 크기로 형성될 수 있다. 렌즈(1321)는 관통홀에 삽입될 수 있다. The camera device 130 according to the present invention can generate image data from an optical image. The camera device 130 may include a housing including a through hole in a side wall, a lens 1321 installed in the through hole, and a driving unit 1323 that drives the lens 1321. The through hole may be formed in a size corresponding to the diameter of the lens 1321. Lens 1321 may be inserted into the through hole.

구동부(1323)는 렌즈(1321)를 전방 또는 후방으로 움직이도록 제어하는 구성일 수 있다. 렌즈(1321)와 구동부(1323)는 종래 알려진 방식으로 연결되고 렌즈(1321)는 종래 알려진 방식으로 구동부(1323)에 의하여 제어될 수 있다. The driving unit 1323 may be configured to control the lens 1321 to move forward or backward. The lens 1321 and the driving unit 1323 are connected in a conventionally known manner, and the lens 1321 can be controlled by the driving unit 1323 in a conventionally known manner.

다양한 이미지 데이터를 수득하기 위해서는 렌즈(1321)가 카메라 장치(130) 또는 하우징의 외부로 노출될 필요가 있다. In order to obtain various image data, the lens 1321 needs to be exposed to the outside of the camera device 130 or the housing.

특히, 본 발명에 따른 카메라 장치(130)는 사용자가 격렬히 움직이는 실내 환경 등에서 직접 사용자를 촬영해야 하므로 먼지 등에 대하여 내오염성이 강한 렌즈가 필요하다. 따라서, 본 발명은 렌즈를 코팅하는 코팅층을 제안하여, 이러한 문제점을 해결하고자 하였다. In particular, since the camera device 130 according to the present invention must directly photograph the user in an indoor environment where the user moves vigorously, a lens with strong contamination resistance against dust, etc. is required. Therefore, the present invention sought to solve this problem by proposing a coating layer for coating the lens.

바람직하게 상기 렌즈(1321)는 그 표면에 하기의 화학식 1로 표시되는 화합물, 유기 용매, 무기 입자 및 분산제가 포함되는 코팅조성물로 코팅된 것일 수 있다.Preferably, the surface of the lens 1321 may be coated with a coating composition containing a compound represented by the following formula (1), an organic solvent, an inorganic particle, and a dispersant.

[화학식 1][Formula 1]

여기서,here,

L1은 단일결합, 치환 또는 비치환된 탄소수 6 내지 30의 아릴렌기, 치환 또는 비치환된 탄소수 1 내지 20의 알킬렌기, 치환 또는 비치환된 탄소수 3 내지 20의 시클로알킬렌기, 치환 또는 비치환된 탄소수 2 내지 20의 알케닐렌기, 치환 또는 비치환된 탄소수 3 내지 20의 시클로알케닐렌기 및 치환 또는 비치환된 탄소수 2 내지 20의 알키닐렌기로 이루어진 군에서 선택되며,L 1 is a single bond, a substituted or unsubstituted arylene group with 6 to 30 carbon atoms, a substituted or unsubstituted alkylene group with 1 to 20 carbon atoms, a substituted or unsubstituted cycloalkylene group with 3 to 20 carbon atoms, or a substituted or unsubstituted group. It is selected from the group consisting of an alkenylene group having 2 to 20 carbon atoms, a substituted or unsubstituted cycloalkenylene group having 3 to 20 carbon atoms, and a substituted or unsubstituted alkynylene group having 2 to 20 carbon atoms,

상기 L1이 치환되는 경우, 수소, 니트로기, 할로겐기, 히드록시기, 탄소수 1 내지 30의 알킬기, 탄소수 1 내지 20개의 시클로알킬기, 탄소수 2 내지 30의 알케닐기, 탄소수 2 내지 24의 알키닐기, 탄소수 7 내지 30의 아르알킬기, 탄소수 6 내지 30의 아릴기 및 탄소수 1 내지 30의 알콕시기로 이루어진 군으로부터 선택된 1종 이상의 치환기로 치환되며, 복수 개의 치환기로 치환되는 경우 이들은 서로 동일하거나 상이하다.When L 1 is substituted, hydrogen, nitro group, halogen group, hydroxy group, alkyl group of 1 to 30 carbon atoms, cycloalkyl group of 1 to 20 carbon atoms, alkenyl group of 2 to 30 carbon atoms, alkynyl group of 2 to 24 carbon atoms, carbon number It is substituted with one or more substituents selected from the group consisting of an aralkyl group with 7 to 30 carbon atoms, an aryl group with 6 to 30 carbon atoms, and an alkoxy group with 1 to 30 carbon atoms. When substituted with a plurality of substituents, they are the same or different from each other.

상기 코팅조성물로 렌즈(1321)가 코팅된 경우 우수한 발수성 및 내오염성을 나타낼 수 있기 때문에 도로 주변에 설치된 렌즈(1321)가 오염 환경에 장기간 노출되더라도, 보다 선명한 이미지 또는 영상을 수집할 수 있다.When the lens 1321 is coated with the coating composition, it can exhibit excellent water repellency and contamination resistance, so that clearer images or videos can be collected even if the lens 1321 installed around the road is exposed to a polluted environment for a long period of time.

상기 무기 입자는 실리카, 알루미나 및 이들의 혼합물로 이루어진 군으로부터 선택될 수 있다. 상기 무기 입자의 평균 직경은 70 내지 100㎛이지만, 상기 예시에 국한되지 않는다. 상기 무기 입자는 렌즈(1321) 표면에 코팅층(1322)으로 형성 후, 물리적인 강도를 향상시키고, 점도를 일정 범위로 유지시켜 성형성을 높일 수 있다. The inorganic particles may be selected from the group consisting of silica, alumina, and mixtures thereof. The average diameter of the inorganic particles is 70 to 100 μm, but is not limited to the above examples. After the inorganic particles are formed as a coating layer 1322 on the surface of the lens 1321, the physical strength can be improved and the moldability can be improved by maintaining the viscosity within a certain range.

상기 유기 용매는 메틸에틸케톤(MEK), 톨루엔 및 이들의 혼합으로 이루어진 군으로부터 선택되며, 바람직하게는 메틸에틸케톤을 사용할 수 있으나, 상기 예시에 국한되지 않는다. The organic solvent is selected from the group consisting of methyl ethyl ketone (MEK), toluene, and mixtures thereof, preferably methyl ethyl ketone, but is not limited to the above examples.

상기 분산제로는 폴리에스테르 계열의 분산제를 사용할 수 있고, 구체적으로 2-메톡시프로필 아세테이트 및 1-메톡시-2-프로필 아세테이트의 공중합체로 이루어진 폴리에스테르 계열의 분산안정제로서 TEGO-Disperse 670 (제조사: EVONIK)을 사용할 수 있으나, 상기 예시에 국한되지 않고 통상의 기술자에게 자명한 분산제는 제한 없이 모두 사용 가능하다.As the dispersant, a polyester-based dispersant can be used. Specifically, a polyester-based dispersion stabilizer consisting of a copolymer of 2-methoxypropyl acetate and 1-methoxy-2-propyl acetate is TEGO-Disperse 670 (manufacturer) : EVONIK) can be used, but is not limited to the above example and any dispersant that is obvious to those skilled in the art can be used without limitation.

상기 코팅 조성물은 기타 첨가제로 안정화제를 추가로 포함할 수 있고, 상기 안정화제는 자외선 흡수제, 산화방지제 등을 포함할 수 있으나, 상기 예시에 국한되지 않고 제한 없이 사용 가능하다.The coating composition may further include a stabilizer as other additives, and the stabilizer may include an ultraviolet absorber, an antioxidant, etc., but is not limited to the above examples and can be used without limitation.

상기 코팅층(1322)을 형성하기 위한, 코팅 조성물은 보다 구체적으로 상기 화학식 1로 표시되는 화합물, 유기 용매, 무기 입자 및 분산제를 포함할 수 있다.More specifically, the coating composition for forming the coating layer 1322 may include a compound represented by Chemical Formula 1, an organic solvent, inorganic particles, and a dispersant.

상기 코팅 조성물은 유기용매 100 중량부에 대하여, 상기 화학식 1로 표시되는 화합물 40 내지 60 중량부, 무기 입자 20 내지 40 중량부 및 분산제 5 내지 15 중량부를 포함할 수 있다. 상기 범위에 의하는 경우 각 구성 성분의 상호 작용에 의한 발수 효과가 임계적 의의가 있는 정도의 상승효과가 발현되며, 상기 범위를 벗어나는 경우 상승효과가 급격히 저하되거나 거의 없게 된다.The coating composition may include 40 to 60 parts by weight of the compound represented by Formula 1, 20 to 40 parts by weight of inorganic particles, and 5 to 15 parts by weight of a dispersant, based on 100 parts by weight of the organic solvent. If the range is within the above range, a synergistic effect of the water repellent effect due to the interaction of each component is expressed to a critical degree, and if it is outside the above range, the synergistic effect is sharply reduced or almost non-existent.

보다 바람직하게, 상기 코팅 조성물의 점도는 1500 내지 1800cP이며, 상기 점도가 1500cP 미만인 경우에는 렌즈(1321) 표면에 도포하면, 흘러내려 코팅층(1322)의 형성이 용이하지 않은 문제가 있고, 1800cP를 초과하는 경우에는 균일한 코팅층(1322)의 형성이 용이하지 않은 문제가 있다.More preferably, the viscosity of the coating composition is 1500 to 1800 cP. If the viscosity is less than 1500 cP, there is a problem that it flows down when applied to the surface of the lens 1321, making it difficult to form the coating layer 1322, and if the viscosity is less than 1800 cP, it flows down. In this case, there is a problem in that it is not easy to form a uniform coating layer 1322.

[제조예 1: 코팅층의 제조][Preparation Example 1: Preparation of coating layer]

1. 코팅 조성물의 제조1. Preparation of coating composition

메틸에틸케톤에 하기 화학식 1로 표시되는 화합물, 무기입자 및 분산제를 혼합하여, 코팅 조성물을 제조하였다:A coating composition was prepared by mixing methyl ethyl ketone with a compound represented by the following formula (1), inorganic particles, and a dispersant:

[화학식 1][Formula 1]

여기서, here,

L1은 비치환된 탄소수 5의 알킬렌기이다.L 1 is an unsubstituted alkylene group having 5 carbon atoms.

상기 대전방지 조성물의 보다 구체적인 조성은 하기 표 1과 같다. A more specific composition of the antistatic composition is shown in Table 1 below.

TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 유기용매organic solvent 100100 100100 100100 100100 100100 화학식 1로 표시되는 화합물Compound represented by formula 1 3030 4040 5050 6060 7070 무기입자inorganic particles 1010 2020 3030 4040 5050 분산제dispersant 1One 55 1010 1515 2020

(단위 중량부)(unit weight)

2. 코팅층의 제조2. Preparation of coating layer

렌즈(1321)의 일면에 상기 DX1 내지 DX5의 코팅 조성물을 도포 후, 경화시켜 코팅층(1322)을 형성하였다. The coating compositions DX1 to DX5 were applied to one surface of the lens 1321 and then cured to form a coating layer 1322.

[실험예][Experimental example]

1. 표면 외관에 대한 평가1. Evaluation of surface appearance

코팅 조성물의 점도 차이로 인해, 코팅층(1322)을 제조한 이후, 균일한 표면이 형성되었는지 여부에 대해 관능 평가를 진행하였다. 균일한 코팅층(1322)을 형성하였는지 여부에 대한 평가를 진행하였고, 하기와 같은 기준에 의해 평가를 진행하였다. Due to the difference in viscosity of the coating composition, after manufacturing the coating layer 1322, a sensory evaluation was conducted to determine whether a uniform surface was formed. An evaluation was conducted on whether a uniform coating layer 1322 was formed, and the evaluation was conducted based on the following criteria.

○: 균일한 코팅층 형성○: Formation of uniform coating layer

×: 불균일한 코팅층의 형성×: Formation of uneven coating layer

TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 관능 평가Sensory evaluation ХХ ХХ

코팅층(1322)을 형성할 때, 일정 점도 미만인 경우에는 렌즈(1321)의 표면에서 흐름이 발생하여, 경화 공정 이후, 균일한 코팅층(1322)의 형성이 어려운 경우가 다수 발생하였다. 이에 따라, 생산 수율이 낮아지는 문제가 발생할 수 있다. 또한, 점도가 너무 높은 경우에도, 조성물의 균일 도포가 어려워 균일한 코팅층(1322)의 형성이 불가하였다.When forming the coating layer 1322, if the viscosity is less than a certain level, flow occurs on the surface of the lens 1321, making it difficult to form a uniform coating layer 1322 after the curing process. Accordingly, the problem of lowering the production yield may occur. Additionally, even when the viscosity was too high, it was difficult to uniformly apply the composition, making it impossible to form a uniform coating layer 1322.

2. 발수각의 측정2. Measurement of water repellency angle

상기 렌즈(1321) 표면에 코팅층(1322)을 형성한 이후, 발수각을 측정한 결과는 하기 표 3과 같다. After forming the coating layer 1322 on the surface of the lens 1321, the results of measuring the water repellency angle are shown in Table 3 below.

전진 접촉각 (〃)Advancing contact angle (〃) 정지 접촉각 (〃)Rest contact angle (〃) 후진 접촉각 (〃)Receding contact angle (〃) TX1TX1 117.1±2.9117.1±2.9 112.1±4.1112.1±4.1 < 10< 10 TX2TX2 132.4±1.5132.4±1.5 131.5±2.7131.5±2.7 141.7±3.4141.7±3.4 TX3TX3 138.9±3.0138.9±3.0 138.9±2.7138.9±2.7 139.8±3.7139.8±3.7 TX4TX4 136.9±2.0136.9±2.0 135.6±2.6135.6±2.6 140.4±3.4140.4±3.4 TX5TX5 116.9±0.7116.9±0.7 115.4±3.0115.4±3.0 < 10< 10

상기 표 3에 나타낸 바와 같이, TX1 내지 TX5의 코팅 조성물을 이용하여 코팅층(1322)을 형성한 이후, 접촉각을 측정한 결과를 확인하였다. TX1 및 TX5는 후진 접촉각이 10도 미만으로 측정되었다. 즉, 코팅 조성물을 제조하기 위한 최적의 범위를 벗어나게 되는 경우, 물방울이 피닝(Pinning)되는 현상이 발생하는 것을 확인하였다. 반면 TX2 내지 4에서는 피닝 현상이 발생하지 않음을 확인하여 우수한 방수 효과를 나타낼 수 있음을 확인하였다.As shown in Table 3, after forming the coating layer 1322 using the coating compositions TX1 to TX5, the results of measuring the contact angle were confirmed. TX1 and TX5 were measured to have receding contact angles of less than 10 degrees. In other words, it was confirmed that pinning of water droplets occurs when the coating composition falls outside the optimal range for manufacturing the coating composition. On the other hand, it was confirmed that no pinning phenomenon occurred in TX2 to 4, showing that excellent waterproofing effects can be achieved.

3. 내오염성 평가3. Contamination resistance evaluation

실내 먼지 농도가 150㎍/m³ 이상으로 유지되는 실내 환경에 상기 실시예에 따른 코팅층(1322)을 형성한 렌즈(1321)를 모형카메라에 부착하고, 7일 간 노출되도록 하였다. 비교예(Con)로는 코팅층(1322)이 형성되지 않은 동일한 렌즈(1321)를 사용하였으며, 각 실시예에 모형카메라는 실내 환경의 동일한 위치에 부착하였다.The lens 1321 on which the coating layer 1322 according to the above example was formed was attached to a model camera in an indoor environment where the indoor dust concentration was maintained at 150 ㎍/m³ or more, and exposed for 7 days. As a comparative example (Con), the same lens 1321 without the coating layer 1322 was used, and in each example, a model camera was attached to the same location in an indoor environment.

그 뒤 실험 전후의 렌즈(1321)의 오염 정도를 유관으로 평가하였고, 객관적인 비교를 위하여 코팅층(1322)이 형성되지 않은 비교예와 비교하여 그 결과를 1 내지 10의 지수로 평가하여 하기의 표 4에 나타내었다. 하기의 지수는 그 숫자가 낮을수록 내오염성이 우수한 것이다.Afterwards, the degree of contamination of the lens 1321 before and after the experiment was evaluated, and for objective comparison, the results were compared with the comparative example in which the coating layer 1322 was not formed, and the results were evaluated with an index of 1 to 10, and are shown in Table 4 below. shown in As for the indices below, the lower the number, the better the contamination resistance.

ConCon TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 내오염성Staining resistance 1010 77 33 33 33 88

(단위: 지수)(Unit: index)

상기 표 4를 참조하면, 렌즈(1321)에 코팅층(1322)을 형성하는 경우 외부 환경에 카메라를 설치하면서 렌즈(1321)가 외부로 노출되도록 하여도 높은 내오염성을 오랜 기간 분석하기 용이한 형태로 이미지 데이터를 수집할 수 있다는 점을 알 수 있다. 특히 TX2 내지 TX4에 의하는 경우 코팅층(1322)에 의한 내오염성이 매우 우수하다는 점을 확인할 수 있다.Referring to Table 4, when forming the coating layer 1322 on the lens 1321, even if the lens 1321 is exposed to the outside while installing the camera in the external environment, high contamination resistance is formed in a form that is easy to analyze for a long period of time. It can be seen that image data can be collected. In particular, in the case of TX2 to TX4, it can be confirmed that the contamination resistance by the coating layer 1322 is very excellent.

도 12는 본 발명에 따른 이미지 보정 필터의 예시를 나타낸 도면이고, 도 13은 본 발명에 따른 HSV 그래프를 나타낸 것이다.Figure 12 is a diagram showing an example of an image correction filter according to the present invention, and Figure 13 shows an HSV graph according to the present invention.

도 12에 따르면, 필터의 종류와 기능이 나타나 있다. 즉, CNN 알고리즘은 복수의 레이어를 사용하는 학습 알고리즘일 수 있다. 또한, CNN 알고리즘은 이미지 분류 정확도를 최대화하는 필터를 자동으로 학습할 수 있으며, 합성곱 계층과 폴링 계층이라고 하는 새로운 층을 풀리 커넥티드 계층 이전에 추가함으로써 원본 이미지에 필터링 기법을 적용한 뒤에 필터링된 이미지에 대해 분류 연산을 수행할 수 있다. CNN 알고리즘은 합성곱 계층 (convolutional layer)과 풀링 계층 (pooling layer)이라고 하는 새로운 층을 fully-connected 계층 이전에 추가함으로써 원본 이미지에 필터링 기법을 적용한 뒤에 필터링된 이미에 대해 분류 연산이 수행되도록 구성될 수 있다. According to Figure 12, the types and functions of filters are shown. In other words, the CNN algorithm may be a learning algorithm that uses multiple layers. In addition, the CNN algorithm can automatically learn filters that maximize image classification accuracy, and by adding new layers called convolutional layers and polling layers before the fully connected layer, the filtered image is obtained after applying the filtering technique to the original image. A classification operation can be performed on . The CNN algorithm is configured to apply a filtering technique to the original image by adding a new layer called a convolutional layer and a pooling layer before the fully-connected layer, and then perform a classification operation on the filtered image. You can.

이때, CNN 알고리즘을 사용한 이미지 필터에 대한 연산식은 아래의 수학식 1과 같다. At this time, the calculation formula for the image filter using the CNN algorithm is as shown in Equation 1 below.

[수학식 1][Equation 1]

(단, (step,

: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀, : Pixel of the ith row and jth column of the filtered image expressed as a matrix,

: 필터, : filter,

: 이미지, : image,

: 필터의 높이 (행의 수), : Height of filter (number of rows),

: 필터의 너비 (열의 수)이다. ) : Width (number of columns) of the filter. )

바람직하게는, CNN 알고리즘을 사용한 이미지 필터에 대한 연산식은 아래의 수학식 2와 같다. Preferably, the calculation equation for the image filter using the CNN algorithm is as shown in Equation 2 below.

[수학식 2][Equation 2]

(단, (step,

: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀, : Pixel of the ith row and jth column of the filtered image expressed as a matrix,

: 응용 필터 : Application filter

: 이미지, : image,

: 응용 필터의 높이 (행의 수), : height of application filter (number of rows),

: 응용 필터의 너비 (열의 수)이다.) : Width (number of columns) of the application filter.)

바람직하게는, 는 응용 필터로서 사람이 포함된 이미지 데이터를 학습하고, 이미지 데이터에 포함된 사람의 동작을 인식하기 위하여, 상기 이미지 데이터에 적용되는 필터일 수 있다. 특히, 사람의 동작에 대한 인식의 경우 형태 및 색감의 차이를 기초로 분류될 수 있으므로, 형태 및 색감 등을 효과적으로 인지하기 위한 응용 필터가 필요할 수 있다. 이러한 필요성을 충족하기 위하여 응용 필터 는 아래의 수학식 3에 의하여 연산될 수 있다. Preferably, is an application filter and may be a filter applied to the image data in order to learn image data including a person and recognize the motion of the person included in the image data. In particular, in the case of recognition of human motion, classification may be based on differences in shape and color, so an application filter may be necessary to effectively recognize shape and color. To meet these needs, application filters Can be calculated by Equation 3 below.

[수학식 3] [Equation 3]

(단, : 필터, : 계수, : 응용 필터)(step, : filter, : Coefficient, : application filter)

이때, 각 에 따른 필터는 도 12에 따른 엣지 인식 필터(Edge detection), 샤픈 필터(sharpen) 및 박스 블러 필터(Box blur) 중 어느 하나의 행렬일 수 있다. At this time, each The filter according to may be any one of the edge detection filter (Edge detection), sharpen filter (sharpen), and box blur filter (Box blur) matrix according to FIG. 12.

바람직하게, 를 구하는 연산식은 아래의 수학식 4와 같다. 이때, 는 필터의 효율을 높이기 위하여 사용되는 하나의 변수로서 해석될 수 있으며, 그 단위는 무시될 수 있다. Preferably, The calculation formula for calculating is the same as Equation 4 below. At this time, can be interpreted as a variable used to increase the efficiency of the filter, and its unit can be ignored.

[수학식 4][Equation 4]

단, 이미지 촬영에 사용된 카메라 장치의 렌즈의 직경(지름)은 mm 단위이고, 렌즈의 f값은 렌즈의 조리개값(F number)이며, HSV평균값은 이미지에 따른 색좌표를 HSV 그래프를 통하여 크기값으로 변환한 값을 평균한 값을 의미할 수 있다. HSV값에 대한 구체적인 내용은 아래와 같다. However, the diameter of the lens of the camera device used to capture the image is in mm, the f value of the lens is the aperture value (F number) of the lens, and the HSV average value is the size value of the color coordinates according to the image through the HSV graph. It can mean the average value of the converted value. Specific details about the HSV value are as follows.

도 13에 따르면, 본 발명에 따른 HSV 그래프는 지각적인 특성이 반영된 색 공간을 의미할 수 있다. H(Hue, 0~360°)는 색조를 의미할 수 있고, S(Saturation, 0~100%)는 채도를 의미할 수 있으며, V(Value, 0~100%)는 명도를 의미할 수 있다. 색조, 채도 및 명도 값을 HSV 값이라고 할 수 있으며, 이는 Adobe illustrator cc 2019 등 그래픽 툴을 이용하여 쉽게 추출될 수 있다.According to FIG. 13, the HSV graph according to the present invention may mean a color space that reflects perceptual characteristics. H(Hue, 0~360°) can mean hue, S(Saturation, 0~100%) can mean saturation, and V(Value, 0~100%) can mean brightness. . Hue, saturation, and brightness values can be referred to as HSV values, which can be easily extracted using graphic tools such as Adobe Illustrator CC 2019.

본 발명에 따른 HSV 평균값은 도 13의 HSV 3차원 좌표를 통하여 획득될 수 있다. 즉, 본 발명에 따른 HSV 평균값은 그래픽 툴을 통하여 획득된 HSV 값을 기초로 계산될 수 있다. HSV 3차원 좌표상의 원점좌표를 기준점으로 측정된 HSV 좌표의 거리값은 상술한 HSV 평균값을 구성할 수 있다. 즉, 본 발명에 따른 이미지는 사람에 대한 이미지를 포함하고, 이미지의 HSV 색상좌표는 HSV 3차원 좌표 중 일정 영역에서 분포될 수 있다. 따라서, 본 발명에 따른 HSV 평균값은 일정 영역의 색상에 대한 HSV 좌표들의 평균을 이용한 평균 좌표를 기초로 계산된 원점좌표와의 거리값을 의미할 수 있다. The HSV average value according to the present invention can be obtained through the HSV three-dimensional coordinates of FIG. 13. That is, the HSV average value according to the present invention can be calculated based on the HSV value obtained through a graphic tool. The distance value of the HSV coordinates measured with the origin coordinates on the HSV three-dimensional coordinates as the reference point can constitute the above-described HSV average value. That is, the image according to the present invention includes an image of a person, and the HSV color coordinates of the image may be distributed in a certain area among the HSV three-dimensional coordinates. Therefore, the HSV average value according to the present invention may mean the distance value from the origin coordinate calculated based on the average coordinate using the average of the HSV coordinates for the color of a certain area.

[실험예 2][Experimental Example 2]

본 발명에 따른 영상 데이터에 대하여, 본 발명의 응용 필터 F'를 적용하는 경우에 있어서 사람의 동작에 대한 인식 정확도를 살펴보면 아래와 같다. 아래 표는 해당 기술분야 전문가 10명에게 의뢰하여, 필터 적용 여부 등에 따라 인식 결과의 정확도를 수치로서 나타낸 것이다. The recognition accuracy of human motion when applying the application filter F' of the present invention to the image data according to the present invention is as follows. The table below is a numerical representation of the accuracy of recognition results based on whether or not filters are applied, based on requests from 10 experts in the relevant technology field.

필터 적용 없음No filter applied 필터 적용filter apply 필터 적용filter apply 평균 정확도 (점수)Average Accuracy (Score) 7575 9090 9797

상기 표 5는 전문가로부터 평가된 정확도에 대한 점수를 각 케이스별로 나타낸 것이다. 본 실험예는 동일한 빅데이터를 통하여 미리 학습된 학습 모듈에 대하여, 필터 적용 여부에 따른 정확도를 조사한 것이다. Table 5 above shows the accuracy scores evaluated by experts for each case. This experimental example investigates the accuracy of a learning module previously learned using the same big data, depending on whether or not a filter is applied.

또한, 본 실험예는 120명의 서로 다른 사람이 미리 정해진 10가지의 동일한 동작을 수행하는 영상 데이터로 실험된 것이며, 인식 결과값에 대하여 영상 데이터에 포함된 동작 인식의 정확도를 전문가 10명으로부터 설문 조사한 것이다. In addition, this experimental example was experimented with video data of 120 different people performing the same 10 predetermined movements, and the recognition results were based on a survey conducted by 10 experts on the accuracy of motion recognition included in the video data. will be.

표 2에서 확인할 수 있는 것과 같이, 필터 적용 없는 경우, 이미지에 대한 인식에 오류가 발생할 확률이 존재하여 상대적으로 낮은 정확도로 평가되었다. 이에 비하여, 일반 CNN 필터 F를 적용한 경우 다소 정확도가 높았으나, 응용 필터 F'를 적용하는 경우의 정확도가 현저하게 향상되는 것이 확인된다.As can be seen in Table 2, in the case where no filter was applied, there was a possibility of an error occurring in image recognition, so the accuracy was evaluated to be relatively low. In comparison, the accuracy was somewhat higher when the general CNN filter F was applied, but it was confirmed that the accuracy was significantly improved when the applied filter F' was applied.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 모델링하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 모델링되는 것도 포함한다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 명세서의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 명세서의 등가적 범위 내에서의 모든 변경은 본 명세서의 범위에 포함된다.The above-described present invention can be modeled as computer-readable code on a program-recorded medium. Computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. and also includes those modeled in the form of carrier waves (e.g., transmission over the Internet). Accordingly, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of this specification should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of this specification are included in the scope of this specification.

앞에서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 서로 배타적이거나 구별되는 것은 아니다. 앞서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 각각의 구성 또는 기능이 병용되거나 조합될 수 있다.Any or other embodiments of the present invention described above are not exclusive or distinct from each other. In certain embodiments or other embodiments of the present invention described above, each configuration or function may be used in combination or combined.

상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as restrictive in any respect and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

110: VR 장치
120: 입력 장치
130: 카메라 장치
200: 서버
110: VR device
120: input device
130: Camera device
200: server

Claims (5)

사용자에게 가상 현실 영상을 제공하는 VR 장치;
상기 사용자의 입력 신호를 획득하는 입력 장치; 및
상기 입력 신호를 수신하고, 상기 가상 현실 영상을 상기 VR 장치로 제공하는 서버;를 포함하되,
상기 가상 현실 영상은 상기 사용자의 신체 검사용 컨텐츠를 포함하고,
상기 서버는 상기 입력 신호에 기초하여 상기 사용자의 의료 정보를 생성하는 것인,
VR 신체 검사 및 이를 이용한 의료 정보 제공 및 관리 시스템.
VR devices that provide virtual reality images to users;
an input device that acquires the user's input signal; and
Including a server that receives the input signal and provides the virtual reality image to the VR device,
The virtual reality image includes content for a physical examination of the user,
The server generates medical information of the user based on the input signal,
VR physical examination and medical information provision and management system using it.
제1항에 있어서,
상기 신체 검사용 컨텐츠는,
색각 인지 레벨을 시험하는 제1 테스트, 기억력 레벨을 시험하는 제2 테스트, 청력 레벨을 시험하는 제3 테스트, 반응속도 레벨을 시험하는 제4 테스트, 순간 인지 능력을 시험하는 제5 테스트 및 뇌 인지 능력을 시험하는 제6 테스트 중 적어도 하나의 컨텐츠를 포함하는 것인,
VR 신체 검사 및 이를 이용한 의료정보 제공 및 관리 시스템.
According to paragraph 1,
The content for the physical examination is,
Test 1 tests your color vision level, Test 2 tests your memory level, Test 3 tests your hearing level, Test 4 tests your reaction speed level, Test 5 tests your momentary recognition ability and brain perception. Containing at least one content of the sixth test that tests ability,
VR physical examination and medical information provision and management system using it.
제1항에 있어서,
상기 서버는,
사용자 입력으로부터 상기 사용자의 신체 정보를 수신하고, 상기 입력 신호 및 상기 신체 정보를 기초로 상기 사용자의 의료 정보를 생성하는 것인,
VR 신체 검사 및 이를 이용한 의료정보 제공 및 관리 시스템.
According to paragraph 1,
The server is,
Receiving the user's body information from a user input, and generating medical information of the user based on the input signal and the body information,
VR physical examination and medical information provision and management system using it.
제1항에 있어서,
상기 시스템은,
상기 사용자를 촬영한 영상 데이터를 생성하는 카메라 장치;를 더 포함하는 것인,
VR 신체 검사 및 이를 이용한 의료정보 제공 및 관리 시스템.
According to paragraph 1,
The system is,
It further includes a camera device that generates image data capturing the user,
VR physical examination and medical information provision and management system using it.
제4항에 있어서,
상기 서버는,
상기 영상 데이터를 기초로 상기 사용자의 동작 정보를 생성하며, 상기 입력 신호 및 상기 동작 정보에 기초하여 상기 사용자의 의료 정보를 생성하는 것인,
VR 신체 검사 및 이를 이용한 의료정보 제공 및 관리 시스템.
According to paragraph 4,
The server is,
Generating motion information of the user based on the image data, and generating medical information of the user based on the input signal and the motion information,
VR physical examination and medical information provision and management system using it.
KR1020220039484A 2022-03-30 2022-03-30 SYSTEM FOR INFORMATION PROVISION AND MANAGEMsENT USING VR PHYSICAL EXAMINATION KR20230140796A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220039484A KR20230140796A (en) 2022-03-30 2022-03-30 SYSTEM FOR INFORMATION PROVISION AND MANAGEMsENT USING VR PHYSICAL EXAMINATION

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220039484A KR20230140796A (en) 2022-03-30 2022-03-30 SYSTEM FOR INFORMATION PROVISION AND MANAGEMsENT USING VR PHYSICAL EXAMINATION

Publications (1)

Publication Number Publication Date
KR20230140796A true KR20230140796A (en) 2023-10-10

Family

ID=88292362

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220039484A KR20230140796A (en) 2022-03-30 2022-03-30 SYSTEM FOR INFORMATION PROVISION AND MANAGEMsENT USING VR PHYSICAL EXAMINATION

Country Status (1)

Country Link
KR (1) KR20230140796A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190113265A (en) 2018-03-28 2019-10-08 주식회사 스탠스 Augmented reality display apparatus for health care and health care system using the same
KR20200036838A (en) 2020-03-30 2020-04-07 최동훈 System for rehabilitation treatment based on virtual reality(vr) and how to provide virtual reality-based rehabilitation contents to rehabilitation patients using the same system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190113265A (en) 2018-03-28 2019-10-08 주식회사 스탠스 Augmented reality display apparatus for health care and health care system using the same
KR20200036838A (en) 2020-03-30 2020-04-07 최동훈 System for rehabilitation treatment based on virtual reality(vr) and how to provide virtual reality-based rehabilitation contents to rehabilitation patients using the same system

Similar Documents

Publication Publication Date Title
CN109620185B (en) Autism auxiliary diagnosis system, device and medium based on multi-modal information
KR102477327B1 (en) Processor-implemented systems and methods for measuring cognitive ability
KR102649074B1 (en) Social interaction application for detection of neurophysiological states
TWI543744B (en) Adaptive visual performance testing system
CN107004373A (en) Information processor, information processing method and computer program
KR20150106954A (en) Brain computer interface (bci) system based on gathered temporal and spatial patterns of biophysical signals
US10390696B2 (en) Dynamic computer images for improving visual perception
JP7442596B2 (en) Platform for Biomarker Identification Using Navigation Tasks and Treatment Using Navigation Tasks
US10672292B2 (en) Method of suppressing of irrelevant stimuli
US20210045628A1 (en) Methods, systems, and computer readable media for testing visual function using virtual mobility tests
US11403289B2 (en) Systems and methods to facilitate bi-directional artificial intelligence communications
KR102158910B1 (en) Method and system for providing information of child-rearing analysing both patent and child
JP7209200B2 (en) SPATIAL PROPOSAL SYSTEM AND SPATIAL PROPOSAL METHOD
KR20230140796A (en) SYSTEM FOR INFORMATION PROVISION AND MANAGEMsENT USING VR PHYSICAL EXAMINATION
Piña-Ramirez et al. Scenario screen: A dynamic and context dependent P300 stimulator screen aimed at wheelchair navigation control
CN110786825A (en) Spatial perception detuning training system based on virtual reality visual and auditory pathway
CN109820523A (en) Psychological tester control method, device and computer readable storage medium
KR102464090B1 (en) Evaluation based on analysis of motion recognition for mild cognitive impairment and customized vr healthcare system
CN114333435A (en) Training system and training method
DE102019218302A1 (en) Detecting VR Disease
US11540764B1 (en) Group association system and method based on brainwave response to external stimulation
Piña-Ramirez et al. Research Article Scenario Screen: A Dynamic and Context Dependent P300 Stimulator Screen Aimed at Wheelchair Navigation Control
CN117677338A (en) Virtual reality techniques for characterizing visual capabilities
CN116578185A (en) User capability analysis method and device based on virtual reality and computer readable storage medium
Leister et al. Concepts for User Experience Research