KR20220019340A - Apparatus and method for monitoring emotion change through user's mobility and voice analysis in personal space observation image - Google Patents
Apparatus and method for monitoring emotion change through user's mobility and voice analysis in personal space observation image Download PDFInfo
- Publication number
- KR20220019340A KR20220019340A KR1020200099655A KR20200099655A KR20220019340A KR 20220019340 A KR20220019340 A KR 20220019340A KR 1020200099655 A KR1020200099655 A KR 1020200099655A KR 20200099655 A KR20200099655 A KR 20200099655A KR 20220019340 A KR20220019340 A KR 20220019340A
- Authority
- KR
- South Korea
- Prior art keywords
- pattern
- user
- speech
- unit
- voice
- Prior art date
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 31
- 230000008451 emotion Effects 0.000 title claims abstract description 29
- 230000008859 change Effects 0.000 title claims abstract description 18
- 238000000034 method Methods 0.000 title claims description 18
- 230000002996 emotional effect Effects 0.000 claims abstract description 53
- 238000013528 artificial neural network Methods 0.000 claims abstract description 48
- 238000004891 communication Methods 0.000 claims abstract description 19
- 239000000284 extract Substances 0.000 claims description 12
- 230000002159 abnormal effect Effects 0.000 claims description 8
- 230000005856 abnormality Effects 0.000 claims description 5
- 230000004899 motility Effects 0.000 claims description 3
- 238000012806 monitoring device Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 229920001621 AMOLED Polymers 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 208000019906 panic disease Diseases 0.000 description 2
- 208000012661 Dyskinesia Diseases 0.000 description 1
- 241000282414 Homo sapiens Species 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007519 figuring Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 230000001012 protector Effects 0.000 description 1
- 208000020016 psychiatric disease Diseases 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4803—Speech analysis specially adapted for diagnostic purposes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/746—Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7465—Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/66—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Physiology (AREA)
- Psychiatry (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Educational Technology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Mathematical Physics (AREA)
- Developmental Disabilities (AREA)
- Social Psychology (AREA)
- Psychology (AREA)
- Fuzzy Systems (AREA)
- Radiology & Medical Imaging (AREA)
- Dentistry (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Computer Networks & Wireless Communication (AREA)
- Nursing (AREA)
- Epidemiology (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
Abstract
Description
본 발명은 감정 변화를 모니터링하기 위한 기술에 관한 것으로, 보다 상세하게는, 개인 공간 관찰 영상에서 사용자의 운동성 및 음성 분석을 통한 감정 변화를 모니터링하기 위한 장치 및 방법에 관한 것이다. The present invention relates to a technique for monitoring emotional change, and more particularly, to an apparatus and method for monitoring emotional change through analysis of a user's movement and voice in a personal space observation image.
최근 인구의 노령화와 핵가족화에 따라 도움을 줄 수 있는 간병인이 없이 홀로 생활하는 독거노인 혹은 감정 기복이 심한 정신질환자의 위급상황 발생 시, 행동의 제약을 받아 긴급한 구급상황을 이루지 못해 귀중한 생명을 잃게 되는 인명구조사고의 문제가 있다. Due to the recent aging of the population and the nuclear family, in the event of an emergency, the elderly living alone or mentally ill with severe emotional ups and downs living alone without a caregiver who can help, may lose precious lives due to restrictions on their actions and failure to achieve urgent emergency situations. There is the problem of life-saving accidents.
본 발명의 목적은 개인 공간 관찰 영상에서 사용자의 운동성 및 음성 분석을 통한 감정 변화를 모니터링하기 위한 장치 및 방법을 제공함에 있다. It is an object of the present invention to provide an apparatus and method for monitoring a user's movement and emotional change through voice analysis in a personal space observation image.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 운동성 및 음성 분석을 통한 감정 변화를 모니터링하기 위한 장치는 통신을 위한 통신부와, 사용자의 소정의 공간을 지속적으로 촬영하여 관찰 영상을 생성하는 카메라부와, 상기 공간 내의 음성을 지속적으로 수신하여 관찰 음성을 생성하는 오디오부와, 상기 관찰 영상을 기초로 상기 사용자의 운동 패턴을 생성하고, 생성된 운동 패턴을 분석하는 운동성분석부와, 상기 관찰 음성을 기초로 상기 사용자의 발화 패턴을 생성하고, 생성된 발화 패턴을 분석하는 발화분석부와, 상기 운동 패턴 및 상기 발화 패턴을 기초로 상기 운동 패턴 및 상기 발화 패턴에 대응하는 사용자의 감정 상태가 학습된 신경망을 통해 상기 사용자의 감정 상태를 분석하는 감정분석부와, 상기 분석된 감정 상태를 상기 통신부를 통해 보호자장치 및 원격진료장치로 전송하는 리포트부를 포함한다. An apparatus for monitoring emotional changes through movement and voice analysis according to a preferred embodiment of the present invention for achieving the above object is a communication unit for communication and an observation image by continuously photographing a predetermined space of the user. a camera unit for generating; an audio unit for continuously receiving voices in the space to generate an observation voice; a movement analysis unit for generating an exercise pattern of the user based on the observation image and analyzing the generated exercise pattern; , a speech analysis unit that generates the user's speech pattern based on the observed voice and analyzes the generated speech pattern, and the exercise pattern and the user corresponding to the speech pattern based on the exercise pattern and the speech pattern It includes an emotion analysis unit that analyzes the emotional state of the user through a neural network in which the emotional state is learned, and a report unit that transmits the analyzed emotional state to a guardian device and a remote medical device through the communication unit.
상기 운동성분석부는 상기 사용자의 일반적인 운동 패턴을 학습한 제1 신경망을 포함하며, 실시간으로 입력되는 관찰 영상에서 이미지 인식을 통해 상기 사용자가 식별되면, 식별된 사용자의 운동 패턴을 추출하고, 상기 제1 신경망을 통해 상기 학습된 운동 패턴과 상기 추출된 운동 패턴이 차이가 있는지 여부를 판별한 후, 상기 학습된 운동 패턴과 상기 추출된 운동 패턴이 차이가 있으면, 차이가 있는 운동 패턴과 함께 운동 패턴 이상 신호를 출력하는 것을 특징으로 한다. The movement analysis unit includes a first neural network that has learned the general movement pattern of the user, and when the user is identified through image recognition from an observation image input in real time, extracts the movement pattern of the identified user, and the first After determining whether there is a difference between the learned movement pattern and the extracted movement pattern through a neural network, if there is a difference between the learned movement pattern and the extracted movement pattern, the movement pattern is abnormal with the difference movement pattern It is characterized in that it outputs a signal.
상기 운동성분석부는 상기 공간을 복수의 단위 공간으로 구분하고, 상기 관찰 영상으로부터 단위 시간 별로 사용자의 상기 단위 공간 상의 위치를 추출하여 운동 패턴을 생성하는 것을 특징으로 한다. The movement analyzer divides the space into a plurality of unit spaces, and extracts a position of the user on the unit space for each unit time from the observation image to generate an exercise pattern.
상기 발화분석부는 상기 사용자의 일반적인 발화 패턴을 학습한 제2 신경망을 포함하며, 실시간으로 입력되는 관찰 음성에서 음성 인식을 통해 상기 사용자가 식별되면, 식별된 사용자의 발화 패턴을 추출하고, 상기 제1 신경망을 통해 상기 학습된 발화 패턴과 상기 추출된 발화 패턴이 차이가 있는지 여부를 판별한 후, 상기 학습된 발화 패턴과 상기 추출된 발화 패턴이 차이가 있으면, 차이가 있는 발화 패턴과 함께 발화 패턴 이상 신호를 출력하는 것을 특징으로 한다. The speech analysis unit includes a second neural network that has learned the general speech pattern of the user, and when the user is identified through voice recognition in the observation voice input in real time, extracts the speech pattern of the identified user, and the first After determining whether there is a difference between the learned speech pattern and the extracted speech pattern through a neural network, if there is a difference between the learned speech pattern and the extracted speech pattern, the speech pattern is abnormal together with the different speech pattern It is characterized in that it outputs a signal.
상기 발화분석부는 상기 관찰 음성으로부터 단위 시간 별로 발화 속도, 음성 신호의 톤 및 음성 신호의 피치 중 적어도 하나를 추출하여 발화 패턴을 생성하는 것을 특징으로 한다. The speech analysis unit generates a speech pattern by extracting at least one of a speech speed, a tone of a speech signal, and a pitch of a speech signal for each unit time from the observed speech.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 운동성 및 음성 분석을 통한 감정 변화를 모니터링하기 위한 장치는 카메라부가 사용자의 소정의 공간을 지속적으로 촬영하여 관찰 영상을 생성하는 단계와, 오디오부가 상기 공간 내의 음성을 지속적으로 수신하여 관찰 음성을 생성하는 단계와, 운동성분석부가 상기 관찰 영상을 기초로 상기 사용자의 운동 패턴을 생성하고, 생성된 운동 패턴을 분석하는 단계와, 발화분석부가 상기 관찰 음성을 기초로 상기 사용자의 발화 패턴을 생성하고, 생성된 발화 패턴을 분석하는 단계와, 감정분석부가 상기 운동 패턴 및 상기 발화 패턴을 기초로 상기 운동 패턴 및 상기 발화 패턴에 대응하는 사용자의 감정 상태가 학습된 신경망을 통해 상기 사용자의 감정 상태를 분석하는 단계와, 리포트부가 상기 분석된 감정 상태를 상기 통신부를 통해 보호자장치 및 원격진료장치로 전송하는 단계를 포함한다. An apparatus for monitoring emotional changes through movement and voice analysis according to a preferred embodiment of the present invention for achieving the above object includes the steps of: a camera unit continuously photographing a user's predetermined space to generate an observation image; , generating an observation voice by continuously receiving the voice in the space by an audio unit, generating an exercise pattern of the user based on the observation image by a movement analysis unit, and analyzing the generated exercise pattern, speech analysis additionally generating the user's speech pattern based on the observation voice and analyzing the generated speech pattern; and an emotion analysis unit based on the exercise pattern and the speech pattern, and a user corresponding to the exercise pattern and the speech pattern. Analyzing the emotional state of the user through a neural network in which the emotional state of the user has been learned, and a report unit transmitting the analyzed emotional state to a guardian device and a telemedicine device through the communication unit.
상기 운동 패턴을 분석하는 단계는 상기 운동성분석부가 실시간으로 입력되는 관찰 영상에서 이미지 인식을 통해 상기 사용자가 식별되면, 식별된 사용자의 운동 패턴을 추출하는 단계와, 상기 운동성분석부가 상기 사용자의 일반적인 운동 패턴을 학습한 제1 신경망을 통해 상기 학습된 운동 패턴과 상기 추출된 운동 패턴이 차이가 있는지 여부를 판별하는 단계와, 상기 운동성분석부가 상기 판별 결과, 상기 학습된 운동 패턴과 상기 추출된 운동 패턴이 차이가 있으면, 차이가 있는 운동 패턴과 함께 운동 패턴 이상 신호를 출력하는 단계를 포함한다. The step of analyzing the exercise pattern may include: when the user is identified through image recognition in the observation image input by the movement analysis unit in real time, extracting the identified user's exercise pattern; Determining whether there is a difference between the learned exercise pattern and the extracted exercise pattern through a first neural network that has learned the pattern; If there is this difference, outputting a movement pattern abnormal signal together with the movement pattern with the difference.
상기 발화 패턴을 분석하는 단계는 상기 발화분석부가 실시간으로 입력되는 관찰 음성에서 음성 인식을 통해 상기 사용자가 식별되면, 식별된 사용자의 발화 패턴을 추출하는 단계와, 상기 발화분석부가 상기 사용자의 일반적인 발화 패턴을 학습한 제2 신경망을 통해 상기 학습된 발화 패턴과 상기 추출된 발화 패턴이 차이가 있는지 여부를 판별하는 단계와, 상기 발화분석부가 상기 학습된 발화 패턴과 상기 추출된 발화 패턴이 차이가 있으면, 차이가 있는 발화 패턴과 함께 발화 패턴 이상 신호를 출력하는 단계를 포함한다. The step of analyzing the speech pattern may include: when the user is identified through voice recognition in the observation voice input in real time by the speech analysis unit, extracting the identified user's speech pattern; determining whether there is a difference between the learned utterance pattern and the extracted utterance pattern through a second neural network from which the pattern has been learned; , outputting an utterance pattern abnormality signal together with a different utterance pattern.
본 발명에 따르면, 홈 환경에서도 지속적인 관찰과 모니터링이 필요한 공황장애, 우울증, 조현명 등의 정신질환자들의 지속적인 케어를 지원할 수 있다. 더욱이, 본 발명은 원거리에서도 보호자가 환자의 응급 상황을 알림 받을 수 있고, 의료진들에게 병원 밖에서의 환자 상태를 24시간 모니터링하여 전달할 수 있어서 정확한 환자 상태 파악이 가능하다. According to the present invention, it is possible to support continuous care for mentally ill patients such as panic disorder, depression, and Jo Hyun-myung, who require continuous observation and monitoring even in a home environment. Moreover, according to the present invention, the guardian can be notified of the emergency situation of the patient even from a distance, and it is possible to monitor and deliver the patient's condition outside the hospital to medical staff 24 hours a day, so that it is possible to accurately identify the patient's condition.
도 1은 본 발명의 실시예에 따른 개인 공간 관찰 영상에서 사용자의 운동성 및 음성 분석을 통한 감정 변화를 모니터링하기 위한 시스템의 구성을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 개인 공간 관찰 영상에서 사용자의 운동성 및 음성 분석을 통한 감정 변화를 모니터링하기 위한 장치의 구성을 설명하기 위한 도면이다.
도 3은 본 발명의 실시예에 따른 개인 공간 관찰 영상에서 사용자의 운동성 및 음성 분석을 통한 감정 변화를 모니터링하기 위한 장치의 세부적인 구성을 설명하기 위한 도면이다.
도 4는 본 발명의 실시예에 따른 개인 공간 관찰 영상에서 사용자의 운동성 및 음성 분석을 통한 감정 변화를 모니터링하기 위한 방법을 설명하기 위한 흐름도이다. 1 is a diagram for explaining the configuration of a system for monitoring a user's movement and emotional change through voice analysis in a personal space observation image according to an embodiment of the present invention.
2 is a diagram for explaining the configuration of an apparatus for monitoring a user's movement and emotional change through voice analysis in a personal space observation image according to an embodiment of the present invention.
3 is a diagram for explaining the detailed configuration of an apparatus for monitoring a user's movement and emotional change through voice analysis in a personal space observation image according to an embodiment of the present invention.
4 is a flowchart illustrating a method for monitoring a user's movement and emotional change through voice analysis in a personal space observation image according to an embodiment of the present invention.
본 발명의 상세한 설명에 앞서, 이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시예에 불과할 뿐, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다. Prior to the detailed description of the present invention, the terms or words used in the present specification and claims described below should not be construed as being limited to their ordinary or dictionary meanings, and the inventors should develop their own inventions in the best way. It should be interpreted as meaning and concept consistent with the technical idea of the present invention based on the principle that it can be appropriately defined as a concept of a term for explanation. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are only the most preferred embodiments of the present invention, and do not represent all the technical spirit of the present invention, so various equivalents that can be substituted for them at the time of the present application It should be understood that there may be water and variations.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음을 유의해야 한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In this case, it should be noted that in the accompanying drawings, the same components are denoted by the same reference numerals as much as possible. In addition, detailed descriptions of well-known functions and configurations that may obscure the gist of the present invention will be omitted. For the same reason, some components are exaggerated, omitted, or schematically illustrated in the accompanying drawings, and the size of each component does not fully reflect the actual size.
먼저, 본 발명의 실시예에 따른 개인 공간 관찰 영상에서 사용자의 운동성 및 음성 분석을 통한 감정 변화를 모니터링하기 위한 시스템에 대해서 설명하기로 한다. 도 1은 본 발명의 실시예에 따른 개인 공간 관찰 영상에서 사용자의 운동성 및 음성 분석을 통한 감정 변화를 모니터링하기 위한 시스템의 구성을 설명하기 위한 도면이다. First, a system for monitoring a user's movement and emotional change through voice analysis in a personal space observation image according to an embodiment of the present invention will be described. 1 is a diagram for explaining the configuration of a system for monitoring a user's movement and emotional change through voice analysis in a personal space observation image according to an embodiment of the present invention.
도 1을 참조하면, 모니터링시스템은 모니터링장치(10), 원격진료장치(20) 및 보호자장치(30)를 포함한다. Referring to FIG. 1 , the monitoring system includes a
모니터링장치(10)는 사용자의 관찰이 허용되는 지정된 공간(R)에 비접촉식 센서인, 카메라 및 마이크를 설치하고, 카메라 및 마이크를 통해 사용자의 행동을 촬영한 동영상 및 사용자의 발화를 포함하는 음성을 수집하고, 수집된 동영상 및 음성을 기초로 사용자의 행동 패턴 및 음성 패턴을 학습하고, 행동 패턴 및 음성 패턴에 대응하는 사용자의 감정 상태를 학습한다. 그런 다음, 학습된 바에 따라 사용자의 행동 패턴 및 음성 패턴을 분석하고, 행동 패턴 및 음성 패턴에 대응하는 사용자의 감정 상태를 추정한다. 이와 같이, 본 발명은 비접촉식 센서인 카메라 및 마이크만을 활용하여 사용자의 감정 상태를 분석한다. 접촉식 센서를 활용한 감정 분석은 사용자의 이동성에 제한을 주고 불편함을 줄 수 있으므로, 지속적인 기술의 활용과 확장을 제약할 수 있다. 따라서 본 발명에서는 사용자의 관찰이 허용되는 지정된 공간(R)에 비접촉식 센서를 설치하고, 사용자의 일상 데이터, 즉, 동영상과 음성을 분석하여 관찰이 필요한 사용자의 감정 상태를 추정한다. The
또한, 모니터링장치(10)는 사용자의 추정된 감정 상태를 원격진료장치(20) 및 보호자장치(30)로 전송할 수 있다. 원격진료장치(20)는 원격 진료를 위한 것으로, 사용자의 담당의가 사용하는 장치이다. 담당의는 원격진료장치(20)를 통해 사용자의 감정 상태를 지속적으로 모니터링할 수 있다. 보호자장치(30)는 사용자의 보호자가 사용하는 장치이며, 보호자는 보호자장치(30)를 통해 사용자의 감정 상태를 지속적으로 모니터링할 수 있다. Also, the
다음으로, 본 발명의 실시예에 따른 개인 공간 관찰 영상에서 사용자의 운동성 및 음성 분석을 통한 감정 변화를 모니터링하기 위한 장치에 대해서 설명하기로 한다. 도 2는 본 발명의 실시예에 따른 개인 공간 관찰 영상에서 사용자의 운동성 및 음성 분석을 통한 감정 변화를 모니터링하기 위한 장치의 구성을 설명하기 위한 도면이다. 도 2를 참조하면, 모니터링장치(10)는 통신부(11), 카메라부(12), 오디오부(13), 입력부(14), 표시부(15), 저장부(16) 및 제어부(17)를 포함한다. Next, a description will be given of an apparatus for monitoring a user's movement and emotional change through voice analysis in a personal space observation image according to an embodiment of the present invention. 2 is a diagram for explaining the configuration of an apparatus for monitoring a user's movement and emotional change through voice analysis in a personal space observation image according to an embodiment of the present invention. Referring to FIG. 2 , the
통신부(11)는 원격진료장치(20) 및 보호자장치(30)와 통신을 위한 것이다. 통신부(11)는 송신되는 신호의 주파수를 상승 변환 및 증폭하는 RF(Radio Frequency) 송신기(Tx) 및 수신되는 신호를 저 잡음 증폭하고 주파수를 하강 변환하는 RF 수신기(Rx)를 포함할 수 있다. 그리고 통신부(11)은 송신되는 신호를 변조하고, 수신되는 신호를 복조하는 모뎀(Modem)을 포함할 수 있다. The
카메라부(12)는 영상을 촬영하기 위한 것으로, 이미지 센서를 포함한다. 이미지 센서는 피사체에서 반사되는 빛을 입력받아 전기신호로 변환하며, CCD(Charged Coupled Device), CMOS(Complementary Metal-Oxide Semiconductor) 등을 기반으로 구현될 수 있다. 카메라부(12)는 아날로그-디지털 변환기(Analog to Digital Converter)를 더 포함할 수 있으며, 이미지 센서에서 출력되는 전기신호를 디지털 수열로 변환하여 제어부(17)로 출력할 수 있다. 특히, 카메라부(12)는 3D 센서를 포함한다. 3D 센서는 비접촉 방식으로 영상의 각 픽셀에 대한 3차원 좌표를 획득하기 위한 센서이다. 카메라부(12)가 객체를 촬영하면, 3D 센서는 촬영된 객체의 영상의 각 픽셀에 대한 3차원 좌표를 검출하고, 검출된 3차원 좌표를 제어부(17)로 전달한다. 3D 센서는 레이저, 적외선, 가시광 등을 이용하는 다양한 방식의 센서를 이용할 수 있다. 이러한 3D 센서는 TOP(Time of Flight), 위상변위(Phase-shift) 및 Online Waveform Analysis 중 어느 하나를 이용하는 레이저 방식 3차원 스캐너, 광 삼각법을 이용하는 레이저 방식 3차원 스캐너, 백색광 혹은 변조광을 이용하는 광학방식 3차원 스캐너, Handheld Real Time 방식의 PHOTO, 광학방식 3차원 스캐너, Pattern Projection 혹은 Line Scanning을 이용하는 광학방식, 레이저 방식 전신 스캐너, 사진 측량(Photogrammetry)을 이용하는 사진방식 스캐너, 키네틱(Kinect Fusion)을 이용하는 실시간(Real Time) 스캐너 등을 예시할 수 있다. 특히, 카메라부(12)는 사용자의 소정의 공간을 지속적으로 촬영하여 관찰 영상을 생성할 수 있다. 이러한 관찰 영상은 제어부(17)에 제공된다. The
오디오부(13)는 음성 신호를 출력하기 위한 스피커(SPK)와, 음성과 같은 음성 신호를 입력받기 위한 마이크(MIKE)를 포함한다. 오디오부(13)는 제어부(17)의 제어에 따라 음성 신호를 스피커(SPK)를 통해 출력하거나, 마이크(MIKE)를 통해 입력된 음성 신호를 제어부(17)로 전달할 수 있다. 특히, 오디오부(13)는 사용자의 소정의 공간 내의 음성 신호를 지속적으로 수신하여 관찰 음성을 생성할 수 있다. 그런 다음, 오디오부(13)는 생성된 관찰 음성을 제어부(17)에 제공한다. The
입력부(14)는 모니터링장치(10)을 제어하기 위한 사용자의 키 조작을 입력받고 입력 신호를 생성하여 제어부(17)에 전달한다. 입력부(14)는 모니터링장치(10)를 제어하기 위한 각 종 키들을 포함할 수 있다. 입력부(14)는 표시부(15)가 터치스크린으로 이루어진 경우, 각 종 키들의 기능이 표시부(15)에서 이루어질 수 있으며, 터치스크린만으로 모든 기능을 수행할 수 있는 경우, 입력부(14)는 생략될 수도 있다. The
표시부(15)는 모니터링장치(10)의 메뉴, 입력된 데이터, 기능 설정 정보 및 기타 다양한 정보를 사용자에게 시각적으로 제공한다. 표시부(15)는 모니터링장치(10)의 부팅 화면, 대기 화면, 메뉴 화면, 등의 화면을 출력하는 기능을 수행한다. 특히, 표시부(15)는 본 발명의 실시예에 따른 검침 영상을 화면으로 출력하는 기능을 수행한다. 이러한 표시부(15)는 액정표시장치(LCD, Liquid Crystal Display), 유기 발광 다이오드(OLED, Organic Light Emitting Diodes), 능동형 유기 발광 다이오드(AMOLED, Active Matrix Organic Light Emitting Diodes) 등으로 형성될 수 있다. 한편, 표시부(15)는 터치스크린으로 구현될 수 있다. 이러한 경우, 표시부(15)는 터치센서를 포함한다. 터치센서는 사용자의 터치 입력을 감지한다. 터치센서는 정전용량 방식(capacitive overlay), 압력식, 저항막 방식(resistive overlay), 적외선 감지 방식(infrared beam) 등의 터치 감지 센서로 구성되거나, 압력 감지 센서(pressure sensor)로 구성될 수도 있다. 상기 센서들 이외에도 물체의 접촉 또는 압력을 감지할 수 있는 모든 종류의 센서 기기가 본 발명의 터치센서로 이용될 수 있다. 터치센서는 사용자의 터치 입력을 감지하고, 감지 신호를 발생시켜 제어부(17)로 전송한다. 특히, 표시부(15)가 터치스크린으로 이루어진 경우, 입력부(14) 기능의 일부 또는 전부는 표시부(15)를 통해 이루어질 수 있다. The
저장부(16)는 모니터링장치(10)의 동작에 필요한 프로그램 및 데이터를 저장하는 역할을 수행한다. 특히, 저장부(16)는 모니터링장치(10)의 사용에 따라 발생하는 사용자 데이터, 예컨대, 운동 패턴, 발화 패턴 및 감정 분석 결과 등이 저장되는 영역이다. 저장부(160)에 저장되는 각 종 데이터는 사용자의 조작에 따라, 삭제, 변경, 추가될 수 있다. The
제어부(17)는 모니터링장치(10)의 전반적인 동작 및 모니터링장치(10)의 내부 블록들 간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 또한, 제어부(17)는 기본적으로, 모니터링장치(10)의 각 종 기능을 제어하는 역할을 수행한다. 제어부(17)는 CPU(Central Processing Unit), BP(baseband processor), AP(application processor), GPU(Graphic Processing Unit), DSP(Digital Signal Processor) 등을 예시할 수 있다. The
그러면, 이러한 제어부(17)의 구성 및 동작에 대해 보다 상세하게 설명하기로 한다. 도 3은 본 발명의 실시예에 따른 개인 공간 관찰 영상에서 사용자의 운동성 및 음성 분석을 통한 감정 변화를 모니터링하기 위한 장치의 세부적인 구성을 설명하기 위한 도면이다. 도 3을 참조하면, 제어부(17)는 운동성분석부(100), 발화분석부(200), 감정분석부(300) 및 리포트부(400)를 포함한다. 운동성분석부(100)는 제1 신경망(NN1)을 포함하며, 발화분석부(200)는 제2 신경망(NN1)을 포함하며, 감정분석부(300)는 제3 신경망(NN1)을 포함한다. Then, the configuration and operation of the
제1 신경망(NN1), 제2 신경망(NN1) 및 제3 신경망(NN1)은 모두 인공신경망(ANN: Artificial Neural Network)이다. 이러한 인공신경망(ANN)은 다양한 종류의 알고리즘이 적용될 수 있지만, 데이터를 분류하는 구조를 가지는 모든 종류의 알고리즘이 적용될 수 있다. The first neural network NN1 , the second neural network NN1 , and the third neural network NN1 are all artificial neural networks (ANNs). Although various types of algorithms may be applied to such an artificial neural network (ANN), all types of algorithms having a structure for classifying data may be applied.
운동성분석부(100)는 카메라부(12)로부터 사용자의 소정의 공간(R)을 지속적으로 촬영하여 생성된 관찰 영상을 수신할 수 있다. 그러면, 운동성분석부(100)는 수신된 관찰 영상을 기초로 사용자의 운동 패턴을 생성할 수 있다. 운동성분석부(100)는 사용자의 소정의 공간(R)을 복수의 단위 공간(r1, r2, ... rn)으로 구분하고, 구분된 단위 공간(r1, r2, ... rn)을 기반으로 운동 패턴을 도출한다. 본 발명의 실시예에서 관찰 영상은 동영상이며, 운동성분석부(100)는 관찰 영상으로부터 단위 시간 별로 사용자의 단위 공간 상의 위치를 추출하여 운동 패턴을 생성한다. 일례로, 사용자의 소정의 공간의 바닥면을 소정수의 행과 열을 가지는 격자 형식으로 분할하여 복수(예컨대, 5×5 = 25개)의 단위 사각형으로 구분하고, 구분된 각각의 단위 사각형을 밑면으로 하고 높이는 바닥에서 천장까지인 육면체가 차지하는 공간을 단위 공간으로 지정할 수 있다. 이와 같이, 소정의 공간이 격자 형식으로 분할되어 행(5)과 열(5)을 가지는 25개의 단위 공간으로 구분된 경우, 단위 공간 상의 사용자의 위치는 행(row)과 열(row)의 좌표로 표현할 수 있다. 여기서, 단위 시간이 10초라고 가정하면, 운동성분석부(100)는 관찰 영상에서 매 10초마다 사용자의 단위 공간 상의 위치를 추출하여 매 10초마다 사용자가 위치한 단위 공간의 좌표(행, 열)를 운동 패턴으로 도출할 수 있다. 그러면, 운동성분석부(100)는 시간의 흐름에 따라 사용자가 위치한 단위 공간의 좌표를 지속적으로 기록하여 운동 패턴을 생성한다. The
운동성분석부(100)는 카메라부(12)를 통해 사용자의 일상을 촬영한 관찰 영상으로부터 운동 패턴을 생성하고, 생성된 운동 패턴을 학습 데이터로 이용하여 제1 신경망(NN1)을 학습시킨다. 이에 따라, 제1 신경망(NN1)은 해당 사용자의 일반적인 운동 패턴을 학습할 수 있다. The
전술한 바와 같이, 제1 신경망(NN1)이 사용자의 일반적인 운동 패턴을 학습한 상태에서, 운동성분석부(100)는 카메라부(12)를 통해 실시간으로 관찰 영상을 입력 받을 수 있다. 그러면, 운동성분석부(100)는 실시간으로 입력되는 관찰 영상에서 이미지 인식을 통해 사용자를 식별한다. 사용자가 식별되면, 운동성분석부(100)는 실시간으로 입력되는 관찰 영상에서 식별된 사용자의 운동 패턴을 추출한다. 이어서, 운동성분석부(100)는 제1 신경망(NN1)을 통해 학습된 운동 패턴과 추출된 운동 패턴이 차이가 있는지 여부를 판별한다. 이에 따라, 학습된 운동 패턴과 추출된 운동 패턴이 차이가 있으면, 운동성분석부(100)는 차이가 있는 운동 패턴과 함께 운동 패턴 이상 신호를 출력한다. 출력된 차이가 있는 운동 패턴을 포함하는 운동 패턴 이상 신호는 감정분석부(300)에 입력된다. 반면, 학습된 운동 패턴과 추출된 운동 패턴이 차이가 없으면, 운동성분석부(100)는 해당 운동 패턴을 출력한다. 출력된 운동 패턴은 감정분석부(300)에 입력된다. As described above, in a state in which the first neural network NN1 has learned the user's general movement pattern, the
발화분석부(200)는 오디오부(13)로부터 사용자의 소정의 공간에서 발생되는 음성을 지속적으로 수신하여 생성한 관찰 음성을 수신하고, 수신된 관찰 음성을 기초로 사용자의 음성 패턴을 생성할 수 있다. 즉, 발화분석부(200)는 오디오부(13)로부터 사용자의 소정의 공간(R)에서 발생되는 음성을 지속적으로 수신하여 생성한 관찰 음성을 수신하고, 수신된 관찰 음성을 기초로 사용자의 음성 패턴을 생성할 수 있다. 발화분석부(200)는 관찰 음성으로부터 단위 시간 별로 발화 속도, 음성 신호의 톤 및 음성 신호의 피치 중 적어도 하나를 추출하여 발화 패턴을 생성한다. 여기서, 단위 시간이 10초라고 가정하면, 발화분석부(200)는 관찰 음성에서 매 10초마다 발화 속도, 음성 신호의 톤 및 음성 신호의 피치를 추출하여 추출한 운동 패턴으로 도출할 수 있다. 그러면, 운동성분석부(100)는 시간의 흐름에 따라 발화 속도, 음성 신호의 톤 및 음성 신호의 피치를 지속적으로 기록하여 발화 패턴을 생성한다. The
발화분석부(200)는 오디오부(13)를 통해 사용자의 일상으로부터 수집되어 생성된 관찰 음성으로부터 음성 패턴을 생성하고, 생성된 음성 패턴을 학습 데이터로 이용하여 제2 신경망(NN2)을 학습시킨다. 이에 따라, 제2 신경망(NN2)은 해당 사용자의 일반적인 음성 패턴을 학습할 수 있다. The
전술한 바와 같이, 제2 신경망(NN2)이 사용자의 일반적인 음성 패턴을 학습한 상태에서, 발화분석부(200)는 오디오부(13)로부터 실시간으로 관찰 음성을 입력 받을 수 있다. 그러면, 발화분석부(200)는 실시간으로 입력되는 관찰 음성에서 음성 인식을 통해 사용자를 식별한다. 사용자가 식별되면, 발화분석부(200)는 실시간으로 입력되는 관찰 음성에서 식별된 사용자의 음성 패턴을 추출한다. 이어서, 발화분석부(200)는 제2 신경망(NN2)을 통해 학습된 음성 패턴과 추출된 음성 패턴이 차이가 있는지 여부를 확인한다. 이에 따라, 기 저장된 음성 패턴과 비교하여 추출된 음성 패턴이 차이가 있으면, 발화분석부(200)는 차이가 있는 음성 패턴과 함께 음성 패턴 이상 신호를 출력한다. 출력된 해당 음성 패턴을 포함하는 음성 패턴 이상 신호는 감정분석부(300)에 입력된다. 반면, 학습된 음성 패턴과 추출된 음성 패턴이 임계치 이상의 차이가 없으면, 발화분석부(200)는 해당 음성 패턴을 출력한다. 출력된 음성 패턴은 감정분석부(300)에 입력된다. As described above, in a state in which the second neural network NN2 has learned the user's general voice pattern, the
감정분석부(300)는 운동성분석부(100)로부터 수신되는 운동 패턴 및 발화분석부(200)로부터 수신되는 발화 패턴을 기초로 제3 신경망(NN3)을 통해 사용자의 감정 상태를 분석한다. 제3 신경망(NN3)을 통해 사용자의 감정 상태를 분석하기 위하여 학습(machine learning)이 요구된다. The
학습이 이루어지는 동안 모니터링장치(10)의 관리자에 의해 운동성분석부(100)로부터 수신되는 운동 패턴 및 발화분석부(200)로부터 수신되는 발화 패턴에 대응하는 레이블로 감정 상태(기쁨, 행복, 놀람, 슬픔, 분노, 혐오 등)가 입력된다. 이에 따라, 감정분석부(300)는 운동 패턴 및 발화 패턴에 대응하여 입력된 레이블을 매핑하여 학습 데이터를 생성한다. 그런 다음, 생성된 학습 데이터를 이용하여 제3 신경망(NN3)이 운동 패턴 및 발화 패턴에 따라 사용자의 감정 상태를 추정하도록 제3 신경망(NN3)을 학습시킨다. 전술한 바와 같이, 학습이 이루어진 후, 감정분석부(300)는 실시간으로 운동성분석부(100) 및 발화분석부(200)로부터 운동 패턴 및 발화 패턴을 수신할 수 있다. 그러면, 감정분석부(300)는 제3 신경망(NN3)을 통해 수신된 운동 패턴 및 발화 패턴에 대응하는 사용자의 감정 상태를 추정한다. 감정분석부(300)는 추정된 감정 상태를 리포트부(400)로 출력한다. During learning, the emotional state (joy, happiness, surprise, sadness, anger, disgust, etc.) are entered. Accordingly, the
리포트부(400)는 감정분석부(300)가 추정한 사용자의 감정 상태를 수신할 수 있다. 그러면, 리포트부(400)는 수신된 사용자의 감정 상태를 통신부(11)를 통해 보호자가 사용하는 보호자장치(30) 및 의료진이 사용하는 원격진료장치(20)로 주기적으로 전송할 수 있다. The
다음으로, 본 발명의 실시예에 따른 개인 공간 관찰 영상에서 사용자의 운동성 및 음성 분석을 통한 감정 변화를 모니터링하기 위한 방법을 설명하기로 한다. 도 4는 본 발명의 실시예에 따른 개인 공간 관찰 영상에서 사용자의 운동성 및 음성 분석을 통한 감정 변화를 모니터링하기 위한 방법을 설명하기 위한 흐름도이다. 도 4에서, 앞서 설명된 바와 같이, 제1 신경망(NN1), 제2 신경망(NN2) 및 제3 신경망(NN3) 모두 학습이 이루어진 상태라고 가정한다. Next, a method for monitoring a user's movement and emotional change through voice analysis in a personal space observation image according to an embodiment of the present invention will be described. 4 is a flowchart illustrating a method for monitoring a user's movement and emotional change through voice analysis in a personal space observation image according to an embodiment of the present invention. In FIG. 4 , as described above, it is assumed that all of the first neural network NN1 , the second neural network NN2 , and the third neural network NN3 are in a learning state.
도 4를 참조하면, 카메라부(12)는 S110 단계에서 사용자의 소정의 공간(R)을 지속적으로 촬영하여 관찰 영상을 생성한다. 운동성분석부(100)는 S120 단계에서 카메라부(12)로부터 실시간으로 입력되는 관찰 영상으로부터 운동 패턴을 추출하고, 제1 신경망(NN1)을 통해 추출된 운동 패턴을 분석한다. 이러한 S120 단계에 대해 보다 구체적으로 설명하면 다음과 같다. 운동성분석부(100)는 실시간으로 입력되는 관찰 영상에서 이미지 인식을 통해 사용자를 식별하고, 실시간으로 입력되는 관찰 영상에서 식별된 사용자의 운동 패턴을 추출한다. 이어서, 운동성분석부(100)는 제1 신경망(NN1)을 통해 학습된 운동 패턴과 추출된 운동 패턴이 차이가 있는지 여부를 판별한다. 이에 따라, 학습된 운동 패턴과 추출된 운동 패턴이 차이가 있으면, 운동성분석부(100)는 차이가 있는 운동 패턴과 함께 운동 패턴 이상 신호를 출력하여 감정분석부(300)에 입력한다. 반면, 학습된 운동 패턴과 추출된 운동 패턴이 차이가 없으면, 운동성분석부(100)는 해당 운동 패턴을 출력하여 감정분석부(300)에 입력한다. Referring to FIG. 4 , the
한편, 오디오부(13)는 S130 단계에서 사용자의 소정의 공간(R) 내의 음성을 지속적으로 수신하여 관찰 음성을 생성하고 이를 출력한다. 그러면, 발화분석부(200)는 S140 단계에서 오디오부(13)로부터 실시간으로 입력되는 관찰 음성으로부터 발화 패턴을 추출하고, 제2 신경망(NN2)을 통해 추출한 발화 패턴을 분석한다. 이러한 S140 단계에 대해 보다 상세하게 설명하면 다음과 같다. Meanwhile, the
발화분석부(200)는 실시간으로 입력되는 관찰 음성에서 음성 인식을 통해 사용자를 식별하고, 실시간으로 입력되는 관찰 음성에서 식별된 사용자의 음성 패턴을 추출한다. 이어서, 발화분석부(200)는 제2 신경망(NN2)을 통해 학습된 음성 패턴과 추출된 음성 패턴이 차이가 있는지 여부를 확인한다. 이에 따라, 기 저장된 음성 패턴과 비교하여 추출된 음성 패턴이 차이가 있으면, 발화분석부(200)는 차이가 있는 음성 패턴과 함께 음성 패턴 이상 신호를 출력하여 감정분석부(300)에 입력한다. 반면, 학습된 음성 패턴과 추출된 음성 패턴이 임계치 이상의 차이가 없으면, 발화분석부(200)는 해당 음성 패턴을 출력하여 감정분석부(300)에 입력한다. The
감정분석부(300)는 S150 단계에서 운동성분석부(100)로부터 수신되는 운동 패턴 및 발화분석부(200)로부터 수신되는 발화 패턴을 분석하여 제3 신경망(NN3)을 통해 사용자의 감정 상태를 추정하고, 추정된 감정 상태를 출력하여 리포트부(400)에 입력한다. The
리포트부(400)는 S150 단계에서 감정분석부(300)로부터 수신된 감정 상태를 통신부(11)를 통해 보호자가 사용하는 보호자장치(30) 및 의료진이 사용하는 원격진료장치(20)로 전송한다. The
한편, 앞서 설명된 본 발명의 실시예에 따른 방법은 다양한 컴퓨터수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. Meanwhile, the method according to the embodiment of the present invention described above may be implemented in the form of a program readable by various computer means and recorded in a computer readable recording medium. Here, the recording medium may include a program command, a data file, a data structure, etc. alone or in combination. The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. For example, the recording medium includes magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floppy disks ( magneto-optical media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include high-level languages that can be executed by a computer using an interpreter or the like as well as machine language such as generated by a compiler. Such hardware devices may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
인간 내면의 상태를 파악하기 위한 감정 분석 기술은 뇌파, 체온, 심박 등 다양한 접촉식 센서 및 고가의 장비들을 기반의 분석이 주를 이루었기 때문에, 의료기관이나 연구소 등에서만 분석할 수 있다. 감정 기복이 심한 정신질환자들이나 독거노인의 상시 케어를 위해 가족 및 보호자들은 어려움을 호소한다. 진료 시간에 관찰하는 환자의 상태만으로 정신질환 의료진들이 환자의 정확한 상태 파악에 어려움이 많거나, 의료진의 경험에 전적으로 의존할 수밖에 없다. 하지만, 본 발명은 홈 환경에서도 지속적인 관찰과 모니터링이 필요한 공황장애, 우울증, 조현명 등의 정신질환자들의 지속적인 케어를 지원할 수 있다. 더욱이, 본 발명은 원거리에서도 보호자가 환자의 응급 상황을 알림 받을 수 있고, 의료진들에게 병원 밖에서의 환자 상태를 24시간 모니터링하여 전달할 수 있어서 정확한 환자 상태 파악이 가능하다. Emotion analysis technology to understand the inner state of human beings can only be analyzed at medical institutions or research institutes, as analysis based on various contact sensors and expensive equipment such as brain waves, body temperature, and heart rate is the main method. Families and caregivers complain of difficulties for regular care of mentally ill people with severe emotional ups and downs or the elderly living alone. Medical staff with mental disorders have a lot of difficulty in figuring out the exact condition of a patient only by observing the patient's condition during treatment hours, or they have no choice but to rely entirely on the experience of the medical staff. However, the present invention can support continuous care for mentally ill patients such as panic disorder, depression, and Jo Hyeon-myung, who require continuous observation and monitoring even in a home environment. Furthermore, according to the present invention, a guardian can be notified of an emergency situation of a patient even from a distance, and it is possible to monitor and deliver the patient's condition outside the hospital to medical staff 24 hours a day, so that it is possible to accurately identify the patient's condition.
이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 이와 같이, 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 균등론에 따라 다양한 변화와 수정을 가할 수 있음을 이해할 것이다. Although the present invention has been described above using several preferred embodiments, these examples are illustrative and not restrictive. As such, those of ordinary skill in the art to which the present invention pertains will understand that various changes and modifications can be made in accordance with the doctrine of equivalents without departing from the spirit of the present invention and the scope of rights set forth in the appended claims.
10: 모니터링장치
11: 통신부
12: 카메라부
13: 오디오부
14: 입력부
15: 표시부
16: 저장부
17: 제어부
20: 원격진료장치
30: 보호자장치
100: 운동성분석부
200: 발화분석부
300: 감정분석부
400: 리포트부 10: monitoring device
11: Ministry of Communications
12: camera unit
13: audio part
14: input
15: display
16: storage
17: control unit
20: telemedicine device
30: protector device
100: motility analysis unit
200: speech analysis unit
300: emotion analysis unit
400: report unit
Claims (8)
통신을 위한 통신부;
사용자의 소정의 공간을 지속적으로 촬영하여 관찰 영상을 생성하는 카메라부;
상기 공간 내의 음성을 지속적으로 수신하여 관찰 음성을 생성하는 오디오부;
상기 관찰 영상을 기초로 상기 사용자의 운동 패턴을 생성하고, 생성된 운동 패턴을 분석하는 운동성분석부;
상기 관찰 음성을 기초로 상기 사용자의 발화 패턴을 생성하고, 생성된 발화 패턴을 분석하는 발화분석부;
상기 운동 패턴 및 상기 발화 패턴을 기초로 상기 운동 패턴 및 상기 발화 패턴에 대응하는 사용자의 감정 상태가 학습된 신경망을 통해 상기 사용자의 감정 상태를 분석하는 감정분석부; 및
상기 분석된 감정 상태를 상기 통신부를 통해 보호자장치 및 원격진료장치로 전송하는 리포트부;
를 포함하는 것을 특징으로 하는
모니터링하기 위한 장치. In the device for monitoring emotional change through movement and voice analysis,
communication unit for communication;
a camera unit that continuously captures a user's predetermined space to generate an observation image;
an audio unit for continuously receiving a voice in the space to generate an observation voice;
a movement analysis unit for generating the user's movement pattern based on the observation image and analyzing the generated movement pattern;
a speech analysis unit generating the user's speech pattern based on the observed voice and analyzing the generated speech pattern;
an emotion analysis unit for analyzing the user's emotional state through a neural network in which the exercise pattern and the user's emotional state corresponding to the utterance pattern are learned based on the exercise pattern and the utterance pattern; and
a report unit for transmitting the analyzed emotional state to a guardian device and a remote medical device through the communication unit;
characterized in that it comprises
device for monitoring.
상기 운동성분석부는
상기 사용자의 일반적인 운동 패턴을 학습한 제1 신경망을 포함하며,
실시간으로 입력되는 관찰 영상에서 이미지 인식을 통해 상기 사용자가 식별되면,
식별된 사용자의 운동 패턴을 추출하고,
상기 제1 신경망을 통해 상기 학습된 운동 패턴과 상기 추출된 운동 패턴이 차이가 있는지 여부를 판별한 후,
상기 학습된 운동 패턴과 상기 추출된 운동 패턴이 차이가 있으면,
차이가 있는 운동 패턴과 함께 운동 패턴 이상 신호를 출력하는 것을 특징으로 하는
모니터링하기 위한 장치. According to claim 1,
The motility analysis unit
It includes a first neural network that learned the user's general movement pattern,
When the user is identified through image recognition in the observation image input in real time,
Extract the identified user's exercise pattern,
After determining whether there is a difference between the learned exercise pattern and the extracted exercise pattern through the first neural network,
If there is a difference between the learned exercise pattern and the extracted exercise pattern,
Characterized in outputting a movement pattern abnormal signal together with a different movement pattern
device for monitoring.
상기 운동성분석부는
상기 공간을 복수의 단위 공간으로 구분하고,
상기 관찰 영상으로부터 단위 시간 별로 사용자의 상기 단위 공간 상의 위치를 추출하여 운동 패턴을 생성하는 것을 특징으로 하는
모니터링하기 위한 장치. 3. The method of claim 2,
The motility analysis unit
dividing the space into a plurality of unit spaces,
Extracting the user's position on the unit space for each unit time from the observation image to generate an exercise pattern
device for monitoring.
상기 발화분석부는
상기 사용자의 일반적인 발화 패턴을 학습한 제2 신경망을 포함하며,
실시간으로 입력되는 관찰 음성에서 음성 인식을 통해 상기 사용자가 식별되면,
식별된 사용자의 발화 패턴을 추출하고,
상기 제1 신경망을 통해 상기 학습된 발화 패턴과 상기 추출된 발화 패턴이 차이가 있는지 여부를 판별한 후,
상기 학습된 발화 패턴과 상기 추출된 발화 패턴이 차이가 있으면,
차이가 있는 발화 패턴과 함께 발화 패턴 이상 신호를 출력하는 것을 특징으로 하는
모니터링하기 위한 장치. According to claim 1,
The speech analysis unit
and a second neural network that has learned the user's general speech pattern,
When the user is identified through voice recognition in the observation voice input in real time,
Extracting the identified user's speech pattern,
After determining whether there is a difference between the learned speech pattern and the extracted speech pattern through the first neural network,
If there is a difference between the learned speech pattern and the extracted speech pattern,
Characterized in outputting a signal abnormality of the utterance pattern together with the utterance pattern with a difference
device for monitoring.
상기 발화분석부는
상기 관찰 음성으로부터 단위 시간 별로 발화 속도, 음성 신호의 톤 및 음성 신호의 피치 중 적어도 하나를 추출하여 발화 패턴을 생성하는 것을 특징으로 하는
모니터링하기 위한 장치. According to claim 1,
The speech analysis unit
and generating a speech pattern by extracting at least one of a speech speed, a tone of a speech signal, and a pitch of a speech signal for each unit time from the observed speech.
device for monitoring.
카메라부가 사용자의 소정의 공간을 지속적으로 촬영하여 관찰 영상을 생성하는 단계;
오디오부가 상기 공간 내의 음성을 지속적으로 수신하여 관찰 음성을 생성하는 단계;
운동성분석부가 상기 관찰 영상을 기초로 상기 사용자의 운동 패턴을 생성하고, 생성된 운동 패턴을 분석하는 단계;
발화분석부가 상기 관찰 음성을 기초로 상기 사용자의 발화 패턴을 생성하고, 생성된 발화 패턴을 분석하는 단계;
감정분석부가 상기 운동 패턴 및 상기 발화 패턴을 기초로 상기 운동 패턴 및 상기 발화 패턴에 대응하는 사용자의 감정 상태가 학습된 신경망을 통해 상기 사용자의 감정 상태를 분석하는 단계; 및
리포트부가 상기 분석된 감정 상태를 상기 통신부를 통해 보호자장치 및 원격진료장치로 전송하는 단계;
를 포함하는 것을 특징으로 하는
모니터링하기 위한 방법. In the device for monitoring emotional change through movement and voice analysis,
generating an observation image by continuously photographing a predetermined space of the user by the camera unit;
generating an observation voice by continuously receiving a voice in the space by an audio unit;
generating an exercise pattern of the user based on the observation image by a movement analysis unit, and analyzing the generated exercise pattern;
generating, by a speech analysis unit, the speech pattern of the user based on the observed voice, and analyzing the generated speech pattern;
analyzing, by an emotion analysis unit, the emotional state of the user based on the exercise pattern and the utterance pattern, through a neural network in which the exercise pattern and the user's emotional state corresponding to the utterance pattern are learned; and
transmitting the analyzed emotional state by the report unit to the guardian device and the remote medical device through the communication unit;
characterized in that it comprises
Methods for monitoring.
상기 운동 패턴을 분석하는 단계는
상기 운동성분석부가 실시간으로 입력되는 관찰 영상에서 이미지 인식을 통해 상기 사용자가 식별되면, 식별된 사용자의 운동 패턴을 추출하는 단계;
상기 운동성분석부가 상기 사용자의 일반적인 운동 패턴을 학습한 제1 신경망을 통해 상기 학습된 운동 패턴과 상기 추출된 운동 패턴이 차이가 있는지 여부를 판별하는 단계; 및
상기 운동성분석부가 상기 판별 결과, 상기 학습된 운동 패턴과 상기 추출된 운동 패턴이 차이가 있으면, 차이가 있는 운동 패턴과 함께 운동 패턴 이상 신호를 출력하는 단계;
를 포함하는 것을 특징으로 하는
모니터링하기 위한 방법. 7. The method of claim 6,
The step of analyzing the movement pattern is
when the user is identified through image recognition in the observation image input by the movement analysis unit in real time, extracting the identified user's movement pattern;
determining whether there is a difference between the learned exercise pattern and the extracted exercise pattern through the first neural network in which the exercise analyzer has learned the general exercise pattern of the user; and
outputting an exercise pattern abnormality signal together with the exercise pattern having a difference when the exercise pattern is different from the learned exercise pattern and the extracted exercise pattern as a result of the determination by the movement analysis unit;
characterized in that it comprises
Methods for monitoring.
상기 발화 패턴을 분석하는 단계는
상기 발화분석부가 실시간으로 입력되는 관찰 음성에서 음성 인식을 통해 상기 사용자가 식별되면, 식별된 사용자의 발화 패턴을 추출하는 단계;
상기 발화분석부가 상기 사용자의 일반적인 발화 패턴을 학습한 제2 신경망을 통해 상기 학습된 발화 패턴과 상기 추출된 발화 패턴이 차이가 있는지 여부를 판별하는 단계; 및
상기 발화분석부가 상기 학습된 발화 패턴과 상기 추출된 발화 패턴이 차이가 있으면, 차이가 있는 발화 패턴과 함께 발화 패턴 이상 신호를 출력하는 단계;
를 포함하는 것을 특징으로 하는
모니터링하기 위한 방법. 7. The method of claim 6,
The step of analyzing the speech pattern is
extracting, by the speech analysis unit, the speech pattern of the identified user when the user is identified through speech recognition from the observation voice input in real time;
determining, by the speech analysis unit, whether there is a difference between the learned speech pattern and the extracted speech pattern through a second neural network from which the user's general speech pattern has been learned; and
outputting, by the utterance analysis unit, a utterance pattern abnormality signal together with the difference utterance pattern when the learned utterance pattern and the extracted utterance pattern are different;
characterized in that it comprises
Methods for monitoring.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200099655A KR20220019340A (en) | 2020-08-10 | 2020-08-10 | Apparatus and method for monitoring emotion change through user's mobility and voice analysis in personal space observation image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200099655A KR20220019340A (en) | 2020-08-10 | 2020-08-10 | Apparatus and method for monitoring emotion change through user's mobility and voice analysis in personal space observation image |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220019340A true KR20220019340A (en) | 2022-02-17 |
Family
ID=80493236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200099655A KR20220019340A (en) | 2020-08-10 | 2020-08-10 | Apparatus and method for monitoring emotion change through user's mobility and voice analysis in personal space observation image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220019340A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102606136B1 (en) * | 2022-09-26 | 2023-11-23 | 주식회사 랩큐 | Artificial intelligence non-face-to-face mental health care system |
KR20240049147A (en) | 2022-10-07 | 2024-04-16 | 주식회사 필드큐어 | Apparatus for measuring temperature in electrode array |
KR20240058029A (en) | 2022-10-25 | 2024-05-03 | 주식회사 필드큐어 | System and Method for delivering the Electric Field |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101952281B1 (en) | 2017-11-20 | 2019-02-26 | 에스케이브로드밴드주식회사 | Sensing apparatus for indoor activity of seniar people, and control method thereof |
-
2020
- 2020-08-10 KR KR1020200099655A patent/KR20220019340A/en active Search and Examination
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101952281B1 (en) | 2017-11-20 | 2019-02-26 | 에스케이브로드밴드주식회사 | Sensing apparatus for indoor activity of seniar people, and control method thereof |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102606136B1 (en) * | 2022-09-26 | 2023-11-23 | 주식회사 랩큐 | Artificial intelligence non-face-to-face mental health care system |
KR20240049147A (en) | 2022-10-07 | 2024-04-16 | 주식회사 필드큐어 | Apparatus for measuring temperature in electrode array |
KR20240058029A (en) | 2022-10-25 | 2024-05-03 | 주식회사 필드큐어 | System and Method for delivering the Electric Field |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20220019340A (en) | Apparatus and method for monitoring emotion change through user's mobility and voice analysis in personal space observation image | |
Do et al. | RiSH: A robot-integrated smart home for elderly care | |
US11688265B1 (en) | System and methods for safety, security, and well-being of individuals | |
KR102133943B1 (en) | Devices and methods for providing home health care for senior health | |
Rocha et al. | Innovations in health care services: The CAALYX system | |
US20160345832A1 (en) | System and method for monitoring biological status through contactless sensing | |
KR102359344B1 (en) | System for smart childcare environment monitoring infant behavior and psychological analysis based on artificial intelligence and method thereof | |
KR102106517B1 (en) | Apparatus for analyzing emotion of examinee, method thereof and computer recordable medium storing program to perform the method | |
KR100822476B1 (en) | Remote emergency monitoring system and method | |
Khanal et al. | Using emotion recognition in intelligent interface design for elderly care | |
Torres et al. | How feasible is WiFi fingerprint-based indoor positioning for in-home monitoring? | |
KR20220025332A (en) | Apparatus for performing conversation with user based on emotion analysis and method therefor | |
Li et al. | Online process phase detection using multimodal deep learning | |
KR102188076B1 (en) | method and apparatus for using IoT technology to monitor elderly caregiver | |
KR102171742B1 (en) | Senior care system and method therof | |
JP2016143302A (en) | Information notification device, method, and program | |
KR20230154380A (en) | System and method for providing heath-care services fitting to emotion states of users by behavioral and speaking patterns-based emotion recognition results | |
KR20230064011A (en) | Analysis system of circumstantial judgement based on voice with image pattern and operating method thereof | |
JP7314939B2 (en) | Image recognition program, image recognition device, learning program, and learning device | |
Khawandi et al. | Integrated monitoring system for fall detection in elderly | |
JP2021174189A (en) | Method of assisting in creating menu of service, method of assisting in evaluating user of service, program causing computer to execute the method, and information providing device | |
JP7425413B2 (en) | Monitored person monitoring support device, monitored person monitoring support method, monitored person monitoring support system, and monitored person monitoring support server device | |
JP7044215B1 (en) | Analysis system, analysis system control program, control program, and analysis system control method | |
Iliev et al. | An Approach for Improving the Older people’s Perception of Video-Based Applications in AAL Systems–Initial Study | |
Brezmes et al. | Surveillance with alert management system using conventional cell phones |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |