KR102015981B1 - Apparatus, robot and method for providing status information of target user - Google Patents
Apparatus, robot and method for providing status information of target user Download PDFInfo
- Publication number
- KR102015981B1 KR102015981B1 KR1020180092836A KR20180092836A KR102015981B1 KR 102015981 B1 KR102015981 B1 KR 102015981B1 KR 1020180092836 A KR1020180092836 A KR 1020180092836A KR 20180092836 A KR20180092836 A KR 20180092836A KR 102015981 B1 KR102015981 B1 KR 102015981B1
- Authority
- KR
- South Korea
- Prior art keywords
- subject
- state
- data
- heart rate
- processor
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/04—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
- G08B21/0438—Sensor means for detecting
- G08B21/0453—Sensor means for detecting worn on the body to detect health condition by physiological monitoring, e.g. electrocardiogram, temperature, breathing
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/04—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
- G08B21/0407—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
- G08B21/0423—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting deviation from an expected pattern of behaviour or schedule
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/04—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
- G08B21/0438—Sensor means for detecting
- G08B21/0476—Cameras to detect unsafe condition, e.g. video cameras
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/002—Generating a prealarm to the central station
Landscapes
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Emergency Management (AREA)
- Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Gerontology & Geriatric Medicine (AREA)
- Physical Education & Sports Medicine (AREA)
- Engineering & Computer Science (AREA)
- Physiology (AREA)
- Heart & Thoracic Surgery (AREA)
- Cardiology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Pulmonology (AREA)
- Multimedia (AREA)
- Psychiatry (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Alarm Systems (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
Description
본 발명은 대상자 상태 정보를 제공하기 위한 장치, 로봇 및 방법에 관한 것이다.The present invention relates to an apparatus, a robot and a method for providing subject status information.
최근 맞벌이 부부의 증가로 인해 노인 및 영유아의 돌봄이 어려워지고 있다. 특히, 노인 및 영유아와 같이 돌봄이 필요한 대상자는 일반 성인에 비해 위험 인지 및 대처 능력이 부족하므로, 지속적인 관찰이 필요하다. 보호자가 부재중인 경우에도 대상자의 상태를 확인하여 대상자를 돌보기 위해 가사 도우미를 고용하거나 집안에 CCTV(Closed Circuit Television)와 같은 보안 카메라를 설치하는 등의 방법이 활용되고 있다. Due to the recent increase in the number of working couples, care for the elderly and infants has become difficult. In particular, subjects in need of care, such as the elderly and infants, lack the ability to recognize risks and cope with the general adult, it requires continuous observation. Even when a guardian is absent, a method such as hiring a household assistant or installing a security camera such as a closed circuit television (CCTV) in a house is used to check the subject's condition and take care of the subject.
가사 도우미를 통한 대상자의 상태 확인 방법은 위급 상황에 대한 신속한 대처가 가능하다는 이점이 있으나, 대상자의 상태를 확인하는데 있어 가사 도우미의 주관적인 판단이 개입되므로, 대상자의 상태를 객관적으로 판단하기 어렵다는 문제점이 있다.The method of checking the status of the subject through the household assistant has the advantage that it is possible to quickly cope with an emergency, but the subjective judgment of the household assistant is involved in confirming the status of the subject, which makes it difficult to objectively determine the status of the subject. have.
또한, 보안 카메라를 통한 대상자의 상태 확인 방법은 대상자의 현재 상태를 보호자가 육안으로 확인할 수 있다는 이점이 있으나, 대상자의 CCTV에 보이지 않는 곳에 위치하는 경우 대상자의 상태를 확인할 수 없다는 문제점이 있다.In addition, the method of checking the status of the subject through the security camera has the advantage that the guardian can check the current state of the subject with the naked eye, but there is a problem that the status of the subject cannot be confirmed when it is located invisible to the CCTV of the subject.
따라서, 대상자의 현재 상태를 시간적, 공간적 제약 없이 객관적으로 확인할 수 있는 방법이 요구되고 있다.Therefore, there is a demand for a method for objectively checking the current state of the subject without temporal or spatial constraints.
본 발명이 해결하고자 하는 과제는 대상자의 상태 정보를 제공하기 위한 장치, 로봇 및 방법을 제공하는 것이다. The problem to be solved by the present invention is to provide an apparatus, a robot and a method for providing a subject's status information.
구체적으로, 본 발명이 해결하고자 하는 과제는 보호자가 대상자와 함께 있지 않은 상황에서도 대상자의 객관적인 현재 상태를 실시간으로 파악하여 대상자에 대한 위험 상황을 빠르게 대처하도록 구현된 대상자 상태 정보 제공 장치, 로봇 및 방법을 제공하는 것이다.In detail, the problem to be solved by the present invention is a subject state information providing device, robot and method implemented to quickly grasp the objective current state of the subject in real time even when the guardian is not with the subject to cope with a dangerous situation for the subject. To provide.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.
전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 대상자의 상태 정보를 제공하기 위한 장치, 로봇 및 방법이 제공된다. 상기 대상자의 상태 정보를 제공하기 위한 장치는, 통신 인터페이스; 및 상기 통신 인터페이스와 연결된 프로세서를 포함하고, 상기 프로세서는, 상기 통신 인터페이스를 통해서 대상자에 장착된 감지 장치로부터 상기 대상자의 생체 데이터 및 움직임 데이터를 수신하고, 상기 수신된 생체 데이터 및 움직임 데이터에 기반하여 상기 대상자의 상태 정보를 확인하고, 상기 확인된 상태 정보에 대응하는 동작을 수행할 수 있다.In order to solve the above problems, there is provided an apparatus, a robot and a method for providing a subject's status information according to an embodiment of the present invention. The apparatus for providing status information of the subject includes a communication interface; And a processor coupled to the communication interface, wherein the processor receives the biometric data and the movement data of the subject from a sensing device mounted on the subject through the communication interface, and based on the received biometric data and the movement data. Check the status information of the subject, and perform an operation corresponding to the confirmed status information.
상기 대상자의 상태 정보를 제공하기 위한 방법은, 대상자에 장착된 감지 장치로부터 상기 대상자의 생체 데이터 및 움직임 데이터를 수신하는 단계; 상기 수신된 생체 데이터 및 움직임 데이터에 기반하여 상기 대상자의 상태 정보를 확인하는 단계; 및 상기 확인된 상태 정보에 대응하는 동작을 수행하는 단계를 포함할 수 있다.The method for providing status information of the subject includes receiving biometric data and motion data of the subject from a sensing device mounted on the subject; Confirming state information of the subject based on the received biometric data and movement data; And performing an operation corresponding to the checked state information.
상기 대상자의 상태 정보를 제공하기 위한 로봇은, 통신 인터페이스; 로봇을 이동시키는 주행부; 및 상기 통신 인터페이스 및 상기 주행부와 연결된 프로세서를 포함하고, 상기 프로세서는, 상기 통신 인터페이스를 통해서 대상자에 장착된 감지 장치로부터 상기 대상자의 생체 데이터 및 움직임 데이터를 수신하고, 상기 수신된 생체 데이터 및 움직임 데이터에 기반하여 상기 대상자의 상태 정보를 확인하고, 상기 확인된 상태 정보에 대응하는 동작을 수행할 수 있다.The robot for providing status information of the subject includes a communication interface; Traveling unit for moving the robot; And a processor connected with the communication interface and the driving unit, wherein the processor receives the subject's biometric data and movement data from a sensing device mounted on the subject through the communication interface, and receives the received biometric data and movement. The status information of the subject may be checked based on data, and an operation corresponding to the confirmed status information may be performed.
기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Specific details of other embodiments are included in the detailed description and drawings.
본 발명은 이와 같이 본 발명은 관찰자 로봇이 대상자의 상태 정보를 확인하고, 확인된 상태 정보에 따른 다양한 동작을 수행함으로써, 보호자가 대상자와 함께 있지 않더라도 대상자에 대한 객관적인 현재 상태를 실시간으로 파악할 수 있고, 위험 상황 시에도 위험 상황에 대한 대처를 빠르게 할 수 있다는 이점이 있다.As described above, the present invention allows the observer robot to check the subject's state information and perform various operations according to the confirmed state information, so that the current state of the subject can be grasped in real time even if the guardian is not with the subject. For example, even in a dangerous situation, it is possible to quickly cope with the dangerous situation.
본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.The effects according to the present invention are not limited by the contents exemplified above, and more various effects are included in the present specification.
도 1은 본 발명의 일 실시예에 따른 대상자 상태 정보를 제공하기 위한 시스템을 설명하기 위한 개략도이다.
도 2는 본 발명의 실시예에 따른 감지 장치를 설명하기 위한 개략도이다.
도 3은 본 발명의 실시예에 따른 관찰자 로봇을 설명하기 위한 개략도이다.
도 4는 본 발명의 실시예에 따른 보호자 장치를 설명하기 위한 개략도이다.
도 5는 본 발명의 실시예에 따른 상태 정보 제공 서버를 설명하기 위한 개략도이다.
도 6은 본 발명의 실시예에 따른 관찰자 로봇에서 대상자의 상태 정보에 따른 동작을 수행하는 방법을 설명하기 위한 개략적인 순서도이다.
도 7은 본 발명의 실시예에 따른 관찰자 로봇에서 대상자의 상태 정보를 확인하는 방법을 설명하기 위한 개략적인 순서도이다.
도 8은 본 발명의 실시예에 따른 관찰자 로봇에서 확인된 대상자의 상태 정보에 대응하는 동작을 수행하는 방법을 설명하기 위한 개략적인 순서도이다.
도 9 내지 도 12는 본 발명의 일 실시예에 따른 관찰자 로봇의 동작을 제어하거나 대상자 관련 정보를 제공하기 위한 인터페이스 화면들을 나타내는 예시도들이다.1 is a schematic diagram illustrating a system for providing subject status information according to an embodiment of the present invention.
2 is a schematic diagram illustrating a sensing device according to an embodiment of the present invention.
3 is a schematic diagram illustrating an observer robot according to an exemplary embodiment of the present invention.
4 is a schematic diagram illustrating a protector device according to an embodiment of the present invention.
5 is a schematic diagram illustrating a state information providing server according to an embodiment of the present invention.
6 is a schematic flowchart illustrating a method of performing an operation according to status information of a subject in an observer robot according to an exemplary embodiment of the present invention.
FIG. 7 is a schematic flowchart illustrating a method of checking status information of a subject in an observer robot according to an exemplary embodiment of the present invention.
8 is a schematic flowchart illustrating a method of performing an operation corresponding to status information of a subject identified in an observer robot according to an exemplary embodiment of the present invention.
9 to 12 are exemplary views showing interface screens for controlling the operation of an observer robot or providing information related to a subject according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, only the present embodiments to make the disclosure of the present invention complete, and common knowledge in the art to which the present invention pertains. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims.
비록 제1, 제2 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Although the first, second, etc. are used to describe various components, these components are of course not limited by these terms. These terms are only used to distinguish one component from another. Therefore, of course, the first component mentioned below may be the second component within the technical spirit of the present invention.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Like reference numerals refer to like elements throughout.
본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.Each of the features of the various embodiments of the present invention may be combined or combined with each other in part or in whole, various technically interlocking and driving as can be understood by those skilled in the art, each of the embodiments may be implemented independently of each other It may be possible to carry out together in an association.
본 명세서에서, 대상자(target user)는 보호 및 관찰이 필요한 사람으로, 예를 들어, 위험 인지 능력 및 대처 능력이 부족한 유아, 어린이, 노인 등이거나, 보호 및 관찰이 필요한 환자를 포함할 수 있다.In the present specification, a target user is a person who needs to be protected and observed, for example, an infant, a child, an elderly person, or the like who lacks risk perception and coping ability, or may include a patient who needs to be protected and observed.
이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시예들을 상세히 설명한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 대상자 상태 정보를 제공하기 위한 시스템을 설명하기 위한 개략도이다. 1 is a schematic diagram illustrating a system for providing subject status information according to an embodiment of the present invention.
도 1을 참조하면, 시스템은 대상자의 생체 데이터 및 움직임 데이터를 감지하는 감지 장치(100), 대상자를 관찰하는 관찰자 로봇(200), 보호자 장치(300) 및 상태 정보 제공 서버(400)를 포함할 수 있다. 예를 들어, 관찰자 로봇(200)은 대상자를 관찰하기 위해 이동 가능한 로봇일 수 있다.Referring to FIG. 1, the system may include a
감지 장치(100)는 대상자의 손목, 발목, 가슴, 목, 귀 등의 신체에 착용되어, 대상자의 생체 데이터 및 움직임 데이터를 감지할 수 있는 웨어러블 장치(wearable device)일 수 있다. 상기 감지 장치(100)는 대상자의 생체 데이터 및 움직임 데이터를 감지하기 위한 센서를 구비하고, 센서를 통해서 감지된 생체 데이터 및 움직임 데이터를 관찰자 로봇(200), 보호자 장치(300) 또는 상태 정보 제공 서버(400)로 전달할 수 있다. 예를 들어, 생체 데이터는 대상자의 심박수를 포함하고, 움직임 데이터는 대상자의 움직임 횟수를 포함할 수 있다. 상기 센서는 대상자의 심박수를 측정하기 위한 심박 센서, 대상자의 움직임을 감지하기 위한 움직임 센서(예: 모션 센서, 자이로 센서 등)를 포함할 수 있다. 다양한 실시예에서 생체 데이터는 대상자의 체온 등을 더 포함하고, 움직임 데이터는 대상자의 위치 등을 포함할 수 있다. 이러한 경우, 감지 장치(100)는 사용자의 위치 데이터를 획득할 수 있는 위치 센서(예: GPS(Global Positioning System) 센서) 및 대상자의 체온을 측정하기 위한 체온계 등과 같은 다양한 센서를 더 포함할 수 있다. The
관찰자 로봇(200)은 이동 가능하도록 바퀴 및 모터 등이 구비된 장치로서, 대상자의 신체에 착용된 감지 장치(100)로부터 대상자의 생체 데이터 및 움직임 데이터를 수신하고, 수신된 생체 데이터 및 움직임 데이터에 기반하여 대상자의 현재 상태를 나타내는 상태 정보를 확인할 수 있다. 여기서, 생체 데이터는 대상자의 심박수를 포함하고, 움직임 데이터는 대상자의 움직임 횟수를 포함할 수 있다. The
구체적으로, 관찰자 로봇(200)은 대상자의 현재 상태를 확인하기 위해 대상자와 비슷한 연령대의 사용자 집단으로부터 수집된 샘플 데이터(예: 심박수 및 움직임 횟수)를 안정을 취하는 안정 상태, 일반 생활을 하는 일반 상태, 통상적인 활동을 하는 활동 상태, 운동하는 운동 상태 등의 카테고리별로 분류하고, 분류된 샘플 데이터에 기초하여 생성된 복수의 임계 심박수 범위를 나타내는 제1 데이터 및 복수의 임계 움직임 범위를 나타내는 제2 데이터를 상태 정보 제공 서버(400)로부터 수신하여 저장할 수 있다. 여기서, 움직임 횟수는 대상자의 걸음 수, 자이로 센서를 통해서 측정된 기울기의 변화 정도, 신체의 진동 횟수, 진동 크기 등에 의해서 측정될 수 있다. 다양한 실시예에서 제1 데이터 및 제2 데이터는 상태 정보 제공 서버(400)로부터 미리 제공되거나, 관찰자 로봇(200)의 요청에 따라 제공될 수 있다. 상기 제1 데이터는 안정 상태로 판단하기 위한 제1 임계 심박수 범위, 일반 상태로 판단하기 위한 제2 임계 심박수 범위, 활동 상태를 판단하기 위한 제3 임계 심박수 범위 및 운동 상태를 판단하기 위한 제4 임계 심박수 범위 및 위험 상태를 판단하기 위한 제5 임계 심박수 범위를 나타내는 데이터일 수 있다. 상기 제5 임계 심박수 범위는 제1 내지 제4 임계 심박수 범위를 제외한 심박수 범위일 수 있다. 예를 들어, 제1 임계 심박수 범위는 70~80bpm, 제2 임계 심박수 범위는 80~90bpm, 제3 임계 심박수 범위는 90~100bpm, 제4 임계 심박수 범위는 100~150bpm, 제5 임계 심박수 범위는 70bpm 미만 또는 150bpm 초과일 수 있다. 상기 제2 데이터는 안정 상태로 판단하기 위한 제1 임계 움직임 범위, 일반 상태로 판단하기 위한 제2 임계 움직임 범위, 활동 상태를 판단하기 위한 제3 임계 움직임 범위 및 운동 상태를 판단하기 위한 제4 임계 움직임 범위 및 위험 상태를 판단하기 위한 제5 임계 움직임 범위를 나타내는 데이터일 수 있다. 상기 제5 임계 움직임 범위는 제1 내지 제4 임계 움직임 범위를 제외한 움직임 범위일 수 있다. 예를 들어, 제1 임계 움직임 범위는 3~7회, 제2 임계 움직임 범위는 8~12회, 제3 임계 움직임 범위는 25~35회, 제4 임계 움직임 범위는 45~55회, 제5 임계 움직임 범위는 1회 이하 또는 70회 이상일 수 있다. 예를 들어, 제1 데이터 및 제2 데이터는 하기의 [표 1]과 같이 나타낼 수 있다.Specifically, the
관찰자 로봇(200)은 복수의 임계 심박수 범위 중 대상자의 심박수가 포함되는 임계 심박수 범위를 확인하고, 복수의 임계 움직임 범위 중 대상자의 움직임 횟수가 포함되는 임계 움직임 범위를 확인할 수 있다. 관찰자 로봇(200)은 확인된 임계 심박수 범위 및 임계 움직임 범위에 대응하는 상태 정보를 대상자의 현재 상태로 확인할 수 있다. 상기의 [표 1]을 참조하면, 대상자의 심박수가 95 bpm이고, 움직임 횟수가 32회인 경우 대상자의 상태 정보는 활동 상태로 확인될 수 있다. 다양한 실시예에서 대상자의 심박수 또는 대상자의 움직임 횟수를 어느 하나를 이용하거나 대상자의 심박수 및 움직임 횟수를 둘 다 이용하여 대상자의 상태 정보를 확인할 수 있다.The
다양한 실시예에서 생체 데이터가 체온을 포함하는 경우 관찰자 로봇(200)은 대상자와 비슷한 연령대의 사용자 집단으로부터 추출된 샘플 데이터(예: 체온)를 안정을 취하는 안정 상태, 일반 생활을 하는 일반 상태, 통상적인 활동을 하는 활동 상태, 운동하는 운동 상태 등의 카테고리별로 분류하고, 분류된 샘플 데이터에 기초하여 생성된 복수의 임계 체온 범위를 나타내는 제3 데이터를 상태 정보 제공 서버(400)로부터 수신하여 저장할 수 있다. 상기 제3 데이터는 안정 상태로 판단하기 위한 제1 임계 체온 범위, 일반 상태로 판단하기 위한 제2 임계 체온 범위, 활동 상태를 판단하기 위한 제3 임계 체온 범위 및 운동 상태를 판단하기 위한 제4 임계 체온 범위 및 위험 상태를 판단하기 위한 제5 임계 체온 범위를 나타내는 데이터일 수 있다. 예를 들어, 제1 임계 체온 범위는 36~36.5℃, 제2 임계 체온 범위는 36.5~37℃, 제3 임계 체온 범위는 37~37.5℃, 제4 임계 체온 범위는 37.5~38℃, 36℃ 미만 또는 38℃ 초과일 수 있다. 상기 관찰자 로봇(200)은 복수의 임계 체온 범위 중 대상자의 체온이 포함되는 임계 체인 범위를 확인하여 확인된 임계 체온 범위에 대응하는 상태 정보를 대상자의 현재 상태로 확인할 수 있다.In various embodiments, when the biometric data includes body temperature, the
상기 관찰자 로봇(200)은 확인된 상태 정보에 대응하는 동작을 수행할 수 있다. 여기서, 확인된 상태 정보에 대응하는 동작은 대상자의 상태별로 서로 다른 동작 또는 동일한 동작일 수 있다. 구체적으로, 관찰자 로봇(200)은 대상자의 상태 정보에 따라 특정 동작을 수행하도록 설정될 수 있다. 예를 들어, 관찰자 로봇(200)은 하기의 [표 2]와 같이 대상자의 상태별로 설정된 동작을 수행할 수 있다.The
상기의 [표 2]를 참조하면, 확인된 상태 정보가 안정 상태 또는 일반 상태인 경우 관찰자 로봇(200)은 현재 상태를 유지할 수 있다. 현재 상태를 유지하는 동작은 관찰자 로봇(200)이 어떠한 동작을 수행하지 않는 경우 그 상태를 유지하거나 관찰자 로봇(200)이 특정 동작을 수행하는 동안인 경우 그 특정 동작을 수행하는 상태일 수 있다. 확인된 상태 정보가 활동 상태인 경우 관찰자 로봇(200)은 대상자의 위치로 이동하면서 소리를 녹음하여 소리 데이터를 생성한 후 소리 데이터를 보호자 장치(300) 또는 상태 정보 제공 서버(400)로 전달할 수 있다. 확인된 상태 정보가 운동 상태인 경우 관찰자 로봇(200)은 대상자의 위치로 이동하면서 영상을 촬영하여 영상 데이터를 생성한 후 생성된 영상 데이터를 보호자 장치(300) 또는 상태 정보 제공 서버(400)로 전달할 수 있다. 확인된 상태 정보가 위험 상태인 경우 관찰자 로봇(200)은 대상자의 위치로 이동하면서 위험 상태를 알리기 위한 위험 알림 정보를 보호자 장치(300) 또는 상태 정보 제공 서버(400)로 전달할 수 있다. 다양한 실시예에서 관찰자 로봇(200)은 소리를 녹음하거나 영상을 촬영하여 녹음된 소리 또는 촬영된 영상을 알림 정보를 보호자 장치(300) 또는 상태 정보 제공 서버(400)로 전달하는 동시에 위험 알림 정보도 전달할 수 있다.Referring to [Table 2], when the confirmed state information is a stable state or a normal state, the
다양한 실시예에서 관찰자 로봇(200)은 대상자의 상태 정보가 활동 상태로 확인된 경우 대상자의 위치로 이동하면서 대상자의 소리가 감지되는지를 확인할 수 있다. 이동한 위치에서 대상자의 소리가 감지되지 않으면 관찰자 로봇(200)은 대상자의 움직임이 감지되는지를 확인할 수 있다. 대상자의 움직임이 감지되면 관찰자 로봇(200)은 대상자의 상태 정보가 활동 상태로 확인된 경우에도 대상자를 촬영한 영상 데이터를 생성하여 생성된 영상 데이터를 보호자 장치(300) 또는 상태 정보 제공 서버(400)로 전달할 수 있다. 대상자의 움직임이 감지되지 않으면 관찰자 로봇(200)은 대상자의 상태 정보를 위험 상태로 판단하여 위험 상태를 알리기 위한 위험 알림 정보를 보호자 장치(300) 또는 상태 정보 제공 서버(400)로 전달할 수 있다.In various embodiments, the
다양한 실시예에서 관찰자 로봇(200)은 대상자의 상태 정보가 운동 상태로 확인된 경우 대상자의 위치로 이동하면서 대상자의 움직임이 감지되는지를 확인할 수 있다. 이동한 위치에서 대상자의 움직임이 감지되지 않으면 관찰자 로봇(200)은 대상자의 소리가 감지되는지를 확인할 수 있다. 대상자의 소리가 감지되면 관찰자 로봇(200)은 대상자의 상태 정보가 운동 상태로 확인된 경우에도 대상자의 소리를 녹음한 소리 데이터를 생성하여 생성된 소리 데이터를 보호자 장치(300) 또는 상태 정보 제공 서버(400)로 전달할 수 있다. 대상자의 소리가 감지되지 않으면 관찰자 로봇(200)은 대상자의 상태 정보를 위험 상태로 판단하여 위험 상태를 알리기 위한 위험 알림 정보를 보호자 장치(300) 또는 상태 정보 제공 서버(400)로 전달할 수 있다.In various embodiments, the
다양한 실시예에서 관찰자 로봇(200)은 상태 정보 제공 서버(400)로부터 대상자의 상태 정보를 수신하고, 수신된 상태 정보에 대응하는 동작을 수행할 수도 있다. 구체적으로, 관찰자 로봇(200)은 상태 정보 제공 서버(400)로부터 대상자의 상태가 안정 상태, 일반 상태, 활동 상태, 운동 상태 또는 위험 상태인지를 나타내는 상태 정보를 수신하고, 수신된 상태 정보에 따라 특정 동작을 수행할 수 있다.In various embodiments, the
보호자 장치(300)는 관찰자 로봇(200)을 제어하거나 대상자에 관련된 다양한 정보를 제공할 수 있는 모든 장치를 포함할 수 있다. 보호자 장치(300)는 범용 컴퓨터, 랩탑, 모바일 디바이스(예: 스마트폰, 태블릿 디바이스) 등을 포함할 수 있다. 또한, 관찰자 로봇(200)을 제어하거나 보호자 장치(300)에 대상자 관련 정보를 제공하기 위한 소프트웨어, 프로그램 또는 어플리케이션 등이 탑재되고, 탑재된 소프트웨어, 프로그램 또는 어플리케이션 등을 통해서 대상자 관련 정보가 제공될 수 있다.The
상기 보호자 장치(300)는 감지 장치(100)로부터 대상자의 생체 데이터 또는/및 움직임 데이터를 수신하고, 수신된 생체 데이터 또는/및 움직임 데이터를 나타내는 인터페이스 화면을 디스플레이를 통해서 표시할 수 있다. 예를 들어, 생체 데이터 또는/및 움직임 데이터는 기간별 통계 데이터로서 표시될 수 있다.The
상기 보호자 장치(300)는 관찰자 로봇(200)의 동작을 제어하기 위한 제어 신호를 관찰자 로봇(200)으로 전달할 수 있다. 보호자 장치(300)는 관찰자 로봇(200)에 구비된 카메라의 시점 이동이나, 관찰자 로봇(200)의 움직임을 제어하기 위한 제어 신호를 관찰자 로봇(200)으로 전달할 수 있다. The
상기 보호자 장치(300)는 관찰자 로봇(200)으로부터 대상자를 촬영한 영상 데이터 또는 대상자의 소리를 녹음한 소리 데이터를 수신하고, 수신된 영상 데이터를 재생하거나 수신된 소리 데이터를 출력하기 위한 인터페이스 화면을 표시할 수 있다.The
상기 보호자 장치(300)는 관찰자 로봇(200)으로부터 위험 알림 정보를 수신하고, 수신된 위험 알림 정보를 나타내는 인터페이스 화면을 표시할 수 있다. The
상태 정보 제공 서버(400)는 특정 연령대의 사용자 집단으로부터 수집된 샘플 데이터(예: 심박수, 움직임 횟수 또는/및 체온 등)를 안정 상태, 일반 상태, 활동 상태, 운동 상태 등의 카테고리별로 분류하고, 분류된 샘플 데이터에 기초하여 복수의 임계 심박수 범위를 나타내는 제1 데이터, 복수의 임계 움직임 범위를 나타내는 제2 데이터 또는/및 복수의 임계 체온 범위를 나타내는 제3 데이터 등을 생성할 수 있다. 상기 상태 정보 제공 서버(400)는 생성된 제1, 제2 또는 제3 데이터를 관찰자 로봇(200)으로 전달할 수 있다.The status
다양한 실시예에서 상태 정보 제공 서버(400)는 감지 장치(100)로부터 대상자의 생체 데이터 또는/및 움직임 데이터를 수신하고, 수신된 생체 데이터 또는/및 움직임 데이터에 기반하여 대상자의 상태 정보를 확인할 수 있다. 상기 상태 정보 제공 서버(400)는 확인된 상태 정보를 관찰자 로봇(200)으로 전달할 수 있다.In various embodiments, the state
다양한 실시예에서 상태 정보 제공 서버(400)는 관찰자 로봇(200)으로부터 소리 데이터 또는/및 영상 데이터를 수신하고, 수신된 소리 데이터 또는 영상 데이터를 저장할 수 있다. 상기 상태 정보 제공 서버(400)는 수신된 소리 데이터 또는/및 영상 데이터를 보호자 장치(300)로 전달할 수 있다.In various embodiments, the state
다양한 실시예에서 상태 정보 제공 서버(400)는 보호자 장치(300)로부터 관찰자 로봇(200)의 동작을 제어하기 위한 제어 신호를 수신하고, 수신된 제어 신호를 관찰자 로봇(200)으로 전달할 수 있다.In various embodiments, the state
도 2는 본 발명의 실시예에 따른 감지 장치를 설명하기 위한 개략도이다.2 is a schematic diagram illustrating a sensing device according to an embodiment of the present invention.
도 2를 참조하면, 감지 장치(100)는 통신 인터페이스(110), 디스플레이(120), 센서(130), 메모리(140) 및 프로세서(150)를 포함할 수 있다.Referring to FIG. 2, the
통신 인터페이스(110)는 감지 장치(100)가 외부 장치와 통신 가능하도록 연결한다. 상기 통신 인터페이스(110)는 유/무선 통신을 이용하여 관찰자 로봇(200), 보호자 장치(300) 및 상태 정보 제공 서버(400)와 연결할 수 있다. 구체적으로, 통신 인터페이스(110)는 센서(130)를 통해서 획득된 생체 데이터 및 움직임 데이터를 관찰자 로봇(200), 보호자 장치(300) 또는 상태 정보 제공 서버(400)로 전달할 수 있다. 통신 인터페이스(110)는 관찰자 로봇(200)으로부터 감지 장치(100)의 위치 데이터를 요청하는 요청 신호를 수신하고, 센서(130)를 통해서 획득된 위치 데이터를 감지 장치(100)로 전달할 수 있다.The
디스플레이(120)는 사용자에게 각종 콘텐트(예: 텍스트, 이미지, 비디오, 아이콘, 배너 또는 심볼 등)를 표시할 수 있다. 다양한 실시예에서 디스플레이(120)는 선택적으로 포함되거나 포함되지 않을 수 있다.The
센서(130)는 대상자의 생체 데이터를 감지하는 생체 센서 및 대상자의 움직임을 감지하는 움직임 센서를 포함할 수 있다. 예를 들어, 생체 센서는 대상자의 심박수를 측정하는 심박 센서 또는/및 대상자의 체온을 측정하는 체온계 등을 포함하고, 움직임 센서는 모션 센서, 자이로 센서 등을 포함할 수 있다. 다양한 실시예에서 대상자의 위치를 확인할 수 있는 위치 센서가 포함되고, 위치 센서는 GPS 센서 등을 포함할 수 있다.The
메모리(140)는 대상자의 생체 데이터 및 움직임 데이터를 획득하기 위해 사용되는 다양한 데이터를 저장할 수 있다. 구체적으로, 메모리(140)는 센서(130)를 통해서 획득된 생체 데이터 및 움직임 데이터를 저장할 수 있다.The
프로세서(150)는 통신 인터페이스(110), 디스플레이(120), 센서(130) 및 메모리(140)와 동작 가능하게 연결되며, 대상자의 생체 데이터 및 움직임 데이터를 제공하기 위한 다양한 명령들을 수행할 수 있다.The
구체적으로, 프로세서(150)는 센서(130)를 통해서 대상자의 생체 데이터 및 움직임 데이터를 획득하고, 획득된 생체 데이터 및 움직임 데이터를 통신 인터페이스(110)를 통해서 관찰자 로봇(200), 보호자 장치(300) 또는 상태 정보 제공 서버(400)로 전달할 수 있다.In detail, the
도 3은 본 발명의 실시예에 따른 관찰자 로봇을 설명하기 위한 개략도이다.3 is a schematic diagram illustrating an observer robot according to an exemplary embodiment of the present invention.
도 3을 참조하면, 관찰자 로봇(200)은 통신 인터페이스(210), 디스플레이(220), 센서(230), 카메라 모듈(240), 오디오 모듈(250), 메모리(260), 주행부(270) 및 프로세서(280)를 포함할 수 있다.Referring to FIG. 3, the
통신 인터페이스(210)는 관찰자 로봇(200)이 외부 장치와 통신 가능하도록 연결한다. 통신 인터페이스(210)는 유/무선 통신을 이용하여 감지 장치(100), 보호자 장치(300) 및 상태 정보 제공 서버(400)와 연결할 수 있다. 구체적으로, 통신 인터페이스(210)는 감지 장치(100)로부터 대상자의 생체 데이터 또는/및 움직임 데이터를 수신하고, 보호자 장치(300)로부터 관찰자 로봇(200)의 동작을 제어하기 위한 제어 신호를 수신할 수 있다. 다양한 실시예에서 통신 인터페이스(210)는 상태 정보 제공 서버(400)로부터 대상자의 상태 정보를 수신할 수 있다.The
디스플레이(220)는 사용자에게 각종 콘텐트(예: 텍스트, 이미지, 비디오, 아이콘, 배너 또는 심볼 등)를 표시할 수 있다. 다양한 실시예에서 디스플레이(220)는 선택적으로 포함되거나 포함되지 않을 수 있다.The
센서(230)는 관찰자 로봇(200)의 위치를 확인하기 위한 위치 센서(예: GPS 센서 등) 및 관찰자 로봇(200)의 이동을 위해 주변 장애물을 감지하기 위한 거리 센서(예: 적외선 센서 등)를 포함할 수 있다.The
카메라 모듈(240)은 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 관찰자 로봇(200)의 이동을 위해 사용되는 주변을 촬영하거나 대상자를 촬영한 영상 데이터를 출력할 수 있다. 예를 들어, 카메라 모듈(200)은 광각 카메라, 360도 카메라 등일 수 있다.The
오디오 모듈(250)은 마이크(미도시)와 스피커(미도시)를 포함하고, 마이크를 통해서 소리를 획득하고, 스피커를 통해서 소리를 출력할 수 있다.The
메모리(260)는 대상자의 상태 정보에 따른 동작을 수행하기 위해 사용되는 다양한 데이터를 저장할 수 있다. 구체적으로, 메모리(260)는 감지 장치(100)로부터 수신된 대상자의 생체 데이터 또는/및 움직임 데이터를 저장하고, 상태 정보 제공 서버(400)로부터 제공된 제1 데이터, 제2 데이터 또는/및 제3 데이터를 저장할 수 있다. 다양한 실시예에서 메모리(260)는 상태 정보 제공 서버(400)로부터 수신된 대상자의 상태 정보를 저장할 수 있다.The
주행부(270)는 제어부(280)의 제어에 따라 관찰자 로봇(200)을 이동시킬 수 있다. 이를 위해 상기 주행부(270)는 관찰자 로봇(200)을 전후 또는 좌우로 이동시킬 수 있도록 하는 적어도 하나의 이동 수단을 포함할 수 있다. 여기서, 적어도 하나의 이동 수단은 회전 가능하며 지면과 마찰력을 발생시킬 수 있는 적어도 하나의 회전부를 포함할 수 있고, 회전부의 회전수를 제어하기 위한 적어도 하나의 모터(motor)를 포함할 수 있다. The driving
프로세서(280)는 통신 인터페이스(210), 디스플레이(220), 센서(230), 카메라 모듈(240), 오디오 모듈(250), 메모리(260) 및 주행부(270)와 동작 가능하게 연결되며, 대상자의 상태 정보에 따른 동작을 수행하기 위한 다양한 명령들을 수행할 수 있다.The
상기 프로세서(280)는 통신 인터페이스(210)를 통해서 감지 장치(100)로부터 대상자의 생체 데이터(예: 심박수 또는/및 체온 등) 및 움직임 데이터(예: 움직임 횟수 또는/및 위치 등)를 수신하고, 수신된 생체 데이터 및 움직임 데이터에 기반하여 대상자의 현재 상태를 나타내는 상태 정보를 확인할 수 있다. 구체적으로, 프로세서(280)는 수신된 생체 데이터, 움직임 데이터 및 메모리(260)에 저장된 제1, 제2 또는/및 제3 데이터를 이용하여 대상자의 상태가 안정 상태인지, 일반 상태인지, 활동 상태인지, 운동 상태인지 또는 위험 상태인지를 판단할 수 있다. 예를 들어, 제1 데이터는 안정 상태로 판단하기 위한 제1 임계 심박수 범위, 일반 상태로 판단하기 위한 제2 임계 심박수 범위, 활동 상태를 판단하기 위한 제3 임계 심박수 범위 및 운동 상태를 판단하기 위한 제4 임계 심박수 범위 및 위험 상태를 판단하기 위한 제5 임계 심박수 범위를 나타내는 데이터일 수 있다. 제2 데이터는 안정 상태로 판단하기 위한 제1 임계 움직임 범위, 일반 상태로 판단하기 위한 제2 임계 움직임 범위, 활동 상태를 판단하기 위한 제3 임계 움직임 범위 및 운동 상태를 판단하기 위한 제4 임계 움직임 범위 및 위험 상태를 판단하기 위한 제5 임계 움직임 범위를 나타내는 데이터일 수 있다. 제3 데이터는 안정 상태로 판단하기 위한 제1 임계 체온 범위, 일반 상태로 판단하기 위한 제2 임계 체온 범위, 활동 상태를 판단하기 위한 제3 임계 체온 범위 및 운동 상태를 판단하기 위한 제4 임계 체온 범위 및 위험 상태를 판단하기 위한 제5 임계 체온 범위를 나타내는 데이터일 수 있다. 예를 들어, 제1 임계 체온 범위는 36~36.5℃, 제2 임계 체온 범위는 36.5~37℃, 제3 임계 체온 범위는 37~37.5℃, 제4 임계 체온 범위는 37.5~38℃, 36℃ 미만 또는 38℃ 초과일 수 있다. 상기 프로세서(280)는 복수의 임계 심박수 범위 중 대상자의 심박수가 포함되는 임계 심박수 범위를 확인하고, 복수의 임계 움직임 범위 중 대상자의 움직임 횟수가 포함되는 임계 움직임 범위를 확인하며, 복수의 임계 체온 범위 중 대상자의 체온이 포함되는 임계 체인 범위를 확인하여 확인된 임계 심박수 범위, 임계 움직임 범위 및 임계 체온 범위에 대응하는 상태 정보를 대상자의 현재 상태로 확인할 수 있다. 예를 들어, 대상자의 심박수가 110bpm이고, 움직임 횟수가 47회이며, 체온이 37.7℃인 경우 대상자의 상태 정보는 운동 상태로 확인될 수 있다. 다양한 실시예에서 프로세서(280)는 대상자의 심박수, 움직임 횟수 및 체온을 기반하여 대상자의 상태 정보를 확인할 수 있으나, 대상자의 심박수, 움직임 횟수 및 체온 중 적어도 하나를 이용하여 대상자의 상태 정보를 확인할 수도 있다. The
상기 프로세서(280)는 확인된 상태 정보에 따라 다양한 동작을 수행할 수 있다. 구체적으로, 확인된 상태 정보가 안정 상태 또는 일반 상태인 경우 프로세서(280)는 관찰자 로봇(200)의 현재 상태를 유지할 수 있다. 확인된 상태 정보가 활동 상태 또는 운동 상태인 경우 프로세서(280)는 대상자의 위치로 이동시키도록 주행부(270)를 제어하고, 이동하는 동안 소리를 녹음하거나 영상을 촬영하여 보호자 장치(300) 또는 상태 정보 제공 서버(400)로 전달할 수 있다. 대상자의 위치로 이동하기 위해 프로세서(280)는 오디오 모듈(250)을 통해서 입력되는 소리 데이터를 분석하여 대상자의 소리를 검출하고, 검출된 대상자 소리의 감도를 확인하여 소리 감도가 높아지는 방향으로 이동하거나, 대상자가 착용한 감지 장치(100)의 위치 데이터를 감지 장치(100)로 요청하고, 감지 장치(100)로부터 위치 데이터가 수신되면 수신된 위치 데이터에 기반하여 감지 장치(100)의 위치로 이동하거나, 감지 장치(100)로부터 출력되는 무선 신호에 대한 수신 강도(Received Signal Strength Indicator, RSSI)를 감지하고, 수신 강도가 감지되거나 감지된 수신 강도가 높아지는 방향으로 이동할 수 있다. 또한, 프로세서(280)는 감지 장치(100)로부터 제공되는 송신 전력 레벨(Transmit Power Level)을 감지하고, 감지된 송신 전력 레벨의 강도가 높아지는 방향으로 이동할 수도 있다. 상기 무선 신호는 블루투스(Bluetooth) 신호 또는 비컨(beacon) 신호 등일 수 있다.The
예를 들어, 프로세서(280)는 오디오 모듈(250)을 통해서 획득된 소리 데이터 중 대상자의 소리 데이터를 검출하고, 검출된 대상자 소리 데이터에 기반하여 대상자의 소리 감도를 확인할 수 있다. 또한, 프로세서(280)는 측정된 소리 감도가 높아지는 방향으로 관찰자 로봇(200)을 이동하도록 제어하고, 이동하는 동안 센서(230)를 통해서 관찰자 로봇(200)의 주변 장애물을 감지할 수 있다. 장애물이 감지되면 감지된 장애물을 피해 이동하도록 주행부(270)의 각 회전부에 연결된 모터의 회전수를 서로 다르게 제어하여 관찰자 로봇(200)이 지향하는 방향을 전환하거나, 관찰자 로봇(200)이 전진 또는 후진하도록 할 수 있다. 관찰자 로봇(200)이 감지 장치(100)로 이동하는 동안 프로세서(280)는 카메라 모듈(240)을 통해서 이동하는 동안의 영상을 촬영하여 영상 데이터를 생성하거나 오디오 모듈(250)을 통해서 이동하는 동안의 소리를 녹음하여 소리 데이터를 생성하여 생성된 영상 데이터 또는 소리 데이터를 보호자 장치(300) 또는 상태 정보 제공 서버(400)로 전달할 수 있다.For example, the
다양한 실시예에서 프로세서(280)는 감지 장치(100)로부터 감지 장치(100)의 제1 위치 데이터를 수신하고, 센서(230)를 통해서 관찰자 로봇(200)의 제2 위치 데이터를 확인하여 제1 위치 데이터 및 제2 위치 데이터를 기초로 관찰자 로봇(200)이 감지 장치(100)로부터 특정 거리 이내에 위치하는지를 확인할 수 있다. 관찰자 로봇(200)이 감지 장치(100)로부터 특정 거리 이내에 위치하는 것으로 확인되면 프로세서(280)는 카메라 모듈(240)을 통해서 관찰자 로봇(200)의 주변을 촬영하여 영상 데이터를 생성하거나 오디오 모듈(250)을 통해서 주변 소리를 녹음하여 소리 데이터를 생성하고, 생성된 영상 데이터 또는 소리 데이터를 보호자 장치(300) 또는 상태 정보 제공 서버(400)로 전달할 수 있다.In various embodiments, the
확인된 상태 정보가 위험 상태인 경우 프로세서(280)는 감지 장치(100)의 신호 수신 강도 또는 송신 전력 레벨을 감지하여 감지된 신호 수신 강도 또는 송신 전력 레벨이 높아지는 방향으로 이동하도록 주행부(270)를 제어할 수 있다. 이동하는 동안 장애물이 감지되면 프로세서(280)는 감지된 장애물을 피해 이동하도록 주행부(270)를 제어할 수 있다. 관찰자 로봇(200)이 감지 장치(100)로 이동하는 동안 프로세서(280)는 카메라 모듈(240)을 통해서 이동하는 동안의 영상을 촬영하여 영상 데이터를 생성하거나 오디오 모듈(250)을 통해서 이동하는 동안의 소리를 녹음하여 소리 데이터를 생성하여 생성된 영상 데이터 또는 소리 데이터를 보호자 장치(300) 또는 상태 정보 제공 서버(400)로 전달할 수 있다. 상기 프로세서(280)는 대상자가 위험 상태임을 알리기 위한 위험 알림 정보를 보호자 장치(300) 또는 상태 정보 제공 서버(400)로 전달할 수 있다. 상술한 동작들은 동시에 또는 순차적으로 수행될 수 있다. When the checked state information is a critical state, the
다양한 실시예에서 프로세서(280)는 통신 인터페이스(210)를 통해서 보호자 장치(200)로부터 관찰자 로봇(200)의 동작을 제어하기 위한 제어 신호가 수신되면 수신된 제어 신호에 따라 관찰자 로봇(200)의 동작을 수행할 수 있다. 예를 들어, 관찰자 로봇(200)을 특정 위치로 이동시키거나 관찰자 로봇(200)을 특정 방향으로 전환하기 위한 제어 신호가 수신되면 프로세서(280)는 관찰자 로봇(200)을 특정 위치로 이동시키거나 관찰자 로봇(200)을 특정 방향으로 전환하도록 주행부(270)를 제어할 수 있다. 다양한 실시예에서 보호자 장치(300)로부터 대상자를 자동으로 추적하기 위한 제어 신호가 수신되면 프로세서(280)는 감지 장치(100)로부터 감지 장치(100)의 위치 데이터를 수신하고, 수신된 위치 데이터에 기반하여 감지 장치(100)의 위치로부터 특정 거리 이내에서 계속적으로 감지 장치(100)를 추적하도록 주행부(270)를 제어할 수 있다.In various embodiments, when a control signal for controlling the operation of the
다양한 실시예에서 프로세서(280)는 상태 정보 제공 서버(400)로부터 대상자의 상태 정보를 수신하고, 수신된 상태 정보에 대응하는 다양한 동작을 수행할 수도 있다. In various embodiments, the
도 4는 본 발명의 실시예에 따른 보호자 장치를 설명하기 위한 개략도이다.4 is a schematic diagram illustrating a protector device according to an embodiment of the present invention.
도 4를 참조하면, 보호자 장치(300)는 통신 인터페이스(310), 디스플레이(320), 메모리(330) 및 프로세서(340)를 포함할 수 있다.Referring to FIG. 4, the
통신 인터페이스(310)는 보호자 장치(300)가 외부 장치와 통신 가능하도록 연결한다. 상기 통신 인터페이스(310)는 유/무선 통신을 이용하여 감지 장치(100), 관찰자 로봇(200) 및 상태 정보 제공 서버(400)와 연결할 수 있다. 구체적으로, 통신 인터페이스(310)는 감지 장치(100)로부터 대상자의 생체 데이터 또는/및 움직임 데이터를 수신할 수 있다. 상기 통신 인터페이스(310)는 관찰자 로봇(200)의 동작을 제어하기 위한 제어 신호를 관찰자 로봇(200)으로 전달하고, 관찰자 로봇(200)으로부터 대상자 관련 정보를 수신할 수 있다. 예를 들어, 대상자 관련 정보는 소리 데이터, 영상 데이터 또는 위험 알림 정보 등일 수 있다. 다양한 실시예에서 통신 인터페이스(310)는 제어 신호를 상태 정보 제공 서버(400)로 전달하고, 상태 정보 제공 서버(400)로부터 대상자 관련 정보를 수신할 수도 있다.The
디스플레이(320)는 사용자에게 각종 콘텐트(예: 텍스트, 이미지, 비디오, 아이콘, 배너 또는 심볼 등)를 표시할 수 있다. 구체적으로, 디스플레이(320)는 통신 인터페이스(310)를 통해서 수신된 생체 데이터 또는/및 움직임 데이터를 나타내는 인터페이스 화면을 표시할 수 있다. 상기 디스플레이(320)는 관찰자 로봇(200)의 동작을 제어하기 위한 인터페이스 화면, 관찰자 로봇(200)으로부터 수신된 소리 데이터 또는 영상 데이터를 표시하기 위한 인터페이스 화면 또는 대상자의 위험 상태를 알리기 위한 위험 알림 정보를 표시하기 위한 인터페이스 화면을 표시할 수 있다. 상기에서 인터페이스 화면들은 관찰자 로봇(200)을 제어하거나 보호자 장치(300)에 대상자 관련 정보를 제공하기 위한 소프트웨어, 프로그램 또는 어플리케이션 등의 인터페이스 화면일 수 있다.The
다양한 실시예에서 디스플레이(320)는 터치스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치(touch), 제스처(gesture), 근접, 드래그(drag), 스와이프(swipe) 또는 호버링(hovering) 입력 등을 수신할 수 있다.In various embodiments, the
메모리(330)는 관찰자 로봇(200)의 동작을 제어하거나 관찰자 로봇(200)으로부터 제공되는 대상자 관련 정보를 표시하기 위해 사용되는 다양한 데이터를 저장할 수 있다. 구체적으로, 메모리(330)는 감지 장치(100)로부터 수신된 대상자의 생체 데이터 또는/및 움직임 데이터를 저장할 수 있다. 상기 메모리(330)는 관찰자 로봇(200)을 제어하거나 보호자 장치(300)에 대상자 관련 정보를 제공하기 위해 사용되는 소프트웨어, 프로그램 또는 어플리케이션 등을 저장할 수 있다.The
프로세서(340)는 통신 인터페이스(310), 디스플레이(320) 및 메모리(330)와 동작 가능하게 연결되며, 관찰자 로봇(200)을 제어하거나 대상자 관련 정보를 제공하기 위한 다양한 명령들을 수행할 수 있다.The
구체적으로, 프로세서(340)는 관찰자 로봇(200)의 동작을 제어하거나 대상자 관련 정보를 제공하기 위한 어플리케이션 실행 요청에 따라 해당 어플리케이션을 실행하고, 실행된 어플리케이션에 대한 적어도 하나의 인터페이스 화면을 디스플레이(320)를 통해서 표시할 수 있다. 하기에서는 어플리케이션의 어플리케이션 화면을 통해서 통계 데이터를 표시하거나, 관찰자 로봇(200)의 동작을 제어하거나, 대상자의 소리 데이터 또는/및 영상 데이터를 표시하거나, 위험 알림 정보를 표시하기 위한 동작을 설명하도록 한다.In detail, the
프로세서(340)는 기간별 통계 데이터를 표시하기 위한 요청에 따라 특정 기간에 해당하는 대상자의 생체 데이터 또는/및 움직임 데이터에 대한 통계를 나타내는 통계 데이터를 인터페이스 화면을 표시할 수 있다. 상기 인터페이스 화면은 특정 기간을 선택하기 위한 기간 검색 영역 및 선택된 기간에 해당하는 심박수 또는/및 체온 등의 날짜/시간별 통계 데이터 또는/및 주간 통계 데이터 등을 나타내는 데이터 표시 영역을 포함할 수 있다.The
프로세서(340)는 관찰자 로봇(200)의 동작을 제어하기 위한 요청에 따라 관찰자 로봇(200)의 동작을 제어하기 위한 제1 인터페이스 화면을 표시할 수 있다. 상기 제1 인터페이스 화면은 관찰자 로봇(200) 또는 상태 정보 제공 장치(400)로부터 수신되는 대상자의 소리 데이터 또는/및 영상 데이터를 표시하기 위한 표시 영역, 관찰자 로봇(200)의 이동 또는 방향을 제어하기 위한 제1 그래픽 객체(예: 아이콘, 버튼 등) 및 관찰자 로봇(200)이 대상자를 자동으로 추적하도록 제어하기 위한 제2 그래픽 객체를 포함할 수 있다. 예를 들어, 제1 인터페이스 화면을 통해서 관찰자 로봇(200)을 특정 위치로 이동하거나 특정 방향으로 이동하기 위한 요청이 있으면 프로세서(340)는 특정 위치로 이동하거나 특정 방향으로 이동하기 위한 제어 신호를 관찰자 로봇(200) 또는 상태 정보 제공 서버(400)로 전달할 수 있다. 다양한 실시예에서 제1 인터페이스 화면을 통해서 관찰자 로봇(200)이 대상자를 자동으로 추적하도록 하기 위한 요청이 있으면 프로세서(340)는 관찰자 로봇(200)이 대상자를 자동으로 추적하도록 하기 위한 제어 신호를 관찰자 로봇(200) 또는 상태 정보 제공 서버(400)로 전달할 수 있다.The
프로세서(340)는 관찰자 로봇(200)으로부터 수신된 대상자에 관한 소리 데이터 또는/및 영상 데이터를 확인하기 위한 요청에 따라 소리 데이터를 표시하기 위한 제2 인터페이스 화면 또는 영상 데이터를 표시하기 위한 제3 인터페이스 화면을 표시할 수 있다. 상기 제2 인터페이스 화면은 특정 날짜에 녹음된 소리 데이터의 재생을 위한 그래픽 객체들(예: 버튼, 아이콘 등)을 포함할 수 있다. 상기 제3 인터페이스 화면은 특정 날짜에 촬영된 영상 데이터를 표시하기 위한 표시 영역 및 해당 영상 데이터의 재생을 위한 그래픽 객체들을 표시할 수 있다. 예를 들어, 제2 인터페이스 화면을 통해서 특정 날짜의 소리 데이터를 재생하기 위한 요청이 있으면 프로세서(340)는 특정 날짜의 소리 데이터를 출력할 수 있다. 다양한 실시예에서 제3 인터페이스 화면을 통해서 특정 날짜의 영상 데이터를 재생하기 위한 요청이 있으면 프로세서(340)는 특정 날짜의 영상 데이터를 표시 영역에 표시할 수 있다.The
프로세서(340)는 관찰자 로봇(200)으로부터 대상자의 위험을 알리기 위한 위험 알림 정보가 수신되면 해당 위험 알림 정보를 제공하기 위한 제4 인터페이스 화면을 표시할 수 있다. 상기 제4 인터페이스 화면은 대상자의 위험 상태를 알리기 위한 텍스트, 이미지, 아이콘 등의 그래픽 객체들을 나타내는 표시 영역, 대상자에게 연락하기 위한 연락 기능(예: 통화 기능)에 대응하는 그래픽 객체 및 비상 연락을 위한 그래픽 객체를 포함할 수 있다. 예를 들어, 제4 인터페이스 화면의 표시 영역은 “위험 상태 알림! 현재 어린이의 심박수가 152bpm이고, 움직임이 90회입니다. 어린이 상태를 확인해주세요.”와 같은 텍스트가 표시될 수 있다.The
도 5는 본 발명의 실시예에 따른 상태 정보 제공 서버를 설명하기 위한 개략도이다.5 is a schematic diagram illustrating a state information providing server according to an embodiment of the present invention.
도 5를 참조하면, 상태 정보 제공 서버(400)는 통신 인터페이스(410), 메모리(420) 및 프로세서(430)를 포함할 수 있다.Referring to FIG. 5, the state
통신 인터페이스(410)는 상태 정보 제공 서버(400)가 외부 장치와 통신 가능하도록 연결한다. 상기 통신 인터페이스(410)는 유/무선 통신을 이용하여 감지 장치(100), 관찰자 로봇(200) 및 보호자 장치(300)와 연결할 수 있다. 구체적으로, 통신 인터페이스(410)는 감지 장치(100)로부터 대상자의 생체 데이터 또는/및 움직임 데이터를 수신하고, 대상자의 상태 정보를 관찰자 로봇(200)으로 전달할 수 있다. 통신 인터페이스(410)는 보호자 장치(300)로부터 관찰자 로봇(200)의 동작을 제어하기 위한 제어 신호를 수신하고, 수신된 제어 신호를 관찰자 로봇(200)으로 전달할 수 있다. 통신 인터페이스(410)는 관찰자 로봇(200)으로부터 대상자에 관련된 정보(예: 소리 데이터, 영상 데이터 또는/및 위험 알림 정보)를 수신하고, 수신된 대상자 관련 정보를 보호자 장치(300)로 전달할 수 있다.The
메모리(420)는 대상자의 상태 정보를 제공하기 위해 사용되는 다양한 데이터를 저장할 수 있다. 구체적으로, 메모리(420)는 특정 연령대의 사용자 집단으로부터 수집된 샘플 데이터(예: 심박수, 움직임 횟수 또는/및 체온 등)를 안정 상태, 일반 상태, 활동 상태, 운동 상태 등의 카테고리별로 분류하고, 분류된 샘플 데이터에 기초하여 생성된 복수의 임계 심박수 범위를 나타내는 제1 데이터, 복수의 임계 움직임 범위를 나타내는 제2 데이터 또는/및 복수의 임계 체온 범위를 나타내는 제3 데이터 등을 저장할 수 있다. 또한, 메모리(420)는 감지 장치(100)로부터 수신된 대상자의 생체 데이터 또는/및 움직임 데이터를 저장하거나, 관찰자 로봇(200)으로부터 수신된 소리 데이터 또는/및 영상 데이터를 저장할 수 있다. The
프로세서(430)는 통신 인터페이스(410) 및 메모리(420)와 동작 가능하게 연결되며, 대상자의 상태 정보를 제공하기 위한 다양한 명령들을 수행할 수 있다.The
구체적으로, 프로세서(430)는 특정 연령대의 사용자 집단으로부터 심박수, 움직임 횟수 또는/및 체온 등의 샘플 데이터를 수집하고, 수집된 샘플 데이터를 안정 상태, 일반 상태, 활동 상태, 운동 상태 등의 카테고리 별로 분류하여 분류된 샘플 데이터에 기초하여 복수의 임계 심박수 범위를 나타내는 제1 데이터, 복수의 임계 움직임 범위를 나타내는 제2 데이터 또는/및 복수의 임계 체온 범위를 나타내는 제3 데이터 등을 생성할 수 있다. 예를 들어, 프로세서(430)는 샘플 데이터를 카테고리별로 분류하기 위해 K-평균 알고리즘을 이용하여 샘플 데이터를 군집화하고, 군집화된 샘플 데이터에 대한 4개의 상태 군집을 형성할 수 있다. 상기 형성된 상태 군집은 안정 상태, 일반 상태, 활동 상태, 운동 상태로 구분될 수 있으며, 이를 이용하여 안정 상태, 일반 상태, 활동 상태, 운동 상태에 따른 임계 심박수 범위, 임계 움직임 범위 또는/및 임계 체온 범위 등을 생성할 수 있다. 이와 같이 생성된 제1 데이터, 제2 데이터 또는/및 제3 데이터는 관찰자 로봇(200)으로 제공될 수 있다.In detail, the
프로세서(430)는 통신 인터페이스(410)를 통해서 감지 장치(100)로부터 대상자의 생체 데이터 또는/및 움직임 데이터를 수신하고, 수신된 생체 데이터 또는/및 움직임 데이터를 보호자 장치(300)로 전달할 수 있다. 다양한 실시예에서 프로세서(430)는 주기적으로 감지 장치(100)로부터 대상자의 생체 데이터 또는/및 움직임 데이터를 수신하고, 수신된 생체 데이터 또는/및 움직임 데이터 중 심박수, 움직임 횟수 또는/및 체온 등의 샘플 데이터로서 수집하여 제1 데이터, 제2 데이터 또는/및 제3 데이터를 업데이트하기 위해 사용할 수도 있다.The
프로세서(430)는 통신 인터페이스(410)를 통해서 관찰자 로봇(200)으로부터 대상자 관련 정보를 수신하고, 수신된 대상자 관련 정보를 보호자 장치(300)로 전달할 수 있다. 상기 프로세서(430)는 보호자 장치(300)로부터 관찰자 로봇(200)의 동작을 제어하기 위한 제어 신호를 수신하고, 수신된 제어 신호를 관찰자 로봇(200)으로 전달할 수 있다.The
다양한 실시예에서 프로세서(430)는 통신 인터페이스(410)를 통해서 감지 장치(100)로부터 대상자의 생체 데이터 또는/및 움직임 데이터를 수신하고, 수신된 생체 데이터 또는/및 움직임 데이터, 제1 데이터, 제2 데이터 또는/및 제3 데이터를 이용하여 대상자의 현재 상태를 나타내는 상태 정보를 확인할 수 있다. 프로세서(430)는 확인된 상태 정보를 관찰자 로봇(200)으로 전달할 수 있다.In various embodiments, the
도 6은 본 발명의 실시예에 따른 관찰자 로봇에서 대상자의 상태 정보에 따른 동작을 수행하는 방법을 설명하기 위한 개략적인 순서도이다.6 is a schematic flowchart illustrating a method of performing an operation according to status information of a subject in an observer robot according to an exemplary embodiment of the present invention.
도 6을 참조하면, 관찰자 로봇(200)은 감지 장치(100)로부터 대상자의 생체 데이터 및 움직임 데이터를 수신하고(S600), 수신된 생체 데이터 및 움직임 데이터에 기반하여 대상자의 상태 정보를 확인할 수 있다(S610). 구체적으로, 관찰자 로봇(200)은 수신된 생체 데이터 및 움직임 데이터 중 심박수, 움직임 횟수 또는/및 체온과, 상태 정보 제공 서버(400)로부터 제공된 제1 데이터, 제2 데이터 및/또는 제3 데이터를 이용하여 대상자의 상태가 안정 상태, 일반 상태, 활동 상태, 운동 상태 또는 위험 상태인지를 나타내는 상태 정보를 확인할 수 있다. 관찰자 로봇(200)은 확인된 상태 정보에 대응하는 동작을 수행할 수 있다(S620). 예를 들어, 관찰자 로봇(200)은 대상자의 상태가 안정 상태 또는 일반 상태인 경우 관찰자 로봇(200)의 현재 상태를 유지하고, 대상자의 상태가 활동 상태 또는 운동 상태인 경우 관찰자 로봇(200)은 대상자의 위치로 이동하면서 소리를 녹음하거나 영상을 촬영하여 보호자 장치(300)로 전달할 수 있다. 대상자의 상태가 위험 상태인 경우 관찰자 로봇(200)은 대상자의 위치로 이동하면서 소리를 녹음하거나 영상을 촬영하여 보호자 장치(300)로 전달하는 동시에 대상자의 위험 상태를 알리기 위한 위험 알림 정보를 전달할 수 있다.Referring to FIG. 6, the
도 7은 본 발명의 실시예에 따른 관찰자 로봇에서 대상자의 상태 정보를 확인하는 방법을 설명하기 위한 개략적인 순서도이다. 다양한 실시예에서 상기 방법은 상태 정보 제공 서버에서 수행될 수도 있다.FIG. 7 is a schematic flowchart illustrating a method of checking status information of a subject in an observer robot according to an exemplary embodiment of the present invention. In various embodiments, the method may be performed in a status information providing server.
도 7을 참조하면, 관찰자 로봇(200)은 감지 장치(100)로부터 대상자의 심박수를 포함하는 생체 데이터 및 움직임 횟수를 포함하는 움직임 데이터를 수신할 수 있다(S700). 관찰자 로봇(200)은 대상자의 심박수가 제1 임계 심박수 범위에 포함되고, 움직임 횟수가 제1 움직임 범위에 포함되는지 확인하고(S705), 대상자의 심박수가 제1 임계 심박수 범위에 포함되고, 움직임 횟수가 제1 움직임 범위에 포함되면 대상자의 상태 정보를 안정 상태로 확인할 수 있다(S710). 대상자의 심박수가 제1 임계 심박수 범위에 포함되지 않고, 움직임 횟수가 제1 움직임 범위에 포함되지 않으면 관찰자 로봇(200)은 대상자의 심박수가 제2 임계 심박수 범위에 포함되고, 움직임 횟수가 제2 움직임 범위에 포함되는지 확인하고(S715), 대상자의 심박수가 제2 임계 심박수 범위에 포함되고, 움직임 횟수가 제2 움직임 범위에 포함되면 대상자의 상태 정보를 일반 상태로 확인할 수 있다(S720). 대상자의 심박수가 제2 임계 심박수 범위에 포함되지 않고, 움직임 횟수가 제2 움직임 범위에 포함되지 않으면 관찰자 로봇(200)은 대상자의 심박수가 제3 임계 심박수 범위에 포함되고, 움직임 횟수가 제3 움직임 범위에 포함되는지 확인하고(S725), 대상자의 심박수가 제3 임계 심박수 범위에 포함되고, 움직임 횟수가 제3 움직임 범위에 포함되면 대상자의 상태 정보를 활동 상태로 확인할 수 있다(S730). 대상자의 심박수가 제3 임계 심박수 범위에 포함되지 않고, 움직임 횟수가 제3 움직임 범위에 포함되지 않으면 관찰자 로봇(200)은 대상자의 심박수가 제4 임계 심박수 범위에 포함되고, 움직임 횟수가 제4 움직임 범위에 포함되는지 확인하고(S735), 대상자의 심박수가 제4 임계 심박수 범위에 포함되고, 움직임 횟수가 제4 움직임 범위에 포함되면 대상자의 상태 정보를 운동 상태로 판단할 수 있다(S740). 대상자의 심박수가 제4 임계 심박수 범위에 포함되지 않고, 움직임 횟수가 제4 움직임 범위에 포함되지 않으면 관찰자 로봇(200)은 대상자의 심박수가 제5 임계 심박수 범위에 포함되고, 움직임 횟수가 제5 움직임 범위에 포함되는지 확인하고(S745), 대상자의 심박수가 제5 임계 심박수 범위에 포함되고, 움직임 횟수가 제5 움직임 범위에 포함되면 대상자의 상태 정보를 운동 상태로 판단할 수 있다(S750). 대상자의 심박수가 제5 임계 심박수 범위에 포함되지 않고, 움직임 횟수가 제5 움직임 범위에 포함되지 않으면 관찰자 로봇(200)은 대상자의 상태 정보를 확인하기 위한 과정을 종료할 수 있다.Referring to FIG. 7, the
도 8은 본 발명의 실시예에 따른 관찰자 로봇에서 확인된 대상자의 상태 정보에 대응하는 동작을 수행하는 방법을 설명하기 위한 개략적인 순서도이다.8 is a schematic flowchart illustrating a method of performing an operation corresponding to status information of a subject identified in an observer robot according to an exemplary embodiment of the present invention.
도 8을 참조하면, 관찰자 로봇(200)은 대상자의 상태 정보를 확인하고(S800), 확인된 대상자의 상태 정보가 안정 상태 또는 일반 상태인지 확인하여(S810) 대상자의 상태 정보가 안정 상태 또는 일반 상태인 경우 관찰자 로봇(200)의 현재 상태를 유지할 수 있다(S820). 대상자의 상태 정보가 안정 상태 또는 일반 상태가 아닌 경우 관찰자 로봇(200)은 대상자의 상태 정보가 활동 상태인지 확인할 수 있다(S830). 대상자의 상태 정보가 활동 상태인 경우 관찰자 로봇(200)은 대상자의 위치로 이동하면서 소리를 녹음한 소리 데이터를 보호자 장치(300)로 전달할 수 있다(S840). 대상자의 상태 정보가 활동 상태가 아닌 경우 관찰자 로봇(200)은 대상자의 상태 정보가 운동 상태인지 확인할 수 있다(S850). 대상자의 상태 정보가 운동 상태인 경우 관찰자 로봇(200)은 대상자의 위치로 이동하면서 영상을 촬영한 영상 데이터를 보호자 장치(300)로 전달할 수 있다(S860). 대상자의 상태 정보가 운동 상태가 아닌 경우 관찰자 로봇(200)은 대상자의 상태 정보가 위험 상태인지 확인할 수 있다(S870). 대상자의 상태 정보가 위험 상태인 경우 관찰자 로봇(200)은 대상자의 위치로 이동하면서 소리를 녹음한 소리 데이터 및 영상을 촬영한 영상 데이터를 보호자 장치(300)로 전달하는 동시에 위험 알림 정보를 함께 전달할 수 있다(S880). 대상자의 상태 정보가 위험 상태가 아닌 경우 관찰자 로봇(200)은 대상자의 상태 정보에 따른 동작을 수행하는 과정을 종료할 수 있다.Referring to FIG. 8, the
하기에서는 관찰자 로봇(200)의 동작을 제어하거나 대상자에 관련된 다양한 정보를 제공하기 위해 보호자 장치(300)의 디스플레이(320)를 통해서 표시되는 인터페이스 화면들에 대해서 도 9 내지 도 12를 참조하여 설명하도록 한다. 하기에서 설명하는 동작들은 보호자 장치(300)의 프로세서(340)에 의해서 수행될 수 있다.Hereinafter, interface screens displayed through the
도 9 내지 도 12는 본 발명의 일 실시예에 따른 관찰자 로봇의 동작을 제어하거나 대상자 관련 정보를 제공하기 위한 인터페이스 화면들을 나타내는 예시도들이다.9 to 12 are exemplary views showing interface screens for controlling the operation of an observer robot or providing information related to a subject according to an embodiment of the present invention.
도 9 내지 도 12를 참조하면, 보호자 장치(300)는 관찰자 로봇(200)의 동작을 제어하거나 대상자 관련 정보를 제공하기 위한 어플리케이션을 실행하고, 어플리케이션 실행 화면(900)을 디스플레이(320)를 통해서 표시할 수 있다. 상기 어플리케이션 실행 화면(900)은 관찰자 로봇(200)의 동작을 제어하거나 대상자 관련 정보를 제공하기 위한 다양한 기능들에 대응하는 아이콘들을 포함하는 기능 아이콘 영역(902) 및 다양한 기능들에 관한 인터페이스 화면(904, 1000, 1100, 1200)을 포함할 수 있다. 상기 기능 아이콘 영역(902)은 관찰자 로봇(200)의 동작을 제어하기 위한 기능에 대응하는 제1 아이콘(예: 로봇 이동)(906), 대상자에 관한 영상 데이터를 제공하기 위한 기능에 대응하는 제2 아이콘(예: 영상 확인)(908), 대상자에 관한 음성 데이터를 제공하기 위한 기능에 대응하는 제3 아이콘(예: 소리 확인)(910) 및 대상자의 위험 상태를 알리기 위한 기능에 대응하는 제4 아이콘(예: 전화하기)(912)를 포함할 수 있다.9 to 12, the
구체적으로 도 9를 참조하면, 관찰자 로봇(200)의 동작을 제어하기 위한 기능에 대응하는 제1 아이콘(906)이 선택되면 관찰자 로봇(200)의 동작을 제어하기 위한 제1 인터페이스 화면(904)이 표시될 수 있다. 상기 제1 인터페이스 화면(904)은 관찰자 로봇(200)으로부터 수신된 대상자에 관한 영상 데이터를 표시하는 표시 영역(914), 관찰자 로봇(200)의 이동 방향을 제어하기 위한 아이콘들(예: 앞, 뒤, 좌, 우)을 포함하는 아이콘 영역(916) 및 관찰자 로봇(200)이 대상자를 자동으로 추적하도록 제어하기 위한 아이콘(918)을 포함할 수 있다. 예를 들어, 관찰자 로봇(200)의 이동 방향을 뒤 방향으로 제어하기 위한 '뒤 아이콘'이 선택되면 보호자 장치(300)는 관찰자 로봇(200)의 이동 방향을 뒤 방향으로 제어하기 위한 제어 신호를 관찰자 로봇(200)으로 전달할 수 있다. 관찰자 로봇(200)이 대상자를 자동으로 추적하도록 제어하기 위한 아이콘(918)이 선택되면 보호자 장치(300)는 관찰자 로봇(200)이 대상자를 자동으로 추적하도록 제어하기 위한 제어 신호를 관찰자 로봇(200)으로 전달할 수 있다.Specifically, referring to FIG. 9, when a
대상자에 관한 영상 데이터를 제공하기 위한 기능에 대응하는 제2 아이콘(908)이 선택되면 도 10과 같이 대상자에 관한 영상 데이터를 제공하기 위한 제2 인터페이스 화면(1000)이 표시될 수 있다. 상기 제2 인터페이스 화면(1000)은 특정 날짜 및 시간(예: 2018. 06. 12. 11:12)에 촬영된 대상자에 관한 영상 데이터를 표시하는 표시 영역(1002) 및 해당 영상 데이터의 재생/멈춤/일시정지 및 소리를 제어하기 위한 기능에 대응하는 아이콘 영역(1004)을 포함할 수 있다. 예를 들어, 영상 데이터를 재생하기 위한 아이콘이 선택되면 보호자 장치(300)는 해당 영상 데이터를 재생하여 표시 영역(1002)을 통해 표시할 수 있다.When the
대상자에 관한 음성 데이터를 제공하기 위한 기능에 대응하는 제3 아이콘 (910)이 선택되면 도 11과 같이 대상자에 관한 소리 데이터를 제공하기 위한 제3 인터페이스 화면(1100)이 표시될 수 있다. 상기 제3 인터페이스 화면(1100)은 2018년 6월 12일 11시 12분에 녹음된 대상자에 관한 소리 데이터를 재생하기 위한 제1 재생 영역(1102) 및 2018년 6월 12일 10시 5분에 녹음된 대상자에 관한 소리 데이터를 재생하기 위한 제2 재생 영역(1104)을 포함할 수 있다. 예를 들어, 2018년 6월 12일 11시 12분에 녹음된 소리 데이터를 재생하기 위한 아이콘이 선택되면 보호자 장치(300)는 해당 소리 데이터를 재생하여 스피커(미도시)를 통해서 출력할 수 있다.When a
대상자의 위험 상태를 알리기 위한 기능에 대응하는 제4 아이콘(912)이 선택되면 도 12와 같이 대상자의 위험 상태를 알리기 위한 제4 인터페이스 화면(1200)이 표시될 수 있다. 상기 제4 인터페이스 화면(1200)은 대상자의 위험 상태를 알리기 위한 텍스트 영역(1202), 대상자에게 연락하기 위한 기능에 대응하는 아이콘 영역(1204) 및 긴급 통화(예: 112 또는 119 등)를 위한 아이콘(1206)을 포함할 수 있다. 상기 텍스트 영역(1202)은 “위험 상태 알림! 현재 어린이 심박수가 152bpm이며, 움직임이 90회입니다. 어린이 상태를 확인해주세요.”와 같은 텍스트를 포함할 수 있다. 상기 아이콘 영역(1204)은 대상자의 연락처로 통화하기 위한 기능에 대응하는 아이콘을 포함할 수 있다. 예를 들어, 대상자의 연락처로 통화하기 위한 기능에 대응하는 아이콘이 선택되면 보호자 장치(300)는 대상자의 연락처에 해당하는 전자 장치로의 통화 연결을 수행할 수 있다. 긴급 통화를 위한 아이콘(1206)이 선택되면 보호자 장치(300)는 112 또는 119 등과 같은 긴급 비상 연락망으로의 통화 연결을 수행할 수 있다.When the
이와 같이 본 발명은 관찰자 로봇이 대상자의 상태 정보를 확인하고, 확인된 상태 정보에 따른 다양한 동작을 수행함으로써, 사용자가 대상자와 함께 있지 않더라도 대상자의 객관적인 현재 상태를 실시간으로 파악할 수 있고, 위험 상황 시에도 위험 상황에 대한 대처를 빠르게 할 수 있다는 이점이 있다.As such, the present invention enables the observer robot to check the status information of the subject and perform various operations according to the confirmed status information, so that the objective current state of the subject can be grasped in real time even when the user is not with the subject, In addition, there is an advantage that can quickly cope with the risk situation.
본 발명의 실시예에 따른 장치, 로봇 및 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.Apparatus, robot and method according to an embodiment of the present invention can be implemented in the form of program instructions that can be executed by various computer means can be recorded on a computer readable medium. Computer-readable media may include, alone or in combination with the program instructions, data files, data structures, and the like.
컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한 상술한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The program instructions recorded on the computer readable medium may be those specially designed and constructed for the present invention, or may be known and available to those skilled in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Hardware devices specially configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory and the like. In addition, the above-described medium may be a transmission medium such as an optical or metal wire, a waveguide, or the like including a carrier wave for transmitting a signal specifying a program command, a data structure, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although the embodiments of the present invention have been described in more detail with reference to the accompanying drawings, the present invention is not necessarily limited to these embodiments, and various modifications can be made without departing from the spirit of the present invention. . Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.
100: 감지 장치
200: 관찰자 로봇
300: 보호자 장치
400: 상태 정보 제공 서버100: sensing device
200: observer robot
300: protector device
400: server providing status information
Claims (14)
상기 통신 인터페이스와 연결된 프로세서를 포함하고,
상기 프로세서는,
상기 통신 인터페이스를 통해서 대상자에 장착된 감지 장치로부터 상기 대상자의 심박수 및 체온을 포함하는 생체 데이터 및 상기 대상자의 움직임 횟수를 포함하는 움직임 데이터를 수신하고,
상기 수신된 생체 데이터 및 움직임 데이터에 기반하여 상기 대상자가 안정 상태, 일반 상태, 활동 상태, 운동 상태 또는 위험 상태인지를 확인하고,
상기 대상자가 상기 활동 상태인 경우 상기 대상자의 소리를 녹음한 소리 데이터를 생성하여 상기 생성된 소리 데이터를 보호자 장치로 전달하고,
상기 대상자가 상기 운동 상태인 경우 상기 대상자를 촬영한 영상 데이터를 생성하여 상기 생성된 영상 데이터를 상기 보호자 장치로 전달하고,
상기 대상자가 상기 위험 상태인 경우 상기 대상자의 위험을 알리기 위한 위험 알림 정보를 상기 보호자 장치로 전달하고,
상기 위험 상태 알림 정보는 상기 위험 상태로 판단된 대상자의 심박수, 체온 및 움직임 횟수를 나타내는 정보를 포함하고,
상기 프로세서는,
날짜별 또는 시간별 녹음된 대상자에 관한 소리 데이터 및 날짜별 또는 시간별 촬영된 대상자에 관한 영상 데이터를 상기 보호자 장치로 제공하는, 대상자 상태 정보 제공 장치.Communication interface; And
A processor coupled with the communication interface,
The processor,
Receiving biometric data including the heart rate and body temperature of the subject and movement data including the number of movements of the subject from a sensing device mounted on the subject through the communication interface,
Determine whether the subject is in a stable state, a general state, an active state, an exercise state, or a dangerous state based on the received biometric data and movement data,
When the subject is in the active state, generate sound data recording the subject's sound and transfer the generated sound data to the guardian device,
When the subject is in the exercise state, image data photographing the subject is generated, and the generated image data is transferred to the guardian device.
When the subject is in the dangerous state, risk notification information for notifying the subject's danger is transmitted to the guardian device,
The dangerous state notification information includes information indicating the heart rate, body temperature, and the number of movements of the subject determined as the dangerous state,
The processor,
A subject status information providing apparatus for providing sound data about a subject recorded by date or time and image data about a subject photographed by date or time to the guardian apparatus.
상기 대상자의 상태 정보를 확인하기 위해 기 설정된 복수의 임계 심박수 범위를 나타내는 제1 데이터 및 기 설정된 복수의 임계 움직임 범위를 나타내는 제2 데이터를 저장하는 메모리를 더 포함하는, 대상자 상태 정보 제공 장치.The method of claim 1,
And a memory configured to store first data representing a plurality of preset threshold heart rate ranges and second data representing a plurality of preset threshold movement ranges to identify state information of the subject.
상기 복수의 임계 심박수 범위 중 상기 수신된 생체 데이터에 해당하는 임계 심박수 범위를 확인하고, 상기 복수의 임계 움직임 범위 중 상기 수신된 움직임 데이터에 해당하는 임계 움직임 범위를 확인하여 상기 대상자의 상태 정보를 확인하는, 대상자 상태 정보 제공 장치.The processor of claim 3, wherein the processor comprises:
Confirming a critical heart rate range corresponding to the received biometric data among the plurality of critical heart rate ranges, and checking a critical motion range corresponding to the received motion data among the plurality of critical motion ranges to confirm state information of the subject; And subject status information providing apparatus.
상기 대상자의 심박수가 제1 임계 심박수 범위에 포함되고, 상기 대상자의 움직임 횟수가 제1 임계 움직임 범위에 포함되면 상기 대상자의 상태 정보를 상기 안정 상태로 확인하는, 대상자 상태 정보 제공 장치.The method of claim 1, wherein the processor,
And the subject's heart rate is included in a first critical heart rate range, and when the number of movements of the subject is included in a first threshold movement range, the subject state information of the subject is confirmed as the stable state.
상기 대상자의 심박수가 제2 임계 심박수 범위에 포함되고, 상기 대상자의 움직임 횟수가 제2 임계 움직임 범위에 포함되면 상기 대상자의 상태 정보를 상기 일반 상태로 확인하는, 대상자 상태 정보 제공 장치.The method of claim 1, wherein the processor,
And confirming the subject state information as the general state when the heart rate of the subject is included in a second critical heart rate range and the number of movements of the subject is included in a second critical movement range.
상기 대상자의 심박수가 제3 임계 심박수 범위에 포함되고, 상기 대상자의 움직임 횟수가 제3 임계 움직임 범위에 포함되면 상기 대상자의 상태 정보를 상기 활동 상태로 확인하는, 대상자 상태 정보 제공 장치.The method of claim 1, wherein the processor,
And confirming the status information of the subject as the active state when the heart rate of the subject is included in a third threshold heart rate range and the number of movements of the subject is included in a third threshold movement range.
상기 대상자의 상태가 상기 활동 상태인 경우 상기 대상자의 위치로 이동하는, 대상자 상태 정보 제공 장치.The method of claim 7, wherein the processor,
And the subject state information providing apparatus moves to the position of the subject when the state of the subject is the active state.
상기 대상자의 심박수가 제4 임계 심박수 범위에 포함되고, 상기 대상자의 움직임 횟수가 제4 임계 움직임 범위에 포함되면 상기 대상자의 상태 정보를 상기 운동 상태로 확인하는, 대상자 상태 정보 제공 장치.The method of claim 1, wherein the processor,
And the subject's heart rate is included in a fourth critical heart rate range and the subject's state information is checked as the exercise state when the number of movements of the subject is included in a fourth critical movement range.
상기 대상자의 상태가 상기 운동 상태인 경우 상기 대상자의 위치로 이동하는, 대상자 상태 정보 제공 장치.The processor of claim 9, wherein the processor comprises:
And the subject state information providing apparatus moves to the position of the subject when the state of the subject is the exercise state.
상기 대상자의 심박수가 제5 임계 심박수 범위에 포함되고, 상기 대상자의 움직임 횟수가 제5 임계 움직임 범위에 포함되면 상기 대상자의 상태 정보를 상기 위험 상태로 확인하는, 대상자 상태 정보 제공 장치.The method of claim 1, wherein the processor,
And the subject's heart rate is included in a fifth critical heart rate range and the subject's state information is confirmed as the dangerous state when the number of movements of the subject is included in a fifth critical movement range.
상기 대상자의 상태가 상기 위험 상태인 경우 상기 대상자의 위치로 이동하고, 상기 대상자의 소리 또는 영상 데이터와 함께 상기 위험 알림 정보를 보호자 장치로 전달하는, 대상자 상태 정보 제공 장치.The method of claim 11, wherein the processor,
And when the state of the subject is the dangerous state, moves to the position of the subject, and transmits the risk notification information to the guardian device together with the subject's sound or image data.
대상자에 장착된 감지 장치로부터 상기 대상자의 심박수 및 체온을 포함하는 생체 데이터 및 상기 대상자의 움직임 횟수를 포함하는 움직임 데이터를 수신하는 단계;
상기 수신된 생체 데이터 및 움직임 데이터에 기반하여 상기 대상자 가 안정 상태,일반 상태, 활동 상태, 운동 상태 또는 위험 상태인지를 확인하는 단계; 및
상기 대상자가 상기 활동 상태인 경우 상기 대상자의 소리를 녹음한 소리 데이터를 생성하여 상기 생성된 소리 데이터를 보호자 장치로 전달하는 단계;
상기 대상자가 상기 운동 상태인 경우 상기 대상자를 촬영한 영상 데이터를 생성하여 상기 생성된 영상 데이터를 상기 보호자 장치로 전달하는 단계;
상기 대상자가 상기 위험 상태인 경우 상기 대상자의 위험을 알리기 위한 위험 알림 정보를 상기 보호자 장치로 전달하는 단계를 포함하고,
상기 위험 상태 알림 정보는 상기 위험 상태로 판단된 대상자의 심박수, 체온 및 움직임 횟수를 나타내는 정보를 포함하고,
상기 방법은,
날짜별 또는 시간별 녹음된 대상자에 관한 소리 데이터 및 날짜별 또는 시간별 촬영된 대상자에 관한 영상 데이터를 상기 보호자 장치로 제공하는 단계를 더 포함하는, 대상자 상태 정보 제공 장치에서 대상자 상태 정보를 제공하는 방법.In the method for providing subject status information in the subject status information providing apparatus,
Receiving biometric data including the heart rate and body temperature of the subject and movement data including the number of movements of the subject from a sensing device mounted on the subject;
Determining whether the subject is in a stable state, a general state, an active state, an exercise state, or a dangerous state based on the received biometric data and movement data; And
Generating sound data recording sound of the subject and delivering the generated sound data to a guardian device when the subject is in the active state;
Generating the image data photographing the subject and transferring the generated image data to the guardian device when the subject is in the exercise state;
Delivering the risk notification information to the guardian device to notify the subject of the risk when the subject is in the dangerous state;
The dangerous state notification information includes information indicating the heart rate, body temperature, and the number of movements of the subject determined as the dangerous state,
The method,
And providing sound data about the subject recorded by date or time and image data about the subject photographed by date or time to the guardian device.
로봇을 이동시키는 주행부; 및
상기 통신 인터페이스 및 상기 주행부와 연결된 프로세서를 포함하고,
상기 프로세서는,
상기 통신 인터페이스를 통해서 대상자에 장착된 감지 장치로부터 상기 대상자의 심박수 및 체온을 포함하는 생체 데이터 및 상기 대상자의 움직임 횟수를 포함하는 움직임 데이터를 수신하고,
상기 수신된 생체 데이터 및 움직임 데이터에 기반하여 상기 대상자 가 안정 상태,일반 상태, 활동 상태, 운동 상태 또는 위험 상태인지를 확인하고,
상기 대상자가 상기 활동 상태인 경우 상기 대상자의 소리를 녹음한 소리 데이터를 생성하여 상기 생성된 소리 데이터를 보호자 장치로 전달하고,
상기 대상자가 상기 운동 상태인 경우 상기 대상자를 촬영한 영상 데이터를 생성하여 상기 생성된 영상 데이터를 상기 보호자 장치로 전달하고,
상기 대상자가 상기 위험 상태인 경우 상기 대상자의 위험을 알리기 위한 위험 알림 정보를 상기 보호자 장치로 전달하고,
상기 위험 상태 알림 정보는 상기 위험 상태로 판단된 대상자의 심박수, 체온 및 움직임 횟수를 나타내는 정보를 포함하고, ,
상기 프로세서는,
날짜별 또는 시간별 녹음된 대상자에 관한 소리 데이터 및 날짜별 또는 시간별 촬영된 대상자에 관한 영상 데이터를 상기 보호자 장치로 제공하고,
상기 프로세서는,
상기 확인된 상태 정보에 따라 상기 로봇을 상기 대상자의 위치로 이동시키도록 상기 주행부를 제어하는, 대상자 상태 정보 제공 로봇.Communication interface;
Traveling unit for moving the robot; And
A processor connected to the communication interface and the driving unit;
The processor,
Receiving biometric data including the heart rate and body temperature of the subject and movement data including the number of movements of the subject from a sensing device mounted on the subject through the communication interface,
Determine whether the subject is in a stable state, a general state, an active state, an exercise state, or a dangerous state based on the received biometric data and movement data;
When the subject is in the active state, generate sound data recording the subject's sound and transfer the generated sound data to the guardian device,
When the subject is in the exercise state, image data photographing the subject is generated, and the generated image data is transferred to the guardian device.
When the subject is in the dangerous state, risk notification information for notifying the subject's danger is transmitted to the guardian device,
The dangerous state notification information includes information representing the heart rate, body temperature and the number of movements of the subject determined as the dangerous state,
The processor,
Providing sound data about a subject recorded by date or time and image data about a subject photographed by date or time to the guardian device,
The processor,
And controlling the driving unit to move the robot to the position of the subject according to the identified state information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180092836A KR102015981B1 (en) | 2018-08-09 | 2018-08-09 | Apparatus, robot and method for providing status information of target user |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180092836A KR102015981B1 (en) | 2018-08-09 | 2018-08-09 | Apparatus, robot and method for providing status information of target user |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102015981B1 true KR102015981B1 (en) | 2019-08-28 |
Family
ID=67775374
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180092836A KR102015981B1 (en) | 2018-08-09 | 2018-08-09 | Apparatus, robot and method for providing status information of target user |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102015981B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210069358A (en) * | 2019-12-03 | 2021-06-11 | 안소영 | Accident prevention device |
KR20210113465A (en) * | 2020-03-05 | 2021-09-16 | 주식회사 렙딥 | Apparatus and Method for Detecting pessimistic Action based on IT-BT Convergence Technology |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100075272A (en) * | 2008-12-24 | 2010-07-02 | 주식회사 케이티 | Method for being care of an infant using a robot |
KR101196296B1 (en) * | 2011-03-23 | 2012-11-06 | 한경대학교 산학협력단 | Emergency monitoring system based on newly developed fall detection algorithm |
-
2018
- 2018-08-09 KR KR1020180092836A patent/KR102015981B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100075272A (en) * | 2008-12-24 | 2010-07-02 | 주식회사 케이티 | Method for being care of an infant using a robot |
KR101196296B1 (en) * | 2011-03-23 | 2012-11-06 | 한경대학교 산학협력단 | Emergency monitoring system based on newly developed fall detection algorithm |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210069358A (en) * | 2019-12-03 | 2021-06-11 | 안소영 | Accident prevention device |
KR102338294B1 (en) * | 2019-12-03 | 2021-12-10 | 안소영 | Accident prevention device |
KR20210113465A (en) * | 2020-03-05 | 2021-09-16 | 주식회사 렙딥 | Apparatus and Method for Detecting pessimistic Action based on IT-BT Convergence Technology |
KR102385398B1 (en) * | 2020-03-05 | 2022-04-13 | 주식회사 렙딥 | Apparatus and Method for Detecting pessimistic Action based on IT-BT Convergence Technology |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9934634B1 (en) | System employing a plurality of brain/body-generated inputs to control the multi-action operation of a controllable device | |
JP6525010B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND IMAGE DISPLAY SYSTEM | |
US20200099780A1 (en) | Mobile terminal and method of operating the same | |
KR101970962B1 (en) | Method and apparatus for baby monitering | |
US20230300456A1 (en) | Methods and Apparatus for Remote Camera Control With Intention Based Controls and Machine Learning Vision State Management | |
KR20150060553A (en) | Device control using a wearable device | |
WO2016031105A1 (en) | Information-processing device, information processing method, and program | |
KR102015981B1 (en) | Apparatus, robot and method for providing status information of target user | |
EP3528024B1 (en) | Information processing device, information processing method, and program | |
US20180095532A1 (en) | Virtual Reality Head-Mounted Device | |
JP7375770B2 (en) | Information processing device, information processing method, and program | |
US20210160150A1 (en) | Information processing device, information processing method, and computer program | |
JP2020005147A (en) | Information processing apparatus, movable body, remote control system, information processing method, and program | |
CN112702698A (en) | Monitoring alarm method, terminal and computer readable storage medium | |
KR102178990B1 (en) | Method for generating direction information of omnidirectional image and device for performing the method | |
US20210405686A1 (en) | Information processing device and method for control thereof | |
JP6679368B2 (en) | Facial expression recording system | |
JP7196856B2 (en) | Information processing device, information processing method, and program | |
CN114935975A (en) | Multi-user interaction method for virtual reality, electronic equipment and readable storage medium | |
KR20140111079A (en) | Method and System for Controlling Camera | |
US11792484B2 (en) | Information providing system, information providing method and management apparatus for information providing system for providing information obtained through a robot | |
US20210232219A1 (en) | Information processing apparatus, information processing method, and program | |
WO2019142621A1 (en) | Information processing device, information processing method, and program | |
US20240061495A1 (en) | Information processing apparatus, information processing method, and information processing program | |
TWI787205B (en) | Expression recording system, stroller, and expression recording program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |