KR20170114356A - 전자 장치 및 그 제어 방법 - Google Patents

전자 장치 및 그 제어 방법 Download PDF

Info

Publication number
KR20170114356A
KR20170114356A KR1020160040966A KR20160040966A KR20170114356A KR 20170114356 A KR20170114356 A KR 20170114356A KR 1020160040966 A KR1020160040966 A KR 1020160040966A KR 20160040966 A KR20160040966 A KR 20160040966A KR 20170114356 A KR20170114356 A KR 20170114356A
Authority
KR
South Korea
Prior art keywords
electronic device
user
message
unit
output
Prior art date
Application number
KR1020160040966A
Other languages
English (en)
Other versions
KR102548453B1 (ko
Inventor
김종태
김용호
류종현
박용국
임애영
조형래
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160040966A priority Critical patent/KR102548453B1/ko
Priority to US16/091,207 priority patent/US11350823B2/en
Priority to EP17779297.5A priority patent/EP3407230B1/en
Priority to PCT/KR2017/003218 priority patent/WO2017175997A1/ko
Publication of KR20170114356A publication Critical patent/KR20170114356A/ko
Application granted granted Critical
Publication of KR102548453B1 publication Critical patent/KR102548453B1/ko

Links

Images

Classifications

    • G06F19/3481
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0006ECG or EEG signals
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • A61B5/02055Simultaneously evaluating both cardiovascular condition and temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0453Sensor means for detecting worn on the body to detect health condition by physiological monitoring, e.g. electrocardiogram, temperature, breathing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72418User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting emergency services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72457User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones
    • H04M1/72572
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • H04W4/22
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/90Services for handling of emergency or hazardous situations, e.g. earthquake and tsunami warning systems [ETWS]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/04Constructional details of apparatus
    • A61B2560/0475Special features of memory means, e.g. removable memory cards
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0223Magnetic field sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0233Special features of optical sensors or probes classified in A61B5/00
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0247Pressure sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0257Proximity sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/029Humidity sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1112Global tracking of patients, e.g. by using GPS
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1172Identification of persons based on the shapes or appearances of their bodies or parts thereof using fingerprinting
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7405Details of notification to user or communication with user or patient ; user input means using sound
    • A61B5/741Details of notification to user or communication with user or patient ; user input means using sound using synthesised speech
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7435Displaying user selection data, e.g. icons in a graphical user interface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7455Details of notification to user or communication with user or patient ; user input means characterised by tactile indication, e.g. vibration or electrical stimulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/06Details of telephonic subscriber devices including a wireless LAN interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/027Services making use of location information using location based information parameters using movement velocity, acceleration information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Cardiology (AREA)
  • Physiology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Human Computer Interaction (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Pulmonology (AREA)
  • Environmental & Geological Engineering (AREA)
  • General Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Computer Hardware Design (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Vascular Medicine (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Telephone Function (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명의 다양한 실시 예에 따른 전자 장치는, 상기 전자장치의 움직임을 센싱하는 센서부; 외부 장치와 통신을 수행하는 통신부; 사용자 입력을 수신하는 입력부; 사용자에게 정보를 제공하는 출력부; 및 사용자의 생체 정보 및 상기 전자장치의 움직임에 기초하여 사용자에게 특정 동작을 유도하는 메시지를 상기 출력부를 통해 출력하거나 또는 상기 통신부가 상기 전자장치와 관련된 정보를 외부 장치에 전송하도록 제어하는 제어부;를 포함할 수 있다.

Description

전자 장치 및 그 제어 방법{ELECTRONIC DEVICE AND CONTROLING METHOD THEREOF}
본 발명은 전자장치 및 그 제어 방법에 관한 것이다. 더욱 상세하게는 생체 정보를 이용하여 전자장치를 제어하는 장치 및 방법에 관한 것이다.
최근 컴퓨터 기술 및 통신 기술의 발전으로 사용자의 신체에 부착하는 전자장치가 개발되었다. 이러한 전자장치는 웨어러블 장치로 불린다. 웨어러블 장치는 사용자의 신체에 부착되며 다양한 센서를 사용하여 사용자의 생체 정보를 수집하고, 사용자에게 건강과 관련된 정보를 제공할 수 있다. 특히 워치형 웨어러블 장치는 사용자의 손목에 착용되어 심박, 피부 표면 온도, 고도 변화 및 사용자의 움직임등을 감지할 수 있을 뿐만 아니라 지속적으로 사용자의 건강 정보를 모니터링 할 수 있다는 장점을 가지고 있다. 또한 이러한 건강 정보는 통신을 통해 다른 전자장치 또는 서버로 전송되어 사용자의 건강을 관리하는데 사용되고 있다.
한편 웨어러블 장치는 응급상황시 사용자의 상태 정보를 체크하여 의료진에게 연락을 취하는 정도의 응급 서비스를 제공하고 있지만, 사용자가 어느 정도의 응급상황에 처해 있는지에 대한 정보는 제공하지 않아 사용자의 가족 및 의료진은 사용자가 처한 상황의 긴급성을 명확히 파악할 수 없었다. 이런 이유로 기존의 웨어러블 장치가 제공하는 응급상황 서비스를 사용자가 사용하기 꺼려함으로 인해 응급 환자에 대한 적절한 조치가 늦어지는 문제가 발생할 수 있다.
본 발명의 실시예에 따른 전자장치는 다양한 센서를 사용하여 수집된 사용자의 생체 정보와 전자장치의 센서 변화값을 활용하여 사용자의 응급상황을 단계별로 분류하고, 각 단계에 따라 전자장치가 적절하게 동작할 수 있도록 함으로써 사용자에게 응급상황 단계별로 서비스를 제공하는데 그 목적이 있다.
본 발명의 다양한 실시예에 따른 전자장치는, 상기 전자장치의 움직임을 센싱하는 센서부; 외부 장치와 통신을 수행하는 통신부; 사용자 입력을 수신하는 입력부; 사용자에게 정보를 제공하는 출력부; 및 사용자의 생체 정보 및 상기 전자장치의 움직임에 기초하여 사용자에게 특정 동작을 유도하는 메시지를 상기 출력부를 통해 출력하거나 또는 상기 통신부가 상기 전자장치와 관련된 정보를 외부 장치에 전송하도록 제어하는 제어부;를 포함한다.
또한, 본 발명의 일 실시예에 따른, 전자장치의 제어 방법은, 사용자의 생체 정보를 수신하는 단계: 상기 전자장치의 움직임을 센싱하는 단계; 및 상기 생체 정보 및 상기 전자장치의 움직임에 기초하여 사용자에게 특정 동작을 유도하는 메시지를 출력하거나 전자장치와 관련된 정보를 외부 장치에 전송하는 단계;를 포함한다.
본 발명의 일 실시 예에 따른 전자 장치는 다양한 센서를 통해 사용자의 생체 정보 및 전자장치의 움직임에 대한 정보를 수집하고, 수집된 정보에 기초하여 사용자가 처한 응급상황을 단계별로 분류하고, 각 단계에 대응하는 동작을 수행함으로써 사용자, 사용자의 가족 및 의료진에게 응급상황에 맞는 응급 서비스를 제공할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 전자장치의 블록도를 도시한다.
도 2는 본 발명의 일 실시 예에 따른 전자 장치의 상세 블록도를 도시한다.
도 3은 본 발명의 일 실시 예에 따른 전자장치의 시스템 구성을 도시한다.
도 4a 및 도 4b는 본 발명의 일 실시 예에 따른 전자장치의 동작 방법에 대한 흐름도이다.
도 5는 본 발명의 일 실시 예에 따른 전자장치에서 사용자에게 제공하는 메시지의 예를 도시한다.
도 6은 본 발명의 일 실시 예에 따른 전자장치의 동작 예를 도시한다.
도 7은 본 발명의 다른 실시 예에 따른 전자장치의 동작 예를 도시한다.
이하, 본 문서의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 문서의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
본 문서에서, "가진다", "가질 수 있다", "포함한다" 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 문서에서, "A 또는 B", "A 또는/및 B 중 적어도 하나" 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 문서에서 사용된 "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제 1 사용자 기기와 제 2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 바꾸어 명명될 수 있다.
어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)", "~하는 능력을 가지는(having the capacity to)", "~하도록 설계된(designed to)", "~하도록 변경된(adapted to)", "~하도록 만들어진(made to)" 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어(hardware)적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU(central processing unit) 또는 AP(application processor))를 의미할 수 있다.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.
본 발명의 다양한 실시 예들에 따른 전자 장치는 예를 들면 스마트폰(smartphone) 이나 웨어러블 장치와 같은 휴대용 장치일 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 기술 발전에 따른 새로운 전자 장치를 포함할 수 있다.
이하, 첨부 도면을 참조하여, 다양한 실시 예들에 따른 전자 장치가 설명된다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 전자장치의 블록도를 도시한다.
도 1을 참조하면 전자장치는 통신부(101), 제어부(103), 센서부(105), 입력부(107) 및 출력부(109)를 포함할 수 있다.
통신부(101)는 외부 장치와 통신을 수행할 수 있다. 예를 들면 통신부(101)는 사용자의 전자장치 주변에 있는 다른 사용자의 전자장치 및 서버와 통신을 할 수 있다. 전자장치는 근거리 통신부를 포함할 수 있으며 근거리 통신부를 통해 주변에 있는 다른 사용자의 전자장치와 통신을 할 수 있다. 전자 장치는 다양한 폼팩터(form factor)를 가질 수 있다. 예를 들면 전자장치는 사용자의 신체에 부착되는 패치형, 사용자의 귀에 착용되는 귀걸이형 및 사용자의 손목에 착용되는 손목시계형일 수 있다. 이때, 전자 장치가 패치형, 귀걸이형, 손목 시계형 등과 같은 웨어러블형 폼팩터를 가지는 경우, 전자장치는 근거리 통신부를 이용하여 외부의 스마트 폰, PDA와 같은 사용자 단말과 통신을 수행할 수 있다. 또한 전자장치는 원거리 통신부를 포함할 수 있으며 3G 또는 LTE 방식으로 원거리에 있는 사용자와 통신을 수행할 수도 있다.
또한, 통신부는 외부장치로부터 생체 정보를 수신할 수 있다. 예를 들어, 전자 장치가 스마트 폰과 같은 사용자 단말로 구현된 경우, 전자장치는 외부의 웨어러블 장치로부터 생체 정보를 수신할 수 있다.
통신부(101)의 다양한 예에 대해서는 도 2의 설명에서 상세히 설명할 것이다.
입력부(107)는 사용자 입력을 수신할 수 있다. 입력부(107)는 사용자로부터 명령을 수신하여 제어부(103)로 전달 할 수 있다. 예를 들면 입력부(107)는 사용자의 터치, 호버링 및/또는 펜 입력을 감지하는 터치 센서일 수 있다. 실시 형태에 따라 펜 입력은 별도의 센서를 사용하여 감지할 수도 있다. 입력부(107)는 물리적인 버튼을 포함할 수도 있다. 입력부(107)의 다양한 예 및 형태에 대해서는 도 2의 설명에서 상세히 설명할 것이다.
출력부(109)는 사용자에게 정보를 제공할 수 있다. 출력부(109)는 사용자에게 시각, 청각 및 촉각의 형태로 정보를 제공할 수 있다. 출력부(109)는 예를 들면 디스플레이부, 오디오 모듈 및 진동부를 포함할 수 있다. 디스플레이부는 사용자에게 시각적 정보를 제공할 수 있다. 예를 들면 사용자에게 텍스트 메시지 또는 그래픽 오브젝트로 정보를 제공할 수 있다. 또 다른 예로, LED는 빛을 발광하여 사용자에게 정보를 제공할 수 있다.
오디오 모듈은 사용자에게 청각적 정보를 제공할 수 있으며, 메시지의 내용을 음성으로 출력할 수 있다. 오디오 모듈은 스피커 및 이어폰을 포함할 수 있다. 스피커는 전자장치에 빌트인 될 수 있다. 이어폰은 액세서리 형태로 제공될 수 있 있다. 진동부는 진동으로 사용자에게 정보를 제공할 수 있다. 출력부(109)의 다양한 형태에 대해서는 도 2의 설명에서 상세히 설명할 것이다.
센서부(105)는 전자장치의 움직임을 센싱할 수 있다. 실시 형태에 따라서 센서부(105)는 생체 센서를 포함할 수 있으며, 사용자의 생체 정보를 센싱 할 수 있다. 센서부(105)의 다양한 형태 및 기능에 대해서는 도 2의 설명에서 상세히 설명할 것이다.
제어부(103)는 전자장치의 전반적인 동작을 제어하며, 사용자의 생체 정보 및 전자장치의 움직임에 기초하여 사용자에게 특정 동작을 유도하는 메시지를 출력부(109)를 통해 출력하거나 또는 통신부(101)를 통해 메시지 및 전자장치의 위치 정보를 외부장치(예를 들어, 외부 전자 장치 또는 서버 등)로 전송할 수 있다. 제어부(103)는 센서부(105)에서 출력된 신호에 기초하여 생체 정보를 생성할 수 있다. 제어부(103)는 전자장치의 위치 정보에 기초하여 메시지 및 위치 정보를 전송할 외부 전자장치 및 서버를 결정하고, 외부 전자장치 및 서버로 메시지 및 위치 정보를 전송할 수 있다. 예를 들면, 사용자가 응급상황에 처한 것으로 결정되면, 제어부(103)는 현재 위치에서 가장 가까운 구조 센터를 검색하고 구조 센터로 응급상황에 대한 메시지 및 전자장치의 위치 정보를 전송하도록 통신부(101)를 제어할 수 있다.
제어부(103)는 센서부(105)에서 출력된 신호에 기초하여 전자장치의 고도를 측정할 수 있다. 센서부(105)에 의해 측정된 고도의 단위 시간당 변화량이 기 설정된 값보다 크고, 전자장치에서 일정 시간 동안 움직임이 감지되지 않는 경우, 제어부(103)는 사용자에게 움직이도록 요구하는 메시지를 출력하도록 출력부(109)를 제어할 수 있다. 예를 들면 사용자가 높은 곳에 추락하는 경우 급격한 고도의 변화가 감지될 수 있으며, 제어부(103)는 전자장치에서 이와 같이 급격한 고도 변화가 감지되면 추락 상황으로 결정할 수 있다. 제어부(103)의 다양한 기능에 대해서는 도 2의 설명에서 상세히 설명할 것이다.
도 2는 본 발명의 일 실시 예에 따른 전자 장치의 상세 블록도이다.
전자 장치(201)는, 예를 들면, 도 1에 도시된 전자 장치의 전체 또는 일부를 포함할 수 있다. 전자 장치(201)는 하나 이상의 제어부(예: AP(application processor))(210), 통신부(220), 가입자 식별 모듈(224), 메모리(230), 센서부(240), 입력부(250), 디스플레이부(260), 인터페이스(270), 오디오 모듈(280), 카메라 모듈(291), 전력 관리 모듈(295), 배터리(296), 인디케이터(297), 및 진동부(298)를 포함할 수 있다.
제어부(210)는, 예를 들면, 운영 체제 또는 어플리케이션 프로그램을 구동하여 제어부(210)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 제어부(210)는, 예를 들면, SoC(system on chip)로 구현될 수 있다. 한 실시예에 따르면, 제어부(210)는 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서(image signal processor)를 더 포함할 수 있다. 제어부(210)는 도 2에 도시된 구성 요소들 중 적어도 일부(예: 셀룰러 모듈(221))를 포함할 수도 있다. 제어부(210)는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
통신부(220)은, 도 1의 통신부(101)와 동일 또는 유사한 구성을 가질 수 있다. 통신부(220)은, 예를 들면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227)(예: GPS 모듈, Glonass 모듈, Beidou 모듈, 또는 Galileo 모듈), NFC 모듈(228) 및 RF(radio frequency) 모듈(229)을 포함할 수 있다.
셀룰러 모듈(221)은, 예를 들면, 통신 네트워크를 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 가입자 식별 모듈(예: SIM(subscriber identification module) 카드)(224)를 이용하여 통신 네트워크 내에서 전자 장치(201)의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 제어부(210)이 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다.
WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 어떤 실시예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다.
RF 모듈(229)은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈(229)은, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter), LNA(low noise amplifier), 또는 안테나(antenna) 등을 포함할 수 있다. 다른 실시예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다.
가입자 식별 모듈(224)은, 예를 들면, 가입자 식별 모듈을 포함하는 카드 및/또는 내장 SIM(embedded SIM)을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(230)(예: 메모리(130))은, 예를 들면, 내장 메모리(232) 또는 외장 메모리(234)를 포함할 수 있다. 내장 메모리(232)는, 예를 들면, 휘발성 메모리(volatile memory)(예: DRAM(dynamic RAM(random access memory)), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile memory)(예: OTPROM(one time programmable ROM(read only memory)), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나를 포함할 수 있다.
외장 메모리(234)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(MultiMediaCard) 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다. 외장 메모리(234)는 다양한 인터페이스를 통하여 전자 장치(201)와 기능적으로 및/또는 물리적으로 연결될 수 있다.
센서부(240)은, 예를 들면, 물리량을 계측하거나 전자 장치(201)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서부(240)은, 예를 들면, 제스처 센서(gesture sensor)(240A), 자이로 센서(gyro sensor)(240B), 기압 센서(barometer)(240C), 마그네틱 센서(magnetic sensor)(240D), 가속도 센서(acceleration sensor)(240E), 그립 센서(grip sensor)(240F), 근접 센서(proximity sensor)(240G), 컬러 센서(color sensor)(240H)(예: RGB(red, green, blue) 센서), 생체 센서(medical sensor)(240I), 온/습도 센서(temperature-humidity sensor)(240J), 조도 센서(illuminance sensor)(240K), 또는 UV(ultra violet) 센서(240M), 초음파 센서(240N) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로(additionally or alternatively), 센서부(240)은, 예를 들면, 후각 센서(E-nose sensor), EMG 센서(electromyography sensor), EEG 센서(electroencephalogram sensor), ECG 센서(electrocardiogram sensor), IR(infrared) 센서, 홍채 센서(iris scan sensor) 및/또는 지문 센서(finger scan sensor)를 포함할 수 있다. 센서부(240)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(201)는 제어부(210)의 일부로서 또는 별도로, 센서부(240)을 제어하도록 구성된 프로세서를 더 포함하여, 제어부(210)가 슬립(sleep) 상태에 있는 동안, 센서부(240)을 제어할 수 있다.
입력부(250)는, 예를 들면, 터치 패널(touch panel)(252), (디지털) 펜 센서(pen sensor)(254), 키(key)(256), 또는 초음파(ultrasonic) 입력 장치(258)를 포함할 수 있다. 터치 패널(252)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널(252)은 제어 회로를 더 포함할 수도 있다. 터치 패널(252)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다.
(디지털) 펜 센서(254)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트(sheet)를 포함할 수 있다. 키(256)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드(keypad)를 포함할 수 있다. 초음파 입력 장치(258)는 마이크(예: 마이크(288))를 통해, 입력 도구에서 발생된 초음파를 감지하여, 상기 감지된 초음파에 대응하는 데이터를 확인할 수도 있다.
디스플레이부(260)(예: 디스플레이(160))는 패널(262), 홀로그램 장치(264), 또는 프로젝터(266)를 포함할 수 있다.. 패널(262)은, 예를 들면, 유연하게(flexible), 투명하게(transparent), 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널(262)은 터치 패널(252)과 하나의 모듈로 구성될 수도 있다. 홀로그램 장치(264)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터(266)는 스크린(screen)에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치(201)의 내부 또는 외부에 위치할 수 있다. 한 실시예에 따르면, 디스플레이부(260)는 패널(262), 홀로그램 장치(264), 또는 프로젝터(266)를 제어하기 위한 제어 회로를 더 포함할 수 있다.
인터페이스(270)는, 예를 들면, HDMI(high-definition multimedia interface)(272), USB(universal serial bus)(274), 광 인터페이스(optical interface)(276), 또는 D-sub(D-subminiature)(278)를 포함할 수 있다. 인터페이스(270)는, 예를 들면, 도 1에 도시된 통신부(101)에 포함될 수 있다. 추가적으로 또는 대체적으로(additionally and alternatively), 인터페이스(270)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure digital) 카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈(280)은, 예를 들면, 소리(sound)와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈(280)은, 예를 들면, 스피커(282), 리시버(284), 이어폰(286), 또는 마이크(288) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
카메라 모듈(291)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, ISP(image signal processor), 또는 플래시(flash)(예: LED 또는 xenon lamp 등)를 포함할 수 있다.
전력 관리 모듈(295)은, 예를 들면, 전자 장치(201)의 전력을 관리할 수 있다. 한 실시예에 따르면, 전력 관리 모듈(295)은 PMIC(power management integrated circuit), 충전 IC(charger integrated circuit), 또는 배터리(296) 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다. PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 배터리 게이지는, 예를 들면, 배터리(296)의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 배터리(296)는, 예를 들면, 충전식 전지(rechargeable battery) 및/또는 태양 전지(solar battery)를 포함할 수 있다.
인디케이터(297)는 전자 장치(201) 또는 그 일부(예: 제어부(210))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 진동부(298)는 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동(vibration), 또는 햅틱(haptic) 효과 등을 발생시킬 수 있다. 도시되지는 않았으나, 전자 장치(201)는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 모바일 TV 지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어플로(mediaFloTM) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 문서에서 기술된 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시예에서, 전자 장치는 본 문서에서 기술된 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 다양한 실시예에 따른 전자 장치의 구성요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.
도 3은 본 발명의 일 실시 예에 따른 전자장치의 시스템 구성을 도시한다.
도 3을 참조하면 전자장치(301)는 웨어러블 장치일 수 있다. 도 3에 도시된 웨어러블 장치는 센서부, 통신부, 입력부, 출력부 및 통신부를 포함할 수 있다. 센서부, 통신부, 입력부, 출력부 및 통신부의 형태 및 기능에 대해서는 도 1 및 도 2에서 설명한 바와 동일하며, 동일한 기능을 수행하므로 상세한 설명은 생략할 것이다.
전자장치(301)는 근거리 통신부 및 원거리 통신부를 포함할 수 있다. 전자장치(301)는 근거리 통신부를 이용하여 전자장치(302)와 데이터를 송수신할 수 있다. 전자장치(302)는 예컨대 스마트폰일 수 있다. 전자장치(301) 및 전자장치(302)는 동일한 사용자가 휴대하는 전자장치 일 수 있으며, 전자장치(301) 와 전자장치(302)는 연동되어 동작할 수 있다. 예를 들면 전자장치(302)로 문자 메시지가 수신된 경우 전자장치(301)의 디스플레이부에 표시될 수 있다.
전자장치(301)는 사용자의 신체에 착용되어 사용자의 생체 신호를 센싱할 수 있다. 예를 들면 전자장치(301)는 워치 타입으로 사용자의 팔목에 착용될 수 있다. 전자장치(301)에 포함된 생체 센서는 사용자의 생체 신호를 센싱하여 전기 신호를 출력하고, 전자 장치(301) 는 사용자의 생체 신호를 바탕으로 생체 정보를 생성할 수 있다. 생체 정보는 예를 들면 심박수, 맥박수, 호흡수, 혈압 및 체온이 될 수 있다.
전자 장치(301)의 센서부는 전자장치(301)의 움직임을 감지할 수 있다. 또한, 전자 장치(301)의 센서부는 고도 센서를 포함할 수 있으며 고도 센서를 이용하여 현재 사용자가 위치한 지점의 고도를 측정할 수 있다. 전자장치(301)는 고도센서에서 출력된 신호에 기초하여 사용자의 추락 여부를 결정할 수 있다. 즉, 사용자가 추락하는 경우, 사용자의 신체에 착용된 전자장치(301)는 고도센서를 통해 전자장치의 고도에 따른 전기 신호를 출력하고, 제어부는 상기 전기 신호로부터 고도의 급격한 변화가 있음을 식별하고, 이에 따른 메시지(예를 들어, 응급 사고 메시지 등)를 출력할 수 있다. 또한 전자장치(301)는 근거리 무선 통신을 통해 사용자 메시지 및 사용자의 위치 정보를 주변에 있는 다른 사용자의 전자장치(303, 305)인 스마트폰으로 전송할 수 있다. 또는 전자장치(301)는 원거리 무선 통신을 통해 메시지를 기지국(307)으로 전송하고, 기지국(307)에서는 메시지를 사용자 가족의 스마트폰(309), 병원 서버(313) 및 구조 센터(311)로 전송할 수 있다.
전자장치(301)는 센서부에서 출력된 신호에 기초하여 출력될 메시지의 형태를 결정할 수 있다. 또한 전자장치(301)는 메시지에 기초하여 사용자 입력을 수신하고 사용자 입력에 기초하여 다른 메시지를 사용자에게 출력할 수 있다. 또는 전자장치(302)는 메시지에 기초하여 수신된 사용자 입력을 바탕으로 주변에 있는 전자장치로 도움을 요청하는 메시지를 전송할 지 또는 사용자 가족의 스마트폰(309), 구조센터(311) 및 병원(313) 등으로 도움을 요청하는 메시지를 전송할지를 결정할 수 있다.
실시 형태에 따라(예를 들어, 전자장치(301)가 원거리 통신이 불가능한 경우) 전자장치(301)는 센싱한 정보, 예컨대 사용자의 생체 정보 및 고도 정보를 전자장치(302)로 전송할 수 있다. 즉, 전자장치(301)는 근거리 무선 통신을 활용하여 전자장치(301)에서 센싱한 정보를 전자장치(302)로 전송할 수 있다. 전자장치(302)는 전자장치(301)로부터 수신한 센싱 정보에 기초하여 메시지를 출력하거나 또는 근거리 무선 통신을 통해 메시지를 주변에 있는 다른 사용자의 전자장치(303, 305)로 전송할 수 있다. 또는 전자장치(302)는 메시지를 원거리 통신을 통해 기지국(307)으로 전송하고, 기지국(307)에서는 메시지를 사용자 가족의 스마트폰(309), 병원 서버(313) 및 구조 센터(311)로 전송할 수 있다.
전자장치(302)는 사용자 입력을 요구하는 메시지를 출력한 상태에서 사용자 입력을 수신하고, 사용자 입력에 기초하여 다른 메시지를 사용자에게 출력하거나 또는 주변에 있는 전자장치로 도움을 요청하는 메시지를 전송할 수 있다또는 전자장치(302)는 사용자 가족의 스마트폰(309), 구조센터(311) 및 병원으로 도움을 요청하는 메시지를 전송할 수 있다.
전자장치(302)는 마이크를 더 포함하며, 마이크를 통해 입력되는 음성에 기초하여 사용자의 응급상황 여부를 결정할 수 있다. 예를 들면 전자장치는 "괜찮으면 괜찮다고 말해 보세요" 라는 메시지를 출력하고, 마이크를 통해 사용자로부터 "괜찮다"는 음성을 수신하는 응급상황이 아닌 것으로 결정할 수 있다. 마이크를 통해 사용자로부터 아무런 입력이 수신되지 않는 경우, 전자장치는 응급상황으로 결정할 수 있다.
출력부가 터치스크린을 포함하는 경우, 전자장치는 터치스크린을 통해 사용자 입력을 수신하고, 사용자 입력에 기초하여 사용자의 응급상황 여부를 결정할 수 있다. 예를 들면 전자장치는 터치스크린에 버튼을 표시하고, 사용자에게 버튼을 터치하라는 메시지를 출력한후, 사용자로부터 터치 입력이 수신되면 응급상황이 아닌것으로 결정하고 사용자로부터 터치 입력이 없는 경우에는 응급상황으로 결정할 수 있다.
도 4a 및 도 4b는 본 발명의 일 실시 예에 따른 전자장치의 동작 방법에 대한 흐름도이다.
도 4a를 참조하면 전자장치(301)는 동작 401에서 사용자의 생체 정보를 수신할 수 있다. 전자장치(301)는 사용자의 신체에 부착되거나 또는 장착될 수 있다. 예를 들면 전자장치(301)는 손목 시계형 웨어러블 장치일 수 있다. 특히, 전자장치(301)는 생체 센서를 포함할 수 있으며, 생체 센서를 통해 사용자의 생체 정보(예를 들어, 심박수, 맥박수, 혈압, 체온 등)를 수신한다. 전자장치는 사용자의 생체 정보를 분석하여 사용자가 정상 상태인지 또는 이상 상태인지 결정할 수 있다. 예를 들면 사용자의 심박이 정상치보다 빠르거나 늦는 경우, 전자장치(301)는 사용자가 이상 상태에 있는 것으로 결정할 수 있다.
전자장치(301)는 동작 403에서 전자장치(301)의 움직임을 감지할 수 있다. 특히, 동작401에서 사용자가 이상 상태에 있는 것으로 판단되는 경우, 전자장치(301)는 사용자의 움직임이 있는지 여부를 판단하기 위해 센서부를 통해 전자장치(301)의 움직임을 감지할 수 있다. 일정 시간 동안 전자장치에서 움직임이 감지되지 않는 경우, 전자장치(301)는 사용자가 이상 상태에 있는 것으로 결정할 수 있다. 구체적으로, 전자장치(301)는 센서부에서 출력된 신호에 기초하여 전자장치의 움직임을 감지할 수 있다. 센서부에는 가속도 센서가 포함될 수 있으며, 전자장치(301)는 가속도 센서에서 출력된 신호를 분석하여 전자장치의 움직임 여부를 결정할 수 있다.
전자장치(301)는 동작 405에서 생체정보 및 전자장치의 움직임에 기초하여 사용자에게 특정 동작을 유도하는 메시지를 출력하거나 또는 통신부를 통해 전자장치(301)와 관련된 정보를 전송할 수 있다. 사용자의 생체정보 및 전자장치(301)의 움직임 판단 결과 사용자가 응급상황에 있다고 판단되는 경우, 전자장치(301)는 사용자의 응급상황의 단계를 결정하기 위해 사용자에게 움직임을 요구하는 메시지를 출력할 수 있다. 응급상황의 단계는 예를 들면 1단계부터 3단계로 분류될 수 있으며, 1단계 응급상황은 가장 심각한 상황으로 사용자가 의식이 없어 움직임이 감지되지 않으며 즉각적인 응급 조치가 필요한 경우일 수 있다. 사용자의 생체 정보가 이상 상태 범위에 있고 사용자의 움직임이 일정 시간 동안 감지 되지 않는 경우, 전자장치(301)는 1단계 응급상황으로 결정하고, 가까운 거리에 있는 구조 센터(311)를 검색하고 구조 센터(311)로 사용자의 위치 정보를 전송할 수 있다.
2단계 응급상황은 사용자가 어느 정도 의식이 있다고 판단되는 경우이며, 전자장치(301)는 사용자의 생체 정보가 이상 상태 범위에 있고 사용자의 움직임이 감지되면 사용자의 안부를 확인하는 메시지를 출력할 수 있다. 이때, 전자장치(301)는 예컨대 사용자에게 "괜찮나요" 라는 음성을 출력하거나 또는 디스플레이부를 통해 표시할 수 있다. 사용자가 출력된 메시지에 응답을 하지 않으면, 전자장치(301)는 2단계 응급상황으로 결정할 수 있다. 전자장치(301)는 2단계 응급상황에서는 통신부를 통해 주변에 있는 사용자의 전자장치(303,305)에게 사용자의 위치 정보 및 구조 요청을 알리는 메시지를 전송할 수 있다. 전자장치(301)는 근거리 무선 통신을 통해 주변에 있는 사용자의 전자장치(303,305)에게 도움을 요청하는 메시지 및 사용자의 위치정보를 전송할 수 있다. 또한 전자장치(301)는 사용자에게 사용자가 취해야 할 동작에 대한 메시지를 출력하여 사용자가 안정된 자세에 있도록 요구할 수 있다. 예를 들면, 전자장치(301)는 "움직이지 말고 똑바로 누우세요" 라는 메시지를 사용자에게 출력할 수 있다.
3단계 응급상황은 사용자가 비교적 경미한 상태에 있다고 전자장치(301)가 판단하는 경우이다. 사용자의 생체 정보가 이상 상태 범위에 있고, 전자장치(301)에서 움직임이 감지되고, 전자장치(301)가 출력한 메시지에 응답하여 사용자 입력이 수신되는 경우, 전자장치(301)는 3단계 응급상황으로 결정할 수 있다. 사용자의 안부를 묻는 메시지에 응답하여 사용자로부터 입력이 수신되면, 전자장치(301)는 2차 메시지를 출력할 수 있다. 1차 메시지를 출력한 후 사용자로부터 1차 메시지와 관련된 동작이 수행되는 경우, 전자장치(301)는 2차 메시지를 출력할 수 있다. 2차 메시지는 예컨대 사용자의 상태를 체크하기 위한 질문을 포함할 수 있다. 또한, 2차 메시지는 설문 형태로 제공될 수도 있다. 사용자로부터 2차 메시지에 대한 응답이 수신되면, 전자장치(301)는 응답 결과에 따라 사용자의 잠재적인 이상 유무를 판단하고, 사용자가 잠재적인 이상 상태에 있다고 판단되는 경우, 전자장치(301)는 3단계 응급상황으로 결정하고 가까운 병원(313)에 대한 정보를 사용자에게 제공함으로써 사용자를 가까운 병원(313)으로 안내할 수 있다.
도 4b를 참조하여 전자장치(301)의 동작 방법을 상세히 설명한다. 동작 431 및 동작 433은 도 4a의 동작 401 및 403과 동일하므로 이에 대한 설명은 생략한다. 전자장치(301)는 동작 435에서 사용자의 생체 정보에 기초하여 이상상황을 감지할 수 있다. 구체적으로, 전자장치(301)는 센서부에서 출력된 신호에 기초하여 사용자의 이상 상황을 감지할 수 있다. 센서부는 생체 센서를 포함할 수 있으며, 심박수, 맥박 수, 혈압 및 체온 등과 같은 사용자의 생체 정보를 센싱하고 이에 따라 전기 신호를 출력할 수 있다. 전자장치(301)는 센서부에서 출력된 전기 신호를 바탕으로 생체 정보를 생성하고 사용자의 현재 상태를 식별할 수 있다. 예를 들면, 사용자의 심박수, 맥박 수, 혈압 및 체온이 정상 범위를 벗어난 경우, 전자장치(301)는 사용자가 이상 상황에 처해 있는 것으로 결정할 수 있다. 전자장치(301)는 사용자의 이상 상황을 감지하고 사용자의 움직임을 체크할 수 있다. 사용자의 움직임은 사용자가 착용 또는 휴대하는 전자장치(301)로부터 움직임이 감지되는지 여부를 판단하여 결정할 수 있다. 전자장치(301)는 동작 437에서 일정 시간 동안 전자장치에서 움직임이 감지되는지 여부를 판단한다. 구체적으로, 전자장치(301)는 센서부에 포함된 가속도 센서의 출력값을 분석하여 전자장치(301)의 움직임 여부를 판단할 수 있다. 전자장치(301)에서 일정 시간 동안 움직임이 판단되지 않으면, 전자장치(301)는 동작 439에서 주변 사용자에게 사용자의 현재 위치 정보를 전송할 수 있다. 전자장치(301)는 전자장치(301)의 위치 정보를 전자장치(301)에 포함되어 있는 GPS 수신기를 이용하여 획득할 수 있다. 실시 형태에 따라(예를 들어, 전자장치(301)에 GPS 수신기가 없는 경우) 전자장치(301)는 위치 정보를 다른 전자장치(예를 들어, 전자장치(302), 기지국(307))로부터 수신할 수 있다. 전자장치(301)는 주변에 있는 전자장치(303,305)를 검색하여 주변에 있는 사용자를 검색할 수 있다. 전자장치(301)는 근거리 무선 통신을 이용해 주변에 있는 사용자의 전자장치(303,305)를 검색할 수 있다. 예를 들면, 전자장치(301)는 블루투쓰 또는 와이파이 통신을 이용하여 주변에 있는 전자장치(303,305)를 검색하고 검색된 전자장치(303,305)에게 사용자의 위치 정보 및 구조 요청 메시지를 전송할 수 있다. 구조 요청 메시지는 사용자에 의해 미리 설정되거나 또는 전자장치 제조 업체에서 미리 설정한 것일 수 있다.
전자장치(301)는 동작 441에서 최단 거리에 있는 구조 센터(311)를 검색할 수 있다. 전자장치(301)는 자신의 위치 정보에 기초하여 최단 거리에 있는 구조 센터(311)를 결정할 수 있다. 구체적으로, 구조 센터가 검색되면, 전자장치(301)는 자신의 위치와 구조 센터 위치간의 거리를 계산하고 최단 거리에 있는 구조 센터(311)를 결정할 수 있다.
전자장치(301)는 동작 443에서 검색된 구조 센터(311)로 사용자의 위치 정보 및 구조 요청 메시지를 전송할 수 있다. 최단 거리에 있는 구조 센터(311)가 결정되면, 전자장치(301)는 원거리 통신을 통해 검색된 구조 센터(311)로 전자장치(301)의 위치 정보 및 구조 요청 메시지를 전송할 수 있다.
동작 437에서 전자장치(301)에서 움직임이 감지되면, 전자장치(301)는 사용자가 움직이는 것으로 판단하고, 동작 445에서 제 1 메시지를 출력할 수 있다. 제 1 메시지는 사용자의 안부를 확인하는 메시지일 수 있다. 예를 들면 "괜찮습니까", "불편한 곳은 없나요?" 같은 문구일 수 있다. 전자장치(301)는 제 1 메시지를 디스플레이부에 표시할 수 있다. 또는 전자장치(301)는 제 1 메시지를 음성으로 출력할 수 있다. 또는 전자장치(301)는 제 1 메시지를 진동으로 출력할 수 있다. 제 1 메시지는 사용자에 의해 미리 설정된 메시지일 수 있다. 또는 제 1 메시지는 전자장치(301) 제조시 미리 설정되어 제공될 수도 있다. 제 1 메시지는 사용자의 응답을 요구하는 메시지일 수 있다. 또한 제 1 메시지는 사용자에게 특정 동작을 요구하는 메시지일 수 있다. 예를 들면 제 1 메시지는 "괜찮으면 대답해주세요" 라고 사용자에게 음성 입력을 요구하는 것일 수 있다. 또는 제 1 메시지에 "웨어러블 장치를 착용한 손을 위로 들어 보세요"라고 사용자에게 특정 동작을 요구하는 것일 수 있다.
전자장치(301)는 동작 447에서 사용자로부터 응답이 있는지 여부를 체크할 수 있다. 제 1 메시지를 출력하고 소정 시간 이내에 사용자로부터 제 1 메시지에 대응하는 응답을 수신하면, 전자장치(301)는 동작 449에서 제 2 메시지를 출력할 수 있다. 제 2 메시지는 사용자의 상태를 확인하기 위한 메시지일 수 있으며, 복수의 질문을 포함할 수 있다. 제 2 메시지는 복수의 설문 형태를 포함할 수 있으며, 전자장치(301)는 사용자가 입력한 응답을 분석하여 사용자의 상태를 결정할 수 있다. 제 2 메시지는 동작 445와 동일하게 시각, 청각 및 촉각 정보 형태로 제공될 수 있다.
동작 451에서 제 2 메시지가 출력된 상태에서 사용자로부터 제 2 메시지에 대한 응답이 있는 경우, 전자장치(301)는 동작 453에서 응답 결과에 기초하여 사용자가 잠재적인 이상 상황에 있는지 여부를 결정할 수 있다. 제 2 메시지는 복수의 문항을 포함하는 설문지 형태로 제공될 수 있다. 전자장치(301)는 설문 내용에 대한 응답을 분석하여 동작 455에서 사용자가 잠재적인 이상 상황에 있는지 여부를 결정할 수 있다. 즉, 전자장치(301)는 제 2 메시지가 출력된 상태에서 사용자로부터 수신된 입력에 기초하여 사용자의 잠재적인 이상 여부를 결정할 수 있다. 구체적으로 전자장치(301)는 제 2 메시지가 출력된 상태에서 사용자로부터 수신된 정답의 개 수에 기초하여 사용자의 이상 여부를 결정할 수 있다.
예를 들면, 설문지가 10개의 문항으로 되어 있고 사용자가 3개 이하로 정답을 체크한 경우, 전자장치(301)는 사용자가 잠재적인 이상 상황에 있는 것으로 결정할 수 있다. 사용자가 잠재적인 이상 상황에 있는 것으로 결정되는 경우, 전자장치(301)는 가까운 병원(313)을 검색하고 가까운 병원(313)에 대한 위치 정보를 사용자에게 제공할 수 있다. 전자장치(301)는 자신의 위치 정보에 기초하여 하나 이상의 병원을 검색하고 검색된 병원과 전자장치(301) 간의 거리를 계산하여 가장 가까운 거리에 있는 의료 기관(313)을 결정할 수 있다. 가까운 의료 기관(313)이 결정되면, 전자장치(301)는 의료 기관(313)의 위치 정보를 디스플레이부에 표시하거나 또는 음성으로 출력할 수 있다.
동작 447에서 사용자로부터 응답이 없는 경우, 전자장치(301)는 동작 459에서주변 사용자의 전자장치(303,305)에게 위치 정보를 전송할 수 있다. 전자 장치(301)가 주변의 전자장치(303,305)에게 위치 정보를 전송하는 동작은 동작 439와 동일하므로 설명은 생략한다.
전자장치(301)는 동작 461에서 제 3 메시지를 출력할 수 있다. 제 3 메시지는 시각, 청각, 촉각 등을 활용하여 제공될 수 있다. 제 3 메시지는 사용자의 안정을 유도하는 내용을 포함할 수 있다. 즉, 제 3 메시지는 사용자에게 특정 동작을 요구하는 내용을 포함할 수 있다.
도 5는 본 발명의 일 실시 예에 따른 전자장치(301)에서 사용자에게 제공하는 메시지의 예를 도시한다.
도 5를 참조하면 사용자의 상태를 체크하기 위해 전자장치(301)에서 제공하는 메시지가 도시되어 있다. 도 4a 및 도 4b에서 설명한 바와 같이 전자장치(301)는 사용자의 안부를 확인하기 위해 제 1 메시지 및 제 2 메시지를 출력할 수 있다. 전자장치(301)는 사용자의 안부를 확인하기 위해 제 1 메시지(501a, 501b)를 디스플레이부(501)에 표시할 수 있다. 디스플레이부(501)는 터치 입력을 감지할 수 있다. 제 1 메시지가 출력되는 조건은 도 4a 및 도 4b에서 설명한 바와 동일하므로 상세한 설명은 생략한다. 전자장치(301)는 생체 정보 및 전자장치(301)의 움직임에 기초하여 제 1 메시지를 출력할 수 있다. 전자장치(301)는 사용자의 안부를 확인하는 메시지(501a) 및 사용자의 응답을 요구하는 메시지(501b)를 디스플레이부(501)에 표시할 수 있다. 전자장치(301)는 사용자의 안부를 확인하는 메시지(501a)가 표시된 상태에서 메시지(501b)를 통해 사용자 입력을 수신할 수 있다. 메시지(501b)는 텍스트 및 그래픽 오브젝트를 포함할 수 있다. 예를 들면 메시지(501b)는 사용자 입력을 유도하는 문구 또는 버튼을 포함할 수 있다. 사용자 입력을 유도하는 문구(501b) 또는 버튼이 표시되는 위치는 가변적일 수 있다.
제 1 메시지는 사용자에게 질문을 하는 메시지(501a) 및 사용자의 수신을 입력 받는 그래픽 오브젝트(501b)를 포함할 수 있다. 그래픽 오브젝트(501b)에는 사용자로부터 응답을 유도하는 텍스트가 포함될 수 있다. 제 1 메시지는 음성 출력(503)으로 제공될 수 있다. 예를 들면 전자장치(301)는 음성으로 메시지(503)을 출력할 수 있다. 음성 출력(503)은 전자장치(301)에 포함된 스피커를 통해 사용자에게 제공될 수 있다. 또한 음성 출력(503)은 블루투쓰와 같은 근거리 무선 통신을 통해 사용자가 착용하고 있는 이어폰으로 제공될 수 있다. 또는 음성 출력(503)은 이어폰 잭을 통해 이어폰으로 제공될 수 있다.
또는 제 1 메시지는 사용자에게 특정 동작을 요구하는 내용을 포함할 수 있다. 전자장치(301)는 제 1 메시지를 출력하고 센서부를 통해 전자장치(301)의 움직임을 감지할 수 있다. 예를 들면 전자장치(301)는 "오른 팔을 머리 위로 들어 보세요(505)"라는 메시지를 출력하고 전자장치(301)의 움직임을 감지할 수 있다. 또는 전자장치(301)는 "엄지 손가락을 접어 보세요(507)" 라는 메시지를 출력하고 전자장치(301)의 움직임을 감지할 수 있다. 구체적으로 전자장치(301)는 제 1 메시지를 출력하고, 가속도 센서에서 출력된 신호에 기초하여 전자장치(301)의 움직임을 결정할 수 있다.
전자장치(301)는 사용자의 상태를 확인하기 위해 제 2 메시지(509)를 출력할 수 있다. 제 2 메시지가 출력되는 조건 및 형태에 대해서는 도 4a 및 도 4b에서 설명한 바와 동일하므로 상세한 설명은 생략한다. 제 2 메시지는 설문지(509)를 포함할 수 있으며 디스플레이부(501)에 표시될 수 있다. 제 2 메시지는 복수의 문항을 포함하며, 사용자에게 지각적 행동 또는 인지적 행동을 요구하는 메시지를 포함 할 수 있다.
도 6은 본 발명의 일 실시 예에 따른 전자장치(301)의 동작 예를 도시한다.
도 6을 참조하면, 동작 601에서 사용자가 등산 중 추락하는 사고가 발생하는 경우, 전자장치(301)는 동작 602에서 센서부를 통해 사용자의 고도가 급격히 변경된 것을 감지할 수 있다. 또한, 전자장치(301)는 센서부를 통해 사용자의 심박수가 급격히 변경된 것을 감지할 수 있다. 구체적으로, 전자장치(301)는 심박 센서에서 출력된 신호에 기초하여 사용자의 심박수를 체크하고 사용자의 심박수가 급격히 변경되었는지 여부를 결정할 수 있다. 특히, 일정 시간 주기로 심박수를 체크하고 심박수가 이전 심박수보다 크게 변한 경우, 전자장치(301)는 사용자가 이상 상황에 있는 것으로 결정할 수 있다.
전자장치(301)는 전자장치(301)의 고도 및 사용자의 생체 정보에 기초하여 사용자가 이상 상황에 있는지 여부를 결정하고, 사용자의 움직임이 감지되는지를 체크할 수 있다. 전자장치(301)는 전자장치(301)의 움직임에 따라 사용자의 움직임 여부를 결정할 수 있다. 전자장치(301)는 동작 603에서 가속도 센서에서 출력된 신호에 기초하여 전자장치(301)의 움직임 여부를 결정할 수 있다.
전자장치(301)의 고도 및 사용자의 심박수가 급격히 변한 것으로 판단되는 경우, 전자장치(301)는 센서부에서 출력된 신호를 체크하여 전자장치(301)의 움직임 여부를 결정할 수 있다. 전자장치(301)의 움직임이 없는 경우, 전자장치(301)는 동작 604에서 사용자가 1단계 응급상황에 있는 것으로 결정하고 이에 대응하는 동작을 수행할 수 있다. 1단계 응급상황에서 전자장치(301)는 주변에 있는 다른 전자장치(303,305)에게 사용자의 위치 정보를 전송할 수 있다. 또는, 전자장치(301)는 최단 거리에 있는 구조 센터(311)로 사용자의 위치 정보를 전송할 수 있다. 1단계 응급상황에서 전자장치(301)가 수행하는 구체적인 동작에 대해서는 도 4a 및 도 4b에서 설명한 바와 동일하므로 상세한 설명은 생략한다.
도 7은 본 발명의 다른 실시 예에 따른 전자장치(301)의 동작 예를 도시한다.
도 7을 참조하면 전자장치(301)는 동작 701에서 사용자가 운전중에 심박수의 이상을 감지할 수 있다. 전자장치(301)는 생체 센서를 통해 사용자의 심박수를 센싱할 수 있다. 현재 측정되는 심박수와 이전에 측정된 심박수의 차이가 기설정된 값 이상인 경우, 전자장치(301)는 심박수가 정상이 아닌 것으로 결정할 수 있다. 사용자의 심박수가 정상이 아닌것으로 결정되면, 전자장치(301)는 사용자의 움직임이 감지되는지 체크할 수 있다. 사용자의 움직임은 전자장치(301)의 움직임을 체크하여 판단할 수 있다. 전자장치(301)의 움직임이 미리 설정된 값보다 작은 것으로 판단되면, 전자장치(301)는 동작 703에서 사용자의 안부를 묻는 제 1 메시지를 출력할 수 있다. 전자장치(301)는 디스플레이부에 제 1 메시지 및 사용자에게 응답을 요구하는 그래픽 오브젝트를 표시할 수 있다. 또한 전자장치(301)는 사용자가 운전중인 것으로 판단하여 음성으로 제 1 메시지를 출력할 수 있다. 예를 들면 전자장치(301)는 사용자에게 "괜찮아요"라고 음성으로 메시지를 출력할 수 있다.
전자장치(301)는 제 1 메시지에 대한 응답의 결과로 사용자 입력을 수신하는 경우 동작 704에서 제 2 메시지를 출력할 수 있다. 제 2 메시지는 사용자의 동작을 요구하는 내용을 포함할 수 있다. 제 2 메시지는 복수의 설문 내용을 포함할 수 있다. 제 2 메시지의 출력 형태 및 내용에 대해서는 도 4a 및 도 4b에서 설명한 바와 동일하므로 상세한 설명은 생략한다.
제 2 메시지에 대한 응답의 결과로 사용자 입력을 수신하는 경우, 전자장치(301)는 동작 705에서 사용자의 현재 위치를 기준으로 최단 거리에 있는 병원(313)을 검색하고 위치를 출력할 수 있다. 또한 전자장치(301)는 사용자에게 병원(313)에 도착할 수 있는 정보를 제공하기 위해 앱을 구동할 수 있다. 예를 들면, 사용자가 운전중인 것으로 판단되면, 전자장치(301)는 네비게이션 앱을 구동하고 목적지로 가장 가까운 병원(313)의 위치를 설정하고 병원(313)까지 가는 길에 대한 정보를 제공할 수 있다. 혹은 전자장치(301)는 주변에 있는 장치(예를 들어, 자동차에 존재하는 네비게이션 장치)에 병원(313)에 대한 정보를 전송할 수 있다.
이상과 같이 본 발명의 일실시 예에 따른 전자 장치가 한정된 예시적 실시 예와 도면을 통해 설명되었으나, 일실시 예에 따른 전자 장치는 상기의 예시적 실시 예에 한정되는 것은 아니며, 전자 장치가 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 문서에 개시된 실시 예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 문서에서 기재된 기술의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 문서의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시 예를 포함하는 것으로 해석되어야 한다.
101 : 통신부
103 : 제어부
105 : 센서부
107 : 입력부
109 : 출력부

Claims (19)

  1. 전자장치에 있어서,
    상기 전자장치의 움직임을 센싱하는 센서부;
    외부 장치와 통신을 수행하는 통신부;
    사용자 입력을 수신하는 입력부;
    사용자에게 정보를 제공하는 출력부; 및
    사용자의 생체 정보 및 상기 전자장치의 움직임에 기초하여 사용자에게 특정 동작을 유도하는 메시지를 상기 출력부를 통해 출력하거나 또는 상기 통신부가 상기 전자장치와 관련된 정보를 외부 장치에 전송하도록 제어하는 제어부;를 포함하는 전자장치.
  2. 제 1 항에 있어서,
    상기 제어부는 상기 센서부에서 출력된 신호에 기초하여 상기 사용자의 생체 정보를 생성하는 것을 특징으로 하는 전자장치.
  3. 제 1 항에 있어서,
    상기 전자장치는,
    상기 통신부를 통해 외부 장치로부터 상기 생체 정보를 수신하는 것을 특징으로 하는 전자장치.
  4. 제 1 항에 있어서,
    상기 전자장치와 관련된 정보는 상기 전자장치의 위치 정보 및 상기 사용자의 응급상황을 알리는 메시지 중 적어도 하나를 포함하는 것을 특징으로 하는 전자장치.
  5. 제 4 항에 있어서,
    상기 통신부는 근거리 통신부를 포함하며, 상기 전자장치와 관련된 정보는 상기 근거리 통신부를 통해 전송되는 것을 특징으로 하는 전자장치.
  6. 제 4 항에 있어서,
    상기 제어부는,
    상기 위치 정보에 기초하여 상기 정보를 전송할 위치를 결정하고, 상기 위치로 상기 메시지를 전송하는 것을 특징으로 하는 전자장치.
  7. 제 1 항에 있어서,
    상기 출력부는 디스플레이부를 포함하며,
    상기 메시지는 상기 디스플레이부에 표시되는 것을 특징으로 하는 전자장치.
  8. 제 1 항에 있어서,
    상기 출력부는 스피커를 포함하며,
    상기 메시지는 상기 스피커를 통해 음성으로 출력되는 것을 특징으로 하는 전자장치.
  9. 제 1 항에 있어서,
    상기 생체 정보는 심박수, 맥박수, 체온 및 혈압 중 적어도 하나를 포함하며,
    상기 제어부는,
    상기 생체 정보가 설정된 값보다 작고, 상기 전자장치에서 일정 시간 동안 움직임이 감지되지 않는 경우, 상기 메시지를 출력하도록 상기 출력부를 제어하는 것을 특징으로 하는 전자장치.
  10. 제 1 항에 있어서,
    상기 제어부는,
    상기 센서부에서 출력된 신호에 기초하여 상기 전자장치의 고도를 측정하고, 상기 고도의 단위 시간당 변화량이 기 설정된 값보다 크고, 상기 전자장치에서 일정 시간 동안 움직임이 감지되지 않는 경우, 상기 메시지를 출력하도록 상기 출력부를 제어하는 것을 특징으로 하는 전자장치.
  11. 제 1 항에 있어서,
    상기 메시지는 상기 사용자에게 상기 전자장치를 움직이도록 유도하는 메시지인 것을 특징으로 하는 전자장치.
  12. 제 1 항에 있어서,
    상기 메시지는 상기 사용자에게 말을 하도록 유도하는 메시지인 것을 특징으로 하는 전자장치.
  13. 제 1 항에 있어서,
    상기 제어부는,
    상기 메시지에 대응하는 응답이 수신된 경우, 상기 출력부를 통해 2차 메시지를 출력하도록 상기 출력부를 제어하는 것을 특징으로 하는 전자장치.
  14. 제 1 항에 있어서,
    상기 전자장치는 마이크를 더 포함하며,
    상기 마이크를 통해 입력되는 음성에 기초하여 사용자의 응급상황 여부를 결정하는 것을 특징으로 하는 전자장치.
  15. 제 1 항에 있어서,
    상기 출력부는 터치스크린을 포함하며,
    상기 전자장치는 상기 터치스크린을 통해 사용자 입력을 수신하고, 상기 사용자 입력에 기초하여 사용자의 응급상황 여부를 결정하는 것을 특징으로 하는 전자장치.
  16. 사용자의 생체 정보를 수신하는 단계:
    상기 전자장치의 움직임을 센싱하는 단계; 및
    상기 생체 정보 및 상기 전자장치의 움직임에 기초하여 사용자에게 특정 동작을 유도하는 메시지를 출력하거나 전자장치와 관련된 정보를 외부 장치에 전송하는 단계;를 포함하는 전자장치의 제어 방법.
  17. 제 16항에 있어서,
    상기 전송하는 단계는,
    상기 전자장치의 위치 정보에 기초하여 상기 전자장치와 관련된 정보를 전송할 위치를 결정하는 단계; 및
    상기 위치로 응급상황 메시지를 전송 하는 단계;를 더 포함하는 전자장치의 제어 방법.
  18. 제 16항에 있어서,
    상기 전송하는 단계는,
    상기 생체 정보가 설정된 값보다 작고, 상기 전자장치에서 일정 시간 동안 움직임이 감지되지 않는 경우 상기 메시지를 출력하거나 상기 전자장치와 관련된 정보를 상기 외부 장치에 전송하는 것을 특징으로 전자장치의 제어 방법.
  19. 제 16 항에 있어서,
    상기 방법은,
    상기 전자장치의 고도를 측정하는 단계;를 더 포함하고,
    상기 전송하는 단계는,
    상기 고도의 단위 시간당 변화량이 설정된 값보다 크고, 상기 전자장치에서 일정 시간 동안 움직임이 감지되지 않는 경우, 상기 메시지를 출력하거나 상기 전자장치와 관련된 정보를 상기 외부 장치로 전송하는 것을 특징으로 하는 전자 장치의 제어 방법.

KR1020160040966A 2016-04-04 2016-04-04 전자 장치 및 그 제어 방법 KR102548453B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020160040966A KR102548453B1 (ko) 2016-04-04 2016-04-04 전자 장치 및 그 제어 방법
US16/091,207 US11350823B2 (en) 2016-04-04 2017-03-24 Electronic apparatus and control method therefor
EP17779297.5A EP3407230B1 (en) 2016-04-04 2017-03-24 Electronic apparatus and control method therefor
PCT/KR2017/003218 WO2017175997A1 (ko) 2016-04-04 2017-03-24 전자 장치 및 그 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160040966A KR102548453B1 (ko) 2016-04-04 2016-04-04 전자 장치 및 그 제어 방법

Publications (2)

Publication Number Publication Date
KR20170114356A true KR20170114356A (ko) 2017-10-16
KR102548453B1 KR102548453B1 (ko) 2023-06-28

Family

ID=60000494

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160040966A KR102548453B1 (ko) 2016-04-04 2016-04-04 전자 장치 및 그 제어 방법

Country Status (4)

Country Link
US (1) US11350823B2 (ko)
EP (1) EP3407230B1 (ko)
KR (1) KR102548453B1 (ko)
WO (1) WO2017175997A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200056175A (ko) * 2018-11-14 2020-05-22 (주)인더스웰 Aal기반 헬스케어 서비스시스템
KR20210057388A (ko) * 2019-11-12 2021-05-21 디노플러스 (주) Aal기반 헬스케어정보 처리시스템

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102422619B1 (ko) * 2018-02-14 2022-07-20 삼성전자 주식회사 위급한 상황에 처한 사용자의 위치 정보를 제공하는 전자 장치 및 방법
KR102524027B1 (ko) * 2018-05-04 2023-04-21 삼성전자주식회사 발열 제어를 위한 전자 장치 및 그의 동작 방법
CN109223324B (zh) * 2018-08-01 2021-10-15 潘路希 家庭急救智能综合仪
US11138857B2 (en) * 2019-09-30 2021-10-05 Siddharth Krishnakumar Sensor systems and methods for preventing falls
CN111387952B (zh) * 2020-03-26 2023-11-28 四川爱联科技股份有限公司 基于物联网的家禽远程监控***及方法
JP2023019743A (ja) * 2021-07-29 2023-02-09 富士フイルム株式会社 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150099430A (ko) * 2014-02-21 2015-08-31 삼성전자주식회사 전자 장치
KR20150136716A (ko) * 2014-05-27 2015-12-08 엘지전자 주식회사 스마트 밴드 및 이를 이용한 위험 상황 모니터링 방법

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69634242T2 (de) 1995-12-18 2005-06-30 Seiko Epson Corp. Vorrichtung zum feststellen des gesundheitszustandes und zum unterstützen von übungen
US7403972B1 (en) * 2002-04-24 2008-07-22 Ip Venture, Inc. Method and system for enhanced messaging
AU2003904336A0 (en) * 2003-08-15 2003-08-28 Medcare Systems Pty Ltd An automated personal alarm monitor
KR100884633B1 (ko) 2007-02-08 2009-02-23 이승재 자동화된 구조 요청 방법 및 장치
US7974689B2 (en) * 2007-06-13 2011-07-05 Zoll Medical Corporation Wearable medical treatment device with motion/position detection
JP2010097551A (ja) * 2008-10-20 2010-04-30 Panasonic Corp 携帯型入力装置および携帯型入力装置における入力方法
KR101090086B1 (ko) 2009-05-28 2011-12-07 (주)유카이트 생체신호 측정단말기, 이를 이용한 응급구호 서비스 제공방법 및 응급구호 시스템
US20150223705A1 (en) * 2010-03-12 2015-08-13 Rajendra Padma Sadhu Multi-functional user wearable portable device
US8915869B2 (en) * 2011-01-10 2014-12-23 Bioguidance Llc Patient monitoring device
US9035776B2 (en) 2011-01-20 2015-05-19 At&T Intellectual Property I, L.P. Wireless monitoring of safety helmets
US8976244B2 (en) * 2011-09-02 2015-03-10 Verizon Patent And Licensing Inc. Personal mobile surveillance systems and methods
KR101397997B1 (ko) 2012-04-23 2014-05-27 원광대학교산학협력단 헬스케어 유헬멧을 이용한 안전 시스템
US9934669B2 (en) * 2013-07-17 2018-04-03 Vivint, Inc. Geo-location services
KR20150061195A (ko) 2013-11-27 2015-06-04 전성희 모바일 응급 관리 시스템
US9491277B2 (en) * 2014-04-03 2016-11-08 Melissa Vincent Computerized method and system for global health, personal safety and emergency response
KR20150116206A (ko) 2014-04-07 2015-10-15 유동민 블루투스 기반의 웨어러블 생체 측정기기를 이용한 응급상황 알림 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체
KR20160015142A (ko) 2014-07-30 2016-02-12 넥시스 주식회사 글라스형 웨어러블 디바이스를 이용한 긴급시 비상연락방법 및 프로그램
TWI592910B (zh) * 2014-08-01 2017-07-21 Motion monitoring method and apparatus thereof
US20160089033A1 (en) 2014-09-29 2016-03-31 Microsoft Corporation Determining timing and context for cardiovascular measurements

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150099430A (ko) * 2014-02-21 2015-08-31 삼성전자주식회사 전자 장치
KR20150136716A (ko) * 2014-05-27 2015-12-08 엘지전자 주식회사 스마트 밴드 및 이를 이용한 위험 상황 모니터링 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200056175A (ko) * 2018-11-14 2020-05-22 (주)인더스웰 Aal기반 헬스케어 서비스시스템
KR20210057388A (ko) * 2019-11-12 2021-05-21 디노플러스 (주) Aal기반 헬스케어정보 처리시스템

Also Published As

Publication number Publication date
EP3407230B1 (en) 2024-03-06
KR102548453B1 (ko) 2023-06-28
EP3407230A1 (en) 2018-11-28
EP3407230A4 (en) 2019-03-06
US20190110683A1 (en) 2019-04-18
US11350823B2 (en) 2022-06-07
WO2017175997A1 (ko) 2017-10-12

Similar Documents

Publication Publication Date Title
KR102548453B1 (ko) 전자 장치 및 그 제어 방법
US9955248B2 (en) Wearable electronic device
KR102561587B1 (ko) 전자 장치 및 그의 동작 방법
KR102534724B1 (ko) 전자 장치 및 그의 동작 방법
KR102407564B1 (ko) 생체 정보를 판단하는 전자 장치 및 이의 동작 방법
CN107111925B (zh) 可穿戴急救套件
KR20170067050A (ko) 전자 장치 및 그의 동작 방법
EP2925020A1 (en) Method for adapting sound of hearing aid and hearing aid and electronic device performing the same
KR102223376B1 (ko) 데이터 소스 결정 방법
KR102393683B1 (ko) 센서를 포함하는 전자 장치 및 그의 동작 방법
KR20160035394A (ko) 센서 데이터 처리 방법 및 그 장치
CN105310659A (zh) 用于提高无接触体温测量的精度的装置和方法
EP3068149B1 (en) Method and apparatus for controlling a electronic device in a communication system
KR20170033025A (ko) 전자 장치 및 전자 장치의 동작 제어 방법
EP3540584A1 (en) Method for adjusting screen size and electronic device therefor
KR20170030230A (ko) 전자 장치 및 전자 장치의 동작 제어 방법
WO2022007720A1 (zh) 可穿戴设备的佩戴检测方法、装置及电子设备
EP4250069A2 (en) Apparatus and method for using imagined direction to perform at least one action
KR20180005055A (ko) 전자 장치의 화면 표시 방법 및 그 장치
KR20180059191A (ko) 전자 장치, 외부 전자 장치 및 전자 장치와 외부 전자 장치를 연결하기 위한 방법
KR20170069790A (ko) 가상 현실 서비스에서 오디오 신호를 처리하는 방법 및 이를 위한 전자 장치
US20200164176A1 (en) Electronic device for providing meditation contents and operating method thereof
KR101569880B1 (ko) 영상 신호 생성을 위한 웨어러블 장치 및 그 제어를 위한 시스템
KR20200120105A (ko) 전자 장치 및 그의 스트레스 해소를 위한 정보를 제공하는 방법
CN110339427B (zh) 一种输液监测方法、可穿戴设备及计算机可读存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right