KR20210047510A - 인체통신을 이용한 스피커 자동 발화 제어 방법 및 그를 수행하기 위한 웨어러블 디바이스 - Google Patents

인체통신을 이용한 스피커 자동 발화 제어 방법 및 그를 수행하기 위한 웨어러블 디바이스 Download PDF

Info

Publication number
KR20210047510A
KR20210047510A KR1020190131200A KR20190131200A KR20210047510A KR 20210047510 A KR20210047510 A KR 20210047510A KR 1020190131200 A KR1020190131200 A KR 1020190131200A KR 20190131200 A KR20190131200 A KR 20190131200A KR 20210047510 A KR20210047510 A KR 20210047510A
Authority
KR
South Korea
Prior art keywords
human body
speaker
information
body communication
external device
Prior art date
Application number
KR1020190131200A
Other languages
English (en)
Inventor
권은경
Original Assignee
주식회사 디엔엑스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 디엔엑스 filed Critical 주식회사 디엔엑스
Priority to KR1020190131200A priority Critical patent/KR20210047510A/ko
Priority to PCT/KR2020/009878 priority patent/WO2021080133A1/en
Priority to JP2022524116A priority patent/JP2022553405A/ja
Publication of KR20210047510A publication Critical patent/KR20210047510A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0026Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the transmission medium
    • A61B5/0028Body tissue as transmission medium, i.e. transmission systems where the medium is the human body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7405Details of notification to user or communication with user or patient ; user input means using sound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7465Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/067Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components
    • G06K19/07Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips
    • G06K19/077Constructional details, e.g. mounting of circuits in the carrier
    • G06K19/07749Constructional details, e.g. mounting of circuits in the carrier the record carrier being capable of non-contact communication, e.g. constructional details of the antenna of a non-contact smart card
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/385Transceivers carried on the body, e.g. in helmets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B13/00Transmission systems characterised by the medium used for transmission, not provided for in groups H04B3/00 - H04B11/00
    • H04B13/005Transmission systems in which the medium consists of the human body
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/385Transceivers carried on the body, e.g. in helmets
    • H04B2001/3861Transceivers carried on the body, e.g. in helmets carried in a hand or on fingers

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Nursing (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • User Interface Of Digital Computer (AREA)
  • Alarm Systems (AREA)

Abstract

본 발명은 인체통신을 이용한 스피커 자동 발화 제어 방법 및 그를 수행하기 위한 웨어러블 디바이스에 관한 것으로, 그 방법은 인체통신을 이용해 사용자가 접촉한 외부기기로부터 외부기기에 대한 식별데이터를 포함하는 행위 정보를 수신하는 단계; 인체통신을 이용한 행위 정보 수신에 응답하여 주변 상황에 대한 데이터를 포함하는 상황 정보를 획득하는 단계; 행위 정보 및 상황 정보에 기초하여 스피커의 자동 발화 여부 및 발화 메시지를 결정하는 단계; 및 결정된 발화 메시지가 스피커를 통해 발화되도록 처리하는 단계;를 포함한다.

Description

인체통신을 이용한 스피커 자동 발화 제어 방법 및 그를 수행하기 위한 웨어러블 디바이스{METHOD FOR CONTROLLING AUTO-SPEAKING OF SPEAKER USING HUMAN BODY COMMUNICATION AND WEARABLE DEVICE THEREOF}
본 발명은 인체통신을 이용하여 웨어러블 디바이스 또는 휴대용 단말기에 구비된 스피커 혹은 네트워크에 연결되어 있는 스피커의 자동 발화를 제어하는 방법에 관한 것이다.
일상생활에서의 자연스런 사물 접촉 행동은 실시간으로 사물에 대한 식별이나 원하는 정보를 획득하는 방법의 하나로 사용될 수 있다. 즉, 주변 사물을 접촉함으로써 공간정보, 행동정보, 의사욕구정보, 교통정보, 위치정보, 사물에 대한 사용정보 등을 획득할 수 있다. 이를 위해, 인체통신기술이 적용될 수 있다.
인체통신기술은 인체의 접촉을 통하여 인체를 매개로 정보를 전달하는 기술로서, 보안성이 높고 인체의 접촉을 통해 통신이 이뤄지므로 복잡한 연결 절차가 필요 없는 직관적인 통신 기술이다.
즉, 인체통신은 신체 접촉만으로 데이터를 주고받을 수 있으며, 이를 적용하기 위해서는 기본적으로 인체통신용 송수신 기능이 적용된 각종 사물, 장치, 기계, 태그들을 새로 만들어야 한다.
예를 들어, 인체 통신 장치는 리더기를 착용한 사용자의 인체가 태그가 포함된 대상 물체를 접촉하면 인체를 통신 매질로 하여 태그 정보를 리더기가 수신할 수 있다.
이때, 리더기는 인체통신 수신 기능을 포함하는 형태로 만들어야 하며 팔찌, 시계, 스마트폰 등 인체에 착용되거나 지닐 수 있는 웨어러블(wearable) 디바이스 형태로 구현될 수 있고, 태그는 인체통신 송신 기능을 포함하는 형태로 만들어야 한다.
한편, 종래의 스피커는 사용자가 미리 설정된 특정 음성을 말하는 경우 구동이 시작되어 그에 응답하나, 사용자의 행위에 응답하여 발화하는 스피커를 활용하여 고령자에 대한 케어(care) 서비스 등에 이용하는 것이 필요하다.
선행기술문헌 1. 한국등록특허 제10-0942706호(2010.02.09 공고)
본 발명의 목적은 상술한 바와 같은 문제점을 해결하기 위한 것으로, 사용자의 행위, 주변 상황, 시간 등에 따라 적응적으로 응답할 수 있는 인체통신을 이용한 스피커 자동 발화 제어 방법 및 그를 수행하기 위한 웨어러블 디바이스을 제공하는데 그 목적이 있다.
본 발명의 일실시예에 따른 방법은 웨어러블 디바이스에서 인체통신을 이용하여 스피커의 자동 발화를 제어하는 방법으로, 인체통신을 이용해 사용자가 접촉한 외부기기로부터 상기 외부기기에 대한 식별데이터를 포함하는 행위 정보를 수신하는 단계; 상기 인체통신을 이용한 행위 정보 수신에 응답하여, 주변 상황에 대한 데이터를 포함하는 상황 정보를 획득하는 단계; 상기 수신된 행위 정보 및 상기 획득된 상황 정보에 기초하여, 스피커의 자동 발화 여부 및 발화 메시지를 결정하는 단계; 및 상기 결정된 발화 메시지가 스피커를 통해 발화되도록 처리하는 단계;를 포함한다.
또한, 상기 결정 단계는 상기 수신된 식별 데이터를 이용하여, 상기 사용자가 접촉한 외부기기의 종류를 확인하는 단계; 및 상기 확인된 외부기기 종류와 상기 상황 정보에 포함된 시간 또는 날씨 데이터에 기초하여, 그에 대응되는 발화 메시지를 메모리로부터 읽어들이거나 외부 서버로부터 수신하는 단계;를 포함한다.
한편, 상기 스피커 자동 발화 제어 방법에 따른 단계들은, 본 발명의 일실시예에 따른 휴대용 단말기에서 수행되도록, 컴퓨터 프로그램으로 구성될 수 있으며, 해당 컴퓨터 프로그램은 컴퓨터로 읽을 수 있는 매체에 저장될 수 있다.
본 발명의 일실시예에 따른 웨어러블 디바이스는, 인체통신을 이용해 사용자가 접촉한 외부기기로부터 상기 외부기기에 대한 식별데이터를 포함하는 행위 정보를 수신하는 정보수신부; 현재 시간, 위치 및 날씨 중 적어도 하나에 대한 데이터를 포함하는 상황 정보를 획득하는 정보획득부; 상기 수신된 행위 정보 및 상기 획득된 상황 정보에 기초하여, 스피커의 자동 발화 여부 및 발화 메시지를 결정하는 발화결정부; 및 상기 결정된 발화 메시지가 스피커를 통해 발화되도록 처리하는 제어부;를 포함한다.
본 발명의 실시예에 따르면, 태그가 부착된 외부기기로부터 인체통신을 통해 행위 정보를 수신하고, 내부 또는 외부로부터 상황 정보를 획득하여, 획득된 정보의 조합에 기초해 스피커의 자동 발화 여부 및 발화 메시지를 결정하도록 함으로써, 사용자의 특정 상황 및 특정 행위에 따른 스피커 동작을 구현할 수 있으며, 이를 고령자에 대한 케어 서비스 등에 이용할 수 있다.
도 1은 본 발명의 일실시예에 따른 인체통신을 이용한 스피커 자동 발화 제어 시스템의 전체적인 구성을 나타내는 블록도이다.
도 2는 본 발명에 따른 인체통신을 이용한 스피커 자동 발화 제어 방법에 대한 일실시예를 나타내는 흐름도이다.
도 3은 사용자의 접촉시 웨어러블 디바이스에서 스피커를 통해 메시지를 자동 발화하는 방법에 대한 일실시예를 설명하기 위한 도면이다.
도 4는 행위 정보와 상황 정보에 따라 발화 메시지를 결정하는 방법에 대한 실시예들을 설명하기 위한 도면이다.
도 5는 휴대용 단말기에서 웨어러블 디바이스에 대한 정보를 제공하는 방법에 대한 일실시예를 설명하기 위한 도면이다.
이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.
또한, 본 발명의 원리, 관점 및 실시예들 뿐 아니라 특정 실시예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한, 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.
따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.
프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예들을 상세히 설명하기로 한다.
이하, 본 발명을 구체적인 내용이 첨부된 도면에 의거하여 상세히 설명한다.
본 발명의 실시예에 따르면, 태그가 부착된 외부기기로부터 인체통신을 통해 행위 정보를 수신하고, 내부 또는 외부로부터 상황 정보를 획득하여, 획득된 정보의 조합에 기초해 스피커의 자동 발화 여부 및 발화 메시지를 결정하도록 함으로써, 사용자의 특정 상황 및 특정 행위에 따른 적응적인 스피커 동작을 구현할 수 있으며, 이를 고령자에 대한 케어 서비스 등에 이용할 수 있다.
외부기기에 부착되는 태그에 대한 일실시예로서, 인체통신 사물부착 태그 장치는 인체통신 태그 본체, 케이스, 사물 부착부, 확장 접지부를 포함한다.
인체통신 태그 본체는 인체의 접촉을 통해 접촉된 사물의 식별 정보를 인체통신 수신 장치에 송신할 수 있다. 일 실시예에서, 인체통신 태그 본체는 센서부, 프로세싱부, 저장부, 인체통신 송신부, 배터리 및 클럭 생성부를 포함하여 구성하고, 이들 구성 부품들을 인쇄회로기판(PCB)에 장착하여 전기적으로 연결할 수 있다.
일 실시예에서, 인체통신 태그 본체는 센서확장부와 인체통신 전극부를 포함하여 구성하고, 이들 구성 부품부를 사물 부착부에 나란히 배치한 후 케이스의 외부로 노출되게 하여 인체의 일부분이 이 사물부착부에 접촉될 수 있게 기존 사물에 부착할 수 있다.
센서부는 인체의 접촉 상태를 감지할 수 있다. 일 실시예에서, 센서부는 압력이나 온도, 움직임 등을 센싱하여 인체의 접촉을 감지할 수 있도록 압력센서, 온도센서, 운동센서, 근접센서 등 다양한 센서로 구현될 수 있다.
일 실시예에서, 센서부는 사람이 일정 거리 이상 근접해 왔을때 근접 혹은 접촉을 감지하는 근접센서를 통해 사람의 접근을 센싱하여 인체의 접촉을 감지할 수 있다. 여기에서, 센서부는 센서확장부와 연결되어 인체 접촉의 센싱부분을 확장할 수 있다.
프로세싱부는 센서부에서 인체의 접촉이 감지되면 접촉 상황에 맞는 처리를 수행할 수 있다. 일 실시예에서, 프로세싱부는 센서부의 센서 종류에 따라 감지될 수 있는 접촉 여부, 운동량, 압력, 온도, 습도, 조도 등 적어도 하나를 포함하는 컨텍스트를 기초로 사용자의 상황을 추정하고 추정된 사용자의 상황에 따라 접촉된 사물정보를 사용자에게 제공할 수 있는 적어도 하나의 가용 조건을 결정할 수 있다.
저장부는 접촉된 해당 사물을 식별할 수 있는 사물식별정보 혹은 고유번호와 함께 부가정보가 저장될 수 있다. 여기에서, 부가정보는 사물이 사용자에게 제공할 수 있는 적어도 하나의 가용 조건별 서비스 컨텐츠를 포함하는 서비스 프로파일을 의미할 수 있다.
따라서, 해당 사물의 접촉 순간 사용자에게 의미있는 서비스 컨텐츠를 제공할 수 있다. 여기에서, 사물식별정보는 어떤 사물에 붙여졌는지(사물정보), 누가 언제 만들었는지(생산정보), 종류별 몇번째 태그인지 등을 의미할 수 있다.
부가정보는 사용자가 인체통신 수신부인 웨어러블 디바이스를 착용하지 않고 접촉한 횟수를 의미하는 카운트이거나 온도나 습도 센서에서 센싱된 값을 의미할 수 있다. 식별정보는 사물의 종류, 사물의 유형 등을 포함할 수 있다.
인체통신 송신부는 인체통신 전극부를 통하여 인체통신 수신 장치로 사물식별정보와 부가정보를 송신할 수 있다.
배터리는 인체통신 태그 본체에 동작 전원을 공급하는 전지를 의미할 수 있다.
클럭 생성부는 배터리로부터 동작 전압을 인가받고 각 구성부품들의 동작 클럭신호를 생성하여 제공한다.
센서 확장부는 센서부에 연결되고 사물 부착부의 길이 방향을 따라 길게 배치되어 인체 접촉의 센싱범위를 확장할 수 있다. 일 실시예에서, 센서 확장부는 인체의 접촉을 센싱하고 센싱신호를 센서부로 전달할 수 있다.
인체통신 전극부는 인체통신 송신부에 연결되고 인체통신 수신 장치와의 인체 통신 채널을 형성하여 인체통신 송신부에서 송신되는 사물 식별정보와 부가정보를 인체로 출력할 수 있다.
일 실시예에서, 인체통신 전극부는 사물 부착부에 센서 확장부와 나란히 배치되어 인체의 접촉과정에서 인체 접촉 감지와 인체 통신 채널 형성이 동시에 이뤄질 수 있다.
케이스는 상부 케이스와 하부 케이스를 포함할 수 있고 인체통신 태그 본체를 전체적으로 감싸는 형태로 설치하여 인체통신 태그 본체를 보호하는 역할을 수행할 수 있다. 일 실시예에서, 케이스는 폴리카보네이트(PC), ABS, 실리콘, 고무 재질 등으로 이루어질 수 있고 기존 사물의 표면에 간편하게 부착되어질 수 있다.
이때, 케이스는 일부 또는 전부를 전도성 물질로 형성하거나 도장(페인팅)하여 인체통신 태그 본체의 PCB와 전기적으로 연결되어질 수 있다.
사물 부착부는 케이스 외부로 노출되어 사물에 부착 부위를 확장하는 것으로, 센서확장부와 인체통신 전극부가 나란히 배치되게 된다. 일 실시예에서, 사물 부착부는 기존 사물의 크기나 형태, 면적 등에 상관없이 사물의 표면을 따라 부착될 수 있고 부착될 사물의 표면 형태에 따라 다양한 길이, 다양한 넓이, 다양한 디자인의 FPCB 형태 또는 박막의 띠 형태로 구현될 수 있다.
접지 확장부는 인체통신 송신 성능에 따라 인체통신 태그 본체의 PCB의 접지(GND)를 확장할 수 있다.
한편, 인체통신 사물부착 태그 장치는 인체통신 태그 본체, 인체통신 태그 본체를 감싸서 보호하는 케이스, 사물 부착부, 접지 확장부로 구성될 수 있으며, 이는 양면테이프 등을 사용하여 특정 사물인 외부기기의 표면에 부착되어질 수 있다.
일 실시예에서, 인체통신 사물부착 태그 장치는 각종 사물에 대해 사용자가 주로 접촉하는 부위에 부착할 수 있다. 예컨대, 냉장고의 경우에는 냉장고 손잡이 부분에 인체통신 사물부착 태그 장치를 부착할 수 있다.
인체통신 사물부착 태그 장치는 케이스가 사물 표면에 부착되고 케이스 내부에 인체통신 태그 본체가 포함된다. 인체통신 태그 본체는 PCB의 일면에 배터리가 장착되고 PCB의 또 다른 일면에 센서부, 프로세싱부, 저장부, 인체통신 송신부, 클럭 생성부가 장착될 수 있다.
인체통신 사물부착 태그 장치는 사물 부착부가 인체통신 태그 본체와 전기적으로 연결되고 사물이 접촉되는 부분까지 확장되어 부착되며, 사물 부착부에는 센서 확장부와 인체통신 전극부가 나란히 배치되어 구성될 수 있다.
인체통신 사물부착 태그 장치는 커넥터를 통해 PCB의 일측에 접지 확장부가 전기적으로 연결되고, 타측에 센서 확장부와 인체 통신 전극부가 전기적으로 연결될 수 있다. 이때, 센서 확장부는 센서부의 종류에 따라 선택적으로 포함할 수 있다.
여기에서, 접지 확장부, 센서 확장부 및 인체통신 전극부는 얇은 필름의 연성인쇄회로기판(FPCB) 형태로 구현될 수 있으며, 접지 확장부는 사물 표면에 부착되거나 케이스의 상부 혹은 하부 혹은 측면에 배치되어 PCB의 접지(GND)를 확장하는 역할을 할 수 있다.
센서 확장부와 인체통신 전극부는 인체와 접촉되는 면과 선을 따라 길게 확장되어 부착될 수 있다.
또한, 인체통신 태그 본체는 PCB 상에 센서부, 프로세싱부, 저장부, 인체통신 송신부, 인체통신 전극부, 배터리, 클럭 생성부, 센서 확장부를 장착하여 구성된다.
센서부는 인체의 근접 또는 접촉 상태를 감지할 수 있다. 일 실시예에서, 센서부는 인체가 근접 또는 접촉되면 접촉 감지신호를 프로세싱부에 전달할 수 있다. 여기에서, 접촉 감지신호는 프로세싱부를 웨이크 업(wake-up) 할 수 있다.
센서부에는 케이스 외부로 노출되어 배치된 센서 확장부가 전기적으로 연결되며, 센서 확장부는 FPCB 형태의 전기를 통하는 도전체 혹은 전도성 섬유로 구현되고 센서부의 센싱범위를 확장하여 사용자가 사물 접촉을 용이하게 할 수 있다.
프로세싱부는 접촉 감지신호를 수신하여 동작하고 접촉 감지신호로부터 접촉 상황을 추정하고 그 과정에서 얻어지는 임의의 정보를 저장부에 저장하거나 저장부로부터 해당 사물의 식별정보와 함께 추정된 상황에 따른 부가정보를 읽어들여 인체통신 송신부로 전달하도록 제어한다.
예컨대, 센서부가 운동센서인 경우 프로세싱부는 접촉 감지신호를 사용자가 사물의 인체 접촉 과정에서 사물을 움직였을 때의 운동량값으로 처리할 수 있다. 센서부가 압력센서인 경우 프로세싱부는 접촉 감지신호를 사용자가 사물의 인체 접촉 과정에서 사물에 가하는 압력값으로 처리할 수 있다.
일 실시예에서, 프로세싱부는 중앙처리장치라 불리우는 CPU(Central Processing Unit)로 구현될 수 있으며, 이때 저장부와 인체통신 송신부는 CPU에 내장된 구성에 포함될 수 있다.
저장부는 인체의 접촉 과정에서 인체통신 수신 장치로 송신되어지는 정보를 저장할 수 있다. 일 실시예에서, 저장부는 해당 사물의 종류, 제조이력, 접촉횟수, 접촉시간 등을 포함하는 사물의 식별정보를 저장할 수 있다.
인체통신 송신부는 사물의 식별정보와 함께 프로세싱부에서 접촉 감지신호로부터 처리된 센서데이터를 인체통신 전극부를 통해 출력할 수 있다. 여기에서, 센서데이터는 운동량값, 밝기, 온도, 습도 등을 포함할 수 있다.
인체통신 전극부는 사용자의 인체와 전기적으로 연결되어 통신 채널을 형성하고 인체통신 송신부에서 송신되는 해당 사물의 식별정보와 센서 데이터를 사용자가 착용하고 있는 인체통신 수신 기능을 포함한 인체통신 수신 장치인 웨어러블 디바이스로 출력한다.
클럭 생성부는 배터리로부터 동작 전원을 공급받고 클럭을 생성하여 프로세싱부, 저장부, 인체통신 송신부를 포함하는 CPU에 클럭을 제공한다.
한편, 인체통신 태그 본체를 구성하는 부품들은 PCB 상에 장착하여 소형 제작할 수 있다. 인체통신 태그 본체를 구성하는 부품들 중 센서 확장부와 인체통신 전극부는 일단이 PCB에 접속됨과 동시에 케이스 외부로 노출되어 FPCB 형태로 확장되어 인체가 용이하게 근접 또는 접촉될 수 있고 사물에 간편하게 부착할 수 있는 사물부착부 형태로 제작할 수 있다.
일 실시예에서, 인체통신 태그 본체의 PCB는 원형 또는 사각형 모양으로 제작할 수 있으며 이에 한정되지 않고 사물의 크기나 형태 등에 맞게 모양을 제작할 수 있다.
일 실시예에 따른 인체통신 사물부착 태그 장치는 문 손잡이, 냉장고 손잡이, 변기 앉는 곳 등 모든 사물의 표면에 부착되어질 수 있고 인체가 근접 또는 접촉되는 상황을 센서를 통해 감지하고 접촉 감지신호를 웨이크업 신호로 사용하여 배터리를 절약할 수 있으며 인체의 사물 접촉과정에서 사물 고유의 식별정보와 센서데이터를 인체통신을 통해 자동 송신할 수 있다.
도 1은 본 발명의 일실시예에 따른 인체통신을 이용한 스피커 자동 발화 제어 시스템의 전체적인 구성을 블록도로 도시한 것으로, 도시된 시스템은 웨어러블 디바이스(10)와 인체통신 태그 장치(20)를 포함하여 구성될 수 있다.
도 1을 참조하면, 본 발명의 일실시예에 따른 웨어러블 디바이스(10)는 정보수신부(110), 정보획득부(120), 발화결정부(130), 메모리(140), 스피커(150) 및 제어부(160)를 포함할 수 있다.
정보수신부(110)는 인체통신을 이용해 사용자가 접촉한 외부기기로부터 상기 외부기기에 대한 식별데이터를 포함하는 행위 정보를 수신한다.
인체통신 태그 장치(20)는 외부기기에 부착되며, 그의 구성 및 동작은 상기한 인체통신 사물부착 태그 장치와 동일할 수 있으므로 그에 대한 상세한 설명은 생략하기로 한다.
예를 들어, 인체통신 태그 장치(20)는 냉장고, 약통, 밥통, 화장실 문, 현관문, 리모트 컨트롤러 등과 같이 다양한 외부기기들에 부착될 수 있으며, 사용자의 접촉시 해당 외부기기에 대한 식별 정보 등을 인체통신을 통해 전송할 수 있다.
웨어러블 디바이스(10)는 사용자가 몸에 착용하거나 부착할 수 있는 전자 장치로서, 스마트 워치 형태의 전자 장치일 수 있으나, 본 발명은 이에 한정되지 아니하며, 안경, 팔찌, 반지, 신발, 의류 등 다양한 형태로 구현 가능할 수 있다.
한편, 웨어러블 디바이스(10)의 정보수신부(110)는, 외부기기에 부착된 태그 장치(20)와 인체통신을 통한 데이터 송수신이 가능하도록 하는 리더기 모듈 등을 포함할 수 있다.
정보획득부(120)는 사용자의 현재 상황을 나타내는 상황 정보를 획득하며, 상황 정보는 현재 시간, 위치, 날씨 등에 대한 데이터를 포함할 수 있으나, 본 발명은 이에 한정되지 아니한다.
예를 들어, 상황 정보는 웨어러블 디바이스(10) 내부에 저장되어 있는 데이터이거나, 외부 서버로부터 수신되는 데이터이거나, 또는 내부에 저장된 데이터 및 외부 서버로부터 수신된 데이터 중 적어도 일부를 이용하여 구해지는 데이터일 수 있다.
즉, 정보획득부(120)는 상황 정보를 별도의 휴대용 단말기 또는 유무선 네트워크를 통한 외부 장치나 서버로부터 수신할 수도 있다.
발화결정부(130)는 수신된 행위 정보 및 획득된 상황 정보에 기초하여, 스피커(150)의 자동 발화 여부 및 발화 메시지를 결정한다.
예를 들어, 발화결정부(130)는 행위 정보에 포함된 식별 데이터를 이용하여 사용자가 접촉한 외부기기의 종류를 확인하고, 외부기기 종류와 상황 정보에 포함된 시간 또는 날씨 데이터에 기초하여 그에 대응되는 발화 메시지를 메모리(140)로부터 읽어들이거나 또는 외부 서버로부터 수신할 수 있다.
제어부(160)는 발화결정부(130)에 의해 결정된 발화 메시지가 스피커(150)를 통해 발화되도록 처리하며, 그외 웨어러블 디바이스(10)의 전체적인 동작을 제어하는 역할을 수행할 수 있다.
한편, 도 1에서는 스피커(150)가 웨어러블 디바이스(10)의 내부에 구비되는 것을 예로 들어 본 발명을 설명하였으나, 본 발명은 이에 한정되지 아니하며, 스피커(150)는 외부에서 웨어러블 디바이스(10)와 유무선 통신을 통해 데이터를 송수신할 수도 있다.
예를 들어, 스피커(150)는 웨어러블 디바이스(10)와 무선 연결되는 휴대용 단말기에 구비된 스피커이거나, 또는 유무선 네트워크를 통해 연결되어 있는 별도의 인공지능(AI) 스피커일 수 있다.
이하, 도 2 내지 도 5를 참조하여 본 발명에 따른 인체통신을 이용한 스피커 자동 발화 제어 방법에 대한 실시예들을 보다 상세히 설명하기로 한다.
도 2는 본 발명에 따른 인체통신을 이용한 스피커 자동 발화 제어 방법에 대한 일실시예를 흐름도로 도시한 것으로, 도시된 제어 방법은 도 1에 도시된 본 발명의 일실시예에 따른 인체통신을 이용한 스피커 자동 발화 제어 시스템의 전체적인 구성을 나타내는 블록도와 결부시켜 설명하기로 한다.
도 2를 참조하면, 웨어러블 디바이스(10)의 정보수신부(110)는 인체통신을 이용해 사용자가 접촉한 외부기기로부터 해당 외부기기에 대한 식별데이터를 포함하는 행위 정보를 수신한다(S200 단계).
여기서, 상기 외부기기는 인체통신 태그 장치(20)가 부착된 외부기기일 수 있으며, 사용자가 외부기기에 접촉 시, 해당 외부기기에 부착된 인체통신 송신기능을 가지는 태그 장치(20)로부터 행위 정보가 수신될 수 있다.
한편, 상기 외부기기는 냉장고, 약통, 밥통, 화장실 문, 현관문, 리모트 컨트롤러 중 어느 하나일 수 있다.
정보획득부(120)는, 인체통신을 이용한 행위 정보 수신에 응답하여, 주변 상황에 대한 데이터를 포함하는 상황 정보를 획득한다(S210 단계).
상기 S210 단계에서 획득되는 상황 정보는, 현재 시간, 위치 및 날씨 중 적어도 하나에 대한 데이터를 포함하며, 내부 메모리(140)에 저장된 정보를 이용하거나, 또는 외부 서버로부터 수신하여 획득될 수 있다.
발화결정부(130)는, 상기 S210 단계에서 수신된 행위 정보와 상기 S220 단계에서 획득된 상황 정보에 기초하여, 스피커(150)의 자동 발화 여부를 결정한다(S220 단계).
여기서, 상기 스피커(150)는 웨어러블 디바이스(10)에 구비되거나, 또는 웨어러블 디바이스(10)와 무선 연결된 휴대용 단말기(미도시)에 구비될 수도 있다.
결정 결과 스피커(150)의 자동 발화가 결정되는 경우(S230 단계), 발화결정부(130)는 상기 S210 단계에서 수신된 행위 정보와 상기 S220 단계에서 획득된 상황 정보에 기초하여, 스피커(150)에서 자동 발화될 메시지를 결정한다(S240 단계).
그 후, 제어부(160)는 상기 S240 단계에서 결정된 발화 메시지가 스피커(150)를 통해 발화되도록 처리한다(S250 단계).
예를 들어, 발화결정부(130)는 인체통신을 이용해 태그 장치(20)로부터 수신된 외부기기 식별 데이터를 이용하여 사용자가 접촉한 외부기기의 종류를 확인한다.
그 후, 발화결정부(130)는, 상기 확인된 외부기기 종류와, 정보획득부(120)를 통해 획득된 상황 정보에 포함되어 있는 시간 또는 날씨 데이터에 기초하여, 그에 대응되는 발화 메시지를 메모리(140)로부터 읽어들이거나 외부 서버로부터 수신할 수 있다.
좀 더 구체적으로, 사용자가 접촉한 외부기기의 종류가 미리 설정된 특정 외부기기이고 현재 시간이 미리 설정된 특정 시간 구간에 해당하는 경우, 제어부(160)는 그에 대응되는 특정 발화 메시지가 스피커(150)를 통해 자동 발화되도록 할 수 있다.
도 3을 참조하면, 사용자가 웨어러블 디바이스(10)인 "터치밴드"를 손목에 착용한 상태에서, 인체통신 태그 장치(20)인 "터치태그"가 부착된 냉장고의 문을 접촉하는 경우, 인체통신 태그 장치(20)인 "터치태그"가 해당 냉장고에 대한 식별자를 포함하는 행위 정보를 인체통신을 통해 웨어러블 디바이스(10)인 "터치밴드"로 전송할 수 있다.
이때, 웨어러블 디바이스(10)인 "터치밴드"는, 인체통신을 통해 수신된 행위 정보에 포함되어 있는 식별자를 이용해 사용자가 접촉한 외부기기가 '냉장고'임을 확인하고, 현재 시간을 포함하는 상황 정보를 획득할 수 있다.
그 후, 웨어러블 디바이스(10)인 "터치밴드"는, 현재 시간이 미리 설정된 22시(오후 10시) 이후인지 여부를 확인하고, 현재 시간이 22시 이후인 경우, 메모리(140)로부터 그 행위 정보(냉장고 접촉) 및 상황 정보(22시 이후)에 대응되는 발화 메시지(예를 들어, "식사가 늦으셨네요. 과식하지 마세요~!")를 읽어들여 스피커(150)를 통해 출력할 수 있다.
도 4는 행위 정보와 상황 정보에 따라 발화 메시지를 결정하는 방법에 대한 실시예들을 설명하기 위한 것으로, 행위 정보 및 상황 정보에 각각 대응되도록 메모리(140)에 저장되는 발화 메시지들에 대한 예들을 나타낸 것이다.
먼저, 다양한 외부기기들에 각각 부착된 인체통신 태그 장치(20)들을 이용해, 웨어러블 디바이스(10) 장치에서 사용자의 행위가 확인될 수 있다.
도 4를 참조하면, '기상 후 첫터치', '냉장고' 접촉, '밥솥' 접촉, '약통' 접촉, '물통' 접촉, '리모콘' 접촉, '귀가 후 첫터치' 등과 같은 사용자의 행위가, 인체통신을 통해 태그 장치(20)로부터 웨어러블 디바이스(10)로 수신되는 행위 정보에 따라 확인될 수 있다.
한편, 상기와 같이 확인된 사용자의 행위와 함께, 웨어러블 디바이스(10)에서 획득되는 상황 정보가 고려되어, 웨어러블 디바이스(10)의 스피커(150)를 통해 자동 발화될 메시지가 결정될 수 있다.
예를 들어, 사용자가 '기상 후 첫터치' 행위를 하는 경우, 날씨가 좋은 날에는 "어르신, 안녕하세요! 오늘은 날씨가 좋으니 산책하셔도 좋겠어요~"라는 메시지가 발화되며, 미세먼지가 많은 날에는 "좋은 꿈 꾸셨나요? 오늘은 미세먼지가 많아요. 기관지 건강에 유의하세요!"라는 메시지가 발화될 수 있다.
상기한 바와 같이, 발화결정부(130)는, 메모리(140)에 저장된 복수의 발화 메시지들 중에서, 사용자의 행위 정보 및 주변 상황 정보에 따라 그에 접합한 발화 메시지를 결정할 수 있다.
상기에서는, 행위 정보와 상황 정보에 기초하여 발화 메시지를 결정하는 것을 예로 들어 본 발명의 일실시예를 설명하였으나, 본 발명은 이에 한정되지 아니하며, 그에 추가해 사용자 정보까지 고려하여 발화 메시지가 결정될 수도 있다.
그를 위해, 웨어러블 디바이스(10)의 정보획득부(120)는 사용자에 대한 성명, 성별, 나이, 건강관련 수치 및 질병 이력 중 적어도 하나에 대한 데이터를 포함하는 사용자 정보를 획득할 수 있다.
이 경우, 발화결정부(130)는, 행위 정보 및 상황 정보와 함께 상기 획득된 사용자 정보에 기초하여, 스피커(150)의 자동 발화 여부 및 발화 메시지를 결정할 수 있다.
예를 들어, 기온이 갑자기 낮아지는 환절기에 사용자가 냉장고 문을 여는 경우, 사용자의 혈압이 높거나 고혈압 관련 질병이 있는지 확인되어, 그러한 경우 "어르신, 환절기에는 차가운 물보다는 따듯한 차를 드시는게 좋아요~" 라는 메시지가 스피커(150)를 통해 자동 발화되도록 할 수 있다.
본 발명의 또 다른 실시예에 따르면, 상기한 바와 같이 인체통신을 이용해 웨어러블 디바이스(10)로 수신되는 행위 정보와 웨어러블 디바이스(10)에서 획득되는 상황 정보 중 적어도 일부, 또는 웨어러블 디바이스(10)에서 결정되는 자동 발화 메시지는, 무선 통신을 통해 외부의 휴대용 단말기(미도시)로 전송될 수도 있다.
이 경우, 휴대용 단말기는 웨어러블 디바이스(10)로부터 전송되는 정보 또는 메시지를 화면에 표시하거나 스피커를 통해 음성 출력하며, 전송되는 정보를 분석 및 가공하여 사용자에게 제공할 수 있다.
도 5는 휴대용 단말기에서 웨어러블 디바이스에 대한 정보를 제공하는 방법에 대한 일실시예를 설명하기 위해 도시한 것이다.
도 5를 참조하면, 휴대용 단말기는 블루투스 등의 무선 통신 방식을 이용해 웨어러블 디바이스(10)와 연결되어, 웨어러블 디바이스(10)로부터 수신되는 정보를 이용하여, 자동발화를 할 수 있는 사용자의 사물 접촉 행위 등에 대한 다양한 라이트로 그 데이터를 표시할 수 있다.
상술한 본 발명의 실시예에 따른 방법들은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다.
컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
이와 같이, 상술한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.
그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 전술한 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (14)

  1. 웨어러블 디바이스에서 인체통신을 이용하여 스피커의 자동 발화를 제어하는 방법에 있어서,
    인체통신을 이용해 사용자가 접촉한 외부기기로부터 상기 외부기기에 대한 식별데이터를 포함하는 행위 정보를 수신하는 단계;
    상기 인체통신을 이용한 행위 정보 수신에 응답하여, 주변 상황에 대한 데이터를 포함하는 상황 정보를 획득하는 단계;
    상기 수신된 행위 정보 및 상기 획득된 상황 정보에 기초하여, 스피커의 자동 발화 여부 및 발화 메시지를 결정하는 단계; 및
    상기 결정된 발화 메시지가 스피커를 통해 발화되도록 처리하는 단계;를 포함하는 것을 특징으로 하는 인체통신을 이용한 스피커 자동 발화 제어 방법.
  2. 제1항에 있어서, 상기 행위 정보는
    사용자가 상기 외부기기에 접촉 시, 상기 외부기기에 부착된 인체통신 송신기능을 가지는 태그(Tag)로부터 수신되는 것을 특징으로 하는 스피커 자동 발화 제어 방법.
  3. 제1항에 있어서, 상기 외부기기는
    냉장고, 약통, 밥통, 화장실 문, 현관문, 리모트 컨트롤러 중 어느 하나인 것을 특징으로 하는 인체통신을 이용한 스피커 자동 발화 제어 방법.
  4. 제1항에 있어서, 상기 상황 정보는
    현재 시간, 위치 및 날씨 중 적어도 하나에 대한 데이터를 포함하며,
    내부 또는 외부 서버로부터 수신하여 획득되는 것을 특징으로 하는 인체통신을 이용한 스피커 자동 발화 제어 방법.
  5. 제1항에 있어서, 상기 스피커는
    상기 웨어러블 디바이스에 구비되거나, 상기 웨어러블 디바이스와 무선 연결된 휴대용 단말기에 구비되거나, 또는 네트워크로 연결되어 있는 별도의 인공지능(AI) 스피커인 것을 특징으로 하는 인체통신을 이용한 스피커 자동 발화 제어 방법.
  6. 제1항에 있어서, 상기 결정 단계는
    상기 수신된 식별 데이터를 이용하여, 상기 사용자가 접촉한 외부기기의 종류를 확인하는 단계; 및
    상기 확인된 외부기기 종류와 상기 상황 정보에 포함된 시간 또는 날씨 데이터에 기초하여, 그에 대응되는 발화 메시지를 메모리로부터 읽어들이거나 외부 서버로부터 수신하는 단계;를 포함하는 것을 특징으로 하는 인체통신을 이용한 스피커 자동 발화 제어 방법.
  7. 제6항에 있어서,
    상기 외부기기의 종류가 미리 설정된 특정 외부기기이고 현재 시간이 미리 설정된 특정 시간 구간에 해당하는 경우, 상기 발화 메시지가 상기 스피커를 통해 자동 발화되도록 하는 것을 특징으로 하는 인체통신을 이용한 스피커 자동 발화 제어 방법.
  8. 제1항에 있어서,
    사용자에 대한 성명, 성별, 나이, 건강관련 수치 및 질병 이력 중 적어도 하나에 대한 데이터를 포함하는 사용자 정보를 획득하는 단계;를 더 포함하고,
    상기 결정 단계는
    상기 행위 정보 및 상기 상황 정보와 함께 상기 획득된 사용자 정보에 기초하여, 상기 스피커의 자동 발화 여부 및 발화 메시지를 결정하는 것을 특징으로 하는 인체통신을 이용한 스피커 자동 발화 제어 방법.
  9. 제1항에 있어서,
    상기 행위 정보 및 상기 상황 정보 중 적어도 일부, 또는 상기 발화 메시지를 휴대용 단말기로 전송하는 단계;를 더 포함하는 것을 특징으로 하는 인체통신을 이용한 스피커 자동 발화 제어 방법.
  10. 컴퓨터를 이용하여 제1항 내지 제9항의 방법 중 어느 한 항의 방법을 실행시키기 위하여 상기 컴퓨터로 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.
  11. 인체통신이 가능한 웨어러블 디바이스에 있어서,
    인체통신을 이용해 사용자가 접촉한 외부기기로부터 상기 외부기기에 대한 식별데이터를 포함하는 행위 정보를 수신하는 정보수신부;
    현재 시간, 위치 및 날씨 중 적어도 하나에 대한 데이터를 포함하는 상황 정보를 획득하는 정보획득부;
    상기 수신된 행위 정보 및 상기 획득된 상황 정보에 기초하여, 스피커의 자동 발화 여부 및 발화 메시지를 결정하는 발화결정부; 및
    상기 결정된 발화 메시지가 스피커를 통해 발화되도록 처리하는 제어부;를 포함하는 것을 특징으로 하는 웨어러블 디바이스.
  12. 제11항에 있어서,
    상기 수신된 식별 데이터를 이용하여 상기 사용자가 접촉한 외부기기의 종류를 확인하고, 상기 확인된 외부기기 종류와 상기 상황 정보에 포함된 시간 또는 날씨 데이터에 기초하여 그에 대응되는 발화 메시지를 메모리로부터 읽어들이거나 또는 외부 서버로부터 수신하는 것을 특징으로 하는 웨어러블 디바이스.
  13. 제12항에 있어서, 상기 제어부는
    상기 외부기기의 종류가 미리 설정된 특정 외부기기이고 현재 시간이 미리 설정된 특정 시간 구간에 해당하는 경우, 상기 메모리부터 읽어들인 발화 메시지가 상기 스피커를 통해 자동 발화되도록 하는 것을 특징으로 하는 웨어러블 디바이스.
  14. 제11항에 있어서, 상기 정보획득부는
    사용자에 대한 성명, 성별, 나이, 건강관련 수치 및 질병 이력 중 적어도 하나에 대한 데이터를 포함하는 사용자 정보를 획득하고,
    상기 획득된 사용자 정보는
    상기 행위 정보 및 상기 상황 정보와 함께, 상기 스피커의 자동 발화 여부 및 발화 메시지를 결정하기 위해 이용되는 것을 특징으로 하는 웨어러블 디바이스.
KR1020190131200A 2019-10-22 2019-10-22 인체통신을 이용한 스피커 자동 발화 제어 방법 및 그를 수행하기 위한 웨어러블 디바이스 KR20210047510A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020190131200A KR20210047510A (ko) 2019-10-22 2019-10-22 인체통신을 이용한 스피커 자동 발화 제어 방법 및 그를 수행하기 위한 웨어러블 디바이스
PCT/KR2020/009878 WO2021080133A1 (en) 2019-10-22 2020-07-27 Method of controlling automatic utterance of speaker using human body communication and wearable device for performing the same
JP2022524116A JP2022553405A (ja) 2019-10-22 2020-07-27 人体通信を用いたスピーカー自動発話制御方法及びそれを遂行するためのウェアラブルデバイス

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190131200A KR20210047510A (ko) 2019-10-22 2019-10-22 인체통신을 이용한 스피커 자동 발화 제어 방법 및 그를 수행하기 위한 웨어러블 디바이스

Publications (1)

Publication Number Publication Date
KR20210047510A true KR20210047510A (ko) 2021-04-30

Family

ID=75620148

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190131200A KR20210047510A (ko) 2019-10-22 2019-10-22 인체통신을 이용한 스피커 자동 발화 제어 방법 및 그를 수행하기 위한 웨어러블 디바이스

Country Status (3)

Country Link
JP (1) JP2022553405A (ko)
KR (1) KR20210047510A (ko)
WO (1) WO2021080133A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230111623A (ko) 2022-01-17 2023-07-26 광운대학교 산학협력단 비접촉 인식가능한 bt 인식 태그, 이를 구비한 시스템 및 인식 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100942706B1 (ko) 2008-08-22 2010-02-16 한국전자통신연구원 인체 통신을 이용한 무선 주파수 식별 시스템

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090111618A (ko) * 2008-04-22 2009-10-27 조병수 환자관리 시스템 및 서비스 방법
US20130086056A1 (en) * 2011-09-30 2013-04-04 Matthew G. Dyor Gesture based context menus
KR102166719B1 (ko) * 2013-06-27 2020-10-16 삼성전자주식회사 전자장치 및 전자장치를 이용한 정보교환 방법
KR101613853B1 (ko) * 2014-06-30 2016-04-20 주식회사 만민엔터프라이즈 웨어러블 기기를 활용한 운동 트레이닝 방법 및 그를 위한 시스템, 웨어러블 기기
KR102086206B1 (ko) * 2017-08-31 2020-03-06 한국과학기술원 AR환경에서 Visible light communication을 활용한 환경 인식 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100942706B1 (ko) 2008-08-22 2010-02-16 한국전자통신연구원 인체 통신을 이용한 무선 주파수 식별 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230111623A (ko) 2022-01-17 2023-07-26 광운대학교 산학협력단 비접촉 인식가능한 bt 인식 태그, 이를 구비한 시스템 및 인식 방법

Also Published As

Publication number Publication date
WO2021080133A1 (en) 2021-04-29
JP2022553405A (ja) 2022-12-22

Similar Documents

Publication Publication Date Title
CN108234694B (zh) 包括通过弯曲显示器的部件安装结构的电子设备
EP3041200B1 (en) Wristband-type information processing device, information processing system, information processing method, and program
US20080114218A1 (en) Condition improvement advisor
TW201620437A (zh) 電子裝置、電子裝置中睡眠監控方法以及非暫時性電腦可讀取儲存媒體
CN104434315A (zh) 便携式监视装置及其操作方法
CN110099174B (zh) 充电指示灯控制方法、可穿戴设备及计算机可读存储介质
CN110070863A (zh) 一种语音控制方法及装置
US20220239269A1 (en) Electronic device controlled based on sound data and method for controlling electronic device based on sound data
CN111083022A (zh) 一种移动终端及其控制方法、计算机存储介质
KR20210047510A (ko) 인체통신을 이용한 스피커 자동 발화 제어 방법 및 그를 수행하기 위한 웨어러블 디바이스
WO2022037555A1 (zh) 生理数据采集方法、装置及可穿戴设备
JP4607799B2 (ja) 呼吸データ収集システム
US11553850B2 (en) Electronic device and method for identifying occurrence of hypotension
CN109257490A (zh) 音频处理方法、装置、穿戴式设备及存储介质
WO2020159259A1 (en) Method for calculating recovery index based on rem sleep stage and electronic device thereof
CN106157536A (zh) 一种智能型老年人家中使用的安全监测和求助***
CN104571427A (zh) 便携式电子设备
US20200328825A1 (en) Tag apparatus for attaching things based on human body communication
CN113168755A (zh) 用于监测用户的方法和***
CN204950920U (zh) 微型生命体征探测装置
US20220373398A1 (en) Apparatus and method for measuring and providing body temperature of user
EP4372521A1 (en) Wearable electronic device and method by which wearable electronic device provides brushing teeth information
WO2022174455A1 (zh) 电容传感器、终端设备、传感器组件和检测方法
US20230414171A1 (en) Device for providing information for improving sleep quality and method thereof
KR20230127094A (ko) 운동 능력에 기반하여 운동 가이드를 제공하는 전자 장치 및 그 제어 방법

Legal Events

Date Code Title Description
E601 Decision to refuse application