KR101970962B1 - 아기 감시 방법 및 장치 - Google Patents

아기 감시 방법 및 장치 Download PDF

Info

Publication number
KR101970962B1
KR101970962B1 KR1020120027705A KR20120027705A KR101970962B1 KR 101970962 B1 KR101970962 B1 KR 101970962B1 KR 1020120027705 A KR1020120027705 A KR 1020120027705A KR 20120027705 A KR20120027705 A KR 20120027705A KR 101970962 B1 KR101970962 B1 KR 101970962B1
Authority
KR
South Korea
Prior art keywords
monitoring
virtual boundary
robot apparatus
guidance map
baby
Prior art date
Application number
KR1020120027705A
Other languages
English (en)
Other versions
KR20130106082A (ko
Inventor
세티 크리쉬나
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120027705A priority Critical patent/KR101970962B1/ko
Priority to US13/786,046 priority patent/US9511495B2/en
Publication of KR20130106082A publication Critical patent/KR20130106082A/ko
Application granted granted Critical
Publication of KR101970962B1 publication Critical patent/KR101970962B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Emergency Management (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • General Business, Economics & Management (AREA)
  • Alarm Systems (AREA)

Abstract

감시 제어 방법에 있어서, 구역 안내지도를 디스플레이하는 과정과, 상기 구역 안내지도에 가상 경계를 결정하는 과정을 포함하고, 상기 구역 안내지도는 실내 혹은 실외의 특정 공간이며, 상기 실내 혹은 상기 실외의 특정 공간 내에 있는 물체 혹은 물건들을 나타내고, 상기 가상 경계는 상기 실내 혹은 상기 실외의 특정 공간 내에서 감시대상자의 움직임을 제한하기 위한 경계이다.

Description

아기 감시 방법 및 장치{METHOD AND APPARATUS FOR BABY MONITERING}
본 발명은 일반적으로 아기 감시에 관한 것으로, 특히 지능형 로봇 장치를 이용하여 아기를 감시하는 위한 방법 및 장치에 관한 것이다.
일반적으로 아기들은 말을 통해 자신의 의사를 표현하지 못할 뿐만 아니라, 자신의 의지대로 움직이기 어려우므로, 배가 고플 때, 피곤할 때, 기저귀가 젖었을 때, 아플 때, 졸릴 때 등 자신의 상태를 울음을 통해 표현하게 되며, 부모들은 이러한 아이의 울음소리를 듣고 아이의 상태를 육안으로 확인함으로써, 아이가 요구하는 것을 인지하여 필요한 조치를 취한다. 따라서 아기를 키우는 가정의 어머니는 아이의 상태를 즉각적으로 확인할 수 있는 범위 내에 아기를 돌봐야한다.
한편, 아이들의 특성상, 위험 상황을 인지하지 못하고 혼자 노는 경우가 많다. 따라서, 보호자가 아이 곁을 떠나 집안일과 같은 용무를 보게 될 경우, 아기는 혼자서 놀다가 자칫 위험한 상황에 처할 수도 있다. 하지만, 보호자가 지속적으로 아기 및 어린아이 곁에 머물기도 힘들뿐 더러 가능하더라도 보호자가 지속적으로 자신의 일을 하면서 아기 및 어린아이를 돌봐줘야 하는 불편함 있다.
한편, 종래에 인터넷을 기반으로 이동로봇을 제어하고 감시하는 감시시스템(한국 특허, 공개번호 10-2003-0038960호) 및 감시대상지역 내에 설치된 감시 장치와 감시 로봇을 이용하여, 감시 대상 지역의 감시 사각지대를 제거하고, 무선 통신을 통하여 사용자에게 제공하는 기술(한국특허, 등록번호: 10-07214860000, 우회 통신이 가능한 로봇 감시 시스템 및 그 감시 방법) 등이 제안되어 오고 있다. 한국 특허, 공개번호 10-2003-0038960호 및 한국특허, 등록번호: 10-07214860000에 나타난 기술은 감시장치는 단순히 사용자가 원하는 곳에 위치하여 해당 위치에서 외부의 침입 등을 감지하여 영상 이미지와 함께 해당 단말기로 전송한다.
하지만, 종래 기술을 아기 감시하는데 적용할 경우, 아기 감시 로봇 장치가 단순히 해당 위치에서 아기 혹은 어린아이를 촬영하여 보호자의 단말기로 촬영된 영상을 전송하면, 보호자는 영상을 통해 위험상황을 인지하여 아기 혹은 어린아이 곁으로 이동한 후 해당 조치를 취하게 된다.
따라서, 단순히 아기 감시 로봇 장치가 전송하는 영상만으로 아기 및 어린아이를 지능적으로 돌볼 수 없다.
본 발명의 목적은 지능적인 아기 감시 방법 및 장치를 제공함에 있다.
본 발명의 다른 목적은 아기를 지능적으로 감시하기 위해 지역 지도상에 가상의 경계선을 설정하여, 설정된 가상의 경계 내에서 발생하는 감시 이벤트를 보호자에게 전송하는 방법 및 장치를 제공함에 있다.
상기한 목적들을 달성하기 위한 본 발명의 제 1 견지에 따르면,감시 제어 방법에 있어서, 구역 안내지도를 디스플레이하는 과정과, 상기 구역 안내지도에 가상 경계를 결정하는 과정을 포함하고, 상기 구역 안내지도는 실내 혹은 실외의 특정 공간이며, 상기 실내 혹은 상기 실외의 특정 공간 내에 있는 물체 혹은 물건들을 나타내고, 상기 가상 경계는 상기 실내 혹은 상기 실외의 특정 공간 내에서 감시대상자의 움직임을 제한하기 위한 경계인 것을 특징으로 한다.
상기한 목적들을 달성하기 위한 본 발명의 제 2 견지에 따르면, 감시 방법에 있어서, 구역 안내지도의 가상 경계에 대한 정보 및 감시대상자에 대한 정보와 함께, 상기 구역 안내지도의 상기 가상 경계 내에서 상기 감시대상자를 감시할 것을 사용자로부터 지시받는 과정과, 상기 감시대상자가 상기 구역 안내지도의 상기 가상 경계 내에 있는지를 판단하는 과정과, 상기 감시대상자가 상기 구역 안내지도의 상기 가상 경계 내에 있을 시, 상기 사용자에게 감시 시작을 통보하고, 상기 감시대상자가 상기 구역 안내지도의 상기 가상 경계 내에 없을 시, 상기 사용자에게 감시 시작이 실패했음을 통보하는 과정을 포함하고, 상기 구역 안내지도는 실내 혹은 실외의 특정 공간이며, 상기 실내 혹은 상기 실외의 특정 공간 내에 있는 물체 혹은 물건들을 나타내고, 상기 가상 경계는 상기 실내 혹은 상기 실외의 특정 공간 내에서 상기 감시대상자의 움직임을 제한하기 위한 경계인 것을 특징으로 한다.
상기한 목적들을 달성하기 위한 본 발명의 제 3 견지에 따르면,터치 감지 디스플레이; 메모리; 하나 이상의 프로세서; 및 상기 메모리에 저장되어 있으며 상기 하나 이상의 프로세서에 의하여 실행 가능하도록 구성되는 하나 이상의 모듈을 포함하는 전자 장치로서, 상기 모듈은, 상기 터치 감지 디스플레이에 구역 안내지도를 디스플레이하고, 상기 구역 안내지도에 가상 경계를 결정하는 명령어를 포함하고, 상기 구역 안내지도는 실내 혹은 실외의 특정 공간이며, 상기 실내 혹은 상기 실외의 특정 공간 내에 있는 물체 혹은 물건들을 나타내고, 상기 가상 경계는 상기 실내 혹은 상기 실외의 특정 공간 내에서 감시대상자의 움직임을 제한하기 위한 경계인 것을 특징으로 한다.
상기한 목적들을 달성하기 위한 본 발명의 제 4 견지에 따르면, 감시 로봇장치에 있어서, 구역 안내지도의 가상 경계에 대한 정보 및 감시대상자에 대한 정보와 함께, 상기 구역 안내지도의 상기 가상 경계 내에서 상기 감시대상자를 감시할 것을 사용자로부터 지시받고, 상기 감시대상자가 상기 구역 안내지도의 상기 가상 경계 내에 있는지를 판단하는 제어부와, 상기 감시대상자가 상기 구역 안내지도의 상기 가상 경계 내에 있을 시, 상기 사용자에게 감시 시작을 통보하고, 상기 감시대상자가 상기 구역 안내지도의 상기 가상 경계 내에 없을 시, 상기 사용자에게 감시 시작이 실패했음을 통보하는 통신부를 포함하고, 상기 구역 안내지도는 실내 혹은 실외의 특정 공간이며, 상기 실내 혹은 상기 실외의 특정 공간 내에 있는 물체 혹은 물건들을 나타내고, 상기 가상 경계는 상기 실내 혹은 상기 실외의 특정 공간 내에서 상기 감시대상자의 움직임을 제한하기 위한 경계인 것을 특징으로 한다.
상술한 바와 같이, 보호자가 지정한 위치에서 자동으로 아기 및 어린아이를 감시하며 감시이벤트를 보호자에 전송하고, 보호자의 지시에 따라 아기 및 어린아이에게 해당 조치를 취함으로써, 보호자는 아기 혹은 어린아이를 지능적이며 효율적으로 감시할 수 있는 이점이 있다.
도 1은 본 발명의 실시 예에 따른 아기 감시를 위한 사용자 혹은 보호자의 전자장치의 동작 흐름도를 도시하고 있다.
도 2는 본 발명의 실시 예에 따른 아기 감시를 위한 아기 감시 로봇 장치의 동작 흐름도를 도시하고 있다.
도 3(a)-(c)은 본 발명의 제1 실시 예에 따른 사용자의 전자장치를 이용하여 아기 감시 로봇장치를 제어하는 예를 도시하고 있다.
도 4(a)-(c)은 본 발명의 제2 실시 예에 따른 사용자의 전자장치를 이용하여 아기 감시 로봇장치를 제어하는 예를 도시하고 있다.
도 5는 본 발명의 실시 예에 따른 아기 감시를 위한 전자장치를 도시하고 있다.
도 6은 본 발명의 실시 예에 따른 아기 감시를 위한 아기 감시 로봇 장치를 도시하고 있다.
이하 본 발명의 바람직한 실시 예를 첨부된 도면의 참조와 함께 상세히 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
이하, 본 발명은 지능형 로봇 장치를 이용하여 아기/유아/어린이를 감시하는 위한 방법 및 장치에 관해 설명하기로 한다.
특히, 본 발명에서 아기를 감시하는 장치(이하 아기 감시 로봇 장치라 칭함)가 하나의 장소에서 다른 장소로 이동할 수 있고, 자동으로 자신을 그 장소에 배치할 수 있다. 아기 감시 로봇 장치는 자동으로 아기/유아/어린이를 인식하여 감시를 시작할 수 있다. 아기 감시 로봇 장치는 알려진 구역(known area)에서 움직이는 아기, 유아 또는 어린이를 감시할 수 있다. 아기 감시 로봇 장치는 집 또는 사용자 구역의 지도가 있고, 사용자 혹은 보호자는 자신의 휴대용 기기 또는 텔레비전, 컴퓨터 등을 이용하여 아기 감시 로봇 장치의 구역 안내지도를 액세스할 수 있다. 구역 안내지도를 사용하여, 사용자는 가상 경계선(virtual boundary)을 그릴 수 있고 아기/유아/어린이가 어디서 어떻게 감시되어야 하는지를 아기 감시 로봇 장치에 지시한다. 사용자의 장치를 사용하여, 알려진 영역 내의 어떤 위치에서 신속하게 감시를 시작할 수 있다. 또한, 사용자는 노는 것을 도와주거나 아기/유아/어린이와 함께 놀거나 혹은 아기/유아/어린이의 기분에 기반하여 음악/사운드를 재생하여, 아기/유아/어린이를 돌보도록 아기 감시 로봇 장치에 지시할 수 있다.
도 1은 본 발명의 실시 예에 따른 아기 감시를 위한 사용자 혹은 보호자의 전자장치의 동작 흐름도를 도시하고 있다.
상기 도 1을 참조하면, 전자장치는 100단계에서 아기 혹은 어린아이를 감시하기 위한 구역 안내 지도(guide map of area)를 화면에 디스플레이한다. 상기 구역 안내 지도는 아기 감시 로봇 장치로부터 제공받거나 상기 전자장치와 상기 아기 감시 로봇 장치 간에 동기화에 의해 상기 전자장치에 기저장된 것일 수 있다. 한편, 상기 아기 감시 로봇장치에 의해 생성된 구역 안내 지도는 스마트폰, 태블릿, 스마트 TV 또는 컴퓨터와 같은 전자장치에 의해 액세스된다. 사용자는 상기 구역 안내 지도를 보며 쉽게 자신의 구역(area)과 물체(object)를 인식할 수 있다. 상기 구역 안내 지도는 상기 아기 감시 로봇장치의 카메라를 통해 촬영된 동영상이나 사진으로부터 만들어지며, 확대되거나 축소될 수 있다. 구현에 따라, 사용자가 전자장치를 통해 상기 아기 감시 로봇장치로 전송한 동영상이나 사진으로부터 만들어질 수 있다. 또 다른 구현에 있어서, 서버가 제공하는 지도로부터 만들어질 수 있다.
이후, 상기 전자장치는 102단계에서 디스플레이되는 구역 안내지도 위에 상기 아기 혹은 상기 어린아이를 감시하기 위한 가상 경계선을 결정한다. 다시 말해, 사용자 혹은 보호자는 상기 전자장치에 디스플레이되는 구역 안내지도 위에 손 혹은 전자펜으로 가상 경계선을 그린다(도 3a, 도 4a 참조). 상기 구역 안내지도 위에 그려진 가상 경계선은 사용자 혹은 보호자가 아기 혹은 어린아이가 혼자 있어도 안정하다고 판단되는 영역을 구분하기 위한 것으로, 아기 혹은 어린아이가 상기 구역 안내지도 위에 가상 경계선을 벗어나는 경우 사용자에게 위험을 알리는 이벤트가 발생한다.
이후, 상기 전자장치는 104단계에서 아기 감시 로봇 장치에 사용자에 의해 그려진 상기 가상 경계선에 대한 정보를 제공하며, 상기 아기 혹은 어린아이를 감시하도록 지시한다.
다시 말해, 사용자는 상기 아기 감시 로봇장치가 커버하는 구역 안내지도에 있는 아기/유아/어린이를 감시하기 위해 로봇을 지시할 수 있다. 즉, 사용자는 스마트 휴대 전화 또는 스마트 TV 또는 컴퓨터와 같은 장치를 이용하여 상기 아기 감시 로봇장치의 구역 안내지도를 보고하고, 상기 구역 안내지도 위에 가상 경계를 그릴 수 있다. 사용자는 가상 경계 내에서 알려진 아기/유아/아동을 감시하도록 상기 아기 감시 로봇장치에 지시할 수 있다.
이후, 상기 전자장치는 106단계에서 상기 아기 감시 로봇장치로부터 감시 시작을 통보를 수신한다.
이후, 상기 전자장치는 108단계에서 상기 아기 감시 로봇장치를 이용하여 실시간으로 아기 혹은 어린아이를 감시할지를 판단하여, 실시간으로 감시할 시 110단계로 진행하여 상기 아기 감시 로봇장치로부터 실시간으로 감시 영상을 제공받아 화면에 디스플레이한다. 반면 실시간으로 감시하지 않을 시, 112단계로 진행한다.
이후, 상기 전자장치는 112단계로 진행하여 상기 아기 감시 로봇장치로부터 감시 이벤트를 통보받는다. 이때, 상기 감시 이벤트는 진동/경고음 등과 함께 팝업창으로 사용자에게 통보된다. 여기서, 감시 이벤트는 감시된 아기/유아/어린이가 가상 경계 밖으로 이동하는 경우, 감시된 아기/유아/어린이가 울거나, 상기 가상 경계 주변으로부터 화재 혹은 가스누출이 발생하는 경우 등에 발생한다.
상기 110단계와 112단계는 서로 독립적으로 수행될 수 있다. 즉, 상기 110단계와 112단계는 병렬로 처리될 수 있다.
이후, 상기 전자장치는 114단계에서 상기 통보된 감시 이벤트에 따라 아기 혹은 어린아이를 돌보도록 지시한다.
예를 들어, 상기 아기 감시 로봇장치는 아기를 감시하도록 지시를 받으면, 상기 아기 감시 로봇장치는 자동으로 가상 경계 혹은 근처로 이동하여 상기 가상 경계 내에서 알려진 아기/유아/어린이를 찾는다. 상기 아기 감시 로봇장치는 상기 가상 경계 내에 알려진 아기/유아/어린이를 발견하면, 감시를 시작하고 그리고 사용자에게 감시가 시작되었음을 알린다. 로봇이 가상 경계 내에 알려진 아기/유아/어린이를 찾을 수 없다면, 감시 시작이 실패되었음을 사용자에게 알린다. 성공적인 감시가 시작된 경우, 상기 아기 감시 로봇장치가 지속적으로 아기/유아/어린이를 감시한다. 사용자는 감시된 아기/유아/어린이가 가상의 경계 밖으로 이동하는지를 알리도록 로봇에 지시할 수 있다. 상기 가상 경계는 상기 아기 감시 로봇장치의 구역 안내지도 내에 있는 어떤 구역이다. 상기 아기 감시 로봇장치가 감시하는 동안에, 자동으로 상기 아기 감시 로봇장치의 센서 및 카메라의 방향을 이동하거나 변경한다. 또한, 사용자는 아기/유아/어린이가 엎어졌거나 우는지를 알리도록 로봇에게 지시할 수 있다. 감시 동안에, 사용자는 어떤 시점에, 스마트폰 또는 스마트 TV 또는 컴퓨터와 같은 장치들을 이용하여 감시되는 아기/유아/어린이에 대한 오디오, 비디오를 액세스할 수 있다.
상술한 바와 같이, 상기 아기 감시 로봇은 일반 아기 감시 기능을 수행할 수 있다. 사용자는 아기 요람이나 침대에 있는 아기를 감시하도록 아기 감시 로봇장치에 지시할 수 있다. 이 명령어는 스마트 전화, TV 또는 컴퓨터와 사용자의 장치로부터 전송된다. 사용자는 구역 안내지도상에 아기의 위치를 가리킨다. 아기 감시 로봇장치가 지시 명령어를 수신하면, 지시 장소 쪽으로 이동한다. 로봇은 지시 위치에 아기를 찾는다. 지시 위치에서 아기를 찾으면 로봇이 감시를 시작한다. 또한 사용자는 아기가 울며 깨는지를 알리도록 상기 아기 감시 로봇장치에 지시할 수 있다. 상기 아기 감시 로봇장치는 감시된 아기/유아/어린이가 잠에서 깨거나 울 때 그리고 비슷한 활동을 인식할 수 있는 능력이 있다. 그리고, 사용자는 감시와 함께, 상기 아기 감시 로봇장치에 아기/유아/아동을 돌보라고 지시할 수 있다.
도 2는 본 발명의 실시 예에 따른 아기 감시를 위한 아기 감시 로봇 장치의 동작 흐름도를 도시하고 있다.
상기 도 2를 참조하면, 아기 감시 로봇장치는 200단계에서 아기 혹은 어린이를 감시하기 위한 구역 안내 지도를 생성(building)하고 갱신한다. 특히, 아기 감시 로봇장치는 아기/유아/어린이가 감시되는 구역의 격자지도(grid map)를 생성하고 유지관리 한다. 상기 구역 안내지도는 보통 사용자의 집, 빌딩, 혹은 특정 야외 공간이다. 상기 구역 안내지도는 또한 상기 구역에서 물건, 물체를 나타낸다. 예를 들어, 이는 야전 침대, 아기 요람, 소파 등을 포함한다. 구역 안내지도에 특정 객체를 가리키는 것이 가능하다. 상기 아기 감시 로봇장치는 정확하게 구역 안내지도를 생성하기 위해, 특수 센서, 카메라, 물체 감지 기술 등을 사용한다. 또한, 아기 감시 로봇장치는 아기/유아/어린이, 가족을 인지하는 기능이 있다. 상기 아기 감시 로봇이 능동시각시스템(active vision), 입체카메라(stereo camera) 같은 기술 및 기타 센서 기술을 사용할 수 있다. 상기 능동시각시스템은 유효한 화상 정보를 얻기 위하여 카메라계의 위치 자세나 광학계를 능동적으로 조절하여, 감각과 행동의 통합에 의하여 외계를 인식하는 것이다. 상기 입체카메라는 동시에 2장의 화상을 얻을 수 있게 한 특수카메라이다. 2개의 촬영용 렌즈를 일정 간격 띄워놓고 같은 물체를 촬영하는 방법을 사용하여 얻은 사진을 스테레오 뷰어를 이용하여 보면 상이 입체적으로 볼 수 있다. 그리고 상기 아기 감시 로봇장치는 야간 투시(night vision) 기능이 있어서 어두운 영역에서 작동한다. 아기 감시 로봇장치는 센서, 카메라의 방향을 이동하고 쉽게 자신의 높이를 조정할 수 있다. 상기 아기 감시 로봇장치는 주기적으로 구역 안내지도를 갱신하여 그 구역에 있는 어떤 물체 및 물건이 안내지도에 갱신된다. 안내지도의 정밀도는 높아서 그 구역에 있는 사용자의 물체 및 물건들을 가리키는 것이 가능하다. 상기 아기 감시 로봇장치는 항상 지도에서 현재 위치를 안다. 아기 감시 로봇장치는 자동으로 관심 구역으로 이동하고 지도를 생성한다. 아기 감시 로봇에 의해 생성된 지도는 스마트폰, 스마트 TV 또는 컴퓨터와 같은 장치로부터 사용자에 의해 보여질 수 있다.
이후, 상기 아기 감시 로봇장치는 202단계에서 아기 혹은 어린이를 감시하기 위한 구역 안내지도에 대한 정보를 사용자 단말에 제공한다.
이후, 상기 아기 감시 로봇장치는 204단계에서 사용자 단말로부터 가상 경계선에 대한 정보를 받고 해당 아기 혹은 어린이를 감시하도록 지시받는다. 아기 감시 로봇장치는 알려진 감시할 사람의 목록을 유지 관리한다. 사용자는 아기 감시 로봇장치가 알려진 사람을 추가하거나 제거하는 것을 지원한다. 알려진 사람 목록에 아기/유아/어린이를 추가하는 것이 가능하다. 알려진 사람을 추가하거나 제거하는 아기 감시 로봇장치를 지원하는 것은 스마트폰, 스마트 TV 또는 컴퓨터와 같은 사용자의 장치로부터 수행된다. 상기 아기 감시 로봇장치는 인식을 위해 사용되는 아기/유아/어린이의 사진 및 특징들을 이용하거나 관리한다. 사용자가 액세스하고 스마트폰, 스마트 TV 또는 컴퓨터와 같은 그들의 장치에서 아기 감시 로봇장치의 알려진 사람 목록을 볼 수 있다.
이후, 상기 아기 감시 로봇장치는 206단계에서 상기 구역 안내지도의 설정된 가상 경계선 내에 알려진 아기 혹은 어린이를 찾아, 그 결과를 상기 사용자 단말에 통보한다. 예를 들어, 상기 가상 경계선 내에 알려진 아기 혹은 어린이가 검색되면, 사용자 단말에 감시 시작을 통보하고, 상기 가상 경계선 내에 알려진 아기 혹은 어린이에 대한 검색이 실패되면, 사용자 단말에 감시 실패를 통보한다.
이후, 상기 아기 감시 로봇장치는 208단계에서 사용자 단말 요청에 따라 카메라를 통해 촬영되는 감시 영상을 실시기간으로 사용자 단말에 제공한다.
이후, 상기 아기 감시 로봇장치는 210단계에서 감시 이벤트가 발생할 시, 212단계로 진행하여 감시 이벤트를 사용자 단말에 통보한다. 여기서, 감시 이벤트는 감시된 아기/유아/어린이가 가상 경계 밖으로 이동하는 경우, 감시된 아기/유아/어린이가 울거나, 상기 가상 경계 주변으로부터 화재 혹은 가스누출이 발생하는 경우 등에 발생한다.
이후, 상기 아기 감시 로봇장치는 214단계에서 사용자 단말로부터 아기 혹은 어린이를 돌보도록 지시받는다.
이후, 상기 아기 감시 로봇장치는 216단계에서 상기 지시에 따라 아기 혹은 어린이를 돌본다. 이 경우에 아기 감시 로봇장치는 아기/유아/어린이가 노는 것을 도와주거나 아기/유아/어린이와도 놀 수 있다. 예를 들어, 센서/카메라 그리고 지능을 사용하여, 상기 아기 감시 로봇장치는 아기/유아/어린이의 기분을 이해할 수 있다. 따라서, 상기 아기 감시 로봇장치는 아기/유아/어린이에 따라 다른 음악이나 사운드를 재생할 수 있다. 그래서, 아기/유아/어린이가 계속해서 사용자가 지정한 가상 경계 내에서 안정하게 감시될 수 있다.
이후, 본 발명의 절차를 종료한다.
도 3(a)-(c)은 본 발명의 제1 실시 예에 따른 사용자의 전자장치를 이용하여 아기 감시 로봇장치를 제어하는 예를 도시하고 있다.
상기 도 3(a)은 집 내부의 안내지도 위에 사용자의 전자장치(300)에 의해 가상 경계선(304) 그려지고, 알려진 아기(302)를 감시하도록 지시하는 것을 나타내고 있다. 상기 안내지도는 보통 사용자의 집, 빌딩, 혹은 특정 야외 공간으로,또한 상기 구역에서 물건, 물체를 나타낸다.
상기 도 3(b)을 참조하면, 아기 감시 로봇장치(310)가 지시를 받으면 자동으로 가상의 경계가 있는 안내지도의 해당 위치로 이동한다. 아기 감시 로봇장치(310)는 자동으로 지시된 위치에 있는 아기(320)를 찾아, 감시를 시작한다. 그리고 아기 감시 로봇장치는 감시가 시작되었음을 아기를 보살피는 사람에게 알린다. 아기가 가상의 경계(302) 밖으로 이동 때마다 아기를 보살피는 사람은 아기 감시 로봇장치로부터 통보받는다. 아기를 보살피는 사람은 아기 감시 로봇장치로부터 통보를 받을 시 아기를 향해 갈 수 있다.
상기 도 3(c)을 참조하면, 보살피는 사람이 아기(320)를 실시간으로 지켜보기를 원한다면, 아기 감시 로봇장치로부터 제공되는 감시 영상을 실시간으로 제공받아 사용자의 전자장치(300)에서 디스플레이된다.
도 4(a)-(c)은 본 발명의 제2 실시 예에 따른 사용자의 전자장치를 이용하여 아기 감시 로봇장치를 제어하는 예를 도시하고 있다.
상기 도 4(a)는 집 밖의 안내지도 위에 사용자의 전자장치(400)에 의해 가상 경계선(404) 그려지고, 알려진 어린이(402)를 감시하도록 지시하는 것을 나타내고 있다.
상기 도 4(b)를 참조하면, 아기 감시 로봇장치(410)가 지시를 받으면 자동으로 가상 경계가 있는 안내지도의 해당 위치로 이동한다. 아기 감시 로봇장치(410)는 자동으로 지시된 위치에 있는 어린이(420)를 찾아, 감시를 시작한다. 그리고 아기 감시 로봇장치는 감시가 시작되었음을 어린이를 보살피는 사람에게 알린다. 아기가 가상 경계(402) 밖으로 이동 때마다 어린이를 보살피는 사람은 아기 감시 로봇장치로부터 통보받는다. 어린이를 보살피는 사람은 아기 감시 로봇장치로부터 통보를 받을 시 어린이를 향해 갈 수 있다.
상기 도 4(c)를 참조하면, 보살피는 사람이 아기(420)를 실시간으로 지켜보기를 원한다면, 아기 감시 로봇장치로부터 제공되는 감시 영상을 실시간으로 제공받아 사용자의 전자장치(400)에서 디스플레이된다.
도 5는 본 발명의 실시 예에 따른 사용자의 전자장치의 실시 예의 블록도(500) 이다. 이러한 전자장치(500)는, 휴대용 전자 장치(portable electronic device)일 수 있으며, 휴대용 단말기(portable terminal), 이동 전화(mobile phone), 이동 패드(mobile pad), 미디어 플레이어(media player), 태블릿 컴퓨터(tablet computer), 핸드헬드 컴퓨터(handheld computer) 또는 PDA(Personal Digital Assistant)와 같은 장치일 수 있다. 또한, 이러한 장치들 중 두 가지 이상의 기능을 결합한 장치를 포함하는 임의의 휴대용 전자 장치일 수도 있다.
상기 전자장치(500)는 메모리(510), 프로세서 유닛(processor unit)(520), 제1 무선통신 서브시스템(530), 제2 무선통신 서브시스템(531), 외부 포트(560), 오디오 서브시스템(552), 스피커(551), 마이크로폰(552), 입출력(IO, Input Output) 시스템(570), 터치스크린(580) 및 기타 입력 또는 제어 장치(590)를 포함한다. 메모리(510)와 외부 포트(560)는 다수 개 사용될 수 있다.
프로세서 유닛(520)은, 메모리 인터페이스(521), 하나 이상의 프로세서 (204) 및 주변장치 인터페이스(peripheral interface)(523)를 포함할 수 있다. 경우에 따라서는, 프로세서 유닛(520) 전체를 프로세서로 칭하기도 한다. 메모리 인터페이스(521), 하나 이상의 프로세서(522) 및/또는 주변장치 인터페이스(523)는 별개의 구성요소일 수 있거나 하나 이상의 집적화된 회로에 집적화될 수 있다.
프로세서(522)는 여러 가지의 소프트웨어 프로그램을 실행하여 전자장치(500)를 위한 여러 기능을 수행하며, 또한 음성 통신 및 데이터 통신을 위한 처리 및 제어를 수행한다. 또한, 이러한 통상적인 기능에 더하여, 프로세서(522)는 메모리(510)에 저장되어 있는 특정한 소프트웨어 모듈(명령어 세트)을 실행하여 그 모듈에 대응하는 특정한 여러 가지의 기능을 수행하는 역할도 한다. 즉, 프로세서(522)는 메모리(510)에 저장된 소프트웨어 모듈들과 연동하여 본 발명의 실시 예의 방법을 수행한다.
본 발명의 일 실시 예는, 프로세서(522)가 아기 혹은 어린아이를 감시하기 위한 구역 안내 지도(guide map of area)를 터치스크린(580)에 디스플레이하고, 디스플레이되는 구역 안내지도 위에 상기 아기 혹은 상기 어린아이를 감시하기 위한 가상 경계선을 결정한다. 프로세서(522)가 아기 감시 로봇 장치에 사용자에 의해 그려진 상기 가상 경계선에 대한 정보를 제공하며, 상기 아기 혹은 어린아이를 감시하도록 지시한다. 그리고 상기 아기 감시 로봇장치로부터 감시 시작을 통보를 수신한다. 또한, 프로세서(522)는 상기 아기 감시 로봇장치를 이용하여 실시간으로 아기 혹은 어린아이를 감시할지를 판단하여, 실시간으로 감시할 시 상기 아기 감시 로봇장치로부터 실시간으로 감시 영상을 제공받아 화면에 디스플레이한다. 그리고 프로세서(522)는 상기 아기 감시 로봇장치로부터 감시 이벤트를 통보받으면 상기 통보된 감시 이벤트에 따라 아기 혹은 어린아이를 돌보도록 지시한다(도 1 참조).
프로세서(522)는 하나 이상의 데이터 프로세서, 이미지 프로세서, 또는 코덱(CODEC)을 포함할 수 있다. 데이터 프로세서, 이미지 프로세서 또는 코덱은 별도로 구성할 수도 있다. 또한, 서로 다른 기능을 수행하는 여러 개의 프로세서로 구성될 수도 있다. 주변 장치 인터페이스(523)는 전자 장치(500)의 입출력 서브시스템(570) 및 여러 가지 주변 장치를 프로세서(522) 및 메모리(510)(메모리 인터페이스를 통하여)에 연결하게 한다.
전자장치(500)의 다양한 구성요소들은 하나 이상의 통신 버스(참조번호 미기재) 또는 스트림 선(참조번호 미기재)에 의해 결합될(coupled) 수 있다.
외부 포트(560)는, 휴대용 전자장치(500)를 다른 전자 장치로 직접 연결되거나 네트워크(예컨대, 인터넷, 인트라넷, 무선 LAN 등)를 통하여 다른 전자 장치로 간접적으로 연결하는 데 사용된다. 외부 포트(560)는, 예를 들면, 이들에 한정되지는 않지만, USB(Universal serial Bus) 포트 또는 FIREWIRE 포트 등을 말한다.
센서(591)는 주변장치 인터페이스(523)에 결합되어 여러 가지 기능을 가능하게 할 수 있다. 예를 들어, 센서(591)는 주변장치 인터페이스(523)에 결합되어 각각 전자장치의 움직임 감지 및 외부로부터의 빛 감지를 가능하게 할 수 있다. 이외에도, 위치측정 시스템, 온도센서 또는 생체 센서 등과 같은 기타 센서들이 주변장치 인터페이스(523)에 연결되어 관련 기능들을 수행할 수 있다.
카메라 서브시스템(592)은 센서(591)와 결합하여, 사진 및 비디오 클립 레코딩과 같은 카메라 기능을 수행할 수 있다.
하나 이상의 무선 통신 서브시스템(530, 531)을 통해 통신 기능이 수행된다. 무선 통신 서브시스템(530, 531)은 무선 주파수(radio frequency) 수신기 및 송수신기 및/또는 광(예컨대, 적외선) 수신기 및 송수신기를 포함할 수 있다. 제1 통신 서브시스템(530)과 제2 통신 서브 시스템(531)은 전자 장치(500)가 통신하는 통신 네트워크에 따라 구분할 수 있다. 예를 들어, 통신 네트워크는, 이들에 한정하지는 않지만, GSM(Global System for Mobile Communication) 네트워크, EDGE(Enhanced Data GSM Environment) 네트워크, CDMA(Code Division Multiple Access) 네트워크, W-CDMA(W-Code Division Multiple Access) 네트워크, LTE(Long Term Evolution) 네트워크, OFDMA(Orthogonal Frequency Division Multiple Access) 네트워크, Wi-Fi(Wireless Fidelity) 네트워크, WiMax 네트워크 또는/및 Bluetooth네트워크 등을 통해 동작하도록 설계되는 통신 서브시스템을 포함할 수 있다. 제1 무선 통신 서브시스템(530)과 제2 무선 통신 시스템(531)은 통합하여 하나의 무선 통신 서브시스템으로 구성할 수도 있다.
오디오 서브시스템(552)이 스피커(551) 및 마이크로폰(552)에 결합되어 음성 인식, 음성 복제, 디지털 레코딩(recording) 및 전화 기능과 같은 오디오 스트림의 입력과 출력을 담당할 수 있다. 즉, 오디오 서브시스템(552)은 스피커(speaker)(551) 및 마이크로폰(552)을 통해 사용자와 통신한다. 오디오 서브시스템(552)은 프로세서 유닛(520)의 주변장치 인터페이스(523)를 통하여 데이터 스트림을 수신하고, 수신한 데이터 스트림을 전기 스트림으로 변환한다. 변환된 전기 스트림(electric signal)는 스피커(551)로 전달된다. 스피커는 전기 스트림을 사람이 들을 수 있는 음파(sound wave)로 변환하여 출력한다. 마이크로폰 (252)은, 사람이나 기타 다른 소리원(sound source)들로부터 전달된 음파를 전기 스트림으로 변환한다. 오디오 서브시스템(552)은 마이크로폰(552)으로부터 변환된 전기 스트림을 수신한다. 오디오 서브시스템(552)은 수신한 전기스트림을 오디오 데이터 스트림으로 변환하며, 변환된 오디오 데이터 스트림을 주변 인터페이스 (523)로 전송한다. 오디오 서브시스템(552)은 탈부착 가능한(attachable and detachable) 이어폰(ear phone), 헤드폰(head phone) 또는 헤드셋(head set)을 포함할 수 있다.
입출력(I/O, Input/Output) 서브시스템(570)은 터치 스크린 제어기(571) 및/또는 기타 입력 제어기(572)를 포함할 수 있다. 터치스크린 제어기(571)는 터치 스크린(580)에 결합될 수 있다. 터치 스크린(580) 및 터치 스크린 제어기(571)는, 이하에 한정되지는 않지만, 터치스크린(580)과의 하나 이상의 접촉점을 결정하기 위한 용량성, 저항성, 적외선 및 표면 음향파 기술들 뿐만 아니라 기타 근접 센서 배열 또는 기타 요소들을 포함하는 임의의 멀티 터치 감지 기술을 이용하여 접촉 및 움직임 또는 이들의 중단을 검출할 수 있다. 기타 입력 제어기(572)는 기타 입력/제어 장치들(590)에 결합될 수 있다. 기타 입력/제어 장치들(590)에 하나 이상의 버튼[스피커(551)와 마이크로폰(552)의 볼륨 제어를 위한 업/다운 버튼 포함 가능하다. 또한, 버튼은 푸시 버튼(push button) 또는 로커 버튼(rocker button) 등을 사용 가능하다)]. 로커(rocker) 스위치, 섬 휠(thumb-wheel), 다이얼(dial), 스틱(stick), 및/또는 스타일러스와 같은 포인터 장치 등 일수 있다.
터치스크린(580)은 전자장치(500)와 사용자 사이에 입력/출력 인터페이스를 제공한다. 즉, 터치스크린(580)은 사용자의 터치 입력을 전자 장치(500)에 전달한다. 또한 전자 장치(500)로부터의 출력을 사용자에게 보여주는 매개체이다. 즉, 터치스크린(500)은 사용자에게 시각적인 출력을 보여준다. 이러한 시각적 출력(visual output)은 텍스트(text), 그래픽(graphic), 비디오(video)와 이들의 조합의 형태로 나타난다.
본 발명에서, 전자장치(500)가 구역 안내지도를 출력할 때, 스크린을 통해서 할 수 있다. 이러한 스크린은 또한, 터치 입력을 처리하는 터치스크린일 수 있다.
터치스크린(580)은 여러 가지 디스플레이가 사용될 수 있다. 예를 들면, 이에 한정하지는 않지만, LCD(liquid crystal display), LED(Light Emitting Diode), LPD(light emitting polymer display), OLED(Organic Light Emitting Diode), AMOLED(Active Matrix Organic Light Emitting Diode) 또는 FLED(Flexible LED)를 사용할 수 있다.
메모리(510)는 메모리 인터페이스(521)에 결합될 수 있다. 메모리(510)는 하나 이상의 자기 디스크 저장 장치와 같은 고속 랜덤 액세스 메모리 및/또는 비휘발성 메모리, 하나 이상의 광 저장 장치 및/또는 플래시 메모리(예컨대, NAND, NOR)를 포함할 수 있다.
메모리(510)는 소프트웨어를 저장한다. 소프트웨어 구성요소는 운영 체제(operating system)(511) 모듈, 통신 모듈(512), 그래픽 모듈(513), 사용자 인터페이스 모듈(514) 및 감지모듈(515), 카메라 모듈(516), 하나 이상의 애플리케이션 모듈(517) 등을 포함한다. 또한, 소프트웨어 구성요소인 모듈은 명령어들의 집합으로 표현할 수 있으므로, 모듈을 명령어 세트(instruction set)라고 표현하기도 한다. 모듈은 또한 프로그램으로 표현하기도 한다.
운영 체제 소프트웨어(511)[예를 들어, WINDOWS, LINUX, 다윈(Darwin), RTXC, UNIX, OS X, 또는 VxWorks와 같은 내장 운영 체제]는 일반적인 시스템 작동(system operation)을 제어하는 여러 가지의 소프트웨어 구성요소를 포함한다. 이러한 일반적인 시스템 작동의 제어는, 예를 들면, 메모리 관리 및 제어, 저장 하드웨어(장치) 제어 및 관리, 전력 제어 및 관리 등을 의미한다. 이러한 운영 체제 소프트웨어는 여러 가지의 하드웨어(장치)와 소프트웨어 구성요소(모듈) 사이의 통신을 원활하게 하는 기능도 수행한다.
통신 모듈(512)은, 무선통신 서브시스템(530, 531)이나 외부 포트(560)를 통해 컴퓨터, 서버 및/또는 휴대용 단말기 등 다른 전자 장치와 통신을 가능하게 할 수 있다.
그래픽 모듈(513)은 터치스크린(580) 상에 그래픽을 제공하고 표시하기 위한 여러 가지 소프트웨어 구성요소를 포함한다. 그래픽(graphics)이란 용어는 텍스트(text), 웹 페이지(web page), 아이콘(icon), 디지털 이미지(digital image), 비디오(video), 애니메이션(animation) 등을 포함하는 의미로 사용된다.
사용자 인터페이스 모듈(514)은 사용자 인터페이스에 관련한 여러 가지 소프트웨어 구성요소를 포함한다. 사용자 인터페이스의 상태가 어떻게 변경되는지 또는 사용자 인터페이스 상태의 변경이 어떤 조건에서 이루어지는지 등에 대한 내용을 포함한다.
감지모듈(515)은 아기 감시 로봇장치의 구역 안내지도를 볼 수 있고, 아기 감시 로봇장치가 알려진 아기/유아/어린이를 추가하는 것을 도와줄 수 있고, 알려진 아기/유아/어린이가 어디서 어떻게 감시되어야 하는지를 지시하는 것에 대한 내용을 포함한다.
카메라 모듈(216)은 카메라 관련 프로세스 및 기능들을 가능하게 하는 카메라 관련 소프트웨어 구성요소를 포함한다. 애플리케이션 모듈(517)은 브라우저(browser), 이메일(email), 즉석 메시지(instant message), 워드 프로세싱(word processing), 키보드 에뮬레이션(keyboard emulation), 어드레스 북(address book), 접촉 리스트(touch list), 위짓(widget), 디지털 저작권 관리(DRM, Digital Right Management), 음성 인식(voice recognition), 음성 복제, 위치 결정 기능(position determining function), 위치기반 서비스(location based service) 등을 포함한다. 메모리(510)는 위에서 기술한 모듈 이외에 추가적인 모듈(명령어들)을 포함할 수 있다. 또는, 필요에 따라, 일부의 모듈(명령어들)을 사용하지 않을 수 있다.
또한, 위에서 언급한, 그리고 이하에서 언급할, 본 발명에 따른 전자 장치(500)의 다양한 기능들은 하나 이상의 스트림 프로세싱(processing) 및/또는 애플리케이션 특정 집적 회로(ASIC, Application Specific Integrated circuit)를 포함하는 하드웨어 및/또는 소프트웨어 및/또는 이들의 결합으로 실행될 수 있다.
도 6은 본 발명의 실시 예에 따른 아기 감시를 위한 아기 감시 로봇 장치를 도시하고 있다.
상기 도 6을 참조하면, 아기 감시 로봇장치는 제어부(600), 통신부(602), 센서모듈부(604), 카메라모듈부(606)를 포함하여 구성된다.
상기 제어부(600)는 로봇장치의 전반적인 제어를 수행하며, 본 발명에서 아기 혹은 어린이를 감시하기 위한 동작을 수행한다. 예를 들어, 상기 제어부(600)는 아기 혹은 어린이를 감시하기 위한 구역 안내 지도를 생성(building)하고 갱신한다. 그리고 상기 제어부(600)는 알려진 감시할 사람의 목록을 유지 관리한다.
상기 구역 안내지도는 보통 사용자의 집, 빌딩, 혹은 특정 야외 공간이다. 상기 구역 안내지도는 또한 상기 구역에서 물건, 물체를 나타낸다. 예를 들어, 이는 야전 침대, 아기 요람, 소파 등을 포함한다. 상기 제어부(600)는 정확한 구역 안내지도를 생성하기 위해, 특수 센서, 카메라, 물체 감지 기술 등을 사용한다. 또한, 상기 제어부(600)는 특수 센서, 카메라, 물체 감지 기술을 기반으로 감시할 아기/유아/어린이를 인지한다. 더하여, 상기 제어부(600)는 능동시각시스템(active vision), 입체카메라(stereo camera) 같은 기술 및 기타 센서 기술을 사용할 수 있다. 그리고 상기 제어부(600)는 야간 투시(night vision) 기능을 제어하여 로봇장치가 어두운 영역에서 작동하는 것을 지원한다. 상기 제어부(600)는 센서, 카메라의 방향을 이동하고 쉽게 자신의 높이를 조정할 수 있다.
상기 제어부(600)는 상기 통신부(602)를 통해 아기 혹은 어린이를 감시하기 위한 구역 안내지도에 대한 정보를 사용자 단말에 제공하고, 사용자 단말로부터 가상 경계선에 대한 정보 및 해당 아기 혹은 어린이를 감시하도록 지시하는 명령어를 수신한다. 또한, 상기 제어부(600)는 상기 구역 안내지도의 설정된 가상 경계선 내에 알려진 아기 혹은 어린이를 찾아, 그 결과를 상기 사용자 단말에 통보한다. 예를 들어, 상기 가상 경계선 내에 알려진 아기 혹은 어린이가 검색되면, 사용자 단말에 감시 시작을 통보하고, 상기 가상 경계선 내에 알려진 아기 혹은 어린이에 대한 검색이 실패되면, 사용자 단말에 감시 실패를 통보한다.
상기 제어부(600)는 사용자 단말 요청에 따라 상기 카메라모듈부(606)를 통해 촬영되는 감시 영상을 상기 통신부(602)를 통해 실시기간으로 사용자 단말에 제공한다. 그리고 상기 제어부(600)는 감시 이벤트가 발생할 시, 감시 이벤트를 사용자 단말에 통보한다. 여기서, 감시 이벤트는 감시된 아기/유아/어린이가 가상 경계 밖으로 이동하는 경우, 감시된 아기/유아/어린이가 울거나, 상기 가상 경계 주변으로부터 화재 혹은 가스누출이 발생하는 경우 등에 발생한다.
또한, 상기 제어부(600)는 사용자 단말로부터 아기 혹은 어린이를 돌보도록 지시받을 시, 아기 감시 로봇장치는 아기/유아/어린이가 노는 것을 도와주거나 아기/유아/어린이와도 놀 수 있다. 예를 들어, 센서/카메라 그리고 지능을 사용하여, 상기 아기 감시 로봇장치는 아기/유아/어린이의 기분을 이해할 수 있다. 따라서, 상기 아기 감시 로봇장치는 아기/유아/어린이에 따라 다른 음악이나 사운드를 재생할 수 있다.
상기 통신부(602)는 무선 주파수(radio frequency) 수신기 및 송수신기 및/또는 광(예컨대, 적외선) 수신기 및 송수신기를 포함할 수 있다. 상기 통신부(602)는 아기 감시 로봇장치가 통신하는 통신 네트워크에 따라 구분할 수 있다. 예를 들어, 통신 네트워크는, 이들에 한정하지는 않지만, GSM 네트워크, EDGE 네트워크, CDMA 네트워크, W-CDMA 네트워크, LTE 네트워크, OFDMA 네트워크, Wi-Fi네트워크, WiMax 네트워크 또는/및 브루투스 네트워크 등을 통해 동작하도록 설계되는 통신 서브시스템을 포함할 수 있다.
상기 센서모듈부(604)는 다수의 센서를 이용하여 센싱된 신호를 제어부(600)로 제공한다. 센싱된 신호는 정확한 구역 안내지도를 생성하거나 아기/유아/어린이를 인지하는데 이용된다. 일례로, 상기 센서모듈부(604)는 물체감지센서를 이용하여 그 결과를 제어부(600)로 제공한다.
상기 카메라모듈부(606)는 상기 센서모듈부(604)에 의해 감시된 물체의 움직임에 따라 카메라 방향을 이동하여 영상을 촬영하여 제어부(600)로 제공한다.
상기 제어부(600)는 상기 센서모듈부(604) 및 상기 카메라모듈부(606)로부터 제공되는 신호를 분석하여, 상기 구역 안내지도 내 물건, 물체를 인지한다. 또한, 상기 제어부(600)는 능동시각시스템(active vision), 입체카메라(stereo camera) 같은 기술 및 기타 센서 기술을 사용할 수 있고 그리고 야간 투시(night vision) 기능이 있어서 아기 감시 로봇장치가 어두운 영역에서 작동하도록 제어한다.
한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
600: 제어부
602: 통신부
604: 센서 모듈부
606: 카메라모듈부

Claims (28)

  1. 전자 장치의 감시 제어 방법에 있어서,
    상기 전자 장치와 통신하는 감시 로봇 장치로부터, 상기 감시 로봇 장치에 의해 획득된 구역 안내지도를 수신하는 동작과,
    상기 수신된 구역 안내지도 상에 가상 경계를 그리는 사용자의 터치 입력을, 상기 전자 장치의 터치 스크린을 통해 수신하는 동작과,
    상기 가상 경계에 대한 정보를 상기 감시 로봇 장치에게 송신하는 동작과, 상기 송신된 가상 경계에 대한 정보는, 상기 감시 로봇 장치가 상기 가상 경계를 가지는 상기 구역 안내지도의 해당하는 위치로 자동으로 이동하기 위해 및 감시대상자가 상기 가상 경계 내에 있는지 여부를 판단하기 위해 이용되고, 상기 감시대상자는 하나 이상의 미리 결정된 감시대상자들을 포함하는 리스트에 기반하여 식별되고,
    상기 감시대상자가 상기 구역 안내지도 상의 상기 가상 경계 내에 없을 시, 상기 감시 로봇 장치로부터 이벤트를 수신하는 동작과,
    상기 이벤트를 수신하는 것에 응답하여, 상기 감시 로봇 장치가 상기 감시대상자를 추적하여 상기 가상 경계 내의 상기 감시대상자를 돌보는 서비스를 제공하도록, 상기 감시 로봇 장치에게 지시를 송신하는 동작을 포함하는 방법.
  2. 제1항에 있어서,
    상기 구역 안내지도는 상기 감시 로봇 장치의 카메라를 통해 획득된 감시 영상으로부터 획득되는 방법.
  3. 제1항에 있어서,
    상기 구역 안내지도는 상기 감시 로봇 장치의 적어도 하나의 센서를 이용하여 생성되는 방법.
  4. 제1항에 있어서,
    상기 감시 로봇 장치로부터 상기 구역 안내지도와 관련된 감시 영상을 수신하는 동작을 더 포함하는 방법.
  5. 제1항에 있어서,
    상기 사용자에게 상기 감시대상자와 관련된 감시 영상에 대한 액세스를 제공하는 동작을 더 포함하는 방법.
  6. 제1항에 있어서,
    상기 가상 경계는, 손가락 또는 전자 펜을 이용한 상기 사용자의 상기 터치 입력에 의해 상기 구역 안내지도 상에 그려지는 방법.
  7. 제1항에 있어서,
    상기 이벤트는, 진동, 팝업 메시지, 또는 경고음 중 적어도 하나를 포함하는 방법.
  8. 감시 로봇 장치의 감시 방법에 있어서,
    구역 안내지도를 획득하여 상기 감시 로봇 장치와 통신하는 전자 장치에게 송신하는 동작과,
    상기 전자 장치로부터, 감시대상자가 가상 경계 내에 위치하는지 여부를 감시하기 위한 상기 구역 안내지도 상의 상기 가상 경계에 대한 정보를 수신하는 동작과, 상기 가상 경계는, 상기 전자 장치의 화면을 통해 사용자의 터치 입력에 의해 상기 송신된 구역 안내지도 상에 그려지고,
    상기 구역 안내지도 상의 상기 가상 경계에 대한 정보를 수신하는 것에 응답하여, 상기 가상 경계를 가지는 상기 구역 안내지도의 해당하는 위치로 상기 감시 로봇 장치를 자동으로 이동시키는 동작과,
    상기 감시대상자가 상기 구역 안내지도 상의 상기 가상 경계 내에 있는지 여부를 판단하는 동작과, 상기 감시대상자는 하나 이상의 미리 결정된 감시대상자들을 포함하는 리스트에 기반하여 식별되고,
    상기 감시대상자가 상기 구역 안내지도 상의 상기 가상 경계 내에 없을 시, 상기 전자 장치에게 이벤트를 송신하고, 상기 전자 장치로부터 지시를 수신하는 것에 응답하여, 상기 감시대상자를 추적하여 상기 구역 안내지도 상의 상기 가상 경계 내의 상기 감시대상자를 돌보는 서비스를 제공하는 동작을 포함하는 방법.
  9. 제8항에 있어서,
    카메라를 통해 감시 영상을 획득하는 동작을 더 포함하고, 상기 구역 안내지도는 상기 감시 영상으로부터 획득되는 방법.
  10. 제8항에 있어서,
    상기 구역 안내지도는 상기 감시 로봇 장치의 적어도 하나의 센서를 이용하여 생성되는 방법.
  11. 제8항에 있어서,
    상기 전자 장치에게 상기 구역 안내지도와 관련된 감시 영상을 전송하는 동작을 더 포함하는 방법.
  12. 제8항에 있어서,
    상기 사용자에게 상기 감시대상자와 관련된 감시 영상에 대한 액세스를 제공하는 동작을 더 포함하는 방법.
  13. 제8항에 있어서,
    상기 가상 경계는, 손가락 또는 전자 펜을 이용한 상기 사용자의 상기 터치 입력에 의해 상기 구역 안내지도 상에 그려지는 방법.
  14. 제8항에 있어서,
    상기 이벤트는, 진동, 팝업 메시지, 또는 경고음 중 적어도 하나를 포함하는 방법.
  15. 전자 장치에 있어서,
    터치 스크린;
    명령어들을 저장하는 메모리; 및
    적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 명령어들을 실행할 시,
    상기 전자 장치와 통신하는 감시 로봇 장치로부터, 상기 감시 로봇 장치에 의해 획득된 구역 안내지도를 수신하고,
    상기 수신된 구역 안내지도 상에 가상 경계를 그리는 사용자의 터치 입력을, 상기 터치 스크린을 통해 수신하고,
    상기 가상 경계에 대한 정보를 상기 감시 로봇 장치에게 송신하고, 상기 송신된 가상 경계에 대한 정보는, 상기 감시 로봇 장치가 상기 가상 경계를 가지는 상기 구역 안내지도의 해당하는 위치로 자동으로 이동하기 위해 및 감시대상자가 상기 가상 경계 내에 있는지 여부를 판단하기 위해 이용되고, 상기 감시대상자는 하나 이상의 미리 결정된 감시대상자들을 포함하는 리스트에 기반하여 식별되고,
    상기 감시대상자가 상기 구역 안내지도 상의 상기 가상 경계 내에 없을 시, 상기 감시 로봇 장치로부터 이벤트를 수신하고,
    상기 이벤트를 수신하는 것에 응답하여, 상기 감시 로봇 장치가 상기 감시대상자를 추적하여 상기 가상 경계 내의 상기 감시대상자를 돌보는 서비스를 제공하도록, 상기 감시 로봇 장치에게 지시를 송신하도록 설정된 전자 장치.
  16. 제15항에 있어서,
    상기 구역 안내지도는 상기 감시 로봇 장치의 카메라를 통해 획득된 감시 영상으로부터 획득되는 전자 장치.
  17. 제15항에 있어서,
    상기 구역 안내지도는 상기 감시 로봇 장치의 적어도 하나의 센서를 이용하여 생성되는 전자 장치.
  18. 제15항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 명령어들을 실행할 시,
    상기 감시 로봇 장치로부터 상기 구역 안내지도와 관련된 감시 영상을 수신하도록 설정된 전자 장치.
  19. 제15항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 명령어들을 실행할 시,
    상기 사용자에게 상기 감시대상자와 관련된 감시 영상에 대한 액세스를 제공하도록 설정된 전자 장치.
  20. 제15항에 있어서,
    상기 가상 경계는, 손가락 또는 전자 펜을 이용한 상기 사용자의 상기 터치 입력에 의해 상기 구역 안내지도 상에 그려지는 전자 장치.
  21. 제15항에 있어서,
    상기 이벤트는, 진동, 팝업 메시지, 또는 경고음 중 적어도 하나를 포함하는 전자 장치.
  22. 감시 로봇 장치에 있어서,
    통신부; 및
    구역 안내지도를 획득하여 상기 통신부를 통해 상기 감시 로봇 장치와 통신하는 전자 장치에게 송신하고,
    상기 전자 장치로부터, 감시대상자가 가상 경계 내에 위치하는지 여부를 감시하기 위한 상기 구역 안내지도 상의 상기 가상 경계에 대한 정보를 수신하고, 상기 가상 경계는, 상기 전자 장치의 화면을 통해 사용자의 터치 입력에 의해 상기 송신된 구역 안내지도 상에 그려지고,
    상기 구역 안내지도 상의 상기 가상 경계에 대한 정보를 수신하는 것에 응답하여, 상기 가상 경계를 가지는 상기 구역 안내지도의 해당하는 위치로 상기 감시 로봇 장치를 자동으로 이동시키고,
    상기 감시대상자가 상기 구역 안내지도 상의 상기 가상 경계 내에 있는지 여부를 판단하고, 상기 감시대상자는 하나 이상의 미리 결정된 감시대상자들을 포함하는 리스트에 기반하여 식별되고,
    상기 감시대상자가 상기 구역 안내지도 상의 상기 가상 경계 내에 없을 시, 상기 전자 장치에게 이벤트를 송신하고, 상기 전자 장치로부터 지시를 수신하는 것에 응답하여, 상기 감시대상자를 추적하여 상기 구역 안내지도 상의 상기 가상 경계 내의 상기 감시대상자를 돌보는 서비스를 제공하도록 설정된 제어부를 포함하는 감시 로봇 장치.
  23. 제22항에 있어서,
    상기 제어부는, 카메라를 통해 감시 영상을 획득하도록 설정되고,
    상기 구역 안내지도는 상기 감시 영상으로부터 획득되는 감시 로봇 장치.
  24. 제22항에 있어서,
    상기 구역 안내지도는 상기 감시 로봇 장치의 적어도 하나의 센서를 이용하여 생성되는 감시 로봇 장치.
  25. 제22항에 있어서,
    상기 통신부는,
    상기 전자 장치에게 상기 구역 안내지도와 관련된 감시 영상을 전송하도록 설정된 감시 로봇 장치.
  26. 제22항에 있어서,
    상기 제어부는,
    상기 사용자에게 상기 감시대상자와 관련된 감시 영상에 대한 액세스를 제공하도록 설정된 감시 로봇 장치.
  27. 제22항에 있어서,
    상기 가상 경계는, 손가락 또는 전자 펜을 이용한 상기 사용자의 상기 터치 입력에 의해 상기 구역 안내지도 상에 그려지는 감시 로봇 장치.
  28. 제22항에 있어서,
    상기 이벤트는, 진동, 팝업 메시지, 또는 경고음 중 적어도 하나를 포함하는 감시 로봇 장치.
KR1020120027705A 2012-03-19 2012-03-19 아기 감시 방법 및 장치 KR101970962B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020120027705A KR101970962B1 (ko) 2012-03-19 2012-03-19 아기 감시 방법 및 장치
US13/786,046 US9511495B2 (en) 2012-03-19 2013-03-05 Method and apparatus for remote monitoring

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120027705A KR101970962B1 (ko) 2012-03-19 2012-03-19 아기 감시 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20130106082A KR20130106082A (ko) 2013-09-27
KR101970962B1 true KR101970962B1 (ko) 2019-04-22

Family

ID=49158389

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120027705A KR101970962B1 (ko) 2012-03-19 2012-03-19 아기 감시 방법 및 장치

Country Status (2)

Country Link
US (1) US9511495B2 (ko)
KR (1) KR101970962B1 (ko)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015069485A (ja) * 2013-09-30 2015-04-13 Necネッツエスアイ株式会社 遠隔宅内見守りシステム
US9329597B2 (en) * 2014-01-17 2016-05-03 Knightscope, Inc. Autonomous data machines and systems
US10279488B2 (en) 2014-01-17 2019-05-07 Knightscope, Inc. Autonomous data machines and systems
US10514837B1 (en) 2014-01-17 2019-12-24 Knightscope, Inc. Systems and methods for security data analysis and display
CN104038717B (zh) * 2014-06-26 2017-11-24 北京小鱼在家科技有限公司 一种智能录制***
CN107111314B (zh) * 2014-11-07 2021-10-08 索尼公司 控制***、控制方法以及存储介质
CN104580982A (zh) * 2014-12-05 2015-04-29 广东小天才科技有限公司 一种基于儿童平板电脑的视频通讯方法及***
US20170102699A1 (en) * 2014-12-22 2017-04-13 Intel Corporation Drone control through imagery
CN108885436B (zh) * 2016-01-15 2021-12-14 美国iRobot公司 自主监视机器人***
US10383552B2 (en) * 2016-04-26 2019-08-20 Toyota Jidosha Kabushiki Kaisha Gait analysis medical assistance robot
US10148915B2 (en) * 2016-05-23 2018-12-04 Ningbo Yamao Optoelectronics Co., Ltd. Lighting system with monitoring and alarm function
CA3086063A1 (en) 2016-12-21 2018-06-28 Service-Konzepte MM AG Autonomous domestic appliance and seating or lying furniture therefor as well as domestic appliance
DE102016125199B4 (de) * 2016-12-21 2019-05-02 Service-Konzepte MM AG Autonomes Haushaltsgerät und Sitz- oder Liegemöbel hierzu
CN106695790B (zh) * 2017-01-09 2018-04-17 广东宝乐机器人股份有限公司 一种机器人的移动控制方法及机器人
CN108010271B (zh) * 2017-06-15 2019-06-28 深圳市远弗科技有限公司 一种看护机器人、报警***和方法
CN107357292A (zh) * 2017-07-13 2017-11-17 上海斐讯数据通信技术有限公司 一种儿童室内智能看护***及其看护方法
DE102017120218A1 (de) * 2017-09-01 2019-03-07 RobArt GmbH Bewegungsplanung für autonome mobile roboter
JP7155508B2 (ja) * 2017-10-26 2022-10-19 富士フイルムビジネスイノベーション株式会社 装置、管理システム及びプログラム
CN108805086B (zh) * 2018-06-14 2021-09-14 联想(北京)有限公司 一种媒体控制方法及音频处理装置
GB2580147B (en) * 2018-12-21 2021-12-08 Mtd Products Inc Outdoor power equipment machine with presence detection
US11613016B2 (en) * 2019-07-31 2023-03-28 Brain Corporation Systems, apparatuses, and methods for rapid machine learning for floor segmentation for robotic devices
CN111010613A (zh) * 2019-12-28 2020-04-14 镇江新一代信息技术产业研究院有限公司 一种儿童用分时段家用播放***
CN113878591B (zh) * 2021-09-23 2023-05-16 山东新一代信息产业技术研究院有限公司 一种基于视觉slam的看护机器人实现方法、设备及介质
CN116147474A (zh) * 2022-08-11 2023-05-23 中铁建电气化局集团第三工程有限公司 一种铁路通信铁塔监测***、方法及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010102511A (ja) * 2008-10-23 2010-05-06 Panasonic Corp 動的エリア監視装置、動的エリア監視システム、動的エリア監視用表示装置、及び方法
KR100983057B1 (ko) * 2008-10-23 2010-09-17 전자부품연구원 행동 모니터링 시스템 및 행동 모니터링 방법

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2921936B2 (ja) * 1990-07-13 1999-07-19 株式会社東芝 画像監視装置
US6750848B1 (en) 1998-11-09 2004-06-15 Timothy R. Pryor More useful man machine interfaces and applications
US6462664B1 (en) 2000-11-20 2002-10-08 Koninklijke Philips Electronics N.V. Baby monitor, system, and method and control of remote devices
KR20030038960A (ko) 2001-11-09 2003-05-17 주식회사 이엠비아이에스 인터넷을 기반으로 하는 이동로봇을 이용한 감시시스템
US20050151844A1 (en) 2004-01-12 2005-07-14 Chiao Mamie W. Portable baby monitoring system for vehicles
EP1741044B1 (en) * 2004-03-27 2011-09-14 Harvey Koselka Autonomous personal service robot
US7702420B2 (en) * 2004-07-07 2010-04-20 Panasonic Corporation Method for making mobile unit accompany objective person
US20060085831A1 (en) * 2004-10-20 2006-04-20 Jones Russell K Iii System and method for vision-based security
US20060103522A1 (en) 2004-11-15 2006-05-18 Spencer Cathryn N Baby monitor with multi-sensory notification
JP4718987B2 (ja) * 2005-12-12 2011-07-06 本田技研工業株式会社 インターフェース装置およびそれを備えた移動ロボット
WO2007118180A2 (en) 2006-04-05 2007-10-18 Graco Children's Products Inc. Video baby monitor system
US20090091649A1 (en) 2007-10-05 2009-04-09 Anderson Leroy E Electronic document viewer
US8244469B2 (en) * 2008-03-16 2012-08-14 Irobot Corporation Collaborative engagement for target identification and tracking
US20100060448A1 (en) 2008-09-05 2010-03-11 Larsen Priscilla Baby monitoring apparatus
KR101196973B1 (ko) * 2008-12-24 2012-11-02 주식회사 케이티 로봇을 이용한 영유아 돌보기 방법
US8874129B2 (en) * 2010-06-10 2014-10-28 Qualcomm Incorporated Pre-fetching information based on gesture and/or location
US20120316680A1 (en) * 2011-06-13 2012-12-13 Microsoft Corporation Tracking and following of moving objects by a mobile robot
TW201305761A (zh) * 2011-07-21 2013-02-01 Ememe Robot Co Ltd 自走機器人及其定位方法
US8761933B2 (en) * 2011-08-02 2014-06-24 Microsoft Corporation Finding a called party

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010102511A (ja) * 2008-10-23 2010-05-06 Panasonic Corp 動的エリア監視装置、動的エリア監視システム、動的エリア監視用表示装置、及び方法
KR100983057B1 (ko) * 2008-10-23 2010-09-17 전자부품연구원 행동 모니터링 시스템 및 행동 모니터링 방법

Also Published As

Publication number Publication date
US20130245827A1 (en) 2013-09-19
KR20130106082A (ko) 2013-09-27
US9511495B2 (en) 2016-12-06

Similar Documents

Publication Publication Date Title
KR101970962B1 (ko) 아기 감시 방법 및 장치
US9641241B2 (en) Mobile terminal and method of controlling function of the mobile terminal
JP6342589B2 (ja) ウェアラブルデバイスの通信方法、装置及びシステム
WO2015046687A1 (en) Wearable computing device and user interface method
US20160018890A1 (en) Haptic guides for a touch-sensitive display
US20160019817A1 (en) Wearable haptic device for the visually impaired
KR20160000741A (ko) 글래스 타입 단말기 및 이의 제어방법
JP2015090547A (ja) 情報入力装置及び情報入力方法、並びにコンピューター・プログラム
CN105167746A (zh) 闹铃控制方法及装置
WO2018155936A1 (en) Vision-based object recognition device and method for controlling the same
JP2014186610A (ja) 情報処理装置および記憶媒体
KR20180090103A (ko) 이동 로봇 및 그 제어방법
KR20180055140A (ko) 전자 장치의 위치 이동 방법 및 이를 사용하는 전자 장치
EP3033868B1 (en) Preventing an operation when a processing device communicates with an acquisition device
CN106652336A (zh) 儿童声音监控的方法及装置
JP2016115054A (ja) 監視制御プログラム、監視制御装置、および監視制御方法
EP3709613B1 (en) Apparatus, method and computer program for triggering a function
US20210160150A1 (en) Information processing device, information processing method, and computer program
WO2018198312A1 (ja) 就寝異常通知システム、就寝異常通知方法、およびプログラム
KR20180018594A (ko) 선풍기, 선풍기를 제어할 수 있는 이동 단말기 및 이들을 이용한 실내 온도 제어 시스템
US11460994B2 (en) Information processing apparatus and information processing method
KR102015981B1 (ko) 대상자 상태 정보를 제공하기 위한 장치, 로봇 및 방법
KR20180113406A (ko) 가상 공간을 이탈한 컨트롤러의 추적 방법 및 그 전자장치
KR20160124483A (ko) 노약자 관리 시스템, 그 제어 방법 및 이를 제어하는 관리 서버
KR20150137836A (ko) 이동 단말기 및 그의 정보 제공방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant