KR102606286B1 - 전자 장치 및 전자 장치를 이용한 소음 제어 방법 - Google Patents

전자 장치 및 전자 장치를 이용한 소음 제어 방법 Download PDF

Info

Publication number
KR102606286B1
KR102606286B1 KR1020160002091A KR20160002091A KR102606286B1 KR 102606286 B1 KR102606286 B1 KR 102606286B1 KR 1020160002091 A KR1020160002091 A KR 1020160002091A KR 20160002091 A KR20160002091 A KR 20160002091A KR 102606286 B1 KR102606286 B1 KR 102606286B1
Authority
KR
South Korea
Prior art keywords
user
space
electronic device
noise
face
Prior art date
Application number
KR1020160002091A
Other languages
English (en)
Other versions
KR20170082842A (ko
Inventor
로만 프라취크
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160002091A priority Critical patent/KR102606286B1/ko
Priority to US15/193,678 priority patent/US10306048B2/en
Publication of KR20170082842A publication Critical patent/KR20170082842A/ko
Application granted granted Critical
Publication of KR102606286B1 publication Critical patent/KR102606286B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W68/00User notification, e.g. alerting and paging, for incoming communication, change of service or the like
    • H04W68/005Transmission of information for alerting of incoming communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/026Services making use of location information using location based information parameters using orientation information, e.g. compass
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/385Transceivers carried on the body, e.g. in helmets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/027Services making use of location information using location based information parameters using movement velocity, acceleration information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6033Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
    • H04M1/6041Portable telephones adapted for handsfree use
    • H04M1/6058Portable telephones adapted for handsfree use involving the use of a headset accessory device connected to the portable telephone
    • H04M1/6066Portable telephones adapted for handsfree use involving the use of a headset accessory device connected to the portable telephone including a wireless connection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/02Details of telephonic subscriber devices including a Bluetooth interface

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 장치를 이용하여 소음을 제어하는 방법 및 전자 장치가 제공된다.
전자 장치가 소음을 제어하는 방법은, 전자 장치와 연결된 웨어러블 디바이스(wearable device)를 착용한 사용자의 주작업 공간을 결정하는 단계; 상기 사용자의 얼굴이 향하는 방향 및 상기 사용자의 얼굴이 회전하는 속도 중 적어도 하나를 결정하는 단계; 상기 사용자의 주변의 소음을 감지하는 단계; 및 상기 결정된 주작업 공간 및, 상기 사용자의 얼굴이 향하는 방향 및 상기 사용자의 얼굴이 회전하는 속도 중 적어도 하나에 기초하여, 상기 감지된 소음을 상쇄시키기 위한 사운드를 상기 웨어러블 디바이스에게 제공하는 단계를 포함한다.

Description

전자 장치 및 전자 장치를 이용한 소음 제어 방법{ELECTRONIC DEVICE AND METHOD FOR NOISE CONTROL USING ELECTRONIC DEVICE}
본 개시는 전자 장치를 이용한 소음 제어 방법 및 전자 장치에 관한 것으로서, 보다 상세하게는, 사용자가 업무 또는 학습 등을 수행하는 작업 공간 내의 소음을 제어하는 방법 및 전자 장치에 관한 것이다.
기술이 발전하고, 사회가 복잡해짐에 따라, 현대인들은 점점 더 많은 소리에 둘러 쌓여 살게 되었다. 이러한 주변의 소리를 사운드 스케이프(Soundscape)라고 하여, 음악의 일부분으로 받아들이려는 시도도 있으나, 대부분의 주변 소리들은 바쁜 현대인들의 업무 효율을 떨어뜨리고, 휴식을 방해하는 소음일 뿐이다.
따라서, 오래 전부터 주변 소음을 제어하거나 차단 시켜 사용자의 업무 또는 학습의 효율을 높이려는 다양한 시도가 있었다. 그러나 이러한 소음 제어 또는 차단을 위해선 특별한 방음 설비가 필요하여 과다한 비용이 들거나, 사용자에게 전달되어야 하는 소리(이를테면, 사용자와의 대화를 위한 직장 상사 또는 동료의 목소리)까지 차단시켜 버리는 불편함이 있었다.
본 개시의 일 실시예는, 사용자가 속해 있는 공간을 기 설정된 기준에 따라 주작업 공간과 나머지 공간으로 분할하고, 주변의 소음을 제거하기 위한 사운드를 웨어러블 디바이스(wearable device)에게 제공할 수 있는, 전자 장치 및 전자 장치를 이용한 소음 제어 방법을 제공할 수 있다.
본 개시의 일 실시예는, 사용자의 작업 상태에 따라 주변의 소음을 상쇄시키기 위한 사운드를 웨어러블 디바이스를 통해 출력할 수 있도록 하는, 전자 장치 및 전자 장치를 이용한 소음 제어 방법을 제공할 수 있다.
본 개시의 일 실시예는, 기 설정된 기준에 따라 부작업 공간으로 설정된 공간으로부터 소리가 수신되는 경우 사용자에게 알람을 제공할 수 있는, 전자 장치 및 전자 장치를 이용한 소음 제어 방법을 제공할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제1 측면은, 전자 장치와 연결된 웨어러블 디바이스(wearable device)를 착용한 사용자의 주작업 공간을 결정하는 단계; 상기 사용자의 얼굴이 향하는 방향 및 상기 사용자의 얼굴이 회전하는 속도 중 적어도 하나를 결정하는 단계; 상기 사용자의 주변의 소음을 감지하는 단계; 및 상기 결정된 주작업 공간 및 상기 사용자의 얼굴이 향하는 방향 및 상기 사용자의 얼굴이 회전하는 속도 중 적어도 하나에 기초하여, 상기 감지된 소음을 상쇄시키기 위한 사운드를 제공하는 단계를 포함하는, 전자 장치가 작업 공간 내의 소음을 제어하는 방법을 제공할 수 있다.
또한, 본 개시의 제2 측면은, 상기 사용자의 주변의 소음을 감지하는 마이크로폰; 상기 전자 장치와 연결된 웨어러블 디바이스(wearable device)를 착용한 상기 사용자의 주작업 공간을 결정하고, 상기 사용자의 얼굴이 향하는 방향 및 상기 사용자의 얼굴이 회전하는 속도 중 적어도 하나를 결정하며, 상기 결정된 주작업 공간 및 상기 사용자의 얼굴이 향하는 방향 및 상기 사용자의 얼굴이 회전하는 속도 중 적어도 하나에 기초하여, 상기 감지된 소음을 상쇄시키기 위한 사운드를 생성하는 제어부; 및 상기 생성된 사운드를 상기 웨어러블 디바이스에게 전송하는 통신부를 포함하는 전자 장치를 제공할 수 있다.
또한, 본 개시의 제3 측면은, 제1 측면의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다.
도 1은 본 개시의 일 실시예에 따른 전자 장치(1000)가 소음을 제어하는 방법을 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시예에 따른 전자 장치(1000)가 작업 공간 내의 소음을 제어하는 방법의 흐름도이다.
도 3은 본 개시의 일 실시예에 따른 전자 장치(1000)가 주작업 공간을 설정하는 방법의 일례를 도시한 도면이다.
도 4는 본 개시의 일 실시예에 따른 전자 장치(1000)가 사용자의 입력에 기초하여 주작업 공간을 설정하는 방법의 일례를 도시한 도면이다.
도 5는 본 개시의 일 실시예에 따른 전자 장치(1000)가 사용자의 작업 상태에 따라 작업 공간 내의 소음을 제어하는 방법의 흐름도이다.
도 6은 본 개시의 일 실시예에 따른 전자 장치(1000)가 사용자의 머리가 회전하는 속도를 감지하여, 작업 공간 내의 소음을 제어하는 방법의 일례를 도시한 도면이다.
도 7은 본 개시의 일 실시예에 따른 전자 장치(1000)가 사용자의 머리가 회전하는 속도를 감지하여, 작업 공간 내의 소음을 제어하는 방법의 일례를 도시한 도면이다.
도 8은 본 개시의 일 실시예에 따른 전자 장치(1000)의 블록도이다.
도 9는 본 개시의 일 실시예에 따른 전자 장치(1000)의 블록도이다.
도 10은 본 개시의 일 실시예에 따른 웨어러블 디바이스(2000)의 블록도이다.
아래에서는 첨부한 도면을 참조하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 개시의 실시예를 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 또한, 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 개시에서 사용되는 용어는, 본 개시에서 언급되는 기능을 고려하여 현재 사용되는 일반적인 용어로 기재되었으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 다양한 다른 용어를 의미할 수 있다. 따라서 본 개시에서 사용되는 용어는 용어의 명칭 만으로 해석되어서는 안되며, 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 해석되어야 한다.
또한, 제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 이 용어들에 의해 한정되어서는 안 된다. 이 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로 사용된다.
또한, 본 개시에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것이며, 본 개시를 한정하려는 의도로 사용되는 것이 아니다. 단수의 표현은 문맥상 명백하게 단수를 뜻하지 않는 한, 복수의 의미를 포함한다. 또한, 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
본 명세서, 특히, 특허 청구 범위에서 사용된 “상기” 및 이와 유사한 지시어는 단수 및 복수 모두를 지시하는 것일 수 있다. 또한, 본 개시에 따른 방법을 설명하는 단계들의 순서를 명백하게 지정하는 기재가 없다면, 기재된 단계들은 적당한 순서로 행해질 수 있다. 기재된 단계들의 기재 순서에 따라 본 개시가 한정되는 것은 아니다.
본 명세서에서 다양한 곳에 등장하는 "일부 실시예에서" 또는 "일 실시예에서" 등의 어구는 반드시 모두 동일한 실시예를 가리키는 것은 아니다.
본 개시의 일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단” 및 “구성”등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.
또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다.
본 명세서에서, 주작업 공간은 사용자가 속한 공간 내에서, 사용자가 업무 또는 학습 등의 작업을 할 때 사용자의 얼굴이 향하게 되는 방향에 위치한 기 설정된 범위 내의 공간일 수 있다. 전자 장치(1000)는 사용자의 얼굴이 주작업 공간에 포함된 공간을 향하는 경우, 사용자 주변의 소음을 상쇄하는 사운드를 사용자가 착용한 웨어러블 디바이스(2000)에게 제공할 수 있다.
또한, 본 명세서에서, 부작업 공간은 사용자가 속한 공간 내에서, 주작업 공간 이외의 공간 중 일부 공간일 수 있으며, 사용자는 부작업 공간에서 발생된 소리를 수신할 필요가 있을 수 있다. 예를 들어, 부작업 공간은 사용자에게 지시를 하는 직장 상사 또는 공동의 업무를 수행 해야 하는 동료가 위치한 공간일 수 있다.
또한, 본 명세서에서, 작업 상태는 소정의 작업을 수행하는 사용자의 상태를 나타내며, 예를 들어, 주작업 상태, 부작업 상태, 및 휴식 상태를 포함할 수 있다. 주작업 상태인지 여부는, 사용자의 얼굴 방향이 주작업 공간을 향하고 있는 지 여부로 판단할 수 있다. 주작업 상태에 해당하는 경우는 사용자가 업무 또는 학습 등을 하고 있는 경우를 포함할 수 있다. 부작업 상태인지 여부는, 사용자의 얼굴 방향이 부작업 공간을 향하고 있는지 여부 또는 부작업 공간 방향으로 사용자가 얼굴을 회전하는 속도로 판단할 수 있다. 예를 들어, 부작업 상태에 해당하는 경우는, 사용자가 직장 상사 또는 직장 동료와 대화 하는 경우를 포함할 수 있다. 휴식 상태인지 여부는, 사용자의 얼굴이 주작업 공간 및 부작업 공간 이외의 공간을 향하고 있는지 여부 또는 주작업 공간 및 부작업 공간 이외의 공간으로 사용자가 얼굴을 회전하는 속도로 판단할 수 있다. 예를 들어, 휴식 상태에 해당하는 경우는 사용자가 창 밖을 응시하며 휴식을 취하고 있는 경우를 포함할 수 있다.
또한, 본 명세서에서, 웨어러블 디바이스(wearable device)(2000)는 전자 장치(1000)로부터 출력신호를 수신하여 사용자에게 음향을 출력할 수 있는 이어폰, 헤드폰, HMD(Head mounted device) 등을 포함할 수 있다. 그러나, 이는 일 예시일 뿐이며 웨어러블 디바이스(2000)가 이에 한정되는 것은 아니다.
또한, 본 명세서에서, 외부 디바이스(미도시)는 전자 장치의 외부에 있는 디바이스이다. 외부 디바이스(미도시)는 전자 장치(1000)로부터 소음을 상쇄시키기 위한 사운드 출력 신호를 수신하여 사용자에게 출력할 수 있다. 또한, 외부 디바이스(미도시)가 이에 한정되는 것은 아니고, 자체적으로 주변 소음을 감지하여, 사용자의 작업 상태에 따라 사용자 주변의 소음을 상쇄할 수 있는 사운드를 생산 및 출력할 수 있는 디바이스 일 수 있다.
또한, 본 명세서에서, 소음 데이터는 전자 장치(1000)가 주변의 소음을 감지하여 생성한 데이터일 수 있다. 전자 장치(1000)는 능동 소음 제어 방법(Active noise control)을 이용하여, 소음을 상쇄하기 위한 사운드를 생성할 수 있다. 능동 소음 제어 방법은 주변의 소음 파형과 위상이 반대인 사운드를 생성 및 출력하여, 주변 소음의 신호를 상쇄시키는 방법을 말한다. 그러나 전자 장치(1000)가 소음 제어를 하는 방법이 능동 소음 제어 방법에 한정되는 것은 아니고, 전자 장치(1000)는 다양한 알고리즘 또는 방법으로 사용자 주변의 소음을 제어할 수 있다.
또한, 본 명세서에서, 소리 데이터는 전자 장치(1000)의 복수의 마이크로폰(1620) 또는 웨어러블 디바이스(2000)의 복수의 마이크로폰(미도시)이 감지한 소리를 기초하여 생성된 데이터일 수 있다. 전자 장치(1000)는 소리 데이터를 분석하여, 상기 소리가 발생한 방향을 결정할 수 있다.
이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.
도 1은 본 개시의 일 실시예에 따른 전자 장치(1000)가 소음을 제어하는 방법을 설명하기 위한 도면이다.
도 1은 업무 공간 내에서 사용자(100)가 업무 수행 시, 전자 장치(1000)가 소음 제어하는 방법의 일 예를 도시한다. 도 1을 참조하면, 사용자(100)의 얼굴은 주작업 공간(101)으로 설정된 공간을 향해있다. 전자 장치(1000)는 사용자(100)의 얼굴이 주작업 공간(101)을 향하는 경우, 사용자의 작업 상태를 주작업 상태로 판단할 수 있다. 전자 장치(1000)는 사용자(100)가 주작업 상태인 것으로 판단한 경우, 사용자가 속한 업무 공간 내의 소음(예를 들어, 다른 작업자의 타이핑 소리, 프린터의 작동 소리, 전화 벨소리, 작업 공간 외부로부터의 소음 등)을 감지하여 소음 데이터를 생성할 수 있다. 전자 장치(1000)는 소음 데이터에 기초하여, 주변의 소음과 위상이 반대인 사운드를 생성하고 사용자(100)가 착용하고 있는 웨어러블 디바이스(2000)에게 제공할 수 있다. 예를 들어, 전자 장치(1000)는 소음 데이터의 위상만을 반대로 변경함으로써, 주변 소음을 제거하기 위한 사운드를 생성할 수 있다. 웨어러블 디바이스(2000)는 전자 장치(1000)로부터 사운드를 수신하여, 사용자(100)에게 출력할 수 있다.
부작업 공간(102)으로 설정된 공간에서 수신된 소리가 있는 경우, 전자 장치(100)는 알람 출력을 위한 신호를 사용자(100)가 착용한 웨어러블 디바이스(200)에게 전송할 수 있다. 예를 들어, 사용자(100)의 직장 상사(3000)가 부작업 공간(102)에 속한 공간에서 사용자(100)에게 말을 하는 경우, 전자 장치(1000)는 알람 출력을 위한 신호를 웨어러블 디바이스(2000)에게 전송할 수 있다. 웨어러블 디바이스(2000)는 알람 출력을 위한 신호를 전자 장치(1000)로부터 수신하여, 사용자(100)에게 부작업 공간(102)에서 소리가 발생하였음을 알리는 알람을 출력할 수 있다. 또한, 전자 장치(1000)는 사용자(100)가 부작업 공간(102)에서 발생한 소리를 들을 수 있도록, 웨어러블 디바이스(2000)에게 주변 소음 제거를 위한 사운드 출력을 정지하도록 제어하는 신호를 전송할 수 있다.
사용자(100)의 얼굴이 주작업 공간(101) 및 부작업 공간(102)으로 설정된 공간 이외의 공간(103)을 향하는 경우, 전자 장치(1000)는 사용자(100)의 작업 상태를 휴식 상태로 판단할 수 있다. 사용자(100) 작업 상태를 휴식 상태로 판단한 경우, 전자 장치(1000)는 주변 소음 제거를 위한 사운드 출력을 천천히 정지하도록 제어하는 신호를 웨어러블 디바이스(2000)에게 전송할 수 있다.
도 2는 본 개시의 일 실시예에 따른 전자 장치(1000)가 작업 공간 내의 소음을 제어하는 방법의 흐름도이다.
전자 장치(1000)는 웨어러블 디바이스(2000)를 착용한 사용자(100)의 주작업 공간(101)을 결정할 수 있다(S210). 전자 장치(1000)는 기 설정된 시간 동안, 사용자(100)의 얼굴이 향하는 방향을 분석하여 주작업 공간(101)을 결정할 수 있다. 전자 장치(1000)는 사용자 입력부(1100)를 통하여 주작업 공간(101)을 설정하기 위한 사용자 입력을 수신할 수 있다. 전자 장치(1000)는 수신한 사용자 입력에 기초하여, 주작업 공간(101)을 설정할 수 있다.
전자 장치(1000)는 사용자(100)의 얼굴이 향하는 방향을 결정할 수 있다(S220). 사용자(100)가 머리에 착용할 수 있는 웨어러블 디바이스(2000)는 사용자(100)의 얼굴이 향하는 방향을 감지할 수 있는 센싱부(2020)를 포함할 수 있다. 웨어러블 디바이스(2000)는 자이로스코프 센서(2021) 및 가속도 센서(2022)를 포함할 수 있다.
웨어러블 디바이스(2000)는 자이로스코프 센서(2021) 또는 가속도 센서(2022)로부터 사용자(100)의 얼굴이 향하는 방향에 대한 감지 신호를 수신하여, 전자 장치(1000)에게 전송할 수 있다. 전자 장치(1000)는 웨어러블 디바이스(2000)로부터 수신한 감지 신호를 분석하여, 사용자(100)의 얼굴이 향하는 방향을 결정할 수 있다. 그러나, 웨어러블 디바이스(2000)는 이에 한정되지 않으며, 전자 장치(1000)에게 감지 신호를 전송하지 않고 스스로 감지 신호를 분석하여 사용자(101)의 얼굴이 향하는 방향을 결정할 수도 있다.
또한, 웨어러블 디바이스(2000)는 카메라(2023)를 포함할 수 있다. 웨어러블 디바이스(2000)는 카메라(2023)로 사용자(100)의 얼굴이 향하는 공간을 촬영할 수 있다. 웨어러블 디바이스(2000)는 촬영한 이미지를 전자 장치(1000)에게 전송할 수 있다. 전자 장치(1000)는 수신한 이미지에 기초하여, 사용자(100)의 주작업 공간(101)을 결정할 수 있다.
전자 장치(1000)는 사용자(100) 주변의 소음을 감지할 수 있다(S230). 전자 장치(1000)는 마이크로폰(1620)을 포함할 수 있다. 전자 장치(1000)는 마이크로폰(1620)을 이용하여, 사용자(100) 주변의 소음을 감지하고, 소음 데이터를 생성할 수 있다. 그러나 이에 한정되는 것은 아니고, 전자 장치(1000)는 웨어러블 디바이스(2000)에 포함된 마이크로폰(미도시)이 사용자(100) 주변의 소음을 감지하여 생성한 소음 데이터를 웨어러블 디바이스(2000)로부터 수신할 수 도 있다. 전자 장치(1000)는 소음 데이터를 분석하여, 사용자(100) 주변의 소음을 상쇄시키기 위한 사운드를 생성 할 수 있다. 사운드는 사용자(100) 주변 소음의 신호와 위상만 다른 신호를 포함할 수 있다.
전자 장치(1000)는 감지된 소음을 상쇄하기 위한 사운드를 웨어러블 디바이스(2000)에게 제공할 수 있다(S240). 전자 장치(1000)는 소음 데이터를 분석하여 생성한 사운드를 웨어러블 디바이스(2000)에게 전송할 수 있다. 웨어러블 디바이스(2000)는 전자 장치(1000)로부터 수신한 사운드를 사용자(100)에게 출력하여, 사용자(100) 주변의 소음을 상쇄할 수 있다. 전자 장치(1000)는 웨어러블 디바이스(2000)가 아닌 외부 디바이스(예를 들어, 사용자(100)가 속한 공간 내에 위치한 스피커 등, 미도시)에게 사운드를 전송할 수도 있다. 외부 디바이스(미도시)는 전자 장치(1000)로부터 수신한 사운드를 출력하여, 사용자(100)주변의 소음을 상쇄할 수 있다.
전자 장치(1000)는 사용자(100)가 속한 업무 공간 중에서 주작업 공간(101)을 결정하고, 사용자(100)의 얼굴이 주작업 공간(101)을 향해 있는 경우 주변 소음을 제어할 수 있다. 전자 장치(1000)는 주작업 공간(101)을 결정함으로써, 사용자(100)가 속한 업무 공간 내에서 물리적인 공간 분리를 하지 않고도 공간에 따른 소음 제어를 할 수 있다. 또한, 전자 장치(1000)는 결정된 주작업 공간(101)을 간단하게 변경 가능하기 때문에, 물리적인 공간 분리에 따른 소음 제어 방법보다 유연하고, 저비용으로 소음 제어가 가능하다.
도 3은 본 개시의 일 실시예에 따른 전자 장치(1000)가 주작업 공간(101)을 설정하는 방법의 일례를 도시한 도면이다.
전자 장치(1000)는 소음 제어 기능을 제공하는 어플리케이션 또는 소음 제어 기능을 제공하는 소프트웨어를 실행할 수 있다. 또한, 전자 장치(1000)는 자체적으로 소음 제어 기능을 수행하는 전자 기기 일 수 있다. 전자 장치(1000)는 소음 제어 기능이 실행된 후, 기 설정된 시간 동안 자동적으로 주작업 공간(101)을 결정하기 위한 작동을 할 수 있다. 기 설정된 시간은 전자 장치(1000)가 소음 제어 기능을 실행한 직후 수 분 이내(예를 들어, 어플리케이션 실행 후 5분 이내의 시간)에 해당하는 시간을 포함할 수 있다.
도 3을 참조하면, 전자 장치(1000)는 소음 제어 기능이 실행되고 5분 이내의 시간 동안 사용자(100)의 움직임을 분석하여 주작업 공간(101)을 결정할 수 있다. 사용자(100)가 착용한 웨어러블 디바이스(2000)는 사용자(100)의 움직임을 감지할 수 있는 센싱부(2020)를 포함할 수 있다. 웨어러블 디바이스(2000)의 센싱부(2020)는 자이로스코프 센서(2021), 가속도 센서(2022), 및 카메라(2023)를 포함할 수 있다.
전자 장치(1000)는 웨어러블 디바이스(2000)에게 사용자(100)의 움직임을 감지하도록 제어하는 제어 신호(301)를 전송할 수 있다. 웨어러블 디바이스(2000)는 전자 장치(1000)로부터 제어 신호(301)를 수신하면, 자이로스코프 센서(2021)를 통해, 기 설정된 시간 동안 사용자(100)의 얼굴이 향하는 방향을 감지할 수 있다. 웨어러블 디바이스(2000)는 자이로스코프 센서(2021)가 감지한 감지 신호(302)를 전자 장치(1000)에게 전송할 수 있다. 웨어러블 디바이스(2000)는 자이로스코프 센서(2021)뿐 아니라, 가속도 센서(2022), 또는 카메라(2023)를 이용하여 사용자(100)의 얼굴이 향하는 방향에 대한 감지 신호를 생성할 수 있다.
전자 장치(1000)는 웨어러블 디바이스(2000)로부터 수신한 감지 신호(302)를 분석하여, 주작업 공간(101)을 결정할 수 있다. 전자 장치(1000)는 감지 신호(302)를 분석하여, 사용자(100)의 얼굴이 기 설정된 시간 동안 향한 방향(303)에 위치한, 기 설정된 범위 내의 공간을 주작업 공간(101)으로 결정할 수 있다. 기 설정된 범위는 사용자(100)의 얼굴이 기 설정된 시간 동안 향한 방향(303)에 위치한 곳으로부터 일정 거리 또는 일정 각도 내의 범위가 포함될 수 있으나 이에 한정되는 것은 아니다.
전자 장치(1000)는 자동적으로 주작업 공간(101) 결정을 위한 작동을 하면서, 사용자(100)에게 주작업 공간(101) 설정 중임을 알리는 문구를 디스플레이(304) 할 수 있다.
도 4는 본 개시의 일 실시예에 따른 전자 장치(1000)가 사용자(100)의 입력에 기초하여 주작업 공간(1000)을 설정하는 방법의 일례를 도시한 도면이다.
전자 장치(1000)는 주작업 공간(100)을 설정하기 위한 사용자 입력부(1100)를 포함할 수 있다. 전자 장치(1000)는 사용자 입력부(1100)를 통해, 전자 장치(1000)로부터 일정 범위 내의 공간을 주작업 공간(101)으로 설정하도록 하는 사용자(100)의 입력을 수신할 수 있다.
전자 장치(1000)는 주작업 공간(101)을 결정하기 위해 사용자(100)가 일정 동작을 수행하도록 하는 문구를 디스플레이부(1210)를 통해 디스플레이 할 수 있다. 예를 들어, 전자 장치(1000)는 사용자(100)에게 ‘팔을 움직여 주작업 공간을 설정하세요’라는 문구를 디스플레이(401) 할 수 있다.
웨어러블 디바이스(2000)는 사용자(100)의 동작을 감지할 수 있는 센싱부(2020)를 포함할 수 있다. 전자 장치(1000)는 웨어러블 디바이스(2000)에게 사용자(100)의 일정 동작을 감지하도록 하는 제어 신호(402)를 전송할 수 있다. 웨어러블 디바이스(2000)는 전자 장치(1000)로부터 사용자(100)의 일정 동작을 감지하도록 하는 제어 신호(402)를 수신할 수 있다. 웨어러블 디바이스(2000)가 전자 장치(1000)로부터 제어 신호(402)를 수신하면, 웨어러블 디바이스(2000)의 센싱부(2020)는 사용자(100)의 일정 동작을 감지할 수 있다. 예를 들어, 사용자(100)의 일정 동작은, 사용자(100)가 팔을 휘두르는 동작을 포함할 수 있다. 그러나 사용자(100)의 일정 동작은 이에 한정되는 것이 아니고, 사용자(100)가 머리를 회전하는 것 등의 다른 동작도 포함할 수 있다.
도 4를 참조하면, 사용자(100)는 오른 팔을 오른쪽에서 왼쪽 방향(404)으로 휘둘러서 주작업 공간(101)에 해당하는 공간을 설정할 수 있다. 웨어러블 디바이스(2000)는 센싱부(2020)를 이용하여, 사용자(100)의 팔의 움직임을 감지할 수 있다. 웨어러블 디바이스(2000)는, 센싱부(2020)를 통해 사용자(100)의 팔의 움직임을 감지하여 감지 신호(403)를 생성할 수 있다. 웨어러블 디바이스(2000)는 감지 신호(403)를 전자 장치(1000)에게 전송할 수 있다. 전자 장치(1000)는 수신한 감지 신호(403)를 분석하여, 사용자(100)가 팔을 휘둘러 설정한 공간을 주작업 공간(101)으로 설정할 수 있다.
전자 장치(1000)는 소음 제어 기능을 실행할 때마다 주작업 공간(101)을 설정할 수 있다. 따라서, 영구적이며, 변경이 어려운 공간의 물리적인 분리보다 유연한 소음 제어가 가능할 수 있다.
전자 장치(1000)는 사용자(100)의 작업 공간 중 주작업 공간(101) 이외의 공간 중에서 부작업 공간(102)을 결정할 수 있다. 전자 장치(1000)는 주작업 공간(101)을 결정하는 방법과 동일한 방법으로 부작업 공간(102)을 결정할 수 있다.
도 5는 본 개시의 일 실시예에 따른 전자 장치(1000)가 사용자(100)의 작업 상태에 따라 작업 공간 내의 소음을 제어하는 방법의 흐름도이다.
웨어러블 디바이스(2000)는 사용자(100)의 얼굴에 움직임 발생한 경우, 센싱부(2020)를 통해 움직임을 감지할 수 있다. 웨어러블 디바이스(2000)는 사용자(100) 얼굴의 움직임을 감지한 경우, 감지 신호를 전자 장치(1000)에게 전송할 수 있다. 전자 장치(1000)는 수신한 감지 신호를 분석하여, 사용자(100)의 얼굴에 회전이 발생했는지 여부를 판단할 수 있다(S510).
전자 장치(1000)는 사용자(100)의 얼굴에 회전이 발생하지 않았다고 판단한 경우, 사용자(100) 주변의 소음을 상쇄시키는 사운드 출력을 통한 소음 제거 기능을 유지할 수 있다. 반면, 전자 장치(1000)가 사용자(100) 얼굴에 회전이 발생했다고 판단한 경우, 웨어러블 디바이스(2000)에게 사용자(100) 얼굴의 회전 속도를 측정하도록 하는 제어 신호를 전송할 수 있다.
웨어러블 디바이스(2000)는 센싱부(2020)를 통해 사용자(100) 얼굴의 회전 속도를 감지할 수 있다. 웨어러블 디바이스(2000)는 사용자(100) 얼굴의 회전 속도를 감지하여, 감지 신호를 전자 장치(1000)에게 전송할 수 있다. 전자 장치(1000)는 웨어러블 디바이스(2000)에게 사용자(100) 얼굴의 회전 속도를 감지한 감지 신호를 수신할 수 있다. 전자 장치(1000)는 감지 신호를 분석하여, 사용자(100) 얼굴의 회전 속도가 기준 회전 속도(V기준) 이상인지 여부를 판단할 수 있다(S540).
기준 회전 속도(V기준)는 사용자(100)에 의해 설정되거나, 전자 장치(1000)에 미리 저장된 값일 수 있다. 전자 장치(1000)는 사용자(100) 얼굴의 회전 속도가 기준 회전 속도(V기준) 미만이라고 판단한 경우, 사용자(100)의 작업 상태를 휴식 상태라고 판단할 수 있다. 전자 장치(1000)가 사용자(100)의 작업 상태를 휴식 상태라고 판단한 경우, 사용자(100) 주변의 소음을 제거하는 기능을 천천히 정지할 수 있다(S550). 사용자(100)가 휴식 상태에 있는 경우에는 업무 효율을 높이기 위한 소음 제어가 불필요할 수 있기 때문이다.
반면, 전자 장치(1000)는 사용자(100) 얼굴의 회전 속도가 기준 회전 속도(V기준) 이상이라고 판단한 경우, 사용자(100)의 작업 상태를 부작업 상태라고 판단할 수 있다. 전자 장치(1000)는 사용자(100)의 작업 상태가 부작업 상태라고 판단한 경우, 주변의 소음을 제거하는 기능을 정지할 수 있다(S560). 전자 장치(1000)가 주변의 소음을 제거하는 기능을 정지하여, 사용자(100)는 부작업 공간(102)에 위치한 대화 상대(3000)와 대화할 수 있다.
도 6은 본 개시의 일 실시예에 따른 전자 장치(1000)가 사용자(100)의 머리가 회전하는 속도를 감지하여, 작업 공간 내의 소음을 제어하는 방법의 일례를 도시한 도면이다.
전자 장치(1000)는 복수의 마이크로폰(1620)을 포함할 수 있다. 전자 장치(1620)는 복수의 마이크로폰(1620)을 이용하여, 수신한 소리가 발생한 방향을 판단할 수 있다. 전자 장치(1000)는 수신한 소리가 부작업 공간(102)에서 발생한 것으로 판단한 경우, 사용자(100)에게 알람을 출력할 수 있다. 또한, 전자 장치(1000)는 사용자(100)에게 알람을 출력하도록 하는 신호를 웨어러블 디바이스(2000)에게 전송할 수도 있다.
또한, 복수의 마이크로폰(미도시)은 웨어러블 디바이스(2000)에 포함될 수도 있다. 웨어러블 디바이스(2000)는 복수의 마이크로폰(미도시)이 감지한 소리 신호를 전자 장치(1000)에게 전송할 수 있다. 전자 장치(1000)는 웨어러블 디바이스(2000)로부터 수신한 소리 신호를 분석하여, 소리가 발생한 방향을 결정할 수 있다.
예를 들어, 사용자(100)가 작업 중에 있을 때, 부작업 공간(102)으로 설정된 곳에서 사용자(100)의 동료 또는 직장 상사(3000)가 사용자(100)에게 대화를 시도할 수 있다. 이 경우, 전자 장치(1000)는 사용자(100)에게 알람을 출력하여, 동료 또는 직장 상사(3000)로부터 소리가 수신되었음을 알릴 수 있다.
사용자(100)가 알람 소리를 들은 경우, 사용자(100)는 부작업 공간 방향(610)으로 얼굴을 회전할 수 있다. 웨어러블 디바이스(2000)의 센싱부(2020)는 사용자(100)의 얼굴이 회전하는 속도를 감지할 수 있다. 웨어러블 디바이스(2000)는 감지한 신호를 전자 장치(1000)에게 전송할 수 있다. 전자 장치(1000)는 수신한 감지 신호를 분석하여, 사용자(100)의 얼굴이 회전한 속도가 기준 회전 속도(V기준) 이상인지 여부를 판단할 수 있다. 전자 장치(1000)는 사용자(100)의 얼굴이 회전한 속도가 기준 회전 속도(V기준) 이상이라고 판단한 경우, 사용자(100)의 작업 상태를 부작업 상태(대화 모드)라고 판단할 수 있다. 사용자(100)는 누군가가 사용자(100)를 부르는 대부분의 경우, 소리가 들리는 방향으로 빠르게 회전할 것이기 때문이다. 전자 장치(1000)는 사용자(100)의 작업 상태가 부작업 상태(대화 모드)라고 판단한 경우, 사용자(100)가 부작업 공간(102)에 위치한 상대방(3000)과 대화할 수 있도록 소음 제거 기능을 정지할 수 있다.
전자 장치(1000)는 부작업 공간(102)을 설정하고, 부작업 공간(102)에서 수신한 소리가 있는 경우에 알람을 출력함으로써, 사용자(100) 주변의 소음을 제거하여 업무의 효율을 높이면서도, 사용자(100)의 업무에 필요한 소리는 수신할 수 있도록 할 수 있다. 즉, 전자 장치(1000)는 사용자(100)가 선택적인 소리 수신을 할 수 있도록 할 수 있다.
도 7은 본 개시의 일 실시예에 따른 전자 장치(1000)가 사용자(100)의 머리가 회전하는 속도를 감지하여, 작업 공간 내의 소음을 제어하는 방법의 일례를 도시한 도면이다.
웨어러블 디바이스(2000)의 센싱부(2020)는 사용자(100) 얼굴의 회전 속도를 감지할 수 있다. 웨어러블 디바이스(2000)는 사용자(100) 얼굴의 회전 속도를 감지하여, 감지 신호를 전자 장치(1000)에게 전송할 수 있다. 전자 장치(1000)는 감지 신호를 분석하여, 사용자(100) 얼굴의 회전 속도가 기준 회전 속도(V기준) 미만이라고 판단한 경우, 사용자(100)의 작업 상태를 휴식 상태라고 판단할 수 있다.
예를 들어, 사용자(100)는 주작업 상태에 있다가, 잠시 휴식을 위해 주작업 공간(101) 밖에 위치한 창 밖을 내다보기 위해 얼굴을 천천히 창문 쪽(710)으로 회전 할 수 있다. 전자 장치(1000)가 사용자(100)의 작업 상태를 휴식 상태라고 판단한 경우, 전자 장치(1000)는 소음 제거 기능을 천천히 정지할 수 있다.
전자 장치(1000)는 사용자(100)가 휴식 상태에 있는 경우, 사용자(100)가 휴식을 하는데 불필요할 수 있는 소음 제거 기능을 천천히 정지함으로써, 사용자(100)의 작업 상황에 따른 소음 제어가 가능하게 할 수 있다.
도 8 및 도 9는 본 개시의 일 실시예에 따른 전자 장치(1000)의 블록도이다.
도 8에 도시된 바와 같이, 일부 실시예에 따른 전자 장치(1000)는 마이크로폰(1620), 사용자 입력부(1100), 제어부(1300), 및 통신부(1500)를 포함할 수 있다. 그러나, 도 8에 도시된 구성 요소 모두가 전자 장치(1000)의 필수 구성 요소인 것은 아니다. 도 8에 도시된 구성 요소보다 많은 구성 요소에 의해 전자 장치(1000)가 구현될 수도 있고, 도 8에 도시된 구성 요소보다 적은 구성 요소에 의해 전자 장치(1000)가 구현될 수도 있다.
예를 들어, 도 9에 도시된 바와 같이, 일부 실시예에 따른 전자 장치(1000)는, 출력부(1200), 센싱부(1400), 및 메모리(1700)를 더 포함할 수도 있다.
A/V(Audio/Video) 입력부(1600)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1610)와 마이크로폰(1620) 등이 포함될 수 있다. 카메라(1610)은 화상 통화 모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(1300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다.
카메라(1610)에서 처리된 화상 프레임은 메모리(1700)에 저장되거나 통신부(1500)를 통하여 외부로 전송될 수 있다. 카메라(1610)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.
마이크로폰(1620)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(1620)은 외부 디바이스(미도시) 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(1620)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
마이크로폰(1620)은 사용자(100)가 속한 업무 공간 내의 소음을 감지할 수 있다. 마이크로폰(1620)은 사용자(100)가 속한 업무 공간 내의 소음을 감지하여, 소음 데이터를 생성할 수 있다. 마이크로폰(1620)은 생성한 소음 데이터의 분석을 위해, 소음 데이터를 제어부(1300)에게 전달할 수 있다.
전자 장치(1000)는 복수의 마이크로폰(1620)을 포함할 수 있다. 전자 장치(1000)는 복수의 마이크로폰(1620)을 이용하여, 사용자(100)가 속한 업무 공간 내의 소리를 감지할 수 있다. 복수의 마이크로폰(1620)은 소리를 감지하여, 소리 데이터를 생성할 수 있다. 복수의 마이크로폰(1620)은, 소리가 발생한 방향을 결정하기 위해, 소리 데이터를 제어부(1300)에게 전달할 수 있다.
제어부(1300)는, 통상적으로 전자 장치(1000)의 전반적인 동작을 제어한다. 예를 들어, 제어부(1300)는, 메모리(1700)에 저장된 프로그램들을 실행함으로써, 사용자 입력부(1100), 출력부(1200), 센싱부(1400), 통신부(1500), A/V 입력부(1600) 등을 전반적으로 제어할 수 있다.
구체적으로, 제어부(1300)는 사용자(100)가 속한 업무 공간 내의 소음을 감지하도록 마이크로폰(1620)을 제어할 수 있다. 제어부(1300)는 마이크로폰(1620)이 생성한 소음 데이터를 수신할 수 있다. 제어부(1300)는 소음 데이터를 분석하여, 소음의 신호 파형과 위상이 반대인 사운드를 생성할 수 있다.
제어부(1300)는, 주작업 공간(101)을 결정하기 위한 제어를 할 수 있다. 구체적으로, 제어부(1300)는 사용자(100)의 얼굴이 향하는 방향을 감지하도록 하는 제어 신호를 웨어러블 디바이스(2000)에게 전송하도록 통신부(1500)를 제어할 수 있다. 제어부(1300)는 웨어러블 디바이스(2000)의 센싱부(2020)를 통해 생성된 감지 신호를 수신하도록, 통신부(1500)를 제어할 수 있다. 제어부(1300)는 수신한 감지 신호를 분석하여, 주작업 공간(101)을 결정할 수 있다. 제어부(1300)는 사용자(100)에게 주작업 공간(101) 설정 중임을 알리는 문구를 디스플레이 하도록 디스플레이부(1210)를 제어할 수 있다(도 3의 304 참조).
제어부(1300)는 주작업 공간(101)에 대한 사용자 입력을 수신하기 위해, 사용자 입력부(1100)를 제어할 수 있다. 제어부(1300)는 사용자 입력부(1100)를 통해 수신한 사용자 입력 신호를 분석하여, 전자 장치(1000)의 위치로부터 일정 범위 내의 공간을 주작업 공간(101)으로 결정할 수 있다.
제어부(1300)는 주작업 공간(101)을 결정하기 위해 사용자(100)가 일정 동작을 수행하도록 하는 문구를 디스플레이 하도록 디스플레이부(1210)를 제어할 수 있다. 제어부(1300)는 사용자(100)의 동작을 감지하도록 제어하는 제어 신호를 웨어러블 디바이스(2000)에게 전송하도록 통신부(1500)를 제어할 수 있다. 제어부(1300)는 웨어러블 디바이스(2000)가 사용자(100)의 일정 동작을 감지하여 생성한 감지 신호를 수신하도록 통신부(1500)를 제어할 수 있다. 제어부(1300)는 수신한 감지 신호를 분석할 수 있다. 제어부(1300)는 감지 신호를 분석하여, 사용자(100)가 일정 동작으로 표시한 공간을 주작업 공간(101)으로 결정할 수 있다.
제어부(1300)는 결정된 주작업 공간(101)에 대한 정보를 저장하도록 메모리(1700)를 제어할 수 있다. 제어부(1300)는 주작업 공간(101)을 결정하여, 사용자(100)가 주작업 공간(101)을 향하여 작업을 하고 있는 경우에 소음 제어 기능을 제공하도록 전자 장치(1000)를 제어할 수 있다.
제어부(1300)는 사용자(100)의 작업 공간 중 주작업 공간(101) 이외의 공간 중에서 부작업 공간(102)을 결정할 수 있다. 제어부(1300)는 주작업 공간(101)을 결정하는 방법과 동일한 방법으로 부작업 공간(102)을 결정할 수 있다. 제어부(1300)는 결정된 부작업 공간(102)에 대한 정보를 저장하도록 메모리(1700)를 제어할 수 있다.
제어부(1300)는 마이크로폰(1620)이 사용자(100)가 속한 업무 공간 내의 소음을 감지하도록 제어할 수 있다. 제어부(1300)는 마이크로폰(1620)이 생성한 소음 데이터를 수신하여, 소음 데이터를 분석할 수 있다. 제어부(1300)는 소음 데이터를 분석하여, 주변 소음 파형과 위상이 반대인 사운드를 생성할 수 있다. 제어부(1300)는 사운드를 출력하여 주변 소음을 상쇄하기 위해, 사운드를 웨어러블 디바이스(2000)에게 전송하도록 통신부(1500)를 제어할 수 있다. 또한, 제어부(1300)는 전자 장치(1000) 스스로 사운드를 출력하도록 출력부(1200)를 제어할 수도 있다.
제어부(1300)는 사용자(100)의 얼굴이 향하는 방향, 사용자(100)의 얼굴이 회전하는 속도, 및 사용자(100)의 이동 여부 중 적어도 하나에 기초하여 사용자(100)의 작업 상태를 판단할 수 있다. 제어부(1300)는 사용자(100)의 작업 상태를 판단하여, 사용자(100)의 작업 상태에 따른 소음 제어를 할 수 있다.
제어부(1300)는 사용자(100)의 얼굴이 향하는 방향 및 사용자(100)의 얼굴이 회전하는 속도 중 적어도 하나를 감지하기 위해, 웨어러블 디바이스(2000)의 센싱부(2020)를 제어하는 제어 신호를 생성할 수 있다. 제어부(1300)는 제어 신호를 웨어러블 디바이스(2000)에게 전송하도록 통신부(1500)를 제어할 수 있다. 제어부(1300)는 웨어러블 디바이스(2000)의 센싱부(2020)가 생성한 감지 신호를 웨어러블 디바이스(2000)로부터 수신하도록 통신부(1500)를 제어할 수 있다. 제어부(1300)는 감지 신호를 분석하여, 사용자(100)의 얼굴이 주작업 공간(101)을 향해 있다고 판단한 경우, 사용자(100)의 작업 상태를 주작업 상태로 판단할 수 있다. 제어부(1300)는 사용자(100)의 작업 상태를 주작업 상태로 판단한 경우, 사용자(100) 주변의 소음들을 상쇄시키는 사운드를 웨어러블 디바이스(2000)에게 전송하도록 통신부(1500)를 제어할 수 있다. 제어부(1300)는 사용자(100)의 얼굴이 부작업 공간(102)을 향해 있다고 판단한 경우 또는 사용자(100)의 얼굴이 부작업 공간(102)을 향해 기준 회전 속도(V기준) 이상으로 회전했다고 판단한 경우, 사용자(100)의 작업 상태를 부작업 상태로 판단할 수 있다. 제어부(1300)는 사용자(100)의 작업 상태를 부작업 상태(대화 모드)로 판단한 경우, 주변 소음 상쇄를 위한 사운드를 출력하던 작동을 정지하도록 제어할 수 있다. 제어부(1300)는 사용자(100)의 얼굴이 주작업 공간(101) 및 부작업 공간(102) 이외의 공간을 향해 있다고 판단한 경우 또는 사용자(100)의 얼굴이 주작업 공간(101) 및 부작업 공간(102) 이외의 공간을 향해 기준 회전 속도(V기준) 미만으로 회전했다고 판단한 경우, 사용자(100)의 작업 상태를 휴식 상태로 판단할 수 있다. 제어부(1300)는 사용자(100)의 작업 상태를 휴식 상태라고 판단한 경우, 주변 소음 상쇄를 위한 사운드 출력을 천천히 정지하도록 제어할 수 있다.
제어부(1300)는 전자 장치(1000) 내의 복수의 마이크로폰(1620) 또는 웨어러블 디바이스(2000)에 포함된 복수의 마이크로폰(미도시)을 통해, 소리 데이터를 수신할 수 있다. 제어부(1300)는 수신한 소리 데이터를 분석할 수 있다. 제어부(1300)는 소리 데이터를 분석하여, 소리가 발생한 방향을 판단할 수 있다. 제어부(1300)는 소리가 부작업 공간(102)으로 결정된 공간에서 발생했다고 판단한 경우, 알람을 출력하도록 하는 제어 신호를 생성할 수 있다. 제어부(1300)는 알람을 출력하도록 하는 제어 신호를 웨어러블 디바이스(2000)에게 전송하도록 통신부(1500)를 제어할 수 있다. 또한, 제어부(1300)는 전자 장치(1000)의 음향 출력부(1220)가 직접 알람을 출력하도록 음향 출력부(1220)를 제어할 수도 있다.
사용자 입력부(1100)는 주작업 공간(101) 설정을 위한 사용자 입력을 수신할 수 있다. 사용자 입력부(1100)는 부작업 공간(102) 설정을 위한 사용자 입력을 수신할 수 있다. 사용자 입력부(1100)는 사용자(100)로부터 수신한 입력 신호를 제어부(1300)로 전달할 수 있다.
통신부(1500)는 웨어러블 디바이스(2000) 및 외부 디바이스(미도시)와의 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있다.
예를 들어, 통신부(1500)는, 근거리 통신부(1510), 이동 통신부(1520), 방송 수신부(1530)를 포함할 수 있다.
근거리 통신부(short-range wireless communication unit)(151)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이동 통신부(1520)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
방송 수신부(1530)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 전자 장치(1000)가 방송 수신부(1530)를 포함하지 않을 수도 있다.
통신부(1500)는 웨어러블 디바이스(2000)의 센싱부(2020)가 사용자(100)의 움직임을 감지하도록 하는 제어 신호를 웨어러블 디바이스(2000)에게 전송할 수 있다. 통신부(1500)는 웨어러블 디바이스(2000)로부터 감지 신호를 수신할 수 있다. 통신부(1500)는 수신한 감지 신호를 제어부(1300)에게 전달할 수 있다. 통신부(1500)는 제어부(1300)가 생성한 사운드를 웨어러블 디바이스(2000)가 출력하도록, 사운드를 웨어러블 디바이스(2000)에게 전송할 수 있다. 통신부(1500)는 제어부(1300)가 생성한 알람을 출력하도록 하는 제어 신호를 웨어러블 디바이스(2000)에게 전송할 수 있다.
출력부(1200)는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(1200)는 디스플레이부(1210), 음향 출력부(1220), 및 진동 모터(1230)를 포함할 수 있다.
디스플레이부(1210)는 전자 장치(1000)에서 처리되는 정보를 출력한다. 예를 들어, 디스플레이부(1210)는 주작업 공간(101)을 결정하는 단계에서, 사용자(100)에게 주작업 공간(101) 결정에 대한 안내문구를 출력할 수 있다.
음향 출력부(1220)는 통신부(1500)로부터 수신되거나 메모리(1700)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(1220)는 전자 장치(1000)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(1220)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
진동 모터(1230)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(1230)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(1230)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.
메모리(1700)는 전자 장치(1000)의 동작에 필요한 프로그램 등을 저장할 수 있다. 메모리(1700)는 제어부(1300)에 의해 결정된 주작업 공간(101)에 대한 정보를 저장할 수 있다. 메모리(1700)는 제어부(1300)에 의해 결정된 부작업 공간(102)에 대한 정보를 저장할 수 있다.
메모리(1700)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
메모리(1700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(1710), 터치 스크린 모듈(1720), 알림 모듈(1730) 등으로 분류될 수 있다.
UI 모듈(1710)은, 애플리케이션 별로 전자 장치(1000)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(1720)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(1300)로 전달할 수 있다. 일부 실시예에 따른 터치 스크린 모듈(1720)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(1720)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.
터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.
또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.
근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.
알림 모듈(1730)은 전자 장치(1000)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 전자 장치(1000)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 등이 있다. 알림 모듈(1730)은 디스플레이부(1210)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(1220)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(1230)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.
센싱부(1400)는, 전자 장치(1000)의 상태 또는 전자 장치(1000) 주변의 상태를 감지하고, 감지된 정보를 제어부(1300)로 전달할 수 있다.
센싱부(1400)는, 지자기 센서(Magnetic sensor)(1410), 가속도 센서(Acceleration sensor)(1420), 온/습도 센서(1430), 적외선 센서(1440), 자이로스코프 센서(1450), 위치 센서(예컨대, GPS)(1460), 기압 센서(1470), 근접 센서(1480), 및 RGB 센서(illuminance sensor)(1490) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
도 10은 본 개시의 일 실시예에 따른 웨어러블 디바이스(2000)의 블록도이다.
도 10에 도시된 바와 같이, 일부 실시예에 따른 웨어러블 디바이스(2000)는 제어부(2010), 센싱부(2020), 음향 출력부(2030), 및 통신부(2040)를 포함할 수 있다. 그러나 도 10에 도시된 구성 요소 모두가 웨어러블 디바이스(2000)의 필수 구성 요소인 것은 아니다. 도 10에 도시된 구성 요소보다 많은 구성 요소에 의해 웨어러블 디바이스(2000)가 구현될 수도 있고, 도 10에 도시된 구성 요소보다 적은 구성 요소에 의해 웨어러블 디바이스(2000)가 구현될 수도 있다.
제어부(2010)는 통상적으로 웨어러블 디바이스(2000)의 전반적인 동작을 제어한다. 예를 들어, 제어부(2010)는, 센싱부(2020), 음향 출력부(2030), 및 통신부(2040) 등을 전반적으로 제어할 수 있다.
구체적으로, 제어부(2010)는 전자 장치(1000)로부터 수신한 제어 신호에 기초하여, 사용자(100)의 움직임을 감지하도록 센싱부(2020)를 제어할 수 있다. 제어부(2010)는 센싱부(2020)로부터 수신한 감지 신호를 전자 장치(1000)에게 전송하도록 통신부(2040)를 제어할 수 있다.
제어부(2010)는 전자 장치(1000)로부터 수신한 사운드 또는 알람 출력을 위한 제어 신호에 기초하여, 수신한 사운드 또는 알람을 출력하도록 음향 출력부(2030)를 제어할 수 있다.
센싱부(2020)는 자이로스코프 센서(2021), 가속도 센서(2022), 및 카메라(2023)를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
센싱부(2020)는 제어부(2010)로부터 사용자(100)의 움직임을 감지하라는 제어 명령이 있는 경우, 또는 사용자(100)가 웨어러블 디바이스(2000)를 착용하고 있는 시간 동안, 사용자(100) 얼굴의 회전 방향, 회전 속도 및 사용자(100)의 팔이 움직이는 방향 및 위치를 포함하는 사용자(100)의 움직임을 감지할 수 있다. 센싱부(2020)는 사용자(100)의 움직임을 감지한 감지 신호를 제어부(2010)로 전송할 수 있다.
음향 출력부(2030)는 전자 장치(1000)로부터 수신한 사운드 또는 알람을 출력하도록 하는 제어 신호에 따른 알람을 출력할 수 있다. 또한, 음향 출력부(2030)는 웨어러블 디바이스(2000)의 제어부(2010)가 생성한 출력신호를 출력할 수도 있다.
통신부(2040)는 웨어러블 디바이스(2000)와 전자 장치(1000) 또는 웨어러블 디바이스(2000)와 외부 디바이스(미도시) 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다.
예를 들어, 통신부(2040)는 전자 장치(1000)로부터 센싱부(2020) 작동에 대한 제어 신호를 수신할 수 있다. 통신부(2040)는 전자 장치(1000)로부터 사용자(100) 주변의 소음을 상쇄할 수 있는 사운드를 수신할 수 있다. 통신부(2040)는 사용자(100)에게 부작업 공간(102)에서 소리가 발생했음을 알리는 알람 출력을 위한 제어 신호를 수신할 수 있다. 통신부(2040)는 웨어러블 디바이스(2000)의 센싱부(2020)가 감지한 감지 신호를 전자 장치(1000)에게 전송할 수 있다.
본 명세서에서는, 모바일 디바이스와 같은 형태의 전자 장치(1000)가 주체가 되어, 사용자(100)가 착용한 웨어러블 디바이스(2000)의 출력을 제어하고, 사용자(100) 주변의 소음을 제어하는 방법에 대해 설명하였으나, 이에 한정되는 것은 아니다. 전자 장치(1000)는 사용자(100)가 착용할 수 있는 HMD(Head Mounted Device), 즉 웨어러블 디바이스의 형태일 수 있다. 이때, 전자 장치(1000)는 별도의 웨어러블 디바이스 없이 주변 소음을 상쇄할 수 있는 사운드를 자체적으로 생성 및 출력하여 소음을 제어할 수 있다.
전술한 바와 같이, 개시된 실시예에 따른 전자 장치 및 전자 장치를 이용한 소음 제어 방법은, 사용자(100)가 존재하는 작업 공간을 주작업 공간(101), 부작업 공간(102) 및 기타 공간으로 나누어 설정할 수 있다. 전자 장치(1000)는 사용자(100)의 얼굴이 향하고 있는 공간 따라 소음 제어가 가능하게 할 수 있다.전자 장치(1000)는 공간을 나누는 설정을 통하여, 사용자(100)를 주변 공간으로부터 물리적으로 격리시키지 않고도 작업 공간에 따른 소음 제어가 가능하게 할 수 있다.
또한, 전자 장치(1000)는 사용자(100) 주변의 소음을 제거 하면서도, 부작업 공간(102)에서 소리가 수신된 경우, 사용자(100)에게 알람을 출력할 수 있다. 이로 인해, 전자 장치(1000)는 사용자(100) 주변의 소음은 제거하면서도, 사용자(100)와 사용자의 동료 간의 의사소통이 가능하게 할 수 있다. 즉, 전자 장치(1000)는 사용자(100)가 선택적인 소리 수신을 가능하게 할 수 있다. 전자 장치(1000)의 소음 제어 기능으로 인해 작업 공간을 더 많은 사용자들이 공유할 수 있도록 함으로써, 효율적인 공간 사용이 가능할 수 있다.
한편, 상술한 실시예는, 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터에 의해 판독 가능한 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 실시예에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 또한, 상술한 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로 구현될 수 있다. 예를 들어, 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 컴퓨터가 읽고 실행할 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다.
컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 기록 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 포함할 수 있다. 컴퓨터 판독 가능 매체는 마그네틱 저장매체, 예를 들면, 롬, 플로피 디스크, 하드 디스크 등을 포함하고,) 광학적 판독 매체, 예를 들면, 시디롬(CD-ROM), DVD 등과 같은 저장 매체를 포함할 수 있으나, 이에 제한되지 않는다. 또한, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체를 포함할 수 있다.
또한, 컴퓨터가 읽을 수 있는 복수의 기록 매체가 네트워크로 연결된 컴퓨터 시스템들에 분산되어 있을 수 있으며, 분산된 기록 매체들에 저장된 데이터, 예를 들면 프로그램 명령어 및 코드가 적어도 하나의 컴퓨터에 의해 실행될 수 있다.
본 개시에서 설명된 특정 실행들은 일 실시예 일 뿐이며, 어떠한 방법으로도 본 개시의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 및 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다.
전술한 본 개시의 설명은 예시를 위한 것이며, 본 개시가 속하는 기술분야의 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 개시에서 모든 예들 또는 예시적인 용어, 예들 들어, “등등”의 사용은 단순히 본 개시를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 개시의 범위가 한정되는 것은 아니다.
또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 개시에 기재된 구성 요소들은 본 개시의 실행을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
본 개시의 실시예들과 관련된 기술 분야에서 통상의 지식을 가진 자는 상기 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다.
본 개시는 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 본 개시는 명세서에 기재된 특정한 실시 형태에 의해 한정되는 것이 아니며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물이 본 개시에 포함되는 것으로 이해되어야 한다. 그러므로, 개시된 실시예들은 한정적인 관점이 아닌 설명적 관점에서 이해되어야 한다.
본 개시의 범위는 발명의 상세한 설명보다는 특허 청구 범위에 의하여 나타나며, 특허 청구 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.
본 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
"부", "모듈"은 어드레싱될 수 있는 저장 매체에 저장되며 프로세서에 의해 실행될 수 있는 프로그램에 의해 구현될 수도 있다.
예를 들어, “부”, "모듈"은 소프트웨어 구성 요소들, 객체 지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들에 의해 구현될 수 있다.
본 명세서에서, "A는 a1, a2 및 a3 중 하나를 포함할 수 있다"는 기재는, A라는 엘리먼트(element)에 포함될 수 있는 예시적인 엘리먼트가 a1, a2 또는 a3라는 넓은 의미이다.
상기 기재로 인해 엘리먼트 A를 구성할 수 있는 엘리먼트가 반드시 a1, a2 또는 a3로 국한된다는 것은 아니다. 따라서 A를 구성할 수 있는 엘리먼트가, a1, a2 및 a3 이외에 예시되지 않은 다른 엘리먼트들을 배제한다는 의미로, 배타적으로 해석되지 않음에 유의하여야 한다.
또한, 상기 기재는, A는 a1를 포함하거나, a2를 포함하거나, 또는 a3를 포함할 수 있다는 의미이다. 상기 기재가 A를 구성하는 엘리먼트들이 반드시 소정 집합 내에서 선택적으로 결정된다는 것을 의미하지는 않는다. 예를 들어 상기 기재가, 반드시 a1, a2 및 a3를 포함하는 집합으로부터 선택된 a1, a2, 또는 a3가 컴포넌트 A를 구성한다는 것으로, 제한적으로 해석되지 않음에 유의하여야 한다.
또한, 본 명세서에서, "a1, a2 및 a3 중 적어도 하나"라는 기재는, "a1", "a2", "a3", "a1 및 a2", "a1 및 a3", "a2 및 a3", 및 "a1, a2 및 a3" 중에서 한 가지를 나타낸다.
따라서, "a1 중 적어도 하나, a2 중 적어도 하나 및 a3 중 적어도 하나"라고 명시적으로 기재되지 않는 이상, "a1, a2 및 a3 중 적어도 하나"라는 기재는 "a1 중 적어도 하나", "a2 중 적어도 하나" 및 "a3 중 적어도 하나"라고 해석되지 않음에 유의하여야 한다.

Claims (21)

  1. 전자 장치가 사용자의 작업 공간 내의 소음을 제어하는 방법에 있어서,
    상기 사용자의 얼굴이 기 설정된 시간 동안 향한 방향에 위치한 기 설정된 범위 내의 공간을 제1 공간으로 결정하는 단계;
    상기 제1 공간을 소음 제어를 위한 영역으로 설정하는 단계;
    상기 사용자의 얼굴이 상기 제1 공간을 향하는지 여부를 결정하는 단계;
    상기 사용자의 얼굴이 상기 제1 공간을 향하는 것에 응답하여, 상기 사용자의 주변의 소음을 감지하고, 상기 감지된 소음을 상쇄하기 위한 신호를 제공하는 단계;
    상기 사용자의 얼굴이 회전 했는지 여부를 결정하는 단계;
    상기 사용자의 얼굴의 회전에 응답하여, 상기 사용자의 얼굴의 회전 속도에 기초하여, 상기 감지된 소음을 상쇄하기 위한 신호 제공을 제어하기 위한 복수개의 제어 모드들 중 하나를 결정하는 단계; 및
    상기 결정된 제어 모드에 기초하여, 상기 감지된 소음을 상쇄하기 위한 신호 제공을 제어하는 단계를 포함하는 방법.
  2. 삭제
  3. 제 1항에 있어서,
    상기 제1 공간을 소음 제어를 위한 영역으로 설정하는 단계는,
    상기 제1 공간을 설정하기 위한 사용자 입력을 수신하는 단계를 포함하고,
    상기 사용자 입력에 기초하여, 상기 제1 공간을 상기 소음 제어를 위한 영역으로 설정하는 것인, 방법.
  4. 제 1항에 있어서,
    상기 사용자의 얼굴이 상기 제1 공간을 향하는지 여부를 결정하는 단계는,
    상기 사용자의 얼굴이 향하는 방향 및 상기 사용자의 얼굴이 회전하는 속도 중 적어도 하나에 기초하여 수행되는, 방법.
  5. 제 4항에 있어서, 상기 사용자의 얼굴이 상기 제1 공간을 향하는 것에 응답하여, 상기 사용자의 주변의 소음을 감지하고, 상기 감지된 소음을 상쇄하기 위한 신호를 제공하는 단계는,
    상기 사용자의 얼굴이 상기 제1 공간을 향하는 것에 응답하여, 상기 감지된 소음을 상쇄시키기 위한 신호의 출력 여부를 결정하는 단계를 포함하는, 방법.
  6. 제 1항에 있어서,
    상기 방법은
    제2 공간을 설정하는 사용자 입력을 수신하는 단계; 및
    상기 사용자 입력에 기초하여, 상기 제2 공간을 설정하는 단계를 더 포함하고,
    상기 제2 공간은 상기 복수개의 제어 모드 중 하나의 제어 모드를 수행하는 공간인, 방법.
  7. 제 6항에 있어서,
    상기 방법은,
    상기 제2 공간에서 소리가 발생한 경우, 상기 소리 발생을 알리는 알람을 출력하는 단계를 더 포함하는, 방법.
  8. 제 7항에 있어서,
    상기 방법은,
    상기 전자 장치에 부착된 복수의 마이크로폰 또는 상기 전자 장치의 외부 디바이스에 부착된 복수의 마이크로폰을 이용하여, 상기 발생된 소리를 감지하는 단계; 및
    상기 감지된 소리가 상기 제2 공간에서 발생한 소리인지 여부를 결정하는 단계를 더 포함하는, 방법.
  9. 제 8항에 있어서,
    상기 감지된 소리가 상기 제2 공간에서 발생 되었다고 결정됨에 따라, 상기 소리 발생을 알리는 알람을 출력하는, 방법.
  10. 제 1항에 있어서,
    상기 방법은,
    상기 감지된 소음을 상쇄시키기 위한 신호의 출력을 상기 전자 장치의 외부 디바이스에게 요청하는 단계;
    를 더 포함하는, 방법.
  11. 사용자의 작업 공간 내의 소음을 제어하는 전자 장치에 있어서,
    상기 사용자의 주변의 소음을 감지하는 마이크로폰;
    상기 사용자의 얼굴이 기 설정된 시간 동안 향한 방향에 위치한 기 설정된 범위 내의 공간을 제1 공간으로 결정하고, 상기 제1 공간을 소음 제어를 위한 영역으로 설정하고, 상기 사용자의 얼굴이 상기 제1 공간을 향하는지 여부를 결정하고, 상기 사용자의 얼굴이 상기 제1 공간을 향하는 것에 응답하여, 상기 사용자의 주변의 소음을 감지하고, 상기 감지된 소음을 상쇄하기 위한 신호를 생성하고, 상기 사용자의 얼굴이 회전 했는지 여부를 결정하고, 상기 사용자의 얼굴의 회전에 응답하여, 상기 사용자의 얼굴의 회전 속도에 기초하여, 상기 감지된 소음을 상쇄하기 위한 신호 제공을 제어하기 위한 복수개의 제어 모드들 중 하나를 결정하고, 상기 결정된 제어 모드에 기초하여 상기 감지된 소음을 상쇄하기 위한 신호 제공을 제어하는 제어부; 및
    상기 생성된 신호를 상기 전자 장치의 외부 디바이스에게 전송하는 통신부를 포함하고,
    상기 마이크로폰은, 상기 사용자의 얼굴이 상기 제1 공간을 향하는지 여부에 대한 결정에 기초하여, 상기 사용자의 주변의 소음을 감지하는, 전자 장치.
  12. 삭제
  13. 제 11항에 있어서,
    상기 전자 장치는,
    상기 제1 공간을 소음 제어를 위한 영역으로 설정하기 위한 사용자 입력을 수신하는 사용자 입력부를 더 포함하고,
    상기 제어부는,
    상기 사용자 입력에 기초하여, 상기 제1 공간을 상기 소음 제어를 위한 영역으로 설정하는 것인, 전자 장치.
  14. 제 11항에 있어서,
    상기 제어부는,
    상기 사용자의 얼굴이 향하는 방향 및 상기 사용자의 얼굴이 회전하는 속도 중 적어도 하나에 기초하여, 상기 사용자의 얼굴이 상기 제1 공간을 향하는지 여부를 결정하는 것인, 전자 장치.
  15. 제 14항에 있어서,
    상기 제어부는,
    상기 사용자의 얼굴이 상기 제1 공간을 향하는 것에 응답하여, 상기 감지된 소음을 상쇄시키기 위한 신호의 출력여부를 결정하는 것인, 전자 장치.
  16. 제 11항에 있어서,
    상기 전자 장치는,
    제2 공간을 설정하기 위한 사용자 입력을 수신하는 사용자 입력부를 더 포함하고,
    상기 제어부는,
    상기 사용자 입력에 기초하여, 상기 제2 공간을 결정하고, 상기 제2 공간은 상기 복수개의 제어 모드 중 하나의 제어 모드를 수행하는 공간인, 전자 장치.
  17. 제 16항에 있어서,
    상기 통신부는,
    상기 제2 공간에서 소리가 발생한 경우, 상기 소리 발생을 알리는 알람을 출력하는 신호를 상기 외부 디바이스에게 전송하는 것인, 전자 장치.
  18. 제 17항에 있어서,
    상기 전자 장치는,
    상기 제2 공간에서 발생된 소리를 감지하기 위한 복수의 마이크로폰을 포함하고,
    상기 제어부는,
    상기 감지된 소리가 상기 제2 공간에서 발생한 소리인지 여부를 결정하는 것인, 전자 장치.
  19. 제 18항에 있어서,
    상기 통신부는,
    상기 감지된 소리가 상기 제2 공간에서 발생 되었다고 결정됨에 따라, 상기 소리 발생을 알리는 알람을 출력하는 신호를 상기 외부 디바이스에게 전송하는 것인, 전자 장치.
  20. 제 11항에 있어서,
    상기 통신부는,
    상기 감지된 소음을 상쇄시키기 위한 신호의 출력을 상기 외부 디바이스에게 요청하는 것인, 전자 장치.
  21. 제1항 또는 제3항 내지 제10항 중 어느 한 항의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체.
KR1020160002091A 2016-01-07 2016-01-07 전자 장치 및 전자 장치를 이용한 소음 제어 방법 KR102606286B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160002091A KR102606286B1 (ko) 2016-01-07 2016-01-07 전자 장치 및 전자 장치를 이용한 소음 제어 방법
US15/193,678 US10306048B2 (en) 2016-01-07 2016-06-27 Electronic device and method of controlling noise by using electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160002091A KR102606286B1 (ko) 2016-01-07 2016-01-07 전자 장치 및 전자 장치를 이용한 소음 제어 방법

Publications (2)

Publication Number Publication Date
KR20170082842A KR20170082842A (ko) 2017-07-17
KR102606286B1 true KR102606286B1 (ko) 2023-11-24

Family

ID=59274966

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160002091A KR102606286B1 (ko) 2016-01-07 2016-01-07 전자 장치 및 전자 장치를 이용한 소음 제어 방법

Country Status (2)

Country Link
US (1) US10306048B2 (ko)
KR (1) KR102606286B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102078355B1 (ko) * 2018-05-14 2020-02-17 박민석 안정감 저해 요인 경감 기술이 적용된 버스용 휠체어 승강 시스템 및 이를 구비한 장애인용 버스
US10638248B1 (en) * 2019-01-29 2020-04-28 Facebook Technologies, Llc Generating a modified audio experience for an audio system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040234080A1 (en) * 2003-03-19 2004-11-25 Hernandez Walter C. Sound canceling systems and methods
US20120114132A1 (en) 2010-11-05 2012-05-10 Sony Ericsson Mobile Communications Ab Headset with accelerometers to determine direction and movements of user head and method

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4110583A (en) * 1975-02-03 1978-08-29 Wilhelm Lepper Earphone construction
WO1995013690A1 (fr) * 1993-11-08 1995-05-18 Sony Corporation Detecteur d'angle et appareil de lecture audio utilisant ledit detecteur
JP2843278B2 (ja) * 1995-07-24 1999-01-06 松下電器産業株式会社 騒音制御型送受話器
US5737433A (en) * 1996-01-16 1998-04-07 Gardner; William A. Sound environment control apparatus
JPH1127800A (ja) 1997-07-03 1999-01-29 Fujitsu Ltd 立体音響処理システム
US20010046304A1 (en) 2000-04-24 2001-11-29 Rast Rodger H. System and method for selective control of acoustic isolation in headsets
WO2001095666A2 (en) 2000-06-05 2001-12-13 Nanyang Technological University Adaptive directional noise cancelling microphone system
GB2374504B (en) 2001-01-29 2004-10-20 Hewlett Packard Co Audio user interface with selectively-mutable synthesised sound sources
US20020141599A1 (en) 2001-04-03 2002-10-03 Philips Electronics North America Corp. Active noise canceling headset and devices with selective noise suppression
WO2003028006A2 (en) 2001-09-24 2003-04-03 Clarity, Llc Selective sound enhancement
WO2005046465A1 (en) 2003-11-14 2005-05-26 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
GB0419346D0 (en) 2004-09-01 2004-09-29 Smyth Stephen M F Method and apparatus for improved headphone virtualisation
US20080130908A1 (en) 2006-12-05 2008-06-05 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Selective audio/sound aspects
US8655004B2 (en) 2007-10-16 2014-02-18 Apple Inc. Sports monitoring system for headphones, earbuds and/or headsets
JP5192901B2 (ja) 2007-10-29 2013-05-08 株式会社オーディオテクニカ ノイズキャンセルヘッドホン
KR20090078467A (ko) * 2008-01-15 2009-07-20 홍성표 코골이 소음 제거장치
US8553897B2 (en) * 2009-06-09 2013-10-08 Dean Robert Gary Anderson Method and apparatus for directional acoustic fitting of hearing aids
US8737634B2 (en) 2011-03-18 2014-05-27 The United States Of America As Represented By The Secretary Of The Navy Wide area noise cancellation system and method
US8781142B2 (en) 2012-02-24 2014-07-15 Sverrir Olafsson Selective acoustic enhancement of ambient sound
EP2645750A1 (en) 2012-03-30 2013-10-02 GN Store Nord A/S A hearing device with an inertial measurement unit
EP2690407A1 (en) 2012-07-23 2014-01-29 GN Store Nord A/S A hearing device providing spoken information on selected points of interest
JP6279570B2 (ja) 2012-07-24 2018-02-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 指向性音マスキング
US9706962B1 (en) * 2012-12-19 2017-07-18 Alert Core, Inc. Apparatus and method for teaching and algorithms for identifying qualifying movements
JP5974171B2 (ja) * 2013-05-15 2016-08-23 旭化成株式会社 オフセット推定装置、方法、およびプログラム
KR102212209B1 (ko) 2014-04-10 2021-02-05 삼성전자주식회사 시선 추적 방법, 장치 및 컴퓨터 판독가능한 기록 매체
EP3007029B1 (en) * 2014-10-07 2017-12-27 LG Electronics Inc. Mobile terminal and wearable device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040234080A1 (en) * 2003-03-19 2004-11-25 Hernandez Walter C. Sound canceling systems and methods
US20120114132A1 (en) 2010-11-05 2012-05-10 Sony Ericsson Mobile Communications Ab Headset with accelerometers to determine direction and movements of user head and method

Also Published As

Publication number Publication date
US10306048B2 (en) 2019-05-28
US20170201616A1 (en) 2017-07-13
KR20170082842A (ko) 2017-07-17

Similar Documents

Publication Publication Date Title
EP2961195B1 (en) Do-not-disturb system and apparatus
US10334100B2 (en) Presence-based device mode modification
KR20140141916A (ko) 사용자 기기의 알림 기능 운용 방법 및 장치
EP3125512A1 (en) Silent ring indication while listening music over a headset
US20170125019A1 (en) Automatically enabling audio-to-text conversion for a user device based on detected conditions
KR20140091322A (ko) 아이트래킹을 이용한 화면 디스플레이 방법 및 장치
KR102135370B1 (ko) 이동 단말기 및 이동 단말기의 제어방법
US11030879B2 (en) Environment-aware monitoring systems, methods, and computer program products for immersive environments
JP2015114726A (ja) 情報伝達装置及びその制御方法、情報装置、コンピュータプログラム
KR20110083027A (ko) 모바일 단말의 시간 설정을 통한 자가 호출 및 긴급 신고 방법, 그 시스템 및 이를 기록한 기록매체
JP6408032B2 (ja) 中心に位置するイヤピースを含むモバイルデバイス
KR102606286B1 (ko) 전자 장치 및 전자 장치를 이용한 소음 제어 방법
US10405129B2 (en) Apparatus, method and computer program to control notification based on distance
KR102628022B1 (ko) 통화 녹음 방지 시스템 및 방법
KR101649661B1 (ko) 이어셋 장치 및 그 장치의 제어 방법
US11081128B2 (en) Signal processing apparatus and method, and program
KR20170081472A (ko) 휴대기기 및 휴대기기를 활용한 충돌방지 및 위험사운드 음향인지 제어방법
KR101707538B1 (ko) 움직임 센서를 이용하여 모바일 단말에서 음성 입력을 제어하기 위한 장치, 방법 및 컴퓨터 판독 가능한 기록매체
KR20140127002A (ko) 휴대용 장치의 볼륨운영모드 설정 방법 및 장치
US11849312B2 (en) Agent device and method for operating the same
KR20150136678A (ko) 전자기기의 긴급 상황 알림 장치 및 방법
KR20150090552A (ko) 위급 상황을 관리하기 위한 방법, 사용자 단말 장치 및 컴퓨터 판독 가능한 기록 매체
CN116156047A (zh) 震动提示控制方法、震动提示控制装置及存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant