KR20190016851A - Method for recognizing voice and apparatus used therefor - Google Patents

Method for recognizing voice and apparatus used therefor Download PDF

Info

Publication number
KR20190016851A
KR20190016851A KR1020170101309A KR20170101309A KR20190016851A KR 20190016851 A KR20190016851 A KR 20190016851A KR 1020170101309 A KR1020170101309 A KR 1020170101309A KR 20170101309 A KR20170101309 A KR 20170101309A KR 20190016851 A KR20190016851 A KR 20190016851A
Authority
KR
South Korea
Prior art keywords
sound
speech recognition
weight
multiplied
unit
Prior art date
Application number
KR1020170101309A
Other languages
Korean (ko)
Other versions
KR102372327B1 (en
Inventor
임국찬
신동엽
신승민
신승호
배용우
이학순
전진수
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020170101309A priority Critical patent/KR102372327B1/en
Publication of KR20190016851A publication Critical patent/KR20190016851A/en
Priority to KR1020210166682A priority patent/KR102374054B1/en
Application granted granted Critical
Publication of KR102372327B1 publication Critical patent/KR102372327B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0635Training updating or merging of old and new templates; Mean values; Weighting

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Telephonic Communication Services (AREA)

Abstract

According to one embodiment of the present invention, a voice input method performed by a voice recognition apparatus comprises the steps of: deriving a size of first sound inputted to a first sound input unit of the voice recognition apparatus; comparing the size of the first sound and a size of second sound when the information on the size of the second sound inputted to the second sound input unit of the other device is received from the other device; multiplying sound having a relatively large size by a weight having a relatively large value and multiplying sound having a relatively small size by a weight having a relatively small value; and controlling voice recognition to be performed on the first and second sound respectively multiplied by the weights.

Description

음성 인식 방법 및 이에 사용되는 장치{METHOD FOR RECOGNIZING VOICE AND APPARATUS USED THEREFOR}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a speech recognition method,

본 발명은 음성 인식 방법 및 이에 사용되는 장치에 관한 것이며, 보다 자세하게는 음성을 입력받는 타 기기와 연동하여서 음성을 인식하는 방법 및 이에 사용되는 장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a voice recognition method and a device used therein, and more particularly, to a method of recognizing a voice in cooperation with another device that receives voice and a device used therefor.

음성 인식 기반의 대화형 디바이스는 복수 개의 음성 입력부(예컨대 마이크로폰)를 포함할 수 있다. 음성 입력부가 복수 개로 구비되면, 다양한 방향에서 발생되는 음성이 높은 인식률로 수집될 수 있다. 도 1은 복수 개의 음성 입력부(20)를 포함하는 대화형 디바이스(1)의 구성을 개념적으로 도시한 도면이다. 도 1을 참조하면, 대화형 디바이스(1)는 몸체를 구성하는 바디부(10) 그리고 이러한 바디부(10)에 실장되는 복수 개의 음성 입력부(20)를 포함할 수 있다. 복수 개의 음성 입력부(20)는 다양한 방향을 향하도록 지향적으로 배치될 수 있다.The interactive device based on speech recognition may include a plurality of voice input units (e.g., a microphone). If a plurality of voice input units are provided, voice generated in various directions can be collected at a high recognition rate. 1 is a diagram conceptually showing a configuration of an interactive device 1 including a plurality of voice input units 20. As shown in Fig. Referring to FIG. 1, the interactive device 1 may include a body part 10 constituting a body and a plurality of voice input parts 20 mounted on the body part 10. The plurality of audio input units 20 may be oriented to be oriented in various directions.

도 2는 도 1에 도시된 복수 개의 음성 입력부(20)에 대한 블록도를 도시한 도면이다. 도 2를 참조하면, 복수 개의 음성 입력부(20) 각각은 증폭기(21)에 연결될 수 있고, 증폭기(21)는 마이크로프로세서(MCU, 22)에 연결될 수 있다. 복수 개의 음성 입력부(20) 각각을 통해 입력된 음성은 증폭기(21)에서 증폭된 뒤 마이크로프로세서(22)로 전달된다. 마이크로프로세서(22)는 각각의 증폭기(21)로부터 음성을 전달받은 후 음성 인식을 직접 수행할 수 있으며, 이와 달리 별도의 음성 인식 서버에서 음성 인식이 수행될 수 있도록 음성 인식 서버에게 음성을 전달할 수 있다.FIG. 2 is a block diagram illustrating a plurality of audio input units 20 shown in FIG. 1. Referring to FIG. 2, each of the plurality of audio input units 20 may be connected to an amplifier 21, and the amplifier 21 may be connected to a microprocessor (MCU) 22. The voice inputted through each of the plurality of voice input units 20 is amplified by the amplifier 21 and then transmitted to the microprocessor 22. The microprocessor 22 can perform speech recognition directly after receiving the voice from each amplifier 21. Alternatively, the microprocessor 22 can transmit voice to the voice recognition server so that voice recognition can be performed in a separate voice recognition server have.

대화형 디바이스(1)는 특정 위치에 고정되어 사용되는 고정형 디바이스일 수 있다. 사용자가 대화형 디바이스(1)로부터 근거리만큼 이격된 위치에 있다면, 이러한 사용자가 발한 음성은 대화형 디바이스(1)에서 용이하게 인식 가능하다. 그러나, 사용자가 대화형 디바이스(1)로부터 원거리만큼 이격된 위치에 있다면, 이러한 사용자가 발한 음성은 대화형 디바이스(1)에서 용이하게 인식되기가 어렵다. 왜냐하면, 사용자가 발한 음성이 대화형 디바이스(1)까지 도달하는 과정에서 왜곡될 수 있기 때문이다. 이 밖에도 사용자의 음성에 의한 반향(echo), 잡음원이 발생하는 잡음(noise)에 의한 영향 또는 대화형 디바이스(1) 자체에서 출력되는 소리에 의한 반향 등은 사용자가 발한 음성에 왜곡을 가할 수 있다.The interactive device 1 may be a fixed device fixed and used at a specific position. If the user is at a position spaced apart from the interactive device 1 by a short distance, the voice uttered by such user is easily recognizable in the interactive device 1. However, if the user is at a distance from the interactive device 1 at a distance, the voice uttered by such user is difficult to be easily recognized in the interactive device 1. [ This is because the voice uttered by the user may be distorted in the process of reaching the interactive device 1. In addition, echo caused by the voice of the user, noise caused by the noise source, or echo caused by the sound output from the interactive device 1 itself may distort the voice uttered by the user .

한국특허공개공보, 제 2010-0115783호 (2010.10.28. 공개)Korean Patent Laid-Open Publication No. 2010-0115783 (published on October 28, 2010)

이에 본 발명이 해결하고자 하는 과제는, 사용자가 음성 인식 장치로부터 원거리만큼 이격된 위치에 있거나 대화형 디바이스 부근에 잡음원이 존재하는 경우 음성 인식률을 개선하는 기술을 제공하는 것이다.SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a technique for improving the voice recognition rate when the user is located at a distance from the voice recognition apparatus by a distance or when a noise source exists in the vicinity of the interactive device.

또한, 음성 인식 장치가 자체적으로 출력하는 소리 또는 사용자의 음성에 의한 반향 영향 등을 제거 또는 감소시킴으로써 음성 인식률을 개선하는 기술을 제공하는 것이다.It is another object of the present invention to provide a technique for improving the voice recognition rate by eliminating or reducing the sound output by the voice recognition apparatus itself or the echo influence by the voice of the user.

다만, 본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. will be.

일 실시예에 따른 음성 입력 방법은 음성 인식 장치에 의해 수행되며, 상기 음성 인식 장치의 제1 소리 입력부에 입력된 제1 소리의 크기를 도출하는 단계와, 타 기기의 제2 소리 입력부에 입력된 제2 소리의 크기에 대한 정보가 상기 타 기기로부터 수신되면, 상기 제1 소리의 크기와 상기 제2 소리의 크기를 비교하는 단계와, 상기 비교 결과 상대적으로 크기가 큰 소리에 상대적으로 큰 값의 가중치를 곱하고 상대적으로 크기가 작은 소리에 상대적으로 작은 값의 가중치를 곱하는 단계와, 상기 가중치가 각각 곱해진 제1 소리 및 제2 소리에 대해 음성 인식이 수행되도록 제어하는 단계를 포함한다.The voice input method according to an exemplary embodiment of the present invention is performed by a voice recognition device, and includes the steps of: deriving a size of a first voice input to a first voice input unit of the voice recognition device; Comparing the magnitude of the first sound with the magnitude of the second sound when information on the magnitude of the second sound is received from the other device; and comparing the magnitude of the second sound with a magnitude of a relatively large value Multiplying a weight by a weight and a weight of a relatively small value with a weight of a relatively small value; and controlling the voice recognition to be performed on the first sound and the second sound multiplied by the weights, respectively.

일 실시예에 따른 음성 인식 장치는 제1 소리를 입력받는 제1 소리 입력부와, 상기 제1 소리의 크기를 도출하는 음성 인식부와, 제2 소리 입력부를 포함하는 타 기기로부터 상기 제2 소리 입력부에 입력된 제2 소리의 크기에 대한 정보를 수신하는 통신부와, 상기 제1 소리의 크기와 상기 제2 소리의 크기를 비교하고, 상기 비교 결과 상대적으로 큰 소리에 곱해지는 가중치는 상대적으로 큰 값을 갖도록 산출하고 상대적으로 작은 소리에 곱해지는 가중치는 상대적으로 작은 값을 갖도록 산출하며, 상기 산출된 각각의 가중치가 곱해진 제1 소리 및 제2 소리에 대해 음성 인식이 수행되도록 제어하는 제어부를 포함한다.The speech recognition apparatus according to an embodiment of the present invention includes a first sound input unit for receiving a first sound, a speech recognition unit for deriving a size of the first sound, and a second sound input unit for receiving, from another device including the second sound input unit, A size of the first sound and a size of the second sound are compared with each other and a weight that is multiplied by a relatively large sound is compared with a relatively large value And a control unit for controlling the voice recognition to be performed on the first sound and the second sound multiplied by the respective weights calculated so as to have a relatively small value, do.

일 실시예에 따르면, 복수 개의 장치 각각이 소리를 입력받을 때, 이러한 소리를 발하는 음원과 각각의 장치 간의 이격 거리가 고려되어서 각각의 소리가 다른 비율로 증폭될 수 있다. 따라서, 어느 하나의 장치가 음원과 원거리만큼 이격되어 있다고 하더라도 다른 장치가 음원과 근거리만큼 이격되어 있으면 이러한 다른 장치로 입력된 소리가 보다 크게 증폭되어서 합성될 수 있으므로, 해당 음원이 발하는 소리에 대한 인식률이 향상될 수 있다.According to an embodiment, when each of the plurality of devices receives a sound, each sound may be amplified at a different rate considering the distance between the sound source emitting the sound and the respective devices. Therefore, even if one of the devices is spaced apart from the sound source by a distance, if the other device is spaced apart from the sound source by a short distance, the sound input to the other device can be amplified and synthesized much more. Therefore, Can be improved.

또한, 반향음에 의해 발생 가능한 소리의 왜곡이 경감되거나 제거될 수 있다. In addition, the distortion of the sound that can be generated by the reverberation can be alleviated or eliminated.

도 1은 일반적인 대화형 음성 인식 장치의 구성을 개념적으로 도시한 도면이다.
도 2는 도 1에 도시된 대화형 음성 인식 장치의 음성 인식부에 대한 블록도를 도시한 도면이다.
도 3은 일 실시예에 따른 음성 인식 장치가 적용된 음성 인식 시스템의 구성을 개념적으로 도시한 도면이다.
도 4는 도 3에 도시된 타 기기의 구성을 개념적으로 도시한 도면이다.
도 5는 도 3에 도시된 일 실시예에 따른 음성 인식 장치의 구성을 개념적으로 도시한 도면이다.
도 6은 일 실시예에 따른 음성 인식 장치의 동작을 개념적으로 도시한 도면이다.
도 7은 일 실시예에 따른 음성 인식 장치가 동작하는 상황에 대한 제1 예를 개념적으로 도시한 도면이다.
도 8은 일 실시예에 따른 음성 인식 장치가 동작하는 상황에 대한 제2 예를 개념적으로 도시한 도면이다.
도 9는 일 실시예에 따른 음성 인식 장치가 동작하는 상황에 대한 제3 예를 개념적으로 도시한 도면이다.
도 10은 일 실시예에 따른 음성 인식 장치의 동작을 개념적으로 도시한 도면이다.
1 is a diagram conceptually showing a configuration of a general interactive speech recognition apparatus.
FIG. 2 is a block diagram of a voice recognition unit of the interactive voice recognition apparatus shown in FIG. 1. FIG.
FIG. 3 is a conceptual view illustrating a configuration of a speech recognition system to which a speech recognition apparatus according to an embodiment is applied.
4 is a view conceptually showing the configuration of the other device shown in Fig.
FIG. 5 is a conceptual diagram illustrating a configuration of a speech recognition apparatus according to an embodiment shown in FIG. 3. Referring to FIG.
6 is a conceptual diagram illustrating an operation of the speech recognition apparatus according to an embodiment.
7 is a conceptual diagram illustrating a first example of a situation in which the speech recognition apparatus according to an embodiment operates.
8 is a conceptual diagram illustrating a second example of a situation in which the speech recognition apparatus according to an embodiment operates.
9 is a conceptual diagram illustrating a third example of a situation in which the speech recognition apparatus according to an embodiment operates.
10 is a diagram conceptually illustrating an operation of the speech recognition apparatus according to an embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions in the embodiments of the present invention, which may vary depending on the intention of the user, the intention or the custom of the operator. Therefore, the definition should be based on the contents throughout this specification.

도 3은 일 실시예에 따른 음성 인식 장치(100)가 적용된 음성 인식 시스템(1000)의 구성을 개념적으로 도시한 도면이다. 다만, 도 3은 예시적인 것에 불과하므로, 음성 인식 장치(100)가 도 3에 도시된 음성 인식 시스템(1000)에만 한정 적용되는 것으로 해석되지는 않는다.3 is a diagram conceptually illustrating a configuration of a speech recognition system 1000 to which the speech recognition apparatus 100 according to an embodiment is applied. However, since Fig. 3 is merely an example, the speech recognition apparatus 100 is not construed to be limited to the speech recognition system 1000 shown in Fig.

도 3을 참조하면, 음성 인식 시스템(1000)은 음성 인식 서버(500), 음성 인식 장치(100) 그리고 적어도 하나의 타 기기(200,210)를 포함할 수 있다. 이 때, 이러한 음성 인식 시스템(1000)이 설치된 공간에는 잡음(noise)을 발하는 잡음원(300)이 배치될 수 있다. Referring to FIG. 3, the speech recognition system 1000 may include a speech recognition server 500, a speech recognition apparatus 100, and at least one other device 200, 210. At this time, a noise source 300 that emits noise may be disposed in a space where the speech recognition system 1000 is installed.

음성 인식 서버(500)는 소리로부터 음성을 추출하고 인식하는 기능을 수행하는 서버일 수 있다. 음성 인식 서버(500)에서 처리되는 소리는 음성 인식 장치(100)나 또는 타 기기(200,210)로부터 전달받은 소리일 수 있다. 여기서, 음성 인식 서버(500)는 소리로부터 음성을 추출하고 인식하기 위해 공지된 기술을 사용할 수 있는 바, 이에 대한 설명은 생략하기로 한다.The speech recognition server 500 may be a server that performs a function of extracting and recognizing speech from a sound. The sound processed by the voice recognition server 500 may be sound received from the voice recognition apparatus 100 or other devices 200 and 210. Here, the speech recognition server 500 can use a known technique for extracting and recognizing speech from a sound, and a description thereof will be omitted.

타 기기(200,210)는 외부의 소리를 입력받는 기능을 구비하는 모든 기기를 총칭할 수 있다. 예컨대 이러한 타 기기(200,210)는 스마트폰, 스마트패드, 스마트시계, 소리 입력 기능이 구비된 리모콘 또는 소리 입력 기능이 구비된 스피커 등일 수 있다. 이러한 타 기기(200,210)는 음성 인식 시스템(1000)에서 적어도 한 개 이상 구비될 수 있다. 이러한 타 기기(200,210)에 대하여는 도 4를 참조하여 살펴보기로 한다. The other devices 200 and 210 may be collectively referred to as all devices having a function of receiving an external sound. For example, the other devices 200 and 210 may be a smart phone, a smart pad, a smart clock, a remote control equipped with a sound input function, or a speaker equipped with a sound input function. At least one of the other devices 200 and 210 may be provided in the voice recognition system 1000. These other devices 200 and 210 will be described with reference to FIG.

도 4는 도 3에 도시된 타 기기(200,210)에 대한 구성을 예시적으로 도시한 도면이다. 도 4를 참조하면, 타 기기(200,210)는 통신부(201), 적어도 하나의 스피커(202), 적어도 하나의 소리 입력부(203) 및 제어부(204) 중 적어도 하나를 포함할 수 있으며, 언급되지 않은 다른 구성을 포함할 수도 있다. FIG. 4 is a diagram illustrating an exemplary configuration of the other devices 200 and 210 shown in FIG. 4, the other devices 200 and 210 may include at least one of a communication unit 201, at least one speaker 202, at least one sound input unit 203, and a control unit 204, Other configurations may also be included.

통신부(201)는 무선 통신 모듈일 수 있다. 예컨대 통신부(201)는 블루투스 모듈, Wi-Fi 모듈 또는 적외선 통신 모듈 중 어느 하나일 수 있으나 이에 한정되는 것은 아니다. 통신부(201)를 통해서 타 기기(200,210)는 음성 인식 장치(100) 또는 음성 인식 서버(500)와 음성 또는 음성 관련 데이터를 주고받을 수 있다. The communication unit 201 may be a wireless communication module. For example, the communication unit 201 may be any one of a Bluetooth module, a Wi-Fi module, and an infrared communication module, but is not limited thereto. The other devices 200 and 210 can exchange voice or voice data with the voice recognition device 100 or the voice recognition server 500 through the communication unit 201. [

스피커(202)는 외부를 향해 소리를 출력하는 구성이다. 이러한 타 기기(200,210)에 채용되는 스피커(202)는 회로 기판에 포함되는 일반적인 스피커일 수 있는 바, 이러한 스피커(202)에 대해서는 설명을 생략하기로 한다.The speaker 202 outputs sound toward the outside. The loudspeaker 202 employed in the other devices 200 and 210 may be a general speaker included in a circuit board, and a description of the loudspeaker 202 will be omitted.

소리 입력부(203)는 마이크로폰과 같이 소리를 입력받는 구성이며, 입력받은 소리를 증폭시키는 구성까지도 포함할 수 있다. 소리 입력부(203)가 입력받는 소리에는 사람의 음성, 사물로부터 발생되는 소리, 잡음원(300)이 발생시키는 잡음 등이 있을 수 있으며, 다만 이에 한정되는 것은 아니다.The sound input unit 203 may be configured to receive a sound such as a microphone, and may also include a configuration for amplifying a sound received. The sound input to the sound input unit 203 may include a human voice, a sound generated from an object, a noise generated by the noise source 300, and the like.

소리 입력부(203)는 복수 개가 타 기기(200,210)에 구비될 수 있다. 복수 개의 소리 입력부(203)는 다양한 방향을 향하도록 지향적으로 배치 및 동작될 수 있다. 복수 개의 소리 입력부(203)는 후술할 제어부(204)에 의해서 선택적으로 동작될 수 있다.A plurality of sound input units 203 may be provided in other devices 200 and 210. The plurality of sound input units 203 may be oriented and operated in various directions. The plurality of sound input units 203 can be selectively operated by a control unit 204 to be described later.

제어부(204)는 이하에서 설명할 기능을 수행하도록 프로그램된 명령어를 저장하는 메모리 및 이러한 명령어를 실행하는 마이크로프로세서에 의하여 구현 가능하다. 이하에서는 이러한 제어부(204)에 대하여 구체적으로 살펴보도록 한다.The control unit 204 may be embodied by a memory that stores instructions programmed to perform the functions described below and a microprocessor that executes such instructions. Hereinafter, the control unit 204 will be described in detail.

제어부(204)는 소리 입력부(203)가 복수 개로 구비된 경우, 이 중 적어도 하나를 선별적으로 동작시킬 수 있다. If a plurality of sound input units 203 are provided, the control unit 204 can selectively operate at least one of them.

또한, 제어부(204)는 소리 입력부(203)에 입력된 소리로부터 정보를 추출할 수 있다. 제어부(204)가 소리로부터 추출하는 정보에는 소리 입력부(203)에 소리가 입력된 시간 또는 소리 입력부(203)에 입력된 소리의 주파수나 크기 등이 포함될 수 있으나 이에 한정되는 것은 아니다.In addition, the control unit 204 can extract information from the sound input to the sound input unit 203. The information extracted by the control unit 204 from the sound may include a time at which the sound is input to the sound input unit 203 or a frequency or a size of sound input to the sound input unit 203. However,

또한, 제어부(204)는 소리에 잡음이 포함되어 있을 경우, 소리로부터 잡음을 추출하고 그 특성을 파악할 수 있으며 또한 이러한 특성을 기초로 잡음을 상쇄시키는 상쇄음을 생성할 수 있다. 다만, 제어부(204)가 소리로부터 잡음을 추출하고 잡음의 특성을 파악하며 이러한 잡음의 특성을 기초로 잡음에 대한 상쇄음을 생성하는 기술은 이미 공지된 기술을 이용하는 것이므로 이에 대한 설명은 생략하기로 한다.In addition, when the sound includes noise, the control unit 204 can extract noise from the sound and grasp the characteristics of the sound, and generate an offset canceling noise based on the characteristics. However, since the control unit 204 extracts the noise from the sound, grasps the characteristic of the noise, and generates the offset sound for the noise based on the characteristic of the noise, the known technique is used. do.

잡음원(300)은 잡음을 발생시키는 음원을 지칭한다. 잡음에는 백색 소음 또는 기타 다른 소음 등이 포함될 수 있다.The noise source 300 refers to a sound source that generates noise. Noise may include white noise or other noise.

음성 인식 장치(100)는 사용자(400)가 발하는 음성을 인식하고, 인식된 음성에 대응하여서 대화형 서비스를 제공하는 장치일 수 있다. 또한, 음성 인식 장치(100)는 타 기기(200,210)를 제어함으로써, 이러한 타 기기(200,210)로 하여금 사용자(400)가 발하는 음성을 입력받도록 할 수 있다. 이하에서는 이러한 음성 인식 장치(100)의 구성에 대해서 살펴보도록 한다.The speech recognition apparatus 100 may be a device that recognizes a speech uttered by the user 400 and provides an interactive service corresponding to the recognized speech. In addition, the voice recognition apparatus 100 may control the other apparatuses 200 and 210 to allow the other apparatuses 200 and 210 to receive the voice uttered by the user 400. Hereinafter, a configuration of the speech recognition apparatus 100 will be described.

도 5는 도 3에 도시된 음성 인식 장치(100)의 구성을 예시적으로 도시한 도면이다. 도 5를 참조하면, 음성 인식 장치(100)는 통신부(110), 스피커(120), 소리 입력부(130), 합성부(140), 저장부(150), 음성 인식부(160), 처리부(170) 및 제어부(180)를 포함할 수 있으며, 다만 도 5에 도시된 것과는 달리 이 중에서 적어도 하나를 포함하지 않거나 또는 도면에는 도시되지 않은 구성을 더 포함할 수도 있다.5 is a diagram exemplarily showing a configuration of the speech recognition apparatus 100 shown in FIG. 5, the speech recognition apparatus 100 includes a communication unit 110, a speaker 120, a sound input unit 130, a synthesis unit 140, a storage unit 150, a voice recognition unit 160, a processing unit 170 and a control unit 180, but may further include a configuration not including at least one of them or not shown in the drawings, unlike the configuration shown in FIG.

통신부(110)는 무선 통신 모듈일 수 있다. 예컨대 통신부(110)는 블루투스모듈, Wi-Fi 모듈 또는 적외선 통신 모듈 중 어느 하나일 수 있으나 이에 한정되는 것은 아니다. 이러한 통신부(110)를 통해서 음성 인식 장치(100)는 음성 인식 서버(500) 또는 타 기기(200,210)와 음성 또는 음성 관련 데이터를 주고받을 수 있다. The communication unit 110 may be a wireless communication module. For example, the communication unit 110 may be any one of a Bluetooth module, a Wi-Fi module, and an infrared communication module, but is not limited thereto. The voice recognition apparatus 100 can exchange voice or voice related data with the voice recognition server 500 or other devices 200 and 210 through the communication unit 110.

스피커(120)는 외부를 향해 소리를 출력하는 구성이다. 음성 인식 장치(100)에 채용되는 스피커(120)는 일반적인 스피커일 수 있는 바, 이러한 스피커(120)에 대해서는 설명을 생략하기로 한다.The speaker 120 outputs sound toward the outside. The speaker 120 employed in the speech recognition apparatus 100 may be a general speaker, and a description of the speaker 120 will be omitted.

소리 입력부(130)는 마이크와 같이 소리를 입력받는 구성이며, 입력받은 소리를 증폭시키는 구성까지도 포함하는 개념일 수 있다. 소리 입력부(130)가 입력받는 소리에는 사람의 음성, 사물로부터 발생되는 소리, 잡음원(300)이 발생시키는 잡음 등이 있을 수 있으며, 다만 이에 한정되는 것은 아니다.The sound input unit 130 may be configured to receive a sound such as a microphone, and may include a configuration for amplifying a received sound. The sound received by the sound input unit 130 may include a human voice, a sound generated from an object, a noise generated by the noise source 300, and the like.

소리 입력부(130)는 복수 개가 음성 인식 장치(100)에 구비될 수 있다. 복수 개의 소리 입력부(130)는 다양한 방향을 향하도록 지향적으로 배치 및 동작될 수 있다. 복수 개의 소리 입력부(130)의 동작은 후술할 제어부(180)에 의해서 제어될 수 있다.A plurality of the sound input unit 130 may be included in the voice recognition apparatus 100. The plurality of sound input units 130 may be oriented and operated in various directions. The operation of the plurality of sound input units 130 may be controlled by a control unit 180 to be described later.

합성부(140)는 복수 개의 소리를 합성하는 구성이며, 필터와 같이 일반적으로 공지된 구성을 포함할 수 있다. 합성부(140)는 음성 인식 장치(100)의 소리 입력부(130)로 입력되는 소리와, 타 기기(200,210)의 소리 입력부(203)로 입력되는 소리를 대상으로 합성할 수 있다. 만약, 음성 인식 장치(100)의 소리 입력부(130)가 복수 개로 구비되거나 타 기기(200)의 소리 입력부(203)가 복수 개로 구비되는 경우, 합성부(140)는 이들 복수 개의 소리 입력부(103,203)로 입력되는 소리를 합성할 수 있다.The combining unit 140 is configured to combine a plurality of sounds, and may include a generally known configuration such as a filter. The combining unit 140 may synthesize the sound input to the sound input unit 130 of the voice recognition device 100 and the sound input to the sound input unit 203 of the other devices 200 and 210. If a plurality of sound input units 130 of the voice recognition apparatus 100 or a plurality of sound input units 203 of the other devices 200 are provided in the speech recognition apparatus 100, ) Can be synthesized.

합성부(140)는 각각의 소리에 가중치(weight)를 곱할 수 있으며, 따라서 합성부(140)는 가중치가 곱해진 소리를 합성할 수 있다. 가중치는 양(+) 또는 음(-)의 값을 가질 수 있으며, 양의 값은 음성을 합성하기 위해서 해당 소리 입력부(203)의 음성 특성을 강화하는데 사용될 수 있고, 음의 값은 해당 소리 입력부(203)의 음성 특성을 약화하는데 사용될 수 있다. 합성부(140)에 의해서 소리에 가중치가 곱해진다는 것은 소리가 앰프 등을 통과한다는 것을 의미할 수 있으며, 이에 합성부(140)는 앰프 등을 구성요소로서 포함할 수 있다. 가중치가 곱해진 소리는 곱해진 가중치에 따라서 그 크기가 커지거나 줄어들 수 있다. 이러한 가중치는 후술할 제어부(180)로부터 전달받은 것일 수 있다.The combining unit 140 may multiply each sound by a weight so that the combining unit 140 can synthesize the sound multiplied by the weight. The weight may have a positive (+) or negative (-) value, and a positive value may be used to enhance the voice characteristic of the corresponding sound input unit 203 to synthesize the voice, Can be used to attenuate the speech characteristics of the microphone 203. Multiplying the weight by the sound by the synthesis unit 140 may mean that the sound passes through an amplifier or the like. The synthesis unit 140 may include an amplifier or the like as a component. The sound multiplied by the weight can be increased or decreased in size according to the multiplied weight. The weight may be received from the control unit 180 to be described later.

저장부(150)는 데이터를 저장하는 구성이며, 메모리 등으로 구현 가능하다. 저장부(160)에 저장된 데이터에는 예컨대 웨이크업 신호, 소리 입력부(130,203)의 ID 또는 스피커(120)를 통해 출력되는 소리일 수 있으나 이에 한정되는 것은 아니다. 여기서, 웨이크업 신호는 미리 정해진 주파수 특성을 가질 수 있다. 웨이크업 신호가 음성 인식 장치(100)에서 인식되면, 그 이후에 사용자(400)가 발하는 음성은 명령으로 인식될 수 있다.The storage unit 150 stores data and may be implemented as a memory or the like. The data stored in the storage unit 160 may be, for example, a wakeup signal, an ID of the sound input unit 130 or 203, or a sound output through the speaker 120, but is not limited thereto. Here, the wake-up signal may have a predetermined frequency characteristic. When the wakeup signal is recognized by the voice recognition apparatus 100, the voice that the user 400 then utters can be recognized as an instruction.

음성 인식부(160)는 소리로부터 음성을 추출하여서 그 특성(예컨대 소리의 크기나 주파수, 소리가 입력된 시간 등)을 인식하는 구성이다. 음성 인식부(160)는 소리로부터 음성을 인식하도록 프로그램된 명령어를 저장하는 메모리 및 이러한 명령어를 실행하는 마이크로프로세서에 의하여 구현 가능하다.The voice recognition unit 160 is a configuration for extracting a voice from a voice and recognizing its characteristics (for example, the size and frequency of the voice, the time when the voice is input, etc.). The speech recognition unit 160 can be implemented by a memory that stores instructions programmed to recognize speech from sounds and a microprocessor that executes such instructions.

음성 인식부(160)에서 인식되는 소리는 소리 입력부(120)로 입력된 소리 또는 타 기기(200,210)로부터 전달받은 소리일 수 있다. The sound recognized by the voice recognition unit 160 may be a sound input to the sound input unit 120 or a sound received from the other devices 200 and 210.

음성 인식부(160)는 소리로부터 전술한 웨이크업 신호를 소리로부터 추출하여서 인식할 수 있다. The voice recognition unit 160 can extract the above-described wake-up signal from the sound and recognize it.

한편, 음성 인식부(160)는 웨이크업 신호 이외에 사용자(400)가 발하는 명령을 인식할 수도 있다. 다만, 이와 달리 음성 인식부(160)는 웨이크업 신호 이외에 사용자(400)가 발하는 명령을 인식하지 않을 수 있으며, 이 경우에 사용자의 명령 인식은 음성 인식 서버(500)에서 수행될 수 있다.Meanwhile, the voice recognition unit 160 may recognize a command issued by the user 400 in addition to the wakeup signal. Alternatively, the voice recognition unit 160 may not recognize a command issued by the user 400 in addition to the wakeup signal. In this case, the command recognition of the user may be performed in the voice recognition server 500. [

음성 인식부(160)는 소리로부터 잡음을 추출하여서 그 특성을 인식할 수 있다. 음성 인식부(160)가 소리로부터 잡음을 추출하여서 그 특성을 인식하는데 사용하는 알고리즘은 공지된 것이므로 이에 대한 설명은 생략하기로 한다.The speech recognition unit 160 can extract the noise from the sound and recognize the characteristic. The algorithm used by the speech recognition unit 160 to extract the noise from the sound and recognize the characteristic is well known, and a description thereof will be omitted.

처리부(170)는 사용자(400)에게 대화형 서비스를 제공하는 구성이며, 이러한 처리부(170)는 대화형 서비스를 제공하도록 프로그램된 명령어를 저장하는 메모리 및 이러한 명령어를 실행하는 마이크로프로세서에 의하여 구현 가능하다. 여기서, 처리부(170)는 이미 공지된 알고리즘을 사용하여서 대화형 서비스를 제공하므로, 이에 대해서는 설명을 생략하기로 한다.The processing unit 170 is a configuration for providing an interactive service to the user 400. The processing unit 170 may be implemented by a memory that stores instructions programmed to provide an interactive service and a microprocessor that executes such an instruction Do. Here, the processing unit 170 provides an interactive service using an already-known algorithm, and a description thereof will be omitted.

한편, 실시예에 따라서 처리부(170)는 음성 인식 장치(100)에 포함되지 않을 수 있다. 이 경우, 사용자(400)에게 제공되는 대화형 서비스는 음성 인식 서버(500)가 생성한 것이 음성 인식 장치(100)에게 전달된 것일 수 있다. On the other hand, the processing unit 170 may not be included in the speech recognition apparatus 100 according to the embodiment. In this case, the interactive service provided to the user 400 may be the one generated by the voice recognition server 500 and delivered to the voice recognition apparatus 100.

제어부(180)는 이하에서 설명할 기능을 수행하도록 프로그램된 명령어를 저장하는 메모리 및 이러한 명령어를 실행하는 마이크로프로세서에 의하여 구현 가능하다. 이하에서는 이러한 제어부(180)에 대하여 구체적으로 살펴보도록 한다.The control unit 180 may be embodied by a memory that stores instructions programmed to perform the functions described below and a microprocessor that executes such instructions. Hereinafter, the control unit 180 will be described in detail.

제어부(180)는 음성 인식 장치(100) 주변에 위치한 타 기기(200,210)를 탐색할 수 있다. 예컨대, 통신부(110)가 블루투스 모듈로 구현된 경우, 제어부(180)는 블루투스 연결 히스토리 등을 이용하여서 탐색의 진행을 제어할 수 있다.The control unit 180 can search for other devices 200 and 210 located in the vicinity of the voice recognition device 100. [ For example, when the communication unit 110 is implemented as a Bluetooth module, the control unit 180 can control the progress of the search using the Bluetooth connection history or the like.

탐색이 완료된 경우, 제어부(180)는 탐색된 타 기기(200,210)와 음성 인식 장치(100)를 서로 연결시킬 수 있다. When the search is completed, the control unit 180 can connect the other devices 200 and 210 and the voice recognition device 100 to each other.

통신이 연결되면, 제어부(180)는 통신이 연결된 타 기기(200,210) 각각에 포함된 적어도 하나의 소리 입력부(203)의 ID와, 음성 인식 장치(100)에 포함된 적어도 하나의 소리 입력부(130) 각각의 ID를 리스트 업(list up)할 수 있다. 이와 같이 리스트 업된 정보는 저장부(150)에 저장될 수 있다.The control unit 180 controls the ID of at least one sound input unit 203 included in each of the other devices 200 and 210 connected to the communication and at least one sound input unit 130 ) Each ID can be listed up. The list-up information can be stored in the storage unit 150. [

제어부(180)는 통신이 연결된 타 기기(200,210)에게 소리에 대한 정보를 요청할 수 있다. 이러한 요청에 대응하여서, 소리에 대한 정보가 통신부(110)를 통해 각각의 타 기기(200,210)로부터 수신될 수 있다. 소리에 대한 정보에는 소리가 소리 입력부(203)로 입력된 시간, 소리 입력부(203)로 입력된 소리의 주파수나 크기, 소리에 포함된 잡음의 크기나 주파수 등이 있을 수 있으며 다만 이에 한정되는 것은 아니다.The control unit 180 may request information about sounds to other devices 200 and 210 connected to the communication. In response to such a request, information on sound may be received from each of the other devices 200 and 210 through the communication unit 110. [ The information on the sound may include a time at which the sound is input to the sound input unit 203, a frequency or size of the sound input to the sound input unit 203, a magnitude or frequency of noise included in the sound, no.

제어부(180)는 합성부(140)에서 소리에 곱해지는 가중치를 산출할 수 있다. 제어부(180)에서 산출된 가중치는 합성부(140)에 전달되며, 합성부(140)는 이러한 가중치를 소리에 곱한 뒤 합성할 수 있다. 도 6은 소리 입력부(103a,b) 및 소리 입력부(203a,b) 각각으로 입력된 소리가 합성부(140)로 전달되고, 제어부(180)에 의해 산출된 가중치가 합성부(140)로 전달되면, 합성부(140)가 소리에 가중치를 곱한 뒤 이들을 합성하는 과정을 도시한 도면이다. 합성부(140)에 의해 합성된 소리는 음성 인식이 수행될 수 있도록 제어부(180)에 의해 제어될 수 있다. 예컨대, 합성부(140)에 의해 합성된 소리가 웨이크업 신호이면 음성 인식부(160)에서 인식될 수 있고, 합성부(140)에 의해 합성된 소리가 웨이크업 신호가 인식된 이후에 입력된 소리이면 통신부(110)를 통해서 음성 인식 서버(500)로 전달될 수도 있다.The control unit 180 may calculate a weight to be multiplied by the sound in the synthesis unit 140. [ The weights calculated by the controller 180 are transmitted to the combiner 140, and the combiner 140 multiplies the weights by the weights and combines them. 6 shows a case where sounds input to the sound input units 103a and 103b and sound input units 203a and 203b are transmitted to the combining unit 140 and the weight values calculated by the control unit 180 are transmitted to the combining unit 140 The synthesizer 140 multiplies the sounds by the weights, and synthesizes them. The sound synthesized by the synthesis unit 140 can be controlled by the control unit 180 so that speech recognition can be performed. For example, if the sound synthesized by the synthesis unit 140 is a wakeup signal, the sound recognition unit 160 can recognize the synthesized sound, and if the sound synthesized by the synthesis unit 140 is a wakeup signal, And may be transmitted to the voice recognition server 500 through the communication unit 110. [

이하에서는 제어부(180)가 가중치를 산출하는 방법에 대해 예시를 들어서 설명하기로 한다.Hereinafter, a method of calculating the weight by the control unit 180 will be described by way of example.

제어부(180)는 소리의 크기에 따라 가중치를 산출할 수 있다. 예컨대, 제어부(180)는 상대적으로 큰 크기의 소리에는 상대적으로 큰 값의 가중치가 곱해지도록 가중치를 산출하고, 상대적으로 작은 크기의 소리에는 상대적으로 작은 값의 가중치가 곱해지도록 가중치를 산출할 수 있다. 이에 대해서는 도 7을 참조하여서 보다 자세하게 살펴보기로 한다. The control unit 180 may calculate the weight according to the size of the sound. For example, the control unit 180 may calculate a weight so that a relatively large value is multiplied by a relatively large value, and a weight is calculated so that a relatively small value is multiplied by a relatively small value . This will be described in more detail with reference to FIG.

도 7은 사용자(400)가 음성 입력 장치(100) 및 타 기기(200)와 각각 서로 상이한 거리만큼 이격되어 있는 상황을 도시한 도면이다. 도 7을 참조하면, 사용자(400)는 음성 입력 장치(100)보다 타 기기(200)에 상대적으로 가깝게 위치해 있다. 따라서, 사용자(400)가 발하는 음성은 음성 입력 장치(100)보다 타 기기(200)에서 보다 큰 크기로 입력될 것이다. 제어부(180)는 타 기기(200)와 음성 입력 장치(100)로 입력된 소리 중에서, 타 기기(200)로 입력된 소리에 곱해지는 가중치가 상대적으로 큰 값을 갖도록 산출할 것이다. 실시예에 따라서는 제어부(180)는 타 기기(200)의 소리 입력부(203a,b) 중에서도 사용자(400)를 향하는 소리 입력부(203b)에 대한 가중치를 가장 큰 값으로 산출할 수 있는데, 이는 소리 입력부(203a)보다는 소리 입력부(203b)에 입력된 소리의 크기가 가장 클 것이기 때문이다.7 is a diagram illustrating a situation in which the user 400 is separated from the voice input device 100 and the other device 200 by distances different from each other. Referring to FIG. 7, the user 400 is located closer to the other device 200 than the voice input device 100. Accordingly, the voice uttered by the user 400 will be input at a size larger than that of the voice input apparatus 100 at the other apparatus 200. The control unit 180 may calculate a weight that is multiplied by the sound input to the other device 200 among the sounds input to the other device 200 and the sound input device 100 to have a relatively large value. The control unit 180 can calculate the weight of the sound input unit 203b directed to the user 400 among the sound input units 203a and 203b of the other device 200 as the largest value, This is because the sound input to the sound input unit 203b is larger than the input unit 203a.

즉, 일 실시예에 따르면 소리의 크기에 곱해지는 가중치를 산출할 때 서로 상이한 장치(음성 인식 장치(100)와 타 기기(200,210)) 각각에 입력되는 소리의 크기에 따라 상이한 가중치가 산출될 수 있으며, 실시예에 따라서는 하나의 기기에 구비된 복수 개의 소리 입력부에 대해서도 각각에 입력되는 소리의 크기에 따라 서로 상이한 가중치가 산출될 수 있다.That is, according to one embodiment, different weights may be calculated according to the sizes of sounds input to the apparatuses (the speech recognition apparatus 100 and the other apparatuses 200 and 210) that are different from each other when calculating the weights multiplied by the sizes of sounds According to an embodiment, different weights may be calculated for a plurality of sound input units included in one device according to the magnitude of sound input to each of the plurality of sound input units.

따라서, 복수 개의 장치 각각이 소리를 입력받을 때, 이러한 소리를 발하는 음원과 각각의 장치 간의 이격 거리가 고려되어서 각각의 소리가 증폭될 수 있다. 따라서, 어느 하나의 장치가 음원과 원거리만큼 이격되어 있다고 하더라도 다른 장치가 음원과 근거리만큼 이격되어 있으면 이러한 다른 장치로 입력된 소리가 보다 증폭되어서 합성될 수 있으므로, 해당 음원이 발하는 소리에 대한 인식률이 향상될 수 있다. Therefore, when each of the plurality of devices receives a sound, the respective sounds can be amplified by considering the distance between the sound source emitting the sound and the respective devices. Therefore, even if one device is spaced apart from the sound source by a distance, if the other device is spaced apart from the sound source by a short distance, the sound input to the other device can be further amplified and synthesized. Therefore, Can be improved.

한편, 제어부(180)는 소리의 크기에 따라 가중치를 산출한 뒤, 아래와 같은 방법으로 이러한 가중치를 변경할 수 있다. On the other hand, the control unit 180 may calculate the weight according to the size of the sound, and then change the weight by the following method.

예컨대, 가중치를 변경하는 제1 방법으로서, 제어부(180)는 복수 개의 소리 입력부(130,203) 중에서 가장 늦게 소리를 입력받은 소리 입력부에 대해서는 가중치의 부호를 음(minus)으로 변경할 수 있다. 도 7을 다시 한번 살펴보면, 사용자(400)가 소리를 발하였을 때, 각각의 소리 입력부(203a,203b,130a,130b,130c,130d) 중에서 가장 늦게 소리가 도달한 소리 입력부를 식별번호 130a의 소리 입력부라고 가정하자. 이 때, 소리 입력부(130a)로 가장 늦게 소리가 입력된 이유는, 해당 소리가 반향음이기 때문일 수 있다. 즉, 소리 입력부(130a)를 제외한 다른 다른 소리 입력부(130b,130c,130d,203a,203b)에는 사용자(400)의 소리가 직접 전달되는 반면, 소리 입력부(130a)에는 사용자(400)의 소리가 주변(예컨대 벽이나 천장, 사물 등)에서 반사된 반향음이 입력되기 때문에 가장 늦게 입력될 수 있는 것이다. 제어부(180)는 가장 늦게 소리를 입력받은 소리 입력부(130a)에 대해서는 가중치의 부호를 양(plus)에서 음(minus)으로 변경할 수 있다. 음의 가중치가 곱해진 소리가 합성부(140)에서 합성될 경우, 해당 소리의 특성이 약화되기 때문에 반향음에 의한 왜곡이 경감 내지는 제거될 수 있다.For example, as a first method of changing the weight, the control unit 180 may change the sign of the weight to minus for the sound input unit that receives the latest sound among the plurality of sound input units 130 and 203. Referring to FIG. 7 again, when the user 400 sounds a sound, the sound input unit arriving at the earliest among the sound input units 203a, 203b, 130a, 130b, 130c, Suppose you are an input. At this time, the reason why the sound is input to the sound input unit 130a at the latest may be that the sound is a reflection sound. That is, the sound of the user 400 is directly transmitted to the other sound input units 130b, 130c, 130d, 203a, and 203b except for the sound input unit 130a, while the sound of the user 400 is transmitted to the sound input unit 130a. The reflections reflected from the surroundings (for example, walls, ceiling, objects, etc.) are inputted, so that they can be input at the latest. The control unit 180 can change the sign of the weight from positive to minus for the sound input unit 130a that receives the latest sound. When the sound multiplied by the negative weight is synthesized in the synthesis unit 140, distortion due to the reverberation can be alleviated or eliminated since the characteristic of the sound is weakened.

이를 위해, 제어부(180)는 소리 입력부(130a,130b,130c,130d)로 소리가 입력된 시간과 소리의 주파수 등에 대한 정보를 획득할 수 있으며, 또한 타 기기(200,210)의 소리 입력부(203a,203b) 각각으로 소리가 입력된 시간과 소리의 주파수 등에 대한 정보를 획득할 수 있다. 제어부(180)는 이와 같이 획득된 정보를 기초로 동일한 소리에 대해서 어떤 소리 입력부로 가장 늦게 소리가 입력되었는지 여부를 판단할 수 있다.The control unit 180 can acquire information on the time and the frequency of the sound input to the sound input units 130a, 130b, 130c, and 130d, and the sound input units 203a and 203b of the other devices 200 and 210, 203b to obtain information on the time of sound input and the frequency of sound. The control unit 180 can determine whether a sound is input to the sound input unit at the latest with respect to the same sound based on the thus obtained information.

즉, 일 실시예에 따르면 동일한 소리에 대해서 가장 늦게 소리가 도달한 소리 입력부에는 음(minus)의 부호를 갖는 가중치가 곱해지도록 변경함으로써, 반향음에 의해 발생 가능한 소리의 왜곡이 경감되거나 제거되도록 할 수 있다.That is, according to an embodiment, by changing the weight of the sound input unit that has reached the sound most recently for the same sound to be multiplied by a weight having a minus sign, distortion of the sound that can be generated by the reverberation is reduced or eliminated .

가중치를 변경하는 제2 방법으로서, 제어부(180)는 주변의 잡음원(300)이 발생시키는 잡음을 고려하여서 가중치를 변경할 수 있는데, 이러한 방법은 웨이크업 신호를 인식하는 과정에서 수행 가능하며, 도 8을 참조하여 살펴보기로 한다.As a second method of changing the weight, the controller 180 may change the weight in consideration of the noise generated by the surrounding noise source 300. This method can be performed in the process of recognizing the wake- As shown in FIG.

도 8은 사용자(400)가 음성 인식 장치(100)와 타 기기(200) 사이에 위치해 있고, 잡음원(300)은 음성 인식 장치(100)보다 타 기기(200)에 가까이에 위치해 있는 상황을 도시하고 있다. 도 8에서 음성 인식 장치(100)에 입력된 소리의 크기와 타 기기(200)에 입력된 소리의 크기가 동일하다고 가정하자. 이 경우, 전술한 바대로라면 제어부(180)는 음성 인식 장치(100)의 소리 입력부(130)와 타 기기(200)의 소리 입력부(203) 각각에 대해 동일한 값을 갖는 가중치를 산출해야 한다.8 shows a situation where the user 400 is located between the speech recognition apparatus 100 and the other apparatus 200 and the noise source 300 is located closer to the other apparatus 200 than the speech recognition apparatus 100 . It is assumed that the size of the sound input to the speech recognition apparatus 100 is the same as the size of the sound input to the other device 200 in FIG. In this case, the control unit 180 must calculate a weight having the same value for each of the sound input unit 130 of the voice recognition apparatus 100 and the sound input unit 203 of the other device 200, as described above.

다만, 타 기기(200)에 입력된 소리에는 음성 인식 장치(100)에 입력된 소리보다 상대적으로 많은 잡음이 포함되어 있다. 왜냐하면, 타 기기(200)가 음성 인식 장치(100)보다 잡음원(300)에 상대적으로 가까이에 위치하기 때문이다. 따라서, 타 기기(200)에 입력된 소리보다는 음성 인식 장치(100)에 입력된 소리에 대해 음성 인식을 수행하는 것이 음성 인식률 면에서 유리하다.However, the sound input to the other device 200 includes a relatively larger amount of noise than the sound input to the voice recognition device 100. This is because the other device 200 is positioned relatively closer to the noise source 300 than the speech recognition device 100. Therefore, it is advantageous in terms of speech recognition rate to perform speech recognition on the sound input to the speech recognition apparatus 100 rather than the sound input to the other device 200. [

이를 감안하여서, 웨이크업 신호를 인식하는 과정에서, 제어부(180)는 음성 인식 장치(100)의 소리 입력부(130)로 입력된 소리와 웨이크업 신호와의 유사도를 산출하고, 타 기기(200)의 소리 입력부(203)에 입력되는 소리와 웨이크업 신호와의 유사도를 산출한다. 아울러, 제어부(180)는 상대적으로 높은 유사도를 갖는 소리에 더 큰 값의 가중치가 곱해지도록 가중치를 산출하고 상대적으로 낮은 유사도를 갖는 소리에 더 작은 값의 가중치가 곱해지도록 가중치를 산출할 수 있다. The control unit 180 calculates the similarity between the sound input to the sound input unit 130 of the voice recognition device 100 and the wake up signal and outputs the similarity to the other device 200, The similarity between the sound input to the sound input unit 203 and the wake-up signal is calculated. In addition, the controller 180 may calculate a weight so that a sound having a relatively high similarity is multiplied by a weight of a larger value, and a weight may be calculated so that a sound having a relatively low similarity is multiplied by a weight of a smaller value.

이에 따르면, 도 8에서 음성 인식 장치(100)의 소리 입력부(130)에 입력된 소리의 크기와 타 기기(200)의 소리 입력부(203)에 입력된 소리의 크기가 동일하지만, 소리 입력부(130) 입력된 소리에는 더 적은 양의 잡음이 포함되어 있는 반면 소리 입력부(203)에 입력된 소리에는 더 많은 양의 잡음이 포함되어 있다. 따라서, 제어부(180)는 소리 입력부(130)의 소리에 더 큰 값의 가중치가 곱해지도록 가중치를 산출하고, 소리 입력부(203)의 소리에 더 작은 값의 가중치가 곱해지도록 가중치를 산출할 수 있다. 8, the size of the sound input to the sound input unit 130 of the voice recognition device 100 is the same as the size of the sound input to the sound input unit 203 of the other device 200, The input sound includes a smaller amount of noise while the sound input to the sound input unit 203 includes a larger amount of noise. Accordingly, the control unit 180 may calculate the weight so that the sound of the sound input unit 130 is multiplied by a weight of a larger value, and the weight may be calculated so that the sound of the sound input unit 203 may be multiplied by a weight of a smaller value .

즉, 일 실시예에 따르면 소리의 크기가 동일하더라도 그 안에 포함된 잡음의 양에 따라서 가중치가 달리 산출되어 적용될 수 있다.That is, according to an embodiment, even if the sound size is the same, the weights may be calculated and applied differently according to the amount of noise included therein.

한편, 전술한 제2 방법에서, 제어부(180)는 음성 인식 장치(100) 및 타 기기(200) 중에서 잡음원(300)과 상대적으로 가까이에 있는 객체로 하여금 잡음을 상쇄시키는 상쇄음을 출력하도록 제어할 수 있으며, 도 8의 상황에서 이러한 객체는 타 기기(200)이다. 이를 위해, 음성 인식부(160)는 소리 인식부(130,203)로 입력된 소리로부터 잡음을 추출해서 그 특성을 인식할 수 있다. 제어부(180)는 이러한 잡음의 특성을 기초로 해당 잡음을 상쇄시킬 수 있는 상쇄음을 생성할 수 있고, 이러한 상쇄음이 스피커(120)를 통해 출력되도록 제어할 수 있다.In the second method, the control unit 180 controls the objects relatively closer to the noise source 300 among the speech recognition apparatus 100 and the other devices 200 to output an offset canceling noise In the situation of FIG. 8, this object is the other device 200. To this end, the speech recognition unit 160 may extract noise from the sound input to the sound recognition units 130 and 203 and recognize the characteristics thereof. The control unit 180 can generate an offset canceling the noise based on the characteristics of the noise and control the output of the canceling sound through the speaker 120.

이에 따르면, 음성 인식 장치(100)와 타 기기(200) 중에서 잡음원(300)과 상대적으로 먼 거리에 위치한 객체로 하여금 웨이크업 신호를 인식하도록 제어할 수 있으며, 뿐만 아니라 잡음원(300)과 상대적으로 가까운 거리에 위치한 객체에서는 잡음을 상쇄시키는 상쇄음을 발생시킬 수 있으므로, 잡음원(300)과 상대적으로 먼 거리에 위치한 객체에서 웨이크업 신호를 높은 인식률로 인식하도록 할 수 있다.According to this, it is possible to control an object positioned relatively far from the noise source 300 among the speech recognition device 100 and the other device 200 to recognize the wake-up signal, Since an object located at a close distance can generate a canceling noise canceling the noise, the wakeup signal can be recognized at a high recognition rate in an object located relatively far from the noise source 300.

가중치를 변경하는 제3 방법으로서, 제어부(180)는 음성 입력 장치(100)의 스피커(120)가 소리를 출력하는 상황을 고려하여서 가중치를 변경할 수 있는데, 이러한 방법은 웨이크업 신호를 인식하는 과정에서 수행 가능하며, 도 9를 참조하여 살펴보기로 한다.As a third method of changing the weight, the control unit 180 may change the weight in consideration of a situation in which the speaker 120 of the voice input device 100 outputs a sound. In this method, And will be described with reference to FIG.

도 9는 음성 입력 장치(100)가 스피커(120)를 통해 소리를 출력하는 상황을 도시하고 있다. 도 9를 참조하면, 사용자(400)는 음성 인식 장치(100)와 타 기기(200) 사이에 위치해 있다. 도 9에서 음성 인식 장치(100)에 입력된 소리의 크기와 타 기기(200)에 입력된 소리의 크기가 동일하다고 가정하자.9 shows a situation in which the sound input apparatus 100 outputs sound through the speaker 120. [ Referring to FIG. 9, the user 400 is located between the speech recognition apparatus 100 and the other apparatus 200. It is assumed in FIG. 9 that the size of the sound input to the speech recognition apparatus 100 is the same as the size of the sound input to the other device 200.

이 경우, 전술한 바대로라면 제어부(180)는 음성 인식 장치(100)의 소리 입력부(130)와 타 기기(200)의 소리 입력부(203) 각각에 대해 동일한 값을 갖는 가중치를 산출해야 한다.In this case, the control unit 180 must calculate a weight having the same value for each of the sound input unit 130 of the voice recognition apparatus 100 and the sound input unit 203 of the other device 200, as described above.

다만, 음성 인식 장치(100)의 소리 입력부(130)에 입력된 소리에는 음성 인식 장치(100)의 스피커(120)가 출력하는 소리가 포함되어 있을 수 있다. 따라서, 음성 인식 장치(100)에 입력된 소리보다는 타 기기(200)에 입력된 소리에 대해 음성 인식을 수행하는 것이 음성 인식률 면에서 유리하다.However, the sound input to the sound input unit 130 of the voice recognition apparatus 100 may include a sound output from the speaker 120 of the voice recognition apparatus 100. Therefore, it is advantageous in terms of speech recognition rate to perform speech recognition on the sound input to the other device 200, rather than the sound input to the speech recognition device 100.

이를 감안하여서, 제어부(180)는 음성 인식 장치(100)의 스피커(120)가 소리를 출력하는 상황을 인지하고, 이를 기초로 음성 인식 장치(100)의 소리 출력부(130)로 입력되는 소리에는 더 작은 값의 가중치가 곱해지도록 가중치를 산출하고, 타 기기(210)의 소리 출력부(203)로 입력되는 소리에는 더 큰 값의 가중치가 곱해지도록 가중치를 산출할 수 있다. The control unit 180 recognizes the state in which the speaker 120 of the voice recognition apparatus 100 outputs a sound and outputs the sound to the sound output unit 130 of the voice recognition apparatus 100 The weights may be calculated so that the weights of the smaller values are multiplied and the sounds input to the sound output unit 203 of the other device 210 are multiplied by weights of larger values.

한편, 제어부(180)가 제3 방법에 따라서 가중치를 산출한 이후, 제어부(180)는 상황에 따라서 스피커(120)가 출력하는 소리의 크기, 즉 볼륨을 기존보다 작게 조절할 수 있다. 볼륨을 기존보다 작게 하는 상황에는, 제3 방법에 따라서 가중치를 산출한 이후에, 예컨대 사용자(400)가 발한 음성이 음성 인식 장치(100)에서 타 기기(200)보다 크게 인식된 경우 등이 있을 수 있으나 이에 한정되는 것은 아니다 Meanwhile, after the controller 180 calculates the weight according to the third method, the controller 180 can adjust the volume of the sound output from the speaker 120, that is, the volume, to be smaller than the conventional one. In a situation where the volume is smaller than the existing one, there may be a case where, after the weight is calculated according to the third method, for example, a voice uttered by the user 400 is recognized to be larger than the other device 200 in the voice recognition apparatus 100 But is not limited to

즉, 이에 따르면 상황에 따라서 스피커의 소리가 기존보다 작게 조절될 수 있고, 이 경우 사용자가 발하는 향후의 명령이나 다른 사용자의 음성에 대한 인식률이 개선될 수 있다.That is, according to the present invention, the sound of the speaker can be adjusted to be smaller than the conventional one, and in this case, the recognition rate of the future command issued by the user or the voice of another user can be improved.

한편, 전술한 제1 방법 내지 제3 방법은 어느 하나만이 사용되거나 또는 적어도 두 개 이상이 순차적으로 적용될 수도 있으며, 이는 사용자(400)에 의해 설정되거나 또는 기 정해진 알고리즘에 의해 주기적으로 변경될 수도 있다. On the other hand, only one of the first to third methods described above may be used, or at least two or more of them may be sequentially applied, which may be set by the user 400 or periodically changed by a predetermined algorithm .

도 10은 일 실시예에 따른 음성 인식 방법의 절차를 도시한 도면이다. 이러한 방법은 전술한 음성 인식 장치(100)에 의해 수행 가능하며, 다만 도 11에 도시된 절차 중 적어도 하나가 수행되지 않거나 도시된 절차의 순서와는 다르게 수행될 수 있으며, 또한 도시되지 않은 다른 절차가 수행될 수도 있다.10 is a flowchart illustrating a speech recognition method according to an embodiment of the present invention. This method can be performed by the speech recognition apparatus 100 described above, but at least one of the procedures shown in FIG. 11 is not performed or may be performed differently from the sequence of the illustrated procedures, May be performed.

도 11을 참조하면, 먼저 음성 인식 장치(100)의 소리 입력부(130)를 통해서 제1 소리가 입력되면, 음성 인식부(160)는 제1 소리의 특성, 예컨대 제1 소리의 크기를 도출할 수 있다(S100). 다만, 단계 S100 이전에 도면에는 도시되지 않았지만 다음과 같은 단계들이 먼저 선행될 수 있다. 예컨대, 제어부(180)가 음성 인식 장치(100) 주변에 있는 타 기기(200,210)를 탐색하는 단계, 탐색이 완료되면 타 기기(200,210)와 음성 인식 장치(100)를 연결시키는 단계, 연결되면 제어부(180)가 타 기기(200,210) 각각에게 통신부(110)를 통해서 제1 소리의 특성을 요청하는 단계 등이 수행될 수 있다.11, when the first sound is input through the sound input unit 130 of the voice recognition apparatus 100, the voice recognition unit 160 determines the characteristics of the first sound, for example, the size of the first sound (S100). However, although not shown in the drawing prior to step S100, the following steps may be performed first. For example, the control unit 180 searches for other devices 200 and 210 in the vicinity of the voice recognition device 100, connects the other devices 200 and 210 to the voice recognition device 100 when the search is completed, A step 180 may be performed to request the characteristics of the first sound through the communication unit 110 to the other devices 200 and 210, and so on.

한편, 통신부(110)를 통해 타 기기(200,210) 각각으로부터 제2 소리의 특성, 예컨대 소리의 크기가 수신되면, 제어부(180)는 제1 소리의 크기와 제2 소리의 크기를 비교할 수 있다(S200).The control unit 180 may compare the size of the first sound with the size of the second sound when the second sound characteristic, for example, the sound size is received from each of the other devices 200 and 210 through the communication unit 110 S200).

비교 결과, 제어부(180)는 더 큰 크기의 소리에 더 큰 값의 가중치가 곱해지도록 가중치를 산출하고, 더 작은 크기의 소리에 더 작은 값의 가중치가 곱해지도록 산출할 수 있다(S300).As a result of the comparison, the controller 180 may calculate the weight so that a larger value of the sound is multiplied by the weight of the larger value, and the smaller value of the sound is multiplied by the weight of the smaller value (S300).

이 후, 제어부(180)는 단계 S300에서 산출된 가중치를 조절할 수 있다(S400). 예컨대, 제어부(180)는 소리 입력부(130,203)에 소리가 입력된 시간(제1 방안), 웨이크업 신호와 소리와의 유사도(제2 방안) 또는 스피커(120)를 통해 소리가 출력되는지 여부(제3 방안) 등을 고려하여서 가중치를 조절할 수 있다. 이 경우, 전술한 제1 방안 내지 제3 방안의 경우, 어느 하나가 선별적으로 고려되거나 또는 적어도 두 개 이상이 동시에 고려될 수도 있으며, 이는 사용자(400)에 의해 설정되거나 또는 기 정의된 알고리즘에 의해 변경될 수 있다.Thereafter, the control unit 180 may adjust the weight value calculated in step S300 (S400). For example, the control unit 180 determines whether a sound is input to the sound input units 130 and 203 (first scheme), a degree of similarity between the wake-up signal and sound (second scheme) The third method), and the like. In this case, in the first to third schemes described above, either one may be selectively considered, or at least two or more may be considered at the same time, which may be set by the user 400 or by a predefined algorithm Lt; / RTI >

합성부(140)는 단계 S400에서 조절된 각각의 가중치를 각각의 소리에 곱한 뒤 합성할 수 있다(S500).The combining unit 140 may multiply each of the weights adjusted in step S400 by respective weights, and synthesize the weights (S500).

제어부(180)는 단계 S500에서 합성된 소리에 대해 음성 인식이 수행되도록 제어할 수 있다(S600). 예컨대, 제어부(180)는 단계 S500에서 합성된 소리를 음성 인식 서버(500)에게 전달할 수 있다. 음성 인식 서버(500)로 전달된 소리는 이러한 음성 인식 서버(500)에서 음성 인식에 사용될 수 있다.The control unit 180 can control the voice synthesized in step S500 to perform voice recognition (S600). For example, the control unit 180 may deliver the synthesized sound to the voice recognition server 500 in step S500. The voice transmitted to the voice recognition server 500 can be used for voice recognition in the voice recognition server 500.

이상에서 살펴본 바와 같이, 일 실시예에 따르면, 복수 개의 장치 각각이 소리를 입력받을 때, 이러한 소리를 발하는 음원과 각각의 장치 간의 이격 거리가 고려되어서 각각의 소리가 증폭될 수 있다. 따라서, 어느 하나의 장치가 음원과 원거리만큼 이격되어 있다고 하더라도 다른 장치가 음원과 근거리만큼 이격되어 있으면 이러한 다른 장치로 입력된 소리가 보다 증폭되어서 합성될 수 있으므로, 해당 음원이 발하는 소리에 대한 인식률이 향상될 수 있다.As described above, according to an embodiment, when each of the plurality of devices receives a sound, the respective sounds can be amplified considering the distance between the sound source emitting the sound and the respective devices. Therefore, even if one device is spaced apart from the sound source by a distance, if the other device is spaced apart from the sound source by a short distance, the sound input to the other device can be further amplified and synthesized. Therefore, Can be improved.

또한, 반향음에 의해 발생 가능한 소리의 왜곡이 경감되거나 제거될 수 있다.In addition, the distortion of the sound that can be generated by the reverberation can be alleviated or eliminated.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications and changes may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents thereof should be construed as falling within the scope of the present invention.

일 실시예에 따르면, 사용자가 음성 인식 장치로부터 원거리에서 음성을 발화하더라도, 사용자와 음성 인식 장치 간의 원거리로 인해 발생 가능한 음성 왜곡이 발생하지 않을 수 있다. 또한, 음성 입력 시스템에 잡음원이 존재하더라도 이러한 잡음원이 음성 인식에 영향을 최소한으로 미치도록 할 수 있다.According to one embodiment, even if the user utters a voice from a remote location from the voice recognition apparatus, voice distortion that may occur due to the distance between the user and the voice recognition apparatus may not occur. Also, even if a noise source is present in the speech input system, such a noise source can minimize the influence on speech recognition.

100: 음성 인식 장치
200, 210: 타 기기
300: 잡음원
400: 사용자
100: Speech recognition device
200, 210: Other devices
300: Noise source
400: User

Claims (6)

음성 인식 장치에 의해 수행되는 음성 인식 방법으로서,
상기 음성 인식 장치의 제1 소리 입력부에 입력된 제1 소리의 크기를 도출하는 단계와,
타 기기의 제2 소리 입력부에 입력된 제2 소리의 크기에 대한 정보가 상기 타 기기로부터 수신되면, 상기 제1 소리의 크기와 상기 제2 소리의 크기를 비교하는 단계와,
상기 비교 결과 상대적으로 크기가 큰 소리에 상대적으로 큰 값의 가중치를 곱하고 상대적으로 크기가 작은 소리에 상대적으로 작은 값의 가중치를 곱하는 단계와,
상기 가중치가 각각 곱해진 제1 소리 및 제2 소리에 대해 음성 인식이 수행되도록 제어하는 단계를 포함하는
음성 인식 방법.
A speech recognition method performed by a speech recognition apparatus,
Deriving a size of the first sound input to the first sound input unit of the speech recognition apparatus,
Comparing the magnitude of the first sound with the magnitude of the second sound when the information about the magnitude of the second sound input to the second sound input unit of the other device is received from the other device;
Multiplying a sound having a relatively large size by a weight having a relatively large value, and multiplying a sound having a relatively small size with a sound having a relatively small value,
And controlling the speech recognition to be performed on the first sound and the second sound multiplied by the weights, respectively
Speech recognition method.
제 1 항에 있어서,
상기 제1 소리가 상기 제1 소리 입력부에 입력된 제1 시간 및 상기 제2 소리가 상기 제2 소리 입력부에 입력된 제2 시간을 검출하는 단계와,
상기 제1 소리와 상기 제2 소리가 동일 시간에 동일 음원으로부터 발생된 소리인지 여부를 판단하는 단계를 더 포함하며,
상기 가중치를 곱하는 단계는,
상기 제1 소리와 상기 제2 소리가 동일 시간에 동일 음원으로부터 발생된 소리라고 판단되면, 상기 제1 시간과 상기 제2 시간을 비교하여서 상기 제1 소리와 상기 제2 소리 중 더 늦게 입력된 소리에 음(minus)의 부호를 갖는 가중치가 곱해지도록 하는
음성 인식 방법.
The method according to claim 1,
Detecting a first time when the first sound is input to the first sound input unit and a second time when the second sound is input to the second sound input unit;
Further comprising the step of determining whether the first sound and the second sound are sounds generated from the same sound source at the same time,
The step of multiplying the weights comprises:
If it is determined that the first sound and the second sound are sounds generated from the same sound source at the same time, comparing the first time and the second time, and comparing the first sound and the second sound, So that the weight having the minus sign is multiplied
Speech recognition method.
제 1 항에 있어서,
웨이크업 신호가 상기 음성 인식 장치에서 인식되기 전이면서 상기 제1 소리와 상기 제2 소리에 잡음원으로부터의 잡음이 포함된 경우, 상기 제1 소리 및 상기 제2 소리 각각에 대해 상기 웨이크업 신호와의 유사도를 도출하는 단계를 더 포함하며,
상기 가중치를 곱하는 단계는,
상기 도출된 유사도를 기초로, 상대적으로 낮은 유사도를 갖는 소리에 상대적으로 작은 값의 가중치가 곱해지도록 하고, 상대적으로 높은 유사도를 갖는 소리에 상대적으로 큰 값의 가중치가 곱해지도록 하는
음성 인식 방법.
The method according to claim 1,
When the wake-up signal is not recognized by the voice recognition device and the first sound and the second sound include noise from a noise source, the first sound and the second sound are combined with the wake- Further comprising the step of deriving a similarity,
The step of multiplying the weights comprises:
Based on the derived similarity, a sound having a relatively low similarity is multiplied by a weight of a relatively small value, and a sound having a relatively high similarity is multiplied by a weight of a relatively large value
Speech recognition method.
제 3 항에 있어서,
상기 잡음의 특성을 인식하는 단계와,
상기 음성 인식 장치와 상기 타 기기 중에서 상대적으로 낮은 유사도의 소리를 입력받은 객체로 하여금, 상기 인식된 잡음의 특성을 기초로 상기 잡음을 상쇄시키는 상쇄음을 생성하여서 출력하도록 하는 단계를 더 포함하는
음성 인식 방법.
The method of claim 3,
Recognizing the characteristic of the noise;
Generating an offset canceling signal for canceling the noise on the basis of the recognized noise characteristic, and outputting the offset canceling sound to the object receiving the relatively low similarity sound among the speech recognition device and the other device
Speech recognition method.
제 1 항에 있어서,
상기 음성 인식 장치가 제3 소리를 출력하는 단계를 더 포함하고,
상기 가중치를 곱하는 단계는,
상기 제3 소리가 출력되는 동안 상기 제1 소리에 상대적으로 작은 값의 가중치가 곱해지도록 하고, 상기 제2 소리에 상대적으로 큰 값의 가중치가 곱해지도록 하는
음성 인식 방법.
The method according to claim 1,
Further comprising the step of the speech recognition device outputting a third sound,
The step of multiplying the weights comprises:
The first sound is multiplied by a weight of a relatively small value while the third sound is output, and the second sound is multiplied by a weight of a relatively large value
Speech recognition method.
제1 소리를 입력받는 제1 소리 입력부와,
상기 제1 소리의 크기를 도출하는 음성 인식부와,
제2 소리 입력부를 포함하는 타 기기로부터 상기 제2 소리 입력부에 입력된 제2 소리의 크기에 대한 정보를 수신하는 통신부와,
상기 제1 소리의 크기와 상기 제2 소리의 크기를 비교하고, 상기 비교 결과 상대적으로 큰 소리에 곱해지는 가중치는 상대적으로 큰 값을 갖도록 산출하고 상대적으로 작은 소리에 곱해지는 가중치는 상대적으로 작은 값을 갖도록 산출하며, 상기 산출된 각각의 가중치가 곱해진 제1 소리 및 제2 소리에 대해 음성 인식이 수행되도록 제어하는 제어부를 포함하는
음성 인식 장치.
A first sound input unit for receiving a first sound;
A speech recognition unit for deriving a size of the first sound;
A communication unit for receiving information on the size of a second sound input from the other device including the second sound input unit to the second sound input unit;
The weight of the first sound is compared with the size of the second sound, and the weight multiplied by the relatively large sound is calculated to have a relatively large value, and the weight multiplied by the relatively small sound is relatively small And a controller for controlling the voice recognition to be performed on the first sound and the second sound multiplied by the respective weights,
Voice recognition device.
KR1020170101309A 2017-08-09 2017-08-09 Method for recognizing voice and apparatus used therefor KR102372327B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170101309A KR102372327B1 (en) 2017-08-09 2017-08-09 Method for recognizing voice and apparatus used therefor
KR1020210166682A KR102374054B1 (en) 2017-08-09 2021-11-29 Method for recognizing voice and apparatus used therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170101309A KR102372327B1 (en) 2017-08-09 2017-08-09 Method for recognizing voice and apparatus used therefor

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210166682A Division KR102374054B1 (en) 2017-08-09 2021-11-29 Method for recognizing voice and apparatus used therefor

Publications (2)

Publication Number Publication Date
KR20190016851A true KR20190016851A (en) 2019-02-19
KR102372327B1 KR102372327B1 (en) 2022-03-08

Family

ID=65528769

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020170101309A KR102372327B1 (en) 2017-08-09 2017-08-09 Method for recognizing voice and apparatus used therefor
KR1020210166682A KR102374054B1 (en) 2017-08-09 2021-11-29 Method for recognizing voice and apparatus used therefor

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210166682A KR102374054B1 (en) 2017-08-09 2021-11-29 Method for recognizing voice and apparatus used therefor

Country Status (1)

Country Link
KR (2) KR102372327B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022114532A1 (en) * 2020-11-24 2022-06-02 삼성전자(주) Electronic device and control method thereof
US11462217B2 (en) 2019-06-11 2022-10-04 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240027914A (en) * 2022-08-23 2024-03-05 한국전기연구원 Cognitive ability assessment device, mobile terminal and utterance acquisition device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000188795A (en) * 1998-12-22 2000-07-04 Matsushita Electric Ind Co Ltd Microphone device and voice recognition device using same, car navigation system and automatic driving system for automobile
JP2001359185A (en) * 2000-06-13 2001-12-26 Matsushita Electric Ind Co Ltd Hands-free device and audio signal processing method therefor
KR20100068188A (en) * 2008-12-12 2010-06-22 신호준 Method for signal separation, communication system and voice recognition system using the method
KR20100115783A (en) 2008-01-29 2010-10-28 콸콤 인코포레이티드 Improving sound quality by intelligently selecting between signals from a plurality of microphones

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101043114B1 (en) * 2009-07-31 2011-06-20 포항공과대학교 산학협력단 Method of Restoration of Sound, Recording Media of the same and Apparatus of the same
KR102351366B1 (en) * 2015-01-26 2022-01-14 삼성전자주식회사 Method and apparatus for voice recognitiionand electronic device thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000188795A (en) * 1998-12-22 2000-07-04 Matsushita Electric Ind Co Ltd Microphone device and voice recognition device using same, car navigation system and automatic driving system for automobile
JP2001359185A (en) * 2000-06-13 2001-12-26 Matsushita Electric Ind Co Ltd Hands-free device and audio signal processing method therefor
KR20100115783A (en) 2008-01-29 2010-10-28 콸콤 인코포레이티드 Improving sound quality by intelligently selecting between signals from a plurality of microphones
KR20100068188A (en) * 2008-12-12 2010-06-22 신호준 Method for signal separation, communication system and voice recognition system using the method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11462217B2 (en) 2019-06-11 2022-10-04 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
WO2022114532A1 (en) * 2020-11-24 2022-06-02 삼성전자(주) Electronic device and control method thereof

Also Published As

Publication number Publication date
KR102372327B1 (en) 2022-03-08
KR20210148057A (en) 2021-12-07
KR102374054B1 (en) 2022-03-14

Similar Documents

Publication Publication Date Title
KR102374054B1 (en) Method for recognizing voice and apparatus used therefor
US8204248B2 (en) Acoustic localization of a speaker
US8634547B2 (en) Echo canceller operative in response to fluctuation on echo path
EP2492912B1 (en) Sound processing apparatus, sound processing method and hearing aid
JP2018049143A (en) Voice acquisition system and voice acquisition method
US20150117669A1 (en) Apparatus and method for controlling beamforming microphone considering location of driver seat
JP6402748B2 (en) Spoken dialogue apparatus and utterance control method
EP2197219A1 (en) Method for determining a time delay for time delay compensation
US20070015467A1 (en) Communication system using short range radio communication headset
EP1400814A2 (en) Directional setting apparatus, directional setting system, directional setting method and directional setting program
US20080249779A1 (en) Speech dialog system
EP3309780B1 (en) Utilization of location and environment to improve recognition
CN103886861A (en) Method for controlling electronic equipment and electronic equipment
EP3226244A1 (en) Noise suppressing apparatus, speech recognition apparatus, and noise suppressing method
US11894000B2 (en) Authenticating received speech
JP2019184809A (en) Voice recognition device and voice recognition method
JP2003174699A (en) Voice input and output device
WO2023004223A1 (en) Noise suppression using tandem networks
US11308973B2 (en) Method for processing multi-channel audio signal on basis of neural network and electronic device
US11227423B2 (en) Image and sound pickup device, sound pickup control system, method of controlling image and sound pickup device, and method of controlling sound pickup control system
CN110941414B (en) Control device, control method, control system, and computer-readable recording medium
JP6760394B2 (en) Content playback equipment, sound collection equipment, and content playback system
US11089420B2 (en) Speech processing system and speech processing method
JP2004318026A (en) Security pet robot and signal processing method related to the device
KR102331234B1 (en) Method for recognizing voice and apparatus used therefor

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
A107 Divisional application of patent
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant