KR20200112791A - Method and apparatus for function of translation using earset - Google Patents
Method and apparatus for function of translation using earset Download PDFInfo
- Publication number
- KR20200112791A KR20200112791A KR1020200123193A KR20200123193A KR20200112791A KR 20200112791 A KR20200112791 A KR 20200112791A KR 1020200123193 A KR1020200123193 A KR 1020200123193A KR 20200123193 A KR20200123193 A KR 20200123193A KR 20200112791 A KR20200112791 A KR 20200112791A
- Authority
- KR
- South Korea
- Prior art keywords
- language
- earset
- voice
- interpretation
- earphone
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Telephone Function (AREA)
Abstract
Description
아래의 설명은 이어셋을 이용한 통역기능 제공 방법 및 장치, 그리고 컴퓨터와 결합되어 본 발명의 실시예들에 따른 통역기능 제공 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램과 그 기록매체에 관한 것이다.The following description is a method and apparatus for providing an interpretation function using an earset, and a computer program stored in a computer-readable recording medium and a recording medium thereof in order to execute the method for providing an interpretation function according to embodiments of the present invention on a computer. It is about.
이어셋(earset)은 전화기에 연결하여 손을 쓰지 않고 통화를 하는데 이용되는 이어폰과 마이크를 포함하는 기기로서, 예를 들어, 스마트폰과 연결되어 전화통화뿐만 아니라, 음악과 같은 오디오를 수신하여 출력하거나 또는 물리적인 버튼이나 센서 혹은 음성을 통해 스마트폰을 제어하기 위한 다양한 제어 신호를 스마트폰으로 제공할 수 있다. 예를 들어, 한국공개특허 제10-2017-0030375호는 이어커낼 마이크가 내장된 블루투스 이어셋을 개시하고 있다.Earsets are devices that include earphones and microphones that are used to make calls without using hands by connecting to a phone. For example, they are connected to a smartphone to receive and output audio such as music as well as phone calls. Alternatively, various control signals for controlling the smartphone may be provided to the smartphone through physical buttons, sensors, or voice. For example, Korean Patent Laid-Open No. 10-2017-0030375 discloses a Bluetooth earset with a built-in ear canal microphone.
이어셋을 이용하여 통역기능을 제공할 수 있는 통역기능 제공 방법 및 장치, 그리고 컴퓨터와 결합되어 본 발명의 실시예들에 따른 통역기능 제공 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램과 그 기록매체를 제공한다.A method and apparatus for providing an interpretation function capable of providing an interpretation function using an ear set, and a computer program stored in a computer-readable recording medium to execute the method for providing an interpretation function according to embodiments of the present invention in combination with a computer And its recording media.
제1 이어셋 기기를 통해 입력되어 수신된 제1 언어의 음성을 제2 언어의 음성으로 변환하여 제2 이어셋 기기로 제공하고, 제2 이어셋 기기를 통해 입력되어 수신된 제2 언어의 음성을 제1 언어의 음성으로 변환하여 제1 이어셋 기기로 제공함으로써, 제1 이어셋 기기와 제2 이어셋 기기를 포함하는 이어셋 페어(pair)를 통해 서로 다른 언어의 두 사용자들간의 통역기능을 제공할 수 있는 통역기능 제공 방법 및 장치, 그리고 컴퓨터와 결합되어 본 발명의 실시예들에 따른 통역기능 제공 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램과 그 기록매체를 제공한다.The voice of the first language input and received through the first earset device is converted into the voice of the second language and provided to the second earset device, and the voice of the second language input and received through the second earset device is first Interpretation function capable of providing an interpretation function between two users of different languages through an earphone pair including a first earphone device and a second earphone device by converting the voice of the language and providing it to the first earphone device Provides a computer program stored in a computer-readable recording medium and a recording medium thereof in order to execute a method for providing an interpreter function according to embodiments of the present invention in a computer in combination with a providing method and apparatus, and a computer.
전자 기기의 통역기능 제공 방법에 있어서, 제1 이어셋 기기 또는 제2 이어셋 기기에서 발생하는 어플리케이션 실행 신호를 수신하는 단계; 상기 수신된 어플리케이션 실행 신호에 대응하는 어플리케이션을 실행하는 단계; 및 상기 실행된 어플리케이션의 제어에 따라, 상기 제1 이어셋 기기 및 상기 제2 이어셋 기기 중 적어도 하나를 통해 입력되어 수신된 음성에 대한 다른 언어로의 통역기능을 제공하는 단계를 포함하는 것을 특징으로 하는 통역기능 제공 방법을 제공한다.A method of providing an interpretation function of an electronic device, the method comprising: receiving an application execution signal generated from a first earset device or a second earset device; Executing an application corresponding to the received application execution signal; And providing an interpreter function for a voice input through at least one of the first earset device and the second earset device in a different language according to the control of the executed application. Provides a method of providing interpretation functions.
제1 이어셋 기기의 통역기능 제공 방법에 있어서, 상기 제1 이어셋 기기로 입력되는 제1 언어의 음성이 전자 기기에서 실행된 어플리케이션의 통역기능에 따라 제2 언어의 음성으로 변환되어 상기 제1 이어셋 기기와 이어셋 페어를 이루는 제2 이어셋 기기로 제공되도록, 상기 제1 언어의 음성을 상기 전자 기기로 전송하는 단계; 상기 제2 이어셋 기기로 입력되어 상기 전자 기기로 수신된 제2 언어의 음성을 상기 전자 기기가 상기 실행된 어플리케이션의 통역기능에 따라 제1 언어의 음성으로 변환함에 응답하여, 상기 전자 기기로부터 상기 변환된 제1 언어의 음성을 수신하는 단계; 및 상기 수신된 제1 언어의 음성을 출력하는 단계를 포함하는 것을 특징으로 하는 통역기능 제공 방법을 제공한다.A method for providing an interpretation function of a first earphone device, wherein the voice of the first language inputted to the first earset device is converted into a voice of the second language according to the interpreting function of an application executed on the electronic device, and the first earphone device Transmitting the voice of the first language to the electronic device so as to be provided to a second earphone device forming a wired pair; In response to the electronic device converting the voice of the second language input to the second earphone device and received by the electronic device into the voice of the first language according to the interpreting function of the executed application, the conversion from the electronic device Receiving a voice of the first language spoken; And outputting the received voice of the first language.
상기 통역기능 제공 방법을 컴퓨터에 실행시키기 위한 컴퓨터 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터 판독 가능한 기록매체를 제공한다.It provides a computer-readable recording medium, characterized in that the computer program for executing the interpretation function providing method on a computer is recorded.
컴퓨터와 결합하여 상기 통역기능 제공 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.In combination with a computer, a computer program stored in a computer-readable recording medium is provided to execute the method for providing the interpretation function on the computer.
제1 이어셋 기기에 있어서, 소리를 입력받기 위한 소리신호 입력부; 소리를 출력하기 위한 소리신호 출력부; 상기 전자 기기 또는 상기 제1 이어셋 기기와 이어셋 페어를 이루는 제2 이어셋 기기와 통신하기 위한 통신부; 및 상기 소리신호 입력부, 상기 소리신호 출력부 및 상기 통신부를 제어하는 제어부를 포함하고, 상기 제어부는, 상기 소리신호 입력부를 통해 입력되는 제1 언어의 음성이 상기 전자 기기에서 실행된 어플리케이션의 통역기능에 따라 제2 언어의 음성으로 변환되어 상기 제1 이어셋 기기와 이어셋 페어를 이루는 제2 이어셋 기기로 제공되도록, 상기 제1 언어의 음성을 상기 전자 기기로 전송하도록 상기 통신부를 제어하고, 상기 제2 이어셋 기기로 입력되어 상기 전자 기기로 수신된 제2 언어의 음성을 상기 전자 기기가 상기 실행된 어플리케이션의 통역기능에 따라 제1 언어의 음성으로 변환함에 응답하여, 상기 전자 기기로부터 상기 변환된 제1 언어의 음성을 수신하도록 상기 통신부를 제어하고, 상기 수신된 제1 언어의 음성을 출력하도록 상기 소리신호 출력부를 제어하는 것을 특징으로 하는 제1 이어셋 기기를 제공한다.A first earphone device comprising: a sound signal input unit for receiving sound; A sound signal output unit for outputting sound; A communication unit for communicating with the electronic device or a second earset device forming an earset pair with the first earset device; And a control unit for controlling the sound signal input unit, the sound signal output unit, and the communication unit, wherein the control unit includes an interpretation function of an application executed in the electronic device in which the voice of the first language input through the sound signal input unit is The communication unit controls the communication unit to transmit the voice of the first language to the electronic device so that the voice of the first language is transmitted to the electronic device so that the voice of the first language is converted into a voice of the second language and provided to a second earphone pair forming an earphone pair with the first earphone. In response to the electronic device converting the voice of the second language input through the earset device and received by the electronic device into the voice of the first language according to the interpreting function of the executed application, the converted first voice from the electronic device It provides a first earphone device, characterized in that controlling the communication unit to receive a speech of the language, and controlling the sound signal output unit to output the received speech of the first language.
이어셋을 이용하여 통역기능을 제공할 수 있으며, 제1 이어셋 기기와 제2 이어셋 기기를 포함하는 이어셋 페어를 통해 서로 다른 언어의 두 사용자들간의 통역기능을 제공할 수 있다.An interpretation function may be provided using an ear set, and an interpretation function between two users of different languages may be provided through an ear set pair including a first ear set device and a second ear set device.
통역기능을 통해 제1 언어에서 제2 언어로 통역된 음성을 전화통화 상대방에게 제공할 수 있다. Through the interpretation function, a voice interpreted from the first language to the second language may be provided to the other party of the telephone call.
도 1은 본 발명의 일실시예에 따른 이어셋을 이용한 통역기능 제공 과정의 예를 도시한 도면이다.
도 2는 본 발명의 일실시예에 따른 이어셋 페어의 예를 도시한 도면이다.
도 3은 본 발명의 일실시예에 있어서, 이어셋 페어와 전자 기기간 통신의 예를 도시한 도면이다.
도 4는 본 발명의 일실시예에 있어서, 이어셋 페어와 전자 기기간 통신의 다른 예를 도시한 도면이다.
도 5는 본 발명의 일실시예에 있어서, 전자 기기, 이어셋 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다.
도 6은 본 발명의 일실시예에 있어서, 클라우드 인공지능 플랫폼의 예를 도시한 도면이다.
도 7은 본 발명의 일실시예에 있어서, 통역기능 제공 방법의 예를 도시한 흐름도이다.
도 8은 본 발명의 일실시예에 있어서, 셀프 통역 및 다자간 통역을 위한통역기능을 제공하는 예를 도시한 흐름도이다.
도 9는 본 발명의 일실시예에 있어서, 음악감상모드 또는 전화통화모드와 통역모드간 전환 예를 도시한 흐름도이다.
도 10은 본 발명의 일실시예에 있어서, 전화통화 중에 통역기능을 제공하는 예를 도시한 흐름도이다.
도 11은 본 발명의 일실시예에 있어서, 이어셋 기기의 통역기능 제공 방법의 예를 도시한 흐름도이다.1 is a diagram showing an example of a process of providing an interpretation function using an ear set according to an embodiment of the present invention.
2 is a diagram showing an example of an earphone pair according to an embodiment of the present invention.
3 is a diagram illustrating an example of communication between an earphone pair and an electronic device according to an embodiment of the present invention.
4 is a diagram illustrating another example of communication between an earphone pair and an electronic device according to an embodiment of the present invention.
5 is a block diagram illustrating an internal configuration of an electronic device, an earphone device, and a server according to an embodiment of the present invention.
6 is a diagram showing an example of a cloud artificial intelligence platform according to an embodiment of the present invention.
7 is a flowchart illustrating an example of a method for providing an interpretation function according to an embodiment of the present invention.
8 is a flowchart illustrating an example of providing an interpretation function for self-interpretation and multi-party interpretation according to an embodiment of the present invention.
9 is a flow chart illustrating an example of switching between a music listening mode or a telephone conversation mode and an interpretation mode according to an embodiment of the present invention.
10 is a flowchart showing an example of providing an interpreter function during a telephone conversation in an embodiment of the present invention.
11 is a flowchart illustrating an example of a method of providing an interpretation function of an earphone device according to an embodiment of the present invention.
이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.
본 발명의 실시예들에 따른 통역기능 제공 방법은, 이후 설명될 전자 기기나 이어셋 기기에 의해 수행될 수 있다. 예를 들어, 전자 기기나 이어셋 기기에는 본 발명의 일실시예에 따른 컴퓨터 프로그램이 설치 및 구동될 수 있고, 전자 기기나 이어셋 기기는 구동된 컴퓨터 프로그램의 제어에 따라 본 발명의 일실시예에 따른 통역기능 제공 방법을 수행할 수 있다. 상술한 컴퓨터 프로그램은 컴퓨터로 구현되는 전자 기기나 이어셋 기기와 결합되어 통역기능 제공 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다. 여기서 설명한 컴퓨터 프로그램은 독립된 하나의 프로그램 패키지의 형태를 가질 수도 있고, 독립된 하나의 프로그램 패키지의 형태가 컴퓨터에 기 설치되어 구동된 운영체제나 다른 프로그램 패키지들과 연계되는 형태를 가질 수도 있다.The method of providing an interpretation function according to embodiments of the present invention may be performed by an electronic device or an earphone device to be described later. For example, a computer program according to an embodiment of the present invention may be installed and driven in an electronic device or an earset device, and an electronic device or an earset device according to an embodiment of the present invention according to the control of the driven computer program. The method of providing an interpreter function can be performed. The above-described computer program may be combined with an electronic device or an earphone device implemented as a computer and stored in a computer-readable recording medium to execute a method for providing an interpretation function on the computer. The computer program described herein may have a form of an independent program package, or a form of an independent program package may have a form associated with an operating system or other program packages already installed and driven in the computer.
도 1은 본 발명의 일실시예에 따른 이어셋을 이용한 통역기능 제공 과정의 예를 도시한 도면이다. 도 1은 전자 기기(110), 제1 이어셋 기기(120) 및 제2 이어셋 기기(130)를 도시하고 있으며, 제1 사용자(140)가 제1 이어셋 기기(120)를 오른쪽 귀에, 제2 사용자(150)가 제2 이어셋 기기(130)를 왼쪽 귀에 각각 착용한 예를 나타내고 있다. 여기서 제1 사용자(140)는 제1 언어를 사용하고 제2 사용자(150)는 제2 언어를 사용한다고 가정한다.1 is a diagram showing an example of a process of providing an interpretation function using an ear set according to an embodiment of the present invention. 1 shows an
이때, 제1 사용자(140)가 발화하는 제1 언어의 음성은 제1 이어셋 기기(120)가 포함하는 마이크와 같은 소리신호 입력부로 입력될 수 있고, 제1 이어셋 기기(120)는 입력된 제1 언어의 음성을 전자 기기(110)로 전송할 수 있다. 이 경우, 전자 기기(110)는 전자 기기(110)에 설치된 어플리케이션의 통역기능을 이용하여 수신한 제1 언어의 음성을 제2 언어의 음성으로 변환하여 제2 이어셋 기기(130)로 제공할 수 있다. 이때, 제2 이어셋 기기(130)는 제공된 제2 언어의 음성을 제2 이어셋 기기(130)가 포함하는 스피커(이어폰)와 같은 소리신호 출력부를 통해 출력할 수 있다. 따라서 제2 사용자(150)는 제1 사용자(140)가 발화하는 제1 언어의 음성을, 제2 언어로 통역된 음성으로 들을 수 있게 된다.At this time, the voice of the first language spoken by the
또한, 제2 사용자(150)가 발화하는 제2 언어의 음성은 제2 이어셋 기기(130)가 포함하는 마이크와 같은 소리신호 입력부로 입력될 수 있고, 제2 이어셋 기기(130)는 입력된 제2 언어의 음성을 전자 기기(110)로 전송할 수 있다. 이 경우, 전자 기기(110)는 전자 기기(110)에 설치된 어플리케이션의 통역기능을 이용하여 수신한 제2 언어의 음성을 제1 언어의 음성으로 변환하여 제1 이어셋 기기(120)로 제공할 수 있다. 이때, 제1 이어셋 기기(120)는 제공된 제1 언어의 음성을 제1 이어셋 기기(120)가 포함하는 스피커(이어폰)와 같은 소리신호 출력부를 통해 출력할 수 있다. 따라서, 제1 사용자(140)는 제2 사용자(150)가 발화하는 제2 언어의 음성을, 제1 언어로 통역된 음성으로 들을 수 있게 된다.In addition, the voice of the second language spoken by the
이처럼, 도 1의 실시예에 따르면, 하나의 이어셋 페어를 이루는 제1 이어셋 기기(120)와 제2 이어셋 기기(130)를 이용하여 다자간 통역의 기능을 제공하는 것이 가능해진다.As such, according to the embodiment of FIG. 1, it is possible to provide a function of multi-party interpretation by using the first
만약, 도 1의 실시예에서와는 다른 실시예로, 제1 사용자(140)가 제1 이어셋 기기(120)와 제2 이어셋 기기(130)를 각각 양쪽 귀에 착용하고 있는 경우를 고려할 수 있다. 이 경우, 제1 사용자(140)가 발화하는 제1 언어의 음성은 제1 이어셋 기기(120)와 제2 이어셋 기기(130) 중 적어도 하나를 통해 입력되어 전자 기기(110)로 전송될 수 있다. 이때, 전자 기기(110)는 전자 기기(110)에 설치된 어플리케이션의 통역기능을 이용하여 수신한 제1 언어의 음성을 제2 언어의 음성으로 변환하여 제1 이어셋 기기(120)와 제2 이어셋 기기(130) 중 적어도 하나로 전송할 수 있다. 이때, 제1 이어셋 기기(120) 및/또는 제2 이어셋 기기(130)는 제2 언어로 변환된 음성을 출력할 수 있고, 제1 사용자(140)는 자신이 제1 언어로 발화한 음성을 통역한 제2 언어의 음성을 들을 수 있게 된다. 이처럼, 도 1의 실시예에서와 달리 본 발명의 다른 실시예에서는 셀프 통역을 위한 기능을 제공할 수도 있다.If, as an embodiment different from the embodiment of FIG. 1, a case where the
다자간 통역을 위한 기능과 셀프 통역을 위한 기능은 전자 기기(110)에 설치된 어플리케이션에서 모드를 변경함에 따라 각각 제공될 수 있다. 예를 들어, 어플리케이션은 다자간 통역모드와 셀프 통역모드 중 하나를 설정할 수 있는 사용자 인터페이스를 제공하도록 전자 기기(110)를 제어할 수 있으며, 제공된 사용자 인터페이스를 통해 사용자가 직접 다자간 통역모드와 셀프 통역모드 중 하나를 설정할 수 있다. 혹은 이러한 모드의 설정이 제1 이어셋 기기(120) 및 제2 이어셋 기기(130) 중 적어도 하나가 포함하는 물리적인 버튼에 대한 입력에 의해 이루어질 수도 있다. 또 다른 예로, 모드의 설정은 제1 이어셋 기기(120) 및 제2 이어셋 기기(130)로 입력되는 음성을 분석하여 이루어질 수도 있다. 예를 들어, 제1 이어셋 기기(120)와 제2 이어셋 기기(130)로 각각 입력되는 음성의 피치나 크기 등이 유사한 경우 셀프 통역모드가 설정될 수 있고, 제1 이어셋 기기(120)와 제2 이어셋 기기(130)로 각각 입력되는 음성의 피치나 크기 등이 전혀 상이한 경우 다자간 통역모드가 설정될 수 있다.A function for multi-party interpretation and a function for self-interpretation may be provided by changing a mode in an application installed in the
도 2는 본 발명의 일실시예에 따른 이어셋 페어의 예를 도시한 도면이다. 본 실시예에 따른 이어셋 페어는 도 2에 도시된 바와 같이 제1 이어셋 기기(120)와 제2 이어셋 기기(130)를 포함하고 있다. 도 1 및 도 2의 실시예들에서는 제1 이어셋 기기(120)를 오른쪽 귀에, 제2 이어셋 기기(130)가 왼쪽 귀에 착용 가능한 모습을 보이고 있으나, 이는 발명의 설명을 위한 하나의 실시예일뿐, 이에 한정되지 않는다. 예를 들어, 제1 이어셋 기기(120)가 왼쪽 귀에, 제2 이어셋 기기(130)가 오른쪽 귀에 착용 가능하도록 구현될 수도 있다.2 is a diagram showing an example of an earphone pair according to an embodiment of the present invention. The earset pair according to the present embodiment includes a
또한, 도 2의 실시예는 제1 이어셋 기기(120) 및 제2 이어셋 기기(130)의 보관, 거치, 충전 등의 기능을 제공하는 크래들(cradle, 210)의 예를 나타내고 있다. 이러한 크래들(210) 역시 제1 이어셋 기기(120)와 제2 이어셋 기기(130)가 하나의 이어셋 페어를 이루는 실시예를 설명하기 위한 하나의 예시일 뿐, 모양이나 기능 등이 도 2의 설명을 통해 한정되는 것은 아니다.In addition, the embodiment of FIG. 2 shows an example of a
도 3은 본 발명의 일실시예에 있어서, 이어셋 페어와 전자 기기간 통신의 예를 도시한 도면이다. 일반적으로 스마트폰은 블루투스(Bluetooth), 지그비(Zigbee), 와이파이(WiFi) 등과 같은 근거리 무선 통신 프로토콜을 이용하여 이어셋이나 무선 스피커와 같은 주변 기기들과 통신할 수 있다. 도 3의 실시예에서도 전자 기기(110)가 이러한 근거리 무선 통신 프로토콜을 이용하여 이어셋 페어와 통신하는 예를 설명한다. 다만, 전자 기기(110)는 하나의 근거리 무선 통신 프로토콜(일례로, 블루투스 4.1)을 이용하여 한번에 하나의 기기(도 3의 실시예에서는 제1 이어셋 기기(120))하고만 통신해야 하는 경우가 존재한다. 다시 말해, 전자 기기(110)가 하나의 근거리 무선 통신 프로토콜을 통해 둘 이상의 기기들과 동시에 통신할 수 없는 경우를 고려할 수 있다. 본 실시예에서 전자 기기(110)는 하나의 근거리 무선 통신 프로토콜을 이용하여 하나의 기기로서 제1 이어셋 기기(120)와 통신할 수 있으며, 제2 이어셋 기기(130)와는 제1 이어셋 기기(120)의 중계를 통해 통신할 수 있다. 이를 위해, 제1 이어셋 기기(120)와 제2 이어셋 기기(130)가 서로 근거리 무선 통신을 할 수 있다. 예를 들어, 제2 이어셋 기기(130)는 입력된 제2 언어의 음성을 제1 이어셋 기기(120)를 통해 전자 기기(110)로 전송할 수 있다. 역으로, 전자 기기(110)가 전송하는 제1 언어로 통역된 음성을 제1 이어셋 기기(120)를 통해 제2 이어셋 기기(130)로 전송할 수 있다. 이러한 중계 통신을 위해 일례로, TWS(True Wireless Stereo) 방식이 이용될 수 있다.3 is a diagram illustrating an example of communication between an earphone pair and an electronic device according to an embodiment of the present invention. In general, a smartphone can communicate with peripheral devices such as earphones or wireless speakers using a short-range wireless communication protocol such as Bluetooth, Zigbee, and WiFi. Also in the embodiment of FIG. 3, an example in which the
도 4는 본 발명의 일실시예에 있어서, 이어셋 페어와 전자 기기간 통신의 다른 예를 도시한 도면이다. 도 3의 실시예에서와 달리 전자 기기(110)는 하나의 근거리 무선 통신 프로토콜을 이용하여 제1 이어셋 기기(120) 및 제2 이어셋 기기(130) 모두와 동시에 통신할 수도 있다. 예를 들어, 블루투스 5.0과 같은 근거리 무선 통신 프로토콜은 스마트폰이 동시에 두 개의 기기들과 블루투스 연결 및 통신이 가능한 기술을 제공한다. 도 4의 실시예는 이처럼 동시에 복수의 기기들과 통신이 가능한 근거리 무선 통신 프로토콜을 활용하여 제1 이어셋 기기(120) 및 제2 이어셋 기기(130) 모두와 동시에 통신할 수도 있다.4 is a diagram illustrating another example of communication between an earphone pair and an electronic device according to an embodiment of the present invention. Unlike in the embodiment of FIG. 3, the
한편, 전자 기기(110)는 어플리케이션을 통해 통역기능을 제공함에 있어서, 어플리케이션이 자체적으로 갖는 통역기능을 제공할 수도 있으나, 어플리케이션과 연계된 서버를 통해 통역기능을 제공받을 수도 있다. 예를 들어, 전자 기기(110)는 어플리케이션의 제어에 따라 서버에 접속하여 제1 언어의 음성 및 제1 언어의 음성을 통역하고자 하는 제2 언어에 대한 정보를 전달할 수 있다. 이 경우, 서버는 제1 언어의 음성을 제2 언어의 음성으로 변환하여 전자 기기(110)로 제공할 수 있고, 전자 기기(110)는 제1 언어의 음성에 대해 통역된 제2 언어의 음성을 얻을 수 있게 된다.Meanwhile, in providing an interpretation function through an application, the
도 5는 본 발명의 일실시예에 있어서, 전자 기기, 이어셋 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다. 도 5의 서버(520)는 전자 기기(110)에 설치 및 구동된 어플리케이션과 연계하여 통역기능을 제공하는 외부 시스템일 수 있다.5 is a block diagram illustrating an internal configuration of an electronic device, an earphone device, and a server according to an embodiment of the present invention. The
전자 기기(110)와 서버(520)는 메모리(511, 521), 프로세서(512, 522), 통신 인터페이스(513, 523) 그리고 입출력 인터페이스(514, 524)를 포함할 수 있다. 메모리(511, 521)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(511, 521)와는 구분되는 별도의 영구 저장 장치로서 전자 기기(110)나 서버(520)에 포함될 수도 있다. 또한, 메모리(511, 521)에는 운영체제와 적어도 하나의 프로그램 코드(일례로 전자 기기(110)에 설치되어 특정 서비스의 제공을 위해 전자 기기(110)에서 구동되는 어플리케이션 등을 위한 코드)가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(511, 521)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 인터페이스(513, 523)을 통해 메모리(511, 521)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템이 네트워크(530)를 통해 제공하는 파일들에 의해 설치되는 컴퓨터 프로그램(일례로 상술한 어플리케이션)에 기반하여 전자 기기(110)의 메모리(511)에 로딩될 수 있다.The
프로세서(512, 522)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(511, 521) 또는 통신 인터페이스(513, 523)에 의해 프로세서(512, 522)로 제공될 수 있다. 예를 들어 프로세서(512, 522)는 메모리(511, 521)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.The
통신 인터페이스(513, 523)은 네트워크(530)를 통해 전자 기기(110)과 서버(520)가 서로 통신하기 위한 기능을 제공할 수 있으며, 전자 기기(110) 및/또는 서버(520)가 다른 전자 기기 또는 다른 서버와 통신하기 위한 기능을 제공할 수 있다. 일례로, 전자 기기(110)의 프로세서(512)가 메모리(511)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 인터페이스(513)의 제어에 따라 네트워크(530)를 통해 서버(520)로 전달될 수 있다. 역으로, 서버(520)의 프로세서(522)의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 통신 인터페이스(523)과 네트워크(530)를 거쳐 전자 기기(110)의 통신 인터페이스(513)을 통해 전자 기기(110)로 수신될 수 있다. 예를 들어 통신 인터페이스(513)을 통해 수신된 서버(520)의 제어 신호나 명령, 컨텐츠, 파일 등은 프로세서(512)나 메모리(511)로 전달될 수 있고, 컨텐츠나 파일 등은 전자 기기(110)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.The communication interfaces 513 and 523 may provide a function for the
입출력 인터페이스(514)는 입출력 장치(515)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 마이크, 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(514)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(515)는 전자 기기(110)와 하나의 장치로 구성될 수도 있다. 또한, 서버(520)의 입출력 인터페이스(524)는 서버(520)와 연결되거나 서버(520)가 포함할 수 있는 입력 또는 출력을 위한 장치(미도시)와의 인터페이스를 위한 수단일 수 있다.The input/
또한, 다른 실시예들에서 전자 기기(110) 및 서버(520)는 도 5의 구성요소들보다 더 적은 또는 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 전자 기기(110)는 상술한 입출력 장치(515) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다. 보다 구체적인 예로, 전자 기기(110)가 스마트폰인 경우, 일반적으로 스마트폰이 포함하고 있는 가속도 센서나 자이로 센서, 카메라 모듈, 각종 물리적인 버튼, 터치패널을 이용한 버튼, 입출력 포트, 진동을 위한 진동기 등의 다양한 구성요소들이 전자 기기(110)에 더 포함되도록 구현될 수 있다.In addition, in other embodiments, the
제1 이어셋 기기(120)는 소리를 입력받기 위한 소리신호 입력부(541), 소리를 출력하기 위한 소리신호 출력부(542), 전자 기기(110) 또는 제1 이어셋 기기(120)와 이어셋 페어를 이루는 제2 이어셋 기기(130)와 통신하기 위한 통신부(543) 그리고 소리신호 입력부(541), 소리를 출력하기 위한 소리신호 출력부(542) 및 통신부(543)를 제어하는 제어부(544)를 포함할 수 있다. 예를 들어, 제어부(544)는 사용자(일례로, 도 1의 제1 사용자(140))가 발화하는 제1 언어의 음성을 입력받도록 소리신호 입력부(541)를 제어할 수 있다. 또한, 제어부(544)는 입력되는 제1 언어의 음성이 전자 기기(110)에서 실행된 어플리케이션의 통역기능에 따라 제2 언어의 음성으로 변환되어 제2 이어셋 기기(130)로 제공되도록, 제1 언어의 음성을 전자 기기(110)로 전송하도록 통신부(543)를 제어할 수 있다. 또한, 제어부(544)는 제2 이어셋 기기(120)로 입력되어 전자 기기(110)로 수신된 제2 언어의 음성을 전자 기기(110) 실행된 어플리케이션의 통역기능에 따라 제1 언어의 음성으로 변환함에 응답하여, 전자 기기(110)로부터 변환된 제1 언어의 음성을 수신하도록 통신부(543)를 제어할 수 있다. 또한, 제어부(544)는 전자 기기(110)로부터 수신된 제1 언어의 음성을 출력하도록 소리신호 출력부(542)를 제어할 수 있다.The
도 6은 본 발명의 일실시예에 있어서, 클라우드 인공지능 플랫폼의 예를 도시한 도면이다. 도 6은 전자 기기들(610)과 클라우드 인공지능 플랫폼(620) 및 컨텐츠·서비스(630)를 나타내고 있다.6 is a diagram showing an example of a cloud artificial intelligence platform according to an embodiment of the present invention. 6 shows
일례로, 전자 기기들(610)은 일례로 스마트홈 네트워크를 통해 연결되는 댁내의 기기들을 포함할 수 있으나 각각 혹은 적어도 하나가 앞서 설명한 전자 기기(110)에 대응될 수도 있다. 이러한 전자 기기들(610)이나 전자 기기들(610)에 설치 및 구동되는 어플리케이션들(이하, 앱들)은 인터페이스 커넥트(640)를 통해 클라우드 인공지능 플랫폼(620)과 연계될 수 있다. 여기서 인터페이스 커넥트(640)는 전자 기기들(610)이나 전자 기기들(610)에 설치 및 구동되는 앱들의 개발을 위한 SDK(Software Development Kit) 및/또는 개발 문서들을 개발자들에게 제공할 수 있다. 또한, 인터페이스 커넥트(640)는 전자 기기들(610)이나 전자 기기들(610)에 설치 및 구동되는 앱들이 클라우드 인공지능 플랫폼(620)이 제공하는 기능들을 활용할 수 있는 API(Application Program Interface)를 제공할 수 있다. 구체적인 예로, 개발자들은 인터페이스 커넥트(640)가 제공하는 SDK(Software Development Kit) 및/또는 개발 문서를 이용하여 개발한 기기나 앱은 인터페이스 커넥트(640)가 제공하는 API를 이용하여 클라우드 인공지능 플랫폼(620)이 제공하는 기능들(일례로, 통역기능)을 활용할 수 있게 된다.As an example, the
여기서 클라우드 인공지능 플랫폼(620)은 통역기능뿐만 아니라 다양한 음성 기반의 서비스를 제공하기 위한 기능을 제공할 수도 있다. 예를 들어, 클라우드 인공지능 플랫폼(620)은 수신된 음성을 인식하고, 출력될 음성을 합성하기 위한 음성처리모듈(621), 수신된 영상이나 동영상을 분석하여 처리하기 위한 비전처리모듈(622), 수신된 음성에 따라 알맞은 음성(일례로, 제2 언어로 통역된 음성)을 출력하기 위해 적절한 대화를 결정하기 위한 대화처리모듈(623), 수신된 음성에 알맞은 기능을 추천하기 위한 추천모듈(624), 인공지능이 데이터 학습을 통해 문장 단위로 언어를 번역할 수 있도록 지원하는 인공신경망 기반 기계 번역(Neural Machine Translation, NMT, 625) 등과 같이 음성 기반 서비스를 제공하기 위한 다양한 모듈들을 포함할 수 있다.Here, the cloud
예를 들어, 전자 기기(110)는 제1 언어의 음성과 통역될 제2 언어에 대한 정보를 인터페이스 커넥트(640)에서 제공하는 API를 이용하여 클라우드 인공지능 플랫폼(620)으로 전송할 수 있다. 이 경우, 클라우드 인공지능 플랫폼(620)은 수신된 제1 언어의 음성을 상술한 모듈들(621 내지 625)을 활용하여 인식 및 분석할 수 있으며, 제1 언어의 음성을 제2 언어의 음성으로 통역하여 적절한 답변 음성을 합성하여 제공할 수 있다.For example, the
또한, 확장 키트(650)는 제3자 콘텐츠 개발자 또는 회사들이 클라우드 인공지능 플랫폼(620)에 기반하여 새로운 음성기반 기능을 구현할 수 있는 개발 키트를 제공할 수 있다. 예를 들어, 클라우드 인공지능 플랫폼(620)의 통역기능을 활용 가능한 별도의 어플리케이션들과 서버들이 제공된 개발 키트를 통해 개발될 수 있다.In addition, the
이러한 클라우드 인공지능 플랫폼(620)은 전자 기기(110)로 통역기능을 제공하기 위한 서버(520)의 구체적인 하나의 예시일 뿐, 전자 기기(110)로 통역기능을 제공할 수 있는 서버(520)라면 한정되지 않는다.This cloud
도 7은 본 발명의 일실시예에 있어서, 통역기능 제공 방법의 예를 도시한 흐름도이다. 본 실시예에 따른 통역기능 제공 방법은 앞서 설명한 전자 기기(110)와 같은 컴퓨터 장치에 의해 수행될 수 있다. 이때, 전자 기기(110)의 프로세서(512)는 메모리(511)가 포함하는 운영체제의 코드나 적어도 하나의 프로그램의 코드에 따른 제어 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 프로세서(512)는 전자 기기(110)에 저장된 코드가 제공하는 제어 명령에 따라 전자 기기(110)가 도 7의 통역기능 제공 방법이 포함하는 단계들(710 내지 730)을 수행하도록 전자 기기(110)를 제어할 수 있다.7 is a flowchart illustrating an example of a method for providing an interpretation function according to an embodiment of the present invention. The method of providing an interpreter function according to the present embodiment may be performed by a computer device such as the
단계(710)에서 전자 기기(110)는 제1 이어셋 기기 또는 제2 이어셋 기기에서 발생하는 어플리케이션 실행 신호를 수신할 수 있다. 여기서 제1 이어셋 기기와 제2 이어셋 기기는 앞서 설명한 제1 이어셋 기기(120) 및 제2 이어셋 기기(130)에 대응할 수 있다. 예를 들어, 제1 이어셋 기기 및 제2 이어셋 기기는 왼쪽 귀와 오른쪽 귀를 위한 이어셋 페어를 구성할 수 있다. 어플리케이션 실행 신호는 제1 이어셋 기기 및 제2 이어셋 기기 중 적어도 하나가 포함하는 물리적인 버튼을 통한 입력 또는 제1 이어셋 기기 및 제2 이어셋 기기 중 적어도 하나가 포함하는 센서의 출력값에 의해 발생될 수 있다. 예를 들어, 제1 이어셋 기기(또는 제2 이어셋 기기)는 사용자가 제1 이어셋 기기(또는 제2 이어셋 기기)가 포함하는 버튼을 누름에 따라 발생하는 입력 신호를 감지하고, 감지된 입력 신호에 대응하여 어플리케이션 실행 신호를 생성할 수 있다. 또한 제1 이어셋 기기(또는 제2 이어셋 기기)는 생성된 어플리케이션 실행 신호를 전자 기기(110)로 전송할 수 있다. 다른 예로, 제1 이어셋 기기(또는 제2 이어셋 기기)는 조도 센서를 포함할 수 있다. 이때, 제1 이어셋 기기(또는 제2 이어셋 기기)는 사용자가 조도 센서의 측정부위에 손가락을 일정 시간 이상 가져다 데는 행위를 감지하고, 이러한 행위의 감지에 따라 어플리케이션 실행 신호를 생성할 수도 있다. 이처럼, 사용자의 특정한 행위를 감지하여 어플리케이션 실행 신호를 생성하기 위한 다양한 방법들 중 하나가 활용될 수 있음을 당업자가 쉽게 이해할 수 있을 것이다.In
단계(720)에서 전자 기기(110)는 수신된 어플리케이션 실행 신호에 대응하는 어플리케이션을 실행할 수 있다. 이때, 실행되는 어플리케이션은 자체적으로 또는 앞서 설명한 서버(520)와의 연계를 통해 통역기능을 제공하기 위한 컴퓨터 프로그램일 수 있다.In
단계(730)에서 전자 기기(110)는 실행된 어플리케이션의 제어에 따라, 제1 이어셋 기기 및 제2 이어셋 기기 중 적어도 하나를 통해 입력되어 수신된 음성에 대한 다른 언어로의 통역기능을 제공할 수 있다. 이때, 통역기능은 앞서 설명한 바와 같이 셀프 통역을 위한 기능과 다자간 통역을 위한 기능을 포함할 수 있다.In
이처럼, 사용자(혹은 사용자들)은 이어셋 기기를 통해 전자 기기(110)의 통역기능을 위한 어플리케이션을 실행시킬 수 있으며, 이어셋 기기를 이용하여 발화된 음성에 대한 다른 언어로의 통역기능을 제공받을 수 있게 된다.In this way, the user (or users) can run an application for the interpretation function of the
도 8은 본 발명의 일실시예에 있어서, 셀프 통역 및 다자간 통역을 위한통역기능을 제공하는 예를 도시한 흐름도이다. 도 8의 단계들(810 내지 890)은 도 7의 단계(730)에서 통역기능을 제공하기 위한 구체적인 과정의 일례를 나타내고 있다.8 is a flowchart illustrating an example of providing an interpretation function for self-interpretation and multi-party interpretation according to an embodiment of the present invention.
단계(810)에서 전자 기기(110)는 통역모드가 실행 중인지 여부를 판단할 수 있다. 예를 들어, 통역모드가 종료되었거나 또는 어플리케이션이 종료됨에 따라 통역모드가 실행중이지 않은 경우 도 8의 과정은 종료될 수 있다. 전자 기기(110)는 단계(810)에서 통역모드가 실행 중인 경우, 단계(820)를 수행할 수 있다.In
단계(820)에서 전자 기기(110)는 통역모드가 다자간 통역모드인지 여부를 판단할 수 있다. 통역모드가 다자간 통역모드인 경우 단계(830)이 수행될 수 있다. 만약, 통역모드가 다자간 통역모드가 아니라면, 전자 기기(110)는 단계(870)을 수행할 수 있다.In
단계(830)에서 전자 기기(110)는 제1 이어셋 기기로부터 음성을 수신하였는지 여부를 판단할 수 있다. 여기서 제1 이어셋 기기는 이어셋 페어가 포함하는 두 개의 이어셋 기기들 중 어느 하나일 수 있다. 이때, 제1 이어셋 기기로부터 음성을 수신한 경우, 전자 기기(110)는 단계(840)을 수행할 수 있다. 만약, 제1 이어셋 기기로부터 음성을 수신하지 않은 경우, 전자 기기(110)는 단계(850)을 수행할 수 있다.In
단계(840)에서 전자 기기(110)는 제1 이어셋 기기를 통해 입력되어 수신된 제1 언어의 음성을 제2 언어의 음성으로 변환하여 제2 이어셋 기기로 제공할 수 있다. 여기서 제2 이어셋 기기는 단계(830)에서 음성을 제공한 이어셋 기기를 제외한 다른 하나의 이어셋 기기일 수 있다. 제2 이어셋 기기는 변환된 제2 언어의 음성을 출력함으로써, 제2 이어셋 기기를 착용한 제2 사용자에게 제1 이어셋 기기를 착용한 제1 사용자가 제1 언어로 발화한 음성이 제2 언어의 음성으로 통역되어 제공될 수 있다.In step 840, the
단계(850)에서 전자 기기(110)는 제2 이어셋 기기로부터 음성을 수신하였는지 여부를 판단할 수 있다. 이때, 제2 이어셋 기기로부터 음성을 수신한 경우, 전자 기기(110)는 단계(860)을 수행할 수 있다. 만약, 제2 이어셋 기기로부터 음성을 수신하지 않은 경우, 전자 기기(110)는 다시 단계(810)을 수행할 수 있다.In
단계(860)에서 전자 기기(110)는 제2 이어셋 기기를 통해 입력되어 수신된 제2 언어의 음성을 제1 언어의 음성으로 변환하여 제1 이어셋 기기로 제공할 수 있다. 제1 이어셋 기기는 변환된 제1 언어의 음성을 출력함으로써, 제1 이어셋 기기를 착용한 제1 사용자에게 제2 이어셋 기기를 착용한 제2 사용자가 제2 언어로 발화한 음성이 제1 언어의 음성으로 통역되어 제공될 수 있다. 이후 전자 기기(110)는 다시 단계(810)을 수행할 수 있다.In
단계(870)에서 전자 기기(110)는 통역모드가 셀프 통역모드인지 여부를 판단할 수 있다. 통역모드가 셀프 통역모드인 경우 단계(880)이 수행될 수 있다. 만약, 통역모드가 다자간 통역모드가 아니라면, 전자 기기(110)는 단계(890)을 수행할 수 있다.In
단계(880)에서 전자 기기(110)는 제1 이어셋 기기 및 제2 이어셋 기기 중 적어도 하나를 통해 입력되어 수신된 제1 언어의 음성을 제2 언어의 음성으로 변환하여 제1 이어셋 기기 및 제2 이어셋 기기 중 적어도 하나로 제공할 수 있다. 셀프 통역모드는 한 명의 사용자가 제1 이어셋 기기와 제2 이어셋 기기를 모두 착용하고 있다고 판단하기 때문에, 제1 이어셋 기기 및 제2 이어셋 기기 중 적어도 하나를 통해 제1 언어의 음성을 수신하고, 통역된 제2 언어의 음성을 제1 이어셋 기기 및 제2 이어셋 기기 중 적어도 하나로 제공할 수 있다. 단계(880) 이후 전자 기기(110)는 다시 단계(810)을 수행할 수 있다.In
단계(890)에서 전자 기기(110)는 모드를 설정할 수 있다. 예를 들어, 전자 기기(110)는 어플리케이션의 제어에 따라 사용자에게 통역모드를 다자간 통역모드 및 셀프 통역모드 중 하나를 설정할 것을 요청할 수 있다. 예를 들어, 전자 기기(110)는 어플리케이션이 제공하는 사용자 인터페이스를 통해 다자간 통역모드 및 셀프 통역모드 중 하나를 설정하도록 사용자에게 요청하거나 또는 제1 이어셋 기기 및 제2 이어셋 기기 중 적어도 하나가 포함하는 버튼이나 센서를 통한 입력을 사용자에게 요청할 수 있다. 다른 예로, 전자 기기(110)가 입력되는 음성을 분석하는 등의 분석 과정을 거쳐 자동으로 다자간 통역모드 및 셀프 통역모드 중 하나를 설정할 수도 있다. 단계(890) 이후 전자 기기(110)는 다시 단계(810)을 수행할 수 있다.In
이처럼, 도 8의 실시예에서는 다자간 통역모드와 셀프 통역모드에 따라 통역기능을 제공하는 구체적인 예를 설명하고 있다. 이러한 도 8의 실시예에서는 셀프 통역모드와 다자간 통역모드에 따른 동작의 예시를 나타내고 있으나, 실시예에 따라 셀프 통역모드만이 제공되거나 또는 다자간 통역모드만이 제공될 수도 있다.As described above, in the embodiment of FIG. 8, a specific example of providing an interpretation function according to a multi-party interpretation mode and a self interpretation mode is described. The embodiment of FIG. 8 shows an example of the operation according to the self-interpretation mode and the multi-party interpretation mode, but only the self-interpretation mode or only the multi-party interpretation mode may be provided according to the embodiment.
전자 기기(110)와 제1 이어셋 기기 및 제2 이어셋 기기간의 통신은 도 3 및 도 4를 통해 설명한 바와 같이, 직/간접 통신으로 이루어질 수 있다. 예를 들어, 전자 기기(110)는 제1 이어셋 기기 및 제2 이어셋 기기 중 어느 하나의 이어셋 기기와 직접 통신하고, 직접 통신하는 이어셋 기기와 나머지 하나의 이어셋 기기간의 무선 통신을 통해 나머지 하나의 이어셋 기기와 간접 통신을 할 수 있다. 다른 예로, 전자 기기(110)는 제1 이어셋 기기 및 제2 이어셋 기기 모두와 동시에 직접 통신을 할 수도 있다.Communication between the
또한, 사용자(일례로, 도 1의 제1 사용자(140))가 제1 이어셋 기기 및 제2 이어셋 기기 중 적어도 하나를 착용한 상태로 음악감상을 하거나 전화통화를 진행 중인 상황에서 통역기능이 필요할 수도 있다.In addition, when a user (for example, the
도 9는 본 발명의 일실시예에 있어서, 음악감상모드 또는 전화통화모드와 통역모드간 전환 예를 도시한 흐름도이다.9 is a flow chart illustrating an example of switching between a music listening mode or a telephone conversation mode and an interpretation mode according to an embodiment of the present invention.
단계(910)에서 전자 기기(110)는 수신된 어플리케이션 실행 신호 또는 실행된 어플리케이션을 통해 입력되는 통역모드 시작신호에 기초하여, 제1 이어셋 기기 및 제2 이어셋 기기 중 적어도 하나를 이용한 음악감상모드 또는 전화통화모드를 통역모드로 전환할 수 있다. 예를 들어, 전자 기기(110)는 블루투스 연결을 통한 음악감상모드에서 음악감상모드를 통역모드로 변경하면서, 음악 재생을 위한 A2DP(Advanced Audio Distribution Profile)을 사용자의 음성을 입력받기 위해 HFP(Hands Free profile)로 변경할 수 있다. 또한, 전자 기기(110)는 전화통화모드에서 전화통화를 종료한 후에 통역모드로 진입할 수도 있으나, 전화통화를 잠시 대기 상태로 변경한 후 통역모드로 진입할 수도 있다.In
이러한 단계(910)는 도 7을 통해 설명한 단계(710) 또는 단계(720)이 수행된 후에 수행될 수 있다. 예를 들어, 수신된 어플리케이션 실행 신호에 따라 음악감상모드 또는 전화통화모드를 통역모드로 전환하는 경우, 단계(910)는 단계(710) 이후에 실행될 수 있다. 다른 예로, 실행된 어플리케이션을 통해 입력되는 통역모드 시작신호에 기초하여 음악감상모드 또는 전화통화모드를 통역모드로 전환하는 경우, 단계(910)는 단계(720) 이후에 실행될 수 있다. 단계(910)이 수행된 이후, 단계(730)이 수행되어 일례로, 도8과 같이 통역기능이 제공될 수 있다.This
단계(920)에서 전자 기기(110)는 제1 이어셋 기기와 제2 이어셋 기기를 포함하는 이어셋 페어 중 어느 하나의 이어셋 기기에서 발생하는 어플리케이션 종료 신호 또는 어플리케이션을 통해 입력되는 통역모드 종료신호에 기초하여, 통역모드를 다시 음악감상모드 또는 전화통화모드로 전환할 수 있다. 이 경우, 사용자는 다시 음악감상이나 전화통화를 이어나갈 수 있다.In
도 10은 본 발명의 일실시예에 있어서, 전화통화 중에 통역기능을 제공하는 예를 도시한 흐름도이다.10 is a flowchart showing an example of providing an interpreter function during a telephone conversation in an embodiment of the present invention.
단계(1010)에서 전자 기기(110)는 수신된 어플리케이션 실행 신호 또는 실행된 어플리케이션을 통해 입력되는 통역모드 시작신호에 기초하여, 제1 이어셋 기기 및 제2 이어셋 기기 중 적어도 하나를 이용하여 진행되는 전화통화모드를 통역모드로 전환할 수 있다. 도 9의 단계(910)에서와 유사하게, 단계(1010)는 도 7을 통해 설명한 단계(710) 또는 단계(720)이 수행된 후에 수행될 수 있다.In
단계(1020)에서 전자 기기(110)는 제1 이어셋 기기 및 제2 이어셋 기기 중 적어도 하나를 통해 입력되어 수신된 제1 언어의 음성을 통역기능을 이용하여 제2 언어의 음성으로 변환할 수 있다. 이러한 단계(1020)는 도 7의 단계(730)에 포함되어 수행될 수 있다.In
단계(1030)에서 전자 기기(110)는 제1 이어셋 기기 또는 제2 이어셋 기기에서 발생하는 어플리케이션 종료 신호 또는 어플리케이션을 통해 입력되는 통역모드 종료신호에 기초하여, 통역모드를 다시 전화통화모드로 전환할 수 있다. 변환된 제2 언어의 음성은 제1 이어셋 기기 및 제2 이어셋 기기 중 적어도 하나로 먼저 전달되어 사용자의 확인을 받을 수도 있다. 또한, 변환된 제2 언어의 음성은 메모리(511) 등에 일시 저장될 수 있다.In
단계(1040)에서 전자 기기(110)는 변환된 제2 언어의 음성을 전화통화모드를 통해 전화통화 상대방에게 제공할 수 있다. 예를 들어, 메모리(511)에 일시 저장된 제2 언어의 음성이 전화통화모드를 통해 전화통화 상대방에게 전송될 수 있다. 보다 구체적인 예로, 제1 언어를 사용하는 제1 사용자가 제2 언어를 사용하는 제2 사용자와 전화통화중인 경우, 제1 사용자가 통역기능을 이용하여 제2 언어로 통역된 음성을 제2 사용자에게 제공할 수 있게 된다. 이때, 전화통화는 화상통화 역시 포함할 수 있다.In
도 11은 본 발명의 일실시예에 있어서, 이어셋 기기의 통역기능 제공 방법의 예를 도시한 흐름도이다.11 is a flowchart illustrating an example of a method of providing an interpretation function of an earphone device according to an embodiment of the present invention.
단계(1110)에서 제1 이어셋 기기(120)는 제1 이어셋 기기(120)로 입력되는 제1 언어의 음성이 전자 기기(110)에서 실행된 어플리케이션의 통역기능에 따라 제2 언어의 음성으로 변환되어 제1 이어셋 기기(120)와 이어셋 페어를 이루는 제2 이어셋 기기(130)로 제공되도록, 제1 언어의 음성을 전자 기기(110)로 전송할 수 있다. 이미 설명한 바와 같이 전자 기기(110)는 수신되는 제1 언어의 음성을 실행된 어플리케이션의 통역기능에 따라 제2 언어의 음성으로 변환하여 제2 이어셋 기기(130)로 제공할 수 있고, 제2 이어셋 기기(130)는 변환된 제2 언어의 음성을 출력함으로써, 제2 이어셋 기기(130)를 착용한 제2 사용자가 제1 이어셋 기기(120)를 착용한 제1 사용자의 제1 언어에 대한 통역기능을 제공받을 수 있다.In
단계(1120)에서 제1 이어셋 기기(120)는 제2 이어셋 기기(130)로 입력되어 전자 기기(110)로 수신된 제2 언어의 음성을 전자 기기(110)가 실행된 어플리케이션의 통역기능에 따라 제1 언어의 음성으로 변환함에 응답하여, 전자 기기(110)로부터 변환된 제1 언어의 음성을 수신할 수 있다. 이미 설명한 바와 같이 전자 기기(110)는 제2 이어셋 기기(130)로부터 수신한 제2 언어의 음성을 제1 언어의 음성으로 변환하여 제1 이어셋 기기(120)로 제공할 수 있다.In
단계(1130)에서 제1 이어셋 기기(120)는 수신된 제1 언어의 음성을 출력할 수 있다. 따라서 제1 이어셋 기기(120)의 제1 사용자는 제2 사용자의 제2 언어에 대한 통역기능을 제공받을 수 있다.In
이미 설명한 바와 같이 제1 이어셋 기기(120)는 이어셋 페어의 두 개의 이어셋 기기들 중 어느 하나에 대응할 수 있다. 따라서, 도 11의 실시예에서는 다자간 통역모드에서의 제1 이어셋 기기(120)의 동작에 대해서만 설명하였으나, 앞의 설명들을 통해 셀프 통역모드에서의 제1 이어셋 기기(120)의 동작이나 제2 이어셋 기기(130)의 동작 역시 당업자가 쉽게 이해할 수 있을 것이다.As already described, the
또한, 앞선 실시예들에서는 두 개의 이어셋 기기들이 이어셋 페어를 이루는 경우의 실시예들에 대해서만 설명하였으나, 셋 이상의 이어셋 기기들이 전자 기기(110)와 직접적으로 혹은 간접적으로 연결되어 다자간 통역모드가 진행될 수도 있음을 앞의 설명들을 통해 당업자가 쉽게 이해할 수 있을 것이다. 예를 들어, 이어셋 기기 1의 제1 언어의 음성이 제2 언어와 제3 언어의 음성들로 각각 통역되어 이어셋 기기 2와 이어셋 기기 3으로 각각 전달될 수도 있다. 또한, 이어셋 기기 2의 제2 언어의 음성이 제1 언어와 제3 언어의 음성들로 각각 통역되어 이어셋 기기 1과 이어셋 기기 3으로 각각 전달될 수 있으며, 이어셋 기기 3의 제3 언어의 음성이 제1 언어와 제2 언어의 음성들로 각각 통역되어 이어셋 기기 1과 이어셋 기기 2로 각각 전달될 수 있다. 통신의 예로서, 전자 기기(110)은 이어셋 기기 1 및 이어셋 기기 2와 직접 통신하고, 이어셋 기기 1이나 이어셋 기기 2를 통해 이어셋 기기 3과 간접 통신할 수 있다.In addition, in the previous embodiments, only the embodiments in which two earphone devices form an earphone pair have been described, but three or more earphone devices are directly or indirectly connected to the
이처럼 본 실시예들에 따르면, 이어셋을 이용하여 통역기능을 제공할 수 있으며, 제1 이어셋 기기와 제2 이어셋 기기를 포함하는 이어셋 페어를 통해 서로 다른 언어의 두 사용자들간의 통역기능을 제공할 수 있다. 또한, 통역기능을 통해 제1 언어에서 제2 언어로 통역된 음성을 전화통화 상대방에게 제공할 수 있다.As described above, according to the present embodiments, an interpretation function can be provided using an ear set, and an interpretation function between two users of different languages can be provided through an ear set pair including a first ear set device and a second ear set device. have. In addition, a voice interpreted from the first language to the second language may be provided to the other party through the interpretation function.
이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소 또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The system or device described above may be implemented as a hardware component, a software component, or a combination of a hardware component and a software component. For example, the devices and components described in the embodiments are, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, such as one or more general purpose computers or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. Can be embodyed in The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The medium may be one that continuously stores a program executable by a computer, or temporarily stores a program for execution or download. In addition, the medium may be a variety of recording means or storage means in a form in which a single piece of hardware or several pieces of hardware are combined. The medium is not limited to a medium directly connected to a computer system, but may be distributed on a network. Examples of media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magnetic-optical media such as floptical disks, and And a ROM, RAM, flash memory, and the like, and may be configured to store program instructions. In addition, examples of other media include an app store that distributes applications, a site that supplies or distributes various software, and a recording medium or storage medium managed by a server. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited embodiments and drawings, various modifications and variations are possible from the above description by those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and claims and equivalents fall within the scope of the claims to be described later.
Claims (10)
좌우의 귀에 착용되는 하나의 이어셋 페어(pair)를 형성하는 제1 이어셋 기기 및 제2 이어셋 기기에 대해, 상기 제1 이어셋 기기 또는 상기 제2 이어셋 기기에서 발생하는 어플리케이션 실행 신호를 상기 전자 기기에서 수신하는 단계;
상기 수신된 어플리케이션 실행 신호에 대응하는 어플리케이션을 상기 전자 기기상에서 실행하는 단계; 및
상기 실행된 어플리케이션의 제어에 따라, 제1 사용자의 오른쪽 귀에 착용된 상기 제1 이어셋 기기 및 제2 사용자의 왼쪽 귀에 착용된 상기 제2 이어셋 기기와 통신하여 상기 제1 사용자 및 상기 제2 사용자간의 서로 다른 언어로의 통역기능을 제공하는 단계
를 포함하는 것을 특징으로 하는 통역기능 제공 방법.In the method of providing an interpretation function of an electronic device,
For the first earset device and the second earset device forming one earset pair worn on the left and right ears, the electronic device receives an application execution signal generated by the first earset device or the second earset device Step to do;
Executing an application corresponding to the received application execution signal on the electronic device; And
According to the control of the executed application, the first earset device worn on the right ear of the first user and the second earset device worn on the left ear of the second user are communicated to each other between the first user and the second user. Steps to provide interpretation functions in other languages
Interpretation function providing method comprising a.
상기 전자 기기는 상기 제1 이어셋 기기 및 상기 제2 이어셋 기기 중 어느 하나의 이어셋 기기와 직접 통신하고, 상기 직접 통신하는 이어셋 기기와 나머지 하나의 이어셋 기기간의 무선 통신을 통해 상기 나머지 하나의 이어셋 기기와 간접 통신하는 것을 특징으로 하는 통역기능 제공 방법.The method of claim 1,
The electronic device directly communicates with any one of the first and second earset devices, and the other earset device and the other earset device through wireless communication between the directly communicating earset device and the other earset device. Interpretation function providing method, characterized in that indirect communication.
상기 전자 기기는 상기 제1 이어셋 기기 및 상기 제2 이어셋 기기 모두와 동시에 직접 통신하는 것을 특징으로 하는 통역기능 제공 방법.The method of claim 1,
The method of providing an interpretation function, wherein the electronic device communicates directly with both the first and second earphones at the same time.
상기 수신된 어플리케이션 실행 신호 또는 상기 실행된 어플리케이션을 통해 입력되는 통역모드 시작신호에 기초하여, 상기 제1 이어셋 기기 및 상기 제2 이어셋 기기 중 적어도 하나를 이용한 음악감상모드 또는 전화통화모드를 통역모드로 전환하는 단계; 및
상기 제1 이어셋 기기와 제2 이어셋 기기를 포함하는 이어셋 페어 중 어느 하나의 이어셋 기기에서 발생하는 어플리케이션 종료 신호 또는 상기 어플리케이션을 통해 입력되는 통역모드 종료신호에 기초하여, 상기 통역모드를 상기 음악감상모드 또는 전화통화모드로 전환하는 단계
를 더 포함하는 것을 특징으로 하는 통역기능 제공 방법.The method of claim 1,
Based on the received application execution signal or an interpretation mode start signal input through the executed application, a music listening mode or a phone call mode using at least one of the first and second earphones is converted into an interpretation mode. Converting; And
Based on an application termination signal generated from any one of an earphone pair including the first earphone device and the second earphone device or an interpretation mode termination signal input through the application, the interpretation mode is set to the music listening mode. Or switching to the phone call mode
Interpretation function providing method further comprising a.
상기 수신된 어플리케이션 실행 신호 또는 상기 실행된 어플리케이션을 통해 입력되는 통역모드 시작신호에 기초하여, 상기 제1 이어셋 기기 및 상기 제2 이어셋 기기 중 적어도 하나를 이용하여 진행되는 전화통화모드를 통역모드로 전환하는 단계;
상기 제1 이어셋 기기 및 상기 제2 이어셋 기기 중 적어도 하나를 통해 입력되어 수신된 제1 언어의 음성을 상기 통역기능을 이용하여 제2 언어의 음성으로 변환하는 단계;
상기 제1 이어셋 기기 또는 제2 이어셋 기기에서 발생하는 어플리케이션 종료 신호 또는 상기 어플리케이션을 통해 입력되는 통역모드 종료신호에 기초하여, 상기 통역모드를 상기 전화통화모드로 전환하는 단계; 및
상기 변환된 제2 언어의 음성을 상기 전화통화모드를 통해 전화통화 상대방에게 제공하는 단계
를 더 포함하는 것을 특징으로 하는 통역기능 제공 방법.The method of claim 1,
Based on the received application execution signal or an interpretation mode start signal input through the executed application, the telephone conversation mode conducted using at least one of the first and second earphones is switched to an interpretation mode. Step to do;
Converting a voice of a first language input and received through at least one of the first and second earphones into a voice of a second language by using the interpretation function;
Switching the interpretation mode to the telephone conversation mode based on an application end signal generated from the first or second earset device or an interpretation mode end signal input through the application; And
Providing the converted voice of the second language to a telephone call counterpart through the telephone call mode
Interpretation function providing method further comprising a.
상기 어플리케이션 실행 신호는 상기 제1 이어셋 기기 및 상기 제2 이어셋 기기 중 적어도 하나가 포함하는 물리적인 버튼을 통한 입력 또는 상기 제1 이어셋 기기 및 상기 제2 이어셋 기기 중 적어도 하나가 포함하는 센서의 출력값에 의해 발생되는 것을 특징으로 하는 통역기능 제공 방법.The method of claim 1,
The application execution signal is input through a physical button included in at least one of the first earset device and the second earset device, or an output value of a sensor included in at least one of the first earset device and the second earset device. Method for providing an interpretation function, characterized in that generated by.
상기 통역기능을 제공하는 단계는,
상기 제1 이어셋 기기를 통해 입력되어 수신된 음성의 제1 언어와 상기 제2 이어셋 기기를 통해 입력되어 수신된 음성의 제2 언어를 감지하는 단계;
감지된 제1 언어의 음성을 감지된 제2 언어의 음성으로 변환하고, 감지된 제2 언어의 음성을 감지된 제1 언어의 음성으로 변환하는 단계; 및
상기 변환된 제2 언어의 음성을 상기 제2 이어셋 기기로 제공하고, 상기 변환된 제1 언어의 음성을 상기 제1 이어셋 기기로 제공하는 단계
를 포함하는 것을 특징으로 하는 통역기능 제공 방법.The method of claim 1,
The step of providing the interpretation function,
Detecting a first language of the voice input through the first earphone and a second language of the voice input through the second earphone;
Converting the sensed voice of the first language into the sensed voice of the second language, and converting the sensed voice of the second language into the sensed voice of the first language; And
Providing the converted voice of the second language to the second earphone device, and providing the converted voice of the first language to the first earphone device
Interpretation function providing method comprising a.
상기 통역기능을 제공하는 단계는,
상기 제1 이어셋 기기를 통해 입력되어 수신된 음성을 상기 어플리케이션을 통해 상기 제2 이어셋 기기에 대해 설정된 제2 언어로 변환하고, 상기 제2 이어셋 기기를 통해 입력되어 수신된 음성을 상기 어플리케이션을 통해 상기 제1 이어셋 기기에 대해 설정된 제1 언어로 변환하는 단계; 및
상기 변환된 제2 언어의 음성을 상기 제2 이어셋 기기로 제공하고, 변환된 제1 언어의 음성을 상기 제1 이어셋 기기로 제공하는 단계
를 포함하는 것을 특징으로 하는 통역기능 제공 방법.The method of claim 1,
The step of providing the interpretation function,
The voice input and received through the first earset device is converted into a second language set for the second earset device through the application, and the voice input and received through the second earset device is transmitted through the application. Converting into a first language set for the first earphone device; And
Providing the converted voice of the second language to the second earphone device, and providing the converted voice of the first language to the first earphone device
Interpretation function providing method comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200123193A KR102393112B1 (en) | 2017-06-29 | 2020-09-23 | Method and apparatus for function of translation using earset |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170082430A KR102161554B1 (en) | 2017-06-29 | 2017-06-29 | Method and apparatus for function of translation using earset |
KR1020200123193A KR102393112B1 (en) | 2017-06-29 | 2020-09-23 | Method and apparatus for function of translation using earset |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170082430A Division KR102161554B1 (en) | 2017-06-29 | 2017-06-29 | Method and apparatus for function of translation using earset |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200112791A true KR20200112791A (en) | 2020-10-05 |
KR102393112B1 KR102393112B1 (en) | 2022-05-02 |
Family
ID=81593542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200123193A KR102393112B1 (en) | 2017-06-29 | 2020-09-23 | Method and apparatus for function of translation using earset |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102393112B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112446223A (en) * | 2020-11-23 | 2021-03-05 | 维沃移动通信有限公司 | Translation method and device and electronic equipment |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100102480A (en) * | 2009-03-11 | 2010-09-24 | 삼성전자주식회사 | Simultaneous interpretation system |
KR20100127194A (en) * | 2010-10-26 | 2010-12-03 | 장영수 | Wireless voice recognition earphone |
US20140177885A1 (en) * | 2007-01-03 | 2014-06-26 | Starkey Laboratories, Inc. | Wireless system for hearing communication devices providing wireless stereo reception modes |
KR101517975B1 (en) * | 2013-11-29 | 2015-05-06 | 유한회사 청텍 | Earphone apparatus with synchronous interpretating and translating function |
KR101619133B1 (en) * | 2014-12-22 | 2016-05-10 | 해보라 주식회사 | Earset for interpretation |
-
2020
- 2020-09-23 KR KR1020200123193A patent/KR102393112B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140177885A1 (en) * | 2007-01-03 | 2014-06-26 | Starkey Laboratories, Inc. | Wireless system for hearing communication devices providing wireless stereo reception modes |
KR20100102480A (en) * | 2009-03-11 | 2010-09-24 | 삼성전자주식회사 | Simultaneous interpretation system |
KR20100127194A (en) * | 2010-10-26 | 2010-12-03 | 장영수 | Wireless voice recognition earphone |
KR101517975B1 (en) * | 2013-11-29 | 2015-05-06 | 유한회사 청텍 | Earphone apparatus with synchronous interpretating and translating function |
KR101619133B1 (en) * | 2014-12-22 | 2016-05-10 | 해보라 주식회사 | Earset for interpretation |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112446223A (en) * | 2020-11-23 | 2021-03-05 | 维沃移动通信有限公司 | Translation method and device and electronic equipment |
Also Published As
Publication number | Publication date |
---|---|
KR102393112B1 (en) | 2022-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11630636B2 (en) | Changing companion communication device behavior based on status of wearable device | |
JP6886022B2 (en) | Access to multiple virtual personal assistants (VPAs) from a single device | |
JP7437356B2 (en) | Method of providing interpretation function of electronic device and ear-set device | |
US20160042748A1 (en) | Voice application architecture | |
JP7114531B2 (en) | Earset control method and system | |
KR102265931B1 (en) | Method and user terminal for performing telephone conversation using voice recognition | |
KR102374620B1 (en) | Device and system for voice recognition | |
JP2018194832A (en) | User command processing method and system for adjusting output volume of sound to be output, based on input volume of received voice input | |
KR102447381B1 (en) | Method for providing intelligent agent service while calling and electronic device thereof | |
KR20210045241A (en) | Electronic device and method for sharing voice command thereof | |
JP6619488B2 (en) | Continuous conversation function in artificial intelligence equipment | |
KR102512614B1 (en) | Electronic device audio enhancement and method thereof | |
KR20200043642A (en) | Electronic device for ferforming speech recognition using microphone selected based on an operation state and operating method thereof | |
KR102629796B1 (en) | An electronic device supporting improved speech recognition | |
KR102393112B1 (en) | Method and apparatus for function of translation using earset | |
KR20210015234A (en) | Electronic apparatus, and method of controlling to execute function according to voice command thereof | |
KR20200017293A (en) | Electronic apparatus for processing user utterance and controlling method thereof | |
KR102407275B1 (en) | Method and system for controlling earset | |
CN112542171A (en) | Electronic device for executing action by using voice recognition function and method thereof | |
KR20210059367A (en) | Voice input processing method and electronic device supporting the same | |
EP4167580A1 (en) | Audio control method, system, and electronic device | |
KR20240008760A (en) | Translation processing method and electronic device | |
KR20200108718A (en) | Electronic device for processing audio data and operating method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |