KR102390189B1 - 주변 환경에 따라 적응적으로 오디오 신호를 보정하는 방법 및 스피커 장치 - Google Patents

주변 환경에 따라 적응적으로 오디오 신호를 보정하는 방법 및 스피커 장치 Download PDF

Info

Publication number
KR102390189B1
KR102390189B1 KR1020210079998A KR20210079998A KR102390189B1 KR 102390189 B1 KR102390189 B1 KR 102390189B1 KR 1020210079998 A KR1020210079998 A KR 1020210079998A KR 20210079998 A KR20210079998 A KR 20210079998A KR 102390189 B1 KR102390189 B1 KR 102390189B1
Authority
KR
South Korea
Prior art keywords
signal
audio signal
source audio
microphone
signal processing
Prior art date
Application number
KR1020210079998A
Other languages
English (en)
Inventor
김대우
Original Assignee
김대우
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김대우 filed Critical 김대우
Priority to KR1020210079998A priority Critical patent/KR102390189B1/ko
Application granted granted Critical
Publication of KR102390189B1 publication Critical patent/KR102390189B1/ko
Priority to PCT/KR2022/005978 priority patent/WO2022270744A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/22Arrangements for obtaining desired frequency or directional characteristics for obtaining desired frequency characteristic only 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

주변 환경에 따라 적응적으로 음질을 보정하는 스피커 장치는 소스 오디오 신호를 출력하는 드라이버 유닛, 상기 드라이버 유닛이 출력하는 소리를 입력받는 마이크, 상기 소스 오디오 신호의 디지털 신호 및 상기 마이크가 입력받는 신호의 디지털 신호를 기준으로 전달 함수의 역함수를 연산하여 현재 입력되는 오디오 신호의 주파수 특성을 보정하는 디지털 신호 처리 장치, 상기 디지털 신호 처리 장치의 출력 신호를 아날로그 신호로 변환하는 컨버터 및 상기 컨버터 출력 신호를 증폭하여 상기 드라이버 유닛에 전달하는 증폭기를 포함한다.

Description

주변 환경에 따라 적응적으로 오디오 신호를 보정하는 방법 및 스피커 장치{ADAPTIVELY CORRECTING METHOD FOR AUDIO SIGNAL BASED ON SURROUNDING ENVIRONMENT AND SPEAKER APPARATUS}
이하 설명하는 기술은 적응적으로 출력 오디오 신호의 주파수 응답 특성을 보정하는 기법에 관한 것이다.
최근 인공지능(Artificial Intelligence) 기능을 갖는 스마트 스피커 시장이 성장하고 있다. 스마트 스피커는 인터넷을 통해 스트리밍되는 음원을 재생하거나, 다양한 전자장치와 유선 또는 블루투스 통신과 같은 무선으로 연결되어 음원을 재생할 수 있다. 스마트 스피커는 다양한 위치 및 환경에 배치될 수 있다.
한국공개특허 제10-1998-0037014호
스마트 스피커와 같이 이동이 자유로운 스피커는 댁내의 다양한 지점에 위치할 수 있다. 스피커는 소스 오디오 신호를 기준으로 일정한 오디오 신호를 출력한다. 다만, 스피커 배치 지점의 주변 환경에 따라 스피커의 출력 신호는 본래 신호와는 다른 주파수 특성을 갖는 신호로 사용자에게 전달될 수 있다.
이하 설명하는 기술은 스피커의 주변 환경에 따라 변화하는 오디오 출력 신호의 주파수 응답 (Frequency Response) 특성을 적응적으로 보정하는 기법을 제공하고자 한다.
주변 환경에 따라 적응적으로 오디오 신호를 보정하는 스피커 장치는 소스 오디오 신호를 출력하는 드라이버 유닛, 상기 드라이버 유닛이 출력하는 소리를 입력받는 마이크, 상기 소스 오디오 신호의 디지털 신호 및 상기 마이크가 입력받는 신호의 디지털 신호를 기준으로 전달 함수의 역함수를 연산하여 현재 입력되는 오디오 신호의 주파수 특성을 보정하는 디지털 신호 처리 장치, 상기 디지털 신호 처리 장치의 출력 신호를 아날로그 신호로 변환하는 컨버터 및 상기 컨버터 출력 신호를 증폭하여 상기 드라이버 유닛에 전달하는 증폭기를 포함한다.
주변 환경에 따라 적응적으로 오디오 신호를 보정하는 방법은 신호 처리 장치가 음원 소스로부터 전달되는 시간 t 시점의 소스 오디오 신호를 입력받는 단계, 상기 신호 처리 장치가 상기 t 시점에서 스피커에서 출력되는 소리를 마이크로 피드백 받은 신호를 입력받는 단계, 상기 신호 처리 장치가 상기 소스 오디오 신호와 상기 피드백 받은 신호를 상기 t 시점 기준으로 동기화하는 단계 및 상기 신호 처리 장치가 상기 동기화된 소스 오디오 신호 및 상기 피드백 받은 신호를 기준으로 전달 함수의 역함수를 연산하여 현재 입력되는 오디오 신호의 주파수 특성을 보정하는 단계를 포함한다.
이하 설명하는 기술은 오디오 출력 신호의 주파수 응답 특성을 적응적으로 보정하여 품질 좋은 오디오 서비스를 제공한다. 이하 설명하는 기술은 실시간으로 또는 사용자 요청에 따라 오디오 출력 신호의 주파수 응답 특성을 적응적으로 보정하여 스피커 위치 또는 주변 환경의 영향에 강인한 스피커 장치를 제공한다.
도 1은 주변 환경에 따라 적응적으로 음질을 보정하는 스피커 장치에 대한 예이다.
도 2는 스피커 장치에 대한 구성의 예이다.
도 3은 신호 처리 장치의 동작에 대한 예이다.
도 4는 학습모델 기반한 신호 처리 과정에 대한 예이다.
도 5는 학습모델의 학습 과정에 대한 예이다.
도 6은 학습모델 기반한 신호 처리 장치의 예이다.
도 7은 신호 처리 장치 구성에 대한 예이다.
이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시례를 가질 수 있는 바, 특정 실시례들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설명된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.
도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.
또, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
스피커 또는 스피커 장치는 일정한 오디오 신호를 출력하는 장치이다. 스피커 장치는 유선 또는 무선으로 소스 오디오 신호를 수신하여 음원을 출력할 수 있다.
소스 오디오 신호는 오디오 소스가 전달하는 오디오 데이터를 의미한다. 오디오 소스는 클라우드 서버, 스마트 기기 등일 수 있다. 즉, 소스 오디오 신호는 스피커 장치가 본래 출력하는 음원 데이터에 해당한다.
이하 설명하는 스피커 장치가 배치된 주변 환경에 따라 적응적으로 출력신호의 주파수 응답 특성을 보정하는 기법이다. 따라서, 스피커 장치는 일정한 지점에 고정된 장치일 수도 있다. 다만, 이하 설명하는 기술은 전술한 스마트 스피커와 같이 이동이 자유로운 스피커 장치에 보다 유용한 기법이다. 이하 설명의 편의를 위하여 스마트 스피커와 같은 스피커 장치를 기준으로 설명한다.
도 1은 주변 환경에 따라 적응적으로 오디오 신호의 주파수 응답 특성을 보정하는 스피커 장치에 대한 예이다. 스피커 장치(100)는 무선으로 소스 오디오 신호를 수신하는 장치를 가정한다. 스피커 장치(100)가 사용하는 통신 방식을 제한하지는 않는다. 예컨대, 스피커 장치(100)는 댁내에 위치한 Wi-Fi AP에 연결되어 인터넷에 연결될 수 있다. 또는, 스피커 장치(100)는 이동통신 네트워크(3G, 4G, 5G 등)를 통해 이동통신 코어망에 연결될 수도 있다. 또는, 스피커 장치(100)는 다른 디바이스(스마트폰, 릴레이 등)를 통해 인터넷에 연결될 수도 있다.
스피커 장치(100)는 소스 오디오 신호를 수신하여 일정한 음원을 재생한다고 가정한다. 스피커 장치(100)는 댁내의 책상에 배치된 상태이다. 스피커 장치(100)는 소스 오디오 신호를 일정하게 처리하여 스피커 유닛 또는 드라이버 유닛(driver unit)으로 아날로그 오디오 신호를 출력한다. 이때 스피커 장치(100)는 소스 오디오 신호를 기준으로 해당 신호에 대응하는 주파수 특성을 갖는 오디오 신호를 출력한다.
한편, 스피커 장치(100)의 주변에 다양한 구조물 및 물건 등이 배치될 수 있다. 스피커 장치(100)가 출력하는 소리는 주변 구조물이나 물건에 반사되어 스피커 장치(100) 및 사용자(A)에게 전달될 수 있다. 또한, 스피커 장치(100)의 주변에서 일정한 잡음 또는 소리가 발생할 수 있다. 예컨대, TV 또는 PC에서 일정한 소리(잡음)가 출력되어 스피커 장치(100) 및 사용자(A)에게 전달될 수 있다. 이와 같이 스피커 장치(100)가 오디오 신호를 출력하는 공간 경로에 반사음 및/또는 잡음이 중첩되면서 결과적으로 스피커 장치(100)가 출력하는 오디오 신호의 주파수 특성이 달라질 수 있다. 즉, 사용자(A)가 듣는 오디오 신호와 스피커 장치(100)가 출력하는 원본 오디오 신호의 주파수 특성이 달라질 수 있다.
스피커 장치(100)는 주변에서 전달되는 소리(반사음, 잡음 등)를 마이크를 통해 입력받는다. 스피커 장치(100)가 주변으로부터 수집하는 오디오 신호를 피드백(feedback) 신호라고 명명한다. 스피커 장치(100)는 마이크를 통해 수집한 피드백 신호를 분석하여, 스피커 장치(100)의 현재 위치에서 소스 오디오 신호가 본래의 주파수 응답 특성에 부합하는 신호를 출력할 수 있게 한다. 이를 위하여 스피커 장치(100)는 피드백 신호를 기준으로 소스 오디오 신호의 주파수 특성을 보정하고, 보정된 소스 오디오 신호를 출력한다. 사용자(A)는 보정된 소스 오디오 신호를 전달받게 된다. 따라서, 음향이 변경될 수 있는 상황에서도 스피커 장치(100)는 큰 변화 없이 본래 의도 했던 일정한 음향 신호를 사용자(A)에게 제공할 수 있다.
도 2는 스피커 장치(200)에 대한 구성의 예이다. 도 2는 스피커 장치(200)의 동작을 설명하는데 필요한 구성만을 도시하였다. 스피커 장치(200)는 전원 공급 장치(외부 전원 또는 배터리), 제어 명령 입력 버튼 등과 같은 구성을 더 포함할 수 있다.
오디오 소스(audio source)는 일정한 음원을 보유한 객체이다. 오디오 소스는 소스 오디오 신호를 전달하는 객체이다. 오디오 소스는 다양할 수 있다. 예컨대, 오디오 소스는 네트워크상의 서버, 스마트기기, 하드디스크, 메모리 카드, USB, CD, LP, Tape 등과 같은 객체 중 어느 하나일 수 있다.
디코더(decoder, 111)는 오디오 소스의 음원 Xs을 디지털 PCM(Pulse Code Modulation) 데이터 X로 변환하는 장치이다. 오디오 소스가 아날로그 소스인 경우 ADC(Analog Digital Converter, 112)가 아날로그 소스 오디오 신호 Xs를 디지털 소스 오디오 신호 X로 변환할 수 있다.
DSP(digital signal processor, 120)는 디지털 오디오 신호 X를 일정하게 처리하는 신호 처리 장치이다. DSP(120)는 입력되는 신호를 다양하게 처리할 수 있다. 기본적으로 DSP(120)가 처리하는 동작을 함수 F()로 표시하였다. DSP(120)는 F(X) 신호를 출력한다.
DAC(Digital Analog Converter, 130)는 DSP(120)가 출력하는 디지털 신호를 아날로그 신호로 변환한다. AMP(140)는 DAC(130)가 출력하는 신호를 일정하게 증폭한다. AMP(140)는 증폭한 신호 αF(X)를 드라이버 유닛(150)에 전달한다. 드라이버 유닛(150)은 복수의 유닛들로 구성될 수도 있다.
드라이버 유닛(150)은 외부로 소리를 출력한다.
MIC(microphone, 160)는 드라이버 유닛(150)이 출력하는 신호 Y = αF(X)를 입력받는다. MIC(160)가 입력받는 피드백 신호는 드라이버 유닛(150)의 출력 신호 및 주변 환경에 따라 발생하는 반사음, 잡음 등의 왜곡이 포함될 수 있다. MIC(160)가 피드백 신호를 입력받아 아날로그 신호를 생성하면, ADC(171)가 디지털 신호로 변환한다.
MIC(160)가 MEMS 마이크인 경우, 컨버터(172)는 PDM(Pulse Density Modulation) 데이터를 PCM 데이터로 변환한다.
MIC(160)는 디지털 피드백 신호 Ymic를 출력한다.
DSP(120)는 현재 입력되는 신호 X와 Ymic의 주파수 특성 차이를 분석하여, Ymic이 X에 대응되도록 전달함수 및 역함수를 생성하여 이퀄라이징(equalizing)을 수행한다. DSP(120)는 동일 시점의 신호 X와 Ymic을 대상으로 주파수 특성을 분석하는 것이 바람직하다. DSP(120)는 X의 주파수 특성을 보정하는 신호 처리 F'(X)를 수행한다. DSP(120)가 출력하는 F'(X)를 입력받는 DAC(130)와 AMP(140)는 αF'(X)를 출력한다. 드라이버 유닛(150)은 보정된 소스 오디오 신호인 αF'(X)를 출력한다.
스피커 장치(100)는 피드백 신호를 기준으로 소스 오디오 신호를 보정하는 과정을 반복적으로 수행할 수 있다.
도 3은 신호 처리 장치(300)의 동작에 대한 예이다. 도 3은 도 2의 신호 처리 장치 DSP(120)의 동작에 대한 예이다. DSP(120)는 데이터를 처리하는 프로세스로 다양한 연산 및 신호 처리를 할 수 있다. 도 3은 DSP(120)가 수행하는 신호 처리 과정을 블록으로 표현하였다.
신호 처리 장치(300)는 시점 t의 디지털 소스 오디오 신호 X(t)를 입력받는다.
신호 처리 장치(300)는 시점 t의 피드백 신호 Ymic(t)를 입력받는다.
MIC(160)가 입력받은 피드백 신호는 마이크의 고유한 주파수 특성이 반영된다. MIC 보정 EQ(MIC Correction equalizer, 210)는 MIC(160)의 고유 주파수 특성을 제거하여 순수한 스피커의 특성만이 전달 함수 연산에 사용되게 한다. MIC 보정 EQ(210)는 주파수 특성이 보정된 신호 Ymic correct(t)를 전달 함수 연산 과정에 사용한다. 또한, MIC 보정 EQ(210)는 상관기(Correlator, 220)에 Ymic correct(t)를 전달한다.
상관기(220)는 신호 처리 장치(300)가 입력받는 디지털 소스 오디오 신호와 MIC(160)로 입력되는 피드백 신호의 유사도를 검출한다. 상관기(220)는 두 신호 사이의 시간 차이 D를 계산하여 지연처리기(Delay, 230)에 전달한다.
지연처리기(Delay, 230)는 디지털 소스 오디오 신호 X(t)를 D만큼 일정하게 지연시켜 디지털 소스 오디오 신호 X와 피드백 신호 Y를 동기화한다.
전달 함수 생성기(Transfer Function, 240)는 동기화된 X(t-D)와 Ymic correct(t)를 입력받는다. 전달 함수 생성기(240)는 전달 함수를 연산한다. 전달 함수는 아래 수학식 1과 같이 표현된다.
Figure 112021071060911-pat00001
전달 함수 생성기(240)가 전달하는 함수를 간략하게 F = Y/X라고 표현한다. 역필터 연산기(Inverse Filter Calculation, 250)는 전달함수의 역함수를 연산한다. 역 필터 연산기(250)는 F' = 1/F를 연산한다. 역 필터 연산기(250)로부터 생성된 주파수 특성 보정을 위한 파라미터는 등화기(Equalizer, 260)에 입력된다.
등화기(260)는 전달함수의 역 필터 연산 값(역 필터 파라미터)을 기준으로 시점 t의 소스 오디오 신호 X(t)에 대한 주파수 특성을 보정한다. 등화기(260)는 보정된 신호 F'(X(t))를 DAC 및 AMP로 전달하여 최종적으로 드라이버 유닛으로 출력되게 한다.
경우에 따라서 등화기(260)는 시점 t의 소스 오디오 신호와 피드백 신호를 기준으로 산출되는 역 필터 연산 값을 이후 시점의 소스 오디오 신호에 적용하여 신호를 보정할 수도 있다.
신호 처리 장치(300)의 동작 예는 다양할 수 있다.
(1) 예컨대, 신호 처리 장치(300)는 피드백 신호를 기준으로 소스 오디오 신호를 보정하는 과정을 실시간으로 계속 수행할 수 있다.
(2) 또는, 신호 처리 장치(300)는 피드백 신호를 기준으로 소스 오디오 신호를 보정하는 과정을 일정시간 수행하고, 누적된 전달함수에 대한 역 필터 값들을 이용하여 현재 소스 오디오 신호를 보정할 수 있다. 예컨대, 신호 처리 장치(300)는 누적된 역 필터값들을 평균한 값 또는 누적된 역 필터값들의 중앙값을 사용하여 현재 소스 오디오 신호를 보정할 수 있다.
(3) 또는, 후술하는 바와 같이 신호 처리 장치(300)는 사전에 학습한 학습모델을 이용하여 현재 소스 오디오 신호를 보정할 수 있다.
도 4는 학습모델 기반한 신호 처리 과정에 대한 예이다.
도4(A)는 신호 처리 장치가 학습모델을 이용하여 소스 오디오 신호를 처리하는 하나의 예이다. 학습모델은 기계학습(machine learning) 모델을 의미하며, 학습모델의 종류는 다양할 수 있다. 예컨대, 학습 모델은 결정 트리, 랜덤 포레스트(random forest), KNN(K-nearest neighbor), 나이브 베이즈(Naive Bayes), SVM(support vector machine), 인공신경망(artificial neural network) 등이 있다.
도 4(A)는 인공신경망의 예를 도시하였다. 인공신경망도 다양한 모델이 개발되고 있다. 대표적으로 딥러닝 신경망(deep learning network, DNN)이 주목받고 있다. DNN은 입력층(input layer)과 출력층(output layer) 사이에 여러 개의 은닉층(hidden layer)들로 이뤄진 인공신경망 모델이다. DNN은 일반적인 인공신경망과 마찬가지로 복잡한 비선형 관계(non-linear relationship)들을 모델링할 수 있다. DNN도 세부적으로 다양한 유형의 모델이 연구되었다. 예컨대, CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), RBM(Restricted Boltzmann Machine), DBN(Deep Belief Network), GAN(Generative Adversarial Network), RL(Relation Networks) 등이 있다.
신호 처리 장치가 사용하는 학습모델은 전술한 다양한 모델 중 어느 하나일 수 있다. 설명의 편의를 위하여 신호 처리 장치는 인공신경망을 이용한다고 가정하고 설명한다. 인공신경망은 입력데이터를 입력받아 입력데이터의 특징을 추출하고, 추출한 특징을 이용하여 일정한 출력 데이터(출력 정보)를 출력한다.
도 4(A)는 사전에 학습된 인공신경망의 동작을 설명한다. 인공신경망은 신호 처리 장치가 입력받은 데이터 중 일정한 데이터를 입력 데이터로 입력받는다. 인공신경망은 입력 데이터를 입력받아 역함수 파라미터를 출력한다. 여기서, 역함수 파라미터는 등화기가 소스 오디오 신호를 처리하기 위한 파라미터를 의미한다. 신호 처리 장치는 해당 파라미터를 기준으로 소스 오디오 신호의 주파수 특성을 보정한다.
도 5(B)는 인공신경망이 입력받을 수 있는 입력데이터에 대한 예이다. 입력데이터는 신호 처리 장치가 다른 객체로부터 획득하는 정보에 기반하여 생성된다. 입력데이터는 스피커 장치의 주변 환경에 따라 영향을 받는 주파수 특성을 나타내는 데이터에 해당한다. (1) 도 5(B) 좌측의 입력데이터는 스피커 장치가 마이크로 수집하는 오디오 신호를 포함한다. 입력데이터는 1차원 형태이다. 입력데이터는 시간 순서에 따른 순차적인 데이터로 구성될 수 있다. 입력데이터는 마이크가 입력받는 피드백 신호에 대응된다. 입력데이터는 피드백 신호를 일정하게 가공한 결과물일 수도 있다. (2) 도 5(B) 우측의 입력데이터는 마이크로 수집하는 오디오 신호와 소스 오디오 신호를 포함한다. 입력데이터는 2차원 매트릭스 형태이다. 입력데이터는 하나의 축이 마이크 수집 데이터이고, 다른 하나의 축이 소스 오디오 데이터일 수 있다. 각 축의 값은 시간일 수 있고, 이 경우 데이터는 시간 흐름에 따른 특정값으로 구성될 수 있다. 또는 각 축은 주파수 대역일 수 있고, 이 경우 데이터는 주파수 범위에 따라 나타나는 특정 값일 수 있다. (3) 한편, 도 5(B)의 입력데이터는 일정한 수치값으로 구성된 매트릭스일 수 있다. 또한, 도 5(B)의 입력데이터는 일정한 값을 색상 등으로 표현한 영상 데이터일 수도 있다.
도 5는 학습모델의 학습 과정에 대한 예이다.
도 5(A)는 스피커 장치가 내장한 마이크를 이용하여 학습 데이터를 마련하는 예이다. 내장 마이크는 어레이 마이크(array microphone)일 수 있다. 어레이 마이크는 스피커 장치가 배치된 주변 환경 요소를 빠르고 정확하게 인지할 수 있다. 스피커 장치는 학습 데이터 마련을 위한 오디오 신호를 출력한다. 스피커 장치는 출력한 신호를 마이크로 입력받은 피드백 신호를 수집한다. 이때 학습 데이터는 아래 표 1과 같이 구성될 수 있다. 도 5(A)에서 스피커 장치는 수집한 학습 데이터를 이용하여 학습 모델을 학습한다.
입력데이터 ①피드백 신호(주파수 특성)
②출력 신호 + 피드백 신호(주파수 특성)
라벨값 출력 신호(주파수 특성)
입력데이터는 (i) 피드백 신호(주파수 특성 데이터) 또는 (ii) 출력 신호(주파수 특성 데이터) 및 피드백 신호(주파수 특성 데이터)일 수 있다. 후자는 전술한 매트릭스 형태의 입력데이터를 구성할 수 있다. 라벨값은 스피커 장치가 출력을 의도한 출력 신호의 주파수 특성이다.
도 5(B)는 스피커 장치가 별도의 외부 마이크를 이용하여 학습 데이터를 마련하는 예이다. 외부 마이크는 어레이 마이크일 수 있다. 스피커 장치는 외부 마이크와 유선 또는 무선으로 연결될 수 있다. 스피커 장치는 학습 데이터 마련을 위한 오디오 신호를 출력한다. 스피커 장치는 출력한 신호를 외부 마이크로 입력받아 피드백 신호를 수집한다. 이때 학습 데이터는 표 1과 같이 구성될 수 있다. 도 5(B)에서 스피커 장치는 수집한 학습 데이터를 이용하여 학습 모델을 학습한다.
도 5(C)는 스피커 장치가 내장한 마이크를 이용하여 학습 데이터를 마련하는 예이다. 내장 마이크는 어레이 마이크일 수 있다. 스피커 장치는 학습 데이터 마련을 위한 오디오 신호를 출력한다. 스피커 장치는 출력한 신호를 마이크로 입력받은 피드백 신호를 수집한다. 이때 학습 데이터는 표 1과 같이 구성될 수 있다. 도 5(C)는 별도의 컴퓨터 장치(10)가 학습 모델을 구축하는 예이다. 컴퓨터 장치(10)는 스피커 장치로부터 학습 데이터를 수신한다. 컴퓨터 장치(10)는 학습 데이터를 이용하여 학습 모델을 구축한다. 컴퓨터 장치(10)는 학습된 학습모델을 스피커 장치에 전달할 수 있다. 한편, 학습 모델을 구축하는 장치는 도 5(D)와 같이 네트워크상의 서버일 수도 있다.
도 5(D)는 스피커 장치가 별도의 외부 마이크를 이용하여 학습 데이터를 마련하는 예이다. 외부 마이크는 어레이 마이크일 수 있다. 스피커 장치는 외부 마이크와 유선 또는 무선으로 연결될 수 있다. 스피커 장치는 학습 데이터 마련을 위한 오디오 신호를 출력한다. 스피커 장치는 출력한 신호를 외부 마이크로 입력받아 피드백 신호를 수집한다. 이때 학습 데이터는 표 1과 같이 구성될 수 있다. 도 5(D)는 별도의 서버(20)가 학습 모델을 구축하는 예이다. 서버(20)는 스피커 장치로부터 학습 데이터를 수신한다. 서버(20)는 학습 데이터를 이용하여 학습 모델을 구축한다. 서버(20)는 학습된 학습모델을 스피커 장치에 전달할 수 있다. 한편, 학습 모델을 구축하는 장치는 도 5(C)와 같이 컴퓨터 장치일 수도 있다. 이 경우, 컴퓨터 장치는 외부 마이크와 직접 연결되어 피드백 신호를 수신할 수도 있다. 즉, 컴퓨터 장치가 학습 데이터 중 일부를 직접 수신할 수 있다.
전술한 바와 같이 학습 데이터 중 라벨값은 스피커 장치가 출력하고자 하는 소스 오디오 신호 또는 소스 오디오 신호의 주파수 특성이 된다. 다만, 학습 데이터 중 입력데이터는 (i) 소스 오디오 신호와 피드백 신호, 또는 (ii) 피드백 시호 단독으로 구성될 수 있다. 구체적으로 입력데이터는 다양할 수 있다. 도 3을 기준으로 설명하면 다음의 표 2와 같을 수 있다. 입력 데이터는 표 2에서 설명한 다양한 데이터의 조합 중 어느 하나일 수도 있다.
소스 오디오 신호 피드백 신호
입력데이터 1 X(t) Ymic(t)
입력데이터 2 X(t) Ymic correct(t)
입력데이터 3 X(t) 일정 구간 평균 Ymic
입력데이터 4 X(t-D) Ymic(t)
입력데이터 5 X(t-D) Ymic correct(t)
입력데이터 6 X(t-D) 일정 구간 평균 Ymic
입력데이터 7 일정 구간 평균 X Ymic(t)
입력데이터 8 일정 구간 평균 X Ymic correct(t)
입력데이터 9 일정 구간 평균 X 일정 구간 평균 Ymic
보정 결과의 정확도를 높이기 위해서는 시간이 동기화된 특정 시점의 데이터를 사용하는 것이 바람직하다. 따라서, 입력 데이터는 {X(t-D), (Ymic(t) 또는 Ymic correct(t))}를 사용하는 것이 바람직할 수 있다. 이때 라벨값은 X(t-D)의 주파수 특성이 될 수 있다.
한편, 입력 데이터는 소스 오디오 신호를 사용하지 않고, 피드백 신호만을 사용할 수도 있다. 이 경우 입력 데이터는 Ymic(t) 또는 Ymic correct(t)이 되고, 라벨값은 X(t-D)의 주파수 특성이 될 수 있다.
도 6은 학습모델 기반한 신호 처리 장치(300)의 예이다. 학습 모델을 이용하는 경우 도 3의 신호 처리 장치(200)의 구성과 상이한 구성이 될 수도 있다. 신호 처리 장치(300)는 사전에 학습된 학습 모델을 보유한다고 가정한다.
신호 처리 장치(300)는 등화기(330)에 적용할 역 필터 파라미터를 결정하는 과정에서 학습 모델을 이용할 수 있다. 신호 처리 장치(300)는 입력 데이터를 학습 모델에 입력한다. 입력 데이터 중 소스 오디오 신호는 신호 처리 장치(300)에 입력되는 소스 오디오 신호 X(t) 또는 피드백 신호와 동기화된 X(t-D)일 수 있다. 입력 데이터 중 피드백 신호는 마이크가 출력하는 Ymic(t) 또는 마이크의 주파수 특성을 보정한 Ymic correct(t)일 수 있다. 입력 데이터는 피드백 신호만으로 구성되거나, 소스 오디오 신호+피드백 신호로 구성될 수 있다. 학습모델이 학습 과정에서 이용한 입력 데이터 포맷에 따라 신호 처리 과정에서 사용할 입력 데이터도 달라진다. 학습 모델 경우 시간 동기화 되지 않은 데이터 또는 주파수 특성이 보정되지 않은 데이터를 사용하여도 비교적 정확하게 출력값(역 필터 파라미터 정보)을 산출할 수 있다. 따라서, 학습 모델의 학습 데이터 유형에 따라 신호 처리 장치(200)는 지연기(230), 상관기(220) 및 MIC 보정 EQ(210) 중 적어도 하나를 사용하지 않을 수 있다.
학습 모델이 역 필터 파라미터를 결정하면, 신호 처리 장치(300)는 해당 파라미터를 등화과정에 적용하여 소스 오디오 신호의 주파수 특성이 보정된 신호 F'(X(t))를 출력한다.
도 7은 신호 처리 장치(400) 구성에 대한 예이다. 신호 처리 장치(400)는 전술한 신호 처리 장치(200) 또는 신호 처리 장치(300)에 대한 구성일 수 있다.
신호 처리 장치(400)는 피드백 신호를 기준으로 소스 오디오 신호의 주파수 특성을 조절하는 구성이다. 신호 처리 장치(400)는 DSP와 같은 신호 처리 칩셋 형태로 구현될 수 있다. 또는, 신호 처리 장치(400)는 스피커 장치에 내장된 마이콤과 메모리로 구성될 수도 있다. 도 7은 하드웨어 형태를 한정하지 않고, 물리적인 기능을 중심으로 구성을 도시한 예이다.
신호 처리 장치(400)는 저장장치(410), 메모리(420), 연산장치(430) 및 인터페이스 장치(440)를 포함할 수 있다.
저장장치(410)는 소스 오디오 신호 처리를 위한 프로그램 내지 소스 코드를 저장할 수 있다.
저장장치(410)는 전술한 학습모델을 저장할 수 있다.
저장장치(410)는 입력되는 소스 오디오 신호 및 피드백 신호를 저장할 수 있다.
메모리(420)는 신호 처리 장치(400)가 소스 오디오 신호 처리 과정에서 생성되는 데이터 및 정보 등을 저장할 수 있다.
인터페이스 장치(440)는 물리적으로 연결된 주변 객체와 데이터를 주고받는 장치이다. 인터페이스 장치(440)는 디코더 또는 ADC로부터 소스 오디오 신호(디지털 신호)를 전달받을 수 있다. 인터페이스 장치(440)는 MIC 또는 MIC 보정 EQ로부터 피드백 신호(디지털 신호)를 전달받을 수 있다. 인터페이스 장치(440)는 주파수 특성을 보정한 소스 오디오 신호를 DAC 또는 증폭기에 전달할 수 있다.
연산 장치(430)는 데이터 처리 가능한 객체를 의미한다.
연산 장치(430)는 소스 오디오 신호와 피드백 신호를 동기화할 수 있다. 이를 위하여 연산 장치(430)는 소스 오디오 신호와 피드백 신호의 상관 관계를 분석하여 시간 차이 D를 결정할 수 있다. 또한, 연산 장치(430)는 D를 기준으로 소스 오디오 신호를 지연시켜 소스 오디오 신호 X(t-D)와 피드백 신호 Ymic(t)를 동기화할 수 있다.
연산 장치(430)는 마이크가 입력받은 피드백 신호에 대하여 마이크의 주파수 특성을 보정할 수 있다. 즉, 연산 장치(430)가 Ymic(t)를 Ymic correct(t)로 변환할 수 있다.
연산 장치(430)는 입력 데이터를 학습 모델에 입력하여 역 필터 파라미터를 산출할 수 있다. 입력 데이터는 전술한 바와 같다.
또는, 연산 장치(430)는 도 3에서 설명한 바와 같이 소스 오디오 신호와 피드백 신호를 이용하여 전달 함수와 역 전달 함수를 연산할 수도 있다.
최종적으로 연산 장치(430)는 역 필터 파라미터를 기준으로 소스 오디오 신호의 주파수 특성을 보정할 수 있다.
연산 장치(430)는 데이터를 처리하고, 일정한 연산을 처리하는 프로세서, AP, 프로그램이 임베디드된 칩과 같은 장치일 수 있다.
또한, 상술한 바와 같은 오디오 신호 처리 방법, 적응적 음질 보정 방법 내지 스피커 장치의 동작 방법은 컴퓨터에서 실행될 수 있는 실행가능한 알고리즘을 포함하는 프로그램(또는 어플리케이션)으로 구현될 수 있다. 상기 프로그램은 일시적 또는 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM (read-only memory), PROM (programmable read only memory), EPROM(Erasable PROM, EPROM) 또는 EEPROM(Electrically EPROM) 또는 플래시 메모리 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
일시적 판독 가능 매체는 스태틱 램(Static RAM,SRAM), 다이내믹 램(Dynamic RAM,DRAM), 싱크로너스 디램 (Synchronous DRAM,SDRAM), 2배속 SDRAM(Double Data Rate SDRAM,DDR SDRAM), 증강형 SDRAM(Enhanced SDRAM,ESDRAM), 동기화 DRAM(Synclink DRAM,SLDRAM) 및 직접 램버스 램(Direct Rambus RAM,DRRAM) 과 같은 다양한 RAM을 의미한다.
본 실시례 및 본 명세서에 첨부된 도면은 전술한 기술에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 전술한 기술의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시례는 모두 전술한 기술의 권리범위에 포함되는 것이 자명하다고 할 것이다.

Claims (12)

  1. 소스 오디오 신호를 출력하는 드라이버 유닛;
    상기 드라이버 유닛이 출력하는 소리를 입력받는 마이크;
    상기 소스 오디오 신호의 디지털 신호 및 상기 마이크가 입력받는 신호의 디지털 신호를 기준으로 전달 함수의 역함수를 연산하여 현재 입력되는 오디오 신호의 주파수 특성을 보정하는 디지털 신호 처리 장치;
    상기 디지털 신호 처리 장치의 출력 신호를 아날로그 신호로 변환하는 컨버터; 및
    상기 컨버터의 출력 신호를 증폭하여 상기 드라이버 유닛에 전달하는 증폭기를 포함하되,
    상기 전달 함수는 상기 소스 오디오 신호와 상기 마이크가 입력받는 신호의 차이를 나타내는 함수이고,
    상기 디지털 신호 처리 장치는 일정한 시간 동안 상기 소스 오디오 신호와 상기 마이크가 입력받는 신호에 대한 상기 역함수를 누적하여 연산하고, 상기 누적된 역함수 값의 평균 또는 중앙값을 기준으로 상기 소스 오디오 신호를 이퀄라이징(equalizing)하는 주변 환경에 따라 적응적으로 오디오 신호를 보정하는 스피커 장치.
  2. 제1항에 있어서,
    상기 소스 오디오 신호를 디지털 신호로 변환하는 컨버터(converter) 또는 디코더를 더 포함하는 주변 환경에 따라 적응적으로 오디오 신호를 보정하는 스피커 장치.
  3. 제1항에 있어서,
    상기 마이크가 입력받는 신호를 디지털 신호로 변환하는 컨버터(converter)를 더 포함하는 주변 환경에 따라 적응적으로 오디오 신호를 보정하는 스피커 장치.
  4. 제1항에 있어서,
    상기 디지털 신호 처리 장치는
    상기 소스 오디오 신호가 상기 디지털 신호 처리 장치에 입력되는 시간과 상기 드라이버 유닛에서 출력되는 신호가 상기 마이크를 통해 상기 디지털 신호 처리 장치에 전달되는 경로에서 소요되는 지연 시간의 차이를 보정한 후 상기 역함수를 연산하는 주변 환경에 따라 적응적으로 오디오 신호를 보정하는 스피커 장치.
  5. 삭제
  6. 제1항에 있어서,
    상기 디지털 신호 처리 장치는
    (i) 상기 마이크가 입력받는 신호를 기준으로 생성되는 데이터 또는 (ii) 상기 데이터 및 상기 소스 오디오 신호를 기준으로 생성되는 데이터를 사전에 학습된 학습모델에 입력하여 산출되는 값으로 상기 역함수를 연산하는 주변 환경에 따라 적응적으로 오디오 신호를 보정하는 스피커 장치.
  7. 제6항에 있어서,
    상기 학습모델은
    상기 마이크가 입력받는 신호가 동일 시점의 상기 디지털 신호 처리 장치로 입력되는 상기 소스 오디오 신호와 동일한 주파수 특성을 갖도록 조절하는 역함수 파라미터를 출력하도록 학습되는 주변 환경에 따라 적응적으로 오디오 신호를 보정하는 스피커 장치.
  8. 신호 처리 장치가 음원 소스로부터 전달되는 시간 t 시점의 소스 오디오 신호를 입력받는 단계;
    상기 신호 처리 장치가 상기 t 시점에서 스피커에서 출력되는 소리를 마이크로 피드백 받은 신호를 입력받는 단계;
    상기 신호 처리 장치가 상기 소스 오디오 신호와 상기 피드백 받은 신호를 상기 t 시점 기준으로 동기화하는 단계; 및
    상기 신호 처리 장치가 상기 동기화된 소스 오디오 신호 및 상기 동기화된 피드백 받은 신호를 기준으로 전달 함수의 역함수를 연산하여 현재 입력되는 오디오 신호의 주파수 특성을 보정하는 단계를 포함하되,
    상기 전달 함수는 상기 소스 오디오 신호와 상기 동기화된 피드백 받은 신호의 차이를 나타내는 함수이고,
    상기 신호 처리 장치가 (i) 상기 동기화된 피드백 받은 신호를 기준으로 생성되는 데이터 또는 (ii) 상기 데이터 및 상기 소스 오디오 신호를 기준으로 생성되는 데이터를 사전에 학습된 학습모델에 입력하여 산출되는 값으로 상기 역함수를 연산하고,
    상기 학습모델은 상기 마이크로 피드백 받은 신호가 동일 시점의 상기 신호 처리 장치로 입력되는 상기 소스 오디오 신호와 동일한 주파수 특성을 갖도록 조절하는 역함수 파라미터를 출력하도록 학습되는 주변 환경에 따라 적응적으로 오디오 신호를 보정하는 방법.
  9. 제8항에 있어서,
    상기 신호 처리 장치가 일정한 시간 동안 상기 동기화된 소스 오디오 신호 및 상기 피드백 받은 신호에 대한 상기 역함수를 누적하여 연산하고, 상기 누적된 역함수 값의 평균 또는 중앙값을 기준으로 상기 현재 입력되는 소스 오디오 신호를 이퀄라이징(equalizing)하는 주변 환경에 따라 적응적으로 오디오 신호를 보정하는 방법.
  10. 삭제
  11. 삭제
  12. 삭제
KR1020210079998A 2021-06-21 2021-06-21 주변 환경에 따라 적응적으로 오디오 신호를 보정하는 방법 및 스피커 장치 KR102390189B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210079998A KR102390189B1 (ko) 2021-06-21 2021-06-21 주변 환경에 따라 적응적으로 오디오 신호를 보정하는 방법 및 스피커 장치
PCT/KR2022/005978 WO2022270744A1 (ko) 2021-06-21 2022-04-27 주변 환경에 따라 적응적으로 오디오 신호를 보정하는 방법 및 스피커 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210079998A KR102390189B1 (ko) 2021-06-21 2021-06-21 주변 환경에 따라 적응적으로 오디오 신호를 보정하는 방법 및 스피커 장치

Publications (1)

Publication Number Publication Date
KR102390189B1 true KR102390189B1 (ko) 2022-04-22

Family

ID=81452284

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210079998A KR102390189B1 (ko) 2021-06-21 2021-06-21 주변 환경에 따라 적응적으로 오디오 신호를 보정하는 방법 및 스피커 장치

Country Status (2)

Country Link
KR (1) KR102390189B1 (ko)
WO (1) WO2022270744A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022270744A1 (ko) * 2021-06-21 2022-12-29 김대우 주변 환경에 따라 적응적으로 오디오 신호를 보정하는 방법 및 스피커 장치

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117041858B (zh) * 2023-08-14 2024-04-09 央广云听文化传媒有限公司 空间音频播放优化方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980037014A (ko) 1996-11-20 1998-08-05 양승택 다채널 음향시스템의 자동 조절장치 및 그 방법
KR101421589B1 (ko) * 2007-12-28 2014-07-22 삼성전자주식회사 휴대용 단말기의 음향 보정 필터 설계 방법 및 장치
KR102202722B1 (ko) * 2019-12-13 2021-01-13 (주)큐델릭스 헤드셋 장치에서 출력 신호를 적응적으로 교정하는 방법 및 헤드셋 장치
KR102254522B1 (ko) * 2019-11-22 2021-05-24 주식회사 지브이코리아 인공지능을 이용한 파라메트릭 이퀄라이징 음향 조율 시스템의 제어 방법, 장치 및 프로그램

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8054989B2 (en) * 2007-12-13 2011-11-08 Hyundai Motor Company Acoustic correction apparatus and method for vehicle audio system
KR102390189B1 (ko) * 2021-06-21 2022-04-22 김대우 주변 환경에 따라 적응적으로 오디오 신호를 보정하는 방법 및 스피커 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980037014A (ko) 1996-11-20 1998-08-05 양승택 다채널 음향시스템의 자동 조절장치 및 그 방법
KR101421589B1 (ko) * 2007-12-28 2014-07-22 삼성전자주식회사 휴대용 단말기의 음향 보정 필터 설계 방법 및 장치
KR102254522B1 (ko) * 2019-11-22 2021-05-24 주식회사 지브이코리아 인공지능을 이용한 파라메트릭 이퀄라이징 음향 조율 시스템의 제어 방법, 장치 및 프로그램
KR102202722B1 (ko) * 2019-12-13 2021-01-13 (주)큐델릭스 헤드셋 장치에서 출력 신호를 적응적으로 교정하는 방법 및 헤드셋 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022270744A1 (ko) * 2021-06-21 2022-12-29 김대우 주변 환경에 따라 적응적으로 오디오 신호를 보정하는 방법 및 스피커 장치

Also Published As

Publication number Publication date
WO2022270744A1 (ko) 2022-12-29

Similar Documents

Publication Publication Date Title
KR102390189B1 (ko) 주변 환경에 따라 적응적으로 오디오 신호를 보정하는 방법 및 스피커 장치
US10595135B2 (en) Hearing evaluation and configuration of a hearing assistance-device
KR102478951B1 (ko) 비선형 특성을 갖는 오디오 필터를 이용하여 오디오 신호를 처리하는 방법 및 장치
US10111018B2 (en) Processor-readable medium, apparatus and method for updating hearing aid
US10080088B1 (en) Sound zone reproduction system
US20160261247A1 (en) Enhancing audio using a mobile device
JP2017507550A5 (ko)
US10497360B2 (en) Personalized assistance system based on emotion
KR20210050961A (ko) 증폭기의 입력 신호를 처리하는 전자 장치 및 그 동작 방법
JP6996501B2 (ja) 情報処理装置および方法
CN111261179A (zh) 回声消除方法及装置和智能设备
US11837228B2 (en) System and method for data augmentation for multi-microphone signal processing
US11922797B2 (en) Encoding device, encoding method, decoding device, decoding method, and program
KR20120015661A (ko) 사용환경 보정 기능을 갖는 보청기
KR101704927B1 (ko) 마이크를 이용한 음원 보정 방법 및 이를 이용한 오디오 장치
KR20210017252A (ko) 다채널 오디오 신호 처리 방법 및 전자 장치
WO2019069466A1 (ja) スピーカ駆動装置、スピーカ装置およびプログラム
KR20220036210A (ko) 영상의 음질을 향상시키는 디바이스 및 방법
US20220345833A1 (en) Machine learning based hearing assistance system
CN113852905A (zh) 一种控制方法及控制装置
JP2010230809A (ja) 録音装置

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant