ES2526740T3 - Procesador de audio y método de procesamiento de audio - Google Patents

Procesador de audio y método de procesamiento de audio Download PDF

Info

Publication number
ES2526740T3
ES2526740T3 ES07790221.1T ES07790221T ES2526740T3 ES 2526740 T3 ES2526740 T3 ES 2526740T3 ES 07790221 T ES07790221 T ES 07790221T ES 2526740 T3 ES2526740 T3 ES 2526740T3
Authority
ES
Spain
Prior art keywords
audio
audio signals
signals
assigned
blocks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES07790221.1T
Other languages
English (en)
Inventor
Kosei Yamashita
Shinichi Honda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Application granted granted Critical
Publication of ES2526740T3 publication Critical patent/ES2526740T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/009Signal processing in [PA] systems to enhance the speech intelligibility
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/01Input selection or mixing for amplifiers or loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/07Synergistic effects of band splitting and sub-band processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

Un aparato de procesamiento de audio (16) que reproduce simultáneamente una pluralidad de señales de audio, que comprende: una unidad de procesamiento de audio (24) operativa para realizar un procesamiento predeterminado sobre señales de audio respectivas que se suministran a la entrada independientemente de modo que un usuario oiga la pluralidad de señales de audio por separado con el sentido auditivo cuando se mezclan y un mezclador descendente (26) operativo para mezclar la pluralidad de señales de audio después del procesamiento predeterminado efectuado por la unidad de procesamiento de audio (24) para proporcionar una señal de audio de salida que tiene un número predeterminado de canales, en donde la unidad de procesamiento de audio (24) comprende un filtro de división de banda de frecuencias (42) operativo para asignar un bloque seleccionado entre una pluralidad de bloques creados dividiendo en bandas de frecuencias cada una de la pluralidad de señales de audio de modo que las bandas de frecuencias correspondientes a bloques asignados a cada una de la pluralidad de señales de audio no se enmascaren entre sí y operativa para extraer una componente de frecuencia que pertenece al bloque asignado desde cada señal de audio de entrada y el filtro de división de banda de frecuencias (42) asigna una pluralidad no contigua de bloques a al menos una de entre la pluralidad de señales de audio de entrada.

Description

15
25
35
45
55
65
E07790221
19-12-2014
DESCRIPCIÓN
Procesador de audio y método de procesamiento de audio
Campo de la invención
La presente invención se refiere, en general, a una tecnología para procesar señales de audio y más en particular, a un aparato de procesamiento de audio que mezcla una pluralidad de señales de audio y las proporciona a la salida y a un método de procesamiento de audio aplicado al aparato.
Tecnología antecedente
Con los desarrollos de la tecnología de procesamiento de la información en los últimos años, se hizo fácil obtener un gran número de contenidos fácilmente por intermedio de medios de registro, redes, ondas de difusión o medios similares. A modo de ejemplo, en caso de contenidos musicales, la descarga desde un sitio de distribución de música a través de una red se suele realizar además de adquirir un medio de registro tal como un CD (disco compacto) o similar que memoriza los contenidos de música. Incluyendo los datos registrados por un usuario por sí mismo, han aumentado los contenidos memorizados en un ordenador personal PC, un aparato de reproducción o un medio de registro. Por lo tanto, se hace necesaria una tecnología para buscar fácilmente a través de un gran número de contenidos para un contenido deseado. Una de dichas tecnologías es visualizar datos como miniaturas.
La visualización de datos como miniaturas es una tecnología en donde una pluralidad de imágenes fijas o de imágenes móviles se visualiza en una pantalla todas a la vez como imágenes fijas o imágenes en movimiento de tamaño reducido. Visualizando datos de forma diminuta, se hizo posible captar los contenidos de datos en un vistazo y seleccionar exactamente un dato deseado, incluso en caso de que una gran cantidad de datos de imágenes, que se toma por una cámara o un dispositivo de grabación y se acumula o que se descarga, se memoriza y su información de atributos (p.e., nombre de ficheros, la fecha de registro o elementos similares) es difícil de comprender. Además, vislumbrando una pluralidad de elementos de datos de imágenes, todos los datos pueden apreciarse con rapidez o los contenidos de medios de registro o similares que memorizan los datos, pueden captarse a intervalos cortos.
El documento DE 102 42 558 A1 da a conocer un sistema de audio que incluye un dispositivo para proporcionar, a la salida, una señal de audio a al menos un altavoz y un dispositivo para proporcionar, a la salida, una segunda señal de audio que ha de superponerse sobre la primera señal de audio cuando se reproduce a través de los altavoces. Cuando las dos señales de audio se reproducen en forma superpuesta, un control del volumen sonoro común proporciona un control anti-paralelo para elevar la intensidad de la primera señal de audio, mientras que se reduce simultáneamente la intensidad sonora de la otra señal de audio. Además, se da a conocer un vehículo motorizado que incluye el sistema de audio.
En el documento EP 1 494 364 A1 se da a conocer un dispositivo para controlar la salida de datos de audio que comprende al menos una interfaz de entrada de datos para recibir flujos de datos de entrada desde al menos dos fuentes de información diferentes, al menos dos canales de salida de audio para proporcionar, a la salida, datos y un medio de decisión para determinar automáticamente para cada flujo de datos de entrada a donde los al menos dos canales de salida de audio se dirigen los datos de entrada correspondientes, dependiendo de al menos un criterio predeterminado. Además, un sistema de gestión de información que comprende el dispositivo para controlar la salida de datos de audio, al menos dos fuentes de información diferentes que proporcionan flujos de datos de entrada que se interconectan con al menos una interfaz de entrada de datos y al menos dos medios de salida de audio que se interconectan con los al menos dos canales de salida de audio se dan a conocer en el contenido de este documento. Además, se da a conocer un método para controlar la salida de datos de audio que comprende las etapas de proporcionar flujos de datos de entrada desde al menos dos fuentes de información diferentes y la determinación automática, para cada uno de los flujos de datos de entrada, cuál de entre los al menos dos canales de señal de audio se utiliza para proporcionar la información contenida en los flujos de datos de entrada.
En el documento GB 2 058 497 A se da a conocer un sistema de aviso acústico para un vehículo a motor que automáticamente ajusta el volumen de voz dependiendo de la urgencia o importancia de una señal de aviso vocal con respecto a las condiciones de funcionamiento del motor y con el volumen del equipo de radio del vehículo siendo seleccionado por el usuario del vehículo, una pluralidad de sensores que proporcionan señales en respuesta a las condiciones anormales del motor o del vehículo, una memoria de volumen que reconoce y memoriza el ajuste del volumen actual del equipo de radio del vehículo, un selector de volumen de voz que genera una señal de volumen de voz en conformidad con el valor de memoria del volumen y en conformidad con qué señal de sensor se recibe y un controlador de volumen electrónico que responde a la señal de volumen de voz para ajustar el volumen de una señal de aviso acústica seleccionada por el selector de salida de voz en respuesta a la señal de sensor recibida.
El documento US 2006/001532 A1 da a conocer que, en un vehículo, el dispositivo de salida de sonido de alarma del vehículo y un programa, los datos de posición de un obstáculo y los datos sonoros de un sonido de alarma se
15
25
35
45
55
65
E07790221
19-12-2014
proporcionan desde un detector de obstáculos a un procesador de señal digital (DSP) de un generador de fuente de sonido virtual. Los datos de posición de un neumático que tiene una anormalidad en la presión del aire y datos sonoros de un sonido de alarma se proporcionan desde un detector de anormalidad al procesador DSP. Los datos de posición de un objeto que sirve de objetivo de una guía de ruta y datos sonoros de una voz se proporcionan desde un detector de posición al procesador DSP. En el procesador DSP, una señal de audio con la que puede ponerse en práctica una fuente de sonido virtual se crea utilizando una tabla de conversión de señal de detección/posición de localización y funciones de la denominada transferencia relativa a la cabeza y la señal de audio así creada se proporciona a una unidad de salida de sonido. En la unidad de salida de sonido, la señal correspondiente a la señal de audio se proporciona a altavoces, de modo que un pasajero pueda oír un sonido de alarma, tal como un sonido de advertencia, una guía vocal o elemento similar desde la posición de localización de una fuente de sonido virtual.
En el documento US 5 197 100 A se da a conocer un circuito de audio para receptor de televisión en donde un altavoz en el lado izquierdo está dispuesto en un lado izquierdo de una pantalla de un receptor de televisión, un altavoz derecho está dispuesto en un lado derecho de la pantalla y un altavoz central está dispuesto por encima y debajo de la pantalla o en donde una señal de audio acompaña a una imagen a presentarse en la pantalla. El circuito de audio suministra la señal de audio a los altavoces a la izquierda, a la derecha y central para generar un sonido que incluye un circuito de extracción de la componente de frecuencia para extraer componentes de frecuencia predeterminados de la voz humana a partir de la señal de audio y para suministrar una señal extraída de las componentes de frecuencia de la voz humana al altavoz central, de modo que el altavoz central proporcione solamente sonidos de voz humana.
Sumario de la invención
Problema a resolver por la invención
La visualización de datos como miniaturas es una tecnología en donde una parte de una pluralidad de contenidos se proporciona visualmente a un usuario en paralelo. Por lo tanto, los datos de audio (p.e., datos de música o similares), que no puedan disponerse visualmente, no son capaces de utilizar miniaturas por definición sin la mediación de datos de imágenes adicionales, tales como la imagen de una funda exterior de álbum o elemento similar. Sin embargo, el número de elementos de datos de audio poseídos por un usuario individual, tales como contenidos de música o similares, se ha ido aumentado. De este modo, con los datos de imágenes, existe una necesidad de seleccionar datos de audio deseados con facilidad o una necesidad de apreciar con rapidez los datos, incluso en el caso de que los datos no se puedan identificar con pistas tales como el título, la fecha de adquisición o los datos de imágenes adicionales.
En estos antecedes de la invención, la finalidad general de la presente invención es dar a conocer una tecnología para permitir oír una pluralidad de elementos de datos de audio simultáneamente mientras están separados desde el punto de vista aural.
Medios para resolver el problema
Los problemas antes citados se resuelven por el contenido de las reivindicaciones.
Además, según una forma de realización de la presente invención, se da a conocer un aparato de procesamiento de audio. El aparato de procesamiento de audio reproduce una pluralidad de señales de audio simultáneamente y comprende: una unidad de procesamiento de audio operativa para realizar un procesamiento predeterminado sobre señales de audio de entrada respectivas, de modo que un usuario oiga las señales por separado con el sentido auditivo y una de salida operativa para efectuar la mezcla de la pluralidad de señales de audio de entrada sobre las que se realiza el procesamiento y para proporcionarlas como una señal de audio de salida que tienen un número predeterminado de canales, en donde la unidad de procesamiento de audio comprende, además, un filtro de división de banda de frecuencias operativo para asignar un bloque seleccionado de entre la pluralidad de bloques obtenidos dividiendo una banda de frecuencias para cada una de la pluralidad de señales de audio de entrada utilizado una regla predeterminada y operativo para extraer una componente de frecuencia que pertenece al bloque asignado desde cada señal de audio de entrada y el filtro de división de banda de frecuencias asigna una pluralidad no contigua de bloques a al menos una de entre la pluralidad de señales de audio de entrada.
Según otra forma de realización de la presente invención, se da a conocer un método de procesamiento de audio. El método de procesamiento de audio comprende: la asignación de una banda de frecuencias a cada una de entre una pluralidad de señales de audio de entrada, de modo que las bandas de frecuencias no se enmascaren entre sí, la extracción de una componente de frecuencias que pertenece a la banda de frecuencias asignada desde cada señal de audio la mezcla de una pluralidad de señales de audio que comprende las componentes de frecuencias extraídas desde las señales de audio de entrada respectivas y proporcionándolas como una señal de audio de salida que tienen un número predeterminado de canales.
Combinaciones opciones de los elementos constituyentes antes citados y puestas en práctica de la invención en la
15
25
35
45
55
65
E07790221
19-12-2014
forma de métodos, aparatos, sistemas, programas informáticos, pueden ponerse en práctica también como modos adicionales de la presente invención.
Efecto de la invención
La presente invención permite percibir simultáneamente una pluralidad de datos de audio mientras están separados desde el punto de vista aural.
Breve descripción de los dibujos
La Figura 1 ilustra la configuración completa de un sistema de procesamiento de audio que incluye un aparato de procesamiento de audio según la presente forma de realización.
La Figura 2 es un diagrama para explicar la división de bandas de frecuencias de señales de audio, según la presente forma de realización.
La Figura 3 es un diagrama para explicar la división temporal de señales de audio según la presente forma de realización.
La Figura 4 ilustra la estructura de una unidad de procesamiento de audio según la presente forma de realización en detalle.
La Figura 5 ilustra una pantalla, a modo de ejemplo, visualizada en una unidad de entrada de un aparato de procesamiento de audio, según la presente forma de realización.
La Figura 6 es un diagrama esquemático que ilustra la configuración de asignación de bloques según la presente forma de realización.
La Figura 7 ilustra, a modo de ejemplo, información datos de música memorizados en una unidad de memorización según la presente forma de realización.
La Figura 8 ilustra una tabla, a modo de ejemplo, que se memoriza en una unidad de memorización y que asocia valores de enfoque y ajustes para los filtros respectivos, entre sí.
La Figura 9 es un diagrama de flujo que ilustra el procesamiento de un aparato de procesamiento de audio según la presente forma de realización.
Descripción de las referencias numéricas
10 … sistema de procesamiento de audio, 12… dispositivo de memorización, 14… aparato de reproducción, 16 … aparato de procesamiento de audio, 18 … unidad de entrada, 20 … unidad de control, 22 … unidad de memorización, 24 … unidad de procesamiento de audio, 26 … mezclador reductor, 30... unidad de salida, 40 … unidad de pre-proceso, 42… filtro de división de banda de frecuencias, 44 … filtro de división temporal, 46 … filtro de modulación, 48… filtro de procesamiento, 50 … filtro de ajuste de localización.
Forma de realización preferida de la invención
La Figura 1 ilustra la configuración completa de un sistema de procesamiento de audio que incluye un aparato de procesamiento de audio según la presente forma de realización. El sistema de procesamiento de audio, según la presente forma de realización, reproduce simultáneamente una pluralidad de elementos de datos de audio memorizados por un usuario en un dispositivo de memorización, tal como un disco duro o similar, o un medio de registro. A continuación, el sistema aplica un proceso de filtrado a una pluralidad de señales de audio obtenidas mediante la reproducción, mezcla las señales y obtiene una señal de audio de salida que tiene un número deseado de canales y proporciona, a la salida, la señal procedente de un dispositivo de salida, tal como un altavoz estéreo, un auricular o dispositivo similar.
Simplemente mezclando y proporcionando una pluralidad de señales de audio se obtienen señales que se contrarrestan entre sí o se obtiene solamente una señal de audio para oírse de forma distintiva, por lo que resulta difícil para las señales de audio respectivas ser reconocidas de forma independiente como los datos de imágenes visualizados como miniaturas. Por lo tanto, el aparato de procesamiento de audio, según la presente forma de realización, separa una pluralidad de señales de audio, de forma aural aproximando la periferia de la audición y el centro de la audición, que están incluidos en los mecanismos para permitir a los seres humanos percibir el sonido. Es decir, el aparato separa las señales de audio respectivas en relación con el nivel de la periferia auditiva, esto es, el oído interno, y proporciona una pista para percibir señales separadas, con independencia, al nivel del centro auditivo, esto es, el cerebro. Este proceso es el proceso de filtrado anteriormente descrito.
15
25
35
45
55
65
E07790221
19-12-2014
Además, el aparato de procesamiento de audio, según la presente forma de realización, resalta una señal de datos de audio, a la que presta atención un usuario, entre las señales de audio de salida mezcladas, tal como en el caso en que un usuario concentra su atención en una imagen diminuta entre las imágenes diminutas que representan datos de imágenes. Como alternativa, el aparato proporciona una pluralidad de señales mientras se cambia el grado de énfasis para las señales respectivas, paso a paso, o de manera continua, en una forma similar a la que un usuario desplaza el punto de vista entre los datos de imágenes visualizados como miniaturas. El “grado de énfasis” se refiere aquí a la capacidad de percepción, esto es, la facilidad en el reconocimiento aural, de una pluralidad de señales de audio. A modo de ejemplo, cuando el grado de énfasis para una señal es más alto que el de otras señales, la señal puede oírse con mayor claridad, con mayor magnitud o como si se oye desde un lugar más próximo que las demás señales. El grado de énfasis es un parámetro subjetivo, que tiene en cuenta cómo los seres humanos sienten en una forma global.
En caso de cambio del grado de énfasis, existe una posibilidad de que controlando simplemente el volumen se obtenga una señal de datos de audio a resaltarse que es cancelada por otras señales de audio, en cuyo caso, la señal no se puede oír adecuadamente, el efecto del énfasis no puede ser suficiente o el sonido de otros datos de audio, que no han sido resaltados, no se puede oír en absoluto, lo que hace que no tenga sentido la reproducción simultanea. Esto es así porque la capacidad de percepción auditiva de los seres humanos está estrechamente vinculada con la característica de la frecuencia o similar, que no sea el volumen. Por lo tanto, los parámetros específicos del proceso de filtrado, anteriormente descrito, se ajusta de modo que un usuario puede reconocer el cambio en el grado de énfasis demandado por el propio usuario. El mecanismo del proceso de filtrado, anteriormente descrito, y los datos específicos del proceso se describirán a continuación en detalle.
En la explicación siguiente, los datos de audio representan, pero no están limitados, a los datos de música. Los datos de audio pueden representar también otros datos para señales acústicas, tal como la voz humana en una narración cómica o en una reunión, un sonido ambiental, datos sonoros incluidos en la onda de difusión o la mezcla de dichas señales.
El sistema de procesamiento de audio 10 incluye un dispositivo de memorización 12, un aparato de procesamiento de audio 16 y una unidad de salida 30. El dispositivo de memorización 12 memoriza una pluralidad de elementos de datos de música. El aparato de procesamiento de audio 16 realiza procesos sobre una pluralidad de señales de audio, que se generan reproduciendo una pluralidad de elementos de datos de música, respectivamente, de modo que las señales se puedan oír por separado. A continuación, el aparato mezcla las señales mientras refleja el grado de énfasis demandado por el usuario. La unidad de salida 30 proporciona las señales de audio mezcladas como sonidos.
El sistema de procesamiento de audio 10 puede configurarse para ser integral con, o estar localmente conectado con, un ordenador personal o un aparato reproductor de música, tal como un reproductor portátil o similar. En este caso, un disco duro o una memoria instantánea, o dispositivo similar, se puede utilizar como el dispositivo de memorización 12. Una unidad de procesador, o similar, puede utilizarse como el aparato de procesamiento de audio
16. Como la unidad de salida 30, puede utilizarse un altavoz interno o un altavoz conectado desde el exterior, unos auriculares o dispositivos similares. Como alternativa, el dispositivo de memorización 12 puede estar configurado como un disco duro o similar en un servidor conectado al aparato de procesamiento de audio 16 a través de una red. Además, los datos de música memorizados en el dispositivo de memorización 12 pueden codificarse utilizando un método de codificación frecuentemente utilizado, tal como MP3 o similar.
El aparato de procesamiento de audio 16 incluye una unidad de entrada 18, una pluralidad de aparatos de reproducción 14, una unidad de procesamiento de audio 24, un mezclador descendente 26, una unidad de control 20 y una unidad de memorización 22. La unidad de entrada 18 reconoce una instrucción del usuario sobre la selección de datos de música a reproducirse o sobre su énfasis. Los aparatos de reproducción 14 reproducen la pluralidad de elementos de datos de música seleccionados por un usuario y proporcionan una pluralidad de señales de audio. La unidad de procesamiento de audio 24 aplica un proceso de filtrado predeterminado a la pluralidad de señales de audio, respectivamente, para permitir al usuario reconocer la distinción entre, o el énfasis sobre, las señales de audio. El mezclador descendente 26 mezcla la pluralidad de señales de audio a las que se aplica el proceso de filtrado y genera una señal de salida que tiene un número deseado de canales. La unidad de control 20 controla la operación del aparato de reproducción 14 o de la unidad de procesamiento de audio 24 en conformidad con la instrucción de selección del usuario con respecto a la reproducción o el énfasis. La unidad de memorización 22 memoriza una tabla necesaria para la unidad de control 20 para controlar, esto es, parámetros predeterminados o información sobre los datos de música respectivos en el dispositivo de memorización 12.
La unidad de entrada 18 proporciona una interfaz para la entrada de una instrucción para seleccionar una pluralidad de datos de música deseados entre los datos de música memorizados en el dispositivo de memorización 12 o una instrucción para cambiar un dato musical objetivo para resaltarse entre una pluralidad de datos de música en reproducción. La unidad de entrada 18 está configurada con, a modo de ejemplo, un aparato de presentación visual y un dispositivo de puntero. El aparato de presentación visual efectúa la lectura de la información, tal como un icono que simboliza los datos musicales seleccionados, desde la unidad de memorización 22, visualiza la lista de la información y muestra un cursor. El dispositivo de puntero desplaza el cursor y selecciona un punto en la pantalla.
15
25
35
45
55
65
E07790221
19-12-2014
Como alternativa, la unidad de entrada 18 puede configurarse con cualquiera de los aparatos de entrada o aparatos de presentación visual normalmente utilizados, tal como un teclado, una rueda de desplazamiento, un botón, un panel táctil o una de sus combinaciones opcionales.
En la explicación siguiente, cada elemento de datos musicales memorizados en el dispositivo de memorización 12 representa datos para una sintonización, respectivamente. En consecuencia, se supone que una instrucción se aplica a la entrada y se realiza el procesamiento para cada sintonía. Sin embargo, la misma explicación se aplica a un caso en el que cada elemento de datos musicales representa un conjunto de una pluralidad de sintonías, tal como un álbum musical.
Si la unidad de entrada 18 recibe una entrada de usuario para seleccionar datos musicales a reproducirse, la unidad de control 20 proporciona información sobre la entrada al aparato de reproducción 14, obtiene un parámetro necesario desde la unidad de memorización 22 e inicializa la unidad de procesamiento de audio 24 de modo que un proceso adecuado se realiza para las señales de audio respectivas de los datos de música a reproducirse. Además, si se recibe una entrada para seleccionar los datos de música a resaltarse, la unidad de control 20 refleja la entrada cambiando el ajuste de la unidad de procesamiento de audio 24. La descripción sobre los datos específicos del ajuste se proporcionará más adelante en detalle.
El aparato de reproducción 14 decodifica un elemento de datos seleccionado de entre los datos de música memorizados en el dispositivo de memorización 12 como adecuados y genera una señal de audio. La Figura 1 ilustra cuatro aparatos de reproducción 14 suponiendo que cuatro de elementos de datos musicales pueden reproducirse simultáneamente. Sin embargo, el número de los aparatos de reproducción no está limitado a cuatro. Además, el aparato de reproducción 14 puede configurarse como un solo aparato en apariencia externa en caso de que puedan realizarse en paralelo procesos de reproducción mediante, a modo de ejemplo, un multiprocesador o dispositivo similar. Sin embargo, la Figura 1 ilustra los aparatos de reproducción 14 como unidades de procesamiento separadas, que reproducen datos musicales respectivos y generan señales de audio respectivas.
Realizando procesos de filtrado como los anteriormente descritos, en señales de audio respectivas correspondientes a los datos musicales seleccionados, la unidad de procesamiento de audio 24 genera una pluralidad de señales de audio que pueden percibirse, auralmente separadas y sobre las que se refleja el grado de énfasis demandado por un usuario. La descripción detallada correspondiente se proporcionará a continuación.
El mezclador descendente 26 realiza una diversidad de ajustes si fuera necesario, luego mezcla la pluralidad de señales de audio y proporciona, a la salida, las señales como una señal de salida que tiene un número predeterminado de canales, tal como canal monofónico, estereofónico, canal 5.1 o similar. El número de los canales puede fijarse, o puede establecerse de forma susceptible de cambio con hardware o software por el propio usuario. El mezclador descendente 26 puede configurarse con un mezclador descendente frecuentemente utilizado.
La unidad de memorización 22 puede ser un elemento de memorización o un dispositivo de memorización, tal como una memoria, un disco duro o similar. La unidad de memorización 22 memoriza indicación sobre datos musicales guardados en el dispositivo de memorización 12, una tabla que asocia un índice que indica el grado de énfasis y un parámetro definido en la unidad de procesamiento de audio 24 o similar. La información sobre los datos musicales puede incluir cualquier información frecuentemente utilizada, tal como el nombre de una sintonía correspondiente a datos musicales, el nombre de un realizador, un icono, un género o similar. La información sobre datos musicales puede incluir, además, una parte de parámetros que serán necesarios en la unidad de procesamiento de audio 24. La información sobre datos musicales puede ser objeto de lectura y memorizarse en la unidad de memorización 22 cuando los datos musicales se memorizan en el dispositivo de memorización 12. Como alternativa, la información sobre datos musicales puede ser objeto de lectura desde el dispositivo de memorización 12 y memorizarse en la unidad de memorización 22 cada vez que se haga funcionar el aparato de procesamiento de audio 16.
Para ilustrar el detalle del procesamiento realizado en la unidad de procesamiento de audio 24, se proporcionará una explicación del principio fundamental para identificar una pluralidad de sonidos, que suenen simultáneamente. Los seres humanos reconocen un sonido en dos etapas, esto es, una percepción del sonido en los oídos y un análisis del sonido en el cerebro. Para identificar sonidos respectivos emitidos desde diferentes fuentes de sonidos simultáneamente, los seres humanos han de obtener información que indique que los sonidos proceden de diferentes fuentes, es decir, información de segregación, en una o ambas de dichas dos etapas. A modo de ejemplo, escuchando sonidos diferentes por el oído derecho y el oído izquierdo respectivamente, la información de segregación puede adquirirse al nivel del oído interno, con lo que los sonidos se analizan como sonidos diferentes en el cerebro y pueden reconocerse. Si los sonidos se mezclan desde el principio, los sonidos pueden segregarse al nivel del cerebro analizando la diferencia en el flujo auditivo o en el timbre de tono, en función de la información de segregación aprendida y memorizada desde cada experiencia hasta ahora.
En caso de mezcla de una pluralidad de elementos de música y la escucha desde un par de altavoces o auriculares, la información de segregación, al nivel del oído interno, no puede obtenerse de forma intrínseca, por lo que los sonidos se reconocerán en el cerebro sobre la base de la diferencia en el flujo auditivo o timbre sonoro según se describió con anterioridad. No obstante, los sonidos que pueden identificarse en esas maneras están limitados y
15
25
35
45
55
65
E07790221
19-12-2014
resulta casi imposible aplicar los métodos a una amplia gama de música. En consecuencia, el presente inventor ha concebido el método en donde la información de segregación que se aproxima al oído interno o al cerebro se incorpora artificialmente a las señales de audio para generar señales de audio que pueden reconocerse por separado aún cuando las señales se mezclen de forma ocasional.
Inicialmente, se proporcionará una explicación de la división de una señal de audio en bandas de frecuencias y la división temporal de una señal de audio como un método para proporcionar información de segregación al nivel del oído interno. La Figura 2 es un diagrama para explicar la división de bandas de frecuencias. El eje horizontal en la Figura 2 indica la frecuencia en donde las frecuencias f0 a f8 representan la banda de frecuencias audible. Aunque la Figura 2 ilustra el caso en donde dos sintonías, esto es, “sintonía a” y “sintonía b”, se mezclan y escuchan, el número de las sintonías puede ser cualquier número. En el método para la división de bandas de frecuencias, la banda audible se divide en una pluralidad de bloques y cada bloque se asigna a al menos una de entre la pluralidad de señales de audio. A continuación, el método extrae solamente una componente de frecuencias, que pertenece al bloque asignado, desde cada señal de audio.
En la Figura 2, la banda audible se divide en ocho bloques por las frecuencias f1, f2,… y f7. A continuación, a modo de ejemplo, cuatro bloques, esto es, f1-f2, f3-f4, f5-f6, f7-f8 se asignan a la “sintonía a” y cuatro bloques, esto es, f0f1, f2-f3, f4-f5, f6-f7 se asignan a la “sintonía b”, según se marca con líneas diagonales. Ajustando las frecuencias límites de los bloques (esto es, f1, f2,…y f7) a, a modo de ejemplo, cualquiera de las frecuencias límites de veinticuatro bandas críticas de la escala de Bark, el efecto de la división de bandas de frecuencias puede realizarse de forma más ventajosa.
La banda crítica se refiere a una banda de frecuencias determinada. Cuando un sonido que tiene una banda de frecuencias determinada se enmascara con otro sonido, no aumenta una magnitud de enmascaramiento aún cuando el sonido que tiene la banda de frecuencias determinada extienda su ancho de banda. El enmascaramiento se refiere, en este caso, a un fenómeno en donde el valor audible mínimo para un determinado sonido aumenta debido a la presencia de otro sonido, esto es, el sonido determinado se hace difícilmente audible. La magnitud de enmascaramiento se refiere al aumento de dicho valor audible mínimo. Es decir, los sonidos que pertenecen a diferentes bandas críticas a penas se enmascaran entre sí. Dividiendo una banda de frecuencias que utiliza veinticuatro bandas críticas en la escala de Bark, se hace posible suprimir una influencia, de modo que una componente de frecuencias que pertenece al bloque de frecuencias de f1-f2 de la "sintonía a" no enmascara la componente de frecuencias perteneciente al bloque de frecuencias de f2-f3 de la "sintonía b", etc. Lo mismo es cierto para otros bloques y en consecuencia, la "sintonía a" y la "sintonía b" se hacen señales de audio, que, en raras ocasiones, se cancelan entre sí.
La banda de frecuencias no tiene que dividirse en bloques en función de la banda crítica. En cualquiera de los casos, disminuyendo el solapamiento de las bandas de frecuencias, la información de segregación puede proporcionarse utilizando la capacidad de reproducción de frecuencia del oído interno.
Aunque en la realización, a modo de ejemplo, ilustrada en la Figura 2, cada bloque tiene un ancho de banda comparable, en la práctica, el ancho de banda puede variar dependiendo de la banda de frecuencias. A modo de ejemplo, una banda que tenga dos bandas críticas en un solo bloque y una banda que tenga cuatro bandas críticas en un solo bloque pueden estar también presentes. La manera en cómo dividir en bloques (en adelante referida como una configuración de división) puede determinarse tomando en consideración las características generales de los sonidos, a modo de ejemplo, un sonido que tiene una banda de baja frecuencia difícilmente se enmascara, etc.,
o puede determinarse tomando en consideración la banda de frecuencias característica para las sintonías respectivas. La banda de frecuencias característica representa, en este caso, una banda de frecuencias, que es importante en la expresión de la sintonía, a modo de ejemplo, una banda de frecuencias dominada por una melodía principal o similar. En caso de que las bandas de frecuencias características para más de una sintonía se prevea que se solapen, es preferible que la banda solapante se divida todavía más y se asigne uniformemente a las sintonías, con el fin de impedir anomalías tales como el fallo en la audición de la melodía principal, etc.
Aunque en la realización, a modo de ejemplo, ilustrada en la Figura 2, la sucesión de bloques se asigna a la "sintonía a" y la "sintonía b" de forma alternada, la manera en cómo asignar bloques no está limitada a esta forma. A modo de ejemplo, dos bloques consecutivos pueden asignarse a la "sintonía a". También en este caso, es preferible determinar cómo asignar de modo que se suprima un efecto negativo causado por la división de la banda de frecuencias al menos en la parte importante de las sintonías. A modo de ejemplo, si una banda de frecuencias, que es característica de una determinada sintonía, domina dos bloques consecutivos, preferentemente, los dos bloques se asignan a la sintonía.
Asimismo, es preferible permitir que el número de los bloques a sobrepasar el número de sintonías que han de mezclarse y permitir que una pluralidad de bloques discontinuos se asigne a una sola sintonía, exceptuado en una clase de caso particular en donde, a modo de ejemplo, se desee mezclar tres sintonías que están polarizadas hacia la banda de altas frecuencias, banda de frecuencias medias y banda de bajas frecuencias, respectivamente. Lo que antecede tiene una razón similar a la anteriormente descrita, es decir, evitar que la banda de frecuencias característica de una sintonía determinada sea asignada a otra sintonía y para realizar la asignación
15
25
35
45
55
65
E07790221
19-12-2014
aproximadamente uniforme con una banda más amplia. De este modo, se hace posible permitir que todas las sintonías se oigan al mismo nivel, aún cuando las bandas de frecuencias características para más de una sintonía, estén solapadas.
La Figura 3 es un diagrama para explicar la división temporal de las señales de audio. El eje horizontal en la Figura 3 indica el tiempo y el eje vertical indica la amplitud de las señales de audio, esto es, el volumen del sonido. También en este caso, se ilustra una realización, a modo de ejemplo, en donde dos sintonías, esto es, una "sintonía a" y una "sintonía b" son objeto de mezcla y escucha. Con el método de división temporal, las amplitudes de señales de audio se cambian en un periodo común, mientras quela fase de cada señal se desplaza de modo que sus valores máximos de produzcan en diferentes momentos para la sintonía respectiva. Puesto que este método se aproxima al nivel del oído interno, el periodo puede variar desde decenas de milisegundos a centenares de milisegundos.
En la Figura 3, las amplitudes de señales de audio para la "sintonía a" y la "sintonía b" se cambian en un periodo común T. La amplitud de la "sintonía b" se reduce en el tiempo t0, t2, t4 y t6 cuando la amplitud de la "sintonía a" está en sus valores máximos y la amplitud de la "sintonía a" se reduce en el tiempo t1, t3 y t5 cuando la amplitud de la "sintonía b" está en sus valores máximos. En la práctica, la amplitud puede modularse también de modo que el tiempo en que la amplitud alcanza el valor máximo o el valor mínimo tenga una duración determinada. En este caso, los intervalos temporales cuando la amplitud de la "sintonía a" está en el valor mínimo puede ajustarse para coincidir con los intervalos temporales cuando la amplitud de la "sintonía b" está en el valor mínimo. Incluso en el caso de mezclar más de dos sintonías, los intervalos temporales cuando la amplitud de la "sintonía b" está en el valor máximo y los intervalos temporales cuando la amplitud de la sintonía c está en el valor máximo, se ajustan para coincidir los intervalos temporales cuando la amplitud de la "sintonía a" está en el valor mínimo.
Por otro lado, se puede realizar también una modulación sinusoidal. Con la onda sinusoidal, el tiempo en el que la amplitud alcanza su valor máximo no dura más de un instante. En este caso, las fases a penas se desplazan, de modo que los valores máximos se producen en momentos diferentes. En cualquiera de los casos, la información sobre segregación se proporciona utilizando la capacidad de resolución temporal del oído interno.
Posteriormente, se proporcionará una explicación de un método para suministrar la información de segregación al nivel del cerebro. La información sobre segregación, proporcionada al nivel del cerebro, suministra una pista para reconocer el flujo auditivo de cada sonido cuando el sonido se analiza en el cerebro. La presente forma de realización introduce un método en donde se proporciona un cambio particular periódicamente a una señal de audio, un método en donde se aplica constantemente un proceso a la señal de audio y un método en donde se cambia la posición de una imagen de sonido. Con el método en donde se proporciona el cambio particular periódicamente a la señal de audio, la amplitud de la característica de frecuencia de la totalidad o una parte de las señales de audio a mezclarse se cambia, etc. La modulación puede generarse en un corto periodo de tiempo en forma de impulso, o puede generarse de modo que varíe gradualmente en un largo periodo de tiempo, p.e., varios segundos. Cuando se aplica la misma modulación a una pluralidad de señales de audio, las señales se ajustan de modo que los valores máximos de cada señal se produzcan en diferentes instantes para las señales de audio respectivas.
Como alternativa, un ruido tal como un sonido de chasquido, o similar, puede añadirse periódicamente, un proceso de filtrado realizado por un filtro de audio, frecuentemente utilizado, se puede aplicar o se puede desplazar la posición de una imagen de sonido desde un lado a otro, etc. Combinando dichas modulaciones, aplicando diferentes modos de modulación a señales de audio diferentes o desplazando la temporización, etc., se puede proporcionar una pista para realizar el flujo auditivo de las señales de audio.
Con el método en donde se aplica un procesamiento constantemente a la señal de audio, uno de entre, o una combinación de, los procesamientos de audio se puede realizar, tal como formación de ecos, doblaje, cambio de tono o un procedimiento similar, que puede ponerse en práctica por un dispositivo creador de efectos de frecuente uso. La característica de la frecuencia se puede ajustar de forma distinta a la que tiene la señal de audio original, constantemente. A modo de ejemplo, aplicando el proceso de formación de ecos a una de las sintonías, las sintonías se reconocen fácilmente como sintonías diferentes, aún cuando las sintonías se realicen en un mismo tempo con el mismo instrumento musical. Por supuesto, en caso de aplicar procesos a una pluralidad de señales de audio, el tipo de procesos o el nivel de los procesos se establecerá diferentes para las señales de audio respectivas.
Con el método en donde se cambia la posición de la imagen de sonido, se proporcionan diferentes posiciones de imágenes de sonidos a la totalidad de las señales de audio objeto de mezcla, respectivamente. Esto permite al cerebro analizar la información espacial de los sonidos en conjunción con el oído interno, lo que permite que las señales de audio se segreguen con facilidad.
Utilizando el principio anteriormente descrito, la unidad de procesamiento de audio 24 en el aparato de procesamiento de audio 16, según la presente forma de realización, aplica un proceso a señales de audio respectivas, de modo que las señales de audio se puedan reconocer, por separado, con el sentido auditivo cuando se mezclen. La Figura 4 ilustra la escultura de la unidad de procesamiento de audio 24 en detalle. La unidad de procesamiento de audio 24 incluye una unidad de pre-proceso 40, un filtro de división de banda de frecuencias 42, un filtro de división temporal 44, un filtro de modulación 46, un filtro de procesamiento 48 y un filtro de ajuste de
15
25
35
45
55
65
E07790221
19-12-2014
localización 50. La unidad de pre-proceso 40 puede ser un controlador automático de la ganancia frecuentemente utilizado o similar y ajusta las ganancias de modo que el volumen sonoro de una pluralidad de señales a la entrada desde el aparato de reproducción 14 se haga aproximadamente uniforme.
El filtro de división de banda de frecuencias 42 asigna bloques, obtenidos dividiendo la banda audible, a señales de audio respectivas según se describió con anterioridad, luego extrae una componente de frecuencias perteneciente al bloque asignado desde las señales de audio respectivas. La componente de frecuencias puede extraerse, a modo de ejemplo, configurando el filtro de división de banda de frecuencias 42 con filtros de pasabanda (no ilustrado) que se ajustan para los respectivos canales y para los respectivos bloques de las señales de audio. Una configuración de división o una configuración que describe cómo asignar un bloque a una señal de audio (en adelante referida como una configuración de asignación) puede cambiarse asignando la unidad de control 20 para controlar cada filtro de pasabanda o similar y para definir el ajuste en una banda de frecuencias o un filtro de pasabanda disponible. A continuación se proporcionará la descripción de una realización concreta, a modo de ejemplo, de la configuración de asignación.
El filtro de división temporal 44 realiza el método para la división temporal de señales de audio según se describió con anterioridad y modula las amplitudes de las señales de audio respectivas temporalmente desplazando las fases de las señales respectivas en un periodo que varía desde decenas de milisegundos a centenares de milisegundos. El filtro de división temporal 44 puede ponerse en práctica, a modo de ejemplo, controlando el controlador de la ganancia a lo largo del eje de tiempos. El filtro de modulación 46 realiza el método para proporcionar un cambio particular periódicamente a las señales de audio y se puede realizar, a modo de ejemplo, controlando el funcionamiento de un controlador de la ganancia, un ecualizador, un filtro de audio o dispositivo similar a lo largo del eje de tiempos. El filtro de procesamiento 48 realiza el método para aplicar constantemente un efecto particular (en adelante referido como un tratamiento de procesamiento) a las señales de audio según se describió con anterioridad y se puede poner en práctica a modo de ejemplo, mediante un dispositivo productos de efectos o similar. El filtro de ajuste de localización 50 realiza el método para cambiar la posición de la imagen de sonido y se puede poner en práctica, a modo de ejemplo, mediante un cambio absoluto.
Según se describió con anterioridad, según la presente forma de realización, una pluralidad de señales de audio, que se mezclan, se reconocen de forma aural, por separado y luego, se escucha, de forma enfática, una señal de audio determinada. Por lo tanto, se cambia un proceso en el filtro de división de bandas de frecuencias 42 o en otros filtros, dependiendo del grado de énfasis demandado por el usuario. Además, un filtro que deja pasar las señales de audio se selecciona dependiendo del grado de énfasis. En este último caso, a modo de ejemplo, un demultiplexor se conecta a un terminal de salida en filtros respectivos, proporcionando el terminal señales de audio. En este caso, ajustando si se permite, o no, una entrada a un filtro posterior, utilizando una señal de control procedente de la unidad de control 20, se puede efectuar un cambio para seleccionar o no seleccionar el filtro posterior.
A continuación, se proporcionará una explicación de un método concreto para cambiar el grado de énfasis. Inicialmente, se proporciona, a modo de ejemplo, una explicación de una manera en la que el usuario selecciona los datos de música a resaltarse. La Figura 5 ilustra una pantalla, a modo de ejemplo, visualizada en la unidad de entrada 18 del aparato de procesamiento de audio 16 en el estado en donde cuatro elementos de datos musicales se han seleccionado y se mezclan sus señales de audio y se proporcionan a la salida. La pantalla de entrada 90 incluye iconos 92a, 92b, 92c y 92d. Un botón de “parada” 94 y un cursor 96. Los iconos 92a, 92b, 92c y 92d corresponden a datos musicales cuyos nombres son "sintonía a", "sintonía b", "sintonía c" y "sintonía d", respectivamente. El botón de “parada” 94 interrumpe la reproducción.
Cuando el usuario desplaza el cursor 96 en la pantalla de entrada 90 mientras se están reproduciendo datos, el aparato de procesamiento de audio 16 determina los datos musicales, lo que se indica por un icono al que se apunta el cursor, como el objetivo para ser objeto de énfasis. En la Figura 5, puesto que el cursor 96 apunta al icono 92b de la "sintonía b", los datos musicales correspondientes al icono 92b se determinan como el objetivo para ser objeto de énfasis y la unidad de control 20 actúa con el fin de resaltar su señal de audio en la unidad de procesamiento de audio 24. En este caso operativo, se puede aplicar un proceso de filtrado idéntico a las otras tres sintonías en la unidad de procesamiento de audio 24 como las sintonías que no son objeto de énfasis. Esto permite al usuario escuchar las cuatro sintonías simultáneamente y por separado, al mismo tiempo que escucha la "sintonía b" con bastante distinción.
Asimismo, puede cambiarse el grado de énfasis para los datos musicales, que no han de resaltarse, en función de la distancia desde el cursor 96 a un icono correspondiente a los datos musicales. En la realización, a modo de ejemplo, ilustrada en la Figura 5, los más altos grados de énfasis se proporcionan a los datos musicales correspondientes al icono 92b de la "sintonía b" indica por el cursor 96. El grado medio de énfasis se proporciona a los datos musicales correspondientes al icono 92a de la "sintonía a" y al icono 92c de la "sintonía c” que se colocan a una distancia comparable desde el punto indicado por el cursor 96. A continuación, el más bajo grado de énfasis se proporciona a los datos musicales correspondientes al icono 92d de la "sintonía d” que se colocan en el punto más alejado respecto al punto indicado por el cursor 96.
Con esta forma de realización, aún cuando el cursor 96 no indique ninguno de los iconos, el grado de énfasis puede
15
25
35
45
55
65
E07790221
19-12-2014
determinarse en función de la distancia desde el punto indicado por el cursor. A modo de ejemplo, en caso de que el grado de énfasis se cambie continuamente en función de la distancia desde el cursor 96, puede oírse una sintonía como si una fuente de audio se aproxima o se aleja en conformidad con el desplazamiento del cursor 96 en una manera similar como se desplaza un punto de visión, de forma gradual, en miniaturas visualizadas. Los propios iconos pueden desplazarse por una entrada del usuario que implica el desplazamiento a la derecha o a la izquierda sin adoptar el cursor 96. A modo de ejemplo, cuanto más cerca del centro de la pantalla se coloque el icono, tanto más alto será el grado de énfasis que se puede establecer.
La unidad de control 20 adquiere información sobre el desplazamiento del cursor 96 en la unidad de entrada 18. A continuación, la unidad de control 20 define un índice que indica el grado de énfasis en los datos musicales correspondientes a cada icono, en conformidad, a modo de ejemplo, con la distancia desde el punto indicado por el cursor, etc. En adelante, este índice se refiere como un valor de enfoque. La explicación del valor de enfoque se proporciona, en esta descripción, solamente a modo de ejemplo y dicho valor de enfoque puede ser cualquier índice tal como un valor numérico, un símbolo gráfico o similar en tanto que el índice sea capaz de determinar el grado de énfasis. A modo de ejemplo, cada valor de enfoque puede definirse con independencia haciendo caso omiso de la posición del cursor. Como alternativa, el valor de enfoque puede determinarse para ser un valor proporcional al valor completo.
A continuación, se proporcionará una explicación de un método para cambiar el grado de énfasis en el filtro de división de bandas de frecuencias 42. En la Figura 2, bloques de bandas de frecuencias se asignan casi uniformemente a la "sintonía a" y a la "sintonía b" para explicar el método para permitir el reconocimiento de una pluralidad de señales de audio como señales separadas. Por otro lado, un número mayor o menor de bloques se asignan para permitir que una señal de audio determinada suene con énfasis y otra señal de radio suene de forma imprecisa. La Figura 6 es un diagrama esquemático que ilustra la configuración de la asignación de bloques.
La Figura 6 ilustra un caso en donde la banda audible se divide en siete bloques. En una forma similar a la ilustrada en la Figura 2, el eje horizontal indica la frecuencia. Los bloques se refieren como bloque 1, bloque 2,.. y bloque 7 desde el lado de la baja frecuencia. Inicialmente, las tres primeras configuraciones de asignación descritas como “grupo de configuraciones A” serán resaltadas. Los valores escritos en el lado derecho de las configuraciones de asignación respectivas indican los valores de enfoque. La configuración de valores “1.0”, “0.5” y “0.1” se ilustran a modo de ejemplo. En este caso, cuanto mayor sea el valor de enfoque, tanto más alto será el grado de énfasis. El valor máximo para el valor de enfoque se ajusta a 1.0 y el valor mínimo se ajusta a 0.1. Si el grado de énfasis para una señal de audio determinada se ajusta al máximo, esto es, la señal se ajusta de modo que la señal sea más fácilmente oída en comparación con otras señales de audio, la configuración de asignación con el valor de enfoque de 1,0 se aplica a esa señal de audio. En conformidad con la “grupo de configuraciones A” en la Figura 6, los cuatro bloques, esto es, bloque 2, bloque 3, bloque 5 y bloque 6 se asignan a la señal de audio.
Si el grado de énfasis de la misma señal de audio ha de disminuirse, se cambia la configuración de asignación, a modo de ejemplo, a la configuración de asignación del valor de enfoque de 0.5. Según la “grupo de configuraciones A” en la Figura 6, los tres bloques, esto es, bloque 1, bloque 2 y bloque 3 han de asignarse. De una manera similar, si el grado de énfasis de la misma señal de audio se establece al nivel mínimo, esto es, la señal se ajusta de modo que la señal suene de forma menos nítida mientras permanece como audible, la configuración de asignación se cambia a la configuración de asignación con el valor de enfoque de 0.1. En conformidad con la “grupo de configuraciones A” de la Figura 6, un bloque, esto es, el bloque 1 ha de asignarse. De este modo, se cambian los valores de enfoque sobre la base del grado de énfasis demandado. Es decir, en caso de que el valor de enfoque sea grande, se asigna un gran número de bloques y en caso de que el valor de enfoque sea pequeño, se asigna un pequeño número de bloques. Lo que antecede puede proporcionar información sobre el grado de énfasis en el nivel del oído interno y permite reconocer si el sonido está con énfasis o no.
Según se ilustra en la Figura 6, es preferible que no todos los bloques se asignen a una sola señal, incluso a una señal de audio con el valor de enfoque de 1.0. En la Figura 6, no se asignan el bloque 1, el bloque 2 y el bloque 7. Esto es así porque, a modo de ejemplo, si el bloque 1 se asigna también a la señal de audio con el valor de enfoque de 1.0, existe una posibilidad de que la señal pueda enmascarar una componente de frecuencias de otra señal de audio que tenga el valor de enfoque de 0.1 y a la que solamente se asigne el bloque 1. Para hacer que varíen los grados de énfasis de las señales, de valor alto y bajo, mientras una pluralidad de señales de radio se escucha por separado, es preferible, en la presente forma de realización, que se oiga una señal aún cuando la señal tenga un bajo grado de énfasis. Por lo tanto, un bloque que se asigne a una señal de audio con el más bajo o bajo grado de énfasis no será asignado a una señal de audio con el más alto o alto grado de énfasis.
Aunque en la Figura 6, las configuraciones de asignación se ilustran por solamente tres etapas de valores de enfoque, esto es, 0.1, 0.5 y 1.0 en caso de que las configuraciones de asignación sean predeterminadas con numerosos valores de enfoque, se puede establecer un valor umbral para los valores de enfoque y una señal de audio que tenga un valor de enfoque igual o menor que el valor umbral puede definirse como una señal no objeto de énfasis. A continuación, pueden establecerse las configuraciones de asignación de modo que un bloque, que se asigne a la señal de audio no objeto de énfasis, no se asigne a una señal de audio que tenga un valor de enfoque mayor que el valor umbral y que tenga que ser objeto de énfasis. Dos valores umbrales pueden utilizarse cuando se
15
25
35
45
55
65
E07790221
19-12-2014
clasifican señales en señales objeto de énfasis y señales no objeto de énfasis.
Aunque la explicación anterior se proporciona mientras se resalta la “grupo de configuraciones A” la explicación similar se aplica a la "grupo de configuraciones B" y la "grupo de configuraciones C". Las tres clases de grupos de configuración, es decir, "grupo de configuraciones A", "grupo de configuraciones B" y "grupo de configuraciones C" se hacen disponibles, en este caso, de modo que los bloques a asignarse para las señales de audio tengan valores de enfoque de 0.5, 1.0 o similar no solapándose en la medida de lo posible. A modo de ejemplo, si tres elementos de datos musicales han de reproducirse, se aplican el "grupo de configuraciones A", el "grupo de configuraciones B" y el "grupo de configuraciones C" a tres señales de audio correspondientes a los datos, respectivamente.
En este caso operativo, aún cuando todas las señales de audio tengan un valor de enfoque de 0.1, se asignan diferentes bloques a las señales para el "grupo de configuraciones A", "grupo de configuraciones B" y "grupo de configuraciones C", con lo que las señales se escuchan fácilmente de forma distintiva mientras estén separadas. En cualquiera de los grupos de configuraciones, un bloque asignado al valor de enfoque de 0.1 es un bloque que no se asigna al valor de enfoque de 1.0. El motivo para ello se describió con anterioridad.
Aunque en el caso de que el valor de enfoque sea 0.5, existe un solapamiento de bloques entre "grupo de configuraciones A", "grupo de configuraciones B" y "grupo de configuraciones C", con el número de bloques que se solapan entre dos de los grupos de configuraciones es uno como su valor máximo. De esta manera, en caso de establecer el grado de énfasis a las señales de audio a ser objeto de mezcla, los bloques a asignarse a las señales de audio pueden solaparse entre sí. Sin embargo, la segregación y el énfasis pueden alcanzarse simultáneamente, adoptando un sistema, tal como la limitación del número de bloques solapantes a su valor mínimo, evitando la asignación de bloques, que han de asignarse a señales de audio que tengan un bajo grado de énfasis, a otras señales de audio, etc. Además, si existen bloques solapantes, el proceso puede ajustarse de modo que el nivel de segregación sea complementado en filtros distintos del filtro de división de bandas de frecuencias 42.
Las configuraciones de asignación de bloques, que se ilustran en la Figura 6 se memorizan en la unidad de memorización 22, en asociación con los valores de enfoque. A continuación, la unidad de control 20 determina el valor de enfoque para cada señal de audio en conformidad, a modo de ejemplo, con el desplazamiento del cursor 96 en la unidad de entrada 18 y adquiere un bloque a asignarse mediante la lectura de una configuración de asignación correspondiente al valor de enfoque, desde la unidad de memorización 22, entre los grupos de configuraciones asignados a la señal de audio por anticipado. El ajuste de un filtro de pasabanda efectivo, o similar, se realiza en el filtro de división de bandas de frecuencias 42 en conformidad con el bloque.
La configuración de asignaciones memorizada en la unidad de memorización 22 puede incluir una configuración para un valor de enfoque distinto de 0.1, 0.5 y 1.0. Sin embargo, puesto que los números de bloques son finitos, están limitadas las configuraciones de asignación que puedan prepararse por anticipado. Por lo tanto, para un valor de enfoque que no se memorice en la unidad de memorización 22, se determina una configuración de asignación interpolando la configuración de asignación de un valor de enfoque más próximo entre los valores de enfoque en torno al valor de enfoque deseado y memorizado en la unidad de memorización 22. El método para una interpolación es, a modo de ejemplo, ajustando una banda de frecuencias a asignarse dividiendo todavía más los bloques o ajustando la amplitud de una componente de frecuencias perteneciente a un bloque determinado. En este último caso, el filtro de división de bandas de frecuencias 42 incluye un controlador de la ganancia.
A modo de ejemplo, en caso de que se asignen tres bloques dados en el valor de enfoque de 0.5 y dos bloques entre los tres bloques se asignen al valor de enfoque de 0.3, en el valor de enfoque de 0.4, uno de banda de frecuencias mitad del bloque restante, que no se asigna en el valor de enfoque de 0.3 es objeto de asignación. Como alternativa, el bloque restante se asigna y solamente se reduce a la mitad la amplitud de su componente de frecuencias. Aunque, en esta realización, a modo de ejemplo, la interpolación lineal se realiza, puede no utilizarse necesariamente la interpolación lineal, en caso de considerar que el valor de enfoque que indica el grado de énfasis es un valor sensual subjetivo sobre la base de la percepción auditiva de los seres humanos. Una regla para la interpolación puede establecerse por anticipado utilizando una tabla de una expresión matemática obtenida realizando un experimento de laboratorio sobre cómo las señales suenan en la práctica, etc. La unidad de control 20 realiza la interpolación en función de su ajuste y aplica el ajuste al filtro de división de bandas de frecuencias 42. Lo que antecede permite establecer el valor de enfoque casi continuamente y permite cambiar continuamente el grado de énfasis en su apariencia en función del desplazamiento del cursor 96.
La configuración de asignación a memorizarse en la unidad de memorización 22 puede incluir varias clases de series de configuraciones de divisiones diferentes. En este caso, en el punto en el tiempo en que se proporcionan los datos musicales por primera vez, se determina que se aplica la configuración de división. Cuando así se determina, la información sobre los datos musicales respectivos puede utilizarse como una pista según se describirá más adelante. La configuración de división se refleja en el filtro de división de bandas de frecuencias 42 asignando, a modo de ejemplo, la unidad de control 20 para establecer la frecuencia máxima y la frecuencia mínima para el filtro de pasabanda, etc.
Qué grupo de configuraciones de asignaciones ha de asignarse a cada señal de audio puede determinarse en
15
25
35
45
55
65
E07790221
19-12-2014
función de la información sobre los datos musicales correspondientes a la señal. La Figura 7 ilustra, a modo de ejemplo, la información sobre datos musicales memorizada en la unidad de memorización 22. La tabla de información de datos musicales 110 incluye un campo de títulos 112 y un campo de grupos de configuraciones 114. El título de una sintonía correspondiente a los datos de audio respectivos se describe en el campo de título 112. Este campo puede sustituirse por un campo para describir otro atributo en tanto que el atributo identifique datos musicales, a modo de ejemplo, identificador ID de los datos musicales o elemento similar.
En el campo del grupo de configuraciones 114 se describe el nombre del identificador ID de un grupo de configuraciones de asignación recomendado para los datos musicales respectivos.
Como una base para seleccionar el grupo de configuraciones recomendado, se puede utilizar una característica de bandas de frecuencias para los datos musicales. A modo de ejemplo, un grupo de configuraciones que asigna una banda de frecuencias característica cuando el valor de enfoque para la señal musical se hace 0.1, es recomendable en este caso. Lo que antecede hace que la componente más importante de una señal de audio sea difícilmente enmascarada, aún cuando la señal no sea objeto de énfasis, por otra señal de audio que tenga el mismo valor de enfoque o por otra señal de audio que tenga un valor de enfoque alto. De este modo, la señal de puede escuchar con más facilidad.
Esta forma de realización puede ponerse en práctica, a modo de ejemplo, normalizando los grupos de configuraciones y sus identificadores IDs y asignando un proveedor o similar, que proporcione los datos musicales, para incorporar un grupo de configuraciones recomendado a los datos musicales como información sobre los datos musicales, etc. Por otro lado, en lugar de nombre o del identificador ID del grupo de configuraciones, se puede utilizar una banda de frecuencias característica como la información a incorporarse a los datos musicales. En este caso, la unidad de control 20 puede efectuar la lectura de la banda de frecuencias característica para los datos musicales respectivos desde el dispositivo de memorización 12 por anticipado, puede seleccionar un grupo de configuraciones más adecuado a esa banda de frecuencias y generar la tabla de información de datos musicales 110 y puede memorizar la tabla en la unidad de memorización 22. Como alternativa, una banda de frecuencias característica puede determinarse sobre la base del género de música, la clase de un instrumento musical o elemento similar y de este modo, se puede seleccionar un grupo de configuraciones.
En caso de que la información a incorporar a los datos musicales sea información sobre la banda de frecuencias característica, la propia información puede memorizarse en la unidad de memorización 22. En este caso, considerando las bandas de frecuencias características de una pluralidad de elementos de datos musicales a reproducirse globalmente, se puede seleccionar una configuración de división óptima en primer lugar y se puede seleccionar una configuración de asignaciones en consecuencia. Además, se puede generar una nueva configuración de división al inicio del proceso, en función de la banda de frecuencias característica. Un procedimiento similar puede aplicarse en caso de determinar por el género o elemento similar.
A continuación, se proporcionará una explicación del caso en donde se cambia el grado de énfasis en filtros que no sean el filtro de división de banda de frecuencias 42. La Figura 8 ilustra una tabla, a modo de ejemplo, que se memoriza en la unidad de memorización 22 y que asocia los valores de enfoque y los ajustes para los filtros respectivos entre sí. La tabla de información de filtros 120 incluye un campo de valores de enfoque 122, un campo de división temporal 124, un campo de modulación 126, un campo de procesos 128 y un campo de ajuste de localización 130. La gama de los valores de enfoque se describe en el campo de valores de enfoque 122. Para cada gama de valores descritos en el campo de valores de enfoque, si el procesamiento se realiza por el filtro de división temporal 44, el filtro de modulación 46 o el filtro de procesamiento 48, se introduce “O” y si no se realiza el proceso, se introduce “X” en el campo de división temporal 124, el campo de modulación 126 o el campo de proceso 128, respectivamente. Una notación distinta de “O” o “X” puede utilizarse también en tanto que identifique si realizar, o no, el procesamiento de filtrado.
En el campo de ajuste de localización 130 se indica qué posición de la imagen de sonido ha de proporcionarse, por “central”, “a la derecha/ a la izquierda”, “extrema” o similar, para cada gama de valores que se describe en el campo de valores de enfoque. El cambio del grado de énfasis puede detectarse fácilmente también sobre la base de la posición de las imágenes de sonidos, localizando la imagen de sonido en el centro cuando el valor de enfoque es alto y desplazando la imagen de sonido alejándose del centro cuando el valor de enfoque se hace más bajo, según se ilustra en la Figura 8. Cuando se efectúa la localización, el lado derecho y el lado izquierdo pueden definirse y disponerse, de forma aleatoria, o pueden definirse sobre la base de la posición del icono de datos musicales en la pantalla. Además, la dirección, desde la que la suena la señal de audio que será objeto de énfasis, puede cambiarse en correspondencia con el desplazamiento del cursor. Esta operación puede ponerse en práctica definiendo el ajuste del campo de ajuste de localización 130 como no válido, de modo que la posición de la imagen de sonido no cambie en función del valor de enfoque y proporcionando señales de audio respectivas con la posición de su imagen de sonido correspondiente a la posición del icono sobre una base constante. La tabla de información de filtros 120 puede incluir, además, información sobre si seleccionar, o no, el filtro de división de bandas de frecuencias 42.
Si existe una pluralidad de procesos que pueden realizarse por el filtro de modulación 46 o el filtro de procesamiento 48, o el grado de los procesos puede ajustarse utilizando un parámetro interior, los detalles de procesamiento
15
25
35
45
55
65
E07790221
19-12-2014
específicos o los parámetros internos pueden indicarse en los campos respectivos. A modo de ejemplo, si el momento en que una señal de audio alcanza su valor máximo ha de cambiarse en función del grado de énfasis en el filtro de división temporal 44, ese instante se describe en el campo de división temporal 124. La tabla de información de filtros 120 se crea, por anticipado, mediante un experimento de laboratorio o similar, mientras se considera cómo los filtros se afectan entre sí. De esta manera, un efecto sonoro adecuado para las señales de audio no objeto de énfasis se selecciona con esta operación o se impide que se aplique el procesamiento excesivamente a las señales de audio que suenan ya separadas. Una pluralidad de tablas de información de filtros 120 puede prepararse de modo que se seleccione una tabla óptima en función de la información sobre datos musicales.
Cada vez que el valor de enfoque atraviesa el límite de las gamas indicas en el campo de valores de enfoque 122, la unidad de control 20 hace referencia a la tabla de información de filtros 120 y los refleja en los parámetros internos de los filtros respectivos, en el ajuste del demultiplexor o similares. Lo que antecede permite que las señales de audio suenen de forma más distinta al mismo tiempo que refleja el grado de énfasis. A modo de ejemplo, una señal de audio con un valor de enfoque grande suena con claridad desde el centro y una señal de audio con un valor de enfoque pequeño suena atenuada desde el extremo.
La Figura 9 es un diagrama de flujo que ilustra la operación del aparato de procesamiento de audio 16 en conformidad con la presente forma de realización. En primer lugar, el usuario selecciona e introduce, a través de la unidad de entrada 18, una pluralidad de datos de audio que desea reproducir simultáneamente, entre los datos de audio memorizados en el dispositivo de memorización 12. Si la entrada para la selección se detecta en la unidad de entrada 18 (Y en S10), la reproducción de los datos musicales, varios procesos de filtrado y un proceso de mezclan se realizan bajo el control de la unidad de control 20 y la unidad de salida 30 proporciona un resultado en consecuencia (S12). Además, la configuración de división de bloques, a utilizarse en el filtro de división de bandas de frecuencias 42, se selecciona con esta operación y se asignan los grupos de configuraciones de asignación a las señales de audio respectivas, a continuación, se establece la configuración para el filtro de división de bandas de frecuencias 42. El ajuste inicial para otros filtros se realiza en una manera similar. Las señales de salida, en esta etapa, pueden ecualizarse en el grado de énfasis estableciendo un mismo valor para todos los valores de enfoque. En este caso operativo, se oyen señales de audio respectivas por el usuario de forma uniforme aunque estén separadas.
Al mismo tiempo, la pantalla de entrada 90 se visualiza en la unidad de entrada 18 y las señales de salida mezcladas son objeto de salida continua mientras se controla si el usuario desplaza, o no, el cursor 96 en la pantalla (N en S14, S12). Si el cursor 96 se desplaza (Y en S14), la unidad de control 20 actualiza el valor de enfoque para cada señal de audio en conformidad con dicho desplazamiento (S16), efectúa la lectura de la configuración de asignación de los bloques correspondientes al valor desde la unidad de memorización 22 y actualiza el ajuste del filtro de división de bandas de frecuencias 42 (S18). Desde la unidad de memorización 22, la unidad de control 20, además, efectúa la lectura de la información sobre filtros que realizan el procesamiento e información sobre detalles de procesamiento en los filtros respectivos o sobre parámetros internos, estableciéndose la información para la gama de los valores de enfoque, actualizando, a continuación, el ajuste de cada filtro cuando sea adecuado (S20, S22), en consecuencia. El procesamiento desde la etapa S14 a la etapa S22 puede realizarse en paralelo con la salida de las señales de audio en la etapa S12.
Estos procesos se repiten cada vez que se desplaza el cursor (N en S24, S12-22). Esta operación puede poner en práctica una forma de realización que permite que varíe el grado de énfasis para las señales de audio respectivas, alta o baja y varía también el grado con el tiempo en función del desplazamiento del cursor 96. En consecuencia, el usuario puede obtener una sensación como si la fuente de la señal de audio se alejara o aproximara en función del desplazamiento del cursor 96. A continuación, finaliza todo el procesamiento, a modo de ejemplo, en caso de que el usuario seleccione el botón “stop” 94 en la pantalla de entrada 90 (Y en S24).
En conformidad con la presente forma de realización anteriormente descrita, se aplica un proceso de filtrado a cada señal de audio de modo que las señales puedan escucharse por separado cuando estén mezcladas. Para ser más precisos, la información de segregación se proporciona al nivel del oído interno, distribuyendo las bandas de frecuencias a las señales de audio respectivas o la información sobre segregación se proporciona al nivel del cerebro proporcionando periódicamente los cambios correspondientes, aplicando un tratamiento de procesamiento del sonido o proporcionando diferentes posiciones de la imagen de sonido a algunas o la totalidad de las señales de audio. De esta manera, la información sobre segregación puede obtenerse al nivel del oído interno y al nivel del cerebro, a la vez, cuando se mezclan señales de audio respectivas y a la larga, las señales son fácilmente separadas y reconocidas. En consecuencia, los propios sonidos pueden observarse simultáneamente como si se observaran miniaturas visualizadas, con lo que se hace posible comprobar los contenidos musicales o elementos similares con facilidad si dedicar demasiado tiempo incluso en caso de comprobación de numerosos contenidos.
Además, el grado de énfasis para cada señal de audio se cambia en conformidad con la presente forma de realización. Para ser más precisos, dependiendo del grado de énfasis, se aumentan las bandas de frecuencias a asignarse, se realiza el procesamiento de filtrado con diversidad de intensidad o se cambia el proceso de filtrado a aplicar. Esto permite que una señal de audio, con alto grado de énfasis, suene de forma más distintiva que otras señales de audio. En este caso también se tiene cuidado, a modo de ejemplo, para asegurar que una banda de
10
15
20
25
30
35
40
45
50
55
60
65
E07790221
19-12-2014
frecuencias a asignarse a las señales de audio, con bajo grado de énfasis, no se utilice de modo que no se cancelen las señales de audio con bajo grado de énfasis. En consecuencia, una señal de nota de audio puede oírse de forma distintiva como si se estuviera enfocando mientras que puede oírse, respectivamente, una pluralidad de señales de audio. Aplicando lo que antecede de una manera variable con el tiempo, en función del desplazamiento del cursor realizado por el usuario, cambia la manera en que se escucha el sonido que pueda generarse en función de la distancia desde el cursor como si el punto de visión se desplazara sobre las miniaturas visualizadas. Por lo tanto, se puede seleccionar un contenido deseado con facilidad y de forma intuitiva a partir de un gran número de contenidos de música o similares.
Lo que antecede es una explicación basada en las formas de realización a modo de ejemplo. Estas formas de realización están previstas para ser solamente ilustrativas y será evidente para los expertos en esta técnica que se pueden desarrollar varias modificaciones para constituir elementos y procesos.
A modo de ejemplo, en conformidad con la presente forma de realización, se cambia también el grado de énfasis al mismo tiempo que se permite que las señales de audio se escuchen por separado. Sin embargo, dependiendo de la finalidad, no se puede cambiar el grado de énfasis y todas las señales de audio pueden sonar casi uniformemente. Una forma de realización con un grado de énfasis uniforme se pone en práctica por la configuración similar, a modo de ejemplo, invalidando el ajuste de los valores de enfoque o adoptando un valor de enfoque fijo. Esto permite también que se escuchen por separado una pluralidad de señales de audio y hace posible captar numerosos contenidos musicales o similares, con facilidad.
Además, en conformidad con la presente forma de realización, se proporciona la explicación mientras se asume principalmente el caso de apreciación de contenidos musicales. Sin embargo, la presente invención no está limitada en este caso. A modo de ejemplo, el aparato de procesamiento de audio, ilustrado en la forma de realización, puede proporcionarse en el sistema de audio de un receptor de TV. En este caso, aunque se visualicen imágenes de múltiples canales en conformidad con la instrucción del usuario para el receptor de TV, los sonidos para los canales respectivos se mezclan y se proporcionan, a la salida, después de que se realice un proceso de filtrado. De esta manera, los sonidos pueden apreciarse simultáneamente mientras se distinguen entre otros, además de las imágenes de múltiples canales. Si el usuario selecciona un canal en este estado, se puede proporcionar énfasis al sonido del canal seleccionado, mientras se permite oír sonidos de otros canales. Además, incluso visualizando la imagen de un canal único, cuando se escucha para la señal de audio principal y la segunda señal de audio simultáneamente, puede cambiarse el grado de énfasis en una forma escalonada. De este modo, un sonido que desea oírse principalmente puede ser objeto de énfasis sin que los sonidos se cancelen entre sí.
Además, según se ilustra en la Figura 6, en función del filtro de división de bandas de frecuencias de la presente forma de realización, se proporciona una explicación, a modo de ejemplo, en donde la configuración de asignación para cada valor de enfoque se fija aplicando una regla de que un bloque asignado a una señal de audio de audio con el valor de enfoque de 0.1 no se asigne a una señal de audio con un valor de enfoque de 1.0. Por otro lado, durante un periodo o en un estado en donde la señal de audio con el valor de enfoque de 0.1 no esté presente, todos los bloques a asignarse a la señal de audio con el valor de enfoque de 0.1 pueden asignarse a la señal de audio con el valor de enfoque de 1.0.
A modo de ejemplo, según se ilustra en la Figura 6, en caso de que solamente se seleccionen, para reproducirse, tres elementos de datos musicales, el "grupo de configuraciones A", el "grupo de configuraciones B" y el "grupo de configuraciones C" pueden asignarse a las tres señales de audio correspondientes a los datos, respectivamente. De este modo, la configuración de asignación para el valor de enfoque de 1.0 y la configuración para el valor de enfoque de 0.1, ambas pertenecientes a un mismo grupo de configuraciones, nunca coexisten. En este caso, a la señal de audio a la que se asigna el grupo de configuraciones A, un bloque en la gama de más baja frecuencia, que ha de asignarse en el valor de enfoque de 0.1, puede asignarse también al mismo tiempo cuando el valor de enfoque es
1.0. De esta manera, la configuración de asignación puede establecerse de forma variable en función de, a modo de ejemplo, el número de señales de audio correspondientes a los valores de enfoque respectivos o similares. De esta manera, el número de bloques que se asignan a las señales de audio, objeto de énfasis, puede aumentarse en la medida que sea posible en tanto que puedan reconocerse las señales de audio objeto de énfasis. De este modo, la calidad de sonido de las señales de audio objeto de énfasis puede aumentarse.
Además, la integridad de la banda de frecuencias puede asignarse a la señal de audio objeto de énfasis. De esta manera, esa señal de audio es objeto de un énfasis adicional y se aumenta, además, su calidad. También en este caso, es posible permite que otras señales de audio sean reconocidas por separado proporcionando la información de segregación utilizando un filtro distinto al filtro de división de bandas de frecuencias.
Aplicabilidad industrial
Según se indicó con anterioridad, la presente invención es aplicable a dispositivos electrónicos tales como aparatos de reproducción de audio, ordenadores, receptores de TV o dispositivos similares.

Claims (11)

  1. 5
    15
    25
    35
    45
    55
    65
    E07790221
    19-12-2014
    REIVINDICACIONES
    1. Un aparato de procesamiento de audio (16) que reproduce simultáneamente una pluralidad de señales de audio, que comprende:
    una unidad de procesamiento de audio (24) operativa para realizar un procesamiento predeterminado sobre señales de audio respectivas que se suministran a la entrada independientemente de modo que un usuario oiga la pluralidad de señales de audio por separado con el sentido auditivo cuando se mezclan y
    un mezclador descendente (26) operativo para mezclar la pluralidad de señales de audio después del procesamiento predeterminado efectuado por la unidad de procesamiento de audio (24) para proporcionar una señal de audio de salida que tiene un número predeterminado de canales, en donde
    la unidad de procesamiento de audio (24) comprende un filtro de división de banda de frecuencias (42) operativo para asignar un bloque seleccionado entre una pluralidad de bloques creados dividiendo en bandas de frecuencias cada una de la pluralidad de señales de audio de modo que las bandas de frecuencias correspondientes a bloques asignados a cada una de la pluralidad de señales de audio no se enmascaren entre sí y operativa para extraer una componente de frecuencia que pertenece al bloque asignado desde cada señal de audio de entrada y
    el filtro de división de banda de frecuencias (42) asigna una pluralidad no contigua de bloques a al menos una de entre la pluralidad de señales de audio de entrada.
  2. 2.
    El aparato de procesamiento de audio (16) según la reivindicación 1, en donde la pluralidad de bloques se obtienen dividiendo una banda de frecuencias utilizando una de las frecuencias límites de bandas críticas de Bark.
  3. 3.
    El aparato de procesamiento de audio (16) según la reivindicación 1 que comprende, además:
    una unidad de extracción de banda característica (20) operativa para determinar un bloque que debe asignarse con prioridad, entre la pluralidad de bloques, para cada una de entre la pluralidad de señales de audio, en donde
    el filtro de división de banda de frecuencias (42) asigna bloques distintos al bloque que se asigna a una determinada señal de audio predeterminada por la unidad de extracción de banda característica con prioridad, a otras señales de audio.
  4. 4.
    El aparato de procesamiento de audio (16) según la reivindicación 3, en donde la unidad de extracción de banda característica (20) lee una información predeterminada sobre señales de audio respectivas desde un dispositivo de memorización externo y en función de esa información, determina un bloque a asignarse a señales de audio respectivas con prioridad.
  5. 5.
    El aparato de procesamiento de audio (16) según la reivindicación 1, en donde la unidad de procesamiento de audio (24) comprende, además, un filtro de división temporal (44) operativo para modular las amplitudes respectivas de la pluralidad de señales de audio temporalmente en un periodo común de modo que difieran las fases.
  6. 6.
    El aparato de procesamiento de audio (16) según la reivindicación 5, en donde el filtro de división temporal (44) modula cada una de la pluralidad de señales de audio temporalmente, de modo que los instantes en los que la amplitud de las señales de audio respectivas alcanzan su máximo y su mínimo tengan una anchura temporal predeterminada y hace que difieran las fases de modo que, en un instante cuando la amplitud de una determinada señal de audio alcanza su mínimo, la amplitud de otra señal de audio alcanza su máximo.
  7. 7.
    El aparato de procesamiento de audio (16) según la reivindicación 1, en donde la unidad de procesamiento de audio (24) comprende, además, un filtro de modulación (46) operativo para aplicar un procesamiento de sonido predeterminado, en un periodo predeterminado, a al menos una de la pluralidad de señales de audio.
  8. 8.
    El aparato de procesamiento de audio (16) según la reivindicación 1, en donde la unidad de procesamiento de audio (24) comprende, además, un filtro de procesamiento (48) operativo para aplicar un tratamiento de procesamiento acústico predeterminado a al menos una de la pluralidad de señales de audio.
  9. 9.
    El aparato de procesamiento de audio (16) según la reivindicación 1, en donde la unidad de procesamiento de audio (24) comprende, además, un filtro de ajuste de localización (50) operativo para proporcionar imágenes sonoras diferentes a la pluralidad de señales de audio, respectivamente.
  10. 10.
    Un método de procesamiento de audio que comprende:
    asignar una banda de frecuencias a cada una de una pluralidad de señales de audio de entrada, de modo que las bandas de frecuencias no se enmascaren entre sí,
    15
    E07790221
    19-12-2014
    extraer, desde cada señal de audio de entrada, una componente de frecuencia que pertenece a la banda de frecuencias asignada y
    mezclar una pluralidad de señales de audio que comprenden las componentes de frecuencias extraídas desde 5 señales de audio de entrada respectivas para proporcionar una señal de audio de salida que tiene un número predeterminado de canales.
  11. 11. Un producto de programa informático que comprende:
    10 un módulo que se refiere a una memoria que almacena configuraciones de bloques, seleccionados entre una pluralidad de bloques correspondiente a bandas de frecuencias y asigna una de las configuraciones a cada una de una pluralidad de señales de audio de entrada de modo que las bandas de frecuencias que corresponden a bloques asignados a cada una de una pluralidad de señales de audio de entrada no se enmascaren entre sí,
    15 un módulo que extrae componentes de frecuencias que pertenecen a los bloques contenidos en la configuración asignada, desde señales de audio de entrada respectivas para formar una pluralidad de señales de audio que comprenden las componentes de frecuencias extraídas desde las respectivas señales de audio de entrada y
    un módulo que mezcla dicha pluralidad de señales de audio que comprende componentes de frecuencias extraídas
    20 desde las señales de audio de entrada respectivas para proporcionar una señal de salida que tenga un número predeterminado de canales.
    16
ES07790221.1T 2006-11-27 2007-06-26 Procesador de audio y método de procesamiento de audio Active ES2526740T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006319368A JP4823030B2 (ja) 2006-11-27 2006-11-27 音声処理装置および音声処理方法
JP2006319368 2006-11-27
PCT/JP2007/000699 WO2008065731A1 (fr) 2006-11-27 2007-06-26 Processeur audio et procédé de traitement audio

Publications (1)

Publication Number Publication Date
ES2526740T3 true ES2526740T3 (es) 2015-01-14

Family

ID=39467534

Family Applications (1)

Application Number Title Priority Date Filing Date
ES07790221.1T Active ES2526740T3 (es) 2006-11-27 2007-06-26 Procesador de audio y método de procesamiento de audio

Country Status (6)

Country Link
US (1) US8121714B2 (es)
EP (1) EP2088590B1 (es)
JP (1) JP4823030B2 (es)
CN (1) CN101361124B (es)
ES (1) ES2526740T3 (es)
WO (1) WO2008065731A1 (es)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4785909B2 (ja) * 2008-12-04 2011-10-05 株式会社ソニー・コンピュータエンタテインメント 情報処理装置
JP5324965B2 (ja) * 2009-03-03 2013-10-23 日本放送協会 明瞭度改善機能付再生装置
JP5643821B2 (ja) * 2010-06-18 2014-12-17 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 音声制御装置及び音声制御方法
JP5658506B2 (ja) * 2010-08-02 2015-01-28 日本放送協会 音響信号変換装置及び音響信号変換プログラム
US8903525B2 (en) 2010-09-28 2014-12-02 Sony Corporation Sound processing device, sound data selecting method and sound data selecting program
EP2463861A1 (en) * 2010-12-10 2012-06-13 Nxp B.V. Audio playback device and method
WO2012088336A2 (en) * 2010-12-22 2012-06-28 Genaudio, Inc. Audio spatialization and environment simulation
EP2571280A3 (en) 2011-09-13 2017-03-22 Sony Corporation Information processing device and computer program
US10107887B2 (en) * 2012-04-13 2018-10-23 Qualcomm Incorporated Systems and methods for displaying a user interface
US9195431B2 (en) * 2012-06-18 2015-11-24 Google Inc. System and method for selective removal of audio content from a mixed audio recording
US9338552B2 (en) 2014-05-09 2016-05-10 Trifield Ip, Llc Coinciding low and high frequency localization panning
RU2696952C2 (ru) * 2014-10-01 2019-08-07 Долби Интернешнл Аб Аудиокодировщик и декодер
JP6478613B2 (ja) * 2014-12-16 2019-03-06 株式会社東芝 受信装置、通信システム、および干渉検出方法
CN106034274A (zh) * 2015-03-13 2016-10-19 深圳市艾思脉电子股份有限公司 基于声场波合成的3d音响装置及其合成方法
EP3264799B1 (en) * 2016-06-27 2019-05-01 Oticon A/s A method and a hearing device for improved separability of target sounds
JP7260100B2 (ja) * 2018-04-17 2023-04-18 国立大学法人電気通信大学 ミキシング装置、ミキシング方法、及びミキシングプログラム
JP7260101B2 (ja) 2018-04-19 2023-04-18 国立大学法人電気通信大学 情報処理装置、これを用いたミキシング装置、及びレイテンシ減少方法
EP3783913A4 (en) 2018-04-19 2021-06-16 The University of Electro-Communications MIXING DEVICE, MIXING PROCESS AND MIXING PROGRAM
US11335357B2 (en) * 2018-08-14 2022-05-17 Bose Corporation Playback enhancement in audio systems
US12003955B2 (en) * 2020-12-01 2024-06-04 Samsung Electronics Co., Ltd. Display apparatus and control method thereof

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3032286C2 (de) * 1979-08-31 1982-12-16 Nissan Motor Co., Ltd., Yokohama, Kanagawa Akustische Warneinrichtung für ein mit einem Tonwiedergabegerät ausgerüstetes Kraftfahrzeug
JPH03236691A (ja) * 1990-02-14 1991-10-22 Hitachi Ltd テレビジョン受信機用音声回路
JPH1031500A (ja) 1996-07-15 1998-02-03 Atr Ningen Joho Tsushin Kenkyusho:Kk 可変レート符号化方法および可変レート符号化装置
JPH10256858A (ja) * 1997-03-10 1998-09-25 Fujitsu Ltd 音の選択装置
JP2000075876A (ja) 1998-08-28 2000-03-14 Ricoh Co Ltd 文書読み上げシステム
JP4672823B2 (ja) * 1998-12-18 2011-04-20 ソニー株式会社 音声データ選択方法、音声出力装置
JP2001095081A (ja) * 1999-09-21 2001-04-06 Alpine Electronics Inc 案内音声補正装置
AU2002358240A1 (en) * 2002-01-23 2003-09-02 Koninklijke Philips Electronics N.V. Mixing system for mixing oversampled digital audio signals
JP2003233387A (ja) * 2002-02-07 2003-08-22 Nissan Motor Co Ltd 音声報知装置
DE10242558A1 (de) * 2002-09-13 2004-04-01 Audi Ag Audiosystem insbesondere für ein Kraftfahrzeug
EP1494364B1 (en) * 2003-06-30 2018-04-18 Harman Becker Automotive Systems GmbH Device for controlling audio data output
CN1662100B (zh) * 2004-02-24 2010-12-08 三洋电机株式会社 低音强调电路以及低音强调处理方法
JP2006019908A (ja) * 2004-06-30 2006-01-19 Denso Corp 車両用報知音出力装置及びプログラム
JP4493530B2 (ja) * 2005-03-25 2010-06-30 クラリオン株式会社 車載音響処理装置、および、ナビゲーション装置
DE102005061859A1 (de) * 2005-12-23 2007-07-05 GM Global Technology Operations, Inc., Detroit Sicherheitseinrichtung für ein Fahrzeug mit einer Klangregeleinrichtung
JP2006180545A (ja) * 2006-02-06 2006-07-06 Fujitsu Ten Ltd 車載用音響再生装置

Also Published As

Publication number Publication date
JP4823030B2 (ja) 2011-11-24
WO2008065731A1 (fr) 2008-06-05
JP2008135892A (ja) 2008-06-12
US20080269930A1 (en) 2008-10-30
EP2088590A1 (en) 2009-08-12
CN101361124A (zh) 2009-02-04
EP2088590A4 (en) 2013-08-14
EP2088590B1 (en) 2014-12-10
CN101361124B (zh) 2011-07-27
US8121714B2 (en) 2012-02-21

Similar Documents

Publication Publication Date Title
ES2526740T3 (es) Procesador de audio y método de procesamiento de audio
US8204614B2 (en) Audio processing apparatus and audio processing method
US11075609B2 (en) Transforming audio content for subjective fidelity
US10623879B2 (en) Method of editing audio signals using separated objects and associated apparatus
Heller et al. Navigatone: Seamlessly embedding navigation cues in mobile music listening
US9681212B2 (en) Headphones with multiple equalization presets for different genres of music
US20220386062A1 (en) Stereophonic audio rearrangement based on decomposed tracks
JP2017069848A (ja) 音響処理装置
US20170069305A1 (en) Method and apparatus for audio processing
Kendall et al. The artistic play of spatial organization: Spatial attributes, scene analysis and auditory spatial schemata
US20180242072A1 (en) Headphones With Multiple Equalization Presets For Different Genres Of Music
CN103632692B (zh) 多轨录音机
CN109792578A (zh) 信号处理设备和方法、以及程序
JP2013172231A (ja) オーディオミキシング装置
JP2016174225A (ja) 表示制御装置及びミキシングコンソール
KR20050117564A (ko) 제어 파라미터들의 조합을 조정하기 위한 시스템
WO2024004651A1 (ja) 音声再生装置、音声再生方法及び音声再生プログラム
US10966041B2 (en) Audio triangular system based on the structure of the stereophonic panning
JP2000217186A (ja) スピ―カ―・シミュレ―タおよびミキサ―
GB2561594A (en) Spatially extending in the elevation domain by spectral extension
JP2007529040A (ja) 制御パラメータの組合せを調整するシステム