ES2384900T3 - Método para reproducir un subtítulo basado en texto desde un soporte de almacenamiento de información usando informaciones de estilo seleccionables - Google Patents

Método para reproducir un subtítulo basado en texto desde un soporte de almacenamiento de información usando informaciones de estilo seleccionables Download PDF

Info

Publication number
ES2384900T3
ES2384900T3 ES08160687T ES08160687T ES2384900T3 ES 2384900 T3 ES2384900 T3 ES 2384900T3 ES 08160687 T ES08160687 T ES 08160687T ES 08160687 T ES08160687 T ES 08160687T ES 2384900 T3 ES2384900 T3 ES 2384900T3
Authority
ES
Spain
Prior art keywords
style
information
text
group
script
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES08160687T
Other languages
English (en)
Inventor
Man-Seok Kang
Seong-Jin Moon
Kil-Soo Jung
Sung-Wook Park
Hyun-Kwon Chung
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=36577301&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2384900(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Application granted granted Critical
Publication of ES2384900T3 publication Critical patent/ES2384900T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B17/00Monitoring; Testing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/385Transceivers carried on the body, e.g. in helmets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43074Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8545Content authoring for generating interactive applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • H04N21/8583Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by creating hot-spots
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • H04N5/9206Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being a character code signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8233Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a character code signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/385Transceivers carried on the body, e.g. in helmets
    • H04B2001/3861Transceivers carried on the body, e.g. in helmets carried in a hand or on fingers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • H04N5/9205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being at least another television signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Circuits (AREA)
  • Communication Control (AREA)
  • Television Systems (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

Método para reproducir un subtítulo basado en texto desde un soporte de almacenamiento de información que almacena un conjunto de estilos e información de diálogo, comprendiendo el método: leer el conjunto de estilos y la información de diálogo desde el soporte de almacenamiento de información; y visualizar el subtítulo basado en texto usando el conjunto de estilos y la información de diálogo, en el que la información de diálogo comprende información de texto de script del subtítulo, y el conjunto de estilos comprende una pluralidad de grupos de estilos, comprendiendo cada grupo de estilos una primera información de estilo que se usa para reconstruir y visualizar la información de texto de script a través de un aparato de procesado de subtítulos de texto, y una segunda información de estilo que se usa para reconstruir y visualizar la información de texto de script a través del aparato de procesado de subtítulos de texto, caracterizado porque la información de diálogo comprende además un identificador correspondiente a un grupo de estilos de entre la pluralidad de grupos de estilos, la información de texto de script se reconstruye usando la primera información de estilo incluida en el grupo de estilos indicado por el identificador correspondiente al grupo de estilos, y cuando un usuario selecciona la segunda información de estilo incluida en el grupo de estilos indicado, para cambiar el estilo de salida de la información de texto de script, se forma información de estilo modificada mediante la adición de por lo menos uno de entre los valores correspondientes a tamaño, posición y dirección incluidos en la segunda información de estilo seleccionada, a un valor respectivo incluido en la primera información de estilo del grupo de estilos indicado, y la información de estilo modificada se usa para reconstruir la información de texto de script.

Description

Método para reproducir un subtítulo basado en texto desde un soporte de almacenamiento de información usando informaciones de estilo seleccionables.
Campo técnico
La presente invención se refiere a un subtítulo, y más particularmente, a un subtítulo basado en texto, y a un método para procesar el subtítulo.
Antecedentes de la técnica
Un subtítulo convencional se genera en forma de una imagen de mapa de bits y se incluye en un flujo continuo MPEG. Puesto que el subtítulo tiene un formato de imagen de mapa de bits, la generación del subtítulo resulta incómoda, y un usuario debe aceptar de manera pasiva una variedad de atributos del subtítulo definido y proporcionado por un generador de subtítulos. Es decir, un usuario no puede seleccionar el estilo, del subtítulo, tal como el color de texto, el tamaño del texto, o la dirección de salida del texto. Por consiguiente, un usuario visiona un subtítulo con un estilo monótono.
En general, un subtítulo de una película usa algunos formatos típicos sin cambios frecuentes en el estilo de salida, tales como cambios en el color del texto, la posición del texto, el tamaño del texto, y la forma del texto. Para reconstruir texto, cada carácter necesita diversa información en relación con su color, tamaño, posición y forma. Si esta información de reconstrucción se añade a cada frase de un subtítulo, esto proporciona la ventaja de que se puede especificar un estilo diferente para cada frase. No obstante, en el script de una película que usa solamente algunos estilos típicos, la ventaja de la capacidad de proporcionar varios estilos queda superada por la desventaja de que se incrementan la cantidad de datos requeridos para un subtítulo y la cantidad de datos a procesar.
“Understanding SAMI 1.0”, XP00790247 de Microsoft Corporation, describe un Sistema de Subtítulos basado en web. Los documentos WO2004/036574A y WO2005/083708A son potencialmente relevantes según el Artículo 54(3) CPE.
Exposición de la invención
Solución técnica
La presente invención proporciona un método de procesado de subtítulos mediante el cual se puede dar salida al subtítulo según una variedad de formas.
Efectos ventajosos
Según la presente invención, el estilo de salida de un subtítulo se define mediante un grupo de estilos y un estilo incluido en un grupo de estilos, y cada frase de un script de una película especifica un grupo de estilos o estilo predefinido tal que la cantidad de datos correspondiente a un subtítulo y la cantidad de datos a procesar cuando se da salida al subtítulo se puede reducir considerablemente.
Además, especificando el formato de salida de un subtítulo en forma de un grupo de estilos o un estilo, el formato de salida no puede ser cambiado completamente por un usuario, y se puede reflejar de manera eficaz la intención de un generador. Además, un usuario puede seleccionar un estilo o un grupo de estilos de tal manera que el usuario puede seleccionar un estilo de salida deseado.
Descripción de los dibujos
La figura 1 es un diagrama que ilustra la estructura de un archivo de subtítulo basado en texto de acuerdo con una forma de realización de la presente invención;
la figura 2 es un diagrama que ilustra información requerida para reconstruir texto de script, y una salida de texto reconstruida de acuerdo con la información según una forma de realización de la presente invención;
la figura 3A ilustra un documento de marcado que define grupos de estilos de acuerdo con una forma de realización de la presente invención;
la figura 3B ilustra otro documento de marcado que define grupos de estilos de acuerdo con una forma de realización de la presente invención;
la figura 4A ilustra un documento de marcado en el cual se define información de estilo básica en un grupo de estilos de acuerdo con una forma de realización de la presente invención;
la figura 4B ilustra otro documento de marcado en el cual se graba información de estilo básica en un grupo de estilos de acuerdo con una forma de realización de la presente invención;
la figura 5A ilustra un ejemplo de una etiqueta de lenguaje de marcado usada para visualizar un subtítulo según una forma de realización de la presente invención;
la figura 5B ilustra otro ejemplo de una etiqueta de lenguaje de marcado usada para visualizar un subtítulo según una forma de realización de la presente invención;
la figura 6A ilustra una relación entre información de diálogo e información de presentación según una forma de realización de la presente invención;
la figura 6B ilustra otra relación entre información de diálogo e información de presentación según una forma de realización de la presente invención;
la figura 7A es un diagrama para ilustrar cómo se cambia un estilo mediante una orden de cambios de estilos según una forma de realización de la presente invención;
la figura 7B es un diagrama para ilustrar cómo se cambia un grupo de estilos mediante una orden de cambio de grupo de estilos según una forma de realización de la presente invención;
la figura 8A es un diagrama que ilustra cómo se selecciona información de estilo requerida para reconstruir cada elemento de script, para información de presentación formada tal como se muestra en la figura 4A;
las FIGs. 8B y 8C son diagramas que ilustran cómo se selecciona información de estilo requerida para reconstruir cada elemento de script, para información de presentación formada tal como se muestra en la figura 4B;
la figura 9 es un diagrama de bloques de un aparato de procesado de subtítulos basados en texto según una forma de realización de la presente invención; y
la figura 10 es un diagrama de flujo que ilustra un método de procesado de subtítulos basados en texto según una forma de realización de la presente invención.
Modo óptimo
Según la invención, se proporciona un método tal como se expone en la reivindicación adjunta. A partir de la descripción se pondrán de manifiesto otras características.
Modo de poner en práctica la invención
A continuación se hará referencia detalladamente a las formas de realización de la presente invención, cuyos ejemplos se ilustran en los dibujos adjuntos, en donde los números de referencia iguales hacen referencia a los mismos elementos en todos ellos. Las formas de realización se describen a continuación para explicar la presente invención en referencia a las figuras.
En referencia a la figura 1, un archivo de subtítulo basado en texto 100 incluye información de diálogo 110, información de presentación 120, y metadatos 130A y 130B.
La información de diálogo 110 incluye texto de script, el tiempo de inicio de salida del texto, el tiempo final de salida, información de grupo de estilos o estilo a usar para reconstruir texto, información de efectos de cambio de texto tal como fundido de entrada/fundido de salida, y un código de formateo para texto.
El código de formateo incluye código para expresar texto en negrita, código para expresar texto en cursiva, código para subrayar, código para indicar un cambio de línea, y o similares.
La información de presentación 120 incluye información de estilos a usar para reconstruir texto de script y se forma con una pluralidad de grupos de estilos. Un grupo de estilos es un conjunto de estilos en los cuales se graba información de estilo.
Un estilo incluye información a usar para reconstruir y dar salida a texto de script en una pantalla. Entre los ejemplos de dicha información se encuentran el nombre de un estilo, fuentes, colores del texto, colores de fondo, tamaño del texto, una región de salida del texto, la posición de inicio de salida del texto, una dirección de salida, un método de alineación, y/o similares.
En función de qué información se defina como estilo y como grupos de estilos, el alcance de los atributos que pueda
cambiar un usuario varía, y a continuación se explicará un método para especificar información de estilo.
Los metadatos 130A y 130B son información adicional referente a imágenes en movimiento, e incluyen información requerida para realizar funciones adicionales diferentes a dar salida a un subtítulo.
La figura 2 es un diagrama que ilustra información requerida para reconstruir texto de script, y una pantalla reconstruida y a la que se ha dado salida de acuerdo con la información.
La información de región de salida (l, t, w, h) 210 indica una región en la que se va a dar salida a texto, e indica que la región tiene coordenadas (l, t) como posición de inicio, con una anchura w y una altura h. La información de posición de inicio de salida (x, y) 220 indica un punto de referencia cuando se da salida a texto en la pantalla, e indica que el punto de referencia debería estar en la región (l, t, w, h). La información de alineación de texto 222 especifica el método de alineación del texto. El texto puede estar justificado a la izquierda, centrado o justificado a la derecha. Cuando el texto está justificado a la izquierda, se extiende hacia la derecha desde la posición de inicio de salida (x,y). Cuando el texto está centrado, el mismo se centra en torno a la posición de inicio de salida (x,y). Cuando el texto está justificado a la derecha, se extiende hacia la izquierda desde la posición de inicio de salida (x,y). En la figura 2, se muestra un ejemplo en el cual se da salida al texto de un modo justificado a la izquierda.
La información de tamaño de fuente 230 indica el tamaño del texto al que se va a dar salida. La información de altura de línea 240 indica el espaciado entre líneas del texto. La información de color de fondo 250 define el color de fondo de la región de salida (l, t, w, h). La información de color de texto 260 define el color del texto al que se va a dar salida. Un nombre de fuente 270 especifica la fuente a usar para la reconstrucción del texto.
En la información de diálogo 110 se incluyen un código de formateo 280 y datos de caracteres 290. El código de formateo 280 puede incluir código para cambios de línea, negrita, cursiva, y subrayado de texto, y los datos de caracteres 290 son información de texto de script a visualizar en forma del subtítulo. La dirección de salida del texto se puede definir como (izquierda->derecha, superior->inferior) o (superior->inferior, derecha->izquierda). En la figura 2, la dirección de salida es (izquierda->derecha, superior->inferior). La diversa información antes descrita, excluyendo el código de formateo 280 y los datos de caracteres 290, está incluida en la información de presentación
120.
Existe una variedad de métodos para expresar una información requerida para la reconstrucción de texto en un subtítulo basado en texto. Definiendo una estructura en la cual se graba cada elemento de información, se puede formar una estructura de formato binario, o se puede usar un formato de marcado correspondiente a la estructura de información. A diferencia del documento de marcado en el cual la información se graba como texto, la información almacenada en el formato binario se representa mediante una serie de datos binarios en unidades de byte predeterminadas. Es decir, por ejemplo, se puede usar un número predeterminado de primeros bytes para un estilo, los siguientes bytes para una fuente, y los siguientes bytes para colores de texto. De esta manera, la información requerida para la reconstrucción se graba en un formato binario. En lo sucesivo en la presente memoria, se explicará como ejemplo la estructura de la información.
Existe una variedad de métodos para formar un estilo y un grupo de estilos con el fin de indicar información de estilo a usar para reconstruir y visualizar cada frase del script incluida en la información de diálogo 101.
En un método, cada frase del script incluida en la información de diálogo 110 especifica un grupo de estilos y un usuario selecciona uno de los estilos incluidos en el grupo de estilos especificado. En otro método, un usuario selecciona un grupo de estilos, y cada frase del script incluida en la información de diálogo 110 especifica uno de una pluralidad de estilos incluidos en el grupo de estilos. De este modo, toda la información requerida para reconstruir una frase del script se incluye en un estilo, y un generador puede cambiar cualquier elemento de información de estilo a usar para reconstruir un script de salida de acuerdo con la selección de un usuario. Es decir, si un usuario cambia el estilo de salida de un script, todos los elementos de información se pueden cambiar de acuerdo con la información de estilo seleccionada por el generador.
A continuación se explicarán más detalladamente los diversos casos antes descritos, en referencia a las FIGs. 3A a 6B. La figura 3A ilustra un documento de marcado que define grupos de estilos de acuerdo con una forma de realización de la presente invención. La información de presentación se graba en forma de un conjunto de estilos, y el conjunto de estilos incluye una pluralidad de grupos de estilos definidos por un generador. Cada uno de los grupos de estilos tiene un atributo de nombre que indica el nombre de cada grupo, y cada grupo queda identificado por el nombre de grupo de estilos indicado por el atributo de nombre. El grupo de estilos es un conjunto de información de atributos usada para dar salida a un subtítulo de acuerdo con un estilo deseado por el generador.
Por ejemplo, si un generador desea dar salida al subtítulo del título de una película con un tamaño de fuente grande en el centro de una pantalla, al subtítulo en la parte inferior de la pantalla con un tamaño de fuente que no afecte a la visualización de la película, y al subtítulo de los actores en la parte final de la película de manera que esté centrado en la pantalla completa, entonces el generador divide un conjunto de estilos en tres grupos de estilos, “Title”, “Script” y “Casting”, define cada uno de los grupos de estilos, y asigna uno de los tres grupos de estilos definidos en la
información de presentación a cada script grabado en la información de diálogo del archivo de subtítulo. Estos grupos de estilos no pueden ser cambiados por un usuario que esté visualizando la película.
Cada uno de los estilos incluye estilos en los cuales se graba información requerida para reconstruir texto. Un estilo incluye un nombre para identificar el estilo y diversos elementos de información requeridos para reconstruir texto. En un grupo de estilos, se puede definir una pluralidad de estilos, y es preferible que el número de estilos y nombres de estilo definidos en cada grupo de estilos sea idéntico para la totalidad de grupos de estilos. Puesto que el primer estilo de entre la pluralidad de estilos definidos en un grupo de estilos se puede seleccionar como valor por defecto,
o un generador puede seleccionar un estilo por defecto, a la reconstrucción de texto se le aplica un estilo seleccionado como valor por defecto cuando se da salida a un primer subtítulo en la pantalla, y si un usuario cambia arbitrariamente de estilo cuando se reproduce la película, entonces el estilo especificado por el usuario se aplica a partir de ahí a la reconstrucción del texto.
La figura 3B es un documento de marcado que define grupos de estilos de acuerdo con una forma de realización de la presente invención. En referencia a la figura 3B, Title, Script y Casting son tres clasificaciones de un subtítulo y se definen como estilos. Los grupos de estilos que incluyen estos tres estilos se clasifican como Small, Normal, y Large de acuerdo con el estilo de salida del texto del script. En cada frase del script de información de diálogo, se especifica un estilo definido en información de presentación. En este caso, puesto que se puede seleccionar un primer grupo de estilos como valor por defecto o un generador puede seleccionar un grupo de estilos por defecto, un estilo indicado por cada frase de guión de la información de diálogo de entre los estilos incluidos en el grupo de estilos seleccionado como valor por defecto se aplica a la reconstrucción de texto cuando se le da salida a un primer subtítulo en la pantalla, y si un usuario cambia el grupo de estilos cuando se reproduce la película, entonces, a partir de ahí, a la reconstrucción del texto se le aplica un estilo incluido en el grupo de estilos especificado por el usuario.
Cuando la información de presentación se define tal como se muestra en las figuras 3A y 3B, si un usuario cambia de estilo, cambian todos los elementos de información de estilo. No obstante, en función del caso, puede resultar más eficaz cambiar solamente parte de la información de estilo, y para ello, la información de presentación se puede definir tal como se muestra en las figuras 4A y 4B.
La figura 4A es un documento de marcado en el cual se define información de estilo básica en un grupo de estilos de acuerdo con una forma de realización de la presente invención. A diferencia de la información de presentación mostrada en las FIGS. 3A y 3B, en la figura 4A un grupo de estilos incluye información que no cambia cuando un usuario cambia un estilo de salida del guión. Además, el grupo de estilos incluye uno o más estilos los cuales incluyen información de estilos que se puede cambiar mediante una selección del usuario, y cada estilo queda identificado por un atributo de nombre.
En referencia a la figura 4A, un conjunto de estilos incluye tres tipos de estilos, identificados por “Title”, “Script”, y “Casting”. Cada uno de los grupos de estilos incluye información de fuentes, colores, fondo, alineación, regiones, y alturas de líneas, que mantiene valores fijos incluso cuando un usuario cambia un estilo, e incluye también tres estilos, “normal Font", “small font” “large font”), con información de tamaño, posición y dirección cuyos valores cambian cuando el usuario cambia un estilo. Un estilo puede tener un atributo por defecto usado para indicar un estilo por defecto seleccionado por un generador, o se puede seleccionar como valor por defecto un primer estilo.
En este caso, para formar un conjunto completo de información de estilo a usar para la reconstrucción de texto de script se utilizan información de estilo de fuentes, colores, fondo, alineación, regiones alturas de líneas incluida en un grupo de estilos, e información de estilo de tamaño, posición, y dirección incluida e un estilo seleccionado por el usuario o en un estilo por defecto.
La figura 4B es otro documento de marcado en el cual se define información de estilo básica en un grupo de estilos de acuerdo con una forma de realización de la presente invención. Tal como en la figura 4A, un grupo de estilos que tiene información de presentación mostrada en la figura 4B incluye toda la información de estilos requerida para reconstruir texto de guión. Además, el grupo de estilos incluye uno o más estilos, los cuales incluyen información de estilo que se puede cambiar mediante una selección del usuario, y cada estilo queda identificado por un atributo de nombre.
En referencia a la figura 4B, un conjunto de estilos incluye tres tipos de grupos de estilos, identificados por “Title”, “Script” y “Casting”. Cada uno de los grupos de estilos incluye información de fuentes, colores, fondo, alineación, regiones, alturas de línea, tamaños, posiciones, y dirección a usar para la reconstrucción de un guión, e incluye dos estilos, “small font” y “large font”), los cuales incluyen información de tamaño, posición, y dirección, cuyos valores cambian cuando el usuario cambia un estilo.
Cuando no existe ningún cambio a introducir por parte del usuario, para formar un conjunto completo de información de estilos a usar para la reconstrucción de texto de guión, se usan únicamente elementos de información de estilo de fuente, color, fondo, alineación, regiones, altura de línea, tamaño, posición, y dirección incluidos en un grupo de estilos. Si el usuario cambia un estilo, la información de tamaños, posiciones, y dirección incluida en el estilo seleccionado se aplica a la información de tamaños, posiciones, y dirección, y se cambia el estilo de salida del
guión.
En este momento, los valores incluidos en el grupo de estilos se pueden sustituir por los valores incluidos en el estilo seleccionado, o los valores incluidos en el estilo seleccionado se pueden añadir a los valores incluidos en el grupo de estilos. Cuando se usa este último método, los valores de atributos de tamaño, posición, y dirección incluidos en el estilo se pueden expresar como números positivos o negativos, y los valores incluidos en el grupo de estilos se pueden sumar a, o restar de, los números.
La figura 5A ilustra un ejemplo de una etiqueta de marcado usada para visualizar un subtítulo de acuerdo con una forma de realización de la presente invención. Como unidad para clasificar guiones a los que se va a dar salida en la pantalla se usa una etiqueta <text> (<texto>). La información de atributos incluida en la etiqueta <text> incluye “start”, que indica un tiempo en el que comienza la salida de texto, y “end" que indica un tiempo en el que finaliza la salida, como información de tiempo para la salida de pantallas, “effect” que indica efectos de cambio a aplicar en texto tales como fundido de entrada/fundido de salida, y “style group” (“grupo de estilos”), que indica información de estilos a usar para reconstruir texto. Además, un guión al que se va a dar salida en la pantalla se graba en la etiqueta <texto>.
En referencia a la figura 5A, el texto de guión, “John! ride ...” (“¡John! monta…”), se reconstruye usando un estilo por defecto de entre una pluralidad de estilos incluidos en un grupo de estilos “Script”, o información de estilos especificada por el usuario, y aplicando un efecto de “fade-in” el texto se visualiza en el tiempo de inicio “00:10:00” y gradualmente se hace más claro hasta el tiempo final, “00:10:15”.
La figura 5B ilustra otro ejemplo de una etiqueta de lenguaje de marcado usada para visualizar un subtítulo de acuerdo con una forma de realización de la presente invención. En referencia a la figura 5B, una etiqueta <text> (<texto>) especifica un estilo en lugar de un texto de guión de reconstrucción de grupo de estilos. En este caso, el texto de guión incluido en la etiqueta <texto> se reconstruye usando un estilo por defecto “Script” entre una pluralidad de estilos incluidos en un grupo de estilos especificado por el usuario.
La figura 6A ilustra una relación entre información de diálogo e información de presentación de acuerdo con la presente invención. Tal como se ha descrito anteriormente en referencia a la figura 5A, cada etiqueta <texto>, que incluye información de diálogo, tiene un campo de grupo de estilos que indica información de estilo a usar con el fin de reconstruir texto. El campo de grupo de estilos indica uno de entre una pluralidad de grupos de estilos almacenados en una hoja de estilos de información de presentación, y entre los estilos incluidos en el grupo de estilos especificado, un estilo por defecto o un estilo especificado por el usuario proporciona información requerida para reconstruir texto.
En referencia a la figura 6A, dos etiquetas de <texto> indican grupos de estilos “Title” y “Script”, respectivamente. Cada una de las dos etiquetas de <texto> se corresponde con uno de los estilos incluidos en el grupo de estilos correspondientes “Title” o “Script” grabado en la información de presentación.
La figura 6B ilustra otra relación entre información de diálogo e información de presentación de acuerdo con una forma de realización de la presente invención. Cada etiqueta de <texto> indica un estilo, no un grupo de estilos, como información de reconstrucción de texto, y la información de estilos correspondientes se graba como uno de una pluralidad de estilos incluidos en una pluralidad de grupos de estilos almacenados en información de presentación. En referencia a la figura 6B, dos etiquetas de <texto>, que incluyen información de diálogo que indica respectivamente estilo “Title” y “Script”, se incluyen en uno de los grupos de estilos “Small” y “Normal” grabados en la información de presentación.
A continuación se explicarán detalladamente en referencia a las FIGs. 7A y 7B una operación de usuario y una interfaz de programación de aplicaciones (API) para que el usuario cambie un estilo. La figura 7A es un diagrama que ilustra cómo se cambia un estilo mediante una orden de cambio de estilo. En referencia a la figura 7A, los grupos de estilos “Title”, “Script” y “Casting” se definen con cada uno de los grupos de estilos, que incluyen los estilos “Small”, “Normal”, y “Large”. El grupo de estilos “Title” usa el centrado, y da salida a texto en azul, el grupo de estilos “Script” la justificación a la izquierda desde el lado izquierdo inferior y da salida a texto en negro, y el grupo de estilos “Casting” usa la justificación a la derecha desde el lado derecho superior y da salida a texto en rojo. Los estilos “Small”, “Normal”, y “Large” tienen información de estilo que indica, respectivamente, salida en letras de tamaño pequeño, letras de tamaño medio, y letras de tamaño grande.
En el tiempo “00:10:00”, el grupo de estilos “Title” se usa como información para reconstruir texto, y el estilo por defecto “Small” incluido en el grupo de estilos “Title” se usa como información de estilos. Cuando el estilo del texto se cambia al estilo “Normal” por parte del usuario durante la reproducción de la película, el estilo “Normal” del grupo de estilos “Title” se usa como información de estilo. Además, cuando el grupo de estilos cambia en el tiempo “00:10:20” con el avance de la película, se usa el estilo “Normal” del grupo de estilos “Script”, y cuando el grupo de estilos cambia a “Casting” en el tiempo “01:10:25”, el estilo “Normal” seleccionado por el usuario se aplica continuamente usando el grupo de estilo “Casting”.
La figura 7B es un diagrama que ilustra cómo se cambia un grupo de estilos mediante una orden de cambio de grupo de estilos. En referencia a la figura 7B, se definen los grupos de estilos “Small”, “Normal”, y “Large” y cada grupo de estilos incluye los estilos “Title”, “Script”, y “Casting”. En el tiempo “00:10:00”, la información del estilo “Title” incluido en el grupo de estilos por defecto “Pequeño” se usa como información para reconstrucción texto. Cuando el grupo de estilos se cambia de “Small” a “Normal” por parte del usuario durante la reproducción de la película, como información de estilos se usa el estilo “Title” del grupo de estilos “Normal”. Además, cuando el estilo cambia de “Title” a “Script” en el tiempo “00:10:20” con el avance de la película, se usa el estilo “Script” del grupo de estilos “Normal”, y cuando el estilo cambia a “Casting” en el tiempo “01:10:25”, se usa el estilo “Casting” incluido en el grupo de estilos “Normal” especificado por el usuario.
La figura 8A es un diagrama que ilustra cómo se selecciona información de estilo requerida para reconstruir cada elemento de guión, para información de presentación formada, según se muestra en la figura 4A. Cada guión de información de diálogo indica uno de entre uno o más grupos de estilos incluidos en un conjunto de estilos. Además, se selecciona uno de entre uno o más estilos incluidos en cada uno de los grupos de estilos, y si no se produce ninguna selección del usuario, se selecciona como valor por defecto un estilo “Normal”, y cuando se produce una selección del usuario, se selecciona un estilo correspondiente.
A continuación se explicará un proceso de formación de información de estilo a usar para reconstruir el guión “Text 1”. Puesto que el guión “Text 1” indica un grupo de estilos “Title”, se selecciona información no seleccionable que está incluida en el grupo de estilos “Title” y que no se cambia mediante una selección del usuario. Si el usuario selecciona un estilo “Large”, se selecciona información seleccionable que está incluida en el estilo. A continuación, la información no seleccionable del grupo de estilos “Title” y la información seleccionable del estilo “Large” del grupo de estilos “Title” se combinan para formar un conjunto completo de información de estilo.
A continuación se explicará un proceso para formar información de estilo que se usará para reconstruir el guión “Text 2”. En primer lugar, puesto que el guión “Text 2” indica un grupo de estilos “Script”, se selecciona información no seleccionable que está incluida en el grupo de estilos “Script” y que no se cambia mediante una selección del usuario. Si el usuario selecciona un estilo “Large”, se selecciona información seleccionable que está incluida en el estilo “Large".. A continuación, la información no seleccionable del grupo de estilos “Script” y la información seleccionable del estilo “Large” del grupo de estilos “Script” se combinan para formar un conjunto de información de estilo.
A continuación se explicará, en referencia a las figuras 8B y 8C, un proceso para formar información de estilo requerida para reconstruir cada elemento de guión en la presentación formada según se muestra en la figura 4B. Las FIGs. 8B y 8C son diagramas que ilustran cómo se selecciona información de estilo requerida para reconstruir cada elemento de guión, para la información de presentación formada según se muestra en la figura 4B.
La figura 8B se usará para ilustrar un proceso de formación de un conjunto completo de información de estilo requerida para reconstruir texto de guión cuando el usuario no cambia el estilo. Cada guión de la información de diálogo indica uno de entre uno o más grupos de estilos incluidos en un conjunto de estilos. Cuando no se produce ningún cambio en el estilo por parte del usuario, todos los elementos de información de estilo (información para la reconstrucción del texto) requeridos para el texto de guión incluido en el grupo de estilos indicado por un guión se usan para formar un conjunto completo de información de estilo. Cuando se produce un cambio de estilo por parte del usuario, se selecciona uno de entre uno o más estilos incluidos en cada grupo de estilos, y a la información se le aplica información incluida en el estilo seleccionado por el usuario para reconstruir texto incluido en el grupo de estilos con el fin de formar un conjunto completo de información de estilo.
En referencia a la 8B, puesto que el guión “Text 1” indica el grupo de estilos “Title”, se selecciona información para reconstruir texto incluido en el grupo de estilos “Title” y la misma se usa para formar un conjunto completo de información de estilo a usar con el fin de reconstruir el texto de guión.
Además, puesto que el guión “Text 2” indica el grupo de estilos “Script” se selecciona información para reconstruir texto incluido en el grupo de estilos “Script” y la misma se usa para formar un conjunto completo de información de estilo a usar con el fin de reconstruir el texto de guión.
La figura 8C se usará para explicar un proceso de formación de un conjunto completo de información de estilo requerida para reconstruir texto de guión cuando el usuario cambia de estilo. Puesto que el guión “Text 1” indica el grupo de estilos “Title”, se selecciona información para reconstruir texto incluido en el grupo de estilos “Title”. Si el usuario selecciona el estilo “Large”, se selecciona información seleccionable que está incluida en el estilo “Large”. A la información se le aplica información seleccionable del estilo “Large” del grupo de estilos “Title” para reconstruir texto del grupo de estilos “Title” con el fin de formar un conjunto completo de la información de estilo.
En un proceso para formar información de estilo a usar con el fin de reconstruir el guión “Text 2”, puesto que el guión “Text 2” indica el grupo de estilos “Script”, se selecciona información para reconstruir texto incluido en el grupo de estilos “Script. Si el usuario selecciona el estilo “Large”, se selecciona información de selección que está incluida en el estilo “Large”. A continuación, a la información se le aplica la información seleccionable del estilo “Large” del grupo
de estilos “Script” para reconstruir texto del grupo de estilos “Script” con el fin de formar un conjunto completo de información de estilo.
La figura 9 es un diagrama de bloques de un aparato de procesado de subtítulos basados en texto de acuerdo con una forma de realización de la presente invención. El aparato de procesado de subtítulos basados en texto incluye una unidad de procesado de subtítulos de texto 920 para reconstruir texto si así fuera necesario. La unidad de procesado de subtítulos de texto 920 incluye un analizador sintáctico de subtítulos de texto 921 para extraer información de presentación e información de diálogo a partir de un subtítulo, y un reconstructor de fuentes/distribución de texto 922 para generar una imagen a la que se va a dar salida reconstruyendo texto de acuerdo con la información de presentación extraída.
Después de que, desde un disco 900, se lean información de subtítulos basados en texto e información de fuentes, y las mismas se almacenen en una memoria intermedia 910, el subtítulo se transmite al analizador sintáctico de subtítulos de texto 921 de la unidad de procesado de subtítulos 920, y se extraen información de presentación e información de diálogo. La información extraída se transmite al reconstructor de fuentes/distribución de texto 922 y a una memoria intermedia de composición 933 de un motor de presentación 930. El reconstructor de fuentes/distribución de texto 922 genera una imagen a visualizar en un aparato de visualización reconstruyendo texto mediante el uso de la información de estilo y la información de fuentes transmitidas y transmite la imagen a una memoria intermedia de objetos 934 incluida en el motor de presentación 930.
El subtítulo en forma de una imagen de mapa de bits, se lee del disco 900, se introduce en una memoria intermedia de datos codificados 931, se procesa por medio de una unidad de procesado de gráficos 932, y se transmite a la memoria intermedia de composición 933 y a la memoria intermedia de objetos 934. La memoria intermedia de composición 933 recibe la información de composición de objetos transmitida por el analizador sintáctico de subtítulos de texto 921 y los datos de subtítulos de mapa de bits procesados por la unidad de procesados de gráficos 932, y transmite información de control para la salida de pantallas hacia la unidad de control de gráficos
935. La memoria intermedia de objetos 934 combina los datos de subtítulos de mapa de bits procesados por la unidad de procesados de gráficos 932 y el objeto de subtítulo de texto reconstruido, recibido desde el reconstructor de fuentes/distribución de texto 922, genera un plano gráfico 940 y da salida al plano gráfico 940 hacia el aparato de visualización mediante remisión a una tabla de consulta de colores (CLUT) 950.
La figura 10 es un diagrama de flujo que ilustra un método de procesado de subtítulos basados en texto de acuerdo con una forma de realización de la presente invención. Los datos de subtítulos basados en texto y los datos de fuentes se leen de un disco y se almacenan en una memoria intermedia en la operación S1010. Los datos de subtítulos, que están en forma de una imagen de mapa de bits, se transmiten a un motor de presentación. De los datos de subtítulos almacenados se extraen, en la operación S1020, información de presentación e información de diálogo. La información de presentación y la información de diálogo son tal como se han descrito anteriormente. Usando la información de presentación y la información de diálogo extraídas, se reconstruye texto y se genera una imagen en la operación 1030. Los datos de subtítulos, están en forma de una imagen de mapa de bits transmitida al motor de presentación y la imagen reconstruida y generada, se combinan y se les da salida en la operación S1040. La combinación de los datos de mapa de bits y la imagen reconstruida es tal como se ha descrito anteriormente en referencia a la figura 9.
Antes se ha descrito la formación de un estilo para reconstruir texto de un subtítulo de texto que tiene un formato de texto y la salida del texto sobre una pantalla con el fin de visualizar guiones para imágenes en movimiento. En la presente invención, un generador proporciona una pluralidad de estilos que pueden ser seleccionados por un usuario, y cuando se da salida a un guión, el usuario selecciona uno de la pluralidad de estilos para cambiar el estilo de salida del guión. Por consiguiente, un conjunto de estilos, grupos de estilos, y estilos de la presente invención pueden incluir además campos para grabar información requerida para guiones proporcionados de imágenes en movimiento. Es decir, el conjunto de estilos descritos en la presente invención incluye únicamente los grupos de estilos, pero, además del grupo de estilos, se puede añadir un campo para grabar datos adicionales tales como información para indicar información de estilo, y los grupos de estilos y estilos descritos en la presente invención también pueden tener campos adicionales. Además, la posición de cada campo incluido en el grupo de estilos y el estilo se puede cambiar de acuerdo con la implementación de un subtítulo de texto.
La presente invención se puede materializar también en forma de código legible por ordenador sobre un soporte de grabación legible por ordenador. El soporte de grabación legible por ordenador puede ser cualquier dispositivo de almacenamiento de datos que pueda almacenar datos los cuales posteriormente pueden ser leídos por medio de un sistema de ordenador. Entre los ejemplos del soporte de grabación legible por ordenador se incluyen memoria de solo lectura (ROM), memoria de acceso aleatorio (RAM), CD-ROM, cintas magnéticas, discos flexibles, dispositivos de almacenamiento óptico de datos, y ondas portadoras (tales como transmisión de datos a través de Internet). El soporte de grabación legible por ordenador también puede estar distribuido sobre sistemas de ordenador acoplados en red de manera que el código legible por ordenador se almacene y ejecute de una forma distribuida.
Aunque se han mostrado y descrito algunas formas de realización de la presente invención, los expertos en la materia apreciarán que en estas formas de realización se pueden efectuar cambios sin apartarse, por ello, de los principios de la invención, cuyo alcance se define en las reivindicaciones.

Claims (1)

  1. REIVINDICACIONES
    1. Método para reproducir un subtítulo basado en texto desde un soporte de almacenamiento de información que almacena un conjunto de estilos e información de diálogo, comprendiendo el método:
    5 leer el conjunto de estilos y la información de diálogo desde el soporte de almacenamiento de información; y
    visualizar el subtítulo basado en texto usando el conjunto de estilos y la información de diálogo,
    10 en el que la información de diálogo comprende información de texto de script del subtítulo, y
    el conjunto de estilos comprende una pluralidad de grupos de estilos, comprendiendo cada grupo de estilos una primera información de estilo que se usa para reconstruir y visualizar la información de texto de script a través de un aparato de procesado de subtítulos de texto,
    15 y una segunda información de estilo que se usa para reconstruir y visualizar la información de texto de script a través del aparato de procesado de subtítulos de texto,
    caracterizado porque la información de diálogo comprende además un identificador correspondiente a un grupo de 20 estilos de entre la pluralidad de grupos de estilos,
    la información de texto de script se reconstruye usando la primera información de estilo incluida en el grupo de estilos indicado por el identificador correspondiente al grupo de estilos, y
    25 cuando un usuario selecciona la segunda información de estilo incluida en el grupo de estilos indicado, para cambiar el estilo de salida de la información de texto de script, se forma información de estilo modificada mediante la adición de por lo menos uno de entre los valores correspondientes a tamaño, posición y dirección incluidos en la segunda información de estilo seleccionada, a un valor respectivo incluido en la primera información de estilo del grupo de estilos indicado, y la información de estilo modificada se usa para reconstruir la información de texto de script.
ES08160687T 2003-10-04 2004-09-30 Método para reproducir un subtítulo basado en texto desde un soporte de almacenamiento de información usando informaciones de estilo seleccionables Active ES2384900T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20030069023 2003-10-04
KR20030069023 2003-10-04
KR20040016103 2004-03-10
KR20040016103A KR100739682B1 (ko) 2003-10-04 2004-03-10 텍스트 기반의 서브 타이틀 정보를 기록한 정보저장매체,그 처리장치 및 방법

Publications (1)

Publication Number Publication Date
ES2384900T3 true ES2384900T3 (es) 2012-07-13

Family

ID=36577301

Family Applications (1)

Application Number Title Priority Date Filing Date
ES08160687T Active ES2384900T3 (es) 2003-10-04 2004-09-30 Método para reproducir un subtítulo basado en texto desde un soporte de almacenamiento de información usando informaciones de estilo seleccionables

Country Status (14)

Country Link
US (4) US8204361B2 (es)
EP (1) EP1680783A4 (es)
JP (2) JP4690330B2 (es)
KR (1) KR100739682B1 (es)
AT (1) ATE554483T1 (es)
BR (1) BRPI0415045B1 (es)
CA (1) CA2541320C (es)
ES (1) ES2384900T3 (es)
HK (1) HK1098870A1 (es)
MX (1) MXPA06003785A (es)
MY (1) MY167189A (es)
RU (1) RU2323487C2 (es)
TW (1) TWI348626B (es)
WO (1) WO2005034122A1 (es)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100619053B1 (ko) 2003-11-10 2006-08-31 삼성전자주식회사 서브 타이틀을 기록한 정보저장매체 및 그 처리장치
KR100788655B1 (ko) 2003-11-10 2007-12-26 삼성전자주식회사 스타일 정보를 포함하는 텍스트 기반의 서브 타이틀데이터가 기록된 저장 매체, 재생 장치 및 그 재생 방법
WO2005065055A2 (en) * 2004-01-06 2005-07-21 Lg Electronics Inc. Recording medium and method and apparatus for reproducing and recording text subtitle streams
KR20050072255A (ko) * 2004-01-06 2005-07-11 엘지전자 주식회사 고밀도 광디스크의 서브타이틀 구성방법 및 재생방법과기록재생장치
JP2007522595A (ja) * 2004-02-10 2007-08-09 エルジー エレクトロニクス インコーポレーテッド 記録媒体及びテキスト・サブタイトル・ストリームのデコード方法と装置
EP1716701A1 (en) 2004-02-10 2006-11-02 LG Electronic Inc. Text subtitle decoder and method for decoding text subtitle streams
KR20070028326A (ko) * 2004-02-10 2007-03-12 엘지전자 주식회사 기록매체 및 텍스트 서브타이틀 스트림 디코딩 방법과 장치
KR100739680B1 (ko) 2004-02-21 2007-07-13 삼성전자주식회사 스타일 정보를 포함하는 텍스트 기반 서브타이틀을 기록한저장 매체, 재생 장치 및 그 재생 방법
KR20060129067A (ko) 2004-02-26 2006-12-14 엘지전자 주식회사 기록매체 및 텍스트 서브타이틀 스트림 기록 재생 방법과장치
EP1728251A1 (en) 2004-03-17 2006-12-06 LG Electronics, Inc. Recording medium, method, and apparatus for reproducing text subtitle streams
ATE450041T1 (de) * 2004-03-26 2009-12-15 Lg Electronics Inc Aufzeichnungsmedium und verfahren und vorrichtung zum wiedergeben eines auf dem aufzeichnungsmedium aufgezeichneten textuntertitelstroms
ATE479987T1 (de) * 2004-03-26 2010-09-15 Lg Electronics Inc Speichermedium,verfahren, und gerät zum wiedergeben von untertiteldatenströmen
KR20060047266A (ko) 2004-04-26 2006-05-18 엘지전자 주식회사 기록매체, 기록매체의 재생방법과 재생장치
JP4724710B2 (ja) 2004-05-03 2011-07-13 エルジー エレクトロニクス インコーポレイティド テキストサブタイトルデータを再生管理するためのデータ構造を有する記録媒体及びこれと関連する方法及び装置
KR100654455B1 (ko) * 2005-05-26 2006-12-06 삼성전자주식회사 확장형 자막 파일을 이용하여 부가정보를 제공하는 장치 및방법
DE102007007830A1 (de) * 2007-02-16 2008-08-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines Datenstroms und Vorrichtung und Verfahren zum Lesen eines Datenstroms
WO2010045736A1 (en) * 2008-10-22 2010-04-29 Xtranormal Technology Inc. Reduced-latency rendering for a text-to-movie system
KR20110018261A (ko) * 2009-08-17 2011-02-23 삼성전자주식회사 텍스트 서브타이틀 데이터 처리 방법 및 재생 장치
CN102082931A (zh) * 2009-11-30 2011-06-01 新奥特(北京)视频技术有限公司 一种自适应调整字幕区域的方法及装置
US8581931B2 (en) * 2010-01-05 2013-11-12 Blackberry Limited Method of remotely controlling a presentation to freeze an image using a portable electronic device
US9086794B2 (en) * 2011-07-14 2015-07-21 Microsoft Technology Licensing, Llc Determining gestures on context based menus
KR20140102201A (ko) * 2011-12-16 2014-08-21 소니 주식회사 수신 장치 및 그 제어 방법, 배신 장치 및 배신 방법, 프로그램, 및 배신 시스템
US8918760B2 (en) * 2012-12-07 2014-12-23 Sugarcrm Inc. Test script generation for application image validation
US9173004B2 (en) 2013-04-03 2015-10-27 Sony Corporation Reproducing device, reproducing method, program, and transmitting device
CN104581341B (zh) 2013-10-24 2018-05-29 华为终端有限公司 一种字幕显示方法及字幕显示设备
CN105338394B (zh) 2014-06-19 2018-11-30 阿里巴巴集团控股有限公司 字幕数据的处理方法及***
CN111147896A (zh) * 2018-11-05 2020-05-12 中兴通讯股份有限公司 一种字幕数据处理方法、装置、设备和计算机存储介质
CN112055261A (zh) * 2020-07-14 2020-12-08 北京百度网讯科技有限公司 字幕展示方法、装置、电子设备和存储介质

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0596732B1 (en) * 1992-11-05 2001-04-18 Canon Kabushiki Kaisha Method per performing special effects in the receiver of a coded moving picture transmission system
JPH06176019A (ja) * 1992-12-10 1994-06-24 Hitachi Ltd 出版媒体及び文書処理装置
DE69324607T2 (de) 1993-08-20 1999-08-26 Thomson Consumer Electronics Fernsehbildunterschrift-system fur anwendung mit komprimierter numerischer fernseh-ubertragung
US5497241A (en) * 1993-10-29 1996-03-05 Time Warner Entertainment Co., L.P. System and method for controlling display of motion picture subtitles in a selected language during play of a software carrier
US5760838A (en) * 1994-09-30 1998-06-02 Intel Corporation Method and system for configuring a display
EP0745307B3 (en) 1994-12-14 2010-06-23 Philips Electronics N.V. Subtitling transmission system
JP3484838B2 (ja) 1995-09-22 2004-01-06 ソニー株式会社 記録方法及び再生装置
WO1997019451A1 (fr) * 1995-11-24 1997-05-29 Kabushiki Kaisha Toshiba Support d'enregistrement multi-langages et dispositif de reproduction associe
US5805153A (en) 1995-11-28 1998-09-08 Sun Microsystems, Inc. Method and system for resizing the subtitles of a video
TW332890B (en) * 1996-04-05 1998-06-01 Matsushita Electric Ind Co Ltd Multimedia optical disk
EP0935249B1 (en) * 1996-04-12 2006-05-24 Matsushita Electric Industrial Co., Ltd. Multimedia optical disc storing both video titles provided with AV functions and video titles with no such functions which can instantly distinguish between such kinds of titles, and a reproduction apparatus and reproduction method for such disc
JP2857122B2 (ja) 1996-11-22 1999-02-10 株式会社東芝 多種言語記録媒体
US6046778A (en) 1997-10-29 2000-04-04 Matsushita Electric Industrial Co., Ltd. Apparatus for generating sub-picture units for subtitles and storage medium storing sub-picture unit generation program
JP2000039892A (ja) * 1998-07-21 2000-02-08 Yamaha Corp カラオケ装置
US6233389B1 (en) * 1998-07-30 2001-05-15 Tivo, Inc. Multimedia time warping system
JP2000138908A (ja) 1998-10-31 2000-05-16 Sony Corp テレビジョン受像機及び表示方法
JP2000259640A (ja) * 1999-03-04 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> 構造化文書カスタマイズ表示方法及びシステム及びサーバ装置及びクライアント装置構造化文書カスタマイズ表示プログラムを格納した記憶媒体
KR20010001725A (ko) * 1999-06-08 2001-01-05 윤종용 자막 그래픽 신호의 디스플레이 제어방법
JP4438129B2 (ja) * 1999-07-02 2010-03-24 ソニー株式会社 コンテンツ受信システム及びコンテンツ受信方法
JP2001078149A (ja) * 1999-09-08 2001-03-23 Toshiba Corp メディア再生装置とメディア再生方法
JP2002027386A (ja) * 2000-07-05 2002-01-25 Nikon Corp データファイル管理用記録媒体およびデータファイル管理装置
GB2380599B (en) * 2000-12-22 2003-10-29 Kent Ridge Digital Labs System and method for media production
KR100389863B1 (ko) * 2001-02-01 2003-07-04 삼성전자주식회사 서브 타이틀을 타이틀에 관련지어 재생가능한 데이터구조를 갖는 기록매체, 그 재생장치 및 재생방법
JP2002229985A (ja) 2001-02-06 2002-08-16 Ricoh Co Ltd 構造化文書処理装置、構造化文書処理方法およびコンピュータに構造化文書処理を実行させるためのプログラム
US7050109B2 (en) 2001-03-02 2006-05-23 General Instrument Corporation Methods and apparatus for the provision of user selected advanced close captions
JP2002369154A (ja) * 2001-04-02 2002-12-20 Matsushita Electric Ind Co Ltd ディジタル映像コンテンツの映像再生装置、映像再生方法、映像再生プログラム、パッケージメディア
US20020194618A1 (en) 2001-04-02 2002-12-19 Matsushita Electric Industrial Co., Ltd. Video reproduction apparatus, video reproduction method, video reproduction program, and package media for digital video content
US7376338B2 (en) 2001-06-11 2008-05-20 Samsung Electronics Co., Ltd. Information storage medium containing multi-language markup document information, apparatus for and method of reproducing the same
JP2003078835A (ja) 2001-09-03 2003-03-14 Sanyo Electric Co Ltd ディジタル放送受信装置
KR20030030554A (ko) * 2001-10-11 2003-04-18 삼성전자주식회사 캡션정보의 편집이 가능한 캡션정보 전송시스템 및 방법
KR100457512B1 (ko) * 2001-11-29 2004-11-17 삼성전자주식회사 광 기록 매체, 광 기록 매체 재생 장치 및 방법
DE60225060T2 (de) 2001-12-25 2008-05-21 Matsushita Electric Industrial Co., Ltd., Kadoma Vorrichtung und verfahren zur wiedergabe von inhalten
JP2003249057A (ja) * 2002-02-26 2003-09-05 Toshiba Corp デジタル情報媒体を用いるエンハンスド・ナビゲーション・システム
TWI247295B (en) * 2002-03-09 2006-01-11 Samsung Electronics Co Ltd Reproducing method and apparatus for interactive mode using markup documents
TWI246036B (en) * 2002-10-15 2005-12-21 Samsung Electronics Co Ltd Information storage medium containing subtitle data for multiple languages using text data and downloadable fonts and apparatus therefor
US20040081434A1 (en) * 2002-10-15 2004-04-29 Samsung Electronics Co., Ltd. Information storage medium containing subtitle data for multiple languages using text data and downloadable fonts and apparatus therefor
JP2004194131A (ja) * 2002-12-13 2004-07-08 Hitachi Ltd 字幕表示方法、再生装置、記録装置、記録媒体及び出力装置
KR20050012328A (ko) 2003-07-25 2005-02-02 엘지전자 주식회사 고밀도 광디스크의 프레젠테이션 그래픽 데이터 관리 및재생방법과 그에 따른 고밀도 광디스크
KR20050078907A (ko) * 2004-02-03 2005-08-08 엘지전자 주식회사 고밀도 광디스크의 서브타이틀 재생방법과 기록재생장치
RU2377669C2 (ru) 2004-02-10 2009-12-27 ЭлДжи ЭЛЕКТРОНИКС ИНК. Носитель записи, имеющий структуру данных для управления различными данными, и способ и устройство записи и воспроизведения
KR20070028326A (ko) 2004-02-10 2007-03-12 엘지전자 주식회사 기록매체 및 텍스트 서브타이틀 스트림 디코딩 방법과 장치
US7529467B2 (en) * 2004-02-28 2009-05-05 Samsung Electronics Co., Ltd. Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method for reproducing text-based subtitle stream recorded on the storage medium

Also Published As

Publication number Publication date
MXPA06003785A (es) 2006-06-23
CA2541320C (en) 2014-07-29
MY167189A (en) 2018-08-13
US9031380B2 (en) 2015-05-12
KR20050033407A (ko) 2005-04-12
US20120201514A1 (en) 2012-08-09
US20080107398A1 (en) 2008-05-08
EP1680783A1 (en) 2006-07-19
US20050105891A1 (en) 2005-05-19
ATE554483T1 (de) 2012-05-15
TWI348626B (en) 2011-09-11
JP2011090779A (ja) 2011-05-06
HK1098870A1 (en) 2007-07-27
RU2006115338A (ru) 2006-09-10
JP4690330B2 (ja) 2011-06-01
RU2323487C2 (ru) 2008-04-27
US20080107397A1 (en) 2008-05-08
TW200519630A (en) 2005-06-16
CA2541320A1 (en) 2005-04-14
US8204361B2 (en) 2012-06-19
US8428432B2 (en) 2013-04-23
JP2007507828A (ja) 2007-03-29
BRPI0415045A (pt) 2006-12-12
KR100739682B1 (ko) 2007-07-13
JP4988914B2 (ja) 2012-08-01
US8331762B2 (en) 2012-12-11
BRPI0415045B1 (pt) 2017-10-17
WO2005034122A1 (en) 2005-04-14
EP1680783A4 (en) 2007-10-31

Similar Documents

Publication Publication Date Title
ES2384900T3 (es) Método para reproducir un subtítulo basado en texto desde un soporte de almacenamiento de información usando informaciones de estilo seleccionables
RU2395856C2 (ru) Носитель для хранения информации, сохраняющий основанные на тексте субтитры, и устройство для обработки основанных на тексте субтитров
ES2393570T3 (es) Soporte de almacenamiento para almacenar datos de subtítulos basados en texto que incluyen información de estilo y aparato para su reproducción
US8289338B2 (en) Systems and methods for font file optimization for multimedia files
ES2544943T3 (es) Medio de grabación que tiene una estructura de datos para gestionar la reproducción de datos de subtítulos y métodos y aparatos de grabación y reproducción
ES2350940T3 (es) Medio de grabación, método y aparato para reproducir flujos de subtítulos de texto.
ES2338019T3 (es) Medio de grabacion y metodo y aparato para reproducir un flujo o corriente de subtitulos de texto grabados en el medio de grabacion.
RU2006131586A (ru) Декодер текстовых субтитров и способ декодирования потоков текстовых субтитров
ES2364644T3 (es) Aparato para reproducir datos a partir de un soporte de almacenamiento que almacena datos de imágenes y datos de subtítulos basados en texto.
CN101937695B (zh) 富媒体业务场景播放方法及文件播放器
JP2006048695A (ja) スクリプト特性によるテキストデータ処理装置及び方法
CN111399788B (zh) 媒体文件播放方法和媒体文件播放装置
ES2337160T3 (es) Medio de grabacion y metodo y aparato para reproducir y grabar flujos de subtitulos de texto.