ES2364644T3 - Aparato para reproducir datos a partir de un soporte de almacenamiento que almacena datos de imágenes y datos de subtítulos basados en texto. - Google Patents

Aparato para reproducir datos a partir de un soporte de almacenamiento que almacena datos de imágenes y datos de subtítulos basados en texto. Download PDF

Info

Publication number
ES2364644T3
ES2364644T3 ES05726932T ES05726932T ES2364644T3 ES 2364644 T3 ES2364644 T3 ES 2364644T3 ES 05726932 T ES05726932 T ES 05726932T ES 05726932 T ES05726932 T ES 05726932T ES 2364644 T3 ES2364644 T3 ES 2364644T3
Authority
ES
Spain
Prior art keywords
text
information
dialogue
style
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES05726932T
Other languages
English (en)
Inventor
Kil-Soo Jung
Sung-Wook Park
Kwang-Min Kim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Application granted granted Critical
Publication of ES2364644T3 publication Critical patent/ES2364644T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8233Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a character code signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Studio Circuits (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Aparato para reproducir datos a partir de un soporte de almacenamiento que almacena datos de imágenes y datos de subtítulos basados en texto, que comprende: un decodificador de vídeo dispuesto para decodificar los datos de imágenes; y un decodificador de subtítulos dispuesto para recibir los datos de subtítulos basados en texto que comprenden una unidad de presentación de diálogo (320) y una unidad de estilo de diálogo (310), para convertir la unidad de presentación de diálogo en una imagen de mapa de bits basándose en la unidad de estilo de diálogo, y para controlar la salida de la unidad de presentación de diálogo convertida, sincronizada con datos de imágenes decodificados, en el que la unidad de estilo de diálogo comprende un conjunto de estilos de salida y un primer conjunto de paletas de colores a aplicar en la unidad de presentación de diálogo, la unidad de presentación de diálogo comprende información de texto de diálogo, información de tiempo (1110) que indica un tiempo para dar salida a la información de texto de diálogo en una pantalla, información de remisión de estilo que indica un estilo de salida de entre el conjunto de estilos de salida, una bandera de actualización de color y un segundo conjunto de paletas de colores a usar cuando la bandera de actualización de color está fijada a "1", y el primer y el segundo conjuntos de paletas de colores definen colores a aplicar en la información de texto de diálogo.

Description

Campo técnico
La presente invención se refiere a la reproducción de una imagen multimedia, y más particularmente, a un soporte de almacenamiento para grabar un flujo continuo de imágenes multimedia y un flujo continuo de subtítulos basados en texto, a un aparato de reproducción y a un método de reproducción para reproducir el flujo continuo de imágenes multimedia y el flujo continuo de subtítulos basados en texto, grabados en el soporte de almacenamiento.
Antecedentes de la técnica
Para proporcionar una imagen multimedia de alta densidad (HD), en un flujo continuo principal, conocido también como flujo continuo de datos audiovisual “AV”, se multiplexan flujos continuos de vídeo, flujos continuos de audio, flujos continuos de gráficos de presentación para proporcionar subtítulos, y flujos continuos de gráficos interactivos para proporcionar botones o menús para la interacción con un usuario, y los mismos se graban en un soporte de almacenamiento. En particular, el flujo continuo de gráficos de presentación destinado a proporcionar subtítulos proporciona también una imagen basada en mapas de bits para visualizar subtítulos o textos sobreimpresionados en una imagen.
“Understanding SAMI 1.0” publicado por Microsoft Corporation en octubre de 2001 da a conocer cómo la tecnología del Intercambio Accesible y Sincronizado de Medios (SAMI) de Microsoft amplía la capacidad de proporcionar subtítulos ocultos codificados, a través de una gama amplia de productos multimedia.
La NORMA ETSI EN 300743 Versión 1.2.1 publicada en junio de 2002, titulada Digital Video Broadcasting (DVB); subtitling systems da a conocer un método mediante el cual se pueden codificar subtítulos, logotipos y otros elementos gráficos, y los mismos se pueden transportar en flujos continuos de bits de DVB. El sistema aplica tablas de consulta de colores (CLUTs) para definir los colores de los elementos gráficos.
La solicitud de patente internacional WO2005/045835 da a conocer un soporte de almacenamiento de información que contiene subtítulos y un aparato de procesado de subtítulos, en el que el soporte de almacenamiento de información incluye datos audiovisuales (AV); y datos de subtítulos, en los cuales por lo menos unos datos de texto de subtítulos e información de estilo de salida que designa una forma de salida de un texto de subtítulos se almacenan con un formato de texto.
La solicitud de patente internacional WO2005/079171 da a conocer un soporte de almacenamiento para almacenar datos de subtítulos basados en texto que incluye información de estilo, proporcionándose un aparato de reproducción y un método para reproducir datos de subtítulos basados en texto, que incluyen información de estilo grabada por separado en el soporte de almacenamiento.
Exposición de la invención
Problema técnico
Además de su gran tamaño, los datos de texto sobreimpresionado basados en mapas de bits tienen el problema de que la producción de datos de subtítulos o texto sobreimpresionado y la edición de los datos de texto sobreimpresionado producidos resultan muy dificultosas. Esto es debido a que los datos de texto sobreimpresionado se multiplexan con otros flujos continuos de datos tales como flujos continuos de vídeo, de audio, y de gráficos interactivos. Además, existe otro problema por el que un estilo de salida de los datos de texto sobreimpresionado no se puede cambiar de varias maneras, es decir, cambiar un estilo de salida del texto sobreimpresionado en otro estilo de salida del texto sobreimpresionado.
Solución técnica
Aspectos de la presente invención proporcionan de manera ventajosa un soporte de almacenamiento en el que se graba un flujo continuo de subtítulos basados en texto, y un aparato y método de reproducción para reproducir datos de subtítulos basados en texto grabados en dicho soporte de almacenamiento.
Efectos ventajosos
La presente invención proporciona de manera ventajosa un soporte de almacenamiento que almacena un flujo continuo de datos de subtítulos basados en texto de manera independiente con respecto a datos de imágenes, un aparato de reproducción y un método de reproducción para reproducir dicho flujo continuo de datos de subtítulos basados en texto de tal manera que se puede simplificar la producción de datos de subtítulos y la edición de datos de subtítulos producidos. Además, con independencia del número de elementos de datos de subtítulos, se puede proporcionar un texto sobreimpresionado en una pluralidad de idiomas.
Descripción de dibujos
A partir de la siguiente descripción detallada de formas de realización ejemplificativas y de las reivindicaciones cuando se lean en relación con los dibujos adjuntos, que forman parte todos ellos de la exposición de la presente invención, se pondrá de manifiesto una mejor comprensión de la presente invención. Aunque la siguiente exposición redactada e ilustrada se centra en dar a conocer formas de realización ejemplificativas de la invención, debería entenderse claramente que la misma se proporciona únicamente a título ilustrativo y ejemplificativo, y que la invención no se limita a las mismas.
Lo siguiente representa descripciones breves de los dibujos, en los que:
la figura 1 es un diagrama para explicar una estructura de datos multimedia grabada en un soporte de almacenamiento según una forma de realización de la presente invención;
la figura 2 ilustra una estructura de datos ejemplificativa de un flujo continuo AV de fragmento mostrado en la figura 1, y un flujo continuo de subtítulos basados en texto según una forma de realización de la presente invención;
la figura 3 es un diagrama para explicar una estructura de datos ejemplificativa de un flujo continuo de subtítulos basados en texto según una forma de realización de la presente invención;
la figura 4 ilustra un flujo continuo de subtítulos basados en texto que presenta la estructura de datos mostrada en la figura 3 según una forma de realización de la presente invención;
la figura 5 ilustra una unidad de estilo de diálogo mostrada en la figura 3 según una forma de realización de la presente invención;
la figura 6 es un diagrama para explicar una estructura de datos ejemplificativa de una unidad de estilo de diálogo según una forma de realización de la presente invención;
la figura 7 es un diagrama para explicar una estructura de datos ejemplificativa de una unidad de estilo de diálogo según otra forma de realización de la presente invención;
la figura 8 ilustra una unidad de estilo de diálogo ejemplificativa mostrada en la figura 6 ó 7 según una forma de realización de la presente invención;
las figuras 9A y 9B ilustran un archivo ejemplificativo de información de fragmento que incluye una pluralidad de colecciones de fuentes a las que remite la información de fuentes según una forma de realización de la presente invención;
la figura 10 es un diagrama que muestra ubicaciones de una pluralidad de archivos de fuentes a los que remite la información de archivos de fuentes, mostrada en las figuras 9A y 9B;
la figura 11 es un diagrama para explicar una estructura de datos ejemplificativa de una unidad de presentación de diálogo mostrada en la figura 3 según otra forma de realización de la presente invención;
las figuras 12A y 12B son diagramas para explicar una estructura de datos ejemplificativa de una unidad de presentación de diálogo mostrada en la figura 3 según otras formas de realización de la presente invención;
la figura 13 ilustra una unidad de presentación de diálogo mostrada en las figuras 11 a 12B según una forma de realización de la presente invención;
la figura 14 es un diagrama para explicar una estructura de datos ejemplificativa de información de texto de diálogo mostrada en la figura 13;
la figura 15 ilustra información de texto de diálogo de la figura 13 según una forma de realización de la presente invención;
la figura 16 es un diagrama para explicar limitaciones en la reproducción continua de unidades de presentación de diálogo (DPU) continuas;
la figura 17 es un diagrama para explicar un aparato de reproducción ejemplificativo destinado a reproducir un flujo continuo de subtítulos basados en texto según una forma de realización de la presente invención;
la figura 18 es un diagrama para explicar un proceso de pre-carga de un flujo continuo de subtítulos basados en texto en un aparato de reproducción ejemplificativo según una forma de realización de la presente invención;
la figura 19 es un diagrama para explicar un proceso de reproducción de una unidad de presentación de diálogo (DPU) en un aparato de reproducción ejemplificativo según una forma de realización de la presente invención;
la figura 20 es un diagrama para explicar un proceso en el que un flujo continuo de subtítulos basado en texto se sincroniza con datos de imágenes en movimiento y se le da salida en un aparato de reproducción ejemplificativo según una forma de realización de la presente invención;
la figura 21 es un diagrama para explicar un proceso en el que a un flujo continuo de subtítulos basado en texto se le da salida hacia una pantalla en un aparato de reproducción ejemplificativo según una forma de realización de la presente invención;
la figura 22 es un diagrama para explicar un proceso de reconstrucción (rendering) de un flujo continuo de subtítulos basado en texto en un aparato de reproducción ejemplificativo según una forma de realización de la presente invención;
la figura 23 ilustra un registro de estados ejemplificativo dispuesto en un aparato de reproducción ejemplificativo para reproducir un flujo continuo de subtítulos basado en texto según una forma de realización de la presente invención; y
la figura 24 es un diagrama de flujo de un método de reproducción de un flujo continuo de subtítulos basado en texto según una forma de realización de la presente invención.
Mejor modo
Según un aspecto de la presente invención, un aparato para reproducir datos de imágenes y datos de subtítulos basados en texto grabados en un soporte de almacenamiento con el fin de visualizar un texto sobreimpresionado en una imagen basada en los datos de imágenes, comprende: un decodificador de vídeo para decodificar los datos de imágenes; y un decodificador de subtítulos para convertir un elemento de información de presentación en una imagen de mapa de bits basándose en información de estilo, y para controlar la salida del elemento de información de presentación convertido, sincronizado con los datos de imágenes decodificados. Los datos de subtítulos basados en texto incluyen el elemento de información de presentación el cual es una unidad de visualización del texto sobreimpresionado y la información de estilo la cual especifica un estilo de salida del texto sobreimpresionado.
El decodificador de subtítulos puede decodificar los datos de subtítulos grabados por separado con respecto a los datos de imágenes y dar salida a los datos de subtítulos, superponiendo estos últimos sobre los datos de imágenes decodificados. La información de estilo y la información de presentación se pueden formar en unidades de flujos continuos elementales por paquetes (PES), y el decodificador de subtítulos puede analizar sintácticamente y procesar la información de estilo y la información de presentación en unidades de PES.
La información de estilo se puede formar con un PES y se puede grabar en la parte anterior de los datos de subtítulos, y una pluralidad de elementos de información de presentación se puede grabar en unidades de PES después de la información de estilo, y el decodificador de subtítulos puede aplicar un elemento de información de estilo a la pluralidad de elementos de información de presentación.
Adicionalmente, la información de presentación puede incluir información de texto que indique el contenido del texto sobreimpresionado e información de composición que controle la salida de una imagen de mapa de bits obtenida mediante la conversión de la información de texto. El decodificador de subtítulos puede controlar el tiempo en el que se da salida a la información de texto convertida mediante remisión a la información de composición.
La información de presentación puede especificar una o más regiones de ventana en las que se va a dar salida a un texto sobreimpresionado en una pantalla, y el decodificador de subtítulos puede dar salida a la información de texto convertida en la región o regiones de ventana al mismo tiempo.
Un tiempo inicial de salida y un tiempo final de salida de la información de presentación entre la información de composición se pueden definir como información de tiempo en un eje de tiempo global usado en una lista de reproducción que es una unidad de reproducción de los datos de imágenes, y el decodificador de subtítulos puede sincronizar la salida de la información de texto convertida con la salida de los datos de imágenes decodificados mediante remisión al tiempo inicial de salida y el tiempo final de salida.
Si la información de tiempo final de salida de un elemento de información de presentación reproducido actualmente es la misma que la información de tiempo inicial de salida de un elemento de información de presentación sucesivo, el decodificador de subtítulos puede reproducir continuamente los dos elementos de información de presentación.
Si el elemento sucesivo de información de presentación no se debe reproducir, el decodificador de subtítulos puede reinicializar una memoria intermedia interna entre el tiempo inicial de salida y el tiempo final de salida, y si el elemento sucesivo de información de presentación se debe reproducir continuamente, el decodificador de subtítulos puede mantener la memoria intermedia sin reinicializarla.
La información de estilo puede ser un conjunto de estilos de salida que están predefinidos por el fabricante del soporte de almacenamiento y que se aplicarán a la información de presentación, y el decodificador de subtítulos puede convertir la pluralidad de elementos de información de presentación grabados posteriormente en imágenes de mapas de bits basadas en la información de estilo.
Adicionalmente, la información de texto entre la información de presentación puede incluir texto que se convertirá en una imagen de mapa de bits e información de estilo en línea que se aplicará a solamente parte del texto, y aplicando la información de estilo en línea a solamente parte del texto en el que se aplica la información de estilo predefinida por el fabricante, el decodificador de subtítulos puede proporcionar una función que realza parte del texto.
Como informaciones de estilo en línea, el decodificador de subtítulos puede aplicar un valor relativo de información de fuentes predeterminada o un valor absoluto predeterminado incluido en la información de estilo predefinida por el fabricante en parte del texto.
Adicionalmente, la información de estilo puede incluir además información de estilo cambiable por el usuario, y después de recibir información de selección de un usuario sobre un estilo entre los elementos de información de estilo cambiable por el usuario, el decodificador de subtítulos puede aplicar la información de estilo predefinida por el fabricante, a continuación aplicar la información de estilo en línea, y seguidamente aplicar finalmente el elemento de información de estilo cambiable por el usuario correspondiente a la información de selección en el texto.
Como información de estilo cambiable por el usuario, el decodificador de subtítulos puede aplicar un valor relativo de información de fuentes predeterminada entre los elementos de información de estilo predefinidos por el fabricante en el texto.
Si el soporte de almacenamiento permite información de estilo predeterminada definida en un aparato de reproducción además de la información de estilo predefinida por el fabricante, el decodificador de subtítulos puede aplicar la información de estilo predeterminada en el texto.
Adicionalmente, la información de estilo puede incluir un conjunto de paletas de colores que se aplicarán en la información de presentación y, basándose en un color definido en la paleta de colores, el decodificador de subtítulos puede convertir todos los elementos de información de presentación tras la información de estilo en imágenes de mapas de bits.
Independientemente del conjunto de paletas de colores incluido en la información de estilo, la información de presentación puede incluir además un conjunto de paletas de colores y una bandera de actualización de color, y si la bandera de actualización de color se fija a “1”, el decodificador de subtítulos puede aplicar el conjunto de las paletas de colores incluido en la información de presentación, y si la bandera de actualización de color se fija a “0”, puede aplicar el conjunto original de paletas de colores incluido en la información de estilo.
Fijando la bandera de actualización de color a “1” y cambiando gradualmente el valor de transparencia de una paleta de colores incluida en la pluralidad de elementos de información de presentación continuos, el decodificador de subtítulos puede implementar un efecto de fundido de entrada/salida, y si se finaliza con el efecto de fundido de entrada/salida, reinicializar una tabla de consulta de colores (CLUT) en el decodificador de subtítulos, basándose en el conjunto original de paletas de colores incluido en la información de estilo.
Adicionalmente, la información de estilo puede incluir información de regiones que indique la ubicación de una región de ventana para la información de presentación convertida a la que se va a dar salida en la imagen, e información de fuentes requerida para convertir la información de presentación en una imagen de mapa de bits, y, usando la información de regiones y la información de fuentes, el decodificador de subtítulos puede convertir la información de presentación convertida en una imagen de mapa de bits.
La información de fuentes puede incluir por lo menos una de una ubicación inicial de salida de la información de presentación convertida, una dirección de salida, un tipo, una separación entre líneas, un identificador de fuente, un estilo de fuente, un tamaño de fuente, o un color, y el decodificador de subtítulos convierte la información de presentación en una imagen de mapa de bits basándose en la información de fuentes.
Como identificador de fuente, el decodificador de subtítulos puede remitir a información indicativa en un archivo de fuente incluido en un archivo de informaciones de fragmentos que almacena información de atributos de una unidad de grabación de los datos de imágenes.
Adicionalmente, el decodificador de subtítulos puede almacenar temporalmente los datos de subtítulos y un archivo de fuentes al que remitan los datos de subtítulos antes de reproducir los datos de imágenes.
Adicionalmente, si en el soporte de almacenamiento se graba una pluralidad de los elementos de datos de subtítulos que soportan una pluralidad de idiomas, el decodificador de subtítulos puede recibir información de selección sobre un idioma deseado desde un usuario, y reproducir un elemento de datos de subtítulos correspondiente a la información de selección entre la pluralidad de elementos de datos de subtítulos.
Según otro aspecto de la presente invención, un método de reproducción de datos a partir de un soporte de almacenamiento que almacena datos de imágenes y datos de subtítulos basados en texto con el fin de visualizar un texto sobreimpresionado en una imagen basada en los datos de imágenes, comprende: decodificar los datos de imágenes; leer información de estilo y un elemento de información de presentación; convertir el elemento de información de presentación en una imagen de mapa de bits basándose en la información de estilo; y controlar la salida del elemento de información de presentación convertido, sincronizado con los datos de imágenes decodificados. Los datos de subtítulos basados en texto incluyen la información de presentación la cual es una unidad de visualización del texto sobreimpresionado y la información de estilo la cual especifica un estilo de salida del texto sobreimpresionado.
Según todavía otro aspecto de la presente invención, se proporciona un soporte de almacenamiento para almacenar: datos de imágenes; y datos de subtítulos basados en texto con el fin de visualizar un texto sobreimpresionado en una imagen basada en los datos de imágenes, en el que los datos de subtítulos incluyen: un elemento de información de estilo que especifica un estilo de salida del texto sobreimpresionado; y una pluralidad de elementos de información de presentación que son unidades de visualización del texto sobreimpresionado, y los datos de subtítulos están separados de los datos de imágenes y se graban por separado.
Aspectos y/o ventajas adicionales de la invención se expondrán en parte en la descripción que se ofrece a continuación y, en parte, resultarán evidentes a partir de la descripción, o pueden asimilarse poniendo en práctica la invención.
Modo de realización de la invención
A continuación se describirá más exhaustivamente la presente invención haciendo referencia a los dibujos adjuntos, en los cuales se muestran formas de realización ejemplificativas de la invención.
Haciendo referencia a la figura 1, en un soporte de almacenamiento (tal como el soporte 230 mostrado, por ejemplo, en la figura 2) según una forma de realización ejemplificativa de la presente invención se han formado múltiples capas para gestionar una estructura de datos multimedia 100 de flujos continuos de imágenes multimedia grabados en las mismas. La estructura de datos multimedia 100 incluye fragmentos 110 que son unidades de grabación de una imagen multimedia, listas de reproducción 120 que son unidades de reproducción de una imagen multimedia, objetos de película 130 que incluyen órdenes de navegación que se usan para reproducir una imagen multimedia, y una tabla de índices 140 que se usa para especificar un objeto de película que se reproducirá en primer lugar y títulos de objetos de película 130.
Los fragmentos 110 se implementan como un objeto que incluye un flujo continuo AV de fragmento 112 correspondiente a un flujo continuo de datos audiovisual (AV) para una película de imágenes de alta calidad e información de fragmento 114 para el atributo correspondiente al flujo continuo de datos AV. Por ejemplo, el flujo continuo de datos AV se puede comprimir según una norma, tal como el grupo de expertos en imágenes en movimiento (MPEG). No obstante, no es necesario que dichos fragmentos 110 requieran la compresión del flujo continuo de datos AV 112 en todos los aspectos de la presente invención. Adicionalmente, la información de fragmento 114 puede incluir propiedades de audio/vídeo del flujo continuo de datos AV 112, un mapa de puntos de entrada en el que se graba información referente a una ubicación de un punto de entrada accesible aleatoriamente, en unidades de una sección predeterminada, y similares.
La lista de reproducción 120 es un conjunto de intervalos de reproducción de estos fragmentos 110, y a cada intervalo de reproducción se le hace referencia como elemento de reproducción 122. En el objeto de película 130 se forman programas de órdenes de navegación, y estas órdenes de navegación dan inicio a la reproducción de una lista de reproducción 120, conmutan entre objetos de película 130, o gestionan la reproducción de una lista de reproducción 120 según las preferencias de un usuario.
La tabla de índices 140 es una tabla en la capa superior del soporte de almacenamiento para definir una pluralidad de títulos y menús, e incluye información de posición inicial de todos los títulos y menús de tal manera que se pueda reproducir un título o menú seleccionado por el accionamiento de un usuario, tal como una búsqueda de título o una llamada a menú. La tabla de índices 140 incluye también información de posiciones iniciales de un título o menú que se reproduce automáticamente en primer lugar cuando se coloca un soporte de almacenamiento en un aparato de reproducción.
Entre estos elementos, a continuación se explicará, haciendo referencia a la figura 2, la estructura del flujo continuo AV de fragmento en el que se codifica por compresión una imagen multimedia. La figura 2 ilustra una estructura de datos ejemplificativa de un flujo continuo de datos AV 210 mostrada en la figura 1 y un flujo continuo de subtítulos basado en texto 220 según una forma de realización de la presente invención.
Haciendo referencia a la figura 2, para solucionar problemas relacionados con los datos de texto sobreimpresionado basados en mapas de bits según se ha descrito anteriormente, un flujo continuo de datos de subtítulos basados en texto 220 según una forma de realización de la presente invención se proporciona por separado con respecto al flujo continuo de datos AV de fragmento 210 grabado en un soporte de almacenamiento 230, tal como un disco digital versátil (DVD). El flujo continuo de datos AV 210 incluye un flujo continuo de vídeo 202, un flujo continuo de audio 204, un flujo continuo de gráficos de presentación 206 para proporcionar datos de subtítulos, y un flujo continuo de gráficos interactivos 208 para proporcionar botones o menús con el fin de interaccionar con un usuario, estando todos ellos multiplexados en un flujo continuo principal de imágenes en movimiento, conocido como flujo continuo de datos audiovisual “AV”, y estando grabados en el soporte de almacenamiento 230.
Los datos de subtítulos basados en texto 220 según una forma de realización de la presente invención representan datos para proporcionar subtítulos o textos sobreimpresionados de una imagen multimedia a grabar en el soporte de almacenamiento 230, y se pueden implementar usando un lenguaje de marcado, tal como un lenguaje de marcado extensible (XML). No obstante, dichos subtítulos o textos sobreimpresionados de una imagen multimedia se proporcionan usando datos binarios. En lo sucesivo en el presente documento, a los datos de subtítulos basados en texto 220 que proporcionan el texto sobreimpresionado de una imagen multimedia usando datos binarios se les hará referencia brevemente como “flujo continuo de subtítulos basado en texto”. El flujo continuo de gráficos de presentación 206 para proporcionar datos de subtítulos o datos de texto sobreimpresionado proporciona también datos de subtítulos basados en mapas de bits con el fin de visualizar subtítulos (o textos sobreimpresionados) en una pantalla.
Puesto que el flujo continuo de datos de subtítulos basado en texto 220 se graba por separado con respecto al flujo continuo de datos AV 210, y no se multiplexa con el flujo continuo de datos AV 210, el tamaño del flujo continuo de datos de subtítulos basado en texto 220 no se limita al mismo. Como consecuencia, se pueden proporcionar subtítulos o textos sobreimpresionados usando una pluralidad de idiomas. Por otra parte, el flujo continuo de datos de subtítulos basado en texto 220 se puede producir de manera adecuada y se puede evitar eficazmente sin ninguna dificultad.
A continuación, el flujo continuo de subtítulos basado en texto 220 se convierte en una imagen gráfica de mapa de bits, y se le da salida en una pantalla, superpuesta sobre una imagen multimedia. De este modo, al proceso que convierte datos basados en texto en una imagen de mapa de bits basada en gráficos se le hace referencia como reconstrucción (rendering). El flujo continuo de subtítulos basado en texto 220 incluye información requerida para reproducir texto sobreimpresionado.
A continuación se explicará detalladamente, haciendo referencia a la figura 3, la estructura del flujo continuo de subtítulos basado en texto 220 que incluye información de reconstrucción. La figura 3 es un diagrama para explicar una estructura de datos ejemplificativa del flujo continuo de subtítulos basado en texto 220 según una forma de realización de la presente invención.
Haciendo referencia a la figura 3, el flujo continuo de subtítulos basado en texto 220 de acuerdo con una forma de realización de la presente invención incluye una unidad de estilo de diálogo (DSU) 310, y una pluralidad de unidades de presentación de diálogo (DPU) 320 a 340. A la DSU 310 y a las DPU 320 a 340 se les hace referencia también como unidad de diálogo. Cada una de las unidades de diálogo 310 a 340 que forman el flujo continuo de subtítulos basado en texto 220 se graba en forma de un flujo continuo elemental por paquetes (PES), o conocido simplemente como paquete PES 350. Además, el PES del flujo continuo de subtítulos basado en texto 220 se graba y transmite en unidades de paquetes de transporte (TP) 362. A una serie de los TPs se le hace referencia como flujo continuo de transporte (TS).
No obstante, el flujo continuo de subtítulos basado en texto 220 según una forma de realización de la presente invención no se multiplexa con el flujo continuo de datos AV 210 y se graba como un TS independiente en un soporte de almacenamiento 230, tal como se muestra en la figura 2.
Haciendo referencia nuevamente a la figura 3, en un paquete PES 350 incluido en el flujo continuo de subtítulos basado en texto 220, se graba una unidad de diálogo. El flujo continuo de subtítulos basado en texto 220 incluye una DSU 310 posicionada en la parte anterior y una pluralidad de DPU 320 a 340 tras la DSU 310. La DSU 310 incluye información que especifica el estilo de salida de un diálogo en un texto sobreimpresionado visualizado en la pantalla en la que se reproduce una imagen multimedia. Por otro lado, la pluralidad de DPU 320 a 340 incluyen elementos de información de texto sobre el contenido del diálogo a visualizar e información sobre tiempos de salida respectivos.
La figura 4 ilustra un flujo continuo de subtítulos basado en texto 220 que presenta la estructura de datos mostrada en la figura 3 de acuerdo con una forma de realización de la presente invención.
Haciendo referencia a la figura 4, el flujo continuo de subtítulos basado en texto 220 incluye una DSU 410 y una pluralidad de DPU 420.
En la forma de realización ejemplificativa de la presente invención, el número de DPU se define como num_de_unidades_presentación_diálogo. No obstante, el número de DPU no se puede especificar por separado. Un caso ejemplificativo es el uso de una sintaxis tal como mientras (longitud_procesada<fin_de_archivo).
A continuación se explicarán más detalladamente, haciendo referencia a la figura 5, las estructuras de datos de una DSU y una DPU. La figura 5 ilustra una unidad de estilo de diálogo mostrada en la figura 3 según una forma de realización de la presente invención.
Haciendo referencia a la figura 5, en la DSU 310, se define un conjunto de elementos de información de estilo de diálogo, conjuntoestilos_diálogo() 510, en el que se recogen elementos de información de estilo de diálogo correspondientes a un diálogo a visualizar como texto sobreimpresionado. La DSU 310 incluye información sobre la ubicación de una región en la que se visualiza un diálogo en un texto sobreimpresionado, información requerida para la reconstrucción de un diálogo, información sobre estilos que puede controlar un usuario, y otros. El contenido detallado de los datos se explicará posteriormente.
La figura 6 es un diagrama para explicar una estructura de datos ejemplificativa de una unidad de estilo de diálogo (DSU) según una forma de realización de la presente invención.
Haciendo referencia a la figura 6, la DSU 310 incluye una colección de paletas 61 y una colección de estilos de región 620. La colección de paletas 610 es un conjunto de una pluralidad de paletas de color que definen colores a usar en un texto sobreimpresionado. Una combinación de colores o información de colores, tal como un grado de transparencia, incluido en la colección de paletas 610 se puede aplicar a la totalidad de la pluralidad de DPU ubicadas después de la DSU.
La colección de estilos de región 620 es un conjunto de elementos de información de estilo de salida de diálogos respectivos que forman un texto sobreimpresionado. Cada estilo de región incluye información de región 622 que indica una ubicación en la que se va a visualizar un diálogo en una pantalla; información de estilo de texto 624 que indica un estilo de salida a aplicar en el texto de cada diálogo; y una colección de estilos cambiables por el usuario 626 que indica estilos que puede cambiar arbitrariamente un usuario para ser aplicados al texto de cada diálogo.
La figura 7 es un diagrama para explicar una estructura de datos ejemplificativa de una unidad de estilo de diálogo según otra forma de realización de la presente invención.
Haciendo referencia a la figura 7, a diferencia de la figura 6, la colección de paletas 610 no está incluida. Es decir, no se define en la DSU 310 una colección de paletas de colores, aunque en una DPU se define una colección de paletas 610 que se explicará haciendo referencia a la figura 12A y la figura 12B. La estructura de datos de cada estilo de región 710 es la misma que la descrita anteriormente haciendo referencia a la figura 6.
La figura 8 ilustra una unidad de estilo de diálogo mostrada en la figura 6 ó 7 según una forma de realización de la presente invención.
Haciendo referencia a la figura 8 y la figura 6, la DSU 310 incluye una colección de paletas 860 y 610 y una pluralidad de estilos de región 820 y 620. Tal como se ha descrito anteriormente, la colección de paletas 610 es un conjunto de una pluralidad de paletas de colores que definen colores a usar en un texto sobreimpresionado. Una combinación de colores o información de colores, tal como un grado de transparencia, incluido en la colección de paletas 610 se puede aplicar a la totalidad de la pluralidad de DPU ubicadas después de la DSU.
Por otro lado, cada estilo de región 820 y 620 incluye información de región 830 y 622 que indica información sobre una región de ventana en la que se va a visualizar en una pantalla un texto sobreimpresionado, y la información de región 830 y 622 incluye información sobre coordenadas X, Y, la anchura, la altura, el color de fondo, y otros de la región de ventana en la que se va a visualizar en una pantalla un texto sobreimpresionado.
Además, cada estilo de región 820 y 620 incluye información de estilo de texto 840 y 624 que indica un estilo de salida a aplicar en el texto de cada diálogo. Es decir, se pueden incluir coordenadas X, Y de la ubicación en la que se va a visualizar el texto de un diálogo en la región de ventana descrita anteriormente, la dirección de salida del texto tal como desde el lado izquierdo hacia el lado derecho, o desde arriba a abajo, el tipo, la separación entre líneas, un identificador de una fuente a la que remitirse, un estilo de fuente tal como negrita o cursiva, un tamaño de fuente, e información sobre un color de fuente, y otros.
Además, cada estilo de región 820 y 620 puede incluir también una colección de estilos cambiables por el usuario 850 y 626 que indica estilos que puede cambiar arbitrariamente un usuario. No obstante, la colección de estilos cambiable por el usuario 850 y 626 es opcional. La colección de estilos cambiables por el usuario 850 y 626 puede incluir información de cambio sobre la ubicación de una región de ventana, la ubicación de salida del texto, el tamaño de la fuente, y el espacio entre líneas entre elementos de información de estilo de salida de texto 840 y 624.
Cada elemento de información de cambio se puede expresar como un valor relativamente incrementado o decrementado en relación con información sobre estilos de salida 840 y 624 a aplicar al texto de cada diálogo.
Para resumir lo anterior, existen tres tipos de información de relación de estilos, información de estilo (estilo_región) 620 definida en el estilo de región 820 y 620, información de estilo en línea (estilo_enlínea) 1510 que se explicará posteriormente y destinada a realzar parte de un texto sobreimpresionado, e información de estilos cambiables por el usuario (estilo_cambiable_usuario) 850, y el orden de aplicación de estos elementos de información es el siguiente:
1) Básicamente, se aplica información de estilo de región 620 definida en un estilo de región.
2) Si hay información de estilo en línea, la información de estilo en línea 1510 se aplica superpuesta sobre una parte en la que se aplica información de estilo de región, y realzando una parte del texto sobreimpresionado.
3) Si hay información de estilos cambiables por el usuario 850, esta información se aplica al final. La presencia de información de estilos cambiables por el usuario es opcional.
Por otro lado, entre los elementos de información de estilo de texto 840 y 624 a aplicar al texto de cada diálogo, la información de archivo de fuentes a la que remite el identificador de una fuente (id_fuente) 842 se puede definir de la manera siguiente.
La figura 9A ilustra un archivo ejemplificativo de información de fragmento 910 que incluye una pluralidad de colecciones de fuentes a las que remite la información de fuentes 842 mostrada en la figura 8 según una forma de realización de la presente invención.
Haciendo referencia a la figura 9A, la figura 8, la figura 2 y la figura 1, en InfoCodificaciónFlujos() 930, es decir, una estructura de información de codificación de flujos incluida en el archivo de información de fragmento 910 y 110, se incluye información sobre una variedad de flujos continuos grabados en un soporte de almacenamiento según la presente invención. Es decir, se incluye información sobre un flujo continuo de vídeo 202, un flujo continuo de audio, un flujo continuo de gráficos de presentación, un flujo continuo de gráficos interactivos, un flujo continuo de subtítulos basado en texto y otros. En particular, en relación con el flujo continuo de subtítulos basado en texto 220, se puede incluir información (código_idioma_textoST) 932 sobre un idioma para visualizar un texto sobreimpresionado. Además, se pueden definir un nombre de fuente 936 y un nombre de archivo 938 de un archivo que almacene información de fuentes, en correspondencia con id_fuente 842 y 934 que indican el identificador de una fuente a la que se hará referencia y se mostrará en la figura 8. Posteriormente se explicará, haciendo referencia a la figura 10, un método para hallar un archivo de fuentes correspondiente al identificador de una fuente al que se hará referencia y se definirá en el presente documento.
La figura 9B ilustra un archivo ejemplificativo de información de fragmento 940 que incluye una pluralidad de colecciones de fuentes a las que remite la información de fuentes 842 mostrada en la figura 8 según otra forma de realización de la presente invención.
Haciendo referencia a la figura 9B, en el archivo de información de fragmento 910 y 110 se puede definir una estructura, InfoFragmento(). En esta estructura, se puede definir una pluralidad de colecciones de fuentes a las que remite la información de fuentes 842 mostrada en la figura 8. Es decir, se especifica un nombre de archivo de fuentes 952 correspondiente al id_fuente 842 que indica el identificador de una fuente al que se hará referencia y se mostrará en la figura 8. A continuación se explicará el método para hallar un archivo de fuentes correspondiente al identificador de una fuente definido en el presente documento y al que se hará referencia.
La figura 10 es un diagrama que muestra ubicaciones de una pluralidad de archivos de fuentes a los que remite el nombre de archivo de fuentes 938 y 952 en la figura 9A y la figura 9B.
Haciendo referencia a la figura 10, se muestra una estructura de directorio de archivos que se relacionará con una imagen multimedia grabada en un soporte de almacenamiento según una forma de realización de la presente invención. En particular, usando la estructura de directorio, se puede hallar fácilmente la ubicación de un archivo de fuentes tal como 11111.fuente 1010 ó 99999.fuente 1020 almacenado en un directorio de datos auxiliares (DATOSAUX).
Por otro lado, a continuación se explicará más detalladamente, haciendo referencia a la figura 11, la estructura de una DPU que forma una unidad de diálogo.
La figura 11 es un diagrama para explicar una estructura de datos ejemplificativa de la DPU 320 mostrada en la figura 3 según otras formas de realización de la presente invención.
Haciendo referencia a la figura 11 y la figura 3, la DPU 320 que incluye información de texto sobre contenidos de diálogos a los que se dará salida e información sobre un tiempo de visualización incluye información de tiempo 1110 que indica un tiempo para dar salida a un diálogo en una pantalla, información de remisión de paleta 1120 que especifica una paleta de color a la que remitirse, e información de región de diálogo 1130 para dar salida a un diálogo en una pantalla. En particular, la información de región de diálogo 1130 para dar salida a un diálogo en una pantalla incluye información de remisión de estilo 1132 que especifica un estilo de salida a aplicar en el diálogo e información de texto de diálogo 1134 que indica el texto de un diálogo al que se dará salida realmente en una pantalla. En este caso, se supone que la colección de paletas de colores indicada mediante la información de remisión de paleta 1120 está definida en una DSU (Remitirse a la referencia 610 de la figura 6).
Por otro lado, la figura 12A es un diagrama para explicar una estructura de datos ejemplificativa de la DPU 320 mostrada en la figura 3 según una forma de realización de la presente invención.
Haciendo referencia a la figura 12A y la figura 3, la DPU 320 incluye información de tiempo 1210 que indica un tiempo para dar salida a un diálogo en una pantalla, una colección de paletas 1220 que define una colección de paletas de colores, e información de región de diálogo 1230 para dar salida a un diálogo en una pantalla. En este caso, la colección de paletas 1220 no está definida en una DSU tal como se muestra en la figura 11, sino que está definida directamente en la DPU 320.
Por otro lado, la figura 12B es un diagrama para explicar una estructura de datos ejemplificativa de la DPU 320 mostrada en la figura 3 según una forma de realización de la presente invención.
Haciendo referencia a la figura 12B, la DPU 320 incluye información de tiempo 1250 que indica un tiempo para dar salida a un diálogo en una pantalla, una bandera de actualización de color 1260, una colección de paletas de colores 1270 a usar cuando la bandera de actualización de color esté fijada a 1, y una información de región de diálogo 1280 para dar salida a un diálogo en una pantalla. En este caso, la colección de paletas 1270 se define también en una DSU tal como en la figura 11, y se almacena también en la DPU 320. En particular, para expresar un fundido de entrada/salida usando reproducción continua, además de una colección de paletas básica definida en una DSU, en la DPU 320 se define una colección de paletas de colores 1270 que se usará para expresar el fundido de entrada/salida, y la bandera de actualización de color 1260 se puede fijar a 1. Esto se explicará más detalladamente haciendo referencia a la figura 19.
La figura 13 ilustra la DPU 320 mostrada en las figuras 11 a 12B según una forma de realización de la presente invención.
Haciendo referencia a la figura 13, la figura 11, la figura 12A y la figura 12B, la DPU incluye información de tiempo inicial de diálogo (PTS_inicio_diálogo) e información de tiempo final de diálogo (PTS_fin_diálogo) 1310 como información de tiempo 1110 que indica un tiempo para dar salida a un diálogo en una pantalla. Además, el identificador de paleta de diálogo (id_paleta_diálogo) se incluye como información de remisión de paleta 1120. En el caso de la figura 12A, se puede incluir la colección de paletas de colores 1220 en lugar de la información de remisión de paleta 1120. La información de texto de diálogo (subtítulo_región) 1334 se incluye como información de región de diálogo 1230 para dar salida a un diálogo, y con el fin de especificar un estilo de salida a aplicar en el mismo, se puede incluir un identificar de estilo de región (id_estilo_región) 1332. El ejemplo mostrado en la figura 13 es simplemente una forma de realización de una DPU, y la DPU que presenta las estructuras de datos mostradas en las figuras 11 a 12B se puede implementar con modificaciones según una variedad de maneras.
La figura 14 es un diagrama para explicar la estructura de datos de información de texto de diálogo (subtítulo_región) mostrada en la figura 13.
Haciendo referencia a la figura 14, la información de texto de diálogo 1134 mostrada en la figura 11, 1234 mostrada en la figura 12A, 1284 mostrada en la figura 12B, y 1334 mostrada en la figura 13, incluye información de estilo en línea 1410 y texto de diálogo 1420 como estilo de salida para realzar parte de un diálogo.
La figura 15 ilustra información de texto de diálogo 1334 mostrada en la figura 13 según una forma de realización de la presente invención. Tal como se muestra en la figura 15, la información de texto de diálogo 1334 se implementa por medio de la información de estilo en línea (estilo_enlínea) 1510 y el texto de diálogo (cadena_texto) 1520. Además, es preferible que, en la forma de realización mostrada en la figura 15, se incluya información que indique el fin de un estilo en línea. A no ser que se defina la parte final de un estilo en línea, un estilo en línea especificado una vez se puede aplicar después de manera continua en contraposición a la intención de un fabricante.
Por otro lado, la figura 16 es un diagrama para explicar limitaciones en la reproducción continua de DPU continuas.
Haciendo referencia a la figura16 y la figura 13, cuando es necesario reproducir continuamente la pluralidad de DPU tal como se ha descrito anteriormente, son necesarias las siguientes limitaciones.
1) La información de tiempo inicial de diálogo (PTS_inicio_diálogo) 1310 definida en una DPU indica un instante de
tiempo en el que comienza a darse salida a un objeto de diálogo en un plano gráfico (GP) que se explicará
posteriormente haciendo referencia a la figura 17.
2) La información de tiempo final de diálogo (PTS_fin_diálogo) 1310 definida en una DTU indica un instante de
tiempo para reinicializar un decodificador de subtítulos basados en texto que procesa un subtítulo basado en
texto que se explicará posteriormente haciendo referencia a la figura 17.
3) Cuando es necesario reproducir continuamente una pluralidad de DPU descritas anteriormente, la información de tiempo final de diálogo (PTS_fin_diálogo) de una DPU actual debería ser la misma que la información de tiempo inicial de diálogo (PTS_inicio_diálogo) de una DPU que se reproducirá seguidamente de manera continua. Es decir, en la figura 16, con el fin de reproducir continuamente la DPU n.º 2 y la DPU n.º 3, la información de tiempo final de diálogo incluida en la DPU n.º 2 debería ser la misma que la información de tiempo inicial de diálogo incluida en la DPU n.º 3.
Por otro lado, es preferible que una DSU según la presente invención cumpla las siguientes limitaciones.
1) Un flujo continuo de subtítulos basado en texto 220 incluye una DSU.
2) El número de elementos de información de estilo cambiable por el usuario (estilo_control_usuario) incluidos en todos los estilos de región (estilo_región) debería ser idéntico.
Por otro lado, es preferible que una DPU según la presente invención cumpla las siguientes limitaciones.
1) Debería definirse una región de ventana para por lo menos dos textos sobreimpresionados.
A continuación se explicará en el presente documento, haciendo referencia a la figura 17, la estructura de un aparato de reproducción ejemplificativo basado en la estructura de datos de un flujo continuo de subtítulos basado en texto 220 grabado en un soporte de almacenamiento según una forma de realización de la presente invención.
La figura 17 es un diagrama para explicar la estructura de un aparato de reproducción ejemplificativo para reproducir un flujo continuo de subtítulos basado en texto según una forma de realización de la presente invención.
Haciendo referencia a la figura 17, el aparato de reproducción (reproducing) 1700, conocido también como dispositivo de reproducción (playback), incluye una unidad de memoria intermedia que comprende una memoria intermedia de precarga de fuentes (FPB) 1710 para almacenar archivos de fuentes, y una memoria intermedia de precarga de subtítulos (SPB) 1712 para almacenar archivos de subtítulos basados en texto, y un decodificador de subtítulos basados en texto 1730 que decodifica y reproduce el flujo continuo de subtítulos basado en texto grabado previamente en un soporte de almacenamiento, como salida, a través de un plano gráfico (GP) 1750 y una tabla de consulta de colores (CLUT) 1760.
Específicamente, la unidad de memoria intermedia incluye una memoria intermedia de precarga de subtítulos (SPB) 1710 en la que se pre-carga un flujo continuo de datos de subtítulos basados en texto 220, y una memoria intermedia de precarga de fuentes (FPB) 1712 en la que se pre-carga información de fuentes.
El decodificador de subtítulos 1730 incluye un procesador de subtítulos de texto 1732, una memoria intermedia de composiciones de diálogo (DCB) 1734, una memoria intermedia de diálogos (DB) 1736, un constructor (renderer) de subtítulos de texto 1738, un controlador de presentaciones de diálogo 1740, y una memoria intermedia de objetos de mapas de bits (BOB) 1742.
El procesador de subtítulos de texto 1732 recibe el flujo continuo de datos de subtítulos basados en texto 220 desde la memoria intermedia de precarga de subtítulos de texto (SPB) 1710, transfiere información relacionada con el estilo incluida en la DSU e información de tiempo de salida de diálogos incluida en la DPU descrita anteriormente, hacia la memoria intermedia de composiciones de diálogo (DCB) 1734, y transfiere información de texto de diálogo incluida en la DPU, hacia la memoria intermedia de diálogos (DB) 1736.
El controlador de presentaciones 1740 controla el reconstructor de texto 1738 usando la información relacionada con el estilo incluida en la memoria intermedia de composiciones de diálogo (DCB) 1734, y usando la información de tiempo de salida de diálogo, controla un tiempo para dar salida a una imagen de mapa de bits reconstruida en la memoria intermedia de objetos de mapas de bits (BOB) 1742 hacia el plano gráfico (GP) 1750.
De acuerdo con el control del controlador de presentaciones 1740, el reconstructor de subtítulos de texto 1738 convierte información de texto de diálogo en una imagen de mapa de bits, es decir, ejecuta una reconstrucción, aplicando a la información de texto de diálogo un elemento de información de fuentes correspondiente a información de texto de diálogo almacenada en la memoria intermedia de diálogos (DB) 1736 entre elementos de información de fuentes pre-cargados en la memoria intermedia de precarga de fuentes (FPB) 1712. La imagen de mapa de bits reconstruida se almacena en la memoria intermedia de objetos de mapas de bits (BOB) 1742 y de acuerdo con el control del controlador de presentaciones 1740, se le da salida hacia el plano gráfico (GP) 1750. En este momento, se aplica por remisión a la tabla de consulta de colores (CLUT) 1760 un color especificado en la DSU.
Como información de relación con el estilo a aplicar al texto de diálogo, se puede usar información definida en la DSU por un fabricante, y también se puede aplicar información relacionada con el estilo predefinida por un usuario. El aparato de reproducción 1700, tal como se muestra en la figura 17, aplica la información de estilo definida por un usuario antes que la información relacionada con el estilo definida por un fabricante.
Tal como se ha descrito haciendo referencia a la figura 8, como información relacionada con el estilo a aplicar al texto de diálogo, se aplica básicamente información de estilo de región (estilo_región) definida en una DSU por un fabricante, y si se incluye un estilo en línea en una DPU que incluye texto de diálogo en el que se aplica la información de estilo de región, a la parte correspondiente se le aplica información de estilo en línea (estilo_enlínea). Además, si un fabricante define estilos cambiables por el usuario adicionalmente en la DSU y se selecciona uno de los estilos cambiables por el usuario definidos por un usuario, se aplican el estilo de región y/o el estilo en línea y, a continuación, se aplica finalmente el estilo cambiable por el usuario. Además, tal como se ha descrito haciendo referencia a la figura 15, es preferible que, en el contenido del estilo en línea, se incluya información que indique el final de la aplicación de un estilo en línea.
Además, un fabricante puede especificar si se permite o prohíbe usar información relacionada con el estilo definida en el propio aparato de reproducción de forma independiente con respecto a la información relacionada con el estilo definida por el fabricante y grabada en un soporte de almacenamiento.
La figura 18 es un diagrama que explica un proceso de precarga de un flujo continuo de datos de subtítulos basado en texto 220 en un aparato de reproducción 1700, tal como se muestra, por ejemplo, en la figura 17, según una forma de realización de la presente invención.
Haciendo referencia a la figura 18, en una subruta de la lista de reproducción antes descrita se define un flujo continuo de datos de subtítulos basados en texto 220, mostrados en la figura 2. En la subruta, se puede definir una pluralidad de flujos continuos de datos de subtítulos basados en texto 220 que soportan una pluralidad de idiomas. Además, en un archivo de información de fragmento 910 ó 940 se puede definir un archivo de fuentes a aplicar a un subtítulo basado en texto, tal como se ha descrito anteriormente haciendo referencia a la figura 9A y la figura 9B. En cada lista de reproducción se pueden definir hasta 255 flujos continuos de datos de subtítulos basados en texto 220 que se pueden incluir en un soporte de almacenamiento. Además, se pueden definir hasta 255 archivos de fuentes que se pueden incluir en un soporte de almacenamiento. No obstante, para garantizar una presentación sin fisuras, el tamaño de un flujo continuo de datos de subtítulos basados en texto 220 debería ser menor que o igual al de la memoria intermedia de precarga 1710 de un aparato de reproducción 1700, mostrado, por ejemplo, en la figura 17.
La figura 19 es un diagrama que explica un proceso de reproducción de una DPU en un aparato de reproducción según la presente invención.
Haciendo referencia a la figura 19, la figura 13, y la figura 17, se muestra el proceso de reproducción de una DPU. El controlador de presentación 1740 controla el tiempo para dar salida a un diálogo reconstruido en un plano gráfico (GP) 1750, mostrado en la figura 17, usando información de tiempo inicial de diálogo (PTS_inicio_diálogo) e información de tiempo final de diálogo (PTS_fin_diálogo) que especifican el tiempo de salida 1310 de un diálogo incluido en una DPU. En este momento, la información de tiempo inicial de diálogo especifica un tiempo en el que se completa la transferencia de una imagen de mapa de bits de diálogo reconstruida, almacenada en la memoria intermedia de objetos de mapas de bits (BOB) 1742 incluida en el decodificador de subtítulos basados en texto 1730, hacia el plano gráfico (GP) 1750. Es decir, si se trata del tiempo inicial de diálogo definido en la DPU, la información de mapa de bits requerida para construir un diálogo debería estar lista para ser usada después de completar la transferencia de la información hacia el plano gráfico (GP) 1750. Además, la información de tiempo final de diálogo especifica un tiempo en el que se finaliza la reproducción de una DPU. En este momento, se reinicializan tanto el decodificador de subtítulos 1730 como el plano gráfico (GP) 1750. Es preferible que, entre un tiempo inicial y un tiempo final de una DPU con independencia de la reproducción continua, se reinicialice una memoria intermedia en el decodificador de subtítulos 1730 tal como la memoria intermedia de objetos de mapas de bits (BOB) 1742.
No obstante, cuando es necesaria una reproducción continua de una pluralidad de DPU, el decodificador de subtítulos 1730 y el plano gráfico 1750 no se reinicializan y debería mantenerse el contenido almacenado en cada memoria intermedia, tal como la memoria intermedia de composiciones de diálogo (DCB) 1734, la memoria intermedia de diálogos (DB) 1736, y la memoria intermedia de objetos de mapas de bits (BOB) 1742. Es decir, cuando la información de tiempo final de diálogo de una DPU que está siendo reproducida actualmente y la información de tiempo inicial de diálogo de una DPU que se va a reproducir a continuación de manera continua es la misma, el contenido de cada memoria intermedia no se reinicializa sino que se mantiene.
En particular, como ejemplo de aplicación de reproducción continua de una pluralidad de DPU, tenemos el efecto de fundido de entrada/salida. El efecto de fundido de entrada/salida se puede implementar cambiando una tabla de consulta de colores (CLUT) 1760 de un objeto de mapa de bits que se transfiere hacia el plano gráfico (GP) 1750. Es decir, una primera DPU incluye información de composición tal como un color, un estilo, y un tiempo de salida, y una pluralidad de DPU que van a continuación después de la primera tienen información de composición idéntica a la de la primera DPU, aunque actualizan únicamente la información de paleta de colores. En este caso, cambiando gradualmente la transparencia entre elementos de información de color, desde el 0 % al 100 %, se puede implementar el efecto de fundido de entrada/salida.
En particular, cuando se usa la estructura de datos de la DPU según se muestra en la figura 12B, el efecto de fundido de entrada/salida se puede implementar eficazmente usando la bandera de actualización de color 1260. Es decir, si el controlador de presentaciones de diálogo 1740 comprueba y confirma que la bandera de actualización de color 1260 incluida en la DPU está fijada a “0”, es decir, si se trata de un caso común que no requiere el efecto de fundido de entrada/salida, se usa básicamente información de color incluida en la DSU mostrada en la figura 6. No obstante, si el controlador de presentaciones 1740 confirma que la bandera de actualización de color 1260 se ha fijado a “1”, es decir, si no se necesita el efecto de fundido de entrada/salida, se puede implementar el efecto de fundido de entrada/salida usando información de color 1270 incluida en la DPU, en lugar de usar la información de color 610 incluida en la DSU mostrada en la figura 6. En este momento, ajustando la transparencia de la información de color 1270 incluida en la DPU, se puede implementar de manera sencilla el efecto de fundido de entrada/salida.
Después de mostrar así el efecto de fundido de entrada/salida, es preferible actualizar la tabla de consulta de colores (CLUT) 1760 a la información de color original incluida en la DSU. Esto es debido a que, a menos que se actualice, la información de color especificada una vez se puede aplicar seguidamente de manera continua en contraposición a la intención del fabricante.
La figura 20 es un diagrama que explica un proceso en el que un flujo continuo de subtítulos basados en texto se sincroniza con datos de imágenes en movimiento y se le da salida en un aparato de reproducción de acuerdo con una forma de realización de la presente invención.
Haciendo referencia a la figura 20, la información de tiempo inicial de diálogo y la información de tiempo final de diálogo incluidas en una DPU del flujo continuo de datos de subtítulos basados en texto 220 deberían definirse como instantes de tiempo en un eje de tiempo global usado en una lista de reproducción para sincronizarse con el tiempo de salida de un flujo continuo de datos AV 210 de una imagen multimedia. Por consiguiente, se puede evitar la discontinuidad entre el reloj de tiempo del sistema (STC) de un flujo continuo de datos AV y el tiempo de salida de diálogo (PTS) del flujo continuo de datos de subtítulos basados en texto 220.
La figura 21 es un diagrama que explica un proceso en el que se da salida a un flujo continuo de datos de subtítulos basados en texto hacia una pantalla en un aparato de reproducción según una forma de realización de la presente invención.
Haciendo referencia a la figura 21, se muestra un proceso en el que aplicando información de reconstrucción 2102 que incluye información relacionada con el estilo, la información de texto de diálogo 2104 se convierte en una imagen de mapa de bits 2106, y a la imagen de mapa de bits convertida se le da salida en una ubicación correspondiente sobre un plano gráfico (GP) 1750, basándose en información de ubicación de salida (tal como posición_horizontal_región, y posición_vertical_región) incluida en la información de composición 2108.
La información de reconstrucción 2102 representa información de estilo tal como la anchura de una región, la altura, un color de primer plano, un color de fondo, tipo de texto, un nombre de fuente, un estilo de fuente, y un tamaño de fuente. Tal como se ha descrito anteriormente, la información de reconstrucción 2102 se define en la colección de estilos de región en una DSU. Por otro lado, la información de composición 2108 indica el tiempo inicial y el tiempo final de la presentación, la información de ubicación horizontal y vertical de una región de ventana en la que se da salida a un texto sobreimpresionado en un plano gráfico (GP) 1750 y otros. Esto se define en una DPU.
La figura 22 es un diagrama que explica un proceso de reconstrucción de un flujo continuo de datos de subtítulos basados en texto 220 en un aparato de reproducción 1700, mostrado, por ejemplo, en la figura 17 de acuerdo con una forma de realización de la presente invención.
Haciendo referencia a la figura 22, la figura 21, y la figura 8, como región en la que se visualiza un texto sobreimpresionado en un plano gráfico (GB) 1750 se especifica una región de ventana especificada usando la posición_horizontal_región, posición_vertical_región, anchura_región, y altura_región que son información de ubicación 830 de una región de ventana para un texto sobreimpresionado definido en una DSU. La imagen de mapa de bits de un diálogo reconstruido se visualiza desde una ubicación de punto inicial especificada por posición_horizontal_texto y posición_vertical_texto que son la ubicación de salida 840 del diálogo en la región de ventana.
Por otro lado, un aparato de reproducción de acuerdo con la presente invención almacena información de estilo (ID_estilo) seleccionada por un usuario en un área de registro de sistema. La figura 23 ilustra un registro de estados ejemplificativo dispuesto en un aparato de reproducción para reproducir un flujo continuo de datos de subtítulos basados en texto de acuerdo con una forma de realización de la presente invención.
Haciendo referencia a la figura 23, el registro de estados (registros de estados del reproductor, a los que en lo sucesivo se hará referencia en el presente documento como PSRs) almacena información de estilo (Estilo Seleccionado 2310) seleccionada por un usuario en el registro 12º. Por consiguiente, por ejemplo, incluso después de que el aparato de reproducción 1700, mostrado, por ejemplo, en la figura 17, ejecute una llamada a menú u otra operación, si el usuario pulsa un botón de cambio de información de estilo, se puede conseguir que la información de estilo seleccionada previamente por el usuario sea aplicada en primer lugar por remisión al PSR 12. El registro que almacena la información se puede cambiar.
A continuación se explicarán, haciendo referencia a la figura 24, un método de reproducción de un flujo continuo de datos de subtítulos basados en texto 220 basándose en un soporte de almacenamiento que graba el flujo continuo de subtítulos basados en texto 220 y la estructura de un aparato de reproducción que reproduce el flujo continuo de datos de subtítulos 220 descrito anteriormente. La figura 24 es un diagrama de flujo de las operaciones de un método de reproducción de un flujo continuo de datos de subtítulos basados en texto 220 según una forma de realización de la presente invención.
El flujo continuo de datos de subtítulos basados en texto 220 que incluye información de DSU e información de DPU se lee de un soporte de almacenamiento 230, mostrado, por ejemplo, en la figura 2, en la operación 2410, y, basándose en información de reconstrucción incluida en la información de DSU, un texto sobreimpresionado incluido en la información de DPU se convierte en una imagen de mapa de bits en la operación 2420. A la imagen de mapa de bits convertida se le da salida sobre una pantalla de acuerdo con información de tiempo o información de ubicación que constituyen la información de composición incluida en la información de DPU, en la información 2430.
Tal como se ha descrito a partir de lo anterior, la presente invención proporciona de manera ventajosa un soporte de almacenamiento que almacena un flujo continuo de datos de subtítulos basados en texto de forma independiente con respecto a datos de imágenes, un aparato de reproducción y un método de reproducción para reproducir dicho flujo continuo de datos de subtítulos basados en texto de tal manera que se puede simplificar la producción de datos de subtítulos y la edición de datos de subtítulos producidos. Además, con independencia del número de elementos de datos de subtítulos, se puede proporcionar un texto sobreimpresionado en una pluralidad de idiomas.
Adicionalmente, puesto que en los datos de subtítulos se forman un elemento de información de estilo (DSU) y una pluralidad de elementos de información de presentación (DPU), se puede definir de antemano un estilo de salida que se aplicará a los datos de presentación completos, y el mismo se puede cambiar según una variedad de maneras, y también se puede definir un estilo en línea para realzar parte de un texto sobreimpresionado y un estilo cambiable por el usuario.
Además, usando una pluralidad de elementos de información de presentación vecinos, se posibilita la reproducción continua de un texto sobreimpresionado y, aplicando esto, se pueden implementar fácilmente un fundido de entrada/salida y otros efectos.
Formas de realización ejemplificativas de la presente invención también se pueden escribir como programas informáticos y se pueden implementar en ordenadores digitales de uso general que ejecuten los programas usando un soporte legible por ordenador. Los ejemplos del soporte legible por ordenador incluyen soportes de almacenamiento magnéticos (por ejemplo, ROM, discos flexibles, discos duros, etcétera), soportes de grabación ópticos (por ejemplo, CD-ROM, DVD, etcétera), y soportes de almacenamiento tales como ondas portadoras (por ejemplo, transmisión a través de Internet). El soporte legible por ordenador también puede estar distribuido a través de sistemas informáticos acoplados mediante una red de manera que el código legible por ordenador se almacena y ejecuta de una forma distribuida.
Aunque se han ilustrado y descrito lo que se considera como formas de realización ejemplificativas de la presente invención, aquellos expertos en la materia, y a medida que la tecnología evolucione, entenderán que se pueden realizar varios cambios y modificaciones, y que elementos de las mismas se pueden sustituir por equivalentes sin desviarse con respecto al alcance de la presente invención. Se pueden realizar muchas modificaciones para adaptar las enseñanzas de la presente invención a una situación particular sin desviarse con respecto al alcance de la misma. Por ejemplo, se pueden utilizar soportes legibles por ordenador o dispositivos de almacenamiento de datos cualesquiera, siempre que en los mismos se graben por separado datos de subtítulos basados en texto y datos AV. Adicionalmente, los datos de subtítulos basados en texto también se pueden configurar de manera diferente a la que se muestra en la figura 3 ó la figura 4. Por otra parte, un aparato de reproducción según se muestra en la figura 17 se puede implementar como parte de un aparato de grabación, o alternativamente un aparato individual para ejecutar funciones de grabación y/o reproducción con respecto a un soporte de almacenamiento. De manera similar, el CPU se puede implementar como un conjunto de chips que tenga un microprograma, o alternativamente, un ordenador de función general o específica programado para ejecutar los métodos según se ha descrito, por ejemplo, haciendo referencia a la figura 24. Por consiguiente, se pretende de este modo que la presente invención no se limite a las diversas formas de realización ejemplificativas dadas a conocer, sino que la presente invención incluye todas las formas de realización que se sitúan dentro del alcance de las reivindicaciones adjuntas.
Aplicabilidad industrial
La presente invención se aplica a un soporte de almacenamiento en el que se graba un flujo continuo de subtítulos basados en texto, y a un aparato y método de reproducción para reproducir datos de subtítulos basados en texto 5 grabados en dicho soporte de almacenamiento.
La presente invención proporciona de manera ventajosa un soporte de almacenamiento que almacena un flujo continuo de datos de subtítulos basados en texto de forma independiente con respecto a datos de imágenes, un aparato de reproducción y un método de reproducción para reproducir dicho flujo continuo de datos de subtítulos
10 basados en texto de tal manera que se puede simplificar la producción de datos de subtítulos y la edición de datos de subtítulos producidos. Además, con independencia del número de elementos de datos de subtítulos, se puede proporcionar un texto sobreimpresionado en una pluralidad de idiomas.

Claims (5)

  1. REIVINDICACIONES
    1. Aparato para reproducir datos a partir de un soporte de almacenamiento que almacena datos de imágenes y datos de subtítulos basados en texto, que comprende:
    un decodificador de vídeo dispuesto para decodificar los datos de imágenes; y
    un decodificador de subtítulos dispuesto para recibir los datos de subtítulos basados en texto que comprenden una unidad de presentación de diálogo (320) y una unidad de estilo de diálogo (310), para convertir la unidad de presentación de diálogo en una imagen de mapa de bits basándose en la unidad de estilo de diálogo, y para controlar la salida de la unidad de presentación de diálogo convertida, sincronizada con datos de imágenes decodificados,
    en el que la unidad de estilo de diálogo comprende un conjunto de estilos de salida y un primer conjunto de paletas de colores a aplicar en la unidad de presentación de diálogo,
    la unidad de presentación de diálogo comprende información de texto de diálogo, información de tiempo (1110) que indica un tiempo para dar salida a la información de texto de diálogo en una pantalla, información de remisión de estilo que indica un estilo de salida de entre el conjunto de estilos de salida, una bandera de actualización de color y un segundo conjunto de paletas de colores a usar cuando la bandera de actualización de color está fijada a “1”, y
    el primer y el segundo conjuntos de paletas de colores definen colores a aplicar en la información de texto de diálogo.
  2. 2.
    Aparato según la reivindicación 1, en el que el decodificador de subtítulos está dispuesto para decodificar los datos de subtítulos basados en texto grabados de forma independiente con respecto a los datos de imágenes en el soporte de almacenamiento, y para dar salida a los datos de subtítulos basados en texto superpuestos sobre los datos de subtítulos en los datos de imágenes decodificados.
  3. 3.
    Aparato según la reivindicación 2, en el que la unidad de presentación de diálogo y la unidad de estilo de diálogo están formadas en unidades de flujos continuos elementales por paquetes (PES), y el decodificador de subtítulos está dispuesto para analizar sintácticamente y procesar la unidad de presentación de diálogo y la unidad de estilo de diálogo en unidades de PES.
  4. 4.
    Aparato según la reivindicación 1, en el que el decodificador de subtítulos está dispuesto para almacenar temporalmente la información de texto de diálogo y un archivo de fuentes a los que remite la información de texto de diálogo antes de que se reproduzcan los datos de imágenes.
  5. 5.
    Aparato según la reivindicación 1, en el que, si en el soporte de almacenamiento está grabada una pluralidad de datos de subtítulos basados en texto que soportan una pluralidad de idiomas, el decodificador de subtítulos está dispuesto para recibir información de selección sobre un idioma deseado desde un usuario, y para reproducir uno de la pluralidad de datos de subtítulos basados en texto correspondientes a la información de selección.
ES05726932T 2004-02-28 2005-02-28 Aparato para reproducir datos a partir de un soporte de almacenamiento que almacena datos de imágenes y datos de subtítulos basados en texto. Expired - Lifetime ES2364644T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20040013827 2004-02-28
KR10-2004-0013827 2004-02-28
KR10-2004-0032290 2004-05-07

Publications (1)

Publication Number Publication Date
ES2364644T3 true ES2364644T3 (es) 2011-09-08

Family

ID=36760967

Family Applications (1)

Application Number Title Priority Date Filing Date
ES05726932T Expired - Lifetime ES2364644T3 (es) 2004-02-28 2005-02-28 Aparato para reproducir datos a partir de un soporte de almacenamiento que almacena datos de imágenes y datos de subtítulos basados en texto.

Country Status (9)

Country Link
JP (2) JP4776614B2 (es)
KR (1) KR100727921B1 (es)
CN (3) CN101360251B (es)
AT (1) ATE504919T1 (es)
DE (1) DE602005027321D1 (es)
ES (1) ES2364644T3 (es)
MY (1) MY139164A (es)
RU (1) RU2490730C2 (es)
TW (2) TWI320925B (es)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2358333C2 (ru) 2003-04-09 2009-06-10 Эл Джи Электроникс Инк. Носитель записи со структурой данных для управления воспроизведением данных текстовых субтитров и способы и устройства записи и воспроизведения
KR20050078907A (ko) 2004-02-03 2005-08-08 엘지전자 주식회사 고밀도 광디스크의 서브타이틀 재생방법과 기록재생장치
WO2005091728A2 (en) 2004-03-26 2005-10-06 Lg Electronics Inc. Recording medium, method, and apparatus for reproducing text subtitle streams
BRPI0509163A (pt) 2004-03-26 2007-09-11 Lg Electronics Inc meio de gravação, método e aparelho para reproduzir e gravar fluxos de subtìtulo de texto
ES2336223T3 (es) 2004-03-26 2010-04-09 Lg Electronics, Inc. Medio de grabacion o registro y metodo y aparato para reproducir un flujo o corriente de subtitulos de texto grabados en el medio de grabacion.
KR100818926B1 (ko) * 2006-10-31 2008-04-04 삼성전자주식회사 광 디스크의 프레젠테이션 그래픽 처리 장치 및 방법
US20080159713A1 (en) * 2006-12-28 2008-07-03 Mediatek Inc. Digital Video Recorder, Multimedia Storage Apparatus, And Method Thereof
CN101183524B (zh) * 2007-11-08 2012-10-10 腾讯科技(深圳)有限公司 一种歌词文字的显示方法及系统
US8428437B2 (en) 2008-02-14 2013-04-23 Panasonic Corporation Reproduction device, integrated circuit, reproduction method, program, and computer-readable recording medium
CN110364189B (zh) * 2014-09-10 2021-03-23 松下电器(美国)知识产权公司 再现装置以及再现方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5294982A (en) * 1991-12-24 1994-03-15 National Captioning Institute, Inc. Method and apparatus for providing dual language captioning of a television program
DE69324607T2 (de) * 1993-08-20 1999-08-26 Thomson Consumer Electronics Fernsehbildunterschrift-system fur anwendung mit komprimierter numerischer fernseh-ubertragung
AU701684B2 (en) * 1994-12-14 1999-02-04 Koninklijke Philips Electronics N.V. Subtitling transmission system
US5721720A (en) * 1994-12-28 1998-02-24 Kabushiki Kaisha Toshiba Optical recording medium recording pixel data as a compressed unit data block
JPH08241068A (ja) * 1995-03-03 1996-09-17 Matsushita Electric Ind Co Ltd 情報記録媒体およびビットマップデータ復号化装置とビットマップデータ復号化方法
JPH08275205A (ja) * 1995-04-03 1996-10-18 Sony Corp データ符号化/復号化方法および装置、および符号化データ記録媒体
US5848352A (en) * 1995-04-26 1998-12-08 Wink Communications, Inc. Compact graphical interactive information system
JP3484838B2 (ja) * 1995-09-22 2004-01-06 ソニー株式会社 記録方法及び再生装置
CN1104725C (zh) * 1995-11-24 2003-04-02 株式会社东芝 多种语言记录介质的再现装置
JPH10210504A (ja) * 1997-01-17 1998-08-07 Toshiba Corp 副映像カラーパレット設定システム
JPH10271439A (ja) * 1997-03-25 1998-10-09 Toshiba Corp 動画像表示システムおよび動画データ記録方法
US6288990B1 (en) * 1997-10-21 2001-09-11 Sony Corporation Reproducing apparatus, recording apparatus, and recording medium
JPH11196386A (ja) * 1997-10-30 1999-07-21 Toshiba Corp コンピュータシステムおよびクローズドキャプション表示方法
JP3377176B2 (ja) * 1997-11-28 2003-02-17 日本ビクター株式会社 オーディオディスク及びデコード装置
KR100327211B1 (ko) * 1998-05-29 2002-05-09 윤종용 부영상부호화방법및장치
JP2000023082A (ja) * 1998-06-29 2000-01-21 Toshiba Corp 多重テレビジョン放送対応の情報記録再生装置
JP2002056650A (ja) * 2000-08-15 2002-02-22 Pioneer Electronic Corp 情報記録装置、情報記録方法及び記録制御プログラムが記録された情報記録媒体
JP4467737B2 (ja) * 2000-08-16 2010-05-26 パイオニア株式会社 情報記録装置、情報記録方法及び記録制御プログラムが記録された情報記録媒体
JP4021264B2 (ja) * 2002-07-11 2007-12-12 株式会社ケンウッド 再生装置
KR100939711B1 (ko) * 2002-12-12 2010-02-01 엘지전자 주식회사 텍스트 기반의 서브타이틀 재생장치 및 방법
KR100930349B1 (ko) * 2003-01-20 2009-12-08 엘지전자 주식회사 고밀도 광디스크의 서브타이틀 데이터 관리방법
RU2358333C2 (ru) * 2003-04-09 2009-06-10 Эл Джи Электроникс Инк. Носитель записи со структурой данных для управления воспроизведением данных текстовых субтитров и способы и устройства записи и воспроизведения
KR20050078907A (ko) * 2004-02-03 2005-08-08 엘지전자 주식회사 고밀도 광디스크의 서브타이틀 재생방법과 기록재생장치
WO2005074400A2 (en) * 2004-02-10 2005-08-18 Lg Electronics Inc. Recording medium and method and apparatus for decoding text subtitle streams
CN100473133C (zh) * 2004-02-10 2009-03-25 Lg电子株式会社 再现文本字幕的方法和文本字幕解码系统
KR100739680B1 (ko) * 2004-02-21 2007-07-13 삼성전자주식회사 스타일 정보를 포함하는 텍스트 기반 서브타이틀을 기록한저장 매체, 재생 장치 및 그 재생 방법
ES2336223T3 (es) * 2004-03-26 2010-04-09 Lg Electronics, Inc. Medio de grabacion o registro y metodo y aparato para reproducir un flujo o corriente de subtitulos de texto grabados en el medio de grabacion.

Also Published As

Publication number Publication date
DE602005027321D1 (de) 2011-05-19
JP2011035922A (ja) 2011-02-17
RU2007146766A (ru) 2009-06-20
TW201009820A (en) 2010-03-01
MY139164A (en) 2009-08-28
KR20050088035A (ko) 2005-09-01
CN101360251B (zh) 2011-02-16
JP5307099B2 (ja) 2013-10-02
JP4776614B2 (ja) 2011-09-21
TWI417873B (zh) 2013-12-01
JP2007525904A (ja) 2007-09-06
CN101059984B (zh) 2010-08-18
TWI320925B (en) 2010-02-21
ATE504919T1 (de) 2011-04-15
RU2490730C2 (ru) 2013-08-20
CN1774759A (zh) 2006-05-17
HK1126605A1 (en) 2009-09-04
KR100727921B1 (ko) 2007-06-13
HK1116588A1 (en) 2008-12-24
TW200529202A (en) 2005-09-01
CN100479047C (zh) 2009-04-15
CN101059984A (zh) 2007-10-24
HK1088434A1 (zh) 2006-11-03
CN101360251A (zh) 2009-02-04

Similar Documents

Publication Publication Date Title
US8437612B2 (en) Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method for reproducing text-based subtitle stream recorded on the storage medium
JP5090744B2 (ja) テキスト・サブタイトルをデコードするテキスト・サブタイトル・デコーダ及び方法
ES2397699T3 (es) Aparato y método de reproducción de un soporte de almacenamiento que almacena datos de subtítulos basados en texto que incluyen información de estilo
US8615158B2 (en) Reproduction device, reproduction method, program storage medium, and program
KR101089974B1 (ko) 재생 장치, 재생 방법, 및 기록 매체
ES2364644T3 (es) Aparato para reproducir datos a partir de un soporte de almacenamiento que almacena datos de imágenes y datos de subtítulos basados en texto.
ES2338019T3 (es) Medio de grabacion y metodo y aparato para reproducir un flujo o corriente de subtitulos de texto grabados en el medio de grabacion.
HK1088434B (en) Storage medium recording text-based subtitle stream, apparatus and method reproducing thereof
HK1126605B (en) Storage medium recording text-based subtitle stream, apparatus and method reproducing thereof
HK1116588B (en) Method for reproducing storage medium recording text-based subtitle stream