ES2358889T3 - Alteraciones visuales posproducción. - Google Patents

Alteraciones visuales posproducción. Download PDF

Info

Publication number
ES2358889T3
ES2358889T3 ES02750391T ES02750391T ES2358889T3 ES 2358889 T3 ES2358889 T3 ES 2358889T3 ES 02750391 T ES02750391 T ES 02750391T ES 02750391 T ES02750391 T ES 02750391T ES 2358889 T3 ES2358889 T3 ES 2358889T3
Authority
ES
Spain
Prior art keywords
tag
video content
label
existing video
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES02750391T
Other languages
English (en)
Inventor
Thomas Lemmons
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intellocity USA Inc
Original Assignee
Intellocity USA Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=23199359&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2358889(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Intellocity USA Inc filed Critical Intellocity USA Inc
Application granted granted Critical
Publication of ES2358889T3 publication Critical patent/ES2358889T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25883Management of end-user data being end-user demographical data, e.g. age, family status or address
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management e.g. creating a master electronic programme guide from data received from the Internet and a Head-end or controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/47815Electronic shopping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4782Web browsing, e.g. WebTV
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • H04N21/8586Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by using a URL
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • H04N7/17318Direct or substantially direct transmission and handling of requests

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

Un procedimiento de superposición de una etiqueta (110, 230, 404, 410) que contiene material informativo sobre un contenido preexistente de vídeo para complementar dicho contenido preexistente de vídeo que comprende: el almacenamiento de una lista de anunciantes (316) junto con atributos asociados (310) de los anunciantes en una base de datos (306), representando los atributos (310) un objeto (228, 402, 408), una clase de objetos o un espacio vacío (314); la identificación en dicho contenido preexiste de vídeo de un objeto (228, 402, 408), una clase de objetos o un espacio vacío (314) para la colocación de una etiqueta (110, 230, 404, 410); la comparación (1318, 1328) de los objetos (228, 402, 408), la clase de objetos o el espacio vacío (314) identificados con objetos, clases de objetos o espacios vacíos enumerados como atributos (310) en la base de datos (306); la elección de una etiqueta (110, 230, 404, 410) en base a los atributos (310) de los anunciantes; la superposición de la etiqueta (110, 230, 404, 410) sobre el contenido preexiste de vídeo para que la etiqueta (110, 230, 404, 410) aparezca como parte integral de una señal unificada de vídeo.

Description

Antecedentes de la invención
a. Campo de la invención
La presente invención versa en general acerca de información de vídeo y, más en particular, acerca de mejoras y modificaciones visuales posproducción.
b. Descripción de los antecedentes
En la actualidad, los anuncios de televisión, tanto local como nacional, se ponen en bloques de 30 segundos durante los programas de televisión. Estos anuncios proporcionan el respaldo económico de la televisión moderna. Sin embargo, con la creciente intolerancia a estos anuncios por parte de los espectadores, junto con los avances tecnológicos, como el uso de grabadores personales de vídeo, está disminuyendo el visionado de los anuncios. Por ello, las empresas se han adentrado en la publicidad integrada, como poner de manera selectiva un producto en las manos de una personalidad televisiva en el transcurso de la programación. De esta manera, las empresas con presupuestos de publicidad nacional pueden promover productos/servicios de forma menos molesta.
Si esa publicidad integrada fuese de naturaleza más versátil, tal publicidad podría tener un impacto generalizado en la forma en que se promocionan los productos. Los procedimientos actuales de publicidad integrada forman parte de la producción original de vídeo y no tienen mucha versatilidad. Además, la publicidad integrada es muy cara e inflexible, porque debe estar incluida en la grabación original. En la actualidad, las filiales locales y los sistemas por cable de menor entidad no proporcionan manera alguna para la integración de la publicidad y, por lo tanto, no pueden ofrecer publicidad integrada. Además, una vez que se incluye publicidad integrada en una producción de vídeo, no ha habido manera efectiva de eliminar o alterar tal publicidad.
Cada uno de los documentos FR-A2 730 837, WO91/15921 y WO95/10919 se refiere a técnicas para integrar publicidad en contenido preexistente de vídeo.
El documento FR-A2 730 837 da a conocer la inserción de anuncios en tiempo real en imágenes de televisión captadas de eventos deportivos en los que cada cámara transmite a un sistema central de control su posición, el estado de su óptica y posiblemente la distancia a los objetos visualizados. En base a dicha información transmitida y a la información relativa a los objetos que han de ser reemplazados y al contenido de la sustitución (por ejemplo, el contenido de la superposición, el sincronismo, la frecuencia, etc.), el sistema central de control lleva a cabo la superposición sobre la marcha del contenido seleccionado en zonas seleccionadas de interés con la perspectiva correcta.
El documento WO91/15921 especifica que las zonas de interés que han de ser sustituidas con otro contenido o sufrir la superposición del mismo son no deformables y tienen asociadas a las mismas marcas estrechamente situadas que contribuyen a determinar la situación exacta de las zonas de interés en cada trama.
El documento WO95/10919 menciona un banco de datos de imágenes virtuales para sustitución de los objetivos, y que una imagen virtual que va a ser superpuesta sobre un objetivo debe ser transformada en escala y perspectiva.
Otros procedimientos han incluido técnicas para las mejoras “en contenido”, como el uso de “puntos de luz” según se da a conocer en el documento US 2002/0126990 A1. Según la solicitud referida más arriba, diversos elementos de una escena particular pueden tener un “punto de luz” (una mejora) asociada con el elemento. Estos puntos de luz pueden presentarse de varias maneras, como con un borde coloreado, un punto coloreado, un borde tenue pulsante, la acromatización del objeto propiamente dicho o mediante cualesquiera otros sistemas de presentación que distinguen el punto de luz de un elemento tradicional de visualización de vídeo.
El punto de luz, que actúa como un enlace interactivo, aparece directamente sobre el objeto, y puede aparecer como parte del objeto, en una escena particular. Por ejemplo, si durante un episodio televisivo los personajes están comiendo pizza, el punto de luz, en forma de un borde coloreado, un punto u otro sistema puede aparecer sobre la caja de la pizza. La activación del punto de luz mediante un cursor o un puntero enlaza al espectador con la empresa local de pizza para que el espectador pueda pedir de manera interactiva una pizza mientras ve el programa.
Por lo tanto, existe la necesidad de proporcionar publicidad integrada más flexible de una manera simple y económica. En ese sentido, el término “publicidad” puede referirse a diversas formas de alteración visual de la visualización de vídeo, incluyendo, sin limitación, cualquier tipo de alteración visual informativa del contenido de vídeo. El contenido puede incluir cualquier tipo de información visual en cualquier medio deseado capaz. El contenido puede comprender diversos tipos de datos.
Resumen de la invención
La presente invención supera las desventajas y las limitaciones de la técnica anterior proporcionando un procedimiento y un sistema en los que pueden superponerse “etiquetas”, que comprenden información suplementaria como elementos publicitarios, promocionales o informativos, que incluyen elementos interactivos (es 5 decir, “Hot Labels™”, o etiquetas activas) en un flujo de vídeo después de la producción del vídeo. En otras palabras, las etiquetas no están integradas en el vídeo y pueden ser alteradas o reemplazadas. Esto puede hacerse usando pantallas de superposición, incluyendo pantallas interactivas de superposición o combinando segmentos de vídeo. Como tales, las etiquetas no tienen que ser parte físicamente de la escena real durante la filmación. Por ejemplo, una etiqueta puede ser el nombre de una persona rotulado en la frente o en su camisa/camiseta, cambios
10 en el color, el patrón o la textura dentro de la presentación de vídeo, cambios en el contorno y/o en la ubicación de los objetos dentro de la presentación de vídeo u otros cambios, o formas de publicidad que se aplican a porciones vacías de la escena de vídeo, o que reemplazan y oscurecen porciones de la escena de vídeo.
Por lo tanto, la presente invención puede comprender un procedimiento y un sistema para la superposición de una etiqueta que contiene material informativo encima de un contenido preexistente de vídeo según se expone en las
15 reivindicaciones adjuntas.
Una ventaja de la presente invención es que las empresas de teledifusión y de cable pueden proporcionar publicidad integrada en un entorno posproducción de una manera simple y fácil. Las etiquetas pueden ser discretas, no invasivas y pueden no comprometer el tamaño, el color o la continuidad del contenido del vídeo. La publicidad integrada puede cambiar de escena a escena y de una visualización a otra. A medida que los productos pasan de
20 moda, pueden superponerse (intercalarse) nuevos productos y objetos en la señal de vídeo para actualizar el impacto de la emisión. Espectadores específicos puede visualizar etiquetas individualizadas y seleccionadas en base a estudios demográficos que pueden individualizarse hasta la escala de hogar o de espectador. Con esta individualización, las emisiones locales también pueden aprovechar las ventajas de la publicidad integrada.
Breve descripción de los dibujos
25 En los dibujos,
La FIGURA 1 es una ilustración de una implementación de la presente invención.
La FIGURA 2 es una ilustración de la manera en la que puede mostrarse el contenido interactivo.
La FIGURA 3a es una representación gráfica de una base de datos que proporciona una lista de información adicional asociada con los anunciantes.
30 La FIGURA 3b es una representación gráfica de una base de datos que proporciona una lista de atributos asociada con los anunciantes.
Las FIGURAS 4a y 4b son ilustraciones de escenas que muestran otras implementaciones de la presente invención.
Las FIGURAS 5a, 5b y 5c son ilustraciones de escenas que muestran otras implementaciones de la 35 presente invención.
Las FIGURAS 6a y 6b son ilustraciones de escenas que muestran otras implementaciones de la presente invención.
La FIGURA 7 es un diagrama esquemático de bloques que ilustra de forma general una realización de la presente invención.
40 La FIGURA 8 es un diagrama esquemático de bloques que ilustra de forma general otra realización de la presente invención.
La FIGURA 9 es un diagrama de flujo que ilustra las etapas que pueden llevarse a cabo en la aplicación de etiquetas a un flujo de vídeo.
La FIGURA 10 es un diagrama de flujo que ilustra las etapas que pueden llevarse a cabo para la instalación 45 de etiquetas mediante designación manual del espacio disponible para publicidad.
La FIGURA 11 es un diagrama de flujo que ilustra las etapas que pueden llevarse a cabo para la instalación de etiquetas mediante designación automática del espacio disponible para publicidad y la búsqueda de objetos reales.
La FIGURA 12 es un diagrama de flujo que ilustra las etapas que pueden llevarse a cabo para la instalación de etiquetas mediante designación automática del espacio disponible para publicidad y la búsqueda de espacios vacíos.
La FIGURA 13 es un diagrama de flujo que ilustra las etapas que pueden llevarse a cabo para la instalación de etiquetas usando procedimientos automáticos, de una manera que combina los procesos de búsqueda de un objeto real y de un espacio vacío simultáneamente.
La FIGURA 14 es un diagrama de flujo que ilustra las etapas que pueden llevarse a cabo para la instalación de etiquetas usando indicadores y marcadores para describir el espacio publicitario.
Descripción detallada de la invención
La Figura 1 es una ilustración de una implementación de la presente invención. Con referencia a la Figura 1, se presenta una escena del vídeo. El vídeo puede visualizarse en un dispositivo 100 de visualización, como un televisor, que puede comprender cualquier tipo de pantalla, como una pantalla de plasma, una pantalla de panel plano, un monitor con tubo de rayos catódicos o cualquier otra pantalla. El vídeo también puede visualizarse en un monitor de ordenador que muestre etiquetas dentro de flujos de vídeo por Internet, o el vídeo puede visualizarse en cualquier otro tipo de sistema/dispositivo de visualización, incluyendo las películas que se muestran en los cines. En la escena, se muestra a una persona 102 sentada en una silla 104 delante de una mesa 106. La persona 102 está sentada delante de un objeto, como una caja 108 de pizza, de la que la persona está comiendo pizza. El objeto, o la caja de pizza, puede ser identificado automáticamente mediante alguna técnica existente, como un soporte lógico de reconocimiento de patrones, como se expondrá con mayor detalle en la Figura 13. De manera alternativa, en el flujo de video pueden suministrarse indicadores y marcadores, según se da a conocer en las solicitudes de patente referidas más arriba, que proporcionen la información identificativa del objeto (pizza) y la ubicación del objeto en el flujo de vídeo. El sistema puede determinar entonces si un anunciante de pizza ha sido enumerado con un anunciante de la etiqueta. Es decir, puede compilarse una lista que comprenda anunciantes que desean exponer anuncios en forma de etiquetas en la actual presentación de vídeo. La lista de anunciantes puede también incluir el elemento (atributo), que puede estar en la forma de un producto, una idea, etc., que los anunciantes deseen promocionar. Tal lista de anunciantes y atributos puede estar almacenada en una base de datos. Esta base de datos puede almacenarse en un servidor en el centro distribuidor (lugar de transmisión), el lugar de retransmisión, el decodificador u otro lugar. La lista de anunciantes y de atributos se da a conocer más plenamente en relación con la descripción de la Figura 3.
Con referencia de nuevo a la Figura 1, una vez que se reconoce un objeto, en este caso una caja 108 de pizza, puede hacerse una consulta en la lista de anunciantes en busca de un anunciante de pizza. Si un anunciante de pizza ha sido enumerado como un anunciante de etiquetas, se muestra gráficamente (superpuesta o intercalada) una etiqueta, que puede tener la forma de un logotipo, un texto u otra forma de publicidad para ese anunciante, sobre la caja de pizza. El procedimiento de aplicación o superposición de la etiqueta en la caja de pizza se expone con detalle adicional en referencia con la descripción de la Figura 13. La etiqueta puede comprender cualquier forma de mejora de vídeo, incluyendo secuencia de vídeo, texto, imágenes gráficas que pueden estar en formato de mapa de bits o en cualquier otro formato, u otra representación gráfica. Si la etiqueta es una “etiqueta activa”, el espectador puede pulsar la etiqueta activa para pedir pizza en esa tienda de la que se hace publicidad. Los detalles de este procedimiento se exponen con mayor detalle con respecto a la Figura 13.
Las etiquetas pueden comprender optimizaciones en la señal original de vídeo, como mejoras, ampliaciones o nuevas adiciones. Por ejemplo, puede aplicarse el logotipo de una empresa a una lata de refresco. La lata de refresco puede existir ya dentro de la señal original de vídeo, o la lata de refresco puede ser una adición a la señal original. De forma alternativa, los cambios pueden comprender pérdidas en la señal original de vídeo, como degradaciones, reducciones o eliminaciones. Por ejemplo, una porción del vídeo puede ser “borrada” para crear un espacio vacío, que puede ser usado para aplicar etiquetas o mostrar anuncios.
Pueden aplicarse etiquetas a cualquier tipo de contenido de vídeo y señales de vídeo, como emisiones de televisión en directo o grabadas, animación, vídeo filmado y similares, o pueden capturarse como un fichero de medios magnéticos u ópticos, como una película de largometraje en Disco Videográfico/Versátil/Variable Digital (DVD). Las etiquetas también pueden comprender contenido informativo, como marcas. El contenido puede crearse grabando o filmando; por ejemplo, filmando una transmisión en directo, una película de largometraje, un programa de televisión u otra presentación. El contenido también puede crearse usando animación. Los dibujos animados en televisión o en películas de largometraje son un ejemplo de animación. El contenido también puede crearse usando animación por ordenador. La animación por ordenador es un componente principal de las presentaciones multimedia, incluyendo películas de largometraje, y pueden usarse muchas aplicaciones informáticas para crear animaciones que pueden ser visualizadas en cualquier dispositivo de visualización, como un monitor de ordenador, una pantalla de televisión
o una pantalla de cine.
Por supuesto, pueden aplicarse etiquetas a cualquier forma de material de visualización, incluyendo programas educativos, presentaciones multimedia o presentaciones de entretenimiento. Tales presentaciones multimedia o de entretenimiento pueden incluir presentaciones mejoradas digitalmente o mejoradas por ordenador, presentaciones de animación, que puede incluir películas de animación de largometraje, programas de animación que son emitidos en una red de televisión, presentaciones de animación en DVD u otras formas de presentaciones de animación. Además, pueden aplicarse etiquetas a tales presentaciones multimedia o de entretenimiento como películas de vídeo de largometraje que pueden mostrarse en cines, quizá en un formato digital, por medio de conexiones de fibra óptica, mediante tecnología láser o por medio de otra tecnología.
Tal como se ha mencionado más arriba, las técnicas para facilitar el contenido suplementario en una señal de vídeo también pueden lograrse combinando señales de vídeo. Se da a conocer una técnica tal en la solicitud provisional estadounidense con número de serie 60/278.669, presentada el 20 de marzo de 2001, titulada “DELIVERY OF INTERACTIVE VIDEO CONTENT USING FULL MOTION VIDEO PLANES”, ahora la solicitud no provisional estadounidense con número de serie 10/103.545, presentada el 20 de marzo de 2002, titulada “VIDEO COMBINER”, estando incorporadas ambas específicamente en el presente documento por referencia en todo lo que dan a conocer y enseñan. Según la solicitud a la que se alude más arriba, el sistema es capaz de combinar señales que vídeo que incorporan etiquetas en la ubicación del espectador. Por ejemplo, se proporcionan señales de vídeo múltiples, algunas de las cuales incluyen etiquetas, a un decodificador del espectador junto con instrucciones para combinar dos o más señales de vídeo. Las señales de vídeo pueden entonces combinarse en un decodificador o localizarse de otro modo en la ubicación del espectador, o cerca de la misma, para generar la señal de vídeo combinada o correlacionada para la visualización con las etiquetas.
Además, una o más señales de vídeo pueden comprender un vídeo mejorado que se proporcione desde una conexión de Internet. Puede usarse una programación de tipo HTML para indicar la disposición de la señal mejorada de vídeo. Pueden proporcionarse instrucciones para la sustitución de segmentos particular que comprenden el espacio de la etiqueta para crear una etiqueta interactiva.
Las etiquetas activas (etiquetas interactivas) pueden aparecer de forma discreta durante una emisión de televisión. Tal como se ha dado a conocer más arriba, la propia etiqueta puede ser un elemento interactivo que se sitúa sobre objetos específicos que se relacionan con un elemento publicitario, o en una porción vacía de la pantalla. También como se ha dado a conocer más arriba, las etiquetas pueden no ser interactivas; es decir, las etiquetas pueden existir simplemente como un material publicitario o informativo que forma parte del flujo de vídeo. La inserción de contenido de vídeo para producir flujos combinados de vídeo, así como la inserción de contenido interactivo pueden lograrse usando indicadores y marcadores insertados en el flujo de vídeo, tal como se expone en la solicitud provisional estadounidense con número de serie 60/268.350, presentada el 12 de febrero de 2001, titulada “VIDEO TAGS AND MARKERS”, ahora solicitud no provisional estadounidense con número de serie 10/076.950, presentada el 12 de febrero de 2002, estando incorporadas ambas específicamente en el presente documento por referencia en todo lo que dan a conocer y enseñan.
Las etiquetas que son enlaces interactivos pueden contemplar la superposición de información de etiquetas interactivas sobre los productos. Las etiquetas pueden aparecer como una mejora visual, como un logotipo o un nombre, y, por ello, un anuncio, de cualquier entidad o anunciante, tal como una empresa local o nacional, o simplemente informativo. Las etiquetas también pueden ser anuncios individualizados localizados. Una realización puede emplear técnicas de reconocimiento de patrones que proporcionan un procedimiento automatizado de identificación de objetos en los que poner etiquetas que son pertinentes al objeto. Las etiquetas pueden ser localizadas hasta un punto en el que puede superponerse anuncios específicos desde decodificadores, para que la publicidad pueda personalizarse hasta la escala de hogar.
Además, las etiquetas pueden ser aplicadas por un espectador. El espectador es una persona que ve el contenido, que puede ser una señal de vídeo. El espectador puede aplicar etiquetas a programas de televisión, películas en DVD o presentaciones creadas en otros medios, dentro del hogar del propio espectador. Así, la aplicación de etiquetas puede no estar restringida a las señales de vídeo, sino que las señales pueden ser aplicadas a cualquier tipo de señal, y a cualquier tipo de medio.
Las etiquetas pueden ser aplicadas al contenido creando un “espacio para etiquetas”, o un espacio dentro del contenido (que puede ser un flujo de vídeo) que está disponible para la aplicación de una etiqueta. La designación de tal espacio para etiquetas puede completarse mediante procedimientos manuales o automáticos. La etiqueta o el tiempo de etiqueta que han de superponerse pueden elegirse en base a “atributos”, como se explica de forma adicional en relación con la descripción de la Figura 3. Puede almacenarse en una base de datos una lista de anunciantes, junto con atributos asociados de los anunciantes. “Atributos” son una clase de objetos reales, o espacios vacíos que pueden estar asociados con un anunciante o con tipos o clases de información. Puede aplicarse una etiqueta al espacio para etiquetas dentro del flujo de vídeo según la clase de objeto o de espacio vacío identificado dentro del flujo de vídeo. El objeto o el espacio vacío identificados (dentro del flujo de vídeo) pueden ser comparados con objetos, clases de objetos o espacios vacíos enumerados como atributos dentro de la base de datos anteriormente mencionada. Una vez que se encuentra un objeto real o un espacio vacío equivalentes, se escoge una etiqueta apropiada y se aplica a ese espacio para etiquetas en el flujo de vídeo.
Con referencia nuevamente a la Figura 1, la etiqueta 110 aparece como un logotipo de la franquicia local denominada “Paul’s Pizzeria”. La etiqueta puede ser un logotipo real, un nombre o publicidad de una empresa que puede ser una empresa local o una cadena nacional, y puede existir como un anuncio discreto que parezca ser un elemento real de la escena filmada en origen. La etiqueta 110 aparece como un logotipo en la caja de pizza real, apareciendo así en escena de forma completamente natural. La etiqueta 110 puede existir como una mejora no interactiva que forma parte de la señal de vídeo, y, así, la etiqueta puede existir simplemente como un anuncio, o la etiqueta puede ser un elemento interactivo que tiene la funcionalidad de ser activado por el espectador, que así actúa como instrumento publicitario e interactivo.
Con referencia nuevamente a la Figura 1, si la etiqueta 110 es interactiva, la etiqueta puede ser activada por el espectador 112. Tal como se ha descrito anteriormente, el “espectador” es una persona que ve el vídeo. La activación de la etiqueta 110 puede ocurrir de varias maneras, incluyendo la conmutación de una serie de etiquetas usando botones de control en alguna forma de dispositivo manual 116 de control, como un control remoto que active un cursor 118, usando un ratón cableado o inalámbrico o mediante otros medios, incluyendo, sin limitación, haces de luz, como haces infrarrojos que puede usarse como punteros para apuntar a las etiquetas. Tal sistema puede operar de forma similar a una pantalla táctil que identifique al haz de luz, en vez del dedo de un usuario. Un cursor 118 puede ser un indicador, como un punto, una línea que emite destellos, una flecha, un símbolo o cualquier otro indicador que se muestre en la pantalla 100 de televisión. La posición del cursor puede ser controlada por otra forma de dispositivo manual de control, como un ratón cableado o un ratón inalámbrico (no mostrados) de una forma similar a la de un ratón que esté conectado a un ordenador y un monitor. Una vez activada, la etiqueta puede hacer disponibles multitud de opciones, incluyendo la presentación de una hoja 120 de pedido, que puede permitir que el espectador inicie el procedimiento de petición directa de una pizza. La hoja 120 de pedido puede aparecer en una porción no usada de la pantalla 100 del televisor, no causando, por ello, interrupción alguna en la presentación de vídeo en curso.
La Figura 2 es una ilustración de la manera en la que puede visualizarse el contenido interactivo. Una vez activada, la etiqueta (según se alude en la Figura 1) puede presentar información en una zona 201 de ventana o de borde con contenido mejorado. La presentación de vídeo en curso mostrada en el dispositivo 200 de visualización puede seguir siendo visualizable en la ventana 240 de emisión. Tal como se muestra en la Figura 2, el vídeo visualizado que incluye los mismos objetos que aparecían en la Figura 1, incluyendo la mesa 226, la caja 228 de pizza, la etiqueta 230, la persona 232 y la silla 234, que permanecen visibles. De manera alternativa, la información presentada por la etiqueta puede presentar en una página completamente separada. La etiqueta puede presentar una interfaz gráfica 202 de usuario (GUI) u otro sistema de presentación que sirva para presentar información de alguna manera al espectador. La GUI 202 puede presentar información adicional 204 en cuanto a la empresa para la que la etiqueta ha sido activada. Tal información adicional puede ser facilitada por el anunciante o por el autor (persona que examina y/o edita la señal de vídeo). La información adicional 204 puede estar contenida en un dispositivo de almacenamiento separado, como una base de datos. La base de datos que contiene información adicional de anunciantes se da a conocer más plenamente en relación con la descripción de la Figura 3a. Una vez que se ha activado la etiqueta, se puede acceder a esta base de datos correspondiente para obtener información adicional. La base de datos separada puede estar situada en un ordenador central o en múltiples ordenadores, que pueden ser un servidor en el centro distribuidor, en un sitio de retransmisión u otro lugar, o en el hogar del espectador en un decodificador. El ordenador central se da a conocer más completamente en referencia con la descripción de las Figuras 7 y 8. El ordenador central aplica la etiqueta. La aplicación de la etiqueta se expone con mayor detalle en la Figura 13.
Con referencia nuevamente a la Figura 2, la información adicional 204 puede incluir el perfil 206 de la empresa, la dirección 208 de la página web, cupones 210 u otra información. La dirección 208 de la página web puede ser simplemente una dirección que no sea interactiva y está ahí simplemente para que el espectador tome nota de la misma y tenga la oportunidad de visitar esa dirección en un momento posterior; o la dirección de la página web puede actuar como un enlace interactivo directo. El enlace interactivo 208 puede enlazar al espectador a la página de inicio de la empresa, o a la página web de la empresa que permite que el espectador efectúe una compra 214. Es decir, el sitio web 214 de “pida una pizza” puede ser un sitio web especial diseñado específicamente para la interacción con espectadores mediante etiquetas. Además, si el anunciante es una empresa de ámbito nacional, la información adicional puede incluir a los distribuidores o franquicias locales 212 de la empresa de ámbito nacional. La etiqueta puede proporcionar un enlace a un servidor local para proporcionar información relativa a la tienda local. Por ejemplo, si Paul’s Pizzeria es una cadena nacional, el emisor local puede superponer la franquicia local de Paul’s Pizzeria en el servidor del centro distribuir, tal como se ilustra en la Figura 7. Cuando pulse la etiqueta, el espectador verá su Paul’s’ Pizzeria local en la pantalla de información adicional, y podrá pedir una pizza directamente de su tienda local.
Además, el espectador también puede tener la opción de acceder a enlaces que no tienen nada que ver con la presentación de vídeo en curso. Por ejemplo, en una parte diferente de la interfaz gráfica 202 de usuario, el usuario puede ser capaz de activar enlaces 216 que facilitan el acceso a la red mundial. Por ejemplo, el espectador puede ser capaz de votar 218 qué personaje le gustó más al espectador durante un programa de televisión particular de la serie “Supervivientes”. El espectador también puede ser capaz de votar 220 en las elecciones, leer acerca de sus representantes políticos locales haciendo clic en un enlace interactivo 222 e introduciendo su información local, o incluso leer sobre acontecimientos mundiales actuales 224.
La Figura 3a es una representación gráfica de una base de datos que proporciona una lista de información adicional asociada con anunciantes, tal como se enumera en la base de datos 300. Como se ha mencionado previamente en relación con la descripción de la Figura 2, la información adicional de un anunciante puede estar contenida en un dispositivo de almacenamiento, como una base de datos 300. Tal como se ilustra en la Figura 3a, tal información adicional puede presentarse como una entrada 302. Por ejemplo, una entrada puede ser para el nombre del anunciante, Paul’s Pizzeria 301, con información adicional asociada que puede incluir el perfil de la empresa, la dirección de la página web, cupones u otra información. La información adicional puede presentarse por el anunciante y/o por el autor. Además, pueden almacenarse otros anunciantes en la misma base de datos, junto con información similar, como una entrada separada 304.
La Figura 3b es una representación gráfica de una base de datos que proporciona una lista de atributos asociados con los anunciantes, según se enumeran en la base de datos 306. La base de datos 306 también puede contener ella misma una etiqueta, o un enlace a una etiqueta. Con referencia a la Figura 3b, para pintar la etiqueta sobre un objeto particular o incluso sobre un espacio vacío, debe haber una determinación de si hay o no una etiqueta apropiada que aplicar. Así, se almacena una lista de anunciantes en un dispositivo de almacenamiento, como una base de datos 306, junto con los atributos asociados. Los “atributos” se definen como cualquier objeto real o categorías de objetos que están asociados con el anunciante, o “espacio vacío”, que se explicará más adelante. Los atributos pueden ser presentados por el anunciante y/o por el autor. Con referencia a la Figura 3b, en la base de datos 306 se almacena un anunciante, como puede verse como una entrada entre muchas. Por ejemplo, el anunciante General Electric 314 puede ser una entrada 308. General Electric puede ir acompañado por una lista de atributos 310. Tales atributos 310 pueden incluir objetos reales, como “cocina”, “nevera”, “tostadora” y otros objetos reales o categorías como electrodomésticos, etc. De manera alternativa, los anunciantes pueden desear tener la oportunidad de anunciarse en un espacio vacío disponible; en este caso, el anunciante puede presentar “espacio vacío” como uno de sus atributos. Por ejemplo, el anunciante Electrodomésticos Joe 316, tal como se ve en la entrada 312, puede elegir enumerar “espacio vacío” 314 como un atributo, lo que daría a Electrodomésticos Joe la oportunidad de ser elegido entre uno o más anunciantes para ser anunciado en un espacio vacío en el contenido de vídeo, así como para aplicar un anuncio a un objeto real. El espacio vacío puede estar limitado adicionalmente a zonas específicas, como “los tableros de golpes debajo del banquillo de hockey del equipo de Colorado Avalanche”. La publicidad en espacios vacíos se da a conocer más plenamente en relación con la descripción de la Figura 5. Además, pueden almacenarse otros anunciantes en la misma base de datos junto con información similar, como otras entradas, como 318 y 320. Además, esta base de datos puede almacenar el nombre del fichero y/o en enlace a un fichero de gráficos de etiquetas, que puede estar almacenado en una ubicación separada. De forma alternativa, la base de datos puede contener ficheros 326, 328 de texto de etiquetas. Estos conceptos son dados a conocer más plenamente con respecto a la descripción de la Figura 7. La manera en la que se escoge una empresa como anunciante usando una etiqueta se presenta con mayor detalle en la Figura 13. Si el sistema de la presente invención encuentra un anunciante de pizza en la lista de anunciantes, se pinta una etiqueta sobre la caja de pizza identificada, momento en el que el espectador puede hacer clic sobre la etiqueta y pedir una pizza. El proceso de aplicación de la etiqueta se expone con mayor detalle en la Figura 13.
Las Figuras 4a y 4b son ilustraciones de escenas que muestran otras implementaciones de la presente invención. Las etiquetas pueden ser codificadas para que cambien de escena a escena. Tal como se ilustra en la Figura 4, en una escena 400 en curso de un programa de televisión, puede superponerse (intercalarse) una etiqueta 404 sobre una nevera 402. En la segunda escena 406, el ángulo de la cámara es diferente, lo que cambia la posición de la nevera 408. Durante esta escena, la etiqueta 410 seguiría sobre la nevera. Además, en vez de que la etiqueta aparezca como parte normal de la escena según se ilustra mediante las etiquetas 404 y 410, una etiqueta 412 puede aparecer mayor y resultar más obvia, como el texto escrito fuera de los bordes de la alfombra 414, pareciendo así para el espectador como parte obvia de la escena.
Las Figuras 5a, 5b y 5c son ilustraciones de escenas que muestran otras implementaciones de la presente invención. Tal como se muestra en la Figura 5a, se visualiza un partido de fútbol americano en una pantalla 500 de televisión. La escena ilustra un campo 502 de fútbol y graderíos con anuncios de carteles reales 504, 406 y 508, como se encuentran típicamente en estadios deportivos. En esta señal preexistente de vídeo se suple la publicidad integrada superponiendo anuncios 510, 512 y 514 de etiquetas sobre el campo 502 de juego. Así, la señal final de vídeo mejorada se presenta al espectador como si las etiquetas 510, 512 y 514 del campo sean inherentes al entorno y tienen el aspecto de ser parte natural de la escena.
En la Figura 5b se muestra una pantalla 530 de televisión en la que los anuncios 534, 536 y 538 de etiqueta están superpuestos encima de los anuncios de carteles reales que existían en la señal de vídeo no mejorada. La señal mejorada de vídeo oculta completamente los anuncios de carteles reales presentes en el estadio deportivo y se presenta al espectador como si las etiquetas superpuestas 534, 536 y 538 son inherentes al entorno y tienen el aspecto de ser parte natural de la escena. De esta manera, la publicidad integrada local puede suplantar la publicidad integrada nacional para diferentes regiones de un programa de emisión nacional. La Figura 5b también ilustra una etiqueta informativa 540 colocada en el campo 532 de fútbol que denota la zona de anotación del equipo atacante.
En la Figura 5c se muestra una pantalla 548 de televisión en la que se superponen etiquetas interactivas 550, 552, 554 y 556 con nombres de jugadores sobre los cascos de los jugadores de fútbol en un partido. En este caso, la señal mejorada de vídeo no se presenta como inherente al entorno, y las etiquetas se usan como etiquetas activas para presentar, cuando se accede a ellas, información adicional sobre los jugadores. Esta información puede incluir datos personales, biográficos o estadísticos o similares para el jugador al que se accede.
Las Figuras 6a y 6b son ilustraciones de escenas que muestran otras implementaciones de la presente invención. Cada vez que una etiqueta aparece en una nueva escena, la etiqueta puede ser un anuncio diferente. Tal como se muestra en la Figura 6a, en la escena uno 602, la persona 604 abre una nevera 606 para coger una lata 608 de refresco. La etiqueta 610 es un logotipo de “Coca-Cola”. En la Figura 6b, escena dos 612, la misma persona 614, de pie junto a la nevera cerrada 616, bebe de la lata 618 de refresco. La etiqueta 620 es ahora un logotipo de “Pepsi”. La aplicación de etiquetas de esta manera puede realizarse por medio de un reconocimiento de patrones y de la superposición localizada de anuncias, como se explicará más adelante.
La Figura 6a también ilustra la adición de una etiqueta interactiva de tatuaje. En la escena uno 620 se representa a la persona 604 con un tatuaje que contiene el logotipo 650, reconocido en el ámbito nacional, superpuesto en el brazo de la persona. En esta escena, el tatuaje se superpone con un fondo transparente para que parezca parte natural de la escena. El acceso a esta etiqueta interactiva puede enlazar al espectador o bien con la página inicial de la empresa representada con el logotipo reconocido en el ámbito nacional o con una dirección y un número de teléfono de la tienda de tatuajes local.
La Figura 7 es un diagrama esquemático de bloques que ilustra en general una realización de la presente invención. Tal como se muestra en la Figura 7, un lugar 700 de origen puede proporcionar un contenido. El contenido comprende una señal 702 no mejorada de vídeo. El contenido puede ser creado por un proveedor de contenidos, como una red de televisión, un estudio de televisión, una emisión en directo, un servidor que proporcione datos, con un proveedor de servicios de aplicaciones, un proveedor de servicios de Internet o cualquier otro tipo de proveedor de contenidos que pueda ser capaz de enviar un contenido a espectadores. El lugar 700 de origen puede ser capaz de generar el contenido por sí mismo, o puede simplemente proporcionar el contenido que se le suministra desde una fuente externa 704 en forma de una señal 706 no mejorada de vídeo. El lugar 700 de origen transmite la señal 702 no mejorada de vídeo a un servidor 708.
Con referencia a la Figura 7, el servidor 708 interactúa con un ordenador central 710 y aplica una etiqueta 712 a la señal 702 no mejorada de vídeo. Esta etiqueta 712 puede comprender cualquier forma de mejora de vídeo, incluyendo secuencias de vídeo, texto o imágenes gráficos, y puede estar en cualquier formato, u otra representación gráfica, como un mapa de bits o GIF. El servidor 708 accede a uno o más de los múltiples ficheros 722 de datos contenidos en un ordenador central 710. Puede haber un fichero de datos para cada anunciante, o un fichero de datos para cada anuncio (etiqueta), y puede comprender una etiqueta 712 que existe como información gráfica dentro del fichero de datos. El fichero 722 de datos también puede comprender datos 714 de ubicación y contorno que pueden ser obtenidos mediante el uso de reconocimiento existente por ordenador, manipulación física u otras técnicas conocidas. Usando datos de ubicación y contorno, la etiqueta puede ser aplicada de manera discreta a la señal de vídeo, o puede parecer que se trata de un añadido obvio a la señal original 702 de vídeo. De manera alternativa, el fichero 722 de datos puede comprender flujos secundarios de vídeo que pueden ser superpuestos (intercalados) sobre la señal original 702 no mejorada de vídeo.
Con referencia de nuevo a la Figura 7, el ordenador central 710 también puede contener una base de datos 716, según se indica en la descripción de la Figura 3a, que almacena el nombre e información adicional de cada anunciante. El ordenador central 710 también puede contener otra base de datos 718, según se indica en la descripción de la Figura 3b, que almacena el nombre de cada anunciante, atributos asociados, así como un enlace 322, 324 a la etiqueta (según se ilustra en la Figura 3b) o un fichero 326 y 328 de texto de etiqueta. Cada entrada para cada anunciante en la base de datos 718 (como se ha ilustrado previamente en la Figura 3b) puede estar enlazada al fichero asociado 722 de datos del anunciante por medio de un enlace 720. De nuevo, las bases de datos y los ficheros de datos pueden estar almacenados en un ordenador central o en múltiples ordenadores que puede comprender un servidor situado en un centro distribuidor o en un decodificador.
Con referencia a la Figura 7, el servidor 708 puede incorporar un soporte lógico existente y técnicas de reconocimiento de patrones para proporcionar una forma en la que el espacio disponible para publicidad pueda ser identificado. Sin embargo, la identificación del espacio para la publicidad puede lograrse mediante varios procedimientos, como puede verse adicionalmente en relación con la descripción de la Figura 14. El soporte lógico de reconocimiento de patrones puede comunicarse con la base de datos 718 de atributos, almacenada en el ordenador central 710. Como se ha expuesto previamente, los atributos pueden ser objetos reales o atributos de “espacio vacío”. El soporte lógico de reconocimiento de patrones puede buscar en el flujo 702 no mejorado de vídeo estos objetos reales o estos espacios vacíos. Una vez que se identifica un patrón, el servidor busca en la base de datos 718 de atributos un atributo coincidente. En el caso de que más de una empresa haya enumera el mismo objeto real o el espacio vacío identificados como atributo, pueden utilizarse criterios de selección para escoger qué anunciante recibirá la etiqueta. Se presenta una exposición detallada de los criterios, el procedimiento y la aplicación de la etiqueta, con detalles adicionales, con respecto a la Figura 13.
Con referencia de nuevo a la Figura 7, una vez que el servidor 708 ha aplicado la etiqueta 712 a la que accedió el servidor desde el fichero 722 de datos o la base de datos 718 de atributos y etiquetas de texto, la salida del servidor es una señal mejorada 724 de vídeo; es decir, una señal de vídeo que tiene una o más etiquetas aplicadas a la señal de vídeo. La señal mejorada 724 de vídeo es transmitida a través de un enlace 726 a un decodificador 728. El enlace 726 puede comprender un enlace de radiofrecuencia, un enlace por satélite, una conexión por cable o cualquier otro tipo de comunicación. El decodificador 728 recibe y transmite la señal mejorada 724 de vídeo a un dispositivo 730 de visualización, como un monitor de ordenador o una pantalla de televisión.
La Figura 8 es un diagrama esquemático de bloques que ilustra en general otra realización de la presente invención. Los principios expuestos en la Figura 8 son similares a los expuestos en la Figura 7. En la Figura 8, la etiqueta es aplicada por el decodificador en vez de por el servidor. El contenido comprende una señal 802 no mejorada de vídeo. El contenido puede ser creado por un proveedor de contenidos, como una red de televisión, un estudio de televisión, una emisión en directo, un servidor que proporcione datos, con un proveedor de servicios de aplicaciones, un proveedor de servicios de Internet o cualquier otro tipo de proveedor de contenidos que pueda ser capaz de enviar un contenido a espectadores. El lugar 800 de origen puede ser capaz de generar el contenido por sí mismo, o puede simplemente proporcionar el contenido que se le suministra desde una fuente externa 804 en forma de una señal 806 no mejorada de vídeo. El lugar 800 de origen transmite la señal 802 no mejorada de vídeo por medio de un enlace 826, que, nuevamente, puede comprender un enlace de radiofrecuencia, un enlace de radiofrecuencia, un enlace por satélite o cualquier otro tipo de enlace, al decodificador 828. El decodificador 828 accede al ordenador central 810 para aplicar una o más etiquetas a la señal 802 no mejorada de vídeo para producir una salida de la señal mejorada 824 de vídeo. Esta señal mejorada 824 de vídeo es enviada entonces desde el decodificador 828 a un dispositivo 830 de visualización, como un monitor de ordenador o una pantalla de televisión.
La Figura 9 es un diagrama esquemático de bloques que ilustra las etapas llevadas a cabo en la aplicación de etiquetas a un flujo 900 de vídeo. Como se muestra en la Figura 9, se crea un contenido en la etapa 902. Como se ha dado a conocer previamente, el contenido puede ser creado por un proveedor de contenidos, como una red de televisión, un estudio de televisión, una emisión en directo, un servidor que proporcione datos, con un proveedor de servicios de aplicaciones, un proveedor de servicios de Internet o cualquier otro tipo de proveedor de contenidos que pueda ser capaz de enviar un contenido a espectadores. El procedimiento prosigue en la etapa 904, en la que se designa mediante procedimientos manuales el espacio disponible para publicidad. Tales procedimientos manuales pueden comprender hacer que un autor, es decir, una persona que examina la señal no mejorada de vídeo, designe manualmente lugares dentro de la señal no mejorada de vídeo actual que estén disponibles para la publicidad. Alternativamente, el procedimiento puede proseguir desde la etapa 902, en la que se crea el contenido, a la etapa 906, en la que la designación del espacio disponible para la publicidad se automatiza. Los procedimientos automáticos de designación del espacio para la publicidad pueden incluir reconocimiento visual (de patrones) u otras técnicas. El procedimiento prosigue a la etapa 908, en la que se genera una lista de los espacios disponibles para publicidad designados previamente. Esta lista puede ser generada por un servidor que contiene una lista de anunciantes y sus atributos asociados. Se prosigue a la etapa 910, en la que se adjudica, se vende o se da de alguna manera a un anunciante el espacio disponible para la publicidad que se acaba de designar. La venta del espacio para publicidad puede lograrse mediante la oferta de empresas, cuotas anuales, ubicación aleatoria, selección automatizada (en base a algún tipo de criterio u otro mecanismo de elección) u otras formas. En la etapa 912, se ponen las etiquetas en el vídeo mientras el contenido de vídeo se está mostrando en un dispositivo de visualización, como un monitor de ordenador o una pantalla de televisión.
Las etiquetas pueden ser representativas de empresas locales o nacionales y pueden ser superpuestas individualizándose de un hogar a otro. Esta superposición individualizada puede ser facilitada utilizando datos de afinidad, tal como se da a conocer en la solicitud provisional estadounidense con número de serie 60/243.506, presentada el 26 de octubre de 2000, titulada “COLLECTION OF AFFINITY DATA FROM TELEVISION, VIDEO, OR SIMILAR TRANSMISSION”, ahora la solicitud no provisional estadounidense con número de serie 10/046.618, presentada el 26 de octubre de 2001, que tiene el mismo título, y también se da a conocer en la solicitud provisional estadounidense con número de serie 60/275.295, presentada el 13 de marzo de 2001, titulada “AFFINITY MARKING FOR INTERACTIVE TELEVISION”, ahora la solicitud no provisional estadounidense con número de serie 10/099.054, presentada el 13 de marzo de 2002, titulada “AFFINITY MARKETING FOR INTERACTIVE MEDIA SYSTEMS”, estando incorporadas todas ellas específicamente en el presente documento por referencia en todo lo que dan a conocer y enseñan. Las etiquetas también pueden ser superpuestas individualizándose de una casa a otra, y reuniendo datos recibidos de controles remotos personalizados, tal como se da a conocer en las solicitudes con números de serie 60/227.916 y 09/941.148, a las que se ha hecho referencia más arriba. Según las respectivas solicitudes anteriores, los datos de afinidad proporcionan información a un emisor de televisión en cuanto a si hay o no audiencia ocupada viendo por televisión la presentación de vídeo en curso, mediante el uso de una variedad de sensores, en contraposición a simplemente tener encendido el televisor sin ver la televisión. El control remoto personalizado se usa para recoger datos relativos a qué programas de televisión son vistos por cada miembro diferente de un hogar. Conjuntamente, el uso de tecnología a partir de los datos de afinidad y de controles remotos personalizados puede permitir la selección personal de la publicidad.
La Figura 10 es un diagrama de flujo que ilustra las etapas para llevar a cabo la instalación de etiquetas mediante la designación manual del espacio 1000 disponible para publicidad. En la etapa 1001 se visualiza el contenido, o señal de vídeo. En la etapa 1002, el autor, definido previamente como la persona que examina la señal de vídeo, examina la señal de vídeo. El procedimiento prosigue a la etapa 1004, en la que el autor designa manualmente el espacio disponible para la publicidad dentro de la señal no mejorada de vídeo. Es decir, el autor busca posibles lugares existentes en el flujo de vídeo original no mejorado en los que poner anuncios. Tales lugares posibles pueden incluir objetos reales sobre los que puede aplicarse un logotipo particular de una empresa, o espacios vacíos que pueden ser utilizados por cualquier anunciante que desee poner su publicidad en un espacio vacío. Una vez que el autor identifica un posible punto de colocación para un anuncio, el autor designa que el posible punto de colocación identificado para un anuncio está disponible para la colocación de un anuncio. Prosiguiendo a la etapa 1006, se generan datos de ubicación y contorno para el objeto identificado o el espacio vacío que actúa como el espacio disponible para la publicidad. Los datos de ubicación/contorno pueden ser obtenidos mediante el uso de técnicas existentes de reconocimiento por ordenador, manipulación física u otras técnicas, y pueden ser generados por un ordenador ubicado en el centro distribuidor, el decodificador u otro lugar. La utilidad de los datos de contorno puede incluir hacer que la etiqueta aparezca de manera más natural en la escena. Por ejemplo, si el objeto al que se aplica la etiqueta es redondo, la etiqueta, como texto o como gráficos o cualquier mejora visual, puede rodear la forma física del objeto para que el objeto mejorado con la etiqueta tenga un aspecto natural. Mediante la generación de datos de ubicación/contorno, se designa el espacio disponible para publicidad y comprende un límite alrededor del objeto identificado.
Con referencia de nuevo a la Figura 10, en la etapa 1008 se combinan los datos de ubicación/contorno con la señal de vídeo. En la etapa 1010, el ordenador accede a los datos combinados de ubicación/contorno y de la señal de vídeo. La localización del ordenador puede estar en el centro distribuidor (lugar de transmisión), el lugar de retransmisión, el decodificador (el hogar) o algún otro sitio. En la etapa 1012 se aplica la etiqueta a la señal no mejorada de vídeo. Tal como se ha dado a conocer previamente, la etiqueta puede aplicarse superponiendo datos, que pueden contener la propia etiqueta, junto con datos de ubicación/contorno, sobre la señal original no mejorada de vídeo. Los datos pueden estar en la forma de una página de superposición con lenguaje de marcación de hipertexto (HTML), que está fundamentalmente vacío, salvo la etiqueta que contiene la página HTML de superposición. Así, solo es visible la etiqueta cuando la señal de vídeo pasa por el sistema. El ordenador superpone la página HTML sobre la señal de vídeo, aplicando así la etiqueta a zonas selectivas de la señal de vídeo usando las coordenadas dadas por los datos de ubicación/contorno. La etiqueta puede tener una codificación por colores o ser parcialmente transparente, de modo al espectador le parezca que la etiqueta forma parte de la emisión original. De forma alternativa, la etiqueta puede presentarse como una adición obvia a la señal original de vídeo, como se ilustró previamente en la Figura 4.
La etiqueta puede constituir información gráfica, de imagen o de texto y puede estar en la forma de un flujo MPEG, un mapa de bits, una imagen JPEG, etc. La información gráfica, de imagen o de texto de la etiqueta puede ser almacenada localmente en el decodificador, en el centro distribuidor, en un punto de distribución o puede ser objeto de acceso por Internet u otra red. Tal como se ha indicado más arriba, puede usarse una página HTML superpuesta para combinar la información de la etiqueta con el flujo preexistente de vídeo. Sin embargo, puede usarse cualquier tipo de mapa de bits generado por ordenador para producir una pantalla que pueda combinarse con la señal preexistente de vídeo en una o más tramas.
Además, no es preciso que el mapa de bits generado por ordenador simplemente se superponga a la imagen preexistente de vídeo. Por ejemplo, la combinación de la imagen de vídeo y la imagen de la etiqueta pueden emplear combinaciones aritméticas y lógicas de la información del mapa de bits. Tales combinaciones pueden emplear operaciones de trama comunes a entornos de interfaz gráfica de usuario en ventanas, como Microsoft Windows™. Estas combinaciones aritméticas y lógicas permiten que la etiqueta sustituya, o lo haga parcialmente, la imagen preexistente de vídeo con el contenido de la etiqueta. También pueden lograrse etiquetas con semitonos o “transparentes” usando tales técnicas. La señal unificada de vídeo que se muestra al espectador permite que la etiqueta parezca entonces parte integral de la imagen visualizada. De ahí que el procedimiento de superposición del contenido de la etiqueta sobre el contenido preexistente de vídeo pueda lograrse simplemente superponiendo un mapa de bits generador por ordenador sobre el contenido preexistente de vídeo, que también puede comprender información de un mapa de bits generada a partir de un tipo de señal MPEG. De manera alternativa, el procedimiento de superposición del contenido de la etiqueta sobre el contenido preexistente de vídeo puede lograrse combinando realmente el mapa de bits generado por ordenador que contiene el contenido de la etiqueta con el contenido preexistente de vídeo, como con las combinaciones aritméticas y lógicas, tal como se ha dado a conocer arriba. Además, también pueden emplearse técnicas comúnmente usadas de codificación por colores, conocidas en las técnicas de televisión y ordenadores y denominas comúnmente “pantalla azul” y “escenario croma”. Por ejemplo, el contenido de la etiqueta puede incluir colores específicos que se ha designado que no reemplacen el contenido del contenido preexistente de vídeo, o pueden emplearse colores específicos para definir zonas de sustitución o de combinación. Así, puede lograrse la “transparencia” del contenido de la etiqueta usando técnicas de codificación por colores.
El procedimiento de selección del contenido de la etiqueta puede llevarse a cabo de diversas maneras. Por ejemplo, puede accederse al contenido de la etiqueta mediante una conexión de red. Esta conexión de red puede basarse en preferencias almacenadas en el decodificador o basarse en un indicador o un marcador transmitidos como parte del contenido de vídeo del flujo preexistente de vídeo. Además, la conexión de red puede ser una conexión de subida a un servidor, como un servidor ubicada en el centro distribuidor o en algún punto de distribución que tiene almacenado el contenido de etiquetas que puede ser descargado al decodificador ya sea a través del VBI o de un canal fuera de banda. Además, el contenido de la etiqueta al que se accede de esta manera puede basarse en preferencias que se guardan en el centro distribuidor o en el decodificador. Además, la información del mapa de bits del contenido de la etiqueta puede ser generada a partir de instrucciones que se descargan de una red, como las diversas conexiones de red descritas más arriba. Estas instrucciones pueden comprender código ejecutable que es capaz de generar gráficos o texto al nivel del decodificador. Una vez más, estos pueden basarse en las preferencias.
Aunque la descripción precedente puede emplear referencias a un decodificador, se contempla específicamente que cualquier descripción tal y todas ellas se aplicarán a cualquier unidad receptora accionable para proporcionar una función similar, incluyendo televisores inteligentes, ordenadores multimedia, receptores de satélite, etc., y también se aplica a sistemas portátiles que pueden emplear redes inalámbricas para recibir una transmisión de vídeo y que pueden emplear redes inalámbricas para acceder a la información de las etiquetas.
La Figura 11 es un diagrama de flujo que ilustra las etapas para llevar a cabo la instalación de etiquetas mediante la designación automática del espacio disponible para publicidad y la búsqueda de objetos reales 1100. En realizaciones previas de la invención, la designación del espacio disponible para publicidad se llevaba a cabo mediante procedimientos manuales. De manera alternativa, la designación del espacio disponible para publicidad puede lograrse de manera automática. Las siguientes etapas bosquejan un proceso automatizado de designación del espacio disponible para publicidad, seguido por la aplicación de una etiqueta. En la etapa 1101, se visualiza la señal en curso no mejorada de vídeo. El procedimiento prosigue a la etapa 1102, en la que pueden emplearse técnicas de reconocimiento de patrones a la presentación de vídeo no mejorado en curso. Estas técnicas de reconocimiento de patrones pueden ser realizadas por un ordenador en el centro distribuidor (lugar de transmisión), el lugar de retransmisión, el decodificador (hogar) u otro lugar. En la etapa 1104 se realiza una consulta en cuanto a si se ha reconocido un patrón. Los patrones reconocidos pueden incluir objetos reales. Si no se ha reconocido ningún patrón, el procedimiento vuelve a la etapa 1102 y sigue aplicando el componente de reconocimiento de patrones a la presentación de vídeo en curso. Volviendo a la etapa 1104, si se reconoce algún tipo de patrón, el procedimiento prosigue a la etapa 1106, en la que se realiza una consulta en cuanto a si el patrón reconocido es un objeto real. Si el patrón reconocido no es un objeto real, el procedimiento vuelve a la etapa 1102 y sigue empleando el componente de reconocimiento de patrones. Después de la consulta en la etapa 1106, si se determina que el patrón reconocido es un objeto real, el procedimiento prosigue a la etapa 1108 en la que se generan datos de ubicación y de contorno, que pueden incluir coordenadas del objeto reconocido. Tal como se ha dado a conocer previamente, los datos de ubicación y contorno pueden generarse mediante el uso de técnicas existentes de reconocimiento por ordenador, manipulación física u otras técnicas. Los datos de ubicación/contorno pueden ser generados por un ordenador situado en el centro distribuidor, el decodificador u otro sitio. Mediante la generación de datos de ubicación/contorno, se designa el espacio disponible para publicidad y este comprende un límite alrededor del objeto identificado.
Con referencia a la Figura 11, los datos de ubicación/contorno se combinan con la señal de vídeo en la etapa 1110. Así, la señal de salida después de la etapa 1110 es una señal mejorada de vídeo. En la etapa 1112 el ordenador accede a los datos de ubicación/contorno y la señal de vídeo, a los que se denomina colectivamente señal mejorada de vídeo. Tal como se ha dado a conocer previamente, el ordenador puede estar ubicado en el centro distribuidor (lugar de transmisión), el lugar de retransmisión, el decodificador (hogar) u otro lugar. En la etapa 1114, el ordenador superpone una página HTML que está vacía salvo en la etiqueta sobre la señal de vídeo. Así se aplican una o más etiquetas a las zonas selectivas de la señal de vídeo usando las coordenadas dadas por los datos de ubicación/contorno.
La Figura 12 es un diagrama de flujo que ilustra las etapas para llevar a cabo la instalación de etiquetas mediante la designación automática del espacio disponible para publicidad y la búsqueda de espacios vacíos 1200. Los principios expuestos en la Figura 12 son similares a los principios expuestos en la Figura 11, buscando el componente de reconocimiento de patrones un espacio vacío en lugar de un objeto real. Como se ha dado a conocer previamente en la Figura 11, la designación del espacio disponible para publicidad se lleva a cabo mediante el uso de procedimientos automatizados. El procedimiento comienza en la etapa 1201, en la que se visualiza la señal en curso no mejorada de vídeo. El procedimiento prosigue a la etapa 1202, en la que pueden emplearse técnicas de reconocimiento de patrones a la señal de vídeo no mejorado en curso. Una vez más, las técnicas de reconocimiento de patrones pueden ser realizadas por un ordenador en el centro distribuidor (lugar de transmisión), el lugar de retransmisión, el decodificador (hogar) u otro lugar. En la etapa 1204 se realiza una consulta en cuanto a si se ha reconocido un patrón. Los patrones reconocidos pueden incluir espacios vacíos. Si no se ha reconocido ningún patrón, el procedimiento vuelve a la etapa 1204 y sigue aplicando el componente de reconocimiento de patrones a la presentación de vídeo en curso. Volviendo a la etapa 1204, si se reconoce un patrón, el procedimiento prosigue a la etapa 1206, en la que se realiza una consulta en cuanto a si el patrón reconocido es un espacio vacío. Si el patrón reconocido no es un espacio vacío, el procedimiento vuelve a la etapa 1202 y sigue empleando el componente de reconocimiento de patrones. Después de la consulta en la etapa 1206, si se determina que el patrón reconocido es un espacio vacío, el procedimiento prosigue a la etapa 1208 en la que se generan datos de ubicación y de contorno, que pueden incluir coordenadas del objeto reconocido. Tal como se ha dado a conocer previamente, los datos de ubicación y contorno pueden generarse mediante el uso de técnicas existentes de reconocimiento por ordenador, manipulación física u otras técnicas por un ordenador situado en el centro distribuidor, el decodificador u otro sitio. Mediante la generación de datos de ubicación/contorno, se designa el espacio disponible para publicidad y este comprende un límite alrededor del objeto identificado.
Con referencia a la Figura 12, los datos de ubicación/contorno se combinan con la señal de vídeo en la etapa 1210. Así, la señal de salida después de la etapa 1110 es una señal mejorada de vídeo. En la etapa 1212 el ordenador accede a la señal resultante mejorada de vídeo. Tal como se ha dado a conocer previamente, el ordenador puede estar ubicado en el centro distribuidor (lugar de transmisión), el lugar de retransmisión, el decodificador (hogar) u otro lugar. En la etapa 1214, el ordenador superpone una página HTML que está vacía salvo en la etiqueta sobre la señal de vídeo. Así se aplican una o más etiquetas a las zonas selectivas de la señal de vídeo usando las coordenadas dadas por los datos de ubicación/contorno.
La Figura 13 es un diagrama de flujo que ilustra las etapas para llevar a cabo la instalación de etiquetas usando procedimientos automáticos de una manera que combina los procedimientos de búsqueda de un objeto real mientras se busca simultáneamente un espacio vacío 1300. Tal como se muestra en la Figura 13, el autor crea una lista de anunciantes en la etapa 1301. En la etapa 1302 se introducen y se asignan atributos a sus respectivos anunciantes. Tal como se ha definido previamente, los atributos son cualquier objeto real que esté asociado con el anunciante, o un espacio vacío. Los atributos de los objetos reales y los atributos de los espacios vacíos se ilustran en las Figuras 4 y 5, respectivamente. Tal como se expuso previamente en la Figura 2, cada anunciante puede estar acompañado por una lista de información adicional. También puede ser parte de la información adicional un medio de selección de un anunciante según unos criterios. Para ejemplificar, los criterios, tal como los introduce el autor, pueden incluir la cantidad de fundos dados por el anunciante, cómo coinciden los colores del logotipo del anunciante con el color de fondo de la escena actual, o cualquier otra multitud de medios de clasificación de los anunciantes entre sí.
Con referencia a la Figura 13, en la etapa 1304 se crea un registro de la base de datos para cada empresa y sus atributos asociados, como se ilustra en la Figura 3. Este registro se guarda en la base de datos en la etapa 1306. En la etapa 1308 se reproduce la señal de vídeo, como una telecomedia. En la etapa 1310 se activa un componente de reconocimiento de patrones, que busca constantemente en el contenido de vídeo para identificar patrones, es decir, objetos reales o espacios vacíos. En la etapa 1312 se toma una decisión de si se ha reconocido o no un patrón. Si se ha reconocido un patrón, el procedimiento prosigue a la etapa 1314. Si no se ha reconocido ningún patrón, el procedimiento vuelve a la etapa 1310 y sigue buscando patrones adicionales en la señal de vídeo. Si en la etapa 1314 se ha reconocido un patrón, se toma una decisión en cuanto a qué tipo de patrón se reconoce. Si el patrón identificado es un espacio vacío, el procedimiento prosigue hasta la etapa 1316. En la etapa 1316 se generan datos de ubicación y/o de contorno, que pueden incluir coordenadas del objeto identificado. Tal como se ha dado a conocer previamente, los datos de ubicación y contorno pueden generarse mediante el uso de técnicas existentes de reconocimiento por ordenador, manipulación física u otras técnicas. Mediante la generación de datos de ubicación, se designa el espacio disponible para publicidad. En la etapa 1318 se busca un anuncio apropiado en la base de datos. Si no se encuentra ningún anuncio apropiado, el procedimiento vuelve a la etapa 1310 y sigue buscando en la señal de vídeo. En la etapa 1320 se selecciona una etiqueta en base a los atributos de los anunciantes. Si se encuentra un anuncio apropiado, el procedimiento prosigue a la etapa 1322. En el caso de que un espacio vacío identificado por el componente de reconocimiento de patrones fuera un atributo común a más de un anunciante, puede efectuarse una selección basada en criterios en cuanto a qué anunciante sería capaz de poner etiquetas en el espacio vacío.
Con referencia otra vez a la Figura 5, el componente de reconocimiento de patrones puede reconocer un espacio vacío, como paneles de un estadio, zonas de hielo o de césped libres de marcas, etc., en las que múltiples anunciantes pueden querer anunciarse (múltiples anunciantes habían enumerado “espacio vacío” como uno de sus atributos). Puede escogerse un anunciante en base a qué aspecto tiene el logotipo (etiqueta) del anunciante en un espacio vacío particular, como en un cielo despejado. Si los criterios se basan en el atractivo visual y el logotipo es un objeto poco natural o inapropiado para esa escena particular, como un dragón, el logotipo y quizá la empresa pueden ser descartados. Si el logotipo es visualmente atractivo, como un típico anuncio de pancarta, puede elegirse la empresa con dicho logotipo para que reciba la etiqueta. Pueden implementarse diversos criterios dependiendo de la naturaleza del contenido del vídeo, la discrepancia del autor o de cualquier variedad de los factores de selección.
Con referencia nuevamente a la Figura 13, en la etapa 1322, se crea código en un Lenguaje de Marcación Ampliable (XML) y se superpone (intercala) sobre el espacio vacío designado dentro de la señal no mejorada de vídeo. Se superpone el código XML sobre la señal no mejorada de vídeo mediante el uso de datos de ubicación/contorno obtenidos previamente en la etapa 1316. En la etapa final 1324, el código es traducido, por medio de un analizador de Lenguaje de Programación Ampliable (XSL), de XML a código para los decodificadores de Web TV, HTML, JavaScript (JS) (código para decodificadores Liberate) y/o código para otros decodificadores.
Con referencia de nuevo a la Figura 13, el procedimiento vuelve a la etapa 1314. Si el patrón reconocido es un objeto real, el procedimiento prosigue a la etapa 1326. En la etapa 1326 se generan datos de ubicación y/o de contorno. De nuevo, los datos de ubicación y contorno pueden ser generados mediante el uso de técnicas existentes de reconocimiento por ordenador, manipulación física u otras técnicas. En la etapa 1328 se busca un atributo apropiado en la base de datos. Si no se encuentra ningún atributo apropiado, el procedimiento vuelve a la etapa 1310 y sigue buscando en el flujo de vídeo. Si se encuentra un atributo apropiado, el procedimiento prosigue a la etapa 1330. En el supuesto caso de que el objeto real identificado fuese un atributo común a más de un anunciante, podría efectuarse una selección basada en criterios en cuanto a qué anunciante recibiría la etiqueta.
Este procedimiento vuelve a la etapa 1330, en la que se escoge una etiqueta en base a los atributos de los anunciantes. El procedimiento prosigue a continuación a la etapa 1332, en la que se crea código XML y se superpone sobre el objeto real designado. En la etapa final 1334 se traduce el código, por medio de un analizador XSL, de XLM a código para los decodificadores de Web TV, HTML, JavaScript (JS) (código para decodificadores Liberate) y/o código para otros decodificadores.
La Figura 14 es un diagrama de flujo que ilustra las etapas llevadas a cabo para la instalación de etiquetas usando indicadores y marcadores para describir el espacio 1400 de publicidad. Como se ha mencionado previamente, las técnicas de reconocimiento de patrones pueden proporcionar una manera en la que puede identificarse el espacio disponible para publicidad. Sin embargo, la identificación del espacio publicitario puede lograrse mediante varios procedimientos. Por ejemplo, el espacio disponible para publicidad dentro del flujo de vídeo puede ser definido mediante el uso de tecnología como la dada a conocer en las solicitudes con números de serie 60/268.350 y 10/076.950, a las que se ha hecho referencia más arriba.
Con referencia a la Figura 14, se crea un contenido en la etapa 1401. Prosiguiendo a la etapa 1402, tiene lugar la designación del espacio disponible para publicidad. Tal como se ha expuesto en las Figuras 10 y 11, la designación del espacio disponible para publicidad puede lograrse mediante procedimientos automáticos o manuales, y tiene lugar en el proveedor de contenidos. Si el espacio disponible para publicidad ha sido designado por medio de procedimientos automáticos, puede ser comprobado y editado mediante procedimientos manuales. El procedimiento prosigue a la etapa 1404, en la que se generan indicadores, tal como se ha dado a conocer en las referencias anteriores. Estos indicadores describen el espacio publicitario que fue designado en la etapa 1402. Tal como se ha dado a conocer previamente, el espacio publicitario puede ser un objeto real o un espacio vacío, y se lo denomina atributo. Los indicadores definen la ubicación y quizás el contorno del atributo identificado. Es decir, los indicadores pueden comprender una ubicación o varias ubicaciones definitorias, quizás en coordenadas x e y, y un contorno del objeto o del espacio vacío (atributo) identificados. El indicador puede señalar que el atributo es un espacio vacío o un objeto real. Estos datos de ubicación y contorno también pueden ser generados mediante el uso de técnicas existentes de reconocimiento por ordenador, manipulación física u otras técnicas. El procedimiento prosigue a la etapa 1406, en la que la etiqueta es superpuesta al flujo de vídeo en el proveedor de contenidos.
Con referencia de nuevo a la Figura 14, el procedimiento prosigue a la etapa 1408, en la que se generan marcadores en el proveedor de contenidos de una manera dada a conocer en las referencias anteriores. Estos marcadores indican la posición de una división entre cada segmento de vídeo del flujo de vídeo. Es decir, los marcadores indican el inicio y el fin de cada segmento de vídeo dentro del flujo de vídeo. El procedimiento prosigue a la etapa 1410, en la que los marcadores se superponen en el flujo de vídeo en el proveedor de contenidos.
El procedimiento prosigue a la etapa 1412, en la que puede superponerse un indicador de “ubicación en movimiento” en el flujo de vídeo, y puede indicar la nueva ubicación de un atributo en la pantalla de una manera como la dada a conocer en la solicitud provisional estadounidense con número de serie 60/354.745, presentada el 6 de febrero de 2002, titulada “TRACKING MOVING OBJECTS ON VIDEO WITH INTERACTIVE ACCESS POINTS”, que es incorporada específicamente en el presente documento por referencia en todo lo que da a conocer y enseña.
Por ejemplo, un objeto identificado, que puede ser una nevera, puede moverse ligeramente de una trama a la siguiente. Tal indicador daría cuenta de la nueva ubicación y/u orientación de la nevera, y este indicador puede comprender nuevas coordenadas x e y, y datos de contorno de la nevera. Los indicadores y los marcadores pueden ser enviados durante el Intervalo de Supresión Vertical (VBI). Puede usarse cualquier estándar conocido para la transmisión de los datos mejorados, incluyendo la Agrupación para la Mejora de la Televisión Avanzada (ATVEF). Las referencias realizadas en el presente documento a la especificación ATVEF se realizan únicamente con fines ilustrativos, y no debe interpretarse que tales referencias constituyan un respaldo, en cualquier sentido, de la especificación ATVEF.
Con referencia de nuevo a la Figura 14, el procedimiento prosigue a la etapa 1414, en la que la señal de vídeo, que ha sido mejorada con indicadores y marcadores, es transmitida desde el proveedor de contenidos a un emisor o al centro distribuidor, en el que se lee el indicador. De manera alternativa, el emisor podría leer el indicador si el anuncio que ha de superponerse es un anuncio nacional. Con referencia de nuevo a la etapa 1414, el centro distribuidor lee el indicador que marca la ubicación de un objeto o un espacio vacío y que proporciona otra información, como el perfil, el tamaño, el tipo u otra información del objeto o el espacio vacío. El procedimiento prosigue entonces a la etapa 1416, en la que el centro distribuidor consulta una lista de anunciantes, como se indicó en la Figura 3. Se efectúa una consulta a cuanto a si la lista contiene un anunciante que haya enumerado el objeto o el espacio vacío identificados como uno de los atributos del anunciante. Prosiguiendo a la etapa 1418, tal como se ha dado a conocer previamente, pueden emplearse mecanismos de selección para seleccionar al anunciante y la etiqueta en el centro distribuidor. En consecuencia, la etiqueta es superpuesta en el flujo de vídeo en el centro distribuidor en la etapa 1420. El tamaño de visualización de la etiqueta puede determinarse por los datos de coordenadas y de contorno proporcionados por el indicador.
Por lo tanto, diversas realizaciones de la presente invención proporcionan publicidad integrada que puede implementarse localmente o incluso a escala de hogar, que es la forma máxima de publicidad localizada. La localización de la publicidad puede ser sumamente efectiva, especialmente cuando se combina con preferencias personales y datos demográficos, y puede llevar a una proliferación de negocios locales. Además, añadiendo etiquetas al contenido del vídeo en un entorno posproducción, puede proporcionarse publicidad local de una manera simple y barata, se proporciona versatilidad para la elección de anunciantes, pueden aumentar los ingresos de anunciantes, etcétera. Las etiquetas son discretas, no intrusivas y no comprometen el tamaño, el color ni la continuidad del contenido de vídeo. Las etiquetas que son interactivas pueden ser activadas mediante varios procedimientos, incluyendo la pulsación en la etiqueta con un dispositivo manual o control remoto, moviendo un dispositivo de puntero sobre la etiqueta u otros procedimientos. Las etiquetas pueden volver a transferir información al dispositivo manual para la visualización/interacción, quizá mediante un enlace inalámbrico o infrarrojo, devolver información a un servidor para la agrupación de datos, o llevar a cabo cualquier número de otras acciones. Además, puede usarse un dispositivo manual personalizado según la presente invención que permite que el sistema proporcione información personalizada y que permite que varias personas interactúen simultáneamente con el mismo programa. Tales principios se dan a conocer en la solicitud provisional estadounidense con número de serie 60/227.916, presentada el 25 de agosto de 2000, titulada “PERSONALIZED REMOTE CONTROL”, ahora la solicitud no provisional estadounidense con número de serie 09/941.148, presentada el 27 de agosto de 2001, que tiene el mismo título, estando incorporadas ambas específicamente en el presente documento por referencia en todo lo que dan a conocer y enseñan.
Las etiquetas fomentan la compra impulsiva de productos o servicios. Los productos y los servicios pueden estar directamente relacionados con el contenido que se está viendo, o pueden proporcionar información adicional para la compra de artículos que no tienen relevancia alguna para el contenido del vídeo en curso. Las etiquetas pueden adaptarse a la publicidad individualizada, permitir que el espectador vote, realizar otras respuestas interactivas o facilitar el acceso a la red mundial. Las etiquetas pueden mostrar información de varias maneras diferentes, como sobre un elemento relevante, en una página separada, o en una porción no usada de la presentación de vídeo. Una vez que la etiqueta está activada, pueden aparecer mejoras tradicionales, como una ventana o una caja de texto en el lateral o la parte inferior de la pantalla de televisión. Puede aparecer un icono pequeño especial, quizá denominado “Buy-Con™”, en la esquina de la pantalla, que indique al espectador la disponibilidad de etiquetas en la escena.
Las etiquetas pueden ser instaladas automáticamente mediante el uso de tecnología existente de reconocimiento de patrones. Los patrones que son identificados por el soporte lógico pueden ser objetos reales que existen en el flujo de vídeo en curso, o espacios vacíos que existen en el flujo de vídeo en curso. Los objetos reales o los espacios vacíos pueden ser un lugar apropiado para superponer una etiqueta. Los patrones identificados por el soporte lógico de reconocimiento de patrones son comparados con la lista de atributos para identificar una etiqueta aplicable, y a los patrones se les asignan datos de ubicación y/o contorno. Después, los datos de ubicación y/o contorno son usados por un ordenador para aplicar la etiqueta en el flujo de vídeo en curso.
De forma alternativa, la instalación de etiquetas puede lograrse instalando manualmente publicidad (etiquetas) en el contenido de la programación, tal como se da a conocer en las solicitudes con números de serie 60/243.107 y 10/041.881, a las que se hace referencia más arriba. Inicialmente, la instalación manual de publicidad en el contenido de la programación puede efectuarse en el centro distribuidor (lugar de transmisión), en un lugar de retransmisión, o en hogares individuales según estudios demográficos de los mismos. Los principios de la ubicación de etiquetas a escala de hogar se dan a conocer en las solicitudes con números de serie 60/227.916 y 09/941.148, a las que se ha hecho referencia más arriba.
Ventajas adicionales de la presente invención incluyen la capacidad de cambiar etiquetas de escena a escena, y la capacidad de implementar etiquetas automáticamente o mediante procedimientos manuales. Las etiquetas pueden ser superpuestas por los espectadores desde el confort de su propio hogar. Además, dado que las etiquetas no tienen que ser interactivas y pueden existir como parte de la señal de vídeo, los televisores no capacitados para la interactividad siguen pudiendo recibir las etiquetas. Así, la aplicación de etiquetas puede no estar limitada a las señales de vídeo, sino que las etiquetas pueden aplicarse a cualquier tipo de señal y a cualquier tipo de medio.
Las diversas realizaciones dadas a conocer proporcionan un sistema y un procedimiento que permiten que se añadan alteraciones visuales posproducción a un flujo de vídeo. De esta manera, los canales de teledifusión y básicos de cable pueden proporcionar publicidad integrada a empresas locales de forma simple y económica. Pueden superponerse alteraciones visuales, o etiquetas, en el flujo de vídeo de forma manual o automática. Las etiquetas son una manera efectiva de publicidad, y las etiquetas pueden superponerse en el flujo de vídeo de forma individualizada por hogar. Las etiquetas pueden estar personalizadas y localizadas. Las etiquetas pueden ser aplicadas a cualquier forma de material de visualización, dentro de cualquier tipo de señal o medio. Las etiquetas pueden parecer de forma discreta u obvia dentro del contenido de vídeo, y las etiquetas pueden ser interactivas o no interactivas. Las etiquetas pueden cambiar de una escena a otra, y las etiquetas pueden ser superpuestas por un espectador.
En términos generales, esta revelación ha dado a conocer un procedimiento y un sistema en los que “etiquetas” que comprenden información suplementaria como elementos publicitarios, promocionales o informativos, incluyendo 5 elementos interactivos, pueden ser superpuestas en un flujo de vídeo tras la producción. Esto puede realizarse usando pantallas de superposición que incluyen pantallas interactivas de superposición o combinando segmentos de vídeo. Como tales, las etiquetas no tienen que formar parte físicamente de la escena real durante la filmación. Una vez que se crea un flujo de vídeo, se designa un espacio para la publicidad disponible manual o automáticamente mediante técnicas de reconocimiento de patrones. Se genera una lista del espacio disponible para publicidad.
10 Durante la visualización de las emisiones de televisión se colocan anuncios en la señal de vídeo. Se muestran las etiquetas superponiendo sobre la señal de vídeo una página HTML que está vacía salvo el anuncio. Los anuncios pueden superponerse tras la producción y pueden estar personalizados y localizados. Los anuncios pueden hacerse a medida a escala de hogar.
La descripción precedente de la invención se ha presentado con fines de ilustración y descripción. No se contempla
15 que sea exhaustiva ni que limite la invención a la forma precisa dada a conocer, y pueden ser posibles otras modificaciones y variaciones teniendo en cuenta las enseñanzas anteriores. Se escogió y se describió la realización para explicar de forma óptima los principios de la invención y su aplicación práctica para permitir con ello a otras personas expertas en la técnica a utilizar de forma óptima la invención en diversas realizaciones y diversas modificaciones, según convengan al uso particular contemplado. Se pretende que se interprete que las
20 reivindicaciones adjuntas incluyan otras realizaciones alternativas de la invención salvo en la medida en que estén limitadas por la técnica anterior.

Claims (62)

  1. REIVINDICACIONES
    1. Un procedimiento de superposición de una etiqueta (110, 230, 404, 410) que contiene material informativo sobre un contenido preexistente de vídeo para complementar dicho contenido preexistente de vídeo que comprende:
    el almacenamiento de una lista de anunciantes (316) junto con atributos asociados (310) de los anunciantes en una base de datos (306), representando los atributos (310) un objeto (228, 402, 408), una clase de objetos o un espacio vacío (314);
    la identificación en dicho contenido preexiste de vídeo de un objeto (228, 402, 408), una clase de objetos o un espacio vacío (314) para la colocación de una etiqueta (110, 230, 404, 410);
    la comparación (1318, 1328) de los objetos (228, 402, 408), la clase de objetos o el espacio vacío (314) identificados con objetos, clases de objetos o espacios vacíos enumerados como atributos (310) en la base de datos (306);
    la elección de una etiqueta (110, 230, 404, 410) en base a los atributos (310) de los anunciantes;
    la superposición de la etiqueta (110, 230, 404, 410) sobre el contenido preexiste de vídeo para que la etiqueta (110, 230, 404, 410) aparezca como parte integral de una señal unificada de vídeo.
  2. 2.
    El procedimiento de la reivindicación 1 en el que dicha etapa de superposición de dichas etiquetas (110, 230, 404, 410) sobre dicho contenido preexistente de vídeo comprende además combinar una señal adicional de vídeo con dicho contenido preexistente de vídeo en el que dicha señal adicional de vídeo es transparente salvo para dicha etiqueta (110, 230, 404, 410).
  3. 3.
    El procedimiento de la reivindicación 2 en el que dicha etapa de combinación comprende además la combinación de información de dicha señal adicional de vídeo que tiene un color específico que no reemplaza el contenido de dicho contenido preexistente de vídeo.
  4. 4.
    El procedimiento de la reivindicación 1 en el que dicha etapa de superposición de dicha etiqueta (110, 230, 404, 410) sobre dicho contenido preexistente de vídeo comprende además:
    la superposición de un mapa de bits generado por ordenador sobre dicho contenido preexistente de vídeo.
  5. 5.
    El procedimiento de la reivindicación 1 en el que dicha etapa de superposición de dicha etiqueta (110, 230, 404, 410) sobre dicho contenido preexistente de vídeo comprende además:
    la combinación de un mapa de bits generado por ordenador con dicho contenido preexistente de vídeo.
  6. 6.
    El procedimiento de la reivindicación 5 en el que dicha etapa de combinación comprende:
    la producción de una combinación aritmética de un mapa de bits de dicho contenido preexistente de vídeo y dicho mapa de bits generado por ordenador.
  7. 7.
    El procedimiento de la reivindicación 5 en el que dicha etapa de combinación comprende:
    la producción de una combinación lógica de un mapa de bits de dicho contenido preexistente de vídeo y dicho mapa de bits generado por ordenador.
  8. 8.
    El procedimiento de la reivindicación 1 en el que dicha etapa de selección de dicha etiqueta (110, 230, 404, 410) comprende:
    el acceso a dicha etiqueta (110, 230, 404, 410) mediante una conexión de red.
  9. 9.
    El procedimiento de la reivindicación 1 en el que dicha etapa de selección de dicha etiqueta (110, 230, 404, 410) comprende:
    la generación de una imagen de un mapa de bits en un decodificador a partir de un conjunto de instrucciones.
  10. 10.
    El procedimiento de la reivindicación 9 en el que dicha etapa de generación de una imagen de un mapa de bits comprende además:
    la generación de una imagen de un mapa de bits a partir de un conjunto de instrucciones a las que se accede por medio de una red.
  11. 11.
    El procedimiento de la reivindicación 9 en el que dicha etapa de generación de una imagen de un mapa de bits comprende además:
    la generación de una imagen de un mapa de bits a partir de un conjunto de instrucciones contenidas en una señal de difusión.
  12. 12.
    El procedimiento de la reivindicación 1 en el que dicha etapa de detección de una ubicación adecuada en dicho contenido preexistente de vídeo para la colocación de dichas etiquetas (110, 230, 404, 410) comprende además:
    el reconocimiento de objetos (228, 402, 408) y espacios vacíos (314) dentro de dicho contenido preexistente de vídeo.
  13. 13.
    El procedimiento de la reivindicación 12 en el que dicha etapa de reconocimiento de objetos (228, 402, 408) y de espacios vacíos (314) dentro de dicho contenido preexistente de vídeo comprende:
    la identificación manual de dichos objetos (228, 402, 408) y dichos espacios vacíos (314).
  14. 14.
    El procedimiento de la reivindicación 12 en el que dicha etapa de reconocimiento de objetos (228, 402, 408) y de espacios vacíos (314) dentro de dicho contenido preexistente de vídeo comprende:
    la identificación automática de dichos objetos (228, 402, 408) y dichos espacios vacíos (314).
  15. 15.
    El procedimiento de la reivindicación 14 en el que dicha etapa de reconocimiento de objetos (228, 402, 408) y de espacios vacíos (314) dentro de dicho contenido preexistente de vídeo comprende:
    el reconocimiento automático de dichos objetos (228, 402, 408) y dichos espacios vacíos (314) usando técnicas de reconocimiento de patrones de vídeo.
  16. 16.
    El procedimiento de la reivindicación 1 en el que dicha etapa de detección de una ubicación adecuado en dicho contenido preexistente de vídeo comprende además:
    la identificación de ubicaciones y atributos (310) de los espacios disponibles para etiquetas.
  17. 17.
    El procedimiento de la reivindicación 1 en el que dicha etapa de selección de dicha etiqueta (110, 230, 404, 410) comprende:
    la selección de dicha etiqueta (110, 230, 404, 410) de entre una lista de etiquetas (110, 230, 404, 410) en una base de datos (306) buscando en dicha base de datos (306) etiquetas (110, 230, 404, 410) con atributos (310) que coinciden en el contenido y los atributos (310) de ubicación de dicho espacio disponible para una etiqueta dentro de dicho contenido preexistente de vídeo.
  18. 18.
    El procedimiento de la reivindicación 17 en el que dicha etapa de selección de dicha etiqueta (110, 230, 404, 410) de entre una lista de etiquetas (110, 230, 404, 410) dentro de dicha base de datos (306) comprende además:
    la asignación de una prioridad a dicha lista de etiquetas (110, 230, 404, 410) en base a criterios predeterminados, y basándose dicha selección en dicha prioridad.
  19. 19.
    El procedimiento de la reivindicación 17 en el que dicha etapa de selección de dicha etiqueta (110, 230, 404, 410) de entre una lista de etiquetas (110, 230, 404, 410) dentro de dicha base de datos (306) comprende además:
    la inclusión de una lista de anunciantes y de atributos (310) asociados con dichos anunciantes en dicha base de datos (306).
  20. 20.
    El procedimiento de la reivindicación 1 en el que dicha etapa de detección de un emplazamiento adecuado para la ubicación de dicha etiqueta (110, 230, 404, 410) comprende además:
    la lectura de información de un indicador que define un atributo (310) de dicho contenido preexistente de vídeo para determinar la pertinencia.
  21. 21.
    El procedimiento de la reivindicación 1 en el que dicha etapa de selección de dicha etiqueta (110, 230, 404, 410) de entre una lista de etiquetas (110, 230, 404, 410) dentro de dicha base de datos (306) comprende además:
  22. 22.
    El procedimiento de la reivindicación 1 en el que dicha etapa de superposición de dicha etiqueta (110, 230, 404, 410) sobre dicho contenido preexistente de vídeo comprende además:
    la superposición de una página de lenguaje de marcación de hipertexto (HTML) que está vacía, salvo la etiqueta (110, 230, 404, 410), sobre dicho contenido.
  23. 23.
    El procedimiento de la reivindicación 1 en el que dicha etapa de superposición de dicha etiqueta (110, 230, 404, 410) sobre dicho contenido preexistente de vídeo comprende además:
    la superposición de dicha etiqueta (110, 230, 404, 410) en un lugar de transmisión de la señal de vídeo.
  24. 24.
    El procedimiento de la reivindicación 1 en el que dicha etapa de superposición de dicha etiqueta (110, 230, 404, 410) sobre dicho contenido preexistente de vídeo comprende además:
    la superposición de dicha etiqueta (110, 230, 404, 410) localmente en un lugar de visualización de la señal de vídeo.
  25. 25.
    El procedimiento de la reivindicación 1 que comprende además: la asignación de un enlace interactivo a dicha etiqueta (110, 230, 404, 410).
  26. 26.
    El procedimiento de la reivindicación 25 que comprende además: el acceso a Internet con dicho enlace interactivo.
  27. 27.
    El procedimiento de la reivindicación 1 en el que dicha etapa de superposición de dicha etiqueta (110, 230, 404, 410) sobre dicho contenido preexistente de vídeo comprende además:
    la colocación de dicha etiqueta (110, 230, 404, 410) de modo que coincida visualmente y el contorno de dicha etiqueta (110, 230, 404, 410) se adapte a un objeto (228, 402, 408) para que se convierta en parte inconsútil de la representación de la visualización.
  28. 28.
    Un sistema para la superposición de una etiqueta sobre un contenido preexistente de vídeo que comprende:
    la selección de dicha etiqueta en base a los atributos (310) asociados con dichas etiquetas (110, 230, 404, 410).
    una base de datos (306) que contiene una lista de anunciantes (316) junto con atributos asociados (310) de los anunciantes, representando los atributos (310) un objeto (228, 402, 408), una clase de objetos o un espacio vacío (314);
    la identificación en dicho contenido preexiste de vídeo de un objeto (228, 402, 408), una clase de objetos o un espacio vacío (314) para la colocación de una etiqueta (110, 230, 404, 410);
    un procesador que compara (1318, 1328) los objetos (228, 402, 408), la clase de objetos o el espacio vacío
    (314) identificados con objetos (228, 402, 408), clases de objetos o espacios vacíos (314) enumerados como atributos (310) en la base de datos (306); y que elige una etiqueta (110, 230, 404, 410) en base a los atributos (310) de los anunciantes;
    una señal de etiqueta que contiene información para complementar dicho contenido preexistente de vídeo;
    un sistema lógico que superpone dicha señal de etiqueta sobre dicho contenido preexistente de vídeo.
  29. 29.
    El sistema de la reivindicación 28 en el que dicha señal de etiqueta comprende además:
    contenido adicional de vídeo en el que dicho contenido adicional de vídeo es transparente, salvo para dicha etiqueta (110, 230, 404, 410).
  30. 30.
    El sistema de la reivindicación 29 en el que dicho contenido adicional de vídeo comprende además una señal de vídeo que tiene un color específico que no sustituye el contenido de dicho contenido preexistente de vídeo.
  31. 31.
    El sistema de la reivindicación 28 que comprende además:
    una señal mejorada de vídeo que comprende un mapa de bits generado por ordenador superpuesto sobre dicho contenido preexistente de vídeo.
  32. 32.
    El sistema de la reivindicación 28 que comprende además:
    una señal mejorada de vídeo que comprende un mapa de bits generado por ordenador combinado con dicho contenido preexistente de vídeo.
  33. 33.
    El sistema de la reivindicación 32 que comprende además:
    una señal mejorada de vídeo que comprende un mapa de bits generado por ordenador combinado con dicho contenido preexistente de vídeo en el que dicha combinación es una combinación aritmética de un mapa de bits de dicho contenido preexistente de vídeo y dicho mapa de bits generado por ordenador.
  34. 34.
    El sistema de la reivindicación 32 que comprende además:
    una señal mejorada de vídeo que comprende un mapa de bits generado por ordenador combinado con dicho contenido preexistente de vídeo en el que dicha combinación es una combinación lógica de un mapa de bits de dicho contenido preexistente de vídeo y dicho mapa de bits generado por ordenador.
  35. 35.
    El sistema de la reivindicación 28 que comprende además: una conexión de red que accede a dicha señal de etiqueta.
  36. 36. El procedimiento de la reivindicación 1 que comprende además: la recepción de una señal no mejorada de vídeo en un receptor; el acceso a un ordenador central para obtener información de la etiqueta en el que dicha información de etiqueta comprende al menos una etiqueta (110, 230, 404, 410) seleccionada de entre una lista de etiquetas (110, 230, 404, 410) en base a un atributo (310) de contenido de vídeo y a criterios para la selección de un anunciante de entre una pluralidad de anunciantes cuando un atributo (310) de un espacio de etiqueta es común a más de un anunciante;
    la generación de una imagen de un mapa de bits en dicho receptor a partir de un conjunto de instrucciones; la aplicación de dicha etiqueta (110, 230, 404, 410) a dicho vídeo no mejorado en dicho receptor; y el envío de una señal mejorada de vídeo desde dicho receptor a una pantalla.
  37. 37.
    El procedimiento de la reivindicación 36 en el que dicha etapa de generación de una imagen de un mapa de bits comprende además:
    la generación de una imagen de producto que se añade a dicha señal no mejorada de vídeo.
  38. 38.
    El procedimiento de la reivindicación 37 en el que dicha etapa de aplicación de dicha etiqueta (110, 230, 404, 410) comprende además:
    la aplicación de dicha etiqueta (110, 230, 404, 410) a dicha imagen de producto.
  39. 39.
    El sistema de la reivindicación 28 que comprende además:
    un soporte lógico que reconoce objetos (228, 402, 408) y espacios vacíos (314) dentro de dicho contenido preexistente de vídeo.
  40. 40.
    El sistema de la reivindicación 39 en el que dicho reconocimiento de objetos (228, 402, 408) y espacios vacíos
    (314) dentro de dicho contenido preexistente de vídeo se lleva a cabo de manera manual.
  41. 41.
    El sistema de la reivindicación 39 en el que dicho reconocimiento de objetos (228, 402, 408) y espacios vacíos
    (314) dentro de dicho contenido preexistente de vídeo se lleva a cabo de manera automática.
  42. 42.
    El sistema de la reivindicación 41 en el que dicho reconocimiento de objetos (228, 402, 408) y espacios vacíos
    (314) dentro de dicho contenido preexistente de vídeo se lleva a cabo de manera automática usando técnicas de reconocimiento de patrones de vídeo.
  43. 43.
    El sistema de la reivindicación 28 en el que dicho sistema comprende además:
    un soporte lógico que identifica las ubicaciones y los atributos (310) de dichos espacios disponibles para etiquetas.
  44. 44.
    El sistema de la reivindicación 28 que comprende además:
    un soporte lógico que selecciona dicha etiqueta (110, 230, 404, 410) de entre una lista de etiquetas en una base de datos (306) buscando en dicha base de datos (306) etiquetas (110, 230, 404, 410) con atributos
    (310) que coinciden con dicho espacio disponible para etiquetas dentro de dicho contenido preexistente de vídeo.
  45. 45.
    El sistema de la reivindicación 44 en el que dicho soporte lógico comprende además:
    criterios de selección que se utilizan para seleccionar dicha etiqueta (110, 230, 404, 410). 19
  46. 46.
    El sistema de la reivindicación 44 en el que dicha lista de etiquetas en una base de datos (306) comprende además:
    una lista de anunciantes y atributos (310) asociados con dichos anunciantes.
  47. 47.
    El sistema de la reivindicación 28 en el que dicha señal de etiqueta comprende además: una adición a la señal original.
  48. 48.
    El sistema de la reivindicación 28 en el que dicho sistema lógico que superpone dicha señal de etiqueta comprende además:
    un lector para la lectura de información indicadores y marcadores que definen atributos (310) de dicho contenido preexistente de vídeo para determinar la pertinencia.
  49. 49.
    El sistema de la reivindicación 28 en el que dicho sistema lógico que superpone dicha señal de etiqueta sobre dicho contenido preexistente de vídeo comprende además:
    una página de lenguaje de marcación de hipertexto (HTML) que está vacía, salvo la etiqueta (110, 230, 404, 410), superpuesta sobre dicho contenido.
  50. 50.
    El sistema de la reivindicación 28 en el que dicho sistema lógico que superpone dicha señal de etiqueta sobre dicho contenido preexistente de vídeo está ubicado en un lugar de transmisión de señales de vídeo.
  51. 51.
    El sistema de la reivindicación 28 en el que dicho sistema lógico que superpone dicha señal de etiqueta sobre dicho contenido preexistente de vídeo está ubicado en un lugar de visualización de señales de vídeo.
  52. 52.
    El sistema de la reivindicación 28 en el que dicha etiqueta (110, 230, 404, 410) comprende además: un enlace interactivo.
  53. 53.
    El sistema de la reivindicación 52 en el que dicho enlace interactivo comprende además un enlace a Internet.
  54. 54.
    El sistema de la reivindicación 28 en el que dicha etiqueta (110, 230, 404, 410) coincide visualmente con el contorno de un objeto (228, 402, 408) para que se convierta en parte inconsútil de la representación de la visualización.
  55. 55.
    El procedimiento de la reivindicación 25 en el que dicha etapa de descripción de dicha etiqueta (110, 230, 404, 410) y dicha ubicación con un lenguaje de marcación comprende además:
    la descripción de dicha etiqueta (110, 230, 404, 410) y dicha ubicación con un lenguaje de marcación de hipertexto (HTML).
  56. 56.
    El procedimiento de la reivindicación 27 en el que dicha etapa de descripción de dicha etiqueta (110, 230, 404, 410) y dicha ubicación con un lenguaje de marcación comprende además:
    la descripción de dicha etiqueta (110, 230, 404, 410) y dicha ubicación con un lenguaje de marcación de hipertexto (HTML).
  57. 57.
    El procedimiento de la reivindicación 56 en el que dicha etapa de descripción de dicha etiqueta (110, 230, 404, 410) y dicha ubicación con un lenguaje de marcación comprende además:
    la asignación de un enlace interactivo a dicha etiqueta (110, 230, 404, 410).
  58. 58.
    El procedimiento de la reivindicación 25 en el que dicha etapa de descripción de dicha etiqueta (110, 230, 404, 410) y dicha ubicación con un lenguaje de marcación comprende además:
    la descripción de dicha etiqueta (110, 230, 404, 410) y dicha ubicación con un lenguaje de marcación ampliable (XML); y
    la traducción de dicho XML.
  59. 59. El procedimiento de la reivindicación 1 que comprende además:
    la detección de un emplazamiento adecuado en dicho contenido preexistente de vídeo para la ubicación de dicha etiqueta (110, 230, 404, 410), conteniendo dicha etiqueta (110, 230, 404, 410) material informativo relativo a una fuente de bienes y servicios;
    la asignación de un enlace interactivo a dicha etiqueta (110, 230, 404, 410) que enlaza con una página web para dichos bienes y servicios; y
    la superposición de dicha etiqueta (110, 230, 404, 410) sobre dicho contenido preexistente de vídeo.
  60. 60.
    El procedimiento de la reivindicación 59 en el que dicho material informativo comprende un nombre de marca.
  61. 61.
    El procedimiento de la reivindicación 59 en el que dicho material informativo comprende un logotipo.
  62. 62.
    El procedimiento de las reivindicaciones 60 o 61 en el que dicho material informativo comprende además código de un lenguaje de marcación.
ES02750391T 2001-08-02 2002-08-02 Alteraciones visuales posproducción. Expired - Lifetime ES2358889T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US30971401P 2001-08-02 2001-08-02
US309714P 2001-08-02

Publications (1)

Publication Number Publication Date
ES2358889T3 true ES2358889T3 (es) 2011-05-16

Family

ID=23199359

Family Applications (1)

Application Number Title Priority Date Filing Date
ES02750391T Expired - Lifetime ES2358889T3 (es) 2001-08-02 2002-08-02 Alteraciones visuales posproducción.

Country Status (7)

Country Link
US (2) US7444659B2 (es)
EP (1) EP1423825B1 (es)
AT (1) ATE497227T1 (es)
AU (1) AU2002318948C1 (es)
DE (1) DE60239067D1 (es)
ES (1) ES2358889T3 (es)
WO (1) WO2003012744A1 (es)

Families Citing this family (506)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5818438A (en) 1995-04-25 1998-10-06 Bellsouth Corporation System and method for providing television services
US8640160B2 (en) 1997-01-06 2014-01-28 At&T Intellectual Property I, L.P. Method and system for providing targeted advertisements
US20060031882A1 (en) 1997-01-06 2006-02-09 Swix Scott R Systems, methods, and devices for customizing content-access lists
US8677384B2 (en) * 2003-12-12 2014-03-18 At&T Intellectual Property I, L.P. Methods and systems for network based capture of television viewer generated clickstreams
US7802276B2 (en) * 1997-01-06 2010-09-21 At&T Intellectual Property I, L.P. Systems, methods and products for assessing subscriber content access
AU5731398A (en) * 1997-01-06 1998-08-03 Bellsouth Corporation Method and system for tracking network use
US7617508B2 (en) * 2003-12-12 2009-11-10 At&T Intellectual Property I, L.P. Methods and systems for collaborative capture of television viewer generated clickstreams
US6983478B1 (en) * 2000-02-01 2006-01-03 Bellsouth Intellectual Property Corporation Method and system for tracking network use
US20100257037A1 (en) * 2001-12-14 2010-10-07 Matz William R Method and system for targeted incentives
US7587323B2 (en) * 2001-12-14 2009-09-08 At&T Intellectual Property I, L.P. System and method for developing tailored content
US20050283401A1 (en) * 1997-01-06 2005-12-22 Swix Scott R Method and system for targeting incentives
US6728713B1 (en) 1999-03-30 2004-04-27 Tivo, Inc. Distributed database management system
US8131648B2 (en) * 1999-10-20 2012-03-06 Tivo Inc. Electronic content distribution and exchange system
US6263503B1 (en) 1999-05-26 2001-07-17 Neal Margulis Method for effectively implementing a wireless television system
US8266657B2 (en) 2001-03-15 2012-09-11 Sling Media Inc. Method for effectively implementing a multi-room television system
CN100379273C (zh) 1999-09-20 2008-04-02 提维股份有限公司 闭式字幕添加标签的系统
US9788058B2 (en) 2000-04-24 2017-10-10 Comcast Cable Communications Management, Llc Method and system for automatic insertion of interactive TV triggers into a broadcast data stream
US8936101B2 (en) 2008-07-17 2015-01-20 Halliburton Energy Services, Inc. Interventionless set packer and setting method for same
US7702995B2 (en) 2000-04-24 2010-04-20 TVWorks, LLC. Method and system for transforming content for execution on multiple platforms
US20020059629A1 (en) * 2000-08-21 2002-05-16 Markel Steven O. Detection and recognition of data receiver to facilitate proper transmission of enhanced data
DK1312209T3 (en) * 2000-08-25 2017-06-26 Opentv Inc Individualized remote control
US20020057286A1 (en) * 2000-08-25 2002-05-16 Markel Steven O. Device independent video enhancement scripting language
US20050081239A1 (en) * 2001-05-11 2005-04-14 Denizen Llc Method and system for producing program-integrated advertisements
AU2002318948C1 (en) * 2001-08-02 2009-08-13 Opentv, Inc. Post production visual alterations
US8413205B2 (en) * 2001-09-19 2013-04-02 Tvworks, Llc System and method for construction, delivery and display of iTV content
US11388451B2 (en) 2001-11-27 2022-07-12 Comcast Cable Communications Management, Llc Method and system for enabling data-rich interactive television using broadcast database
AU2002327677A1 (en) 2001-09-19 2003-04-01 Meta Tv, Inc. Interactive user interface for television applications
US8042132B2 (en) * 2002-03-15 2011-10-18 Tvworks, Llc System and method for construction, delivery and display of iTV content
US7444658B1 (en) * 2001-12-14 2008-10-28 At&T Intellectual Property I, L.P. Method and system to perform content targeting
US9967633B1 (en) 2001-12-14 2018-05-08 At&T Intellectual Property I, L.P. System and method for utilizing television viewing patterns
US20110178877A1 (en) * 2001-12-14 2011-07-21 Swix Scott R Advertising and content management systems and methods
US7212979B1 (en) 2001-12-14 2007-05-01 Bellsouth Intellectuall Property Corporation System and method for identifying desirable subscribers
US7086075B2 (en) 2001-12-21 2006-08-01 Bellsouth Intellectual Property Corporation Method and system for managing timed responses to A/V events in television programming
US20050071863A1 (en) * 2001-12-21 2005-03-31 Matz William R. System and method for storing and distributing television viewing patterns form a clearinghouse
US8086491B1 (en) 2001-12-31 2011-12-27 At&T Intellectual Property I, L. P. Method and system for targeted content distribution using tagged data streams
KR100429806B1 (ko) * 2002-01-07 2004-05-03 삼성전자주식회사 디지털 tv 프로그램에 연관된 부가 정보를 표시하는방법 및그 장치
US20030149616A1 (en) * 2002-02-06 2003-08-07 Travaille Timothy V Interactive electronic voting by remote broadcasting
US7703116B1 (en) 2003-07-11 2010-04-20 Tvworks, Llc System and method for construction, delivery and display of iTV applications that blend programming information of on-demand and broadcast service offerings
US8707354B1 (en) 2002-06-12 2014-04-22 Tvworks, Llc Graphically rich, modular, promotional tile interface for interactive television
US10102486B1 (en) * 2002-05-08 2018-10-16 Thomson Licensing Implementing ETV with multiple presentment, response and communication techniques
US7987491B2 (en) * 2002-05-10 2011-07-26 Richard Reisman Method and apparatus for browsing using alternative linkbases
US8082565B2 (en) * 2002-05-16 2011-12-20 Intel Corporation Converged communication server with transaction management
US8352983B1 (en) 2002-07-11 2013-01-08 Tvworks, Llc Programming contextual interactive user interface for television
US11070890B2 (en) 2002-08-06 2021-07-20 Comcast Cable Communications Management, Llc User customization of user interfaces for interactive television
US8220018B2 (en) 2002-09-19 2012-07-10 Tvworks, Llc System and method for preferred placement programming of iTV content
US20040210942A1 (en) * 2002-10-18 2004-10-21 Thomas Lemmons Demographic/preference sniffer
EP1416727A1 (en) * 2002-10-29 2004-05-06 Accenture Global Services GmbH Moving virtual advertising
US7596602B2 (en) * 2002-12-10 2009-09-29 Louis Ellman System and method of facilitating the dissemination of information by means of active advertisements in portable information transceivers
WO2004057608A1 (en) * 2002-12-20 2004-07-08 Koninklijke Philips Electronics N.V. Method for adding interactivity to a recording
US20040152055A1 (en) * 2003-01-30 2004-08-05 Gliessner Michael J.G. Video based language learning system
US10664138B2 (en) 2003-03-14 2020-05-26 Comcast Cable Communications, Llc Providing supplemental content for a second screen experience
US11381875B2 (en) 2003-03-14 2022-07-05 Comcast Cable Communications Management, Llc Causing display of user-selectable content types
US8578411B1 (en) 2003-03-14 2013-11-05 Tvworks, Llc System and method for controlling iTV application behaviors through the use of application profile filters
GB0308459D0 (en) * 2003-04-11 2003-05-21 Id Event Marketing Monaco Sam Method of and apparatus for providing a visual presentation
US9615061B2 (en) * 2003-07-11 2017-04-04 Tvworks, Llc System and method for creating and presenting composite video-on-demand content
US8416952B1 (en) 2003-07-11 2013-04-09 Tvworks, Llc Channel family surf control
US8819734B2 (en) 2003-09-16 2014-08-26 Tvworks, Llc Contextual navigational control for digital television
US9173010B2 (en) * 2003-10-06 2015-10-27 Lester Sussman Television system to extract television product placement advertisement data and to store data in a remote control device
US8286203B2 (en) 2003-12-19 2012-10-09 At&T Intellectual Property I, L.P. System and method for enhanced hot key delivery
FR2864407B1 (fr) * 2003-12-22 2006-03-10 Canon Kk Procede et dispositif de transmission continue d'une video dans un reseau de communication
US7979877B2 (en) 2003-12-23 2011-07-12 Intellocity Usa Inc. Advertising methods for advertising time slots and embedded objects
US10032192B2 (en) 2003-12-23 2018-07-24 Roku, Inc. Automatic localization of advertisements
US10387920B2 (en) * 2003-12-23 2019-08-20 Roku, Inc. System and method for offering and billing advertisement opportunities
US9865017B2 (en) 2003-12-23 2018-01-09 Opentv, Inc. System and method for providing interactive advertisement
KR101000924B1 (ko) * 2004-02-03 2010-12-13 삼성전자주식회사 캡션 표시 방법 및 장치
US9959383B1 (en) 2004-04-30 2018-05-01 Time Warner, Inc. Apparatus, method and system for brokering and provision of intelligent advertisement
US7917932B2 (en) 2005-06-07 2011-03-29 Sling Media, Inc. Personal video recorder functionality for placeshifting systems
US7975062B2 (en) 2004-06-07 2011-07-05 Sling Media, Inc. Capturing and sharing media content
US7769756B2 (en) 2004-06-07 2010-08-03 Sling Media, Inc. Selection and presentation of context-relevant supplemental content and advertising
US9998802B2 (en) 2004-06-07 2018-06-12 Sling Media LLC Systems and methods for creating variable length clips from a media stream
US8099755B2 (en) * 2004-06-07 2012-01-17 Sling Media Pvt. Ltd. Systems and methods for controlling the encoding of a media stream
KR20070085203A (ko) 2004-06-07 2007-08-27 슬링 미디어 인코퍼레이티드 퍼스널 미디어 브로드캐스팅 시스템
US8346605B2 (en) 2004-06-07 2013-01-01 Sling Media, Inc. Management of shared media content
US8281355B1 (en) * 2004-08-02 2012-10-02 Sprint Spectrum L.P. Method, apparatus, and system for invoking third-party call control via a cable-television host device
US9420230B2 (en) * 2004-11-12 2016-08-16 Nbcuniversal Media, Llc Distributed composition of broadcast television programs
CN101077006A (zh) * 2004-11-19 2007-11-21 Tivo股份有限公司 用于先前播放内容的安全传输的方法和设备
US8151315B2 (en) * 2005-02-07 2012-04-03 Oklejas Robert A Hybrid audio/video entertainment system
US9131079B2 (en) 2005-02-07 2015-09-08 Robert A. Oklejas System and method for providing a television network customized for an end user
US10219035B2 (en) 2005-02-07 2019-02-26 Robert A. Oklejas System and method for providing a television network customized for an end user
US7631330B1 (en) 2005-02-25 2009-12-08 Lightningcast Llc Inserting branding elements
WO2006090245A2 (en) 2005-02-23 2006-08-31 Cima Nano Tech Israel Ltd Ink jet printable compositions for preparing electronic devices and patterns
KR100727063B1 (ko) * 2005-02-25 2007-06-12 주식회사 케이티프리텔 방송 서비스 수행 중의 자체 광고 출력 방법 및 그 방법을수행하는 사용자 단말기
US20080120312A1 (en) * 2005-04-07 2008-05-22 Iofy Corporation System and Method for Creating a New Title that Incorporates a Preexisting Title
US7818667B2 (en) 2005-05-03 2010-10-19 Tv Works Llc Verification of semantic constraints in multimedia data and in its announcement, signaling and interchange
US8145528B2 (en) 2005-05-23 2012-03-27 Open Text S.A. Movie advertising placement optimization based on behavior and content analysis
US8141111B2 (en) 2005-05-23 2012-03-20 Open Text S.A. Movie advertising playback techniques
US8724969B2 (en) * 2005-05-23 2014-05-13 Open Text S.A. Method, system and computer program product for editing movies in distributed scalable media environment
US9648281B2 (en) 2005-05-23 2017-05-09 Open Text Sa Ulc System and method for movie segment bookmarking and sharing
US20060288362A1 (en) * 2005-06-16 2006-12-21 Pulton Theodore R Jr Technique for providing advertisements over a communications network delivering interactive narratives
US20060288367A1 (en) * 2005-06-16 2006-12-21 Swix Scott R Systems, methods and products for tailoring and bundling content
US7702952B2 (en) 2005-06-30 2010-04-20 Sling Media, Inc. Firmware update for consumer electronic device
US20070276757A1 (en) * 2005-07-01 2007-11-29 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Approval technique for media content alteration
US20090300480A1 (en) * 2005-07-01 2009-12-03 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media segment alteration with embedded markup identifier
US8203609B2 (en) * 2007-01-31 2012-06-19 The Invention Science Fund I, Llc Anonymization pursuant to a broadcasted policy
US20090150199A1 (en) * 2005-07-01 2009-06-11 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Visual substitution options in media works
US20090235364A1 (en) * 2005-07-01 2009-09-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media markup for promotional content alteration
US9065979B2 (en) * 2005-07-01 2015-06-23 The Invention Science Fund I, Llc Promotional placement in media works
US20090210946A1 (en) * 2005-07-01 2009-08-20 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media markup for promotional audio content
US20080086380A1 (en) * 2005-07-01 2008-04-10 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Alteration of promotional content in media works
US8126190B2 (en) * 2007-01-31 2012-02-28 The Invention Science Fund I, Llc Targeted obstrufication of an image
US20090204475A1 (en) * 2005-07-01 2009-08-13 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media markup for promotional visual content
US9230601B2 (en) 2005-07-01 2016-01-05 Invention Science Fund I, Llc Media markup system for content alteration in derivative works
US20070294720A1 (en) * 2005-07-01 2007-12-20 Searete Llc Promotional placement in media works
US9583141B2 (en) * 2005-07-01 2017-02-28 Invention Science Fund I, Llc Implementing audio substitution options in media works
US20070005423A1 (en) * 2005-07-01 2007-01-04 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Providing promotional content
US20080028422A1 (en) * 2005-07-01 2008-01-31 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Implementation of media content alteration
US20070266049A1 (en) * 2005-07-01 2007-11-15 Searete Llc, A Limited Liability Corportion Of The State Of Delaware Implementation of media content alteration
US20090037243A1 (en) * 2005-07-01 2009-02-05 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Audio substitution options in media works
US20070263865A1 (en) * 2005-07-01 2007-11-15 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Authorization rights for substitute media content
US20080052161A1 (en) * 2005-07-01 2008-02-28 Searete Llc Alteration of promotional content in media works
US20090151004A1 (en) * 2005-07-01 2009-06-11 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media markup for visual content alteration
US20080013859A1 (en) * 2005-07-01 2008-01-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Implementation of media content alteration
US20090150444A1 (en) * 2005-07-01 2009-06-11 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media markup for audio content alteration
US20100154065A1 (en) * 2005-07-01 2010-06-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media markup for user-activated content alteration
US9092928B2 (en) * 2005-07-01 2015-07-28 The Invention Science Fund I, Llc Implementing group content substitution in media works
US20080052104A1 (en) * 2005-07-01 2008-02-28 Searete Llc Group content substitution in media works
US8910033B2 (en) * 2005-07-01 2014-12-09 The Invention Science Fund I, Llc Implementing group content substitution in media works
US7860342B2 (en) * 2005-07-01 2010-12-28 The Invention Science Fund I, Llc Modifying restricted images
US8963926B2 (en) * 2006-07-11 2015-02-24 Pandoodle Corporation User customized animated video and method for making the same
KR101374034B1 (ko) * 2005-07-18 2014-03-12 톰슨 라이센싱 다중 비디오 스트림을 핸들링하는 방법 및 장치
US8561113B2 (en) * 2005-08-12 2013-10-15 At&T Intellectual Property I, L.P. Augmenting television content with on-screen recording, ordering, searching and VoIP calling options
US20070064813A1 (en) * 2005-09-16 2007-03-22 Terayon Communication Systems, Inc., A Delaware Corporation Distributed synchronous program superimposition
JP4876504B2 (ja) * 2005-09-27 2012-02-15 株式会社日立製作所 再生装置および再生方法
US8132203B2 (en) * 2005-09-30 2012-03-06 Microsoft Corporation In-program content targeting
KR100791286B1 (ko) * 2005-11-16 2008-01-04 삼성전자주식회사 사용자 인터페이스 제공 방법 및 장치
US20070124762A1 (en) * 2005-11-30 2007-05-31 Microsoft Corporation Selective advertisement display for multimedia content
JP4481939B2 (ja) * 2006-01-31 2010-06-16 株式会社東芝 データ配信装置
US20070180488A1 (en) * 2006-02-01 2007-08-02 Sbc Knowledge Ventures L.P. System and method for processing video content
US8402503B2 (en) 2006-02-08 2013-03-19 At& T Intellectual Property I, L.P. Interactive program manager and methods for presenting program content
US8566865B2 (en) 2006-03-07 2013-10-22 Sony Computer Entertainment America Llc Dynamic insertion of cinematic stage props in program content
US8549554B2 (en) * 2006-03-07 2013-10-01 Sony Computer Entertainment America Llc Dynamic replacement of cinematic stage props in program content
EP2046043B1 (en) * 2006-03-07 2012-11-28 Sony Computer Entertainment America LLC Dynamic replacement and insertion of cinematic stage props in program content
US20070240040A1 (en) * 2006-04-05 2007-10-11 Christopher Peters Non-compiled portable algorithm
US20080040236A1 (en) * 2006-04-20 2008-02-14 Hideyuki Isowa System and method for ordering and producing a paper product with third party graphics printed thereon
US20070250394A1 (en) * 2006-04-20 2007-10-25 Hideyuki Isowa System and method for ordering and producing a paper product with third party graphics printed thereon
US8074251B2 (en) * 2006-06-05 2011-12-06 Palo Alto Research Center Incorporated Limited social TV apparatus
US20080008439A1 (en) * 2006-06-06 2008-01-10 Guangqun Liu Method and System For Dynamic Management Of Multiple Media Data Streams
EP1865455A1 (en) * 2006-06-07 2007-12-12 Seac02 S.r.l. A virtual advertising system
US8413182B2 (en) * 2006-08-04 2013-04-02 Aol Inc. Mechanism for rendering advertising objects into featured content
US8412021B2 (en) * 2007-05-18 2013-04-02 Fall Front Wireless Ny, Llc Video player user interface
WO2008032329A2 (en) 2006-09-13 2008-03-20 Alon Atsmon Providing content responsive to multimedia signals
US8813118B2 (en) * 2006-10-03 2014-08-19 Verizon Patent And Licensing Inc. Interactive content for media content access systems and methods
US8381244B2 (en) 2006-11-21 2013-02-19 Abacast, Inc. Content injection system and methodology
US8595760B1 (en) * 2006-11-22 2013-11-26 Amdocs Software Systems Limited System, method and computer program product for presenting an advertisement within content
US20080134229A1 (en) * 2006-11-30 2008-06-05 Conant Carson V Methods and apparatus for awarding consumers of advertising content
US20080140523A1 (en) * 2006-12-06 2008-06-12 Sherpa Techologies, Llc Association of media interaction with complementary data
US20080148311A1 (en) * 2006-12-13 2008-06-19 Tischer Steven N Advertising and content management systems and methods
US8935738B2 (en) * 2006-12-13 2015-01-13 At&T Intellectual Property I, L.P. System and method of providing interactive video content
US20080195938A1 (en) * 2006-12-14 2008-08-14 Steven Tischer Media Content Alteration
EP1936984A1 (en) * 2006-12-22 2008-06-25 Alcatel Lucent Interactive TV system, a related meta data filtering device, a related web service routing device and a related application generating device
US8046803B1 (en) 2006-12-28 2011-10-25 Sprint Communications Company L.P. Contextual multimedia metatagging
US20080167943A1 (en) * 2007-01-05 2008-07-10 O'neil Douglas R Real time pricing, purchasing and auctioning of advertising time slots based on real time viewership, viewer demographics, and content characteristics
US9363576B2 (en) 2007-01-10 2016-06-07 Steven Schraga Advertisement insertion systems, methods, and media
US8572642B2 (en) 2007-01-10 2013-10-29 Steven Schraga Customized program insertion system
US20080183608A1 (en) * 2007-01-26 2008-07-31 Andrew Gavin Payment system and method for web-based video editing system
US8218830B2 (en) * 2007-01-29 2012-07-10 Myspace Llc Image editing system and method
US20080184132A1 (en) * 2007-01-31 2008-07-31 Zato Thomas J Media content tagging
US20080180539A1 (en) * 2007-01-31 2008-07-31 Searete Llc, A Limited Liability Corporation Image anonymization
US8146126B2 (en) * 2007-02-01 2012-03-27 Invidi Technologies Corporation Request for information related to broadcast network content
US20080201369A1 (en) * 2007-02-16 2008-08-21 At&T Knowledge Ventures, Lp System and method of modifying media content
US8375405B2 (en) * 2007-03-13 2013-02-12 Microsoft Corporation Contextual television advertisement delivery
US9106974B2 (en) * 2007-03-20 2015-08-11 At&T Intellectual Property I, Lp System and method for storing advertising data
US8988609B2 (en) 2007-03-22 2015-03-24 Sony Computer Entertainment America Llc Scheme for determining the locations and timing of advertisements and other insertions in media
US8451380B2 (en) 2007-03-22 2013-05-28 Sony Computer Entertainment America Llc Scheme for determining the locations and timing of advertisements and other insertions in media
US20080244663A1 (en) * 2007-03-26 2008-10-02 The Directv Group, Inc. Method and system for inserting digital video effects into a video stream using a bypass router
US9055316B2 (en) * 2007-03-26 2015-06-09 The Directv Group, Inc. Method and system for inserting digital video effects into a video stream at a multiplexing device after routing
US8619822B2 (en) * 2007-03-26 2013-12-31 The Directv Group, Inc. Method and system for generating uplink signals from a ground segment
US8239913B2 (en) * 2007-03-26 2012-08-07 The Directv Group, Inc. Method and system for inserting digital video effects into a video stream in redundant paths before routing
US20080239163A1 (en) * 2007-03-26 2008-10-02 The Directv Group, Inc. Method and system for inserting digital video effects into a video stream after bypass routing and before encoding
US20080244755A1 (en) * 2007-03-30 2008-10-02 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Authorization for media content alteration
US9424587B2 (en) * 2007-04-11 2016-08-23 Comcast Cable Communications, Llc Advertisement supported video download
US20080256485A1 (en) * 2007-04-12 2008-10-16 Jason Gary Krikorian User Interface for Controlling Video Programs on Mobile Computing Devices
US20080259222A1 (en) * 2007-04-19 2008-10-23 Sony Corporation Providing Information Related to Video Content
US9215512B2 (en) 2007-04-27 2015-12-15 Invention Science Fund I, Llc Implementation of media content alteration
US7934011B2 (en) * 2007-05-01 2011-04-26 Flektor, Inc. System and method for flow control in web-based video editing system
US8465365B2 (en) * 2007-06-05 2013-06-18 Game Changer, LLC Interactive multi-screen display
US20080307481A1 (en) * 2007-06-08 2008-12-11 General Instrument Corporation Method and System for Managing Content in a Network
KR101352517B1 (ko) * 2007-06-08 2014-01-16 엘지전자 주식회사 휴대 단말기 및 그 휴대 단말기의 유알엘 접속 방법
US8407744B2 (en) * 2007-06-19 2013-03-26 Verizon Patent And Licensing Inc. Snapshot recognition for TV
US20090006208A1 (en) * 2007-06-26 2009-01-01 Ranjit Singh Grewal Display of Video with Tagged Advertising
US20090006937A1 (en) * 2007-06-26 2009-01-01 Knapp Sean Object tracking and content monetization
FI20070551A0 (fi) * 2007-07-17 2007-07-17 Supponor Oy Vuorovaikutteinen televisiolähetys
US20130074139A1 (en) * 2007-07-22 2013-03-21 Overlay.Tv Inc. Distributed system for linking content of video signals to information sources
US8091103B2 (en) 2007-07-22 2012-01-03 Overlay.Tv Inc. Server providing content directories of video signals and linkage to content information sources
US20090037263A1 (en) * 2007-07-30 2009-02-05 Yahoo! Inc. System for the insertion and control of advertisements in video
US20090037947A1 (en) * 2007-07-30 2009-02-05 Yahoo! Inc. Textual and visual interactive advertisements in videos
US20090037262A1 (en) * 2007-07-30 2009-02-05 Yahoo! Inc. System for contextual matching of videos with advertisements
IL185675A0 (en) * 2007-09-03 2008-01-06 Margalit Eyal A system and method for manipulating adverts and interactive communications interlinked to online content
US8060407B1 (en) 2007-09-04 2011-11-15 Sprint Communications Company L.P. Method for providing personalized, targeted advertisements during playback of media
US9294727B2 (en) 2007-10-31 2016-03-22 Veritone, Inc. System and method for creation and management of advertising inventory using metadata
US20090083141A1 (en) * 2007-09-25 2009-03-26 Ari Craine Methods, systems, and computer program products for detecting and predicting user content interest
US8477793B2 (en) 2007-09-26 2013-07-02 Sling Media, Inc. Media streaming device with gateway functionality
US20090094114A1 (en) * 2007-10-03 2009-04-09 Rice Daniel J Systems and methods for optimized addressable advertising
KR100952662B1 (ko) * 2007-10-10 2010-04-13 드리머 디지털 방송 애플리케이션 부가 정보 제공 방법 및 이를실현시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한기록 매체
US8528033B2 (en) * 2007-10-22 2013-09-03 At&T Intellectual Property I, L.P. Method and system for providing subscription data
US8350971B2 (en) * 2007-10-23 2013-01-08 Sling Media, Inc. Systems and methods for controlling media devices
US8136133B2 (en) * 2007-11-13 2012-03-13 Walker Digital, Llc Methods and systems for broadcasting modified live media
US8209223B2 (en) * 2007-11-30 2012-06-26 Google Inc. Video object tag creation and processing
US20090150927A1 (en) * 2007-12-06 2009-06-11 Alcatel Lucent Facilitating interactive advertising in digital television program content through follow-up browsing of selectable advertised offerings presented within such digital television program content
US8051455B2 (en) * 2007-12-12 2011-11-01 Backchannelmedia Inc. Systems and methods for providing a token registry and encoder
JP5101707B2 (ja) * 2007-12-13 2012-12-19 スッポノル オイ テレビジョン画像の内容の修正方法
US8655718B2 (en) * 2007-12-18 2014-02-18 Yahoo! Inc. Methods for augmenting user-generated content using a monetizable feature
JP5311813B2 (ja) * 2007-12-18 2013-10-09 三菱電機株式会社 コマーシャル処理装置
US8060609B2 (en) * 2008-01-04 2011-11-15 Sling Media Inc. Systems and methods for determining attributes of media items accessed via a personal media broadcaster
WO2009096686A2 (ko) 2008-01-29 2009-08-06 Samsung Electronics Co,. Ltd. 컨텐츠 공유 서비스 제공 방법 및 그 장치
US8973028B2 (en) * 2008-01-29 2015-03-03 Samsung Electronics Co., Ltd. Information storage medium storing metadata and method of providing additional contents, and digital broadcast reception apparatus
MX2010008352A (es) 2008-01-29 2010-08-18 Samsung Electronics Co Ltd Metodo para controlar la grabacion de contenido para pares, y un dispositivo para el mismo.
US20090193455A1 (en) * 2008-01-29 2009-07-30 Samsung Electronics Co., Ltd. Information storage medium and method for providing additional contents based on trigger, and digital broadcast reception apparatus
US20110191809A1 (en) 2008-01-30 2011-08-04 Cinsay, Llc Viral Syndicated Interactive Product System and Method Therefor
US8312486B1 (en) 2008-01-30 2012-11-13 Cinsay, Inc. Interactive product placement system and method therefor
US11227315B2 (en) * 2008-01-30 2022-01-18 Aibuy, Inc. Interactive product placement system and method therefor
US20090213270A1 (en) * 2008-02-22 2009-08-27 Ryan Ismert Video indexing and fingerprinting for video enhancement
US9264669B2 (en) * 2008-02-26 2016-02-16 Microsoft Technology Licensing, Llc Content management that addresses levels of functionality
US8358909B2 (en) * 2008-02-26 2013-01-22 Microsoft Corporation Coordinated output of messages and content
US8301618B2 (en) * 2008-02-26 2012-10-30 Microsoft Corporation Techniques to consume content and metadata
US8745670B2 (en) 2008-02-26 2014-06-03 At&T Intellectual Property I, Lp System and method for promoting marketable items
US20090222859A1 (en) * 2008-03-03 2009-09-03 Eric Lawrence Barsness Method, apparatus, and computer program product for implementing automatic update of time shift content
EP2250623A4 (en) 2008-03-05 2011-03-23 Ebay Inc METHOD AND DEVICE FOR IMAGE RECOGNITION SERVICES
US9495386B2 (en) 2008-03-05 2016-11-15 Ebay Inc. Identification of items depicted in images
KR20090098247A (ko) * 2008-03-13 2009-09-17 삼성전자주식회사 영상처리장치, 이를 포함하는 영상처리시스템 및 그제어방법
US8109829B1 (en) * 2008-04-10 2012-02-07 Acme Embedded Solutions Inc. Compositing device for combining visual content
US8079054B1 (en) * 2008-04-14 2011-12-13 Adobe Systems Incorporated Location for secondary content based on data differential
CA2721481C (en) 2008-04-15 2018-10-23 Pvi Virtual Media Services, Llc Preprocessing video to insert visual elements and applications thereof
US20090265212A1 (en) * 2008-04-17 2009-10-22 David Hyman Advertising in a streaming media environment
US8806530B1 (en) 2008-04-22 2014-08-12 Sprint Communications Company L.P. Dual channel presence detection and content delivery system and method
US8904430B2 (en) * 2008-04-24 2014-12-02 Sony Computer Entertainment America, LLC Method and apparatus for real-time viewer interaction with a media presentation
WO2009137368A2 (en) 2008-05-03 2009-11-12 Mobile Media Now, Inc. Method and system for generation and playback of supplemented videos
GB0809631D0 (en) * 2008-05-28 2008-07-02 Mirriad Ltd Zonesense
US8667279B2 (en) * 2008-07-01 2014-03-04 Sling Media, Inc. Systems and methods for securely place shifting media content
US9031279B2 (en) * 2008-07-09 2015-05-12 Disney Enterprises, Inc. Multiple-object tracking and team identification for game strategy analysis
US20100017821A1 (en) * 2008-07-21 2010-01-21 Leonov Andrei A Software based Internet/Television convergence methods and systems for organizing and displaying Internet media content on computers and Television sets
US8381310B2 (en) 2009-08-13 2013-02-19 Sling Media Pvt. Ltd. Systems, methods, and program applications for selectively restricting the placeshifting of copy protected digital media content
US20100058378A1 (en) * 2008-08-29 2010-03-04 Marc Feldman Computer-cost subsidizing method
US8667163B2 (en) 2008-09-08 2014-03-04 Sling Media Inc. Systems and methods for projecting images from a computer system
US20100064332A1 (en) * 2008-09-08 2010-03-11 Sling Media Inc. Systems and methods for presenting media content obtained from multiple sources
TWI375177B (en) * 2008-09-10 2012-10-21 Univ Nat Taiwan System and method for inserting advertising content
TW201013430A (en) * 2008-09-17 2010-04-01 Ibm Method and system for providing suggested tags associated with a target page for manipulation by a user
US8301792B2 (en) * 2008-10-28 2012-10-30 Panzura, Inc Network-attached media plug-in
US8522298B2 (en) * 2008-11-07 2013-08-27 Hillcrest Laboratories, Inc. Methods and systems for transmitting synchronized visual and audio media
US8341668B2 (en) * 2008-11-13 2012-12-25 Verizon Patent And Licensing Inc. Television advertising for local businesses
US11832024B2 (en) 2008-11-20 2023-11-28 Comcast Cable Communications, Llc Method and apparatus for delivering video and video-related content at sub-asset level
US9191610B2 (en) * 2008-11-26 2015-11-17 Sling Media Pvt Ltd. Systems and methods for creating logical media streams for media storage and playback
US9204181B2 (en) * 2008-12-12 2015-12-01 Genband Us Llc Content overlays in on-demand streaming applications
US20100154007A1 (en) * 2008-12-17 2010-06-17 Jean Touboul Embedded video advertising method and system
WO2010074535A2 (en) * 2008-12-24 2010-07-01 Lg Electronics Inc. An iptv receiver and method for controlling an application in the iptv receiver
US8438602B2 (en) * 2009-01-26 2013-05-07 Sling Media Inc. Systems and methods for linking media content
US11076189B2 (en) 2009-03-30 2021-07-27 Time Warner Cable Enterprises Llc Personal media channel apparatus and methods
US9215423B2 (en) 2009-03-30 2015-12-15 Time Warner Cable Enterprises Llc Recommendation engine apparatus and methods
EP2415257A4 (en) * 2009-04-01 2012-07-11 Fourthwall Media Inc SYSTEMS, METHODS AND APPARATUSES FOR ENHANCED VIDEO ADVERTISING WITH INTERACTIVE CONTENT
US20100257551A1 (en) * 2009-04-01 2010-10-07 Embarq Holdings Company, Llc Dynamic video content
US8438596B2 (en) 2009-04-08 2013-05-07 Tivo Inc. Automatic contact information transmission system
US8302143B2 (en) * 2009-04-09 2012-10-30 At&T Intellectual Property I, L.P. Watermarked media content in IPTV or iTV networks
US8171148B2 (en) 2009-04-17 2012-05-01 Sling Media, Inc. Systems and methods for establishing connections between devices communicating over a network
WO2010125587A2 (en) * 2009-04-29 2010-11-04 Valuable Innovations Private Limited A secured, scalable, duplex system to acquire & respond viewer's real time text & audio based feedback to a multi-media insertion in a multi-location advertising media through an amalgamated communication network of proprietary hardware
US20100281508A1 (en) * 2009-05-04 2010-11-04 Comcast Cable Holdings, Llc Internet Protocol (IP) to Video-on-Demand (VOD) Gateway
US8176509B2 (en) * 2009-06-30 2012-05-08 Yahoo! Inc. Post processing video to identify interests based on clustered user interactions
US8406431B2 (en) 2009-07-23 2013-03-26 Sling Media Pvt. Ltd. Adaptive gain control for digital audio samples in a media stream
US9479737B2 (en) 2009-08-06 2016-10-25 Echostar Technologies L.L.C. Systems and methods for event programming via a remote media player
US9565479B2 (en) * 2009-08-10 2017-02-07 Sling Media Pvt Ltd. Methods and apparatus for seeking within a media stream using scene detection
US8799408B2 (en) 2009-08-10 2014-08-05 Sling Media Pvt Ltd Localization systems and methods
US8532472B2 (en) 2009-08-10 2013-09-10 Sling Media Pvt Ltd Methods and apparatus for fast seeking within a media stream buffer
US9525838B2 (en) 2009-08-10 2016-12-20 Sling Media Pvt. Ltd. Systems and methods for virtual remote control of streamed media
US8966101B2 (en) * 2009-08-10 2015-02-24 Sling Media Pvt Ltd Systems and methods for updating firmware over a network
US9160974B2 (en) 2009-08-26 2015-10-13 Sling Media, Inc. Systems and methods for transcoding and place shifting media content
US8314893B2 (en) * 2009-08-28 2012-11-20 Sling Media Pvt. Ltd. Remote control and method for automatically adjusting the volume output of an audio device
US20110061068A1 (en) * 2009-09-10 2011-03-10 Rashad Mohammad Ali Tagging media with categories
US9110517B2 (en) 2009-09-14 2015-08-18 Broadcom Corporation System and method for generating screen pointing information in a television
JP2011060210A (ja) * 2009-09-14 2011-03-24 Sony Corp 情報処理システム及び情報処理方法、並びにコンピューター・プログラム
US9396484B2 (en) * 2009-09-16 2016-07-19 International Business Machines Corporation Systems and method for dynamic content injection using aspect oriented media programming
US8434121B2 (en) 2009-10-16 2013-04-30 At&T Intellectual Property I, L.P. System and method for monitoring whole home digital video recorder usage for internet protocol television
US8396055B2 (en) 2009-10-20 2013-03-12 Time Warner Cable Inc. Methods and apparatus for enabling media functionality in a content-based network
US8990104B1 (en) 2009-10-27 2015-03-24 Sprint Communications Company L.P. Multimedia product placement marketplace
US9508080B2 (en) * 2009-10-28 2016-11-29 Vidclx, Llc System and method of presenting a commercial product by inserting digital content into a video stream
KR20110047768A (ko) * 2009-10-30 2011-05-09 삼성전자주식회사 멀티미디어 컨텐츠 재생 장치 및 방법
US20110107368A1 (en) * 2009-11-03 2011-05-05 Tandberg Television, Inc. Systems and Methods for Selecting Ad Objects to Insert Into Video Content
US20110113438A1 (en) * 2009-11-06 2011-05-12 Sony Corporation Method and system of displaying information of specific interest to a user on a television
US9015225B2 (en) 2009-11-16 2015-04-21 Echostar Technologies L.L.C. Systems and methods for delivering messages over a network
US20110265123A1 (en) * 2009-11-16 2011-10-27 Jon Morisey Method and System for Presenting Customized Content on a Television In Conjunction with Regular Programming
KR101674682B1 (ko) * 2009-11-17 2016-11-09 엘지전자 주식회사 네트워크 tv의 메뉴 제공 방법
KR101632077B1 (ko) * 2009-11-24 2016-07-01 엘지전자 주식회사 네트워크 tv의 메뉴 화면 편집 방법
US9479838B2 (en) 2009-11-24 2016-10-25 Sam Makhlouf System and method for distributing media content from multiple sources
KR20110060650A (ko) 2009-11-30 2011-06-08 엘지전자 주식회사 네트워크에 접속가능한 tv의 동작 모드 전환 방법
US8869195B2 (en) * 2009-12-10 2014-10-21 At&T Intellectual Property I, L.P. Apparatus and method for managing voice communications
US8935737B2 (en) 2009-12-10 2015-01-13 At&T Intellectual Property I, Lp Apparatus and method for managing voice communications
KR20110067268A (ko) * 2009-12-14 2011-06-22 삼성전자주식회사 디스플레이장치 및 그 정합영상의 생성방법
US8799485B2 (en) 2009-12-18 2014-08-05 Sling Media, Inc. Methods and apparatus for establishing network connections using an inter-mediating device
US8626879B2 (en) * 2009-12-22 2014-01-07 Sling Media, Inc. Systems and methods for establishing network connections using local mediation services
US9164577B2 (en) 2009-12-22 2015-10-20 Ebay Inc. Augmented reality system, method, and apparatus for displaying an item image in a contextual environment
US9178923B2 (en) 2009-12-23 2015-11-03 Echostar Technologies L.L.C. Systems and methods for remotely controlling a media server via a network
US9275054B2 (en) * 2009-12-28 2016-03-01 Sling Media, Inc. Systems and methods for searching media content
US9712852B2 (en) * 2010-01-08 2017-07-18 Fatehali T. Dharssi System and method for altering images in a digital video
KR101562588B1 (ko) * 2010-01-26 2015-10-23 엘지전자 주식회사 정보 제공 장치 및 그 방법
US8856349B2 (en) 2010-02-05 2014-10-07 Sling Media Inc. Connection priority services for data communication between two devices
US9237294B2 (en) 2010-03-05 2016-01-12 Sony Corporation Apparatus and method for replacing a broadcasted advertisement based on both heuristic information and attempts in altering the playback of the advertisement
US9106873B2 (en) * 2010-04-01 2015-08-11 Verizon Patent And Licensing Inc. Methods and systems for providing enhanced content by way of a virtual channel
US9264785B2 (en) 2010-04-01 2016-02-16 Sony Computer Entertainment Inc. Media fingerprinting for content determination and retrieval
US8782700B2 (en) * 2010-04-26 2014-07-15 International Business Machines Corporation Controlling one or more attributes of a secondary video stream for display in combination with a primary video stream
US20110267538A1 (en) * 2010-04-29 2011-11-03 Dharssi Fatehali T System and method for altering images in a video file using predetermined parameters
US20110283312A1 (en) * 2010-05-17 2011-11-17 Farquhar James J Providing information to a viewer utilizing interactive media
WO2011146275A2 (en) * 2010-05-19 2011-11-24 Google Inc. Managing lifecycles of television gadgets and applications
US8341677B2 (en) * 2010-06-08 2012-12-25 Verizon Patent And Licensing Inc. Interactive product / service listing
US20110321086A1 (en) * 2010-06-29 2011-12-29 William Smith Alternating embedded digital media content responsive to user or provider customization selections
US9814977B2 (en) * 2010-07-13 2017-11-14 Sony Interactive Entertainment Inc. Supplemental video content on a mobile device
US8730354B2 (en) 2010-07-13 2014-05-20 Sony Computer Entertainment Inc Overlay video content on a mobile device
US9832441B2 (en) * 2010-07-13 2017-11-28 Sony Interactive Entertainment Inc. Supplemental content on a mobile device
US9159165B2 (en) 2010-07-13 2015-10-13 Sony Computer Entertainment Inc. Position-dependent gaming, 3-D controller, and handheld as a remote
US9143699B2 (en) 2010-07-13 2015-09-22 Sony Computer Entertainment Inc. Overlay non-video content on a mobile device
US10674230B2 (en) 2010-07-30 2020-06-02 Grab Vision Group LLC Interactive advertising and marketing system
US9113215B1 (en) 2010-07-30 2015-08-18 Lincoln Berry, III Interactive advertising and marketing system
WO2012027600A2 (en) * 2010-08-27 2012-03-01 Intel Corporation Transcoder enabled cloud of remotely controlled devices
US9699503B2 (en) 2010-09-07 2017-07-04 Opentv, Inc. Smart playlist
US10210160B2 (en) 2010-09-07 2019-02-19 Opentv, Inc. Collecting data from different sources
US8949871B2 (en) 2010-09-08 2015-02-03 Opentv, Inc. Smart media selection based on viewer user presence
JP4698770B1 (ja) * 2010-09-21 2011-06-08 庸美 徳原 課金電子広告システム
US20120084810A1 (en) * 2010-10-04 2012-04-05 Mark Thompson System and Method for Integrating Interactive Region-Based Advertising Into Real Time Video Content
US9832528B2 (en) 2010-10-21 2017-11-28 Sony Corporation System and method for merging network-based content with broadcasted programming content
US8968080B1 (en) * 2010-11-05 2015-03-03 Wms Gaming, Inc. Display of third party content on a wagering game machine
KR101719992B1 (ko) * 2010-11-16 2017-03-27 엘지전자 주식회사 이동 단말기 및 이것의 메타데이터 활용 방법
US9172943B2 (en) 2010-12-07 2015-10-27 At&T Intellectual Property I, L.P. Dynamic modification of video content at a set-top box device
US20120167146A1 (en) * 2010-12-28 2012-06-28 White Square Media Llc Method and apparatus for providing or utilizing interactive video with tagged objects
KR101763887B1 (ko) * 2011-01-07 2017-08-02 삼성전자주식회사 디바이스간 동기화된 인터랙션을 제공하는 콘텐츠 동기화 장치 및 방법
US20120238254A1 (en) * 2011-03-17 2012-09-20 Ebay Inc. Video processing system for identifying items in video frames
GB201117512D0 (en) * 2011-03-17 2011-11-23 Zeebox Ltd Content provision
US20120254915A1 (en) * 2011-03-30 2012-10-04 Google Inc. Transition from locally stored video data to broadcast feed
US20120297437A1 (en) * 2011-05-17 2012-11-22 Guy Blank Systems and methods providing business data via a television based on a business context
US9112623B2 (en) 2011-06-06 2015-08-18 Comcast Cable Communications, Llc Asynchronous interaction at specific points in content
US11087424B1 (en) 2011-06-24 2021-08-10 Google Llc Image recognition-based content item selection
US8688514B1 (en) 2011-06-24 2014-04-01 Google Inc. Ad selection using image data
US10972530B2 (en) 2016-12-30 2021-04-06 Google Llc Audio-based data structure generation
US10108980B2 (en) 2011-06-24 2018-10-23 At&T Intellectual Property I, L.P. Method and apparatus for targeted advertising
US10423968B2 (en) 2011-06-30 2019-09-24 At&T Intellectual Property I, L.P. Method and apparatus for marketability assessment
WO2013012112A1 (ko) * 2011-07-21 2013-01-24 엘지전자 주식회사 쿠폰 검색을 수행하는 전자 기기 및 소셜 커머스 서버
US20130036442A1 (en) * 2011-08-05 2013-02-07 Qualcomm Incorporated System and method for visual selection of elements in video content
US10089550B1 (en) * 2011-08-17 2018-10-02 William F. Otte Sports video display
US8935719B2 (en) * 2011-08-25 2015-01-13 Comcast Cable Communications, Llc Application triggering
AU2012302021B2 (en) 2011-08-29 2016-05-19 Aibuy, Inc. Containerized software for virally copying from one endpoint to another
JP5668178B2 (ja) 2011-09-09 2015-02-12 楽天株式会社 双方向テレビ公開に対する顧客制御システムおよび方法
US9930311B2 (en) * 2011-10-20 2018-03-27 Geun Sik Jo System and method for annotating a video with advertising information
US9449342B2 (en) 2011-10-27 2016-09-20 Ebay Inc. System and method for visualization of items in an environment using augmented reality
US10586127B1 (en) * 2011-11-14 2020-03-10 Google Llc Extracting audiovisual features from content elements on online documents
US11093692B2 (en) * 2011-11-14 2021-08-17 Google Llc Extracting audiovisual features from digital components
US20130144723A1 (en) * 2011-11-17 2013-06-06 Abacast, Inc. Systems, methods and articles to automatically expose and place material in streams of programming
DE102011055653A1 (de) 2011-11-23 2013-05-23 nrichcontent UG (haftungsbeschränkt) Verfahren und Vorrichtung zur Aufbereitung von Mediendaten
US9626798B2 (en) 2011-12-05 2017-04-18 At&T Intellectual Property I, L.P. System and method to digitally replace objects in images or video
US8878991B2 (en) 2011-12-07 2014-11-04 Comcast Cable Communications, Llc Dynamic ambient lighting
US20130198786A1 (en) * 2011-12-07 2013-08-01 Comcast Cable Communications, LLC. Immersive Environment User Experience
US9240059B2 (en) 2011-12-29 2016-01-19 Ebay Inc. Personal augmented reality
US8996712B2 (en) 2012-01-17 2015-03-31 Wideorbit Inc. Systems, methods and articles to provide content in networked environment
US9020948B2 (en) 2012-02-07 2015-04-28 Turner Broadcasting System, Inc. Method and system for automatic content recognition network operations
JP2013174965A (ja) * 2012-02-23 2013-09-05 Toshiba Corp 電子機器、電子機器の制御システム、及びサーバ
US8984094B2 (en) 2012-03-15 2015-03-17 Wideorbit Inc. Systems and methods to deliver a personalized mediacast
US9467723B2 (en) 2012-04-04 2016-10-11 Time Warner Cable Enterprises Llc Apparatus and methods for automated highlight reel creation in a content delivery network
US10506278B2 (en) * 2012-04-18 2019-12-10 Scorpoast, LLC Interactive video distribution system and video player utilizing a client server architecture
US20140150029A1 (en) 2012-04-18 2014-05-29 Scorpcast, Llc System and methods for providing user generated video reviews
US8682809B2 (en) 2012-04-18 2014-03-25 Scorpcast, Llc System and methods for providing user generated video reviews
US9832519B2 (en) 2012-04-18 2017-11-28 Scorpcast, Llc Interactive video distribution system and video player utilizing a client server architecture
WO2013173783A1 (en) * 2012-05-17 2013-11-21 Realnetworks, Inc. Context-aware video platform systems and methods
US20130311595A1 (en) * 2012-05-21 2013-11-21 Google Inc. Real-time contextual overlays for live streams
US10440432B2 (en) 2012-06-12 2019-10-08 Realnetworks, Inc. Socially annotated presentation systems and methods
US9060152B2 (en) 2012-08-17 2015-06-16 Flextronics Ap, Llc Remote control having hotkeys with dynamically assigned functions
TWI470999B (zh) * 2012-06-19 2015-01-21 Wistron Corp 編輯與儲存串流的方法、裝置、系統
US10789631B2 (en) 2012-06-21 2020-09-29 Aibuy, Inc. Apparatus and method for peer-assisted e-commerce shopping
US9607330B2 (en) 2012-06-21 2017-03-28 Cinsay, Inc. Peer-assisted shopping
US10846766B2 (en) 2012-06-29 2020-11-24 Ebay Inc. Contextual menus based on image recognition
US10198486B2 (en) 2012-06-30 2019-02-05 Ebay Inc. Recommendation filtering based on common interests
KR20140004341A (ko) * 2012-07-02 2014-01-13 한국전자통신연구원 시청자 선택형 증강방송 서비스 제공 장치 및 방법
US9003443B2 (en) 2012-07-31 2015-04-07 Wideorbit Inc. Systems, methods and articles to provide content in networked environment
US20160119675A1 (en) 2012-09-06 2016-04-28 Flextronics Ap, Llc Programming user behavior reporting
US11368760B2 (en) 2012-08-17 2022-06-21 Flextronics Ap, Llc Applications generating statistics for user behavior
US9054818B2 (en) 2012-08-21 2015-06-09 Anheuser-Busch Inbev Gesture based polling using an intelligent beverage container
US20140067564A1 (en) 2012-08-30 2014-03-06 Ebay Inc. Shopping list creator and optimizer
US20140082645A1 (en) * 2012-09-14 2014-03-20 Peter Stern Apparatus and methods for providing enhanced or interactive features
EP2728536A1 (en) * 2012-09-17 2014-05-07 OpenTV, Inc. System and method for offering and billing advertisement opportunities
US20140100993A1 (en) * 2012-10-04 2014-04-10 Rico Farmer Product Purchase in a Video Communication Session
US11115722B2 (en) 2012-11-08 2021-09-07 Comcast Cable Communications, Llc Crowdsourcing supplemental content
US20140150017A1 (en) * 2012-11-29 2014-05-29 At&T Intellectual Property I, L.P. Implicit Advertising
US8930977B1 (en) * 2012-12-10 2015-01-06 Amazon Technologies, Inc. Tracking user affinity through interactions with media files
KR101511297B1 (ko) * 2012-12-26 2015-04-10 주식회사 케이티 객체에 대한 부가정보를 생성하는 장치 및 방법 그리고, 부가정보를 공유하는 서버
CN103902307A (zh) * 2012-12-26 2014-07-02 研祥智能科技股份有限公司 修改windows系统开关机过程中提示画面的方法及装置
US9167278B2 (en) 2012-12-28 2015-10-20 Turner Broadcasting System, Inc. Method and system for automatic content recognition (ACR) based broadcast synchronization
US20140195328A1 (en) * 2013-01-04 2014-07-10 Ron Ferens Adaptive embedded advertisement via contextual analysis and perceptual computing
US9560415B2 (en) * 2013-01-25 2017-01-31 TapShop, LLC Method and system for interactive selection of items for purchase from a video
US9237367B2 (en) * 2013-01-28 2016-01-12 Rhythmone, Llc Interactive video advertisement in a mobile browser
US20140245369A1 (en) * 2013-02-26 2014-08-28 Splenvid, Inc. Automated movie compilation system
US9380443B2 (en) 2013-03-12 2016-06-28 Comcast Cable Communications, Llc Immersive positioning and paring
US9414114B2 (en) 2013-03-13 2016-08-09 Comcast Cable Holdings, Llc Selective interactivity
US9553927B2 (en) 2013-03-13 2017-01-24 Comcast Cable Communications, Llc Synchronizing multiple transmissions of content
US20160110884A1 (en) * 2013-03-14 2016-04-21 Aperture Investments, Llc Systems and methods for identifying objects within video content and associating information with identified objects
US10880609B2 (en) 2013-03-14 2020-12-29 Comcast Cable Communications, Llc Content event messaging
US10042505B1 (en) 2013-03-15 2018-08-07 Google Llc Methods, systems, and media for presenting annotations across multiple videos
US9514381B1 (en) 2013-03-15 2016-12-06 Pandoodle Corporation Method of identifying and replacing an object or area in a digital image with another object or area
US9420343B2 (en) * 2013-03-15 2016-08-16 Echostar Technologies L.L.C. Systems and methods for providing information related to tagged items represented in video stream content
US10182272B2 (en) 2013-03-15 2019-01-15 Samir B Makhlouf System and method for reinforcing brand awareness with minimal intrusion on the viewer experience
US9781490B2 (en) 2013-03-15 2017-10-03 Samir B. Makhlouf System and method for engagement and distribution of media content
US9326043B2 (en) * 2013-03-15 2016-04-26 Samir B. Makhlouf System and method for engagement and distribution of media content
US20140282699A1 (en) * 2013-03-15 2014-09-18 Motive Television Plc Enhanced broadcast television for portable devices
US10061482B1 (en) * 2013-03-15 2018-08-28 Google Llc Methods, systems, and media for presenting annotations across multiple videos
US11030239B2 (en) 2013-05-31 2021-06-08 Google Llc Audio based entity-action pair based selection
US9953085B1 (en) 2013-05-31 2018-04-24 Google Llc Feed upload for search entity based content selection
US10546318B2 (en) * 2013-06-27 2020-01-28 Intel Corporation Adaptively embedding visual advertising content into media content
US9589535B2 (en) 2013-07-19 2017-03-07 Paypal, Inc. Social mobile game for recommending items
US20150026718A1 (en) * 2013-07-19 2015-01-22 United Video Properties, Inc. Systems and methods for displaying a selectable advertisement when video has a background advertisement
US9773018B2 (en) 2013-08-13 2017-09-26 Ebay Inc. Mapping item categories to ambiguous queries by geo-location
CA2921994C (en) 2013-09-11 2021-11-16 Cinsay, Inc. Dynamic binding of video content
US9743124B2 (en) 2013-09-12 2017-08-22 Wideorbit Inc. Systems and methods to deliver a personalized mediacast with an uninterrupted lead-in portion
WO2015047248A1 (en) 2013-09-25 2015-04-02 Intel Corporation Improving natural language interactions using emotional modulation
WO2015047246A1 (en) * 2013-09-25 2015-04-02 Intel Corporation Dynamic product placement in media content
KR102344237B1 (ko) 2013-09-27 2021-12-27 에이아이바이, 인크. 콘텐츠 제공과 연관되는 관계성들을 지원하기 위한 장치 및 방법
JP6531105B2 (ja) * 2013-09-27 2019-06-12 アイバイ,インコーポレイテッド 補足コンテンツのnレベル複製
US9716919B2 (en) * 2013-09-30 2017-07-25 Hulu, LLC Queue to display additional information for entities in captions
WO2015052908A1 (ja) * 2013-10-11 2015-04-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 送信方法、受信方法、送信装置および受信装置
US9407954B2 (en) 2013-10-23 2016-08-02 At&T Intellectual Property I, Lp Method and apparatus for promotional programming
GB2519537A (en) * 2013-10-23 2015-04-29 Life On Show Ltd A method and system of generating video data with captions
US9654814B2 (en) * 2013-10-28 2017-05-16 Microsoft Technology Licensing, Llc Video frame selection for targeted content
GB2520334B (en) 2013-11-18 2015-11-25 Helen Bradley Lennon A video broadcast system and a method of disseminating video content
US11076205B2 (en) 2014-03-07 2021-07-27 Comcast Cable Communications, Llc Retrieving supplemental content
US9667886B2 (en) * 2014-03-27 2017-05-30 Sony Corporation Apparatus and method for editing video data according to common video content attributes
WO2015144248A1 (en) * 2014-03-28 2015-10-01 Arcelik Anonim Sirketi Image display device with automatic subtitle generation function
US10825056B1 (en) 2014-04-17 2020-11-03 The Nielsen Company (Us), Llc Client-side video advertisement replacement using automatic content recognition
US11122315B2 (en) * 2014-05-13 2021-09-14 Wideorbit Llc Systems and methods to identify video content types
US20150341697A1 (en) * 2014-05-20 2015-11-26 Karyn J. Satterfield Marketing methods employing interactive media services
US10432986B2 (en) * 2014-05-30 2019-10-01 Disney Enterprises, Inc. Recall and triggering system for control of on-air content at remote locations
US10620801B1 (en) * 2014-06-25 2020-04-14 Google Llc Generation and presentation of interactive information cards for a video
US11783382B2 (en) 2014-10-22 2023-10-10 Comcast Cable Communications, Llc Systems and methods for curating content metadata
CN104581428B (zh) * 2014-11-14 2018-12-25 北京海米文化传媒有限公司 一种投放业务对象的方法和装置
CN104506879B (zh) * 2014-11-14 2017-12-26 北京海米文化传媒有限公司 一种投放业务对象的方法和装置
CN104506962B (zh) * 2014-11-14 2017-11-07 北京海米文化传媒有限公司 一种投放业务对象的方法和装置
CN104581187B (zh) * 2014-11-14 2017-11-07 北京海米文化传媒有限公司 一种投放业务对象的方法和装置
CN104506961B (zh) * 2014-11-14 2018-05-29 北京海米文化传媒有限公司 一种投放业务对象的方法和装置
CN104504577B (zh) * 2014-11-14 2017-11-07 北京海米文化传媒有限公司 一种投放业务对象的方法和装置
CN104506963B (zh) * 2014-11-14 2018-12-25 北京海米文化传媒有限公司 一种投放业务对象的方法和装置
CN104506960B (zh) * 2014-11-14 2018-04-24 北京海米文化传媒有限公司 一种投放业务对象的方法和装置
US10509824B1 (en) 2014-12-01 2019-12-17 The Nielsen Company (Us), Llc Automatic content recognition search optimization
US10051340B2 (en) * 2015-01-08 2018-08-14 The Directv Group, Inc. Systems and methods for triggering user interfaces for product and/or service transactions via user receiving devices and mobile devices
US10116676B2 (en) 2015-02-13 2018-10-30 Time Warner Cable Enterprises Llc Apparatus and methods for data collection, analysis and service modification based on online activity
US9438936B1 (en) * 2015-04-03 2016-09-06 Mirriad Limited Producing video data
US10750236B2 (en) 2015-04-23 2020-08-18 The Nielsen Company (Us), Llc Automatic content recognition with local matching
US9380353B1 (en) 2015-05-04 2016-06-28 Google Inc. Methods, systems, and media for generating an advertisement from a video stream
CN107070779B (zh) * 2015-05-29 2021-09-03 北京搜狗科技发展有限公司 一种信息处理方法和装置
US10986379B2 (en) 2015-06-08 2021-04-20 Wideorbit Llc Content management and provisioning system
US9516377B1 (en) 2015-06-12 2016-12-06 Sorenson Media, Inc. Detecting channel change in automatic content recognition fingerprint matching
US9883249B2 (en) * 2015-06-26 2018-01-30 Amazon Technologies, Inc. Broadcaster tools for interactive shopping interfaces
US10021458B1 (en) 2015-06-26 2018-07-10 Amazon Technologies, Inc. Electronic commerce functionality in video overlays
US10440436B1 (en) 2015-06-26 2019-10-08 Amazon Technologies, Inc. Synchronizing interactive content with a live video stream
US9973819B1 (en) 2015-06-26 2018-05-15 Amazon Technologies, Inc. Live video stream with interactive shopping interface
US10110933B2 (en) * 2015-09-01 2018-10-23 International Business Machines Corporation Video file processing
US9813781B2 (en) 2015-10-27 2017-11-07 Sorenson Media, Inc. Media content matching and indexing
US20170127098A1 (en) * 2015-10-30 2017-05-04 International Business Machines Corporation Modular media content placement in digital media
EP4106335B1 (en) * 2015-12-16 2025-06-11 Roku, Inc. Dynamic video overlays
US10356493B2 (en) * 2015-12-22 2019-07-16 Google Llc Methods, systems, and media for presenting interactive elements within video content
US10956766B2 (en) 2016-05-13 2021-03-23 Vid Scale, Inc. Bit depth remapping based on viewing parameters
CN106911953A (zh) 2016-06-02 2017-06-30 阿里巴巴集团控股有限公司 一种视频播放控制方法、装置及视频播放系统
EP3482566B1 (en) 2016-07-08 2024-02-28 InterDigital Madison Patent Holdings, SAS Systems and methods for region-of-interest tone remapping
EP3488615A1 (en) * 2016-07-22 2019-05-29 VID SCALE, Inc. Systems and methods for integrating and delivering objects of interest in video
WO2018035133A1 (en) * 2016-08-17 2018-02-22 Vid Scale, Inc. Secondary content insertion in 360-degree video
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
US10121513B2 (en) 2016-08-30 2018-11-06 International Business Machines Corporation Dynamic image content overlaying
CN108124167A (zh) * 2016-11-30 2018-06-05 阿里巴巴集团控股有限公司 一种播放处理方法、装置和设备
US10701438B2 (en) 2016-12-31 2020-06-30 Turner Broadcasting System, Inc. Automatic content recognition and verification in a broadcast chain
US11514558B2 (en) 2017-02-02 2022-11-29 Edward C. Meagher Systems and methods for image enhancement
EP3583780B1 (en) 2017-02-17 2023-04-05 InterDigital Madison Patent Holdings, SAS Systems and methods for selective object-of-interest zooming in streaming video
US10523977B1 (en) * 2017-02-28 2019-12-31 Developonbox, Llc System and method of unified video switching and advertisement splicing within consumer devices
US11272237B2 (en) 2017-03-07 2022-03-08 Interdigital Madison Patent Holdings, Sas Tailored video streaming for multi-device presentations
US10785546B2 (en) * 2017-05-01 2020-09-22 International Business Machines Corporation Optimizing product placement in a media
US10096169B1 (en) * 2017-05-17 2018-10-09 Samuel Chenillo System for the augmented assessment of virtual insertion opportunities
EP4156694A1 (en) * 2017-07-07 2023-03-29 Nagravision Sàrl A method to insert ad content into a video scene
US10327026B1 (en) * 2017-08-03 2019-06-18 Amazon Technologies, Inc. Presenting content-specific video advertisements upon request
JP6305614B1 (ja) 2017-09-04 2018-04-04 株式会社ドワンゴ コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム
US10334320B2 (en) * 2017-09-19 2019-06-25 Duzy IOD LLC Interactive digital platform, system, and method for immersive consumer interaction with open web video player
US10757483B2 (en) * 2017-10-26 2020-08-25 Futurewei Technologies, Inc. Method and apparatus for data tracking and presenting
US10614313B2 (en) * 2017-12-12 2020-04-07 International Business Machines Corporation Recognition and valuation of products within video content
US10575069B2 (en) 2017-12-20 2020-02-25 International Business Machines Corporation Method and system for automatically creating narrative visualizations from audiovisual content according to pattern detection supported by cognitive computing
US20190220669A1 (en) * 2018-01-12 2019-07-18 International Business Machines Corporation Content presentation based on video interaction
EP3767964B1 (en) * 2018-03-15 2025-07-30 Saturn Licensing, LLC Information processing device, information processing device, and program
US11206462B2 (en) 2018-03-30 2021-12-21 Scener Inc. Socially annotated audiovisual content
CN111175235A (zh) * 2018-04-23 2020-05-19 陈浩能 一种测量方法、测量装置和存储设备
WO2019206130A1 (en) * 2018-04-23 2019-10-31 Chen Haoneng Method and apparatus for product monitoring
EP3564888A1 (en) * 2018-05-04 2019-11-06 Hotmart B.V. Methods and systems for displaying a form associated with a video
WO2019234747A1 (en) * 2018-06-06 2019-12-12 Googale (2009) Ltd. Computerized platform facilitating communication between end-users
US11949943B2 (en) * 2018-07-16 2024-04-02 Arris Enterprises Llc Gaze-responsive advertisement
US11412303B2 (en) * 2018-08-28 2022-08-09 International Business Machines Corporation Filtering images of live stream content
US10812855B2 (en) * 2018-09-05 2020-10-20 International Business Machines Corporation Dynamic modification of media content in an internet of things (IoT) computing environment
WO2020141989A1 (en) * 2019-01-06 2020-07-09 Avinance Ab Online video streaming contents advertisement
JP7196656B2 (ja) * 2019-02-07 2022-12-27 日本電信電話株式会社 クレジット区間特定装置、クレジット区間特定方法及びプログラム
JP7208499B2 (ja) * 2019-02-13 2023-01-19 日本電信電話株式会社 検出装置、検出方法およびプログラム
US11082724B2 (en) * 2019-08-21 2021-08-03 Dish Network L.L.C. Systems and methods for targeted advertisement insertion into a program content stream
US11367466B2 (en) 2019-10-04 2022-06-21 Udo, LLC Non-intrusive digital content editing and analytics system
US11771982B2 (en) * 2020-02-14 2023-10-03 Real Tech, Llc. Systems and methods for augmented reality role playing entertainment
WO2021182091A1 (ja) * 2020-03-09 2021-09-16 ソニーグループ株式会社 画像処理装置、画像処理方法、およびプログラム
US11159858B1 (en) 2020-04-08 2021-10-26 At&T Intellectual Property I, L.P. Relative prominence of elements within an advertisement
US11546673B2 (en) * 2020-10-30 2023-01-03 At&T Intellectual Property I, L.P. Automatic video augmentation
KR102400733B1 (ko) * 2021-01-27 2022-05-23 김성중 이미지에 내재된 코드를 이용한 컨텐츠 확장 장치
US20220292808A1 (en) * 2021-03-11 2022-09-15 Hcl Technologies Limited Method and system for identifying empty region in label and placing content thereon
CN113038236A (zh) * 2021-03-17 2021-06-25 北京字跳网络技术有限公司 一种视频处理方法、装置、电子设备及存储介质
US12010381B2 (en) * 2021-06-11 2024-06-11 Sony Group Corporation Orientation control of display device based on content
US11601694B1 (en) * 2021-09-15 2023-03-07 Castle Global, Inc. Real-time content data processing using robust data models
CN116017089B (zh) * 2021-10-22 2025-04-29 北京字节跳动网络技术有限公司 一种提示信息展示方法、装置、电子设备及存储介质
CN116074561A (zh) * 2021-11-03 2023-05-05 脸萌有限公司 信息处理方法、装置、设备、介质及产品
US20230156300A1 (en) * 2021-11-15 2023-05-18 Comcast Cable Communications, Llc Methods and systems for modifying content
US12295081B2 (en) 2022-01-06 2025-05-06 Comcast Cable Communications, Llc Video display environmental lighting
US12581141B2 (en) * 2022-01-08 2026-03-17 Jio Platforms Limited System and method for customisation of media information
US12430914B1 (en) 2023-03-20 2025-09-30 Amazon Technologies, Inc. Generating summaries of events based on sound intensities
US12439118B1 (en) * 2023-06-13 2025-10-07 Amazon Technologies, Inc. Virtual asset insertion
US12432399B2 (en) * 2024-02-15 2025-09-30 Adeia Guides Inc. Systems and methods for switching between alternate scene objects during livestreaming
US20250294207A1 (en) * 2024-03-18 2025-09-18 Ricoh Company, Ltd. Personalized video mechanism
US12452500B2 (en) 2024-03-18 2025-10-21 Ricoh Company, Ltd. Personalized video mechanism

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2661061B1 (fr) 1990-04-11 1992-08-07 Multi Media Tech Procede et dispositif de modification de zone d'images.
DE69131384T2 (de) * 1991-07-19 2000-04-06 Princeton Video Image, Inc. Fernsehanzeigen mit ausgewählten eingeblendeten zeichen
US7721307B2 (en) * 1992-12-09 2010-05-18 Comcast Ip Holdings I, Llc Method and apparatus for targeting of interactive virtual objects
US5903317A (en) * 1993-02-14 1999-05-11 Orad Hi-Tech Systems Ltd. Apparatus and method for detecting, identifying and incorporating advertisements in a video
CN1119481A (zh) 1993-02-14 1996-03-27 Orad有限公司 在电视中检测,识别和插入广告的设备和方法
DE69409407T2 (de) * 1993-10-27 1998-10-29 Princeton Electronic Billboard Abwärtsgerichtete kontrolle einer elektronischer anzeigetafel
FR2730837B1 (fr) * 1995-02-22 1997-05-30 Sciamma Dominique Systeme d'insertion en temps reel ou differe de panneaux publicitaires ou informationnels virtuels dans des emissions televisees
US5794210A (en) * 1995-12-11 1998-08-11 Cybergold, Inc. Attention brokerage
US6240555B1 (en) * 1996-03-29 2001-05-29 Microsoft Corporation Interactive entertainment system for presenting supplemental interactive content together with continuous video programs
US5929850A (en) 1996-07-01 1999-07-27 Thomson Consumer Electronices, Inc. Interactive television system and method having on-demand web-like navigational capabilities for displaying requested hyperlinked web-like still images associated with television content
US5774666A (en) * 1996-10-18 1998-06-30 Silicon Graphics, Inc. System and method for displaying uniform network resource locators embedded in time-based medium
US6177931B1 (en) * 1996-12-19 2001-01-23 Index Systems, Inc. Systems and methods for displaying and recording control interface with television programs, video, advertising information and program scheduling information
EP0947096B1 (en) 1996-12-20 2002-08-28 Princeton Video Image, Inc. Set top device for targeted electronic insertion of indicia into video
US6600496B1 (en) 1997-09-26 2003-07-29 Sun Microsystems, Inc. Interactive graphical user interface for television set-top box
US6263189B1 (en) * 1997-09-29 2001-07-17 The Regents Of The University Of California Narrowband high temperature superconducting receiver for low frequency radio waves
US6493872B1 (en) * 1998-09-16 2002-12-10 Innovatv Method and apparatus for synchronous presentation of video and audio transmissions and their interactive enhancement streams for TV and internet environments
US6357042B2 (en) * 1998-09-16 2002-03-12 Anand Srinivasan Method and apparatus for multiplexing separately-authored metadata for insertion into a video data stream
US6324519B1 (en) * 1999-03-12 2001-11-27 Expanse Networks, Inc. Advertisement auction system
US6282713B1 (en) 1998-12-21 2001-08-28 Sony Corporation Method and apparatus for providing on-demand electronic advertising
US6446246B1 (en) * 1999-12-28 2002-09-03 Intel Corporation Method and apparatus for detail routing using obstacle carving around terminals
US6308327B1 (en) 2000-03-21 2001-10-23 International Business Machines Corporation Method and apparatus for integrated real-time interactive content insertion and monitoring in E-commerce enabled interactive digital TV
US7337457B2 (en) 2000-04-12 2008-02-26 Lg Electronics Inc. Apparatus and method for providing and obtaining product information through a broadcast signal
US7421729B2 (en) * 2000-08-25 2008-09-02 Intellocity Usa Inc. Generation and insertion of indicators using an address signal applied to a database
DK1312209T3 (en) * 2000-08-25 2017-06-26 Opentv Inc Individualized remote control
US20020126990A1 (en) * 2000-10-24 2002-09-12 Gary Rasmussen Creating on content enhancements
US20020174425A1 (en) * 2000-10-26 2002-11-21 Markel Steven O. Collection of affinity data from television, video, or similar transmissions
US20020059117A1 (en) 2000-11-10 2002-05-16 Aranet, Inc Methods of generating revenue using streaming video with associated links
US20020133817A1 (en) * 2001-03-13 2002-09-19 Markel Steven O. Affinity marketing for interactive media systems
CA2441819A1 (en) * 2001-03-20 2002-09-26 Intellocity Usa, Inc. Video combiner
AU2002318948C1 (en) * 2001-08-02 2009-08-13 Opentv, Inc. Post production visual alterations
US7444656B2 (en) * 2001-08-02 2008-10-28 Intellocity Usa, Inc. Post production visual enhancement rendering
US20030149983A1 (en) 2002-02-06 2003-08-07 Markel Steven O. Tracking moving objects on video with interactive access points

Also Published As

Publication number Publication date
US7752642B2 (en) 2010-07-06
ATE497227T1 (de) 2011-02-15
US20090094637A1 (en) 2009-04-09
DE60239067D1 (de) 2011-03-10
US20030028873A1 (en) 2003-02-06
WO2003012744A1 (en) 2003-02-13
EP1423825B1 (en) 2011-01-26
US7444659B2 (en) 2008-10-28
EP1423825A1 (en) 2004-06-02
AU2002318948B2 (en) 2009-01-08
AU2002318948C1 (en) 2009-08-13

Similar Documents

Publication Publication Date Title
ES2358889T3 (es) Alteraciones visuales posproducción.
US7979877B2 (en) Advertising methods for advertising time slots and embedded objects
US10387949B2 (en) System and method for providing interactive advertisement
US10032192B2 (en) Automatic localization of advertisements
AU2002318948A1 (en) Post production visual alterations
US10387920B2 (en) System and method for offering and billing advertisement opportunities
US9854277B2 (en) System and method for creation and management of advertising inventory using metadata
ES2245520T3 (es) Sistema y metodo para proporcionar noticias, deportes y servicios de guia local, a traves de una guia electronica de programacion.
ES2370893T3 (es) Sistema y procedimiento para el seguimiento de un objetivo en un video e información relacionada con el mismo.
US20060129908A1 (en) On-content streaming media enhancement
US20030079224A1 (en) System and method to provide additional information associated with selectable display areas
KR20120096065A (ko) 3차원 미디어 환경에서 미디어 객체의 근접도를 결정하는 시스템 및 방법
BR102013023832A2 (pt) localização automática de anúncio
EP2725541A1 (en) System and method for providing interactive advertisement
KR20070059936A (ko) 단일 페이지 웹사이트 구성 방법
Vered Televisual aesthetics in Y2K: From windows on the world to a Windows interface
EP2728536A1 (en) System and method for offering and billing advertisement opportunities
KR20000063633A (ko) 인터넷 동영상을 이용한 광고 방법
NZ575492A (en) Active advertising method