BRPI0706887A2 - "método para suprimir algum conteúdo de multimìdia de uma apresentação de conteúdo de multimìdia fornecida por um servidor remoto a um aparelho reprodutor de conteúdo de multimìdia do cliente e método para aplicar e sincronizar dados de filtro de conteúdo de mutimìdia com uma apresentação de conteúdo de multimìdia." - Google Patents

"método para suprimir algum conteúdo de multimìdia de uma apresentação de conteúdo de multimìdia fornecida por um servidor remoto a um aparelho reprodutor de conteúdo de multimìdia do cliente e método para aplicar e sincronizar dados de filtro de conteúdo de mutimìdia com uma apresentação de conteúdo de multimìdia." Download PDF

Info

Publication number
BRPI0706887A2
BRPI0706887A2 BRPI0706887-5A BRPI0706887A BRPI0706887A2 BR PI0706887 A2 BRPI0706887 A2 BR PI0706887A2 BR PI0706887 A BRPI0706887 A BR PI0706887A BR PI0706887 A2 BRPI0706887 A2 BR PI0706887A2
Authority
BR
Brazil
Prior art keywords
filter
content
presentation
multimedia
multimedia content
Prior art date
Application number
BRPI0706887-5A
Other languages
English (en)
Inventor
Matthew T Jarman
Christopher E G Venn
Brent L Iverson
Original Assignee
Clearplay Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clearplay Inc filed Critical Clearplay Inc
Publication of BRPI0706887A2 publication Critical patent/BRPI0706887A2/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/162Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing
    • H04N7/163Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing by receiver means only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/09Arrangements for device control with a direct linkage to broadcast information or to broadcast space-time; Arrangements for control of broadcast-related services
    • H04H60/14Arrangements for conditional access to broadcast information or to broadcast-related services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1095Replication or mirroring of data, e.g. scheduling or transport for data synchronisation between network nodes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2347Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving video stream encryption
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronisation processes, e.g. processing of PCR [Programme Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25891Management of end-user data being end-user preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4542Blocking scenes or portions of the received content, e.g. censoring scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • H04N7/17318Direct or substantially direct transmission and handling of requests

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

SINCRONIZAçãO DE METADADOS DE FILTRO COM UMA APRESENTAçAO DE MULTIMìDIA. Trata-se de um método, sistema e aparelho para aplicar e sincronizar informações de filtro com uma apresentação de multimídia, tal como um filme provido em um contexto de video-on-demand, para suprimir o conteúdo objetável. Em um exemplo, as informações de filtro, que incluem uma indicação de uma parte da apresentação de multimídia que inclui o conteúdo objetável e um tipo de ação de supressão, são fornecidas ou em uma caixa sobre o aparelho receptor ou em um servidor de video-on-demand. Um usuário seleciona uma apresentação de video-on-demand particular, e a seleção é transmitida à caixa sobre o aparelho receptor. A filtração pode ocorrer no lado da caixa sobre o aparelho receptor de uma maneira tal que o filme de video-on-demand completo é transmitido à caixa sobre o aparelho receptor e então a supressão, tal como pular, emudecer, cortar, e borrar, ocorre na caixa sobre o aparelho receptor. Alternativamente, parte ou toda a supressão pode ocorrer no servidor de maneira tal que parte ou todo o conteúdo objetável não é transmitido à caixa sobre o aparelho receptor. Adicionalmente, se em um video-on-demand, DVD, ou um outro ambiente, pode ser necessário sincronizar o filtro com o conteúdo de multimídia de modo que o conteudo objetável apropriado seja suprimido.

Description

MÉTODO PARA SUPRIMIR ALGUM CONTEÚDO DE MULTIMÍDIA DE UMA APRESENTAÇÃO DE CONTEÚDO DE MULTIMÍDIA FORNECIDA POR UM SERVIDOR REMOTO A UM APARELHO REPRODUTOR DE CONTEÚDO DE MULTIMÍDIA DO CLIENTE E MÉTODO PARA APLICAR E SINCRONIZAR DADOS DE FILTRO DE CONTEÚDO DE MULTIMÍDIA COM UMA APRESENTAÇÃO DE CONTEÚDO DE MULTIMÍDIA
CAMPO DA INVENÇÃO
Os aspectos da presente invenção envolvem de maneira geral um sistema, um método, um aparelho e produtos de programa de computador para suprimir ou "filtrar" determinado conteúdo de multimídia. Um aspecto particular da presente invenção envolve a filtragem do conteúdo de multimídia em um ambiente de video-on-demand. Um outro aspecto particular da presente invenção envolve a sincronização das informações de filtro com o conteúdo da multimídia independentemente do ambiente.
ANTECEDENTES
Video-on-demand, pay-per-view e outros filmes e apresentações com conteúdo de multimídia que são transmitidos a um dispositivo do cliente, tal como um decodificador de TV a cabo ou satélite, um computador pessoal ou algo do gênero, ou lidos de mídia de armazenamento removível, tais como um CD, um DVD ou algo do gênero, contêm freqüentemente algum conteúdo, quer seja de áudio, vídeo, links embutidos, etc., que é impróprio para algumas audiências ou simplesmente indesejável para algumas audiências. Por exemplo, é bem sabido que apresentações de algumas multimídia, tanto de música em um CD, quanto um filme em um DVD, vários canais de televisão, etc., podem conter língua e conteúdo explícitos não apropriados para crianças. Desse modo, seria útil para um pai poder suprimir o conteúdo inadequado, enquanto ainda permite que seus filhos assistam as partes não-censuráveis da apresentação. Também seria útil se outros pudessem suprimir determinado conteúdo que eles podem pessoalmente achar indesejável, mas ainda poder assistir e/ou escutar determinadas apresentações de conteúdo de multimídia. Tal utilidade seria particularmente benéfica em video-on-demand e outras plataformas provedoras de conteúdos similares onde as aplicações de filtragem apropriadas não estão atualmente extensamente disponíveis. Tal utilidade também seria particularmente benéfica se a supressão fosse sincronizada com precisão com as apresentações para minimizar a supressão do conteúdo não-censurável.
DESCRIÇÃO RESUMIDA
Um aspecto da presente invenção envolve um método para suprimir o conteúdo de alguns conteúdos de multimídia de uma apresentação de conteúdo de multimídia fornecida por um servidor remoto a um dispositivo de reprodução de conteúdo de multimídia do cliente. O método compreende a provisão da seleção de pelo menos uma apresentação de conteúdo de multimídia de uma pluralidade de apresentações de conteúdo de multimídia. O método também compreende a provisão da ativação de pelo menos um filtro para aplicar a pelo menos uma apresentação de conteúdo de multimídia, em que pelo menos um filtro é configurado para identificar uma parte da apresentação de conteúdo de multimídia que tem o conteúdo censurável e também é configurado para executar a supressão do conteúdo censurável. Adicionalmente, o método compreende a provisão de comunicação da apresentação de conteúdo de multimídia entre o servidor de conteúdo remoto e o aparelho do cliente. Finalmente, o método compreender a provisão da aplicação de pelo menos um filtro à apresentação de conteúdo de multimídia para suprimir o conteúdo censurável identificado em pelo menos um filtro.
Um outro aspecto da presente invenção envolve um método para aplicar e sincronizar dados de filtro de conteúdo de multimídia com uma apresentação de conteúdo de multimídia. O método compreende a recepção de dados de filtro que compreendem pelo menos um filtro configurado para identificar uma parte de uma apresentação de conteúdo de multimídia que tem o conteúdo censurável e também é configurado para executar a supressão do conteúdo censurável. Além disso, o método compreende a provisão da apresentação de conteúdo de multimídia, em que a apresentação de conteúdo de multimídia tem o conteúdo censurável identificado em pelo menos um filtro. Finalmente, o método compreende a obtenção da informação da sincronização para sincronizar pelo menos um filtro com o conteúdo censurável quando uma localização da parte da apresentação de conteúdo de multimídia pode variar.
Um outro aspecto da presente invenção envolve um método para suprimir algum conteúdo de multimídia de uma apresentação de conteúdo de multimídia fornecida por um servidor remoto a um dispositivo de reprodução de conteúdo de multimídia do cliente. 0 método compreende a recepção de uma seleção de pelo menos uma apresentação de conteúdo de multimídia de uma pluralidade de apresentações de conteúdo de multimídia. Adicionalmente, o método compreende a transmissão de metadados de filtro ao aparelho do cliente, em que os metadados de filtro incluem pelo menos um filtro configurado para identificar uma parte da apresentação de conteúdo de multimídia que tem o conteúdo censurável e também é configurado para executar a supressão do conteúdo censurável. Finalmente, o método compreende a transmissão da apresentação de conteúdo de multimída do servidor de conteúdo remoto ao aparelho do cliente de uma maneira tal que a aplicação dos metadados de filtro à apresentação de conteúdo de multimídia vai suprimir o conteúdo censurável identificado no filtro.
BREVE DESCRIÇÃO DOS DESENHOS A Figura 1 é um fluxograma que ilustra um método de supressão do conteúdo censurável de uma apresentação de vídeo-on-demand que se conforma a uma implementação particular da presente invenção;
as Figuras 2A e 2B são um fluxograma que ilustra um segundo método de supressão do conteúdo censurável de uma apresentação video-on-demand que se conforma a uma implementação particular da presente invenção;
as Figuras 3A e 3B são um fluxograma que ilustra um terceiro método de supressão do conteúdo censurável de uma apresentação video-on-demand que se conforma a uma implementação particular da presente invenção;
as Figuras 4A e 4B são um fluxograma que ilustra um quarto método de supressão do conteúdo censurável de uma apresentação video-on-demand que se conforma a uma implementação particular da presente invenção;
a Figura 5 é um diagrama que ilustra uma parte de dados codificados MPEG e ilustra a supressão de conteúdo relacionada à mesma em conformidade com uma implementação particular da presente invenção;
a Figura 6 é um diagrama que ilustra a relação entre determinados tipos de quadros codificados MPEG;
as Figuras 7A e 7B são um fluxograma que ilustra um quinto método de supressão do conteúdo censurável de uma apresentação video-on-demand que se conforma a uma implementação particular da presente invenção;
as Figuras 8A e 8B são um fluxograma que ilustra um sexto método de supressão do conteúdo censurável de uma apresentação video-on-demand que se conforma a uma implementação particular da presente invenção;
as Figuras 9-9D ilustram vários métodos para a sincronização de filtros de supressão de conteúdo e uma apresentação de multimídia que se conforma às várias implementações da presente invenção; e
a Figura 10 é um gráfico que ilustra várias técnicas de áudio aplicáveis à sincronização de filtros de supressão de conteúdo com uma apresentação de multimídia.
DESCRIÇÃO DETALHADA DAS REALIZAÇÕES DA INVENÇÃO
Os aspectos da presente invenção envolvem geralmente a supressão de determinado conteúdo em uma apresentação de multimídia. A apresentação de multimídia pode provir de várias fontes possíveis, incluindo disco de vídeo digital (DVD), video-on-demand (VOD), vídeo streaming, várias mídia de armazenamento, pay-per-view, etc., ópticas e magnéticas, e pode estar em várias formas possíveis de codificação e digitalização, incluindo vários formatos de codificação Moving Picture Experts Group (MPEG), QuickTime, vários formatos de streaming, e outros ainda. A supressão pode assumir várias formas, incluindo saltar determinadas partes da apresentação de multimídia, silenciar partes de áudio, cortar partes de cenas, borrar a imagem, etc. A identificação das partes de uma apresentação de multimídia possivelmente sujeita à supressão pode ser implementada com filtros que identificam alguma parte de uma apresentação de multimídia e identificam o tipo de ações possíveis da supressão que podem ser aplicadas contra a apresentação de multimídia. Uma aplicação de filtragem aceita ativações do filtro do usuário e sincroniza então os filtros com a apresentação de multimídia. Quando uma parte da apresentação de multimídia sujeita a um filtro ativado é identificada, a ação ou ações apropriadas de supressão são executadas.
Com a tecnologia de VOD há geralmente dois ambientes de hardware que se comunicam um com o outro: 1) um servidor de conteúdo de multimídia e 2) o dedecodificador de TV de conteúdo de multimídia (STB). A Figura 1 é um fluxograma que ilustra as várias operações 10-110 associadas com uma interação entre um servidor de VOD e um STB por meio do que um usuário pode selecionar alguma forma de apresentação de multimídia e a apresentação é transferida ao STB para a apresentação. No exemplo particular indicado na Figura 1 assim como outros desenhos aqui apresentados, a multimídia é comprimida ou áudio e vídeo codificados (por exemplo, um filme), tal como através de um formato de codificação Movie Picture Experts Group ("MPEG"). O STB recebe os dados comprimidos e os processa para a exibição com algum conteúdo suprimido de acordo com ajustes do filtro.
Agora, com respeito à Figura 1, o conteúdo de multimídia, tal como um filme VOD incluindo o conteúdo de áudio e vídeo, é armazenado em um servidor de conteúdo de multimídia ou em associação com o mesmo, tal como o servidor de VOD (operação 10) . 0 STB e o servidor de conteúdo se comunicam de maneira tal que o conteúdo de multimídia disponível é apresentado ao usuário, tal como ao apresentar menus na tela que listam todos os títulos disponíveis de VOD, que podem ser organizados pelo gênero (horror, ação, infantil, ação, etc.) ou de outras maneiras (operações 20 e 30). O STB fornece uma interface do usuário para selecionar ou comprar qualquer conteúdo de multimídia particular ou talvez uma coleção do conteúdo (operação 40). Em alguns exemplos, um provedor pode fornecer algum conteúdo gratuito e em outros exemplos o provedor de serviço cobra uma taxa.
Tipicamente, a taxa é aplicada automaticamente a uma conta mensal, mas em outros exemplos um sistema de telefone (por exemplo, um usuário deve fazer um telefonema para solicitar um filme e um sinal é transmitido ao STB) ou a interface direta do pagamento na tela pode ser requerida (por exemplo, um usuário deve incorporar afirmativamente as informações do cartão de crédito). Um usuário seleciona então um título particular (operação 50) e o STB se comunica com o servidor de conteúdo do qual o usuário selecionou o titulo (operação 60). Com o recebimento da seleção do conteúdo, o servidor inicia a entrega do conteúdo (operação 70) e o servidor começa a transmitir o conteúdo ao STB (operação 80). Em algumas configurações particulares de VOD, o servidor fornece pacotes comprimidos de dados na forma de MPEG Groups of Pictures (GOP), que são discutidos em maiores detalhes mais adiante. 0 servidor recebe os pacotes (operação 90) e começa a decomprimir os pacotes (100). De acordo com aspectos da presente invenção, determinadas partes censuráveis do conteúdo podem ser suprimidas de acordo com os ajustes de filtro selecionados pelo usuário, de maneira tal que os dados são exibidos com o conteúdo censurável suprimido (operação 110).
Os aspectos da presente invenção envolvem sistemas, métodos, aparelho e produtos de programas de computador que filtram várias formas de conteúdo de apresentação de multimídia fornecida em um ambiente de video-on-demand. As figuras 2A e 2B são um fluxograma que ilustra um método particular para facilitar a reprodução filtrada de uma apresentação de VOD. As operações indicadas nas Figuras 2A-2B (coletivamente a "Figura 2") incluem as mesmas operações 10- 110 indicadas na Figura 1. Adicionalmente, a Figura 2 inclui operações A-D. Primeiramente, a operação A fornece a um usuário um mecanismo de entrada para escolher tipos de conteúdo para filtrar. Um exemplo de um mecanismo de entrada na forma de um menu de seleção na tela é indicado no pedido de patente norte-americano número 11/104.924 intitulado "Aparelho, sistema e método para filtrar partes censuráveis da apresentação de multimídia", depositado em 12 de abril de 2005 (o pedido '924), que é aqui incorporado a título de referência. Os ajustes de filtro podem ser armazenados no STB, no servidor, ou em outra parte. Desse modo, por exemplo, o usuário poderia acessar um menu de seleção do filtro em uma terceira plataforma de computação, tal como um PC. Os ajustes do filtro ficam então disponíveis ao STB para a operação C (descrita abaixo). Por exemplo, os ajustes do filtro poderiam ser inseridos em um computador e enviados ao servidor ou ao STB através de uma conexão de rede entre eles. Em algumas das realizações aqui discutidas, as seleções de filtro podem ser feitas antes ou depois da seleção de uma apresentação de video-on-demand. Consequentemente, em algumas implementações onde todos os tipos possíveis de filtro podem não estar disponíveis para um determinado filme, por exemplo, um filme particularmente violento tem todos os tipos possíveis de filtro de violência, mas no filme não tem nenhuma cena de sexo ou nudez, portanto, não há nenhum tipo de filtro de cena de sexo ou nudez, apenas um subconjunto de tipos de filtro pode ser apresentado ao usuário para a ativação.
O pedido 1924 também apresenta vários exemplos de categorias de filtro de conteúdo. Por exemplo, através de um menu na tela, o usuário pode ativar um tipo de filtro de intensa ação de violência e um tipo de filtro de violência brutal/de sangue. Subseqüentemente, durante a apresentação do filme vídeo-on-demand, o áudio, o vídeo, ou ambos associados com as cenas que têm intensa ação de violência ou a violência brutal/de sangue serão suprimidos, o que pode envolver saltar a cena completamente, borrar uma parte ou todo o filme durante o período de transcurso da cena, cortar partes do filme para remover partes da imagem, e/ou silenciar uma parte ou todo o áudio.
Em segundo lugar, o servidor transmite um arquivo de metadados de filtro ao STB (operação B) e o STB recebe e armazena os metadados (operação C) . É possível transmitir filtros ao STB a qualquer momento. Além disso, também é possível transmitir mais de um conjunto de filtros (isto é, arquivos de filtro para mais de uma apresentação de multimídia). Desse modo, em alguns exemplos, o STB será configurado para determinar se os filtros para um determinado filme já foram carregados na decodificador de TV. Com respeito à transmissão dos arquivos de filtro de metadados do servidor de conteúdo, a transmissão dos metadados pode ser feito automaticamente com todos os pedidos de VOD. Alternativamente, os metadados podem ser enviados com base em em alguma codificação transmitida com o pedido inicial de VOD (operação 60). Por exemplo, através do menu da seleção do filtro na tela ou um menu dedicado ou uma tecla do menu, o pedido de VOD pode incluir dados ou alguma outra forma de informação que aciona a transmissão do arquivo de metadados do filtro. Embora seja mostrado na Figura 2 como provenientes do servidor, os metadados que são enviados ao STB não provêm necessariamente do servidor. Os metadados podem ser recuperados ou transmitidos direta ou indiretamente da memória removível, de uma conexão de rede (por exemplo, a Internet), e de outras forma de transferência de dados. Adicionalmente, os metadados podem ser transmitidos ao STB a qualquer momento antes da propositura da apresentação filtrada da apresentação de multimídia.
Em uma implementação particular, o arquivo de metadados de filtro pode incluir a informação do filtro tal como indicado no pedido '924. Geralmente, a informação do filtro inclui algum indício de um momento inicial e um momento final de uma parte de uma apresentação de multimídia junto com o tipo de conteúdo indicado entre os períodos inicial e final. Por exemplo, entre cinco minutos e cinco minutos e vinte segundos, uma determinada película pode ter intensa ação de violência. Os metadados irão incluir as informações relacionadas ou associadas com o momento inicial (cinco minutos), o momento final (cinco minutos e vinte segundos) e intensa ação de violência. Se o usuário ativar o filtro de intensa ação de violência, quando a reprodução atingir o tempo de cinco minutos do filme, os vinte segundos seguintes são suprimidos. Finalmente, a reprodução do filme de VOD pode ser filtrada como uma função de ajustes do filtro do usuário e dos metadados (operação D).
Uma vantagem, entre muitas, do método indicado na Figura 2 é que a lógica de filtragem ocorre no lado do STB. Isto significa que o servidor irá enviar o conteúdo inteiro de multimídia, por exemplo, todos os dados para reproduzir o filme "Field of Dreams" e partes visuais e/ou audíveis específicas do conteúdo de multimídia serão suprimidas ou "filtradas" da apresentação no lado do STB. Uma outra vantagem do método indicado na Figura 2 é que o conteúdo inteiro pode ser armazenado no STB (por exemplo, no disco rígido ou em um disco óptico gravável). Isto deve permitir a reprodução subseqüente onde o usuário pode escolher entre ver a multimídia inteira sem filtrar, ou o usuário poderia ver a multimídia com ajustes de filtro diferentes. Este método também deve funcionar bem para uma transmissão via satélite a um STB onde o satélite transmitisse um filme de VOD a diversos STBs e o satélite não pudesse prover filtragem individualizada para um único STB dentro de sua própria pegada. Estas vantagens, assim como outras aqui indicadas, são aqui determinadas meramente para prover algum contexto prático para a compreensão melhor de várias realizações e não se prestam a limitar o âmbito da invenção.
Várias realização podem ou não atingir as várias vantagens aqui apresentadas.
As Figuras 3A-3B são um fluxograma que ilustra um método alternativo para facilitar a reprodução filtrada de uma apresentação de vídeo-on-demand. As operações indicadas nas Figuras 3A-3B (coletivamente a "Figura 3") incluem as mesmas operações 10-110 indicadas na Figura 1. Adicionalmente, o Figura 3 inclui as operações A1-D. Tal como a operação A na Figura 2, através de alguma forma de mecanismo de entrada, o usuário pode ativar algum ou todos os tipos disponíveis de filtro (operação Al). As ativações ou os ajustes do filtro do usuário são então transmitidos e armazenados no servidor (operação A2). Quando o usuário seleciona uma apresentação particular de VOD com exceção do conteúdo de multimídia, o servidor compara os ajustes do filtro do usuário com os metadados do filtro para a apresentação selecionada de VOD (operação BI). A operação de comparação resulta em um arquivo de metadados configurado para filtrar o conteúdo selecionado. Desse modo, ao contrário do método indicado na Figura 2 que transmite todos os metadados do filtro para a apresentação selecionada de VOD, os metadados do filtro são um subconjunto de todos os metadados do filtro, somente incluindo os metadados do filtro de acordo com as seleções do filtro do usuário. O arquivo de metadados é transmitido então ao STB (operação C).
O arquivo de metadados para o método indicado na Figura 2 inclui todas as opções de filtragem possíveis para uma apresentação de multimídia particular. No STB, os ajustes do filtro são aplicados aos metadados, resultando na filtragem do conteúdo selecionado. Com o método indicado na Figura 3, os ajustes do usuário são aplicados aos metadados do filtro no lado do servidor (operação BI). Isto permite que o servidor conforme os metadados do filtro aos ajustes do usuário antes de enviar os metadados do filtro ao STB (operação B2) . Uma vantagem deste método é que o tamanho de memória de arquivo de metadados armazenada no STB (operação C, Figura 3) é potencialmente menor do que se os metadados inteiros do filtro forem armazenados no STB (operação C, Figura 2). Além disso, pode ser vantajoso configurar os metadados do filtro com os ajustes do usuário no servidor se o usuário final tiver múltiplos STBs em sua casa. Desta maneira, eles podem ter a mesma apresentação filtrada em múltiplos STBs em sua casa sem ter que inserir redundantemente os seus ajustes de filtro em cada STB.
Com as implementações apresentadas com respeito às Figuras 2 e 3, é possível iniciar a reprodução filtrada nos momentos de STB depois que a parte inicial do arquivo de VOD tiver sido transferida. Dependendo da largura de faixa da conexão entre o servidor e o STB, a transferência do arquivo de VOD pode ser potencialmente mais rápida do que a duração da reprodução do mesmo arquivo.
Em um primeiro exemplo, o filme X pode ter somente três filtros totais associados com o mesmo. Cada um dos três filtros pode um ser um salto com: o filtro 1 com um salto de vinte segundos de duração, o filtro 2 com um salto de dez segundos de duração, e o filtro 3 com um salto de quinze segundos de duração. Os três filtros têm desse modo 45 segundos de duração cumulativos da duração do salto.
Consequentemente, o usuário final poderia iniciar a reprodução no STB 45 segundos depois que o arquivo de VOD tiver sido transferido do servidor ao STB.
Em um segundo exemplo, o filme Y tem um único filtro associado com um salto que tem uma duração de vinte segundos e começa aos dois minutos de filme. Se o filme Y tivesse uma hora de duração, e levasse trinta minutos para transferir o arquivo inteiro para o filme Y do servidor ao STB, o usuário poderia iniciar potencialmente a reprodução filtrada do filme Y simultaneamente com o início da transferência do arquivo de VOD do servidor ao STB - se a taxa de transferência do arquivo fosse suficientemente rápida para que o tempo onde o telespectador estivesse aos dois minutos do filme, a transferência do arquivo do filme estaria pelo menos vinte segundos adiante do tempo de reprodução.
Para alguns dos métodos aqui apresentados, vários métodos alternativos possíveis podem ser obtidos ao combinar várias operações dos vários métodos aqui apresentados. Por exemplo, as operações A1 e A2 do método indicado na Figura 3 podem ser aplicados ao método indicado na Figura 2. Em outras palavras, seria possível para que os ajustes do filtro do usuário fossem armazenados no lado do servidor no método da Figura 2.
As Figuras 4A-4B são um fluxograma que ilustra um método alternativo para facilitar a reprodução filtrada de uma apresentação de VOD. As operações indicadas nas Figuras 4A-4B (coletivamente a "Figura 4") incluem as mesmas operações 10-110 indicadas na Figura 1. Adicionalmente, a Figura 4 inclui as operações A1-D3. Tal como a operação A na Figura 2, através de alguma forma de mecanismo de entrada, o usuário pode ativar algum ou todos os tipos disponíveis de filtro (operação A1) . Similarmente ao método indicado na Figura 2, o servidor transmite um arquivo de metadados do filtro ao STB (operação B) e o STB recebe e armazena os metadados (operação C).
No STB, os ajustes do filtro são comparados com os metadados para uma apresentação selecionada de VOD. 0 STB instrui então o servidor para enviar somente os dados de multimídia que correspondem aos dados de multimídia não- filtrados. Indicado de uma outra maneira, o STB solicita uma corrente de dados de multimídia do servidor que suprime antecipadamente algum ou todo conteúdo associado com os filtros ativados. Desse modo, por exemplo, os dados de VOD do servidor não irão conter a maioria ou todas as partes das cenas com intensa ação de violência (se ativado).
Na execução particular da Figura 4, uma parte do conteúdo de multimídia é filtrado no lado do servidor (isto é, nunca é enviada ao STB) . No entanto, o servidor envia os dados, isto é, as informaçãos dos filmes, que devem ser filtrados pelo STB porque freqüentemente a unidade menor de dados de multimídia é um MPEG Group of Pictures (GOP) e um único GOP pode conter o conteúdo de multimídia que é filtrado e não-filtrado durante a apresentação do STB. Desse modo, na operação D2, as seqüências de GOPs do servidor contêm dados não-filtrados. Os GOPs podem, no entanto, incluir algumas partes do conteúdo destinado à filtragem. A seqüência de GOPs é transmitida ao STB, que recebe e descomprime os dados em unidades menores de reprodução (operações 80-100). 0 STB analisa então as unidades menores de reprodução quanto ao conteúdo filtrado e elimina os dados restantes associados com o conteúdo filtrado. Por causa da natureza da compressão de movimento, alguns dos dados de multimídia que são filtrados são requeridos pelo decodificador de MPEG no STB para gerar alguns dos dados de multimídia não-filtrados.
A Figura 5 é um exemplo de uma seqüência de pacotes de MPEG Group of Picture e de codificação de início de filtro e final de filtro associados e outras informações. 0 conteúdo entre o código dos tempos inicial e final, neste exemplo, deve ser saltado (não mostrado), uma forma de supressão. 0 código do tempo inicial cai dentro de G0P#N+1 e o código do tempo final cai dentro de G0P#N+P. Com referência à Figura 5 e com relação às operações Dl - D3, o servidor deve entregar [G0P #N] e [G0P # N+1] e [G0P # N+P] e [G0P # N+P+1] ao STB. 0 servidor não deve entregar nenhum pacote entre [G0P # N+l] e [GOP # N+P] (isto é, o servidor não deve entregar [G0P # N+2] , [G0P # N+3] , [G0P # N+4] , etc.). No STB, durante o processo de decodificação, quando o STB decodificasse [G0P # N+1], deixaria cair todos os dados de multimídia que chegaram após "X-Quadros". Durante o processo de decodificação, quando o STB decodificasse [G0P # N+P], deixaria cair todos os dados de multimídia etiquetados como "Y-Quadros".
O STB pode ainda requerer a presença de alguns dos dados de "Y-Quadros" para gerar os quadros que ocorrem após "Y-Quadros". Por exemplo, na seqüência de quadro de MPEG indicada na Figura 6, o "B-Quadro" requer o "I-Quadro" e o "P-Quadro" gera o "B-Quadro". Assim, se o I-Quadro for filtrado da reprodução e quadros BeP não forem filtrados da reprodução, o STB ainda precisa do I-quadro do servidor para poder gerar os quadros B e P.
As Figuras 7A-7B são um fluxograma que ilustra um método alternativo para facilitar a reprodução filtrada de uma apresentação de vídeo-on-demand. Tal como com alguns métodos descritos anteriormente, as operações indicadas nas Figuras 7a-7b (coletivamente a "Figura 7") incluem as mesmas operações 10-110 indicadas na Figura 1. Adicionalmente, a Figura 7 inclui as operações A1-D3. Através de alguma forma de mecanismo de entrada (tal como descrito acima), o usuário pode ativar algum ou todos os tipos disponíveis do filtro (operação Al). As ativações ou os ajustes do filtro do usuário são então transmitidos e armazenados no servidor (operação A2). 0 método indicado na Figura 7 não envia os metadados do filtro ao STB. Ao invés disto, os ajustes do usuário e os metadados do filtro são conformados no lado do servidor (operação Β), e os GOPs são arranjados em seqüência no lado do servidor (operação D2). A seqüência de GOP é transmitida então ao STB, onde é recebida e descomprimida em unidades menores de reprodução (operações 80-100). Então, tal como descrito acima, o STB analisa gramaticalmente as partes filtradas de um GOP das partes não-filtradas de um GOP (operação D3). Isto pode ser feito ao embutir ou associar a localização inicial das partes não-filtradas do GOP no GOP.
Com referência novamente à Figura 5, por exemplo, se X-Quadros = 5 e Y-Quadros = 9, então: Quando [GOP # N+1] é enviado ao STB, ele poderia ser associado com o valor 5. Isto deve indicar ao STB que somente os primeiros cinco quadros devem ser exibidos na apresentação.
Quando [GOP # N+P] é enviado ao STB, ele deve estar associado com o valor 9. Isto deve indicar ao STB que os primeiros nove quadros não devem ser exibidos na apresentação.
Há muitas maneiras de indicar ao STB que os quadros de um GOP devem finalmente ser exibidos durante a apresentação. O exemplo acima deve simplesmente mostrar que somente um único valor numérico precisa ser associado com os GOPs que contêm as partes de multimídia que devem ser filtradas e as partes de multimídia que não devem ser filtradas.
As Figuras 8A-8B são um fluxograma que ilustra um método alternativo para facilitar a reprodução filtrada de uma apresentação de VOD. Tal como com alguns métodos descritos anteriormente, as operações indicadas nas Figuras 8A-8B (coletivamente a "Figura 8") incluem as mesmas operações 10-110 indicadas na Figura 1. Adicionalmente, a Figura 8 inclui as operações A1-D3.2. Através de alguma forma de mecanismo de entrada (tal como descrito acima), o usuário pode ativar algum ou todos os tipos disponíveis do filtro (operação A1). As ativações ou os ajustes do filtro do usuário são então transmitidos e armazenados no servidor (operação A2). O método indicado na Figura 8, tal como na Figura 7, não envia os metadados do filtro ao STB. Ao invés disto, os ajustes do usuário e os metadados do filtro são conformados no lado do servidor (operação Β) , e os GOPs são arranjados em seqüência no lado do servidor (operação D2).
Ao contrário do método indicado na Figura 7, o servidor envia somente partes não-filtradas do conteúdo de multimídia ao STB. Isto é feito ao decodificar os GOPs que têm partes filtradas de multimídia e partes não-filtradas de multimídia (etapa D3.1) e então os dados são recodifiçados de modo que o novo pacote comprimido de multimídia contenha somente os dados não-filtrados de multimídia (etapa D3.2). Também é possível, no momento da compressão original do conteúdo de multimídia, se certificar que o conteúdo é comprimido em uma maneira que seja compatível com a filtragem. Em outras palavras, no momento da autoração, o processo de autoração deve levar os metadados de filtragem em consideração e se certificar que as partes afetadas da multimídia que podem ser filtrados já estão decompostas em pacotes que podem ser arranjados em seqüência de modo que o conteúdo filtrado nunca seja enviado ao STB. Os dados codificados e completamente filtrados da apresentação são transmitidos então ao STB (operação 80). Uma vantagem deste método é que toda a lógica de filtragem pode ocorrer no lado do servidor.
Em uma implementação, os metadados do filtro incluem uma tabela de filtro dos filtros individuais para uma apresentação de multimídia particular. Cada filtro inclui uma identificação de uma parte de uma apresentação de multimídia e de uma ação de filtragem correspondente. A ação de filtragem, tal como acima mencionado, envolve alguma forma de supressão de conteúdo, salto, borrão, corte e/ou emudecimento de partes das apresentações de multimídia. A parte do objeto da apresentação de multimídia sujeita à supressão pode ser identificada por um código dos tempos inicial e final, por um tempo ou uma localização e por um valor compensado, e através de outros meios relativos da identificação de multimídia que propiciam a identificação precisa de alguma parte distinta de uma apresentação de multimídia. A Tabela 1 fornece abaixo dois exemplos de filtros para o filme "Gladiador". Os metadados do filtro para qualquer apresentação particular de multimídia podem incluir qualquer número de filtros distintos, tipos de filtro, e pode ser um título particular ou uma pluralidade de títulos.
<table>table see original document page 19</column></row><table>
Tabela 1: Metadados de filtro com o exemplo de dois filtros para a película Gladiador
Com referência à Tabela 1, o primeiro filtro (1) tem um tempo inicial de 00:04:15:19 (hora:minuto:segundo:quadro) e um tempo final de 00:04:48:26. O primeiro filtro também tem uma duração de 997 quadros e é uma ação de filtragem do tipo "salto" (ao contrário de um tipo mudo ou outro tipo de supressão). Finalmente, o primeiro filtro é associado com os dois tipos de filtro. 0 primeiro tipo de filtro é identificado como "V-D-D", que é um código do filtro para (V) uma cena violenta em que um corpo morto (D) ou decomposto (D) são mostrados. 0 segundo tipo do filtro é identificado como "V-D-G", que é um código do filtro para (V) uma cena violenta associada com uma imagem e/ou um diálogo perturbador (D) e/ou repulsivo (G). As implementações da presente invenção podem incluir numerosos outros tipos de filtro. Durante a reprodução filtrada da película "Gladiador," se "V-D-D", "V-D-G," ou ambos os filtros forem ativados, os 997 quadros que caem entre 00:04:15:19 e 00:04:48:26 são saltados (não mostrado). Adicionalmente, se o arquivo do filtro de V-D-G for ativado, os 210 quadros que caem entre 00:04:51:26 e 00:04:58:26 são saltados.
Para a filtragem apropriada de uma apresentação de multimídia, a informação do código do tempo do filtro deve ser sincronizada ou então relacionada com a parte apropriada da apresentação de multimídia. Por exemplo, se a informação do código do tempo do filtro for estabelecida em um ambiente de multimídia de DVD com um começo conhecido e repetível da apresentação de multimídia, o código do tempo inicial e final pode ser baseado de maneira confiável no começo da apresentação de multimídia.
Além disso, o DVD fornece códigos do tempo dentro dos dados de multimídia. Desse modo, um tempo inicial do filtro de 04:15:19 refere-se a 4 minutos, 15 segundos, e 19 quadros inicial da apresentação de multimídia. Uma apresentação de VOD da mesma apresentação de multimídia, no entanto, pode não ter o mesmo tempo inicial. Por exemplo, a apresentação de VOD pode incluir comerciais, trailers de filmes, e qualquer número de outras formas possíveis de multimídia que precedem a apresentação preliminar de multimídia. Além disso, as apresentações diferentes de VOD podem incluir multimídias precedentes diferentes. Em tais situações, o começo da apresentação preliminar de multimídia deve ser executado em algum tempo após o começo da apresentação de VOD. Além disso, o começo da apresentação preliminar de multimídia pode variar, dependendo do provedor de VOD e de outros fatores. Em tal situação, pode ser necessário sincronizar a informação do sincronismo dos metadados com a apresentação de multimídia de modo que as ações do filtro sejam aplicadas à parte apropriada de multimídia.
A Figura 9 é um fluxograma que ilustra um método total de filtragem de um VOD ou uma outra apresentação de multimídia que envolva a sincronização de dados de multimídia com a apresentação de multimídia. Primeiramente, um usuário seleciona uma apresentação de multimídia para a apresentação em um dispositivo de apresentação, tal como multimídia de acesso de decodificador de TV de fontes de cabo ou satélite (operação 200) . Com respeito a uma apresentação de VOD, o usuário pode acessar um menu na tela e selecionar um VOD ou uma pluralidade de VODs possíveis. Em segundo lugar, tal como discutido com respeito às várias implementações acima no que diz respeito às Figuras 1-8, o dispositivo de apresentação acessa os metadados do filtro para a apresentação selecionada de multimídia (operação 210) . Em terceiro lugar, o usuário ativa um ou mais de vários tipos possíveis de filtro para aplicar a apresentação de multimídia durante a apresentação (operação 220) . Durante a apresentação, os metadados do filtro são sincronizados com a apresentação de multimídia de modo que todas as ações de supressão definidas por filtros particulares sejam aplicadas à parte apropriada da apresentação de multimídia (operações 230 e 240) . As Figuras 9a-9d fornecem alguns exemplos dos métodos de sincronização dos metadados do filtro, de acordo com aspectos da invenção.
Falando de maneira geral, em um ambiente de VOD ou em um outro ambiente é possível prover um arquivo distinto de apresentação de multimídia com um limite conhecido. Em tal situação, a filtragem baseada no tempo relativo (filtros tais como mostrados na Tabela 1 acima com informações dos tempos inicial e final) pode ser empregada. Dessa maneira, a sincronização pode envolver a identificação do começo da apresentação de VOD e a sincronização da apresentação desse ponto para a frente. Uma vez que o tempo inicial é conhecido e repetível, a sincronização envolve a identificação do começo do VOD, pay-per-view, ou uma outra apresentação de. multimídia.
Em uma implementação particular, a sincronização é provida ao ajustar os valores dos tempos inicial e final de acordo com uma compensação relativa do tempo entre o começo da apresentação total de VOD e o começo da parte de apresentação de multimídia da apresentação de VOD. A Figura 9A apresenta um exemplo de um método de ajuste dos tempos inicial e final de filtro a fim de sincronizar os metadados de filtro com uma apresentação de VOD. Primeiramente, um tempo de compensação entre o começo de uma apresentação total de VOD (por exemplo, o começo da alimentação dos dados de VOD, que podem incluir trailers, etc.) e a parte de conteúdo de multimídia (por exemplo, o começo do filme real) é determinado (operação 250). Por exemplo, se a apresentação preliminar de multimídia começar cinco minutos depois do começo da apresentação de VOD, então a compensação relativa do tempo é de cinco minutos. Os códigos dos tempos inicial e final podem então ser ajustados a partir do tempo compensado (operação 260). Desse modo, os códigos de tempos inicial e final para cada filtro podem ser ajustados em cinco minutos. Com referência novamente à Tabela 1, para o filtro 1, o tempo inicial é ajustado como 00:04:15:19 (tempo inicial base) + 00:05:00:00 (compensação) = 00:09:15:19 (tempo inicial ajustado), e o tempo final é ajustado como 00:04:48:26 (tempo final base) + 00:05:00:00 (compensação) = 00:09:48:26 (tempo final ajustado). 0 valor de compensação do sincronismo pode ser determinado em qualquer número de maneiras. Em uma implementação, a multimídia de VOD precedente é analisada para determinar a sua extensão de tempo. A análise pode incluir a análise de um módulo de software para contar os quadros de MPEG, a avaliação das informações de sincronismo integradas, a execução de um temporizador contra a multimídia e outros meios possíveis para avaliar a compensação do sincronismo. O tempo é então convertido em um valor compensado e aplicado aos metadados do filtro. Em uma outra execução, o provedor de VOD pode fornecer as informações de compensação, as quais são aplicadas aos metadados do filtro. Por exemplo, o provedor de VOD pode transmitir o identificador de deslocamento ao STB junto com os metadados do filtro, e o STB pode então filtrar a entrada de tempo pela compensação.
Em uma segunda execução, os metadados do filtro podem incluir os dados de sincronização que são utilizados para sincronizar os metadados com a apresentação de multimídia. A Figura 9B fornece um exemplo de um método de sincronização dos metadados do filtro com uma apresentação de VOD ao embutir identificadores não baseados no tempo singulares nos metadados e ao comparar os mesmos aos atributos da apresentação de VOD. Os dados da sincronização podem envolver qualquer aspecto original e detectável da apresentação de multimídia. Por exemplo, os dados da sincronização podem envolver dados de imagem, dados de áudio, e serviços de dados estendidos, tais como os dados de legenda oculta, associados com o começo ou alguma outra parte conhecida da apresentação de multimídia da qual a localização relativa de partes distintas da apresentação de multimídia pode ser identificada com exatidão (operação 270) . Os dados da sincronização podem envolver um atributo singular ou combinações de atributos singulares. Por exemplo, os dados da sincronização podem envolver somente dados de imagem ou podem ser uma combinação de dados de imagem e dados de áudio, dados de áudio e dados de legenda oculta, etc. Além disso, os dados da sincronização podem envolver o começo da apresentação de multimídia, podem envolver os dados relacionados a determinadas partes da apresentação de multimídia, ou a alguma combinação destas. Outros dados da sincronização podem ser fornecidos para que sejam os responsáveis pelas interrupções na apresentação de multimídia, tais como comerciais.
Primeiramente, com respeito aos dados da sincronização da imagem, os metadados podem incluir uma cópia dos dados da imagem para o primeiro quadro ou quadros (quadro da sincronização) da apresentação de multimídia ou de alguma outra parte da apresentação de multimídia ou de uma cópia de alguma parte do primeiro quadro da apresentação de multimídia. No início da apresentação de vídeo-on-demand, cada quadro real é comparado ao quadro da sincronização (operação 280). A mesma operação da comparação pode ocorrer com outras formas de dados da sincronização (por exemplo, áudio e legenda oculta). Quando uma combinação é detectada, a aplicação do filtro pode iniciar um temporizador ou então acompanhar o tempo da apresentação de multimídia para finalidades de comparar o tempo de apresentação de multimídia com os códigos do tempo inicial dos filtros ativados (operação 290). Dessa maneira, a apresentação de VOD pode ser sincronizada com os metadados. Quando há uma combinação entre o tempo da apresentação de multimídia e do código do tempo inicial de um filtro ativado, então ocorre a ação de filtragem apropriada, por exemplo, salto, mutismo, corte, etc., (operação 240, Figura 9).
Os dados da imagem utilizados para a comparação podem assumir várias formas. Em uma implementação, os dados da sincronização da imagem dos metadados envolvem algum ou todos os dados de um quadro de imagem não-comprimido. Um quadro de dados de vídeo não-comprimido pode incluir um conjunto de pixels arranjados por fileira e coluna. A sincronização da imagem dos metadados pode incluir alguma ou toda a informação de pixel para um determinado quadro. Por exemplo, a sincronização da imagem pode envolver pixels selecionados em um quadro, uma fileira inteira de dados da imagem, ou todos os pixels para um determinado quadro.
Quadros singulares de vídeo podem ser identificados com referência ao intervalo em branco vertical (VBI). 0 VBI é provido no limite entre os quadros de dados de imagem e de áudio; desse modo, um novo quadro segue o VBI. Dessa maneira, após a detecção do VBI, os pixels apropriados em um quadro são comparados aos dados da sincronização da imagem para sincronizar os metadados com a apresentação de multimídia. Em uma outra execução, a sincronização da imagem dos metadados envolve dados de imagem comprimidos ou codificados. Por exemplo, a sincronização da imagem dos metadados pode envolver dados codificados MPEG. A sincronização codificada da imagem é comparada então com a apresentação de multimídia em um ponto antes de ser decodificada para a exibição. Algumas multimídias são recebidas em um decodificador de TV ou um outro dispositivo de apresentação em uma forma digital codificada. Para a exibição, o dispositivo de apresentação decodifica a multimídia, e em alguns exemplos converte o vídeo e o áudio em formato analógico para a apresentação de exibição e de som. Os dados da sincronização da imagem podem então ser definidos para a comparação contra a multimídia em um ponto diferente no fluxo de processamento necessário para a sua apresentação.
Com os dados de sincronização da imagem não comprimidos, para sincronizar os metadados com a apresentação de multimídia, a apresentação de multimídia é comparada com as informações da sincronização da imagem dos metadados depois que a multimídia é decodificada ou descomprimida. Uma vez que algumas formas de descompressão ou de decodificação podem envolver alguma alteração dos dados de multimídia originais, tipicamente conhecida como "perda", a comparação não requer uma combinação precisa. Em um exemplo simples, se os dados da sincronização da imagem forem um pixel de informação com um valor de [R=100, B=100, G=100], então uma combinação positiva pode incluir um desvio de algum ou de todos os valores que são os responsáveis por alterações possíveis na multimídia original após a decodificação ou a descompressão. Desse modo, uma combinação pode ser válida com um pixel que tem um valor de [R=100±2, B=100± 2, e G=100± 2].
Em segundo lugar, com respeito aos dados de áudio da sincronização, os metadados podem incluir uma cópia dos dados de áudio para o primeiro quadro ou outros quadros do (áudio de sincronização) apresentação de multimídia ou uma cópia ou uma outra respresentação de alguma parte do áudio para o primeiro quadro ou quadros da apresentação de multimídia. No início do apresentação de video-on-demand, o áudio é comparado ao áudio da sincronização (operação 280) . Quando uma combinação é detectada, a aplicação do filtro pode iniciar um temporizador ou então acompanhar o tempo da apresentação de multimídia para finalidades de comparar o tempo época da apresentação de multimídia com os códigos do tempo inicial dos filtros ativados (operação 290). Dessa maneira, a apresentação de VOD pode ser sincronizada com os metadados. Quando há uma combinação entre o tempo da apresentação de multimídia e o código do tempo inicial de um filtro ativado, então ocorre a ação de filtragem apropriada, por exemplo, salto, mutismo, corte, etc. (operação 240, (Figura 9).
Tal como com os dados da imagem, os dados de áudio da sincronização podem envolver as informações não comprimidas, comprimidas e de áudio digital codificadas, ou as informações de áudio analógicas. Para a sincronização com áudio digitalizado não comprimido, os dados de áudio da sincronização dos metadados podem envolver uma série de amplitudes de áudio digitalizadas que são comparadas aos dados de áudio digitais não-comprimidos reais da apresentação de multimídia. Para a sincronização com áudio comprimido ou codificado, os dados de áudio da sincronização dos metadados podem envolver alguma parte do áudio codificado para a apresentação de multimídia. A codificação do áudio pode incluir os formatos MP3, o formato MPEG, etc. Desse modo, os dados de áudio da sincronização dos metadados devem incluir alguma parte dos dados de áudio de MP3, MPEG, etc., que podem ser comparados com o áudio codificado para a apresentação de multimídia.
Além disso, para a sincronização com áudio comprimido ou codificado, os dados de áudio da sincronização dos metadados podem envolver alguma representação do áudio codificado para a apresentação de multimídia. O áudio pode ser digitalizado com várias taxas de amostragem, dependendo de vários fatores. Por exemplo, algum áudio é digitalizado a uma taxa de amostragem de 44,1 KHz. É possível "a amostragem descendente" dos dados de áudio até alguma taxa de amostragem mais baixa, tal como aproximadamente 8,0 kHz. Para a comparação contra os dados de áudio para a amostragem descendente, os dados de áudio da sincronização dos metadados incluem dados de áudio de amostragem descendente. É possível que os dados de áudio da sincronização dos metadados possam ser desenvolvidos para a aplicação contra os dados de áudio de multimídia em sua forma original. Para a comparação contra os dados de áudio em uma forma de amostragem descendente, os dados da sincronização dos metadados de amostragem descendente também são amostrados apropriadamente. Devido aos tamanhos de arquivo relativamente maiores dos arquivos de dados de áudio originais, pode ser uma para baixo-amostra mais eficiente a amostragem descendente da parte de áudio de uma apresentação de multimídia para a sincronização dos metadados.
Os dados de áudio da sincronização também podem ser uma função da intensidade ou da energia do sinal de áudio digital. A Figura 10 é um gráfico de dados de áudio para uma parte do áudio de uma apresentação de multimídia. 0 gráfico traça três representações diferentes de dados de áudio de uma apresentação de multimídia. Primeiramente, o gráfico inclui os dados de áudio digitalizados crus 300 amostrados a 8,0 kHz. O gráfico também inclui um gráfico de energia dos dados de áudio (310). Finalmente, o gráfico inclui um gráfico do limite de energia (320).
Em um exemplo, a energia do sinal de áudio pode ser uma função de uma média corrente de valores de áudio digitais distintos. Por exemplo, um primeiro valor da energia pode ser igual à soma dos primeiros 255 bytes de áudio divididos por 256, pelo segundo valor da energia = pela soma do byte 1 ao byte 256 dividido por 256, e assim por diante. Os dados de áudio da sincronização podem desse modo incluir valores de áudio da energia ou um grupo de valores de áudio da energia. Além disso, a energia de áudio pode ser comparada com um valor limite para criar o gráfico do limite da energia. Por exemplo, os valores digitalizados da energia, representados, por exemplo, como um valor de um byte, podem ser comparados a um valor limite.
Em um exemplo, o valor limite é 500. O gráfico do limite da energia tem um valor padrão igual a 0. Um valor da energia que é igual ou maior do que o valor limite, muda o estado do valor limite da energia, digamos, para 4.000 ou alguns outros valores. Quando a energia cai abaixo do limite por algum período, o gráfico do limite da energia retorna a 0. Em um exemplo, quando a fonte de energia tem um gradiente decrescente de 0,75 (-0,75) para vinte amostras, então o gráfico do limite da energia retorna a 0.
Nas implementações, os dados de áudio da sincronização podem ser dimensionados para a comparação contra qualquer uma das representações de dados de áudio indicadas na Figura 10, sozinhas ou em combinação, bem como numerosas outras possíveis representações de áudio. Por exemplo, os dados de áudio da sincronização podem incluir uma pluralidade de amostra de áudio digitalizadas, tais como vinte valores de áudio digitais consecutivos. Para a sincronização, tais dados de áudio da sincronização devem ser comparados aos dados de áudio amostrados. Em um outro exemplo, os dados de áudio da sincronização devem incluir uma pluralidade de valores de áudio de energia consecutivos que são comparados com a energia de multimídia que o sinal de áudio de multimídia a fim de sincronizar os metadados com a apresentação de multimídia. Finalmente, em um outro exemplo, os dados de áudio da sincronização incluem alguma forma de dados limite da energia, tais como um padrão de pontos limites excedidos que é comparado com um gráfico limite corrente do áudio de multimídia.
Em terceiro lugar, com respeito aos dados de sincronização de legenda oculta, os metadados podem incluir uma cópia de algumas partes do texto de legenda oculta (operação 270). As legendas ocultas podem se conformar ao padrão XDS. Também é possível empregar outros tipos de dados de serviços de dados estendidos, em que os dados de legenda oculta são apenas um exemplo. Os dados de legenda oculta podem ser embutidos no intervalo em branco vertical (VBI) ou providos em outra parte, tal como dentro de um ambiente de televisão digital. Em um ambiente de televisão digital, os dados de legenda oculta e outros dados que poderiam ser utilizados na sincronização podem se conformar a EIA-708, Program and System Information Protocol, e outros protocolos e padrões relevantes. No início da apresentação de vídeo-on- demand, a legenda oculta real é comparada aos dados de legenda oculta da sincronização (operação 280). Quando uma combinação é detectada, a aplicação do filtro pode iniciar um temporizador ou então acompanhar o tempo da apresentação de multimídia, para finalidades de comparar o tempo da apresentação de multimídia com os códigos do tempo inicial dos filtros ativados (operação 290). Dessa maneira, a apresentação de video-on-demand pode ser sincronizada com os metadados. Quando há um combinação entre o tempo da apresentação de multimídia e o código do tempo inicial de um filtro ativado, então ocorre a ação de filtragem apropriada, por exemplo, salto, mutismo, corte, etc.
Outras formas de áudio dos metadados e formas de análise de legenda oculta que podem ser utilizadas para a sincronização e os métodos de comparação que podem ser adaptados imediatamente à sincronização são descritos no pedido de patente norte-americano número 10/927.769 intitulado "Método e aparelho para controlar a reprodução de um sinal de áudio", depositado em 26 de agosto de 2004 (publicação norte-americana número 2005/0086705), que é aqui incorporado a título de referência. Com respeito às várias formas de dados da sincronização, por exemplo, vídeo, áudio, ou legenda oculta, não é necessário que os dados da sincronização estejam relacionados ao primeiro quadro da apresentação de multimídia ou começo da apresentação de multimídia. Por exemplo, tal como discutido mais detalhadamente com respeito a uma terceira implementação, a sincronização pode ocorrer em um ponto com uma relação conhecida a um evento de filtro. Além disso, várias formas de dados da sincronização podem ser combinadas para definir uma série de dados ou uma assinatura original da sincronização que possam ser comparadas imediatamente com a apresentação de multimídia.
Em uma terceira implementação, a Figura 9C fornece um exemplo de um método de sincronização onde os dados da sincronização fazem parte dos metadados do filtro e também substituem os códigos dos tempos inicial e final dos metadados do filtro. Desse modo, ao invés das informações do código de tempo, os metadados do filtro incluem um identificador inicial e final que pode assumir vários tipos de dados da sincronização determinados acima, bem como outros (operação 330) . Os exemplos de identificadores inicial e final incluem dados de imagem, dados de áudio, dados de legenda oculta, informações de XDS, pacotes de dados ou quaisquer outras informações ou dados associados com uma localização específica na apresentação de multimídia. Os identificadores inicial e final, em uma implementação particular, podem substituir a informação do código dos tempos inicial e final do tipo de metadados discutido acima.
Dessa maneira, os identificadores inicial e final são associados com o começo e o final de alguma parte de uma apresentação de multimídia. A Tabela 2 indicada abaixo ilustra exemplos de dois filtros que empregam dados de imagem e vídeo como identificadores de filtro inicial e final.
<table>table see original document page 31</column></row><table>
Tabela 2: Metadados de filtro com exemplo de dois filtros para a película Gladiador
O filtro 1 inclui um identificador inicial dos dados de imagem Video Frame 1000 e um identificador final dos dados de vídeo Video Frame 1997. Desse modo, o identificador inicial inclui algum ou todos os dados da imagem para o quadro 1000 e o identificador final inclui alguns ou todos os dados da imagem para o quadro 1997. 0 filtro também indica que a duração da ação de salto é de 997 quadros.
Se os filtros dos tipos V-D-D ou V-D-G forem ativados, então durante a reprodução da apresentação de multimídia, a aplicação do filtro compara os dados da imagem que foram decodificados e estão enfileirados para a exibição contra os dados da imagem do identificador inicial (operação 340). Quando uma combinação é detectada, a aplicação do filtro dirige o reprodutor de vídeo-on-demand a não exibir quadros 1000 a 1997 (operação 350). A exibição pode começar outra vez mediante comparação contra o identificador final, isto é, dados de imagem Video Frame 1997, ou contagem de 997 quadros. Deve ser observado que as operações 340 e 350 da Figura 9C envolvem a aplicação dos filtros para suprimir o conteúdo tal como indicado na operação 240 da Figura 9.
A aplicação dos dados da sincronização do tipo de vídeo inicial e final dos dados da sincronização aqui discutidos pode envolver a identificação inicial da apresentação de multimídia. Desse modo, com o exemplo da Tabela 1, uma aplicação de filtragem deve primeiramente identificar ou ser notificada da apresentação de multimídia particular, tal como "Gladiador, 11 e então deve aplicar os metadados apropriados. Também é possível que os dados da sincronização dos metadados sejam singulares somente para uma apresentação de multimídia. Por exemplo, os dados da sincronização da imagem são singulares somente ao Gladiador e a nenhuma outra apresentação de multimídia.
Dependendo do tamanho da memória, da velocidade de processamento e de outros fatores, uma implementação pode comparar uma pluralidade de conjuntos de metadados do filtro a qualquer apresentação de multimídia, sem identificar primeiramente a apresentação de multimídia. A aplicação correta do filtro ocorre com base na singularidade global ou quase global dos identificadores.
Alternativamente, a singularidade dos dados da sincronização provê a identificação dos dados de multimídia. Em um exemplo, uma pluralidade de conjuntos de metadados de filtro é armazenada localmente em um decodificador de TV. No início de uma apresentação de multimídia, os dados da sincronização da imagem inicial para os vários conjuntos de metadados do filtro são comparados à apresentação de multimídia. Cada conjunto de metadados do filtro é associado com uma apresentação de multimídia particular; desse modo, com a identificação de uma combinação entre os metadados do filtro e uma apresentação particular, além de sincronizar os metadados, o combinação também identifica a apresentação de multimídia. A apresentação restante de multimídia pode então ser comparada somente com o conjunto combinado dos metadados do filtro. Indicado de uma maneira diferente, o conjunto de metadados do filtro para muitas apresentações diferentes de VOD pode ser carregado na memória de STB, e então ao invés de pré-identificar uma apresentação de VOD e um conjunto particular dos metadados, a sincronização da imagem pode ocorrer em tempo real ou quase em tempo real a fim de aplicar os metadados apropriados ao VOD que está sendo mostrado. Tal implementação também pode ser aplicada ao se mover entre apresentações diferentes de multimídia, tal como quando na troca ininterrupta de canais. Uma pluralidade de conjuntos de metadados do filtro é comparada contra a apresentação atual de multimídia, e o filtro apropriado é aplicado contra a multimídia atual. Em tal implementação, pode ser pedido para que um usuário ative determinados tipos do filtro que são aplicados a qualquer multimídia que esteja sendo apresentada, contanto que a multimídia tenha um conjunto disponível de metadados do filtro, ao contrário da ativação baseada em uma apresentação de multimídia distinta.
Com a terceira implementação, a sincronização da apresentação de multimídia é opcional. A terceira implementação é particularmente útil se a apresentação de multimídia incluir multimídias adicionais, tais como comerciais, que podem interromper de maneira imprevisível o sincronismo da apresentação principal de multimídia. O uso das informações do identificador inicial que é desassociado com o sincronismo da apresentação de multimídia, fornece uma maneira para que os metadados sejam sincronizados com a apresentação de multimídia de uma maneira que seja a responsável pelas interrupções. A terceira implementação pode tirar vantagem de alguns dos esquemas de sincronização de metadados de imagem, áudio e legenda oculta discutidos acima com o respeito à segunda implementação. A técnica de sincronização discutida com respeito à terceira implementação, assim como várias facetas de outras implementações aqui descritas, é aplicável a várias formas de métodos de distribuição e reprodução de multimídia, incluindo vídeo-on-demand, DVD, pay-per-view, streaming vídeo a um PC, multimídia apresentada em um computador de mão, etc.
A distinção entre a segunda e a terceira implementação é que os metadados de sincronização de imagem, áudio e/ou legenda oculta na primeira implementação são utilizados para sincronizar os metadados com os dados de multimídia, mas a informação do sincronismo é utilizada para as comparações, ao passo que na terceira implementação os metadados de sincronização de imagem, áudio e/ou legenda oculta são utilizados diretamente na comparação sem necessariamente o uso adicional de informações da sincronização.
No entanto, as informações de sincronização de multimídia podem ser utilizadas junto com o identificador inicial e final para otimizar o processo de sincronização. Em uma implementação, a comparação dos dados do identificador inicial e final de sincronização pode ser ativada em momentos específicos. Por exemplo, com a detecção de uma combinação entre um identificador inicial e dados de multimídia, ocorre alguma ação de filtragem. No entanto, ao invés de comprar continuamente os dados de multimídia com o identificador final, a aplicação de filtragem começa a comparação após algum período de tempo. A comparação começa em um ponto no tempo suficiente para detectar o ponto de multimídia em que os dados associaram o identificador final. Em ainda uma outra implementação possível, nenhum identificador final é necessário. A aplicação de filtragem, com a detecção de uma combinação entre o identificador inicial e alguma parte de dados de multimídia, ativa uma ação de supressão por algum período de tempo fixado, talvez identificado por um temporizador, pelo número de quadros, pelo número de impressões de tempo de apresentação (descritos em detalhes mais adiante), ou por quaisquer outros meios para identificar suficientemente uma compensação relativa na multimídia baseada na identificação de uma localização distinta na comparação de multimídia através de um identificador inicial.
Em uma quarta implementação indicada na Figura D, um ou mais sinalizadores ou outros identificadores são providos no arquivo de dados de video-on-demand (operação 360). O identificador é colocado em uma localização conhecida em relação à informação da localização dos metadados. Desse modo, a aplicação de reprodução filtrada pode monitorar o arquivo de dados de video-on-demand quanto à presença do identificador. Com respeito aos metadados do filtro com os filtros que têm uma identificação de tempos inicial e final, um sinalizador pode ser colocado no arquivo de dados de video-on-demand no começo da apresentação de multimídia a fim de sincronizar os metadados com os dados de multimídia. As ações de filtragem são baseadas então na sincronização da identificação de sinalizador (operação 370) .
Alternativamente, cada um dos filtros de metadados pode incluir um sinalizador singular inicial. Os dados de multimídia de video-on-demand incluem então os sinalizadores embutidos associados com os vários tipos de conteúdo. Uma vez que a aplicação de filtragem compara os dados de multimídia com os metadados, as ações de filtragem ocorrem quando um sinalizador nos dados de multimídia combina um identificador correspondente do sinalizador inicial para um filtro nos metadados de filtro. Uma ação de filtragem, em um exemplo, pode terminar após um tempo especificado. Alternativamente, os metadados do filtro também podem incluir identificadores de sinalizadores finais singulares, e a apresentação correspondente de multimídia também inclui sinalizadores finais associados com os sinalizadores iniciais particulares. Uma ação de filtragem começa desse modo com a combinação de um identificador correspondente de sinalizador inicial com um sinalizador na multimídia e termina com a combinação de um identificador de sinalizador final com um sinalizador na multimídia.
Para a informação de sincronização relativa para uma apresentação de multimídia de VOD, as implementações da presente invenção podem acompanhar as informações de indicação de tempo de apresentação MPEG (PTS).
Além disso, em ainda uma outra implementação possível, os metadados do filtro podem incluir as informações de PTS como identificadores de filtro inicial e final, sozinhos ou conjuntamente com outros dados de sincronização do identificador inicial e/ou final.
Nas várias implementações aqui discutidas, pode ser necessário responder pelas interrupções na apresentação de multimídia. Por exemplo, em um ambiente do tipo STB de gravador digital de vídeo ou qualquer outro ambiente que propicie ao usuário a capacidade de avançar, rebobinar ou algo do gênero, a sincronização pode envolver a causa de tais interrupções. Se a aplicação do filtro estiver seguindo o sincronismo como parte da sincronização do filtro, então algumas implementações ajustam o sincronismo relativo para responder pelas interrupções. Por exemplo, o avanço rápido pode ocorrer a taxas conhecidas, tais como a velocidade de reprodução de duas vezes (2X) , a velocidade de reprodução de cinco vezes (5X) , etc. Uma vez que a taxa de avanço rápido é conhecida, o relógio interno pode ser sincronizado com a ação de avanço rápido. As ações de pausar, rebobinar, parar e outras podem ser sincronizadas similarmente.
Embora as realizações apresentadas tenham sido descritas em termos específicos, outras realizações que englobam princípios da invenção também são possíveis. Além disso, as operações podem ser apresentadas em uma ordem particular. A ordem, no entanto, é apenas um exemplo da maneira na qual as operações podem ser providas. As operações podem ser rearranjadas, modificadas ou eliminadas em qualquer implementação particular ou ainda se conformar aos aspectos da invenção. As realizações dentro do âmbito da presente invenção também incluem mídias que podem ser lidas por computador para carregar ou conter instruções ou estruturas de dados executáveis em computador armazenadas nas mesmas. Tais mídias que podem ser lidas por computador podem ser quaisquer meios disponíveis que possam ser acessados por um computador de finalidades gerais ou de finalidades específicas. A título de exemplo, e não de limitação, tais mídias que podem ser lidas por computador podem compreender uma RAM, uma ROM, uma EEPROM, um DVD, um CD-ROM ou um outro disco de armazenamento óptico, disco de armazenamento magnético ou outros dispositivos de armazenamento magnético, ou qualquer outro meio que pode ser utilizado para carregar ou armazenar o código do programa desejado na forma de instruções ou estruturas de dados executáveis por computador e que podem ser acessados por um computador de finalidades gerais ou de finalidades específicas. Quando a informação é transferida ou fornecida por uma rede ou uma outra ligação ou conexão de comunicações (com fio, sem fio, ou uma combinação com fio e sem fio) a um computador, o computador enxerga corretamente a conexão como uma mídia que pode ser lida por computador. Desse modo, qualquer conexão desse tipo é denominada corretamente como uma mídia que pode ser lida por computador. As combinações dos elementos acima também devem ser incluídas dentro do âmbito de mídias que podem ser lidas por computador. As instruções executáveis por computador compreendem, por exemplo, as instruções e os dados que fazem com que um computador de finalidades gerais, um computador de finalidades específicas, ou um dispositivo de processamento de finalidades específicas execute uma determinada função ou grupo de funções.
O termo servidor de conteúdo aqui indicado deve ser interpretado amplamente de modo a incluir um servidor bem como qualquer armazenamento relacionado e uma outra configuração de processamento envolvidos no conteúdo do serviço. Em um sistema de cabo e similarmente em um sistema satélite, o servidor de conteúdo deve incluir um servidor de video-on-demand e o equipamento de sistema possivelmente relacionado.
Os técnicos no assunto apreciarão que os aspectos da invenção podem ser praticados em ambientes de computação em rede com muitos tipos de configurações do sistema computadorizado, incluindo computadores pessoais, computadores do tipo laptop, dispositivos manuais, sistemas de muiti-processadores, componentes eletrônicos de consumidor baseados em microprocessador ou programáveis, PCES em rede, minicomputadores, computadores de mainframe, e outros ainda.
As várias realizações aqui discutidas incluindo as realizações que envolvem um sinal de satélite ou cabo aplicado a um decodificador de TV, ao processador do sistema de televisão, ou algo do gênero, assim como os sinais de dados digitais aplicados a alguma forma de configuração de processamento de multimídia, tal como empregado para IPTV, ou outras configurações similares podem ser consideradas como dentro de um ambiente de computação em rede. Além disso, telefones celulares conectados sem fio, um tipo de dispositivo manual, são considerados como dentro de um ambiente de computação em rede. Por exemplo, os telefones celulares incluem um processador, uma memória, um visor, e alguma forma de conexão sem fio, tanto digital quanto analógico e alguma forma de um meio de entrada, tais como teclados, telas de toque, etc. As plataformas de computação manuais também podem incluir a capacidade de seleção de video-on-demand. Os exemplos das tecnologias de conexão sem fio aplicáveis em várias realizações móveis incluem, mas sem ficar a eles limitados, a rádio-freqüência, AM, FM, celular, televisão, satélite, microondas, WiFi, blue-tooth, infravermelho, e outros ainda. As plataformas de computação manuais não requerem necessariamente uma conexão sem fio. Por exemplo, um dispositivo manual pode acessar multimídia de alguma forma de memória, que pode incluir ambos a memória integrada (por exemplo, RAM, flash, etc.) bem como a memória removível (por exemplo, mídia de armazenamento óptico, cartões de memória, cartões de memória rápida, etc.) para a reprodução no dispositivo. Os aspectos da invenção também podem ser praticados nos ambientes de computação distribuídos onde as tarefas são executadas pelos dispositivos de processamento local e remoto que são ligados (pelas ligações com fio, pelas ligações sem fio, ou por uma combinação das ligações com fio ou sem fio) através de uma rede de comunicações. Em um ambiente de computação distribuída, os módulos do programa podem ser posicionados em dispositivos locais e remotos de armazenamento de memória.
Outras tecnologias de filtro configuradas para permitir a reprodução filtrada de um filme ou da outra apresentação de multimídia são descritas no pedido de patente norte-americano número 09/694.873 intitulado "Multimedia Content Navigation and Playback", depositado em 23 de outubro de 2 000, agora patente norte-americana número 6.898.799, que foi concedida em 24 de maio de 2005, e no pedido de patente norte-americano número 09/695.102 intitulado "Delivery of Navigation Data for Playback of Audio and Video Content", depositado em 23 de outubro de 2000, agora patente norte- americana número 6.889.383 que foi concedida em 03 de maio de 2005, cada um dos quais é aqui incorporado a título de referência.
Os vários métodos aqui apresentados são aplicáveis à filtragem do conteúdo visual de multimídia ao saltar o conteúdo de multimídia durante a apresentação do conteúdo. Cada uma das soluções também pode ser configurada para filtrar somente o conteúdo de áudio ao silenciar o áudio no lado do servidor ou então no lado do decodif icador de TV (STB). A filtragem do áudio ocorre em qualquer lado em que os metadados de filtragem forem acessíveis. 0 mutismo pode ser acionado ao sincronizar a posição da reprodução com os metadados de filtragem (isto é, na posição de reprodução A, emudecer o áudio até a posição de reprodução B). Além disso, várias formas de supressão de conteúdo, saltar, silenciar, borrar e cortar, podem ser executadas no lado do servidor ou do cliente. Finalmente, os termos servidor e cliente não se prestam a ser limitados estritamente a um ambiente de cliente-servidor, mas se prestam a indicar mais geralmente um arranjo onde o conteúdo é fornecido de um aparelho de computação em uma localização remota a um dispositivo localizado em um local do usuário. A transmissão do conteúdo da localização remota ao dispositivo pode envolver a Internet ou outras configurações de rede de computação, sistemas de cabo, sistemas de satélite, e sistemas sem fios, tanto sozinhos quanto em combinação.

Claims (42)

1. MÉTODO PARA SUPRIMIR ALGUM CONTEÚDO DE MULTIMÍDIA DE UMA APRESENTAÇÃO DE CONTEÚDO DE MULTIMÍDIA FORNECIDA POR UM SERVIDOR REMOTO A UM APARELHO REPRODUTOR DE CONTEÚDO DE MULTIMÍDIA DO CLIENTE, caracterizado pelo fato de compreender: a provisão da seleção de pelo menos uma apresentação de conteúdo de multimídia de uma pluralidade de apresentações de conteúdo de multimídia; a provisão da ativação de pelo menos um filtro para aplicar a pelo menos uma apresentação de conteúdo de multimídia, em que pelo menos um filtro é configurado para identificar uma parte da apresentação de conteúdo de multimídia que tem o conteúdo objetável e também é configurado para executar a supressão do conteúdo objetável; a provisão de comunicação da apresentação de conteúdo de multimídia entre o servidor de conteúdo remoto e o aparelho do cliente; e a provisão da aplicação de pelo menos um filtro à apresentação de conteúdo de multimídia para suprimir o conteúdo objetável identificado em pelo menos um filtro.
2. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo fato de compreender adicionalmente: do servidor de conteúdo remoto, a recepção de metadados do filtro que compreende pelo menos um filtro no aparelho do cliente.
3. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo fato de compreender adicionalmente: a transmissão de uma ativação de pelo menos um filtro ao servidor de conteúdo para armazenamento; e do servidor de conteúdo remoto, a recepção de metadados do filtro que compreende pelo menos um filtro ativado para o aparelho do cliente.
4. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo fato de compreender adicionalmente: a provisão da ativação de pelo menos um filtro de uma pluralidade de filtros, em que cada filtro da pluralidade de filtros é configurado para identificar uma parte diferente de pelo menos uma apresentação de conteúdo de multimidia, sendo que cada parte tem o conteúdo objetável, e também é configurado para executar a supressão do conteúdo objetável relacionado a cada filtro da pluralidade de filtros; e a transmissão ao servidor de conteúdo remoto de uma ativação de pelo menos um filtro da pluralidade de filtros; e do servidor de conteúdo remoto, a recepção de metadados do filtro que compreende pelo menos um filtro ativado para o aparelho do cliente, mas não incluindo filtros inativos.
5. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo fato de compreender adicionalmente: ao servidor de conteúdo remoto, a transmissão de uma indicação da ativação do pelo menos um filtro; e a recepção no aparelho do cliente de uma corrente de dados para pelo menos uma apresentação de conteúdo de multimída, em que a corrente de dados suprime pelo menos uma parte do conteúdo objetável identificado em pelo menos um filtro.
6. MÉTODO, de acordo com a reivindicação 5, caracterizado pelo fato de compreender adicionalmente: a supressão de qualquer parte remanescente do conteúdo objetável identificado em pelo menos um filtro.
7. MÉTODO, de acordo com a reivindicação 6, caracterizado pelo fato de que a corrente de dados é uma corrente de grupos de fotografias MPEG e em que apresentação de conteúdo de multimídia é um filme de video on-demand.
8. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo fato de compreender adicionalmente: a transmissão de uma ativação de pelo menos um filtro ao servidor de conteúdo; e a recepção de uma corrente de dados para pelo menos uma apresentação de conteúdo de multimídia, em que a corrente de dados suprime pelo menos uma parte do conteúdo objetável identificado em pelo menos um filtro.
9. MÉTODO, de acordo com a reivindicação 8, caracterizado pelo fato de compreender adicionalmente: a supressão de qualquer parte remanescente do conteúdo objetável identificado em pelo menos um filtro.
10. MÉTODO, de acordo com a reivindicação 9, caracterizado pelo fato de compreender adicionalmente: a transmissão de uma indicação da ativação de pelo menos um filtro ao servidor de conteúdo remoto; e a transmissão ao aparelho do cliente de uma corrente de dados para pelo menos uma apresentação de conteúdo de multimídia, em que a corrente de dados suprime todo o conteúdo objetável identificado em pelo menos um filtro.
11. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo fato de que: pelo menos um filtro é configurado para identificar uma parte de pelo menos uma apresentação de conteúdo de multimídia mediante a provisão de pelo menos um indicador do tempo inicial associado com um tempo inicial do conteúdo objetável; e o método compreende adicionalmente: a provisão da informação de sincronização para sincronizar um começo de pelo menos uma apresentação de conteúdo de multimídia com o indicador do tempo inicial.
12. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo fato de compreender adicionalmente: a provisão da aplicação de pelo menos um filtro à apresentação de conteúdo de multimídia para suprimir o conteúdo objetável identificado em pelo menos um filtro como uma função de uma identificação do usuário.
13. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo fato de que o servidor de conteúdo remoto é um servidor de video-on-demand e uma infra-estrutura de armazenamento e processamento relacionada.
14. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo fato de que o servidor de conteúdo remoto é um servidor de pay-per-view e uma infra-estrutura de armazenamento e processamento relacionada.
15. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo fato de que o servidor de conteúdo remoto faz parte de um sistema de distribuição de conteúdo via satélite.
16. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo fato de que o servidor de conteúdo remoto faz parte de um sistema de provedor via cabo.
17. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo fato de que a apresentação de conteúdo de multimídia é um filme provido por um sistema de video-on- demand .
18. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo fato de que o aparelho do cliente é uma caixa sobre o aparelho receptor.
19. MÉTODO, de acordo com a reivindicação 18, caracterizado pelo fato de que a caixa sobre o aparelho receptor é configurada para uma dentre a recepção via cabo ou a recepção via satélite.
20. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo fato de que a supressão do conteúdo objetável inclui pelo menos um dentre pular, emudecer, borrar e cortar.
21. MÉTODO PARA APLICAR E SINCRONIZAR DADOS DE FILTRO DE CONTEÚDO DE MULTIMÍDIA COM UMA APRESENTAÇÃO DE CONTEÚDO DE MULTIMÍDIA, caracterizado pelo fato de compreender: a recepção de dados de filtro que compreendem pelo menos um filtro configurado para identificar uma parte de uma apresentação de conteúdo de multimídia que tem o conteúdo obj etável e também é configurado para executar a supressão do conteúdo objetável; a provisão da apresentação da apresentação de conteúdo de multimídia, em que a apresentação de conteúdo de multimídia tem o conteúdo objetável identificado em pelo menos um filtro; e a obtenção da informação da sincronização para sincronizar pelo menos um filtro com o conteúdo objetável quando uma localização da parte da apresentação de conteúdo de multimídia pode variar.
22. MÉTODO, de acordo com a reivindicação 21, caracterizado pelo fato de que a informação da sincronização compreende um deslocamento do tempo que corresponde com um começo da apresentação de conteúdo de multimídia.
23. MÉTODO, de acordo com a reivindicação 22, caracterizado pelo fato de pelo menos um filtro é configurado para identificar uma parte da apresentação de conteúdo de multimídia que tem o conteúdo objetável mediante a provisão de pelo menos um indicador do tempo inicial associado com um tempo inicial do conteúdo objetável; e compreende adicionalmente: o acompanhamento do tempo como uma função do deslocamento do tempo; e a supressão do conteúdo objetável quando o tempo de acompanhamento combina com o indicador do tempo inicial.
24. MÉTODO, de acordo com a reivindicação 21, caracterizado pelo fato de que pelo menos um filtro é configurado para identificar uma parte de uma apresentação de conteúdo de multimídia com os dados de sincronização que combinam com um aspecto que não do tempo da apresentação de conteúdo de multimídia; e compreende adicionalmente: a análise da apresentação de conteúdo de multimídia para identificar os dados que combinam os dados de sincronização.
25. MÉTODO, de acordo com a reivindicação 24, caracterizado pelo fato de que pelo menos um filtro é configurado para identificar uma parte da apresentação de conteúdo de multimídia que tem o conteúdo objetável mediante a provisão de pelo menos um indicador do tempo inicial associado com um tempo inicial do conteúdo objetável; e compreende adicionalmente: o acompanhamento da identificação do tempo como uma função dos dados que combinam com os dados de sincronização; e a supressão do conteúdo objetável quando o tempo de acompanhamento combina com o indicador do tempo inicial.
26. MÉTODO, de acordo com a reivindicação 24, caracterizado pelo fato de compreender adicionalmente: a supressão do conteúdo objetável com a identificação dos dados que combinam com os dados de sincronização.
27. MÉTODO, de acordo com a reivindicação 25, caracterizado pelo fato de que os dados de sincronização incluem pelo menos um dentre dados de imagem, dados de áudio, e dados de close caption [legenda oculta].
28. MÉTODO, de acordo com a reivindicação 21, caracterizado pelo fato de compreender a obtenção da informação de sincronização do servidor de conteúdo para sincronizar pelo menos um filtro de conteúdo com o conteúdo objetável.
29. MÉTODO, de acordo com a reivindicação 21, caracterizado pelo fato de compreender adicionalmente a transmissão da apresentação de conteúdo de multimídia de um servidor de conteúdo remoto a um aparelho do cliente.
30. MÉTODO, de acordo com a reivindicação 21, caracterizado pelo fato de compreender adicionalmente a leitura da apresentação de conteúdo de multimídia de uma mídia de armazenamento removível.
31. MÉTODO PARA SUPRIMIR ALGUM CONTEÚDO DE MULTIMÍDIA DE UMA APRESENTAÇÃO DE CONTEÚDO DE MULTIMÍDIA FORNECIDA POR UM SERVIDOR REMOTO A UM APARELHO REPRODUTOR DE CONTEÚDO DE MULTIMÍDIA DO CLIENTE, caracterizado pelo fato de compreender: a recepção de uma seleção de pelo menos uma apresentação de conteúdo de multimídia de uma pluralidade de apresentações de conteúdo de multimídia; a transmissão de metadados de filtro ao aparelho do cliente, em que os metadados de filtro incluem pelo menos um filtro configurado para identificar uma parte da apresentação de conteúdo de multimídia que tem o conteúdo objetável e também é configurado para executar a supressão do conteúdo objetável; e a transmissão da apresentação de conteúdo de multimídia do servidor de conteúdo remoto ao aparelho do cliente de uma maneira tal que a aplicação dos metadados de filtro à apresentação de conteúdo de multimídia vai suprimir o conteúdo objetável identificado no filtro.
32. MÉTODO, de acordo com a reivindicação 31, caracterizado pelo fato de compreender adicionalmente: no servidor de conteúdo remoto, o armazenamento de uma ativação de pelo menos um filtro; e do servidor de conteúdo remoto, a transmissão dos metadados de filtro que compreendem pelo menos um filtro ativado para o aparelho do cliente.
33. MÉTODO, de acordo com a reivindicação 31, caracterizado pelo fato de compreender adicionalmente: a provisão da ativação de pelo menos um filtro de uma pluralidade de filtros, em que cada filtro da pluralidade de filtros é configurado para identificar uma parte diferente da apresentação de conteúdo de multimídia, sendo que cada parte tem o conteúdo objetável e também é configurado para executar a supressão do conteúdo objetável relacionado a cada um dos filtros; e no servidor de conteúdo remoto, o armazenamento de uma ativação de pelo menos um filtro da pluralidade de filtros; e do servidor de conteúdo remoto, a transmissão dos metadados de filtro que compreende pelo menos um filtro ativado para o aparelho ao cliente, mas exclui filtros inativos.
34. MÉTODO, de acordo com a reivindicação 31, caracterizado pelo fato de compreender adicionalmente: no servidor de conteúdo remoto, a recepção de uma indicação da ativação de pelo menos um filtro; e a transmissão de uma corrente de dados que inclui a apresentação de conteúdo de multimídia do servidor de conteúdo remoto ao aparelho do cliente de uma maneira tal que a aplicação dos metadados de filtro ã apresentação de conteúdo de multimídia suprime pelo menos uma parte do conteúdo objetável identificado em pelo menos um filtro.
35. MÉTODO, de acordo com a reivindicação 34, caracterizado pelo fato de compreender adicionalmente a transmissão de uma corrente de dados que inclui a apresentação de conteúdo de multimídia do servidor de conteúdo remoto ao aparelho do cliente de uma maneira tal que a aplicação dos metadados de filtro à apresentação de conteúdo de multimídia suprime todo o conteúdo objetável identificado em pelo menos um filtro.
36. MÉTODO, de acordo com a reivindicação 34, caracterizado pelo fato de que a corrente de dados é uma corrente de grupos de fotografias MPEG e em que a apresentação de conteúdo de multimídia é um filme de video- on-demand.
37. MÉTODO, de acordo com a reivindicação 32, caracterizado pelo fato de compreender adicionalmente a transmissão da informação de sincronização ao aparelho do cliente para sincronizar pelo menos um filtro de conteúdo com o conteúdo objetável quando uma localização da parte da apresentação de conteúdo de multimídia pode variar.
38. MÉTODO, de acordo com a reivindicação 31, caracterizado pelo fato de que o servidor de conteúdo remoto é um servidor de video-on-demand e uma infra-estrutura de armazenamento e processamento relacionada.
39. MÉTODO, de acordo com a reivindicação 31, caracterizado pelo fato de que o servidor de conteúdo remoto faz parte de um sistema de distribuição de conteúdo via satélite.
40. MÉTODO, de acordo com a reivindicação 31, caracterizado pelo fato de que o servidor de conteúdo remoto faz parte de um sistema de provedor via cabo.
41. MÉTODO, de acordo com a reivindicação 31, caracterizado pelo fato de que a apresentação de conteúdo multimídia é um filme provido por um sistema de video-on- demand.
42. MÉTODO, de acordo com a reivindicação 31, caracterizado pelo fato de que a apresentação de conteúdo objetável inclui pelo menos um dentre pular, emudecer, borrar e cortar.
BRPI0706887-5A 2006-01-30 2007-01-30 "método para suprimir algum conteúdo de multimìdia de uma apresentação de conteúdo de multimìdia fornecida por um servidor remoto a um aparelho reprodutor de conteúdo de multimìdia do cliente e método para aplicar e sincronizar dados de filtro de conteúdo de mutimìdia com uma apresentação de conteúdo de multimìdia." BRPI0706887A2 (pt)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US76352506P 2006-01-30 2006-01-30
US60/763,525 2006-01-30
US78554706P 2006-03-24 2006-03-24
US60,785,547 2006-03-24
PCT/US2007/061330 WO2007120963A2 (en) 2006-01-30 2007-01-30 Synchronizing filter metadata with a multimedia presentation
US11/669,138 US9015571B2 (en) 2006-01-30 2007-01-30 Synchronizing filter metadata with a multimedia presentation
US11/669,138 2007-01-30

Publications (1)

Publication Number Publication Date
BRPI0706887A2 true BRPI0706887A2 (pt) 2012-08-21

Family

ID=38335459

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0706887-5A BRPI0706887A2 (pt) 2006-01-30 2007-01-30 "método para suprimir algum conteúdo de multimìdia de uma apresentação de conteúdo de multimìdia fornecida por um servidor remoto a um aparelho reprodutor de conteúdo de multimìdia do cliente e método para aplicar e sincronizar dados de filtro de conteúdo de mutimìdia com uma apresentação de conteúdo de multimìdia."

Country Status (8)

Country Link
US (4) US9015571B2 (pt)
EP (1) EP2016769A4 (pt)
JP (1) JP2009527137A (pt)
KR (1) KR20080100354A (pt)
AU (1) AU2007238457A1 (pt)
BR (1) BRPI0706887A2 (pt)
MX (1) MX2008009754A (pt)
WO (1) WO2007120963A2 (pt)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6898799B1 (en) * 2000-10-23 2005-05-24 Clearplay, Inc. Multimedia content navigation and playback
US7975021B2 (en) 2000-10-23 2011-07-05 Clearplay, Inc. Method and user interface for downloading audio and video content filters to a media player
US6889383B1 (en) 2000-10-23 2005-05-03 Clearplay, Inc. Delivery of navigation data for playback of audio and video content
US8856105B2 (en) * 2006-04-28 2014-10-07 Hewlett-Packard Development Company, L.P. Dynamic data navigation
US8176424B2 (en) * 2006-10-19 2012-05-08 Lg Electronics Inc. Encoding method and apparatus and decoding method and apparatus
US20090041294A1 (en) * 2007-06-02 2009-02-12 Newell Steven P System for Applying Content Categorizations of Images
US9794605B2 (en) * 2007-06-28 2017-10-17 Apple Inc. Using time-stamped event entries to facilitate synchronizing data streams
BRPI0906142B1 (pt) * 2008-03-10 2020-10-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. dispositivo e método para a manipulação de um sinal de áudio tendo um evento transiente
US20090328093A1 (en) * 2008-06-30 2009-12-31 At&T Intellectual Property I, L.P. Multimedia Content Filtering
US8699858B2 (en) * 2008-08-29 2014-04-15 Adobe Systems Incorporated Combined visual and auditory processing
US9930309B2 (en) * 2009-03-11 2018-03-27 Centurylink Intellectual Property Llc System, method and apparatus for inband variable media maturity filtering
US8332412B2 (en) * 2009-10-21 2012-12-11 At&T Intellectual Property I, Lp Method and apparatus for staged content analysis
US8694667B2 (en) 2011-01-05 2014-04-08 International Business Machines Corporation Video data filtering method and system
US9535450B2 (en) * 2011-07-17 2017-01-03 International Business Machines Corporation Synchronization of data streams with associated metadata streams using smallest sum of absolute differences between time indices of data events and metadata events
US10706096B2 (en) * 2011-08-18 2020-07-07 Apple Inc. Management of local and remote media items
EP2798595A4 (en) * 2011-12-28 2015-07-08 Intel Corp TARGETED ADVERTISING ON REAL-TIME SUBJECT LINKED TO MULTIMEDIA EXPERIENCES
US8996543B2 (en) 2012-01-24 2015-03-31 Arrabon Management Services, LLC Method and system for identifying and accessing multimedia content
US9026544B2 (en) 2012-01-24 2015-05-05 Arrabon Management Services, LLC Method and system for identifying and accessing multimedia content
US8965908B1 (en) 2012-01-24 2015-02-24 Arrabon Management Services Llc Methods and systems for identifying and accessing multimedia content
US9098510B2 (en) 2012-01-24 2015-08-04 Arrabon Management Services, LLC Methods and systems for identifying and accessing multimedia content
GB2511668A (en) * 2012-04-12 2014-09-10 Supercell Oy System and method for controlling technical processes
US20130279882A1 (en) 2012-04-23 2013-10-24 Apple Inc. Coding of Video and Audio with Initialization Fragments
US8972416B1 (en) * 2012-11-29 2015-03-03 Amazon Technologies, Inc. Management of content items
JP2015136057A (ja) * 2014-01-17 2015-07-27 ソニー株式会社 通信装置、通信データ生成方法、および通信データ処理方法
GB201415917D0 (en) * 2014-09-09 2014-10-22 Piksel Inc Automated compliance management
US20160149956A1 (en) * 2014-11-21 2016-05-26 Whip Networks, Inc. Media management and sharing system
US9866631B2 (en) * 2014-12-30 2018-01-09 TCL Research America Inc. System and method for sharing information among multiple devices
JP2016174241A (ja) * 2015-03-16 2016-09-29 ポップニート株式会社 コンテンツ処理装置、コンテンツ処理方法、およびプログラム
US11328590B2 (en) * 2015-10-29 2022-05-10 InterNetwork Media, LLC System and method for internet radio automatic content management
US20170295215A1 (en) * 2016-04-08 2017-10-12 Microsoft Technology Licensing, Llc Audience targeted filtering of content sections
US10349136B2 (en) 2017-03-22 2019-07-09 Opentv, Inc. User-initiated transitioning between media content versions
US11431836B2 (en) 2017-05-02 2022-08-30 Apple Inc. Methods and interfaces for initiating media playback
US10992795B2 (en) 2017-05-16 2021-04-27 Apple Inc. Methods and interfaces for home media control
US12526361B2 (en) 2017-05-16 2026-01-13 Apple Inc. Methods for outputting an audio output in accordance with a user being within a range of a device
CN111343060B (zh) 2017-05-16 2022-02-11 苹果公司 用于家庭媒体控制的方法和界面
US11205254B2 (en) 2017-08-30 2021-12-21 Pxlize, Llc System and method for identifying and obscuring objectionable content
US10694250B2 (en) 2018-08-30 2020-06-23 At&T Intellectual Property I, L.P. Audiovisual content screening for locked application programming interfaces
US10970029B2 (en) * 2018-10-15 2021-04-06 Symphony Communication Services Holdings Llc Dynamic user interface and module facilitating content sharing in a distributed computing environment
US11010121B2 (en) 2019-05-31 2021-05-18 Apple Inc. User interfaces for audio media control
US11620103B2 (en) 2019-05-31 2023-04-04 Apple Inc. User interfaces for audio media control
IL297807A (en) * 2020-06-15 2022-12-01 Netspark Ltd Real time local filtering of on-screen images
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU1104583A (en) * 1981-12-19 1983-06-30 Frederick William Chard Method and apparatus for editing the output of a television
US4750213A (en) * 1986-06-09 1988-06-07 Novak Albert P Method and system for editing unwanted program material from broadcast signals
US7054547B1 (en) * 1992-02-07 2006-05-30 Max Abecassis Disc having a segment code for prohibiting a play control function during a playing of a video segment
US5949471A (en) * 1993-07-29 1999-09-07 Gemstar Development Corporation Apparatus and method for improved parental control of television use
US5642477A (en) * 1994-09-22 1997-06-24 International Business Machines Corporation Method and apparatus for selectably retrieving and outputting digitally stored multimedia presentations with real-time non-interrupting, dynamically selectable introduction of output processing
US5778135A (en) * 1994-12-30 1998-07-07 International Business Machines Corporation Real-time edit control for video program material
US6675384B1 (en) * 1995-12-21 2004-01-06 Robert S. Block Method and apparatus for information labeling and control
US20030093790A1 (en) * 2000-03-28 2003-05-15 Logan James D. Audio and video program recording, editing and playback systems using metadata
US5995160A (en) * 1996-12-19 1999-11-30 Thomson Consumer Electronics, Inc. Video signal processing system providing independent image modification in a multi-image display
US6005603A (en) * 1998-05-15 1999-12-21 International Business Machines Corporation Control of a system for processing a stream of information based on information content
US6934759B2 (en) * 1999-05-26 2005-08-23 Enounce, Inc. Method and apparatus for user-time-alignment for broadcast works
US6351596B1 (en) * 2000-01-07 2002-02-26 Time Warner Entertainment Co, Lp Content control of broadcast programs
US20040261099A1 (en) * 2000-06-21 2004-12-23 Durden George A. Method for formulating, delivering and managing data concerning programming content and portions thereof
US6898799B1 (en) * 2000-10-23 2005-05-24 Clearplay, Inc. Multimedia content navigation and playback
US20060031870A1 (en) * 2000-10-23 2006-02-09 Jarman Matthew T Apparatus, system, and method for filtering objectionable portions of a multimedia presentation
US6927806B2 (en) * 2002-02-21 2005-08-09 Scientific-Atlanta, Inc. Systems, methods and apparatuses for minimizing subscriber-perceived digital video channel tuning delay
US20030192044A1 (en) * 2002-04-04 2003-10-09 Huntsman Robert Ames Content filtering system and method
JP2003333492A (ja) * 2002-05-13 2003-11-21 Kenwood Corp 番組の視聴・録画制御方法
US7360234B2 (en) * 2002-07-02 2008-04-15 Caption Tv, Inc. System, method, and computer program product for selective filtering of objectionable content from a program
US20050086069A1 (en) * 2003-07-15 2005-04-21 Kaleidescape, Inc. Separable presentation control rules with distinct control effects
CN1981281A (zh) * 2004-04-12 2007-06-13 克里尔普雷有限公司 用于过滤多媒体演示中不良部分的装置、系统和方法
KR100584166B1 (ko) * 2004-09-13 2006-05-26 엘지전자 주식회사 디지털 영상기기에서의 재생 제어장치 및 방법
US8041190B2 (en) * 2004-12-15 2011-10-18 Sony Corporation System and method for the creation, synchronization and delivery of alternate content
US20060130119A1 (en) * 2004-12-15 2006-06-15 Candelore Brant L Advanced parental control for digital content
CN101199146B (zh) * 2005-04-14 2012-03-14 汤姆森特许公司 实时自动替换来自音频信号的不良音频内容的方法,装置和系统
US8386621B2 (en) * 2010-03-12 2013-02-26 Netflix, Inc. Parallel streaming

Also Published As

Publication number Publication date
US9015571B2 (en) 2015-04-21
US20150229689A1 (en) 2015-08-13
US20230216903A1 (en) 2023-07-06
US20070186235A1 (en) 2007-08-09
MX2008009754A (es) 2008-10-09
KR20080100354A (ko) 2008-11-17
AU2007238457A1 (en) 2007-10-25
EP2016769A2 (en) 2009-01-21
US20190141104A1 (en) 2019-05-09
WO2007120963A2 (en) 2007-10-25
EP2016769A4 (en) 2010-01-06
WO2007120963A3 (en) 2008-02-14
US11616819B2 (en) 2023-03-28
AU2007238457A8 (en) 2008-10-23
JP2009527137A (ja) 2009-07-23

Similar Documents

Publication Publication Date Title
US20230216903A1 (en) Synchronizing filter metadata with a multimedia presentation
US10869102B2 (en) Systems and methods for providing a multi-perspective video display
CN101427579B (zh) 媒体流的时移表现
US11930250B2 (en) Video assets having associated graphical descriptor data
US9578366B2 (en) Companion device services based on the generation and display of visual codes on a display device
US8826346B1 (en) Methods of implementing trickplay
US20030095790A1 (en) Methods and apparatus for generating navigation information on the fly
US20090070850A1 (en) System and method for searching video signals
AU2001266732B2 (en) System and method for providing multi-perspective instant replay
CN101438585A (zh) 同步过滤程序元数据与多媒体放映

Legal Events

Date Code Title Description
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE 5A. E 6A. ANUIDADE(S).

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: REFERENTE AO DESPACHO 8.6 PUBLICADO NA RPI 2223 DE 13/08/2013.

B15K Others concerning applications: alteration of classification

Ipc: H04N 7/16 (2011.01), G06F 17/00 (2006.01)