ITTO20100905A1 - Metodo di elaborazione di un contenuto video tridimensionale e relativo apparato - Google Patents

Metodo di elaborazione di un contenuto video tridimensionale e relativo apparato Download PDF

Info

Publication number
ITTO20100905A1
ITTO20100905A1 IT000905A ITTO20100905A ITTO20100905A1 IT TO20100905 A1 ITTO20100905 A1 IT TO20100905A1 IT 000905 A IT000905 A IT 000905A IT TO20100905 A ITTO20100905 A IT TO20100905A IT TO20100905 A1 ITTO20100905 A1 IT TO20100905A1
Authority
IT
Italy
Prior art keywords
video
configuration
video stream
user
dimensional
Prior art date
Application number
IT000905A
Other languages
English (en)
Inventor
Giovanni Ballocca
Saverio Celia
Amato Paolo D
Alessio Milanesio
Original Assignee
Sisvel Technology Srl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sisvel Technology Srl filed Critical Sisvel Technology Srl
Priority to ITTO2010A000905A priority Critical patent/IT1402995B1/it
Priority to CN201180060940.4A priority patent/CN103262550B/zh
Priority to KR1020137015003A priority patent/KR20130107329A/ko
Priority to PCT/IB2011/055006 priority patent/WO2012063213A1/en
Priority to ES11805192.9T priority patent/ES2581878T3/es
Priority to EP11805192.9A priority patent/EP2638698B1/en
Priority to TW100141339A priority patent/TWI504234B/zh
Publication of ITTO20100905A1 publication Critical patent/ITTO20100905A1/it
Application granted granted Critical
Publication of IT1402995B1 publication Critical patent/IT1402995B1/it

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/007Aspects relating to detection of stereoscopic image format, e.g. for adaptation to the display format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

Descrizione dell'Invenzione Industriale dal titolo:
“METODO DI ELABORAZIONE DI UN CONTENUTO VIDEO TRIDIMENSIONALE E RELATIVO APPARATOâ€
DESCRIZIONE
La presente invenzione riguarda un metodo implementabile nel campo dell’elaborazione di flussi di immagini video in grado di produrre una visione tridimensionale.
Più in particolare, l’invenzione si riferisce ad un metodo per la selezione e l’immissione da parte di un utente di dati necessari alla corretta presentazione su uno schermo di un flusso di immagini video ad effetto tridimensionale.
La percezione tridimensionale della realtà nei sistemi di tipo stereoscopico ed auto-stereoscopico si basa fondamentalmente sul fenomeno della visione binoculare. Per sfruttare l’effetto tridimensionale introdotto dalla visione binoculare à ̈ necessario fornire all’occhio sinistro e all’occhio destro dell’utente le corrispondenti immagini sinistra e destra. Per un contenuto video tridimensionale di tipo stereoscopico à ̈ necessario quindi predisporre almeno due sequenze di immagini, di cui almeno una dedicata alle immagini sinistre ed almeno una a quelle destre.
Queste immagini destra e sinistra vengono opportunamente trasformate in modo da essere visualizzate direttamente su uno schermo, o indirettamente su uno schermo tramite un proiettore, secondo diverse possibili modalità di riproduzione stereoscopica.
Le modalità di riproduzione stereoscopica più diffuse sono quelle note come “line interleave†, o interallacciamento di riga, e “frame alternation†, ovvero ad alternanza di quadro.
Nella modalità di riproduzione ad interallacciamento di riga le righe delle immagini sinistra e destra vengono rappresentate in modo alternato su uno schermo avente superficie a righe polarizzate in modo differente, per esempio a polarizzazione circolare destrorsa e sinistrorsa. Ad uno spettatore che indossa lenti polarizzate anch’esse in modo opportuno rispetto alle righe dello schermo giungono all’occhio sinistro le sole righe dell’immagine sinistra e all’occhio destro le sole righe dell’immagine destra, permettendo al cervello di ottenere l’effetto di tridimensionalità.
Nella modalità di riproduzione ad alternanza di quadro, l’apparato di visualizzazione, o un processore video ad esso associato, deve provvedere ad estrarre le immagini sinistra e destra dal flusso video entrante ed a visualizzarle in modo alternato su uno schermo. Opportuni occhiali ad otturazione indossati dallo spettatore lasciano pervenire all’occhio destro dello spettatore solo le immagini destre e a quello sinistro le sole immagini sinistre, per cui il cervello può generare l’effetto di tridimensionalità presente nella normale visione umana.
In ogni caso à ̈ necessario che l’apparato di riproduzione o di visualizzazione conosca la configurazione del flusso video in arrivo, ovvero la configurazione di trasporto con la quale ogni frame o immagine del flusso atta ad essere rappresentata in tre dimensioni à ̈ stata costruita.
Ad esempio, per generare un effetto tridimensionale in modo corretto, il dispositivo di riproduzione deve sapere dove si trovano nel flusso video l’immagine destra e quella sinistra di una data scena, se esse sono state sotto campionate ed in che modo. Per esempio, nel caso di uno schermo funzionante ad alternanza di quadro, sarà necessaria una diversa procedura per visualizzare in modo corretto un flusso video in modalità tridimensionale a seconda della configurazione del flusso video da riprodurre.
Tipicamente il processore video di un apparato di elaborazione video à ̈ programmato in fabbrica per convertire, secondo modalità prestabilite, il flusso video decodificato in un segnale video atto ad essere riprodotto su uno schermo facente parte di un apparato di visualizzazione ad esso associato. Dette modalità prestabilite possono variare a seconda delle configurazioni di trasporto del flusso video che saranno quindi in generale diverse dalla configurazione che deve essere assunta dal segnale video prodotto per ottenere l’effetto della tridimensionalità, con l’aiuto o meno dei visori indossati dallo spettatore. Ovviamente quest’ultimo segnale dipende unicamente dal tipo di apparato di visualizzazione; in ogni caso il processo di conversione, e quindi di visualizzazione, non può avvenire in modo corretto senza conoscere la configurazione assunta dal flusso video da riprodurre. Nel caso in cui essa non sia nota, bisogna comunque comunicare in qualche modo al processore video qual à ̈ l’ipotetica configurazione del flusso di trasporto da riprodurre su un associato apparato di visualizzazione.
In altri tipi di sistemi stereoscopici, ad esempio, insieme alle immagini vengono trasmesse opportune mappe di profondità che, combinate prima della riproduzione alle immagini a cui si riferiscono, producono a video un effetto tridimensionale. Anche nei sistemi di tipo auto-stereoscopico à ̈ quindi necessario trasmettere almeno una prima sequenza video per le immagini ed una seconda sequenza in cui sono inserite le mappe di profondità.
Tuttavia, poiché gli attuali sistemi di compressione, trasporto e riproduzione di contenuti video prevedono un solo flusso video bidimensionale, le immagini o i dati di un contenuto tridimensionale devono essere inseriti in un unico flusso di frame video bidimensionali, se si vuole mantenere la retrocompatibilità con tali sistemi. Sono state pertanto sviluppate diverse tecniche per raggiungere tale scopo che sono classificabili secondo due distinte tipologie: “frame compatible†e “service compatible†.
Le tecniche “frame compatible†comportano che un generico dispositivo atto a riprodurre un determinato flusso bidimensionale à ̈ in grado di visualizzare su un associato dispositivo di visualizzazione le immagini di un flusso video di tipo tridimensionale senza dover subire alcuna modificazione software o hardware, con la sola perdita dell’effetto di tridimensionalità per il quale occorre un sistema di conversione delle immagini del flusso al particolare dispositivo di visualizzazione, nonché un apparato di visualizzazione in grado di effettuare tale conversione. In particolare, à ̈ possibile visualizzare su un dispositivo di visualizzazione il flusso di immagini sinistre oppure destre.
Fanno ad esempio parte di questa categoria di flussi retrocompatibili le configurazioni “Side by Side†, “Top-bottom†ed “a spezzettamento†, in cui una delle immagini, sinistra o destra, viene allocata all’interno del frame senza subire spezzettamenti, mentre l’altra viene scomposta in varie parti che vengono disposte, con o senza rotazioni, all’interno dello spazio non occupato dalla prima immagine.
Le tecniche di tipo “frame compatible†si differenziano ulteriormente per le tecniche di alloggiamento delle immagini che si distinguono tra loro in base a parametri quali, ad esempio, la posizione, la dimensione, la rotazione, la decimazione o sottocampionamento, la disposizione e la frequenza di trasferimento delle varie immagini all’interno del flusso video.
Nei flussi video costruiti secondo le tecniche “service compatible†non à ̈ invece possibile visualizzare su un generico dispositivo atto a riprodurre un determinato flusso video entrambe le immagini stereoscopiche presenti nel flusso video. In questo tipo di flussi video una delle due immagini viene rappresentata come differenza o anche disparità dall’altra (per esempio come spostamento del punto di vista, come mappa di profondità, eccetera) e i dati relativi a tale differenza vengono opportunamente codificati e inseriti nel flusso video come metadati, ovvero come dati non designati a contenere informazione visiva immediatamente rappresentabile. Un dispositivo atto a riprodurre un determinato flusso video à ̈ comunque in grado di interpretare e riprodurre correttamente una delle due immagini di questo tipo di flussi video retrocompatibili, mentre i dati relativi all’altra immagine non sono correttamente interpretabili e non possono quindi essere utilizzati per la visualizzazione dell’altra immagine stereoscopica, senza alterarne la struttura e il funzionamento. Fanno per esempio parte di questa categoria di flussi retrocompatibili le configurazioni “L+depth†e “2D+Delta†.
La varietà di metodi e tecniche di rappresentazione e visualizzazione di contenuti tridimensionali fin qui prospettata comporta quindi la presenza di numerose configurazioni di trasporto dei contenuti video tridimensionali.
Attualmente non esiste una tecnica o uno standard di riferimento per trasmettere e visualizzare un flusso video tridimensionale che sia effettivamente utilizzabile su qualsiasi sistema di produzione, trasporto, distribuzione e riproduzione. Inoltre non vi à ̈ uno standard di riferimento per la segnalazione all’interno del flusso video della configurazione di trasporto adottata per produrre l’effetto tridimensionale. Tale segnalazione à ̈ utilizzabile dall’apparato di visualizzazione per interpretare correttamente il flusso video da visualizzare.
Inoltre gli apparati riproduttori e/o ricevitori di flussi video tridimensionali sono forniti di numerose interfacce di interconnessione, ad esempio DVI-D, DVI-I, HDMI, Display Port, USB, WiMAX, Wi-Fi, Wireless Gigabit Alliance, ed ovviamente possono essere dotati direttamente di sintonizzatore, di lettore Bluray o DVD e di memorie interne a stato solido oppure ottiche. I contenuti tridimensionali sono quindi forniti all’apparato riproduttore nelle più svariate forme, quali ad esempio un contenuto memorizzato su supporto Blu-ray o DVD, un file video scaricato da Internet tramite PC, o un canale di broadcast (da satellite, via cavo e via terrestre) nel caso in cui un contenuto provenga direttamente da un tuner incorporato nell’apparato riproduttore e/o ricevitore. Ciascuno di questi contenuti o flussi video può adottare una diversa configurazione di trasporto del contenuto tridimensionale.
Nel presente contesto con il termine flusso video si intende una serie di frame video contenenti ciascuno una o più immagini decompresse o dati video decompressi pronti per essere utilizzati da un apparato di visualizzazione. Le immagini e i dati video decompressi contenuti in detti frame hanno una propria configurazione di trasporto che deve essere nota all’apparato visualizzatore per essere correttamente riprodotti. Ciò non significa che tali flussi non possano in generale comprendere anche altre informazioni o contenuti diversi da immagini video, quali per esempio un contributo audio, dei dati associati o meno al contenuto video o audio (teletext, EPG, segnalazione, metadati, e così via). In tal caso sarà necessario estrarre o separare il contenuto video dal resto dei contenuti informativi presenti nel flusso.
Lo scenario tecnologico appena descritto à ̈ quindi estremamente complesso e variegato visti il grado di complessità raggiunto dagli apparati di riproduzione e/o ricevitori, le numerose possibili configurazioni di trasporto in continua evoluzione, ed il fatto che non siano presenti standard di riferimento per la segnalazione di contenuti tridimensionali. Può quindi accadere che la configurazione di trasporto del flusso video tridimensionale non sia correttamente segnalata o non sia segnalata affatto. Esempi concreti di questa situazione si presentano nel caso di contenuti video trasmessi mediante sistemi di trasporto di segnali radiotelevisivi in cui i dati di segnalazione del contenuto tridimensionale non siano corretti oppure non siano presenti, poiché gli apparati impiegati nella compressione e trasporto dei contenuti tridimensionali non sono in grado di inserirli o non dispongono della necessaria automazione per aggiornare periodicamente i dati di segnalazione al contenuto tridimensionale trasmesso.
Ad esempio, potrebbe accadere che un primo servizio televisivo “RaiUno†contenga contenuti tridimensionali la cui configurazione di trasporto non venga segnalata. Potrebbe altresì accadere che un dato programma trasmesso all’interno del servizio “RaiUno†utilizzi contenuti tridimensionali configurati secondo la tecnica “side by side†correttamente segnalati da un campo indicante tale configurazione, mentre il programma successivo sempre appartenente allo stesso servizio contenga contenuti aventi una configurazione di tipo “top-bottom†, ma il campo di segnalazione relativo al nuovo programma contenga l’indicazione “side by side†, perché non aggiornato rispetto al programma precedente, e che quindi il contenuto tridimensionale “top-bottom†sia erroneamente segnalato come “side by side†, impedendo quindi una corretta identificazione e conseguentemente una corretta visualizzazione del programma stesso.
Analoghe considerazioni valgono nel caso di contenuti tridimensionali memorizzati su supporti di memoria: tali contenuti possono essere ottenuti mediante codificatori che non sono in grado di introdurre la segnalazione della configurazione di trasporto del flusso video tridimensionale compresso. Inoltre contenuti tridimensionali originali aventi una determinata configurazione e segnalati correttamente possono essere stati riconvertiti o transcodificati per qualsiasi motivo in contenuti tridimensionali aventi una configurazione differente dall’originale mediante un convertitore non in grado di trasportare del tutto o convertire in modo corretto il campo di segnalazione nella nuova configurazione. Bisogna infine tenere conto del fatto che l’evoluzione delle tecniche di configurazione à ̈ assai rapida e variegata, e che quindi gli standard di interfacciamento delle apparecchiature elettroniche di riproduzione e di ricezione di contenuti tridimensionali (standard quali, ad esempio, l’†HDMI†) non contengono o non sono aggiornati ad alcune delle configurazioni di trasporto usate sul mercato.
Sono noti nell’arte meccanismi di riconoscimento automatico della configurazione di flusso video che si basano sul riconoscimento di una apposita segnalazione inserita nel flusso video. Tuttavia, questi meccanismi falliscono quando la segnalazione à ̈ assente o errata, per cui avviene che l’apparato di riproduzione non sia in grado di riprodurre correttamente il flusso video tridimensionale dal momento che non à ̈ presente la segnalazione della configurazione di trasporto adottata per il contenuto da visualizzare o perché tale segnalazione à ̈ errata. In questi casi l’utente deve quindi immettere manualmente i dati relativi alla configurazione di trasporto del contenuto tridimensionale.
Esistono in commercio apparati di riproduzione di contenuti tridimensionali dotati di apposite interfacce grafiche o di selettori posti su unità di comando tramite i quali l’utente può selezionare una specifica configurazione di trasporto per il flusso video tridimensionale ricevuto. Tuttavia, come già descritto in precedenza, le possibili configurazioni di trasporto che un flusso video può adottare sono numerose, determinando quindi una lunga lista di diverse possibili configurazioni di trasporto fra cui l’utente deve scegliere quella corretta. Risulta quindi laborioso, da parte dell’utente, selezionare ad una ad una le possibili configurazioni da tale lista alla ricerca della configurazione corretta. Questa operazione di selezione comporta una certa perdita di tempo dato che per ciascuna configurazione selezionata l’utente deve comunque verificare, tramite l’apparato di visualizzazione, che alla configurazione selezionata corrisponda la corretta riproduzione del contenuto tridimensionale. Inoltre un ulteriore svantaggio di questi apparati di riproduzione risiede nel fatto che non sempre l’utente à ̈ in grado di verificare che la configurazione scelta ed impostata sia quella corretta, poiché può succedere che due o più configurazioni di trasporto diverse producano a video visualizzazioni tridimensionali molto simili fra loro, aventi contenuti difficilmente intellegibili, le cui differenze sono difficilmente apprezzabili dall’utente. Tuttavia tali differenze, oltre che a determinare una visualizzazione tridimensionale comunque scorretta, possono provocare nel tempo sensazioni di disagio per l’utente stesso.
Scopo della presente invenzione à ̈ pertanto quello di indicare un metodo di elaborazione di un contenuto tridimensionale che permetta ad un utente di selezionare la corretta configurazione di trasporto del contenuto stesso al fine di poterlo visualizzare su un apparato di riproduzione.
Un ulteriore scopo della presente invenzione à ̈ quello di indicare un metodo di elaborazione di un contenuto tridimensionale che riduca sensibilmente i tempi occorrenti per individuare la corretta configurazione di trasporto del contenuto stesso.
Un ulteriore scopo della presente invenzione à ̈ quello di indicare un metodo di elaborazione di un contenuto tridimensionale che diminuisca la probabilità di selezionare una configurazione di trasporto errata, tale da impedirne la corretta visualizzazione su un apparato di riproduzione.
In sintesi, il metodo oggetto della presente invenzione prevede di generare un segnale di visualizzazione per visualizzare su uno schermo di un apparato di visualizzazione, o su una sua relativa porzione, almeno un singolo frame di un flusso video avente una determinata configurazione di trasporto, detta configurazione essendo atta a produrre un effetto tridimensionale.
Secondo il metodo oggetto della presente invenzione, il singolo frame viene visualizzato nella sua forma bidimensionale. In questo modo, in base al contenuto visualizzato sullo schermo dell’apparato di visualizzazione l’utente può selezionare la corretta configurazione di trasporto senza particolare difficoltà.
Ad esempio nel caso di un flusso video tridimensionale avente una configurazione di trasporto del tipo “side by side†, vengono visualizzate sullo schermo due immagini, una occupante la porzione sinistra e l’altra la porzione destra del frame visualizzato in modalità bidimensionale. In questo modo l’utente ha un’immediata percezione della configurazione di trasporto utilizzata per quel flusso video tridimensionale.
Ulteriori caratteristiche e scopi dell’invenzione sono oggetto delle allegate rivendicazioni che si intendono parte integrante della presente descrizione, i cui insegnamenti risulteranno maggiormente chiari dalla descrizione dettagliata di una forma preferita di realizzazione fatta a titolo esemplificativo, ma non limitativo, con particolare riferimento alle Figure in cui:
- le Figure 1 e 2 rappresentano rispettivamente una prima ed una seconda forma di realizzazione di uno schema a blocchi di un sistema di elaborazione di contenuti video tridimensionali ed anche bidimensionali;
- le Figure 3a-3f e 4a-4f illustrano esempi di rappresentazioni grafiche riproducibili su uno schermo di un apparato di visualizzazione associato ad un apparato che implementa un metodo secondo la presente invenzione;
- le Figure 5, 6 e 7 rappresentano tre possibili forme di realizzazione di menù interattivi per selezionare una configurazione di trasporto;
- le Figure 8a e 8b rappresentano due ulteriori forme di realizzazione possibili di una visualizzazione su uno schermo di un apparato di visualizzazione associato al dispositivo secondo la presente invenzione;
- le Figure 9a e 9b rappresentano rispettivamente la parte superiore e la parte inferiore di una tabella relativa a configurazioni di trasporto di un flusso video tridimensionale di diverso livello gerarchico.
- le Figure 10a e 10b rappresentano rispettivamente la parte superiore e la parte inferiore di un diagramma a blocchi relativo alle selezioni di configurazione di trasporto di diverso livello gerarchico.
Sia chiaro che le schermate illustrate in alcune di dette figure non rappresentano una riproduzione fedele e accurata di un dispositivo reale, bensì intendono fornire una idea schematica e approssimativa, ma del tutto chiara e immediatamente comprensibile all’esperto del ramo, di possibili forme implementative del metodo e del sistema oggetto della presente invenzione. Con riferimento alla Figura 1, viene indicato un sistema di elaborazione video 100 di contenuti tridimensionali ed anche bidimensionali che comprende:
- una o più sorgenti S1,… Sndi flussi video F1, F2, …, FNtridimensionali ed anche bidimensionali, che possono comprendere: unità di ricezione per ricevere trasmissioni televisive di tipo broadcast via cavo o etere; lettori di dischi Blu-ray o DVD; lettori di memorie utilizzanti un’interfaccia USB, memorie a stato solido o di tipo ottico; porte di interfaccia per siffatti dispositivi;
- un decodificatore 1 che acquisisce e decodifica i dati forniti da una generica sorgente Si;
- un processore di flusso video 2 atto ad inserire interfacce grafiche nel flusso video e ad elaborarlo in modo che possa essere trasportato su una interfaccia di scambio dati 3 che trasporta un flusso video da visualizzare;
- un modulo di controllo 5 atto controllare l’attività del decodificatore 1, del processore di flusso video 2 ed a ricevere segnali di comando da una unità di comando di utente 6 che fornisce in uscita segnali al modulo di controllo 5 in risposta ad una operazione attuata da un utente: l’unità di comando di utente 6 può essere implementata in vari modi come ad esempio una pluralità di tasti, un telecomando e così via, in modo da permettere ad un utente di selezionare funzioni ed impartire comandi.
Il sistema di elaborazione video 100 può inoltre comprendere un apparato di visualizzazione 4, comprendente ad esempio uno schermo, un proiettore, e così via. In ogni caso, ai fini della presente invenzione, l’apparato di visualizzazione 4 può anche non essere incorporato nel sistema di elaborazione video 100, ma essere associabile ad esso mediante mezzi di collegamento qualsiasi di tipo noto, sia via cavo (per esempio SCART, HDMI, DVI, display port, RCA-Cinch) che wireless. L’insegnamento della presente invenzione à ̈ attuabile a prescindere dalla presenza o meno dell’apparato di visualizzazione 4.
Il sistema di elaborazione 100 può ad esempio essere rappresentato da un televisore, un set-top box, un videoregistratore, un telefono cellulare, oppure un riproduttore portatile multimediale, dotati della capacità di acquisire e riprodurre contenuti video tridimensionali.
La generica sorgente Siacquisisce, ad esempio da un supporto Blu-ray/DVD, da un segnale di trasmissione broadcast, da una memoria USB o da un hard disk interno, un contenuto video tridimensionale e lo invia sotto forma di un flusso di trasporto Fial decodificatore 1.
Nel presente contesto si intende con il termine flusso di trasporto un flusso di informazioni comprendente i dati di un flusso video, compresso o decompresso, e una serie di metadati i quali, fra le altre informazioni, contengono anche quelle utili ad estrarre e a rappresentare i singoli frame componenti il flusso video, come ad esempio la risoluzione dei singoli frame e le informazioni per decomprimerli.
Ciascuna delle sorgenti S1, S2, …, Snà ̈ in grado di fornire un corrispondente flusso di trasporto F1, F2, …, Fn. Di seguito verrà preso in considerazione un generico flusso di trasporto Fi. Usualmente questi flussi di trasporto Finon vengono addotti contemporaneamente al decodificatore 1: à ̈ infatti presente un dispositivo multiplexer o selettore di ingresso (non rappresentato nelle Figure 1 e 2) che permette il passaggio di un solo flusso video Fialla volta (oppure tanti flussi video Fiquanti sono quelli che il decodificatore 1 à ̈ in grado di elaborare contemporaneamente).
Quale flusso video venga addotto al decodificatore 1, dipende in generale dalle regolazioni effettuate dall’utente e dalle impostazioni correntemente attive, ovvero dalla porta di ingresso selezionata (per esempio USB o HDMI) e/o dal tipo di segnale selezionato (per esempio segnale televisivo DVB-T o T2, DVB-S o S2, DVB-C o C2, ATSC, ISDB-T) che possono provenire da unità di ricezione ed elaborazione diverse.
Il decodificatore 1 Ã ̈ in grado di decomprimere i dati relativi al flusso video compresso contenuti nel generico flusso di trasporto Fi, nel caso tale flusso video sia codificato, o comunque di estrarre dal generico flusso di trasporto Fiun flusso video 7 e di inviare in uscita detto flusso video 7 al processore di flusso video 2.
All’uscita del decodificatore 1 si ottiene il flusso video 7 contenente i frame impacchettati nel flusso di trasporto Fi, in cui le immagini assumono una particolare configurazione all’interno del flusso video 7 in modo da produrre sullo schermo una visualizzazione avente lo scopo di creare un effetto di tipo tridimensionale.
Possibili configurazioni di trasporto delle immagini in un flusso video 7 atte a produrre un effetto tridimensionale sono ad esempio: “top-bottom†, “field alternative†, “line alternative†, “side by side†, “column alternative†, “a spezzettamento†, “L depth†, “L depth graphics graphics – depth†, “2D+ Delta†.
Nel caso in cui tale configurazione di trasporto sia segnalata (non necessariamente in modo corretto) all’interno del flusso di trasporto Fi, il decodificatore 1 invia il valore segnalato di configurazione di trasporto al modulo di controllo 5. Il flusso video 7 viene quindi inviato al processore di flusso video 2. Il modulo di controllo 5 controlla l’attività del processore di flusso video 2 tramite un segnale di controllo 8. A seconda dei valori assunti dal segnale di controllo 8, il processore di flusso video 2 opera in modalità di funzionamento diverse. In via addizionale o alternativa può essere presente nel dispositivo un sistema di calcolo della configurazione di trasporto in base al contenuto video del flusso di trasporto Fiche viene comunicato al decodificatore 1.
Secondo una prima modalità di funzionamento, o modalità di visualizzazione di rendering o resa tridimensionale, il processore di flusso video 2 effettua quella conversione ed adattamento del flusso video 7 che rende atto quest’ultimo ad essere riprodotto su uno specifico apparato di visualizzazione 4 ad esso associato secondo modalità predeterminate, ovvero programmate a tale scopo, in modo da creare un effetto di tridimensionalità su uno schermo dell’apparato di visualizzazione 4 per uno spettatore dotato, all’occorrenza, di appositi visori. Queste operazioni di conversione ed adattamento generano un primo segnale video 13 di interfaccia su cui il processore video 2 può, addizionalmente, in collaborazione o meno con il modulo di controllo 5, effettuare delle operazioni di adattamento per il trasporto sull’interfaccia dati 3 inserendo alcuni metadati utili alla visualizzazione del flusso video 7 sull’apparato di visualizzazione 4. In detti metadati viene inserito anche il valore segnalato di configurazione di trasporto che viene inviato al processore di flusso video 2 tramite il modulo di controllo 5. L’interfaccia di scambio dati 3, a sua volta, trasferisce il primo segnale video 13 di interfaccia all’apparato di visualizzazione 4.
In una seconda modalità di funzionamento, o modalità di visualizzazione di frame, il processore di flusso video 2 elabora i contenuti del flusso video 7 in modo da ottenere un secondo segnale video 9 di interfaccia che può essere riprodotto dall’apparato di visualizzazione 4, per cui sono rese direttamente visibili, almeno parzialmente, le immagini contenute nel flusso video 7 all’uscita del decodificatore 1. Il segnale video 9 viene inviato, tramite l’interfaccia di scambio dati 3, all’apparato di visualizzazione 4. L’interfaccia di scambio dati 3, in caso di apparato di visualizzazione 4 esterno, può essere ad esempio di tipo HDMI o display port. Nel caso invece di apparato di visualizzazione 4 incorporato nel sistema di elaborazione video 100, essa può assumere la forma di un bus dati interno al sistema.
Si può prevedere che l’utente, dopo aver ad esempio rilevato una errata visualizzazione (tridimensionale o bidimensionale) del contenuto video 3D, oppure semplicemente per controllare la corretta selezione della configurazione di trasporto di tale contenuto, invii tramite l’unità di comando 6 un segnale di comando 10 di richiesta di verifica della configurazione di trasporto del contenuto video tridimensionale attualmente fornito in uscita dal sistema di elaborazione video 100.
In risposta a tale segnale di comando 10 il modulo di controllo 5, tramite il segnale di controllo 8, provoca il passaggio del processore di flusso video 2 dalla prima modalità di funzionamento alla seconda modalità di funzionamento sopra descritte.
In via alternativa o addizionale si può prevedere che tale passaggio avvenga qualora il sistema di elaborazione video 100 sia dotato di un sistema di riconoscimento della configurazione di trasporto che non riesca, o ritenga di non essere riuscito, ad individuare la configurazione di trasporto del flusso Fi di ingresso da riprodurre su un associato apparato di visualizzazione 4. Nel caso di un sistema di riconoscimento in grado di estrarre ed interpretare dal flusso video 7, tramite un apposito metadato, la segnalazione relativa a tale configurazione, la mancata individuazione della configurazione di trasporto può essere dovuta per esempio alla mancanza di tale segnalazione o a una segnalazione ambigua o errata. Nel caso di un sistema di elaborazione video 100 dotato di un sistema di riconoscimento basato sull’analisi delle immagini contenute nel flusso video 7, tale mancata individuazione può essere dovuta, per esempio, alla loro eccessiva complicatezza o alla loro estrema variabilità o instabilità. In un passaggio di questo tipo à ̈ il modulo di controllo 5 che, rilevata l’impossibilità di riconoscere la configurazione, emette il segnale di controllo 8 al processore video 2. È ovviamente possibile fare in modo che una o entrambe le due possibili modalità di attivazione del segnale di controllo 8 e della conseguente visualizzazione di frame possano essere attivate in fabbrica ed eventualmente disattivabili, attivabili o riattivabili dall’utente.
Nella seconda modalità di funzionamento si ottiene in uscita dal processore di flusso video 2 un segnale video 9 atto a visualizzare sullo schermo dell’apparato di visualizzazione 4, o in una parte di tale schermo, l’immagine o le immagini video o le immagini dati contenute in un singolo frame video appartenente al flusso video 7 attualmente selezionato per essere visualizzato, mantenendo la disposizione e il contenuto che queste immagini presentano all’interno del singolo frame.
Questo risultato può per esempio essere ottenuto operando in modo che il processore video 2 e l’apparato di visualizzazione 4 funzionino in modo che il flusso video 7 sia riprodotto in modalità bidimensionale, per esempio senza effettuare alcun trattamento per ottenere una riproduzione tridimensionale, oppure che venga effettuata una operazione per cui tale visualizzazione di frame venga riprodotta in modo bidimensionale, ovvero piatta, con profondità nulla.
Il segnale video 9 viene quindi fornito tramite l’interfaccia di scambio dati 3 all’apparato di visualizzazione 4. La disposizione ed il contenuto stesso di questa o queste immagini fornisce all’utente una chiara indicazione della configurazione di trasporto adottata dal contenuto tridimensionale attualmente selezionato. Per meglio chiarire il genere di informazioni che una visualizzazione di questo tipo può fornire all’utente, vengono nel seguito illustrati alcuni esempi.
Nel seguito della descrizione un generico insieme di pixel all’interno di un frame dedicato a rappresentare dati relativi ad una immagine video, così come può essere ad esempio la mappa di profondità di una immagine, verrà genericamente indicato con il termine immagine dati per indicare che si tratta di informazione video da cui si può calcolare indirettamente il contenuto video vero e proprio dell’immagine stereoscopica di partenza.
Nel caso in cui venga visualizzato su uno schermo 30 di un apparato di visualizzazione 4, in risposta al segnale di comando 10, una visualizzazione del tipo di quella raffigurata in Figura 3a o 3b comprendente due immagini, una nella porzione sinistra 32 ed una nella porzione destra 33 del frame video 31, à ̈ evidente per l’utente che il contenuto tridimensionale attualmente riprodotto adotta una configurazione di trasporto di tipo “side by side†, essendo le due immagini affiancate.
In Figura 3b viene illustrato il caso in cui la visualizzazione di frame 31 occupa solo parzialmente l’area visibile dello schermo 30.
Nelle Figure 3c e 3d viene illustrato il caso in cui all’interno del singolo frame sono inserite due immagini, per cui la visualizzazione di frame 31 comprende un’immagine nella porzione alta 35 ed una nella porzione bassa 36 del frame video 34, ed à ̈ quindi evidente che la configurazione di trasporto adottata dal contenuto tridimensionale attualmente selezionato à ̈ di tipo “Top bottom†. La Figura 3d illustra il caso in cui la visualizzazione di frame 31 occupa solo parzialmente l’area visibile dello schermo 30.
Infine nell’esempio schematicamente illustrato nelle Figure 3e e 3f, nella porzione sinistra 37 della visualizzazione di frame 31 viene rappresentata un’immagine video, mentre nella porzione destra 38 un’immagine dati consistente in una mappa di profondità: in questo caso il contenuto video tridimensionale riprodotto correntemente adotta una configurazione di tipo “L+depth†. Ciò che à ̈ importante per l’utente, soprattutto per un utente non esperto, à ̈ individuare in generale il tipo e/o la disposizione delle immagini inserite all’interno del singolo frame video.
Ovviamente la visualizzazione di frame può essere realizzata in diverse forme grafiche. Ad esempio, essa può occupare l’intero schermo 30 dell’apparato di visualizzazione 4, così come illustrato nelle Figure 3a, 3c e 3e, oppure soltanto una parte, così come illustrato nelle Figure 3b, 3d e 3f. In quest’ultimo caso si può prevedere che la parte restante dello schermo 30 sia dedicata a visualizzare il contenuto video tridimensionale oppure a rappresentare dati o interfacce grafiche che riguardano tale contenuto. Inoltre la porzione dedicata alla visualizzazione di frame 31 può essere visualizzata contemporaneamente al corrispondente contenuto video tridimensionale risultante in una porzione disgiunta oppure sovrimpressa, vuoi in trasparenza vuoi in modo opaco, rispetto a tale contenuto. In tal caso il processore video 2 potrebbe, per esempio, occuparsi di comporre il segnale video 9 di interfaccia combinando in modo opportuno il riquadro contenente la visualizzazione di frame nel frame composito che contiene anche la visualizzazione di rendering ed eventuali altre porzioni di immagini da visualizzare nella stessa schermata (per esempio menù a tendina, sovrimpressioni e/o riquadri contenenti elementi grafici o alfanumerici).
Può accadere che la visualizzazione del contenuto di un singolo frame non sia sufficiente per verificare la corretta configurazione adottata dal contenuto tridimensionale; in questo caso à ̈ quindi opportuno adottare una implementazione alternativa, come quella illustrata in Figura 2. Secondo questa forma di realizzazione del sistema di elaborazione video 100, à ̈ possibile visualizzare sullo schermo 30 dell’apparato di visualizzazione 4 anche il contenuto dei frame immediatamente successivi al frame attualmente visualizzato. Ogni qual volta il modulo di controllo 5 riceve il segnale di comando 10 di richiesta di visualizzazione frame, esso attiva un buffer 11 che immagazzina al suo interno una successione predeterminata di frame. Il numero di frame immagazzinato può essere deciso in sede di fabbricazione del sistema di elaborazione video 100 o anche tramite apposita regolazione da parte dell’utente. Il processore di flusso video 2 à ̈ collegato al buffer 11 tramite una linea 14 e riceve i frame in esso memorizzati. Il contenuto del buffer 11 può essere utilizzato dal processore di flusso video 2 per generare un secondo segnale video 9 di interfaccia realizzato secondo diverse opzioni possibili.
Una prima opzione consiste in un secondo segnale video 9 atto a mostrare su un associato apparato di visualizzazione 4 la riproduzione di un primo frame. L’utente, mediante un secondo segnale di comando 10 di richiesta di visualizzazione frame inviato al modulo di controllo 5 che a sua volta determina il comportamento del processore di flusso video 2, richiede la visualizzazione di un secondo frame. Il processore di flusso video 2 genera un segnale video 9 atto a rappresentare la visualizzazione di un secondo frame immediatamente successivo al primo. Iterando questo modo di procedere à ̈ possibile per l’utente visualizzare l’intera successione di frame contenuta nel buffer 11.
Una seconda opzione prevede che i vari frame siano visualizzati in modo analogo a quanto previsto nella prima opzione ma, invece che scorrere i frame uno ad uno, à ̈ possibile per l’utente visualizzarli a gruppi o tutti in una sola visualizzazione.
Una situazione in cui visualizzare il contenuto di almeno un secondo frame può risultare di particolare efficacia per la determinazione da parte dell’utente della corretta configurazione di trasporto si verifica nel caso della tecnica di “frame alternation†.
In questo caso infatti l’immagine sinistra e l’immagine destra oppure l’immagine video e la sua corrispondente immagine dati vengono inserite alternativamente in successione di singoli frame, ovvero, ad esempio, in un primo frame si trova l’immagine sinistra, nel secondo successivo frame l’immagine destra e così via per l’intera serie di frame componenti il flusso video 7.
In un’ulteriore forma di realizzazione dell’invenzione viene aggiornata periodicamente la visualizzazione di frame. Può infatti accadere che la modalità di visualizzazione di frame sia selezionata per un lungo periodo di tempo: in questa situazione si può prevedere che ad intervalli regolari, apprezzabili temporalmente dall’utente, il contenuto della visualizzazione di frame sia aggiornato ad un nuovo frame appartenente al flusso video 7. Ad intervalli regolari calcolati ad esempio tramite un circuito di clock interno CK, non rappresentato nelle Figure 1 e 2, il modulo di controllo 5, tramite il segnale di controllo 8 richiede al circuito di processore di flusso video 2 di selezionare un nuovo frame dal flusso video 7 e di realizzare un nuovo segnale video 9 basandosi appunto sul contenuto del nuovo frame selezionato. In caso di presenza del buffer 11, il modulo di controllo 5 determina l’azzeramento del buffer 11 e l’immagazzinamento da parte di quest’ultimo di una nuova successione di frame dal flusso video 7. La lunghezza di questi intervalli regolari di aggiornamento può essere determinata in sede di fabbricazione o impostata dall’utente. È inoltre possibile prevedere che l’aggiornamento della visualizzazione di frame avvenga tramite un segnale di comando 10 inviato al modulo di controllo 5, il quale controlla di conseguenza l’attività del processore di flusso video 2 e dell’eventuale buffer 11.
Dopo la fase di verifica della configurazione di trasporto del contenuto video tridimensionale, fase che si basa sulla visualizzazione di frame, si può prevedere che l’utente, dopo aver ad esempio rilevato una errata visualizzazione tridimensionale del contenuto video tridimensionale, invii una richiesta di modifica della configurazione di trasporto attualmente impostata. La configurazione di trasporto attualmente impostata, ossia il valore di configurazione che il modulo di controllo 5 invia al processore di flusso video 2 per essere inserito nel primo segnale video di interfaccia 13, può essere la configurazione di trasporto segnalata, correttamente o non correttamente, nel flusso di trasporto Fi, oppure in alternativa una configurazione precedentemente selezionata dall’utente. Il segnale di comando 10 di richiesta di modifica della configurazione viene inviato, tramite l’unità di comando utente 6, al modulo di controllo 5. Il modulo di controllo 5, tramite il segnale di controllo 8, richiede al processore di flusso video 2 di generare un nuovo secondo segnale video 9 di interfaccia, tale nuovo secondo segnale video 9 essendo atto a visualizzare una interfaccia grafica tramite la quale l’utente può selezionare una nuova configurazione di trasporto.
Vi sono numerose possibili opzioni di realizzazione di detta interfaccia grafica. Tuttavia, si noti che l’insegnamento della presente invenzione à ̈ attuabile a prescindere dalla forma grafica che tale interfaccia assume e dello specifica forma testuale delle informazioni in essa contenute. Lo scopo principale dell’interfaccia grafica à ̈ di permettere all’utente di scegliere la corretta configurazione di trasporto in base alle informazioni che l’utente stesso ha ricavato dalla visualizzazione di frame. Qui di seguito si descrivono a titolo di esempio alcune opzioni di realizzazione di questa interfaccia. Le opzioni qui di seguito elencate si differenziano in opzioni di contenuto, dove si descrive il contenuto informativo dell’interfaccia grafica, ed in opzioni grafiche, dove si descrive la forma e la posizione dell’interfaccia grafica all’interno dello schermo dell’apparato di visualizzazione 4.
Una prima opzione di contenuto consiste nel visualizzare all’interno della interfaccia grafica una lista di possibili configurazioni di trasporto indicate tramite la propria denominazione tecnica. La selezione della configurazione di trasporto può avvenire in una prima alternativa tramite un tasto numerico 61 associato alla configurazione, presente sull’unità di comando 6, così come illustrato in Figura 6, oppure tramite un cursore o uno sfondo di evidenziazione rettangolare 51 che evidenzia una delle possibili configurazioni a seconda dei comandi ricevuti dall’unità di comando di utente 6 come illustrato in Figura 5. Una seconda opzione di contenuto prevede che, per indicare le varie configurazioni di trasporto, non si utilizzi la denominazione tecnica, ma un semplice simbolo grafico che richiama le informazioni che l’utente può ricavare dalla visualizzazione di frame, come ad esempio la disposizione delle immagini all’interno dei vari frame. Ad esempio, per il “side by side†si può prevedere un simbolo grafico costituto da due quadratini contigui contenenti i numeri 1 e 2, che stanno quindi ad indicare che nel singolo frame sono presenti due immagini 1 e 2 affiancate. In Figura 7 à ̈ riportato un esempio di questa opzione in cui il simbolo 71 indica un “side by side†, il simbolo 72 un “top bottom†e i simboli grafici 73 indicano un “L+depth†. Per quanto riguarda la selezione dei vari simboli valgono le considerazioni fatte per la prima opzione di contenuto.
Può accadere che la selezione interattiva di configurazione di flusso di trasporto sia stata richiesta perché l’utente ritiene che la visualizzazione tridimensionale sia errata oppure che il sistema di elaborazione video 100 non sia riuscito a individuare la configurazione del flusso video di ingresso. In ogni caso il modulo di controllo 5 deve scegliere quale visualizzazione di rendering (tridimensionale) deve essere attivata per prima per il flusso video da riprodurre sull’apparato di visualizzazione 4 in caso di una specifica richiesta, in modo da permettere all’utente di iniziare il processo di selezione interattiva della configurazione di trasporto. Ciò può essere compiuto secondo vari criteri di scelta.
Un criterio di scelta può essere quello di stabilire tale visualizzazione di rendering in modo fisso in fabbrica; un altro criterio può essere quello di stabilire solo quello attivo inizialmente per default e permettere all’utente di cambiarlo, per esempio in sede di menù.
Alternativamente, questa prima visualizzazione può consistere in una visualizzazione bidimensionale ovvero in una sola visualizzazione di frame (a schermo parziale o totale), mentre qualunque visualizzazione tridimensionale viene disattivata per evitare riproduzioni alterate o comunque non corrette per lo spettatore.
Tra l’altro, la mancata individuazione della configurazione di trasporto tridimensionale potrebbe dipendere dal fatto che il flusso da rappresentare à ̈ bidimensionale. A partire da questa visualizzazione iniziale l’utente può in modo interattivo e guidato eventualmente da istruzioni o suggerimenti visualizzati sullo schermo dell’apparato di visualizzazione 4, effettuare le operazioni occorrenti a individuare e selezionare la corretta configurazione di trasporto.
Per quanto riguarda le opzioni grafiche, una forma preferita di realizzazione consiste nell’aggiungere alla normale visualizzazione del contenuto tridimensionale l’interfaccia grafica di selezione e, in una diversa zona dello schermo disgiunta dalla precedente, nel riprodurre anche la visualizzazione di frame, in modo che vengano riprodotte nella stessa schermata sia la configurazione di flusso di trasporto sia quella generata dall’apparato di visualizzazione 4 in corrispondenza di quella determinata configurazione, così come avverrebbe nella modalità di visualizzazione di rendering tridimensionale. In questo modo l’utente ha una immediata percezione di cosa sta succedendo nel sistema di elaborazione video 100 e può rapidamente ed efficacemente individuare e selezionare a vista la configurazione di flusso di trasporto corretta, senza sovrapposizioni di immagini di tipo diverso che potrebbero ingenerare confusione.
Una possibile implementazione à ̈ rappresentata schematicamente in Figura 8a, dove accanto alla visualizzazione di frame 80 del flusso video da rappresentare, viene riprodotta contemporaneamente, nella stessa schermata, la visualizzazione tridimensionale 82 generata dal processore video 2 a seguito della procedura di adattamento alla visualizzazione attivata per la configurazione correntemente selezionata dall’utente. Nel caso di figura 8a si ipotizza che il flusso video di ingresso sia di tipo side-by-side, per cui essendo la visualizzazione correntemente selezionata proprio quella side-by-side, il riquadro 82 contenente la visualizzazione 3D corrispondente a tale selezione à ̈ corretta. In tal caso à ̈ evidente all’utente che non sono necessarie ulteriori impostazioni di configurazione di livello gerarchico inferiore (come si spiegherà meglio nel seguito) per cui l’utente può confermare la selezione per esempio mediante azionamento di un tasto dell’unità di comando 6 e il sistema di elaborazione video 100 può, per esempio, passare alla visualizzazione 3D ordinaria a pieno schermo, dopo aver eventualmente chiesto all’utente se vuole memorizzare un’associazione tra questa configurazione selezionata ed il flusso video in riproduzione.
Una forma alternativa di realizzazione consiste nel sovrapporre alla normale visualizzazione del contenuto tridimensionale l’interfaccia grafica di selezione e, in una zona confinata dello schermo, sovrapporre anche la visualizzazione di frame, così come illustrato schematicamente in Figura 8b, ove il riquadro 80 à ̈ sovrimpresso in modo opaco o semitrasparente sulla visualizzazione tridimensionale 82 prodotta dal processore video 2 ed ivi riprodotta a pieno schermo.
In entrambi i casi, per evitare visualizzazioni alterate o disturbanti à ̈ opportuno che il processore video 2 componga i fotogrammi (“frame†) componenti il flusso video da riprodurre sull’apparato di visualizzazione 4 in modo che il riquadro contenente la visualizzazione di frame sia di tipo bidimensionale e sia posto a profondità zero, ovvero senza alcun effetto di altorilievo o bassorilievo al suo interno. Ciò può essere ottenuto posizionando opportunamente la visualizzazione di frame nel fotogramma del flusso da rappresentare e forzando il processore video 2 ad effettuare l’adattamento alla visualizzazione nel modo selezionato, cosicché la visualizzazione di frame sia sempre riprodotta in modo congruente, senza alterarne l’intelligibilità da parte dell’utente.
Facendo ora riferimento alla Figura 4a, si supponga in una prima ipotesi che il flusso video abbia configurazione side-by-side e che sia selezionata come configurazione iniziale di default o come configurazione successiva in una sequenza reimpostata, vuoi dall’utente vuoi dal sistema di elaborazione video 100, la configurazione side-by-side. Il processore video 2 può dunque inserire la visualizzazione di frame come mostrato in Figura 4b, ovvero inserendo due riquadri 41 contenenti le visualizzazioni di frame due volte nella stessa posizione relativa nelle due presunte (e in questo caso effettive) posizioni delle immagini destre e sinistre nella configurazione side–by-side ed effettuare il rendering corrispondente a tale configurazione. Il risultato, ovvero quanto visibile sullo schermo di un associato apparato di visualizzazione da uno spettatore dotato di appositi visori, à ̈ illustrato in Figura 4c, ove sia la visualizzazione di frame, contenuta nella porzione 45, sia quella di rendering sono corrette; queste ultime corrispondono a quanto presente nel flusso video, a parte il raddoppio della dimensione orizzontale della visualizzazione di frame dovuta alle operazioni di interpolazione effettuate in fase di rendering.
Facendo ora riferimento alla Figura 4d, si supponga invece che il flusso video di trasporto sia di tipo top-bottom, mentre la configurazione correntemente selezionata e attivata per il rendering sia sempre quella side-by-side. In tal caso il processore video 2 effettuerà la composizione della visualizzazione di frame con quella da renderizzare nella stessa maniera del caso precedente (si veda la Figura 4e, raffigurante l’inserimento dei riquadri 43 ove, per riferimento, si à ̈ tracciata una linea di mezzeria verticale 46 non presente nel flusso video). La visualizzazione risultante à ̈ approssimativamente rappresentata in Figura 4f nel caso di schermo funzionante a frame alternation: mentre il rendering à ̈ evidentemente errato, la visualizzazione di frame contenuta nel riquadro 48 à ̈ corretta e rappresenta in maniera del tutto intellegibile e fedele (a parte il raddoppio della dimensione verticale) quanto contenuto nel frame del flusso video da riprodurre. Quindi anche in tal caso l’utente riesce ad effettuare per lo meno senza difficoltà la scelta di configurazione di primo livello, ovvero individuare che si tratta di una configurazione di tipo top-bottom, anche se il sistema di elaborazione video ha attivato la procedura di adattamento prevista in corrispondenza di un flusso video dalla configurazione di tipo side-by-side, ovvero discrepante rispetto a quella effettivamente presente. Pertanto l’utente può facilmente identificare l’errore compiuto nel riconoscimento della configurazione di trasporto mediante una schermata del tipo rappresentata in Figura 4f.
È evidente che le dimensioni dei riquadri 41, 43 e 48 contenenti le visualizzazioni di frame possono essere variate a piacimento per cui possono essere selezionate in modo tale da occupare l’intera area dello schermo 30 come rappresentato per esempio nelle figure 3a, 3c e 3e. Esse possono anche essere rese ridimensionabili dall’utente offrendogli opportune procedure di ridimensionamento che possono avvalersi di elementi grafici addizionali presentati sullo schermo 30 e dell’attivazione di tasti o altri elementi di inserimento di comandi presenti sull’unità di comando 6.
Una procedura di composizione analoga può essere adottata, con gli opportuni adattamenti, al caso di altre configurazioni selezionate, quali quella top-bottom, a spezzettamento, e così via.
Stesse considerazioni valgono per le visualizzazioni del tipo illustrato in Figura 8a con la differenza che in quel caso il processore video 2 tratta la parte renderizzata 82 in modo separato rispetto alle altre, in quanto esse sono riprodotte in aree disgiunte dello schermo; ciò evita la necessità di combinare in un unico frame il riquadro comprendente la visualizzazione di rendering con le altre eventualmente presenti.
Inoltre si può prevedere che ad ogni selezione di una nuova configurazione di trasporto dall’interfaccia grafica, il modulo di controllo 5 riceva uno specifico segnale di comando 10 dall’utente, e in risposta a tale segnale di comando 10 di utente, il modulo di controllo 5 fornisca al processore di flusso video 2 il corrispondente valore di configurazione di trasporto che verrà inserito, tramite appunto tale processore video 2, nel primo segnale video di interfaccia 13. In questo modo il contenuto video tridimensionale viene visualizzato dall’apparato di visualizzazione 4 in accordo con il valore di configurazione di trasporto selezionato dall’utente. Si fornisce quindi all’utente una visualizzazione di tutte le informazioni utili alla selezione, ossia l’interfaccia grafica recante le possibili configurazioni, la visualizzazione di frame, ed infine il contenuto 3D visualizzato secondo la selezione operata dall’utente. Quest’ultima informazione fornisce all’utente un costante feedback sulle selezioni da lui operate. Tali informazioni possono essere organizzate in forme grafiche diverse da quella qui descritta. Tuttavia le differenze fra le varie forme grafiche non sono rilevanti ai fini della novità della presente invenzione.
L’utente, dopo aver selezionato la configurazione ritenuta corretta, tramite l’unità di comando 6 invia un segnale di comando 10 di conferma; in risposta a tale segnale di comando 10 il modulo di controllo 5 provoca, mediante il segnale di controllo 8, il passaggio del processore di flusso video 2 alla modalità di visualizzazione di rendering.
Alle visualizzazioni di frame e di rendering si può vantaggiosamente aggiungere un ulteriore riquadro 84, illustrato nelle Figure 8a e 8b, contenente una lista di possibili configurazioni di flusso di trasporto simili alla pagina di un menù, che aiutano l’utente a individuare la selezione correntemente attiva e quelle ancora selezionabili, nonché ad effettuare la selezione in modo efficace ed interattivo. La configurazione attualmente selezionata ed attivata per il rendering del processore video 2 può essere evidenziata in qualsiasi modo, per esempio con la presenza di una freccia, di caratteri in grassetto, in rilievo o di colore diverso, di contorni colorati di sfondo, e così via. Detto ulteriore riquadro 84 può essere inserito dal processore video 2 nello stesso modo descritto per il riquadro contenente la visualizzazione di frame.
In corrispondenza di un apposito comando di attivazione della selezione interattiva di configurazione di trasporto, il sistema di elaborazione video 100 genera sull’associato apparato di visualizzazione 4 una schermata mista del tipo di quelle riprodotte in Figura 8a o 8b. L’utente vede qual à ̈ la configurazione di trasporto ipotizzata per il processore video 2 e la visualizzazione di rendering corrispondente da esso generato, nonché la relativa visualizzazione di frame. A questo punto l’utente può confermare la selezione per la configurazione se la ritiene corretta oppure può selezionarne un’altra, sempre agendo sull’unità di comando 6, per esempio azionando un tasto cursore verso il basso per selezionare una diversa configurazione tra quelle elencate nel riquadro di menù. Tale selezione viene acquisita dal modulo di controllo 5 che pilota il processore video 2 in modo che, in corrispondenza di tale selezione, i caratteri indicanti la nuova configurazione selezionata vengono evidenziati ed essa sia attivata per effettuare la corrispondente visualizzazione di rendering impostata per il processore video 2. Nell’esempio di Figura 8a l’utente preme il tasto cursore verso il basso sull’unità di comando 6, facendo evidenziare la riga 2 del menù “Top Bottom†: il modulo di controllo 5 opera in modo tale che il processore video 2 effettui il rendering previsto per la configurazione topbottom. Questo dialogo interattivo può continuare fino a che l’utente non lo interrompe confermando la selezione oppure rinunciando ad individuare la configurazione di trasporto.
Possono essere presenti nell’elenco del ritaglio a menù anche configurazioni non supportate dall’apparato di visualizzazione; queste possono essere marcate in modo da evidenziarne la mancata possibilità di attivazione; in caso di selezione di una di dette configurazioni non supportate, il modulo di controllo 5 può agire in modo che il flusso video generato dal dispositivo contenga una indicazione visibile su un associato apparato di visualizzazione 4 atto ad indicare che la configurazione selezionata non à ̈ supportata.
Si può inoltre prevedere che siano presenti in elenco anche configurazioni non supportate dall’apparato di visualizzazione 4 e che in caso di selezione di una di dette configurazioni non supportate il modulo di controllo 5 agisca in modo tale che il flusso video riprodotto da un associato apparato di visualizzazione 4 avvenga in modo bidimensionale.
In caso di schermata grafica mista, ovvero una schermata comprendente una resa tridimensionale del flusso video ed una porzione dell’immagine in cui à ̈ riprodotta una visualizzazione di frame e/o un riquadro contenente pagine di menù, con il meccanismo illustrato in precedenza quest’ultima viene resa sull’apparato di visualizzazione 4 in modo da non ingenerare fastidio nello spettatore. È infatti noto che parti di immagini sovrapposte ad un’immagine tridimensionale possono creare disagio qualora vengano posizionate su piani di vista posti a distanza molto diversa rispetto ad oggetti circostanti nella stessa scena e solo qualora vengano posti su un piano di visione troppo profondo o troppo sbalzato in avanti rispetto al piano apparente dello schermo.
L’artificio di posizionare il riquadro di visualizzazione di frame e altri riquadri in modo che il processore li ponga sul piano di visione coincidente con lo schermo 30 può essere migliorato contornando il riquadro con una zona nera o neutra contenente un’area di pixel uniformi e fissi nel tempo, di modo che eventuali zone di immagini renderizzate in 3D e poste su piani di visione molto staccati non creino disagio nello spettatore. Per migliorare la situazione si possono posizionare tali riquadri in zone periferiche dello schermo ove normalmente sono presenti scene di sfondo, ovvero comprendenti oggetti posti in lontananza e a distanza approssimativamente uniforme l’una dall’altra.
Alternativamente o in aggiunta si può fare in modo che l’utente possa rideterminare il riquadro di visualizzazione di frame sia come posizione sia come dimensione, potendone alterare, eventualmente, le proporzioni.
In un’ulteriore forma di realizzazione della presente invenzione, le configurazioni di trasporto del contenuto video tridimensionale selezionabili dall’utente possono essere strutturate in maniera gerarchica in base ai parametri propri di ciascuna configurazione. Ciascun livello gerarchico (“layer†) individua quindi uno specifico parametro di una delle possibili configurazioni che l’utente può selezionare. La selezione di uno specifico parametro ad un livello gerarchico superiore determina l’insieme di possibili parametri fra cui l’utente può operare la propria scelta al livello gerarchico inferiore. Il percorso determinato dalle selezioni operate dall’utente, passando dal primo livello gerarchico all’ultimo livello gerarchico della struttura, individua i parametri della configurazione di trasporto selezionata dall’utente, detta selezione avvenendo appunto tramite questo percorso.
Un esempio di tale struttura o organizzazione gerarchica delle possibili configurazioni à ̈ riportato nelle Figure 9a e 9b in cui à ̈ presente:
- una prima colonna “Configurazione†corrispondente al primo livello gerarchico che opera una prima distinzione fra le configurazioni in base alla disposizione delle immagini all’interno del singolo frame: ad esempio, nel caso di “side by side†delle due immagini trasportate nel singolo frame, una viene disposta nelle porzione sinistra e l’altra nella porzione destra del frame stesso; ad esempio, nel caso “Top Bottom†, la prima immagine à ̈ disposta nella porzione superiore del singolo frame, mentre la seconda nella porzione inferiore;
- una seconda colonna “Risoluzione†, che indica un secondo livello gerarchico, dove l’indicazione “Full†indica la configurazione in cui le singole immagini contenute nel frame contengono tutti i pixel da visualizzare, mentre l’indicazione “Half†indica la configurazione in cui le singole immagini contenute nel frame contengono soltanto una parte dei pixel da visualizzare perché sottoposte a sottocampionamento delle immagini;
- una terza colonna “Disposizione immagini†che individua un terzo livello gerarchico, in cui viene indicato come le immagini sono inserite nei vari singoli frame, ossia nel caso di configurazione “side by side†sono trasmesse per ciascun singolo frame una immagine sinistra e una destra. In questa situazione l’indicazione “S/D†, indica che nella prima porzione di frame, ovvero quella di sinistra, à ̈ disposta l’immagine sinistra, mentre nella seconda porzione, ovvero quella di destra, à ̈ disposta l’immagine di destra. Al contrario l’indicazione “D/S†significa che nella porzione sinistra del frame à ̈ disposta l’immagine destra, mentre nella porzione di destra à ̈ disposta l’immagine sinistra. Simili considerazioni valgono per il caso “top bottom†, in cui nel caso “S/D†viene disposta l’immagine di sinistra nella porzione alta del frame, mentre l’immagine di destra viene disposta nella parte bassa; al contrario per l’indicazione “D/S†, dove nella parte alta à ̈ disposta l’immagine destra, mentre nella bassa l’immagine di sinistra;
- una quarta colonna “Sottocampionamento delle immagini†che individua un quarto livello gerarchico, in cui viene indicato l’eventuale sottocampionamento effettuato, ossia nel caso di “sottocampionamento orizzontale†il sottocampionamento avviene per colonne di pixel, nel caso di “sottocampionamento quincunx†il sottocampionamento campiona i pixel della singola immagine secondo uno schema a scacchiera e, infine, nel caso di “sottocampionamento verticale†il sottocampionamento avviene per righe di pixel; - l’ultima colonna, ossia la colonna “pixel sottocampionati†, individua un quinto livello gerarchico, in cui viene indicata la posizione dispari oppure pari, all’interno della singola immagine sinistra e destra, dei pixel sottoposti a sottocampionamento.
La struttura gerarchica appena descritta costituisce un semplice esempio illustrativo. La struttura in cui le possibili configurazioni vengono gerarchizzate o ordinate può seguire diversi criteri distintivi qui non descritti. Inoltre la selezione delle possibili configurazioni può essere estesa anche ad altre tipologie quali, per esempio, quella a spezzettamento o quella a “2D delta†. I possibili percorsi di selezione attuabili mediante tale struttura o organizzazione gerarchica delle possibili configurazioni sono riportati, a titolo di esempio nel diagramma ad albero raffigurato nelle Figure 10a e 10b.
In Figura 10a si illustra, dopo lo stato di partenza “Start†del percorso, un primo livello gerarchico (Layer 1): i livelli gerarchici inferiori sono raffigurati per le configurazioni di tipo “side by side†e “top bottom†mentre la configurazione di tipo “L+depth†non ha livelli di configurazione inferiori.
Successivamente si illustra un livello gerarchico successivo (Layer 2), in cui i possibili parametri selezionabili sono individuati dai rami del diagramma ad albero che si dipartono dal parametro selezionato al livello gerarchico superiore. Nel caso sia selezionato al primo livello gerarchico il parametro “side by side†al secondo livello gerarchico (Layer 2) corrispondono i possibili parametri “Full resolution†(F) e “Half resolution†(H). Nel caso di valore “Full†la procedura di selezione termina, mentre se si seleziona il parametro “Half†si passa al livello gerarchico successivo, e cioà ̈ al terzo (Layer 3), dove la scelta avviene fra le opzioni “S/D†e “D/S†.
Tenendo conto delle scelte fin qui operate, dal terzo livello gerarchico selezionando il parametro “S/D†si passa ad un quarto livello gerarchico (Layer 4) dove le possibili scelte consistono nei parametri “Sottocampionamento orizzontale†e “Quincunx†, nuovamente operando una selezione. Ad esempio, selezionando il parametro “Quincunx†si giunge ad un quinto livello gerarchico, dove la scelta avviene fra quattro diversi parametri: scegliendo uno di questi, ad esempio “immagine dispari/sinistra, immagine dispari/destra†(DS/DD) il percorso di selezione termina.
Gli altri valori dei parametri sono “immagine dispari/sinistra, immagine pari/destra†“immagine pari/sinistra, immagine dispari/destra†e “immagine pari/sinistra, immagine pari/destra†. La selezione può essere effettuata per esempio come illustrato in figura 9b mediante due selezioni successive, prima tra “immagine dispari/sinistra†e “immagine pari/sinistra†e poi tra “immagine dispari/destra †e “immagine pari/destra†. Il percorso qui indicato come esempio, determina la selezione di una configurazione di trasporto caratterizzata dai seguenti parametri “side by side, half, S/D, sottocampionamento orizzontale, immagine dispari/sinistra, immagine dispari/destra†, ossia una configurazione di trasporto di tipo “side by side†in cui l’immagine sinistra à ̈ disposta nella porzione sinistra del frame e l’immagine destra nella porzione destra del frame, ciascuna immagine à ̈ sottoposta a sottocampionamento di tipo orizzontale operato sui pixel aventi una posizione identificata come “posizione dispari†sia per l’immagine sinistra che per l’immagine destra.
La conoscenza di queste configurazioni di livello gerarchico successivo al primo servono al processore video 2 per effettuare correttamente la ricostruzione più fedele possibile all’originale delle immagini componenti il flusso video di partenza. Quindi, ove ritenuto opportuno, anche per questi parametri individuanti la configurazione di trasporto si può applicare lo stesso meccanismo di selezione interattiva della configurazione di trasporto proposto per quella di primo livello.
Infatti per aumentare la probabilità che l’utente effettui la selezione esatta anche delle sottoconfigurazioni di livello gerarchico inferiore al primo, à ̈ vantaggioso agire in modo che il sistema di elaborazione video 100 che implementa il metodo oggetto dell’invenzione generi un segnale video che supporti e assista l’utente nella selezione, con la presenza di visualizzazioni che variano in base al contesto, ovvero in base alle selezioni già effettuate ed a quella correntemente da effettuare. Si supponga per esempio che l’utente abbia selezionato la configurazione
“side-by-side, half resolution†e debba ora decidere se si tratti di un S/D o D/S ovvero in quale dei semiquadri del frame siano posizionate rispettivamente le immagini sinistra e destra del flusso. In tal caso il sistema di elaborazione video 100 potrebbe generare un flusso video comprendente una visualizzazione in cui sono posizionate una sopra l’altra nelle due disposizioni possibili le immagini sinistra e destra affiancate l’una all’altra dopo essere state ritagliate dalla visualizzazione di frame. L’utente potrà quindi apprezzare la differenza relativa di posizione degli oggetti nella scena nelle due viste (sinistra e destra) e dedurre dove sono state disposte nel frame le immagini sinistra e destra. Infatti à ̈ noto che gli oggetti lontani (ovvero quelli posti dietro il piano di visione corrispondente allo schermo) sono posti più a destra nella immagine sinistra e più a sinistra nell’immagine destra; per gli oggetti posti davanti a tale piano avviene l’esatto contrario. Quindi, presentando contemporaneamente le due immagini disposte in modo opportuno sullo schermo l’utente può facilmente individuarle. Per facilitare il compito si possono applicare varie metodiche: per esempio si può dare all’utente la possibilità di ingrandire alcune zone omologhe (cioà ̈ aventi la stessa posizione relativa nella sottoimmagine destra o sinistra). Si può altresì rendere le due immagini spostabili sullo schermo l’una sull’altra tramite l’unità di comando 6 e sovrapporle in modo che un oggetto presente in entrambe le sottoimmagini e posto dietro il piano di visione dello schermo occupi la stessa area dello schermo: il sistema di elaborazione video 100 a questo punto può dedurre automaticamente dalla posizione relativa delle due immagini spostate dall’utente qual à ̈ quella sinistra e quale quella destra.
Per facilitare il compito all’utente e al contempo alleggerire il carico computazionale per il processore video 2 si può fare in modo che durante queste e altre operazioni di selezione da parte dell’utente, quest’ultimo possa arrestare lo scorrimento delle immagini del flusso video bloccando la visualizzazione su un particolare frame, vuoi per la visualizzazione di frame, vuoi per la eventuale visualizzazione di rendering tridimensionale, quando quest’ultima à ̈ riprodotta sullo schermo.
In una forma preferita di realizzazione dell’invenzione si opera in modo che, quando entrambe le visualizzazioni siano presentate sullo schermo, esse si riferiscono alla stessa scena o inquadratura, indipendentemente dal fatto che il flusso video sia riprodotto in modo progressivo (“PLAY†) o bloccato su un fermo immagine (“STOP†). In tal caso potrebbero essere necessari nel sistema di elaborazione video 100 una memoria di quadro ed un meccanismo di sincronizzazione che permetta di presentare contemporaneamente sullo schermo la visualizzazione di frame e quella corrispondente di rendering 3D dello stesso fotogramma, compensando l’eventuale ritardo introdotto dal processo di rendering 3D.
Allo stesso modo si può assistere la selezione dell’utente per il quarto livello gerarchico della configurazione. Si può ad esempio partire da una configurazione di quarto livello di default o di partenza (definita in fabbrica o dall’utente), attivare il rendering da parte del processore video 2 previsto in corrispondenza di tale configurazione e fare in modo che il processore video 2, su opportuno comando da parte del modulo di controllo 5 presenti contemporaneamente su un associato schermo 30 di riproduzione una visualizzazione di frame e contemporaneamente la relativa visualizzazione di rendering corrispondente alla configurazione di quarto livello correntemente attiva. Per facilitare il confronto tra sottoimmagine decimate e le relative immagini ottenute dopo la interpolazione, si possono far presentare contemporaneamente sullo schermo almeno una delle sottoimmagini (sinistra e/o destra) ottenuta dal frame decodificato e almeno delle corrispondenti sottoimmagini interpolate, senza ulteriori trattamenti necessari ad ottenere l’effetto di tridimensionalità (per esempio il processo di “frame alternation†o “line interleave†). In questo caso à ̈ vantaggioso presentare le due visualizzazioni pre- e post-interpolazione in modo affiancato ed opportunamente ingrandito in modo opportuno, eventualmente variabile dall’utente sia in posizione sia in fattore di ingrandimento, in modo da rendere selezionabile l’area dell’immagine da riprodurre e rendere apprezzabile all’utente se l’operazione di interpolazione effettuata dal processore video 2 per ricostruire i pixel eliminati nell’operazione di decimazione o sottocampionamento sull’immagine non abbia comportato l’introduzione di artefatti o alterazioni. Infatti in caso di mancanza di tali artefatti e alterazioni si può desumere che la ricostruzione sia stata compiuta in modo corretto e che quindi la configurazione di quarto livello ipotizzata corrisponda effettivamente a quella presente all’uscita del decodificatore 1, o che comunque l’interpolazione effettuata dal processore video 2 sia appropriata per il flusso video da riprodurre.
Per rendere più immediata la selezione delle porzioni di immagini o sottoimmagini da ingrandire e/o rimpicciolire e/o riproporzionare e/o spostare, si può indicare tale porzione mediante un elemento grafico di selezione, per esempio di forma rettangolare. Questo rettangolo può per esempio essere spostabile all’interno della visualizzazione di frame e variabile in estensione. Inoltre si può prevedere che l’area corrispondente a tale porzione nella visualizzazione di rendering venga anch’essa contemporaneamente variata, in modo da permettere all’utente di apprezzare la corrispondenza esistente tra la visualizzazione di frame e quella di rendering e individuare quella più appropriata.
L’accorgimento di presentare un menù a lista sulla stessa schermata contestualmente alla visualizzazione di rendering attualmente selezionata e alla relativa visualizzazione di frame può essere ripetuto anche per le selezioni operate per questi livelli gerarchici successivi al primo. Per esempio nella selezione S/D o D/S potrebbe essere visualizzato sullo schermo che riceve il segnale video generato dal processore video 2 una lista contenente le due opzioni combinate ad un elemento grafico o una alterazione grafica che evidenzia quale delle due opzioni à ̈ correntemente attiva.
Mediante una organizzazione gerarchica dei parametri caratteristici delle possibili configurazioni di trasporto, à ̈ possibile guidare l’utente nella selezione della corretta configurazione del contenuto tridimensionale. Infatti sebbene nella tabella di Figure 9a e 9b siano elencate trentasei diverse possibili configurazioni, adottando questo tipo di organizzazione gerarchica l’utente non si trova nella condizione di dover scorrere tutte e trentasei le possibili configurazioni, bensì a ciascun passo del percorso di selezione la scelta si riduce ad essere operata fra due o al massimo quattro diversi parametri a seconda del livello gerarchico interessato. Inoltre a ciascun passo l’utente può sfruttare per la propria scelta le informazioni fornitegli mediante la visualizzazione di frame. In questo modo la selezione della corretta configurazione di trasporto avviene in tempi brevi e con maggiore probabilità che la configurazione selezionata sia effettivamente quella corretta. Per quanto riguarda l’interfaccia grafica, attraverso cui l’utente può operare una selezione gerarchica dei vari parametri caratterizzanti una configurazione di trasporto, valgono considerazioni analoghe a quanto già descritto sulle interfacce grafiche in precedenza.
In particolare, si può prevedere una interfaccia grafica composta da un primo riquadro elencante i parametri caratteristici del primo livello gerarchico, nell’esempio “side by side†e “top bottom†: in corrispondenza della evidenziazione o selezione di uno di questi due parametri appare un secondo riquadro che riporta i parametri del livello gerarchico inferiore, nell’esempio “Full†e “Half†. Il medesimo procedimento viene seguito per selezionare i restanti parametri e completare il percorso di selezione gerarchica. Il riquadro del livello gerarchico inferiore può semplicemente sostituire quello visualizzato per il riquadro dedicato al livello gerarchico superiore, o in alternativa il riquadro gerarchico inferiore può essere visualizzato in una diversa zona dello schermo, mantenendo visualizzato anche il riquadro corrispondente al livello gerarchico superiore. Così come già descritto nella forma realizzativa precedente, l’interfaccia grafica viene attivata e si modifica in base ai comandi di utente provenienti dall’unità di comando 6, in risposta a tali comandi il modulo di controllo 5 controlla l’attività del processore video 2, il quale genera il segnale video 9 atto a visualizzare appunto l’interfaccia grafica.
Una possibile alternativa consiste, per quanto riguarda alcuni o tutti i passi di selezione, nel proporre all’utente, evidenziandolo graficamente o elencandolo al primo posto della lista, il parametro che risulta avere il più elevato valore di probabilità di essere quello corretto, aiutando ulteriormente l’utente nella selezione della corretta configurazione di trasporto. Il valore di probabilità di ciascun parametro, specifico di un determinato percorso di selezione, può essere calcolato mediante opportuni calcoli statistici effettuati dal modulo di controllo 5 in base ai segnali ricevuti nel passato: in alternativa, si può prevedere che detti valori di probabilità siano definiti in sede di fabbricazione, dall’utente stesso o mediante aggiornamenti software nel caso l’apparato di elaborazione video sia aggiornabile via software tramite ad esempio una connessione ad Internet o tramite la ricezione di apposito segnale broadcast. Non à ̈ affatto necessario che tutti i livelli gerarchici vengano necessariamente esplorati per cui l’utente sia costretto ad effettuare tutte le selezioni possibili dal primo livello gerarchico successivo a quello correntemente in corso di selezione fino all’ultimo. Si può prevedere per esempio che a ogni passo di selezione venga automaticamente proposta la configurazione di flusso ritenuta più probabile, ovvero più frequentemente utilizzata per quanto riguarda tutte le selezioni successive appartenenti ai livelli susseguenti, e che venga attivata contestualmente la relativa modalità di visualizzazione tridimensionale prevista per tale configurazione. Si supponga per esempio che l’utente, in base alla visualizzazione di frame presente sull’apparato di visualizzazione, abbia selezionato la configurazione side by side per il primo livello. In tale caso si può fare in modo che il dispositivo automaticamente ipotizzi, proponga ed attivi la modalità di visualizzazione 3D corrispondente alla configurazione più probabile (per esempio side-by-side, half resolution, S/D, sottocampionamento pari sinistra, pari destra per la configurazione di primo livello side-by-side, evidenziata in Figura 9a in grassetto). Se, come probabile, la corrispondente visualizzazione di rendering prontamente presentata sullo schermo à ̈ corretta, l’utente può immediatamente confermare la selezione appena effettuata ed evitare di effettuare le selezioni dei livelli successivi. Questa procedura di selezione abbreviata può essere applicata via via anche per i livelli di ordine superiore in combinazione con la presentazione interattiva sull’associato apparato di visualizzazione 4 della relativa visualizzazione di rendering.
Tutte queste configurazioni di default possono essere impostate in fabbrica, aggiornabili successivamente all’uscita dal sito di produzione, per esempio, in occasione di un aggiornamento di firmware del dispositivo in locale o in remoto. Inoltre esse possono essere, alternativamente e/o addizionalmente, essere rese modificabili dall’utente per esempio nell’ambito del menù interattivo di comando dell’apparato di elaborazione video. Infatti à ̈ probabile che, a causa dell’incertezza presente nel campo dei formati di trasmissione e trasporto dei flussi video tridimensionali, alcuni formati tra quelli teoricamente possibili non vengano praticamente mai utilizzati, per cui lo spettro delle configurazioni effettivamente riscontrabili à ̈ di molto inferiore a quelle elencate, in via esemplificativa, in Figura 9a. Le configurazioni di default e in generale quelle selezionabili possono essere memorizzate nel sistema di elaborazione video 100 ed aggiornate attraverso un qualsiasi metodo, quale l’aggiornamento in remoto (per esempio via broadcasting, Internet) o in locale (per esempio caricamento da chiavetta USB, PC).
Inoltre si può prevedere che l’utente possa interrompere la procedura di selezione non appena lo ritenga opportuno, in quanto, per esempio, dalla visione dell’immagine tridimensionale sull’apparato di visualizzazione, egli ritenga che la configurazione selezionata al momento sia corretta.
Si può altresì prevedere che le varie modalità di visualizzazione (quella mista delle Figure 8a e 8b e/o quella singola delle Figure 3a, 3c e 3e) possano essere commutate rapidamente mediante un tasto di commutazione della modalità di visualizzazione della configurazione, in modo da permettere all’utente di avere presente sullo schermo dell’associato apparato di riproduzione 4 la o le visualizzazioni (di rendering o di frame) ritenute necessarie al riconoscimento della configurazione, e per identificare immediatamente la selezione correntemente attiva, ricavabile dalla voce di menù evidenziata nel corrispondente ritaglio delle Figure 8a e 8b.
È chiaro che la presente invenzione si può applicare sia a flussi video di tipo “frame compatible†sia di tipo “service compatible†. Essa infatti si può applicare in qualunque sistema di elaborazione video 100 in cui à ̈ possibile produrre un segnale video comprendente una visualizzazione di frame appartenente a un flusso video atto a essere riprodotto in modalità tridimensionale, in quanto la sua riproduzione su un associato apparato di visualizzazione 4 può aiutare un utente a individuare la configurazione del flusso, qualora essa sia o venga ritenuta errata dall’utente o dal dispositivo medesimo.
La presente invenzione à ̈ utile anche in presenza di un sistema di elaborazione video 100 perfettamente in grado di riconoscere autonomamente la configurazione del flusso video da rappresentare, in quanto un utente potrebbe nutrire il desiderio di controllare che l’apparato funzioni correttamente, oppure perché vorrebbe rendersi conto esattamente di quale sia il formato di trasporto utilizzato per il flusso video correntemente riprodotto o in generale familiarizzare con la tecnologia 3D e i formati di trasporto utilizzabili. Addizionalmente l’invenzione à ̈ utile anche per verificare il corretto funzionamento del processore video 2 e della sua corretta programmazione, sia in sede di programmazione in fabbrica, sia da parte dell’utente e/o del centro di assistenza in sede di verifica e riparazione del sistema di elaborazione video 100 in seguito a guasti o anomalie di funzionamento.
La disposizione di elementi funzionali sopra descritta e illustrata in Figura 1 e in Figura 2 à ̈ del tutto esemplificativa e costituisce un semplice schema a blocchi che rappresenta una forma di realizzazione dell’apparato che implementa il metodo oggetto della presente invenzione. È evidente che due o più blocchi funzionali possono essere realizzati in un singolo dispositivo hardware e che uno stesso blocco funzionale può essere attuato in collaborazione tra due elementi circuitali fisicamente separati (per esempio un videoregistratore, un set top box, un televisore, un monitor). Così, per esempio, può accadere che in futuro due o più blocchi funzionali tra il processore video 2 e/o il modulo di controllo 5 e/o il decodificatore 1 siano integrati in un unico circuito integrato, in cui però sono chiaramente presenti moduli realizzati vuoi in hardware, vuoi in software che implementano l’invenzione qui descritta.
Il modulo di controllo 5 a sua volta può essere realizzato per mezzo del microprocessore che normalmente sovrintende il funzionamento di un apparato di elaborazione video atto a implementare il metodo oggetto della presente invenzione. Esso può essere realizzato in forma di software o hardware in logica programmata, oppure può essere realizzato mediante un apposito circuito.
Il processore video 2 può essere esterno rispetto all’apparato che comprende il decodificatore 1 e/o il modulo di controllo 5; le funzioni qui descritte per realizzare l’invenzione per tale unità funzionale possono, per esempio, essere compiute da un processore video integrato con un apparato di visualizzazione esterno incorporante lo schermo o il proiettore per la riproduzione video delle immagini corrispondenti al segnale video generato dal sistema di elaborazione video 100 che implementa il metodo oggetto della presente invenzione. In quest’ultimo caso à ̈ presente una opportuna interfaccia dati di collegamento tra decodificatore e processore video, che rende possibile il trasferimento del flusso video uscente dal decodificatore 1 ed il passaggio dei segnali di controllo provenienti dal modulo di controllo 5. I compiti svolti dal processore video 2 integrati nel sistema di elaborazione video 100 possono essere svolti in tutto o in parte da un processore video integrato in un apparato di visualizzazione esterno comprendente in tal caso, oltre allo schermo, un proprio processore video che riceve il flusso video e i segnali di controllo dal modulo di controllo 5 mediante una interfaccia dati di scambio di segnali di controllo (che può o meno coincidere fisicamente o logicamente con quella di collegamento) e che collabora con esso al fine di realizzare l’invenzione.
In generale, il processo di produzione di un segnale video atto a generare una visualizzazione tridimensionale a partire dal flusso video uscente dal decodificatore può essere suddiviso in diverse operazioni, variabili a seconda della configurazione di trasporto del flusso video da riprodurre e del tipo di schermo tridimensionale associato a tale flusso. Si possono citare, tra l’altro, l’estrazione delle due sottoimmagini sinistra e/o destra, il calcolo della seconda sottoimmagine a partire da una prima, l’interpolazione delle sottoimmagini e la loro alternanza nel tempo o nello spazio secondo le modalità richieste dall’apparato di visualizzazione per ottenere l’effetto della tridimensionalità. Si noti che alcune di tali operazioni possono mancare a seconda che il flusso video sia di tipo “frame compatible†o “service compatible†. In ogni caso parte di queste operazioni possono essere prese in carico in parte da un primo processore video integrato nell’apparato che implementa il metodo oggetto della presente invenzione, in parte da un secondo processore video integrato nell’apparato di visualizzazione 4, esterno al dispositivo. In via del tutto equivalente un processore video 2 integrato nel dispositivo può essere composto di diversi moduli operativi che cooperano in serie e/o parallelo per effettuare il processo di produzione della visualizzazione tridimensionale, senza uscire dall’ambito di protezione coperto dalla presente invenzione.
Nel sistema di elaborazione video 100 possono essere presenti anche più decodificatori, ciascuno di essi essendo atto a decodificare un certo tipo (per esempio “frame compatible†o “service compatible†) o insieme di flussi video (“L+depth†, “2D+delta†). In tal caso il modulo di controllo 5 può controllare e attivare di volta in volta il decodificatore richiesto per ottenere la visualizzazione di frame richiesta dall’invenzione.
Il sistema di elaborazione video 100 che implementa il metodo secondo l’invenzione può essere in grado di visualizzare anche flussi video bidimensionali oltre a quelli tridimensionali. Si può anche prevedere che, nel caso il dispositivo non sia in grado di accertare se il flusso video da riprodurre à ̈ bi- o tridimensionale, esso faccia in modo che l’associato apparato di visualizzazione riproduca il flusso video in modalità bidimensionale, ovvero senza che venga attuato alcun procedimento di trattamento per visualizzare il flusso video di ingresso in modalità tridimensionale.
L’apparato di visualizzazione 4 comprende uno schermo o un proiettore di qualsiasi tipo o natura purché in grado di produrre un effetto di tridimensionalità in uno spettatore con o senza l’ausilio di particolare visori da lui indossati quando questi riceve il segnale video prodotto dall’apparato video che implementa il metodo oggetto della presente invenzione. Lo schermo può essere indifferentemente di tipo LCD (a LED o meno), a CRT, a retroproiezione o a plasma; può essere costituito da un proiettore; può impiegare qualsiasi tecnica di rendering 3D (per esempio frame alternation, line interleave, column interleave, pixel interleave); e può comprendere o meno un processore video che collabora o meno al processo di produzione della visualizzazione tridimensionale secondo le modalità sopra descritte.
Dunque à ̈ facilmente comprensibile che quanto precedentemente descritto à ̈ passibile di varie modificazioni, perfezionamenti, sostituzioni di parti ed elementi equivalenti senza però allontanarsi dall’idea dell’invenzione, così come à ̈ precisato meglio nelle seguenti rivendicazioni.
Ad esempio, i frame (o fotogrammi) contenenti le immagini che compongono il flusso video sono usualmente di dimensioni “Full HD†ovvero di dimensioni 1920x1080, ovvero una matrice di 1920 colonne per 1080 righe di pixel, e vengono correntemente compresse (ovvero codificate) in formato MPEG 4. Tuttavia la presente invenzione si applica indifferentemente anche a frame aventi dimensioni diverse, inferiori o superiori (per esempio 1280x720 o 2K), ed indipendentemente dalla presenza o meno di procedure di codifica o compressione delle immagini del flusso video e anche dal loro tipo (per esempio MPEG2, MPEG4, WMV, e così via).

Claims (24)

  1. RIVENDICAZIONI 1. Metodo per l’elaborazione di un contenuto video tridimensionale, in cui un processore di flusso video (2) riceve in ingresso un flusso video (Fi) comprendente immagini video e/o immagini dati disposte all’interno di singoli frame secondo una determinata configurazione di trasporto ed atte a produrre una visualizzazione tridimensionale, caratterizzato dal fatto che detto processore di flusso video (2) genera, in risposta ad un segnale di controllo (8) inviato da un modulo di controllo (5), un segnale video (9,13) riproducibile su un associato apparato di visualizzazione (4) comprendente almeno una porzione di dette immagini, così come disposte all’interno di ogni singolo frame per almeno uno di detti singoli frame, in modo da supportare l’utente nel riconoscimento di detta determinata configurazione di trasporto.
  2. 2. Metodo secondo la rivendicazione 1, in cui detta almeno una porzione di dette immagini viene visualizzata occupando parzialmente l’area visualizzabile su detto apparato di visualizzazione (4).
  3. 3. Metodo secondo la rivendicazione 1, in cui detta almeno una porzione di dette immagini à ̈ visualizzata occupando totalmente l’area visualizzabile su detto apparato di visualizzazione (4).
  4. 4. Metodo secondo una o più delle rivendicazioni precedenti, in cui detta almeno una porzione di dette immagini viene generata dal processore di flusso video (2) in modo tale da apparire posizionata sul piano di visione corrispondente al piano apparente dello schermo (30) di detto apparato di visualizzazione (4).
  5. 5. Metodo secondo una o più delle rivendicazioni precedenti, in cui detta almeno una porzione di dette immagini à ̈ riproducibile in modo ingrandibile e rimpicciolibile e/o riproporzionabile e/o spostabile dall’utente.
  6. 6. Metodo secondo una o più delle rivendicazioni precedenti, in cui detto segnale di controllo (8) à ̈ originato da una unità di comando (6) associata a detto modulo di controllo (5), detta unità di comando (6) essendo operabile da un utente.
  7. 7. Metodo secondo una o più delle rivendicazioni precedenti, in cui à ̈ previsto un meccanismo di riconoscimento della configurazione di trasporto del flusso video ricevuto in ingresso (Fi) e detto segnale di controllo (5) à ̈ generato in caso di mancato riconoscimento di tale configurazione o qualora essa sia ritenuta errata.
  8. 8. Metodo secondo una o più delle rivendicazioni precedenti, in cui detto processore di flusso video (2) à ̈ programmabile in modo da effettuare determinate procedure di produzione della visualizzazione tridimensionale del flusso video in corrispondenza di determinate configurazioni di trasporto e che, in risposta a detto segnale di controllo (5), il processore di flusso video (2) à ̈ in grado di attivare una procedura di produzione della visualizzazione tridimensionale corrispondente a una predeterminata configurazione di trasporto.
  9. 9. Metodo secondo la rivendicazione 8, in cui detto segnale video (9,13) comprende almeno una parte della visualizzazione tridimensionale ottenibile attivando detta corrispondente procedura di produzione della visualizzazione tridimensionale.
  10. 10. Metodo secondo la rivendicazione 9, in cui il processore di flusso video (2) effettua una composizione di detta almeno una porzione di dette immagini con la visualizzazione tridimensionale in almeno un dato fotogramma in modo tale che almeno detta una porzione di dette immagini (43, 45) à ̈ riprodotta correttamente sull’associato apparato di visualizzazione (4), a meno di ridimensionamenti monodirezionali, ipotizzando una determinata configurazione di trasporto ed in cui esso attiva la procedura di produzione della visualizzazione tridimensionale corrispondente alla configurazione di trasporto ipotizzata.
  11. 11. Metodo secondo la rivendicazione 9, in cui detta almeno una porzione di dette immagini à ̈ sovrimpressa in semitrasparenza su detta almeno parziale visualizzazione tridimensionale.
  12. 12. Metodo secondo la rivendicazione 9, in cui detta almeno una porzione di dette immagini à ̈ sovrimpressa in modo opaco su detta almeno parziale visualizzazione tridimensionale.
  13. 13. Metodo secondo una qualsiasi delle rivendicazioni da 8 a 12, in cui la programmazione di detto processore di flusso video (2) à ̈ aggiornabile tramite aggiornamento in remoto o in locale, e/o determinabile o rideterminabile dall’utente.
  14. 14. Metodo secondo una o più delle rivendicazioni da 8 a 13, in cui detto segnale video (9,13) riproducibile su detto associato apparato di visualizzazione (4) comprende una visualizzazione indicante la configurazione di trasporto, o configurazione attiva, in corrispondenza della quale detto processore video (2) à ̈ in grado di attivare la procedura di produzione della visualizzazione tridimensionale per detto segnale video.
  15. 15. Metodo secondo una qualsiasi delle rivendicazioni da 8 a 14, in cui detto segnale video (9,13) riproducibile su detto associato apparato di visualizzazione (4) comprende una visualizzazione indicante almeno parzialmente in una lista una pluralità di configurazioni di trasporto di flusso di ingresso (Fi) per le quali il processore video (2) può attivare detta procedura di produzione della visualizzazione tridimensionale per detto segnale video.
  16. 16. Metodo secondo la rivendicazione 14 o 15, in cui, quando detta configurazione attiva à ̈ evidenziata, le configurazioni di trasporto di detta lista sono selezionabili da un utente mediante una unità di comando (6) e in corrispondenza di una selezione di una configurazione di detta lista, il modulo di controllo (5) associato a detta unità di comando opera in modo che il processore di flusso video (2) attivi detta procedura di produzione della visualizzazione tridimensionale corrispondente alla configurazione di trasporto selezionata dall’utente.
  17. 17. Metodo secondo una qualsiasi delle rivendicazioni 15 o 16, in cui sono presenti in detta lista anche configurazioni non programmate e che, in caso di selezione di una di dette configurazioni non programmate, il modulo di controllo (6) opera in modo che il segnale video generato dal processore video (2) comprenda una indicazione che la configurazione di trasporto selezionata non à ̈ supportata.
  18. 18. Metodo secondo una qualsiasi delle rivendicazioni da 8 a 17, in cui: - le configurazioni di trasporto sono memorizzate sotto forma di insiemi di opzioni di diverso livello gerarchico, selezionabili dall’utente in successione una dopo l’altra in una sequenza predeterminata mediante una unità di comando (6) associata al modulo di controllo (5); - il modulo di controllo (5) opera in modo che, in risposta a segnali di comando (10) provenienti dall’unità di comando (6) operabile dall’utente, il processore di flusso video (2) genera un segnale video comprendente indicazioni relative alla configurazione del livello gerarchico della configurazione di trasporto correntemente in corso di selezione da parte dell’utente; - la almeno una porzione di dette immagini compresa nel segnale video prodotta dal processore video (2) viene visualizzata tenendo conto delle selezioni precedentemente effettuate sui livelli gerarchici inferiori della configurazione di trasporto nonché dalla selezione del livello gerarchico correntemente in fase di selezione.
  19. 19. Metodo secondo la rivendicazione precedente, in cui per almeno una opzione selezionabile dall’utente ad un determinato livello gerarchico di una configurazione di trasporto sono predefinite tutte le opzioni selezionabili per i livelli gerarchici successivi in modo da formare una configurazione di default, per cui quando quella almeno una configurazione à ̈ selezionata dall’utente il modulo di controllo (5) opera in modo tale che il processore di flusso video (2) attivi la procedura di produzione della visualizzazione tridimensionale programmata per detta configurazione di default.
  20. 20. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui detto processore di flusso video (2) Ã ̈ atto a generare un segnale video bidimensionale.
  21. 21. Apparato di elaborazione video per contenuti video tridimensionali comprendente mezzi per implementare il metodo per l’elaborazione di un contenuto video tridimensionale secondo una qualsiasi delle rivendicazioni precedenti.
  22. 22. Apparato secondo la rivendicazione 21, comprendente uno schermo (30) oppure un proiettore per uno schermo per la riproduzione del segnale video (9,13) generato da detto processore di flusso video (2).
  23. 23. Apparato secondo la rivendicazione 21 o 22, in cui detto apparato di visualizzazione (4) Ã ̈ integrato in detto apparato di elaborazione video.
  24. 24. Apparato secondo una delle rivendicazioni da 21 a 23, in cui detto apparato di visualizzazione (4) Ã ̈ associato a detto processore di flusso video (2) mediante una interfaccia di collegamento via cavo o via etere.
ITTO2010A000905A 2010-11-12 2010-11-12 Metodo di elaborazione di un contenuto video tridimensionale e relativo apparato IT1402995B1 (it)

Priority Applications (7)

Application Number Priority Date Filing Date Title
ITTO2010A000905A IT1402995B1 (it) 2010-11-12 2010-11-12 Metodo di elaborazione di un contenuto video tridimensionale e relativo apparato
CN201180060940.4A CN103262550B (zh) 2010-11-12 2011-11-10 用于处理三维视频内容的方法及相关装置
KR1020137015003A KR20130107329A (ko) 2010-11-12 2011-11-10 3차원 비디오 콘텐츠를 프로세싱하는 방법 및 관련 장치
PCT/IB2011/055006 WO2012063213A1 (en) 2010-11-12 2011-11-10 Method for processing a three- dimensional video content and relative apparatus
ES11805192.9T ES2581878T3 (es) 2010-11-12 2011-11-10 Procedimiento para procesar un contenido de vídeo tridimensional y aparato asociado
EP11805192.9A EP2638698B1 (en) 2010-11-12 2011-11-10 Method for processing a three- dimensional video content and relative apparatus
TW100141339A TWI504234B (zh) 2010-11-12 2011-11-11 用於處理三維視訊內容之方法及相關裝置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ITTO2010A000905A IT1402995B1 (it) 2010-11-12 2010-11-12 Metodo di elaborazione di un contenuto video tridimensionale e relativo apparato

Publications (2)

Publication Number Publication Date
ITTO20100905A1 true ITTO20100905A1 (it) 2012-05-13
IT1402995B1 IT1402995B1 (it) 2013-09-27

Family

ID=43743070

Family Applications (1)

Application Number Title Priority Date Filing Date
ITTO2010A000905A IT1402995B1 (it) 2010-11-12 2010-11-12 Metodo di elaborazione di un contenuto video tridimensionale e relativo apparato

Country Status (7)

Country Link
EP (1) EP2638698B1 (it)
KR (1) KR20130107329A (it)
CN (1) CN103262550B (it)
ES (1) ES2581878T3 (it)
IT (1) IT1402995B1 (it)
TW (1) TWI504234B (it)
WO (1) WO2012063213A1 (it)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8556078B1 (en) 2012-04-11 2013-10-15 Joseph Farco Medicine discriminator
RU2012138174A (ru) * 2012-09-06 2014-03-27 Сисвел Текнолоджи С.Р.Л. Способ компоновки формата цифрового стереоскопического видеопотока 3dz tile format
ITTO20120901A1 (it) * 2012-10-15 2014-04-16 Rai Radiotelevisione Italiana Procedimento di codifica e decodifica di un video digitale e relativi dispositivi di codifica e decodifica
TWI454968B (zh) * 2012-12-24 2014-10-01 Ind Tech Res Inst 三維互動裝置及其操控方法
TWI558166B (zh) 2013-04-04 2016-11-11 杜比國際公司 用於多視點裸視立體顯示器的深度地圖遞送格式
US9400924B2 (en) * 2014-05-23 2016-07-26 Industrial Technology Research Institute Object recognition method and object recognition apparatus using the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1406456A2 (en) * 2002-09-25 2004-04-07 Sharp Kabushiki Kaisha Electronic apparatus
EP1617684A1 (en) * 2003-04-17 2006-01-18 Sharp Kabushiki Kaisha 3-dimensional image creation device, 3-dimensional image reproduction device, 3-dimensional image processing device, 3-dimensional image processing program, and recording medium containing the program
WO2010041896A2 (en) * 2008-10-10 2010-04-15 Lg Electronics Inc. Receiving system and method of processing data

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4251907B2 (ja) * 2003-04-17 2009-04-08 シャープ株式会社 画像データ作成装置
KR100649523B1 (ko) * 2005-06-30 2006-11-27 삼성에스디아이 주식회사 입체 영상 표시 장치
KR101622269B1 (ko) * 2008-11-24 2016-05-18 코닌클리케 필립스 엔.브이. 출력 포맷을 디스플레이의 3d 프로세싱 능력에 매칭하는 3d 비디오 재생

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1406456A2 (en) * 2002-09-25 2004-04-07 Sharp Kabushiki Kaisha Electronic apparatus
EP1617684A1 (en) * 2003-04-17 2006-01-18 Sharp Kabushiki Kaisha 3-dimensional image creation device, 3-dimensional image reproduction device, 3-dimensional image processing device, 3-dimensional image processing program, and recording medium containing the program
WO2010041896A2 (en) * 2008-10-10 2010-04-15 Lg Electronics Inc. Receiving system and method of processing data

Also Published As

Publication number Publication date
TW201228357A (en) 2012-07-01
EP2638698A1 (en) 2013-09-18
CN103262550A (zh) 2013-08-21
TWI504234B (zh) 2015-10-11
EP2638698B1 (en) 2016-04-06
CN103262550B (zh) 2016-04-13
WO2012063213A1 (en) 2012-05-18
KR20130107329A (ko) 2013-10-01
ES2581878T3 (es) 2016-09-08
IT1402995B1 (it) 2013-09-27

Similar Documents

Publication Publication Date Title
TWI568239B (zh) 三維視訊廣播之輔助資料
US9185328B2 (en) Device and method for displaying a three-dimensional PIP image
US8743178B2 (en) Multi-view video format control
KR101797495B1 (ko) 디지털 수신기 및 디지털 수신기에서의 캡션 데이터 처리 방법
US20110293240A1 (en) Method and system for transmitting over a video interface and for compositing 3d video and 3d overlays
CA2824829C (en) Method and apparatus for transmitting/receiving a digital broadcasting signal
ITTO20100905A1 (it) Metodo di elaborazione di un contenuto video tridimensionale e relativo apparato
US8836757B2 (en) 3D image providing device, display device, and method thereof
CN103222270A (zh) 发送设备、发送方法和接收设备
ITTO20110128A1 (it) Metodo per l'acquisizione, la memorizzazione e la fruizione di dati relativi ad un flusso video tridimensionale e relativo apparato di elaborazione video
JP4908624B1 (ja) 立体映像信号処理装置及び方法
US8704876B2 (en) 3D video processor and 3D video processing method
JP2015039063A (ja) 映像処理装置及び映像処理方法
JP5355758B2 (ja) 映像処理装置及び映像処理方法
US20120300029A1 (en) Video processing device, transmission device, stereoscopic video viewing system, video processing method, video processing program and integrated circuit
JP5422597B2 (ja) 三次元映像処理装置
JP2012249295A (ja) 映像処理装置
KR20140079107A (ko) 영상표시장치, 및 그 동작방법
ITTO20131027A1 (it) Apparato di riproduzione video
WO2013172142A1 (ja) 送信装置、送信方法、受信装置および受信方法