La realtà virtuale, è cosa ormai chiara, ha aperto le porte a nuove ed interessantissime modalità di fruizione dei contenuti, in particolar modo quelli multimediali come fotografie e video. Effettuare il render di fotogrammi di questo tipo, però, richiede un quantitativo di dati di gran lunga maggiore rispetto a ciò che avviene con i frame bidimensionali. Ne deriva l’esigenza di trovare un compromesso tra qualità e banda richiesta, specie nel caso dello streaming.
A questo proposito, il team di YouTube sta lavorando puntando all’introduzione di una tecnologia chiamata Equi-Angular Cubemap (EAC). Si tratta di un sistema molto complesso per la rappresentazione degli oggetti nello spazio. La tecnologia è stata descritta in un post approfondito condiviso da Google sulle pagine del proprio blog ufficiale.
Stando a quanto reso noto, ricorrere all’utilizzo dell’EAC permetterà di migliorare la definizione dei contenuti riprodotti in realtà virtuale in ogni loro porzione, senza andare incontro al decadimento qualitativo che invece oggi va a riguardare alcune aree. Chiaramente sarà necessario dl tempo affinché tutti ne possano beneficiare ed al momento non è dato sapere quanto, con esattezza.
Ad ogni modo, secondo Google solo gli smartphone Android sono attualmente in grado di offrirne il supporto, che verrà però esteso in futuro anche a iOS e alle piattaforme desktop. Sarà comunque necessario acquisire i file sorgenti (le registrazioni) in modalità EAC e non più EQ. Si tratterà dunque di un processo non immediato, che inevitabilmente richiederà uno sforzo collettivo.
Da notare che proprio a questo proposito Google ha pubblicato sulla piattaforma GitHub una bozza per la definizione di uno standard chiamato Projection Independent Mesh, alla quale chiunque può contribuire.
[Via | YouTube Engineering and Developers Blog]