Display tridimensionali/olografici, una ricerca degli HP Labs

Display tridimensionali/olografici, una ricerca degli HP Labs

L'impostazione è quella di un comune LCD, ma modificandone alcuni elementi è possibile realizzare un dispositivo capace di proiettare nello spazio immagini tridimensionali

di Andrea Bai pubblicata il , alle 11:24 nel canale Scienza e tecnologia
HP
 

Gli HP Labs di Palo Alto hanno sviluppato un nuovo tipo di display capace di riprodurre immagini tridimensionali simili ad ologrammi, senza la necessità per lo spettatore di indossare occhialini e senza dover impiegare, sul dispositivo, specchi, vetri o parti mobili. Le immagini mostrate sul particolare display appaiono fluttuare sopra lo schermo e gli astanti possono camminare attorno ad esse e percepirle come se fossero visionate da 200 differenti punti di visione, quasi come fossero attorno ad un oggetto reale.

Lo schermo è stato realizzato modificando un LCD convenzionale, procedendo seguendo il principio che per poter visualizzare un'immagine tridimensionale che dia la percezione di un oggetto con una sua spazialità è necessario riuscire a riprodurre tutti i raggi di luce che vengono riflessi dall'oggetto da ogni angolazione, e di ottenere un immagine differente per l'occhio sinistro e per l'occhio destro dello spettatore. Attualmente alcuni sistemi per la riproduzione di immagini tridimensionali richiedono l'impiego di specchi che si muovono rapidamente, mentre altri ancora fanno uso di raggi laser opportunamente orientati.

David Fattal, ricercatore che ha coordinato i lavori di ricerca e sviluppo, spiega che il particolare display prevede una lavorazione per creare dei solchi di dimensioni nanoscocpiche chiamati "directional pixel" e realizzati in un componente comune nei normali display LCD, ovvero la fonte di retroilluminazione. Questo progetto si basa sugli studi effettuati nel campo dell'ottica che dimostrano come il percorso, il colore ed altre proprietà della luce possano essere manipolati passando attraverso materiali che sono stati lavorati su scala nanoscopica.

Un LCD convenzionale fa uso di un foglio di plastica o vetro coperto da piccole protuberanze che disperdono la luce bianca dirigendola verso l'occhio dello spettatore, non prima di attraversare il filtro colore del display, i polarizzatori e gli otturatori. Il nuovo display sostituisce queste protuberanze con i solchi nanoscopici: ciascun "directional pixel" è caratterizzato da tre incisioni che dirigono la radiazione rossa, verde e blu in una particolare direzione. Il numero di "directional pixel" determina il numero di punti di vista che il display può riprodurre. A questo punto la luce proveniente dai "directional pixel" passa attraverso un array di cristalli liquidi convenzionale, come accade in un normale display LCD.

Con questo dispositivo i ricercatori di HP sono stati in grado di riprodurre immagini statiche con 200 punti di visione o video, a 30 frame al secondo, con 64 punti di visione. Secondo Fattal il sistema dovrebbe essere abbastanza semplice da realizzare, dal momento che condivide gran parte dell'impostazione di base con quella di un tradizionale LCD. L'integrazione di un display 3d/olografico di questo tipo con un sistema di controllo che si basa sui principi che governano il sistema Kinect di Microsoft potrebbero portare alla realizzazione di interfacce tridimensionali con cui l'utente può interagire come fossero oggetti fluttuanti nello spazio.

Fattal osserva che la produzione di contenuti per un display di questo tipo richederebbe 200 immagini differenti, motivo per cui le applicazioni più promettenti per questo tipo di display saranno legate ad immagini computer-generated, piuttosto che fotografie o video di scenari reali. "Un'interfaccia 3D per un telefono cellulare o un laptop può mostrare differenti finestre una vicino all'altra oppure un architetto può usare un tablet per mostrare un modello tridimensionale ai propri clienti invece di costruire un modello fisico" ha commentato Fattal.

David Krum, coordinatore del laboratorio Mixed Reality dell'University of Southern California afferma che molti ricercatori stanno lavorando allo sviluppo di contenuti per i sistemi di visualizzazione 3D. Parte di questa attività di ricerca, spiega Krum, è la comprensione dei meccanismi di percezione della visione umana per capire quali raggi di luce possono essere usati e quali eliminati per creare la percezione di un'immagine tridimensionale per lo spettatore. Si tratta di un importante nodo da sciogliere, per evitare che i contenuti 3D inizino a rappresentare un pesante fardello per i dispositivi di storage e per i sistemi di trasmissione dati.

6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
rigelpd27 Marzo 2013, 13:20 #1
Nell'articolo non viene specificato che un sistema del genere riduce di 200 volte la risoluzione dello schermo. Questa applicazione renderà utili gli schermi sub-retina ovvero con densità di pixel maggiori di 400ppi che in altri casi non avrebbero senso.

djfix1327 Marzo 2013, 14:36 #2
nell'articolo viene specificato come sia una ricerca e non un prodotto finale...quindi polemiche sui PPI finali è ironia pura!
puoi sub-retina ho qualche dubbio che sia un termine reale e che indichi qualcosa; se devo inventarne uno lo chiamerei over-retina o super-retina o meglio ancora non usare il termine fuorviante Retina...
calabar27 Marzo 2013, 15:14 #3
Ci vorranno dei display appositi, quindi non ha senso preoccuparsi di quelli attualmente in giro.

Per la riduzione della risoluzione, puoi linkare la fonte?
Leggendo qui mi è parso di capire che ogni pixel "tradizionale" è dotato di numerosi "nanosolchi" per produrre l'effetto olografico, il che quindi non dovrebbe portare ad una riduzione della risoluzione.
Ma del resto stiamo parlando di proiezioni 3D, difficile ragionare in termini di risoluzione 2D.
rigelpd27 Marzo 2013, 15:24 #4
@ djfix13

Se devi mostrare 200 immagini per ogni frame è ovvio che la tua risoluzione si riduce di 200 volte (che su frame bidimensionali vuol dire 200x200 = 40000 volte meno pixel.

Inutile stare a cincischiare sul nome subretina etc.. il concetto è quello che ho esposto, ne più ne meno.
rigelpd27 Marzo 2013, 15:36 #5
Vi spiego come funziona:

il primo strato è una sorgente luminosa, un led ad esempio, i led emettono luce in tutte le direzioni. Il secondo strato è caratterizzato da una superficie trasparente in cui sono stati ricavati dei nano-solchi inclinati rispetto alla normale di angoli variabili da circa 0 a circa 90°. Immaginate un punto della lastra con un solco perpendicolare, circondato da un cerchio di solchi inclinato di 10°, a suo volta circondato da un cerchio più grande di solchi inclinati di 20° e così via fino al cerchio finale di solchi inclinati di quasi 90°. Questo set di cerchi concentrici è sovrastato da una matrice di pixel, la luce del led passando attraverso i solchi viene intrappolata e passano solo quei raggi che sono paralleli all'angolazione del solco. il raggio passando a sua volta attraverso uno dei pixel lo illumina, così abbiamo che ogni pixel viene illuminato da raggi di diversa pendenza. Quindi mettendoti in una determinata angolazione rispetto allo schermo riesci a vedere illuminato solo quel pixel il cui raggio è angolato come la tua linea di vista, gli altri pixel li vedi spenti anche se in realtà sono accesi, solo che non puoi vederli perchè illuminati da raggi che puntano in altre direzioni che non raggiungono i tuoi occhi.

Ora immaginate una matrice formata da questi anelli concentrici: la risoluzione dell'immagine che tu vedrai è definita dal numero di questi pattern. Ognuno di questi pattern illumina una sub matrice di led, ma l'osservatore vede solo uno dei pixel di questa sub matrice e di conseguenza la risoluzione di riduce di tante volte quanti sono i pixel della sub matrice associati ai pattern di anelli.

giovannifg27 Marzo 2013, 17:49 #6

Grazie!

Originariamente inviato da: rigelpd
Vi spiego come funziona:

il primo strato è una sorgente luminosa, un led ad esempio, i led emettono luce in tutte le direzioni. Il secondo strato è caratterizzato da una superficie trasparente in cui sono stati ricavati dei nano-solchi inclinati rispetto alla normale di angoli variabili da circa 0 a circa 90°. Immaginate un punto della lastra con un solco perpendicolare, circondato da un cerchio di solchi inclinato di 10°, a suo volta circondato da un cerchio più grande di solchi inclinati di 20° e così via fino al cerchio finale di solchi inclinati di quasi 90°. Questo set di cerchi concentrici è sovrastato da una matrice di pixel, la luce del led passando attraverso i solchi viene intrappolata e passano solo quei raggi che sono paralleli all'angolazione del solco. il raggio passando a sua volta attraverso uno dei pixel lo illumina, così abbiamo che ogni pixel viene illuminato da raggi di diversa pendenza. Quindi mettendoti in una determinata angolazione rispetto allo schermo riesci a vedere illuminato solo quel pixel il cui raggio è angolato come la tua linea di vista, gli altri pixel li vedi spenti anche se in realtà sono accesi, solo che non puoi vederli perchè illuminati da raggi che puntano in altre direzioni che non raggiungono i tuoi occhi.

Ora immaginate una matrice formata da questi anelli concentrici: la risoluzione dell'immagine che tu vedrai è definita dal numero di questi pattern. Ognuno di questi pattern illumina una sub matrice di led, ma l'osservatore vede solo uno dei pixel di questa sub matrice e di conseguenza la risoluzione di riduce di tante volte quanti sono i pixel della sub matrice associati ai pattern di anelli.


Grazie per la spiegazione, adesso è più chiaro!

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^