IDF Fall 2008 Day 0, il futuro è del Visual Computing

IDF Fall 2008 Day 0, il futuro è del Visual Computing

Si apre a San Francisco l'Intel Developer Forum edizione autunno 2008, con le consuete anteprime per la stampa che anticipano l'evento vero e proprio. I relatori scelgono di tracciare gli scenari futuri della tecnologia e del mondo Internet, che saranno contraddistinti da un approccio molto più visuale rispetto a quanto siamo abituati.

di Alessandro Bordin, Andrea Bai pubblicato il nel canale Mercato
Intel
 

Everyday Sensing and Perception, ESP ed alcuni esempi

Nel corso delle presentazioni della sessione preliminare dell'IDF Fall 2008 si è tenuto un interessante approfondimento sugli strumenti che permettono di instaurare il collegamento tra il mondo virtuale e quello reale, fisico. Andrew Chien, vice president Corporate Technology Group e responsabile di Intel Research ha così illustrato una serie di ricerche legata al mondo dei sensori, a partire da quelli su scala micrometrica per giungere fino a quelli su scala macrometrica, dimostrando come in futuro sarà possibile avere a che fare sempre di più con macchine in grado di interagire con l'attività dell'utente.

Un esempio portato da Intel riguarda un progetto per il riconoscimento ottico di oggetti a mezzo di una telecamera montata su una spalla. Egocentric Video (ECV), questo il nome della particolare periferica e relativo software, è già in grado di riconoscere migliaia di oggetti con una precisione del 95%, anche in differenti ambienti con diversa illuminazione. Se sulle prime questo progetto potrà sembrare fine a sé stesso, sono in realtà molteplici le applicazioni pratiche che potrebbero essere condotte da Egocentric Video, fra cui guidare nelle scelte di uno o l'altro oggetto, in quanto il sistema permette anche di tracciare e ricordare l'utilizzo che se ne è fatto. Attualmente, con le capacità di calcolo raggiunte dalla tecnologia, il sistema è in grado di tracciare fino a 7 oggetti contemporaneamente, anche se è previsto in futuro di tracciare fino a 100 oggetti in contemporanea.

Per comprendere quanto in alto si possa spingere il livello di interazione macchina-uomo, Intel ha brevemente illustrato un esperimento condotto per verificare la possibilità di distinguere ed individuare gli utenti di un normale televisore semplicemente analizzando il modo in cui ciascuno impugna e utilizza il telecomando. Grazie ad una serie di sensori, come accelerometri per registrare l'accelerazione e l'energia del movimento, ed i keylogger per tracciare i pulsanti premuti, è stato possibile realizzare un sistema capace di raggiungere l'85% di accuratezza nel riconoscimento dell'utente.

Una tecnologia di questo tipo, sebbene per ora ferma solamente al livello di una semplice ricerca, potrebbe permettere in futuro apparecchi e dispositivi in grado di adattare autonomamente il proprio funzionamento a seconda dell'utente che si troveranno dinnanzi. Siamo al preludio delle macchine senzienti?

DermFind è un sistema attualmente in fase di sperimentazione presto l'Università di Pittsburgh e si tratta di una soluzione cosiddetta di "decision support" per l'individuazione del cancro alla pelle, o melanoma. Un sensore cattura un'immagine della lesione della pelle sulla quale è necessario condurre una analisi approfondita, che viene utilizzata per interrogare un database medico e confrontare quanto raccolto dal sensore con casi simili. Le informazioni legate ad ogni singolo caso possono essere così messe rapidamente ed agevolmente a confronto, aiutando i medici a giungere a diagnosi e decisioni.

Il riconoscimento di attività biologiche non è però solo a carico di sensori, in quanto parallelamente vi sono delle ricerche, alle quali Intel collabora, volte allo sviluppo di  software in grado di apprendere attraverso l'osservazione di immagini. E' il caso delle cellule staminali, argomento molto dibattuto anche nel campo della bioetica. Gli studi riguardanti queste particolari cellule totipotenti sono spesso limitati dall'impossibilità o dall'estrema difficoltà di tracciare le cellule singolarmente. Le immagini infatti, trovandoci nel campo dell'estremamente piccolo, sono quelle fornite dal microscopio a contrasto di fase e non certo un video.

L'elaborazione di queste immagini per mezzo di software specifico, quello appunto che si sta sviluppando all'interno del progetto, ha portato al tracking di alcune singole cellule per poter così osservare le fasi più salienti della vita delle cellule staminali, come la mitosi, in maniera del tutto nuova.

 
^