Processori sino a 1.000 core tra le ricerche di Intel

Processori sino a 1.000 core tra le ricerche di Intel

L'azienda americana prosegue la propria iniziativa di ricerca Terascale Computing puntando l'attenzione sull'infrastruttura, soprattutto software, necessaria per architetture multicore spinte

di Paolo Corsini pubblicata il , alle 14:22 nel canale Periferiche
Intel
 

Nel futuro di Intel vedremo architetture di processore dotate di un quantitativo estremamente elevato di core? Una risposta chiara e diretta a questa domanda non è, quantomeno al momento attuale, possibile ma è evidente come l'azienda americana stia da tempo eseguendo varie analisi con l'obiettivo di capire in che modo possano venir sviluppate soluzioni commerciali di questo tipo.

Alla base vi sono varie problematiche che devono bilanciarsi tra di loro. Da un lato, la capacità produttiva da parte delle fabbriche di costruire in modo economicamente sensato un'architettura di processore che integri un elevatissimo numero di core. Dall'altra la necessità tecnica che questi core possano operare in parallelo sfruttando al massimo la potenza di elaborazione di ciascuno.

Non dobbiamo ovviamente tralasciare la componente software: un numero estremamente elevato di core ha poco senso pratico nel momento in cui mancano le applicazioni che li possano correttamente sfruttare. Da questo la necessità di sviluppare anche l'ambito della programmazione, rendendo i programmi da eseguire sempre più paralleli così che possano al meglio scalare su un elevato quantitativo di core.

All'interno del proprio Terascale Computing Research Program Intel ha presentato chip sperimentali contenenti 48 e 80 core in un singolo package, ma questo non sembra proprio essere il limite. L'azienda americana sta infatti studiando, come confermato in questo articolo di zdnet, l'intenzione di giungere sino ad un numero di 1.000 cores in un singolo chip, obiettivo che quantomeno dal punto di vista delle tecnologie richieste per la produzione sembra poter diventare accessibile nei prossimi anni.

Il punto interrogativo riguarda piuttosto il notevole sforzo da fare per rendere un'architettura di questo tipo pienamente efficiente, capace cioè di scalare in funzione del tipo di elaborazione che viene chiesto di eseguire. Da questo scaturisce molta ricerca interna, sia da parte degli ISV sia della stessa Intel. Quando vedremo quindi in commercio soluzioni di questo tipo? Al momento attuale mai, in quanto per Intel si tratta di sperimentazione e ricerca e non di soluzioni che sono destinate ad entrare nella roadmap di breve - medio periodo.

23 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
supertigrotto28 Dicembre 2010, 14:25 #1

Problemino!

le interconnessioni e la gestione della memoria,molto difficile con un elevato numero di core......
Sarà una bella sfida per intel....
Opteranium28 Dicembre 2010, 14:27 #2
SOFTWARE ci vuole, altro che storie..
Ventresca28 Dicembre 2010, 14:32 #3
grazie yoda!
boboviz28 Dicembre 2010, 15:00 #4

Non mi dispiacerebbe

Non mi dispiacerebbe farci girare sopra Boinc!!!

www.boincitaly.org/
Thebaro28 Dicembre 2010, 15:07 #5
Originariamente inviato da: Opteranium
SOFTWARE ci vuole, altro che storie..


infatti...
fraussantin28 Dicembre 2010, 15:11 #6
su,su che fate in tempo....... sta per uscire crysis 2 !!!!
sidewinder28 Dicembre 2010, 15:25 #7
A parte i collegamenti core-ram, i maggiori problemi saranno dalle applicazioni e dai problemi di licenze di alcune applicazioni (esempio le applicazioni enterprise)
jappino14728 Dicembre 2010, 15:30 #8
mah.....
imho sono previsione che lasciano il tempo che trovano
intel prevedeva anche freq sino a 10GHz per i pentium 4.........
Drizzt28 Dicembre 2010, 15:45 #9
Beh, in ogni caso sono ben indietro se, come dice l'articolo, Intel "sta studiando l'intenzione di". :-D
giofal28 Dicembre 2010, 16:33 #10
Spero che un giorno finirà questa ormai inutile corsa dei processori.

Quando la legge di Moore si sarà finalmente esaurita e la potenza dei processori non sarà più aumentabile, sarà un grande giorno per l'informatica.

Finalmente ci si potrà concentrare sull'ottimizzazione del software, i computer diverranno ogni anno il doppio più veloci (legge di Moore applicata al software) e si potranno recuperare 30 anni di tempo perduto...

So che è solo un sogno ma è fin troppo evidente che il software è il vero collo di bottiglia dei sistemi attuali.

Quando il software è ottimizzato, anche il processore di un cellulare potrebbe bastare...

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^