Processori sino a 1.000 core tra le ricerche di Intel

Processori sino a 1.000 core tra le ricerche di Intel

L'azienda americana prosegue la propria iniziativa di ricerca Terascale Computing puntando l'attenzione sull'infrastruttura, soprattutto software, necessaria per architetture multicore spinte

di pubblicata il , alle 14:22 nel canale Device
Intel
 
23 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
bfisher28 Dicembre 2010, 16:50 #11
Effettivamente c'è moltissimo software scritto da schifo... però da qui a teorizzare un progresso pari alla legge di Moore ce ne va un sacco
Metti anche che limando ovunque (e a caro costo) si ottimizzi tutto, non credo si andrebbe oltre un aumento di 10x delle prestazioni...
Meglio puntare su architetture ad altissimo parallelismo e reti neurali.
coschizza28 Dicembre 2010, 16:58 #12
Originariamente inviato da: giofag

Quando il software è ottimizzato, anche il processore di un cellulare potrebbe bastare...


Ottimizzare il software ha molti piu limiti di ottimizzare l'hardware. Ci sono tanti software ottimizzati oggi ma su un processore di un cellulare non potresti nemmeno lanciarli altro che usarli.

Ottimizzare il software oltre a un cero limite porta solo l'aumento dei costi di sviluppo senza pero portare vantaggi all'utentre finale.

Io non la vedo cosi male con i software moderni hanno recuperato molto da quando hanno iniziato a usare (dove serve) un multithread piu spinto. Va detto che solo una piccola parte dei software puo essere modificata per trarre vantaggio dei core multipli nelle cpu moderne per tutti gli altri fare questo lavoro porterebbe vantaggi minimi ma costi esorbitanti.
CharlieManson28 Dicembre 2010, 17:13 #13

fake

notizia assolutamente falsa.

conosco personalmente Tim Mattson di Intel e si è lamentato di come i media abbiano stravolto completamente il suo lavoro (presentato a SC2010) nel progetto Terascale/Exascale.

Lui ha semplicemente ipotizzato quali possano essere le caratteristiche di un'architettura a 1000 core per funzionare (da cui il progetto SCC http://techresearch.intel.com/ProjectDetails.aspx?Id=1 )

Thebaro28 Dicembre 2010, 17:18 #14
Originariamente inviato da: giofag
Spero che un giorno finirà questa ormai inutile corsa dei processori.

Quando la legge di Moore si sarà finalmente esaurita e la potenza dei processori non sarà più aumentabile, sarà un grande giorno per l'informatica.

Finalmente ci si potrà concentrare sull'ottimizzazione del software, i computer diverranno ogni anno il doppio più veloci (legge di Moore applicata al software) e si potranno recuperare 30 anni di tempo perduto...

So che è solo un sogno ma è fin troppo evidente che il software è il vero collo di bottiglia dei sistemi attuali.

Quando il software è ottimizzato, anche il processore di un cellulare potrebbe bastare...


mancano i veri programmatori... quelli che con 1 mb di ram..sapevano fare i miracoli... (Amiga).
Progeny28 Dicembre 2010, 17:22 #15
ho appena dato l'esame di calcolatori elettronici e abbiamo affrontato quindi questo genere di problematiche, ottimizzare software va bene quando si ha a che fare con istruzioni che hanno un alto livello di parallelismo intrinseco ad esempio un ciclo for con migliaia / milioni di iterazioni e se vi è indipendenza di dati tra un'iterazione e l'altra (come la somma di 2 vettori).

il concetto è che se in uno stadio della pipeline hardware sto usando un certo componente hw (tipo sommatore) e nell'istruzione successiva ho bisogno ancora di quel componente, l'istruzione va in stallo, a meno che non ho 2 sommatori, quindi aumenta la complessità e la grandezza del circuito...

e poi i moderni processori effettuano da soli speculazione hardware e scheduling delle istruzioni, quindi ottimizzano loro stessi le istruzioni per avere il minor numero di stalli, cosa che avviene anche a livello di compilatore, non dimentichiamocelo...

si può dire che per l'hardware attuale, al processore arrivano istruzioni già abbastanza ottimizzate...

come dice il mio prof (che ha lavorato alla intel e ha dei brevetti registrati per la intel) aumentare il numero di core non è la soluzione, va bene solo per applicazioni vettoriali.
Gnubbolo28 Dicembre 2010, 17:35 #16
Originariamente inviato da: Thebaro
mancano i veri programmatori... quelli che con 1 mb di ram..sapevano fare i miracoli... (Amiga).

questi programmatori lavorano alla intel, hanno creato icc che fa lo stesso lavoro, probabilmente meglio.
CharlieManson28 Dicembre 2010, 17:35 #17
aumentare il numero di core all'infinito non ha senso, si sbatte sempre contro la legge di Amdahl, per non parlare della quantità di RAM necessaria.

La soluzione sarebbe attualmente creare un know how lato software di parallelizzazione, vettorizzazione e ottimizzazione dei codici già scritti che manca completamente.
CharlieManson28 Dicembre 2010, 17:39 #18
vero, icc vettorizza dove gcc ancora non è arrivato

e l'IPO oggi fa veramente miracoli
Stech198728 Dicembre 2010, 20:19 #19
...progetto dell'Ing. Cane ("MILLE!"
:lol:
homero28 Dicembre 2010, 20:46 #20

intel è sempre indietro

le soluzioni multicore ci sono già, il chip nvidia fermi è un esempio lampante e le nuove cpu+gpu amd saranno il futuro tra 4 o 5 anni....
quindi intel in realtà ha bisogno di una gpu e non di un cpu....
tra 20 anni non so cosa ci sarà ma certo la tecnologia ottica porterebbe a prestazioni nell'ordine del teraherz ossia 1000 volte la velocità attuale

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^