Anche Broadcom vede la fine della legge di Moore

Anche Broadcom vede la fine della legge di Moore

Una quindicina d'anni al massimo, poi non sarà più possibile scendere al di sotto dei 5 nanometri. E' questo il parere del CTO di Broadcom, Henry Samueli

di Andrea Bai pubblicata il , alle 08:31 nel canale Scienza e tecnologia
 

Da qualche tempo nel settore dei semiconduttori serpeggia una certa preoccupazione legata all'orizzonte temporale della validità della legge di Moore. Nel corso delle passate settimane AMD aveva avuto modo di esprimere il proprio parere, osservando come stia diventando sempre più difficile, soprattutto da un punto di vista di sostenibilità economica, riuscire a tenere il passo della legge di Moore e prevedendo la sua fine nel giro di non molti anni.

E' adesso la volta di Broadcom, con il CTO Henry Samueli che in occasione di un evento celebrativo per i 40 anni dell'Ethernet non ha usato mezzi termini: "La legge di Moore sta arrivando alla fine. Nel prossimo decennio sarà ancor più vicina alla fine e quindi abbiamo circa 15 anni di tempo. I transistor CMOS standard arresteranno il loro progresso attorno ai 5 nanometri, e tutto ciò che ne consegue si livellerà".

Samueli, essendo Chief Technology Officer di una delle più importanti realtà che sviluppa chip di telecomunicazioni, declina la fine della legge di Moore sul campo della connettività: "Le velocità di rete potranno tranquillamente arrivare nell'ordine dei terabit, ma non sono sicuro che potremo vedere la strada che porta ai petabit. Gli switch di rete si livelleranno e quando il progresso delle reti si livella, cambiano le dinamiche dell'intera industria. Abbiamo ancora 15 anni per divertirci, ma dobbiamo prepararci ad un era in cui la larghezza di banda non raddoppia ogni due anni" ha spiegato Samueli.

Il CTO di Broadcom ha dichiarato di aver avvertito i clienti che i prezzi per i chip d'avanguardia andranno a crescere a partire dalla generazone a 20 nanometri come conseguenza della crescita dei costi di produzione. A tal proposito la società di analisi di mercato Gartner ha stimato che una fabbrica capace di produrre una media di circa 45 mila wafer al mese andrà incontro ad un esborso maggiorato di circa 500 milioni di dollari per nodo di processo, dovendo impiegare due o più esposizioni litografiche per poter incidere motivi più sottili sulla superficie dei wafer.

Una delle tecniche attualmente più considerate per poter incrementare la capacità dei chip è rappresentata dallo stacking tridimensionale di vari livelli, anche se rappresenta un'alternativa costosa. La stessa Broadcom dovrebbe iniziare ad utilizzare le tecniche di stcking non prima del 2015.

A ridimensionare le preoccupazioni di Samueli è Dave House, presidente di Brocade e veterano di Intel dopo 23 anni di militanza nella compagnia di Santa Clara, il quale durante il medesimo evento ha dichiarato: "La realtà è che ora abbiamo 10-15 anni di visibilità ma oltre questo orizzonte non sappiamo ancora come risolveremo il problema dello scaling dei CMOS". House ha lavorato a stretto contatto con Gordon Moore durante gli anni trascorsi in Intel. "Nel 1970 ho iniziato a predicare che la legge di Moore avrebbe risolto tutti i nostri problemi e Gordon mi fermava dicendomi "non penso che fra dieci anni possa valere ancora". Dieci anni dopo è successa la stessa cosa. Durante i meeting strategici di Intel è diventato un tormento periodico. Ma nel corso del tempo ci sono state sempre sufficienti risorse e scenziati abbastanza intelligenti da risolvere i problemi legati allo scaling CMOS. Potrebbe esserci una grossa barriera ai 5 nanometri ma le conseguenze sarebbero piuttosto gravi." ha dichiarato House.

4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
rockroll28 Maggio 2013, 07:21 #1
Originariamente inviato da: M47AMP
E Samueli pedissequamente si inchina all'adagio del mio titolo: "Gli switch di rete si livelleranno e quando il progresso delle reti si livella, cambiano le dinamiche dell'intera industria. Abbiamo ancora 15 anni per divertirci, ma dobbiamo prepararci ad un era in cui la larghezza di banda non raddoppia ogni due anni".
A tutti quelli che esprimono preoccupazione perché fra i 10 ed i 5 nm si raggiungeranno i limiti delle possibilità future della litografia mi vien sempre più la voglia di rispondere con un: e chissene ...
A guardare un po' più in là manco a parlarne.
Abbandono del sistema binario, calcolo analogico, reti neurali, AI: mai sentito parlarne? Se si con terrore a quel che sembra. Potrebbe essere la fine di chi non riuscisse ad adattarsi ad un nuovo modo di pensare l'IT.
Nevvero signori di Intel? Peccato, io non sarò più lì a divertirmi con quelli che oggi hanno quarant'anni o meno. Non sono fra quelli nati all'informatica con già un mouse per le mani.


Ti quoto, anche se occupo spazio, perchè condivido pienamente il tuo intervento, oltre ad essere della tua epoca...

Del resto è da parecchio, da tempi non sospetti, che vado ripetendo che "Intel sta raschiando il fondo del barile" ; ed anche io, facendo le corna, temo che non farò in tempo a godermi, quando tutti dovranno rinnovarsi partendo dallo stesso punto, il dissolversi degli attuali [I]pre[/I]potentati ...
Ma dai, su con la vita, vedrai che riusciremo ad assistere alla fase di livellamento, che paradossalmente offre più margini di miglioramento proprio a chi oggi è stato relegato, magari proprio per soprusi subiti, a ranghi non di primissimo piano.
rockroll28 Maggio 2013, 07:33 #2
Originariamente inviato da: M47AMP
E Samueli pedissequamente si inchina all'adagio del mio titolo: "Gli switch di rete si livelleranno e quando il progresso delle reti si livella, cambiano le dinamiche dell'intera industria. Abbiamo ancora 15 anni per divertirci, ma dobbiamo prepararci ad un era in cui la larghezza di banda non raddoppia ogni due anni".
A tutti quelli che esprimono preoccupazione perché fra i 10 ed i 5 nm si raggiungeranno i limiti delle possibilità future della litografia mi vien sempre più la voglia di rispondere con un: e chissene ...
A guardare un po' più in là manco a parlarne.
Abbandono del sistema binario, calcolo analogico, reti neurali, AI: mai sentito parlarne? Se si con terrore a quel che sembra. Potrebbe essere la fine di chi non riuscisse ad adattarsi ad un nuovo modo di pensare l'IT.
Nevvero signori di Intel? Peccato, io non sarò più lì a divertirmi con quelli che oggi hanno quarant'anni o meno. Non sono fra quelli nati all'informatica con già un mouse per le mani.


Ti quoto, anche se occupo spazio, perchè condivido pienamente il tuo intervento, oltre ad essere della tua epoca...

Del resto e da parecchio, da tempi non sospetti, che vado ripetendo che "Intel sta raschiando il fondo del barile" ; ed anche io, facendo le corna, temo che non farò in tempo ad assitere, quando tutti ripartiranno dallo stesso punto, allo sconvolgimento degli attuali [I]pre[/I]potentati.
LMCH28 Maggio 2013, 23:57 #3
Originariamente inviato da: M47AMP

A guardare un po' più in là manco a parlarne.
Abbandono del sistema binario, calcolo analogico, reti neurali, AI: mai sentito parlarne? Se si con terrore a quel che sembra. Potrebbe essere la fine di chi non riuscisse ad adattarsi ad un nuovo modo di pensare l'IT.
Nevvero signori di Intel? Peccato, io non sarò più lì a divertirmi con quelli che oggi hanno quarant'anni o meno. Non sono fra quelli nati all'informatica con già un mouse per le mani.


Non è paura o terrore.

Sono ormai decenni che le stesse grosse aziende del settore o fanno ricerca direttamente o finanziano ricerche in università ecc. ecc.
orientate a trovare alternative all'attuale tecnologia elettronica dominante basata sul silicio.
Inclusa Intel.

Solo che fin quando la tecnologia "su silicio" attuale porta ad un aumento della scala d'integrazione a cadenza quasi regolare (con conseguente incremento delle prestazioni in un senso o l'altro) è difficile "inseguire e sorpassare", senza contare i costi di un eventuale infrastruttura per la produzione della tecnologia sostitutiva.
Nel 1995 c'erano i prototipi di memorie olografiche a 3 livelli per elemento, avevano prestazioni comparabili alle ram, capacità superiori agli hard disk del periodo ma non si sapeva come farle scalare di capacità e come "compattare" il dispositivo di lettura/scrittura.
Idem per le reti neurali, a causa dei progressi periodici della scala d'integrazione è risultato più efficiente implementarle su FPGA oppure "simularle" su architetture cpu+ram che realizzare hardware ad hoc.

Questo perchè l'infrastruttura di supporto (sia per produzione che R&D) della tecnologia su silicio attuale "c'e' gia" mentre per una tecnologia nuova-nuova bisognerebbe investire le risorse e gli anni necessari per costruirla.
Quindi finchè la tecnologia su silicio "riesce ad andare avanti", le alternative non riusciranno ad imporsi non tanto per paura ma per una questione economica.
LMCH30 Maggio 2013, 02:02 #4
Originariamente inviato da: M47AMP

Per fortuna non tutto viaggia in questa unica e pericolosissima direzione, ma è altrettanto vero che sono finiti i tempi mitici del MITI giapponese, finanziato a e su progetti dalle grandi zaibatsu, che contribuivano tutte insieme allo sviluppo delle tecnologie e del pensiero scientifico.


Scusa, ma il MITI e l'approccio giapponese al R&D non mi sembra così esemplare.
Hanno si investito tantissimo sulla ricerca applicata ma su quella di base non mi sembra si siano sforzati più di tanto, su quel lato gli USA hanno predominato anche quando il Giappone sembrava ormai avviato a superare gli USA.

Ripeto, si continua a far ricerca sulle alternative, investimenti che non ci sarebbero senza la cash cow rappresentata dall'elettronica "convenzionale"
ma nessuno è così pazzo da cercare di proporre memorie olografiche allo stato solido se non hanno [U]almeno[/U] il potenziale per sostituire gli hard disk in applicazioni di nicchia, idem per logiche non binarie vs. logiche binarie.

Ed a proposito di questo, l'anno scorso è stato prodotto il primo chip neuromorfico basato su memristori e tra 1..2 anni saranno in commercio di primi chip di memoria allo stato solido basati su memristori, questo perchè i memristori permettono di superare sia i limiti che le prestazioni delle flash-eprom attuali ed aprono la strada a circuiti neurali implementati in hardware davvero competitivi con quelli "simulati" in software per applicazioni generiche.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^