Tesla K80: due GPU e 24 Gbytes di memoria per il calcolo parallelo

Tesla K80: due GPU e 24 Gbytes di memoria per il calcolo parallelo

In occasione di SC14 NVIDIA annuncia la nuova proposta top di gamma della famiglia Tesla, una scheda dotata di due GPU montate sullo stesso PCB in abbinamento ciascuna a 12 Gbytes di memoria video. Ampio spazio anche a NVLink, la connessione tra GPU e CPU in arrivo dal 2016 che dovrebbe permettere di incrementare sensibilmente le prestazioni nei sistemi server per GPU Computing

di pubblicato il nel canale Server e Workstation
NVIDIATesla
 
31 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
CrapaDiLegno18 Novembre 2014, 12:18 #11
Eccolo, ci mancava. Basta pronunciare la parola Intel e voilà, eccolo che spunta come un paladino in difesa della sua donzella.

Originariamente inviato da: cdimauro
Falso: dipende tutto dalle esigenze. Se ho bisogno di avere dei dati prima possibile, l'aspetto energetico diventa secondario.[(/quote]
Sicoome sono sistemi che scalano quasi linearmente, se ho bisogno di avere il dato prima possibile aggiungo quante più schede di calcolo posso.
Il problema è proprio quel posso. Tutti i sistemi di calcolo sono costruiti per avere i dati il prima possibile. Sempre. Comunque. Altrimnti non si investirebbero centinaia di milioni di dollari in centinaia di migliaia di nodi e in MW di potenza. Il problema sono i limiti che questo "quanto prima" incontra. Spazio, energia e manutenzione sono le chiavi. Chi ha il miglior compromesso vince.

[QUOTE=cdimauro;41795293]D'altra parte è bene notare che di Maxwell ancora non si parla, mentre nVidia ha presentato questa scheda basata su due core... Kepler. Magari il perché ce lo potrà spiegare qualche "bambino nutelloso"...[/quoyte]
Dai su, non fare il bambino nutelloso. Di Maxwell non si parla forse perché Maxwell con capacità DP per ora non esiste. D'altrode ciò non nega il fatto che il GK110 con un PP più vecchio sia più efficiente della soluzione Intel.
Quando avremo anche full Maxwell, vedremo il confronto. Sappiamo bene che a Intel piace paragonare i suoi prodotti futuri con quelli vecchi della concorrenza per farli sembrare interessanti.
Peccato che questo giro non ci sia riuscita (*).

[QUOTE=cdimauro;41795293]Intel è talmente strozzata che...

Perde un miliardo a trimestre per tentare di lanciare i suoi Atom nel mobile, non riesce a satuare la produzione a 14nm prevista, mentre nel mondo si vendono 2 miliardi di chip ARM e ci sono fonderie create apposta per realizzare solo SoC ARM.
L'innovazione Intel si chiama "processo produttivo". Punto. Sono 6 anni o più che Intel non ha nulla di nuovo da mettere sul piatto, e l'andamento delle prestazioni dei suoi processori ne sono la testimonianza.
Poi non ho capito cosa mi hai linkato... stai dicendo che gli ARM non sono pronti a sostituire gli Xeon dei grandi server come quelli di Amazon? Caspita, che novità. Che perspicacia. Che notizia bomba!
I 64 bit per ARM sono nati ieri, ci mancherebe che fossero già all'altezza degli Xeon (e non parlo solo di pure prestazioni).
Ma ti sei dimenticato che ci sono alcune compagnie che stanno creando chip per server ad hoc per i propri data center. Cosa che fino a pochi ani fa era impensabile. E che qualcun altro sta investendo in chip general purpose per server basati su archiettura ARM. Qualsiasi sia il successo di questi prodotti saranno sempre quote rubate a quello che oggi è il monopolio Intel.
E poi non dimenticare che i server Amazon funzionano sì con le CPU intel ma dietro hanno circa 10.000 GPU nvidia. Se il vero carico di lavoro è posto su queste, una futura CPU ARM con nvlink potrebbe essere un grattacapo per Intel anche con i server Amazon. Cerca di guardare al futuro.

Originariamente inviato da: cdimauro
Al momento i 14nm sono più che sufficienti, considerato che la concorrenza annaspa. Ma in ogni caso i 10nm rimangono in roadmap.

Al momento, un anno dopo la presunta data di lancio, dei 14nm neanche l'ombra. Non eri tu che dicevi che i 14nm erano in perfetta roadmap? Sì, certo, credici che i 10nm sono in roadmap. Se per roadmap intendi che rimangono nel grafico delle strategie future di Intel, sicuramente ci sono e si faranno.
Ma con quello che Intel ha perso con i 14nm, prima di recuperare gli investimenti ci vorrà molto più del previsto. Sempre che questi 14nm funzionino a dovere, perché sembra che vi sia qualche problema a farli partire a regime... un anno dopo. E i costi non sembrano proprio (ancora) alla portata di contrastare la produzione a 20nm dei SoC ARM.
E intanto gli altri non stanno a guardare... la concorrenza, quella che dici tu, oggi non è più solo la povera AMD che è alla frutta. Si chiama ARMata, che non è una minuscola azienda inglese che progetta circuiti intergrati, si chiama Apple, Samsung, Qualcomm, AMD, nvidia e le fonderie che prosperano con la vendita dei SoC ARM. Fonderie che non stanno affatto annaspando come negli anni precedenti. L'esplosione del mercato ARM ha permesso la creazione di un mercato parallelo a quello x86 che deprimeva tutto ciò che non ruotava intorno ad Intel/x86. E infatti abbiamo un processo produttivo creato solo ed esclusivamente per fare SoC ARM o comunque integrati a basso consumo. Che vuol dire che la richiesta e il rendimento è alto. Come se domani Intel decidesse di fare i 10nm solo per produrre solo ed esclusivamente i suoi Atom perché sa che così trarrebbe maggior profitto che ad investire su un processo in grado anche di fargli fare Xeon da 15 core a 3Ghz. Impensabile, viste le cifre in gioco (di costi da una parte e di pezzi vendibili dall'altra).
Come vedi i costi e le richieste di mercato sono cambiate negli ultimi anni e i 14nm che tu ritieni "suufficienti perché gli altri annaspano" rimangono troppo costosi proprio per il mercato in cui Intel vorrebbe entrare e probabilmente insuffienti a darle il gap necessario per competere con i 16nm Finfet l'anno prossimo. Poi vedremo come andranno le cose, ma non scommetterei al buio oggi sulle capacità competitive di Intel nel medio periodo come lo avrei potuto fare 10 anni fa. Per quanto i 14, 10, 8, 6 nm siano possibili a fronte di investimenti stratosferici, quello che non funziona più in questo ciclo che ha mantenuto in piedi l'azienda fino ad oggi è che il costo dei prodotti non diminuisce più come prima, anzi. E il numero di unità vendute non aumenta più ogni anno come ai bei tempi del boom dove faceva il bello e il cattivo tempo contro una concorrenza inadeguata.

Originariamente inviato da: cdimauro
Infatti l'ha capito così bene che... Cell è morto.

Il Cell è stato un processore rivoluzionario. Il suo problema non erano certo le prestazioni, i consumi o i costi di produzione (viste le esigue dimensioni).
E' però stato un processore non adatto alla programmazione come siamo abituati a farla. Ciò non toglie che ha dimostrato che piccole unità avanzate dedicate per il calcolo sono irraggiungibili per efficienza rispetto alle mastodontiche unità general purpose che Intel ci ha propinato fino a oggi (e continua a propinare).

Originariamente inviato da: cdimauro
E POWER è messa così bene che... ha dovuto creare un consorzio per cercare aiuto per lo sviluppo. D'altra parte che quest'architettura sia in declino lo hanno detto pure loro, qualche mese fa, indicando in ARM e... proprio Intel quali le cause d'erosione di questo mercato.

Stai confondendo le caratteristiche avanzate di una architettura con la sua diffusione. Intel ha ucciso molte altre archietture superiori alla sua grazie alla sola capacità produttiva (che non ha nulla a che fare con la bontà dell'archiettura). L'architettura Power è usata in un ambito ben specifico, là dove ancora trova senso provare a fare degli investimenti. Purtroppo il mercato è piccolo in volumi in quel settore e i costi per chi non ha altri "sbocchi" sono immensi. Sempre la solita questione che la "potenza" di Intel va ben oltre al suo effettivo valore. E' in posizione dominante e ha grandi capacità di trarne particolare vantaggio.

Ed è per questo che l'accordo di licenza con nvidia apre una nuova porta (e speranza) a IBM. Come può portare nuova motivazione per l'adozione anche di ARM nel medesimo segmento. Segmento, quello dell'uso di acceleratori ad-hoc extra CPU, in rapida adozione.
Quello che volevo far notare è come invece Intel in questi anni, dopo la "cacciata" di nvidia dal mercato chipset, si sia sempre più chiusa in sé stessa e non vuole aprire la porta a terzi in nessun caso.
Il motivo può essere duplice: o si sente così forte da voler capitalizzare al massimo i rendimenti dovuti alle sole proprie capacità, oppure si sente minacciata e sa che ogni minima apertura è una crepa che può diventare una falla irreparabile (se apri ad un bus con condivisione di memoria e crei la possibilità di avere schede terze capaci di far sfiguare la tua enorme e costosa e poco efficiente CPU hai aperto la porta alla tua fine).

(*) Notizia di ieri che saranno proprio IBM e nvidia a costruire quello che probabilmente saranno i due super computer più potenti al mondo nel 2016. Probabilmente la promessa di queste due aziende di maggiore efficienza, dovuta alla storia precedente e alle tecnologie future, è più valida di quella di Intel, che sono anni che promette la rivoluzione nei vari campi ma, come è sempre stato, anche con un PP di vantaggio, riesce a malapena a concorrere. Forse la salveranno ancora una volta i Cinesi che dopo aver fatto un server basato su HD4780 senza ECC ed essere passati alle Xeon Phi, forse il prossimo giro potranno usare i SoC cinesi Rockchip con tecnologia x86 come da ultimi accordi (o sovvenzioni)
E' una battuta, eh, dai, non prendertela. Intel ti pagherà lo stipendio ancora per molto tempo, non ti preoccupare, non chiuderà battenti domani.
coschizza18 Novembre 2014, 15:17 #12
Originariamente inviato da: PhoEniX-VooDoo
ma al netto delle frequenze e del quantitativo di memoria, cosa cambia tra una Titan-Z ed una K80?


cambia proprio il chip, la titan si basa su GK110 mentre questa sul nuovo GK210
coschizza18 Novembre 2014, 15:24 #13
Originariamente inviato da: CrapaDiLegno
Altra cosa interessante è l'impegno che IBM sta mettendo nel creare il vero calcolo ibrido con la sua architettura Power. Dall'esperienza del Cell (e dall'efficienza enorme mostrata dal RoadRunner) deve aver capito che le unità di calcolo dedicate sono molto meglio di unità di elaborazione general purpose quando la CPU è destinata ad un determinato uso (il calcolo, appunto, non a far girare l'interfaccia del SO).i.


veramente il RoadRunner è stato spento definitamente nel 2013 perche era l'HPC meno efficiente in classifica (parlando dei primi ovviamente) ormai superato da tutti gli altri HPC intel amd o ibridi. Quel sistema era potente all'inizio ma poi IBM ha subito un completo declino e praticametne è sparito da tutti i priogetti di HPC negli ultimi anno. Ora ci risprova solo perche sta preparando il nuovo power 8 ma per ora è messa davvero male.
PhoEniX-VooDoo18 Novembre 2014, 15:26 #14
Originariamente inviato da: coschizza
cambia proprio il chip, la titan si basa su GK110 mentre questa sul nuovo GK210


ah, quindi Titan e K40 sono entrambe basate su GK110, mentre Titan-Z e K80 differiscono per il fatto che nonostante entrambe siano basate su Kepler, la prima usa 2xGK110 mentre la seconda 2xGK210.

2 domande

- sempre in ambito test, Titan e K40 sono paragonabili a livello di performance in DP?
- cosa cambia da GK110 a GK210?
coschizza18 Novembre 2014, 15:33 #15
Originariamente inviato da: PhoEniX-VooDoo
ah, quindi Titan e K40 sono entrambe basate su GK110, mentre Titan-Z e K80 differiscono per il fatto che nonostante entrambe siano basate su Kepler, la prima usa 2xGK110 mentre la seconda 2xGK210.

2 domande

- sempre in ambito test, Titan e K40 sono paragonabili a livello di performance in DP?
- cosa cambia da GK110 a GK210?


a meta review trovi un riassunto sulle differenze principali

http://www.anandtech.com/show/8729/...a-k80-gk210-gpu
PhoEniX-VooDoo18 Novembre 2014, 15:37 #16
Originariamente inviato da: coschizza
a meta review trovi un riassunto sulle differenze principali

http://www.anandtech.com/show/8729/...a-k80-gk210-gpu


stavo andando ad editare il post dicendo che ho trovato le info
CrapaDiLegno18 Novembre 2014, 16:58 #17
Originariamente inviato da: coschizza
veramente il RoadRunner è stato spento definitamente nel 2013 perche era l'HPC meno efficiente in classifica (parlando dei primi ovviamente) ormai superato da tutti gli altri HPC intel amd o ibridi. Quel sistema era potente all'inizio ma poi IBM ha subito un completo declino e praticametne è sparito da tutti i priogetti di HPC negli ultimi anno. Ora ci risprova solo perche sta preparando il nuovo power 8 ma per ora è messa davvero male.

Il RoadRunner è un progetto del 2003 realizzato in 3 fasi. Logico che nel 2013, dieci anni dopo, non può competere con le nuove archietture con 3 o 4 pp più avanzati. E ci mancherebbe altro. Nel 2009 quando ha battuto il muro del Petaflop era il server con la migliore efficienza. Consumava 1/2 del Server HPC più vicino (e più lento) in termini di prestazioni. E montava ancora i chip AMD, non propriamente i più efficienti. Il Cell quindi è stato rivoluzionario sotto il punto di vista dell'efficineza computazionale, dimostrando che non serve avere una CPU super mega complessa e monolitica per avere alte prestazioni ma serve avere unità di calcolo dedicate che possono essere indipendenti dalla CPU principale.
Dopo le GPU pure Intel c'è arrivata alla stessa conclusione. Peccato ce ancora non abbia capito che la parte x86 non serve (ma come detto, non le è possibile aprire uno spiraglio usando un bus "aperto" verso gli altri direttamente dalla CPU principale, equivarrebbe ad aprirsi la bara da sola).
cdimauro18 Novembre 2014, 23:54 #18
Originariamente inviato da: CrapaDiLegno
Eccolo, ci mancava. Basta pronunciare la parola Intel e voilà, eccolo che spunta come un paladino in difesa della sua donzella.

Dovresti saperlo / immaginarlo, no?
Sicoome sono sistemi che scalano quasi linearmente, se ho bisogno di avere il dato prima possibile aggiungo quante più schede di calcolo posso.
Il problema è proprio quel posso. Tutti i sistemi di calcolo sono costruiti per avere i dati il prima possibile. Sempre. Comunque. Altrimnti non si investirebbero centinaia di milioni di dollari in centinaia di migliaia di nodi e in MW di potenza. Il problema sono i limiti che questo "quanto prima" incontra. Spazio, energia e manutenzione sono le chiavi. Chi ha il miglior compromesso vince.

Se fosse come dici esisterebbe UNA sola soluzione adottata da tutti, e scalata a seconda delle esigenze. Non mi pare che sia così, e questo proprio perché scalare un sistema non è affatto semplice e le prestazioni non aumentano linearmente.
Dai su, non fare il bambino nutelloso. Di Maxwell non si parla forse perché Maxwell con capacità DP per ora non esiste.

E magari non esisterà, visto che finora nelle slide si vedono soltanto Kepler e Pascal...
D'altrode ciò non nega il fatto che il GK110 con un PP più vecchio sia più efficiente della soluzione Intel.

Quest'affermazione l'avevi già fatta mesi fa in un altro thread, a cui ho risposto riportando link e informazioni che la smentiscono. Discussione a cui non hai più partecipato.

Adesso torni nuovamente alla carica sullo stesso argomento. Non mi pare intellettualmente onesto.
Quando avremo anche full Maxwell, vedremo il confronto. Sappiamo bene che a Intel piace paragonare i suoi prodotti futuri con quelli vecchi della concorrenza per farli sembrare interessanti.
Peccato che questo giro non ci sia riuscita (*).

Anche su questo vale quanto detto sopra: altra affermazione smentita e che riporti nuovamente a galla.
Perde un miliardo a trimestre per tentare di lanciare i suoi Atom nel mobile, non riesce a satuare la produzione a 14nm prevista,

Quest'informazione da dove l'hai presa?
mentre nel mondo si vendono 2 miliardi di chip ARM e ci sono fonderie create apposta per realizzare solo SoC ARM.
L'innovazione Intel si chiama "processo produttivo". Punto. Sono 6 anni o più che Intel non ha nulla di nuovo da mettere sul piatto, e l'andamento delle prestazioni dei suoi processori ne sono la testimonianza.

In 6 anni abbiamo visto l'arrivo delle AVX, delle AVX2, delle estensioni per l'hashing, e l'accelerazione di primitive di spostamento dati. Il prossimo anno arriveranno le AVX-512.

Direi che di carne al fuoco Intel ne ha messa e ne continuerà a mettere ancora, qualunque sparata tu possa fare in merito.
Poi non ho capito cosa mi hai linkato... stai dicendo che gli ARM non sono pronti a sostituire gli Xeon dei grandi server come quelli di Amazon? Caspita, che novità. Che perspicacia. Che notizia bomba!

Non lo dico io, ma il responsabile del data center di Amazon.
I 64 bit per ARM sono nati ieri, ci mancherebe che fossero già all'altezza degli Xeon (e non parlo solo di pure prestazioni).

La nuova architettura ARMv8 non ha nulla a che vedere riguardo all'utilizzo di un processore ARM in ambito server, tolta la possibilità di indirizzare più di 4GB di memoria "in maniera agevole" e le prestazioni mediamente migliore dovute alla nuova ISA.

Infatti esistono già da tempo (micro) server basati su ARM, ma che non hanno sfondato.

Dunque il fatto che ARMv8 sia una nuova architettura lascia il tempo che trova (anche perché tanto nuova non è ormai).
Ma ti sei dimenticato che ci sono alcune compagnie che stanno creando chip per server ad hoc per i propri data center. Cosa che fino a pochi ani fa era impensabile. E che qualcun altro sta investendo in chip general purpose per server basati su archiettura ARM. Qualsiasi sia il successo di questi prodotti saranno sempre quote rubate a quello che oggi è il monopolio Intel.

Non c'è nessun monopolio, ma una posizione dominante.

Comunque la divisione server di Intel continua a crescere, e dunque più che di rubare quote di mercato a Intel sono gli altri produttori di soluzioni server che si stanno vedendo mancare il terreno da sotto i piedi...
E poi non dimenticare che i server Amazon funzionano sì con le CPU intel ma dietro hanno circa 10.000 GPU nvidia. Se il vero carico di lavoro è posto su queste, una futura CPU ARM con nvlink potrebbe essere un grattacapo per Intel anche con i server Amazon. Cerca di guardare al futuro.

Il futuro non c'entra nulla. Bisogna guardare a come funziona un data center, un server, e magari avere un briciolo di esperienza di programmazione per capire l'utilizzo di una GPU in quest'ambito è e sarà nettamente ridotto rispetto a quello della CPU. Ciò non vuol dire che le GPU non abbiano motivo di essere utilizzate; sicuramente ci saranno scenari in cui eccellono (ad esempio lo scaling di un'immagine), ma il punto è che in generale si tratta di pochi scenari rispetto a quelli "più generali" dove è la CPU lo strumento principe per l'elaborazione.

Di fatti, e senza nemmeno avere queste conoscenze, il solo fatto che ci siano soltanto 10 mila GPU (SE ci sono) rispetto alle centina di migliaia di CPU utilizzate è una chiara prova / indicazione di come vanno realmente le cose.
Al momento, un anno dopo la presunta data di lancio, dei 14nm neanche l'ombra. Non eri tu che dicevi che i 14nm erano in perfetta roadmap?

Esattamente.
Sì, certo, credici che i 10nm sono in roadmap. Se per roadmap intendi che rimangono nel grafico delle strategie future di Intel, sicuramente ci sono e si faranno.
Ma con quello che Intel ha perso con i 14nm, prima di recuperare gli investimenti ci vorrà molto più del previsto. Sempre che questi 14nm funzionino a dovere, perché sembra che vi sia qualche problema a farli partire a regime... un anno dopo.

Considerato che Intel continua a guadagnare quote di mercato, non credo che avrà difficoltà a recuperare dagli investimenti per i 14nm.
E i costi non sembrano proprio (ancora) alla portata di contrastare la produzione a 20nm dei SoC ARM.

E quando sarebbe partita la produzione di SoC ARM a 20nm?
E intanto gli altri non stanno a guardare... la concorrenza, quella che dici tu, oggi non è più solo la povera AMD che è alla frutta. Si chiama ARMata, che non è una minuscola azienda inglese che progetta circuiti intergrati, si chiama Apple, Samsung, Qualcomm, AMD, nvidia e le fonderie che prosperano con la vendita dei SoC ARM. Fonderie che non stanno affatto annaspando come negli anni precedenti.

A no? Allora potresti cortesemente farmi sapere come sono messe coi nuovi processi produttivi? Perché non mi pare che le più recenti notizie in merito siano un loro segno di floridità.
L'esplosione del mercato ARM ha permesso la creazione di un mercato parallelo a quello x86 che deprimeva tutto ciò che non ruotava intorno ad Intel/x86. E infatti abbiamo un processo produttivo creato solo ed esclusivamente per fare SoC ARM o comunque integrati a basso consumo. Che vuol dire che la richiesta e il rendimento è alto. Come se domani Intel decidesse di fare i 10nm solo per produrre solo ed esclusivamente i suoi Atom perché sa che così trarrebbe maggior profitto che ad investire su un processo in grado anche di fargli fare Xeon da 15 core a 3Ghz. Impensabile, viste le cifre in gioco (di costi da una parte e di pezzi vendibili dall'altra).
Come vedi i costi e le richieste di mercato sono cambiate negli ultimi anni e i 14nm che tu ritieni "suufficienti perché gli altri annaspano" rimangono troppo costosi proprio per il mercato in cui Intel vorrebbe entrare e probabilmente insuffienti a darle il gap necessario per competere con i 16nm Finfet l'anno prossimo.

Fammi capire: i 14nm sarebbero inutili e costosi, ma soltanto per Intel, giusto? Allora non si capisce perché le altre fonderie stiano facendo sforzi enormi per arrivare ai 16nm, o addirittura puntino ai 10nm. Sarà una follia generalizzata.
Poi vedremo come andranno le cose, ma non scommetterei al buio oggi sulle capacità competitive di Intel nel medio periodo come lo avrei potuto fare 10 anni fa.

Solo di Intel? Bah...
Per quanto i 14, 10, 8, 6 nm siano possibili a fronte di investimenti stratosferici, quello che non funziona più in questo ciclo che ha mantenuto in piedi l'azienda fino ad oggi è che il costo dei prodotti non diminuisce più come prima, anzi. E il numero di unità vendute non aumenta più ogni anno come ai bei tempi del boom dove faceva il bello e il cattivo tempo contro una concorrenza inadeguata.

Sono investimenti sostenuti da tutte le fonderie che contano, perché i vantaggi, evidentemente, ci sono a ridurre ancora le dimensioni dei transistor. Ma magari tu ne sai più di ingegneri e fisici, e potrai spiegare a TSMC, Samsung, e Globalfoundries che è molto meglio rimanere coi processi attuali...
Il Cell è stato un processore rivoluzionario. Il suo problema non erano certo le prestazioni, i consumi o i costi di produzione (viste le esigue dimensioni).

Cell era un catorcio già all'epoca. E i suoi problemi erano proprio le prestazioni, i consumi, e i costi di produzione dovuti proprio all'enorme superficie del chip.

Se cerchi qui, proprio in questa sezione, troverai discussioni in merito già da ben prima che venisse presentato, e in cui ciò che fu scritto si è poi puntualmente verificato.

Cell va benissimo in ambiti di tipo DSP-like, ma non era certo un buon processore da infilare in una console o da pensare di essere usato in ambito desktop o server. Infatti è defunto.
E' però stato un processore non adatto alla programmazione come siamo abituati a farla. Ciò non toglie che ha dimostrato che piccole unità avanzate dedicate per il calcolo sono irraggiungibili per efficienza rispetto alle mastodontiche unità general purpose che Intel ci ha propinato fino a oggi (e continua a propinare).

Forse perché gli ambiti applicativi sono totalmente diversi? Vedi sopra e, soprattutto, i vecchi thread in questa sezione.
Stai confondendo le caratteristiche avanzate di una architettura con la sua diffusione. Intel ha ucciso molte altre archietture superiori alla sua grazie alla sola capacità produttiva (che non ha nulla a che fare con la bontà dell'archiettura).

Di questo se n'è parlato di recente (il thread della recente condanna a Intel per la causa collettiva che le era stata intentata da alcuni acquirenti dei Pentium 4), e ho postato dei link a riguardo che dimostrano l'esatto contrario.
L'architettura Power è usata in un ambito ben specifico, là dove ancora trova senso provare a fare degli investimenti. Purtroppo il mercato è piccolo in volumi in quel settore e i costi per chi non ha altri "sbocchi" sono immensi. Sempre la solita questione che la "potenza" di Intel va ben oltre al suo effettivo valore. E' in posizione dominante e ha grandi capacità di trarne particolare vantaggio.

Peccato che la TOP500 dimostri un'altra realtà. Ma ne parlo meglio dopo.
Ed è per questo che l'accordo di licenza con nvidia apre una nuova porta (e speranza) a IBM. Come può portare nuova motivazione per l'adozione anche di ARM nel medesimo segmento. Segmento, quello dell'uso di acceleratori ad-hoc extra CPU, in rapida adozione.
Quello che volevo far notare è come invece Intel in questi anni, dopo la "cacciata" di nvidia dal mercato chipset, si sia sempre più chiusa in sé stessa e non vuole aprire la porta a terzi in nessun caso.
Il motivo può essere duplice: o si sente così forte da voler capitalizzare al massimo i rendimenti dovuti alle sole proprie capacità, oppure si sente minacciata e sa che ogni minima apertura è una crepa che può diventare una falla irreparabile

Personalmente sono dell'idea che il mercato dei processori è libero, e ognuno può crearsene uno proprio. Se a Intel piace tenersi stretta la propria architettura e le sue tecnologie, fa benissimo, qualunque siano i motivi.
(se apri ad un bus con condivisione di memoria e crei la possibilità di avere schede terze capaci di far sfiguare la tua enorme e costosa e poco efficiente CPU hai aperto la porta alla tua fine).

Questo della poca efficienza è un mantra che continui a ripetere da tempo, ma di cui "stranamente" non riporti fatti a supporto, nonostante le passate richieste.
(*) Notizia di ieri che saranno proprio IBM e nvidia a costruire quello che probabilmente saranno i due super computer più potenti al mondo nel 2016. Probabilmente la promessa di queste due aziende di maggiore efficienza, dovuta alla storia precedente e alle tecnologie future, è più valida di quella di Intel, che sono anni che promette la rivoluzione nei vari campi ma, come è sempre stato, anche con un PP di vantaggio, riesce a malapena a concorrere. Forse la salveranno ancora una volta i Cinesi che dopo aver fatto un server basato su HD4780 senza ECC ed essere passati alle Xeon Phi, forse il prossimo giro potranno usare i SoC cinesi Rockchip con tecnologia x86 come da ultimi accordi (o sovvenzioni)

Checché tu ne dica, la realtà dice che:
- l'86% dei supercomputer nella TOP500 fa uso di processori Intel (bada bene: non ho considerato AMD);
- il 97% delle nuove entrate fa uso di processori Intel;
- il 17% dei supercomputer fa uso di processori di Xeon Phi.

Dati ufficiali, ovviamente. Con buona pace dei gufi...
E' una battuta, eh, dai, non prendertela. Intel ti pagherà lo stipendio ancora per molto tempo, non ti preoccupare, non chiuderà battenti domani.

Vedi sopra: non c'è motivo di preoccupazione.

Sarebbe interessante, invece, capire cosa ci guadagni un pinco pallino qualsiasi a lanciare "campagne d'odio" e di disinformazione nei confronti di aziende "nemiche", fino al punto di farsi sputtanare pubblicamente (vabbé, l'anonimato dei nick è molto comodo per coprirsi le spalle).

Ma magari lo scopriremo su Kazzenger...
cdimauro19 Novembre 2014, 00:01 #19
Originariamente inviato da: CrapaDiLegno
Il RoadRunner è un progetto del 2003 realizzato in 3 fasi. Logico che nel 2013, dieci anni dopo, non può competere con le nuove archietture con 3 o 4 pp più avanzati. E ci mancherebbe altro. Nel 2009 quando ha battuto il muro del Petaflop era il server con la migliore efficienza. Consumava 1/2 del Server HPC più vicino (e più lento) in termini di prestazioni. E montava ancora i chip AMD, non propriamente i più efficienti. Il Cell quindi è stato rivoluzionario sotto il punto di vista dell'efficineza computazionale, dimostrando che non serve avere una CPU super mega complessa e monolitica per avere alte prestazioni ma serve avere unità di calcolo dedicate che possono essere indipendenti dalla CPU principale.

Allora non si capisce perché sia stato abbandonato da TUTTI i suoi creatori, quando avrebbero potuto riproporlo benissimo con processi produttivi aggiornati (come peraltro hanno fatto, finché l'hanno tenuto in vita).
Dopo le GPU pure Intel c'è arrivata alla stessa conclusione.

Scusami, cos'avrebbe fatto Intel? A me pare, invece, che abbia deciso di puntare su una moltitudine di core "megacomplessi" (poi mi fornirai una dimostrazione di questa "megacomplessità", anche se te l'ho già chiesto tempo fa e aspetto ancora una risposta, tanto per cambiare) e "monolitici" (cosa intendi con ciò riguardo a una CPU non è affatto chiaro; sarebbe utile quanto meno una definizione).
Peccato ce ancora non abbia capito che la parte x86 non serve

Cosa esattamente non servirebbe, e perché?
(ma come detto, non le è possibile aprire uno spiraglio usando un bus "aperto" verso gli altri direttamente dalla CPU principale, equivarrebbe ad aprirsi la bara da sola).

Altra cosa tutt'altro che chiara. Quale bus "chiuso" utilizzerebbe Intel? Quali problemi creerebbe alla concorrenza? E cosa dovrebbe utilizzare, invece?

Vediamo se qualche risposta, possibilmente con qualche fondamento tecnico, la fornirai finalmente, perché ti capisci solo tu.
Littlesnitch19 Novembre 2014, 10:06 #20
MA perché non vi trovate in un bar e discutete li, al massimo vi prendete a calci in e almeno non state qui a fare OT insulsi inneggiando alle aziende che vi pagano lo stipendio!

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^