Entro fine giugno al debutto nuove schede ATI FireStream?

Entro fine giugno al debutto nuove schede ATI FireStream?

AMD starebbe preparando il lancio di nuove schede video destinate al GPU Computing, basate sull'architettura della famiglia Evergreen

di pubblicata il , alle 09:33 nel canale Private Cloud
ATIAMD
 

AMD potrebbe a breve presentare una nuova serie di schede video della famiglia FireStream, soluzioni specificamente sviluppate per gli ambiti di utilizzo GPU computing all'interno di workstation oppure di sistemi server, anche in formato rack.

Nel mese di Aprile AMD ha presentato le prime schede video della famiglia FirePro basate su GPU di nuova generazione, compatibili con le API DirectX 11 e derivate dalle proposte desktop della serie Radeon HD 5000; rispetto a queste ultime soluzioni sono ovviamente state introdotte opportune differenziazioni architetturali, specifiche per gli utilizzi in workstation grafiche.

Stando ad alcune informazioni emerse online, AMD potrebbe presentare una nuova serie di schede video della famiglia FireStream entro la fine del mese di Giugno, basate sulle stesse GPU della famiglia Evergreen adottate nelle proposte FirePro e Radeon HD 5000 in commercio. L'ambito di utilizzo è quello dei sistemi HPC, delle applicazioni cloud e del rendering remoto lato server, con applicazioni che possano sfruttare al meglio l'elevato parallelismo in elaborazione messo a disposizione da un'architettura di GPU.

Alcuni mesi fa AMD ha presentato le prime cpu della famiglia Opteron dotate di architettura sino a 12 core; si tratta dei processori Opteron della serie 6000, compatibili con le nuove generazioni di piattaforme con memoria DDR3. AMD dovrebbe presentare nel corso delle prossime settimane anche i processori Opteron della serie 4000, soluzioni con architetture a 4 e 6 core destinate ad un posizionamento di mercato ad un livello di prezzo medio inferiore rispetto alle proposte Opteron 6000. E' ipotizzabile quindi che entro fine Giugno AMD possa completare la propria serie di annunci incentrati sul settore server, propponendo sia GPU come CPU per i propri clienti specializzati in questo settore di mercato.

20 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Argasio14 Giugno 2010, 09:45 #1
nvidia dovrà aumentare di parecchio i core delle quadro se vorrà avere qualche possibilità di mantenere la leadership nel settore professionale (fx380 90 cores,fx 580 120,fx 1800 190,fx 3800 360,fx5800 480)


Prometheus Unbound14 Giugno 2010, 09:46 #2
Ati cerca di riproporre il successo delle 5xxx ma in questo caso dubito che Nvidia sia impreparata.
FRANLELLI14 Giugno 2010, 09:54 #3
Secondo me Nvidia invece sentirà una bella botta:
Le fermi e di conseguenza tutti i suoi derivati, scaldano molto e consumano molto. In un datacenter quelli sono due problemi tremendi: Se Ati riesce a muoversi bene e finalmente a fare buona campagna promozionale su OpenCl a questo giro rischia di vincere la partita....
niki8914 Giugno 2010, 10:14 #4
Originariamente inviato da: FRANLELLI
Secondo me Nvidia invece sentirà una bella botta:
Le fermi e di conseguenza tutti i suoi derivati, scaldano molto e consumano molto. In un datacenter quelli sono due problemi tremendi: Se Ati riesce a muoversi bene e finalmente a fare buona campagna promozionale su OpenCl a questo giro rischia di vincere la partita....


ricordati che stiamo nel business il consumo importa poco e poi nei datacenter usano aria condizionata per dissipare il calore^^.
Quindi penso che se ati non si dia una mossa con OpenCL, Nvidia sarà sempre indiscussa.
frankie14 Giugno 2010, 10:20 #5
Originariamente inviato da: niki89
... nel business il consumo importa poco...

... nei datacenter usano aria condizionata per dissipare il calore...


hai scritto un bel ossimoro
Pat7714 Giugno 2010, 10:29 #6
Originariamente inviato da: Prometheus Unbound
Ati cerca di riproporre il successo delle 5xxx ma in questo caso dubito che Nvidia sia impreparata.


Secondo me in questo caso dove conta più il parallelismo l'architettura Ati è forse ancor più avantaggiata se supportata da software adeguato.
Infatti dispone di più Sp in rapporto a Nvidia, per compiti di calcolo specifici sono l'ideale, poi staremo a vedere.
Obelix-it14 Giugno 2010, 10:41 #7
Originariamente inviato da: niki89
ricordati che stiamo nel business il consumo importa poco

Il consumo in quanto tale magari si, ma il consumo inteso come ' devo ridimensionare l'impianto elettrico, il gruppo di continuita' e farmi fare un contratto nuovo dal fornitore di eletricita'", beh, non conta proprio poco...

Prova solo ap ensare a dover ridimensionare il gruppo di continuta' per mantenere lo stesso numero di schede ma che consumano il doppio...

Originariamente inviato da: niki89
e poi nei datacenter usano aria condizionata per dissipare il calore^^.

Il problema, come emerso anche dalle analisi di IBM, e' che il calore, peggio ancora della corrente, non se ne va via 'per grazia ricevuta'. Devi studiare adeguati flussi dovunque, e anche li', non e' semplice 'smaltire' il calore in eccesso (soprattutto considerando che smaltire il calore *provoca a sua volta calore*). La compattazione di sempre piu' cose in sempre meno spazio e' nemica di una buona dispersione termica, devi aumentare le ventole (sull'esempio IBM, anche il liquido andava in crisi..), disporre adeguatu flussi su tutti i punti, ridisegnare l'interno degli chassis..

Se la differenza fra i due contendenti sul calore/comusmi e' minima, allora puo' passare in secondo piano, ma quando ti trovi con una stufetta elettrica da una parte e un prodotto molto piu' 'cold' dall'altra, puoi seriamente iniziare a considerare lo switching.

Anche perche', appunto, rifare impianti elettrici e smaltimento calore non e' affatto economico (no, non parliamo solo della bolletta...)
Human_Sorrow14 Giugno 2010, 11:09 #8
Originariamente inviato da: Obelix-it
Il consumo in quanto tale magari si, ma il consumo inteso come ' devo ridimensionare l'impianto elettrico, il gruppo di continuita' e farmi fare un contratto nuovo dal fornitore di eletricita'", beh, non conta proprio poco...

Prova solo ap ensare a dover ridimensionare il gruppo di continuta' per mantenere lo stesso numero di schede ma che consumano il doppio...


Il problema, come emerso anche dalle analisi di IBM, e' che il calore, peggio ancora della corrente, non se ne va via 'per grazia ricevuta'. Devi studiare adeguati flussi dovunque, e anche li', non e' semplice 'smaltire' il calore in eccesso (soprattutto considerando che smaltire il calore *provoca a sua volta calore*). La compattazione di sempre piu' cose in sempre meno spazio e' nemica di una buona dispersione termica, devi aumentare le ventole (sull'esempio IBM, anche il liquido andava in crisi..), disporre adeguatu flussi su tutti i punti, ridisegnare l'interno degli chassis..

Se la differenza fra i due contendenti sul calore/comusmi e' minima, allora puo' passare in secondo piano, ma quando ti trovi con una stufetta elettrica da una parte e un prodotto molto piu' 'cold' dall'altra, puoi seriamente iniziare a considerare lo switching.

Anche perche', appunto, rifare impianti elettrici e smaltimento calore non e' affatto economico (no, non parliamo solo della bolletta...)


Ma che dici scusa ?
Pensi che cambiano schede e devono rifare gli impianti ?
Gli hai presi per scemi che fanno gli impianti su misura dei consumi attuali ?
E se devono allargare il datacenter e aggiungere 100 macchine che fanno, si mettono a rifare tutti gli impianti ?

AceGranger14 Giugno 2010, 11:30 #9
Originariamente inviato da: Obelix-it

Il problema
, come emerso anche dalle analisi di IBM, e' che il calore, peggio ancora della corrente, non se ne va via 'per grazia ricevuta'. Devi studiare adeguati flussi dovunque, e anche li', non e' semplice 'smaltire' il calore in eccesso (soprattutto considerando che smaltire il calore *provoca a sua volta calore*). La compattazione di sempre piu' cose in sempre meno spazio e' nemica di una buona dispersione termica, devi aumentare le ventole (sull'esempio IBM, anche il liquido andava in crisi..), disporre adeguatu flussi su tutti i punti, ridisegnare l'interno degli chassis..

Se la differenza fra i due contendenti sul calore/comusmi e' minima, allora puo' passare in secondo piano, ma quando ti trovi con una stufetta elettrica da una parte e un prodotto molto piu' 'cold' dall'altra, puoi seriamente iniziare a considerare lo switching.

Anche perche', appunto, rifare impianti elettrici e smaltimento calore non e' affatto economico (no, non parliamo solo della bolletta...)


il problema è che si scrive senza nemmeno guardare i dati tecnici.

RACK 4 GPU TESLA S1070 GT200

Consumo energetico medio 800 W (tipico)

http://www.nvidia.it/object/tesla_s1070_it.html

RACK 4 GPU TESLA S2050 FERMI

Max consumo energetico 900 W

http://www.nvidia.it/object/product-tesla-S2050-it.html

ipotizzando pure che il massimo = tipico, visto che lavoreranno sempe al 100 %, abbiamo 100 W in piu per ogni rack che pero va il DOPPIO / TRIPLO rispetto alle vecchie tesla

a parita di calcoli effettuali consumi il 40%-45% in meno

a parita di numero di schede consumi il 10-15 % in piu con prestazioni almeno doppie
!fazz14 Giugno 2010, 11:47 #10
Originariamente inviato da: niki89
ricordati che stiamo nel business il consumo importa poco e poi nei datacenter usano aria condizionata per dissipare il calore^^.
Quindi penso che se ati non si dia una mossa con OpenCL, Nvidia sarà sempre indiscussa.


talmente poco che nei datacenter si usa come parametro il performance / watt

è nel prosumer che il consumo non si guarda, in un datacenter dove si hanno centinaia di macchine il consumo è di fondamentale importanza

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^