NVIDIA Quadro vDWS: un primo assaggio del futuro in cloud dei computer

NVIDIA Quadro vDWS: un primo assaggio del futuro in cloud dei computer

NVIDIA ha presentato il nuovo software Quadro vDWS, che permette di eseguire software sui server con schede Tesla anziché sulle workstation. Un cambio di paradigma che prelude (forse) ai cambiamenti che arriveranno nei prossimi anni nella gestione dei computer, sempre più ridotti a dispositivo di nicchia. Un'evoluzione del mercato che va verso la cloud a tutta velocità.

di Riccardo Robecchi pubblicato il nel canale Scienza e tecnologia
NVIDIATesla
 

NVIDIA ha annunciato il software Quadro vDWS, acronimo che sta per "Quadro Virtual Data Center Workstation Software". Tale software permette di sfruttare la potenza di elaborazione dei server dotati di schede Tesla con architettura Pascal per svolgere compiti che altrimenti richiederebbero una workstation. Questo sposta, quindi, la necessità di avere hardware prestante verso la "nuvola", in piena armonia con i recenti sviluppi in tema di cloud computing. E gli scenari che questo fatto apre meritano qualche considerazione.

Quadro vDWS è pensato per permettere l'utilizzo di software con un carico computazionale impegnativo (es. rendering fotorealistico, realtà virtuale, deep learning, simulazioni scientifiche, encoding di video) senza che l'utente debba avere una macchina dalle prestazioni elevate e spostando, quindi, il carico di lavoro verso un centro di calcolo. Il servizio prenderà effettivamente il via a partire dal 1 settembre, ma i server su cui è possibile installarlo sono già in vendita e comprendono più di 120 sistemi da più di 30 produttori.

NVIDIA pone l'accento, nell'articolo pubblicato sul suo sito, sul fatto che le imprese si stanno trasformando e i flussi di lavoro includono sempre più elementi che richiedono una capacità di calcolo elevata - e questa moda sembra destinata a proseguire anche in futuro.

Spostare quindi il carico di elaborazione verso una struttura centrale - un server, un rack o addirittura un datacenter - sembra apparire come la soluzione che prenderà piede in futuro, aiutata da uno spostamento in questa direzione dell'intero mercato. NVIDIA afferma che è possibile utilizzare anche programmi come 3DS Max, Showcase e Solidworks sui server dotati di Quadro vDWS, rendendo di fatto le workstation grafiche non più necessarie. Ma non ci si ferma qui.

Sia NVIDIA che Intel hanno speso molte risorse nella creazione di schede per il GPGPU e sembra che questa scelta stia in qualche modo delineando il futuro dei computer. Se, infatti, al momento vediamo una grande enfasi sullo spostamento del calcolo in cloud per l'utenza aziendale e per compiti ben specifici, dall'altro lato è possibile intravedere già ora dei movimenti in questo senso anche per quanto riguarda l'utenza comune: servizi come GeForce Now e PlayStation Now sono infatti uno dei primi esempi di elaborazione svolta direttamente in cloud e poi gestita da remoto dall'utente.

Seppur sia difficile fare previsioni temporali riguardo l'avvento di sistemi operativi come Windows in cloude, quindi, uno spostamento totale di tutto l'ambiente lavorativo verso centri di calcolo unici senza seguire più il modello diffuso ora imperante, la direzione generale sembra tracciata. Come già avvenuto in innumerevoli occasioni in passato, è il mercato aziendale ad aprire le fila di soluzioni che vanno poi a impattare anche sulle vite quotidiane degli utenti comuni.

Gli aspetti positivi sarebbero numerosi e comprenderebbero la disponibilità di capacità di calcolo non più limitata dall'hardware in possesso, oltre alla scomparsa della necessità di cambiare il proprio hardware in favore di macchine più prestanti. In questo senso, l'utenza comune potrebbe trarre un grande vantaggio da questo cambio di paradigma.

Interessante è analizzare, dall'altro lato, l'impatto che questo modello potrebbe avere sull'attuale infrastruttura e quali contromisure, invece, richiederebbe per rispondere alle esigenze di sicurezza e disponibilità del servizio. Una connessione costante a una macchina virtuale da parte di milioni di utenti richiede infatti una robusta infrastruttura di rete, che dovrebbe sopportare un carico di lavoro molto più elevato dell'attuale e garantire che l'esperienza d'uso sia similare a quella che si può ottenere con una macchina in locale. È anche necessario però pensare che un sistema centralizzato è per sua natura vulnerabile ad attacchi che possono limitarne la disponibilità (es. DDoS) o a violazioni di sicurezza che sono più difficilmente effettuabili su un numero elevato di dispositivi distribuiti sul territorio.

Da non dimenticare è, inoltre, l'aspetto del controllo sul sistema e sui dati. Figure integraliste come Richard Stallman premono da decenni su questo punto e, seppure sfocino a volte nell'esagerazione, fanno riflettere sul mancato controllo che una piattaforma chiusa e proprietaria dà all'utente. Il paradigma proposto da Quadro vDWS rende ancora più importante questo aspetto: se l'utenza aziendale può (attualmente, perlomeno) acquistare i server su cui eseguire le workstation virtuali, altrettanto non accadrebbe per l'utenza comune che rischia di perdere totalmente il controllo sul proprio ambiente virtuale - già ora gravemente compromesso.

L'evoluzione che NVIDIA Quadro vDWS lascia intravedere porta con sé luci e ombre. Il software della casa di Santa Clara può rappresentare un importante passo in avanti per la produttività e per il calcolo ad alte prestazioni nelle aziende. Difficile, d'altro canto, emettere una sentenza sulla sua applicabilità in un contesto più ampio.

17 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
An.tani18 Agosto 2017, 18:08 #1
Io vedo anche un altro grosso problema: un azienda che sta sviluppando qualcosa sarà disposta a mettere a rischio i propri segreti industriali elaborandoli sul cloud ?

Io credo di no.
Rubberick18 Agosto 2017, 18:30 #2
Cambiare le schede si risolve con il mercato dell'usato molto semplicemente

Non c'e' bisogno di andare in cloud.. a meno che non vado in cloud su un supercomputer ma li è un altro paio di maniche
silviop18 Agosto 2017, 21:33 #3
Sono corsi e ricorsi storici, la quasi paralisi della piattaforma PC(anche nello storage) degli ultimi 5 anni ha riportato la lancetta verso i server, se i pc riprenderanno a raddoppiare le prestazioni ogni 2 anni (sopratutto nello storage inchiodato a 8/10TiB a unita') si ritornera all'elaborazione locale.
AceGranger18 Agosto 2017, 22:56 #4
Originariamente inviato da: An.tani
Io vedo anche un altro grosso problema: un azienda che sta sviluppando qualcosa sarà disposta a mettere a rischio i propri segreti industriali elaborandoli sul cloud ?

Io credo di no.


si ma il cloud è loro... e con un server interno aziendale decentralizzi ma stai sempre dentro alla tua rete.

questa roba è fatta per aziende grosse dove non vengono piu acquistate le singole workstation ma si centralizza tutto e poi si distribuisce dinamicamente la potenza in base alle esigenze.


Originariamente inviato da: Rubberick
Cambiare le schede si risolve con il mercato dell'usato molto semplicemente

Non c'e' bisogno di andare in cloud.. a meno che non vado in cloud su un supercomputer ma li è un altro paio di maniche


ce le vedo proprio le aziende grosse a fare acquisti e vendite sui mercatini .

e la parte importante del sistema non è tanto il fatto della sostituzione delle GPU delle singole workstation, ma il fatto che virtualizzando il client tu puoi dinamicamente scegliere quanta potenza dare ad ogni postazione e puoi trasformare in una workstation anche un ultrabook.


è un'evoluzione di quello che gia avevano mostrato tempo fa, solo che qui ora lo puoi fare anche con un server aziendale che sta lontano.

sara da vedere la reattivita del sistema.
lucusta19 Agosto 2017, 12:43 #5
Originariamente inviato da: silviop
Sono corsi e ricorsi storici, la quasi paralisi della piattaforma PC(anche nello storage) degli ultimi 5 anni ha riportato la lancetta verso i server, se i pc riprenderanno a raddoppiare le prestazioni ogni 2 anni (sopratutto nello storage inchiodato a 8/10TiB a unita') si ritornera all'elaborazione locale.


piu' che altro le richieste di calcolo aumentano con andamento esponenziale, ma non ci si riesce piu' con la potenza HW, e così ti trovi nella situazione che l'HW che ti servirebbe (sporadicalmente) a casa in realtà esiste, ma metterlo nel case costa 15.000 euro.
quindi, se ti danno la possibilità di usarlo in remoto, avranno la scusa di poterlo vendere a chi ti fornisce il servizio.
è solo per ampliare il mercato.
baruk19 Agosto 2017, 20:03 #6
Nutro sempre delle perplessità sullo spostamento in rete esterna di calcoli o procedure complesse. La rete, che che se ne dica o pensi, non è quella roccia sicura che possa garantire sempre e comunque delle operazioni delicate, magari progetti in scadenza, e questo soprattutto in Italia. Io preferirei comunque avere tutto sotto rete locale.
battalion7519 Agosto 2017, 20:56 #7

vi sfugge qualcosa...

la robusta rete di networking...dove trovate una fibra da 1gbit?

ah vero siamo in itaGlia...un paese che ha un adsl superato persino da quello del marocco...

finalmente entriamo nel terzo mondo...altro che g8 etc...

vi rendete conto che queste sono cose da america?subappaltare il rendering sul cloud,pagare il servizio e averne il risultato...

forse non vi rendete conto della sicurezza che gira in america sulla rete...ma anche se fosse l'idea è ottima

quando vado negli studi vedo macchine con delle quadro 1000...roba di 12 anni fa e pretendono che giri katia e rinoceros ultime versioni...quando gli rido in faccia e gli dico che costo piu io di intervento che le macchine che hanno fanno gli offesi...

"ma come le ho pagate xmila euro solo 9 anni fà"...gli rispondo sempre "la sua auto quanti anni ha"...risposte generalmente "2-3 anni max"...mia controrisposta"perchè non ha una auto vecchia degli anni che ha la sua workstation?"...loro risposta "perche una auto di 9 anni fa fà schifo..."...in quel momento dopo la risposta ci arrivano da soli o sarà la mia faccia che li compatisce a farli arrossire...

pensate a risolvere i problemi basilari invece di stare dietro alle fregnacce news degli americani che sono anni luce avanti a noi...non siamo in grado di nemmeno sfruttare queste ottime news...

meditate gente meditate
mmiat20 Agosto 2017, 09:09 #8
Originariamente inviato da: battalion75
la robusta rete di networking...dove trovate una fibra da 1gbit?


ma poi 1gbps basterebbe? io non sono esperto di 3D e CAD e varie, ma quando sento parlare di ste robe le workstation montano ssd perché gli 80-120MB/sec del meccanico sono troppo pochi, e poi si vorrebbe far passare tutto su una rete da 125MB/sec?
+Benito+20 Agosto 2017, 23:28 #9
La sensazione che ho è che si tratti di una fase.
Per il momento non ci si è ancora accorti del rischio enorme legato alla diffusione dei dati in posti indefiniti e non sotto il controllo dei proprietari.
I furti sono stati limitati anche perchè moltissime aziende che non hanno nessuna necessità del cloud non hanno ancora i dati in mano altrui.

Credo che sia solo questione di tempo: tra una decina di anni o forse quindici ho l'impressione che la confluenza dei sistemi verso qualcosa di social-like anche in ambiti dove tutto questo non dovrebbe esistere (vedi anche i nuovi OS microsoft che non sono certamente orientati al mondo del lavoro, ma portano l'intrattenimento e l'always online anche nelle postazioni degli operatori di borsa) causerà il ritorno ad una gestione interna dei dati.

Se da un lato in alcuni specifici settori chi potrà avere accesso ad una potenza di calcolo elevata potrebbe avere un vantaggio competitivo, nella maggior parte questo non è vero, e di conseguenza spostarsi sul cloud è sostanzialmente una moda, che verrà battuta finchè non ci si scotta.

Un appunto: così come la auto in leasing costano di più delle auto acquistate (ma la fiscalità in alcuni casi è premiante), ogni azienda che vive gestendo dati altrui è un costo extra per chi non ha la necessità della sua esistenza.

Il vantaggio competitivo ottenibile con l'accesso ad una potenza di calcolo elevata è comunque legato allo sviluppo di progetti o sistemi complessi, che significa commesse medio grandi e aziende quantomeno medie. Un artigiano non ne trae vantaggio. Un'azienda con 10 dipendenti che ha commesse da 250.000€ può tranquillamente investire 10.000€ l'anno in un proprio centro di calcolo e rendersi indipendente da terzi e dalla connessione ai terzi.
Nenco21 Agosto 2017, 09:43 #10
Originariamente inviato da: mmiat
ma poi 1gbps basterebbe? io non sono esperto di 3D e CAD e varie, ma quando sento parlare di ste robe le workstation montano ssd perché gli 80-120MB/sec del meccanico sono troppo pochi, e poi si vorrebbe far passare tutto su una rete da 125MB/sec?


1gbps basta a avanza per centinaia di postazioni, sul client visualizzi solo l'output video in stile thin client

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^