Mining ottimizzato di criptovalute: Intel si assicura un brevetto

Mining ottimizzato di criptovalute: Intel si assicura un brevetto

L'azienda di Santa Clara si vede riconosciuta un brevetto che copre una tecnologia in grado di effettuare il mining di criptovalute con un minor consumo energetico, e con ulteriori margini di miglioramento

di pubblicata il , alle 10:01 nel canale Scienza e tecnologia
 
13 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
BulletHe@d03 Dicembre 2018, 11:43 #11
@Pabloski

in campo pc molte cose (vedi l'uso del pc come amazon alexa) è già possibile (cortana ti dice nulla o la usi solo come barra di ricerca.....) ma queste sono piccolezze che una cpu x86/64 le regge senza problemi, il deep Learning serve principalmente nei campi di ricerca e li fa la differenza con cosa lo calcoli e no la gtx1080 viene usata da chi non ha aziende dietro (privati ad esempio) ma tutte le aziende che usano il DL per ricerca seria usano quadro e simili non le GTX proprio per avere garanzie che un prodotto commerciale non ha
demon7703 Dicembre 2018, 11:54 #12
Originariamente inviato da: BulletHe@d
@Pabloski

in campo pc molte cose (vedi l'uso del pc come amazon alexa) è già possibile (cortana ti dice nulla o la usi solo come barra di ricerca.....) ma queste sono piccolezze che una cpu x86/64 le regge senza problemi, il deep Learning serve principalmente nei campi di ricerca e li fa la differenza con cosa lo calcoli e no la gtx1080 viene usata da chi non ha aziende dietro (privati ad esempio) ma tutte le aziende che usano il DL per ricerca seria usano quadro e simili non le GTX proprio per avere garanzie che un prodotto commerciale non ha


Stesso pensiero mio.
Il deep learning mica è cortana sul pc.. e sarebbe ridicolo diver comprare una GPU potente per far funzionare Cortana o alexa..

In sostanza il deep learnig è impiegato ad esempio nei processi di analisi di enormi moli di dati. Una cosa che magari può capitare a determinate aziende che risolvono con una soluzione "economica" con le 1080.
Certamente è totalmente irrilevante per il privato.
nickname8803 Dicembre 2018, 13:06 #13
Originariamente inviato da: pabloski
Direi di si invece, considerando che la scheda piu' diffusa per il deep learning e' la GTX 1080.
A parte che nel deep learning i boost prestazionali più elevati li ottieni con le nuove unità introdotte con Turing ora e con Volta poco prima. E dubito che con delle soluzioni castrate come le GeForce si possa andare lontano. GeForce provvederà a castrare debitamente questo aspetto.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^