Mining ottimizzato di criptovalute: Intel si assicura un brevetto

Mining ottimizzato di criptovalute: Intel si assicura un brevetto

L'azienda di Santa Clara si vede riconosciuta un brevetto che copre una tecnologia in grado di effettuare il mining di criptovalute con un minor consumo energetico, e con ulteriori margini di miglioramento

di pubblicata il , alle 10:01 nel canale Scienza e tecnologia
 

Intel si è assicurata un brevetto relativo ad un processore che viene descritto come in grado di eseguire mining di criptovalute ad alte prestazioni e in maniera estremamente efficiente, tra l'altro con un esplicito riferimento all'algoritmo SHA-256 usato proprio dalla principale criptovaluta al mondo per capitalizzazione di mercato, e cioè Bitcoin. La richiesta di brevetto è stata avanzata la scorsa primavera.

Ricordiamo che il processo di mining è, in estrema sintesi, un'operazione di hashing inverso: bisogna cioè determinare un numero (nonce) che permette all'hash SHA-256 generato da un insieme di dati (che rappresenta il blocco della blockchain che si sta cercando) di essere inferiore ad una determinata soglia. Gli acceleratori hardware usati nel mining di Bitcoin sono necessari in particolare per l'elaborazione di nonce a 32-bit, e gli attuali ASIC (Application-Specific Integrated Circuit) processano tutto ciò in varie fasi e con ridondanze.

Si legge nel brevetto: "Gli ASIC dedicati al mining di bitcoin sono usati per implementare molteplici engine SHA-256 e possono erogare prestazioni di migliaia di hash al secondo, consumando centinaia di watt. Una concretizzazione di quanto qui descritto impiega ottimizzazioni micro-architetturali tra cui l'hardwiring selettivo di alcuni parametri nelle computazioni del mining di Bitcoin".

L'hardwiring di questi parametri ridurrebbe il numero di calcoli richiesti, proprio evitando alcune operazioni ridondanti: un sistema del genere ridurrebbe del 15% circa l'energia necessaria per chip, i quali sarebbero inoltre più piccoli rispetto a quelli usati per i miner Bitcoin di oggi. Il brevetto suggerisce inoltre che un cambiamento nel modo in cui il nonce da 32-bit viene comparato per la validità potrebbe ridurre ulteriormente i requisiti energetici: "Invece di comparare il risultato finale di hash con il valore bersaglio, il mining applicaizione potrebbe determinare se l'hash out ha un nuero minimo di 0 iniziali" si legge nel brevetto.

13 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
G0r3f3s701 Dicembre 2018, 17:08 #1
Non ho capito una cippa, basta che mi spostano l'attenzione dal comparto GPU e che tornino ad avere un prezzo umano.
pabloski01 Dicembre 2018, 17:15 #2
Originariamente inviato da: G0r3f3s7
Non ho capito una cippa, basta che mi spostano l'attenzione dal comparto GPU e che tornino ad avere un prezzo umano.


non succedera' mai, perche' venuto meno il boom delle criptovalute, sta cominciando il boom del deep learning
demon7701 Dicembre 2018, 18:12 #3
Originariamente inviato da: pabloski
non succedera' mai, perche' venuto meno il boom delle criptovalute, sta cominciando il boom del deep learning


Beh mi pare sia roba del tutto differente.
La menata delle criptovalute ha prosciugato il mrcato GPU perchè la fuori era pieno di piccoli minatori che volevano fare soldi. In realtà per la maggioranza di loro si è trattato di mera illusione..

Il deep learning non vedo che presa possa avere sul mercato home delle gpu.. che se ne fa un utente home di un sistema per deep learning?
pabloski01 Dicembre 2018, 19:24 #4
Originariamente inviato da: demon77
Il deep learning non vedo che presa possa avere sul mercato home delle gpu.. che se ne fa un utente home di un sistema per deep learning?


I nuovi framework stanno spostando le attivita' di computing dal cloud al locale. GIa' adesso i servizi di deep learning di Android e iOS possono girare completamente sullo smartphone.

Per questo dicevo che la domanda di potenza di calcolo crescera' e infatti si stanno attrezzando tutti proponendo varie soluzioni, tra cui NPU, TPU, GPU, FPGA e compagnia.
tallines01 Dicembre 2018, 19:43 #5
Con ste menate....non si va da nessuna parte, le crypto valute......
demon7701 Dicembre 2018, 23:15 #6
Originariamente inviato da: pabloski
I nuovi framework stanno spostando le attivita' di computing dal cloud al locale. GIa' adesso i servizi di deep learning di Android e iOS possono girare completamente sullo smartphone.

Per questo dicevo che la domanda di potenza di calcolo crescera' e infatti si stanno attrezzando tutti proponendo varie soluzioni, tra cui NPU, TPU, GPU, FPGA e compagnia.


No aspetta.. ok posso capire gli smartphone che cercano di essere più autonomi col comuting in locale con specifiche soluzioni hardware.
Anche se poi il cloud serve comunque perchè quando chiedi info a google now deve comunque andarle a pescare in rete tra l'altro.
Ma in ogni caso non vedo cosa possa avere a che fare quasto con le GPU discrete per sistemi desktop.

Se fai mining è un conto, usi la gpu per minare, ma per il "deep learnig" che cosa ottieni?
fraussantin02 Dicembre 2018, 00:03 #7
Originariamente inviato da: G0r3f3s7
Non ho capito una cippa, basta che mi spostano l'attenzione dal comparto GPU e che tornino ad avere un prezzo umano.


non 2 cose distinte.

le gpu servono a minare altre monete che usano altri algoritmi.
pabloski02 Dicembre 2018, 12:20 #8
Originariamente inviato da: demon77
Ma in ogni caso non vedo cosa possa avere a che fare quasto con le GPU discrete per sistemi desktop.


Perche' fino ad oggi il deep learning e' stato chiuso nei laboratori di ricerca. Ma le prime applicazioni stanno comparendo e si diffonderanno a macchia d'olio.

Arrivera' il momento in cui la gente vorra' l'applicazione per creare i video deepfakes e qualcuno la realizzera' e quell'applicazione avra' bisogno di una potenza da far impallidire gli Xeon piu' carrozzati.

E verra' il momento in cui parleremo al pc come parliamo con amazon echo e anche li' ci vorranno gpu carrozzate per far girare quegli algoitmi.

In buona sostanza il punto e' che le cpu non sono all'altezza del compito e non lo saranno nel prossimo futuro.

Se poi si preferira' la strada degli fpga o delle unita' tensoriali, non lo so. Ma per ora le gpu sono l'unica strada praticabile per un deep learning general purpose.
nickname8802 Dicembre 2018, 13:04 #9
Originariamente inviato da: pabloski
Perche' fino ad oggi il deep learning e' stato chiuso nei laboratori di ricerca. Ma le prime applicazioni stanno comparendo e si diffonderanno a macchia d'olio.

Per quel tipo di utilizzo non andranno di certo a comperare i prodotti GeForce.
Che poi Intel voglia entrare nel mondo delle GPU principalmente per tutto tranne che il gaming non sarebbe una sorpresa.
pabloski02 Dicembre 2018, 14:52 #10
Originariamente inviato da: nickname88
Per quel tipo di utilizzo non andranno di certo a comperare i prodotti GeForce.


Direi di si invece, considerando che la scheda piu' diffusa per il deep learning e' la GTX 1080.

Non a tutti piace farsi fregare spendendo di piu' per una Quadro, che fa le stesse cose di una Geforce.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^