Elon Musk avverte: regolamentare l'intelligenza artificiale prima che sia troppo tardi

Elon Musk avverte: regolamentare l'intelligenza artificiale prima che sia troppo tardi

L'intelligenza artificiale può porre seri rischi all'esistenza della civiltà secondo l'imprenditore sudafricano. E' necessario regolamentarla in maniera proattiva e non attendere che accada qualcosa di spiacevole

di Andrea Bai pubblicata il , alle 14:01 nel canale Scienza e tecnologia
 

"Evocare il demone": è con queste parole che qualche tempo fa Elon Musk, il visionario imprenditore sudafricano fondatore di Tesla, ha definito le attività di ricerca e sviluppo attorno all'intelligenza artificiale. Una similitudine sicuramente incisiva, per sensibilizzare sia addetti ai lavori, sia opinione pubblica, su quanto questo tipo di tecnologia possa presentare rischi concreti per l'umanità. Musk ha voluto ribadire ancora la sua posizione durante un incontro con i governatori degli Stati Uniti, sottolineando inoltre come i governi debbano iniziare fin da ora a porre dei paletti chiari e precisi per regolamentare l'intelligenza artificiale.

"Sono a contatto con intelligenza artificiale veramente d'avanguardia e penso che le persone dovrebbero essere davvero preoccupate a riguardo. Continuo a suonare il campanello d'allarme, ma fino a quando le persone non vedranno robot in giro per le strade ad ammazzare persone non sapranno come reagire perché tutto appare ora così vago" ha dichiarato Musk in occasione del meeting della National Governors Association.


Le considerazoni di Musk sull'intelligenza artificiale sono a partire da 1:16:20 in risposta alla domanda del Governatore Hickenlooper del Colorado

Secondo il CEO di Tesla la soluzione è la regolamentazione: "L'intelligenza artificiale è un raro caso in cui abbiamo bisogno di essere proattivi nella regolamentazione invece che reattivi. Io penso che nel momento in cui saremo reattivi nella regolamentazione dell'intelligenza artificiale sarà troppo tardi". Musk ha poi aggiunto che il modello attuale di legislazione, dove i governi prendono posizione solamente dopo che accade "qualcosa di brutto" è inadeguato per affrontare l'intelligenza artificiale perché questa tecnologia rappresenta "un rischio fondamentale all'esistenza della civiltà".

Musk non si riferisce a quel tipo di intelligenza artificiale che già attualmente viene usata da svariate realtà del mondo tecnologico come Microsoft, Google, Apple o Amazon, o quella usata dai Muse per creare il loro ultimo videoclip oppure ancora quella che IBM con il suo Watson ha messo a disposizione per il torneo tennistico di Wimbledon. Il CEO di Tesla immagina invece quali possono essere i pericoli associati ad un tipo di intelligenza artificiale superiore non dissimile da quella che il pubblico ha potuto apprezzare nei film di fantascienza (su tutte si potrà ricordare Skynet della saga di Terminator). Secondo Musk la ricerca in corso sul primo tipo di intelligenza artificiale condurrà in un modo o nell'altro a quest'ultima, anche se la comunità scientifica dubita che questo possa davvero accadere.

Ovviamente le dichiarazioni di Musk hanno lo scopo di sollevare un dibattito, e in qualche modo hanno già avuto successo in questo: David Ha, un ricercatore che lavora con Google Brain, ha pubblicato un post su Twitter in risposta a Musk osservando come le tecnologie di machine learning già oggi pongono un rischio molto più concreto quando sono usate per mascherare attività umane dalla dubbia etica.

E, sullo stesso dibattito, si è inserito François Chollet, fondatore della piattaforma di rete neurale Keras il quale ha sibilato: "Probabilmente la minaccia più grande è il controllo di massa della popolazione attraverso messaggi mirati e bot. Il Machine Learning non è però un prerequisito" lasciando intendere come, almeno fino ad ora, l'intelligenza artificiale può al massimo rendere peggiori alcune minacce già esistenti. Chollet ha inoltre sottolineato, in un post successivo, come le soluzioni a queste minacce siano in realtà rappresentate proprio da un uso appropriato di intelligenza artificiale e machine learning ma che, per qualche motivo, "Non abbiamo volontà di difendere noi stessi".

Già nel 2015 Elon Musk assieme a Stephen Hawking e ad altri esponenti del panorama tecnologico aveva firmato una lettera aperta per sensibilizzare il mondo della ricerca tecnologia sulla realizzazione di intelligenze artificiali "etiche" e in grado di portare benefici concreti alla società.

38 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
demon7718 Luglio 2017, 14:06 #1
E non è il primo che lo dice. C'è già un bella lista di personaggi con importante voce in capitolo che ha messo in guardia sulla cosa.

Probabilmente ha ragione quando dice che fino a che la cosa non sarà evidente sotto gli occhi della gente allora non si riuscirà a percepire il problema.. non si può certo negare che ad andare a dire adesso queste cose (senza essere Elon Musk) tutti ti riderebbero dietro..
cignox118 Luglio 2017, 14:14 #2
Concordo con demon77: per la maggior parte delle persone il pensiero di intelligenze artificiali pericolose puó suonare ridicola. Peró anche io spero che inizino ad affrontare il problema: l'interesse per l'intelligenza artificiale é diventato esponenziale negli ultimi anni, e quindi é realistico pensare ad una evoluzione esponenziale della capacitá delle AI. Questo significa che quello che la gente non crede possibile prima di 100 anni potrebbe essere invece realtá in 10 o 15.
Basta vedere a quello che é successo con internet e con i cellulari.

Quindi, non servono allarmismi, ma un serio interesse per il problema é ora che ci sia.
Jon368318 Luglio 2017, 14:18 #3
In realtà lo sviluppo dell'intelligenza artificiale forte è assolutamente inevitabile e non vedo cosa i governi mondiali possono fare al riguardo o come possano prevenirne lo sviluppo che può avvenire in un qualunque e sperduto laboratorio mondiale, non affiliato ad alcuna agenzia governativa, in un qualsiasi momento futuro.
blobb18 Luglio 2017, 14:23 #4
Originariamente inviato da: demon77
E non è il primo che lo dice. C'è già un bella lista di personaggi con importante voce in capitolo che ha messo in guardia sulla cosa.

Probabilmente ha ragione quando dice che fino a che la cosa non sarà evidente sotto gli occhi della gente allora non si riuscirà a percepire il problema.. non si può certo negare che ad andare a dire adesso queste cose (senza essere Elon Musk) tutti ti riderebbero dietro..


verissimo.. solo un problema, sono proprio loro ad andare avanti con I.A...
magari potrebbero iniziare a fermarsi ...
blobb18 Luglio 2017, 14:24 #5
Originariamente inviato da: Jon3683
In realtà lo sviluppo dell'intelligenza artificiale forte è assolutamente inevitabile e non vedo cosa i governi mondiali possono fare al riguardo o come possano prevenirne lo sviluppo che può avvenire in un qualunque e sperduto laboratorio mondiale, non affiliato ad alcuna agenzia governativa, in un qualsiasi momento futuro.


i limiti si possono mettere eccome... pensa alla genetica dove ci sono ben precise restrizioni
Lampetto18 Luglio 2017, 14:32 #6
Io penso che il pericolo proviene sempre dall'uomo, una intelligenza artificiale può essere un aiuto e la salvezza, oppure il peggior incubo per l'umanità, dipende sempre dallo scopo di chi la crea e il fine. Una macchina è logica, farà sempre il compito per cui è stata creata, il pericolo proviene da chi la crea e cosa vuol fare...e i più pericolosi sono le industrie belliche...
s-y18 Luglio 2017, 14:43 #7
chissà, forse col calcolo quantistico ci si arriverà alla coscienza artificiale
argomento molto molto affascinante, nonchè intriso di problematiche fino al midollo

io personalmente troverei discutible che a portare avanti le cose fosse il dio denaro, anche se mi rendo conto...
TecnoPC18 Luglio 2017, 14:54 #8
Premessa: per intelligenza artificiale bisogna considerare esclusivamente il software applicato ovunque e non solito robottino!

...e chi dovrebbe regolamentare l'A.I.?
-Le industrie che la usa per farne enormi profitti?
-L'intelligence che la usa per la sicurezza nazionale?
-I governi che la usa per controllare il popolo e condizionarne l'esistenza?

è come vuotare il mare con un cucchiaino per non affogare
demon7718 Luglio 2017, 15:21 #9
Originariamente inviato da: TecnoPC
Premessa: per intelligenza artificiale bisogna considerare esclusivamente il software applicato ovunque e non solito robottino!

...e chi dovrebbe regolamentare l'A.I.?
-Le industrie che la usa per farne enormi profitti?
-L'intelligence che la usa per la sicurezza nazionale?
-I governi che la usa per controllare il popolo e condizionarne l'esistenza?

è come vuotare il mare con un cucchiaino per non affogare


Non nego certo che la cosa sia semplice.
Il punto centrale è che una IA con le sua scelte autonome non deve in alcun modo recare danno ad un essere umano.
Qualcosa tipo le leggi della robotica di Asimov sarebbero un ottimo punto di partenza.

Queste regole di base dovrebbero ovvimante essere "impiantate" nelle IA a bassissimo livello.. una sorta di istinto primordiale insomma.
demon7718 Luglio 2017, 15:25 #10
Originariamente inviato da: blobb
verissimo.. solo un problema, sono proprio loro ad andare avanti con I.A...
magari potrebbero iniziare a fermarsi ...


No, perseguire la conoscenza e l'evoluzione è sempre la cosa giusta.
La IA è un enorme passo evolutivo de deve assolutamente essere compiuto.. si tratta solo di essere consapevoli e muoversi per tempo.

Anche la scoperta del fuoco è stato un enorme passo evolutivo che ha portato immensi benefici. Eppure anche il fuoco se non trattato nel giusto modo può fare enormi danni.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^