Elon Musk avverte: regolamentare l'intelligenza artificiale prima che sia troppo tardi
L'intelligenza artificiale può porre seri rischi all'esistenza della civiltà secondo l'imprenditore sudafricano. E' necessario regolamentarla in maniera proattiva e non attendere che accada qualcosa di spiacevole
di Andrea Bai pubblicata il 18 Luglio 2017, alle 14:01 nel canale Scienza e tecnologia"Evocare il demone": è con queste parole che qualche tempo fa Elon Musk, il visionario imprenditore sudafricano fondatore di Tesla, ha definito le attività di ricerca e sviluppo attorno all'intelligenza artificiale. Una similitudine sicuramente incisiva, per sensibilizzare sia addetti ai lavori, sia opinione pubblica, su quanto questo tipo di tecnologia possa presentare rischi concreti per l'umanità. Musk ha voluto ribadire ancora la sua posizione durante un incontro con i governatori degli Stati Uniti, sottolineando inoltre come i governi debbano iniziare fin da ora a porre dei paletti chiari e precisi per regolamentare l'intelligenza artificiale.
"Sono a contatto con intelligenza artificiale veramente d'avanguardia e penso che le persone dovrebbero essere davvero preoccupate a riguardo. Continuo a suonare il campanello d'allarme, ma fino a quando le persone non vedranno robot in giro per le strade ad ammazzare persone non sapranno come reagire perché tutto appare ora così vago" ha dichiarato Musk in occasione del meeting della National Governors Association.
Le considerazoni di Musk sull'intelligenza artificiale sono a partire da 1:16:20 in risposta alla domanda del Governatore Hickenlooper del Colorado
Secondo il CEO di Tesla la soluzione è la regolamentazione: "L'intelligenza artificiale è un raro caso in cui abbiamo bisogno di essere proattivi nella regolamentazione invece che reattivi. Io penso che nel momento in cui saremo reattivi nella regolamentazione dell'intelligenza artificiale sarà troppo tardi". Musk ha poi aggiunto che il modello attuale di legislazione, dove i governi prendono posizione solamente dopo che accade "qualcosa di brutto" è inadeguato per affrontare l'intelligenza artificiale perché questa tecnologia rappresenta "un rischio fondamentale all'esistenza della civiltà".
Musk non si riferisce a quel tipo di intelligenza artificiale che già attualmente viene usata da svariate realtà del mondo tecnologico come Microsoft, Google, Apple o Amazon, o quella usata dai Muse per creare il loro ultimo videoclip oppure ancora quella che IBM con il suo Watson ha messo a disposizione per il torneo tennistico di Wimbledon. Il CEO di Tesla immagina invece quali possono essere i pericoli associati ad un tipo di intelligenza artificiale superiore non dissimile da quella che il pubblico ha potuto apprezzare nei film di fantascienza (su tutte si potrà ricordare Skynet della saga di Terminator). Secondo Musk la ricerca in corso sul primo tipo di intelligenza artificiale condurrà in un modo o nell'altro a quest'ultima, anche se la comunità scientifica dubita che questo possa davvero accadere.
I'm more concerned about abusing the use of methods that boil down to statistical analysis, to mask unethical human activities.
— hardmaru (@hardmaru) 16 luglio 2017
Ovviamente le dichiarazioni di Musk hanno lo scopo di sollevare un dibattito, e in qualche modo hanno già avuto successo in questo: David Ha, un ricercatore che lavora con Google Brain, ha pubblicato un post su Twitter in risposta a Musk osservando come le tecnologie di machine learning già oggi pongono un rischio molto più concreto quando sono usate per mascherare attività umane dalla dubbia etica.
Arguably the greatest threat is mass population control via message targeting and propaganda bot armies. ML not a requirement though
— François Chollet (@fchollet) 16 luglio 2017
E, sullo stesso dibattito, si è inserito François Chollet, fondatore della piattaforma di rete neurale Keras il quale ha sibilato: "Probabilmente la minaccia più grande è il controllo di massa della popolazione attraverso messaggi mirati e bot. Il Machine Learning non è però un prerequisito" lasciando intendere come, almeno fino ad ora, l'intelligenza artificiale può al massimo rendere peggiori alcune minacce già esistenti. Chollet ha inoltre sottolineato, in un post successivo, come le soluzioni a queste minacce siano in realtà rappresentate proprio da un uso appropriato di intelligenza artificiale e machine learning ma che, per qualche motivo, "Non abbiamo volontà di difendere noi stessi".
Già nel 2015 Elon Musk assieme a Stephen Hawking e ad altri esponenti del panorama tecnologico aveva firmato una lettera aperta per sensibilizzare il mondo della ricerca tecnologia sulla realizzazione di intelligenze artificiali "etiche" e in grado di portare benefici concreti alla società.
39 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoProbabilmente ha ragione quando dice che fino a che la cosa non sarà evidente sotto gli occhi della gente allora non si riuscirà a percepire il problema.. non si può certo negare che ad andare a dire adesso queste cose (senza essere Elon Musk) tutti ti riderebbero dietro..
Basta vedere a quello che é successo con internet e con i cellulari.
Quindi, non servono allarmismi, ma un serio interesse per il problema é ora che ci sia.
Probabilmente ha ragione quando dice che fino a che la cosa non sarà evidente sotto gli occhi della gente allora non si riuscirà a percepire il problema.. non si può certo negare che ad andare a dire adesso queste cose (senza essere Elon Musk) tutti ti riderebbero dietro..
verissimo.. solo un problema, sono proprio loro ad andare avanti con I.A...
magari potrebbero iniziare a fermarsi ...
i limiti si possono mettere eccome... pensa alla genetica dove ci sono ben precise restrizioni
argomento molto molto affascinante, nonchè intriso di problematiche fino al midollo
io personalmente troverei discutible che a portare avanti le cose fosse il dio denaro, anche se mi rendo conto...
...e chi dovrebbe regolamentare l'A.I.?
-Le industrie che la usa per farne enormi profitti?
-L'intelligence che la usa per la sicurezza nazionale?
-I governi che la usa per controllare il popolo e condizionarne l'esistenza?
è come vuotare il mare con un cucchiaino per non affogare
...e chi dovrebbe regolamentare l'A.I.?
-Le industrie che la usa per farne enormi profitti?
-L'intelligence che la usa per la sicurezza nazionale?
-I governi che la usa per controllare il popolo e condizionarne l'esistenza?
è come vuotare il mare con un cucchiaino per non affogare
Non nego certo che la cosa sia semplice.
Il punto centrale è che una IA con le sua scelte autonome non deve in alcun modo recare danno ad un essere umano.
Qualcosa tipo le leggi della robotica di Asimov sarebbero un ottimo punto di partenza.
Queste regole di base dovrebbero ovvimante essere "impiantate" nelle IA a bassissimo livello.. una sorta di istinto primordiale insomma.
magari potrebbero iniziare a fermarsi ...
No, perseguire la conoscenza e l'evoluzione è sempre la cosa giusta.
La IA è un enorme passo evolutivo de deve assolutamente essere compiuto.. si tratta solo di essere consapevoli e muoversi per tempo.
Anche la scoperta del fuoco è stato un enorme passo evolutivo che ha portato immensi benefici. Eppure anche il fuoco se non trattato nel giusto modo può fare enormi danni.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".