Pericolo intelligenza artificiale: parla il CEO di Google

Pericolo intelligenza artificiale: parla il CEO di Google

Sundar Pichai, in un'intervista, ha parlato dei rischi che possiamo correre se non vengono create linee guida etiche molto chiare nell'ambito dell'intelligenza artificiale.

di pubblicata il , alle 10:41 nel canale Scienza e tecnologia
Googleintelligenza artificiale
 

Il CEO Google Sundar Pichai ha rilasciato un'intervista al Washington Post nella quale si trattava l’argomento intelligenza artificiale: dai rischi e pericoli che ne possono conseguire, fino ai benefici che ne possiamo ricavare dallo sviluppo. 

Come sappiamo, l'intelligenza artificiale è nata per imparare in modo continuo da ciò che la circonda con lo scopo di migliorare, aiutare l'uomo e, in alcuni casi, arrivare anche a prendere decisioni autonome. È inevitabile però pensare ai rischi che possono esserci nello sviluppo di crescita e di maturazione di questa nuova tecnologia; ne è consapevole anche Pichai, il quale ammette che le "preoccupazioni di un uso distorto dell’AI sono estremamente fondate.”  Sono necessarie, a suo avviso, delle linee guida etiche molto chiare ma anche una riflessione profonda delle big company sul modo in cui, in futuro, si potrebbe abusare di menti artificiali in grado di sostituirsi al libero arbitrio umano. 

Il mondo delle volte ha un approccio superficiale, “Credo che il mondo della tecnologia debba realizzare che non si può solo costruire e poi semmai sistemare e correggere ciò che non va, così non funziona”, attacca il CEO di Google. 

Tutto sommato Pichai si è detto ottimista sui benefici che ne otterremo sul lungo periodo; d'altronde non poteva essere altrimenti da Google che sta investendo molto nell'ambito dell'intelligenza artificiale, soprattutto per il motore di ricerca, o anche per le scoperte fatte dalla divisione DeepMind (acquisita nel 2014). L'avvertimento è rivolto soprattutto ai colossi che dovrebbero fare un salto di qualità, per assicurarsi che soluzioni, software, app e sistemi di intelligenza artificiale non minaccino il genere umano. 

Lo scorso gennaio Sundar Pichai aveva definito l'AI come “una delle cose più importanti sulle quali l’umanità sta lavorando”, rassicurando che sul lungo periodo i benefici supereranno i rischi, ma solo se le compagnie sapranno darsi delle regole precise sulle soluzioni di intelligenza artificiale

Alla fine dell'intervista il CEO dell'azienda di Mountain View ha voluto aggiungere:

“Regolamentare una nuova tecnologia al suo inizio è difficile ma credo che le società debbano autoregolamentarsi, ecco perché anche noi abbiamo tentato di articolare una serie di principi per l’AI. Magari non avremo ancora risolto ogni rischio ma era importante lanciare la conversazione”.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

13 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Mparlav18 Dicembre 2018, 10:51 #1
Le compagnie non sono in grado di darsi delle regole "etiche" ed un codice di autoregolamentazione.

Non è un caso se, in campo medico, esistono le commissioni bioetiche, le leggi nazionali ed internazionali, per cercare di marcare dei limiti alla ricerca.

Dovrebbe avvenire la stessa cosa per l'I.A.; è vero, forse siamo solo agli inizi, ma penso che in campo militare siamo già saliti ad un livello d'allerta.
Haran Banjo18 Dicembre 2018, 11:08 #2
La Risposta - di Fredric Brown (1954)
----------------------
Con gesti lenti e solenni Dwar Ev procedette alla saldatura, in oro, degli ultimi due fili.

Gli occhi di venti telecamere erano fissi su di lui e le onde subteriche portarono da un angolo all'altro dell'universo venti diverse immagini della cerimonia.

Si rialzò con un cenno del capo a Dwar Reyn, e s'accostò alla leva dell'interruttore generale: la leva che avrebbe collegato, in un colpo solo, tutti i giganteschi calcolatori elettronici di tutti i pianeti abitati dell'Universo - 96 miliardi di pianeti abitati - formando il super circuito da cui sarebbe uscito il supercalcolatore, un'unica macchina cibernetica racchiudente tutto il sapere di tutte le galassie.

Dwar Reyn rivolse un breve discorso agli innumerevoli miliardi di spettatori. Poi, dopo un attimo di silenzio disse: "Tutto è pronto Dwar Ez".

Dwar Ez abbassò la leva.

Si udì un formidabile ronzio che concentrava tutta la potenza, l'energia di novantasei miliardi di pianeti. Grappoli di luci multicolori lampeggiarono sull'immenso quadro, poi, una dopo l'altra si attenuarono.

Draw Ez fece un passo indietro e trasse un profondo respiro. "L'onore di porre la prima domanda spetta a te, Dwar Reyn".

"Grazie" rispose Dwar Reyn "Sarà una domanda cui nessuna macchina cibernetica ha potuto, da sola, rispondere".

Tornò a voltarsi verso la macchina. "C'è Dio?".

L'immensa voce rispose senza esitazione, senza il minimo crepitio di valvole o condensatori.

"Sì: adesso, Dio c'è."

Il terrore sconvolse la faccia di Dwar Ev, che si slanciò verso il quadro di comando.

Un fulmine sceso dal cielo senza nubi lo incenerì, e fuse la leva inchiodandola per sempre al suo posto.
s-y18 Dicembre 2018, 11:17 #3
Originariamente inviato da: Mparlav
Le compagnie non sono in grado di darsi delle regole "etiche" ed un codice di autoregolamentazione.

Non è un caso se, in campo medico, esistono le commissioni bioetiche, le leggi nazionali ed internazionali, per cercare di marcare dei limiti alla ricerca.

Dovrebbe avvenire la stessa cosa per l'I.A.; è vero, forse siamo solo agli inizi, ma penso che in campo militare siamo già saliti ad un livello d'allerta.


vero, ma temo sarà (molto) più difficile, allo stato attuale almeno...
Ryddyck18 Dicembre 2018, 11:51 #4
Originariamente inviato da: Mparlav
Le compagnie non sono in grado di darsi delle regole "etiche" ed un codice di autoregolamentazione.

Non è un caso se, in campo medico, esistono le commissioni bioetiche, le leggi nazionali ed internazionali, per cercare di marcare dei limiti alla ricerca.

Dovrebbe avvenire la stessa cosa per l'I.A.; è vero, forse siamo solo agli inizi, ma penso che in campo militare siamo già saliti ad un livello d'allerta.

Beh se dobbiamo considerare il campo medico ti consiglio di cercare "Implant files" e di rivedere la posizioni sulle commissioni.

Per quel che riguarda l'IA il pentagono ha da tempo avviato il Joint Artificial Intelligence Center, 600 progetti e 1.7miliardi di costo https://www.theguardian.com/comment...are-us-military
Gyammy8518 Dicembre 2018, 12:12 #5
Ovvio che bisogna mantenere il vantaggio competitivo

Dato che tutti son saliti sul trenino dell'ai i competitor cominciano a essere troppi

Quindi meglio cambiare tattica e dire "si ma attenti che non è tutto oro"

Fosse stato al contrario avrebbero detto "lasciate perdere quei produttori di fax che non capiscono niente ai ai ai ai ai ohhhhhh it's magic"

E giù di magliette "i love ai not bs" ecc...

Immagino già le app per le app mitigative delle app per ai che [S]svilupperanno[/S] faranno sviluppare a eserciti di volenterosi startapper...

The future has a silver lining (cit.)
demon7718 Dicembre 2018, 12:15 #6
Originariamente inviato da: Mparlav
Le compagnie non sono in grado di darsi delle regole "etiche" ed un codice di autoregolamentazione.

Non è un caso se, in campo medico, esistono le commissioni bioetiche, le leggi nazionali ed internazionali, per cercare di marcare dei limiti alla ricerca.

Dovrebbe avvenire la stessa cosa per l'I.A.; è vero, forse siamo solo agli inizi, ma penso che in campo militare siamo già saliti ad un livello d'allerta.


Vorrei però anche porre l'accento su una questione:
CHI fa parte di queste commissioni? In base a cosa decide cosa si e cosa no?
Chi sceglie i membri di queste commissioni?

Non è che sono cose di importanza secondaria.. ed anche le opinioni su varie tematiche sono agli antipodi.

Tutte questioni che si ripropongono in tema di AI.
demon7718 Dicembre 2018, 12:16 #7
Originariamente inviato da: Ryddyck
Per quel che riguarda l'IA il pentagono ha da tempo avviato il Joint Artificial Intelligence Center, 600 progetti e 1.7miliardi di costo https://www.theguardian.com/comment...are-us-military


Questo è abbastanza inquietante.
Mparlav18 Dicembre 2018, 12:21 #8
Originariamente inviato da: Ryddyck
Beh se dobbiamo considerare il campo medico ti consiglio di cercare "Implant files" e di rivedere la posizioni sulle commissioni.

Per quel che riguarda l'IA il pentagono ha da tempo avviato il Joint Artificial Intelligence Center, 600 progetti e 1.7miliardi di costo https://www.theguardian.com/comment...are-us-military


Non si tratta di rivedere le posizioni, ma di inasprire i controlli.

Ma almeno in campo medico c'è da decenni una base giuridica da cui partire.

Nel campo dell'I.A. oggi chiunque può sviluppare ciò che vuole senza alcun limite.
nickname8818 Dicembre 2018, 12:23 #9
In campo medico ci sono limiti alla ricerca ?
Certo, peccato che la cosa si veda sui pazienti e non è affatto apprezzata.
goku4liv18 Dicembre 2018, 12:33 #10
AI cinese. Prodotti cinesi.. Vade retro

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^