Una lettera aperta per sensiblizzare la ricerca sullo sviluppo delle intelligenze artificiali

Una lettera aperta per sensiblizzare la ricerca sullo sviluppo delle intelligenze artificiali

Firmata anche da Stephen Hawking ed Elon Musk, la lettera aperta del Future of Life Institute chiede al mondo della ricerca tecnologica di sviluppare intelligenze artificiali pienamente controllabili e che siano di beneficio per la civiltà

di Andrea Bai pubblicata il , alle 10:41 nel canale Scienza e tecnologia
 

Il Future of Life Institute ha scritto una lettera aperta, firmata da figure di primo piano del mondo scientifico e tecnologico tra cui l'astrofisico Stephen Hawking e il CEO e CTO di Tesla Motors Elon Musk, che vuole sensibilizzare il mondo della ricerca tecnologica concentrata in attività di sviluppo di intelligenze artificiali affinché si impegnino per realizzare "AI che non solo siano più capaci, ma che portino un beneficio alla società".

In particolare la lettera insiste sul fatto che compagnie tecnologiche ed ingegneri devono impegnarsi maggiormente per assicurare che i "sistemi AI facciano ciò che vogliamo che facciano. Lo stesso Musk aveva già in precedenza espresso qualche timore sul fatto che uno sviluppo non adeguatamente ponderato dell'intelligenza artificiale possa portare ad un futuro a tinte fosche, con una situazione di predominio delle macchine sull'uomo (tema molto caro alla fantascienza recente: Terminator, Matrix, solo per citare alcuni esempi).

La lettera del FLI osserva che 20 anni di ricerca sull'intelligenza artificiale hanno permesso di compiere concreti passi avanti tra i quali vengono citati il riconoscimento vocale, la classificazione di immagini, i veicoli autonomi, i sistemi di traduzione vocale, e i computer capaci di rispondere a domande poste in linguaggio naturale. Tutto ciò ha creato, viene osservato nella lettera, un circolo virtuoso dove qualsiasi risultato anche di piccola entità viene ricompensato con ingenti somme di denaro, incoraggiando ancor più l'investimento.

"I potenziali benefici sono enormi, dal momento che tutto ciò che la civiltà deve offrire è un prodotto dell'intelligenza umana: non possiamo prevedere ciò che potremmo ottenere quando questa intelligenza viene amplificata dagli strumenti che l'AI sarà in grado di fornire, ma cose come l'eliminazione di malattie e povertà non sono impossibili da raggiungere. A fronte del grande potenziale dell'AI è importante che i ricercatori sappiano come raccogliere i suoi benefici evitando potenziali insidie" si legge nella lettera.

Un secondo documento suggerisce invece alcune priorità di ricerca allo scopo di costruire un'intelligenza artificiale "robusta" e utile. Tra queste: strumenti di previsione economica, attività di ricerca nel campo dell'etica delle macchine (come si dovrebbe comportare un veicolo dinnanzi ad una piccola probabilità di incidente ad un essere umano contro la certezza di un elevato costo materiale?), lo sviluppo corretto di armi autonome e metodologie per lo sviluppo di AI "robuste", cioè intelligenze artificiali le cui azioni sono comprese dagli esseri umani e su cui si possa esercitare un controllo significativo.

Tra i firmatari della lettera vi sono accademici di Harvard, del MIT, di Oxford e Cambridge, così come esponenti delle compagnie tecnologiche come Google e Amazon e membri di società di venture capital come Founders Fund e Thiel Capital.

40 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
gd350turbo14 Gennaio 2015, 11:04 #1
ma pensate prima a sviluppare le intelligenze organiche !

che la popolazione sta aumentando, ma il livello di intelligenza globale è immutato !
demon7714 Gennaio 2015, 11:08 #2
Leggere queste cose sembra una assurdità da film di fantascienza..
eppure non è così.

i tempi sono maturi per stendere quelle che sono linee guida importanti su come gestire delle entità che tra non più di due o tre decenni saranno parte integrante delle nostre vite.
Credo che questo in futuro sarà un argomento parecchio caldo.. mi torna in mente "animatrix"
+Benito+14 Gennaio 2015, 11:24 #3
Da profano, mi chiedo: gli esseri vivi imparano operando a random sui propri attuatori e ricevendo dai recettori stimoli valutati su una scala bene-----male inizialmente basata su un principio meccanico-chimico (la mia rete neurale percepisce "dolore" e poi ad un livello che coivolge la chimica della psicologia.

Riprodurre un sistema del genere che abbia una componente random nell'uso degli attuatori e che scriva codice in funzione della valutazione del feedback è quello che si fa?
bobafetthotmail14 Gennaio 2015, 11:44 #4
Mah. io tutto sto taglio catastrofista non lo vedo.

un sistema AI deve essere in grado di comprendere qualcosa al di fuori del proprio compito per potersi "ribellare", e già questo è difficile da giustificare economicamente visto che non si crea da solo e quella capacità sarebbe un costo enorme per nulla.

Un sistema AI che prende decisioni "autonome" in base ad un programma scritto da qualcuno di fatto scarica tutta la responsabilità legale delle sue azioni sulla compagnia produttrice. Già questo è un deterrente FORTE a fare sistemi AI generalisti, quelli da fantascienza.

L'unica ragione per sviluppare AI nel senso fantascientifico del termine è di simulare l'essere umano per scopi di ricerca (sul cercello) o ricreativi, o anche "riproduttivi" per una ristretta cerchia di fanatici.

Riprodurre un sistema del genere che abbia una componente random nell'uso degli attuatori e che scriva codice in funzione della valutazione del feedback è quello che si fa?
Più complesso, ma sempre tratto dal nostro cervello.
Il robot si ricrea un mondo virtuale basandosi su dati del mondo reale, e poi usa quello per fare delle prove e sviluppare una strategia che viene applicata nel mondo reale dagli attuatori. Se gli fai fare cose random nel mondo reale ti combinano tanti di quei casini....

Noi facciamo nello stesso modo, del resto. Magari non il poppante, ma l'adulto si.

Finchè si parla di ambienti relativamente semplici (stanze con qualche ostacolo) ce la fanno, fuori nell'ambiente naturale... meno.
Comunque ci sono robot che hanno imparato a "cucinare" (sembra più usare strumenti da cucina) vedendo youtube (riconoscendo i movimenti e "pensando" a come ottenere gli stessi risultati), quindi non siamo messi così male. http://www.sciencedaily.com/release...50113090600.htm

Fargli distinguere gli oggetti resta problematico. Ad esempio un muro da un cespuglio, o un ramo da una mela. Senza usare sistemi complessi come radar/ladar/sonar e telecamere multispettrali avanzate ovviamente.
Mparlav14 Gennaio 2015, 12:05 #5
Anch'io penso che debbano essere proposte delle linee guida il prima possibile, perché a livello di ricerca militare lo stato di avanzamento dell'IA potrebbe essere molto più avanzato di quel che si pensi.
I "firmatari" di questa richiesta potrebbero aver avuto accesso ad informazioni un po' più dettagliate di quelle di pubblico dominio
Ed ecco la loro preoccupazione, o quanto meno, la volontà che si apra un dibattito sulla materia.

D'altronde i dibattiti sulla clonazione umana sono stati posti già a partire dagli anni '60, anche se poi concretamente, ci sono voluti decenni per arrivare alla "fattibilità tecnica" (teoricamente, visto che molte legislazioni proibiscono di superare un certo livello di sviluppo).
demon7714 Gennaio 2015, 12:15 #6
Originariamente inviato da: bobafetthotmail
Mah. io tutto sto taglio catastrofista non lo vedo.

un sistema AI deve essere in grado di comprendere qualcosa al di fuori del proprio compito per potersi "ribellare", e già questo è difficile da giustificare economicamente visto che non si crea da solo e quella capacità sarebbe un costo enorme per nulla.

Un sistema AI che prende decisioni "autonome" in base ad un programma scritto da qualcuno di fatto scarica tutta la responsabilità legale delle sue azioni sulla compagnia produttrice. Già questo è un deterrente FORTE a fare sistemi AI generalisti, quelli da fantascienza.

L'unica ragione per sviluppare AI nel senso fantascientifico del termine è di simulare l'essere umano per scopi di ricerca (sul cercello) o ricreativi, o anche "riproduttivi" per una ristretta cerchia di fanatici.

Più complesso, ma sempre tratto dal nostro cervello.
Il robot si ricrea un mondo virtuale basandosi su dati del mondo reale, e poi usa quello per fare delle prove e sviluppare una strategia che viene applicata nel mondo reale dagli attuatori. Se gli fai fare cose random nel mondo reale ti combinano tanti di quei casini....

Noi facciamo nello stesso modo, del resto. Magari non il poppante, ma l'adulto si.

Finchè si parla di ambienti relativamente semplici (stanze con qualche ostacolo) ce la fanno, fuori nell'ambiente naturale... meno.
Comunque ci sono robot che hanno imparato a "cucinare" (sembra più usare strumenti da cucina) vedendo youtube, quindi non siamo messi così male. http://www.sciencedaily.com/release...50113090600.htm

Fargli distinguere gli oggetti resta problematico. Ad esempio un muro da un cespuglio, o un ramo da una mela. Senza usare sistemi complessi come radar/ladar/sonar ovviamente.


Non è catastrofismo in stile "ommioddio skynet".
Il fatto è che la ricerca scientifica da parecchio insegue il mito dell'intelligenza artificiale, ed i "livelli" sono tanti prima di arrivare al traguardo ultimo.

In primis è poco corretto parlare di "programma" nel senso tradizionale del termine, caratteristica peculiare dell'intelligenza artificaile è appunto quella di prendere decisioni autonome sulla base di dati in ingresso e soprattuto quella di modificare il proprio comportamento sulla base dell'esperienza.

E' chiaro che adesso si fa fatica ad immaginarsi il tutto.. ma prova a penare ad un domani (cinquanta anni magari) quando la "siri" di turno sarà tanto avanzata da raggiungere livelli di ragionamento identici a quelli di un essere umano.. e quando questa "siri" prenderà autocoscienza raggiungendo quindi a tutti gli effetti lo status di essere vivente..

Facile immaginare che come minimo pretenderà di essere trattata come tale.. si apriranno questioni "etiche" non da poco.
aqua8414 Gennaio 2015, 12:16 #7
[FONT="Georgia"]Allora, a parte che il termine INTELLIGENZA non è del tutto spiegabile.

Detto questo, secondo me, non si riuscirà mai a realizzare un qualcosa che ha una sua intelligenza identica o superiore a quella dell'essere umano.
Penso sia impossibile.

Ricordiamoci che dalla scienza, all'informatica, alla medicina, ecc... tutto quello che è stato scoperto e si sta scoprendo ancora adesso è SEMPRE e SOLO scoperto dall'Uomo.

La macchina ti può aiutare dove metteresti piu tempo del necessario, ma le istruzioni, i miglioramenti e tutto il resto è sempre fatto dall'uomo.[/FONT]
TwinDeagle14 Gennaio 2015, 12:33 #8
Originariamente inviato da: Mparlav
Anch'io penso che debbano essere proposte delle linee guida il prima possibile, perché a livello di ricerca militare lo stato di avanzamento dell'IA potrebbe essere molto più avanzato di quel che si pensi.
I "firmatari" di questa richiesta potrebbero aver avuto accesso ad informazioni un po' più dettagliate di quelle di pubblico dominio
Ed ecco la loro preoccupazione, o quanto meno, la volontà che si apra un dibattito sulla materia.

D'altronde i dibattiti sulla clonazione umana sono stati posti già a partire dagli anni '60, anche se poi concretamente, ci sono voluti decenni per arrivare alla "fattibilità tecnica" (teoricamente, visto che molte legislazioni proibiscono di superare un certo livello di sviluppo).


Il campo militare è mostruosamente più avanzato di quanto possiamo lontanamente immaginare. E questo detto da alcuni miei professori di robotica ed elettronica digitale. Basta fare una passeggiata ad una qualunque facoltà di robotica e chiedere di vedere qualche video non segretato militare, che li girano in quantità, per rimanere increduli di fronte a cosa sono in grado autonomamente di fare i robot e a quale livello l'AI è arrivata. Detto questo, i robot mi fanno decisamente paura, nonostante è il campo in cui lavoro. Questo perché abbiamo creato un idea(essendo ancora lunghissima la strada da fare per renderla concreta) potenzialmente molto migliore del creatore. L'idea di un essere con una diversa forma di vita dalla nostra, slegato completamente dai limiti che l'uomo ha per natura. Quando e se una macchina raggiungerà un sufficiente grado di autonomia e intelligenza, questa sarà anche in grado di trovare il modo di migliorarsi autonomamente. E non credete, è questo il vero pilastro della ricerca in questa direzione. Lo scopo non è ricreare l'uomo, ma capire come potenziarlo.
Darkon14 Gennaio 2015, 12:48 #9
Originariamente inviato da: aqua84
[FONT="Georgia"]Allora, a parte che il termine INTELLIGENZA non è del tutto spiegabile.

Detto questo, secondo me, non si riuscirà mai a realizzare un qualcosa che ha una sua intelligenza identica o superiore a quella dell'essere umano.
Penso sia impossibile.

Ricordiamoci che dalla scienza, all'informatica, alla medicina, ecc... tutto quello che è stato scoperto e si sta scoprendo ancora adesso è SEMPRE e SOLO scoperto dall'Uomo.

La macchina ti può aiutare dove metteresti piu tempo del necessario, ma le istruzioni, i miglioramenti e tutto il resto è sempre fatto dall'uomo.[/FONT]


L'insuperabilità dell'uomo è una pia illusione. Il fatto che ancora non si abbia la padronanza di tali meccanismi e quindi non si possano pienamente ingegnerizzare è solo una mancanza di conoscenza ma prima o poi sarà invevitabile che l'uomo venga superato.

A quel punto ci sarà da vedere se e come l'IA valuterà la vita umana o i mezzi che ci saranno. Francamente nella visione darwiniana dell'evoluzione non sarebbe così assurdo che la vita meccanica sia l'evoluzione della vita umana biologica verso standard più elevati.
bobafetthotmail14 Gennaio 2015, 13:09 #10
Originariamente inviato da: demon77
In primis è poco corretto parlare di "programma" nel senso tradizionale del termine, caratteristica peculiare dell'intelligenza artificaile è appunto quella di prendere decisioni autonome sulla base di dati in ingresso e soprattuto quella di modificare il proprio comportamento sulla base dell'esperienza.
Un programma è solo una serie di procedure rigide.
Una macchina non prende decisioni nel senso "umano" (romantico) del termine, reagisce in modo rigido (e non per forza logico) agli stimoli.
Dato che una macchina in sè non fa nulla, gli serve un programma, una lista di procedure e reazioni a stimoli.
AI o non AI, senza un software l'hardware non gira, punto.

Sotto tutti i punti di vista anche un cervello biologico è una macchina, perchè si comporta come tale. Solo che la complessità è molto maggiore quindi i possibili risultati più difficili da prevedere. Non so se hai notato che gli esseri umani tendono comunque a comportarsi in modo abbastanza simile e prevedibile salvo alcune eccezioni...

Sempre dato che una AI è stata creata da terzi si possono facilmente scegliere parti del programma limitate dove può imparare dall'esperienza, e lasciare altre read-only.

Muovendo il parallelo sugli esseri umani questo "blocco irrazionale al cambiamento di un dato aspetto" si potrebbe descrivere come un condizionamento, una dipendenza, delle pulsioni irrefrenabili, seguire un proprio codice morale interno. Non mi sembrano cose così strane per un essere umano.

Per dire, ci sono persone "malate di lavoro". Quale sarebbe il problema per un sistema artificiale? Gli importa solo di fare il suo lavoro e di farlo bene. Bum, fine delle discussioni etiche. Fare quello che fa gli piace. Assumendo che debba per forza avere emozioni per funzionare, che non è detto.

Una AI generalista e autonoma porta una valanga di domande su chi siamo noi.
E sticazzi l'emancipazione degli schiavi 2.0. Quella roba non è nuova e francamente la tematica ha anche un pò rotto le scatole.

Qui la cosa rivoluzionaria è [U]l'essere forzati a riconsiderare l'idea di essere umano da zero [/U]dato che le differenze tra un umano e un programma artificiale diventeranno sempre meno distinguibili.

No perchè la macchina sappiamo cos'è (l'abbiamo creata noi..) ma non c'è la stessa certezza sul cosa siamo noi.

quando la "siri" di turno sarà tanto avanzata da raggiungere livelli di ragionamento identici a quelli di un essere umano.. e quando questa "siri" prenderà autocoscienza raggiungendo quindi a tutti gli effetti lo status di essere vivente..
Non so se hai notato, ma io non ho detto che è impossibile, ma che non c'è un granchè di impeto alla creazione di nuova vita artificiale per ragioni legali ed economiche.

E francamente avere autocoscienza è completamente irrilevante per il 99.99% degli utilizzi. Sono macchine, schiavi.
Non è necessario avere una vita ed una famiglia e che abbiano emozioni per fargli compiere il loro lavoro meglio e con più motivazione di un essere umano medio. Abbiamo accesso al programma, ricordi?

E la ragione economica principale la dici tu nella frase dopo:

Facile immaginare che come minimo pretenderà di essere trattata come tale.. si apriranno questioni "etiche" non da poco.

E tutti i soldi investiti nella sua creazione? Eeeeee...... ma mi sa proprio che fanno un restore dai backup.

il termine INTELLIGENZA non è del tutto spiegabile.
Nel senso che la definizione di intelligenza è molto vaga.

Detto questo, secondo me, non si riuscirà mai a realizzare un qualcosa che ha una sua intelligenza identica o superiore a quella dell'essere umano.
Penso sia impossibile.
Questo non ha senso a livello puramente concettuale.

Se non ammetti la presenza di entità soprannaturali come anime o cose così, basta che la tecnologia progredisca abbastanza da poter riprodurre fedelmente un cervello umano con i circuiti neurali corretti.

Se fai girare questa riproduzione fedele su un sistema artificiale, è solo una questione di tempo prima che l'hardware riesca a reggere ritmi di funzionamento più veloci di quelli di un cervello umano.

E questo senza tenere conto delle eventuali migliorie applicabili dopo che si è capito come funziona un dato circuito neurale.
Il cervello umano si è evoluto con FORTI limitazioni dal punto di vista dell'efficienza, più volte ci sono stati casi dove è stata preferita l'efficienza più stupida ad una intelligenza più dispendiosa.
Un sistema artificiale ha molte meno limitazioni da questo punto di vista.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^