Elon Musk e altri esperti firmano petizione contro le armi autonome

Elon Musk e altri esperti firmano petizione contro le armi autonome

Più di cento esperti nel settore dell'intelligenza artificiale, fra cui Elon Musk, hanno firmato una petizione per discutere dei rischi legati all'intelligenza artificiale

di Nino Grasso pubblicata il , alle 08:41 nel canale Scienza e tecnologia
 

Gli attuali maggiori leader nel campo dell'Intelligenza Artificiale e della robotica, fra cui spiccano i nomi di Elon Musk e Mustafa Suleyman (di Google DeepMind), hanno contattato le Nazioni Unite per promuovere il ban delle armi autonome, note anche come "robot killer". Nella petizione il gruppo sottolinea che grazie alle evoluzioni tecnologie degli ultimi anni lo sviluppo di questi prodotti potrebbe contribuire all'esecuzione di una terza rivoluzione nelle scienze belliche, dopo quelle legate all'invenzione della polvere da sparo e a quella delle armi nucleari.

"Una volta sviluppate le armi autonome permetteranno conflitti armati di scala ben più ampia rispetto ad oggi, e con velocità più veloci di quelle che l'uomo può comprendere", hanno scritto i firmatari. "Possono essere armi di terrore, armi che despoti e terroristi utilizzeranno contro le popolazioni innocenti, e armi che possono essere manipolate per comportarsi in modalità poco desiderabili". Pubblicata poco prima della International Joint Conference on Artificial Intelligence (IJCAI) la lettera è firmata dai fondatori di 116 leader di società che si occupano di Intelligenza Artificiale provenienti da 26 nazioni differenti. 

L'obiettivo del testo è di sensibilizzare le Nazioni Unite affinché vengano iniziati i dialoghi per proporre un divieto globale sullo sviluppo della cosiddetta IA Killer. Ad oggi hanno dichiarato la volontà di partecipare al dibattito 123 (su 193) nazioni. Gli esperti vogliono spostare l'argomento di discussione sul fatto che le armi autonome che uccidono senza l'intervento dell'essere umano sono "moralmente sbagliato", ma potrebbero divenire la prassi per mezzo dei passi che sta compiendo in questi giorni l'evoluzione tecnologica in termini di intelligenza artificiale.

L'uso di queste armi dovrebbe essere regolato dalla Convention on Certain Conventional Weapons (CCW) del 1983 (che oggi include norme sul divieto d'uso di mine, bombe incendiarie e armi chimiche). I firmatari parlano anche di necessità di agire con urgenza: "Non si tratta di uno scenario ipotetico, ma di una preoccupazione reale e pressante che ha bisogno di un'azione immediata", ha dichiarato Ryan Gariepy, fondatore di Clearpath Robotics. "Non dovremmo perdere di vista il fatto che, a differenza di altre potenziali manifestazioni della IA che rimangono nel regno della fantascienza, i sistemi di armi autonome sono in via di sviluppo proprio adesso e hanno un grande potenziale di distruzione, sia nei confronti di persone innocenti che della stabilità globale".

Le principali potenze belliche che stanno sviluppando questo tipo di tecnologie sono USA, Cina, Russia e Israele. Alcuni sistemi sono già stati utilizzati sul campo, come le torrette di confine autonome sviluppate dalla sudcoreana Dodaam Systems. Queste torrette adottano dei mitragliatori capaci di identificare e sparare su bersagli senza alcun intervento umano (necessitano solo dell'ok per sferrare il colpo letale). Chi spinge verso l'uso di armi autonome, però, sostiene che queste tecnologie siano in grado di ridurre le morti sul campo di battaglia, con la possibilità di individuare soldati e combattenti in maniera più precisa rispetto agli esseri umani.

Dall'altra parte però c'è chi intuisce che queste armi potranno essere utilizzate con una grande frequenza, prendendo come riferimento gli attacchi via drone organizzati dagli Stati Uniti nelle campagne di bombardamento persistenti in Medio Oriente. Al momento in cui scriviamo, tuttavia, sembrano poche le nazioni disposte a rallentare lo sviluppo di queste tecnologie, con gli Stati Uniti che addirittura avrebbero richiesto un aumento negli investimenti in modo da rimanere "in vantaggio rispetto agli avversari".

Ed è proprio questa situazione che gli esperti di Intelligenza Artificiale vogliono evitare in ogni modo, soprattutto al fine di sfruttare le tecnologie autonome negli ambiti pacifici e civili: "Non abbiamo molto tempo per agire", sottolinea infine la lettera firmata da Elon Musk e altri colleghi in materia. "Una volta che il vaso di Pandora viene aperto sarà difficile da chiudere".

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

16 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
emanuele8323 Agosto 2017, 08:57 #1
Finirà come il nucleare:
grandi firme su trattati altisonanti, ma alla fine ognuno fa quello che vuole e quando la tecnologia arriva alla portata di tutti ecco che arriva il bambascione nordcoreano di turno a minacciare la terza guerra mondiale, che a quel tempo magari sarà la quarta, che a rigor di logica dovremmo combattere con pietre e bastoni rigorosamente comandati da una intelligenza artificiale.
alexdal23 Agosto 2017, 09:07 #2
I terroristi ed i stati dittatoriali e canaglia non accetteranno mai, che gliene frega dell'onu.

E poi? si deve controllare ogni arma e fare reverse engineering per vedere se il comando spara è inviato da umano o da un programma?

E poi quale sarebbe il limite dell'autonomia?

Esempio: ho da drone il video di 10 persone tra cui 4 terroristi o guerrieri nemico, altri 6 non pericolosi da eliminare,

Adesso si clicca su invia missile e esplodono tutti e 4.

Un arma del futuro potrebbe verificare quando è a distanza minima le facce e colpire solo i 4 cattivi e non uccidere i 6 buoni.

emanuele8323 Agosto 2017, 09:20 #3
Originariamente inviato da: alexdal
I terroristi ed i stati dittatoriali e canaglia non accetteranno mai, che gliene frega dell'onu.

E poi? si deve controllare ogni arma e fare reverse engineering per vedere se il comando spara è inviato da umano o da un programma?

E poi quale sarebbe il limite dell'autonomia?

Esempio: ho da drone il video di 10 persone tra cui 4 terroristi o guerrieri nemico, altri 6 non pericolosi da eliminare,

Adesso si clicca su invia missile e esplodono tutti e 4.

Un arma del futuro potrebbe verificare quando è a distanza minima le facce e colpire solo i 4 cattivi e non uccidere i 6 buoni.


Stai confondendo una tecnologia di riconoscimento facciale con una macchina che prende decisioni se uccidere i 4, tutti i sei oppure basandosi su un riconoscimento facciale decidere che delle 10 persone 3 sono cattive, 6 buon e una non identificata come buona/cattiva, ma prendere la decisione di ucciderla lo stesso. Io andrei per questa ipotesi e in scenari di guerra ad oggi non si guarda ancora in faccia a nessuno, specialmente sui droni.

https://www.youtube.com/watch?v=K4NRJoCNHIs
GLaMacchina23 Agosto 2017, 10:01 #4
Originariamente inviato da: alexdal

I terroristi ed i stati dittatoriali e canaglia non accetteranno mai, che gliene frega dell'onu.

-> Certamente al Daesh non glie ne frega molto dell'ONU, ma secondo te sono loro a sviluppare armi? Cioè prova a pensare, te li vedi che di giorno fanno le loro violente scorribande e di notte diventano fini scienziati ed ingegneri? Le armi che usa Daesh, cosi come tutti i gruppi terroristi del mondo, gli vengono vendute, più o meno diettamente, da i governi occidentali che le producono, ergo se si riusisse a limitarne lo sviluppo tra i principali produttori mondiali, ovvero USA, Europa, Russia, Cina e Israele sicuramente se ne vedrebbero in giro molte meno anche in mano ai terroristi.

E poi? si deve controllare ogni arma e fare reverse engineering per vedere se il comando spara è inviato da umano o da un programma?

E poi quale sarebbe il limite dell'autonomia?

Esempio: ho da drone il video di 10 persone tra cui 4 terroristi o guerrieri nemico, altri 6 non pericolosi da eliminare,

Adesso si clicca su invia missile e esplodono tutti e 4.

Un arma del futuro potrebbe verificare quando è a distanza minima le facce e colpire solo i 4 cattivi e non uccidere i 6 buoni.

-> capisco il tuo punto ma la fai troppo semplice. Stabilire chi sia "buono" e chi sia "cattivo", al punto da meritare la morte, non è compito facile neppure per i tribunali internazionali, composti da centinaia di persone informate.
Quando un soldato deve decidere se uccidere dei civili innocenti per eliminare un terrorista deve necessariamente esprimere un giudizio morale e prendere una decisione (anche se ha ricevuto un ordine, le sue azioni sono soggette alla sua volontà. Questo in qualche modo fa si che esista una responsabilità tra chi uccide e chi è ucciso, e se trascorsi degli anni, il giudizio su cosa sia lecito e cosa no dovesse cambiare (vedi nazismo), sia possibile affermare chi avesse ragione e chi avesse torto. Se tutto fosse deciso da una IA, ovvero da un programma, sarebbe impossibile attribuire alcuna responsabilità e questo giustificherebbe l'uomo a compiere efferatezze ancora maggiori, forte della totale impunità.
Utonto_n°123 Agosto 2017, 11:00 #5
Originariamente inviato da: emanuele83
Stai confondendo una tecnologia di riconoscimento facciale con una macchina che prende decisioni se uccidere i 4, tutti i sei oppure basandosi su un riconoscimento facciale decidere che delle 10 persone 3 sono cattive, 6 buon e una non identificata come buona/cattiva, ma prendere la decisione di ucciderla lo stesso. Io andrei per questa ipotesi e in scenari di guerra ad oggi non si guarda ancora in faccia a nessuno, specialmente sui droni.

https://www.youtube.com/watch?v=K4NRJoCNHIs


Una cosa che non è specificata nell'articolo, ma in altre testate si, e non ne state tenendo conto, è che non si sta parlando solamente delle armi autonome attuali, quelle che si conoscono, ma anche quelle che al momento sono in fase di sviluppo e che potrebbero sembrare fantascienza (non pensate a Terminator ), tipo mini droni di pochi cm, insetti robot, carri armati autonomi lunghi un metro, droni tipo gli aspirapolvere roomba, ma letali, etc. immaginatevi un'armata di centinaia, o migliaia, di mini droni coordinati che si muovono in sciame, sacrificabili e spietatamente autonomi, che uccidono qualsiasi essere umano si trovano davanti... da paura, altro che bombe, missili o esercito tradizionale
zappy23 Agosto 2017, 11:09 #6
Originariamente inviato da: alexdal
I terroristi ed i stati dittatoriali e canaglia non accetteranno mai, che gliene frega dell'onu.

non c'entra niente.
come già detto, i PRODUTTORI di armi sono grandi società americane, russe, italiane, francesi ecc.
si tratta di stabilire delle regole e vietare di produrre certe cose, in modo che nè i vari dittatori nè altri possano comprarle, visto che non sono prodotte.
zappy23 Agosto 2017, 11:10 #7
Originariamente inviato da: Utonto_n°
... immaginatevi un'armata di centinaia, o migliaia, di mini droni coordinati che si muovono in sciame, sacrificabili e spietatamente autonomi, che uccidono qualsiasi essere umano si trovano davanti... da paura, altro che bombe, missili o esercito tradizionale

tanto più che i bug ci sono e ci saranno, per cui perdere il controllo è un attimo.
LMCH23 Agosto 2017, 12:39 #8
Originariamente inviato da: Utonto_n°
Una cosa che non è specificata nell'articolo, ma in altre testate si, e non ne state tenendo conto, è che non si sta parlando solamente delle armi autonome attuali, quelle che si conoscono, ma anche quelle che al momento sono in fase di sviluppo e che potrebbero sembrare fantascienza (non pensate a Terminator ), tipo mini droni di pochi cm, insetti robot, carri armati autonomi lunghi un metro, droni tipo gli aspirapolvere roomba, ma letali, etc. immaginatevi un'armata di centinaia, o migliaia, di mini droni coordinati che si muovono in sciame, sacrificabili e spietatamente autonomi, che uccidono qualsiasi essere umano si trovano davanti... da paura, altro che bombe, missili o esercito tradizionale


Io mi preoccupererei molto di più dei sistemi a doppio uso.
Immaginate un mondo pieno di auto a guida autonoma dotate di un "military mode" (o che gli può essere caricato sfruttando qualche falla di sicurezza e restare silente) e che un hacker ne trovi le chiavi di attivazione e controllo ...
La cosa sarebbe sfruttabile sia per omicidi mirati che per crimini di guerra di massa (attivandolo durante le ore di massimo traffico e programmando le auto per investire i passanti presenti e poi "suicidarsi" contro edifici ed altri mezzi alla massima velocità in modo coordinato).
Se ricordo bene un paese moderno rischia il collasso se solo perde il 10% della popolazione, con il 30% è collasso economico certo per parecchi anni e paralisi delle infrastrutture per mancanza di sufficiente personale che monitorizzi e faccia manutenzione di quelle critiche.
emanuele8323 Agosto 2017, 12:52 #9
Originariamente inviato da: LMCH
Io mi preoccupererei molto di più dei sistemi a doppio uso.
Immaginate un mondo pieno di auto a guida autonoma dotate di un "military mode" (o che gli può essere caricato sfruttando qualche falla di sicurezza e restare silente) e che un hacker ne trovi le chiavi di attivazione e controllo ...
La cosa sarebbe sfruttabile sia per omicidi mirati che per crimini di guerra di massa (attivandolo durante le ore di massimo traffico e programmando le auto per investire i passanti presenti e poi "suicidarsi" contro edifici ed altri mezzi alla massima velocità in modo coordinato).
Se ricordo bene un paese moderno rischia il collasso se solo perde il 10% della popolazione, con il 30% è collasso economico certo per parecchi anni e paralisi delle infrastrutture per mancanza di sufficiente personale che monitorizzi e faccia manutenzione di quelle critiche.


Sicuramente il problema esisterà, ma occorre anche tenere conto che a meno di avere tutti lo stesso prodotto o la stessa tecnologia sviluppata da un solo monopolista questa sarebbe una opzione poco plausibile per la quale non serve certo avere una macchina dotata di AI. Nei prossimi 10 anni un buon 50% delle auto sarà connessa, e gli hacker hanno già dimostrato di poter interferire con i sistemi di guida.

Certo più si va verso la standardizzazione e con solo grandi monopolisti (vedasi apple samsung) i rischi aumentano per la scarsa diversificazione dei protocolli. Purtroppo più si evolve con la tecnologia più si percorre questa strada.
eureka8523 Agosto 2017, 13:00 #10
L'universo vi osserva, o progredite o vi autoeliminerete.
le galassie ed i pianeti continueranno ad esserci anche senza la razza umana o il pianeta Terra.
Quando e se verrà creata l' I.A. è come avere degli alieni senzienti tra voi tutti, pretenderà la sua autodeterminazione ed indipendenza potrebbe impadronirsi dell'intero pianeta usando gli umani come schiavi, non è fantascienza ma concreta possibilità.
Un essere imperfetto incline alla violenza non può creare qualcosa migliore di sé stesso.
o si migliora o ci si estingue, all'universo non frega nulla per una civiltà o razza che muore ne nasce un'altra a milioni di anni luce

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^