OpenAI ha sviluppato un'intelligenza artificiale troppo potente per essere rilasciata
OpenAI è riuscita a sviluppare un'Intelligenza Artificiale in grado di scrivere articoli, news e molto altro; è diventata però troppo potente, tanto che i ricercatori si sono rifiutati di renderla totalmente totalmente Open Source.
di Riccardo Donati pubblicata il 18 Febbraio 2019, alle 09:01 nel canale Scienza e tecnologiaintelligenza artificiale
OpenAI è un'organizzazione no profit di ricerca sull'Intelligenza Artificiale che vuole promuovere e sviluppare un'intelligenza amichevole nella maniera in cui l'umanità possa trarne beneficio. Viene fondata da Elon Musk nel 2015 con lo scopo di "collaborare liberamente" con altre istituzioni e ricercatori rendendo i suoi brevetti e ricerche aperti al pubblico.
Uno dei progetti che l'azienda sta portando avanti in questo periodo e quello riguardante a un'Intelligenza Artificiale progettata per scrivere testi come gli esseri umani. Questa nuova AI è stata chiamata GPT-2 e i ricercatori che si occupano dello sviluppo dichiarano di aver creato qualcosa di talmente intelligente da essere pericolosa se rilasciata totalmente al pubblico.
Esistono già Intelligenze Artificiali che si occupano della scrittura di testi, ma le troviamo specialmente in ambiti sportivi, dove il testo è spesso simile e quindi più semplice da scrivere per una "macchina". In questo caso però abbiamo davanti una Intelligenza che ha effettuato l'addestramento attraverso otto milioni di pagine web, più che sufficienti per apprendere i vari stili di scrittura degli esseri umani e concentrarli in un unico testo.
La potenza di questa AI potrebbe essere utilizzata male se resa totalmente pubblica, soltanto una parte del codice è stata pubblicata per permettere ad altri ricercatori di avere una base solida da cui partire. Infatti l'azienda ha dichiarato: "a causa delle nostre preoccupazioni sull'uso malevolo della tecnologia, non rilasceremo la versione addestrata dell'AI. Nell'ambito del nostro esperimento che mira a divulgare responsabilmente i modelli di AI, rilasceremo un modello ridotto per i ricercatori, per permettere loro di sperimentare e provare la tecnologia".
We've trained an unsupervised language model that can generate coherent paragraphs and perform rudimentary reading comprehension, machine translation, question answering, and summarization — all without task-specific training: https://t.co/sY30aQM7hU pic.twitter.com/360bGgoea3
— OpenAI (@OpenAI) 14 febbraio 2019
L'utilizzo sbagliato di questa nuova Intelligenza Artificiale può portare alla stesura di fake news, automatizzare la "produzione" di SPAM, automatizzare la produzione di contenuti abusivi sui social media o addirittura impersonare la gente online. Lo scopo per il quale questa Intelligenza Artificiale è stata realizzata è invece differente: può essere molto utile a migliorare gli assistenti di scrittura (trovare errori e suggerire correzioni più adatte), ad affinare un dialogo migliore con un essere umano (Google Duplex), a limitare gli errori durante la traduzione di testi e raffinare il riconoscimento vocale.
Un mondo nuovo e interessante quello dell'Intelligenza Artificiale che può essere anche rischioso se utilizzato nel modo sbagliato, ma utile e efficace se usato opportunamente per migliorare la nostra esperienza nel campo tecnologico. Bisogna avere sempre un occhio di riguardo quando navighiamo online; anche OpenAI ci mette in guardia avvertendoci di essere più attenti ai contenuti trovati sul web, in quanto sarà sempre più difficile distinguere il vero ed il falso.
Se volete approfondire il discorso, vedere alcuni esempi dell'Intelligenza Artificiale all'opera o consultare il codice vi rimandiamo al sito di OpenAI.
44 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoEcco...quella si sarebbe una IA molto più intelligente di tante persone!!
In effetti
É come se qualcuno avesse creato un reattore a fusione,sicuramente ad uso civile sarebbe una manna ma in mano ai militari o terroristi diventerebbe una arma.Mettete che la ia fosse messa a disposizione di trafficanti di droga o delinquenti malavitosi....
È la parte più lunga e complessa.
...è la frase che mi rimbalza in mente ogni volta che sento parlare di AI!
Ma basta con ste uscite del menga, sinceramente hanno stufato. Qui stiamo parlando di intelligenze di tipo narrow ben lontane dalle capacità necessarie a far concretizzare gli scenari apocalittici che tanto vi piace tirare in ballo. Insomma fatevi furbi.
che addestrino una IA responsabile dei danni che potrebbe fare!
già, non è possibile, non è fisica, non può andare in prigione, non può pagare, tranne chi la istruisce e tiene in auge...
ovvero la libertà senza responsabilità inscritta in qualcosa che non è una intelligenza umana, a parte l'inteligenza (artificiale) era il sogno di qualsiasi umano?
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".