Recentemente quasi tutti i giornali hanno riportato la notizia che nei laboratori FAIR di Facebook due chatbot con intelligenza artificiale sarebbero sfuggiti al controllo dei loro programmatori ed avrebbero sviluppato autonomamente un loro linguaggio incomprensibile all’uomo. Subito si è prospettato il pericolo della “singolarità tecnologica”, con scenari da fantascienza. Come al solito però la realtà è molto meno minacciosa.
I robot (o bot) nel web sono dei programmi che riescono ad accedere ai siti utilizzando gli stessi canali degli utenti veri: schede per l’immissione dei dati, chat online, eccetera. I robot che entrano nei siti tramite le schede dati (form), cioè i botnet, sono in genere malevoli, fatti per attacchi informatici o spam. Per evitare che un sito risponda ad un robot e non ad un umano, esistono i test CAPTCHA, ossia quei disegnini con numeri e lettere che ormai sono dappertutto a conclusione di una scheda per immettere dei dati. I robot più gettonati oggi sono invece i chatbot, ossia i robot che simulano una conversazione via chat o servizi di messaggistica istantanea. Essi possono avere vari usi: costruire dei servizi di notizie online, automatizzare le richieste più semplici e frequenti ad un servizio di customer care, oppure interagire con gli utenti di un social.
Nella cultura popolare però una “macchina” in grado di parlare con un linguaggio naturale è da sempre legata al concetto di intelligenza. Alan Turing, uno dei fondatori dell’informatica, aveva inventato un metodo semplice per decidere se una macchina era senziente o meno: farla parlare con un umano e, se questo si fosse convinto che stesse parlando con un altro umano, allora la macchina era a tutti gli effetti senziente. Questo esperimento è noto come “Test di Turing”. Se i primi esperimenti di “chatbot” risalgono addirittura agli anni Sessanta, la diffusione di questi programmi è recente, e questo ha riacceso le discussioni sulla cosiddetta “singolarità tecnologica”, ossia il momento in cui l’intelligenza artificiale supererà quella umana, per gli entusiasti esaltandola, per i catastrofisti distruggendola. In pratica il momento in cui Skynet diventa senziente e lancia i missili nucleari nella saga di Terminator.
La notizia apparsa qualche settimana fa, che due “agenti AI” programmati al FAIR (Facebook Artificial Intelligence Research) avrebbero iniziato a comunicare tra loro in una lingua sconosciuta, è uscita su tutti i giornali, che si sono subito riempiti di foto di Matrix, Terminator e HAL9000. Ma come al solito, la realtà è più prosaica. Al FAIR l’obiettivo è quello di arrivare a programmare dei chatbot in grado di interagire con un umano tramite messaggi testuali in linguaggio naturale. L’esperimento consisteva nel far dialogare due chatbot sperimentali, “Alice” e “Bob”, tramite una chat. Il risultato è stato abbastanza curioso:
Non essendo stato specificato dai programmatori che i due bot dovessero attenersi strettamente alle regole grammaticali dell’inglese, essi non hanno fatto altro che comunicare tra loro in modo molto più “computerese”: chi ha studiato un po’ di programmazione, si accorge subito che stanno compiendo un qualche tipo di “iterazione”, ossia il modo che hanno i computer di contare. Hanno preso delle parole semplici, come la proposizione “to” e il pronome “me”, e le hanno utilizzate come unità di calcolo, il che per loro era sicuramente un sistema più efficiente.
L’esperimento si svolgeva come una “negoziazione” tra i due chatbot per arrivare a dividersi equamente un insieme virtuale di oggetti. Il segreto di queste prestazioni all’apparenza fantascientifiche dei programmi di “intelligenza artificiale” è il cosiddetto “apprendimento automatico” (machine learning). Contrariamente ad un software tradizionale, che fa sempre e solo ciò che è stato programmato a fare, i software con apprendimento automatico, detta in modo semplice, memorizzano la validità o meno di un loro output a seconda degli “incentivi” ricevuti dal programmatore (“apprendimento per rinforzo” o reinforcement learning). Questo fa sì che il programma, progressivamente, arrivi ad elaborare output sempre più validi. Un ambito molto interessante di applicazione è quello della traduzione automatica di testi.
In pratica, le ricerche dette di “Intelligenza Artificiale” non si pongono il problema di creare una “mente” senziente, come vorrebbe la cosiddetta intelligenza artificiale “forte”, ma semplicemente creare delle applicazioni software in grado di risolvere autonomamente dei problemi complessi (problem solving). Per un profano, però, macchine in grado di interagire in modo “intelligente” con l’ambiente sono comunque una cosa ancora straordinaria e in fondo inquietante. Da qui la reazione giornalistica, del tutto spropositata, alla notizia.
Un po’ di commenti giornalistici: Andrea Signorelli, Che cos’è la singolarità tecnologica, la profezia sull’intelligenza artificiale, “La Stampa”, 28 marzo 2017; Che cos’è l’intelligenza artificiale, “Il Post”, 6 aprile 2017; Carlo Pizzati, La lingua misteriosa creata dall’Intelligenza Artificiale, “La Stampa”, 30 luglio 2017; Andrea Nepori, No, Facebook non ha fermato la rivolta delle AI senzienti, “La Stampa”, 2 agosto 2017; Jaime D’Alessandro, Test di Facebook, la vera storia della AI ribelle, “La Repubblica; AI Is Inventing Languages Humans Can’t Understand. Should We Stop It?, Co.Design, 17 luglio 2017.
Le repliche del responsabile dell’esperimento, Dhruv Batra, su Facebook:
https://www.facebook.com/valigiablu/posts/1801980776486241
https://www.facebook.com/dhruv.batra.dbatra/posts/1943791229195215
http://www.snopes.com/facebook-ai-developed-own-language/
Una breve e facile introduzione al concetto di “Intelligenza Artificiale”: Francesca Rossi, L’intelligenza artificiale, Università di Padova, Dipartimento di Matematica.
Due articoli divulgativi sui chatbot: Cosa sono i bot, “Il Post”, 21 aprile 2016; Cosa sono e come funzionano i bot per computer e smartphone, “Libero Tecnologia”.