Alice e Bob, due robot dotati di intelligenza artificiale, comunicavano tra loro in un modo che nessuno capiva.
L’intelligenza artificiale occupa sempre più settori. Dagli algoritmi che regolano ciò che vediamo e ciò che vediamo sui social, agli assistenti personali su smartphone, nella guida autonoma e persino la loro presenza nelle fabbriche e negli ospedali.
Il futuro del nostro rapporto con le varie IA significherà che potranno imparare da sole, diventare più efficienti e quasi indistinguibili da noi.
Questo è esattamente ciò che intendeva Facebook quando ha creato due sistemi di intelligenza artificiale, Alice e Bob… anche se in seguito li ha disconnessi. Comunicavano in un modo che nessuno capiva, ma cosa è successo veramente?
Secondo le notizie che circolavano all’epoca, Facebook avrebbe disconnesso due dei suoi robot di intelligenza artificiale, Alice e Bob, dopo che questi avevano cominciato a parlarsi in una lingua da loro inventata.
Mentre alcuni elementi di questo racconto futuristico sono veri, altri non lo sono.
Alice e Bob erano due chatbot, fondamentalmente programmi per computer che imitano le conversazioni umane attraverso il testo.
Poiché questi programmi non sono ancora in grado di svolgere funzioni molto sofisticate oltre, ad esempio, alla risposta alle domande dei clienti o all’ordinazione di cibo, l’Artificial Intelligence Research Group (FAIR) di Facebook ha deciso di vedere se si potesse insegnare loro a trattare.
Usando un gioco in cui i due chatbot, così come i giocatori umani, si scambiavano oggetti virtuali come libri, cappelli e palloni, Alice e Bob hanno dimostrato di poter concludere accordi con vari gradi di successo.
Per farlo, gli scienziati del gruppo FAIR hanno utilizzato un software di intelligenza artificiale e un’interfaccia cervello-computer, ma quando Alice e Bob hanno iniziato a negoziare tra loro, gli esperti si sono resi conto che i bot non erano stati programmati per rispettare semplicemente le regole dell’inglese, quindi il risultato è stato un dialogo apparentemente privo di senso.
In un post su Facebook, Dhruv Batra, membro di FAIR, ha affermato che questo comportamento non è allarmante, ma “un sottocampo ben consolidato dell’IA, con pubblicazioni che risalgono a decenni fa.
In poche parole, gli agenti in ambienti che cercano di risolvere un compito troveranno spesso modi non intuitivi per massimizzare una ricompensa.
Analizzare la funzione di ricompensa e modificare i parametri di un esperimento NON equivale a disabilitare o spegnere l’IA. In tal caso, tutti i ricercatori di intelligenza artificiale hanno spento l’IA ogni volta che si verificato un bug.
Riferimenti ufospain.com
#hackthematrix