Da Google DeepMind l'IA che impara imitando VIDEO

Impara imitando, lo fa in tempo reale e in modo sociale, ossia concentrandosi non solo sull'azione da svolgere ma sugli esperti da cui apprendere, che si tratti di esseri umani o di macchine: è una prima assoluta, il sistema di intelligenza artificiale che impara come fanno i bambini. E' il risultato dell'esperimento realizzato a Londra dall'azienda Google DeepMind e pubblicato sulla rivista Nature Communications. Secondo gli autori della ricerca, guidati da Edward Hughes, il risultato è un nuovo passo decisivo in quella che chiamano "l'evoluzione culturale dell'interazione fra gli esseri umani e le macchine". E' qualcosa di diverso dai sistema abili a giocare a scacchi, a Go o a poker. Questa volta si tratta di un sistema di IA "in grado di socializzare con altri agenti", commenta all'ANSA Antonio Frisoli, docente di Robotica alla Scuola Superiore Sant'Anna di Pisa. Finora l'apprendimento delle macchine ha richiesto molto tempo e numerose prove, con costi elevati. I ricercatori della GoogleDeepMind hanno pensato così di seguire un approccio diverso e hanno scelto come modello l'apprendimento tipico degli esseri umani, che fin da bambini imparano nuove abilità in breve tempo grazie all'imitazione. Il nuovo sistema di IA è stato addestrato a navigare in uno spazio virtuale, che i ricercatori hanno chiamato GoalCycle3D. "In questo compito - osserva Frisoli - il sistema di IA non era solo, ma erano presenti altri individui, umani e non", fra i quali ha imparato a individuare degli esperti e a seguirli, imitandone ogni passo. "L'esperimento - aggiunge - dimostra che anche un compito semplice come l'imitazione prevede un'interazione sociale con altri agenti". Al termine dell'addestramento il sistema aveva imparato in modo efficiente sia dagli esseri umani sia da altri sistemi di IA. "Questo significa - spiega Frisoli - che sono stati soddisfatti tre fattori chiave. In primo luogo la capacità del sistema di memorizzare informazioni utili, poi la presenza di più esperti e infine la capacità di concentrarsi non solo sul compito da imparare, ma sulla presenza di altri agenti". In futuro si potrebbero quindi immaginare robot sociali, capaci di interagire con l'uomo in modo più immediato, oppure entità virtuali che interagiscono con altre entità virtuali. Inoltre, "ricerche come questa permettono di gettare luce sui meccanismi di apprendimento: con un modello artificiale si riescono studiare i processi di apprendimento di qualsiasi essere dotato di un'autonomia di comportamento, compresi gli esseri umani". Sempre in prospettiva, un altro elemento importante dell'esperimento è la quantità decisamente inferiore di dati che la macchina ha bisogno di conoscere per interagire. In altre parole, osservano gli autori della ricerca, questo sistema garantisce una maggiore privacy. Vale a dire, spiega Frisoli, che "per apprendere dal comportamento di altri, questo agente non ha la necessità di accedere a una grande quantità di dati e, riducendo il numero di informazioni di cui ha bisogno, riduce anche il rischio di violare la privacy". E' un vantaggio per gli utenti, ma soprattutto "un vantaggio economico per chi produce questi algoritmi, che attualmente - conclude Frisoli - hanno bisogno di una grande quantità di dati per funzionare, il che ha un costo".

© RIPRODUZIONE RISERVATA