93FE310D-CB37-4670-9E7A-E60EDBE81DAD Created with sketchtool.
< Home

I robot non domineranno l’umanità ma daranno maggior potere alle persone (secondo uno degli inventori del deep learning )

Intervista. Yann LeCun, nato nel 1960 in un sobborgo di Parigi, oggi vive negli Stati Uniti ed è uno dei maggiori studiosi al mondo che si occupano, in maniera sia teorica sia applicativa, di Intelligenza artificiale. Stasera (ore 21) a Bergamoscienza. Lo abbiamo intervistato

Lettura 5 min.
Intelligenza Artificiale

Noto per i suoi contributi nei campi della robotica e dello sviluppo di reti neurali convoluzionali (Cnn), nel 2012 ha fondato, presso la New York University, il Centro della Scienza dei Dati. Nel 2013 è diventato il primo direttore del Settore ricerca sull’Intelligenza artificiale di Facebook. Nel marzo 2019 ha ricevuto il premio Turing. È considerato uno degli inventori del deep learning, l’apprendimento profondo automatico, e della visione artificiale, i due modi in cui le macchine digitali stanno imparando non solo a leggere e scrivere e disegnare, ma anche a imparare: un passo decisivo per trasformarle da soggetti passivi, che “eseguono programmi” a intelligenze molto più attive, in grado di dialogare con l’uomo.

Stasera (venerdì 15 ottobre) alle ore 21 al Centro Congressi Giovanni XXIII, in collegamento streaming con Bergamoscienza, LeCun parlerà di “Nuove forme di intelligenza”, provando a rispondere ad alcune delle domande più difficili della nostra epoca: l’Intelligenza artificiale viaggia sempre ai confini tra realtà e fantascienza, e tanto ci affascina quanto ci allarma.

CD: Quali sono i problemi principali che ha dovuto affrontare e come li ha risolti?

YL: Quello principale è come insegnare a una macchina a imparare. Prima di tutto non le programmiamo, usiamo un programma, certo, ma il suo ruolo è semplicemente di fare in modo che la macchina apprenda. Per esempio, vuoi che traduca un testo francese in italiano: devi raccogliere moltissime frasi, insegni alla macchina a mapparle; poi le mostri una frase francese e le chiedi di tradurre: se non ti dà la risposta giusta, gliela dai tu e la macchina corregge sé stessa, e così man mano la sua abilità migliora. Una cosa simile accade anche per il riconoscimento delle immagini: fai vedere ad esempio tavoli, sedie, automobili, la macchina produce una risposta, e se non è quella che volevi le indichi quella giusta, e così la spingi a correggersi. Questo richiedeva di collezionare un enorme numero di esempi, e di annotare “manualmente” i dati. Funziona tra due lingue come il francese e l’italiano, perché ci sono già moltissimi testi tradotti; funziona molto meno, o non funziona, se devi tradurre linguaggi rari in altri linguaggi rari, per i quali di dati ne abbiamo pochi. Lo stesso per il riconoscimento delle immagini: se confrontiamo oggetti comuni, di cui abbiamo molti campioni – ad esempio insetti – è più facile; se invece vogliamo che la macchina riconosca gli organi interni del corpo umano non funziona. È molto importante affinare questi processi di Ai, per esempio, nel lavoro di moderazione di contenuti all’interno di un social network, o se vuoi riconoscere un tumore in una mammografia. Anche i sistemi di guida autonoma delle auto si possono trovare davanti molte situazioni rare in cui la macchina non sa che cosa fare, resta confusa perché non ha mai visto situazioni come quella, ha pochi dati. Dunque la sfida oggi è cercare di insegnare alle macchine senza avere tanti esempi.

CD: Quando lei dice “tanti esempi”, quanti intende?

YL: Per fare un buon lavoro di riconoscimento vocale c’è bisogno di qualcosa come 10 mila ore di parlato. Per riconoscere un migliaio di oggetti diversi, almeno 1 milione di esempi; e potrebbe non bastare, se hai bisogno di una prestazione significativa possono volercene decine di milioni. Per la traduzione è ancora peggio.

CD: Il traduttore di Google sembra molto migliorato in questi ultimi due anni. State costruendo una sorta di “linguaggio mondiale” con queste macchine, comprensibile in ogni parte del mondo?

YL: La ragione per cui lei ha notato questo miglioramento nel traduttore di Google, come in quello di Facebook, è perché oggi si usa un nuovo set di tecniche che ci permette di allenare questi sistemi in modo molto più simile a uomini e animali. Proprio osservandoli ci siamo accorti che non è poi così necessario fare moltissimi esempi per insegnare. È stato un passo rivoluzionario per testi e traduzioni, e ora stiamo rivoluzionando anche il riconoscimento delle immagini, e ci saranno appunto effetti anche sulla guida autonoma, l’analisi di referti medici, la moderazione dei social network.

CD: Ci spieghi come funziona.

YL: Tu mostri alla macchina un segmento di testo, all’interno di una sequenza di qualche centinaio, o migliaio di parole. Poi ne rimuovi alcune, diciamo un 10/15% e le sostituisci con degli asterischi. E insegni a questi enormi “transformer” a predire le parole che mancano. Se il sistema gestisce miliardi di frasi come “il gatto sta cacciando un… in cucina”, può probabilmente indovinare che nello spazio vuoto ci vada la parola “topo”. E valuta anche il contesto: se la frase è “il… sta cacciando... nella savana”, può capire che probabilmente in questo caso non si tratta di un topo ma di un leone che insegue una gazzella. La macchina “si immagina” che cosa potrebbe andar bene in quel punto, e facendo ciò impara anche la sintassi, la grammatica del linguaggio. È un sistema di apprendimento profondo, a più strati. Facebook al momento può tradurre gli stessi concetti in circa 200 lingue.

CD: Avete creato un linguaggio-radice, una sorta di forma logica con cui state facendo ragionare la macchina?

YL: No, la macchina, per svolgere un certo compito, impara a riempire i vuoti, ma la sua rappresentazione interna del linguaggio non è disegnata da noi, è solo il risultato di quell’apprendimento. Non c’è una “lingua franca” nella macchina, o meglio, c’è ma è reperita nel linguaggio stesso, che il sistema rappresenta attraverso una lunga lista di numeri.

CD: Come definirebbe questo processo: un calcolo o un ragionamento?

YL: Non è un ragionamento, alla base è un calcolo, miliardi di moltiplicazioni, addizioni e paragoni. Il programma che gira è in realtà molto semplice, può stare in una pagina, anche in poche righe. Sostanzialmente dice: quando vedi questo, fai una serie di addizioni e di moltiplicazioni, per miliardi di volte. L’intelligenza del sistema, se vuole, risiede nello spingere la macchina ad aggiustare le informazioni. Il sistema sta imparando in un modo che è stato ispirato da ciò che sappiamo del cervello umano, lo chiamiamo NeuroNex perché gli elementi che vengono usati sono in qualche modo simili ai nostri neuroni.

CD: È una questione solo di quantità, l’intelligenza? Queste macchine saranno presto capaci di fare qualcosa meglio di noi?

YL: La risposta è: non c’è nessun dubbio sul fatto che questo accadrà, nel futuro, ma non sappiamo quando. Non abbiamo ancora la scienza e la tecnologia sufficienti, siamo molto lontani dal riprodurre il tipo di percorso che fa l’intelletto umano, o gli animali. Stiamo facendo dei progressi ma siamo ancora molto lontani. Non sarà una cosa di domani, ma non c’è dubbio che nel futuro avremo delle macchine che saranno essenzialmente più intelligenti degli uomini.

CD: Nasce dunque un problema di interazione fra intelligenza umana e intelligenza artificiale. Io, le confesso, preferivo parlare con le impiegate della Sip che con i robot che ci state rifilando ora.

YL: La maggior parte dei lavori sull’Intelligenza artificiale puntano a effetti pratici, esistono già strumenti utilizzati per aiutare gli uomini a fare ciò che vogliono fare. Invece di moltiplicare la potenza fisica, come hanno fatto le macchine a partire dalla fine del ’700, si può moltiplicare il potere dell’intelligenza. Ma è un processo che dà maggior potere alle persone, non le rimpiazza.

CD: Molte persone hanno dei timori.

YL: Noi tendiamo a pensare che il comportamento che osserviamo negli animali e negli uomini, lo osserveremo allo stesso modo nelle macchine intelligenti, ma questo è falso. Nella fantascienza si è immaginato a lungo che un robot o un computer volessero conquistare il mondo e dominare l’umanità. Questo non accadrà. Perché la curiosità o il desiderio di dominare sono fattori altamente legati all’evoluzione della natura umana, sono utili a noi, per la sopravvivenza: la curiosità perché abbiamo bisogno di esplorare; e abbiamo il desiderio di influenzare altri uomini, perché siamo animali sociali, abbiamo bisogno di organizzarci per sopravvivere. Gli altri animali non vogliono dominare nulla, perché non ne hanno bisogno, sopravvivono da sé stessi, noi uomini invece abbiamo bisogno di lavorare con gli altri, di influenzare gli altri, dobbiamo scambiare informazioni perché la nostra società funzioni. E da qui nasce il desiderio di una dominazione. Ma anche nella nostra specie esso non è correlato con l’intelligenza. I più intelligenti di noi di solito non vogliono dominare, perché non hanno così bisogno degli altri. Abbiamo molti esempi di questo sulla scena politica internazionale: più sono uomini intelligenti e più sono modesti...

E viceversa.

Approfondimenti