Da 25 big della ricerca un appello contro i rischi delle IA

Le Intelligenze Artificiali crescono molto rapidamente e governare questo sviluppo è indispensabile urgente per evitare che diventino ingestibili e pericolose; per questo governi e aziende leader devono investire molto di più per trovare contromisure efficaci ai pericoli che spaziano dall'instabilità sociale alla manipolazione di massa, fino a guerre combattute con macchine autonome. A lanciare l' appello sulla rivista Science sono 25 tra i maggiori esperti di IA a livello mondiale provenienti da Stati Uniti, Cina, Europa e Regno Unito, guidati da Yoshua Bengio, dell'Università canadese di Montreal. Lo fanno in una lettera pubblicata sulla rivista Science alla vigilia del summit internazionale sulla sicurezza dell'IA in programma a Seoul il 21 e 22 maggio.

Quello che secondo i 25 firmatari dell'appello è ormai urgente è "una rigorosa regolamentazione da parte dei governi, non codici volontari di condotta scritta dall'industria". Per l'informatico Stuart Russell, dell'Università della California a Berkeley e tra i firmatari della lettera, "è ora di prendere sul serio i sistemi di intelligenza artificiale avanzati: non sono giocattoli. Aumentare le loro capacità prima di capire come renderli sicuri è assolutamente sconsiderato".

La ricerca nell'ambito della IA sta progredendo in modo molto spedito, tanto che nel volgere di pochissimi anni potrebbero aprirsi scenari preoccupanti relativi ad ambiti delicati come la stabilità sociale, la sorveglianza pervasiva, la manipolazione di massa, i crimini informatici su vasta scala, fino a facilitare sistemi di guerra automatizzati. Secondo i firmatari dell'articolo è dunque imperativo che responsabili politici e grandi aziende passino dalle parole ai fatti. aumentando concretamente gli investimenti in sicurezza, che sono oggi quasi inesistenti e imponendo regolamentazioni serie.

Il primo punto enunciato nel documento è l'istituzione di un'efficace organizzazione di esperti in grado di prendere azioni rapide nei confronti delle IA. A titolo di confronto, sottolineano, l'Istituto per la Sicurezza delle IA degli Stati Uniti dispone di un budget annuale di 10 milioni di dollari, mentre l'Agenzia del farmaco Fda dispone di 6,7 miliardi. Andrebbero poi imposte delle politiche per la valutazione del rischio molto più rigorose e con ricadute concrete e, contrariamente a quanto accade oggi, non bisognerebbe fare affidamento su valutazioni volontarie di modelli di IA.

Gli esperti chiedono inoltre alle grandi aziende di IA di dare priorità alla sicurezza, dimostrando che i loro sistemi non possono causare danni e ritengono urgente mettere in atto politiche che si attivino automaticamente quando l'intelligenza artificiale raggiunge determinati traguardi di capacità. Meccanismi dunque capaci stringersi o allentarsi in funzione delle reali capacità raggiunte dagli algoritmi. "Le aziende - ha concluso Russell - si lamenteranno del fatto che è troppo difficile soddisfare le normative, che 'la regolamentazione soffoca l'innovazione'. È ridicolo. Ci sono più normative sulle paninerie che sulle società di IA".

© RIPRODUZIONE RISERVATA