Intelligenza artificiale, la corsa va gestita

ATTUALITÀ. L’Intelligenza artificiale ieri è andata in scena a Davos, nell’interpretazione di Sam Altman. L’informatico 38enne, tra i pionieri di questa tecnologia digitale, licenziato e poi ripreso dal consorzio Open Ai, una delle cento persone più influenti al mondo secondo la rivista «Time», ha ben illustrato la posta in gioco in questo consesso economico di potenti della Terra.

Una posta altissima, naturalmente. Quello cui stiamo assistendo, promette il manager, è solo l’inizio. Altman ha mostrato una certa pacatezza nel rispondere ai giornalisti, per esempio riguardo alla causa mossa al consorzio dal «New York Times» sull’uso disinvolto della proprietà intellettuale degli articoli. «Siamo pronti a pagare per le informazioni. Siamo pronti a pagare per usare i testi che allenano i nostri modelli algoritmici», ha promesso. Ci sono già pre accordi tra il consorzio e le case editrici, come è giusto che sia. Qualcosa, finalmente si muove, nel Far west digitale, dove i giganti dell’informatica hanno arato e vendemmiato gratis nell’oceano dell’editoria e del giornalismo, senza pagare un centesimo di diritti d’autore o di tasse, per decenni.

Ma il problema dell’Ia è ben più ampio e complesso e riguarda la sicurezza di un sistema di software e algoritmi messo in piedi da privati, e dunque da gente che per sua natura non ha primarie preoccupazioni sull’impatto pubblico essendo interessato per prima cosa al business. Un sistema dunque che potrebbe sfuggirci di mano. Come? In molti modi: manipolando i cittadini che vanno al voto con una marea di false notizie o di notizie «drogate» e dunque inquinando la democrazia, portando al potere personaggi autocratici o potenziali dittatori. Oppure rendendo autonomi congegni militari (ad esempio uno sciame di droni) che nella «cyberwar» potrebbero fare di testa loro nel mirare a determinati obiettivi, senza badare troppo ai civili che stanno intorno. L’onda delle macchine pensanti rischia di travolgere il vecchio mondo, cambiando il 75% dei lavori, soprattutto quelli pesanti. Un’ecatombe sociale. Insomma: sul piano etico bisogna lavorare, per evitare quella che qualcuno a Davos ha chiamato una «Hiroshima tecnologica», soprattutto a livello internazionale, possibilmente con tempi meno farraginosi delle Nazioni Unite, che lavorano a ritmi che sembrano di un’altra epoca vista la velocità delle nuove scoperte digitali.

Per questo serve un «summit della sicurezza» mondiale. Lo si è ripetuto anche ieri a Davos. L’Intelligenza artificiale è «generativa», significa che produce autonomamente dei contenuti e delle decisioni. Chi la controlla? Finirà come il computer Al di 2001 «Odissea nello spazio»? «C’è una parte delle preoccupazioni che è corretta: questa tecnologia è molto, molto potente e non sappiamo cosa può succedere», ha spiegato sempre ieri Altman, uno che sa di quel che parla. «Può andare in modo molto sbagliato. Ma possiamo prendere precauzioni per renderla sicura. Possiamo mettere i limiti nelle mani delle persone giuste e renderle sicure». Evviva. È toccato ad Albert Bourla, ceo e presidente del colosso sanitario Pfizer, elogiare la zona «solare» di questa nuova tecnologia digitale, che permette enormi passi avanti nella diagnosi e nella ricerca medica. Dal punto di vista scientifico si può parlare addirittura di «nuovo Rinascimento». Gli algoritmi permettono di accorciare di molto i tempi della ricerca, come ad esempio nel caso dei vaccini, e dunque di salvare molte vite. Creano nuove molecole ad uso farmaceutico nello spazio di un nanosecondo.

Come tutti i progressi tecnologici l’Intelligenza artificiale dunque è un’arma a doppio taglio. Sta a noi prenderla dalla parte del manico e regolarla con quelli che il teologo padre Paolo Benanti, grande esperto di Ia, consulente dell’Onu e presidente della Commissione algoritmi del governo, chiama «guardrail etici». L’importante è che il consorzio umano si muova rapidamente, prima che siano gli algoritmi a prendere il predominio.

© RIPRODUZIONE RISERVATA