Intelligenza artificiale, i paletti dell’Europa

IL COMMENTO. L’Intelligenza artificiale può sostituirsi all’uomo? Certo che sì, in molte cose e per molti versi ci faciliterà la vita. Ma, ci avverte Giuliano Amato, ex premier ed ex presidente della Consulta messo a capo della commissione sull’Intelligenza artificiale per l’editoria, c’è un limite a questa sostituibilità, ed è quella che separa l’uomo dalla macchina.

Un algoritmo non può decidere se un imputato è colpevole o innocente. Non può nemmeno guardare negli occhi una persona e avere l’ultima parola su un’offerta di lavoro. Il cielo stellato sopra di me, la legge morale dentro di me, per citare la famosa definizione di Kant nella Critica della ragion pratica. La macchina non potrà mai violare confini ontologici. In sintesi, non può diventare un uomo, come il computer Al di 2001 Odissea nello spazio. Abbiamo citato Amato perché è stato ingiustamente accusato di essere troppo vetusto per capirci di computer e di algoritmi. Ma qui non si tratta di questioni di software o di modernità digitale: sono i giuristi, i filosofi e gli umanisti che devono presiedere ai limiti di una macchina complessa come l’Intelligenza artificiale e farci da guida: gli ingegneri e i programmatori - con la loro abilità tecnologica ma anche con la loro «cecità» umanistica - si fermano un passo prima che si abbandoni l’artificiale e si entri nelle questioni di coscienza, nel cosiddetto «fattore umano».

Vi sono pericoli enormi nell’uso delle varie «chatbot», come vengono chiamati questi mirabolanti programmi ormai in uso in tutto il mondo: possono minacciare la protezione dei dati e il diritto alla vita privata, sono capaci di interferire nel riconoscimento facciale o nella diffusione di notizie false. L’Intelligenza artificiale è già stata accusata di creare delle «bolle» di comunicazione in rete, sommergendo la gente di dati veri o falsi, creando distorsioni nell’orientare il ragionamento delle persone. Può essere usata per truffare, rovinare la reputazione e mettere in dubbio la fiducia nei processi decisionali. Rischia di condurre alla polarizzazione del dibattito pubblico e alla contraffazione delle elezioni, di fronte al quale il lavoro manipolatorio sui social fatto dallo staff digitale di Donald Trump nel 2017 e successivamente da altri esponenti politici è nulla e appare primitivo in confronto. L’Intelligenza artificiale - in un regime autocratico o dittatoriale, e magari in una democrazia «malata» - potrebbe anche minacciare la libertà di riunione e di protesta, perché potrebbe permettere di rintracciare e «profilare» individui legati a determinati gruppi o opinioni.

Ecco perché è importante l’accordo raggiunto dalla Commissione europea, dal Consiglio dell’Ue e dal Parlamento di Strasburgo sul testo dell’Ai Act, la legge sull’Intelligenza artificiale. Si tratta del primo quadro normativo sui sistemi di questo tipo nel mondo. L’accordo intende garantire che i sistemi di Intelligenza artificiale immessi sul mercato europeo e utilizzati nell’Ue siano sicuri e rispettino i diritti fondamentali e i valori dell’Europa, oltre a stimolare gli investimenti e l’innovazione nell’Ia in tutto il continente. L’idea fondamentale alla base del testo concordato è quella di regolamentarli in base alla capacità di quest’ultima di causare danni alla società seguendo un approccio «basato sul rischio»: dal rischio minimo a quello inaccettabile. Maggiore è il rischio, più severe sono le regole.

Quanto alle pratiche vietate, la lista dei divieti include i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili, come le convinzioni politiche, religiose e la razza; la raccolta non mirata di immagini del volto da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; il cosiddetto «social scoring», già adottato in Cina, che consente di dare un punteggio sociale a ogni cittadino orientandolo e imponendogli premi o disincentivi: insomma l’Intelligenza artificiale creata per sfruttare la vulnerabilità delle persone, manipolandole in senso totalitario. Qualcosa che non avrebbe immaginato nemmeno Philip K. Dick nei suoi romanzi di fantascienza.

L’accordo andrà in vigore nel 2025, perché necessita di un anno per essere messo a punto. Ma siamo sicuri che non si stia facendo una battaglia contro i mulini a vento? L’Intelligenza artificiale è già tra noi. Le varie «chatbot» oggi abbondano sul mercato e già vengono usate da una moltitudine di persone, per non parlare delle imprese, delle multinazionali, dei governi, persino dalle organizzazioni criminali. L’impressione è che questa nuova dimensione basata sugli algoritmi, pur non potendo mai coprire del tutto le prerogative dell’uomo, sia però di gran lunga più veloce nella sua pervasività e se ne freghi delle necessarie lungaggini burocratiche del diritto comunitario. La sfida tra uomo e macchina insomma è ancora lunga, più che mai aperta.

© RIPRODUZIONE RISERVATA