93FE310D-CB37-4670-9E7A-E60EDBE81DAD Created with sketchtool.
< Home

L’Intelligenza Artificiale è illegale? Sì, finché non capiremo che le leggi per gestirla esistono già. Basta applicarle

Intervista. Lo scorso 9 dicembre, i 27 Stati membri dell’Unione Europea hanno raggiunto un accordo rispetto alla creazione dell’AI Act, il regolamento Ue che, dopo due anni di discussione, dovrebbe definire cosa può o non può fare l’intelligenza artificiale. Il che fa sorgere un dubbio: ma fino ad adesso l’AI era illegale?

Lettura 6 min.

Appelli per rallentare la ricerca sull’AI, paventati rischi di estinzione e corse per trovare regolamenti per contenere una potenza che sembra incontenibile. La narrazione sull’Intelligenza Artificiale e sulle tecnologie che la integrano sta assumendo, sempre più, un carattere che oscilla fra l’epico e il catastrofico. Da una parte il paradiso tecnologico che ci renderà tutti liberi, in un mondo ripulito dalle storture e gestito dalle macchine mentre noi ci godiamo la vita, dall’altro il grande occhio dell’AI che tutto governa e cancellerà anche l’ultima traccia di umanità sulla Terra. Nel mezzo, la visione di uomini e donne talmente concentrati sullo schermo del proprio smartphone da esserne lobotomizzati come in «Wall-E».

Insomma, sull’Intelligenza Artificiale e sul suo utilizzo – fortunatamente – il dibattito è vivo e continuo, anche se resta poco obiettivo e fortemente guidato dai proclami delle Big-Tech (le stesse per cui lavora anche chi firma gli appelli sull’estinzione, come ricordava il giornalista Emanuele Capone su Repubblica).

L’ultima notizia in termini di tempo, poi, riguarda l’accordo raggiunto dai 27 Stati membri dell’Unione Europea rispetto alla creazione dell’AI Act, il regolamento Ue che, dopo due anni di discussione dovrebbe definire cosa può o non può fare l’intelligenza artificiale. Il che fa sorgere un dubbio: fino ad ora l’AI era illegale?

Leggendo il comunicato stampa relativo all’accordo (ancora il regolamento definitivo ha da venire), la lista delle proibizioni fa rabbrividire. Ne fa una buona sintesi la giornalista Carola Frediani nella newsletter di «Guerra di Rete»: «Proibite le seguenti applicazioni di AI: sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad esempio convinzioni politiche, religiose, filosofiche, orientamento sessuale, razza); lo scraping non mirato di immagini di visi da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (alla Clearview per intenderci); il riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni scolastiche (ma alcune eccezioni in nome della sicurezza, ad esempio per rilevare se un guidatore si sta addormentando); la classificazione sociale basata sul comportamento sociale o sulle caratteristiche personali (si tratta del cosiddetto social scoring); i sistemi di AI che manipolano il comportamento umano per eludere la libera volontà delle persone; l’AI utilizzata per sfruttare le vulnerabilità delle persone (a causa della loro età, disabilità, situazione sociale ecc). Malgrado non sia nella lista del comunicato, anche il predictive policing (polizia predittiva) sarebbe stato proibito, quanto meno nella forma in cui si valuta il rischio che un certo individuo possa commettere reati futuri sulla base di tratti personali».

Ben vengano le regole, quindi, ma è davvero plausibile che non si potesse giungere prima a capire che l’impatto dell’AI nella vita delle persone andasse normato? In una recente intervista, la professoressa Daniela Tafani, insegnante di Etica e Politica dell’Intelligenza Artificiale all’Università di Pisa spiegava senza mezzi termini come buona parte dei prodotti che utilizzano l’AI sia di fatto illegale secondo le norme vigenti, anche se a noi viene fatto credere il contrario, ovvero che la tecnologia sia così rivoluzionaria che le leggi esistenti non siano sufficienti e servano regole ad hoc.

L’esempio portato dalla professoressa Tafani era tanto semplice quanto calzante: nessuno ha dubbi in merito all’inviolabilità della posta personale e nessuno mette in discussione che leggere la posta di un altro sia un reato, eppure è ciò che le grandi società fanno comunemente con la nostra posta elettronica, a fini commerciali e di profilazione.

AS: Professoressa, quindi le norme per regolamentare l’intelligenza artificiale e le tecnologie che ne fanno uso esistono già?

DT: La tesi che le leggi vigenti non si applichino ai prodotti basati su sistemi di «intelligenza artificiale», in virtù della loro novità e straordinarietà, e che servano dunque nuove leggi, scritte ad hoc per ciascuna tecnologia, serve alle grandi aziende a dar luogo a una corsa che vedrà il legislatore perennemente in affanno, nel rincorrere le più recenti novità tecnologiche, le quali saranno dunque commercializzabili eslege. In assenza di precedenti, pur in presenza di una risposta del diritto, è possibile che vi siano dubbi sul significato di quella risposta (ossia una «vaghezza giuridica») o che la risposta non sia ritenuta soddisfacente e che sia opportuno, perciò, adottare regolamenti specifici. È essenziale, però, tener presente che le leggi vigenti si applicano anche ai sistemi di “intelligenza artificiale”, perché questi sono artefatti, prodotti del lavoro umano. L’esempio della posta è pertinente: nessuno è autorizzato ad aprire le mie lettere e a cercarvi informazioni che qualche inserzionista pubblicitario sia disposto a comprare. Ma le grandi aziende tecnologiche a cui, incautamente, le persone affidano la loro posta elettronica, fanno esattamente questo. Ci sono aziende che vantano la loro capacità di registrare l’audio delle nostre conversazioni, attraverso gli smartphone o i televisori e offrono, a pagamento, informazioni su cosa abbiamo detto.

AS: Rispetto all’AI Act e alla sua lenta gestazione, possiamo realmente permetterci lungaggini burocratiche quando si tratta di AI o, al contrario, è necessario prendersi del tempo e riflettere?

DT: I sistemi che violano infallibilmente diritti e che non funzionano, quali la polizia predittiva o il riconoscimento delle emozioni, avrebbero dovuto essere proibiti tout court. Lo si sarebbe potuto fare in tempi brevissimi. L’attività di lobbying delle Big Tech, a Bruxelles, ha fatto sì che l’impostazione dell’AI Act sia l’approccio basato sui rischi, anziché, come dovrebbe essere in qualsiasi Stato di diritto, una preliminare valutazione di compatibilità con il rispetto dei diritti fondamentali.

AS: Restando sulla questione del tempo, in questi anni il rilascio e l’utilizzo delle tecnologie è stato governato dalle veloci logiche del mercato. Quanto questo meccanismo ha pesato in termini di possibilità normativa sull’AI? Se la risposta normativa fosse stata più veloce e puntuale, adesso vivremmo una situazione differente?

DT: La normativa c’era già, sarebbe bastato farla rispettare. Ci sono persone, in questi giorni, che vedono, tra le immagini prodotte dai generatori di immagini, foto di sé stesse all’ospedale, intubate. Ovviamente, avevano dato il consenso al trattamento dei loro dati per essere curate, non certo per finire nei dati di partenza e quindi anche negli output dei generatori di immagini. Su questo aspetto, alcuni recenti provvedimenti della Federal Trade Commission statunitense mostrano una radicalità nuova: in alcuni casi di dati ottenuti impropriamente, essa ha ottenuto infatti non la mera cancellazione di tali dati, ma la distruzione di tutti i modelli e gli algoritmi costruiti utilizzando tali dati.

AS: Quando il controllore è stato puntuale, ha giocato un ruolo fondamentale la reputazione dell’intelligenza artificiale. Mi riferisco alla vicenda fra Open AI e il suo prodotto di punta Chat GPT e il garante della privacy italiano che ne ha inizialmente bloccato l’utilizzo nel nostro paese. Pur essendo verifiche lecite è parso ai più che si trattasse di una dimostrazione di bigottismo verso le nuove tecnologie. La fiducia che riponiamo in questi prodotti sta permettendo che agiscano al di sopra dalle regole?

DT: Sono le narrazioni (idee trasmesse nella forma di storie) diffuse dalle grandi compagnie tecnologiche a dar forma alla percezione pubblica del rapporto tra etica, politica, diritto e tecnologia. Tra queste, ci sono il principio dell’inevitabilità della tecnologia e il principio di innovazione, ossia l’assunto che qualsiasi innovazione tecnologica sia foriera di competitività e occupazione e debba perciò essere assecondata. In realtà, i grandi monopoli ostacolano qualsiasi innovazione, per quanto dirompente e benefica, che non si adatti al loro modello di business: promuovono un’innovazione tossica che estrae o distrugge valore, anziché produrlo. I nostri diritti non sono in contrasto con il principio di innovazione. Il contrasto è tra i nostri diritti e i modelli di business fondati sulla sorveglianza.

AS: Leggendo l’AI Act e cosa bloccherà c’è da rabbrividire. Le intelligenze artificiali hanno già tutto questo controllo sulle nostre vite?

DT: Meredith Whittaker, la Presidente di Signal, ha detto che l’intelligenza artificiale è un derivato della sorveglianza. Ha ragione. Come ha scritto Cory Doctorow, oggi i miei diritti valgono solo se chi li viola non usa un’app.

AS: Esiste un problema di mantenimento della dignità e del proprio status di persona fisica che dovremo imparare a tutelare e ancor prima a riconoscere?

DT: I generatori di testo o di immagini consentono oggi truffe e manipolazioni su larghissima scala. D’altra parte, sistemi quali ChatGPT, che generano testi plausibili e convincenti, ma senza riferimento al vero o al falso, sono utili quasi solo per questo genere di attività. E, poiché questi effetti erano stati ampiamente previsti, i produttori dovrebbero esserne ritenuti responsabili. Daniel Dennet ha osservato che esistono pene severe per chi mette in circolazione denaro falso e che un’analoga severità servirebbe verso chi, mettendo ancor più rischio le fondamenta delle società democratiche, crei e metta in circolazione “persone contraffatte”. Quanto alla nostra dignità di persone, ossia al nostro status di soggetti giuridici, questo dovrebbe bastare a far dichiarare illegali tutti i sistemi di ottimizzazione predittiva, con i quali si finge di poter prevedere, da una foto, da un video o da un insieme di dati, se una singola persona sarà un bravo lavoratore oppure se commetterà o no un crimine. Non siamo cose, di cui si possa prevedere infallibilmente il futuro. Siamo persone. Io so che il litro di latte che ho nel frigo sarà andato a male, tra una settimana, ma non posso sapere se Lei commetterà un crimine, nei prossimi sette giorni. Come ricorda Maria Chiara Pievatolo, il fatto che gli studenti provenienti da specifici paesi stranieri abbiano avuto bisogno, in passato, di ripetere l’esame più volte, non ci autorizza a chiedere a uno studente da dove venga e a bocciarlo due o tre volte, se è straniero. Affidarsi a sistemi automatici, invece, dà luogo esattamente a questo genere di esiti.