93FE310D-CB37-4670-9E7A-E60EDBE81DAD Created with sketchtool.
< Home

Leila Belhadj Mohamed. Perché ci serve una tutela internazionale dei nostri diritti digitali

Articolo. In un mondo in cui la vita delle persone si svolge anche nel digital, si aprono spazi di riflessione sui diritti e le tutele che ognuno deve avere anche online. Dall’uso dei dati personali alla privacy, alla regolamentazione delle applicazioni dell’intelligenza artificiale per un uso etico e non discriminatorio. Temi chiave dell’impegno dell’attivista digitale ospite a «Imagine Bergamo» domani alle 18 al Polaresco insieme a Espérance Hakuzwimana Ripanti, con cui dialogherà sul tema «Pace oltre le frontiere»

Lettura 5 min.

Le applicazioni dell’intelligenza artificiale non sono tutte uguali. Grazie ad essa si può scrivere un testo in pochi secondi utilizzando ChatGPT , creare immagini in un click come in Midjourney, oppure avere un’assistente domestica come Alexa o Siri che “apprendono” le nostre preferenze, dando così risposte predittive e a volte anche ironiche.

Accanto a queste, anche applicazioni molto più sofisticate, che l’Unione Europea ha classificato come ad alto rischio, perché in grado di incidere sui diritti fondamentali delle persone: si va dai software per il riconoscimento facciale, a quelli per gestione della giustizia come gli algoritmi utilizzati dalla polizia americana per la schedatura delle persone, per arrivare alla selezione del personale, ai sistemi di valutazione degli studenti.

«Ci sono ancora enormi lacune per quanto riguarda l’utilizzo di queste tecnologie, lacune che possono essere veramente discriminatorie, ad esempio quelle utilizzate alle frontiere, vietate sui cittadini europei, ma utilizzate per il controllo dei migranti o altre utilizzate contro minoranze perseguitate in diversi paesi». A parlare è Leila Belhadj Mohamed, editor esperta dell’area SWANA (sud est asiatico e nord Africa), diritti umani e geopolitica dei dati, membro dell’associazione no-profit Privacy Network , esperta di diritti umani, diritti digitali e geopolitica dei dati, che domenica 17 settembre alle 18 sarà allo Spazio Polaresco, ospite della rassegna «Imagine Bergamo 2023» insieme alla scrittrice Espérance Hakuzwimana Ripanti, per «Pace oltre le frontiere», un incontro promosso dalla rivista Babel.

L’intelligenza artificiale. Una tecnologia specchio della società che la crea

«Le intelligenze artificiali non sono così neutrali come ci aspetteremmo: rispecchiano infatti ciò che accade nella realtà reale e lo portano nel virtuale – spiega l’attivista – Quindi se noi viviamo in un contesto che non è neutrale (perché sappiamo benissimo che ci sono delle categorie di persone più privilegiate rispetto ad altre) non possiamo stupirci del fatto che, quando creiamo una nuova intelligenza artificiale, questa sarà sviluppata a partire dalla nostra visione delle cose, anche in modo inconsapevole; inoltre l’insieme di tutti quei dati che vengono utilizzati per allenarla contribuiranno a darle una specifica forma, che potrebbe anche non essere equa e rispettosa».

Da qui derivano i bias, ossia distorsioni che possono generare risultati non accurati, errati e perfino discriminatori, come nel caso degli Stati Uniti , in cui un algoritmo usato per valutare il possibile accesso ad ulteriori cure discriminava i pazienti neri rispetto ai bianchi, nonostante il colore della pelle non fosse un parametro: erano i dati di spesa sanitaria del primo gruppo ad essere inferiori a quelli del secondo in termini di costi sostenuti – e quindi di capacità di spesa – a fare la differenza. «La realtà riflette quello che siamo noi. Nel momento in cui la stragrande maggioranza delle intelligenze artificiali sono costruite con basi di dati che non considerano la diversità della popolazione o da realtà in cui a svilupparle sono solo persone di un certo tipo – ad esempio solo uomini bianchi – l’intelligenza artificiale non potrà mai essere neutra» spiega l’attivista.

La tecnologia tra diritti digitali, marketing e controllo sociale

Per prevenire situazioni di questo tipo, il 14 giugno scorso l’Unione Europea ha approvato la prima bozza dell’ Artificial Intelligence Act , «una normativa che regola gli utilizzi dell’intelligenza artificiale per conciliarli con il rispetto dei diritti fondamentali delle persone, privacy inclusa. Ad oggi le negoziazioni su questo documento sono ancora in corso, ma il dibattito sulla questione etica legata all’AI è aperto ed è fondamentale mettere dei paletti per regolamentarne l’uso. Il sistema così com’è non sta funzionando alla perfezione, ci sono persone più tutelate di altre e se non c’è una trasparenza da parte degli stati su una gestione etica di queste tecnologie, il rischio che possano essere utilizzate violando i nostri diritti c’è».

La soluzione però, secondo Leila Belhadj Mohamed, non è negare la tecnologia o spaventarsi: «anzi, se utilizzata nel modo corretto, l’intelligenza artificiale può essere molto utile, pensiamo alle tante sue applicazioni, una su tutte la ricerca medica su determinate malattie». Il problema è quando questa viene utilizzata con fini che ledono i diritti delle persone, «penso agli Stati Uniti, dove l’intelligenza artificiale utilizzata dalla polizia di Los Angeles ha commesso errori di riconoscimento e per questo sono state fermate persone innocenti – continua l’attivista – oppure in Belgio, dove un algoritmo usato a fini di welfare era pregiudizievole per persone con doppia cittadinanza e riteneva quindi che avessero per forza dei beni non dichiarati all’estero, cosa che le escludeva in automatico dall’essere beneficiari di alcuni servizi statali. O ancora casi in cui l’uso è stato deliberatamente discriminatorio come quello egiziano, dove la polizia ha tracciato le persone omosessuali utilizzando i dati di una app per incontri gay».

In questo contesto, in Europa il GDPR , ossia la normativa sulla privacy e la protezione dei dati, in parte tutela i cittadini, «cosa che in altre parti del mondo non accade». Nonostante questo, secondo Leila Belhadj Mohamed, in molti casi anche dove la normativa tutelerebbe sono le persone stesse a dare il consenso, senza neanche rendersene conto: «spesso non pensiamo alle autorizzazioni al trattamento dei dati che diamo ad esempio sui social, dove carichiamo foto, informazioni sensibili e molto altro. Sarebbe importante ragionarci e prestare attenzione, dato che vale sempre la regola che quando qualcosa è gratis il prodotto sei tu: nel senso che in cambio dell’uso gratuito di certi servizi le tue scelte di consumo, le tue abitudini, le tue preferenze, i tuoi like vengono utilizzati per profilazioni a fini di marketing».

Una regolamentazione dell’AI per tutelare i diritti digitali delle persone

La parola chiave è consapevolezza del contesto, dalla lettura di termini e condizioni, ai consensi che accordiamo, spuntando meno frettolosamente delle caselline, all’informarsi meglio sulle tecnologie e le app che utilizziamo. In questo senso l’attivista cita per esempio la celebre FaceApp, «un’applicazione di un’azienda russa diffusasi tempo fa che permetteva di giocare a modificare la propria immagine per vedere come si sarebbe stati da vecchi. Ecco. Tutte quelle foto e quei dati come sarebbero stati trattati e utilizzati? O ancora: io preferisco non usare lo sblocco con impronta digitale del telefono, perché non abbiamo la certezza ancora di come siano regolamentate le aziende produttrici che non hanno sede in Europa in merito all’uso di quei dati identificativi. Senza diventare paranoici, è importante non essere ingenui».

Informarsi e formarsi quindi fa la differenza e Leila Belhadj Mohamed come membro di Privacy Network si occupa proprio di questo: sensibilizza le persone e collabora con istituzioni di vario livello e lavorando su un tema più ampio di quello dell’intelligenza artificiale, ossia quello dei diritti digitali, insieme a esperti legali, valutando in diversi contesti come vengono gestiti i dati e la privacy. «Io mi occupo principalmente di riconoscimento facciale e di come questo tipo di tecnologia possa essere estremamente invasiva e lesiva dei diritti delle persone e della loro privacy – spiega l’attivista – È importante essere consapevoli di queste dinamiche e sapere che esistono, per poterci difendere e tutelare, anche se a monte la soluzione sarebbe regolamentare lo sviluppo di queste tecnologie in senso etico all’interno delle aziende che le producono o le utilizzano».

A questo proposito cita il caso Amazon , per cui tutti i curricula di donne in fase di recruiting erano stati cestinati. La base di dati a cui aveva attinto l’algoritmo era fatta da uno storico di cv di persone che si erano occupate di quella mansione, magazziniere, ricoperta principalmente da uomini, cosa che aveva fatto sì che le donne non fossero considerate. «Qui l’errore della tecnologia ci dice due cose: uno che il dato senza contesto può produrre risposte inadeguate e discriminatorie, due che l’algoritmo riflette la società, in cui c’è ancora l’idea che alcuni mestieri vengano fatti solo da certi tipi di persone – spiega Mohamed – Poi a questo, in altri casi, si può aggiungere il dolo e quindi la specifica volontà di non assumere determinate categorie. Essere consapevoli di questi pregiudizi digitali significa essere consapevoli anche di come questi siano risultato dei nostri pregiudizi nel mondo reale e regolamentando tecnologie come l’intelligenza artificiale per un loro uso che tuteli anche i diritti delle persone».

Approfondimenti