93FE310D-CB37-4670-9E7A-E60EDBE81DAD Created with sketchtool.
< Home

IA e giornalismo: la collaborazione è possibile, ma serve strategia

Intervista. Prima di sperimentare con i sistemi di IA, occorre innanzitutto chiedersi a cosa ci servono e cosa vogliamo risolvere, per poi fare una valutazione dei rischi e delle opportunità. Ne è convinto il professor Colin Porlezza, che interverrà nel convegno «Intelligenza artificiale. Cronache del futuro» in programma martedì 23 aprile alle 18 alla Casa del Giovane di Bergamo

Lettura 6 min.

Prima ci sono stati i film, capolavori della storia del cinema quali «2001. Odissea nello spazio» o «Matrix». Poi, col tempo, la passione è diventata lavoro. Colin Porlezza, professore assistente senior di giornalismo digitale presso l’Istituto di Media e Giornalismo dell’Università della Svizzera italiana e Senior Honorary Research Fellow presso il Dipartimento di giornalismo della City University of London, si occupa ormai da anni dell’impatto dell’intelligenza artificiale sul giornalismo, ma anche di etica e responsabilità dei media.

«Con un nostro progetto di ricerca, alla City University, abbiamo cercato di capire da un lato quale fosse l’impatto percepito da parte dei giornalisti di queste tecnologie, dall’altro abbiamo provato a sviluppare noi stessi un sistema che potesse aiutarli a trovare delle informazioni rilevanti in varie banche dati pubblicamente accessibili, situate in Inghilterra. Era il 2016, 2017 circa: per me è stato affascinante vedere come, a poco a poco, queste tecnologie entrassero nelle redazioni e come le persone cominciassero a reagire».

MM: Immagino non reagissero benissimo. Quando nelle redazioni si parla di intelligenza artificiale, lo si fa spesso con una certa preoccupazione.

CP: È logico, perché questi sistemi producono un testo, come i giornalisti. Sulla qualità del testo si può discutere, ma queste tecnologie entrano, per così dire, proprio nella capacità di produrre un testo. Avvertiamo quel pericolo di essere, a medio o lungo termine, rimpiazzati. Personalmente, io cerco di essere un po’ più equilibrato nella mia valutazione. Certo, ci sono dei rischi, soprattutto per quanto concerne i contenuti: la qualità, l’accuratezza, la verità, intesa come thruthfulness. Secondo me, però, ci sono anche delle opportunità. L’IA potrebbe alleggerire, sostenere, supportare il lavoro giornalistico.

MM: L’IA potrebbe stabilire anche quali sono gli articoli più interessanti per i lettori e quindi proporre un testo anziché un altro? Il rischio non è quello di cadere poi in una “bolla mediatica”?

CP: L’intelligenza artificiale viene già utilizzata nell’area della personalizzazione, ovvero l’area della distribuzione dei contenuti editoriali, anzi, è proprio uno degli ambiti più gettonati. Non è affatto sorprendente, visto che la distribuzione dei contenuti giornalistici è strettamente legata alla questione economica, alla generazione di utili e profitti: fare in modo che gli utenti ottengano i contenuti che maggiormente interessano loro, rafforzando così il loro legame con la testata, può essere un motivo forte per investire nella personalizzazione. Il rischio della bolla mediatica c’è, ma quello che abbiamo visto anche dalle nostre ricerche è che questi sistemi, se applicati in questo modo, non funzionano molto bene, perché la gente si stanca di leggere le stesse cose. La maggior parte dei sistemi sono calmierati in modo tale da offrire, ogni tanto, un contenuto che non è propriamente in linea con quello che solitamente leggi, ma stimola la tua curiosità, può aiutarti a scoprire delle nuove tematiche. Lo vediamo bene in sistemi come Spotify, che ti propone una canzone che magari non è in linea con i tuoi gusti, ma potrebbe piacerti, perché è piaciuta a un altro milione di utenti che più o meno ascoltano le stesse cose che ascolti tu. La domanda sulla personalizzazione secondo me va oltre…

MM: Cioè?

CP: La maggior parte degli utenti consuma contenuti editoriali attraverso le piattaforme social, che hanno degli algoritmi che incidono largamente sul tipo di contenuto che noi vediamo. Queste scelte non vengono effettuate sulla base di valori o criteri editoriali, ma su criteri che sono importanti per la piattaforma. Parliamo di contenuti che generano engagement, interazione, e nulla hanno a che fare con dei criteri editoriali. In quel caso, la personalizzazione dei contenuti diventa un problema. Ma nel dibattito della personalizzazione spesso si dimentica come questa possa essere utilizzata nel modo opposto: per aiutare gli utenti a scoprire nuove tematiche o per promuovere la fiducia nei media. Pensiamo al servizio pubblico, alla RAI o alla SRG SSR in Svizzera: anche loro lavorano con i sistemi di personalizzazione. Hanno però un obbligo che chiameremmo di “universalità dell’etichetta”, quindi di garantire pluralismo nell’offerta. La personalizzazione può essere effettuata solo fino a un certo punto o dovrebbe essere un’opzione che gli utenti possono scegliere di applicare.

MM: Come le testate in Italia si stanno muovendo per comprendere il potenziale e i rischi dell’IA?

CP: Rispetto ad altri paesi come l’Inghilterra o gli Stati Uniti, la sperimentazione in Italia è più timida. È un ritardo secondo me dovuto principalmente alla mancanza di figure tecniche competenti. Il settore editoriale, fino ad ora, non è stato il settore di prima scelta delle nuove leve di programmatori o di sviluppatori. A volte, non è solo un problema di competenze o di risorse – perché la situazione economica, lo sappiamo, per molte aziende mediatiche è critica – ma anche di sperimentazione. Bisognerebbe avere una “cabina” a disposizione, uno spazio di libertà per confrontarsi con questo tipo di sistema, per fare degli esperimenti. In tutto ciò – e questa è una questione che va oltre l’Italia, ma ripeto sempre – prima di saltare sul treno dell’intelligenza artificiale bisognerebbe trovare una risposta a due domande: a cosa mi serve l’intelligenza artificiale? Quale problema vorrei risolvere con questo tipo di tecnologia? Il primo report che Charlie Beckett della London School of Economics ha prodotto nel 2019 sull’utilizzo dell’intelligenza artificiale nelle grandi aziende mediatiche ha dimostrato proprio la mancanza di questo approccio. Magari, il ritardo nell’implementazione di questa tecnologia in Italia è dovuto anche al fatto che per molto tempo si è tralasciata un po’ questa domanda centrale, ma strategica. Quindi: per che cosa la vogliamo utilizzare, per risolvere quale problema concreto?

MM: Questo mi riporta al ruolo centrale dell’essere umano. Quello di cui si ha paura, quando si immagina un futuro distopico dove le macchine prendono il sopravvento è che venga meno questa responsabilità. Lei mi sta parlando di strategia, e quindi di responsabilità.

CP: Assolutamente. La responsabilità, o meglio, l’uso responsabile di queste tecnologie non è solo una questione centrale. È anche il mio ambito di ricerca principale. Parliamo spesso di un approccio “human-in-the-loop”, per cui da qualche parte ci deve essere un umano a decidere, che sia nello sviluppo, nella decisione di utilizzare il sistema o nella disseminazione dei contenuti, anche per evitare che questi sistemi diventino degli agenti autonomi. Non lo sono, fondamentalmente: sono degli algoritmi che effettuano una programmazione. Certo, sono molto bravi, e per questo, ribadisco, l’approccio strategico è importante. Se capiamo per che cosa vogliamo utilizzare l’IA, cosa vogliamo risolvere, riusciamo a fare una valutazione non solo delle opportunità, ma anche dei rischi. Ci sono diversi modi per affrontare la questione della responsabilità. Molte aziende mediatiche negli ultimi anni hanno sviluppato delle linee guida non solo su quello che è o non è ammissibile, ma anche su questioni come la trasparenza, soprattutto perché la percezione dell’audience sull’utilizzo di queste tecnologie è abbastanza critica. Secondo me questo non basta. Bisognerebbe agire anche su altri livelli, ad esempio a livello professionale. In Svizzera abbiamo un consiglio di stampa, in Italia c’è l’Ordine dei Giornalisti: a livello professionale occorre riflettere su cosa voglia dire un uso responsabile di queste tecnologie, pensare a delle direttive, a delle leggi.

MM: Siamo in una fase in cui si sta pensando in modo concreto al tema della regolamentazione. Penso all’AI Act, approvato dal Parlamento europeo lo scorso marzo.

CP: L’AI Act fondamentalmente è una legge che regola l’accesso al mercato. È basata sulla valutazione dei rischi: più alti sono i rischi di un determinato sistema, più controlli deve subire. Si è già deciso che, per esempio, gli algoritmi di personalizzazione delle piattaforme – quindi non dei media tradizionali – sono sistemi ad alto rischio, proprio perché hanno una posizione centrale nell’ecosistema mediale e influiscono molto sui tipi di contenuti che possiamo vedere. Quando parliamo di regolamentazione, c’è anche un altro player a livello sovranazionale che, soprattutto per quanto concerne l’intelligenza artificiale, è molto avanzato: il Consiglio d’Europa. Tra le altre cose, il Consiglio d’Europa ha varato attraverso uno dei suoi comitati di esperti delle linee guida specifiche sull’utilizzo dell’intelligenza artificiale nel giornalismo. In ultimo, non bisogna mai dimenticare chi deve lavorare o è toccato da queste tecnologie: i giornalisti, ma anche gli utenti, il pubblico. Occorre quindi non lavorare esclusivamente sulla governance di chi sviluppa e implementa questi sistemi, ma anche sulla cosiddetta «IA Literacy» di chi li usa o “subisce”: come possiamo sviluppare le conoscenze e la comprensione di questi sistemi sia all’interno della redazione sia all’esterno? Anche così possiamo garantire una maggiore responsabilità nell’utilizzo.

Il convegno «Intelligenza artificiale. Cronache del futuro» si terrà martedì 23 aprile dalle 18 alle 19.30 alla Casa del Giovane di Bergamo (Sala degli Angeli, in via Gavazzeni) e vedrà la partecipazione, oltre che di Colin Porlezza, dei professori dell’Università di Bergamo Paolo Barcella e Mario Verdicchio e di Marco Sangalli de L’Eco di Bergamo. L’iniziativa – pensata nell’ambito delle attività di Terza missione del Dipartimento di Lingue, Letterature e Culture Straniere e condivisa con il tavolo di lavoro interdisciplinare sull’intelligenza artificiale istituito dall’Università di Bergamo nel novembre 2023 e diretto dalla professoressa Maria Francesca Murru – è realizzata in collaborazione con L’Eco di Bergamo, Biblioteca «Di Vittorio» CGIL e Rete Bibliotecaria Bergamasca.

La Sala degli Angeli si trova al primo piano della Casa del Giovane e non è accessibile alle persone con disabilità. Invitiamo tuttavia chiunque desideri partecipare al convegno e abbia delle esigenze specifiche a contattarci alla mail [email protected]. Provvederemo a trovare la soluzione migliore.

Approfondimenti