93FE310D-CB37-4670-9E7A-E60EDBE81DAD Created with sketchtool.
< Home

I testi che l’IA produce sono originali? Chiediamoci cosa intendiamo con «originali»

Articolo. Una macchina può essere considerata intelligente? E creativa? Cosa significa «autonomo» e cosa «automatico»? Forse, per capire davvero l’intelligenza artificiale, dobbiamo prima fare chiarezza sul vocabolario che usiamo. Ne abbiamo parlato con Mario Verdicchio, co-organizzatore – con lo storico Paolo Barcella, Daniela Taiocchi e Marco Sangalli de L’Eco di Bergamo – di un convegno in programma martedì 23 aprile alle 18 alla Casa del Giovane di Bergamo

Lettura 6 min.

Nel ruolo di «Ricercatore in sistemi di elaborazione delle informazioni», il professor Mario Verdicchio dell’Università degli Studi di Bergamo si riconosce poco. La realtà è sempre più complessa di quanto possa esprimere un’etichetta, com’è complesso il campo dell’intelligenza artificiale. Un campo che fino a poco più di vent’anni fa godeva di una pessima fama.

«Ho iniziato studiando ingegneria informatica nella seconda metà degli anni Novanta, poi ho proseguito, nella prima metà degli anni Duemila, con un dottorato in intelligenza artificiale, in un’epoca in cui questa disciplina non richiamava molta attenzione, perché la si vedeva come uno spreco di investimenti. Fatta eccezione per alcune storie di successo, di cui vediamo ancora oggi i risultati – Amazon, Google, Apple, Microsoft – non c’era stata, ai tempi, una grande diffusione della dimensione elettronica delle aziende. Ricordo la mia tesi di Master sull’e-commerce: molti produttori italiani dicevano: “non possiamo vendere nulla su Internet, perché la gente non può toccare i nostri prodotti”».

A distanza di anni, intelligenza artificiale è diventata quasi sinonimo di informatica. Eppure, occuparsi di IA non significa solo tenere un computer acceso: significa porsi ai confini tra informatica, filosofia, etica, psicologia, linguistica. «Ciò che mi ha spinto verso questo settore sono proprio i suoi contatti con gli aspetti fondamentali della cultura, tutti aspetti che sono fatti, creati, gestiti dagli esseri umani. Il mio interesse è per l’essere umano, che da secoli si pone le stesse domande: chi siamo? Perché siamo fatti così? Dove andiamo a finire? Perché esiste la vita?».

MM: Ho una domanda anche io, sulla parola «intelligenza». Può una macchina essere intelligente?

MV: Dipende dalla concezione che abbiamo di intelligenza. Il termine «intelligenza artificiale» è abbastanza vecchio, perché è stato coniato negli anni Cinquanta – e se contiamo quante generazioni di iPhone sono passate nel frattempo, parliamo di un’eternità fa! I professori statunitensi che coniarono questo termine allora avevano in mente un tipo particolare di intelligenza: quella parte dell’attività umana computazionale che viene utilizzata per risolvere i problemi. I computer erano e sono tutt’ora macchine per fare di conto, quindi se noi consideriamo l’intelligenza come il “saper fare di conto”, allora sì, i computer sono intelligenti. Solo “fare di conto”, però, non vuole dire essere intelligenti. Pensiamo ai diplomatici che negoziano in situazioni internazionali estremamente difficili: magari non utilizzano numeri, ma prendono in considerazione diversi contesti, oltre che le emozioni delle persone coinvolte. È ovvio che chi si concentra solo sui numeri, senza considerare altri tipi di intelligenza come quella emotiva o il talento musicale, riterrà le macchine informatiche intelligenti. Ma proviamo a cambiare prospettiva: un calcolatore non riesce né a muoversi né a trovare del cibo da solo. Da questo punto di vista, è molto meno intelligente di un bambino di tre anni.

MM: E il concetto di creatività? Quello che spaventa molti giornalisti e professionisti della comunicazione è la capacità di sistemi come ChatGPT di realizzare dei testi originali.

MV: Anche qui, come per intelligenza, occorre definire che cosa vuol dire «originale». Se per «originale» consideriamo qualcosa che non è mai stato scritto prima, ovvero un testo composto da parole che costituiscono una sequenza che non è mai stata pubblicata, allora il computer è in grado di generare dei testi originali. Ma se consideriamo l’«originalità» nel suo senso più profondo, analizzando il contenuto, le connessioni che si vengono a creare all’interno di un discorso, le intuizioni o le prospettive che emergono e non sono mai state usate prima… Allora tutto cambia.

MM: Mi fa un esempio?

MV: Quando un essere umano legge la parola «cavallo», richiama alla mente un’immagine, la sensazione tattile di una criniera, un ricordo. Strumenti come ChatGPT sono strumenti statistici, capaci di analizzare le enormi quantità di testi che mettiamo in rete. Con l’analisi della parola «cavallo» si intende il vedere la stringa «C-A-V-A-L-L-O», e capire statisticamente – considerando i migliori testi che la contengono e le parole che le stanno attorno – qual è l’uso tipico che si fa della stringa «C-A-V-A-L-L-O». A seconda delle parole chiave che mettiamo come input, stabiliamo un contesto: andremo quindi a parlare di equitazione, cucina o ippoterapia. Tutti questi input danno indicazioni sul tipo di testo che deve essere campionato per creare delle nuove “combinazioni di stringhe” che sono, come dire, originali, nel senso banale del termine. Se ci serve un riassunto di qualche cosa già scritta, una sapiente mistura, questi strumenti possono essere estremamente utili. Se ci serve invece un editoriale, una prospettiva nuova, allora serve l’essere umano.

MM: Cosa ci preoccupa allora?

MV: La preoccupazione che c’è ai piani alti è più di tipo economico. Ci sono delle aziende immense, principalmente americane, che vogliono vendere questi prodotti, e numerose aziende che li vogliono acquistare per poter risparmiare, perché alla fine, se la necessità è quella di avere un lavoro non estremamente originale, ma talmente semplice che anche una macchina lo può eseguire, è ovvio che la macchina (che non mangia e che esegue le operazioni più rapidamente di un essere umano) costa al datore di lavoro molto meno.

MM: Nei giorni scorsi, 200 cantanti hanno firmato una lettera per regolamentare l’IA. Hanno sollevato il problema che tante aziende stanno usando senza autorizzazione il loro lavoro per addestrare i sistemi di intelligenza artificiale. E hanno anche espresso la preoccupazione che il loro lavoro venga addirittura sostituito.

MV: Se si utilizza materiale protetto dal diritto d’autore, c’è una violazione dei diritti e i diritti devono essere pagati. Da questo punto di vista, la legislazione è chiara, anche se è difficile imbastire un sistema di controllo. Altra questione invece è quella della sostituzione: possiamo immaginare che questi sistemi informatici allenati su tutte le canzoni, i libri, gli articoli scritti fino adesso, riescano a produrre talmente tante nuove canzoni, libri, articoli interessanti da rendere la figura del cantautore o del giornalista obsoleta? Dipende. Come dicevo prima, queste macchine si sono statisticamente allenate sui dati preesistenti. Manca da parte loro l’originalità nel senso più profondo. Oggi giorno, tra l’altro, non si vende una singola canzone: la gente ha interesse per il cantante, il personaggio con la sua storia, la sua esperienza umana. Da questo punto di vista, alcuni miei colleghi non sono d’accordo: chi difende l’efficacia o comunque l’originalità di queste macchine punta il dito verso il fatto che gli esseri umani non nascono “imparati”, ma essi stessi imparano da chi li ha preceduti: un cantante scrive una canzone sulla base della musica che ha studiato. Se anche gli esseri umani sono rielaboratori di dati passati, perché non affiancare a questi nuovi apprendisti anche degli apprendisti automatici? La questione è ancora aperta.

MM: Ma un agente artificiale può o potrà avere una responsabilità morale? Potremo addestrarlo a distinguere il bene dal male?

MV: Questo è uno dei temi centrali della mia ricerca: l’etica della tecnologia. Laddove l’intelligenza artificiale si interseca con la filosofia morale, con l’etica, si divide in ulteriori due sottocampi. Uno si chiama Computer Ethics, etica del computer, l’altro Machine Ethics, etica delle macchine. Chi fa Computer Ethics (e io sono da questa parte) considera i computer come delle macchine che possono essere usate in maniera etica o meno dagli esseri umani. Ad esempio, se io programmo un computer per comandare dei missili, faccio un certo uso dell’informatica; se lo programmo invece per aiutare i radiologi a individuare cellule tumorali all’interno di un’immagine digitale, quello è un altro uso. Il computer è sempre lo stesso, ma gli effetti sono profondamente diversi.

MM: E la Machine Ethics?

MV: La Machine Ethics invece è portata avanti da studiosi computazionalisti, secondo cui, quando ragioniamo su ciò che è giusto e ciò che è sbagliato, facciamo dei ragionamenti che sono dei calcoli. Su questa supposizione basano il fatto che, in teoria, potremmo programmare i computer in modo da inserire delle codifiche che regolano il nostro comportamento etico; creare cioè degli agenti morali, macchine con un ruolo attivo nel gestire e sostenere la morale e l’etica. Il rischio è che poi quando una macchina uccide o ferisce una persona, anche per errore, cosa facciamo? Condanniamo la macchina, le togliamo l’elettricità? Si arriva ad assurdi in cui nessun essere umano viene incolpato, perché sono le macchine ad aver agito. Essere esseri umani responsabili è il primo modo per controllare la deriva dell’uso di queste tecnologie.

MM: C’è chi teme però che le macchine diventino autonome. Pensiamo a molti film di fantascienza, in cui le tecnologie prendono coscienza e sopraffanno gli esseri umani.

MV: «Autonomia» è un’altra parola di cui si abusa. Quando un macchinario computazionale diventa talmente sofisticato da esibire un comportamento complesso lo si etichetta con “autonomo”. Ma è sbagliato, lo dico da ingegnere informatico. Queste macchine sono automatiche, non autonome: seguono un programma che è stato messo dentro loro da esseri umani. Essere consci di come funzionano queste tecnologie – che non sono solo prodotti tecnologici, ma prodotti socio-economico-politici che hanno un impatto sulla società molto importante – è fondamentale per poterne parlare bene, con i concetti giusti.

Il convegno « Intelligenza artificiale. Cronache del futuro » si terrà martedì 23 aprile dalle 18 alle 19.30 alla Casa del Giovane di Bergamo (Sala degli Angeli, in via Gavazzeni) e vedrà la partecipazione, oltre che di Mario Verdicchio, di Paolo Barcella, docente dell’Università degli Studi di Bergamo, Colin Porlezza, docente dell’Università della Svizzera Italiana e Marco Sangalli de L’Eco di Bergamo. L’iniziativa – pensata nell’ambito delle attività di Terza missione del Dipartimento di Lingue, Letterature e Culture Straniere e condivisa con il tavolo di lavoro interdisciplinare sull’intelligenza artificiale istituito dall’Università di Bergamo nel novembre 2023 e diretto dalla professoressa Maria Francesca Murru – è realizzata in collaborazione con L’Eco di Bergamo, Biblioteca «Di Vittorio» CGIL e Rete Bibliotecaria Bergamasca.

La Sala degli Angeli si trova al primo piano della Casa del Giovane e non è accessibile alle persone con disabilità. Invitiamo tuttavia chiunque desideri partecipare al convegno e abbia delle esigenze specifiche a contattarci alla mail [email protected]. Provvederemo a trovare la soluzione migliore.

Approfondimenti