Era una domenica pomeriggio qualunque, in cui scorrevo distrattamente il feed di Instagram quando mi è apparso un video: un vecchio filmato in bianco e nero mostrava una folla accalcata davanti a un cinema di New York nel 1927, l’anno dell’uscita del primo film sonoro. La voce di un cronista raccontava l’entusiasmo della gente, le file interminabili, il miracolo di sentire parlare gli attori sullo schermo. Tutto era perfetto: la grana della pellicola, i volti, i cappelli, i riflessi sulle automobili dell’epoca. Solo un piccolo dettaglio, in basso a sinistra, indicava che il filmato era stato «generato con Sora 2», la piattaforma di OpenAI per la generazione automatica di video, che permette di creare in pochi secondi scene perfettamente realistiche a partire da una descrizione testuale.
Quell’esperienza – tanto banale quanto rivelatrice – dice molto sul tempo in cui viviamo. Il confine tra ciò che esiste e ciò che viene simulato si è fatto sottile al punto da non essere quasi più visibile. Non è solo questione di manipolazione o di inganno, le recenti evoluzioni dell’intelligenza artificiale stanno dando vita ad una mutazione percettiva profonda, una frattura nel modo in cui costruiamo la fiducia nelle immagini e, di conseguenza, nella realtà stessa.
La nuova grammatica della verosimiglianza
L’intelligenza artificiale generativa non crea semplicemente «falsi», ma costruisce un nuovo linguaggio del verosimile. L’obiettivo non è produrre realtà, ma coerenza: restituire immagini che funzionano secondo le regole della nostra percezione, che «sembrano vere» perché rispettano la grammatica sensoriale del mondo reale, come la luce che filtra da una finestra, il tremolio di una ripresa a mano, la sfocatura imperfetta di un volto in movimento.
Il verosimile è ciò che appare plausibile. È quella zona intermedia dove il nostro sguardo smette di chiedersi se qualcosa sia autentico e inizia semplicemente a crederci. Uno spazio ibrido, in cui la distinzione tra realtà e simulazione non si gioca più sui fatti, ma sulla capacità di un’immagine di risuonare con ciò che conosciamo, di restituirci un’emozione che riconosciamo come nostra. Con piattaforme come Sora 2, che permettono di generare video realistici da un testo, la coerenza narrativa e la precisione visiva si fondono fino a diventare indistinguibili dell’autenticità. La verità, in questo contesto, non è più una qualità intrinseca dell’immagine, ma il risultato di un atto interpretativo.
Il filosofo Byung-Chul Han ha scritto, a tal proposito, che viviamo in un’epoca «post-fattuale», in cui la trasparenza non garantisce la verità ma la dissolve. Più un’immagine è perfetta, più smette di essere credibile. Eppure, nel paradosso di un realismo totale, la nostra fiducia continua a rivolgersi all’immagine. L’occhio, che per secoli considerato organo di certezza, oggi è il primo a tradirci. Non si tratta più di constatare che l’economia digitale si fonda sulla trasformazione della vita reale in dati manipolabili. Perché accade qualcosa di ulteriore: la realtà stessa si ricostruisce come dato sintetico e l’immagine non rappresenta più il mondo ma lo riscrive.
L’immagine come testimonianza
Per secoli l’immagine ha avuto una funzione di testimonianza. Una fotografia, un filmato, una registrazione servivano a provare l’esistenza di un evento. Oggi, invece, è tornata ad essere ciò che era nel mito: un racconto, una possibilità narrativa. Quando un video generato mostra un evento storico «come sarebbe potuto apparire», non mente nel senso tradizionale ma ci propone un’ipotesi visiva, una verità potenziale.
La nostra società si fonda da sempre sulla registrazione degli eventi e sulle tracce che lasciamo: archivi, documenti, registrazioni digitali costituiscono il cuore della memoria collettiva. Ma se anche queste tracce diventano artificiali, la memoria, così come la storia, rischiano di trasformarsi in un insieme coerente di simulazioni prive di radici autentiche. Ciò che rende queste tecnologie particolarmente dirompenti non è la loro capacità di inganno, bensì la loro diffusione pervasiva. I video generati da intelligenza artificiale si moltiplicano sui social, nelle piattaforme di intrattenimento, persino nei musei e nei documentari storici. Alcuni di essi sono dichiaratamente sperimentali, altri, invece, circolano senza contesto, generando confusione.
Un esempio emblematico è quello di un filmato che ha cominciato a girare a inizio marzo 2025. Il video IA intitolato « Trump Gaza » ha iniziato a circolare rapidamente sui social: mostrava Donald Trump, Benjamin Netanyahu e Elon Musk in un resort costruito nella devastata Striscia di Gaza. Il contenuto era stato creato con strumenti di intelligenza artificiale e diffuso in maniera virale, generando stupore, incredulità e discussioni tra migliaia di utenti. È un processo che vede l’affermarsi di nuovi luoghi della memoria artificiale, in cui ciò che ricordiamo non coincide più con ciò che è avvenuto, ma con ciò che abbiamo visto riprodotto in modo convincente.
La crisi dell’immaginazione
Ci troviamo immersi in un contesto in cui la fiducia visiva – quella che un tempo rappresentava la base stessa del sapere fondato sull’esperienza – si trasforma in vulnerabilità cognitiva. Non si tratta solo di disinformazione o propaganda: il problema è più profondo e riguarda il rapporto tra mente e percezione. Il sociologo Hartmut Rosa, nella sua teoria della «risonanza», spiega che la nostra esperienza del mondo dipende dalla capacità di sentirci in relazione con ciò che ci circonda. Quando l’ambiente mediale diventa indistinguibile dal reale, questa risonanza si indebolisce. Il risultato è una forma sottile di spaesamento, una perdita di orientamento epistemico. In altre parole, il nostro modo di sapere si fonda su una fiducia sensoriale che non regge più.
Un altro aspetto, spesso trascurato, riguarda l’impatto di queste tecnologie sull’immaginazione.
Per la prima volta nella storia, l’essere umano può vedere istantaneamente qualunque cosa riesca a descrivere. Scrivi «un tramonto su Marte ripreso in stile documentario anni ’70» e ottieni un filmato coerente, poetico, realistico. Ma se tutto ciò che immaginiamo può essere visualizzato all’istante, cosa resta della facoltà immaginativa?
Potremmo considerare questa condizione «postumana»: una soglia in cui la creatività umana si fonde con l’automazione tecnologica, ma rischia di perdere la sua dimensione di desiderio. L’immaginazione, infatti, nasce dal vuoto, dall’assenza di immagini. È il tentativo di rappresentare ciò che ancora non esiste. Se ogni pensiero trova subito una forma visiva perfetta, la tensione verso l’ignoto si indebolisce. In questo senso, l’intelligenza artificiale non distrugge l’immaginazione, ma la modifica: la sposta dal piano della creazione a quello della selezione. Non inventiamo più, ma ci limitiamo a scegliere quale tra le versioni già pronte, ci piace di più.
In parallelo, si sta aprendo un nuovo dibattito sull’autorialità. Se un video generato non ha un autore nel senso tradizionale, ma è il prodotto di un algoritmo addestrato su milioni di immagini, chi è responsabile della sua veridicità? L’IA generativa amplifica la nostra capacità di rappresentare, ma allo stesso tempo erode la dimensione simbolica dell’autore come garante del senso. In passato, un’opera d’arte o un documento portavano la traccia del loro creatore: il suo sguardo, la sua intenzione. Oggi, invece, l’immagine generata è priva di intenzione. È pura risposta a una richiesta linguistica. Quella che si va gradualmente affermando è una memoria sintetica: un sistema di archiviazione automatica di rappresentazioni create dall’intelligenza artificiale.
Jean Baudrillard aveva previsto questa deriva già negli anni Ottanta, parlando di «iperrealtà»: una condizione in cui il simulacro non nasconde la realtà, ma la sostituisce. «Non è più questione di falso o di vero», scriveva, «ma di ciò che funziona come reale». La profezia si è avverata in modo letterale. I video generati non mentono: funzionano come realtà. E questo basta per crederci.
Educare lo sguardo
Di fronte a questa trasformazione, la risposta non può essere solo tecnologica. Non basta inserire delle etichette o ricorrere a sistemi di tracciamento per distinguere i contenuti reali da quelli generati. Serve una nuova educazione visiva, una competenza interpretativa che ci permetta di leggere le immagini non come specchi, ma come costruzioni. Il filosofo Edgar Morin definiva «pensiero complesso» la capacità di comprendere i fenomeni tenendo insieme le loro contraddizioni. È proprio questa forma di pensiero che oggi ci serve per abitare l’epoca del verosimile. Significa imparare a chiedersi non solo se qualcosa è vero, ma interrogarsi su come viene costruito ciò che appare come vero.
Non è un compito semplice. Implica una revisione del nostro modo di guardare, di fidarci, di interpretare. Forse dovremmo accettare che la verità, oggi, non sia più un punto fisso ma un processo dinamico. Applicato al mondo delle immagini generate, ciò significa che la verità non può più essere garantita dalla tecnologia, ma solo dal contesto interpretativo e sociale in cui le immagini vengono comprese. La sfida, quindi, non è preservare una definizione di verità connessa al dato empirico, ma imparare a costruirla in un ambiente dove la realtà è diventata una materia flessibile, modulabile, aperta alla riscrittura continua.
In questo scenario, la risposta più matura non è la nostalgia per un passato «autentico», ma la ricerca di un nuovo realismo critico. Non possiamo tornare a un’epoca in cui le immagini erano garanzia di verità, ma possiamo sviluppare un’etica dello sguardo capace di distinguere, contestualizzare, interpretare. L’immagine artificiale, se compresa nella sua natura di costruzione, può diventare anche uno strumento di conoscenza: un modo per esplorare possibilità, per immaginare mondi alternativi, per sperimentare forme narrative nuove. Il rischio non è nella tecnologia in sé, ma nel nostro abbandono della responsabilità interpretativa.
A commuoverci, spesso, non è la verità di ciò che vediamo, ma la sua capacità di evocare un’emozione condivisa. La tecnologia non ha distrutto questo bisogno: lo ha solo messo a nudo. Oggi tutto può essere ricreato artificialmente, ma non possiamo più credere a quello che vediamo. È una condizione fragile, ma anche fertile. Perché ci costringe a tornare alla radice del vedere, a chiederci non solo cosa è vero, ma perché vogliamo che lo sia. In definitiva, la sfida dell’intelligenza artificiale non è quella di riscrivere la realtà, ma di ricordarci che la realtà – come la verità del resto – è sempre stata una costruzione collettiva, imperfetta e in continua negoziazione. E che riporre fiducia, anche nell’epoca delle immagini sintetiche, resta, forse, il nostro gesto più umano.
