Lo scorso 16 aprile Condé Nast – uno dei principali gruppi editoriali internazionali, proprietario di marchi come Vogue, Vanity Fair e The New Yorker – ha annunciato la chiusura di Wired Italia. La motivazione ufficiale è apparentemente semplice, quanto spietata: la testata pesava poco più dell’1% del fatturato complessivo del gruppo, insieme ad altri titoli minori, e le risorse liberate verranno spostate verso l’intelligenza artificiale, considerata oggi più strategica. In parole povere: Wired non genera abbastanza per giustificare il suo costo, mentre l’intelligenza artificiale promette margini, scala e centralità nel nuovo ecosistema dell’informazione.
Per quanto possa dispiacere a chi ha lavorato in quella redazione e a chi leggeva quella testata, la questione non riguarda solo Wired. Perché Wired è solo il segnale più visibile di una trasformazione che è già avvenuta altrove. Nel modo in cui le persone accedono alle informazioni, nel modo in cui le consumano, nel modo in cui smettono di costruirle autonomamente. Con il paradosso evidente di una testata nata per raccontare la tecnologia che finisce per essere soppiantata proprio dalla tecnologia che raccontava.
Perché abbiamo smesso di cercare?
La crisi dei giornali non nasce da una improvvisa perdita di qualità o da una congiura tecnologica, ma da una trasformazione molto più banale e molto più radicale: abbiamo smesso di cercare. Non è una metafora, ma una descrizione abbastanza precisa di quello che accade quando oggi apriamo un motore di ricerca o un’applicazione qualsiasi che integri sistemi di intelligenza artificiale. Perché al posto di una lista di risultati che richiedevano almeno una decisione, un clic, un confronto, troviamo una risposta già pronta, già sintetizzata, già organizzata secondo criteri che non vediamo e che, nella maggior parte dei casi non mettiamo in discussione.
Questo passaggio segna anche la fine dell’esperienza del “navigare” in rete. Navigare significava partire da una domanda e finire altrove. Era un modo disordinato ma efficace di costruire conoscenza, fatto anche di deviazioni, errori, curiosità laterali. Il passaggio è stato graduale, impercettibile, disseminato in aggiornamenti di sistema, nuove funzionalità, integrazioni sempre più pervasive, fino a trasformare l’intelligenza artificiale in una presenza strutturale all’interno dei dispositivi che utilizziamo quotidianamente.
La sociologa Shoshana Zuboff ha descritto con precisione la natura del potere esercitato dalle piattaforme digitali contemporanee: non si tratta di un potere fondato sul divieto o sull’imposizione, ma su una modulazione dell’esperienza che rende alcune azioni più semplici, immediate e quindi più probabili di altre. Il punto non è impedire determinati comportamenti, ma ridurne progressivamente la convenienza, aumentando l’attrito necessario per praticarli. In questo modo, ciò che è più accessibile tende a diventare norma senza bisogno di coercizione. Applicato all’informazione, questo schema produce un effetto evidente: la consultazione diretta delle fonti, il confronto tra contenuti e la costruzione autonoma di un percorso conoscitivo non vengono eliminati, ma risultano progressivamente meno praticati, perché sostituiti da soluzioni più rapide e lineari, come le risposte sintetiche generate dai sistemi di intelligenza artificiale.
Nick Srnicek, nel suo lavoro sull’economia delle piattaforme, ha sviluppato ulteriormente questa prospettiva, mostrando come tali sistemi tendano a evolvere in infrastrutture, ossia in condizioni di base dell’esperienza economica e sociale. Un’infrastruttura non è semplicemente uno strumento tra gli altri, ma un ambiente entro cui si svolgono le attività, e dal quale diventa progressivamente più difficile prescindere. Nel momento in cui le piattaforme assumono questa funzione infrastrutturale, l’uscita dal loro perimetro non è impossibile, ma richiede un livello di consapevolezza e di impegno che eccede il comportamento ordinario. È in questo senso che l’integrazione dell’intelligenza artificiale nei dispositivi quotidiani non sostituisce formalmente i percorsi tradizionali, ma li rende meno frequenti, meno necessari, fino a marginalizzarli.
Ecco, l’intelligenza artificiale oggi è esattamente questo: un’infrastruttura cognitiva che intercetta la domanda prima che si trasformi in ricerca e la soddisfa prima che si apra un percorso. Il problema, naturalmente, non è la comodità che è sempre stata il motore dell’innovazione ma il fatto che la comodità elimina il percorso e il percorso non era un dettaglio tecnico, era lo spazio in cui si costruiva un minimo di spirito critico.
Cosa dicono i dati
Se si passa dall’analisi qualitativa ai dati, il quadro diventa ancora più netto, perché nel dicembre 2025 le pagine viste dei principali siti di informazione italiani sono calate del 14% su base annua , mentre gli utenti di applicazioni di intelligenza artificiale sono cresciuti del 76%, raggiungendo circa 13,7 milioni. Questi numeri indicano una trasformazione strutturale e raccontano uno spostamento preciso: dal sito alla risposta, dal percorso alla sintesi.
I giornali e più in generale i siti web, in questo contesto, non stanno opponendo una resistenza significativa, ma si stanno adattando, cercando di rendere i propri contenuti compatibili con i sistemi di intelligenza artificiale, ottimizzandoli per essere selezionati, citati, incorporati. È una strategia comprensibile, ma comporta un costo: la perdita di centralità e, in parte, di autonomia. Il sociologo e giornalista Evgeny Morozov ha criticato a lungo il solutionism, cioè la tendenza a ridurre problemi complessi a soluzioni immediate, e l’informazione trasformata in risposta rientra perfettamente in questa logica: non si tratta più di comprendere un fenomeno, ma di ottenere una risposta utilizzabile.
La chiusura di Wired Italia, a questo punto, appare per quello che è: il momento in cui una trasformazione già avvenuta diventa visibile anche a chi non la stava osservando. E mentre ci abituiamo a ricevere risposte sempre più rapide e sempre più ordinate, resta una domanda che non riguarda la tecnologia ma noi: ma pensare è davvero così faticoso?
L’eleganza dell’irresponsabilità
A questo punto entra in gioco quella formula che meriterebbe un piccolo trattato, ed è quella che accompagna sistemi come ChatGPT: «può commettere errori, verifica le informazioni importanti», che suona come una raccomandazione ragionevole ma, a ben vedere, contiene almeno due problemi non banali.
Il primo è definitorio: cosa sono le informazioni importanti? Quelle che riguardano la salute, il lavoro, le decisioni economiche? E le opinioni politiche, culturali, sociali, che contribuiscono a formare una visione del mondo, non sono importanti? Il terzo è temporale: quando si verifica? Dopo aver ricevuto una risposta che appare già completa, già coerente, già plausibile? Luciano Floridi parla di «infosfera» per indicare un ambiente in cui l’informazione è onnipresente, continuamente disponibile e accessibile. Ma proprio questa abbondanza rende più complesso stabilire gerarchie di affidabilità, distinguere tra ciò che è verificato, ciò che è plausibile e ciò che è semplicemente ben formulato. In questo contesto, la verifica cambia natura: da pratica quasi automatica legata al confronto tra fonti, diventa un atto intenzionale, che richiede tempo, attenzione e una certa disciplina cognitiva.
Il punto, quindi, non è una deresponsabilizzazione dell’utente, ma un innalzamento implicito della soglia richiesta per esercitare il pensiero critico: la responsabilità resta interamente individuale, ma si colloca in un ambiente che non la facilita, e che anzi premia comportamenti più rapidi e meno riflessivi. Più che una mancanza di strumenti, si tratta di una diversa distribuzione degli sforzi: verificare è ancora possibile, ma richiede una decisione consapevole di non fermarsi alla prima risposta. Il risultato è una forma di responsabilità trasferita all’utente che, però, non dispone più delle condizioni materiali per esercitarla, un po’ come se si chiedesse a qualcuno di orientarsi in una città senza mappe dopo avergli tolto i cartelli.
L’automazione selettiva
Ed eccoci al paradosso più istruttivo di tutta questa vicenda che merita di essere raccontato con un pizzico di ironia. Perché mentre si discute di intelligenza artificiale, di automazione, di futuro del lavoro, c’è un dato piuttosto evidente: le attività che sono state automatizzate con maggiore rapidità sono quelle intellettuali. Scrivere un testo, sintetizzare un documento, organizzare informazioni, produrre contenuti: tutto questo è già in larga parte delegabile a sistemi di intelligenza artificiale, mentre le attività quotidiane più banali, sistemare la casa, pulire, restano saldamente nelle mani degli esseri umani, con una certa indifferenza da parte del progresso tecnologico. Certo, le innovazioni anche in questo campo ci sono ma siamo ben lontani da una diffusione di massa.
Il quadro che emerge è quasi comico: meno tempo per pensare, più tempo per piegare i vestiti. Il filosofo francese Bernard Stiegler aveva parlato di una perdita progressiva delle capacità cognitive a favore dei sistemi tecnici, sostenendo che l’esternalizzazione delle funzioni mentali comporta una riduzione dell’autonomia. Mentre, lo studioso contemporaneo Yuk Hui ha insistito sulla necessità di sviluppare una relazione critica con la tecnologia per evitare una standardizzazione del pensiero.
Quello che vediamo oggi sembra confermare entrambe le intuizioni: non stiamo semplicemente utilizzando strumenti più efficienti, stiamo delegando una parte del processo attraverso cui costruiamo il senso delle informazioni, e nel farlo rischiamo di perdere familiarità con quel processo. In questo quadro, il punto non è opporsi all’intelligenza artificiale né rimpiangere un passato che, a ben vedere, non era affatto più ordinato o più razionale, ma capire che cosa fare dello spazio che questa tecnologia apre o dovrebbe aprire. Perché se davvero una parte crescente del lavoro cognitivo viene automatizzata, allora il tempo liberato non dovrebbe essere riempito automaticamente da altre attività più banali o più ripetitive, ma dovrebbe tradursi in una maggiore disponibilità per ciò che non è automatizzabile: il giudizio, l’interpretazione, la costruzione di senso.
L’intelligenza artificiale può facilitare l’accesso alle informazioni, può accelerare processi che prima richiedevano tempo, ma non può sostituire questo passaggio, perché il pensiero critico non è un risultato, è un esercizio. Il paradosso è che la tecnologia che avrebbe potuto liberarci tempo per pensare rischia, se usata senza consapevolezza, di ridurre proprio quello spazio, trasformando il pensiero in un’attività sempre meno necessaria. Ma questa non è una conseguenza inevitabile: dipende da come si usa lo strumento, da quanto si è disposti a mantenere attiva una parte di fatica cognitiva che nessun sistema automatizzato può davvero assorbire.
Se c’è una direzione sensata, allora, non è quella di delegare tutto ciò che è delegabile, ma di usare questa delega per spostare l’attenzione su ciò che resta umano: la capacità di collegare, dubitare, immaginare. In altre parole, se una macchina può aiutare a rispondere, dovrebbe servire soprattutto a lasciare più spazio per pensare, non semplicemente a guadagnare tempo da riempire con altro, con il bucato che resta lì, implacabile, ammucchiato su una sedia, in attesa di essere piegato.
