La nuova mossa di OpenAI sta cambiando le regole del gioco. Il traffico che l’intelligenza artificiale inviava ai siti web è crollato del 52% in un mese, favorendo colossi come Reddit e Wikipedia. Dietro a un apparente cambiamento tecnico, si nasconde una profonda riconfigurazione del potere informativo online. E, come al solito, a farne le spese è l’ecosistema digitale diffuso.
In questo articolo
La notizia: un crollo del traffico che fa riflettere
Partiamo dai dati, perché quelli non mentono. Secondo un’analisi di Josh Blyskal di Profound, basata su oltre un miliardo di citazioni di ChatGPT, il traffico di riferimento (quello che dal chatbot arriva ai siti web) è crollato del 52% dal 21 luglio. Un crollo verticale, avvenuto in pochissimo tempo.
Insomma, fino a ieri ChatGPT sembrava una nuova, potenziale fonte di visitatori per chiunque producesse contenuti online. Oggi, quel rubinetto si sta chiudendo. E non si sta chiudendo a caso, ma in modo molto selettivo.
Chi vince e chi perde in questo nuovo gioco
Se il traffico totale diminuisce, c’è qualcuno che, in proporzione, sta guadagnando fette di torta sempre più grandi. E i nomi non sorprendono, ma fanno pensare. I dati ci dicono che:
- Le citazioni a Reddit sono aumentate dell’87%, superando il 10% del totale.
- Wikipedia ha fatto un balzo del 62%, arrivando a quasi il 13% di tutte le citazioni.
- I primi tre siti citati – Wikipedia, Reddit e TechRadar – ora rappresentano da soli il 22% di tutte le fonti, con un aumento del 53% in un solo mese.
Il quadro è chiaro: ChatGPT sta privilegiando una manciata di piattaforme enormi, generaliste e basate su contenuti generati dagli utenti o da grandi redazioni. Chi perde? Praticamente tutti gli altri: i blog specializzati, i siti di aziende, i piccoli editori, chiunque abbia costruito un sito per offrire la propria competenza e, legittimamente, per promuovere un servizio o un prodotto.
Perché sta succedendo? La mano (non tanto) invisibile di OpenAI
La prima tentazione sarebbe pensare che sia colpa del nuovo modello, GPT-5, lanciato il 7 agosto. Ma la realtà, come sottolinea Blyskal, è un’altra. Il cambiamento è iniziato settimane prima, suggerendo una scelta deliberata, quasi “manuale”, da parte di OpenAI. Sembra che abbiano “ri-pesato” il loro sistema per favorire quelle che definiscono “risposte dirette” (answer-first).
In pratica, l’algoritmo ora preferisce fonti che rispondono seccamente a una domanda, come può essere un thread di Reddit o una voce di Wikipedia, a discapito di contenuti più articolati, magari di un’azienda che, alla fine di un’analisi approfondita, ti invita a “richiedere una demo”.
Questa è la grande discriminante: l’intelligenza artificiale sta imparando a riconoscere e a penalizzare l’intento commerciale, anche quando è legato a informazioni di alta qualità. Vince la risposta apparentemente “neutra” e disinteressata, perde il contenuto che ha uno scopo economico dichiarato.
Oltre la SEO: la concentrazione del potere informativo
Qui, però, dobbiamo fare un passo indietro e guardare il quadro generale, come ci impone un approccio critico. Non si tratta solo di un problema per i marketer o per gli esperti SEO. Siamo di fronte a una concentrazione di potere informativo che dovrebbe preoccuparci tutti.
Per anni abbiamo criticato Google per il suo ruolo di “gatekeeper” dell’informazione, ma il suo algoritmo, con tutti i suoi difetti, puntava a un ecosistema web vasto e diversificato. Ora, OpenAI sta creando un nuovo strato sopra internet: uno strato che riassume, elabora e, alla fine, decide quali fonti meritano di essere viste. E la sua scelta ricade su un numero sempre più esiguo di colossi.
Questo è il cuore del problema dell’IA, un tema che affronto spesso. L’intelligenza artificiale diventa uno strumento per concentrare ricchezza e visibilità verso l’alto, sfruttando e rielaborando la conoscenza prodotta “dal basso” – da milioni di utenti su Reddit, da volontari su Wikipedia, da esperti su blog di settore. Il valore viene estratto, aggregato e poi il traffico, che è la moneta del web, viene redistribuito a pochi eletti.
Cosa succede a chi ha un’attività, a un professionista, a un piccolo editore? Il loro lavoro, la loro competenza, vengono usati per addestrare questi modelli, ma la ricompensa – visibilità, contatti, clienti – viene drasticamente ridotta.
Cosa significa per chi crea contenuti e per il nostro accesso all’informazione?
Le implicazioni sono profonde. Da un lato, come suggerisce Blyskal nel suo post su LinkedIn, c’è un’opportunità “enorme” per i brand disposti a passare da una logica di conversione a una logica di “risposta pura”. Ma siamo sicuri che sia una soluzione sostenibile per tutti?
Un’azienda non è un ente di beneficenza. Produce contenuti di valore per sostenere il proprio business. Se l’IA penalizza questo modello, sta di fatto minando la sostenibilità economica di gran parte del web. Chi pagherà per creare contenuti di qualità se il ritorno economico viene sistematicamente tagliato?
E poi c’è una questione di qualità e pluralismo. Affidare la nostra informazione a piattaforme come Reddit significa privilegiare l’opinione popolare e il contenuto generato dagli utenti, con tutti i rischi di disinformazione, bias e manipolazione che ne conseguono. Wikipedia è una risorsa straordinaria, ma non può e non deve essere l’unica fonte di conoscenza autorevole.
Insomma, la decisione di OpenAI non è un semplice aggiornamento tecnico. È una scelta politica ed economica con conseguenze enormi. Sta ridisegnando la mappa del potere online, spingendo verso un web meno diversificato, più centralizzato e, potenzialmente, più povero di contenuti original