Indice
- 1 Mentre l’enciclopedia libera perde lettori reali, il traffico automatizzato generato da intelligenze artificiali corre all’impazzata. È la nuova frontiera del web “senza utenti”
- 2 La “colonizzazione” del web da parte delle IA
- 3 Bot, crawler e il prezzo dell’automazione
- 4 Chi paga il conto della conoscenza gratuita
- 5 Verso un web senza link?
Mentre l’enciclopedia libera perde lettori reali, il traffico automatizzato generato da intelligenze artificiali corre all’impazzata. È la nuova frontiera del web “senza utenti”
L’enciclopedia libera più famosa del pianeta sta attraversando una fase critica, o forse sarebbe più opportuno dire “la più critica della sua storia”. Non si tratta di un problema di contenuti o di affidabilità, ma di sopravvivenza digitale. Secondo l’ultimo rapporto della Wikimedia Foundation, le visite umane a Wikipedia sono calate dell’8% in un solo anno, mentre il consumo di banda è cresciuto del 50%. Il dato, apparentemente contraddittorio, racconta una realtà sorprendente: a leggere le voci non sono più gli utenti, ma i bot. Milioni di richieste automatiche, provenienti da motori di ricerca e sistemi di intelligenza artificiale, scaricano i contenuti dell’enciclopedia per alimentarli nei propri algoritmi, riducendo al minimo il traffico umano reale.
Ma non è un caso isolato. L’avvento dell’AI generativa, capace di sintetizzare risposte dirette a ogni domanda, sta riscrivendo le regole dell’informazione online. Gli utenti non hanno più bisogno di cliccare, navigare o approfondire: la risposta arriva subito, già pronta, direttamente nella schermata del motore di ricerca o del chatbot. Così Wikipedia, e con lei migliaia di siti di informazione, blog, forum e archivi, perde visitatori, visibilità e, di conseguenza, risorse.
La “colonizzazione” del web da parte delle IA
Dietro il crollo delle visite si nasconde un cambiamento strutturale. Oggi Google, Bing e ChatGPT offrono risposte sintetiche “AI-powered” che prelevano i dati da fonti esterne, spesso senza citare o linkare l’origine. Wikipedia, che per anni ha rappresentato il primo risultato di qualunque ricerca, diventa così una vittima del successo: le sue informazioni sono ovunque, ma il traffico diretto verso la piattaforma svanisce.
Il fenomeno non riguarda solo l’enciclopedia libera. Le testate giornalistiche, i portali scientifici e i siti educativi registrano crolli del 20–40% del traffico organico. I motori di ricerca diventano sempre più “autonomi”, assorbendo contenuti per generare risposte in-house, mentre i social privilegiano video e microcontenuti rispetto ai link esterni. In questa nuova geografia digitale, i siti web classici appaiono come isole deserte, utili solo come materia prima per l’addestramento dei modelli di linguaggio.
Bot, crawler e il prezzo dell’automazione
Secondo Marshall Miller, Senior Product Director della Wikimedia Foundation, «il traffico automatizzato sta cambiando radicalmente la natura dell’esperienza utente». La crescita dei bot comporta un aumento dei costi operativi, ma soprattutto rende difficile misurare l’interazione umana reale — parametro vitale per mantenere viva la community dei contributori. Meno utenti significa meno volontari, meno aggiornamenti e minori donazioni: un circolo vizioso che rischia di erodere il cuore stesso del progetto.
I crawler automatici scaricano milioni di pagine per “nutrire” i modelli di intelligenza artificiale. Ma mentre l’AI cresce in precisione, Wikipedia e gli altri siti restano a mani vuote, senza riconoscimento né ritorno economico. L’assenza di un meccanismo di compensazione, o almeno di attribuzione trasparente, pone un dilemma etico cruciale: chi deve essere ricompensato per la conoscenza usata dalle macchine?
Chi paga il conto della conoscenza gratuita
La Wikimedia Foundation non accusa l’intelligenza artificiale, ma chiede regole più chiare. L’idea è introdurre API a pagamento per l’accesso massivo ai dati e sistemi più efficaci per distinguere il traffico umano da quello robotico. Parallelamente, si lavora a strumenti di attribuzione automatica, che obblighino i servizi AI a riconoscere e linkare le fonti.
Alcuni esperti propongono un modello “win-win”: le IA possono usare i contenuti di Wikipedia e dei media solo se garantiscono visibilità e ritorno di traffico. Un modo per mantenere in vita l’ecosistema dell’informazione aperta, che oggi rischia di essere cannibalizzato dalle stesse tecnologie che su di esso si basano.
Verso un web senza link?
Il caso Wikipedia mostra come il web stia perdendo la sua forma originaria: da rete di collegamenti e fonti verificate si sta trasformando in un ecosistema chiuso, governato dagli algoritmi. Gli utenti si fidano delle risposte generate, senza più interrogarsi sull’origine. L’informazione diventa fluida, impersonale, spesso priva di autore.
Gli studiosi avvertono: se l’intelligenza artificiale diventa il filtro unico della conoscenza, il rischio è quello di un “web fantasma” — un luogo dove i contenuti restano, ma i lettori scompaiono. Wikipedia è solo il primo segnale di un collasso che riguarda tutti: dalle redazioni ai musei digitali, dai portali scientifici ai blog indipendenti.
