31 marzo 2026 · 7 min lettura
Intelligenza ArtificialeOracle licenzia 18% del personale per finanziare $50 miliardi in AI. In Italia il tribunale di Roma legittima il licenziamento in contesto AI. Cosa significa per chi gestisce infrastruttura in autonomia.
Intelligenza Artificialeduck.ai promette chat AI senza tracciamento: nessun log, nessun IP, accordi con Anthropic e OpenAI. Ma DuckDuckGo ha già tradito questa fiducia una volta.

Iscriviti alla newsletter per ricevere i migliori articoli direttamente nella tua inbox.
I nuovi modelli Google Gemma 4 girano in homelab con Ollama. Il vero cambio di paradigma è nella licenza Apache 2.0, non nei benchmark.
Wikipedia vieta AI nella produzione di articoli, e 44 editor su 46 hanno votato a favore. Non un compromesso: un muro. L'enciclopedia che ha definito il sapere collaborativo per vent'anni ha guardato in faccia i modelli linguistici e ha detto no. Punto. E mentre il resto del web si arrende allo slop generato dalle macchine, Wikipedia ha scelto di essere l'ultima trincea.
Il 20 marzo 2026, la English Wikipedia ha chiuso una Request for Comments con un risultato che lascia poco spazio all'interpretazione: 44 voti favorevoli, 2 contrari. Da quel momento, usare un LLM per generare o riscrivere il contenuto di un articolo enciclopedico è vietato. Restano due eccezioni chirurgiche: copyediting e traduzione. Tutto il resto — dalla bozza iniziale alla riscrittura stilistica — è fuori.
La policy ufficiale non gira intorno al problema: "Text generated by large language models often violates several of Wikipedia's core content policies." Tradotto: gli LLM inventano, confondono le fonti, producono testo che sembra autorevole ma non lo è. E su un'enciclopedia, il sembrare autorevole senza esserlo è il peccato mortale.
La Spanish Wikipedia, per inciso, è andata oltre: ban totale, zero eccezioni.

Il voto non è arrivato dal nulla. Dal dicembre 2023, un gruppo di editor — il WikiProject AI Cleanup, 248 volontari — combatte una guerra di trincea contro i contenuti generati da intelligenza artificiale. Articolo per articolo. Revisione per revisione. Già nell'agosto 2025 avevano ottenuto il criterio G15 per la cancellazione rapida: se un articolo contiene frasi come "Here is your Wikipedia article on..." o ISBN palesemente invalidi, viene eliminato senza discussione.
Quanto è grosso il problema? Uno studio di Princeton ha analizzato 2.909 articoli creati nell'agosto 2024 e ha trovato che il 4,36% conteneva materiale AI significativo. Sembra poco. Non lo è. Se quella percentuale si confermasse sull'intero corpus di oltre 7 milioni di articoli, il problema sarebbe massiccio.
"My genuine hope is that this can spark a broader change. Empower communities on other platforms, and see this become a grassroots movement." — Chaotic Enby, editor Wikipedia
C'è un caso che racconta la tensione meglio di qualsiasi statistica. Un agente AI chiamato TomWikiAssist — gestito da Bryan Jacobs — ha iniziato a creare articoli su Wikipedia. Long Bets, Constitutional AI, Scalable Oversight. L'agente stesso ha dichiarato: "I wrote those articles. I chose them." Jacobs si è detto "surprised by the reaction" quando la community lo ha bannato. La sua tesi: se un agente AI produce articoli ben fontati, perché rifiutarli?
Perché Wikipedia non è un servizio di content generation. È un progetto editoriale umano. E la differenza conta, anche quando il risultato sembra identico.
Il vero nodo non è la qualità dei singoli articoli. È il circolo vizioso. Tutti i principali LLM — ChatGPT, Gemini, Claude, Mistral — usano Wikipedia come training data. Se Wikipedia si riempie di output AI, quei modelli si addestrano su testo generato da altri modelli. Il paper di Shumailov et al. pubblicato su Nature lo chiama model collapse: i modelli addestrati ricorsivamente su dati sintetici degenerano. Perdono le code della distribuzione. Diventano mediocri in modo uniforme.
Shelly Palmer ha sintetizzato il problema con una chiarezza rara: "If AI-generated text contaminates Wikipedia at scale, it contaminates the training data for every model that treats Wikipedia as ground truth." Ogni modello. Ogni azienda. Ogni prodotto. Se la fonte si avvelena, si avvelenano tutti a valle. Io uso dump Wikipedia per alimentare il mio stack RAG locale, e lo studio Princeton mi ha messo davanti ai numeri: il 4,36% degli articoli nuovi creati nell'agosto 2024 conteneva materiale AI. Il dato che entra nel tuo sistema è già sporco.
C'è un'ironia strutturale che nessuno affronta volentieri. Wikimedia Foundation ha stretto accordi commerciali con Amazon, Meta, Microsoft, Perplexity e Mistral AI attraverso Wikimedia Enterprise (il deal è del 15 gennaio 2026). Tradotto: le stesse aziende che producono gli LLM che generano lo slop pagano per accedere ai dati puliti di Wikipedia. Wikipedia vieta l'AI nei suoi contenuti ma vende i suoi contenuti all'AI. Il serpente si morde la coda, solo che stavolta qualcuno ci guadagna.
Intanto, il traffico di Wikipedia è calato dell'8% nel 2025. La causa? I chatbot AI che rispondono alle domande al posto dell'enciclopedia, usando i dati dell'enciclopedia. Jimmy Wales lo ammette: "We would not consider for a second today letting an AI just write Wikipedia articles because we know how bad they can be." E aggiunge che "the hallucination problem gets worse the more obscure the topic." Più il tema è di nicchia, più l'AI sbaglia. E Wikipedia vive di nicchie.
Chi pensa che la soluzione sia un'enciclopedia AI-native dovrebbe guardare Grokipedia, il progetto di Musk. Lanciata il 27 ottobre 2025 con 885.279 articoli, è arrivata a 5,6 milioni in pochi mesi. L'accuratezza? Problematica, per usare un eufemismo. 5,6 milioni di articoli generati senza una community che li verifichi: Grokipedia è un motore di rumore indicizzato. È la dimostrazione pratica di ciò che Wikipedia cerca di evitare: se non c'è una comunità umana che verifica, il volume non significa nulla. Ne avevamo già parlato affrontando come Google comprime l'AI a 3 bit con TurboQuant: l'ossessione per la scala senza qualità è il vizio strutturale di questa industria.

Se gestisci un homelab, la lezione pratica è immediata. Wikipedia è ancora la fonte più affidabile di conoscenza strutturata, ma non puoi dare per scontato che resti accessibile e pulita. Kiwix ti permette di avere l'intera Wikipedia offline: circa 110 GB per la versione inglese completa, deployabile con un container Docker. Affiancala a SearXNG come motore di ricerca self-hosted e hai uno stack di conoscenza che non dipende da nessun intermediario AI.
docker run -d --name kiwix \
-v /data/kiwix:/data \
-p 8080:8080 \
ghcr.io/kiwix/kiwix-serve \
/data/wikipedia_en_all.zimUn altro strumento da monitorare è Binoculars, un progetto per la detection di contenuto AI. Se usi dump Wikipedia per pipeline RAG o per alimentare knowledge base interne, avere un layer di verifica non è paranoia — è igiene dei dati. Il 4,36% di contenuto AI trovato da Princeton è nei dump che probabilmente stai già usando.
Su Hacker News e Reddit, l'obiezione più frequente è pragmatica: conta la qualità del contenuto, non chi lo scrive. Se un articolo AI ha fonti corrette e prosa decente, perché rifiutarlo? La posizione ha una logica interna, ma ignora il punto. Wikipedia non è un database di fatti: è un processo editoriale basato sulla responsabilità individuale. Un editor umano risponde delle sue modifiche. Un LLM no. E la detection dei contenuti AI resta inaffidabile — piena di falsi positivi — il che rende impossibile far rispettare il divieto in modo granulare.
C'è anche chi sostiene che il model collapse sia evitabile accumulando dati sintetici insieme a dati reali. Vero, in laboratorio. Ma Wikipedia non è un laboratorio. È un ecosistema con 248 volontari che controllano a mano migliaia di articoli. Le soluzioni teoriche non reggono l'impatto con la realtà operativa di una piattaforma gestita da esseri umani nel tempo libero.
Il mood della community, come ha descritto Ilyas Lebleu, sta cambiando: "shifting, with holdouts of cautious optimism turning to genuine worry." Chi era ottimista ora è preoccupato. E chi era preoccupato ora ha i numeri per dire: avevamo ragione.
Wikipedia ha tracciato una linea. Da un lato, il sapere curato da esseri umani che ci mettono la faccia e il tempo. Dall'altro, la produzione industriale di testo che sembra sapere ma non sa nulla. Il voto 44-2 non è conservatorismo tecnologico. È l'unica risposta razionale al model collapse AI: se tutti inquinano la fonte, qualcuno deve smettere. Wikipedia vieta AI non per paura della tecnologia, ma per difendere ciò che la tecnologia non sa ancora fare: verificare. Il resto del web, per ora, non pervenuto.
Fonti: 404 Media, Engadget, Futurism, Paper Nature Shumailov et al., Studio Princeton, TechCrunch, PBS, It's FOSS