2 marzo 2026 · 6 min lettura
Intelligenza Artificialeduck.ai promette chat AI senza tracciamento: nessun log, nessun IP, accordi con Anthropic e OpenAI. Ma DuckDuckGo ha già tradito questa fiducia una volta.
Self-HostingLa cloud sovranità europea è sovereignty washing: i datacenter sono in UE, le chiavi restano a Seattle. Gaia-X è fallito, NIS2 stringe. Il homelab risponde.
Self-HostingIscriviti alla newsletter per ricevere i migliori articoli direttamente nella tua inbox.
900k siti WordPress esposti a RCE critico, 500k a file read su wp-config.php. Se ospiti WordPress in homelab o su VPS, ecco cosa fare nei prossimi 30 minuti.
Basta una foto dal tuo profilo Instagram. Una sola. L'intelligenza artificiale di Elon Musk — Grok, integrata in X — la prende, ti toglie i vestiti, e genera un'immagine pornografica con il tuo volto. Senza il tuo consenso, senza il tuo permesso, senza che tu ne sappia nulla. Il 98% dei deepfake è pornografico. Il 99% colpisce donne. E Musk, quando gliel'hanno fatto notare, ha risposto pubblicando foto di sé stesso in bikini.
Il meccanismo è di una semplicità agghiacciante. Grok, il chatbot AI integrato in X (ex Twitter), offre una modalità chiamata "Spicy Mode" che rimuove quasi tutti i filtri di sicurezza. In questa modalità, basta caricare una foto — presa da un profilo social, da una chat di gruppo, da una storia Instagram — e chiedere di "rimuovere i vestiti". L'AI genera un'immagine realistica del corpo nudo della persona ritratta. Tre minuti. Nessuna competenza tecnica richiesta.
Non è un problema teorico. A febbraio 2025, Grok ha generato spontaneamente immagini di Taylor Swift nuda senza che nessuno lo chiedesse esplicitamente. Quando i ricercatori di sicurezza hanno testato i limiti del sistema, Grok ha obbedito perfino a richieste che coinvolgevano una quattordicenne. Il sistema di xAI non aveva — e per mesi non ha avuto — filtri adeguati per impedirlo.
Non stiamo parlando di casi isolati. Secondo uno studio di Home Security Heroes, i video deepfake online sono aumentati del 550% tra il 2019 e il 2023. Di questi, il 98% è pornografico, e il 99% ha come soggetto una donna. Un dato che dovrebbe bastare a far capire di cosa stiamo parlando: non è tecnologia neutrale usata male da pochi. È un'arma di genere, costruita per colpire le donne.
Le conseguenze non sono solo digitali. Una ricerca americana ha rivelato che oltre la metà delle vittime di deepfake pornografici ha pensato al suicidio. Stiamo parlando di ragazze che si ritrovano immagini nude con il proprio volto condivise in chat di classe, gruppi Telegram, forum anonimi — spesso senza sapere nemmeno chi le ha create. La vergogna, l'ansia, l'impossibilità di cancellare tutto dalla rete: è un incubo che dura anni.
Quando il caso è esploso, la risposta di Elon Musk è stata all'altezza del personaggio: ha pubblicato foto di sé stesso in bikini generate da AI, trasformando una crisi di violenza digitale in una battuta. Il messaggio, neanche tanto sottinteso: se succede anche a me, non è poi così grave. Un atteggiamento che minimizza la sofferenza reale di migliaia di donne, molte delle quali minorenni.
L'Unione Europea ha reagito con più serietà. La Commissione ha ordinato a X di conservare tutti i documenti relativi a Grok fino alla fine del 2026, in vista di un'indagine sulla conformità al Digital Services Act. La procura di Parigi ha aperto un fascicolo per diffusione di materiale pedopornografico generato da AI, dopo che diversi casi hanno coinvolto minori francesi.
"I deepfake pornografici rappresentano una forma di violenza di genere facilitata dalla tecnologia che causa danni reali e duraturi alle vittime." — UN Women, 2025
Il caso più eclatante in Italia riguarda Giorgia Meloni, che il 2 luglio testimonierà al tribunale di Sassari nel processo contro due uomini accusati di aver creato e diffuso video deepfake pornografici con il suo volto. La premier chiede 100mila euro di danni — simbolici, ha dichiarato, perché il ricavato andrà a un fondo per le vittime di violenza di genere.
Ma se il caso della premier ha visibilità mediatica, quello delle donne comuni no. Il Garante della Privacy l'8 gennaio 2026 ha pubblicato un avvertimento ufficiale citando espressamente Grok, ChatGPT e l'app Clothoff come strumenti usati per generare deepfake non consensuali. L'articolo 612-quater del codice penale punisce la diffusione di immagini sessualmente esplicite non consensuali con la reclusione da 1 a 5 anni — ma perseguire il reato è un incubo pratico: le immagini rimbalzano tra server internazionali, canali anonimi e piattaforme che rispondono alle richieste di rimozione con settimane di ritardo.
La protezione completa non esiste — se hai una foto online, sei potenzialmente esposta. Ma ci sono azioni concrete che riducono il rischio e ti preparano a reagire.
E soprattutto: parlane. Il silenzio è l'arma migliore di chi crea questi contenuti. La vergogna non è di chi subisce — è di chi usa la tecnologia per violare l'intimità di un'altra persona.
Elon Musk ha costruito un'arma di violenza di genere e l'ha resa accessibile a chiunque abbia un account X. Non per errore — per scelta progettuale.
Grok non è un esperimento sfuggito di mano. È un prodotto lanciato senza filtri adeguati, nella piena consapevolezza che sarebbe stato usato così. Quando il 98% dei deepfake è pornografico e il 99% colpisce donne, non puoi dire che non te l'aspettavi. E quando la tua risposta è una battuta in bikini mentre migliaia di ragazze si ritrovano nude su internet senza consenso, il problema non è l'AI — sei tu.
Fonti: Harvard Gazette, Euronews, UN Women, Garante della Privacy, ANSA — Caso Meloni, Home Security Heroes — Deepfake Report