25 marzo 2026 · 6 min lettura
Intelligenza Artificialeduck.ai promette chat AI senza tracciamento: nessun log, nessun IP, accordi con Anthropic e OpenAI. Ma DuckDuckGo ha già tradito questa fiducia una volta.
Self-HostingLa cloud sovranità europea è sovereignty washing: i datacenter sono in UE, le chiavi restano a Seattle. Gaia-X è fallito, NIS2 stringe. Il homelab risponde.
Self-HostingIscriviti alla newsletter per ricevere i migliori articoli direttamente nella tua inbox.
900k siti WordPress esposti a RCE critico, 500k a file read su wp-config.php. Se ospiti WordPress in homelab o su VPS, ecco cosa fare nei prossimi 30 minuti.
Baudr è il caso di studio perfetto per capire perché il vibe coding applicato a dati personali di un milione di persone è negligenza, non innovazione.
Il 14 marzo 2026, Grenbaud — Simone Buratti, streamer italiano con 1.077.201 follower su Twitch — lancia in diretta Baudr, un social network di dating costruito interamente con l'AI. Costo dichiarato durante la live: circa 40 euro. Tempo prima che venisse giù tutto: poche ore. Il caso Baudr Grenbaud è già diventato il simbolo di tutto quello che può andare storto quando il vibe coding incontra i dati personali.
Baudr era un social network stile dating, vietato agli under 18 (con verifica tramite sola autocertificazione). Stack tecnico: React + Vite sul frontend, Node.js sul backend, Supabase come database, Socket.io per la messaggistica. L'ha costruito Grenbaud usando strumenti AI, senza — come dimostrano le analisi tecniche successive — alcuna revisione di sicurezza degna di questo nome.
I dati raccolti agli utenti: Twitch ID, foto personali (fino a tre), nome, età, città, genere, segno zodiacale, hobby, musica preferita, canali YouTube e Twitch, username Instagram, messaggi privati, punteggi di compatibilità generati dall'AI. Dati sensibili, personali, aggregati in un profilo molto dettagliato. Conservati su un'infrastruttura con zero misure di sicurezza lato server.

Il ricercatore di sicurezza Pasquale Pillitteri ha documentato 9 vulnerabilità critiche. La più banale e devastante: il pannello /admin era accessibile a chiunque. Nessuna autenticazione, nessun controllo di ruolo, nessuna restrizione IP. Una vulnerabilità da primo capitolo di qualsiasi manuale, non da piattaforme lanciate in diretta a un milione di persone.
Non è un bug. È l'assenza di cultura.
Il bundle JavaScript frontend pesava 606 KB compressi (2.15 MB decompressi), senza code splitting. Al suo interno: tutti gli endpoint API dell'applicazione, visibili in chiaro. La modalità manutenzione era bypassabile tramite sessionStorage — bastava aprire la console del browser e scrivere due righe. La sicurezza era implementata esclusivamente lato frontend. Chiunque avesse aperto gli strumenti di sviluppo poteva aggirare qualsiasi controllo.
Le conseguenze: cancellazione massiva di account (incluso quello di Grenbaud stesso), download di dati personali, invio di messaggi fraudolenti a nome di altri.
Alle ragazze a cui ho scritto, se avete ricevuto messaggi strani da me, non ero io. — Grenbaud, dopo il breach
Nei termini e condizioni iniziali di Baudr c'era già scritto: "la sicurezza del database non può essere garantita al 100%". Una clausola che, quando raccogli dati personali sensibili, non ha valore come scudo legale. Il GDPR Art. 32 impone misure tecniche adeguate. Art. 33 impone notifica al Garante entro 72 ore dal breach.
GRENBAUD S.R.L. (P.IVA 04414280984) è una società registrata — non uno studente che sperimenta in locale. Le sanzioni arrivano fino a 20 milioni di euro o il 4% del fatturato globale. Al momento della stesura di questo articolo, non risulta che sia stata inviata alcuna notifica al Garante Privacy.
Baudr non è un incidente isolato. È un pattern. A febbraio 2026, Moltbook — social "agent-first" il cui fondatore aveva dichiarato "non ho scritto una singola riga di codice" — aveva esposto API key Supabase hardcodata nel JavaScript client-side, zero Row Level Security, 1.5 milioni di token API, 35.000 email e messaggi privati non cifrati. Stesso stack, stesso approccio, stesso risultato.
I numeri sono brutali: il 53% dei team che hanno deployato codice AI ha scoperto falle post-rilascio (Autonoma). Escape.tech ha analizzato 5.600 app e trovato più di 2.000 vulnerabilità, 400 credenziali in chiaro, 175 database con dati personali pubblicamente accessibili. Il 45% del codice generato da AI introduce vulnerabilità OWASP Top 10. L'86% fallisce le difese XSS di base secondo Georgetown CSET.
Uno studio del dicembre 2025 su 15 app testate con 5 diversi AI coding tools ha trovato 69 vulnerabilità — SSRF presente nel 100% delle app generate, zero CSRF protection. Supabase merita una nota a parte: il 10.3% delle app costruite con Lovable ha vulnerabilità critiche nelle Row Level Security (170 su 1.645). È lo stesso database usato da Baudr. Il codice AI è 2.74 volte più probabile che introduca XSS rispetto a quello scritto a mano (CodeRabbit). Il social network hackerato di Grenbaud non è un'eccezione — è la regola.
Non è la prima volta che emergono rischi gravi legati all'AI nello sviluppo software. Ne avevamo parlato analizzando IDEsaster, i 24 CVE trovati negli AI IDE più usati: il problema non è solo il codice che viene generato, ma gli strumenti stessi. E ne avevamo anticipato la traiettoria con il problema dell'AI slop nell'open source: quando la velocità diventa l'unico metro, la qualità e la sicurezza vengono sacrificate sistematicamente.
"Vibe coding" è un termine coniato da Andrej Karpathy a febbraio 2025. Nel 2026 Karpathy stesso ha preso le distanze, parlando di "agentic engineering" come paradigma successivo. Il mercato intanto corre: Cursor è passato da 100 milioni di dollari di ARR nel 2024 a 1.2 miliardi nel 2025, valuation 29.3 miliardi. Simon Willison ha provato a distinguere: "Se un LLM ha scritto ogni riga ma hai revisionato, testato e capito tutto, non è vibe coding — è usare un LLM come assistente di battitura."
Distinzione corretta, che però non si applica a Baudr. Lì non c'è stata revisione. Non c'è stato testing di sicurezza. C'è stata una live su Twitch e un deploy.
L'EU AI Act entra in piena operatività ad agosto 2026 e impone obblighi di documentazione e tracciabilità dei sistemi AI. Il vibe coding — per definizione — non produce quella tracciabilità. Il Digital Services Act imponeva a Baudr verifica reale degli utenti e meccanismi di moderazione: niente di tutto questo era implementato. La piattaforma era vietata agli under 18 ma verificava solo tramite autocertificazione — con un pubblico di Twitch notoriamente giovane.
Grenbaud non è stupido. Ha costruito qualcosa che ha attirato migliaia di utenti in poche ore — ci vuole una capacità di community building che la maggior parte dei developer non ha. Ma il modello "costruisco con l'AI per 40 euro e lancio live" è incompatibile con la raccolta di dati personali sensibili soggetta a GDPR. Non perché l'AI sia incapace, ma perché la sicurezza richiede competenza specifica che nessun LLM oggi sostituisce.
Il vibe coding andrebbe vietato per applicazioni che trattano dati personali. Esattamente come non puoi aprire uno studio medico senza laurea, non dovresti poter lanciare una piattaforma con i dati di migliaia di persone senza una revisione di sicurezza. Baudr Grenbaud è la dimostrazione.
Fonti: Pasquale Pillitteri — analisi tecnica, Charlotte Matteini — analisi legale, Autonoma — vibe coding security + analisi Escape.tech, Georgetown CSET — XSS AI code, CodeRabbit — AI code report, Wiz — Moltbook breach