22 marzo 2026 · 8 min lettura
Intelligenza ArtificialeOracle licenzia 18% del personale per finanziare $50 miliardi in AI. In Italia il tribunale di Roma legittima il licenziamento in contesto AI. Cosa significa per chi gestisce infrastruttura in autonomia.
Intelligenza Artificialeduck.ai promette chat AI senza tracciamento: nessun log, nessun IP, accordi con Anthropic e OpenAI. Ma DuckDuckGo ha già tradito questa fiducia una volta.

Iscriviti alla newsletter per ricevere i migliori articoli direttamente nella tua inbox.
La cloud sovranità europea è sovereignty washing: i datacenter sono in UE, le chiavi restano a Seattle. Gaia-X è fallito, NIS2 stringe. Il homelab risponde.
250.000 stelle su GitHub in sessanta giorni. React ce ne ha messi tredici, di anni, per arrivare a 243.000. Il progetto si chiama OpenClaw, e no, non è un modello AI. Non ha addestrato niente, non ha consumato megawatt di GPU, non ha raccolto miliardi in venture capital. È un orchestratore: prende modelli che già esistono — DeepSeek, Qwen, GPT, Claude, Llama — e li trasforma in agenti autonomi che rispondono su WhatsApp, Telegram, Slack, Discord.
L'ho installato. Ci ho giocato. E vi racconto sia l'epifania che i brividi.
La storia è talmente assurda che sembra inventata. Peter Steinberger, sviluppatore austriaco, a novembre 2025 si siede davanti al Mac e decide che gli dà fastidio non avere un modo semplice per collegare modelli AI diversi a un bot su Telegram. Non scrive un business plan. Non cerca investitori. Fa la cosa più pericolosamente efficace che uno sviluppatore possa fare: si fa generare il prototipo dall'AI stessa.
Il progetto nasce come Clawdbot. Anthropic contesta il trademark — comprensibilmente. Diventa Moltbot. Poi OpenClaw.
Il 14 febbraio 2026, San Valentino, Steinberger entra in OpenAI. Sam Altman lo definisce "un genio con idee straordinarie su come agenti molto intelligenti possano interagire tra loro". Sessanta giorni dopo il lancio pubblico, il repo ha 250.829 stelle, 48.274 fork, 1.075 contributor. Il giorno del lancio: 9.000 stelle. In 72 ore: 60.000.
Jensen Huang al GTC 2026 lo chiama "il sistema operativo dell'AI personale" e annuncia NemoClaw, lo stack enterprise Nvidia costruito sopra OpenClaw.
"OpenClaw ha spalancato la prossima frontiera dell'AI a chiunque ed è il progetto open source con la crescita più veloce nella storia." — Jensen Huang, GTC 2026
Jensen Huang non fa complimenti gratis. Quando il CEO di Nvidia dice che un progetto è "definitely the next ChatGPT", o ci crede davvero o sta preparando il terreno per vendere GPU. Probabilmente entrambe le cose.
Mettiamo in chiaro una cosa: OpenClaw non compete con GPT-5 o Claude. È lo strato che sta sopra — l'orchestratore che prende un modello qualsiasi, locale o remoto, e lo trasforma in un agente autonomo capace di eseguire task, chiamare API, interagire via chat.
Si collega a qualsiasi LLM tramite Ollama per il self-hosting o API cloud per chi preferisce. Gestisce canali multipli — WhatsApp, Telegram, Slack, Discord, webhook generici — attraverso un sistema a plugin chiamato "skill", con registry pubblico. E su quel registry torneremo, perché è lì che iniziano i guai. Licenza MIT: nessun lock-in, nessun paywall, nessuna telemetria obbligatoria.
L'idea di fondo: invece di pagare un abbonamento mensile per un chatbot chiuso, ti installi OpenClaw, colleghi il modello che vuoi (anche locale, anche gratuito), e hai un agente AI che gira sulla tua macchina, sotto il tuo controllo, con le tue credenziali.
Sotto il tuo controllo.
Ecco, su questa frase ci torniamo.

CVE-2026-25253. Severità 8.8 su 10. Remote Code Execution via WebSocket hijacking. Tradotto: un attaccante poteva prendere il controllo del tuo agente OpenClaw, eseguire codice sulla tua macchina, con le tue credenziali. Non un esercizio accademico: 135.000 istanze esposte al momento della scoperta.
Microsoft Security Blog ha scritto una frase che dovrebbe togliere il sonno a chiunque gestisca infrastruttura in casa: "Gli agenti self-hosted eseguono codice con credenziali persistenti e processano input non attendibili. Questo crea un doppio rischio nella supply chain." Chi ha familiarità con gli attacchi supply chain nell'ecosistema AI sa che non è allarmismo — è uno schema ricorrente e documentato.
Il confronto con Docker viene naturale. Anche Docker v29 ha rotto l'ecosistema homelab con cambiamenti che sembravano innocui. La differenza: un container Docker mal configurato espone un servizio. Un agente OpenClaw mal configurato espone tutto — email, API key, accesso SSH, credenziali bancarie se gliele avete date. L'agente non è un processo isolato. È un processo con permessi.
Account GitHub falsi che promettono $5.000 in token "CLAW" inesistenti. Campagne di phishing che sfruttano la corsa all'oro per rubare credenziali. Si parla di $30 milioni sottratti, cifra che gira sui social ma che nessuno ha confermato. Quello che è documentato è il meccanismo: la stessa popolarità che rende OpenClaw virale lo rende un vettore di attacco perfetto. Utenti entusiasti che installano skill senza leggere il codice, che danno permessi root al primo tutorial trovato su Reddit.
Se pensate che l'hype sia solo occidentale, non avete visto cosa è successo in Cina. Il fenomeno si chiama "yang longxia" — letteralmente "alleva un'aragosta" — ed è diventato virale nel senso più fisico del termine: 1.000 persone in fila alla sede Tencent di Shenzhen per vedere una demo live.
File. Fisiche. Per un software open source.
JD.com ha iniziato a vendere il servizio di installazione di OpenClaw a 399 yuan (circa 58 dollari). Paghi, un tecnico ti configura l'agente sul telefono. I governi locali di Shenzhen offrono fino a 10 milioni di yuan — 1,4 milioni di dollari — a chi fonda "one-person companies" basate su agenti AI. MiniMax, l'azienda che ha integrato OpenClaw per prima, ha visto il titolo salire del 600% dall'IPO.

Un software nato come progetto personale di un austriaco finisce per scatenare code chilometriche nella patria di WeChat e Alibaba. L'ironia è perfetta, e non ha bisogno di commento.
Nessun sito italiano ha coperto questo angolo, e per chi legge homelabz è probabilmente il più rilevante. OpenClaw è il primo progetto AI mainstream pensato per girare in locale — non come opzione secondaria, ma come architettura primaria.
Il setup base: un Mac Mini M4 da 16GB (circa 599 dollari), Ollama per far girare modelli locali, Tailscale per l'accesso remoto sicuro. Consumo a idle: 7 watt. Tradotto in bolletta: 1-2 euro al mese. Per chi viene dal mondo dei server rack, è una cifra che fa ridere — in senso buono.
Ci ho perso un paio di sere (e qui parlo per esperienza diretta): la qualità dell'agente dipende quasi interamente dal modello che ci metti sotto. Con DeepSeek R1 su Ollama le risposte sono sorprendentemente buone per task strutturati — riassunti, automazioni, query a database. Per il ragionamento complesso serve ancora un modello cloud, ma per l'80% dei casi d'uso quotidiani un modello locale da 7B parametri basta e avanza. Il costo marginale per query? Zero. Già pagato con la corrente.
OpenClaw dimostra una tesi scomoda per l'industria AI: i miliardi spesi da OpenAI, Anthropic e Google per i modelli proprietari stanno diventando meno rilevanti. Non perché i modelli siano cattivi — Claude e GPT-4o restano superiori per il ragionamento profondo — ma perché un singolo sviluppatore ha reso l'intelligenza del modello un pezzo intercambiabile. Il valore si è spostato dall'intelligenza all'orchestrazione.
Se un developer con un Mac Mini e DeepSeek fa girare agenti AI che risolvono problemi reali a 1-2 euro al mese, perché pagare 20 euro al mese per ChatGPT Pro? Per ora, perché i modelli cloud vincono sui task complessi. Ma la fuga dagli abbonamenti AI che abbiamo documentato dice che molti utenti hanno già deciso che quella differenza non vale il prezzo.
Steinberger ha detto una cosa che mi è rimasta in testa: "Quello che voglio è cambiare il mondo, non costruire una grande azienda." Poi è entrato in OpenAI. L'ironia non ha bisogno di commento.
La commoditizzazione dell'AI non è una minaccia futura. È già qui. E la sta guidando un progetto con il 12% delle skill infette da malware.
L'industria sta correndo verso gli agenti autonomi senza aver risolto la sicurezza. Con i chatbot tradizionali il rischio massimo era una risposta sbagliata, un'allucinazione, un contenuto inappropriato. Con gli agenti il rischio è operativo: un agente con le tue credenziali che esegue istruzioni di un attaccante non è una fuga di dati. È un furto con delega.
E noi homelabber siamo in prima fila. Perché il self-hosting, che è il nostro superpotere, in questo caso è anche il nostro tallone d'Achille. Nessun SOC aziendale a monitorare le connessioni. Nessun team di sicurezza a validare le skill. Solo noi, il nostro firewall, e la speranza che l'autore della skill che abbiamo installato non sia un criminale.
L'ho installato, l'ho fatto funzionare, e la sera stessa ho controllato tre volte che le porte del firewall fossero chiuse. Il codice è aperto, le vulnerabilità sono documentate, le skill infette sono contate. Sappiamo tutto. E lo installiamo lo stesso.
Forse il vero test dell'intelligenza artificiale non è quanto è smart il modello. È quanto siamo disposti a dargli le chiavi di casa senza cambiare la serratura.
Fonti: CNBC, NVIDIA Newsroom, Fortune, Microsoft Security Blog, CoinDesk