24 marzo 2026 · 7 min lettura
Intelligenza ArtificialeOracle licenzia 18% del personale per finanziare $50 miliardi in AI. In Italia il tribunale di Roma legittima il licenziamento in contesto AI. Cosa significa per chi gestisce infrastruttura in autonomia.
Intelligenza Artificialeduck.ai promette chat AI senza tracciamento: nessun log, nessun IP, accordi con Anthropic e OpenAI. Ma DuckDuckGo ha già tradito questa fiducia una volta.

Iscriviti alla newsletter per ricevere i migliori articoli direttamente nella tua inbox.
La cloud sovranità europea è sovereignty washing: i datacenter sono in UE, le chiavi restano a Seattle. Gaia-X è fallito, NIS2 stringe. Il homelab risponde.
L’82% delle aziende usa Kubernetes in produzione. Solo il 7% fa deploy di workload AI ogni giorno. Tra questi due numeri, emersi dal CNCF Survey 2025, si apre una voragine che racconta più di qualsiasi keynote. E proprio in quella voragine, KubeCon EU 2026 ad Amsterdam ha provato a costruire un ponte — fatto di CRD per agenti AI, actor model resilienti e sandbox con isolamento hardware. La domanda che nessuno sul palco ha posto esplicitamente: kubernetes agenti AI è il prossimo salto evolutivo dell’infrastruttura, o l’ennesimo ciclo di hype enterprise che lascerà indietro chi non ha un team platform di 15 persone?
Il pezzo forte della settimana è Agent Sandbox, un CRD nato sotto SIG Apps che introduce un concetto preciso: workload stateful, singleton, isolati, progettati per agenti AI che mantengono stato tra le chiamate. Non container generici riciclati — risorse Kubernetes native con gVisor e Kata Containers per l’isolamento, e un meccanismo di WarmPool che promette cold start sotto il secondo. Il progetto è a v0.2.1, 1.500 stelle su GitHub, 44 contributor, licenza Apache-2.0. Autori del post ufficiale su kubernetes.io: Janet Kuo e Justin Santa Barbara, entrambi dal team GKE di Google.
L’architettura è interessante sul serio. Se avete seguito il caso di AWS Bedrock e la sandbox che non isolava, sapete che il problema dell’isolamento degli agenti non è teorico — è un vettore di attacco attivo. Agent Sandbox parte dal presupposto opposto: l’agente è codice non fidato, e il runtime deve trattarlo come tale.

Stesso giorno, altra sponda: Dapr Agents v1.0 GA, annunciato il 23 marzo dalla CNCF. Framework Python costruito su Dapr che porta l’actor model agli agenti AI — scale-to-zero in millisecondi, stato persistente su oltre 30 database, coordinamento multi-agente con identità SPIFFE. Co-sviluppato con NVIDIA, già in produzione da ZEISS Vision Care. 638 stelle GitHub, Apache-2.0.
Dapr Agents fornisce l’infrastruttura che tiene gli agenti affidabili attraverso fallimenti, timeout e crash.
Il dettaglio che conta: Dapr Agents è pip-installabile. Non richiede Kubernetes. Funziona su un singolo nodo, su Docker, su un portatile. Questa è una scelta di design deliberata che lo distingue da Agent Sandbox — e che dice molto su chi è il vero target di ciascun progetto.
Mettiamo i dati in fila, perché i numeri del CNCF Survey 2025 raccontano una storia che le keynote preferiscono sfumare.
L’82% di adozione contro il 7% di deploy AI giornaliero non è un gap — è un abisso.
Furrier ha ragione. E il 47% che cita i “cambiamenti culturali” come barriera principale conferma il sospetto: il problema non è tecnologico. L’infrastruttura c’è. L’esecuzione manca. E non perché manchino i CRD.
Ho visto questo film. Kubernetes assorbe ogni nuovo paradigma con la stessa dinamica: annunci roboanti a KubeCon, CRD dedicati, progetti sandbox CNCF, adozione enterprise lenta, e alla fine sopravvive chi risolve un problema reale. Knative (2016-2018) è ancora lì con il 27% di adoption — non dominante, ma vivo. Kubeflow (2018-2020) è vivo ma la sua complessità è leggendaria. K3s per edge e IoT (2020-2023) ha trovato la sua nicchia e ci è rimasto — chi ha un homelab lo sa bene.
Ora tocca agli agenti AI.
Chi ha letto cosa è successo con Docker v29 che rompe metà degli strumenti homelab sa che la complessità infrastrutturale non è gratis. Ogni layer aggiunto è un layer che si rompe.
Il segnale forte di KubeCon 2026 non è un singolo progetto — è la convergenza. NVIDIA dona il DRA Driver per GPU alla CNCF e rilascia KAI Scheduler come progetto Sandbox. Google apre il driver DRA per TPU. IBM presenta Agentic Networking, un’estensione della Gateway API per traffico tra agenti con guardrail contro prompt injection e PII exfiltration. Microsoft annuncia AI Runway e porta HolmesGPT nel CNCF Sandbox. SUSE lancia Rancher Prime “Liz” con 5 agenti specializzati. Komodor presenta Klaudia con 50+ agenti SRE.
La portata della rivoluzione AI è dello stesso ordine di grandezza di internet. Potrebbe essere sovrastimata? Sì. Ho visto molte cose, ma questa ha vera presa.
Quando Tim Hockin ammette che potrebbe essere sovrastimata, nella stessa frase in cui dice che ha vera presa, state ascoltando l’onestà intellettuale di chi ha costruito la piattaforma. Prendetelo come calibrazione.
Torniamo con i piedi per terra. Agent Sandbox è un CRD standard — funziona su K3s. Dapr Agents si installa con pip. Ollama più K3s più Agent Sandbox girano su una macchina con 32GB di RAM e una GPU consumer per modelli da 7-13 miliardi di parametri. Tecnicamente, il setup è alla portata di chi già gestisce un homelab.
Tecnicamente.
Perché nella pratica, il GPU scheduling via DRA non è banale, il WarmPool mangia RAM a riposo, e il multi-agente serio richiede risorse che un singolo nodo fatica a fornire. Se vi interessa il tema della qualità degli strumenti AI che finiscono nei nostri homelab, vale la pena leggere cosa succede quando l’AI slop contamina l’ecosistema open source — il problema non è solo infrastrutturale.

Un dettaglio che a KubeCon EU non è passato inosservato: il 70% del mercato cloud europeo è controllato da tre hyperscaler americani. Il 79% degli utenti Kubernetes usa managed services — EKS, GKE, AKS. OVHcloud entra tra le piattaforme AI certificate, e l’Open Sovereign Cloud Day è stato co-locato con la conferenza. Ma la CISPE continua ad accusare gli hyperscaler di “sovereignty washing”, e il dato di fondo non cambia: l’infrastruttura per gli agenti AI, per ora, la controllano altri.
KubeCon EU 2026 ha reso ufficiale qualcosa che si sentiva da mesi: Kubernetes vuole essere il runtime degli agenti AI. Agent Sandbox, Dapr Agents GA, DRA per GPU, networking agentico — i pezzi ci sono. Ma l’82% di adozione K8s contro il 7% di deploy AI giornaliero resta lì, testardo, a ricordarci che avere l’infrastruttura non significa saperla usare. Il gap tra kubernetes agenti AI come proposta tecnica e la realtà operativa delle aziende — italiane e non — è il vero spazio da osservare. E nessuno, nemmeno Tim Hockin, sa dire con certezza da che parte si chiuderà.
Fonti: Running Agents on K8s with Agent Sandbox (kubernetes.io) · Dapr Agents v1.0 GA (CNCF) · CNCF Annual Survey 2025 · KubeCon EU 2026: The AI Execution Gap (SiliconANGLE) · NVIDIA at KubeCon 2026 · Agent Sandbox GitHub