L’evoluzione dell’intelligenza artificiale sta introducendo nuove classi di rischio informatico ancora non pienamente affrontate dai modelli di sicurezza tradizionali.
In questo contesto, il nuovo studio di AI4Cyber analizza il tema degli agenti AI autonomi self-hosted, una tecnologia in rapida diffusione caratterizzata da accesso privilegiato al sistema operativo, memoria persistente inter-sessione e capacità di interazione con servizi esterni, oltre che di elaborazione di contenuti che derivano da fonti non verificate.
Nello studio è stato scelto come riferimento il caso OpenClaw, un agente open-source la cui adozione virale tra gennaio e marzo 2026 ha generato oltre 50 CVE, decine di migliaia di istanze esposte e una supply chain compromessa, evidenziando in modo concreto l’emergere di un nuovo modello di rischio.
A conferma che non si tratta di un caso isolato ma di un fenomeno diffuso, un’indagine Gartner su oltre 300 CISO ha rilevato come il 59% delle grandi organizzazioni (ricavi >$250M) abbia riportato evidenze o sospetti di automazione AI non autorizzata, segnalando un’adozione che supera la maturità degli attuali modelli di controllo.
Il nuovo studio fornisce una lettura strutturata delle implicazioni di sicurezza, governance e gestione del rischio relativo all’AI agentica, contribuendo al dibattito su come affrontare in modo efficace la sua integrazione nelle organizzazioni.
Se desideri approfondire ecco il link al nostro studio completo.
Inoltre, puoi registrarti alla mailing list specifica Cyber Studios by Tinexta Defence, per ricevere aggiornamenti sulle prossime ricerche:


