Le aziende stanno passando da semplici LLM assistivi ad agenti capaci di prendere decisioni, orchestrare tool, accedere a database e sistemi di produzione. Secondo le stime citate, il 72% delle imprese ha già implementato o sta integrando agenti AI, ma solo il 29% dispone di controlli di sicurezza specifici, creando un “paradosso dell’autonomia”: più automazione, meno protezione.
Prompt injection indiretto
Il rischio principale si sposta dal prompt injection “diretto” (nella chat) a quello indiretto, nascosto in contenuti che l’agente elabora: pagine web, email, documenti, record di database. Un’istruzione malevola inserita in questi dati può spingere l’agente a eseguire azioni non intenzionali (esfiltrare dati, modificare record, inviare email), aggirando i filtri sul prompt dell’utente e sfruttando i permessi già concessi.
Browser agentici come arma
I “browser agentici” amplificano il problema: non si limitano a leggere il web, ma navigano, cliccano, compilano form, interagiscono con portali e sistemi interni , Un sito compromesso può contenere un prompt nascosto che ordina all’agente, ad esempio, di accedere a un database interno e inviare dati a un indirizzo esterno, trasformando una semplice ricerca in un attacco attivo e automatizzato.
Model Context Protocol nel mirino
Gli agenti si appoggiano a uno strato di orchestrazione – il Model Context Protocol (MCP) – che gestisce accessi a tool, API, file system e flussi di lavoro: è il vero “sistema nervoso” dell’ecosistema agentico. Compromettere l’MCP significa ottenere il controllo dell’intero toolset dell’agente e dei dati sensibili, e la sua complessità crescerà con l’aumento del numero di agenti (molte aziende si aspettano di gestirne oltre 50 entro tre anni).
Shadow AI e fughe di dati
La diffusione rapida degli agenti porta alla nascita della Shadow AI: agenti creati da singoli team con strumenti esterni, senza supervisione IT e senza integrazione nelle policy aziendali.Questi agenti “ombra” accedono spesso a dati sensibili senza adeguate protezioni, con fughe di dati che possono costare tra 1 e 10 milioni di dollari per il 40% delle aziende, e oltre 10 milioni per il 13%.
Arrivo di obblighi normativi specifici
Il divario tra uso (72% delle aziende) e protezione (29%) rende probabile un intervento normativo: molte organizzazioni dovranno conformarsi a regolamenti come l’EU AI Act, che introduce obblighi per i sistemi ad alto rischio e per i modelli di AI generali.digital.nemko+1
Si prevede che circa l’80% delle organizzazioni sarà soggetto a norme specifiche sull’AI e che oltre metà adotterà piattaforme dedicate alla sicurezza degli agenti entro il 2028, con l’ingresso di specialisti focalizzati sulla sicurezza AI.
Difesa: dalla reazione alla proattività
I modelli di sicurezza tradizionali, basati su perimetri statici, non bastano contro agenti che ragionano, si adattano e agiscono in autonomia, espandendo continuamente la superficie d’attacco.Diventano cruciali soluzioni di monitoraggio in tempo reale delle azioni e delle intenzioni dell’agente, la mappatura e governance di tutti gli agenti (inclusi quelli “ombra”) e la protezione specifica dello strato MCP, per evitare che il futuro autonomo si trasformi in un rischio sistemico.

