Prompt injection, Shadow AI e MCP: le minacce degli agenti AI nel 2026

Redazione

Le aziende stanno passando da semplici LLM assistivi ad agenti capaci di prendere decisioni, orchestrare tool, accedere a database e sistemi di produzione.Secondo le stime citate, il 72% delle imprese ha già implementato o sta integrando agenti AI, ma solo il 29% dispone di controlli di sicurezza specifici, creando un “paradosso dell’autonomia”: più automazione, meno protezione.

Prompt injection indiretto

Il rischio principale si sposta dal prompt injection “diretto” (nella chat) a quello indiretto, nascosto in contenuti che l’agente elabora: pagine web, email, documenti, record di database.Un’istruzione malevola inserita in questi dati può spingere l’agente a eseguire azioni non intenzionali (esfiltrare dati, modificare record, inviare email), aggirando i filtri sul prompt dell’utente e sfruttando i permessi già concessi.

Browser agentici come arma

I “browser agentici” amplificano il problema: non si limitano a leggere il web, ma navigano, cliccano, compilano form, interagiscono con portali e sistemi interni​ , Un sito compromesso può contenere un prompt nascosto che ordina all’agente, ad esempio, di accedere a un database interno e inviare dati a un indirizzo esterno, trasformando una semplice ricerca in un attacco attivo e automatizzato.

Model Context Protocol nel mirino

Gli agenti si appoggiano a uno strato di orchestrazione – il Model Context Protocol (MCP) – che gestisce accessi a tool, API, file system e flussi di lavoro: è il vero “sistema nervoso” dell’ecosistema agentico.Compromettere l’MCP significa ottenere il controllo dell’intero toolset dell’agente e dei dati sensibili, e la sua complessità crescerà con l’aumento del numero di agenti (molte aziende si aspettano di gestirne oltre 50 entro tre anni).

 Shadow AI e fughe di dati

La diffusione rapida degli agenti porta alla nascita della Shadow AI: agenti creati da singoli team con strumenti esterni, senza supervisione IT e senza integrazione nelle policy aziendali.Questi agenti “ombra” accedono spesso a dati sensibili senza adeguate protezioni, con fughe di dati che possono costare tra 1 e 10 milioni di dollari per il 40% delle aziende, e oltre 10 milioni per il 13%.

Arrivo di obblighi normativi specifici

Il divario tra uso (72% delle aziende) e protezione (29%) rende probabile un intervento normativo: molte organizzazioni dovranno conformarsi a regolamenti come l’EU AI Act, che introduce obblighi per i sistemi ad alto rischio e per i modelli di AI generali.digital.nemko+1

Si prevede che circa l’80% delle organizzazioni sarà soggetto a norme specifiche sull’AI e che oltre metà adotterà piattaforme dedicate alla sicurezza degli agenti entro il 2028, con l’ingresso di specialisti focalizzati sulla sicurezza AI.

Difesa: dalla reazione alla proattività

I modelli di sicurezza tradizionali, basati su perimetri statici, non bastano contro agenti che ragionano, si adattano e agiscono in autonomia, espandendo continuamente la superficie d’attacco.Diventano cruciali soluzioni di monitoraggio in tempo reale delle azioni e delle intenzioni dell’agente, la mappatura e governance di tutti gli agenti (inclusi quelli “ombra”) e la protezione specifica dello strato MCP, per evitare che il futuro autonomo si trasformi in un rischio sistemico.

Share This Article
Bismark.it è stato fondato nel lontano 1999 e ha rappresentato in quegli anni uno dei più grandi punti di riferimento Security / Underground italiano!. Abbiamo collaborato e partecipato a svariati progetti. Uno su tutti la creazione di Hackerjournal la prima rivista hacking italiana.