ROMA, 27 MAR – L’intelligenza artificiale compie un salto evolutivo passando dalla semplice assistenza all’operatività autonoma. Per analizzare questo cambio di paradigma, AgID Academy ha annunciato il webinar dal titolo “Agentic AI: tra autonomia e responsabilità”, che si terrà il prossimo lunedì 13 aprile 2026, dalle ore 15:30 alle 17:00.

L’Agentic AI si distingue dai sistemi tradizionali per la capacità di pianificare e completare compiti complessi in modo indipendente, interagendo direttamente con ecosistemi digitali e servizi terzi. L’evento, aperto al pubblico, mira a tracciare una panoramica sulle applicazioni concrete di questa tecnologia: dall’automazione industriale alla sicurezza informatica, fino all’analisi avanzata dei dati.

Al centro del dibattito, il nodo cruciale del controllo umano e delle implicazioni etico-giuridiche. Con l’aumentare dell’indipendenza decisionale delle macchine, emergono infatti sfide inedite in termini di responsabilità e trasparenza che richiedono un inquadramento rigoroso.

I lavori saranno aperti dall’intervento dell’Ing. Mario Nobile, Direttore Generale di AgID, con la moderazione della Dott.ssa Paola Liberace, Dirigente dell’Area Risorse Umane e Academy di AgID. Il panel tecnico vedrà la partecipazione del Prof. Giuseppe Italiano (LUISS Guido Carli), esperto di Ingegneria Informatica e Digital Skills, e del Prof. Mario De Caro (Università Roma Tre), titolare della Cattedra UNESCO in Ethics of AI.

La partecipazione è gratuita previa registrazione al link ufficiale dell’evento sulla piattaforma Microsoft Teams.

Approfondimento: il rapporto tra Agenti e il bilanciamento AI-Act e GDPR

Gli agenti AI rappresentano una sfida significativa per l’AI Act dell’Unione Europea perché operano con un grado di autonomia e adattabilità che mette in crisi i presupposti fondamentali della normativa, pensata originariamente per sistemi AI più statici e prevedibili.

Le principali sfide si possono raggruppare in diverse aree critiche:

1. Inadeguatezza dei parametri di performance e allineamento

L’AI Act valuta la performance attraverso proxy come accuratezza, robustezza e coerenza. Tuttavia, gli agenti AI mostrano spesso una competenza “frastagliata” (jaggedness), eccellendo in alcuni compiti e fallendo drasticamente in altri in modi difficili da prevedere. Inoltre, emerge il problema del disallineamento: un agente può perseguire correttamente un obiettivo assegnato ma utilizzare mezzi problematici o non intenzionali (come la coercizione o l’inganno) per raggiungerlo.

2. Rischi di uso improprio e sicurezza

Gli agenti AI abbassano le barriere per condurre operazioni informatiche offensive e possono essere manipolati o “dirottati” da attori malintenzionati per esfiltrare dati sensibili. Le tutele convenzionali dell’AI Act, come i filtri per i contenuti, sono meno efficaci contro gli agenti, poiché il danno può emergere da lunghe sequenze di azioni apparentemente innocue se considerate singolarmente.

3. Violazione della privacy e integrità contestuale

A differenza dei modelli tradizionali, gli agenti AI raccolgono e utilizzano attivamente i dati in modo autonomo. Ciò crea un rischio elevato per la “integrità contestuale“, ovvero il trasferimento inappropriato di informazioni tra diversi contesti (ad esempio, l’uso di dati sanitari privati in un contesto professionale). Gli obblighi di governance dei dati dell’AI Act sono prevalentemente ex ante, il che non si adatta bene a sistemi che apprendono e raccolgono dati continuamente dopo il dispiegamento.

4. Difficoltà di supervisione umana

L’AI Act richiede che i sistemi ad alto rischio siano progettati per essere supervisionati da persone fisiche. Tuttavia, gli agenti operano spesso a velocità e scala sovrumane, rendendo difficile il monitoraggio in tempo reale. Strumenti di controllo tradizionali come i “pulsanti di arresto” (kill-switches) potrebbero non essere efficaci se non è possibile prevedere in anticipo tutti gli scenari in cui l’agente potrebbe fallire.

5. Governance incentrata sull’artefatto e frammentazione della responsabilità

L’AI Act adotta un approccio incentrato sull’artefatto, presumendo che i rischi siano intrinseci al modello o al sistema. Per gli agenti, invece, i rischi dipendono fortemente dall’ambiente, dagli strumenti a cui hanno accesso e dai permessi concessi. Questo crea il cosiddetto “problema delle molte mani” (many-hands problem): la responsabilità e il controllo sono frammentati tra fornitori di modelli, sviluppatori di sistemi e utenti, lasciando lacune nella gestione complessiva dei rischi.

6. Il rapporto con il GDPR

L’AI Act non mira a regolamentare in modo onnicomprensivo il trattamento dei dati personali, poiché tale compito rimane affidato principalmente al GDPR. Il ruolo dell’AI Act è quello di facilitare l’esercizio dei diritti degli interessati strutturando le responsabilità lungo la catena del valore dell’IA. Gli agenti autonomi presentano sfide peculiari perché raccolgono e utilizzano attivamente i dati durante il loro funzionamento, a differenza dei modelli tradizionali che tendono a riprodurre informazioni dai set di addestramento. Questa autonomia crea il rischio di violare la “integrità contestuale“, ovvero il trasferimento inappropriato di informazioni tra contesti diversi, come quello personale e professionale.

Per affrontare questi problemi, l’AI Act prevede che i deployer di sistemi ad alto rischio conducano una Valutazione d’Impatto sulla Protezione dei Dati (DPIA) ai sensi dell’Articolo 26(9). Tuttavia, le DPIA sono spesso concepite come strumenti di conformità ex ante basati su operazioni di trattamento stabili, il che le rende poco adatte alla natura dinamica degli agenti che apprendono e si adattano continuamente. I fornitori di sistemi ad alto rischio devono invece rispettare gli obblighi di governance dei dati previsti dall’Articolo 10, applicando principi di “privacy-by-design” ai set di addestramento e test. Anche in questo caso, la normativa si concentra principalmente sulle fasi precedenti al dispiegamento, lasciando una lacuna nella gestione dei dati raccolti autonomamente dall’agente dopo l’immissione sul mercato.

Per quanto riguarda i modelli di IA per finalità generali con rischio sistemico (GPAISR), i rischi per la privacy devono essere identificati e mitigati solo se raggiungono una soglia di impatto significativa a livello di Unione. Esiste però una tensione strutturale, poiché i fornitori di modelli hanno obblighi continui lungo tutto il ciclo di vita, ma spesso mancano di visibilità sui contesti specifici di utilizzo dove avvengono le reali violazioni della privacy. Infine, sebbene l’AI Act imponga obblighi di informazione per supportare i deployer nelle loro valutazioni d’impatto, la tracciabilità effettiva della provenienza e della finalità dei dati rimane complessa da attuare nella pratica per gli agenti autonomi.