La Commissione Affari Giuridici (JURI) del Parlamento europeo ha pubblicato il 2 febbraio 2026 una bozza di Opinion sulla proposta di regolamento Digital Omnibus, introducendo interventi mirati sull’architettura dell’AI Act. Le modifiche mirano a riallineare l’impianto regolatorio all’evoluzione tecnologica, rafforzando al contempo la sostenibilità normativa e la tutela dei diritti fondamentali.
AI Literacy: ritorno all’impianto originario
Uno dei passaggi più significativi riguarda il ripristino dell’impostazione originaria dell’AI Literacy di cui all’art. 4 dell’AI Act. La soppressione della formulazione alternativa proposta in fase di revisione riporta l’alfabetizzazione sull’intelligenza artificiale entro una dimensione strutturale di responsabilità organizzativa. L’AI Literacy torna così a configurarsi come prerequisito operativo per l’immissione e l’uso dei sistemi, rafforzando la logica risk-based: la competenza umana è confermata come infrastruttura di sicurezza, non come misura accessoria.
AI agents e perimetro di accountability
Sul piano definitorio, la bozza amplia la nozione di “sistema di IA” includendo esplicitamente gli AI agents: architetture software capaci di azione autonoma orientata a obiettivi. L’intervento riconosce l’emergere di modelli agentici basati su pianificazione multi-step, orchestrazione di strumenti esterni e adattamento dinamico all’ambiente operativo. In termini di governance, l’inclusione comporta un’estensione degli obblighi di accountability, tracciabilità delle decisioni e supervisione umana.
Divieto di contenuti sessualizzati non consensuali
Tra le pratiche vietate viene introdotto l’uso di IA per la generazione o manipolazione di contenuti sessualizzati non consensuali. La previsione si inserisce nella più ampia traiettoria europea di tutela della dignità digitale, qualificando tali applicazioni come rischio inaccettabile per i diritti della persona, indipendentemente dal contesto di utilizzo o dalla finalità dichiarata.
Dati particolari e auditing etico
Resta ammesso, entro condizioni rafforzate, l’impiego di dati particolari per attività di bias detection e bias mitigation. L’uso è vincolato a criteri di stretta necessità, proporzionalità e a solide salvaguardie tecniche e organizzative, consolidando un principio di auditing etico dei dataset senza aperture a utilizzi estensivi.
Nuove tempistiche per i sistemi ad alto rischio
Infine, la proposta interviene sulle tempistiche applicative dei sistemi di IA ad alto rischio, svincolandole dalla disponibilità di standard tecnici. Vengono introdotte scadenze certe:
dicembre 2027 per i sistemi ex art. 6(2) e Allegato III
agosto 2028 per i sistemi ex art. 6(1) e Allegato I
La scelta aumenta la prevedibilità regolatoria e consente alle organizzazioni di pianificare con maggiore certezza le roadmap di adeguamento, validazione e certificazione.
In sintesi, la bozza di Opinion rafforza l’impianto dell’AI Act come strumento di governance adattiva: più aderente alla realtà tecnologica, più chiaro nei confini di responsabilità e più solido nella protezione dei diritti fondamentali.


