Asilo multato per l’uso delle foto dei bimbi: 5 lezioni pratiche per evitare errori I dati personali dei minori richiedono una tutela rafforzata, soprattutto quando si parla di bimbi, in un contesto delicato come quello dei nidi. Il recente provvedimento…

Responsabilità 231 e raggruppamento temporaneo d’imprese: no agli automatismi Con la sentenza n. 14343/2025, la Cassazione torna a confrontarsi su uno dei temi più complessi e discussi della disciplina della responsabilità amministrativa degli enti, ed in particolare sulla responsabilità 231…

Il Modello 231 secondo la Cassazione: uno strumento che governa, non che comanda La Corte di Cassazione, con una recente pronuncia in materia di responsabilità amministrativa degli enti dipendente da reato ex D.lgs. 231/2001, interviene per chiarire la funzione autentica…

Obblighi di notifica più stringenti: la NIS2 risponde all’ondata di cyberattacchi  L'ultimo report sugli incidenti informatici del NIS Cooperation Group evidenzia un trend preoccupante: crescono sia i guasti tecnici sia le violazioni di sicurezza, così come aumenta il numero di…

ACN introduce il Referente CSIRT: sicurezza informatica e governance al centro dell’azienda Il recente incontro del V Tavolo NIS (Network and Information Security), svoltosi il 3 ottobre 2025, ha rappresentato un momento di significativa evoluzione per tutti i soggetti rientranti…

Compliance integrata: come integrare Modello 231 e Sistemi di Gestione per una governance più efficace Nella più ampia cornice della compliance aziendale, i Modelli 231 ed i sistemi di gestione aziendale ricoprono due ruoli ben diversi. Il Modello 231 previene…

In vigore la Legge 132/2025 sull’Intelligenza Artificiale Cosa cambia dal 10 ottobre 2025     A partire dal 10 ottobre entra in vigore la Legge 23 settembre 2025 - n. 132, primo passo concreto verso una governance nazionale dell’intelligenza artificiale.…

Dai metadati alle piattaforme digitali AI-based: nuovi strumenti di monitoraggio richiedono nuovi controlli di conformità L’evoluzione tecnologica nel contesto lavorativo, segnata dall’adozione diffusa di strumenti digitali, piattaforme intelligenti e sistemi di tracciamento avanzato, ha radicalmente trasformato le modalità di organizzazione…

Double opt-in e marketing: quando è obbligatorio e come garantire un consenso valido Il Provvedimento n. 330 del 4 giugno 2025, con cui il Garante per la protezione dei dati personali ha sanzionato la società “Noi Compriamo Auto” (NCA), riporta…

Governare la sanità digitale: strumenti operativi per DPO    La sanità digitale rappresenta oggi uno dei settori più complessi da presidiare per i Data Protection Officer. Il valore altamente sensibile dei dati trattati, la pluralità dei soggetti coinvolti nel trattamento (pubblici…

La tua organizzazione utilizza sistemi di intelligenza artificiale? Una guida Q&A alla compliance

AI ACT 
 

A partire dal 2 febbraio 2025 cominceranno a divenire applicabili alcuni degli obblighi previsti dal c.d. “AI ACT”, il nuovo Regolamento europeo sull’intelligenza artificiale (IA). Fra i vari obiettivi perseguiti dalla norma, vi rientra la definizione di regole armonizzate anche in relazione all’utilizzo dei sistemi di intelligenza artificiale.

Tutte le organizzazioni sono chiamate a verificare se stanno già utilizzando, o se hanno intenzione di utilizzare sistemi di IA e ad attivarsi per la compliance.

Quali obblighi dovranno rispettare gli utilizzatori dei sistemi di IA? Quali conseguenze in caso di mancato adeguamento? Una guida all’applicazione dell’AI ACT sottoforma di Q&A.

 

Cosa prevede la norma? 

Il Regolamento (UE) 2024/1689 (c.d. Regolamento sull’Intelligenza Artificiale o “AI Act”), entrato in vigore il primo agosto 2024, mira a promuovere la diffusione di un’intelligenza artificiale (IA) antropocentrica e affidabile. A tal fine introduce regole e requisiti specifici applicabili sia ai fornitori che immettono sul mercato o mettono in servizio sistemi di IA, sia ai c.d. “deployer” dei sistemi di IA, ovvero i singoli utilizzatori di tali sistemi.

 

Chi rientra nella nozione di deployer?

La norma definisce “deployer” ogni persona fisica, persona giuridica, ente, autorità pubblica o altro organismo che utilizza un sistema di intelligenza artificiale sotto la propria autorità, per finalità professionali, istituzionali o aziendali. Sono espressamente esclusi dalla nozione di deployer i soggetti privati e gli utenti finali che utilizzano un sistema di intelligenza artificiale esclusivamente per scopi di natura personale / non professionale.

Così definiti, i deployer, enti ed imprese che già utilizzano o che intendono introdurre sistemi di IA all’interno della propria organizzazione, sono chiamati a rispettare una serie di obblighi imposti dalla norma, i quali variano in funzione della tipologia di sistema di intelligenza artificiale utilizzato.

 

Di quali sistemi di IA stiamo parlando?

Ai sensi del Regolamento, per sistema di IA si intende “un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.

L’ampiezza della definizione consente di qualificare come IA molteplici tecniche computazionali che simulano il comportamento umano. La norma suddivide tali tecniche in base al livello di rischio, inteso come “la combinazione della probabilità del verificarsi di un danno e la gravità del danno stesso”.

Livello di rischio

Esempi

Minimo

Algoritmi di raccomandazione; sistemi di IA che analizzano le e-mail per identificare e bloccare lo spam o il phishing; algoritmi che ottimizzano l’uso della batteria o migliorano le performance di un’applicazione; etc.

Limitato

Chatbot avanzati per assistenza alla clientela; sistemi di IA che interagiscono direttamente con le persone come gli agenti conversazionali o sistemi che generano o manipolano contenuti; sistemi che analizzano il comportamento di acquisto degli utenti per proporre pubblicità o offerte personalizzate; etc.

Elevato

Sistemi biometrici basati su IA; sistemi di IA destinati a essere utilizzati come componenti di sicurezza nella gestione e nel funzionamento delle infrastrutture digitali critiche, del traffico stradale o nella fornitura di acqua, gas, riscaldamento o elettricità; sistemi di IA utilizzati nell’ambito dell’istruzione e formazione professionale; sistemi di IA destinati all’utilizzo nel contesto dell’occupazione, gestione dei lavoratori e accesso al lavoro autonomo; sistemi utilizzati per valutare l’affidabilità creditizia, la determinazione dei prezzi delle assicurazioni; etc.

Inaccettabile

Tecniche subliminali che agiscono senza che una persona ne sia consapevole; tecniche volutamente manipolative o ingannevoli aventi lo scopo o l’effetto di distorcere materialmente il comportamento di una persona o di un gruppo di persone; tecniche che sfruttano le vulnerabilità delle persone; scoring sociale; sorveglianza di massa; etc.

In base al tipo di sistema e al corrispondente livello di rischio discendono specifici obblighi in capo ai deployer. Pertanto, per comprendere quali sono i requisiti che legittimano l’utilizzo di un determinato sistema, è essenziale, dapprima:

  1. effettuare una ricognizione interna di tutti i sistemi utilizzati o dei sistemi che si intendono adottare;
  2. procedere con la valutazione del rischio effettivo derivante dall’utilizzo di tali sistemi.

 

Come valutare il rischio?

La valutazione del rischio dei sistemi di IA si basa su criteri oggettivi e specifici, che prendono in considerazione una serie di fattori, tra cui:

  • la destinazione d’uso del sistema,
  • la quantità di dati trattati,
  • la natura dei dati trattati,
  • la partecipazione umana nel processo decisionale,
  • la possibilità di correggere i risultati forniti dal sistema,
  • la dipendenza delle persone dai risultati del sistema,
  • l’esistenza di squilibri di potere fra utilizzatore del sistema e soggetti interessati,
  • l’impatto potenziale sugli individui e sui diritti fondamentali,
  • etc.

 

Quali obblighi si applicano?

Una volta determinato il livello di rischio, i deployer sono tenuti a valutare l’applicazione degli obblighi previsti dall’AI ACT. Fra questi vi rientrano i seguenti.

Categoria

Dettaglio degli obblighi

Obblighi di monitoraggio / controllo sui sistemi

 

  • sorveglianza umana nell’utilizzo dei sistemi
  • formazione dei soggetti adibiti alla sorveglianza di tali sistemi
  • monitoraggio sul funzionamento dei sistemi sulla base delle istruzioni per l’uso
  • monitoraggio sui dati di input
  • conservazione dei log

Obblighi relativi alla sicurezza

  • adozione di idonee misure tecniche e organizzative per garantire di utilizzare tali sistemi conformemente alle istruzioni per l’uso che accompagnano i sistemi, al fine di prevenire errori operativi che possano compromettere la sicurezza o i diritti degli utenti finali
  • adozione di misure volte a mitigare eventuali ulteriori rischi emergenti

Obblighi di trasparenza

 

  • i deployer devono informare gli utenti del fatto che stanno interagendo con un sistema di intelligenza artificiale e non con un essere umano
  • i deployer datori di lavoro informano i rappresentanti dei lavoratori e i lavoratori interessati che saranno soggetti all’uso del sistema di IA
  • i deployer garantiscono il rispetto del diritto degli interessati di ottenere spiegazioni chiare e significative sul ruolo del sistema di IA nella procedura decisionale e sui principali elementi della decisione adottata

Obblighi di alfabetizzazione / formazione

 

  • i deployer dei sistemi di IA adottano misure per garantire nella misura del possibile un livello sufficiente di alfabetizzazione in materia di IA del loro personale nonché di qualsiasi altra persona che si occupa del funzionamento e dell’utilizzo dei sistemi di IA per loro conto

Obblighi di cooperazione

 

  • notifica in caso di non conformità / rischi emergenti
  • notifica alle autorità competenti in caso di incidenti di sicurezza
  • cooperazione con le autorità competenti in merito a qualsiasi azione intrapresa da dette autorità in relazione al sistema di IA

Obblighi relativi alla protezione dei dati e dei diritti delle persone

 

  • conduzione di una valutazione d’impatto sulla protezione dei dati a norma dell’articolo 35 del regolamento (UE) 2016/679 o dell’articolo 27 della direttiva (UE) 2016/680
  • conduzione di una valutazione dell’impatto sui diritti fondamentali che l’uso di tale sistema può produrre a norma dell’articolo 27 dell’AI ACT

Gli obblighi riportati in tabella non costituiscono un elenco esaustivo: a questi si aggiungono, ad esempio, gli ulteriori requisiti applicabili in caso di utilizzo di specifici sistemi, fra cui sistemi di IA ad alto rischio per l’identificazione biometrica remota a posteriori, sistemi di riconoscimento delle emozioni o di categorizzazione biometrica, sistemi di IA che generano o manipolano immagini o contenuti audio o video che costituiscono un «deep fake», etc.

 

Quando gli obblighi diverranno applicabili?

Gli obblighi esaminati diverranno applicabili in modo graduale, in base al rischio intrinseco ai sistemi utilizzati.

In particolare, i divieti, le definizioni e gli obblighi relativi all’alfabetizzazione in materia di IA si applicheranno a partire dal 2 febbraio 2025. Gli obblighi relativi a sistemi di IA per finalità generali e le norme in materia di governance diverranno applicabili esattamente 12 mesi dopo l’entrata in vigore del Regolamento, ovvero il 2 agosto 2025.

La priorità deve essere quindi data alle attività di formazione, al fine di istruire il personale ed i collaboratori sulle corrette modalità di utilizzo dei sistemi in esame.

 

Quali conseguenze in caso di mancato adeguamento?

Il mancato rispetto degli obblighi previsti dal Regolamento espone le organizzazioni a sanzioni amministrative pecuniarie che possono raggiungere l’importo di 35 milioni di euro o, se superiore, il 7% del fatturato mondiale annuo.

In particolare, la non conformità agli obblighi dei deployer, a norma dell’articolo 26 dell’AI ACT, e agli obblighi di trasparenza per i fornitori e i deployer, a norma dell’articolo 50 dell’AI ACT, è soggetta a sanzioni amministrative pecuniarie fino a 15 milioni di euro o, se superiore, il 3% del fatturato mondiale annuo.

In aggiunta, le Autorità competenti possono disporre la sospensione temporanea o definitiva dell’utilizzo del sistema di intelligenza artificiale aziendale e ordinare il ritiro dal mercato del sistema o del prodotto che lo integra, con conseguenti gravi danni economici, d’immagine e reputazionali.

 

Come conformarsi?

Oltre a prevenire sanzioni, avviare sin da subito il processo di adeguamento al Regolamento sull’Intelligenza Artificiale e, quindi, conformarsi prima che gli obblighi diventino applicabili, è di importanza cruciale per tutte le organizzazioni. La compliance all’AI ACT, infatti, tutela i diritti fondamentali delle persone, garantisce la sicurezza degli utenti e, attraverso monitoraggio e alfabetizzazione, previene il verificarsi di incidenti derivanti da un utilizzo non presidiato o poco consapevole dei sistemi.

L’ampio framework normativo e la complessità degli adempimenti, che si posizionano in maniera trasversale fra legal e IT, richiedono un solido presidio interno dell’AI e il supporto di consulenti esperti nella compliance.

Se non sai da che parte iniziare rivolgiti al nostro Team AI Desk Italy.

Follow us on
Our Gallery