L’Intelligenza Artificiale nel settore scolastico e universitario: 10 regole per sfruttare le opportunità dell’IA rispettando le norme Le potenzialità dell’Intelligenza Artificiale generativa nel contesto scolastico e, in particolare, universitario sono ampie ed attraenti. L’IA può arricchire l'apprendimento, migliorare l'accessibilità e…

Whistleblowing: i chiarimenti indicati nella bozza di linee guida ANAC In data 7 novembre 2024, è stata pubblicata sul sito ANAC, la nuova bozza di “Linee Guida in materia di Whistleblowing sui canali interni di segnalazione” che prevede alcuni chiarimenti…

No alle scorciatoie per la Cassazione: il consenso non legittima l’accesso alle chat sullo smartphone  La Corte di Cassazione ha ribadito che, ai fini della validità probatoria in giudizio delle chat di messaggistica, non basta il consenso di chi ha…

Gli aggiornamenti normativi in materia di D.Lgs. 231/2001 Nuovi reati presupposto e potenziale impatto sul MOGC Nel corso del 2024, l’elenco dei reati che possono originare la responsabilità degli enti in forza del D.Lgs. 231/2001 è stato oggetto di un…

Giornata Europea della Protezione dei Dati  Il 28 gennaio è una data importante: si celebra la Giornata Europea della Protezione dei Dati, un momento prezioso per riflettere sull'importanza della privacy e sulla tutela dei dati personali in un mondo sempre…

L’importanza dell’alfabetizzazione sull’AI spiegata in quattro lingue grazie all'intelligenza artificiale  Il 2 febbraio 2025 segna una data fondamentale per l’Europa: l’entrata in vigore dell’AI Act, la normativa che regola l’uso dell’intelligenza artificiale nel continente. Questa legge introduce standard rigorosi per…

Bilancio di Sostenibilità 2023  Un nuovo traguardo per Labor Project: il nostro secondo bilancio di sostenibilità riferito all’anno 2023 è stato pubblicato.Quest’anno abbiamo lavorato con impegno per consolidare il nostro progetto di sostenibilità, approfondendo i temi chiave già affrontati e…

La Piattaforma NIS: nuove opportunità per la Cybersicurezza Nazionale  L’Agenzia per la Cybersicurezza Nazionale (ACN) ha recentemente definito le modalità operative per l'accesso e l'utilizzo della piattaforma digitale dedicata alla disciplina NIS (Network and Information Systems). Questo strumento, introdotto dal…

Controlli difensivi sul luogo di lavoro - Limiti e possibilità di azione per le aziende nella salvaguardia dei propri interessi  Comprendere i confini di legittimità dei controlli svolti sul luogo di lavoro rappresenta un’operazione tutt’altro che banale. La disciplina dei…

Attacco ransomware subito dal Bologna calcio. La data protection come necessità strategica d’impresa   Sono trascorsi pochi giorni da quando il Gruppo di criminali informatici “RansomHub” ha colpito il Bologna calcio FC. La violazione subita dal Club ci ricorda che nemmeno…

La rivoluzione dell’AI e i cambiamenti per le aziende: nuove regole in arrivo

Il ricorso a sistemi di Artificial Intelligence (AI) all’interno di imprese ed enti è in costante crescita: nel 2022 la spesa nell’AI da parte delle aziende italiane è stata pari a 435 milioni di euro, mentre per il 2023 le previsioni stimano un aumento del 48% delle aziende interessate ad investire. Dal 2024, però, bisognerà iniziare a fare i conti con il nuovo Regolamento europeo sull’AI, il c.d. AI Act. Giocare d’anticipo è la mossa più saggia per evitare di incorrere in sanzioni.

Il recente Rapporto “Il Digitale in Italia 2023”, di Anitec – Assinform, l’Associazione di Confindustria che raggruppa le principali aziende dell’ICT, evidenzia alcuni dati interessanti rispetto alla crescita del digitale in Italia e ci dà un’idea di quello che sarà lo scenario che si prospetta per gli anni a venire.

Gli ultimi anni sono stati caratterizzati da eventi eccezionali (la pandemia e la guerra in Ucraina), che hanno portato ad un aumento dei costi dei prodotti energetici, la crescita dell’inflazione e il rialzo dei tassi. La voce “investimenti” all’interno del bilancio di imprese ed enti è stata la prima ad essere compromessa da questo, drammatico, scenario.

Finalmente, nel 2022 il mercato digitale ha registrato una crescita del 2,4%, per un valore complessivo di 77,1 miliardi di euro. In particolare, i settori caratterizzati da una crescita più rilevante sono stati: 

     

      • i Servizi ICT (+8,5% e 14,8 miliardi di euro), comprensivi dei servizi di Cloud Computing e di Cybersecurity, trainati dall’esigenza di garantire la sicurezza delle informazioni aziendali e la protezione dei dati personali;

      • il segmento relativo alla creazione i Contenuti e Pubblicità Digitali (+6,3% e 14,5 miliardi di euro);

      • Software e Soluzioni ICT (+6,2% e 8,6 miliardi di euro), in particolare per ottimizzare la “customer experience & engagement”, anche attraverso il ricorso all’AI.

    Digital Enabler e Transformer

    La trasformazione digitale ha rappresentato una leva economica significativa e sta avendo un impatto cardine nella ripresa economica del Paese. A trainare il progresso del mercato digitale nei prossimi anni saranno i prodotti e servizi più innovativi, ovvero i c.d. “Digital Enabler e Transformer”.

    Come si evince dall’immagine, in termini numerici, il 2022 ha visto un notevole incremento degli investimenti rispetto agli anni precedenti. In particolare, gli investimenti in sistemi di Intelligenza Artificiale sono saliti del 32,4% rispetto al 2021, raggiungendo un ammontare stimato pari a 435 milioni di euro. 

    Il Rapporto “Il Digitale in Italia 2023”, riporta i risultati di alcune survey condotte rispetto all’integrazione dei sistemi di AI in azienda. Alla domanda “Quanto la sua azienda ha usato/prevede di usare l’intelligenza artificiale per ottimizzare i propri processi di business?” il 13,7% risponde di farne un utilizzo significativo su molti processi (rispetto al 4,2% del 2021) ed il 34,7% risponde di farne un utilizzo significativo in alcuni processi (rispetto al 22,1% del 2021). 

    L’incremento complessivo del ricorso all’AI deriva principalmente dalla scossa data al settore dalla diffusione di strumenti di AI generativa, come il noto ChatGPT. 

    Una risorsa chiave nel settore privato e nel settore pubblico

    ChatGPT, ma anche gli altri recenti sistemi di AI generativa (“Bing Chat” di Microsoft, “Bard” di Google, Jasper, ChatSonic, etc.) sono dotati di caratteristiche tali da renderli sfruttabili anche in ambito business, settore in cui l’automazione è fondamentale per ottimizzare i processi aziendali. Massimo Beduschi, CEO e chairman di GroupM, la holding che si occupa degli investimenti media del gruppo Wpp, in un’intervista rilasciata a “Il Sole 24 Ore”, ha illustrato l’impatto di questi strumenti nel mondo della comunicazione. Nell’ambito dei media, ad esempio, l’AI aiuta ad identificare i canali più efficaci, ottimizzare le strategie di targeting e monitorare le prestazioni delle campagne in tempo reale. In generale, il ruolo dell’AI è fondamentale nell’analisi dei dati, nell’automazione dei processi, nella previsione delle tendenze di mercato, nella personalizzazione delle strategie di comunicazione. 

    Al tempo stesso, negli ultimi mesi abbiamo assistito ad un’applicazione massiccia di questi sistemi nel settore pubblico, anche a livello parlamentare e governativo:

       

        • In Austria, l’AI viene impiegata per migliorare le informazioni fornite ai deputati; 

        • Negli Stati Uniti, la Camera dei Rappresentanti ne fa uso per automatizzare l’analisi delle differenze fra i progetti di legge e le norme già vigenti;

        • In Brasile, l’AI aiuta nella stesura di leggi e viene utilizzata per generare contenuti tematici diretti ai cittadini, attraverso il sito web del Parlamento;

        • In Giappone, l’AI è utilizzata per ricercare le informazioni contenute nelle registrazioni video delle sedute;

        • Il Parlamento indiano si avvale dell’AI per conoscere le opinioni dei cittadini, aiutando i rappresentanti ad individuare le priorità per l’opinione pubblica;

        • In Italia, la Camera dei deputati ha avviato un’indagine conoscitiva per studiare la sua possibile applicazione all’interno dell’attività di documentazione parlamentare.

      Le applicazioni già fruttate nel settore privato e pubblico, così come le potenzialità intrinseche, però, devono, necessariamente, essere guidate e regolamentate, sia nell’ottica di privacy e sicurezza dei dati trattati, sia da un punto di vista etico.

      Le novità portate dall’IA ACT

      Lo scorso 14 giugno, il Parlamento dell’Unione Europea ha approvato l’AI Act (“Artificial Intelligence Act” o, tradotto, “legge sull’intelligenza artificiale”) e nei prossimi mesi diventerà attuativa non appena terminerà il trilogo. Si tratta della prima forma di regolamentazione onnicomprensiva dei sistemi e delle applicazioni innovative dell’Intelligenza Artificiale. 

      L’AI Act è stato sviluppato con il duplice obiettivo di sfruttare al meglio il potenziale innovativo dei sistemi di AI, assicurando al contempo la tutela dei diritti fondamentali dei cittadini dell’Unione. Alla stregua del GDPR, l’AI Act segue un approccio basato sul rischio (“risk-based approach”), differenziando tra gli usi dell’Intelligenza Artificiale che creano:

         

          •  un rischio inaccettabile;

          • un rischio alto;

          • un rischio basso o minimo.

        I diversi livelli di rischio comportano una maggiore o minore regolamentazione. Specifici obblighi si applicano proprio in funzione della classificazione del livello di rischio. Altri obblighi, invece, accomunano tutti i sistemi. Fra questi, i requisiti di trasparenza, o di “tracciabilità e spiegabilità”, devono sempre essere garantiti, in modo da consentire agli esseri umani di comprendere chiaramente le logiche alla base dall’AI. Ciò si traduce in una serie di azioni necessarie per la conformità al principio, quali, a titolo esemplificativo e non esaustivo:

           

            • rivelare che il contenuto è stato generato dall’AI;

            • facilitare la distinzione fra deep-fake e contenuti reali (“rendere noto in modo adeguato, tempestivo, chiaro e visibile che il contenuto è stato generato o manipolato artificialmente”);

            • progettare i modelli per evitare la generazione di contenuti illegali;

            • pubblicare riepiloghi dettagliati dei dati protetti da copyright utilizzati per l’addestramento;

            • etc.

          Giocare d’anticipo

          Dopo l’approvazione dell’AI Act da parte del Parlamento UE, attendiamo i colloqui con i Paesi membri in seno al Consiglio, che definiranno la forma finale della norma. L’obiettivo è quello di raggiungere un accordo entro la fine dell’anno. Una volta raggiunto l’accordo, il Regolamento dovrebbe entrare in vigore il ventesimo giorno dopo la pubblicazione in Gazzetta Ufficiale e, stando alla bozza dell’atto (articolo 85), divenire applicabile all’interno degli Stati membri 24 mesi dopo (salvo alcune disposizioni che prevedono un termine di 3 e 12 mesi). Il condizionale, però, è d’obbligo, in quanto sono ancora in corso i negoziati ed alcuni europarlamentari, fra cui Brando Benifei (PD), relatore dell’AI Act, suggeriscono di anticipare l’entrata in vigore e l’applicazione del Regolamento, considerando il rapidissimo sviluppo delle nuove tecnologie. Inoltre, la Commissione sta spingendo sulla compliance volontaria da parte delle imprese a partire dal 2024, con il c.d. “AI Pact” (ovvero un patto, in fase di discussione, volto ad anticipare l’attuazione del Regolamento).

          Cosa fare?

          Giocare d’anticipo è quindi essenziale. Ricordiamo che l’articolo 71 dell’AI Act, prevede tre classi di sanzioni, da 30 a 10 milioni di euro, rispettivamente per: il ricorso a pratiche di AI vietate, la non conformità ai requisiti e agli obblighi previsti in base al livello di rischio dell’AI, la fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti.

          Tutte le organizzazioni dovrebbero quindi attivarsi fin da subito e verificare, fra le altre cose: 

             

              • Se vengono prodotti o utilizzati sistemi che rientrano nella definizione di AI prevista dal Regolamento; 

              • Se questi sistemi sono stati classificati in base al rischio generato; 

              • Se è stata effettuata una valutazione di conformità ai requisiti e agli obblighi previsti;

              • Se la valutazione di conformità è dimostrabile in caso di controlli da parte delle Autorità competenti insieme a tutta la documentazione utile ad illustrare il funzionamento e lo scopo dei sistemi in questione;

              • Se sono state pianificate le azioni concrete da intraprendere per l’adeguamento, con particolare attenzione rispetto agli obblighi di trasparenza algoritmica, di cybersecurity e di non discriminazione; 

              • Se le informative utilizzate sono trasparenti e chiare e se includono meccanismi per consentire agli interessati di esercitare i propri diritti;

              • Etc.


            Il Team di consulenti di Labor Project può supportarti nelle attività di verifica e di adeguamento. Contattaci per valutare le azioni da intraprendere e per essere in grado di dimostrare la conformità non solo alle Autorità competenti ma anche a tutti gli stakeholder coinvolti. 

            Follow us on
            Our Gallery