Il recente Rapporto “Il Digitale in Italia 2023”, di Anitec – Assinform, l’Associazione di Confindustria che raggruppa le principali aziende dell’ICT, evidenzia alcuni dati interessanti rispetto alla crescita del digitale in Italia e ci dà un’idea di quello che sarà lo scenario che si prospetta per gli anni a venire.
Gli ultimi anni sono stati caratterizzati da eventi eccezionali (la pandemia e la guerra in Ucraina), che hanno portato ad un aumento dei costi dei prodotti energetici, la crescita dell’inflazione e il rialzo dei tassi. La voce “investimenti” all’interno del bilancio di imprese ed enti è stata la prima ad essere compromessa da questo, drammatico, scenario.
Finalmente, nel 2022 il mercato digitale ha registrato una crescita del 2,4%, per un valore complessivo di 77,1 miliardi di euro. In particolare, i settori caratterizzati da una crescita più rilevante sono stati:
Digital Enabler e Transformer
La trasformazione digitale ha rappresentato una leva economica significativa e sta avendo un impatto cardine nella ripresa economica del Paese. A trainare il progresso del mercato digitale nei prossimi anni saranno i prodotti e servizi più innovativi, ovvero i c.d. “Digital Enabler e Transformer”.
Come si evince dall’immagine, in termini numerici, il 2022 ha visto un notevole incremento degli investimenti rispetto agli anni precedenti. In particolare, gli investimenti in sistemi di Intelligenza Artificiale sono saliti del 32,4% rispetto al 2021, raggiungendo un ammontare stimato pari a 435 milioni di euro.
Il Rapporto “Il Digitale in Italia 2023”, riporta i risultati di alcune survey condotte rispetto all’integrazione dei sistemi di AI in azienda. Alla domanda “Quanto la sua azienda ha usato/prevede di usare l’intelligenza artificiale per ottimizzare i propri processi di business?” il 13,7% risponde di farne un utilizzo significativo su molti processi (rispetto al 4,2% del 2021) ed il 34,7% risponde di farne un utilizzo significativo in alcuni processi (rispetto al 22,1% del 2021).
L’incremento complessivo del ricorso all’AI deriva principalmente dalla scossa data al settore dalla diffusione di strumenti di AI generativa, come il noto ChatGPT.
Una risorsa chiave nel settore privato e nel settore pubblico
ChatGPT, ma anche gli altri recenti sistemi di AI generativa (“Bing Chat” di Microsoft, “Bard” di Google, Jasper, ChatSonic, etc.) sono dotati di caratteristiche tali da renderli sfruttabili anche in ambito business, settore in cui l’automazione è fondamentale per ottimizzare i processi aziendali. Massimo Beduschi, CEO e chairman di GroupM, la holding che si occupa degli investimenti media del gruppo Wpp, in un’intervista rilasciata a “Il Sole 24 Ore”, ha illustrato l’impatto di questi strumenti nel mondo della comunicazione. Nell’ambito dei media, ad esempio, l’AI aiuta ad identificare i canali più efficaci, ottimizzare le strategie di targeting e monitorare le prestazioni delle campagne in tempo reale. In generale, il ruolo dell’AI è fondamentale nell’analisi dei dati, nell’automazione dei processi, nella previsione delle tendenze di mercato, nella personalizzazione delle strategie di comunicazione.
Al tempo stesso, negli ultimi mesi abbiamo assistito ad un’applicazione massiccia di questi sistemi nel settore pubblico, anche a livello parlamentare e governativo:
Le applicazioni già fruttate nel settore privato e pubblico, così come le potenzialità intrinseche, però, devono, necessariamente, essere guidate e regolamentate, sia nell’ottica di privacy e sicurezza dei dati trattati, sia da un punto di vista etico.
Le novità portate dall’IA ACT
Lo scorso 14 giugno, il Parlamento dell’Unione Europea ha approvato l’AI Act (“Artificial Intelligence Act” o, tradotto, “legge sull'intelligenza artificiale”) e nei prossimi mesi diventerà attuativa non appena terminerà il trilogo. Si tratta della prima forma di regolamentazione onnicomprensiva dei sistemi e delle applicazioni innovative dell’Intelligenza Artificiale.
L’AI Act è stato sviluppato con il duplice obiettivo di sfruttare al meglio il potenziale innovativo dei sistemi di AI, assicurando al contempo la tutela dei diritti fondamentali dei cittadini dell’Unione. Alla stregua del GDPR, l’AI Act segue un approccio basato sul rischio (“risk-based approach”), differenziando tra gli usi dell’Intelligenza Artificiale che creano:
I diversi livelli di rischio comportano una maggiore o minore regolamentazione. Specifici obblighi si applicano proprio in funzione della classificazione del livello di rischio. Altri obblighi, invece, accomunano tutti i sistemi. Fra questi, i requisiti di trasparenza, o di “tracciabilità e spiegabilità”, devono sempre essere garantiti, in modo da consentire agli esseri umani di comprendere chiaramente le logiche alla base dall’AI. Ciò si traduce in una serie di azioni necessarie per la conformità al principio, quali, a titolo esemplificativo e non esaustivo:
Giocare d’anticipo
Dopo l’approvazione dell’AI Act da parte del Parlamento UE, attendiamo i colloqui con i Paesi membri in seno al Consiglio, che definiranno la forma finale della norma. L’obiettivo è quello di raggiungere un accordo entro la fine dell’anno. Una volta raggiunto l’accordo, il Regolamento dovrebbe entrare in vigore il ventesimo giorno dopo la pubblicazione in Gazzetta Ufficiale e, stando alla bozza dell’atto (articolo 85), divenire applicabile all’interno degli Stati membri 24 mesi dopo (salvo alcune disposizioni che prevedono un termine di 3 e 12 mesi). Il condizionale, però, è d’obbligo, in quanto sono ancora in corso i negoziati ed alcuni europarlamentari, fra cui Brando Benifei (PD), relatore dell’AI Act, suggeriscono di anticipare l’entrata in vigore e l’applicazione del Regolamento, considerando il rapidissimo sviluppo delle nuove tecnologie. Inoltre, la Commissione sta spingendo sulla compliance volontaria da parte delle imprese a partire dal 2024, con il c.d. “AI Pact” (ovvero un patto, in fase di discussione, volto ad anticipare l’attuazione del Regolamento).
Cosa fare?
Giocare d’anticipo è quindi essenziale. Ricordiamo che l’articolo 71 dell’AI Act, prevede tre classi di sanzioni, da 30 a 10 milioni di euro, rispettivamente per: il ricorso a pratiche di AI vietate, la non conformità ai requisiti e agli obblighi previsti in base al livello di rischio dell’AI, la fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti.
Tutte le organizzazioni dovrebbero quindi attivarsi fin da subito e verificare, fra le altre cose:
Il Team di consulenti di Labor Project può supportarti nelle attività di verifica e di adeguamento. Contattaci per valutare le azioni da intraprendere e per essere in grado di dimostrare la conformità non solo alle Autorità competenti ma anche a tutti gli stakeholder coinvolti.