Intelligenza Artificiale: dall’Europa i sette principi per uno sviluppo etico


La #Commissione Europea, nel giugno del 2018, ha costituito un gruppo di lavoro sull’intelligenza artificiale (High-Level Expert Group on Artificial Intelligence) formato da 52 esperti che hanno lavorato alla definizione di un codice etico per l’uso dell’intelligenza artificiale. Nei giorni scorsi è stato rilasciato il draft delle #linee guida che hanno l’obiettivo di tutelare i cittadini dall’uso improprio delle tecnologie digitali intelligenti. La fase pilota partirà nell’estate del 2019, prevedendo la partecipazione di imprese, anche internazionali, e istituzioni, per mettere in pratica tali linee guida, che dovranno successivamente tradursi in una strategia internazionale.

Ecco i sette principi che sono stati fissati per sviluppare in modo affidabile l’IA:

  • Azione e sorveglianza umane: promuovere lo sviluppo di società eque sostenendo l’azione umana e i diritti fondamentali senza ridurre, limitare o sviare l’autonomia dell’uomo.
  • Robustezza e sicurezza: è indispensabile che gli algoritmi siano sicuri, affidabili e sufficientemente robusti da far fronte a errori o incongruenze durante tutte le fasi del ciclo di vita dei sistemi di IA.
  • #Privacy e #governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri #dati personali e nel contempo i dati che li riguardano non dovranno essere utilizzati per danneggiarli o discriminarli.
  • Trasparenza: dovrebbe essere garantita la tracciabilità dei sistemi di IA.
  • Diversità, non discriminazione ed equità: i sistemi di IA dovrebbero tenere in considerazione l’intera gamma delle capacità, delle competenze e dei bisogni umani ed essere accessibili.
  • Benessere sociale e ambientale: promuovere i cambiamenti sociali positivi e accrescere la sostenibilità e la responsabilità ecologica.
  • Responsabilità intesa anche come accountability: meccanismi che garantiscano la responsabilità e l’accountability dei sistemi di IA e dei loro risultati.

L’UE sta spingendo affinché aziende e ricercatori sviluppino l’intelligenza artificiale in modo etico e trasparente. Le linee guide vanno in questa direzione e distinguono l’Europa nell’approccio a questa tecnologia di Stati Uniti o Cina. Su questa tecnologia, ricordiamo, il Vecchio Continente è in grande ritardo. Sopratutto nei confronti delle grandi multinazionali.

Sempre in materia di IA, di contro, nei giorni scorsi, c’è stato il dietrofront di Google. L’azienda ha annunciato lo scioglimento del consiglio esterno, formato la settimana precedente, per analizzare i problemi etici legati all’intelligenza artificiale e altre tecnologie emergenti. L’ATEAC (Advanced Technology External Advisory Council) avrebbe dovuto “riflettere su alcune delle sfide più complesse legate all’intelligenza artificiale, tra cui il riconoscimento facciale e il bilanciamento del machine learning, al fine di evitare il diffondersi e radicarsi di stereotipi culturali, che in maniera anche involontaria potrebbero passare dagli uomini alle macchine”.

Fonti

Se ti è piaciuto l'articolo condividi: