A seguito del caso Facebook, che ha censurato la famosa foto premio Pulitzer ritraente una bambina nuda in fuga dalle bombe al napalm in Vietnam, ci si interroga sull’efficacia e l’opportunità dell’utilizzo di processi automatizzati o semiautomatizzati nello svolgimento di innumerevoli attività della vita quotidiana.

I pochi studi finora condotti, hanno prodotto risultati contrastanti: se da una parte si sono osservati miglioramenti per determinate attività complesse (si pensi all’ambito energetico, medico, informatico), dall’altra si sono registrati errori, discriminazioni e distorsioni in un ampio novero di altri settori della società civile, dell’industria e del governo della giustizia.

La preoccupazione principale emersa è proprio la mancanza di studi rigorosi sugli effetti dell’utilizzo di sistemi di intelligenza artificiale, che possano rafforzarne la progettazione e lo sviluppo, garantendone l’affidabilità e la trasparenza e, soprattutto, riducendone il rischio di errori.

Obiettivo: sviluppare una comprensione empirica del funzionamento di questi sistemi, stabilire modelli comprovati per un uso responsabile ed etico, implementare nuovi strumenti che permettano di sapere come e quando le decisioni automatizzate influenza materialmente le nostre vite. In un concetto, maggior trasparenza.


FONTE: http://www.internazionale.it/notizie/kate-crawford/2016/10/04/intelligenza-artificiale-rischi