Cese: «La legge Ue dovrebbe fissare dei limiti per le applicazioni ad alto rischio» (25/07/2020)


Cese: «La legge Ue dovrebbe fissare dei limiti per le applicazioni ad alto rischio» (25/07/2020) 

La Commissione europea ha proposto che un’applicazione di IA sia considerata ad alto rischio se riguarda un settore ad alto rischio (sanità, trasporti, energia e parti del settore pubblico) ed implica un uso ad alto rischio, con alcune eccezioni che devono ancora essere definite. Secondo la proposta della Commissione, è solo se queste due condizioni sono soddisfatte che si può parlare di IA ad alto rischio, che in quanto tale ricadrebbe nell’ambito di applicazione di normative e strutture di governance specifiche.

Il Comitato economico e sociale europeo (Cese) reputa che tale definizione rischi di lasciare aperte scappatoie potenzialmente pericolose. E un esempio lampante è costituito, secondo il Cese, dalla pubblicità di natura politica su un social network come Facebook: «La pubblicità è un settore considerato a basso rischio, e la funzione di aggregazione delle notizie su Facebook può essere considerata come un uso a basso rischio», spiega la relatrice del Cese Catelijne Muller, «eppure abbiamo visto come, durante le campagne elettorali, la diffusione su Facebook di notizie false (fake news) e falsi realistici (deepfakes) generati con l’IA possa avere molteplici effetti negativi e influenzare il voto delle persone, con interferenze anche da parte di paesi terzi».

Dovrebbero allora essere previste delle deroghe? E, in caso affermativo, quante dovrebbero esservene? Il Cese ritiene che, piuttosto che stilare un elenco di esenzioni, sarebbe meglio elaborare…