Intelligenza artificiale, ok Eurocamera al regolamento: vietato il riconoscimento facciale nei luoghi pubblici
Strasburgo ha approvato il testo con 499 voti a favore, 28 contrari e 93 astenuti: primo documento al mondo pensato perché le tecnologie legate all'AI rispettino leggi e valori fondamentali
L'Eurocamera ha dato il via libera all'AiAct, il regolamento Ue per l'Intelligenza artificiale. Il testo con le nuove disposizioni in materia è stato approvato a Strasburgo con 499 voti a favore, 28 contrari e 93 astenuti. Si tratta del primo documento al mondo pensato per imprimere alle tecnologie come Chat Gpt il rispetto delle leggi Ue e dei valori fondamentali e per combattere la discriminazione digitale prevenendo la disinformazione e l'utilizzo dei "deep fakes". Il voto apre la strada ai confronti con i Paesi membri e con la Commissione Ue.
I livelli di rischio La Commissione ha identificato quattro livelli di rischio delle applicazioni.
Rischio inaccettabile: quei sistemi che violano i valori europei non saranno utilizzabili all'interno dei confini dell'Unione.
Rischio alto: quei sistemi che stanno avendo un impatto controverso sulla sicurezza e sui diritti delle persone. Qui l'Ue non ne proibisce la diffusione ma chiede che si risponda a una precisa serie di requisiti.
Rischio limitato: quei sistemi che non comportano pericoli considerevoli e che dunque dovranno assicurare un set limitato di requisiti (in primis la trasparenza, dunque rivelare in modo evidente l'utilizzo dell'intelligenza artificiale).
Rischio minimo: in questo caso non è previsto nessun obbligo legale.
No riconoscimento facciale L'Europarlamento sancisce il divieto totale di utilizzo di tecnologie di riconoscimento biometrico a intelligenza artificiale in tempo reale nei luoghi pubblici. È stato infatti bocciato l'emendamento presentato dal Ppe che chiedeva di inserire nel testo alcune eccezioni per permettere l'uso di telecamere a riconoscimento facciale nelle strade e ai confini dell'Ue per motivi di sicurezza nazionale o nei casi di minori scomparsi.
Le altre applicazioni vietate Tra le applicazioni vietate dell'intelligenza artificiale (rientrano nel livello di rischio inaccettabile) ci sono i sistemi di " social scoring" (già utilizzati in Cina), che giudicano le persone in base ai propri comportamenti. Il regolamento bandisce poi gli strumenti di polizia predittiva, che sfrutta i dati per capire in anticipo la pericolosità di un individuo (e che sono utilizzati già negli Stati Uniti). Un altro esempio sono i sistemi che targettizzano utenti considerati vulnerabili (come i bambini). L'Ai act vieta anche la manipolazione subliminale che può causare danni, come ad esempio un giocattolo interattivo che incoraggia a comportamenti pericolosi.
Le sanzioni Nel regolamento sono già previste delle sanzioni per chi dovesse diffondere una applicazione proibita o non soddisfare i requisiti richiesti per le applicazioni con rischio alto. Le violazioni prevedono multe severe, fino a 30 milioni di euro o pari al sei per cento di fatturato annuo dell'azienda. Nel caso di colossi come Microsoft, Meta o Google, potrebbe significare una sanzione di miliardi.
Breton: conciliare fiducia e innovazione "Siamo stati la prima Camera al mondo a votare su un regolamento complessivo sull'Intelligenza artificiale - ha commentato su Twitter il commissario Ue al Mercato interno, Thierry Breton -. Questo voto dimostra che possiamo conciliare fiducia e innovazione".
SU TGCOM24