FOTO24 VIDEO24 2

Parlamento Ue, primo via libera alle regole per l'intelligenza artificiale

Tra le misure anche il divieto di utilizzare tecnologie AI per il riconoscimento facciale nei luoghi pubblici in Ue. No ai sistemi che che usano tecniche subliminali o intenzionalmente manipolative

Il Parlamento Ue ha dato il primo via libera all'AiAct, il documento che fissa per la prima volta le nuove regole europee per l'intelligenza artificiale. Il testo è stato approvato dalle commissioni Giustizia e Mercato Interno dell'Eurocamera con 84 voti a favore, sette contrari e 12 astenuti. Tra le misure previste, il divieto totale di utilizzo di tecnologie a Intelligenza artificiale per il riconoscimento facciale nei luoghi pubblici in Ue. 

Sviluppo umano-centrico ed etico  L'obiettivo del provvedimento approvato è quello di garantire uno sviluppo umano-centrico ed etico dell'intelligenza artificiale in Europa, fissando nuove regole di trasparenza e gestione del rischio. Nei loro emendamenti alla proposta della Commissione, i deputati mirano a garantire che i sistemi AI siano supervisionati dalle persone, siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell'ambiente. Vogliono anche una definizione uniforme per l'intelligenza artificiale progettata per essere neutrale dal punto di vista tecnologico, in modo che possa essere applicata ai sistemi AI di oggi e di domani. Prima dei negoziati con il Consiglio sulla forma finale della legge, questo progetto di mandato negoziale va approvato dall'intero Parlamento, durante la sessione del 12-15 giugno. 

Riconoscimento facciale  La messa al bando totale delle tecnologie per il riconoscimento facciale, chiesta da Socialisti, Verdi e liberali, è stata approvata con 58 voti a favore, 36 contrari e 10 astenuti. E' stata sottoposta a un voto separato a causa dell'opposizione dei Popolari. A tale proposito, è stato vietato in particolare il raschiamento indiscriminato di dati biometrici da social media o filmati di sistemi tv a circuito chiuso, come le telecamere di sorveglianza, per creare database di riconoscimento facciale, violando così i diritti umani e il diritto alla privacy.

Rischio e sicurezza  Le regole fissate seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e utenti a seconda del livello di pericolo che l'AI può generare. I sistemi con un livello di rischio inaccettabile per la sicurezza delle persone sarebbero severamente vietati, compresi quelli che impiegano tecniche subliminali o intenzionalmente manipolative, sfruttano le vulnerabilità delle persone o sono utilizzati per il punteggio sociale (classificazione delle persone in base al loro comportamento sociale, stato socio-economico, caratteristiche personali). 

Divieti e sistemi di identificazione  I deputati hanno sostanzialmente modificato l'elenco per includere i divieti sugli usi intrusivi e discriminatori dei sistemi AI come: sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico; sistemi di identificazione biometrica remota "postale", con la sola eccezione delle forze dell'ordine per il perseguimento di reati gravi e solo previa autorizzazione giudiziaria; sistemi di categorizzazione biometrici he utilizzano caratteristiche sensibili (ad esempio genere, etnia, stato di cittadinanza, religione, orientamento politico); sistemi di polizia predittiva (basati su profilazione, posizione o comportamento criminale passato); sistemi di riconoscimento delle emozioni nelle forze dell'ordine, nella gestione delle frontiere, sul posto di lavoro e nelle istituzioni educative. 

Danni a salute, sicurezza e diritti fondamentali  E' inoltre stata ampliata la classificazione delle aree ad alto rischio per includere i danni alla salute, alla sicurezza, ai diritti fondamentali o all'ambiente delle persone. Aggiunti anche i sistemi di intelligenza artificiale per influenzare gli elettori nelle campagne politiche e nei sistemi di raccomandazione utilizzati dalle piattaforme di social media, con oltre 45 milioni di utenti ai sensi del Digital services act, all’elenco ad alto rischio. Sono stati inclusi gli obblighi per i fornitori di modelli di fondazione (uno sviluppo nuovo e in rapida evoluzione nel campo AI) che dovrebbero garantire una solida protezione dei diritti fondamentali, della salute e della sicurezza e dell'ambiente, della democrazia e dello stato di diritto. Dovrebbero valutare e mitigare i rischi, rispettare i requisiti di progettazione, informazione e ambiente e registrarsi nella banca dati dell'Ue. 

Espandi