Intesa Ue sull'Intelligenza artificiale: ecco cos'è l'AI-Act
I negoziatori di Europarlamento e Consiglio europeo hanno raggiunto un accordo su una legge sull'intelligenza artificiale per garantire che l'AI in Europa sia sicura. La scheda
Raggiunto un accordo sull'Artificial Intelligence Act, una legge sull'intelligenza artificiale per garantire che l'AI in Europa sia sicura, rispetti i diritti fondamentali e la democrazia mentre le imprese possono espandersi stimolando l'innovazione. Ecco nei dettagli di cosa si tratta con obiettivi, divieti e rischi, attraverso l'analisi puntuale realizzata su mgpf.notion.site.
Gli obiettivi dell'AI-Act Garanzia di Sicurezza e Protezione dei Diritti: l'AI Act mira a garantire che l'intelligenza artificiale in Europa sia sicura e rispetti i diritti fondamentali, la democrazia e lo stato di diritto. Questo obiettivo comprende la protezione dei cittadini da possibili abusi legati all'uso dell'IA e l'assicurazione che l'uso dell'IA sia etico e responsabile.
Promozione dell'Innovazione e della Leadership Europea: uno degli scopi centrali dell'AI Act è stimolare l'innovazione nell'ambito dell'IA, posizionando l'Europa come leader globale in questo settore. Ciò include il sostegno alle startup e ai ricercatori europei per avanzare nella corsa globale all'intelligenza artificiale, come sottolineato dal commissario Thierry Breton.
Creazione di un quadro giuridico unico: l'AI Act rappresenta il primo tentativo su scala globale di creare un quadro normativo completo per il settore dell'intelligenza artificiale. Questo quadro si propone di fornire una base legale chiara e affidabile per lo sviluppo dell'IA, con particolare attenzione alla sicurezza, ai diritti fondamentali delle persone e delle imprese, come evidenziato da Ursula von der Leyen.
Sostenibilità Ambientale e Rispetto dello Stato di Diritto: un altro aspetto importante dell'AI Act è assicurare che lo sviluppo e l'uso dell'IA siano sostenibili dal punto di vista ambientale e in linea con lo stato di diritto. Questo implica un equilibrio tra il progresso tecnologico e la tutela dell'ambiente, nonché il rispetto delle leggi esistenti.
Definizione di Standard Globali: l'AI Act mira a stabilire standard globali per l'uso dell'IA. Questo approccio pionieristico, come indicato dal presidente del Parlamento europeo Roberta Metsola, ha lo scopo di posizionare l'Europa come un modello per la regolamentazione dell'IA a livello mondiale, garantendo al contempo una legislazione responsabile e all'avanguardia.
Scontro su Usi Ammessi e Vietati dell'IA: uno dei punti più controversi è stato l'uso dell'intelligenza artificiale da parte delle forze dell'ordine, inclusi il riconoscimento biometrico in tempo reale e la polizia predittiva. Il Parlamento europeo si è opposto fermamente a queste applicazioni, mentre il Consiglio, rappresentante degli Stati membri, ha spinto per un approccio più permissivo.
Pressione da parte di esperti e accademici: durante le negoziazioni, più di 60 accademici e ricercatori nel campo della privacy e dei diritti digitali hanno firmato una lettera aperta, esortando il Parlamento a non cedere sui divieti relativi all'uso dell'IA. Questo indica l'alto livello di interesse e preoccupazione pubblica riguardo all'argomento.
Questioni dei Modelli Fondativi e Sorveglianza: un altro punto di contenzione è stato la regolamentazione dei modelli fondativi di IA e l'uso di sorveglianza biometrica e polizia predittiva. Questi aspetti hanno generato forti dibattiti tra Parlamento e Consiglio, riflettendo la complessità e le implicazioni di lungo termine della legislazione sull'IA.
Divario tra Parlamento e Consiglio: la distanza nelle posizioni tra Parlamento e Consiglio su argomenti come i modelli fondativi e le applicazioni di IA da parte delle forze dell'ordine ha mostrato le divergenze significative nelle visioni politiche e nei principi fondamentali. Questo ha richiesto compromessi e adattamenti per raggiungere un accordo accettabile per tutte le parti coinvolte.
Le applicazioni ad alto rischio proibite Divieto di Sistemi di Categorizzazione Biometrica Sensibili: l'AI Act vieta l'uso di sistemi di IA che categorizzano le persone basandosi su caratteristiche sensibili come convinzioni politiche, religiose e razziali. Questo divieto mira a prevenire discriminazioni e abusi legati all'identificazione biometrica.
Proibizione dello Scraping Non Mirato di Immagini: è vietato raccogliere immagini facciali da Internet o da telecamere a circuito chiuso per creare database di riconoscimento facciale senza specifici obiettivi. Ciò serve a tutelare la privacy e prevenire la sorveglianza di massa.
Divieto di Riconoscimento delle Emozioni: l'uso dell'IA per il riconoscimento delle emozioni è proibito in luoghi di lavoro e istituzioni educative. Questa misura è volta a proteggere la dignità e la libertà emotiva degli individui.
Vietato il Social Scoring e Tecniche Manipolative: l'AI Act proibisce l'uso di sistemi di IA per valutare le persone basandosi su comportamenti o caratteristiche personali, così come tecniche che mirano a manipolare il comportamento umano.
Divieto di IA che Sfrutta le Vulnerabilità: è vietato l'uso di sistemi di IA che mirano a sfruttare le vulnerabilità delle persone, come l'età, disabilità, situazione sociale o economica. Questo divieto è fondamentale per proteggere i gruppi vulnerabili da potenziali abusi.
Le Indicazioni Speciali per le Forze dell'Ordine e il Contrasto dei Crimini Eccezioni Limitate per il Riconoscimento Biometrico: l'utilizzo di sistemi di riconoscimento biometrico da parte delle forze dell'ordine è permesso solo in casi eccezionali. Questi includono situazioni di minaccia terroristica imminente, la ricerca di vittime di gravi crimini, o la persecuzione di reati gravi.
Sorveglianza e Polizia Predittiva: il dibattito tra Parlamento e Consiglio ha messo in luce la problematica della sorveglianza biometrica e della polizia predittiva, con il Parlamento che si opponeva fortemente a queste pratiche.
Protezione da Abusi: le eccezioni per le forze dell'ordine sono accompagnate da salvaguardie rafforzate per prevenire abusi. Questo implica una maggiore supervisione e restrizioni nell'uso di IA per fini di sorveglianza.
Divieto di Pratiche Invasive: pratiche come il riconoscimento delle emozioni e la polizia predittiva sono espressamente vietate, riflettendo una preoccupazione per la privacy e l'integrità personale.
Uso di Sistemi di Analisi dei Crimini: i sistemi IA possono essere utilizzati per analizzare dati relativi a crimini, ma con limitazioni. Questi sistemi devono operare su dati anonimi e non devono essere utilizzati per profilare individui specifici.
Notifiche e Trasparenza: in caso di uso di sistemi IA, le forze dell'ordine devono notificare tale utilizzo alle autorità indipendenti preposte al controllo, per assicurare trasparenza e responsabilità.
Monitoraggio Post-Approvazione: anche dopo l'approvazione dell'uso di sistemi IA, è richiesto un monitoraggio continuo per assicurare che l'impiego sia conforme alle regole e non violi i diritti fondamentali.
Gli Obblighi dei Sistemi a Rischio Alto Valutazione dell'Impatto sui Diritti Fondamentali: i sistemi di IA classificati come ad alto rischio sono tenuti a sottoporsi a una valutazione dell'impatto sui diritti fondamentali, assicurando che le loro operazioni non compromettano i diritti umani fondamentali.
Inclusione di Sistemi IA per Elezioni e Comportamenti Elettorali: sistemi IA utilizzati per influenzare il risultato delle elezioni o il comportamento degli elettori sono categorizzati come ad alto rischio, richiedendo una vigilanza e una regolamentazione maggiori.
Diritto di Reclamo dei Cittadini: i cittadini hanno il diritto di presentare reclami riguardo a decisioni prese da sistemi IA ad alto rischio che impattano i loro diritti, garantendo trasparenza e responsabilità.
Classificazione Stringente: i sistemi di IA sono classificati come ad alto rischio in base alla loro applicazione in settori critici, come infrastrutture critiche, educazione, risorse umane e mantenimento dell'ordine.
Controllo Umano Essenziale: è richiesta la supervisione umana per i sistemi ad alto rischio, assicurando che le decisioni automatizzate non provochino danni involontari.
Documentazione Tecnica Approfondita: i produttori di questi sistemi devono fornire una documentazione tecnica dettagliata, inclusi i processi operativi e le misure di sicurezza.
Gestione Proattiva del Rischio: è necessaria l'implementazione di un robusto sistema di gestione del rischio per monitorare e mitigare potenziali pericoli.
Rispetto di Norme e Standard Elevati: gli sviluppatori e gli utilizzatori di sistemi IA ad alto rischio devono aderire a standard elevati di qualità e sicurezza, per mitigare i rischi associati all'uso di tali tecnologie.
Le Guard-Rail per i Sistemi General Purpose (GPAI), inclusi i Large Language Models (LLM) Definizione e Rilevanza: i GPAI e LLM sono sistemi avanzati di intelligenza artificiale capaci di svolgere una vasta gamma di funzioni, come la generazione di linguaggio. Sono centrali per molte applicazioni innovative di IA.
Criteri di Misurazione Basati su FLOPs: l'AI Act utilizza i FLOPs come criterio per classificare i modelli di IA, concentrandosi sulle loro capacità computazionali piuttosto che sul fatturato. Ciò identifica i modelli con un impatto significativo.
Differenziazione tra Modelli di IA: viene fatta una distinzione tra modelli di IA ad alto impatto, che richiedono obblighi rigorosi, e modelli più piccoli, con requisiti meno stringenti.
Requisiti per Modelli ad Alto Impatto: questi modelli devono adempiere a obblighi come la valutazione del modello, la mitigazione dei rischi sistemici e la sicurezza informatica.
Trasparenza e Conformità: viene richiesta la trasparenza nei processi di addestramento e la condivisione di documentazione tecnica prima del lancio sul mercato.
Esclusioni per la Ricerca: i modelli utilizzati esclusivamente per scopi di ricerca sono esclusi da alcune di queste restrizioni, permettendo maggiore libertà nell'ambito della ricerca e dello sviluppo.
Rafforzamento del Copyright e Richiesta di Trasparenza: sono previsti strumenti per rafforzare il copyright e per richiedere trasparenza sui contenuti generati da algoritmi.
Fase di Transizione e AI Pact: l'AI Act prevede un periodo di conformità volontaria, il cosiddetto AI Pact, che permette alle aziende di adeguarsi alla normativa prima che diventi pienamente operativa.
Intelligenza artificiale, gli ultimi sviluppi e le applicazioni più avanzate
SU TGCOM24