Slide background
Slide background




Regolamento intelligenza artificiale (AI Act): Roadmap

ID 19606 | | Visite: 7745 | News Marcatura CEPermalink: https://www.certifico.com/id/19606

Regolamento intelligenza artificiale  AI Act    Roadmap

Regolamento intelligenza artificiale (AI Act): Roadmap 2021 / 2024 - In GU PE 12.07.2024

ID 19606 | 12.07.2024 / Testi evoluzione allegati

Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (Legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'unione.

Update 12.07.2024 / Testo Pubblicato GU 12.07.2024

Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024, che stabilisce regole armonizzate sull'intelligenza artificiale e modifica i regolamenti (CE) n. 300/2008(UE) n. 167/2013(UE) n. 168/2013(UE) 2018/858(UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE(UE) 2016/797 e (UE) 2020/1828 (regolamento sull'intelligenza artificiale) (GU L 2024/1689 del 12.7.2024)

Update 13.03.2024 / Testo approvato PE 13.03.2024

Il 13 marzo 2024, il Parlamento ha approvato la legge sull’intelligenza artificiale che garantisce la sicurezza e il rispetto dei diritti fondamentali, promuovendo al tempo stesso l’innovazione.

Il regolamento, concordato nei negoziati con gli Stati membri nel dicembre 2023, è stato approvato dai deputati con 523 voti favorevoli, 46 contrari e 49 astensioni.

Mira a proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dall’intelligenza artificiale ad alto rischio, promuovendo al contempo l’innovazione e affermando l’Europa come leader nel settore. Il regolamento stabilisce obblighi per l’IA in base ai rischi potenziali e al livello di impatto.

Applicazioni vietate

Le nuove regole vietano alcune applicazioni di intelligenza artificiale che minacciano i diritti dei cittadini, compresi i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e lo scraping non mirato di immagini facciali da Internet o filmati CCTV per creare database di riconoscimento facciale. Saranno vietati anche il riconoscimento delle emozioni sul posto di lavoro e a scuola, il punteggio sociale, la polizia predittiva (quando si basa esclusivamente sulla profilazione di una persona o sulla valutazione delle sue caratteristiche) e l’intelligenza artificiale che manipola il comportamento umano o sfrutta le vulnerabilità delle persone.

Esenzioni delle forze dell'ordine

L'utilizzo di sistemi di identificazione biometrica (RBI) da parte delle forze dell'ordine è in linea di principio vietato, tranne che in situazioni tassativamente elencate e strettamente definite. L'RBI “in tempo reale” può essere implementato solo se vengono soddisfatte rigorose garanzie, ad esempio il suo utilizzo è limitato nel tempo e nell'ambito geografico e soggetto a specifica autorizzazione giudiziaria o amministrativa preventiva. Tali usi possono includere, ad esempio, la ricerca mirata di una persona scomparsa o la prevenzione di un attacco terroristico. L’utilizzo di tali sistemi post facto (“RBI post-remoto”) è considerato un caso d’uso ad alto rischio, che richiede l’autorizzazione giudiziaria essendo collegata a un reato penale.

Obblighi per i sistemi ad alto rischio

Sono previsti obblighi chiari anche per altri sistemi di IA ad alto rischio (a causa del loro significativo potenziale danno alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto). Esempi di usi dell'IA ad alto rischio includono infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati ​​essenziali (ad esempio assistenza sanitaria, banche), alcuni sistemi di applicazione della legge, migrazione e gestione delle frontiere, giustizia e processi democratici (ad esempio influenza sulle elezioni) . Tali sistemi devono valutare e ridurre i rischi, conservare i registri di utilizzo, essere trasparenti e accurati e garantire la supervisione umana. I cittadini avranno il diritto di presentare reclami sui sistemi di IA e ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che influiscono sui loro diritti.

Requisiti di trasparenza

I sistemi di intelligenza artificiale per scopi generali (GPAI) e i modelli GPAI su cui si basano devono soddisfare determinati requisiti di trasparenza, tra cui il rispetto della legge europea sul copyright e la pubblicazione di riepiloghi dettagliati dei contenuti utilizzati per la formazione. I modelli GPAI più potenti che potrebbero comportare rischi sistemici dovranno affrontare requisiti aggiuntivi, tra cui l’esecuzione di valutazioni dei modelli, la valutazione e la mitigazione dei rischi sistemici e la segnalazione degli incidenti.

Inoltre, le immagini artificiali o manipolate, i contenuti audio o video (“deepfakes”) devono essere chiaramente etichettati come tali.

Misure a sostegno dell'innovazione e delle PMI

Sarà necessario istituire sandbox normativi e test nel mondo reale a livello nazionale e renderli accessibili alle PMI e alle start-up, per sviluppare e formare un’intelligenza artificiale innovativa prima della sua immissione sul mercato.

Prossimi passi

Il regolamento è ancora sottoposto ad una verifica finale da parte dei giuristi-linguisti e se ne prevede l'adozione definitiva entro la fine della legislatura (attraverso la cosiddetta procedura corrigendum ). La legge dovrà inoltre essere approvata formalmente dal Consiglio.

Entrerà in vigore venti giorni dopo la sua pubblicazione nella Gazzetta ufficiale, e sarà pienamente applicabile 24 mesi dopo la sua entrata in vigore, ad eccezione di: divieti di pratiche vietate, che entreranno in vigore sei mesi dopo la data di entrata in vigore; codici di condotta (nove mesi dall'entrata in vigore); norme generali sull'IA, compresa la governance (12 mesi dopo l'entrata in vigore); e obblighi per i sistemi ad alto rischio (36 mesi).

Sfondo

La legge sull'intelligenza artificiale risponde direttamente alle proposte dei cittadini della Conferenza sul futuro dell'Europa (COFE), più concretamente alla proposta 12(10) sul rafforzamento della competitività dell'UE nei settori strategici, alla proposta 33(5) su una società sicura e affidabile, compresa la lotta alla disinformazione e la garanzia che in ultima analisi gli esseri umani abbiano il controllo, la proposta 35 sulla promozione dell'innovazione digitale, (3) garantendo nel contempo il controllo umano e (8) un uso affidabile e responsabile dell'IA, stabilendo salvaguardie e garantendo la trasparenza, e la proposta 37 (3) sull'uso IA e strumenti digitali per migliorare l’accesso dei cittadini alle informazioni, comprese le persone con disabilità.

_______

Update 02.02.2024 / Testo approvato Coreper

Gli ambasciatori dei 27 paesi dell’Unione Europea (Coreper) hanno votato all’unanimità, lo scorso 2 febbraio 2024, l’ultimo testo (in bozza) dell’AI Act, approvando l’accordo politico che era stato raggiunto a dicembre, dopo una lunga negoziazione.

L'AI Act dell'UE è il primo testo al mondo che intende regolamentare l’intelligenza artificiale prossimo alla sua votazione finale prevista per il 24 aprile 2024.
_______

Update 14.06.2023 / Amendments adopted by the European Parliament

Emendamenti del Parlamento europeo, approvati il 14 giugno 2023, alla proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'Unione (COM(2021)0206 - C9-0146/2021 - 2021/0106(COD))
_______

Update 11.05.2023 / Testo relazione 11.05.2023

L'11 maggio 2023 IMCO e LIBE hanno adottato un progetto di relazione sul regolamento sull'IA. Il progetto di relazione include importanti modifiche alla proposta legislativa, come il divieto di attività di polizia predittiva, una serie di aggiunte all'elenco di IA autonome classificate come ad alto rischio e un ruolo forte e inclusivo per il nuovo Ufficio IA.

Inoltre, viene proposto un maggiore allineamento con il GDPR, nonché un maggiore coinvolgimento delle parti interessate in diversi settori, nonché l'introduzione di disposizioni specifiche relative all'intelligenza artificiale di uso generale.

I membri hanno presentato circa 4000 emendamenti alla proposta, sui quali sono stati elaborati compromessi.

Questo progetto di mandato negoziale deve essere approvato da tutto il Parlamento, con il voto previsto durante la sessione del 12-15 giugno. Successivamente, potrebbero iniziare i negoziati con il Consiglio.
_______

Update 21.04.2021 / Regolamento AI 2021: la proposta

In allegato: 

- COM(2021) 206 final - Proposta di regolamento su un approccio europeo all'intelligenza artificiale
- COM(2021) 206 final - Allegati
_______

...

Approccio basato sul rischio all'IA - Pratiche di intelligenza artificiale vietate

Le norme seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio che l'IA può generare. I sistemi di intelligenza artificiale con un livello di rischio inaccettabile per la sicurezza delle persone sarebbero severamente vietati, compresi i sistemi che impiegano tecniche subliminali o intenzionalmente manipolative, sfruttano le vulnerabilità delle persone o sono utilizzati per il punteggio sociale (classificazione delle persone in base al loro comportamento sociale, stato socio-economico, caratteristiche).

I deputati hanno sostanzialmente modificato l'elenco per includere i divieti sugli usi intrusivi e discriminatori dei sistemi di IA come:

- Sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico;
- Sistemi di identificazione biometrica remota “postale”, con la sola eccezione delle forze dell'ordine per il perseguimento di reati gravi e solo previa autorizzazione giudiziaria;
- Sistemi di categorizzazione biometrici che utilizzano caratteristiche sensibili (ad es. genere, razza, etnia, stato di cittadinanza, religione, orientamento politico);
- Sistemi di polizia predittiva (basati su profilazione, posizione o comportamento criminale passato);
- Sistemi di riconoscimento delle emozioni nelle forze dell'ordine, nella gestione delle frontiere, sul posto di lavoro e nelle istituzioni educative; E
- Raschiamento indiscriminato di dati biometrici da social media o filmati CCTV per creare database di riconoscimento facciale (violando i diritti umani e il diritto alla privacy).

IA ad alto rischio

I deputati hanno ampliato la classificazione delle aree ad alto rischio per includere i danni alla salute, alla sicurezza, ai diritti fondamentali o all'ambiente delle persone. Hanno anche aggiunto i sistemi di intelligenza artificiale per influenzare gli elettori nelle campagne politiche e nei sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti ai sensi del Digital Services Act ) all'elenco ad alto rischio.

Misure di trasparenza

I deputati hanno incluso obblighi per i fornitori di modelli di fondazione - uno sviluppo nuovo e in rapida evoluzione nel campo dell'IA - che dovrebbero garantire una solida protezione dei diritti fondamentali, della salute e della sicurezza e dell'ambiente, della democrazia e dello stato di diritto. Dovrebbero valutare e mitigare i rischi, rispettare i requisiti di progettazione, informazione e ambiente e registrarsi nella banca dati dell'UE.

I modelli di base generativi, come GPT, dovrebbero rispettare ulteriori requisiti di trasparenza, come rivelare che il contenuto è stato generato dall'intelligenza artificiale, progettare il modello per impedire che generi contenuto illegale e pubblicare riepiloghi dei dati protetti da copyright utilizzati per la formazione.

Sostenere l'innovazione e tutelare i diritti dei cittadini

Per promuovere l'innovazione dell'IA, i deputati hanno aggiunto esenzioni a queste regole per le attività di ricerca e i componenti dell'IA forniti con licenze open source. La nuova legge promuove i sandbox normativi, o ambienti controllati, istituiti dalle autorità pubbliche per testare l'intelligenza artificiale prima della sua implementazione.

I deputati vogliono rafforzare il diritto dei cittadini di presentare reclami sui sistemi di IA e ricevere spiegazioni delle decisioni basate su sistemi di IA ad alto rischio che incidono in modo significativo sui loro diritti. I deputati hanno anche riformato il ruolo dell'Ufficio AI dell'UE, che avrebbe il compito di monitorare l'attuazione del regolamento sull'IA.

...

Fonte: PE 2023

Collegati

DescrizioneLinguaDimensioneDownloads
Scarica questo file (Testo approvato PE 13.03.2024.pdf)Testo approvato PE 13.03.2024
 
EN2145 kB958
Scarica questo file (AIA Final Draft 21 January 2024.pdf)AIA Final Draft 21 January 2024
 
EN5902 kB347
Scarica questo file (Testo compromesso 11.05.2023.pdf)Testo compromesso PE 11.05.2023
 
EN918 kB363

Tags: Marcatura CE

Ultimi archiviati Marcatura CE

Regolamento di esecuzione  UE  2024 2958 Indicatori di risultato
Dic 02, 2024 124

Regolamento di esecuzione (UE) 2024/2958

Regolamento di esecuzione (UE) 2024/2958 / Indicatori di risultato Regolamento Sicurezza Generale dei Prodotti (GSPR) ID 23047 | 02.12.2024 Regolamento di esecuzione (UE) 2024/2958 della Commissione del 29 novembre 2024 che stabilisce gli indicatori di risultato rilevanti ai fini del regolamento… Leggi tutto
Ott 29, 2024 158

Decisione (UE) 2024/2779

Decisione (UE) 2024/2779 ID 22821 | 29.10.2024 Decisione (UE) 2024/2779 della Commissione, del 24 ottobre 2024, che istituisce il gruppo di esperti sulla progettazione ecocompatibile dei prodotti sostenibili e sull’etichettatura energetica (forum sulla progettazione ecocompatibile) (GU L 2024/2779… Leggi tutto

Più letti Marcatura CE

Nov 08, 2024 118180

Regolamento Prodotti da Costruzione (UE) 305/2011 - CPR

Regolamento CPR (UE) 305/2011 Regolamento (UE) N. 305/2011 del Parlamento Europeo e del Consiglio del 9 marzo 2011 che fissa condizioni armonizzate per la commercializzazione dei prodotti da costruzione e che abroga la direttiva 89/106/CEE del Consiglio (Testo rilevante ai fini del SEE) (GU L 88/10… Leggi tutto