Direttiva IA: al via il negoziato del PE con il Consiglio

154

Il Parlamento europeo è pronto a negoziare le prime regole di sempre per una intelligenza artificiale sicura e trasparente. Il 14 giugno in seduta plenaria gli eurodeputati hanno approvato il testo emendato della direttiva sull’IA dopo un lungo lavoro svolto dal Comitato IMCO con l’esame di oltre 4000 emendamenti presentati.

Queste le principali innovazioni introdotte nella norma uscita dal voto del parlamento, sulla quale inizia il processo negoziale con i governi degli Stati membri in Consiglio europeo:

  1. Bando totale dell’uso dell’IA per la sorveglianza biometrica, il riconoscimento delle emozioni, e le previsioni politiche.
  2. I sistemi di intelligenza artificiale generativa, come ChatGPT devono dichiarare che i contenuti sono stati generati dall’IA.
  3. I sistemi di IA utilizzati per influenzare i votanti nelle elezioni sono considerati ad alto rischio.

Con il comunicato ufficiale, l’Unione Europea ha informato i vari stati membri e i cittadini che si sta preparando a regolamentare l’intelligenza artificiale per garantire condizioni ottimali nello sviluppo e nell’uso di questa tecnologia innovativa.

L’intelligenza artificiale offre numerosi vantaggi, come una migliore assistenza sanitaria, trasporti più sicuri e puliti, produzione efficiente ed energia conveniente e sostenibile.

La Commissione europea, ad aprile 2022, ha proposto un quadro normativo sull’IA che prevede l’analisi e la classificazione dei sistemi di IA in base al rischio che rappresentano per gli utenti. I diversi livelli di rischio comporteranno diverse misure di regolamentazione. Queste regole, una volta approvate, rappresenteranno la prima legge mondiale tesa a disciplinare l’IA.

Gli obiettivi del Parlamento europeo per la normativa sull’IA sono volti a garantire la sicurezza, la trasparenza, la tracciabilità, la non discriminazione e il rispetto dell’ambiente nei sistemi di intelligenza artificiale utilizzati nell’UE. L’intento è far si che i sistemi di IA siano supervisionati da persone anziché da sistemi di automazione al fine di evitare conseguenze imprevedibili e potenzialmente dannose. Inoltre, il Parlamento vuole stabilire una definizione tecnologicamente neutra e uniforme per l’IA che possa essere applicata ai futuri sistemi.

Le nuove regole prevedono obblighi per i fornitori e gli utenti dei sistemi di IA in base al livello di rischio. I sistemi a rischio inaccettabile, che costituiscono una minaccia per le persone, saranno vietati. Questi includono la manipolazione comportamentale cognitiva di persone vulnerabili, la classificazione sociale e l’identificazione biometrica in tempo reale e a distanza come il riconoscimento facciale. Tali norme dovrebbero escludere la discriminazione basata sul genere, identità sessuale, condizione di disabilità, provenienza etnica, ecc.

Tuttavia, alcune eccezioni potrebbero essere ammesse per scopi legittimi, come perseguire reati gravi previa autorizzazione del tribunale.

I sistemi di IA ad alto rischio, che influiscono negativamente sulla sicurezza o sui diritti fondamentali, saranno suddivisi in due categorie. La prima categoria riguarda i prodotti soggetti alla direttiva dell’UE sulla sicurezza generale dei prodotti, come giocattoli, aviazione, automobili, dispositivi medici e ascensori. La seconda categoria riguarda otto aree specifiche, come l’identificazione biometrica, la gestione delle infrastrutture critiche e l’istruzione professionale, che richiederanno la registrazione dei sistemi di IA in un database dell’UE.

Tutti i sistemi di IA ad alto rischio saranno valutati prima di essere commercializzati e durante tutto il loro ciclo di vita.

L’IA generativa, come ChatGPT, dovrà rispettare requisiti di trasparenza, come rivelare che il contenuto è stato generato da un’IA, impedire la generazione di contenuti illegali e pubblicare riepiloghi dei dati utilizzati per l’addestramento.

I sistemi di IA a rischio limitato dovranno soddisfare requisiti minimi di trasparenza per consentire agli utenti di prendere decisioni informate.

Gli utenti dovranno essere informati quando interagiscono con l’IA, incluso l’utilizzo di sistemi che generano o manipolano contenuti di immagini, audio o video come i deepfake.

A seguito della definizione della posizione negoziale da parte del Parlamento europeo, si è avviato il 14 giugno 2023 il negoziato con il Consiglio per la stesura finale della legge. L’obiettivo è raggiungere un accordo entro la fine dell’anno.