Tra le norme dell'AI Act, il divieto dell'uso dell'intelligenza artificiale per attività di sorveglianza biometrica e per utilizzi di polizia predittiva e l'obbligo di dichiarare come è stato generato il contenuto per i sistemi di AI generativa come ChatGPT.
Con 499 voti a favore 28 contrari e 93 astensioni, l'Eurocamera ha approvato la prima regolamentazione al mondo pensata per imprimere alle tecnologie come ChatGPT il rispetto delle leggi UE e dei valori fondamentali nonché per combattere la discriminazione digitale e prevenire la disinformazione e l'utilizzo dei 'deep fakes'.
Il voto apre la strada ai colloqui con i Paesi membri e la Commissione UE.
Le norme approvate seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e operatori dei sistemi di IA a seconda del livello di rischio. Saranno dunque vietati i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale (classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali).
Rispetto al testo iniziale, l'elenco delle pratiche vietate è stato ampliato per includere divieti sugli usi intrusivi e discriminatori dell'IA, come:
- l'uso di sistemi di identificazione biometrica remota "in tempo reale" e "a posteriori" in spazi accessibili al pubblico;
- i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia,
cittadinanza , religione, orientamento politico);
- i sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati);
- i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell'ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d'istruzione;
- l'estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).
Il testo approvato dal Parlamento UE prevede di includere tra le applicazioni ad alto rischio anche i sistemi di IA che comportano danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l'ambiente. Nella lista ad alto rischio rientrano ora anche i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l'esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti).
Inoltre, i sistemi di IA generativa che si basano su tali modelli, quali ChatGPT, dovrebbero rispettare i requisiti di trasparenza (dichiarando che il contenuto è stato generato dall'IA), aiutando anche a distinguere le cosiddette immagini deep-fake e da quelle reali, e fornire salvaguardie per evitare la generazione di contenuti illegali.