AI Act: in Europa la prima normativa sull’intelligenza artificiale
Rubriche

AI Act: in Europa la prima normativa sull’intelligenza artificiale

Immagine: Luci Blu

Il 14 giugno il Parlamento europeo ha approvato l’AI Act, che, a seguito dell’approvazione dell’Unione europea, dovrebbe entrare in vigore già l’anno prossimo rendendo così concreta la prima regolamentazione sull’IA al mondo.

In Europa si discute di intelligenza artificiale già da qualche anno. Il primo quadro normativo è stato, infatti, proposto dalla Commissione nell’aprile del 2021. L’obiettivo è quello di regolamentare l’intelligenza artificiale in modo da poter sviluppare al meglio questa nuova tecnologia. Sono infatti molti i benefici che potrebbe apportare in ambito sanitario e dei trasporti, come anche la possibilità di una produzione più efficiente e un'energia più conveniente e sostenibile.

Rispetto al testo iniziale la novità maggiore è data dal divieto ai sistemi immediati di identificazione biometrica reale negli spazi accessibili al pubblico, senza nessuna eccezione. Saranno comunque utilizzabili, per il perseguimento di reati gravi e con autorizzazione giudiziaria, quelli a distanza. La legge prevede un sistema di regole diviso per diversi livelli di rischi, che stabiliscono obblighi per fornitori ed utenti.

Nella fascia più alta, quella del rischio inaccettabile, troviamo i sistemi di intelligenza artificiale, che saranno vietati se costituiranno una minaccia per le persone. Si tratta della manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici. Della classificazione sociale, ovvero la classificazione delle persone in base al comportamento, al livello socioeconomico e alle caratteristiche personali e, come detto in precedenza, dei sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale.

Considerati ad alto rischio invece i sistemi di intelligenza artificiale che influiscono negativamente sulla sicurezza o sui diritti fondamentali, divisi in due categorie:  

1) I sistemi di intelligenza artificiale utilizzati in prodotti soggetti alla direttiva dell'UE sulla sicurezza generale dei prodotti. Come giocattoli, aviazione, automobili, dispositivi medici e ascensori.

2) I sistemi di intelligenza artificiale che rientrano in otto aree specifiche dovranno essere registrati in un database dell'UE:

  • identificazione e categorizzazione biometrica di persone naturali
  • gestione e funzionamento di infrastrutture critiche
  • istruzione e formazione professionale
  • occupazione, gestione dei lavoratori e accesso all'autoimpiego
  • accesso e fruizione di servizi privati essenziali e servizi pubblici e vantaggi, forze dell'ordine
  • gestione delle migrazioni, asilo e controllo delle frontiere
  • assistenza nell'interpretazione e applicazione legale della legge.

I sistemi di intelligenza artificiale a rischio limitato avranno requisiti minimi di trasparenza da rispettare per consentire agli utenti di prendere decisioni consapevoli. Sono inclusi i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video. Per quanto riguarda AI generativa, ad esempio ChatGPT, dovranno essere rispettati dei requisiti di trasparenza:

  • rivelare che il contenuto è stato generato da un'intelligenza artificiale
  • progettare il modello in modo da impedire la generazione di contenuti illegali
  • pubblicare riepiloghi dei dati con diritti d'autore utilizzati per l'addestramento.

Potrebbero interessarti ...

  • Su di noi

    Nonsoloambiente è un magazine online interamente dedicato all’informazione ambientale, che vuole offrire un contributo alla diffusione della cultura sostenibile, donando ai suoi lettori una visione pluralista e aggiornata sulle principali novità del settore, attraverso contenuti freschi, originali e di qualità.