Artificial Intelligence Act: accordo trovato
Rubriche

Artificial Intelligence Act: accordo trovato

È stato raggiunto un accordo per il progetto di legge inerente all’intelligenza artificiale in Europa e il suo rispetto dei diritti fondamentali e della democrazia, consentendo così alle imprese di prosperare ed espandersi.

 

Venerdì scorso, il Parlamento e il Consiglio hanno raggiunto un accordo provvisorio sulla legge sull'Intelligenza Artificiale. Il regolamento ha l’obiettivo di garantire che il rispetto dei diritti fondamentali, della democrazia, dello stato di diritto e della sostenibilità ambientale siano preservati dall'IA ad alto rischio, dando però modo all'Europa di diventare leader nel settore. Le norme stabiliscono obblighi per l'IA in base ai suoi rischi potenziali e al livello di impatto.

Divieti di utilizzo

Sono stati concordati dei divieti nell’utilizzo dell’IA:

·        i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad esempio, convinzioni politiche, religiose, filosofiche, orientamento sessuale, razza);

·        la raccolta non mirata di immagini del volto da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale;

·        riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni scolastiche;

·        la classificazione sociale basata sul comportamento sociale o sulle caratteristiche personali;

·        sistemi di IA che manipolano il comportamento umano per eludere il loro libero arbitrio;

·        IA utilizzata per sfruttare le vulnerabilità delle persone (a causa della loro età, disabilità, situazione sociale o economica).

Eccezioni 

Sono state inoltre definite delle eccezioni per l'uso di sistemi di identificazione biometrica (RBI) in spazi accessibili al pubblico a fini di applicazione della legge, previa autorizzazione giudiziaria e per liste di reati rigorosamente definite. L'RBI "post-remoto" può essere utilizzato esclusivamente per la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave.

L'RBI "in tempo reale" deve rispettare condizioni rigorose e il suo uso deve essere limitato nel tempo e nel luogo, con lo scopo di:

·        ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale);

·        prevenzione di una minaccia terroristica specifica e attuale;

·        localizzazione o identificazione di una persona sospettata di aver commesso uno dei reati specifici menzionati nel regolamento (ad esempio, terrorismo, traffico di esseri umani, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un'organizzazione criminale, reati ambientali).

Obblighi per i sistemi ad alto rischio

Per i sistemi di IA classificati come ad alto rischio con il possibile danno alla salute, alla sicurezza, ai diritti fondamentali, all'ambiente, alla democrazia e allo stato di diritto, sono stati concordati obblighi chiari. È stata incluse anche una valutazione obbligatoria dell'impatto sui diritti fondamentali, applicabile inoltre ai settori assicurativo e bancario.

I sistemi di intelligenza artificiale utilizzati per influenzare l'esito delle elezioni e il comportamento degli elettori sono tra quelli classificati come ad alto rischio. I cittadini avranno quindi il diritto di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate sui sistemi di IA ad alto rischio che hanno un impatto sui loro diritti.

Requisiti di trasparenza

I sistemi di intelligenza artificiale generica dovranno rispettare dei requisiti di trasparenza, in modo da tener conto della varietà di compiti che possono svolgere e dell’evoluzione – sempre più veloce – delle loro capacità.

Questi includono la stesura di una documentazione tecnica, il rispetto della legge sul copyright dell'UE e la diffusione di sintesi dettagliate sui contenuti utilizzati per la formazione.

Per i modelli ad alto impatto con rischio sistemico gli obblighi saranno più stringenti. Se questi modelli soddisfano determinati criteri, dovranno condurre valutazioni del modello, valutare e mitigare i rischi sistemici, condurre test avversari, riferire alla Commissione su incidenti gravi, garantire la sicurezza informatica e riferire sulla loro efficienza energetica.

Misure a sostegno dell'innovazione e delle PMI

Uno degli obiettivi è garantire che le imprese, soprattutto le PMI, possano sviluppare soluzioni di IA senza pressioni da parte dei giganti dell'industria che controllano la catena del valore. Vengono quindi promosse le cosiddette regulatory sandbox e real-world-testing, istituite dalle autorità nazionali per sviluppare e addestrare le IA innovative prima dell'immissione sul mercato.

Sanzioni ed entrata in vigore

La violazione delle norme può portare a multe che vanno da 35 milioni di euro o il 7% del fatturato globalea 7,5 milioni o l'1,5% del fatturato, a seconda della violazione e delle dimensioni dell'azienda.


Immagine: Steve Johnson

 

Potrebbero interessarti ...

  • Su di noi

    Nonsoloambiente è un magazine online interamente dedicato all’informazione ambientale, che vuole offrire un contributo alla diffusione della cultura sostenibile, donando ai suoi lettori una visione pluralista e aggiornata sulle principali novità del settore, attraverso contenuti freschi, originali e di qualità.