x

x

Vai al contenuto
Messaggio pubblicitario

Artificial Intelligence Act: cos’è e come funziona il regolamento UE in materia di IA

Cos'è l'Artificial Intelligence Act e come funziona l'AI Act

L’intelligenza Artificiale è uno degli argomenti maggiormente dibattuti dall’opinione pubblica in questo momento, tanto che si è reso necessario discutere su come regolamentarne l’utilizzo. L’EU AI Act è una proposta di legge europea sull’intelligenza artificiale (IA) – la prima al mondo del suo genere nata proprio con tale scopo. In questo articolo approfondiremo nello specifico, cos’è l’Artificial Intelligence Act, come funziona e a che punto è la proposta di legge sul tema.

Artificial Intelligent Act: cos’è e come funziona

In generale, lo scopo dell’EU AI Act è assegnare alle applicazioni dell’IA delle categorie di rischio e porre le basi per una regolamentazione comune affinché l’uso della tecnologia possa essere etico, sicuro e controllato. Come il Regolamento generale sulla protezione dei dati (GDPR) introdotto dall’Unione Europea nel 2018, l’EU AI Act potrebbe dunque diventare uno standard globale.

Per capire cos’è l’Artificial Intelligence Act, è necessario comprendere quanto le applicazioni dell’IA influenzino già le nostre attività di tutti i giorni, determinando, ad esempio, quali informazioni vediamo online, prevedendo quale contenuto sarà per noi più coinvolgente, catturando e analizzando dati dai volti per far rispettare le leggi o personalizzare annunci pubblicitari, ma ci sono applicazioni in ogni settore come sanità, il settore pubblico, la finanza e il campo legale. Ecco perché la regolamentazione dell’IA proposta in Europa sta già facendo scalpore a livello internazionale.

AI Act: lo stato della normativa

Il settore dell’intelligenza artificiale (IA) rappresenta un’opportunità di sviluppo cruciale per l’economia e la società europea. L’uso delle tecnologie AI consente alle imprese e alle economie europee di ottenere vantaggi competitivi attraverso previsioni migliorate, ottimizzazione delle operazioni e delle risorse, personalizzazione dei servizi e altro ancora. Tuttavia, l’introduzione di queste nuove tecnologie comporta anche nuovi rischi che devono essere mitigati attraverso un quadro normativo condiviso.

L’11 maggio scorso il Parlamento Europeo ha condiviso i contenuti del confronto preliminare sulle prime norme mai proposte per l’Intelligenza Artificiale. Con i loro emendamenti alla proposta della Commissione, i parlamentari europei mirano a garantire che i sistemi di IA siano supervisionati da persone, siano sicuri, trasparenti, tracciabili, non discriminatori ed ecologicamente sostenibili. Vogliono anche avere una definizione uniforme per l’IA progettata per essere neutra dal punto di vista tecnologico, in modo che possa applicarsi sia ai sistemi di IA attuali che a quelli futuri.

Che cos'è l'Artificial Intelligence Act, normativa UE in materia di IA
Il Parlamento Europeo ha varato la prima proposta di legge per regolamentare l’uso dell’Intelligenza Artificiale

Che cos’è l’Artificial Intelligence Act? Pratiche di IA vietate

Le norme proposte nell’EU AI Act, seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio che l’IA può generare. Sistemi di IA con un livello di rischio inaccettabile per la sicurezza delle persone sarebbero severamente vietati, inclusi sistemi che utilizzano tecniche subliminali o manipolative, sfruttano le vulnerabilità delle persone o sono utilizzati per il punteggio sociale (classificazione delle persone in base al loro comportamento sociale).

Come si legge in un comunicato stampa diffuso dal Parlamento Europeo, per aiutarci a capire cos’è L’Artificial Intelligence Act e come funziona, all’elenco delle applicazioni più rischiose si aggiungono anche:

  • Sistemi di identificazione biometrica “in tempo reale” in luoghi accessibili al pubblico;
  • Sistemi di identificazione biometrica “post” con l’unica eccezione delle forze dell’ordine per il perseguimento di reati gravi e solo dopo autorizzazione giudiziaria;
  • Sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad esempio, genere, razza, etnia, cittadinanza, religione, orientamento politico);
  • Sistemi di polizia predittiva (basati su profilazione, posizione o comportamento criminale passato);
  • Sistemi di riconoscimento delle emozioni in applicazioni di forze dell’ordine, gestione delle frontiere, luoghi di lavoro e istituzioni educative;
  • Raccolta indiscriminata di dati biometrici da social media o registrazioni CCTV per creare database di riconoscimento facciale (violando i diritti umani e il diritto alla privacy).

Quali sono i rischi dell’Intelligenza artificiale? Altri esempi

I parlamentari europei hanno ampliato la classificazione delle aree ad alto rischio per includere danni alla salute delle persone, alla sicurezza, ai diritti fondamentali o all’ambiente. Hanno anche aggiunto ai sistemi di IA ad alto rischio l’influenza sugli elettori nelle campagne politiche e nei sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti ai sensi del Digital Services Act).

Esiste uno scontro tra due fazioni riguardo all’AI Act. Da una parte, ci sono gli innovatori, che vedono l’innovazione come un progresso inarrestabile e temono che la normativa possa ostacolarla. Dall’altra parte, ci sono i sostenitori delle leggi vigenti che cercano di garantire il rispetto delle norme esistenti per proteggere i dati personali e i diritti delle persone. Questi due gruppi sono divisi sulle implicazioni della normativa sull’innovazione e sulla libertà stessa.

Mentre i “nuovisti” sostengono che la regolamentazione possa bloccare l’innovazione e limitare il futuro, i “passatisti” sottolineano l’importanza di aderire ad uno standard condiviso.

IA a uso generale – Misure di trasparenza

Continuando la nostra panoramica per capire cos’è L’Artificial Intelligence Act e come funziona, non possiamo dimenticare anche un altro tema sollevato dai parlamentari europei, quello della trasparenza. Questi ultimi hanno incluso obblighi per i fornitori di modelli di base, affinché garantiscano una robusta protezione dei diritti fondamentali, della salute e della sicurezza, dell’ambiente, della democrazia e dello stato di diritto.

I modelli generativi di base, come ad esempio Chat GPT, dovrebbero rispettare requisiti aggiuntivi di trasparenza, come la divulgazione del fatto che il contenuto è stato generato da un sistema di IA, la progettazione del modello per evitare la generazione di contenuti illegali e la pubblicazione di sintesi di dati protetti da copyright utilizzati per l’addestramento.

Sostenere l’innovazione e proteggere i diritti dei cittadini

Per promuovere l’innovazione nell’IA tra le proposte c’è anche quella di implementare ambienti controllati, istituiti dalle autorità pubbliche, per testare un’IA prima della sua immissione sul mercato.

I parlamentari europei vogliono, inoltre, rafforzare il diritto dei cittadini di presentare reclami sui sistemi di IA e ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che influenzano significativamente i loro diritti. Hanno anche riformato il ruolo dell’Ufficio IA dell’UE, che sarebbe responsabile del monitoraggio dell’attuazione del quadro normativo sull’IA.

Per effetto delle nuove norme in arrivo, verosimilmente assisteremo ad un uso più ordinato dell’Intelligenza artificiale

Il punto di OpenAI

Anche OpenAI, l’organizzazione no profit di ricerca sull’intelligenza artificiale che ha lanciato tra le altre cose Chat GPT, sostiene la necessità di più regole sull’intelligenza artificiale. Il CEO Sam Altman, durante un’audizione al Congresso americano, ha dichiarato che la regolamentazione dell’IA è essenziale e che le norme dovrebbero consentire alle aziende di essere flessibili e adattarsi ai nuovi sviluppi tecnologici.

Altman stesso si è offerto di contribuire alla stesura di norme che garantiscano un equilibrio tra sicurezza e accesso ai benefici della tecnologia. Ha sottolineato l’importanza che l’intelligenza artificiale sia sviluppata con valori democratici per evitare danni significativi.

Artificial Intelligence Act: prossimi step

In Europa, per effetto delle nuove norme in arrivo, verosimilmente assisteremo ad un uso più ordinato dell’Intelligenza artificiale. Per concludere questa panoramica che spiega cos’è l’Artificial Intelligence Act e come funziona, non resta che parlare dei prossimi step che l’UE ha in programma sul tema.

Prima che possano iniziare i negoziati con il Consiglio sulla forma finale della legge, questo mandato negoziale preliminare deve essere approvato da tutto il Parlamento, il voto è previsto durante la sessione del 12-15 giugno, per poi dare avvio ai dialoghi con il Consiglio e la Commissione, così da chiudere la regolamentazione entro il prossimo anno.