Shutterstock
Retroscena

AI Act: come l'UE vuole limitare l'intelligenza artificiale

Florian Bodoky
13/6/2024
Traduzione: Rebecca Vassella

La legge sull'IA è entrata in vigore nell'UE a giugno e regolamenta vari aspetti dello sviluppo e dell'uso dell'intelligenza artificiale, principalmente da parte di aziende, autorità e istituti di ricerca. Che cosa significa esattamente?

L'intelligenza artificiale (IA) è soggetta a regole nell'Unione Europea. A tal fine, a giugno è entrato in vigore l'AI Act, una legge approvata dal Consiglio e dal Parlamento. Le regole sono state concepite per tenere sotto controllo i pericoli dei modelli di intelligenza artificiale.

  • Novità e trend

    AI Act: adottato il regolamento europeo per l'intelligenza artificiale

    di Florian Bodoky

Ci vorranno fino a due anni perché la legge venga attuata in tutti i suoi aspetti. Tuttavia, sono previsti periodi transitori più o meno lunghi per le singole eccezioni.

L'AI Act in breve

L'approccio della legge si basa sul rischio. Ciò significa che quanto più alto è il rischio che l'uso di un modello possa danneggiare le persone, tanto più difficile dev'essere il suo utilizzo. Tuttavia, esistono alcune eccezioni, come per le forze dell'ordine, ad esempio. I gruppi che si occupano di protezione dei dati e dei diritti umani non sono affatto contenti.

Come funziona l'approccio basato sul rischio?

Esistono tre gruppi di rischio (in realtà quattro, ma i due più bassi vengono raggruppati):

Rischio inaccettabile

Secondo l'articolo 5, punto 1, le applicazioni di IA sono considerate «inaccettabilmente rischiose» se:

  1. manipolano il comportamento umano
  1. assegnano un valore al comportamento o alle caratteristiche di una persona (social credit / social scoring)
  1. sfruttano le debolezze o le vulnerabilità umane
  1. riconoscono i sistemi pubblici in tempo reale e consentono quindi l'identificazione biometrica di una persona.

Sull'ultimo punto si sta ancora discutendo. Le ragioni sono due. In primo luogo, sono state concordate due eccezioni: la difesa dal terrorismo e il perseguimento di reati gravi. In secondo luogo, la definizione del termine «tempo reale» non è chiara. Le voci critiche temono che anche frazioni di secondo dopo un momento non possano più essere definite «tempo reale» – e quindi il divieto di identificazione biometrica possa non essere più applicato.

Rischio elevato (sistemi IA ad alto rischio)

I sistemi di IA ad alto rischio sono modelli che presentano un rischio significativo per la salute, la sicurezza o i diritti fondamentali. Ad esempio, sistemi utilizzati nel traffico stradale, negli ospedali, nelle forze dell'ordine o nelle banche (e molti altri).

Il Consiglio dell'UE ha adottato la legge a maggio.
Il Consiglio dell'UE ha adottato la legge a maggio.
Fonte: Shutterstock

Se un sistema è classificato come «sistema IA ad alto rischio», si applicano regole speciali. Gli operatori sono tenuti a garantire la conformità dei loro sistemi a tali norme. Questo è controllato. Ad esempio, devono istituire un sistema di gestione del rischio e un sistema di qualità (articolo 9. Devono inoltre spiegare come l'utilizzo dei loro modelli di intelligenza artificiale influisce sugli utenti, fornire una formazione preventiva e molto altro ancora, come regolato dall'articolo 8 (e segg.).

Rischio basso o minimo

Puoi scoprire se e come i modelli IA con rischio basso o minimo sono definiti nell'AI Act all'articolo 52. Si tratta di sistemi che interagiscono con le persone o generano contenuti.

Questi includono chatbot, IA in-game, filtri antispam, algoritmi di ricerca e deep fake. Tuttavia, questi ultimi devono essere etichettati come tali. Se tali sistemi interagiscono con le persone, queste devono essere informate. Esempio: se un negozio online utilizza ChatGPT per questioni di assistenza, la finestra di chat deve chiaramente indicare che non stai parlando con un essere umano, ma con un'intelligenza artificiale.

A proposito: se stai lavorando a un modello IA per un'azienda, puoi scoprire in quale categoria potrebbe essere classificato il modello attraverso un questionario. In seguito, puoi vedere quali sono gli obblighi e quanto tempo dopo l'introduzione dell'AI Act dovrai adempiere a tali obblighi.

Come l'UE definisce esattamente l'intelligenza artificiale

La definizione di IA data dall'UE è piuttosto ampia. Non si applica solo a modelli linguistici di grandi dimensioni come ChatGPT o Gemini. Un documento di 17 pagine spiega in dettaglio cosa comporta.

Ti elenco le caratteristiche principali, risparmiandoti la lettura. Un software è considerato intelligenza artificiale se:

  1. utilizza concetti di machine learning o deep learning OPPURE
  1. utilizza concetti logici e basati sulla conoscenza OPPURE
  1. utilizza approcci statistici, metodi di stima, ricerca e ottimizzazione

e con essi

  1. persegue gli obiettivi fissati dalle persone OPPURE
  1. predice o raccomanda risultati o contenuti OPPURE
  1. influenza il loro ambiente.

Chi deve rispettare l'AI Act?

In pratica chiunque sviluppa, fornisce o utilizza un sistema di intelligenza artificiale. Quindi principalmente aziende, istituti di ricerca o autorità. Ma anche qui ci sono delle eccezioni. Ad esempio, la legge non si applica come di consueto se il sistema IA viene utilizzato esclusivamente per scopi militari. È importante sapere che il problema riguarderà anche le aziende in Svizzera e in altri Paesi del mondo, non appena sarà disponibile un modello di IA utilizzabile nell'UE.

Chi controlla se la legge viene rispettata?

In primo luogo, i singoli Stati membri hanno la responsabilità di garantire il rispetto dell'AI Act e sono obbligati a istituire autorità di vigilanza a fini di monitoraggio. Nell'UE esiste anche l'Ufficio per l'IA, che, tra le altre cose, collabora con le autorità nazionali e coordina azioni congiunte.

Alto rischio, linee guida severe: questo è il principio.
Alto rischio, linee guida severe: questo è il principio.
Fonte: consilium.europa.eu

Chi non rispetta la legge sull'IA può essere sanzionato. Come nel caso del Digital Markets Act e di altre leggi dell'UE, le sanzioni non sono lievi. Per le pratiche di IA vietate sono previste multe fino a 35 milioni di euro, o fino al 7% del fatturato annuo globale dell'azienda colpevole. Il fatturato annuo di Meta ammonta a 134,9 miliardi di dollari e una multa potrebbe quindi ammontare fino a 9,4 miliardi di dollari.

Per i reati ad alto rischio, l'UE fissa il limite di ammenda a 15 milioni o al 3% del reddito annuo. La trasmissione di informazioni false costa fino a 7,5 milioni di euro o l'1% del fatturato annuo.

Cosa succede ora?

L'AI Act è entrato in vigore da poco. Dopo i due anni successivi, sarà pienamente applicabile. Ma naturalmente anche in questo caso ci sono scadenze diverse:

  1. I sistemi di intelligenza artificiale che presentano un rischio inaccettabile saranno vietati entro sei mesi e non potranno più essere utilizzati. Quindi alla fine del 2024.
  1. Per i sistemi di intelligenza artificiale in generale, le regole si applicano dopo 12 mesi. Questi includono ChatGPT e Google Gemini.
  2. I tempi sono più lunghi per i sistemi IA ad alto rischio e già esistenti. L'AI Act entra in vigore solo dopo 36 mesi, perché gli adeguamenti secondo l'UE richiedono più tempo e sono più sensibili.

Gli Stati membri dell'UE devono aver istituito le suddette autorità di vigilanza sull'IA e la relativa struttura 12 mesi dopo l'entrata in vigore.

Ogni anno, anche dopo la scadenza dei termini, la Commissione europea verifica se è necessario apportare modifiche alla categorizzazione o alla legge. Dopotutto, l'intelligenza artificiale è in costante sviluppo.

Immagine di copertina: Shutterstock

A 33 persone piace questo articolo


Potrebbero interessarti anche questi articoli

  • Retroscena

    Contro le fake news e simili: cos'è il Digital Services Act?

    di Florian Bodoky

  • Retroscena

    Diritto alla riparazione: il nuovo servizio di TÜV testa la riparabilità della merce

    di Maike Schuldt-Jensen

  • Retroscena

    Piattaforme di incontri nell'era dell'intelligenza artificiale

    di Natalie Hemengül

Commenti

Avatar