![Shutterstock Shutterstock](/im/Files/7/6/1/2/0/9/3/3/teaser%20221.png?impolicy=teaser&resizeWidth=700&resizeHeight=350)
AI Act: come l'UE vuole limitare l'intelligenza artificiale
La legge sull'IA è entrata in vigore nell'UE a giugno e regolamenta vari aspetti dello sviluppo e dell'uso dell'intelligenza artificiale, principalmente da parte di aziende, autorità e istituti di ricerca. Che cosa significa esattamente?
L'intelligenza artificiale (IA) è soggetta a regole nell'Unione Europea. A tal fine, a giugno è entrato in vigore l'AI Act, una legge approvata dal Consiglio e dal Parlamento. Le regole sono state concepite per tenere sotto controllo i pericoli dei modelli di intelligenza artificiale.
Ci vorranno fino a due anni perché la legge venga attuata in tutti i suoi aspetti. Tuttavia, sono previsti periodi transitori più o meno lunghi per le singole eccezioni.
L'AI Act in breve
L'approccio della legge si basa sul rischio. Ciò significa che quanto più alto è il rischio che l'uso di un modello possa danneggiare le persone, tanto più difficile dev'essere il suo utilizzo. Tuttavia, esistono alcune eccezioni, come per le forze dell'ordine, ad esempio. I gruppi che si occupano di protezione dei dati e dei diritti umani non sono affatto contenti.
Come funziona l'approccio basato sul rischio?
Esistono tre gruppi di rischio (in realtà quattro, ma i due più bassi vengono raggruppati):
Rischio inaccettabile
Secondo l'articolo 5, punto 1, le applicazioni di IA sono considerate «inaccettabilmente rischiose» se:
- manipolano il comportamento umano
- assegnano un valore al comportamento o alle caratteristiche di una persona (social credit / social scoring)
- sfruttano le debolezze o le vulnerabilità umane
- riconoscono i sistemi pubblici in tempo reale e consentono quindi l'identificazione biometrica di una persona.
Sull'ultimo punto si sta ancora discutendo. Le ragioni sono due. In primo luogo, sono state concordate due eccezioni: la difesa dal terrorismo e il perseguimento di reati gravi. In secondo luogo, la definizione del termine «tempo reale» non è chiara. Le voci critiche temono che anche frazioni di secondo dopo un momento non possano più essere definite «tempo reale» – e quindi il divieto di identificazione biometrica possa non essere più applicato.
Rischio elevato (sistemi IA ad alto rischio)
I sistemi di IA ad alto rischio sono modelli che presentano un rischio significativo per la salute, la sicurezza o i diritti fondamentali. Ad esempio, sistemi utilizzati nel traffico stradale, negli ospedali, nelle forze dell'ordine o nelle banche (e molti altri).
![Il Consiglio dell'UE ha adottato la legge a maggio.](/im/Files/7/6/1/2/0/9/1/9/parlament%202.jpeg?impolicy=resize&resizeWidth=430)
Fonte: Shutterstock
Se un sistema è classificato come «sistema IA ad alto rischio», si applicano regole speciali. Gli operatori sono tenuti a garantire la conformità dei loro sistemi a tali norme. Questo è controllato. Ad esempio, devono istituire un sistema di gestione del rischio e un sistema di qualità (articolo 9. Devono inoltre spiegare come l'utilizzo dei loro modelli di intelligenza artificiale influisce sugli utenti, fornire una formazione preventiva e molto altro ancora, come regolato dall'articolo 8 (e segg.).
Rischio basso o minimo
Puoi scoprire se e come i modelli IA con rischio basso o minimo sono definiti nell'AI Act all'articolo 52. Si tratta di sistemi che interagiscono con le persone o generano contenuti.
Questi includono chatbot, IA in-game, filtri antispam, algoritmi di ricerca e deep fake. Tuttavia, questi ultimi devono essere etichettati come tali. Se tali sistemi interagiscono con le persone, queste devono essere informate. Esempio: se un negozio online utilizza ChatGPT per questioni di assistenza, la finestra di chat deve chiaramente indicare che non stai parlando con un essere umano, ma con un'intelligenza artificiale.
A proposito: se stai lavorando a un modello IA per un'azienda, puoi scoprire in quale categoria potrebbe essere classificato il modello attraverso un questionario. In seguito, puoi vedere quali sono gli obblighi e quanto tempo dopo l'introduzione dell'AI Act dovrai adempiere a tali obblighi.
Come l'UE definisce esattamente l'intelligenza artificiale
La definizione di IA data dall'UE è piuttosto ampia. Non si applica solo a modelli linguistici di grandi dimensioni come ChatGPT o Gemini. Un documento di 17 pagine spiega in dettaglio cosa comporta.
Ti elenco le caratteristiche principali, risparmiandoti la lettura. Un software è considerato intelligenza artificiale se:
- utilizza concetti di machine learning o deep learning OPPURE
- utilizza concetti logici e basati sulla conoscenza OPPURE
- utilizza approcci statistici, metodi di stima, ricerca e ottimizzazione
e con essi
- persegue gli obiettivi fissati dalle persone OPPURE
- predice o raccomanda risultati o contenuti OPPURE
- influenza il loro ambiente.
Chi deve rispettare l'AI Act?
In pratica chiunque sviluppa, fornisce o utilizza un sistema di intelligenza artificiale. Quindi principalmente aziende, istituti di ricerca o autorità. Ma anche qui ci sono delle eccezioni. Ad esempio, la legge non si applica come di consueto se il sistema IA viene utilizzato esclusivamente per scopi militari. È importante sapere che il problema riguarderà anche le aziende in Svizzera e in altri Paesi del mondo, non appena sarà disponibile un modello di IA utilizzabile nell'UE.
Chi controlla se la legge viene rispettata?
In primo luogo, i singoli Stati membri hanno la responsabilità di garantire il rispetto dell'AI Act e sono obbligati a istituire autorità di vigilanza a fini di monitoraggio. Nell'UE esiste anche l'Ufficio per l'IA, che, tra le altre cose, collabora con le autorità nazionali e coordina azioni congiunte.
![Alto rischio, linee guida severe: questo è il principio.](/im/Files/7/6/1/2/0/9/2/0/risk.jpeg?impolicy=resize&resizeWidth=430)
Fonte: consilium.europa.eu
Chi non rispetta la legge sull'IA può essere sanzionato. Come nel caso del Digital Markets Act e di altre leggi dell'UE, le sanzioni non sono lievi. Per le pratiche di IA vietate sono previste multe fino a 35 milioni di euro, o fino al 7% del fatturato annuo globale dell'azienda colpevole. Il fatturato annuo di Meta ammonta a 134,9 miliardi di dollari e una multa potrebbe quindi ammontare fino a 9,4 miliardi di dollari.
Per i reati ad alto rischio, l'UE fissa il limite di ammenda a 15 milioni o al 3% del reddito annuo. La trasmissione di informazioni false costa fino a 7,5 milioni di euro o l'1% del fatturato annuo.
Cosa succede ora?
L'AI Act è entrato in vigore da poco. Dopo i due anni successivi, sarà pienamente applicabile. Ma naturalmente anche in questo caso ci sono scadenze diverse:
- I sistemi di intelligenza artificiale che presentano un rischio inaccettabile saranno vietati entro sei mesi e non potranno più essere utilizzati. Quindi alla fine del 2024.
- Per i sistemi di intelligenza artificiale in generale, le regole si applicano dopo 12 mesi. Questi includono ChatGPT e Google Gemini.
- I tempi sono più lunghi per i sistemi IA ad alto rischio e già esistenti. L'AI Act entra in vigore solo dopo 36 mesi, perché gli adeguamenti secondo l'UE richiedono più tempo e sono più sensibili.
Gli Stati membri dell'UE devono aver istituito le suddette autorità di vigilanza sull'IA e la relativa struttura 12 mesi dopo l'entrata in vigore.
Ogni anno, anche dopo la scadenza dei termini, la Commissione europea verifica se è necessario apportare modifiche alla categorizzazione o alla legge. Dopotutto, l'intelligenza artificiale è in costante sviluppo.
A 33 persone piace questo articolo
![User Avatar](/im/Files/7/5/1/6/1/6/3/2/portrait_florian_001.jpg?impolicy=avatar&resizeWidth=96)
![User Avatar](/im/Files/7/5/1/6/1/6/3/2/portrait_florian_001.jpg?impolicy=avatar&resizeWidth=80)
Da quando ho scoperto come attivare entrambi i canali telefonici sulla scheda ISDN per ottenere una maggiore larghezza di banda, sperimento con le reti digitali. Con quelle analogiche, invece, da quando so parlare. A Winterthur per scelta, con il cuore rossoblu.