
Si parla spesso di pericoli dell’Intelligenza Artificiale, con un grido di allarme tipico dell’introduzione di ogni tecnologia disruptive. Accadde con l’introduzione dei telai meccanici, la radio, l’energia elettrica, i libri, la televisione, internet, smartphone e così via.
Ma sul serio l’intelligenza artificiale è pericolosa? Quasi sempre il pensiero va a quei film di fantascienza dove l’AI decide di attivare le bombe atomiche perché scopre che il problema del mondo sono proprio gli umani. Ebbene, direi che il pericolo non sono tanto le AI, ma gli esseri umani.
Non che bisogni distruggere ogni forma di vita per correggere il problema, non sia mai, ma di certo che l’AI può diventare pericolosa è perché di base chi la usa fa schifo. Insomma, un coltello da cucina può essere usato per preparare piatti fantastici, o per uccidere. Dipende se chi usa lo strumento è una persona sana di mente o meno.
A tal proposito, visto che di insani di mente ne è pieno il mondo, l’Unione Europea ha deciso di iniziare a regolamentare l’AI. Il camminino sarà lungo, ma di certo avere delle regole sarà sano per tutti, anche per chi lavora e fa affari usando l’intelligenza artificiale.
Con 499 voti a favore, 28 contrari e 93 astensioni, il 14 giugno l’UE ha iniziato una posizione negoziale per arrivare a stilare l’AI Act.
In questo articolo:
L’AI Act: Cosa Significa?
L’AI Act è un tentativo ambizioso di fornire un quadro legislativo solido per l’uso dell’IA. Questo regolamento mira a promuovere l’adozione di un’IA centrata sull’uomo, garantendo contemporaneamente un elevato livello di protezione della salute, della sicurezza, dei diritti fondamentali, della democrazia e dell’ambiente dai potenziali effetti dannosi dell’IA.
Con l’AI Act, l’Unione Europea mira a creare un ambiente sicuro e favorevole all’innovazione per gli utenti, gli sviluppatori e gli implementatori di IA. Questo atto regolamentare propone un approccio basato su quattro livelli di rischio: rischio inaccettabile, alto rischio, rischio limitato e rischio minimo.
Un’Analisi dei Livelli di Rischio
Rischio Inaccettabile
I sistemi di IA che rientrano nella categoria del “rischio inaccettabile” sono esplicitamente vietati. Questi includono sistemi di riconoscimento facciale in tempo reale in luoghi pubblici, strumenti di polizia predittiva e sistemi di punteggio sociale come quelli in Cina, che assegnano alle persone un “punteggio di salute” basato sul loro comportamento.
Alto Rischio
I sistemi di IA ad “alto rischio” sono quelli che minacciano di arrecare “danni significativi alla salute, alla sicurezza, ai diritti fondamentali delle persone o all’ambiente”. Questi includono sistemi utilizzati per influenzare gli elettori in un’elezione, così come le piattaforme di social media con più di 45 milioni di utenti che raccomandano contenuti ai loro utenti – una lista che includerebbe Facebook, Twitter e Instagram.
Rischio Limitato
I sistemi di IA a “rischio limitato” sono quelli che presentano un livello di rischio inferiore rispetto a quelli ad “alto rischio” e “rischio inaccettabile”. Questi sistemi devono rispettare determinate norme di trasparenza.
Rischio Minimo
Infine, i sistemi di IA con un livello di rischio “minimo” o nullo, come i filtri anti-spam, rientrano in gran parte al di fuori delle regole dell’AI Act.
Le Sanzioni Previste dall’AI Act
Le sanzioni previste dall’AI Act sono piuttosto severe. L’infrazione delle pratiche di IA proibite potrebbe portare a una multa fino a 40 milioni di euro o un importo pari al 7% del fatturato annuale mondiale dell’azienda, a seconda di quale sia maggiore.
Questo supera di gran lunga la legge sulla privacy dei dati dell’UE, il General Data Protection Regulation (GDPR), sotto il quale Meta è stata multata di 1,2 miliardi di euro il mese scorso.
Protezione per l’Innovazione
L’AI Act prevede anche un certo grado di protezione per l’innovazione. Ad esempio, le sanzioni sarebbero “proporzionate” e terrebbero conto della posizione di mercato dei fornitori di piccola scala, suggerendo una certa indulgenza per le start-up.
Inoltre, l’Atto richiede agli Stati membri dell’UE di istituire almeno una “sandbox” normativa per testare i sistemi di IA prima che vengano implementati.
Microsoft e IBM, due delle aziende leader nello sviluppo dell’IA a livello globale, hanno accolto con favore i progressi dell’AI Act. Tuttavia, hanno anche suggerito alcuni miglioramenti al progetto di legge, tra cui una maggiore chiarezza sul concetto di IA ad “alto rischio”.
Il Futuro dell’AI Act
L’AI Act potrebbe non entrare in vigore fino al 2026, dato che l’IA sta avanzando rapidamente e il testo legislativo ha già subito diversi aggiornamenti dal suo inizio nel 2021. A ogni modo, questo atto rappresenta un importante passo avanti verso una regolamentazione globale dell’IA e potrebbe servire da modello per altre nazioni nel mondo.
In conclusione
L’AI Act segna una pietra miliare storica nella regolamentazione dell’Intelligenza Artificiale. Alla luce dei possibili pericoli legati all’uso della tecnologia AI, l’Unione Europea ha assunto un ruolo guida nell’elaborazione di un quadro normativo solido che promuove un utilizzo dell’IA centrato sull’uomo, mentre garantisce la protezione della salute, della sicurezza, dei diritti fondamentali, della democrazia e dell’ambiente.
Con l’identificazione di quattro livelli di rischio, dal rischio inaccettabile a quello minimo, l’AI Act fornisce linee guida per l’uso dei sistemi di intelligenza artificiale. Le severe sanzioni previste per le violazioni rappresentano un ulteriore deterrente per un utilizzo improprio della tecnologia.