Intelligenza artificiale e diritti umani: sfide e opportunità del nuovo AI Act europeo
L'intelligenza artificiale (IA) è ormai parte integrante delle nostre vite: dagli algoritmi che regolano i social media, ai sistemi di riconoscimento facciale, fino all'automazione nei tribunali e nella sanità. Le potenzialità sono enormi, ma altrettanto rilevanti sono i rischi per i diritti fondamentali. Proprio per rispondere a questa sfida, l'Unione Europea ha approvato nel 2024 l'AI Act, primo regolamento al mondo a disciplinare in modo organico lo sviluppo e l'uso dell'intelligenza artificiale.
Quadro giuridico
L'AI Act si fonda su un approccio basato sul rischio:
-
Rischio inaccettabile: sistemi vietati (es. social scoring, manipolazione comportamentale subliminale, riconoscimento facciale in tempo reale in spazi pubblici salvo eccezioni).
-
Alto rischio: sistemi usati in ambiti sensibili (giustizia, sanità, lavoro, istruzione) sottoposti a requisiti rigorosi di trasparenza, tracciabilità e supervisione umana.
-
Rischio limitato: obblighi di trasparenza (es. chatbot che devono dichiarare di essere IA).
-
Rischio minimo: uso libero (es. videogiochi, filtri antispam).
Il regolamento si collega strettamente alla Carta dei diritti fondamentali dell'UE e alla CEDU, ribadendo che innovazione e tutela dei diritti devono procedere insieme.
Diritti umani in gioco
-
Diritto alla privacy (art. 8 CEDU; art. 7-8 Carta UE): l'uso di dati biometrici e sistemi di sorveglianza rischia di comprimere la sfera privata dei cittadini.
-
Non discriminazione (art. 14 CEDU; art. 21 Carta UE): gli algoritmi, se addestrati con dati distorti, possono produrre decisioni discriminatorie (es. assunzioni o concessioni di mutui).
-
Diritto a un equo processo (art. 6 CEDU): in ambito giudiziario, l'automazione delle decisioni non può sostituire la valutazione di un giudice indipendente.
-
Libertà di espressione (art. 10 CEDU): filtri automatici sui contenuti online possono limitare il pluralismo informativo.
Casi concreti
-
Paesi Bassi, 2020: il sistema SyRI, usato per prevenire frodi nel welfare, è stato dichiarato illegittimo da un tribunale perché violava la privacy e discriminava gruppi vulnerabili.
-
Regno Unito, 2019: software predittivo nelle scuole per identificare studenti a rischio di abbandono ha generato bias etnici.
-
Italia, 2023: dibattito acceso sull'uso del riconoscimento facciale da parte delle forze di polizia in contesti urbani.
Sfide attuali
-
Bilanciamento tra sicurezza e libertà: la lotta al terrorismo e alla criminalità spinge per sistemi di sorveglianza, ma rischia di comprimere i diritti civili.
-
Trasparenza algoritmica: spesso gli algoritmi sono "scatole nere", difficili da comprendere anche per gli esperti.
-
Responsabilità legale: chi risponde di un danno causato da un sistema di IA? Il produttore, l'utente o entrambi?
Prospettive future
L'AI Act entrerà in vigore gradualmente dal 2025. La sfida sarà duplice:
-
Per gli Stati membri: garantire applicazione uniforme e creare autorità di vigilanza indipendenti.
-
Per la società civile: monitorare, denunciare e proporre soluzioni quando l'uso dell'IA minaccia i diritti.
La Commissione Europea ha già previsto l'istituzione di un European AI Office, che coordinerà la supervisione e raccoglierà segnalazioni di abusi.
Conclusione
L'intelligenza artificiale può essere uno strumento di progresso, ma senza regole rischia di diventare una nuova forma di disuguaglianza e controllo. L'AI Act rappresenta un passo storico, ma la sua efficacia dipenderà dall'attuazione concreta e dalla vigilanza continua di cittadini, ONG e istituzioni.
SOS Diritti e Legalità continuerà a seguire con attenzione questi sviluppi, difendendo i diritti fondamentali nell'era digitale.
