Schegge di vangelo a cura di don Stefano Bimbi
San Giovanni I a cura di Ermes Dovico
UE

Intelligenza Artificiale, arrivano le regole. Ora si capirà chi le applica

Ascolta la versione audio dell'articolo

Approvato dal Parlamento europeo l'AI Act che regola l'intelligenza artificiale. Una legge di buon senso che protegge la libertà umana, ma non mancano gli interrogativi. 

Politica 15_03_2024
La app di Chat GPT (La Presse)

Quando arrivano le regole giuridiche per disciplinare ambiti nuovi si canta sempre vittoria perché si colmano dei vuoti. Tuttavia, nel caso dell’Intelligenza Artificiale (AI) le incognite sono tantissime. Anzitutto bisognerà capire quanto queste regole potranno essere applicate e, soprattutto, da chi verranno fatte rispettare.

L'Unione Europea si è distinta nel panorama globale come pioniera nell'adozione di una disciplina giuridica sull'Intelligenza Artificiale (AI), dimostrando un impegno tangibile nel bilanciare le opportunità e i rischi che questa tecnologia comporta. Con il voto di due giorni fa il Parlamento europeo ha dato il via libera definitivo all’Artificial Intelligence Act (AI Act), regolamento che dovrebbe produrre appieno i suoi effetti entro 24 mesi. Il testo ha finalmente completato tutti i passaggi del lungo iter legislativo europeo, innescando il conto alla rovescia per tutte le aziende del settore che dovranno adeguarsi alle nuove norme dell’Unione. Un traguardo importante, raggiunto dopo diversi anni di lavoro delle istituzioni europee, alla ricerca del giusto equilibrio tra protezione dei diritti e delle libertà fondamentali e sostegno all’innovazione.

L'AI Act - seguendo la definizione proposta dall'Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) - definisce l’Intelligenza Artificiale come "un sistema automatizzato progettato per operare con diversi gradi di autonomia e capacità di adattamento dopo l'installazione, che, tramite input ricevuti, genera output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali" (articolo 3).

Il principale obiettivo del regolamento europeo sull’AI è quello di assicurare che lo sviluppo delle nuove tecnologie rispetti e tuteli i diritti fondamentali e la dignità umana. Tuttavia, non sono mancate le critiche nei confronti del testo, soprattutto per quanto riguarda l'approvazione della sorveglianza biometrica di massa nelle aree pubbliche da parte delle autorità. Questa disposizione ha sollevato preoccupazioni riguardo alla violazione della privacy e alla potenziale erosione delle libertà civili. Pertanto, nonostante i suoi obiettivi nobili, l'AI Act si trova al centro di un acceso dibattito sul bilanciamento tra sicurezza e diritti individuali.

Peraltro permangono una serie di incognite e di sfide che meritano un'attenta considerazione. Una delle principali questioni da affrontare è il rapporto tra l'uomo e la tecnologia. Se da un lato l'AI offre promettenti opportunità di automatizzazione e miglioramento delle prestazioni, dall'altro si pongono interrogativi sulla possibile sostituzione dell'uomo con le macchine. È quindi fondamentale valutare quanto i rischi di sostituzione siano reali e quali impatti ciò potrebbe avere sul mercato del lavoro e sulla società nel suo complesso. Inoltre, è essenziale garantire un adeguato addestramento degli algoritmi utilizzati dalle aziende, al fine di limitare potenziali discriminazioni e bias. Questo solleva la questione della responsabilità delle imprese nel garantire la corretta formazione e supervisione degli algoritmi, nonché la trasparenza nel processo decisionale automatizzato.

Oltre alle sfide legate all'impiego dell'AI, occorre prestare particolare attenzione all'applicazione e all'efficacia delle regole previste dall'AI Act. È cruciale assicurare che tale regolamentazione venga applicata in modo equo e proporzionato, evitando un'eccessiva profilazione e garantendo la tutela dei diritti individuali e della privacy.

Proprio perché l’Intelligenza Artificiale rappresenta un'arma a doppio taglio, l’AI Act vieta alcune applicazioni di questa tecnologia che minacciano i diritti dei cittadini, come ad esempio, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e lo scraping non mirato di immagini facciali da Internet o filmati per creare database di riconoscimento dei volti. Saranno vietati anche il riconoscimento delle emozioni sul posto di lavoro e a scuola, l’introduzione di sistemi di punteggio sociale, la polizia predittiva (sistemi di controllo che si basano esclusivamente sulla profilazione di una persona o sulla valutazione delle sue caratteristiche) e l’Intelligenza Artificiale che manipola il comportamento umano o sfrutta le vulnerabilità delle persone.

L’altro nodo da sciogliere, accanto a quello dell’applicabilità effettiva delle nuove regole, riguarda l’individuazione dell’Autorità incaricata di verificare la correttezza degli usi dell’AI. Il governo ha annunciato che entro due settimane presenterà un disegno di legge nazionale sul tema. Che sia l’Agid (Agenzia per il digitale) o il Garante della privacy o una nuova Autorità poco importa. L’essenziale è che queste norme non rimangano lettera morta ma vengano applicate con puntualità ed efficacia per impedire che le capacità umane vengano sostituite dalle macchine alimentando una spirale disumanizzante nel rapporto tra uomo e tecnologia.