Intelligenza artificiale: l’Europa è ancora in tempo a dettare le regole del gioco

Cosa cambierà con l'AI Act e perché l'importanza di stabilire dei confini all'uso dell'intelligenza artificiale va ben oltre l'Europa e gli stati europei? Se ne è discusso a Glocal con giornalisti ed esperti del settore

regole intelligenza artificiale glocal

Non è un terreno completamente privo di regole quello su cui oggi si muove l’intelligenza artificiale eppure la necessità di una regolamentazione dedicata e articolata è un sentire comune di molti paesi ad ogni latitudine. L’Unione Europea sta lavorando all’AI Act, il pacchetto di norme attraverso le quali si darà un quadro normativo omogeneo all’uso delle tecnologie più evolute, legate all’intelligenza artificiale. E proprio il regolamento che risulterà alla conclusione dell’iter legislativo in corso è stato al centro dell’incontro di Festival Glocal dedicato alle regole che andranno, in specifiche situazioni, a limitarne gli usi e che, come ha ricordato il giornalista Tomas Miglierina che ha moderato l’incontro, «con buona probabilità potranno servire da modello anche per altri paesi e comunità di stati» come spesso avviene ed è avvenuto su questioni che vanno ben oltre i confini nazionali.

Ad illustrare i contenuti dell’AI Act, la sua importanza e i punti che restano ancora dibattuti e controversi, è stato Brando Benifei, capodelegazione del Partito democratico al Parlamento europeo. «Innanzi tutto è da rilevare che per la prima volta si andrà a regolare questa materia con delle leggi e non con accordi o codici di condotta, come avvenuto in altre situazioni internazionali – ha precisato – e si andranno a introdurre delle tutele dai potenziali rischi legati all’uso di queste tecnologie. In particolare, tra i vari aspetti che gli articoli vanno a toccare, sono previste tutte quelle situazioni più ad alto rischio e che necessitano di tutele maggiori come lo sviluppo cognitivo dei bambini, la sanità, le infrastrutture critiche. In questi casi le tecnologie ammesse dovranno rispondere a criteri di conformità sulle procedure utilizzate per la raccolta dei dati, la governance di questi utlimi, la cybersicurezza, l’impatto ambientale… Si discute ancora molto invece di quelli che saranno gli ambiti dove l’utilizzo dell’AI sarà vietato, come la sorveglianza indiscriminata, la polizia predittiva, il riconoscimento emotivo nei luoghi di lavoro e delle scuole. Su questo non c’è un’uniformità di vedute tra i singoli stati».

Quella in gioco non è però soltanto una questione legislativa. Federico Ferrazza, direttore di Wired Italia, ha ricordato quanto il cambiamento in atto sia anche un problema politico: «Negli ultimi anni abbiamo visto susseguirsi il racconto di tante tecnologie che si pensava avessero un impatto forte sulla vita degli individui come il metaverso o le criptovalute. Si tratta di innovazioni che avranno sicuramente i loro sviluppi ma non un impatto così forte. L’intelligenza artificiale invece molto probabilmente rientra tra quei grandi cambiamenti che impattano realmente sulla vita degli esseri umani perché toccano l’aspetto del tempo, velocizzando, ad esempio, i tempi in cui prima si operava in alcuni ambiti. Oltre poi alle possibilità che si potranno aprire o alle competenze che non saranno più richieste perché sostituite. Dobbiamo dunque interrogarci sul rischio che si vadano ad aumentare le distanze sociali andando, temo, a penalizzare una grossa fetta della classe media. Per questo andrà fatta una riflessione per capire chi beneficerà della grande ricchezza che l’AI porterà. Per questo ci troviamo di fronte a un problema che è anche politico non solo legislativo».

«Il dibattito nell’ultimo anno è stato molto polarizzato – ha ricordato Carola Frediani, giornalista e Cybersecurity Engagement Manager, portando l’esempio delle regolamentazioni americane e della Gran Bretagna – da una parte il grande hype, dal risvolto anche commerciale, per i tools e le potenzialità degli strumenti di intelligenza artificiale che via via venivano presentati, dall’altra i timori esistenziali per la sicurezza basati sull’idea che questi sistemi siano così potenti da poter sfuggire al nostro controllo, un tema comunque dibattuto e anche controverso all’interno della stessa comunità di ricerca. In questo contesto e alla luce dei primi tentativi di normare qualcosa in evoluzione ritengo che il dibattito debba aprirsi ma cercando di svincolarsi, anche a livello mediatico, dagli eccessi che vengono percepiti e raccontati».

«A livello europeo siamo ancora in tempo a creare un ambiente sicuro e sano in cui operare con l’intelligenza artificiale – ha concluso Luca De Biase, giornalista e studioso delle tematiche legate all’innovazione e alla società – perché non ci sono ancora tecnologie di rete così radicate e utilizzate da essere irraggiungibili, come avviene quando delle infrastrutture di rete moltiplicano i propri nodi e diventano impossibili da superare. Siamo in un momento in cui è ancora possibile creare un mercato rispettoso dei diritti umani ma ci deve essere la volontà europea di farlo».

Maria Carla Cebrelli
mariacarla.cebrelli@varesenews.it

Mi piace andare alla ricerca di piccole storie, cercare la bellezza dietro casa, scoprire idee slow in un mondo fast. E naturalmente condividerlo. Se credi che sia un valore, sostienici.

Pubblicato il 10 Novembre 2023
Leggi i commenti

Commenti

L'email è richiesta ma non verrà mostrata ai visitatori. Il contenuto di questo commento esprime il pensiero dell'autore e non rappresenta la linea editoriale di VareseNews.it, che rimane autonoma e indipendente. I messaggi inclusi nei commenti non sono testi giornalistici, ma post inviati dai singoli lettori che possono essere automaticamente pubblicati senza filtro preventivo. I commenti che includano uno o più link a siti esterni verranno rimossi in automatico dal sistema.

Vuoi leggere VareseNews senza pubblicità?
Diventa un nostro sostenitore!



Sostienici!


Oppure disabilita l'Adblock per continuare a leggere le nostre notizie.