L’intelligenza artificiale ci fa oscillare tra paura e speranza

Le discussioni sull'intelligenza artificiale spaziano tra visioni catastrofiche e grandi opportunità. Nel mezzo il dibattito tocca anche la responsabilità e l'unicità dell'essere umano. Alla Liuc di Castellanza le riflessioni degli autori del volume "L’intelligenza artificiale di Dostoevskij"

Liuc generico

Dopo aver assistito alla presentazione del libro “L’intelligenza artificiale di Dostoevskij” (Il Sole24ore) all’università Liuc di Castellanza, sorge spontanea una domanda: ma se quella presentazione fosse stata affidata a quattro macchine, dotate di programmi di intelligenza artificiale come Chatgpt, sarebbe stata altrettanto appassionante, colma di speranze, preoccupazioni, con poche certezze e tanti dubbi? La risposta è no. 
(nella foto da sinistra: Francesco Bertolotti, Luca Mari, Daniele Bellasio e Alessandro Giordani)

I sistemi di intelligenza artificiale anche se sono veloci, generativi e capaci di contestualizzare una conversazione, per il momento non hanno sentimenti, non hanno coscienza, non esprimono emozioni. Quindi non sorridono, non si entusiasmano, non si arrabbiano e soprattutto per cominciare a elaborare conoscenza e dati hanno bisogno di un prompt, cioè di un comando, dato dall’uomo.

Chi ha ascoltato la discussione intavolata da Luca Mari, professore ordinario di Misure elettriche ed elettroniche all’Università Carlo Cattaneo, dal giornalista Daniele Bellasio, vicedirettore del “Sole 24ore”, dal filosofo Alessandro Giordani, ordinario di Logica all’Università Cattolica di Milano, e dal ricercatore della Liuc Francesco Bertolotti, i quattro autori del libro, ha portato a casa un’esperienza profondamente umana e così bella che dopo due ore di discussione  era ancora lì inchiodato alla poltrona dell’auditorium dell’ateneo.

UN DIBATTITO POLARIZZATO

Il debutto di ChatGpt sui nostri personal computer ha scatenato, come sempre avviene quando ci si confronta con le nuove tecnologie, una polarizzazione del dibattito. I quattro relatori hanno cercato invece di entrare nelle contraddizioni e nei pregi dell’intelligenza artificiale, definendo il perimetro della discussione a partire dal come usare questa tecnologia e quali priorità darsi per evitare che una nuova era potenzialmente luminosa si trasformi in un medioevo digitale. Non sono questioni che riguardano il futuro perché «l’’intelligenza artificiale è ora, è già tra noi» ha sottolineato Bellasio.

RESPONSABILITÀ

Secondo Mari, la questione centrale è la responsabilità: «Essere liberi è un impegno e la responsabilità che ne deriva non può essere delegata a cose artificiali» che non sono in grado di intendere e di volere, che non hanno coscienza di sé  e tantomeno un’anima. Il diritto penale ha affrontato questo tema ben prima della nascita dell’intelligenza artificiale. Esiste infatti un principio generale che risale alla notte dei tempi analogici, secondo cui chi non ha la capacità di intendere e di volere non è imputabile cioè non gli può essere attribuita la responsabilità di un fatto previsto dalla legge come reato. Delegare la responsabilità di un risultato a un software e alla macchina su cui viene implementato apre scenari catastrofici.
Per evitare tutto questo, secondo Mari, bisogna educare soprattutto le nuove generazioni alla responsabilità e la scuola in questo passaggio epocale avrà un ruolo strategico. Per le classi dirigenti del futuro dovrà dunque valere la regola: “grande potere, grande responsabilità”

IN PRINCIPIO ERA IL VERBO

L’intelligenza artificiale ci fa oscillare tra paura e speranza. La ragione di questo effetto l’ha spiegata bene Giordani. «L’uomo si caratterizza per il logos, cioè per la parola. E l’intelligenza artificiale ci sfida su questo piano», mettendo in crisi l’unicità e la specificità dell’essere umano. L’intelligenza artificiale è un nostro diretto competitor che ci obbligherà a rivedere la stessa definizione di uomo.
Scendendo sul piano pratico e sul giudizio, il filosofo dice: «Con l’intelligenza artificiale vorrei trovare schemi di pensiero a cui non sono abituato, ma le risposte che ricevo da Chatgpt non hanno quella caratteristica e pertanto non mi stupiscono».

LO STUPORE

«Lo stupore che suscita l’intelligenza artificiale – ha aggiunto Bellasio – è il fatto che sia generativa: Chatgpt è un software addestrato e non programmato». Questa differenza non è di poco conto perché questi sistemi intelligenti imparano in base al tempo e alle informazioni a cui hanno accesso. E forse la mancanza di stupore di Giordani, di fronte alle risposte di Chatgpt, dipende dal fatto che la macchina per generare le sue risposte attinge dalle stesse fonti di conoscenza su cui si formano gli studiosi nel mondo.

CHATGPT È UN COLLEGA 

Per il professor Mari, Chatgpt «è un buon collega di brainstorming». Un confronto che stimola molto il giovane ricercatore della Liuc Bertolotti che riporta la questione sull’importanza di chi detiene il logos: «Mi piacerebbe sperimentare un dialogo interno tra agenti basati su Ai. Affiderei a ciascun agente il ruolo di un filosofo, Socrate , Platone e Aristotele, e li farei ragionare tra loro».
L’esperimento funzionerà sicuramente ma sarà in grado di generare un nuovo pensiero?

L’intelligenza artificiale è già nelle imprese e per governarla servono creativi

Michele Mancino
michele.mancino@varesenews.it

Il lettore merita rispetto. Ecco perché racconto i fatti usando un linguaggio democratico, non mi innamoro delle parole, studio tanto e chiedo scusa quando sbaglio.

Pubblicato il 29 Marzo 2024
Leggi i commenti

Commenti

L'email è richiesta ma non verrà mostrata ai visitatori. Il contenuto di questo commento esprime il pensiero dell'autore e non rappresenta la linea editoriale di VareseNews.it, che rimane autonoma e indipendente. I messaggi inclusi nei commenti non sono testi giornalistici, ma post inviati dai singoli lettori che possono essere automaticamente pubblicati senza filtro preventivo. I commenti che includano uno o più link a siti esterni verranno rimossi in automatico dal sistema.

  1. Avatar
    Scritto da Felice

    Ho una visione molto diversa lavorando in questo ambiente. La IA costituirà una deglagrazione economica, lavorativa e sociale. Non ora, non il prossimo anno ma tra 5 anni sicuramente. L’utilizzo etico e responsabile non può essere garantito visto che la prima cosa che le big tech hanno fatto è stata chiudere le divisioni che si occupavano dei temi etici e morali nello sviluppo delle IA stesse.
    Un sito americano, Thelayoff.com, raccoglie i dati di tutti i tagli fatti da aziende hi-tech. Da inizio anno, dunque in meno di due mesi, il numero dei licenziamenti ha già toccato quota 40 mila.
    Cisco il 14 febbraio ha dichiarato 4.250 licenziamenti, il 5% della sua forza lavoro; PayPal 2.500; Microsoft 1.900; Sap 8.000; eBay e Google 1000; Amazon 440; Snapchat 500; Zoom 150…..Meta dalla bocca del suo fondatore Zuckeberg ha dichiarato di avere una montagna di “legname morto” da smaltire, dipendenti assunti in epoca Covid che ora possono essere sostituiti.
    In tutti i casi c’è un comune denominatore: ridurre i costi per puntare sull’intelligenza artificiale.
    Abbiamo fatto crescere le BigTech senza regole e senza limiti e di fatto il reddito si è spostato dal lavoro al capitale in un modo spropositato. Le moderne aziende non producono più un prodotto per essere venduto bensì si finanziano investimenti in fondi speculativi e crypto.
    Visione troppo pessimistica la mia? Vedremo.

Segnala Errore

Vuoi leggere VareseNews senza pubblicità?
Diventa un nostro sostenitore!



Sostienici!


Oppure disabilita l'Adblock per continuare a leggere le nostre notizie.