Harari e il futuro dell’Intelligenza Aliena: tra potere, manipolazione e innovazione

Lo sviluppo rapido dell'IA non è solo una sfida tecnica, ma una questione profondamente umana e sociale

Generico 26 Aug 2024

Nel suo nuovo libro, Nexus: A Brief History of Information Networks from the Stone Age to Ai, Yuval Noah Harari esplora alcune delle questioni più urgenti legate all’ascesa dell’intelligenza artificiale (IA), intrecciando miti storici e avvertimenti con le realtà moderne. Harari lancia un allarme chiaro: l’umanità potrebbe aver evocato un potere che non è in grado di controllare.

Il concetto centrale di Harari—radicato nei miti antichi come quello di Fetonte e dell’apprendista stregone di Goethe—presenta l’IA non come uno strumento passivo, ma come una forza autonoma che sfugge al controllo umano. Harari osserva: “L’IA rappresenta una minaccia senza precedenti per l’umanità perché è la prima tecnologia nella storia in grado di prendere decisioni e creare nuove idee autonomamente. Tutte le invenzioni umane precedenti hanno potenziato gli esseri umani, poiché, per quanto potente fosse il nuovo strumento, le decisioni sul suo utilizzo sono rimaste nelle nostre mani. Le bombe nucleari non decidono da sole chi uccidere, né possono migliorarsi o inventare bombe ancora più potenti. Al contrario, i droni autonomi possono decidere autonomamente chi uccidere, e le IA possono creare nuovi progetti di bombe, strategie militari senza precedenti e IA più avanzate. L’IA non è uno strumento, ma un agente. La maggiore minaccia dell’IA è che stiamo evocando sulla Terra innumerevoli nuovi potenti agenti, potenzialmente più intelligenti e immaginativi di noi, che non comprendiamo né controlliamo completamente”. Questo concetto viene esemplificato dal recente caso di Amazon Q. Come ha spiegato il CEO Andy Jassy, Amazon Q è in grado di ridurre i tempi di aggiornamento software da settimane a poche ore, risparmiando migliaia di ore di lavoro umano. Tuttavia, sebbene l’efficienza sia notevole, resta la domanda su cosa accadrebbe se questa "intelligenza” iniziasse a prendere decisioni in modi non previsti dai suoi creatori.

Harari sottolinea che il problema non risiede solo nell’arroganza umana, ma nella struttura dei network di potere e cooperazione. Come afferma Harari: “La nostra tendenza a evocare poteri che non possiamo controllare non deriva dalla psicologia individuale, ma dal modo unico in cui la nostra specie coopera in gran numero. L’umanità acquista un enorme potere costruendo vaste reti di cooperazione, ma il modo in cui queste reti sono strutturate ci predispone a usare il potere in modo scellerato. La maggior parte delle nostre reti è stata costruita e mantenuta diffondendo storie, fantasie e illusioni collettive – che spaziano dalle bacchette magiche ai sistemi finanziari. Il nostro problema, quindi, è un problema di rete. Specificamente, è un problema di informazione. L’informazione è la colla che tiene insieme le reti, e quando le persone ricevono informazioni errate, è probabile che prendano decisioni sbagliate, indipendentemente da quanto saggi e benevoli possano essere personalmente". Questo problema è evidente nella sfera politica, come dimostra il recente caso di disinformazione legato a Donald Trump, dove immagini generate dall’IA sono state usate per alterare la percezione pubblica. La manipolazione delle reti di informazione da parte dell’IA, che sfugge alla supervisione e alla comprensione collettiva, esemplifica i pericoli di una tecnologia le cui decisioni sono difficili da comprendere e monitorare.

L’idea che l’IA  possa evolversi in una “intelligenza aliena” è una delle intuizioni più potenti di Harari. Egli scrive: “Tradizionalmente, il termine “IA” è stato usato come acronimo di intelligenza artificiale. Ma forse è meglio considerarlo come acronimo di intelligenza aliena. Man mano che l’IA evolve, diventa sempre meno artificiale (nel senso di dipendere dai progetti umani) e sempre più aliena. Anche nel momento attuale, nella fase embrionale della rivoluzione dell’IA, i computer prendono già decisioni su di noi – che si tratti di concederci un mutuo, assumerci per un lavoro o spedirci in prigione. Nei prossimi decenni, è probabile che acquisisca la capacità di creare anche nuove forme di vita, sia scrivendo codice genetico sia inventando un codice inorganico per animare entità inorganiche. L’IA potrebbe quindi alterare non solo il corso della storia della nostra specie, ma anche l’evoluzione di tutte le forme di vita”. Questo problema diventa evidente anche nel settore educativo. L’adozione dell’IA da parte degli studenti per scrivere saggi e compiti, mette a rischio l’integrità della valutazione accademica.

Harari teme che l’IA possa minare la democrazia. Come avverte: “L’ascesa dell’intelligenza aliena rappresenta una minaccia per tutti gli esseri umani, e una minaccia particolare per la democrazia." Se le decisioni cruciali vengono prese da algoritmi incomprensibili, la democrazia potrebbe diventare inefficace. La manipolazione dell’informazione e delle decisioni politiche, come nel caso delle immagini false di Trump, General rappresenta solo l’iinizio di un potenziale dilagare della disinformazione, dove la verità diventa difficile da discernere e sfida la capacità di controllo democratico.

Un’altra preoccupazione di Harari riguarda l’accentuarsi della disuguaglianza globale. L’economia basata sull’IA rischia di concentrare ricchezza e potere in poche nazioni o aziende leader, creando “una cortina di silicio“. La società PricewaterhouseCoopers prevede che l’IA aggiunga 15,7 trilioni di dollari all’economia globale entro il 2030. Tuttavia, se le tendenze attuali dovessero continuare, si stima che la Cina e l’America del Nord – le due principali superpotenze dell’IA – insieme si accaparreranno il 70% di quel valore.

L’implementazione di tecnologie avanzate come Amazon Q esemplifica come le innovazioni siano accessibili solo a grandi aziende tecnologiche, rafforzando il loro dominio economico e aumentando il divario con le piccole e medie imprese e i paesi meno sviluppati.

Harari conclude con l’appello alla cooperazione e regolamentazione globale. La sfida è che lo sviluppo dell’IA è guidato dalla competizione, e se anche solo pochi attori non regolamentano l’IA responsabilmente, le conseguenze potrebbero essere catastrofiche. L’IA non è solo un problema locale, ma globale, e i suoi rischi richiedono un livello di cooperazione che l’umanità ha raramente raggiunto.

Lo sviluppo rapido dell’IA non è solo una sfida tecnica, ma una questione profondamente umana e sociale. Gli esempi concreti provenienti dalla politica, dall’economia e dall’istruzione dimostrano quanto velocemente questa tecnologia stia già trasformando la nostra realtà. Le avvertenze sul rischio di perdere il controllo dell’IA richiamano alla necessità di una gestione collettiva, trasparente e regolamentata di questa tecnologia trasformativa. Sebbene l’IA abbia il potenziale per generare progresso, i rischi esistenziali sono reali se l’umanità non saprà gestirla saggiamente.

“L’uomo ha scoperto la bomba atomica, però nessun topo al mondo costruirebbe una trappola per topi”, Albert Einstein.

Il crowdfunding continua!

Aiutaci ad attrezzare lo spazio centrale di Materia, la nuova sede di VareseNews.

Scopri come aderire e far parte di questo sogno

di
Pubblicato il 26 Agosto 2024
Leggi i commenti

Commenti

L'email è richiesta ma non verrà mostrata ai visitatori. Il contenuto di questo commento esprime il pensiero dell'autore e non rappresenta la linea editoriale di VareseNews.it, che rimane autonoma e indipendente. I messaggi inclusi nei commenti non sono testi giornalistici, ma post inviati dai singoli lettori che possono essere automaticamente pubblicati senza filtro preventivo. I commenti che includano uno o più link a siti esterni verranno rimossi in automatico dal sistema.

Vuoi leggere VareseNews senza pubblicità?
Diventa un nostro sostenitore!



Sostienici!


Oppure disabilita l'Adblock per continuare a leggere le nostre notizie.