Top menu

ChatGTP e le altre. Paura del futuro distopico?

La lettera di ricercatori e imprenditori come Elon Musk che chiede una moratoria nello sviluppo dell’Intelligenza artificiale generativa si focalizza timori di un futuro dispotico mentre nasconde il presente. Dietro l’IA, il trattamento dei Big data e le logiche, tutte umane, del dominio bianco per arrivare all’infocrazia.

La recente richiesta di moratoria di sei mesi sullo sviluppo dell’Intelligenza Artificiale (IA), firmata da imprenditori, ricercatori e tecnici operanti nelle tecnologie digitali (spiccano nomi di peso quali Elon Musk, Steve Wozniak ed altri), ha riacceso i riflettori sui rischi derivanti dalle potenzialità di implementazione di tali tecnologie. I firmatari chiedono una pausa nel processo di sviluppo paventando i rischi connessi all’esistenza di “potenti menti digitali che nessuno, nemmeno i loro creatori, può comprendere, prevedere o controllare”. In Italia l’appello cade in sequenza quasi lineare con le richieste fatte a Chat-GPT dal Garante della Privacy sull’utilizzo dei dati, richieste che hanno portato alla chiusura del portale italiano ad essa dedicato e però dopo poco riaperto.

La lettera-appello appare essere un grosso pasticcio, sia per alcune modalità quantomeno dubbie nella citazione di alcuni dei firmatari sia, ed in misura ben maggiore, per i contenuti in essa espressi.

Sostanzialmente alla base della richiesta di moratoria vengono dichiarati i timori per “i rischi futuri” di una tecnologia che starebbe diventando “sempre più competitiva con gli umani”, in grado di renderci in prospettiva obsoleti e di sostituirsi in tutto a noi. Superintelligenze, macchine in grado di surclassare le nostre (evidentemente limitate per l’appello) capacità intellettive. Rischio esistenziale per l’umanità tutta e forse per il mondo intero. Questi sono i timori espressi nel testo, focalizzati su un prossimo, potenzialmente distopico futuro. Una attenzione sul futuro che già è essa stessa risultato che occulta l’attualità del presente, fatta spesso di algoritmi forse meno intelligenti dei sistemi che prospetta l’Intelligenza Artificiale (IA), ma perfettamente in grado di incidere sulle vite di molti già ora. Un dito che punta al futuro nascondendo la luna del presente.

Certamente esistono tantissimi rischi connessi all’utilizzo dell’IA, considerando che negli ultimi anni i modelli di processamento del linguaggio naturale hanno spinto i confini del possibile tecnico in maniera impressionante. I risultati eccellenti forniti da questi modelli favoriscono la propensione della gente, anche di cultura medio-alta e che magari fa opinione, e persino di presunti esperti della materia, a scambiare i guadagni prestazionali ottenuti dagli algoritmi con l’effettiva comprensione del linguaggio naturale. All’origine di questi eccellenti risultati di ChatGpt e modelli analoghi vi sono architetture sofisticate con un numero crescente di parametri, parallelizzazione del calcolo e immense basi di dati da cui attingere. L’utilizzo di espressioni fuorvianti come deep learning, training e via discorrendo inducono a pensarli intelligenti, maquesti modelli sono in realtà semplici stocastic parrots, pappagalli stocastici! La locuzione Stocastic Parrots indica sinteticamente la prima pubblicazione menzionata nell’appello per la moratoria, ma gli stessi autori della pubblicazione, in disaccordo con le tesi riportate, si trovano a prenderne pesantemente le distanze, specie in riferimento alle “potenti menti digitali” fornite di una “intelligenza che compete con quella degli umani”. I rischi sono ben altri, già presenti ed operativi, ben visibili nel sempre più largo uso degli algoritmi nei più svariati campi, anche decisionali.

I Large Language Models utilizzano una immensa quantità di parametri e di dati. Centinaia di miliardi di parametri e terabytes di dati divorati dalle macchine per il loro addestramento non sono poca cosa e le immense grandezze in gioco implicano consumi energetici ugualmente immensi: l’energia spesa per il solo addestramento di uno di questi modelli è dello stesso ordine di grandezza di quella spesa in un volo transoceanico. Sicuramente, tra non molto, parleremo anche di una IA verde da contrapporre a quella fossile! Parallelamente a ciò, e in maniera non secondaria, spesso si aggiungono pratiche di sfruttamento del lavoro men che pulite, affiancate dal furto di grandi quantità di dati. Tutto questo per lo sviluppo, istruzione, testing e fruibilità effettiva di questi strumenti, ad assoluto beneficio di una manciata di persone.

In questo quadro non è difficile immaginare che venga privilegiata la quantità alla qualità, e che con il rastrellamento indiscriminato delle immense quantità di dati da dare in pasto ai meravigliosi pappagalli digitali, la cosiddetta Intelligenza Artificiale recepisca la visione dominante dei Paesi in cui viene sviluppata, visione dell’uomo bianco occidentale, con annesse tutte le discriminazioni di genere, razza, etnia, disabilità, inclinazioni sessuali, e ricadute semantiche e culturali connesse. E poiché gli umani tendono a valutare gli interlocutori sulla base di come parlano, il linguaggio apparentemente fluente e appropriato dei sistemi di IA li rende oltremodo insidiosi. Questo significa che tutte le popolazioni non occidentali e bianche, in particolare quelle del Sud del mondo, sono già ora danneggiate dall’utilizzo massiccio di questi modelli.

Rischi concreti ed evidenti già si sono manifestati nelle traduzioni: come riportato nella menzionata pubblicazione Stochastic Parrots è già accaduto  che un palestinese, dopo che un sistema di traduzione automatico utilizzato nei controlli ha tradotto un suo post arabo con su scritto “buon giorno” nell’inglese “feriscili” e nell’ebraico “attaccali”, sia finito arrestato dalla polizia israeliana. A tutto ciò è da aggiungere la cresente concentrazione di potere: l’Intelligenza Artificiale è frutto della ricerca di grandi multinazionali dell’information technology, e coloro che arriveranno per primi al gradino superiore accentreranno ancora di più il potere spazzando via la concorrenza e insterilendo lo stesso concetto di democrazia, cosa di cui già si vedono alcuni effetti nel già attivo utilizzo degli algoritmi decisionali. Insomma in linea con le regole del capitalismo della sorveglianza, è il pericolo del Grande Fratello. Le comunità più svantaggiate sono già escluse con il digital divide, e lo saranno ancora di più con le “intelligenze” dei big data.

Per quanto riguarda i rischi di un sopravanzamento della intelligenza artificiale rispetto a quella umana, paventati per il futuro (il dito che punta a quanto accadrà nascondendoci la luna del presente) una suggestione ci viene da Gödel con i suoi teoremi di incompletezza. 

Nel primo teorema Gödel parla di ”inesauribilità” dell’aritmetica, e quindi della matematica tutta. Detto in parole povere, il primo teorema asserisce che, qualunque sia il sistema ben costruito per derivare le proposizioni dell’aritmetica (ossia i suoi teoremi), esistono sempre proposizioni (ovvero teoremi) di cui non si può decidere se sono veri o falsi: non sono “decidibili”. Questo significa che nessun sistema riesce a generare tutta l’aritmetica: ecco perché Gödel parla di inesauribilità dell’aritmetica.

Nel secondo teorema si afferma che ogni sistema ben costruito per generare i teoremi dell’aritmetica, non può dimostrare la propria consistenza, cioè non può dimostrare che non cada in qualche contraddizione.

Kurt Gödel nel 1951, in una conferenza alla American Mathematical Society, affermò in buona sostanza che, come conseguenza del suo secondo teorema, ci sono due possibilità: o l’abilità matematica prodotta dagli umani, e quindi la mente umana, non è meccanizzabile, e quindi non esistono macchine che la possono riprodurre oppure, nel caso fosse riconducibile a una macchina, esistono comunque problemi matematici assolutamente insolubili per tale macchina, e quindi per la mente umana; in particolare la mente umana non può dimostrare la propria consistenza, cioè non si può escludere con assoluta certezza che essa consideri vera sia una qualche proposizione che la sua negazione. In pratica se la mente umana è meccanizzabile può cadere in contraddizione. Le due possibilità appena dette costituiscono la “disgiunzione di Gödel”. La terza possibilità, non esclusa da Gödel, è che pur non essendo possibile riprodurre la mente umana da qualsivoglia macchina, vi sono allo stesso tempo  problemi assolutamente insolubili.

Ciò premesso, se la mente umana non è meccanizzabile, in forza del primo corno della disgiunzione di Gödel non possono esistere macchine che la riproducono; a maggior ragione non possono esistere macchine che la sopravanzano. 

Se invece la nostra mente è equivalente a una ipotetica macchina, in forza del secondo corno della disgiunzione allora vi sono problemi matematici, e dunque problemi in generale, che sono assolutamente insolubili per noi, e in particolare il secondo teorema di Gödel afferma che non saremmo in grado di provare la consistenza della nostra mente. In altre parole se siamo macchine, allora siamo ostacolati dalla nostra stessa natura a dare seguito alla esortazione che campeggiava sul pronao del tempio del Dio Apollo a Delfi: “Conosci te stesso”. Come potremmo allora costruire una macchina identica alla nostra mente se, non conoscendo la nostra vera natura, non possiamo nemmeno conoscere la vera natura di questa ipotetica macchina?

La terza possibilità, ossia che la mente umana sia ben più di una macchina, e che al tempo stesso esistano verità inattingibili per la stessa mente, è la situazione implicitamente o esplicitamente contemplata in tanti credo di natura religiosa. 

Se la disgiunzione di Gödel suggerisce l’impossibilità di una macchina di eguagliare, e a maggior ragione superare, la mente umana (questo tra l’altro era il convincimento dello stesso Gödel), ciò non vuol dire che non vi siano crescenti rischi sottesi alla sempre maggiore digitalizzazione delle nostre esistenze.

Rischi già ben presenti, come abbiamo visto, ma destinati ad aumentare nel prossimo futuro se non si mettono in atto opportune contromisure. Il punto che emerge dalle considerazioni fatte è che la “infocrazia”, come viene chiamata dal filosofo tedesco di origine coreana Byung-Chul Han, influenza profondamente, e il più delle volte in maniera subdola, la vita di miliardi di persone, e questa influenza nefasta aumenterà se non si mettono in atto, già a partire da quanto ora già operativo, efficaci strumenti di regolamentazione e di controllo democratico. E a proposito della democrazia mai come oggi è necessario chiedersi se questo vessillo, nella sua forma concretamente operativa nei Paesi occidentali, sia adeguato per far fronte alle terribili criticità che  incombono sull’umanità – cambiamenti climatici, guerre, pandemie, terrorismo, migrazioni, e non da ultimo l’infocrazia -, criticità che richiedono vista lunga e scelte di lungo periodo, ben al di là dei meccanismi di pura e semplice governance a breve scadenza di cui si sono dotate le democrazie liberali, con mandati elettorali che appaiono sempre più costruiti su questa. 

A questo proposito è interessante menzionare un aneddoto che ha come protagonista lo stesso Gödel. Esule dall’Europa minacciata dal nazismo, al funzionario che lo interrogò per la concessione della cittadinanza USA avrebbe voluto spiegare che nella Costituzione Americana aveva trovato un’aporia che poteva permettere democraticamente la fine della democrazia. I suoi accompagnatori, Albert Einstein e Oskar Morgenstern, glielo impedirono e tuttavia il fatto rimane di una incombente attualità alla luce dell’assalto del Campidoglio degli Stati Uniti il 6 gennaio 2021. 

La rivoluzione digitale che già oggi si afferma tende a restringere gli ambiti di azione della democrazia e promuove al contempo una  apparentemente contrastante azione di soggetti in grado di vincere le elezioni contro i principi di libertà e  pluralismo.

Gli stessi principi che la governance degli algoritmi più o meno intelligenti, svuota per altre vie.