Top menu

Sicurezza nell’Intelligenza Artificiale: sì, per chi?

Il britannico Sunak ha organizzato il 1° summit sui rischi dell’AI, gli Usa hanno creato un’Agenzia federale. Mentre si stimola l’hype, in un misto di paura e magnificazione, si rischia che la regolazione sia affidata alle Big Tech, proprietarie di tecnologie e dati. Mettendo nell’angolo sviluppatori indipendenti e società civile.

Nel marzo 2023 il Future for Life Institute ha pubblicato una lettera appello1 firmata da ricercatori, tecnici ed imprenditori della Intelligenza Artificiale (IA) in cui ne veniva chiesta la sospensione dello sviluppo per sei mesi, allo scopo di valutarne i rischi associati ed evitare in tal modo l’emergenza di “rischi esistenziali” per l’umanità ad essa correlati. La lettera appello, che include firme di personaggi come Elon Musk, CEO di Tesla e Steve Wozniak, co-fondatore di Apple, suscitò all’epoca un certo clamore, ma inizialmente sembrava destinata a rimanere sullo sfondo del sistema mass-mediatico, complice una certa divergenza sui contenuti della lettera – importante soprattutto quella espressa da Sam Altman, padre di Chat-GPT e CEO di OpenAI2. A tale lettera è seguito un secondo appello3, poche righe pubblicate il 30 maggio dal Center for AI Safety, il cui lapidario contenuto è: “Mitigare il rischio di estinzione rappresentato dall’Intelligenza Artificiale dovrebbe essere una priorità globale al pari di altri rischi di portata sociale come le pandemie e le guerre nucleari”. Questo secondo appello, al contrario del primo, veniva firmato anche dallo stesso Sam Altman, oltre che da Bill Gates (finanziatore di OpenAI) e da molti amministratori di primo piano di aziende avanzate nel campo della intelligenza artificiale (come Google, OpenAI, XAI, DeepMind, Anthropic; si nota invece l’assenza di personaggi ascrivibili a META, proprietaria di Facebook e Whatsapp). Firmano anche scienziati del calibro di Geoffrey Hinton, in Google al tempo dell’appello, e Yoshua Bengio, del Montreal Institute for Learning Algorithms: due dei padri fondatori della IA e vincitori del premio Turing nel 2018. Il terzo padre fondatore, nonché anch’esso vincitore del premio nel 2018, Yann LeCun di Meta, non firma, non condividendo il contenuto del documento4. Gli appelli fanno seguito alla diffusione pubblica, avvenuta il 3 novembre 2022, di Chat-GPT, un modello di linguaggio generativo preaddestrato5 in grado di interagire con chi lo interroga nel linguaggio naturale, fornendo risposte apparentemente esaustive ai quesiti posti. Sviluppato da OpenAI, azienda sostenuta da Microsoft, il chat-bot si è dimostrato straordinariamente capace nel suo comportamento, inducendo facilmente a pensarlo come dotato di una qualche forma di intelligenza. Ad aprile del 2023 un gruppo di ricercatori di Microsoft (tra i finanziatori di OpenAI) pubblica un articolo6 il cui stesso titolo parla esplicitamente di “scintille di intelligenza generale7” in Chat-GPT 4. 

Sono questi gli eventi che hanno contribuito ad alimentare la meraviglia della IA, e insieme ad essa, contemporaneamente, la paura legata alla possibilità che questa sfuggisse di mano, diventasse in prospettiva autonoma e prendesse decisioni nocive per la stessa sopravvivenza dell’umanità. Alimentandosi vicendevolmente, meraviglia e paura sono andate velocemente oltre le discussioni accademiche, passando dai tavoli tecnici alla diffusione pubblica di massa, e infine ai governi. Il coro di voci che sollevano preoccupazioni sull’intelligenza artificiale è alla fine diventato troppo forte per essere ignorato. 

Certo, come qualcuno non manca di sottolineare, esistono già oggi impatti negativi dovuti alla sempre maggiore diffusione della IA: perdita di lavoro, persistenza o addirittura rafforzamento di pregiudizi e discriminazioni razziali, sessuali, economici e così via, ma queste non hanno la stessa rilevanza nei media, non rimbalzano tra giornali, social media e televisioni allo stesso modo dei rischi catastrofici, addirittura di estinzione dell’umanità, paventati negli appelli. L’uso malvagio della IA o il suo rendersi autonoma dal controllo umano sono i “rischi esistenziali” che si impongono nella visione mainstream

È in questo clima che si svolgono le iniziative sulla IA8, qualunque sia lo scopo dichiarato. Cogliendo la maturità del momento, il primo ministro inglese Rishi Sunak si è fatto promotore di un ambizioso summit tra governi ed aziende tecnologiche specificatamente dedicato ai rischi della IA: il primo Summit Mondiale sulla Sicurezza della IA. Simbolicamente il summit si è tenuto a Bletchley Park, località poco distante da Londra, luogo significativo dove Alain Turing e il suo gruppo decriptarono Enigma, il codice cifrato usato dai nazisti nella seconda guerra mondiale.

Nel seguito ne diamo un breve resoconto ragionato.

Il summit e i suoi risultati

Presenti numerose figure di vertice di governi e di aziende tecnologiche, nonché dirigenti di tutte le principali società di intelligenza artificiale, gli obiettivi dichiarati dell’incontro9 sono consistiti nel definire una comprensione condivisa dei rischi e nello sviluppo di una collaborazione internazionale sulla sicurezza della IA, con particolare riguardo alla IA di frontiera10. Presenti al summit, oltre allo stesso Sunak, il segretario generale dell’ONU Antonio Guterres, la vicepresidente degli Stati Uniti Kamala Harris, la presidente della Commissione Europea Ursula von der Leyen, il viceministro cinese della scienza e della tecnologia Wu Zhaohui; unica capo di governo, oltre a Sunak, Giorgia Meloni. La Russia non era presente. Presenti pure personaggi di peso della IA come Joshua Bengio, Sam Altman e, star  del meeting, Elon Musk, che, tra le altre cose, ha messo in guardia dai rischi esistenziali11 di una IA superintelligente. Tutte le Big tech operanti nel settore erano presenti: OpenAI, Anthropic, Google DeepMind, Microsoft , Meta e XAI di Musk. Assenti perché non invitate, data la scelta di un meeting relativamente ristretto e di vertice, molte aziende startup sulla tecnologia emergente, mentre la presenza di esponenti dell’open source12 e della società civile è stata sostanzialmente irrilevante.  

Nel concordare che l’intelligenza artificiale rappresenta una opportunità ed insieme un rischio, potenzialmente anche catastrofico, per l’umanità, la dichiarazione finale13 è stata firmata dai ventotto governi presenti, includendo significativamente la Cina. Nella premessa vengono evidenziate “le opportunità di trasformazione dell’IA da utilizzare” anche in settori di pubblico interesse quali “sanità e istruzione, sicurezza alimentare, scienza, energia pulita, biodiversità e clima, e per il raggiungimento degli obiettivi di sviluppo sostenibile delle Nazioni Unite”

Definita la parte in positivo, si passa a delineare le questioni relative alla sicurezza, ambito dove “l’intelligenza artificiale comporta rischi significativi, anche nella vita quotidiana. Ne deriva la necessità di affrontare il problema del controllo umano della IA, dell’etica della stessa, della mitigazione dei pregiudizi, della privacy e della protezione dei dati”. Rilevanza è data ai rischi “derivanti dalla capacità di manipolare o generare contenuti ingannevoli”. Parte importante della dichiarazione è dedicata a quella che viene definita la IA di frontiera, per la quale si sottolineano i “particolari rischi per la sicurezza derivanti da un potenziale uso intenzionalmente improprio” dei sistemi, così come da scelte operate autonomamente (“unintended issues of control relating to alignment with human intent”) dai modelli di IA14 , fuori da – se non contro – ogni controllo umano. I settori ad alto rischio sono individuati nella sicurezza informatica e nelle biotecnologie oltre che nella disinformazione15. Si afferma che “tutti gli attori coinvolti hanno un ruolo da svolgere nel garantire la sicurezza dell’IA: le nazioni, i forum internazionali e le altre iniziative similari, le aziende, la società civile e il mondo accademico dovranno lavorare insieme”.

Per i sistemi più avanzati e potenti di IA si richiamano le aziende che li sviluppano e promuovono ad “una responsabilità particolarmente forte nel garantire la sicurezza di questi sistemi , anche attraverso lo sviluppo di test di sicurezza, valutazioni e altre misure appropriate”. Vengono incoraggiati “tutti gli attori rilevanti a fornire trasparenza e responsabilità adeguate al contesto sui loro piani per misurare, monitorare e mitigare le capacità potenzialmente dannose della IA e gli effetti che potrebbero emergere”. 

L’azione per affrontare il rischio associato alla IA di frontiera si concentrerà sulla identificazione dei fattori di rischio e la costruzione di una comprensione scientifica condivisa basata sull’evidenza. Nell’ambito di riconosciute differenze di approccio, i paesi firmatari costruiranno politiche di gestione della IA basate sul rischio che la stessa produce, collaborando tra loro in modo appropriato. Ciò include, oltre ad una maggiore trasparenza da parte degli attori privati, parametri di valutazione adeguati, strumenti per test di sicurezza e lo sviluppo di capacità pertinenti del settore pubblico e della ricerca scientifica. 

Nella parte conclusiva i firmatari dichiarano infine di sostenere una rete di ricerca scientifica internazionale sulla sicurezza dell’IA di frontiera, per facilitare la fornitura della migliore scienza disponibile per l’elaborazione delle politiche e per il bene pubblico (sul modello dell’IPCC sui cambiamenti climatici, ndr).

Infine (forse imitando quanto già avviene con le Conferenze delle Parti (COP) in relazione al cambiamento climatico, ndr), i summit tra governi e aziende avranno un carattere periodico. Il prossimo avverrà tra sei mesi in Corea del Sud e il successivo tra un anno in Francia.

Per terminare la parte descrittiva del summit vale la pena riportare qualche nota significativa accaduta attorno all’evento. Tra gli scopi (non dichiarati) del meeting c’era anche quello di promuovere globalmente la guida inglese al coordinamento sulla gestione della sicurezza della IA. Seppur raggiunto un visibile successo nella sottoscrizione degli impegni contenuti nel documento finale firmato (di molti dei quali, tuttavia, rimane da verificarne la solidità), il successo inglese risulta almeno parzialmente messo in ombra dall’iniziativa, autonoma e di poco precedente al meeting, dell’emanazione di un ordine presidenziale statunitense per la costituzione di una Agenzia federale americana sulla sicurezza della IA. L’impronta forte degli Stati Uniti è stata pure affermata dalla vice presidente Kamala Harris che, effettuando una conferenza stampa in ambasciata USA (e non in sede del summit), ha parlato esplicitamente di rischi esistenziali dovuti alla IA16, terminologia forte accuratamente aggirata nel vertice di Bletchley Park (dove viene usato in sua vece il più generico termine “catastrofico”). In aggiunta, Harris ha anche esposto l’adesione di 30 paesi alla proposta statunitense per l’uso dell’intelligenza artificiale da parte degli eserciti nazionali. Per quanto riguarda l’Unione Europea, emerge ancora un ruolo debole e scarsamente autonomo della sua attuale classe dirigente. Omettendo qualunque riferimento ad un importante elaborato17 comunitario sui vantaggi per l’Europa, anche in termini di sicurezza nella promozione dello sviluppo e dell’utilizzo di una IA open source18, la presidente Von Der Leyen si focalizza sul ruolo dell’etica aziendale nelle società tecnologiche: poiché gli algoritmi complessi non potranno mai essere testati in modo esaustivo “soprattutto dobbiamo assicurarci che gli sviluppatori agiscano rapidamente quando si verificano problemi”. In altre parole dovrebbero essere le Big tech ad autosorvegliarsi e correggersi.

Qualche parola sui pericoli

Per valutare quanto siano reali i pericoli catastrofici derivanti dalla IA, specie quelli correlati ad eventuali scelte autonome delle macchine, è necessario comprendere il funzionamento degli attuali sistemi e la possibilità che la crescita delle capacità che questi avranno possa portare ad un loro comportamento autonomo dal controllo umano. In realtà con le attuali architetture siamo ben lontani da sistemi in grado di effettuare alcuna valutazione di merito paragonabile all’intelligenza umana: l’apprendimento automatico con i Large Language Models consiste in potentissimi sistemi statistici, dove valutazioni delle probabilità, giganteschi sistemi di calcolo e l’enorme base di dati costituita dalla raccolta indiscriminata di ciò che internet produce, porta al risultato finale. È la rappresentazione estremamente efficace del risultato, anch’essa basata sempre e solo sulla probabilità, che induce a pensare a risultati apparentemente intelligenti. Ciò che viene chiamata “intelligenza artificiale” è in realtà solo un insieme di tecniche di apprendimento statistico controllate da una manciata di giganti aziendali. Secondo alcuni ricercatori, fuoriusciti o espulsi dalle aziende tecnologiche a motivo delle aperte critiche all’operato aziendale, si tratta di “pappagalli stocastici”19.

Per molte e differenti ragioni, anche di tipo teorico (per un approfondimento si veda quanto esposto in5), è impossibile che i modelli di IA possano evolvere, mantenendo l’attuale impostazione architetturale, fino a sviluppare forme di coscienza e autonomia. Inoltre non va trascurato un altro elemento cruciale, che cioè (soprattutto se alla base della coscienza vi sono processi quantistici) è praticamente impossibile conoscere con assoluta certezza se un sistema sia dotato di consapevolezza o meno (su questo tema cruciale si veda5, in particolare la nota 15 dell’articolo). Sul tema una opinione forte la esprime Steven Sinofsky20, già manager apicale di Microsoft: “Per quanto la IA stia avanzando, non sta avanzando ai ritmi esponenziali che abbiamo visto nei microprocessori21 o con la velocità di crescita dell’archiviazione dei dati che ha reso possibile la tecnologia dei database, o anche come il numero di nodi connessi su Internet a partire dal 1994 (… omissis … ). Non credo neanche che disponiamo di una misura affidabile delle capacità dell’intelligenza artificiale e tanto meno della possibilità di valutare velocità, direzione o accelerazione di tali capacità”. Certamente, tutto questo non cancella i pericoli di disinformazione e manipolazione, come non cancella i pericoli sull’utilizzo malevolo di tali sistemi, ma tutto ciò è semplicemente l’estensione di quanto già accade oggi nel web e sui social, fenomeni da gestire con accuratezza e competenza, intelligenza, crescita cognitiva del pubblico e un maggiore controllo democratico, compresa la trasparenza degli algoritmi utilizzati e la condivisione dei dati statistici. I pericoli reali dovuti già oggi all’applicazione dei modelli di IA consistono nella loro capacità di produrre e perpetuare discriminazioni, cosa che difficilmente sarà gestita positivamente dalle stesse aziende che hanno in mano la tecnologia, molto più interessate alla penetrazione nel mercato, specie in un quadro che vede la diffusione dei sistemi di IA nella governance pubblica, cosa del resto auspicata nello stesso documento prodotto a  Bletchley.

Tra i pericoli in vicinissima prospettiva, grande assente dalla dichiarazione del summit, come da gran parte del dibattito pubblico, c’è il problema del lavoro, non più solo in relazione a lavori di bassa qualificazione, ma anche verso lavori fino a ieri considerati intoccabili. Come afferma Meredith Whittaker22: “L’indebolimento del lavoro e dei lavoratori è centrale nel progetto di “intelligenza artificiale”. I giganti tecnologici vogliono essere in grado di utilizzare queste tecniche di apprendimento automatico per sostituire il lavoro di manodopera anche altamente qualificata e ben retribuita”.  Questa non è una preoccupazione lontana, l’intelligenza artificiale potrebbe sostituire fino a 300 milioni di posti di lavoro a tempo pieno, secondo una analisi di Goldman Sachs23

Infine c’è l’enorme criticità costituita dalla situazione di oligopolio oggi esistente, problematica del tutto assente e forse anche per questo addirittura agevolata dal summit di Bletchley. Una manciata di attori privati molto ben inseriti nell’economia e nelle istituzioni pubbliche accentra una enorme concentrazione di potere, risultato di accumulo di dati, calcolo, talento e capitale coesistenti al suo interno. Un piccolo numero di aziende che hanno raccolto i frutti del modello del business della sorveglianza, ovvero quella ricerca spasmodica, e spesso al limite della legalità, dell’acquisizione delle informazioni per imporre dinamiche, basate sullo sfruttamento spregiudicato di queste informazioni, che consentono di acquisire guadagni sempre crescenti e maggiori spazi di azione. Il vertice inglese non affronta questo problema, ma al contrario appare dare una ulteriore spinta all’intreccio tra governi e aziende24, queste ultime di dimensioni sempre più ampie e di capacità crescenti. Scarsa o nessuna attenzione a visioni alternative, all’open source, alla democratizzazione della IA, tutte proposte, pure esse, prodotte in diversi ambiti25, bensì si è passati all’avallo di una tendenza che non fa che aumentare la quantità di risorse controllate da poche e grandi aziende26. Nessun accenno, infine, al controllo esercitato dalle medesime aziende sui set di dati raccolti, ripuliti nelle fasi di addestramento dei modelli e infine diventati proprietari. 

Tutto questo, qui ed ora, crea problemi non solo di eguaglianza, ma anche di democrazia. 

Perché, allora, tanto clamore? Un commento in calce

In grado di utilizzare l’enorme quantità di dati che Internet ha prodotto e continua a produrre, la IA, nella sua attuale configurazione, è capace di elaborare e produrre risultati dotati di senso logico in alcuni casi specifici, ad esempio in alcuni settori scientifici,  con risultati addirittura clamorosi nelle loro potenzialità. Tali risultati, tuttavia, sono prodotti dai sistemi di IA in maniera del tutto estranea a qualunque elaborazione logica di contenuto, lavorando esclusivamente e con grande potenza di calcolo sulla loro congruità probabilistica. Indubbiamente il metodo elaborativo ha fatto  degli attuali sistemi di IA uno dei più potenti strumenti sviluppati dalla scienza informatica, in grado di fornire una interazione uomo-macchina molto fluida, che molto facilmente può far tendere l’interlocutore umano a ritenere umanizzata anche la macchina. Potenza elaborativa e umanizzazione, e d’altra parte il sorgere parallelo della paura -atavica- che la macchina sfugga al controllo. Meraviglia e paure che si mescolano, alimentandosi vicendevolmente in maniera solo apparentemente contraddittoria.

Un hype che cresce nel grande pubblico, e forse fin qui il tutto appare plausibile. Ma sono proprio gli appelli sui rischi catastrofici tra i fattori che fanno crescere e alimentano l’hype e le paure. Perché questa mescolanza, apparentemente paradossale, di enorme montatura pubblicitaria e di timori esistenziali? E perché gli appelli di sospensione firmati, oltre che da ricercatori, anche da manager delle aziende che più di tutte hanno contribuito a sviluppare la IA? Al di là delle convinzioni soggettive dei singoli protagonisti, una possibile risposta è che bloccare o controllare gli avanzamenti della IA possa ostacolarne sviluppi da parte di altri soggetti che stiano ancora nelle fasi di sviluppo dei loro modelli di tecnologia. Questo favorirebbe le aziende più forti nel campo, quelle che già hanno prodotto consolidati modelli di IA. Ad uno sguardo più profondo, la stessa comunità scientifica è divisa sulla possibilità di emergenza di rischi esistenziali alla base degli attuali modelli di algoritmi, e molte voci si esprimono in disaccordo27 con il contenuto degli appelli. In maniera solo apparentemente paradossale sono le stesse aziende maggiori, quelle che sono avanti e continuano a sviluppare i modelli, che chiedono allo stesso tempo la regolamentazione degli stessi. In tale quadro appare lecito supporre che le grandi aziende già affermate nel settore preferiscano non dover provare a competere con altri28, siano essi nuovi soggetti creativi che tentano di entrare nel mercato dell’intelligenza artificiale o la comunità molto attiva dell’open source. Soggetti che, unitamente alla società civile, sono stati marginalmente presenti, quando non assenti, nel dibattito e nei processi decisionali del summit. Evocare la paura di rischi catastrofici è una potente un’arma per poter sostenere l’idea della necessità di una legislazione concepita in una direzione tale da “ingessare” il presente, bloccando la situazione attuale in maniera da rendere difficile la concorrenza. Una situazione che, per quanto non esplicitamente, continui a permettere alle grandi corporation informatiche che dispongono dell’attuale tecnologia della IA una ulteriore penetrazione in tutti i gangli sociali, della organizzazione pubblica e della vita quotidiana, fuori da ogni reale controllo democratico.

Con il summit di Bletchley Park, e forse anche contro le intenzioni di qualcuno tra i partecipanti, oltre le molte parole e i condivisibili buoni propositi, sembra proprio che le Big tech si avviino ad ottenere un ulteriore punto a loro favore.

Note e riferimenti

pastedGraphic.png

1  https://futureoflife.org/open-letter/pause-giant-ai-experiments/. L’appello ad oggi conta più di 33.700 firme.

2  https://www.cnbc.com/2023/04/14/openai-ceo-altman-addresses-letter-from-musk-wozniak-calling-for-ai-pause.html

3  https://www.safe.ai/statement-on-ai-risk#open-letter .

4  Si veda ad esempio https://www.corriere.it/tecnologia/23_giugno_26/yann-lecun-intervista-intelligenza-artificiale-1e6ff79b-06e4-4d8a-af01-f282ed468xlk.shtml .

5  Per un approfondimento divulgativo sui modelli generativi preaddestrati si veda F. Padella, M. C. Cirillo, Capire l’intelligenza artificiale per non esserne fagocitati, Sbilanciamoci, 19 ottobre 2023, https://sbilanciamoci.info/capire-lintelligenza-artificiale-per-non-esserne-fagocitati/ .

6  S. Bubeck, V. Chandrasekaran, R. Eldan,J. Gehrke, E. Horvitz,E. Kamar, P. Lee,Y. Tat Lee, Y. Li , S.Lundberg, H. Nori, H. Palangi, M. T. Ribeiro and Y. Zhang, Sparks of Artificial General Intelligence: Early experiments with GPT-4, arXiv:2303.12712v5  cs.CL  13 Apr 2023

7  L’Intelligenza Artificiale Generale (AGI), al contrario di quella ristretta che si limita a risolvere compiti specifici, è un tipo di intelligenza artificiale che mira a creare sistemi informatici in grado di svolgere in modo autonomo una vasta gamma di compiti, comparabili a quelli eseguiti da esseri umani. Obiettivo dell’AGI è replicare l’intelligenza generale e adattativa, cioè la capacità di apprendere e comprendere da esperienze diverse, di applicare la conoscenza acquisita a nuovi problemi e di adattarsi a situazioni inaspettate. I Large Language Models alla base della attuale intelligenza artificiale non sono in grado di apprendere i contenuti di quanto manipolano, in quanto essenzialmente macchine di tipo statistico. 

8  Significativo in tal senso il titolo, AI For Good di una conferenza globale promossa dall’International Telecommunication Union insieme a 40 agenzie delle nazioni Unite il 6-7 luglio 2023. https://aiforgood.itu.int/summit23/ .

9  https://www.aisafetysummit.gov.uk/ , consultato il 5 novembre 2023

10  La locuzione IA di frontiera si riferisce agli sviluppi più avanzati della IA generativa. Il termine, tuttavia, risulta sufficientemente largo da comprendere sia le ricerche di punta nella IA ristretta sia, seppur senza nominarlo, l’obiettivo della Intelligenza Artificiale Generale (AGI). 

11  La terminologia “rischi esistenziali” si riferisce alla possibilità che un qualche evento (o una qualche concatenazione di eventi) possa provocare un rischio di estinzione per l’umanità. In particolare il Future of Life Institute, che ha promosso la prima richiesta di moratoria sulla IA, fa parte di un network associativo filosofico (il cosiddetto longtermism) che vede proprio in una Intelligenza Artificiale malgestita o resa autonoma uno dei possibili più grandi rischi per l’umanità. Al contrario, sempre secondo il longtermism, una IA sviluppata in maniera consapevole dovrebbe essere la priorità assoluta, potendo permette lo sviluppo futuro di miliardi di miliardi di esseri umani, in grado di colonizzare l’universo e “vivere vite felici” anche sotto forma digitalizzata all’interno dei computer.

12  Con la locuzione open source si definisce un codice accessibile pubblicamente. Questo è  sviluppato tramite un approccio decentralizzato e collaborativo della comunità open source, che può o meno includere sviluppatori professionali . 

13  https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023 , consultato il 5 novembre 2023

14  Il cenno alle azioni autonome dannose prodotte da macchine che sfuggono al controllo conferma quanto espresso nella precedente nota 10: la terminologia IA di frontiera si estende ad includere la IA generale.

15  Il riferimento esplicito alle biotecnologie coincide con quanto esprime il movimento che anima la rete attorno al Future of Life Institute (vedi nota 11).

16  La Harris, in particolare, ha sottolineato che la tecnologia ha il potenziale per creare “attacchi informatici su una scala superiore a qualsiasi cosa abbiamo visto prima, … (omissis) … armi biologiche formulate dall’intelligenza artificiale che potrebbero mettere in pericolo la vita di milioni di persone”. Riecheggiando anch’essa quanto asserito dal longermism (vedi nota 11), ha ancora affermato: “queste minacce vengono spesso definite ‘minacce esistenziali dell’intelligenza artificiale’, perché potrebbero mettere in pericolo l’esistenza stessa dell’umanità”.

17  A. Theben, L. Gunderson, L. L. Forés, G. Misuraca, F. Lupiáñez-Villanueva, Challenges and limits of an open source approach to Artificial Intelligence, maggio 2021, 

https://www.europarl.europa.eu/RegData/etudes/STUD/2021/662908/IPOL_STU(2021)662908_EN.pdf

18  Con riferimento alla intelligenza artificiale, l’open source, prevedendo i codici aperti, ha la caratteristica di poter facilmente permettere e rafforzare la supervisione sui modelli, consentendo alla cittadinanza, ai gruppi di interesse pubblico ed ai governi di esaminare la tecnologia e denunciare pregiudizi, difetti di sicurezza e altri problemi. OpenAI e Goolge, contrari all’open source nella sua completezza riferita alla IA, controbattono dicendo che il software aperto genererebbe maggiori problemi di sicurezza. Tuttavia, come lascerebbe intendere un leak (fuga di dati) proveniente da Google (https://www.semianalysis.com/p/google-we-have-no-moat-and-neither), è ragionevole supporre che Google ed OpenAI paventino tali problemi perché preoccupati della minaccia competitiva rappresentata dal movimento open source nella IA, specie dopo che META ha deciso di condividere il proprio codice LLama verso l’open source (https://ai.meta.com/llama/).

19  E .M. Bender, T. Gebry, A. McMillan-Major, S. Shmitchell. On the Dangers of Stochastic Parrots: CanLanguage Models Be Too Big? FAccT ‘21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, March2021, Pages 610–623  https://doi.org/10.1145/3442188.3445922

20  Steven Jay Sinofsky, informatico, è stato presidente della divisione Windows di Microsoft dal luglio 2009 fino alle sue dimissioni il 13 novembre 2012. La sua citazione riferita nel testo è rintracciabile su substack.com all’indirizzo https://hardcoresoftware.learningbyshipping.com/p/211-regulating-ai-by-executive-order .

21  La legge di Moore definisce una regola empirica, stabilita da Gordon Moore della Intel,  per la quale ogni 18 mesi si osserva il raddoppio del numero di transistor nei processori.

22  Meredith Whittaker è stata in Google per tredici anni con posizioni di direzione rilevanti. Ha fondato e collaborato a fondare gruppi di ricerca e sistemi globali di dati aperti sulla rete. Nel 2018 è stat tra le principali organizzatrici di Google  Walkouts, clamorosi  scioperi in Google in cui i dipendenti rivendicavano uguaglianza di diritti e retributiva nonché lo stop a discriminazioni e comportamenti sessuali scorretti. Tra i motivi scatenanti lo sciopero il pagamento di 90 milioni di dollari ad Andy Rubin , che era stato accusato di cattiva condotta sessuale, e il  coinvolgimento dell’azienda con il progetto Maven tramite un contratto da parte del Pentagono  in cui Google si sarebbe occupata dello sviluppo di tecnologie di visione artificiale per droni. A seguito delle proteste, Google ha rinunciato al contratto. Si è dimessa dall’azienda nel 2019. È stata research professor presso la New York University, dove ha cofondato e diretto l’AI Now Institute. È stata consulente per la IA presso la Federal Trade Commission. Attualmente è presidentessa della Signal Foundation, una azienda informatica no profit. Per la citazione vedere https://www.bizjournals.com/sanjose/bizwomen/news/latest-news/2023/09/why-ai-expert-meredith-whittaker-is-worried.html?page=all .

23  https://www.goldmansachs.com/intelligence/pages/generative-ai-could-raise-global-gdp-by-7-percent.html .

24  Si veda, come esempio, quanto riportato in https://eticaeconomia.it/la-guerra-ai-tempi-delle-piattaforme-digitali/ 

25 Tra questi il documento “Joint Statement on AI Safety and Openness”, sponsorizzato dalla Mozilla Fundation (https://open.mozilla.org/letter/) o la nota di cui in ref.16 

26  Si vedano in tal senso le osservazioni di Amba Kak, direttrice esecutiva dell’AI Now Institute, espresse il secondo giorno del summit: https://ainowinstitute.org/publication/remarks-from-ai-now-ed-amba-kak-on-day-2-of-the-uk-ai-safety-summit .

27  https://www.businessinsider.com/ai-leaders-are-fighting-over-claims-ai-poses-extinction-threat-2023-11?r=US&IcensR=T .

28  Si noti che META, azienda che ha sviluppato Facebook e possiede Whatsapp, risulta indietro nei confronti di OpenAI e di Google nello sviluppo dei Large Language Models. Mentre rappresentanti di primo piano delle prime due aziende hanno firmato l’appello del Center for AI Safety, nessun esponente di META lo ha fatto. Si noti inoltre che META ha rilasciato in open source il proprio codice di machine learning (https://ai.meta.com/llama/).