Top menu

Per una Intelligenza artificiale responsabile

Aprire un dialogo tra ricercatori di scienze sociali che studiano le conseguenze dello sviluppo delle tecnologie digitali in ambiti lavorativi e ingegneri della conoscenza che progettano e realizzano sistemi di Intelligenza artificiale. E’ la via indicata da un workshop a Pisa che ha esplorato problemi e soluzioni.

L’adozione su larga scala dell’Intelligenza Artificiale (IA) sta trasformando il modo in cui viviamo e lavoriamo. Spinta da una rapida accelerazione tecnologica, sostenuta dalle strategie economiche della grandi imprese digitali e dalle scelte politiche dei governi, l’Intelligenza Artificiale sta ridefinendo i mercati del lavoro, i modelli produttivi e l’economia mondiale. Questo cambiamento solleva interrogativi urgenti: la distruzione di posti di lavoro, il controllo algoritmico, il potere delle piattaforme digitali, le crescenti disuguaglianze, le trasformazioni strutturali e culturali della società.

Sono stati questi alcuni temi al centro del workshop “AI, Labour and Society”, tenutosi il 10 giugno 2025 presso l’Università di Pisa, organizzato dal gruppo di ricerca in Intelligenza Artificiale della Scuola Normale Superiore di Pisa e dall’Istituto di Studi Avanzati “Carlo Azeglio Ciampi” della Scuola Normale con il supporto della “Fondazione FAIR – Future Artificial Intelligence Research”. L’incontro ha visto la partecipazione di studiose e studiosi provenienti da ambiti disciplinari e contesti geografici diversi, dando vita a un confronto ricco e articolato sulle traiettorie dell’innovazione tecnologica, che ha evidenziato come queste non si esauriscano in mere trasformazioni tecniche, ma siano profondamente intrecciate con dinamiche di potere, disuguaglianze sociali e conflitti politici.                                                                                                                                       

Un primo tema chiave riguarda la relazione ambivalente tra tecnologia, lavoro e strutture sociali: da un lato, le tecnologie digitali offrono la possibilità di  sviluppare numerose capacità umane e, soprattutto, la produzione; dall’altro, presentano il rischio di replicare o inasprire meccanismi di sfruttamento. Fin dalla prima rivoluzione industriale, i progressi tecnologici hanno contribuito a cambiare i rapporti tra capitale e lavoro, in genere a vantaggio del primo, attraverso il controllo sui diritti di proprietà e sull’accesso alle tecnologie. I più recenti avanzamenti in Intelligenza Artificiale riproducono questa ambivalenza: se da un lato promettono di liberare tempo, ridurre compiti ripetitivi e aprire nuove opportunità occupazionali, dall’altro possono rendere obsolete intere categorie di lavori o introdurre modelli di gestione che aumentano la precarietà e indeboliscono diritti e tutele. Studi in questo campo [1] suggeriscono che l’impatto dell’Intelligenza Artificiale sul lavoro varia a seconda delle professioni e delle competenze, determinando un ampliamento del divario fra occupazioni ad alta e bassa qualifica, con conseguente polarizzazione delle retribuzioni. 

Dietro l’ingannevole presunzione di neutralità dell’IA e della fornitura algoritmica dei servizi, si nasconde infatti un notevole esercizio di potere sociale che si traduce nel consolidamento di un controllo monopolistico da parte degli attori dominanti del settore tecnologico su infrastrutture (le cosiddette Big Tech) e flussi di dati. Questo processo ha ricadute profonde sull’intera società, limitando la libertà individuale e la capacità di agire autonomamente, con effetti particolarmente dannosi per le fasce più vulnerabili. Le implicazioni negative non si esauriscono sul piano sociale, ma si estendono anche a quello geopolitico, dove risulta sempre più marcato ed evidente il colonialismo digitale fondato sull’asimmetria tra stati nell’accesso e nel controllo delle tecnologie [2].

Un esempio chiave è come si è sviluppata la platform economy (l’economia delle piattaforme), un modello economico basato su infrastrutture digitali che fungono da intermediari tra utenti, aziende o lavoratori, spesso attraverso sistemi automatizzati di gestione, valutazione e pagamento, traendo profitto dalle interazioni fra le parti coinvolte. Questo modello ha trasformato numerosi settori, ridefinendo le modalità di consumo, produzione e occupazione. Nello specifico, il lavoro su piattaforma comprende attività professionali estremamente eterogenee che possono essere svolte sia online – ovvero a distanza, come traduzioni, programmazione, inserimento dati o microtask – sia on location, ovvero attraverso l’assegnazione algoritmica di servizi erogati poi nel mondo fisico, come consegne a domicilio, trasporto passeggeri o assistenza domestica. Entrambe queste categorie operano spesso in condizioni di forte incertezza lavorativa e crescente precarietà, con tutele limitate e una pericolosa esposizione al cosiddetto algorithmic management (gestione algoritmica): un sistema di gestione automatizzata che determina l’accesso agli incarichi, valuta le prestazioni e stabilisce i compensi. Da un lato le piattaforme digitali si presentano come strumenti capaci di offrire maggiore flessibilità e accesso al lavoro rispetto ai canali tradizionali, e attirano la disponibilità a lavorare delle categorie più penalizzate, come i migranti, spesso esclusi da altre forme di reclutamento. Dall’altro lato, le più recenti analisi economiche rivelano come dietro tale promessa si indeboliscono le possibilità di organizzazione collettiva, si amplia la sorveglianza, anche in forme opache e degradanti, si aggravano i processi di alienazione e sfruttamento [1, 3].

Per affrontare questi nodi, il workshop “AI, Labour and Society” ha aperto un dialogo tra i ricercatori delle scienze sociali che lavorano sulle conseguenze socio-economiche della tecnologia, e gli esperti che progettano e realizzano i sistemi di Intelligenza Artificiale. Tale collaborazione è fondamentale non solo per mitigare le potenziali conseguenze negative sulla società, ma anche per indirizzare i progressi tecnologici verso risultati più equi e sostenibili. La tecnologia, in questo senso, non è mai neutrale: riflette e riconfigura i rapporti economici e istituzionali esistenti, contribuendo a definire, spesso in modo opaco e diseguale, le direzioni del cambiamento economico e sociale.

Un orizzonte comune per ricerca e politiche

Un punto importante in questo dibattito riguarda il modo in cui le politiche – in Europa in particolare – possono disegnare le traiettorie di sviluppo dell’Intelligenza Artificiale, con l’obiettivo di garantire che le modalità di sviluppo, utilizzo e monitoraggio delle tecnologie digitali non siano in contrasto con valori condivisi e principi democratici. La Roadmap for AI Policy Research [4], sviluppata in occasione dell’AI Policy Research Summit tenutosi a Stoccolma nel novembre del 2024 e presentata a Pisa da Petter Ericson (ricercatore in Responsible AI presso la Umeå University, Svezia), definisce una visione condivisa che promuove la ricerca sulle politiche e la governance di un’ Intelligenza Artificialeresponsabile”, fungendo da quadro di riferimento per la collaborazione tra istituzioni accademiche, industria, governi e società civile. Questa visione, fondata su evidenze scientifiche, principi etici, sostenibilità e inclusività, fissa una serie di principi fondamentali, priorità di ricerca e azioni concrete per una traiettoria di sviluppo tecnologico in cui l’impatto dell’Intelligenza Artificiale sulla società sia benefico e ecologicamente sostenibile.

Lavorare per l’algoritmo

Una parte rilevante del workshop di Pisa è stata dedicata ad un’analisi critica del ruolo dell’Intelligenza Artificiale nel sistema economico. L’impatto delle piattaforme digitali sui mercati locali del lavoro è stato documentato dall’analisi – di Jacopo Tramontano e altri – dell’espansione di Amazon in Italia [5], mostrando come l’arrivo di nuovi stabilimenti, pur generando aumento di produttività e nuovi posti di lavoro, comporti effetti complessivamente negativi su salari e occupazione locale, rafforzando inoltre meccanismi di forte perturbazione e competizione con le imprese locali. In parallelo, un’analisi quantitativa del contesto italiano [6] ha evidenziato come lavoratrici e lavoratori di piattaforma non costituiscono una categoria omogenea ma presentano diversi profili di vulnerabilità e grado di dipendenza da questo tipo di occupazione, determinati da un intreccio tra fattori economico-lavorativi e condizioni individuali, quali il genere, l’età, la collocazione geografica e il livello di istruzione. Nel complesso, dall’analisi emerge che le criticità legate al lavoro su piattaforma non ne annullano però l’attrattiva, soprattutto in situazioni di svantaggio economico, evidenziando al contempo l’inadeguatezza e inefficienza del mercato del lavoro tradizionale.

La normativa per la tutela dei diritti

Le norme giuridiche possono essere una risposta a questi problemi? La presentazione di Giorgio Pedrazzi [7] ha esaminato le potenzialità degli strumenti giuridici attualmente disponibili per la protezione dei diritti di lavoratrici e lavoratori delle piattaforme. La normativa europea già consente l’applicazione di strumenti legali, in particolare l’algorithmic transparency (trasparenza algoritmica, pensata per ridurre l’opacità tramite la richiesta alle piattaforme di rivelare come vengono prese le decisioni automatizzate che hanno un impatto sui lavoratori, come valutazione delle performance, pagamenti e azioni disciplinari) e la data portability (portabilità dei dati, pensata per abilitare il controllo diretto dei propri dati lavorativi rafforzando così il potere contrattuale e la mobilità fra piattaforme). Combinare questi due aspetti può essere utile a mitigare i danni derivanti dalle pratiche di gestione algoritmica nell’economia delle piattaforme. La sfida resta quella di tradurre queste misure normative in pratiche tecnologiche efficaci che puntino, tra i vari obiettivi potenziali, a una standardizzazione dei protocolli tecnici, al rafforzamento della capacità normativa, al sostegno esplicito alle azioni collettive dei lavoratori e ad una maggiore cooperazione internazionale in materia di governance. Pedrazzi sottolinea però che già emergono approcci tecnico-normativi in grado di dimostrare come un’integrazione proficua tra leggi e tecnologie sia possibile. Un esempio è quello delle data cooperatives (cooperative di dati), organizzazioni intermediarie come Worker Info Exchange che consentono a lavoratrici e lavorarori di esercitare collettivamente i loro diritti sui dati lavorativi. Attraverso l’invio di richieste alle piattaforme di accesso ai dati personali, queste cooperative rendono possibile la raccolta, la gestione e il riutilizzo dei dati, favorendo controlli sistematici e indipendenti, campagne per i diritti e un controllo più trasparente della gestione algoritmica. Questi strumenti rappresentano, nel loro insieme, elementi fondamentali per rafforzare le tutele nel lavoro su piattaforma.

L’informazione al tempo dell’Intelligenza Artificiale

Al workshop di Pisa la discussione ha affrontato anche i problemi dell’informazione, àmbito in cui l’adozione dell’Intelligenza Artificiale generativa solleva preoccupazioni significative anche sul piano democratico. L’analisi di Riccardo Corsi [8] ha mostrato che l’Intelligenza Artificiale, oltre a mettere a rischio i principi fondamentali del giornalismo, come la verifica delle fonti, il rispetto della privacy e il contrasto a contenuti d’odio o discriminatori, può alterare l’intero ecosistema informativo, minando la capacità del pubblico di accedere a informazioni affidabili e orientare consapevolmente i propri comportamenti nello spazio digitale come in quello fisico. Mentre alcuni si oppongono apertamente all’adozione dell’Intelligenza Artificiale, altri sostengono strategie di governance inclusive, modelli di remunerazione equi e progettazione partecipativa delle nuove tecnologie. Il caso italiano de Il Manifesto esemplifica un percorso alternativo in cui l’innovazione non è subordinata a contratti opachi con le Big Tech, ma è co-sviluppata internamente alla redazione e dunque trasparente ed eticamente allineata ai valori giornalistici. MeMa, acronimo di Memoria Manifesta, è un esempio concreto di “Intelligenza Artificiale di comunità”, ovvero uno strumento di IA generativa ideato e sviluppato insieme a giornaliste e giornalisti per supportarne le attività professionali tramite la fruizione critica e contestualizzata dei contenuti dell’archivio storico del giornale. 

L’ombra del militare

Infine, Dario Guarascio ha messo in luce l’interdipendenza tra le traiettorie civili e militari nello sviluppo dell’Intelligenza Artificiale e l’emergere di un complesso digitale-militare-industriale [9]. Come già discusso qui, tale convergenza è il risultato di un’interazione fra obiettivi civili (come l’efficienza di mercato, la riduzione dei costi, la competizione tra oligopoli e il consumo di massa) e obiettivi militari, legati invece a logiche di comando, controllo, massime prestazioni e priorità strategiche, spesso associati a frequenti inefficienze economiche. Questa dinamica è il risultato delle strategie delle grandi imprese digitali da un lato, e delle politiche del governo degli Stati Uniti dall’altro e contribuisce a ridisegnare le scelte economiche, le gerarchie tecnologiche, gli equilibri geopolitici mondiali.

Negli Stati Uniti, Alphabet, Amazon, Apple, Meta e Microsoft – i monopolisti del digitale – si sono sviluppati sull’onda delle ricerche su microelettronica e informatica che erano state finanziate nei decenni scorsi dal DARPA, l’agenzia del Dipartimento della difesa degli Stati Uniti responsabile per lo sviluppo di nuove tecnologie militari e che aveva sostenuto anche molte delle tecnologie digitali attuali. Oggi queste imprese hanno capacità di sorveglianza, controllano infrastrutture e tecnologie critiche come il cloud computing, i cavi sottomarini e le reti satellitari e hanno assunto in questo modo un ruolo centrale nelle strategie di sicurezza, intelligence e difesa degli Stati Uniti. Da un lato offrono alla politica Usa strumenti di controllo e sorveglianza, e dall’altro estendono a livello globale il proprio dominio digitale. Questo legame influenza fortemente le politiche industriali e dell’innovazione, spesso segnate dalla promozione di tecnologie dual-use (utilizzabili sia in ambito civile che militare). Anche nel digitale ritroviamo poi il meccanismo di “porte girevoli” tra posizioni di leadership aziendale e incarichi pubblici e politici, che vede le stesse persone cambiare ruolo, ma perseguire le stesse strategie di profitto e potere. In questo contesto, lo Stato appare al tempo stesso subordinato e complice delle Big Tech: incapace di farne a meno, delega alle imprese funzioni strategiche in ambito civile e militare, rafforzandone però al tempo stesso il potere, anche sul piano geopolitico, come dimostrano i casi di Starlink nella guerra in Ucraina o della fornitura di tecnologie di Intelligenza Artificiale da parte di Google all’esercito israeliano.

Alla luce delle sfide emerse, è urgente promuovere nuovi spazi di confronto, collaborazioni interdisciplinari e intersettoriali, che aiutino a definire in modo più chiaro e condiviso gli sviluppi della ricerca sull’IA. Un nodo centrale resta il coinvolgimento di tutti gli attori interessati, in particolare coloro che subiscono direttamente gli effetti delle trasformazioni tecnologiche come lavoratrici e lavoratori di piattaforma, ma anche le stesse Big Tech, il cui modello proprietario impenetrabile pone ostacoli rilevanti all’avanzamento della ricerca. In questo scenario, anche la ricerca si trova a interrogarsi sul proprio ruolo e sui margini di autonomia di cui dispone, poiché spesso essa stessa dipende da infrastrutture, dati e finanziamenti forniti dai medesimi attori dominanti. Per affrontare queste tensioni, diventa essenziale promuovere una più ampia consapevolezza pubblica sul tema, affinché le scelte tecnologiche e politiche non continuino ad essere imposte dall’alto, ma diventino oggetto di partecipazione democratica e collettiva, condizione necessaria per orientare lo sviluppo tecnologico verso esiti realmente benefici per l’intera società.

References

  1. Pianta, M. (2020). Technology and Work: Key Stylized Facts for the Digital Age. In: Zimmermann, K. (eds) Handbook of Labor, Human Resources and Population Economics. Springer, Cham. https://doi.org/10.1007/978-3-319-57365-6_3-1 
  2. Muldoon, J., Wu, B.A. Artificial Intelligence in the Colonial Matrix of Power. Philos. Technol. 36, 80 (2023). https://doi.org/10.1007/s13347-023-00687-8 
  3. Zuboff, S. (2023). The age of surveillance capitalism. In Social theory re-wired (pp. 203-213). Routledge.
  4. Dignum, V., Régis, C., Bach, K., Bourgine de Meder, Y., Buijsman, S., de Carvalho, A. P. L. F., Castellano, G., Dignum, F., Farries, E., Giannotti, F., Anh Han, T., Helberger, N., Hellegren, I., Houben, G.-J., Jahn, A., Joshi, S., Lamine Sarr, M., Lewis, D., Lind, A.-S., … Tucker, J. (2024). Roadmap for AI policy research. AI Policy Research Summit, Stockholm, November 2024. AI Policy Lab, Umeå University. https://aipolicylab.se/news-and-events/ai-policy-summit/roadmap-for-ai-policy-research/
  5. Tramontano, J., Cirillo, V., and Guarascio D. (2025). The Impact of Amazon on Italian Local Labor Markets – a Staggered Difference-in-Differences Approach. AILS 2025 Workshop, June 2025. University of Pisa.
  6. Punzi, C., Cirillo, V., Guarascio D., Pellungrini, R. and Giannotti, F. (2025). Platform workers not by chance. A machine learning approach to explore digital labor markets. AILS 2025 Workshop, June 2025. University of Pisa.
  7. Pedrazzi, G. (2025). Bridging Law and Code in Algorithmic Management. Empowering Worker Rights Through Transparency and Portability. AILS 2025 Workshop, June 2025. University of Pisa.
  8. Corsi, R. (2025). Large Language Models and the Public Arena – A Threat to Democracy? Insights from Italian Journalism. AILS 2025 Workshop, June 2025. University of Pisa.
  9. Guarascio, D. and Pianta, M. (2025). Digital technologies: civilian vs. military trajectories. LEM Papers Series, Laboratory of Economics and Management (LEM), Sant’Anna School of Advanced Studies, Pisa, Italy.