Digitale, Istruzione, Temi, Interventi

Contro l’università è in corso una guerra, ma solo una delle due parti è armata: le grandi aziende tecnologiche del complesso militare-industriale statunitense hanno colonizzato le università, per sostituire la finalità originaria dell’istruzione pubblica con gli obiettivi aziendali. Con le piattaforme per l’istruzione, mirano a estrarre valore dai dati degli studenti e a creare “una conduttura di futuri utenti” dei loro prodotti: “Ottieni quella fedeltà molto presto, e potenzialmente per tutta la vita”. La priorità “educativa” è per le aziende “la dipendenza degli adolescenti” dai loro servizi e prodotti. Grazie ai chatbot, la dipendenza è ottenuta per mezzo della dequalificazione: utenti divenuti incapaci di scrivere da soli, anche ai livelli più elementari, saranno ostaggi di sistemi informatici proprietari, dai quali, per quanto scadenti, dipenderanno.

Sistemi del genere sono inutili e dannosi, nelle università, se non come oggetto di studio. Se anche funzionassero, del resto, a chi mai verrebbe in mente di andare in palestra a guardare una macchina che sollevi pesi al suo posto?

Nei giovani, l’uso dei chatbot preclude l’apprendimento e abitua a omologarsi, a non pensare, a recepire pensieri già formulati da altri. È un addestramento alla “resa cognitiva”, all’adozione dell’output di un chatbot senza verifica e anche nei casi in cui contrasti con le proprie intuizioni o i propri ragionamenti. Chi non sia in grado di pensare non sarà in grado di valutare criticamente, di rivendicare diritti, di opporsi al potere, quale che sia. Ai cittadini si addicono il pensiero e l’uso pubblico della ragione. Ai sudditi, la resa cognitiva.

Un chabot è utile a chi lo produca, oltre che a fini di sorveglianza (se qualcosa di intimo restasse ancora celato al complesso militare-industriale, le aziende scommettono che lo confideremo all’app che promette di farci parlare con Gesù) anche a fini di manipolazione e controllo: uno strumento che ci suggerisca cosa scrivere ci suggerisce, al tempo stesso, cosa pensare. Per i sudditi eventualmente riottosi, l’accesso ai beni necessari alla sopravvivenza sarà legato alla disciplina.

Le università sono complici quando agiscono come broker edtech, promuovendo prodotti che dequalificano e disabilitano studenti e ricercatori e li intrappolano in infrastrutture proprietarie, e come megafoni aziendali, propagando narrazioni che proteggono il modello di business delle grandi aziende tecnologiche (malgrado il profluvio di linee guida ossessivamente dedicate all’etica, non c’è un modo etico di distruggere l’università).

Nelle università già ben addestrate a competere per finanziamenti privati e ad impegnarsi in ricerche delle quali i finanziatori privati dettino l’inquadramento, i risultati e financo il tono, molti si sono affrettati ad abbracciare “una pedagogia dell’inevitabile” e “una serie di strumenti i cui principali casi d’uso – polizia predittiva, targeting militare, pubblicità e pornografia – sono in profonda contraddizione con i valori che sostengono di difendere”.

Ma c’è anche chi, di fronte al male della banalità, reagisce.

Olivia Guest, Iris van Rooij, Barbara Müller e Marcela Suárez, scienziate e docenti universitarie dei Paesi Bassi, sono state promotrici e prime firmatarie, il 27 giugno 2025, di una lettera aperta ai loro Atenei, Basta con l’adozione acritica delle tecnologie di intelligenza artificiale nelle università, che, con Maria Chiara Pievatolo e Antonio E. Porreca, abbiamo tradotto di seguito.

Daniela Tafani

Alle università dei Paesi Bassi, alle Università olandesi di Scienze applicate e ai rispettivi Consigli di Amministrazione,

Con questa lettera, prendiamo una posizione di principio contro la proliferazione delle cosiddette tecnologie di “intelligenza artificiale” nelle università. In quanto membri di un’istituzione educativa, non possiamo tollerare l’uso acritico dell’IA da parte di studenti, professori, ricercatori o dirigenti. Chiediamo inoltre di riconsiderare tutti i rapporti finanziari diretti tra le università olandesi e le aziende di IA. Introdurre le tecnologie di IA senza restrizioni conduce a violare lo spirito della legge europea sull’IA. Mina i nostri valori pedagogici fondamentali e i principi dell’integrità scientifica. Ci impedisce di rispettare i nostri principi di indipendenza e trasparenza. E, cosa più preoccupante, è stato dimostrato che l’uso dell’IA ostacola l’apprendimento e disabilita il pensiero critico.

In qualità di studiosi, e in particolare di docenti universitari, abbiamo la responsabilità di dare un’istruzione ai nostri studenti, non di mettere il timbro a lauree senza relazione con capacità di livello universitario. Il nostro dovere di educatori è di coltivare il pensiero critico e l’onestà intellettuale, e il nostro ruolo non è quello di accettare l’alternativa tra la sorveglianza e la promozione della truffa, né quello di considerare normale che i nostri studenti o i ricercatori che supervisioniamo evitino il pensiero approfondito. Nelle università ci si impegna a fondo con ciò che si studia. L’obiettivo della formazione universitaria non è risolvere i problemi nel modo più efficiente e rapido possibile, ma sviluppare le capacità per identificare e affrontare problemi nuovi, che non sono mai stati risolti prima. Ci aspettiamo che agli studenti siano dati lo spazio e il tempo per formarsi opinioni proprie, profondamente ponderate, ispirate dalle nostre competenze e coltivate dai nostri spazi educativi. Questi spazi devono essere protetti dalla pubblicità aziendale, e i nostri finanziamenti non devono essere spesi in modo improprio per società a scopo di lucro, che offrono ben poco in cambio e dequalificano attivamente i nostri studenti. Persino il termine stesso “Intelligenza Artificiale” (che da un punto di vista scientifico si riferisce a un campo di studio accademico) è ampiamente abusato, con una mancanza di chiarezza concettuale che viene sfruttata per promuovere interessi aziendali e minare le discussioni scientifiche. È nostro compito demistificare e mettere in discussione l’“IA” nel nostro insegnamento, nella nostra ricerca e nel nostro impegno con la società.

Dobbiamo proteggere e coltivare l’ecosistema della conoscenza umana. I modelli di IA possono imitare l’aspetto del lavoro accademico, ma (per loro stessa natura) non hanno nulla a che fare con la verità: il risultato è un diluvio di “informazioni” non verificate ma che suonano convincenti. Nel migliore dei casi, l’output è accidentalmente vero, ma in genere privo di citazioni, avulso dal ragionamento umano e dalla rete di saperi di cui si impadronisce. Nel peggiore dei casi, è presentato con sicurezza ma sbagliato. Entrambi gli esiti sono pericolosi per l’ecosistema.

Le tecnologie di “IA” presentate in modo esagerato e sopravvalutate, come i chatbot, i grandi modelli del linguaggio e i prodotti correlati, non sono che questo: prodotti che l’industria tecnologica, proprio come le industrie del tabacco e del petrolio, spinge sul mercato per profitto e in contraddizione con i valori della sostenibilità ecologica, della dignità umana, della tutela pedagogica, della privacy, dell’integrità scientifica e della democrazia. Questi prodotti di “IA” danneggiano materialmente e psicologicamente la capacità dei nostri studenti di scrivere e pensare con la propria testa, perché esistono invece a beneficio degli investitori e delle aziende multinazionali. Come strategia di marketing per introdurre tali strumenti in classe, le aziende sostengono falsamente che gli studenti siano pigri o incapaci di scrivere. Condanniamo tali affermazioni e riaffermiamo la capacità d’azione degli studenti contro il controllo aziendale.

Ci siamo già trovati in questa situazione con il tabacco, il petrolio e molte altre industrie dannose che non si curano dei nostri interessi e che sono indifferenti al progresso dei nostri studenti nello studio e all’integrità dei nostri processi scientifici.

Vi invitiamo a:

  • Opporvi all’introduzione dell’IA nei nostri sistemi software, da Microsoft a OpenAI ad Apple. Non è nel nostro interesse lasciare che i nostri processi siano corrotti e cedere i nostri dati affinché vengano utilizzati per addestrare modelli che per noi non solo sono inutili, ma anche dannosi.
  • Proibire l’uso dell’IA in classe per i lavori degli studenti, proprio come vietiamo i servizi di scrittura di tesi su commissione e altre forme di plagio. Gli studenti devono essere protetti dalla dequalificazione e devono essere riconosciuti loro lo spazio e il tempo per svolgere i loro lavori da sé.
  • Smettere di normalizzare la propaganda sull’IA e le menzogne prevalenti nella sua presentazione aziendale. Queste tecnologie non hanno le capacità pubblicizzate e la loro adozione espone studenti e studiosi al rischio di violare i principi etici, legali, accademici e scientifici di affidabilità, sostenibilità e sicurezza.
  • Rafforzare la nostra libertà accademica, in quanto personale universitario, per far rispettare questi principi e criteri nelle nostra didattica e nella nostra ricerca, nonché nei sistemi informatici che siamo obbligati a utilizzare nell’ambito del nostro lavoro. In quanto studiosi, abbiamo diritto ai nostri spazi.
  • Sostenere il pensiero critico sull’IA e promuovere un approccio critico alla tecnologia su solide basi scientifiche. Il dibattito scientifico deve essere libero dai conflitti di interesse causati dai finanziamenti aziendali dell’industria, e la resistenza ragionata deve sempre essere sempre possibile.

Cordialmente,

Olivia Guest, Assistant Professor of Computational Cognitive Science, Cognitive Science & Artificial Intelligence Department and Donders Centre for Cognition, Radboud University Nijmegen

Iris van Rooij, Professor of Computational Cognitive Science, Cognitive Science & Artificial Intelligence Department and Donders Centre for Cognition, Radboud University Nijmegen

Marcela Suarez Estrada, Lecturer in Critical Intersectional Perspectives on Artificial Intelligence, School of Artificial Intelligence, Radboud University Nijmegen

Lucy Avraamidou, Professor of Science Education, Faculty of Science and Engineering, University of Groningen

Barbara Müller, Associate Professor of Human-Machine Interaction, Faculty of Social Sciences, Radboud University Nijmegen

Marjan Smeulders, Researcher Microbiology and teacher ambassador for Teaching and Learning Centre, Faculty of Science, Radboud University Nijmegen

Arnoud Oude Groote Beverborg, Lecturer of Pedagogy, Faculty of Social Sciences, Radboud University Nijmegen

Ronald de Haan, Assistant Professor in Theoretical Computer Science, Faculty of Science, University of Amsterdam

Mirko Tobias Schäfer, Associate Professor of AI, Data & Society, Faculty of Science, Utrecht University

Mark Dingemanse, Associate Professor & Section leader AI, Language and Communication Technology, Faculty of Arts, Radboud University Nijmegen

Frans-Willem Korsten, Professor in Literature, Culture, and Law, Leiden University for the Arts in Society

Mark Blokpoel, Assistant Professor of Computational Cognitive Science, Cognitive Science & Artificial Intelligence Department and Donders Center for Cognition, Radboud University Nijmegen

Juliette Alenda-Demoutiez, Assistant Professor, Economic Theory and Policy, Faculty of Management, Radboud University Nijmegen

Federica Russo, Professor of Philosophy and Ethics of Techno-Science & Westerdijk Chair, Freudenthal Institute, Utrecht University

Felienne Hermans, Professor in Computer Science Education, Vrije Universiteit Amsterdam

Francien Dechesne, Associate Professor of Ethics and Digital Technologies, eLaw Center for Law and Digital Technologies, Leiden University

Jaap-Henk Hoepman, Professor in Computer Science, Radboud University / Karlstad University.

Jelle van Dijk, Associate Professor Embodied Interaction Design, Faculty of Engineering Technology, University of Twente

Andrea Reyes Elizondo, Researcher & PhD Candidate, Faculties of Social Sciences & Humanities, Leiden University

Djoerd Hiemstra, Professor in Computer Science, Radboud University

Liesbet van Zoonen, Professor of Cultural Sociology, Erasmus University Rotterdam

Emily Sandford, Postdoctoral Researcher, Leiden Observatory, Leiden University

M. Birna van Riemsdijk, Associate Professor Intimate Computing, Human-Media Interaction, University of Twente

Maaike Harbers, Professor of Artificial Intelligence & Society, Rotterdam University of Applied Sciences

Marieke Peeters, Senior Researcher Responsible Applied Artificial Intelligence and Human-AI Interaction, Research Group on Artificial Intelligence, HU University of Applied Sciences Utrecht

Marieke Woensdregt, Assistant Professor of Computational Cognitive Science, Cognitive Science & Artificial Intelligence Department and Donders Center for Cognition, Radboud University Nijmegen

Edwin van Meerkerk, Professor of Cultural Education, Radboud Institute for Culture and Heritage, Faculty of Arts, Radboud University Nijmegen

Sietske Tacoma, Senior Research Responsible Applied Artificial Intelligence, Research Group on Artificial Intelligence, HU University of Applied Sciences Utrecht

Nolen Gertz, Associate Professor of Applied Philosophy, Chair of Interdisciplinary Sciences Examination Board, University of Twente

Ileana Camerino, Lecturer of Academic Skills, School of Artificial Intelligence, Radboud University Nijmegen

Annelies Kleinherenbrink, Assistant Professor for Gender and Diversity in AI, Cognitive Science & Artificial Intelligence Department and Gender & Diversity, Radboud University Nijmegen

Fonti

Avraamidou, L. (2024). Can we disrupt the momentum of the AI colonization of science education?. Journal of Research in Science Teaching, 61(10), 2570–2574. https://doi.org/10.1002/tea.21961

Bainbridge, L. (1983). Ironies of automation. Automatica, 19(6), 775–779. https://doi.org/10.1016/0005-1098(83)90046-8

Bender, E.M. & Hanna A. (2025). The AI Con – How to Fight Big Tech’s Hype and Create the Future We Want. Harper. https://thecon.ai/

Bender, E.M. ‘Resisting Dehumanization in the Age of “AI”’. Current Directions in Psychological Science 33, no. 2 (1 April 2024): 114–20. https://doi.org/10.1177/09637214231217286

Bender, E. Shah, C. (2022, December 13). All-knowing machines are a fantasy. IAI News. iai.tv/articles/all-knowing-machines-are-a-fantasy…

Birhane, A. (2020). Algorithmic Colonization of Africa. SCRIPT-Ed, 17(2), 389–409. https://doi.org/10.2966/scrip.170220.389

Birhane, A. & Guest, O. (2021). Towards Decolonising Computational Sciences. Kvinder, Køn & Forskning, 2, 60–73. https://doi.org/10.7146/kkf.v29i2.124899

Broussard, M. (2018). Artificial unintelligence: How computers misunderstand the world. MIT Press. mitpress.mit.edu/9780262537018/artificial-unintell…

Crawford, K. (2021). The atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press. yalebooks.yale.edu/book/9780300264630/atlas-of-ai/…

Dingemanse, M. (2024). Generative AI and Research Integrity. Guidance commissioned and adopted by Radboud University Faculty of Arts. https://doi.org/10.31219/osf.io/2c48n

Erscoi, L., Kleinherenbrink, A. V., & Guest, O. (2023, February 11). Pygmalion Displacement: When Humanising AI Dehumanises Women. https://doi.org/10.31235/osf.io/jqxb6

Fergusson, G., Schroeder, C., Winters, B., & Zhou, E. (2023). Generating Harm. Generative AI’s Impact & Paths Forward. EPIC (Electronic Privacy Information Center). epic.org/documents/generating-harms-generative-ais…

Fernandez, A. L. (2025) Resisting AI Mania in Schools – Part I. Substack newsletter. Nobody Wants This (blog). annelutzfernandez.substack.com/p/resisting-ai-mani…

Forbes, S. H., & Guest, O. (2025). To Improve Literacy, Improve Equality in Education, Not Large Language Models. Cognitive Science, 49(4), e70058. https://doi.org/10.1111/cogs.70058

Gebru, T., & Torres, Émile P. (2024). The TESCREAL bundle: Eugenics and the promise of utopia through artificial general intelligence. First Monday, 29(4). https://doi.org/10.5210/fm.v29i4.13636

Gerlich, M. (2025). AI tools in society: Impacts on cognitive offloading and the future of critical thinking. Societies, 15(1), 6. https://doi.org/10.3390/soc15010006

Gertz, N. (2023). More than Machines? Jacques Ellul on AI’s Real Threat to Humanity. Commonweal Magazine. commonwealmagazine.org/jacques-ellul-gertz-artific…

Gertz, N. (2024). Nihilism and Technology: Updated Edition. Rowman & Littlefield. rowman.com/ISBN/9781538193266/Nihilism-and-Technol…

Gibney, E. (2024). Not all’open source’AI models are actually open: here’s a ranking. Nature. https://www.nature.com/articles/d41586-024-02012-5

Jackson, L., & Williams, R. (2024). How disabled people get exploited to build the technology of war. The New Republic. newrepublic.com/article/179391/wheelchair-warfare-…

Kalluri, P. (2020). Don’t ask if artificial intelligence is good or fair, ask how it shifts power. Nature, 583(7815), 169–169. https://www.nature.com/articles/d41586-020-02003-2

Liesenfeld, A., & Dingemanse, M. (2024). Rethinking open source generative AI: open-washing and the EU AI Act. In The 2024 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’24). Rio de Janeiro, Brazil: ACM. https://dl.acm.org/doi/10.1145/3630106.3659005

Lutz Fernandez, A. (2025). Help Sheet: Resisting AI Mania in Schools. drive.google.com/file/d/1e_kgaBs8yZL2pa_RVAemmfhow…

McQuillan, D. (2022). Resisting AI: An anti-fascist approach to artificial intelligence. Policy Press. https://bristoluniversitypress.co.uk/resisting-ai

McQuillan, D. (2025). The role of the university is to resist AI. Seminar, June 11, Goldsmiths Centre for Philosophy and Critical Thought. https://danmcquillan.org/cpct_seminar.html

Mejías, U. A., & Couldry, N. (2024). Data grab: The new colonialism of big tech and how to fight back. The University of Chicago Press. press.uchicago.edu/ucp/books/book/chicago/D/bo2161…

Monett, D., & Paquet, G. (2025). Against the Commodification of Education—If harms then not AI. Journal of Open, Distance, and Digital Education, 2(1). https://doi.org/10.25619/WAZGW457

Monett, D., & Grigorescu, B. (2024). Deconstructing the AI Myth: Fallacies and Harms of Algorithmification. Proceedings of the 23rd European Conference on e-Learning, ECEL 2024, 23(1), 242-248. https://doi.org/10.34190/ecel.23.1.2759

Muldoon, J., Graham, M., & Cant, C. (2024). Feeding the machine: The hidden human labor powering A.I. Bloomsbury Publishing. bloomsbury.com/us/feeding-the-machine-978163973497…

Narayanan, A & Kapoor, S. (2024) AI Snake Oil: What Artificial Intelligence Can Do, What It Can’t, and How to Tell the Difference. Princeton University Press

O’Neil, C. (2017). Weapons of Math destruction: How big data increases inequality and threatens democracy. Crown. https://dl.acm.org/doi/10.5555/3002861

Oakley, B., Johnston, M., Chen, K. Z., Jung, E., & Sejnowski, T. J. (2025). The Memory Paradox: Why Our Brains Need Knowledge in an Age of AI. http://dx.doi.org/10.2139/ssrn.5250447

Perrigo, B. (2023). Exclusive: OpenAI used Kenyan workers on less than $2 per hour to make ChatGPT less toxic. Time Magazine, 18, 2023. time.com/6247678/openai-chatgpt-kenya-workers/…

RCSC author collective. (2023). A Sustainability Manifesto for Higher Education. earthsystemgovernance.org/2023radboud/…. https://repository.ubn.ru.nl/handle/2066/301240

Ricaurte, P. (2022). Ethics for the majority world: AI and the question of violence at scale. Media, Culture & Society, 44(4), 726–745. https://doi.org/10.1177/01634437221099612

Sano-Franchini, J., McIntyre, M., & Fernandes, M. (2023). Refusing GenAI in Writing Studies: A Quickstart Guide. https://refusinggenai.wordpress.com/

Shah, C., & Bender, E.M.. ‘Situating Search’. In Proceedings of the 2022 Conference on Human Information Interaction and Retrieval, 221–32. CHIIR ’22. New York, NY, USA: Association for Computing Machinery, 2022. https://doi.org/10.1145/3498366.3505816

Suarez, M., Müller, B. C. N., Guest, O., & van Rooij, I. (2025). Critical AI Literacy: Beyond hegemonic perspectives on sustainability. Sustainability Dispatch, Radboud Centre for Sustainability Challenges. https://doi.org/10.5281/zenodo.15677840. rcsc.substack.com/p/critical-ai-literacy-beyond-he…

van Dijk, J. (2020). Post-human Interaction Design, Yes, but Cautiously. In: ACM Designing Interactive Systems Conference (DIS’ 20). Association for Computing Machinery, New York, NY, USA, 257–261. https://doi.org/10.1145/3393914.3395886

van der Gun, L., & Guest, O. (2024). Artificial Intelligence: Panacea or Non-Intentional Dehumanisation?. Journal of Human-Technology Relations, 2. https://doi.org/10.59490/jhtr.2024.2.7272

van Rooij, I., & Guest, O. (2024, September). Don’t believe the hype: AGI is far from inevitable. Press release, Radboud University. ru.nl/en/research/research-news/dont-believe-the-h…

van Rooij, I. (2022, December). Against automated plagiarism [Blog]. Iris van Rooij. irisvanrooijcogsci.com/2022/12/29/against-automate…

van Rooij, I., & Guest, O. (2025). Combining Psychology with Artificial Intelligence: What could possibly go wrong? PsyArXiv. https://doi.org/10.31234/osf.io/aue4m_v1

van Rooij, I., Guest, O., Adolfi, F., De Haan, R., Kolokolova, A., & Rich, P. (2024). Reclaiming AI as a Theoretical Tool for Cognitive Science. Computational Brain & Behavior, 7(4), 616–636. https://doi.org/10.1007/s42113-024-00217-5

Williams, D. P. (2024). Scholars are Failing the GPT Review Process. Historical Studies in the Natural Sciences, 54(5), 625-629. https://doi.org/10.1525/hsns.2024.54.5.625

La versione originale della lettera aperta può essere letta e sottoscritta qui

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *