Articolo pubblicato sul numero 71/2024 della rivista “Alternative per il socialismo“.

Le nostre paure nei confronti della tecnologia sono in realtà paure di come il capitalismo userà la tecnologia contro di noi.
Ted Chiang1

Negli esseri umani, la tendenza ad associare il linguaggio al pensiero è spontanea e ben fondata: è infatti generalmente vero che, se una persona risponde in modo appropriato a una nostra domanda, ha compreso ciò che le abbiamo chiesto, sa cosa ci sta dicendo e intende, con la propria risposta, comunicare con noi. Lo stesso test escogitato da Alan Turing nel 1950 consisteva nel sostituire la domanda “Le macchine possono pensare?” con un gioco dell’imitazione basato sul linguaggio e con la disponibilità a considerare intelligente qualunque macchina fosse in grado, in virtù delle sue risposte, di indurre i suoi interlocutori a scambiarla per un essere umano2.

Nei grandi modelli del linguaggio naturale, si ha, per la prima volta, una dissociazione di linguaggio e pensiero. Si tratta infatti di sistemi informatici di natura statistica, capaci di produrre linguaggio e, al tempo stesso, incapaci di pensare: trasformano le stringhe di testo in vettori e predicono sequenze di forme linguistiche, sulla base di informazioni probabilistiche sul modo in cui le sequenze di parole si combinano nei testi di partenza3. Sono stati qualificati come “pappagalli stocastici”4 proprio in virtù della caratteristica di produrre parole senza conoscerne il significato. Possono riprodurre le relazioni semantiche che si trovano riflesse nelle caratteristiche formali del linguaggio, ma non hanno accesso al significato in senso proprio, ossia alla relazione tra le forme linguistiche e qualcosa di esterno ad esse5. Sulla base di un calcolo delle probabilità, producono testi lessicalmente e sintatticamente corretti, ma non pensano6: non sanno ciò che scrivono, non ragionano, non sono capaci di astrazione e generalizzazione, non hanno il senso comune e la conoscenza sociale alla base della competenza linguistica umana7. Le persone che leggono tali testi vi rintracciano un significato perché i grandi modelli del linguaggio costituiscono un’immagine compressa e sfuocata di tutto il testo presente nel web8, ossia, come scrive Regina Rini, “una rappresentazione statisticamente astratta dei contenuti di milioni di menti, quali sono espressi nella loro scrittura”9. I testi prodotti sono perciò, anziché l’espressione di un pensiero, il risultato di un “plagio automatizzato”10, che naturalizza e amplifica la prospettiva egemonica e i suoi stereotipi11.

Rispondere senza capire: le macchine per scrivere storie

Che il linguaggio possa darsi anche senza pensiero e che ne sia possibile l’automazione, in virtù della traducibilità delle sue regole in termini computazionali, è stato compreso dagli scrittori ben prima della realizzazione dei grandi modelli del linguaggio. In un racconto del 1954, The Great Automatic Grammatizator, Roald Dahl immaginava un giovane ingegnere, Adolph Knipe, che, avendo compreso che le regole della grammatica possono essere formulate in termini matematici, progettava di costruire e riusciva poi a realizzare una “macchina per scrivere storie”12.

Nel 1960, Primo Levi presentava “il versificatore”, nel racconto omonimo, come una macchina per scrivere in versi, “geniale no, ma commerciabile” e commerciata: la acquistava un poeta per affidarle il compito di scrivere in rima sugli argomenti, con la metrica e secondo i generi da lui via via indicati (“dobbiamo pure affidare alle macchine i compiti piú ingrati, piú faticosi. I compiti meccanici, appunto…”)13.

Pochi anni più tardi, nel corso di una serie di conferenze, anche Italo Calvino dichiarava possibile una “macchina letteraria”, prendendo le mosse dalla “narrativa come processo combinatorio” e dalla constatazione che “l’uomo sta cominciando a capire come si smonta e come si rimonta la più complicata e la più imprevedibile di tutte le sue macchine: il linguaggio”. In fondo, sosteneva Calvino, una parte del lavoro dello scrittore non consiste che in “un’ostinata serie di tentativi di far stare una parola dietro l’altra seguendo certe regole definite, o più spesso regole non definite né definibili ma estrapolabili da una serie di esempi o protocolli”. Perfino “i più gelosi attributi dell’intimità psicologica, dell’esperienza vissuta, dell’imprevedibilità degli scatti d’umore, i sussulti e gli strazi e le illuminazioni interiori” non sono che “campi linguistici, di cui possiamo benissimo arrivare a stabilire lessico grammatica sintassi e proprietà permutative”14.

La tesi della possibilità della macchina letteraria derivava per Calvino non dall’attribuzione alle macchine di caratteristiche antropomorfe, ma dall’attribuzione al linguaggio di proprietà statistiche. E già nei racconti di Roald Dahl e Primo Levi, i proprietari delle macchine per scrivere versi o storie ne vendevano i testi, allo scopo di arricchirsi rapidamente, frodando coloro che li scambiavano per opere dell’ingegno umano.

Una soluzione in cerca di un problema

I generatori di linguaggio sono grandi modelli del linguaggio, ulteriormente programmati, attraverso interazioni con esseri umani15, per produrre output che somiglino a quelle che tali esseri umani qualificano come risposte plausibili, pertinenti e appropriate16. Tali output non sono, in senso proprio, risposte alle nostre domande, ma sequenze di testo programmate per apparire plausibili, ossia molto simili a come una risposta alla nostra domanda potrebbe apparire. Si tratta di testi convincenti e, al tempo stesso, del tutto privi di valore informativo, oltre che di intenti comunicativi: in quanto fondati su modelli del linguaggio, e non su modelli della conoscenza, i generatori di linguaggio non sono in grado di fornire alcuna informazione, non contenendo alcun riferimento al vero e al falso, né alcun criterio per distinguerli. Nel rapporto tecnico su GPT-4, OpenAI avverte che i generatori di linguaggio hanno la tendenza a “inventare i fatti”, a fornire informazioni errate e a “svolgere compiti in modo scorretto”, ma presenta tale caratteristica come la tendenza a “soffrire di ‘allucinazioni’”17. L’uso di un termine che allude a fenomeni psichici – e, in particolare, a fenomeni psichici che presuppongono un essere cosciente e la sua capacità di distinguere il reale dall’immaginario – è intenzionalmente fuorviante. Così, infatti, la strutturale inaffidabilità, a fini informativi, di un sistema il cui funzionamento ordinario lo rende “incapace di distinguere il possibile dall’impossibile”18, è trasformata in mero errore, in una obnubilazione temporanea e superabile, quale la condizione generalmente straordinaria e passeggera per cui gli esseri umani, pur pienamente capaci di distinguere la realtà dall’apparenza, temporaneamente le confondano.

In una nota al paragrafo sulle “allucinazioni”, OpenAI dichiara la piena consapevolezza di tale mistificazione e dei suoi effetti: “Usiamo il termine ‘allucinazioni’, anche se riconosciamo che questa formulazione può suggerire un’antropomorfizzazione, che a sua volta può portare a danni o a modelli mentali errati di come il modello apprende”19.

Sistemi quali ChatGPT o GPT-4, programmati per rispondere “Io sono …” o “mi dispiace” sono ingannevoli by design, giacché simili output non sono prodotti da alcun “io”, né da un soggetto che possa dispiacersi. L’antropomorfizzazione20 è dettata da obiettivi aziendali: anzitutto, da quello di presentare un prodotto come un essere animato, con prestazioni e difetti simili a quelli degli esseri umani (inducendoci così, oltre che a credenze assurde e infondate relativamente a quel prodotto, a “immagini distorte e impoverite di noi stessi e della nostra facoltà cognitiva”21). L’equiparazione dei sistemi informatici a persone è utilizzata infatti per far apparire come lecito – a partire dalla constatazione dell’imperscrutabilità della mente umana – il rilascio di prodotti pericolosi e non funzionanti. Così il Ceo di Google, in una recente intervista: “Scott Pelley: Non capite bene come funziona. Eppure, l’avete scaricato sulla società? Sundar Pichai: Sì, è così. Mettiamola così. Non credo che comprendiamo appieno neppure il funzionamento della mente umana”22.

Ma a cosa può servire un sistema che produce testo di cui non è possibile sapere, senza sobbarcarsi con altri strumenti l’intero lavoro di verifica, se ciò che vi si legge (un’eco automatizzata di ciò che esseri umani hanno sostenuto23) sia vero o falso? In ambito scientifico, la formulazione di innumerevoli alternative può essere utile solo qualora si abbiano strumenti ulteriori e indipendenti, per “buttare via la maggior parte” di ciò che il sistema produce e verificare se non vi sia “dell’oro tra i rifiuti”24. Per il resto, l’enfasi sulla questione dell’intelligenza distrae dalla questione dell’utilità. Nella vita quotidiana, un sistema che produca testo convincente e inaffidabile è utile soprattutto per frodi, truffe, manipolazioni e diffusione di propaganda politica su larghissima scala. Gli esiti certi di una generalizzata distribuzione e commercializzazione dei generatori di linguaggio sono dunque l’inquinamento dell’ecosistema dell’informazione, un aumento esponenziale dei reati di phishing e scam, danni profondi al dibattito pubblico e alle democrazie25.

Poiché i generatori di linguaggio possono mimare plausibilmente motivazioni discorsive, si assiste al loro utilizzo per la giustificazione confabulatoria di decisioni arbitrariamente assunte: li si utilizza, ad esempio, per individuare, senza averli letti, i libri da mettere al bando dalle biblioteche pubbliche26 o per ottenere la formulazione di motivazioni plausibili, in esito a revisioni paritarie che in realtà non hanno avuto luogo27.

In ambito educativo, i generatori di linguaggio non possono avere che una funzione “degenerativa”28 giacché imparare a comprendere e parafrasare una soluzione non può sostituire l’imparare a trovarla da soli e, come recita un vecchio adagio, scopriamo che cosa pensiamo solo dopo averlo scritto29. Delegare a un sistema informatico la scrittura, in età scolare, anche “solo” come supporto, equivale – con una metafora kantiana – a “non muovere un passo fuori dal girello da bambini” in cui si è stati ingabbiati, a utilizzare “strumenti meccanici” come “ceppi di una permanente minorità” e a restare così incapaci “di servirsi della propria intelligenza”, non avendo mai affrontato la fatica e le cadute che comporta “metterla alla prova”30. L’uso dei generatori di linguaggio nell’ambito dell’educazione non può avvenire che all’insegna del medesimo “non ragionate!”, che Kant presentava quale motto permanente del potere. Lo constata Amy J. Ko: ”Non mettere in discussione l’autorità. Non mettere in discussione i genitori. Non mettere in discussione i mercati. Non mettere in discussione Dio. Non mettere in discussione il genere. Non mettere in discussione la razza. Non mettere in discussione nulla. In un certo senso, questa visione politica oppressiva della scuola rispecchia la filosofia di fondo di un grande modello del linguaggio naturale: le uniche cose che si possono dire sono quelle che sono già state dette in precedenza, secondo la nostra definizione collettiva di “normale”, e a spese di chiunque si trovi ai margini31”.

Al momento, dunque, non si vede quali funzioni utili e non illegali possano essere affidate dalla collettività ai generatori di linguaggio. Si tratta, peraltro, di sistemi estremamente costosi, che si fondano, oltre che su pratiche coloniali di sfruttamento del lavoro32 e di esternalizzazione dei costi ambientali33, su
un’enorme quantità di dati e opere del lavoro umano, estorti o prelevati in blocco là dove si trovino, anche quando siano protetti dal diritto alla protezione dei dati personali o dal diritto d’autore34. Poiché tali sistemi memorizzano, almeno in parte, i dati di partenza35, accade che essi riproducano nei propri output dati personali degli utenti o brani dai libri utilizzati per l’‘addestramento’, senza che sia possibile ottenere l’indicazione delle fonti36.

Che i sistemi informatici siano spesso “una soluzione in cerca di un problema”, lo osservava già Joseph Weizenbaum, nel 198537. Lo stesso Weizenbaum invitava a scorgere, dietro ai racconti magici sull’inevitabilità della tecnologia, gli attori umani e i loro interessi, scopi e responsabilità38. Per comprendere a cosa servano i generatori di linguaggio, può essere utile seguire l’invito di Weizenbaum.

Monopoli, giardini recintati e automazione scadente

I grandi modelli del linguaggio richiedono una quantità di risorse di calcolo e di dati che solo le maggiori aziende tecnologiche possono permettersi: solo queste infatti, in virtù di un modello di business fondato sulla sorveglianza, detengono l’accesso al mercato necessario per l’intercettazione di grandi flussi di datie metadati individuali e le infrastrutture computazionali per la raccolta e l’elaborazione di tali dati39.

L’intera famiglia dei sistemi ai quali si dà il nome di ‘intelligenza artificiale’ è così strettamente intrecciata con il modello di business dei monopoli tecnologici, che la stessa intelligenza artificiale può essere descritta come un derivato della sorveglianza40.

Sui generatori di linguaggio si concentrano oggi gli investimenti di capitali ad alto rischio41. A simili investitori non serve che una tecnologia sia utile o che funzioni; serve soltanto che le persone credano che funzioni, per un tempo sufficientemente lungo da rendere possibile un ritorno sugli investimenti. Questa è una delle ragioni dell’hype che ha accompagnato la distribuzione al pubblico dei generatori di linguaggio, malgrado non siano, al momento, né utili, né redditizi42. Come ha dichiarato Meredith Whittaker, “Hype significa che un’intera ecologia di bombardamento narrativo è stata costruita su qualcosa che, sì, potrebbe aiutarvi a scrivere un’e-mail. Se è un problema che si vuole risolvere con, tipo, 20 miliardi di gpu43, è possibile farlo, giusto. Ma è un problema la cui soluzione può cambiare il mondo?”44.

Poiché sono i monopoli, in virtù della loro posizione dominante e della concentrazione di risorse e potere, a dettare le linee di progettazione e sviluppo dei generatori di linguaggio, va da sé che tale progettazione sia volta a tutelare il modello di business dei medesimi monopoli e ad accrescerne ulteriormente il vantaggio competitivo45. Con l’inserimento dei generatori di linguaggio in tutte le applicazioni esistenti – dai motori di ricerca ai software per la scrittura – le grandi piattaforme ritengono di ottenere uno strumento per trattenere gli utenti nei “giardini recintati” dei loro ecosistemi chiusi46, avendo così indefinitamente a disposizione l’attenzione degli utenti, oltre ai dati e ai metadati relativi a tutte le loro attività, e la possibilità di intridere di annunci pubblicitari “personalizzati” le risposte, i suggerimenti e i risultati di ricerca presentati agli utenti47.

Per farlo, i monopoli utilizzano, senza corrispondere alcun compenso agli autori, testi che sono frutto del lavoro umano e che i generatori di linguaggio riproducono talora integralmente48. Per questo, di recente, il New York Times ha citato in giudizio OpenAI e Microsoft49, le aziende produttrici di ChatGPT: esse svolgono infatti un’attività in concorrenza con quella del New York Times, utilizzando gli articoli dello stesso New York Times, prelevati senza autorizzazione per addestrare il sistema e riprodotti da ChatGPT con variazioni insignificanti e senza citare la fonte.

Un altro ambito sul quale si concentra l’attività di marketing relativa ai generatori di linguaggio è quello della sostituzione, sempre presentata come massiva e imminente, dei lavoratori umani con meri chatbot50. All’automazione del lavoro, come è noto, si ricorre non solo quando sia possibile, con ciò, lo svolgimento di una funzione in modo più efficiente, affidabile o accurato rispetto a quanto siano in grado di fare gli esseri umani, ma anche quando la sostituzione, pur senza soddisfare tale condizione, garantisca un costo inferiore51.

Una simile automazione produce servizi scadenti e danni di ogni genere: l’avvio di tentativi di sostituzioni di lavoratori umani con chatbot ha riempito la cronaca di casi al tempo stesso tragici e ridicoli52. Di certo non si genera, con ciò, alcun incremento di produttività e competitività53. Il mero annuncio di una tale automazione consente tuttavia, nei rapporti tra capitale e lavoro, di rafforzare il primo a danno del secondo: la forza contrattuale dei lavoratori è annientata, per il tramite di una narrazione fantascientifica, dalla prospettiva di una loro generale sostituibilità con macchine e robot. E, entro i sistemi neoliberali, l’opportunità di presentare servizi sociali apparentemente all’avanguardia, automatizzati a basso costo, appare spesso più allettante della aperta dichiarazione dei tagli a quei medesimi servizi: “Il vero problema non è solo che l’IA non funziona come pubblicizzato, ma l’impatto che avrà prima che questo diventi dolorosamente ovvio per tutti. L’IA viene usata come una forma di ‘shock doctrine’, in cui il senso di urgenza generato da una tecnologia che si presume possa trasformare il mondo viene usato come un’opportunità per trasformare i sistemi sociali senza un dibattito democratico”54.

La medesima “shock doctrine” vale, del resto, anche per i diritti giuridicamente tutelati che il modello di business dei monopoli tecnologici sistematicamente infrange: l’attuale “bolla giuridica”55 si regge sulla scommessa che sarà il diritto a cedere, in nome dell’inarrestabilità dell’innovazione tecnologica (oscurando il fatto che il contrasto non è tra i diritti e l’innovazione, bensì tra i diritti e il modello di business dei monopoli della tecnologia).

Resta possibile, naturalmente, una diversa progettazione dei sistemi tecnologici, che crei valore, anziché estrarlo, che valorizzi il lavoro umano, anziché parcellizzarne l’esecuzione a fini di controllo56, e che non incarni un modello di business basato sulla sorveglianza e sul controllo sociale57. Non è realistico, tuttavia, in questo momento, attendersi una simile svolta né dalle aziende, né da quelle istituzioni che, animate dal “fantasma lobbista nella macchina della regolazione”58, antepongono un’impostazione fondata sui rischi alla protezione dei diritti fondamentali e prevedono, al tempo stesso e nei medesimi atti, la tutela dei diritti, in linea generale, e eccezioni così vaste da vanificare interamente quella medesima tutela59.

Al momento, a voler trovare qualche segno prognostico di progresso, occorre volgersi al nuovo corso della Federal Trade Commission statunitense60 – improntato alla consapevolezza della sua Presidente, Lina Khan, dell’incompatibilità tra monopoli e democrazia – e alle lotte di quei lavoratori che respingono le narrazioni fantascientifiche e lo sfruttamento feroce e mostrano concretamente come, senza il loro consenso e il loro lavoro, i sistemi di “intelligenza artificiale” non siano in grado di produrre alcunché61. Il diritto, del resto, come già ricordava Benedetto Croce, è sempre l’esito dei rapporti di forza e del consenso62.




Note

1) Ted Chiang, pseudonimo di Chiang Fengnan, è uno scrittore statunitense di narrativa fantastico-fantascientifica.

2) A.M. Turing, Computing machinery and intelligence, Mind, 59 (1950) 433-460; traduzione italiana Macchine calcolatrici e intelligenza, in La filosofia degli automi. Origini dell’intelligenza artificiale, a cura di V. Somenzi, R. Cordeschi, Paolo Boringhieri, Torino 1986, pp. 157-183.

3) Per un’introduzione al funzionamento di tali modelli, v. Visual Storytelling Team and M. Murgia, Generative AI exists because of the transformer, “Financial Times”, September 12, 2023, https://ig.ft.com/generative-ai/; T. Caselli, ChatGPT: le macchine parlano come noi? (Parte I), “Linguisticamente”, 5 febbraio 2023, https://www.linguisticamente.org/chatgpt-le-macchine-parlano-come-noi-parte-i/

4) E.M. Bender, T. Gebru, A. McMillan-Major, S. Shmitchell, On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, in FAccT ’21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, ACM, New York 2021, https://dl.acm.org/doi/10.1145/3442188.3445922

5) E.M. Bender, A. Koller, Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data, in Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, July 5-10, 2020, pp. 5185-5198, https://aclanthology.org/2020.acl-main.463/

6) K. Mahowald, A.A. Ivanova, I.A. Blank, N. Kanwisher, J.B. Tenenbaum, E. Fedorenko, Dissociating language and thought in large language models, 2023, https://arxiv.org/abs/2301.06627v2

7) M. Mitchell, A.B. Palmarini,, A. Moskvichev, Comparing Humans, GPT-4, and GPT-4V On Abstraction and Reasoning Tasks, in corso di pubblicazione in Proceedings of the LLM-CP Workshop, AAAI-24, https://arxiv.org/abs/2311.09247

8) T. Chiang, ChatGPT Is a Blurry JPEG of the Web, “The New Yorker”, February 9, 2023, https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web

9) R. Rini, The Digital Zeitgeist Ponders Our Obsolescence, in “DailyNous”, July 30, 2020, https://dailynous.com/2020/07/30/philosophers-gpt-3/#rini

10) I. van Rooij, Against automated plagiarism, December 29, 2022, https://irisvanrooijcogsci.com/2022/12/29/against-automated-plagiarism/

11) E.M. Bender, T. Gebru, A. McMillan-Major, S. Shmitchell, On the Dangers of Stochastic Parrots, cit.

12) R. Dahl, Il libraio che imbrogliò l’Inghilterra seguito da Lo scrittore automatico, traduzione di M. Bocchiola, Ugo Guanda Editore, Parma 1996.

13) P. Levi, Il versificatore, in Idem, Storie naturali, Einaudi, Torino 1966.

14) I. Calvino, Cibernetica e fantasmi (Appunti sulla narrativa come processo combinatorio), in Idem, Una pietra sopra, Mondadori, Milano 2023, pp. 201-221.

15) N. Lambert, L. Castricato, L. von Werra, A. Havrilla, Illustrating Reinforcement Learning from Human Feedback (RLHF), December 9, 2023, https://huggingface.co/blog/rlhf

16) Il termine “generatori” e l’espressione “intelligenza artificiale generativa” sono inappropriati e fuorvianti, considerato che ciò che tali sistemi “generano” è semplicemente un output, e che generare un output è ciò che fa una gran parte dei sistemi informatici che non consideriamo “generativi”.

17) OpenAI, GPT-4 Technical Report, 2023, https://arxiv.org/abs/2303.08774

18) Noam Chomsky: The False Promise of ChatGPT, “The New York Times”, March 8, 2023, https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html

19) OpenAI, GPT-4 Technical Report, cit., p. 46.

20) G. Abercrombie, A. Cercas Curry, T. Dinkar, V. Rieser, Z. Talat, Mirages: On Anthropomorphism in Dialogue Systems, 2023, https://arxiv.org/abs/2305.09800v2

21) I. van Rooij, O. Guest, F.G. Adolfi, R. de Haan, A. Kolokolova, P. Rich, Reclaiming AI as a theoretical tool for cognitive science, August 1, 2023, https://doi.org/10.31234/osf.io/4cbuv

22) S. Pelley, Is artificial intelligence advancing too quickly? What AI leaders at Google say, “CBD News”, April 16, 2023, https://www.cbsnews.com/news/google-artificial-intelligence-future-60-minutes-transcript-2023-04-16/

23) S. Bartezzaghi, Chatgpt. Non è detto che sia vero, ma è vero che lo si è detto, «Doppiozero», 26 aprile 2023, https://www.doppiozero.com/chatgpt-non-e-detto-che-sia-vero-ma-e-vero-che-lo-sie-detto; T. Numerico, Intelligenza e stupidità artificiale, “Alternative per il socialismo”, 68, 2023.

24) V. ad esempio W.D. Heaven, Google DeepMind used a large language model to solve an unsolved
math problem
, “MIT Technology Review”, December 14, 2023, https://www.technologyreview.com/2023/12/14/1085318/google-deepmind-large-language-model-solve-unsolvable-math-problem-cap-set/

25) M. Atleson, Chatbots, deepfakes, and voice clones: AI deception for sale, 2023, https://www.ftc.gov/businessguidance/blog/2023/03/chatbots-deepfakes-voiceclones-ai-deception-sale; Generating Harms: Generative AI’s Impact & Paths Forward, May 23, 2023, https://epic.org/wp-content/uploads/2023/05/EPIC-Generative-AI-White-Paper-May2023.pdf

26) A. Mahdawi, Can’t decide which books to ban? Leave it to ChatGPT!, “The Guardian”, August 22, 2023, https://www.theguardian.com/commentisfree/2023/aug/22/cant-decide-which-books-to-banleave-it-to-chatgpt

27) J. Grove, ‘ChatGPT-generated reading list’ sparks AI peer review debate, “Times Higher Education”, April 5, 2023, https://www.timeshighereducation.com/news/chatgpt-generated-readinglist-sparks-ai-peer-review-debate

28) B. Williamson, Degenerative AI in education, “Code Acts in Education”, June 30, 2023, https://codeactsineducation.wordpress.com/2023/06/30/degenerative-ai-in-education/

29) N.S. Baron, Why Human Writing Is Worth Defending In the Age of ChatGPT, “Literary Hub”, September 12, 2023, https://lithub.com/why-human-writing-is-worth-defending-in-the-age-ofchatgpt/

30) I. Kant, Risposta alla domanda: che cos’è l’Illuminismo?, 1784, trad. it in Sette scritti politici liberi, a cura di M.C. Pievatolo, Firenze University Press, Firenze 2011, pp. 53-59, https://btfp.sp.unipi.it/dida/kant_7/ar01s04.xhtml

31) A.K. Jo, More than calculators: Why large language models threaten learning, teaching, and education, “The Medium”, December 19, 2023, https://medium.com/bits-and-behavior/more-than-calculators-why-large-language-models-threaten-public-education-480dd5300939

32) ChatGpt, Antonio Casilli: Il lato oscuro dell’algoritmo è la forza lavoro, “Il Manifesto”, 1° aprile 2023, https://www.casilli.fr/2023/04/01/intervista-su-chatgpt-e-il-lavoro-digitale-il-manifesto-1-aprile-2023/

33) K. Crawford, Né intelligente né artificiale. Il lato oscuro dell’IA, Il Mulino, Bologna 2021; M. Heikkilä, Making an image with generative AI uses as much energy as charging your phone, “MIT Technology Review”, December 1, 2023, https://www.technologyreview.com/2023/12/01/1084189/making-an-image-with-generative-ai-uses-as-much-energy-as-charging-your-phone/

34) R. Caso, La società della mercificazione e della sorveglianza: dalla persona ai dati, Ledizioni 2021, https://zenodo.org/records/4603174; US Federal Trade Commission, Generative Artificial Intelligence and the Creative Economy Staff Report: Perspectives and Takeaways, December 2023, https://www.ftc.gov/system/files/ftc_gov/pdf/12-15-2023AICEStaffReport.pdf

35) K.K. Chang, M. Cramer, S. Soni, D. Bamman, Speak, Memory: An Archaeology of Books Known to ChatGPT/GPT-4, 2023, https://arxiv.org/abs/2305.00118

36) J. Koebler, Google Researchers’ Attack Prompts ChatGPT to Reveal Its Training Data, “404 Media”, November 29, 2023, https://www.404media.co/google-researchers-attack-convinceschatgpt-to-reveal-its-training-data/

37) Weizenbaum examines computers and society, Interview by Diana ben-Aaron, “The Tech”, April 9, 1985, https://web.archive.org/web/20190626023845/http://tech.mit.edu/V105/N16/weisen.16n.html

38) J. Weizenbaum, Computer Power and Human Reason. From Judgement to Calculation, W.H. Freeman & Company, San Francisco 1976, p. 241, https://archive.org/details/computerpowerhum-0000weiz_v0i3/page/240

39) Open Markets Institute, AI in the Public Interest: Confronting the Monopoly Threat, November 15, 2023, https://www.openmarketsinstitute.org/publications/report-ai-in-the-public-interest-confronting-the-monopoly-threat

40) M. Whittaker, A Message from Signal’s New President, September 6, 2022, https://signal.org/blog/announcing-signal-president/

41) The state of generative AI in 7 charts, August 2, 2023 , https://www.cbinsights.com/research/generative-ai-funding-top-startups-investors/

42) E. Hoel, Excuse me, but the industries AI is disrupting are not lucrative, December 8, 2023, https://www.theintrinsicperspective.com/p/excuse-me-but-the-industries-ai-is

43) GPU è l’unità di elaborazione grafica ovvero un circuito elettronico in grado di eseguire calcoli matematici ad alta velocità (n.d.r.). Sul ruolo e il costo della potenza di calcolo nei sistemi di intelligenza artificiale, v. J. Vipra, S. Myers West, Computational Power and AI, AI Now Institute, 2023, https://ainowinstitute.org/publication/policy/compute-and-ai

44) Transcript: The Futurist Summit: Lessons of the Last Decade with Meredith Whittaker & Frances Haugen, “The Washington Post”, October 26, 2023, https://www.washingtonpost.com/washington-post-live/2023/10/26/transcript-futurist-summit-lessons-last-decade-with-meredith-whittaker-frances-haugen/

45) Open Markets Institute, AI in the Public Interest: Confronting the Monopoly Threat, cit.

46) M.C. Pievatolo, Sulle spalle dei mercanti? Teledidattica e civiltà tecnologica, «Bollettino telematico di filosofia politica», 2023, https://commentbfp.sp.unipi.it/sulle-spalle-dei-mercanti-teledidattica-e-civilta-tecnologica/

47) S. Dang, Google to test ads in generative AI search results, May 23, 2023, https://www.reuters.com/technology/google-test-ads-generative-ai-search-results-2023-05-23/

48 R. Foroohar, Content creators fight back against AI, “Financial Times”, January 8, 2024, https://www.ft.com/content/39e74df4-3adc-4e8f-8b85-f8561284e138

49 C. Crescenzi, Il New York Times ha fatto causa a OpenAI e Microsoft, “Wired”, 28 dicembre 2023, https://www.wired.it/article/new-york-times-microsoft-openai-causa/

50) B. Merchant, This was the year of AI. Next year is when you should worry about your job, “Los Angeles Times”, December 14, 2023, https://www.latimes.com/business/technology/story/2023-12-14/column-this-was-the-year-of-ai-next-year-is-when-you-have-to-worry.

51) R. Parasuraman, V. Riley, Humans and Automation: Use, Misuse, Disuse, Abuse, in «Human Factors», 1977, n. 39, 2.

52) V., ad esempio, C. Thorbecke, National Eating Disorders Association takes its AI chatbot offline after complaints of ‘harmful’ advice, “CNN Business”, June 1, 2023, https://edition.cnn.com/2023/06/01/tech/eating-disorder-chatbot/index.html; S. Cole, ‘Life or Death:’ AI-Generated Mushroom Foraging Books Are All Over Amazon, August 29, 2023, https://www.404media.co/ai-generated-mushroom-foraging-books-amazon/; K. Barr, Supermarket AI Offers Recipe for Mom’s Famous Mustard Gas, “Gizmodo”, August 11, 2023, https://gizmodo.com/paknsave-aisavey-recipe-bot-chlorine-gas-1850725057; Do you trust AI to write the news? It already is – and not without issues, “The Conversation”, November 5, 2023, https://theconversation.com/do-youtrust-ai-to-write-the-news-it-already-is-and-not-without-issues-216909

53) D. Acemoglu, S. Johnson, Potere e progresso. La nostra lotta millenaria per la tecnologia e la prosperità, Il Saggiatore, Milano 2023.

54) D. Mcquillan, AI as Algorithmic Thatcherism, December 21, 2023, https://www.danmcquillan.org/ai_thatcherism.html

55) M. Giraudo, Legal Bubbles, in Encyclopedia of Law and Economics, a cura di A. Marciano, G.B. Ramello, Springer, New York 2022, https://www.researchgate.net/publication/357702553

56) M. Whittaker, Origin Stories: Plantations, Computers, and Industrial Control, “Logic(s)”, 2023, https://logicmag.io/supa-dupa-skies/origin-stories-plantations-computers-and-industrial-control/

57) D. Acemoglu, S. Johnson, Potere e progresso, cit.

58) The lobbying ghost in the machine. Big Tech’s covert defanging of Europe’s AI Act, February 23, 2023, https://corporateeurope.org/en/2023/02/lobbying-ghost-machine

59) D. Leufer, Human rights protections… with exceptions: what’s (not) in the EU’s AI Act deal, “Access Now”, December 14, 2023, https://www.accessnow.org/whats-not-in-the-eu-ai-act-deal/

60) J. Sisco, ‘She was put in this role to shake things up’, “Politico”, December 22, 2023, https://www.politico.com/news/2023/12/21/lina-khan-biden-2024-profile-00132921

61) V., ad esempio, D. Anguiano, L. Beckett, How Hollywood writers triumphed over AI – and why it matters, “The Guardian”, October 1, 2023, https://www.theguardian.com/culture/2023/oct/01/hollywood-writers-strike-artificial-intelligence

62) B. Croce, Riduzione della filosofia del diritto alla filosofia dell’economia, Memoria letta all’Accademia Pontaniana nelle tornate del 21 aprile e 5 maggio 1907 dal socio Benedetto Croce, Napoli 1907, pp. 35-37.







Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *