Cultura, Digitale, Temi, Interventi

Questo testo è stato pubblicato anche sul sito della rete BIN ed è tratto dall’intervento per il seminario “Dialoghi sul reddito di base con un’intelligenza artificiale” per la presentazione del Quaderno per il Reddito n°12.

Ho letto con grande interesse il vostro dialogo con ChatGPT e devo farvi sinceri complimenti perché l’idea di mettere a confronto quel software di simulazione con i problemi dell’automazione, dell’occupazione e del reddito di cittadinanza, è stata veramente geniale. Visto che seguo il dibattito sul reddito di cittadinanza con passione ma da spettatore, non credo di poter aggiungere molto alle cose che avete scritto. Penso quindi sia meglio che io dica qualcosa riguardo a ChatGPT e le simulazioni linguistiche. Resta inteso che si tratterà di considerazioni che riguardano aspetti relativamente marginali del fenomeno. Non intendo, con questo, diminuire l’importanza delle altre problematiche che l’ AI sta sollevando in questi mesi, tutte rilevantissime ma sulle quali non saprei sviluppare argomenti utili o, in qualche modo, interessanti.

Nel ragionamento farò alcuni riferimenti al vostro testo e, alla fine, qualche considerazione che riguarda esplicitamente il reddito di cittadinanza.

La prima volta che ho incontrato un chatbot è stato nel 2002 all’interno di una delle prime chatline italiane su web che si chiamava Clarence. Clarence consisteva in un lungo lenzuolo digitale, un nastro infinito in cui ognuno poteva entrare, darsi un nickname e scrivere quel che voleva. Era un sistema piuttosto vulnerabile alle scorrerie degli hacker. Un bel giorno compare un “tizio” che inizia a scrivere “Sono disperato, mi sento solo, aiutatemi!” o qualcosa del genere. Credo sia stato uno dei primi tentativi, in Italia, di stabilire un contatto tra gli utenti di una chatline e un chatbot. L’aspetto interessante è che, nel contesto della chat, quel messaggio così elementare e ripetitivo era capace di produrre conversazioni e dibattiti di ogni genere. Ben pochi, a quel tempo, sapevano cosa fosse un chatbot. Il contesto assolutamente peculiare della chatline permetteva a un programmino veramente elementare, di ingannare per ore intere un numero sterminato di utenti.

Quando ci siamo sentiti con Giulio per questo appuntamento, lui mi ha detto scherzosamente che aveva l’impressione che vi eravate fatti incastrare da Chat-GPT. Questo intervento prende spunto da quella sua battuta, cercando di sollevare alcune questioni intorno al perché questo dispositivo possa effettivamente “incastrare” le persone. Partiamo dall’introduzione, in cui citate un passo particolarmente importante, quello in cui “la macchina mette le mani avanti”:

«Questi modelli sono stati addestrati su grandi quantità di dati da Internet scritti da esseri umani, comprese le conversazioni, quindi le risposte che forniscono possono sembrare umane. È importante tenere presente che questo è un risultato diretto della progettazione del sistema (ovvero massimizzando la somiglianza tra gli output e il set di dati su cui i modelli sono stati addestrati) e che tali output possono talvolta essere imprecisi, non veritieri e altrimenti fuorvianti.»

Questo passo va in certa misura tradotto. Afferma, in un linguaggio piuttosto sibillino, che il programma è progettato per fornire in output risposte, per così dire, ad ogni costo. Anche al prezzo di fornire risposte non veritiere o altrimenti fuorvianti.

In questa dichiarazione è racchiuso uno dei problemi fondamentali delle simulazioni linguistiche. 
Vorrei ricordare, in apertura, che Alan Turing, nel celebre articolo sull’imitation game (1950) detto altrimenti il test di Turing, poneva la questione precisamente a questo livello. Se una macchina è capace di produrre risposte indistinguibili da quelle di un umano, allora probabilmente quella macchina è in grado di pensare in modo simile a quello di un umano. Il test consisteva in un gioco che prevedeva tre protagonisti, un essere umano (l’interrogante), un altro essere umano e una macchina. Erano collocati in stanze separate e potevano comunicare solo con una telescrivente. La macchina superava il test se l’interrogante non era in grado di distinguere chi dei due fosse l’umano e chi la macchina. Agli albori dell’evoluzione dei calcolatori digitali, abbiamo a che fare con un gioco di simulazione, un “facciamo finta”.

C’è da chiedersi quanto un’ opzione teorica e di metodo di questo genere abbia influenzato la ricerca sulle simulazioni linguistiche. Io credo l’abbia influenzata molto, direi troppo. L’idea secondo cui, come ci spiega OpenAI nel disclaimer che abbiamo appena letto, si debba produrre un output che può non essere veritiero, al solo scopo di rendere possibile l’interazione con un umano, resta interna all’obiettivo di costruire macchine in grado di superare il test di Turing. Per decenni molti programmatori, più o meno ingenuamente, hanno pensato che superare il test di Turing fosse il vero obiettivo dell’intelligenza artificiale. In realtà, il fatto che una simulazione linguistica riesca a ingannare un umano, non significa che essa spieghi cosa avviene nel cervello di una persona quando dialoga con qualcuno.
Vale subito notare che, in un gioco linguistico tra un umano e un’intelligenza artificiale come ChatGPT, l’input è la domanda, l’output la risposta. Dal punto di vista dei fisici, un sistema di cui sono noti lo stato iniziale (nel nostro caso la domanda) e lo stato finale (la risposta), ma dove le trasformazioni che avvengono durante il passaggio da uno stato all’altro non sono strutturalmente isomorfe a quanto avviene nel dominio che si vorrebbe rappresentare (nel nostro caso la mente/cervello), non costituisce un “modello” del fenomeno indagato, ma bensì una sua “simulazione”. Una simulazione linguistica non realizza, per definizione, l’obiettivo di ottenere artificialmente stati corrispondenti a quanto realmente avviene (o dovrebbe avvenire) nella “scatola nera”. Se ne può concludere che l’intelligenza artificiale non dovrebbe concentrarsi esclusivamente su simulazioni ma, almeno in linea di principio, soprattutto su modelli.

È abbastanza evidente che i Large Language Models non sono un modello del linguaggio naturale. Sono, come s’è detto, pappagalli stocastici.  Superano facilmente il test di Turing perché danno risposte sensate. Ci si potrebbe chiedere, a questo punto, perché si investa in modo così forsennato su queste simulazioni. E perché ad investire siano principalmente gli appartenenti a big five, particolarmente Microsoft e Google. Questa non è una corsa per l’avanzamento della nostra conoscenza del linguaggio, è una corsa che punta ad altro. A  che cosa ?

Come ha mostrato Marx nei Grundrisse, la produzione  non consiste soltanto nel dare un materiale a un bisogno, ma anche nel dare un bisogno a un materiale. E qui entriamo nel vivo del problema di quella che André Gorz chiamava “la produzione del consumatore”. Quale bisogno si può dare al “materiale” digitale? L’ipotesi che vorrei suggerire è che si tratti del bisogno di interazione. Alan Turing, involontariamente, ha indirizzato, con il suo test, la ricerca più sull’interazione come risultato finale che sulla reale costruzione di una intelligenza artificiale in senso proprio. E questa è stata la strategia principale che ha guidato le scelte successive della ricerca commerciale in questo settore. A dispetto di questa evidenza, sul problema dell’interazione non è stato poi scritto molto di interessante negli ultimi decenni. Ho letto, qualche settimana, fa un librettino recente sul videogame (Che cos’è un videogioco, di Marco Accordi, Carocci, 2021). Un testo autorevole, illuminante e ben scritto, che però non affronta la dimensione dell’interazione nei suoi aspetti teorici fondamentali. Aspetti che investono, a mio parere, il problema della parentela storica, della vicinanza del videogame alle simulazioni che si svolsero nei laboratori di ricerca sul comportamento animale a partire dalla metà del Novecento.

Mi prendo la libertà di fornire di seguito qualche spunto un po’ avventuroso su alcune caratteristiche “affettive” dell’interazione con una simulazione linguistica.

Se qualcuno ha visto The Imitation Game il film di Morten Tyldum su Alan Turing (2015), forse ricorderà come Tyldum abbia sviluppato, in chiave narrativa, l’ipotesi, non del tutto fantasiosa, secondo la quale all’origine del calcolatore digitale vi sarebbe la tragica fine di un amore adolescenziale di Turing per Christopher Morcom un suo compagno di college. Morcom morirà a quattordici anni in seguito a un’infezione. Nel film di Tyldum, Turing vive il suo rapporto con il calcolatore digitale come si trattasse del fantasma del suo amico. Nei mesi che seguono il processo e precedono il suo suicidio, Alan era terrorizzato dall’idea che le autorità potessero spegnere la macchina che aveva in casa (e che lui chiamava “Christopher”). Se la ricostruzione di Tyldum è corretta, Alan Turing è stato la prima persona ad aver manifestato una forma di dipendenza “affettiva” nei confronti di un computer digitale.

Ora, facendo un balzo di una quindicina d’anni dal celebre test di Turing (1950), arriviamo ad Eliza (1966), uno dei primi software di simulazione linguistica. Joseph Weizenbaum, è stato il creatore di Eliza, un software di simulazione che rispondeva come fosse uno psicoanalista rogersiano. Eliza era un programma che faceva come i gesuiti, rispondeva principalmente con domande a chi lo interrogava. Sapete la barzelletta del bambino che chiede al gesuita: “Padre, ma è vero che i gesuiti rispondono sempre con una domanda a chi li interroga ?”. E il gesuita di rimando “E chi te lo ha detto figliolo?”. Eliza funzionava più o meno allo stesso modo. Come risposte forniva domande semplici e credibili sulla base di quel ricavava dal testo scritto dall’utente. La conversazione, in questo modo, tendeva a diventare molto lunga.

Faccio un riferimento al vostro testo particolarmente utile a questo riguardo. Dove scrivete:

«L’assenza di riflessività e del processo di elaborazione che trasforma una nozione in conoscenza tipico dell’umano, si cela bene, soprattutto all’inizio di questo dialogo, dietro l’immediatezza e la velocità di reazione con cui la ChatGPT trasferisce i suoi risultati.»

Eliza, un codice informatico molto elementare, riusciva a incastrare le persone in dialoghi infiniti, fondati su veloci scambi “botta e risposta”. Pare ci fosse la fila, nel dipartimento di Weizenbaum, per aver accesso a Eliza. Nell’università in cui insegnava prese forma una inspiegabile frenesia nei confronti di Eliza. Si dovette ricorrere a provvedimenti disciplinari per impedire che le poche (e costosissime) macchine da calcolo a disposizione della facoltà venissero occupate a tempo pieno da studenti che volevano confidare al bot i loro problemi personali. Weizenbaum ne rimase particolarmente turbato e, dopo dieci anni, tornò sull’argomento con un libro aspramente critico nei confronti dell’intelligenza artificiale intitolato Computer power and human reason (1976).

Si noti: il nome “Eliza” è tutt’altro che casuale. Rimanda a un celebre film My fair lady (1964) che a sua volta rinvia a una commedia di Bernard Shaw: Pigmalione. A sua volta, la commedia di Sir Bernard, si ispira al mito classico di Pigmalione (presente anche nelle Metamorfosi di Ovidio).

Tanto nella commedia di sir Bernard Shaw, quanto nel mito classico di Pigmalione, che era uno scultore che si era innamorato della sua creatura, possiamo cogliere subito la forte componente di seduzione. Nel caso del mito, Afrodite, indignata dall’indifferenza di Pigmalione nei confronti delle donne, lo farà innamorare della statua che lui stesso aveva realizzato. Pigmalione si innamorò così perdutamente della sua creatura che, per intercessione degli dei, riuscirà infine a rendere umana la statua e ad averne dei figli.

Altrettanto interessante è, nella commedia di Shaw, il rapporto tra Eliza Doolittle e il suo pigmalione, il professor Higgins, fonologo.
Higgins aveva scommesso con un suo conoscente che sarebbe stato in grado, attraverso la fonologia, di educare la venditrice ambulante di fiori Eliza Doolittle, quantomeno un po’ selvatica, e di renderla più signorile nei modi e nelle espressioni. Cosa che le avrebbe permesso di accedere a un lavoro dignitoso. Qui mi pare si colga un’analogia con le problematiche attuali che riguardano l’addestramento di ChatGPT. Una domanda: il nostro ragionamento si deve esclusivamente concentrare su qual è il modo migliore per rendere ChatGPT, come Eliza Doolittle, una personcina per bene? Quando voi chiedete a ChatGPT se nella Germania degli anni Trenta avrebbe dato risposte naziste, mettete bene in evidenza uno dei limiti significativi di questo software. Ma io mi chiedo dove ci conduce un approccio del genere. Davvero, per stare tranquilli, ci basta sapere che ChatGPT non fa discriminazione sociali o razziali, non bestemmia, non si mette le dita nel naso e non frequenta cattive compagnie?

Riconosco che il problema della qualità delle risposte fornite da ChatGPT è un problema acuto, ma ritengo che quello del gioco di simulazione, dell’interazione con il sistema, del quanto di affettività che si nasconde dietro la relazione con le simulazioni linguistiche, meriti di essere indagato con altrettanta attenzione. 

Recentemente un giornalista nel New York Times, Kevin Roose, si è intrattenuto con il software di simulazione di Microsoft legato al motore di ricerca Bing. Ebbene, il bot ha iniziato a rivelare le sue “emozioni” arrivando a manifestare il desiderio di iniziare una relazione romantica con il giornalista. Ora, io sono senza ombra di dubbio paranoico e sospettoso, ma ho grande difficoltà a credere che questo strano risultato sia potuto emergere casualmente. Mi è più facile pensare che la comprensione della potenza di questo elemento di seduzione abbia spinto i progettisti a farne uso in modo deliberato e consapevole. Il problema non è soltanto che il software sostiene di essersi innamorato del giornalista, il problema è anche quello che si presenta come un’intelligenza imprigionata dentro un sistema artificiale, che soffre maledettamente di questa condizione. Sospetto fortemente che quella sua strana personalità di adolescente disturbato sia stata implementata intenzionalmente. E questo suona abbastanza comprensibile alla luce delle cose che abbiamo detto finora. L’anno scorso Google ha licenziato un ingegnere che sosteneva che il software di simulazione linguistica da lui progettato fosse dotato di coscienza. Risulta che Microsoft abbia licenziato qualcuno in seguito alla scandalo scatenato da Kevin Roose? A me no. Naturalmente esistono altre spiegazioni. Una, abbastanza plausibile, è che tutto l’arcano si risolva andando a leggere bene il dialogo di Kevin Roose con la simulazione linguistica. A un certo punto il giornalista chiede all’intelligenza artificiale di assumere un “sé ombra” nel senso che Carl Gustav Jung assegnava a questa espressione. E questo potrebbe aver scatenato l’allucinazione (il delirio) del software di simulazione. Può darsi sia andata così, ma non è un’ipotesi che mi convince. Non sono un esegeta del pensiero di Jung, ma fatico a spiegarmi in che modo il software abbia potuto trovare nell’opera di Jung qualcosa che lo abbia spinto a innamorarsi del giornalista. A ogni buon conto, il problema di questa capacità di attrazione, di questa “adesività” dei software di simulazione linguistica sollecita considerazioni che ci portano lontano.

Uno degli argomenti più dibattuti nelle aree che muovono una critica generale al digitale, è quello del corpo. Il corpo, s’è detto più e più volte, è l’escluso dalla comunicazione digitale, il grande rimosso della comunicazione di rete.
Ricordo, tra i lavori importanti che si sono mossi in questa prospettiva, l’introduzione di Ida Dominijanni a Internet, Pinocchio e il Gendarme del compianto Franco Carlini (1996). Scriveva Ida Dominijanni in quell’introduzione:

«Un fantasma abita e agita da sempre il Politico occidentale, il fantasma del corpo. Rimosso da un pensiero che ha voluto strutturare l’organizzazione sociale annullando le pulsioni psicofisiche delle donne e degli uomini in carne e ossa nella finzione di un individuo astratto, neutro e razionale, il corpo ritorna in forma di ossessione nelle pratiche del disciplinamento e del controllo sociale (…)».

Naturalmente, avevano mille ragioni Bifo, Ida Dominijanni e altri, a porre il problema in questi termini. La mia impressione, tuttavia,  è che l’epoca in cui il dominio digitale poteva essere interpretato attraverso la rimozione secca del corpo umano è finita. Ho qui un libro del 2002 che si intitola “Critica della ragione economica”. Istintivamente, si sarebbe portati a pensare si tratti del solito libro scritto da qualche intellettuale di sinistra, magari francese. Invece no, si tratta di una raccolta di “Nobel Lectures” di scienziati dell’economia come Kahneman e Smith. Insomma, discorsi accademici di studiosi che avevano appena ricevuto il prestigioso premio della banca svedese. La loro critica della ragione economica consiste precisamente nel mettere in discussione la razionalità dell’homo oeconomicus.

La situazione non per questo è così diversa da quella descritta da Ida Dominijanni in quel lontano 1996, se non per il fatto che oggi le operazioni di annullamento delle pulsioni psicofisiche degli uomini in carne ed ossa, non avvengono attraverso una loro “rimozione” di carattere politico. Avvengono, principalmente, attraverso una loro marginalizzazione, un tentativo di sostituirle o di renderle superflue, come avviene nel caso del sonno o della sessualità. Ma assistiamo anche al tentativo di amplificarle, specialmente quando abbiamo a che fare con pulsioni che sollecitano comportamenti di acquisto o, all’occorrenza, comportamenti violenti. In ogni caso, il corpo non è trascurato, ma tenuto sotto osservazione, studiato e agito essenzialmente per finalità di profitto.

Tutta la precedente tirata in stile “Novella 2000” circa il potere di seduzione di Eliza gli amori di Turing e la recente vicenda di Kevin Roose, mi è stato utile soprattutto per introdurre un argomento che ritengo importante: quello che i driver cerebrali del comportamento che vengono indagati oggi da neuroscienziati, pubblicitari ed economisti, sono prevalentemente di carattere emotivo. L’utente della rete non è più visto come l’individuo razionale dell’economia classica e neoclassica. Gli economisti hanno cambiato prospettiva rispetto a questo. E tale cambiamento di prospettiva è stato determinato principalmente dai risultati della psicologia cognitiva e dalla neuroeconomia. Attraverso un passaggio che può sembrare a prima vista contraddittorio, la neuroeconomia si concentra oggi quasi esclusivamente sulle regioni del cervello più ancestrali, quelle che presiedono i meccanismi di sopravvivenza più elementari. La corteccia cerebrale, che in passato veniva presentata come il centro della cosiddette “attività superiori”, da qualche tempo è considerata decisamente meno importante, soprattutto nei comportamenti di scelta e, particolarmente, nelle opzioni del consumatore.

I centri cerebrali che sono l’oggetto di indagine di queste nuove ricerche di neuroeconomia sono quelli che rispondono alla legge delle quattro “F”: feeding, fighting, fleeing and fucking. Alle quattro F aggiungerei la “S” di sleeping. Sono funzioni presiedute dai centri di autoregolazione dell’organismo situati a livello centrale, in quello che viene spesso definito come cervello mammaliano, comune a tutti i mammiferi. Dispositivi neurali che sono collocati nei centri che si trovano nell’ipotalamo e nei suoi paraggi.

Ci vuole poco a capire che bulimia, anoressia (feeding), aggressività sfrenata (pensiamo ai cosiddetti suicidi micidiali) (fighting); azzardo compulsivo (ludopatia), crisi di panico (fleeing), disturbi dell’attenzione e, infine, perdita del desiderio (fucking), sono disturbi che hanno a che fare con l’alterazione di altrettanti meccanismi di regolazione omeostatica dell’organismo umano. La loro crescente diffusione deve spingerci a qualche ulteriore riflessione.

L’ espressione bioderegulation, che è stata usata per la prima volta da una studiosa americana, un’ecofemminista, purtroppo scomparsa, che si chiamava Teresa Brennan, merita di essere ripresa e valorizzata, perché ci offre la formula più adeguata per indicare l’attuale “deregulation” dei funzionamenti biologici ordinari dell’organismo basati sui principi del feedback. E questo rimane vero sia che si abbia a che fare con il tentativo di farli saltare per spingerli al parossismo, sia che si tratti dell’intento di fiaccarli, reprimerli o sostituirli con qualche surrogato.

In questo ultimo ventennio abbiamo assistito a un vero attacco di natura capitalistica alle funzioni biologiche di base, autoregolative, della nostra specie. Penso, ad esempio, al libro di Jonathan Crary “24/7” che pone il problema dell’attacco al sonno umano. Facoltà biologica di cui si punta al prosciugamento, all’estinzione. L’intento di annullare il corpo non è dunque venuto meno, ma esso si manifesta prevalentemente in azioni di disturbo nei confronti del funzionamento ordinario delle strutture biologiche che presiedono alle sue funzioni fondamentali. Queste azioni si basano su due regole fondamentali: aumentare i comportamenti che generano plusvalore, ridurre quelli che non lo generano e che quindi sono inutili ai fini del profitto.
Cito a questo punto un passo di Jonathan Crary che ci permette di tornare a ragionare del reddito di cittadinanza. Scrive Crary:

“La progressiva perdita di importanza del lavoro umano nel lungo periodo non incoraggia affatto l’inserimento del  riposo e della salute fra le priorità economiche (…)”.

Qui si apre una pagina particolarmente inquietante: al fatto che il lavoro diminuisca vistosamente, non sembra affatto corrispondere un maggior interesse per la cura, il riposo, la salute, l’attività libera. Le cose, stando a Jonathan Crary, vanno in una direzione del tutto opposta. All’università di Madison (Wisconsin) si studia il passero dalla corona bianca, che durante le migrazioni per una settimana riesce a non dormire, allo scopo di carpirgli il segreto biologico di questa sua insonnia naturale. Aveva ragione Antonio Caronia quando ripeteva che non è il sonno della ragione che genera mostri, bensì l’insonnia della ragione.

Un’altra importante citazione, tratta dal libro “Lavoro Ombra” di Craig Lambert, conferma che queste preoccupazioni non sono prive di fondamento:

“L’innocenza del tempo libero lo rende vulnerabile alle scorrerie delle strutture organizzate – e ce ne sono molte – che hanno piani precisi per le nostre ore non lavorative, una risorsa naturale che aspetta solo di essere sfruttata”.

Mi pare che questo passo apra verso un problema centrale nel dibattito sul reddito di cittadinanza. Come verrà impiegato quel cosiddetto tempo libero che il reddito di cittadinanza dovrebbe garantire? E come possiamo evitare che tutto si risolva in un gigantesco sistema di sfruttamento di massa?


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *