La migliore spiegazione di come agisca nei nostri confronti ChatGPT, e al momento tutti i suoi epigoni di intelligenza artificiale generativa, ce la offre l’ennesimo giochino organizzato da un gruppo di giornalisti sportivi, che ha chiesto all’intelligenza artificiale quale fosse la squadra di calcio più forte di sempre.
La classica domanda su cui si sono sbriciolate le più tenaci amicizie e consumati i rapporti professionali più pregiati. Chat GPT ha risposto al prompt, come si dice, con una formazione che non arriverebbe nei primi posti del campionato di serie B italiana.
Si tratta di un’allegra brigata di talenti, stile Harlem Globe Trotters, per chi ha la mia età e si ricorda quella squadra circense di basket che girava il mondo esibendo virtuosismi abbaglianti per i piccoli spettatori ma del tutto patetici agli occhi dei professionisti.
Ovviamente, come capita ormai di sovente, il vizio sta nella domanda più che nella risposta.
ChatGPT non comprende l’assunto problematico di un quesito ma ne interpreta le possibili soluzioni sulla base dei dati prevalenti su cui è stata allenata. Dunque bisogna istradarla con una spirale di quesiti a scalare, evitando termini che indirizzano il sistema su componenti del suo istinto mnemonico, potremmo dire, fuorvianti.
Nel caso specifico il termine ingannevole è l’aggettivo “forte” – la squadra più forte di sempre era la domanda secca. E il sistema ha risposto allineando gli 11 giocatori più forti di sempre.
Siccome, a differenza della vulgata, il dispositivo ha un’anima, che corrisponde ai filtri impressi dai suoi proprietari, concetto su cui torneremo, pur di soddisfare i suoi interlocutori, in base ai profili che si era fatto di loro grazie ai dati che aveva precedentemente ruminato sulle pregresse esperienze con ognuno dei suoi interlocutori, ha forzato la logica, collocando nella formazione anche giocatori fuori ruolo, come ad esempio due centrali difensivi di regia – Baresi e Beckenbauer – ed eliminando un centrale di marcatura, che gli risultava probabilmente poco gradito alla comunità che interrogava, oppure prevedendo ben 5 punte centrali, come Maradona, Messi, Pelè, Ronaldo e Crujf. Scelte che non farebbe nessun apprendista allenatore di un torneo fra scapoli e ammogliati.
Certo che quelli indicati sono campioni universali che giocherebbero magnificamente, alcuni lo hanno anche fatto, anche in porta. Ma dovendo stilare una formazione di calcio qualsiasi novizio del settore sa bene che bisogna trovare il famoso amalgama, ossia la magia di una complementarietà efficace che distingue appunto un squadra vincente dal circo Orfei.
Ora la differenza fra un elenco indiscriminato di super star e la sagacia professionale di un vero allenatore, titolare del know how che rende una squadra competitiva, sta proprio nella padronanza dei saperi distillati da esperienze e risultati, non nella meccanica compilazione di liste di campioni.
Ma la sorpresa che avremmo nel discutere la formazione proposta da ChatGPT, quella che io chiamo gli Harlem Globe Trotters del calcio, è che in rete i consensi non mancherebbero, anzi potrebbero, in certe aree, come in America latina o in oriente, essere largamente superiori alle valutazioni tecniche degli addetti ai lavori.
A questo punto diventa non più scontato deridere le scelte calcistiche di ChatGPT, e dovremmo cominciare a chiederci a chi parla l’intelligenza artificiale e come si configura l’opinione pubblica, il senso comune, al tempo in cui la platea è talmente sterminata che ogni tesi, la più strampalata ed estrema, trova sempre una massa critica che la rende plausibile, e ne legittima il contenuto come base di riferimento di un sistema di campionatura delle opinioni, quale è appunto l’intelligenza artificiale con linguaggio naturale.
In sostanza, il vero quesito che l’eccentrica formazione selezionata automaticamente da ChatGPT ci propone è capire se l’intelligenza artificiale sta rispondendo ad una domanda o la sta ponendo lei stessa, costringendo i suoi utenti a convergere sulle sue soluzioni. Per certi versi torniamo all’antico quesito di Montaigne: quando guardo il mio gatto lui cosa pensa? Oppure più prosaicamente: quando guardiamo Netflix, o ascoltiamo le compilation di Spotify, chi sta scegliendo veramente ?
Lungo questo crinale incontriamo due buchi neri che rimangono assolutamente inviolati: da una parte la privatizzazione di una tale mole di dati che, come avvertiva già qualche anno fa il premio Nobel Joseph Stiglitz – indubbio cultore del libero mercato – “altera indubbiamente la dinamica delle relazioni economiche e sociali permettendo a pochi soggetti di sapere tutto rispetto agli altri interlocutori” (J. E. Stiglitz, Popolo, Poteri e Profitti, Einaudi, 2020); dall’altro il fatto che con la padronanza dinamica dei dati –cioè la potestà di combinarli a propria discrezione, creando profili evolutivi – i soliti monopolisti sono in grado di elaborare concetti, strategie e comportamenti, di spalmarli nell’infosfera, e così interferire con i nostri comportamenti, spostando la nostra visione delle cose nella direzione voluta dai monopolisti.
Siamo a un passaggio che ci pare ancora ignorato nella corsa a sperimentare l’ebrezza di parlare con questi agenti intelligenti, che sta assorbendo le risorse intellettuali di filosofi e giornalisti: chi dispone di una grande massa di dati pubblici è in grado di riutilizzarli per modificare le nostre opinioni? Insomma la quantità della potenza di calcolo si trasforma in qualità della manipolazione del senso comune ?
Veniamo così al pronunciamento del garante della privacy italiano, che solo una strumentale interpretazione può intendere come un diktat.
Infatti l’authority nazionale, non avendo questi poteri coercitivi, si è limitata indicare in venti giorni il tempo necessario in cui OpenAI doveva far conoscere le sue intenzioni sui limiti di legge vigenti nel nostro paese sul trattamento dei dati personali.
Il principio che ha mosso il garante è sintetizzato nel passaggio della delibera che dispone la sospensione del trattamento perché rileva “la mancanza di un’informativa agli utenti ed a tutti gli interessati i cui dati vengono raccolti da ChatGPT”.
Siamo esattamente in quello snodo asimmetrico che altera radicalmente le ragioni di scambio economiche, come denuncia Stiglitz, ma anche le ragioni di convivenza istituzionale della comunità di un paese.
Un principio che investe alla base l’intera economia digitale rendendo ineludibile una sua riorganizzazione. In sostanza il Garante, finalmente, dopo 20 anni di dominio da parte delle piattaforme della Silicon Valley, ha deciso di intervenire affermando che giuridicamente nessun soggetto, estero o anche italiano, può non tanto raccogliere, quanto combinare e rielaborare i dati di un utente, o di un’intera comunità, all’insaputa degli interessati.
Tanto più se, come abbiamo visto, sulla base di quei dati il sistema intelligente è in grado di giocare con la nostra libertà.
Alla luce di questa logica già ci sembrano molto invecchiati eventi come il congresso della CGIL, che non ha trattato del lavoro in questo contesto; o della FNSI, che non ha discusso delle funzioni giornalistiche rispetto a questi rischi; o del PD, che non ha posto fra i principi del nuovo partito proprio la cittadinanza digitale. E anche il tema del nuovo contratto di servizio della Rai appare antico se prescinde da questa problematica.
Diciamo meglio: come possiamo pensare che un partito, come appunto il PD, o un sindacato, quale la CGIL, o ancora un servizio pubblico, possano non definirsi e qualificare le proprie proposte e modelli organizzativi in relazione a questa alterazione di poteri globali che investono direttamente i comportamenti di ogni cittadino italiano? Come possiamo pensare che nell’articolazione di partito o di sindacato non vi siano, ai massimi livelli, esplicite responsabilità strategiche per organizzare una contesa con questa degenerazione delle forme di convivenza civile?
Se torniamo al futile episodio della dream team di calcio, potremmo chiedere: come si coglie il confine fra il lavoro statistico del dispositivo intelligente nell’interpretare i desideri dei tifosi di calcio e il lavoro prescrittivo di applicare parametri etici e cognitivi nell’imporre un terreno di confronto che interferisce con il senso comune generale?
Il nodo non è dunque la consistenza di eventuali liberatorie che vengono proposte e avallate da chiunque di noi si trovi a dover usufruire di un servizio digitale. In quei documenti si chiede se si autorizza la registrazione dei dati primari che inevitabilmente disperdiamo con l’uso della rete. Il pericolo si configura quando questi dati vengono successivamente combinati e ricalcolati fra di loro o con data set esterni. È quello il momento in cui si ottengono i famigerati profili categoriali che permettono a un service provider di elaborare mappe territoriali granulari di moltitudini di utenti, ognuno con caratteristiche e fisionomie sociali, culturali, politiche e commerciali differenti.
Si rovescia così il noto detto di Sherlock Holmes che aveva guidato l’economia dei consumi del ‘900: “un individuo è un enigma insolubile, ma inseriscilo in una massa e diventa una certezza matematica”.
Un meccanismo che aveva surclassato la visione marxista per cui gli individui diventando massa aumentavano il loro potere negoziale rispetto al sistema.
L’anno di svolta che segnalava come il mondo stesse correndo verso i consumi di massa fu il 1957, in cui uscirono tre libri fondamentali per l’intera civiltà occidentale: I persuasori occulti di Vance Packard, Le star di Edgard Morin, Miti d’oggi di Roland Barthes.
Tre testi che contenevano analisi dei nuovi modelli sociali basati sul consumo e non più sulla produzione, articolando linguaggi della comunicazione che orientavano e determinavano gusti e bisogni, elaborando culture e formule dell’immaginario che legittimavano e consacravano questi nuovi codici.
Tutto cambia nel decennio 1990/2000, con la dissoluzione della matrice di massa della società, determinata dal lavoro fordista, che, scomponendosi, libera nuovi bisogni e ambizioni dell’individuo sganciato dalle identità collettive.
La rete è il linguaggio di questi nuovi modelli individuali. E nella rete si configurano i nuovi poteri proprio sulla base della frammentazione delle nostre identità in singoli e infiniti dati che disseminiamo sul nostro percorso. Dati che grazie alla potenza di calcolo diventano – per quanto infiniti e formicolanti – aggregabili, riconoscibili e combinabili.
Cambridge Analytica, il meccanismo attraverso il quale sono state inquinate le elezioni presidenziali americane del 2016, che hanno visto il sorprendente trionfo di Donald Trump, sono l’emblema di come si sia rovesciato l’aforismo di Sherlock Holmes. Non è più la massa che rende governabile l’individuo, ma è proprio la possibilità di interferire sui comportamenti di ogni singola persona che permette poi di deviare il cammino delle masse.
Google, Facebook, Amazon e Tik Tok sono solo alcuni dei sistemi che elaborano costantemente i dati delle centinaia di milioni dei propri utenti creando mappe e categorie a disposizione di chi intende parlare direttamente con ognuno di quei profilati. Come spiega nel suo testo Cultur Analytics (Raffello Cortina editore) Lev Manovich “ogni pensiero ed elaborazione umana è ricostruibile e per certi versi anche anticipabile sulla base dei dati che consegniamo facendoci mediare da sistemi digitali nelle nostre azioni e relazioni”.
ChatGPT è la fase suprema di questa realtà. Se ogni attività discrezionale è composta da azioni cognitive (raccolta di informazioni, elaborazione di queste informazione, confronto e integrazione delle nostre elaborazioni e infine pubblicazione) che affidiamo ad algoritmi, allora il sapere è anche accessibile attraverso questi dati primari che preludono alle elaborazioni finali. ChatGPT è immerso in questa placenta di informazioni globali di cui si nutre costantemente combinandole con i testi e le informazioni che acquisisce dalla rete.
Ora il punto che viene posto dal Garante – uso illecito dei dati che vengono usati per costruire vere e proprie cartelle cliniche di ogni utente – non può non essere esteso a tutti i soggetti che compiono questa stessa operazione, come appunto le grandi piattaforme dei social o i motori di ricerca che stanno diventando sempre più – come Bing, ad esempio, ma anche Google – motori di creazione. Si tratta di rendere trasparente, condivisibile e negoziabile l’azione che viene compiuta automaticamente dagli algoritmi generativi che trasformano i nostri profili in linguaggi, tonalità, e forme semantiche che ci appaiono sempre più intime e famigliari, proprio perché sono adeguate alle caratteristiche personali che i sistemi digitali ricavano dai dati. È come giocare a poker con un signore che legge le nostre carte.
Ovviamente questa operazione di civilizzazione del mondo digitale non può essere compiuta dall’ufficio del Garante della Privacy di un singolo paese, ma deve trovare la convergenza di interessi e sensibilità di ben altre forze. A livello europeo è in gestazione una nuova norma che dovrebbe condizionare i comportamenti profilanti. Ma non basta: ogni legge nel campo digitale, basato sui comportamenti molecolari degli utenti, deve essere sorretta e rimodulata continuamente da negoziati che supportano e concretizzano i principi generali. Giornalisti, medici, giuristi, pubblica amministrazione, ricerca e università devono scendere in campo e riprogrammare i sistemi contrattualizzando le forme di utenza. Come spiega l’ultimo documento dell’Università americana di Stanford, non possiamo come scuola importare al buio intelligenze e principi etici da un fornitore tecnologico, anche perché costa più di una procedura collettivamente gestita. Torna così la talpa dell’open source anche ai massimi livelli del calcolo generativo. Anche a costo di non riuscire a elaborare la formazione di calcio più forte di sempre.
Qui il PDF
Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *
Nome *
Email *
Sito web
Do il mio consenso affinché un cookie salvi i miei dati (nome, email, sito web) per il prossimo commento.