A pochi giorni dall’insediamento alla Casa Bianca di Donald Trump già si sono aperte alcune crepe tra i tech bros (broligarchy) che lo hanno sostenuto. Si è acceso un conflitto su X a proposito della nascita di un’iniziativa chiamata Stargate che prevede 500 miliardi di investimenti per la costruzione di 20 nuovi data center negli Stati Uniti e altre infrastrutture. Coinvolge OpenAI, Oracle, SoftBank e MGX, un gruppo di investimento degli emirati arabi, a favore dello sviluppo di nuove tecnologie, con l’annuncio che il presidente degli Stati Uniti supporterà politicamente ed economicamente questa iniziativa sull’AI. Elon Musk ha scritto su X dubitando che la joint-venture abbia le risorse sufficienti per realizzare quello che promette, mentre Sam Altman di OpenAI ha invitato il collega a visitare i lavori dei nuovi repository in costruzione, sostenendo dopo aver avuto un ruolo pubblico, Musk deve dividere i suoi interessi commerciali da quelli per il bene dell’America1.
Tutti questi investimenti sembrano essere minacciati dall’exploit di DeepSeek2, un sistema di intelligenza artificiale generativa cinese che nell’ultimo mese ha lanciato un modello che rivaleggia con ChatGPT rispetto alla qualità dei risultati, ma costa una frazione del modello prodotto da OpenAI. Si tratta di un modello opensource, il cui addestramento consuma molta meno energia e tempo di calcolo. OpenAI ha dichiarato di avere le prove che DeepSeek abbia imbrogliato sui termini d’uso delle sue API scaricando tantissimi contenuti di qualità dall’addestramento di ChatGPT, attraverso un processo noto come distillazione. Questo consiste nel fare moltissime domande al sistema e poi addestrarsi direttamente sulle risposte ottenute senza passare per un vero addestramento diretto sui dati3. Tuttavia, sebbene questo sia più che probabile, è difficile sanzionare una presunta violazione. Violazione di cosa poi? Non del copyright, sappiamo che i contenuti generati dall’IA generativa non essendo prodotti dall’ingegno umano, non sono protetti dall’attuale assetto del copyright. Violazione dei termini d’uso delle API? Concorrenza sleale? Segreto industriale? Tutte questioni difficili da dipanare, considerato che le risposte ai prompt dell’IA generativa, sono a disposizione di chiunque le interroghi. Del resto si tratta della stessa politica predatoria ed estrattiva dei campioni statunitensi dell’IA generativa. Solo per citare un esempio, OpenAI, Meta e Google hanno usato lo speech recognition sui video di Youtube per ottenere dati del parlato sui quali addestrare i propri assistenti personali a offrire prestazioni più naturali4. O ancora la questione legale aperta tra OpenAI e New York Times5. Il problema è che questi violenti sistemi basati sullo scraping (estrazione) di dati, che contano sull’ambivalenza del contenuto pubblico o disponibile in forme esplicite nelle piattaforme o in rete, poi hanno difficoltà a proteggere “il furto” da altre appropriazioni altrettanto fraudolente. Quale autorità dovrebbe essere chiamata a proteggere chi si avvale di contenuti collettivi per l’addestramento dei propri sistemi?
Disruption: ovvero l’accumulazione originaria è sempre un furto di beni comuni per creare valore privato
Il successo di Trump tra imprenditori e venture capitalist della Silicon Valley si può spiegare comprendendo la fase critica dello sviluppo dei prodotti commerciali legati all’innovazione tecnologica che stanno vivendo le aziende tecnologiche in questi anni. Le Big Tech si trovano in una fase simile a quella della crisi delle Dot-com, avvenuta al passaggio degli anni zero, sono alla spasmodica ricerca di un modello di business che giustifichi le continue richieste di rialzo dei titoli azionari. Uno dei possibili sbocchi di questa crisi è stritolare lo Stato come grande committente, appropriandosi di tutti gli appalti e le commesse pubbliche, creando il bisogno di digitalizzazione e dell’automazione delle decisioni burocratiche. Questo processo renderebbe i servizi pubblici totalmente dipendenti e rinchiusi nella capacità tecnologica dei servizi offerti, permettendo alla broligarchy di appropriarsi d’un colpo dei fondi delle ingenti committenze, dei dati che vi si producono, e della libertà di cambiare fornitore da parte dei sistemi pubblici (lock in).
Dopo la crisi delle Dot-com, infatti, le Big Tech avevano vissuto un lungo periodo nel quale tutto era loro consentito. I motti che le caratterizzavano erano move fast, break things (muoviti veloce, rompi le cose) o better ask for forgiveness than permission (meglio chiedere perdono che permesso). In questo lungo periodo le piattaforme si sono appropriate dei dati dei loro utenti, hanno sviluppato metodi commerciali per conquistare e vendere l’attenzione delle persone, manipolare le loro preferenze attraverso controversi sistemi di raccomandazione. Hanno costruito algoritmi per mantenere alto l’engagement rate (il tasso di coinvolgimento), anche a costo di sostenere la visibilità di informazioni false ma eclatanti, incitando all’odio e alle reazioni emozionalmente estreme e totalizzanti. Hanno venduto i dati registrati delle attività sociali, delle preferenze, delle debolezze delle persone a terze parti che le hanno usate per i loro scopi: dalla sentiment analysis, all’intervento diretto sull’opinione pubblica, perfino orientando il consenso politico. Tutto questo è avvenuto al di fuori di un controllo, o di regole per il loro funzionamento.
Nessuno è stato preservato come mostra l’adescamento di minori e altre soggettività fragili che hanno anche pagato con la salute mentale i meccanismi di dipendenza studiati dalle piattaforme e adottati come canti seduttivi delle sirene per mantenere le persone incollate allo scrollo di pagine, post e video virali fino a perdere il senso del tempo e di sé stessi6.
La raccolta dei dati personali è stata uno degli elementi che, insieme con lo sviluppo di algoritmi di interpretazione e con la diffusione di processori grafici per intensificare il potenziale computazionale delle reti neurali, ha consentito di creare i nuovi sistemi di intelligenza artificiale che hanno tre principali sfere di attività.
Il supporto alla presa di decisione, anche laddove queste riguardino le persone e i loro diritti, con la supposizione che questi sistemi siano capaci di prevedere e di anticipare il futuro; il riconoscimento di immagini, inclusi i volti delle persone, con tutto il potenziale di sorveglianza che queste pratiche comportano e soprattutto con il rischio di identificare le persone in modo scorretto, in particolare se appartengono a minoranze etniche o sono in transizione di genere; i sistemi multimodali capaci di ricevere richieste in tutti i media possibili per generare contenuti in relazione alle richieste.
Segnalo solo di passaggio che ci sono molte altre applicazioni dell’intelligenza artificiale che non riguardano direttamente le persone, ma contesti nei quali l’uso della statistica funziona meglio perché i fenomeni a cui si riferiscono sono più stabili di quelli sociali e psichici. Questi progetti potrebbero essere utili alla collettività, per esempio intervenendo sulla riduzione degli sprechi idrici, interessanti da implementare, ma non sono quelle che catturano l’attenzione dei media e che determinano lo sviluppo dell’entusiasmo per le loro applicazioni.
La crisi di credibilità della broligarchy e la regolazione
I progetti che eccitano i media occidentali relativi alla previsione dei comportamenti umani ai fini di una interazione efficace con loro, che sembravano inizialmente molto promettenti, non hanno ancora prodotto i ricavi commerciali necessari a giustificare gli ingenti investimenti necessari alla loro realizzazione, mandando in tilt i bilanci delle start-up di successo7. Inoltre, hanno creato segnali di allarme nelle opinioni pubbliche di mezzo mondo, sia in relazione al potenziale distruttivo di posti di lavoro, che riguarderebbero anche quelle sfere professionali più lontane da compiti routinari, sia rispetto alla responsabilità che l’automazione della decisione e il riconoscimento facciale o perfino emotivo potrebbero comportare in termini di riduzione di libertà dei cittadini e delle loro tutele, rispetto ai diritti sociali, economici e politici8. Per di più, la produzione automatizzata di contenuti in risposta a un prompt, pur essendo molto simile alla capacità umana di rispondere a tono a una conversazione, non ha come obiettivo la produzione di informazioni veritiere, ma solo l’impressione che il sistema partecipi al dialogo.
Tutto questo ha generato pressioni da parte dell’opinione pubblica per tentare una piccola timida forma di regolazione di ciò che queste aziende possono fare e un blando tentativo di costruire un sistema di tassazione che obblighi le aziende a pagare una piccola parte delle tasse là dove si producono i profitti commerciali, una tassa minima effettiva del 15% dei profitti per le grandi multinazionali, secondo l’accordo trattato recentemente dall’OCSE e immediatamente entrato nel mirino di Trump, alle sue prime mosse.
Il tentativo di governo è avvenuto in Europa con la realizzazione di alcuni primi regolamenti come l’AI Act, ma anche il Digital Services Act e il Digital Markets Act, oltre ad altri strumenti per regolare il lavoro di piattaforma, che tentano di limitare l’enorme spazio di azione delle aziende della Silicon Valley. Ma anche gli Stati Uniti hanno cominciato durante l’amministrazione Biden a costruire primi interventi normativi degli Stati nazionali per limitare lo strapotere nell’IA, per esempio nell’ambito dei sistemi assicurativi e dell’accesso alle cure mediche; sono anche stati approvati interventi regolatori in altri paesi come Singapore, Australia, Giappone, Cina.
Negli ultimi anni, quindi, sistemi industriali che non erano mai stati interessati dalla regolazione si sono trovati a doverne fronteggiare diverse, ognuna relativa ad aspetti particolari. Lo stesso Biden aveva emanato nel 2023 un ordine esecutivo, sia pure poco costrittivo, che richiedeva alle aziende dell’IA di autoregolarsi9, ordine che è stato cancellato tra i primi atti del nuovo presidente lunedì 20 gennaio scorso.
I tecno-ottimisti a oltranza della Silicon Valley hanno considerato questi tentativi di regolazione un atto di lesa maestà rispetto alle loro prerogative di essere i più intelligenti, i più capaci, i più ricchi esseri umani e quelli con le idee imprenditoriali più innovative. Con quale diritto – si domandano – si interviene a regolare il genio?
La Weltanschauung della broligarchy: elitismo, disprezzo dell’alterità, allergia alla regolazione
Marc Andreessen è uno di loro. A ottobre 2023 ha pubblicato nel sito della sua azienda di venture capital Andreessen-Horowitz, nota come A16Z, un manifesto del tecno-ottimismo nel quale dichiarava “We believe that there is no material problem – whether created by nature or by technology – that cannot be solved with more technology”10.
Marc è un caso eclatante di un cambio di posizioni politiche tra gli imprenditori tecnologici. È uno dei più potenti Venture Angel della Silicon Valley ha partecipato a molto consigli di amministrazione di imprese unicorno, tra le quali Facebook che sono diventate start-up di successo, anche grazie ai suoi fondi e ai suoi consigli. Insieme con Eric Bina ha sviluppato Mosaic nel 1993, il primo browser multi-piattaforma che ha dato l’avvio alla stagione del World Wide Web. Da sempre un convinto democratico, in questa elezione ha finanziato Trump ed è uno degli esperti ammessi a Mar-a-Lago, dove sta partecipando alla selezione del personale per la nuova amministrazione Trump.
Con lui un altro grande sostenitore di Trump, da sempre elettore della destra, troviamo Peter Thiel, uno dei grandi ispiratori della svolta tecno-anarchica e antidemocratica del mondo delle start-up. Usa lo Stato per ottenere le commesse militari e di intelligence per le sue aziende, tra le quali la famosa Palantir, il cui nome è tratto dal Signore degli Anelli. È convinto e pronto a dichiarare che la democrazia sia inadatta a tutelare la libertà degli individui. A lui fanno capo alcuni degli uomini di Trump del momento, compreso il vicepresidente J.D. Vance, che è stato un suo collaboratore per anni. La visione del mondo di Peter Thiel si ispira a René Girard, secondo il quale il contesto antropologico umano è retto dal desiderio dell’altro. Noi desideriamo quello che gli altri vogliono e questo ci indurrebbe alla violenza, se non fosse per la capacità di ritualizzare la ferocia con la religione attraverso la creazione di un agnello, usato come vittima sacrificale, la cui innocenza è lo strumento per ricompattare il popolo. La visione antropologica di Girard è profondamente pessimista sulla natura umana, la cui soggettività è affetta da un individualismo costitutivo, un’avidità senza limiti, una strutturale invidia dell’altro e del suo desiderio. È questa rappresentazione del mondo come un’arena dove tutti combattono con gli altri per la propria affermazione e l’altrui distruzione che muove il progetto visionario di Peter Thiel, il quale ritiene che se hai competitori nel tuo mercato hai fallito a progettare il business. Per avere davvero un sistema che garantista profitti, devi possedere il contesto, lo spazio dove si attivano le transazioni, per possedere il potere di decidere le regole per il loro funzionamento11. Ritiene che i progressi avvenuti nel digitale non abbiano avuto seguito adeguato nel mondo fisico e finanzia progetti di ricerca per l’estensione della vita e la crioconservazione dei corpi.
All’inaugurazione del secondo mandato di Trump hanno partecipato altri nomi importanti della Silicon Valley che in origine non potevano certo dirsi repubblicani, per esempio Sergey Brin, uno dei fondatori di Google, che nel primo mandato di Trump aveva aspramente criticato la sua politica migratoria, essendo lui stesso un rifugiato russo, giunto negli Stati Uniti a sei anni, ma anche Mark Zuckerberg, che non aveva esplicite simpatie di destra, mentre Jeff Bezos non aveva mai nascosto il supporto ai repubblicani.
Tutto il gotha dell’intelligenza artificiale si è affrettato a partecipare direttamente o indirettamente allo spettacolo che si è tenuto sul palcoscenico dell’insediamento di Trump come suggerisce il libro di Richard Sennett, La società del palcoscenico (Feltrinelli, 2024).
Anche Elon Musk non ha mancato di esercitare la sua prestazione su quel palcoscenico, prendendosi la scena con l’infelice saluto romano. Si tratta di intervenire per farsi ricordare, quindi, meglio provocare, meglio spararla grossa, meglio eccedere, che contenersi. Bisogna attirare l’attenzione a ogni costo.
L’ultimo personaggio di questa carrellata tecno-ottimista che si è risvegliata filo Trump è Sam Altman, CEO di OpenAI, azienda molto promettente, ma che perde milioni di dollari all’anno. Il 15 gennaio scorso ha lanciato un documento, l’OpenAI’s Economy Blueprint nel quale si propone di massimizzare i benefici dell’IA per gli Stati Uniti, che vengono chiamati spesso nel documento America, in onore di MAGA (Make America Great Again). Nel testo si suggerisce che per avere i benefici dell’innovazione, l’America deve abbandonare le regole, lasciare l’iniziativa alla libertà delle grandi aziende tecnologiche, per approfittare dei frutti dell’innovazione. La tesi esplicita è che le regole frenino l’iniziativa e danneggino i benefici che la tecnologia può arrecare alla nazione.
Intanto, salta all’occhio la relazione tra tecnologia e nazionalismo, un connubio affatto scontato finora, oltre all’esplicitazione che qualsiasi regolazione freni la libertà di impresa e danneggi la collettività. Si tratta di una nuova ideologia, o meglio di una riproposizione di un vecchio adagio su non disturbare chi sta innovando in nome di tutti gli altri.
Vorrei segnalare anche che questo collettivo litigioso e rissoso di tech bros, come sono stati soprannominati, non fa mistero di sostenere la visione maschile, maschilista, muscolare e bianca sulla società – la vecchia ideologia WASP12 – facendo piazza pulita di tutti i progetti, sia pure usati come foglia di fico, per diversificare la forza lavoro e le soggettività coinvolte in questo processo di trasformazione del mondo a propria immagine e somiglianza.
Per tirare le somme di questa complessa situazione e cercare di interpretare la virata a destra della Silicon Valley, le imprese hi-tech si trovano a un punto di svolta. Dopo aver imperversato nella creazione e diffusione delle piattaforme, degli algoritmi di raccomandazione delle funzioni di massimizzazione dell’engagement rate a ogni costo, per la prima volta si trovano di fronte a una certa ostilità della società e il nuovo inevitabile passo di sfruttare i prodotti dell’intelligenza artificiale si rivela più arduo del previsto.
La falsa invincibilità dei tech bros e il potere della millanteria
Vi sono molti insuccessi che hanno caratterizzato questa fase. L’errore di valutazione da parte di Zuckerberg e altri di fare profitti facili con il metaverso, gli alti e i bassi delle cryptocurrency, l’insuccesso clamoroso delle macchine a guida autonoma, che non riescono a uscire dalla fase di testing, i flop come i Google Glass e lo stesso acquisto di Twitter da parte di Musk, che nei mesi successivi di operatività ha perso gran parte del suo valore per gli inserzionisti, a causa della violenta ristrutturazione imposta dal nuovo padrone.
Per la prima volta si trovano a dover dimostrare di essere ancora loro i buoni e di non intraprendere azioni che danneggino la società per arricchirsi a danno della cittadinanza, sebbene ormai tutti i cittadini e le cittadine un po’ attente sappiano che una delle più redditizie applicazioni dell’IA sia legata alle attività belliche e si riferisca alla ricerca automatica di bersagli, per non dover portare il peso della decisione, circa dove sganciare gli ordigni. Abbiamo da tempo abbandonato la prima legge di Asimov sulla robotica che recita: “un robot non può ferire un essere umano o, per inerzia, permettere che un essere umano venga danneggiato”.
Ormai il re è nudo. Sembra evidente che gli strumenti di intelligenza artificiale in corso di realizzazione funzioneranno a patto di rinunciare a una grande fetta di libertà, in favore della sorveglianza, come nel caso del riconoscimento facciale, o offriranno prestazioni discontinue e inaffidabili in termini di predizione di eventi incerti e imprevedibili13.
Le applicazioni belliche presentano grandi problemi etici e dipendono all’attivazione di una situazione di guerra permanente, nella quale si attiverebbe una mutua dipendenza tra gli stati e le aziende che devono fornire i servizi14.
Lo stato tecno-burocratico avrà bisogno di servizi digitali, che lo svuoteranno dall’interno, privatizzando la raccolta e l’interpretazione di dati appartenenti ai cittadini e usati a fini privati, ma le scelte sulle commesse da parte dei funzionari pubblici potrebbero anche acquisire una consapevolezza della delicatezza del rischio di lock-in per le prestazioni ai cittadini, virando verso un controllo più stringente dell’autorità pubblica.
L’IA generativa potrebbe distruggere l’industria creativa, ma non sono tanti i soldi in palio, mentre per quanto riguarda l’affidabilità, i risultati sono tutt’altro che rassicuranti. Le allucinazioni sono lì per restare, al massimo si potranno mitigare, ma comunque non si cancelleranno e bisogna saperle riconoscere, per servirsi dei sistemi in modo profittevole15. Chi dovrebbe pagare sistemi che producono sistematicamente fallacie e allucinazioni?
Resta l’impresa dello spazio. Ancora una volta legata alle grandi commesse pubbliche, sia per quanto riguarda i lanci interstellari, sia per i servizi satellitari per la connettività alternativi alla connettività via cavo.
A causa della crisi di un modello di sviluppo senza regole la Silicon Valley sta cercando un’alleanza con la destra al governo negli Stati Uniti e altrove. Se Musk inneggia alla nascita di una destra globale, mettendosi così in mostra segnala debolezze e contraddizioni nell’ambito delle sue attività industriali. L’impressione è che più sono attivisti e provocatori in pubblico, più i loro business dipendono completamente dal supporto di Stato per salvarsi.
La rinascita del primato della politica
Le aziende hi-tech hanno capito che non possono fare a meno della politica, perché ne sono dipendenti, per le regole, o meglio per garantire la loro assenza.
Ritengono sempre di essere i più intelligenti del mondo e che per questo ogni regola sia per loro un affronto, un’offesa alle loro grandi capacità, depotenziate per tutelare diritti di inutili soggettività marginali, diverse e deboli. Ma sono costretti a venire allo scoperto per difendere il loro operato, perché lo sentono minacciato dall’assenza di modelli di business utilizzabili, che non dipendano dalle commesse pubbliche o dall’esclusione di una vera concorrenza nei loro ambiti di mercato, come dimostra la crisi profonda innescata dal successo mediatico di DeepSeek. Hanno bisogno dei monopoli per fare profitti, proprio perché la loro utilità marginale è estremamente bassa, e perché hanno espropriato tutto l’espropriabile alla collettività, in termini di beni comuni a cui estrarre valore di cui appropriarsi, e si apprestano anche a fronteggiare una scarsità di dati su cui addestrare i sistemi futuri16.
Per questo la corsa allo spazio sembra rappresentare un’altra terra da conquistare, da cui estrarre risorse, e da colonizzare, con tutto il lessico relativo al processo di appropriazione di beni che nessuno ha ancora il diritto di reclamare e tutelare. Il modello di un desiderio di profitti infiniti e appropriazione illimitata, come le speranze di prolungamento indefinito della vita, e le altre ideologie transumaniste in senso tecnologico.
Che fare?
Questo quadro mi rende fiduciosa perché non potrà più funzionare a lungo la retorica che suggerisce che far crescere le aziende dell’IA sia di per sé un miglioramento delle condizioni di vita per la collettività. Se i tycoon della Silicon Valley e dintorni (considerato che Musk ha messo il suo quartier generale in Texas) stanno lavorando per la loro sopravvivenza, non è detto che gli stati, i cittadini, le istituzioni locali e quelle internazionali debbano abboccare al loro amo.
Come suggeriscono Acemoglu e Johnson non tutte le innovazioni si rivelano un progresso per la cittadinanza17, ma solo quelle i cui benefici possono essere davvero socializzati. Dobbiamo mantenere i nervi saldi e prepararci al confronto, perché è dentro l’uso della tecnologia che si esercita la battaglia politica18. Un conflitto che dobbiamo ancora cominciare a combattere. Ma è importante riconoscere la posta in gioco e le posizioni delle parti in causa. Il fatto che siano in crisi, non rende i vari tycoon della Silicon Valley meno pericolosi, hanno molte frecce al loro arco, non ultima una certa capacità di intervenire con una spinta gentile per orientare e manipolare le convinzioni delle persone, oltre a diverse armi ricattatorie nei confronti dei governi che hanno contribuito a portare al potere. Ma la forza dei social media è fragile proprio come lo è stata quella del cinema, della radio e della televisione. E i protagonisti dell’ascesa dell’intelligenza artificiale hanno gettato la maschera. È più facile rendersi conto che i loro interessi non coincidono con quelli delle collettività.
Per difendere le democrazie, e l’equilibrio dei poteri, per loro decisivo, dobbiamo limitare la forza brutale dell’estrazione di ipotesi statistiche dai dati personali. Sono a rischio anche in vincoli dell’autorità degli stati, perché la prospettiva di conflitto si apre con un confronto contro nuovi feudi digitali, chiusi in sé e anarchici rispetto al diritto pubblico, che impongono a tutti i contraenti le proprie regole private, in un contesto nel quale i governatori di questi spazi sono principes legibus solutis, cioè sono sovrani o imperatori dei loro spazi delocalizzati, ma concretamente attivi nella vita collettiva. Peter Thiel ha finanziato lo Seasteading Institute, un ente no profit che fa ricerca sulla possibilità di impiantare piattaforme autosufficienti nelle acque internazionali, indipendenti dall’autorità statale, così da permettere una loro completa autonomia e autosufficienza, sebbene lui stesso abbia poi accantonato il progetto come irrealizzabile se non nel lontano futuro. Ma il modello di assenza di altre autorità che sovrastino la sua resta in atto.
Le piattaforme digitali suggeriscono questa impostazione perché consentono a chi le governa di possedere non i mezzi di produzione, ma i mezzi e soprattutto le regole di funzionamento delle infrastrutture di connessione – sono la condizione di possibilità delle transazioni di cui tengono traccia. Creano, cioè, spazi governabili, senza controllo esterno, altro che mano invisibile. Ma siccome insistono anche nello spazio concreto abitato, danno luogo a conflitti di giurisdizione e di autorità, visto che le persone partecipano delle piattaforme quando contribuiscono alla consegna del pasto come rider, ma sono anche sul territorio italiano che applica le leggi dello statuto dei lavoratori, come dimostra la condanna dell’algoritmo Frank per infrazione dello statuto dei lavoratori19. Sarebbe importante stabilire quali siano le norme in vigore negli spazi liminali, per avere una presa pubblica su questi sistemi che si presumono incontrollabili.
Abbiamo un percorso faticoso e impervio davanti, ma per la prima volta si mostra chiaramente, anche per le soggettività più restie all’esercizio critico, quale sia la contrapposizione e riconosciamo il dipanarsi della sottile linea rossa che separa di un solo passo barbarie e civiltà. Possiamo posizionarci più facilmente nella battaglia politica che ci aspetta per difendere la democrazia, la giustizia, la tutela di chi è debole, diverso, fragile e marginale contro chi pensa di essere superiore e ritiene che l’unico modo di dimostrarlo sia la sopraffazione di chi non li autorizza all’arbitrio, non sopportando di non essere oggetto di privilegi e eccezioni.
Note
1 Per una discussione sullo scambio di frecciate cfr. Gary Marcus, “Hot take on an AI catfight”, 22/01/2025 https://garymarcus.substack.com/p/hot-take-on-an-ai-catfight?utm_source=substack&publication_id=888615&post_id=155467620&utm_medium=email&utm_content=share&utm_campaign=email-share&triggerShare=true&isFreemail=true&r=2v80i1&triedRedirect=true
2 Il modello DeepSeek R1 che era già stato lanciato sul mercato dei sistemi generativi opensource mesi fa, ha reso pubblico il benchmark di questo nuovo modello R1 che rivaleggia con i modello train of hought di OpenAI e anche tutti gli altri modelli generativi di ultima generazione. L’articolo si può leggere qui https://github.com/deepseek-ai/DeepSeek-R1
3 È impossibile dare conto brevemente del dibattito mediatico che si è scatenato in conseguenza di questo risultato e del conseguente crollo in borsa di alcune delle aziende che sono implicate sia nella produzione dei chip, come NDIVIA sia nella produzione di modelli generativi a pagamento, come OpenAI, che costano così cari. Segnalo qui solo alcuni articoli del New York Times che danno un po’ la misura del conflitto e del trambusto in corso: Cade Metz, “OpenAI Says DeepSeek May Have Improperly Harvested Its Data”, New York Times, 29/01/2025 https://www.nytimes.com/2025/01/29/technology/openai-deepseek-data-harvest.html; Cade Metz, Mike Isaac, “Meta Engineers See Vindication in DeepSeek’s Apparent Breakthrough”, New York Times, 29/01/2025, https://www.nytimes.com/2025/01/29/technology/meta-deepseek-ai-open-source.html; Meaghan Tobin, Paul Mozur, Alexandra Stevenson, “DeepSeek’s Rise: How a Chinese Start-Up Went From Stock Trader to A.I. Star”, New York Times, 28/01/2025, https://www.nytimes.com/2025/01/28/business/deepseek-owner-china-ai.html
4 Cade Metz, Cecilia Kang, Sheera Frenkel, Stuart A. Thompson, Nico Grant, “How Tech Giants Cut Corners to Harvest Data for A.I.”, New York Times, 04/06/2024, https://www.nytimes.com/2024/04/06/technology/tech-giants-harvest-data-artificial-intelligence.html
5 Cfr. Michael M. Grynbaum, Ryan Mac, “The Times Sues OpenAI and Microsoft Over A.I. Use of Copyrighted Work”, New York Times, 27/12/2023, https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html
6 Lo sviluppo di questi metodi di intervento e orientamento delle abitudini delle persone oltre che di previsione sono legati a due filoni di ricerche uno è quello di Fogg, B. J. (2019). Tiny habits: The small changes that change everything. Virgin Books, Londo; mentre l’altro riguarda Thaler, R. H., & Sunstein, C. R. (2021). Nudge: The final edition. Yale University Press, Yale. Entrambe le teorie nascono a fin di bene per proteggere le persone dalla tendenza alle cattive abitudini e dalle scelte che le danneggiano, ma il risultato è estremamente condiscendente e finisce per considerare gli esseri umani come dei minorati che non hanno una vera e propria volontà e che possono essere manipolati a piacimento con l’uso delle tecniche giuste, proprio come se fossero delle macchine da riprogrammare.
7 Per una dettagliata analisi sulla mancanza di un modello di business usabile per l’IA generativa, considerati gli ingentissimi costi di produzione cfr. Brian Merchant, “AI Generated Business: The Rise of AGI and the Rush to Find a Working Revenue Model”, AI Now Institute, December 2024.
8 A questo proposito vorrei citare il report annual di Stanford University, AI Index Report 2024, che ha registrato un notevole aumento del senso di precarietà e minaccia che le persone provano nei confronti dell’IA, citando dei dati di Ipsos e Pew research center, i quali notano che la percentuale della popolazione che si sente più stressata che eccitata dallo sviluppo di questi sistemi sta aumentando decisamente negli ultimi due anni “Ipsos shows that, over the last year, the proportion of those who think AI will dramatically affect their lives in the next three to five years has increased from 60% to 66%. Moreover, 52% express nervousness toward AI products and services, marking a 13 percentage point rise from 2022. In America, Pew data suggests that 52% of Americans report feeling more concerned than excited about AI, rising from 38% in 2022”. Nestor Maslej, Loredana Fattorini, et al., “The AI Index 2024 Annual Report,” AI Index Steering Committee, Institute for Human-Centered AI, Stanford, University, Stanford, April 2024.
9 Un commento di Tim Wu sull’ordine esecutivo emesso a fine ottobre 2023: Tim Wu, “In Regulating A.I., We May Be Doing Too Much. And Too Little”, New York Times, 07/11/2023, https://www.nytimes.com/2023/11/07/opinion/biden-ai-regulation.html
10 Trad.: Crediamo che non ci sia nessun problema materiale – sia creato dalla natura o dalla tecnologia – che non possa essere risolto da più tecnologia.
11 Su queste posizioni di Thiel di cui lui stesso non fa mistero vedi Rushkoff, D. (2022). Survival of the richest: Escape fantasies of the tech billionaires. WW Norton & Company, New York; trad it. Solo i più ricchi, Luiss University Press, Roma, 2023.
12 WASP: White Anglo Saxon Protestants.
13 Su questo vedi Arvind Narayanan, Sayash Kapoor (2024), AI snake oil, Princeton University Press, Princeton.
14 Cfr su questo punto Dario Guarascio, Andrea Coveri, Claudio Cozza (2023) “War in the time of digital platforms”, in Social Europe, 10/01/2023, https://www.socialeurope.eu/war-in-the-time-of-digital-platforms
15 Cfr. Sourav Banerjee, Ayushi Agarwal, Saloni Singla, (2024). Llms will always hallucinate, and we need to live with this. arXiv preprint arXiv:2409.05746, Nicola Jones, “AI hallucinations can’t be stopped — but these techniques can limit their damage”, Nature, 637, 778-780 (21/01/2025).
16 Per uno degli articoli che descrive la scarsità di dati disponibili di qui a poco, cfr. Kevin Roose (2024), “The Data That Powers A.I. Is Disappearing Fast”, New York Times, 19/07/2024, https://www.nytimes.com/2024/07/19/technology/ai-data-restrictions.html
17 Cfr. Daron Acemoglu, Simon Johnson (2023), Power and progress, PublicAffairs, New York, Trad, it. Potere e progresso, Il Saggiatore, Milano, 2023.
18 Cfr. Herbert Marcuse, One-Dimensional Man: Studies in the Ideology of Advanced Industrial Society, Beacon Press, New York, 1964, Trad. it L’uomo a una dimensione, Einaudi, Torino, 1967. L’autore afferma il carattere ideologico e non neutrale della tecnologia, e per questo si inserisce la questione della tecnologia a pieno titolo nel discorso della teoria critica come posta in gioco della politica. Questo rende il pensiero di Marcuse molto attuale anche per interpretare il nostro presente.
19 Maria Matilde Bidetti Carlo de Marchis Gòmez, “L’algoritmo Frank è cieco, ma ci vede benissimo quando punisce chi sciopera”, Collettiva, 02/01/2021, https://www.collettiva.it/rubriche/consulta-giuridica/lalgoritmo-frank-e-cieco-ma-ci-vede-benissimo-quando-punisce-chi-sciopera-y1cw1skw
Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *
Nome *
Email *
Sito web
Do il mio consenso affinché un cookie salvi i miei dati (nome, email, sito web) per il prossimo commento.