L’economia delle promesse
Nella famiglia di tecnologie denominata, per ragioni di marketing, «intelligenza artificiale», alcuni genuini progressi sono stati ottenuti, a partire dal 2010, con sistemi di natura statistica, antropomorficamente definiti di «apprendimento automatico» (machine learning). Si tratta di sistemi che, anziché procedere secondo le istruzioni scritte da un programmatore, costruiscono modelli a partire da esempi. Sono statistiche automatizzate, prive, in quanto tali, di intelligenza: «sistemi probabilistici che riconoscono modelli statistici in enormi quantità di dati» (Whittaker 2024). Dovrebbero perciò essere utilizzati solo per compiti con una elevata tolleranza al rischio.
La costruzione dei sistemi di apprendimento automatico richiede, tra gli altri, un’elevata potenza di calcolo e enormi quantità di dati: queste sono oggi nella disponibilità dei soli monopoli della tecnologia (le cosiddette Big Tech), che detengono l’accesso al mercato necessario per l’intercettazione di grandi flussi di dati e metadati individuali e le potenti infrastrutture di calcolo per la raccolta e l’elaborazione di tali dati (Lynn, von Thun, Montoya 2023). Su tali aziende si concentrano gli investimenti del capitale di rischio. A chi investa in capitale di rischio non serve che una tecnologia sia utile o che funzioni; serve soltanto che le persone credano che funzioni, per un tempo sufficientemente lungo da rendere possibile un ritorno sugli investimenti, e che le responsabilità per i danni causati da prodotti pericolosi o non funzionanti non ricadano sulle aziende che producono o distribuiscono tali prodotti. Il capitale di rischio è alla base di un’economia delle promesse: la promessa di un enorme guadagno finanziario in breve tempo e la promessa che la tecnologia ci condurrà verso un futuro meraviglioso (Foureault 2024). Di qui, i messianesimi eugenetici dei miliardari bianchi che invitano l’opinione pubblica a occuparsi del futuro dell’umanità, anziché del presente, e la promessa che il bene dell’umanità sarà il frutto delle tecnologie su cui questi stessi miliardari concentrano, di volta in volta, i loro investimenti (Gebru, Torres 2024).
Il modello di business dei monopoli della tecnologia si regge sulla sorveglianza di massa, che consente loro di fornire a soggetti pubblici e privati la promessa di una profilazione algoritmica e servizi di sorveglianza extragiudiziale. La stessa intelligenza artificiale è oggi una tecnologia di sorveglianza. Nei paesi nei quali una sorveglianza generalizzata e pervasiva è vietata, il modello di business delle grandi aziende tecnologiche si basa su una «bolla giuridica» ossia sulla violazione sistematica di diritti giuridicamente tutelati e sulla scommessa che sarà il diritto a cedere. Le aziende scommettono, in particolare, che l’illegale trasformazione in merce di tutti i dati e i metadati personali dei cittadini darà luogo non a interventi sanzionatori, bensì alla rinuncia alla tutela giuridica dei diritti fondamentali violati da tale pratica (Giraudo, Forsch-Villaronga, Malgieri 2024).
Le narrazioni dei monopoli digitali
Affinché ciò accada, le Big Tech hanno diffuso alcune narrazioni – idee trasmesse nella forma di storie – che danno forma alla percezione pubblica del rapporto tra etica, politica, diritto e tecnologia. Così, i monopoli della tecnologia affrontano il conflitto tra i loro interessi privati e l’interesse pubblico non con un’aperta imposizione della loro volontà, ma facendo sì che alcune narrazioni entrino a far parte del senso comune, determinando l’impostazione di fondo e gli assiomi di qualsiasi discussione pubblica sull’intelligenza artificiale (Tafani 2023b). Si tratta di una forma di cattura del regolatore che opera nella dimensione culturale: distorcendo la concezione condivisa di ciò che è di interesse pubblico e sopprimendo la possibilità stessa di concepire alternative, si ottiene che le politiche pubbliche favoriscano le industrie che dovrebbero regolare, a scapito del reale interesse pubblico e senza che si manifestino dissensi o proteste significativi. Il conflitto è infatti soppresso in via preliminare, attraverso narrazioni che oscurano gli interessi in gioco e producono un consenso generale, accompagnato dalla tendenza a liquidare come retrogrado o luddista chiunque non condivida in partenza l’impostazione prefissata. Il regolatore consulterà allora, quali esperti, i lobbisti delle aziende che dovrebbe regolare, giacché condivide con loro gli schemi culturali e le assunzioni fondamentali riguardo agli obiettivi da perseguire con la regolazione stessa (Y Li 2023).
Le principali narrazioni riguardano oggi la digitalizzazione, il concetto stesso di intelligenza artificiale, il principio dell’inevitabilità della tecnologia, il principio di innovazione, il soluzionismo tecnologico, la fine del lavoro, i miti dell’eccezionalismo tecnologico e del vuoto giuridico e il ruolo dell’etica. Trattandosi di narrazioni strumentali, finalizzate a proteggere un modello di business, ne possono essere diffuse di nuove con la stessa velocità con cui si procede al lancio di una campagna di marketing.
La funzione di tali narrazioni è anzitutto quella di quella di garantire la generale accettazione della sorveglianza di massa come inevitabile e benefica: negli anni, anche nei documenti ufficiali di istituzioni sovranazionali quali l’OCSE, il termine «sorveglianza» è stato sostituito da «digitalizzazione», con uno slittamento da una rappresentazione della sorveglianza di massa come caratteristica dei regimi totalitari, incompatibile con la protezione dei diritti fondamentali e inaccettabile entro i sistemi democratici, a una concezione positiva della medesima sorveglianza, nella sua versione digitalizzata (Padden 2023). Con un approccio soluzionistico, in virtù del quale qualsiasi problema sociale sarebbe passibile di una soluzione tecnica, la moltiplicazione di prodotti, fabbriche e addirittura intere città smart, ossia connesse e in grado di trasmettere dati e metadati personali, a fini di sorveglianza e controllo, è presentata ora quale tappa inevitabile nel progresso dell’umanità, utile a meglio organizzare la società e foriera di sicurezza, efficienza e crescita economica.
La narrazione per cui «la tecnologia» sarebbe inevitabile e inarrestabile serve a nascondere gli attori umani, le loro scelte interessate e le loro responsabilità, inducendo a dare per scontato che ogni singolo sistema di intelligenza artificiale sia «qui per restare» o che «se non lo facciamo noi, lo farà qualcun altro». Qualsiasi dibattito ha luogo perciò entro la logica del fatto compiuto, svuotando preventivamente di significato le domande sulla legittimità e sull’opportunità dello sviluppo o dell’applicazione di alcune specifiche tecnologie (Tafani 2023b). A chi ponga tali domande, non è riconosciuto neppure il ruolo di interlocutore nel dibattito; lo si riduce a un problema – con una «resistenza alla resistenza» (Padden 2023), che mira a neutralizzare la possibilità stessa di un conflitto – che può essere risolto instillando nei cittadini, con un antropomorfismo di stampo religioso, la fiducia nell’intelligenza artificiale.
L’antropomorfizzazione dei sistemi di intelligenza artificiale
L’antropomorfizzazione dei sistemi di intelligenza artificiale è indotta dalle aziende in quanto consente loro di immettere sul mercato prodotti e servizi basati su tecnologie immature – che dovrebbero essere oggetto, al momento, di sola ricerca, non di distribuzione generalizzata e commercio – presentandoli come intelligenti e autonomi e sfuggendo così alle proprie responsabilità. Quando sistemi statistici automatizzati siano utilizzati per prevedere il futuro di singoli individui e assumere di conseguenza decisioni rilevanti per le loro vite, si generano automaticamente discriminazioni ineliminabili contro chiunque si trovi ai margini dei modelli algoritmici di normalità. Si tratta di sistemi incompatibili con lo Stato di diritto (Tafani 2024), per i quali alcuni giuristi hanno proposto di prevedere un’automatica «presunzione di illegalità» (Malgieri, Pasquale 2024). In virtù dell’antropomorfizzazione dell’intelligenza artificiale, le aziende, anziché ammettere che simili sistemi semplicemente non funzionano, possono sostenere che essi, come gli esseri umani, adottano talvolta decisioni discriminatorie. Appare così plausibile che ai danni, alle ingiustizie e alla assurdità prodotte dai sistemi di apprendimento automatico si possa porre rimedio con l’etica dell’intelligenza artificiale, ossia con la moralizzazione di un sistema di calcolo, anziché, come avviene con qualsiasi prodotto pericoloso e non funzionante, con il divieto della sua distribuzione (Tafani 2023b).
Affinché i sistemi di intelligenza artificiale siano considerati agenti autonomi, anziché artefatti di cui il produttore è responsabile, gli elementi materiali necessari alla loro realizzazione – terre rare, energia, acqua e lavoro – sono in genere rimossi dalle narrazioni. I primi due elementi sono decisivi nei conflitti geopolitici legati all’intelligenza artificiale e danno luogo a costi ambientali elevatissimi, che le aziende esternalizzano con pratiche di impostazione coloniale. Quella che appare come intelligenza artificiale richiede inoltre il lavoro nascosto di milioni di persone – per lo più prive di qualsiasi forma di diritti o tutele – alle quali sono affidate le attività necessarie al funzionamento dei sistemi di intelligenza artificiale e le operazioni che consentono di simulare un’autonomia, o un livello di affidabilità, che tali sistemi costitutivamente non possiedono e che sono tuttavia dichiarati dai produttori. Il mito della sostituzione dei lavoratori umani con robot o sistemi informatici non ha alcun fondamento nello stato attuale di sviluppo della tecnologia: ad oggi, l’ossessione per la sostituzione dei lavoratori umani, che guida e orienta la progettazione dei sistemi di intelligenza artificiale, diffonde soprattutto un’automazione mediocre, che è di ostacolo alla produttività (Acemoglu, Johnson 2023).
Rendere invisibili gli elementi materiali dei prodotti basati su sistemi di intelligenza artificiale aiuta le aziende a sostenere che a tali sistemi, in virtù della loro novità e straordinarietà, le leggi vigenti non siano applicabili, e che servano dunque nuove leggi, scritte ad hoc per ciascun sistema. Il mito del vuoto giuridico dà luogo a una corsa che vede il legislatore perennemente in affanno, nel rincorrere le più recenti novità tecnologiche, e oscura il fatto che i sistemi di intelligenza artificiale, come qualsiasi altro prodotto o servizio, sono soggetti alla legislazione ordinaria (Tafani 2023b).
Utili a sfuggire al diritto sono per le Big Tech anche gli appelli all’etica e le promesse di autoregolazione – ossia gli inviti a fidarsi del loro buon cuore e a sostituire il diritto con la declamazione di linee guida e principi etici – e l’appello al principio di innovazione, con la narrazione secondo la quale il diritto nuocerebbe all’innovazione e con ciò allo sviluppo economico e sociale. In realtà, i monopoli ostacolano qualsiasi innovazione, per quanto dirompente e benefica, che non si adatti al loro modello di business, e promuovono soprattutto un’innovazione tossica che estrae o distrugge valore, anziché produrlo. Il contrasto non è dunque tra la tutela dei diritti e il principio di innovazione, ma tra la tutela dei diritti e il modello di business delle grandi compagnie tecnologie (Tafani 2023a).
Il problema politico relativo allo sviluppo e alle applicazioni dei sistemi di intelligenza artificiale non riguarda l’allineamento di una mente artificiale con i nostri valori, ma il disallineamento tra gli interessi dei monopoli della tecnologia e l’interesse pubblico (O’Reilly, Strauss, Mazzucato et al. 2024). I primi mirano ad aumentare i profitti e a consolidare la propria posizione dominante, realizzando, in violazione del diritto vigente, soli sistemi di sorveglianza, controllo e estrazione del valore. In nome del secondo, invece, potrebbe essere promosso lo sviluppo non di sistemi «intelligenti», progettati per sorvegliare, manipolare o sostituire gli esseri umani e utili soltanto a una ristrettissima élite, bensì di sistemi progettati per essere utilizzati liberamente dalle persone (Doctorow 2023), per dare potere ai lavoratori e contribuire a una produzione condivisa di valore (Acemoglu, Johnson 2023).
Bibliografia essenziale
D. Acemoglu, S. Johnson, Power and Progress. Our Thousand-Year Struggle Over Technology and Prosperity, New York 2023 (trad. it. Potere e progresso. La nostra lotta millenaria per la tecnologia e la prosperità, Milano 2023).
C. Doctorow, The Internet Con. How to Seize the Means of Computation, London; New York 2023.
F. Foureault, Le capital ne risque rien, «Tèque», 2024, 4, 1, https://www.cairn.info/revue-teque-2024-1-page-65.htm.
T. Gebru, É.P. Torres, The TESCREAL bundle: Eugenics and the promise of utopia through artificial general intelligence, «First Monday», 2024, 29, 4, https://doi.org/10.5210/fm.v29i4.13636.
M. Giraudo, E. Fosch-Villaronga, G. Malgieri, Competing Legal Futures. ‘Commodification bets’ all the way from personal data to AI, «German Law Journal», 2024, in corso di pubblicazione, https://doi.org/10.5281/zenodo.10849764.
G. Malgieri, F. Pasquale, Licensing high-risk artificial intelligence: Toward ex ante justification for a disruptive technology, «Computer Law & Security Review», 2024, 52, https://doi.org/10.1016/j.clsr.2023.105899.
B. Lynn, M. von Thun, K. Montoya, AI in the Public Interest: Confronting the Monopoly Threat, 15 novembre 2023, https://www.openmarketsinstitute.org/publications/report-ai-in-the-public-interest-confronting-the-monopoly-threat.
T. O’Reilly, I. Strauss, M. Mazzucato et al., To understand the risks posed by AI, follow the money, «The Conversation», 10 aprile 2024, https://theconversation.com/to-understand-the-risks-posed-by-ai-follow-the-money-225872.
M. Padden, The transformation of surveillance in the digitalisation discourse of the OECD: a brief genealogy, «Internet Policy Review», 2023, 12, 3, https://doi.org/10.14763/2023.3.1720.
D. Tafani, Do AI systems have politics? Predictive optimisation as a move away from the rule of law, liberalism and democracy, «Ethics & Politics», 2024, in corso di pubblicazione, https://zenodo.org/records/10866778.
D. Tafani, L’«etica» come specchietto per le allodole. Sistemi di intelligenza artificiale e violazioni dei diritti, «Bollettino telematico di filosofia politica», 2023a, https://commentbfp.sp.unipi.it/letica-come-specchietto-per-le-allodole/.
D. Tafani, Sistemi fuori controllo o prodotti fuorilegge? La cosiddetta «intelligenza artificiale» e il risveglio del diritto, «Bollettino telematico di filosofia politica», 2023b, https://btfp.sp.unipi.it/it/2023/05/sistemi-fuori-controllo-o-prodotti-fuorilegge/.
M. Whittaker, The Prizewinner’s Speech, Bundeskanzler-Helmut-Schmidt-Stiftung, 15 maggio 2024, https://www.helmut-schmidt.de/en/news-1/detail/the-prizewinners-speech.
W. Y Li, Regulatory capture’s third face of power, «Socio-Economic Review», 2023, 21, 2, https://doi.org/10.1093/ser/mwad002.
Qui il PDF
Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *
Nome *
Email *
Sito web
Do il mio consenso affinché un cookie salvi i miei dati (nome, email, sito web) per il prossimo commento.