La frase che segue è tratta da un testo scritto nel 1973 da un gruppo di giovani scienziati impegnati nel movimento per la pace che, venuti a conoscenza delle ricerche sui droni armati svolte dall’esercito americano dopo la guerra del Vietnam, scrissero un articolo per denunciarne i pericoli:
“Per i corpi umani, con le loro capacità necessariamente limitate anche se armati, ogni difesa è inutile contro questi strumenti, che non conoscono limiti se non quelli meccanici. La guerra a distanza è una guerra fatta da macchine umane contro il corpo umano. È come se lo spirito umano fosse migrato dalle macchine con l’obiettivo di distruggere il corpo umano“1.
Uccidere il nemico nella guerra a distanza, avvalendosi di sistemi pilotati dall’intelligenza artificiale, può significare – riprendendo le parole dell’articolo – migrare dalle macchine lo spirito umano (la nostra ragione, sensibilità, affettività, senso di responsabilità) fino a concepire i dispositivi tecnologici, i sistemi d’arma, come entità completamente automatiche, tese a emanciparsi da qualsiasi forma di gestione e di controllo da parte degli esseri umani che dovrebbero governarli.
I sistemi d’arma ‘intelligenti’ diventano feticci divinizzati delle proiezioni di onnipotenza, nuovo idolo in cui racchiudere attese salvifiche. Da sempre la retorica della guerra si è avvalsa dell’introiezione, a livello dell’inconscio collettivo, della dinamica onnipotenza-impotenza, fomentando il senso di persecuzione evocato dai nemici e, al tempo stesso, il senso di supremazia proiettato su armi che rendono imbattibili. Negli attuali contesti di guerra, la crescente implementazione delle potenzialità operative di armi letali pilotate dall’intelligenza artificiale, permette ai comandi militari di attribuire a tali strumenti una valenza simbolica onnipotente, tale da renderli capaci di esteriorizzare gran parte dell’esperienza tattica, trasferita dalla soggettività umana a un’intelligenza “altra”, inorganica, meccanica, computazionale, capace di risultare invincibile secondo l’amplificazione fantasmatica, la volontà di potenza espressa dalla contemporanea retorica militare. La definizione di ‘intelligenza artificiale’ vista come “la capacità delle macchine di eseguire compiti che normalmente richiedono l’intelligenza umana” data dal Dipartimento della Difesa USA, conferma questa linea interpretativa.
Nelle guerre dell’AI il processo di artificializzazione dell’immaginario tende a intensificarsi nei vissuti, nelle scelte dei comandi militari e dei soldati, che intrattengono con gli strumenti tecnologici un rapporto di stretta identificazione e dipendenza. Una ibridazione, dove la potenza tecnologica dei sistemi d’arma, la loro esattezza e velocità, sono valorizzati perché capaci di incrementare in maniera esponenziale le tattiche di attacco e difesa. Che questo slittamento verso l’automatismo della efficacia bellica avvenga a spese del senso di libertà e padronanza soggettive, può essere vissuto non come una perdita, ma anche come una liberazione, come un processo deresponsabilizzante rispetto alla propria presa di coscienza, alla consapevolezza delle sofferenze e delle morti inflitte e subite. Un esempio può essere visto nel programma di intelligenza artificiale Lavender, un sistema utilizzato dall’esercito israeliano che, da un enorme database di informazioni, estrae liste di individui i quali, per determinati comportamenti e frequentazioni, potrebbero essere miliziani di Hamas. Sottopone quindi a sorveglianza continua, ancora più stretta, centinaia di persone sospette. Una volta che il programma Lavender decide secondo i propri algoritmi che determinate persone potrebbero effettivamente essere miliziani di Hamas, li qualifica come obbiettivi: vengono prese di mira per essere uccise, con bombardamenti che coinvolgono le loro famiglie e qualsiasi altro civile presente nello stesso edificio, tramite ordini di attacco e procedure messe in atto senza verificare i criteri e le informazioni in base ai quali la macchina opera le proprie scelte.
L’irrazionalità nichilistica della guerra, la sua terrificante spinta distruttiva e autodistruttiva inconscia, sembrano così trovare nei sistemi d’arma abilitati dall’intelligenza artificiale la loro esatta rappresentazione funzionale, tradotta in catene di causa-effetto simmetriche, capaci di offrire al conflitto armato la soluzione ‘ottimale’, quella più rapida possibile.
Tale tipo di aggiornamento tecnologico è considerato ormai fondamentale per garantire l’egemonia militare degna di una grande potenza. Riprendendo le parole di Vladimir Putin, “chiunque diventi leader dell’AI dominerà il mondo”.
È questa visione che si sta imponendo oggi in Europa, con la velocità tipica del contagio psichico inconscio, dove da una politica fondata su processi di negoziazione, di mediazione diplomatica, si deve passare, secondo questa prospettiva bellicista, a una politica centrata su un livello di riarmo tale da garantire la difesa dalle mire espansionistiche della Russia che non si fermano più all’Ucraina, ma minacciano la nostra sicurezza, la nostra stabilità, stravolgendo gli assetti strategici mondiali. Un’azione di difesa preventiva che deve bloccare la pressione russa sul fianco orientale della NATO – Lettonia e Finlandia – rispetto alla quale non contano le trattative diplomatiche possibili.
Come afferma la frase più volte ripetuta dal Presidente del Consiglio europeo Charles Michel: “Bisogna prepararsi alla guerra per avere la pace”. La supposta difesa della pace, nella rinnovata retorica bellicista europea, deve coincidere con un addestramento militare tecnologico rivolto ai giovani, anche alle donne, ma sopratutto con un incremento della spesa militare per i nuovi sistemi d’arma, visti come investimenti necessari per garantire gli assetti di sicurezza e stabilità strategica futura.
In questo scenario storico è importante ribadire i rischi che il soluzionismo tecnologico può comportare nei processi di interrogazione psichica e politica, sempre, ma sopratutto nei contesti di guerra, là dove si attua una delega che svuota di senso le domande di conoscenza e di legittimità, la consapevolezza della propria responsabilità, la ricerca di alternative di convivenza e di pace. Prospettive che sono paralizzate dai vissuti di passività, di estraneità emotiva e cognitiva, che si realizzano quando il confronto con la guerra, la morte, la distruzione, le sofferenze, passa attraverso le macchine elettroniche e il loro automatismo: le tematiche relative alle convenienze strategiche di “sicurezza” e di “supremazia” prendono il posto di considerazioni e priorità legate al senso della reciproca tutela, sostituendosi alla legislazione internazionale umanitaria, alla ricerca di mediazioni diplomatiche di pace fra i contendenti, alla ricerca di confronto con le reciproche istanze di vendetta – fanatismo, razzismo – rinunciando quindi a cercare di costruire alleanze, gruppi di dialogo e di azione interculturali e interreligiosi.
Senza un processo di interrogazione autocritica sull’uso della forza intesa come istanza sadica di sopraffazione e dominio, senza lo sviluppo di una adeguata consapevolezza storica dei crimini di guerra compiuti, senza una elaborazione condivisa a livello comunitario, il trauma epocale legato alle violenze, umiliazioni, sofferenze, mutilazioni agite o subite, e alla devastazione della vita quotidiana, rischia di non essere accompagnato dalla trasmissione consapevole degli avvenimenti e degli stati affettivi originari che li hanno suscitati: il trauma collettivo viene dimenticato o alterato. Una terrificante eredità inconscia si trasmette così di generazione in generazione, facendo sanguinare la storia, perpetuando i vissuti di angoscia e di odio, chiudendo il divenire delle nuove generazioni in un circolo ricorsivo di ritorsioni e vendette, di guerre senza fine.
Nota
1 “I droni armati una nuova minaccia per l’umanità” in Nomberto Bobbio, La guerra e la pace, 2001.
Qui il PDF
Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *
Nome *
Email *
Sito web
Do il mio consenso affinché un cookie salvi i miei dati (nome, email, sito web) per il prossimo commento.