Negli ultimi anni si assiste a crescenti pressioni per dare il via libera a sistemi di combattimento interamente automatizzati, noti come armi letali autonomi o ‘robot killer’. Esperti di intelligenza artificiale e robotica e organizzazioni non governative di tutto il mondo – Human Rights Watch e Stop Killer Robots in testa – si stanno opponendo strenuamente alla loro introduzione ma le Nazioni Unite sino ad ora non hanno adottato una posizione chiara al riguardo. La pandemia da coronavirus rischia di accrescere le tensioni già esistenti fra le potenze mondiali esistenti ed emergenti; è chiaro al contempo che, una volta scoppiata una guerra in cui si impieghino robot killer, la spirale delle ritorsioni diventerebbe incontrollabile. Conseguentemente, raggiungere un consenso sull’illegalità e sull’immoralità delle armi letali autonome non è mai stato così importante. Eppure, in tanti continuano a sostenere che sia possibile sviluppare robot killer che siano in grado di rispettare i diritti umani e i principi dell’etica. La retorica dell’intelligenza artificiale ‘etica’, da questo punto di vista, rischia di essere un pericoloso strumento ideologico che può essere sfruttato affinché applicazioni immorali dell’intelligenza artificiale – di cui i robot killer sono paradigma – possano essere implementate in uno spazio giuridico vuoto e in un contesto di inconsapevole accettazione sociale.
Qui il PDF della locandina
Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *
Nome *
Email *
Sito web
Do il mio consenso affinché un cookie salvi i miei dati (nome, email, sito web) per il prossimo commento.