Negli ultimi anni si assiste a crescenti pressioni per dare il via libera a sistemi di combattimento interamente automatizzati, noti come armi letali autonomi o ‘robot killer’. Esperti di intelligenza artificiale e robotica e organizzazioni non governative di tutto il mondo – Human Rights Watch e Stop Killer Robots in testa – si stanno opponendo strenuamente alla loro introduzione ma le Nazioni Unite sino ad ora non hanno adottato una posizione chiara al riguardo. La pandemia da coronavirus rischia di accrescere le tensioni già esistenti fra le potenze mondiali esistenti ed emergenti; è chiaro al contempo che, una volta scoppiata una guerra in cui si impieghino robot killer, la spirale delle ritorsioni diventerebbe incontrollabile. Conseguentemente, raggiungere un consenso sull’illegalità e sull’immoralità delle armi letali autonome non è mai stato così importante. Eppure, in tanti continuano a sostenere che sia possibile sviluppare robot killer che siano in grado di rispettare i diritti umani e i principi dell’etica. La retorica dell’intelligenza artificiale ‘etica’, da questo punto di vista, rischia di essere un pericoloso strumento ideologico che può essere sfruttato affinché applicazioni immorali dell’intelligenza artificiale – di cui i robot killer sono paradigma – possano essere implementate in uno spazio giuridico vuoto e in un contesto di inconsapevole accettazione sociale.
Qui le slide della relazione di Guido Noto La Diega
Qui il video “Slaughterbots” di Stop Autonomous Weapons, mostrato in apertura del webinar
Ordine degli interventi:
[…] Il volume affronta la questione delle armi semi-autonome (droni) e autonome (i cosiddetti robot-killer) ai quali il CRS ha già dedicato un seminario nel novembre 2020 (https://centroriformastato.it/letica-dei-robot-killer-sviluppi-caratteristiche-e-conseguenze-della-g…
[…]