Secondo diverse fonti, non confermate, nella guerra in Ucraina sarebbero impiegate armi robotiche di recente sviluppo, sistemi d’arma controllati da intelligenza artificiale e coordinati con diversi altri armamenti e comandi.
I sistemi d’arma autonomi sono robot dotati di armi letali che possono operare in modo indipendente, selezionando e attaccando obiettivi anche senza la decisione di un umano, grazie al controllo di una intelligenza artificiale. In tutto il mondo, forze armate stanno investendo molto nella ricerca e sviluppo di armi autonome; gli Stati Uniti hanno stanziato 18 miliardi di dollari per le armi autonome tra il 2016 e il 2020. Ma molte altre Nazioni producono armi autonome, tra queste la Cina e la Turchia.
Fondato nel 2012, il movimento Stop Killer Robots ha come obiettivo il bando delle armi autonome. Il loro approccio è: “Meno autonomia. Più umanità”. La loro descrizione del problema posto dalle armi autonome è di carattere generale:
“La tecnologia dovrebbe essere usata per dare potere a tutte le persone, non per ridurci – a stereotipi, etichette, oggetti, o solo un modello di 1 e 0. Con la crescente disumanizzazione digitale, la coalizione Stop Killer Robots lavora per garantire il controllo umano nell’uso della forza. La nostra campagna chiede una nuova legge internazionale sull’autonomia nei sistemi d’arma.”
Già nel 2002 il robotico e Presidente onorario di Scuola di Robotica, Gianmarco Veruggio, fondatore della Roboetica, aveva identificato il problema dell’impiego di robot militari come una gravissima violazione dei diritti umani e aveva chiesto un bando alla cessione della “licenza di uccidere” alle armi autonome. Durante il Primo Simposio Internazionale sulla Roboetica, nel gennaio del 2004, Veruggio intervenne con un appello:
“I robot militari sono già utilizzati in combattimento e miliardi di dollari sono spesi da oltre quaranta nazioni del mondo per lo sviluppo di macchine belliche sempre più micidiali. Si tratta di un fenomeno di enorme portata, che sta avvenendo all’insaputa del grande pubblico e che viene al più descritto come una normale, persino benefica, evoluzione tecnologica, nonostante molti esperti mettano in guardia sui problemi impliciti ai robot militari e sul fatto che questi possono violare le convenzioni di Ginevra e le leggi di guerra vigenti. A monte di tutte queste problematiche tecniche e legali, occorre sottolineare una ineludibile questione etica di principio: se sia cioè umanamente ammissibile concedere ad un’entità autonoma non umana la licenza di uccidere un essere umano. Io credo che l’umanità dovrebbe essere informata e messa nelle condizioni di decidere consapevolmente su questioni che coinvolgono in modo così profondo aspetti fondamentali per la sopravvivenza della nostra specie. Sarebbe folle non aver appreso nulla dall’esperienza delle armi nucleari o dalle problematiche ambientali planetarie”.
Interrotte le discussioni sulla Convenzione dell’ONU su Certain Conventional Weapons
A seguito di diverse campagne per Stop Killer Robots e dell’intervento di Commissioni dell’ONU sull’impiego di robot in teatri di guerra, alla fine del 2021 i delegati delle Nazioni ONU si sono incontrati nuovamente a Ginevra nell’ambito della Convenzione delle Nazioni Unite su Certain Conventional Weapons per discutere le questioni sollevate dalle armi autonome e proporre nuovi trattati vincolanti. Il processo dell’approvazione di modifiche o l’introduzione di nuove Convenzioni richiede che tutti gli stati membri raggiungano il consenso su ogni punto. Diverse Nazioni non hanno approvato il bando alle armi autonome e la settimana scorsa le discussioni sono state sospese. La Washington Post dell’11 marzo 2022 riporta che il delegato russo, adducendo motivi procedurali, ha chiesto che l’incontro fosse sciolto, provocando denunce da parte dell’Ucraina e di molti altri. Ovviamente, la guerra guerreggiata in Ucraina è entrata nel dibattito sulla Convenzione stravolgendo le discussioni.
Armi autonome in Ucraina
Il 12 marzo scorso, sulla app di messaggistica Telegram sono comparse immagini dall’Ucraina che mostrano la struttura accartocciata di un velivolo che diversi analisti hanno identificato come il nuovo drone di fabbricazione russa, il Kalashnikov ZALA Aero, detto KUB-BLA. Secondo l’organizzazione olandese Pax for Peace, che a sua volta cita la rivista specializzata Jane’s International Defence Review, il drone, grazie all’IA, può rilevare autonomamente le coordinate di un obiettivo che è stato indicato attraverso la sola immagine caricata. Non è dato sapere se il drone sia stato effettivamente impiegato in Ucraina, e se sì, se lo sia stato in modo autonomo.
Il KUB-BLA non sarebbe comunque la prima arma autonoma dotata di AI a essere impiegata in combattimento. Nel 2020, durante il conflitto in Libia, il gruppo di esperti istituito a seguito della risoluzione 1973 (2011) dell’ONU ha riferito in uno specifico Rapporto di aver identificato il drone Kargu-2 prodotto in Turchia che colpiva a distanza convogli logistici e forze in ritirata. Il governo turco ha negato che il Kargu-2 sia stato usato autonomamente.
In queste ore, le notizie dall’Ucraina sono non solo frammentarie, sono spesso distorte dalla campagna di disinformazione messa in atto in modo massiccio da tutte le parti.
Anche se la notizia non fosse confermata, la terribile logica della corsa agli armamenti autonomi ci insegna che se una parte, o più parti, in guerra, dispongono di un’arma superiore, la useranno.
A questo proposito, sempre Veruggio ha fin dall’inizio messo in guardia nei confronti dell’illusione che sia possibile governare il comportamento dei robot killer autonomi mediante una opportuna programmazione che ne impedisse impieghi contrari, ad esempio, alle regole di ingaggio permesse dalla Convenzione di Ginevra. Un’illusione mutuata dalla fantascienza, dalle famose tre leggi della robotica di Asimov, che è tale sia per un’impossibilità meramente tecnologica di sviluppare sistemi di AI sufficientemente evoluti da garantire un funzionamento adeguato in ambiente non strutturato ed ostile, unitamente all’impossibilità di prevedere il comportamento di robot dotati di apprendimento e autonomia, ma anche perché è evidente che in un conflitto di vita o di morte, chiunque si trovasse nell’imminenza della sconfitta disattiverebbe ogni limitazione per tentare di sovvertire l’esito dello scontro. Come peraltro avverrebbe nel caso di un conflitto nucleare.
Risorse
Movimento Stop Killer Robots: https://www.stopkillerrobots.org/
Report of the 2018 session of the Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons Systems:
https://reachingcriticalwill.org/images/documents/Disarmament-fora/ccw/2018/gge/documents/final-report.pdf
https://www.wired.com/story/ai-drones-russia-ukraine/
Nell’immagine di copertina: un momento delle manifestazioni del Gruppo Stop Killer robots nel mondo