Webzine di Tecnica e Società
 

Robot killer? Una minaccia per l’umanità

I robot killer non sono stati ancora creati ma potrebbero materializzarsi presto davanti ai nostri occhi. L’idea che possano essere realizzate macchine robotiche stile Terminator fa rabbrividire e perciò migliaia di scienziati e ricercatori, anche italiani, chiedono senza mezzi termini all’Onu il divieto preventivo delle armi completamente autonome (lethal autonomous weapons systems – LAWS), in grado di selezionare e attaccare gli obiettivi senza intervento umano.

«È questione di anni non di decenni per rendere possibile lo sviluppo di questi sistemi» – si legge in una lettera presentata durante la “International Joint Conference on Artificial Intelligence” di Buenos Aires, e sottoscritta da personalità del calibro di Stephen Hawking, Elon Musk, Noam Chomsky, Steve Wozniack.

Sono i progressi dell’Intelligenza artificiale, che trova applicazione anche nel settore militare, ad allarmare gli scienziati : sono così rapidi da far giudicare la minaccia della proliferazione di macchine robotiche distruttive come imminente.

Terminator arriva all’Onu

Il problema dei robot killer è stato portato all’attenzione delle Nazioni Unite già da qualche anno grazie a Human Rights Watch (HRW) che nel 2012, per sensibilizzare l’opinione pubblica e le autorità internazionali, ha diffuso il documento “Losing Humanity. The Case against Killer Robots”.

In seguito, nel corso del 2013, è stata lanciata su scala globale la campagna “Stop killer robots” su iniziativa di HRW, in collaborazione con altre organizzazioni non governative.

Finalmente, il 15 novembre 2013, le parti della “Convenzione sulla proibizione o la limitazione dell’uso di alcune armi convenzionali che possono produrre effetti traumatici eccessivi o indiscriminati” (CCW) hanno assunto formalmente il tema ‘robot killer’ come argomento di discussione.

Dopo l’ultimo incontro di esperti (aprile 2015), riuniti sotto l’egida delle Nazioni Unite, le parti contraenti della CCW si incontreranno il 12-13 novembre 2015 a Ginevra.

I responsabili della campagna “Stop killer robots” premono perché in questa occasione sia avviato un percorso formale per l’adozione di un nuovo Protocollo aggiuntivo (VI) alla CCW che riguardi specificatamente la proibizione degli armamenti LAWS.

Amnesty International chiede, tuttavia, di estendere il bando dei robot killer oltre la CCW, che si applica in caso di guerra fra Stati ma non alle situazioni “di tensione e di disordini interni, come le sommosse, atti di violenza isolati e sporadici e altri atti di carattere similare che non si possono qualificare come conflitti armati”. Il divieto preventivo dovrebbe essere pienamente operativo anche in caso di operazioni di polizia.

D’altro canto, gli scienziati firmatari della lettera rivolta all’Onu, invocano, nell’ambito della disciplina giuridica deiconflitti armati internazionali, i precedenti della proibizione preventiva di determinati mezzi di distruzione come i laser accecanti (1995).

Armi robotiche sempre più autonome

Non è ancora chiaro quale sarà l’esito del confronto in sede Onu ma per ora nessun paese ha tradotto in legge a livello nazionale l’idea di Christof Heyns, Relatore speciale delle Nazioni Unite sulle esecuzioni extragiudiziarie, sommarie e arbitrarie, che ha proposto una moratoria sull’uso delle armi completamente autonome. Alcuni Stati come Bolivia, Cuba, Ecuador, Egitto, Ghana, Vaticano e Pakistan sostengono esplicitamente la proibizione dei robot killer. Francia e Gran Bretagna, contemporaneamente, dichiarano di essere contrari alla loro produzione e impiego anche se non sono d’accordo a vietare questo tipo di armi.

Una posizione più favorevole ai robot killer è stata espressa, invece, da Stati Uniti e Israele, paesi in prima linea nello sviluppo di armi intelligenti, sempre più micidiali e dotate di sempre maggiore autonomia.

Negli Usa, sin dal 2011, si prevede la possibilità di ridurre progressivamente il controllo umano sui sistemi militari (aerei, terrestri e navali) senza pilota. L’obiettivo è quello della “full autonomy”, che nel campo dei droni militari, viene attribuita a quei mezzi in grado di avere una propria capacità decisionale.

Secondo Stuart Russel, docente di informatica alla University of California, Berkley, due programmi della Darpa, agenzia governativa del Dipartimento della Difesa Usa incaricata dello sviluppo di nuove tecnologie militari, comprendono un utilizzo programmato delle armi LAWS. Nel caso di Fast Lightweight Autonomy, si tratta di un progetto di una nuova generazione di micro-droni in grado di volare ad alta velocità in aree urbane e all’interno di edifici, senza controllo da remoto, avendo quindi il potenziale per colpire dovunque gli obiettivi. Mentre il secondo programma Collaborative Operations in Denied Environment (CODE) prevede la realizzazione di uno stormo di robot autonomi che agiscono in territorio nemico per cercare, identificare e colpire il bersaglio anche quando la comunicazione con i comandi militari umani risulta impossibile.

Ma tecnologia militare con un alto livello di autonomia è stata sviluppata anche da altri paesi. In Gran Bretagna, BAE Systems ha creato Taranis, un’evoluzione di drone da combattimento. Cina e Russia hanno testato gli aerei senza pilota Dark Sword e Skat, mentre Israele ha ideato il veicolo da guerra robotico Guardium e più di recente, in Corea del Sud è stata prodotta la torretta Super aEgis II che utilizza la tecnologia di thermal imaging per agganciare e fare fuoco sul bersaglio, potenzialmente senza bisogno di intervento umano.

Attacco ai diritti umani

HRW e Amnesty International ritengono che i robot killer siano incompatibili con il diritto internazionale dei diritti umani e il diritto dei conflitti armati.

Uno degli aspetti su cui verte la critica ai LAWS è sul ruolo umano che sarebbe determinante per ottemperare alle norme previste dal diritto internazionale in materia di diritto bellico e diritti umani. L’applicazione di queste regole può essere complessa e richiede il giudizio umano. La distinzione tra combattenti e non combattenti è un principio fondamentale del diritto internazionale umanitario che, per Noel Sharkey, docente di Intelliggenza Artificiale e Robotica presso l’Università di Sheffield, le armi robotiche, anche le più avanzate, non sono in grado di rispettare considerando la loro insufficiente dotazione tecnologica.

Di più, secondo i critici, i robot killer potrebbero incoraggiare l’uso della forza da parte di chi ne è in possesso poiché le proprie truppe non si troverebbero ad affrontare pericolo di morte o di lesioni con conseguente spostamento dell’impatto dalle vittime combattenti alle vittime civili.

Lo stesse obiezioni valgono per la proporzionalità nell’uso della forza durante il conflitto che rinvia ad una capacità di valutazione tipica degli esseri umani, decisiva per il rispetto anche della “clausola Martens”. D’altra parte, a chi andrebbe attibuita la responsabilità in caso di illecito perpetrato sul campo da una macchina?

Ancora più gravi, però, sono i problemi che i robot killer possono determinare sul piano dei diritti umani.

Un eventuale impiego di questi mezzi minaccerebbe direttamente il diritto alla vita, sancito dalla Dichiarazione Universale dei diritti umani, del quale un individuo non può essere privato arbitrariamente. Come sottolinea Christof Heyns, decisioni concernenti la vita o la morte nei conflitti armati implicano qualità squisitamente umane, come compassione e intuito, che i robot non possiedono.

Ma le violazioni potrebbero interessare anche il diritto alla sicurezza o alla libertà di espressione, di riunione e associazione pacifica perché le LAWS potrebbero essere utilizzate dagli Stati contro nemici interni o per terrorizzare la popolazione del paese. Un poliziotto potrebbe ribellarsi ad un ordine illegale del comandante, così come un soldato ad un colpo di Stato, ma un robot killer?

Post Tags
Condividi post
Nessun commento

Lascia un commento