fbpx I pericoli dei killer robot | Science in the net

I pericoli dei killer robot

MQ-9 Reaper in volo, 2007. Credit: U.S. Air Force photo/Staff Sgt. Brian Ferguson / Wikimedia Commons. Licenza: Public Domain.

Read time: 8 mins

Lo scorso 21 agosto a Melbourne, durante lo svolgimento del più importante congresso internazionale nel campo dell’intelligenza artificiale (IJCAI - International Joint Conference on Artificial Intelligence), più di cento imprenditori attivi nel campo della robotica e dell’intelligenza artificiale (IA), inclusa la “tech-star” Elon Musk, hanno rivolto un forte appello alla comunità internazionale degli Stati affinché si adoperino per proteggere l’umanità dai pericoli posti dallo sviluppo delle cosiddette “armi autonome” (per un primo commento, si veda l’articolo di Rino Falcone, Ad un passo dall’abisso delle guerre “intelligenti). Secondo la descrizione che ne fornisce il Dipartimento della Difesa degli Stati Uniti, un’arma autonoma è in grado di “selezionare e attaccare un obiettivo senza ulteriori interventi da parte di operatori umani”. (Direttiva 3000.09 del 2012, pp. 13-14). A questo scopo le armi autonome si avvalgono delle tecnologie più avanzate sviluppate nei settori della robotica e dell’IA.

La lettera aperta degli imprenditori (d’ora in poi semplicemente la Lettera) è indirizzata agli Stati parte della Convenzione per la proibizione delle armi convenzionali che possono provocare sofferenze eccessive o indiscriminate (nota anche come Convenzione sulle armi disumane o Convenzione sulle armi convenzionali). Gli incontri degli Stati parte della Convenzione - che sono supportati, sotto il profilo amministrativo, dall’Ufficio delle Nazioni Unite per il Disarmo (UNODA) - hanno portato alla firma di vari Protocolli che introducono restrizioni sull’uso di varie armi convenzionali oppure ne sanciscono la loro totale messa al bando, come è avvenuto nel caso dei laser accecanti. Dal 2014 in poi, i lavori nel quadro della Convenzione sulle armi convenzionali si sono concentrati proprio sulle armi autonome.

Conseguenze imprevedibili e destabilizzanti

I redattori della Lettera hanno posto l’accento sulle conseguenze destabilizzanti che deriverebbero dallo sviluppo e dall’impiego di armi autonome. La Lettera richiama infatti la comunità internazionale a scongiurare una nuova “corsa agli armamenti” alimentata dalle armi autonome, a evitare che i conflitti armati raggiungano dimensioni ad oggi sconosciute e siano combattuti “a velocità che gli essere umani non sono in grado di seguire”, sottolineando pure il fatto che le armi autonome possono cadere in mano di “dittatori e terroristi” o essere sabotate e portate ad agire “in modi indesiderati” (si veda, in proposito, l'articolo di Rino Falcone).

Una grave conseguenza destabilizzante delle armi autonome è stata recentemente evidenziata in un documento della sezione britannica delle Conferenze Pugwash. Secondo questo documento, la possibilità che i sottomarini hanno di sfuggire ai rilevamenti verrebbe depotenziata o del tutto annullata dal dispiegamento di mezzi autonomi in grado di pattugliare a tappeto le profondità degli oceani. Poiché la capacità del nemico di rispondere a un attacco nucleare si basa principalmente sull’uso di sottomarini dotati di testate nucleari, le armi autonome potrebbero in questo caso minare gli attuali equilibri militari basati sulla distruzione reciproca assicurata, e cioè sulla possibilità di rispondere a ogni attacco nucleare con il lancio di missili nucleari altrettanto distruttivi.

La Lettera è solo l’ultima di una serie di iniziative della società civile contro le armi autonome. Un appello analogo era stato lanciato - sempre nel quadro dell’IJCAI - nel luglio del 2015, ottenendo il sostegno di circa 20.000 firmatari, tra i quali figurano più di 3.000 ricercatori in robotica e IA. L’occasione per denunciare nuovamente le minacce insite nello sviluppo di sistemi d’arma autonomi, a due anni di distanza, è stata offerta dalla mancata convocazione - per motivi di budget - del primo ciclo di incontri del Gruppo di esperti governativi sulle armi autonome letali, fissata appunto per il 21 agosto (la sessione successiva, che si terrà dal 13 al 17 novembre, è stata invece confermata).

"STOP KILLER ROBOTS"

Sia la Lettera che l’appello del 2015 si inquadrano nel contesto di un dibattito più ampio, che vede impegnati Stati, organizzazioni internazionali, ONG e studiosi sin dal 2012, quando la pubblicazione del Rapporto Losing Humanity della ONG Human Rights Watch ha posto sotto i riflettori la questione della loro legalità ed accettabilità etica, dando avvio alla Campagna per la loro messa al bando “STOP KILLER ROBOTS”. (Per ulteriori informazioni su questa campagna, si veda l’articolo online Per la messa al bando delle armi autonome.)

Cerchiamo ora di capire quale contributo originale la Lettera può fornire alla Campagna per la messa al bando. Per cominciare, vediamo quali elementi della discussione attualmente in corso sul piano internazionale sono stati in essa ripresi e quali invece sono stati tralasciati.

Un primo aspetto da mettere in rilievo è che la Lettera non offre alcuna definizione di “arma autonoma”. Si tratta di una mancanza di non poco conto se si considera che l’assenza di una nozione condivisa di “autonomia” costituisce uno degli ostacoli all’avvio dei negoziati in materia e che, forse, la posizione espressa da un consesso così qualificato avrebbe potuto contribuire a superare questo impasse. Significativamente, l’appello del 2015 si apre proprio con una definizione, che riprende peraltro sia la ricordata formulazione del Dipartimento della Difesa statunitense, sia analoghe definizioni offerte da Human Rights Watch e dal Comitato Internazionale per la Croce Rossa.

Senza più "controllo umano significativo"

Strettamente connesso alla questione definitoria è il requisito del “controllo umano significativo” sui sistemi d’arma, pure assente nella Lettera. L’idea secondo cui tutte le armi dovrebbero essere soggette ad un “controllo umano significativo”, introdotta nel dibattito dall’ONG Article 36, si pone attualmente al centro della riflessione sulle armi autonome e consente di aggirare la difficoltà di condividere una definizione di autonomia. Infatti, una volta stabilito che tutte le armi devono essere soggette ad una determinata forma di controllo umano, che si assume “significativa”, l’eventuale qualificazione di un’arma come autonoma o meno appare del tutto irrilevante. Anche qui, l’appello del 2015 si fa preferire, chiudendosi con un appello per la “messa al bando delle armi autonome offensive che agiscono al di là di un controllo umano significativo”.

Nella Lettera non vi è menzione dei principi etico-giuridici che, secondo i sostenitori del bando, sarebbero incompatibili con lo sviluppo di tale tecnologia, vale a dire i principi di distinzione e proporzionalità nel diritto dei conflitti armati; il principio che impone di contrastare l'impunità per crimini internazionali; il principio della dignità umana.

Il pericolo dei "vuoti di responsabilità"

Iniziamo col considerare i principi di distinzione e proporzionalità. Questi stabiliscono, rispettivamente, l’obbligo di distinguere tra obiettivi civili e militari e di assicurare che eventuali danni ai civili non siano sproporzionati rispetto al vantaggio militare atteso. Entrambi presuppongono capacità percettive e valutative che difficilmente possono essere sviluppate negli attuali sistemi robotici e dell’IA, con la conseguenza che - almeno nel breve e medio periodo - le armi autonome saranno strutturalmente inidonee a rispettarli nella maggior parte dei contesti bellici.

L'uso di armi autonome è poi suscettibile di determinare “vuoti di responsabilità” nel caso in cui siano commessi atti che, se compiuti da un operatore umano, sarebbero qualificabili come crimini internazionali (si pensi, ad esempio, al caso di un drone autonomo che, nel corso di un attacco ad un obiettivo militare, colpisca incidentalmente uno scuolabus, provocando la morte di tutti i passeggeri). La discrezionalità operativa di cui sono dotate, infatti, fa sì che le armi autonome possano agire in modi imprevedibili, soprattutto se utilizzate in ambienti dinamici e poco strutturati (ad es. in un contesto urbano). In ragione di tale imprevedibilità, un'eventuale condotta "criminosa" potrebbe non essere ascrivibile ad alcun individuo, creando così un alone di impunità intorno alle azioni di guerra (o di polizia) realizzate mediante armi autonome.

Contro la dignità umana

Infine, l’assunzione di decisioni letali da parte di entità non umane costituirebbe un affronto alla dignità umana dell’individuo oggetto dell’attacco. Il suo valore intrinseco in quanto essere umano sarebbe negato, perché sarebbe sottoposto a una decisione di vita o di morte da parte di una macchina che non ne condivide la condizione umana e sarebbe privato della possibilità di fare appello all’umanità di qualcuno che si trovi dall’altra parte.

La Lettera, in sintesi, non offre una definizione di "arma autonoma", omette ogni riferimento al requisito del "controllo umano significativo" e, concentrandosi solo sugli effetti destabilizzanti delle armi autonome, offre un quadro molto parziale delle ragioni a sostegno di una loro messa al bando. Essa, dunque, appare piuttosto insoddisfacente sul piano dei contenuti e, forse, non del tutto allineata col dibattito in corso sul piano internazionale. Ciononostante, oltre a un indubbio valore politico, la Lettera può svolgere una, seppur limitata, funzione giuridica.

La Clausola Martens

Per comprendere quest'ultimo passaggio, occorre richiamare un consolidato principio del diritto internazionale dei conflitti armati, noto come Clausola Martens (dal nome del diplomatico e pubblicista russo che la formulò durante la Conferenza di pace dell'Aja del 1899). In base a tale principio (oggi riprodotto nel Preambolo della Convenzione sulle armi convenzionali), in assenza di una disciplina protettiva specifica, "le persone civili e i combattenti restano, in ogni momento, sotto la salvaguardia e l’impero dei principi del diritto internazionale, quali risultano dagli usi stabiliti, dai principi di umanità e dalle esigenze della coscienza pubblica". Come riconosciuto dalla Corte internazionale di giustizia nel Parere sulla liceità della minaccia e dell'uso delle armi nucleari, la Clausola ha rappresentato negli anni "un mezzo efficace per far fronte alla rapida evoluzione della tecnologia militare" (par. 78) evitando il prodursi di lacune normative e vuoti di tutela.

Nella misura in cui esprime, insieme all’appello del 2015, l'opinione di un pubblico altamente qualificato (la comunità di ricercatori e imprenditori nei settori della robotica e dell’AI), la Lettera contribuisce dunque ad orientare "le esigenze della coscienza pubblica" nel senso della messa al bando delle armi autonome. E’ bene chiarire tuttavia che, se pure tale orientamento si consolidasse, questo non determinerebbe ipso facto l'illegalità delle armi autonome. Il diritto internazionale contemporaneo è ben lontano dall'essere una diretta derivazione della coscienza pubblica universale (un concetto, peraltro, difficile da definire in termini precisi). Piuttosto, la contrarietà manifestatasi nella "coscienza pubblica" può rafforzare gli altri argomenti in favore della messa al bando delle armi autonome, offrendo un fattore di spinta in più nel corso dei negoziati, che potrebbe smuovere gli Stati ancora esitanti.

 


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

"We did not do a good job in explaining how flexible biology can be," interview with Frans de Waal

Frans de Waal

Eva Benelli and Anna Romano interview Fran de Waal about his latest book, Different. Gender issues seen through the eyes of a primatologist.

Photo of Catherine Marin

After reviewing Different. Gender issues seen through the eyes of a primatologist, we wanted to have a chat with the author, the primatologist Frans de Waal, to find out what motivated him to deal with gender issues and to get his opinion on research in this and other fields of ethology. Here is our interview.