di Roberta Gisotti
Grave preoccupazione di fronte allo sviluppo ed impiego di armi automatizzate autonome, ha espresso mons. Ivan Jurkovic, Osservatore permanente della Santa Sede, presso le Nazioni Unite e altre Organizzazioni internazionali a Ginevra, intervenuto ieri in apertura dei lavori del Gruppo di esperti sui Sistemi d’arma autonomi letali (Laws) - cosidetti robot o droni militari - riunito nella città elvetica fino al 17 novembre.
Se “la capacità tecnologica - ha osservato il presule - inevitabilmente ha anche un impatto sulle armi e sulla natura dei conflitti”, è vero pure che “il suo rapido sviluppo ha spesso superato la responsabilità umana, i valori, la coscienza e le legge umanitaria internazionale.” “L’esperienza storica dei regolamenti o proibizioni di certe armi illustra al meglio questa realtà”, ha aggiunto il rappresentante vaticano, per cui “tragicamente - ha spiegato - i quadri giuridici internazionali sono arrivati troppo tardi e solo dopo che immani tragedie erano accadute”.
Prevenire i rischi prima che sia tardi
Da qui il monito di mons. Jurkovic per “un cauto approccio preventivo” verso “le emergenti
tecnologie nel campo dei sistemi di armi letali autonome”, per “sfuggire” alla “stessa
irrazionale tendenza al ritardo”. “La condotta delle operazioni militari è una materia
seria”, ha sottolineato il presule, ed “ogni intervento armato deve essere attentamente
considerato e verificata sempre la sua legittimità, legalità e conformità con suoi
propositi, che devono anche essere legittimati sia eticamente che legalmente”. Quindi
un appello: “I rischi sono troppi e le conseguenze così profonde e di ampia portata
per essere ignorati”.
Imprevedibilità delle azioni oltre regole e scelte etiche
Si è poi soffermato, l’Osservatore della Santa Sede, sui maggiori rischi. Anzitutto,
una “certa imprevedibilità di azioni”, che necessariamente richiede un sistema di
armi autonome, che potrebbe ‘deviare’ verso obiettivi civili per massimizzare interessi
militari. “Decisioni legali ed etiche spesso richiedono – ha richiamato mons Jurkovic
– un’interpretazione delle regole per salvare lo spirito delle stesse regole. Una
macchina non può mai essere capace di svolgere questi compiti”.
Occultamento responsabilità dietro schermo d’ipocrisia
C’è poi “il rischio di nascondere la vera responsabilità e la mancanza di attendibilità”.
Infatti, ha denunciato mons, Jurcovic, “nell’uso delle armai letali autonome c’è un
certo grado di ipocrisia”: ovvero “causare effetti o danni letali senza dare l’impressione
di essere personalmente impegnati. I robot autonomi creano ‘un vero schermo tecnologico’
che può rimuovere la causa e l’effetto di un atto di guerra”. Allora, “in caso di
danni collaterali sarà facile incolpare un malfunzionamento di una macchina o provare
a diminuire la responsabilità dell’autorità”. Cosicché “la scomparsa o l’occultamento
dell’agente umano è problematico” – ha constatato il delegato della Santa Sede - non
solo sul piano etico ma anche giuridico.
Spirale della proliferazione in mani irresponsabili
Infine c’è il rischio di proliferazione di una nuova specie di armi che indurrà, come
nel caso della deterrenza nucleare, una spirale viziosa della corsa agli armamenti
a lungo termine, con una pericolosa instabilità globale. L’informazione sulla tecnologia
robotica - ha dichiarato il presule - è oggi facilmente disponibile e la sua implementazione
sempre più alla portata di molti, con il rischio che tali armi cadano nelle mani di
“irresponsabili attori non statali”. Si può inoltre “immaginare come sarebbe più facile
giustificare a livello nazionale la perdita di un robot piuttosto che di un soldato".
Pace e perdono partono dal cuore dell’uomo
“Per limitare la disumanità della guerra, per quanto sia possibile - ha concluso mons.
Jurkovic - è importante preservare, nel cuore delle tragedie dei conflitti armati,
il ruolo cruciale della coscienza e responsabilità degli agenti umani. In particolare,
nella dinamica della riconciliazione e del ritorno alla pace, solo la persona umana
è e sempre sarà il soggetto capace del perdono. L’inventiva e l’originalità del persona
umana non possono essere soggetti di alcuna formalizzazione, né algoritmicamente né
legalmente".
All the contents on this site are copyrighted ©. |