Questo articolo è stato pubblicato da questo sito
Le nuove tecnologie applicate in ambito militare ci stanno portando sempre più vicini alla creazione di macchine in grado di decidere chi uccidere e cosa distruggere, senza un significativo controllo umano. Per questo il segretario generale delle Nazioni Unite, Antonio Guterres, ha esortato i leader mondiali ad adottare un trattato che vieti i cosiddetti robot killer, le armi letali autonome, entro il 2026, così da impedire il loro uso in in operazioni di polizia o in guerra.
“Le macchine che hanno il potere e la discrezionalità di uccidere esseri umani sono politicamente inaccettabili, moralmente ripugnanti e dovrebbero essere vietate dalla legge internazionale” ha ribadito Guterres, per sottolineare i problemi umanitari, legali, di sicurezza ed etici posti dai robot killer.
Appello condiviso da migliaia di esperti, scienziati, 26 premi Nobel, Amnesty international, Human rights watch, il Comitato internazionale della Croce rossa, la Rete italiana pace e disarmo e tante altre realtà della società civile internazionale riunite nella campagna Stop killer robots. L’obiettivo, raccolto dalle Nazioni Unite, è la creazione di una norma internazionale che sancisca per sempre l’obbligo di un controllo umano significativo sull’uso della forza e quindi il divieto di sviluppare, produrre e usare armi guidate in autonomia dall’intelligenza artificiale.
Il problema fondamentale rientra infatti nell’ambito della responsabilità e del controllo. Una macchina programmata per uccidere o attaccare obiettivi attraverso degli algoritmi sarà sempre soggetta a quei pregiudizi che già oggi sono alla base di molti divieti, come quelli contenuti nell‘Ai Act dell’Unione europea, per l’uso delle intelligenze artificiali in ambito civile.
E al contrario di un operatore umano, un algoritmo non è in grado di riflettere sugli aspetti legali, formulare valutazioni etiche, chiedere consiglio o avere informazioni sufficienti sulla situazione sul campo e prendere una decisione ponderata e informata. L’algoritmo esegue e basta, mettendo ancora in maggiore pericolo la popolazione civile. In più, un algoritmo non è legalmente responsabile e non può essere accusato di crimini di guerra.
E dato che gli sviluppi tecnologici non aspettano, la scadenza posta da Guterres risulta fondamentale per costringere gli Stati a prendere posizione e accelerare l’iter normativo, così da spingerli a produrre una risoluzione a riguardo già in occasione del Summit for future, previsto nel 2024.
Al momento, segnala la Rete italiana pace e disarmo, circa 90 paesi hanno già preso posizione a favore di uno strumento giuridico che regoli l’uso di armi autonome. Tuttavia, i negoziati stanno venendo bloccati da una minoranza di stati militarizzati, tra cui Corea del Sud, Stati Uniti, Israele e Francia, a causa dei pesanti investimenti già versati nello sviluppo di armi autonome. La speranza è che l’appello di Guterres possa servire a invertire questa tendenza e portare al più presto gli stati a vietare l’impiego di robot killer.