lunedì, Giugno 24, 2024

Lavender, cos'è l'intelligenza artificiale usata da Israele per colpire i palestinesi

Must Read

Questo articolo è stato pubblicato da questo sito

Israele ha contrassegnato più di 37mila palestinesi come obiettivi militari, usando un sistema di intelligenza artificiale noto come Lavender, sottoposto a poca supervisione umana e, a quanto emerge dai resoconti della rivista indipendente israelo-palestinese +972, da una una politica estremamente permissiva e non proporzionata per le vittime collaterali. In sostanza, secondo quanto raccontato da sei componenti dei servizi segreti israeliani, Lavender è un database utilizzato per incrociare le informazioni relative a persone ritenute vicine alle milizie palestinesi. Non sarebbe, a detta delle fonti, un elenco di miliziani confermati, tuttavia è stato usato per decidere gli obiettivi da bombardare. Con conseguenze anche sui civili. Il processo di autorizzare a colpire i target segnalati dall’AI stabilisce che sia accettabile un numero tra 15 e 20 vittime collaterali per ogni miliziano di Hamas o della Jihad islamica palestinese ucciso e fino a 100 vittime civili collaterali per ogni alto funzionario colpito.

Come è stato usato Lavender

Il report di +972, condotto assieme al giornale di lingua ebraica Local Call e riportato dal Guardian, si basa sulle testimonianze dirette di sei membri dei servizi segreti israeliani, conosciuti come unità 8200, che hanno sviluppato e usato Lavender. Secondo il racconto, gli operatori impiegano 20 secondi per approvare ogni obiettivo indicato dal sistema di intelligenza artificiale. In particolare, Lavender è stato usato per identificare target considerati di “basso rango”.

L’uso di Lavender, inoltre, avrebbe modificato i processi di autorizzazione all’attacco, specie nel caso delle vittime civili ritenute “accettabili”. Secondo quanto riferito dal Guardian, prima dell’attacco di Hamas del 7 ottobre, l’identificazione degli obiettivi richiedeva l’approvazione di un consulente legale, prima di poter ordinare l’attacco. Dopo, a detta delle fonti, l’esercito israeliano ha allentato questo sistema, usando pre-autorizzazioni e chiedendo un flusso continuo di obiettivi. Le fonti sentite da +972 hanno raccontato di aver subito una pressione costante: “Ci dicevano: ora dobbiamo distruggere Hamas, a qualunque costo. Bombardate tutto quello che potete”.

Le bombe “mute”

I dettagli relativi ai dati per addestrare l’algoritmo di Lavender o su come il programma arrivi a identificare gli obiettivi non sono stati inclusi nei report di +972 o Local Call e non sono stati svelati dalle fonti. Che invece hanno spiegato che l’esercito di Tel Aviv fa ricorso alle cosiddette bombe “mute”, cioè munizioni non intelligenti e non guidate, che causano un alto numero di vittime innocenti, perché puntano a distruggere completamente gli edifici in cui potrebbero trovarsi gli obiettivi militari.

“Non si vogliono sprecare bombe costose per persone non importanti”, ha raccontato a +972 un ufficiale dell’intelligence israeliana. Inoltre, la stessa fonte ha confermato come l’esercito israeliano preferisca attaccare i miliziani di basso rango quando si trovano a casa. In questo caso il riferimento è a Gospel, un altro sistema di AI che Tel Aviv usa per etichettare come target militari edifici e strutture.

Le vittime civili

Secondo i dati delle Nazioni Unite, solo nel primo mese di guerra 1.340 famiglie palestinesi hanno subito perdite multiple. Si contano 312 famiglie che hanno perso più di 10 membri. Negli ultimi sei mesi sono state uccise più di 33mila persone, quasi quante quelle identificate da Lavander come obiettivi militari, ma di queste più di 12mila erano minori. Oltre a loro, Israele ha ucciso anche 95 giornalisti, secondo i dati del Comittee to protect journalist, e almeno 196 operatori umanitari, come riporta la Bbc.

Gli esperti di diritto internazionale intervistati dal Guardian sul tema hanno criticato il sistema di pre-autorizzazioni usato da Israele, sostenendo che i militari debbano valutare la proporzionalità per ogni singolo attacco e di non aver mai sentito parlare di un rapporto di uno a 15 o più come accettabile, specialmente per i combattenti di basso livello.

- Advertisement -spot_img
- Advertisement -spot_img
Latest News

Meta e non solo, come impedire alle big tech di addestrare l’intelligenza artificiale con i nostri dati

Un ulteriore motivo per opporci potrebbe essere, semplicemente, che non vogliamo che i nostri dati vengano utilizzati. Senza bisogno...
- Advertisement -spot_img

More Articles Like This

- Advertisement -spot_img