Backgroound Image

ISRAELE USA L’IA PER SCEGLIERE CHI COLPIRE NELLA STRISCIA DI GAZA

Articolo di Privacy network e Leila Belhadj Mohamed

ISRAELE USA L’IA PER SCEGLIERE CHI COLPIRE NELLA STRISCIA DI GAZA

Dopo “The Gospel”, “Lavender” un’intelligenza artificiale che sceglie chi colpire. L’ultimo episodio del cosiddetto “Palestinian Laboratory”

Il nuovo episodio dell’inchiesta del giornale israeliano +972 Magazine dedicato all’uso dell’intelligenza artificiale generativa nella guerra su Gaza è dedicato al sistema “Lavander”.

“Lavender” ha permesso a Tel Aviv di creare, attraverso la sorveglianza di massa sistemica sui palestinesi, delle vere e proprie liste di persone da uccidere. Lavender è un’intelligenza artificiale generativa che, analizzando un’enorme mole di dati, sarebbe in grado di stilare delle liste di obiettivi umani (aka membri di Hamas e del Jihad). Questa IA viene utilizzata praticamente senza revisione umana – se non 20 sec per controllare il genere del target.

Il software, però, ha un margine di errore del 10%. Nonostante questo, i vertici militari israeliani hanno deciso di affidarsi nelle prime settimane di bombardamenti a questa tecnologia.

La componente aggiuntiva di questo software è “Where is Daddy?”, che avvisa l’esercito israeliano quando i palestinesi presenti nelle sue liste tornano a casa dalle loro famiglie.

L’impiego di Lavander e Where is Daddy? senza una revisione umana, ha portato al sistemico bombardamento di abitazioni della popolazione civile, e non di obiettivi militari.

Secondo i sei ufficiali israeliani direttamente coinvolti nell’uso di questa IA, prima del 7 ottobre i target delle uccisioni mirate nelle proprie abitazioni era solo chi veniva riconosciuto come un alto membro di Hamas o del Jihad Palestinese (PIJ).

Dopo il 7 ottobre, ha deciso di designare tutti gli operatori dell’ala militare di Hamas come obiettivi umani, indipendentemente dal loro grado o dalla loro importanza militare, e questo ha impattato sul numero delle morti.

La maggior parte delle famiglie palestinesi sono multigenerazionali: molte ospitano sotto lo stesso tetto decine di nonni, genitori, fratelli e sorelle cugini e bambini.

Il sistema israeliano di IA stima in modo impreciso il numero di questi civili in una casa. Senza alcuna revisione manuale, Lavendrer usato con Where is Daddy? e The Gospel – che sceglie gli edifici da colpire – ha reso facile l’uccisione di centinaia di famiglie in un istante.

COME SI DIVENTA UN OBIETTIVO?

Lavender analizza le informazioni raccolte sulla maggior parte dei 2,3 milioni di residenti della Striscia di Gaza attraverso un sistema di sorveglianza di massa, poi valuta e classifica la probabilità che ogni persona in particolare sia attiva nell’ala militare di Hamas o PIJ.

Secondo le fonti, la macchina assegna a quasi ogni singola persona di Gaza un punteggio da 1 a 100, esprimendo la probabilità che sia un militante. Il software impara a identificare le caratteristiche degli operativi noti di Hamas e PIJ, le cui informazioni sono state usate per addestrare l’IA, e poi a individuare queste stesse caratteristiche tra la popolazione generale.

Un individuo che presenta diverse caratteristiche incriminanti raggiunge un punteggio elevato e diventa automaticamente un potenziale bersaglio del bombardamento.

Secondo le fonti, per consentire una produzione di obiettivi di massa e per risparmiare tempo, non veniva effettuata una revisione umana, nonostante la consapevolezza del 10% di errore.

Lavender ha segalato erroneamente individui che avevano modelli di comunicazione simili a quelli di operatori noti di Hamas o PIJ – tra cui lavoratori della polizia e della protezione civile, parenti di militanti, residenti che avevano un nome e un soprannome identici a quelli di un miliziano.

L’utilizzo di diversi sistemi di intelligenza artificiale ha comportato, soprattutto nelle prima settimane di bombardamenti, la quasi totale distruzione della Striscia e una vera e propria fabbrica di omicidi di massa che ha portato alla morte di più di 33.000 persone.

E proprio a causa di Lavender e Where is Daddy, due terzi delle vittime sono donne e bambini.