‘Lavender’: la macchina AI che dirige i bombardamenti indiscriminati israeliani a Gaza

L’esercito israeliano ha segnalato decine di migliaia di cittadini di Gaza come sospettati di assassinio, utilizzando un sistema di puntamento basato sull’intelligenza artificiale, con scarsa supervisione umana e una politica permissiva per le vittime, come rivelano +972 e Local Call.

Di Abramo Yuval 3 aprile 2024 | +972 Magazine

Nel 2021, un libro intitolato “The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World” è stato pubblicato in inglese con lo pseudonimo di “Brigadier General YS”. In esso, l’autore, un uomo che abbiamo confermato essere l’attuale comandante dell’unità di intelligence d’élite israeliana 8200, sostiene la progettazione di una macchina speciale in grado di elaborare rapidamente enormi quantità di dati per generare migliaia di potenziali “obiettivi” per attacchi militari nel pieno di una guerra. Tale tecnologia, scrive, risolverebbe quello che ha descritto come un “collo di bottiglia umano sia per l’individuazione dei nuovi obiettivi sia per il processo decisionale per approvare gli obiettivi”.

Una macchina del genere, a quanto pare, esiste davvero. Una nuova indagine di +972 Magazine e Local Call rivela che l’esercito israeliano ha sviluppato un programma basato sull’intelligenza artificiale noto come “Lavender”, svelato qui per la prima volta. Secondo sei ufficiali dell’intelligence israeliana, che hanno tutti prestato servizio nell’esercito durante l’attuale guerra nella Striscia di Gaza e hanno avuto un coinvolgimento diretto con l’uso dell’IA per generare obiettivi da assassinare, Lavender ha svolto un ruolo centrale nei bombardamenti senza precedenti dei palestinesi, specialmente durante le prime fasi della guerra. Infatti, secondo le fonti, la sua influenza sulle operazioni militari era tale che essenzialmente trattavano gli output della macchina dell’IA “come se fosse una decisione umana”.

Formalmente, il sistema Lavender è progettato per contrassegnare tutti i sospetti operativi nelle ali militari di Hamas e della Jihad islamica palestinese (PIJ), compresi quelli di basso rango, come potenziali obiettivi di bombardamento. Le fonti hanno detto a +972 e Local Call che, durante le prime settimane di guerra, l’esercito si è affidato quasi completamente a Lavender, che ha registrato fino a 37.000 palestinesi come sospetti militanti, e le loro case, per possibili attacchi aerei.

Durante le prime fasi della guerra, l’esercito diede ampia approvazione agli ufficiali per adottare le liste di uccisioni di Lavender, senza alcun obbligo di controllare attentamente perché la macchina facesse quelle scelte o di esaminare i dati di intelligence grezzi su cui si basavano. Una fonte ha affermato che il personale umano spesso fungeva solo da “timbro di gomma” per le decisioni della macchina, aggiungendo che, normalmente, avrebbero dedicato personalmente solo circa “20 secondi” a ciascun obiettivo prima di autorizzare un bombardamento, solo per assicurarsi che l’obiettivo contrassegnato da Lavender fosse di sesso maschile. Questo nonostante sapessero che il sistema commette quelli che sono considerati “errori” in circa il 10 percento dei casi, ed è noto che occasionalmente contrassegna individui che hanno solo una vaga connessione con gruppi militanti, o nessuna connessione.

Inoltre, l’esercito israeliano ha attaccato sistematicamente gli individui presi di mira mentre si trovavano nelle loro case, solitamente di notte, quando erano presenti tutte le loro famiglie, piuttosto che durante il corso dell’attività militare. Secondo le fonti, questo perché, da quello che consideravano un punto di vista di intelligence, era più facile localizzare gli individui nelle loro case private. Ulteriori sistemi automatizzati, tra cui uno chiamato “Where’s Daddy?”, anch’esso rivelato qui per la prima volta, sono stati utilizzati specificamente per tracciare gli individui presi di mira e compiere attentati quando erano entrati nelle residenze delle loro famiglie.

Il risultato, come hanno testimoniato le fonti, è che migliaia di palestinesi, per lo più donne e bambini o persone estranee ai combattimenti, sono stati sterminati dagli attacchi aerei israeliani, soprattutto durante le prime settimane di guerra, a causa delle decisioni del programma di intelligenza artificiale.

“Non eravamo interessati a uccidere gli operativi [di Hamas] solo quando si trovavano in un edificio militare o erano impegnati in un’attività militare”, ha detto A., un ufficiale dell’intelligence, a +972 e Local Call. “Al contrario, l’IDF li ha bombardati nelle case senza esitazione, come prima opzione. È molto più facile bombardare la casa di una famiglia. Il sistema è costruito per cercarli in queste situazioni”.

La macchina Lavender si unisce a un altro sistema di intelligenza artificiale, “The Gospel”, le cui informazioni sono state rivelate in una precedente indagine di +972 e Local Call nel novembre 2023, nonché nelle pubblicazioni dell’esercito israeliano . Una differenza fondamentale tra i due sistemi è nella definizione del bersaglio: mentre The Gospel contrassegna edifici e strutture da cui l’esercito afferma che operano i militanti, Lavender contrassegna le persone e le inserisce in una lista di uccisioni. 

Inoltre, secondo le fonti, quando si trattava di colpire presunti giovani militanti marchiati da Lavender, l’esercito preferiva usare solo missili non guidati, comunemente noti come bombe “stupide” (in contrapposizione alle bombe di precisione “intelligenti”), che possono distruggere interi edifici sopra i loro occupanti e causare vittime significative. “Non si vogliono sprecare bombe costose su persone non importanti: è molto costoso per il paese e c’è una carenza [di quelle bombe]”, ha detto C., uno degli ufficiali dell’intelligence. Un’altra fonte ha detto che avevano personalmente autorizzato il bombardamento di “centinaia” di case private di presunti giovani operativi marchiati da Lavender, con molti di questi attacchi che hanno ucciso civili e intere famiglie come “danni collaterali”.

In una mossa senza precedenti, secondo due delle fonti, l’esercito ha anche deciso durante le prime settimane di guerra che, per ogni giovane operativo di Hamas che Lavender aveva segnato, era consentito uccidere fino a 15 o 20 civili; in passato, l’esercito non autorizzava alcun “danno collaterale” durante gli assassinii di militanti di basso rango. Le fonti hanno aggiunto che, nel caso in cui l’obiettivo fosse stato un alto funzionario di Hamas con il grado di comandante di battaglione o di brigata, l’esercito in diverse occasioni ha autorizzato l’uccisione di più di 100 civili nell’assassinio di un singolo comandante.

La seguente indagine è organizzata in base alle sei fasi cronologiche della produzione di obiettivi altamente automatizzata dell’esercito israeliano nelle prime settimane della guerra di Gaza. In primo luogo, spieghiamo la macchina Lavender stessa, che ha contrassegnato decine di migliaia di palestinesi utilizzando l’intelligenza artificiale. In secondo luogo, riveliamo il sistema “Where’s Daddy?”, che ha tracciato questi obiettivi e segnalato all’esercito quando entravano nelle loro case. In terzo luogo, descriviamo come le bombe “stupide” sono state scelte per colpire queste case. 

In quarto luogo, spieghiamo come l’esercito abbia allentato il numero consentito di civili che potevano essere uccisi durante il bombardamento di un obiettivo. In quinto luogo, notiamo come il software automatizzato abbia calcolato in modo impreciso la quantità di non combattenti in ogni famiglia. E in sesto luogo, mostriamo come in diverse occasioni, quando una casa veniva colpita, di solito di notte, il singolo obiettivo a volte non era affatto all’interno, perché gli ufficiali militari non verificavano le informazioni in tempo reale.

FASE 1: GENERAZIONE DI OBIETTIVI

“Una volta che si passa all’automatico, la generazione degli obiettivi impazzisce”

Nell’esercito israeliano, il termine “bersaglio umano” si riferiva in passato a un alto ufficiale militare che, secondo le regole del Dipartimento di diritto internazionale dell’esercito, può essere ucciso nella sua casa privata anche se ci sono civili nei paraggi. Fonti dell’intelligence hanno detto a +972 e Local Call che durante le precedenti guerre di Israele, poiché questo era un modo “particolarmente brutale” per uccidere qualcuno, spesso uccidendo un’intera famiglia insieme all’obiettivo, tali obiettivi umani venivano contrassegnati con molta attenzione e solo i comandanti militari di alto rango venivano bombardati nelle loro case, per mantenere il principio di proporzionalità secondo il diritto internazionale.

Ma dopo il 7 ottobre, quando i militanti guidati da Hamas hanno lanciato un assalto mortale alle comunità israeliane meridionali, uccidendo circa 1.200 persone e rapendone 240, l’esercito, hanno detto le fonti, ha adottato un approccio radicalmente diverso. Con l'”Operazione Iron Swords”, l’esercito ha deciso di designare tutti gli operativi dell’ala militare di Hamas come obiettivi umani, indipendentemente dal loro grado o importanza militare. E questo ha cambiato tutto.

La nuova politica poneva anche un problema tecnico per l’intelligence israeliana. Nelle guerre precedenti, per autorizzare l’assassinio di un singolo obiettivo umano, un ufficiale doveva passare attraverso un complesso e lungo processo di “incriminazione”: verificare le prove che la persona fosse effettivamente un membro anziano dell’ala militare di Hamas, scoprire dove viveva, le sue informazioni di contatto e infine sapere quando era a casa in tempo reale. Quando l’elenco degli obiettivi contava solo poche decine di alti ufficiali, il personale dell’intelligence poteva gestire individualmente il lavoro necessario per incriminarli e localizzarli.

Tuttavia, una volta che la lista è stata ampliata per includere decine di migliaia di agenti di rango inferiore, l’esercito israeliano ha pensato di dover fare affidamento su software automatizzati e intelligenza artificiale. Il risultato, testimoniano le fonti, è stato che il ruolo del personale umano nell’incriminare i palestinesi come agenti militari è stato messo da parte e l’intelligenza artificiale ha svolto la maggior parte del lavoro. Secondo quattro delle fonti che hanno parlato con +972 e Local Call, Lavender, che è stato sviluppato per creare obiettivi umani nella guerra attuale, ha contrassegnato circa 37.000 palestinesi come sospetti “militanti di Hamas”, la maggior parte dei quali junior, per l’assassinio (il portavoce dell’IDF ha negato l’esistenza di una tale lista di uccisioni in una dichiarazione a +972 e Local Call).

“Non sapevamo chi fossero gli agenti junior, perché Israele non li tracciava di routine [prima della guerra]”, ha spiegato l’ufficiale senior B. a +972 e Local Call, illuminando il motivo dietro lo sviluppo di questa particolare macchina bersaglio per la guerra attuale. “Volevano permetterci di attaccare [gli agenti junior] automaticamente. Questo è il Santo Graal. Una volta che si passa all’automatico, la generazione di bersagli impazzisce”.

Le fonti hanno affermato che l’approvazione per adottare automaticamente le liste di uccisioni di Lavender, che in precedenza erano state utilizzate solo come strumento ausiliario, è stata concessa circa due settimane dopo l’inizio della guerra, dopo che il personale dell’intelligence ha “manualmente” verificato l’accuratezza di un campione casuale di diverse centinaia di obiettivi selezionati dal sistema di intelligenza artificiale. Quando quel campione ha scoperto che i risultati di Lavender avevano raggiunto il 90 percento di accuratezza nell’identificare l’affiliazione di un individuo con Hamas, l’esercito ha autorizzato l’uso completo del sistema. Da quel momento, le fonti hanno affermato che se Lavender decideva che un individuo era un militante di Hamas, veniva essenzialmente chiesto di trattarlo come un ordine, senza alcun obbligo di verificare in modo indipendente perché la macchina avesse fatto quella scelta o di esaminare i dati di intelligence grezzi su cui si basava.

“Alle 5 del mattino, [l’aeronautica] arrivava e bombardava tutte le case che avevamo contrassegnato”, ha detto B. “Abbiamo eliminato migliaia di persone. Non le abbiamo esaminate una per una, abbiamo inserito tutto in sistemi automatizzati e non appena uno degli [individui contrassegnati] era a casa, diventava immediatamente un bersaglio. Abbiamo bombardato lui e la sua casa”.

“Per me è stato molto sorprendente che ci abbiano chiesto di bombardare una casa per uccidere un soldato di terra, la cui importanza nei combattimenti era così bassa”, ha detto una fonte in merito all’uso dell’IA per marcare presunti militanti di basso rango. “Ho soprannominato quegli obiettivi ‘obiettivi spazzatura’. Tuttavia, li ho trovati più etici degli obiettivi che abbiamo bombardato solo per ‘deterrenza’ : grattacieli che vengono evacuati e abbattuti solo per causare distruzione”.

I risultati mortali di questo allentamento delle restrizioni nella fase iniziale della guerra sono stati sconvolgenti. Secondo i dati del Ministero della Salute palestinese a Gaza, su cui l’esercito israeliano ha fatto affidamento quasi esclusivamente dall’inizio della guerra, Israele ha ucciso circa 15.000 palestinesi, quasi la metà del bilancio delle vittime finora, nelle prime sei settimane di guerra, fino a quando non è stato concordato un cessate il fuoco di una settimana il 24 novembre.

“Più informazioni e varietà ci sono, meglio è”

Il software Lavender analizza le informazioni raccolte sulla maggior parte dei 2,3 milioni di residenti della Striscia di Gaza tramite un sistema di sorveglianza di massa, quindi valuta e classifica la probabilità che ogni persona in particolare sia attiva nell’ala militare di Hamas o PIJ. Secondo le fonti, la macchina assegna a quasi ogni singola persona a Gaza una valutazione da 1 a 100, esprimendo quanto è probabile che sia un militante. 

Lavender impara a identificare le caratteristiche di noti agenti di Hamas e PIJ, le cui informazioni sono state inserite nella macchina come dati di addestramento, e poi a localizzare queste stesse caratteristiche, chiamate anche “caratteristiche”, tra la popolazione generale, hanno spiegato le fonti. Un individuo che presenta diverse caratteristiche incriminanti raggiungerà un punteggio elevato e quindi diventerà automaticamente un potenziale bersaglio per l’assassinio. 

In “The Human-Machine Team”, il libro a cui si fa riferimento all’inizio di questo articolo, l’attuale comandante dell’Unità 8200 sostiene un sistema del genere senza fare riferimento a Lavender per nome. (Nemmeno il comandante stesso è nominato, ma cinque fonti nell’unità 8200 hanno confermato che il comandante è l’autore, come riportato anche da Haaretz.) Descrivendo il personale umano come un “collo di bottiglia” che limita la capacità dell’esercito durante un’operazione militare, il comandante si lamenta: “Noi [umani] non possiamo elaborare così tante informazioni. Non importa quante persone hai incaricato di produrre obiettivi durante la guerra: non riesci comunque a produrre abbastanza obiettivi al giorno”.

La soluzione a questo problema, dice, è l’intelligenza artificiale. Il libro offre una breve guida per costruire una “macchina bersaglio”, simile nella descrizione a Lavender, basata su algoritmi di intelligenza artificiale e apprendimento automatico. In questa guida sono inclusi diversi esempi delle “centinaia e migliaia” di funzionalità che possono aumentare la valutazione di un individuo, come essere in un gruppo Whatsapp con un militante noto, cambiare cellulare ogni pochi mesi e cambiare indirizzo frequentemente. 

“Più informazioni e varietà ci sono, meglio è”, scrive il comandante. “Informazioni visive, informazioni cellulari, connessioni ai social media, informazioni sul campo di battaglia, contatti telefonici, foto”. Mentre all’inizio sono gli umani a selezionare queste caratteristiche, continua il comandante, col tempo la macchina arriverà a identificare le caratteristiche da sola. Questo, dice, può consentire ai militari di creare “decine di migliaia di obiettivi”, mentre la decisione effettiva se attaccarli o meno rimarrà una decisione umana.

Il libro non è l’unica volta in cui un comandante israeliano di alto rango ha accennato all’esistenza di macchine bersaglio umane come Lavender. +972 e Local Call hanno ottenuto il filmato di una lezione privata tenuta dal comandante del centro segreto di Data Science e AI dell’Unità 8200, “Col. Yoav”, alla settimana dell’AI dell’Università di Tel Aviv nel 2023, di cui all’epoca si parlò sui media israeliani.

Nella lezione, il comandante parla di una nuova e sofisticata macchina bersaglio utilizzata dall’esercito israeliano che rileva “persone pericolose” in base alla loro somiglianza con elenchi esistenti di militanti noti su cui è stata addestrata. “Utilizzando il sistema, siamo riusciti a identificare i comandanti delle squadre missilistiche di Hamas”, ha affermato il “Col. Yoav” nella lezione, riferendosi all’operazione militare israeliana del maggio 2021 a Gaza, quando la macchina è stata utilizzata per la prima volta. 

Le diapositive della presentazione della lezione, ottenute sempre da +972 e Local Call, contengono illustrazioni del funzionamento della macchina: riceve dati sugli attuali agenti di Hamas, impara a notare le loro caratteristiche e poi classifica gli altri palestinesi in base a quanto sono simili ai militanti. 

“Classifichiamo i risultati e determiniamo la soglia [alla quale attaccare un obiettivo]”, ha detto il “Col. Yoav” nella lezione, sottolineando che “alla fine, le persone in carne e ossa prendono le decisioni. Nel regno della difesa, eticamente parlando, poniamo molta enfasi su questo. Questi strumenti sono pensati per aiutare [gli ufficiali dell’intelligence] a rompere le loro barriere”. 

Nella pratica, tuttavia, fonti che hanno utilizzato Lavender negli ultimi mesi affermano che l’azione umana e la precisione sono state sostituite dalla creazione di bersagli di massa e dalla letalità.

“Non esisteva una politica di “zero errori””

B., un ufficiale superiore che ha utilizzato Lavender, ha ribadito a +972 e Local Call che, nella guerra in corso, gli ufficiali non sono tenuti a rivedere in modo indipendente le valutazioni del sistema di intelligenza artificiale, per risparmiare tempo e consentire la produzione in serie di obiettivi umani senza ostacoli. 

“Tutto era statistico, tutto era ordinato, era molto asciutto”, ha detto B. Ha osservato che questa mancanza di supervisione era consentita nonostante i controlli interni mostrassero che i calcoli di Lavender erano considerati accurati solo nel 90 percento dei casi; in altre parole, si sapeva in anticipo che il 10 percento degli obiettivi umani destinati all’assassinio non erano affatto membri dell’ala militare di Hamas.

Ad esempio, alcune fonti hanno spiegato che il dispositivo Lavender a volte segnalava erroneamente individui con modalità di comunicazione simili a noti agenti di Hamas o PIJ, tra cui poliziotti e operatori della protezione civile, parenti di militanti, residenti che avevano un nome e un soprannome identici a quelli di un agente e abitanti di Gaza che utilizzavano un dispositivo appartenuto in passato a un agente di Hamas. 

“Quanto deve essere vicina una persona ad Hamas per essere [considerata da una macchina AI come] affiliata all’organizzazione?” ha detto una fonte critica dell’imprecisione di Lavender. “È un confine vago. Una persona che non riceve uno stipendio da Hamas, ma li aiuta con ogni sorta di cose, è un agente di Hamas? Qualcuno che era in Hamas in passato, ma oggi non c’è più, è un agente di Hamas? Ognuna di queste caratteristiche, caratteristiche che una macchina segnalerebbe come sospette, è imprecisa”.

Problemi simili esistono con la capacità delle macchine bersaglio di valutare il telefono utilizzato da un individuo designato per l’assassinio. “In guerra, i palestinesi cambiano telefono di continuo”, ha detto la fonte. “Le persone perdono i contatti con le loro famiglie, danno il telefono a un amico o a una moglie, forse lo perdono. Non c’è modo di affidarsi al 100 percento al meccanismo automatico che determina quale numero [di telefono] appartiene a chi”.

Secondo le fonti, l’esercito sapeva che la minima supervisione umana in atto non avrebbe scoperto questi difetti. “Non c’era una politica di ‘zero errori’. Gli errori venivano trattati statisticamente”, ha detto una fonte che ha utilizzato Lavender. “A causa della portata e della grandezza, il protocollo era che anche se non si è certi che la macchina sia giusta, si sa che statisticamente va bene. Quindi si va avanti”.

“Ha dato prova di sé”, ha detto B., la fonte senior. “C’è qualcosa nell’approccio statistico che ti pone a una certa norma e standard. C’è stata una quantità illogica di [bombardamenti] in questa operazione. Questo è senza pari, nella mia memoria. E ho molta più fiducia in un meccanismo statistico di un soldato che ha perso un amico due giorni fa. Tutti lì, me compreso, hanno perso persone il 7 ottobre. La macchina lo ha fatto freddamente. E questo ha reso le cose più facili”.

Un’altra fonte di intelligence, che ha difeso l’affidamento alle liste di uccisioni di sospetti palestinesi generate da Lavender, ha sostenuto che valeva la pena investire il tempo di un ufficiale dell’intelligence solo per verificare le informazioni se l’obiettivo era un comandante di alto rango di Hamas. “Ma quando si tratta di un militante junior, non vuoi investire tempo e manodopera”, ha detto. “In guerra, non c’è tempo per incriminare ogni obiettivo. Quindi sei disposto ad accettare il margine di errore dell’uso dell’intelligenza artificiale, rischiando danni collaterali e civili che muoiono, e rischiando di attaccare per errore, e a conviverci”.

B. ha detto che il motivo di questa automazione era una spinta costante a generare più obiettivi da assassinare. “In un giorno senza obiettivi [la cui valutazione delle caratteristiche era sufficiente per autorizzare un attacco], abbiamo attaccato a una soglia inferiore. Eravamo costantemente sotto pressione: ‘Portateci più obiettivi’. Ci urlavano contro davvero. Abbiamo finito [di uccidere] i nostri obiettivi molto rapidamente”.

Ha spiegato che abbassando la soglia di valutazione di Lavender, avrebbe contrassegnato più persone come obiettivi per gli attacchi. “Al suo apice, il sistema è riuscito a generare 37.000 persone come potenziali obiettivi umani”, ha detto B. “Ma i numeri cambiavano di continuo, perché dipende da dove si imposta l’asticella di cosa sia un agente di Hamas. Ci sono stati momenti in cui un agente di Hamas era definito in modo più ampio, e poi la macchina ha iniziato a portarci tutti i tipi di personale della difesa civile, ufficiali di polizia, su cui sarebbe un peccato sprecare bombe. Aiutano il governo di Hamas, ma non mettono davvero in pericolo i soldati”.

Una fonte che ha lavorato con il team di data science militare che ha addestrato Lavender ha affermato che i dati raccolti dai dipendenti del Ministero della sicurezza interna gestito da Hamas, che lui non considera militanti, sono stati inseriti nella macchina. “Mi ha infastidito il fatto che quando Lavender è stato addestrato, abbiano usato il termine ‘agente di Hamas’ in modo approssimativo e abbiano incluso persone che erano operatori della difesa civile nel set di dati di addestramento”, ha affermato.

La fonte ha aggiunto che anche se si ritiene che queste persone meritino di essere uccise, addestrare il sistema in base ai loro profili di comunicazione ha reso Lavender più propenso a selezionare per errore i civili quando i suoi algoritmi sono stati applicati alla popolazione generale. “Dato che è un sistema automatico che non è gestito manualmente dagli esseri umani, il significato di questa decisione è drammatico: significa che stai includendo molte persone con un profilo di comunicazione civile come potenziali bersagli”.

“Abbiamo solo verificato che l’obiettivo fosse un uomo”

L’esercito israeliano respinge categoricamente queste affermazioni. In una dichiarazione a +972 e Local Call, il portavoce dell’IDF ha negato di aver utilizzato l’intelligenza artificiale per incriminare gli obiettivi, affermando che si tratta semplicemente di “strumenti ausiliari che assistono gli ufficiali nel processo di incriminazione”. La dichiarazione continuava: “In ogni caso, è richiesto un esame indipendente da parte di un analista [di intelligence], che verifichi che gli obiettivi identificati siano obiettivi legittimi per l’attacco, in conformità con le condizioni stabilite nelle direttive dell’IDF e nel diritto internazionale”.  

Tuttavia, fonti hanno affermato che l’unico protocollo di supervisione umana in atto prima di bombardare le case dei presunti militanti “junior” contrassegnati da Lavender era quello di effettuare un singolo controllo: assicurarsi che il bersaglio selezionato dall’IA fosse un uomo piuttosto che una donna. L’ipotesi nell’esercito era che se il bersaglio era una donna, la macchina aveva probabilmente commesso un errore, perché non ci sono donne tra i ranghi delle ali militari di Hamas e PIJ.

“Un essere umano doveva [verificare il bersaglio] solo per pochi secondi”, ha detto B., spiegando che questo è diventato il protocollo dopo aver realizzato che il sistema Lavender “faceva le cose per bene” la maggior parte delle volte. “All’inizio, abbiamo fatto dei controlli per assicurarci che la macchina non si confondesse. Ma a un certo punto ci siamo affidati al sistema automatico e abbiamo solo controllato che [il bersaglio] fosse un uomo, e questo è stato sufficiente. Non ci vuole molto tempo per capire se qualcuno ha una voce maschile o femminile”. 

Per condurre il controllo uomo/donna, B. ha affermato che nella guerra attuale, “investirei 20 secondi per ogni bersaglio in questa fase, e ne farei decine ogni giorno. Non avevo alcun valore aggiunto come essere umano, a parte essere un timbro di approvazione. Ho risparmiato un sacco di tempo. Se [l’agente] si presentasse nel meccanismo automatico, e verificassi che fosse un uomo, ci sarebbe il permesso di bombardarlo, soggetto a un esame dei danni collaterali”.

In pratica, fonti hanno detto che questo significava che per gli uomini civili contrassegnati per errore da Lavender, non c’era alcun meccanismo di supervisione in atto per rilevare l’errore. Secondo B., un errore comune si verificava “se l’obiettivo [di Hamas] dava [il suo telefono] a suo figlio, a suo fratello maggiore o semplicemente a un uomo a caso. Quella persona veniva bombardata nella sua casa con la sua famiglia. Ciò accadeva spesso. Questi erano la maggior parte degli errori causati da Lavender”, ha detto B.

FASE 2: COLLEGAMENTO DEGLI OBIETTIVI ALLE CASE FAMILIARI

“La maggior parte delle persone che hai ucciso erano donne e bambini”

La fase successiva nella procedura di assassinio dell’esercito israeliano è l’identificazione del punto in cui attaccare gli obiettivi generati da Lavender.

In una dichiarazione a +972 e Local Call, il portavoce dell’IDF ha affermato in risposta a questo articolo che “Hamas piazza i suoi agenti e le sue risorse militari nel cuore della popolazione civile, usa sistematicamente la popolazione civile come scudi umani e conduce combattimenti dall’interno di strutture civili, compresi siti sensibili come ospedali, moschee, scuole e strutture ONU. L’IDF è vincolata e agisce in base al diritto internazionale, dirigendo i suoi attacchi solo contro obiettivi militari e agenti militari”. 

Le sei fonti con cui abbiamo parlato hanno in qualche modo ribadito questo concetto, affermando che l’ampio sistema di tunnel di Hamas passa deliberatamente sotto ospedali e scuole; che i militanti di Hamas usano ambulanze per spostarsi; e che innumerevoli risorse militari sono state posizionate vicino a edifici civili. Le fonti hanno sostenuto che molti attacchi israeliani uccidono civili a causa di queste tattiche di Hamas, una caratterizzazione che i gruppi per i diritti umani avvertono elude l’onere di Israele per aver inflitto le vittime. 

Tuttavia, contrariamente alle dichiarazioni ufficiali dell’esercito israeliano, le fonti hanno spiegato che una delle ragioni principali del numero senza precedenti di vittime causato dagli attuali bombardamenti israeliani è il fatto che l’esercito ha sistematicamente attaccato obiettivi nelle loro case private, insieme alle loro famiglie, in parte perché dal punto di vista dell’intelligence era più facile marcare le case delle famiglie utilizzando sistemi automatizzati.

In effetti, diverse fonti hanno sottolineato che, a differenza di numerosi casi di agenti di Hamas impegnati in attività militari da aree civili, nel caso di attacchi sistematici di assassinio, l’esercito ha fatto di routine la scelta attiva di bombardare presunti militanti quando si trovavano all’interno di abitazioni civili da cui non si svolgeva alcuna attività militare. Questa scelta, hanno detto, era un riflesso del modo in cui è progettato il sistema di sorveglianza di massa di Israele a Gaza.

Le fonti hanno detto a +972 e Local Call che, poiché tutti a Gaza avevano una casa privata a cui potevano essere associati, i sistemi di sorveglianza dell’esercito potevano facilmente e automaticamente “collegare” gli individui alle case delle famiglie. Per identificare il momento in cui gli agenti entrano nelle loro case in tempo reale, sono stati sviluppati vari software automatici aggiuntivi. Questi programmi tracciano migliaia di individui simultaneamente, identificano quando sono a casa e inviano un avviso automatico all’ufficiale di puntamento, che quindi contrassegna la casa per il bombardamento. Uno di molti di questi software di tracciamento, rivelato qui per la prima volta, si chiama “Dov’è papà?” 

“Inserisci centinaia [di obiettivi] nel sistema e aspetti di vedere chi puoi uccidere”, ha detto una fonte a conoscenza del sistema. “Si chiama caccia ampia: fai copia e incolla dagli elenchi che il sistema di obiettivi produce”.

La prova di questa politica è chiara anche dai dati: durante il primo mese di guerra, più della metà delle vittime, 6.120 persone, appartenevano a 1.340 famiglie, molte delle quali sono state completamente annientate mentre si trovavano nelle loro case, secondo i dati delle Nazioni Unite . La percentuale di intere famiglie bombardate nelle loro case nella guerra attuale è molto più alta rispetto all’operazione israeliana del 2014 a Gaza (che in precedenza era stata la guerra più mortale di Israele sulla Striscia), il che suggerisce ulteriormente l’importanza di questa politica.

Un’altra fonte ha affermato che ogni volta che il ritmo degli assassinii diminuiva, venivano aggiunti più obiettivi a sistemi come Where’s Daddy? per localizzare gli individui che entravano nelle loro case e che potevano quindi essere bombardati. Ha affermato che la decisione su chi inserire nei sistemi di tracciamento potrebbe essere presa da ufficiali di rango relativamente basso nella gerarchia militare. 

“Un giorno, di mia spontanea volontà, ho aggiunto qualcosa come 1.200 nuovi obiettivi al sistema [di tracciamento], perché il numero di attacchi [che stavamo conducendo] stava diminuendo”, ha detto la fonte. “Per me aveva senso. Col senno di poi, sembra una decisione seria che ho preso. E decisioni del genere non venivano prese ad alti livelli”.

Le fonti hanno affermato che nelle prime due settimane di guerra, “diverse migliaia” di obiettivi sono stati inizialmente inseriti in programmi di localizzazione come Where’s Daddy?. Tra questi c’erano tutti i membri dell’unità di forze speciali d’élite di Hamas, la Nukhba, tutti gli agenti anticarro di Hamas e chiunque fosse entrato in Israele il 7 ottobre. Ma in poco tempo, la lista delle uccisioni è stata drasticamente ampliata. 

“Alla fine sono stati tutti [marchiati da Lavender]”, ha spiegato una fonte. “Decine di migliaia. Ciò è accaduto poche settimane dopo, quando le brigate [israeliane] sono entrate a Gaza, e c’erano già meno persone non coinvolte [cioè civili] nelle aree settentrionali”. Secondo questa fonte, persino alcuni minorenni sono stati marchiati da Lavender come obiettivi per i bombardamenti. “Normalmente, gli agenti hanno più di 17 anni, ma questa non era una condizione”.

Lavender e sistemi come Where’s Daddy? sono stati quindi combinati con effetti mortali, uccidendo intere famiglie, hanno detto le fonti. Aggiungendo un nome dagli elenchi generati da Lavender al sistema di tracciamento domestico di Where’s Daddy?, ha spiegato A., la persona marchiata sarebbe stata posta sotto sorveglianza continua e avrebbe potuto essere attaccata non appena avesse messo piede in casa, facendo crollare la casa su tutti coloro che si trovavano all’interno.

“Diciamo che calcoli [che c’è un] agente di Hamas più 10 [civili in casa]”, ha detto A. “Di solito, questi 10 saranno donne e bambini. Quindi, per assurdo, si scopre che la maggior parte delle persone che hai ucciso erano donne e bambini”.

FASE 3: SCELTA DI UN’ARMA

“Di solito effettuavamo gli attacchi con ‘bombe stupide’”

Una volta che Lavender ha contrassegnato un obiettivo da assassinare, il personale dell’esercito ha verificato che si tratta di un uomo e il software di localizzazione ha localizzato l’obiettivo nella sua casa, la fase successiva è scegliere le munizioni con cui bombardarlo.

Nel dicembre 2023, la CNN ha riferito che, secondo le stime dell’intelligence statunitense, circa il 45 percento delle munizioni utilizzate dall’aeronautica israeliana a Gaza erano bombe “stupide”, che sono note per causare più danni collaterali delle bombe guidate. In risposta al rapporto della CNN, un portavoce dell’esercito citato nell’articolo ha affermato: “Come esercito impegnato nel rispetto del diritto internazionale e di un codice di condotta morale, stiamo dedicando vaste risorse per ridurre al minimo i danni ai civili che Hamas ha costretto a svolgere il ruolo di scudi umani. La nostra guerra è contro Hamas, non contro la popolazione di Gaza”.

Tre fonti di intelligence, tuttavia, hanno riferito a +972 e Local Call che gli agenti junior marchiati da Lavender venivano assassinati solo con bombe stupide, nell’interesse di risparmiare armamenti più costosi. L’implicazione, ha spiegato una fonte, era che l’esercito non avrebbe colpito un bersaglio junior se avesse vissuto in un edificio alto, perché l’esercito non voleva spendere una “bomba da pavimento” più precisa e costosa (con effetti collaterali più limitati) per ucciderlo. Ma se un bersaglio junior viveva in un edificio con solo pochi piani, l’esercito era autorizzato a uccidere lui e tutti gli altri nell’edificio con una bomba stupida.

“Era così con tutti gli obiettivi junior”, ha testimoniato C., che ha utilizzato vari programmi automatizzati nella guerra attuale. “L’unica domanda era: è possibile attaccare l’edificio in termini di danni collaterali? Perché di solito eseguivamo gli attacchi con bombe stupide, e ciò significava letteralmente distruggere l’intera casa sopra i suoi occupanti. Ma anche se un attacco viene sventato, non ti importa: passi immediatamente all’obiettivo successivo. Grazie al sistema, gli obiettivi non finiscono mai. Ne hai altri 36.000 in attesa”.

FASE 4: AUTORIZZAZIONE DELLE VITTIME CIVILI

“Abbiamo attaccato quasi senza considerare i danni collaterali”

Una fonte ha affermato che quando si attaccavano agenti junior, compresi quelli contrassegnati da sistemi di intelligenza artificiale come Lavender, il numero di civili che potevano uccidere insieme a ogni bersaglio era fissato durante le prime settimane di guerra a un massimo di 20. Un’altra fonte ha affermato che il numero fisso era fino a 15. Questi “gradi di danno collaterale”, come li chiamano i militari, venivano applicati ampiamente a tutti i presunti militanti junior, hanno affermato le fonti, indipendentemente dal loro grado, importanza militare ed età, e senza uno specifico esame caso per caso per soppesare il vantaggio militare di assassinarli rispetto al danno previsto per i civili. 

Secondo A., che era un ufficiale in una sala operativa di obiettivi nella guerra attuale, il dipartimento di diritto internazionale dell’esercito non ha mai dato prima una “approvazione così ampia” per un grado di danno collaterale così elevato. “Non è solo che puoi uccidere qualsiasi persona che sia un soldato di Hamas, il che è chiaramente consentito e legittimo in termini di diritto internazionale”, ha detto A. “Ma ti dicono direttamente: ‘Ti è permesso ucciderli insieme a molti civili’. 

“Ogni persona che ha indossato un’uniforme di Hamas nell’ultimo anno o due potrebbe essere bombardata con 20 [civili uccisi come] danni collaterali, anche senza un permesso speciale”, ha continuato A. “In pratica, il principio di proporzionalità non esisteva”.

Secondo A., questa è stata la politica per la maggior parte del tempo in cui ha prestato servizio. Solo in seguito l’esercito ha abbassato il grado di danno collaterale. “In questo calcolo, potrebbero essere anche 20 bambini per un agente junior… In passato non era proprio così”, ha spiegato A. Alla domanda sulla logica di sicurezza alla base di questa politica, A. ha risposto: “Letalità”.

Il grado di danno collaterale predeterminato e fisso ha contribuito ad accelerare la creazione di massa di obiettivi usando la macchina Lavender, hanno detto le fonti, perché ha fatto risparmiare tempo. B. ha affermato che il numero di civili che era loro consentito uccidere nella prima settimana di guerra per ogni presunto militante junior contrassegnato dall’IA era quindici, ma che questo numero “andava su e giù” nel tempo. 

“All’inizio abbiamo attaccato quasi senza considerare i danni collaterali”, ha detto B. della prima settimana dopo il 7 ottobre. “In pratica, non contavi davvero le persone [in ogni casa bombardata], perché non potevi davvero dire se erano in casa o meno. Dopo una settimana, sono iniziate le restrizioni sui danni collaterali. Il numero è sceso [da 15] a cinque, il che ha reso davvero difficile per noi attaccare, perché se l’intera famiglia era a casa, non potevamo bombardarla. Poi hanno aumentato di nuovo il numero”.

“Sapevamo che avremmo ucciso più di 100 civili”

Fonti hanno riferito a +972 e Local Call che ora, in parte a causa della pressione americana, l’esercito israeliano non sta più generando in massa obiettivi umani junior per bombardare le case dei civili. Il fatto che la maggior parte delle case nella Striscia di Gaza sia già stata distrutta o danneggiata e che quasi l’intera popolazione sia stata sfollata, ha anche compromesso la capacità dell’esercito di fare affidamento su database di intelligence e programmi automatizzati di localizzazione delle case. 

E. ha affermato che il massiccio bombardamento di giovani militanti ha avuto luogo solo nella prima o seconda settimana di guerra, e poi è stato interrotto principalmente per non sprecare bombe. “C’è un’economia di munizioni”, ha detto E. “Avevano sempre paura che ci sarebbe stata [una guerra] nell’arena settentrionale [con Hezbollah in Libano]. Non attaccano più questo genere di persone [giovani]”. 

Tuttavia, gli attacchi aerei contro i comandanti di alto rango di Hamas sono ancora in corso e alcune fonti affermano che per questi attacchi l’esercito sta autorizzando l’uccisione di “centinaia” di civili per obiettivo, una politica ufficiale per la quale non esiste alcun precedente storico in Israele o anche nelle recenti operazioni militari statunitensi.

“Nel bombardamento del comandante del Battaglione Shuja’iya, sapevamo che avremmo ucciso oltre 100 civili”, ha ricordato B. di un bombardamento del 2 dicembre che il portavoce dell’IDF ha detto essere mirato ad assassinare Wisam Farhat. “Per me, psicologicamente, è stato insolito. Oltre 100 civili: ha superato una certa linea rossa”.

Amjad Al-Sheikh, un giovane palestinese di Gaza, ha detto che molti dei suoi familiari sono stati uccisi in quel bombardamento. Residente a Shuja’iya, a est di Gaza City, quel giorno si trovava in un supermercato locale quando ha sentito cinque esplosioni che hanno mandato in frantumi le finestre di vetro. 

“Sono corso a casa della mia famiglia, ma non c’erano più edifici lì”, ha detto Al-Sheikh a +972 e Local Call. “La strada era piena di urla e fumo. Interi isolati residenziali si sono trasformati in montagne di macerie e buche profonde. La gente ha iniziato a cercare nel cemento, usando le mani, e così ho fatto io, cercando segni della casa della mia famiglia”. 

La moglie e la figlia neonata di Al-Sheikh sopravvissero, protette dalle macerie da un armadio che crollò su di loro, ma lui trovò altri 11 membri della sua famiglia, tra cui le sue sorelle, i suoi fratelli e i loro bambini piccoli, morti sotto le macerie. Secondo il gruppo per i diritti umani B’Tselem, il bombardamento di quel giorno distrusse decine di edifici, uccise decine di persone e ne seppellì centinaia sotto le rovine delle loro case.

“Intere famiglie sono state uccise”

Fonti dell’intelligence hanno riferito a +972 e Local Call di aver preso parte ad attacchi ancora più letali. Per assassinare Ayman Nofal, il comandante della Brigata centrale di Gaza di Hamas, una fonte ha affermato che l’esercito ha autorizzato l’uccisione di circa 300 civili, distruggendo diversi edifici in attacchi aerei sul campo profughi di Al-Bureij il 17 ottobre, sulla base di un’individuazione imprecisa di Nofal. Riprese satellitari e video dalla scena mostrano la distruzione di diversi grandi edifici residenziali a più piani.

“Tra 16 e 18 case sono state rase al suolo nell’attacco”, ha detto a +972 e Local Call Amro Al-Khatib, un residente del campo. “Non riuscivamo a distinguere un appartamento dall’altro: erano tutti mescolati tra le macerie e abbiamo trovato parti di corpi umani ovunque”.

In seguito, Al-Khatib ha ricordato che circa 50 cadaveri sono stati estratti dalle macerie e circa 200 persone sono rimaste ferite, molte delle quali gravemente. Ma quello è stato solo il primo giorno. I residenti del campo hanno trascorso cinque giorni a estrarre i morti e i feriti, ha detto.

Palestinesi che scavano con mani d’orso trovano un cadavere tra le macerie dopo un attacco aereo israeliano che ha ucciso decine di palestinesi nel mezzo del campo profughi di Al-Maghazi, nella Striscia di Gaza centrale, 5 novembre 2023. (Mohammed Zaanoun/Activestills)

Nael Al-Bahisi, un paramedico, è stato uno dei primi ad arrivare sulla scena. Ha contato tra 50 e 70 vittime quel primo giorno. “A un certo punto, abbiamo capito che l’obiettivo dell’attacco era il comandante di Hamas Ayman Nofal”, ha detto a +972 e Local Call. “Hanno ucciso lui e anche molte persone che non sapevano che fosse lì. Sono state uccise intere famiglie con bambini”.

Un’altra fonte di intelligence ha detto a +972 e Local Call che l’esercito ha distrutto un grattacielo a Rafah a metà dicembre, uccidendo “decine di civili”, per cercare di uccidere Mohammed Shabaneh, il comandante della Brigata Rafah di Hamas (non è chiaro se sia stato ucciso o meno nell’attacco). Spesso, ha detto la fonte, i comandanti anziani si nascondono in tunnel che passano sotto edifici civili, e quindi la scelta di assassinarli con un attacco aereo uccide necessariamente dei civili.

“La maggior parte dei feriti erano bambini”, ha detto Wael Al-Sir, 55 anni, che ha assistito all’attacco su larga scala ritenuto da alcuni abitanti di Gaza un tentativo di assassinio. Ha detto a +972 e Local Call che il bombardamento del 20 dicembre ha distrutto un “intero isolato residenziale” e ucciso almeno 10 bambini.

“C’era una politica completamente permissiva riguardo alle vittime delle operazioni [di bombardamento], così permissiva che a mio parere conteneva un elemento di vendetta”, ha affermato D., una fonte dell’intelligence. “Il nocciolo di tutto questo erano gli assassinii di alti comandanti [di Hamas e PIJ] per i quali erano disposti a uccidere centinaia di civili. Avevamo fatto un calcolo: quanti per un comandante di brigata, quanti per un comandante di battaglione e così via”.

“C’erano delle regole, ma erano molto indulgenti”, ha detto E., un’altra fonte di intelligence. “Abbiamo ucciso persone con danni collaterali in cifre alte a due cifre, se non basse a tre cifre. Sono cose che non erano mai accadute prima”.

Un tasso così elevato di “danni collaterali” è eccezionale non solo rispetto a quanto l’esercito israeliano riteneva precedentemente accettabile, ma anche rispetto alle guerre condotte dagli Stati Uniti in Iraq, Siria e Afghanistan. 

Il generale Peter Gersten, vice comandante per le operazioni e l’intelligence nell’operazione di lotta all’ISIS in Iraq e Siria, ha dichiarato nel 2021 a una rivista di difesa statunitense che un attacco con danni collaterali a 15 civili si discostava dalla procedura; per realizzarlo, ha dovuto ottenere un permesso speciale dal capo del Comando centrale degli Stati Uniti, il generale Lloyd Austin, ora Segretario della Difesa. 

“Con Osama Bin Laden, avresti un NCV [Non-combatant Casualty Value] di 30, ma se avessi un comandante di basso livello, il suo NCV era tipicamente zero”, ha detto Gersten. “Abbiamo corso zero per il periodo più lungo”.

“Ci è stato detto: “Qualunque cosa tu possa, bombardala””

Tutte le fonti intervistate per questa inchiesta hanno affermato che i massacri di Hamas del 7 ottobre e il rapimento di ostaggi hanno influenzato notevolmente la politica di fuoco dell’esercito e i gradi di danni collaterali. “All’inizio, l’atmosfera era dolorosa e vendicativa”, ha detto B., che è stato arruolato nell’esercito subito dopo il 7 ottobre e ha prestato servizio in una sala operativa di obiettivi. “Le regole erano molto permissive. Hanno abbattuto quattro edifici quando sapevano che l’obiettivo era in uno di essi. È stato folle.

“C’era una dissonanza: da un lato, la gente qui era frustrata perché non stavamo attaccando abbastanza”, ha continuato B. “Dall’altro lato, vedi alla fine della giornata che sono morti altri mille abitanti di Gaza, la maggior parte dei quali civili”.

“C’era isteria tra i ranghi dei professionisti”, ha detto D., che è stato anche lui arruolato subito dopo il 7 ottobre. “Non avevano idea di come reagire. L’unica cosa che sapevano fare era semplicemente iniziare a bombardare come pazzi per cercare di smantellare le capacità di Hamas”.

D. ha sottolineato che non gli è stato detto esplicitamente che l’obiettivo dell’esercito era la “vendetta”, ma ha affermato che “non appena ogni obiettivo collegato ad Hamas diventa legittimo, e con quasi tutti i danni collaterali approvati, è chiaro che migliaia di persone saranno uccise. Anche se ufficialmente ogni obiettivo è collegato ad Hamas, quando la politica è così permissiva, perde ogni significato”.

A. ha anche usato la parola “vendetta” per descrivere l’atmosfera all’interno dell’esercito dopo il 7 ottobre. “Nessuno ha pensato a cosa fare dopo, quando la guerra sarà finita, o a come sarà possibile vivere a Gaza e cosa ne faranno”, ha detto A. “Ci è stato detto: ora dobbiamo fottere Hamas, non importa a quale costo. Qualunque cosa tu possa, bombardala”.

B., la fonte di intelligence di alto livello, ha affermato che, a posteriori, ritiene che questa politica “sproporzionata” di uccisioni di palestinesi a Gaza metta in pericolo anche gli israeliani, e che questo è stato uno dei motivi per cui ha deciso di essere intervistato.

“Nel breve termine, siamo più sicuri, perché abbiamo danneggiato Hamas. Ma penso che siamo meno sicuri nel lungo periodo. Vedo come tutte le famiglie in lutto a Gaza, che sono quasi tutti, aumenteranno la motivazione per [le persone ad unirsi] ad Hamas tra 10 anni. E sarà molto più facile per [Hamas] reclutarli”.

In una dichiarazione a +972 e Local Call, l’esercito israeliano ha negato gran parte di quanto ci hanno detto le fonti, sostenendo che “ogni obiettivo viene esaminato individualmente, mentre viene fatta una valutazione individuale del vantaggio militare e del danno collaterale previsto dall’attacco… Le IDF non eseguono attacchi quando il danno collaterale previsto dall’attacco è eccessivo in relazione al vantaggio militare”.

FASE 5: CALCOLO DEI DANNI COLLATERALI

“Il modello non era collegato alla realtà”

Secondo fonti di intelligence, il calcolo da parte dell’esercito israeliano del numero di civili che si prevedeva sarebbero stati uccisi in ogni casa accanto a un obiettivo, una procedura esaminata in una precedente indagine di +972 e Local Call, è stato condotto con l’ausilio di strumenti automatici e imprecisi. Nelle guerre precedenti, il personale dell’intelligence avrebbe trascorso molto tempo a verificare quante persone si trovassero in una casa che sarebbe stata bombardata, con il numero di civili che avrebbero potuto essere uccisi elencato come parte di un “file obiettivo”. Dopo il 7 ottobre, tuttavia, questa verifica approfondita è stata ampiamente abbandonata a favore dell’automazione. 

A ottobre, il New York Times ha parlato di un sistema gestito da una base speciale nel sud di Israele, che raccoglie informazioni dai telefoni cellulari nella Striscia di Gaza e fornisce all’esercito una stima in tempo reale del numero di palestinesi fuggiti dalla Striscia di Gaza settentrionale verso sud. Il generale di brigata Udi Ben Muha ha detto al Times che “non è un sistema perfetto al 100%, ma fornisce le informazioni necessarie per prendere una decisione”. Il sistema funziona in base ai colori: il rosso contrassegna le aree in cui ci sono molte persone, mentre il verde e il giallo contrassegnano le aree che sono state relativamente sgomberate dai residenti. 

Le fonti che hanno parlato con +972 e Local Call hanno descritto un sistema simile per calcolare i danni collaterali, che è stato utilizzato per decidere se bombardare un edificio a Gaza. Hanno detto che il software ha calcolato il numero di civili residenti in ogni casa prima della guerra, valutando le dimensioni dell’edificio e rivedendo l’elenco dei residenti, e poi ha ridotto quei numeri in base alla quota di residenti che presumibilmente hanno evacuato il quartiere. 

Per fare un esempio, se l’esercito stimasse che metà dei residenti di un quartiere se ne fosse andata, il programma considererebbe una casa che di solito ospita 10 residenti come una casa che ospita cinque persone. Per risparmiare tempo, hanno detto le fonti, l’esercito non ha sorvegliato le case per verificare quante persone ci vivessero effettivamente, come aveva fatto nelle precedenti operazioni, per scoprire se la stima del programma fosse effettivamente accurata.

“Questo modello non era collegato alla realtà”, ha affermato una fonte. “Non c’era alcun collegamento tra coloro che erano nella casa ora, durante la guerra, e coloro che erano elencati come residenti lì prima della guerra. [In un’occasione] abbiamo bombardato una casa senza sapere che c’erano diverse famiglie all’interno, nascoste insieme”. 

La fonte ha affermato che, nonostante l’esercito sapesse che tali errori potevano verificarsi, questo modello impreciso è stato comunque adottato, perché era più veloce. In quanto tale, ha affermato la fonte, “il calcolo dei danni collaterali è stato completamente automatico e statistico”, producendo persino cifre che non erano numeri interi.

FASE 6: BOMBARDARE UNA CASA DI FAMIGLIA

“Hai ucciso una famiglia senza motivo”

Le fonti che hanno parlato con +972 e Local Call hanno spiegato che a volte c’era un divario sostanziale tra il momento in cui i sistemi di tracciamento come Where’s Daddy? avvisavano un agente che un obiettivo era entrato in casa sua e il bombardamento stesso, che portava all’uccisione di intere famiglie anche senza colpire l’obiettivo dell’esercito. “Mi è successo molte volte di attaccare una casa, ma la persona non era nemmeno in casa”, ha detto una fonte. “Il risultato è che hai ucciso una famiglia senza motivo”.

Tre fonti di intelligence hanno riferito a +972 e Local Call di aver assistito a un incidente in cui l’esercito israeliano ha bombardato l’abitazione privata di una famiglia; in seguito si è scoperto che l’obiettivo previsto dell’assassinio non si trovava nemmeno all’interno dell’abitazione, poiché non sono state effettuate ulteriori verifiche in tempo reale.

“A volte [l’obiettivo] era a casa prima, e poi la sera andava a dormire da qualche altra parte, diciamo sottoterra, e tu non lo sapevi”, ha detto una delle fonti. “Ci sono volte in cui controlli due volte la posizione, e ci sono volte in cui dici semplicemente, ‘Ok, era in casa nelle ultime ore, quindi puoi semplicemente bombardare'”. 

Un’altra fonte ha descritto un incidente simile che lo ha colpito e lo ha spinto a voler essere intervistato per questa indagine. “Abbiamo capito che l’obiettivo era a casa alle 8 di sera. Alla fine, l’aeronautica ha bombardato la casa alle 3 di mattina. Poi abbiamo scoperto che [in quel lasso di tempo] era riuscito a trasferirsi in un’altra casa con la sua famiglia. C’erano altre due famiglie con bambini nell’edificio che abbiamo bombardato”.

Nelle precedenti guerre a Gaza, dopo l’assassinio di obiettivi umani, l’intelligence israeliana avrebbe eseguito procedure di valutazione dei danni delle bombe (BDA), un controllo di routine post-attacco per vedere se il comandante anziano era stato ucciso e quanti civili erano stati uccisi insieme a lui. Come rivelato in una precedente indagine di +972 e Local Call , ciò comportava l’ascolto delle telefonate dei parenti che avevano perso i loro cari. Nella guerra attuale, tuttavia, almeno in relazione ai militanti junior marcati tramite AI, fonti affermano che questa procedura è stata abolita per risparmiare tempo. Le fonti hanno affermato di non sapere quanti civili fossero stati effettivamente uccisi in ogni attacco e, per i presunti agenti di Hamas e PIJ di basso rango marcati tramite AI, non sapevano nemmeno se l’obiettivo stesso fosse stato ucciso.

“Non sai esattamente quanti ne hai uccisi e chi hai ucciso”, ha detto una fonte dell’intelligence a Local Call per una precedente inchiesta pubblicata a gennaio. “Solo quando si tratta di alti funzionari di Hamas segui la procedura BDA. Nel resto dei casi, non ti interessa. Ricevi un rapporto dall’aeronautica militare se l’edificio è saltato in aria, e questo è tutto. Non hai idea di quanti danni collaterali ci siano stati; passi immediatamente al bersaglio successivo. L’enfasi era creare quanti più bersagli possibili, il più rapidamente possibile”.

Ma mentre l’esercito israeliano può passare oltre ogni attacco senza soffermarsi sul numero delle vittime, Amjad Al-Sheikh, un residente di Shuja’iya che ha perso 11 membri della sua famiglia nel bombardamento del 2 dicembre, ha affermato che lui e i suoi vicini stanno ancora cercando i cadaveri.

“Finora, ci sono cadaveri sotto le macerie”, ha detto. “Quattordici edifici residenziali sono stati bombardati con i loro residenti all’interno. Alcuni dei miei parenti e vicini sono ancora sepolti”.