Vai al contenuto

AI Levander: Come Israele sfrutta l’intelligenza artificiale nelle operazioni militari

Nell’ambito militare, Israele utilizza l’AI del sistema Levander per individuare obiettivi strategici a Gaza, nonostante un margine di errore significativo. Con questo spunto, si rianalizza l’interazione fra la tecnologia avanzata e le dinamiche belliche.

Il ruolo dell’Intelligenza Artificiale nelle strategie militari è in continua evoluzione. Un esempio di come questa tecnologia sia inserita in ambito bellico riguarda l’uso che ne fa l’IDF (Israeli Defence Forces), ovvero l’esercito israeliano, in particolare nelle operazioni militari condotte a Gaza. Protagonista di questa strategia è il sistema Lavander, sfruttato per individuare e centrare obiettivi militari specifici.

Basato su avanzate tecniche di intelligenza artificiale, Lavander si occupa di raccogliere informazioni, rilevare modelli e generare liste di potenziali bersagli. In passato, questo sistema è stato utilizzato principalmente per individuare possibili sospettati di terrorismo e omicidi. Attualmente, però, il suo utilizzo si è esteso anche alle operazioni militari più recenti condotte dal governo Netanyahu a Gaza.

Lavander ha giocato un ruolo fondamentale durante le prime settimane di guerra tra Hamas e Israele, diventando uno strumento chiave per l’individuazione di obiettivi militari nella Striscia di Gaza. Ciò avviene nonostante, come riportato in un articolo pubblicato su Business Insider, il sistema presenti un margine di errore del 10%, una percentuale elevata se consideriamo le possibili fatali conseguenze di uno scarto sull’obiettivo.

Anche la mancanza di un’indagine umana finalizzata a verificare le informazioni fornite dall’IA emerge come una criticità significativa. Le fonti indicano infatti che la procedura prevede solamente 20 secondi di verifica umana per ciascun obiettivo prima di autorizzare un attacco.

Un altro dato preoccupante riguarda il numero di obiettivi identificati dal sistema Lavander. Secondo stime recenti, è emerso che questo programma ha classificato circa 37.000 palestinesi come sospetti militanti di Hamas. Nonostante le controversie sollevate, nell’Idf si insiste sulla natura del sistema come un semplice database utilizzato per incrociare ed aggiornare dati provenienti da diverse fonti di intelligence.

Accanto a Lavander è importante menzionare un altro sistema di intelligenza artificiale utilizzato dall’Idf, denominato “The Gospel”, il quale si concentra sulla rilevazione di strutture e edifici usati dai militanti di Hamas e altre organizzazioni nemiche di Israele.

Tuttavia, vanno ricordate le implicazioni umane di questa situazione bellica. Dall’inizio del conflitto, sono già trascorsi sei mesi nei quali la Striscia di Gaza ha subìto il peso di questo scontro, con oltre 33.000 persone decedute e 76.000 feriti, tra cui in gran parte donne e bambini. Il saldo delle perdite umane rileva l’immensità delle conseguenze di questa guerra e pone considerazioni etiche sull’uso dell’IA in questi contesti.