Originariamente Scritto da
Bobo
E' uscito un interessante report sull'uso della IA nel corso della campagna militare a Gaza.
In due parole:
L'IDF si è affidata, specie nelle prime settimane del conflitto, ad una IA chiamata Lavander il cui scopo era incrociare i dati provenienti dal campo (quindi ad esempio droni ecc ecc) per "suggerire" potenziali obiettivi militari... specie di basso rango.
Gli esseri umani si limitavano a regolare la "sensibilità" dell'algoritmo e poi procedere dando l'ok agli obiettivi che via via venivano suggeriti.
Le operazioni erano sostanzialmente pre-autorizzate (normalmente dovrebbe entrare in gioco una catena di comando umano che dia l'ok alle operazioni mettendo sul piatto il potenziale vantaggio militare con i potenziali costi, anche in termini di vite umane), e l'intervento umano è stato paragonato al mettere un timbro sulla decisione che veniva suggerita dalla macchina. Tanto che, a quanto si legge, le poche volte che l'umano ha detto "NO, ti stai sbagliando" era quando l'algoritmo suggeriva una donna. Se invece era un uomo, vai. Tutto in pochi secondi.
A Lavander sarebbero stati affiancati altri software con compiti diversi, come ad esempio quello di individuare il luogo ed il momento più adatti a colpire quello specifico bersaglio, lanciando un alert agli altri che procedevano quindi per etichettare il luogo come obiettivo da colpire in quel momento.
Luogo che spesso sarebbe risultato essere l'abitazione dell'obiettivo... tanto che uno di questi sw in una prima fase è stato soprannominato "where's daddy?"
Per colpire questi obiettivi, generalmente si usano bombe "a caduta", poco "intelligenti", perchè per obiettivi di basso rango non vale la pena usare le armi più avanzate. Essendo armi meno precise, di solito sono pensate per buttare giù direttamente l'edificio, tanto per andare sul sicuro.
Si parla anche di come alle liste prodotte da Lavander si affiancassero documenti che descrivevano il numero tollerabile di civili per colpire quel singolo obiettivo.
Nel caso di combattenti di basso rango, i danni accettabili prevedevano 15/20 vittime civili.
Si parla di un margine di errore calcolato di circa il 10%, e gli obiettivi suggeriti dalla IA sarebbero circa 40 mila.
Fate rapidamente un calcolo su cosa voglia dire, in termini di vittime, accettare quel 10% di errore ed accettare 15/20 vittime collaterali per ciascuno di quegli obiettivi.
Tutto questo, ripeto, senza che intervenisse direttamente una catena di comando umana, che si prendesse le responsabilità della cosa... ma semplicemente sulla base di etichette assegnate in automatico da una IA.
Interessante non solo per questo singolo conflitto, ma anche in chiave futura... perchè è scontato che roba del genere farà tranquillamente parte dei conflitti del domani.
Stiamo parlando ancora di una inchiesta giornalistica, e sarà da vedere cosa e quanto sarà confermato.
Le fonti sarebbero 6 membri dell'intelligence israeliana.
Vedremo.
Link vari sull'argomento
https://www.wired.it/article/lavende...ele-palestina/
https://www.972mag.com/lavender-ai-israeli-army-gaza/
https://www.theguardian.com/world/20...mas-airstrikes
https://www.nytimes.com/2024/03/27/t...tion-gaza.html
https://www.timesofisrael.com/uk-pap...outed-himself/