Ma cosa hai letto?
Il 10% sono gli errori di stima nell'individuare i possibili obiettivi: l'algoritmo mi ha suggerito 40 mila nomi di possibili membri di basso livello di hamas, ma presumibilmente 4000 di quelli erano totalmente innocenti.
Poi per ciascuno di questi, è stato valutato accettabile un danno collaterale di 15/20 civili per singolo obiettivo.
10% di danni collaterali vuol dire che ogni 10 miliziani uccisi muore un civile che non c'entrava nulla.
Ma qui siamo in un contesto in cui ogni 10 miliziani uccisi viene considerato accettabile ammazzare fino a 150/200 civili... e nel 10% dei casi, quel "miliziano" era innocente pure lui.
E tutto questo stabilito sulla base dei tag che vengono assegnati sulla testa delle persone da una IA... e con obiettivi che spesso vengono colpiti buttando giù l'edificio in cui vivono, quando rientrano a casa da moglie e figli.
Che è una roba che io posso giustificare per elementi di alto rango (ho l'occasione di uccidere un generale... lo faccio anche se era in macchina con i figlioletti al seguito). Ma qui si parla di elementi di basso profilo.
Disclaimer: stiamo sempre parlando sulla base dell'inchiesta.
Magari so tutte cazzate ed ogni singolo colpo è stato attentamente valutato, studiato ed eseguito nella maniera più chirurgica che fosse possibile.
Ultima modifica di Bobo; 11-04-24 alle 11:40
Esattamente, ed imho è un problema proprio di responsabilità nella decisione.
Se c'è una catena umana di comando, ad un certo punto si arriverà al Bobo di turno che dovrà prendersi la responsabilità (anche morale) di dire "lancia la bomba su quel palazzo", con la consapevolezza che quell'azione avrà delle conseguenze e che gli eventuali danni collaterali saranno stati attentamente valutati.
Ma se ti arriva sul tavolo un suggerimento da parte dell'algoritmo, una una pre-autorizzazione a colpire, a quel punto è vero che il timbro finale lo dai tu... ma, anche moralmente, sarai molto più portato a scaricarti la coscienza... perchè non sei mica tu che hai detto di colpire lì, è l'algoritmo che lo ha suggerito.
Te hai solo detto si.
Nell'inchiesta il ruolo dell'umano è paragonato al tizio che mette il timbro sul fascicolo che gli arriva sotto il naso, dopo una valutazione di qualche secondo.
E si parla di come i pochi NO riportati, fossero legati ad episodi in cui l'algoritmo suggeriva le donne... che, immagino per struttura sociale del luogo, saranno molto probabilmente di solito tenute fuori dalle azioni vere e proprie dei miliziani. Ovvero: errori evidenti.
Negli altri casi... arriva il fascicolo con scritto "Manu", timbro, ciao.
Magari a casa tua, con moglie e figli al seguito.
Questo è quello che viene descritto.
Poi magari son tutte cazzate, ripeto.
Ma di questo si parla.
Io sto dicendo che la IA non fa partire il bombardamento. Se davanti allo schermo ci sono tizi che ogni volta fanno partire l'attacco il problema sono loro.
Quel 10% di danni collaterali andrebbe chiarito, comunque
Senza sapere quanti collaterali ci sarebbero senza usare un'AI, non possiamo sapere se siamo nel "migliore dei mondi possibili” alla Voltaire
Dipende da come funziona il tutto.
Se l'IA è a supporto della prima fase di analisi, tanto per far finire il fascicolo "manu" sul tavolo dell'ufficiale... che poi provvederà ad incrociare i dati, approfondire le valutazioni sul campo e solo a quel punto lanciare l'escalation ai piani alti per l'autorizzazione finale è un discorso.
Se la procedura invece prevede che l'IA faccia arrivare un elenco di nomi sul pc di quello che deve dare l'OK, con procedure pre-autorizzate, e quello in 60 secondi deve valutare se sia un errore evidente oppure no... allora lì è l'algoritmo che decide. L'operatore ha solo la responsabilità di eliminare gli errori evidenti. Il problema è che gli errori non evidenti magari costano la vita a 20 persone.
La valutazione dell'obiettivo e l'ok all'azione è una cosa che si fa sempre, da sempre, in qualsiasi scenario.
Però una cosa è se passa da una serie di valutazioni umane (ho il tizio sul campo che si trova Manu davanti e lancia l'allarme, ho l'operatore dietro un drone che lo ha individuato ed avverte i superiori). che salgono via via di gerarchia in valutazioni successive (e con ogni livello che si assume la sua parte di responsabilità).
Un altro è se c'è una IA che ti fa arrivare il nome sul tavolo, te lo dai sostanzialmente per buono e dici OK.
Poi magari l'IA sarà più affidabile della catena umana, ma è proprio una questione di responsabilità di fronte ad azioni così importanti.
Secondo me dobbiamo intanto usare le parole giuste, altrimenti si crea confusione (e si è già visto in alcune risposte qui dentro).Quel 10% di danni collaterali andrebbe chiarito, comunque
L'espressione "danni collaterali" ha un significato preciso, che generalmente indica le vittime innocenti che finisco in mezzo ad una operazione militare che ha un obiettivo lecito.
So che Manu è un terrorista, vedo che sta salendo su un bus, lo faccio saltare in aria.
L'obiettivo è eliminato, ci saranno una serie di "danni collaterali" che erano innocenti ma si sono trovati nel posto sbagliato al momento sbagliato.
Quel 10% è l'errore stimato dell'algoritmo.
Nel 10% dei casi il Manu individuato non era un terrorista, e quindi per far saltare in aria un innocente ne ho ammazzati 15.
In questo caso secondo me non è neanche corretto di parlare di danni collaterali. E' un proprio un errore di valutazione. Lì i danni collaterali sono il 100% del totale.
Tra l'altro questo 10% è una stima che ci facciamo andar bene come tutto il resto... perchè ovviamente il funzionamento dell'algoritmo non è noto, e l'algoritmo stesso è regolabile in sensibilità: se voglio essere sicuro di eliminare più miliziani abbasso l'asticella della sicurezza accettando più errori, altrimenti la alzo accettando il fatto che mi scapperanno più colpevoli.
consideriamo anche che nel caso dell'IDF ci sono molti casi documentati di palestinesi uccisi da soldati "perchè si" perchè tanto non gli fanno nulla e possono, come di case distrutte per gli stessi motivi...
Dopo tutto l'AI suggeriva i bersagli ma la scelta finale di avallarla o meno era sempre umana, e dunque alla fine dipende dal suo giudizio.
Ni.
Cito dal report:
A meno che non vogliamo davvero credere che ad un essere umano siano sufficienti 20 secondi per decidere se Enriko deve saltare in aria insieme a tutta la sua famiglia, sulla base del report risulta che chi dovesse morire e chi vivere fosse deciso al 100% da un algoritmo.According to six Israeli intelligence officers, who have all served in the army during the current war on the Gaza Strip and had first-hand involvement with the use of AI to generate targets for assassination, Lavender has played a central role in the unprecedented bombing of Palestinians, especially during the early stages of the war. In fact, according to the sources, its influence on the military’s operations was such that they essentially treated the outputs of the AI machine “as if it were a human decision.”
Formally, the Lavender system is designed to mark all suspected operatives in the military wings of Hamas and Palestinian Islamic Jihad (PIJ), including low-ranking ones, as potential bombing targets. The sources told +972 and Local Call that, during the first weeks of the war, the army almost completely relied on Lavender, which clocked as many as 37,000 Palestinians as suspected militants — and their homes — for possible air strikes.
During the early stages of the war, the army gave sweeping approval for officers to adopt Lavender’s kill lists, with no requirement to thoroughly check why the machine made those choices or to examine the raw intelligence data on which they were based. One source stated that human personnel often served only as a “rubber stamp” for the machine’s decisions, adding that, normally, they would personally devote only about “20 seconds” to each target before authorizing a bombing — just to make sure the Lavender-marked target is male. This was despite knowing that the system makes what are regarded as “errors” in approximately 10 percent of cases, and is known to occasionally mark individuals who have merely a loose connection to militant groups, or no connection at all.
Moreover, the Israeli army systematically attacked the targeted individuals while they were in their homes — usually at night while their whole families were present — rather than during the course of military activity. According to the sources, this was because, from what they regarded as an intelligence standpoint, it was easier to locate the individuals in their private houses. Additional automated systems, including one called “Where’s Daddy?” also revealed here for the first time, were used specifically to track the targeted individuals and carry out bombings when they had entered their family’s residences.
Poi magari risulterà tutto finto, ma ad oggi se vogliamo parlarne dobbiamo farlo sulla base di quanto è emerso. Non di quello che presumiamo noi.
Ed anche sulla questione del "bias"...
L'algoritmo in questione è programmato da Israeliani e la sensibilità è settata da militari Israeliani.
Quindi il "bias" dell'essere umano può facilmente essere riportato all'interno dell'algoritmo: se il mio obiettivo è eliminare hamas anche a costo di elevati danni collaterali, mi basta abbassare la sensibilità dell'algoritmo e poi far saltare in aria tutto quello che mi indica.
E se allego all'algoritmo che le vittime collaterali accettabili per far fuori Enriko siano 20, lui etichetterà Enriko come obiettivo da eliminare in quel momento anche se intorno ha 20 persone che non ci entrano nulla.
Ultima modifica di Bobo; 11-04-24 alle 14:08
Attendiamo l'opinione di Diabolik, Von Right e Covin prima di dare giudizi affrettati come abbiamo fatto con i numeri dei morti
Si può dire che gli Israeliani hanno i mezzi per radere al suolo tutto con delle bombe incendiarie, ed invece si sono disturbati a mettere in piedi una struttura tecnologicamente avanzata per colpire gli obiettivi in maniera ragionata.
Bombe incendiarie non si può sentire siamo ancora durante la 2° GM??
Beh, Israele è accusata da alcuni di aver usato armi al fosforo bianco, che se non erro rientrano tra le "incendiarie".
Cmq era buttata lì... rileggila come "hanno i mezzi per radere al suolo qualsiasi cosa ed invece..." se ti fa star meglio
Che Israele se avesse voluto, avrebbe potuto piallare Gaza in 3 giorni penso nessuno lo metta in dubbio.
Inviato dal mio MAR-LX1A utilizzando Tapatalk
Esattamente.
Mi auguro che qualcuno proponga Bibi al nobel per la pace: trattenendosi, si può dire che abbia salvato almeno due milioni di palestinesi da morte certa
Inviato dal mio M2101K7BNY utilizzando Tapatalk
"I pity the poor shades confined to the euclidean prison that is sanity." - Grant Morrison
"People assume that time is a strict progression of cause to effect, but *actually* from a non-linear, non-subjective viewpoint - it's more like a big ball of wibbly wobbly... time-y wimey... stuff." - The Doctor
La configurazione del mio PC.
Il mio canale Youtube.