Citazione Originariamente Scritto da Manu Visualizza Messaggio
Io sto dicendo che la IA non fa partire il bombardamento. Se davanti allo schermo ci sono tizi che ogni volta fanno partire l'attacco il problema sono loro.
Dipende da come funziona il tutto.

Se l'IA è a supporto della prima fase di analisi, tanto per far finire il fascicolo "manu" sul tavolo dell'ufficiale... che poi provvederà ad incrociare i dati, approfondire le valutazioni sul campo e solo a quel punto lanciare l'escalation ai piani alti per l'autorizzazione finale è un discorso.

Se la procedura invece prevede che l'IA faccia arrivare un elenco di nomi sul pc di quello che deve dare l'OK, con procedure pre-autorizzate, e quello in 60 secondi deve valutare se sia un errore evidente oppure no... allora lì è l'algoritmo che decide. L'operatore ha solo la responsabilità di eliminare gli errori evidenti. Il problema è che gli errori non evidenti magari costano la vita a 20 persone.

La valutazione dell'obiettivo e l'ok all'azione è una cosa che si fa sempre, da sempre, in qualsiasi scenario.

Però una cosa è se passa da una serie di valutazioni umane (ho il tizio sul campo che si trova Manu davanti e lancia l'allarme, ho l'operatore dietro un drone che lo ha individuato ed avverte i superiori). che salgono via via di gerarchia in valutazioni successive (e con ogni livello che si assume la sua parte di responsabilità).

Un altro è se c'è una IA che ti fa arrivare il nome sul tavolo, te lo dai sostanzialmente per buono e dici OK.

Poi magari l'IA sarà più affidabile della catena umana, ma è proprio una questione di responsabilità di fronte ad azioni così importanti.

Quel 10% di danni collaterali andrebbe chiarito, comunque
Secondo me dobbiamo intanto usare le parole giuste, altrimenti si crea confusione (e si è già visto in alcune risposte qui dentro).

L'espressione "danni collaterali" ha un significato preciso, che generalmente indica le vittime innocenti che finisco in mezzo ad una operazione militare che ha un obiettivo lecito.

So che Manu è un terrorista, vedo che sta salendo su un bus, lo faccio saltare in aria.
L'obiettivo è eliminato, ci saranno una serie di "danni collaterali" che erano innocenti ma si sono trovati nel posto sbagliato al momento sbagliato.


Quel 10% è l'errore stimato dell'algoritmo.
Nel 10% dei casi il Manu individuato non era un terrorista, e quindi per far saltare in aria un innocente ne ho ammazzati 15.
In questo caso secondo me non è neanche corretto di parlare di danni collaterali. E' un proprio un errore di valutazione. Lì i danni collaterali sono il 100% del totale.

Tra l'altro questo 10% è una stima che ci facciamo andar bene come tutto il resto... perchè ovviamente il funzionamento dell'algoritmo non è noto, e l'algoritmo stesso è regolabile in sensibilità: se voglio essere sicuro di eliminare più miliziani abbasso l'asticella della sicurezza accettando più errori, altrimenti la alzo accettando il fatto che mi scapperanno più colpevoli.