Certo, è tutto per proteggere i bambini, sicuro![]()
A parte che lo fanno già tutti, confrontano solo gli hash di determinate foto già conosciute, si può optare out e solo se si caricano su iCloud. Sta sul cazzo pure a me ma stanno riportando una notizia sbagliata pur di parlare di qualcosa
https://www.macrumors.com/2021/08/05...icloud-photos/
Apple Confirms Detection of Child Sexual Abuse Material is Disabled When iCloud Photos is Turned Off
"Apple's method works by identifying a known CSAM photo on device and then flagging it when it's uploaded to *iCloud Photos* with an attached voucher. After a certain number of vouchers (aka flagged photos) have been uploaded to *iCloud Photos*, Apple can interpret the vouchers and does a manual review. If CSAM content is found, the user account is disabled and the National Center for Missing and Exploited Children is notified.
Because Apple is scanning *iCloud Photos* for the CSAM flags, it makes sense that the feature does not work with *iCloud Photos* disabled. Apple has also confirmed that it cannot detect known CSAM images in iCloud Backups if *iCloud Photos* is disabled on a user's device.
It's worth noting that Apple is scanning specifically for hashes of known child sexual abuse materials and it is not broadly inspecting a user's photo library or scanning personal images that are not already circulating among those who abuse children. Still, users who have privacy concerns about Apple's efforts to scan user photo libraries can disable *iCloud Photos*."
È meno peggio di quanto raccontato ma è comunque una cosa di cui si fa bene a parlare, perché quando sistemi tipo questo vengono messi in mano a paesi di merda (usa compresi, oltre a Russia e Cina) è un attimo creare scenari spiacevoli
- - - Aggiornato - - -
Tipo metti che sciginping faccia ammazzare tutti quelli con foto di Winnie the pooh sul telefono, sono cazzi, o putin quelli con la sua faccia truccata lgbtqi+
Se cominciassero davvero a denunciare la gente con questo sistema la cosa non durerebbe molto, ci sarebbero molte "associazioni" che protesterebbero e lamenterebbero un accanimento nei loro confronti![]()
Vedo che nessuno si pone il problema che una entità privata è in possesso di un database di fotografie di bambini, cosa che di per sé costituirebbe reato.![]()
https://www.worldoftrucks.com/en/onl...e.php?id=92274
Corsair iCue5000X RGB - Asus ROG-STRIX Z690 F-GAMING ARGB - Intel Core i7 12700K - Corsair iCue H150i Capellix RGB - 2X Corsair Dominator Platinum RGB DDR5 5600MHz 16GB - Samsung 980PRO M.2 1TB NVMe PCIe - PCS 1TBe SSD M.2 - Seagate Barracuda 2TB - Corsair 1000W RMx Series MOD. 80PLUS GOLD - Asus ROX-STRIX GEFORCE RTX3070Ti 8GB - Kit 4 ventole Corsair LL120 RGB LED - Windows 11 64bit
Ah dimenticavo che negli stati uniti devono farlo tutti, e giusto per mettere in prospettiva "U.S. law requires tech companies to flag cases of child sexual abuse to the authorities. Apple has historically flagged fewer cases than other companies. Last year, for instance, Apple reported 265 cases to the National Center for Missing & Exploited Children, while Facebook reported 20.3 million, according to the center’s statistics. That enormous gap is due in part to Apple’s decision not to scan for such material, citing the privacy of its users."
https://daringfireball.net/2021/08/a...slippery_slope
è già stato detto "tanto non ho niente da nascondere" ?
Vabeh ma che paragone è, Facebook ha miliardi di post sulla propria piattaforma, non è roba privata di un singolo utente o messaggistica teoricamente protetta da crittografia end-to-end o comunque non pensata per essere condivisa con nessuno. Apple non ha mica un social network, cosa dovrebbe scannare?
A proposito di Facebook, Whatsapp che invece ha crittografia end-to-end non fa scanning dei messaggi (almeno è quello che dicono, ovviamente se mentono è un altro discorso).
E se il mio amico pedofilo mi manda per sbaglio la foto della sua ultima conquista ci scattano le manette?
Also in Europa niente?
just crop by 1 pixel the picture