Apple abbandona i suoi piani per rilevare materiale pedopornografico nelle Foto di iCloud
Apple abbandona i suoi piani per rilevare materiale pedopornografico nelle Foto di iCloud
Oltre a rendere disponibile la crittografia end-to-end per le Foto di iCloud, Apple ha annunciato di aver abbandonato i suoi piani per rilevare il materiale pedopornografico (CSAM) archiviato nello Foto di iCloud. Ecco la dichiarazione della società: “Dopo un’ampia consultazione con esperti per raccogliere feedback sulle iniziative di protezione dei minori che abbiamo proposto l’anno scorso, [...]