La nuova iniziativa di Apple fa discutere tanto da essere accusata di violazione di dei file e più in generale della privacy. “In Apple, il nostro obiettivo è creare una tecnologia che dia potere alle persone e arricchisca le loro vite, aiutandoli a stare al sicuro”. Il colosso di Cupertino prova a difendersi. “Vogliamo proteggere i bambini dai predatori che utilizzano strumenti di comunicazione per reclutarli e sfruttarli e limitare la diffusione di materiale pedopornografico – si legge in un documento ufficiale – da quando abbiamo annunciato queste funzionalità, molte parti interessate, comprese le organizzazioni per la privacy e le organizzazioni per la sicurezza dei bambini, hanno espresso il loro sostegno a questa nuova soluzione e alcuni hanno contattato con domande”. Dunque, Apple vuole visionare le immagini pedopornografiche e i messaggi degli utenti più giovani per tenere sotto controllo le immagini sessualmente esplicite.
Apple: botta e risposta con Edward Snowden
In molti hanno definito il nuovo pacchetto Apple come lesivo e pericoloso per la salvaguardia dei dati personali. Edward Snowden, informatico, attivista e whistleblower statunitense, ex tecnico della CIA e fino al 10 giugno 2013 collaboratore di un’azienda consulente della National Security Agency, accusa: “Se possono scansionare le immagini oggi, potranno fare quello che vogliono domani monitorando miliardi di dispositivi senza chiedere il permesso”.
Apple allora puntualizza: “Funziona solo sulle immagini inviate o ricevute nell’app Messaggi per gli account per bambini configurati in Condivisione in famiglia quando un account bambino invia o riceve immagini sessualmente esplicite, la foto verrà sfocata e il bambino sarà avvertito. Come ulteriore precauzione, un messaggio anche per i genitori”.
Per quanto riguarda il rilevamento CSAM in iCloud Photos, ha spiegato: “Ha effetto solo sugli utenti che hanno scelto di utilizzare le foto di iCloud per archiviare le proprie fotografie. Non ha alcun impatto sugli utenti che non hanno scelto di utilizzare Foto di iCloud”. L’azienda infine conclude: “Siamo stati male interpretati. Quello che abbiamo presentato è un sistema che voleva essere in grado di localizzare le foto già presenti nel National Center for Missing and Exploited Children nel cloud, senza dover guardare le foto delle persone”.