Le funzioni aggiuntive cui l’azienda sta lavorando arriveranno con gli aggiornamenti per iOS 15, iPadOS 15, WatchOS 8 e MacOS Monterey. Per il momento, sono disponibili negli Stati Uniti. La prima delle tre funzioni utilizzerà l’apprendimento automatico per controllare il contenuto dei messaggi alla ricerca di foto sessualmente esplicite. L’analisi della galleria avverrà interamente sul dispositivo stesso, Apple non sarà in grado di vedere i messaggi. I bambini a rischio saranno avvisati tramite un sistema di notifiche che genera degli avvisi automatici anche sui dispositivi dei genitori della vittima di molestie. I dispositivi verificheranno i dati incriminati con l’aiuto di un database di immagini già segnalate in precedenza.
Se la somiglianza tra le immagini è alta, l’immagine diventerà visibile ad Apple. L’azienda esaminerà manualmente le immagini per confermarne la corrispondenza e, in caso affermativo, l’account degli utenti verrà disabilitato e segnalato alle autorità. L’annuncio di queste funzioni si è rivelato incredibilmente controverso fin da subito. Mercoledì, l’esperto di crittografia Matthew Green ha espresso le sue perplessità in merito.
Il professor Green, che lavora alla Johns Hopkins, ha affermato che sebbene tali tecnologie siano migliori degli strumenti tradizionali, sono pur sempre “strumenti di sorveglianza di massa“. Ha notato che chiunque controlli l’elenco delle possibili immagini potrebbe usarlo per cercare qualsiasi immagine a sua volta, non solo quelle associate agli abusi sui minori, e che non ci sarebbe modo di sapere se il sistema è usato in modo corretto. Alan Woodward, esperto di informatica presso l’Università del Surrey, è stato uno dei tanti che ha fatto eco alle preoccupazioni del professor Green.