La grande attenzione che Apple pone intorno alla privacy e a tutti i diritti dei suoi utenti è massima. Col passare del tempo tutti hanno cominciato a dare un’occhiata in più al sistema operativo iOS proprio per via della sua grande sicurezza. Ciò ovviamente non significa che il mondo Apple non possa cascare in alcune situazioni difficili da risolvere, come quella che si è manifestata durante gli ultimi tempi.
Secondo quanto riportato infatti, diverse persone avrebbero ravvisato qualcosa di molto strano in giro per i social network. Stando a quanto riferito da moltissimi utenti, direttamente su Instagram sarebbero comparsi dei post pubblicitari che parlavano addirittura di applicazioni in grado di generare immagini con l’intelligenza artificiale per spogliare qualsiasi ragazza gratis. Tutto ciò non poteva passare indenne ed è per questo che è partita subito la caccia ai titoli.
Tutto è stato segnalato da una testata, 404 Media, che ha deciso di informare Apple riguardo alla questione. D’altronde la creazione di immagini di nudo è contro ogni norma della privacy ed è per questo motivo che si è proceduto subito con la rimozione.
Apple: eliminate dall’App Store tre applicazioni che generavano immagini AI di nudo
È stato dunque il giornale 404 Media, fonte assoluta in merito alla questione, a segnalare ad Apple la problematica accorsa. Secondo quanto riportato infatti il colosso di Cupertino ha avuto bisogno che la fonte gli indicasse i post pubblicitari su Instagram ed anche i nomi delle applicazioni in questione.
La cosa preoccupante è infatti che Apple non è riuscita ad identificare mediante i suoi algoritmi le applicazioni dannose. Se non fosse stato per la fonte, probabilmente quelle app sarebbero ancora disponibili sull’App Store. Fortunatamente tutto è bene quel che finisce bene e ad oggi la questione può dirsi risolta, almeno per il momento. Bisogna tenere sempre alta l’attenzione nel caso in cui dovessero manifestarsi queste piattaforme.