Analizzare la sicurezza della tecnologia AI: è questo l’obiettivo del grande colosso Apple, società fondata da Steve Jobs e ormai famosa in tutto il mondo. Per farlo, però, l’azienda ha deciso di chiedere aiuto ai ricercatori offrendo in cambio fino a 1 milione di dollari.
In seguito all’ampliamento del programma di bug bounty per includere il sistema Private Cloud Compute (PCC), Apple punta dunque a testare l’efficienza e la sicurezza dell’intelligenza artificiale. Ma cosa riguarda, nello specifico, l’iniziativa lanciata dall’azienda della Silicon Valley? Scopriamo insieme nel corso di questo articolo tutti i dettagli relativi alla nuova iniziativa lanciata dal colosso di Cupertino.
Apple: 1 milione di euro offerto a chi trova vulnerabilità
Per chi non lo conoscesse, il sistema Private Cloud Computer è in grado di gestire alcune funzionalità di intelligenza artificiale in cui però è necessario rispettare la privacy degli utenti.
Grazie all’iniziativa lanciata dall’azienda Apple, i ricercatori che decidono di aderire possono accedere a strumenti come una Guida di sicurezza, ma non solo. Tra questi vi è anche un Mac con Apple Silicon e 16GB di memoria e macOS Sequoia 15.1 Developer Preview.
Come accennato in apertura, la ricompensa messa a disposizione da Apple è davvero importante. Si tratta di premi che vanno da cifre comprese tra i 50.000 e 1 milione di dollari. Il premio in questione viene assegnato a coloro che riescono ad individuale eventuali vulnerabilità nel sistema e, dunque, riscontrano eventuali vulnerabilità inerenti all’intelligenza artificiale.
Secondo quanto diffuso dall’azienda, il valore del premio da assegnare sarà deciso in base al grado di rischio riscontrato. Non dimentichiamo che ci troviamo in un momento in cui tantissime aziende puntano ad introdurre l’intelligenza artificiale nelle proprie tecnologie. Come conseguenza, Apple punta ad offrire il meglio dell’innovazione agli utenti ma anche il massimo rispetto della privacy. Non ci resta dunque che attendere aggiornamenti in merito.