Bisogna innanzitutto assicurarsi che il proprio dispositivo stia eseguendo la build sperimentale più recente del rispettivo sistema operativo, la quale si dovrebbe già avere sotto forma di download partecipando alla versione beta di Android. Per chi non fosse iscritto al programma, può ancora farlo, poiché Google non ha imposto un limite di partecipanti.
In seguito, ecco i passaggi da seguire:
Questa procedura serve alle app di terze parti per elaborare le foto in HDR+. Ciò significa che non viene realmente cambiata la qualità delle immagini fornite dall’app Camera predefinita, essendo già ottimizzata da Google di default. Gli sviluppatori che cercano di sfruttare tale chip dovranno quindi fare in modo che l’app utilizzata usufruisca dell’API della Camera Android. Molti servizi noti come Facebook, Instagram, ecc. già lo fanno.
Il chip dunque non è in grado di migliorare in maniera significativa la qualità degli scatti, ma migliorerà l’elaborazione dell’immagine. Di conseguenza, le app di terze parti potrebbero scattare foto in maniera più rapida o consumando meno batteria. I vantaggi sono di conseguenza tangibili ugualmente.
L’apprendimento automatico è essenziale per Pixel Visual Core, infatti quest’hardware potrebbe diventare ancor più efficiente in futuro. Ad esempio, potrebbe consentire al chip del dispositivo di non influire negativamente sulla batteria.