Alcuni ricercatori Apple, qualche giorno fa, hanno pubblicato una serie di quattro moduli linguistici, chiamati OpenELM, basati sulla libreria Hugging Face. L’azienda ha spiegato che OpenELM sta per “Open-source Efficient Language Models”, ovvero i modelli che sono in grado di eseguire in maniera efficiente delle attività legate al testo come, ad esempio, la scrittura delle email.
I quattro moduli sono open source e già pronti per l’utilizzo da parte degli sviluppatori interessati. Nel dettaglio, OpenELM è disponibile in quattro dimensioni. Quest’ultime sono: 270 milioni di parametri; 450 milioni di parametri; 1,1 miliardi di parametri; e 3 miliardi di parametri. Per parametri si intende il numero di variabili che un modello può utilizzare durante il suo processo decisionale
. A tal proposito, The Verge, sottolinea che Phi–3 di Microsoft, ad esempio, utilizza 3,8 miliardi di parametri. Mentre Gemma di Google presenta una variante dotata di 2 miliardi di parametri.Questi dettagli mostrano una parte del progetto che Apple intende portare avanti per poter integrare l’AI sui suoi dispositivi. In questo modo l’azienda di Cupertino intende sfruttare le capacità di questa tecnologia per ampliare le possibilità offerte alla propria clientela. Parte di questo progetto sono le innovazioni che la stessa Apple sta cercando di integrare nel mondo dell’intelligenza artificiale. Ad esempio, appena qualche settimana fa è stata lanciata un’AI in grado di animare le immagini. Interventi importanti che, se integrati sui dispositivi iPhone potrebbero cambiare radicalmente il modo in cui gli utenti possono approcciarsi al proprio smartphone, e non solo. Al momento queste sono solo anticipazioni e bisognerà attendere conferme ufficiali per sapere quale sarà la strada effettiva percorsa da Apple e quando i sistemi AI verranno concretamente integrati nell’universo Apple.