Sta succedendo davvero: sembra che Google, Microsoft e OpenAI abbiano deciso di collaborare per sviluppare un nuovo modello di apprendimento unificato, più sicuro e “responsabile“.
Il primo annuncio è stato quello di Google, che in una nota sul suo sito ha fatto sapere che il progetto è volto a spianare la strada per un mondo in cui l’IA sia completamente integrato in qualsiasi ambito, dalla politica alla sicurezza personale.
Ma non è una novità. E’ da tempo infatti che società come OpenAI puntano a creare modelli di apprendimento più precisi e facili da usare. “Le aziende che creano tecnologia AI hanno la responsabilità di garantire che sia sicura, protetta e rimanga sotto il controllo umano“, ha dichiarato Brad Smith, vicepresidente e presidente di Microsoft. “Questa iniziativa è un passo fondamentale per riunire il settore tecnologico nel far progredire l’IA in modo responsabile e affrontare le sfide in modo che vada a beneficio di tutta l’umanità“.
Finalmente si inizia a fare sul serio
Per adesso, l’utilizzo di questa nuova “features” sarà limitata solo alle società che riusciranno a distribuire il prodotto finale implementato su larga scala e solo se riuscirà a superare le prestazioni dei modelli attuali, afferma la dichiarazione.
Sul blog viene definito come “Frontier Model Forum” ed è una vera e propria “Bibbia” per l’integrazione e lo sviluppo dell’IA. Inoltre, tutte le società che hanno fondato e hanno aderito a questo progetto diventeranno automaticamente anche un punto di riferimento per tutte le decisioni e consulenze con i governi.
Ma non solo le uniche società che hanno deciso di partire sulla nave dell’AI: nomi iconici come Partnership for AI e MLCommons hanno deciso infatti di puntare verso la stessa direzione.