Il dibattito sull‘applicazione del copyright all’intelligenza artificiale generativa rimane una questione scottante nel panorama tecnologico. Nonostante le discussioni siano in corso da un po’ di tempo, con particolare attenzione a concetti come watermark, emerge ora l’iniziativa del gruppo no profit Fairly Trained, che propone l’introduzione di una certificazione per i modelli di intelligenza artificiale.
Secondo quanto riportato da Bloomberg e The Verge, Fairly Trained ha l’obiettivo di offrire agli utenti una maggiore chiarezza riguardo ai servizi che addestrano i loro modelli in modo etico e nel rispetto del copyright. L’enfasi si concentra soprattutto sui servizi che rispettano le leggi sul copyright, richiedendo il consenso degli autori o dei detentori dei diritti per l’utilizzo di materiale protetto.
La certificazione proposta da Fairly Trained rappresenta un passo avanti per distinguere i vari servizi di intelligenza artificiale in base al rispetto delle normative sul copyright. Fondato da Ed Newton-Rex
, una figura notevole nel settore e ex esponente di spicco di Stability AI, il gruppo si pone l’obiettivo di mettere fine all’utilizzo non autorizzato di dati protetti da copyright nell’addestramento dei modelli di intelligenza artificiale.
Per ottenere la certificazione, le aziende operanti nel campo dell’intelligenza artificiale dovranno dimostrare chiaramente di aver ottenuto il consenso per l’utilizzo dei dati utilizzati durante l’addestramento. Newton-Rex, che ha lasciato Stability AI nel novembre 2023, ha sottolineato la necessità di affrontare l’attuale sfruttamento da parte dell’intelligenza artificiale nei confronti dei creatori.
Nonostante la lunga strada legislativa ancora da percorrere, l’iniziativa di Fairly Trained segnala un impegno per affrontare le sfide etiche legate all’utilizzo dell’IA e pone l’accento sulla necessità di proteggere i diritti dei creatori di contenuti. Per ulteriori dettagli, è possibile approfondire la questione consultando il blog ufficiale di Fairly Trained.