La piattaforma video però ha dichiarato che queste richieste non verranno accolte automaticamente, ma che saranno prima valutate sulla base di alcuni criteri prestabiliti. Questi riguardano il tipo di contenuto, ad esempio se è una parodia o una satira, e non solo. Uno dei criteri riguarda anche se la persona che fa questa richiesta è identificabile in modo univoco. Jennifer Flannery O’Connor ed Emily Moxley, vicepresidenti di YouTube Product Managemen hanno aggiunto ulteriori criteri considerati per accettare la richiesta di rimozione di opere AI. Questi riguardano il contenuto, se è oggetto di notizie analisi o critica della voce artificiale in questione.
Inoltre, sempre per restare in tema YouTube ha annunciato una policy
che richiederà a tutti i creatori di etichettare le proprie opere qualora fossero state create con AI. Gli utenti “inseriranno” questa etichetta nel momento in cui caricano i contenuti sulla piattaforma. Gli utenti che non rispettano questa policy possono essere soggetti a diverse penalizzazioni. Tra queste troviamo la rimozione di suddetti contenuti, la sospensione del Partner Program o anche altre sanzioni.Inoltre, O’Connor e Moxley hanno aggiunto che gli utenti dovranno dichiarare anche quando all’interno dei loro video caricati su YouTube ci sono opere modificate tramite strumenti di AI. Per riuscire a identificare con più facilità questo tipo di contenuti, all’interno del pannello di descrizione del video su YouTube apparirà una dicitura particolare. Questa avviserà gli spettatori che il contenuto che stanno per vedere è stato generato tramite AI. Per i video che contengono immagini sensibili, o trattano di argomenti più delicati, questa etichetta apparirà nel pannello stesso del video in questione. Questo è solo un primo passo che YouTube ha deciso di compiere per dare una sorta di regolamentazione per i contenuti creati tramite l’AI. Lo scopo ultimo è quello di mantenere sempre viva la creatività degli utenti senza mai dimenticare però la loro sicurezza.