Meta, l’azienda madre di Instagram, ha risposto alle critiche aggiornando l’etichetta a “AI info” nelle sue app e piattaforme. Ma la modifica ha veramente risolto il problema? E quali sono stati gli eventi che hanno portato a questa decisione?
L’etichetta “Made with AI” ha suscitato malcontento tra i fotografi professionisti, che hanno visto le loro foto reali erroneamente contrassegnate come interamente generate dall’intelligenza artificiale. Questo errore ha sollevato preoccupazioni sulla percezione dell’autenticità e della professionalità delle loro opere, specialmente quando le foto erano state modificate con strumenti come Photoshop ma non erano di creazione esclusiva dell’IA.
Dopo l’implementazione dell’etichetta aggiornata “AI info“, tuttavia, sono continuati a verificarsi casi in cui immagini della vita reale sono state erroneamente contrassegnate come generate da AI. Un esempio lampante è stato evidenziato da Pete Souza, ex fotografo della Casa Bianca, che ha mostrato una sua foto su pellicola, scattata decenni fa, erratamente contrassegnata come “Made with AI”.
Questo incidente ha sollevato domande sulla precisione e sulla corretta applicazione delle etichette AI nelle piattaforme social di Meta. Kate McLaughlin, portavoce di Meta, ha dichiarato che l’azienda è impegnata a migliorare continuamente i suoi prodotti di intelligenza artificiale e a collaborare con partner del settore per affinare l’approccio all’etichettatura AI.
Secondo Souza, il malinteso potrebbe essere stato causato dall’uso di strumenti di editing come Adobe Photoshop, che hanno alterato i metadati delle immagini e potrebbero aver confuso i sistemi di etichettatura automatizzati di Instagram. Questo episodio mette in luce la complessità di bilanciare l’automazione e l’accuratezza nell’etichettatura dei contenuti AI, soprattutto quando si tratta di arte e creatività umana.