Un’artista che usa l’intelligenza artificiale di nome Lapine afferma di aver scoperto che foto mediche private di quasi dieci anni fa venivano utilizzate in un set di immagini che allena l’IA, chiamato LAION-5B.
Lapine ha fatto questa scoperta snervante utilizzando Have I Been Trained, un sito che consente agli artisti di verificare se il loro lavoro è stato utilizzato da altri. Quando Lapine ha eseguito una ricerca inversa dell’immagine del suo viso, due delle sue foto mediche private sono apparse inaspettatamente.
“Nel 2013 un medico mi ha fotografato il viso come parte della documentazione clinica“, ha spiegato Lapine su Twitter. “È morto nel 2018 e in qualche modo quell’immagine è finita da qualche parte online e poi è finita nel set di dati – l’immagine che ho firmato un modulo di consenso per il mio medico – non per un set di dati“.
LAION-5B dovrebbe utilizzare solo immagini disponibili pubblicamente sul web.
In qualche modo, quelle foto sono state prese dai file del suo medico e sono finite online e, infine, nel set di immagini di LAION. Ars Technica, in seguito alla scoperta di Lapine, ha trovato molte altre immagini “potenzialmente sensibili” di pazienti negli ospedali.
Una situazione da regolamentare
LAION ha raccolto quelle immagini utilizzando il web scraping, un processo in cui i bot setacciano Internet alla ricerca di contenuti.
Un ingegnere della LAION ha affermato nel Discord pubblico dell’organizzazione che il database non ospita effettivamente le immagini, quindi il modo migliore per rimuoverne una è “chiedere al sito Web di hosting di smettere di ospitarlo“, come citato da Ars.
Ma come sottolinea Lapine, tale processo richiede spesso di divulgare informazioni personali al sito in questione.
Alla fine, la responsabilità potrebbe essere difficile da definire. L’ospedale o il medico hanno sbagliato a non proteggere adeguatamente le foto o i web scraper come LAION sono troppo invasivi? Potrebbe trattarsi di una falsa dicotomia, poiché le risposte non si escludono a vicenda.