Facebook, Instagram e Twitter hanno limitato la quantità di dati accessibili a Predictim, una startup californiana che utilizza l’apprendimento automatico per controllare potenziali baby-sitter. I social network hanno preso provvedimenti contro l’azienda dopo che un rapporto del Washington Post della scorsa settimana ha mostrato i suoi metodi, attirando critiche un po ovunque.
Predictim afferma di usare “intelligenza artificiale avanzata” per giudicare l’idoneità di una babysitter. Ciò include la scena di vita quotidiane attraverso le storie di Facebook, Instagram e Twitter di un individuo prima di offrire una valutazione dal loro programma. La società afferma di poter prevedere se l’individuo è un tossicodipendente, se potrebbe maltrattare o molestare gli altri, e anche se ha una “cattiva attitudine”.
Gli esperti hanno criticato il servizio di Predictim come non scientifico, osservando che l’apprendimento automatico è notoriamente inaffidabile quando si tratta di analizzare dati complessi come il linguaggio umano. L’intelligenza artificiale potrebbe essere brava a riconoscere oggetti nelle foto o a digitalizzare la grafia, ma non può interpretare in modo affidabile le sfumature di tono e parola come il sarcasmo o le battute. Gli esperti in politica dei dati hanno anche notato che il software di Predictim non spiega come vengono prese le decisioni, il che significa che una potenziale baby-sitter potrebbe perdere un lavoro senza mai sapere perché o offrire una spiegazione.
Facebook, Instagram e Twitter hanno preso provvedimenti contro Predictim nelle ultime settimane, riportano The Washington Post e BBC News. Facebook afferma che ha drasticamente limitato l’accesso della società ai dati degli utenti su Facebook e Instagram dopo aver violato il divieto degli sviluppatori di utilizzare queste informazioni. Twitter ha revocato l’accesso di Predictim dalla sua API (che è utilizzata per accedere ai dati su larga scala, piuttosto che leggere i singoli profili) all’inizio di questa settimana. Un portavoce ha dichiarato al Post: “Proibiamo rigorosamente l’uso dei dati e delle API di Twitter a scopo di sorveglianza, compreso l’esecuzione di verifiche in background”.
L’amministratore delegato e co-fondatore di Predictim, Sal Parsa, ha affermato che la società non ha fatto nulla di male. “Tutti guardano le persone sui social, o cercano le persone su Google“, ha detto Parsa a BBC News.
Parsa ha anche suggerito che i social network, che analizzano i dati degli utenti per indirizzare loro annunci, hanno le proprie motivazioni per bloccare il suo software. “Twitter e Facebook stanno già estraendo i nostri dati”, ha detto Parsa al Post. “ Ora c’è un’altra start-up che sta cercando di trarre vantaggio da questi dati per aiutare i genitori a scegliere una babysitter migliore e fare un po di soldi nel processo. “
Indipendentemente da queste azioni, le domande più ampie riguardanti la legalità dei controlli automatici in background sono ancora in sospeso. Alcuni esperti hanno suggerito che il software di Predictim potrebbe violare i divieti a livello statale sui datori di lavoro che richiedono l’accesso agli account dei social media. Altri social network vorrebbero bloccare completamente questo tipo di scraping di dati. LinkedIn è attualmente nel bel mezzo di una battaglia legale anche contro HiQ.
Nel frattempo, le aziende continuano a creare più servizi di screening basati sull’intelligenza artificiale, monitorando le attività dei social media, ma anche ad altre metriche tra cui il rendimento delle interviste individuali. Gli esperti temono che la consegna di decisioni cruciali ad algoritmi che non possono spiegare il modo di pensare o di comprendere il comportamento umano è sconsigliabile, mentre le aziende che vendono questi servizi affermano che l’approccio di una macchina è più dettagliato e imparziale.