Infatti, sembra che la piattaforma stia per rilasciare una funzione che permetterà agli utenti di creare e personalizzare il proprio personale “amico AI” con cui poter interagire tutte le volte che si vuole. Il chatbot potrà rispondere alla domande che gli verranno poste, parlare di qualsiasi tipo di problema e addirittura condividere idee. Un vero e proprio amico perfetto di cui sarà possibile scegliere aspetto e personalità.
Ciò che sorprende della funzione di Instagram è proprio la possibilità di personalizzare il proprio chatbot. Secondo quanto trapelato sarà possibile stabilire sesso, etnia, età, interessi e personalità. Sarà possibile scegliere se il proprio amico è riservato oppure spiritoso, se sarà appassionato di fai da te oppure di animali. Il nostro nuovo amico sarà letteralmente fatto su misura in base alle nostre personali esigenze. E sarà possibile anche dargli il nome che più ci piace.
Dobbiamo però tenere conto dei possibili rischi che un’idea del genere porta con sé. L’idea di un “amico AI”
può sembrare simpatica e accattivante, ma potrebbe anche creare non pochi problemi e disagi. Come sostiene la direttrice del Center for Responsible AI della New York University, Julia Stoyanovich, l’intelligenza artificiale generativa potrebbe portare gli utenti a credere di interagire con una persona reale anche se ovviamente non è così. In alcuni casi si è portati a credere che il chatbot stia entrando in connessione con noi, che quindi abbia empatia e questo ci rende manipolabili, oltre che vulnerabili.Questi timori purtroppo si stanno già rivelando fondati. La storia di Jaswant Singh Chail può essere esemplificativa. L’uomo infatti aveva cercato di uccidere la Regina Elisabetta perché suggeritogli dalla sua fidanzata generata dall’intelligenza artificiale su Replika. Questo è solo uno dei casi in cui i chatbot sono riusciti ad ingannare gli utenti spingendoli in questo modo a compiere azioni illecite. Dunque, è facile comprendere come un’intelligenza artificiale travestita da migliore amico possa rivelarsi decisamente pericolosa. Per il momento l’idea è solo un’opzione in fase di lavorazione e non sappiamo ancora se Meta si deciderà davvero a rilasciarla in uno dei prossimi aggiornamenti.