I ricercatori del Computer Science and Artificial Intelligence Lab (CSAIL) del MIT hanno sviluppato un nuovo sistema in grado di fornire ai robot qualcosa che diamo per scontato: la capacità di collegare più sensi.
Il nuovo sistema creato da CSAIL comprende un’IA predittiva in grado di imparare a vedere usando il suo “senso” del tatto e viceversa. Ciò potrebbe sembrare confuso, ma in realtà imita qualcosa che le persone fanno ogni giorno. Guardare una superficie, un oggetto o materiale e anticipare i sensi di questa cosa una volta toccata. Ad esempio, se sarà morbido, ruvido, soffice, ecc.
MIT ha eseguito test su un braccio robotico
Il sistema può anche prendere input tattili, basati sul tocco e tradurli in una previsione su come appare. Questo tipo di intelligenza artificiale potrebbe anche essere utilizzato per aiutare i robot a operare in modo più efficiente ed efficace in ambienti scarsamente illuminati, senza richiedere sensori avanzati. ad esempio, e come componenti di sistemi più generali quando utilizzati in combinazione con altre tecnologie di simulazione sensoriale.
Il set di dati corrente ha solo esempi di interazioni in un ambiente controllato. Il team spera di migliorarlo raccogliendo dati in aree non strutturate o utilizzando un nuovo guanto tattile progettato dal MIT. Ciò aumenta al meglio le dimensioni e la diversità del set di dati.
Ci sono ancora dettagli che possono essere difficili da dedurre dalle modalità di commutazione, come spiegare il colore di un oggetto semplicemente toccandolo o dire quanto è morbido un divano senza realmente premere su di esso. I ricercatori dicono che questo potrebbe essere migliorato creando modelli più robusti per l’incertezza ed espandere la distribuzione dei possibili risultati.