I robot possono interpretare le emozioni umane?

Interpretare le emozioni di una persona a partire dai suoi gesti, dalla postura, dall’intonazione della voce o dalla sua espressione risulta difficile persino per gli esseri umani, predisposti già a captare i minimi dettagli e microespressioni durante un discorso.

Supporre che un robot è capace di fare le stesse cose è quantomeno azzardato. Tuttavia ci stiamo muovendo in questa direzione.

Nel 2015 la società giapponese Aldebaran Robotics (oggi si chiama Softbank Robotics) ha lanciato Pepper, un androide che intuisce dal tono della voce se chi sta parlando è arrabbiato, triste o allegro. È capace non solo di rilevare queste emozioni e il significato di determinate posture, ma le imita combinando il tono della voce, il movimento oculare ed effettuando determinate rotazioni con la testa. Nonostante il suo prezzo, costa più di 2000 euro, il robot è andato a ruba una volta lanciato sul mercato.

Attualmente Pepper viene utilizzato soprattutto, nei negozi giapponesi, dove parla con i clienti indicando loro dove si trova ciò che stanno cercando. Nestlé, tra le prime a comprare il robot, impiega Pepper in circa 1.000 negozi giapponesi dove vende macchine per il caffé e miscele Nescafe. Intrattiene anche i bambini: racconta storie e presenta giochi educativi sul suo schermo.

Nel tempo SoftBank ha ampliato le capacità di Pepper, in vista di un’espansione internazionale, a partire dagli Stati Uniti: il robot è in grado di parlare inglese, francese e spagnolo, oltre al giapponese; integra la tecnologia di traduzione Microsoft, e il software è stato aperto agli sviluppatori Android per ideare sempre più applicazioni.

Gli impieghi si stanno pian piano moltiplicando: la casa farmaceutica Eli Lilly, ad esempio, ha avviato un progetto pilota che prevede di usare Pepper nello screening dei pazienti che si presentano in ospedale con delle fratture per capire se ci sono correlazioni con l’osteoporosi. Il suo utilizzo in ambito sanitario potrebbe estendersi anche all’assistenza di bambini autistici o pazienti con Alzheimer; qualcuno lo immagina anche come assistente personale in una smart home.

Preludio meccanico.

Pepper è solo il preludio di robot che arriveranno in pochi anni grazie ai progressi nei campi dell’intelligenza artificiale e della tecnologia 3D. Queste tecnologie hanno semplificato l’analisi delle emozioni a partire dai gesti o dal tono e intonazione della frase. Poiché con queste macchine andremo ad interagire soprattutto con la voce e con la comunicazione non verbale, è vitale che apprendano a capirci come lo farebbe un essere umano. L’applicazione di queste tecniche va oltre la robotica.

Gli assistenti vocali digitali presenti nei nostri telefoni cellulari e computer, come Siri e Alexa, saranno presto in grado di rilevare il nostro stato d’animo mentre parliamo con loro, e potremo inoltre valutare se cambia o meno il significato dei loro messaggi. Daranno risposte più efficaci o noteranno se perdiamo la pazienza quando i risultati che ci offrono non ci convincono.

Leave a Reply

Your email address will not be published. Required fields are marked *