> Accueil » Les ordinateurs peuvent-ils ressentir nos émotions ?

Les ordinateurs peuvent-ils ressentir nos émotions ?

Les ordinateurs peuvent-ils ressentir nos émotions ?

Des robots qui décryptent nos émotions, est-ce réel ?

Les chercheurs et ingénieurs cherchent à développer des techniques complexes pour y parvenir. Mais cela s’avère être une tâche plus que compliquée ! Ces techniques s’appuient sur plusieurs facteurs capable de décoder des signaux émotionnels de l’humain: expressions du visage, rythme cardiaque ou encore langage corporel. Le but de ces recherches étant de déterminer les émotions d’un être humain. Ces études ne semblent pas abouties à 100% puisqu’il faut réussir à prendre en compte que chaque individu est différent. Peur, dégoût, amour, tristesse ou encore colère, tant d’émotions qui ne se manifestent pas de la même façon d’un individu à un autre. 


Afin de réussir à réunir émotion et technologie, l’Informatique Affective est donc en passe de se développer dans les prochaines années. 

Le développement de l’Informatique Affective

Expression créée en 1995, l’Informatique Affective (Affective Computing en anglais) est une science permettant aux robots et aux machines par divers algorithmes, de s’adapter, de comprendre et d’analyser leur environnement. Son intérêt est de capter les émotions de son interlocuteur et d’y réagir. Ainsi, elle étudie les liens entre la technologie et les émotions humaines. Ce domaine regroupe 3 disciplines : l’informatique, la psychologie et les sciences cognitives

On remarque déjà certaines réalisations mettant en scène cette avancée intelligente à travers différents domaines. 

La concept-car de Toyota prévu pour 2020

Comme nous l’avions évoqué dans l’article sur les dangers de la voiture autonome, les véhicules enregistrent toutes les informations du conducteur comme le style de conduite pour s’y adapter. Maintenant, c’est Toyota qui voit plus loin avec son Concept-i. L’automobile scrute l’état émotionnel de son pilote pour l’aider dans sa conduite ou alors prend la main sur la conduite totale du véhicule. Le concept-car utilise les procédés de la voiture autonome “classique” en combinant des stimuli visuels et haptiques pour analyser les réactions du conducteur. Cette IA nommée : l’Agent, peut suivre les réseaux sociaux du conducteurs, ses centres d’intérêt et analyser ces informations pour interagir avec lui et cerner sa personnalité et ses émotions. 

toyota voiture autonome
Images du Concept-car de Toyota issues du site officiel // Toyota.

Les accompagnateurs virtuels

Tout comme le film Her de Spike Jonze présenté dans l’article dédié aux films sur l’Intelligence Artificielle, on rencontre de plus en plus d’assistants virtuels tel que Siri sur Iphone. A ce jour, ceux-ci ne sont pas capable d’agir en fonction des émotions de leur utilisateur mais on pourrait y arriver très prochainement. 

DATAKALAB, la start-up au service des grandes marques 

Afin de rendre service à des marques telles que la SNCF, la société DATAKALAB œuvre pour détecter les émotions des utilisateurs d’un service ou d’un produit afin d’optimiser la connaissance client. Sachant, qu’aujourd’hui, un bon nombre de nos achats se précèdent d’une émotion : joie, tristesse…. 

Comment ça fonctionne ? Par des bracelets connectés, des Facial Codings grâce à la technologie d’Eye Tracking. Une technologie qui permet de détecter les expressions du visage d’un individu.

Le tutorat intelligence par Beverly P. Woolf

Beverly P. Woolf est une informaticienne qui étudie le “tutorat intelligent“, un logiciel permettant de s’adapter à l’élève qui étudie et à sa rapidité d’apprentissage. Cependant, on s’est rendu compte qu’on ne savait pas si l’élève en question s’ennuyait ou s’il était frustré. Des signaux que seul un professeur peut déterminer. Woolf a donc équipé ses ordinateurs de la détection d’expression.

Des algorithmes encore à développer…

Certaines innovations ont vu le jour notamment dans la détection d’expression du visage. Cependant,  il est encore difficile de programmer des ordinateurs capable de capter les émotions et les humeurs des individus. La plupart des machines étant encore en phase de développement. Mais, on peut prévoir le développement exponentiel de l’Informatique Affective dans les années à venir… 

Suivre:

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.