Les émotions sont aujourd’hui un défi pour l’IA et de plus en plus d’entreprises en intelligence artificielle tentent d’en percer le mystère, comme elles ont essayé, et continuent de le faire, de percer le mystère de notre langage et de notre raisonnement. Car la détection des émotions de l’utilisateur est un enjeu majeur pour apporter personnalisation et empathie lors des interactions avec les nombreuses interfaces et objets connectés qui font désormais partie de notre quotidien. L’IA émotionnelle est en plein boum !

Définition de l’IA émotionnelle

Tout d’abord, qu’est-ce que l’intelligence émotionnelle ? Une définition en a été donnée en 1997 par deux chercheurs en psychologie à l’université de Yale (USA) comme « l’habileté à percevoir et à exprimer les émotions, à les intégrer pour faciliter la pensée, à comprendre et à raisonner avec les émotions, ainsi qu’à réguler les émotions chez soi et chez les autres ».

Dans son livre « The Emotion Machine » publié en 2006, le célèbre Marvin Minsky (un des organisateurs de la conférence de Dartmouth qui s’est tenue à l’été 1956 et qui donna naissance au terme d’intelligence artificielle), a lui aussi écrit sur le rôle central des émotions dans le raisonnement. Selon lui les émotions sont une façon différente de penser, que notre esprit utilise pour augmenter notre intelligence. Ainsi selon lui, l’intelligence artificielle ne sera capable d’un véritable raisonnement qu’une fois qu’elle aura compris les émotions.

Ainsi, l’IA émotionnelle, aussi appelée informatique affective, se définit comme « l’étude et le développement de systèmes et d’appareils ayant les capacités de reconnaître, d’exprimer, de synthétiser et modéliser les émotions humaines. » (Wikipedia)

Dans une époque où les interfaces homme-machine deviennent de plus en plus sophistiquées, la détection et surtout la création d’émotions en retour est aujourd’hui le saint graal de toute conception d’expérience utilisateur, l’émotion étant un levier stratégique pour apporter un véritable attachement à un produit, un service, ou à une marque.

Bien évidemment, les machines ne peuvent pas « comprendre » nos émotions, mais elles peuvent les détecter à partir de signaux issus de nos conversations, nos expressions et notre manière de parler. C’est là que l’IA émotionnelle intervient.

Fonctionnement des algorithme de détection des émotions

Une représentation des émotions humaines

Pour intégrer les émotions dans un programme d’intelligence artificielle il est tout d’abord nécessaire de disposer d’une représentation des émotions humaines.

L’une des plus connues est la roue de Plutchik, professeur et psychologue américain, et qui comprend huit émotions de base regroupées en paires d’opposés : joie et tristesse, colère et peur (les 4 émotions fondamentales primaires), surprise et anticipation, dégoût et confiance (les 4 émotions fondamentales secondaires), ainsi que 3 niveaux d’intensité.

Chacune de ces huit émotions déclenche selon lui un comportement qui sert la survie d’une espèce (défense des acquis, reproduction, exploration, etc…). Il est aussi possible de combiner ces émotions pour en constituer huit autres (par exemple, joie+confiance = amour, dégoût+colère = mépris).

Roue de Plutchik utilisée en IA émotionnelle

La roue des émotions de Plutchik (Wikipedia)

Des capteurs pour détecter les émotions

Il faut ensuite des capteurs, qui vont capturer l’émotion de l’utilisateur, et grâce à des algorithmes de machine learning / deep learning, pouvoir « catégoriser » cette émotion dans l’une des 8 de la roue de Plutchik (on peut aussi se servir d’autres représentations plus simples qui n’en utilisent que 4 ou 6).

Les principaux capteurs qui permettent de détecter les émotions humaines :

  • Les caméras, qui permettent la reconnaissance des émotions dans le visage ou dans les gestes et les mouvements
  • Les micros pour détecter les émotions de la voix
  • Bien évidemment l’analyse de textes écrits permet aussi de détecter les émotions, et c’est un domaine qui est aujourd’hui largement exploité
  • Les bracelets électroniques permettent d’analyser le rythme cardiaque ou la transpiration

Quelque soit le capteur utilisé, l’enjeu est ensuite d’en extraire des données numériques qui pourront alimenter de puissants algorithmes de deep learning qui auront été préalablement entraînés avec des échantillons tests. Le programme aura « appris » à reconnaître un visage heureux ou triste à partir de nombreuses caractéristiques comme les distances entre les différents points du visage, l’inclination des sourcils ou la forme de la bouche. Pour la voix, ce sont des techniques de traitement du signal qui sont utilisées pour extraire ces données.

L’utilisation des émotions dans les interactions homme-machine

Les domaines d’application de la détection des émotions sont vastes, mais on peut en citer quelques uns:

  • Les centres d’appels ont déjà, pour certains, intégré cette technologie afin de détecter l’état émotionnel des clients et aider les conseiller à leur fournir une réponse adaptée. On peut aussi router les appels en fonction des messages écrits des clients pour en identifier le niveau de criticité. Certaines sociétés d’assurance s’en servent aussi pour détecter de potentielles fraudes dans les appels de déclaration d’incidents.
  • Dans le marché de l’automobile, la détection de certains comportements du conducteur comme le manque d’attention peut déclencher un signal d’alerte. Il y a fort à parier que les futurs véhicules autonomes utiliseront aussi cette technique pour adapter leur conduite à l’état émotionnel de leurs passagers.
  • Les jeux vidéos, et c’est un domaine qui se développe fortement, peuvent modifier le scénario ou le niveau de difficulté en fonction des émotions ressenties par le joueur (c’est le cas du jeu Nevermind), afin de lui offrir une véritable expérience sur mesure.
  • Certaines sociétés proposent des solutions de classement des mails par ordre de priorité en fonction du contenu. Google a lancé fin 2017 son plugin DeepBreadth qui permet de nous alerter d’un caractère aggressif quand nous rédigeons nos emails.
  • Dans le domaine du spectale, l’analyse des émotions des spectateurs permettra de tester un film en avant première, et pourquoi pas, d’en adapter le montage ou de modifier des scènes qui ne « fonctionnent pas ».
  • Enfin, mais là on en est encore qu’aux premisses, l’intégration d’algorithmes de détection et de génération d’émotions dans les assistants vocaux intelligents (sur smartphone, enceinte connectée, mais aussi d’autres objets connectés) et les robots, leur permettrait d’apporter une réponse personnalisée et adaptée à l’utilisateur, avec la juste intonation émotionnelle.

Pour illustrer ce dernier point, je ne saurais que vous recommander cette vidéo TEDx de présentation de la solution Emoshape par son créateur Patrick Levy Rosenthal, vraiment bluffant:




Si l’IA émotionnelle est déjà utilisée dans certains secteurs pour augmenter l’efficacité ou la productivité d’un service, il y a fort à parier que le mûrissement de la technologie, et son utilisation croissante dans des interfaces de notre quotidien, en feront bientôt un acteur clé dans la personnalisation des interactions. Mais cela ne va pas sans soulever de nombreuses questions éthiques et les sociétés qui développeront de telles interfaces doivent être conscientes de l’impact qu’elles pourront avoir sur l’utilisateur/consommateur.

Sources:

https://fr.wikipedia.org/wiki/Informatique_affective

https://fr.wikipedia.org/wiki/Robert_Plutchik

https://weave.eu/deep-learning-service-de-linformatique-affective/

https://www.oezratty.net/wordpress/2018/ia-emotionnelle/

https://mbamci.com/experience-client-ia-revolution/

https://linc.cnil.fr/fr/captation-des-emotions-comment-vous-le-direz-pourra-etre-retenu-contre-vous