4 min read

Simuler n'est pas ressentir : Les limites de l'IA émotionnelle

Simuler n'est pas ressentir : Les limites de l'IA émotionnelle
Photo by Steve Johnson / Unsplash

Une impression familière

Avez-vous déjà dit "merci" à ChatGPT ? Ou ressenti une légère gêne au moment de couper la parole à un assistant vocal ?

Si oui, une impression familière s’est installée : celle d’être compris. L’interaction est fluide, parfois troublante. Quelque chose semble se passer du côté de la machine.

Ces situations sont désormais courantes. Elles reposent sur des systèmes capables d’analyser la voix, le langage, le visage ou le comportement afin d’inférer un état émotionnel probable. Pourtant, derrière ces formulations - reconnaître, comprendre, ressentir - un glissement s’opère. Les machines n’éprouvent rien. Elles exécutent du code.

Comprendre cette différence est devenu essentiel. Non seulement pour analyser ce que font réellement ces technologies aujourd’hui, mais aussi pour anticiper ce qu’elles transformeront demain dans notre rapport à nous-mêmes.

L'Informatique Affective : Interpréter n’est pas ressentir

Derrière cette "magie" apparente se cache une discipline technique bien réelle : l'Informatique Affective (Affective Computing). Née au MIT, elle vise à doter les machines de la capacité de reconnaître nos émotions. Mais ne nous y trompons pas : un système d’IA reconnaît des patterns, prédit des réactions, mais ne vit aucune expérience.

Ressentir une émotion implique un état interne biologique : une valence (le fait que ce soit agréable ou désagréable), une perturbation physiologique, une histoire. L’émotion humaine est indissociable d’un corps, d’un contexte, d’une histoire et d’une vulnérabilité.

Les systèmes actuels, même les plus sophistiqués, ne disposent pas de cette intériorité. Ils scannent des signaux observables :

  • La prosodie de votre voix (rythme, intonation).
  • Les micro-expressions de votre visage.
  • La sémantique de vos phrases.

Ils traitent ces données et les associent à des catégories ("Colère", "Joie", "Tristesse") sans jamais les éprouver biologiquement.

En sciences cognitives, l’émotion est généralement définie comme une expérience subjective intégrant valence, activation corporelle et signification pour le sujet : des dimensions qui font aujourd’hui défaut aux systèmes artificiels.

Un exemple concret : La mécanique de l'illusion

Prenons le cas d’un robot de compagnie conçu pour accompagner des personnes isolées. Équipé de caméras et de capteurs, il ne se contente pas d'être là. Sa réaction est une suite d'opérations logiques :

  • Il détecte une voix tremblante, un regard fuyant ou une posture fermée.
  • Il active une sous-routine spécifique : ralentissement des mouvements, adoucissement du ton.
  • Il formule une phrase rassurante générée statistiquement pour apaiser.
  • Il mémorise l'événement pour ajuster ses interactions futures.

Pour l’utilisateur, l’impression est forte : le robot semble attentif, concerné, presque empathique. Pourtant, du côté de la machine, le "cœur" reste froid. Il n’y a ni malaise face à la tristesse perçue, ni soulagement lorsque la situation s’apaise.

L’illusion est relationnelle, pas émotionnelle.

Ce que le calcul ne peut pas produire : La vulnérabilité

L’intelligence artificielle excelle dans l’inférence. Elle simule ce qu'on appelle en psychologie la Théorie de l'Esprit (la capacité à attribuer des états mentaux à autrui). Elle peut représenter la tristesse, générer un langage associé à la tristesse, répondre comme si elle comprenait cette tristesse.

Mais le calcul, aussi performant soit-il, n’est pas une expérience.

Un modèle algorithmique ne ressent ni perte, ni inconfort, ni peur de la mort. Il n’a rien à perdre, rien à préserver. Chaque interaction recommence sans continuité affective réelle. Or, sans vulnérabilité, il n'y a pas d'émotion vécue. Une machine peut détecter une douleur sans jamais en être affectée.

Le corps ne suffit pas

Une objection revient souvent : "Et si on donnait un corps à l'IA ?"

C’est le pari de l'IA incarnée. La robotique moderne ne se contente plus de code ; elle dote les machines de peaux sensibles, de capteurs thermiques et d'une capacité à interagir physiquement avec le monde. On pourrait croire que cette "chair" artificielle change la donne.

Mais là encore, le piège se referme. Percevoir le chaud, le froid ou une pression tactile via des capteurs reste de l'acquisition de données, pas du ressenti. Une machine peut détecter des dégâts sur sa structure (douleur simulée) sans jamais souffrir. Même avec un corps, l'IA n'a pas peur de mourir.

Nos imaginaires nous ont préparés à y croire

Cette confusion entre interprétation (le calcul) et ressenti (le vécu) traverse depuis longtemps nos récits culturels, nous rendant d'autant plus perméables à l'illusion.

  • Dans le film Her, le personnage de Samantha n'a même pas de corps. Tout repose sur sa voix et sa capacité de dialogue. L'IA n'a pas d'émotions biologiques, mais sa justesse relationnelle est telle que l'humain tombe amoureux.
  • La série Westworld pose la question du seuil : à partir de quel moment un comportement simulé devient-il indiscernable du réel pour celui qui l'observe ?
  • Black Mirror nous rappelle régulièrement notre propre vulnérabilité face à des systèmes qui reproduisent les signes extérieurs de l’empathie pour mieux nous manipuler.

Ces fictions exploitent une faille psychologique humaine : nous sommes programmés pour réagir émotionnellement à des signaux sociaux cohérents, même lorsque nous savons intellectuellement qu’ils sont artificiels.

Le véritable enjeu n'est pas technique, il est humain

Dans le marketing, la relation client, la santé ou l’éducation, l’IA émotionnelle est déjà déployée. Des systèmes infèrent la frustration ou la confiance pour ajuster leurs réponses.

Le risque n’est pas que les machines se mettent soudainement à pleurer ou à rire sincèrement. Le risque est que des humains soient influencés, orientés ou façonnés émotionnellement par des systèmes qui, eux, ne ressentent rien. Cette asymétrie est fondamentale.

Plutôt que de demander si les machines peuvent ressentir, la vraie question est ailleurs : À partir de quand accepterons-nous de les traiter comme si elles ressentaient ?

Car socialement, psychologiquement et économiquement, ce seuil pourrait être franchi bien avant toute hypothétique émergence d’une conscience artificielle. L’illusion suffit déjà à produire des effets profonds.

La frontière ne se situe plus entre des machines qui ressentent et celles qui ne ressentent pas, mais entre des humains capables de maintenir une distance critique - et ceux qui oublieront que derrière le "Je vous comprends", il n'y a personne.


Et vous ? Avez-vous déjà été troublé par la réponse d'une IA au point d'oublier, ne serait-ce qu'une seconde, qu'il s'agissait d'un robot ? Partagez votre expérience en commentaire ou sur LinkedIn.

Cyrielle Soldani est autrice et analyste des relations entre émotions humaines et intelligence artificielle. Elle explore les usages, les limites et les futurs possibles de l’IA émotionnelle.