Aquarelle représentant un robot avec un corps carré surmonté d'une tête arrondie sans cou. Son corps et ses pieds sont vert, ses jambes et ses bras sont bleus. Il a de grands yeux ronds colorés en rayons or et bleu. Un cœur rouge rempli tout son torse.
Les chroniques de Judith Nicogossian : entre transhumanisme et communication non-verbale

L’amour d’un robot ?

Imaginez … Il s’approche et vous demande si tout va bien, remarque votre air fatigué ; vous propose un café. Vous lui racontez vos ennuis, en versant une petite larme, pendant qu’il range la vaisselle. Il vous tend un mouchoir, gentiment, sa petite voix fluette « Carole, ça fait du bien de pleurer ».

Asimo, la poupée Alice, Pepper, Nao, Zora, Roméo, Giraff, Mobiserv, HRP2, autant de robots androïdes, dédiés au service à la personne âgée, ou jeune - avec des émotions.
Aquarelle représentant un robot avec un corps carré surmonté d'une tête arrondie sans cou. Son corps et ses pieds sont vert, ses jambes et ses bras sont bleus. Il a de grands yeux ronds colorés en rayons or et bleu. Un cœur rouge rempli tout son torse.

Derrière ses yeux, deux caméras enregistrent toutes vos données privées et les envoie sur le réseau. Grâce au partage d’informations, et ses capacités computationnelles incroyables, il vous fait rire : il localise toutes les personnes connectées qui portent le même pull jaune que vous, et qui ont pleuré ce matin, dans le monde ; données dont il crée une carte cognitive partagée, qui s’affiche sur son écran. Il vous rassure - tandis que des courses intelligentes s’acheminent vers votre domicile, mouchoirs et thé du supermarché ; gouttes lacrymales pour les yeux ; la carte termine son impression sur l’imprimante 3D.

Un avatar de la pharmacie intelligente apparaît sur votre interface haptique, pour demander une consultation virtuelle d’urgence, et vous prescrire de la dopamine, car pendant l’épisode matinal, en plus de votre lassitude, votre rythme cardiaque est devenu trop rapide, deux syndromes de l’insuffisance, détectés par votre robot.

Le sociobot, est un agent social, présent, favorise la communication avec les acteurs humains. Pour les besoins de la cause, il est capable de coordonner son comportement de différentes façons avec ses interlocuteurs, doté d’un minimum d’autorité, possède une expression verbale, physiologique et manifeste un panel d’émotions.

L’interrogation brûle nos lèvres, ce robot est-il là pour notre bien, nous aime-t-il ?Rappelant le vers suranné de Lamartine, poète du XIXème « Objets inanimés, avez-vous donc une âme, qui s’attache à notre âme, et la force d’aimer ? ».

Dans cet article nous interrogeons les pouvoirs qui habitent les robots-androïdes et l’utilité d’une telle ressemblance émotionnelle.

Qu’est-ce que les émotions chez les robots ?

Devons-nous nous y attacher ?

Robotique affective

Les chercheurs et roboticiens partent du postulat que les robots sont capables de s’insérer dans un processus dynamique d’interactions qui détermine nos intentions réciproques d’action, sur la base de l’expression affective, c’est-à-dire les dispositions des uns et des autres, dans une situation de communication.

Les laboratoires travaillent sur deux niveaux de sens : 

  • l’information du message porté par les mots ;
  • la relation non-verbale entre les individus : dans la voix, le ton, le geste, l’intensité, la posture, le regard - l’analyse de la perception visuelle, comme la saillance  -, l’expression et les micromouvements du visage, les mouvements de la langue – comme au LIMSI du CNRS avec Nao

La multimodalité simultanée de communication est le nom donné en intelligence computationnelle de la recherche des liens qui régissent les deux - voir les travaux de F. Landragin (LaTTiCe CNRS).

Le fondateur de Hanson Robotics veut fabriquer des robots socialement intelligents, capables d’éprouver de l’amour - et de faire ainsi partie de la famille humain étendue.

L’émotion est au cœur du robot, affirme le directeur de recherche de Softbank, en sortant Pepper, automate dernier cri. Les concepteurs sont clairs, l’autonomie cognitive des êtres automatisés passera par l’émotion : « ce qu’on voudrait, c’est que le robot ne réponde pas sur le même ton si je suis énervé ou de bonne humeur. Il doit se mettre en synchronie ».

L’« affective computing » est un concept né au MIT. Ce système computationnel, incarné dans l’Intelligence Artificielle (IA), influence délibérément la cognition et les émotions humaines ou tout phénomène affectif, afin d’adapter des stratégies cognitives adaptées et de réduire le fossé entre les machines et les humains. Il doit être le plus convaincant possible.

Avoir des capacités affectives pour un robot se décline sous trois aspects technologiques : 

  • manifester ce qui chez les humains correspondrait à des émotions ;
  • reconnaître des expressions émotionnelles chez les humains ;
  • raisonner en tenant compte des informations relatives aux émotions. 

L’apparence du robot contribue à susciter des émotions. Les avis divergent au sujet de l’utilité paradoxale d’une ressemblance anthropomorphe. Si certains roboticiens la pensent nécessaire – comme pour Hiroshi Ishugiro -, d’autres l’envisagent comme facteur d’effroi.

Contrairement à l’humain, les aspects externes et internes des émotions du robot sont séparés. En adoptant des manifestations de formes affectives, les machines doivent détecter et reconnaître, simuler et stimuler les émotions de façon automatique.

Aquarelle sur fond gris d'orage représentant un bras de robot et un bras humain. Les deux mains se touchent quasiment par un doigt tendu à la façon du célèbre tableau de Michel-Ange « La création de l'homme » peint sur le plafond de la chapelle Sixtine à Rome.

L’humain

Charles Darwin (XIXe) avance que émotions et expressions sont innées biologiquementet surtout sont universelles pour l’ensemble des humains et même des primates : quelle que soit leur culture et leur origine, tous les expriment de la même manière.

Localiser le siège des émotions, de l’esprit, de la conscience n’a jamais été simple. Rappelons pourtant les 3 zones du cerveau humain :

  1. le reptilien - avec les fonctions primitives (équilibre, agression, territorialité, quête de nourriture) ;
  2. le paléomammalien (ou système limbique) - avec l’amygdale, rôle dans la production des émotions (comprendre les règles de la communauté) ;
  3. le cortex cérébral - distinctif de l’être humain par la pensée rationnelle (décider en conscience, contre le pur instinct).

La fonction première des sentiments est de nous aider à ressentir, pour distinguer le bénéfique du nuisible de notre environnement. Les sentiments sont donc là pour nous protéger d’un monde hostile… et favoriser la reproduction.

Pour A. Damasio (neurologue), sans émotion - c’est à dire juste dans le savoir - nous serions prisonniers d’une incapacité à décider ; tout se vaudrait. Les sentiments sont donc essentiels à l’intelligence – pour autant que l’on définisse l’intelligence !

Empathie réciproque

Il est possible d’éprouver des émotions face à un robot. L’empathie artificielle implique la réciprocité, et certains attribuent des émotions fortes au robot, atteste Julie Carpenter. Rappelons les funérailles militaires données aux robots démineurs par les soldats.

Les réactions sont unanimes, révélatrice de cette empathie pour les robots : à propos du sociobot Zora, une vieille dame en maison de retraite « il est extraordinaire, et beau à regarder » , une autre, à propos du phoque Paro  « il me donne de la joie » ; l’écriture journalistique mentionne également un « adorable » robot auto-stoppeur  ; ou encore un « pauvre » Atlas, le robot du Boston Dynamics (Google), frappé par le chercheur, pour démontrer son aptitude à se relever seul.

« Les robots dépourvus de capacités affectives pourraient susciter un premier degré d’empathie », relève le Cerna - comme n’importe quel objet d’ailleurs. « Lorsque le robot-aspirateur Roomba tombe en panne, certains utilisateurs préfèrent le réparer que d’en changer. Ils lui donnent un nom », observe L. Devillers  - développant au CNRS des systèmes de détection des états affectifs dans le dialogue oral et de modélisation du profil émotionnel des utilisateurs.

S. Tisseron, psychiatre, affirme : « l’empathie du robot reste artificielle. C’est de la simulation. Elle lui permet de déchiffrer des émotions, d’en comprendre la cause. Mais jamais il ne se mettra à votre place ».

Même si l’IA dit « je t’aime », elle ne ressent pas de vraies émotions. Le robot n’a pas de cœur.

Les expressions faciales

Le neurologiste Duchenne (XIXe) réalise une série d’expériences sur l’expression facialedes manifestations de l’émotion. Il utilise la stimulation électrique pour mettre en évidence les mouvements associés. Il conclut, par exemple, qu’un sourire de bonheur est formé par les muscles buccaux mais aussi par les muscles oculaires [1]. 

Beaucoup de méthodes en IA s’appuient sur le système de codage FACS du psychologue Ekman (1978). Cette méthode, informatisée depuis 2010, repose sur la détection de micro-expressions du visage, trahissant nos émotions, au nombre de 46. « La machine relève les mouvements des yeux, lèvres, sourcils… de son interlocuteur. Puis, cherche à les identifier en se référant à un panel d’expressions mis à sa disposition » explique F. Davoine, du CNRS.

En 2014, un ordinateur est capable de reconnaître 21 expressions faciales, selon une étude universitaire. Y compris des expressions complexes, comme une colère triste. Plus le panel des émotions est large, plus la reconnaissance devient subtile, véritable défi pour les chercheurs. L’analyse est aussi difficile pour la machine si le visage humain bouge trop. « On n’a jamais des émotions uniques. On cherche à repérer les inflexions du timbre, le rythme de la voix, les rires… Mais, en 2 secondes de parole, on a jusqu'à 6.000 paramètres en jeu. Impossible aujourd'hui pour le robot de tout prendre en compte ». L. Devillers.

Masque social

Cette persona des robots demeure un masque social, une image fabriquée, qui organise le rapport des robots aux individus à la société. Le thème de l'acceptabilité des technologies, en fonction de l'image qu'elles nous renvoient de nous-mêmes, a été traité par l’exposition Persona (Quai Branly). La persona conduit l'individu à prendre le robot pour autre, pris dans le piège de l’affectivité, pour celui qu'il est à ses propres yeux ; et à oublier qui il est réellement : une machine, avec des capteurs, des caméras qui enregistrent toutes données, connectée au réseau, les envoyant au reste du monde - à des institutions ou des services commerciaux, majoritairement pour un contrôle ou une sécurité.

A ce jour la machine, même si elle opère une lecture des émotions, ne peut reproduire le comportement humain en termes d’empathie, de conscience et d’I, qu’à certains degrés artificiels seulement. L’IA forte serait celle d’Ava de Ex Machina, qui dupe le héros et le sacrifie à la fin.

Dérives

L’IA, fusionnée avec les robots, bouleverse déjà l’économie mondialeDeepFace, algorithme dévoilé par Facebook, reconnait les visages humains dans les images à 97% des cas. DeepMind, l’IA de Google, bat le champion du monde jeu de Go, parle et lit sur les lèvres. L’IA progresse avec le deep learning, dans les systèmes de reconnaissance faciale et des émotions en temps réel, comme SmartMeUp, aux reconnaissances super-humaines, dans certaines formes d’analyse d’image.

En Angleterre, le service du chômage utilise des outils de détection du mensonge, comme d’autres services de filature. Sans oublier que les plus grands financeurs de l’IA sont les militaires.

Conclusion

Les recherches rendront certainement possible la réalisation d’une IA convaincante, capable de simuler l’intelligence sur une base émotionnelle. Le brouillage de la frontière entre être vivant et artefact doit se considérer sur le plan éthique, et particulièrement au sujet des populations les plus vulnérables. Les chercheurs en robotique sociale, pour préserver une éthique de l’interaction homme-machine, doivent empêcher un déficit de confiance de la part des utilisateurs, mais également une confiance trop aveugle dans le robot.

Il faut réfléchir aux effets de l’imitation du vivant, de la ressemblance visuelle ou du comportement, à l’intérieur, mais aussi hors des usages pour lequel le robot est conçu, afin d’anticiper sur les effets pervers des technologies.

Ces robots affectifs en devenir divisent, enthousiasment les uns, effraient les autres, quant au droit des données personnelles, la façon dont elles seront utilisées, ou sur les valeurs de l’espèce humaine « ce n’est pas nous, pas comme nous » [2] !

Un espoir

Les machines intelligentes pourront servir à améliorer les capacités de communication, de façon complémentaire à l’humain – comme le projet de tester le robot Pepper dans des services d’urgence pour évaluer l’amélioration de la relation médecin-malade et la satisfaction des patients (CHU Angers).

Aquarelle sur fond bleu-vert, représentant un robot partiellement démonté et les outils utilisés pour le réparer.

Une astuce

La machine n’est pas humaine, même si elle opère une lecture des émotions, et peut reproduire le comportement humain (empathie, conscience et intelligence), à certains degrés. Pour s’en rendre compte, apprenons à la démonter, comme au Japon, ou dans certains ateliers des Utopiales.

Sources

[1] De tels sourires, authentiques, sont appelés « sourire de Duchenne ».

[2] Le 27 juillet 2015, dans une lettre ouverte, un millier d’éminents signataires - dont Hawking, Bill Gates, Noam Chomsky -, annonçaient que l’IA allait poser de sérieux problèmes à l’humanité.

Judith NICOGOSSIAN
Photo de Judith Nicogossian, docteure en anthropologie bioculturelle et chroniqueuse MMMieux.fr
Anthropologue de la santé - Conférencière, Chroniqueuse, Enseignement et recherche.
Anthropologue de la santé - Conférencière, Chroniqueuse, Enseignement et recherche.
Claire CASTAGNET
Photo de Claire CASTAGNET, artiste peintre et professeur de dessin/peinture
Artiste peintre, professeur de dessin/peinture chez Atelier d'Artistes et illustratrice sur MMMieux.fr
Artiste peintre, professeur de dessin/peinture chez Atelier d'Artistes et illustratrice sur MMMieux.fr

Pour aller plus loin