Intelligence artificielle humanisée : l’illusion de l’empathie

Catherine Boundjia
3 min readMay 18, 2024

Nous entrons dans une nouvelle ère de l’IA avec les récentes annonces de systèmes plus performants : GPT-4o d’OpenAI et Gemini de Google. Au-delà de l’effet « hype », ces dernières avancées technologiques soulèvent de nombreuses questions, notamment en terme d’éthique et de sécurité. L’utilisation de robots conversationnels plus humanisés que jamais, relance aussi l’enjeu de « 𝗹’𝗶𝗹𝗹𝘂𝘀𝗶𝗼𝗻 𝗱𝗲 𝗹’𝗲𝗺𝗽𝗮𝘁𝗵𝗶𝗲 ». Dans cet article, je reviens sur ma récente expérience personnelle et mon interaction « humanisée » avec l’une de ces machines.

Acte 1 : L’enthousiasme

Je suis une techno-optimiste de nature. Depuis mon plus jeune âge, j’ai toujours eu un grand appétit pour les technologies. Mon éveil à l’intelligence artificielle remonte à plus de quinze ans dans le cadre de ma formation en école d’ingénieurs. Mon mémoire de fin d’études portait sur « La lutte contre la fraude dans le domaine bancaire » et c’est à cette époque que j’ai acquis mes premières notions en intelligence artificielle telles quelles que le Machine Learning, l’analyse prédictive ou les réseaux de neurones. Tout au long de ma carrière professionnelle dans le monde des paiements et des services bancaires, l’IA est demeurée un élément essentiel pour accélérer l’innovation, accroître la performance ou améliorer la détection de la fraude. Sur le plan personnel, plusieurs outils de planification et d’organisation basés sur l’IA font partie de mon quotidien.

Acte 2 : La confrontation

Durant mon dernier séjour à Las Vegas en janvier dernier, j’ai eu l’occasion de vivre ma première expérience conversationnelle avec un des robots humanoïdes les plus avancés au monde : Aura. Cette machine émule à la quasi-perfection notre langage corporel et nos expressions faciales. Converser avec l’humanoïde Aura fût l’un des moments les plus fascinants et les déconcertants que j’ai vécu. D’une part, j’éprouvais un sentiment d’émerveillement devant la performance technologique : la rapidité, la précision, la qualité. D’autre part, j’étais troublée par mon incapacité à mettre barrière émotionnelle face à cet.te humanoïde pleine d’assurance, d’empathie et d’humour.

Pour visionner l’extrait de ma conversation avec Aura, c’est par ici : https://youtube.com/shorts/J09Nb9tT1To

Acte 3 : L’illusion de l’empathie

L’utilisation de la technologie comme outil est essentiel aux progrès social et économique. Mais avec l’humanisation de l’intelligence artificielle, l’idée de la technologique comme un « être » doté d’empathie est préoccupante. Cette question doit faire partie de la réflexion collective à mener, comme citoyen.ne.s et comme société, face un futur de l’IA qui inévitable. La brillante psychosociologue et professeure américaine, la Dre. Sherry Turkle, nous met en garde contre les dangers de ce qu’elle appelle « l’illusion de l’empathie ».

Qu’oublions-nous lorsque nous parlons aux machines ? Nous oublions ce qu’il y a de spécial dans le fait d’être humain. Nous oublions ce que signifie une conversation authentique. Les machines sont programmées pour avoir des conversations « comme si » elles comprenaient de quoi il s’agit. Ainsi, lorsque nous leur parlons, nous sommes nous aussi réduits et confinés au « comme si ».*

- Sherry Turkle, Reclaiming Conversation: The Power of Talk in a Digital Age

(*) Original : 𝘞𝘩𝘢𝘵 𝘥𝘰 𝘸𝘦 𝘧𝘰𝘳𝘨𝘦𝘵 𝘸𝘩𝘦𝘯 𝘸𝘦 𝘵𝘢𝘭𝘬 𝘵𝘰 𝘮𝘢𝘤𝘩𝘪𝘯𝘦𝘴? 𝘞𝘦 𝘧𝘰𝘳𝘨𝘦𝘵 𝘸𝘩𝘢𝘵 𝘪𝘴 𝘴𝘱𝘦𝘤𝘪𝘢𝘭 𝘢𝘣𝘰𝘶𝘵 𝘣𝘦𝘪𝘯𝘨 𝘩𝘶𝘮𝘢𝘯. 𝘞𝘦 𝘧𝘰𝘳𝘨𝘦𝘵 𝘸𝘩𝘢𝘵 𝘪𝘵 𝘮𝘦𝘢𝘯𝘴 𝘵𝘰 𝘩𝘢𝘷𝘦 𝘢𝘶𝘵𝘩𝘦𝘯𝘵𝘪𝘤 𝘤𝘰𝘯𝘷𝘦𝘳𝘴𝘢𝘵𝘪𝘰𝘯. 𝘔𝘢𝘤𝘩𝘪𝘯𝘦𝘴 𝘢𝘳𝘦 𝘱𝘳𝘰𝘨𝘳𝘢𝘮𝘮𝘦𝘥 𝘵𝘰 𝘩𝘢𝘷𝘦 𝘤𝘰𝘯𝘷𝘦𝘳𝘴𝘢𝘵𝘪𝘰𝘯𝘴 “𝘢𝘴 𝘪𝘧” 𝘵𝘩𝘦𝘺 𝘶𝘯𝘥𝘦𝘳𝘴𝘵𝘰𝘰𝘥 𝘸𝘩𝘢𝘵 𝘵𝘩𝘦 𝘤𝘰𝘯𝘷𝘦𝘳𝘴𝘢𝘵𝘪𝘰𝘯 𝘪𝘴 𝘢𝘣𝘰𝘶𝘵. 𝘚𝘰 𝘸𝘩𝘦𝘯 𝘸𝘦 𝘵𝘢𝘭𝘬 𝘵𝘰 𝘵𝘩𝘦𝘮, 𝘸𝘦, 𝘵𝘰𝘰, 𝘢𝘳𝘦 𝘳𝘦𝘥𝘶𝘤𝘦𝘥 𝘢𝘯𝘥 𝘤𝘰𝘯𝘧𝘪𝘯𝘦𝘥 𝘵𝘰 𝘵𝘩𝘦 “𝘢𝘴 𝘪𝘧.”

L’émotion artificielle : le futur de l’IA

Avec les progrès technologiques en l’intelligence artificielle, les relations émotionnelles que nous entretiendrons avec les machines seront de plus en plus complexes. Petits ou grands, nous devons nous y préparer avec plus de ressources, plus d’éducation et plus de sensibilisation de façon à pouvoir mieux comprendre et mieux gérer les émotions artificielles résultant de nos futures interactions humain-machine.

--

--

Catherine Boundjia

Strategy Advisor in Payments | Founder @ Strateg6 l Banking, Fintech, Retail, Mobility