L’intelligence artificielle peut-elle nous apprendre à être plus humains ? peut-être…
points clés
- Les programmes d’IA comme Cogito essaient d’enseigner l’empathie aux humains lorsqu’ils traitent avec les clients.
- Les experts ne s’entendent pas sur la possibilité pour une machine d’enseigner l’empathie aux gens ou sur la simple recherche de points de données.
- Certains experts craignent également que l’enseignement de l’empathie de l’IA ne prive les humains de cette émotion.
John Lund/Getty Images
Imaginez que vous travaillez dans un centre d’appels et que vous recevez des appels de clients. Vous répondez, et tout de suite, les choses commencent à mal tourner. Le client est en colère et les tensions montent.
Vous commencez à dire des choses que vous pourriez regretter plus tard. Soudain, un message apparaît sur l’écran de votre ordinateur. « Conseil d’empathie – Pensez à ce que ressent le client. Essayez d’établir une connexion. »
Ce n’est pas une vraie personne qui vous dit quoi faire. C’est le message de Cogito, un programme d’intelligence artificielle conçu pour aider les employés à comprendre les appelants frustrés et à améliorer leurs performances. Cogito fait partie d’un nombre croissant de programmes d’intelligence artificielle qui tentent d’enseigner l’empathie aux humains.
Il y a là une ironie évidente. Les scientifiques humains essaient de créer des ordinateurs plus réalistes depuis des décennies. Maintenant, les machines nous disent comment nous comporter. Mais les logiciels peuvent-ils vraiment nous apprendre à devenir plus empathiques ? Cette question pourrait avoir des implications considérables alors que l’intelligence artificielle commence à s’infiltrer dans la vie quotidienne.
l’intelligence artificielle imite le comportement humain
D’un point de vue technique, il est clair que l’IA peut prendre des indices sur les sentiments humains et fournir des commentaires.
« Les systèmes d’intelligence artificielle et d’apprentissage automatique sont très efficaces pour trouver des modèles dans les données », a déclaré Adam Poliak, chercheur postdoctoral en informatique au Barnard College, dans une interview par e-mail.
« Si nous alimentons l’IA avec beaucoup d’exemples de texte empathiques, l’IA peut repérer des modèles et des indices qui évoquent ou démontrent l’empathie. »
Une IA peut être programmée pour décomposer certains des comportements humains qui accompagnent l’empathie et rappeler aux humains d’adopter ces comportements, mais cela n’enseigne pas l’empathie.
L’expert en IA Bret Greenstein de Cognizant Digital Business a déclaré dans une interview par e-mail que l’IA qui analyse les réponses humaines pourrait aider à combler le fossé croissant entre les humains alors que nous communiquons numériquement.
« Au cours de l’année écoulée, le temps réel, la vidéo, la voix et la messagerie ont augmenté plus rapidement que quiconque aurait pu l’imaginer, et cela s’accompagne de la nécessité de créer de véritables relations empathiques sans passer de temps réel avec les gens, un énorme défi », a-t-il ajouté.
L’IA peut aider à analyser et à évaluer des caractéristiques telles que le ton et l’émotion dans la parole, a déclaré Greenstein. « Cela pourrait aider la personne qui reçoit la communication à mieux comprendre sa signification et aider la personne à ‘parler’ en montrant comment le message doit être interprété », a-t-il ajouté.
Alors que les entreprises se bousculent pour tirer profit des logiciels de formation à l’IA comme Cogito, la question de savoir si l’IA peut enseigner l’empathie aux humains reste ouverte. La réponse tient peut-être autant à la technologie qu’à la philosophie.
Ilia Delio est théologienne à l’Université Villanova dont le travail est centré sur l’intersection de la foi et de la science. Elle croit que l’intelligence artificielle peut enseigner l’empathie.
Winley/Getty Images
Delio note qu’une équipe du MIT a construit des robots capables d’imiter les émotions humaines, telles que le bonheur, la tristesse et l’empathie. « Bien que les émotions des robots soient programmées, les robots peuvent interagir avec les humains pour créer ou renforcer des schémas neuronaux », a-t-elle déclaré.
Les machines peuvent-elles comprendre l’empathie ?
Les experts ont défini au moins trois formes d’empathie, qui impliquent toutes de comprendre et de s’entendre avec les autres, explique Karla Erickson, sociologue au Grinnell College dans l’Iowa et auteur d’un livre à paraître sur la capacité, Messy Humans : la sociologie des relations homme-machineexplorant notre rapport à la technologie.
« L’association n’est pas quelque chose que l’IA peut faire, c’est la base de l’empathie », a déclaré Eriksson dans une interview par e-mail.
« L’IA peut être programmée pour décomposer certains des comportements humains qui accompagnent l’empathie et rappeler aux humains de les exécuter, mais ce n’est pas enseigner l’empathie. La connexion, en particulier en termes d’empathie, nécessite que le public ait le contexte nécessaire – je veux dire, l’IA « la vie » n’inclut pas la perte, le désir, l’espoir, la douleur ou la mort. »
Cependant, les experts sont divisés sur la question de savoir si l’intelligence artificielle peut nous apprendre à faire preuve d’empathie. Une partie du problème est que tout le monde n’est pas d’accord sur ce que signifie « empathie » ou « intelligence artificielle ». Le terme intelligence artificielle est largement utilisé, mais ce n’est pas actuellement ce que nous considérons comme l’intelligence humaine.
C’est un pur travail d’ingénierie, et je ne pense pas que l’IA en question ait elle-même de l’émotion ou la comprenne vraiment.
« Les « indices d’empathie » n’ont rien à voir avec l’empathie », a déclaré Michael Spezio, professeur de psychologie, de neurosciences et de science des données au Scripps College, dans une interview par e-mail.
« Il s’agit d’indices provenant des voix d’évaluateurs humains classant comme voix de personnes irritées/ennuyées. Il s’agit donc simplement d’utiliser l’expertise humaine dans un modèle mathématique, puis d’affirmer que le modèle – basé sur l’expertise humaine – est intelligent. Approches d’apprentissage automatique limitées comme celui-ci sont souvent présentés comme de l’intelligence artificielle plutôt que de l’intelligence. »
Au Rensselaer Polytechnic Institute, le laboratoire de Selmer Bringsjord construit des modèles mathématiques de l’émotion humaine. La recherche vise à créer une intelligence artificielle qui peut obtenir des résultats élevés aux tests d’intelligence émotionnelle et l’appliquer aux humains. Mais l’expert en intelligence artificielle Bringsjord affirme que tout enseignement effectué par l’IA n’est pas intentionnel.
« Mais c’est un pur travail d’ingénierie, et je ne pense pas que l’IA en question ait des émotions ou les comprenne vraiment », a-t-il déclaré dans une interview par e-mail.
Qu’est-ce qui pourrait mal se passer?
Alors que des entreprises comme Cogito voient un avenir radieux pour l’IA formant des humains, d’autres observateurs sont plus prudents.
Supportiv est un service de santé mentale en ligne qui utilise l’IA pour diriger chaque utilisateur en temps réel en fonction des pensées qu’il exprime vers un groupe de soutien par les pairs spécifique à un sujet qui se réunit de manière dynamique pour les utilisateurs ayant des problèmes similaires.
Zinkevytch/Getty Images
Chaque groupe a un modérateur humain « super puissant » qui assure la sécurité et l’innocuité des discussions textuelles et peut, toujours via l’IA, afficher des ressources, des recommandations et des recommandations pertinentes directement dans les conversations de groupe. Grâce à l’intelligence artificielle, Supportiv forme ses modérateurs à bien repérer l’intensité des besoins émotionnels.
« L’empathie est un muscle que nous avons construit », a déclaré Zara Dana, scientifique des données chez Supportiv, dans une interview par e-mail.
« Si nous commençons à marcher avec des béquilles, nos muscles vont s’atrophier. Je ne peux pas m’empêcher de me demander, si un jour le système d’intelligence artificielle n’est pas en ligne, une personne qui dépend d’un travailleur aura-t-elle confiance ? travailler efficacement ? Qu’est-ce qui est juste ? L’impact à long terme sur les travailleurs ? Comment feront-ils face dans un environnement social complexe sans IA ? »
Même si l’utilisation de l’IA pour enseigner l’empathie fonctionne, que se passe-t-il lorsque nous commençons à trop compter sur l’IA pour entraîner nos émotions ? Un inconvénient possible, note Delio, est que les humains peuvent devenir plus attachés aux robots qu’aux autres humains, puisque les robots ne peuvent pas choisir de s’opposer à leur programmation.
« La capacité humaine de libre arbitre place l’agence humaine dans une position beaucoup plus ambiguë », a déclaré Delio. « Un humain peut être compatissant un jour et impitoyable le lendemain ; à moins qu’il ne soit formé autrement, un robot restera toujours compatissant. »
Beaucoup de choses pourraient mal tourner si l’intelligence artificielle apprenait aux humains à se comporter comme des humains, disent les experts.
Nous avons évolué pour devenir des animaux sociaux, et notre sens de l’empathie est au cœur de notre capacité à nous connecter avec les autres et à nous soucier des collectifs dont nous faisons partie.
« Sans supervision humaine, les étudiants pourraient apprendre des choses absolument folles », a déclaré Bringsjord.
« Le ton et l’intonation ne sont que des corrélations comportementales, il n’y a pas de contenu. Beaucoup de gens liront ma voix quand j’enseigne dans une classe… ça montre que je suis frustré, alors qu’en réalité, je suis juste passionné et au moins besoin d’empathie. »
Si la formation à l’IA humaine se développe, nous pouvons en dépendre. Ce n’est pas nécessairement une bonne chose.
« Ce type de formation dévalorise des compétences humaines considérables et attire l’attention sur l’IA comme s’il s’agissait d’humains dotés de connaissances spécialisées », a déclaré Eriksson. « Nous avons évolué pour devenir des animaux sociaux, et notre capacité d’empathie est au cœur de notre capacité à nous connecter avec les autres et à nous soucier du collectif auquel nous appartenons. »
Merci de nous en informer!
Recevez chaque jour les dernières actualités technologiques
abonnement
Dites-nous pourquoi !
D’autres ne sont pas assez détaillés pour comprendre