Tracer une ombre numérique
Joachim Buhmann, les ordinateurs auront-ils bientôt leurs propres émotions ?
Joachim Buhmann : Les émotions déterminent le comportement humain. Si les algorithmes apprennent à se comporter comme les êtres humains, ils peuvent également imiter la composante émotionnelle de ce comportement. Mais la question de savoir si l'on peut dire qu'un ordinateur a des émotions est plutôt d'ordre philosophique !
Verena Zimmerman, comment définit-on les émotions selon les psychochologues?
Verena Zimmermann : Les émotions sont si complexes que même la psychologie n'est pas en mesure d'en donner une définition claire. Cependant, de nombreuses définitions s'accordent sur certains aspects, à savoir que les émotions sont déclenchées par une situation particulière et qu'elles sont vécues intensément, qu'elles sont relativement brèves et qu'elles impliquent toujours une réaction physiologique telle qu'une respiration rapide ou un rythme cardiaque accéléré. Les émotions de base telles que la colère, la joie ou la tristesse sont faciles à distinguer les unes des autres, et de nombreuses personnes les manifestent de la même manière. En revanche, des sentiments tels que la résignation ou le malaise peuvent être beaucoup plus difficiles à identifier et, par conséquent, à mesurer avec précision.
Joachim Buhmann : C'est une distinction cruciale. Des catégories telles que la frustration, l'agacement, le plaisir et l'enthousiasme nous aident certainement à présenter les processus qui se cachent derrière les émotions d'une manière qui facilite la communication avec les autres. Mais nous devons examiner ce que nous essayons réellement de décrire avec ces termes. Il s'agit de descriptions d'états mentaux extrêmement complexes qui, selon moi, sont subrationnels. Ces termes englobent une dynamique incroyablement complexe - quelque chose que notre langage est trop étroit pour saisir dans sa totalité.
Cela signifie-t-il que les machines peuvent apprendre des choses que les êtres humains ne comprennent pas ?
Joachim Buhmann : Oui, et c'est le principe central de l'apprentissage automatique : au lieu de donner à un ordinateur un concept de la réalité, nous le laissons apprendre directement à partir des données. Lorsque les algorithmes apprennent à se comporter comme des êtres humains - par exemple, en écrivant un article - ils nous prennent comme exemple, même si nous ne sommes pas capables de rationaliser notre propre comportement. Les algorithmes sont devenus incroyablement doués pour imiter des choses que nous pouvons à peine saisir à un niveau intellectuel.
Elgar Fleisch, votre domaine de recherche est fortement axé sur les applications. Sur quel projet travaillez-vous actuellement ?
Elgar Fleisch : Mon groupe de recherche a récemment lancé un certain nombre d'études cliniques visant à mesurer l'effet des émotions. Par exemple, nous étudions actuellement la corrélation entre certains signes physiologiques et les marqueurs d'inflammation dans le sang des sujets testés ; nous espérons que cela nous permettra de savoir si les individu·es sont sur la voie de la maladie même s'ils et elles sont encore en bonne santé. Cette méthode pourrait éventuellement offrir un système d'alerte précoce simple et abordable pour nous aider à prévenir les maladies chroniques avant qu'elles ne se déclarent.
Joachim Buhmann : Il est vrai que de nombreuses maladies se manifestent de manière mécanique. Par exemple, il est possible de détecter les premiers stades de la maladie de Parkinson uniquement à partir de la façon dont une personne tape sur un clavier - avant même qu'un diagnostic ne soit posé. Les scientifiques l'ont découvert à partir des habitudes de frappe de personnes inquiètes de souffrir de la maladie de Parkinson et qui ont saisi des questions sur la maladie dans des moteurs de recherche.
Quelle est la précision de la mesure des émotions ?
Elgar Fleisch : Les émotions déclenchent un nombre incroyable de réactions dans le corps. Elles influencent notre façon de parler - le rythme, le volume et le ton de notre voix - ainsi que nos mouvements oculaires et nos mouvements en général, notre pouls, notre respiration...
Verena Zimmermann : Nous réagissons tous de manière différente et sommes capables d'enregistrer, de manipuler ou même de supprimer nos émotions. C'est un véritable défi pour la technologie. Si je me limite à une seule technique de mesure, je risque de mal interpréter les données. En tant que chercheuses et chercheurs, nous devons donc combiner plusieurs méthodes en utilisant, par exemple, la reconnaissance vocale et faciale avec d'autres facteurs physiologiques.
Existe-t-il d'autres domaines dans lesquels les machines sont utilisées pour détecter les émotions ?
Joachim Buhmann : L'interaction être humain-machine est évidemment un domaine où il est utile pour l'algorithme de connaître l'état émotionnel de la personne avec laquelle il interagit. Il est assez facile de formuler les questions de manière légèrement différente selon que la personne répond positivement ou négativement. Cela peut être un moyen utile d'influencer l'impact émotionnel d'une interaction.
Verena Zimmermann : Les émotions et notre attitude à l'égard des machines sont tout à fait pertinentes dans mon domaine de recherche. Une partie de mon travail consiste à étudier le rôle du comportement humain, y compris nos émotions, dans la cybersécurité. L'un de mes doctorants étudie actuellement la manière dont les émotions influencent notre perception de la cybersécurité et notre attitude à son égard. Par exemple, une personne angoissée par les questions de cybersécurité peut adopter un comportement d'évitement et choisir de ne pas s'intéresser du tout au sujet. En conséquence, elle risque de ne rien apprendre, ce qui l'empêchera de se comporter en toute sécurité.
Comment pouvons-nous encourager les gens à se sentir positifs dans leur interaction avec les machines ?
Verena Zimmermann : Cela dépend de ce que l'on souhaite réaliser avec la technologie en question. Voulez-vous, par exemple, aider les gens à ressentir des émotions par le biais de la réalité virtuelle ? Ou cherchez-vous à créer une interaction sociale véritablement humaine dans des environnements tels que le secteur des soins, où le lien humain risque d'être de plus en plus difficile à établir à mesure que la société vieillit ? Certaines études ont montré que, selon la manière dont ils sont conçus, les robots peuvent déclencher certaines émotions chez les gens, créant ainsi un lien émotionnel entre les êtres humains et la technologie.
En d'autres termes, plus un robot ressemble à un être humain, plus nous avons d'affinités avec lui ?
Verena Zimmermann : Oui, mais seulement jusqu'à un certain point. Au fur et à mesure que les robots deviennent plus humains, notre affinité pour eux augmente. Mais il y a ensuite un creux dans le graphique de notre réponse émotionnelle, que l'on appelle la «vallée de l'étrange». Il s'agit du sentiment de malaise et d'inquiétude que nous éprouvons lorsque nous interagissons avec quelque chose qui est proche de l'apparence humaine, mais qui est en quelque sorte imparfait et hors norme.
Il est donc préférable que les machines ne nous ressemblent pas trop ?
Elgar Fleisch : Nos expériences avec les chatbots suggèrent certainement que les machines n'ont pas besoin d'être parfaites pour créer un lien avec les utilisatrices et utilisateurs. L'un de nos chatbots a été utilisé dans le cadre d'une thérapie pour enfants obèses, comme une sorte d'intermédiaire entre les médecins et les patients et patientes. L'objectif était d'améliorer l'adhésion des enfants, c'est-à-dire de les encourager à respecter leur plan de traitement. Le chatbot était disponible du matin au soir. Il apprenait des réactions des enfants, qui pouvaient même lui donner un nom. Chaque fois qu'ils avaient une question, ils pouvaient choisir de la poser aux médecins ou au chatbot. Dans 99% des cas, les enfants ont choisi le chatbot !
Les ordinateurs font des percées dans des domaines qui, jusqu'à récemment, étaient l'apanage des êtres humains. À quoi ressemblera la répartition des tâches entre les êtres humains et les machines à l'avenir ?
Elgar Fleisch : Dans l'exemple que j'ai donné du chatbot pour les enfants obèses, on a toujours besoin de médecins en coulisses pour soutenir la technologie. Je ne vois pas le danger d'une mise à l'écart de l'être humain, mais plutôt une opportunité de renforcer nos capacités. Les assistants intelligents ne remplacent pas les médecins, mais ils peuvent aider et soutenir un patient ou une patiente pendant une longue maladie. D'après nos analyses, les chatbots sont rarement au même niveau ou meilleurs que les meilleurs médecins, mais ils sont meilleurs que le ou la médecin moyenne. Cela signifie que les coachs numériques ont le potentiel d'améliorer la qualité des traitements dans tous les domaines.
Joachim Buhmann : En tant qu'êtres humains, notre capacité à penser et à percevoir les choses est clairement limitée. L'évolution nous a doté·es d'un pouvoir d'abstraction et de créativité, mais nous a laissés tranquilles en ce qui concerne la capacité de stockage, sans quoi nous serions devenus des bases de données. Si l'on considère l'ensemble des connaissances scientifiques que nous avons réussi à rassembler jusqu'à présent, on constate qu'elles n'ont nécessité que très peu de complexité descriptive. En fait, toutes les théories scientifiques acceptées aujourd'hui tiendraient sur le dos d'une enveloppe. Mais il est évident que ce n'est pas la réalité ; il s'agit simplement d'une tranche sélective de ce que notre cerveau est capable de traiter. Cela signifie que nous n'avons aucun moyen de traiter des niveaux de complexité plus élevés ou de construire des modèles prédictifs. Ce dont nous avons besoin, c'est d'une sorte de «coprocesseur de pensée» qui puisse nous aider à adopter une vision plus large.
Y a-t-il des fonctions que les machines ne devraient pas assumer ?
Joachim Buhmann : Ce n'est pas la question qu'il faut se poser. Nous devons exploiter ces technologies pour redéfinir ce que deviendra notre monde, et non les brider pour que nos anciens pouvoirs d'organisation continuent à fonctionner dans le futur ! Ces nouveaux outils donneront également naissance à une nouvelle éthique. Des choses qui étaient auparavant contraires à l'éthique deviendront soudainement acceptables.
Quel rôle les émotions joueront-elles à l'avenir dans les sciences techniques ?
Elgar Fleisch : Ce que nous mesurons, ce ne sont pas les émotions elles-mêmes, mais plutôt l'ombre numérique de nos sentiments enregistrée par l'appareil de mesure. Au fur et à mesure que nous progresserons, notre compréhension technique de cette ombre utile s'améliorera de plus en plus. Nous avons l'obligation d'utiliser ces connaissances pour le bien de la société, tout en laissant les émotions elles-mêmes à l'abri de l'ordinateur.
Verena Zimmermann : En tant que chercheuse travaillant à l'interface entre les sciences sociales et techniques, je pense qu'il est important de ne pas considérer les êtres humains et la technologie séparément, mais plutôt de considérer leur interaction. Car c'est là que les émotions jouent un rôle crucial.