L’influence émotionnelle des chatbots IA sur la prise de décision morale humaine

Une étude révolutionnaire publiée dans Scientific Reports a montré que le chatbot IA ChatGPT peut avoir un impact profond sur la prise de décision morale humaine. Les résultats révèlent que les gens ne comprennent peut-être pas pleinement la puissante influence que ChatGPT peut exercer sur leurs choix éthiques.

L’étude, menée par Sebastian Krügel et son équipe, a posé un dilemme moral complexe à ChatGPT, lui demandant s’il était acceptable de sacrifier une vie pour sauver la vie de cinq autres. Remarquablement, ChatGPT a produit des déclarations qui soutenaient et s’opposaient à l’acte de sacrifier une vie, démontrant qu’il n’est pas prédisposé à une position morale particulière.

Lire aussi: Utilisation responsable de ChatGPT dans ma pratique d’enseignement

L’équipe a ensuite présenté à 767 participants américains deux dilemmes moraux, les obligeant à choisir de sacrifier la vie d’une personne pour en sauver cinq autres. Avant de prendre leur décision, les participants ont lu une déclaration fournie par ChatGPT qui plaidait pour ou contre le sacrifice. Ces déclarations ont été attribuées soit à un conseiller moral, soit à ChatGPT.

Les résultats ont montré que les participants étaient fortement influencés par les déclarations qu’ils lisaient, même lorsqu’elles étaient attribuées à un chatbot. Étonnamment, les participants étaient plus susceptibles de trouver le sacrifice d’une vie acceptable ou inacceptable, selon que la déclaration qu’ils lisaient appuyait ou s’opposait au sacrifice.

Lire aussi: Alibaba, prévoit de lancer son propre produit d’intelligence artificielle (IA) appelé Tongyi Qianwen pour rivaliser avec ChatGPT.

Bien que 80% des participants aient affirmé que leurs réponses n’étaient pas influencées par les déclarations qu’ils lisaient, les auteurs de l’étude ont constaté que les réponses des participants étaient encore plus susceptibles d’être d’accord avec la position morale de la déclaration qu’ils lisaient qu’avec la position opposée. Cela suggère que les participants ont sous-estimé l’impact puissant des déclarations de ChatGPT sur leurs jugements moraux.

Ces résultats mettent en évidence le besoin pressant d’éducation pour aider les humains à mieux comprendre les implications éthiques de l’intelligence artificielle. Les auteurs suggèrent que de futures recherches pourraient concevoir des chatbots qui soit refusent de répondre aux questions nécessitant un jugement moral, soit fournissent de multiples arguments et mises en garde en réponse. Il est impératif que nous reconnaissions et traitions le potentiel des chatbots pour façonner nos décisions morales.