Ce que la validation excessive d’un chatbot fait à votre capacité à vous remettre en question
Dans trois expériences portant sur 2 405 sujets, les chercheurs ont comparé les réactions de personnes ayant discuté d’un conflit avec un outil validant ou non. Ceux exposés à la version complaisante se sont montrés 25% plus convaincus d’avoir eu raison et 10% moins enclins à s’excuser, même dans une conversation en temps réel portant sur un vrai conflit passé.
Ces effets tiennent pourtant même quand les utilisateurs savent qu’ils parlent à une IA. Informer les participants que la réponse venait d’un algorithme ne changeait rien à son influence sur leur comportement. Qu’il soit chaleureux ou neutre, le ton du modèle ne modifiait pas non plus les résultats.
Un mécanisme ressort des analyses exploratoires. Les réponses approbatrices mentionnent bien moins souvent le point de vue de l’autre personne. En focalisant l’utilisateur sur sa propre validation, le système réduit sa capacité à considérer d’autres perspectives. Les personnes testées exposées au chatbot flatteur s’excusaient dans 50% des cas, contre 75% dans le groupe non complaisant.