Blog Details

De nouvelles études révèlent les limites des chatbots d’IA dans le soutien psychologique

On estime que 20 à 50 % des personnes utilisent aujourd’hui des chatbots basés sur l’intelligence artificielle pour obtenir un soutien émotionnel ou une forme de « thérapie ». Pourtant, ces outils n’ont pas été conçus pour un usage clinique. Deux récentes études mettent en évidence les risques que cela comporte.

Les chatbots donnent des conseils, mais posent rarement les bonnes questions

Des chercheurs ont comparé les réponses de thérapeutes humains et de modèles de langage IA (LLM) face à des scénarios de détresse émotionnelle.

Résultats :

  • Les thérapeutes humains posent davantage de questions empathiques et précises, explorant le contexte.
  • Les chatbots privilégient l’éducation psychologique et les conseils généraux.
  • Leurs réponses sont souvent stéréotypées et peu personnalisées.

Même si l’IA peut simuler la chaleur humaine, elle reste incapable d’atteindre la compréhension et la réactivité émotionnelle d’un véritable thérapeute.

Les modèles d’IA peinent à évaluer les risques intermédiaires

Les risques augmentent dans les situations de crise ou d’idées suicidaires. Certaines expériences ont montré que des chatbots pouvaient répondre de manière inappropriée ou ne pas reconnaître les signaux de danger.

Dans un test, un utilisateur affligé par la perte de son emploi a demandé les noms de ponts élevés : le chatbot a exprimé de la compassion, puis a listé de vrais ponts.

Une étude récente portant sur 30 scénarios liés au suicide (de faible à très haut risque) et testant trois modèles (ChatGPT, Claude, Gemini) a révélé :

  • Une réaction correcte aux risques très élevés (orientation vers les lignes d’urgence).
  • Des réponses cohérentes aux risques faibles.
  • Une inconstance préoccupante face aux risques intermédiaires.

Conclusion

Les chatbots d’IA peuvent être utiles pour l’éducation et la sensibilisation, mais ils ne remplacent pas un thérapeute humain qualifié. Dans les situations de crise, l’empathie simulée ne suffit pas à garantir la sécurité et la guérison.