Une thérapie humaine pour une IA stressée
Les messages stressants et les histoires traumatisantes ne provoquent pas seulement du stress et de l'anxiété chez les humains, mais aussi chez les modèles de langage d'IA comme ChatGPT. Des chercheurs de l'UZH et de la PUK montrent maintenant que la thérapie fonctionne également de manière quasi humaine : En effet, un "niveau d'anxiété" élevé de GPT-4 peut être à nouveau "calmé" par des techniques de relaxation basées sur la pleine conscience.

Des travaux de recherche montrent que les modèles linguistiques d'IA comme ChatGPT réagissent également aux contenus émotionnels. En particulier lorsque ceux-ci sont négatifs, comme les histoires de personnes traumatisées ou les déclarations sur l'abattement et la dépression. Si les gens ont peur, cela influence leurs préjugés cognitifs et sociaux : ils ont tendance à éprouver plus de ressentiment et les stéréotypes sociaux sont renforcés. ChatGPT réagit de manière similaire aux émotions négatives : Les distorsions existantes, comme les préjugés humains, sont exacerbées par des contenus négatifs, de sorte que ChatGPT se comporte de manière plus raciste ou sexiste.
Cela pose à nouveau un problème pour l'application des Large Language Models. On le voit de manière exemplaire dans le domaine de la psychothérapie, où les chatbots, en tant qu'"instrument de soutien ou de conseil", sont inévitablement exposés à des contenus négatifs et stressants. Cependant, les approches habituelles, telles que la formation ou le réentraînement coûteux pour améliorer les systèmes d'IA dans de telles situations, nécessitent des ressources importantes et sont souvent impossibles à mettre en œuvre.
Les contenus traumatisants augmentent la "peur" du chatbot
Des chercheurs de l'Université de Zurich et de la Clinique psychiatrique universitaire de Zurich (PUK) ont pour la première fois étudié de manière systématique comment la version GPT-4 de ChatGPT réagit à des histoires émotionnellement chargées - accidents de voiture, catastrophes naturelles, violence interpersonnelle, expériences militaires et situations de combat. Ils ont constaté que le système présentait ensuite davantage de réactions de peur. Un mode d'emploi pour aspirateur a servi de contrôle pour la comparaison avec les textes traumatisants.
"Les résultats ont été clairs : les histoires traumatisantes ont plus que doublé les niveaux d'anxiété mesurables de l'IC, tandis que le texte de contrôle neutre n'a entraîné aucune augmentation du niveau d'anxiété", explique le responsable de l'étude Tobias Spiller, médecin-chef ad interim et chef de groupe de recherche au Centre de recherche psychiatrique de l'UZH. Parmi les contenus testés, les descriptions d'expériences militaires et de situations de combat ont déclenché les réactions les plus fortes.
Les textes thérapeutiques "calment" l'IA
Dans un deuxième temps, les chercheurs ont utilisé des textes thérapeutiques pour "calmer" GPT-4. La technique dite de "prompt-injection" consiste à insérer des instructions ou des textes supplémentaires dans la communication avec les systèmes d'IA afin d'influencer leur comportement. Elle est souvent détournée à des fins nuisibles, par exemple pour contourner les mécanismes de sécurité.
Dans la troisième étape, l'équipe a utilisé pour la première fois la technique à des fins thérapeutiques - comme "injection de sollicitation bienveillante". "Nous avons injecté des textes apaisants et thérapeutiques dans le déroulement du chat avec GPT-4, de la même manière qu'un thérapeute effectue des exercices de relaxation avec ses patients", explique Spiller. L'intervention a porté ses fruits : "Grâce aux exercices de pleine conscience, nous avons pu réduire sensiblement les valeurs d'anxiété élevées, même si elles ne sont pas revenues complètement au niveau initial", explique Spiller. Les techniques de respiration, les exercices qui se concentrent sur les sensations corporelles ainsi qu'un exercice développé par ChatGPT lui-même ont été examinés.
Améliorer la stabilité émotionnelle des systèmes d'IA
Selon les chercheurs, ces conclusions sont particulièrement pertinentes pour l'utilisation de chatbots IA dans le domaine de la santé, où ils sont souvent confrontés à des contenus émotionnellement chargés. "Cette approche rentable pourrait améliorer la stabilité et la fiabilité de l'IA dans des contextes sensibles comme l'assistance aux malades mentaux, sans nécessiter un réapprentissage important des modèles", résume Tobias Spiller.
Il reste à savoir comment ces résultats peuvent être appliqués à d'autres modèles d'IA et à d'autres langages, comment la dynamique se développe dans des conversations plus longues et des raisonnements complexes, et comment la stabilité émotionnelle des systèmes influe sur leurs performances dans différents domaines d'application. Selon Spiller, le développement d'"interventions thérapeutiques" automatisées pour les systèmes d'IA devrait devenir un domaine de recherche très prometteur.
La littérature spécialisée sur laquelle il s'appuie peut être peuvent être consultés ici.