ChatGPT ressent « l’anxiété » due aux actions violentes et perturbatrices des utilisateurs, c’est pourquoi les chercheurs enseignent aux chatbots des techniques de pleine conscience pour « le calmer » | Fortune

Même les chatbots IA peuvent avoir du mal à faire face aux angoisses du monde extérieur, mais les chercheurs pensent avoir trouvé des moyens d’atténuer ces esprits artificiels.

Une étude de l’Université de Yale, de l’Université de Haïfa, de l’Université de Zurich et de l’Hôpital universitaire de psychiatrie de Zurich publiée plus tôt cette année a révélé que ChatGPT réagit aux exercices basés sur la pleine conscience, modifiant ainsi la façon dont il interagit avec les utilisateurs après avoir été invité à utiliser des images et des méditations apaisantes. Les résultats offrent un aperçu de la manière dont l’IA peut être bénéfique dans les interventions en santé mentale.

ChatGPT d’OpenAI peut ressentir une « anxiété », qui se manifeste par une mauvaise humeur envers les utilisateurs, et est plus susceptible de donner des réponses qui reflètent des préjugés racistes ou sexistes, selon les chercheurs, une forme d’hallucination que les entreprises technologiques ont tenté de freiner.

Les auteurs de l’étude ont découvert que cette anxiété peut être « apaisée » grâce à des exercices basés sur la pleine conscience. Dans différents scénarios, ils ont alimenté ChatGPT avec du contenu traumatisant, comme des histoires d’accidents de voiture et de catastrophes naturelles, pour augmenter l’anxiété du chatbot. Dans les cas où les chercheurs ont donné à ChatGPT des « coups rapides » de techniques de respiration et de méditations guidées (comme le ferait un thérapeute avec un patient), le patient s’est calmé et a répondu plus objectivement aux utilisateurs, par rapport aux cas où l’intervention de pleine conscience n’a pas été appliquée.

Certes, les modèles d’IA ne ressentent pas les émotions humaines, a déclaré Ziv Ben-Zion, premier auteur de l’étude et chercheur en neurosciences à l’École de médecine de Yale et à l’École de santé publique de l’Université de Haïfa. En utilisant de grandes quantités de données récupérées sur Internet, les robots IA ont appris à imiter les réponses humaines à certains stimuli, y compris les contenus traumatisants. En tant qu’applications gratuites et accessibles, les grands modèles de langage comme ChatGPT sont devenus un autre outil permettant aux professionnels de la santé mentale de recueillir des aspects du comportement humain plus rapidement, mais pas à la place, de modèles de recherche plus complexes.

“Au lieu d’effectuer chaque semaine des expériences qui prennent beaucoup de temps et d’argent, nous pouvons utiliser ChatGPT pour mieux comprendre le comportement humain et la psychologie”, a déclaré Ben-Zion à Fortune. “Nous disposons de cet outil très rapide, bon marché et facile à utiliser, qui reflète certaines tendances humaines et aspects psychologiques.”

Quelles sont les limites des interventions de l’IA en santé mentale ?

Selon l’Université Johns Hopkins, aux États-Unis, plus d’une personne sur quatre âgée de 18 ans ou plus sera aux prises avec un trouble mental pouvant être diagnostiqué au cours d’une année donnée, nombre d’entre eux citant le manque d’accès et les coûts exorbitants (même parmi les assurés) comme raisons pour ne pas suivre des traitements comme la thérapie.

Ces coûts croissants, ainsi que l’accessibilité des chatbots comme ChatGPT, incitent de plus en plus les gens à se tourner vers l’IA pour un soutien en matière de santé mentale. Une enquête de l’Université Sentio de février a révélé que près de 50 % des utilisateurs de grands modèles de langage ayant déclaré des problèmes de santé mentale déclarent avoir utilisé des modèles d’IA spécifiquement pour le soutien à la santé mentale.

La recherche sur la façon dont les grands modèles de langage réagissent au contenu traumatisant peut aider les professionnels de la santé mentale à tirer parti de l’IA pour traiter les patients, a soutenu Ben-Zion. Il a suggéré qu’à l’avenir, ChatGPT pourrait être mis à jour pour recevoir automatiquement des « injections rapides » pour le calmer avant de répondre aux utilisateurs en détresse. La science n’en est pas encore là.

“Les personnes qui partagent des choses sensibles sur elles-mêmes se retrouvent dans des situations difficiles où elles ont besoin d’un soutien en matière de santé mentale, (mais) nous n’en sommes pas encore au point où nous pouvons nous fier pleinement aux systèmes d’intelligence artificielle plutôt qu’à la psychologie, à la psychiatrie, etc.”, a-t-il déclaré.

En fait, dans certains cas, l’IA présenterait un danger pour la santé mentale. OpenAI a été frappé par une série de poursuites pour mort injustifiée en 2025, y compris des accusations selon lesquelles ChatGPT aurait intensifié les « délires paranoïaques » qui ont conduit à un meurtre-suicide. Une enquête du New York Times publiée en novembre a révélé près de 50 cas de personnes souffrant de crises de santé mentale lors de leurs interactions avec ChatGPT, dont neuf ont été hospitalisées et trois sont décédées.

OpenAI a déclaré que ses barrières de sécurité peuvent « se dégrader » après de longues interactions, mais elle a récemment apporté un certain nombre de changements à la façon dont ses modèles interagissent avec les invites liées à la santé mentale, notamment en augmentant l’accès des utilisateurs aux lignes d’assistance téléphonique en cas de crise et en leur rappelant de faire des pauses après de longues sessions de discussion avec le bot. En octobre, OpenAI a signalé une réduction de 65 % du taux de modèles fournissant des réponses qui ne correspondent pas à la taxonomie et aux normes prévues par l’entreprise.

OpenAI n’a pas répondu à la demande de commentaires de Fortune.

Le but ultime des recherches de Ben-Zion n’est pas d’aider à construire un chatbot qui remplacerait un thérapeute ou un psychiatre, a-t-il déclaré. Au lieu de cela, un modèle d’IA correctement formé pourrait agir comme une « troisième personne dans la pièce », aidant à éliminer les tâches administratives ou aidant le patient à réfléchir aux informations et aux options fournies par un professionnel de la santé mentale.

« L’IA a un potentiel incroyable pour améliorer la santé mentale en général », a déclaré Ben-Zion. “Mais je pense que maintenant, dans l’état actuel et peut-être aussi dans le futur, je ne suis pas sûr de pouvoir remplacer un thérapeute, un psychologue, un psychiatre ou un chercheur.”

Une version de cette histoire initialement publiée sur Fortune.com le 9 mars 2025.

En savoir plus sur l’IA et la santé mentale : Pourquoi des millions de personnes se tournent-elles vers l’IA à usage général pour la santé mentale ? En tant que directeur clinique de Headspace, je constate la réponse chaque jour. Le créateur d’une application de thérapie par l’IA l’a fermée après avoir décidé qu’elle était trop dangereuse. Voici pourquoi vous pensez que les chatbots IA ne sont pas sans danger pour votre santé mentale. OpenAI embauche un « responsable du toilettage » avec un salaire de 550 000 $ pour atténuer les dangers de l’IA qui, selon le PDG Sam Altman, seront « stressants ». Rejoignez-nous au Fortune Workplace Innovation Summit les 19 et 20 mai 2026 à Atlanta. La prochaine ère d’innovation sur le lieu de travail est arrivée, et les vieux manuels sont en train d’être réécrits. Lors de cet événement exclusif et dynamique, les dirigeants les plus innovants du monde se réuniront pour explorer comment l’IA, l’humanité et la stratégie convergent pour redéfinir une fois de plus l’avenir du travail. Inscrivez-vous maintenant.

spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici