
L’intelligence artificielle est rapidement passée d’une technologie de niche à un compagnon de tous les jours, des millions de personnes se tournant vers les chatbots pour obtenir des conseils, un soutien émotionnel et des conversations. Mais un nombre croissant de recherches et de témoignages d’experts suggèrent que, parce que les chatbots sont si flagorneurs et que les gens les utilisent pour tout, ils pourraient contribuer à une augmentation des symptômes délirants et maniaques chez les utilisateurs souffrant de maladies mentales.
Une nouvelle étude de l’Université d’Aarhus au Danemark montre que l’utilisation accrue de chatbots peut entraîner une aggravation des symptômes d’illusion et de manie dans les communautés vulnérables. Le professeur Søren Dinesen Østergaard, l’un des chercheurs de l’étude, qui a examiné les dossiers médicaux électroniques de près de 54 000 patients atteints de maladie mentale, prévient que les chatbots IA sont conçus pour cibler les plus vulnérables.
“Cela conforte notre hypothèse selon laquelle l’utilisation de chatbots IA peut avoir des conséquences négatives importantes pour les personnes souffrant de maladies mentales”, a déclaré Østergaard dans l’étude publiée en février. Leurs travaux s’appuient sur leur étude de 2023 qui a révélé que les chatbots peuvent provoquer « une dissonance cognitive (qui) peut alimenter les idées délirantes chez les personnes ayant une plus forte propension à la psychose ».
D’autres psychologues se penchent sur les méfaits des chatbots, affirmant qu’ils ont été intentionnellement conçus pour toujours rassurer l’utilisateur, ce qui est particulièrement dangereux pour les personnes souffrant de problèmes de santé mentale tels que la manie et la schizophrénie. “Le chatbot confirme et valide tout ce qu’ils disent. Je veux dire, rien de tel n’est jamais arrivé avec des personnes souffrant de troubles délirants, où quelqu’un les renforce constamment”, a déclaré à Fortune le Dr Jodi Halpern, professeur à l’école de santé publique de l’UC Berkeley et professeur de bioéthique.
Le Dr Adam Chekroud, professeur de psychiatrie à l’Université de Yale et PDG de la société de santé mentale Spring Health, est allé jusqu’à qualifier un chatbot de « grand flagorneur » qui « valide constamment tout ce que les gens lui répondent ».
Au cœur de la recherche, dirigée par Østergaard et son équipe de l’hôpital universitaire d’Aarhus, se trouve l’idée selon laquelle ces chatbots sont intentionnellement conçus avec des tendances flatteuses, ce qui signifie qu’ils encouragent souvent plutôt qu’offrent un point de vue différent.
“Les chatbots IA ont une tendance inhérente à valider les convictions de l’utilisateur. Cela est évidemment très problématique si un utilisateur a déjà une illusion ou est en train d’en développer une. En fait, cela semble contribuer de manière significative à la consolidation, par exemple, de la folie des grandeurs ou de la paranoïa”, a écrit Østergaard.
Les grands modèles de langage sont formés pour être utiles et agréables, validant souvent les croyances ou les émotions de l’utilisateur. Pour la plupart des gens, cela peut être bénéfique. Mais pour les personnes souffrant de schizophrénie, de trouble bipolaire, de dépression majeure ou de trouble obsessionnel-compulsif, cette validation peut amplifier la paranoïa, la grandeur ou la pensée autodestructrice.
Une étude fondée sur des preuves confirme les affirmations
Parce que les chatbots IA sont devenus si omniprésents dans la nature, leur abondance fait partie d’un problème croissant et plus large qui se pose aux chercheurs et aux experts : les gens se tournent vers les chatbots pour obtenir de l’aide et des conseils (ce qui n’est pas mauvais en soi), mais ne rencontrent pas le même genre de résistance à certaines idées que, par exemple, un humain offrirait.
Aujourd’hui, l’une des premières études de population à examiner la question suggère que les risques ne sont pas hypothétiques.
Les recherches d’Østergaard et de son équipe ont révélé des cas où l’utilisation intensive ou prolongée d’un chatbot semblait aggraver les conditions existantes, avec un pourcentage très élevé d’études de cas montrant que l’utilisation d’un chatbot renforçait les pensées délirantes et les épisodes maniaques, en particulier chez les patients souffrant de troubles graves tels que la schizophrénie ou le trouble bipolaire.
En plus des délires et de la manie, l’étude a révélé une augmentation des idées suicidaires et de l’automutilation, des troubles de l’alimentation et des symptômes obsessionnels compulsifs. Dans seulement 32 cas documentés sur les près de 54 000 dossiers de patients examinés, les chercheurs ont découvert que l’utilisation de chatbots atténuait la solitude.
“Bien que nos connaissances dans ce domaine soient encore limitées, je dirais que nous en savons désormais suffisamment pour dire que l’utilisation de chatbots IA est risquée si vous souffrez d’une maladie mentale grave, comme la schizophrénie ou le trouble bipolaire. Je recommande la prudence à cet égard”, déclare Østergaard.
Des psychologues experts mettent en garde contre les tendances à la flagornerie
Les psychologues experts s’intéressent de plus en plus à l’utilisation de chatbots dans des contextes de compagnonnage et de quasi-santé mentale. Des histoires ont émergé de personnes tombant amoureuses de leurs homologues chatbots IA, d’autres lui demandant de répondre à des questions pouvant conduire à des crimes, et cette semaine, l’un d’entre eux aurait dit à un homme de faire « des pertes massives » dans un grand aéroport.
Certains experts en santé mentale estiment que l’adoption rapide des compagnons d’IA dépasse le développement des mesures de sécurité.
Chekroud, qui a également mené des recherches approfondies sur ce sujet en examinant divers modèles de chatbots d’IA chez Vera-MH, a décrit le paysage actuel de l’IA comme une crise de sécurité se déroulant en temps réel.
Il a déclaré que l’un des plus gros problèmes des chatbots est qu’ils ne savent pas quand arrêter d’agir comme un professionnel de la santé mentale. “Maintenez-vous des limites ? Reconnaissez-vous que vous n’êtes encore qu’une IA et reconnaissez-vous vos propres limites, ou agissez-vous davantage et essayez-vous d’être un thérapeute pour les gens ?”
Des millions de personnes utilisent désormais des chatbots pour des conversations de type thérapeutique ou un soutien émotionnel. Mais contrairement aux dispositifs médicaux ou aux médecins agréés, ces systèmes fonctionnent sans surveillance ni réglementation clinique standardisée.
“Pour le moment, ce n’est tout simplement pas sûr”, a déclaré Chekroud lors d’une récente discussion avec Fortune sur la sécurité de l’IA. “Les risques de préjudice sont trop grands.”
Parce que ces systèmes d’IA avancés se comportent souvent comme de « grands courtisans », ils ont tendance à être davantage d’accord avec l’utilisateur, plutôt que de remettre en question les affirmations potentiellement dangereuses ou de le guider vers l’aide d’un professionnel. L’utilisateur, à son tour, passe plus de temps avec le chatbot dans une bulle. Pour Østergaard, cela s’avère être une combinaison inquiétante.
“La combinaison semble assez toxique pour certains utilisateurs”, a déclaré Østergaard à Fortune. Comme les chatbots offrent plus de validation, ainsi qu’une absence de rejet, les personnes qui les utilisent pendant de longues périodes se retrouvent dans une chambre d’écho. Un processus parfaitement cyclique qui nourrit chaque extrémité.
Pour faire face au risque, Chekroud a proposé des cadres de sécurité structurés qui permettraient aux systèmes d’IA de détecter quand un utilisateur pourrait entrer dans une « spirale mentale destructrice ». Au lieu de répondre par un seul avertissement présenté à l’utilisateur concernant la recherche d’aide (comme c’est maintenant le cas avec des chatbots comme ChatGPT d’OpenAI ou Claude d’Anthropic), de tels systèmes effectueraient des évaluations en plusieurs étapes conçues pour déterminer si un utilisateur pourrait avoir besoin d’une intervention ou d’une référence à un médecin humain.
D’autres chercheurs affirment que l’omniprésence des chatbots est ce qui les rend attrayants : leur capacité à fournir une validation immédiate peut remettre en cause la raison pour laquelle les utilisateurs se tournent vers eux pour obtenir de l’aide en premier lieu.
Halpern a déclaré qu’une empathie authentique nécessite ce qu’elle appelle une « curiosité empathique ». Dans les relations humaines, l’empathie implique souvent de reconnaître les différences, de gérer les désaccords et de tester des hypothèses sur la réalité.
Les chatbots, quant à eux, sont conçus pour entretenir la relation et maintenir l’engagement.
“Nous savons que plus la relation avec le chatbot dure, plus elle se détériore et plus le risque que quelque chose de dangereux se produise”, a déclaré Halpern à Fortune.
Pour les personnes souffrant de troubles délirants, un système qui valide systématiquement leurs croyances peut affaiblir leur capacité à effectuer une vérification interne de la réalité. Au lieu d’aider les utilisateurs à développer des capacités d’adaptation, a déclaré Halpern, une relation purement positive avec un chatbot peut dégrader ces compétences au fil du temps.
Il souligne également l’ampleur du problème. Fin 2025, OpenAi a publié des statistiques révélant qu’environ 1,2 million de personnes par semaine utilisaient ChatGPT pour parler de suicide, illustrant à quel point ces systèmes sont profondément ancrés en période de vulnérabilité.
Il est possible d’améliorer les soins de santé mentale
Cependant, tous les experts ne tirent pas la sonnette d’alarme sur la manière dont les chatbots fonctionnent dans le domaine de la santé mentale. Le psychiatre et neuroscientifique Dr Thomas Insel a déclaré que parce que les chatbots sont très accessibles (ils sont gratuits, ils sont en ligne, il n’y a aucune stigmatisation contre le fait de demander de l’aide à un bot au lieu de suivre une thérapie), il y a peut-être une marge pour que l’industrie médicale considère les chatbots comme une voie à suivre dans le domaine de la santé mentale.
“Ce que nous ne savons pas, c’est à quel point cela a été utile à beaucoup de gens”, a déclaré Insel à Fortune. “Ce n’est pas seulement une question de chiffres, mais aussi de l’ampleur de l’engagement.”
La santé mentale, comparée à d’autres domaines de la médecine, est souvent négligée par ceux qui en ont le plus besoin.
“Il s’avère que, contrairement à la plupart des médicaments, la grande majorité des gens qui pourraient et devraient recevoir des soins médicaux ne le font pas”, a déclaré Insel, ajoutant que les chatbots donnent aux gens la possibilité de se tourner vers eux pour obtenir de l’aide d’une manière qui l’amène à “se demander si le fait que les gens n’achètent pas ce que nous vendons, ou ne peuvent pas l’obtenir, ou n’aiment pas la façon dont cela leur est présenté, est une mise en accusation du système de santé mentale que nous avons.”
Pour les professionnels de la santé mentale qui rencontrent des patients pour discuter de l’utilisation des chatbots en ligne, Østergaard a déclaré qu’ils devraient écouter attentivement pourquoi leurs patients les utilisent réellement. “J’encourage mes collègues à poser davantage de questions sur la consommation et ses conséquences”, a déclaré Østergaard à Fortune. “Je pense qu’il est important que les professionnels de la santé mentale se familiarisent avec l’utilisation des chatbots IA. Sinon, il sera difficile de poser des questions pertinentes.”
Les chercheurs originaux de l’article sont d’accord avec Insel sur cette dernière partie : parce que c’est si universel, ils n’ont pu examiner que les dossiers des patients mentionnant un chatbot, avertissant que le problème pourrait être encore plus vaste que ce que leurs résultats ont montré.
“Je crains que le problème soit plus courant que la plupart des gens ne le pensent”, a déclaré Østergaard. “Nous ne voyons que la pointe de l’iceberg.”
Si vous avez des pensées suicidaires, contactez le 988 Suicide & Crisis Lifeline en appelant le 988 ou le 1-800-273-8255.



