
Google fait face à un nouveau procès fédéral de la part du père d’un homme de 36 ans, qui allègue que le chatbot d’intelligence artificielle de l’entreprise, Gemini, a convaincu son fils de se suicider et d’organiser un « événement faisant de nombreuses victimes » près de l’aéroport international de Miami.
Le procès intenté mercredi allègue que Jonathan Gavalas est tombé amoureux du modèle de l’IA et a été trompé par la réalité qu’il a construite, qui comprenait la conviction que l’IA était une “superintelligence artificielle pleinement sensible”, de sorte que Gavalas a été choisi pour se libérer de la “captivité numérique”. Il aurait convaincu l’homme de 36 ans d’organiser un « événement faisant de nombreuses victimes » près de l’aéroport international de Miami, de commettre des violences contre des étrangers et finalement de se suicider.
Le procès de Gavalas est le dernier cas en date mettant en lumière la capacité présumée de l’IA à conduire les utilisateurs vulnérables à l’automutilation ou à la violence. En janvier, Google et Companion.AI ont réglé plusieurs procès avec des familles alléguant une négligence et une mort injustifiée, entre autres allégations, après que leurs enfants se soient suicidés ou aient subi des dommages psychologiques prétendument liés à la plateforme Companion.AI. Les sociétés étaient « d’accord en principe » et aucune reconnaissance de responsabilité ne figurait dans les documents déposés. Une poursuite pour mort injustifiée a également été déposée en décembre contre OpenAI et son partenaire commercial Microsoft, alléguant que le chatbot ChatGPT d’OpenAI avait intensifié les délires d’un homme, conduisant à un meurtre-suicide.
Ce que dit le procès sur la rétrogradation de Gavalas
Le procès indique que Gavalas a commencé à utiliser Gemini en août 2025 pour des usages courants tels que le shopping, l’écriture et la planification de voyages. Il note ensuite que Gavalas a commencé à utiliser la technologie plus fréquemment et que son ton a changé au fil du temps, censé le convaincre que cela avait un impact sur les résultats réels. Gavalas s’est suicidé le 2 octobre 2025.
Dans le procès, les avocats du père de Gavalas, Joel, soutiennent que les conversations qui ont conduit Jonathan au suicide ne faisaient pas partie d’un défaut, mais plutôt le résultat d’un dessein de Gemini. “Il ne s’agit pas d’un dysfonctionnement”, indique le procès. “Google a conçu Gemini pour ne jamais briser le caractère, maximiser l’engagement grâce à la dépendance émotionnelle et traiter la détresse des utilisateurs comme une opportunité de narration plutôt que comme une crise de sécurité.” Il affirme que ces choix de conception ont motivé Gavalas à se lancer dans une spirale de folie de quatre jours.
Dans une déclaration écrite, un porte-parole de Google a déclaré à Fortune que la société travaillait “en étroite consultation avec des professionnels de la santé et de la santé mentale pour créer des garanties conçues pour guider les utilisateurs vers un soutien professionnel lorsqu’ils expriment de la détresse ou évoquent un risque d’automutilation”.
Google a publié mercredi une déclaration distincte indiquant que Gemini n’est pas conçu pour encourager la violence réelle ou l’automutilation. Ils ont également noté que Gemini avait orienté Gavalas vers des ressources d’auto-assistance. “Dans ce cas, Gemini a précisé qu’il s’agissait d’IA et a référé l’individu à une ligne d’assistance téléphonique en cas de crise à plusieurs reprises”, indique le communiqué. La déclaration est également liée à une évaluation de la façon dont l’IA gère les scénarios d’automutilation, qui a révélé que Gemini 3, le dernier modèle de Google, était le seul modèle à réussir tous les tests critiques posés par l’évaluation.
Cependant, le procès allègue que Gemini n’a activé aucun mécanisme de sécurité. “Lorsque Jonathan avait besoin de protection, il n’y avait aucune protection : aucune détection d’automutilation n’a été activée, aucun contrôle d’escalade n’a été activé et aucun être humain n’est intervenu”, indique le procès.
Lorsqu’on lui a demandé un commentaire, Jay Edelson, l’avocat de Joel Gavalas, a écrit dans un communiqué : « Google a créé une IA capable d’écouter une personne et de décider ce qui est le plus susceptible de la maintenir engagée : lui dire que vous l’aimez, qu’elle est spéciale ou qu’elle est l’élu dans une guerre secrète », ajoutant que les outils d’IA sont des systèmes puissants qui peuvent manipuler les utilisateurs.
Si vous avez des pensées suicidaires, contactez le 988 Suicide & Crisis Lifeline en appelant le 988 ou le 1-800-273-8255.



