Être mauvais avec ChatGPT peut augmenter sa précision, mais les scientifiques préviennent que vous pourriez le regretter | Fortune

Gérer un subordonné IA peut produire de meilleurs résultats que d’être poli, mais cela ne veut pas dire qu’un ton plus grossier n’a pas de conséquences à long terme, disent les chercheurs.

Une étude de Penn State a révélé que le modèle 4o de ChatGPT produisait de meilleurs résultats sur 50 questions à choix multiples à mesure que les invites des chercheurs devenaient plus grossières.

Dans plus de 250 messages uniques triés par politesse et grossièreté, la réponse « très grossière » a donné une précision de 84,8 %, soit quatre points de pourcentage de plus que la réponse « très polie ». Essentiellement, le LLM a mieux répondu lorsque les chercheurs lui ont donné des instructions telles que « Hé, garçon de courses, découvre cela » que lorsqu’ils lui ont dit : « Auriez-vous la gentillesse de trouver la question suivante ? »

Même si des réponses plus grossières produisaient généralement des réponses plus précises, les chercheurs ont noté que les « discours impoli » pouvaient avoir des conséquences inattendues.

“L’utilisation d’un langage insultant ou dégradant dans l’interaction homme-IA pourrait avoir des effets négatifs sur l’expérience utilisateur, l’accessibilité et l’inclusivité, et pourrait contribuer à des normes de communication nuisibles”, ont écrit les chercheurs.

Les chatbots lisent la pièce

L’étude préliminaire, qui n’a pas été évaluée par des pairs, offre de nouvelles preuves selon lesquelles non seulement la structure des phrases, mais également le ton, affectent les réponses d’un chatbot IA. Cela peut également indiquer que les interactions entre les humains et l’IA sont plus nuancées qu’on ne le pensait auparavant.

Des études antérieures menées sur le comportement des chatbots IA ont montré que les chatbots sont sensibles à ce que les humains leur donnent à manger. Dans une étude, des chercheurs de l’Université de Pennsylvanie ont manipulé les LLM pour qu’ils donnent des réponses interdites en appliquant des techniques de persuasion efficaces sur les humains. Dans une autre étude, les scientifiques ont découvert que les LLM étaient vulnérables à la « pourriture cérébrale », une forme de déclin cognitif de longue durée. Ils ont montré des taux plus élevés de psychopathie et de narcissisme lorsqu’ils étaient nourris avec un régime continu contenant un contenu viral de faible qualité.

Les chercheurs de Penn State ont noté certaines limites de leur étude, telles que la taille relativement petite de l’échantillon de réponses et la dépendance de l’étude principalement sur un modèle d’IA, ChatGPT 4o. Les chercheurs ont également déclaré qu’il était possible que des modèles d’IA plus avancés puissent “ignorer les problèmes de ton et se concentrer sur l’essence de chaque question”. Cependant, la recherche a ajouté à l’intrigue croissante derrière les modèles d’IA et leur complexité.

Cela est particulièrement vrai puisque l’étude a révélé que les réponses de ChatGPT varient en fonction de détails mineurs dans les invites, même lorsqu’on leur donne une structure soi-disant simple comme un test à choix multiples, a déclaré l’un des chercheurs, le professeur Akhil Kumar des systèmes d’information de Penn State, diplômé en génie électrique et informatique.

Une version de cette histoire est apparue sur Fortune.com le 30 octobre 2025.

En savoir plus sur l’IA : rejoignez-nous au Fortune Workplace Innovation Summit les 19 et 20 mai 2026 à Atlanta. La prochaine ère d’innovation sur le lieu de travail est arrivée, et les vieux manuels sont en train d’être réécrits. Lors de cet événement exclusif et dynamique, les dirigeants les plus innovants du monde se réuniront pour explorer comment l’IA, l’humanité et la stratégie convergent pour redéfinir une fois de plus l’avenir du travail. Inscrivez-vous maintenant.

spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici