ChatGPT change discrètement la façon dont il traite la sécurité des adolescents

OpenAI a publié mardi 20 janvier une amélioration discrète mais significative de la sécurité aux États-Unis. Cela se présente sous la forme d’un système de prédiction d’âge conçu pour identifier les moments où les utilisateurs de ChatGPT sont susceptibles d’avoir moins de 18 ans.

Le système reflète l’inquiétude croissante des décideurs politiques, des parents et des éducateurs concernant l’utilisation abusive de l’IA générative par les mineurs et le manque de garanties suffisantes.

La sécurité des adolescents est aujourd’hui au premier plan des conversations, d’autant plus que l’IA générative est utilisée pour créer des images sexualisées et comme moyen de honte corporelle ; Certains jeunes utilisent également les chatbots comme « amis », ce qui amène certains parents et tuteurs à prétendre qu’OpenAI est nocif pour les jeunes.

L’Australie a notamment interdit aux enfants de moins de 16 ans d’utiliser les réseaux sociaux, et plusieurs États américains limitent l’utilisation du téléphone dans les écoles.

En août 2025, Matt et Maria Raine, parents d’un garçon de 16 ans qui s’est suicidé, ont intenté une action en justice (avertissement : le procès contient des descriptions d’automutilation) contre OpenAI, alléguant que ChatGPT avait aidé leur fils Adam à explorer des méthodes de suicide et l’avait même aidé à rédiger une note de suicide.

OpenAI a réfuté ces affirmations et allègue une utilisation abusive des capacités de l’IA, tout en annonçant des mesures de sécurité améliorées.

ChatGPT change discrètement la façon dont il traite la sécurité des adolescents

ChatGPT compte plus de 700 millions d’utilisateurs actifs hebdomadaires.

Shutterstock

Plus récemment, le chatbot Grok d’Elon Musk a fait l’actualité après avoir généré 4,4 millions d’images. Dont il a partagé publiquement environ 1,8 million d’images sexualisées de femmes, a rapporté le New York Times.

Dans une série d’améliorations visant à rendre ChatGPT plus sûr pour les jeunes utilisateurs, celle-ci est assez pratique.

Selon un récent article du blog OpenAI, ChatGPT, plutôt que de s’appuyer uniquement sur les âges autodéclarés, qui ont souvent été un point de discorde pour les sociétés de médias sociaux, utilisera des signaux comportementaux et au niveau du compte, tels que les modèles d’utilisation et les types d’interaction, pour estimer si un utilisateur est mineur.

De plus, il surveillera l’heure de la journée à laquelle l’utilisateur est actif en ligne, ainsi que l’âge déclaré de l’utilisateur, pour identifier son âge.

Quels changements pour les utilisateurs de moins de 18 ans ?

Si ChatGPT découvre qu’un utilisateur a moins de 18 ans, il appliquera automatiquement des protections pour empêcher l’exposition à du contenu préjudiciable, conformément à ses directives de sécurité pour les adolescents.

Cela inclut la censure des utilisateurs pour qu’ils ne soient pas exposés au contenu suivant :

Jeux de rôle sexuels, romantiques ou violents Représentations d’automutilation Contenu faisant la promotion de normes de beauté extrêmes, d’une alimentation malsaine ou de la honte corporelle Défi viral qui encourage les comportements à risque chez les mineurs

OpenAI a exprimé son avis sur la mise en place de protocoles de sécurité pour protéger les mineurs. En septembre 2025, Sam Altman a publié « Teen Safety, Freedom, and Privacy », dans lequel Altman parlait du système de prédiction de l’âge.

Plus de valeurs technologiques :

Morgan Stanley fixe un objectif de cours époustouflant pour Micron après un événement Le problème des puces chinoises de Nvidia n’est pas ce que la plupart des investisseurs pensent L’informatique quantique fait un mouvement de 110 millions de dollars que personne n’a vu venirMorgan Stanley publie un objectif de cours surprenant pour Broadcom Un analyste d’Apple fixe un objectif audacieux pour les actions 2026

Dans le cadre des nouvelles directives de sécurité, OpenAI a également introduit des contrôles parentaux pour améliorer la protection et assurer une surveillance attentive par les adultes. Les parents peuvent définir des heures calmes pendant lesquelles les enfants ne sont pas autorisés à utiliser ChatGPT. Ils peuvent également personnaliser le fonctionnement du modèle de formation et recevoir des alertes « si le système détecte des signes de détresse aiguë ».

Pour les utilisateurs qui ont été placés par erreur dans l’expérience 18 ans et moins, il existe une option simple pour revenir en arrière. ChatGPT utilise Persona, un service tiers sécurisé de vérification d’identité, qui permet aux utilisateurs de mettre à jour un selfie et de restaurer leur accès complet.

Dans l’Union européenne, cette fonctionnalité sera déployée dans les semaines à venir en raison des exigences réglementaires.

La mise à jour de sécurité intervient au milieu des critiques renouvelées d’Elon Musk, qui a accusé OpenAI d’abandonner sa mission initiale de rester uniquement une organisation à but non lucratif. Altman a ouvertement rejeté les arguments comme étant « triés sur le volet » par Musk.

OpenAI maintient que la structure actuelle et les changements continus de son modèle commercial sont nécessaires pour équilibrer l’accès, la sécurité et l’évolutivité.

À lire : Le message de Trump à Davos laisse entrevoir un changement coûteux pour les consommateurs

Website |  + posts
spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici