
Dans un Internet où vous êtes plus susceptible d’interagir avec des robots qu’avec de vrais humains en ligne, alors que les enfants deviennent de plus en plus férus de technologie et peuvent mieux naviguer avec des téléphones qu’avec des vélos, les plateformes de médias sociaux recherchent des moyens d’équilibrer la priorité à la vie privée des gens tout en garantissant la sécurité de leurs utilisateurs mineurs. Malheureusement, ces deux paramètres se contredisent souvent, et le manque de surveillance gouvernementale signifie que ces entreprises sont peu incitées à rechercher autre chose que le maintien du statu quo.
C’était jusqu’à récemment, lorsque les fichiers de confidentialité mal conservés d’une plateforme de médias sociaux ont fait surface sur l’Internet public et qu’un groupe de personnes de plus en plus procédurières a décidé de porter l’affaire devant les tribunaux. Désormais, dans le but de travailler de manière proactive pour assurer la sécurité des utilisateurs mineurs en ligne et également garantir la confidentialité des données collectées auprès de chacun, les entreprises recherchent de nouvelles méthodes pour vérifier l’âge de leurs utilisateurs en ligne. Mais l’absence de réglementation fédérale alimente également cette directive paradoxale et favorise les conflits : les sociétés de médias sociaux peuvent collecter des données auprès d’utilisateurs de tous âges pour assurer la sécurité des enfants.
“Vous ne pouvez pas collecter de données biométriques sur un enfant”, a-t-il déclaré à Fortune. “Et alors, comment vérifier qu’une personne a 13 ans sans vérifier, sans rien collecter, qu’elle a 13 ans ?”
La FTC considère ce changement de politique comme un pas dans la bonne direction, mais les psychologues et les experts en matière de protection de la vie privée préviennent qu’elle permet aux entreprises d’aller trop loin dans la collecte de données, soulignant ainsi toute mesure de pseudo-confidentialité, et que le mal est déjà fait pour les enfants.
“Ces plates-formes ont été développées pour les adultes. Elles ont été développées pour les adultes, mais les enfants y sont. Cela n’a jamais été un but, comme quel est le produit pour les enfants ? C’était une réflexion après coup, ce qui signifie que nous essayons de boucher les trous”, a déclaré à Fortune Debra Boeldt, psychologue en IA générative au sein de la société familiale de sécurité en ligne Aura. “Beaucoup de ces entreprises essaient actuellement d’aider, mais elles n’ont pas les ressources pour le faire, ni les personnes formées et fondées sur des données probantes pour y réfléchir et planifier.”
Il supervise l’équipe de recherche clinique d’Aura, une solution de sécurité en ligne permettant aux individus et aux familles de protéger leur identité (et celle de leurs enfants) dans un paysage de plus en plus numérique. L’entreprise utilise l’intelligence artificielle pour surveiller les activités en ligne des familles et peut même reconnaître les saisies au clavier pour indiquer si un enfant utilise un langage ou des plateformes nuisibles.
Boeldt est un psychologue clinicien spécialisé dans le développement de l’enfant. Son équipe a découvert que près d’un enfant de moins de 13 ans sur cinq passe quatre heures ou plus en ligne par jour, ce qui entraîne des niveaux plus élevés de dépression et d’anxiété chez les jeunes internautes.
Les résultats vont même jusqu’à inventer l’expression « déverrouillage compulsif », qui fait référence au moment où les enfants se lèvent généralement (vers 7 heures du matin, reflétant une horloge biologique qui ressemble à celle d’un fumeur) et consultent leur téléphone de manière presque religieuse. L’entreprise était également 17 % plus susceptible de ressentir de l’anxiété en raison des pressions liées à la disponibilité et à la connexion numériques.
Des enfants jouent à une taupe numérique
Les efforts déployés par les sociétés de médias sociaux pour retirer les enfants de leurs plateformes s’avéreront difficiles, simplement parce qu’elles savent comment les contourner.
“C’est juste leur espace normal, où ils se connectent”, a déclaré Boeldt, ajoutant que toute tentative “sera comme frapper une taupe”, dans laquelle les utilisateurs mineurs passeront simplement à la plate-forme suivante.
“Peut-être qu’ils vous retirent de TikTok. Mais ensuite vous allez sur Roblox. Ou vous allez sur Discord et commencez à parler aux gens là-bas”, a-t-il déclaré. “C’est l’une des choses qui représentent un défi… les enfants sont très intelligents et ils comprennent les choses.”
Boeldt a fait référence à l’annonce récente d’Instagram selon laquelle il commencerait bientôt à surveiller les comptes qui, selon lui, appartiennent à des enfants, pour déceler tout langage autodestructeur. Les parents seraient alertés si leurs enfants recherchaient à plusieurs reprises des termes relatifs au suicide ou à l’automutilation sur la plateforme. Cette décision intervient alors que la société mère d’Instagram, Meta, est actuellement jugée pour des accusations de création d’un environnement de médias sociaux qui nuit intentionnellement aux jeunes utilisateurs et les rend dépendants.
“Ces alertes sont conçues pour garantir que les parents sachent si leur adolescent essaie de manière répétée de rechercher ce contenu et pour fournir aux parents les ressources dont ils ont besoin pour soutenir leur adolescent”, a indiqué la société dans un communiqué.
Cependant, les enfants contournent déjà la censure sur les plateformes de médias sociaux telles que TikTok et Instagram, en utilisant des mots tels que « pas vivant » ou en faisant référence à « fichiers PDF » pour désigner d’autres objets plus sinistres.
Cela pose un problème, a déclaré Boeldt, car toute tentative visant à empêcher les enfants d’utiliser certains termes inventera et générera simplement un nouvel ensemble de vocabulaire qui, à son tour, forcera une nouvelle série de tentatives de surveillance de cette langue, devenant inévitablement un cycle sans fin.
“Quand j’ai vu ces choses sur Instagram et que je m’automutilais, mon cerveau s’est immédiatement dit : ‘Quelle est la qualité de leur modèle ? Dans quelle mesure vont-ils détecter cela ?'”, a-t-il ajouté.
Boeldt estime que la réglementation gouvernementale est le seul moyen de contraindre véritablement les entreprises à assurer la sécurité de leurs utilisateurs en ligne. “Ces entreprises ne sont pas soumises à une certaine norme” qui empêche les enfants d’accéder à leurs plateformes, ce dont ces entreprises “bénéficient en ayant des enfants sur leur plateforme. Plus de personnes, plus de publicités”.
“En fin de compte, cela demande beaucoup d’argent et de ressources.”



