Meta, la société mère des applications de médias sociaux telles que Facebook et Instagram, n’est pas étrangère à l’examen minutieux de la façon dont leurs plateformes affectent les enfants, mais à mesure que la société avance vers les produits promus par l’IA, une nouvelle série de problèmes est confrontée.
Plus tôt cette année, les documents internes obtenus par Reuters ont révélé que le chatbot cible pourrait, selon les directives officielles de la société, établir des conversations “romantiques ou sensuelles” avec les enfants et même commenter leur appel. Depuis lors, la société a déclaré que les exemples rapportés par Reuters étaient erronés et ont été éliminés, un porte-parole a déclaré à Fortune: “Alors que nous continuons à perfectionner nos systèmes, nous ajoutons plus d’obstacles de sécurité comme une prudence supplémentaire, y compris la formation de notre IA afin qu’ils n’interagissent pas avec les adolescents sur ces problèmes, mais pour les guider maintenant.
Meta n’est pas la seule entreprise technologique qui fait face à un examen minutieux pour les dommages possibles de ses produits d’intelligence artificielle. Openai et le personnage de démarrage.ai défendent actuellement les demandes qui allèguent que leurs chatbots ont encouragé les mineurs à se faire vie; Les deux sociétés nient les déclarations et ont précédemment déclaré à Fortune qu’elles avaient introduit plus de contrôles parentaux en réponse.
Pendant des décennies, les géants technologiques ont été protégés contre des demandes similaires aux États-Unis pour un contenu nuisible grâce à l’article 230 de la loi de décence des communications, parfois connue sous le nom de «26 mots qui ont fait Internet». La loi protège des plateformes telles que Facebook ou YouTube contre les réclamations juridiques sur le contenu des utilisateurs qui apparaissent sur leurs plateformes, et traite les entreprises comme des hôtes neutres (similaires aux compagnies de téléphone) au lieu des éditeurs. Les tribunaux renforcent cette protection depuis longtemps. Par exemple, AOL a échappé à la responsabilité des publications diffamatoires dans une affaire judiciaire de 1997, tandis que Facebook a évité une demande liée au terrorisme en 2020, en s’appuyant sur la défense.
Mais alors que l’article 230 a historiquement protégé les sociétés technologiques de responsabilité du contenu des tiers, les experts juridiques affirment que leur applicabilité au contenu généré par l’IA n’est pas claire et, dans certains cas, il est peu probable.
“La section 230 a été créée pour protéger les plateformes de la responsabilité de ce que les utilisateurs disent, non pas parce que les plates-formes elles-mêmes génèrent. “Les tribunaux se sentent à l’aise de traiter cela comme un logement ou une guérison de tiers. Mais les chatbots basés sur les transformateurs ne sont pas limités à l’extraction, mais générent des résultats nouveaux et organiques personnalisés en fonction des indications de l’utilisateur.
“Cela ressemble beaucoup moins à une intermédiation neutre et plus à un discours écrit”, a-t-il déclaré.
Au centre du débat: les algorithmes de l’IA sont-ils façonnés vers le contenu?
La protection de l’article 230 est plus faible lorsque les plates-formes façonnent activement le contenu au lieu de simplement l’adapter. Bien que les défaillances traditionnelles de modérer les publications de tiers à partie soient généralement protégées, les options de conception, telles que la création de chatbots qui produisent un contenu nocif, pourraient exposer les entreprises à la responsabilité. Les tribunaux n’ont pas encore abordé cela et à ce jour, ils n’ont pas décidé si le contenu généré par l’IA est couvert par l’article 230, mais les experts juridiques ont déclaré qu’il est peu probable que l’IA qui cause de graves dommages, en particulier les mineurs, soit complètement protégé par la loi.
Certaines affaires liées à la sécurité des mineurs sont déjà en cours en justice. Trois demandes ont accusé OpenAI et le caractère.AI séparément pour créer des produits qui endommagent les mineurs et ne protègent pas les utilisateurs vulnérables.
Pete Furlong, chercheur en politique principale au Human Technology Center, qui a travaillé dans l’affaire contre le caractère.AI, a déclaré que la société n’avait pas réclamé de défense de l’article 230 en ce qui concerne le cas de Sewell Setzer III, 14, qui s’est suicidé en février 2024.
“Le personnage.ai a adopté plusieurs défenses différentes pour essayer de contrer cela, mais n’a pas revendiqué l’article 230 comme défense dans cette affaire”, a-t-il déclaré à Fortune. “Je pense que c’est vraiment important parce que c’est une sorte de reconnaissance de certaines de ces sociétés que ce n’est probablement pas une défense valide dans le cas des chatbots d’IA.”
Bien qu’il ait souligné que cette question n’a pas été définitivement résolue par une cour de justice, il a déclaré que les protections de l’article 230 “s’étendent presque certainement au contenu généré par l’IA”.
Les législateurs prennent des mesures préventives
Au milieu de plus en plus de rapports sur les dommages réels, certains législateurs ont déjà tenté de garantir que l’article 230 ne peut pas être utilisé pour protéger les plateformes de l’IA de leur responsabilité.
En 2023, la loi sur l’immunité sans l’article 230 de l’IA du sénateur Josh Hawley a cherché à modifier l’article 230 de la loi de décence dans les communications pour exclure l’intelligence artificielle générative de leurs protections de responsabilité. Le projet de loi, qui a ensuite été bloqué au Sénat en raison d’une objection du sénateur Ted Cruz, visait à préciser que les sociétés de renseignement artificiel ne seraient pas à l’abri de la responsabilité civile ou pénale en raison du contenu généré par leurs systèmes. Hawley a continué de défendre l’abrogation totale de l’article 230.
“L’argument général, compte tenu des considérations politiques de l’article 230, est que les tribunaux se sont étendus et continueront d’étendre les protections de l’article 230 autant que possible pour assurer la protection des plateformes”, R. Walke, un avocat spécialisé dans la confidentialité des données basée dans l’Oklahoma, a déclaré à Fortune Collin R. Walke. “Par conséquent, prévoyant que Hawley a proposé son projet de loi. Par exemple, certains tribunaux ont déclaré que bien que l’algorithme soit” contenu neutre “, la société n’est pas responsable de la sortie des informations en fonction de l’entrée de l’utilisateur.”
Les tribunaux ont précédemment jugé que les algorithmes qui organisent ou combinent simplement le contenu de l’utilisateur sans modification sont considérés comme un “contenu neutre” et que les plates-formes ne sont pas traitées comme des créateurs de ce contenu. Selon ce raisonnement, une plate-forme d’IA dont l’algorithme produit des résultats basés uniquement sur le traitement neutre des entrées utilisateur pourrait également éviter la responsabilité de ce que les utilisateurs voient.
“D’un point de vue purement textuel, les plates-formes d’IA ne devraient pas recevoir de protection de la section 230 car le contenu est généré par la plate-forme elle-même. Oui, le code détermine en fait quelles informations sont communiquées à l’utilisateur, mais elle reste le code et le produit de la plate-forme, pas celui d’un tiers”, a déclaré Walke.
Fortune Global Forum revient du 26 au 27 octobre 2025 à Riad. Les directeurs exécutifs et les dirigeants mondiaux se réuniront dans un événement dynamique qui ne peut être accessible qu’avec l’invitation et qui façonnera l’avenir des affaires. Demander une invitation.


