OpenAI pourrait avoir violé la nouvelle loi californienne sur la sécurité de l’IA avec la publication de son dernier modèle de codage, selon les allégations d’un groupe de surveillance de l’IA.
Une violation exposerait potentiellement l’entreprise à des millions de dollars d’amendes, et l’affaire pourrait devenir un premier test sans précédent pour les dispositions de la nouvelle loi.
Un porte-parole d’OpenAI a contesté la position de l’organisme de surveillance, déclarant à Fortune que l’entreprise était “confiante dans notre respect des lois sur la sécurité des frontières, y compris le SB 53”.
La controverse porte sur GPT-5.3-Codex, le dernier modèle de codage d’OpenAI, publié la semaine dernière. Le modèle fait partie d’un effort d’OpenAI pour retrouver son leadership dans le codage basé sur l’IA et, selon les données de référence publiées par OpenAI, montre des performances sensiblement supérieures sur les tâches de codage que les versions précédentes des modèles d’OpenAI et de concurrents tels qu’Anthropic. Cependant, ce modèle a également soulevé des préoccupations sans précédent en matière de cybersécurité.
Le PDG Sam Altman a déclaré que le modèle était le premier à atteindre la catégorie de risque de cybersécurité « élevé » dans le cadre de préparation de l’entreprise, un système interne d’évaluation des risques qu’OpenAI utilise pour les versions de modèles. Cela signifie qu’OpenAI classe essentiellement le modèle comme suffisamment capable de coder pour potentiellement faciliter des cyber-dommages importants, en particulier s’il est automatisé ou utilisé à grande échelle.
Le groupe de surveillance de l’IA, Project Midas, affirme qu’OpenAI n’a pas respecté ses propres engagements en matière de sécurité, qui sont désormais juridiquement contraignants en vertu de la loi californienne, avec le lancement du nouveau modèle à haut risque.
Le SB 53 de Californie, entré en vigueur en janvier, exige que les grandes sociétés d’IA publient et appliquent leurs propres cadres de sécurité, détaillant comment elles préviendront les risques catastrophiques (définis comme des incidents causant plus de 50 morts ou 1 milliard de dollars de dommages matériels) pour leurs modèles. Il interdit également à ces entreprises de faire des déclarations trompeuses sur la conformité.
Le cadre de sécurité OpenAI nécessite des garanties spéciales pour les modèles de cybersécurité à haut risque, conçus pour empêcher l’IA de devenir malveillante et de commettre des actes trompeurs, de saboter la recherche sur la sécurité ou de cacher ses véritables capacités. Cependant, le projet Midas a déclaré que malgré l’activation du seuil de cybersécurité « à haut risque », OpenAI ne semble pas avoir mis en œuvre de mesures de protection spécifiques contre le désalignement avant sa mise en œuvre.
OpenAI affirme que l’interprétation du projet Midas de la formulation de son cadre de préparation est incorrecte, bien qu’elle ait également déclaré que la formulation du cadre est « ambiguë » et qu’elle a cherché à clarifier l’intention de la formulation de ce cadre avec une déclaration dans le rapport de sécurité que la société a publié avec GPT-5.3-Codex. Dans ce rapport de sécurité, OpenAI a déclaré que des garanties supplémentaires ne sont nécessaires que lorsqu’un cyber-risque élevé survient « en conjonction avec » une autonomie à long terme – la capacité de fonctionner de manière indépendante pendant de longues périodes. Étant donné que l’entreprise estime que GPT-5.3-Codex ne dispose pas de cette autonomie, elle affirme que les garanties n’étaient pas nécessaires.
“GPT-5.3-Codex a terminé notre processus complet de test et de gouvernance, comme détaillé dans la carte système rendue publique, et n’a pas démontré de capacités d’autonomie à long terme basées sur des évaluations par procuration et confirmées par les jugements d’experts internes, y compris notre groupe consultatif sur la sécurité”, a déclaré le porte-parole. Cependant, l’entreprise a également déclaré qu’elle ne disposait pas d’un moyen définitif pour évaluer l’autonomie à longue portée d’un modèle et s’appuie donc sur des tests qui, selon elle, peuvent servir d’indicateurs de cette mesure, dans le cadre du développement de meilleures méthodes d’évaluation.
Cependant, certains chercheurs en sécurité ont remis en question l’interprétation d’OpenAI. Nathan Calvin, vice-président des affaires d’État et avocat général chez Encode, a déclaré dans un article sur
Le projet Midas affirme également qu’OpenAI ne peut pas prouver de manière définitive que le modèle n’a pas l’autonomie nécessaire pour des mesures supplémentaires, car le modèle précédent, moins avancé de l’entreprise, dépassait déjà les références mondiales pour l’exécution de tâches autonomes. Le groupe soutient que même si les règles n’étaient pas claires, OpenAI aurait dû les clarifier avant de publier le modèle.
Tyler Johnston, fondateur du projet Midas, a qualifié la violation potentielle de « particulièrement embarrassante compte tenu de la hauteur du plancher des ensembles SB 53 : en gros, il suffit d’adopter un plan de sécurité volontaire de votre choix et de communiquer honnêtement à ce sujet, en le modifiant si nécessaire, mais sans le violer ni mentir à ce sujet. »
Si une enquête est ouverte et que les allégations s’avèrent exactes, le SB 53 prévoit des sanctions substantielles en cas de violation, qui pourraient s’élever à des millions de dollars selon la gravité et la durée du non-respect. Un représentant du bureau du procureur général de Californie a déclaré à Fortune que le département était « déterminé à faire respecter les lois de notre État, y compris celles adoptées pour accroître la transparence et la sécurité dans le domaine émergent de l’IA ». Cependant, ils ont déclaré que le ministère ne pouvait pas commenter, ni même confirmer ou infirmer, des enquêtes potentielles ou en cours.
Mise à jour le 10 février : cette histoire a été mise à jour pour déplacer la déclaration d’OpenAI selon laquelle elle estime se conformer à la loi californienne sur l’IA plus haut dans l’histoire. Les titres ont également été modifiés pour indiquer clairement qu’OpenAI conteste les allégations du groupe de surveillance. De plus, l’histoire a été mise à jour pour clarifier que la déclaration d’OpenAI dans le rapport de sécurité GPT-5.3-Codex visait à clarifier ce que la société considère comme un langage ambigu dans son cadre de préparation.


