
OpenAI estime avoir enfin pris la tête de l’une des courses les plus surveillées en matière d’intelligence artificielle : le codage basé sur l’IA. Son dernier modèle, GPT-5.3-Codex, représente une solide avancée par rapport aux systèmes concurrents, affichant des performances sensiblement supérieures dans les tests de codage et les résultats rapportés par rapport aux générations précédentes des modèles OpenAI et Anthropic, suggérant un avantage longtemps recherché dans une catégorie qui pourrait remodeler la façon dont les logiciels sont construits.
Mais l’entreprise met en œuvre le modèle avec des contrôles inhabituellement stricts et retarde l’accès complet des développeurs tout en étant confrontée à une réalité plus dure : les mêmes capacités qui rendent GPT-5.3-Codex si efficace pour l’écriture, les tests et le raisonnement sur le code soulèvent également de graves problèmes de cybersécurité. Dans la course pour construire le modèle de codage le plus puissant, OpenAI a pris le risque de se lancer de front.
GPT-5.3-Codex est disponible pour les utilisateurs payants de ChatGPT, qui peuvent utiliser le modèle pour les tâches quotidiennes de développement de logiciels, telles que l’écriture, le débogage et le test de code via les outils Codex d’OpenAI et l’interface ChatGPT. Mais pour l’instant, l’entreprise n’ouvre pas un accès illimité aux utilisations de cybersécurité à haut risque, et OpenAI ne permet pas immédiatement un accès complet à l’API qui permettrait d’automatiser le modèle à grande échelle. Ces applications plus sensibles sont protégées par des mesures de protection supplémentaires, notamment un nouveau programme d’accès de confiance destiné aux professionnels de la sécurité agréés, reflétant l’opinion d’OpenAI selon laquelle le modèle a franchi un nouveau seuil de risque de cybersécurité.
Le billet de blog de la société accompagnant le lancement du modèle jeudi indique que même s’il n’existe « aucune preuve définitive » que le nouveau modèle peut entièrement automatiser les cyberattaques, « nous adoptons une approche préventive et déployons notre pile de sécurité en matière de cybersécurité la plus complète à ce jour. Nos mesures d’atténuation comprennent une formation à la sécurité, une surveillance automatisée, un accès fiable aux capacités avancées et aux canaux d’application de la loi, y compris les renseignements sur les menaces. »
Sam Altman, PDG d’OpenAI, a publié un article sur En d’autres termes, il s’agit du premier modèle qu’OpenAI considère comme suffisamment bon en matière de codage et de raisonnement pour permettre de manière significative des cyber-dommages réels, en particulier s’il est automatisé ou utilisé à grande échelle.
Rejoignez-nous au Fortune Workplace Innovation Summit les 19 et 20 mai 2026 à Atlanta. La prochaine ère d’innovation sur le lieu de travail est arrivée, et les vieux manuels sont en train d’être réécrits. Lors de cet événement exclusif et dynamique, les dirigeants les plus innovants du monde se réuniront pour explorer comment l’IA, l’humanité et la stratégie convergent pour redéfinir une fois de plus l’avenir du travail. Inscrivez-vous maintenant.



