
Bonjour et bienvenue dans Eye on AI, avec Sharon Goldman remplaçant Jeremy Kahn. Dans cette édition : Ce que signifie réellement l’embauche d’OpenClaw par OpenAI… Le Pentagone menace de punition anthropique… Pourquoi une vidéo d’IA de Tom Cruise combattant Brad Pitt a effrayé Hollywood… L’anxiété qui anime la culture de travail brutale de l’IA.
Ce type de comportement autonome est précisément ce qui a rendu OpenClaw intéressant pour les développeurs, les rapprochant de leur rêve d’un véritable JARVIS, le compagnon toujours actif des films Iron Man. Mais cela a rapidement déclenché l’alarme parmi les experts en sécurité. La semaine dernière, j’ai décrit OpenClaw comme le « mauvais garçon » des agents IA, car un assistant persistant, autonome et profondément connecté entre les systèmes est également beaucoup plus difficile à sécuriser.
Certains disent que l’embauche d’OpenAI est le « meilleur résultat »
Cette tension explique en partie pourquoi certains considèrent l’intervention d’OpenAI comme une étape nécessaire. “Je pense que c’est probablement le meilleur résultat pour tout le monde”, a déclaré Gavriel Cohen, un ingénieur logiciel qui a créé NanoClaw, qu’il qualifie d'”alternative sûre” à OpenClaw. “Peter a un grand sens du produit, mais le projet est devenu trop gros, trop rapide, sans suffisamment d’attention à l’architecture et à la sécurité. OpenClaw est fondamentalement peu sécurisé et défectueux. Ils ne peuvent pas simplement le réparer avec des correctifs.”
D’autres considèrent cette décision comme tout aussi stratégique pour OpenAI. “C’est une grande avancée de leur part”, a déclaré William Falcon, PDG de Lightning AI, société de cloud computing axée sur les développeurs, qui a déclaré que les produits Claude d’Anthropic, y compris Claude Code, ont dominé le segment des développeurs. OpenAI, a-t-il expliqué, veut « gagner tous les développeurs, c’est là que se trouvent la plupart des dépenses en IA ». OpenClaw, qui est à bien des égards une alternative open source à Claude Code, et est devenu du jour au lendemain le chouchou des développeurs, donne à OpenAI une « carte gratuite pour sortir de prison », a-t-il déclaré.
Altman, pour sa part, a présenté l’embauche comme un pari sur la suite. Il a déclaré que Steinberger apportait « beaucoup d’idées étonnantes » sur la manière dont les agents d’IA pourraient interagir les uns avec les autres, ajoutant que « l’avenir sera extrêmement multi-agents » et que de telles capacités « deviendront rapidement le cœur de notre offre de produits ». OpenAI a déclaré qu’il prévoyait de maintenir OpenClaw en tant que projet open source indépendant via une fondation plutôt que de l’intégrer dans ses propres produits, une promesse qui, selon Steinberger, était essentielle à sa décision de choisir OpenAI plutôt que des concurrents comme Anthropic et Meta (dans une interview avec Lex Fridman, Steinberger a déclaré que Mark Zuckerberg l’avait même contacté personnellement sur WhatsApp).
La prochaine étape consiste à gagner la confiance des développeurs pour les agents IA
Au-delà du battage médiatique du week-end, l’embauche d’OpenClaw par OpenAI offre une fenêtre sur l’évolution de la carrière des agents IA. À mesure que les modèles deviennent plus interchangeables, la concurrence se déplace vers l’infrastructure moins visible qui détermine si les agents peuvent fonctionner de manière fiable, sécurisée et à grande échelle. En faisant appel au créateur d’un agent autonome viral mais controversé tout en promettant de garder le projet open source, OpenAI signale que la prochaine phase de l’IA ne sera pas définie uniquement par des modèles plus intelligents, mais en gagnant la confiance des développeurs chargés de transformer les agents expérimentaux en systèmes fiables.
Cela pourrait conduire à une vague de nouveaux produits, a déclaré Yohei Nakajima, partenaire chez Untapped Capital dont l’expérience open source de 2023 appelée BabyAGI a contribué à démontrer comment les LLM pouvaient générer et exécuter des tâches de manière autonome, contribuant ainsi à lancer le mouvement moderne des agents d’IA. BabyAGI et OpenClaw, a-t-il déclaré, ont incité les développeurs à voir ce qu’ils pouvaient créer d’autre avec les dernières technologies. “Peu de temps après BabyAGI, nous avons assisté au lancement de la première vague de sociétés d’agents : gpt-engineer (devenu Lovable), Crew AI, Manus, Genspark”, a-t-il déclaré. “J’espère que nous verrons de nouveaux produits inspirés similaires après cette récente vague.”
FORTUNE EN IA
Les investissements dans l’IA augmentent en Inde alors que les dirigeants technologiques se réunissent pour le sommet de Delhi – par Beatrice Nolan
Les grandes technologies approchent du moment « drapeau rouge » : les dépenses d’investissement en IA sont si importantes que les hyperscalers pourraient avoir des flux de trésorerie négatifs, prévient Evercore – par Jim Edwards
Le PDG d’Anthropic, Dario Amodei, explique sa prudence en matière de dépenses, avertissant que si les prévisions de croissance de l’IA s’écartent d’un an seulement, “alors vous allez faire faillite” – par Jason Ma
L’IA DANS L’ACTUALITÉ
Le Pentagone menace de sanctions anthropiques. Le Pentagone menace de désigner Anthropic comme un « risque pour la chaîne d’approvisionnement », une décision rare et punitive qui obligerait effectivement toute entreprise faisant affaire avec l’armée américaine à rompre ses liens avec la startup d’IA, selon Axios. Les responsables de la défense se disent frustrés par le refus d’Anthropic d’assouplir complètement les garanties sur la façon dont son modèle Claude peut être utilisé (en particulier les limites destinées à empêcher la surveillance massive des Américains ou le développement d’armes entièrement autonomes), arguant que l’armée devrait pouvoir utiliser l’IA à « toutes fins légales ». La confrontation est particulièrement tendue car Claude est actuellement le seul modèle d’IA approuvé pour une utilisation dans les systèmes classifiés du Pentagone et est profondément ancré dans les flux de travail militaires, ce qui signifie qu’une rupture brutale serait coûteuse et perturbatrice. Ce différend souligne une tension croissante entre les laboratoires d’IA qui veulent imposer des limites éthiques et l’establishment militaire américain de plus en plus disposé à jouer au dur alors qu’il cherche à contrôler plus largement les puissants outils d’IA.
L’anxiété qui anime la culture de travail brutale de l’IA. Si vous vous êtes déjà inquiété de votre équilibre travail-vie personnelle, je pense que vous vous sentirez mieux après avoir lu cet article. Selon The Guardian, dans l’économie de l’IA en plein essor à San Francisco, les avantages de longue date et la culture flexible du secteur technologique sont remplacés par des attentes impitoyables et exigeantes, alors que les startups obligent les employés à travailler de longues heures, peu de temps libre et des pressions de productivité extrêmes au nom de suivre des progrès rapides et une concurrence intense. Les travailleurs décrivent des journées de 12 heures, des semaines de six jours et des environnements dans lesquels sauter les week-ends ou la vie sociale semble être le prix à payer pour rester pertinent, même si l’anxiété grandit quant à la sécurité de l’emploi et à l’impact de l’IA sur les rôles futurs. Ce changement reflète une transformation plus large dans la manière dont le travail de l’IA est valorisé, une transformation qui remodèle les normes sur le lieu de travail et pourrait laisser présager des pressions similaires dans d’autres secteurs à mesure que l’automatisation et l’innovation s’accélèrent. Il faudra certainement que je voie à quoi cela ressemble sur le terrain la prochaine fois que je serai dans la Baie.
OEIL SUR LA RECHERCHE SUR L’IA
DEF CON, la plus grande et la plus ancienne conférence de hackers au monde, a publié son dernier Hackers’ Almanack, un rapport annuel résumant les recherches présentées dans l’édition la plus récente en août 2025. Le rapport s’est concentré sur la façon dont les chercheurs ont montré que les systèmes d’IA n’aident plus seulement les humains à pirater plus rapidement, mais peuvent parfois les surpasser. Dans plusieurs compétitions de cybersécurité, des équipes utilisant des agents IA ont battu des équipes entièrement humaines, et dans un cas, une IA a été autorisée à fonctionner seule et à pénétrer avec succès dans un système cible sans autre intervention humaine. Les chercheurs ont également démontré des outils d’intelligence artificielle capables de détecter des failles logicielles à grande échelle, d’imiter des voix humaines et de manipuler des systèmes d’apprentissage automatique, soulignant ainsi la rapidité avec laquelle les utilisations offensives de l’intelligence artificielle progressent.
Le problème, affirment les chercheurs, est que la plupart des décideurs politiques ont peu de visibilité sur ces capacités, ce qui augmente le risque de règles d’IA mal informées. Leur proposition : permettre aux systèmes d’IA de participer ouvertement à des concours publics de piratage, d’enregistrer les résultats dans une base de données ouverte et partagée et d’utiliser ces preuves concrètes pour aider les gouvernements à développer des politiques de sécurité en matière d’IA plus intelligentes et plus réalistes.
VOUS AVEZ UN CALENDRIER
16-20 février : India AI Impact Summit 2026, Delhi.
24-26 février : Association internationale pour une IA sûre et éthique (IASEAI), UNESCO, Paris, France.
2-5 mars : Mobile World Congress, Barcelone, Espagne.
12-18 mars : Sud par sud-ouest, Austin, Texas.
16-19 mars : Nvidia GTC, San Jose, Californie.
6-9 avril : HumanX, San Francisco
ALIMENTATION POUR LE CERVEAU
Le dilemme de la confiance lorsque l’IA entre dans la salle d’examen. J’ai été fasciné par ce nouvel article de Scientific American, qui note qu’à mesure que l’IA s’infiltre plus profondément dans les soins cliniques, les infirmières se retrouvent en première ligne d’un nouveau dilemme de confiance : devraient-elles suivre les ordres générés par les algorithmes alors que le jugement du monde réel dit le contraire ? Par exemple, une alerte de septicémie a incité une équipe d’urgence à administrer des liquides à un patient dont les reins étaient compromis, jusqu’à ce qu’une infirmière refuse et qu’un médecin annule l’IA. Dans tous les hôpitaux américains, l’article révèle que les modèles prédictifs sont désormais intégrés dans tout, depuis l’évaluation des risques et la documentation jusqu’à la logistique et même le renouvellement autonome des ordonnances, mais le personnel de première ligne se plaint de plus en plus de l’échec de ces outils, du manque de transparence et du fait qu’ils sapent parfois le jugement clinique. Ces frictions ont déclenché des protestations et des grèves, et les défenseurs insistent sur le fait que les infirmières doivent être impliquées dans les décisions concernant l’IA, car en fin de compte, ce sont les humains qui en subissent les conséquences.



