
Bienvenue dans Eye on AI. Dans cette édition… Anthropic séduit les entreprises clientes, mais comment ses propres ingénieurs utilisent-ils ses modèles Claude AI… Le PDG d’OpenAI, Sam Altman, déclare un “code rouge”… Apple redémarre ses efforts en matière d’IA, encore une fois… L’ancien scientifique en chef d’OpenAI, Ilya Sutskever, dit que c’est “un retour à l’ère de la recherche”, car les LLM n’offriront pas d’AGI… L’adoption de l’IA ralentit-elle ?
Comment l’IA change-t-elle le codage ?
Revenons maintenant à Claude et au codage. En mars, Dario Amodei a fait la une des journaux lorsqu’il a déclaré que d’ici la fin de l’année, 90 % du code logiciel au sein des entreprises serait écrit par l’IA. Beaucoup se sont moqués de cette prévision, et en fait, Amodei est depuis légèrement revenu sur cette déclaration, affirmant qu’il n’a jamais voulu laisser entendre qu’il n’y aurait plus d’être humain dans la boucle avant que ce code ne soit implémenté. Il a également déclaré que sa prédiction n’était pas loin en ce qui concerne Anthropic, mais il a utilisé une fourchette de pourcentage beaucoup plus large pour cela, affirmant en octobre qu’aujourd’hui, « 70, 80, 90 % du code » est affecté par l’IA dans son entreprise.
Eh bien, Anthropic dispose d’une équipe de chercheurs qui étudient les « impacts sociaux » de la technologie de l’IA. Et pour avoir une idée de la façon dont l’IA change exactement la nature du développement logiciel, l’entreprise a examiné comment 132 de ses propres ingénieurs et chercheurs utilisent Claude. L’étude a utilisé à la fois des entretiens qualitatifs avec des employés et un examen de leurs données d’utilisation de Claude. Vous pouvez lire le blog d’Anthropic sur l’étude ici, mais nous avons un premier aperçu exclusif de ce qu’ils ont trouvé :
Les programmeurs anthropiques ont déclaré utiliser Claude pour environ 60 % de leurs tâches de travail. Plus de la moitié des ingénieurs ont déclaré pouvoir « déléguer complètement » entre rien et 20 % de leur travail à Claude, car ils ressentaient quand même le besoin de vérifier et de vérifier les résultats de Claude. Les utilisations les plus courantes de Claude étaient de déboguer le code existant, d’aider les ingénieurs humains à comprendre quelles parties de la base de code ils utilisaient et, dans une moindre mesure, d’implémenter de nouvelles fonctionnalités logicielles. Il était beaucoup moins courant d’utiliser Claude pour des tâches de planification et de conception de logiciels de haut niveau, des tâches de science des données et du développement front-end.
En réponse à mes questions quant à savoir si les recherches d’Anthropic contredisaient les déclarations précédentes d’Amodei, un porte-parole d’Anthropic a souligné la petite taille de l’échantillon de l’étude. “Cela ne reflète pas une enquête concertée auprès des ingénieurs de l’entreprise”, a déclaré le porte-parole. Anthropic a également noté que la recherche n’incluait pas « l’écriture de code » comme tâche distincte, de sorte que la recherche ne pouvait pas fournir une comparaison exacte avec les déclarations d’Amodei. Il a déclaré que tous les ingénieurs définissaient différemment l’idée de l’automatisation et de la «délégation totale» des tâches de codage à Claude, ce qui obscurcissait encore davantage toute réflexion claire sur les commentaires d’Amodei.
Cependant, je pense qu’il est révélateur que les ingénieurs et les chercheurs d’Anthropic n’étaient pas vraiment prêts à confier de nombreuses tâches importantes à Claude. Lors des entretiens, ils ont déclaré avoir tendance à confier à Claude des tâches dont ils étaient à peu près sûrs qu’elles n’étaient pas complexes, répétitives ou ennuyeuses, où le travail de Claude pouvait être facilement vérifié et, en particulier, « où la qualité du code n’est pas critique ». Cela semble être une évaluation quelque peu accablante des capacités actuelles de Claude.
D’un autre côté, les ingénieurs ont déclaré que sans Claude, environ 27 % du travail qu’ils effectuent actuellement n’aurait tout simplement pas été fait dans le passé. Cela incluait l’utilisation de l’IA pour créer des tableaux de bord interactifs qu’ils n’auraient tout simplement pas pris la peine de créer auparavant, et la création d’outils pour apporter de petites corrections de code auxquelles ils n’auraient peut-être pas pris la peine de remédier auparavant. Les données d’utilisation ont également révélé que 8,6 % des tâches de Claude Code étaient ce qu’Anthropic a qualifié de « corrections papier ».
Non seulement disqualifier, mais aussi dévaloriser ? Les avis étaient partagés.
Les conclusions les plus intéressantes du rapport concernaient la manière dont l’utilisation de Claude permettait aux ingénieurs de ressentir leur travail. Beaucoup étaient heureux que Claude leur permette de gérer un plus large éventail de tâches de développement logiciel qu’auparavant. Et certains ont déclaré que l’utilisation de Claude leur avait permis de réfléchir à des compétences de plus haut niveau, en considérant plus en profondeur les concepts de conception de produits et l’expérience utilisateur, par exemple, plutôt que de se concentrer sur les rudiments de la façon d’exécuter la conception.
Mais certains craignaient de perdre leurs propres compétences en codage. “Je dépends désormais de l’IA pour me dire comment utiliser de nouveaux outils et je manque donc d’expérience. Dans les conversations avec d’autres coéquipiers, je peux me souvenir des choses instantanément, au lieu de devoir maintenant demander à l’IA”, a déclaré un ingénieur. Un ingénieur senior était particulièrement préoccupé par les conséquences que cela aurait pour les jeunes codeurs. “Je pense qu’il faudrait beaucoup d’efforts délibérés pour continuer à développer mes propres capacités au lieu d’accepter aveuglément les résultats du modèle”, a déclaré le développeur principal. Certains ingénieurs ont déclaré avoir pratiqué des tâches sans Claude spécifiquement pour lutter contre la perte de compétences.
Et les ingénieurs étaient divisés sur la question de savoir si l’utilisation de Claude les privait du sens et de la satisfaction qu’ils tiraient de leur travail. “C’est la fin d’une époque pour moi : je programme depuis 25 ans et le fait de me sentir compétent dans ces compétences est un élément essentiel de ma satisfaction professionnelle”, a déclaré l’un d’entre eux. Un autre a déclaré que « passer la journée à inciter Claude n’est ni très amusant ni satisfaisant ». Mais d’autres étaient plus ambivalents. L’un d’eux a souligné qu’il leur manquait « l’état de flux Zen » du codage manuel, mais qu’il « y renoncerait volontiers » en raison de l’augmentation de productivité que Claude leur a apportée. Au moins un d’entre eux a déclaré ressentir plus de satisfaction dans son travail. “Je pensais que j’aimais vraiment écrire du code et, à la place, j’apprécie simplement ce que j’obtiens en écrivant du code”, a déclaré cette personne.
Anthropic mérite le mérite d’être transparent sur ce qu’il sait sur l’impact de ses propres produits sur sa main-d’œuvre et d’avoir rendu compte des résultats même s’ils contredisent les propos de son PDG. Les questions soulevées par l’enquête Anthropic concernant la déqualification et l’impact de l’IA sur le sens que les gens tirent de leur travail sont des problèmes auxquels de plus en plus de personnes, tous secteurs confondus, seront bientôt confrontées.
FORTUNE EN IA
Cinq ans plus tard, AlphaFold de Google DeepMind montre pourquoi la science peut être l’application tueuse de l’IA, par Jeremy Kahn
Exclusif : Gravis Robotics lève 23 millions de dollars pour remédier à la pénurie de main-d’œuvre dans le secteur de la construction grâce à des machines alimentées par l’IA, par Beatrice Nolan
Le créateur d’une application de thérapie par l’IA l’a fermée après avoir décidé qu’elle était trop dangereuse. Voici pourquoi vous pensez que les chatbots IA ne sont pas sans danger pour la santé mentale : par Sage Lazzaro
Le directeur financier de Nvidia admet qu’Eva Roytburg n’a pas signé un méga accord OpenAI de 100 milliards de dollars (deux mois après avoir contribué à alimenter le rebond de l’IA)
Les valorisations des startups d’IA doublent et triplent en quelques mois alors que les cycles de financement consécutifs alimentent une croissance accélérée impressionnante, par Allie Garfinkle
Les initiés disent que l’avenir de l’IA sera plus petit et moins cher que vous ne le pensez, par Jim Edwards
L’IA DANS L’ACTUALITÉ SUR LA RECHERCHE EN IA
Retour à la planche à dessin. Il fut un temps, il n’y a pas si longtemps, où il aurait été difficile de trouver quelqu’un qui fût aussi ardent partisan de l’hypothèse de l’AGI selon laquelle « l’échelle est tout ce dont vous avez besoin » comme Ilya Sutskever. (En bref, c’était l’idée que le simple fait de construire des modèles de langage de plus en plus grands basés sur Transformer et de les alimenter de plus en plus de données et de les former sur des clusters informatiques de plus en plus grands finirait par fournir une intelligence générale artificielle au niveau humain et, au-delà de cela, une superintelligence supérieure à toute la sagesse collective de l’humanité.) Il était donc surprenant de voir l’ancien scientifique en chef d’OpenAI s’asseoir avec le podcasteur Dwarkesh Patel sur un épisode du podcast « Dwarkesh » lancé la semaine dernière et l’entendre dire qu’il est maintenant convaincu que les LLM ne seront jamais disponibles. fournir une intelligence au niveau humain. Sutskever se dit désormais convaincu que les LLM ne seront jamais capables de bien généraliser à des domaines qui ne figuraient pas explicitement dans leurs données de formation, ce qui signifie qu’ils auront du mal à développer de véritables nouvelles connaissances. Il a également noté que la formation LLM est très inefficace : elle nécessite des milliers, voire des millions d’exemples de quelque chose et des commentaires répétés de la part d’évaluateurs humains, alors que les gens peuvent généralement apprendre quelque chose avec seulement une poignée d’exemples et peuvent également faire des analogies assez facilement d’un domaine à un autre. En conséquence, Sutskever, qui dirige désormais sa propre startup d’IA, Safe Superintelligence, dit à Patel que nous sommes « de retour à l’ère de la recherche », à la recherche de nouvelles façons de concevoir des réseaux neuronaux qui atteignent le Saint Graal dans ce domaine. AGI. Sutskever a déclaré qu’il avait quelques intuitions sur la manière d’y parvenir, mais que pour des raisons commerciales, il n’allait pas les partager dans “Dwarkesh”. Malgré son silence sur ces secrets commerciaux, le podcast vaut la peine d’être écouté. Vous pouvez tout écouter ici. (Attention, c’est long. Vous voudrez peut-être le donner à votre IA préférée pour qu’elle le résume.)
VOUS AVEZ UN CALENDRIER
2-7 décembre : NeurIPS, San Diego
8 et 9 décembre : Fortune Brainstorm AI San Francisco. Demande de participation ici.
6 janvier : Dîner Fortune Brainstorm Tech CES. Demande de participation ici.
19-23 janvier : Forum économique mondial, Davos, Suisse.
10 et 11 février : AI Action Summit, New Delhi, Inde.
ALIMENTATION POUR LE CERVEAU
L’adoption de l’IA ralentit-elle ? C’est ce qu’affirme un article de The Economist, citant une série de chiffres récemment publiés. De nouvelles données du US Census Bureau montrent que l’utilisation de l’IA sur le lieu de travail, pondérée en fonction de l’emploi, aux États-Unis est tombée à environ 11 %, avec une adoption en baisse en particulier dans les grandes entreprises, une adoption étonnamment faible trois ans après l’essor de l’IA générative. D’autres ensembles de données indiquent le même refroidissement : les chercheurs de Stanford constatent que l’utilisation a chuté de 46 % à 37 % entre juin et septembre, tandis que Ramp rapporte que l’adoption de l’IA au début de 2025 a atteint 40 % avant de se stabiliser, ce qui suggère que l’élan a atteint un plateau. Ce ralentissement est important car les grandes entreprises technologiques prévoient de dépenser 5 000 milliards de dollars en infrastructures d’IA dans les années à venir et auront besoin d’environ 650 milliards de dollars de revenus annuels (principalement provenant des entreprises) pour le justifier. Les explications de la lenteur de l’adoption de l’IA vont de l’incertitude macroéconomique à la dynamique organisationnelle, en passant par les doutes des dirigeants quant à la capacité des modèles actuels à générer des gains de productivité significatifs. L’article soutient qu’à moins que l’adoption ne s’accélère, les bénéfices économiques de l’IA seront plus lents et plus inégaux que ce que les investisseurs prévoient, ce qui rendra les énormes dépenses d’investissement actuelles difficiles à justifier.



