Sam Altman se met sur la défensive face à l’utilisation massive d’électricité par l’IA : “Il faut beaucoup d’énergie pour entraîner un humain” | Fortune

Sam Altman se met sur la défensive face à l’utilisation massive d’électricité par l’IA : “Il faut beaucoup d’énergie pour entraîner un humain” | Fortune

Sam Altman, PDG d’OpenAI, ne s’inquiète pas de la consommation de ressources de plus en plus évidente de l’IA et affirme que les humains ont également besoin de beaucoup.

Dans une interview sur scène lors du sommet India AI Impact, il est devenu sur la défensive après avoir été interrogé sur les besoins en eau de ChatGPT.

Il a rejeté les affirmations selon lesquelles le chatbot utilise des gallons d’eau par requête comme étant « complètement fausses, totalement insensées », selon un clip publié par The Indian Express, expliquant que les centres de données qui alimentent ChatGPT se sont largement éloignés du « refroidissement par évaporation » à haute teneur en eau pour éviter la surchauffe.

Altman a ensuite été interrogé sur l’électricité nécessaire à l’IA. Contrairement à la question de l’eau, il a déclaré qu’il était “juste” d’augmenter les besoins énergétiques de la technologie, ajoutant : “Nous devons nous diriger très rapidement vers (l’énergie) nucléaire, éolienne ou solaire”.

Mais il a noté que comparer les besoins énergétiques de l’IA à ceux des humains n’est pas exactement égal.

“Il faut aussi beaucoup d’énergie pour former un être humain”, a-t-il déclaré, faisant rire une partie de la foule. “Il faut environ 20 ans de vie et toute la nourriture que vous mangez pendant cette période avant de devenir intelligent.”

Altman a développé davantage en soulignant que les humains d’aujourd’hui ne seraient même pas là sans leurs ancêtres remontant à des centaines de milliers d’années, lorsque les humains modernes ont émergé pour la première fois.

“En plus de cela, il a fallu l’évolution très répandue des 100 milliards de personnes qui vivaient autrefois et ont appris à ne pas se laisser manger par les prédateurs et à découvrir la science ou quoi que ce soit pour vous produire”, a-t-il ajouté.

En comparant les humains au potentiel de ChatGPT, ce contexte doit être pris en compte, a-t-il soutenu. Une comparaison équitable consisterait à comparer l’énergie qu’un humain utilise pour répondre à une requête avec une IA après qu’elle ait été entraînée. Dans cette mesure, « l’IA a probablement déjà rattrapé son retard en termes d’efficacité énergétique mesurée de cette manière ».

Dans un article de blog datant de juin 2025, Altman a déclaré que chaque requête ChatGPT consomme environ 0,34 wattheure d’électricité, soit environ ce qu’un four utilise en une seconde environ. Pourtant, il a publié ce fait avant qu’OpenAI ne publie son dernier modèle GPT-5 et ses mises à jour ultérieures. La consommation électrique peut également varier en fonction de la complexité d’une requête, par exemple répondre à une question ou créer une image.

Les experts préviennent que l’IA dans son ensemble augmentera considérablement sa consommation cumulée d’énergie et d’eau au cours des 20 prochaines années. Dans l’ensemble, la consommation d’eau de l’IA devrait augmenter d’environ 130 %, soit environ 30 000 milliards de litres (7 900 milliards de gallons) d’eau d’ici 2050, selon un rapport de janvier de la société de technologie de l’eau Xylem et de la société d’études de marché Global Water Intelligence.

Au cours de la même période, la demande croissante d’électricité devrait entraîner une augmentation d’environ 18 % de la consommation d’eau pour la production d’électricité des centres de données, pour atteindre environ 22 300 milliards de litres (5 800 milliards de gallons) par an. Parallèlement, les puces de plus en plus complexes utilisées par les centres de données auront besoin de plus d’eau au cours du processus de fabrication, augmentant ainsi la quantité dont elles ont besoin de 600 %, à 29 300 milliards de litres (7 700 milliards de gallons) par an, contre environ 4 100 milliards de litres (1 800 milliards de gallons) aujourd’hui.

Même si OpenAI s’est éloigné du refroidissement par évaporation, 56 % de tous les centres de données dans le monde utilisent encore cette méthode sous une forme ou une autre, selon le rapport de Xylem et Global Water Intelligence.

Le complexe de centres de données OpenAI de 800 acres à Abilene, au Texas, utiliserait de l’eau, mais dans un système en boucle fermée plus efficace qui fait recirculer continuellement l’eau pour refroidir le centre de données, a rapporté le Texas Tribune. Le centre de données utilisera initialement 8 millions de gallons d’eau de la ville d’Abilene pour remplir son système de refroidissement.

Website |  + posts
spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici