Elon Musk a une vision époustouflante de la vie avec l’IA : la technologie tuera tous nos emplois, tandis qu’un « revenu universel élevé » signifiera que tout le monde pourra accéder à une abondance théorique de biens et de services. Chaque fois que le noble rêve de Musk deviendrait réalité, il y aurait, bien sûr, un profond bilan existentiel.
« La question sera vraiment celle du sens », a déclaré Musk lors de la conférence Viva Technology en mai 2024. « Si un ordinateur peut (et les robots peuvent faire) tout mieux que vous… votre vie a-t-elle un sens ?
Mais la plupart des dirigeants de l’industrie ne se posent pas la question de la fin de l’IA, selon Geoffrey Hinton, lauréat du prix Nobel et « parrain de l’IA ». Lorsqu’il s’agit de développer l’IA, les Big Tech s’intéressent moins aux conséquences à long terme de la technologie et davantage aux résultats rapides.
“Pour les propriétaires d’entreprise, ce qui stimule la recherche, ce sont les profits à court terme”, a déclaré Hinton, professeur émérite d’informatique à l’Université de Toronto, à Fortune.
Et pour les développeurs derrière la technologie, a déclaré Hinton, l’accent est également mis sur le travail qui les attend immédiatement, et non sur le résultat final de la recherche elle-même.
“Les chercheurs souhaitent résoudre des problèmes qui suscitent leur curiosité. Ce n’est pas comme si nous partions du même objectif : quel sera l’avenir de l’humanité ?” » dit Hinton.
“Nous avons ces petits objectifs : comment feriez-vous ? Ou comment rendriez-vous votre ordinateur capable de reconnaître les choses dans les images ? Comment feriez-vous pour rendre un ordinateur capable de générer des vidéos convaincantes ?” il a ajouté. “C’est vraiment ce qui motive la recherche.”
Hinton met depuis longtemps en garde contre les dangers de l’IA sans garde-fous ni évolution intentionnelle, estimant qu’il y a 10 à 20 % de chances que la technologie anéantisse les humains après le développement de la superintelligence.
En 2023, dix ans après avoir vendu sa société de réseaux neuronaux DNNresearch à Google, Hinton a quitté son poste chez le géant de la technologie, voulant parler librement des dangers de la technologie et craignant l’incapacité d’« empêcher les mauvais acteurs de l’utiliser à des fins néfastes ».
Quels sont les risques d’une IA non réglementée ?
Pour Hinton, les dangers de l’IA se répartissent en deux catégories : le risque que la technologie elle-même fait peser sur l’avenir de l’humanité et les conséquences de la manipulation de l’IA par des personnes mal intentionnées.
“Il existe une grande distinction entre deux types de risques”, a-t-il déclaré. “Il existe un risque que de mauvais acteurs abusent de l’IA, et c’est déjà là. Cela se produit déjà avec des choses comme de fausses vidéos et des cyberattaques, et cela pourrait se produire très bientôt avec des virus. Et cela est très différent du risque que l’IA elle-même devienne un mauvais acteur.”
En novembre 2025, Anthropic a déclaré avoir perturbé « le premier cas documenté de cyberattaque d’IA à grande échelle exécutée sans intervention humaine substantielle », identifiant un groupe parrainé par l’État chinois qui a manipulé Claude Code dans le but d’infiltrer une trentaine d’entreprises technologiques, d’institutions financières, d’agences gouvernementales et de fabricants de produits chimiques, a déclaré la société d’IA dans un article de blog.
Cette panne a amené les experts en cybersécurité à croire que l’Iran pourrait utiliser l’IA pour mener une cyberattaque largement automatisée contre les États-Unis.
Au-delà du plaidoyer en faveur d’une plus grande réglementation, l’appel à l’action de Hinton pour lutter contre le potentiel criminel de l’IA est une bataille difficile, car chaque problème lié à la technologie nécessite une solution discrète, a-t-il déclaré. Il envisage à l’avenir une authentification de type provenance des vidéos et des images qui permettrait de lutter contre la propagation des deepfakes.
Tout comme les imprimeurs ont ajouté des noms à leurs œuvres après l’avènement de l’imprimerie il y a des centaines d’années, les médias devront également trouver un moyen d’ajouter leur signature à leurs œuvres authentiques. Mais Hinton a déclaré que les solutions ne peuvent pas aller plus loin.
“Ce problème peut probablement être résolu, mais résoudre ce problème ne résoudra pas les autres problèmes”, a-t-il déclaré.
Concernant le risque posé par l’IA elle-même, Hinton estime que les entreprises technologiques doivent changer fondamentalement la façon dont elles perçoivent leur relation avec l’IA. Lorsque l’IA atteindra la superintelligence, a-t-il déclaré, non seulement elle dépassera les capacités humaines, mais elle aura également un fort désir de survivre et d’acquérir un contrôle supplémentaire. Par conséquent, le cadre actuel autour de l’IA (selon lequel les humains peuvent contrôler la technologie) ne sera plus pertinent.
Hinton postule que les modèles d’IA doivent être imprégnés d’un « instinct maternel » afin de pouvoir traiter les humains moins puissants avec sympathie, plutôt que de vouloir les contrôler.
Invoquant les idéaux de la féminité traditionnelle, elle a déclaré que le seul exemple qu’elle puisse citer d’un être plus intelligent tombant sous la domination d’un être moins intelligent est celui d’un bébé contrôlant sa mère.
“C’est pourquoi je pense que c’est un meilleur modèle que nous pourrions mettre en pratique avec une IA super intelligente”, a déclaré Hinton. “Elles seront les mères et nous serons les bébés.”
Une version de cette histoire est apparue sur Fortune.com le 15 août 2025.
En savoir plus sur l’avenir de l’IA : Jensen Huang vient de dresser le tableau le plus audacieux de l’avenir de l’IA : 7,5 millions d’agents, 75 000 humains : 100 travailleurs de l’IA pour chaque personne. L’entreprise Fortune 500 actualise le prix de l’IA à 4 500 milliards de dollars, estimant que 93 % des emplois sont vulnérables aux perturbations. L’IA était censée supprimer les consultants. Ce n’est pas le cas, déclare le stratège en chef de Capgemini
Cette histoire a été initialement publiée sur Fortune.com


