C’est “un peu choquant” : des laboratoires d’IA comme Meta, Deepseek et Xai ont obtenu certains des pires scores possibles sur un indice de sécurité existentielle | Fortune

C’est “un peu choquant” : des laboratoires d’IA comme Meta, Deepseek et Xai ont obtenu certains des pires scores possibles sur un indice de sécurité existentielle | Fortune

Un récent rapport d’un organisme de surveillance de la sécurité de l’IA n’est pas quelque chose que les entreprises technologiques veulent garder au réfrigérateur.

Le dernier indice de sécurité de l’IA du Future of Life Institute a révélé que les meilleurs laboratoires d’IA n’ont pas réussi à respecter la plupart des mesures de responsabilité en matière d’IA, avec quelques notes supérieures à C. L’organisation a noté huit entreprises dans des catégories telles que les cadres de sécurité, l’évaluation des risques et les préjudices actuels.

Le plus évident était peut-être la ligne de « sécurité existentielle », où les entreprises obtenaient des notes D et F dans tous les domaines. Même si bon nombre de ces entreprises recherchent explicitement la superintelligence, elles n’ont pas de plan pour la gérer en toute sécurité, selon Max Tegmark, professeur au MIT et président du Future of Life Institute.

“Les critiques ont découvert ce genre de discordance”, nous a expliqué Tegmark.

Les évaluateurs en question étaient un panel d’universitaires de l’IA et d’experts en gouvernance qui ont examiné les documents accessibles au public ainsi que les réponses à l’enquête soumises par cinq des huit entreprises.

Anthropic, OpenAI et GoogleDeepMind ont pris les trois premières places avec une note globale de C+ ou C. Viennent ensuite, dans l’ordre, Xai, Z.ai, Meta, DeepSeek et Alibaba d’Elon Musk, qui ont tous obtenu un D ou un D-.

Tegmark blâme le manque de réglementation qui fait que la concurrence acharnée dans la course à l’IA a pris le pas sur les précautions de sécurité. La Californie a récemment adopté la première loi obligeant les sociétés frontalières d’IA à divulguer des informations de sécurité sur les risques catastrophiques, et New York est également actuellement à portée de main. Toutefois, les espoirs d’une législation fédérale sont minces.

“Les entreprises sont incitées, même si elles ont les meilleures intentions, à toujours lancer de nouveaux produits avant le concurrent, plutôt que de passer nécessairement beaucoup de temps à le rendre sûr”, a déclaré Tegmark.

Au lieu des normes imposées par le gouvernement, Tegmark a déclaré que l’industrie avait commencé à prendre plus au sérieux les évaluations de sécurité publiées périodiquement par le groupe ; quatre des cinq entreprises américaines répondent désormais à son enquête (Meta est la seule à résister). Et les entreprises ont apporté quelques améliorations au fil du temps, a déclaré Tegmark, citant comme exemple la transparence de Google concernant sa politique de dénonciation.

Mais les préjudices réels signalés sur des sujets tels que les suicides d’adolescents prétendument encouragés par les chatbots, les interactions inappropriées avec des mineurs et les cyberattaques à grande échelle ont également fait monter les enjeux du débat, a-t-il déclaré.

“(Ils) ont vraiment fait comprendre à beaucoup de gens que nous ne parlons pas de l’avenir, nous parlons du présent”, a déclaré Tegmark.

Le Future of Life Institute a récemment recruté des personnalités publiques aussi diverses que le prince Harry et Meghan Markle, l’ancien assistant de Trump Steve Bannon, le cofondateur d’Apple Steve Wozniak et le rappeur Will.i.am pour signer une déclaration s’opposant aux travaux qui pourraient conduire à la superintelligence.

Tegmark a déclaré qu’il aimerait voir quelque chose comme « une FDA pour l’IA où les entreprises doivent d’abord convaincre les experts que leurs modèles sont sûrs avant de pouvoir les vendre ».

“L’industrie de l’IA est assez unique car c’est la seule industrie aux États-Unis qui fabrique une technologie puissante qui est moins réglementée que les sandwichs – fondamentalement pas réglementée du tout”, a déclaré Tegmark. “Si quelqu’un dit : ‘Je veux ouvrir une nouvelle sandwicherie près de Times Square’, avant de pouvoir vendre le premier sandwich, vous devez demander à un inspecteur de la santé de vérifier votre cuisine et de s’assurer qu’elle n’est pas pleine de rats… Si à la place vous dites : ‘Oh, non, je ne vais pas vendre de sandwichs. Je vais juste libérer la superintelligence.’ C’est bien ! Il n’y a pas besoin d’inspecteurs, il n’est pas nécessaire d’obtenir des autorisations pour quoi que ce soit. »

“La solution à ce problème est donc très évidente”, a ajouté Tegmark. “Cela met simplement fin à ce bien-être des entreprises consistant à accorder aux sociétés d’IA des exemptions dont aucune autre entreprise ne bénéficie.”

Ce rapport a été initialement publié par Tech Brew.

Website |  + posts
spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici