L’Illinois est le dernier champ de bataille d’OpenAI et d’Anthropic alors que l’État tente d’évaluer la responsabilité des catastrophes causées par l’IA | Fortune

L’Illinois est le dernier champ de bataille d’OpenAI et d’Anthropic alors que l’État tente d’évaluer la responsabilité des catastrophes causées par l’IA | Fortune

OpenAI et Anthropic soutiennent des projets de loi opposés à l’IA à l’Assemblée générale de l’Illinois qui tentent de répondre à ce qui devrait se produire lorsque l’IA provoque un terrible problème.

Il s’agit du dernier épisode du conflit en cours entre les entreprises sur la sécurité et la réglementation de l’IA, alors que leurs PDG ont échangé des critiques internes et publiques sur l’approche de chacun.

OpenAI prend en charge le SB 3444, en vertu duquel les développeurs d’IA frontaliers ne seraient pas tenus responsables d’avoir causé la mort ou des blessures graves à 100 personnes ou plus ou causé plus d’un milliard de dollars de dommages matériels. Cette protection inclut les cas où l’IA provoque ou permet matériellement la création ou l’utilisation d’armes chimiques, biologiques, radiologiques ou nucléaires.

Cette semaine, Anthropic a déclaré qu’elle s’opposait au projet de loi, a rapporté pour la première fois WIRED.

“Nous nous opposons à ce projet de loi. Une bonne législation sur la transparence devrait garantir la sécurité publique et la responsabilité des entreprises qui développent cette technologie puissante, et non fournir une carte de sortie de prison contre toute responsabilité”, a déclaré César Fernández, chef des relations avec les États et les gouvernements locaux des États-Unis chez Anthropic, dans une déclaration à Fortune.

Au lieu de cela, Anthropic soutient un projet de loi distinct, SB 3261, qui obligerait les développeurs d’IA à publier un plan de sécurité publique et de protection de l’enfance sur leur site Web. Le projet de loi crée également un système de déclaration d’incidents pour informer les législateurs et le public d’un « risque catastrophique » ou d’un incident pouvant entraîner la mort ou des blessures graves de 50 personnes ou plus causés par le développement, le stockage, l’utilisation ou le déploiement d’un modèle frontalier par un développeur frontalier.

Le projet de loi couvre également la sécurité des enfants, un aspect absent du projet de loi soutenu par OpenAI. En vertu du SB 3261, les développeurs d’IA seraient tenus responsables si leur modèle causait à un enfant une détresse émotionnelle grave, la mort ou des blessures corporelles, y compris l’automutilation.

Une barre « très basse »

Des experts ont déclaré à Fortune qu’il est peu probable que le SB 3444 soit adopté car il s’agit d’une approche nettement faible en matière de responsabilité des entreprises en cas de catastrophe, alors que l’Illinois est un leader en matière de réglementation de l’IA. L’année dernière, l’État a interdit la thérapie par l’IA et autorisé son utilisation dans les services administratifs et de soutien destinés aux professionnels agréés.

Le SB 3444 exige que les entreprises disposent d’un plan public de sécurité de l’IA, mais il n’existe aucune mesure d’application. Si les développeurs n’avaient pas provoqué l’incident « intentionnellement ou imprudemment », ils seraient protégés de toute responsabilité.

Être intentionnel ou imprudent ne constitue pas une norme de prudence légale courante pour les entreprises qui se livrent à des activités très dangereuses, a déclaré Anat Lior, professeur adjoint de droit à l’Université Drexel, experte en responsabilité et en gouvernance de l’IA.

“Habituellement, l’humeur ou la culpabilité associée aux dégâts n’a pas d’importance”, a-t-il expliqué. “Ils placent la barre très bas ici. Être capable de prouver que vous avez fait intentionnellement quelque chose qui implique l’IA va être très difficile.”

Gabriel Weil, professeur de droit à l’université de Touro, qui a collaboré avec les législateurs de New York et du Rhode Island sur des projets de loi qui imposeraient une plus grande responsabilité aux développeurs d’IA, a déclaré que l’approche du projet de loi soutenu par OpenAI est « plutôt indéfendable ».

“Cela semble être une exigence très faible, et en échange vous bénéficiez d’une protection presque complète contre toute responsabilité pour ces événements extrêmes”, a déclaré Weil à Fortune. “Je pense que c’est la direction opposée dans laquelle nous devrions aller.”

Un porte-parole d’OpenAI a déclaré à WIRED que la société soutenait l’approche du SB 3444 car elle réduit « le risque de dommages graves causés par les systèmes d’IA les plus avancés tout en permettant à cette technologie de tomber entre les mains des personnes et des entreprises ».

Un porte-parole d’OpenAI a déclaré à Fortune que la société soutenait fermement les efforts visant à améliorer la transparence et à réduire les risques dans les protocoles de sécurité de l’IA, citant sa collaboration avec les législateurs de Californie et de New York pour adopter des cadres de sécurité et des sanctions en cas de non-conformité. L’entreprise continuera à travailler avec les États en l’absence de législation fédérale.

“Nous espérons que ces lois d’État serviront de base à un cadre national qui contribuera à garantir que l’Amérique continue à diriger”, a écrit le porte-parole.

Website |  + posts
spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici