Le bâtiment du State Capitol à Olympia, Washington (Photo de Nils Huenerfuerst sur Unsplash)
L’État de Washington prend des mesures pour établir son propre cadre réglementaire pour l’intelligence artificielle en l’absence de législation fédérale, formulant des recommandations sur la manière dont les législateurs devraient réglementer l’IA dans les soins de santé, l’éducation, la police, les lieux de travail et bien plus encore.
Un nouveau rapport intérimaire du groupe de travail sur l’IA de l’État de Washington indique que « l’approche non interventionniste » du gouvernement fédéral en matière d’IA a créé « une lacune réglementaire cruciale qui laisse les Washingtoniens vulnérables ».
Le rapport intervient alors que l’administration Trump fait pression pour une politique nationale de déréglementation de l’IA et envisage brièvement un décret visant à anticiper les lois des États sur l’IA avant de suspendre l’idée après une réaction bipartite, selon Reuters.
Le nouveau rapport publié cette semaine note que l’IA « est devenue plus puissante et plus répandue que jamais » au cours de l’année écoulée, portée par les progrès techniques, la montée en puissance des agents IA et les plateformes d’IA ouvertes qui transforment le travail et la vie quotidienne.
Le rapport présente huit recommandations à l’Assemblée législative de l’État de Washington, notamment une exigence visant à améliorer la transparence dans le développement de l’IA, exigeant que les développeurs d’IA divulguent publiquement « la provenance, la qualité, la quantité et la diversité des ensembles de données » utilisés pour former les modèles, et expliquent comment les données de formation sont traitées pour atténuer les erreurs et les biais. La recommandation comprend des exceptions qui protègent les secrets commerciaux.
Les législateurs des États ont présenté plus tôt cette année des propositions sur la transparence et la divulgation du développement de l’IA, mais leurs projets de loi sont restés au point mort.
Le groupe de travail recommande également de créer un programme de subventions, mobilisant des fonds publics et privés, pour soutenir les petites entreprises et les startups développant une IA qui sert l’intérêt public, en particulier pour les fondateurs en dehors de la région de Seattle et ceux confrontés à un accès inégal au capital.
Le rapport note que le programme aiderait Washington à retenir les talents et à « maintenir sa pertinence en tant que centre technologique ». Un projet de loi antérieur visant à créer un tel programme, HB 1833, est resté bloqué lors de la session 2025.
D’autres recommandations incluent :
Promouvoir une gouvernance responsable de l’IA pour les systèmes à haut risque, définis comme ceux ayant « le potentiel d’avoir un impact significatif sur la vie, la santé, la sécurité ou les droits fondamentaux des personnes ». Investissez dans les domaines STEM de la maternelle à la 12e année, dans les programmes d’enseignement supérieur d’intelligence artificielle, dans le développement professionnel des enseignants et dans l’expansion du haut débit dans les communautés rurales. Améliorer la transparence de l’autorisation préalable des soins de santé, en exigeant que toute décision de refuser, de retarder ou de modifier des services de santé fondée sur une nécessité médicale soit prise uniquement par des médecins qualifiés, même en utilisant des outils d’intelligence artificielle. Élaborer des lignes directrices pour l’IA sur le lieu de travail, y compris un appel aux employeurs pour qu’ils divulguent quand l’IA est utilisée à des fins de surveillance, de discipline, de licenciement et de promotion des employés. Exiger des autorités qu’elles divulguent publiquement les outils d’IA qu’elles utilisent, notamment l’IA générative pour les rapports, les systèmes de police prédictive, les lecteurs de plaques d’immatriculation et la reconnaissance faciale. Adopter les principes éthiques du NIST en matière d’IA comme cadre directeur, en s’appuyant sur les directives existantes de l’État qui sont déjà basées sur le cadre de gestion des risques du NIST en matière d’IA.
La plupart des recommandations ont été approuvées à une large majorité, bien que la proposition sur la transparence de l’application de la loi n’ait recueilli aucun vote de la part des membres du groupe de travail, y compris un représentant de l’ACLU.
Le rapport intermédiaire n’inclut pas encore de recommandations spécifiques axées sur Washington sur l’IA générative dans les élections et les publicités politiques, l’IA et la propriété intellectuelle, ou les chatbots complémentaires, bien qu’il souligne ces questions comme des domaines d’activité croissante de l’État ailleurs.
Washington entre dans l’arène politique de l’IA derrière certains pairs qui ont déjà mis en œuvre de vastes cadres, notamment la Californie et le Colorado. D’autres se sont concentrés sur des cas d’utilisation spécifiques.
Les législateurs de Washington ont présenté plusieurs projets de loi sur l’IA en 2025, mais un seul a été adopté : le HB 1205, qui érige en crime la distribution sciemment d’un deepfake pour frauder, harceler, menacer ou intimider une autre personne, ou à des fins illégales.
Le rapport du groupe de travail note qu’en 2025, 73 nouvelles lois liées à l’IA seront promulguées dans 27 États dans des domaines tels que la sécurité des enfants, la transparence, la responsabilité algorithmique, l’éducation, le travail, les soins de santé, la sécurité publique, les deepfakes et l’énergie.
Le groupe de travail de Washington compte 19 membres issus d’entreprises technologiques (dont Microsoft et Salesforce), de syndicats, de groupes de défense des libertés civiles, d’universités et d’agences d’État.
Le groupe de travail, créé en 2024, doit livrer trois rapports : un rapport préliminaire publié l’année dernière, ce rapport intermédiaire et un rapport final d’ici le 1er juillet 2026.
Lisez le rapport intermédiaire complet ci-dessous.
Le groupe de travail sur l’IA de l’État de Washington dévoile un plan de réglementation par GeekWire



