Rohit Tatachar, CTO et co-fondateur de Glacis.
En tant qu’ingénieur chevronné et chef de produit chez Microsoft Azure, Rohit Tatachar a constaté que de nombreuses entreprises construisaient des systèmes d’IA qu’elles ne pouvaient pas entièrement surveiller ou contrôler en production.
Dans son nouveau rôle dans une startup de Seattle, il fait quelque chose.
Tatachar est désormais co-fondateur et CTO de Glacis, qui crée des enregistrements infalsifiables du comportement de l’IA, ce que le PDG Joe Braidwood a appelé un « enregistreur de vol pour l’IA d’entreprise ». Son arrivée intervient alors que Glacis lance de nouveaux outils open source pour surveiller et contrôler les agents IA.
Glacis, couvert pour la première fois par GeekWire en novembre 2025, a été lancé par Braidwood et le Dr Jennifer Shannon, psychiatre et professeur agrégé à l’Université de Washington.
L’entreprise a tiré une leçon difficile : la précédente startup de Braidwood, Yara, un outil de santé mentale basé sur l’IA, a dû fermer ses portes après avoir remarqué que les modèles s’écartaient du comportement prévu lors de longues conversations avec des utilisateurs vulnérables.
Après avoir écrit sur LinkedIn à propos de la fermeture, les régulateurs, les médecins, les ingénieurs et les dirigeants d’assurance ont fait la même observation : lorsque les systèmes d’IA prennent des décisions, personne ne peut vérifier de manière indépendante si les contrôles de sécurité ont réellement fonctionné.
Ce fut l’étincelle de Glacis.
Comment ça marche : le produit principal de la startup, appelé Arbiter, se trouve sur le chemin de chaque appel d’inférence d’IA et crée un enregistrement signé de l’entrée, des contrôles de sécurité effectués et du résultat final.
Le dossier ne peut être modifié après coup. À grande échelle, un système que Glacis appelle Witness Network légalise ces enregistrements et les transforme en une piste vérifiable.
Les clients peuvent choisir d’exécuter le système en « mode ombre », observant sans intervenir, ou en mode application de la loi, où il restreint activement le comportement de l’IA.
Les cofondateurs de Glacis, Joe Braidwood (à gauche) et Jennifer Shannon. (Photo Glacis)
Shannon, médecin-chef de Glacis, a déclaré que les enjeux sont élevés dans le domaine des soins de santé. En tant que pédopsychiatre en exercice, elle a vu des scribes environnementaux alimentés par l’IA halluciner le contenu de ses notes cliniques, notamment en prescrivant des médicaments qu’elle n’avait jamais pris.
“J’aimerais pouvoir revenir en arrière et voir chaque étape de la façon dont ce modèle d’IA a pris cette décision”, a-t-il déclaré. “S’il n’y a pas d’infrastructure pour cela, qui est responsable ? Personne ne poursuivra AI en justice. C’est moi.”
Le défi sous-jacent : Tatachar a travaillé chez Microsoft pendant près de 19 ans, plus récemment en tant que chef de produit senior au sein de l’équipe Microsoft Foundry, sa plate-forme de création et de déploiement d’applications et d’agents d’IA d’entreprise.
Il a déclaré avoir vu des entreprises créer des outils et exécuter des preuves de concept, mais avoir du mal à mettre l’IA en production parce qu’elles ne pouvaient pas expliquer ou vérifier ce que faisaient leurs systèmes.
Le problème comporte trois dimensions, a-t-il expliqué : l’état de base de l’infrastructure d’un client, le comportement du modèle et ce que l’on appelle la « dérive d’intention », où un système se comporte différemment de ce que le client avait prévu, même si le modèle sous-jacent fonctionne normalement.
Glacis surveille les déploiements dans les trois. “Ce n’est que lorsque ces trois éléments convergent que le client a une vision réelle de ce qui s’est réellement passé”, a déclaré Tatachar.
Nouvelles versions : Glacis lance auto-redteam, un outil open source qui attaque automatiquement les systèmes d’IA dans diverses catégories de vulnérabilités, puis génère des correctifs et vérifie leur efficacité.
La société publie également OVERT 1.0, une norme pour ce qu’elle appelle « des preuves de vérification observables de la confiance au moment de l’exécution », destinée à fournir aux organisations un cadre pour intégrer la sécurité démontrable de l’IA dans leurs opérations.
Les versions arrivent à un moment instable pour la sécurité des agents d’IA. OpenClaw, un framework d’agents d’IA open source, a attiré des centaines de milliers de développeurs depuis ses débuts fin 2025, mais son adoption rapide a dépassé son architecture de sécurité.
De grandes sociétés de cybersécurité, dont CrowdStrike et Cisco, ont publié des analyses mettant en garde contre les vulnérabilités de sécurité dans le cadre. Braidwood a déclaré que cela montre la nécessité d’une infrastructure capable d’appliquer des contrôles de sécurité au moment de l’exécution, et pas seulement de les tester avant le déploiement.
Marché cible : La société se concentre sur les clients des secteurs de la santé, de la fintech et de l’assurance.
Elle a signé deux accords pilotes lors de la conférence sur les soins de santé de JP Morgan plus tôt cette année, et trois autres sont en préparation. Braidwood a déclaré que l’entreprise considère les soins de santé comme son point d’entrée, mais considère le problème comme étant finalement universel à toute mise en œuvre de l’IA.
Un nouveau développement cette semaine : Glacis ouvre également une liste d’attente pour un plan de démarrage de 49 $ par mois qui couvre l’équipe rouge, la conformité et la certification crypto pour jusqu’à 10 000 événements d’IA par mois. Un niveau professionnel de 499 $ couvre jusqu’à 100 000 événements.
Braidwood a déclaré que cette décision était un changement délibéré visant à rendre la technologie accessible au-delà des entreprises réglementées et des partenaires de conception avec lesquels l’entreprise a travaillé jusqu’à présent.
Vue d’ensemble : l’observabilité et la sécurité de l’IA sont un marché en plein essor, avec des startups bien financées et de grandes entreprises proposant une surveillance du temps d’exécution et des garde-fous pour l’IA d’entreprise.
Braidwood a déclaré que Glacis se différenciait par l’accent mis sur la prouvabilité cryptographique : non seulement en détectant les problèmes, mais également en produisant des preuves inviolables de l’exécution des contrôles de sécurité, ce qui, selon lui, pourrait aider les entreprises à négocier une couverture d’assurance et à satisfaire les régulateurs.
Financement : Glacis a levé 575 000 $ auprès d’un groupe d’investisseurs comprenant le Safe Artificial Intelligence Fund de Geoff Ralston, Mighty Capital, Sourdough Ventures et AI2 Incubator.
Il fait également partie du programme Launchpad de Cloudflare et du troisième groupe d’accélérateurs Plug and Play de Seattle. Braidwood a déclaré que la société espérait clôturer un cycle de démarrage plus tard cette année.
Équipe : Glacis compte cinq salariés, dont trois co-fondateurs et deux ingénieurs.
Tatachar a déclaré que le sixième « employé » de l’entreprise serait un agent d’IA chargé de gérer les travaux de conformité SOC 2 via Vanta. L’équipe écrit son code cryptographique principal dans Rust et utilise Claude, Codex et ChatGPT tout au long de son flux de travail.
“Nous avons une entreprise de 100 personnes”, a plaisanté Braidwood. “Cinq d’entre eux sont réels et les autres sont dans le cloud ou sur le bureau.”



