Les agents IA agissent comme des employés, mais les structures d’entreprise les traitent toujours comme des logiciels | Fortune

Les agents IA agissent comme des employés, mais les structures d’entreprise les traitent toujours comme des logiciels | Fortune

Les cadres de gouvernance que les dirigeants ont bâtis au fil des décennies ont été conçus pour les personnes. Les agents d’IA ne sont pas des personnes, et c’est dans l’écart entre ces deux faits que les risques commerciaux s’accumulent le plus rapidement.

Au cours de l’année écoulée, les organisations ont été contraintes de se rendre compte que l’IA se déploie plus rapidement qu’elle ne peut être gouvernée. L’utilisation croissante de l’IA fantôme révèle des lacunes quant à qui ou quoi peut agir. Nos dernières recherches montrent que 91 % des organisations utilisent déjà des agents IA, mais seulement 10 % ont une stratégie claire pour les gérer.

Les agents IA sont désormais des opérateurs agissant seuls, sans avoir besoin d’un manager humain pour montrer la voie.

Ces acteurs numériques autonomes peuvent analyser des données, initier des workflows et agir au sein des entreprises. Mais s’il est facile de constater les avantages de la rapidité, de l’échelle et de la productivité, le changement d’autorité est moins évident.

La véritable menace dans l’adoption de l’IA en entreprise ne réside pas dans l’intelligence des agents, mais dans le degré d’autorité que les dirigeants leur délèguent. Il s’agit de droits de décision et de ce qui se passe lorsque l’autorité est déléguée à des systèmes que les organisations ne peuvent pas pleinement voir, et encore moins contrôler.

En fin de compte, le risque n’est pas que les agents IA se comportent de manière malveillante. Au contraire, ils se comporteront exactement comme configurés, dans des systèmes qui n’ont jamais été conçus pour prendre en compte les identités non humaines.

Pendant des années, les entreprises ont construit des modèles de sécurité autour des travailleurs humains. Les employés sont embauchés, accrédités, surveillés et finalement licenciés à leur départ. La gestion des identités rend cela possible : c’est ainsi que les organisations vérifient qui sont les employés, à quoi ils peuvent se connecter et ce qu’ils sont autorisés à faire.

Les agents IA brisent ce modèle. Ils ne se connectent pas à 9h00 et ne se déconnectent pas à 17h00. Ils fonctionnent en continu sur plusieurs systèmes et environnements cloud. Ils peuvent récupérer des données sensibles, activer des processus financiers ou prendre des décisions face aux clients en quelques secondes.

Cependant, les entreprises traitent encore les agents comme des logiciels d’arrière-plan plutôt que comme des acteurs opérationnels dotés d’une réelle autorité.

Une étude récente de Gravitee, une plateforme de gestion d’API, révèle que seulement 22 % des organisations traitent les agents d’IA comme des identités indépendantes, alors même que près de 90 % des entreprises signalent des incidents de sécurité suspectés ou confirmés impliquant des agents d’IA.

Prenons un scénario courant : une entreprise introduit un agent d’IA interne pour optimiser la gestion des employés. Un travailleur demande à l’agent de soumettre ses congés, de mettre à jour les détails de la paie et d’en informer son responsable. L’agent se connecte automatiquement aux systèmes de ressources humaines, aux plateformes financières et aux outils de collaboration pour compléter la demande.

Pensez au nombre de systèmes auxquels l’agent doit accéder pour terminer la demande. De quelles autorisations disposez-vous ? Quels points d’accès utilisez-vous ou laissez-vous potentiellement ouverts ? Que se passe-t-il si quelque chose ne va pas ?

Le gain d’efficacité est réel. Mais à moins que chaque étape ne soit régie par des contrôles d’identité clairs, l’entreprise risque de ne pas savoir exactement quelle autorité est déléguée et comment intervenir en cas de problème.

C’est pourquoi le fossé identitaire est un problème de leadership, et pas seulement un problème technique.

Les modèles d’accès traditionnels supposent des rôles relativement stables et un comportement humain prévisible. Les agents d’IA fonctionnent via des tâches dynamiques et une autorité déléguée. Ils peuvent avoir besoin d’autorisations temporaires très spécifiques pour effectuer une seule action, puis passer immédiatement au flux de travail suivant.

Sans la capacité de vérifier et d’autoriser en permanence chaque étape, les organisations risquent d’accumuler une population croissante d’acteurs non humains disposant d’un accès large et persistant (qui, dans de nombreux cas, n’a jamais été délibérément accordé) aux systèmes critiques.

Nous constatons déjà que cela se produit, alors que les organisations commencent à déployer du code généré par l’IA et des actions automatisées dans des environnements réels, souvent plus rapidement que les modèles de gouvernance ne peuvent suivre. Des incidents récents, comme la violation du chatbot de McDonald’s, où des contrôles faibles ont exposé des millions de dossiers de candidats, ou la suppression d’une base de données de production en direct par un agent de chiffrement IA de Replit, montrent à quelle vitesse ces violations peuvent se transformer en véritables catastrophes.

Un agent IA configuré pour optimiser les décisions de la chaîne d’approvisionnement pourrait déclencher des engagements d’achat à grande échelle. Un agent du service client pourrait exposer des informations de compte sensibles. Un agent d’information financière pourrait diffuser des informations sensibles provenant de plusieurs sources à une large population.

Tous ces cas résulteraient d’une autonomie mal gouvernée.

Les régulateurs commencent à agir. Sur plusieurs marchés comme Singapour et l’Australie, les décideurs politiques soulignent que les organisations sont responsables de leurs systèmes automatisés.

Cela pose un défi de conformité aux dirigeants d’entreprise. Comment prouver quel système a initié une décision ? Comment démontrer que l’accès était approprié au moment où une mesure a été prise ? Comment suspendre ou révoquer l’autorité si un agent se comporte de manière inattendue ?

Pour protéger les agents IA, les organisations doivent être en mesure de répondre à trois questions fondamentales : où sont mes agents, à quoi peuvent-ils se connecter et que sont-ils autorisés à faire ?

Heureusement, les entreprises n’ont pas besoin de réinventer la roue. Ils disposent déjà des pratiques nécessaires pour gérer les agents IA : il suffit aux dirigeants de les traiter plus ou moins de la même manière qu’ils traitent les employés humains.

En pratique, cela signifie appliquer les disciplines établies en matière de sécurité du personnel à un nouveau contexte opérationnel. Les organisations ont besoin d’une gestion du cycle de vie des agents. Ils doivent définir la portée et la durée de leurs permis, surveiller en permanence leurs activités et exiger une autorisation renforcée pour les actions à haut risque. Au lieu d’un accès large et durable, les agents devraient fonctionner avec des informations d’identification uniques liées à des tâches spécifiques.

Les organisations qui réussiront à adopter l’IA ne seront pas celles qui mettront en œuvre le plus d’IA, ni même celles qui mettront en œuvre l’IA la plus intelligente. Ce seront eux qui déclareront clairement qu’ils sont autorisés à agir, et un moyen fiable de le prouver. C’est ainsi que l’IA cesse d’être une expérience (ou un risque) et devient un véritable atout.

Les opinions exprimées dans les commentaires de Fortune.com sont uniquement celles de leurs auteurs et ne reflètent pas nécessairement les opinions et croyances de Fortune.

Website |  + posts
spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici