Les conseils d’administration ne sont pas préparés à l’ère de l’IA : que se passe-t-il lorsque votre PDG est victime d’une fraude profonde ? | Fortune

La fraude Deepfake a siphonné 1,1 milliard de dollars des comptes d’entreprises américaines en 2025, soit le triple des 360 millions de dollars de l’année précédente. Au milieu de l’année dernière, les incidents documentés avaient déjà quadruplé le total de 2024. Et la plupart des équipes de communication des marques et des entreprises restent dangereusement sous-préparées.

Les dirigeants sont désormais confrontés à des menaces synthétiques provenant de deux directions : leurs images clonées pour autoriser des transferts frauduleux ou porter atteinte à leur réputation, et des voix générées par l’IA se faisant passer pour des responsables gouvernementaux, des membres de conseils d’administration et des partenaires commerciaux utilisées pour les manipuler.

En 2019, un responsable britannique anonyme du secteur de l’énergie a reçu un appel téléphonique d’une personne qu’il pensait être son PDG. L’accent et les subtils changements de consonnes étaient corrects, même la cadence était familière. Ce n’est qu’après avoir transféré 243 000 $ qu’ils ont appris que la voix à l’autre bout du fil était synthétique. L’année dernière, des escrocs ont cloné le ministre italien de la Défense et ont dénoncé l’élite économique du pays. Au moins un d’entre eux a envoyé près d’un million d’euros avant de découvrir l’arnaque.

Mais ces marques ont eu de la chance. Considérez l’impact si une vidéo synthétique de votre PDG faisant des commentaires inappropriés, annonçant une fausse fusion ou critiquant un régulateur se propageait rapidement sur les réseaux sociaux avant que votre équipe puisse répondre. Les deepfakes ne sont plus une curiosité en matière de cybersécurité. Ils représentent désormais une menace pour la sécurité, un risque financier et un danger important pour la réputation.

L’écart en matière de communication est plus grand que l’écart en matière de sécurité

La majeure partie de la couverture des menaces deepfake se concentre sur les algorithmes de détection et les protocoles de vérification. Les fournisseurs de cybersécurité proposent des solutions et les services informatiques mettent à jour les politiques. Cependant, rares sont ceux qui répondent à une question cruciale pour les directeurs marketing et les directeurs marketing : qu’arrive-t-il à votre marque si l’image de votre PDG est utilisée à des fins de fraude, de désinformation ou d’attaques contre la personnalité ?

J’ai passé deux décennies à conseiller des dirigeants lors de crises de réputation, notamment lors d’enquêtes réglementaires et de campagnes médiatiques hostiles. Il existe des lignes directrices établies pour ces situations. Cependant, il n’existe pas de protocole établi pour des incidents comme une image synthétique d’un PDG autorisant une acquisition frauduleuse ou une vidéo fabriquée d’un fondateur devenant virale.

La visibilité des dirigeants est désormais bidirectionnelle

Chaque publication sur les réseaux sociaux, discours d’ouverture, apparition en podcast et appel sur les résultats impliquant votre PDG fournit des données de formation potentielles aux attaquants. La visibilité qui construit les marques exécutives et humanise le leadership fournit également les échantillons de voix et la cartographie faciale nécessaires aux médias synthétiques.

Toutes les attaques ne réussissent pas. L’année dernière, des escrocs ont ciblé le PDG d’une société de publicité mondiale. Ils ont créé un faux compte WhatsApp en utilisant sa photo, ont organisé un appel Microsoft Teams avec une voix clonée par l’IA et formée sur des images YouTube et ont demandé à un cadre supérieur de financer une nouvelle entreprise. L’employé a refusé et l’entreprise n’a rien perdu, mais la sophistication de la tentative a révélé à quel point la technologie avait progressé.

Le nombre de deepfakes est passé de 500 000 en 2023 à plus de huit millions en 2025. La fraude par clonage vocal a augmenté de 680 % en un an. Les pertes projetées dues à la fraude basée sur l’IA devraient atteindre 40 milliards de dollars d’ici 2027. Cependant, seuls 32 % des dirigeants d’entreprise pensent que leur organisation est prête à faire face à un incident de deepfake.

Trois questions auxquelles chaque équipe de communication devrait répondre maintenant

Premièrement, disposez-vous d’un protocole de divulgation des attaques sur les médias synthétiques ? Si une réplique de votre PDG générée par l’IA est utilisée à des fins de fraude ou de désinformation, qui communique, quand et via quels canaux ?

Deuxièmement, avez-vous fait un exercice de simulation de deepfake ? Les simulations de crise devraient désormais inclure des scénarios dans lesquels l’image d’un dirigeant est utilisée à des fins de fraude interne, de désinformation externe, ou les deux.

Troisièmement, avez-vous coordonné la séquence d’intervention avec les services juridiques, de cybersécurité et des relations avec les investisseurs ? Une crise de deepfake est à la fois un événement de fraude, une obligation de divulgation potentielle et une urgence de marque. Les réponses isolées échoueront.

Agissez avant l’attaque.

Les entreprises qui survivront à cette époque élaborent dès maintenant des protocoles de crise, avant que les visages de leurs dirigeants n’apparaissent dans des vidéos qu’ils n’ont jamais enregistrées, disant des choses qu’ils n’ont jamais dites, autorisant des transactions qu’ils n’ont jamais approuvées. L’image de votre PDG est un atout de marque. C’est aussi un vecteur d’attaque.

Les équipes de communication et de marque qui traitent les deepfakes comme le problème de quelqu’un d’autre (un problème de cybersécurité, un problème informatique, un problème de fraude financière) se retrouveront à rédiger des excuses au lieu de stratégies.

Les opinions exprimées dans les commentaires de Fortune.com sont uniquement celles de leurs auteurs et ne reflètent pas nécessairement les opinions et croyances de Fortune.

Website |  + posts
spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici