La Maison Blanche promet que « les mèmes continueront », mais les experts en désinformation disent d’arrêter | Fortune

La Maison Blanche promet que « les mèmes continueront », mais les experts en désinformation disent d’arrêter | Fortune

L’administration Trump n’a pas hésité à partager en ligne des images générées par l’IA, à adopter des images et des mèmes de type dessin animé et à en faire la promotion sur les chaînes officielles de la Maison Blanche.

Mais une image modifiée (et réaliste) de l’avocate des droits civiques Nekima Levy Armstrong pleurant après son arrestation suscite de nouvelles inquiétudes sur la manière dont l’administration brouille les frontières entre ce qui est réel et ce qui est faux.

Le compte de la secrétaire à la Sécurité intérieure, Kristi Noem, a publié l’image originale de l’arrestation de Levy Armstrong avant que le compte officiel de la Maison Blanche ne publie une image modifiée la montrant en train de pleurer. L’image falsifiée fait partie d’un flot d’images retouchées par l’IA qui ont été partagées à travers le spectre politique depuis les fusillades mortelles de Renee Good et Alex Pretti par des agents de la patrouille frontalière américaine à Minneapolis.

Cependant, l’utilisation de l’intelligence artificielle par la Maison Blanche inquiète les experts en désinformation qui craignent que la diffusion d’images générées ou éditées par l’IA n’érode la perception de la vérité par le public et sème la méfiance.

En réponse aux critiques sur l’image retouchée de Levy Armstrong, les responsables de la Maison Blanche ont redoublé d’efforts, la directrice adjointe des communications, Kaelan Dorr, écrivant sur X que les « mèmes continueront ». La secrétaire de presse adjointe de la Maison Blanche, Abigail Jackson, a également partagé un message se moquant des critiques.

David Rand, professeur de sciences de l’information à l’Université Cornell, affirme que qualifier l’image falsifiée de mème “semble certainement être une tentative de la présenter comme une blague ou un message humoristique, comme leurs précédents dessins animés. Ceci est probablement destiné à les protéger des critiques pour avoir publié des médias manipulés”. Il a déclaré que le but du partage de l’image falsifiée de l’arrestation semble « beaucoup plus ambigu » que les images caricaturales que l’administration a partagées dans le passé.

Les mèmes ont toujours transmis des messages superposés, amusants ou informatifs pour les personnes qui les comprennent, mais indéchiffrables pour les étrangers. Les images améliorées ou modifiées par l’IA ne sont que le dernier outil utilisé par la Maison Blanche pour attirer le segment de la base de Trump qui passe beaucoup de temps en ligne, a déclaré Zach Henry, un consultant en communication républicain qui a fondé Total Virality, une société de marketing d’influence.

“Les gens qui sont en ligne le verront et le reconnaîtront instantanément comme un mème”, a-t-il déclaré. “Vos grands-parents peuvent le voir et ne pas comprendre le mème, mais comme cela semble réel, cela les incite à en parler à leurs enfants ou petits-enfants.”

C’est bien mieux si cela provoque une réaction violente, ce qui l’aide à devenir viral, a déclaré Henry, qui a généralement salué le travail de l’équipe des médias sociaux de la Maison Blanche.

“Le gouvernement devrait être un lieu où l’information peut être fiable, où elle peut être considérée comme exacte, car il a la responsabilité de le faire”, a-t-il déclaré. “Partager ce type de contenu et créer ce type de contenu… érode la confiance – même si je suis toujours un peu sceptique quant au terme confiance – mais la confiance que nous devrions avoir dans notre gouvernement fédéral pour nous donner des informations exactes et vérifiées. C’est une vraie perte, et cela m’inquiète vraiment beaucoup.”

Ramesh Srinivasan, professeur à l’UCLA et animateur du podcast Utopias, a déclaré que de nombreuses personnes se demandent désormais où aller pour obtenir des « informations fiables ». “Les systèmes d’intelligence artificielle ne feront qu’exacerber, amplifier et accélérer ces problèmes de manque de confiance, de manque de compréhension de ce qui pourrait être considéré comme la réalité, la vérité ou les preuves”, a-t-il déclaré.

Srinivasan a déclaré qu’il estime que la Maison Blanche et d’autres responsables qui partagent du contenu généré par l’IA invitent non seulement les gens ordinaires à continuer de publier du contenu similaire, mais autorisent également d’autres personnes en position de crédibilité et de pouvoir, comme les décideurs politiques, à partager du contenu synthétique sans étiquette. Il a ajouté que puisque les plateformes de médias sociaux ont tendance à « privilégier algorithmiquement » les contenus extrêmes et conspirateurs, que les outils de génération d’IA peuvent facilement créer, « nous avons un très grand nombre de défis à relever ».

Un afflux de vidéos générées par l’IA liées aux actions, aux manifestations et aux interactions avec les citoyens en matière d’immigration et de contrôle des douanes a déjà proliféré sur les réseaux sociaux. Après qu’un agent de l’ICE ait tiré sur Renee Good alors qu’elle était dans sa voiture, plusieurs vidéos générées par l’IA ont commencé à circuler, montrant des femmes s’éloignant des agents de l’ICE, qui leur ont dit d’arrêter. De nombreuses vidéos fabriquées circulent également sur des raids d’immigration et des personnes affrontant des agents de l’ICE, leur criant souvent dessus ou leur jetant de la nourriture au visage.

Jeremy Carrasco, un créateur de contenu spécialisé dans l’éducation aux médias et la démystification des vidéos virales basées sur l’IA, a déclaré que la majeure partie de ces vidéos provenaient probablement de comptes qui « cultivent l’engagement » ou cherchent à capitaliser sur les clics en générant du contenu avec des mots-clés et des termes de recherche populaires comme ICE. Mais il a également déclaré que les vidéos recueillaient l’opinion de personnes qui s’opposent à l’ICE et au DHS et qui pourraient les considérer comme des « fanfictions » ou se livrer à des « vœux pieux », dans l’espoir de voir une véritable réaction contre les organisations et leurs responsables.

Néanmoins, Carrasco estime également que la plupart des téléspectateurs ne peuvent pas dire si ce qu’ils voient est faux, et se demande s’ils sauraient “ce qui est réel ou non lorsque cela compte vraiment, comme lorsque les enjeux sont beaucoup plus élevés”.

Même lorsqu’il existe des signes évidents de génération d’IA, tels que des panneaux de signalisation contenant du charabia ou d’autres erreurs évidentes, ce n’est que dans le « meilleur des cas » qu’un spectateur sera suffisamment intelligent ou accordera suffisamment d’attention pour enregistrer l’utilisation de l’IA.

Carrasco estime que la mise en œuvre généralisée d’un système de filigrane intégrant des informations sur l’origine d’un support dans sa couche de métadonnées pourrait constituer une étape vers une solution. La Coalition pour la provenance et l’authenticité du contenu a développé un tel système, mais Carrasco ne pense pas qu’il sera largement adopté avant au moins un an.

“Cela va être un problème pour toujours”, a-t-il déclaré. “Je ne pense pas que les gens comprennent à quel point c’est grave.”

__

Les rédacteurs d’Associated Press Jonathan J. Cooper à Phoenix et Barbara Ortutay à San Francisco ont contribué à ce rapport.

Website |  + posts
spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici