L’ex d’Elon Musk, Ashley St. Clair, dit qu’elle envisage une action en justice après que xAI ait produit de fausses images sexualisées d’elle | Fortune

L’ex d’Elon Musk, Ashley St. Clair, dit qu’elle envisage une action en justice après que xAI ait produit de fausses images sexualisées d’elle | Fortune

Grok, le chatbot d’intelligence artificielle d’Elon Musk, a été accusé de générer des images sexualisées non consensuelles de personnes réelles, y compris d’enfants. Au cours de la semaine dernière,

Les images non consensuelles ont laissé certaines femmes se sentir violées. Pendant ce temps, sa création à l’aide de Grok et sa présence dans X peuvent conduire l’entreprise de Musk à des problèmes juridiques majeurs dans plusieurs pays du monde.

Ashley St. Clair, commentatrice politique conservatrice, influenceuse sur les réseaux sociaux et mère de l’un des enfants de Musk (Musk a remis en question sa paternité), a déclaré qu’elle avait été victime de la frénésie de “déshabillage” de Grok ces derniers jours. Fortune a examiné plusieurs exemples d’images créées dans X, y compris de fausses images de St. Clair.

“Quand j’ai vu (les images), j’ai immédiatement répondu, j’ai tagué Grok et je lui ai dit que je ne tolérais pas cela”, a déclaré St. Clair à Fortune dans une interview lundi. “(Grok) a déclaré que je n’autorisais pas la production de ces images… et j’ai ensuite continué à produire les images, et elles sont devenues encore plus explicites.”

“Il y avait des photos de moi sans rien me couvrant à part un morceau de fil dentaire avec le sac à dos de mon tout-petit en arrière-plan et des photos de moi où on dirait que je ne porte pas de haut du tout”, a-t-elle déclaré. “Je me suis senti très bouleversé et violé. Je me suis également senti très en colère parce que d’autres femmes et enfants étaient à qui cela était arrivé.”

St. Clair a déclaré à Fortune qu’après avoir parlé publiquement de la situation, elle avait été contactée par de nombreuses autres femmes ayant vécu des expériences similaires, qu’elle avait examiné des images inappropriées de mineures créées par Grok et qu’elle envisageait une action en justice à cause de ces images.

Les représentants de X n’ont pas immédiatement répondu à la demande de commentaires de Fortune. Dans un article sur X, Musk a déclaré : « Quiconque utilise Grok pour créer du contenu illégal subira les mêmes conséquences que s’il téléchargeait du contenu illégal. »

Le compte officiel “Sécurité” de X a déclaré samedi dans un article que “Nous prenons des mesures contre les contenus illégaux sur

Les régulateurs lancent des enquêtes

Les images générées par l’IA et les images modifiées par l’IA, qui sont devenues répandues et faciles à créer grâce à de nouveaux outils d’entreprises comme XAI, OpenAI et Google, suscitent des inquiétudes en matière de désinformation, de confidentialité, de harcèlement et d’autres types d’abus.

Même si les États-Unis ne disposent pas actuellement d’une loi fédérale réglementant l’IA (et où le récent décret du président Trump a cherché à restreindre les lois nationales et locales), l’utilisation controversée et abusive de la technologie pourrait pousser les législateurs à agir. La situation est également susceptible de mettre à l’épreuve les lois existantes, telles que l’article 230 de la loi sur la décence en matière de communication, qui protège les fournisseurs en ligne de toute responsabilité concernant le contenu créé par les utilisateurs.

Riana Pfefferkorn, chercheuse en politiques à l’Institut de Stanford pour l’intelligence artificielle centrée sur l’humain, a déclaré que la responsabilité juridique autour des images générées par l’IA n’est pas encore claire, mais qu’elle sera probablement testée devant les tribunaux dans un avenir proche.

“Il y a une différence entre une plateforme numérique et un ensemble d’outils”, a-t-il déclaré à Fortune. “En général, (les plateformes) bénéficient de l’immunité pour les actions de leurs utilisateurs en ligne. Mais nous sommes dans un domaine en évolution où nous n’avons pas encore de décision de justice sur la question de savoir si le résultat de l’IA générative est simplement un discours de tiers pour lequel la plateforme ne peut être tenue responsable, ou s’il s’agit du discours de la plateforme elle-même, auquel cas il n’y a pas d’immunité.”

“Nous sommes dans une situation où, pour la première fois, c’est la plateforme elle-même qui génère à grande échelle de la pornographie non consensuelle d’adultes et de mineurs”, a déclaré Pfefferkorn. “Du point de vue de la responsabilité, ainsi que du point de vue des relations publiques, les lois CSAM présentent ici le plus grand risque de responsabilité potentiel.”

Pendant ce temps, les régulateurs d’autres pays ont commencé à réagir à la récente vague d’images sexualisées d’IA. Au Royaume-Uni, l’Ofcom, l’organisme de réglementation indépendant du pays pour les industries des communications, a déclaré avoir pris un « contact urgent » avec xAI, craignant que Grok ne crée « des images de personnes nues et des images sexualisées d’enfants ».

Dans un communiqué, le régulateur a déclaré qu’il procéderait à « une évaluation rapide pour déterminer s’il existe des problèmes de conformité potentiels qui justifient une enquête » sur la base de la réponse de X et xAI sur les mesures prises pour remplir leurs obligations légales de protection des utilisateurs britanniques. En vertu de la loi britannique sur la sécurité en ligne, les entreprises technologiques sont censées empêcher le partage de ce type de contenu et doivent le supprimer rapidement.

Deux députés français ont également déposé des plaintes concernant des images non consensuelles et le procureur de Paris a confirmé que ces incidents s’ajoutaient à une enquête existante sur X.

Le ministère indien de l’informatique a ordonné séparément que le régulateur malaisien des communications aurait également lancé une enquête sur les deepfakes liés à Grok et a averti X qu’il pourrait faire l’objet de mesures coercitives s’il ne parvenait pas à mettre un terme à l’utilisation abusive des outils d’intelligence artificielle sur la plate-forme pour générer des images indécentes ou offensantes.

“Le message qu’il envoie est assez inquiétant”

Henry Ajder, un expert britannique en deepfake, a déclaré que même si les sociétés de Musk ne créent pas directement les images, la plateforme X pourrait néanmoins être responsable de la prolifération d’images inappropriées de mineurs.

« Si des outils sont fournis ou si du matériel pédophile (CSAM) est fourni, une législation qui n’est pas adaptée à ce véhicule spécifique de préjudice entrera probablement en jeu », a-t-il déclaré. “Au Royaume-Uni, nous avons interdit la publication d’images intimes non consensuelles générées par l’IA et nous nous attaquons désormais aux kits d’outils de création. Je pense que nous verrons d’autres pays emboîter le pas.”

Une partie de la raison pour laquelle ces images ont été créées et partagées si largement est due à la récente fusion de xAI et à l’intégration croissante avec la plateforme de médias sociaux X de Musk. xAI a formé ses modèles à l’aide de données extraites de X, où Grok figure désormais en bonne place.

“Grok est intégré à une plateforme que Musk veut faire de cette super application : sa plateforme pour l’IA, les réseaux sociaux et potentiellement les paiements. Si vous avez cela comme point d’ancrage, le système d’exploitation de votre vie, vous ne pouvez pas y échapper”, a déclaré Ajder. “Si ces capacités sont connues et laissées sans contrôle même après avoir été clairement énoncées, le message envoyé est assez inquiétant.”

xAI n’est pas la seule entreprise où les images sexualisées de l’IA ont suscité des inquiétudes. Meta a supprimé des dizaines d’images sexualisées de célébrités partagées sur sa plateforme et créées avec des outils d’IA l’année dernière, et en octobre, le PDG d’OpenAI, Sam Altman, a déclaré que la société assouplirait les restrictions sur l’IA « érotique » pour les adultes, tout en soulignant qu’elle restreindrait les contenus préjudiciables.

Ajder a déclaré que xAI a adopté sa réputation de repousser les limites du contenu d’IA acceptable. Il a déclaré que tandis que d’autres modèles d’IA conventionnels exigent que les utilisateurs soient « assez créatifs, assez sournois » pour générer du contenu risqué, Grok a choisi d’être « plus audacieux ».

Depuis sa création, Grok s’est présenté comme une alternative « sans éveil » aux chatbots IA conventionnels, notamment ChatGPT d’OpenAI. En juillet de l’année dernière, xAI a lancé un chatbot compagnon « flirty » appelé Ani dans le cadre de la nouvelle fonctionnalité « Compagnons » de son chatbot Grok et était disponible pour les utilisateurs jusqu’à 12 ans.

“Les femmes sont exclues du dialogue public”

Les femmes qui ont vu des images explicites d’elles-mêmes en ligne générées par Grok disent se sentir violées et déshumanisées.

La journaliste Samantha Smith, qui a découvert que des utilisateurs avaient créé de fausses images d’elle en bikini sur X, a déclaré à la BBC que cela la laissait “déshumanisée et réduite à un stéréotype sexuel”.

Dans un article sur

Charlie Smith, un journaliste basé au Royaume-Uni, a également trouvé sur Internet des photographies non consensuelles d’elle en bikini.

“Je n’étais pas sûre de publier ça, mais quelqu’un a demandé à Grok de poster une photo de moi en bikiniZ, et Grok a répondu avec une photo”, a-t-elle écrit dans un message sur

St. Clair a déclaré à Fortune qu’elle considérait X comme “l’entreprise la plus dangereuse au monde à l’heure actuelle” et accusait l’entreprise de menacer la capacité des femmes à exister en ligne en toute sécurité.

“Ce qui est plus inquiétant, c’est que les femmes sont exclues du dialogue public à cause de ces abus”, a-t-elle déclaré. “Lorsque vous expulsez les femmes du dialogue public… parce qu’elles ne peuvent pas y participer sans être maltraitées, vous excluez de manière disproportionnée les femmes d’IA.”

Website |  + posts
spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici