Meta a promis qu’il ne vous espionnerait pas avec ses lunettes intelligentes IA. Le procès affirme que les humains vous surveillent | Fortune

Lorsque Meta a ouvert ses lunettes intelligentes Ray-Ban aux précommandes, elle a clairement indiqué une chose : votre vie privée sera en sécurité. « Les lunettes intelligentes Ray-Ban Meta sont conçues avec la confidentialité au cœur », lit-on à l’époque, publié en septembre 2023. Le marketing était sans équivoque sur la confidentialité et, par conséquent, vous avez peut-être vu des gens les porter en ville, dans une publicité du Super Bowl ou même lors d’une procédure judiciaire pour la sécurité des enfants sur les propres plateformes de Meta. Les agents de l’ICE les porteraient même sur le terrain.

Ce que vous n’avez peut-être pas vu, c’est vous-même pris dans le réticule de la caméra des lunettes. Aujourd’hui, une nouvelle étude (et un procès fédéral qui a rapidement suivi) affirme que l’entreprise est encore moins transparente que ces lunettes épaisses, affirmant que l’entreprise achemine silencieusement les images des utilisateurs vers des travailleurs humains à l’étranger au lieu de ses modèles d’IA. Ces travailleurs ont tout vu, depuis des personnes nues jusqu’à des documents financiers sensibles, et c’est grâce aux utilisateurs qui choisissent de partager des données à des fins de formation à l’IA.

“Dans certaines vidéos, on peut voir quelqu’un aller aux toilettes ou se déshabiller. Je ne pense pas qu’ils le sachent, car s’ils le faisaient, ils n’enregistreraient pas”, a déclaré un travailleur qui a vu les vidéos avec ses lunettes.

Fin février, les publications suédoises Svenska Dagbladet et Göteborgs-Posten ont publié une enquête sur le processus de formation à l’IA de Meta et ont découvert que les entrepreneurs Meta au Kenya aidaient à former l’IA qui alimente les lunettes (composée des modèles Ray-Ban Meta Wayfarer (Gen 2), Ray-Ban Display et Oakley Meta HSTN). Ce qu’ils ont vu était surprenant.

“Nous voyons de tout, des salons jusqu’aux corps nus”, déclarent les travailleurs dans l’étude. “Meta a ce genre de contenu dans ses bases de données.”

Tout utilisateur qui choisit de partager des données à des fins de formation à l’IA permet effectivement que toutes les parties de sa vie soient enregistrées et, par conséquent, examinées, soit par les IA qu’il est censé former, soit par les humains derrière eux. Cela inclut des images de personnes dans les toilettes, se déshabillant, regardant de la pornographie et, dans au moins un cas documenté, une paire de lunettes abandonnées sur une table de nuit qui a capturé un couple qui n’avait jamais consenti à être enregistré.

Les sous-traitants de Meta, qui étaient des annotateurs de données qui enseignaient à l’IA à interpréter les images en étiquetant manuellement le contenu, ont également déclaré avoir vu les numéros de carte de crédit et les documents financiers des utilisateurs. Au moment de la publication de l’étude, Meta a répondu par l’intermédiaire d’un porte-parole en déclarant : « Lorsque des personnes partagent du contenu avec Meta AI, comme d’autres sociétés, nous faisons parfois appel à des sous-traitants pour examiner ces données et améliorer l’expérience des personnes avec les lunettes, comme indiqué dans notre politique de confidentialité. Ces données sont d’abord filtrées pour protéger la vie privée des personnes. »

Début du recours collectif

Le rapport a déclenché une action en justice. Le 4 mars, les plaignants Gina Bartone et Mateo Canu ont intenté un recours collectif contre Meta Platforms Inc. (et le fabricant de lunettes Luxottica of America) accusant l’entreprise d’avoir violé les lois fédérales et étatiques en omettant de divulguer que les vidéos capturées par les lunettes sont transmises à ses serveurs puis au sous-traitant kenyan pour un marquage manuel. l’inquiétude croissante du public concernant sa vie privée et sa sécurité, et « dans ce contexte », Meta a lancé les lunettes avec une « promesse rassurante : les lunettes ont été ‘conçues pour la confidentialité, contrôlées par vous’ ».

Brian Hall, avocat spécialisé dans la protection de la vie privée et l’intelligence artificielle chez Stubbs Alderton & Markiles, affirme que les révélations étaient aussi prévisibles qu’alarmantes. “C’est horrible. C’est exactement ce que nous imaginions tous”, a déclaré Hall à Fortune. “Je suis assez vieux pour me rappeler qu’il y a 10 ou 12 ans, Google avait ses lunettes, et c’était une préoccupation pour les gens qui allaient aux toilettes avec. Maintenant, nous sommes dans la même situation.”

(Lorsque Google a présenté son prototype de Google Glass en 2013, il a déclenché une vive réaction du public concernant la surveillance, le consentement et la mort de l’anonymat. Les bars, les restaurants, les casinos et les clubs de strip-tease ont complètement interdit l’appareil et les utilisateurs ont été surnommés avec dérision « Glassholes ».)

Hall affirme que la responsabilité juridique reste floue, en partie parce que les propres conditions d’utilisation de Meta stipulent que les annotateurs de données « examineront votre interaction avec l’IA, y compris le contenu de vos conversations ou messages avec l’IA », et précise que cet examen « peut être automatisé ou manuel ». “Si nous devions lire attentivement leur politique de confidentialité, il n’y aurait rien d’explicite qui dit qu’ils ne le font pas”, a déclaré Hall. “En termes de responsabilité juridique, je ne sais pas, mais il s’agit certainement d’une responsabilité de relations publiques. Il s’agit d’informations et d’images parmi les plus sensibles qui soient.”

Hall dit que sa plus grande préoccupation ne concerne pas réellement les porteurs de lunettes, mais tous les autres personnes piégées dans la monture. “Les passants, les personnes filmées et identifiées, sont ceux qui courent un risque”, a-t-il déclaré. “Malheureusement, nos lois sur la confidentialité ne sont pas conçues pour protéger ces personnes. Elles sont conçues pour protéger les personnes qui portent des lunettes et leur capacité à gérer leurs propres données.”

Faisant référence aux informations selon lesquelles un homme portant ces lunettes devant un tribunal britannique aurait aidé à le « coacher » lors de son témoignage, Hall a déclaré que le risque était considérablement accru dans la mesure où Meta envisagerait d’ajouter la reconnaissance faciale aux lunettes. “On s’éloigne vraiment d’un monde où aujourd’hui on peut voir quelqu’un dans la rue, dans une salle d’audience, dans un bar, et où l’on peut faire des recherches sur Facebook et Instagram et le trouver. Mais c’est instantané. C’est automatique, sans effort. Vous pourriez être assis dans une salle d’audience en train d’identifier des témoins.”

Hall affirme que la loi existante n’est tout simplement pas conçue pour ce que les lunettes de Meta rendent possible. “Je ne sais pas si les lois existantes sont vraiment suffisantes pour nous protéger des risques liés au genre de choses que Meta et d’autres sociétés de médias sociaux font actuellement”, a-t-il déclaré. “C’est comme s’il s’agissait de lois sur la protection de la vie privée, mais elles sont rarement appliquées telles quelles, et cela perturbe complètement l’ensemble du cadre sur lequel elles reposent.”

“Je ne vois pas les gens aborder ce sujet de manière significative”, a-t-il déclaré, affirmant que les réglementations actuelles sont fragmentaires et ne répondent pas pleinement aux problèmes de confidentialité. Une fois la question de la vie privée abordée, dit-il, « tout le reste n’est qu’une sorte de façade ».

Meta n’a pas répondu aux demandes de commentaires.

Website |  + posts
spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici