“Nous voyons tout, des salons aux corps nus. Meta a ce kind de contenu dans ses bases de données”, a déclaré l’un des travailleurs basés au Kenya aux journaux suédois Svenska Dagbladet et Goteborgs-Posten. “Quelqu’un se promenait avec des lunettes, ou les portait, et puis le partenaire de cette personne était dans la salle de bain, ou il venait de sortir nu.”
Meta est poursuivie pour violation de la vie privée après qu’une enquête menée par un journal suédois a révélé que les pictures capturées par les « lunettes intelligentes » de l’entreprise étaient examinées par des travailleurs d’une set up à l’étranger.
Selon TechCrunch, l’enquête a révélé que les travailleurs d’un sous-traitant basé au Kenya regardaient régulièrement des images et des movies pris avec les lunettes à intelligence artificielle de Meta. Les pictures examinées incluent du contenu potentiellement wise, comme de la nudité personnelle, des personnes ayant des rapports sexuels et même utilisant les toilettes.
Meta affirme que les visages sont flous dans les pictures envoyées pour examen, mais des sources ont contesté cette allégation.
Le procès, notice TechCrunch, a été déposé au nom des plaignants Gina Bartone, qui réside dans le New Jersey, et Mateo Canu de Californie. Ils sont représentés par des avocats du cupboard d’avocats Clarkson et allèguent que Meta a violé les lois sur la confidentialité et s’est livrée à de fausses publicités en déformant ses pratiques en matière de confidentialité.
Les lunettes intelligentes Meta AI sont, par exemple, généralement commercialisées en utilisant des expressions telles que « conçues pour la confidentialité, contrôlées par vous » et « conçues pour votre vie privée ». La plupart des consommateurs ne s’attendraient donc pas à ce que des pictures intimes soient vues ou montrées à qui que ce soit, et encore moins aux travailleurs d’une set up offshore.
“Nous voyons tout, des salons aux corps nus. Meta a ce kind de contenu dans ses bases de données”, a déclaré l’un des travailleurs basés au Kenya aux journaux suédois Svenska Dagbladet et Goteborgs-Posten. “Quelqu’un se promenait avec des lunettes, ou les portait, et puis le partenaire de cette personne était dans la salle de bain, ou il venait de sortir nu.”
“Les gens peuvent s’enregistrer de la mauvaise manière et ne même pas savoir ce qu’ils enregistrent. Ce sont de vraies personnes comme vous et moi.”
Un autre employé a déclaré aux journaux que, même si visionner de telles pictures semble être une atteinte flagrante à la vie privée, ils le font parce que c’est pour cela qu’ils sont payés.
“Vous n’êtes pas censé remettre cela en query”, a déclaré le travailleur. “Si vous commencez à poser des questions, vous n’êtes plus là.”
Les sous-traitants ont également indiqué qu’ils examinaient d’autres données collectées par les lunettes intelligentes, notamment des échantillons audio, qui sont utilisées à des fins de traitement et de formation.
“Il peut s’agir de n’importe quel sujet”, a déclaré un employé. “Nous voyons des discussions dans lesquelles quelqu’un parle de crimes ou de manifestations. Ce ne sont pas seulement des salutations, cela peut aussi être des choses très sombres.”
Le procès fait valoir qu’« aucun consommateur raisonnable » n’achèterait les lunettes intelligentes de Meta s’il connaissait la vérité sur les pratiques de l’entreprise.
“Aucun consommateur raisonnable ne comprendrait que ‘conçu pour la vie privée, contrôlé par vous’ et des promesses similaires comme ‘construit pour votre vie privée’ signifient que des pictures profondément personnelles de l’intérieur de leur maison seraient visionnées et cataloguées par des travailleurs humains à l’étranger”, affirme le procès. “Meta a choisi de faire de la confidentialité la pièce maîtresse de sa campagne advertising omniprésente tout en dissimulant les faits qui révèlent que ces promesses étaient fausses.”
Meta a depuis confirmé qu’elle faisait appel à des sous-traitants étrangers pour examiner le contenu collecté, mais n’a pas commenté les allégations selon lesquelles ses protections de la vie privée, comme le flou des visages, sont bien en deçà de ce à quoi on pourrait ou devrait s’attendre.
“Lorsque les gens partagent du contenu avec Meta AI, nous faisons parfois appel à des sous-traitants pour examiner ces données dans le however d’améliorer l’expérience des gens, comme le font de nombreuses autres entreprises”, a déclaré un porte-parole. “Nous prenons des mesures pour filtrer ces données afin de protéger la vie privée des personnes et d’empêcher l’examen des informations d’identification.”
Sources
Un procès en Californie accuse Meta d’avoir envoyé une vidéo de nu avec des lunettes IA aux travailleurs
Meta fait l’objet d’un recours collectif concernant les allégations de confidentialité des lunettes intelligentes
Meta poursuivi en justice pour les problèmes de confidentialité des lunettes intelligentes AI, après que des travailleurs ont examiné des pictures de nudité, de sexe et d’autres pictures
“Nous voyons tout” : un rapport indique que les pictures des lunettes intelligentes IA de Meta sont examinées par des entrepreneurs humains qui voient bien plus que ce qu’ils avaient prévu, ce qui a conduit à un nouveau procès contre l’entreprise
















