Ban Ray
* Cette version linguistique a été traduite par IA à partir de l'original suédois.
En 2025, Meta a vendu plus de sept millions de paires de lunettes équipées de caméras qui ressemblent à des Ray-Ban ordinaires.[1] La personne qui les porte ressemble à n'importe qui d'autre. Mais ces personnes sont désormais des produits, tout comme toutes celles avec lesquelles elles interagissent.
1. Tu ne sais pas ce qu'il advient des données
Une enquête conjointe de Svenska Dagbladet et Göteborgs-Posten a révélé que les images enregistrées par les lunettes Ray-Ban de Meta sont envoyées à Sama, un sous-traitant à Nairobi, au Kenya.[2] Les travailleurs décrivent le visionnage de vidéos montrant des personnes se déshabillant, utilisant les toilettes, ayant des rapports sexuels et saisissant des données de carte bancaire. « On voit tout », comme l'a dit un travailleur.[3]
La fonction IA qui rend cela possible ne peut pas être désactivée. Si tu utilises l'assistant vocal, ta vidéo et ton audio sont traités sur les serveurs de Meta, où ils peuvent être transmis pour examen humain.[4] C'est dans les conditions d'utilisation, les mêmes conditions qu'un travailleur de Sama dit que la plupart des utilisateurs ne lisent jamais.
Des employés d'opticiens ont déclaré que « tout reste localement dans l'application », mais quand les journalistes ont analysé le trafic réseau, ils ont trouvé une communication constante avec les serveurs de Meta.[5]
Meta a été interrogé à plusieurs reprises sur la destination des enregistrements, sur le fait que des enregistrements de pays comme la Suède soient examinés par des travailleurs à l'étranger, sur les garanties existantes et sur la durée de stockage. En réponse, ils renvoient à leur politique de confidentialité.[6]
La page produit indique toujours, en gras : « Designed for privacy, controlled by you. »
2. Les espaces privés n'existent plus
Quand quelqu'un portant ces lunettes entre dans ta cuisine, ta chambre, le cabinet de ton médecin, ton lieu de culte, une manifestation : chaque personne à portée devient une matière première pour l'entraînement de l'IA. Les personnes filmées n'ont jamais consenti et n'ont aucun moyen de savoir si leurs visages sont utilisés dans un jeu de données de l'autre côté du monde.
Un travailleur de Sama a décrit comment un homme a posé ses lunettes sur la table de chevet. Sa femme est entrée et s'est déshabillée. Elle n'en avait aucune idée.[7]
D'anciens employés de Meta ont indiqué que les protocoles d'anonymisation échouent dans certaines conditions d'éclairage, ce qui signifie que les visages restent identifiables malgré les protections supposées.[8] L'avocate en protection des données Kleanthi Sardeli a résumé : une fois le matériel intégré aux modèles, l'utilisateur perd en pratique le contrôle sur son utilisation.[9]
Ton salon. Ta salle de bain. Les visages de tes enfants. Les visages de tes amis. Aucun d'entre eux n'a accepté cela.
3. Ils utilisent des aides techniques comme cheval de Troie
Meta présente les lunettes comme une aide technique. Dans ses supports marketing, l'entreprise met en avant l'utilisation mains libres pour les personnes malvoyantes, la traduction en direct, le guidage routier.[10] Des documents internes montrent qu'ils prévoyaient de lancer la fonction de reconnaissance faciale « Name Tag » lors d'une conférence pour aveugles, avant de la déployer au grand public.[11]
Voilà le plan : envelopper une infrastructure de surveillance dans une véritable fonction d'accessibilité, la lancer via les personnes handicapées pour créer de la bienveillance, puis la déployer partout. Chaque photo que tu as taguée sur Facebook depuis 2010, chaque publication Instagram publique, chaque fois que l'application a suggéré le nom d'un ami sur un visage et que tu as confirmé : tu étiquetais des données d'entraînement pour un modèle de reconnaissance faciale. Sans y penser, tu entraînais les modèles d'IA de Meta et travaillais gratuitement pour eux.
Le RGPD exige une base légale pour le traitement des données personnelles. Le Kenya ne bénéficie pas d'une décision d'adéquation de l'UE.[12] Des eurodéputés italiens ont écrit à la Commission irlandaise de protection des données (compétente pour Meta dans l'UE) pour demander sur quelle base légale ce traitement est effectué.[13] Personne n'a reçu de réponse claire. C'est en soi une réponse. Les entreprises technologiques espèrent que tu n'y penses pas.
4. On ne peut pas faire confiance à Meta
En octobre 2024, deux étudiants de Harvard ont montré ce que les lunettes rendent possible. Avec des lunettes Ray-Ban Meta ordinaires connectées à PimEyes, un moteur de reconnaissance faciale commercial, ils ont identifié des inconnus dans le métro de Boston et obtenu noms, adresses, numéros de téléphone et numéros de sécurité sociale en quelques secondes. Ils ont abordé une femme dans la rue, lui ont dit qu'ils s'étaient rencontrés à un événement à Cambridge, et elle les a crus.[27] Ils l'ont fait avec des systèmes publiquement disponibles, mais ce sont des capacités auxquelles Meta a toujours eu accès, et avec Name Tag cela devient une fonction intégrée.
Meta développe Name Tag en interne depuis 2025 : des lunettes qui identifient les inconnus en temps réel.[14] Un mémo interne a exposé le plan de lancer la fonction « dans un environnement politique dynamique où de nombreux groupes de la société civile qui, selon nos prévisions, nous attaqueraient, auraient leurs ressources concentrées sur d'autres préoccupations. »[15]
Relis ça. Ils ont prévu d'attendre que la société civile soit distraite. Ce n'est pas une entreprise qui commet une erreur. C'est une entreprise qui fait un calcul. Pourquoi crois-tu qu'ils veulent exploiter les temps turbulents que nous vivons pour lancer ceci ?
Ils construisent également des lunettes « super sensing » qui font fonctionner caméras et capteurs en continu pour enregistrer la journée entière de l'utilisateur.[28] En avril 2025, Meta a silencieusement mis à jour la politique de confidentialité des lunettes, élargissant son droit d'utiliser toutes les photos, vidéos et audio capturés pour l'entraînement de l'IA, sans notification claire aux propriétaires existants.[29] La page produit indique toujours « designed for privacy, controlled by you. » Un recours collectif aux États-Unis déposé en mars 2026 appelle cela par son nom : fraude.[20]
L'EFF a publié un avertissement en mars 2026 conseillant aux consommateurs de réfléchir à deux fois avant d'acheter les lunettes Ray-Ban de Meta.[16] L'EPIC a écrit à la FTC et aux procureurs d'État pour exiger que Name Tag soit bloqué avant d'atteindre le marché.[17] Le ministre civil suédois Erik Slottner a exigé des réponses, avertissant que la combinaison de données de localisation et d'images intimes crée de graves risques de sécurité.[18] L'ICO britannique a formellement écrit à Meta pour demander des informations sur sa conformité.[19] Des sénateurs américains ont exigé des réponses sur la façon dont les passants pourraient éviter d'être scannés.[21]
Meta a payé 650 millions de dollars pour régler un recours collectif dans l'Illinois pour collecte de géométrie faciale sans consentement.[22] En 2021, ils ont désactivé leur système de reconnaissance faciale sur Facebook, affirmant vouloir « trouver le bon équilibre. » Les photos et les étiquettes vérifiées par des humains qui y étaient associées, ils les ont gardées. Tout comme DeepFace, l'algorithme capable de régénérer des modèles à partir de tout cela.[30] Maintenant ils veulent des caméras sur des millions de visages, avec la même base de données en dessous.
Les amendes que Meta et d'autres entreprises technologiques ont reçues pour leurs pratiques attentatoires à la vie privée sont une goutte d'eau dans l'océan par rapport à leurs revenus, et tous les acteurs impliqués le savent. Ce n'est pas une entreprise qui a commis une erreur et en a tiré les leçons. C'est une entreprise qui intègre les amendes dans son modèle économique et continue, parce qu'elle sait qu'à long terme elle peut gagner bien plus en continuant à enfreindre les lois et à agir contre l'intérêt public.
Zuckerberg traite ton visage comme un produit. Ta cuisine est une source de données. Ton partenaire qui se déshabille est du matériel d'entraînement pour un modèle d'IA et d'affaires sur lequel il n'aura jamais de contrôle, examiné par un travailleur que vous ne rencontrerez jamais, pour un produit auquel personne n'a consenti. Zuckerberg devrait se voir retirer le droit de vendre du matériel grand public. Ça n'arrivera pas. Alors nous faisons ce que nous pouvons : nous rendons ces lunettes indésirables partout où elles apparaissent. Informe ou fais honte à ceux qui les portent. Interdis-les chez toi. Sabote les systèmes quand tu le peux, détruis-les si tu peux t'en tirer.
5. Ce n'est pas que Meta
Meta n'est pas seul. Spotify intègre déjà le support des lunettes connectées dans son application.[23][24] Plus d'entreprises sur la plateforme signifie plus de données à travers plus de lentilles.
Des lunettes avec caméra sans marque sont disponibles sur AliExpress pour moins de 30 euros.[25] Pas d'indicateur d'enregistrement. Pas de politique de confidentialité. Pas de conditions d'utilisation. Pas de supervision. Pas de Zuckerberg à blâmer. Juste une lentille, une puce et ton visage dans la poche de quelqu'un et sur les serveurs des entreprises technologiques, pour toujours. Quand la technologie est assez bon marché pour être jetable, le débat politique devient sans objet. Cela s'appelle la capture réglementaire et c'est l'objectif de toute entreprise technologique qui veut devancer la législation : rends quelque chose suffisamment banal et il devient politiquement impopulaire de réguler la technologie. C'est cynique, mais ça a fonctionné avant, et les entreprises technologiques parient que ça fonctionnera encore.
Apple, Google et Samsung développent tous des lunettes connectées concurrentes pour 2026 et au-delà.[26] Ce n'est pas le produit d'une seule entreprise. C'est toute une industrie qui converge vers l'idée que ton visage est une surface à capturer, indexer et monétiser. La question n'est pas de savoir si cette technologie va se répandre. C'est déjà fait. La question est de savoir si tu l'acceptes.
Interdis-les. De tes espaces, de tes événements, de tes lieux de travail. Exige des politiques. Rends socialement inacceptable le fait de pointer les caméras des entreprises technologiques vers ton visage.
Ce que tu peux faire
Demande à ton lieu de travail, ta salle de sport, ton école, ton bar d'adopter une politique contre les lunettes à caméra. Il suffit qu'une personne le demande pour que cela devienne une discussion. Imprime l'autocollant et colle-le sur la porte. Si ta commune, ton entreprise ou ton établissement a une politique de vidéosurveillance, il devrait en avoir une pour cela. Écris à ton eurodéputé, ton député ou ton conseil municipal et demande ce qu'ils font contre la reconnaissance faciale et le stockage de données personnelles dans les produits grand public. Supprime ou apprends à restreindre tes comptes Meta, et sois vigilant sur la façon dont les entreprises essaient de glisser cette technologie dans ton quotidien. Ce ne sont pas tes amis, ils ne sont pas de ton côté. Mais nous sommes tellement plus nombreux, et nous pouvons arrêter cet abus.
Partage cette page.
Télécharger l'autocollant
Pas d'imprimante ? Commande des autocollants ici. Le prix couvre l'impression et l'envoi.
CC BY-SA 4.0 — Libre de partager et d'adapter avec attribution