BanRay campaign sticker: a red prohibition sign over camera-equipped glasses

Ban Ray

* As versões não suecas deste texto são traduzidas por IA mas revistas por humanos.

Em 2025, a Meta vendeu mais de sete milhões de pares de óculos com câmara que parecem Ray-Ban normais.[1] A pessoa que os usa parece qualquer outra. Mas estas pessoas são agora produtos, tal como todas as pessoas com quem interagem.

1. Não sabes o que acontece com os dados

Uma investigação conjunta dos jornais suecos Svenska Dagbladet e Göteborgs-Posten revelou que filmagens gravadas pelos óculos Ray-Ban da Meta são enviadas à Sama, um subcontratante em Nairobi, Quénia.[2] Os trabalhadores descrevem a revisão de vídeos de pessoas a despir-se, a usar a casa de banho, a ter relações sexuais e a introduzir dados de cartão de crédito. "Vemos tudo", disse um trabalhador.[3]

A funcionalidade de IA que torna isto possível não pode ser desativada. Se usares o assistente de voz, o teu vídeo e áudio são processados nos servidores da Meta, onde podem ser encaminhados para revisão humana.[4] Está nos termos de serviço, os mesmos termos que um trabalhador da Sama disse que a maioria dos utilizadores nunca lê.

Funcionários de ópticas disseram que "tudo fica localmente na app", mas quando os jornalistas analisaram o tráfego de rede encontraram comunicação constante com servidores da Meta.[5]

A Meta foi repetidamente questionada sobre para onde vão as filmagens, se gravações de países como a Suécia são revistas por trabalhadores no estrangeiro, que salvaguardas existem e durante quanto tempo as gravações são armazenadas. Como resposta, remetem para a sua política de privacidade.[6]

A página do produto ainda diz, em negrito: "Designed for privacy, controlled by you."

2. Os espaços privados deixaram de existir

Quando alguém com estes óculos entra na tua cozinha, no teu quarto, no consultório médico, no teu local de culto, num protesto: todas as pessoas ao alcance tornam-se matéria-prima para treino de IA. As pessoas filmadas nunca consentiram e não têm forma de saber se os seus rostos são usados num conjunto de dados do outro lado do mundo.

Um trabalhador da Sama descreveu como um homem pousou os óculos na mesa de cabeceira. A mulher dele entrou e despiu-se. Não fazia ideia.[7]

Ex-funcionários da Meta indicaram que os protocolos de anonimização falham em certas condições de luz, o que significa que os rostos permanecem identificáveis apesar das supostas proteções de privacidade.[8] A advogada de proteção de dados Kleanthi Sardeli resumiu: uma vez que o material é alimentado nos modelos, o utilizador perde na prática o controlo sobre como é usado.[9]

A tua sala. A tua casa de banho. Os rostos dos teus filhos. Os rostos dos teus amigos. Nenhum deles concordou com isto.

3. Estão a usar dispositivos de apoio como cavalo de Tróia

A Meta apresenta os óculos como dispositivo de apoio. Nos materiais de marketing, enfatizam conveniência mãos-livres para pessoas com baixa visão, tradução em tempo real, indicações de navegação.[10] Documentos internos mostram que planearam estrear a funcionalidade de reconhecimento facial "Name Tag" numa conferência para cegos, antes de a lançar ao público geral.[11]

Este é o plano: embrulhar uma infraestrutura de vigilância numa funcionalidade genuína de acessibilidade, lançá-la através de pessoas com deficiência para construir boa vontade, e depois implantá-la em todo o lado. Cada foto que etiquetaste no Facebook desde 2010, cada publicação pública no Instagram, cada vez que a app sugeriu o nome de um amigo sobre um rosto e tu confirmaste: estavas a etiquetar dados de treino para um modelo de reconhecimento facial. Sem pensar nisso, estavas a treinar os modelos de IA da Meta e a trabalhar de graça para eles.

O RGPD exige uma base legal para o tratamento de dados pessoais. O Quénia não tem uma decisão de adequação da UE.[12] Eurodeputados italianos escreveram à Comissão Irlandesa de Proteção de Dados (que tem jurisdição principal sobre a Meta na UE) perguntando qual é a base legal deste tratamento.[13] Ninguém recebeu uma resposta clara. Isso por si só é uma resposta. As empresas tecnológicas esperam que não penses nisto.

4. Não se pode confiar na Meta

Em outubro de 2024, dois estudantes de Harvard mostraram o que os óculos tornam possível. Usando óculos Ray-Ban Meta comuns ligados ao PimEyes, um motor de reconhecimento facial comercial, identificaram desconhecidos no metro de Boston e obtiveram nomes, moradas, números de telefone e números de segurança social em segundos. Abordaram uma mulher na rua, disseram-lhe que se tinham conhecido num evento em Cambridge, e ela acreditou.[27] Fizeram-no com sistemas publicamente disponíveis, mas são capacidades a que a Meta sempre teve acesso, e com o Name Tag isto torna-se uma funcionalidade nativa.

A Meta desenvolve o Name Tag internamente desde 2025: óculos que identificam desconhecidos em tempo real.[14] Um memorando interno delineou o plano de lançar a funcionalidade "num ambiente político dinâmico onde muitos grupos da sociedade civil que esperamos que nos ataquem teriam os seus recursos focados noutras preocupações."[15]

Lê de novo. Planearam esperar que a sociedade civil estivesse distraída. Não é uma empresa a cometer um erro. É uma empresa a fazer um cálculo. Porque achas que querem explorar os tempos turbulentos em que vivemos para lançar isto?

Estão também a construir óculos "super sensing" que correm câmaras e sensores continuamente para gravar o dia inteiro do utilizador.[28] Em abril de 2025, a Meta atualizou silenciosamente a política de privacidade dos óculos, alargando o seu direito de usar todas as fotos, vídeos e áudio capturados para treino de IA, sem notificação clara aos proprietários existentes.[29] A página do produto continua a dizer "designed for privacy, controlled by you." Uma ação coletiva nos EUA apresentada em março de 2026 chama-lhe o que é: fraude.[20]

A EFF publicou um aviso em março de 2026 aconselhando os consumidores a pensar duas vezes antes de comprar os óculos Ray-Ban da Meta.[16] O EPIC escreveu à FTC e a procuradores estaduais exigindo que o Name Tag seja bloqueado antes de chegar ao mercado.[17] O ministro civil sueco Erik Slottner exigiu respostas, alertando que a combinação de dados de localização e imagens íntimas cria riscos de segurança graves.[18] O ICO do Reino Unido escreveu formalmente à Meta a solicitar informações sobre conformidade.[19] Senadores americanos exigiram respostas sobre como os transeuntes poderiam evitar ser escaneados.[21]

A Meta pagou 650 milhões de dólares para resolver uma ação coletiva no Illinois sobre recolha de geometria facial sem consentimento.[22] Em 2021 desativaram o sistema de reconhecimento facial do Facebook, alegando querer "encontrar o equilíbrio certo." As fotos e as etiquetas verificadas por humanos associadas a elas, mantiveram-nas. O mesmo com o DeepFace, o algoritmo capaz de regenerar modelos a partir de tudo isso.[30] Agora querem câmaras em milhões de rostos, com a mesma base de dados por baixo.

As multas que a Meta e outras empresas tecnológicas receberam até agora pelas suas práticas invasivas da privacidade são uma gota no oceano comparadas com as suas receitas, e todos os envolvidos sabem disso. Não é uma empresa que cometeu um erro e aprendeu. É uma empresa que inclui as multas no modelo de negócio e continua, porque sabe que a longo prazo pode ganhar muito mais continuando a violar leis e a agir contra o interesse público.

O Zuckerberg trata o teu rosto como um produto. A tua cozinha é uma fonte de dados. O teu parceiro a despir-se é material de treino para um modelo de IA e de negócio sobre o qual nunca terá controlo, revisto por um trabalhador que nunca conhecerão, para um produto com o qual ninguém consentiu. Ao Zuckerberg devia ser-lhe retirado o direito de vender hardware ao consumidor. Não vai ser. Por isso fazemos o que podemos: tornamos os óculos indesejados em todo o lado onde aparecem. Informa ou envergonha quem os usa. Proíbe-os de tua casa. Sabota os sistemas onde puderes, destrói-os se conseguires safar-te.

5. Não é só a Meta

A Meta não está sozinha. O Spotify já está a integrar suporte para óculos inteligentes na sua app.[23][24] Mais empresas na plataforma significa mais dados a circular através de mais lentes.

Óculos com câmara sem marca estão disponíveis no AliExpress por menos de 30 euros.[25] Sem indicador de gravação. Sem política de privacidade. Sem termos de serviço. Sem supervisão. Sem Zuckerberg a quem culpar. Apenas uma lente, um chip e o teu rosto no bolso de alguém e nos servidores das empresas tecnológicas, para sempre. Quando a tecnologia é barata o suficiente para ser descartável, o debate político torna-se irrelevante. Chama-se captura regulatória e é o objetivo de toda empresa tecnológica que quer fugir à legislação: torna algo suficientemente banal e torna-se politicamente impopular regular a tecnologia. É cínico, mas já funcionou antes, e as empresas tecnológicas apostam que vai funcionar outra vez.

Apple, Google e Samsung estão todas a desenvolver óculos inteligentes concorrentes para 2026 e daí em diante.[26] Isto não é o produto de uma empresa. É uma indústria inteira a convergir na ideia de que o teu rosto é uma superfície para capturar, indexar e monetizar. A questão não é se esta tecnologia se vai espalhar. Já se espalhou. A questão é se a aceitas.

Proíbe-os. Dos teus espaços, dos teus eventos, dos teus locais de trabalho. Exige políticas. Torna socialmente inaceitável apontar as câmaras das empresas tecnológicas para o teu rosto.

O que podes fazer

Pede ao teu local de trabalho, ao teu ginásio, à tua escola, ao teu bar que adote uma política contra óculos com câmara. Basta uma pessoa perguntar para que se torne uma conversa. Imprime o autocolante e cola-o na porta. Se o teu município, empresa ou espaço tem uma política para videovigilância, deveria ter uma para isto. Escreve ao teu eurodeputado, deputado ou autarquia e pergunta o que estão a fazer em relação ao reconhecimento facial e ao armazenamento de dados pessoais em produtos de consumo. Apaga ou aprende a restringir as tuas contas Meta, e está atento a como as empresas tentam introduzir esta tecnologia no teu dia-a-dia. Não são teus amigos, não estão do teu lado. Mas nós somos muito mais, e podemos travar este abuso.

Partilha esta página.

Descarrega o autocolante

Cor
Cor
Pronto a imprimir, 90×90mm
Preto e branco
Preto e branco
Para impressão monocromática
Stencil
Stencil
Para stencils, corte a laser, serigrafia

CC BY-SA 4.0 — Livre para partilhar e adaptar com atribuição