BanRay campaign sticker: a red prohibition sign over camera-equipped glasses

Ban Ray

* Las versiones no suecas de este texto están traducidas por IA pero revisadas por humanos.

En 2025, Meta vendió más de siete millones de gafas (lentes) con cámara que parecen Ray-Ban normales.[1] La persona que las lleva parece cualquier otra persona. Pero estas personas son ahora productos, al igual que todos con quienes interactúan.

1. No sabes qué pasa con los datos

Un estudio conjunto de los diarios suecos Svenska Dagbladet y Göteborgs-Posten reveló que las grabaciones que generan las gafas Ray-Ban de Meta se envían a Sama, un subcontratista en Nairobi, Kenia.[2] Los trabajadores ahí describen cómo revisan vídeos con personas desvistiéndose, usando el baño, manteniendo relaciones sexuales e introduciendo datos de tarjetas de crédito. "Lo vemos todo", dijo un trabajador.[3]

La función de IA que hace esto posible no se puede desactivar. Si usas el asistente de voz, tu vídeo y audio se procesan en los servidores de Meta, y de ahí pueden ser reenviados para revisión humana.[4] Está en los términos de servicio, los mismos términos que un trabajador de Sama dijo que la mayoría de los usuarios nunca lee.

Empleados de ópticas afirman que "todo se queda localmente en la app", pero cuando los periodistas analizaron el tráfico de red, encontraron comunicación constante con servidores de Meta.[5]

Se ha preguntado repetidamente a Meta adónde van las grabaciones, si las de países como Suecia son revisadas por trabajadores en el extranjero, qué salvaguardas existen y durante cuánto tiempo se almacenan. Como respuesta, remiten a su política de privacidad.[6]

La página del producto todavía dice: "Designed for privacy, controlled by you."

2. Los espacios privados ya no existen

Cuando alguien con estas gafas entra en tu cocina, tu dormitorio, la consulta de tu médico, tu lugar de culto, una protesta: cada persona a su alcance se convierte en materia prima para el entrenamiento de IA. Las personas grabadas nunca dieron su consentimiento y no tienen forma de saber si sus rostros se usan en un conjunto de datos al otro lado del mundo.

Un trabajador de Sama describió cómo un hombre dejó sus gafas en la mesita de noche. Su esposa entró y se desvistió. No tenía ni idea.[7]

Ex empleados de Meta han indicado que los protocolos de anonimización fallan bajo ciertas condiciones de luz, lo que significa que los rostros siguen siendo identificables a pesar de las supuestas protecciones de privacidad.[8] La abogada de protección de datos Kleanthi Sardeli lo resumió: una vez que el material se ha alimentado a los modelos, el usuario pierde en la práctica el control sobre cómo se usa.[9]

Tu salón. Tu baño. Las caras de tus hijos. Las caras de tus amigos. Ninguno de ellos aceptó esto.

3. Usan dispositivos de ayuda como caballo de Troya

Meta presenta las gafas como tecnología asistiva. En materiales de marketing enfatizan la comodidad manos libres para personas con baja visión, traducción en directo, indicaciones de navegación.[10] Documentos internos muestran que planeaban estrenar la función de reconocimiento facial "Name Tag" en una conferencia para ciegos, antes de lanzarla al público general.[11]

Este es el plan: envolver una infraestructura de vigilancia en una función genuina de accesibilidad, lanzarla a través de personas con discapacidad para generar buena voluntad, y luego desplegarla en todas partes. Cada foto que etiquetaste en Facebook desde 2010, cada publicación pública en Instagram, cada vez que la app sugirió el nombre de un amigo sobre un rostro y tú confirmaste: estabas etiquetando datos de entrenamiento para un modelo de reconocimiento facial. Sin pensarlo, estabas entrenando los modelos de IA de Meta y trabajando gratis para ellos.

El RGPD (Reglamento General de Protección de Datos) de la UE, exige una base legal para el tratamiento de datos personales. Kenia no tiene una decisión de adecuación de la UE.[12] Eurodiputados italianos han escrito a la Comisión Irlandesa de Protección de Datos (que tiene jurisdicción principal sobre Meta en la UE) preguntando bajo qué base legal se realiza este tratamiento.[13] Nadie ha recibido una respuesta clara. Eso en sí mismo es una respuesta. Las empresas tecnológicas esperan que no pienses en esto.

4. No se puede confiar en Meta para esto

En octubre de 2024, dos estudiantes de Harvard mostraron lo que las gafas hacen posible. Usando gafas Ray-Ban Meta corrientes conectadas a PimEyes, un motor de reconocimiento facial comercial, identificaron a desconocidos en el metro de Boston y obtuvieron nombres, direcciones, números de teléfono y números de seguridad social en segundos. Abordaron a una mujer en la calle, le dijeron que se habían conocido en un evento en Cambridge, y ella les creyó.[27] Lo hicieron con sistemas públicamente disponibles, pero son capacidades a las que Meta siempre ha tenido acceso, y con Name Tag esto se convierte en una función integrada.

Meta lleva desarrollando Name Tag internamente desde 2025: gafas que identifican a desconocidos en tiempo real.[14] Un memorando interno delineó el plan de lanzar la función "en un entorno político dinámico donde muchos grupos de la sociedad civil que esperamos que nos ataquen tendrían sus recursos enfocados en otras preocupaciones."[15]

Lee eso de nuevo. Planearon esperar a que la sociedad civil estuviera distraída. Esto no es una empresa cometiendo un error. Es una empresa haciendo un cálculo. ¿Por qué crees que quieren explotar los tiempos turbulentos que vivimos para lanzar esto?

También están construyendo gafas "super sensing" que ejecutan cámaras y sensores continuamente para grabar el día entero del usuario.[28] En abril de 2025, Meta actualizó silenciosamente la política de privacidad de las gafas, ampliando su derecho a usar todas las fotos, vídeos y audio capturados para entrenamiento de IA, sin notificación clara a los propietarios existentes.[29] La página del producto sigue diciendo "designed for privacy, controlled by you." Una demanda colectiva en EE.UU. presentada en marzo de 2026 lo llama como es: fraude.[20]

La EFF publicó un aviso en marzo de 2026 instando a los consumidores a pensarlo dos veces antes de comprar las gafas Ray-Ban de Meta.[16] EPIC escribió a la FTC y a fiscales estatales exigiendo que Name Tag sea bloqueado antes de llegar al mercado.[17] El ministro civil sueco Erik Slottner ha exigido respuestas, advirtiendo que la combinación de datos de ubicación e imágenes íntimas crea riesgos de seguridad graves.[18] El ICO del Reino Unido ha escrito formalmente a Meta solicitando información sobre cumplimiento.[19] Senadores estadounidenses han exigido respuestas sobre cómo los transeúntes podrían evitar ser escaneados.[21]

Meta pagó 650 millones de dólares para resolver una demanda colectiva en Illinois por recopilación de geometría facial sin consentimiento.[22] En 2021 desactivaron su sistema de reconocimiento facial en Facebook, alegando que querían "encontrar el equilibrio correcto." Las fotos y las etiquetas verificadas por humanos asociadas a ellas, las conservaron. Lo mismo con DeepFace, el algoritmo capaz de regenerar plantillas a partir de todo ello.[30] Ahora quieren cámaras en millones de rostros, con la misma base de datos debajo.

Las multas que Meta y otras empresas tecnológicas han recibido hasta ahora por sus prácticas invasivas de la privacidad son una gota en el océano comparadas con sus ingresos, y todos los involucrados lo saben. No es una empresa que cometió un error y aprendió. Es una empresa que incluye las multas en el modelo de negocio y sigue adelante, porque sabe que a largo plazo puede ganar muchas veces más siguiendo violando leyes y actuando contra el interés público.

Zuckerberg trata tu cara como un producto. Tu cocina es una fuente de datos. Tu pareja desvistiéndose es material de entrenamiento para un modelo de IA y negocio sobre el que nunca tendrá control, revisado por un trabajador al que nunca conoceréis, para un producto al que nadie consintió. A Zuckerberg se le debería retirar el derecho a vender hardware de consumo. No lo harán. Así que hacemos lo que podemos: hacemos las gafas indeseables en todas partes donde aparezcan. Informa o avergüenza a quienes las llevan. Prohíbelas en tu hogar. Sabotea los sistemas donde puedas, destrúyelos si puedes salirte con la tuya.

5. No es solo Meta

Meta no está sola. Spotify ya está integrando soporte para gafas inteligentes en su app.[23][24] Más empresas en la plataforma significa más datos fluyendo a través de más lentes.

Gafas con cámara sin marca están disponibles en AliExpress por menos de 30 euros.[25] Sin indicador de grabación. Sin política de privacidad. Sin términos de servicio. Sin supervisión. Sin Zuckerberg a quien culpar. Solo una lente, un chip y tu cara en el bolsillo de alguien y en los servidores de las empresas tecnológicas, para siempre. Cuando la tecnología es lo suficientemente barata como para ser desechable, el debate político se vuelve irrelevante. Esto se llama captura regulatoria y es el objetivo de toda empresa tecnológica que quiere adelantarse a la legislación: haz algo lo suficientemente cotidiano y se vuelve políticamente impopular regular la tecnología. Es cínico, pero ha funcionado antes, y las empresas tecnológicas apuestan a que funcionará de nuevo.

Apple, Google y Samsung están desarrollando gafas inteligentes competidoras para 2026 y más allá.[26] Esto no es el producto de una sola empresa. Es toda una industria convergiendo en la idea de que tu rostro es una superficie para capturar, indexar y monetizar. La pregunta no es si esta tecnología se extenderá. Ya lo ha hecho. La pregunta es si la aceptas.

Prohíbelas. De tus espacios, tus eventos, tus lugares de trabajo. Exige políticas. Haz que sea socialmente inaceptable apuntar las cámaras de las empresas tecnológicas hacia tu cara.

Qué puedes hacer

Pide a tu lugar de trabajo, tu gimnasio, tu escuela, tu bar que adopte una política contra las gafas con cámara. Basta con que una persona lo pregunte para que se convierta en una conversación. Imprime la pegatina y pégala en la puerta. Si tu municipio, empresa o local tiene una política de videovigilancia, debería tener una para esto. Escribe a tu eurodiputado, diputado nacional o concejal y pregunta qué están haciendo respecto al reconocimiento facial y el almacenamiento de datos personales en productos de consumo. Elimina o aprende a restringir tus cuentas de Meta, y estate alerta a cómo las empresas intentan colar esta tecnología en tu vida cotidiana. No son tus amigos, no están de tu lado. Pero somos muchos más, y podemos detener este abuso.

Comparte esta página.

Descarga la pegatina

Color
Color
Lista para imprimir, 90×90mm
Blanco y negro
Blanco y negro
Para impresión monocolor
Plantilla
Plantilla
Para plantillas, corte láser, serigrafía

CC BY-SA 4.0 — Libre para compartir y adaptar con atribución