Meta quiere usar tus datos para entrenar su IA: sigue esta guía para evitarlo
Meta y la extracción consentida: una crítica a la apropiación de datos bajo el barniz de la inteligencia artificial
Meta, el coloso digital otrora conocido como Facebook, ha iniciado un nuevo capítulo en su crónica de explotación de lo íntimo bajo pretextos tecnológicos. A partir de esta primavera de 2025, los usuarios adultos de la Unión Europea que participen en Facebook, Instagram o WhatsApp verán cómo sus contenidos públicos —fotos, publicaciones, comentarios, nombres— son absorbidos por los engranajes de entrenamiento de los modelos de inteligencia artificial de la empresa. Lo que antes se ofrecía a una comunidad, ahora se ofrece al cálculo algorítmico.
La maniobra, en apariencia legal tras el aval formal de la Junta Europea de Protección de Datos, despierta sin embargo una inquietud profunda: ¿hasta qué punto el consentimiento es genuino cuando se camufla entre correos electrónicos y formularios de renuncia? Meta afirma que este procedimiento cumple la legislación vigente, pero lo hace mediante un modelo opt-out, que presupone el consentimiento salvo que el usuario actúe para revocarlo. No se informa de forma clara y masiva; se ejecuta en los márgenes, entre clics, esperando la pasividad del usuario como estrategia.
La justificación de Meta —mejorar la comprensión lingüística, captar matices culturales como el sarcasmo europeo— no oculta lo esencial: los modelos de IA se alimentan de nosotros, y lo hacen sin transparencia real. El ciudadano europeo, teóricamente protegido por una de las legislaciones más garantistas del planeta, es convertido en material de entrenamiento bajo una lógica que trivializa su derecho a la autodeterminación informativa. No es una cesión: es una absorción.
En un contexto de creciente vigilancia digital, este anuncio de Meta no puede desvincularse de las tensiones políticas y económicas que la rodean. La empresa se encuentra inmersa en un juicio por prácticas monopolísticas, que podría desembocar en la escisión de Instagram y WhatsApp. Además, la reciente aproximación de Mark Zuckerberg a los postulados ideológicos del trumpismo tecnológico —con su cruzada contra lo «woke» y su crítica al sesgo progresista de las IA— revela una deriva preocupante: los algoritmos no solo aprenden, también reproducen el mundo de quien los entrena.
Paradójicamente, mientras Meta promete eliminar los sesgos de sus modelos, investigaciones académicas recientes han demostrado que LLaMA 4, su modelo más avanzado, presenta una inclinación notable hacia la derecha ideológica, superando incluso a sus competidores. La empresa, lejos de ocultarlo, lo enmarca como una forma de equilibrio, cuando en realidad puede suponer una normalización de discursos reaccionarios bajo la apariencia de objetividad algorítmica.
Frente a este panorama, existen mecanismos de oposición. Formularios habilitados por la propia Meta —con una opacidad deliberada en su difusión— y herramientas externas como las desarrolladas por el colectivo Citizen8, que automatizan la revocación del consentimiento. Pero la carga de la defensa sigue recayendo en el usuario, no en el ente corporativo.
Lo que está en juego no es únicamente la privacidad, sino la soberanía digital. El remolino de avances en inteligencia artificial no puede legitimar que nuestras voces, imágenes y gestos públicos sean secuestrados sin un consentimiento informado y activo. La promesa de un asistente más inteligente no puede construirse sobre el vaciamiento ético del individuo.
Meta no está construyendo inteligencia artificial. Está construyendo poder artificial, nutrido de nuestras vidas, nuestros lenguajes y nuestras ironías. Frente a eso, resistir no es paranoia. Es sentido común.