La ANPD de Brasil prohíbe temporalmente a Meta procesar datos personales para entrenar algoritmos de IA, citando hipótesis legales inadecuadas y falta de transparencia. La actualización de los términos de la red social permite el uso de contenido público de Facebook, Messenger e Instagram para el entrenamiento de IA, lo que preocupa a la ANPD.
Un informe reciente de Human Rights Watch reveló que el conjunto de datos LAION-5B usado para entrenar modelos de IA contiene enlaces a fotos identificables de niños brasileños, exponiéndolos a riesgos de deepfakes maliciosos. Esta acción vulnera la Ley General de Protección de Datos Personales (LGPD) de Brasil y podría causar daños graves.
Brasil tiene aproximadamente 102 millones de usuarios activos, lo que convierte a este mercado en uno de los más grandes del mundo. La ANPD considera que la actualización de Meta representa un riesgo inminente de daños graves e irreparables para los derechos fundamentales de los titulares de datos afectados, y ha impuesto multas diarias hasta que Meta cumpla con la orden.
En respuesta, Meta afirmó que su política cumple con las leyes de privacidad en Brasil y que la decisión representa un retroceso para la innovación. La red social ha enfrentado críticas similares en la Unión Europea por el uso de datos de usuarios para entrenar sus modelos de IA sin consentimiento explícito.
El presidente de asuntos globales de Meta ha expresado que la Unión Europea ya no es un terreno fértil para la innovación. Mientras tanto, Cloudflare ha lanzado una herramienta para evitar que los bots de IA obtengan información de los sitios web de sus clientes para entrenar grandes modelos de lenguaje (LLMs). Esta herramienta se actualizará automáticamente para proteger la información de la web de forma continua.
Vía The Hacker News