El Debate de la IA: las Directrices de Google, la Disputa de Meta con el GDPR, el Rechazo del Retiro de Microsoft

Google está fomentando el uso responsable de la inteligencia artificial generativa (GenAI) entre los desarrolladores de aplicaciones de terceros de Android. Las nuevas directrices de Google buscan evitar la creación de contenido problemático, como el contenido sexual y el discurso de odio, a través de herramientas de inteligencia artificial.

Las aplicaciones que utilizan inteligencia artificial para generar contenido deben asegurarse de no crear Contenido Restringido. También deben proporcionar a los usuarios un mecanismo para reportar información ofensiva y representar con precisión las capacidades de la aplicación al comercializarlas. Se recomienda a los desarrolladores probar exhaustivamente los modelos de IA para garantizar la seguridad y la privacidad del usuario.

Prabhat Sharma, director de confianza y seguridad para Google Play, Android y Chrome, instó a los desarrolladores a probar sus aplicaciones en diversos escenarios de usuario y protegerlas contra mensajes que puedan manipular la función de IA generativa para crear contenido perjudicial u ofensivo.

La rápida adopción de tecnologías de IA ha suscitado preocupaciones sobre la privacidad y la seguridad de los datos de entrenamiento, dando a los actores malintencionados la oportunidad de extraer información sensible y manipular los modelos subyacentes.

Por otra parte, la decisión de Meta de usar información pública disponible en sus productos y servicios para mejorar sus ofertas de IA ha generado quejas en varios países europeos por supuestas violaciones de las leyes de privacidad GDPR en la región.

La empresa enfrenta críticas por trasladar la responsabilidad a los usuarios y no proporcionar información adecuada sobre el uso de los datos del cliente. Aunque Meta destaca que su enfoque sigue las prácticas comunes en el desarrollo de experiencias de IA en Europa, la autoridad noruega de protección de datos expresó dudas sobre la legalidad del proceso.

Mientras tanto, la función impulsada por IA de Microsoft llamada Recall ha sido criticada por posibles riesgos de privacidad y seguridad al capturar capturas de pantalla de las actividades de los usuarios en PCs con Windows cada cinco segundos y convertirlas en un archivo buscable.

Investigadores han demostrado que herramientas como TotalRecall pueden extraer información altamente sensible de la base de datos de Recall. Windows Recall almacena todo localmente en una base de datos SQLite no cifrada, lo cual ha despertado preocupaciones sobre la exposición de la información.

Se espera que Recall esté habilitado de forma predeterminada en PCs compatibles con Copilot+ a finales de este mes. Sin embargo, Microsoft puede realizar cambios en la aplicación antes de que esté disponible para todos los usuarios.

Vía The Hacker News