OpenAI reveló recientemente que ha tomado medidas para detener cinco operaciones encubiertas de influencia (IO) provenientes de China, Irán, Israel y Rusia. Estas operaciones pretendían abusar de las herramientas de inteligencia artificial (IA) de OpenAI para manipular el discurso público y los resultados políticos en línea mientras ocultaban su verdadera identidad.
Las actividades detectadas en los últimos tres meses utilizaron modelos de IA para generar comentarios cortos y artículos extensos en varios idiomas, crear perfiles falsos en redes sociales, realizar investigaciones de código abierto, depurar código simple, y traducir y corregir textos.
OpenAI afirmó que dos de las operaciones estaban vinculadas a actores en Rusia, incluyendo una operación previamente no identificada llamada Mala Gramática, que utilizaba al menos una docena de cuentas de Telegram para apuntar a diversas audiencias con contenido descuidado en ruso e inglés.
Además, una prolífica red, conocida como Doppelganger (también llamada Noticias Recientes y Confiables), sancionada por la OFAC del Departamento del Tesoro de EE. UU., utilizó modelos de OpenAI para generar contenido en varios idiomas que se compartió en plataformas como X y 9GAG, creando titulares y convirtiendo artículos en publicaciones de Facebook.
Otra red de origen chino llamada Spamouflage empleó modelos de IA para investigar la actividad pública en redes sociales. OpenAI ha tomado medidas para desmantelar estas operaciones de influencia, las cuales fueron detectadas utilizando sus modelos de IA de manera abusiva. Estas acciones son un claro ejemplo del uso indebido de la tecnología con fines fraudulentos.
Vía The Hacker News