Microsoft y OpenAI alertan sobre el uso de la IA por parte de hackers respaldados por gobiernos para ataques cibernéticos

Microsoft y OpenAI han publicado un informe que revela que varios actores estatales, incluidos Rusia, Corea del Norte, Irán y China, están aprovechando la inteligencia artificial (IA) y los modelos de lenguaje para refinar sus tácticas de ciberataque. Aunque todavía no se han detectado ataques importantes empleando técnicas de IA, Microsoft ha informado que han interrumpido los esfuerzos de cinco actores afiliados al Estado que han utilizado los servicios de IA de la compañía para llevar a cabo actividades cibernéticas maliciosas. A estos actores se les han cerrado sus cuentas y activos.

En el informe, Microsoft afirmó que el soporte del lenguaje es una característica natural de los LLMs que atrae a los actores de amenazas que utilizan técnicas de ingeniería social y otros engaños para adaptarse a los trabajos, redes profesionales y otras relaciones de sus objetivos.

Los actores de amenazas han utilizado las ofertas de IA para consultar información de código abierto, traducir, encontrar errores de codificación, ejecutar tareas básicas de codificación y llevar a cabo investigaciones en una variedad de áreas. Por ejemplo, el grupo de estado nación ruso Forest Blizzard (también conocido como APT28) habría utilizado las ofertas de IA para realizar investigaciones de código abierto sobre protocolos de comunicación satelital y tecnología de imágenes de radar, así como para apoyar en tareas de script.

Además, el informe señala que varios actores de amenazas de China, Corea del Norte, Irán y Rusia han utilizado ampliamente la inteligencia artificial para lograr sus objetivos malintencionados. Por ejemplo, Emerald Sleet (también conocido como Kimusky), un actor de amenazas norcoreano, ha usado LLMs para identificar expertos, grupos de expertos y organizaciones centrados en temas de defensa en la región Asia-Pacífico. Crimson Sandstorm (también conocido como Imperial Kitten), un actor de amenazas iraní que ha usado LLMs para crear fragmentos de código relacionados con la aplicación y el desarrollo web, generar correos electrónicos de phishing e investigar formas comunes de malware que podrían evadir la detección.

Microsoft está formulando un conjunto de principios para reducir el riesgo de uso malintencionado de herramientas y APIs de IA por parte de amenazas persistentes avanzadas (APTs), manipuladores avanzados persistentes (APMs) y sindicatos de cibercrimen, y concebir guardrails y mecanismos de seguridad efectivos alrededor de sus modelos. Redmond también ha destacado la importancia de la notificación de actores de amenazas maliciosas y la colaboración con otras partes interesadas para mitigar los riesgos.

Vía The Hacker News