Investigadores identifican más de 20 vulnerabilidades en la cadena de suministro en plataformas MLOps

Los investigadores de ciberseguridad están advirtiendo sobre un conjunto de más de 20 vulnerabilidades que han sido descubiertas en plataformas de MLOps, lo que podría representar riesgos significativos en la cadena de suministro de software de aprendizaje automático (ML). Estas vulnerabilidades se describen como fallas inherentes e implementativas que podrían tener serias consecuencias, desde la ejecución de código arbitrario hasta la carga de conjuntos de datos maliciosos.

Estas vulnerabilidades se refieren a las plataformas de MLOps, que permiten el diseño y la ejecución de modelos de ML, y que cuentan con un registro de modelos. Este registro actúa como un repositorio para almacenar y versionar modelos de ML capacitados. Posteriormente, dichos modelos se integran en aplicaciones o se ponen a disposición de otros clientes a través de una API (también conocido como modelo como servicio).

Según los investigadores de JFrog, las vulnerabilidades inherentes están relacionadas con los formatos subyacentes y los procesos utilizados en la tecnología objetivo. Esto incluye el abuso de modelos de ML para la ejecución de código malicioso y la carga de conjuntos de datos maliciosos. Algunos ejemplos específicos incluyen el abuso de modelos de ML para ejecutar código de elección del atacante y el manejo de la salida HTML al ejecutar bloques de código en Jupyter.

Además, se identificaron debilidades de implementación, como la falta de autenticación en las plataformas de MLOps. Esto potencialmente permite que un actor malintencionado con acceso a la red obtenga capacidades de ejecución de código al abusar de la función de Pipeline de ML. Estas vulnerabilidades no son meramente teóricas, ya que se ha observado a adversarios financieramente motivados abusar de tales vacíos para desplegar mineros de criptomonedas.

Otro tipo de vulnerabilidad de implementación es una fuga de contenedores que apunta a Seldon Core y permite a los atacantes moverse lateralmente en el entorno de la nube y acceder a modelos y conjuntos de datos de otros usuarios. Esto se logra mediante la carga de un modelo malicioso en el servidor de inferencia. La divulgación de estas vulnerabilidades llega en un momento en el que se están revelando fallos de seguridad en aplicaciones basadas en inteligencia artificial, así como técnicas para contaminar conjuntos de datos de entrenamiento con el fin de engañar a los grandes modelos de lenguaje para producir código vulnerable.

En resumen, los investigadores están advirtiendo sobre los riesgos asociados con las vulnerabilidades en las plataformas de MLOps, y destacan la necesidad de abordar y mitigar estas cuestiones para proteger la integridad y seguridad de los sistemas de aprendizaje automático.

Vía The Hacker News