Nueva técnica de ataque Sleepy Pickle dirigida a los modelos de aprendizaje automático

Un reciente descubrimiento ha resaltado los riesgos de seguridad asociados con el formato pickle. La nueva técnica de explotación, denominada Sleepy Pickle, focaliza en los modelos híbridos de aprendizaje automático, poniendo en peligro la cadena de suministro de las organizaciones.

Según el investigador de seguridad Boyan Milanov, Sleepy Pickle es un método sigiloso que ataca directamente el modelo de aprendizaje automático, utilizando el formato pickle para corromper el modelo durante la deserialización. Este formato es comúnmente utilizado por bibliotecas de aprendizaje automático como PyTorch.

La función de Sleepy Pickle implica la inserción de una carga útil en un archivo pickle, que luego se distribuye a un host objetivo mediante distintas técnicas de ataque. Una vez que el archivo es deserializado en el sistema de la víctima, la carga útil modifica el modelo para insertar puertas traseras, manipular los datos procesados o controlar las salidas.

Este enfoque podría llevar a la generación de salidas perjudiciales o desinformación, el robo de datos de usuario y la manipulación de resúmenes de noticias para atacar a los usuarios. Según Trail of Bits, esta técnica permite a los actores de amenazas mantener un acceso furtivo en sistemas de aprendizaje automático, de manera que evita ser detectada.

En resumen, Sleepy Pickle representa un peligro significativo para la seguridad, al explotar debilidades en la cadena de suministro a través de las conexiones entre los componentes de software subyacentes y la aplicación final. Las organizaciones y usuarios de modelos de aprendizaje automático deben ser cautelosos al cargar archivos pickle para prevenir posibles ataques.

Vía The Hacker News