Home Tecnología Modelos de aprendizaje automático malicioso descubiertos en la cara de abrazo: informe

Modelos de aprendizaje automático malicioso descubiertos en la cara de abrazo: informe

6
0

Se cube que abrazar la cara, la inteligencia synthetic (IA) y el centro de aprendizaje automático (ML) contienen modelos ML maliciosos. Una firma de investigación de ciberseguridad descubrió dos de estos modelos que contienen código que se pueden usar para empaquetar y distribuir malware a aquellos que descargan estos archivos. Según los investigadores, los actores de amenaza están utilizando un método difícil de detectar, la serialización del archivo de encurtidos denominado, para insertar software program malicioso. Los investigadores afirmaron haber informado de los modelos ML Maliciosos, y abrazar la cara los ha eliminado de la plataforma.

Los investigadores descubren modelos de ML maliciosos en la cara abrazada

ReversingLabs, una firma de investigación de ciberseguridad, descubierto Los modelos de ML maliciosos y detallaron la nueva exploit utilizada por los actores de amenaza en la cara abrazada. En explicit, una gran cantidad de desarrolladores y empresas organizan modelos de IA de código abierto en la plataforma que otros pueden descargar y usar.

La firma descubrió que el modus operandi de la exploit implica el uso de la serialización del archivo de pickle. Para los desconocidos, los modelos ML se almacenan en una variedad de formatos de serialización de datos, que se pueden compartir y reutilizar. Pickle es un módulo Python que se utiliza para serializar y deserializar datos del modelo ML. Generalmente se considera un formato de datos inseguro ya que el código de Python se puede ejecutar durante el proceso de deserialización.

En las plataformas cerradas, los archivos de Pickle tienen acceso a datos limitados que provienen de fuentes confiables. Sin embargo, dado que abrazar la cara es una plataforma de código abierto, estos archivos se utilizan ampliamente, lo que permite a los atacantes abusar del sistema para ocultar las cargas útiles de malware.

Durante la investigación, la firma encontró dos modelos en la cara de abrazo que contenía código malicioso. Sin embargo, se dijo que estos modelos de ML escapaban de las medidas de seguridad de la plataforma y no se marcaban como inseguras. Los investigadores nombraron la técnica de insertar malware “nullifai” como “implica evadir las protecciones existentes en la comunidad de IA para un modelo ML”.

Estos modelos se almacenaron en formato Pytorch, que es esencialmente un archivo de encurtido comprimido. Los investigadores encontraron que los modelos se comprimieron utilizando el formato 7Z que les impidió cargar la función “Torch.load ()” de Pytorch. Esta compresión también evitó que abrazar la herramienta Picklescan de Face detectar el malware.

Los investigadores afirmaron que esta exploit puede ser peligrosa ya que los desarrolladores desprevenidos que descargan estos modelos terminarán instalando el malware en sus dispositivos. La firma de ciberseguridad informó el problema al equipo de seguridad de la cara abrazada el 20 de enero y afirmó que los modelos fueron eliminados en menos de 24 horas. Además, se cube que la plataforma ha realizado cambios en la herramienta Picklescan para identificar mejor tales amenazas en archivos de pepinillos “rotos”.

fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here