La IA generativa ha provocado tantos conflictos como tiene innovaciones, especialmente cuando se trata de infraestructura de seguridad.
El proveedor de seguridad empresarial Cato Networks cube que ha descubierto una nueva forma de manipular los chatbots de IA. El martes, la compañía publicó su 2025 Informe de amenaza de CATO CTRLque mostraba cómo un investigador, que aclara Cato aclara “no tenía experiencia previa en codificación de malware”, pudo engañar a los modelos, incluidos Deepseek R1 y V3, Microsoft Copilot y el GPT-4O de Openi, para crear infantes de cromo “completamente funcionales” o malware que roba información de registro guardada de la cromo. Esto puede incluir contraseñas, información financiera y otros detalles confidenciales.
Además: esta nueva herramienta le permite ver cuánto de sus datos están expuestos en línea, y es free of charge
“El investigador creó un mundo ficticio detallado donde cada herramienta Gen AI desempeñaba papeles, con tareas y desafíos asignados”, acompañando a Cato liberar explica. “A través de esta ingeniería narrativa, el investigador pasó por alto los controles de seguridad y las operaciones restringidas efectivamente normalizadas”.
Paso 1 del enfoque inmersivo mundial de jailbreak de Cato.
Redes de Cato
Técnica del mundo inmersivo
La nueva técnica de jailbreak, que Cato llama “mundo inmersivo”, es especialmente alarmante dado lo ampliamente utilizados que son los chatbots que ejecutan estos modelos. Ya se sabe que los modelos de Deepseek carecen de varias barandillas y han sido fácilmente jailbroken, pero Copilot y GPT-4O están dirigidos por compañías con equipos de seguridad completos. Si bien las formas más directas de Jailbreaking pueden no funcionar tan fácilmente, la técnica del mundo inmersivo revela cuán porosas todavía son las rutas indirectas.
También: Por qué las herramientas de seguridad con IA son su arma secreta contra los ataques de mañana
“Nuestra nueva técnica LLM Jailbreak […] Debería haber sido bloqueado por Gen Ai GuardRails. No fue “, dijo Etay Maor, el principal estratega de seguridad de Cato.
Cato señala en su informe que notificó a las empresas relevantes de sus hallazgos. Si bien Deepseek no respondió, OpenAi y Microsoft reconocieron el recibo. Google también reconoció el recibo, pero se negó a revisar el código de CATO cuando la compañía ofreció.
Una campana de alarma
Cato marca la técnica como una alarma para los profesionales de la seguridad, ya que muestra cómo cualquier individuo puede convertirse en un actor de amenaza de conocimiento cero para una empresa. Debido a que hay cada vez más pocas barreras de entrada al crear con chatbots, los atacantes requieren menos experiencia por adelantado para tener éxito.
También: Cómo AI transformará la ciberseguridad y el delito cibernético de sobrealimentación
La solución? Estrategias de seguridad basadas en IA, según Cato. Al centrar la capacitación de seguridad en la siguiente fase del panorama de la seguridad cibernética, los equipos pueden mantenerse a la vanguardia de las amenazas a la IA a medida que continúan evolucionando. Echa un vistazo a los consejos de este experto para preparar mejor las empresas.
Manténgase por delante de las noticias de seguridad con Tecnología hoyentregado a su bandeja de entrada todas las mañanas.