Home Tecnología Cómo los agentes de IA ayudan a los piratas informáticos a robar...

Cómo los agentes de IA ayudan a los piratas informáticos a robar sus datos confidenciales y qué hacer al respecto

6
0

Sean Gladwell/Getty Photos

Como muchas personas, los ciberdelincuentes están utilizando inteligencia synthetic para ayudarlos a trabajar más rápido, más fácil y más inteligente. Con bots automatizados, adquisiciones de cuentas e ingeniería social, un estafador inteligente sabe cómo mejorar sus tácticas habituales con un giro de IA. A Nuevo informe de Gartner Muestra cómo se está desarrollando esto ahora y cómo puede empeorar en el futuro cercano.

Las adquisiciones de cuentas se han convertido en un área de ataque persistente por una razón importante: la autenticación débil, dijo el analista del vicepresidente de Gartner, Jeremy D’Hoinne. Los atacantes pueden usar varios métodos para acceder a las contraseñas de cuentas, incluidas las violaciones de datos e ingeniería social.

También: Navegación de amenazas cibernéticas con IA en 2025: 4 Consejos de seguridad de expertos para empresas

Una vez que se compromete una contraseña, IA interviene. Los cibercriminales utilizarán bots de IA automatizados para generar múltiples intentos de inicio de sesión en una gama de servicios. El objetivo es ver si esas mismas credenciales se utilizan en múltiples plataformas y, con suerte, que serán lucrativas.

Encuentre el tipo correcto de sitio, y el felony puede recopilar todos los datos relacionados para una toma de cuenta completa. Si el hacker no quiere llevar a cabo el ataque ellos mismos, siempre pueden vender la información en la internet oscura, donde los compradores dispuestos la agarrarán.

“La adquisición de cuentas (ATO) sigue siendo un vector de ataque persistente porque las credenciales de autenticación débiles, como las contraseñas, se recopilan por una variedad de medios que incluyen violaciones de datos, phishing, ingeniería social y malware”, dijo D’OnneNne en el informe. “Los atacantes luego aprovechan los bots para automatizar un aluvión de intentos de inicio de sesión en una variedad de servicios con la esperanza de que las credenciales se hayan reutilizado en múltiples plataformas”.

Con IA ahora en su arsenal, los atacantes pueden automatizar más fácilmente los pasos requeridos para una toma de cuenta. A medida que esta tendencia crece, Gartner predice que el tiempo necesario para hacerse cargo de una cuenta disminuirá en un 50% en otros dos años.

Más allá de ayudar con las adquisiciones de cuentas, la IA puede ayudar a los ciberdelincuentes a llevar a cabo campañas de Deepfake. Incluso ahora, los atacantes están utilizando una combinación de tácticas de ingeniería social con audio y video de Deepfake. Al llamar a un empleado desprevenido y falsificar la voz de un contacto o ejecutivo de confianza, el estafador espera engañarlos para que transfieran dinero o divulgan información confidencial.

Solo se han reportado unos pocos casos de alto perfil, pero han resultado en grandes daños financieros para las empresas víctimas. Detectar una voz de Deepfake sigue siendo un desafío, especialmente en las llamadas de voz y video de persona a persona. Con esta tendencia creciente, Gartner espera que el 40% de los ataques de ingeniería social se dirigen a los ejecutivos y a la fuerza laboral normal para 2028.

También: ¿Quieres ganar en la period de la IA? Puede construirlo o construir su negocio con él

“Las organizaciones tendrán que mantenerse al tanto del mercado y adaptar los procedimientos y los flujos de trabajo en un intento por resistir mejor los ataques que aprovechan las técnicas de realidad falsificadas”, dijo Manuel Acosta, analista senior director de Gartner. “Educar a los empleados sobre el panorama de amenazas en evolución mediante el uso de la capacitación específica de la ingeniería social con Deepfakes es un paso clave”.

Frustrar los ataques impulsados ​​por la IA

¿Cómo pueden las personas y las organizaciones frustrar este tipo de ataques con IA?

“Para combatir los desafíos emergentes de los ataques impulsados ​​por la LA AI, las organizaciones deben aprovechar las herramientas que funcionan con IA que pueden proporcionar visibilidad de entorno en tiempo actual granular y alerta para aumentar los equipos de seguridad”, dijo Nicole Carignan, vicepresidente senior de seguridad y estrategia de IA en el proveedor de seguridad DarkTrace.

También: 7 reglas de contraseña esencial a seguir, según expertos en seguridad

“Cuando sea apropiado, las organizaciones deben adelantarse a las nuevas amenazas integrando la respuesta impulsada por la máquina, ya sea en modos autónomos o humanos en el bucle, para acelerar la respuesta del equipo de seguridad”, explicó Carignan. “A través de este enfoque, la adopción de tecnologías de IA, como soluciones con capacidades de detección basadas en anomalías que pueden detectar y responder a amenazas nunca antes vistas, puede ser instrumental para mantener las organizaciones seguras”.

Otras herramientas que pueden ayudarlo a protegerlo contra el compromiso de la cuenta son la autenticación multifactor y la verificación biométrica, como los escaneos faciales o de huellas digitales.

“Los ciberdelincuentes no solo dependen de las credenciales robadas, sino también en la manipulación social, a violar las protecciones de identidad”, dijo James Scobey, director de seguridad de la información de Keeper Safety. “Los defectos profundos son una preocupación explicit en esta área, ya que los modelos de IA hacen que estos métodos de ataque de ataque más rápidos, más baratos y más convincentes. A medida que los atacantes se vuelven más sofisticados, la necesidad de métodos de verificación de identidad más fuertes y más dinámicos, como la autenticación multifactor (MFA) y la biometría de biométrica será very important para defender a estas amenazas progresivas.

También: las estafas fiscales se están volviendo más picantes: 10 maneras de protegerse antes de que sea demasiado tarde

En su informe, Gartner también ofreció algunos consejos para lidiar con la ingeniería social y los ataques de defake.

  • Educar a los empleados. Proporcionar a los empleados una capacitación relacionada con la ingeniería social y los profundos. Pero no confíe únicamente o incluso principalmente en su capacidad para detectarlos.
  • Establezca otras medidas de verificación para interacciones potencialmente riesgosas. Por ejemplo, cualquier intento de solicitar información confidencial en una llamada telefónica a un empleado debe verificarse en otra plataforma.
  • Use una política de devolución de llamadas. Establezca un número de teléfono que un empleado pueda llamar para confirmar una solicitud confidencial o confidencial.
  • Ir más allá de una política de devolución de llamadas. Elimine el riesgo de que una sola llamada o solicitud telefónica pueda crear problemas. Por ejemplo, si una persona que llama que cube ser el CFO pide una gran suma de dinero para ser trasladado, asegúrese de que esta acción no se pueda tomar sin consultar con el CFO u otro ejecutivo de alto nivel.
  • Manténgase al tanto de la detección de defake en tiempo actual. Manténgase informado sobre nuevos productos o herramientas que puedan detectar los defectos profundos utilizados en audio y videollamadas. Tal tecnología todavía está surgiendo, así que asegúrese de complementarla con otros medios para identificar a la persona que llama, como una identificación única.

¿Quieres más historias sobre AI? Regístrese para la innovaciónnuestro boletín semanal.



fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here