Fraude corporativo con IA: el 38% de las pérdidas por estafas ya están vinculadas a esta tecnología

La inteligencia artificial está transformando el mundo empresarial, impulsando la eficiencia y la innovación. Su capacidad para automatizar tareas, optimizar costes y mejorar la toma de decisiones ha llevado a una adopción creciente en los últimos años – ya que según Gartner, en 2023, más de la mitad de las organizaciones a nivel mundial ya utilizaban IA generativa, una cifra que sigue en aumento. Sin embargo, su uso malintencionado por parte de ciberdelincuentes está dando lugar a una nueva generación de fraudes que ponen en jaque la seguridad y estabilidad de las empresas.

El auge de la IA generativa ha abierto un nuevo capítulo en la ciberseguridad. Si bien ofrece enormes oportunidades para la innovación, también permite que los ciberdelincuentes amplifiquen sus ataques con un realismo y precisión sin precedentes. Las empresas deben estar preparadas para enfrentar esta nueva generación de amenazas, reforzando tanto su infraestructura de seguridad como la formación de sus empleados”, advierte Josep Albors, director de investigación y concienciación de ESET España.

Nuevas amenazas: deepfakes, suplantación y robo de identidad

El auge de herramientas basadas en IA está facilitando ataques cada vez más sofisticados. Por ello, ESET, compañía líder en ciberseguridad, destaca algunas de las tácticas más peligrosas que los ciberdelincuentes están utilizando con la ayuda de la inteligencia artificial para estafar a las empresas:

  • Falsificación de empleados: Empresas de todo el mundo han sido infiltradas por individuos norcoreanos que utilizan IA para crear currículums falsos, manipular imágenes y superar verificaciones de identidad. El objetivo final es ganar dinero para enviarlo al gobierno de Corea del Norte, así como el robo de datos, el espionaje e incluso el ransomware.
  • Fraude BEC con deepfakes: Los clips de audio y video deepfake se están utilizando para amplificar el fraude de tipo Business Email Compromise (BEC) en el que se engaña a los trabajadores financieros para que transfieran fondos corporativos a cuentas bajo el control del estafador. Se han documentado casos en los que vídeos y audios falsos han sido utilizados para suplantar a altos directivos y engañar a empleados, logrando transferencias fraudulentas millonarias.
  • Evasión de autenticación: Los deepfakes también se utilizan para ayudar a los estafadores a hacerse pasar por clientes legítimos, suplantar a algunas personas y eludir las comprobaciones de autenticación para la creación de cuentas y los inicios de sesión. Herramientas maliciosas avanzadas como GoldPickaxe recopilan datos biométricos para crear deepfakes que permiten eludir controles de seguridad y abrir cuentas fraudulentas.
  • Suplantación de identidad en redes sociales: Los ciberdelincuentes también están abusando de los deepfakes para hacerse pasar por directivos de grandes empresas y promover fraudes de inversión en las redes sociales.
  • Descifrado de contraseñas con IA: Algoritmos como PassGAN pueden descifrar contraseñas en cuestión de segundos, facilitando el robo de datos, el ransomware y el fraude de identidad masivo.
  • Fraude documental: La IA se está empleando para crear documentos falsos con el objetivo de superar controles de identidad en bancos, aseguradoras y otras instituciones. Casi todos (94%) los gestores de reclamaciones sospechan que al menos el 5% de las reclamaciones están siendo manipuladas con IA, especialmente las de menor valor.
  • Phishing y reconocimiento avanzado: La IA también está potenciando ataques de phishing más sofisticados, permitiendo crear mensajes altamente personalizados y difíciles de detectar. Además, facilita el reconocimiento de objetivos mediante la recopilación y análisis de datos, aumentando el impacto del robo de credenciales, el ransomware y otros ciberataques.

Pérdidas millonarias y daño reputacional

El fraude impulsado por la inteligencia artificial está generando un impacto significativo en las empresas, tanto a nivel financiero como reputacional. Se estima que el 38% de los ingresos perdidos por fraude en el último año estuvieron relacionados con el uso malicioso de IA. “Entre las principales amenazas, la omisión de los controles de conocimiento del cliente (KYC) permite a los estafadores acumular crédito de manera fraudulenta y vaciar cuentas legítimas. Además, la infiltración de empleados falsos representa un riesgo grave para la seguridad corporativa, ya que facilita el robo de propiedad intelectual e información regulada, generando problemas de cumplimiento y posibles sanciones”, comenta Albors.

Por otro lado, ESET destaca que las estafas BEC potenciadas por deepfakes siguen alcanzado cifras alarmantes, con pérdidas superiores a los 2.900 millones de dólares en 2023. La compañía también destaca que la suplantación de identidad mediante IA también afecta directamente la confianza de los clientes, ya que muchos afirman que dejarían de consumir productos o servicios de una marca tras una mala experiencia de seguridad. “En este contexto, las empresas deben reforzar sus estrategias de ciberseguridad y prevención del fraude para mitigar los riesgos derivados del uso indebido de la IA” añade el experto.

Cómo protegerse del fraude impulsado por IA

ESET recomienda un enfoque de seguridad en capas para hacer frente a estas amenazas, combinando medidas tecnológicas con formación y cambios en los procesos internos. Algunas estrategias clave incluyen:

  • Evaluaciones de riesgo de fraude y actualización de políticas de seguridad para incluir los riesgos asociados con IA.
  • Capacitación del personal para reconocer intentos de phishing, deepfakes y suplantación de identidad.
  • Refuerzo de la autenticación multifactor (MFA) en todas las cuentas con datos confidenciales.
  • Implementación de IA para la detección de fraudes, incluyendo herramientas para identificar deepfakes en verificaciones de identidad.
  • Mejora en la colaboración entre departamentos de RRHH y ciberseguridad para prevenir la infiltración de empleados falsos.

La inteligencia artificial se ha convertido en un arma de doble filo en el ámbito de la ciberseguridad. Mientras que los ciberdelincuentes la utilizan para sofisticar sus ataques, también representa una gran oportunidad para reforzar la protección corporativa. Herramientas basadas en IA pueden detectar deepfakes en procesos de verificación de identidad, mientras que los algoritmos de aprendizaje automático ayudan a identificar patrones de comportamiento sospechoso en empleados y clientes. Además, la generación de datos sintéticos mediante IA permite desarrollar y entrenar modelos de detección de fraude más avanzados” concluye Josep Albors.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

TE PUEDE GUSTAR

RECIBE LA NEWSLETTER

*Email: *Nombre apellidos: *Empresa: Cargo: Sector:

 
Please don't insert text in the box below!

ARTÍCULOS MÁS RECIENTES

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de CyberSecurityNews. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.