Deepfake, un método cada vez utilizado por los estafadores

Por Miguel Mones, Head de Customer Success EMEA en Onfido

En el panorama digital actual, somos testigos de la expansión del deepfake, una técnica que se ha hecho popular entre estafadores y manipuladores. El fenómeno es cada vez más relevante, poniendo en riesgo la integridad de empresas, consumidores e incluso procesos electorales.

Los deepfakes se refieren a medios manipulados o sintetizados, que suelen utilizar algoritmos de inteligencia artificial (IA) y aprendizaje automático (ML), para crear contenidos falsos convincentes con el fin de engañar a su audiencia. En el último año, Onfido ha registrado un aumento del 3.000% en el número de intentos de deepfake, y aparte de esto, los casos de estafas o suplantación de identidad de figuras públicas se producen prácticamente a diario. Este aumento es alarmante y requiere de una respuesta inmediata y coordinada por parte de todos los implicados en la seguridad digital.

El crecimiento de las herramientas de IA, especialmente impulsadas por el auge de las aplicaciones de IA generativa, ha contribuido significativamente a la propagación del deepfake. Lo que antes se consideraba una técnica especializada reservada para expertos en tecnología está ahora al alcance de cualquiera que tenga acceso a las herramientas necesarias. Todas estas circunstancias han transformado los deepfakes a un sector de producción de fraudes a gran escala, con consecuencias potencialmente perjudiciales. Las sofisticadas técnicas permiten que los ciberdelincuentes superpongan el rostro de una persona sobre el cuerpo de otra o que alteren sus expresiones faciales, su voz o sus gestos. El resultado son contenidos fabricados de gran realismo que pueden ser difíciles de distinguir de grabaciones o imágenes auténticas.

Sin embargo, aunque estos ataques son muy sofisticados, existen signos reveladores que pueden ayudar a detectar los deepfakes. Los indicadores más comunes son los movimientos oculares poco naturales y los parpadeos, así como los gestos faciales inexactos y la falta de respuesta durante períodos de tiempo prolongados. Los problemas de audio en los vídeos de deepfake, la distorsión de expresiones y formas corporales, así como los colores y sombras de fondo incoherentes, pueden ser signos reveladores de manipulación.

Durante los periodos electorales, esta amenaza adquiere aún más relevancia. Todos los ciudadanos deberían estar especialmente atentos y cuestionar cualquier vídeo o clip sospechoso que aparezca en Internet. Al mismo tiempo, las plataformas online deben adoptar tecnologías que mitiguen estos riesgos, ya que podrían perjudicar el proceso electoral al difundir información falsa o manipulada.

La inteligencia artificial no solo está cambiando las normas de este sector, sino que también aporta nuevas soluciones para afrontar este reto. Las compañías ya pueden emplear algoritmos de IA que reconozcan las diferencias sutiles entre las imágenes o vídeos auténticos y los manipulados, lo que ayuda a evitar que se produzcan falsificaciones.

Las empresas dedicadas a combatir las falsificaciones fraudulentas son conscientes de la gravedad de la situación y se comprometen a colaborar con empresas, gobiernos y la sociedad en su conjunto para desarrollar soluciones eficaces que garanticen la integridad digital. La lucha contra los deepfakes requiere de esfuerzos conjuntos y coordinados, y estamos dispuestos a liderar el camino hacia un futuro digital más seguro para todos.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

TE PUEDE GUSTAR

RECIBE LA NEWSLETTER

*Email: *Nombre apellidos: *Empresa: Cargo: Sector:

 
Please don't insert text in the box below!

ARTÍCULOS MÁS RECIENTES

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio