En una sociedad cada vez más conectada, las personas tendemos a relacionarnos con otras personas a través de los dispositivos digitales. El auge de plataformas para ligar como Happn o Tinder son prueba de ello.

Y, cómo no, cuando una tendencia se convierte en ‘hype’, los ciberdelincuentes intentan sacar rendimiento económico o bien hacer daño por el mero hecho de hacerlo.

La nueva tendencia para hacer este tipo de daño se lleva a cabo con los ´love bots’. Se trata de unas aplicaciones web, basadas en Inteligencia Artificial, que están programados para que, al chatear con ellas, parezcan personas.

El riesgo es muy elevado, ya que el auge de los ‘chatbots’ ha hecho que se hayan desarrollado cientos de plataformas que se integran con las principales redes sociales y entornos web, para dar atención digital a los clientes. Pero la diferencia es que, los primeros están programados para seducir y engañar a las personas.

El modus operandi de los hackers que los desarrollan es muy sofisticado, ya que diseñan páginas web de citas en las que emulan a famosos sitios estadounidenses como Match.com o PlentyOfFish, en las que al hacer ‘match’ con una supuesta persona, lo que realmente se está haciendo es entablar una conversación con un ‘lovebot’.

Es más, para atraer tráfico a estas webs, hacen campañas de publicidad en páginas web y redes sociales con mensajes muy sugerentes, en especial durante fechas señaladas como puede ser San Valentín o Navidad, en las que muchas personas se sienten solas.

La programación de este tipo de ‘robots’ es tan compleja como potencialmente lucrativa. Es decir, los hackers tienen que plantear un sin fin de conversaciones y escenarios en los que programar que sus robots vayan seduciendo a las víctimas poco a poco, hasta conseguir su objetivo: hacerse con información confidencial para robarles o chantajearles. Se trata de una forma muy escalable de robar, ya que una vez programado el ‘love bot’, ya solo les queda esperar a que sus víctimas piquen el anzuelo y poder extorsionarlos.

Además, la Inteligencia Artificial juega un papel primordial en este tipo de engaños, ya que cualquier chatbot está creado para que cada conversación se almacene y se procese, con el fin de mejorar las futuras conversaciones.

De esta manera, el robot ‘aprende’ de los posibles errores de programación que hacen que las conversaciones sean ‘menos humanas’. Así, podrán indicar a los programadores que hay que resolverlas. Asimismo, estos programas ‘aprenden’ a diferenciar entre las preguntas más y menos adecuadas, con lo que muchas veces, no hace falta la mano humana para reprogramar muchas de las conversaciones.

La Inteligencia Artificial está dando sus primeros pasos, pero en algunos años, cuando los chatbots puedan emitir sonidos y emular las conversaciones que pueden mantener dos personas, los riesgos podrán multiplicarse”, augura Hervé Lambert, Global Consumer Operations Manager de Panda Security, quien añade que “los robos y extorsiones por medio de ‘love bots’ son un riesgo frente al que hay que estar preparados”.

La buena noticia es que las conversaciones generadas por un chatbot corresponden a patrones de conducta programados por un ser humano. Por tanto, si se cuenta con una tecnología de detección de malware, que también está basada en la Inteligencia Artificial, es relativamente sencillo detectar este tipo de fraudes.

1 comentario en “Cuidado con los ‘lovebots’”

  1. Interesante articulo anteriormente había escuchado algo sobre los bots que usan las paginas de citas para atraer a los usuarios. Este tipo de practicas engañosas hacen que los demás sitios para buscar pareja que si son de buena calidad pierdan reputación en Internet y la gente se aleje.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

TE PUEDE GUSTAR

RECIBE LA NEWSLETTER

*Email: *Nombre apellidos: *Empresa: Cargo: Sector:

 
Please don't insert text in the box below!

ARTÍCULOS MÁS RECIENTES

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio