ChatGPT, un arma de doble filo en el mundo de la ciberseguridad

VU alerta de los posibles riesgos relacionados con esta herramienta de IA, capaz de crear mensajes altamente sofisticados para cometer fraude online

Hoy en día cuando hablamos de Inteligencia Artificial resulta difícil no pensar en la herramienta que ha hecho saltar todas las alarmas a nivel mundial. ChatGPT, el sistema de modelo de lenguaje desarrollado por OpenAI, surgió como una promesa de reducir la carga de trabajo y mejorar la experiencia del usuario. Sin embargo, los expertos en ciberseguridad han alertado de que esta tecnología, utilizada con fines delictivos, podría suponer riesgos considerables para las empresas.

VU, compañía global de ciberseguridad especializada en la protección de la identidad digital y la prevención del fraude con más de 350 millones de usuarios en todo el mundo, explica qué riesgos puede suponer un mal uso de la herramienta ChatGPT para las empresas y recomienda una serie de prácticas para afrontar los desafíos de la IA. “Ahora los cibercriminales cuentan con una nueva arma de doble filo”, apunta Sebastián Stranieri, fundador y CEO de VU.

Phishing impulsado por IA

Una de las formas en las que los ciberdelincuentes pueden beneficiarse de ChatGPT para cometer fraude online es la creación de mensajes fraudulentos para utilizarlos en ataques de phishing. Esta inteligencia artificial podría fácilmente desarrollar un correo electrónico o mensaje suplantando la identidad de otra persona o empresa para engañar a las posibles víctimas.

Gracias a la amplia base de conocimientos de esta herramienta, los ciberdelincuentes pueden obtener datos específicos sobre la empresa objetivo, lo que les permite redactar mensajes más creíbles y aumentar las posibilidades de éxito en el fraude.

El desarrollo de este tipo de IA es tan rápido que ahora también es capaz de crear códigos en diferentes lenguajes de programación, lo que se traduce en una forma simple y rápida para que los ciberdelincuentes puedan crear software malicioso. ”ChatGPT supone una nueva vía para que cualquier persona pueda aprender a crear un código de malware más efectivo, lo que multiplica las posibilidades de ser víctima de un ciberataque”, continúa Stranieri.

Recomendaciones para prevenir ciberataques

Tan vertiginoso ha sido el desarrollo de esta herramienta que cada vez son más los países que se están planteando regular el uso de ChatGPT, tomando como referencia a Italia, en donde ya se ha decidido bloquearla debido a los numerosos riesgos relacionados con la privacidad de los datos.

Hasta entonces, este prototipo de chatbot es una realidad con la que las empresas deben aprender a convivir de manera que suponga más oportunidades que amenazas, y para ello es imprescindible concienciar a los empleados de los riesgos que puede suponer. El CEO de VU recomienda:

1. Siempre verificar la autenticidad de los mensajes recibidos

2. Evitar proporcionar datos personales a través de este tipo de herramientas.

3. Capacitarse en ciberseguridad y concienciarse sobre las tácticas de phishing.

4. Implementar sistemas de autenticación de dos factores para proteger cuentas y accesos.

5. Mantener actualizados los sistemas operativos, programas y dispositivos para corregir vulnerabilidades.

6. Utilizar soluciones de seguridad avanzadas para proteger la infraestructura de TI y detectar amenazas en tiempo real.

Aunque ChatGPT y otras herramientas de IA avanzadas ofrecen importantes beneficios en términos de eficiencia y experiencia del usuario, es fundamental que las empresas y los usuarios sean conscientes de los riesgos asociados y tomen las medidas necesarias para protegerse de posibles ciberataques. A través de la educación, la capacitación y la implementación de soluciones de seguridad adecuadas, las compañías pueden aprovechar el potencial de estas tecnologías de manera segura y responsable.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

TE PUEDE GUSTAR

RECIBE LA NEWSLETTER

*Email: *Nombre apellidos: *Empresa: Cargo: Sector:

 
Please don't insert text in the box below!

ARTÍCULOS MÁS RECIENTES

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS


Scroll al inicio