OpenAI, una empresa de investigación y desarrollo de IA, presentó ChatGPT, una plataforma donde se entrena en un conjunto masivo de datos para responder consultas.
La Inteligencia Artificial (IA) ha venido a revolucionar el futuro de la tecnología, también en el ámbito de la ciberseguridad. Este sistema, que puede ser una excelente herramienta para tratar los ataques más sofisticados, presenta también nuevos riesgos y debe gestionarse con especial cuidado.
El pasado mes de noviembre de 2022, OpenAI, una empresa de investigación y desarrollo de IA, presentó ChatGPT, una plataforma donde se entrena en un conjunto masivo de datos para responder consultas. En esta plataforma se interactúa en forma de conversación. Al sistema se le da una indicación detallada, admite errores e incluso rechaza solicitudes inapropiadas. Aunque solo está disponible para pruebas beta en este momento, se ha vuelto enormemente popular entre el público. OpenAI planea lanzar una versión avanzada, ChatGPT-4, en 2023.
ChatGPT es diferente de otros modelos de IA en la forma en que puede escribir software en diferentes idiomas, depurar el código, explicar un tema complejo de varias maneras, prepararse para una entrevista o redactar un ensayo. Similar a lo que uno puede hacer a través de búsquedas en la web para aprender estos temas, ChatGPT facilita estas tareas, incluso ofreciendo el resultado final.
Al igual que con cualquier tecnología nueva, ChatGPT tiene sus propios beneficios y desafíos y tendrá un impacto significativo en el mercado de la ciberseguridad.
La IA es una tecnología prometedora para ayudar a desarrollar productos de ciberseguridad avanzados. ChatGPT podría desempeñar un papel decisivo en la detección y respuesta a los ataques cibernéticos y en la mejora de la comunicación dentro de la organización cuando se está produciendo un ataque. Pero también tiene sus riesgos.
ChatGPT no escribirá un código de malware si se le pide que escriba uno; tiene barreras como protocolos de seguridad para identificar solicitudes inapropiadas. Pero lo que si se ha descubierto en los últimos días es que desarrolladores han intentado varias formas de eludir los protocolos y lograron obtener el resultado deseado. Si una alerta es lo suficientemente detallada como para explicarle al bot los pasos para escribir el malware, puede responderá a la alerta y construir el malware solicitado.
Si tenemos en cuenta que ya hay grupos que ofrecen malware como servicio, con la ayuda de un programa de IA como ChatGPT, pronto será mucho más fácil para los atacantes lanzar ataques cibernéticos con la ayuda de código generado por Inteligencia Artificial. Esto permitirá incluso a los ciberdelincuentes menos experimentados poder escribir un código de malware preciso.
Su potencia se ha puesto especialmente de manifiesto en las aplicaciones de desarrollo de software, al ser capaz de generar funciones enteras a partir de las indicaciones del programador, y los profesionales de la ciberseguridad han demostrado que también puede generar código básico de explotación de vulnerabilidades.