La Europol alerta del uso delictivio de ChatGPT y otros modelos de LLM

ChatGPT es un LLM desarrollado por OpenAI y lanzado al público en general como parte de una vista previa de investigación en noviembre de 2022.

En respuesta a la creciente atención pública prestada a ChatGPT, el Laboratorio de Innovación de Europol organizó una serie de talleres con expertos en la materia de toda Europol para explorar cómo los delincuentes pueden abusar de los modelos de lenguaje extenso (LLM) como ChatGPT, así como también cómo puede ayudar alos investigadores en su trabajo diario. 

Sus ideas se recopilan en el primer informe Tech Watch Flash de Europol titulado ‘ ChatGPT: el impacto de los modelos de lenguaje extenso en la aplicación de la ley ‘, este documento proporciona una descripción general del posible uso indebido de ChatGPT y ofrece una perspectiva de lo que aún puede estar por venir. 

El objetivo de este informe es generar conciencia sobre el posible uso indebido de los LLM, abrir un diálogo con las empresas de inteligencia artificial (IA) para ayudarlas a construir mejores salvaguardas y promover el desarrollo de sistemas de IA seguros y confiables. 

¿Qué son los modelos de lenguaje grande? 

Un modelo de lenguaje grande es un tipo de sistema de IA que puede procesar, manipular y generar texto. 

Capacitar a un LLM implica alimentarlo con grandes cantidades de datos, como libros, artículos y sitios web, para que pueda aprender los patrones y las conexiones entre las palabras para generar contenido nuevo. 

ChatGPT es un LLM desarrollado por OpenAI y lanzado al público en general como parte de una vista previa de investigación en noviembre de 2022.

El modelo actual de acceso público subyacente a ChatGPT es capaz de procesar y generar texto similar al humano en respuesta a las indicaciones del usuario. Específicamente, el modelo puede responder preguntas sobre una variedad de temas, traducir texto, participar en intercambios conversacionales («chatear»), generar contenido nuevo y producir código funcional. 

El lado oscuro de los modelos de lenguaje grande

A medida que se mejoran activamente las capacidades de LLM como ChatGPT, la posible explotación de este tipo de sistemas de inteligencia artificial por parte de los delincuentes ofrece una perspectiva sombría.

Las siguientes tres áreas de delincuencia se encuentran entre las muchas áreas de preocupación identificadas por los expertos de Europol: 

  • Fraude e ingeniería social: la capacidad de ChatGPT para redactar textos muy realistas lo convierte en una herramienta útil para fines de phishing. La capacidad de los LLM para reproducir patrones de lenguaje se puede utilizar para suplantar el estilo de habla de individuos o grupos específicos. Se puede abusar de esta capacidad a gran escala para engañar a las posibles víctimas para que depositen su confianza en manos de los delincuentes.
  • Desinformación: ChatGPT sobresale en la producción de texto con sonido auténtico a gran velocidad y escala. Esto hace que el modelo sea ideal para propósitos de propaganda y desinformación, ya que permite a los usuarios generar y difundir mensajes que reflejen una narrativa específica con relativamente poco esfuerzo.
  • Ciberdelincuencia: además de generar un lenguaje similar al humano, ChatGPT es capaz de producir código en varios lenguajes de programación diferentes. Para un delincuente potencial con pocos conocimientos técnicos, este es un recurso invaluable para producir código malicioso. 

A medida que avanza la tecnología y se dispone de nuevos modelos, será cada vez más importante que las fuerzas del orden público se mantengan a la vanguardia de estos desarrollos para anticipar y prevenir el abuso. 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

TE PUEDE GUSTAR

RECIBE LA NEWSLETTER

*Email: *Nombre apellidos: *Empresa: Cargo: Sector:

 
Please don't insert text in the box below!

ARTÍCULOS MÁS RECIENTES

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio