El Gobierno italiano ha tomado medidas para limitar el procesamiento de datos de usuarios italianos por parte de OpenAI, mientras que también se ha iniciado una investigación para asegurarse de que la empresa cumple con el Reglamento General de Protección de Datos europeo.
A finales de marzo, el organismo regulador de datos de Italia, Garante per la Protezione dei dati personali, ordenó la suspensión temporal del procesamiento de datos de los usuarios italianos de OpenAI, incluyendo su herramienta popular ChatGPT, debido a una investigación sobre el cumplimiento del Reglamento General de Protección de Datos europeo (GDPR).
Esta decisión se produjo después de la filtración de datos de la herramienta de inteligencia artificial, en la que se expusieron conversaciones de usuarios y datos privados como información de facturación y tarjetas de crédito parciales de los suscriptores.
El garante italiano declaró que OpenAI no proporciona información a los usuarios ni a los interesados cuyos datos ha recopilado, y no tiene una base jurídica adecuada para recopilar y tratar datos personales, lo que constituye una violación de varios artículos del GDPR. Aunque actualmente solo Italia ha tomado medidas contra OpenAI, es posible que otros países o la propia Unión Europea anuncien medidas similares en el futuro debido a la supuesta infracción del reglamento europeo de protección de datos.
Riesgos de la Inteligencia Artificial en ciberseguridad
La inteligencia artificial puede ser una herramienta valiosa para la ciberseguridad, pero también puede presentar riesgos y peligros significativos si no se utiliza adecuadamente. Algunos de estos peligros incluyen:
- Ataques maliciosos: Si los atacantes obtienen acceso a los sistemas de inteligencia artificial utilizados para la ciberseguridad, podrían modificar los modelos y los resultados para desviar la atención de los verdaderos ataques.
- Errores de entrenamiento: Si los modelos de inteligencia artificial se entrenan con datos inadecuados o sesgados, pueden generar alertas falsas o no detectar amenazas reales.
- Dependencia excesiva: Si se confía demasiado en la inteligencia artificial, los expertos en ciberseguridad pueden ignorar las alertas y advertencias de los sistemas, lo que podría conducir a graves brechas de seguridad.
- Vulnerabilidades de seguridad: Los sistemas de inteligencia artificial también pueden ser vulnerables a ataques de seguridad en sí mismos, como el robo de datos de entrenamiento o la manipulación de los resultados del modelo.
- Regulación insuficiente: Con la rápida evolución de la tecnología de inteligencia artificial, las leyes y regulaciones actuales pueden no ser suficientes para abordar todos los riesgos y peligros potenciales.
1 comentario en “Italia prohíbe ChatGPT por infringir la protección de datos”
Dependencia excesiva: no debemos olvidar que la Inteligencia artificial ha pasado por la Inteligencia humana y ello debe estar siempre presente para precisamente lo que se dice en el artículo, que no se nos escape nada.