Seguridad e Inteligencia Artificial: un dúo que debe ir siempre de la mano

Columna de Enrique Cuarental, Ingeniero de ventas de inteligencia cognitiva para el sur de Europa y Latinoamérica de Amelia

Las soluciones de Inteligencia Artificial (IA) están transformando las expectativas de los clientes cuando interactúan con sistemas digitales, ya que ofrecen a los usuarios acceso las 24 horas, los 7 días de la semana a la información y a los servicios a través de múltiples canales, lo que a su vez permite a las empresas ampliar su oferta y generar una experiencia de usuario más atractiva.

Sin embargo, aunque estos sistemas presentan enormes oportunidades para las empresas, garantizar la seguridad y privacidad de los datos de los usuarios es fundamental para conseguir una aplicación con éxito. Cada vez más, los consumidores andan con pies de plomo cuando se trata de la seguridad de sus datos y si no confían en los sistemas y servicios de una empresa para proteger adecuadamente sus datos, se irán a otra parte.

De hecho, el informe sobre el índice sobre la confianza digital de 2018 destacó que casi la mitad de los consumidores europeos dejarían de usar una empresa si se violara su información personal. Un ejemplo de ello es la rápida desaparición de Code Spaces, el proveedor de SaaS que tuvo que cerrar en 2014 tras un ataque de unos hackers a su entorno AWS.

Las empresas comprenden cada vez más el riesgo crítico que presentan los ciberataques para su negocio, con el daño que supone para la marca y la pérdida de clientes que puede implicar. De hecho, la ciberseguridad se ha convertido, sin duda, en un debate constante de las salas de juntas en los últimos años, con empresas trabajando las 24 horas del día para garantizar que sus redes, servidores y aplicaciones sean lo más seguros posible humana y mecánicamente.

Sin embargo, muchas empresas empiezan ahora a explorar soluciones de inteligencia artificial (IA), por lo que no cuentan con suficiente experiencia ni conocen las soluciones para proteger estos sistemas. Sin embargo, hay algunas pasos que se deben considerar para proteger los datos de los clientes en los sistemas de IA.

El problema de los datos en tránsito

En general, se considera que los datos en reposo son mucho más seguros que cuando están en tránsito. Como resultado, algunas empresas optan por soluciones de inteligencia artificial que se implementan completamente en local, ya que esta fórmula requiere menos tránsitos de datos que una solución de inteligencia artificial que se implementa en la nube pública. Sin embargo, esto a su vez sacrifica las copias de seguridad y las redundancias que permite la nube. 

Dicho esto, si tanto el proveedor de la nube como el cliente toman las medidas de seguridad adecuadas, la implementación de sistemas de inteligencia artificial en la nube todavía se considera segura. Pero independientemente de dónde esté alojada la solución, todos los datos deben estar encriptados para garantizar que -en el caso de que hubiera una violación de datos-, la información no fuera fácilmente accesible por un hacker. Para los sistemas de inteligencia artificial, la privacidad diferencial es una tendencia criptográfica importante que agrega ruido a conjuntos de datos más grandes y difumina datos individuales. Sin embargo, la información correcta es accesible a los algoritmos de aprendizaje automático.

Acceso correcto

El ámbito de la conversación es actualmente una de las aplicaciones de IA más interesantes. Los asistentes digitales permiten a las personas interactuar con un sistema como si fuera un humano. Pero, al tiempo que revoluciona la experiencia del usuario, la facilidad de acceso introduce nuevas consideraciones de seguridad, como la autenticación.

Si bien existen claros beneficios para el usuario al poder acceder a la información de su cuenta bancaria a través de un Amazon Echo o Google Home, pocos querrían que sus visitantes pudieran acceder a esta información confidencial con sólo preguntar «Alexa, ¿cuál es el saldo de mi cuenta de débito?» Por ello, las tecnologías de IA conversacional deben tener barreras de acceso tan fuertes como cuando se accede a través de otro canal, como con datos biométricos, contraseñas o autenticación de dos factores.

Estar al día

Los sistemas de inteligencia artificial -y en particular, los sistemas de inteligencia artificial conversacionales-, aún están en sus comienzos y como cualquier nueva tecnología, habrá preocupaciones en torno a la seguridad a medida que se exploren nuevas aplicaciones de esta tecnología. Dado que muchas de estas consideraciones de seguridad van más allá de nuestra experiencia actual, es fundamental que los responsables de la toma de decisiones sobre seguridad y sistemas de la información se mantengan al día sobre las tendencias de seguridad de la información y consideren su aplicación a los sistemas de IA.

Las soluciones de autenticación de voz, por ejemplo, se consideraban anteriormente como una sólida tecnología de seguridad biométrica que podía identificar patrones de voz únicos para cada persona, por lo que la voz se convertiría en la contraseña. Sin embargo, el año pasado, el reportero de la BBC, Dan Simmons, consiguió demostrar que su hermano gemelo podía engañar al software de autenticación de voz de HSBC, por lo que pudo acceder a la cuenta bancaria de Dan después de imitar su voz. Además de este ejemplo, el periodista también demostró recientemente cómo es posible engañar a las soluciones de seguridad de autenticación de voz mediante el uso de software de imitación. En el artículo se recomendaba que, en el mejor de los casos, se usara la voz sólo como una herramienta más de un proceso de autenticación de múltiples factores.

Innovar siempre teniendo en cuenta la seguridad

Sin duda, las empresas deberían buscar nuevos sistemas de inteligencia artificial para innovar y mejorar las experiencias de sus clientes y cumplir con sus expectativas. Sin embargo, siempre hay que asegurarse que la tasa de innovación debe ser tan alta como la de su seguridad.

Los piratas informáticos buscan constantemente violar los sistemas de inteligencia artificial, ya que cuentan con una gran cantidad de datos del usuario. Por ello, es fundamental que las empresas tomen las medidas necesarias para proteger los datos de los usuarios en los sistemas de IA.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

TE PUEDE GUSTAR

RECIBE LA NEWSLETTER

*Email: *Nombre apellidos: *Empresa: Cargo: Sector:

 
Please don't insert text in the box below!

ARTÍCULOS MÁS RECIENTES

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio