Seguridad e Inteligencia Artificial: un dúo que debe ir siempre de la mano

22 enero, 2021
5 Compartido 1,262 Visualizaciones

Columna de Enrique Cuarental, Ingeniero de ventas de inteligencia cognitiva para el sur de Europa y Latinoamérica de Amelia

Las soluciones de Inteligencia Artificial (IA) están transformando las expectativas de los clientes cuando interactúan con sistemas digitales, ya que ofrecen a los usuarios acceso las 24 horas, los 7 días de la semana a la información y a los servicios a través de múltiples canales, lo que a su vez permite a las empresas ampliar su oferta y generar una experiencia de usuario más atractiva.

Sin embargo, aunque estos sistemas presentan enormes oportunidades para las empresas, garantizar la seguridad y privacidad de los datos de los usuarios es fundamental para conseguir una aplicación con éxito. Cada vez más, los consumidores andan con pies de plomo cuando se trata de la seguridad de sus datos y si no confían en los sistemas y servicios de una empresa para proteger adecuadamente sus datos, se irán a otra parte.

De hecho, el informe sobre el índice sobre la confianza digital de 2018 destacó que casi la mitad de los consumidores europeos dejarían de usar una empresa si se violara su información personal. Un ejemplo de ello es la rápida desaparición de Code Spaces, el proveedor de SaaS que tuvo que cerrar en 2014 tras un ataque de unos hackers a su entorno AWS.

Las empresas comprenden cada vez más el riesgo crítico que presentan los ciberataques para su negocio, con el daño que supone para la marca y la pérdida de clientes que puede implicar. De hecho, la ciberseguridad se ha convertido, sin duda, en un debate constante de las salas de juntas en los últimos años, con empresas trabajando las 24 horas del día para garantizar que sus redes, servidores y aplicaciones sean lo más seguros posible humana y mecánicamente.

Sin embargo, muchas empresas empiezan ahora a explorar soluciones de inteligencia artificial (IA), por lo que no cuentan con suficiente experiencia ni conocen las soluciones para proteger estos sistemas. Sin embargo, hay algunas pasos que se deben considerar para proteger los datos de los clientes en los sistemas de IA.

El problema de los datos en tránsito

En general, se considera que los datos en reposo son mucho más seguros que cuando están en tránsito. Como resultado, algunas empresas optan por soluciones de inteligencia artificial que se implementan completamente en local, ya que esta fórmula requiere menos tránsitos de datos que una solución de inteligencia artificial que se implementa en la nube pública. Sin embargo, esto a su vez sacrifica las copias de seguridad y las redundancias que permite la nube. 

Dicho esto, si tanto el proveedor de la nube como el cliente toman las medidas de seguridad adecuadas, la implementación de sistemas de inteligencia artificial en la nube todavía se considera segura. Pero independientemente de dónde esté alojada la solución, todos los datos deben estar encriptados para garantizar que -en el caso de que hubiera una violación de datos-, la información no fuera fácilmente accesible por un hacker. Para los sistemas de inteligencia artificial, la privacidad diferencial es una tendencia criptográfica importante que agrega ruido a conjuntos de datos más grandes y difumina datos individuales. Sin embargo, la información correcta es accesible a los algoritmos de aprendizaje automático.

Acceso correcto

El ámbito de la conversación es actualmente una de las aplicaciones de IA más interesantes. Los asistentes digitales permiten a las personas interactuar con un sistema como si fuera un humano. Pero, al tiempo que revoluciona la experiencia del usuario, la facilidad de acceso introduce nuevas consideraciones de seguridad, como la autenticación.

Si bien existen claros beneficios para el usuario al poder acceder a la información de su cuenta bancaria a través de un Amazon Echo o Google Home, pocos querrían que sus visitantes pudieran acceder a esta información confidencial con sólo preguntar «Alexa, ¿cuál es el saldo de mi cuenta de débito?» Por ello, las tecnologías de IA conversacional deben tener barreras de acceso tan fuertes como cuando se accede a través de otro canal, como con datos biométricos, contraseñas o autenticación de dos factores.

Estar al día

Los sistemas de inteligencia artificial -y en particular, los sistemas de inteligencia artificial conversacionales-, aún están en sus comienzos y como cualquier nueva tecnología, habrá preocupaciones en torno a la seguridad a medida que se exploren nuevas aplicaciones de esta tecnología. Dado que muchas de estas consideraciones de seguridad van más allá de nuestra experiencia actual, es fundamental que los responsables de la toma de decisiones sobre seguridad y sistemas de la información se mantengan al día sobre las tendencias de seguridad de la información y consideren su aplicación a los sistemas de IA.

Las soluciones de autenticación de voz, por ejemplo, se consideraban anteriormente como una sólida tecnología de seguridad biométrica que podía identificar patrones de voz únicos para cada persona, por lo que la voz se convertiría en la contraseña. Sin embargo, el año pasado, el reportero de la BBC, Dan Simmons, consiguió demostrar que su hermano gemelo podía engañar al software de autenticación de voz de HSBC, por lo que pudo acceder a la cuenta bancaria de Dan después de imitar su voz. Además de este ejemplo, el periodista también demostró recientemente cómo es posible engañar a las soluciones de seguridad de autenticación de voz mediante el uso de software de imitación. En el artículo se recomendaba que, en el mejor de los casos, se usara la voz sólo como una herramienta más de un proceso de autenticación de múltiples factores.

Innovar siempre teniendo en cuenta la seguridad

Sin duda, las empresas deberían buscar nuevos sistemas de inteligencia artificial para innovar y mejorar las experiencias de sus clientes y cumplir con sus expectativas. Sin embargo, siempre hay que asegurarse que la tasa de innovación debe ser tan alta como la de su seguridad.

Los piratas informáticos buscan constantemente violar los sistemas de inteligencia artificial, ya que cuentan con una gran cantidad de datos del usuario. Por ello, es fundamental que las empresas tomen las medidas necesarias para proteger los datos de los usuarios en los sistemas de IA.

Mantente informado de las noticias más relevantes en nuestro canal de Telegram

Te podría interesar

Tres de cada cuatro consumidores, dispuestos a compartir sus datos en la compra online
Actualidad
29 compartido1,944 visualizaciones
Actualidad
29 compartido1,944 visualizaciones

Tres de cada cuatro consumidores, dispuestos a compartir sus datos en la compra online

Vicente Ramírez - 21 noviembre, 2018

 Las empresas que informen con transparencia de sus políticas en materia de datos, fidelizarán mejor a sus clientes. Según un…

Wikipedia y World of Warcraft Classic alcanzados por el DDoS
Actualidad
10 compartido1,316 visualizaciones
Actualidad
10 compartido1,316 visualizaciones

Wikipedia y World of Warcraft Classic alcanzados por el DDoS

Alicia Burrueco - 18 septiembre, 2019

La Wikipedia queda inaccesible para varios países de manera intermitente. Seguramente, si te preguntásemos por la enciclopedia que Intenet te…

Durante la campaña del 10 de noviembre WhatsApp estará restringido
Actualidad
15 compartido2,528 visualizaciones
Actualidad
15 compartido2,528 visualizaciones

Durante la campaña del 10 de noviembre WhatsApp estará restringido

Alicia Burrueco - 30 octubre, 2019

Facebook ha dedicido restringir el acceso a la aplicación de mensajería en la fecha próxima a las elecciones. Facebook ha…

Deje un comentario

Su email no será publicado

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.