1.       El año del IoC o Internet del Comportamiento

Al fusionar la potencia de la Inteligencia Artificial, el aprendizaje automático y la tecnología IoT, logramos capturar nuestras interacciones humanas, generando así un ecosistema que no solo comprende nuestras preferencias en productos y servicios, sino que también nos brinda la capacidad única de anticipar y responder de manera precisa a situaciones cotidianas.

Se transforma nuestra comprensión del comportamiento humano y nuestra interacción con el mundo digital. Este fenómeno no solo representa un avance tecnológico, sino un cambio fundamental en la forma en la que comprendemos y nos relacionamos con la información que nos rodea”, explica Beatriz Blanco, líder del equipo de Producción de Data en Paradigma Digital.

Un ejemplo es la educación o salud personalizada, como explica Blanco: “IoC permite alertar a los pacientes sobre posibles problemas de salud a través de la monitorización detallada, posibilitando intervenciones precisas y oportunas u facilita por ejemplo adaptar los métodos de enseñanza según el comportamiento de los estudiantes ofreciendo experiencias de aprendizaje más efectivas”.

2.       Nube más eficiente, control de datos y CDEs

Según Manuel Gómez, de acens, en 2024 “el cloud continuará su tendencia hacia la ‘nube soberana’: las compañías buscarán mantener el control en los elementos clave para cumplir con el marco legal y evitar riesgos permaneciendo en Europa como exige la regulación comunitaria”. De hecho, el gasto global en soluciones de nube soberana alcanzará 258.500 millones de dólares para 2027, según las estimaciones de la consultora IDC.

Desde la tecnológica señalan también como tendencias para el próximo año la adopción de IA, modernización de aplicaciones con Kubernetes y la apuesta por el Cloud Sostenible.

Por último, las cargas cloud serán construidas y desplegadas utilizando CDE para incrementar la productividad de la nube. Como señalan desde Paradigma Digital, “el software solo aporta valor cuando está en producción y cualquier herramienta, técnica o metodología que ayude a conseguirlo es recibida con los brazos abiertos. Es en este punto donde los Cloud Development Environment (CDEs) entran en juego, su objetivo principal es proporcionar un entorno de desarrollo listo para usar con un esfuerzo mínimo de instalación y configuración”. Gartner prevé que para el año 2026 el 60% de las cargas cloud serán construidas y desplegadas utilizando CDEs. 

3.       IA generativa más allá de un simple chatbot de moda

En el camino hacia la puesta en marcha efectiva de la IA generativa en el entorno empresarial, surgen desafíos técnicos complejos que van más allá de simplemente ‘alimentar un modelo con datos y esperar resultados’.  Según explican desde Paradigma este año será el año de la IA generativa, pero las empresas deben gestionar algunos desafíos como:

·       La gestión de los datos no estructurados. La parte de ingesta del dato, calidad del dato, preparación del dato y gobierno sigue siendo una tarea crucial para la puesta en marcha de modelos de IA generativa en el ámbito empresarial. Estos datos serán almacenados en bases de datos vectoriales en forma de embeddings, que son representaciones numéricas de palabras o frases que permiten a los modelos de IA comprender y procesar el lenguaje humano. Es aquí donde se plantea otro desafío crucial, ya que es esencial monitorear el rendimiento de estos embeddings para asegurar que sean precisos y relevantes para el contexto empresarial. Además, el versionado de los embeddings garantiza que las actualizaciones y mejoras se gestionen de manera controlada, evitando posibles disrupciones en los sistemas existentes, así como la restauración a sistemas previos en caso de necesidad en un entorno productivo.

·       Diseño y gestión adecuados de sistemas de prompt engineering. Estos sistemas implican la creación de instrucciones específicas para guiar al modelo hacia la producción de resultados deseados. Sin un prompt adecuado, los resultados pueden ser imprecisos o poco útiles. Una vez establecidos, estos sistemas de prompt engineering deben ser tratados como código. Esto significa que las instrucciones y configuraciones específicas utilizadas para guiar el modelo deben ser versionadas y almacenadas de manera que sean fácilmente reutilizables y versionables. El tratamiento de los prompts como código permite a los equipos iterar sobre ellos, ajustarlos según las necesidades cambiantes y colaborar de manera eficiente para mejorar la calidad de las respuestas generadas por el modelo.

·       Ética y de seguridad. La transparencia en el uso de esta tecnología es fundamental, especialmente cuando se trata de generar contenido que pueda influir en las percepciones y decisiones de las personas. Asegurar que las respuestas generadas sean éticas y no estén sesgadas se ha convertido en una prioridad esencial para muchas empresas. Además, garantizar la privacidad de la información y evitar su divulgación fuera del entorno regulado de la empresa son aspectos vitales que deben abordarse con cuidado y responsabilidad. En este sentido, según Scott Zoldi, responsable de analítica en FICO, “es importante tener en cuenta que detrás de cualquier tecnología de desarrollo de Inteligencia Artificial, existen organizaciones que no siempre actúan cómo se espera”. No hay más que ver las turbulencias ocurridas a finales de año en OpenAI con su responsable Sam Altman. “Es imposible depender de algo que actúa de forma errática, tal y como ocurrió con ChatGPT. Y parece que medio mundo se volvió dependiente de este producto; sin embargo, sus actuaciones a final de año llegaron a ser disfuncionales. Por eso, como dijo Taylor Swift, persona del año según la revista Time, en lugar de confiar a ciegas en la IA generativa, lo que debemos hacer es calmarnos un poco”, continua Zoldi.

En resumen, la IA generativa en el ámbito empresarial va mucho más allá de un simple chatbot de moda. Requiere un enfoque estratégico y cuidadoso para integrar estos modelos en el tejido mismo de la empresa, aprovechando todo su potencial para impulsar la innovación y el crecimiento. Lo que espera Zoldi, responsable de analítica de FICO, para 2024 en el terreno de la IA es que, precisamente pasado el efecto wow de estos últimos meses, lamentablemente, crezca la opacidad y, por tanto, la demanda de mayor transparencia en los modelos de IA. Precisamente por ello, será necesario que se desarrollen productos de auditoría para IA que nos permitan entender cómo operan los modelos. Y el blockchain ya está lo suficientemente maduro como para aprovecharlo en este sentido.

4.       IA y ciberseguridad

Según apunta Elia Zaitsev, CTO de CrowdStrike, los puntos ciegos de la Inteligencia Artificial están abriendo la puerta a nuevos riesgos dentro de las empresas y en la sociedad en general. En 2024, CrowdStrike espera que los ciberdelincuentes trasladen sus objetivos hacia los sistemas de IA, con el objetivo de atacar a las organizaciones, por un lado, a través de vulnerabilidades en sistemas legítimos y, por otro, aprovechando puntos ciegos debido al uso no autorizado de herramientas de IA por parte de los empleados de la organización.

Después de un año de crecimiento explosivo en los casos de uso y adopción de la IA, los equipos de seguridad aún están aprendiendo en qué consisten las amenazas en torno a la IA y a rastrear las herramientas de IA no autorizadas que los empleados han introducido en sus entornos. Estos puntos ciegos y las nuevas tecnologías abren la puerta a los cibercriminales que buscan infiltrarse en redes corporativas o acceder a datos confidenciales”, apunta Zaitsev.

Fundamentalmente, a medida que los empleados utilicen herramientas de inteligencia artificial sin la supervisión de los equipos de seguridad, las empresas se verán obligadas a lidiar con nuevos riesgos de protección de datos. La información corporativa que se introduce en las herramientas de inteligencia artificial no supone solamente un riesgo en caso de que los criminales aprovechen vulnerabilidades de estas herramientas para extraer datos, sino que los datos en sí mismos también corren el riesgo de ser filtrados o compartidos como parte del protocolo de capacitación del sistema.

Por ello, 2024 será el año en el que las organizaciones necesitarán mirar internamente para comprender dónde ya se ha introducido la IA en sus organizaciones (a través de canales oficiales y no oficiales), evaluar su postura de riesgo y ser estratégicos en la creación de pautas para garantizar un uso seguro y auditable que minimice el riesgo pero que maximice el valor de lo invertido.

Además, los delincuentes verán los recursos de IA basados ​​en la nube como una oportunidad lucrativa. Si bien muchos creen que la IA será una de las principales tendencias en la inversión empresarial en los próximos años, un estudio reciente muestra que el 47% de los profesionales de la ciberseguridad admite tener un conocimiento técnico mínimo o nulo sobre la IA. Además de eso, la IA presenta nuevos desafíos de seguridad, ya que los sistemas de IA requieren acceso a grandes conjuntos de datos, a menudo almacenados en la nube. Proteger estos datos y garantizar que los modelos de IA que se ejecutan en la nube no sean explotados con fines maliciosos será una preocupación creciente, y en 2024, el uso de una plataforma integral de protección de aplicaciones nativas en la nube (CNAPP) será más importante que nunca para defenderse de adversarios oportunistas.

5.       Manipulación de procesos electorales

Según apunta Zaitsev, CTO de CrowdStrike, debemos estar atentos al potencial de la IA generativa a la hora de manipular e impactar el ciclo electoral de 2024. En España, tendremos elecciones al Parlamento Europeo el 9 de junio pero también en Galicia y País Vasco.  

A medida que nos acercamos al ciclo de elecciones presidenciales de Estados Unidos de 2024, los criminales probablemente tendrán como objetivo los sistemas y procesos electorales y el entorno general de (des)información. Los adversarios de los Estados-nación, como Rusia, China e Irán, tienen un historial establecido para intentar influir en las elecciones en todo el mundo a través de medios online y operaciones de información. Estos adversarios han aprovechado operaciones combinadas para incluir elementos de campañas de “pirateo y filtración”, integración de contenido modificado o falsificado y amplificación de materiales o temas particulares”, alerta Zaitsev.

Dado el progreso reciente con la IA generativa (que incluye audio, imágenes, vídeo y texto), los ciberdelincuentes tendrán herramientas, capacidades y enfoques adicionales para crear contenido malicioso, todo lo cual podría dificultar que los votantes sean capaces de discernir lo que es real. Por ello, Gobiernos, Parlamentos, profesionales de la IA y la comunidad de ciberseguridad en general deberán trabajar conjuntamente para analizar los avances en este espacio.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

TE PUEDE GUSTAR

RECIBE LA NEWSLETTER

*Email: *Nombre apellidos: *Empresa: Cargo: Sector:

 
Please don't insert text in the box below!

ARTÍCULOS MÁS RECIENTES

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio