La AI ofrece enormes beneficios para las empresas, pero también nuevos peligros

Las aplicaciones basadas en inteligencia artificial aumentarán la vulnerabilidad de las empresas frente a los ciberataques y las fallas técnicas, lo que provocará escenarios de interrupción y pérdida a gran escala.

Chatbots, vehículos autónomos y máquinas conectadas en fábricas digitales presagian cómo será el futuro: La implementación generalizada de las aplicaciones de Inteligencia Artificial (AI) ofrece muchas ventajas para las empresas, como mayores eficiencias, menos tareas repetitivas y mejores experiencias de los clientes.

Sin embargo, en las manos equivocadas, las amenazas potenciales podrían contrarrestar fácilmente los enormes beneficios. La vulnerabilidad a ataques cibernéticos maliciosos o fallas técnicas aumentará, al igual que el potencial de interrupciones a gran escala y pérdidas financieras extraordinarias a medida que las sociedades y las economías se vuelvan cada vez más interconectadas. Las empresas también enfrentarán nuevos escenarios de responsabilidad como responsabilidad por los cambios en la toma de decisiones de ser humano a máquina y fabricante.

En el nuevo informe «El auge de la inteligencia artificial: perspectivas futuras y riesgos emergentes» , la aseguradora Allianz Global Corporate & Specialty identifica los riesgos emergentes y las preocupaciones sobre la creciente implementación de AI en la sociedad y la industria, incluso en el seguro sector. AI, también conocido como aprendizaje automático, es esencialmente un software capaz de pensar y aprender como un ser humano.

«AI viene con beneficios y riesgos potenciales en muchas áreas: económica, política, movilidad, salud, defensa y medio ambiente. Se necesitarán estrategias activas de gestión de riesgos para maximizar los beneficios netos de una introducción completa de las aplicaciones avanzadas de IA en la sociedad «, dice Michael Bruch, Director de Tendencias Emergentes de AGCS.

Hoy en día, las formas «débiles» o básicas de AI pueden realizar tareas específicas, pero las futuras generaciones de aplicaciones de IA llamadas «fuertes» serán capaces de resolver problemas difíciles y ejecutar transacciones complejas. AI está empezando a encontrar usuarios en casi todas las industrias, desde chatbots que ofrecen asesoramiento financiero para ayudar a los médicos a diagnosticar el cáncer. La tecnología se utiliza para alimentar autos sin conductor, donde se estima que podría ayudar a reducir el número de accidentes hasta en un 90%, predecir mejor el clima, procesar transferencias financieras o monitorear y operar máquinas industriales. Según Accenture, AI podría duplicar la tasa de crecimiento económico anual en 12 economías desarrolladas para 2035.

Pero con estos beneficios potenciales vienen los riesgos. Los riesgos cibernéticos, que son uno de los mayores riesgos para las empresas de acuerdo con el Allianz Risk Barometer 2018, ilustran las dos caras diferentes de las nuevas tecnologías, como AI: el software impulsado por AI podría ayudar a reducir el riesgo cibernético para las empresas al detectar mejor los ataques, pero también podría aumentar si los hackers malintencionados pueden tomar el control de los sistemas, máquinas o vehículos. AI podría permitir incidentes cibernéticos más serios y más específicos al disminuir el costo de diseñar ataques. El mismo ataque de hacker, o error de programación, podría replicarse en numerosas máquinas. Ya se estima que un ciberataque global importante tiene el potencial de provocar pérdidas de más de 50.000 millones dólares, pero incluso una interrupción de medio día en un proveedor de servicios en la nube tiene el potencial de generar pérdidas de alrededor de 850 millones de dólares.

Riesgos emergentes de IA en cinco áreas

Para identificar los riesgos emergentes de IA, AGCS se ha enfocado en cinco áreas de preocupación, a saber , accesibilidad de software, seguridad, responsabilidad, responsabilidad y ética . «Al abordar cada una de estas áreas, el desarrollo responsable y la introducción de la IA se vuelven menos peligrosos para la sociedad. Las medidas preventivas que reducen los riesgos de consecuencias involuntarias son esenciales «, dice Bruch. En términos de seguridad, por ejemplo, la carrera para llevar los sistemas de IA al mercado podría llevar a actividades de validación insuficientes o negligentes, que son necesarias para garantizar el despliegue de agentes de IA seguros, funcionales y ciberseguros. Esto, a su vez, podría conducir a un aumento en productos defectuosos y retiradas.

Con respecto a la responsabilidad, los agentes de AI pueden tomar muchas decisiones de humanos en el futuro, pero legalmente no pueden ser considerados responsables por esas decisiones. En general, el fabricante o programador de software de los agentes AI es responsable de los defectos que causan daños a los usuarios. Sin embargo, las decisiones de AI que no están directamente relacionadas con el diseño o la fabricación, pero que son tomadas por un agente de inteligencia artificial debido a su interpretación de la realidad, no tendrían una parte responsable explícita, de acuerdo con la ley actual. «Dejar las decisiones en los tribunales puede ser costoso e ineficiente si el número de daños generados por AI comienza a aumentar», dice Bruch. «Una solución a la falta de labilidad legal sería establecer agencias o autoridades expertas para desarrollar un marco de responsabilidad según el cual los diseñadores, fabricantes o vendedores de productos de IA estarían sujetos a responsabilidad extracontractual limitada».

Mientras tanto, las aseguradoras tendrán un papel crucial que desempeñar para ayudar a minimizar, administrar y transferir los riesgos emergentes de las aplicaciones de IA. Las coberturas tradicionales deberán adaptarse para proteger tanto a los consumidores como a las empresas. El seguro deberá abordar mejor ciertas exposiciones a negocios tales como ciberataques, interrupción de negocios, retiro de productos y daños a la reputación. Es probable que se adopten nuevos modelos de seguro de responsabilidad civil, en áreas como la conducción autónoma, por ejemplo, aumentando la presión sobre los fabricantes y proveedores de software y disminuyendo la estricta responsabilidad de los consumidores.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

TE PUEDE GUSTAR

RECIBE LA NEWSLETTER

*Email: *Nombre apellidos: *Empresa: Cargo: Sector:

 
Please don't insert text in the box below!

ARTÍCULOS MÁS RECIENTES

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio