fbpx
InicioTendenciasInteligencia ArtificialConoce los riesgos de la inteligencia artificial y cómo gestionarlos

Conoce los riesgos de la inteligencia artificial y cómo gestionarlos

La inteligencia artificial (IA) está demostrando ser un arma de doble filo. Si bien esto se puede decir de la mayoría de las nuevas tecnologías, en el caso de la inteligencia de la inteligencia artificial es más importante y debes conocer todos los riesgos.

Considera primero lo positivo. Estas tecnologías están comenzando a mejorar nuestras vidas de innumerables maneras, desde simplificar nuestras compras hasta mejorar nuestras experiencias de atención médica. Su valor para las empresas también se ha vuelto innegable: casi el 80% de los ejecutivos de las empresas que están implementando IA dijeron recientemente que ya están viendo un valor moderado de ella. Aunque el uso generalizado de la IA en los negocios aún está en pañales y quedan preguntas abiertas sobre el ritmo del progreso, así como sobre la posibilidad de alcanzar el santo grial de la «inteligencia general», el potencial es enorme. La investigación del McKinsey Global Institute sugiere que para 2030, la IA podría generar una producción económica global adicional de 13 billones de dólares por año.

Sin embargo, aunque la IA genera beneficios para el consumidor y valor comercial, también está dando lugar a una serie de consecuencias no deseadas y, en ocasiones, graves. Y aunque nos enfocamos en la inteligencia artificial en este artículo, estos riesgos y efectos colaterales (y las formas de prevenirlos o mitigarlos) se aplican por igual a todos los análisis avanzados. Los más visibles, que incluyen violaciones de la privacidad, discriminación, accidentes y manipulación de los sistemas políticos, son más que suficientes para incitar a la cautela. Más preocupantes aún son las consecuencias aún no conocidas o experimentadas. Las repercusiones desastrosas, incluida la pérdida de vidas humanas, si un algoritmo médico de IA falla o el compromiso de la seguridad nacional, si un adversario alimenta desinformación a un sistema militar de IA, son posibles, al igual que los desafíos importantes para las organizaciones,

Debido a que la IA es una fuerza relativamente nueva en los negocios, pocos líderes han tenido la oportunidad de perfeccionar su intuición sobre el alcance total de los riesgos sociales, organizacionales e individuales, o de desarrollar un conocimiento práctico de sus impulsores asociados, que van desde los datos alimentados en sistemas de IA hasta el funcionamiento de modelos algorítmicos y las interacciones entre humanos y máquinas. Gracias a ella también se consiguen experiencias hiperpersonalizadas. Como resultado, los ejecutivos a menudo pasan por alto los peligros potenciales («No estamos usando IA en nada que pueda ‘explotar’, como los autos sin conductor») o sobreestiman las capacidades de mitigación de riesgos de una organización.

Los líderes que esperan evitar, o al menos mitigar, las consecuencias no deseadas necesitan desarrollar sus habilidades de reconocimiento de patrones con respecto a los riesgos de la inteligencia artificial e involucrar a toda la organización para que esté lista para asumir el poder y la responsabilidad asociados con la IA. El nivel de esfuerzo requerido para identificar y controlar todos los riesgos clave de esta inteligencia artificial supera drásticamente las normas vigentes en la mayoría de las organizaciones. Lograr un progreso real exige un enfoque multidisciplinario que involucre a los líderes del C-suite y de toda la empresa; expertos en áreas que van desde legal y riesgo hasta TI, seguridad y análisis; y gerentes que pueden garantizar la vigilancia en la primera línea.

Hay otras consecuencias importantes, entre las que se encuentra el potencial muy discutido de pérdidas generalizadas de empleos en algunas industrias debido a la automatización del lugar de trabajo impulsada por la IA. También hay efectos de segundo orden, como la atrofia de las habilidades (por ejemplo, las habilidades de diagnóstico de los profesionales médicos) a medida que los sistemas de IA crecen en importancia. Estas consecuencias seguirán recibiendo atención a medida que crezcan en importancia percibida, pero están más allá de nuestro alcance aquí.

Comprender los riesgos y por qué suceden 

Cuando algo sale mal con la inteligencia artificial o hay riesgos presentes, y la causa raíz del problema sale a la luz, a menudo hay una gran cantidad de sacudidas de cabeza. En retrospectiva, parece inimaginable que nadie lo viera venir. Pero si realiza una encuesta de ejecutivos bien ubicados sobre el próximo riesgo de IA que probablemente aparecerá, es poco probable que obtenga algún tipo de consenso.

Los líderes que esperan cambiar su postura de retrospectiva a prospectiva deben comprender mejor los tipos de riesgos que están asumiendo, sus interdependencias y sus causas subyacentes. Para ayudar a construir esa intuición faltante, describimos a continuación cinco puntos débiles que pueden dar lugar a riesgos de inteligencia artificial. Los primeros tres (dificultades de datos, problemas tecnológicos y problemas de seguridad) están relacionados con lo que podría denominarse habilitadores de IA. Los dos últimos están vinculados con los algoritmos y las interacciones hombre-máquina que son fundamentales para el funcionamiento de la propia IA.

Dificultades de datos

Ingerir, clasificar, vincular y usar correctamente los datos se ha vuelto cada vez más difícil a medida que aumenta la cantidad de datos no estructurados que se ingiere de fuentes como la web, las redes sociales, los dispositivos móviles, los sensores y el Internet de las cosas. Como resultado, es fácil caer en trampas tales como el uso o la revelación inadvertida de información confidencial escondida entre datos anónimos. Por ejemplo, si bien el nombre de un paciente puede estar borrado de una sección de un registro médico que utiliza un sistema de IA, podría estar presente en la sección de notas del médico del registro.

Problemas tecnológicos

Los problemas de tecnología y procesos en todo el panorama operativo pueden afectar negativamente el rendimiento de los sistemas de IA. Por ejemplo, una importante institución financiera tuvo problemas después de que su software de cumplimiento no detectara los problemas comerciales porque las fuentes de datos ya no incluían todas las operaciones de los clientes.

Problemas de seguridad

Otro problema emergente es la posibilidad de que los estafadores exploten datos financieros, de salud y de marketing aparentemente no confidenciales que las empresas recopilan para alimentar los sistemas de IA. Si las precauciones de seguridad son insuficientes, es posible unir estos hilos para crear identidades falsas. Aunque las empresas objetivo (que de otro modo podrían ser muy eficaces para salvaguardar la información de identificación personal) son cómplices involuntarios, aún podrían experimentar una reacción violenta de los consumidores y repercusiones regulatorias.

Modelos que se portan mal

Los modelos de IA en sí mismos pueden crear problemas cuando entregan resultados sesgados (lo que puede suceder, por ejemplo, si una población está subrepresentada en los datos utilizados para entrenar el modelo), se vuelven inestables o arrojan conclusiones para las cuales no hay recurso procesable para los afectados. por sus decisiones (como alguien que le niega un préstamo sin saber qué podría hacer para revertir la decisión). Considere, por ejemplo, el potencial de los modelos de IA para discriminar involuntariamente a las clases protegidas y otros grupos al entrelazar el código postal y los datos de ingresos para crear ofertas específicas. 

Más difíciles de detectar son los casos en que los modelos de IA acechan en las ofertas de software como servicio (SaaS). Cuando los proveedores introducen nuevos, características inteligentes, a menudo con poca fanfarria, también están introduciendo modelos que podrían interactuar con los datos en el sistema del usuario para crear riesgos inesperados, incluido el aumento de vulnerabilidades ocultas que los piratas informáticos podrían explotar. La implicación es que los líderes que creen que están limpios si su organización no ha comprado o construido sistemas de IA, o solo está experimentando con su implementación, bien podrían estar equivocados.

Problemas de interacción

La interfaz entre personas y máquinas es otra área de riesgo clave. Entre los más visibles se encuentran los desafíos en los sistemas automatizados de transporte, fabricación e infraestructura. Los accidentes y las lesiones son posibles si los operadores de equipos pesados, vehículos u otra maquinaria no reconocen cuándo se deben anular los sistemas o tardan en anularlos porque la atención del operador está en otra parte, una posibilidad clara en aplicaciones como los automóviles autónomos. Por el contrario, el juicio humano también puede resultar defectuoso al anular los resultados del sistema. 

Detrás de escena, en la organización de análisis de datos, los errores de secuencias de comandos, las fallas en la gestión de datos y los errores de juicio en los datos de entrenamiento de modelos pueden comprometer fácilmente la equidad, la privacidad, la seguridad y el cumplimiento. 

El personal de primera línea también puede contribuir involuntariamente, como cuando una fuerza de ventas más experta en vender a ciertos grupos demográficos inadvertidamente entrena una herramienta de ventas impulsada por IA para excluir ciertos segmentos de clientes. Y estos son solo consecuencias no deseadas. Sin medidas de seguridad rigurosas, los empleados descontentos o los enemigos externos pueden corromper los algoritmos o utilizar una aplicación de IA de manera malintencionada.

Gestión de riesgos de inteligencia artificial: 3 claves

Además de proporcionar una idea de los desafíos que se avecinan, los ejemplos y la categorización anteriores son útiles para identificar y priorizar los riesgos y sus causas principales. Si comprendes dónde pueden estar al acecho los riesgos de la inteligencia artificial, mal entendidos o simplemente no identificados, tiene más posibilidades de detectarlos antes de que lo alcancen.

Pero necesitará un esfuerzo concentrado en toda la empresa para pasar de catalogar los riesgos a erradicarlos. Las experiencias de dos bancos líderes ayudan a ilustrar la claridad, la amplitud y el rigor matizado que se necesita. El primero, un jugador europeo, ha estado trabajando para aplicar análisis avanzados y capacidades de inteligencia artificial para la optimización de centros de llamadas, la toma de decisiones hipotecarias, la gestión de relaciones y las iniciativas de gestión de tesorería. El segundo es un líder mundial que busca aplicar un modelo de aprendizaje automático a sus decisiones crediticias de clientes.

Estos bancos, como muchos otros en el sector de servicios financieros, han estado aplicando algún tipo de análisis avanzado durante varios años, desde su uso temprano en la detección de fraudes con tarjetas de crédito y el comercio de acciones. También están sujetos a un alto grado de supervisión regulatoria y, por lo tanto, durante mucho tiempo han estado aplicando y haciendo transparente una amplia gama de protocolos y controles para mitigar los riesgos relacionados con la inteligencia artificial, incluido el riesgo de ciberseguridad, donde con frecuencia están en primera línea dado el evidente atractivo de sus activos a los atacantes.

No obstante, las historias de estos bancos solo ilustran un subconjunto de los controles específicos de riesgo que las organizaciones deberían considerar. Estos ejemplos pueden ayudar a los líderes que deben enfrentar una amplia gama de problemas, desde evitar el sesgo en los motores de recomendación hasta eliminar el riesgo de identidad personal y adaptar mejor las respuestas de los bots de servicio al cliente a las necesidades específicas. clientes, y muchos más más allá.

artículos relacionados

Nuevas generaciones: ¿cómo manejar su alta rotación en los...

Permanecer décadas en un solo trabajo es cosa del pasado. Hoy cambiar de trabajo de forma constante es una muestra de adaptación, crecimiento y desarrollo profesional. La búsqueda de nuevos desafíos es la norma y las empresas buscan cómo ajustarse a estas reglas impuesta por las recientes generaciones.

La inteligencia artificial en España se dispara con un...

La Fundación Nantik Lum ha organizado un acto enfocado en el vínculo entre la inteligencia artificial y el emprendimiento

El imparable crecimiento del mercado y la tecnología sostenible

Según Research and Markets, el mercado de la tecnología sostenible y verde crecerá casi un 30% anual hasta 2027

Guía de Empresas