fbpx
InicioActualidadEl 70% de las empresas forman en ética a sus desarrolladores de...

El 70% de las empresas forman en ética a sus desarrolladores de Inteligencia Artificial

Éste es el resultado de un informe elaborado por SAS, que también destaca que más del 63% de las empresas internacionales consultadas cuenta con comités de ética para revisar el buen uso de la Inteligencia Artificial (IA).

La Inteligencia Artificial avanza pero también necesita sus límites. Según los datos aportados por el informe Impulso, madurez y modelos de éxito de la Inteligencia Artificial, elaborado por SAS, el 70% de las grandes empresas mundiales que actualmente utilizan IA forman en ética a sus especialistas en la materia.

El informe también desvela que el 92% de las empresas consideran esencial capacitar a sus tecnólogos en ética y que más del 63% cuenta con comités de ética para revisar el buen uso de la IA. Es más, la mayoría reconocen la fuerte conexión entre el uso de la analítica y el éxito de la IA.

«Las empresas que han implementado la IA reconocen que el éxito se haya en la analítica que hay por detrás», ha dicho Oliver Schabenberger, Vicepresidente Ejecutivo y Director de Operaciones y Tecnología de SAS. «Para ellos, la analítica ha alcanzado un papel central en la IA.»

Supervisión necesaria

El 74% de las organizaciones cuentan con una supervisión rigurosa con, al menos, una revisión o evaluación semanal de los resultados que están obteniendo de la IA. Además, el 43% de las empresas aseguran que su organización tiene un proceso para reducir o anular los resultados que se consideran cuestionables durante la revisión. Aun así, el informe de SAS afirma que los procesos de supervisión tienen todavía un largo camino por recorrer hasta correlacionarse con los avances de la tecnología de IA.

Esta supervisión de la IA y la aplicación de la ética por parte de las empresas se debe a las posibles repercusiones que puede tener un resultado defectuoso. De las organizaciones que ya han implementado la IA o que planean hacerlo, el 60% afirman estar preocupadas por el impacto de las decisiones impulsadas por la IA en la relación con los clientes; por ejemplo, que sus acciones no muestren suficiente empatía o que los clientes confíen menos en ellas.

Para Rumman Chowdhury, responsable de IA en Accenture Applied Intelligence, «las organizaciones han comenzado a abordar los problemas que se sabe que puede causar la IA, tales como el trato sesgado e injusto de las personas. Estos son pasos positivos, pero, sin embargo, las organizaciones necesitan ir más allá de los códigos de ética de la IA que están en el Juramento Hipocrático para no hacer daño».

«Deben proporcionar directrices prescriptivas, específicas y técnicas para desarrollar sistemas de IA que sean seguros, transparentes, explicables y responsables, a fin de evitar consecuencias imprevistas y problemas de cumplimiento que puedan ser perjudiciales para las personas, las empresas y la sociedad. Los científicos de datos necesitan estas directrices», añade.

artículos relacionados

‘Agent Hub’: el espacio destinado a los agentes de...

Huspy ha hecho un giro de 360º en su metodología de trabajo para impulsar las habilidades de sus agentes

Revolucionando el eCommerce: el caso de AllZone

Desde nuestros inicios en junio de 2019, en AllZone hemos perseguido una visión ambiciosa, ir más allá de ser simplemente una plataforma de compras online

Fever refuerza el sur de Europa con la incorporación...

Rocío Trujillo, con más de 10 años de experiencia trabajando para empresas como McKinsey y Amazon, será la principal responsable del negocio en los mercados de Portugal, España e Italia

Guía de Empresas