Ética inteligencia artificial

En los últimos años, la inversión en soluciones tecnológicas, como las basadas en inteligencia artificial, se han convertido en las herramientas predilectas para mejorar la experiencia de cliente dentro de las compañías. El motivo es sencillo, su aplicación se traduce en una eficiencia operativa que agiliza y personaliza el trabajo en los centros de contacto. Esto ha provocado un impulso notable de la inversión en este tipo de tecnologías. Por ello, la expansión y consolidación de la inteligencia artificial en todos los ámbitos provoca que inevitablemente sea necesario que exista una ética que garantice su buen uso y aplicación. 

La personalización del servicio, la optimización de recursos y, en general, la creación de una experiencia de cliente de alta calidad ya no se entiende sin la ayuda de la tecnología. Esta innovación tecnológica y el factor humano deben ir de la mano, ya que de cara al futuro no se entienden el uno sin el otro. Un ejemplo de esto es uno de los retos de 2022: humanizar los chatbots.

Patrícia Ventura, directora de proyectos digitales, afirma que «la tecnología se tiene que diseñar con valores». Albert Sabater, director de la Cátedra- Observatorio de Ética en Inteligencia Artificial de Catalunya, destacó que la IA no tiene que sustituir a las personas, sino aumentar sus capacidades. Por ejemplo, en referencia al big data, declaró que «es más importante la calidad de los datos que su volumen».

Por ello, es necesario conocer y velar por el origen de los datos, asegurar la calidad técnica de los procesos de tratamiento para minimizar los riesgos y mitigar errores, dar a conocer a los usuarios la existencia de los algoritmos y los rasgos básicos de su funcionamiento, recoger los datos personales necesarios, anonimizarlas si no son relevantes y preservarlas de un mal uso por parte de terceros.

El debate sobre el papel de la ética en la inteligencia artificial no es nuevo. De hecho, en 1985, Judith Jarvis Johnson puso de manifiesto en la revista «The Yale Law Journal» algunas preguntas sobre la complejidad que supondría para la inteligencia artificial del futuro. En la actualidad, al incorporar la inteligencia artificial a los procesos de las organizaciones, es importante dotar a la nueva tecnología de valores y principios. Además, es vital conocer sus riesgos y saber cómo gestionarlos.

Este escenario se está analizando en la Asociación sobre Inteligencia Artificial, creada por Elon Mask y Sam Altman, donde se invita a los principales líderes tecnológicos para poder identificar los diferentes dilemas éticos y prejuicios. El objetivo es determinar y establecer una reglas, un marco que se basan en el comportamiento moral, donde la inteligencia artificial pueda desarrollarse y represente a la población correctamente.

Según un estudio realizado por SAS en el año 2017, el 92% de las empresas considera prioritario capacitar a sus tecnologías en ética, mientras que el 63% cuenta con comités para tratar este tipo de asuntos, encargados de revisar el buen uso de la inteligencia artificial. Por ejemplo, la concesión de un préstamo no debe realizarse atendiendo criterios de sexo, edad o religión.

Roboética: la nueva moral del siglo XXI

El Parlamento Europeo realizó un informe sobre robótica en 2017 llamado Código Ético de Conducta y, recientemente (diciembre de 2018), ha publicado el primer borrador de la Guía Ética para el uso responsable de la Inteligencia Artificial. 52 expertos han escudriñado y exprimido los rincones de la problemática, centrándose en el ser humano siempre bajo la luz de la defensa de los derechos fundamentales. Los estándares son los siguientes:

  • Se debe asegurar que la IA está centrada en el ser humano.
  • Se debe prestar atención a los grupos vulnerables, como los menores de edad o las personas con discapacidades.
  • Debe respetar los derechos fundamentales y la regulación aplicable.
  • Debe ser técnicamente robusta y fiable.
  • Debe funcionar con transparencia.
  • No debe restringir la libertad humana.

Por ello, las grandes empresas, organizaciones y gobiernos están centrándose en los problemas que puedan surgir respecto a la ética de la inteligencia artificial. Alcanzar un acuerdo donde se puedan regular las prácticas y sus consecuencias es fundamental, por lo que será uno de los grandes retos de cara al futuro.

Si quieres saber más sobre el tema, mira esta entrevista a Fernando Broncano, catedrático de Filosofía de la Ciencia.

Imágenes del artículo: Lukas, Unsplash