regulación para la inteligencia artificial

Con motivo de los rápidos desarrollos tecnológicos, así como la implementación de sus nuevas modalidades, como la inteligencia artificial, se ha apreciado la necesidad de una legislación al respecto. Por ello, esta semana, la Comisión Europea ha presentado la propuesta de regulación de la inteligencia artificial.

Cada vez son más los países que invierten en inteligencia artificial, además de empresas privadas que hacen uso de esta tecnología, y en contexto político global en el que nos encontramos, la Comisión Europea ha visto la necesidad de proponer un nuevo marco regulatorio común. Así mismo, con esta propuesta de legislación la Comisión tiene como objetivo fomentar la excelencia y favorecer la confianza en dicha tecnología.

«Al establecer las normas, podremos facilitar el advenimiento de una tecnología ética en todo el mundo y velar por que la UE siga siendo competitiva. Nuestras normas, que son a prueba de futuro y propicias a la innovación, intervendrán cuando sea estrictamente necesario, esto es, cuando estén en juego la seguridad y los derechos fundamentales de los ciudadanos de la UE», ha declarado Margrethe Vestager, vicepresidenta ejecutiva responsable de la cartera de una Europa Adaptada a la Era Digital.

Como parte de esta propuesta, la norma además de exponer los cambios de políticas e inversión necesaria para el liderazgo de los Estados miembros, recoge la clasificación de la inteligencia artificial, en base a los niveles de riesgo, así como la regulación de la maquinaria y robots, excluyendo los usos militares. Esta clasificación, se segmenta en cuatro jerarquías:

  • Riesgo inaceptable: se corresponde con aquellas aplicaciones de inteligencia artificial que supongan una amenaza para la seguridad, vida y derechos de las personas que se encuentren. En consecuencia, se prohibirán las aplicaciones de IA relacionadas con la manipulación del comportamiento de las personas, que puedan dar lugar a incitación de violencia u odio, así como sistemas de «puntuación social» para los Gobiernos.
  • Riesgo alto: este nivel de la clasificación está destinado a la regulación de esta tecnología en relación con sus aplicación en la salud de los ciudadanos, la educación, gestión de trabajadores o aplicación de justicia, entre otros. Así mismo, los comprendidos dentro de esta clasificación se verán sujetos a estrictos requisitos, como es el caso de la identificación biométrica.
  • Riesgo limitado: comprende las soluciones de inteligencia conversacional, frecuentemente utilizada en los centros de contacto, como chatbots o robots conversacionales. El objetivo de esta clasificación es ofrecer transparencia con el usuario, siendo necesario informarles de la interacción con una máquina.
  • Riesgo mínimo: esta última clasificación incluye la mayoría de aplicaciones de inteligencia artificial, que no suponen riesgo para la sociedad, como los filtros para el correo electrónico o videojuegos basados en IA.

La propuesta de regulación destaca la prohibición de la identificación biométrica robótica o reconocimiento facial en espacios públicos. Sin embargo, queda abolida esta prohibición en ocasiones excepcionales, sujetos a autorización específica, como situaciones relacionadas con delitos graves.

Finalmente, este planteamiento se someterá al estudio y posterior aceptación de los diferentes Gobiernos de los Estados miembros, junto con la Eurocámara.

Imágenes del artículo: Possessed Photography, Unsplash