Blog CEEDIA

Panorama y ambiente regulatorio de la Unión Europea (UE) en materia de Inteligencia Artificial (IA)

Muy coherente con la tradición del civil law, y a diferencia por cierto de lo observado en USA, que hasta el momento ha mostrado una aproximación más particular, caso a caso,  inductiva, propia del common law; la UE ha enfrentado los desafíos regulatorios en materia de IA, desde un perspectiva más general,  diseñando primero los sistemas conceptuales desde los cuales deducir las soluciones normativas. Y es que, por lo demás, difícilmente podría ser de otro modo, dada la complejidad institucional europea[1].

La primera manifestación generalista del tema, fue el denominado Proyecto Robolaw[2], iniciado en marzo de 2012 y concluido en mayo de 2014, cuyo objetivo principal fue comprender las implicaciones legales y éticas de las tecnologías robóticas emergentes y descubrir (1) si los marcos legales existentes son adecuados y viables a la luz del advenimiento y la rápida proliferación de tecnologías robóticas, y (2) de qué manera los desarrollos en el campo de la robótica afectan las normas, los valores y los procesos sociales que valoramos. El proyecto RoboLaw se centró en las fronteras extremas del avance tecnológico, enfrentando el estatus legal de la robótica, las nanotecnologías, las neuroprótesis y las interfaces cerebro-computadora.

Posteriormente la IA será objeto de análisis en la Estrategia Global para la Política Exterior y de Seguridad de la Unión Europea (2016), donde se establece entre las prioridades de su acción exterior la ciberseguridad y, dentro del capítulo de las prioridades de gobernanza mundial para el siglo XXI,  recoge la necesidad de disponer de “normas mundiales en ámbitos tales como la biotecnología, la inteligencia artificial, la robótica y los aparatos pilotados a distancia, con el fin de evitar riesgos de seguridad y aprovechar sus beneficios económicos”[3].

Avanzando en esa línea de desarrollo y para abordar los retos y aprovechar al máximo las oportunidades que ofrece la IA, en abril de 2018 la Comisión Europea publicó una estrategia europea de IA[4]. La estrategia coloca a la persona en el centro del desarrollo de  la IA, proponiendo una IA centrada en el ser humano (human-centric approach to AI). Y adoptando un planteamiento triple para potenciar la capacidad tecnológica e industrial de la UE e impulsar la adopción de la IA en todos los ámbitos de la economía, prepararse las transformaciones socioeconómicas y garantizar el establecimiento de un marco ético y jurídico apropiado.

Para concretizar la estrategia, la Comisión Europea desarrolló junto con los Estados miembros un plan coordinado sobre inteligencia artificial[5], que presentó en diciembre de 2018, para crear sinergias, reunir datos -la materia prima de muchas aplicaciones de IA- e incrementar las inversiones conjuntas. El objetivo es fomentar las inversiones públicas y privadas hasta por un mínimo de 20.000 millones de EUR anuales durante la próxima década.

La estrategia europea IA y el plan coordinado establecen como premisa de todo su accionar que la IA no es un fin en sí misma, sino un medio que debe servir a las personas con el objetivo último de aumentar su bienestar Por consiguiente, la confianza de las personas (trustworthiness) en que la IA pueda servir a ese fin, es un requisito previo para garantizar un enfoque de la IA centrado en el ser humano.

En consonancia con dichos planes y estrategias, en abril  de 2019,  la Comisión Europea, a través del Grupo de Expertos de Alto Nivel Sobre Inteligencia Artificial de la UE, presentó un documento de trabajo titulado “Proyecto de Directrices Éticas Sobre Una IA Confiable”[6]. En el mencionado estudio, se remarca que la IA es una de las fuerzas más transformadoras de nuestro tiempo y está destinada a modificar el tejido social.  Y que así como supone una gran oportunidad para aumentar la prosperidad y el crecimiento que Europa debe tratar de lograr, también implica una serie de innegables riesgos para la humanidad.  

Así es como la visión Europea dice que si bien los beneficios de la IA compensan sus riesgos, se debe seguir una línea de desarrollo que maximice los beneficios y minimice los riesgos. Para asegurar tal resultado es necesario regirse por un enfoque de la IA centrado en los seres humanos. Es decir, que obligue a recordar que el desarrollo y uso de la IA tienen por objetivo mejorar el bienestar de los seres humanos, y no verlos como un medio en sí mismos. Se propone entonces lo que denominan IA confiable. La fiabilidad de la IA se apoya en tres componentes que deben satisfacerse a lo largo de todo el ciclo de vida del sistema: a) la IA debe ser lícita , es decir, cumplir todas las leyes y reglamentos aplicables; b) ha de ser ética, de modo que se garantice el respeto de los principios y valores éticos; y c) debe ser robusta tanto desde el punto de vista técnico como social, puesto que los sistemas de IA, incluso si las intenciones son buenas, pueden provocar daños accidentales. Cada uno de estos componentes es en sí mismo es necesario pero no suficiente para el logro de una IA fiable. Lo ideal es que todos ellos actúen en armonía y de manera simultánea. En el caso de que surjan tensiones entre ellos en la práctica, la sociedad deberá esforzarse por resolverlas[7].

Asimismo se enfatiza que la fiabilidad de los sistemas de IA debe asegurarse mediante la observación de los siguientes principios: respeto de la autonomía humana, prevención del daño, equidad y explicabilidad.

Fuente: Comisión Europea (2019). Directrices éticas para una IA fiable, Bruselas, Grupo de Expertos de alto nivel sobre inteligencia artificial.

En síntesis, el Grupo de expertos de alto nivel sobre la IA postula para Europa un enfoque de la ética de la IA que utiliza el compromiso con los derechos fundamentales contenidos en los Tratados de la UE y la Carta de los Derechos Fundamentales como el medio para identificar principios éticos abstractos, y para especificar cómo los valores éticos concretos pueden operacionalizarse en el contexto de la IA. Y es que, normativamente, no podría ser de otro modo. En efecto, como es conocido, la UE se basa en un compromiso Constitucional de proteger los derechos fundamentales de los seres humanos, garantizar el respeto del estado de derecho, promover la libertad democrática y el bien común[8].

Tampoco en  este rápido vistazo al ambiente normativo europeo, podría soslayarse el Libro Blanco sobre la inteligencia artificial, publicado en el año 2020 por la Comisión Europea y que, desde una perspectiva política institucional, centra su atención en un enfoque europeo orientado a la excelencia y la confianza, no abordando, en dicho informe, el desarrollo de la IA para fines militares[9].

            Asimismo tampoco puede soslayarse el Informe de la Comisión al Parlamento Europeo, al Consejo y al Comité Económico y Social Europeo, sobre las repercusiones en materia de seguridad y responsabilidad civil de la IA, el internet de las cosas y la robótica[10].

            Pues bien, en función de toda la trayectoria brevísimamente expuesta, la Comisión Europea, el día 21 de abril de 2021,  ha coronado este proceso con la propuesta del  REGLAMENTO DEL PARLAMENTO EUROPEO Y DEL CONSEJO POR EL QUE SE ESTABLECEN NORMAS ARMONIZADAS SOBRE INTELIGENCIA ARTIFICIAL (LEY DE INTELIGENCIA ARTIFICIAL) Y QUE MODIFICA DETERMINADOS ACTOS LEGISLATIVOS DE LA UNIÓN.

            Lo comentaremos en próximas publicaciones.

Puede visitarse el sitio web de la Comisión Europea y descargar los documentos en este link:

https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence-artificial-intelligence


[1] Un vistazo en: https://europa.eu/european-union/about-eu/institutions-bodies_es [24/03/21].

[2] El título oficial de “Proyecto Robolow”  es: Regulating Emerging Robotic Technologies in Europe: Robotics facing Law and Ethics. Puede consultarte en línea: http://www.robolaw.eu/RoboLaw_files/documents/robolaw_d6.2_guidelinesregulatingrobotics_20140922.pdf [29/03/2019].

[3] Comisión Europea (2016). Una visión común, una actuación conjunta: una Europa más fuerte. Estrategia global para la política exterior y de seguridad de la unión Europea, Bruselas, p. 34, disponible en: https://eeas.europa.eu/archives/docs/top_stories/pdf/eugs_es_.pdf [24/03/21]. Mediante un proceso de consultas con los Estados Miembros y demás instituciones europeas, fue elaborada por el Alto representante de la UE y sustituye a la Estrategia de Seguridad Europea de 2003.

[4] Disponible en: https://ec.europa.eu/transparency/regdoc/rep/1/2018/ES/COM-2018-237-F1-ES-MAIN-PART-1.PDF [24/03/21].

[5] Disponible en: https://ec.europa.eu/transparency/regdoc/rep/1/2018/ES/COM-2018-795-F1-ES-MAIN-PART-1.PDF [24/03/21].

[6] Disponible en: https://op.europa.eu/es/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1 [24/03/21].

[7] Comisión Europea (2019). Directrices éticas para una IA fiable, Bruselas, Grupo de Expertos de alto nivel sobre inteligencia artificial, p.2.

[8] Véase Treaty  Establishing A Constitution For Europa (2005), más conocido como Treaty of Lisbon (2007).

[9] Disponible en: https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:52020DC0065&from=ES [24/03/21].

[10] Disponible en: https://eur-lex.europa.eu/legal-content/ES/TXT/?qid=1593079180383&uri=CELEX%3A52020DC0064 [24/03/21].

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Ver más artículos

La OECD ha creado uno de los Observatorios más profundos en materia de políticas regulatorias en la materia de IA, pero circunscrito a los países que la integran. El Observatorio de Políticas de IA de la OCDE (OECD.AI) se basa en el impulso de la Recomendación de la OCDE sobre Inteligencia Artificial (“Principios de IA de la OCDE”), el primer estándar intergubernamental sobre IA, adoptado en mayo de 2019 por los países de la OCDE y al que se adhiere el rango de socios economías.

El observatorio de la OECD puede ser consultado en el siguiente link:

https://www.oecd.ai