Con fecha 21 de abril de 2021, la Comisión Europea propuso al Parlamento y Consejo Europeo una propuesta de Reglamento Para Establecer Normas Armonizadas de Inteligencia Artificial (Ley de Inteligencia Artificial) ( Laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain unión legislative acts).
Puede descargarse el proyecto en el siguiente link:
Es el primer proyecto de Ley en el mundo que propone una regulación general de la de IA. Consta de 12 Títulos y 85 artículos en los cuales se regulan algunos de los aspectos más evidentemente peligrosos para los derechos fundamentales de las personas, orientando el desarrollo de la IA hacia objetivos de confiabilidad y sustentabilidad que contribuirían a mantener y expandir el liderazgo tecnológico europeo.
El índice del proyecto es el siguiente:
- Título I: Disposiciones generales (General provisions). Arts. 1-4.
- Título II: Prácticas de IA prohibidas (Prohibited Artificial Intelligence Practices). Arts.
- Título III: Sistemas de IA de Riesgo Alto (High-Risk AI Systems). Arts. 6-51.
- Título IV: Obligaciones de transparencia para ciertos sistemas de IA (Transparency obligations for certain AI systems). Art. 52.
- Título V: Medidas de apoyo a la innovación (Measures in support of innovations). Arts. 53-55.
- Título VI: Gobernanza (Governance). Arts. 56-59.
- Título VII: Base de datos de la UE para sistemas de de IA de alto riesgo independientes (EU database for stand-alone high risk AI systems). Art. 60.
- Título VIII: Seguimiento postventa, intercambio de información y vigilancia del mercado (Post-market monitoring, information sharing, market surveillance). Arts. 61-68.
- Título IX: Código de conducta (Code of conduct). Art. 69.
- Título X: Confidencialidad y sanciones (Confidentiality y penalties). Arts. 70-72.
- Título XI: Procedimiento de delegación de poder y comité (Delegation of power and committee procedure). Arts. 73-74.
- Título XII: Disposiciones finales (Final provisions). Arts. 75-85.
El Título I define el objeto del reglamento y el ámbito de aplicación de las nuevas normas que cubren la comercialización, puesta en servicio y uso de sistemas de IA. También establece las definiciones utilizadas en todo el instrumento. La definición de sistema de IA en el marco legal tiene como objetivo ser lo más neutral posible desde el punto de vista tecnológico y a prueba de futuro, teniendo en cuenta los rápidos desarrollos tecnológicos y de mercado relacionados con la IA. Con el fin de proporcionar la seguridad jurídica necesaria, el título I se complementa con el anexo I, que contiene una lista detallada de enfoques y técnicas para el desarrollo de la IA que la Comisión debe adaptar en función de los nuevos avances tecnológicos. Los participantes clave en toda la cadena de valor de la IA también están claramente definidos, como proveedores y usuarios de sistemas de IA que cubren tanto a los operadores públicos como privados para garantizar la igualdad de condiciones.
Resulta interesante destacar la definición de IA que propone:
“Artículo 3 Definiciones. A los efectos del presente Reglamento, se aplican las siguientes definiciones: (1) “sistema de inteligencia artificial” (sistema de IA): software desarrollado con una o más de las técnicas y enfoques enumerados en el anexo I y que puede, para un conjunto dado de objetivos definidos por el ser humano, generar resultados como contenido, predicciones, recomendaciones o decisiones que influyen en los entornos con los que interactúan”
El Anexo I, a su turno, específica:
“ANEXO I. TÉCNICAS Y ENFOQUES DE INTELIGENCIA ARTIFICIAL a que se refiere el artículo 3, punto 1
- Enfoques de aprendizaje automático, incluido el aprendizaje supervisado, no supervisado y por refuerzo, utilizando una amplia variedad de métodos, incluido el aprendizaje profundo;
- Enfoques basados en la lógica y el conocimiento, incluida la representación del conocimiento, la programación inductiva (lógica), las bases del conocimiento, los motores deductivos y de inferencia, el razonamiento (simbólico) y los sistemas expertos;
- Enfoques estadísticos, estimación bayesiana, métodos de búsqueda y optimización”.
El Título II establece una lista de IA prohibidas. La regulación sigue un enfoque basado en el riesgo, que diferencia entre los usos de la IA que crean (i) un riesgo inaceptable, (ii) un riesgo alto y (iii) un riesgo bajo o mínimo. La lista de prácticas prohibidas del Título II comprende todos aquellos sistemas de inteligencia artificial cuyo uso se considera inaceptable por contravenir los valores de la Unión, por ejemplo, al violar los derechos fundamentales. Las prohibiciones cubren prácticas que tienen un potencial significativo para manipular a las personas mediante técnicas subliminales más allá de su conciencia o explotar las vulnerabilidades de grupos vulnerables específicos, como los niños o las personas con discapacidad, con el fin de distorsionar materialmente su comportamiento de una manera que pueda causarles a ellos u otro persona daño psicológico o físico. Otras prácticas de manipulación o explotación que afectan a los adultos y que podrían ser facilitadas por los sistemas de inteligencia artificial podrían estar cubiertas por la legislación existente de protección de datos, protección del consumidor y servicios digitales que garantizan que las personas físicas estén debidamente informadas y tengan la libertad de elegir no estar sujetas a perfiles u otras prácticas. Eso podría afectar su comportamiento. La propuesta también prohíbe la puntuación social basada en inteligencia artificial para fines generales realizada por las autoridades públicas. Por último, también se prohíbe el uso de sistemas de identificación biométrica remota en “tiempo real” en espacios de acceso público con fines de aplicación de la ley, a menos que se apliquen ciertas excepciones limitadas.
El Título II, en su Artículo 5, prohíbe las siguientes prácticas de IA:
«1. Quedan prohibidas las siguientes prácticas de inteligencia artificial:
(a) la comercialización, puesta en servicio o uso de un sistema de inteligencia artificial que despliega técnicas subliminales más allá de la conciencia de una persona para distorsionar materialmente el comportamiento de una persona de una manera que cause o pueda causar que esa persona u otra persona daño físico o psicológico;
(b) la comercialización, puesta en servicio o uso de un sistema de inteligencia artificial que explote cualquiera de las vulnerabilidades de un grupo específico de personas debido a su edad, discapacidad física o mental, con el fin de distorsionar materialmente el comportamiento de una persona perteneciente a ese grupo de una manera que cause o pueda causarle a esa persona u otra persona daño físico o psicológico;
d) el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con el propósito de hacer cumplir la ley, a menos que y en la medida en que dicho uso sea estrictamente necesario para uno de los siguientes objetivos:
(i) la búsqueda selectiva de posibles víctimas específicas de delitos, incluidos los niños desaparecidos;
(ii) la prevención de una amenaza específica, sustancial e inminente a la vida o la seguridad física de personas físicas o de un ataque terrorista;
iii) la detección, localización, identificación o enjuiciamiento de un autor o sospechoso de un delito mencionado en el artículo 2, apartado 2, de la Decisión marco 2002/584 / JAI62 del Consejo y punible en el Estado miembro de que se trate con una pena privativa de libertad o orden de internamiento por un período máximo de al menos tres años, según lo determine la legislación de ese Estado miembro».
El Título III contiene reglas específicas para los sistemas de IA que crean un alto riesgo para la salud y la seguridad o los derechos fundamentales de las personas físicas. De acuerdo con un enfoque basado en el riesgo, esos sistemas de IA de alto riesgo están permitidos en el mercado europeo, sujeto al cumplimiento de ciertos requisitos obligatorios y una evaluación de conformidad ex ante. La clasificación de un sistema de IA como de alto riesgo se basa en el propósito previsto del sistema de IA, de acuerdo con la legislación de seguridad de productos existente. Por lo tanto, la clasificación como de alto riesgo no solo depende de la función realizada por el sistema de IA, sino también del propósito específico y las modalidades para las que se utiliza ese sistema.
• Sistemas de inteligencia artificial destinados a ser utilizados como componente de seguridad de productos que están sujetos a una evaluación de conformidad ex ante de terceros;
• otros sistemas de inteligencia artificial independientes con implicaciones principalmente en los derechos fundamentales que se enumeran explícitamente en el anexo III.
Entre los sistemas que se enumeran explícitamente en el Anexo III, podemos encontrar, entre otros:
1. Identificación biométrica y categorización de personas físicas: a) Sistemas de inteligencia artificial destinados a ser utilizados para la identificación biométrica remota «en tiempo real» y «posterior» de personas físicas; Aplicación de la ley:
3. Educación y formación profesional.
a)sistemas de inteligencia artificial destinados a ser utilizados con el fin de determinar el acceso o la asignación de personas físicas a instituciones educativas y de formación profesional;
b)Los sistemas de inteligencia artificial destinados a ser utilizados con el propósito de evaluar a los estudiantes en instituciones educativas y de formación profesional y para evaluar a los participantes en las pruebas comúnmente requeridas para la admisión a las instituciones educativas.
4. Empleo, gestión de trabajadores y acceso al autoempleo:
a)sistemas de inteligencia artificial destinados a ser utilizados para la contratación o selección de personas físicas, en particular para la publicidad de puestos vacantes, selección o filtrado de solicitudes, evaluación de candidatos en el transcurso de entrevistas o pruebas;
b)IA destinada a ser utilizada para tomar decisiones sobre promoción y terminación de relaciones contractuales relacionadas con el trabajo, para la asignación de tareas y para monitorear y evaluar el desempeño y el comportamiento de las personas en tales relaciones
6. Los sistemas de inteligencia artificial destinados a ser utilizados por las autoridades policiales para realizar evaluaciones de riesgos individuales de las personas físicas a fin de evaluar el riesgo de una persona física de cometer un delito o reincidencia o el riesgo de posibles víctimas de delitos; sistemas de inteligencia artificial destinados a ser utilizados por las autoridades policiales como polígrafos y herramientas similares o para detectar el estado emocional de una persona física;
Los sistemas de inteligencia artificial destinados a ser utilizados por las autoridades encargadas de hacer cumplir la ley para detectar falsificaciones profundas a que se refiere el artículo 52 (3);
Los sistemas de inteligencia artificial destinados a ser utilizados por las autoridades encargadas de hacer cumplir la ley para evaluar la fiabilidad de las pruebas en el curso de la investigación o el enjuiciamiento de delitos penales.
Finalmente, y para concluir esta primera hojeada, tampoco hay que perder de vista que el proyecto también incluye un sistema de Gobernanza Europeo de la IA (European Artificial Intelligence Board) y excluye expresamente en el artículo 2, Nº 3, la regulación de la IA para fines exclusivamente militares. Y es que no podría ser de otra manera, por los costos geopolíticos estratégicos que una regulación como esa pudiera traer aparejada.