Más allá del interesante debate técnico jurídico constitucional que sobre la interpretación de la cuarta enmienda en la era digital tuvo lugar en Riley v. California1, lo interesante del caso para los efectos de esta columna es poner de relieve cuan potente es la onda expansiva de la Inteligencia Artificial (IA) que, incluso, ya está presente en el discurso judicial de tan importante tribunal. La frase del juez Roberts, “los teléfonos celulares modernos (…) ahora son una parte tan generalizada e insistente de la vida cotidiana que el proverbial visitante de Marte podría concluir que eran una característica importante de la anatomía humana”, no hace sino confirmar esta tendencia por la vía de hacer referencia al fenómeno de la ciborgización, que es una de las caras más populares de la IA y que causa mayor atracción en la opinión pública.
La carta de navegación que Estados Unidos tiene en materia de IA data del 12 de octubre de 2016 y se trata del informe “Preparing for the future or artificial intelligence”, presentado por el Committee on Technology del National Science and Technology (NSTC), Subcommittee on Machine Learning and Artificial Intelligence, adscritos al Council de la Executive Office of the President. El tono del informe es optimista en cuanto a que la IA tiene el potencial para mejorar la vida de las personas ayudando a resolver algunos de los mayores desafíos e ineficiencias del mundo. Señala asimismo que la IA, dado su carácter de tecnología multipropósito, tiene aplicaciones en muchos productos, como automóviles y aviones, que están sujetos a regulaciones diseñadas para proteger al público de daños y garantizar la equidad en la competencia económica.
A la luz de esas consideraciones, el informe se pregunta: ¿cómo afectará la incorporación de la IA a los bienes y servicios en función de los enfoques regulatorios relevantes en la materia? La tesis del informe es que, en general, el enfoque de la regulación del mercado de la IA para proteger la seguridad pública debe basarse en la evaluación de los aspectos de riesgo que la adición de la IA puede reducir, junto con los aspectos de riesgo que pueden aumentar. Además, si un riesgo cae dentro de los límites de un régimen regulatorio existente la discusión de la política debe comenzar considerando si las regulaciones existentes ya abordan adecuadamente el riesgo o si deben adaptarse a la adición de IA. Por otra parte, cuando las respuestas regulatorias a la adición de IA amenazan con aumentar el costo de cumplimiento o retrasar el desarrollo o adopción de innovaciones beneficiosas, los responsables de la formulación de políticas deberían considerar cómo esas respuestas podrían ajustarse para reducir los costos y las barreras a la innovación sin afectar negativamente a la seguridad o el mercado.
Fomento de la innovación y respeto de los derechos humanos (civil rights) son los términos de la ecuación regulatoria que comienza a gestarse en Estados Unidos. Se trata de impulsar la IA con justicia, equidad, responsabilidad y seguridad (justice, fairness, accountability and safety), en concordancia con una orientación formalizada preliminarmente en el informe Big Data: Seinzing Opportinities Preserving Values (2014)2, que enfatiza la regulación en materia de privacidad, derechos de los consumidores, transparencia, seguridad y no discriminación.
Sin embargo, las primeras leyes federales sobre IA no han recaído en temas relativos a civil rights, sino que han regulado temas de defensa y seguridad. La Section 238(g) of the John S. McCain National Defense Authorization Act for Fiscal Year 2019, Pub. L. No. 115-232, 132 Stat. 1636, 1695 (Aug. 13, 2018) (codified at 10 U.S.C. § 2358, note) dio el importante paso de proponer algunas definiciones IA, preceptuando que el término “inteligencia artificial” incluye lo siguiente: (1) cualquier sistema artificial que realiza tareas bajo diferentes e impredecibles circunstancias sin supervisión humana significativa o que puede aprender de la experiencia y mejorar rendimiento cuando se expone a conjuntos de datos; (2) un sistema artificial desarrollado en software de computadora, hardware físico o en otro contexto que resuelve tareas que requieren percepción, cognición, planificación, aprendizaje, comunicación o acción física similares a la humana; (3) un sistema artificial diseñado para pensar o actuar como un humano, incluyendo arquitecturas cognitivas y redes neuronales; (4) un conjunto de técnicas, incluido el aprendizaje automático, que está diseñado para aproximarse a una tarea cognitiva y (5) un sistema artificial diseñado para actuar racionalmente, incluyendo un agente de software inteligente o un robot incorporado que logra objetivos utilizando la percepción, planificación, razonamiento, aprendizaje, comunicación, toma de decisiones y actuación.
Y fue en la misma John S. McCain National Defense Authorization Act for Fiscal Year 2019, que se estableció la Comisión de Seguridad Nacional sobre Inteligencia Artificial como una Comisión independiente “para considerar los métodos y medios necesarios para avanzar en el desarrollo de inteligencia artificial, aprendizaje automático y tecnologías asociadas para abordar de manera integral las necesidades de defensa y seguridad nacional de los Estados Unidos «. Pues bien, dos años después acaba de publicar su informe final (marzo 2021).
El informe, de 756 págionas, concluye: “Esta nueva era de competencia promete cambiar el mundo en el que vivimos y cómo vivimos en él. Podemos dar forma al cambio que se avecina o dejarnos llevar por él. Ahora sabemos que los usos de la IA en todos los aspectos de la vida crecerán y que el ritmo de la innovación seguirá acelerándose. Sabemos que los adversarios están decididos a convertir las capacidades de IA en nuestra contra. Sabemos que China está decidida a superarnos en liderazgo de IA. Sabemos que los avances en IA se basan en sí mismos y confieren importantes ventajas de primer movimiento. Ahora debemos actuar. Los principios que establecemos, las inversiones federales que hacemos, las aplicaciones de seguridad nacional que presentamos, las organizaciones que rediseñamos, las asociaciones que forjamos, las coaliciones que construimos y el talento que cultivamos marcarán el rumbo estratégico de Estados Unidos. Estados Unidos debería invertir lo que sea necesario para mantener su liderazgo en innovación, utilizar la IA de forma responsable para defender a las personas y las sociedades libres, y hacer avanzar las fronteras de la ciencia en beneficio de toda la humanidad. La IA va a reorganizar el mundo. Estados Unidos debe liderar la car
Por otra parte, actualmente se tramitan dos proyectos de ley: el Algorithmic Accountability Act of 2019 (04/10) (2019), introducido por los senadores Ron Wyden (D-OR), Cory Booker (D-NJ) y la representante Yvette Clarke (D-NY). El proyecto busca evitar la discriminación en contra de mujeres y grupos étnicos mediante el uso de algoritmos en casos de contratación laboral, consumo, crédito, entre otras materias. También el representante Mark Takano (D-California) introdujo el proyecto Justice in Forensic Algorithms Act (09/17/2019), para garantizar que los acusados tengan acceso al código fuente y otra información necesaria para ejercer sus derechos de confrontación y debido proceso cuando se utilizan algoritmos para analizar la evidencia en su caso (opening the black box of forensic algorithms).
Y es que el desafío más complejo de abordar en la hora presente, por el profundo impacto que produce en la vida cotidiana de los ciudadanos, es el de la transparencia algorítmica, fuertemente potenciado por el paradigma actual dominante de IA, a saber, los sistemas de algoritmos basados en redes neuronales artificiales (neural networks)3, una de cuyas características es la difícil, por no decir a veces imposible, trazabilidad o explicabilidad de cómo producen sus predicciones y decisiones.
El problema entonces ya no es solo que los algoritmos de las más diversas funcionalidades discriminen por los sesgos, prejuicios o mecanismos seleccionadores (bias) que los propios programadores les introducen, o porque los datos en sí mismos los lleven implícitos, sino que producto del aprendizaje automático del algoritmo neuronal y de la imposibilidad de trazar el mapa o árbol de decisiones nunca se pueda saber cómo llegan a hacer sus predicciones. Lo cual, por cierto, ha generado como respuesta el nacimiento de un nuevo campo de investigación conocido como Inteligencia Artificial Explicable (Explainable Artificial Intelligence), cuyo fin es buscar herramientas algorítmicas que permitan trazar o explicar cómo los sistemas de IA y, en particular, los de aprendizaje profundo, producen sus resultados.
Mientras tanto, los derechos de las personas, seguirán siendo asediados por las redes de redes de algoritmos neuronales y otras técnicas de aprendizaje profundo.
1 Riley v. California, 573 U.S. 373 (2014).
2 Executive Office of the President (2014). Big Data: seizing opportunities, preserving values, Washington D.C., White House.
3 Una red neuronal artificial es un sistema de programas y estructuras de datos que se aproxima al funcionamiento del cerebro humano (o más bien, a como se cree que funciona el cerebro humano).Constituyen un modelo de aprendizaje profundo (deep learning) que, a su vez, es un subconjunto de un campo más amplio de la IA conocido como aprendizaje automático (machine learning). Una forma de medir empíricamente el liderazgo de las mencionadas técnicas de IA es mediante la observación del explosivo crecimiento del número de solicitudes de patentes a nivel mundial de ellas. Según el último Informe de la World Intelectual Property Organization (2019), “las técnicas de aprendizaje automático que revolucionan la inteligencia artificial son el aprendizaje profundo y las redes neuronales, y estas son las técnicas de inteligencia artificial de más rápido crecimiento en términos de solicitudes de patente: el aprendizaje profundo mostró una tasa de crecimiento anual promedio impresionante del 175 por ciento de 2013 a 2016, alcanzando las 2.399 solicitudes de patente en 2016 ; y las redes neuronales crecieron a una tasa del 46 por ciento durante el mismo período, con 6.506 solicitudes de patente en 2016. Entre las aplicaciones funcionales de IA, la visión por computadora, que incluye reconocimiento de imágenes, es la más popular. La visión por computadora se menciona en el 49 por ciento de todas las patentes relacionadas con la inteligencia artificial (167.038 documentos de patente), creciendo anualmente en un promedio del 24 por ciento (21.011 solicitudes de patente presentadas en 2016)”( pp. 13-14).