La inteligencia artificial plantea posibilidades para potenciar ciertas actividades que antes del desarrollo de esa tecnología estaban restringidas sólo a la humanidad. Sin embargo, estas potencialidades se fundan sobre características que retan a los marcos regulatorios vigentes. En este artículo se explora la agencia de los sistemas y se propone que esta capacidad de acción yace en el centro del problema de su regulación.
La inteligencia artificial (IA) ocurre en la intersección de varios campos de la ciencia y la tecnología. De hecho, el Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial (2019) de la Comisión Europea propone una definición práctica centrada en sistemas, en lugar de dispositivos aislados. En última instancia, los sistemas de IA están diseñados para realizar instancias de procesamiento de información, aprendizaje y razonamiento con el fin de tomar decisiones. Este artículo se enfoca en la capacidad de agencia como el objetivo final de la IA como principal distintivo de otras tecnologías. Además, se propone que esa capacidad se encuentra en el centro del problema de su regulación.
El hecho de que la IA esté construida como un sistema implica que, para que funcione, operan e interactúan varios componentes, por lo que también intervienen múltiples aspectos tecnológicos. Ello, a su vez, hace que la regulación de la IA sea compleja, intersectando otras regulaciones. Por ejemplo, sobre la privacidad de los datos, el acceso a la información pública, la vigilancia, los derechos de autor, el deslinde de responsabilidades, la rendición de cuentas, la falsificación, etc. Sin embargo, éstos ya eran desafíos regulatorios, ya sea por méritos propios o en conjunción con otros desarrollos tecnológicos, que ahora se ven exacerbados por la aparición de la IA.
Entonces, ¿qué retos adiciona la IA a esos desafíos? ¿Es necesaria una regulación específica para la IA? ¿Cuál es el principal problema que plantea la IA a los marcos regulatorios? Estas interrogantes ilustran que, si bien es cierto que existen problemas agravados por la IA, como la falsificación de voz y video que antes requerían de la intervención humana, hay un nuevo aspecto que precisamente tiende a eliminar el control humano de la configuración del problema.
Las organizaciones reguladoras alrededor del mundo están realizando grandes esfuerzos para producir un marco legal adecuado para la investigación, el desarrollo, la aplicación y la evaluación de la IA.
Por su parte, el Parlamento Europeo (2024) aprobó recientemente una Ley de Inteligencia Artificial para “mejorar el funcionamiento del mercado interior estableciendo un marco jurídico uniforme” en la Unión Europea. Esta regulación reconoce la capacidad de inferencia de la IA como una característica clave que permite a los sistemas generar predicciones, contenido, recomendaciones o decisiones. A su vez, esto le otorga capacidad de acción a los sistemas de IA.
Por otra parte, en octubre de 2023 el gobierno de Estados Unidos publicó la Orden Ejecutiva sobre el Desarrollo y Uso Seguro, Protegido y Confiable de la Inteligencia Artificial, en la que se define a la IA como “un sistema basado en máquinas que puede, para un conjunto dado de objetivos definidos por humanos, hacer predicciones, recomendaciones o decisiones que influyen en entornos reales o virtuales” (La Casa Blanca, 2023).
En ambos casos, se considera que los sistemas de IA son capaces de influir en las decisiones humanas o de tomar decisiones por sí mismos. Para disminuir los riesgos asociados, estas regulaciones incorporan consideraciones para prohibir, supervisar, auditar, revertir o remediar los efectos de dichas decisiones. Se trata del inicio de una actitud de reconocimiento de las posibilidades futuras, en línea con el llamado principio de precaución (Petit y De Cooman, 2020, 7). Sin embargo, esto actúa en contra del objetivo del desarrollo de la IA: máquinas capaces de pensar como lo hacen los humanos (o, incluso, de una forma mejorada) (Turing, 1950).
Como resultado, es de esperar que exista una tensión entre el estado de derecho y el desarrollo libre de la IA. Mientras que el primero apunta a establecer un marco para que los agentes sociales interactúen de manera adecuada, el segundo lo hace para agregar un nuevo tipo de agentes.
En sentido amplio, la agencia de la IA significa que ella tiene la capacidad de actuar sobre su entorno. En estos sistemas, dicha capacidad es artificial, es decir, en principio, está programada por personas humanas; sin embargo, está presente con la finalidad de actuar sobre la sociedad y el mundo en general.
Incluso en definiciones más restringidas que requieren que la actuación suceda en función de una intención, el problema central de la acción del agente artificial persiste. La intención está incorporada artificialmente en los sistemas de IA a través de la fijación de un objetivo, aun si el proceso de inferencia permanece amplio. Es decir, en la IA, la intención toma la forma de la búsqueda del logro de un objetivo con una libertad de medios significativa. Esto se refleja en una incertidumbre sobre el curso de acción que toma el sistema para lograr del objetivo que se le estableció. Lo que en términos efectivos produce a un agente. La inclusión de características de aprendizaje (un rasgo común en los sistemas de IA) exacerba este fenómeno.
El reconocimiento de la capacidad de acción es un elemento central de la regulación de la IA. Aunque insólito, las organizaciones pudieran reconocer que partes clave del proceso de toma de decisiones se están delegando en sistemas. En comparación con otras tecnologías, la IA puede participar en las decisiones más allá de simplemente proporcionar datos, puede realizar inferencias. Además, se están desarrollando sistemas para avanzar aún más en su autonomía (Saenz et al., 2023).
Ahora bien, la forma específica de la cuestión regulatoria sobre la IA es el control de un nuevo tipo de agentes, diseñados y desplegados artificialmente. Al tratarse de una tecnología aún incipiente, es natural que las regulaciones que reconocen la capacidad de acción exijan una supervisión humana. Sin embargo, con el avance de la autonomía esto puede resultar cada vez más difícil. Algunos podrían incluso argumentar que dicha supervisión es contraria al propósito último de la IA.
No se trata de un llamado urgente a un cambio de paradigma, sino de reconocer que tarde o temprano se presentarán nuevos dilemas a la sociedad y a sus organismos reguladores. Por ejemplo, actualmente la IA es diseñada y manejada por personas humanas, lo que dirige la asignación de responsabilidades hacia quien la diseña o implementa.
Sin embargo, a la luz de que algunos son capaces de programar, puede ser que una instancia de IA diseñe a otra IA. Esta externalización puede dificultar el seguimiento de la rendición de cuentas. Entonces, los organismos reguladores deberían tomar en cuenta que los sistemas creados por la IA pudieran actuar dirigidos por objetivos y medios potencialmente desconocidos para un agente humano. A la vez, esto implica la necesidad de incluir normas para un nuevo tipo de agentes creados artificialmente.
La distinción entre agentes humanos y artificiales es clave porque, en el caso de la IA, podemos establecer reglas sobre cómo programar su comportamiento antes de su implementación. Principalmente, establecer objetivos apropiados y limitar los medios para lograrlos.
Sin embargo, el reconocimiento de la agencia también requiere establecer reglas para escenarios en los que la autonomía de los sistemas es inadecuada. Los marcos regulatorios que dan cauce al aprovechamiento de la IA no omiten las cuestiones planteadas por la capacidad de los sistemas para actuar sobre su entorno sobre los aspectos a los que se les ha dado acceso.
En efecto, los sistemas de IA pueden actuar como agentes artificiales que actúan sobre otros sistemas sociales y naturales. Como agentes, pueden mostrar un cierto nivel de intención que se deriva de los objetivos y medios que se les han fijado y permitido por diseño.
El desarrollo de nuevos sistemas tiene entre sus metas dotarlos de una mayor autonomía.
A su vez, esta capacidad de acción es lo que la distingue de otras tecnologías y se encuentra en el centro de la cuestión regulatoria que plantea.
En las regulaciones vigentes, la inclusión de agentes de IA ha sido atendida mediante una serie de medidas como la prohibición de ciertas aplicaciones, la supervisión humana y las acciones correctivas. No obstante, es posible que esté pendiente una atención específica a cuestiones más complejas en las que la autonomía de los sistemas de IA impide la intervención de los humanos.
Por ejemplo, el caso de sistemas que programan a otros sistemas.
Por lo tanto, es razonable esperar que las regulaciones futuras sean más explícitas en el tratamiento de los sistemas de IA como agentes.
Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial. 2019. A definition of AI: Main capabilities and scientific disciplines.
La Casa Blanca. 2023. Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. Recuperado el 1 de julio de 2024, de https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/.
Parlamento Europeo. 2024. “Document P9_TA (2024)0138”. EUR-Lex. Recuperado el 24 de junio de 2024, de https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=EP%3AP9_TA%282024%290138. Petit, Nicolas y Jerome De Cooman. (2020). Models of Law and Regulation for AI. EUI Working Papers, RSCAS 2020/63.
Saenz, Agustina D., Zach Harned, Oishi Banerjee, Michael D. Abràmoff y Pranav Rajpurkar. (2023). “Autonomous AI systems in the face of liability, regulations and costs”. npj Digit. Med. 6, 185.
Turing, Alan. 1950. “Computing Machinery and Intelligence”. Mind 49: 433-460.