/ Pluralidad


news

La Inteligencia Artificial y sus desafíos legales; ¿ legislamos el futuro o perseguimos el pasado?


Meysy Elizabeth Ortegón Dzul

CEO de la empresa Meyel Corporativo, Activista y Estudiante de la Lic. En administración y gestión pública.


La Inteligencia Artificial (IA) ya no es una promesa del futuro. Es una realidad viva, autónoma, cambiante. Está tomando decisiones en hospitales, juzgados, empresas y hasta en campañas políticas. Sin embargo, mientras la IA avanza a una velocidad vertiginosa, el derecho parece caminar con pasos lentos, inseguros, como si no supiera por dónde empezar a legislarla. La gran pregunta es: ¿estamos preparados jurídicamente para convivir con estas máquinas pensantes?

Vivimos en una época donde un algoritmo puede decidir si una persona obtiene un crédito, si es sospechosa de un delito o si tiene probabilidades de reincidir. ¿Quién es responsable si el sistema se equivoca? ¿El programador, la empresa, el Estado? La ley, en muchos países —incluido México—, aún no ofrece respuestas claras. Y mientras tanto, los ciudadanos quedan expuestos a errores invisibles e injusticias difíciles de rastrear.

Uno de los mayores retos es que la IA rompe con los esquemas tradicionales del derecho. La responsabilidad civil, por ejemplo, se basa en la acción humana: quien actúa con dolo o negligencia, responde. Pero ¿y si una IA toma decisiones autónomas sin intervención humana directa? ¿Se puede responsabilizar a una máquina?

Además, existe un gran riesgo de sesgo. Si el entrenamiento de una IA se basa en datos históricos llenos de prejuicios —raciales, de género, económicos—, sus decisiones replicarán esas injusticias, ahora con apariencia de neutralidad. Regular el diseño, uso y supervisión de estos sistemas es urgente para proteger los derechos humanos.

Hoy, las grandes corporaciones tecnológicas poseen una cantidad de poder sin precedentes. Controlan la infraestructura de la IA, los datos que la alimentan y los fines para los que se utiliza. Y lo hacen sin una supervisión real por parte del Estado o de organismos internacionales. Esto plantea un nuevo tipo de desigualdad: la brecha entre quienes dominan la tecnología y quienes apenas la entienden. Si no actuamos ahora, podríamos permitir que el futuro se privatice en manos de unos cuantos, mientras la ley sigue atrapada en debates de otra época.

La labor legislativa frente a la IA no puede ser reactiva. No basta con esperar a que haya un daño para intentar repararlo. Se necesita una legislación preventiva, ética, transversal, que combine derechos humanos, innovación, transparencia y rendición de cuentas. Y para ello, el Congreso debe abrirse a especialistas, tecnólogos, académicos y ciudadanía. Necesitamos leyes que definan responsabilidades claras en el uso de IA, protejan la privacidad y los datos personales, prevengan la discriminación algorítmica, regulen la automatización en áreas sensibles como justicia, salud y seguridad, y garanticen la transparencia de los sistemas automatizados en decisiones públicas.

Legislar sobre inteligencia artificial no es una moda ni una utopía. Es un deber ético, urgente e ineludible. No se trata solo de entender la tecnología, sino de imaginar el tipo de sociedad que queremos construir con ella. Porque al final, lo que está en juego no es el avance de las máquinas, sino el respeto a lo más humano: nuestra libertad, nuestra dignidad, nuestra justicia.

¿Estamos listos para legislar el futuro o seguiremos persiguiéndolo desde el pasado?

Las opiniones vertidas en este texto son responsabilidad única y exclusiva de la autora.


Notas relacionadas