La palabra regular viene del latín regulare: ajustar según una regla. Supone que existe algo fijo, algo que se deja medir. Pero, ¿qué ocurre cuando aquello que intentamos ajustar cambia de forma mientras redactamos la norma?

Esa es la paradoja que enfrenta Chile con su proyecto de ley sobre inteligencia artificial, que avanza en el Senado con la ambición de convertirse en el marco más completo de América Latina. El proyecto clasifica los sistemas de IA según niveles de riesgo, prohíbe usos inaceptables y contempla multas de hasta 20. 000 UTM.

Es un esfuerzo serio. Sin embargo, esconde una tensión que la filosofía de la técnica advirtió hace décadas. Hans Jonas, en El principio de responsabilidad, sostuvo que la técnica moderna produce consecuencias que exceden toda capacidad de previsión.

No es que la tecnología sea mala; es que sus efectos desbordan las categorías con que solemos legislar. Una ley basada en riesgos supone que podemos anticipar los daños. Pero la IA no espera.

Esto no es abstracción. Entre enero de 2025 y febrero de 2026, los congresos latinoamericanos presentaron al menos 201 proyectos de ley sobre tecnologías digitales, según el Observatorio Legislativo del CELE. Argentina lidera con 63, seguida por Brasil, México, Perú y Chile.

La cantidad es notable, pero la pregunta filosófica permanece: ¿regular más significa comprender mejor? Aquí aparece lo que llamo la trampa filosófica: legislar lo desconocido con herramientas diseñadas para lo estable. El derecho opera con definiciones fijas; la IA, con mutación continua.

El proyecto chileno define “sistema de inteligencia artificial” como un sistema basado en máquina que genera resultados a partir de datos. Esa definición, razonable hoy, podría quedar obsoleta antes de que la ley entre en vigor. La tentación natural es importar el modelo europeo.

Pero Europa regula desde la abundancia tecnológica; América Latina lo hace desde la dependencia. No producimos los modelos que pretendemos gobernar. Regulamos artefactos ajenos con gramáticas prestadas.

Llevo años pensando esta tensión. En mi libro Algoritmos deshumanizantes: IA y la pérdida de la noción de individuo argumenté que el riesgo más profundo de la inteligencia artificial no está en sus fallos técnicos, sino en la erosión silenciosa de lo que nos hace sujetos: la capacidad de decidir, de disentir, de no ser reducidos a un patrón de datos. Una ley puede prohibir un uso “inaceptable” de la IA, pero difícilmente puede legislar contra la lenta desaparición del individuo que ocurre cuando delegamos el juicio a un algoritmo.

Nada de esto es un argumento contra la regulación. Es un llamado a regular con humildad epistemológica. Las leyes de IA necesitan algo que pocas incluyen: cláusulas de caducidad, mecanismos de revisión obligatoria y la honestidad de admitir que toda norma sobre IA nace con fecha de vencimiento.

El proyecto chileno contempla una evaluación cada tres años. Es un comienzo, pero tres años en inteligencia artificial son una era geológica. América Latina tiene una oportunidad que no debe desperdiciar: en lugar de copiar marcos ajenos, puede proponer algo distinto.

Una regulación que parta no del riesgo técnico, sino de la dignidad de quien es afectado por un sistema que no comprende. Eso exige menos ingeniería jurídica y más filosofía. Porque regular lo desconocido no es imposible.

Pero la ley, esta vez, no puede llegar con la pretensión de decir la última palabra. Debe llegar con la disposición de ser reescrita.