El laboratorio de IA que ha declarado ser el más comprometido con la seguridad de sus sistemas enfrenta simultáneamente una guerra legal con el gobierno de Trump por sus límites éticos, y la perspectiva de que sus propias máquinas empiecen a construirse a sí mismas. En el lapso de apenas 4 meses, Anthropic —la empresa de inteligencia artificial cuya identidad corporativa está construida sobre la promesa de desarrollar IA segura— ha protagonizado uno de los conflictos más reveladores sobre el futuro de esta tecnología: 1, una batalla legal contra el gobierno de los Estados Unidos por el derecho a poner límites a sus propias creaciones (sistemas algorítmicos), y 2, la publicación de un documento en el que admite que esas creaciones podrían estar a punto de comenzar a mejorarse solas. Las dos historias son inseparables.
Para entender lo que Anthropic dice sobre el futuro de la IA, es necesario entender primero la guerra que ha librado contra el Pentágono. El primer indicio público del conflicto llegó en enero de 2026, cuando medios especializados reportaron que el Departamento de Defensa y Anthropic chocaban en torno a las condiciones de uso militar de su modelo Claude. La tensión tenía raíces más profundas: el modelo había sido utilizado, sin conocimiento de la empresa, en la operación militar estadounidense que resultó en el secuestro del Presidente venezolano Nicolás Maduro en una sangrienta incursión sobre Caracas.
«Anthropic contactó a Palantir (de Peter Thiel) —el intermediario que había facilitado el acceso de las fuerzas armadas a Claude— para expresar sus preocupaciones sobre cómo el modelo había sido utilizado en la operación». The Wall Street Journal / Axios, febrero de 2026 La empresa Anthropic declaró que sus «líneas rojas» eran claras: prohibición absoluta de uso en armas autónomas letales y en vigilancia masiva doméstica. El Departamento de Defensa respondió con un ultimátum.
Así ocurrió… El secretario de Defensa Pete Hegseth fija un plazo: Anthropic debía ceder antes de las 5:01 p. m. del 27 de febrero y aceptar el uso irrestricto de Claude para «todos los propósitos legales», incluyendo armas autónomas y vigilancia masiva.
Anthropic rechaza el ultimátum. El Presidente Trump ordena a las agencias federales dejar de usar los productos de la compañía. Hegseth designa a Anthropic como «riesgo de cadena de suministro» —una etiqueta hasta entonces reservada para empresas vinculadas a adversarios extranjeros como China.
OpenAI (Sam Altman, CEO) firma un acuerdo con el Pentágono horas antes de que EE. UU. iniciara la guerra contra Irán, sin las restricciones que Anthropic había exigido.
El propio CEO de OpenAI reconoció que el timing «parecía oportunista y descuidado». Anthropic demanda al gobierno federal en dos tribunales distintos —California y el Circuito de D. C.
— argumentando daños irreparables y violación de la Primera Enmienda. La jueza Rita F. Lin concede una medida cautelar bloqueando la designación.
En su fallo de 43 páginas concluye que el gobierno tomó «acciones de represalia» contra Anthropic por hacer pública su posición —una forma clásica de represalia inconstitucional. El Tribunal de Apelaciones del Circuito de D. C.
revierte la medida cautelar, argumentando que levantarla «obligaría a las fuerzas armadas a prolongar su relación con un proveedor no deseado en medio de un conflicto militar activo». El Pentágono anuncia acuerdos con siete empresas rivales —SpaceX, OpenAI, Google, Nvidia, Microsoft, Amazon Web Services y Oracle— para desplegar IA en redes clasificadas. .
Se negocia en las altas esferas del poder El caso tiene una dimensión aún abierta. Semanas después del conflicto más agudo, el CEO de Anthropic Dario Amodei fue recibido directamente en la Casa Blanca para hablar sobre Mythos, un nuevo modelo de Anthropic capaz de identificar vulnerabilidades de ciberseguridad. El mismo Presidente Trump calificó la reunión de «productiva» y dijo que un acuerdo era «posible».
La designación de riesgo de cadena de suministro sigue en vigor. Esto ilustra el poder del que disponen las grandes empresas de tecnología y su estrecha relación con el poder político, en un contexto de guerras, crisis económicas y climáticas. De todas maneras, lo que el conflicto reveló es, según algunos, un choque de visiones irreconciliables: la administración Trump, comprometida con la aceleración total de la IA sin restricciones, frente a una empresa que ha hecho de los límites éticos su razón de ser.
Para Anthropic, ceder habría significado destruir el fundamento sobre el que descansa su credibilidad. Para otros, menos ingenuos, es una lucha sin cuartel en el jugoso mercado de las empresas capitalistas de Inteligencia Artificial (las Big Tech) y, por el control cognitivo de la humanidad. La explosión de inteligencia Artificial: El riesgo existencial de la humanidad En ese contexto —vetada por el Pentágono, demandando al gobierno, negociando su regreso— Anthropic publicó esta semana (6-7 de mayo) la agenda de investigación de su nuevo Anthropic Institute.
Y el documento contiene una admisión sin precedentes en la historia del sector. La empresa reconoce haber observado señales tempranas de que sus sistemas de IA están comenzando a acelerar el desarrollo de sus propias versiones futuras, en lo que se conoce como «mejora recursiva». Y lo pusieron por escrito.
En otras palabras, los sistemas de IA se mandarían solos. «Para finales de 2028, es muy probable que tengamos un sistema de IA al que le puedas decir: ‘Hazte una mejor versión de ti mismo’. Y que simplemente lo haga de forma completamente autónoma» (Axios, 7 de mayo).
Así lo declaró Jack Clark, cofundador de Anthropic y director del instituto, en una entrevista desde la sede de la empresa en San Francisco. Su predicción: más de un 60% de probabilidad de que antes de que termine 2028, un modelo de IA haya entrenado de manera autónoma a su sucesor. Durante años, el término «explosión de inteligencia» fue propiedad exclusiva de filósofos y teóricos del riesgo existencial.
Esta semana, apareció en un documento oficial de Anthropic —uno de los laboratorios de inteligencia artificial más influyentes del mundo— y ya no suena a advertencia abstracta. Una explosión de inteligencia —en la definición de Clark— es el momento en que los sistemas de IA empiezan a mejorar a velocidad vertiginosa. Las consecuencias serían dobles: riesgos severos como colapsos cibernéticos o ataques biológicos; pero también oportunidades sin precedentes en medicina, biología y ciencia.
El documento pregunta cómo ensanchar los canales actuales del desarrollo farmacéutico ante la posible avalancha de candidatos a medicamentos que generarían estos sistemas. El simulacro de incendio nuclear Una de las propuestas más llamativas del documento de Anthropics es la realización de «simulacros de incendio» ante una posible explosión de inteligencia: ejercicios de mesa que pondrían a prueba la capacidad de respuesta de los directivos de los laboratorios, sus consejos de administración y los gobiernos. Los laboratorios no diseñan simulacros para problemas que consideran décadas alejados.
La cuestión filosófica Lo que plantea Clark no es solo una cuestión técnica, sino filosófica y civilizatoria. Hasta ahora, los avances en inteligencia artificial han requerido que personas fuera del sistema aporten ideas que luego se incorporan al proceso de desarrollo. Lo que cambia con la mejora recursiva es que la tecnología generaría esas ideas dentro de sí misma.
«Siempre fue el caso que los humanos fuera de la tecnología tenían que generar las ideas que luego introducían en ella. ¿Qué pasa si tenemos una tecnología que puede generar ideas dentro de sí misma sobre cómo mejorar? Eso es un concepto nuevo», planteó Jack Clark, cofundador de Anthropic y director del Anthropic Institute.
El documento de Anthropic también plantea algo inédito en el sector: la posibilidad de que las compañías de IA, en coordinación con los gobiernos, operen como bancos centrales tecnológicos, ajustando «diales» para regular la velocidad de difusión de la IA sector por sector. La analogía con la política monetaria no es casual: sugiere que la difusión de la inteligencia artificial podría requerir una gestión macroeconómica deliberada. Además, Anthropic se comprometió a publicar informes mensuales sobre cómo la IA está reconfigurando el trabajo, descritos como «señales de alerta temprana» para cambios significativos en el empleo.
Y prometió revelar públicamente cuando sus propias herramientas hayan comenzado a acelerar el desarrollo de sus modelos. ¿Sinceridad o estrategia de Marketing? Hay, por supuesto, una lectura más puntuda.
Anthropic ha construido su marca corporativa sobre la promesa de ser el laboratorio responsable en un sector acelerado. Un instituto vinculado a la seguridad y la transparencia refuerza ese posicionamiento justo cuando se aproxima la presentación de su próximo modelo. Clark lo reconoce directamente: «La motivación siempre ha sido contar la historia completa.
Solo intento adelantarme a lo que considero la próxima gran pregunta y colocar a Anthropic al frente de ella». Pero esa transparencia estratégica no hace menos real la admisión de fondo: una empresa en la frontera del desarrollo tecnológico ha puesto por escrito, de forma oficial, que sus sistemas muestran indicios de autonomizarse de sus creadores. Y ha prometido decirlo cuando eso ocurra con claridad.
En un sector donde la autocrítica pública es excepcional, eso solo ya es una novedad. Más filosofía… Pero los ciudadanos sabemos que aprendices de brujo no se detienen y los Estados, o son meros observadores, o siguen el camino del aumento/proyección de la potencia (Maquiavelo). Pues crear un objeto que se escapa de tus manos y que después te controla, es un proceso que Marx llamó alienación —apoyándose en Hegel— en sus “Manuscritos de 1848”: construyes un artefacto, le pones tu trabajo, tu conocimiento, tu vida.
Y al principio te obedece. Pero un día se escapa de tus manos, se autonomiza, empieza a moverse solo. Entonces ya no eres tú quien lo controla: él te controla a ti.
Se apropia de tu ser. Te impone el ritmo, te dicta lo que vales, y lo que debías dominar se convierte en tu dueño. Así, sin ruido, la criatura deviene riesgo existencial: porque ya no amenaza solo tu cuerpo, sino tu sentido de ser libre.
Eso es la alienación en la Historia. El capital que circula —trabajo ajeno, expropiado, explotado y acumulado en forma de dinero— mismo lo es. Y el Frankenstein digital, su resultado.
Marx puso los conceptos antes de que existiera una pantalla. Leopoldo Lavín MujicaBasado en artículos de Axios, WSJ, The New York Times.