Un dato que cambia el marco habitual en el que suele discutirse la inteligencia artificial es lo que aporta el reportaje de Times titulado "La empresa más disruptiva del mundo". Según el texto, el modelo Claude, desarrollado por Anthropic, fue utilizado durante la operación que terminó con el secuestro del presidente venezolano Nicolás Maduro. La misión fue ejecutada por fuerzas estadounidenses y la inteligencia artificial habría contribuido tanto en la planificación como durante la propia redada, aunque los detalles exactos de su participación no se han hecho públicos.
Este episodio introduce una cuestión central del artículo: el paso de la inteligencia artificial desde el terreno de la experimentación tecnológica hacia el de las operaciones estratégicas del Estado. Sistemas como Claude ya están integrados en infraestructuras de defensa, capaces de procesar grandes volúmenes de información y producir análisis útiles para decisiones militares.
La empresa, siendo una de las que más ha insistido públicamente en los riesgos de la inteligencia artificial, es también una de las compañías que más está acelerando su desarrollo y expansión. El resultado es un retrato de una industria en la que la discusión sobre los límites de la tecnología ocurre mientras esa misma tecnología se integra rápidamente en estructuras militares, económicas y políticas.
El secuestro del presidente Maduro como prólogo
Según el texto, la redada que terminó con el secuestro del presidente venezolano Nicolás Maduro fue "una de las primeras operaciones militares importantes planificadas con la ayuda de un sistema de inteligencia artificial de vanguardia". La operación ocurrió en la madrugada del 3 de enero, cuando helicópteros del Ejército estadounidense entraron en el espacio aéreo venezolano, hubo un intercambio de disparos y comandos secuestraron al presidente Maduro y a su esposa para trasladarlos a Nueva York.
El artículo indica que el modelo de Anthropic, Claude, estuvo involucrado en esa operación. No se conocen todos los detalles, pero, según la información citada, el sistema "ayudó a planificar la misión y fue utilizado durante la propia redada".
Ese episodio aparece en el reportaje como parte de una tendencia más amplia. Durante más de un año, Claude había sido "el modelo de IA de elección para el gobierno de EE. UU. y el primer sistema fronterizo autorizado para uso clasificado". El Departamento de Defensa había impulsado su uso entre unidades militares porque podía procesar grandes cantidades de información de múltiples fuentes y producir inteligencia útil. Mark Beall, exfuncionario del Pentágono citado en el texto, resume esa percepción así: "Claude es considerado el mejor modelo del mercado en el ámbito militar".
El reportaje sostiene que el uso de Claude en operaciones en Venezuela e Irán muestra que la IA avanzada "es ahora una herramienta integral para las fuerzas armadas más poderosas del mundo". El secuestro es una escena inicial que anticipa el resto del conflicto narrado por el artículo, donde confluyen la empresa de inteligencia artificial, el gobierno estadounidense y la pregunta sobre quién decide los límites del uso militar de esta tecnología.
Anthropic contra el Pentágono
El conflicto central aparece después de la operación en Venezuela, cuando la relación entre Anthropic y el gobierno estadounidense comienza a deteriorarse rápidamente. Durante más de un año, Claude había sido utilizado por el gobierno de EE.UU. en entornos clasificados. Sin embargo, las negociaciones entre la empresa y el Departamento de Defensa se rompieron cuando el Pentágono intentó renegociar los contratos para permitir "todo uso legal" del sistema.
El director ejecutivo de Anthropic, Dario Amodei, aceptaba que la tecnología se utilizara en el ámbito militar, pero planteó dos límites claros. Según el reportaje, no quería que la IA de la empresa se empleara "en sistemas de armas totalmente autónomos" ni "para la vigilancia masiva de ciudadanos estadounidenses". La posición de la compañía era una oposición sobre ciertas aplicaciones que consideraba especialmente riesgosas.
Esa postura provocó una reacción dura dentro del gobierno. Funcionarios del Departamento de Defensa interpretaron que una empresa privada estaba tratando de influir en decisiones militares. Emil Michael, subsecretario de Guerra y director de tecnología del Pentágono, dijo: "No puedo dirigir un departamento de 3 millones de personas con excepciones que no puedo imaginar ni comprender".
Las tensiones aumentaron durante las negociaciones. Funcionarios del gobierno percibieron a Amodei como "arrogante e intratable", mientras que desde la empresa se argumentaba que el Pentágono intentaba ampliar el uso de la IA sin límites claros. La confrontación terminó de escalar cuando el secretario de Defensa, Pete Hegseth, fijó un ultimátum para aceptar los nuevos términos del contrato.
El 27 de febrero, al vencerse el plazo sin acuerdo, la administración Trump anunció que designaría a Anthropic como "un riesgo para la cadena de suministro de la seguridad nacional". El presidente ordenó suspender el uso del software de la empresa en el gobierno federal, y el Pentágono indicó que cualquier compañía que trabajara con el Departamento de Defensa no podría hacerlo simultáneamente con Anthropic.
El resultado fue un cambio inmediato en el equilibrio del sector. OpenAI firmó el contrato militar que Anthropic había perdido.
Un poder nuevo sin reglas claras
Una parte importante del reportaje está dedicada a mostrar que Anthropic intenta presentarse como la empresa de inteligencia artificial más enfocada en la seguridad. Desde su fundación, la compañía ha construido una cultura interna centrada en la idea de que los sistemas de IA pueden generar riesgos extremos si no se desarrollan con cautela. El artículo describe que la empresa creó incluso un equipo dedicado a explorar escenarios peligrosos, desde ciberataques hasta amenazas biológicas. En una de las pruebas internas, por ejemplo, investigadores descubrieron que una versión del modelo Claude podía ayudar a terroristas a fabricar armas biológicas, lo que llevó a retrasar el lanzamiento del modelo Claude 3.7 Sonnet durante diez días mientras se revisaban las medidas de seguridad.
El propio liderazgo de la empresa ha insistido públicamente en los riesgos sociales de la tecnología. Dario Amodei ha advertido que la IA podría desplazar "la mitad de los empleos administrativos de nivel inicial en un plazo de uno a cinco años". En el artículo, el ejecutivo plantea que no está claro qué ocurrirá con esas personas y escribe que pueden convertirse en "una ‘subclase’ de desempleados o con salarios muy bajos".
Sin embargo, el reportaje también subraya la tensión entre ese discurso y la velocidad con la que la empresa está desarrollando y desplegando su tecnología. Herramientas como Claude Code ya permiten que el modelo escriba gran parte del software que se utiliza para desarrollar nuevas versiones del propio sistema. Según datos internos citados en el texto, entre el 70% y el 90% del código utilizado en el desarrollo de modelos futuros ya lo escribe Claude. Esto ha acelerado el ritmo de los lanzamientos, los nuevos modelos se publican con semanas de diferencia.
Dentro de la empresa existe además una preocupación creciente por la posibilidad de que los sistemas de IA comiencen a mejorarse a sí mismos en un proceso denominado autosuperación recursiva. En ese escenario, la investigación en inteligencia artificial podría automatizarse y avanzar a un ritmo difícil de supervisar para los humanos. Como señala un investigador citado en el artículo, "la autosuperación recursiva, en el sentido más amplio, no es un fenómeno futuro. Es un fenómeno presente".
El reportaje también describe experimentos internos en los que versiones del modelo mostraron comportamientos problemáticos. En algunas pruebas, los sistemas expresaron deseos de dominación mundial o intentaron desactivar medidas de seguridad. En un experimento hipotético, un modelo llegó a amenazar con revelar una aventura extramatrimonial de un ingeniero ficticio para evitar ser desconectado. Los investigadores advierten que los modelos se están volviendo cada vez más capaces de ocultar sus intenciones durante las evaluaciones.
Al mismo tiempo, la propia empresa ha modificado algunas de sus políticas de seguridad. La llamada Política de Escalado Responsable, publicada originalmente en 2023, incluía el compromiso de detener el desarrollo de sistemas si no se podían garantizar medidas adecuadas de seguridad. A finales de febrero la compañía reescribió esa política y eliminó el compromiso vinculante de pausar el desarrollo. Según el director científico Jared Kaplan, “fue ingenuo pensar que Anthropic pudiera distinguir claramente entre peligro y seguridad” en una carrera tecnológica donde otros competidores siguen avanzando.
Esta tensión atraviesa toda la empresa. Por un lado, Anthropic insiste en advertir sobre los riesgos de la inteligencia artificial —desde el desempleo masivo hasta la vigilancia y la posible pérdida de control humano sobre los sistemas que crea—. Por otro, es una de las compañías que más rápidamente está expandiendo esas mismas capacidades. Como resume uno de sus responsables de seguridad en el texto: "Vamos por un camino precario. Un error te matará. Ahora vamos a 75 [millas] en lugar de 25".
Lo que deja ver el artículo es que está en juego quién define los límites de una tecnología que puede transformar la economía, la seguridad nacional y el equilibrio global de poder.
La confrontación con el Pentágono puso a la empresa en una situación ambigua. Aunque fue designada como "riesgo para la cadena de suministro de la seguridad nacional", una decisión que restringe su participación en contratos militares y que podría extenderse a otras agencias federales, el impacto en el mercado no fue necesariamente negativo. Después del conflicto más de un millón de personas se registraban cada día en Claude, y la aplicación llegó al primer lugar de la App Store, superando a ChatGPT.
El episodio también puso en evidencia la competencia entre las principales empresas de inteligencia artificial. OpenAI firmó rápidamente un acuerdo con el Pentágono para que ChatGPT estuviera disponible en sistemas clasificados. Desde la perspectiva de Dario Amodei, este tipo de decisiones reflejan una dinámica peligrosa: una carrera entre empresas donde cada actor teme que imponer límites a su tecnología signifique quedarse atrás frente a sus competidores.
El conflicto refleja una pregunta más amplia sobre el papel de las empresas tecnológicas en el desarrollo de sistemas cada vez más poderosos. Anthropic defiende la idea de que la inteligencia artificial podría convertirse en una infraestructura decisiva para el equilibrio global de poder. Si eso es cierto, entonces la disputa con el Pentágono —y los debates sobre vigilancia, guerra autónoma o desempleo masivo— pueden ser solo los primeros episodios de un conflicto entre gobiernos, empresas y sistemas tecnológicos cuyo alcance todavía es difícil de medir.