En resumen
- Se informa que el Comando Central de EE. UU. utilizó Claude de Anthropic para evaluaciones de inteligencia, identificación de objetivos y simulación de batallas durante los ataques en Irán.
- Expertos advierten que el plazo de seis meses para la eliminación subestima el verdadero costo de reemplazar un modelo de IA integrado en sistemas de defensa clasificados.
- OpenAI acordó un trato con el Pentágono tras el colapso de las negociaciones con Anthropic.
Pocas horas después de que el presidente Donald Trump ordenara a las agencias federales que dejaran de usar las herramientas de IA de Anthropic, el ejército de EE. UU. llevó a cabo un importante ataque aéreo en Irán que, según se informa, dependió de la plataforma Claude de la empresa.
El Comando Central de EE. UU. empleó Claude para evaluaciones de inteligencia, identificación de objetivos y simulaciones de batalla durante los ataques en Irán, confirmaron personas cercanas al asunto al Wall Street Journal el sábado.
Esto ocurrió a pesar de la directiva de Trump el viernes, que ordenaba a las agencias iniciar un periodo de seis meses para eliminar los productos de Anthropic tras el colapso de las negociaciones entre la empresa y el Pentágono sobre el uso de sistemas de IA desarrollados comercialmente.
Decrypt se ha puesto en contacto con el Departamento de Defensa y Anthropic para obtener comentarios.
“Cuando las herramientas de IA ya están integradas en sistemas de inteligencia y simulación en vivo, las decisiones en la cúpula no se traducen instantáneamente en cambios sobre el terreno”, declaró Midhun Krishna M, cofundador y CEO de TknOps.io, un rastreador de costos de LLM, en una conversación con Decrypt. “Hay un desfase, técnico, procedimental y humano.”
“Una vez que un modelo está integrado en sistemas de inteligencia y simulación clasificados, se incurre en costos de integración ya invertidos, reentrenamiento, recertificaciones de seguridad y pruebas paralelas. Por lo tanto, un periodo de seis meses para la eliminación puede sonar decisivo, pero la verdadera carga financiera y operativa es mucho más profunda”, añadió Krishna.
“Las agencias de defensa ahora priorizarán la portabilidad y redundancia de los modelos”, aseguró. “Ningún operador militar serio quiere descubrir durante una crisis que su capa de IA es políticamente frágil.”
El CEO de Anthropic, Dario Amodei, afirmó el jueves que la compañía no eliminaría las salvaguardias que impiden que Claude sea utilizado para vigilancia masiva en el país o para armas totalmente autónomas.
«No podemos, en buena conciencia, acceder a su solicitud», escribió Amodei, después de que el Departamento de Defensa exigiera a los contratistas permitir sus sistemas para «cualquier uso legal».
«Los locos de izquierda en Anthropic han cometido un ERROR CATASTRÓFICO al intentar INTIMIDAR al Departamento de Guerra», escribió Trump posteriormente en Truth Social, ordenando a las agencias que «cesen inmediatamente» todo uso de productos de Anthropic.
El Secretario de Defensa, Pete Hegseth, se unió a la orden, designando a Anthropic como un «riesgo de cadena de suministro para la seguridad nacional», una etiqueta que anteriormente se reservaba para adversarios extranjeros, impidiendo que todos los contratistas y socios del Pentágono realizaran actividades comerciales con la empresa.
Anthropic calificó esta designación de «sin precedentes» y prometió impugnarla en los tribunales, afirmando que «nunca antes se había aplicado públicamente a una empresa estadounidense».
La empresa añadió que, hasta donde tienen conocimiento, las dos restricciones en disputa no han afectado ninguna misión gubernamental hasta la fecha.
“El debate no es si la IA se utilizará en defensa, eso ya está sucediendo”, agregó Krishna. “La cuestión es si los laboratorios de vanguardia pueden mantener salvaguardias diferenciadas una vez que sus sistemas se convierten en activos operacionales bajo contratos de ‘cualquier uso legal’.”
OpenAI se movió rápidamente para llenar el vacío con su CEO Sam Altman anunciando un acuerdo con el Pentágono el viernes por la noche que cubre redes militares clasificadas, afirmando que incluía las mismas salvaguardias que había buscado Anthropic.
Ayer llegamos a un acuerdo con el Departamento de Guerra para desplegar sistemas de IA avanzados en entornos clasificados, que solicitamos que estuvieran disponibles para todas las empresas de IA.
Creemos que nuestro despliegue tiene más salvaguardias que cualquier acuerdo anterior para IA clasificada…
— OpenAI (@OpenAI) 28 de febrero de 2026
Cuando se le preguntó si la efectividad de la prohibición de Anthropic sentaba un precedente preocupante para futuras disputas con empresas de IA, el CEO de OpenAI, Sam Altman, respondió en X: “Sí; creo que es un precedente extremadamente preocupante, y desearía que lo manejaran de otra manera.”
“No creo que Anthropic lo haya manejado bien tampoco, pero como la parte más poderosa, considero que el gobierno es más responsable. Todavía tengo la esperanza de una resolución mucho mejor”, agregó.
Mientras tanto, casi 500 empleados de OpenAI y Google firmaron una carta abierta advirtiendo que el Pentágono estaba intentando enfrentar a las empresas de IA entre sí.
Boletín Diario Daily Debrief
Comienza cada día con las principales noticias de actualidad, además de reportajes originales, un pódcast, videos y más.
Fuente: decrypt.co