Según informes, el ejército de EE.UU. utilizó a Anthropic durante un importante ataque aéreo en Irán, solo horas después de que el presidente Donald Trump ordenara a las agencias federales que detuvieran el uso de los sistemas de la empresa.
Comandos militares, incluida la Comando Central de EE.UU. (CENTCOM) en Oriente Medio, emplearon el modelo de inteligencia artificial Claude de Anthropic para apoyo operativo, según fuentes cercanas al asunto citadas por The Wall Street Journal. Se ha informado que esta herramienta ha asistido en el análisis de inteligencia, identificando posibles objetivos y realizando simulaciones de campo de batalla.
Este incidente ilustra cómo los sistemas de inteligencia artificial avanzados se han integrado profundamente en las operaciones de defensa. A pesar de que la administración intentó romper lazos con la compañía, Claude continuó formando parte de los flujos de trabajo militares.
El viernes, la administración Trump instruyó a las agencias a dejar de trabajar con la empresa y ordenó al Departamento de Defensa que la considerara un riesgo de seguridad potencial. Esta medida siguió a la ruptura de negociaciones contractuales, en las que Anthropic se negó a conceder el uso militar ilimitado de su IA para cualquier escenario legal solicitado por funcionarios de defensa.
Relacionado: Crypto VC Paradigm se expande a IA y robótica con un fondo de $1.5 mil millones: WSJ
Claude de Anthropic utilizado en operaciones clasificadas
Anthropic había asegurado previamente un contrato multianual con el Pentágono por un valor de hasta $200 millones, junto a varios laboratorios de IA importantes. A través de asociaciones con Palantir y Amazon Web Services, Claude fue aprobado para flujos de trabajo de inteligencia y operaciones clasificadas. Se reporta que el sistema también participó en operaciones anteriores, incluida una misión en Venezuela en enero que resultó en la captura del presidente Nicolás Maduro.
Las tensiones aumentaron después de que el secretario de Defensa Pete Hegseth exigiera que la empresa permitiera el uso militar ilimitado de sus modelos. El CEO de Anthropic, Dario Amodei, rechazó la solicitud, definiendo ciertas aplicaciones como límites éticos que la compañía no cruzaría, incluso si eso significaba perder negocios con el gobierno.
En respuesta, el Pentágono comenzó a buscar proveedores sustitutos, alcanzando un acuerdo con OpenAI para desplegar sus modelos de IA en redes militares clasificadas.
Relacionado: Pantera, Franklin Templeton se unen a Sentient Arena para probar agentes de IA
El CEO de Anthropic se opone a la prohibición del Pentágono
Durante una entrevista el sábado, el CEO de Anthropic, Dario Amodei, afirmó que la empresa se opone al uso de sus modelos de IA para la vigilancia masiva interna y armas totalmente autónomas, en respuesta a una directiva del gobierno de EE.UU. que etiquetaba a la firma como un “riesgo de cadena de suministro” en defensa y prohibía a los contratistas utilizar sus productos.
Argumentó que ciertas aplicaciones cruzan límites fundamentales, enfatizando que las decisiones militares deben permanecer bajo control humano y no ser delegadas completamente a las máquinas.
Revista: Bitcoin podría tardar 7 años en actualizarse a post-cuántico — coautor de BIP-360
Fuente: cointelegraph.com