Resumen
- Dario Amodei afirma que Anthropic no eliminará las restricciones sobre la vigilancia masiva doméstica ni sobre las armas totalmente autónomas.
- El Pentágono ha amenazado con la cancelación de contratos y posibles acciones bajo la Ley de Producción de Defensa.
- El estancamiento se produce tras informes de que el ejército de EE. UU. utilizó Claude para capturar al expresidente venezolano Nicolás Maduro.
El CEO de Anthropic, Dario Amodei, anunció el jueves que la empresa no retirará las medidas de protección de su modelo de inteligencia artificial, Claude. Esta declaración intensifica la disputa con el Departamento de Defensa de EE. UU. sobre el uso de esta tecnología en sistemas militares clasificados.
El comunicado se produce en un contexto donde el Departamento de Defensa revisa su relación con Anthropic y evalúa posibles consecuencias, incluyendo la cancelación del contrato de 200 millones de dólares y posible invocación de la Ley de Producción de Defensa.
“No podemos, en buena conciencia, cumplir con su solicitud”, afirmó Amodei, refiriéndose a la demanda del Pentágono en enero de que los contratistas de IA permitan el uso de sus sistemas para “cualquier uso legal”.
Aunque el Pentágono ha requerido que los proveedores de IA adopten un lenguaje estándar de “cualquier uso legal” en futuros acuerdos, Anthropic fue la única empresa de IA de frontera que se opuso a ceder el control de su tecnología al ejército.
El miércoles, Axios reportó por primera vez que el Pentágono había emitido un ultimátum que requería el uso militar irrestricto de Claude, con una fecha límite para este viernes.
“Es prerrogativa del Departamento seleccionar contratistas que se alineen mejor con su visión”, añadió Amodei. “Pero dado el valor sustancial que la tecnología de Anthropic aporta a nuestras fuerzas armadas, esperamos que reconsideren”.
En su declaración, Amodei enmarcó la postura de la compañía como alineada con los objetivos de seguridad nacional de EE. UU.
“Creo profundamente en la importancia existencial de usar la IA para defender a Estados Unidos y a otras democracias, y para derrotar a nuestros adversarios autocráticos”, comentó.
Amodei destacó que Claude está “extensamente desplegado en el Departamento de Guerra y otras agencias de seguridad nacional para análisis de inteligencia, modelado y simulación, planificación operativa, operaciones cibernéticas, y más”.
Conflicto sobre la IA
Esta disputa ocurre en un contexto de preocupaciones más amplias sobre cómo los sistemas de IA avanzados se comportan en escenarios militares de alto riesgo. Un estudio reciente de King’s College London reveló que los modelos de IA de OpenAI, Anthropic y Google desplegaron armas nucleares en el 95% de las crisis geopolíticas simuladas.
Durante un discurso en la Starbase de SpaceX en enero, el Secretario de Defensa, Pete Hegseth, dijo que el ejército de EE. UU. planea implementar los modelos de IA más avanzados.
En ese mismo mes, surgieron informes de que Claude se utilizó durante una operación de EE. UU. para capturar al expresidente venezolano Nicolás Maduro. Amodei desmintió que Anthropic hubiera cuestionado ninguna operación militar específica.
“Anthropic entiende que el Departamento de Guerra, y no las empresas privadas, toma decisiones militares”, afirmó. “Nunca hemos planteado objeciones a operaciones militares particulares ni intentamos limitar el uso de nuestra tecnología de manera ad hoc”.
A pesar de ello, Amodei sostuvo que el uso de estos sistemas para vigilancia masiva doméstica o armas autónomas es incompatible con los valores democráticos y representa graves riesgos.
“Hoy en día, los sistemas de IA de frontera simplemente no son lo suficientemente fiables para impulsar armas totalmente autónomas”, advirtió. “No proporcionaremos conscientemente un producto que ponga en riesgo a los soldados y civiles de EE. UU.”.
También se dirigió a la amenaza del Pentágono de designar a Anthropic como un “riesgo en la cadena de suministro”, además de la posible invocación de la Ley de Producción de Defensa.
“Estas últimas dos amenazas son inherentemente contradictorias: una nos etiqueta como un riesgo de seguridad; la otra coloca a Claude como esencial para la seguridad nacional”, afirmó.
Aunque Amodei ha declarado que la empresa no cumplirá con la solicitud del Pentágono, Anthropic ha revisado su Política de Escalado Responsable, eliminando la promesa de detener el entrenamiento de sistemas avanzados sin garantías de protección.
Robert Weissman, copresidente de Public Citizen, señaló que la postura del Pentágono representa una presión más amplia sobre la industria tecnológica.
“El Pentágono está intimidando públicamente a Anthropic, y la parte pública es intencionada, porque quieren presionar a esta empresa en particular y enviar un mensaje a toda la industria tecnológica de que pretendemos hacer y tomar lo que queramos y que no se interpongan en nuestro camino”, declaró Weissman a Decrypt.
Weissman describió las medidas de protección de Anthropic como “modestas” y destinadas a prevenir “la vigilancia indebida del pueblo estadounidense o facilitar el desarrollo y despliegue de robots asesinos, armamento habilitado por IA que podría lanzar ataques letales sin el consentimiento humano”.
“Esas son las medidas más sensatas y modestas que se podrían implementar en relación con esta poderosa nueva tecnología”.
Sobre la amenaza del Pentágono de designar a Anthropic como un “riesgo en la cadena de suministro”, Weissman la calificó como una posible sanción abrumadora por parte del gobierno y argumentó que presionaría a otras empresas de IA para evitar imponer límites similares.
“Los individuos pueden usar Claude, pero ninguna de las empresas de IA, particularmente Anthropic, tiene modelos de negocio basados en el uso individual; están buscando un uso empresarial”, dijo. “Esta es una posible sanción abrumadora por parte del gobierno”.
Mientras que el Pentágono aún no ha indicado si planea continuar con su amenaza de terminar el contrato o invocar la Ley de Producción de Defensa, Weissman destacó que el Pentágono está señalando a las empresas de IA que espera acceso irrestricto a su tecnología una vez que esté implementada en los sistemas gubernamentales.
“El mensaje del Pentágono es: ‘no vamos a tolerar esto, y esperamos poder usar la tecnología tal como se inventó para cualquier propósito que queramos’”, concluyó Weissman.
Tanto el Departamento de Defensa como Anthropic no respondieron de inmediato a las solicitudes de comentarios de Decrypt.
Fuente: decrypt.co