Resumen

  • Anthropic ha presentado una solicitud ante la FEC para crear un comité de acción política financiado por empleados, conocido como AnthroPAC.
  • Este movimiento sigue a una disputa con la administración de Trump sobre el uso militar del modelo de IA Claude.
  • La solicitud evidencia cómo las empresas de IA se están preparando para involucrarse más directamente en la política estadounidense.

Anthropic, la prominente empresa de inteligencia artificial con sede en San Francisco, ha presentado documentación ante la Comisión Federal de Elecciones (FEC) para establecer un comité de acción política, lo que marca un paso significativo en su incursión en la política de EE. UU. en medio de un creciente debate sobre políticas de IA y su enfrentamiento con la Casa Blanca.

La compañía registró el Anthropic PBC Political Action Committee, conocido como AnthroPAC, en un trámite realizado el viernes. Este comité está diseñado como un fondo separado vinculado a la empresa y autorizado a realizar donaciones políticas financiadas por contribuciones de los empleados. Según un informe de Bloomberg, dichas contribuciones están limitadas a $5,000 por empleado.

Los comités de acción política financiados por empleados permiten a las empresas recaudar contribuciones voluntarias de sus trabajadores y distribuir esos fondos a candidatos y comités políticos.

Otras empresas tecnológicas que han establecido PACs incluyen a Google, Microsoft y Amazon. En 2024, solo estos tres PACs contribuyeron más de $2.3 millones a candidatos políticos en EE. UU., según datos de financiación de campañas del grupo de investigación sin fines de lucro OpenSecrets. Aunque las contribuciones se destinaron tanto a republicanos como a demócratas, las donaciones se inclinaron hacia candidatos del Partido Republicano durante la temporada electoral de 2024.

La decisión de Anthropic se produce en un contexto de creciente conflicto con la administración del presidente Donald Trump respecto al uso militar de sus sistemas de IA.

En febrero, Trump ordenó a las agencias federales que dejaran de utilizar la tecnología de Anthropic tras un desacuerdo entre la empresa y el Pentágono sobre cómo se podría desplegar su modelo de IA Claude en el ámbito militar. A pesar de un ultimátum por parte del Departamento de Defensa de EE. UU., Anthropic se negó a cumplir las demandas del Pentágono para eliminar salvaguardias que prohíben el uso del sistema en vigilancia masiva o en armas letales completamente autónomas.

En marzo, Anthropic presentó una demanda federal impugnando la decisión del gobierno de clasificar a la empresa como un “riesgo en la cadena de suministro” de seguridad nacional, un estatus que prohibió a los contratistas del Pentágono hacer negocios con la firma. La compañía argumentó que esta medida era una represalia por su negativa a relajar las restricciones sobre los usos militares de su IA.

La semana pasada, la jueza de distrito de EE. UU., Rita Lin, emitió una orden de restricciones preliminar que bloquea la aplicación de dicha clasificación, al considerar que las acciones del gobierno probablemente violaron los derechos de la Primera Enmienda y el debido proceso de Anthropic.

Anthropic aún no se ha pronunciado públicamente sobre la creación del PAC. Sin embargo, este movimiento sucede en un momento en que la legislación sobre inteligencia artificial es un tema en crecimiento en Washington, justo antes de las elecciones de medio término en EE. UU., lo que subraya cómo los desarrolladores de IA buscan influir en las políticas hasta 2027. En febrero, un informe de CNBC reveló que en 2026, Anthropic donó $20 millones a Public First Action, un grupo que apoya acciones para desarrollar salvaguardias para la IA.

Anthropic no respondió de inmediato a una solicitud de comentarios por parte de Decrypt.

Boletín Informativo Diario

Comienza cada día con las principales noticias actuales, además de características originales, un pódcast, videos y más.

Fuente: decrypt.co