La empresa de inteligencia artificial Anthropic ha señalado a tres compañías del sector por supuestamente utilizar de manera ilícita su modelo de lenguaje, Claude, para mejorar sus propios modelos a través de una técnica conocida como ataque de “destilación”.
En una publicación en su blog el domingo, Anthropic declaró que ha identificado estos “ataques” realizados por DeepSeek, Moonshot y MiniMax, que consisten en entrenar un modelo menos potente utilizando las salidas de uno más avanzado.
Anthropic acusó a estos tres actores de generar “más de 16 millones de intercambios” combinados con el modelo Claude a través de “aproximadamente 24,000 cuentas fraudulentas”.
“La destilación es un método de entrenamiento ampliamente utilizado y legítimo. Por ejemplo, los laboratorios de inteligencia artificial de vanguardia realizan de manera rutinaria la destilación de sus propios modelos para crear versiones más pequeñas y económicas para sus clientes”, afirmó Anthropic, añadiendo:
“Sin embargo, la destilación también puede ser utilizada para fines ilícitos: los competidores pueden usarla para adquirir capacidades poderosas de otros laboratorios en una fracción del tiempo y costo que les tomaría desarrollarlas de forma independiente.”
La firma explicó que los ataques se enfocaron en extraer datos de Claude para una amplia gama de propósitos, incluyendo razonamiento agente, programación y análisis de datos, tareas de calificación basadas en rúbricas, y visión por computadora.
“Cada campaña apuntó a las capacidades más diferenciadas de Claude: razonamiento agente, uso de herramientas y programación”, mencionó la firma de inteligencia artificial valorada en miles de millones.
Anthropic aseguró que pudo identificar a estos tres actores gracias a una “correlación de direcciones IP, metadatos de solicitudes, indicadores de infraestructura y, en algunos casos, corroboración de socios de la industria que observaron los mismos actores y comportamientos en sus plataformas”.
DeepSeek, Moonshot y MiniMax son compañías de inteligencia artificial con sede en China. Las tres se estiman que tienen valoraciones en el rango de miles de millones de dólares, siendo DeepSeek la más reconocida a nivel internacional de las tres.
Más allá de las implicaciones sobre la propiedad intelectual, Anthropic argumentó que las campañas de destilación por parte de competidores extranjeros presentan riesgos geopolíticos reales.
“Los laboratorios extranjeros que destilan modelos estadounidenses pueden alimentar luego estas capacidades desprotegidas en sistemas militares, de inteligencia y de vigilancia, lo que permite a gobiernos autoritarios desplegar inteligencia artificial de vanguardia para operaciones cibernéticas ofensivas, campañas de desinformación y vigilancia masiva”, advirtió la empresa.
De cara al futuro, Anthropic indicó que se protegerá mejorando los sistemas de detección para identificar tráfico dudoso, compartiendo inteligencia sobre amenazas y ajustando los controles de acceso, entre otras medidas.
Relacionado: El informe de Catástrofe de Citrini asusta a los inversores en software y acciones de pagos
La firma también hizo un llamado a una mayor colaboración entre los participantes de la industria nacional y los legisladores para ayudar a evitar que las compañías de IA extranjeras ataquen a las empresas estadounidenses.
“Ninguna empresa puede resolver esto por sí sola. Como señalamos anteriormente, los ataques de destilación a esta escala requieren una respuesta coordinada en toda la industria de la IA, proveedores de nube y responsables de políticas. Publicamos esto para hacer que la evidencia esté disponible para todos los interesados en el resultado.”
Revista: El ecosistema crypto ama a Clawdbot/Moltbot, calificaciones de Uber para agentes de IA: AI Eye
Cointelegraph se compromete a un periodismo independiente y transparente. Este artículo de noticias se produce de acuerdo con la Política Editorial de Cointelegraph y tiene como objetivo proporcionar información precisa y oportuna. Se alienta a los lectores a verificar la información de manera independiente. Lea nuestra Política Editorial https://cointelegraph.com/editorial-policy.
Fuente: cointelegraph.com