Anthropic está poniendo a prueba el modelo de inteligencia artificial más potente que ha desarrollado hasta la fecha, y el mundo no debería haberlo conocido aún.

Una filtración de datos, reportada por Fortune el jueves, reveló que el laboratorio de IA detrás de Claude ha entrenado un nuevo modelo llamado «Mythos», que describe internamente como «de lejos el modelo de inteligencia artificial más poderoso que hemos desarrollado hasta ahora».

El modelo fue descubierto en un borrador de publicación de blog dejado en un almacenamiento de datos inseguro y accesible públicamente, junto a casi 3,000 otros activos no publicados, según investigadores en ciberseguridad que revisaron el material.

Anthropic confirmó la existencia del modelo tras la consulta de Fortune, describiéndolo como «un cambio significativo» en el rendimiento de la IA y «el más capaz que hemos creado hasta la fecha». La empresa indicó que está siendo probado por «clientes de acceso anticipado» y reconoció que un «error humano» en su sistema de gestión de contenidos fue la causa de la filtración.

El borrador de la publicación presentó un nuevo nivel de modelo llamado «Capybara», descrito como más grande y capaz que los modelos Opus existentes de Anthropic, que anteriormente eran los más potentes.

«En comparación con nuestro mejor modelo anterior, Claude Opus 4.6, Capybara obtiene puntuaciones significativamente más altas en pruebas de programación de software, razonamiento académico y ciberseguridad, entre otros», decía el borrador.

La dimensión de ciberseguridad es la que más importa para la industria cripto. El borrador mencionó que el modelo «presenta riesgos de ciberseguridad sin precedentes», un enunciado que tiene implicaciones directas para la seguridad de blockchain, la auditoría de contratos inteligentes y la creciente carrera armamentista entre atacantes y defensores en el ámbito DeFi.

Solo esta semana, Ripple anunció una renovación de seguridad impulsada por IA para el XRP Ledger, después de que un equipo rojo asistido por IA descubriera más de 10 vulnerabilidades en su código, que tiene 13 años. Ethereum lanzó un centro de seguridad post-cuántica respaldado por ocho años de investigación.

Por otro lado, la stablecoin Resolv perdió su paridad tras ser explotada por un atacante que aprovechó un contrato de acuñación sin verificaciones de oráculos y control de acceso de clave única, un fallo de infraestructura que herramientas de IA más capaces podrían identificar antes de que lo hiciera un atacante, o explotar más rápidamente que los defensores pueden responder.

Para el mercado de tokens de IA, la filtración plantea una pregunta diferente. La red descentralizada de Bittensor lanzó recientemente Covenant-72B, un modelo que compite con Llama 2 70B de Meta, provocando un repunte del 90% en TAO y llevando a los tokens secundarios a una capitalización total de mercado de $1.47 mil millones.

Un «cambio significativo» de un laboratorio centralizado como Anthropic redefine el estándar que los proyectos de IA descentralizados necesitan alcanzar. La distancia competitiva entre lo que un laboratorio corporativo bien financiado puede construir y lo que una red sin permisos puede producir se ha ampliado aún más.

Anthropic afirmó que está «siendo deliberado» respecto al lanzamiento del modelo dada su capacidad. El borrador mencionó que el modelo es costoso de operar y aún no está listo para su disponibilidad general. La compañía eliminó el acceso público al almacenamiento de datos después de que Fortune se pusiera en contacto con ellos.

La filtración en sí misma es una lección de cuidado. Una empresa que construye lo que describe como un modelo de IA con capacidades de ciberseguridad sin precedentes dejó el anuncio de dicho modelo en un almacenamiento de datos inseguro y accesible públicamente, debido a un error humano. La ironía no necesita más explicación.

Fuente: www.coindesk.com