Resumen
- OpenAI se une a Anthropic para restringir el acceso a su más potente IA cibernética, según un nuevo informe.
- Los modelos y productos de vanguardia parecen ser demasiado arriesgados para liberarlos al público.
- Las IA de primer nivel están comenzando a tener acceso controlado solo por invitación.
Actualmente, OpenAI está desarrollando un producto de ciberseguridad que planea lanzar exclusivamente a través de su programa «Acceso Confiable para Ciberseguridad», según un reporte de Axios. Este programa, que se anunció previamente en febrero, busca una implementación controlada que mantenga ciertos productos alejados del público general y en manos de operadores de seguridad defensiva.
OpenAI lanzó este programa después de presentar GPT-5.3-Codex, que actualmente es su oferta más capacitada en ciberseguridad, y está respaldando el acceso de los participantes con 10 millones de dólares en créditos de API.
La noticia llega en un contexto de creciente preocupación entre expertos en ciberseguridad sobre el potencial de que productos de IA cada vez más poderosos puedan sobrecargar los sistemas existentes. Esta semana, Anthropic se asustó con su propia creación, Claude Mythos.
Anthropic afirmó que Mythos es su modelo de IA más capaz, y resultó ser tan efectivo para identificar vulnerabilidades de seguridad —zero-days en todos los sistemas operativos y navegadores importantes— que decidieron que solo un grupo selecto de organizaciones debería tener acceso.
Ahora, se informa que OpenAI está haciendo algo similar.
Anthropic está actualmente librando una batalla legal después de que el Pentágono la designara como un riesgo para la cadena de suministro, tras la negativa de la compañía a levantar restricciones de uso en Claude para aplicaciones de vigilancia y armas autónomas. Las agencias federales han intensificado el escrutinio sobre los protocolos de seguridad de las empresas de IA desde principios de abril.
Hasta ahora, OpenAI no ha compartido información pública que confirme o desmienta oficialmente los informes.
La razón detrás de las restricciones no es sutil. El avance de Mythos de Anthropic, que se filtró antes de su lanzamiento oficial, fue encontrado capaz de identificar «decenas de miles de vulnerabilidades» que incluso los cazadores de errores humanos más avanzados tendrían dificultades para localizar. El modelo es descrito como «extremadamente autónomo» y razona con la sofisticación de un investigador de seguridad experimentado. Esa capacidad, disponible para cualquiera con una clave API, es precisamente lo que mantiene en vela a los equipos de seguridad.
La respuesta de Anthropic fue el Proyecto Glasswing, una iniciativa de acceso controlado que entrega el avance de Mythos solo a organizaciones evaluadas: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Fundación Linux, Microsoft, Nvidia, Palo Alto Networks y aproximadamente 40 otras involucradas en el mantenimiento de la infraestructura crítica.
La decisión de OpenAI de restringir productos como este parece ser un intento de adelantarse a la presión regulatoria. Al restringir el acceso voluntariamente antes de que una agencia gubernamental se lo exija, OpenAI se posiciona como un actor responsable en un espacio donde Anthropic está enfrentando serias dificultades.
Las restricciones también reflejan algo más profundo que la cautela frente a un modelo específico. El propio informe de seguridad de Anthropic reconoció que Cybench, el estándar utilizado para evaluar si una IA representa un riesgo cibernético serio, «ya no es suficientemente informativo sobre las capacidades actuales de los modelos de vanguardia», ya que Mythos lo superó completamente. La herramienta diseñada para medir el peligro ya no es adecuada para lo que se está construyendo. Anthropic añadió que su determinación general de seguridad «involucra juicios» y que muchas evaluaciones dejan «una incertidumbre más fundamental».
Anthropic se comprometió a destinar hasta 100 millones de dólares en créditos de uso y 4 millones en donaciones directas a organizaciones de seguridad de código abierto como parte de su lanzamiento. OpenAI no ha anunciado un compromiso comparable junto a su programa de acceso, aunque ambas empresas están enmarcando sus programas restringidos como un beneficio neto para la seguridad defensiva—la idea es que proporcionar mejores herramientas a los defensores antes de que los atacantes las obtengan vale el sacrificio de limitar el acceso general.
El patrón que está surgiendo en la industria de la IA de vanguardia es que los modelos más capaces ya no se presentarán como lanzamientos de productos amplios. Se distribuirán más como investigación clasificada—selectivamente, bajo acuerdo, a organizaciones con la infraestructura y la intención de usarlos de manera responsable.
Resumen Diario Newsletter
Comienza cada día con las principales noticias del momento, además de reportajes originales, un pódcast, videos y más.
Fuente: decrypt.co