Google lanzó Gemma 4, una familia de modelos abiertos bajo la licencia Apache 2.0.
La gama de cuatro modelos abarca desde teléfonos hasta centros de datos, con el modelo de 31B ocupando ya el puesto #3 a nivel global.
La IA de código abierto de EE. UU. recibe un impulso necesario, ya que Gemma 4—respaldada por DeepMind—se posiciona como el competidor estadounidense más fuerte frente a DeepSeek, Qwen y otros líderes chinos.
Hoy, las ambiciones de Google en el ámbito de la IA abierta se han intensificado. La empresa anunció Gemma 4, una familia de cuatro modelos de peso abierto que se basan en la misma investigación que Gemini 3 y están licenciados bajo Apache 2.0, lo que representa un cambio significativo respecto a los términos más restrictivos de versiones anteriores de Gemma.
Los desarrolladores han descargado generaciones anteriores de Gemma más de 400 millones de veces, dando lugar a más de 100,000 variantes comunitarias. Este lanzamiento es el más ambicioso hasta la fecha.
Acabamos de lanzar Gemma 4, nuestros modelos abiertos más inteligentes hasta la fecha.
Construido a partir de la misma investigación de clase mundial que Gemini 3, Gemma 4 trae un avance en inteligencia directamente a tu propio hardware para razonamiento avanzado y flujos de trabajo autónomos.
Durante el último año, la tabla de clasificación de IA de código abierto ha estado dominada en gran parte por modelos chinos. DeepSeek, Minimax, GLM y Qwen han ocupado los primeros puestos, dejando a las alternativas estadounidenses en una búsqueda frenética por mantenerse relevantes. Como Decrypt reportó el año pasado, los modelos abiertos chinos pasaron de representar apenas el 1.2% del uso global de modelos abiertos a aproximadamente el 30% a finales de 2025, siendo Qwen de Alibaba incluso más utilizado que Llama de Meta a nivel mundial.
Llama de Meta había sido la opción por defecto para los desarrolladores que buscaban un modelo capaz de ejecutarse localmente, pero esta reputación se ha erosionado—la licencia controlada por Meta generó dudas sobre su verdadero estatus como código abierto, y su rendimiento se ha quedado atrás frente a la competencia china. La familia OLMo del Allen Institute intentó llenar este vacío pero no logró captar un interés significativo. OpenAI lanzó sus modelos gpt-oss en agosto de 2025, proporcionando un respiro al ecosistema, aunque nunca fueron diseñados para ser competidores de vanguardia.
Ayer, una startup estadounidense de 30 personas llamada Arcee AI lanzó Trinity, un modelo abierto de 400 mil millones de parámetros que demostró que la escena estadounidense no estaba completamente muerta. Gemma 4 sigue ese impulso, ahora con todo el peso de Google DeepMind detrás, convirtiéndolo en el mejor modelo estadounidense en la escena de IA de código abierto.
El modelo fue «construido a partir de la misma investigación y tecnología de clase mundial que Gemini 3», indicó Google en su anuncio. Gemma 4 se ofrece en cuatro tamaños: Eficaz 2B y 4B para teléfonos y dispositivos periféricos, un modelo de 26B Mixture of Experts centrado en la velocidad, y un modelo denso de 31B optimizado para calidad bruta.
El modelo denso de 31B actualmente ocupa el tercer puesto entre todos los modelos abiertos en el ranking de texto de Arena AI. El modelo MoE de 26B ocupa el sexto lugar. Google afirma que ambos superan la competencia de modelos 20 veces más grandes, algo que se sostiene, al menos frente a los números de Arena AI, donde los modelos chinos aún mantienen los dos primeros puestos.
Hemos probado Gemma 4 y ha demostrado ser capaz, aunque con algunas reservas. El modelo aplica razonamientos incluso en tareas que no lo requieren, lo que puede hacer que las respuestas se sientan excesivamente elaboradas para indicaciones simples. La escritura creativa es aceptable—funcional, pero no inspiradora—y probablemente mejorará con una guía más específica y técnicas de ingeniería de solicitud.
Donde realmente sobresale es en la generación de código. Al solicitar la creación de un juego, el resultado no fue particularmente llamativo o elaborado, pero funcionó sin errores en el primer intento. No está mal para un modelo de 41 mil millones de parámetros. Esa fiabilidad en cero intentos es probablemente más valiosa que un resultado más atractivo que necesite depuración.
Puedes probar el juego (básico, pero funcional) aquí.
Los cuatro modelos cubren todo el espectro de hardware. Los modelos E2B y E4B están diseñados para teléfonos Android, Raspberry Pi y dispositivos periféricos, funcionando completamente sin conexión con casi cero latencia, entrada de audio nativa y una ventana de contexto de 128K. Los modelos de 26B y 31B están dirigidos a estaciones de trabajo y implementaciones en la nube, extendiendo el contexto a 256K y añadiendo llamadas a funciones nativas y salida JSON estructurada para la creación de agentes autónomos. Todos los modelos procesan imágenes y videos de manera nativa. Los pesos de precisión completa de los modelos más grandes se ajustan en una sola GPU NVIDIA H100 de 80 GB; las versiones cuantificadas funcionan en hardware de consumo.
La licencia Apache 2.0 es otra gran novedad. Las versiones anteriores de Gemma de Google utilizaban una licencia personalizada que generaba ambigüedad legal para productos comerciales. Apache 2.0 elimina completamente esa fricción: los desarrolladores pueden modificar, redistribuir y comercializar sin preocuparse por posibles cambios en los términos por parte de Google más adelante. El cofundador de Hugging Face, Clement Delangue, alabó esta decisión, diciendo que «la IA local está teniendo su momento» y es el futuro de la industria de la IA. El CEO de Google DeepMind, Demis Hassabis, fue más allá, llamando a Gemma 4 «los mejores modelos abiertos del mundo para sus respectivos tamaños.»
Emocionado por lanzar Gemma 4: los mejores modelos abiertos del mundo para sus respectivos tamaños. Disponibles en 4 tamaños que se pueden ajustar para su tarea específica: 31B denso para un gran rendimiento bruto, 26B MoE para baja latencia, y 2B & 4B eficaces para su uso en dispositivos periféricos. ¡Feliz construcción! pic.twitter.com/Sjbe3ph8xr
Esa es una afirmación contundente. Los sistemas propietarios de Anthropic, OpenAI y el propio Gemini de Google todavía lideran en los desafíos más complejos. Pero si hablamos de modelos con peso abierto que puedes ejecutar localmente, modificar libremente y desplegar en tu propia infraestructura, la competencia se ha vuelto significativamente más delgada. Puedes probar Gemma 4 ahora en Google AI Studio (31B y 26B) o en la Galería de Google AI Edge (E2B y E4B). Los pesos del modelo también están disponibles en Hugging Face, Kaggle y Ollama.
Resumen Diario
Comienza cada día con las principales noticias del momento, junto con características originales, un podcast, videos y más.