Gemma 4: La nueva apuesta de Google por la IA local y de código abierto
Google ha lanzado Gemma 4, una familia de modelos abiertos diseñados específicamente para el razonamiento avanzado y flujos de trabajo agenticos. Esta nueva generación se basa en la investigación y tecnología de Gemini 3, buscando maximizar la inteligencia por parámetro y permitiendo que los desarrolladores ejecuten modelos altamente capaces directamente en su propio hardware.
Versatilidad y rendimiento en diversos dispositivos
La familia Gemma 4 se presenta en cuatro tamaños distintos para adaptarse a diferentes necesidades de cómputo:
- Effective 2B (E2B) y Effective 4B (E4B): Optimizados para ofrecer la máxima eficiencia de memoria y cómputo, ideales para dispositivos móviles e IoT.
- 26B Mixture of Experts (MoE): Diseñado para brindar una inteligencia de frontera en computadoras personales.
- 31B Dense: El modelo más robusto, que se posiciona como uno de los modelos abiertos más potentes del mundo.
Según datos de Arena AI (al 1 de abril de 2026), el modelo de 31B ocupa el tercer lugar y el de 26B la sexta posición en la clasificación de texto, superando en rendimiento a modelos que son hasta 20 veces más grandes.
Capacidades avanzadas y accesibilidad
Gemma 4 va más allá del chat convencional, integrando capacidades para manejar lógica compleja y flujos de trabajo autónomos. Entre sus funciones principales destacan:

- Flujos de trabajo agenticos: Soporte nativo para la llamada de funciones (function calling), permitiendo crear agentes que planifican y navegan por aplicaciones.
- Razonamiento multimodal: Capacidad de comprensión visual y auditiva.
- Soporte multilingüe: Comprensión de contexto cultural en 140 idiomas.
- Licencia abierta: Disponible bajo la licencia Apache 2.0, facilitando su adopción por parte de la comunidad.
Impacto en la experiencia del usuario
La capacidad de ejecutar IA de forma local ha generado diversas reacciones en el sector tecnológico. Medios como Geeky Gadgets destacan que se trata de una IA que no requiere conexión a internet, mientras que en XDA señalan que, aunque puede no ser el LLM local más inteligente, es uno de los más prácticos para el uso diario. Asimismo, Tom’s Guide ha experimentado la sustitución de ChatGPT por esta IA offline en dispositivos móviles.
Además, la flexibilidad de estos modelos ha permitido que la comunidad cree variantes. por ejemplo, Decrypt menciona que ya existen implementaciones que hacen que Gemma emule la forma de pensar de otros modelos como Claude Opus.
