Noticias IA de ACIAPR

Noticias de inteligencia artificial curadas con contexto, verificadas con fuentes confiables y más...

Noticias IA · Verificadas

Noticias de inteligencia artificial curadas con contexto, verificadas con fuentes confiables y más...

Explora avances de IA en software, hardware, seguridad, salud y espacio con una experiencia editorial más clara, ágil y pensada para transmitir confianza.

hardware

Gemma 4 apunta a llevar la IA local en Android a otro nivel con más velocidad, menos batería y capacidades agentic

Fuente original

Google está empujando una idea que podría cambiar bastante la forma en que usamos inteligencia artificial en el día a día: que una parte cada vez más importante de la IA no viva solo en la nube, sino directamente en nuestros dispositivos. Con el lanzamiento de Gemma 4 dentro del AI Core Developer Preview de Android, la compañía no solo presentó un nuevo modelo abierto. También dejó ver una estrategia mucho más ambiciosa: convertir la IA local en una capa real del ecosistema móvil, con mejor rendimiento, menor consumo y nuevas capacidades pensadas para experiencias agentic.

Lo interesante de Gemma 4 no es únicamente que sea una familia de modelos abiertos, sino cómo está siendo posicionada. Google la describe como la base de la próxima generación de Gemini Nano 4, lo que significa que lo que hoy se está probando en preview terminará influyendo directamente en la IA que correrá dentro de futuros dispositivos Android compatibles. En otras palabras, no estamos viendo solo una herramienta para developers curiosos, sino una pieza que apunta al corazón de la experiencia móvil de los próximos meses.

Una IA pensada para correr cerca del usuario

Durante los últimos años, la narrativa dominante alrededor de la IA ha estado muy ligada a centros de datos enormes, costos crecientes de cómputo y servicios remotos cada vez más sofisticados. Pero Google está dejando claro que no todo el futuro pasa por depender siempre de la nube. Gemma 4 empuja la idea de una IA que corre on-device, es decir, directamente en el teléfono o en otros dispositivos edge, con menos latencia y menos dependencia de servidores externos.

Eso importa por varias razones. Primero, porque una IA local puede responder más rápido. Segundo, porque puede mejorar privacidad al no requerir enviar todo al cloud. Y tercero, porque abre la puerta a experiencias más naturales dentro del sistema operativo: asistentes que entienden contexto local, apps que reaccionan en tiempo real y flujos de trabajo que no se sienten como una llamada constante a un servicio remoto.

Qué modelos están pensados para móvil

Google está organizando Gemma 4 en varias variantes, pero las dos más importantes para esta conversación son E2B y E4B, diseñadas específicamente para dispositivos móviles y edge. Según la información oficial, estas versiones fueron optimizadas para ofrecer un mejor balance entre potencia y eficiencia.

La compañía afirma que:
- E2B está optimizada para máxima velocidad y baja latencia,
- E4B apunta a tareas más complejas y mayor capacidad de razonamiento,
- el nuevo modelo puede ser hasta 4 veces más rápido que versiones previas,
- y puede usar hasta 60% menos batería.

Además, Google sostiene que E2B es 3 veces más rápida que E4B, lo que deja claro que no todas las variantes buscan lo mismo. El objetivo parece ser ofrecer diferentes perfiles de uso: uno más agresivo en velocidad y eficiencia, otro más fuerte en calidad y reasoning.

¿En qué tipo de dispositivos corre realmente?

Aquí es donde la noticia se pone más concreta. Gemma 4 está entrando en el AICore Developer Preview, que funciona sobre dispositivos Android compatibles con el Prompt API de AICore. Eso significa que no se trata de una promesa abstracta de futuro: ya existe una ruta oficial para probar modelos en hardware Android compatible.

Aunque Google no está presentando públicamente una lista simple de “estos diez teléfonos exactos”, sí deja ver con bastante claridad el tipo de arquitectura al que apunta. Según las coberturas y materiales oficiales:
- el equipo de Pixel trabajó junto a Qualcomm y MediaTek
- para optimizar estas variantes móviles
- con foco en inferencia local eficiente

Eso apunta claramente a una estrategia centrada en chips ARM para smartphones, especialmente dentro de los ecosistemas donde Snapdragon y MediaTek dominan el hardware Android moderno.

Además, las coberturas técnicas también señalan que Gemma 4 no se está pensando solo para teléfonos. Google la está empujando como una familia capaz de correr en otros dispositivos edge, incluyendo:
- Raspberry Pi
- Jetson Nano
- y otros entornos locales donde la inferencia eficiente importa más que tener el modelo más gigantesco posible

Más que un modelo abierto: una apuesta por IA utilizable

Otro detalle importante es que Google no está vendiendo Gemma 4 como un simple modelo de chat. La está posicionando para:
- reasoning
- coding
- tool calling
- structured output
- system prompts
- y flujos más agentic

Eso quiere decir que la ambición va más allá de responder preguntas. La compañía quiere que estos modelos sirvan para construir sistemas locales capaces de planificar, ejecutar tareas en varios pasos, interactuar con herramientas y sostener experiencias más autónomas directamente en el dispositivo.

De hecho, Google ya habla de Gemma 4 como base para experiencias agentic y multimodales en Android, con soporte para más de 140 idiomas y capacidades para procesar texto, imagen y audio. Si esa visión se consolida, la IA local dejaría de ser una versión reducida de la nube y empezaría a convertirse en una categoría con valor propio.

Por qué esto importa

Lo más importante de Gemma 4 es que muestra un cambio de etapa. La industria lleva mucho tiempo obsesionada con modelos cada vez más grandes, pero Google está apostando también a otra dirección: hacer que la IA útil pueda correr de forma práctica, rápida y eficiente en hardware cotidiano.

Eso puede tener consecuencias grandes. Si los modelos locales mejoran lo suficiente, el teléfono deja de ser solo una terminal para acceder a una IA remota y empieza a convertirse en una plataforma inteligente con capacidades reales de procesamiento, contexto y asistencia. Y eso cambia producto, experiencia, costos e incluso competencia.

Conclusión

Gemma 4 no importa solo porque sea un nuevo modelo abierto de Google. Importa porque representa una apuesta seria por la IA local, eficiente y agentic dentro del ecosistema Android. Con variantes optimizadas para móviles, colaboración con Qualcomm y MediaTek, mejoras fuertes en velocidad y batería, y un camino claro hacia Gemini Nano 4, Google está mostrando que el futuro de la IA no será únicamente más grande. También tendrá que ser más cercana, más rápida y más eficiente.

Y si esa apuesta funciona, una parte importante de la próxima gran ola de IA no vivirá en centros de datos lejanos, sino en el bolsillo del usuario.

Fuente: Google Android Developers Blog, Google Developers Blog, Ars Technica