Noticias IA de ACIAPR

Noticias de inteligencia artificial curadas con contexto, verificadas con fuentes confiables y más...

Noticias IA · Verificadas

Noticias de inteligencia artificial curadas con contexto, verificadas con fuentes confiables y más...

Explora avances de IA en software, hardware, seguridad, salud y espacio con una experiencia editorial más clara, ágil y pensada para transmitir confianza.

hardware

Anthropic asegura nueva capacidad masiva con Google y Broadcom y la guerra por cómputo de IA se pone más seria

Fuente original

Anthropic acaba de mandar una señal fuerte al mercado de inteligencia artificial: la carrera ya no se está jugando solo en modelos, sino en megavatios. La empresa anunció un nuevo acuerdo con Google y Broadcom para asegurar múltiples gigawatts de capacidad de próxima generación basada en TPU, una infraestructura que empezaría a entrar en línea desde 2027 y que servirá para seguir empujando a Claude como modelo de frontera. A simple vista puede parecer una noticia de backend, puro tema de data centers y contratos industriales. Pero en realidad es una de las historias más importantes del momento porque deja claro que, en 2026, la ventaja en IA depende cada vez más de quién puede reservar energía, chips y capacidad de nube antes que los demás.

Según Anthropic, esta es su mayor apuesta de cómputo hasta la fecha. La empresa dice que su ingreso anualizado ya superó los 30 mil millones de dólares, frente a unos 9 mil millones al cierre de 2025, y que ahora tiene más de 1,000 clientes empresariales gastando más de un millón de dólares al año. Ese crecimiento explica por qué la compañía no se está limitando a optimizar inferencia o exprimir hardware existente: está asegurando ahora mismo la infraestructura que necesitará dentro de uno o dos años. En otras palabras, Anthropic está comprando tiempo futuro de entrenamiento y despliegue antes de que la escasez vuelva a apretar.

La parte interesante del anuncio es cómo se reparten los roles. Google pone sobre la mesa sus TPU, Broadcom sigue siendo pieza clave en el diseño y escalado de esos chips, y Anthropic garantiza demanda suficiente para justificar una expansión gigantesca. CNBC añadió un dato concreto que ayuda a dimensionar el movimiento: el acuerdo ampliado le daría a Anthropic acceso a alrededor de 3.5 gigawatts de capacidad apoyada en procesadores de Google. Eso ya no suena a laboratorio prometedor; suena a infraestructura de nivel industrial, casi energético. En la práctica, la conversación pasa de “qué modelo es mejor” a “qué empresa puede sostener una fábrica entera de cómputo sin quedarse corta”.

TechCrunch también subrayó algo clave: esta expansión no sale de la nada, sino que amplía el trato que Anthropic había anunciado en 2025 para usar más TPU de Google Cloud. Ahora el mensaje es más ambicioso. No se trata solo de tener acceso a hardware alternativo a NVIDIA, sino de construir una mezcla estratégica entre AWS Trainium, Google TPU y GPU de NVIDIA. Anthropic presume precisamente esa diversidad: entrenar y correr Claude sobre múltiples plataformas para asignar cada carga al chip que mejor le convenga. Esa flexibilidad es importante porque reduce dependencia de un solo proveedor y, al mismo tiempo, le da más poder de negociación en una etapa donde cada punto de eficiencia vale muchísimo.

También hay una lectura geopolítica e industrial. Anthropic afirma que la gran mayoría de esta nueva capacidad estará ubicada en Estados Unidos, como extensión de su promesa de invertir 50 mil millones de dólares en infraestructura computacional estadounidense. Eso encaja con una tendencia más amplia: los grandes laboratorios quieren modelos más potentes, pero también cadenas de suministro más estables, más cercanas y menos expuestas a shocks regulatorios o a cuellos de botella globales. La IA de frontera ya no es solo software; es política industrial, energía, semiconductores y soberanía tecnológica.

Otra capa importante es lo que esta noticia dice sobre Google. Durante mucho tiempo, el mercado vio a Google como proveedor de nube, competidor en modelos y diseñador de chips, pero no siempre como el gran ganador externo del boom de modelos de terceros. Este acuerdo cambia un poco esa percepción. Si Anthropic escala Claude sobre TPU de Google y Broadcom sigue fabricando músculo para esa plataforma, Google no solo compite con Gemini: también monetiza la guerra de modelos ajena. Eso convierte a sus TPU en un activo cada vez más estratégico frente al dominio histórico de NVIDIA.

Para el público general, el resumen es bastante simple: la próxima gran batalla de la IA no será solo quién tiene el chatbot más simpático o el benchmark más alto. Será quién puede garantizar suficiente cómputo para seguir entrenando, servir millones de consultas y responder a clientes empresariales sin colapsar costos. Anthropic acaba de mostrar que entiende esa realidad y que está dispuesta a cerrar contratos enormes para no quedarse atrás. En esta etapa, el futuro de la IA se escribe tanto con prompts como con watts.

Fuente: Anthropic, CNBC, TechCrunch