Noticias IA de ACIAPR

Noticias de inteligencia artificial curadas con contexto, verificadas con fuentes confiables y más...

Noticias IA · Verificadas

Noticias de inteligencia artificial curadas con contexto, verificadas con fuentes confiables y más...

Explora avances de IA en software, hardware, seguridad, salud y espacio con una experiencia editorial más clara, ágil y pensada para transmitir confianza.

hardware

Anthropic ya mira más allá de NVIDIA y estudia crear sus propios chips para sostener la próxima ola de IA

Fuente original

Anthropic acaba de mandar una señal que va mucho más allá de Claude o de la competencia entre chatbots. Según Reuters, la empresa está explorando la posibilidad de diseñar sus propios chips de inteligencia artificial, un movimiento que todavía está en etapa temprana, pero que deja algo muy claro: la siguiente gran guerra de la IA ya no se está jugando solo en modelos, sino en la capacidad de asegurar hardware suficiente para entrenarlos y servirlos a escala mundial. La noticia llega apenas días después de que la propia Anthropic anunciara una expansión masiva de su alianza con Google y Broadcom para obtener múltiples gigawatts de capacidad TPU de próxima generación, lo que pinta un cuadro bastante nítido del momento actual: si una empresa quiere mantenerse en la frontera, no basta con escribir mejor software; también necesita dominar cada vez más el músculo físico que hay debajo.

Reuters reportó que Anthropic todavía no ha tomado una decisión final. Las conversaciones están en una fase inicial, la empresa aún no ha definido un diseño concreto y ni siquiera habría armado un equipo dedicado por completo a ese proyecto. Pero incluso ese nivel de exploración ya es noticia porque revela hacia dónde se mueve el mercado. Diseñar un chip de IA avanzado no es un capricho barato: según las fuentes citadas por Reuters, puede costar alrededor de 500 millones de dólares entre talento, validación y fabricación. Si Anthropic está mirando esa ruta, es porque depender únicamente de comprar chips ajenos empieza a verse insuficiente o estratégicamente incómodo.

La lógica detrás de ese interés no es difícil de entender. La demanda por Claude se disparó en 2026. La propia Anthropic dijo esta semana que su run-rate de ingresos ya superó los 30 mil millones de dólares, frente a unos 9 mil millones al cierre de 2025, y que más de 1,000 clientes empresariales ya gastan más de un millón de dólares al año con la compañía. Ese crecimiento convierte el cómputo en un tema existencial. Si tienes más clientes, más inferencia y más ambición de entrenamiento, ya no te basta con conseguir chips cuando estén disponibles; necesitas visibilidad de años, precios más controlables y menos dependencia de cuellos de botella externos.

Ahí entra el contexto del acuerdo anunciado por Anthropic con Google y Broadcom. En su comunicado oficial, la empresa explicó que aseguró múltiples gigawatts de capacidad TPU de próxima generación que comenzarán a entrar en línea desde 2027. También reiteró que sigue ejecutando Claude sobre una mezcla de hardware: AWS Trainium, TPU de Google y GPU de NVIDIA. Esa diversidad no es casualidad. Es una forma de repartir riesgo, optimizar cargas y negociar mejor con los proveedores. Pero también deja ver una tensión interesante: aunque hoy Anthropic usa infraestructura de terceros, mañana podría querer tener una pieza más propia dentro de esa cadena.

En otras palabras, el posible diseño de chips propios no contradice el acuerdo con Google y Broadcom; lo complementa. Una empresa puede necesitar capacidad externa masiva hoy mientras explora cómo ganar autonomía mañana. De hecho, ese patrón ya se está viendo en otros gigantes tecnológicos. Reuters recordó que Meta y OpenAI también están moviéndose hacia chips más personalizados. La razón es simple: NVIDIA sigue siendo el gran rey del mercado, pero depender demasiado de un solo actor en una industria con escasez recurrente es un riesgo enorme. Quien logre integrar mejor modelo, nube, energía y silicio tendrá una ventaja más difícil de copiar.

También hay una lectura más industrial de fondo. Durante mucho tiempo la conversación pública sobre IA giró alrededor de benchmarks, demos virales y asistentes más simpáticos. Pero las noticias de esta semana empujan la atención hacia algo menos glamoroso y mucho más decisivo: la infraestructura. Anthropic no solo necesita un mejor modelo; necesita miles de millones en capacidad, relaciones profundas con fabricantes y la opción de decidir qué arquitectura le conviene más a largo plazo. La IA de frontera ya se parece menos a una carrera de software puro y más a una mezcla de semiconductores, nube, energía y estrategia industrial.

Para el público general, la conclusión importante es que el próximo líder de la IA probablemente no se definirá solo por quién tenga mejores respuestas o una interfaz más bonita. También pesará quién pueda garantizar suficiente cómputo para responder millones de consultas, entrenar sistemas más complejos y defender márgenes en una industria carísima. Si Anthropic realmente termina diseñando chips propios, no será solo una jugada técnica: será una declaración de independencia estratégica. Y aunque hoy siga siendo una posibilidad temprana, el simple hecho de que ya esté sobre la mesa muestra hasta qué punto la batalla por la IA se está trasladando desde el prompt… hasta el silicio.

Fuente: Reuters, Anthropic, CNBC