Noticias IA de ACIAPR

Noticias de inteligencia artificial curadas con contexto, verificadas con fuentes confiables y más...

Noticias IA · Verificadas

Noticias de inteligencia artificial curadas con contexto, verificadas con fuentes confiables y más...

Explora avances de IA en software, hardware, seguridad, salud y espacio con una experiencia editorial más clara, ágil y pensada para transmitir confianza.

robotics

Anthropic filtra el código fuente de Claude Code en un nuevo tropiezo de seguridad

Fuente original

Anthropic vuelve a quedar bajo presión tras la filtración accidental del código fuente de Claude Code, su popular herramienta de programación asistida por inteligencia artificial. El incidente llega apenas unos días después de otra exposición interna que ya había dejado al descubierto detalles de un modelo no anunciado, lo que convierte este nuevo episodio en una señal preocupante para una de las compañías que más ha intentado posicionarse como referente en seguridad y despliegue responsable dentro de la industria de IA.

De acuerdo con los reportes más recientes, la filtración ocurrió después de que una actualización de Claude Code incluyera por error un archivo source map que permitió acceder a una gran parte de la base de código en TypeScript. Medios como Fortune y The Verge señalan que el material expuesto abarca alrededor de 500,000 líneas de código distribuidas en cerca de 1,900 archivos, mientras que otras revisiones lo sitúan por encima de las 512,000 líneas. Aunque Anthropic aseguró que no se expusieron credenciales ni datos sensibles de clientes, el alcance del incidente va mucho más allá de una simple incomodidad técnica.

Qué se filtró exactamente

Lo que se expuso no fueron los pesos del modelo Claude como tal, pero sí una parte muy sensible del “harness” o capa de software que envuelve al modelo y le permite operar como una herramienta de coding agent. Esa capa es clave porque contiene instrucciones, arquitectura de memoria, manejo de herramientas, funciones internas y parte de los guardrails que orientan el comportamiento del sistema.

En otras palabras, aunque la filtración no entrega el corazón completo del modelo, sí deja ver una porción importante de cómo Anthropic convierte un modelo base en un producto utilizable y competitivo. Y eso, en el contexto actual, tiene valor enorme.

Lo que encontraron los usuarios

Desarrolladores y curiosos que comenzaron a revisar el material filtrado aseguran haber encontrado funciones no anunciadas, referencias a una arquitectura de memoria más sofisticada, instrucciones internas del sistema y hasta experimentos que sugieren futuras capacidades del producto. Entre los hallazgos más comentados aparecen un elemento tipo “pet” estilo Tamagotchi que reaccionaría a la actividad del usuario, así como una función llamada KAIROS, descrita como una posible base para un agente siempre activo en segundo plano.

Más allá de lo anecdótico, estos hallazgos alimentan una lectura más seria: Claude Code no solo estaba creciendo como producto, sino que Anthropic ya parece estar probando nuevas capas de interacción y automatización que apuntan a una experiencia mucho más agentic.

Por qué esto sí importa

Anthropic intentó bajar la temperatura del incidente al describirlo como un problema de empaquetado causado por error humano, no como una intrusión externa. Sin embargo, para el mercado y para la comunidad técnica, esa distinción no resuelve el problema principal. El daño no depende únicamente de si hubo hackeo o no; también depende de cuánto conocimiento estratégico quedó expuesto.

Claude Code es uno de los productos más visibles y mejor posicionados de Anthropic. Si competidores, investigadores o desarrolladores independientes pueden estudiar cómo está construido su entorno agentic, eso puede acelerar el desarrollo de productos rivales, inspirar clones open source o permitir ingeniería inversa sobre decisiones internas que normalmente estarían protegidas.

También golpea en lo reputacional. Anthropic ha construido buena parte de su identidad pública alrededor del discurso de seguridad, alineación y despliegue cauteloso. Cuando una empresa con esa narrativa sufre dos filtraciones importantes en cuestión de días —primero detalles de un modelo inédito y luego el código fuente de una de sus herramientas más reconocidas— la conversación cambia rápidamente de innovación a credibilidad.

El contexto lo hace peor

Lo que agrava este caso es precisamente su cercanía con la filtración previa relacionada con Claude Mythos, el modelo no lanzado que la propia empresa describía como un “step change” en capacidades. Esa exposición anterior ya había levantado dudas sobre controles internos. Ahora, con la fuga del código de Claude Code, el patrón empieza a verse menos como un error aislado y más como un problema operacional serio.

En un momento donde los laboratorios de frontera están compitiendo no solo en rendimiento sino en confianza, estos fallos pesan. Grandes empresas, gobiernos y desarrolladores no solo compran capacidad; también compran estabilidad, previsibilidad y manejo profesional del riesgo.

Conclusión

La filtración del código fuente de Claude Code no significa que Anthropic haya perdido su ventaja tecnológica, pero sí representa un golpe delicado en un punto donde la compañía quería verse más fuerte: la seguridad. Y en una industria donde cada detalle técnico puede convertirse en ventaja competitiva, dejar expuesta la capa operativa de uno de sus productos más importantes no es menor.

El verdadero impacto quizá no se verá hoy, sino en las próximas semanas, cuando quede claro si este leak se traduce en clones, mejores productos rivales o mayor presión sobre Anthropic para demostrar que puede proteger mejor sus propios sistemas. Lo que ya está claro es que la empresa enfrenta una prueba incómoda: sostener su narrativa de seguridad mientras el mercado observa dos tropiezos seguidos.

Fuente: Fortune, The Verge