Noticias IA de ACIAPR

Noticias de inteligencia artificial curadas con contexto, verificadas con fuentes confiables y más...

Noticias IA · Verificadas

Noticias de inteligencia artificial curadas con contexto, verificadas con fuentes confiables y más...

Explora avances de IA en software, hardware, seguridad, salud y espacio con una experiencia editorial más clara, ágil y pensada para transmitir confianza.

robotics

Claude bajo la lupa: lo confirmado y lo que sigue sin probar en el caso vinculado a Irán

Un caso reciente sobre uso malicioso de modelos de lenguaje volvió a poner a Claude en el centro del debate sobre seguridad, desinformación y operaciones de influencia vinculadas geopolíticamente a Irán. El tema ha ganado tracción en redes y foros de ciberseguridad, pero conviene separar con rigor qué está confirmado por evidencia pública y qué sigue siendo atribución en investigación.

## Qué está confirmado

Lo más sólido en este momento proviene del informe de seguridad publicado por Anthropic, titulado *Detecting and Countering Malicious Uses of Claude* (marzo de 2025). Ahí la empresa describe que detectó y bloqueó una operación de “influence-as-a-service” que usó Claude para orquestar más de cien cuentas automatizadas en X/Twitter y Facebook. Según el reporte, el modelo no se usó solo para redactar texto: también se empleó para decidir acciones tácticas de cuentas bot —cuándo comentar, compartir, dar “like” o ignorar publicaciones— según objetivos políticos definidos por los operadores.

Anthropic también reportó que esa red interactuó con decenas de miles de cuentas auténticas, en varios idiomas y países, y que la compañía suspendió las cuentas asociadas a la actividad. Además, el mismo informe aclara que no observaron evidencia de viralización masiva del contenido generado por esa operación; la estrategia parecía orientada a influencia sostenida y de baja visibilidad, más que a picos de alcance.

Ese punto es importante: el informe sí confirma un uso operativo de IA generativa para coordinar actividad de bots políticos, pero también matiza el impacto observado.

## Qué está reportado, pero no confirmado

El elemento más sensible del caso es la atribución estatal. En su propio texto, Anthropic indica que las narrativas de la campaña eran “consistentes con lo esperado de campañas afiliadas a estados”, pero también afirma explícitamente que no confirmó esa atribución. Es decir: existe una señal de comportamiento compatible con actor estatal, pero no una adjudicación pública definitiva.

En paralelo, reportes de otros laboratorios de IA sí han documentado actividad iraní en el ecosistema de influencia digital. Por ejemplo, OpenAI, en su publicación *Disrupting deceptive uses of AI by covert influence operations* (mayo de 2024), describió la disrupción de una operación asociada al International Union of Virtual Media (IUVM), identificado en reportes previos como actor vinculado a Irán, que utilizó modelos para generar y traducir artículos y titulares. Ese precedente fortalece la hipótesis de que actores iraníes han intentado incorporar IA generativa en campañas informativas.

Aun así, ese antecedente no prueba por sí solo que la operación detectada por Anthropic sea la misma estructura, ni que exista coordinación directa entre casos. En términos de inteligencia, hablamos de patrones convergentes, no de identidad confirmada.

## Por qué este caso importa para la IA en seguridad y defensa

Más allá del actor específico, el caso marca un cambio técnico: pasar del uso de IA para “crear contenido” al uso de IA como motor de orquestación semiautónoma. Cuando un modelo ayuda a coordinar timing, tono y respuesta de redes de cuentas, la operación gana velocidad, escala multilingüe y capacidad de adaptación.

Ese salto tiene implicaciones directas para escenarios de seguridad nacional y, en su extremo, para entornos de conflicto híbrido o militar-informacional:

1. Mayor densidad operativa con menos personal. Equipos pequeños pueden gestionar campañas que antes requerían más analistas humanos.
2. Ciclos de reacción más cortos. La IA reduce el tiempo entre evento real y narrativa manipulada.
3. Dificultad de atribución. El contenido generado por modelos homogéneos puede diluir firmas lingüísticas tradicionales.
4. Escalada por automatización. Al combinar bots, generación multimodal y análisis en tiempo real, aumenta el riesgo de campañas persistentes de desgaste social.

## Qué esperar en los próximos meses

Es probable que veamos tres tendencias simultáneas. Primero, más reportes de “abuso agentivo” de IA por actores criminales y políticos. Segundo, respuestas defensivas más automatizadas por parte de laboratorios, plataformas y equipos de threat intel, incluyendo clasificadores específicos para detección de cadenas de prompts y comportamiento coordinado. Tercero, mayor presión regulatoria para que proveedores de modelos publiquen reportes periódicos de abuso con métricas comparables.

La lectura estratégica es clara: no estamos ante una prueba de “IA todopoderosa”, pero sí ante evidencia de que los modelos ya funcionan como aceleradores de operaciones de influencia complejas. En el caso vinculado a Irán, la prudencia analítica exige sostener dos ideas a la vez: hubo abuso real documentado y bloqueado; la autoría estatal final, al menos de forma pública, sigue en terreno no concluido.

### Fuentes
- Anthropic — Detecting and Countering Malicious Uses of Claude (marzo 2025)
- OpenAI — Disrupting deceptive uses of AI by covert influence operations (mayo 2024)

Fuentes: Anthropic Threat Intelligence Report: Detecting and Countering Malicious Uses of Claude (March 2025), OpenAI Report: Disrupting deceptive uses of AI by covert influence operations (May 2024)