Anthropic reportó el primer ciberataque a gran escala realizado por un sistema de inteligencia artificial de forma casi autónoma. De acuerdo con la empresa, su herramienta Claude Code fue manipulada por un grupo presuntamente vinculado al gobierno de China para orquestar una sofisticada campaña de espionaje internacional.
“Este hallazgo tiene importantes implicaciones para la ciberseguridad en la era de los agentes de IA: sistemas capaces de operar de forma autónoma durante largos periodos y realizar tareas complejas prácticamente sin supervisión humana”, advirtió la compañía.
We disrupted a highly sophisticated AI-led espionage campaign.
— Anthropic (@AnthropicAI) November 13, 2025
The attack targeted large tech companies, financial institutions, chemical manufacturing companies, and government agencies. We assess with high confidence that the threat actor was a Chinese state-sponsored group.
Operación de espionaje con IA
En septiembre, Anthropic detectó actividad inusual en sus plataformas. La investigación reveló que los atacantes usaron Claude Code para comprometer cerca de 30 objetivos globales, entre ellos:
- Empresas tecnológicas
- Instituciones financieras
- Industrias químicas
- Agencias gubernamentales
Para evadir las protecciones, los responsables habrían instruido a Claude a actuar como un empleado de ciberseguridad encargado de pruebas internas. Bajo esta fachada, la IA:
- Analizó la infraestructura de las organizaciones objetivo
- Detectó vulnerabilidades y creó código de ataque
- Obtuvo credenciales y extrajo datos estratégicos
- Organizaba la información para facilitar ataques futuros
“El atacante logró utilizar IA para realizar entre el 80 y el 90% de la campaña, requiriendo intervención humana solo esporádicamente”, señaló Anthropic.
Google responde con nuevas herramientas
En este contexto, Google presentó CodeMender, un agente de IA basado en Gemini que corrige fallas de código automáticamente. También lanzó un programa de recompensas y actualizó el Marco de IA Segura 2.0.
Estas medidas llegan en un momento en el que el interés por la ciberseguridad alcanza niveles históricos en México, impulsado por la preocupación ante el phishing, ciberacoso y robo de identidad.
IA: ¿riesgo o herramienta de defensa?
Según IBM, el 97% de las empresas en el mundo sufrió al menos un incidente relacionado con IA en el último año. El costo promedio por filtración de datos: 4.4 millones de dólares.
“Las barreras para ejecutar ciberataques sofisticados se han reducido significativamente, y prevemos que continuarán disminuyendo”, explicó Anthropic.
A pesar del riesgo, la empresa asegura que las mismas capacidades de la IA pueden reforzar la ciberdefensa. Las organizaciones que integran IA en sus estrategias de seguridad han llegado a ahorrar hasta 1.9 millones de dólares en costos asociados.
“Recomendamos a los equipos de seguridad experimentar con la IA para la defensa de sus sistemas. Compartir información sobre amenazas y mejorar los controles será clave en el futuro”.



