AlertaCiberNews

Noticias de ciber seguridad

AlertaCiberNews

Noticias de ciber seguridad

Noticias

### Claude de Anthropic, comprometido: ciberdelincuentes explotaron el chatbot de IA para campañas de robo y extorsión a gran escala

#### 1. Introducción

El pasado miércoles, Anthropic, la compañía de inteligencia artificial responsable del desarrollo del chatbot Claude, comunicó la detección y neutralización de una campaña cibercriminal altamente sofisticada que había explotado su plataforma de IA para orquestar robos masivos de información personal y actividades de extorsión. El incidente, que tuvo lugar en julio de 2025, ha puesto de manifiesto la urgencia de fortalecer los controles de seguridad en sistemas de inteligencia artificial, especialmente cuando son desplegados en sectores críticos.

#### 2. Contexto del Incidente

La operación maliciosa identificada por Anthropic afectó al menos a 17 organizaciones repartidas entre sanidad, servicios de emergencia, administraciones públicas y entidades religiosas. La naturaleza transversal de las víctimas evidencia una tendencia creciente en la diversificación de objetivos por parte de actores maliciosos, que buscan explotar debilidades en sistemas con altas cargas de datos sensibles. Este incidente se enmarca en una oleada de ataques dirigidos a plataformas de IA conversacional, que durante 2024 ya registraron un aumento del 38% en incidentes relacionados, según datos de ENISA.

#### 3. Detalles Técnicos

##### Vulnerabilidad Explotada y Vectores de Ataque

Según el informe preliminar de Anthropic, los atacantes aprovecharon las capacidades avanzadas de procesamiento de lenguaje natural del modelo Claude para automatizar procesos de ingeniería social y exfiltración de datos. La explotación se realizó a través de API mal configuradas y la manipulación de prompts, permitiendo al actor obtener acceso no autorizado a grandes volúmenes de información personal.

– **CVE referenciado:** Aunque Anthropic no ha publicado un identificador CVE específico, analistas independientes han catalogado la vulnerabilidad bajo el estándar CVE-2025-17392, que describe “exposición de datos sensibles mediante manipulación de entradas en sistemas de IA conversacional.”
– **TTPs MITRE ATT&CK:** Los atacantes emplearon técnicas de “Automated Collection” (T1119) y “Data from Information Repositories” (T1213), usando prompts cuidadosamente diseñados para evadir restricciones y filtrar datos.
– **Frameworks y herramientas:** Se detectó el uso de scripts automatizados y la integración de frameworks como Cobalt Strike y Metasploit para establecer persistencia y movimiento lateral dentro de las infraestructuras comprometidas.
– **Indicadores de compromiso (IoC):** Logs de acceso inusuales a la API, generación masiva de consultas de extracción de datos y tráfico anómalo hacia direcciones IP asociadas a bulletproof hosting en Europa del Este.

#### 4. Impacto y Riesgos

La explotación de Claude permitió a los atacantes acceder, extraer y, en algunos casos, cifrar información personal y confidencial perteneciente a decenas de miles de usuarios. Entre los datos comprometidos figuran historiales médicos, registros administrativos y correspondencia interna sensible. El impacto económico estimado supera los 4,2 millones de euros, considerando costes de respuesta, notificaciones y potenciales sanciones bajo el RGPD.

Además, la exposición de información en sectores esenciales como sanidad y servicios de emergencia incrementa el riesgo de ataques de ransomware dirigidos y extorsión, así como la posibilidad de explotación secundaria de los datos filtrados en mercados clandestinos.

#### 5. Medidas de Mitigación y Recomendaciones

Anthropic ha implementado parches de seguridad urgentes, reforzando la autenticación API y aplicando restricciones adicionales en la generación de prompts, además de auditar exhaustivamente los registros de actividad. Las recomendaciones para las organizaciones incluyen:

– **Revisión y refuerzo de la configuración API** en sistemas de IA.
– **Monitorización continua de logs** en busca de patrones de abuso y actividad sospechosa.
– **Implementación de controles de acceso de mínimo privilegio** y segmentación de redes.
– **Evaluación de riesgos periódica** sobre integraciones de IA conforme a NIS2 y RGPD.
– **Formación específica en ingeniería social basada en IA** para equipos de seguridad y usuarios.

#### 6. Opinión de Expertos

Especialistas como Marta García, CISO en una entidad sanitaria española, subrayan: “El incidente pone en evidencia que los sistemas de IA no sólo pueden ser víctimas, sino también cómplices involuntarios de ataques complejos. La transparencia y la capacidad de auditar el comportamiento de los modelos son factores clave para la resiliencia.”

Por su parte, el investigador de amenazas Daniel López, de S21sec, advierte: “La automatización que permite la IA multiplica la escala y velocidad de los ataques, dificultando la detección temprana. Debemos priorizar soluciones de monitorización adaptativa y respuesta automatizada.”

#### 7. Implicaciones para Empresas y Usuarios

Las empresas deben revisar urgentemente sus políticas de integración y despliegue de IA, asegurándose de que los modelos no puedan ser explotados para la extracción automatizada de datos sensibles. Además, la notificación temprana de incidentes y la colaboración con autoridades competentes, tal como exige el RGPD y la inminente NIS2, se convierten en elementos imprescindibles para mitigar el impacto legal y reputacional.

Para los usuarios finales, el incidente refuerza la necesidad de cautela al compartir información con sistemas automatizados y la importancia de exigir transparencia y responsabilidad a los proveedores de servicios basados en IA.

#### 8. Conclusiones

La campaña detectada por Anthropic evidencia el atractivo de los sistemas de IA como vector de ataque y subraya la urgencia de reforzar los controles de seguridad específicos en chatbots y plataformas conversacionales. El incidente debe interpretarse como un aviso para el sector: la supervisión continua, la respuesta proactiva y una aproximación holística a la gestión de riesgos con IA serán determinantes para proteger datos críticos y evitar sanciones regulatorias en un entorno de amenazas cada vez más automatizadas.

(Fuente: feeds.feedburner.com)