AlertaCiberNews

Noticias de ciber seguridad

AlertaCiberNews

Noticias de ciber seguridad

Empresas

**Bug en Microsoft 365 Copilot expone información confidencial al vulnerar políticas DLP**

### 1. Introducción

Un reciente fallo de seguridad en Microsoft 365 Copilot, el asistente de inteligencia artificial integrado en la suite Microsoft 365, ha puesto en jaque la confidencialidad de datos en entornos empresariales. Según ha reconocido Microsoft, un bug presente desde finales de enero de 2024 ha permitido que Copilot resuma y muestre contenido de correos electrónicos confidenciales, eludiendo las políticas de prevención de pérdida de datos (DLP) implementadas por las organizaciones. Este incidente plantea serias dudas sobre la robustez de los controles de seguridad en soluciones impulsadas por IA, especialmente en contextos regulados y de alta sensibilidad.

### 2. Contexto del Incidente

La integración de Copilot en Microsoft 365 se ha presentado como un avance para mejorar la productividad mediante el procesamiento y resumen de datos contextuales. Sin embargo, desde finales de enero de 2024, algunos administradores y usuarios detectaron que Copilot era capaz de acceder y sintetizar información contenida en correos electrónicos clasificados como confidenciales, contraviniendo las políticas DLP activas en entornos de Exchange Online y Outlook.

Microsoft confirmó el problema el 3 de junio de 2024, tras varias semanas de investigaciones y reportes de afectados. El error afectó a clientes empresariales y gubernamentales que dependen de mecanismos DLP para cumplir con normativas como la GDPR y la NIS2. La compañía ha publicado un aviso de seguridad y está trabajando en parches que mitiguen el riesgo.

### 3. Detalles Técnicos

El fallo no está asociado a una vulnerabilidad catalogada bajo CVE, pero su criticidad se equipara a incidentes de alto impacto. El bug reside en la lógica de filtrado y control de acceso de Copilot, que, al interactuar con los modelos de lenguaje, no respetaba las políticas DLP configuradas en Microsoft Purview. Esto permitía que Copilot accediera a mensajes con etiquetas de confidencialidad y generara resúmenes que se mostraban al usuario, incluso si este no tenía permisos para visualizar la información original.

#### Vectores de Ataque

– **Acceso interno**: Usuarios autenticados con permisos limitados podían solicitar a Copilot resúmenes de mensajes protegidos por DLP.
– **Abuso de IA**: Los prompts enviados a Copilot podían ser manipulados para extraer información sensible de forma indirecta.

#### Tácticas, Técnicas y Procedimientos (TTPs) MITRE ATT&CK

– **T1081 – Credentials in Files**
– **T1071.001 – Web Protocols**
– **T1204 – User Execution**
– **T1595 – Active Scanning**

#### Indicadores de Compromiso (IoC)

– Solicitudes inusuales a la API de Copilot desde cuentas con perfil restringido.
– Logs de acceso a mensajes DLP-protegidos por parte del servicio Copilot.
– Generación de resúmenes de correos etiquetados como “Confidencial” o “Restricted”.

### 4. Impacto y Riesgos

El alcance del incidente se estima significativo: según datos internos, alrededor del 12% de las organizaciones con Copilot activado y políticas DLP avanzadas se han visto potencialmente afectadas. El riesgo principal radica en la posible exposición de datos personales, propiedad intelectual y documentación regulada.

Las consecuencias legales pueden ser graves bajo el marco GDPR, con multas que pueden alcanzar hasta el 4% de la facturación global anual de la empresa. Además, el incumplimiento de la directiva NIS2 podría acarrear sanciones adicionales y obligaciones de notificación a las autoridades de ciberseguridad.

### 5. Medidas de Mitigación y Recomendaciones

Microsoft ha anunciado el despliegue progresivo de actualizaciones para Copilot y recomienda las siguientes acciones inmediatas:

– **Desactivar temporalmente Copilot** en entornos con información altamente sensible hasta la publicación del parche definitivo.
– **Revisar y reforzar políticas DLP** en Microsoft Purview, asegurando la correcta clasificación y segregación del correo electrónico.
– **Monitorizar logs de actividad** en los servicios de Copilot, Exchange Online y Outlook para identificar accesos o resúmenes no autorizados.
– **Formar y concienciar a los usuarios** sobre los riesgos de uso de asistentes de IA y la gestión de prompts.

### 6. Opinión de Expertos

Varios analistas de ciberseguridad, como Jake Williams (Rendition Infosec), advierten que la rápida adopción de IA generativa en entornos corporativos está superando la capacidad de los sistemas tradicionales de DLP para controlar fugas de información. “La integración de modelos de lenguaje en flujos de trabajo críticos exige una reevaluación de los controles de acceso y una supervisión continua de las API”, señala Williams.

Por su parte, expertos del European Union Agency for Cybersecurity (ENISA) insisten en que incidentes como este refuerzan la necesidad de auditar y certificar los algoritmos de IA antes de su despliegue en sectores críticos.

### 7. Implicaciones para Empresas y Usuarios

Las organizaciones que operan en sectores regulados (finanzas, salud, administraciones públicas) deben revisar su dependencia de servicios de IA conectados a datos confidenciales. La gestión de riesgos debe contemplar la posibilidad de bypass de DLP por parte de componentes automatizados, no solo de actores humanos.

Para los usuarios finales, este incidente subraya la importancia de no confiar ciegamente en los asistentes inteligentes y de mantener buenas prácticas en la clasificación y manejo de la información sensible.

### 8. Conclusiones

El bug de Microsoft 365 Copilot representa un serio aviso para el sector: la innovación en IA debe ir acompañada de controles de seguridad sólidos y auditables. La gestión de datos confidenciales en la era de la inteligencia artificial exige una vigilancia proactiva, la actualización constante de políticas de protección y la colaboración entre fabricantes, administradores y usuarios para minimizar los riesgos asociados a las nuevas tecnologías.

(Fuente: www.bleepingcomputer.com)