AlertaCiberNews

Noticias de ciber seguridad

AlertaCiberNews

Noticias de ciber seguridad

Empresas

**Microsoft permite desinstalar Copilot en dispositivos gestionados: implicaciones para la seguridad corporativa**

### Introducción

En un movimiento relevante para la gestión de entornos empresariales, Microsoft ha iniciado las pruebas de una nueva política que permite a los administradores de TI desinstalar Copilot, su asistente digital basado en inteligencia artificial, en dispositivos Windows gestionados. La medida responde a preocupaciones de seguridad, cumplimiento normativo y control sobre funciones automatizadas, planteando cuestiones críticas sobre la integración de IA en infraestructuras corporativas y la gestión de riesgos asociados.

### Contexto del Incidente o Vulnerabilidad

Desde su lanzamiento, Copilot ha sido integrado de forma progresiva en Windows 11 y más recientemente en versiones seleccionadas de Windows 10, posicionándose como una herramienta clave para aumentar la productividad mediante IA generativa. Sin embargo, el despliegue forzoso y la imposibilidad inicial de desinstalar la aplicación generaron inquietudes entre equipos de seguridad y cumplimiento, especialmente en sectores regulados y entornos donde la confidencialidad y el control de datos son prioritarios.

La nueva política, actualmente en fase de pruebas para clientes empresariales y educativos, permite por primera vez a los administradores eliminar Copilot de dispositivos gestionados a través de Microsoft Intune y otras soluciones MDM compatibles con las políticas de configuración de Windows. Este cambio supone un reconocimiento explícito de los riesgos potenciales asociados con asistentes basados en IA en entornos críticos.

### Detalles Técnicos

#### Versiones y despliegue

La funcionalidad para desinstalar Copilot está disponible en versiones de Windows 11 a partir de la actualización 23H2 y en builds empresariales de Windows 10 soportadas por los canales de servicio extendido (LTSC, SAC). La política se implementa mediante el uso de Windows Configuration Service Provider (CSP) y puede gestionarse a través de plantillas ADMX actualizadas dentro de Intune o mediante scripts PowerShell personalizados.

#### Vectores de ataque y TTPs

La presencia de asistentes de IA como Copilot introduce nuevos vectores de ataque. Entre los riesgos identificados se encuentran:

– **Exfiltración de datos:** Copilot puede enviar fragmentos de texto, comandos o contenidos sensibles a la nube de Microsoft para su procesamiento, lo que puede vulnerar políticas de data loss prevention (DLP).
– **Aumento de la superficie de ataque:** La integración con otros servicios de Windows y APIs expone potencialmente nuevas rutas para la escalada de privilegios o ejecución remota de código, en función de futuras vulnerabilidades (CVE).
– **Abuso por parte de insiders:** El asistente puede ser explotado para automatizar tareas administrativas o acceder a información sensible, dependiendo de los permisos concedidos.

El framework MITRE ATT&CK destaca técnicas como «Exfiltration Over Command and Control Channel (T1041)» y «Valid Accounts (T1078)», que podrían verse facilitadas por las capacidades de automatización de Copilot.

#### Indicadores de compromiso (IoC)

Aunque no se han reportado exploits activos sobre Copilot en el momento de redactar este artículo, se recomienda monitorizar logs de acceso a la nube de Microsoft, eventos de ejecución de procesos relacionados con Copilot y tráfico saliente no habitual hacia endpoints de inteligencia artificial.

### Impacto y Riesgos

Según estimaciones internas de Microsoft, Copilot está presente en más de un 65% de estaciones de trabajo empresariales que han migrado a Windows 11. El riesgo principal radica en la fuga accidental o maliciosa de datos sensibles, así como en la generación de respuestas automatizadas no deseadas que podrían desencadenar errores operativos o de cumplimiento.

Desde la perspectiva del Reglamento General de Protección de Datos (GDPR) y la futura directiva NIS2, el tratamiento automatizado de información y la transferencia de datos fuera del Espacio Económico Europeo mediante asistentes IA requieren un control riguroso y la posibilidad de auditar y limitar funcionalidades.

El coste potencial de una brecha causada por asistentes de IA se sitúa, según Ponemon Institute, en torno a 4,45 millones de dólares por incidente, considerando la exposición de datos personales y la posible sanción bajo GDPR.

### Medidas de Mitigación y Recomendaciones

– **Aplicar la nueva política de desinstalación** en todos los dispositivos gestionados donde Copilot no sea necesario o esté prohibido por normativas internas.
– **Configurar reglas de DLP y CASB** para monitorizar y bloquear el tráfico entre los clientes Copilot y los servicios en la nube.
– **Auditar permisos de usuario** para impedir que cuentas estándar puedan reinstalar o reactivar Copilot.
– **Actualizar plantillas de seguridad y políticas de grupo** para reflejar el nuevo control granular sobre asistentes basados en IA.
– **Formar a los equipos de TI y usuarios finales** sobre los riesgos asociados y las mejores prácticas en el uso de herramientas con IA generativa.

### Opinión de Expertos

Expertos en ciberseguridad como Kevin Beaumont y especialistas en cumplimiento normativo coinciden en que la posibilidad de desinstalar Copilot representa un avance significativo. “Las herramientas de IA deben ser opcionales y su activación debe estar bajo el control absoluto de la organización”, señala Beaumont. Por su parte, analistas de Gartner subrayan que “la transparencia y la capacidad de auditar la actividad de estos asistentes es crucial para cumplir con NIS2 y GDPR”.

### Implicaciones para Empresas y Usuarios

Las organizaciones que operan en sectores sensibles (financiero, sanitario, administración pública) deberán revisar sus políticas de despliegue de IA y adaptar sus entornos para minimizar la exposición. La tendencia hacia la adopción de asistentes de IA en sistemas operativos y suites ofimáticas obliga a los CISOs y responsables de TI a establecer controles más estrictos y procesos de revisión continua en torno a la seguridad y privacidad.

Para usuarios avanzados y administradores, la capacidad de eliminar Copilot reduce riesgos, pero también implica la necesidad de evaluar la dependencia de funciones automatizadas y posibles impactos en la productividad.

### Conclusiones

El nuevo enfoque de Microsoft, permitiendo la desinstalación de Copilot en dispositivos gestionados, supone un paso esencial hacia el equilibrio entre innovación y seguridad. Las organizaciones deben aprovechar esta funcionalidad para reforzar su postura defensiva, garantizar el cumplimiento normativo y proteger sus activos críticos frente a los retos emergentes de la inteligencia artificial integrada.

(Fuente: www.bleepingcomputer.com)