Google Chrome permite ahora eliminar los modelos de IA locales que alimentan la “Protección Mejorada”
Introducción
Google Chrome ha introducido recientemente una nueva funcionalidad que permite a los usuarios eliminar los modelos de inteligencia artificial (IA) locales asociados con la función de “Protección Mejorada”. Esta característica, actualizada en 2023 con capacidades de IA, ha supuesto un avance en la detección y prevención de amenazas web, pero también ha suscitado inquietudes respecto a la privacidad y el control sobre los datos locales. La decisión de permitir el borrado manual de estos modelos responde tanto a exigencias regulatorias como a la presión de la comunidad de ciberseguridad sobre la transparencia y la gestión de artefactos de IA locales.
Contexto del Incidente o Vulnerabilidad
La “Protección Mejorada” de Google Chrome fue concebida para proporcionar un entorno de navegación más seguro, anticipando y bloqueando amenazas como phishing, descargas maliciosas y exploits de día cero mediante técnicas de aprendizaje automático. Con la actualización de 2023, Chrome comenzó a almacenar localmente modelos de IA destinados a analizar en tiempo real el comportamiento de los sitios web y archivos descargados, minimizando así la latencia y la dependencia de la nube.
Sin embargo, la presencia de estos modelos locales ha generado preocupación entre los equipos de compliance y los responsables de seguridad, especialmente en entornos corporativos sujetos a normativas estrictas como el GDPR o la NIS2. El almacenamiento persistente de datos de inteligencia artificial, aunque no contenga información personal directa, puede considerarse una superficie de ataque adicional y una posible vía de extracción de información sensible.
Detalles Técnicos
Los modelos de IA locales de Chrome están diseñados para ejecutarse en sandbox y analizar patrones de comportamiento malicioso, URLs sospechosas y archivos potencialmente peligrosos. Según la documentación técnica, estos modelos emplean técnicas de aprendizaje profundo (deep learning) y se actualizan periódicamente a través de los canales de actualización del navegador.
Las versiones de Chrome afectadas por esta funcionalidad son, al menos, todas las posteriores a la 115.0.5790.170, tanto en Windows como en macOS y Linux. El mecanismo de almacenamiento se basa en archivos binarios en el perfil de usuario local (carpeta “Safe Browsing”), y su gestión hasta ahora era completamente opaca para el usuario y los administradores.
No se han detectado exploits públicos específicamente dirigidos contra estos modelos, pero su presencia abre la puerta a posibles vectores de ataque, como la manipulación de los modelos para introducir falsos positivos/negativos o la explotación de vulnerabilidades en el parser del modelo (TTPs: MITRE ATT&CK T1565.002 – Manipulación de datos, T1546 – Event Triggered Execution).
IoC relevantes podrían incluir modificaciones no autorizadas en los archivos de modelos, cambios de hash inesperados y tráfico anómalo en los canales de actualización del navegador.
Impacto y Riesgos
El principal riesgo asociado a los modelos de IA locales reside en su potencial explotación por parte de actores maliciosos que puedan acceder al sistema de archivos del usuario o de la organización. Un atacante con privilegios locales podría manipular estos modelos para evadir la detección de amenazas o, en casos extremos, ejecutar código arbitrario mediante técnicas de deserialización.
A nivel de privacidad, aunque Google afirma que los modelos no almacenan datos personales, la mera existencia de artefactos de IA locales puede entrar en conflicto con políticas internas estrictas o con la legislación europea, que exige el principio de minimización de datos y el derecho al olvido. Según estimaciones de la propia Google, alrededor del 60% de los usuarios de Chrome utilizan la Protección Mejorada, lo que representa una base potencialmente expuesta de millones de equipos.
Medidas de Mitigación y Recomendaciones
Google ha implementado una opción manual dentro de la configuración de Chrome (chrome://settings/security) que permite eliminar los modelos de IA locales bajo demanda. Los administradores de sistemas pueden automatizar este proceso a través de políticas de grupo (GPO) o scripts de gestión remota, especialmente en entornos corporativos.
Se recomienda monitorizar los cambios en la carpeta de modelos de IA, establecer alertas sobre alteraciones no autorizadas y realizar auditorías periódicas sobre los archivos almacenados. Asimismo, es aconsejable revisar las políticas de actualización automática del navegador y restringir los privilegios de escritura en los directorios críticos.
Para organizaciones bajo el ámbito del GDPR o NIS2, resulta esencial documentar este nuevo flujo de datos y garantizar mecanismos de eliminación acorde con el derecho de supresión y la minimización de datos personales.
Opinión de Expertos
Expertos en ciberseguridad y privacidad como Graham Cluley y Troy Hunt han valorado positivamente la medida, destacando que “el control granular sobre los artefactos de IA locales es fundamental en el contexto regulatorio europeo actual”. Sin embargo, advierten de que la transparencia debe ir acompañada de auditorías regulares y de la publicación de hashes de referencia para validar la integridad de los modelos.
Desde el ámbito de los SOC y los pentesters, se señala el potencial riesgo de manipulación de modelos y la importancia de integrar la monitorización de estos artefactos en los SIEM y herramientas EDR corporativas.
Implicaciones para Empresas y Usuarios
Para las empresas, la posibilidad de eliminar los modelos de IA locales facilita el cumplimiento normativo y reduce la superficie de ataque en los endpoints corporativos. Los CISOs y responsables de gestión de riesgos deben revisar sus políticas internas y considerar la nueva funcionalidad como parte de sus procedimientos de hardening.
Para los usuarios avanzados y entornos de alta seguridad, la eliminación periódica de estos modelos puede formar parte de una estrategia de defensa en profundidad, complementando otras medidas como la segmentación de redes y la gestión de privilegios mínimos.
Conclusiones
La decisión de Google de permitir la eliminación manual de los modelos de IA locales en Chrome responde a una creciente demanda de control y transparencia. Aunque los beneficios en términos de detección avanzada son evidentes, la gestión adecuada de estos artefactos es clave para evitar riesgos regulatorios y de seguridad. Las organizaciones deben adaptar sus procedimientos y monitorizar activamente estos cambios, integrando la nueva funcionalidad en su política de seguridad global.
(Fuente: www.bleepingcomputer.com)
