AlertaCiberNews

Noticias de ciber seguridad

AlertaCiberNews

Noticias de ciber seguridad

Noticias

### Deepfakes y gafas inteligentes: así se ‘hackearon’ los sistemas de reconocimiento facial más usados

#### Introducción

En el contexto actual de la ciberseguridad, el auge de las tecnologías biométricas ha traído consigo nuevos vectores de ataque que desafían la integridad de los sistemas de autenticación. El investigador de ESET, Jake Moore, ha demostrado recientemente cómo la combinación de gafas inteligentes, técnicas avanzadas de deepfake y el uso de face swaps pueden comprometer algunos de los sistemas de reconocimiento facial más utilizados a nivel global. Sus hallazgos, que serán expuestos en detalle durante la próxima RSA Conference 2026, ponen de manifiesto las debilidades emergentes en soluciones consideradas hasta hace poco como punta de lanza en seguridad.

#### Contexto del Incidente o Vulnerabilidad

La autenticación biométrica, particularmente el reconocimiento facial, se ha consolidado como uno de los métodos preferidos para el control de accesos tanto en entornos corporativos como en soluciones de consumo. Sin embargo, a pesar de su popularidad y la percepción de invulnerabilidad, varios estudios han evidenciado brechas significativas en su implementación. El experimento realizado por Jake Moore se enmarca en este contexto: demostrar la viabilidad de ataques sofisticados utilizando tecnologías de fácil acceso, como las gafas inteligentes y software de generación de deepfakes, contra sistemas biométricos de uso extendido en banca, control de fronteras y dispositivos móviles.

#### Detalles Técnicos

El ataque se basa en la utilización combinada de varias tecnologías emergentes:

– **Gafas inteligentes**: Dispositivos como Ray-Ban Stories o Meta Glasses, equipados con cámaras de alta resolución y capacidad de procesamiento en tiempo real, permiten la captura y proyección de imágenes faciales.
– **Deepfakes y face swap**: Moore empleó frameworks como DeepFaceLab y FaceSwap, junto con modelos generativos adversariales (GANs), para crear vídeos e imágenes sintéticas de alta fidelidad que replican la biometría facial de los objetivos.
– **Vectores de ataque**: El proceso incluye la recolección de imágenes de la víctima (OSINT), la generación del deepfake, y la presentación de la imagen manipulada frente al sensor biométrico mediante las gafas inteligentes.
– **MITRE ATT&CK**: El ataque puede mapearse principalmente a la técnica T1204 (User Execution) y T1566 (Phishing), combinando ingeniería social para obtener el material necesario y ejecución del deepfake en tiempo real.
– **Indicadores de compromiso (IoC)**: Rastros de actividad inusual en logs de autenticación, patrones anómalos de acceso y la detección de artefactos de vídeo generados por IA.

Las pruebas de Moore lograron tasas de éxito superiores al 80% en sistemas de acceso de consumo y hasta un 60% en soluciones empresariales con medidas anti-spoofing básicas. En dispositivos móviles con cámaras infrarrojas avanzadas, la tasa de bypass se redujo al 17%, aunque ninguna solución resultó completamente invulnerable.

#### Impacto y Riesgos

El éxito de estos ataques evidencia riesgos significativos para la integridad y confidencialidad de los sistemas biométricos. Entre las amenazas principales se encuentran:

– **Suplantación de identidad**: Acceso no autorizado a cuentas bancarias, datos personales o instalaciones físicas.
– **Fraude financiero**: Transacciones fraudulentas difíciles de rastrear bajo el marco del GDPR y la PSD2.
– **Compromiso de infraestructuras críticas**: Riesgo incrementado en sectores regulados bajo NIS2, especialmente donde la autenticación facial es clave.
– **Desconfianza en autenticadores biométricos**: Potencial impacto reputacional para empresas proveedoras y usuarias de estas tecnologías.

#### Medidas de Mitigación y Recomendaciones

Ante este panorama, los expertos recomiendan una estrategia de defensa en profundidad:

– **Implementación de técnicas avanzadas de liveness detection**: Combinación de análisis de textura, movimiento ocular y detección de presencia física mediante sensores 3D.
– **Autenticación multifactor (MFA)**: Complementar la biometría con factores adicionales, como tokens físicos o contraseñas de un solo uso.
– **Monitorización de amenazas e IoC**: Análisis continuo de logs y uso de soluciones EDR/XDR para detectar patrones anómalos.
– **Actualización y parcheo regular**: Aplicación de actualizaciones en los sistemas de reconocimiento facial a medida que los fabricantes publican parches frente a nuevas técnicas de deepfake.
– **Formación y concienciación**: Entrenamiento específico para administradores y equipos SOC sobre los riesgos de la biometría y el uso de IA.

#### Opinión de Expertos

Diversos analistas de ciberseguridad, como David Barroso (CounterCraft) y Chema Alonso (Telefónica), coinciden en que las técnicas basadas en IA suponen el mayor desafío actual para la verificación biométrica. Subrayan que la seguridad “por diseño” y la integración de inteligencia artificial defensiva serán claves para contrarrestar estos ataques. La European Union Agency for Cybersecurity (ENISA) también ha advertido en sus informes de 2024 sobre la necesidad de evaluar el riesgo de deepfakes en infraestructuras críticas.

#### Implicaciones para Empresas y Usuarios

Las organizaciones deben revisar urgentemente sus políticas de autenticación y valorar los riesgos de depender exclusivamente de la biometría facial. El cumplimiento normativo (GDPR, NIS2) obliga a demostrar la robustez de los mecanismos de seguridad y a notificar cualquier brecha que implique datos biométricos. Para los usuarios, el mensaje es claro: desconfiar de la autenticación basada únicamente en el rostro y demandar opciones de MFA siempre que sea posible.

#### Conclusiones

El trabajo de Jake Moore es un recordatorio contundente de que la evolución de ataques basados en inteligencia artificial va por delante de muchas soluciones defensivas actuales. El sector debe acelerar la adopción de mecanismos anti-spoofing de nueva generación y fomentar la investigación continua para adaptar sistemas biométricos a los desafíos de la era de los deepfakes.

(Fuente: www.welivesecurity.com)