Estafadores utilizan vídeos deepfake en anuncios de Instagram para captar víctimas en fraudes de inversión
Introducción
La sofisticación de las campañas de fraude digital ha alcanzado un nuevo nivel con la proliferación de anuncios en Instagram que emplean tecnología deepfake para suplantar a celebridades e influencers. Estos anuncios, lejos de ser simples intentos de phishing, forman parte de esquemas de inversión fraudulentos que utilizan técnicas de ingeniería social avanzadas y canales privados como WhatsApp para culminar el engaño. La presente alerta resulta especialmente relevante para profesionales del sector de la ciberseguridad, responsables de la protección de infraestructuras críticas y analistas SOC, ante la creciente dificultad de detectar estos ataques mediante controles tradicionales.
Contexto del Incidente
Durante el primer semestre de 2024, se ha registrado un aumento exponencial en la utilización de vídeos deepfake en plataformas de redes sociales, siendo Instagram uno de los vectores preferidos por los actores de amenazas. Los estafadores crean anuncios promocionados en los que aparecen rostros y voces de figuras públicas —manipulados mediante IA generativa—, recomendando supuestas oportunidades de inversión o plataformas financieras milagrosas. El objetivo final es derivar a los usuarios a conversaciones privadas en WhatsApp, donde se les convence para transferir fondos a cuentas controladas por los atacantes.
Este modus operandi se enmarca en la tendencia global de ataques BEC (Business Email Compromise) y fraudes de ingeniería social, aunque con el añadido de la manipulación audiovisual basada en IA, lo que incrementa su tasa de éxito y dificulta la atribución.
Detalles Técnicos
Las campañas identificadas emplean modelos de deepfake, usualmente generados mediante frameworks como DeepFaceLab, FaceSwap y, en versiones más avanzadas, Stable Diffusion y D-ID. A nivel de MITRE ATT&CK, los TTP más relevantes incluyen:
– TA0001 (Initial Access): Uso de publicidad dirigida en Instagram (T1190 – Exploit Public-Facing Application) para captar la atención inicial.
– TA0006 (Credential Access) y TA0009 (Collection): Recopilación de información personal durante las conversaciones en WhatsApp.
– TA0007 (Discovery) y TA0008 (Lateral Movement): En algunos casos, intentos de acceso a cuentas adicionales o ingeniería social dirigida a obtener credenciales bancarias.
No se asocia un CVE específico al tratarse de un ataque basado en ingeniería social, aunque sí se han observado scripts de automatización para la generación masiva de deepfakes y bots de respuesta en WhatsApp.
Indicadores de compromiso (IoC) detectados incluyen:
– URLs acortadas redirigiendo a landing pages clonadas de entidades financieras.
– Números de teléfono de WhatsApp con prefijos internacionales inusuales.
– Firmas hash de vídeos deepfake reutilizados en diferentes campañas.
– Perfiles falsos de Instagram con actividad reciente y escasa interacción orgánica.
Según estimaciones de firmas de ciberseguridad, entre el 3% y el 7% de los usuarios expuestos a estos anuncios hacen clic en el enlace, y hasta un 0,5% llega a transferir dinero, lo que se traduce en pérdidas totales superiores a los 20 millones de euros mensuales en Europa.
Impacto y Riesgos
El impacto de estos fraudes se extiende más allá de la pérdida económica directa. Las empresas sufren daños reputacionales cuando aparecen como supuestas promotoras en los deepfakes, mientras que los usuarios finales corren el riesgo de robo de identidad, acceso no autorizado a cuentas bancarias y exposición a nuevos vectores de ataque a través de la información recopilada.
Asimismo, la dificultad para identificar deepfakes realistas plantea un desafío significativo para los sistemas automatizados de moderación de contenido y para las estrategias de concienciación tradicionales. El uso de canales cifrados como WhatsApp complica la trazabilidad y respuesta ante incidentes de estos fraudes.
Medidas de Mitigación y Recomendaciones
Entre las medidas recomendadas destacan:
– Implementación de sistemas avanzados de detección de deepfake en plataformas de redes sociales, aprovechando herramientas como Microsoft Video Authenticator o Reality Defender.
– Refuerzo de los controles de verificación de identidad para campañas publicitarias y cuentas de influencers.
– Uso de soluciones de Threat Intelligence para el rastreo de IoCs relacionados con fraudes deepfake y números de WhatsApp asociados.
– Formación continua para empleados y usuarios en la identificación de fraudes basados en IA.
– Establecimiento de procedimientos de reporte rápido ante detección de anuncios fraudulentos, en cumplimiento con la directiva NIS2 y el RGPD respecto a la protección de datos personales.
Opinión de Expertos
Expertos en ciberseguridad destacan que “el uso de deepfakes en fraudes de inversión representa un salto cualitativo en la sofisticación de los ataques de ingeniería social”, afirma David Hernández, analista senior de amenazas en S21sec. Añade que “la combinación de IA generativa, canales privados y campañas de pago hace que los controles tradicionales de detección sean cada vez menos efectivos, y exige una colaboración estrecha entre plataformas tecnológicas, fuerzas de seguridad y el sector privado”.
Implicaciones para Empresas y Usuarios
Las empresas deben revisar sus políticas de uso de imagen y vigilar proactivamente el uso no autorizado de su marca o portavoces en redes sociales. La suplantación mediante deepfake puede derivar en litigios por daños reputacionales y sanciones regulatorias si no se actúa diligentemente. Para los usuarios, la principal recomendación es la desconfianza ante ofertas demasiado atractivas y la verificación directa de cualquier propuesta de inversión a través de canales oficiales.
Conclusiones
El uso de deepfakes en anuncios de Instagram para fraudes de inversión plantea un reto emergente que combina manipulación tecnológica avanzada e ingeniería social. La detección proactiva, la formación de los usuarios y la colaboración multisectorial son claves para mitigar este tipo de amenazas, cuyo impacto económico y reputacional puede ser devastador en ausencia de medidas adecuadas.
(Fuente: www.kaspersky.com)
