AlertaCiberNews

Noticias de ciber seguridad

AlertaCiberNews

Noticias de ciber seguridad

Noticias

Deepfakes de vídeo y audio en tiempo real se democratizan en la darknet desde solo 30 dólares

Introducción

El auge de las tecnologías de inteligencia artificial ha impulsado la sofisticación y disponibilidad de los deepfakes, tanto de vídeo como de audio. Recientemente, el Equipo Global de Investigación y Análisis de Kaspersky (GReAT) ha identificado un preocupante incremento en la oferta de servicios de deepfake en la darknet. Estos servicios, que hasta hace poco eran dominio exclusivo de actores avanzados y requerían recursos técnicos considerables, ahora están al alcance de cualquier ciberdelincuente por sumas irrisorias. El abaratamiento y la democratización de estas técnicas suponen un cambio de paradigma en la gestión de riesgos cibernéticos para empresas y organismos gubernamentales.

Contexto del Incidente o Vulnerabilidad

Durante el primer semestre de 2024, investigadores de Kaspersky han detectado numerosos anuncios en foros y mercados clandestinos de la darknet, donde se ofrecen servicios de creación de deepfakes en tiempo real. Los precios son especialmente bajos: desde 50 dólares por vídeos falsos y 30 dólares por mensajes de voz manipulados, dependiendo de la dificultad y los requisitos del encargo. Esta tendencia supone una reducción de hasta 400 veces respecto a los precios registrados en 2021, cuando desarrollar un deepfake convincente requería inversiones de miles de dólares y conocimientos avanzados de machine learning.

Los nuevos proveedores en la darknet no solo ofrecen deepfakes bajo demanda, sino también herramientas automatizadas y APIs que permiten a los compradores generar deepfakes en tiempo real. Este fenómeno está facilitando la proliferación de ataques de suplantación de identidad, fraude de CEO (Business Email Compromise, BEC) y extorsión digital, y está elevando el nivel de amenaza para los equipos de ciberseguridad corporativa.

Detalles Técnicos

Las ofertas detectadas describen la creación de deepfakes de vídeo mediante redes generativas adversariales (GANs) y modelos de síntesis de voz basados en frameworks open source como DeepFaceLab, FaceSwap, y herramientas más avanzadas como Synthesia o Descript para la clonación de voz. Se han documentado anuncios que prometen la entrega de vídeos de alta calidad en menos de 24 horas y mensajes de voz sintéticos capaces de superar sistemas de autenticación por voz.

Desde el punto de vista de MITRE ATT&CK, los TTP (Tactics, Techniques and Procedures) asociados a estos ataques incluyen:

– TA0009 (Collection): Captura de muestras de voz o vídeo de la víctima para entrenamiento de los modelos.
– TA0040 (Impact): Uso del deepfake en campañas de ingeniería social, fraudes BEC (T1589) y manipulación de autenticaciones biométricas (T1056).

Indicadores de Compromiso (IoC) relevantes son la aparición de archivos multimedia con metadatos alterados, solicitudes sospechosas de autenticación por voz fuera de horario laboral y patrones de tráfico asociados a herramientas de deepfake conocidas. Además, los actores de amenaza están integrando estos servicios en cadenas de ataque más complejas, utilizando Cobalt Strike o Metasploit para el despliegue de cargas y movimientos laterales tras el acceso inicial mediante ingeniería social habilitada por deepfakes.

Impacto y Riesgos

El acceso masivo a deepfakes de bajo coste amplifica el alcance y la eficacia de múltiples vectores de ataque. Entre los riesgos más destacados se encuentran el fraude financiero a través de suplantación de altos ejecutivos, la manipulación de procesos de autenticación biométrica, el chantaje reputacional y la desinformación dirigida contra organizaciones y figuras públicas.

Según estimaciones de la European Union Agency for Cybersecurity (ENISA), el uso de deepfakes en ciberataques podría incrementarse un 70% en 2024 respecto al año anterior. El coste medio por incidente de BEC, facilitado por deepfakes, supera los 120.000 euros en Europa. Además, la General Data Protection Regulation (GDPR) y la inminente NIS2 exigen a las empresas reforzar sus controles de autenticación y monitorización para evitar el tratamiento ilícito de datos personales mediante técnicas de suplantación.

Medidas de Mitigación y Recomendaciones

– Implementación de soluciones de detección de deepfakes basadas en IA, capaces de analizar patrones forenses en audio y vídeo (por ejemplo, Microsoft Video Authenticator, Deepware Scanner).
– Revisión y endurecimiento de los procesos de autenticación, incorporando factores adicionales (MFA) y limitando la autenticación biométrica únicamente a canales controlados y seguros.
– Concienciación y formación continua al personal sobre los nuevos riesgos de ingeniería social potenciados por deepfakes, con simulacros periódicos de ataques.
– Monitorización activa de la dark web en busca de ofertas relacionadas con la identidad digital de la organización y vigilancia de posibles fugas de material audiovisual susceptible de ser utilizado como fuente de entrenamiento.
– Creación de protocolos de respuesta ante incidentes que incluyan la posibilidad de manipulación multimedia y su impacto legal y reputacional.

Opinión de Expertos

Expertos en seguridad como Dmitry Galov, analista senior de GReAT, advierten: “El acceso trivial a deepfakes de alta calidad marca un antes y un después en el ámbito de la ingeniería social. Las organizaciones deben prepararse para un entorno donde ver y oír ya no son pruebas suficientes de autenticidad”. Asimismo, desde el CERT de España, se recalca la necesidad de adaptar los planes de ciberresiliencia y compliance a escenarios donde la manipulación multimedia será cada vez más frecuente y sofisticada.

Implicaciones para Empresas y Usuarios

La reducción de la barrera de entrada a los deepfakes obliga a los responsables de seguridad (CISO), analistas SOC y equipos de TI a revisar sus estrategias de defensa en profundidad. Sectores especialmente expuestos, como banca, seguros, administración pública y medios de comunicación, deben priorizar la protección de identidades digitales y la robustez de sus procesos de verificación. Para el usuario final, la educación digital y el escepticismo ante comunicaciones audiovisuales no verificadas serán claves para mitigar el riesgo.

Conclusiones

La aparición de servicios de deepfake de vídeo y audio en tiempo real, a precios de saldo en la darknet, representa una amenaza crítica para la seguridad digital global. La sofisticación técnica, unida a la reducción drástica de costes y barreras de acceso, exige una reacción coordinada desde los ámbitos tecnológico, legal y formativo. Solo una estrategia integral permitirá contener el impacto de esta nueva ola de suplantación digital habilitada por inteligencia artificial.

(Fuente: www.cybersecuritynews.es)