El 36% de los Deepfakes Detectados en 2024 Son Estafas Potenciadas por Inteligencia Artificial
Introducción
El avance sin precedentes de la inteligencia artificial (IA) está transformando el entorno digital y, en consecuencia, redefiniendo el perfil de riesgos a los que se enfrentan las empresas. Según el último informe “State of AI Security Report 1H 2025” publicado por Trend Micro, la IA se consolida como un arma de doble filo: es fundamental tanto en estrategias defensivas como en técnicas ofensivas empleadas por actores maliciosos. Un dato especialmente relevante del informe es que el 36% de los deepfakes identificados en lo que va de 2024 están directamente relacionados con estafas que utilizan contenidos manipulados mediante IA, lo que plantea nuevos desafíos técnicos y regulatorios para los profesionales de ciberseguridad.
Contexto del Incidente o Vulnerabilidad
La proliferación de deepfakes—contenidos audiovisuales manipulados con IA para suplantar identidades o modificar declaraciones—ha pasado de ser una curiosidad tecnológica a convertirse en una amenaza tangible para la seguridad corporativa y la integridad de las operaciones empresariales. El informe de Trend Micro destaca que los ciberdelincuentes han refinado sus técnicas, empleando modelos generativos avanzados como GANs (Generative Adversarial Networks) y frameworks de código abierto que facilitan la creación de vídeos, audios y documentos falsificados con un realismo inquietante. A raíz de estos avances, se ha registrado un crecimiento del 28% interanual en la detección de intentos de fraude basados en deepfakes desde 2023.
Detalles Técnicos
Desde el punto de vista técnico, los deepfakes empleados en estafas se apoyan en algoritmos de aprendizaje profundo capaces de replicar patrones vocales, expresiones faciales y gestos corporales con una fidelidad que dificulta su identificación incluso mediante análisis forense estándar. El informe señala que la mayor parte de los ataques detectados en 2024 se han canalizado a través de técnicas de ingeniería social y spear phishing audiovisual, en las que los atacantes suplantan a altos directivos (CEO Fraud/BEC) o empleados clave para solicitar transferencias económicas o acceso a información sensible.
Según la taxonomía MITRE ATT&CK, estos incidentes pueden clasificarse principalmente bajo T1566 (Phishing), T1589 (Obtain Capabilities), y T1192 (Spearphishing Link). Además, se han documentado campañas en las que los deepfakes se integran con herramientas ofensivas como Metasploit y Cobalt Strike para automatizar la entrega de payloads tras la fase inicial de engaño audiovisual. Los Indicadores de Compromiso (IoC) relevantes incluyen archivos multimedia con metadatos inconsistentes, tráfico anómalo hacia plataformas de entrenamiento de IA y registros de acceso inusuales tras la distribución de vídeos manipulados.
Impacto y Riesgos
El impacto de estas amenazas va más allá del daño reputacional. Las estafas deepfake están generando pérdidas económicas significativas: se estima que solo en el primer semestre de 2024, las empresas europeas han reportado fraudes con un coste agregado superior a los 300 millones de euros. A nivel operativo, estos ataques pueden facilitar el acceso no autorizado a sistemas críticos, violaciones de datos bajo el marco GDPR, y el inicio de cadenas de ataques más sofisticadas como el ransomware o la exfiltración de propiedad intelectual.
Medidas de Mitigación y Recomendaciones
Para mitigar eficazmente el riesgo de deepfakes, Trend Micro recomienda una estrategia de defensa en profundidad que combine soluciones de análisis de medios basadas en IA con políticas de autenticación reforzada y formación continua para los empleados. Es fundamental la implantación de herramientas de detección forense capaces de identificar inconsistencias en los archivos multimedia (por ejemplo, mediante análisis de sincronización labial, artefactos digitales o revisión de metadatos). Además, se aconseja reforzar los procedimientos de verificación de identidad en procesos sensibles, como transferencias bancarias o acceso a información confidencial, y mantener actualizado el inventario de activos susceptibles de suplantación.
Opinión de Expertos
Expertos en ciberseguridad consultados por CyberSecurity News coinciden en que la rápida evolución de los modelos generativos está dificultando la labor de los equipos SOC y los analistas de amenazas. “La democratización de herramientas de IA generativa ha reducido la barrera de entrada para los atacantes. Ahora, cualquier actor con recursos limitados puede producir deepfakes convincentes y orquestar campañas de fraude a gran escala”, apunta Marta Jiménez, analista principal de amenazas en una multinacional del sector financiero. Los especialistas también advierten sobre la necesidad de integrar inteligencia de fuentes abiertas (OSINT) y colaboración intersectorial para mejorar la detección temprana de estas amenazas.
Implicaciones para Empresas y Usuarios
Para las empresas, la proliferación de deepfakes supone una ampliación del perímetro de ataque y exige una revisión urgente de los procedimientos de gestión de identidades y comunicaciones. Los CISOs y responsables de cumplimiento deben incorporar la detección de manipulación audiovisual en sus marcos de control, adaptando sus programas de concienciación y simulacros de phishing a las nuevas tácticas. En el contexto de la NIS2 y el GDPR, la capacidad de identificar y responder a este tipo de incidentes será clave para evitar sanciones regulatorias y preservar la confianza de clientes y socios.
Conclusiones
La irrupción de los deepfakes como vector de ataque presentado en el “State of AI Security Report 1H 2025” evidencia que la inteligencia artificial no solo potencia la eficiencia defensiva, sino que multiplica las capacidades ofensivas de los ciberdelincuentes. El 36% de los deepfakes detectados ya están vinculados a fraudes, lo que convierte esta amenaza en una prioridad absoluta para los equipos de ciberseguridad. La respuesta debe combinar tecnología avanzada, capacitación continua y colaboración estratégica para anticipar y contrarrestar los riesgos emergentes.
(Fuente: www.cybersecuritynews.es)
