AlertaCiberNews

Noticias de ciber seguridad

AlertaCiberNews

Noticias de ciber seguridad

Empresas

El 81 % de las empresas integra IA en ciberseguridad, pero teme nuevos riesgos asociados

Introducción

La adopción de la inteligencia artificial (IA) en el ámbito de la ciberseguridad se está consolidando como una tendencia prioritaria para las organizaciones a nivel global. Un reciente informe de Trend Micro, referente internacional en seguridad informática, pone de manifiesto que el 81 % de las empresas ya utiliza soluciones basadas en IA para reforzar sus defensas. Sin embargo, este despliegue masivo viene acompañado de crecientes inquietudes sobre los riesgos emergentes y el aumento de la superficie de ataque, lo que plantea nuevos retos para los responsables de seguridad (CISOs), analistas SOC y equipos de respuesta ante incidentes.

Contexto del Incidente o Vulnerabilidad

El informe de Trend Micro, elaborado a partir de una encuesta realizada a más de 2.500 responsables de seguridad y TI en organizaciones de distintos sectores y geografías, refleja una doble cara en la integración de IA. Por un lado, la automatización de la detección de amenazas, el análisis de comportamiento y la orquestación de respuestas proporcionan ventajas competitivas frente a un panorama de amenazas cada vez más sofisticado. Por otro, la proliferación de herramientas de IA generativa y el acceso a modelos avanzados facilitan a los actores maliciosos la automatización de ataques, el desarrollo de malware polimórfico y la evasión de controles de seguridad tradicionales.

En paralelo, el informe alerta sobre la posible explotación de vulnerabilidades en los propios sistemas de IA, que pueden ser objeto de ataques de manipulación de datos de entrenamiento (data poisoning), extracción de modelos (model stealing) y ataques adversarios (adversarial attacks).

Detalles Técnicos

Las superficies de ataque asociadas a la IA son diversas y complejas. Entre los principales vectores identificados se encuentran:

– Manipulación de modelos de aprendizaje automático (ML): Técnicas como el data poisoning permiten alterar los datos de entrenamiento para inducir comportamientos maliciosos en los modelos desplegados.
– Ataques adversarios: La generación de entradas especialmente diseñadas para engañar modelos de IA, alterando la detección de amenazas o el reconocimiento de patrones.
– Model stealing y exfiltración de información: La extracción de parámetros y arquitectura de modelos propietarios puede facilitar el desarrollo de exploits y ataques dirigidos.
– Generación de malware mediante IA: Plataformas como GPT-4 o Copilot han sido utilizadas experimentalmente para generar código malicioso ofuscado, capaz de evadir sandboxes y soluciones EDR.
– Automatización de campañas de phishing: Herramientas de IA generativa permiten crear correos, sitios web y deepfakes altamente convincentes, automatizando el ciclo de ataque.

En cuanto a TTPs (Tácticas, Técnicas y Procedimientos) según MITRE ATT&CK, destacan:

– T1566 (Phishing): Empleo de IA para generar contenido personalizado.
– T1071 (Application Layer Protocol): Uso de canales cifrados y automatizados mediante IA para exfiltración de datos.
– T1606 (Data Poisoning): Manipulación de datos para alterar el comportamiento de modelos IA.

Indicadores de compromiso (IoC) asociados incluyen patrones de tráfico anómalos hacia APIs de IA, cambios súbitos en el comportamiento de detección de amenazas y la aparición de archivos binarios generados sintéticamente.

Impacto y Riesgos

El 63 % de los encuestados por Trend Micro reconoce haber detectado intentos de explotación de vulnerabilidades en sus sistemas de IA en los últimos doce meses. Según estimaciones del informe, los incidentes relacionados con IA podrían suponer un aumento del 40 % en la superficie de ataque digital, con pérdidas económicas potenciales que superan los 2.000 millones de euros anuales a nivel global.

La integración acelerada de IA puede, en ausencia de controles adecuados, infringir directivas como el GDPR (Reglamento General de Protección de Datos) y los requisitos de la NIS2, exponiendo a las organizaciones a sanciones y pérdida de confianza.

Medidas de Mitigación y Recomendaciones

Trend Micro y expertos independientes recomiendan una aproximación proactiva y holística para mitigar los riesgos:

– Auditoría continua de modelos de IA, incluyendo pruebas de robustez ante ataques adversarios.
– Implementación de controles de acceso y monitorización de interacciones con APIs de IA.
– Segmentación de infraestructuras y aislamiento de entornos de desarrollo y producción.
– Entrenamiento regular sobre amenazas emergentes para equipos SOC y red teams.
– Integración de herramientas de threat intelligence que incluyan IoC y TTPs relacionados con ataques a IA.
– Cumplimiento normativo reforzado, documentando el ciclo de vida de los modelos y las fuentes de datos empleadas.

Opinión de Expertos

Según Ramón Salas, director técnico de Trend Micro España, “la IA no solo es un multiplicador de eficiencia para los defensores, sino también para los atacantes. La clave está en asegurar la gobernanza sobre los modelos y anticipar los vectores de ataque emergentes”.

Por su parte, Javier Soria, consultor de ciberseguridad y miembro de ISACA, advierte: “Las empresas deben invertir en capacidades de Red Teaming orientadas a IA y participar en iniciativas colaborativas para la detección temprana de amenazas sofisticadas”.

Implicaciones para Empresas y Usuarios

El despliegue de IA en ciberseguridad exige una reevaluación de políticas, controles y estrategias de formación. Las organizaciones que no adopten un enfoque de seguridad por diseño y que no contemplen la protección de los modelos de IA estarán en desventaja frente a actores maliciosos cada vez más automatizados y resilientes.

Para los usuarios finales, la proliferación de ataques basados en IA, desde phishing hasta suplantación de identidad mediante deepfakes, subraya la importancia de la concienciación y la verificación de la autenticidad de las comunicaciones.

Conclusiones

La inteligencia artificial se consolida como un aliado fundamental en la defensa frente a amenazas avanzadas, pero su adopción masiva introduce riesgos inéditos que requieren respuestas ágiles, colaborativas y técnicamente avanzadas. El informe de Trend Micro es una llamada de atención para reforzar la gobernanza, la auditoría y la ciber-resiliencia en torno a los sistemas de IA.

(Fuente: www.cybersecuritynews.es)