AlertaCiberNews

Noticias de ciber seguridad

AlertaCiberNews

Noticias de ciber seguridad

Amenazas

El 70% de las organizaciones identifican la IA como su mayor amenaza para la seguridad de los datos

## Introducción

La inteligencia artificial (IA) se ha consolidado como un factor disruptivo en el panorama de la ciberseguridad, tanto por su potencial para fortalecer defensas como por los riesgos asociados a su uso malicioso. El “Thales 2026 Data Threat Report”, distribuido en España por Exclusive Networks, pone de relieve el creciente nivel de preocupación en torno a la IA entre los profesionales de la seguridad. El informe, basado en las respuestas de más de 3.100 responsables de seguridad y TI de 20 países, revela que el 70% de las organizaciones perciben la IA como la principal amenaza emergente para la seguridad de los datos en los próximos dos años.

## Contexto del Incidente o Vulnerabilidad

El informe de Thales llega en un momento en el que la adopción de IA generativa y algoritmos de machine learning en procesos empresariales se ha acelerado. Estas tecnologías, implementadas para automatizar análisis, detectar amenazas o mejorar la productividad, también han abierto nuevas superficies de ataque que los ciberdelincuentes están aprovechando. El contexto actual se caracteriza por la proliferación de herramientas de IA capaces de generar phishing altamente personalizado, evadir controles de seguridad tradicionales y facilitar técnicas avanzadas de ingeniería social.

Adicionalmente, el uso masivo de IA ha propiciado la generación y procesamiento de grandes volúmenes de datos, aumentando el riesgo de exposición accidental o robo de información sensible. Sectores como banca, sanidad, energía y administración pública son especialmente vulnerables, dada la criticidad de los activos que gestionan y la presión regulatoria derivada de normativas como el RGPD y la inminente NIS2.

## Detalles Técnicos

El informe recoge las principales preocupaciones técnicas de los profesionales entrevistados, destacando los siguientes vectores y TTPs (Tactics, Techniques and Procedures) asociados a la IA:

– **CVE y vulnerabilidades asociadas**: Aunque no existen CVEs que afecten directamente a la IA como tecnología, múltiples vulnerabilidades recientes afectan a frameworks y APIs de IA, como TensorFlow, PyTorch y modelos de código abierto, facilitando la introducción de código malicioso o el acceso no autorizado a modelos y datos de entrenamiento.
– **Vectores de ataque**: Entre los principales destacan el prompt injection (inyección de instrucciones maliciosas en modelos de IA generativa), model stealing (robo de modelos), data poisoning (contaminación de datos de entrenamiento) y fugas de información a través de APIs expuestas.
– **Frameworks y herramientas utilizadas**: Los atacantes emplean frameworks como Metasploit y Cobalt Strike para explotar vulnerabilidades en entornos que integran IA, así como herramientas de automatización y scripting para desplegar ataques masivos de phishing potenciado por IA.
– **MITRE ATT&CK**: Las técnicas más relevantes incluyen T1566 (Phishing), T1204 (User Execution), T1081 (Credentials in Files) y T1078 (Valid Accounts), adaptadas a escenarios de IA.
– **Indicadores de Compromiso (IoC)**: Incluyen logs anómalos en endpoints de IA, accesos no autorizados a repositorios de modelos, tráfico inusual en APIs de inferencia y generación de contenido automatizado en campañas de ingeniería social.

## Impacto y Riesgos

Según el informe, el 43% de las organizaciones encuestadas han sufrido incidentes de seguridad relacionados con IA en el último año, siendo el robo de datos y la manipulación de sistemas automatizados los impactos más frecuentes. Los riesgos principales identificados son:

– **Pérdida o fuga de datos sensibles**: especialmente grave en sectores regulados.
– **Compromiso de modelos de IA**: lo que puede llevar a decisiones automatizadas incorrectas o sesgadas.
– **Aumento de ataques de phishing y BEC**: con técnicas de deepfake y generación automática de mensajes.
– **Daños reputacionales y sanciones regulatorias**: con multas bajo el RGPD que pueden alcanzar hasta el 4% de la facturación anual global.
– **Desestabilización de sistemas críticos**: en infraestructuras esenciales y OT (Operational Technology).

## Medidas de Mitigación y Recomendaciones

El informe de Thales y los expertos encuestados recomiendan las siguientes acciones para mitigar los riesgos asociados a la IA:

– **Implementación de políticas de seguridad específicas para IA**: incluyendo controles de acceso, monitorización y pruebas de robustez de los modelos.
– **Cifrado de datos en reposo y en tránsito**: para proteger la información utilizada y generada por sistemas de IA.
– **Auditoría y trazabilidad**: de los procesos de entrenamiento, despliegue y uso de modelos de IA.
– **Desarrollo seguro y revisión de código**: en frameworks y librerías de IA.
– **Formación específica**: para equipos de seguridad y desarrollo sobre nuevas amenazas y técnicas asociadas a la IA.
– **Cumplimiento normativo**: adaptando los procesos a la regulación vigente (RGPD, NIS2), especialmente en el tratamiento y gobernanza de datos.

## Opinión de Expertos

Diversos analistas del sector coinciden en que la IA ha transformado radicalmente tanto los ataques como las defensas en ciberseguridad. Según Carlos Valderrama, CISO de una multinacional tecnológica, “la IA no solo multiplica la eficacia de los ataques automatizados, sino que introduce desafíos inéditos en la detección y respuesta a incidentes, obligando a adoptar un enfoque Zero Trust y una vigilancia continua sobre los sistemas inteligentes”. Por su parte, expertos de Thales subrayan la importancia de no considerar la IA como una caja negra, sino de exigir transparencia y explicabilidad en los algoritmos y decisiones automatizadas.

## Implicaciones para Empresas y Usuarios

La adopción masiva de IA exige a las organizaciones revisar y reforzar sus estrategias de ciberseguridad, con especial atención a la protección de datos y la gestión de riesgos emergentes. Las empresas deben contemplar la IA dentro de sus planes de respuesta a incidentes, realizar pruebas de penetración adaptadas a entornos de IA y garantizar la formación continua de sus equipos. Para los usuarios, la proliferación de ataques de ingeniería social potenciados por IA incrementa la necesidad de concienciación y uso de herramientas de verificación de identidad y detección de fraudes.

## Conclusiones

El “Thales 2026 Data Threat Report” confirma que la IA se ha convertido en la principal preocupación para la seguridad de los datos, desplazando a amenazas tradicionales como el ransomware o las vulnerabilidades de software. La evolución constante de los ataques basados en IA obliga a las organizaciones a anticiparse, invertir en tecnologías adaptativas y reforzar el cumplimiento normativo. El futuro de la ciberseguridad será inseparable de una gestión proactiva y responsable de la inteligencia artificial.

(Fuente: www.cybersecuritynews.es)