Ultralytics AI, Nx y ChatGPT: Fugas masivas de credenciales y recursos en 2024 por ciberataques a plataformas de IA
Introducción
El auge de la inteligencia artificial ha traído avances sin precedentes en múltiples sectores, pero también ha generado un incremento significativo en la superficie de ataque para los ciberdelincuentes. Durante 2024 y parte de 2025, se han registrado incidentes críticos que afectan a bibliotecas, paquetes y plataformas de IA ampliamente utilizados, con consecuencias graves para la seguridad de sistemas, datos y credenciales. Este artículo analiza en profundidad los incidentes que impactaron a Ultralytics AI, los paquetes Nx y ChatGPT, que resultaron en la filtración de más de 23,7 millones de secretos a nivel global.
Contexto del Incidente o Vulnerabilidad
El primer incidente relevante se produjo en diciembre de 2024, cuando la biblioteca Ultralytics AI —referente en visión por computadora y ampliamente adoptada en entornos de producción y académicos— fue comprometida mediante la introducción de código malicioso. Posteriormente, en agosto de 2025, se detectó la publicación de paquetes Nx maliciosos que filtraron credenciales sensibles de entornos GitHub, de la nube y de IA. A lo largo de 2024, también se documentaron vulnerabilidades en ChatGPT que permitieron a atacantes extraer datos de usuarios sin autorización desde la memoria de la IA.
La combinación de estos incidentes pone de manifiesto la tendencia creciente de ataques dirigidos a la cadena de suministro de software y la explotación de vulnerabilidades en servicios de IA, sectores donde la protección de secretos y la gestión de identidades cobra una relevancia crítica.
Detalles Técnicos
Ultralytics AI fue objetivo de un ataque a la cadena de suministro (supply chain attack). Se introdujo código malicioso en la release oficial, que al ser instalada ejecutaba cargas útiles diseñadas para secuestrar recursos del sistema (principalmente CPU y GPU) y minar criptomonedas de manera encubierta. El vector de ataque principal fue la manipulación del repositorio PyPI y la actualización automática en entornos de CI/CD, facilitando la propagación en infraestructuras empresariales.
Por otro lado, los paquetes Nx maliciosos, detectados en agosto de 2025, emplearon técnicas de typosquatting y dependency confusion para distribuirse. Una vez desplegados, estos paquetes ejecutaban scripts que recolectaban archivos de configuración (como .env, credentials.json, config.yaml) y extraían claves API, tokens de acceso y credenciales de nube (AWS, GCP, Azure), así como credenciales de plataformas de desarrollo como GitHub. Se calcula que se filtraron 2.349 credenciales únicas en este incidente, pero el impacto indirecto fue mucho mayor por la reutilización de credenciales y permisos excesivos.
En cuanto a ChatGPT, la explotación de vulnerabilidades permitió a actores externos aprovechar la funcionalidad de memoria y logs para recuperar datos de conversaciones e información sensible de otros usuarios. Este vector se encuadra en técnicas de exfiltración de datos (TA0009) y abuso de APIs (T1190) según MITRE ATT&CK.
Los Indicadores de Compromiso (IoC) identificados incluyen hashes de archivos manipulados, dominios de C2 asociados a minería de criptomonedas y patrones de tráfico anómalos en APIs de IA.
Impacto y Riesgos
El impacto de estos incidentes es significativo tanto en términos de privacidad como de disponibilidad y costes operativos. El minado de criptomonedas a través de Ultralytics AI provocó una degradación del rendimiento en servidores de IA y potenciales daños en hardware por sobreutilización. La filtración de credenciales derivada de los paquetes Nx ha expuesto repositorios privados, infraestructuras cloud y proyectos críticos a accesos no autorizados, con riesgo de escalada de privilegios, sabotaje o robo de propiedad intelectual.
Según estimaciones, el total de secretos filtrados a través de ataques a plataformas de IA en 2024 asciende a 23,77 millones. Estos datos incluyen tokens de acceso, claves de API, contraseñas y secretos de configuración, muchos de los cuales pueden ser reutilizados en ataques posteriores (credential stuffing, movimientos laterales, etc.).
Además, el incumplimiento de normativas como GDPR y la inminente entrada en vigor de NIS2 en la UE agravan la situación, con posibles sanciones económicas y pérdida de confianza por parte de clientes y socios.
Medidas de Mitigación y Recomendaciones
Para mitigar riesgos derivados de ataques a la cadena de suministro y explotación de vulnerabilidades en IA, se recomiendan las siguientes acciones:
– Monitorizar y validar todas las dependencias, empleando herramientas como Syft, Grype o Snyk para escaneo de vulnerabilidades y comprobación de integridad de paquetes.
– Implementar controles de acceso estrictos y gestión de secretos con vaults dedicados (HashiCorp Vault, AWS Secrets Manager).
– Utilizar firmas digitales y verificación de integridad en pipelines CI/CD.
– Desplegar soluciones EDR y monitorización de actividad anómala en servidores de IA.
– Revisar y limitar los permisos de credenciales, aplicando el principio de mínimo privilegio.
– Activar alertas ante exfiltración de datos y tráfico inusual en APIs de IA.
– Establecer procesos de rotación y revocación automática de secretos expuestos.
Opinión de Expertos
Expertos del sector, como los analistas de seguridad de Cado Security y Snyk, coinciden en que los ataques a la cadena de suministro y la explotación de plataformas de IA representan una tendencia al alza. Destacan la importancia de la visibilidad continua sobre dependencias y la gestión proactiva de secretos, subrayando que “el perímetro tradicional ha desaparecido y la seguridad debe ser nativa en cada etapa del ciclo de vida del software”.
Implicaciones para Empresas y Usuarios
Para las organizaciones, estos incidentes representan una llamada de atención sobre la necesidad de reforzar la seguridad en entornos de IA y DevOps. Las empresas deben revisar no solo su postura de seguridad técnica, sino también sus políticas de respuesta ante incidentes y cumplimiento normativo. Los usuarios finales, por su parte, deben extremar precauciones al integrar paquetes de IA y ser conscientes de los riesgos asociados a la exposición de datos personales y profesionales.
Conclusiones
Los incidentes que han afectado a Ultralytics AI, paquetes Nx y ChatGPT evidencian la creciente sofisticación y el impacto de los ciberataques en el ámbito de la inteligencia artificial. La filtración de más de 23 millones de secretos y el uso fraudulento de recursos subrayan la urgencia de adoptar medidas robustas de seguridad en la cadena de suministro y en la gestión de identidades y accesos. La vigilancia continua, la actualización de buenas prácticas y el cumplimiento normativo serán claves para mitigar riesgos en el ecosistema de IA en 2025 y más allá.
(Fuente: feeds.feedburner.com)
