### El acceso a cuentas de IA se consolida como nuevo activo en el mercado negro cibernético
#### Introducción
El comercio ilegal de servicios digitales continúa evolucionando, integrando nuevas tecnologías a su cadena de suministro. En los últimos meses, los mercados clandestinos han comenzado a ofrecer acceso a cuentas de inteligencia artificial (IA) como parte de sus productos habituales, de la misma forma que tradicionalmente se han comercializado cuentas de correo electrónico comprometidas, credenciales de acceso remoto o servidores VPS. Según la firma de ciberinteligencia Flare Systems, la compraventa de cuentas premium de IA se está profesionalizando y escalando, lo que plantea riesgos inéditos tanto para empresas como para particulares.
#### Contexto del Incidente o Vulnerabilidad
El auge de los servicios de IA generativa, como ChatGPT de OpenAI, Copilot de Microsoft, Gemini de Google o Claude de Anthropic, ha generado una demanda significativa de accesos premium o ilimitados. Usuarios malintencionados buscan aprovechar las capacidades avanzadas de estos modelos para automatizar campañas de phishing, generar malware polimórfico o evadir controles de seguridad. Los ciberdelincuentes han identificado este nicho y han comenzado a comercializar cuentas de IA robadas o creadas fraudulentamente en foros y mercados de la dark web.
Flare Systems ha documentado cómo estos accesos se venden tanto de forma individual como en packs, en ocasiones junto a otros servicios comprometidos como proxies residenciales, credenciales de acceso a RDP o incluso herramientas para anonimizar la actividad. Esta integración refuerza el papel de la IA como activo fundamental en la infraestructura del cibercrimen moderno.
#### Detalles Técnicos
Uno de los métodos más comunes para obtener acceso a cuentas premium de IA es el credential stuffing, aprovechando brechas de datos recientes y la reutilización de contraseñas. Además, se han detectado campañas de phishing dirigidas a empleados de organizaciones con suscripciones corporativas a plataformas de IA. En otros casos, los atacantes emplean herramientas automatizadas de registro masivo, utilizando tarjetas de crédito robadas y bots para crear cuentas “vírgenes” que luego se venden en el mercado negro.
Los principales vectores de ataque observados incluyen:
– Uso de listas de credenciales filtradas (combolists) para ataques de fuerza bruta o credential stuffing.
– Automatización del registro mediante scripts personalizados y frameworks como Selenium o Puppeteer.
– Explotación de APIs no documentadas para eludir restricciones de creación de cuentas.
– Uso de proxies y VPNs para evitar bloqueos geográficos o por IP.
En cuanto a Tácticas, Técnicas y Procedimientos (TTP) referenciados en el framework MITRE ATT&CK, destaca la técnica T1078 (Valid Accounts), T1110 (Brute Force) y T1566 (Phishing). Los Indicadores de Compromiso (IoC) incluyen direcciones IP asociadas a proxies residenciales, dominios de phishing y patrones de comportamiento anómalos en el acceso a plataformas de IA.
No existen, por ahora, CVEs específicas asociadas a vulnerabilidades en las plataformas de IA más relevantes, pero el abuso de APIs y la ingeniería social constituyen los principales vectores de obtención de accesos ilegítimos.
#### Impacto y Riesgos
El uso fraudulento de cuentas de IA puede tener consecuencias críticas. Los atacantes pueden emplear estos servicios para:
– Generar contenido malicioso (phishing, malware, deepfakes).
– Automatizar ingeniería social y spear phishing.
– Realizar bypass de controles de seguridad (detección de spam, análisis de texto, etc.).
– Acceder a funciones premium reservadas para entornos corporativos, exponiendo datos sensibles.
A nivel económico, el precio de una cuenta premium de IA en el mercado negro oscila entre 5 y 50 dólares, dependiendo del proveedor y las capacidades desbloqueadas. Se han detectado paquetes de 100 cuentas a precios reducidos, lo que facilita su uso masivo en campañas de escala industrial. Flare Systems estima que la comercialización de accesos a IA representa ya el 3-5% del volumen global de compraventa de credenciales digitales.
#### Medidas de Mitigación y Recomendaciones
Para reducir el impacto de esta tendencia, los equipos de seguridad deben:
– Implementar autenticación multifactor (MFA) en todos los servicios de IA.
– Monitorizar el uso anómalo de cuentas, especialmente desde ubicaciones o dispositivos inusuales.
– Establecer políticas estrictas de gestión de contraseñas y evitar la reutilización.
– Auditar el acceso a plataformas de IA y restringir los permisos según el principio de mínimo privilegio.
– Realizar campañas periódicas de concienciación para prevenir ataques de phishing dirigidos a empleados.
– Revisar logs de acceso y buscar IoC asociados a actividad maliciosa documentada por Flare Systems.
#### Opinión de Expertos
Carlos González, analista de amenazas en una multinacional del IBEX 35, señala: “La IA se ha convertido en una pieza clave para los actores de amenazas. No solo por su capacidad para automatizar la generación de contenido malicioso, sino porque las cuentas premium permiten eludir muchas de las limitaciones impuestas a usuarios gratuitos, como límites de uso o controles de moderación. La compraventa de estos accesos en la dark web era cuestión de tiempo”.
Por su parte, Sofía Ramírez, CISO de una consultora tecnológica, advierte: “Las empresas deben considerar las cuentas de IA como activos críticos y protegerlas con el mismo rigor que las credenciales de acceso a sistemas corporativos. El cumplimiento normativo, especialmente con la llegada de NIS2 y el refuerzo de la GDPR, obliga a reforzar los controles sobre estos servicios”.
#### Implicaciones para Empresas y Usuarios
La proliferación de cuentas de IA comprometidas implica que las empresas pueden verse afectadas por el uso indebido de sus licencias, con posible filtración de datos o abuso de recursos. Además, existe el riesgo de daños reputacionales si se demuestra la utilización de plataformas empresariales para actividades ilícitas.
Para los usuarios, el riesgo principal es la suplantación de identidad y el acceso no autorizado a información sensible tratada a través de asistentes de IA. La entrada en vigor de normativas como NIS2 y la intensificación de sanciones bajo el RGPD hacen imprescindible reforzar la seguridad en torno a estos servicios.
#### Conclusiones
La integración de cuentas de IA en el mercado negro refleja la rápida adaptación de los cibercriminales a las tendencias tecnológicas. Las organizaciones deben anticiparse reforzando controles técnicos y de concienciación, además de monitorizar activamente el uso de sus activos de IA. La colaboración entre equipos de seguridad, cumplimiento normativo y proveedores de servicios será clave para mitigar los riesgos emergentes y proteger tanto los datos como la reputación corporativa.
(Fuente: www.bleepingcomputer.com)
