AlertaCiberNews

Noticias de ciber seguridad

AlertaCiberNews

Noticias de ciber seguridad

Noticias

OpenAI refuerza la seguridad de las cuentas de ChatGPT con nuevas medidas avanzadas

Introducción

El creciente uso de ChatGPT en entornos empresariales y profesionales ha situado a la inteligencia artificial generativa en el punto de mira de los ciberdelincuentes. Ante esta realidad, OpenAI ha anunciado el despliegue de un conjunto de mejoras bajo el nombre “Advanced Account Security”, orientadas a endurecer los mecanismos de autenticación, reducir la superficie de ataque durante la recuperación de cuentas y acotar los riesgos asociados a sesiones prolongadas o a la exposición de información sensible. Este movimiento responde tanto a la presión regulatoria (GDPR, NIS2) como a la preocupación de CISOs y responsables de seguridad ante la proliferación de ataques dirigidos contra servicios en la nube y plataformas SaaS.

Contexto del Incidente o Vulnerabilidad

Durante los últimos meses, se ha registrado un incremento sostenido de campañas de phishing y ataques de credential stuffing dirigidos a cuentas de plataformas de IA generativa, aprovechando la falta de controles robustos de autenticación y recuperación. Según el último informe de Verizon (DBIR 2024), el 29% de los incidentes en servicios SaaS tienen su origen en accesos no autorizados por credenciales robadas. OpenAI es consciente de que ChatGPT no es una excepción, especialmente tras la aparición de leaks en foros underground donde se comercializan accesos a cuentas premium.

Detalles Técnicos

Las nuevas funciones de Advanced Account Security se articulan en torno a cuatro ejes principales:

1. Métodos de inicio de sesión reforzados:
Se ha habilitado la autenticación multifactor (MFA) obligatoria para cuentas empresariales y opcional para usuarios individuales. El sistema acepta aplicaciones TOTP (Google Authenticator, Authy), llaves FIDO2/U2F (Yubikey, SoloKey) y WebAuthn, alineándose con los controles de acceso del marco Zero Trust.

2. Recuperación de cuenta más segura:
OpenAI ha rediseñado el flujo de recuperación, empleando validaciones adicionales fuera de banda y una ventana temporal reducida para la generación de enlaces de restablecimiento. Se han implementado comprobaciones para detectar anomalías geográficas y dispositivos no reconocidos, con bloqueo automático si se superan umbrales de riesgo definidos por heurística.

3. Reducción de la duración de las sesiones:
Las sesiones activas ahora tienen una caducidad máxima configurable (por defecto, 12 horas para empresas), con cierre inmediato en caso de detección de actividad sospechosa o cambios en los parámetros de autenticación.

4. Exclusión de entrenamientos para cuentas protegidas:
Se ofrece la opción de excluir las conversaciones de usuarios avanzados de los modelos de entrenamiento, minimizando el riesgo de filtración accidental de información confidencial.

Estas mejoras se integran con los sistemas de monitorización de accesos y logs de eventos, compatibles con soluciones SIEM y frameworks de respuesta a incidentes. En términos de TTPs según MITRE ATT&CK, se refuerzan las defensas ante técnicas como Valid Accounts (T1078), Credential Access (T1110) o Session Hijacking (T1021). No se ha reportado la existencia de exploits públicos ni CVEs asociados a estas nuevas medidas, pero se prevé que los actores de amenazas intenten desarrollar bypasses para los mecanismos de recuperación.

Impacto y Riesgos

Las medidas adoptadas por OpenAI reducen notablemente el riesgo de secuestro de cuentas y acceso no autorizado a información sensible intercambiada a través de ChatGPT, especialmente en sectores regulados (banca, sanidad, legal, industria). El impacto potencial de un compromiso de cuenta se traduce en la posible exfiltración de datos estratégicos o credenciales internas, así como en el acceso a funcionalidades premium explotables por atacantes.

A nivel económico, un incidente de este tipo podría acarrear sanciones de hasta 20 millones de euros o el 4% de la facturación global anual bajo el RGPD, así como responsabilidades adicionales derivadas de la directiva NIS2 en materia de seguridad y notificación de incidentes.

Medidas de Mitigación y Recomendaciones

OpenAI recomienda la activación inmediata de MFA para todas las cuentas, la revisión periódica de dispositivos autorizados y la limitación del uso compartido de sesiones. Se aconseja a los administradores de sistemas integrar los logs de acceso con sus plataformas SIEM y establecer alertas ante eventos anómalos.

Para entornos empresariales, es fundamental revisar las políticas de exclusión de entrenamiento y notificar a los usuarios sobre las mejores prácticas en la gestión de credenciales y la protección de información sensible.

Opinión de Expertos

Expertos como Josep Albors (ESET España) y Chema Alonso (Telefónica) han valorado positivamente la iniciativa, destacando que “la protección de los vectores de identidad y autenticación es prioritaria en entornos SaaS críticos”. Recomiendan, no obstante, complementar estas medidas con sensibilización a usuarios y monitorización activa de amenazas, ya que los atacantes tenderán a buscar nuevos vectores, como la ingeniería social o el abuso de APIs.

Implicaciones para Empresas y Usuarios

Las organizaciones que utilicen ChatGPT como parte de su flujo de trabajo deben revisar inmediatamente sus políticas de acceso y recuperación, así como garantizar la alineación con los requisitos de cumplimiento normativo. Los Data Protection Officers (DPO) deberán auditar los mecanismos de exclusión de entrenamiento para asegurar que no se procesen datos personales sin consentimiento explícito.

A nivel de usuario, la adopción de MFA y la gestión segura de sesiones constituyen la primera línea de defensa ante ataques dirigidos.

Conclusiones

El refuerzo de la seguridad de las cuentas de ChatGPT por parte de OpenAI supone un paso adelante en la protección de los activos digitales y la privacidad de los usuarios. Sin embargo, la evolución constante de las amenazas obliga a mantener una vigilancia activa y a complementar las nuevas funciones con políticas de seguridad integrales y formación continua.

(Fuente: www.securityweek.com)