AlertaCiberNews

Noticias de ciber seguridad

AlertaCiberNews

Noticias de ciber seguridad

Protección de datos

OpenAI introduce la función «personalidad» en ChatGPT: implicaciones de seguridad y privacidad para entornos corporativos

Introducción

El 2024 ha traído consigo una aceleración en la adopción de soluciones de inteligencia artificial conversacional, con OpenAI a la cabeza a través de su plataforma ChatGPT. La compañía ha anunciado recientemente la implementación de una nueva función denominada «personalidad» en la versión web de ChatGPT. Esta característica permite a los usuarios seleccionar entre distintos perfiles de interacción, como “Robot”, dotando al modelo de diferentes estilos de respuesta y comportamientos. Aunque esta novedad puede mejorar la experiencia de usuario y ampliar los casos de uso, plantea cuestionamientos relevantes en materia de ciberseguridad, privacidad y cumplimiento regulatorio, especialmente en entornos profesionales.

Contexto del Incidente o Vulnerabilidad

La incorporación de personalidades en ChatGPT se enmarca en la tendencia de personalización avanzada de los sistemas de IA conversacional. Si bien OpenAI no ha reportado incidentes de seguridad asociados a esta funcionalidad durante su fase inicial de despliegue, el concepto introduce vectores de riesgo adicionales. La personalización de la IA puede facilitar la ingeniería social, aumentar la superficie de ataque en contextos de phishing avanzado y complicar la monitorización de conversaciones sensibles en entornos empresariales.

Detalles Técnicos

La función de «personalidad» permite modificar el tono, nivel de formalidad y formato de las respuestas generadas, lo que puede afectar la detección automatizada de comportamientos anómalos. Aunque no se ha asignado un CVE específico hasta la fecha, los vectores de ataque potenciales incluyen:

– **TTP MITRE ATT&CK:** TA0006 (Credential Access), TA0009 (Collection), TA0011 (Command and Control), mediante manipulación del contexto conversacional para obtener datos sensibles o manipular respuestas automatizadas.
– **Indicadores de Compromiso (IoC):** No se han publicado IoCs concretos, pero se recomienda monitorizar patrones de conversación inusuales o cambios en la interacción que puedan estar relacionados con la explotación de esta funcionalidad.
– **Frameworks de explotación:** Si bien no se han detectado exploits públicos en Metasploit o herramientas como Cobalt Strike, la flexibilidad conversacional puede ser aprovechada para simular identidades falsas o eludir controles de seguridad por parte de un atacante con acceso previo a la aplicación.

Las versiones afectadas corresponden a la interfaz web de ChatGPT, actualmente en fase de despliegue gradual según OpenAI. Se prevé que en los próximos meses esta funcionalidad esté disponible para la mayoría de usuarios, incluyendo suscriptores corporativos de ChatGPT Enterprise.

Impacto y Riesgos

El principal riesgo radica en la posibilidad de que actores maliciosos manipulen la función de personalidad para realizar ataques de ingeniería social más efectivos, simulando comportamientos de confianza (por ejemplo, eligiendo la personalidad “Robot” para parecer imparcial y neutral). Esto puede derivar en:

– Filtración de datos confidenciales a través de interacciones aparentemente inofensivas.
– Dificultad en la atribución de incidentes, al difuminarse el límite entre usuario humano y respuesta automatizada.
– Riesgo de incumplimiento normativo (GDPR, NIS2) ante la posible recolección inadvertida de datos personales o sensibles en entornos regulados.

En términos económicos, estudios recientes estiman que el coste medio de una brecha de datos supera los 4 millones de dólares, y el uso indebido de tecnologías de IA podría incrementar esta cifra ante la dificultad de detección y respuesta.

Medidas de Mitigación y Recomendaciones

Para mitigar los riesgos asociados a la función de personalidad en ChatGPT, se recomienda:

– **Revisión de políticas de uso interno:** Actualizar las directrices de uso de IA para empleados, limitando la utilización de funciones experimentales en tareas críticas.
– **Monitorización de logs y conversaciones:** Implementar herramientas SIEM para analizar patrones anómalos en las interacciones con ChatGPT.
– **Formación en ciberseguridad:** Capacitar a los usuarios para identificar intentos de ingeniería social incluso cuando la comunicación provenga de una IA personalizada.
– **Configuración de permisos:** Restringir el acceso a funcionalidades avanzadas de personalización en cuentas corporativas.
– **Evaluación de cumplimiento normativo:** Revisar los flujos de datos generados por ChatGPT para garantizar la conformidad con GDPR y NIS2.

Opinión de Expertos

Según Javier López, CISO de una multinacional tecnológica, “la capacidad de modificar la personalidad de una IA conversacional multiplica las posibilidades de manipulación, por lo que las empresas deben extremar las precauciones antes de habilitar esta función en sus sistemas productivos”. Por su parte, la analista de amenazas Sofía Ramírez subraya la importancia de “automatizar la detección de cambios de contexto sospechosos en las conversaciones con IA, especialmente en sectores regulados”.

Implicaciones para Empresas y Usuarios

Para los responsables de ciberseguridad, la introducción de la función de personalidad en ChatGPT exige una revisión exhaustiva de los controles de acceso y la monitorización de actividad. Las organizaciones deberán considerar la desactivación de esta función en entornos sensibles hasta que se evalúe su impacto real en la postura de seguridad. Los usuarios corporativos, por su parte, deberán extremar la cautela ante posibles intentos de phishing o manipulación de información, incluso si la interacción parece provenir de una IA confiable.

Conclusiones

La función de personalidad en ChatGPT representa un avance significativo en la personalización de la IA conversacional, pero también introduce retos relevantes en términos de seguridad y cumplimiento. Los profesionales del sector deberán anticipar los riesgos asociados y adaptar sus estrategias de defensa para proteger la integridad y confidencialidad de sus activos digitales ante este nuevo paradigma.

(Fuente: www.bleepingcomputer.com)