### Más de 175.000 servidores Ollama expuestos: la capa invisible de riesgo en la IA open-source
#### Introducción
La reciente investigación conjunta de SentinelOne SentinelLABS y Censys ha destapado una preocupante realidad: la rápida adopción de infraestructuras de inteligencia artificial open-source está generando una superficie de ataque incontrolada y globalmente expuesta. El foco del análisis se centra en Ollama, un motor de implementación de modelos de lenguaje de código abierto, cuyos nodos suman ya más de 175.000 instancias accesibles públicamente en 130 países. Esta nueva capa de infraestructura, en gran medida desatendida y mal gestionada, representa un vector de riesgo emergente para empresas y usuarios avanzados de la IA.
#### Contexto del Incidente o Vulnerabilidad
La democratización del acceso a la inteligencia artificial ha impulsado la proliferación de soluciones open-source como Ollama. Su facilidad de despliegue—tanto en entornos cloud como residenciales—ha propiciado una rápida expansión, especialmente en contextos donde la experimentación y el prototipado son prioritarios. Sin embargo, la falta de controles de acceso y la ausencia de políticas de seguridad robustas han dado lugar a una red global de nodos potencialmente vulnerables.
El informe documenta la existencia de más de 175.000 hosts únicos ejecutando Ollama, localizados en 130 países y abarcando tanto infraestructuras empresariales como dispositivos domésticos. En la mayoría de los casos, estos sistemas operan sin autenticación ni restricciones de acceso, exponiendo APIs críticas y recursos computacionales a Internet.
#### Detalles Técnicos
La investigación identificó que la versión por defecto de Ollama, utilizada en la mayoría de los despliegues detectados, carece de mecanismos robustos de autenticación y autorización. Este problema se agrava por la documentación oficial, que no enfatiza la importancia de restringir el acceso externo. Como resultado, cualquier usuario con conocimientos básicos puede interactuar con las APIs abiertas, manipular modelos, extraer datos o ejecutar cargas maliciosas.
Las técnicas y tácticas asociadas a estos riesgos pueden alinearse con los siguientes TTPs del marco MITRE ATT&CK:
– **Initial Access (T1190: Exploit Public-Facing Application):** El atacante explota la API pública sin autenticación.
– **Execution (T1059: Command and Scripting Interpreter):** Uso de las funciones de Ollama para ejecutar comandos arbitrarios.
– **Collection (T1119: Automated Collection):** Extracción masiva de datos o modelos almacenados.
– **Exfiltration (T1041: Exfiltration Over C2 Channel):** Transferencia de información sensible fuera del entorno comprometido.
Los investigadores han identificado IOC (Indicadores de Compromiso) asociados a escaneos masivos desde IPs en China, Rusia y Estados Unidos, así como patrones de explotación automatizada mediante frameworks como Metasploit y Cobalt Strike. Además, se han reportado casos de abuso de recursos para la ejecución de tareas de minería de criptomonedas y ataques de denegación de servicio (DoS).
#### Impacto y Riesgos
El impacto de esta exposición masiva es significativo, tanto desde la perspectiva de seguridad como de cumplimiento normativo:
– **Acceso no autorizado a modelos y datos sensibles**, especialmente en entornos corporativos donde se emplean entrenamientos personalizados.
– **Riesgo de abuso de recursos computacionales** (cryptojacking, DoS) con costes económicos directos y pérdidas de disponibilidad.
– **Potencial para ataques de supply chain**: un atacante podría modificar modelos y propagar cargas maliciosas aguas abajo.
– **Incumplimiento de regulaciones como GDPR y NIS2**, ya que la exposición de datos personales o infraestructuras críticas puede conllevar sanciones severas.
– **Aumento del riesgo de APTs**, aprovechando estas superficies desprotegidas como punto de entrada a redes internas.
#### Medidas de Mitigación y Recomendaciones
Las recomendaciones para los profesionales del sector son claras:
1. **Restringir el acceso a las APIs de Ollama** mediante firewalls, VPN o autenticación fuerte.
2. **Actualizar a versiones recientes** y monitorizar los avisos de seguridad.
3. **Implementar segmentación de red** y políticas de mínimo privilegio para los nodos de IA.
4. **Auditar regularmente los endpoints expuestos** utilizando herramientas de escaneo como Censys o Shodan.
5. **Aplicar logging y monitorización continua** para detectar accesos inusuales y actividad sospechosa.
6. **Revisar el cumplimiento normativo** en función del tipo de datos y las regulaciones aplicables (GDPR, NIS2, etc.).
#### Opinión de Expertos
Varios analistas de SentinelLABS han señalado que el fenómeno observado con Ollama es solo la punta del iceberg. “Estamos ante un patrón recurrente en la adopción de IA open-source: la velocidad del despliegue supera ampliamente a las consideraciones de seguridad”, afirma Juan Antonio Calles, experto en ciberseguridad industrial y miembro de la ENISA. “Sin controles de acceso ni segmentación, cualquier infraestructura puede convertirse en un vector de ataque”.
Desde Censys, advierten que el número real de nodos expuestos podría ser incluso mayor, ya que muchos escaneos son bloqueados por soluciones de protección perimetral o simplemente no logran indexar redes internas.
#### Implicaciones para Empresas y Usuarios
Para los CISOs y responsables de seguridad, la proliferación de instancias desprotegidas de IA supone una amenaza directa a la integridad, confidencialidad y disponibilidad de los datos corporativos. Las empresas deben revisar urgentemente sus inventarios de activos, priorizar la protección de los nodos de IA y formar a sus equipos en los riesgos asociados a despliegues open-source.
En el caso de usuarios avanzados y desarrolladores, la recomendación es clara: nunca exponer APIs de IA sin medidas de autenticación y siempre auditar la configuración de red antes de poner en producción cualquier solución basada en Ollama u otros frameworks similares.
#### Conclusiones
La investigación de SentinelLABS y Censys pone de manifiesto una tendencia preocupante: la construcción de una “capa fantasma” de IA open-source, globalmente accesible y escasamente gestionada. El sector debe reaccionar con urgencia, implementando controles preventivos, auditorías constantes y una cultura de seguridad desde el diseño en todos los despliegues de inteligencia artificial.
(Fuente: feeds.feedburner.com)
