🧠 Ejecuta DeepSeek R1 en Local con Ollama + Interfaz Web (Docker)
Si quieres probar inteligencia artificial localmente sin depender de la nube y con menos requisitos de hardware, DeepSeek-R1:1.5B es una gran opción. En este artículo configuramos Ollama, el modelo 1.5B, y una interfaz web sencilla vía Docker.
🛠️ 1. Instalar Ollama
Descarga e instala Ollama para Windows desde:
🔗 https://ollama.com/download/windows
📟 2. Verificar instalación
Abre PowerShell o CMD y ejecuta:
ollama --version
Si devuelve la versión, Ollama está correctamente instalado.
📦 3. Descargar el modelo DeepSeek R1:1.5B
✅ Este modelo es mucho más ligero que la versión 70B y se puede ejecutar con 8–16 GB de RAM.
Visita el repositorio de modelos:
🔗 https://ollama.com/library/deepseek-r1
Ejecuta el siguiente comando para descargar y lanzar el modelo:
ollama run deepseek-r1:1.5b
Esto descargará el modelo (unos pocos GB) y lo pondrá en marcha por primera vez.
🌐 4. Instalar Docker Desktop
Descarga Docker Desktop desde:
🔗 https://www.docker.com/products/docker-desktop/
Instálalo y asegúrate de que Docker está corriendo antes de continuar.
🖥️ 5. Instalar la interfaz web (Open WebUI)
Sigue las instrucciones del Quick Start oficial:
🔗 https://docs.openwebui.com/getting-started/quick-start/
Desde la terminal de tu sistema:
docker pull ghcr.io/open-webui/open-webui:main
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
✅ 6. Comprobar que Ollama funciona con el modelo
Puedes volver a lanzar el modelo manualmente para probarlo:
ollama run deepseek-r1:1.5b
La interfaz web (WebUI) lo detectará automáticamente al abrir:
🌐 http://localhost:3000
🧠 7. Comandos útiles de Ollama
✅ Opción 1: Detener modelo activo
Si estás ejecutando el modelo manualmente, simplemente pulsa:
Ctrl + C
Esto cierra el proceso actual.
✅ Opción 2: Detener instancias en segundo plano
ollama stop deepseek-r1:1.5b
✅ Opción 3: Ver modelos instalados y procesos activos
Listar modelos descargados:
ollama list
Ver procesos activos:
ollama ps
Detener manualmente un proceso en ejecución:
ollama stop deepseek-r1:1.5b
🧼 (Opcional) Eliminar el modelo y liberar espacio
ollama rm deepseek-r1:1.5b
✅ Conclusión
Con esta configuración tienes un entorno funcional de IA local con:
✔️ Modelo DeepSeek-R1:1.5B, ligero y potente.
✔️ Interfaz visual a través de Open WebUI.
✔️ Control total sin depender de servidores externos.
Ideal para desarrollos locales, pruebas, educación o análisis privado.
🛡️ Aviso Legal y Ético
⚠️ Este contenido tiene fines exclusivamente educativos y de concienciación en ciberseguridad e inteligencia artificial.
Las herramientas, técnicas o procedimientos descritos en este artículo deben utilizarse únicamente en entornos controlados, sistemas propios o con autorización expresa del titular.
El uso indebido de estos conocimientos puede constituir un delito tipificado por la legislación vigente.
UXVconsultoría no se responsabiliza del uso inapropiado de la información aquí expuesta.
