🧠 Ejecuta DeepSeek R1 en Local con Ollama + Interfaz Web (Docker)

Si quieres probar inteligencia artificial localmente sin depender de la nube y con menos requisitos de hardware, DeepSeek-R1:1.5B es una gran opción. En este artículo configuramos Ollama, el modelo 1.5B, y una interfaz web sencilla vía Docker.

 

🛠️ 1. Instalar Ollama

Descarga e instala Ollama para Windows desde:
🔗 https://ollama.com/download/windows

 

📟 2. Verificar instalación

Abre PowerShell o CMD y ejecuta:

ollama --version

Si devuelve la versión, Ollama está correctamente instalado.

📦 3. Descargar el modelo DeepSeek R1:1.5B

✅ Este modelo es mucho más ligero que la versión 70B y se puede ejecutar con 8–16 GB de RAM.

Visita el repositorio de modelos:
🔗 https://ollama.com/library/deepseek-r1

 

Ejecuta el siguiente comando para descargar y lanzar el modelo:

ollama run deepseek-r1:1.5b

Esto descargará el modelo (unos pocos GB) y lo pondrá en marcha por primera vez.

🌐 4. Instalar Docker Desktop

Descarga Docker Desktop desde:
🔗 https://www.docker.com/products/docker-desktop/

Instálalo y asegúrate de que Docker está corriendo antes de continuar.

🖥️ 5. Instalar la interfaz web (Open WebUI)

Sigue las instrucciones del Quick Start oficial:
🔗 https://docs.openwebui.com/getting-started/quick-start/

Desde la terminal de tu sistema:

 

docker pull ghcr.io/open-webui/open-webui:main 

docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main

 

✅ 6. Comprobar que Ollama funciona con el modelo

Puedes volver a lanzar el modelo manualmente para probarlo:

ollama run deepseek-r1:1.5b

La interfaz web (WebUI) lo detectará automáticamente al abrir:
🌐 http://localhost:3000

 

🧠 7. Comandos útiles de Ollama

 

✅ Opción 1: Detener modelo activo

Si estás ejecutando el modelo manualmente, simplemente pulsa:

Ctrl + C

Esto cierra el proceso actual.

 

✅ Opción 2: Detener instancias en segundo plano

ollama stop deepseek-r1:1.5b

 

✅ Opción 3: Ver modelos instalados y procesos activos

Listar modelos descargados:

ollama list

 

Ver procesos activos:

ollama ps

 

Detener manualmente un proceso en ejecución:

ollama stop deepseek-r1:1.5b

 

🧼 (Opcional) Eliminar el modelo y liberar espacio

ollama rm deepseek-r1:1.5b

 

✅ Conclusión

Con esta configuración tienes un entorno funcional de IA local con:

✔️ Modelo DeepSeek-R1:1.5B, ligero y potente.

✔️ Interfaz visual a través de Open WebUI.

✔️ Control total sin depender de servidores externos.

Ideal para desarrollos locales, pruebas, educación o análisis privado.

 

 

🛡️ Aviso Legal y Ético

⚠️ Este contenido tiene fines exclusivamente educativos y de concienciación en ciberseguridad e inteligencia artificial.
Las herramientas, técnicas o procedimientos descritos en este artículo deben utilizarse únicamente en entornos controlados, sistemas propios o con autorización expresa del titular.
El uso indebido de estos conocimientos puede constituir un delito tipificado por la legislación vigente.
UXVconsultoría no se responsabiliza del uso inapropiado de la información aquí expuesta.

©Derechos de autor. Todos los derechos reservados.

Necesitamos su consentimiento para cargar las traducciones

Utilizamos un servicio de terceros para traducir el contenido del sitio web que puede recopilar datos sobre su actividad. Por favor revise los detalles en la política de privacidad y acepte el servicio para ver las traducciones.