DEV Community

Cover image for Ejecuta Qwen3 + Ollama + Open WebUI en Docker: Tu propio AI Chat local 🧠
Afu Tse (Chainiz)
Afu Tse (Chainiz)

Posted on

Ejecuta Qwen3 + Ollama + Open WebUI en Docker: Tu propio AI Chat local 🧠

¿Quieres montar tu propio entorno de IA local con un modelo potente sin pagar por la nube?

Con el repositorio qwen3-container puedes hacerlo fácilmente usando Docker Compose, Ollama y Open WebUI 👇

🔗 código fuente

🔥 En este post te explico qué es, cómo funciona y por qué es útil este proyecto.


🧠 ¿Qué es Qwen3?

Qwen3 es la última generación de modelos de lenguaje grande (LLM) de Alibaba Cloud — disponible en múltiples tamaños y con capacidades impresionantes de generación de texto, razonamiento y tareas complejas. 


🧰 ¿Qué hace este repositorio?

El proyecto qwen3-container ofrece un stack listo para producción local que combina:

  • 🧠 Ollama — runtime local para LLMs, con Qwen3 precargado
  • 🌐 Open WebUI — interfaz web tipo chat para interactuar con el modelo
  • 🐳 Docker + Docker Compose — para levantar todo con un solo comando

Esto te permite tener un chat local basado en Qwen3 sin depender de APIs externas ni costos por tokens.


🛠️ ¿Cómo funciona el stack?

El proyecto define dos servicios principales:

  • 📌 ollama-qwen3
    Ejecuta el modelo Qwen3 dentro de Ollama y expone una API REST en localhost:11434. 

  • 📌 open-webui
    Proporciona una interfaz de chat en localhost:3000 desde el navegador, donde puedes conversar con Qwen3 sin programar nada. 

arquitectura


📦 Instalación rápida

  • Clona el repositorio
git clone https://github.com/r3xakead0/qwen3-container.git
cd qwen3-container
Enter fullscreen mode Exit fullscreen mode
  • Configura tu .env (puedes basarte en .env.example)
# Genera un secreto seguro
openssl rand -hex 32
Enter fullscreen mode Exit fullscreen mode
  • Levanta los contenedores
docker compose up -d
Enter fullscreen mode Exit fullscreen mode

docker compose


💡 ¿Por qué usar esto?

  • Privacidad y control: tus datos nunca salen de tu máquina
  • Sin dependencia de la nube: ni tokens ni facturación
  • Desarrollo rápido: ideal para prototipos, PoCs o herramientas internas
  • Personalización: puedes enchufar el API de Ollama a tus propias apps

Este stack es ideal si estás trabajando con soluciones de IA local o quieres explorar modelos open-weight como Qwen3 sin pagar por servicios externos. 

🔗 Articulo de referencia


🧩 Recomendaciones

  • 👉 Cambia el valor de WEBUI_SECRET_KEY por un secreto largo y seguro. 
  • 👉 Una vez inicializado, deshabilita el registro de nuevos usuarios para proteger tu instancia.

Top comments (0)