Este guia explica como instalar o Ollama, baixar o modelo DeepSeek, e configurar o Open WebUI para rodar na porta 3000.
1. Instalação do Ollama
O Ollama é um runtime para executar modelos de IA localmente.
1.1 Baixar e Instalar
Acesse o site oficial e baixe a versão apropriada para seu sistema operacional:
Depois de instalado, verifique se o Ollama está funcionando corretamente:
ollama --version
Se o comando retornar a versão do Ollama, a instalação foi bem-sucedida.
2. Baixar o Modelo DeepSeek
Agora, baixe o modelo DeepSeek diretamente pelo Ollama:
ollama pull deepseek-r1:1.5b
Caso precise de um modelo maior, substitua 1.5b
por 8b
, 14b
ou 32b
, conforme a capacidade do seu hardware.
Para testar se o modelo funciona, execute:
ollama run deepseek-r1:1.5b
3. Instalação do Open WebUI via Docker
Para facilitar o uso do DeepSeek, utilizamos o Open WebUI, uma interface amigável para modelos de IA.
3.1 Instalar o Docker
Se ainda não tiver o Docker instalado, baixe e instale-o aqui:
Verifique se o Docker está rodando corretamente:
docker --version
3.2 Baixar e Executar o Open WebUI
Agora, baixe e inicie o container do Open WebUI na porta 3000:
docker run -d --name open-webui -p 3000:3000 -e PORT=3000 -v open-webui-data:/app/data --pull=always ghcr.io/open-webui/open-webui:main
Se precisar parar e remover o container, utilize:
docker rm -f open-webui
E depois recrie com o comando acima.
4. Teste e Configuração do Open WebUI
Após iniciar o Open WebUI, acesse no navegador:
Se a página não carregar, verifique se o container está rodando corretamente:
docker ps | grep open-webui
Se precisar ver os logs para encontrar erros:
docker logs open-webui --follow
5. Conectar o DeepSeek ao Open WebUI
Dentro do Open WebUI, configure uma nova conexão para o modelo:
- Acesse Administração dentro do Open WebUI.
- Adicione uma nova conexão OpenAI com as seguintes configurações:
-
URL:
http://127.0.0.1:11434/v1
-
Chave API:
none
-
URL:
Isso permitirá que você utilize o DeepSeek via WebUI.
6. Testando o Modelo no Open WebUI
Agora, teste enviando uma pergunta no chat. Se tudo estiver configurado corretamente, o DeepSeek deve responder!
Se houver problemas, verifique:
docker logs open-webui --follow
Ou teste o DeepSeek diretamente no terminal:
ollama run deepseek-r1:1.5b
Conclusão
Agora você tem o DeepSeek rodando localmente com uma interface web amigável no Open WebUI! Se precisar trocar de modelo, basta rodar novamente:
ollama pull deepseek-r1:14b
E ajustar o Open WebUI para usá-lo.
Para mais detalhes, acesse:
Top comments (0)