DEV Community

Kaique de Miranda
Kaique de Miranda

Posted on

4

Instalação e Configuração do DeepSeek com Open WebUI

Este guia explica como instalar o Ollama, baixar o modelo DeepSeek, e configurar o Open WebUI para rodar na porta 3000.


1. Instalação do Ollama

O Ollama é um runtime para executar modelos de IA localmente.

1.1 Baixar e Instalar

Acesse o site oficial e baixe a versão apropriada para seu sistema operacional:

Depois de instalado, verifique se o Ollama está funcionando corretamente:

ollama --version
Enter fullscreen mode Exit fullscreen mode

Se o comando retornar a versão do Ollama, a instalação foi bem-sucedida.


2. Baixar o Modelo DeepSeek

Agora, baixe o modelo DeepSeek diretamente pelo Ollama:

ollama pull deepseek-r1:1.5b
Enter fullscreen mode Exit fullscreen mode

Caso precise de um modelo maior, substitua 1.5b por 8b, 14b ou 32b, conforme a capacidade do seu hardware.

Para testar se o modelo funciona, execute:

ollama run deepseek-r1:1.5b
Enter fullscreen mode Exit fullscreen mode

3. Instalação do Open WebUI via Docker

Para facilitar o uso do DeepSeek, utilizamos o Open WebUI, uma interface amigável para modelos de IA.

3.1 Instalar o Docker

Se ainda não tiver o Docker instalado, baixe e instale-o aqui:

Verifique se o Docker está rodando corretamente:

docker --version
Enter fullscreen mode Exit fullscreen mode

3.2 Baixar e Executar o Open WebUI

Agora, baixe e inicie o container do Open WebUI na porta 3000:

docker run -d --name open-webui -p 3000:3000 -e PORT=3000 -v open-webui-data:/app/data --pull=always ghcr.io/open-webui/open-webui:main
Enter fullscreen mode Exit fullscreen mode

Se precisar parar e remover o container, utilize:

docker rm -f open-webui
Enter fullscreen mode Exit fullscreen mode

E depois recrie com o comando acima.


4. Teste e Configuração do Open WebUI

Após iniciar o Open WebUI, acesse no navegador:

➡️ http://localhost:3000

Se a página não carregar, verifique se o container está rodando corretamente:

docker ps | grep open-webui
Enter fullscreen mode Exit fullscreen mode

Se precisar ver os logs para encontrar erros:

docker logs open-webui --follow
Enter fullscreen mode Exit fullscreen mode

5. Conectar o DeepSeek ao Open WebUI

Dentro do Open WebUI, configure uma nova conexão para o modelo:

  1. Acesse Administração dentro do Open WebUI.
  2. Adicione uma nova conexão OpenAI com as seguintes configurações:
    • URL: http://127.0.0.1:11434/v1
    • Chave API: none

Isso permitirá que você utilize o DeepSeek via WebUI.


6. Testando o Modelo no Open WebUI

Agora, teste enviando uma pergunta no chat. Se tudo estiver configurado corretamente, o DeepSeek deve responder!

Se houver problemas, verifique:

docker logs open-webui --follow
Enter fullscreen mode Exit fullscreen mode

Ou teste o DeepSeek diretamente no terminal:

ollama run deepseek-r1:1.5b
Enter fullscreen mode Exit fullscreen mode

Conclusão

Agora você tem o DeepSeek rodando localmente com uma interface web amigável no Open WebUI! Se precisar trocar de modelo, basta rodar novamente:

ollama pull deepseek-r1:14b
Enter fullscreen mode Exit fullscreen mode

E ajustar o Open WebUI para usá-lo.

Para mais detalhes, acesse:

Speedy emails, satisfied customers

Postmark Image

Are delayed transactional emails costing you user satisfaction? Postmark delivers your emails almost instantly, keeping your customers happy and connected.

Sign up

Top comments (0)

A Workflow Copilot. Tailored to You.

Pieces.app image

Our desktop app, with its intelligent copilot, streamlines coding by generating snippets, extracting code from screenshots, and accelerating problem-solving.

Read the docs