Introdução
A batalha das IAs está cada vez mais acirrada, e agora, com o novo modelo DeepSeek, temos mais uma opção de tecnologia open-source para explorar. Neste tutorial, veremos como tirar proveito desse modelo.
Instalando o Ollama e o modelo DeepSeek
Primeiro, precisamos baixar o software Ollama, que disponibiliza um CLI para trabalhar com diferentes modelos LLM.
📥 Baixe o Ollama:
🔗 https://ollama.com/download
Após a instalação, abra o terminal e teste com:
ollama -v
Baixando o modelo LLM
O DeepSeek possui diferentes versões com tamanhos variados. Neste exemplo, utilizaremos o deepseek-r1:1.5b, pois exige menos memória RAM. Veja outras opções no link abaixo:
🔗 https://ollama.com/library/deepseek-r1/tags
Para baixar o modelo, execute:
ollama pull deepseek-r1:1.5b
Após o download, verifique se o modelo foi instalado corretamente:
ollama list
Testando a requisição ao Ollama
Para testar a resposta do modelo, use o seguinte comando cURL:
curl -X POST http://localhost:11434/api/generate \
  -H "Content-Type: application/json" \
  -d '{
        "model": "deepseek-r1:1.5b",
        "prompt": "Hello world!"
      }'
Ou, caso esteja no PowerShell, use:
$body = @{
    model = "deepseek-r1:1.5b"
    prompt = "Hello world!"
} | ConvertTo-Json -Depth 10
Invoke-WebRequest -Uri "http://localhost:11434/api/generate" `
  -Method Post `
  -Body $body `
  -ContentType "application/json"
Se tudo estiver funcionando corretamente, você receberá uma resposta. Para verificar se o modelo está rodando, execute:
ollama ps
Integrando no VS Code como autocomplete
Agora, vamos integrar o DeepSeek ao VS Code, permitindo o uso de um autocomplete gratuito e de alta qualidade!
Instalando a extensão Continue
Baixe e instale a extensão Continue no VS Code. Certifique-se de remover qualquer outra extensão de IA para evitar conflitos.
🔗 Extensão Continue:
https://marketplace.visualstudio.com/items?itemName=continue.continue
Configurando a extensão
Após instalar o modelo, acesse as configurações e substitua o arquivo config.json pelo seguinte conteúdo (alterando a tag do modelo se necessário):
{
  "models": [
    {
      "title": "deepseek-r1:1.5b",
      "model": "deepseek-r1:1.5b",
      "provider": "ollama"
    }
  ],
  "tabAutocompleteModel": {
    "title": "deepseek-r1:1.5b",
    "model": "deepseek-r1:1.5b",
    "provider": "ollama",
    "apiBase": "http://127.0.0.1:11434"
  },
  "tabAutocompleteOptions": {
    "debounceDelay": 500,
    "maxPromptTokens": 1500,
    "disableInFiles": [
      "*.md"
    ]
  },
  "contextProviders": [
    {
      "name": "codebase",
      "params": {
        "nRetrieve": 25,
        "nFinal": 5,
        "useReranking": true
      }
    }
  ]
}
🔗 Mais configurações sobre a extensão:
https://docs.continue.dev/customize/deep-dives/autocomplete
Testando o autocomplete
Agora, basta digitar o código no VS Code e o autocomplete do DeepSeek entrará em ação! Para testar, abra um novo arquivo e escreva algumas linhas de código.
🎉 Agora você tem um autocomplete poderoso e gratuito no seu VS Code!
 
 
              






 
    
Top comments (6)
Muito bom meu mano, parabéns pelo artigo 👏
vlw mano
Por favor, caso tenha algum problema comentem aqui porque eu passei por vários, não foi tão fácil igual em outros tutoriais!
Por que não usar o modelo Coder da DeepSeek ao invés do modelo R1?
Porque exige mais memória RAM e eu não consigo porque o meu PC é da xuxa
Mas como eu disse acima, você pode e deve testar os modelos que funciona pra você