Introdução
A batalha das IAs está cada vez mais acirrada, e agora, com o novo modelo DeepSeek, temos mais uma opção de tecnologia open-source para explorar. Neste tutorial, veremos como tirar proveito desse modelo.
Instalando o Ollama e o modelo DeepSeek
Primeiro, precisamos baixar o software Ollama, que disponibiliza um CLI para trabalhar com diferentes modelos LLM.
📥 Baixe o Ollama:
🔗 https://ollama.com/download
Após a instalação, abra o terminal e teste com:
ollama -v
Baixando o modelo LLM
O DeepSeek possui diferentes versões com tamanhos variados. Neste exemplo, utilizaremos o deepseek-r1:1.5b, pois exige menos memória RAM. Veja outras opções no link abaixo:
🔗 https://ollama.com/library/deepseek-r1/tags
Para baixar o modelo, execute:
ollama pull deepseek-r1:1.5b
Após o download, verifique se o modelo foi instalado corretamente:
ollama list
Testando a requisição ao Ollama
Para testar a resposta do modelo, use o seguinte comando cURL:
curl -X POST http://localhost:11434/api/generate \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-r1:1.5b",
"prompt": "Hello world!"
}'
Ou, caso esteja no PowerShell, use:
$body = @{
model = "deepseek-r1:1.5b"
prompt = "Hello world!"
} | ConvertTo-Json -Depth 10
Invoke-WebRequest -Uri "http://localhost:11434/api/generate" `
-Method Post `
-Body $body `
-ContentType "application/json"
Se tudo estiver funcionando corretamente, você receberá uma resposta. Para verificar se o modelo está rodando, execute:
ollama ps
Integrando no VS Code como autocomplete
Agora, vamos integrar o DeepSeek ao VS Code, permitindo o uso de um autocomplete gratuito e de alta qualidade!
Instalando a extensão Continue
Baixe e instale a extensão Continue no VS Code. Certifique-se de remover qualquer outra extensão de IA para evitar conflitos.
🔗 Extensão Continue:
https://marketplace.visualstudio.com/items?itemName=continue.continue
Configurando a extensão
Após instalar o modelo, acesse as configurações e substitua o arquivo config.json
pelo seguinte conteúdo (alterando a tag do modelo se necessário):
{
"models": [
{
"title": "deepseek-r1:1.5b",
"model": "deepseek-r1:1.5b",
"provider": "ollama"
}
],
"tabAutocompleteModel": {
"title": "deepseek-r1:1.5b",
"model": "deepseek-r1:1.5b",
"provider": "ollama",
"apiBase": "http://127.0.0.1:11434"
},
"tabAutocompleteOptions": {
"debounceDelay": 500,
"maxPromptTokens": 1500,
"disableInFiles": [
"*.md"
]
},
"contextProviders": [
{
"name": "codebase",
"params": {
"nRetrieve": 25,
"nFinal": 5,
"useReranking": true
}
}
]
}
🔗 Mais configurações sobre a extensão:
https://docs.continue.dev/customize/deep-dives/autocomplete
Testando o autocomplete
Agora, basta digitar o código no VS Code e o autocomplete do DeepSeek entrará em ação! Para testar, abra um novo arquivo e escreva algumas linhas de código.
🎉 Agora você tem um autocomplete poderoso e gratuito no seu VS Code!
Top comments (4)
Por favor, caso tenha algum problema comentem aqui porque eu passei por vários, não foi tão fácil igual em outros tutoriais!
Por que não usar o modelo Coder da DeepSeek ao invés do modelo R1?
Porque exige mais memória RAM e eu não consigo porque o meu PC é da xuxa
Mas como eu disse acima, você pode e deve testar os modelos que funciona pra você