<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
  <channel>
    <title>DEV Community: Leonardo Martins</title>
    <description>The latest articles on DEV Community by Leonardo Martins (@lmartns).</description>
    <link>https://dev.to/lmartns</link>
    <image>
      <url>https://media2.dev.to/dynamic/image/width=90,height=90,fit=cover,gravity=auto,format=auto/https:%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Fuser%2Fprofile_image%2F1645217%2Fc223abfe-1d37-4944-a8e1-7d9b810ed8e0.jpeg</url>
      <title>DEV Community: Leonardo Martins</title>
      <link>https://dev.to/lmartns</link>
    </image>
    <atom:link rel="self" type="application/rss+xml" href="https://dev.to/feed/lmartns"/>
    <language>en</language>
    <item>
      <title>Como Instalar e Rodar uma IA Localmente no seu Computador</title>
      <dc:creator>Leonardo Martins</dc:creator>
      <pubDate>Tue, 20 Aug 2024 22:49:36 +0000</pubDate>
      <link>https://dev.to/lmartns/como-instalar-e-rodar-uma-ia-localmente-no-seu-computador-25nb</link>
      <guid>https://dev.to/lmartns/como-instalar-e-rodar-uma-ia-localmente-no-seu-computador-25nb</guid>
      <description>&lt;h2&gt;
  
  
  Introdução
&lt;/h2&gt;

&lt;p&gt;Neste post abordaremos o processo de instalação e configuração de uma Inteligência Artificial para operar localmente no seu computador, com foco nos sistemas Linux e macOS. Algumas das ferramentas que utilizaremos ainda estão em fase beta no Windows, por isso ele não será abordado. Esta IA pode ser utilizada para uma variedade de propósitos, como responder a perguntas ocasionais, atuar como um professor particular de matemática ou até mesmo ajudar na geração de mensagens de commits para projetos de software (que seria o meu uso :) ).&lt;/p&gt;

&lt;h2&gt;
  
  
  Requisitos
&lt;/h2&gt;

&lt;ul&gt;
&lt;li&gt;Docker&lt;/li&gt;
&lt;li&gt;16GB RAM (Recomendado)&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  Instalação
&lt;/h2&gt;

&lt;p&gt;Primeiro, vamos precisar instalar nosso LLM (Large Language Model) e a ferramenta que usaremos para manipular esses LLMs será o Ollama. O processo de download é bem simples.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://github.com/ollama/ollama" rel="noopener noreferrer"&gt;Link do Github&lt;/a&gt;&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;Linux:&lt;/p&gt;

&lt;p&gt;&lt;code&gt;curl -fsSL https://ollama.com/install.sh | sh&lt;/code&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;MacOS:&lt;/p&gt;

&lt;p&gt;Somente baixar e executar pelo link do Github.&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Após a instalação, vamos digitar o seguinte comando no terminal: &lt;code&gt;ollama run llama3.1&lt;/code&gt;, onde "llama3.1" é o LLM que usaremos como exemplo.&lt;/p&gt;

&lt;p&gt;Assim que executarmos esse comando, o modelo será baixado. Quando o download for concluído, já poderemos interagir com ele diretamente do terminal.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Flmj79m8s2rn6ea1w82b5.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Flmj79m8s2rn6ea1w82b5.png" alt="Ollama" width="287" height="46"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;No entanto&lt;/strong&gt;, como queremos uma interface gráfica e a capacidade de customizar nossos modelos, precisaremos de outra ferramenta, chamada Open Web UI.&lt;/p&gt;

&lt;p&gt;Usaremos o Docker para executar essa ferramenta com o seguinte comando:&lt;/p&gt;

&lt;p&gt;&lt;code&gt;docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main&lt;/code&gt;&lt;/p&gt;

&lt;p&gt;Após o Docker estar em execução, você pode acessar o endereço &lt;a href="http://localhost:3000/" rel="noopener noreferrer"&gt;http://localhost:3000/&lt;/a&gt; para abrir a interface gráfica, onde poderemos utilizar os modelos.&lt;/p&gt;

&lt;p&gt;Será necessário criar uma conta local. Após a criação da conta, você poderá usar o modelo que baixamos anteriormente pelo seu navegador.&lt;/p&gt;

&lt;h2&gt;
  
  
  Customização de IAS
&lt;/h2&gt;

&lt;p&gt;Para fazer essas customizações, você pode usar o próprio site do Open Web UI e também ajustar as configurações localmente. No site, você encontrará vários modelos já customizados que podem servir como ponto de partida ou inspiração para suas próprias personalizações.&lt;/p&gt;

&lt;h2&gt;
  
  
  Solução de Problemas
&lt;/h2&gt;

&lt;p&gt;Caso esteja seguindo o tutorial usando Linux e encontre problemas com o Open Web UI não conseguindo identificar o seu modelo, o problema pode estar relacionado à porta em que o Ollama está escutando.&lt;/p&gt;

&lt;p&gt;Pode ser solucionado dessa forma:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Crie um arquivo override
&lt;code&gt;sudo nano /etc/systemd/system/ollama.service.d/override.conf&lt;/code&gt;
&lt;/li&gt;
&lt;li&gt;Adicione a variável de ambiente dentro do arquivo override.conf
O arquivo precisa ficar dessa forma:
[Service]
Environment="OLLAMA_HOST=0.0.0.0"&lt;/li&gt;
&lt;li&gt;Salve o arquivo.&lt;/li&gt;
&lt;li&gt;Recarregue o systemd: &lt;code&gt;sudo systemctl daemon-reload&lt;/code&gt;
&lt;/li&gt;
&lt;li&gt;Reinicie o Serviço Ollama: &lt;code&gt;sudo systemctl restart ollama&lt;/code&gt;
&lt;/li&gt;
&lt;/ol&gt;

&lt;h2&gt;
  
  
  Referências
&lt;/h2&gt;

&lt;p&gt;&lt;a href="https://docs.openwebui.com/" rel="noopener noreferrer"&gt;https://docs.openwebui.com/&lt;/a&gt;&lt;br&gt;&lt;br&gt;
&lt;a href="https://www.cloudflare.com/pt-br/learning/ai/what-is-large-language-model/" rel="noopener noreferrer"&gt;https://www.cloudflare.com/pt-br/learning/ai/what-is-large-language-model/&lt;/a&gt;&lt;br&gt;&lt;br&gt;
&lt;a href="https://github.com/ollama/ollama" rel="noopener noreferrer"&gt;https://github.com/ollama/ollama&lt;/a&gt;&lt;/p&gt;

</description>
      <category>ai</category>
      <category>tutorial</category>
    </item>
  </channel>
</rss>
