Tutorial: Como Construir Agentes de IA Localmente com Ollama e DeepSeek R1

Introdução

Neste tutorial, você aprenderá a construir agentes de Inteligência Artificial (IA) totalmente localmente utilizando Ollama e os modelos DeepSeek R1. Descubra como configurar seu ambiente para rodar modelos de IA de alto desempenho, comparáveis ou superiores aos modelos da OpenAI, com uma diferença significativa de custo.

Pré-requisitos

Antes de começar, certifique-se de ter o seguinte:

  • Conhecimentos Básicos:
  • Familiaridade com o uso do terminal/linha de comando.
  • Noções básicas de programação em Python.
  • Software Necessário:
  • Ollama: Ferramenta para gerenciar e executar modelos de linguagem.
  • Modelos DeepSeek R1: Modelos de linguagem de código aberto fornecidos pela DeepSeek.

Passo a Passo Detalhado

Passo 1: Baixar e Instalar o Ollama

  1. Acesse o Site do Ollama:
  1. Baixe o Instalador:
  • Clique no botão de download apropriado para o seu sistema operacional (Windows, macOS ou Linux).
  1. Instale o Ollama:
  • Após o download, execute o instalador e siga as instruções na tela para concluir a instalação.
  1. Execute o Ollama:
  • Abra o Ollama após a instalação para garantir que tudo está funcionando corretamente.

Passo 2: Baixar o Modelo DeepSeek R1

  1. Acesse o Ollama:
  • Abra o aplicativo Ollama em seu computador.
  1. Navegue até os Modelos:
  • No canto superior esquerdo, clique em “Models” ou use a barra de busca na tela principal.
  1. Selecione o Modelo DeepSeek R1:
  • O modelo DeepSeek R1 é popular e estará listado como o modelo mais popular no Ollama.
  • Clique em DeepSeek R1 para ver todas as variantes de parâmetros disponíveis.
  1. Escolha o Tamanho do Modelo:
  • Modelos Maiores: 32 bilhões e 70 bilhões de parâmetros, comparáveis ao modelo mini da OpenAI.
  • Modelos Destilados: Menores, como o de 1,5 bilhão de parâmetros, ideais para máquinas com menor capacidade.
  1. Baixe o Modelo:
  • Selecione o modelo desejado (por exemplo, 1,5 bilhão de parâmetros) e clique em “Download”.
  • Nota: O tempo de download pode variar dependendo do tamanho do modelo e da velocidade da sua internet.
  1. Confirme o Download:
  • Após o término do download, verifique se o modelo foi adicionado à sua lista de modelos no Ollama.

Passo 3: Executar o Modelo Localmente

  1. Abra o Terminal:
  • Windows: Abra o Prompt de Comando ou PowerShell.
  • macOS/Linux: Abra o Terminal.
  1. Baixe o Modelo Usando o Terminal:
   ollama pull deepseek-r1-1.5b

4. **Execute o Modelo como Standalone:**

ollama run deepseek-r1-1.5b

5. **Interaja com o Modelo:**

Após executar o comando, você poderá interagir com o modelo diretamente no terminal.

**Exemplo de Conversa:**

     Você: Como você está?
     IA: Estou funcionando bem! Como posso ajudar você hoje?


### Passo 4: Criar e Configurar uma Equipe (Crew) de IA

6. **Abra Editor de Código Cursor:**

7. **Crie um Novo Projeto:**

– No Cursor, clique em **”New Project”** e nomeie sua equipe, por exemplo, **”DeepSeek”**.

8. **No terminal, Inicialize a Equipe:**

crew AI create crew deepseek

Atenção: deepseek no comando anterior é o nome que você está dando a sua nova crew. Não confunda com o modelo deepseek.

– Siga as instruções para nomear e configurar sua equipe.

9. **Configure para Usar o Ollama:**

– Mesmo que o setup inclua referências a modelos da OpenAI, você irá substituí-las para utilizar o Ollama.

10. **Edite o Arquivo `crew.py`:**
– Navegue até o arquivo `crew.py` no seu projeto e abra-o para edição.

11. **Importe o LLM do Ollama:**
– Que consiste simplesmente em adicionar LLM ao final da linha de código abaixo:

from crewAI import agent, crew, process, task, LLM

12. **Defina o Modelo LLM:**

deepseek_ollama = LLM(
model="ollama/deepseek-r1-1.5b",
base_url="http://localhost:11434" # Substitua 'port' pelo número da porta usada pelo Ollama
)

– **Nota:** Assegure-se de que o Ollama esteja executando e que a porta especificada esteja correta.

13. **Integre os Agentes:**

– Configure os agentes da equipe para utilizar o `deepseek_ollama` como o modelo de linguagem.

– Exemplo:

    @agent
    def researcher(self) -> Agent: 
        return Agent(
            config-self.agents_config['researcher’], 
            verbose=True,
            llm=self.deepseek_ollama
        )
    @agent
        def reporting_analyst(self) -> Agent:    
            return Agent(
                config=self.agents_config['reporting_analyst'],
                verbose=true,
                llm=self.deepseek_ollama
        )

14. **No arquivo main.py, na linha 7, delete deepseek** (que é o nome da sua crew nesse exemplo)
A linha vai estar assim:

from deepseek.crew import DeepSeek

Elimine o deedseek.(o nome da sua crew)

from crew import DeepSeek

15. Ainda no arquivo main.py, na linha 30 adicione uma chamada para a função run:

run()

16. **No terminal, liste os diretórios, usando o comando ls;

17. Navegue para o diretório: deepseek, usando o comando: cd deepseek

18. Execute o arquivo main.py, usando o comando:

python src/deepseek/main.py
  • Isso iniciará a equipe de IA com os agentes configurados utilizando o modelo local do Ollama.

Conclusão

Parabéns! Você configurou com sucesso uma equipe de agentes de IA localmente utilizando Ollama e os modelos DeepSeek R1.

Com este setup, você pode aproveitar um desempenho robusto e custos reduzidos em comparação com serviços de IA na nuvem.

Recursos Adicionais


Pesquisa, Edição, formatação e finalização:
Werney A. Lima, quinta-feira, 6 de fevereiro de 2025 – 14:46 (quinta-feira)

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *