Introdução
Neste tutorial, você aprenderá a construir agentes de Inteligência Artificial (IA) totalmente localmente utilizando Ollama e os modelos DeepSeek R1. Descubra como configurar seu ambiente para rodar modelos de IA de alto desempenho, comparáveis ou superiores aos modelos da OpenAI, com uma diferença significativa de custo.
Pré-requisitos
Antes de começar, certifique-se de ter o seguinte:
- Conhecimentos Básicos:
- Familiaridade com o uso do terminal/linha de comando.
- Noções básicas de programação em Python.
- Software Necessário:
- Ollama: Ferramenta para gerenciar e executar modelos de linguagem.
- Modelos DeepSeek R1: Modelos de linguagem de código aberto fornecidos pela DeepSeek.
Passo a Passo Detalhado
Passo 1: Baixar e Instalar o Ollama
- Acesse o Site do Ollama:
- Abra seu navegador e vá para ollama.com.
- Baixe o Instalador:
- Clique no botão de download apropriado para o seu sistema operacional (Windows, macOS ou Linux).
- Instale o Ollama:
- Após o download, execute o instalador e siga as instruções na tela para concluir a instalação.
- Execute o Ollama:
- Abra o Ollama após a instalação para garantir que tudo está funcionando corretamente.
Passo 2: Baixar o Modelo DeepSeek R1
- Acesse o Ollama:
- Abra o aplicativo Ollama em seu computador.
- Navegue até os Modelos:
- No canto superior esquerdo, clique em “Models” ou use a barra de busca na tela principal.
- Selecione o Modelo DeepSeek R1:
- O modelo DeepSeek R1 é popular e estará listado como o modelo mais popular no Ollama.
- Clique em DeepSeek R1 para ver todas as variantes de parâmetros disponíveis.
- Escolha o Tamanho do Modelo:
- Modelos Maiores: 32 bilhões e 70 bilhões de parâmetros, comparáveis ao modelo mini da OpenAI.
- Modelos Destilados: Menores, como o de 1,5 bilhão de parâmetros, ideais para máquinas com menor capacidade.
- Baixe o Modelo:
- Selecione o modelo desejado (por exemplo, 1,5 bilhão de parâmetros) e clique em “Download”.
- Nota: O tempo de download pode variar dependendo do tamanho do modelo e da velocidade da sua internet.
- Confirme o Download:
- Após o término do download, verifique se o modelo foi adicionado à sua lista de modelos no Ollama.
Passo 3: Executar o Modelo Localmente
- Abra o Terminal:
- Windows: Abra o Prompt de Comando ou PowerShell.
- macOS/Linux: Abra o Terminal.
- Baixe o Modelo Usando o Terminal:
ollama pull deepseek-r1-1.5b
4. **Execute o Modelo como Standalone:**
ollama run deepseek-r1-1.5b
5. **Interaja com o Modelo:**
Após executar o comando, você poderá interagir com o modelo diretamente no terminal.
**Exemplo de Conversa:**
Você: Como você está?
IA: Estou funcionando bem! Como posso ajudar você hoje?
### Passo 4: Criar e Configurar uma Equipe (Crew) de IA
6. **Abra Editor de Código Cursor:**
7. **Crie um Novo Projeto:**
– No Cursor, clique em **”New Project”** e nomeie sua equipe, por exemplo, **”DeepSeek”**.
8. **No terminal, Inicialize a Equipe:**
crew AI create crew deepseek
Atenção: deepseek no comando anterior é o nome que você está dando a sua nova crew. Não confunda com o modelo deepseek.
– Siga as instruções para nomear e configurar sua equipe.
9. **Configure para Usar o Ollama:**
– Mesmo que o setup inclua referências a modelos da OpenAI, você irá substituí-las para utilizar o Ollama.
10. **Edite o Arquivo `crew.py`:**
– Navegue até o arquivo `crew.py` no seu projeto e abra-o para edição.
11. **Importe o LLM do Ollama:**
– Que consiste simplesmente em adicionar LLM ao final da linha de código abaixo:
from crewAI import agent, crew, process, task, LLM
12. **Defina o Modelo LLM:**
deepseek_ollama = LLM(
model="ollama/deepseek-r1-1.5b",
base_url="http://localhost:11434" # Substitua 'port' pelo número da porta usada pelo Ollama
)
– **Nota:** Assegure-se de que o Ollama esteja executando e que a porta especificada esteja correta.
13. **Integre os Agentes:**
– Configure os agentes da equipe para utilizar o `deepseek_ollama` como o modelo de linguagem.
– Exemplo:
@agent
def researcher(self) -> Agent:
return Agent(
config-self.agents_config['researcher’],
verbose=True,
llm=self.deepseek_ollama
)
@agent
def reporting_analyst(self) -> Agent:
return Agent(
config=self.agents_config['reporting_analyst'],
verbose=true,
llm=self.deepseek_ollama
)
14. **No arquivo main.py, na linha 7, delete deepseek** (que é o nome da sua crew nesse exemplo)
A linha vai estar assim:
from deepseek.crew import DeepSeek
Elimine o deedseek.(o nome da sua crew)
from crew import DeepSeek
15. Ainda no arquivo main.py, na linha 30 adicione uma chamada para a função run:
run()
16. **No terminal, liste os diretórios, usando o comando ls;
17. Navegue para o diretório: deepseek, usando o comando: cd deepseek
18. Execute o arquivo main.py, usando o comando:
python src/deepseek/main.py
- Isso iniciará a equipe de IA com os agentes configurados utilizando o modelo local do Ollama.
Conclusão
Parabéns! Você configurou com sucesso uma equipe de agentes de IA localmente utilizando Ollama e os modelos DeepSeek R1.
Com este setup, você pode aproveitar um desempenho robusto e custos reduzidos em comparação com serviços de IA na nuvem.
Recursos Adicionais
Pesquisa, Edição, formatação e finalização:
Werney A. Lima, quinta-feira, 6 de fevereiro de 2025 – 14:46 (quinta-feira)