📌 OBJETIVO
Configurar e executar o modelo DeepSeek R1 localmente através do n8n, garantindo privacidade e controle total dos dados, sem custos de API.
🛠️ PRÉ-REQUISITOS
- Windows PC
- Docker Desktop
- n8n Self-hosted
- Conexão com internet
- Espaço em disco para modelos de IA
📝 PASSO A PASSO
1️⃣ Configuração Inicial do n8n Self-hosted
- Baixe e instale o Docker Desktop em docker.com
- No seu terminal, clone o repositório n8n Self-hosted AI Starter Kit, com o comando abaixo:
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile gpu-nvidia up
Referência:
https://github.com/n8n-io/self-hosted-ai-starter-kit
⚠️ Atenção: Se encontrar problemas durante a instalação, tire um screenshot do erro e use o ChatGPT para ajuda, fornecendo a documentação relevante.
2️⃣ Configuração do Docker
- Após a instalação, você verá 4 imagens no Docker Desktop:
- Postgres
- qdrant/qdrant
- ollama/ollama
- n8nio/n8n (version 1.77.0)
- Verifique se todos os containers estão rodando
💡 Dica: O n8n local só funcionará se os containers estiverem ativos
3️⃣ Configuração no n8n
- Acesse seu n8n local em: http://localhost:5678
- Crie um novo módulo AI Agent
- Adicione um “Ollama Chat Model” módulo
- Verifique se a conexão está funcionando com um teste simples
4️⃣ Instalação do Modelo DeepSeek
- Acesse ollama.com
- Vá para a seção “Models”
- Localize o modelo “deepseek-r1”
- Escolha o tamanho do modelo:
- Recomendado: 1.5B ou 7B parâmetros
- 1.5B = aproximadamente 1GB de espaço
- Tamanhos disponíveis: 1.5b, 7b, 8b, 14b, 32b, 70b, 671b.
- Copie o nome do modelo completo:
deepseek-r1:1.5b
5️⃣ Configuração no Docker
- Abra o Docker Desktop
- Vá para a seção “Containers”
- Selecione o container “ollama”
- Acesse a aba “exec”
- Execute o comando:
ollama pull deepseek-r1:1.5b
Este comando baixa o modelo para o seu computador.
- Voltando ao n8n, no módulo Ollama Chat Model, teremos agora também disponível o modelo deepseek-r1:1.5b que acabamos de baixar no nosso computador.
⚠️ AVISOS IMPORTANTES
- Certifique-se de estar usando n8n versão 1.77 ou superior
- O modelo DeepSeek nativo do n8n que usa API Key usa servidores na China
- Dados sensíveis devem ser processados apenas na versão local
✅ CONCLUSÃO
Agora você tem um modelo DeepSeek rodando localmente, garantindo:
- Privacidade total dos dados
- Sem custos de API
- Controle completo sobre o processamento
- Execução offline após instalação
É bom saber:
Lista dos comandos do Ollama:
Comandos Básicos
ollama pull [modelo] # Baixa um modelo
ollama list # Lista todos os modelos instalados
ollama rm [modelo] # Remove um modelo específico
ollama run [modelo] # Executa um modelo específico
Comandos Avançados
ollama serve # Inicia o servidor Ollama
ollama create # Cria um novo modelo personalizado
ollama copy # Copia um modelo existente
ollama show # Mostra informações detalhadas de um modelo
ollama ps # Lista modelos em execução
Comandos de Gerenciamento
ollama version # Mostra a versão do Ollama
ollama help # Mostra ajuda e lista de comandos
ollama stop # Para a execução do Ollama
Exemplos de Uso
ollama pull llama2 # Baixa o modelo Llama 2
ollama run llama2 # Executa o modelo Llama 2
ollama rm llama2 # Remove o modelo Llama 2
Flags e Opções
--verbose # Mostra informações detalhadas durante a execução
--help # Mostra ajuda para um comando específico
-f ou --force # Força uma operação
Lembre-se que a disponibilidade e sintaxe exata dos comandos pode variar dependendo da versão do Ollama que você está usando.
Referências:
n8n Self Hosted Starter Kit: https://github.com/n8n-io/self-hosted-ai-starter-kit
DeepSeek Privacy Policy: https://chat.deepseek.com/downloads/DeepSeek%20Privacy%20Policy.html
Ollama: https://ollama.com/
Docker: https://www.docker.com/
Fonte: https://www.youtube.com/watch?v=MGaR7i35KhA
Pesquisa, Edição, formatação e finalização:
Werney A. Lima, sábado, 1 de fevereiro de 2025 – 17:29 (sábado)