Como Configurar DeepSeek Localmente no n8n

Neste tutorial, você aprenderá a configurar e executar o modelo DeepSeekR1 localmente utilizando o n8n e o Docker. Ao realizar a instalação local, você garante maior privacidade dos dados, controle total sobre o processamento e elimina custos recorrentes de APIs externas. Siga os passos detalhados para montar seu ambiente de inteligência artificial de forma eficiente e personalizada.

📌 OBJETIVO

Configurar e executar o modelo DeepSeek R1 localmente através do n8n, garantindo privacidade e controle total dos dados, sem custos de API.

🛠️ PRÉ-REQUISITOS

  • Windows PC
  • Docker Desktop
  • n8n Self-hosted
  • Conexão com internet
  • Espaço em disco para modelos de IA

📝 PASSO A PASSO

1️⃣ Configuração Inicial do n8n Self-hosted

  1. Baixe e instale o Docker Desktop em docker.com
  2. No seu terminal, clone o repositório n8n Self-hosted AI Starter Kit, com o comando abaixo:
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile gpu-nvidia up

Referência:
https://github.com/n8n-io/self-hosted-ai-starter-kit

⚠️ Atenção: Se encontrar problemas durante a instalação, tire um screenshot do erro e use o ChatGPT para ajuda, fornecendo a documentação relevante.

2️⃣ Configuração do Docker

  1. Após a instalação, você verá 4 imagens no Docker Desktop:
  • Postgres
  • qdrant/qdrant
  • ollama/ollama
  • n8nio/n8n (version 1.77.0)
  1. Verifique se todos os containers estão rodando

💡 Dica: O n8n local só funcionará se os containers estiverem ativos

3️⃣ Configuração no n8n

  1. Acesse seu n8n local em: http://localhost:5678
  2. Crie um novo módulo AI Agent
  3. Adicione um “Ollama Chat Model” módulo
  4. Verifique se a conexão está funcionando com um teste simples

4️⃣ Instalação do Modelo DeepSeek

  1. Acesse ollama.com
  2. Vá para a seção “Models”
  3. Localize o modelo “deepseek-r1”
  4. Escolha o tamanho do modelo:
  • Recomendado: 1.5B ou 7B parâmetros
  • 1.5B = aproximadamente 1GB de espaço
  • Tamanhos disponíveis: 1.5b, 7b, 8b, 14b, 32b, 70b, 671b.
  1. Copie o nome do modelo completo:
deepseek-r1:1.5b

5️⃣ Configuração no Docker

  1. Abra o Docker Desktop
  2. Vá para a seção “Containers”
  3. Selecione o container “ollama”
  4. Acesse a aba “exec”
  5. Execute o comando:
ollama pull deepseek-r1:1.5b

Este comando baixa o modelo para o seu computador.

  1. Voltando ao n8n, no módulo Ollama Chat Model, teremos agora também disponível o modelo deepseek-r1:1.5b que acabamos de baixar no nosso computador.

⚠️ AVISOS IMPORTANTES

  • Certifique-se de estar usando n8n versão 1.77 ou superior
  • O modelo DeepSeek nativo do n8n que usa API Key usa servidores na China
  • Dados sensíveis devem ser processados apenas na versão local

✅ CONCLUSÃO

Agora você tem um modelo DeepSeek rodando localmente, garantindo:

  • Privacidade total dos dados
  • Sem custos de API
  • Controle completo sobre o processamento
  • Execução offline após instalação

É bom saber:

Lista dos comandos do Ollama:
Comandos Básicos
ollama pull [modelo]    # Baixa um modelo
ollama list            # Lista todos os modelos instalados
ollama rm [modelo]     # Remove um modelo específico
ollama run [modelo]    # Executa um modelo específico
Comandos Avançados
ollama serve           # Inicia o servidor Ollama
ollama create         # Cria um novo modelo personalizado
ollama copy          # Copia um modelo existente
ollama show          # Mostra informações detalhadas de um modelo
ollama ps            # Lista modelos em execução
Comandos de Gerenciamento
ollama version        # Mostra a versão do Ollama
ollama help          # Mostra ajuda e lista de comandos
ollama stop          # Para a execução do Ollama
Exemplos de Uso
ollama pull llama2    # Baixa o modelo Llama 2
ollama run llama2     # Executa o modelo Llama 2
ollama rm llama2      # Remove o modelo Llama 2
Flags e Opções
--verbose            # Mostra informações detalhadas durante a execução
--help              # Mostra ajuda para um comando específico
-f ou --force       # Força uma operação

Lembre-se que a disponibilidade e sintaxe exata dos comandos pode variar dependendo da versão do Ollama que você está usando.


Referências:
n8n Self Hosted Starter Kit: https://github.com/n8n-io/self-hosted-ai-starter-kit
DeepSeek Privacy Policy: https://chat.deepseek.com/downloads/DeepSeek%20Privacy%20Policy.html
Ollama: https://ollama.com/
Docker: https://www.docker.com/
Fonte: https://www.youtube.com/watch?v=MGaR7i35KhA


Pesquisa, Edição, formatação e finalização:
Werney A. Lima, sábado, 1 de fevereiro de 2025 – 17:29 (sábado)

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *