SCRIBE – Técnica de criação de prompt, para IA´s renegativas, como o ChatGPT

Em primeiro lugar, prompting diz respeito à estrutura, e o método SCRIBE fornece uma maneira para você estruturar seus prompts.

O Método SCRIBE tem 6 conceitos principais:

  • Specify a Role (Especificar um Papel)
  • Context (Contexto)
  • Responsability (Objetivo, Tarefa)
  • Instructions (Instruções)
  • ——–
  • Banter ( Debate)
  • Evaluate (Avaliação da resposta)

Os primeiros 4 itens(Specify a Role, Context, Responsibility e Instructions) dizem respeito a estruturação do prompt em si, são as partes do prompt.

Enquanto que as duas últimas partes(Banter e Evaluate) dizem respeito a práticas que devemos fazer após o recebimento da primeira resposta do modelo de linguagem(LLM), objetivando refinar/melhorar a resposta recebida.

Specify a Role (Especificar um Papel)

É muito útil atribuir ao modelo de linguagem(LLM) um papel específico, como agir como um redator de blogs ou agir como um gerente de mídia social, um Ph.D em Biologia, etc.

Essa função específica(especificar um papel) atua como uma chave para o modelo de linguagem(LLM) direcionar suas previsões(próximo token) com base na informação de um papel específico que ele deve adotar.

Style and Tone ( estilo e tom da resposta)

Aqui, você também pode adicionar o estilo e o tom que você deseja que o modelo de linguagem(LLM) adote na elaboração da resposta.

Context (Contexto)

O contexto ajuda o LLM a entender melhor o que exatamente você está pedindo e assim gerar uma resposta mais relevante.

Quanto mais informações contextualizando a sua demanda melhor será o resultado obtido.

Você pode incluir exemplos, para facilitar ainda mais o trabalho de previsão do próximo token do LLM.

Lembre-se: O LLM está sempre tentando prever o próxino token(simplificadamente pode-se dizer a próxima palavra), para ele executar bem essas previsões, ele vai precisar de um contexto e instruções bem detalhados.

Então, quanto mais específico e quanto mais você contextualizar a sua demanda melhor será a resposta obtida.

Responsability (Objetivo, Tarefa)

Responsabilidade seria a tarefa que você deseja que o modelo (LLM) execute para você. Seria o objetivo principal do prompt.

Para tanto, você precisa descrever a tarefa que você quer que o modelo(LLM) execute.

Seja o mais claro e específico possível na descrição do que você quer.

E mais importante, informe quando a tarefa estará concluída: O seu trabalho estará concluído quando…

Instructions (Instruções)

Você precisa fornecer instruções detalhadas para o modelo de linguagem seguir a fim de alcançar o resultado desejado.

Divida as tarefas mais complicadas em uma lista de instruções no formato passo a passo.

Você pode usar o ChatGPT para ajudá-lo, por exemplo, pedindo para quebrar uma tarefa em instruções passo a passo.

Escreva o que o modelo deve fazer ao invés de escrever o que ele não deve fazer. Ou seja, use uma linguagem positiva, afirmativa, em vez de linguagem negativa.

Por exemplo: Ao invés de dizer: o título do blog não deverá exceder 50 letras. Você dever dizer: o título do blog deverá sempre ser menor do que 50 letras.

Pequenos detalhes como esse podem aumentar consideravelmente a qualidade das respostas obtidas dos modelos de linguagens(LLM).

Banter (Diálogo, conversa)

Mas o que é banter em português? “banter” é uma espécie de conversa brincalhona e amigável, caracterizada por um tom leve e muitas vezes humorístico.

Quando você recebe a primeira resposta do modelo(LLM) é uma boa prática você interagir com o modelo com uma follow-up conversa, para refinar essa resposta inicial.

Por exemplo:

  • Peça para o modelo esclarecer melhor a resposta ou determinado ponto em específico.
  • Você pode fornecer um feedback da resposta obtida.

Isso é Banter uma conversa entre você e o modelo levando a um trabalho mais colaborativo objetivando o refinamento da resposta inicial fornecida pelo modelo.

Esse técnica normalmente leva a melhores resultados.

Evaluate (Avaliação)

Sempre, sempre, avalie a resposta obtida.

Revise a resposta obtida verificando a precisão das informações obtidas.

Pode-se pedir para o próprio modelo(LLM) avaliar a efetividade e a exatidão da resposta originalmente obtida.

Informação Extra

Aqui está uma verdade quando se trata de prompts: como usuário, você precisa ter proficiência em uma área de conhecimento e usar linguagem específica para condicionar o modelo de IA e direcionar suas respostas na direção certa.

Depois de estudar esse método SCRIBE o que aprendemos?

Aprendemos que para se ter um bom prompt temos que:

  1. Estruturar bem o nosso prompt;
  2. Ser o mais claro possível;
  3. Fornecer bastante detalhes;
  4. Ser o mais específico possível;
  5. Refinar a resposta inicial através das técnicas de banter e avaliação.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *