Ollama
Índice
Ollama
Modo debug
/set verbose
Prompt: Hello
>>> Hello
Resposta:
Hello! How are you today? Is there something I can help you with, or would you like to chat? total duration: 678.164416ms load duration: 18.576248ms prompt eval count: 11 token(s) prompt eval duration: 131.281ms prompt eval rate: 83.79 tokens/s eval count: 24 token(s) eval duration: 486.965ms eval rate: 49.28 tokens/s
Configurações
Prompt:
>>> /set system "Responsa em portugues, o mais preciso possível, e no máximo em duas linhas"
Resposta:
Set system message.
Sobre o modelo
Prompt:
>>> /show
Response:
Available Commands: /show info Show details for this model /show license Show model license /show modelfile Show Modelfile for this model /show parameters Show parameters for this model /show system Show system message /show template Show prompt template
Prompt 2:
>>> /show info
Sair do modulo
Prompt:
>>> /clear
Resposta:
Cleared session context
Ollama Comandos
Listas os modelos existentes
ollama list
Removento modelos existentes
ollama rm gemma2:27b
Criando um modelo
ollama create brapci
Modelo do arquivo de criação (modelo.txt):
FROM llama3.3:latest PARAMETER temperature 0.1 PARAMETER num_ctx 1024 SYSTEM Responsa em no máximo 2 linhas em portugues. Respostas curtas e precisas.