Mudanças entre as edições de "Ollama"

De BrapciWiki
Ir para navegação Ir para pesquisar
Linha 27: Linha 27:
 
Prompt:
 
Prompt:
 
  >>> /show
 
  >>> /show
 +
Response:
 +
Available Commands:
 +
  /show info        Show details for this model
 +
  /show license      Show model license
 +
  /show modelfile    Show Modelfile for this model
 +
  /show parameters  Show parameters for this model
 +
  /show system      Show system message
 +
  /show template    Show prompt template
 +
 
Prompt 2:
 
Prompt 2:
 
  >>> /show info
 
  >>> /show info
  
 
==xx==
 
==xx==

Edição das 12h51min de 2 de janeiro de 2025

Ollama

Modo debug

/set verbose

Prompt: Hello

>>> Hello

Resposta:

Hello! How are you today? Is there something I can help you with, or would you like to chat?

total duration:       678.164416ms
load duration:        18.576248ms
prompt eval count:    11 token(s)
prompt eval duration: 131.281ms
prompt eval rate:     83.79 tokens/s
eval count:           24 token(s)
eval duration:        486.965ms
eval rate:            49.28 tokens/s

Configurações

Prompt:

>>> /set system "Responsa em portugues, o mais preciso possível, e no máximo em duas linhas"

Resposta:

Set system message.

Sobre o modelo

Prompt:

>>> /show

Response:

Available Commands:
 /show info         Show details for this model
 /show license      Show model license
 /show modelfile    Show Modelfile for this model
 /show parameters   Show parameters for this model
 /show system       Show system message
 /show template     Show prompt template

Prompt 2:

>>> /show info

xx