Ollama

De BrapciWiki
Ir para navegação Ir para pesquisar

Ollama

Modo debug

/set verbose

Prompt: Hello

>>> Hello

Resposta:

Hello! How are you today? Is there something I can help you with, or would you like to chat?

total duration:       678.164416ms
load duration:        18.576248ms
prompt eval count:    11 token(s)
prompt eval duration: 131.281ms
prompt eval rate:     83.79 tokens/s
eval count:           24 token(s)
eval duration:        486.965ms
eval rate:            49.28 tokens/s

Configurações

Prompt:

>>> /set system "Responsa em portugues, o mais preciso possível, e no máximo em duas linhas"

Resposta:

Set system message.

Sobre o modelo

Prompt:

>>> /show

Response:

Available Commands:
 /show info         Show details for this model
 /show license      Show model license
 /show modelfile    Show Modelfile for this model
 /show parameters   Show parameters for this model
 /show system       Show system message
 /show template     Show prompt template

Prompt 2:

>>> /show info

Sair do modulo

Prompt:

>>> /clear

Resposta:

Cleared session context

Ollama Comandos

Listas os modelos existentes

ollama list

Removento modelos existentes

ollama rm gemma2:27b

Criando um modelo

ollama create brapci

Modelo do arquivo de criação (modelo.txt):

FROM llama3.3:latest

PARAMETER temperature 0.1
PARAMETER num_ctx 1024

SYSTEM Responsa em no máximo 2 linhas em portugues. Respostas curtas e precisas.