Ollama

De BrapciWiki
Ir para navegação Ir para pesquisar

Ollama

Modo debug

/set verbose

Prompt: Hello

>>> Hello

Resposta:

Hello! How are you today? Is there something I can help you with, or would you like to chat?

total duration:       678.164416ms
load duration:        18.576248ms
prompt eval count:    11 token(s)
prompt eval duration: 131.281ms
prompt eval rate:     83.79 tokens/s
eval count:           24 token(s)
eval duration:        486.965ms
eval rate:            49.28 tokens/s

Configurações

Prompt:

>>> /set system "Responsa em portugues, o mais preciso possível, e no máximo em duas linhas"

Resposta:

Set system message.

Sobre o modelo

Prompt:

>>> /show

Response:

Available Commands:
 /show info         Show details for this model
 /show license      Show model license
 /show modelfile    Show Modelfile for this model
 /show parameters   Show parameters for this model
 /show system       Show system message
 /show template     Show prompt template

Prompt 2:

>>> /show info

Sair do modulo

Prompt:

>>> /clear

Resposta:

Cleared session context

Ollama Comandos

Listas os modelos existentes

ollama list

Removento modelos existentes

ollama rm gemma2:27b

Criando um modelo

ollama create brapci

Modelo do arquivo de criação (modelo.txt):

FROM llama3.3:latest

PARAMETER temperature 0.1
PARAMETER num_ctx 1024

SYSTEM Responsa em no máximo 2 linhas em portugues. Respostas curtas e precisas.

Criando o modelo Prompt:

ollama create brapci -f ./model.txt

Resposta:

transferring model data
using existing layer sha256:8eeb52dfb3bb9aefdf9d1ef24b3bdbcfbe82238798c4b918278320b6fcef18fe
using existing layer sha256:948af2743fc78a328dcb3b0f5a31b3d75f415840fdb699e8b1235978392ecf85
using existing layer sha256:0ba8f0e314b4264dfd19df045cde9d4c394a52474bf92ed6a3de22a4ca31a177
creating new layer sha256:55dcf8076ae23604428d8b4e3da7b4cf1f7901d56cd5c372b35019e89fc55329
creating new layer sha256:dd8a35e7060436c1dfed155f80c14ea5cb012a4a3c0c460bf4087ceffdb62d4d
creating new layer sha256:dd7674e7d8fe16dad131bde90382cc861eaa698bf78a259215512f68d55be608
writing manifest
success

Ollama API

List Models

GET /api/tags
[https://github.com/ollama/ollama/blob/main/docs/api.md#list-local-models]

Generator

POST /api/generate
[https://github.com/ollama/ollama/blob/main/docs/api.md#generate-a-completion]

Chat

 POST /api/chat 
[https://github.com/ollama/ollama/blob/main/docs/api.md#generate-a-chat-completion]

Comunidade

[Discord]

Hugging Face

ollama run hf.co/{usuário}/{repositório}

Habilite o suporte ao Ollama nas configurações do Hugging Face:

No Hugging Face Hub, vá até as configurações da sua conta e ative a opção para integrar com o Ollama.

Selecione e execute um modelo, no Hugging Face Hub, escolha um modelo compatível no formato GGUF. No menu "Use this model", selecione a opção "ollama". Você receberá um comando no formato:

ollama run hf.co/{usuário}/{repositório}

Execute esse comando no terminal para baixar e iniciar o modelo com o Ollama. Personalize a quantização (opcional): Se desejar utilizar um esquema de quantização específico, você pode adicioná-lo ao comando:

ollama run hf.co/{usuário}/{repositório}:{quantização}

Por exemplo:

ollama run hf.co/bartowski/Llama-3.2-3B-Instruct-GGUF:Q8_0

Visual Studio Code

Instale a extensão Ollama Autocoder

ollama run qwen2.5-coder:latest

Ollama como serviço

Para fazer o Ollama ser acessado por outras máquinas, como serviço, inclua a variável de ambiente OLLAMA_HOST=0.0.0.0:11434, ou

export OLLAMA_HOST=0.0.0.0:11434
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment=OLLAMA_HOST=0.0.0.0:11434
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"

[Install]
WantedBy=default.target