Mudanças entre as edições de "Ollama"
(Criou página com '=Ollama= == Modo debug == /set verbose Prompt: Hello >>> Hello Resposta: Hello! How are you today? Is there something I can help you with, or would you like to chat? to...') |
|||
| (10 revisões intermediárias por 2 usuários não estão sendo mostradas) | |||
| Linha 22: | Linha 22: | ||
Resposta: | Resposta: | ||
Set system message. | Set system message. | ||
| + | |||
| + | == Sobre o modelo == | ||
| + | |||
| + | Prompt: | ||
| + | >>> /show | ||
| + | Response: | ||
| + | Available Commands: | ||
| + | /show info Show details for this model | ||
| + | /show license Show model license | ||
| + | /show modelfile Show Modelfile for this model | ||
| + | /show parameters Show parameters for this model | ||
| + | /show system Show system message | ||
| + | /show template Show prompt template | ||
| + | |||
| + | Prompt 2: | ||
| + | >>> /show info | ||
| + | |||
| + | == Sair do modulo == | ||
| + | Prompt: | ||
| + | >>> /clear | ||
| + | Resposta: | ||
| + | Cleared session context | ||
| + | |||
| + | = Ollama Comandos = | ||
| + | ==Listas os modelos existentes== | ||
| + | ollama list | ||
| + | ==Removento modelos existentes== | ||
| + | ollama rm gemma2:27b | ||
| + | ==Criando um modelo== | ||
| + | ollama create brapci | ||
| + | |||
| + | Modelo do arquivo de criação (modelo.txt): | ||
| + | FROM llama3.3:latest | ||
| + | |||
| + | PARAMETER temperature 0.1 | ||
| + | PARAMETER num_ctx 1024 | ||
| + | |||
| + | SYSTEM Responsa em no máximo 2 linhas em portugues. Respostas curtas e precisas. | ||
| + | |||
| + | Criando o modelo | ||
| + | Prompt: | ||
| + | ollama create brapci -f ./model.txt | ||
| + | Resposta: | ||
| + | transferring model data | ||
| + | using existing layer sha256:8eeb52dfb3bb9aefdf9d1ef24b3bdbcfbe82238798c4b918278320b6fcef18fe | ||
| + | using existing layer sha256:948af2743fc78a328dcb3b0f5a31b3d75f415840fdb699e8b1235978392ecf85 | ||
| + | using existing layer sha256:0ba8f0e314b4264dfd19df045cde9d4c394a52474bf92ed6a3de22a4ca31a177 | ||
| + | creating new layer sha256:55dcf8076ae23604428d8b4e3da7b4cf1f7901d56cd5c372b35019e89fc55329 | ||
| + | creating new layer sha256:dd8a35e7060436c1dfed155f80c14ea5cb012a4a3c0c460bf4087ceffdb62d4d | ||
| + | creating new layer sha256:dd7674e7d8fe16dad131bde90382cc861eaa698bf78a259215512f68d55be608 | ||
| + | writing manifest | ||
| + | success | ||
| + | |||
| + | =Ollama API= | ||
| + | ==List Models== | ||
| + | GET /api/tags | ||
| + | [[https://github.com/ollama/ollama/blob/main/docs/api.md#list-local-models https://github.com/ollama/ollama/blob/main/docs/api.md#list-local-models]] | ||
| + | |||
| + | ==Generator== | ||
| + | POST /api/generate | ||
| + | [[https://github.com/ollama/ollama/blob/main/docs/api.md#generate-a-completion https://github.com/ollama/ollama/blob/main/docs/api.md#generate-a-completion]] | ||
| + | ==Chat== | ||
| + | POST /api/chat | ||
| + | [[https://github.com/ollama/ollama/blob/main/docs/api.md#generate-a-chat-completion https://github.com/ollama/ollama/blob/main/docs/api.md#generate-a-chat-completion]] | ||
| + | |||
| + | =Comunidade= | ||
| + | [[https://discord.com/channels/1128867683291627614/1150902223417655317 Discord]] | ||
| + | |||
| + | =Hugging Face= | ||
| + | |||
| + | ollama run hf.co/{usuário}/{repositório} | ||
| + | |||
| + | Habilite o suporte ao Ollama nas configurações do Hugging Face: | ||
| + | |||
| + | No Hugging Face Hub, vá até as configurações da sua conta e ative a opção para integrar com o Ollama. | ||
| + | |||
| + | Selecione e execute um modelo, no Hugging Face Hub, escolha um modelo compatível no formato GGUF. | ||
| + | No menu "Use this model", selecione a opção "ollama". | ||
| + | Você receberá um comando no formato: | ||
| + | ollama run hf.co/{usuário}/{repositório} | ||
| + | Execute esse comando no terminal para baixar e iniciar o modelo com o Ollama. | ||
| + | Personalize a quantização (opcional): | ||
| + | Se desejar utilizar um esquema de quantização específico, você pode adicioná-lo ao comando: | ||
| + | ollama run hf.co/{usuário}/{repositório}:{quantização} | ||
| + | Por exemplo: | ||
| + | ollama run hf.co/bartowski/Llama-3.2-3B-Instruct-GGUF:Q8_0 | ||
| + | =Visual Studio Code= | ||
| + | Instale a extensão Ollama Autocoder | ||
| + | |||
| + | ollama run qwen2.5-coder:latest | ||
| + | |||
| + | ==Ollama como serviço== | ||
| + | |||
| + | Para fazer o Ollama ser acessado por outras máquinas, como serviço, inclua a variável de ambiente OLLAMA_HOST=0.0.0.0:11434, ou | ||
| + | export OLLAMA_HOST=0.0.0.0:11434 | ||
| + | |||
| + | [Unit] | ||
| + | Description=Ollama Service | ||
| + | After=network-online.target | ||
| + | |||
| + | [Service] | ||
| + | ExecStart=/usr/local/bin/ollama serve | ||
| + | User=ollama | ||
| + | Group=ollama | ||
| + | Restart=always | ||
| + | RestartSec=3 | ||
| + | Environment=OLLAMA_HOST=0.0.0.0:11434 | ||
| + | Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin" | ||
| + | |||
| + | [Install] | ||
| + | WantedBy=default.target | ||
Edição atual tal como às 09h49min de 9 de julho de 2025
Ollama
Modo debug
/set verbose
Prompt: Hello
>>> Hello
Resposta:
Hello! How are you today? Is there something I can help you with, or would you like to chat? total duration: 678.164416ms load duration: 18.576248ms prompt eval count: 11 token(s) prompt eval duration: 131.281ms prompt eval rate: 83.79 tokens/s eval count: 24 token(s) eval duration: 486.965ms eval rate: 49.28 tokens/s
Configurações
Prompt:
>>> /set system "Responsa em portugues, o mais preciso possível, e no máximo em duas linhas"
Resposta:
Set system message.
Sobre o modelo
Prompt:
>>> /show
Response:
Available Commands: /show info Show details for this model /show license Show model license /show modelfile Show Modelfile for this model /show parameters Show parameters for this model /show system Show system message /show template Show prompt template
Prompt 2:
>>> /show info
Sair do modulo
Prompt:
>>> /clear
Resposta:
Cleared session context
Ollama Comandos
Listas os modelos existentes
ollama list
Removento modelos existentes
ollama rm gemma2:27b
Criando um modelo
ollama create brapci
Modelo do arquivo de criação (modelo.txt):
FROM llama3.3:latest PARAMETER temperature 0.1 PARAMETER num_ctx 1024 SYSTEM Responsa em no máximo 2 linhas em portugues. Respostas curtas e precisas.
Criando o modelo Prompt:
ollama create brapci -f ./model.txt
Resposta:
transferring model data using existing layer sha256:8eeb52dfb3bb9aefdf9d1ef24b3bdbcfbe82238798c4b918278320b6fcef18fe using existing layer sha256:948af2743fc78a328dcb3b0f5a31b3d75f415840fdb699e8b1235978392ecf85 using existing layer sha256:0ba8f0e314b4264dfd19df045cde9d4c394a52474bf92ed6a3de22a4ca31a177 creating new layer sha256:55dcf8076ae23604428d8b4e3da7b4cf1f7901d56cd5c372b35019e89fc55329 creating new layer sha256:dd8a35e7060436c1dfed155f80c14ea5cb012a4a3c0c460bf4087ceffdb62d4d creating new layer sha256:dd7674e7d8fe16dad131bde90382cc861eaa698bf78a259215512f68d55be608 writing manifest success
Ollama API
List Models
GET /api/tags [https://github.com/ollama/ollama/blob/main/docs/api.md#list-local-models]
Generator
POST /api/generate [https://github.com/ollama/ollama/blob/main/docs/api.md#generate-a-completion]
Chat
POST /api/chat [https://github.com/ollama/ollama/blob/main/docs/api.md#generate-a-chat-completion]
Comunidade
[Discord]
Hugging Face
ollama run hf.co/{usuário}/{repositório}
Habilite o suporte ao Ollama nas configurações do Hugging Face:
No Hugging Face Hub, vá até as configurações da sua conta e ative a opção para integrar com o Ollama.
Selecione e execute um modelo, no Hugging Face Hub, escolha um modelo compatível no formato GGUF. No menu "Use this model", selecione a opção "ollama". Você receberá um comando no formato:
ollama run hf.co/{usuário}/{repositório}
Execute esse comando no terminal para baixar e iniciar o modelo com o Ollama. Personalize a quantização (opcional): Se desejar utilizar um esquema de quantização específico, você pode adicioná-lo ao comando:
ollama run hf.co/{usuário}/{repositório}:{quantização}
Por exemplo:
ollama run hf.co/bartowski/Llama-3.2-3B-Instruct-GGUF:Q8_0
Visual Studio Code
Instale a extensão Ollama Autocoder
ollama run qwen2.5-coder:latest
Ollama como serviço
Para fazer o Ollama ser acessado por outras máquinas, como serviço, inclua a variável de ambiente OLLAMA_HOST=0.0.0.0:11434, ou
export OLLAMA_HOST=0.0.0.0:11434
[Unit] Description=Ollama Service After=network-online.target [Service] ExecStart=/usr/local/bin/ollama serve User=ollama Group=ollama Restart=always RestartSec=3 Environment=OLLAMA_HOST=0.0.0.0:11434 Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin" [Install] WantedBy=default.target