Ollama:uso do modelo

De BrapciWiki
Revisão de 14h48min de 13 de julho de 2024 por Renefgj (discussão | contribs) (Criou página com ' =Passos para Utilizar o Modelo Treinado= ==Carregar o Modelo e o Tokenizer== Carregue o modelo e o tokenizer que você salvou após o treinamento from transformers import...')
(dif) ← Edição anterior | Revisão atual (dif) | Versão posterior → (dif)
Ir para navegação Ir para pesquisar

Passos para Utilizar o Modelo Treinado

Carregar o Modelo e o Tokenizer

Carregue o modelo e o tokenizer que você salvou após o treinamento

from transformers import AutoModelForCausalLM, AutoTokenizer
model_path = "./llama3-finetuned"
tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForCausalLM.from_pretrained(model_path)

Preparar a Entrada

Tokenize a entrada que você deseja passar para o modelo:

input_text = "Sua entrada aqui"
inputs = tokenizer(input_text, return_tensors="pt")

Gerar a saída

output = model.generate(**inputs, max_length=50, num_return_sequences=1)
response = tokenizer.decode(output[0], skip_special_tokens=True)
print(response)