<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="pt-BR">
	<id>https://brapci.inf.br/wiki/index.php?action=history&amp;feed=atom&amp;title=Ollama%3Auso_do_modelo</id>
	<title>Ollama:uso do modelo - Histórico de revisão</title>
	<link rel="self" type="application/atom+xml" href="https://brapci.inf.br/wiki/index.php?action=history&amp;feed=atom&amp;title=Ollama%3Auso_do_modelo"/>
	<link rel="alternate" type="text/html" href="https://brapci.inf.br/wiki/index.php?title=Ollama:uso_do_modelo&amp;action=history"/>
	<updated>2026-05-15T19:42:15Z</updated>
	<subtitle>Histórico de revisões para esta página neste wiki</subtitle>
	<generator>MediaWiki 1.34.1</generator>
	<entry>
		<id>https://brapci.inf.br/wiki/index.php?title=Ollama:uso_do_modelo&amp;diff=1826&amp;oldid=prev</id>
		<title>Renefgj: Criou página com &#039; =Passos para Utilizar o Modelo Treinado=  ==Carregar o Modelo e o Tokenizer== Carregue o modelo e o tokenizer que você salvou após o treinamento   from transformers import...&#039;</title>
		<link rel="alternate" type="text/html" href="https://brapci.inf.br/wiki/index.php?title=Ollama:uso_do_modelo&amp;diff=1826&amp;oldid=prev"/>
		<updated>2024-07-13T14:48:58Z</updated>

		<summary type="html">&lt;p&gt;Criou página com &amp;#039; =Passos para Utilizar o Modelo Treinado=  ==Carregar o Modelo e o Tokenizer== Carregue o modelo e o tokenizer que você salvou após o treinamento   from transformers import...&amp;#039;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Página nova&lt;/b&gt;&lt;/p&gt;&lt;div&gt;&lt;br /&gt;
=Passos para Utilizar o Modelo Treinado=&lt;br /&gt;
&lt;br /&gt;
==Carregar o Modelo e o Tokenizer==&lt;br /&gt;
Carregue o modelo e o tokenizer que você salvou após o treinamento&lt;br /&gt;
&lt;br /&gt;
 from transformers import AutoModelForCausalLM, AutoTokenizer&lt;br /&gt;
 model_path = &amp;quot;./llama3-finetuned&amp;quot;&lt;br /&gt;
 tokenizer = AutoTokenizer.from_pretrained(model_path)&lt;br /&gt;
 model = AutoModelForCausalLM.from_pretrained(model_path)&lt;br /&gt;
&lt;br /&gt;
==Preparar a Entrada==&lt;br /&gt;
Tokenize a entrada que você deseja passar para o modelo:&lt;br /&gt;
&lt;br /&gt;
 input_text = &amp;quot;Sua entrada aqui&amp;quot;&lt;br /&gt;
 inputs = tokenizer(input_text, return_tensors=&amp;quot;pt&amp;quot;)&lt;br /&gt;
&lt;br /&gt;
==Gerar a saída==&lt;br /&gt;
 output = model.generate(**inputs, max_length=50, num_return_sequences=1)&lt;br /&gt;
 response = tokenizer.decode(output[0], skip_special_tokens=True)&lt;br /&gt;
 print(response)&lt;/div&gt;</summary>
		<author><name>Renefgj</name></author>
		
	</entry>
</feed>