Execução offline, sem enviar dados a servidores externos
Maior privacidade e reprodutibilidade
Integração com Python, Node e REST APIs
Suporte à quantização, reduzindo RAM e VRAM necessárias
Compatível com Open WebUI, LM Studio, entre outros
🚀 Instalação e primeiros comandos
# Instalar (Linux)curl-fsSL https://ollama.com/install.sh |sh# Ver modelos disponíveisollama list# Baixar um modeloollama pull phi3# Rodar e conversarollama run phi3
🧠 Prática: rodando modelos pequenos
Vamos testar juntos:
Baixe o modelo Phi-3-mini (3.8B)
ollama pull phi3:mini
Teste com um prompt
ollama run phi3:mini "Explique o conceito de Humanidades Digitais em 3 linhas"
Execução local → menos dependência de servidores externos
Privacidade garantida (dados não enviados à nuvem)
Contribui para a soberania tecnológica e a autonomia digital
🎯 Atividade prática
💡 Tarefas:
Rodar dois modelos pequenos (Phi, Qwen ou Mistral) via GUI do Ollama ou terminal.
Criar um script em Python que gere receba um documento de texto + um prompt e retorne uma resposta sobre o conteúdo do documento.
🤝 Créditos
🛠️ Slides e formatação criados com apoio do ChatGPT (modelo GPT-5) entre os dias 10 e 11 de novembro de 2025, sob orientação editorial e pedagógica de Eric Brasil.