Ollama: rodar IA local no seu PC
Resposta rapida: Ollama e a forma mais facil de rodar LLMs (Llama 3, Mistral, Phi-3, Gemma) local no seu PC. Instala em 1 click, baixa modelos com 1 comando, integra com VSCode/Open WebUI. Requisitos: 16 GB RAM (8 GB serve com modelos pequenos). O que e Ollama Ollama e um framework open source que simplifica…