Ollama is een open-source applicatie waarmee gebruikers AI-modellen lokaal of op je eigen dedicated servers kunnen hosten en beheren, bijvoorbeeld GPT-Oss, Qwen of DeepSeek.
Ollama biedt met afstand de eenvoudigste manier om LLMs zelf te hosten. Bovendien kun je deze modellen vervolgens via een REST API gebruiken in meer dan 40000 integraties, bijvoorbeeld:
- OpenWeb UI: Een soort ChatGPT-systeem voor je self-hosted LLM.
- ChatBox AI: Een chat-systeem voor je LLM.
- OpenClaw (en andere agentic-toepassingen) zoals OpenClaw.
Zijn Ollama-modellen gratis?
Ollama zelf is gratis om te installeren en alle ondersteunde modellen zijn gratis. Uiteraard is er wel een kostenplaatje voor de hardware die je gebruikt.
Wat zijn de beste modellen?
De beste modellen veranderen met de introductie van nieuwe modellen, maar begin 2026 worden de volgende modellen gezien als de beste:
- Algemene taken: GLM-4.7-Flash (Reasoning) & Llama 4 Scout
- Programmeren: GLM-5 (Reasoning) & Qwen3 Coder 30B A3B Instruct
- Reasoning & wiskunde: NVIDIA Nemotron 3 Nano 30B A3B (Reasoning) & DeepSeek R1 Distill (70B)
- Lange context & analyze van documenten: Qwen3 30B A3B & Kimi K2.5 (Reasoning)
- Multi-modal & vision: Qwen3 VL 32B (Reasoning) & Gemma 3 (4B-27B)
- 16GB VRAM of enkel RAM: GPT-OSS 20B & Qwen3 14B
Handleidingen voor toepassingen van Ollama
In de volgende handleidingen vind je meer informatie over de installatie van Ollama en toepassingen waaraan je Ollama kunt koppelen:
- Ollama hosten
- OpenClaw gebruiken
- OpenWeb Ui gebruiken