Open WebUI + Ollama
Een lokale AI-interface met zelfgekozen modellen.
Op jouw VPS. Door jou beheerd.
Self-hosted, self-managed AI stack
RAG, knowledge en tools
Ollama als lokale modelruimte
Een self-hosted, self-managed lokale AI stack op ons VPS platform
Kies de juiste VPS voor jouw Open WebUI + Ollama server
Zwaardere lokale modellen vragen het meest om resources. Meer gebruikers, grotere knowledge bases en embeddings komen daar bovenop. Voor een eerste Open WebUI + Ollama omgeving is een V3 een goede instapoptie; voor serieuze modellen heb je meer nodig.
↓
Open WebUI + Ollama: een krachtige combinatie
Features