Naar de inhoud

Open WebUI + Ollama 

Een lokale AI-interface met zelfgekozen modellen.

Op jouw VPS. Door jou beheerd.

Self-hosted, self-managed AI stack

RAG, knowledge en tools

Ollama als lokale modelruimte

Een self-hosted, self-managed lokale AI stack op ons VPS platform

Jouw Open WebUI + Ollama omgeving op TransIP VPS: download, draai en gebruik AI-modellen vanuit een overzichtelijke webapplicatie. Je beheert de stack volledig zelf -- van installatie tot updates en beveiliging. Bouw een lokale AI stack voor chat, knowledge, self-hosted RAG en tools, terwijl je controle houdt over modellen, documenten, toegang en infrastructuur.

Kies de juiste VPS voor jouw Open WebUI + Ollama server

Zwaardere lokale modellen vragen het meest om resources. Meer gebruikers, grotere knowledge bases en embeddings komen daar bovenop. Voor een eerste Open WebUI + Ollama omgeving is een V3 een goede instapoptie; voor serieuze modellen heb je meer nodig.

V3

  • 2 shared of dedicated vCPU's
  • 4 GB RAM
  • 100 GB NVMe
  • Unlimited traffic
  • 1 Snapshot

Vanaf

€ 20,-per maand

Configureren

V4

  • 4 shared of dedicated vCPU's
  • 8 GB RAM
  • 100 GB NVMe
  • Unlimited traffic
  • 1 Snapshot

Vanaf

€ 50,-per maand

Configureren

V5

  • 8 shared of dedicated vCPU
  • 16 GB RAM
  • 100 GB NVMe
  • Unlimited traffic
  • 1 Snapshot

Vanaf

€ 100,-per maand

Configureren
 

Open WebUI + Ollama: een krachtige combinatie

Features

Chat

Praat met meerdere lokale modellen vanuit één interface en vergelijk antwoorden in dezelfde workflow

Self-hosted RAG

Upload documenten en laat Open WebUI antwoorden opbouwen uit je eigen kennisbank met retrieval

Lokale modellen

Laat Ollama modellen downloaden, draaien en serveren op je eigen VPS zonder externe LLM's

Teams & toegang

Werk met rollen, groepen en gedeelde toegang in een multi-user omgeving

Tools

Voeg web search, code execution en andere tools toe aan chats en workflows bovenop je lokale modellen

API & extensies

Breid uit met Python functions, pipelines, MCP en OpenAPI servers en koppel tegelijk aan de Ollama API

Open WebUI en Ollama werken direct samen

Open WebUI heeft een eigen Ollama-verbinding waarmee je modellen kunt beheren vanuit de admin-omgeving. Hier kun je modellen downloaden, meerdere Ollama-instances koppelen en die modellen vervolgens inzetten voor chats, kennisbanken en tools in dezelfde interface.

Meer mogelijkheden met knowledge en RAG

Open WebUI geeft je documenten, collecties en retrieval in eigen beheer. Upload PDF's, spreadsheets, code of andere tekstbestanden en laat je modellen via RAG relevante stukken ophalen uit je eigen knowledge base. Zo bouw je een self-hosted AI ervaring die niet alleen chat, maar ook antwoordt vanuit jouw eigen context.

Self-hosted, self-managed op jouw VPS

Open WebUI + Ollama op TransIP VPS is volledig self-managed: jij host modellen, gesprekken, documenten en extensies zelf, en dat geeft maximale grip op privacy en configuratie. TransIP levert de VPS; de installatie, updates, back-ups, toegang, monitoring en beveiliging van Open WebUI en Ollama doe je zelf.

Meer leren?

In de documentatie van Open WebUI vind je handleidingen voor de Ollama-koppeling, knowledge bases, RAG en beheer van je self-hosted AI omgeving.

FAQ