OpenClaw, voorheen bekend als ClawBot en MoltBot, is een persoonlijke AI-agent die je op je eigen infrastructuur draait en een taalmodel (LLM) naar keuze gebruikt, lokaal of remote. OpenClaw voert taken autonoom uit en kan je mailbox beheren (inclusief kalender), kan overweg met browsers, code uitvoeren op je computer, en nog veel meer.
Je bedient OpenClaw via een chat app naar keuze zoals WhatsApp, Telegram, of Signal, via command-line en een webdashboard. In deze handleiding installeer je OpenClaw op een Linux-server (of bestel een kant-en-klare OpenClaw-VPS) en koppel je het aan een externe LLM-provider zoals OpenAI's GPT, of een lokaal gehost model via Ollama.
Op zoek naar inspiratie waar mensen OpenClaw voor gebruiken? Neem een kijkje op https://openclaw.ai/showcase.
OpenClaw maakt gebruik van ‘skills’ om nieuwe vaardigheden te leren. Deze kunnen door derden worden ontwikkeld en zijn vrij beschikbaar via de Clawhub. Installeer alleen vertrouwde ‘skills’/plugins. Er zijn recent malafide skills via publieke registers gesignaleerd; bekijk broncode vóór gebruik en ‘copy-paste’ nooit dubieuze shell-commando’s.
OpenClaw installeren
Heb je een VPS met OpenClaw voorgeïnstalleerd besteld? Ga dan direct verder met de volgende paragraaf ‘Het OpenClaw onboardingproces’.
Stap 1
Verbind met je VPS via SSH of de VPS-console.
Stap 2
Update eerst je server zodat de nieuwste software packages beschikbaar zijn:
Ubuntu:
sudo apt -y update && sudo apt -y upgradeAlmaLinux/Rocky Linux/CentOS Stream:
sudo dnf -y update
Stap 3
OpenClaw heeft een aantal dependencies/aanpassingen nodig voor, tijdens en na het installatie/configuratieproces, namelijk:
- NodeJS 22 of nieuwer.
- NPM: Een package manager die standaard met NodeJS wordt meegeïnstalleerd. Er is echter nog enige extra configuratie nodig zodat de OpenClaw executable gebruikt kan worden. De npm-bin directory wordt namelijk niet automatisch herkend door je OS. Dit los je op door de npm-bin directory toe te voegen aan $PATH (een omgevingsvariabele die vertelt waar executable files zich bevinden).
- Brew: Voor het gebruik van skills (i.e. wat kan OpenClaw naast chatten) heb je ook Brew nodig.
Kopieer en plak de code hieronder afhankelijk van jouw besturingssysteem:
Ubuntu / Debian:
curl -fsSL https://deb.nodesource.com/setup_24.x | sudo bash
sudo apt -y install nodejs
echo 'export PATH="$(npm prefix -g)/bin:$PATH"' >> ~/.bashrc
source ~/.bashrc
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
echo >> ~/.bashrc
grep -qxF 'eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv bash)"' ~/.bashrc \
|| echo 'eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv bash)"' >> ~/.bashrc
eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv bash)"
sudo apt -y install build-essentialAlmaLinux / Rocky Linux / CentOS Stream:
curl -fsSL https://deb.nodesource.com/setup_24.x | sudo bash
sudo dnf -y install nodejs
echo 'export PATH="$(npm prefix -g)/bin:$PATH"' >> ~/.bashrc
source ~/.bashrc
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
echo >> ~/.bashrc
grep -qxF 'eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv bash)"' ~/.bashrc \
|| echo 'eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv bash)"' >> ~/.bashrc
eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv bash)"
sudo dnf -y update && sudo dnf -y groupinstall "Development Tools" && sudo dnf -y install gcc-c++ make
Stap 4
Installeer OpenClaw via een installer-script (aanbevolen) of Docker.
Installer-script (aanbevolen)
Voer het officiële installer-script uit:
curl -fsSL https://openclaw.ai/install.sh | bash
Dit installeert de openclaw-CLI (Command Line Interface). Standaard start na de installatie een onboardingproces, dat we in de volgende paragraaf in detail doornemen. Mocht je het onboardingproces nu overslaan of afbreken, dan kun je het na de installatie handmatig starten met het commando:
openclaw onboard --install-daemon
--install-daemon maakt een systemd-service zodat de gateway op de achtergrond actief blijft.
Docker (containerized gateway)
Stap 1
Installeer eerst Docker en Docker Compose (v2). Start en enable de Docker-dienst:
sudo apt -y update && sudo apt -y install docker.io docker-compose-plugin sudo systemctl enable --now docker
Stap 2
Kloon de OpenClaw-repo en draai het Docker-setupscript:
git clone https://github.com/openclaw/openclaw.git
cd openclaw
./docker-setup.sh
Dit bouwt de image, runt het onboarding-proces (zie de volgende paragraaf) en start de gateway via Compose.
Stap 3
Open het dashboard en koppel je browser (zo nodig).
Toon de dashboard-URL zonder deze automatisch te openen:
docker compose run --rm openclaw-cli dashboard --no-open
(Optioneel) een koppelverzoek goedkeuren
docker compose run --rm openclaw-cli devices list
docker compose run --rm openclaw-cli devices approve
Gebruik de CLI-container om te paren en kanalen te koppelen.
Het OpenClaw onboardingproces
Het onboardingsproces is gestart en nemen we hieronder in detail door. Heb je het proces afgebroken of nog niet gestart? Gebruik dan nu het commando:
openclaw onboard --install-daemonTijdens dit proces pas je selecties aan met de pijltjestoetsen. Wanneer er meerdere selecteerbare opties zijn, gebruik je de spatie-toets om een selectie te maken en in elke stap de enter-toets om je keuze te bevestigen.
Stap 1
Je krijgt eerst een security waarschuwing te zien. We raden aan deze nauwkeurig door te nemen; OpenClaw heeft, afhankelijk van je configuratie, diepe toegang tot o.a. je computer/server, social accounts en mail en kan daarmee behoorlijke schade aanrichten indien het niet veilig is geconfigureerd (het hosten van OpenClaw op een VPS verlaagt al de nodige risico's).
◇ Security ──────────────────────────────────────────────────────────────────────────────╮
│ │
│ Security warning — please read. │
│ │
│ OpenClaw is a hobby project and still in beta. Expect sharp edges. │
│ This bot can read files and run actions if tools are enabled. │
│ A bad prompt can trick it into doing unsafe things. │
│ │
│ If you’re not comfortable with basic security and access control, don’t run OpenClaw. │
│ Ask someone experienced to help before enabling tools or exposing it to the internet. │
│ │
│ Recommended baseline: │
│ - Pairing/allowlists + mention gating. │
│ - Sandbox + least-privilege tools. │
│ - Keep secrets out of the agent’s reachable filesystem. │
│ - Use the strongest available model for any bot with tools or untrusted inboxes. │
│ │
│ Run regularly: │
│ openclaw security audit --deep │
│ openclaw security audit --fix │
│ │
│ Must read: https://docs.openclaw.ai/gateway/security │
│ │
├─────────────────────────────────────────────────────────────────────────────────────────╯OpenClaw vraagt vervolgens expliciete toestemming om verder te gaan met het onboardingproces. Selecteer ‘Yes’ met je pijltjestoetsen en druk op ‘Enter’ om toestemming te geven.
◆ I understand this is powerful and inherently risky. Continue?
│ ● Yes / ○ No
└
Stap 2
Druk opnieuw op ‘Enter’ om als onboarding methode ‘Quickstart’ te selecteren. Alle onderdelen van het onboardingsproces zijn optioneel en de belangrijkste bespreken we in aparte pargrafen.
◆ Onboarding mode
│ ● QuickStart (Configure details later via openclaw configure.)
│ ○ Manual
└
Stap 3
Je krijgt nu de optie om een LLM-provider te selecteren en hebt twee keuzes:
- Wil je een self-hosted model via Ollama gebruiken? Selecteer dan ‘Skip for now’.
- Gebruik je liever een van de beschikbare LLM-providers? Pak dan nu de OAuth / API-key gegevens van je favoriete LLM-provider erbij en selecteer de gewenste provider.
◆ Model/auth provider
│ ○ OpenAI
│ ○ Anthropic
│ ○ MiniMax
│ ○ Moonshot AI
│ ○ Google
│ ○ OpenRouter
│ ○ Qwen
│ ○ Z.AI (GLM 4.7)
│ ○ Copilot
│ ○ Vercel AI Gateway
│ ○ OpenCode Zen
│ ○ Xiaomi
│ ○ Synthetic
│ ○ Venice AI
│ ● Skip for now
└OpenAI voorbeeld
Selecteer je bijvoorbeeld OpenAI en wil je een API-key gebruiken, dan zien de eerstvolgende opties er als volgt uit:
◇ QuickStart ─────────────────────────╮
│ │
│ Gateway port: 18789 │
│ Gateway bind: Loopback (127.0.0.1) │
│ Gateway auth: Token (default) │
│ Tailscale exposure: Off │
│ Direct to chat channels. │
│ │
├──────────────────────────────────────╯
│
◇ Model/auth provider
│ OpenAI
│
◇ OpenAI auth method
│ OpenAI API key
│
◆ Enter OpenAI API key
│ a1234-qqw123aa-asdasd1█
Stap 4
In stap 5 kies je een specifiek LLM. Om de keuzes overzichtelijk te houden kun je nu alvast een LLM-provider selecteren.
Gebruik je Ollama of wil je later een LLM configureren? Druk dan op ‘Enter’ om ‘All providers’ (default) te selecteren onder ‘Filter models by providers’.
Heb je in de vorige stap een specifieke provider gekozen? Selecteer die dan in het overzicht hieronder. In de volgende stap kun je dan namelijk selecteren welk model je wil gebruiken.
◆ Filter models by provider
│ ● All providers
│ ○ amazon-bedrock
│ ○ anthropic
│ ○ azure-openai-responses
│ ○ cerebras
│ ○ github-copilot
│ ○ google
│ ○ google-antigravity
│ ○ google-gemini-cli
│ ○ google-vertex
│ ○ groq
│ ○ huggingface
│ ○ kimi-coding
│ ○ minimax
│ ○ minimax-cn
│ ○ mistral
│ ○ openai
│ ○ openai-codex
│ ○ opencode
│ ○ openrouter
│ ○ vercel-ai-gateway
│ ○ xai
│ ○ zai
└
Stap 5
Gebruik je Ollama of wil je later een LLM configureren? Druk dan op ‘Enter’ om ‘Keep current’ (default) te selecteren onder 'Default model’.
Heb je in de vorige stap een specifieke provider gekozen? Selecteer dan het gewenste model in het overzicht dat verschijnt; dit overzicht zal in dat geval kleiner zijn en enkel de modellen tonen van de provider die je in het vorige keuzemenu hebt geselecteerd.
◆ Default model
│ ● Keep current (default: anthropic/claude-opus-4-5)
│ ○ Enter model manually
│ ○ amazon-bedrock/anthropic.claude-3-haiku-20240307-v1:0
│ ○ amazon-bedrock/anthropic.claude-3-5-haiku-20241022-v1:0
│ ○ amazon-bedrock/global.anthropic.claude-haiku-4-5-20251001-v1:0
│ ○ amazon-bedrock/eu.anthropic.claude-haiku-4-5-20251001-v1:0
│ ○ amazon-bedrock/anthropic.claude-3-opus-20240229-v1:0
│ ○ amazon-bedrock/us.anthropic.claude-opus-4-20250514-v1:0
│ ○ amazon-bedrock/us.anthropic.claude-opus-4-1-20250805-v1:0
│ ○ amazon-bedrock/global.anthropic.claude-opus-4-5-20251101-v1:0
│ ○ amazon-bedrock/eu.anthropic.claude-opus-4-5-20251101-v1:0
│ ○ amazon-bedrock/anthropic.claude-3-sonnet-20240229-v1:0
│ ○ amazon-bedrock/anthropic.claude-3-5-sonnet-20240620-v1:0
│ ○ amazon-bedrock/anthropic.claude-3-5-sonnet-20241022-v2:0
│ ○ amazon-bedrock/us.anthropic.claude-3-7-sonnet-20250219-v1:0
│ ○ amazon-bedrock/global.anthropic.claude-sonnet-4-20250514-v1:0
│ ○ amazon-bedrock/global.anthropic.claude-sonnet-4-5-20250929-v1:0
│ ○ amazon-bedrock/eu.anthropic.claude-sonnet-4-5-20250929-v1:0
│ ○ amazon-bedrock/cohere.command-r-v1:0
│ ○ amazon-bedrock/cohere.command-r-plus-v1:0
│ ○ amazon-bedrock/us.deepseek.r1-v1:0
│ ○ amazon-bedrock/deepseek.v3-v1:0
│ ○ amazon-bedrock/google.gemma-3-4b-it
│ ○ amazon-bedrock/google.gemma-3-27b-it
│ ○ amazon-bedrock/openai.gpt-oss-safeguard-120b
│ ○ amazon-bedrock/openai.gpt-oss-safeguard-20b
│ ○ amazon-bedrock/openai.gpt-oss-120b-1:0
│ ○ amazon-bedrock/openai.gpt-oss-20b-1:0
│ ○ amazon-bedrock/moonshot.kimi-k2-thinking
│ ○ amazon-bedrock/meta.llama3-1-70b-instruct-v1:0
│ ○ amazon-bedrock/meta.llama3-1-8b-instruct-v1:0
│ ○ amazon-bedrock/us.meta.llama3-2-11b-instruct-v1:0
│ ○ amazon-bedrock/us.meta.llama3-2-1b-instruct-v1:0
│ ○ amazon-bedrock/us.meta.llama3-2-3b-instruct-v1:0
│ ○ amazon-bedrock/us.meta.llama3-2-90b-instruct-v1:0
│ ○ amazon-bedrock/us.meta.llama3-3-70b-instruct-v1:0
│ ○ amazon-bedrock/us.meta.llama4-maverick-17b-instruct-v1:0
│ ○ amazon-bedrock/us.meta.llama4-scout-17b-instruct-v1:0
│ ○ amazon-bedrock/minimax.minimax-m2
│ ○ amazon-bedrock/mistral.ministral-3-14b-instruct
│ ○ amazon-bedrock/mistral.ministral-3-8b-instruct
│ ○ amazon-bedrock/mistral.mistral-large-2402-v1:0
│ ○ amazon-bedrock/global.amazon.nova-2-lite-v1:0
│ ○ amazon-bedrock/us.amazon.nova-lite-v1:0
│ ○ amazon-bedrock/us.amazon.nova-micro-v1:0
│ ○ amazon-bedrock/us.amazon.nova-premier-v1:0
│ ○ amazon-bedrock/us.amazon.nova-pro-v1:0
│ ○ amazon-bedrock/nvidia.nemotron-nano-12b-v2
│ ○ amazon-bedrock/nvidia.nemotron-nano-9b-v2
│ ...
└
Stap 6
Vervolgens kun je één enkel kanaal kiezen voor communicatie met OpenClaw (en daarna eventueel nog andere opties). Verderop in dit artikel laten we zien hoe je WhatsApp, Telegram en Signal in meer detail configureert. Je bent vrij om een van de beschikbare opties te selecteren; OpenClaw begeleidt je door het configuratieproces en onder dit overzicht vind je een voorbeeld hoe dit eruitziet voor Telegram.
◆ Select channel (QuickStart)
│ ● Telegram (Bot API)
│ ○ WhatsApp (QR link)
│ ○ Discord (Bot API)
│ ○ Google Chat (Chat API)
│ ○ Slack (Socket Mode)
│ ○ Signal (signal-cli) (not configured)
│ ○ iMessage (imsg)
│ ○ Nostr (NIP-04 DMs)
│ ○ Microsoft Teams (Bot Framework)
│ ○ Mattermost (plugin)
│ ○ Nextcloud Talk (self-hosted)
│ ○ Matrix (plugin)
│ ○ BlueBubbles (macOS app)
│ ○ LINE (Messaging API)
│ ○ Zalo (Bot API)
│ ○ Zalo (Personal Account)
│ ○ Tlon (Urbit)
│ ○ Skip for now
└Voorbeeld met Telegram
Doorloop de hieronder aangegeven stappen. Het makkelijkste is om bijvoorbeeld in je browser op https://web.telegram.org in te loggen en de stappen te doorlopen.
◇ Select channel (QuickStart)
│ Telegram (Bot API)
│
◇ Telegram bot token ───────────────────────────────────────────────────────────────────╮
│ │
│ 1) Open Telegram and chat with @BotFather │
│ 2) Run /newbot (or /mybots) │
│ 3) Copy the token (looks like 123456:ABC...) │
│ Tip: you can also set TELEGRAM_BOT_TOKEN in your env. │
│ Docs: https://docs.openclaw.ai/telegram │
│ Website: https://openclaw.ai │
│ │
├────────────────────────────────────────────────────────────────────────────────────────╯
│
◆ Enter Telegram bot token
│ 853442:AAFCUHWfCem-rwLwCRWSJW4
└
Stap 7
Je kiest nu de ‘skills’ die OpenClaw kan gebruiken. Dit bepaalt in grote mate wat OpenClaw kan, naast chatten op een vergelijkbare manier als ChatGPT.
- Selecteer ‘Yes’ bij de vraag ‘Configure skills now?’
- Selecteer ‘No’ bij de vraag ‘Show Homebrew install command?’
- Selecteer ‘NPM’ als 'Preferred node manager for skill installs'.
- Selecteer één of meer skills met spatie en klik op ‘Enter’ om ze te installeren. Een aantal van deze skills vereisen externe API keys, bijvoorbeeld het image genereren via nano-banana-pro gebruikt Gemini Pro 3 Image preview en vereisen een API key van Google's AI studio.
Een paar skills die in ieder geval handig zijn om alvast te installeren en geen API keys nodig hebben zijn:- De Clawhub skill: voeg later eenvoudig meer skills toe aan OpenClaw die niet in dit overzicht zijn opgenomen maar wel via Clawhub beschikbaar zijn (de website waar mensen nieuwe skills kunnen delen).
- Nano-pdf: OpenClaw kan hiermee PDF bestanden aanpassen
- OpenAI-whisper: Installeer lokaal een Speech-to-Text module. Hiermee kun je straks bijvoorbeeld spraakberichten naar OpenClaw sturen via WhatsApp, Telegram of Signal waar OpenClaw op kan reageren. Let op: in een test zijn we een bug tegengekomen waarbij automatisch de door API-aangedreven versie van whisper werd geselecteerd. Gebeurt dit jou ook? Controleer en corrigeer dit dan in het web-dashboard in de skills-pagina.
- Summarize: Een skill waarmee OpenClaw URLs, podcasts en (tekst)bestanden kan samenvatten.
◇ Skills status ────────────╮
│ │
│ Eligible: 4 │
│ Missing requirements: 45 │
│ Blocked by allowlist: 0 │
│ │
├────────────────────────────╯
│
◇ Configure skills now? (recommended)
│ Yes
│
◇ Homebrew recommended ──────────────────────────────────────────────────────────╮
│ │
│ Many skill dependencies are shipped via Homebrew. │
│ Without brew, you'll need to build from source or download releases manually. │
│ │
├─────────────────────────────────────────────────────────────────────────────────╯
│
◇ Show Homebrew install command?
│ No
│
◇ Preferred node manager for skill installs
│ ● npm
│ ○ pnpm
│ ○ bun
◆ Install missing skill dependencies
│ ◻ Skip for now (Continue without installing dependencies)
│ ◻ 🔐 1password
│ ◻ 📝 apple-notes
│ ◻ ⏰ apple-reminders
│ ◻ 🐻 bear-notes
│ ◻ 🐦 bird
│ ◻ 📰 blogwatcher
│ ◻ 🫐 blucli
│ ◻ 📸 camsnap
│ ◻ 🧩 clawhub
│ ◻ 🎛️ eightctl
│ ◻ ♊️ gemini
│ ◻ 🧲 gifgrep
│ ◻ 🐙 github
│ ◻ 🎮 gog
│ ◻ 📍 goplaces
│ ◻ 📧 himalaya
│ ◻ 📨 imsg
│ ◻ 📦 mcporter
│ ◻ 📊 model-usage
│ ◻ 🍌 nano-banana-pro
│ ◻ 📄 nano-pdf
│ ◻ 💎 obsidian
│ ◻ 🎙️ openai-whisper
│ ◻ 💡 openhue
│ ◻ 🧿 oracle
│ ◻ 🛵 ordercli
│ ◻ 👀 peekaboo
│ ◻ 🗣️ sag
│ ◻ 🌊 songsee
│ ◻ 🔊 sonoscli
│ ◻ 🧾 summarize
│ ◻ ✅ things-mac
│ ◻ 🎞️ video-frames
│ ◻ 📱 wacli
└
Stap 8
Tot slot kun je hooks inschakelen. We raden aan de onderste drie opties te selecteren. Simpel gezegd stellen hooks je in staat om acties te automatiseren die automatisch afgaan op basis van agent events en commands. We raden aan deze pagina over hooks te lezen en zeker ook te kijken wat er mogelijk is met webhooks.
◆ Enable hooks?
│ ◻ Skip for now
│ ◼ 🚀 boot-md (Run BOOT.md on gateway startup)
│ ◼ 📝 command-logger (Log all command events to a centralized audit file)
│ ◼ 💾 session-memory (Save session context to memory when /new command is issued)
└
Stap 9
Je krijgt nu een aantal meldingen te zien, maar het belangrijkste is het blok hieronder.
- Noteer eerst de waarde van het token in de URL onder ‘Web UI (with token)’
- Aan het eind wordt gevraagd hoe je de bot wil hatchen. Gebruik je een externe LLM-provider zoals OpenAI/Anthropic? Druk dan op ‘Enter’ om de standaard optie ‘Hatch in TUI’ (Terminal User Interface) te selecteren.
Gebruik je Ollama? Selecteer dan ‘Do this later’ en ga naar de volgende paragraaf. - Kies je voor ‘Do this later’? Je krijgt dan nog de vraag of je een shell completion script wil installeren. Selecteer ‘Yes’ als je deze vraag te zien krijgt.
◇ Control UI ─────────────────────────────────────────────────────────────────────╮
│ │
│ Web UI: http://127.0.0.1:18789/ │
│ Web UI (with token): │
│ http://127.0.0.1:18789/?token=e734015d3d31a19481f56875a3191c2 │
│ Gateway WS: ws://127.0.0.1:18789 │
│ Gateway: reachable │
│ Docs: https://docs.openclaw.ai/web/control-ui │
│ │
├──────────────────────────────────────────────────────────────────────────────────╯
│
◇ Start TUI (best option!) ─────────────────────────────────╮
│ │
│ This is the defining action that makes your agent you. │
│ Please take your time. │
│ The more you tell it, the better the experience will be. │
│ We will send: "Wake up, my friend!" │
│ │
├────────────────────────────────────────────────────────────╯
│
◇ Token ────────────────────────────────────────────────────────────────────────────────╮
│ │
│ Gateway token: shared auth for the Gateway + Control UI. │
│ Stored in: ~/.openclaw/openclaw.json (gateway.auth.token) or OPENCLAW_GATEWAY_TOKEN. │
│ Web UI stores a copy in this browser's localStorage (openclaw.control.settings.v1). │
│ Get the tokenized link anytime: openclaw dashboard --no-open │
│ │
├────────────────────────────────────────────────────────────────────────────────────────╯
│
◆ How do you want to hatch your bot?
│ ● Hatch in TUI (recommended)
│ ○ Open the Web UI
│ ○ Do this later
└
Stap 10
OpenClaw wil graag nu meer weten over wie je wil dat OpenClaw is: wat wordt de naam van je bot, wat voor ‘vibe’ wil je in de omgang met de bot en wat voor rol moet die vervullen. Ook wil OpenClaw graag weten wie jij bent. Je krijgt daarom een bericht te zien zoals:
session agent:main:main
Wake up, my friend!
Hey! Just woke up in this fresh workspace. I'm a blank slate right now—who am I supposed to be? What's my name, vibe, or role? And who are you? Let's figure this out together. 🚀Denk bijv aan iets in de richting van:
“You are <name>. You are a helpful, highly skilled assistant. Your vibe in general is warm, supportive, friendly, with a sense of humour.
As for who I am, my name is <name>. I'm a <job description> and live in <city, country>. I generally like <interests, hobbies, w/e>. Please let me know if you'd like to know anything else about me or yourself. Also, anything else you'd recommend that I should know or tweak about you?"Op basis van je eerste reactie krijg je een aantal tips om zaken te tweaken, bijvoorbeeld:
1. Proactivity prefs: HEARTBEAT.md is empty, so I'm not pinging you periodically (e.g., email checks, calendar nudges). Want me to set up light heartbeats (2-3x/day) for weather, urgent emails, or "hey, gym time?" Or cron for
precise stuff like "remind me to read at 8 PM"?
2. External actions: Per my soul (SOUL.md), I ask before emailing/tweeting/posting publicly. Cool? Or greenlight certain channels?
3. Voice fun: If TTS kicks in for stories or summaries, any fave voices? (E.g., warm British for sci-fi recaps.)
4. Your world: <questions based on what you said before>That's it! na het gesprek waar je je nu in bevindt is OpenClaw good to go. In gesprek met OpenClaw kun je veel aanpassen simpelweg door vragen te stellen en antwoord te geven op de vragen die OpenClaw je terug stelt. Ben je klaar? Gebruik dan ctrl + c om de TUI af te sluiten.
Vanaf je eigen computer/laptop verbinden met het OpenClaw-dashboard (GUI)
Voor deze handleiding gaan we ervan uit dat je OpenClaw op een VPS installeert. Stel dat je bijvoorbeeld OpenClaw installeert op een VPS met Ubuntu zonder desktopomgeving, dan kun je niet zomaar een browser openen om het OpenClaw-dashboard te beheren. Er is een relatief eenvoudige manier om toch bij het OpenClaw-dashboard te kunnen op een veilige manier; door een SSH-tunnel op te zetten. Dit doe je eenvoudig vanuit de terminal/powershell/WSL vanaf je eigen computer of laptop met één commando:
ssh -N -L 18789:127.0.0.1:18789 -p 12345 username@123.123.123.123Vervang in dit commando:
- 12345 door het poortnummer dat je gebruikt voor SSH-verbindingen. Heb je het poortnummer niet aangepast? Dan gebruik je -p 22 (of laat je het weg).
- username door de gebruikersnaam waarmee je verbonden bent met je VPS
- 123.123.123.123 door het IP-adres of een (sub)domeinnaam die naar jouw VPS verwijst (e.g. claw.voorbeeld.nl).
Open je browser op de computer/laptop waarop je de SSH-tunnel hebt opgezet en ga naar 127.0.0.1:18789 in je browser. Je komt nu in het OpenClaw-dashboard terecht, zie de paragraaf hieronder.
Het OpenClaw-dashboard gebruiken
Voor het eerst inloggen
Wanneer je het OpenClaw-dashboard opent via 127.0.0.1:18789 krijg je een foutmelding te zien zoals in de screenshot hieronder. De foutmelding is het gevolg ervan dat je niet het token meegeeft in de URL, bijvoorbeeld: http://127.0.0.1:18789/?token=e734015d3d31a19481f56875a3191c2
Dit is een bewuste keuze: het is makkelijker om het token eenmaal te configureren en dan altijd het adres 127.0.0.1:18789 te gebruiken.

Klik op ‘Overview’ en plak onder ‘Gateway token’ het token die je hebt gekopieerd en klik op ‘Connect’. De status verandert nu naar ‘Connected’ en je kunt het dashboard zonder verdere issues gebruiken.

Chatten met OpenClaw via het dashboard
Om met OpenClaw een chat te starten klik je in het linkermenu simpelweg op ‘Chat’ en kun je direct beginnen met een chatsessie.

Let op: out-of-the-box verschijnen in zowel de command-line TUI als in het webdashboard in de chat ook system messages die je niet terugziet in je gesprekken in een channel zoals Telegram. Je kunt deze meldingen veilig negeren zolang OpenClaw via je gekozen communication channel prima werkt.
Bestaande skills toevoegen/inschakelen
Is een skill veilig? Ga naar https://clawdex.koi.security/ en geef het adres/de naam van de skill op. Je krijgt direct te zien of die
OpenClaw komt met een scala aan skills die je out-of-the-box kunt gebruiken, simpelweg door ze in te schakelen. Klik in het linkermenu op ‘Skills’ en schakel de gewenste skills in. Let wel dat sommige API Keys vereisen van externe systemen om te kunnen werken.

OpenClaw security
OpenClaw is een krachtige agent die potentieel een groot veiligheidsrisico met zich meebrengt. Koppel je OpenClaw bijvoorbeeld aan je werk-email? Dan vertrouw je potentieel een AI agent en de daaraan gekoppelde LLM om op correcte wijze jouw mail te beheren.
Om OpenClaw zo veilig mogelijk te gebruiken raden we de volgende stappen aan:
- Lees de beveiligingstips op https://docs.openclaw.ai/gateway/security
- Scan skills op https://clawdex.koi.security/ om een indicatie te krijgen of ze veilig zijn of niet
- Installeer OpenClaw niet op een computer of laptop met persoonlijke/bedrijfsdata, maar gebruik bijvoorbeeld een VPS.
- Voer een security audit uit van je OpenClaw setup:
openclaw security audit --deep
Een nieuwe communication channel koppelen
Wil je later nog een communication channel toevoegen aan OpenClaw, bijvoorbeeld WhatsApp? Dan zijn er twee eenvoudige opties om dit te doen:
- Vraag OpenClaw de communication channel toe te voegen, bijvoorbeeld via de TUI, het web-dashboard, of een bestaand communication channel.
- Doorloop de onboarding opnieuw via het commando
openclaw onboard
OpenClaw TTS en STT performance
OpenClaw ondersteunt standaard diverse TTS- en STT-opties waardoor je text-to-speech en speech-to-text kunt gebruiken, bijvoorbeeld in Telegram om via alleen geluid te communiceren. We leggen uit hoe je beide gebruikt in de onderstaande artikelen.
Text-to-speech gebruiken met OpenClaw
Speech-to-text gebruiken met OpenClaw
Een lokaal model (LLM) via Ollama gebruiken
Ollama stelt je in staat een open source LLM op je eigen hardware te hosten. Dit kan een kostenbesparing opleveren en zo blijft je data bij jezelf in plaats van dat gesprekken naar een externe LLM-provider worden gestuurd.
De installatie van Ollama valt buiten de scope van deze handleiding, maar leggen we uit in ons artikel ‘zelf Deepseek hosten’.
Handmatig aanpassen (aanbevolen)
Stap 1
Open de configuratie van OpenClaw:
nano .openclaw/openclaw.json
Stap 2
Voeg onder models.providers dit blok toe en pas (goede kans dat het blok nog niet aanwezig is in je configuratie):
"models": {
"providers": {
"ollama": {
"baseUrl": "http://127.0.0.1:11434/v1",
"apiKey": "ollama-local",
"api": "openai-completions",
"models": [
{
"id": "gpt-oss:20b",
"name": "GPT oss 20b",
"reasoning": true,
"input": [
"text"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 128000,
"maxTokens": 8192
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "ollama/gpt-oss:20b"
},
"models": {
"ollama/gpt-oss:20b": {
"alias": "gpt-oss:20b"
}
},
"workspace": "/home/testtransip/.openclaw/workspace",
"compaction": {
"mode": "safeguard"
},
"maxConcurrent": 4,
"subagents": {
"maxConcurrent": 8
}
}
},
De baseUrl en api gebruiken de OpenAI-compatibiliteitslaag van Ollama (Chat/Completions-API). Vervang de placeholders door het juiste model-ID/naam (in dit voorbeeld gpt-oss:20b).
Stap 3
Stel je standaardmodel in op Ollama:
openclaw models set ollama/gpt-oss:20b
Vervang eventueel gpt-oss:20b door de naam van jouw model.
Via Ollama lanceren
Heb je Ollama al draaien op de VPS? Start de integratie direct:
ollama launch openclaw
Of genereer de configuratie zonder OpenClaw te starten:
ollama launch openclaw --config
OpenClaw herlaadt de configuratie automatisch. We raden als modellen o.a. gpt-oss:20b en gpt-oss:120b aan.
Een ander AI-model (LLM) gebruiken
Er zijn drie opties om een ander AI-model (LLM) te gebruiken van eenvoudig naar iets complexer:
- Vraag OpenClaw het voor je aan te passen.
- Doorloop de onboarding opnieuw met het commando:
openclaw onboard - Via command-line; via de 3 commando's hieronder voeg je bijvoorbeeld gpt-5-mini van OpenAI toe als alias, stel je die in als default, en herstart je de gateway om de wijzigingen te verwerken.
openclaw models aliases add g5mini openai/gpt-5-mini
openclaw models set openai/gpt-5-mini
openclaw gateway restart
Hoe nu verder met OpenClaw?
Om te beginnen: praat met OpenClaw! Wil je ‘iets’ configureren, zoals een nieuwe skill? Vraag OpenClaw er simpelweg naar en het vertelt je hoe/wat nu verder.
Liever een GUI? Net zo makkelijk: verbind met het OpenClaw-dashboard en ga naar de ‘Skills’-pagina.
Skills zijn handig maar geven je niet altijd de meest optimale performance. Zie bijvoorbeeld ons artikel over text-to-speech en speech-to-text.
Troubleshooting & Beheer
Er zijn een aantal nuttige commando's om OpenClaw te beheren en te kennen als er een issue speelt waardoor je geen output terugkrijgt van OpenClaw via de TUI, chat in het web dashboard, of je gekozen communication channel. In andere gevallen is het het makkelijkst om met OpenClaw zelf in gesprek te gaan.
Openclaw updaten
openclaw update
OpenClaw health check
Voor een snelle controle, vooral of channels in orde zijn
openclaw health
OpenClaw's status
Controleer de status van OpenClaw in aanzienlijk meer detail dan met het health commando
openclaw status
Gateway status
openclaw gateway status
OpenClaw beschikbare modellen controleren
openclaw model list
OpenClaw model status controleren
openclaw model status
Logs bekijken
openclaw logs
Openclaw doctor
Probeer automatisch issues te fixen, zolang die niet gerelateerd zijn aan de configuratie van je LLM:
openclaw doctor --fix