Run een Local LLM op macOS met LM Studio, VS Code & Continue
In de wereld van AI is er één trend die steeds meer developers aanspreekt: het lokaal draaien van Large Language Models (LLM’s). Geen afhankelijkheid van externe API’s, geen dure abonnementen, en volledige controle over je data. In dit artikel laat ik je stap voor stap zien hoe je een local LLM draait op je Mac met behulp van LM Studio, Visual Studio Code en de slimme Continue-extensie.
Of je nu AI wilt gebruiken voor code-assistentie, contentgeneratie of het testen van prompts – deze setup is snel, privé en krachtig.
Wat heb je nodig?
Om aan de slag te gaan, heb je slechts een paar tools nodig:
Een MacBook of iMac (bij voorkeur met 16 GB RAM of meer)
LM Studio – gratis desktopapp voor lokale LLM’s
Continue extensie voor AI in je editor
Stap 1 – Installeer LM Studio
Ga naar lmstudio.ai en download de app voor macOS. Na installatie kun je binnen LM Studio door een catalogus bladeren van open source LLM’s zoals:
Mistral 7B – krachtige general-purpose model
Phi-3 Mini – klein maar verrassend slim
LLaMA 2 – populair bij developers
Klik op het gewenste model en start de download. Kies bij voorkeur een quantized versie (bijv. GGUF Q4_0) als je systeem beperkte resources heeft.
Stap 2 – Start de lokale server
Na het downloaden van een model, klik je in LM Studio op “Start Server”.
Je ziet dan iets als:
Deze lokale server draait jouw gekozen LLM volledig offline op je Mac.
Stap 3 – Installeer Continue in Visual Studio Code
Open VS Code, ga naar de Extensions Marketplace, zoek op “Continue” en installeer de extensie. Dit is een slimme AI-assistent die naadloos integreert in je editor.
Stap 4 – Koppel Continue aan LM Studio
Om Continue met je lokaal draaiende model te laten praten, open je de Command Palette (Cmd + Shift + P
) en kies je:Continue: Open Settings
Voeg onder models
het volgende toe:
{
“title”: “LM Studio”,
“provider”: “openai”,
“apiBase”: “http://localhost:1234/v1”,
“apiKey”: “lm-studio”,
“model”: “naam-van-het-model”
}
Vervang "naam-van-het-model"
door de naam van het model dat je hebt gestart in LM Studio (zoals mistral-7b-instruct
of phi-3-mini
).
Stap 5 – AI in je editor gebruiken
Klaar? Nu kun je aan de slag!
Selecteer een stuk code en klik rechts → “Ask Continue”
Of gebruik de sneltoets
Cmd + Shift + 1
om een vrije prompt in te voerenStel vragen, laat code refactoren, genereer tests, of laat de AI je code uitleggen
En het mooiste: alles gebeurt zonder dat je data je machine verlaat.
Waarom lokaal draaien?
Lokaal werken met AI biedt een aantal duidelijke voordelen:
🔒 Privacy: je input wordt nergens heen gestuurd
⚡ Snelheid: geen vertraging door netwerkverkeer
💸 Kostenbesparing: geen betaalde API’s of cloud-abonnementen
🧠 Flexibiliteit: kies zelf je model en beheer je eigen prompts
Welke modellen zijn aan te raden?
Model | Beste voor | Grootte |
---|---|---|
Phi-3 Mini | Chat, code, content | ±3.8 GB |
Mistral 7B | Brede inzet, instructies | ±13 GB (Q4) |
Code LLaMA | Developer focus | ±7–13 GB |
Kleinere modellen zoals Phi-3 Mini draaien soepel op de meeste Macs, terwijl Mistral meer kracht vereist, maar ook indrukwekkend presteert.
De Beste LLMs voor Coderen in 2025
In 2025 zijn Large Language Models (LLMs) niet meer weg te denken uit het dagelijkse werk van developers. Of je nu werkt aan een webapplicatie, een algoritme optimaliseert of een legacy-systeem analyseert — er is een model dat perfect past bij jouw workflow. In dit artikel zetten we de beste LLMs voor coderen op een rij.
🔝 Topmodellen voor Coderen
1. GPT-4 / GPT-4 Turbo (OpenAI)
- Sterk in: Veel programmeertalen, debugging, testgeneratie, code-uitleg.
- Gebruik: GitHub Copilot, ChatGPT, VS Code integraties.
- Ideaal voor: Full-stack development, scripting, en AI-integraties.
2. Claude 3 (Anthropic)
- Sterk in: Begrijpen van grote codebases, lange contexten.
- Gebruik: Code review, documentatie, reasoning-heavy taken.
3. Gemini 1.5 (Google DeepMind)
- Sterk in: JavaScript, front-end en uitleg in natuurlijke taal.
- Gebruik: Webapplicaties, educatie, analyse van UI-logica.
4. Code Llama 70B (Meta)
- Sterk in: Open-source gebruik, meerdere talen, tuning mogelijk.
- Varianten: Code Llama-Instruct (chat), Code Llama-Python (Python).
- Ideaal voor: Lokale of offline setups.
🚀 Niet te vergeten modellen
🧠 DeepCoder (Microsoft Research)
- Uniek: Gebruikt input-outputvoorbeelden om automatisch code te genereren.
- Gebruik: Onderzoek en algoritmisch denken. Minder geschikt voor productie, maar baanbrekend qua concept.
🧠 Codestral (Mistral)
- Nieuw in 2025 en speciaal getraind op code.
- Sterk in:
- 80 programmeertalen
- High-context (22k tokens)
- Snel, lichtgewicht en open source
- Gebruik: Lokale development met LM Studio, Ollama of CLI.
Conclusie
Je eigen LLM lokaal draaien op een Mac is verrassend eenvoudig. Met LM Studio, VS Code en Continue haal je krachtige AI-functionaliteit naar je desktop – zonder cloud, zonder zorgen.
Heb je vragen of wil je jouw ervaringen delen? Laat een reactie achter of stuur me een berichtje.
Wil je meer van dit soort AI- en dev-gerelateerde artikelen? Volg mijn blog of schrijf je in voor mijn nieuwsbrief.