Elke AI-prompt kost energie — maar hoeveel precies? En kun je daar iets aan doen zonder terug te gaan naar pen en papier?
Cas Burggraaf is CTO en medeoprichter van GreenPT, een Nederlandse startup die open AI-modellen draait op groene Europese servers. Geen API-calls naar OpenAI of Anthropic, maar eigen bare-metal GPU's in een datacenter in Parijs waar de CO2-uitstoot per kilowattuur een stuk lager ligt. Het bedrijf laat gebruikers bij elke prompt zien wat hun energieverbruik is — iets waar de grote techbedrijven opvallend stil over zijn.
In deze aflevering duiken Randal, Jurian en Cas in de polarisatie rondom AI, de echte milieukosten van taalmodellen, en waarom Europese digitale soevereiniteit meer is dan een buzzword. Daarnaast gaat Randal hands-on: hij vertelt over zijn eigen AI-server, en samen met Cas ontrafelen ze wat termen als quantization, MoE en distillation nu eigenlijk betekenen. Plus: luisteraarsvragen over energievergelijkingen en het ethische dilemma van trainingsdata.
Over Cas Burggraaf
Cas Burggraaf is CTO en medeoprichter van GreenPT, een Nederlandse AI-startup uit Utrecht die duurzame en privacy-vriendelijke AI levert op Europese infrastructuur. Eerder werkte hij als developer bij Brthrs Agency. Hij sprak recent op ai-PULSE 2025 in Parijs en ecoCompute Conference.
LinkedIn: https://nl.linkedin.com/in/casburggraaf
Website: https://greenpt.com
GitHub: https://github.com/Casburggraaf
Sponsor: Alliander
Kijk op https://werkenbij.alliander.com/
Tijdschema
0:00:00 Waarom AI zo polariserend is — en wie er gelijk heeft
0:02:42 GreenPT: groene AI én Europese soevereiniteit
0:05:25 Hoe meet je de CO2-uitstoot van een AI-prompt?
0:09:00 Open weights vs. open source: wat is het verschil?
0:16:14 De GPU-wapenwedloop: van L4 tot Blackwell
0:31:47 Een startup in de schaduw van OpenAI: hoe concurreer je?
0:37:08 [Alliander — sponsor]
0:42:14 AI neemt banen over: vertalers, developers, en dan?
0:48:05 Vibecoden, Slack-bots en een slim ventilatiesysteem
0:51:10 Waarom grotere modellen beter coderen (maar niet alles beter doen)
1:01:07 Luisteraarsvraag: is één AI-prompt zuiniger dan 15 Google-zoekopdrachten?
1:07:05 Zelf AI draaien: llama.cpp, VRAM en de kunst van quantization
1:10:35 Dense vs. MoE vs. distillation — uitgelegd voor sterfelijken
1:20:08 I use the AI to build the AI: semantic routing en de toekomst
Genoemd in deze aflevering
GreenPT
Scaleway (datacenter-partner GreenPT)
Open WebUI — open-source chat-interface
Hugging Face — platform voor open weight modellen
llama.cpp — server-software voor lokale AI-modellen
Ollama — gebruiksvriendelijke AI-server
NVIDIA H100, L4, L40, B300 (GPU's)
DeepSeek, Mistral, QWEN, Gemma (open weight modellen)
GPT-NL (samenwerking DPG Media)
"Escaping an Anti-Human Future" - Making Sense podcast — Sam Harris
Kingdom Come: Deliverance 2 (Warhorse Studios)
Startpagina.nl (ja, die bestaat nog)
Tips van de tafel
Randal: Probeer eens een AI-model lokaal te draaien op je eigen hardware. Begin met Ollama of llama.cpp en een open weight model van Hugging Face. Je leert er enorm veel van.
Cas: Kijk bij het kiezen van een AI-dienst niet alleen naar het model, maar ook naar waar het draait en hoe transparant de aanbieder is over energieverbruik.
See omnystudio.com/listener for privacy information.