Whitepaper | februari 2026
Waarom wij lokale AI kiezen
voor de
maakindustrie
GPT, Claude en Gemini zijn krachtige AI-modellen. Maar ze draaien in de cloud. Voor de technische dienst in de maakindustrie is dat een showstopper. Dit whitepaper legt uit waarom wij bewust kiezen voor een lokaal draaiend taalmodel.
Ritchel AkwaliTL;DR
Wij draaien een compact, gespecialiseerd 7B taalmodel (Qwen 7B) volledig op uw eigen hardware. Geen cloud, geen abonnement, geen data die het pand verlaat. Het model is getraind op één specifieke taak: monteurstaal vertalen naar gestructureerde ISO 14224 data. NIS2-compliant by design.
Drie redenen waarom cloud-AI niet werkt voor de TD
Data-soevereiniteit. NIS2-regelgeving vereist dat OT-data het bedrijfsnetwerk niet verlaat. Cloud-AI stuurt per definitie elke query naar externe servers. Voor air-gapped fabrieksomgevingen is dit een no-go.
Terugkerende kosten. Cloud-AI kost €30+ per gebruiker per maand. Bij 10 monteurs is dat €3.600/jaar. Lokale AI draait op een eenmalige hardware-investering van €300-1.500.
Vendor lock-in. Als uw cloud-provider de prijs verhoogt of de dienst beëindigt, staat u met lege handen. Ons lokale model is uw eigendom. Geen abonnement, geen afhankelijkheid.
Onze aanpak: specialisatie boven intelligentie
In plaats van een breed, general-purpose model (zoals GPT-4) gebruiken wij een compact 7B parametermodel dat extreem gespecialiseerd is in één taak: het vertalen van informele monteurstaal naar gestructureerde ISO 14224 storingscodes.
Qwen 7B als basis. Een open-source Transformer model, gecomprimeerd naar ~4.5 GB (GGUF Q4_K_M). Past op elke standaard GPU.
Domein-specifieke fine-tuning. Getraind op echte werkbonnen uit de praktijk. Het model kent uw machinetermeti, dialect en jargon.
Ingebouwde straftraining. Het model zwijgt liever dan dat het gokt. Onzekere antwoorden worden actief onderdrukt via ORPO-training.
100% offline. Draait via llama.cpp op uw eigen hardware. Geen internet, geen API-sleutels, geen data-exposure.
Lokale AI vs Cloud-AI
| Eigenschap | RaconWorks (lokaal) | Cloud-AI (GPT, Gemini) |
|---|---|---|
| Data verlaat pand | ✗ Nee, air-gapped | ✓ Ja, naar datacenter |
| NIS2-compliant | ✓ By design | ✗ Extra maatregelen nodig |
| Kosten | €300-1.500 eenmalig | €30+/monteur/maand |
| Vendor lock-in | ✗ Geen | ✓ Volledig afhankelijk |
| Internetvereiste | ✗ Nee | ✓ Verplicht |
| General intelligence | Gespecialiseerd (1 taak) | Breed (alles) |
| Maturiteit | MVP / prototype | Enterprise-ready |
Eerlijke Kanttekening
Een lokaal 7B model is geen ChatGPT-vervanger. De tradeoffs:
- Beperkte breedte. Het model is gespecialiseerd in storingsdata-extractie. Het schrijft geen rapporten en beantwoordt geen algemene vragen.
- Lagere benchmark-scores. Op generieke AI-benchmarks scoren cloudmodellen hoger. Maar die benchmarks meten general intelligence, niet industrieel NLP.
- Maturiteit. Ons model is een MVP. Cloudplatformen zijn enterprise-ready met jarenlange optimalisatie.
Waarom dit relevant is voor NIS2 en air-gapped fabrieken
NIS2-compliance in fabriekshallen vereist air-gapped dataverwerking: geen data mag het bedrijfsnetwerk verlaten. Dit sluit cloud-AI per definitie uit.
Ons lokaal draaiend Qwen 7B model garandeert deze scheiding. Het draait op één standaard GPU, volledig offline, volledig NIS2-compliant. Geen API-calls, geen telemetrie, geen netwerk-afhankelijkheid.
Gerelateerde artikelen
Pillar Page
Waarom Edge-AI?
De context achter onze architectuurkeuze.
Product
De Kennis-Kluis
Uw lokale AI-kennisbank, offline beschikbaar.
Vergelijking
RaconWorks vs ChatGPT
De praktische vergelijking.
Benieuwd naar onze architectuur?
Bekijk het Trust Center voor de volledige technische specificaties.
Bijgewerkt: februari 2026
Geschreven door
Ritchel Akwali
Oprichter RaconSoft. Bouwt het Edge-AI platform voor de maakindustrie.
LinkedIn