Laatst bijgewerkt: 8 februari 2026
Op LinkedIn zie je het steeds vaker: filmpjes van mensen die via ChatGPT direct hun lopende band besturen of een robotarm commando's geven. "Kijk hoe makkelijk!" roepen ze. Als OT-security expert krijg ik hier koude rillingen van.
Stelt u zich voor: een AI-model dat hallucineert (iets verzint) en besluit dat de noodstop slechts een "suggestie" is. Of een hacker die via de "slimme" chatbot prompt-injections uitvoert om uw productie stil te leggen.
"Een PLC is ontworpen voor determinisme: Als A, dan B. Altijd.
Een LLM is ontworpen voor creativiteit: Misschien A, of een beetje B, wat jij
wil."
Die twee werelden mag je nooit direct aan elkaar knopen.
Waarom is directe AI-PLC koppeling levensgevaarlijk?
Er zijn 6 harde redenen waarom elke OT-security expert koude rillingen krijgt van "chatten met je machine", en toch zien we het steeds vaker op LinkedIn.
1. Hallucinaties in de Besturing
Een AI kan zelfverzekerd liegen. In een fabriek waar 400V motoren draaien en mensen werken, is een gokkend algoritme levensgevaarlijk. Een PLC mag nooit twijfelen.
2. Security Nightmare (Schaduw-IT)
Om een LLM te laten praten met uw S7-1500, moet er een internetlijn naar de PLC. U creëert letterlijk een digitaal gat in uw streng beveiligde OT-netwerk. Hackers hoeven niet eens meer in te breken; ze vragen de AI gewoon vriendelijk om de deur open te doen.
3. Latency (Traagheid)
Een PLC cyclus duurt milliseconden (bijv. 10ms). Een LLM doet er seconden over om na te denken. Tegen de tijd dat de AI zegt "Stop de band", is de crash al gebeurd.
4. Context-Blindheid
Data zonder context is waardeloos. Een PLC tag %IW64 met waarde
3400 zegt een AI niets.
Is het temperatuur? Druk? Toeren? Zonder de vertaalslag van een monteur die de situatie
kent, is de AI blind.
5. Agentic AI: de autonome agent
De nieuwste trend is agentic AI: AI-agents die niet alleen adviseren, maar zelfstandig beslissingen nemen en acties uitvoeren over meerdere systemen heen. In supply chains mag dat innovatief zijn. In OT is het een nachtmerrie. Een autonome agent die zelf beslist om een klep te openen of een motor te starten, zonder menselijke tussenkomst? Dat is geen toekomstmuziek. Het gebeurt nu.
6. Cyberbeveiligingswet (NIS2): persoonlijke aansprakelijkheid
De Cyberbeveiligingswet (Nederlandse NIS2-implementatie) treedt Q2 2026 in werking. De maakindustrie is aangemerkt als kritieke sector (Bijlage 2). Directe AI-OT koppeling schendt Artikel 21 (toeleveranciersbeveiliging). Uw bestuurders worden persoonlijk aansprakelijk. dat is geen theorie, dat wordt de wet.
Hoe kan ik AI wél veilig inzetten bij mijn machines?
Het antwoord is isolatie: de AI mag nooit direct met de machine praten. RaconSoft hanteert het Sluismodel (Airlock Model), een bewezen architectuur die advies wél mogelijk maakt zonder de PLC bloot te stellen.
Stap 1: De PLC blijft de baas
De besturing blijft lokaal, hard-wired en beveiligd. Geen enkele AI krijgt schrijfrechten op de PLC. Dit is uw non-negotiable veiligheidsgarantie.
Stap 2: RaconWorks als Firewall
RaconWorks leest de data uit, maar fungeert als een eenrichtingsklep. Hier voegen we de onmisbare menselijke context toe. Wij vertalen foutcodes naar "Thermische Storing Motor 3". Pas als de data schoon is, mag het naar buiten.
Stap 3: AI in de Veilige Zone
De AI kijkt naar de gevalideerde database van RaconWorks, nooit naar de machine zelf. Het adviseert de monteur, maar neemt nooit de controle over.
Scan uw PLC-risico's
Gratis, vrijblijvend, 100% Nederlands.
Geschreven door
Ritchel Akwali
Oprichter van RaconSoft met 10+ jaar ervaring in OT/IT-integratie en procesoptimalisatie in de maakindustrie.
Dit artikel is samengesteld door de experts van RaconSoft, ondersteund door geavanceerde AI-tools voor analyse en redactie.