De ontwikkeling van AI gaat razendsnel. Nieuwe large language models (LLM’s) en zogeheten AI-agents verschijnen in hoog tempo op de markt. Veel van deze systemen zijn open source, gratis beschikbaar en eenvoudig te installeren. Dat klinkt innovatief en laagdrempelig. Maar de keerzijde wordt steeds zichtbaarder: de beveiligingsrisico’s groeien net zo hard mee.
De Autoriteit Persoonsgegevens (AP) waarschuwde onlangs voor grote risico’s bij experimentele AI-agents zoals OpenClaw (LINK). Dit soort systemen kunnen zelfstandig taken uitvoeren op een computer, zoals e-mails versturen, bestanden openen en online diensten gebruiken. Gebruikers geven daarmee in feite volledige toegang tot hun apparaat en accounts — vaak zonder goed te beseffen wat dat betekent.
Een digitaal ‘paard van Troje’
Volgens beveiligingsexperts vormen autonome AI-agents een aantrekkelijk doelwit voor misbruik. Een deel van de beschikbare plug-ins bevat malware, bedoeld om inloggegevens of cryptotegoeden te stelen. Daarnaast zijn dit soort systemen kwetsbaar voor zogenoemde ‘promptinjecties’: verborgen opdrachten in websites, e-mails of chatberichten.
Een aanvaller kan zo:
- accounts overnemen (zoals Google of Apple ID),
- e-mails en bestanden uitlezen,
- toegangscodes stelen,
- of zelfs op afstand volledige controle over een systeem krijgen.
Dat maakt een AI-agent in potentie een digitaal ‘paard van Troje’: een hulpmiddel dat ongemerkt de deur openzet voor kwaadwillenden.
Open source betekent niet automatisch veilig
Dat een AI-systeem lokaal draait of open source is, betekent niet dat het veilig is. Zonder strenge beveiliging en duidelijke verantwoordelijkheden kunnen ernstige datalekken ontstaan. Gebruikers en organisaties blijven bovendien zelf verantwoordelijk voor naleving van de AVG. Innovatie ontslaat niemand van de plicht om risico’s vooraf goed in kaart te brengen.
De grotere trend: onbeheersbare groei
OpenClaw is geen op zichzelf staand voorbeeld. De bredere trend is dat AI-agents steeds autonomer worden. Ze kunnen zelfstandig beslissingen nemen en acties uitvoeren. Tegelijkertijd ontbreekt vaak volwassen toezicht, duidelijke certificering of controle op de veiligheid van plug-ins en koppelingen met andere systemen.
De combinatie van:
- krachtige LLM’s,
- autonome agents,
- externe plug-ins,
- en toegang tot persoonlijke of bedrijfsdata
zorgt voor een explosieve mix. De technologie ontwikkelt zich sneller dan beveiligingsstandaarden en regelgeving kunnen bijhouden.
Tijd voor duidelijke kaders
Op Europees niveau wordt gewerkt met de AI-verordening, die veiligheidseisen stelt aan risicovolle AI-systemen. De AP pleit ervoor om expliciet duidelijk te maken dat ook autonome AI-agents onder deze regels vallen. Dat is noodzakelijk om onveilige toepassingen van de markt te kunnen weren.
Innovatie is waardevol. Maar zonder duidelijke grenzen en beveiligingsnormen kan de wildgroei aan AI-agents en LLM’s leiden tot grootschalige datalekken, identiteitsfraude en verlies van controle over persoonlijke informatie.
De vraag is dan ook niet óf deze risico’s zich voordoen, maar wanneer — en hoe goed we erop voorbereid zijn.