Gepubliceerd op

Generatieve AI wordt steeds vaker geïntegreerd in bedrijfsprocessen, vaak sneller dan securityteams kunnen bijsturen. Prompt injection is daarbij één van de meest onderschatte risico’s: een aanval waarbij een AI-systeem wordt gemanipuleerd via tekst die eruitziet als gewone data. Het risico verdwijnt waarschijnlijk nooit volledig, omdat AI-modellen instructies en data niet intrinsiek kunnen scheiden. Dit artikel legt uit waarom dat zo is, waar het in de praktijk misgaat en wat organisaties minimaal moeten doen om risico’s beheersbaar te houden.
Bij klassieke kwetsbaarheden, zoals SQL injection, kun je input scheiden van logica. Met goede parameterisatie is het probleem grotendeels opgelost.
Bij LLM’s werkt dat anders. Een model ziet alle tekst als context. Instructies, data en externe content worden verwerkt als één geheel. Daardoor kan een verborgen instructie in een document, e-mail of webpagina het gedrag van het model beïnvloeden.
Dat maakt prompt injection geen simpele input-validatie bug, maar een architecturaal risico. Juist daarom staat prompt injection bovenaan de OWASP Top 10 voor LLM-applicaties (LLM01).
Prompt injection klinkt theoretisch, maar ontstaat juist in herkenbare workflows. Voorbeelden die we steeds vaker zien:
In al deze gevallen wordt het systeem niet gehackt, maar gemanipuleerd.
Prompt injection raakt direct aan businessrisico’s:
Volgens het NIST AI Risk Management Framework moeten AI-risico’s daarom worden behandeld als organisatie- en governancevraagstukken, niet uitsluitend als technische problemen.
Je kunt prompt injection beperken, maar niet volledig elimineren. AI-modellen zijn ontworpen om taal te interpreteren, niet om betrouwbaar onderscheid te maken tussen instructies en tekst die alleen gelezen had moeten worden.
Als je geen restrisico kunt accepteren, is een autonome AI-agent waarschijnlijk geen geschikte use case.
Zodra een AI mag browsen, documenten leest of systemen aanstuurt, ontstaat er altijd een restrisico.
Onderstaand de minimale baseline voor organisaties.
Geef AI nooit directe toegang tot kritieke systemen of productie-rechten. Pas least privilege toe.
Zorg dat user input en externe content duidelijk gemarkeerd worden als onbetrouwbare data.
Een AI mag adviseren, maar niet zelfstandig acties uitvoeren zonder controlelaag.
Input filtering, monitoring en aanvullende validatie verminderen risico’s aanzienlijk.
Bij financiële transacties, klantcommunicatie of systeemwijzigingen hoort menselijke bevestiging.
Zonder logging is incident response vrijwel onmogelijk.
Als deze vragen lastig te beantwoorden zijn, is de kans groot dat AI sneller is uitgerold dan de governance eromheen.
De aanvalsvector verschuift. Waar klassieke pentests focussen op software en infrastructuur, ontstaan bij AI nieuwe risico’s rondom besluitvorming en contextmanipulatie. AI-agents kunnen daardoor een nieuw pivot point worden binnen moderne infrastructuren.
Binnen Tex benaderen we AI-security als een logisch verlengstuk van traditionele pentesting:
Niet om AI te blokkeren, maar om innovatie veilig schaalbaar te maken.
Prompt injection is geen tijdelijk fenomeen maar een structureel restrisico zolang AI-modellen data en instructies als één geheel blijven zien. Wie deze technologie bedrijfskritisch inzet, moet accepteren dat manipulatiepogingen blijven terugkomen en dat mitigatie draait om architectuurkeuzes, niet om een eenmalige fix.
Bestuurders die op schaal met AI werken horen governance- en riskprocessen te verankeren: duidelijke accountability, least-privilege-toegang voor iedere agent en standaardmenselijke goedkeuring voor acties met zakelijke impact. Combineer dat met logging, telemetrie en real-time monitoring zodat afwijkend gedrag snel wordt ontdekt en onderzocht.
Tex ondersteunt organisaties bij het toetsen van deze uitgangspunten via onafhankelijke AI-security assessments, inclusief review van prompts, integraties en controlemaatregelen. Zo blijft innovatie mogelijk terwijl het restrisico beheersbaar blijft.
Bronnen: OWASP LLM Top 10 • NIST AI RMF • Anthropic layered defenses
Ontdek de kracht van penetratietests en bescherm je digitale bestanden