Rubrik Onderzoek Blootlegt Paradox: Opkomst van AI Ondermijnt de Identiteitsbeveiliging

Written by Olivia Nolan

november 15, 2025

De snelle adoptie van kunstmatige intelligentie (AI) binnen organisaties creëert een zorgwekkende paradox: terwijl de technologische vooruitgang en efficiëntie toenemen, neemt de cyberweerbaarheid af. Een recent onderzoek van Rubrik Zero Labs legt de vinger op de zere plek: de explosieve groei van niet-menselijke identiteiten, zoals AI-agenten en service-accounts, vormt een steeds groter risico. Veel bedrijven implementeren AI-oplossingen zonder een adequate strategie voor AI en identiteitsbeveiliging. Dit resulteert in een wildgroei van digitale entiteiten met vaak buitensporige toegangsrechten tot kritieke data. Het onderzoek toont aan dat het aantal service-accounts het aantal menselijke werknemers in veel gevallen al met een factor negen overtreft. Deze onbeheerde en overgeprivilegieerde identiteiten vormen een uitdijend aanvalsoppervlak, waardoor de kans op een succesvolle cyberaanval en de potentiële impact ervan significant toenemen. Het is een fundamentele uitdaging die een nieuwe benadering van identity governance vereist.

Luister naar dit artikel:

Niet-menselijke identiteiten zijn de digitale ruggengraat van de moderne, geautomatiseerde onderneming. Ze omvatten alles van API-sleutels die applicaties met elkaar verbinden tot service-accounts die achtergrondprocessen uitvoeren en AI-agenten die autonome taken uitvoeren. In tegenstelling tot menselijke gebruikers, worden deze identiteiten vaak ad hoc gecreëerd door DevOps-teams om de ontwikkeling te versnellen, zonder centraal toezicht van de security-afdeling. Het gevolg is dat ze zelden worden onderworpen aan dezelfde strenge levenscyclusbeheerprocessen als gebruikersaccounts. De inloggegevens worden niet periodiek geroteerd, de toegangsrechten worden niet regelmatig herzien en accounts worden niet gedeactiveerd wanneer ze overbodig zijn. Dit creëert een schat aan 'slapende' maar krachtige toegangspunten voor kwaadwillenden. Een gecompromitteerd service-account kan een aanvaller maandenlang onopgemerkte, persistente toegang bieden tot de meest gevoelige systemen en data van een organisatie.
De term 'blast radius' verwijst naar de totale potentiële schade die een enkel beveiligingsincident kan veroorzaken. In de context van niet-menselijke identiteiten is deze blast radius enorm. Omdat AI-agenten en service-accounts vaak te veel permissies krijgen ('over-privileged'), kan de compromittering van één zo'n account een kettingreactie veroorzaken. Een aanvaller kan deze toegang gebruiken om lateraal door het netwerk te bewegen, privileges te escaleren en uiteindelijk controle te krijgen over cruciale infrastructuur of om grootschalige data-exfiltratie uit te voeren. Het onderzoek van Rubrik benadrukt dat veel IT- en securityleiders weinig vertrouwen hebben in hun vermogen om de bedrijfscontinuïteit te handhaven na een aanval die via een dergelijke identiteit is geïnitieerd. De complexiteit en het gebrek aan zichtbaarheid maken het extreem moeilijk om de bron van de inbreuk snel te identificeren en te isoleren, wat de hersteltijd en de uiteindelijke kosten van het incident drastisch verhoogt.

advertenties

advertenties

advertenties

advertenties

Het beheersen van de risico's die gepaard gaan met AI en niet-menselijke identiteiten is geen taak die handmatig kan worden volbracht; de schaal is simpelweg te groot. De oplossing ligt in de strategische implementatie van een Zero Trust-architectuur, geworteld in het principe 'never trust, always verify'. Concreet betekent dit het strikt toepassen van het Principle of Least Privilege (PoLP): elke identiteit, menselijk of niet, krijgt uitsluitend de minimaal benodigde permissies voor zijn specifieke taak. Om dit op schaal te realiseren, is automatisering essentieel. Organisaties moeten investeren in moderne Identity and Access Management (IAM)-tools die de volledige levenscyclus van niet-menselijke identiteiten kunnen beheren. Dit omvat het automatisch ontdekken van nieuwe accounts, het continu monitoren van permissies, het afdwingen van beleidsregels en het automatiseren van de rotatie van credentials. Proactieve, geautomatiseerde governance is geen rem op innovatie, maar juist een cruciale voorwaarde voor het veilig en duurzaam benutten van de enorme potentie van AI.

Olivia Nolan is redacteur bij MSP2Day, waar zij zich richt op het vertalen van complexe IT- en technologische ontwikkelingen naar toegankelijke en inspirerende artikelen. Met haar ervaring als content manager en social media expert weet zij inhoud niet alleen informatief, maar ook aantrekkelijk en relevant te maken voor een breed publiek.