AI-tools zoals ChatGPT en andere chatbots duiken steeds vaker op in het dagelijks werk. Werknemers zetten ze in om klantenvragen te beantwoorden of dikke rapporten snel samen te vatten.
Dat bespaart tijd, maar brengt ook flinke risico’s met zich mee.
De Nederlandse Autoriteit Persoonsgegevens ziet steeds meer meldingen van datalekken door AI-gebruik binnenkomen. Bij datalekken door AI-tools ligt de verantwoordelijkheid hoofdzakelijk bij de werkgever, die duidelijke richtlijnen moet opstellen en ervoor moet zorgen dat werknemers zich hieraan houden.
Werknemers die toch gevoelige gegevens invoeren zonder toestemming kunnen aansprakelijk worden gesteld.
Het wordt ingewikkeld omdat veel bedrijven achter AI-chatbots alle ingevoerde gegevens opslaan op hun servers. In dit artikel lees je meer over de juridische aspecten, risico’s en welke stappen organisaties kunnen nemen om datalekken te voorkomen.
Wat zijn datalekken door AI-tools?
Datalekken door AI-tools ontstaan wanneer gevoelige informatie per ongeluk bij AI-systemen terechtkomt. Vaak komt dit doordat medewerkers persoonlijke gegevens invoeren in chatbots zonder te beseffen dat deze data wordt opgeslagen.
Definitie van een datalek bij inzet van AI
Een datalek bij AI-gebruik betekent dat persoonsgegevens terechtkomen bij partijen die daar geen toestemming voor hebben. Dit gebeurt als medewerkers gevoelige informatie delen met AI-chatbots.
De meeste AI-bedrijven bewaren alles wat je invoert op hun servers. Die data belandt dan bij techbedrijven, vaak zonder dat je ‘t merkt.
Er zijn twee situaties:
- Tegen bedrijfsbeleid in: Werknemers gebruiken chatbots zonder toestemming.
- Met bedrijfstoestemming: Organisaties staan AI-gebruik toe, maar volgen de wet niet.
In beide gevallen is de kans groot op privacyschendingen. De betrokken persoon heeft meestal geen idee dat z’n gegevens zijn gedeeld.
Hoe ontstaan datalekken bij gebruik van generatieve AI
Datalekken ontstaan vaak omdat medewerkers AI-tools gebruiken om sneller te werken. Ze voeren persoonsgegevens in om bijvoorbeeld klantvragen te beantwoorden of documenten samen te vatten.
Veelvoorkomende oorzaken:
- Medewerkers weten niet dat de data wordt opgeslagen.
- Er zijn geen duidelijke regels over AI-gebruik.
- Werknemers negeren gemaakte afspraken.
Generatieve AI-systemen zoals ChatGPT slaan alle gesprekken op. De AI-aanbieder gebruikt die informatie om het systeem te verbeteren.
Bedrijven weten meestal niet wat er precies met die gegevens gebeurt. De AI-provider kan de data voor eigen doeleinden inzetten.
Voorbeelden van datalekken met chatbots
De Autoriteit Persoonsgegevens ontving meldingen van echte datalekken waarbij AI-chatbots een rol speelden.
Medische sector: Een medewerker van een huisartsenpraktijk voerde patiëntgegevens in een AI-chatbot in. Medische gegevens zijn extra gevoelig en vallen onder strenge wetgeving.
Telecombedrijf: Een werknemer deelde een bestand met klantadressen via een chatbot. Zo belandde persoonlijke informatie bij het AI-bedrijf.
In beide gevallen handelden medewerkers tegen de afspraken in. De organisaties moesten deze datalekken melden bij de toezichthouder.
Risico’s en kwetsbaarheden bij AI-gebruik
AI-tools brengen hun eigen cybersecurity-risico’s mee. Medewerkers die deze tools inzetten, creëren vaak ongemerkt nieuwe aanvalsvectoren en privacy-schendingen.
Shadow AI en ongeautoriseerd gebruik
Shadow AI ontstaat als medewerkers zonder toestemming AI-tools gebruiken. Denk aan populaire tools zoals ChatGPT, Midjourney of andere LLM-modellen.
Veel werknemers installeren deze applicaties op hun eigen apparaten. Ze zetten ze in voor werk, terwijl de IT-afdeling geen idee heeft.
Risico’s van Shadow AI:
- Geen grip op gegevensverwerking
- Geen beveiligingsprotocollen
- Extra kosten bij datalekken (gemiddeld €200.000 meer)
- Overtredingen van compliance-regels
Bedrijven missen overzicht over welke gevoelige data medewerkers delen. Ze kunnen ook geen beveiligingsmaatregelen nemen voor onbekende AI-tools.
Twee derde van de Nederlandse bedrijven maakt zich zorgen over deze ongecontroleerde AI-inzet. Het gebrek aan toezicht maakt de kans op datavergiftiging en cyberaanvallen een stuk groter.
Onbedoelde blootstelling van gevoelige gegevens
Medewerkers voeren regelmatig gevoelige gegevens in bij AI-chatbots zonder de gevolgen te overzien. Die informatie komt terecht op servers van techbedrijven.
De Autoriteit Persoonsgegevens kreeg meldingen van ernstige datalekken. Een medewerker van een huisartsenpraktijk voerde medische patiëntgegevens in een AI-chatbot in. Een telecommedewerker deelde klantadressen via een AI-tool.
Veelvoorkomende blootstellingen:
- Medische dossiers en patiëntinformatie
- Klantgegevens en contactinformatie
- Financiële gegevens en contracten
- Interne bedrijfsdocumenten
AI-providers slaan meestal alles wat je invoert op. Gebruikers weten vaak niet wat er met hun data gebeurt of waar die blijft.
De betrokken personen horen hierover niks. Dit is een directe schending van privacywetgeving en GDPR-eisen.
Prompt-lekkage en modelinversie
Prompt-lekkage ontstaat als AI-modellen onbedoeld trainingdata of gebruikersinvoer prijsgeven. LLM’s zoals ChatGPT kunnen soms gevoelige informatie uit eerdere gesprekken herhalen.
Modelinversie-aanvallen halen data uit AI-modellen. Aanvallers gebruiken slimme prompts om het model gevoelige info te laten onthullen.
Technische kwetsbaarheden:
- Cross-prompt informatie-lekkage tussen gebruikers
- Extractie van trainingsdata uit modellen
- Prompt-injection aanvallen op bedrijfssystemen
Bedrijven die AI integreren in Word of andere kantoorprogramma’s lopen extra risico. Zulke integraties kunnen per ongeluk documenten delen met AI-providers.
Geavanceerde aanvallers gebruiken prompt-engineering om beveiliging te omzeilen. Zo krijgen ze toegang tot gegevens die eigenlijk afgeschermd zouden moeten zijn.
Verantwoordelijkheid en aansprakelijkheid bij datalekken
Als AI-tools datalekken veroorzaken, ontstaat er een spanningsveld tussen verschillende partijen. De Autoriteit Persoonsgegevens (AP) wijst op het verschil in rol tussen werkgevers, medewerkers en AI-aanbieders zoals OpenAI.
Rol van medewerkers en werkgevers
Medewerkers die zonder toestemming persoonsgegevens invoeren in AI-chatbots zoals ChatGPT brengen het risico op datalekken mee. De AP kreeg meldingen van situaties waarbij werknemers tegen de afspraken in handelden.
Voorbeelden uit de praktijk:
- Huisartsmedewerker voerde medische gegevens in AI-chatbot in.
- Telecommedewerker deelde klantadressen via AI-tool.
- Teams-gebruikers lieten vertrouwelijke documenten analyseren.
Werkgevers staan aan de lat als het gaat om preventie. Ze moeten duidelijke regels opstellen over AI-gebruik op de werkvloer.
Bedrijven moeten actief in de gaten houden hoe personeel AI-tools gebruikt. Zonder voldoende controle kunnen ze aansprakelijk worden voor datalekken.
De AP verplicht organisaties om datalekken te melden als medewerkers ongeoorloofd persoonsgegevens delen. Compliance-officers moeten deze procedures echt goed kennen.
Aansprakelijkheid van AI-aanbieders en bedrijven
AI-bedrijven zoals OpenAI slaan standaard gegevens op hun eigen servers op. Dat roept meteen vragen op over privacy en juridische verantwoordelijkheid.
Verantwoordelijkheidsverdeling:
- AI-aanbieder: Moet open zijn over gegevensopslag
- Gebruikende organisatie: Draagt de belangrijkste verantwoordelijkheid
- Eindgebruiker: Moet zich aan bedrijfsregels houden
Chatbot-aanbieders leggen in hun voorwaarden meestal de verantwoordelijkheid voor ingevoerde content bij de gebruiker. Toch blijven ze deels zelf aansprakelijk.
EU-wetgeving schuift op richting strengere regels voor AI-systemen. Vooral bedrijven die high-risk AI inzetten, krijgen meer op hun bord.
Organisaties kunnen in contracten vastleggen dat AI-aanbieders geen gegevens opslaan. Zulke afspraken beperken de risico’s behoorlijk.
Beheer van toegangsrechten en compliance
Goed toegangsbeheer voorkomt dat medewerkers ongeoorloofd AI-tools gebruiken. IT-afdelingen moeten daar duidelijke rechten voor instellen.
Compliance-maatregelen:
- Blokkeer toegang tot externe AI-chatbots op bedrijfsnetwerken
- Gebruik alleen goedgekeurde AI-tools met privacybescherming
- Train medewerkers over veilig en correct gebruik van AI-assistenten
- Houd dataverkeer naar AI-platforms in de gaten
Teams-omgevingen zijn tricky, want medewerkers kunnen makkelijk documenten kopiëren naar externe tools. Beveiligingsbeleid moet hier echt rekening mee houden.
De AP raadt organisaties aan om Data Protection Impact Assessments uit te voeren vóór de implementatie van AI-tools. Zo ontdek je risico’s op tijd.
Regelmatige audits van AI-gebruik zijn onmisbaar voor compliance. Organisaties moeten kunnen aantonen dat ze passende maatregelen nemen.
Wetgeving en richtlijnen rond AI en datalekken
De AVG en GDPR gelden gewoon als je AI-tools gebruikt voor persoonsgegevens. De Autoriteit Persoonsgegevens houdt toezicht en kan flinke boetes uitdelen als je de regels overtreedt.
Toepassing van de AVG en GDPR
Wie AI-tools inzet, moet zich aan de privacywetgeving houden. De AVG is volledig van kracht zodra AI-systemen persoonsgegevens verwerken.
Belangrijkste verplichtingen:
- Je hebt een rechtmatige grondslag nodig voor verwerking
- Je moet transparant zijn over AI-gebruik
- Gegevens moeten goed beveiligd zijn
- Privacy by design hoort erbij
De verwerkingsverantwoordelijke blijft altijd eindverantwoordelijk, zelfs als je externe AI-tools gebruikt. Je kunt die verantwoordelijkheid niet doorschuiven naar de leverancier.
Gebruik je cloud-gebaseerde AI-tools, dan is er vaak sprake van doorgifte naar derde landen. Daarvoor gelden extra AVG-regels. Je moet zorgen voor voldoende waarborgen bij internationale gegevensoverdracht.
De nieuwe AI-verordening komt erbij, maar vervangt de AVG niet. Beide wetten gelden dus naast elkaar voor AI-systemen die persoonsgegevens verwerken.
Positie van de Autoriteit Persoonsgegevens
De Autoriteit Persoonsgegevens (AP) let scherp op privacy bij AI-gebruik. Ze hebben heldere richtlijnen over algoritmes en AI-systemen gepubliceerd.
De AP benadrukt dat organisaties altijd verantwoordelijk blijven voor:
- De keuze van AI-tools
- De configuratie en het gebruik
- Beveiliging van persoonsgegevens
- Het naleven van privacy-rechten
Ontstaat er een datalek door een AI-tool? Dan moet je dat binnen 72 uur melden bij de AP. Het maakt niet uit of het lek bij jou of de leverancier ontstaat.
De toezichthouder kan AI-systemen onderzoeken. Organisaties moeten kunnen laten zien dat ze de AVG volgen bij het gebruik van AI-tools. Dat vraagt om goede documentatie en risicoanalyses.
Boetes en sancties bij overtredingen
De AP kan stevige boetes opleggen bij privacy-overtredingen met AI-tools. De maximale boete is 4% van de wereldwijde jaaromzet of 20 miljoen euro.
Wat bepaalt de hoogte van de boete?
- Hoe ernstig was de overtreding?
- Hoeveel mensen zijn getroffen?
- Hoelang duurde de overtreding?
- Was er opzet of nalatigheid?
- Werkte de organisatie mee met het onderzoek?
De AP heeft al organisaties beboet voor verkeerd gebruik van algoritmes. Ze letten streng op transparantie en rechtmatigheid.
Naast boetes kan de AP ook andere maatregelen nemen. Ze kunnen het gebruik van AI-systemen verbieden of aanpassingen eisen. Soms geven ze waarschuwingen of berispingen.
Organisaties die privacy-maatregelen nemen, krijgen meestal lagere boetes. Een privacy officer en goede procedures helpen echt.
Beveiligingsmaatregelen en preventie
Je voorkomt datalekken door duidelijke richtlijnen, goede training en veilige AI-systemen te kiezen. Zulke maatregelen houden bedrijven compliant en beschermen de privacy.
Beleid en interne AI-richtlijnen
Bedrijven moeten specifieke beleidsregels opstellen voor AI-chatbots zoals ChatGPT. Zo weten medewerkers precies wat ze wel en niet mogen delen.
Het beleid moet helder zijn over verboden informatie:
- Patiëntgegevens en medische dossiers
- Klantadressen en contactgegevens
- Interne bedrijfsdocumenten
- Financiële informatie
Leg in het beleid ook vast welke goedgekeurde AI-tools gebruikt mogen worden. Zo voorkom je dat medewerkers onveilige chatbots kiezen.
Het beleid werkt alleen als je het regelmatig bijwerkt. AI-tools veranderen snel, dus de regels moeten meebewegen.
Training en bewustwording voor medewerkers
Regelmatige training is nodig om medewerkers veilig te laten werken met AI-tools. Veel datalekken ontstaan doordat mensen niet weten wat de risico’s zijn.
Trainingssessies moeten in elk geval behandelen:
- Welke gegevens je nooit mag delen
- Hoe je gevoelige informatie herkent
- Veilige manieren om AI-chatbots te gebruiken
- Wat je doet bij een mogelijk datalek
Gebruik praktijkvoorbeelden tijdens trainingen, dat maakt het veel tastbaarder. Medewerkers snappen dan beter wat er mis kan gaan.
Zorg dat de training geen eenmalige actie is. Blijf personeel bijscholen over nieuwe risico’s en AI-ontwikkelingen.
Selectie van veilige AI-tools
Bedrijven moeten kritisch kiezen welke AI-tools ze toestaan. Niet elke chatbot is even veilig of privacyvriendelijk.
Let bij het selecteren van AI-tools op het volgende:
| Aspect | Wat te controleren |
|---|---|
| Gegevensopslag | Worden gesprekken bewaard of direct gewist? |
| Compliance | Voldoet de tool aan GDPR-eisen? |
| Transparantie | Is duidelijk hoe gegevens worden gebruikt? |
| Controle | Kun je als bedrijf je data beheren? |
Zakelijke versies van AI-tools zijn vaak beter beveiligd dan gratis varianten. Ze bieden meestal strengere privacy-instellingen en meer grip op gegevensverwerking.
Maak ook duidelijke contractafspraken met AI-leveranciers over gegevensbescherming. Dat geeft juridische zekerheid over hoe persoonsgegevens worden behandeld.
Specifieke aandachtspunten voor gevoelige gegevens
Gevoelige gegevens hebben extra bescherming nodig bij het gebruik van AI-tools. Denk aan medische informatie, vertrouwelijke teamgegevens en sector-specifieke data—die brengen echt unieke risico’s met zich mee.
Omgang met medische gegevens
Medische gegevens zijn de meest gevoelige informatie die je kunt verwerken. De Autoriteit Persoonsgegevens heeft al meerdere meldingen ontvangen van datalekken waarbij medewerkers patiëntgegevens invoerden in AI-chatbots.
Strikte wetgeving geldt:
- GDPR-boetes kunnen oplopen tot 4% van de jaaromzet
- AVG-meldingsplicht binnen 72 uur bij een datalek
- Patiënten hebben recht op schadevergoeding
Ziekenhuizen en zorgverleners moeten expliciete protocollen opstellen. Deze protocollen verbieden het invoeren van patiëntidentificatie, diagnoses en behandelgegevens in externe AI-tools.
Het gebruik van geanonimiseerde data biedt geen volledige bescherming. AI-modellen kunnen soms patronen herkennen die alsnog tot re-identificatie leiden.
Gebruik van AI binnen vertrouwelijke teams
Teams die werken met bedrijfsgeheimen of strategische informatie lopen nu eenmaal extra risico. Financiële data, overnameplannen en productiegeheimen zijn geliefde doelwitten voor cybercriminelen.
Risicovolle praktijken omvatten:
-
Delen van contractdetails voor juridische analyse
-
Invoeren van financiële prognoses voor rapportage
-
Uploaden van beveiligingsrapporten voor troubleshooting
Organisaties moeten echt goed letten op toegangscontrole. Alleen geautoriseerde medewerkers mogen bij door het bedrijf goedgekeurde AI-tools.
Teams hebben alternatieven nodig voor hun werkprocessen. Zo voorkom je dat medewerkers stiekem uitwijken naar gratis AI-platforms die gebruikersdata opslaan voor modeltraining.
Sector-specifieke aandachtspunten
Elke sector heeft weer z’n eigen compliance-issues. Financiële instellingen moeten bijvoorbeeld aan PCI-DSS voldoen voor betalingsgegevens.
Advocatenkantoren zitten vast aan beroepsgeheim richting hun cliënten.
Overheidsinstellingen leggen de lat nog hoger:
-
Staatsgeheimen mogen nooit op externe systemen belanden
-
Burgergegevens vragen om extra bescherming
-
Contracten met AI-leveranciers moeten transparant zijn
Technologiebedrijven beschermen hun intellectueel eigendom door:
-
Broncode uit AI-prompts te weren
-
Productplannen geheim te houden
-
Klantdata te scheiden van ontwikkelingsprocessen
Sectoren doen er verstandig aan om risk assessments uit te voeren voordat ze AI gaan inzetten. Alleen zo ontdek je waar je kwetsbaar bent en aan welke regels je moet voldoen.
Veelgestelde Vragen
Juridische verantwoordelijkheid bij AI-datalekken hangt af van de situatie en de rol van mensen binnen organisaties. De AVG stelt eisen aan meldingsplichten en verwacht dat bedrijven preventieve maatregelen nemen.
Wat zijn de juridische implicaties van datalekken veroorzaakt door AI?
Organisaties kunnen boetes krijgen tot 4% van hun jaarlijkse omzet onder de AVG. Dit gebeurt ook als medewerkers persoonsgegevens invoeren in AI-chatbots, zelfs als dat tegen de regels is.
Bedrijven draaien op voor schade aan betrokkenen. Denk aan schadeclaims van patiënten, klanten of anderen van wie gegevens zijn gelekt.
De toezichthouder kan extra eisen stellen. Soms moet je beveiligingsprocessen verbeteren of mag je tijdelijk geen gegevens verwerken.
Hoe kunnen organisaties aansprakelijkheid voor datalekken door AI-systemen beheren of vermijden?
Maak duidelijke regels voor het gebruik van AI-tools. Verbied medewerkers om persoonsgegevens in te voeren in externe chatbots zoals ChatGPT of Copilot.
Train medewerkers regelmatig over privacy-risico’s. Leg uit welke gegevens je wel en niet mag delen met AI-systemen.
Sluit contracten met AI-leveranciers die gegevensopslag beperken. Leg vast dat ingevoerde informatie niet wordt bewaard.
Houd het gebruik van AI-tools in de gaten. Gebruik software die kan zien wanneer gevoelige data wordt gedeeld.
Welke stappen moeten worden genomen bij het ontdekken van een datalek als gevolg van een AI-tool?
Meld het datalek binnen 72 uur bij de Autoriteit Persoonsgegevens. Dit moet als er risico is voor de rechten van betrokkenen.
Informeer de getroffen personen snel. Leg uit wat er is gebeurd en welke gegevens het betreft.
Schrijf alles op wat met het incident te maken heeft. Noteer welke gegevens zijn gelekt, hoe lang ze zichtbaar waren en welke stappen zijn gezet.
Zoek uit hoe het lek kon ontstaan. Pas processen aan om herhaling te voorkomen.
Hoe beïnvloedt de Algemene Verordening Gegevensbescherming (AVG) de verantwoordelijkheid bij AI-gerelateerde datalekken?
De AVG legt de verantwoordelijkheid bij organisaties voor persoonsgegevens die hun medewerkers verwerken. Zelfs als werknemers tegen de regels ingaan, blijft het bedrijf verantwoordelijk.
Bedrijven moeten technische en organisatorische maatregelen nemen. Die moeten voorkomen dat gevoelige gegevens zomaar gedeeld worden met derden.
Je hebt een rechtmatige grondslag nodig voor gegevensverwerking. Medische gegevens of adressen delen met AI-chatbots is meestal niet toegestaan.
Organisaties moeten kunnen laten zien dat ze aan privacy-principes voldoen. Dat houdt in: beleid, training en technische bescherming documenteren.
Op welke wijze draagt een Data Protection Officer (DPO) bij aan de preventie van datalekken in AI-toepassingen?
Een DPO maakt beleid voor AI-gebruik binnen de organisatie. Hierin staat welke tools wel of niet mogen en welke beperkingen er zijn.
Ze voeren privacy-effectbeoordelingen uit voor nieuwe AI-systemen. Daarmee schatten ze risico’s in voordat je een tool inzet.
DPO’s geven training over veilig AI-gebruik. Ze leggen uit waarom je klantgegevens niet zomaar met chatbots moet delen.
Ze houden in de gaten of iedereen zich aan het AI-beleid houdt en onderzoeken incidenten. Gaat het mis, dan adviseren ze over oplossingen.
Welke best practices bestaan er voor de ontwikkeling van veilige AI-systemen om datalekken te voorkomen?
Implementeer data-minimalisatie in AI-systemen. Verwerk alleen de gegevens die je echt nodig hebt voor de specifieke functie.
Gebruik liever lokale AI-modellen als dat kan. Zo blijft gevoelige informatie uit handen van externe servers.
Bouw gegevensclassificatie in bij AI-interfaces. Het systeem moet automatisch herkennen en blokkeren wanneer iemand gevoelige data invoert.
Zorg dat je encryptie gebruikt voor alle gegevensoverdracht. Daarmee bescherm je informatie tijdens het transport tussen gebruikers en AI-systemen.
Voer regelmatig beveiligingstests uit op AI-applicaties. Kijk vooral goed naar hoe het systeem omgaat met verschillende soorten gevoelige gegevens.