facebook lawandmore.nl   instagram lawandmore.nl   linkedin lawandmore.nl   twitter lawandmore.nl

Afspraak

Law & More Logo

Articles Tagged with

eu ai act

featured-image-053e36da-3751-477f-a1d7-d1a9ad03fdf2.jpg
Nieuws

AI als leidinggevende: mag uw algoritme uw prestatie beoordelen?

Mag een algoritme uw werk beoordelen? Die vraag wordt steeds relevanter nu AI de werkvloer in rap tempo verovert. Het korte antwoord is nee, een AI-systeem mag niet zomaar zelfstandig beslissingen nemen met grote gevolgen voor uw carrière. De Algemene verordening gegevensbescherming (AVG) verbiedt dit in principe, tenzij er sprake is van betekenisvolle menselijke tussenkomst.

De opkomst van AI als leidinggevende

Een modern kantoor waar een manager en werknemer data op een scherm analyseren
AI als leidinggevende: mag uw algoritme uw prestatie beoordelen? 10

Stel u eens voor: uw functioneringsgesprek wordt niet voorbereid door uw manager, maar door een algoritme. Dit systeem analyseert uw productiviteit, e-mailverkeer en zelfs uw bijdragen in vergaderingen. Op basis daarvan rolt er een score uit die uw bonus, promotiekansen of zelfs de verlenging van uw contract bepaalt.

Dit scenario is geen verre toekomstmuziek meer. Steeds meer bedrijven experimenteren met AI als leidinggevende, of in ieder geval als een krachtige assistent daarvan. De technologie belooft objectiviteit en efficiëntie, maar roept tegelijkertijd belangrijke juridische en ethische vragen op.

De realiteit op de Nederlandse werkvloer

De adoptie van AI in Nederland versnelt aanzienlijk. Recent onderzoek toont aan dat het dagelijks AI-gebruik onder hoogopgeleide professionals verdubbelde van 8% naar 16%. Wat echter opvalt, is de kloof tussen management en medewerkers: 78% van de leidinggevenden gebruikt AI, tegenover slechts 47% van de medewerkers.

Dit suggereert dat algoritmes voor prestatiebeoordelingen mogelijk veel sneller worden omarmd door leidinggevenden dan door de werknemers die erdoor worden beoordeeld. Meer inzicht in deze ontwikkelingen op de Nederlandse werkvloer vindt u in dit onderzoek naar AI-adoptie op consultancy.nl.

Wat staat er op het spel?

De inzet van "AI als leidinggevende" raakt de kern van de arbeidsrelatie. Het gaat hier niet alleen om techniek, maar om fundamentele rechten en plichten. Een algoritme kan immers niet de context, persoonlijke omstandigheden of de nuances van menselijke samenwerking begrijpen.

De centrale vraag is niet óf AI een rol mag spelen, maar hóé die rol wordt ingevuld. Een algoritme mag een manager ondersteunen met data, maar mag nooit de menselijke beslisser volledig vervangen bij belangrijke carrièrebesluiten.

In deze gids duiken we dieper in de juridische kaders die uw rechten beschermen. We verkennen de grenzen van de AVG, de plichten van uw werkgever en de impact van de nieuwe Europese AI Act. U leert welke stappen u kunt ondernemen en waar u op moet letten wanneer een algoritme uw prestaties beoordeelt.

Hieronder vindt u een overzicht van de belangrijkste juridische principes die de basis vormen voor het gebruik van AI bij personeelsbeoordelingen.

Kernprincipes voor AI-beoordelingen op de werkvloer

Deze tabel vat de juridische basisregels samen die bepalen wanneer een AI-beoordeling is toegestaan, met een focus op de AVG en de noodzaak van menselijk toezicht.

Juridisch Kader Kernvereiste Praktische Implicatie voor Werknemers
AVG – Art. 22 Verbod op volledig geautomatiseerde besluitvorming met aanzienlijke gevolgen. Een algoritme mag u niet ontslaan, degraderen of een bonus weigeren zonder dat een mens de definitieve beslissing neemt.
AVG – Transparantie De werkgever moet duidelijk informeren over het gebruik van AI-systemen. U heeft het recht om te weten dat een AI-systeem wordt gebruikt, hoe het werkt en welke data het analyseert.
Goed Werkgeverschap De werkgever moet zorgvuldig en redelijk handelen. Een beoordeling moet eerlijk zijn; blindelings vertrouwen op een algoritme is dat zelden. Er moet ruimte zijn voor context en uw kant van het verhaal.
Menselijke Tussenkomst Een mens moet de output van het AI-systeem daadwerkelijk kunnen beïnvloeden. Een 'vinkje zetten' door een manager is niet genoeg. Er moet een serieuze, inhoudelijke controle plaatsvinden voordat er een besluit wordt genomen.

Deze principes vormen de basis van uw bescherming en geven aan dat technologie een hulpmiddel moet zijn, geen vervanging voor menselijk oordeel en redelijkheid op de werkvloer.

De grenzen van de AVG bij geautomatiseerde besluiten

Een juridisch document met een vergrootglas dat focust op de kleine lettertjes
AI als leidinggevende: mag uw algoritme uw prestatie beoordelen? 11

Wanneer we het hebben over een AI als leidinggevende, is het cruciaal om te begrijpen waar de harde juridische grenzen liggen. De belangrijkste bescherming voor werknemers in Europa vinden we in de Algemene verordening gegevensbescherming (AVG). De kern van die bescherming is Artikel 22, een bepaling die vaak wordt omschreven als het ‘recht op een menselijke blik’.

Dit artikel is glashelder: je hebt als individu het recht om niet te worden onderworpen aan een besluit dat uitsluitend is gebaseerd op geautomatiseerde verwerking. Dat geldt specifiek voor besluiten die juridische gevolgen hebben of je op een andere manier in aanzienlijke mate treffen.

Wat betekent 'uitsluitend geautomatiseerd'?

De term 'uitsluitend geautomatiseerd' is hier de sleutel. Het gaat om beslissingen die door een computer of algoritme worden genomen zonder enige vorm van betekenisvolle menselijke tussenkomst. Als een manager simpelweg op 'akkoord' klikt zonder de output van het systeem echt te controleren of te begrijpen, wordt dit nog steeds gezien als een uitsluitend geautomatiseerd besluit.

Stel je een systeem voor dat op basis van verkoopcijfers, inlogtijden en e-mailanalyses automatisch een lijst genereert van medewerkers die voor ontslag in aanmerking komen. Neemt de directie deze lijst zonder inhoudelijke controle over, dan is er sprake van een verboden praktijk. De menselijke actie is dan niets meer dan een formaliteit.

Besluiten met aanzienlijke gevolgen

Het verbod uit Artikel 22 geldt niet voor elk geautomatiseerd proces, maar alleen voor die met 'aanzienlijke gevolgen'. Op de werkvloer is dit een breed begrip. Denk aan beslissingen die een grote impact hebben op iemands carrière, financiële situatie of rechtspositie.

Een paar duidelijke voorbeelden:

  • Ontslag of het niet verlengen van een contract: De meest ingrijpende beslissing in een arbeidsrelatie.

  • Het toekennen of weigeren van een promotie: Een besluit dat directe gevolgen heeft voor salaris en loopbaanontwikkeling.

  • De beoordeling van prestaties die leidt tot een bonus of salarisverhoging (of het uitblijven daarvan): Dit raakt de werknemer direct in zijn portemonnee.

  • Het toewijzen van belangrijke projecten of juist routinematige taken: Iets wat iemands professionele groei flink kan beïnvloeden.

Een algoritme mag dus prima data analyseren en trends signaleren ter ondersteuning, maar het mag nooit de uiteindelijke, doorslaggevende stem hebben in dit soort cruciale personeelsbeslissingen.

Het cruciale concept van menselijke tussenkomst

De enige manier waarop je als werkgever AI rechtmatig kunt gebruiken bij belangrijke beoordelingen, is door te zorgen voor betekenisvolle menselijke tussenkomst. Dit is veel meer dan een formaliteit; het vereist een actieve en inhoudelijke rol voor een menselijke beslisser.

Wat houdt dat in de praktijk in? Een manager moet:

  1. De bevoegdheid hebben: De persoon moet de autoriteit hebben om het besluit van het algoritme te negeren, aan te passen of volledig naast zich neer te leggen.

  2. De kennis hebben: Hij of zij moet de output van het systeem begrijpen, de gebruikte criteria kennen en de context van de werknemer meewegen.

  3. Een eigen oordeel vellen: De uiteindelijke beslissing moet gebaseerd zijn op een eigen, onafhankelijke afweging van alle relevante factoren, waarin de aanbeveling van de AI slechts één onderdeel is.

Stel, een AI-systeem signaleert dat een medewerker ondermaats presteert op basis van productiviteitsdata. Betekenisvolle menselijke tussenkomst betekent dat de leidinggevende deze output controleert, een gesprek aangaat met de medewerker om de context te begrijpen – denk aan persoonlijke omstandigheden of technische problemen – en pas daarna een eigen, weloverwogen besluit neemt over de vervolgstappen. Zo blijft de AI een hulpmiddel en wordt het geen onpersoonlijke rechter.

De zorgplicht van uw werkgever in het AI-tijdperk

Een close-up van een AI-robotarm die een schaakstuk verplaatst op een bord
AI als leidinggevende: mag uw algoritme uw prestatie beoordelen? 12

Naast de harde regels uit de AVG, rust er op uw werkgever nog een andere, minstens zo belangrijke plicht: de norm van 'goed werkgeverschap' uit het Nederlandse arbeidsrecht. Dit is een open norm die simpelweg eist dat een werkgever zich redelijk en zorgvuldig gedraagt tegenover zijn personeel. De komst van een AI als leidinggevende stelt deze zorgplicht flink op scherp.

Een algoritme mag dan wel efficiënt zijn, het mist de menselijke maat. Goed werkgeverschap vereist dat een werkgever verder kijkt dan alleen kille data. Het betekent dat er altijd ruimte moet zijn voor context, persoonlijke omstandigheden en een eerlijk proces.

Transparantie als eerste vereiste

De meest fundamentele plicht die uit goed werkgeverschap voortvloeit, is transparantie. U heeft het recht om te weten wanneer een algoritme wordt ingezet om uw prestaties te beoordelen of beslissingen over u te nemen. Dit mag een werkgever niet stiekem doen.

Deze plicht tot transparantie gaat verder dan een simpele mededeling. Uw werkgever moet u op een begrijpelijke manier kunnen uitleggen:

  • Dat er een AI-systeem wordt gebruikt voor bijvoorbeeld prestatiebeoordeling.

  • Welke data van u wordt verzameld en geanalyseerd (denk aan e-mails, productiviteitscijfers of inlogtijden).

  • Wat de belangrijkste factoren zijn waarop het algoritme zijn oordeel of aanbeveling baseert.

U hoeft geen datawetenschapper te zijn, maar de logica achter het systeem moet u in grote lijnen kunnen volgen. Zonder deze basisinformatie kunt u zich immers onmogelijk verweren tegen een onjuiste of oneerlijke beoordeling.

De adoptie van AI in het Nederlandse bedrijfsleven laat overigens een duidelijke tweedeling zien. Hoewel 49% van de bedrijven AI inzet, zijn het vooral grote organisaties (19%) die het diep in hun kernprocessen integreren. Dat is veel meer dan het Europese gemiddelde van 3%. Juist deze grotere bedrijven implementeren sneller geavanceerde AI voor personeelsbeoordeling, wat het belang van transparantie alleen maar onderstreept. Meer over deze ontwikkelingen in AI-adoptie leest u bij Rocking Robots.

Het gevaar van algoritmische discriminatie

Een van de grootste risico's van AI als leidinggevende is ingebakken vooringenomenheid, ook wel ‘bias’ genoemd. Een algoritme is namelijk zo eerlijk als de data waarmee het wordt getraind. Als die data historische vooroordelen bevatten, zal de AI deze patronen overnemen en soms zelfs versterken.

Stel, in het verleden kregen vooral mannen promotie binnen een bedrijf. Een AI die met deze historische data is getraind, kan 'leren' dat mannelijke eigenschappen een voorspeller zijn van succes. Het systeem zal dan onbewust mannelijke kandidaten voortrekken, zelfs als de intentie was om juist objectiever te zijn.

Een werkgever heeft een actieve plicht om te waken voor discriminatie. Dit betekent dat hij moet onderzoeken of het AI-systeem geen groepen benadeelt op basis van bijvoorbeeld geslacht, leeftijd, afkomst of het hebben van een parttime contract.

Blindelings varen op de output van een 'black box'-algoritme is in strijd met goed werkgeverschap. De werkgever blijft altijd eindverantwoordelijk voor een eerlijk en non-discriminatoir personeelsbeleid.

De verplichte risicoanalyse (DPIA)

Voordat een werkgever überhaupt een AI-systeem mag inzetten dat op grote schaal personeelsgegevens analyseert, is hij vaak wettelijk verplicht een Data Protection Impact Assessment (DPIA) uit te voeren. Dit is een instrument uit de AVG om vooraf de privacyrisico's van een nieuwe gegevensverwerking in kaart te brengen en te beoordelen.

Een DPIA is verplicht wanneer de verwerking waarschijnlijk een hoog privacyrisico met zich meebrengt. Het systematisch en grootschalig monitoren van werknemersprestaties met AI valt hier vrijwel altijd onder.

Tijdens zo'n DPIA moet de werkgever zorgvuldig nadenken over vragen als:

  • Noodzaak: Is het gebruik van dit AI-systeem echt nodig en proportioneel? Staan de doelen in verhouding tot de inbreuk op de privacy?

  • Risico's: Wat zijn de risico's voor de rechten en vrijheden van de werknemers? Denk aan het risico op foute beslissingen, discriminatie of een gevoel van constante surveillance.

  • Maatregelen: Welke maatregelen worden er genomen om deze risico's te beperken? Denk aan anonimisering, beveiliging en de garantie van menselijke tussenkomst.

Het uitvoeren van een DPIA is geen papieren tijger. Het dwingt de werkgever om kritisch naar het eigen proces te kijken en de belangen van de werknemers serieus mee te wegen. De ondernemingsraad speelt hier bovendien een belangrijke controlerende rol. Deze verplichte risicoanalyse geeft u een krachtig handvat om uw werkgever aan te spreken op zijn verantwoordelijkheden.

Uw rechten als werknemer en hoe u ze gebruikt

Een medewerker die vol vertrouwen documenten doorneemt, symbool voor het kennen van je rechten
AI als leidinggevende: mag uw algoritme uw prestatie beoordelen? 13

Wanneer een 'robotbaas' over uw schouder meekijkt, kan dat een gevoel van machteloosheid geven. Gelukkig staat u niet met lege handen. De wet, en dan met name de AVG, geeft u concrete rechten om uzelf te wapenen en een eerlijk proces te waarborgen. Het is cruciaal dat u weet welke instrumenten u in handen heeft als een algoritme uw prestaties beoordeelt.

Deze rechten zijn er niet alleen op papier; ze bieden praktische handvatten om de controle te houden over uw eigen data en de beslissingen die daaruit voortkomen. Door er actief gebruik van te maken, dwingt u transparantie en zorgvuldigheid af bij uw werkgever.

Uw recht op inzage en uitleg

Alles begint met inzicht. U heeft het fundamentele recht om te weten welke persoonsgegevens uw werkgever over u verzamelt en verwerkt. Als een AI-systeem uw functioneren monitort, houdt dit in dat u recht heeft op inzage in de data die het systeem over u bijhoudt.

Dit recht gaat verder dan enkel de ruwe data. U mag ook vragen waarom deze gegevens worden verzameld en hoe ze precies worden gebruikt in het beoordelingsproces. Uw werkgever moet u kunnen uitleggen welke logica het algoritme volgt en op basis van welke criteria het tot een bepaalde aanbeveling of conclusie komt.

U heeft het recht om te begrijpen hoe een algoritmisch besluit over u tot stand komt. Uw werkgever moet de 'black box' openen en u zinvolle informatie geven over de logica achter de beslissing.

Het sentiment onder Nederlandse werknemers over AI is overigens gemengd. Slechts 11% is er volledig van overtuigd dat AI positief zal uitpakken. Tegelijkertijd vreest maar liefst 55% dat men door AI niet meer zelf hoeft na te denken. Deze vrees voor het verlies van menselijk oordeel onderstreept hoe belangrijk transparantie is, zeker omdat 60% aangeeft niet te willen dat AI persoonlijk contact met collega's vervangt. Meer hierover leest u in de inzichten in de houding van Nederlanders tegenover AI op Accountant.nl.

Correctie van onjuiste data

Maar wat als de data die het systeem gebruikt simpelweg niet klopt? Een algoritme is onverbiddelijk: ‘garbage in, garbage out’. Een verkeerd genoteerd verkoopcijfer of een foutieve registratie van uw aanwezigheid kan direct leiden tot een onterecht negatieve beoordeling.

Hier komt uw recht op rectificatie om de hoek kijken. Wanneer u ontdekt dat de gegevens die de AI over u heeft onjuist of onvolledig zijn, kunt u eisen dat uw werkgever deze informatie corrigeert. Dit is een krachtig middel om de basis van een algoritmische beoordeling recht te zetten.

De rol van de ondernemingsraad

U staat er bovendien niet alleen voor. Binnen organisaties met vijftig of meer werknemers speelt de ondernemingsraad (OR) een cruciale rol. De invoering of een belangrijke wijziging van een personeelsvolgsysteem, waar een AI-beoordelingssysteem onder valt, vereist de instemming van de OR.

Dit geeft de OR de mogelijkheid om:

  • Kritische vragen te stellen: De OR kan details opvragen over de werking van het algoritme, de gebruikte data en de waarborgen tegen mogelijke vooroordelen.

  • Voorwaarden te stellen: De OR kan eisen dat er duidelijke regels komen over transparantie, menselijke tussenkomst en een heldere bezwaarprocedure.

  • De invoering tegen te houden: Als de waarborgen onvoldoende zijn, kan de OR weigeren in te stemmen met de implementatie.

De OR is uw collectieve stem en een belangrijke bondgenoot in het bewaken van een eerlijk en transparant proces.

Stappen die u kunt ondernemen

Heeft u het vermoeden dat een AI-beslissing over uw functioneren onterecht is of dat uw rechten worden geschonden? Wacht dan niet af. U kunt concrete actie ondernemen.

  1. Ga het gesprek aan: Vraag uw leidinggevende of HR-afdeling om opheldering over de beslissing en de data waarop deze is gebaseerd. Verwijs hierbij naar uw recht op inzage en uitleg.

  2. Maak formeel bezwaar: Leg schriftelijk vast waarom u het niet eens bent met de beoordeling en verzoek om een heroverweging door een menselijke beslisser.

  3. Dien een klacht in: Als een gesprek of bezwaar niets oplevert, kunt u een klacht indienen bij de Autoriteit Persoonsgegevens (AP). De AP kan de situatie onderzoeken en handhavend optreden.

Door deze stappen te volgen, dwingt u uw werkgever om verantwoording af te leggen. Zo zorgt u ervoor dat een AI als leidinggevende een hulpmiddel blijft en geen oncontroleerbare rechter wordt.

De impact van de nieuwe Europese AI Act

De AVG legt de basis, maar aan de horizon doemt een nieuwe, specifieke wet op die de spelregels voor kunstmatige intelligentie fundamenteel gaat veranderen: de Europese AI Act. Deze wetgeving staat niet los van de AVG, maar bouwt erop voort met een veel scherper en gedetailleerder kader, juist voor AI op de werkvloer.

Vergis u niet, dit is geen abstract toekomstplan. De AI Act zal de manier waarop werkgevers algoritmes mogen inzetten voor personeelsbeheer drastisch hervormen. Voor u als werknemer betekent dit een flinke versterking van uw rechten wanneer een computer uw functioneren beoordeelt.

AI voor HR wordt ‘hoogrisico’

De kern van de AI Act is een indeling op basis van risico. Systemen worden in categorieën geplaatst, van minimaal tot onacceptabel. En hier zit de crux voor de arbeidsrelatie: AI-systemen die worden gebruikt voor personeelsbeheer, werving en selectie, en beslissingen over promotie of ontslag vallen expliciet in de categorie ‘hoogrisico’.

Die classificatie is veel meer dan een stempel. Het activeert een waslijst aan strenge verplichtingen waaraan een werkgever moet voldoen, nog voordat zo’n systeem überhaupt de werkvloer op mag.

De boodschap van de AI Act is duidelijk: als een algoritme een grote impact kan hebben op iemands carrière, dan moet dat systeem voldoen aan de allerhoogste eisen van betrouwbaarheid, transparantie en eerlijkheid.

Strengere eisen voor werkgevers

Voor deze hoogrisico AI-systemen legt de AI Act de bewijslast vierkant bij de werkgever. Waar de AVG vooral kijkt naar hoe persoonsgegevens worden verwerkt, zoomt de AI Act in op het algoritme zelf. Werkgevers moeten straks kunnen aantonen dat hun systemen aan loeizware criteria voldoen. Denk aan:

  • Datakwaliteit: De data waarmee het model is getraind, moet representatief zijn en vrij van discriminerende vooroordelen. Waar kwam de data vandaan en is deze wel eerlijk?

  • Transparantie: Er moeten heldere instructies zijn voor de manager die het systeem gebruikt, maar ook duidelijke informatie voor de werknemer die ermee beoordeeld wordt.

  • Menselijk toezicht: Er moet altijd een mens aan de knoppen zitten die een computerbeslissing kan terugdraaien. Een ‘nee’ van het systeem mag nooit het laatste woord zijn.

  • Robuustheid en nauwkeurigheid: Het systeem moet technisch deugen en keer op keer betrouwbare, accurate resultaten laten zien.

Deze eisen gaan een stuk verder dan wat we nu kennen. Een werkgever kan niet meer zomaar een softwarepakket kopen en gebruiken. Er komt een actieve plicht om de werking en de eerlijkheid van het systeem continu te controleren.

Vergelijking AVG versus EU AI Act voor HR-systemen

Hoewel de AVG en de AI Act elkaar overlappen, legt de AI Act de lat aanzienlijk hoger voor HR-technologie. De onderstaande tabel zet de belangrijkste verschillen op een rij.

Onderwerp AVG (Huidig) EU AI Act (Toekomstig)
Focus Bescherming van persoonsgegevens en privacy. Veiligheid, betrouwbaarheid en fundamentele rechten met betrekking tot het AI-systeem zelf.
Menselijke Tussenkomst Vereist ‘betekenisvolle menselijke tussenkomst’ bij belangrijke besluiten. Stelt concrete eisen aan de effectiviteit van menselijk toezicht gedurende de gehele levenscyclus van de AI.
Transparantie Recht op informatie over de logica achter een besluit. Verplichting tot gedetailleerde technische documentatie en heldere gebruiksinstructies voor de leidinggevende.
Bias & Discriminatie Verbod op discriminatie en de plicht dit te voorkomen. Specifieke eisen aan de kwaliteit en representativiteit van trainingsdata om bias actief te detecteren en mitigeren.
Toezicht Handhaving door nationale privacytoezichthouders zoals de Autoriteit Persoonsgegevens. Oprichting van een Europese AI Board en versterkt toezicht op hoogrisico-systemen.

De AI Act is dus een logische en noodzakelijke volgende stap. De wet erkent dat wanneer een algoritme uw prestaties beoordeelt, er extra waarborgen nodig zijn die verder gaan dan alleen databescherming. Voor werknemers betekent dit straks nog sterkere argumenten om een eerlijk en transparant proces af te dwingen.

Checklist voor een eerlijke AI-implementatie

Een AI als leidinggevende introduceren is geen kwestie van simpelweg software installeren. Het vraagt om een zorgvuldige, stapsgewijze aanpak, niet alleen om aan de wet te voldoen, maar ook om het vertrouwen van uw medewerkers te winnen en te behouden.

Deze checklist is bedoeld als een praktisch stappenplan voor werkgevers. Tegelijkertijd biedt het een toetsingskader voor werknemers en ondernemingsraden, waarmee zij kunnen nagaan of het proces wel eerlijk en juridisch correct verloopt. Deze stappen zijn essentieel om te zorgen dat het algoritme een hulpmiddel blijft en geen ondoorzichtige, onpersoonlijke rechter wordt.

Stap 1: Voer een Data Protection Impact Assessment (DPIA) uit

Voordat u ook maar één regel code implementeert, is een DPIA verplicht. Dit is een formele risicoanalyse die de privacy-impact van het AI-systeem in kaart brengt. Het dwingt u om kritisch na te denken over de noodzaak, proportionaliteit en de mogelijke gevaren voor werknemers, zoals het risico op discriminatie of onjuiste beoordelingen.

Het doel van de DPIA is niet om een project af te keuren. Het is een instrument om risico's vroegtijdig te identificeren en passende maatregelen te nemen. Denk aan het minimaliseren van verzamelde data en het inbouwen van technische en organisatorische waarborgen.

Stap 2: Zorg voor volledige transparantie en informatie

Informeer uw medewerkers proactief, helder en volledig. Heimelijkheid is funest voor het draagvlak en bovendien in strijd met de AVG. Uw communicatie moet de volgende vragen beantwoorden:

  • Waarom wordt dit systeem geïntroduceerd? Leg het doel en de beoogde voordelen duidelijk uit.

  • Welke data worden precies verzameld en geanalyseerd? Wees specifiek over de bronnen (e-mails, productiviteitstools, etc.).

  • Hoe werkt het algoritme in grote lijnen? Geef inzicht in de belangrijkste factoren die de uitkomst beïnvloeden, zonder in al te technische details te verzanden.

  • Wat gebeurt er met de output? Maak klip-en-klaar dat het een aanbeveling is en geen definitief, onherroepelijk besluit.

Goede communicatie is geen eenmalige mededeling. Het is een doorlopend proces waarbij medewerkers vragen kunnen stellen en feedback kunnen geven. Dit bouwt vertrouwen en helpt misverstanden te voorkomen.

Stap 3: Leg de menselijke tussenkomst vast

De eis van ‘betekenisvolle menselijke tussenkomst’ moet in de praktijk worden verankerd. Leg daarom in een intern protocol vast hoe leidinggevenden de output van de AI moeten gebruiken. Dit protocol moet de volgende elementen bevatten:

  • Controleplicht: De manager moet de data en de aanbeveling van de AI controleren op juistheid en volledigheid.

  • Contextuele afweging: De manager weegt altijd aanvullende context mee die het systeem niet kent, zoals persoonlijke omstandigheden, teamdynamiek of externe factoren.

  • Onafhankelijk oordeel: De manager moet de bevoegdheid hebben om de aanbeveling van de AI te negeren en moet een eigen, gemotiveerde beslissing nemen.

Stap 4: Train leidinggevenden en stel een bezwaarprocedure op

Leidinggevenden moeten getraind worden om de AI correct te gebruiken. Ze moeten de beperkingen van het systeem begrijpen en weten hoe ze bias kunnen herkennen. Daarnaast is een laagdrempelige en duidelijke bezwaarprocedure onmisbaar. Medewerkers moeten weten waar ze terechtkunnen als ze het oneens zijn met een (door AI ondersteunde) beoordeling en erop kunnen vertrouwen dat hun bezwaar serieus wordt behandeld door een mens.

Stap 5: Betrek de ondernemingsraad (OR) tijdig

De ondernemingsraad heeft instemmingsrecht bij de invoering van een personeelsvolgsysteem, en daar valt een AI-systeem al snel onder. Betrek de OR daarom vanaf het allereerste begin bij het proces. Dit is niet alleen een wettelijke verplichting, maar ook een strategische zet. De OR kan waardevolle input leveren en helpt bij het creëren van draagvlak onder het personeel. Door samen op te trekken, waarborgt u een implementatie die zowel technologisch als sociaal goed wordt ontvangen.

Veelgestelde vragen over AI als uw leidinggevende

Dat het idee van een AI als leidinggevende vragen oproept, is logisch. Zowel bij werknemers als bij werkgevers leven er veel vragen over rechten, plichten en hoe dit in de praktijk werkt. Duidelijkheid hierover is cruciaal om vertrouwen op de werkvloer te creëren.

Hieronder geven we heldere, praktische antwoorden op de meest prangende vragen. Zo vertalen we de complexe juridische regels naar concrete situaties uit de dagelijkse praktijk.

Kan ik ontslagen worden op basis van een AI-beoordeling?

Nee, u kunt niet uitsluitend op basis van een AI-beoordeling worden ontslagen. De AVG is hier heel duidelijk over: een besluit met zulke grote gevolgen vereist altijd ‘betekenisvolle menselijke tussenkomst’.

Een manager moet de output van de AI controleren, de context meewegen en uiteindelijk een eigen, onafhankelijke beslissing nemen. Een AI kan dus wel een signaal afgeven of data aanleveren die een rol speelt, maar mag nooit de uiteindelijke beslisser zijn in een ontslagprocedure.

Wat betekent 'betekenisvolle menselijke tussenkomst' precies?

Dit is een cruciaal begrip. Het betekent dat een mens de bevoegdheid én de kennis moet hebben om het geautomatiseerde besluit te negeren of aan te passen. Het is dus veel meer dan even een vinkje zetten. De persoon in kwestie moet de redenering van de AI kunnen doorgronden, de juistheid ervan controleren en op basis daarvan een eigen, geïnformeerd oordeel vellen.

Een 'stempelmachine' is niet voldoende. De menselijke controleur moet daadwerkelijk de autoriteit en het inzicht hebben om de aanbeveling van het algoritme naast zich neer te leggen als de context daarom vraagt.

Mijn werkgever introduceert een AI-systeem, wat kan de OR doen?

De ondernemingsraad (OR) heeft hier een belangrijke stem in. Een AI-beoordelingssysteem valt vrijwel altijd onder de noemer ‘personeelsvolgsysteem’, en bij de invoering of wijziging daarvan heeft de OR instemmingsrecht.

De OR kan dus voorwaarden stellen aan de transparantie, privacy en eerlijkheid van het systeem voordat het überhaupt geïmplementeerd mag worden. Ze spelen een sleutelrol in het beschermen van de rechten van werknemers en kunnen een implementatie zelfs tegenhouden als de waarborgen onvoldoende zijn.

Heb ik recht op uitleg over hoe het algoritme werkt?

Jazeker, u heeft recht op transparantie. Uw werkgever is verplicht u te informeren over het gebruik van het systeem en u inzicht te geven in de logica erachter.

U hoeft geen technische expert te worden, maar u moet wel kunnen begrijpen op basis van welke belangrijkste factoren het systeem tot een bepaalde aanbeveling komt. Die informatie is immers essentieel om een beslissing te kunnen begrijpen en, indien nodig, aan te vechten.

featured-image-c458d9e9-09c8-4747-9eb0-c80277bb0c6f.jpg
Nieuws

AI en strafrecht: kan een algoritme medeverantwoordelijk zijn?

De hamvraag "kan een algoritme (mede)strafrechtelijk verantwoordelijk zijn?" heeft eigenlijk een kort en bondig antwoord: nee, een algoritme kan niet de gevangenis in. Software heeft geen rechtspersoonlijkheid en kan daarom niet strafrechtelijk worden vervolgd. De verantwoordelijkheid ligt altijd bij de mensen of organisaties áchter de technologie.

Waarom een algoritme geen verdachte kan zijn

Een gestileerde afbeelding van een robot achter tralies, wat het concept van AI in het strafrecht symboliseert.
AI en strafrecht: kan een algoritme medeverantwoordelijk zijn? 20

Het idee dat een stuk code voor de rechter moet verschijnen, klinkt als iets uit een sciencefictionfilm. Toch is de vraag heel relevant, want AI-systemen nemen steeds vaker beslissingen met grote gevolgen. Denk aan een zelfrijdende auto die een fataal ongeluk veroorzaakt of een medisch algoritme dat een verkeerde diagnose stelt met ernstige gevolgen.

In zulke gevallen kijken we niet naar de software zelf, maar naar de menselijke actoren die erbij betrokken zijn. Het Nederlandse strafrecht is namelijk volledig gebouwd op het principe dat alleen (rechts)personen strafbare feiten kunnen plegen. Een algoritme kan geen opzet hebben of schuld dragen in de juridische zin van het woord; het mist bewustzijn en een eigen wil. De focus verschuift daarom naar de vraag aan wie de handeling van de AI kan worden toegerekend.

Toerekening: de sleutel tot verantwoordelijkheid

Toerekening is het juridische mechanisme waarmee een handeling van een AI wordt gekoppeld aan een persoon of organisatie. De schuldvraag wordt als het ware verplaatst van de machine naar de mens. Hierbij komen verschillende partijen in beeld, elk met een eigen potentiële verantwoordelijkheid.

Wie kan er dan verantwoordelijk worden gehouden? De meest voor de hand liggende partijen zijn:

  • De ontwikkelaar: Had de programmeur kunnen of moeten voorzien dat zijn code tot een strafbaar feit kon leiden? Was er sprake van grove nalatigheid bij het ontwerpen of testen?

  • De gebruiker: Heeft een organisatie het AI-systeem ingezet voor een doel waarvoor het niet bedoeld was, of werden duidelijke waarschuwingen en veiligheidsvoorschriften genegeerd?

  • De operator: Heeft de persoon die het systeem op dat moment bediende een cruciale fout gemaakt of onvoldoende toezicht gehouden?

Dit concept is overigens niet nieuw. We passen het al decennialang toe op andere complexe technologieën. Een autofabrikant kan bijvoorbeeld aansprakelijk zijn voor een productiefout in een remsysteem, zelfs als de bestuurder uiteindelijk degene was die het ongeluk veroorzaakte.

"Een AI-systeem is in de ogen van het recht niet meer dan een geavanceerd instrument, vergelijkbaar met een hamer of een auto. Het is het gebruik – of het gebrekkige ontwerp – van dat instrument dat tot strafrechtelijke aansprakelijkheid kan leiden, nooit het instrument zelf."

De vraag is dus niet of een algoritme medeverantwoordelijk kan zijn, maar wie er verantwoordelijk is voor het algoritme. Deze verschuiving vormt het fundament voor de rest van dit artikel, waarin we dieper ingaan op de specifieke rollen en de juridische criteria voor opzet en schuld.

Verdeling van verantwoordelijkheid bij AI-incidenten

Om een beter beeld te geven van hoe de verantwoordelijkheid verdeeld kan worden, hebben we een overzicht gemaakt. De tabel hieronder laat zien welke partijen betrokken kunnen zijn en op welke juridische gronden hun aansprakelijkheid mogelijk gebaseerd is.

Betrokken partij Rol in het proces Mogelijke basis voor aansprakelijkheid
Ontwikkelaar/Producent Creëert het AI-systeem en brengt het op de markt. Productaansprakelijkheid, nalatigheid bij ontwerp, onvoldoende testen.
Gebruiker (bedrijf) Implementeert het AI-systeem in bedrijfsprocessen. Functioneel daderschap, onjuist gebruik, negeren van risico's.
Operator (individu) Bedient het AI-systeem direct. Culpa (schuld door onvoorzichtigheid), overtreden van protocollen.
Data-leverancier Verstrekt de data waarmee de AI is getraind. Leveren van gebrekkige, bevooroordeelde of onjuiste data.

Deze tabel is uiteraard een versimpeling. In de praktijk is de toerekening van schuld vaak een complexe puzzel waarbij de rollen en verantwoordelijkheden van meerdere partijen door elkaar lopen.

De mens achter de machine en de strafrechtelijke schuldvraag

Een abstract beeld dat de samenwerking tussen mens en machine visualiseert, met digitale patronen die over een menselijk silhouet heen liggen.
AI en strafrecht: kan een algoritme medeverantwoordelijk zijn? 21

Uiteindelijk ligt de verantwoordelijkheid voor de daden van een AI-systeem dus altijd bij een mens of een organisatie. Maar bij wie precies? Om te bepalen wie strafrechtelijk aansprakelijk is, moeten we de verschillende rollen in de levenscyclus van een algoritme ontleden. De juridische schuldvraag is immers geen bot instrument; het vereist een precieze analyse van wie wat deed, en vooral: wat wist die persoon of had hij moeten weten?

Deze analyse draait om twee centrale begrippen uit ons strafrecht: opzet en culpa. Opzet betekent dat iemand willens en wetens handelt of een bepaald gevolg op de koop toe neemt. Culpa, vaak omschreven als schuld, gaat over verwijtbare onvoorzichtigheid of nalatigheid. In de context van AI en strafrecht krijgen deze klassieke concepten een nieuwe, complexe lading.

De rol van de ontwikkelaar

De ontwikkelaar staat aan de wieg van het algoritme. Deze persoon of dit team schrijft de code, traint het model met data en legt de fundamentele logica van het systeem vast. Juist hier kan de kiem voor latere strafrechtelijke problemen worden gelegd.

Stel je een ontwikkelaar voor die een AI bouwt voor fraudedetectie bij een uitkeringsinstantie. Als hij bewust een dataset gebruikt waarvan hij weet dat deze bepaalde bevolkingsgroepen discrimineert, kan er sprake zijn van opzet. Hij weet dat het systeem onterecht mensen zal benadelen en aanvaardt dat gevolg bewust.

Maar wat als de ontwikkelaar niet bewust discrimineert, maar wel ernstig nalatig is? Denk aan de situatie waarin hij nalaat om de trainingsdata goed te controleren op vooroordelen, terwijl dat wel van hem verwacht mocht worden. Als het systeem daardoor foute beslissingen neemt, kan de ontwikkelaar culpoos (schuldig door onvoorzichtigheid) handelen.

De kernvraag voor de ontwikkelaar is: Heeft u redelijkerwijs alle te voorziene risico's in kaart gebracht en passende maatregelen genomen om schade te voorkomen? Het niet stellen van die vraag kan al de basis voor verwijtbaarheid vormen.

De gebruiker als eindverantwoordelijke

Een perfect ontworpen algoritme kan nog steeds voor onrechtmatige doelen worden ingezet. Hier verschuift de focus naar de gebruiker: de organisatie of persoon die het AI-systeem implementeert. Dit kan een overheidsdienst zijn, een ziekenhuis of een commercieel bedrijf.

De gebruiker heeft een eigen verantwoordelijkheid om te checken of de inzet van een AI-systeem wettelijk mag en ethisch verantwoord is.

  • Opzet bij de gebruiker: Een opsporingsdienst die een voorspellend politiesysteem inzet met het doel om in een specifieke wijk extra te surveilleren, wetende dat dit leidt tot etnisch profileren. Het onrechtmatige gevolg (discriminatie) wordt hier bewust aanvaard.

  • Culpa bij de gebruiker: Een bedrijf dat een AI-recruitmenttool koopt en implementeert zonder te controleren of het systeem is getest op genderbias. Als de tool vervolgens systematisch vrouwelijke kandidaten afwijst, kan het bedrijf verwijtbaar onzorgvuldig hebben gehandeld.

De gebruiker kan zich dus niet zomaar verschuilen achter de techniek. Het argument "het algoritme deed het" zal in een rechtszaal geen standhouden als de organisatie haar zorgplicht heeft verzaakt.

De operator en het directe toezicht

Tot slot is er de operator: de persoon die het AI-systeem dagelijks bedient. Denk aan de radioloog die de output van een medische scan-AI interpreteert of de politieagent die een alert van een slim camerasysteem opvolgt. Hoewel zij het systeem niet hebben ontworpen of geïmplementeerd, hebben ze wel een cruciale rol in het toezicht.

De strafrechtelijke verantwoordelijkheid van de operator komt in beeld wanneer het menselijk toezicht (human oversight) faalt. Als een AI-systeem duidelijke waarschuwingssignalen geeft dat een beslissing mogelijk onjuist is, en de operator deze signalen bewust of uit grove onoplettendheid negeert, kan hij of zij medeverantwoordelijk zijn voor de gevolgen.

De vraag kan een algoritme medeverantwoordelijk zijn? leidt ons dus onvermijdelijk terug naar de mensen. Of het nu de ontwikkelaar, de gebruiker of de operator is, het strafrecht zoekt altijd naar de menselijke handeling of nalatigheid die aan de basis van de schade ligt.

Hoe de EU AI Act het strafrecht beïnvloedt

De discussie over opzet en schuld bij het gebruik van AI blijft niet beperkt tot de rechtszaal. Ook de Europese wetgever heeft een flinke stap gezet om de meest riskante toepassingen van kunstmatige intelligentie aan banden te leggen. De nieuwe EU AI Act schept een juridisch kader dat directe gevolgen heeft voor het Nederlandse strafrecht, met name door bepaalde AI-systemen simpelweg te verbieden.

Je kunt deze wet zien als een verkeerslicht voor AI. Groen licht voor systemen met een laag risico, oranje voor hoog-risicosystemen waar strenge eisen voor gelden, en een permanent rood licht voor AI met een onaanvaardbaar risico. Het zijn juist deze verboden systemen die het strafrecht het meest direct raken. Het gebruik ervan kan op zichzelf al een onrechtmatige daad zijn.

De verboden zone van de AI Act

De EU AI Act trekt een harde lijn bij technologieën die onze fundamentele rechten en democratische waarden ondergraven. De gedachte is simpel: sommige AI-toepassingen zijn zó schadelijk dat ze geen plek mogen hebben in onze samenleving. Hiermee worden de grenzen van wat juridisch mag, flink aangescherpt.

Een paar van de meest relevante verboden praktijken op een rij:

  • Social scoring door overheden: Systemen die burgers een score geven op basis van hun sociale gedrag of persoonlijke kenmerken, wat vervolgens leidt tot een nadelige behandeling.

  • Manipulatieve AI: Technologie die het gedrag van mensen onbewust beïnvloedt en hen aanzet tot schadelijke beslissingen.

  • Biometrische categorisatie: Het afleiden van gevoelige informatie zoals politieke voorkeur, ras of seksuele geaardheid uit biometrische data.

Deze verboden zijn allesbehalve abstract; ze hebben concrete gevolgen. Een overheidsinstantie die een social scoring-systeem zou gebruiken, handelt direct in strijd met de wet. Dat vormt een stevige basis voor strafrechtelijke vervolging van de verantwoordelijken.

De AI Act werkt als een soort preventieve maatregel binnen het strafrecht. Door de gevaarlijkste AI-toepassingen vooraf te verbieden, probeert de wetgever te voorkomen dat de schade überhaupt ontstaat.

Het verbod op voorspellend politiewerk

Een van de meest controversiële en voor het strafrecht relevante verboden, is dat op ‘predictive policing’ op basis van profilering. Dit raakt de kern van de vraag hoe technologie ingezet mag worden bij opsporing.

Vanaf 2 februari 2025 zijn bepaalde AI-systemen met een onaanvaardbaar risico verboden in de Europese Unie. Het verbod op 'risicobeoordeling van strafbare feiten' verbiedt specifiek het gebruik van AI om te voorspellen of iemand een strafbaar feit zal plegen, maar alleen als dit gebeurt op basis van profilering of persoonlijkheidskenmerken. Een systeem dat criminaliteit voorspelt op basis van objectieve locatiegegevens over eerdere inbraken is dus wél toegestaan. Een systeem dat dit doet op basis van iemands afkomst, sociale kring of psychologisch profiel daarentegen niet. Deze grens is cruciaal om discriminatie en stigmatisering tegen te gaan.

In Nederland is de Autoriteit Persoonsgegevens (AP) de waakhond die toezicht houdt op de naleving van deze regels. De AP kan onderzoeken instellen en boetes opleggen, wat de deur openzet voor verdere juridische stappen. Meer over de input van de AP leest u in hun oproep over de verbodsbepalingen van de AI-verordening.

De AI Act is dus veel meer dan een set technische regels. Het is een fundamentele wet die bepaalt welke rol AI mag spelen in onze maatschappij en die duidelijke rode lijnen trekt. Voor ontwikkelaars en gebruikers in het strafrechtelijke domein betekent dit dat de vraag ‘kan een algoritme medeverantwoordelijk zijn?’ wordt voorafgegaan door een nog belangrijkere vraag: ‘Mogen we dit algoritme überhaupt wel gebruiken?’.

De uitdaging van risicoclassificatie in de praktijk

De theorie achter de EU AI Act, met zijn duidelijke risiconiveaus, is één ding. De praktijk blijkt echter een stuk weerbarstiger. In Nederland zien we nu al een spanningsveld ontstaan tussen de wettelijke vereisten en hoe organisaties, en dan met name de overheid, hun algoritmes momenteel indelen.

Dit verschil tussen theorie en praktijk is cruciaal. Een foute risico-inschatting kan namelijk grote gevolgen hebben. Systemen die als ‘hoog-risico’ zouden moeten worden bestempeld, ontlopen dan de strenge eisen voor transparantie, toezicht en datakwaliteit. Dit ondermijnt niet alleen de bescherming van burgers, maar creëert ook juridische risico’s voor de organisaties zelf.

Het Nederlandse Algoritmeregister en de kritiek

Om meer transparantie te bieden, heeft de Nederlandse overheid het Algoritmeregister in het leven geroepen. Hierin moeten overheidsinstanties de algoritmes die zij gebruiken, openbaar maken. Het doel is nobel: burgers en toezichthouders inzicht geven in hoe de overheid geautomatiseerde beslissingen neemt.

Toch klinkt er kritiek. De manier waarop systemen worden geclassificeerd, lijkt niet altijd aan te sluiten bij de strenge definities van de AI Act. Een zorgwekkend signaal is dat overheidsinstanties zelf aangeven verrassend weinig hoog-risico AI te gebruiken.

Uit een analyse blijkt dat slechts ongeveer 3,5% van de systemen van ministeries werd geclassificeerd als hoog-risico. Dit percentage ligt aanzienlijk lager dan de schatting van de Europese Commissie, die uitgaat van circa 15%. Dit roept de vraag op of algoritmes stelselmatig te laag worden ingeschaald. Lees meer over deze bevindingen op njb.nl.

De Monocam van de politie als voorbeeld

Een perfect voorbeeld van deze classificatie-uitdaging is de Monocam van de Nederlandse politie. Dit is een slim camerasysteem dat bestuurders kan detecteren die tijdens het rijden een mobiel apparaat vasthouden. Gezien de context – rechtshandhaving en geautomatiseerde detectie in de openbare ruimte – zou je dit systeem onder de AI Act al snel als ‘hoog-risico’ bestempelen.

Toch gebeurde dit niet. In het Algoritmeregister werd de Monocam gepubliceerd als een ‘hoog-impact algoritme’, een Nederlandse term die niet dezelfde juridische gevolgen heeft als de ‘hoog-risico’ classificatie onder de EU-wetgeving.

Deze casus illustreert perfect het grijze gebied. Door een andere terminologie te gebruiken, worden de strenge wettelijke verplichtingen van de AI Act mogelijk omzeild. Voor de vraag "kan een algoritme medeverantwoordelijk zijn?" is dit relevant: een lagere classificatie betekent minder verplicht toezicht en documentatie, wat bewijsvoering in een strafzaak bemoeilijkt.

De uitdaging ligt dus niet alleen in het bouwen van eerlijke algoritmes, maar ook in het eerlijk en correct classificeren ervan. Volledige transparantie en een juiste risico-inschatting zijn geen bureaucratische formaliteiten; ze zijn essentieel voor democratische controle en het voorkomen van juridische problemen. Organisaties die hier te lichtzinnig mee omgaan, lopen het risico later alsnog geconfronteerd te worden met de juridische gevolgen van een systeem dat achteraf gezien wel degelijk als hoog-risico had moeten worden aangemerkt.

Algoritmes in de opsporing en de Nederlandse DNA-databank

Een wetenschapper die DNA-monsters analyseert in een high-tech laboratorium.
AI en strafrecht: kan een algoritme medeverantwoordelijk zijn? 22

De vraag wie verantwoordelijk is voor wat een AI-systeem doet, klinkt misschien wat abstract. Laten we het daarom concreet maken met een voorbeeld dat al jarenlang deel uitmaakt van de Nederlandse rechtspraktijk: de Nederlandse DNA-databank (NDD). Dit is geen toekomstmuziek, maar een systeem dat dagelijks een cruciale rol speelt in strafrechtelijke opsporing.

De NDD is de perfecte casus. Het laat zien hoe een algoritmisch systeem op grote schaal direct ingrijpt in de levens van mensen. Naarmate de opsporing zwaarder leunt op geautomatiseerde DNA-matches, wordt het steeds prangender om te bepalen wie de eindverantwoordelijkheid draagt als er iets misgaat.

De impact van geautomatiseerde DNA-matches

De NDD is de afgelopen jaren uitgegroeid tot een onmisbaar instrument. Het systeem vergelijkt DNA-profielen van sporen die op een plaats delict zijn gevonden met profielen van bekende personen in de databank. Dit proces is grotendeels geautomatiseerd en levert elke dag weer resultaten op die een strafzaak kunnen maken of breken.

Het succes van de databank is onmiskenbaar. In een recent jaar werden er maar liefst 3.727 matches gevonden tussen sporen en personen; dat zijn er gemiddeld tien per dag. Ook de effectiviteit neemt toe: zo’n 63% van het ingevoerde sporenmateriaal leidt inmiddels tot een match met een persoon. Meer details over deze cijfers zijn te vinden in het jaarbericht van het NFI.

Deze cijfers laten zien dat de invloed van het algoritme enorm is. Een ‘match’ is vaak het startschot voor een diepgaand onderzoek dat zich volledig richt op één specifieke verdachte.

Een DNA-match is geen onfeilbaar bewijs, maar wel een extreem krachtige aanwijzing die de koers van een onderzoek volledig kan bepalen. De betrouwbaarheid van het algoritme dat die matches produceert, is daarmee van fundamenteel juridisch en maatschappelijk belang.

Foutmarges en juridische gevolgen

Hoewel de technologie indrukwekkend betrouwbaar is, bestaat een perfect systeem niet. De kans op een valse match is extreem klein, maar is nooit nul. Zo’n fout kan allerlei oorzaken hebben:

  • Menselijk handelen: Een verkeerd gelabeld monster of contaminatie in het laboratorium.

  • Technische imperfecties: Onvolledige DNA-profielen of toevalstreffers, bijvoorbeeld bij verre familieleden.

  • Algoritmische interpretatie: De manier waarop het algoritme de statistische waarschijnlijkheid van een match berekent.

Stel je voor dat een onterechte match leidt tot de aanhouding en vervolging van een onschuldig persoon. Dan komt de vraag naar verantwoordelijkheid ineens heel dichtbij. Ligt de schuld dan enkel bij de laborant die een monster verwisselde? Of kan ook de ontwikkelaar van het matchingsalgoritme worden aangesproken als blijkt dat het systeem bekende zwaktes had die niet goed waren afgedekt?

De casus van de NDD maakt pijnlijk duidelijk dat de vraag ‘kan een algoritme medeverantwoordelijk zijn?’ geen theoretische discussie is. Het is een actuele kwestie die raakt aan de fundamenten van onze rechtsstaat. Hoe meer we vertrouwen op geautomatiseerde systemen in het strafrecht, hoe zorgvuldiger we de verantwoordelijkheid moeten beleggen voor de momenten dat het misgaat.

Hoe kunt u juridische risico’s met AI minimaliseren?

Een schaal van justitie balanceert een menselijk brein aan de ene kant en een digitaal brein aan de andere kant, wat de juridische afwegingen rond AI symboliseert.
AI en strafrecht: kan een algoritme medeverantwoordelijk zijn? 23

We hebben de vraag “kan een algoritme medeverantwoordelijk zijn?” uitgebreid behandeld. Het antwoord is helder: nee, de software zelf kan niet worden vervolgd. De strafrechtelijke verantwoordelijkheid ligt altijd bij de mensen en organisaties die erachter zitten, zoals de ontwikkelaar, gebruiker of operator. De EU AI Act trekt bovendien duidelijke grenzen voor wat überhaupt is toegestaan.

Nu de theorie duidelijk is, rijst de praktische vraag: hoe kunt u als organisatie de juridische risico’s tot een minimum beperken? Het ontwikkelen of inzetten van AI hoeft geen juridisch mijnenveld te zijn, mits u een proactieve en verantwoorde aanpak kiest. Uiteindelijk draait het allemaal om controle, transparantie en het maken van weloverwogen keuzes.

De volgende stappen zijn geen garantie tegen incidenten, maar ze verkleinen de kans op strafrechtelijke aansprakelijkheid aanzienlijk. Ze laten zien dat u uw zorgplicht serieus neemt en niet blindelings op de technologie vertrouwt.

Zorg altijd voor menselijk toezicht

De allerbelangrijkste stap is het waarborgen van betekenisvol menselijk toezicht, ook wel human oversight genoemd. Een AI-systeem mag nooit de uiteindelijke beslissing nemen in situaties met grote gevolgen, zoals in de context van het strafrecht. Een mens moet altijd de eindverantwoordelijkheid dragen en de output van een algoritme kunnen overrulen.

Dit betekent dat er een persoon moet zijn die de context begrijpt, de aanbeveling van de AI kritisch kan beoordelen en de autoriteit heeft om een andere beslissing te nemen. Zonder dit cruciale vangnet wordt het risico dat fouten aan de organisatie worden toegerekend vele malen groter.

"Een algoritme kan een krachtig hulpmiddel zijn, maar het mag nooit meer zijn dan een adviseur. De uiteindelijke beslissing en de verantwoordelijkheid daarvoor moeten altijd in menselijke handen blijven."

Praktische aanbevelingen voor uw organisatie

Om de risico's verder in te dammen, kunt u een reeks concrete maatregelen nemen. Deze stappen helpen niet alleen om aan de wetgeving te voldoen, maar bouwen ook vertrouwen op bij uw klanten en de maatschappij.

  • Documenteer ontwerpkeuzes grondig: Leg nauwkeurig vast waarom bepaalde keuzes zijn gemaakt tijdens de ontwikkeling. Waarom is voor een specifiek model gekozen? Welke data is gebruikt en hoe is deze gecontroleerd op mogelijke bias? Goede documentatie is cruciaal voor de bewijsvoering als er iets misgaat.

  • Voer een risicoanalyse uit: Breng de potentiële risico’s in kaart voordat u een AI-systeem implementeert. Denk aan de kans op discriminatie, privacyschendingen of simpelweg onjuiste beslissingen. Classificeer het systeem ook volgens de risicocategorieën van de EU AI Act.

  • Garandeer transparantie: Wees open over waar en hoe u algoritmes inzet. Maak duidelijk hoe beslissingen tot stand komen en zorg dat de logica van het systeem (tot op zekere hoogte) uitlegbaar is voor de betrokkenen.

  • Train uw personeel: Zorg ervoor dat de operators die met de AI werken, goed zijn opgeleid. Zij moeten de beperkingen van het systeem kennen en weten hoe ze moeten handelen bij onverwachte, onlogische of ongewenste output.

Door deze stappen te volgen, creëert u een raamwerk voor verantwoord AI-gebruik. U toont aan dat u de risico's begrijpt en er proactief naar handelt, wat essentieel is om juridische problemen te voorkomen.

Veelgestelde vragen over AI en strafrecht

Om de complexe materie van AI in het strafrecht verder uit te diepen, beantwoorden we hier een paar veelgestelde vragen. Zie deze antwoorden als een praktische samenvatting van de belangrijkste punten uit dit artikel.

Wie is eindverantwoordelijk als een AI-systeem de fout in gaat?

Laat één ding duidelijk zijn: de eindverantwoordelijkheid ligt nooit bij het AI-systeem zelf. Een algoritme heeft juridisch gezien geen wil, geen bewustzijn en kan dus geen opzet of schuld hebben. De verantwoordelijkheid wordt altijd gezocht bij de mensen achter de technologie.

De rechter zal van geval tot geval moeten bepalen bij wie de juridische blaam precies ligt. Dit kan zijn bij:

  • De ontwikkelaar, bijvoorbeeld als er sprake is van een rammelend ontwerp of als bekende risico’s, zoals discriminatie, bewust zijn genegeerd.

  • De gebruiker (een organisatie), bijvoorbeeld door een systeem verkeerd te implementeren of voor een doel in te zetten waarvoor het niet bedoeld is.

  • De operator (een individu), als deze persoon een overduidelijk foute aanbeveling van het systeem klakkeloos heeft overgenomen zonder kritisch na te denken.

Het zijn dus altijd de specifieke omstandigheden van de zaak die bepalen wie er uiteindelijk strafrechtelijk aansprakelijk is.

Wat verandert de EU AI Act concreet voor de Nederlandse politie?

De EU AI Act heeft directe en vergaande gevolgen voor hoe opsporingsdiensten zoals de politie AI mogen inzetten. De wet trekt duidelijke lijnen in het zand, met als belangrijkste doel het beschermen van onze fundamentele rechten.

Een van de meest ingrijpende veranderingen is het verbod op bepaalde AI-toepassingen. Denk aan systemen voor ‘social scoring’ door de overheid of het voorspellen van misdrijven puur op basis van profilering of persoonlijke kenmerken. Dat soort systemen zijn straks simpelweg taboe.

Voor AI die als ‘hoog-risico’ wordt gezien, zoals gezichtsherkenning in de openbare ruimte, gelden bovendien extreem strenge eisen. Organisaties moeten zorgen voor volledige transparantie, menselijk toezicht en een hoge datakwaliteit. Dit dwingt de politie om veel zorgvuldiger na te denken over de implementatie van nieuwe technologieën.

De wet werkt eigenlijk als een preventief kader. De meest riskante AI-toepassingen worden verboden of moeten aan zulke strenge voorwaarden voldoen dat de kans op misbruik en fouten aanzienlijk kleiner wordt.

Kan ik als softwareontwikkelaar persoonlijk aansprakelijk zijn?

Ja, in theorie kan dat zeker, al zal het in de praktijk niet zo’n vaart lopen. Persoonlijke strafrechtelijke aansprakelijkheid voor een ontwikkelaar is mogelijk, maar het hangt sterk af van hoe nauw je betrokken was en hoe verwijtbaar je handelen is geweest.

Persoonlijke aansprakelijkheid komt vooral in beeld als er sprake is van opzet. Bijvoorbeeld als je willens en wetens een systeem bouwt dat onrechtmatige handelingen mogelijk maakt, zoals een algoritme dat bewust discrimineert.

Ook bij grove nalatigheid (culpa) kan aansprakelijkheid een rol spelen. Als je bijvoorbeeld een systeem op de markt brengt met ernstige, voorspelbare veiligheidsrisico’s en daar niets aan doet, kun je daar persoonlijk op worden aangesproken. Naast het strafrecht, waar AI een steeds grotere rol speelt, beïnvloedt kunstmatige intelligentie ook veel andere domeinen. Ontdek bijvoorbeeld de impact van AI op SEO en hoe het de wereld van zoekmachineoptimalisatie verandert.

Privacy Settings
We use cookies to enhance your experience while using our website. If you are using our Services via a browser you can restrict, block or remove cookies through your web browser settings. We also use content and scripts from third parties that may use tracking technologies. You can selectively provide your consent below to allow such third party embeds. For complete information about the cookies we use, data we collect and how we process them, please check our Privacy Policy
Youtube
Consent to display content from - Youtube
Vimeo
Consent to display content from - Vimeo
Google Maps
Consent to display content from - Google
Spotify
Consent to display content from - Spotify
Sound Cloud
Consent to display content from - Sound

facebook lawandmore.nl   instagram lawandmore.nl   linkedin lawandmore.nl   twitter lawandmore.nl