facebook lawandmore.nl   instagram lawandmore.nl   linkedin lawandmore.nl   twitter lawandmore.nl

Afspraak

Law & More Logo

Articles Tagged with

AVG en AI

featured-image-053e36da-3751-477f-a1d7-d1a9ad03fdf2.jpg
Nieuws

AI als leidinggevende: mag uw algoritme uw prestatie beoordelen?

Mag een algoritme uw werk beoordelen? Die vraag wordt steeds relevanter nu AI de werkvloer in rap tempo verovert. Het korte antwoord is nee, een AI-systeem mag niet zomaar zelfstandig beslissingen nemen met grote gevolgen voor uw carrière. De Algemene verordening gegevensbescherming (AVG) verbiedt dit in principe, tenzij er sprake is van betekenisvolle menselijke tussenkomst.

De opkomst van AI als leidinggevende

Een modern kantoor waar een manager en werknemer data op een scherm analyseren
AI als leidinggevende: mag uw algoritme uw prestatie beoordelen? 10

Stel u eens voor: uw functioneringsgesprek wordt niet voorbereid door uw manager, maar door een algoritme. Dit systeem analyseert uw productiviteit, e-mailverkeer en zelfs uw bijdragen in vergaderingen. Op basis daarvan rolt er een score uit die uw bonus, promotiekansen of zelfs de verlenging van uw contract bepaalt.

Dit scenario is geen verre toekomstmuziek meer. Steeds meer bedrijven experimenteren met AI als leidinggevende, of in ieder geval als een krachtige assistent daarvan. De technologie belooft objectiviteit en efficiëntie, maar roept tegelijkertijd belangrijke juridische en ethische vragen op.

De realiteit op de Nederlandse werkvloer

De adoptie van AI in Nederland versnelt aanzienlijk. Recent onderzoek toont aan dat het dagelijks AI-gebruik onder hoogopgeleide professionals verdubbelde van 8% naar 16%. Wat echter opvalt, is de kloof tussen management en medewerkers: 78% van de leidinggevenden gebruikt AI, tegenover slechts 47% van de medewerkers.

Dit suggereert dat algoritmes voor prestatiebeoordelingen mogelijk veel sneller worden omarmd door leidinggevenden dan door de werknemers die erdoor worden beoordeeld. Meer inzicht in deze ontwikkelingen op de Nederlandse werkvloer vindt u in dit onderzoek naar AI-adoptie op consultancy.nl.

Wat staat er op het spel?

De inzet van "AI als leidinggevende" raakt de kern van de arbeidsrelatie. Het gaat hier niet alleen om techniek, maar om fundamentele rechten en plichten. Een algoritme kan immers niet de context, persoonlijke omstandigheden of de nuances van menselijke samenwerking begrijpen.

De centrale vraag is niet óf AI een rol mag spelen, maar hóé die rol wordt ingevuld. Een algoritme mag een manager ondersteunen met data, maar mag nooit de menselijke beslisser volledig vervangen bij belangrijke carrièrebesluiten.

In deze gids duiken we dieper in de juridische kaders die uw rechten beschermen. We verkennen de grenzen van de AVG, de plichten van uw werkgever en de impact van de nieuwe Europese AI Act. U leert welke stappen u kunt ondernemen en waar u op moet letten wanneer een algoritme uw prestaties beoordeelt.

Hieronder vindt u een overzicht van de belangrijkste juridische principes die de basis vormen voor het gebruik van AI bij personeelsbeoordelingen.

Kernprincipes voor AI-beoordelingen op de werkvloer

Deze tabel vat de juridische basisregels samen die bepalen wanneer een AI-beoordeling is toegestaan, met een focus op de AVG en de noodzaak van menselijk toezicht.

Juridisch Kader Kernvereiste Praktische Implicatie voor Werknemers
AVG – Art. 22 Verbod op volledig geautomatiseerde besluitvorming met aanzienlijke gevolgen. Een algoritme mag u niet ontslaan, degraderen of een bonus weigeren zonder dat een mens de definitieve beslissing neemt.
AVG – Transparantie De werkgever moet duidelijk informeren over het gebruik van AI-systemen. U heeft het recht om te weten dat een AI-systeem wordt gebruikt, hoe het werkt en welke data het analyseert.
Goed Werkgeverschap De werkgever moet zorgvuldig en redelijk handelen. Een beoordeling moet eerlijk zijn; blindelings vertrouwen op een algoritme is dat zelden. Er moet ruimte zijn voor context en uw kant van het verhaal.
Menselijke Tussenkomst Een mens moet de output van het AI-systeem daadwerkelijk kunnen beïnvloeden. Een 'vinkje zetten' door een manager is niet genoeg. Er moet een serieuze, inhoudelijke controle plaatsvinden voordat er een besluit wordt genomen.

Deze principes vormen de basis van uw bescherming en geven aan dat technologie een hulpmiddel moet zijn, geen vervanging voor menselijk oordeel en redelijkheid op de werkvloer.

De grenzen van de AVG bij geautomatiseerde besluiten

Een juridisch document met een vergrootglas dat focust op de kleine lettertjes
AI als leidinggevende: mag uw algoritme uw prestatie beoordelen? 11

Wanneer we het hebben over een AI als leidinggevende, is het cruciaal om te begrijpen waar de harde juridische grenzen liggen. De belangrijkste bescherming voor werknemers in Europa vinden we in de Algemene verordening gegevensbescherming (AVG). De kern van die bescherming is Artikel 22, een bepaling die vaak wordt omschreven als het ‘recht op een menselijke blik’.

Dit artikel is glashelder: je hebt als individu het recht om niet te worden onderworpen aan een besluit dat uitsluitend is gebaseerd op geautomatiseerde verwerking. Dat geldt specifiek voor besluiten die juridische gevolgen hebben of je op een andere manier in aanzienlijke mate treffen.

Wat betekent 'uitsluitend geautomatiseerd'?

De term 'uitsluitend geautomatiseerd' is hier de sleutel. Het gaat om beslissingen die door een computer of algoritme worden genomen zonder enige vorm van betekenisvolle menselijke tussenkomst. Als een manager simpelweg op 'akkoord' klikt zonder de output van het systeem echt te controleren of te begrijpen, wordt dit nog steeds gezien als een uitsluitend geautomatiseerd besluit.

Stel je een systeem voor dat op basis van verkoopcijfers, inlogtijden en e-mailanalyses automatisch een lijst genereert van medewerkers die voor ontslag in aanmerking komen. Neemt de directie deze lijst zonder inhoudelijke controle over, dan is er sprake van een verboden praktijk. De menselijke actie is dan niets meer dan een formaliteit.

Besluiten met aanzienlijke gevolgen

Het verbod uit Artikel 22 geldt niet voor elk geautomatiseerd proces, maar alleen voor die met 'aanzienlijke gevolgen'. Op de werkvloer is dit een breed begrip. Denk aan beslissingen die een grote impact hebben op iemands carrière, financiële situatie of rechtspositie.

Een paar duidelijke voorbeelden:

  • Ontslag of het niet verlengen van een contract: De meest ingrijpende beslissing in een arbeidsrelatie.

  • Het toekennen of weigeren van een promotie: Een besluit dat directe gevolgen heeft voor salaris en loopbaanontwikkeling.

  • De beoordeling van prestaties die leidt tot een bonus of salarisverhoging (of het uitblijven daarvan): Dit raakt de werknemer direct in zijn portemonnee.

  • Het toewijzen van belangrijke projecten of juist routinematige taken: Iets wat iemands professionele groei flink kan beïnvloeden.

Een algoritme mag dus prima data analyseren en trends signaleren ter ondersteuning, maar het mag nooit de uiteindelijke, doorslaggevende stem hebben in dit soort cruciale personeelsbeslissingen.

Het cruciale concept van menselijke tussenkomst

De enige manier waarop je als werkgever AI rechtmatig kunt gebruiken bij belangrijke beoordelingen, is door te zorgen voor betekenisvolle menselijke tussenkomst. Dit is veel meer dan een formaliteit; het vereist een actieve en inhoudelijke rol voor een menselijke beslisser.

Wat houdt dat in de praktijk in? Een manager moet:

  1. De bevoegdheid hebben: De persoon moet de autoriteit hebben om het besluit van het algoritme te negeren, aan te passen of volledig naast zich neer te leggen.

  2. De kennis hebben: Hij of zij moet de output van het systeem begrijpen, de gebruikte criteria kennen en de context van de werknemer meewegen.

  3. Een eigen oordeel vellen: De uiteindelijke beslissing moet gebaseerd zijn op een eigen, onafhankelijke afweging van alle relevante factoren, waarin de aanbeveling van de AI slechts één onderdeel is.

Stel, een AI-systeem signaleert dat een medewerker ondermaats presteert op basis van productiviteitsdata. Betekenisvolle menselijke tussenkomst betekent dat de leidinggevende deze output controleert, een gesprek aangaat met de medewerker om de context te begrijpen – denk aan persoonlijke omstandigheden of technische problemen – en pas daarna een eigen, weloverwogen besluit neemt over de vervolgstappen. Zo blijft de AI een hulpmiddel en wordt het geen onpersoonlijke rechter.

De zorgplicht van uw werkgever in het AI-tijdperk

Een close-up van een AI-robotarm die een schaakstuk verplaatst op een bord
AI als leidinggevende: mag uw algoritme uw prestatie beoordelen? 12

Naast de harde regels uit de AVG, rust er op uw werkgever nog een andere, minstens zo belangrijke plicht: de norm van 'goed werkgeverschap' uit het Nederlandse arbeidsrecht. Dit is een open norm die simpelweg eist dat een werkgever zich redelijk en zorgvuldig gedraagt tegenover zijn personeel. De komst van een AI als leidinggevende stelt deze zorgplicht flink op scherp.

Een algoritme mag dan wel efficiënt zijn, het mist de menselijke maat. Goed werkgeverschap vereist dat een werkgever verder kijkt dan alleen kille data. Het betekent dat er altijd ruimte moet zijn voor context, persoonlijke omstandigheden en een eerlijk proces.

Transparantie als eerste vereiste

De meest fundamentele plicht die uit goed werkgeverschap voortvloeit, is transparantie. U heeft het recht om te weten wanneer een algoritme wordt ingezet om uw prestaties te beoordelen of beslissingen over u te nemen. Dit mag een werkgever niet stiekem doen.

Deze plicht tot transparantie gaat verder dan een simpele mededeling. Uw werkgever moet u op een begrijpelijke manier kunnen uitleggen:

  • Dat er een AI-systeem wordt gebruikt voor bijvoorbeeld prestatiebeoordeling.

  • Welke data van u wordt verzameld en geanalyseerd (denk aan e-mails, productiviteitscijfers of inlogtijden).

  • Wat de belangrijkste factoren zijn waarop het algoritme zijn oordeel of aanbeveling baseert.

U hoeft geen datawetenschapper te zijn, maar de logica achter het systeem moet u in grote lijnen kunnen volgen. Zonder deze basisinformatie kunt u zich immers onmogelijk verweren tegen een onjuiste of oneerlijke beoordeling.

De adoptie van AI in het Nederlandse bedrijfsleven laat overigens een duidelijke tweedeling zien. Hoewel 49% van de bedrijven AI inzet, zijn het vooral grote organisaties (19%) die het diep in hun kernprocessen integreren. Dat is veel meer dan het Europese gemiddelde van 3%. Juist deze grotere bedrijven implementeren sneller geavanceerde AI voor personeelsbeoordeling, wat het belang van transparantie alleen maar onderstreept. Meer over deze ontwikkelingen in AI-adoptie leest u bij Rocking Robots.

Het gevaar van algoritmische discriminatie

Een van de grootste risico's van AI als leidinggevende is ingebakken vooringenomenheid, ook wel ‘bias’ genoemd. Een algoritme is namelijk zo eerlijk als de data waarmee het wordt getraind. Als die data historische vooroordelen bevatten, zal de AI deze patronen overnemen en soms zelfs versterken.

Stel, in het verleden kregen vooral mannen promotie binnen een bedrijf. Een AI die met deze historische data is getraind, kan 'leren' dat mannelijke eigenschappen een voorspeller zijn van succes. Het systeem zal dan onbewust mannelijke kandidaten voortrekken, zelfs als de intentie was om juist objectiever te zijn.

Een werkgever heeft een actieve plicht om te waken voor discriminatie. Dit betekent dat hij moet onderzoeken of het AI-systeem geen groepen benadeelt op basis van bijvoorbeeld geslacht, leeftijd, afkomst of het hebben van een parttime contract.

Blindelings varen op de output van een 'black box'-algoritme is in strijd met goed werkgeverschap. De werkgever blijft altijd eindverantwoordelijk voor een eerlijk en non-discriminatoir personeelsbeleid.

De verplichte risicoanalyse (DPIA)

Voordat een werkgever überhaupt een AI-systeem mag inzetten dat op grote schaal personeelsgegevens analyseert, is hij vaak wettelijk verplicht een Data Protection Impact Assessment (DPIA) uit te voeren. Dit is een instrument uit de AVG om vooraf de privacyrisico's van een nieuwe gegevensverwerking in kaart te brengen en te beoordelen.

Een DPIA is verplicht wanneer de verwerking waarschijnlijk een hoog privacyrisico met zich meebrengt. Het systematisch en grootschalig monitoren van werknemersprestaties met AI valt hier vrijwel altijd onder.

Tijdens zo'n DPIA moet de werkgever zorgvuldig nadenken over vragen als:

  • Noodzaak: Is het gebruik van dit AI-systeem echt nodig en proportioneel? Staan de doelen in verhouding tot de inbreuk op de privacy?

  • Risico's: Wat zijn de risico's voor de rechten en vrijheden van de werknemers? Denk aan het risico op foute beslissingen, discriminatie of een gevoel van constante surveillance.

  • Maatregelen: Welke maatregelen worden er genomen om deze risico's te beperken? Denk aan anonimisering, beveiliging en de garantie van menselijke tussenkomst.

Het uitvoeren van een DPIA is geen papieren tijger. Het dwingt de werkgever om kritisch naar het eigen proces te kijken en de belangen van de werknemers serieus mee te wegen. De ondernemingsraad speelt hier bovendien een belangrijke controlerende rol. Deze verplichte risicoanalyse geeft u een krachtig handvat om uw werkgever aan te spreken op zijn verantwoordelijkheden.

Uw rechten als werknemer en hoe u ze gebruikt

Een medewerker die vol vertrouwen documenten doorneemt, symbool voor het kennen van je rechten
AI als leidinggevende: mag uw algoritme uw prestatie beoordelen? 13

Wanneer een 'robotbaas' over uw schouder meekijkt, kan dat een gevoel van machteloosheid geven. Gelukkig staat u niet met lege handen. De wet, en dan met name de AVG, geeft u concrete rechten om uzelf te wapenen en een eerlijk proces te waarborgen. Het is cruciaal dat u weet welke instrumenten u in handen heeft als een algoritme uw prestaties beoordeelt.

Deze rechten zijn er niet alleen op papier; ze bieden praktische handvatten om de controle te houden over uw eigen data en de beslissingen die daaruit voortkomen. Door er actief gebruik van te maken, dwingt u transparantie en zorgvuldigheid af bij uw werkgever.

Uw recht op inzage en uitleg

Alles begint met inzicht. U heeft het fundamentele recht om te weten welke persoonsgegevens uw werkgever over u verzamelt en verwerkt. Als een AI-systeem uw functioneren monitort, houdt dit in dat u recht heeft op inzage in de data die het systeem over u bijhoudt.

Dit recht gaat verder dan enkel de ruwe data. U mag ook vragen waarom deze gegevens worden verzameld en hoe ze precies worden gebruikt in het beoordelingsproces. Uw werkgever moet u kunnen uitleggen welke logica het algoritme volgt en op basis van welke criteria het tot een bepaalde aanbeveling of conclusie komt.

U heeft het recht om te begrijpen hoe een algoritmisch besluit over u tot stand komt. Uw werkgever moet de 'black box' openen en u zinvolle informatie geven over de logica achter de beslissing.

Het sentiment onder Nederlandse werknemers over AI is overigens gemengd. Slechts 11% is er volledig van overtuigd dat AI positief zal uitpakken. Tegelijkertijd vreest maar liefst 55% dat men door AI niet meer zelf hoeft na te denken. Deze vrees voor het verlies van menselijk oordeel onderstreept hoe belangrijk transparantie is, zeker omdat 60% aangeeft niet te willen dat AI persoonlijk contact met collega's vervangt. Meer hierover leest u in de inzichten in de houding van Nederlanders tegenover AI op Accountant.nl.

Correctie van onjuiste data

Maar wat als de data die het systeem gebruikt simpelweg niet klopt? Een algoritme is onverbiddelijk: ‘garbage in, garbage out’. Een verkeerd genoteerd verkoopcijfer of een foutieve registratie van uw aanwezigheid kan direct leiden tot een onterecht negatieve beoordeling.

Hier komt uw recht op rectificatie om de hoek kijken. Wanneer u ontdekt dat de gegevens die de AI over u heeft onjuist of onvolledig zijn, kunt u eisen dat uw werkgever deze informatie corrigeert. Dit is een krachtig middel om de basis van een algoritmische beoordeling recht te zetten.

De rol van de ondernemingsraad

U staat er bovendien niet alleen voor. Binnen organisaties met vijftig of meer werknemers speelt de ondernemingsraad (OR) een cruciale rol. De invoering of een belangrijke wijziging van een personeelsvolgsysteem, waar een AI-beoordelingssysteem onder valt, vereist de instemming van de OR.

Dit geeft de OR de mogelijkheid om:

  • Kritische vragen te stellen: De OR kan details opvragen over de werking van het algoritme, de gebruikte data en de waarborgen tegen mogelijke vooroordelen.

  • Voorwaarden te stellen: De OR kan eisen dat er duidelijke regels komen over transparantie, menselijke tussenkomst en een heldere bezwaarprocedure.

  • De invoering tegen te houden: Als de waarborgen onvoldoende zijn, kan de OR weigeren in te stemmen met de implementatie.

De OR is uw collectieve stem en een belangrijke bondgenoot in het bewaken van een eerlijk en transparant proces.

Stappen die u kunt ondernemen

Heeft u het vermoeden dat een AI-beslissing over uw functioneren onterecht is of dat uw rechten worden geschonden? Wacht dan niet af. U kunt concrete actie ondernemen.

  1. Ga het gesprek aan: Vraag uw leidinggevende of HR-afdeling om opheldering over de beslissing en de data waarop deze is gebaseerd. Verwijs hierbij naar uw recht op inzage en uitleg.

  2. Maak formeel bezwaar: Leg schriftelijk vast waarom u het niet eens bent met de beoordeling en verzoek om een heroverweging door een menselijke beslisser.

  3. Dien een klacht in: Als een gesprek of bezwaar niets oplevert, kunt u een klacht indienen bij de Autoriteit Persoonsgegevens (AP). De AP kan de situatie onderzoeken en handhavend optreden.

Door deze stappen te volgen, dwingt u uw werkgever om verantwoording af te leggen. Zo zorgt u ervoor dat een AI als leidinggevende een hulpmiddel blijft en geen oncontroleerbare rechter wordt.

De impact van de nieuwe Europese AI Act

De AVG legt de basis, maar aan de horizon doemt een nieuwe, specifieke wet op die de spelregels voor kunstmatige intelligentie fundamenteel gaat veranderen: de Europese AI Act. Deze wetgeving staat niet los van de AVG, maar bouwt erop voort met een veel scherper en gedetailleerder kader, juist voor AI op de werkvloer.

Vergis u niet, dit is geen abstract toekomstplan. De AI Act zal de manier waarop werkgevers algoritmes mogen inzetten voor personeelsbeheer drastisch hervormen. Voor u als werknemer betekent dit een flinke versterking van uw rechten wanneer een computer uw functioneren beoordeelt.

AI voor HR wordt ‘hoogrisico’

De kern van de AI Act is een indeling op basis van risico. Systemen worden in categorieën geplaatst, van minimaal tot onacceptabel. En hier zit de crux voor de arbeidsrelatie: AI-systemen die worden gebruikt voor personeelsbeheer, werving en selectie, en beslissingen over promotie of ontslag vallen expliciet in de categorie ‘hoogrisico’.

Die classificatie is veel meer dan een stempel. Het activeert een waslijst aan strenge verplichtingen waaraan een werkgever moet voldoen, nog voordat zo’n systeem überhaupt de werkvloer op mag.

De boodschap van de AI Act is duidelijk: als een algoritme een grote impact kan hebben op iemands carrière, dan moet dat systeem voldoen aan de allerhoogste eisen van betrouwbaarheid, transparantie en eerlijkheid.

Strengere eisen voor werkgevers

Voor deze hoogrisico AI-systemen legt de AI Act de bewijslast vierkant bij de werkgever. Waar de AVG vooral kijkt naar hoe persoonsgegevens worden verwerkt, zoomt de AI Act in op het algoritme zelf. Werkgevers moeten straks kunnen aantonen dat hun systemen aan loeizware criteria voldoen. Denk aan:

  • Datakwaliteit: De data waarmee het model is getraind, moet representatief zijn en vrij van discriminerende vooroordelen. Waar kwam de data vandaan en is deze wel eerlijk?

  • Transparantie: Er moeten heldere instructies zijn voor de manager die het systeem gebruikt, maar ook duidelijke informatie voor de werknemer die ermee beoordeeld wordt.

  • Menselijk toezicht: Er moet altijd een mens aan de knoppen zitten die een computerbeslissing kan terugdraaien. Een ‘nee’ van het systeem mag nooit het laatste woord zijn.

  • Robuustheid en nauwkeurigheid: Het systeem moet technisch deugen en keer op keer betrouwbare, accurate resultaten laten zien.

Deze eisen gaan een stuk verder dan wat we nu kennen. Een werkgever kan niet meer zomaar een softwarepakket kopen en gebruiken. Er komt een actieve plicht om de werking en de eerlijkheid van het systeem continu te controleren.

Vergelijking AVG versus EU AI Act voor HR-systemen

Hoewel de AVG en de AI Act elkaar overlappen, legt de AI Act de lat aanzienlijk hoger voor HR-technologie. De onderstaande tabel zet de belangrijkste verschillen op een rij.

Onderwerp AVG (Huidig) EU AI Act (Toekomstig)
Focus Bescherming van persoonsgegevens en privacy. Veiligheid, betrouwbaarheid en fundamentele rechten met betrekking tot het AI-systeem zelf.
Menselijke Tussenkomst Vereist ‘betekenisvolle menselijke tussenkomst’ bij belangrijke besluiten. Stelt concrete eisen aan de effectiviteit van menselijk toezicht gedurende de gehele levenscyclus van de AI.
Transparantie Recht op informatie over de logica achter een besluit. Verplichting tot gedetailleerde technische documentatie en heldere gebruiksinstructies voor de leidinggevende.
Bias & Discriminatie Verbod op discriminatie en de plicht dit te voorkomen. Specifieke eisen aan de kwaliteit en representativiteit van trainingsdata om bias actief te detecteren en mitigeren.
Toezicht Handhaving door nationale privacytoezichthouders zoals de Autoriteit Persoonsgegevens. Oprichting van een Europese AI Board en versterkt toezicht op hoogrisico-systemen.

De AI Act is dus een logische en noodzakelijke volgende stap. De wet erkent dat wanneer een algoritme uw prestaties beoordeelt, er extra waarborgen nodig zijn die verder gaan dan alleen databescherming. Voor werknemers betekent dit straks nog sterkere argumenten om een eerlijk en transparant proces af te dwingen.

Checklist voor een eerlijke AI-implementatie

Een AI als leidinggevende introduceren is geen kwestie van simpelweg software installeren. Het vraagt om een zorgvuldige, stapsgewijze aanpak, niet alleen om aan de wet te voldoen, maar ook om het vertrouwen van uw medewerkers te winnen en te behouden.

Deze checklist is bedoeld als een praktisch stappenplan voor werkgevers. Tegelijkertijd biedt het een toetsingskader voor werknemers en ondernemingsraden, waarmee zij kunnen nagaan of het proces wel eerlijk en juridisch correct verloopt. Deze stappen zijn essentieel om te zorgen dat het algoritme een hulpmiddel blijft en geen ondoorzichtige, onpersoonlijke rechter wordt.

Stap 1: Voer een Data Protection Impact Assessment (DPIA) uit

Voordat u ook maar één regel code implementeert, is een DPIA verplicht. Dit is een formele risicoanalyse die de privacy-impact van het AI-systeem in kaart brengt. Het dwingt u om kritisch na te denken over de noodzaak, proportionaliteit en de mogelijke gevaren voor werknemers, zoals het risico op discriminatie of onjuiste beoordelingen.

Het doel van de DPIA is niet om een project af te keuren. Het is een instrument om risico's vroegtijdig te identificeren en passende maatregelen te nemen. Denk aan het minimaliseren van verzamelde data en het inbouwen van technische en organisatorische waarborgen.

Stap 2: Zorg voor volledige transparantie en informatie

Informeer uw medewerkers proactief, helder en volledig. Heimelijkheid is funest voor het draagvlak en bovendien in strijd met de AVG. Uw communicatie moet de volgende vragen beantwoorden:

  • Waarom wordt dit systeem geïntroduceerd? Leg het doel en de beoogde voordelen duidelijk uit.

  • Welke data worden precies verzameld en geanalyseerd? Wees specifiek over de bronnen (e-mails, productiviteitstools, etc.).

  • Hoe werkt het algoritme in grote lijnen? Geef inzicht in de belangrijkste factoren die de uitkomst beïnvloeden, zonder in al te technische details te verzanden.

  • Wat gebeurt er met de output? Maak klip-en-klaar dat het een aanbeveling is en geen definitief, onherroepelijk besluit.

Goede communicatie is geen eenmalige mededeling. Het is een doorlopend proces waarbij medewerkers vragen kunnen stellen en feedback kunnen geven. Dit bouwt vertrouwen en helpt misverstanden te voorkomen.

Stap 3: Leg de menselijke tussenkomst vast

De eis van ‘betekenisvolle menselijke tussenkomst’ moet in de praktijk worden verankerd. Leg daarom in een intern protocol vast hoe leidinggevenden de output van de AI moeten gebruiken. Dit protocol moet de volgende elementen bevatten:

  • Controleplicht: De manager moet de data en de aanbeveling van de AI controleren op juistheid en volledigheid.

  • Contextuele afweging: De manager weegt altijd aanvullende context mee die het systeem niet kent, zoals persoonlijke omstandigheden, teamdynamiek of externe factoren.

  • Onafhankelijk oordeel: De manager moet de bevoegdheid hebben om de aanbeveling van de AI te negeren en moet een eigen, gemotiveerde beslissing nemen.

Stap 4: Train leidinggevenden en stel een bezwaarprocedure op

Leidinggevenden moeten getraind worden om de AI correct te gebruiken. Ze moeten de beperkingen van het systeem begrijpen en weten hoe ze bias kunnen herkennen. Daarnaast is een laagdrempelige en duidelijke bezwaarprocedure onmisbaar. Medewerkers moeten weten waar ze terechtkunnen als ze het oneens zijn met een (door AI ondersteunde) beoordeling en erop kunnen vertrouwen dat hun bezwaar serieus wordt behandeld door een mens.

Stap 5: Betrek de ondernemingsraad (OR) tijdig

De ondernemingsraad heeft instemmingsrecht bij de invoering van een personeelsvolgsysteem, en daar valt een AI-systeem al snel onder. Betrek de OR daarom vanaf het allereerste begin bij het proces. Dit is niet alleen een wettelijke verplichting, maar ook een strategische zet. De OR kan waardevolle input leveren en helpt bij het creëren van draagvlak onder het personeel. Door samen op te trekken, waarborgt u een implementatie die zowel technologisch als sociaal goed wordt ontvangen.

Veelgestelde vragen over AI als uw leidinggevende

Dat het idee van een AI als leidinggevende vragen oproept, is logisch. Zowel bij werknemers als bij werkgevers leven er veel vragen over rechten, plichten en hoe dit in de praktijk werkt. Duidelijkheid hierover is cruciaal om vertrouwen op de werkvloer te creëren.

Hieronder geven we heldere, praktische antwoorden op de meest prangende vragen. Zo vertalen we de complexe juridische regels naar concrete situaties uit de dagelijkse praktijk.

Kan ik ontslagen worden op basis van een AI-beoordeling?

Nee, u kunt niet uitsluitend op basis van een AI-beoordeling worden ontslagen. De AVG is hier heel duidelijk over: een besluit met zulke grote gevolgen vereist altijd ‘betekenisvolle menselijke tussenkomst’.

Een manager moet de output van de AI controleren, de context meewegen en uiteindelijk een eigen, onafhankelijke beslissing nemen. Een AI kan dus wel een signaal afgeven of data aanleveren die een rol speelt, maar mag nooit de uiteindelijke beslisser zijn in een ontslagprocedure.

Wat betekent 'betekenisvolle menselijke tussenkomst' precies?

Dit is een cruciaal begrip. Het betekent dat een mens de bevoegdheid én de kennis moet hebben om het geautomatiseerde besluit te negeren of aan te passen. Het is dus veel meer dan even een vinkje zetten. De persoon in kwestie moet de redenering van de AI kunnen doorgronden, de juistheid ervan controleren en op basis daarvan een eigen, geïnformeerd oordeel vellen.

Een 'stempelmachine' is niet voldoende. De menselijke controleur moet daadwerkelijk de autoriteit en het inzicht hebben om de aanbeveling van het algoritme naast zich neer te leggen als de context daarom vraagt.

Mijn werkgever introduceert een AI-systeem, wat kan de OR doen?

De ondernemingsraad (OR) heeft hier een belangrijke stem in. Een AI-beoordelingssysteem valt vrijwel altijd onder de noemer ‘personeelsvolgsysteem’, en bij de invoering of wijziging daarvan heeft de OR instemmingsrecht.

De OR kan dus voorwaarden stellen aan de transparantie, privacy en eerlijkheid van het systeem voordat het überhaupt geïmplementeerd mag worden. Ze spelen een sleutelrol in het beschermen van de rechten van werknemers en kunnen een implementatie zelfs tegenhouden als de waarborgen onvoldoende zijn.

Heb ik recht op uitleg over hoe het algoritme werkt?

Jazeker, u heeft recht op transparantie. Uw werkgever is verplicht u te informeren over het gebruik van het systeem en u inzicht te geven in de logica erachter.

U hoeft geen technische expert te worden, maar u moet wel kunnen begrijpen op basis van welke belangrijkste factoren het systeem tot een bepaalde aanbeveling komt. Die informatie is immers essentieel om een beslissing te kunnen begrijpen en, indien nodig, aan te vechten.

Privacy Settings
We use cookies to enhance your experience while using our website. If you are using our Services via a browser you can restrict, block or remove cookies through your web browser settings. We also use content and scripts from third parties that may use tracking technologies. You can selectively provide your consent below to allow such third party embeds. For complete information about the cookies we use, data we collect and how we process them, please check our Privacy Policy
Youtube
Consent to display content from - Youtube
Vimeo
Consent to display content from - Vimeo
Google Maps
Consent to display content from - Google
Spotify
Consent to display content from - Spotify
Sound Cloud
Consent to display content from - Sound

facebook lawandmore.nl   instagram lawandmore.nl   linkedin lawandmore.nl   twitter lawandmore.nl