Stel je eens voor: jouw bedrijf rolt een geavanceerd AI-systeem uit voor kredietbeoordelingen. In theorie een enorme stap vooruit. In de praktijk pakt het anders uit: het systeem neemt onverwacht discriminerende beslissingen, met flinke financiële en reputatieschade als gevolg. De vraag is dan niet óf er iemand verantwoordelijk is, maar wie de streep trekt bij bestuurdersaansprakelijkheid. Uiteindelijk ligt de eindverantwoordelijkheid altijd bij het bestuur, dat moet kunnen aantonen zorgvuldig te hebben gehandeld.
De onvermijdelijke vraag bij AI-automatisering
Kunstmatige intelligentie is allang geen sciencefiction meer. Het is een operationele realiteit die processen verbetert en nieuwe deuren opent. Van logistiek tot de financiële wereld, AI-systemen nemen beslissingen die voorheen puur mensenwerk waren.
Deze technologische sprong voorwaarts brengt wel een fundamentele juridische uitdaging met zich mee. Wanneer een autonoom systeem een kostbare fout maakt, wijzen de vingers al snel naar de top van de organisatie: het bestuur. De bredere context van de digitale transformatie van een bedrijf vormt het speelveld waarop deze nieuwe aansprakelijkheidsvraagstukken zich afspelen.
Van abstract risico naar concrete verantwoordelijkheid
De kern van het probleem? Bestuurdersaansprakelijkheid krijgt er een nieuwe, complexe laag bij. Het is niet meer genoeg om alleen de financiën en de dagelijkse operatie in de gaten te houden. De verantwoordelijkheid strekt zich nu ook uit tot het doorgronden en beheersen van de risico's die kleven aan de gebruikte technologie.
Dit roept een paar cruciale vragen op waar elke bestuurder een antwoord op moet hebben:
- Weten we wel hoe onze AI-systemen tot hun beslissingen komen?
- Hebben we wel voldoende toezicht en controle ingebouwd?
- Zijn we voorbereid op de gevolgen als het toch een keer misgaat?
Dit artikel duikt diep in de kern van bestuurdersaansprakelijkheid in het AI-tijdperk. We vertalen complexe juridische concepten naar de realiteit van de bestuurskamer.
Een gids voor modern leiderschap
De vraag "wie trekt de streep?" is dus geen abstract juridisch vraagstuk meer, maar een cruciaal onderdeel van modern en verantwoordelijk leiderschap. Deze nieuwe realiteit negeren is geen optie. Bestuurders die AI-risico’s niet proactief aanpakken, stellen niet alleen hun organisatie bloot aan juridische claims, maar riskeren ook persoonlijke aansprakelijkheid.
In dit uitgebreide artikel krijg je niet alleen inzicht in de juridische kaders, zoals de EU AI Act. Je krijgt ook concrete handvatten en een praktische checklist om je organisatie te wapenen tegen deze groeiende risico's en zo de continuïteit van je onderneming te waarborgen.
De zorgplicht van bestuurders in het AI-tijdperk
Met de opkomst van AI krijgt de traditionele zorgplicht van een bestuurder een compleet nieuwe lading. De basis blijft overeind: u handelt in het belang van de vennootschap en u moet een ernstig verwijt kunnen voorkomen. Maar wat betekent dit concreet als een algoritme cruciale beslissingen neemt?
Vergelijk het met een kapitein op een hypermodern schip. Hij hoeft niet elke schroef van de motor te doorgronden of de software van het navigatiesysteem te programmeren. Toch is hij wel eindverantwoordelijk voor een veilige vaart. Dit houdt in dat hij moet begrijpen wat de technologie doet, waar de risico’s zitten en wanneer hij het roer moet overnemen.
Deze analogie past perfect op de directiekamer. De zorgplicht, vastgelegd in artikel 2:9 van het Burgerlijk Wetboek, omvat nu ook de technologische keuzes die u als bestuurder maakt. U kunt zich niet langer verschuilen achter de woorden: "de techniek regelt het".
Van controle naar een bredere verantwoordelijkheid
In discussies over aansprakelijkheid hoor je vaak het ‘controleargument’: wie de controle over een systeem heeft, is verantwoordelijk voor wat eruit komt. Op het eerste gezicht klinkt dit logisch, maar bij complexe AI-systemen schiet deze redenering vaak tekort.
De Nederlandse rechtspraak erkent steeds meer dat bestuurders aansprakelijk kunnen zijn voor onvoldoende risicomanagement bij de inzet van AI. De Hoge Raad heeft het controle-element weliswaar meegewogen – bijvoorbeeld wanneer een operator een AI-systeem bestuurt, net als een autobestuurder – maar het is geen absolute voorwaarde voor aansprakelijkheid. Het is slechts één van de puzzelstukjes. Meer achtergrond over de complexiteit van aansprakelijkheid bij AI en de visie van de Hoge Raad leest u hier.
Een rechter beantwoordt de vraag naar bestuurdersaansprakelijkheid dus niet door simpelweg te kijken wie op de knop drukte. Er vindt een veel bredere, integrale afweging plaats.
De kernvraag is niet zozeer 'wie had de controle?', maar 'heeft het bestuur gehandeld zoals van een redelijk bekwaam en redelijk handelend bestuurder in deze omstandigheden mocht worden verwacht?'.
De factoren die een rechter meeweegt
Bij het beoordelen van bestuurdersaansprakelijkheid in een AI-context legt een rechter verschillende elementen naast elkaar. Het gaat om het totaalplaatje om te bepalen of er sprake is van ernstig verwijtbaar handelen. De volgende factoren spelen daarbij een cruciale rol:
- Voorzienbaarheid van de schade: Was het risico op een specifieke fout of schadelijke uitkomst redelijkerwijs te voorzien? Een bestuur moet vooruitdenken en anticiperen op wat er mis kan gaan.
- Proactieve maatregelen: Welke stappen heeft het bestuur genomen om risico's in kaart te brengen, te analyseren en te beperken? Denk aan het uitvoeren van een impact assessment of het instellen van een ethische commissie.
- Kennis en informatiepositie: Heeft het bestuur zich goed laten informeren over de werking, maar ook de beperkingen, van het AI-systeem? Het bewust negeren van waarschuwingssignalen wordt zwaar aangerekend.
- Due diligence bij selectie: Is er een zorgvuldig proces gevolgd bij het kiezen van het AI-systeem en de leverancier? Dit omvat het toetsen van de betrouwbaarheid, transparantie en datakwaliteit van het model.
- Menselijk toezicht: Was er een effectief mechanisme voor 'human-in-the-loop' of 'human-in-command'? Voor cruciale beslissingen moet menselijke interventie altijd mogelijk en geborgd zijn.
De verschuivende norm van zorgvuldigheid
Wat gisteren nog een geavanceerde voorzorgsmaatregel was, kan morgen zomaar de standaard zijn. De lat voor wat als ‘zorgvuldig handelen’ geldt, beweegt constant mee met de technologische vooruitgang en maatschappelijke verwachtingen.
Dit betekent dat afwachten geen optie is. Een bestuur kan niet stilzitten tot er duidelijke wetgeving of jurisprudentie is. De zorgplicht vereist een voortdurende en proactieve houding ten aanzien van technologische risico’s.
Het gaat erom dat u als bestuurder kunt aantonen dat u een weloverwogen en gedocumenteerd besluitvormingsproces heeft doorlopen. Uw verantwoordelijkheid is niet het voorkomen van elke denkbare fout – dat is onmogelijk. Uw plicht is het creëren van een organisatorisch en technisch raamwerk waarin risico’s op een verantwoorde manier worden beheerst. De grens wordt dus niet getrokken door de technologie, maar door de kwaliteit van uw bestuurlijke proces.
Navigeren door de nieuwe EU AI Act
De Europese AI Act is geen ver-van-je-bedshow meer. Het is een concrete realiteit die direct ingrijpt op hoe u als Nederlandse bestuurder uw bedrijf runt. Deze wetgeving introduceert een aanpak gebaseerd op risico's, en dat verandert fundamenteel hoe organisaties AI ontwikkelen, inkopen en inzetten. Simpelweg negeren is geen optie; de regels naleven wordt een essentieel onderdeel van uw zorgplicht.
In de kern dwingt de AI Act u als bestuurder om een cruciale vraag te beantwoorden: welk risico vormt dit specifieke AI-systeem voor de rechten en de veiligheid van mensen? Het antwoord op die vraag bepaalt direct welke verplichtingen voor uw organisatie gelden. Dit vraagt om een proactieve houding. U moet verder kijken dan alleen de functionaliteit van een systeem en ook de maatschappelijke impact ervan meewegen.
De risicopiramide van de AI Act
De wetgeving deelt AI-toepassingen in vier verschillende risiconiveaus in, elk met zijn eigen, strikte regels. Deze indeling is de hoeksteen van de wet en bepaalt hoe zwaar de verplichtingen en het toezicht zijn.
Hieronder vindt u een overzicht van de vier risiconiveaus die de AI Act definieert, met voorbeelden en de belangrijkste implicaties voor het bestuur.
Risicocategorieën binnen de EU AI Act
| Risiconiveau | Voorbeelden van AI-systemen | Belangrijkste verplichting voor de organisatie |
|---|---|---|
| Onaanvaardbaar risico | Social scoring door overheden, speelgoed dat aanzet tot gevaarlijk gedrag. | Volledig verboden. Gebruik of ontwikkeling is niet toegestaan. |
| Hoog risico | Wervingssoftware, kredietbeoordeling, medische apparatuur, AI in kritieke infrastructuur. | Strenge eisen aan datakwaliteit, transparantie, menselijk toezicht en beveiliging. |
| Beperkt risico | Chatbots, systemen die deepfakes genereren. | Transparantieverplichting: gebruikers moeten weten dat ze met AI interacteren. |
| Minimaal/geen risico | Spamfilters, AI in videogames. | Geen extra verplichtingen onder de AI Act, naast de bestaande algemene wetgeving. |
Deze classificatie maakt duidelijk dat niet elke AI-toepassing over één kam wordt geschoren. De zwaarste lasten liggen logischerwijs bij de systemen met de grootste potentiële impact op mens en maatschappij.
Wat betekent dit voor de bestuarskamer?
De impact van de AI Act reikt veel verder dan de IT-afdeling; het is een strategisch bestuursvraagstuk. De Europese regels creëren een compleet nieuw kader waarbinnen bestuurders hun verantwoordelijkheden moeten invullen. De focus ligt, zoals u ziet, vooral op de hoogrisicosystemen – en die komen juist ook in de financiële sector veel voor.
Als bestuurder moet u zorgen voor duidelijke verantwoordelijkheden voor het toezicht op AI. U moet processen inrichten om risico's te beheersen. Dit dwingt tot nauwe samenwerking tussen ondernemers, softwareleveranciers en gebruikers om helderheid te scheppen over wie waarvoor verantwoordelijk is.
De wet stelt concrete eisen aan hoogrisicosystemen, die u direct kunt vertalen naar kritische vragen voor uw team:
- Datakwaliteit: Met welke data is ons model getraind? Is deze data wel representatief en vrij van vooroordelen die tot discriminatie kunnen leiden?
- Transparantie: Kunnen we uitleggen hoe het systeem tot een bepaalde beslissing komt? Is er duidelijke documentatie voor gebruikers en toezichthouders?
- Menselijk toezicht: Is er een effectief ‘human-in-the-loop’ mechanisme? Kan een mens een beslissing van het systeem overrulen, en is duidelijk wie daarvoor verantwoordelijk is?
- Robuustheid en beveiliging: Hoe weerbaar is het systeem tegen cyberaanvallen of manipulatie?
Compliance met de AI Act is geen vinkje op een checklist. Het is een fundamenteel onderdeel van de zorgplicht die van u als bestuurder wordt verwacht. Het kunnen aantonen van een zorgvuldig proces wordt cruciaal bij het afdekken van bestuurdersaansprakelijkheid.
In dit complexe landschap van AI-regulering is het, naast de EU AI Act, ook essentieel om de implicaties van de Digital Operational Resilience Act (DORA) te begrijpen, zeker voor bedrijven in de financiële sector. Deze wetten vullen elkaar aan en vormen samen een robuust kader voor technologische governance in Europa. Het niet voldoen aan deze verplichtingen is simpelweg geen optie meer; de boetes kunnen oplopen tot miljoenen euro’s of een aanzienlijk percentage van de wereldwijde jaaromzet.
Omgaan met het ‘black box’ dilemma
Een van de lastigste vraagstukken bij het gebruik van AI is zonder twijfel het ‘black box’ dilemma. Een slim systeem neemt een besluit – het wijst een sollicitant af, signaleert fraude – maar niemand kan precies uitleggen hoe het tot die conclusie is gekomen. De logica zit als het ware verstopt in een ondoorzichtige doos van algoritmes.
Dit fenomeen is een direct en heel concreet risico voor u als bestuurder. Want als er schade ontstaat door zo’n ondoorzichtige beslissing, hoe toont u dan aan dat u zorgvuldig hebt gehandeld? Zonder inzicht in het ‘waarom’ wordt het bijna onmogelijk om te bewijzen dat er een deugdelijk proces aan ten grondslag lag.
Juridisch gezien kan dit vervelende gevolgen hebben. Het kan bijvoorbeeld leiden tot een omkering van de bewijslast. Normaal gesproken moet de tegenpartij aantonen dat u als bestuurder een fout heeft gemaakt. Maar als de besluitvorming niet te volgen is, kan een rechter oordelen dat het aan ú is om te bewijzen dat de AI-beslissing wél goed was. En dat is een bijna onmogelijke taak.
Van passieve acceptatie naar actief management
Het black box-probleem is echter geen natuurwet die u maar moet accepteren. Het is een risico dat u kunt, en moet, managen. De sleutel ligt in het proactief creëren van transparantie, al voordat u een systeem in gebruik neemt. Dit vraagt om een bewuste strategie die verdergaat dan simpelweg software inkopen.
U moet uzelf en uw team de vraag stellen: accepteren we systemen waarvan we de werking niet doorgronden? Voor niet-kritische processen is het antwoord misschien ‘ja’. Maar bij beslissingen met grote impact, zoals in HR of bij financiële beoordelingen, vormt een ondoorzichtig model een onacceptabel risico voor de bestuurdersaansprakelijkheid.
Strategieën om de black box te doorbreken
Om grip te krijgen op dit complexe probleem, zijn er verschillende concrete strategieën die u kunt toepassen. Deze maatregelen helpen niet alleen om juridische risico’s te verkleinen, maar vergroten ook het vertrouwen in de technologie binnen uw organisatie.
Een effectieve aanpak rust op drie pijlers:
- Kies voor uitlegbare modellen (Explainable AI): Niet alle AI is een ‘black box’. Er bestaan modellen die juist zijn ontworpen om hun redeneringen wél inzichtelijk te maken. Geef bij de selectie van systemen de voorkeur aan deze ‘Explainable AI’ (XAI) oplossingen, zelfs als ze misschien iets minder scoren dan een complexer, ondoorzichtig model.
- Stel harde contractuele eisen: Leg in contracten met leveranciers vast dat zij verplicht zijn om inzicht te geven in de beslislogica van hun systemen. Eis transparantie over de gebruikte data, de belangrijkste factoren in een beslissing en de mogelijkheid om resultaten te auditen. Zonder deze clausules geeft u de controle uit handen.
- Implementeer robuuste auditprocessen: Zorg voor een intern of extern team dat de uitkomsten van het AI-systeem periodiek kan controleren en valideren. Dit omvat niet alleen technische audits, maar ook ethische toetsing om te controleren op ongewenste vooroordelen of discriminatie. Documenteer deze audits zorgvuldig; ze zijn uw bewijslast.
Het doel is niet om van elke bestuurder een datawetenschapper te maken. Het doel is een governance-structuur op te zetten waarin transparantie een harde eis is, geen vrijblijvende wens.
Door deze stappen te zetten, verschuift u van een reactieve naar een proactieve houding. U bouwt een verdedigingslinie op die aantoont dat u het black box-risico serieus neemt en er actief op stuurt. Dit is essentieel om aan te tonen dat u weloverwogen en zorgvuldig hebt gehandeld – de kern van het afdekken van bestuurdersaansprakelijkheid bij AI-beslissingen.
Praktische stappen voor risicobeheersing
Theoretische kaders zijn nuttig, maar het echte werk begint pas als je ze vertaalt naar de dagelijkse praktijk. Het managen van AI-risico’s is veel meer dan een juridisch vinkje zetten; het is de kern van modern ondernemen in de 21e eeuw. Een proactieve aanpak is dan ook geen luxe, maar pure noodzaak om als bestuurder je aansprakelijkheid te beperken.
Het is cruciaal om een gestructureerd en vooral praktisch plan te hebben. Dat plan moet verder kijken dan alleen de techniek. Juist de organisatorische en menselijke kant van de zaak zijn bepalend voor verantwoorde innovatie.
Bouw een multidisciplinair AI-governanceteam
De allereerste en misschien wel belangrijkste stap: breek de silo's af. AI is geen feestje van de IT-afdeling. De risico's en kansen raken juridische zaken, HR, financiën, operations en ethiek. Een team met mensen uit al deze hoeken is daarom onmisbaar.
Dit team wordt het centrale zenuwstelsel voor alles wat met AI te maken heeft binnen de organisatie. De juiste samenstelling is de sleutel tot succes:
- Juridische expertise: Voor de vertaling van wetgeving zoals de AI Act en het doorlichten van contractuele risico’s.
- Technisch inzicht: Datawetenschappers of AI-specialisten die de modellen en hun beperkingen echt begrijpen.
- Ethische toetsing: Iemand die de maatschappelijke en ethische gevolgen van AI-beslissingen kan wegen.
- Operationele kennis: Managers die weten hoe AI-systemen in de praktijk uitpakken.
- Bestuurlijke vertegenwoordiging: Een directielid of C-level manager die de brug slaat naar de bedrijfsstrategie.
Dit team stelt het interne beleid op, houdt toezicht op de invoering en adviseert het bestuur.
Een effectief governanceteam is geen praatclub, maar een actiegericht orgaan dat de brug slaat tussen technologische mogelijkheden en bestuurlijke verantwoordelijkheid.
De snelle opkomst van AI stelt het Nederlandse bedrijfsleven voor een enorme uitdaging. Terwijl de technologie in hoog tempo wordt omarmd, lopen de juridische kaders voor aansprakelijkheid vaak achter. Dit plaatst bestuurders in een spagaat: innoveren is een must, maar voorzichtigheid is geboden. Het wordt er niet makkelijker op dat maar liefst 44 procent van de Nederlandse bedrijven kampt met een tekort aan gekwalificeerde security-experts, wat een goede risicoanalyse van AI-systemen bemoeilijkt. Lees meer over de impact van AI op de Nederlandse klantenservice en de uitdagingen die daarbij komen kijken.
Voer een AI Impact Assessment uit
Voordat je überhaupt overweegt een AI-systeem te implementeren, is een AI Impact Assessment (AIA) een absolute must. Zie het als een milieueffectrapportage voor een bouwproject: je brengt vooraf alle mogelijke gevolgen in kaart, zowel de positieve als de negatieve.
Een AIA dwingt je om systematisch na te denken over vragen als:
- Doel en noodzaak: Welk probleem lossen we hiermee op? En is AI wel echt de beste oplossing?
- Datakwaliteit en bias: Welke data gebruiken we? Loopt we het risico op discriminatie door vooroordelen in de dataset?
- Impact op stakeholders: Wat betekent dit systeem voor klanten, medewerkers en andere betrokkenen?
- Uitlegbaarheid: Hoe transparant is het model? Kunnen we uitleggen hoe het tot een beslissing komt?
- Beveiliging: Hoe beschermen we het systeem tegen manipulatie en datalekken?
Het goed documenteren van dit proces is goud waard. Mocht er ooit discussie ontstaan over een beslissing van het AI-systeem, dan kun je met de AIA aantonen dat je een zorgvuldige en weloverwogen afweging hebt gemaakt.
Implementeer 'human-in-the-loop' protocollen
Een AI-systeem volledig de vrije hand geven is, zeker bij beslissingen met een hoog risico, onverstandig en juridisch gevaarlijk. Het principe van ‘human-in-the-loop’ is hier leidend. Simpel gezegd: er moet altijd een mens zijn die kan controleren en corrigeren.
Dit gaat verder dan een vaag idee van ‘toezicht houden’. Het vraagt om concrete protocollen:
- Duidelijke escalatiepaden: Wie is verantwoordelijk als het AI-systeem een vreemde of potentieel schadelijke aanbeveling doet?
- Interventierechten: Medewerkers moeten de bevoegdheid én de training hebben om een AI-beslissing terug te draaien.
- Periodieke audits: Controleer regelmatig of het menselijk toezicht in de praktijk ook echt werkt.
Vergeet tot slot de rol van verzekeringen niet. Een goede bestuurdersaansprakelijkheidsverzekering (D&O-polis) is cruciaal, maar lees wel de kleine lettertjes. Dekt je huidige polis expliciet de risico's die voortkomen uit technologische besluitvorming? Zo niet, dan is het hoog tijd om met je verzekeraar te praten over een aanvullende dekking die is toegesneden op AI-risico's.
Hieronder vindt u een praktische checklist die u kunt gebruiken om de eerste stappen te zetten in het managen van AI-risico's binnen uw organisatie.
Checklist voor AI Risicomanagement
| Actiepunt | Status (Te doen / In uitvoering / Voltooid) | Verantwoordelijke afdeling |
|---|---|---|
| Stel een multidisciplinair AI-governanceteam samen | Directie / HR / Juridische Zaken | |
| Ontwikkel en documenteer een intern AI-beleid | Governanceteam | |
| Voer een AI Impact Assessment (AIA) uit voor elk nieuw AI-initiatief | Projectteam / Governanceteam | |
| Implementeer 'human-in-the-loop' protocollen voor hoog-risico systemen | IT / Operationele afdelingen | |
| Organiseer trainingen voor medewerkers over AI-risico's en protocollen | HR / L&D | |
| Controleer en update leverancierscontracten op AI-aansprakelijkheid | Juridische Zaken / Inkoop | |
| Evalueer de dekking van de bestuurdersaansprakelijkheidsverzekering (D&O) | Financiën / Juridische Zaken | |
| Plan periodieke audits van AI-systemen en governance-processen | Interne Audit / Governanceteam |
Deze checklist is een startpunt. Door deze acties systematisch op te pakken, bouwt u een stevig fundament voor verantwoorde AI-implementatie en minimaliseert u de risico's op bestuurdersaansprakelijkheid.
U bent de regisseur van verantwoorde innovatie
De kern van de zaak is helder: de vraag is niet langer óf u als bestuurder verantwoordelijk bent voor beslissingen van een AI-systeem. De vraag is hoe u die verantwoordelijkheid concreet vormgeeft. Waar de grens van bestuurdersaansprakelijkheid precies ligt, wordt bepaald door proactief, geïnformeerd en weloverwogen bestuur. Het is een misvatting dat u de technische details van algoritmes tot op de bodem moet doorgronden.
Uw rol is niet die van een programmeur. Zie uzelf eerder als de regisseur van een complex toneelstuk. U hoeft niet zelf de lichtknoppen te bedienen, maar u moet wel precies weten wanneer de lichten aan moeten en waarom.
Goed bestuur als strategische troef
Als regisseur stelt u de juiste, kritische vragen. U brengt de juiste experts samen aan tafel en bouwt aan een bedrijfscultuur waarin verantwoorde innovatie de standaard is. De risico's die AI met zich meebrengt simpelweg negeren, is geen optie meer en kan worden aangemerkt als onbehoorlijk bestuur.
Maar een doordachte aanpak is veel meer dan alleen een juridisch schild. Het levert een aanzienlijk strategisch voordeel op.
Een robuust AI-governance raamwerk is geen kostenpost, maar een investering in vertrouwen. Hiermee versterkt u de relatie met klanten, medewerkers en toezichthouders – essentieel voor duurzaam succes op de lange termijn.
Van risico naar kans
Door proactief te handelen, verandert u een potentieel juridisch risico in een kans om uw organisatie te onderscheiden. U bouwt aan een reputatie van betrouwbaarheid en zorgvuldigheid, juist in een tijd waarin technologie vaak met de nodige argwaan wordt bekeken. Dit verbetert niet alleen uw concurrentiepositie, maar maakt uw bedrijf ook aantrekkelijker voor talent en investeerders.
Gebruik de inzichten en de checklist uit dit artikel dan ook als een praktisch startpunt. Ze vormen de bouwstenen voor een solide AI-governance structuur in uw organisatie. Daarmee trekt u de lijn tussen roekeloze implementatie en verantwoorde, toekomstbestendige innovatie.
Veelgestelde vragen
De stap naar besluitvorming met AI roept logischerwijs vragen op in de bestuurskamer. De technologie is complex, de juridische kaders zijn nieuw en dat zorgt voor onzekerheid. Hieronder geven we antwoord op een paar van de meest prangende vragen die bestuurders hebben over hun aansprakelijkheid in het tijdperk van kunstmatige intelligentie.
Deze antwoorden zijn bedoeld als praktische handvatten en geven helderheid over de kern van bestuurdersaansprakelijkheid bij AI-beslissingen. Ze helpen u om de risico’s beter in te schatten en de juiste stappen te zetten.
Ben ik ook aansprakelijk als de AI extern is ingekocht?
Jazeker. Uw eigen zorgplicht als bestuurder blijft volledig overeind. Hoewel u in sommige gevallen schade kunt verhalen op de softwareleverancier, bent en blijft u eindverantwoordelijk voor de selectie, de implementatie en het toezicht op de technologie binnen uw organisatie.
U kunt de verantwoordelijkheid dus niet zomaar ‘over de schutting gooien’. Een grondige due diligence bij het kiezen van een leverancier is essentieel. Net zo belangrijk zijn waterdichte contracten over transparantie en aansprakelijkheid. Uiteindelijk blijft de verantwoordelijkheid voor een deugdelijk proces bij het bestuur liggen.
Dekt mijn D&O-verzekering ook AI-risico’s?
Ga daar zeker niet zomaar vanuit. De standaard bestuurdersaansprakelijkheidsverzekeringen (de zogeheten D&O-polissen) bevatten vaak specifieke uitsluitingen voor technologische of cybergerelateerde risico's. Het is daarom cruciaal om uw huidige polisvoorwaarden heel nauwkeurig te (laten) controleren.
Ga proactief het gesprek aan met uw verzekeraar. Vraag expliciet of de dekking volstaat voor de specifieke risico’s die AI met zich meebrengt, zoals schade door discriminerende algoritmes of onverklaarbare 'black box'-beslissingen.
In veel gevallen zult u zien dat een aanvulling op de polis of een meer gespecialiseerde cyberverzekering nodig is om deze nieuwe risico’s goed af te dekken.
Wanneer moet onze organisatie voldoen aan de EU AI Act?
De EU AI Act wordt in fasen ingevoerd. Dat betekent dat er verschillende deadlines gelden voor verschillende soorten AI-systemen. De regels voor verboden AI-systemen gaan bijvoorbeeld al zes maanden na de officiële inwerkingtreding van start.
Voor de categorie hoogrisicosystemen, die voor de meeste bedrijven het meest relevant is, hebben organisaties meer tijd. Afhankelijk van het specifieke systeem is er een overgangsperiode van 24 tot 36 maanden.
Wachten is echter geen slimme strategie. Om op tijd compliant te zijn en aansprakelijkheidsrisico's te vermijden, moeten bestuurders nu al aan de slag. Begin met het inventariseren van alle AI-systemen die u gebruikt, classificeer ze volgens de risiconiveaus van de wet en richt de benodigde governance- en complianceprocessen in.