Deepfakes zijn levensechte nepvideo’s die met kunstmatige intelligentie worden gemaakt.
Deze technologische ontwikkelingen maken het mogelijk om beelden en stemmen zo na te bootsen dat ze nauwelijks van echt te onderscheiden zijn.
Criminelen gebruiken deze techniek steeds vaker voor oplichting, fraude en het verspreiden van desinformatie.
Wanneer u slachtoffer wordt van een deepfake of zorgen heeft over het misbruik van uw beeltenis, is het belangrijk om te weten welke juridische bescherming u heeft.
Bestaande wetten rond fraude, privacy en portretrecht zijn van toepassing op deepfakes.
Dit artikel legt uit hoe het Nederlandse rechtssysteem omgaat met nepvideo’s.
U leest over de juridische kaders die van toepassing zijn, de praktische problemen bij handhaving en wat de toekomst brengt voor wetgeving rond deze nieuwe technologie.
Wat zijn deepfakes en hoe ontstaan nepvideo’s?
Deepfakes zijn nepvideo’s, foto’s of geluidsopnames die met kunstmatige intelligentie zijn gemaakt en nauwelijks van echt te onderscheiden zijn.
De technologie maakt het mogelijk om gezichten te verwisselen, stemmen na te bootsen en mensen dingen te laten zeggen of doen die ze nooit in werkelijkheid hebben gedaan.
Definitie en werking van deepfake-technologie
Deepfake is een verzamelnaam voor synthetische media die door AI-software worden gecreëerd.
De technologie gebruikt algoritmes die beelden analyseren en verschillende eigenschappen meten, zoals belichting, kleur, schaduwen, beweging en gezichtsuitdrukkingen.
Het maken van een levensechte nepvideo begint met het verzamelen van bronmateriaal.
De AI bestudeert foto’s en video’s van een persoon om patronen te herkennen.
Vervolgens kan de software het gezicht van die persoon op een ander lichaam plaatsen of de persoon volledig nieuwe dingen laten zeggen.
Dankzij technologische ontwikkelingen wordt deepfaketechnologie steeds toegankelijker.
Je hebt geen dure apparatuur of specialistische kennis meer nodig.
Software is vaak gratis beschikbaar en kan op een gewone computer draaien.
Voorbeelden van deepfakes in Nederland
In Nederland duiken deepfakes steeds vaker op met bekende Nederlanders.
Voetballer Virgil van Dijk en nieuwspresentatrices zijn al misbruikt in nepvideo’s waarin ze producten aanprijzen of uitspraken doen die ze nooit hebben gedaan.
Deze nepvideo’s verschijnen vaak op sociale media zoals TikTok, in WhatsApp-groepen of op je tijdlijn.
Criminelen gebruiken ze voor oplichting door bekende Nederlanders nep-beleggingstips te laten geven.
Ook politici worden getroffen door deepfakes.
Je ziet dan video’s waarin zij controversiële uitspraken lijken te doen.
Deze nepvideo’s verspreiden zich snel en kunnen schade aanrichten voordat duidelijk wordt dat ze nep zijn.
Toepassingen en gevaren van nepvideo’s
Deepfakes hebben creatieve toepassingen in entertainment en marketing.
Je ziet ze in films, commercials en als grappige content op sociale media.
Sommige bedrijven gebruiken de technologie voor trainingsvideos of presentaties.
De gevaren zijn echter aanzienlijk.
Criminelen zetten deepfakes in voor identiteitsfraude en social engineering.
Ze maken bijvoorbeeld voice clones om familieleden op te lichten of creëren nepvideo’s voor afpersing.
Een verontrustende toepassing is het maken van pornografische deepfakes zonder toestemming.
Hierbij wordt jouw gezicht op dat van een pornoacteur of -actrice geplaatst.
Dit wordt ook wel deepnudes genoemd en veroorzaakt grote emotionele schade bij slachtoffers.
De technologie wordt ook gebruikt om desinformatie te verspreiden.
Nepvideo’s kunnen je politieke opvattingen beïnvloeden of schade toebrengen aan iemands reputatie.
Het wordt steeds moeilijker om echt van nep te onderscheiden.
Deepfakes binnen het Nederlandse strafrecht
Nederland heeft geen specifieke wet tegen deepfakes, maar bestaande strafwetten kunnen wel worden toegepast op strafwaardige handelingen met nepvideo’s.
De rechtspraak zoekt aansluiting bij artikelen over oplichting, smaad en laster om daders te vervolgen.
Zijn deepfakes strafbaar volgens de wet?
Het maken of verspreiden van een deepfake is niet automatisch strafbaar in Nederland.
De wetgeving vereist dat een handeling duidelijk in de wet staat omschreven voordat deze strafbaar is.
Dit heet het legaliteitsbeginsel.
Of een deepfake strafbaar is, hangt af van hoe je deze gebruikt.
Gebruik je een nepvideo om iemand op te lichten of diens reputatie te schaden?
Dan kan dit onder bestaande strafbepalingen vallen.
De rechtspraak heeft nog maar weinig veroordelingen voor deepfakes gepubliceerd.
Dit maakt het lastig om precies te voorspellen hoe rechters met deze gevallen omgaan.
Toepassing van smaad, laster en oplichting
Oplichting is vaak de meest voor de hand liggende strafbaarstelling bij frauduleuze deepfakes.
Je pleegt oplichting als je iemand door listige kunstgrepen of het aannemen van een valse hoedanigheid beweegt tot het afgeven van geld of gegevens.
Een deepfake waarin premier Dick Schoof een investeringsplatform promoot, kan bijvoorbeeld als oplichting worden gezien.
Het aannemen van de identiteit van een bekende persoon via een nepvideo valt onder “het aannemen van een valse hoedanigheid.”
Smaad en laster komen in beeld wanneer een deepfake iemands goede naam schaadt.
Bij smaad beschuldig je iemand opzettelijk van iets waardoor zijn eer wordt aangetast.
Laster gaat verder: je weet dat de beschuldiging niet waar is.
De Welmoed Sijtsma-deepfake is een bekend voorbeeld waarbij de maker strafrechtelijk werd veroordeeld.
Relevante artikelen in het Wetboek van Strafrecht
De belangrijkste wetsartikelen die je tegen deepfake-misbruik kunt gebruiken zijn:
| Artikel | Delict | Toepassing bij deepfakes |
|---|---|---|
| Artikel 326 Sr | Oplichting | Gebruik van nepvideo’s om mensen te bewegen tot betaling of gegevensverstrekking |
| Artikel 261 Sr | Smaad | Deepfakes die iemands eer of goede naam aantasten |
| Artikel 262 Sr | Laster | Nepvideo’s met bewust valse beschuldigingen |
| Artikel 266 Sr | Belediging | Deepfakes die iemand beledigen zonder concrete beschuldiging |
Deze artikelen bestonden al lang voordat deepfakes ontstonden.
Rechters moeten daarom beoordelen of moderne nepvideo’s binnen deze oudere wetgeving passen.
Het lex certa-beginsel vereist dat wetten duidelijk zijn, wat bij nieuwe technologie niet altijd eenvoudig is.
Bescherming van persoonsgegevens en privacy
Deepfakes gebruiken vaak beeldmateriaal van echte personen, waardoor ze onder de AVG kunnen vallen.
De bescherming van persoonsgegevens speelt een grote rol bij het bepalen of het maken van een deepfake legaal is.
Deepfakes en de Algemene Verordening Gegevensbescherming (AVG)
De Algemene Verordening Gegevensbescherming beschermt uw persoonsgegevens tegen misbruik.
Biometrische gegevens zoals uw gezicht en stem vallen onder deze bescherming.
Maakt u een deepfake en deelt u deze alleen met een kleine groep mensen?
Dan geldt de AVG niet voor u.
U mag de deepfake maken en delen met uw familie, vrienden of de persoon zelf zonder toestemming te vragen.
Publiceert u de deepfake online of deelt u deze met een groot publiek?
Dan valt uw handeling wel onder de AVG.
U verwerkt dan persoonsgegevens op een manier die wettelijke bescherming nodig maakt.
Verwerken van persoonsgegevens zonder toestemming
Het verwerken van iemands gezicht of stem zonder toestemming kan leiden tot juridische problemen.
U schendt hiermee mogelijk de privacy van de betrokkene.
Wanneer heeft u toestemming nodig?
- Bij het openbaar maken van deepfakes
- Bij commercieel gebruik van deepfakes
- Bij het delen met onbekenden of grote groepen
Het ontbreken van toestemming kan leiden tot civiele of strafrechtelijke aansprakelijkheid.
De ernst hangt af van hoe u de deepfake gebruikt en hoeveel schade het veroorzaakt.
Een privacyschending kan resulteren in een boete of schadevergoeding.
Rollen van de Autoriteit Persoonsgegevens
De Autoriteit Persoonsgegevens handhaaft de AVG in Nederland. Deze organisatie controleert of bedrijven en particulieren zich aan de privacywetgeving houden.
U kunt bij de Autoriteit Persoonsgegevens terecht als uw persoonsgegevens misbruikt worden in een deepfake. Zij kunnen een onderzoek starten en boetes opleggen aan overtreders.
De Autoriteit geeft ook informatie over wat wel en niet mag bij het maken van deepfakes. De Autoriteit kan boetes opleggen tot miljoenen euro’s bij ernstige overtredingen.
Voor particulieren liggen de boetes meestal lager dan voor bedrijven.
Portretrecht en gebruik van beeltenis in deepfake-video’s
In Nederland beschermt het portretrecht mensen tegen ongewenst gebruik van hun beeltenis. Bij deepfakes speelt dit recht een belangrijke rol, omdat het slachtoffers een juridisch middel biedt om op te treden tegen nepvideo’s waarin hun gezicht wordt gebruikt zonder toestemming of tegen hun belang in.
Grondslagen van portretrecht in Nederland
Het portretrecht vindt zijn basis in artikel 21 van de Auteurswet. Deze wet geeft u het recht om bezwaar te maken tegen publicatie van uw portret.
Een portret omvat elke herkenbare weergave van uw uiterlijk. Dit betekent dat foto’s, video’s en zelfs tekeningen onder het portretrecht kunnen vallen.
Bij deepfakes gaat het vaak om videobeelden waarin uw gezicht digitaal is verwerkt. Het recht geldt niet voor stemgeluid.
Alleen de visuele weergave van uw persoon valt onder het portretrecht. U hoeft geen actie te ondernemen om dit recht te krijgen.
Het portretrecht ontstaat automatisch zodra er een herkenbaar beeld van u bestaat.
Toestemming en redelijk belang bij portretrecht
Voor het gebruiken van uw portret is in principe toestemming nodig. Zonder uw toestemming mag iemand uw beeltenis niet publiceren, tenzij er een zwaarwegend belang is.
De rechter weegt uw belang af tegen het belang van de maker. Heeft de maker een gerechtvaardigd belang dat zwaarder weegt dan uw bezwaar, dan mag publicatie toch plaatsvinden.
Denk hierbij aan nieuwswaardige berichtgeving of kunstzinnige uitingen.
Belangrijke factoren bij belangenafweging:
- De context waarin het portret wordt gebruikt
- Of het om een publiek persoon of privépersoon gaat
- De mogelijke schade voor de geportretteerde
- Het doel van de publicatie (informatief, commercieel, satirisch)
Bij schadelijke deepfakes weegt uw belang doorgaans zwaarder. Pornografische deepfakes of deepfakes die uw reputatie schaden zijn vrijwel altijd onrechtmatig.
Aansprakelijkheid en platforms zoals Facebook
Sociale mediaplatforms zoals Facebook kunnen aansprakelijk zijn voor deepfakes op hun diensten. Ze hebben een zorgplicht om illegale content te verwijderen zodra ze daarvan op de hoogte zijn.
U kunt een melding doen bij het platform als er een onrechtmatige deepfake van u circuleert. Het platform moet dan binnen redelijke termijn actie ondernemen.
Blijft het platform in gebreke, dan riskeert het aansprakelijkheid voor de schade die u lijdt. De EU-regelgeving verplicht platforms om effectieve meldingsmechanismen te bieden.
In sommige gevallen kunnen platforms zelfs boetes krijgen als ze onrechtmatige deepfakes niet verwijderen. De handhaving hiervan blijft in de praktijk wel een uitdaging.
Juridische uitdagingen in handhaving en rechtspraak
De Nederlandse wet biedt weliswaar mogelijkheden om deepfakes te vervolgen, maar de praktijk blijkt weerbarstig. Rechters en politie worstelen met technische complexiteit en gebrek aan specifieke wetgeving.
Problemen met opsporing en vervolging
Het opsporen van deepfake-daders is complex omdat de technologie steeds toegankelijker wordt. Je kunt nu met gratis software deepfakes maken, wat de drempel verlaagt.
De makers zijn vaak moeilijk te traceren omdat ze anoniem opereren via VPN-diensten of het dark web. Het WODC onderzocht of het huidige juridische kader toereikend is voor strafbare deepfakes.
Hun rapport toont aan dat bestaande wetsartikelen technisch wel toepasbaar zijn, maar dat rechters moeite hebben met het kwalificeren van deepfake-delicten. Is het oplichting, smaad, identiteitsfraude of een combinatie?
De bewijslast vormt een extra obstakel. Jij moet als slachtoffer vaak zelf aantonen dat de video nep is, wat dure technische expertise vereist.
Forensisch onderzoek naar deepfakes staat nog in de kinderschoenen in Nederland.
Praktijkvoorbeelden en recente casussen
Recente incidenten tonen de juridische verwarring rond deepfakes. In verschillende zaken hebben rechters moeite met het uitspreken van veroordelingen omdat er geen specifieke deepfake-wetgeving bestaat.
Fraudezaken met deepfakes nemen toe in Nederland. Criminelen gebruiken nepvideo’s van bedrijfsleiders om medewerkers geld te laten overmaken.
Deze gevallen vallen vaak onder bestaande oplichting-artikelen, maar de strafmaat houdt geen rekening met de technologische verfijning. Bij seksuele deepfakes van bekende Nederlanders ontstaat discussie over welk wetsartikel van toepassing is.
Soms wordt smaad toegepast, andere keren belediging of verspreiding van bedrieglijke informatie.
Handhaving door politie en justitie
De politie beschikt over beperkte technische middelen om deepfakes te herkennen en te traceren. Jouw aangifte wordt soms niet serieus genomen omdat agenten de technologie onvoldoende begrijpen.
Er is geen gespecialiseerd deepfake-team bij de Nederlandse politie. Het Openbaar Ministerie worstelt met prioritering van deepfake-zaken.
Bij drukte krijgen traditionele delicten vaak voorrang. De synthetische samenleving vereist nieuwe expertise die nog opgebouwd moet worden binnen justitie.
Handhaving kampt met capaciteitsproblemen en gebrek aan internationale samenwerking. Veel deepfake-makers opereren vanuit het buitenland, wat vervolging bijna onmogelijk maakt binnen het huidige systeem.
Ontwikkelingen en toekomst van wetgeving rond deepfakes
De wetgeving rond deepfakes maakt een snelle ontwikkeling door in Nederland en Europa. Nieuwe wetten krijgen vorm om uw bescherming te verbeteren tegen misbruik van deze technologie.
Europese AI-wetgeving en regulering
De Europese Unie werkt aan regels voor kunstmatige intelligentie die ook deepfakes raken. Deze wetgeving richt zich op het classificeren van AI-systemen op basis van risico.
Deepfake-technologie valt onder de categorie met verhoogd risico. Dit betekent dat makers van deze systemen aan strengere eisen moeten voldoen.
Ze moeten transparant zijn over het gebruik van AI. U krijgt het recht om te weten wanneer u met AI-gegenereerde content te maken hebt.
Bedrijven moeten duidelijk aangeven wanneer beelden, video’s of audio met deepfake-technologie zijn gemaakt. Dit helpt u bij het herkennen van neppe content.
De Europese regels verplichten ontwikkelaars ook om technische documentatie bij te houden. Ze moeten kunnen aantonen hoe hun systemen werken en welke data ze gebruiken.
Maatregelen tegen desinformatie en nepnieuws
Desinformatie via deepfakes vormt een groeiend probleem voor de samenleving. Nepnieuws kan verkiezingen beïnvloeden en het vertrouwen in media ondermijnen.
Platforms zoals sociale media krijgen meer verantwoordelijkheid voor content die gebruikers delen. Ze moeten sneller handelen bij meldingen van misleidende deepfakes.
Veel platformen ontwikkelen nu detectiesystemen die neppe video’s herkennen. De Tweede Kamer heeft grote zorgen geuit over de toename van deepfake-producties.
Dit heeft geleid tot onderzoek naar betere bescherming tegen deze technologie. Uw privacy en reputatie staan centraal in deze ontwikkelingen.
Nieuwe wetten richten zich op het bestrijden van deepfakes die specifiek bedoeld zijn om te misleiden. Dit geldt vooral voor nepvideo’s die politieke of maatschappelijke gevolgen hebben.
Verwachte aanpassingen van het juridisch kader
Nederland werkt aan een nieuw wetsvoorstel dat u meer controle geeft over uw digitale identiteit. Dit voorstel introduceert een naburig recht voor natuurlijke personen en hun nabestaanden.
Het wetsvoorstel maakt het mogelijk om het maken, gebruiken en verspreiden van deepfakes van uw gezicht of lichaam te verbieden. U krijgt copyright op uw eigen uiterlijk en stemkenmerken.
Dit betekent dat anderen uw toestemming nodig hebben voordat ze deepfakes van u maken. Het Wetenschappelijk Onderzoek- en Documentatiecentrum heeft geconcludeerd dat het huidige strafrecht al voldoende handvatten biedt.
Toch zijn aanvullingen nodig voor specifieke situaties. De focus ligt niet op het verbieden van technologie zelf.
Het gaat om het herstellen van controle over hoe anderen uw digitale afbeelding gebruiken. Deze aanpak geeft u juridische middelen om op te treden tegen misbruik.
Frequently Asked Questions
De Nederlandse wet biedt verschillende manieren om op te treden tegen misbruik van deepfakes, maar er bestaat geen specifieke deepfake-wetgeving. Bestaande strafwetten zoals die voor oplichting, smaad en identiteitsfraude zijn van toepassing op crimineel gebruik van nepvideo’s.
Wat zijn de wettelijke consequenties van het verspreiden van deepfake-video’s?
Het verspreiden van deepfake-video’s kan leiden tot strafrechtelijke vervolging onder verschillende wetsartikelen. Je kunt worden vervolgd voor oplichting als je iemand bedriegt met een nepvideo.
Bij het verspreiden van deepfakes die iemands goede naam schaden, ben je mogelijk schuldig aan smaad of laster. De straf hangt af van het type misdrijf dat je pleegt met de deepfake.
Oplichting kan leiden tot een gevangenisstraf van maximaal vier jaar. Smaad wordt bestraft met maximaal zes maanden gevangenisstraf of een geldboete.
Als je deepfake-pornografie verspreidt zonder toestemming van de afgebeelde persoon, pleeg je een ernstig strafbaar feit. Dit valt onder de wetgeving rondom het verspreiden van intieme beelden zonder toestemming.
De straffen hiervoor kunnen oplopen tot twee jaar gevangenisstraf.
Hoe wordt auteursrecht gehandhaafd bij het gebruik van deepfakes?
Auteursrecht beschermt origineel beeldmateriaal en geluidsopnames die in deepfakes worden gebruikt. Als je beeldmateriaal van iemand anders gebruikt zonder toestemming, schend je het auteursrecht.
De rechthebbende kan je aansprakelijk stellen voor de schade die ontstaat. Je kunt geen auteursrecht claimen op een deepfake van een ander persoon.
Het portretrecht beschermt mensen tegen ongeoorloofd gebruik van hun beeltenis. Dit recht blijft bestaan, ook als je technisch gezien een nieuw werk creëert met AI.
De rechthebbende kan via een civiele procedure eisen dat je stopt met het verspreiden van het materiaal. Ook kun je worden verplicht om schadevergoeding te betalen.
In sommige gevallen kan auteursrechtschending ook strafrechtelijke gevolgen hebben.
Op welke manier beschermt de wet personen tegen smaad of laster via deepfake-technologie?
De wetgeving tegen smaad en laster is direct van toepassing op deepfakes. Smaad houdt in dat je iemand belastert met beschuldigingen die diens eer of goede naam aantasten.
Bij laster weet je dat deze beschuldigingen onwaar zijn. Een deepfake die iemand in een vals daglicht stelt, kan als smaad worden beschouwd.
Dit geldt bijvoorbeeld voor nepvideo’s waarin iemand lijkt deel te nemen aan criminele of immorele activiteiten. De persoon die is afgebeeld in de deepfake kan aangifte doen bij de politie.
Je kunt ook een civiele zaak starten tegen degene die de deepfake heeft gemaakt of verspreid. Via deze weg kun je schadevergoeding eisen voor de geleden schade aan je reputatie.
De rechter kan ook bevelen dat de deepfake verwijderd moet worden.
Welke wetgeving is van toepassing op het maken van deepfake-content met betrekking tot publieke figuren?
Publieke figuren hebben minder bescherming dan gewone burgers, maar niet alles is toegestaan. De wet maakt onderscheid tussen satire en misleiding.
Satirische deepfakes vallen onder de vrijheid van meningsuiting, mits duidelijk is dat het om satire gaat. Het maken van deepfakes van politici of beroemdheden voor frauduleuze doeleinden blijft strafbaar.
Als je een nepvideo maakt waarin een politicus iets zegt om kiezers te misleiden, pleeg je een strafbaar feit. Dit valt onder het verspreiden van desinformatie met opzet.
Publieke figuren kunnen ook een beroep doen op hun portretrecht. Ze kunnen juridische stappen ondernemen als een deepfake hun reputatie schaadt of gebruikt wordt voor commerciële doeleinden zonder toestemming.
De context en het doel van de deepfake bepalen of het gebruik rechtmatig is.
Hoe gaat de Nederlandse wet om met het gebruik van deepfakes voor het nabootsen van identiteiten?
Het nabootsen van iemands identiteit met een deepfake is strafbaar onder meerdere wetsartikelen. Identiteitsfraude ontstaat wanneer je jezelf voordoet als een ander persoon om jezelf of een ander te bevoordelen.
Dit kan leiden tot een gevangenisstraf van maximaal zes jaar. Deepfakes worden steeds vaker gebruikt voor frauduleuze videogesprekken waarbij criminelen zich voordoen als werkgevers of familieleden.
Dit wordt zwaar bestraft omdat het een geraffineerde vorm van oplichting is. De politie en justitie nemen dit soort zaken serieus.
Als je een deepfake maakt waarbij je de stem of het gezicht van iemand anders gebruikt om toegang te krijgen tot beveiligde systemen, pleeg je computervredebreuk. Dit is een apart strafbaar feit met een maximale gevangenisstraf van twee jaar.
De combinatie van identiteitsfraude en andere delicten leidt tot zwaardere straffen.
Welke straffen staan er op het creëren en verspreiden van deepfakes die schade toebrengen aan individuen of organisaties?
De straffen variëren sterk afhankelijk van het type schade en de ernst van het misdrijf.
Voor oplichting met deepfakes kun je tot vier jaar gevangenisstraf krijgen.
Bij meerdere slachtoffers of grote financiële schade kan de straf hoger uitvallen.