Kunstmatige stemmen en deepfakes zijn video’s en audio waar AI iemands gezicht of stem nabootst. Deze technologie maakt het mogelijk om iemand dingen te laten zeggen of doen die nooit echt zijn gebeurd.
De vraag is of het maken en gebruiken van deze nagebootste identiteiten strafbaar is onder Nederlandse wet.
Het maken van een deepfake is in Nederland niet automatisch strafbaar, maar het gebruik ervan kan wel illegaal zijn afhankelijk van de situatie. Pornografische deepfakes zijn verboden en fraude met stemklonen valt onder oplichting.
Ook kunnen slachtoffers optreden via het portretrecht en privacywetgeving zoals de AVG. De wetsartikelen over identiteitsfraude gelden echter niet voor deepfakes.
De juridische situatie rond deepfakes verandert snel. Nederland kijkt naar landen zoals Denemarken die nieuwe wetten maken.
De AI-verordening zal straks eisen dat deepfakes duidelijk als kunstmatig worden gekenmerkt. Dit artikel legt uit wanneer spoofing met kunstmatige stemmen strafbaar is en welke bescherming er bestaat tegen misbruik.
Wat zijn kunstmatige stemmen en deepfakes?
Deepfakes en voice cloning zijn vormen van synthetische media waarbij kunstmatige intelligentie wordt gebruikt om valse maar realistische beelden of geluiden te maken. Deze technologie maakt het mogelijk om gezichten te verwisselen, stemmen na te bootsen of volledig nieuwe content te genereren die lijkt op echte opnames.
Definitie van deepfakes en voice cloning
Deepfakes zijn kunstmatig gecreëerde of gemanipuleerde afbeeldingen, video’s of geluidsopnames die worden gemaakt met behulp van AI. De term combineert “deep learning” en “fake”.
Bij deepfakes kan een gezicht worden vervangen door dat van iemand anders. Ook kan het lijken alsof iemand iets zegt of doet wat nooit is gebeurd.
Voice cloning is een specifieke vorm van deepfaketechnologie die zich richt op het nabootsen van stemmen. Met deze techniek kan een stem worden nagebootst op basis van bestaande opnames.
Het resultaat is een synthetische stem die klinkt als de echte persoon. De technologie wordt gebruikt voor verschillende doeleinden:
- Legitieme toepassingen: het dubben van films, het redden van stemmen van ALS-patiënten
- Criminele doeleinden: oplichting, identiteitsfraude, chantage
- Misleidende content: nepnieuws, politieke manipulatie
Uit onderzoek blijkt dat meer dan een kwart van de deepfake-stemmen niet van echt te onderscheiden is. Dit maakt de technologie zowel nuttig als gevaarlijk.
Werking van synthetische media
Deepfaketechnologie maakt gebruik van deep learning-algoritmes, met name Generative Adversarial Networks (GANs). Deze systemen analyseren duizenden beelden of geluidsopnames om patronen te leren herkennen.
Ze bestuderen gezichtsuitdrukkingen, bewegingen, spraakpatronen en stemkenmerken. Het proces bestaat uit twee hoofdcomponenten die met elkaar concurreren.
De generator maakt nieuwe synthetische content. De discriminator beoordeelt of deze content echt of nep is.
Door deze voortdurende competitie verbetert de kwaliteit van de deepfake. Voor voice cloning heeft de AI slechts enkele seconden tot minuten aan spraakmateriaal nodig.
Het systeem leert de unieke kenmerken van een stem: toonhoogte, ritme, accent en spraakpatronen. Daarna kan het nieuwe zinnen genereren die klinken alsof de originele persoon ze uitspreekt.
Ontwikkelingen in deepfaketechnologie
De technologie wordt steeds toegankelijker en goedkoper. Tools die vroeger alleen voor experts beschikbaar waren, kunnen nu door gewone gebruikers worden ingezet.
Dit maakt deepfakes gemakkelijker te maken, maar ook moeilijker te herkennen. Ongeveer 95% van alle deepfakes bestaat uit pornografisch materiaal.
In 2024 werden meer dan 3.700 meldingen gedaan van AI gegenereerde misbruikbeelden van minderjarigen bij het Meldpunt Kinderporno. De kwaliteit van synthetische media neemt snel toe.
Enkele jaren geleden waren deepfakes vaak herkenbaar aan onnatuurlijke bewegingen of slechte synchronisatie tussen lippen en spraak. Moderne deepfakes zijn veel realistischer.
Ze vertonen minder artefacten en ongewone vervormingen in het beeld. Deze ontwikkeling heeft geleid tot nieuwe beveiligingsmaatregelen.
Watermerken worden gebruikt om AI gegenereerd materiaal te markeren. Safety by Design helpt om risicovolle content al tijdens het maken te blokkeren.
Platforms ontwikkelen detectiesystemen die patronen in synthetische media kunnen herkennen.
Toepassingen en misbruik van kunstmatige stemmen
AI-stemklonen worden zowel voor legitieme doeleinden als criminele activiteiten ingezet. De technologie stelt criminelen in staat om op grote schaal financiële fraude te plegen en desinformatie te verspreiden.
Bedrijven en organisaties gebruiken dezelfde tools voor nuttige toepassingen.
Financiële fraude via voice cloning
Criminelen gebruiken voice cloning om familieleden en bekenden na te bootsen. Ze bellen slachtoffers op en doen zich voor als een dierbare in nood die dringend geld nodig heeft.
Door afleidende achtergrondgeluiden toe te voegen, wordt de gekloonde stem moeilijk van echt te onderscheiden. Oplichters hebben slechts enkele seconden audiomateriaal nodig om een stem te klonen.
Dit materiaal halen ze uit sociale media, voicemails of openbare video’s. Bedrijven worden ook doelwit van deze praktijken.
Criminelen bootsen stemmen van directeuren of managers na om medewerkers opdracht te geven grote geldbedragen over te maken. Deze vorm van fraude kost slachtoffers wereldwijd miljoenen euro’s per jaar.
Politieke manipulatie en desinformatie
Deepfakes met kunstmatige stemmen vormen een bedreiging voor politieke processen. Kwaadwillenden kunnen nepopnames maken waarin politici controversiële uitspraken doen die ze nooit hebben gedaan.
Deze deepfakes verspreiden zich snel via sociale media voordat factcheckers ze kunnen ontkrachten. De schade aan iemands reputatie is vaak al aangericht.
Kiezers kunnen hierdoor verkeerde beslissingen nemen op basis van valse informatie. Politieke manipulatie via deepfakes ondermijnt het vertrouwen in democratische instituties.
Mensen twijfelen steeds meer aan de echtheid van audio- en video-opnames van publieke figuren.
Identiteitsfraude en persoonlijke gevolgen
Slachtoffers van voice cloning ervaren ernstige persoonlijke gevolgen. Hun stem wordt misbruikt zonder toestemming, wat een inbreuk vormt op hun persoonlijke levenssfeer.
Veelvoorkomende vormen van identiteitsfraude:
- Toegang krijgen tot bankrekeningen via telefonische authenticatie
- Oplichting van familieleden en vrienden
- Beschadiging van iemands reputatie door nepuitspraken
- Gebruik van stemmen voor commerciële doeleinden zonder toestemming
Een stem is een biometrisch persoonsgegeven dat beschermd wordt onder de AVG. Toch biedt deze wetgeving beperkte bescherming wanneer stemmen worden gebruikt voor journalistieke of artistieke uitdrukkingsvormen.
Slachtoffers kunnen zich beroepen op hun recht op bescherming van hun persoonlijke levenssfeer onder artikel 8 EVRM.
Commerciële en legitieme toepassingen
Voice cloning heeft ook nuttige toepassingen in verschillende sectoren. De filmindustrie gebruikt de technologie om dubbing goedkoper en efficiënter te maken.
ALS-patiënten kunnen hun stem laten opslaan voordat ze deze verliezen. Later gebruiken ze deze gekloonde stem om te blijven communiceren via spraakcomputers.
Deze toepassing verbetert hun kwaliteit van leven aanzienlijk. Legitieme toepassingen omvatten:
- Herstel van stemmen voor mensen met spraakstoornissen
- Creatie van virtuele assistenten en spraakgestuurde systemen
- Nasynchronisatie van films en series in meerdere talen
- Audioboeken inspreken met consistente stemkwaliteit
De vraag naar bekende stemmen groeit, waardoor stemmen steeds vaker een rol spelen in contracten met artiesten. Bekende zangers en acteurs kunnen hun stem licentiëren voor gebruik in verschillende media en producten.
Juridische kaders en strafbaarheid van spoofing
Nederland hanteert bestaande strafwetten voor veel deepfake-gevallen, terwijl andere landen nieuwe regels invoeren. De strafbaarheid hangt af van de context en het doel van de spoofing.
Huidige wetgeving rond deepfakes in Nederland
Nederland heeft geen aparte wet voor deepfakes. Het land past bestaande strafwetten toe op gevallen van stemklonen en gezichtsmanipulatie.
Strafbare feiten die nu al gelden:
- Fraude via stemklonen of gezichtsherkenning
- Smaad en laster
- Opruiing en haatzaaien
- Pornografische deepfakes
Het portretrecht biedt extra bescherming. Mensen kunnen bezwaar maken tegen publicatie van een deepfake als hun belang zwaarder weegt dan het belang van de maker.
Het Wetenschappelijk Onderzoek- en Documentatiecentrum (WODC) onderzocht of nieuwe wetgeving nodig is. De juridische uitdagingen zitten vooral in de handhaving, niet in de wetgeving zelf.
Wanneer is spoofing strafbaar?
Spoofing wordt strafbaar wanneer het wordt gebruikt voor specifieke illegale doeleinden. De context bepaalt of er sprake is van een strafbaar feit.
Strafbare situaties:
- Oplichting en fraude: stemklonen gebruiken om geld of informatie te stelen
- Identiteitsfraude: zich voordoen als iemand anders voor toegang tot accounts
- Reputatieschade: nepstemmen of nepbeelden maken die iemands goede naam schaden
- Seksuele intimidatie: pornografische deepfakes maken zonder toestemming
Het maken van een deepfake op zich is niet altijd strafbaar. De wet kijkt naar wat iemand met de deepfake doet en welke schade het veroorzaakt.
Handhaving blijft moeilijk omdat schade vaak al is aangericht voordat juridische stappen worden gezet.
Internationale regelgeving en trends
Denemarken nam in 2025 een grote stap door mensen auteursrecht te geven op hun eigen gezicht en stem. Via de wet op het auteursrecht werd het maken en publiceren van nepbeelden illegaal.
Denen kregen copyright op hun lichaam en gezichtskenmerken. Politieke partijen in de Nederlandse Tweede Kamer bekijken de Deense aanpak met interesse.
Dit model biedt mensen een juridisch wapen in de strijd tegen deepfakes. Het verschil met Nederland is dat er specifieke bescherming komt voor fysieke kenmerken.
Andere landen werken ook aan regelgeving die beter past bij kunstmatige manipulatie van stemmen en gezichten. De focus ligt op preventie en snellere handhaving.
Nieuwe wetsvoorstellen en toekomstige juridische ontwikkelingen
Verschillende landen werken aan nieuwe wetten die auteursrechten uitbreiden naar iemands stem en uiterlijk. Denemarken heeft al concrete stappen gezet.
Nederland volgt de ontwikkelingen en onderzoekt welke aanpassingen nodig zijn.
Uitbreiding van auteursrechten op stem en uiterlijk
Denemarken heeft recent een wetsvoorstel ingediend waarbij burgers copyright krijgen op hun eigen gezicht, stem en lichaam. Deze nieuwe vorm van auteursrecht moet een juridisch wapen worden tegen deepfakes.
Via de wet op het auteursrecht wordt het maken en publiceren van nepbeelden illegaal in Denemarken. Het wetsvoorstel geeft Denen copyright op hun lichaam en gezichtskenmerken.
Dit betekent dat anderen geen toestemming hebben om iemands uiterlijk of stem te gebruiken zonder expliciete goedkeuring. De aanpak richt zich specifiek op door AI gemanipuleerde beelden en geluiden die bijna niet van echt te onderscheiden zijn.
Deze technologische ontwikkelingen vragen om nieuwe juridische bescherming die verder gaat dan bestaande privacywetten.
Voorstellen in Nederland en Denemarken
Meerdere partijen in de Tweede Kamer kijken met belangstelling naar het Deense model. Het Wetenschappelijk Onderzoek- en Documentatiecentrum (WODC) heeft een rapport uitgebracht over eventuele aanpassing van het huidige juridische kader.
Dit rapport richt zich op onrechtmatige of strafwaardige uitingsvormen van deepfaketechnologie. De Nederlandse overheid onderzoekt of het bestaande juridische kader voldoende bescherming biedt.
Er liggen nog geen concrete wetsvoorstellen voor behandeling in de Tweede Kamer. De EU AI-verordening stelt wel al verplichtingen aan ontwikkelaars van AI-systemen zoals chatbots en deepfakes.
Deze systemen moeten transparantie bevorderen. Bepaalde AI-toepassingen die manipulatie van menselijk gedrag mogelijk maken zijn in Europa al verboden sinds februari 2025.
Verschillen tussen civielrechtelijke en strafrechtelijke aanpak
Het Deense model kiest voor een civielrechtelijke benadering via auteursrecht. Slachtoffers kunnen zelf juridische stappen ondernemen tegen makers van ongeautoriseerde deepfakes.
Dit verschilt van een strafrechtelijke aanpak waarbij het Openbaar Ministerie vervolging start. Een civielrechtelijke route legt de verantwoordelijkheid bij het slachtoffer om actie te ondernemen.
Dit kan leiden tot schadevorderingen en verboden op verspreiding. Een strafrechtelijke benadering maakt het mogelijk om makers direct te vervolgen en te straffen.
Nederland heeft momenteel beide opties beschikbaar via verschillende bestaande wetten. De juridische uitdagingen blijven complex omdat technologie sneller ontwikkelt dan wetgeving.
Technieken voor detectie en verdediging tegen deepfakes
Nieuwe detectiemethodes combineren klassieke forensische technieken met kunstmatige intelligentie om deepfakes op te sporen. Zowel technologiebedrijven als overheden investeren in tools en wetgeving om synthetische media te identificeren en misbruik tegen te gaan.
Innovaties in deepfake-detectie
Het Nederlands Forensisch Instituut en de Universiteit van Amsterdam hebben verschillende methodes ontwikkeld die deepfakes kunnen herkennen. Deze aanpak combineert handmatige controles met geavanceerde technologie.
Een belangrijke methode is de rolling shutter-techniek. Deze gebruikt de elektrische netwerkfrequentie van ongeveer 50 hertz om te bepalen wanneer en waar een video is opgenomen.
De frequentie varieert tussen 49,5 en 50,5 hertz en creëert een uniek tijdstempel. Door de zachte flikkering van lampen in videobeelden te analyseren, kunnen onderzoekers vaststellen of de opnamedatum klopt met wat wordt beweerd.
Een andere methode is Photo Response Non Uniformity (PRNU). Elke camera heeft een unieke “vingerafdruk” doordat pixels verschillend reageren op licht.
Dit patroon helpt bepalen welke camera de beelden heeft gemaakt. Synthetische stemmen zijn moeilijk realistisch na te maken.
Nieuwe algoritmes kunnen visualiseren of audio gemanipuleerd is. Bij een echte stem verschijnt een gekleurd vlak, terwijl gemanipuleerde audio duidelijke patronen laat zien.
Forensische experts beoordelen deze resultaten voordat ze als bewijs dienen.
Rol van platforms zoals Reality Defender
Reality Defender biedt AI-gestuurde detectietools die organisaties helpen deepfaketechnologie te identificeren. Het platform analyseert video, audio en afbeeldingen in real-time om manipulatie op te sporen.
Deze detectietools werken met machine learning modellen die zijn getraind op miljoenen voorbeelden van echte en gemanipuleerde content. Ze scannen uploads voordat ze online verschijnen.
Bedrijven gebruiken dergelijke platforms om werknemers te beschermen tegen frauduleuze videogesprekken. Bij online sollicitaties kunnen criminelen deepfakes inzetten om bedrijfsinformatie te verkrijgen.
Detectiesystemen waarschuwen meteen wanneer ze verdachte kenmerken in videostreams opmerken. De technologie identificeert inconsistenties die het menselijk oog mist.
Dit omvat verschillen in scherpte tussen gezichtsdelen, onnatuurlijke bewegingen en afwijkingen in de manier waarop licht op het gezicht valt.
Maatregelen door technologiebedrijven en overheid
Grote techbedrijven implementeren detectiesystemen op hun platforms om deepfakes te blokkeren. Social media platforms scannen geüploade content automatisch op tekenen van manipulatie.
Europol en de FBI hebben waarschuwingen uitgegeven over het toenemende misbruik van deepfakes. Ze roepen op tot internationale samenwerking bij de bestrijding van deze vorm van fraude.
Belangrijke maatregelen omvatten:
- Verplichte labels voor AI-gegenereerde content
- Databases met bekende deepfake-kenmerken
- Samenwerking tussen forensische instituten
- Training voor werknemers om deepfakes te herkennen
Het NFI behandelt regelmatig zaken waarin gemanipuleerde video’s worden onderzocht. De verwachting is dat het aantal deepfake-gerelateerde misdrijven blijft stijgen.
Onderzoekers moeten daarom continu nieuwe methodes ontwikkelen om criminelen voor te blijven. Het blijft een voortdurend proces van verbetering en aanpassing.
Impact op maatschappij en democratie
Deepfakes en kunstmatige stemmen vormen een directe bedreiging voor het vertrouwen in informatie en democratische processen. De technologie maakt het mogelijk om nepnieuws te verspreiden, verkiezingen te beïnvloeden en het onderscheid tussen echt en nep te vertroebelen.
Verspreiding van desinformatie
De vraag “Wat is echt?” komt door deepfakes steeds vaker op de politieke en maatschappelijke agenda. Experts verwachten dat over 5 jaar meer dan 90% van alle online content geheel of gedeeltelijk gemanipuleerd zal zijn.
Desinformatie verspreidt zich snel doordat deepfakes niet of nauwelijks van echt te onderscheiden zijn. Iedereen kan gratis en gemakkelijk toegang krijgen tot deze technologie.
Dit maakt de productie van nepmateriaal eenvoudig voor zowel individuen als georganiseerde groepen. Detectietechnologieën zijn beperkt in capaciteit.
Ze kunnen slechts een deel van het fakemateriaal automatisch wegfilteren. Media komen in de knel omdat ze moeten kiezen tussen snel publiceren met het risico op nepnieuws, of wachten tot materiaal is gecontroleerd.
Die controle vraagt veel technische expertise en kosten en kan publicatie met dagen vertragen.
Risico’s voor politieke stabiliteit
Politieke desinformatie door deepfakes kan verkiezingen beïnvloeden. Buitenlandse mogendheden kunnen fakevideo’s gebruiken om het politieke proces te verstoren.
Onderzoek toont aan dat een deepfake effect kan hebben op kiezers, zelfs als deze later als nep wordt ontmaskerd. Politieke manipulatie krijgt nieuwe dimensies door deze technologie.
Kandidaten kunnen in een kwaad daglicht worden gesteld met vervalste uitspraken of handelingen. De schade aan hun reputatie is vaak al geleden voordat de waarheid bekend wordt.
Politie, justitie en rechters moeten systemen ontwikkelen om fakemateriaal uit de rechtszaal te weren. Dit is nodig om onterechte veroordelingen te voorkomen.
Het huidige recht stelt al veel regels aan deepfakes, maar de handhaving blijft achter.
Maatschappelijke bewustwording en mediageletterdheid
De overheid moet tijdig brede publiekscampagnes beginnen voor het herkennen van deepfakes en AI-gegenereerde desinformatie. Een politieke en maatschappelijke discussie over de wenselijkheid van deepfakes is noodzakelijk.
Burgers moeten leren kritisch naar digitaal materiaal te kijken. Mediageletterdheid wordt een belangrijke vaardigheid in een tijd waarin het onderscheid tussen echt en nep vervaagt.
Scholen en andere instellingen spelen hierin een belangrijke rol. Meer regulering wordt overwogen om de handhavingsdruk te verlichten.
Een optie is om het produceren en aanbieden van deepfake-technologie voor de consumentenmarkt te verbieden. Het huidige recht reguleert vooral het gebruik voor specifieke doeleinden, maar dan is het kwaad al geschied.
Frequently Asked Questions
Het gebruik van kunstmatige stemmen en deepfakes roept veel juridische vragen op. In Nederland bestaan verschillende wetten die van toepassing zijn op het maken en verspreiden van dit soort content.
Wat zijn de juridische implicaties van het gebruik van kunstmatige stemmen voor misleidende doeleinden?
Het gebruik van kunstmatige stemmen voor misleidende doeleinden kan onder verschillende wetten vallen. Wanneer iemand een stemkloon gebruikt om fraude te plegen, is dit strafbaar onder de Nederlandse wet.
De Algemene Verordening Gegevensbescherming (AVG) is ook van toepassing omdat het gebruik van iemands stem persoonsgegevens verwerkt. Voor deze verwerking is een rechtsgeldige grondslag nodig, zoals toestemming van de betrokkene.
Bij commercieel misbruik kan er sprake zijn van misleidende reclame. De aanstaande AI-verordening verplicht makers om duidelijk te maken dat content kunstmatig is gegenereerd.
Welke wetten gelden er in Nederland voor het gebruik van deepfake technologie?
Het portretrecht uit artikel 21 van de Auteurswet beschermt mensen tegen ongeoorloofd gebruik van hun beeltenis. Zodra iemands gelaat herkenbaar is in een deepfake, kan de betrokkene optreden als hij daar een redelijk belang bij heeft.
De AVG verplicht deepfakemakers om een verwerkingsgrondslag te hebben voor het gebruik van persoonsgegevens. Pornografische deepfakes zijn al expliciet verboden in Nederland.
De wetsartikelen over identiteitsfraude (artikel 231a en 231b Strafrecht) zijn echter niet van toepassing op deepfakes zelf.
Hoe kan ik mij beschermen tegen identiteitsfraude met behulp van kunstmatige stemmen en deepfakes?
Mensen kunnen zich beschermen door voorzichtig te zijn met het delen van persoonlijke foto’s en video’s online. Het beperken van publieke toegang tot stemopnames vermindert het risico dat criminelen deze kunnen gebruiken voor stemklonen.
Bij verdachte verzoeken, zelfs als deze van bekenden lijken te komen, is het verstandig om de identiteit via een ander kanaal te verifiëren. Het gebruik van verificatiemethoden die verder gaan dan alleen stem of beeld biedt extra bescherming.
Mensen moeten alert blijven op ongebruikelijke verzoeken om geld of gevoelige informatie.
Op welke wijze handhaaft de overheid regelgeving omtrent het onrechtmatige gebruik van deepfakes?
De overheid kan optreden via bestaande wetgeving zoals de AVG en het portretrecht. De Autoriteit Persoonsgegevens kan boetes opleggen bij overtredingen van de privacywetgeving.
Bij strafbare feiten zoals fraude met deepfakes kan het Openbaar Ministerie vervolging instellen. Slachtoffers kunnen ook zelf juridische stappen ondernemen via het civiele recht.
Ze kunnen een beroep doen op rectificatie of het recht om vergeten te worden onder de AVG. De aanstaande AI-verordening zal extra verplichtingen invoeren voor transparantie bij kunstmatig gegenereerde content.
Wat zijn de strafrechtelijke grenzen van het nabootsen van een stem of beeltenis?
Het nabootsen van een stem of beeltenis is niet direct strafbaar onder Nederlandse wet. Het wordt pas strafbaar wanneer dit gebruikt wordt voor illegale doeleinden zoals fraude of oplichting.
Pornografische deepfakes zijn wel expliciet verboden. De context en het doel van het nabootsen bepalen of er sprake is van strafbaar gedrag.
Een evidente parodie voor satirische doeleinden kan onder de vrijheid van meningsuiting vallen. Commercieel misbruik waarbij een bekend persoon een product lijkt aan te bevelen kan als misleidende reclame worden aangemerkt.
Het afwegen tussen privacybelangen en vrijheid van meningsuiting speelt een belangrijke rol.
Hoe wordt de echtheid van digitale media juridisch beoordeeld in gevallen van mogelijke spoofing?
Rechters kunnen technische experts inschakelen om de authenticiteit van digitale media te onderzoeken.
Forensische analyse kan aanwijzingen geven over manipulatie van beeld of geluid.
Metadata van bestanden kan informatie bevatten over wanneer en hoe content is gemaakt.
De komende AI-verordening verplicht het kenbaar maken van kunstmatig gegenereerde content, wat de beoordeling kan vergemakkelijken.
Getuigenverklaringen en andere bewijsstukken worden meegewogen bij de juridische beoordeling.