facebook lawandmore.nl   instagram lawandmore.nl   linkedin lawandmore.nl   twitter lawandmore.nl

Afspraak

Law & More Logo

a blue background with a brain and a symbol

Stel: een marketingmedewerker laat ChatGPT een wervende blogpost schrijven, past de tekst minimaal aan en publiceert hem onder het bedrijfslogo. Van wie is die content dan eigenlijk? Volgens de Nederlandse Auteurswet kan alleen een mens als ‘maker’ worden aangemerkt; pure AI-output valt daardoor buiten het auteursrecht. Pas wanneer een werknemer voldoende creatieve keuzes maakt, kan er wél bescherming ontstaan – en dan vervalt die in veel gevallen automatisch aan de werkgever op grond van artikel 7. Wordt er slechts geknipt en geplakt, dan is er simpelweg niets om te claimen.

De opmars van generatieve AI op de werkvloer maakt die nuance cruciaal. Foute aannames over eigendom kunnen leiden tot claims, reputatieschade of verlies van bedrijfsgeheimen. Dit artikel zet het speelveld helder uiteen: van het basisprincipe ‘menselijk criterium’ tot contractclausules, workflow-tips en risicobeheersing. Zo weet u welke rechten u hebt, welke gaten u moet dichten en hoe u uw organisatie AI-proof maakt.

Het juridische fundament: auteursrecht bij mens én machine

Zonder een scherp begrip van het klassieke auteursrecht is het onmogelijk om de discussie “werkgevers vs. AI: wie bezit de rechten op wat ChatGPT schrijft?” goed te voeren. De Auteurswet is immers ontworpen voor menselijke makers, terwijl generatieve modellen in recordtempo nieuwe content uitspuwen. In de paragrafen hieronder ziet u hoe de wet is opgebouwd, wat er gebeurt als een algoritme het creatieve werk doet en waarom andere landen tot soortgelijke – maar niet identieke – conclusies komen.

De kern van het auteursrecht in Nederland

Volgens artikel 1 Auteurswet geniet een “werk van letterkunde, wetenschap of kunst” automatisch bescherming zodra het voldoet aan twee criteria:

  1. Het moet origineel zijn, oftewel “voldoende eigen, persoonlijk karakter” tonen.
  2. Het moet de “persoonlijke stempel van de maker” dragen.

De persoon die die creatieve keuzes maakt, is de “maker” en krijgt twee soorten rechten:

  • Economische rechten – reproductie, openbaarmaking en verveelvoudiging; overdraagbaar en exploiteerbaar.
  • Morele rechten – naamsvermelding, verzet tegen aantasting van het werk; onvervreemdbaar maar wel in sommige gevallen afstand van te doen.

Bescherming ontstaat van rechtswege en loopt normaliter tot 70 jaar na het overlijden van de maker. Voor rechtspersonen geldt een aparte rekenterm (‘publicatie plus 70 jaar’), maar die werkt alleen als de rechtspersoon als eerste maker is aangewezen, bijvoorbeeld bij ­films.

AI-gegenereerde output en het ‘menselijke criterium’

Een algoritme kan geen drager zijn van rechten; het mist rechtspersoonlijkheid. Dat standpunt is herhaald in Kamerstukken, EU-richtlijnen en recente uitspraken zoals de Britse zaak “Thaler/DABUS”. Concreet betekent dit:

  • Pure ChatGPT-output zonder bewerking voldoet niet aan het vereiste van een menselijke creatieve stempel.
  • Er ontstaat dus géén auteursrecht op de tekst zelf. Gebruik door concurrenten is niet onrechtmatig, tenzij er andere rechten gelden (bijv. databankenrecht of handelsgeheim).

Maar de praktijk is zelden zwart-wit. Grijze zones ontstaan wanneer een medewerker:

  • Een uitgekiende prompt opstelt die in feite een creatief concept bevat; die prompt kán zelf wel beschermd zijn.
  • De AI-tekst grondig redigeert, herschrijft of selecteert. Dan kan het eindresultaat wél een beschermd werk zijn, waarvan het auteursrecht volgens artikel 7 automatisch op de werkgever overgaat (mits binnen de functieomschrijving gemaakt).

Mini-case
Stel, een jurist vraagt: “Schrijf een NDA in begrijpelijke taal.” ChatGPT levert een standaarddocument, de jurist voegt alleen de bedrijfsnaam toe en stuurt het naar de klant. Hier is geen auteursrecht: er ontbreekt een eigen creatieve stempel. Zet dezelfde jurist echter alle clausules om, past risicoverdelingen aan en voegt eigen schema’s toe, dan ontstaat wél auteursrecht – en dus mogelijk werkgeversauteursrecht.

Internationale stand van zaken

Hoewel de meeste rechtsstelsels het menselijk criterium hanteren, variëren de details. Een kort overzicht:

Rechtsgebied Mag AI auteur zijn? Toets op menselijke creativiteit Opvallende jurisprudentie
Verenigde Staten Nee US Copyright Office eist “human authorship” “Zarya of the Dawn”–comic: AI-beelden niet beschermd
Verenigd Koninkrijk Theoretisch ja voor “computer-generated works”, maar noodzaak van menselijke input blijft Section 9(3) CDPA: “persoon die de noodzakelijke regelingen treft” Thaler/DABUS: registratie geweigerd
Duitsland Nee BGH volgt EU-originaliteits­vereiste (Infopaq) Discussie in Bundestag over sui generis AI-recht
België Nee Richtlijnconform: persoonlijk karakter vereist Arrest Court of Brussels 2024: AI-gedicht niet beschermbaar

Opvallend is dat het VK als enige expliciet een categorie “computer-generated works” kent, waarbij het recht aan de mens toekomt die “de noodzakelijke regelingen treft”. In de praktijk blijkt echter ook daar dat minimale menselijke bemoeienis onvoldoende is.

Wat betekent dit voor Nederlandse werkgevers?

  • Buitenlandse content kan minder of meer bescherming genieten; controleer licenties bij import.
  • Multinationale teams moeten contractueel vastleggen welk rechtsstelsel geldt om forum-shopping te voorkomen.
  • Europese harmonisatie – onder meer via de aanstaande EU AI Act – kan regels rond transparantie en aansprakelijkheid verscherpen, maar zal het menselijke criterium vermoedelijk niet afschaffen.

Samengevat: AI is een krachtig hulpmiddel, maar geen jurist in eigen recht. Zodra een mens echte creatieve keuzes maakt, herleeft de klassieke auteurswet – inclusief de regel dat een werknemer in dienstverband zijn rechten in beginsel afstaat aan de werkgever. Zonder die menselijke inbreng is er simpelweg geen auteursrecht om over te twisten.

Werkgeversauteursrecht: wanneer vervallen rechten aan de werkgever?

Wie in loondienst werkt, kent vaak de regel “alles wat je maakt op kantoor is van de baas”. In werkelijkheid ligt het net iets genuanceerder. Het werkgeversauteursrecht is geen algemene eigendomsclaim, maar een specifieke regeling in de Auteurswet die alleen werkzaam is als er daadwerkelijk ​beschermde​ creatie tot stand komt. Bij AI-tools zoals ChatGPT schuift dat kader op: soms ontstaat er wél auteursrecht (en dus overdracht), soms helemaal niet. Hieronder bekijken we de drie belangrijkste knoppen waar werkgevers aan kunnen draaien.

Artikel 7 Auteurswet uitgelegd

Artikel 7 bepaalt dat het auteursrecht op een werk “dat door de werknemer in de uitoefening van zijn functie is vervaardigd” van rechtswege aan de werkgever toekomt. Let op drie elementen:

  1. Arbeidsovereenkomst
    Er moet een geldig dienstverband zijn. Een stagiair of vrijwilliger valt hier niet automatisch onder.
  2. Binnen de functieomschrijving
    Creëert een programmeur na werktijd een gaming-app zonder bedrijfsresources? Dan ligt het auteursrecht meestal ​niet​ bij de werkgever.
  3. Werkelijk auteursrechtelijk beschermd werk
    Louter AI-output knippen en plakken levert geen recht op, dus ook niets om over te dragen.

Voorbeeld
Een marketingmedewerker laat ChatGPT een blogpost maken, herschrijft elke alinea en voegt unieke case-studies toe. De tekst draagt een persoonlijke stempel; auteursrecht ontstaat en glijdt volgens art. 7 naar de werkgever. Publiceert diezelfde medewerker de ruwe ChatGPT-tekst zonder bewerking, dan is er geen auteursrecht en valt er niets te “verkrijgen”.

Werknemer, zzp’er of inhuurkracht: verschillen in rechten

Niet iedereen op de werkvloer valt onder artikel 7. Het onderscheid is cruciaal:

Rol Automatische overdracht? Benodigde actie
Werknemer (loondienst) Ja, mits taakgerelateerd IP-clausule blijft raadzaam voor duidelijkheid
ZZP’er / freelancer Nee Schriftelijke overdracht vereist (art. 2)
Uitzendkracht / payroller Afhankelijk van contractketen Maak afspraken tussen uitlener, inlener en talent

Tip-checklist bij externen die AI inzetten:

  • Zet in de opdrachtovereenkomst dat alle “door of met behulp van AI vervaardigde werken” aan de opdrachtgever worden overgedragen.
  • Benoem dat eventuele morele rechten worden geaccepteerd, zodat naamsvermelding optioneel is.
  • Regel een garantie dat de opdrachtnemer geen licentiebeperkingen of plagiaat meelevert.

Wat als AI een (groot) deel van het creatieve proces verricht?

De hamvraag in ‘werkgevers vs. AI: wie bezit de rechten op wat ChatGPT schrijft?’ is hoeveel menselijk aandeel vereist is. Drie scenario’s illustreren de lijn:

  1. Pure AI-output → werknemer doet niets
    Geen persoonlijk stempel, dus geen auteursrecht → werkgever krijgt niets.
  2. Light-touch editing → kleine correcties, spelling, tone-of-voice
    Kantje boord; vaak onvoldoende originaliteit. Bewijsproblemen liggen op de loer.
  3. Substantiële herwerking → structuur omgooien, voorbeelden invoegen, eigen analyses toevoegen
    Auteursrecht ontstaat; art. 7 zorgt voor overdracht aan werkgever.

Hoe toon je die “significante creatieve bijdrage” aan?

  • Bewaar prompt-versies, concepten en redlines als logboeken.
  • Laat medewerkers wijzigingen tracken in een versiebeheersysteem.
  • Neem in content-workflows een juridische review op die checkt of de menselijke input echt meer is dan window-dressing.

Conclusie binnen dit kader: alleen als de mens aantoonbaar de regisseur blijft, profiteert de werkgever van het auteursrecht. Is ChatGPT de spookschrijver en de werknemer slechts publiek, dan is er simpelweg geen recht om over te dragen.

ChatGPT op de werkvloer: praktische toepassingen en hun juridische impact

ChatGPT duikt inmiddels in vrijwel elke bedrijfsafdeling op – van HR tot R&D. Dat is goed nieuws voor productiviteit, maar het zet de discussie “werkgevers vs. AI: wie bezit de rechten op wat ChatGPT schrijft?” op scherp. De juridische status verschilt namelijk per use-case, per mate van menselijke inbreng en per contractafspraak. Onderstaand overzicht helpt u beoordelen welk risico u precies loopt.

Typische bedrijfs-use-cases

Afdeling Voorbeeld-taak Mogelijk recht dat ontstaat Wie is rechthebbende?*
Marketing LinkedIn-post laten genereren, daarna herschreven door medewerker Auteursrecht op definitieve tekst Werkgever (art. 7)
Sales E-mailtemplate 1-op-1 uit ChatGPT kopiëren Geen auteursrecht (te weinig menselijk aandeel) Niemand; tekst vrij herbruikbaar
Klantenservice FAQ-antwoorden genereren, stylistisch aangepast Auteursrecht Werkgever
Legal Eerste concept NDA door model, jurist voegt clausules toe Auteursrecht Werkgever
IT Code-snippet uit ChatGPT plakken in product Meestal auteursrechtvrij, maar let op opensource-licentiefragmenten N.v.t.; check licentierisico

*Uitgaande van loondienst en taakgerelateerde werkzaamheden.

Belangrijk: waar geen recht ontstaat, kan de concurrent dezelfde tekst of code zonder toestemming overnemen. Andersom kan uw organisatie onbedoeld opensource-verplichtingen triggeren wanneer het model licentie­plichtige code reproduceert. Regel dus een review-slag vóór productiegebruik.

Creatieve keuzes en prompt engineering

De prompt – de tekstuele opdracht aan het model – is vaak onderschat. Een simpele prompt (“Schrijf een blog over zonnepanelen”) mist originaliteit. Een uitgebreide prompt met toon, persona’s, unieke datapunten en een specifieke structuur kan wél als “werk” kwalificeren:

  • Generieke prompt → geen bescherming → collega’s mogen hem kopiëren.
  • Complexe, originele prompt → kan auteursrecht opleveren → valt bij werknemers in principe toe aan de werkgever.

Tip voor praktijk: bewaar prompts in een versiesysteem (bijv. Git of SharePoint). Zo kunt u later aantonen welke creatieve keuzes door wie gemaakt zijn; handig bij een geschil over eigendom of plagiaat.

Workflow-modellen: AI-assistent vs. AI-spookschrijver

Hoe meer de mens regisseur is, hoe sterker uw juridische positie. Onderstaande mini-flowchart laat het verschil zien:

[Idee] → Mens schrijft draft → AI polijst → Mens redigeert → Publicatie
  • Resultaat: volwaardig auteursrecht; werkgever eigenaar.
[Idee] → AI schrijft draft → Mens klikt 'Publish'
  • Resultaat: waarschijnlijk géén auteursrecht; content blijft vrij spel.

Een tussenvorm is gangbaar: AI creëert ruwe tekst, werknemer herschrijft 30-50 %. Jurisprudentie ontbreekt, maar praktijkexperts hanteren de vuistregel “minstens substantieel herschrijven”. Bewijs uw bijdrage met:

  1. Track-changes of commit-logs.
  2. Commentaarlagen die keuzes motiveren.
  3. Interne checklist: “Heb ik structuur of inhoud wezenlijk aangepast?”

Door per project vast te leggen welk workflow-model u gebruikt, voorkomt u discussies over eigendom, morele rechten en licentieplichten. Vergeet niet om ook freelancers deze werkwijze op te leggen; zonder schriftelijke overdracht blijft het auteursrecht bij hen, zelfs als u het proces definieert.

Samengevat: ChatGPT op de werkvloer levert enorme efficiëntiewinsten, maar ook juridisch huiswerk. Breng per toepassing in kaart of er beschermde content ontstaat, houd creatieve bijdragen aantoonbaar vast en borg in contracten wie de uiteindelijke rechten bezit. Zo schakelt u generatieve AI in zonder het zwaard van Damocles boven uw merk.

Contractuele borging en intern beleid

Geen enkele organisatie wil bij de eerste plagiaatclaim ontdekken dat de arbeidsovereenkomsten een gat zo groot als een prompt laten. Een solide contractkader en helder intern beleid maken het verschil tussen “we lossen het intern op” en “we zitten morgen in de rechtbank”. Hieronder leest u welke knoppen u kunt draaien om het juridische eigenaarschap rond AI-content dicht te timmeren.

Essentiële clausules in arbeidsovereenkomsten

Ook al draagt artikel 7 Auteurswet het auteursrecht automatisch over, een expliciete regeling voorkomt discussie – zeker bij hybride workflows waarin ChatGPT meeschrijft.

  • IP-overdracht: bevestig dat alle werken, inclusief die ‘met behulp van AI’ zijn vervaardigd, toekomen aan de werkgever.
  • Geheimhouding: verbied medewerkers om bedrijfsgeheimen in prompts te stoppen.
  • AI-gebruiksbeperkingen: leg vast welke tools wel en niet mogen worden ingezet en eis naleving van licenties.

Voorbeeldformulering (vrij te bewerken):

De Werknemer draagt hierbij, voor zover nodig bij voorbaat, alle huidige en toekomstige intellectuele eigendomsrechten op werken die hij/zij zelfstandig, gezamenlijk of met behulp van Artificial Intelligence-systemen (waaronder ChatGPT) vervaardigt in de uitoefening van de functie, over aan de Werkgever. De Werknemer zal geen vertrouwelijke informatie in AI-prompts invoeren zonder voorafgaande schriftelijke toestemming van de Werkgever.

Let op bij freelancers en stagiairs: zonder schriftelijke overdracht blijven de rechten bij hen. Neem dus altijd een aparte IP-akte op in de opdrachtovereenkomst.

AI-beleid en Bring-Your-Own-AI regels

Een stand-alone IP-clausule is onvoldoende; u heeft een werkbaar beleid nodig waarmee HR, IT en Legal uit de voeten kunnen.

  1. Tool-whitelist
    • ChatGPT Enterprise of on-prem instance
    • Interne LLM-sandbox voor gevoelige data
  2. Gevoeligheidsclassificatie voor prompts
    • Groen: publieke info → toegestaan
    • Oranje: bedrijfsdata → toestemming leidinggevende
    • Rood: persoonsgegevens/bedrijfsgeheimen → verboden
  3. Logging & audit
    • Sla prompts en output 90 dagen op voor bewijs van menselijke bijdrage.
  4. Periodieke training
    • Kwartaalupdate over nieuwe risico’s en jurisprudentie.

Tip: maak één aanspreekpunt (“AI Steward”) verantwoordelijk voor naleving en incident­management.

Voorbeeld van een AI-content release-procedure

Een simpel vierstappenplan voorkomt dat ongecheckte ChatGPT-teksten live gaan:

Stap Verantwoordelijke Tooling Output
1. Conceptgeneratie Medewerker ChatGPT / interne LLM Ruwe tekst
2. Juridische & IP-scan Legal/AI Steward Plagiaat­scanner, licentie-check Go/No-go
3. Redactionele herwerking Auteur/manager Track Changes Definitieve versie
4. Publicatie Marketing/IT CMS Live-gang met versie-archief

Hanteer de vuistregel “no publish without human polish”. Leg in het CMS vast wie de laatste menselijke reviewer was; zo kunt u later aantonen dat het werk een voldoende creatief menselijk stempel draagt – een cruciale factor in de discussie werkgevers vs. AI: wie bezit de rechten op wat ChatGPT schrijft?

Risico’s en aansprakelijkheid bij AI-content

Rechten regelen is één ding; ze moeten ook afdwingbaar en verdedigbaar zijn. In discussies over “werkgevers vs. AI: wie bezit de rechten op wat ChatGPT schrijft?” wordt het aansprakelijkheidsluik vaak vergeten, terwijl juist daar de financiële pijn zit. Wie geen duidelijk beleid heeft, kan onverwacht opdraaien voor claims van auteursrechthebbenden, privacy-autoriteiten of ontevreden klanten. Hieronder de drie grootste risicovelden en wat u vandaag al kunt doen.

Kans op inbreuk op derdenrechtten

ChatGPT is getraind op miljarden teksten, waaronder beschermd materiaal. Het model kan daardoor zinsneden of codefragmenten reproduceren die nog steeds onder licentie vallen.

  • Muziek- en liedteksten: zelfs een kort refrein is in Nederland voldoende origineel om beschermd te zijn.
  • Open-source code: een snippet met een copyleft-licentie (bijv. GPL) kan uw eigen software verplicht “besmetten”.
  • Beeldcitaties: hoewel ChatGPT (momenteel) geen beelden genereert, kunnen prompts teksten oproepen die elders inbeeld zijn gebruikt.

Wat u kunt doen:

  1. Laat alle AI-output door een plagiaat-scanner en, bij code, door een licentie-checker lopen.
  2. Documenteer prompts en versie-geschiedenis; zo kunt u aantonen waar de tekst vandaan komt.
  3. Stel een “notice-and-takedown”-proces in voor het geval rechthebbenden aan de deur kloppen.

Dataprivacy en bedrijfsgeheimen in prompts

Een veelgemaakte fout is het voeden van ChatGPT met klantgegevens, broncode of winst-marges. Daarmee worden twee regels tegelijk geschonden: de AVG en de interne geheimhoudingsplicht.

  • OpenAI bewaart input standaard voor modeltraining, tenzij u een Enterprise- of API-opt-out heeft.
  • Hergebruikte output kan per ongeluk vertrouwelijke stukken “lekken” naar buiten.

Praktische tips:

  • Classificeer informatie vóórdat ze in een prompt belandt (groen, oranje, rood).
  • Gebruik pseudonimisering of placeholders: “Klant X” in plaats van volledige NAW-gegevens.
  • Overweeg on-premise LLM’s voor gevoelige use-cases, zodat data het pand niet verlaat.

Aansprakelijkheid en schadevergoeding

Wie draait op voor de schade als AI-content plagiaat bevat of persoonsgegevens lekt? De hoofdregel uit het arbeidsrecht blijft gelden: de werkgever is aansprakelijk voor fouten van werknemers in de uitoefening van hun functie (artikel 6:170 BW).

  • Regresseren op de werknemer kan alleen bij opzet of bewuste roekeloosheid; die drempel ligt extreem hoog.
  • Contractueel afwentelen op freelancers is wél mogelijk, mits duidelijk vastgelegd en verzekerd.
  • Verzekeringen: beroepsaansprakelijkheid dekt vaak “onrechtmatige publicaties”, maar cyberpolissen bieden bredere dekking voor datalekken.

Checklist voor schade-preventie:

  • Neem in elke publicatie-workflow een juridische review op.
  • Leg bewijs vast van “redelijke zorg” (plagiaat-scan, privacy-check).
  • Herbekijk polisvoorwaarden: vallen AI-incidenten onder de dekking of is een aparte rider nodig?

Conclusie: zonder robuuste controles kan één prompt duurder uitpakken dan honderd advocaat­uren. Breng dus nu al de risico’s in kaart, koppel ze aan uw contracten en verzekeringen en houd zo de controle over zowel rechten als aansprakelijkheden.

Vooruitblik: EU AI Act en toekomstige wetgeving

Wetgeving loopt doorgaans achter op technologische innovatie, maar in Brussel gebeuren grote dingen. De aankomende EU AI Act vormt straks het bindende kader voor alle aanbieders en gebruikers van AI-systemen in Europa. Ook wie ChatGPT of soortgelijke modellen inzet krijgt ermee te maken, los van de discussie “werkgevers vs. AI: wie bezit de rechten op wat ChatGPT schrijft?”. Hieronder de belangrijkste punten om nu al op de radar te zetten.

EU AI Act en zorgplicht voor ‘high-risk’ systemen

De AI Act werkt met risicocategorieën. Generatieve modellen vallen niet automatisch onder “high-risk”, maar de Raad en het Parlement sturen op een aparte sub­categorie “general-purpose AI”. Dat betekent onder meer:

  • Transparantie-plicht: organisaties moeten duidelijk maken dat content door AI is gegenereerd.
  • Logging-plicht: bewaar prompts, versies en output minimaal 6 tot 10 jaar om audit­sporen te kunnen leveren.
  • Risicobeoordeling: documenteer of het model inbreuk op auteurs- of databankrechten kan veroorzaken.
  • Correctieve maatregelen: een snelle “kill switch” voor foutieve of onrechtmatige output.

Voor werkgevers die ChatGPT Enterprise of een on-prem LLM draaien, komt daar een zorgplicht bovenop: zij worden quasi-provider en moeten een risk-management-system inrichten vergelijkbaar met ISO 42001 (in wording).

Mogelijke wijziging van het auteursrecht

De Europese Commissie onderzoekt of een sui generis-bescherming voor AI-output wenselijk is. Ideeën variëren van een beperkte naburig recht (10 jaar) tot een volledig nieuw “algoritmerecht”. Scenario’s voor werkgevers:

  1. Niets verandert – het huidige menselijke criterium blijft; workflow-logs blijven leidend.
  2. Licht naburig recht – AI-output krijgt een smalle bescherming; licenties en royalty’s worden realistischer.
  3. Volledige herziening – exploitatierechten verschuiven naar de partij die “de noodzakelijke regelingen” treft, mogelijk de werkgever.

Tip: voeg in contracten nu al een bepaling toe dat eventuele toekomstige rechten eveneens aan de werkgever toekomen (“voor zover wettelijk toegestaan”).

Internationale jurisprudentie om in de gaten te houden

  • Thaler v. Registrar (VK, 2023): bevestigt dat een AI geen uitvinder/maker kan zijn.
  • Zarya of the Dawn (VS Copyright Office, 2023): tekst gedeeltelijk beschermd, AI-beelden niet.
  • Getty Images v. Stability AI (VK/VS lopend): draait om het ongeautoriseerd trainen op beschermd beeldmateriaal.

Deze zaken zullen richtinggevend zijn voor Nederlandse rechters zodra vergelijkbare conflicten opduiken. Houd updates bij en pas interne policies tijdig aan.

Veelgestelde vragen over ChatGPT-output en werkgeversrechten

Onderstaande Q&A bundelt de vragen die HR-managers, juristen en medewerkers het meest stellen zodra generatieve AI de werkvloer betreedt. Handig voor een snelle reality-check zonder diep in de wetsartikelen te duiken.

Is ChatGPT-output automatisch auteursrechtvrij?

Niet helemaal. Pure, onbewerkte output mist het vereiste menselijke stempel en krijgt daarom géén auteursrechtelijke bescherming. Dat betekent echter niet dat de tekst “publiek domein” wordt; er bestaat simpelweg géén exclusief recht waarop u aanspraak kunt maken. Iedereen mag dezelfde woorden hergebruiken, inclusief concurrenten. Zet een werknemer wel substantiële creatieve keuzes op de tekst, dan ontstaat wél auteursrecht en valt dat (bij loondienst) doorgaans toe aan de werkgever via artikel 7 Auteurswet.

Mag ik AI-content onder mijn eigen naam publiceren?

Juridisch gezien mag dat, mits u voldoende eigen bijdrage levert. Publiceert u louter gekopieerde ChatGPT-output, dan claimt u niets wat te beschermen valt en kan uw naamsvermelding misleidend of reputatie-schadelijk zijn. Interne policy’s vereisen vaak transparantie: vermeld in het colofon of interne documentatie dat AI is ingezet, zeker wanneer de EU AI Act straks een expliciete label-plicht introduceert. Combineer dus auteursrechtelijke zekerheid met heldere communicatie.

Stelt ChatGPT mijn intellectueel eigendom bloot aan diefstal?

Potentieel wel. Alles wat u in een publieke ChatGPT-sessie tikt, kan volgens de servicevoorwaarden worden opgeslagen voor modeltraining of kwaliteitscontrole. Daardoor kan vertrouwelijke code, klantdata of ongepubliceerde teksten later “doorsijpelen” in antwoorden aan derden. Beperk dit risico door:

  • Alleen anonieme of geaggregeerde gegevens te prompten
  • Een Enterprise-licentie of on-prem LLM te gebruiken met opt-out voor training
  • Contractueel vast te leggen dat werknemers geen bedrijfsgeheimen invoeren zonder toestemming.

Zo houdt u controle over uw eigen IP én over wat het model terug de wereld in stuurt.

Wat betekent dit voor jouw organisatie?

ChatGPT verandert niets aan de basisregel: alleen mensen creëren auteursrecht. Dat betekent voor de praktijk:

  • Zolang een medewerker echt creatieve keuzes maakt, ontstaat bescherming en schuift het recht in loondienst automatisch naar de werkgever.
  • Wordt AI-output klakkeloos gekopieerd, dan bestaat er geen auteursrecht – en dus ook geen exclusiviteit die je kunt afdwingen.
  • Goed geregelde contracten en een helder AI-beleid zijn cruciaal om discussies, datalekken en aansprakelijkheidsclaims voor te blijven.

Concreet actieplan:

  1. Check arbeidsovereenkomsten en freelance­contracten op een waterdichte IP- en AI-clausule.
  2. Implementeer een workflow met verplichte “human polish”, plagiaat- en privacy-scans.
  3. Bewaar prompts, versies en reviews als bewijs van menselijke inbreng.
  4. Train medewerkers over do’s & don’ts bij het voeden van AI met vertrouwelijke info.

Hulp nodig bij een snelle rights- & risks-scan? Neem vrijblijvend contact op met Law & More en maak je organisatie AI-proof.

Privacy Settings
We use cookies to enhance your experience while using our website. If you are using our Services via a browser you can restrict, block or remove cookies through your web browser settings. We also use content and scripts from third parties that may use tracking technologies. You can selectively provide your consent below to allow such third party embeds. For complete information about the cookies we use, data we collect and how we process them, please check our Privacy Policy
Youtube
Consent to display content from - Youtube
Vimeo
Consent to display content from - Vimeo
Google Maps
Consent to display content from - Google
Spotify
Consent to display content from - Spotify
Sound Cloud
Consent to display content from - Sound

facebook lawandmore.nl   instagram lawandmore.nl   linkedin lawandmore.nl   twitter lawandmore.nl