facebook lawandmore.nl   instagram lawandmore.nl   linkedin lawandmore.nl   twitter lawandmore.nl

Afspraak

Law & More Logo

Twee zakelijke professionals bespreken contracten en aansprakelijkheid in een modern kantoor met uitzicht op de stad.

AI-systemen veranderen hoe bedrijven werken. Ze brengen ook nieuwe juridische risico’s met zich mee.

Wanneer je AI-technologie inkoopt of implementeert, kunnen onduidelijke contractuele afspraken leiden tot onverwachte aansprakelijkheid en financiële schade.

Twee zakelijke professionals bespreken contracten en aansprakelijkheid in een modern kantoor met uitzicht op de stad.

Goede contractuele afspraken en heldere aansprakelijkheidsverdeling zijn essentieel om je onderneming te beschermen tegen de risico’s die AI-systemen met zich meebrengen.

Veel bedrijven onderschatten het belang van specifieke AI-clausules. Ze vertrouwen op standaard IT-contracten, die vaak niet voldoen aan de bijzondere eigenschappen van kunstmatige intelligentie.

Dit artikel zoomt in op de belangrijkste aspecten van AI-contracten. Denk aan eigendomsrechten, databescherming, transparantie-eisen en praktisch contractbeheer.

Ondernemers krijgen zo praktische handvatten om hun organisatie juridisch en financieel te beschermen bij het gebruik van AI-technologie.

Essentiële kenmerken van AI-contracten

Een zakelijk persoon werkt aan een laptop met digitale contracten en AI-symbolen in een moderne kantooromgeving.

AI-contracten vragen om specifieke afspraken over doelen, prestaties en technische eisen. Je moet duidelijke contractuele kaders opstellen en kritisch kijken naar je leveranciers.

Vastleggen van doelen en specificaties

Leg concrete doelstellingen vast voordat je AI-systemen inkoopt. Vage omschrijvingen zorgen later voor problemen.

Het contract moet precies aangeven welke taken het AI-systeem uitvoert. Zo voorkom je misverstanden tussen jou en de leverancier.

Belangrijke specificaties om vast te leggen:

  • Nauwkeurigheidseisen (bijvoorbeeld 95% correcte voorspellingen)
  • Responsetijden voor het systeem
  • Verwerkingscapaciteit per dag of maand
  • Ondersteunde data-formaten

Stel ook grenzen aan het gebruik van het systeem. AI-systemen kunnen onverwachte resultaten geven buiten hun bedoelde functie.

Prestatie-indicatoren zijn handig om succes te meten. Maak ze meetbaar en realistisch, anders heb je er weinig aan.

Contractuele vereisten bij AI-gebruik

AI-contracten bevatten vaak speciale clausules die je in standaard IT-contracten niet vindt. Zulke clausules beschermen beide partijen.

Transparantievereisten zijn onmisbaar. De leverancier moet uitleggen hoe het AI-systeem werkt, zodat je aan de regels kunt voldoen.

Neem auditrechten op in je contract. Zo kun je inspecties uitvoeren op AI-processen en logbestanden inzien.

Data-eigendom vraagt om extra aandacht. Het contract moet duidelijk maken wie eigenaar is van inputdata, outputdata en trainingsdata.

De leverancier moet garanderen dat het systeem voldoet aan wet- en regelgeving. Zeker met de nieuwe AI Act van de EU in aantocht.

Leg update-procedures vast. AI-systemen veranderen door nieuwe training of algoritme-aanpassingen, en dat moet je afspreken.

Juridische aandachtspunten bij leveranciersselectie

Kies leveranciers zorgvuldig, vooral op juridisch vlak. Niet elke leverancier snapt AI-regelgeving even goed.

De leverancier moet laten zien dat hun systeem voldoet aan de risicocategorieën uit de AI Act. Hoog-risico systemen krijgen strengere eisen.

Aansprakelijkheidsverdeling is enorm belangrijk bij leveranciersselectie. Sommige leveranciers nemen geen verantwoordelijkheid voor AI-beslissingen.

Check of je leverancier verzekeringen heeft voor AI-gerelateerde schade. Zo dek je financiële risico’s af.

Geografische beperkingen kunnen meespelen. Soms mag je een AI-systeem niet in bepaalde landen gebruiken.

De leverancier moet ondersteuning bieden bij regelgevingsvragen. Dat helpt je bij het voldoen aan nieuwe wetgeving.

Contractuele flexibiliteit is belangrijk, want AI-regelgeving verandert snel. Leveranciers moeten bereid zijn om contracten aan te passen als dat nodig is.

Aansprakelijkheid in AI-contracten

Zakelijke bijeenkomst van diverse professionals die over AI-contracten en aansprakelijkheid discussiëren rond een vergadertafel met laptops en documenten.

Je moet in AI-contracten duidelijk afspreken wie aansprakelijk is als AI-systemen schade veroorzaken. De verdeling van risico’s, garantieclausules en aansprakelijkheidsbeperkingen bepalen wie verantwoordelijk is voor AI-gerelateerde problemen.

Verdeling van risico’s en verantwoordelijkheden

De verdeling van aansprakelijkheid hangt af van de rollen van leverancier en afnemer. Leveranciers blijven meestal aansprakelijk voor technische gebreken in het AI-systeem.

Afnemers zijn verantwoordelijk voor het juiste gebruik van AI-toepassingen binnen hun organisatie. Dat betekent onder meer het trainen van medewerkers en het volgen van gebruiksrichtlijnen.

Belangrijke risicoverdeling:

  • Leverancier: Systeemfouten, algoritmegebreken, data-integriteit
  • Afnemer: Onjuist gebruik, implementatiefouten, compliance

Leg specifiek vast wie aansprakelijk is voor hallucinerende AI-output. Leveranciers kunnen niet alles op gebruikers afschuiven, toch?

Bij gedeelde verantwoordelijkheden ontstaan vaak discussies over causaliteit. Beschrijf daarom concrete scenario’s in het contract waarin elke partij aansprakelijk is.

Garantie- en vrijwaringsclausules

Garantieclausules in AI-contracten dekken prestaties en betrouwbaarheid van het systeem. Leveranciers geven meestal beperkte garanties op algoritmeresultaten, want AI blijft nu eenmaal onvoorspelbaar.

Standaard garanties gaan over systeem-beschikbaarheid en technische specificaties. Leveranciers sluiten meestal garanties uit voor de juistheid van AI-gegenereerde content.

Typische garantiestructuur:

  • Systeembeschikbaarheid (bijvoorbeeld 99,9% uptime)
  • Compliance met relevante wetgeving
  • Geen garantie op AI-outputkwaliteit
  • Beperkte aansprakelijkheid voor indirecte schade

Vrijwaringsclausules beschermen partijen tegen claims van derden. AI-leveranciers vrijwaren afnemers vaak tegen inbreuk op intellectuele eigendomsrechten door het AI-systeem.

Afnemers moeten leveranciers vrijwaren voor schade door onjuist gebruik van de AI-toepassing. Deze wederzijdse vrijwaring helpt juridische conflicten tussen contractpartijen voorkomen.

Beperking en uitsluiting van aansprakelijkheid

Leveranciers beperken hun aansprakelijkheid in AI-contracten vaak met maximumbedragen en uitgesloten schadesoorten. Zulke clausules moeten wel binnen de wettelijke grenzen blijven.

Ze vergoeden meestal directe schade tot een bepaald bedrag. Indirecte schade, zoals winstderving, sluiten ze vaak uit.

Veelvoorkomende beperkingen:

  • Maximale aansprakelijkheid tot contractwaarde
  • Uitsluiting van gevolgschade
  • Korte termijnen voor schadeclaims
  • Geen aansprakelijkheid voor AI-beslissingen

Rechters in Nederland kunnen onredelijke aansprakelijkheidsbeperkingen nietig verklaren. Vooral bij grove schuld of opzet blijft de leverancier volledig aansprakelijk.

Transparantie en toezicht op AI-systemen

Bedrijven moeten helder maken welke AI ze gebruiken en hoe die werkt. De AI Act stelt specifieke eisen aan documentatie en controle van AI-systemen in contracten.

Inzage in gebruikte AI-modellen

Contractpartijen hebben recht op informatie over de AI-systemen die worden gebruikt. Dit speelt vooral bij generatieve AI en systemen die direct met mensen communiceren.

Leveranciers moeten duidelijk maken:

  • Welk type AI-systeem ze inzetten
  • Hoe het systeem werkt en beslissingen maakt
  • Welke data ze gebruiken voor training
  • Waar de beperkingen en risico’s liggen

Voor AI-systemen met beperkt risico gelden transparantieverplichtingen. Gebruikers moeten weten dat ze met AI te maken hebben.

Uitzondering: als het overduidelijk is dat het om AI gaat, hoeft dit niet expliciet gemeld te worden.

Deepfake en synthetische content vragen om speciale markering. De output moet herkenbaar zijn als kunstmatig gegenereerd, en dat moet in een machine leesbaar formaat gebeuren.

Verplichtingen rondom audit en rapportage

De AI Act eist regelmatige controles van AI-systemen. Bedrijven moeten bijhouden hoe ze aan de regels voldoen.

Belangrijke audit-elementen zijn onder meer:

  • Risicobeoordeling van het AI-systeem
  • Kwaliteitscontroles van data
  • Testen van algoritmes en prestaties
  • Documentatie van wijzigingen

Rapportages moeten incidenten melden. Problemen met AI-systemen meld je aan toezichthouders, zeker bij hoog-risico systemen.

Contracten moeten audit-rechten regelen. Opdrachtgevers mogen leveranciers controleren en hebben toegang tot logbestanden en technische documentatie nodig.

Conformiteit met de AI Act

AI-systemen moeten straks aan Europese regels voldoen, vanaf augustus 2025. Nieuwe transparantieregels gelden voor alle AI-categorieën.

De AI Act deelt systemen op in vier groepen:

  • Onaanvaardbaar risico (verboden)
  • Hoog risico (strenge eisen)
  • Beperkt risico (transparantie verplicht)
  • Minimaal risico (lichte eisen)

Contracten moeten regelen wie verantwoordelijk is voor naleving van de regels: leverancier of afnemer, afhankelijk van de situatie.

Generatieve AI krijgt extra regels. Systemen die tekst, beeld of video maken, moeten hun output markeren. Gebruikers moeten weten dat content kunstmatig is.

Boetes kunnen pittig zijn. Niet voldoen aan de AI Act kan tot 7% van de wereldwijde omzet kosten. Leg in contracten vast wie aansprakelijk is voor zulke boetes.

Data-eigendom en privacybescherming

Bij AI-contracten ontstaat vaak discussie over wie eigenaar is van data en AI-output. Maak duidelijke afspraken over dataverwerking en zorg dat je voldoet aan privacywetgeving zoals de AVG.

Eigendom van data en AI-output

Inputdata blijft meestal eigendom van de klant die het AI-systeem gebruikt. Dit geldt voor bedrijfsgegevens, klantinformatie en andere ingevoerde data.

De AI-output ligt ingewikkelder. Leveranciers claimen vaak eigendomsrechten op:

  • Gegenereerde rapporten
  • Analyses en voorspellingen
  • Nieuwe inzichten uit dataverwerking

Leg contractueel vast dat je eigenaar blijft van je originele data. Bepaal ook welke rechten je krijgt op de AI-output.

Training data vormt een apart risico. Sommige leveranciers gebruiken klantdata om hun systemen te verbeteren, waardoor concurrenten indirect kunnen profiteren van jouw data.

Contracten moeten helder maken:

  • Welke data de leverancier mag gebruiken
  • Waarvoor ze data verwerken
  • Hoe lang ze data bewaren
  • Wanneer data verwijderd wordt

Afspraken over data protectie en verwerking

Maak concrete afspraken over de bescherming van je data. Vage bepalingen geven alleen maar gedoe.

Technische beveiligingsmaatregelen moeten duidelijk zijn:

  • Encryptie van data in rust en tijdens transport
  • Toegangscontroles en authenticatie
  • Backup- en herstelprocedures
  • Monitoring van dataverwerking

De verwerkersovereenkomst regelt de juridische kant. Deze moet voldoen aan de AVG-eisen en precies aangeven welke verwerkingen zijn toegestaan.

Data locatie telt mee voor compliance. Contracten moeten benoemen:

  • In welke landen data wordt opgeslagen
  • Of data buiten de EU wordt verwerkt
  • Welke waarborgen gelden bij internationale overdracht

Maak afspraken over wat er gebeurt bij een datalek. De leverancier moet binnen 24 uur melden als er iets misgaat. Zorg dat er procedures zijn voor onderzoek en herstel.

Naleving van privacywetgeving

AI-systemen moeten voldoen aan de AVG en andere privacyregels, vooral als ze persoonsgegevens verwerken.

De rechtsgrond voor verwerking moet duidelijk zijn. Dat kan zijn:

  • Contractuele noodzaak
  • Gerechtvaardigd belang
  • Toestemming van betrokkenen

Transparantie is verplicht. Je moet kunnen uitleggen hoe het AI-systeem werkt en welke beslissingen het neemt. Zeker bij geautomatiseerde besluitvorming is dit belangrijk.

De EU AI Act legt nieuwe eisen op aan bepaalde AI-systemen. Leveranciers van hoog-risico systemen moeten laten zien dat ze aan de regels voldoen.

Contracten moeten regelmatige audits mogelijk maken. Klanten moeten kunnen controleren of leveranciers zich aan de afspraken houden. Dit helpt om compliance aan te tonen richting toezichthouders.

Specifieke clausules voor inkoop- en leveringsvoorwaarden

Leveranciers gebruiken steeds vaker AI-tools in hun dienstverlening. Dat brengt nieuwe risico’s voor organisaties. Specifieke contractclausules voor transparantie, toestemming en exit-regelingen zijn nodig om controle te houden.

Transparantieverplichtingen in contracten

Vraag leveranciers om exacte informatie over hun AI-gebruik. Zo voorkom je verrassingen en weet je waar je aan toe bent.

Vereiste informatie van leveranciers:

  • Welke AI-toepassingen ze inzetten
  • Het type AI-model (generatief, predictief, enz.)
  • Welke trainingsdata ze gebruiken
  • Of je AI-beslissingen kunt beïnvloeden

Leveranciers moeten ook een conformiteitsverklaring geven voor hun AI-systemen. Dit geldt zelfs als de EU AI Act het nog niet verplicht.

Voor generatieve AI-tools zijn extra details belangrijk, zoals prompt-logs en fallback-opties als de AI faalt.

Een AI-register helpt om alle systemen bij te houden. De leverancier moet dit register regelmatig updaten.

Beheer van toestemming en start AI-gebruik

AI-gebruik mag alleen starten na schriftelijke toestemming van de organisatie. Dit beschermt tegen ongewenst of ongecontroleerd AI-gebruik.

Toestemmingsvereisten:

  • Specifieke AI-toepassing
  • Duidelijk doel van het AI-gebruik
  • Welke data wordt verwerkt
  • Of AI-training plaatsvindt op organisatiedata

De organisatie mag toestemming altijd intrekken. Dit moet zonder boetes of extra kosten kunnen.

Elke wijziging in AI-gebruik vraagt om nieuwe toestemming. Leveranciers mogen niet zomaar andere AI-tools toevoegen.

Data-eigendom moet glashelder zijn. Organisaties willen weten wie eigenaar is van AI-gegenereerde output en resultaten.

Exit-regelingen en contractbeëindiging

Bij contractbeëindiging zijn duidelijke afspraken nodig over data en AI-output. Zo voorkom je vendor lock-in en bescherm je je bedrijfsinformatie.

Belangrijke exit-afspraken:

  • Wie welke data behoudt
  • Toegang tot AI-output na beëindiging
  • Verwijdering van bedrijfsdata uit AI-systemen
  • Overdracht van logbestanden

Leveranciers moeten alle bedrijfsdata volledig wissen uit hun AI-modellen. Dit geldt ook voor trainingsdata die is afgeleid van jouw organisatie-informatie.

De organisatie moet kopieën kunnen maken van relevante AI-output voor het contract eindigt. Dat is echt nodig voor de bedrijfscontinuïteit.

Overgangsperiodes maken een soepele exit mogelijk. Leveranciers moeten genoeg tijd geven voor data-export en systeemmigratie.

Praktische toepassing en beheer van AI-contracten

De uitvoering van AI-contracten vraagt om duidelijke afspraken over automatisering, leveranciersondersteuning en continue monitoring.

Deze zaken bepalen uiteindelijk hoe succesvol AI binnen een organisatie wordt ingezet.

Automatisering en contractbeheer met AI

AI-systemen kunnen contractbeheer flink verbeteren door routinetaken te automatiseren.

Ze analyseren contractvoorwaarden en pikken belangrijke deadlines er automatisch uit.

Generatieve AI zoals ChatGPT helpt bij het opstellen van standaard contractclausules.

Het systeem neemt repetitieve klussen over, zoals compliance-checks.

Voordelen van geautomatiseerd contractbeheer:

  • Snellere verwerking van contractwijzigingen
  • Minder menselijke fouten bij data-invoer
  • Automatische waarschuwingen voor verloopdatums
  • Consistente toepassing van bedrijfsregels

Toch moet je als organisatie grenzen stellen aan AI-automatisering.

Bij complexe onderhandelingen en strategische keuzes blijft menselijk inzicht onmisbaar.

Het AI-contract hoort vast te leggen welke taken je automatiseert.

Zo voorkom je onduidelijkheid over wie waarvoor verantwoordelijk is.

Ondersteuning en onderhoud door leveranciers

Leveranciers moeten hun AI-systemen blijven ondersteunen zolang het contract loopt.

Daar valt technische support, updates, bugfixes en training onder.

Het contract hoort duidelijke service level agreements (SLA’s) te bevatten:

  • Reactietijden bij storingen (bijvoorbeeld 4 uur voor kritieke problemen)
  • Beschikbaarheidspercentages (minimaal 99,5% uptime)
  • Onderhoudsmomenten en duur van geplande onderbrekingen

Leveranciers leveren regelmatig updates voor de AI-algoritmes.

Die updates houden prestaties op peil en zorgen dat je aan nieuwe regels voldoet.

Training is echt cruciaal voor een goede implementatie.

Het contract moet vastleggen hoeveel trainingsuren je krijgt en of die training online of fysiek is.

Als er problemen zijn, hoort de leverancier een duidelijke escalatieprocedure te volgen.

Eerste lijn support pakt simpele vragen, lastigere issues gaan door naar specialisten.

Risicomanagement en monitoring

Continue monitoring van AI-prestaties is gewoon nodig voor goed risicomanagement.

Organisaties zetten systemen in die afwijkingen in AI-gedrag signaleren.

Belangrijke monitoring aspecten:

  • Nauwkeurigheid van AI-beslissingen over tijd
  • Ongewenste bias in algoritmes
  • Beveiligingsincidenten en data-lekken
  • Naleving van privacy-regelgeving

Het AI-contract moet auditrechten bevatten.

Hiermee krijg je toegang tot logs en documentatie van AI-processen.

Leveranciers moeten open zijn over hoe hun algoritmes werken.

Regelmatige risico-evaluaties brengen nieuwe bedreigingen aan het licht.

AI-systemen kunnen zich best gek gedragen als ze nieuwe data krijgen.

Je moet als organisatie procedures hebben voor als het echt misgaat.

Dat kan betekenen dat je tijdelijk AI-functies uitzet bij ernstige problemen.

Data-eigendom blijft tijdens monitoring een belangrijk punt.

Het contract hoort duidelijk te maken wie toegang heeft tot de inzichten en rapporten die AI genereert.

Veelgestelde Vragen

Ondernemers zitten vaak met vragen over juridische verplichtingen en risicobeheer bij AI-contracten.

Vaak gaan die over aansprakelijkheid, wetgeving, intellectueel eigendom en hoe je je in de praktijk beschermt.

Wat zijn de juridische uitdagingen bij het gebruik van AI in contracten?

De grootste uitdaging? AI-systemen maken soms fouten die schade veroorzaken.

Wie draait dan op voor de verantwoordelijkheid? Dat hangt af van wat je met de leverancier hebt afgesproken.

Veel contracten zijn vaag over AI-prestaties.

Zo staat er regelmatig “nauwkeurig functioneren” zonder verdere uitleg, wat bij problemen tot discussie leidt.

AI werkt toch anders dan gewone software.

Het systeem leert en past zich aan, dus soms krijg je onverwachte resultaten.

Standaard IT-contracten houden daar meestal geen rekening mee.

Bewijs leveren bij AI-fouten is lastig.

Het is vaak niet duidelijk wat er precies misging in het algoritme.

Hoe kunt u de aansprakelijkheid van uw onderneming beperken bij het inzetten van kunstmatige intelligentie?

Leg in het contract vast wat je precies van de AI verwacht.

Definieer “nauwkeurig” en “correct functioneren” met meetbare criteria.

Verdeel de verantwoordelijkheden helder tussen leverancier en afnemer.

Bepaal wie training, monitoring en onderhoud doet.

Beperk je aansprakelijkheid door uitsluitingen op te nemen voor schade door niet-voorziene AI-acties, maar blijf binnen de wet.

Sluit een verzekering af die AI-risico’s dekt.

Kijk goed of je huidige aansprakelijkheidsverzekering AI-schade meeneemt.

Welke stappen moet u ondernemen om te voldoen aan de huidige wetgeving omtrent AI en contracten?

Kijk eerst of jouw AI-systeem onder de AI Act valt.

Systemen worden ingedeeld in risicocategorieën: minimaal, beperkt, hoog of onaanvaardbaar risico.

Voor hoge-risico systemen gelden strenge eisen.

Je moet voldoen aan conformiteitsbeoordeling, risicobeheer en kwaliteitssystemen.

Zorg dat je leverancier deze verplichtingen ook echt nakomt.

Documenteer alle AI-processen zorgvuldig.

Leg vast welke data je gebruikt, hoe het systeem getraind wordt en welke beslissingen het neemt.

Dat is verplicht voor compliance.

Zorg voor interne procedures rond AI-governance.

Train medewerkers zodat ze AI-risico’s herkennen en incidenten melden.

Op welke manier kunnen algemene voorwaarden bijdragen aan de bescherming tegen AI-gerelateerde risico’s?

Zorg voor specifieke AI-clausules in je algemene voorwaarden.

Standaard softwarebepalingen schieten vaak tekort bij AI-risico’s.

Definieer duidelijk wat je bedoelt met “AI-systeem” in je contracten.

Beschrijf wat het systeem kan, waar het tekortschiet en wat je mag verwachten.

Regel wie eigenaar is van AI-gegenereerde output en het intellectueel eigendom.

Dat voorkomt gezeur over auteursrechten op AI-creaties.

Stel eisen aan transparantie en uitlegbaarheid van AI-beslissingen.

Dat is extra belangrijk als AI invloed heeft op mensen of bedrijfsprocessen.

Hoe kunt u als ondernemer intellectueel eigendom beschermen bij het gebruik van AI?

Maak afspraken over wie eigenaar wordt van AI-modellen en trainingsdata.

Leg vast of je rechten krijgt op algoritmes die speciaal voor jouw organisatie zijn ontwikkeld.

Let erop dat je AI-systeem geen bestaande intellectuele eigendomsrechten schendt.

Controleer of trainingsdata legaal is verkregen en geen beschermd materiaal bevat.

Bescherm je eigen data die voor training wordt gebruikt.

Stel contractueel vast hoe leveranciers met jouw bedrijfsgegevens omgaan.

Overweeg geheimhoudingsovereenkomsten als je gevoelige data deelt voor AI-doeleinden.

Zo voorkom je dat vertrouwelijke bedrijfsinformatie op straat belandt.

Wat zijn de gevolgen van de Europese AI-regelgeving voor contracten en aansprakelijkheid?

De AI Act legt nieuwe verplichtingen op aan leveranciers van AI. Ze moeten systemen met hoog risico laten certificeren.

Daarnaast moeten ze documentatie bijhouden. Dat raakt direct aan contractuele garanties en aansprakelijkheid.

De AI Liability Directive zorgt ervoor dat je makkelijker schade kunt verhalen op AI-leveranciers. Wie schade lijdt, hoeft bij bepaalde AI-gerelateerde gevallen minder bewijs te leveren.

Contracten moeten nu echt aangepast worden aan deze nieuwe regels. Wat eerst nog door de beugel kon, kan nu zomaar tot boetes leiden.

Bedrijven die AI-systemen inkopen, eisen steeds vaker dat hun leveranciers aan de EU-regels voldoen. Eigenlijk hoort dat inmiddels gewoon bij de standaard due diligence als je een AI-contract afsluit.

Privacy Settings
We use cookies to enhance your experience while using our website. If you are using our Services via a browser you can restrict, block or remove cookies through your web browser settings. We also use content and scripts from third parties that may use tracking technologies. You can selectively provide your consent below to allow such third party embeds. For complete information about the cookies we use, data we collect and how we process them, please check our Privacy Policy
Youtube
Consent to display content from - Youtube
Vimeo
Consent to display content from - Vimeo
Google Maps
Consent to display content from - Google
Spotify
Consent to display content from - Spotify
Sound Cloud
Consent to display content from - Sound

facebook lawandmore.nl   instagram lawandmore.nl   linkedin lawandmore.nl   twitter lawandmore.nl