De Europese AI-verordening heeft op 2 februari 2025 een belangrijke mijlpaal bereikt. Vanaf deze datum zijn diverse AI-systemen met onaanvaardbare risico’s verboden in de hele EU, waaronder sociale scoring, manipulatieve technieken en bepaalde vormen van biometrische identificatie.
Deze verboden markeren het begin van een gefaseerde invoering die tot 2030 doorloopt.
U moet weten welke AI-toepassingen niet meer zijn toegestaan in uw organisatie. De nieuwe regels beïnvloeden zowel bedrijven die AI-systemen ontwikkelen als organisaties die deze technologie gebruiken.
De verordening streeft naar een balans tussen innovatie en veiligheid, met strenge regels waar nodig en ruimte voor laag-risico toepassingen. Dit artikel legt uit welke AI-praktijken nu verboden zijn en wat dit betekent voor uw organisatie.
U leest over specifieke verboden, hoe toezicht werkt, welke sancties mogelijk zijn, en hoe u zich voorbereidt op naleving van de nieuwe regelgeving.
Overzicht van de verboden AI-praktijken per februari 2025
Vanaf 2 februari 2025 gelden strenge verboden op AI-systemen die een onaanvaardbaar risico vormen voor uw veiligheid en grondrechten. De Europese AI-verordening benoemt specifieke praktijken die niet meer toegestaan zijn binnen de EU.
Definitie van verboden AI-systemen
Verboden AI-systemen zijn toepassingen die door de EU als onaanvaardbaar risicovol worden beschouwd. Deze systemen worden in Artikel 5 van de AI Act expliciet genoemd.
De AI-verordening definieert deze systemen op basis van hun potentiële schade aan Europese waarden. Het gaat om AI-praktijken die uw fundamentele rechten kunnen schenden of misbruik maken van kwetsbare situaties.
Kenmerken van verboden systemen:
- Systemen die manipulatieve technieken gebruiken
- Toepassingen die mensen exploiteren op basis van leeftijd of handicap
- Technologie die sociale scoring toepast
- AI die biometrische identificatie op afstand uitvoert in openbare ruimtes
U mag deze systemen niet ontwikkelen, gebruiken of op de markt brengen. De Europese Unie maakt geen uitzonderingen voor de meeste verboden AI-praktijken.
Waarom deze AI-praktijken verboden zijn
Deze AI-systemen bedreigen de kernwaarden van de Europese Unie en uw persoonlijke vrijheden. De regelgeving beschermt u tegen ongewenste beïnvloeding en discriminatie.
Sociale scoring kan leiden tot nadelige behandeling op basis van uw gedrag of persoonlijke kenmerken. Dit systeem rangschikt mensen en beperkt hun toegang tot diensten of kansen.
De EU vindt dit in strijd met uw recht op gelijke behandeling. Emotieherkenning op de werkvloer en in het onderwijs vormt een inbreuk op uw privacy.
Deze technologie analyseert uw gevoelens zonder uw toestemming. Dit creëert een ongelijke machtsverhouding tussen werkgevers of onderwijsinstellingen en u.
Manipulatieve AI gebruikt misleidende technieken om uw gedrag te veranderen. Deze systemen maken misbruik van uw kwetsbaarheden.
De AI Act verbiedt dit om u te beschermen tegen ongewenste beïnvloeding.
Verbod op onaanvaardbaar risico
De categorie “onaanvaardbaar risico” vormt het hoogste risiconiveau binnen de AI-verordening. Systemen in deze categorie zijn volledig verboden zonder uitzonderingen, behalve in specifieke gevallen voor rechtshandhaving.
Realtime biometrische identificatie op afstand in openbare ruimtes valt onder dit verbod. Denk aan gezichtsherkenning die u continu volgt op straat.
Alleen in uitzonderlijke situaties mag deze technologie worden ingezet. AI-systemen voor risicobeoordelingen gebaseerd uitsluitend op profilering zijn niet toegestaan.
U mag niet beoordeeld worden op het risico van strafbare feiten alleen op basis van uw profiel. Dit beschermt u tegen vooroordelen en discriminatie.
| Verboden praktijk | Reden verbod |
|---|---|
| Social scoring | Nadelige behandeling op basis van gedrag |
| Emotieherkenning werk/onderwijs | Schending privacy en autonomie |
| Manipulatieve technieken | Misbruik van kwetsbaarheden |
| Biometrische identificatie | Inbreuk op bewegingsvrijheid |
| Profilering strafbare feiten | Discriminatie en vooroordelen |
Bedrijven die deze verboden AI-praktijken gebruiken, riskeren boetes tot €35 miljoen of 7% van hun wereldwijde omzet.
Specifieke verboden: Manipulatie, misleiding en sociale controle
De EU verbiedt vanaf februari 2025 AI-systemen die mensen manipuleren of misleiden, vooral wanneer deze zich richten op kwetsbare groepen. Ook sociale scoring wordt niet meer toegestaan.
Manipulatieve en misleidende AI
Manipulatieve AI-systemen die het gedrag van mensen beïnvloeden zonder dat zij dit doorhebben, zijn vanaf 2 februari 2025 verboden. Deze systemen gebruiken technieken die uw beslissingen beïnvloeden op een manier die u kan schaden.
Misleidende AI valt ook onder dit verbod. Dit zijn systemen die u bewust verkeerde informatie geven of zich anders voordoen dan ze zijn.
U moet als gebruiker kunnen vertrouwen op de AI-tools die u gebruikt.
Voorbeelden van verboden praktijken:
- AI die uw emoties uitbuit om u producten te laten kopen die u niet nodig heeft
- Systemen die subliminal messaging gebruiken om uw gedrag te sturen
- Chatbots die zich voordoen als echte mensen om u te misleiden
Als gebruikersverantwoordelijke mag u deze systemen niet meer inzetten. Het maakt niet uit of u de AI zelf heeft ontwikkeld of van een externe partij afneemt.
Uitbuitende AI gericht op kwetsbare groepen
AI-systemen die misbruik maken van kwetsbaarheden zoals leeftijd, handicap of economische situatie zijn volledig verboden. Deze systemen richten zich specifiek op mensen die minder goed in staat zijn zich te beschermen.
Social scoring, waarbij mensen worden beoordeeld op hun sociale gedrag of persoonlijke kenmerken, mag niet meer. Dit type profilering kan leiden tot nadelige behandeling en discriminatie.
Denk aan systemen die:
- Kinderen of ouderen onder druk zetten om aankopen te doen
- Mensen met een beperking uitbuiten voor financieel gewin
- Burgers rangschikken op basis van hun gedrag in het dagelijks leven
U bent verantwoordelijk voor de AI-systemen die u gebruikt. Controleer dus of uw toepassingen niet in deze categorie vallen.
Verboden toepassingen van biometrische AI
De AI-verordening verbiedt verschillende vormen van biometrische AI die als onaanvaardbaar risicovol worden beschouwd. Deze verboden richten zich op systemen die gezichtsherkenning en andere biometrische gegevens gebruiken om mensen te identificeren of te categoriseren in openbare ruimtes.
Biometrische identificatie op afstand
Biometrische identificatie op afstand is een techniek waarbij AI-systemen personen identificeren zonder fysiek contact. Deze systemen gebruiken kenmerken zoals gezichtskenmerken, looppatroon of andere biologische eigenschappen om mensen te herkennen vanaf een afstand.
U mag deze technologie niet meer inzetten in openbare ruimtes voor rechtshandhaving. Het verbod geldt voor alle vormen van identificatie waarbij biometrische gegevens automatisch worden verwerkt om personen te herkennen.
Er bestaan beperkte uitzonderingen op dit verbod. Deze uitzonderingen zijn strikt gereguleerd en mogen alleen in specifieke gevallen worden toegepast.
Voor gewone bedrijven en organisaties geldt het verbod zonder uitzonderingen.
Realtime biometrische identificatie in openbare ruimtes
Realtime biometrische identificatie betekent dat AI-systemen direct en zonder vertraging personen identificeren terwijl zij zich in een openbare ruimte bevinden. Dit gebeurt vaak via camera’s die gezichtsherkenning toepassen op voorbijgangers.
Dit type AI-systeem is vanaf 2 februari 2025 verboden in de EU. U mag geen systemen gebruiken die direct biometrische gegevens verzamelen en analyseren in publieke gebieden zoals straten, winkelcentra of openbare gebouwen.
Beperkte uitzonderingen bestaan voor:
- Opsporing van slachtoffers van misdrijven
- Voorkoming van directe gevaren voor mensenlevens
- Opsporing van personen verdacht van ernstige misdrijven
Deze uitzonderingen vereisen strikte voorwaarden en toestemming van autoriteiten.
Scraping en databanken voor gezichtsherkenning
Het scrapen van gezichtsbeelden van internet of beveiligingscamera’s om databanken voor gezichtsherkenning te bouwen is verboden. U mag geen afbeeldingen van mensen verzamelen zonder hun toestemming om deze in AI-systemen te gebruiken.
Dit verbod beschermt uw privacy en voorkomt dat organisaties zonder uw medeweten databanken opbouwen. Het geldt voor alle vormen van ongerichte dataverzameling van biometrische gegevens.
Biometrische categorisering is ook verboden. Dit betekent dat AI-systemen mensen niet mogen indelen in categorieën op basis van hun biometrische kenmerken zoals ras, seksuele geaardheid of politieke overtuiging.
Deze vorm van categorisering kan leiden tot discriminatie en is daarom niet toegestaan onder de AI-verordening.
Emotieherkenning en risicobeoordelingen: Nieuwe grenzen
Vanaf februari 2025 gelden strenge verboden voor AI-systemen die emoties herkennen op specifieke locaties. Ook zijn er verboden voor systemen die criminele risico’s proberen te voorspellen op basis van profilering.
AI voor emotieherkenning op werk en onderwijs
De AI-verordening verbiedt het gebruik van AI-systemen voor emotieherkenning op de werkplek en in het onderwijs. Dit verbod beschermt uw grondrechten in omgevingen waar een machtsongelijkheid bestaat.
Het verbod geldt voor:
- Systemen die via gezichtsuitdrukkingen emoties proberen te lezen
- Spraakanalyse die emotionele toestanden meet
- Biometrische data zoals hartritme voor emotieherkenning
Het verbod kent twee uitzonderingen. U mag emotieherkenning wel inzetten voor medische doeleinden of voor veiligheidsdoeleinden.
Deze uitzonderingen zijn strikt geformuleerd.
De Autoriteit Persoonsgegevens noemt emotieherkenning “dubieus en risicovol” omdat deze AI-toepassingen uitgaan van verkeerde aannames. Emoties worden niet door iedereen op dezelfde manier geuit.
Culturele verschillen, leeftijd en individuele kenmerken beïnvloeden hoe mensen emoties tonen. Een hoge hartslag betekent niet altijd angst.
Een harde stem wijst niet automatisch op woede.
AI voor risicobeoordeling van criminaliteit
AI-systemen die het risico op toekomstig crimineel gedrag voorspellen via profilering zijn vanaf februari 2025 verboden. Deze systemen gebruiken persoonlijke kenmerken om te bepalen of iemand mogelijk strafbare feiten zal plegen.
Het verbod richt zich op preventieve profilering van individuen. U mag niet langer AI-toepassingen gebruiken die iemands crimineel risico inschatten op basis van demografische gegevens, gedragspatronen of sociale kenmerken.
Deze AI-systemen tasten de menselijke waardigheid en autonomie aan. Ze kunnen tot discriminatie leiden omdat ze mensen beoordelen op basis van kenmerken in plaats van daadwerkelijk gedrag.
Let op: het verbod geldt specifiek voor risicobeoordeling van natuurlijke personen. Het gebruik van AI voor analyse van criminaliteitspatronen op algemeen niveau blijft onder voorwaarden toegestaan.
Handhaving, toezicht en sancties
In Nederland krijgen de Autoriteit Persoonsgegevens en de Rijksinspectie Digitale Infrastructuur een belangrijke rol bij het toezicht op de AI-verordening. Bij overtreding riskeert u boetes tot miljoenen euro’s, afhankelijk van de ernst van de inbreuk en de omvang van uw organisatie.
Rollen van toezichthouders en de Europese Commissie
De Autoriteit Persoonsgegevens en de Rijksinspectie Digitale Infrastructuur krijgen een coördinerende rol in het toezicht op de AI Act. Deze organisaties ondersteunen en adviseren andere sectorale toezichthouders.
Zij bevorderen samenwerking tussen verschillende sectoren. Voor producten die al onder bestaande veiligheidsregels vallen, zoals machines en liften met CE-markering, blijven de huidige sectorale toezichthouders bevoegd.
Zij controleren nu ook of deze producten voldoen aan de AI-verordening wanneer ze AI bevatten. De toezichthouders hanteren een proactieve aanpak.
Ze gaan eerst in dialoog met u als aanbieder of gebruiker, kijken wat er verbeterd moet worden en geven redelijke termijnen. Pas als u niet aan deze termijnen voldoet, volgt handhaving.
De deadline voor het aanwijzen van nationale toezichthouders is 2 augustus 2025. Nederland haalt deze datum waarschijnlijk niet.
Dit betekent dat er mogelijk tijdelijk geen officieel aangewezen toezichthouder is voor bepaalde AI-verboden.
Boetes en juridische gevolgen
Bij overtredingen van de AI-verordening riskeert u aanzienlijke boetes. De hoogte hangt af van de ernst van de inbreuk en de grootte van uw organisatie.
Boetecategorieën:
- Verboden AI-praktijken: tot €35 miljoen of 7% van de wereldwijde jaaromzet
- Niet-naleving van verplichtingen: tot €15 miljoen of 3% van de wereldwijde jaaromzet
- Onjuiste informatie: tot €7,5 miljoen of 1,5% van de wereldwijde jaaromzet
Zelfs zonder aangewezen toezichthouder kunnen getroffen burgers en bedrijven juridische stappen tegen u ondernemen wegens onrechtmatige daad. De Europese Commissie behoudt ook het recht om in te grijpen bij overtredingen.
Het proces van handhaving duurt gemiddeld zes maanden. In deze periode gaat de toezichthouder met u in gesprek over de noodzakelijke aanpassingen.
Gevolgen voor organisaties en aanbieders
U moet als organisatie volledig inzicht hebben in uw AI-systemen. Maak een inventarisatie van welke AI-toepassingen u gebruikt en bepaal de risicocategorie van elk systeem.
Voor hoog-risico AI-systemen gelden strenge verplichtingen. Als u twijfelt of uw systeem onder deze categorie valt, behandel het dan als hoog-risico en voldoe vanaf dag één aan alle eisen.
Belangrijke actiepunten:
- Onderzoek welke rollen en verantwoordelijkheden u heeft als aanbieder of gebruikersverantwoordelijke
- Stel contractuele bepalingen op die voldoen aan de AI-verordening
- Voer AI Risk Assessments uit voor uw systemen
- Zorg voor AI-geletterdheid bij uw personeel
De toezichthouders verwachten dat u proactief handelt. Zorg nu dat uw AI-systemen voldoen aan de vereisten voor veiligheid en transparantie.
Voorbereiding en toekomst: Compliance en implementatie
Organisaties die AI-systemen gebruiken moeten hun medewerkers trainen in AI-geletterdheid. Alle verboden praktijken moeten worden geïdentificeerd en gestopt.
Dit moet gebeuren door een zorgvuldig proces van inventarisatie. Zet structurele trainingen op voor uw personeel.
Proces van identificatie en uitfasering
U moet vóór 2 februari 2025 alle AI-systemen in uw organisatie in kaart brengen. Dit betekent dat u algoritmes en AI-modellen inventariseert die u gebruikt, van chatGPT tot general purpose AI en hoogrisicosystemen.
Maak een overzicht van welke AI-toepassingen actief zijn in uw organisatie. Controleer of deze systemen vallen onder de verboden praktijken zoals emotieherkenning op de werkvloer of social scoring.
Concrete stappen voor identificatie:
- Breng alle AI-systemen en AI-modellen voor algemene doeleinden in kaart
- Beoordeel of systemen vallen onder verboden categorieën
- Bepaal welke systemen u moet uitfaseren
- Stel een tijdlijn op voor verwijdering van verboden praktijken
Als u verboden AI-systemen gebruikt, moet u deze direct stopzetten. De boetes voor niet-naleving kunnen oplopen tot €35 miljoen of 7% van uw wereldwijde jaaromzet.
Verplichte AI-geletterdheid en training
Sinds 2 februari 2025 bent u verplicht om uw medewerkers te trainen in AI-geletterdheid. Deze training gaat verder dan alleen technische kennis over artificial intelligence.
Uw personeel moet ook begrijpen wat de ethische gevolgen zijn van kunstmatige intelligentie. De training moet afgestemd worden op de rol van elke medewerker.
Iemand die AI-modellen ontwikkelt heeft andere kennis nodig dan iemand die alleen ChatGPT gebruikt voor tekstverwerking.
Verplichte onderdelen van de training:
- Technisch begrip van AI-systemen en algoritmes
- Kennis van verboden praktijken
- Inzicht in ethische implicaties
- Transparantieverplichtingen bij AI-gebruik
- Bewustzijn van maatschappelijke impact
U moet documenteren wie welke training heeft gevolgd. Houd bij wanneer medewerkers zijn bijgeschoold en welke resultaten ze hebben behaald.
Deze documentatie kan nodig zijn bij controles door toezichthouders.
Frequently Asked Questions
Vanaf 2 februari 2025 gelden er nieuwe verboden op bepaalde AI-toepassingen in de hele Europese Unie. Deze regels hebben gevolgen voor bedrijven, overheden en consumenten die met kunstmatige intelligentie werken.
Wat zijn de nieuwe regels omtrent AI-gebruik ingegaan in februari 2025?
De AI-verordening verbiedt meerdere AI-systemen die als onaanvaardbaar risicovol worden beschouwd. Sociale scoring waarbij mensen worden ingedeeld op basis van gedrag of persoonlijke kenmerken is niet meer toegestaan als dit tot nadelige behandeling leidt.
AI-systemen die emotieherkenning toepassen op de werkvloer of in het onderwijs zijn verboden. Ook mag u geen AI gebruiken die manipulatieve of misleidende technieken inzet om gedrag in negatieve zin te beïnvloeden.
Realtime biometrische identificatie op afstand in openbare ruimtes voor rechtshandhaving is niet meer toegestaan, behalve in zeer beperkte uitzonderingssituaties. Het gebruik van AI voor risicobeoordelingen van strafbare feiten uitsluitend op basis van profilering valt eveneens onder het verbod.
Hoe kan ik controleren of mijn AI-toepassingen voldoen aan de wetgeving van februari 2025?
U moet eerst bepalen of uw AI-systeem onder een van de verboden categorieën valt. Controleer of uw toepassing emotieherkenning gebruikt, mensen op basis van gedrag beoordeelt, of manipulatieve technieken inzet.
Bekijk de volledige tekst van artikel 5 van de AI-verordening voor een gedetailleerd overzicht van alle verboden praktijken. Als u twijfelt over uw AI-systeem, kunt u advies inwinnen bij juridische experts die gespecialiseerd zijn in de AI-verordening.
Documenteer hoe uw AI-systeem werkt en welke gegevens het gebruikt. Deze informatie is belangrijk als toezichthouders vragen stellen over uw toepassing.
Welke sancties staan er op het niet naleven van de verboden AI-praktijken?
Nationale toezichthouders zijn verantwoordelijk voor handhaving van de verboden AI-praktijken. Bij overtredingen kunnen zij verschillende maatregelen opleggen.
De sancties kunnen variëren afhankelijk van de ernst van de overtreding en de omvang van uw organisatie. Boetes voor het gebruik van verboden AI-systemen kunnen aanzienlijk zijn volgens de AI-verordening.
U riskeert niet alleen financiële sancties maar ook reputatieschade als uw bedrijf verboden AI-praktijken toepast. Toezichthouders kunnen ook eisen dat u het gebruik van bepaalde AI-systemen stopzet.
Zijn er uitzonderingen of speciale voorwaarden voor bepaalde sectoren betreffende de regelgeving van AI?
Voor realtime biometrische identificatie op afstand bestaan beperkte uitzonderingen binnen rechtshandhaving. Deze uitzonderingen zijn strikt gedefinieerd en mogen alleen in specifieke situaties worden toegepast.
De meeste verboden gelden voor alle sectoren zonder onderscheid. Of u nu in de gezondheidszorg, financiële diensten of een andere sector werkt, de verboden AI-praktijken blijven van toepassing.
Bepaalde overheidsorganisaties krijgen tot 2 augustus 2030 de tijd voor hoog-risico AI-systemen die vóór augustus 2026 op de markt zijn gebracht. Dit geldt alleen voor systemen die al in gebruik waren voordat de verordening van kracht werd.
Op welke wijze biedt de overheid ondersteuning voor bedrijven bij de overgang naar de nieuwe AI-regels?
De gefaseerde invoering van de AI-verordening geeft ontwikkelaars en aanbieders tijd om hun systemen aan te passen. De volledige verordening wordt pas op 2 augustus 2027 volledig van kracht.
De overheid biedt ondersteuning aan ontwikkelaars, waaronder mkb’ers, om met de nieuwe regels om te gaan. U kunt informatie vinden via officiële kanalen van het ministerie van Economische Zaken en nationale toezichthouders.
Deze organisaties publiceren richtlijnen en praktische informatie over naleving van de AI-verordening.
Hoe moet ik als consument melding maken van een bedrijf dat verboden AI-praktijken gebruikt?
U kunt een melding doen bij de nationale toezichthouder die verantwoordelijk is voor handhaving van de AI-verordening. Deze toezichthouders controleren of bedrijven zich aan de regels houden.
Verzamel eerst informatie over de AI-toepassing die u verdacht vindt. Noteer welk bedrijf het betreft, hoe de AI wordt gebruikt, en waarom u denkt dat het een verboden praktijk is.
Neem contact op met de relevante toezichthouder via hun website of contactformulier.