facebook lawandmore.nl   instagram lawandmore.nl   linkedin lawandmore.nl   twitter lawandmore.nl

Afspraak

Law & More Logo

AI-tools duiken steeds vaker op in het onderwijs. Denk aan gepersonaliseerde leerprogramma’s of automatische correctiesystemen.

Sinds augustus 2024 krijgen scholen te maken met nieuwe regels door de Europese AI-verordening.

Een leraar en diverse leerlingen in een klaslokaal met digitale schermen die AI-gerelateerde afbeeldingen tonen, waarbij ze samenwerken aan het gebruik van AI in het onderwijs.

Scholen moeten nu voldoen aan strikte juridische eisen omdat onderwijs als hoogrisico sector wordt beschouwd onder de AI Act. Onderwijsinstellingen mogen dus niet zomaar elke AI-tool gebruiken zonder eerst te checken of die voldoet aan de nieuwe wetgeving.

De gevolgen zijn groot voor scholen die artificial intelligence inzetten. Ze moeten hun medewerkers en leerlingen opleiden in AI-geletterdheid.

Goede gegevensbescherming en heldere ethische richtlijnen zijn verplicht. Scholen die deze stappen overslaan, lopen risico op boetes of juridische problemen.

Belangrijkste juridische verplichtingen bij AI-gebruik

Een groep leraren en schoolmedewerkers bespreekt samen AI-gebruik en juridische verplichtingen in een moderne vergaderruimte.

De AI-act legt scholen die AI-tools gebruiken allerlei verplichtingen op. Welke verplichtingen gelden, hangt af van de rol van de school en het type AI-systeem.

Toepasselijkheid en reikwijdte van de AI-verordening

De AI-verordening geldt voor alle AI-systemen die voldoen aan de juridische definitie uit artikel 3 van de Europese wet. Een AI-systeem moet zelfstandig beslisregels afleiden, niet alleen vaste instructies uitvoeren.

Onderwijstoepassingen die onder de AI-act vallen:

  • Administratieve processen zoals toelatingssystemen
  • Leerprocessen met adaptieve leermiddelen
  • Studentvolgsystemen die prestaties voorspellen
  • Geautomatiseerde toetsanalyse

De verordening werkt met een risicogebaseerde aanpak. AI-systemen vallen in vier risiconiveaus.

Hoogrisico-AI in het onderwijs betreft systemen die direct invloed hebben op rechten van individuen. Denk aan toelatingsprocedures en beoordelingssystemen.

AI met beperkt risico, zoals chatbots, valt onder transparantieverplichtingen. Studenten moeten duidelijk weten wanneer ze met een AI-systeem praten.

Verschillende rollen: aanbieder versus gebruiksverantwoordelijke

Onderwijsinstellingen kunnen verschillende rollen hebben onder de AI-act. Die rol bepaalt welke verplichtingen gelden.

Aanbieders van AI-systemen ontwikkelen of bouwen AI-tools voor commercieel gebruik. Universiteiten die eigen algoritmen ontwikkelen en verkopen, zijn aanbieder.

Gebruiksverantwoordelijken zetten bestaande AI-systemen in voor hun organisatie. De meeste scholen vallen in deze categorie als ze externe AI-tools gebruiken.

Verplichtingen voor gebruiksverantwoordelijken:

  • Risico-analyse uitvoeren
  • Instructies van aanbieders opvolgen
  • Menselijke controle waarborgen
  • Transparant zijn naar studenten en personeel

Let op: zodra een onderzoeks-AI echt in het onderwijsproces terechtkomt, gelden alle verplichtingen van de AI-act.

Stappenplan voor naleving van wetgeving

Stap 1: Inventarisatie maken
Breng alle AI-toepassingen binnen de school in kaart. Denk aan administratieve én educatieve systemen.

Stap 2: Risicoclassificatie uitvoeren
Bepaal per AI-systeem in welke risicocategorie het valt. Vaak heb je hiervoor een juridische analyse nodig.

Stap 3: AI-geletterdheid waarborgen
Artikel 4 van de AI-act verplicht scholen om te zorgen dat iedereen voldoende AI-geletterd is. Personeel en studenten moeten snappen wat AI doet en welke risico’s er zijn.

Stap 4: Beleid ontwikkelen
Stel procedures op voor transparantie, datagebruik en toezicht. Sluit aan bij bestaand privacy- en beveiligingsbeleid.

Stap 5: Documentatie en monitoring
Voor hoogrisico-AI gelden uitgebreide documentatie-eisen. Monitor systemen continu op correcte werking.

Risicoclassificatie van AI-systemen in het onderwijs

Een klaslokaal waar leerlingen en een docent met digitale apparaten werken, met een transparant scherm waarop symbolen van AI en juridische overwegingen zichtbaar zijn.

De EU AI Act deelt AI-systemen in vier risicocategorieën in. Onderwijsinstellingen moeten vooral letten op hoogrisico-AI bij toelating en beoordeling.

Generatieve AI valt meestal onder lagere risicocategorieën, maar dat hangt af van de toepassing.

Overzicht van risicocategorieën

De AI Act hanteert vier risiconiveaus voor AI-systemen. Onacceptabel risico betekent een volledig verbod.

Hoogrisico-AI vraagt om strenge controles en voorschriften. In het onderwijs vallen hieronder AI-systemen voor:

  • Toelating van studenten
  • Beoordeling van leerresultaten
  • Begeleiding van het leerproces
  • Vaststelling van onderwijsniveau
  • Fraudedetectie bij examens

Beperkt risico AI-systemen moeten transparantieverplichtingen naleven. Gebruikers moeten weten wanneer ze met AI werken.

Minimaal risico AI-systemen hebben geen extra regelgeving nodig. De meeste AI-toepassingen vallen in deze categorie, zoals spamfilters of simpele onderwijstools.

Generatieve AI zoals ChatGPT valt meestal onder beperkt risico. Maar het hangt echt af van hoe je het inzet.

Eisen bij hoogrisico-AI

Onderwijsinstellingen die hoogrisico-AI gebruiken zijn gebruikersverantwoordelijken. Ze moeten strikte vereisten volgen voordat ze het systeem inzetten.

Technische documentatie moet beschikbaar zijn. Hierin staat hoe het AI-systeem werkt en wat de beperkingen zijn.

Risicobeheer is verplicht. Scholen moeten mogelijke problemen identificeren en maatregelen nemen om die te voorkomen.

Menselijke controle blijft essentieel. AI-beslissingen mogen niet volledig automatisch zijn bij belangrijke onderwijskeuzes.

Transparantie naar gebruikers is vereist. Docenten en studenten moeten snappen hoe beoordelingen tot stand komen.

Nauwkeurigheid en robuustheid moeten gewaarborgd zijn. Het AI-systeem moet betrouwbaar presteren, ook als de omstandigheden veranderen.

Verplichtingen bij beperkt en minimaal risico

AI-systemen met beperkt risico hebben transparantieverplichtingen. Gebruikers moeten weten dat ze met AI praten.

Chatbots voor studentenvragen moeten zich als AI identificeren. Zo voorkom je verwarring over wie of wat antwoordt.

Generatieve AI voor het maken van lesmateriaal valt vaak onder deze categorie. Docenten moeten weten wanneer content door AI is gegenereerd.

Minimaal risico AI-systemen hebben geen extra AI-specifieke eisen. Ze moeten wel voldoen aan bestaande wetgeving, zoals privacy-regels.

Eenvoudige onderwijstools zoals rekenmachines of spelletjes hebben meestal geen extra verplichtingen. Scholen mogen die vrij gebruiken.

Veel administratieve AI-tools vallen ook onder minimaal risico. Denk aan systemen voor roosterplanning of simpele data-analyse.

Praktische stappen voor scholen bij inzet van AI-tools

Scholen moeten een systematische aanpak volgen om juridisch compliant te blijven bij de implementatie van AI-systemen.

Dit begint met een grondige inventarisatie van alle gebruikte tools. Vervolgens stel je de juridische vereisten per toepassing vast.

Inventarisatie van gebruikte AI-systemen

Onderwijsinstellingen moeten eerst een volledig overzicht maken van alle AI-tools die binnen de school worden gebruikt. Dit geldt voor officieel aangeschafte systemen én voor tools die docenten zelf inzetten.

Categorieën AI-systemen in het onderwijs:

Type AI-tool Voorbeelden Risicoclassificatie
Generatieve AI ChatGPT, Bard, Claude Hoog risico
Adaptieve leermiddelen Gepersonaliseerde leerplatforms Gemiddeld risico
Administratieve tools Roosterprogramma’s met AI Laag risico
Beoordelingssystemen Automatische nakijktools Hoog risico

Scholen moeten bijhouden welke taalmodellen ze gebruiken en waarvoor. Elk AI-systeem krijgt een uniek nummer voor tracking.

Werk de inventarisatie maandelijks bij. Nieuwe AI-tools mogen pas na goedkeuring door de juridische commissie worden ingezet.

Bepalen van juridische status per toepassing

Na de inventarisatie checken scholen welke juridische eisen gelden voor elk AI-systeem. De AI Act van de EU classificeert systemen op basis van risico.

Hoog-risico AI-systemen in het onderwijs vereisen:

  • CE-markering van de leverancier
  • Conformiteitsbeoordeling
  • Risicobeheersysteem
  • Menselijk toezicht

Generatieve AI-tools zoals ChatGPT vallen onder speciale transparantieverplichtingen. Scholen moeten leerlingen en ouders informeren over het gebruik van deze systemen.

Voor elke AI-tool maken scholen een juridische checklist. Die bevat ten minste AVG-compliance, veiligheidsmaatregelen en transparantievereisten.

Bij twijfel schakelen onderwijsinstellingen een juridisch adviseur in. De kosten daarvan vallen meestal mee vergeleken met mogelijke boetes bij non-compliance.

Documentatie en interne afspraken

Scholen stellen een AI-beleid op dat het gebruik van AI regelt. In dit document staan richtlijnen voor docenten, leerlingen en ondersteunend personeel.

Essentiële onderdelen van het AI-beleid:

  • Toegestane en verboden AI-tools

  • Procedures voor nieuwe implementaties

  • Privacy- en veiligheidseisen

  • Incidentenprocedures

Het beleid beschrijft per AI-systeem hoe je het mag gebruiken. Voor adaptieve leermiddelen gelden soms andere regels dan voor generatieve AI-tools.

Iedere medewerker krijgt training over het AI-beleid. Scholen organiseren minstens twee keer per jaar een update-sessie over nieuwe ontwikkelingen.

Documentatievereisten per AI-tool:

  • Leverancierscontract met juridische clausules

  • Privacy impact assessment

  • Gebruikslogboeken

  • Incidentenregistratie

De school wijst een AI-coördinator aan. Die persoon let op de naleving van alle procedures en houdt contact met leveranciers en juridische adviseurs.

AI-geletterdheid en verplichtingen voor medewerkers en leerlingen

Artikel 4 van de AI-verordening legt organisaties de verplichting op om AI-geletterdheid te waarborgen. Onderwijsinstellingen moeten zorgen dat medewerkers en leerlingen genoeg kennis en vaardigheden hebben om verantwoord met AI om te gaan.

Vereisten volgens de AI-verordening

De AI-Act vraagt van organisaties dat ze AI-geletterdheid aantonen bij iedereen die AI-systemen gebruikt. Vanaf februari 2025 geldt die plicht voor zowel leraren als leerlingen.

Kernvereisten zijn:

  • Begrijpen wat AI-systemen doen en hoe ze werken

  • Kennis van risico’s en beperkingen van AI-tools

  • Vaardigheden om menselijke controle te houden

  • Bewustzijn van ethiek en privacy-implicaties

De Autoriteit Persoonsgegevens ziet AI-geletterdheid als een compliance-eis. In 2026 gaan ze landelijk uitvragen hoe het daarmee staat bij organisaties.

Scholen moeten laten zien dat ze maatregelen nemen. Ze moeten dus echt stappen zetten om kennis en vaardigheden te verbeteren.

Implementatie in onderwijspraktijk

Scholen kunnen AI-geletterdheid op verschillende manieren in hun dagelijkse praktijk brengen. Het begint met duidelijk beleid over AI-gebruik door medewerkers en leerlingen.

Praktische stappen:

  • Training ontwikkelen voor leraren over AI-tools en risico’s

  • AI-onderwijs opnemen in het curriculum voor leerlingen

  • Richtlijnen opstellen voor toegestaan AI-gebruik

  • Bewustwording creëren over intellectueel eigendom en privacy

Teaching staff moet leren AI-gegenereerde content te herkennen. Ze hebben ook begeleiding nodig bij het inzetten van AI-tools.

Leerlingen hebben onderwijs nodig over ethisch AI-gebruik. Ze moeten weten wanneer AI wel of niet geschikt is voor schoolopdrachten.

Doorlopende ontwikkeling en bewustwording

AI-geletterdheid blijft in beweging. Technologie verandert snel en nieuwe risico’s duiken op.

Scholen moeten hun AI-beleid regelmatig evalueren en aanpassen. Medewerkers hebben bijscholing nodig over nieuwe tools en ontwikkelingen.

Elementen van doorlopende ontwikkeling:

  • Periodieke evaluatie van AI-geletterdheid

  • Bijscholing over nieuwe AI-tools

  • Lesmateriaal aanpassen aan technologische ontwikkelingen

  • Monitoring van AI-gebruik door leerlingen en personeel

De Autoriteit Persoonsgegevens vindt AI-geletterdheid een onderdeel van goed bestuur. Scholen moeten processen opzetten om deze competenties te borgen.

Multidisciplinaire werkgroepen brengen juridische, technische en pedagogische kennis samen binnen de instelling.

Privacy en gegevensbescherming bij gebruik van AI

Scholen moeten zich aan de AVG houden als ze AI inzetten die persoonsgegevens verwerkt. De Autoriteit Persoonsgegevens houdt toezicht en stelt eisen aan beveiliging.

AVG-regels en AI-gebruik

Onderwijsinstellingen moeten eerst een rechtmatige grondslag hebben voordat ze persoonsgegevens invoeren in AI-systemen. Zonder die grondslag mag het niet.

Transparantie is verplicht. Scholen moeten uitleggen hoe ze persoonsgegevens verwerken in AI-tools.

Bij generatieve AI moet de school informatie geven over de onderliggende logica en de gevolgen voor betrokkenen.

Doelbinding betekent: gebruik gegevens alleen voor het doel waarvoor je ze verzamelt. Een school mag leerlinggegevens die voor administratie zijn verzameld niet zomaar voor andere AI-doeleinden inzetten.

De school moet dataminimalisatie toepassen. Gebruik alleen de persoonsgegevens die echt nodig zijn voor het AI-systeem.

Juistheid van gegevens is belangrijk. Scholen moeten controleren of ingevoerde gegevens kloppen.

Rol van de Autoriteit Persoonsgegevens

De Autoriteit Persoonsgegevens kijkt scherp naar AI in het onderwijs. Ze stellen regels op voor organisaties die algoritmes gebruiken.

DPIA verplicht: Scholen moeten een Data Protection Impact Assessment uitvoeren als AI een hoog privacyrisico oplevert. Dit geldt ook voor pilots en testprojecten met generatieve AI.

Bij een DPIA moet je letten op:

  • Algoritmekeuze en bias

  • Transparantie van het AI-systeem

  • Rechten van betrokkenen

Voorafgaand overleg is nodig als het risico niet voldoende beperkt kan worden. Dan moet de school eerst met de Autoriteit Persoonsgegevens overleggen voor ze het AI-systeem gebruiken.

Onderwijsinstellingen houden een verwerkingsregister bij. Daarin staat welke AI-tools ze gebruiken en welke persoonsgegevens daarbij horen.

Beveiliging van persoonsgegevens

Scholen moeten persoonsgegevens in AI-systemen goed beveiligen. De beveiliging moet passen bij de huidige techniek.

Privacy by design betekent: bouw privacy vanaf het begin in. Standaardinstellingen moeten de privacy van gebruikers beschermen.

Onderwijsinstellingen letten op:

  • Aard en omvang van de gegevensverwerking

  • Context waarin het AI-systeem draait

  • Risico’s voor leerlingen en medewerkers

Toegangsbeheersing zorgt dat alleen bevoegden bij de AI-systemen kunnen. Scholen leggen vast wie toegang heeft tot welke gegevens.

Bij generatieve AI is extra voorzichtigheid nodig. Deze systemen slaan vaak gegevens op en verwerken ze verder. Scholen lopen risico op een AVG-schending als ze hier slordig mee omgaan.

Ethische overwegingen en organisatorische aspecten

Scholen moeten drie dingen goed regelen bij AI-gebruik: transparantie over hoe AI werkt en wie de controle heeft, ethische keuzes over welke AI-tools ze gebruiken, en hun organisatie aanpassen aan nieuwe technologie.

Transparantie en menselijke controle

Onderwijsinstellingen moeten duidelijk zijn over het gebruik van AI. Studenten en ouders hebben het recht te weten of een beoordeling door een mens of door AI is gemaakt.

Belangrijke transparantie-eisen:

  • AI-gebruik melden bij beoordelingen

  • Uitleggen hoe AI-systemen werken

  • Duidelijk maken welke data wordt gebruikt

  • Grenzen van AI-tools benoemen

Menselijke controle blijft noodzakelijk. Een docent moet AI-beoordelingen kunnen controleren en aanpassen.

Dit geldt vooral bij belangrijke beslissingen zoals cijfers of toelating. Scholen maken procedures voor als studenten het niet eens zijn met AI-beslissingen.

Er moet altijd een mens eindverantwoordelijk zijn. AI-tools mogen nooit volledig zelfstandig beslissen over studenten.

Ethiek bij inzet van AI-tools

Generatieve AI roept nieuwe ethische vragen op. Onderwijsinstellingen moeten beleid maken over wat wel en niet mag.

Ethische aandachtspunten:

  • Privacy: Welke studentgegevens mag AI gebruiken?

  • Eerlijkheid: Behandelt AI alle studenten gelijk?

  • Betrouwbaarheid: Hoe nauwkeurig zijn AI-beoordelingen?

  • Afhankelijkheid: Worden docenten te afhankelijk van AI?

Scholen trainen docenten in ethisch AI-gebruik. Ze moeten weten wanneer AI helpt en wanneer het juist problemen geeft.

Het is slim om regelmatig te controleren of AI-systemen eerlijk blijven werken. Data verandert, en daardoor kan AI anders gaan beoordelen.

Onderwijsinstellingen denken na over de impact op studenten. Leren ze nog zelf denken als AI te veel werk overneemt? Soms vraag je je af of we niet doorslaan in automatisering.

Impact op onderwijsorganisatie

AI verandert hoe scholen werken. Onderwijsinstellingen moeten hun organisatie aanpassen aan deze nieuwe technologie.

Organisatorische veranderingen:

  • Nieuwe functies voor AI-beheer
  • Training voor docenten en personeel
  • Budgetten voor AI-tools en onderhoud
  • Procedures voor AI-gebruik

Scholen hebben vaak nieuwe expertise nodig. Niet alle docenten kunnen direct goed met AI-tools overweg.

Er moet tijd en geld komen voor training. Anders blijft de kennis achter.

De IT-afdeling krijgt er flink wat taken bij. Ze moeten AI-systemen beheren en beveiligen.

Dat vraagt om andere kennis dan bij gewone computerprogramma’s. Soms voelt het als een heel nieuw vakgebied.

Onderwijsinstellingen passen hun beleid aan. Huidige regels dekken AI-gebruik meestal niet.

Ze stellen nieuwe procedures op voor inkoop, gebruik en controle van artificial intelligence. Dat is soms even zoeken.

Sommige scholen werken samen om AI-kennis te delen. Vooral kleinere instellingen profiteren hiervan, zeker als het budget krap is.

Veelgestelde vragen

Scholen zitten met veel praktische vragen over de juridische kant van AI-gebruik. De grootste zorgen draaien om wettelijke kaders, privacybescherming, transparantie-eisen, AVG-naleving, discriminatiepreventie en dataverwerking.

Wat zijn de belangrijkste wettelijke kaders voor het gebruik van AI in het onderwijs?

De AI Act vormt het hoofdregelwerk voor AI-gebruik in het onderwijs. Deze Europese verordening treedt gefaseerd in werking tot augustus 2027.

De wet werkt met een risicogebaseerde aanpak. AI-systemen met onaanvaardbaar risico zijn verboden.

Hoogrisico-AI valt onder strenge regels. Dat geldt vooral voor systemen die toelating of beoordeling beïnvloeden.

Naast de AI Act gelden ook de AVG en onderwijswetgeving. Scholen moeten alle kaders samen naleven.

Hoe kunnen scholen de privacy van studenten waarborgen bij het inzetten van AI-toepassingen?

Scholen houden een verwerkingsregister bij voor hun AI-tools. Hierin staan alle systemen die persoonsgegevens gebruiken.

Een privacy impact assessment is vaak verplicht. Vooral bij hoogrisico-AI of gevoelige gegevens is dat nodig.

Gegevensbescherming door ontwerp moet worden toegepast. AI-systemen moeten privacy ingebouwd hebben.

Toestemming van ouders is soms nodig. Dat hangt af van de leeftijd van leerlingen en het type verwerking.

Op welke manier dienen scholen transparantie te bieden over het gebruik van AI-gereedschappen?

Scholen informeren leerlingen en ouders over AI-gebruik. Die informatie moet helder en begrijpelijk zijn.

Bij chatbots of spraaktools moeten gebruikers weten dat ze met AI praten. Dat staat in artikel 50 van de AI Act.

Beslissingen door AI-systemen vragen extra uitleg. Leerlingen hebben recht op inzicht in de werking.

Een AI-beleid helpt bij transparantie. Hierin staan afspraken over gebruik en doelen.

Welke stappen moeten scholen nemen om te voldoen aan de AVG bij het gebruik van kunstmatige intelligentie?

Een grondslag voor verwerking is altijd nodig. Voor scholen is dit vaak de publiekrechtelijke taak of gerechtvaardigd belang.

Persoonsgegevens moeten worden geminimaliseerd. Scholen mogen alleen noodzakelijke data verzamelen.

Beveiligingsmaatregelen zijn verplicht. AI-systemen moeten technisch en organisatorisch beschermd zijn.

Een bewaartermijn moet worden vastgesteld. Gegevens mogen niet langer bewaard worden dan nodig.

Hoe kunnen scholen ervoor zorgen dat AI-tools geen discriminatie of vooringenomenheid bevorderen?

Scholen testen AI-systemen op bias. Dat is vooral belangrijk voor tools die leerlingen beoordelen of selecteren.

Diverse trainingsdata helpen vooroordelen te voorkomen. AI leert tenslotte van de gegevens die het krijgt.

Menselijke controle blijft nodig. Je wilt belangrijke beslissingen niet volledig automatiseren.

Regelmatige evaluatie is belangrijk. Scholen moeten checken of AI-tools eerlijk werken.

Welke verantwoordelijkheden hebben scholen bij het verwerken van data door AI-systemen?

Scholen zijn verwerkingsverantwoordelijke voor hun AI-gebruik. Ze dragen dus de juridische verantwoordelijkheid voor naleving.

Verwerkersovereenkomsten met AI-leveranciers zijn verplicht. In die overeenkomsten leg je afspraken over gegevensbescherming vast.

De wet schrijft AI-geletterdheid bij medewerkers voor. Artikel 4 van de AI Act legt die verplichting op.

Je moet documentatie van AI-systemen bijhouden. Zo kun je toezicht houden en verantwoording afleggen.

Privacy Settings
We use cookies to enhance your experience while using our website. If you are using our Services via a browser you can restrict, block or remove cookies through your web browser settings. We also use content and scripts from third parties that may use tracking technologies. You can selectively provide your consent below to allow such third party embeds. For complete information about the cookies we use, data we collect and how we process them, please check our Privacy Policy
Youtube
Consent to display content from - Youtube
Vimeo
Consent to display content from - Vimeo
Google Maps
Consent to display content from - Google
Spotify
Consent to display content from - Spotify
Sound Cloud
Consent to display content from - Sound

facebook lawandmore.nl   instagram lawandmore.nl   linkedin lawandmore.nl   twitter lawandmore.nl