EU AI Act en onderwijs – wat scholen moeten weten en doen nu de wet is ingegaan

Dit jaar is de Europese AI Act ingegaan waarin Europa regels heeft vastgelegd voor alle lidstaten omtrent kunstmatige intelligentie. Met deze wet wordt eenduidigheid gecreëerd over de wet- en regelgeving over kunstmatige intelligentie en worden de democratische waarden van de Unie geborgd. “[AI] moet dienen als instrument voor mensen, met als uiteindelijke doel het welzijn van de mens te vergroten.” (EU AI Act, p. 2). In dit artikel wil ik uiteenzetten wat dit betekent voor scholen en wat zij al kunnen, maar uiteindelijk ook moeten, doen.

Voor de duidelijkheid, ik ben geen jurist. Ik heb de EU AI Act gelezen en verschillende bronnen geraadpleegd om te begrijpen wat de implicaties voor scholen zijn. De informatie is niet altijd duidelijk en vaak worden scholen niet benoemd. Toch vallen scholen onder de wet als ‘gebruiksverantwoordelijke’: “een natuurlijke of rechtspersoon, overheidsinstantie, agentschap of ander orgaan die/dat een AI-systeem onder eigen verantwoordelijkheid gebruikt, tenzij het AI-systeem wordt gebruikt in het kader van een persoonlijke niet-beroepsactiviteit” (artikel 3, lid 4; p. 46). Ik probeer zoveel mogelijk te verwijzen naar de Verordening om anderen te helpen de Verordening te lezen en te interpreteren. Mochten er onjuistheden in dit artikel staan, dan hoor ik graag en pas ik het aan.

EU AI Act [NL]

EU AI Act [ENG and other languages]

artikel in PDF

Welke AI?

Wanneer we aan AI denken, komt vrij snel ChatGPT of een andere Generatieve AI in beeld. Echter, de Verordening gaat ook over andere AI-systemen zoals voorspellende AI en identificatie AI. Daarnaast zijn er ook verplichtingen voor AI Geletterdheid.

De AI Act verdeelt AI in vier risicogebieden: onaanvaardbaar (zoals het ‘social scoring systeem’ in China), hoog-risico (hier valt ook onderwijs onder), beperkt risico (chatbots), en minimaal (spamfilters).

De EU AI Act gaat niet direct over onderwijskundig gebruik van Generatieve AI modellen zoals ChatGPT of de controle van werk van een leerling waarbij een vermoeden bestaat dat GenAI is gebruikt. Het richt zich vooral op hoog-risico AI-systemen. Die AI-systemen gaan over de toegang, toelating en toewijzing tot onderwijs, het evalueren van leerresultaten, het sturen van het leerproces, beoordelen van het passende onderwijsniveau, en het monitoren en detecteren van ongeoorloofd gedrag tijdens toetsen (overweging 56, p. 16)

AI Geletterdheid (vanaf februari 2025)

De EU AI Act stelt dat aanbieder, gebruiksverantwoordelijken, en betrokken personen AI geletterd moeten zijn om de grondrechten, gezondheid, en veiligheid te beschermen en democratisch controle mogelijk te maken (sectie 20, p. 6). In artikel 4 (p. 51) wordt de uitvoering uiteengezet:

Artikel 4 is niet heel uitgebreid, maar dit is wat we eruit kunnen halen. Scholen vallen onder gebruiksverantwoordelijken. Zij zijn degenen die AI-systemen gebruiken voor hun taak (onderwijs). Een school moet daarom maatregelen nemen om haar personeel AI geletterd te hebben zodat zij AI binnen hun onderwijs (context) kunnen gebruiken

Deze geletterdheid wordt ook elders in de verordening benadrukt. Gebruiksverantwoordelijken moeten ‘relevante capaciteiten en beperkingen van het AI-systeem met hoog risico goed begrijpen en werking ervan naar behoren kunnen monitoren (artikel 14, lid 4a: menselijk toezicht). Ook benadrukt artikel 26, lid 2 dat gebruiksverantwoordelijken het menselijk toezicht op aan “natuurlijke personen die over de nodige bekwaamheid, opleiding, en autoriteit beschikken en de nodige ondersteuning krijgen” (p. 68). Al hoewel artikel 4 niet expliciet aangeeft dat leerlingen AI geletterd moeten zijn alvorens zij met AI aan de slag kunnen, vallen zij waarschijnlijk wel onder ‘andere personen’ en dienen dus eerst instructie te krijgen over de risico’s van AI. Iets wat voor mij niets meer dan logisch is.

Als een school ChatGPT aanbiedt (en dit kan dus ook via een enthousiaste enkele docent zijn), moeten gebruikers daarvoor geletterd zijn. Maar denk ook aan een programma zoals Snappet dat een AI-functionaliteit in zijn systeem heeft dat valt onder ‘hoog risico’ (zie onder).

Het gaat bij AI-geletterdheid niet alleen om een knoppencursus. Het gaat juist om het herkennen, begrijpen, en adequaat kunnen toepassen van AI. Voor leerlingen is het belangrijk te begrijpen wat AI is, hoe resultaten tot stand komen, en wat de risico’s zijn.

Deze cursussen zouden gegeven moeten worden zonder, wat Neil Postman noemt in The End of Education “hyperactieve fantasieën van cheerleaders,” maar cursusleiders die de EU AI Act kennen en kritisch kunnen kijken naar de risico’s van AI-systemen. Een cursusleider moet ook op de hoogte zijn van de context (onderwijs). Het gaat immers niet (alleen) over het begrijpen van AI, maar ook wat de implicaties zijn binnen de onderwijscontext. Een cursus over welke ‘fantastische’ dingen AI allemaal kan, is een ander soort cursus en kan de AI-geletterdheid overschaduwen.

Praktijkcodes (mei 2025; p. 86)

Vanaf 2 mei 2025 moeten de praktijkcodes gereed zijn. Praktijkcodes helpen bij het uitvoeren van de EU AI Act. Ze worden voor specifieke sectoren, waaronder onderwijs, opgesteld zodat zij niet alles zelf hoeven uit te zoeken. Ik vermoed dat Kennisnet dit zal gaan doen, al kan het ook vanuit het Ministerie van Onderwijs gebeuren of een andere overkoepelende organisatie. Deelname aan praktijkcodes is vanuit de AI Act niet verplicht, maar in de praktijk zal een school zich hierbij aansluiten (artikel 56, pp. 86-87).

AI-systemen met hoog risico (augustus 2026; p. 53)

Zoals gezegd zijn er vier subdomeinen voor hoog-risico systemen voor het onderwijs:

  • toegang, toelating en toewijzing tot onderwijs
  • beoordelen van het passend onderwijsniveau
  • monitoren en detecteren van ongeoorloofd gedrag tijdens toetsen
  • evalueren van leerresultaten en sturen van het leerproces

Ik richt mij hier op het basisonderwijs en voortgezet onderwijs. “Toegang, toelating en toewijzing tot onderwijs” en “beoordelen van het passende onderwijsniveau” zijn voor nu nog niet relevant voor het basis- en voortgezet onderwijs, maar zijn wel belangrijke kaders voor als er ooit in de toekomst worden besloten om AI te gebruiken om, bijvoorbeeld, het onderwijsniveau van een leerling te bepalen in groep 8. Ook “het monitoren en detecteren van ongeoorloofd gedrag tijdens toetsen” is prettig in een wet te hebben gekaderd. Dergelijke controlesystemen zullen uiteindelijk op de onderwijsmarkt komen.

Wat voor nu het meest belangrijk is het “evalueren van leerresultaten en sturen van het leerproces”. Dit vindt namelijk al plaats. Een van de meest gebruikte systemen voor dit soort doeleinden is Snappet. Snappet heeft een ingebouwde AI-module die voorspelt op welk niveau leerlingen opdrachten aangeboden krijgen. Dit valt, naar mijn mening, onder het sturen van het leerproces en is daarmee een hoog-risico systeem.

Het is nog steeds toegestaan om dit soort AI te gebruiken maar de EU AI Act vraagt wel om een borging bij zowel de aanbieder als de gebruikersverantwoordelijke (de school). Beide partijen dragen de verantwoordelijkheid om AI-systemen aan te bieden conform de EU AI Act. Onderdeel van deze borging is het personeel AI geletterd te hebben voor adequaat gebruik van het systeem. Docenten mogen dus niet zomaar de AI-functie in Snappet aanzetten en met de armen over elkaar naar de resultaten kijken. Hoog-risico systemen dienen daarnaast een CE-markering te hebben (artikel 48; p. 81).

De EU AI Act stelt dat hoog-risico systemen dermate transparant moeten zijn dat het gebruikersverantwoordelijken in staat moet stellen “de output van het systeem te interpreteren en op passende wijze te gebruiken” (artikel 13, p. 59). Het is belangrijk voor hoog-risico systemen dat er menselijk toezicht kan plaatsvinden (artikel 14, p. 60) en dat er bij onregelmatigheden kan worden ingegrepen. Kort gezegd, de school moet weten hoe de motor functioneert en die motor kunnen aanpassen. Docenten moeten de Snappet AI kunnen monitoren en ingrijpen als Snappet verkeerde lessen klaarzet.

AI-functionaris

Voorspellings- en evaluatiesystemen zullen steeds meer de onderwijsmarkt betreden en het is daarom voor iedere school belangrijk een AI-functionaris aan te stellen zoals bij de AVG ook het geval was. Het hebben van een AI-functionaris is niet verplicht vanuit de AI Act (het wordt nergens genoemd), maar wel logisch om te borgen zodat een school zich aan de Verordening houdt. Een ICT&Onderwijs Coördinator kan deze taak ook op zich nemen, maar betekent wel een uitbreiding van zijn of haar taak.

De AI-functionaris is verantwoordelijk voor het controleren van AI hoog-risico systemen die worden gebruikt binnen de organisatie en het opleiden van het personeel. Als er, bijvoorbeeld, een nieuwe methode met AI-ondersteuning wordt aangeschaft, kan de AI-functionaris helpen bij het in kaart brengen van de AI-risico’s. Ook kan de AI-functionaris nieuwe AI-toepassingen registreren zodat voor de school duidelijk is welke AI er wordt gebruikt en op welke manier.

Generatieve AI (augustus 2025; p. 83)

Per 2 augustus 2025 moeten ‘AI-modellen voor algemene doeleinden’ (dat is ChatGPT, Claude, Gemini, etc.) voldoen aan de AI Act. De school blijft echter gebruiksverantwoordelijke. Dit betekent dat de school verantwoordelijk is dat het gebruik van generatieve AI-systemen in overeenstemming met de Verordening is, waaronder de AVG. Daarnaast hebben Generatie AI modellen ook leeftijdsgrenzen die vaak in de EULA’s van AI-modellen te vinden zijn (opvallend genoeg was het niet altijd makkelijk deze informatie te vinden):

ChatGPT (OpenAI) van 13 tot 18 jaar met ouderlijke toestemming
Claude (Anthropic) 18 jaar
Gemini (Google) 16 jaar
Llama (Meta) tot 15 jaar met ouderlijke toestemming (AVG)
Copilot (Microsoft) 18 jaar
Mistral (Mistral AI) van 13 tot 18 jaar met ouderlijke toestemming
Perplexity (Perplexity AI) van 13 tot 18 jaar met ouderlijke toestemming

Het is aan te raden om ouderlijke toestemming voor modellen zoals ChatGPT, Mistral en Perplexity te registreren in een leerlingvolgsysteem, net als op veel scholen de ouderlijke toestemming voor de Coronatest in het leerlingvolgsysteem stond geregistreerd. Zonder deze toestemming mag je, volgens de gebruikersovereenkomsten van deze bedrijven, leerlingen niet met deze AI laten werken.

Zoals eerder genoemd moeten docenten, voordat zij aan de slag kunnen met Generatieve AI, AI geletterd zijn om de veiligheid en democratische rechten van hun leerlingen te waarborgen (zie ook artikel 9, lid 5 op pagina 56 over het wegnemen van hoog-risico en artikel 13, lid 1 op pagina 59 over het interpreteren van systemen). Dit raakt ook de regels over de AVG. Het is daarom belangrijk dat de school haar werknemers instrueert over het adequaat gebruik (laten) maken van Generatieve AI. Dit zou in de praktijkcode onderwijs kunnen worden meegenomen. Het is echter zeker aan te raden dat een school binnen haar eigen identiteit een richtlijn opstelt voor haar personeel.

Tijdpad (p. 44 en p. 123)

Hieronder volgt een schema met de meest belangrijke data voor het basis- en voortgezet onderwijs.

Conclusie

De EU AI Act is een belangrijke verordening die de democratische rechten van haar burgers moet waarborgen. Het dwingt scholen en docenten kritisch naar hun gebruik van AI te kijken en het personeel op te leiden. Er moet gecontroleerd worden of AI-systemen voldoen aan de regelgeving en dat docenten en leerlingen AI geletterd zijn. Scholen die op tijd beginnen en een AI-functionaris aanstellen zullen niet veel tijd hoeven te besteden aan het voldoen aan deze wet. Daarom is het belangrijk dat scholen nu een AI-functionaris aanstellen die een plan gaat schrijven voor de implementatie van deze EU Verordening op school. De tijd van verwondering en wegduiken is nu echt voorbij zijn en scholen moeten hun verantwoordelijkheid nemen om de veiligheid en privacy van hun leerlingen te waarborgen. Pas als dat is gebeurd, kunnen we verder kijken of en hoe AI het onderwijsproces kan verrijken.

UPDATE: Leeftijd om Gemini te gebruiken is 16 jaar (geen 18): Google Gemini

Engels Domein B (taalbewustzijn) – Eindterm 14: een nieuw voorstel

[artikel in .pdf]

In mijn brief aan de Commissie Onderwijs was ik voor domeinen B en C behoorlijk kritisch op het definitieve conceptexamenprogramma Engels vwo. Het is altijd makkelijker om kritiek te uiten, maar het vraagt meer tijd en inspanning om met een tegenvoorstel te komen. Hierbij doe ik een poging Eindterm 14 te herschrijven naar een beknopter en meer werkbare eindterm. Het is zeker niet mijn bedoeling om dit te presenteren als hét alternatief, maar schrijven verheldert het denken. Ook hoop ik dat ik een inhoudelijke bijdrage kan leveren aan de discussie over curriculumvernieuwing. Zie het als mijn manier om feedback te geven.

Eindterm 14

Eindterm 14 gaat over digitale middelen in relatie tot Engels. Echter, Eindterm 14 is bij iedere MVT (Frans, Duits, en Engels) exact hetzelfde. Het enige verschil is dat het in de specifieke taal moet zijn, niet per definitie in relatie tot die taal. Daarmee kom je meer in Domein A dan in Domein C. De vraag is dan ook of dezelfde digitale vaardigheden bij elk van de verschillende talen moet worden afgerond.

Het zou beter zijn als er een apart programma Digitale Geletterdheid komt waar doelen uit ‘geadopteerd’ kunnen worden door verschillende vakken. De inspectie kan dan controleren of en waar die doelen behaald worden binnen het complete PTA. Het staat scholen natuurlijk vrij om de digitale vaardigheden bij meerdere vakken te laten terugkomen en zo een rijk digitaal programma te bieden.

Voor nu kijken we alleen naar Eindterm 14 binnen Engels. Eerst geef ik het huidige concept, daarna kom ik met een voorstel.  De verschillende elementen zijn genummerd voor referentie later. 14 staat voor het huidige concept en N14 staat voor nieuw concept.

Huidig concept Eindterm 14 (blz. 20-21).

Nieuw concept Eindterm 14 (N14).

Eindterm 14 gaat over kritische reflectie op het gebruik van digitale middelen, over bewustwording van het effect van technologie op taalgebruik, bekend raken met de huidige ontwikkelingen in technologie en de communicatie, verschillende vormen van informatie- en communicatievoorziening via ICT kennen, en effectief gebruik kunnen maken van die technologie. Domein A gaat over de bruikbaarheid, relevantie, en betrouwbaarheid van (digitale) bronnen; Eindterm 14 in Domein C over de bruikbaarheid, relevantie, en betrouwbaarheid van het digitale middel. Anders gezegd, Domein A gaat over de inhoud en dat gericht op de taal, Eindterm 14 gaat over hoe het middel functioneert, hoe die inhoud tot stand is gekomen, en hoe het middel zich verhoudt tot de doeltaal (Engels in dit geval).

Het is belangrijk ICT-middelen niet concreet te benoemen om de doelen voor de lange termijn houdbaar te houden. Zo vind je hier niets over VR-toepassingen of de risico’s van Big Data, al zijn deze net zo relevant als het gebruik van Generatieve AI of andere genererende toepassingen. Dit is omdat het niet gaat om de beheersing van een specifiek middel, maar de mogelijkheid te hebben technologie in algemene zin kritisch te beoordelen met communicatie in het bijzonder.

De einddoelen zijn van 4 naar 2 teruggebracht en breder opgezet. Ik heb ‘evalueer’ veranderd naar ‘kritisch en effectief’ (N14.2). ‘Kritisch’ impliceert (domein)kennis, waardoor je als leerling ook meer gedwongen wordt leerlingen kennis over ICT mee te geven in plaats alleen met ICT te werken. Het doel, lijkt mij, is dat een leerling ICT kritisch kan evalueren op de relevantie en effectiviteit voor de Engelse taal.

Ik heb de twee ‘experimenteer’ punten (14.3 en 14.4) uit de doelen gehaald. Als docent kan je dit moeilijk beoordelen. Experimenteren is een onderdeel van een leerproces, maar dat zou geen doel op zich moeten zijn. Experimenteren met VR heeft als doel een beter begrip van deze technologie te krijgen en daardoor het kritisch te kunnen evalueren wanneer het effectief gebruikt kan worden en hoe. Vervang VR voor elke andere, bekende en nog onbekende, digitale ontwikkeling en je kerndoelen blijven in het nieuwe voorstel houdbaar.

Suggesties (‘te denken valt aan’)

Suggesties geven richting aan de doelen. Het gaat verder dan ‘slechts’ een optie geven wat je eventueel zou kunnen doen, zoals door sommige mensen wordt aangedragen. Suggesties geven aan hoe het adviesorgaan de doelen in de lespraktijk voor zich ziet en hoe je de eindterm met doelen moet interpreteren.

Het is opvallend dat in de suggesties nergens een voorstel wordt gedaan voor concrete kennisoverdracht zoals de EDI-methode, terwijl dit wel een valide middel is om eindtermen af te ronden. Hierin zie je dat de suggesties een hint geven in hoe SLO kijkt naar de eindtermen en de doelen. Het is zeker zo dat SLO niet voorschrijft hoe je de doelen moet behalen, maar de suggesties geven wel richting.

De suggesties

Suggestie 14.a lijkt mij prima zoals hij is. Wel moet het hier verder gaan dan alleen simpele opmaakmogelijkheden zoals tekst dik gedrukt maken. Denk hierbij aan tabellen, regelafstand, effectief gebruik van grammatica- en spellingcheck, het maken van kolommen, een inhoudsopgave, etc. Dit kan worden opgenomen in een digitale leerlijn ICT-vaardigheden.

Suggestie 14.b heeft niet veel met Engels te maken. Dit gaat ook niet veel verder dan wat knip- en plakwerk. Het mist een kritische benadering en begrip van het gebruik van taal door Generatieve AI. Goed taalgebruik vraagt om een opbouw waarbij de verschillende tekstelementen (zoals alinea’s) elkaar logisch opvolgen. Ik begrijp dat de evaluatie in de keuzes van de output van AI is, maar het leert een leerling niet hoe je Generatieve AI goed in kunt zetten.

Suggestie 14.c leert leerlingen niet kritisch naar Generatieve AI output te kijken. Het product van 14.c is een presentatie over onderwerp X, samengesteld door een kritische selectie van output. Wat veel beter werkt is leerlingen output van verschillende AI-platforms met elkaar te vergelijken en evalueren op waarheid en taalgebruik (zie N14.b). Dit kan anoniem via DuckDuckGo AI Chat, waarbij vier modellen gebruikt kunnen worden.

De uitkomsten van deze analyse (academische vaardigheid) kunnen schriftelijk of mondeling gepresenteerd worden Het doel is dan niet meer een product via Generatieve AI, maar een product over Generatieve AI. Dit sluit beter aan bij doelen N14.1 maar vooral bij N14.2. Ik heb een korte lessenserie uitgewerkt hoe dat vorm kan krijgen. Deze wordt verderop in dit artikel besproken.

Suggestie 14.d lijkt mij verder prima. Wel moet domein A hier veel bij betrokken worden, maar er is ook het voorstel om meerdere domeinen in een één product te mogen afsluiten.

Suggestie 14.e lijkt mij niet goed aansluiten bij de doelen. Hier wordt namelijk niet ingegaan op het evalueren en op waarde inschatten van chatbots.  Het zegt alleen, ‘gebruik ICT ter voorbereiding op een taaltaak’.

Bij suggestie N14.e wordt aansluiting gezocht bij duale codering uit de cognitieve wetenschap en kan helpen in het vervolgonderwijs. Het woord project lijkt het groter te maken dan het is. Je kunt hier denken aan een groepsopdracht waarin verschillende applicaties worden onderverdeeld onder de leden, en na bespreking een infographic laten maken. Daarna worden de infographics en ervaringen gedeeld met de klas. Dit kan in twee lessen afgerond worden

Je kunt ook denken aan een opdracht waarbij je aan het begin van een module leerlingen een onderzoeksopdracht geeft over leerapps en die laat toepassen in hun eigen leerproces. Aan het begin van de volgende module evalueer je de uitkomsten via infographics en (groeps-)gesprekken.

Mijn vraag is dan wel, moet dit via een beoordeling worden afgesloten, zoals bijvoorbeeld een ‘handelingsdeel’ of volstaat het uitvoeren van dit idee om te voldoen aan Eindterm 14? Het moet in het PTA terugkomen, dus mijn vermoeden ligt bij het leveren van een beoordeling.

Voorbeeld les: Begrijpen en vergelijken van AI-modellen

De lessenserie in pdf uitgewerkt.

Al hoewel de praktische uitvoering pas in een later stadium aan bod komt, kan het geen kwaad om een fictieve lessenserie op te stellen om te zien hoe de doelen kunnen worden behaald. Als je geen helder beeld hebt van de uitvoering van je eindtermen, weet je ook minder goed of zij überhaupt haalbaar zijn. Het helpt ook in discussies om iets concreets te hebben zodat men een beter beeld heeft over de praktijk.

Ik heb een lessenserie gemaakt over het maken en beoordelen van Generatieve AI over een bepaald controversieel onderwerp. Dit ontwerp is verre van perfect en vraagt ook om nog verder onderzoek in de middelen. Zoals ik al vaker heb aangedragen is er een probleem met Generatieve AI en de AVG. Het voorstel dat ik doe zal niet waterdicht zijn, maar benadert veilig gebruik van Generatieve AI meer dat het programma dat op dit moment doet.

DuckDuckGo AI Chat is een platform waar je vier verschillende AI-modellen kunt gebruiken (Chat-4o, Claude, Llama, Mixtral). Het gebruik is anoniem, je hebt geen account nodig, en de gegevens worden na gebruik verwijderd. Hopelijk zullen er in de (nabije) toekomst meerdere van dit soort initiatieven worden gelanceerd zodat Generatieve AI beter in het onderwijs gebruik kan worden. ChatGPT heeft al een optie dat gegevens niet worden opgeslagen, maar vraagt nog wel om een account.

De opbouw van de les is kennisverwerving (les 1), verzamelen van data (les 2), data vergelijken en analyseren (les 3), ideeën over AI-modellen delen via een beschouwing (les 4). Bij het schrijven van deze beschouwing mogen ze geen gebruik maken van het internet. Het doel is namelijk dat ze laten zien dat ze inzichten hebben verworven in Generatieve AI, niet het verzamelen van informatie op internet. Huiswerk is minimaal zodat leerlingen meer tijd hebben om voor hun leeslijst te lezen.

Nakijken kan gedaan worden met behulp van een rubric, en hoeft niet per definitie met een cijfer worden afgesloten. Je kunt het ook beoordelen als handelingsdeel of punten toekennen voor een Digitale Geletterdheid portfolio. De beschouwing is weliswaar in het Engels, maar dient niet nagekeken te worden op grammatica en spelling, tenzij dit de communicatie hindert (ideeën zijn niet duidelijk, zinnen lopen niet logisch). Dit zorgt ervoor dat er een minder grote nakijkdruk is voor de docent. De kerndoelen van Eindterm N14 zijn leidend.

Conclusie

Het is zeker belangrijk om nieuwe technologie, zoals Generatieve AI, te behandelen in de les. Het zou wel beter zijn als scholen meer flexibiliteit krijgen in het behandelen van Digitale Geletterdheid over het hele PTA. Dit zou kunnen via een apart programma waar verschillende vakken elementen uit kunnen ‘adopteren’ en integreren in hun eigen PTA.

Het is belangrijk de doelen bij de eindtermen beknopt te houden zodat er ruimte blijft bij de docent om keuzes te maken in de verdieping en verbreding. We gaan van 26 doelen in het huidige systeem naar 84 doelen in het nieuwe systeem. Dit maakt het programma niet concreter maar vooral groter. Door terug te snijden naar de kern van ICT-vaardigheden houd je de doelen houdbaar voor de langere termijn en is het voor docenten duidelijker waar de eindterm over gaat.