AI Feedback – Here Be Dragons

Feedback is een belangrijk element in het leerproces. Het geeft informatie over wat er goed gaat en wat er verbeterd kan worden. Met de komst van AI lijkt er waardevol feedbackgereedschap bij gekomen. Echter, ondanks de explosieve groei van AI en AI agents zitten er behoorlijk wat haken en ogen aan feedback via AI.

Het was in eerste instantie de bedoeling dat ik, net als bij audiofeedback, een nieuwe vorm van feedback zou uitproberen bij mijn leerlingen. Na het lezen van een aantal boeken en onderzoek over feedback en AI, ben ik hiervan teruggekomen. Dit artikel zal dus geen praktijkvoorbeeld laten zien van AI feedback in het onderwijs.

Dat wil niet zeggen dat AI feedback geen waarde heeft in het feedbackproces. Het kan zeker een rol spelen, maar het is belangrijk te beseffen dat het niet om de kwaliteit van het AI model gaat, maar de rol van AI in het leerproces van de leerling. Ongeacht hoe goed AI gaat worden, het verandert niet de risico’s die het met zich meebrengt. Leraren dienen bewust te zijn van deze risico’s voordat ze kunnen bepalen welke rol AI in het feedbackproces zal innemen. Ik eindig dit artikel dan ook met een aantal vragen die leraren kunnen helpen AI op een verantwoorde manier in te zetten in het feedbackproces.

 

Feedback en zijn waarde

Wanneer we het hebben over feedback op school, denken veel mensen aan het geven van het juiste antwoord of vertellen hoe het eigenlijk had moeten zijn. Dit is slechts maar een deel van het verhaal. Effectieve en efficiënte feedback gaat over het begeleiden van een proces. Het beoogt verandering bij de leerling teweeg te brengen en helpt bij het ontwikkelen van zelfstandig leren. “Het doel van feedback is invloed uitoefenen op toekomstig werk van leerlingen en op hun leerstrategieën. Aan de hand van de verkregen informatie kunnen leerlingen een volgende stap zetten in hun leerproces.” (Feedback in de Klas)

Cognitieve neurowetenschapper Stanislas Dehaene geeft in How We Learn aan dat er vier belangrijke pijlers zijn in het leerproces: gerichte aandacht, actieve betrokkenheid, terugkoppeling van fouten, en een cyclus van dagelijkse repetitie met nachtelijke consolidatie. Over feedback is hij heel helder: “de kwaliteit van de feedback die studenten krijgen, is een van de bepalende factoren voor hun academisch succes” (How We Learn). Volgens Dehaene bouwt een docent ervaring op over welke fouten zijn leerlingen doorgaans maken en verbetert daarmee de kwaliteit van zijn feedback: “deze leraren vinden de juiste woorden om het zelfvertrouwen van hun leerlingen te steunen, hen gerust te stellen en te herstellen, terwijl ze tegelijkertijd hun foutieve mentale representaties corrigeren.” (How We Learn)

Feedback is een parapluterm voor verschillende soorten reacties op handelingen en producten van leerlingen. We kunnen in de eerste plaats de verdeling maken in corrigerende feedback, evaluerende feedback, activerende feedback, en motiverende feedback. Corrigerende feedback richt zich op fouten in de taak en kan correcties aandragen. Evaluerende feedback geeft een waardeoordeel op de taak en is veelal subjectief. Activerende feedback (ook wel bekend als feed forward) geeft feedback voor het vervolg van de taak. Wat kan er beter gedaan worden? Wat zijn punten van aandacht? Motiverende feedback richt zich op de motivatie van de leerling. Feedback in de Klas heeft een andere vierdeling, al toont het ook overeenkomsten: feedback op taakniveau (hoe goed is de taak gedaan?), procesniveau (hoe is de taak op- en aangepakt?), zelfsturing (hoe heeft de leerling zich voorbereid?) en persoon (vergelijkbaar met motiverende feedback).

Het is daarnaast belangrijk om het verschil te duiden tussen feedback in een formatief proces en een evaluatie op een summatieve toets. Feedback heeft als doel de leerling verder te brengen in een leerproces. Een evaluatie op een summatieve toets heeft als doel uit te leggen waarom er tot een bepaald oordeel is gekomen. Dit verschil is belangrijk. Er wordt nog wel eens uitgebreide feedback gegeven op het eindproduct maar de kans dat dit blijft hangen bij een leerling is niet groot. Beter is het om deze tijd te investeren in feedback in het proces naar het eindproduct toe.

In Feedback in de Klas richten Stijn Verhoof en Geert Speltincx zich vooral op het feedbackgesprek. Leraren zijn expert in hun vakgebied en dat vereist kennis over veel verschillende situaties waarin de aan te leren vaardigheid wordt toegepast. In het gesprek tussen feedbackgever en feedbackontvanger is ruimte voor de nuance en ontwikkelt kwaliteitsbesef. Het is niet simpelweg het geven van een goed antwoord. Het is de fout herkennen, de fout aantonen, en de leerling begeleiden in de correctie. Dit is een holistische benadering van feedback: het gaat niet om het product zelf, maar hoe het product tot stand komt.

Feedback is dus een belangrijk onderdeel in het leerproces. Je hebt hiervoor heldere doelen nodig en duidelijkheid over het proces naar die doelen, of zoals Stijn Verhoof en Geert Speltincx zeggen: “Waar sta ik als leerling nu? Heb ik vooruitgang geboekt? Hoe ver ben ik nog verwijderd van het doel? Maar ook: Wat is de volgende stap?” (Feedback in de Klas). Zonder een duidelijk doel zegt feedback niet veel. Ook kan bij onduidelijke doelen de feedbackverwachting van de leerling verschillen van wat de leraar voor ogen had.

Het hebben van heldere doelen is één van de meest belangrijke elementen in het geven van feedback. Echter, het stellen van heldere doelen is niet zo makkelijk als het lijkt. Bij schrijfproducten is het vaak moeilijk om objectieve, eenduidige criteria te geven, vaak tot frustratie van leerlingen. Wanneer is het goed genoeg? Waarom zijn er meerdere antwoorden goed maar niet die van mij? Ook rubrics bieden slechts richting: “Los van het gegeven dat er in het ‘echte leven’ ook geen rubrics voorhanden zijn voor de producten of taken die je moet afronden, is er ook het probleem dat veel aspecten van een taak zich niet goed laten vangen in een rubric of lijst met criteria” (Formatief Handelen). Een rubric werkt niet als afvinklijst maar kan wel helpen in een feedbackgesprek. “Criteria zijn meer een gesprekspartner dan een eindproduct.” (Feedback in de Klas)

Het gaat bij effectieve feedback dus veelal niet om het antwoord (correctieve feedback), maar om de vragen die we als docenten en de leerlingen aan zichzelf stellen (evaluerende feedback): “Soms denk ik dat wij, als leraren, zo graag de antwoorden willen weten dat we niet voldoende tijd besteden aan het ontwikkelen van de vraag. Maar het is de vraag die de interesse van mensen prikkelt. Het vertellen van het antwoord doet niets voor je.” (Willingham in Feedback in de Klas). Een antwoord is vaak een eindpunt terwijl een vraag het begin is van een ontdekkingstocht naar inzicht. Het gaat er uiteindelijk om welk residu er achterblijft bij onze leerlingen na die tocht.

AI als fenomeen

Automatisch evalueren van betogen bestaat al sinds de jaren zestig van de vorige eeuw. In 1968 publiceerde Dr Ellis Page Project Essay Grade (PEG). Het was een behoorlijk betrouwbaar systeem maar was gericht op het becijferen van betogen. Het geven van feedback door middel van Generatieve AI (GenAI) is natuurlijk nog vrij jong. Er is op dit moment dan ook geen hard bewijs dat GenAI feedback betere leerresultaten oplevert. Wat we kunnen doen is naar een aantal onderzoeken kijken en de bevindingen naast bewezen effectieve en efficiënte feedback leggen. Op deze manier weten we welke bijdrage AI feedback zou kunnen leveren aan het leerproces.

Als je nog niet weet wat Generatieve AI is en hoe het werkt adviseer ik mijn artikel te lezen over Generatieve AI in het onderwijs. GenAI, zoals ChatGPT, genereert (de ‘G’ in GPT) nieuwe inhoud naar aanleiding van een prompt, een opdracht vaak in tekst. Het gebruikt hiervoor een voorgeprogrammeerde dataset (de ‘P’ in GPT). Omdat taal complex is en de AI alleen met (reeksen van) getallen kan werken, heb je een transformer nodig (de ‘T’ in GPT). De transformer vertaalt tekst naar getallen en getallen naar tekst. Kort gezegd, GenAI voorspelt tekst naar aanleiding van een vraag op basis van zijn dataset.

Onderzoek naar AI en feedback

In mijn artikel Wat voegt Generatieve AI nu eigenlijk toe aan het onderwijs? haalde ik het onderzoek “Generative AI Can Harm Learning” door Hamsa Bastani et al. aan. In dit onderzoek, gedaan onder 1000 Turkse leerlingen, kwam naar voren dat het gebruik van het type Generatieve AI verschil maakt in de leerprestaties van leerlingen. Het onderzoek maakt onderscheid in GPT Base (min of meer ChatGPT) en GPT Tutor een speciaal ontwikkelde AI ter ondersteuning van leerlingen in het leerproces. GPT Tutor is bijvoorbeeld minder geneigd het antwoord te geven, maar de leerling naar het antwoord te begeleiden. Hier kwam uit dat het gebruik van zowel GPT Base en GPT Tutor de leerprestaties verhoogden. Echter, werd de AI uit het leerproces gehaald, verslechterde de resultaten: “Bovendien stellen we vast dat wanneer de toegang later wordt afgenomen, studenten eigenlijk slechter presteren dan diegenen die nooit toegang hebben gehad.” Een logische vervolgtrekking is dan ook dat GenAI een eeuwige scaffold is: “Onze resultaten suggereren dat studenten proberen GPT-4 te gebruiken als ‘krukje’ tijdens oefenprobleemsessies en, wanneer dat succesvol is, ze slechter presteren als ze zichzelf aangewezen zijn.”

In “Feedback sources in essay writing: peer generated or AI-generated feebdack?” door Seyyed Kazem Banihashem et al. is onderzocht wat het verschil is tussen peerfeedback en GenAI feedback op een betoog (argumentative essay). Hier waren ook de Open Universiteit in Heerlen en de Universiteit Wageningen betrokken. In dit onderzoek werd vooral een verschil gevonden in het soort feedback dat gegeven werd: “Terwijl ChatGPT meer beschrijvende feedback gaf, inclusief informatie over hoe het essay is geschreven, gaven leerlingen feedback inclusief informatie over de identificatie van het probleem in het essay.” De onderzoekers zien vooral complementaire rol voor ChatGPT in het feedback proces.

Echter, het onderzoek keek alleen naar het soort feedback, niet welk effect de feedback had op het leerproces. Anders gezegd, studenten schreven niet een herziene versie naar aanleiding van de feedback. Hierdoor is ook moeilijk vast te stellen of de feedback van medeleerlingen en van ChatGPT invloed had op de kwaliteit van het schrijfproduct. Ook is onduidelijk of en hoe de studenten waren geïnstrueerd over het geven van peerfeedback.

In “Impact of AI assistance on student agency” door Ali Darvishi et al. werd gekeken naar het idee of AI kan helpen in geven van peerfeedback en zelfregulatie. Dit valt een beetje buiten ons onderwerp, maar wat wel interessant is, is dat de student inleverde op zelfwerkzaamheid, een probleem dat we ook al zagen in het onderzoek van Hamsa Bastani: “Studenten neigden ertoe om afhankelijk te zijn van, in plaats van te leren van AI-hulp. Als de AI-hulp werd verwijderd, konden zelfregulatie strategieën helpen om het gat op te vullen, maar ze waren niet zo effectief als de AI-hulp.” AI assistentie helpt bij zelfregulering, maar (ironisch) alleen wanneer het aangeboden wordt. Er vindt geen leerproces plaats. Dit is dan ook de waarschuwing die de onderzoekers geven: verlies niet de negatieve invloed op zelfredzaamheid uit het oog. Uiteindelijk is het doel van onderwijs kritische en zelfstandige burgers op te leiden, geen dienaren voor het AI orakel.

AI als extrinsieke motivator

In “AI feedback: Moving beyond the hype to integrating it into a coherent feedback pedagogy” door Hui Yong Tay werd gekeken naar de invloed van AI feedback op het verwerven van de Engelse taal door kansarme leerlingen. Het ging om 21 leerlingen in de leeftijd van 13-14 jaar. Zij kregen, naast online lessen, feedback op hun schrijfproducten via de app Scribo. De conclusie was dat AI feedback een positieve werking had op de prestaties van de leerlingen, maar dat dit mede kwam door ingebouwde routines in het programma.

Interessant aan dit onderzoek zijn de reacties van de leerlingen, want het lijkt erop dat AI vooral handig was om antwoorden te krijgen. “Je kunt gewoon erop klikken (de fout die door het systeem is gemarkeerd) en het woord veranderen. En je blijft maar op ‘accepteren’ klikken en dan verandert alles en dan krijg je meer punten,” aldus een leerling. De vraag is dan ook, wordt hier een product verbetert of een leerling? Diezelfde leerling zegt later: “Als je de discipline hebt, zou je er eigenlijk doorheen moeten lezen in plaats van op alles ‘accepteren’ te drukken… je weet niet wat je fout hebt gedaan.”

De reden dat leerlingen de AI feedback waardeerden was dat het makkelijk te gebruiken was. Ook was er onmiddellijk feedback via de Scribo scores. Daarnaast was de feedback niet veroordelend en hielp de zichtbare verbetering in het programma leerlingen gemotiveerd te houden. Het viel mij op dat veel genoemde positieve ervaringen gebaseerd waren op extrinsieke motivatie (‘scores’, ‘badge’). De vraag is dan ook welk deel wordt veroorzaakt door AI en welk deel door de gamification. Daarnaast leek het er ook op dat leerlingen een negatief beeld op feedback door docenten hadden ontwikkeld.

De ‘verbetering’ die wordt aangetoond in het artikel is vooral gericht op de perceptie, emotie, en handelingen van leerlingen wanneer ze interactie hadden met AI, niet op de kwaliteit van de producten of het leerproces. Ook is dit onderzoek meer gericht op bewerken (‘edit’) van producten in plaats van het geven van feedback om de leerling zelf aan de slag te laten gaan.

AI feedback kan dus een positieve bijdrage leveren aan de motivatie van leerlingen om te leren. De vraag is of er sprake is van een motivatievoordeel of van een leervoordeel. Meer motivatie leidt niet automatisch tot beter leren: “Natuurlijk zal een gemotiveerde leerling sneller aan iets beginnen, maar dit is geen garantie voor leren. Het is zelfs zo, dat als een leerling gemotiveerd begint en geen succes boekt, die motivatie snel wegebt.” (Op de Schouders van Reuzen)

Cognitive Offloading

In “AI tools in Society: Impacts on Cognitive Offloading and the future of Critical Thinking” van Michael Gerlich wordt aangetoond dat het gebruik van Generatieve AI kan leiden tot verlies in kritisch denkvermogen door het fenomeen “cognitive offloading” (cognitieve uitbesteding): het gebruik van externe hulpmiddelen om de cognitieve inspanning van de gebruiker te verlagen. Cognitive offloading kan helpen in het creëren van ruimte in het denken om de verdieping te vinden. Aan de andere kant zorgt het ervoor dat de gebruiker zelf minder hoeft te doen en minder kennis hoeft te hebben waardoor het kritisch denkvermogen van de gebruiker verandert: “De bevindingen toonden een significante negatieve correlatie aan tussen frequent AI-toolgebruik en kritisch denkvermogen, beïnvloed door toegenomen cognitieve uitbesteding.”

Gerlich geeft aan dat AI gereedschap kan helpen bij het leren, maar dat overmatige afhankelijkheid leidt tot cognitive offloading. Dit kan resulteren in dat werknemers efficiënter werken maar minder in staat zijn zelfstandig problemen op te lossen en kritisch te evalueren. Dit komt overeen met de uitkomsten van eerder genoemde onderzoeken: gebruik van AI gereedschap zorgt voor betere resultaten in het moment maar creëert ook een afhankelijkheid van dat gereedschap (de eeuwige ‘scaffolding’). Wanneer processen worden overgenomen door AI gereedschap kan dit ook leiden tot een gebrek aan transparantie en begrip. Gerlich adviseert dan ook een balans te vinden tussen de voordelen van AI integratie met de ontwikkeling van zelfstandige analytische vaardigheden in met name het onderwijs en organisaties. Hoe dit eruit zou moeten zien, blijft onbeantwoord.

De bevindingen van Gerlich worden ondersteund in het artikel “Beware of metacognitive laziness: Effects of generative artificial intelligence on learning motivation, processes, and performance” van Yizhou Fan et al. Dit onderzoek keek naar de mogelijkheden voor ‘hybride intelligentie’ waarbij er een wisselwerking plaatsvindt tussen mens en AI. Het onderzoek, dat werd gedaan onder 117 universiteitsstudenten, ondersteunt het gevaar van cognitieve uitbesteding: “Technologieën zoals ChatGPT kunnen de afhankelijkheid van studenten van technologie bevorderen en mogelijk metacognitieve ‘luiheid’ veroorzaken, wat hun vermogen voor zelfregulatie en diepgaand leren kan belemmeren.”

Daarnaast geeft het onderzoek aan dat de resultaten bij gebruik van ChatGPT significant verbeterden, maar weer wegvielen wanneer er geen AI beschikbaar was: “ChatGPT kan de prestaties bij kortetermijntaken aanzienlijk verbeteren, maar het zal mogelijk de intrinsieke motivatie, kennisverwerving en kennisoverdracht niet bevorderen.” Deze verbeterde prestaties worden overigens ook, voor een deel, in twijfel getrokken. De onderzoekers ontdekten dat sommige studenten de inhoud van ChatGPT kopieerden en plakten, bijvoorbeeld voorbeeldzinnen gemaakt door ChatGPT: “Metacognitieve luiheid kan kortetermijnprestatieverbeteringen stimuleren, maar op de lange termijn leiden tot stagnatie van vaardigheden.”

Zowel Fan en Gerlich geven aan dat metacognitieve vaardigheden cruciaal zijn in de omgang van Generatieve AI. Deelnemers in Gerlichs onderzoek die een hoger opleidingsniveau hadden gingen kritischer om met AI: “Mijn opleiding heeft mij geleerd hoe belangrijk het is om dingen niet zomaar voor waar aan te nemen, vooral wanneer het gaat om AI, dat soms vooringenomen of incomplete informatie kan bieden,” aldus een deelnemer. Hier wordt dus ook duidelijk dat het belangrijk is dat alvorens leerlingen en studenten AI gebruiken voor feedback, zij opgeleid moeten zijn in kritisch denken en AI geletterdheid.

Het onderzoek geeft daarnaast aan dat hoe hoger het vertrouwen van de deelnemers in AI, hoe hoger de kans dat ze cognitieve taken overdragen aan dit gereedschap. Nu Generatieve AI steeds meer algemeen goed wordt, verhoogt dit ook het risico op een verminderde kritische benadering van de mens, of, zoals Nicholas Carr in The Shallows zegt: “Wanneer we ons geheugen overdragen aan een machine, dragen we ook een zeer belangrijk deel van ons intellect en zelfs onze identiteit over.”

Gevolgen AI op schrijfvaardigheid

Om te zien welk effect AI heeft op de kwaliteit van schrijfproducten hoef je niet ver te kijken. “Feedback sources in essay writing: peer generated or AI-generated feedback?” van Seyyed Kazern Banihashem et al. gebruikt veel AI taal. Banihashem geeft dit ook aan: “De auteurs gebruikten generatieve AI voor taalbewerking en namen de volledige verantwoordelijkheid.” Welbekende AI favorieten zijn goed vertegenwoordigd in dit artikel: delve, foster, enhance, en deep/depth. Daarnaast is er sprake van veel wollig taalgebruik:

This investigation serves as a critical step in determining whether the feedback imparted by peers and AI holds the necessary caliber to enhance the craft of essay writing.

The ramifications of addressing this query are noteworthy. Firstly, it stands to significantly alleviate the workload carried by teachers in the process of essay evaluation. By ascertaining the viability of feedback from peers and AI, teachers can potentially reduce the time and effort expended in reviewing essays.

Dit kan als volgt menselijker worden gemaakt:

This research can help in answering the question whether feedback by peers and AI will improve essay writing.

The impact of answering this question is significant. Firstly, if viable, peer and AI feedback could significantly reduce the workload of teachers when evaluating essays.

Een ander voorbeeld:

[D]irecting attention towards the comparison of peer-generated feedback quality and AI- generated feedback quality within the realm of essay writing bestows substantial value upon both research and practical application.

Kan ook minder wollig:

Comparing peer-generated feedback quality with AI-generated quality in essay writing can provide valuable insights for both research and practical application.

Als je aan ChatGPT vraagt als een editor je teksten door te lezen en aanpassingen te maken daar waar nodig, zal ChatGPT altijd veranderingen aanbrengen, ongeacht of de geschreven tekst ook gewoon al goed was. Dit zorgt ervoor dat je schrijfproduct een persoonlijke stem kwijtraakt en meer generiek wordt. We zullen zelf steeds minder schrijfvaardig worden en daardoor steeds vaker grijpen naar AI gereedschap om dat voor ons te doen. Dit is een neerwaartse spiraal. Als je weet dat ‘leren denken, leren schrijven’ is (Zinsser in Writing to Learn) kan dit grote gevolgen hebben voor onze zelfredzaamheid. Door deze artikelen zelf te schrijven leer ik AI en feedback beter te begrijpen. Dat hierdoor fouten in mijn artikel kunnen sluipen, weet ik maar al te goed. Echter, het schrijfproces heeft een persoonlijk doel (inzicht krijgen in de materie); het artikel heeft als doel de informatie te delen met geïnteresseerden, “warts and all.”

Uit de onderzoeken hierboven kunnen we de volgende conclusies trekken. AI is effectieve scaffolding maar creëert een afhankelijkheid bij de gebruiker. Deze cognitieve uitbesteding heeft een negatief effect op ons kritsch denkvermogen. AI feedback richt zich veelal op een schrijfproduct als tekst, terwijl peerfeedback zich meer richt op de probleemstelling. AI feedback kan daarmee leerlingen extrinsiek motiveren en hen daarmee met de materie aan de slag laten gaan. Het gebruik van AI voor feedback vraagt hierdoor om een weldoordachte integratie: “activiteiten moeten zorgvuldig worden ontworpen zodat studenten niet kunnen vermijden om met deze relevante informatie te interacteren.” (Hidden Lives of Learners)

AI feedback

Anders dan met audiofeedback, waar ik eerder over schreef, dient grote voorzichtigheid te worden geboden met AI feedback. Schrijven is niet altijd een objectief proces. Spelling en grammatica zijn dat veelal wel, maar over stijl en inhoud verschillen nog wel eens de meningen. Daarnaast kan AI feedback een tweede kapitein worden op het feedbackschip waardoor de leraar zichzelf naar leerlingen moet verdedigen als de AI andere feedback geeft dan hijzelf.

Je kunt een rubriks uploaden in een Generatieve AI waarin je omschrijft waar het product aan moet voldoen. Echter, los van het feit dat AI kan hallucineren, maakt AI nog steeds keuzes waar op te reageren, hoe te reageren, en welke voorstellen er worden gedaan. Deze voorstellen zijn niet objectief. Generatieve AI heeft zelf ook voorkeuren in stijl en woordenschat. Het is zeker zo dat Generatieve AI vaak ook goede voorstellen doet. Het blijft immers een taalmodel. Het weet best wel wat over taal.

proces vs. product

Zoals Feedback in de Klas al aangaf, feedback is een proces, geen moment. Generatieve AI wordt nog steeds beter en de correctieve feedback zal daarmee ook steeds beter worden. Maar ongeacht de kwaliteit van de feedback, blijft het een probleem dat AI feedback geeft op het product en (nog) niet bezig is met het leerproces verspreid over een langere periode.

Je kunt ervoor kiezen om AI de leiding te geven in het schrijfproces om zo ook meer feedback te geven op dat proces. Echter, zoals onderzoek heeft uitgewezen, loop je dan het risico dat de leerling afhankelijk blijft van het systeem. Ook is de vraag wat er dan overblijft voor de rol van docent. Onderzoek heeft aangetoond dat onderwijs complex is, waar cognitieve, sociaalpedagogische, en psychologische aspecten samenkomen. Wanneer AI de regie neemt, hoe waarborg je al deze aspecten? Dit is een discussie die buiten dit artikel valt, maar is stof tot nadenken voor een mogelijk toekomstig artikel.

docentgestuurd

Er is natuurlijk een groot verschil tussen een docent die AI gebruikt om feedback te geven op leerlingwerk en een leerling die AI gebruikt om feedback te krijgen op haar schrijfproducten. Een docent kan de AI output redigeren alvorens het aan de leerling te geven. De vraag is dan welke winst het gebruik van AI zou geven.

Een mogelijk gebruik van AI door docenten is, zoals Daisy Christodoulou aangeeft in “Using AI to automate written comments,” dat AI audio feedback kan omzetten naar geschreven tekst. Dat bespaart tijd (al zou ik zeggen, laat leerlingen zelf de feedback opschrijven zoals ik bespreek in “audio feedback”). Maar deze functie bestond al vóór de opkomst van generatieve AI.

Docentgestuurde feedback kan beter ingaan op inzichten verworven uit de cognitieve wetenschap dan wanneer een leerling met AI als feedbackgever aan de slag gaat. Zo kan een docent feedback beter uitstellen: “Sommig bewijs toont aan dat het kort uitstellen van feedback beter langetermijnleren oplevert dan onmiddellijke feedback” (make it stick, p. 39). Ook kan een docent beter inschatten waar een leerling zich eerst op moet richten en daarmee de hoeveelheid feedback beperken (voorkomen van cognitieve overbelasting). Daarnaast kennen de meeste docenten hun leerlingen goed en zullen zij de toon en de vorm van hun feedback aanpassen aan de leerling.

Als een docent zelf gebruik wil maken van AI feedback voor leerlingen moet de docent eerst bij de AI aangeven aan welke criteria de feedback moet voldoen. Dit kan door een rubriks te uploaden. Daarna kan hij of zij werk van leerlingen delen met de AI. Het werk dient wel geanonimiseerd te zijn. Het is dan te adviseren een eigen codesysteem aan te houden om werk te traceren en de feedback bij de juiste leerling te krijgen. Het maakt geen groot verschil of het werk getypt of geschreven is. Een model als ChatGPT heeft een OCR functionaliteit waarmee het foto’s van geschreven werk kan worden omgezet in digitale tekst. De docent kan aan een model zoals ChatGPT vragen de feedback in een Word bestand aan te leveren zodat deze later makkelijker met een leerling gedeeld kan worden.

In een notitie op Substack stelt Arvind Narayanan, professor aan de Universiteit van Princeton en schrijver van het boek AI Snake Oil, het nut van bepaalde AI agents ter discussie. Hij heeft het over het automatiseren van winkelen of het boeken van een reis, maar het is geen grote sprong om ook zo naar feedback agents te kijken: “Het zal onvermijdelijk vele rondes van heen-en-weer communicatie vereisen om te ontdekken wat de gebruiker wil, of anders het risico lopen dat dingen fout gaan.” Wil je een feedback agent gebruiken, maar zelf de regie houden, dan zal je heel veel moeten fine-tunen. Op een gegeven moment moet je je dan als docent afvragen of het gebruik van AI juist niet meer werk oplevert zonder significante verbetering van het leerproces voor de leerling.

Het voordeel is dat GPT veel nakijkwerk bespaart, maar je levert weer veel tijd in met het organiseren van de data. Je kunt het bulkwerk automatiseren door middel van een ‘agent’ maar dit vergt diepere kennis over AI en is uiteindelijk minder flexibel dan zelf nakijken. Uiteindelijk zal je de vraag moeten stellen of de AI past binnen jouw systeem of dat je het systeem passend aan het maken bent voor AI.

leerlinggestuurd

Je kunt ook leerlingen zelf hun schrijfproduct laten aanbieden aan AI. Hiervoor moet in de eerste plaats bekend zijn of de leerling gebruik mag maken van de AI applicatie. Vaak zijn er leeftijdslimieten aan het gebruik van AI modellen of moeten ouders toestemming geven voor het gebruik (ook vanwege de AVG). Vaak ligt die grens bij 13 jaar, met ouderlijke toestemming, maar voor sommige modellen moet je minimaal 18 jaar zijn.

Het moment van feedback is een tactische keuze. Wordt deze keuze bepaald door de docent, de AI, of de leerling in zelfsturend leren? Effectieve feedback heeft immers niet tot doel direct correcties aan te brengen op een product. Ook is de vraag of je leerlingen met een AI Base, zoals ChatGPT, laat werken of een AI Tutor en hoe je ervoor zorgt dat de AI feedback geeft naar aanleiding van de leerdoelen die je hebt gesteld (bijvoorbeeld een rubriks). Er zijn voorzichtige positieve ervaringen met een AI Tutor, zoals het onderzoek op Harvard waarin eerstejaars studenten gebruikmaakten van een AI Tutor om basis natuurkunde eigen te maken. Aan de andere kant kan een AI Tutor ook de neiging hebben een eeuwig ‘krukje’ te worden, zoals aangetoond in “Generative AI Can Harm Learning.”

Wanneer een leerling met Generatieve AI aan de slag gaat, wordt het lastig voor de leerling om prioriteiten te stellen. Een leerling staat immers nog niet boven de stof en zal overspoeld worden met feedback waardoor zij niet meer duidelijk ziet waar aan te werken. Dit zal vaak leiden tot cognitieve overbelasting. De leerling zal de neiging hebben om ‘het goede antwoord’ te vragen en de feedback klakkeloos accepteren. Het is dan geen feedback meer, maar een correctie geworden: “Wanneer leerlingen fouten maken en correctieve feedback krijgen, worden de fouten niet geleerd” (make it stick, p. 90).

Alleen wanneer een leerling goed is opgeleid in het gebruik van AI als gereedschap, kan het effectief worden ingezet. Zo moet een leerling beseffen dat het antwoord van AI een suggestie is en dat Generatieve AI de neiging heeft de gebruiker tevreden te stellen. Ook moet een leerling keuzes durven maken in het schrijfproces dat tegen het advies van AI ingaat. Het is vooral zaak dat de leerling zelf schrijft en niet een voorstel van AI bewerkt. Het moet een schrijfproduct van de leerling zijn, niet van AI.

conclusie

Het doel van feedback is het creëeren en vormen van kritisch denkprocessen in de leerling zodat zij uiteindelijk zelfstandig kan handelen. Het geven van feedback is niet in de eerste plaats om een product te verbeteren, maar om de leerling kennis en vaardigheden eigen te laten maken zodat ze later de handeling zelfstandig kan verrichten.

Goede feedback staat niet op zichzelf maar wordt gegeven in een proces. Het is een complexe werkwijze dat vraagt om inzicht in het doel, de leerling, en de situatie wanneer welke informatie op welke manier te delen De leraar moet wel boven de domeinkennis staan, ervaring hebben opgebouwd, en bewust zijn van de valkuilen in het feedbackproces.

Daarnaast is feedback een sociaal proces, een relatie tussen mensen: “Feedback is een gesprek tussen de schrijver en het publiek. Het kan bemoedigend of controversieel zijn, maar bovenal is het een relatie tussen mensen” aldus Marc Watkins in “What does Automating Feedback Mean for Learning?” Hoe meer technologie tussen de docent en de leerling staat, hoe verder de connectie tussen mensen zal zijn en hoe meer technologie de leiding zal nemen.

De rol van AI in het feedbackproces is daarmee een stuk moeilijker te bepalen dan dat je op het eerste gezicht zou verwachten. We zijn verwonderd over de capaciteiten van AI modellen maar vergeten dat onderwijs niet gaat om het eindproduct. Het gaat uiteindelijk om de menselijke relatie en ‘het residu dat achterblijft bij de leerling’. Programmeurs trainen modellen, leraren trainen mensen.

Het is daarom moeilijk te bepalen welke waardevolle bijdrage AI kan geven aan het feedbackproces. Het is zeker niet zo dat je AI het werk kan laten doen zodat jij als docent bezig kunt zijn met de ‘leuke dingen’ van het vak (een uitspraak die ik altijd vreemd heb gevonden, want leerlingen begeleiden in het leerproces is het ‘leuke’ van mijn vak, en daar is feedback een essentieel element in). Je zult als docent goed moeten nadenken wanneer en op welke manier je AI feedback laat geven op het werk van leerlingen.

  • Wil je AI inzetten in het feedbackproces, stel jezelf dan de volgende vragen:
  • Wat is het doel van het leerproces? Waar werk je naar toe?
  • Zijn leerlingen AI geletterd?
  • Welk deel neem jij als docent op je en welk deel doet de AI?
  • Welke AI wil je inzetten en wie maakt er gebruik van (docentgestuurd of leerlinggestuurd)?
    • Is dit een Base AI of een Tutor AI? Wat zijn de gevolgen voor de keuze van het type AI?
    • Zijn er leeftijdsgrenzen aan het gebruik voor het model?
  • Welke data heeft de AI nodig om aan te sluiten aan jouw doelen en hoe lever je die data?
  • Waar in het leerproces wordt AI ingezet als feedback? Wordt de AI in de les gebruikt of mag het ook buiten de les?
  • Wat voor soort feedback moet er door AI gegeven worden: correctief, evaluerend, of activerend?
  • Hoe voorkom je scaffolding afhankelijkheid? Hoe voorkom je motivatie zonder verandering in het langetermijngeheugen?

Nicholas Carr in The Shallows stelt dat “de hechte band die we met ons gereedschap vormen, in beide richtingen werkt. Terwijl onze technologieën uitbreidingen van onszelf worden, worden wij uitbreidingen van onze technologieën.” Onderzoek heeft aangetoond dat de afhankelijkheid voor AI een inherent risico is. Leren doet pijn en leerlingen zijn geneigd zich te richten op het antwoord in plaats van op de beantwoording. Feedback moet leerlingen zelfstandiger maken, niet afhankelijker. Het is aan leraren, en niet aan modellen, om hier de leiding in te nemen.

Bronnen

Banihashem, Seyyed Kazem, et al., “Feedback sources in essay writing: peer generated or AI-generated feebdack?”, 2024

Bastani, Hamsa et al., Generative AI Can Harm Learning”, 2024

Brown, Peter C.,e t al., Make It Stick: The Science of Successful Learning, 2014,

Carr, Nicholas, The Shallows: How the Internet Is Changing the Way We Think, Read and Remember, 2010

Christodoulou, Daisy, “Using AI to automate written comments”, 2024

Darvishi, Ali, et al., “Impact of AI assistance on student agency” , 2024

Dehaene, Stanislas, How We Learn: Why Brains Learn Better Than Any Machine . . . for Nown, 2018

Fan, Yizhou, et al., “Beware of metacognitive laziness: Effects of generative artificial intelligence on learning motivation, processes, and performance”, 2024

Gerlich, Michael, “AI tools in Society: Impacts on Cognitive Offloading and the future of Critical Thinking”, 2025

Kestin, Gregory, et al., “AI Tutoring Outperforms Active Learning”, 2024

Kirschner, Paul A., Claessens, Luce, Raaijmaker, Steven, Op de Schouders van Reuzen, 2019

Kneyber, René, Sluijsmans, Dominique, Wilde, Bianca, Devid, Valentina, Formatief handelen: Van instrument naar ontwerp, 2022

Nuthall, Graham, The Hidden Lives of Learners, 2007

Page, Ellis, “Project Essay Grade (PEG)”, 1968

Tay, Hui Yong, “AI feedback: Moving beyond the hype to integrating it into a coherent feedback pedagogy”, 2024

Vanhoof, Stijn, Speltincx, Geert, Feedback in de klas: Verborgen leerkansen, 2021

Watkins, Marc, “What does Automating Feedback Mean for Learning?”, 2024

EU AI Act en onderwijs – wat scholen moeten weten en doen nu de wet is ingegaan

Dit jaar is de Europese AI Act ingegaan waarin Europa regels heeft vastgelegd voor alle lidstaten omtrent kunstmatige intelligentie. Met deze wet wordt eenduidigheid gecreëerd over de wet- en regelgeving over kunstmatige intelligentie en worden de democratische waarden van de Unie geborgd. “[AI] moet dienen als instrument voor mensen, met als uiteindelijke doel het welzijn van de mens te vergroten.” (EU AI Act, p. 2). In dit artikel wil ik uiteenzetten wat dit betekent voor scholen en wat zij al kunnen, maar uiteindelijk ook moeten, doen.

Voor de duidelijkheid, ik ben geen jurist. Ik heb de EU AI Act gelezen en verschillende bronnen geraadpleegd om te begrijpen wat de implicaties voor scholen zijn. De informatie is niet altijd duidelijk en vaak worden scholen niet benoemd. Toch vallen scholen onder de wet als ‘gebruiksverantwoordelijke’: “een natuurlijke of rechtspersoon, overheidsinstantie, agentschap of ander orgaan die/dat een AI-systeem onder eigen verantwoordelijkheid gebruikt, tenzij het AI-systeem wordt gebruikt in het kader van een persoonlijke niet-beroepsactiviteit” (artikel 3, lid 4; p. 46). Ik probeer zoveel mogelijk te verwijzen naar de Verordening om anderen te helpen de Verordening te lezen en te interpreteren. Mochten er onjuistheden in dit artikel staan, dan hoor ik graag en pas ik het aan.

EU AI Act [NL]

EU AI Act [ENG and other languages]

artikel in PDF

Welke AI?

Wanneer we aan AI denken, komt vrij snel ChatGPT of een andere Generatieve AI in beeld. Echter, de Verordening gaat ook over andere AI-systemen zoals voorspellende AI en identificatie AI. Daarnaast zijn er ook verplichtingen voor AI Geletterdheid.

De AI Act verdeelt AI in vier risicogebieden: onaanvaardbaar (zoals het ‘social scoring systeem’ in China), hoog-risico (hier valt ook onderwijs onder), beperkt risico (chatbots), en minimaal (spamfilters).

De EU AI Act gaat niet direct over onderwijskundig gebruik van Generatieve AI modellen zoals ChatGPT of de controle van werk van een leerling waarbij een vermoeden bestaat dat GenAI is gebruikt. Het richt zich vooral op hoog-risico AI-systemen. Die AI-systemen gaan over de toegang, toelating en toewijzing tot onderwijs, het evalueren van leerresultaten, het sturen van het leerproces, beoordelen van het passende onderwijsniveau, en het monitoren en detecteren van ongeoorloofd gedrag tijdens toetsen (overweging 56, p. 16)

AI Geletterdheid (vanaf februari 2025)

De EU AI Act stelt dat aanbieder, gebruiksverantwoordelijken, en betrokken personen AI geletterd moeten zijn om de grondrechten, gezondheid, en veiligheid te beschermen en democratisch controle mogelijk te maken (sectie 20, p. 6). In artikel 4 (p. 51) wordt de uitvoering uiteengezet:

Artikel 4 is niet heel uitgebreid, maar dit is wat we eruit kunnen halen. Scholen vallen onder gebruiksverantwoordelijken. Zij zijn degenen die AI-systemen gebruiken voor hun taak (onderwijs). Een school moet daarom maatregelen nemen om haar personeel AI geletterd te hebben zodat zij AI binnen hun onderwijs (context) kunnen gebruiken

Deze geletterdheid wordt ook elders in de verordening benadrukt. Gebruiksverantwoordelijken moeten ‘relevante capaciteiten en beperkingen van het AI-systeem met hoog risico goed begrijpen en werking ervan naar behoren kunnen monitoren (artikel 14, lid 4a: menselijk toezicht). Ook benadrukt artikel 26, lid 2 dat gebruiksverantwoordelijken het menselijk toezicht op aan “natuurlijke personen die over de nodige bekwaamheid, opleiding, en autoriteit beschikken en de nodige ondersteuning krijgen” (p. 68). Al hoewel artikel 4 niet expliciet aangeeft dat leerlingen AI geletterd moeten zijn alvorens zij met AI aan de slag kunnen, vallen zij waarschijnlijk wel onder ‘andere personen’ en dienen dus eerst instructie te krijgen over de risico’s van AI. Iets wat voor mij niets meer dan logisch is.

Als een school ChatGPT aanbiedt (en dit kan dus ook via een enthousiaste enkele docent zijn), moeten gebruikers daarvoor geletterd zijn. Maar denk ook aan een programma zoals Snappet dat een AI-functionaliteit in zijn systeem heeft dat valt onder ‘hoog risico’ (zie onder).

Het gaat bij AI-geletterdheid niet alleen om een knoppencursus. Het gaat juist om het herkennen, begrijpen, en adequaat kunnen toepassen van AI. Voor leerlingen is het belangrijk te begrijpen wat AI is, hoe resultaten tot stand komen, en wat de risico’s zijn.

Deze cursussen zouden gegeven moeten worden zonder, wat Neil Postman noemt in The End of Education “hyperactieve fantasieën van cheerleaders,” maar cursusleiders die de EU AI Act kennen en kritisch kunnen kijken naar de risico’s van AI-systemen. Een cursusleider moet ook op de hoogte zijn van de context (onderwijs). Het gaat immers niet (alleen) over het begrijpen van AI, maar ook wat de implicaties zijn binnen de onderwijscontext. Een cursus over welke ‘fantastische’ dingen AI allemaal kan, is een ander soort cursus en kan de AI-geletterdheid overschaduwen.

Praktijkcodes (mei 2025; p. 86)

Vanaf 2 mei 2025 moeten de praktijkcodes gereed zijn. Praktijkcodes helpen bij het uitvoeren van de EU AI Act. Ze worden voor specifieke sectoren, waaronder onderwijs, opgesteld zodat zij niet alles zelf hoeven uit te zoeken. Ik vermoed dat Kennisnet dit zal gaan doen, al kan het ook vanuit het Ministerie van Onderwijs gebeuren of een andere overkoepelende organisatie. Deelname aan praktijkcodes is vanuit de AI Act niet verplicht, maar in de praktijk zal een school zich hierbij aansluiten (artikel 56, pp. 86-87).

AI-systemen met hoog risico (augustus 2026; p. 53)

Zoals gezegd zijn er vier subdomeinen voor hoog-risico systemen voor het onderwijs:

  • toegang, toelating en toewijzing tot onderwijs
  • beoordelen van het passend onderwijsniveau
  • monitoren en detecteren van ongeoorloofd gedrag tijdens toetsen
  • evalueren van leerresultaten en sturen van het leerproces

Ik richt mij hier op het basisonderwijs en voortgezet onderwijs. “Toegang, toelating en toewijzing tot onderwijs” en “beoordelen van het passende onderwijsniveau” zijn voor nu nog niet relevant voor het basis- en voortgezet onderwijs, maar zijn wel belangrijke kaders voor als er ooit in de toekomst worden besloten om AI te gebruiken om, bijvoorbeeld, het onderwijsniveau van een leerling te bepalen in groep 8. Ook “het monitoren en detecteren van ongeoorloofd gedrag tijdens toetsen” is prettig in een wet te hebben gekaderd. Dergelijke controlesystemen zullen uiteindelijk op de onderwijsmarkt komen.

Wat voor nu het meest belangrijk is het “evalueren van leerresultaten en sturen van het leerproces”. Dit vindt namelijk al plaats. Een van de meest gebruikte systemen voor dit soort doeleinden is Snappet. Snappet heeft een ingebouwde AI-module die voorspelt op welk niveau leerlingen opdrachten aangeboden krijgen. Dit valt, naar mijn mening, onder het sturen van het leerproces en is daarmee een hoog-risico systeem.

Het is nog steeds toegestaan om dit soort AI te gebruiken maar de EU AI Act vraagt wel om een borging bij zowel de aanbieder als de gebruikersverantwoordelijke (de school). Beide partijen dragen de verantwoordelijkheid om AI-systemen aan te bieden conform de EU AI Act. Onderdeel van deze borging is het personeel AI geletterd te hebben voor adequaat gebruik van het systeem. Docenten mogen dus niet zomaar de AI-functie in Snappet aanzetten en met de armen over elkaar naar de resultaten kijken. Hoog-risico systemen dienen daarnaast een CE-markering te hebben (artikel 48; p. 81).

De EU AI Act stelt dat hoog-risico systemen dermate transparant moeten zijn dat het gebruikersverantwoordelijken in staat moet stellen “de output van het systeem te interpreteren en op passende wijze te gebruiken” (artikel 13, p. 59). Het is belangrijk voor hoog-risico systemen dat er menselijk toezicht kan plaatsvinden (artikel 14, p. 60) en dat er bij onregelmatigheden kan worden ingegrepen. Kort gezegd, de school moet weten hoe de motor functioneert en die motor kunnen aanpassen. Docenten moeten de Snappet AI kunnen monitoren en ingrijpen als Snappet verkeerde lessen klaarzet.

AI-functionaris

Voorspellings- en evaluatiesystemen zullen steeds meer de onderwijsmarkt betreden en het is daarom voor iedere school belangrijk een AI-functionaris aan te stellen zoals bij de AVG ook het geval was. Het hebben van een AI-functionaris is niet verplicht vanuit de AI Act (het wordt nergens genoemd), maar wel logisch om te borgen zodat een school zich aan de Verordening houdt. Een ICT&Onderwijs Coördinator kan deze taak ook op zich nemen, maar betekent wel een uitbreiding van zijn of haar taak.

De AI-functionaris is verantwoordelijk voor het controleren van AI hoog-risico systemen die worden gebruikt binnen de organisatie en het opleiden van het personeel. Als er, bijvoorbeeld, een nieuwe methode met AI-ondersteuning wordt aangeschaft, kan de AI-functionaris helpen bij het in kaart brengen van de AI-risico’s. Ook kan de AI-functionaris nieuwe AI-toepassingen registreren zodat voor de school duidelijk is welke AI er wordt gebruikt en op welke manier.

Generatieve AI (augustus 2025; p. 83)

Per 2 augustus 2025 moeten ‘AI-modellen voor algemene doeleinden’ (dat is ChatGPT, Claude, Gemini, etc.) voldoen aan de AI Act. De school blijft echter gebruiksverantwoordelijke. Dit betekent dat de school verantwoordelijk is dat het gebruik van generatieve AI-systemen in overeenstemming met de Verordening is, waaronder de AVG. Daarnaast hebben Generatie AI modellen ook leeftijdsgrenzen die vaak in de EULA’s van AI-modellen te vinden zijn (opvallend genoeg was het niet altijd makkelijk deze informatie te vinden):

ChatGPT (OpenAI) van 13 tot 18 jaar met ouderlijke toestemming
Claude (Anthropic) 18 jaar
Gemini (Google) 16 jaar
Llama (Meta) tot 15 jaar met ouderlijke toestemming (AVG)
Copilot (Microsoft) 18 jaar
Mistral (Mistral AI) van 13 tot 18 jaar met ouderlijke toestemming
Perplexity (Perplexity AI) van 13 tot 18 jaar met ouderlijke toestemming

Het is aan te raden om ouderlijke toestemming voor modellen zoals ChatGPT, Mistral en Perplexity te registreren in een leerlingvolgsysteem, net als op veel scholen de ouderlijke toestemming voor de Coronatest in het leerlingvolgsysteem stond geregistreerd. Zonder deze toestemming mag je, volgens de gebruikersovereenkomsten van deze bedrijven, leerlingen niet met deze AI laten werken.

Zoals eerder genoemd moeten docenten, voordat zij aan de slag kunnen met Generatieve AI, AI geletterd zijn om de veiligheid en democratische rechten van hun leerlingen te waarborgen (zie ook artikel 9, lid 5 op pagina 56 over het wegnemen van hoog-risico en artikel 13, lid 1 op pagina 59 over het interpreteren van systemen). Dit raakt ook de regels over de AVG. Het is daarom belangrijk dat de school haar werknemers instrueert over het adequaat gebruik (laten) maken van Generatieve AI. Dit zou in de praktijkcode onderwijs kunnen worden meegenomen. Het is echter zeker aan te raden dat een school binnen haar eigen identiteit een richtlijn opstelt voor haar personeel.

Tijdpad (p. 44 en p. 123)

Hieronder volgt een schema met de meest belangrijke data voor het basis- en voortgezet onderwijs.

Conclusie

De EU AI Act is een belangrijke verordening die de democratische rechten van haar burgers moet waarborgen. Het dwingt scholen en docenten kritisch naar hun gebruik van AI te kijken en het personeel op te leiden. Er moet gecontroleerd worden of AI-systemen voldoen aan de regelgeving en dat docenten en leerlingen AI geletterd zijn. Scholen die op tijd beginnen en een AI-functionaris aanstellen zullen niet veel tijd hoeven te besteden aan het voldoen aan deze wet. Daarom is het belangrijk dat scholen nu een AI-functionaris aanstellen die een plan gaat schrijven voor de implementatie van deze EU Verordening op school. De tijd van verwondering en wegduiken is nu echt voorbij zijn en scholen moeten hun verantwoordelijkheid nemen om de veiligheid en privacy van hun leerlingen te waarborgen. Pas als dat is gebeurd, kunnen we verder kijken of en hoe AI het onderwijsproces kan verrijken.

UPDATE: Leeftijd om Gemini te gebruiken is 16 jaar (geen 18): Google Gemini

Wat voegt Generatieve AI nu eigenlijk toe aan het onderwijs?

30 november 2022, ChatGPT wordt gelanceerd door OpenAI en zette de wereld op zijn kop. Het onderwijs kan niet anders dan hierin meegaan. We kunnen de ontwikkelingen niet tegenhouden en zullen ons aan moeten passen aan de dans van Big Tech. Of moeten wij dat eigenlijk wel?

In alle discussies rondom Generatieve AI in het onderwijs wordt de meest cruciale vraag maar zelden gesteld: hoe sluit dit aan bij onderwijsonderzoek, bij dat wat, in grote lijnen, werkt in het leerproces? Welke onderdelen uit het leerproces ondersteunt AI nu eigenlijk? En waar zal het onze kinderen dommer en daarmee afhankelijker maken? Het is tijd voor een kritische noot.

Vormen van AI

Sinds 2022 kennen we AI vooral van ChatGPT, maar we hebben al veel langer AI in ons leven. Er zijn al geruime tijd chatbots die klanten helpen zoals bijvoorbeeld ‘Billy’ bij Bol, maar ook YouTube suggesties worden uitgevoerd door AI. Banken werken al lange tijd met AI en het toeslagenschandaal in Nederland was mede door het gebruik van voorspellende AI ontstaan. Op je telefoon zit al lange tijd AI om processen te verbeteren en een stofzuigerrobot werkt ook op AI. Voor nu kijken we alleen naar een specifieke AI: Generatieve AI (GenAI), AI zoals deze wordt toegepast in bijvoorbeeld ChatGPT.

Hoe werkt GenAI?

GenAI onderscheidt zich door originele inhoud te creëren naar aanleiding van een opdracht, beter bekend als een prompt. GenAI kent een lange geschiedenis maar om beetje een beeld te krijgen wat het min of meer is en doet volgt hier een simplistische uitleg.

GenAI, zoals ChatGPT, genereert (de ‘G’ in GPT) nieuwe inhoud naar aanleiding van een prompt, een opdracht vaak in tekst. Het gebruikt hiervoor een voorgeprogrammeerde dataset (de ‘P’ in GPT). Omdat taal complex is en de AI alleen met (reeksen van) getallen kan werken, heb je een transformer nodig (de ‘T’ in GPT). De transformer vertaalt tekst naar getallen en getallen naar tekst.

GenAI verwerkt die reeksen van getallen in een neuraal netwerk (genaamd Large Language Model [LLM] voor ChatGPT) dat vergelijkbaar is met hoe onze hersenen werken. In dat netwerk voorspelt de AI welk woord volgt na welk ander woord om een logische zin te maken. Als je in zou voeren “De kat is een…” zal GPT dat hoogstwaarschijnlijk aanvullen met ‘dier’, maar dit kan natuurlijk veel complexer tot korte verhalen en complete programmeercode om een app te maken. Deze uitkomsten ontstaan door middel van berekeningen in een ‘black box’. Niemand kan in kaart brengen hoe GenAI exact tot een product is gekomen. Men heeft alleen invloed op de dataset.

In GenAI wordt een woord, stuk tekst, of leesteken omschreven als een token. Om een enkele token te genereren, moet ChatGPT ongeveer een biljoen berekeningen maken. GenAI vraagt dus om veel rekenkracht en daarmee energie.

Welke vormen van GenAI zijn er?

Bij het grote publiek is vooral ChatGPT bekend. ChatGPT is ontwikkeld door stichting OpenAI (dat op het punt staat zichzelf om te vormen tot een commercieel bedrijf met winstoogmerk), maar er zijn ook andere aanbieders. Er is Claude van oud-medewerkers van OpenAI, Llama, de open source GenAI van Meta, het bedrijf achter Facebook, Gemini van Google, het Franse Mistral AI, en nog vele Open Source initiatieven.

Je hebt ook GenAI specifiek voor afbeeldingen zoals Midjourney en Pixlr. Suno genereert liedjes in een muziekstijl naar keuze en Github Copilot helpt bij programmeren. Daarnaast hebben modellen zoals ChatGPT de mogelijkheid om toepassingen (add-ons) gebruik te laten maken van de rekenkracht van ChatGPT.

De lucratieve onderwijsmarkt

Met huidige ontwikkelingen van GenAI lijken de mogelijkheden eindeloos. We zouden nog maar een glimp gezien hebben van wat ons te wachten staat en de wereld zal een grote verandering doormaken. Echter, deze verafgoding van IT hebben we al eerder gezien. De meeste recente hypes waren Big Data en Virtual Reality en deze hypes zijn ook afgevlakt. En kent iemand nog de Steve Jobs/iPad-scholen? De resultaten van GenAI zijn indrukwekkend, maar achter de façade van verwondering schuilt ook een verdienmodel en zelfs een grens lijkt, voorlopig, in zicht.

Al decennia proberen IT-bedrijven grip te krijgen op de lucratieve onderwijsmarkt. Was het vroeger vooral jonge gebruikers gekoppeld te krijgen aan Google, Microsoft, of Apple-diensten, nu gaat het om controle van het onderwijsproces door middel van de producten die zij verkopen.

Als docent word je dan overgeleverd aan het algoritme van het model en fungeer je meer als coach of faciliteerder in plaats van een onderwijsexpert. Het model, en het bedrijf achter dat model, bepaalt in grotere mate de inhoud en het onderwijsproces. Echter, “[AI] kan het onderwijs beperken tot alleen datgene wat AI kan verwerken, modelleren en leveren.” (UNESCO).

Hallucinaties

Omdat GenAI zichzelf aanstuurt aan de hand van een zeer grote dataset, komt het wel eens voor dat GenAI feiten verdraait of verzint. GenAI is dan ook niets anders dan een voorspelmachine. Het begrijpt niet wat het zegt en maalt niet om waarheid. Het aanbieden van onjuiste informatie wordt ‘hallucineren’ genoemd: het presenteren van een onsamenhangend antwoord of in volle overtuiging verkeerde informatie geven. Bedrijven proberen dit te voorkomen door ‘fine-tuning’ en hard gecodeerde regels. In het eerste geval krijgt het model een beperkte extra dataset om bij te sturen. In het tweede geval krijgt het model instructies wat te doen bij bepaalde invoer: als dit, doe dan dat.

In beide gevallen oefent het bedrijf invloed uit op de uitkomsten die niet zichtbaar zijn voor de eindgebruiker. We varen dus niet alleen blind op de zee van het algoritme, het is Big Tech die onzichtbaar aan het roer staat om bij te sturen. Gezien de grote invloed GenAI heeft en gaat hebben in onze informatievoorziening, vormt dit een substantieel gevaar voor onze democratie. Grote bedrijven zijn niet politiek neutraal en hebben belang bij wet- en regelgeving. De positie van Elon Musk bij de verkiezingen in Amerika dit jaar laten duidelijk zien dat er grote belangen spelen bij Big Tech.

Het is aan leraren om de hallucinaties van GenAI in het onderwijs bij te sturen. Dit betekent dat de leraar vaak moet controleren of zijn of haar leerlingen wel de juiste informatie krijgen. De leraar moet dus het leerproces constant monitoren en bijsturen waar AI de mist in gaat. Dit verandert niet alleen de rol van de leraar, maar zal er ook voor zorgen dat de leraar uiteindelijk meer werk te doen heeft. Zij is echter dan wel haar handelingsvermogen kwijtgeraakt. Of zoals Joop Berding zegt: “Je krijgt een ontwikkeling waarbij de leidende vraag niet meer is ‘hoe kunnen we zorgen dat de middelen die we inzetten ons helpen bij ons doel’, maar meer van ‘hoe moet het onderwijs er eigenlijk uit zien zodat die middelen hun werk kunnen doen?’”

Datasets

GenAI wordt getraind door middel van datasets. De legaliteit van deze datasets wordt steeds meer ter discussie gesteld. Zo zijn meerdere visuele GenAI modellen getraind op afbeeldingen van artiesten zonder hier toestemming voor te vragen. The Times klaagde OpenAI en Microsoft al in 2023 aan voor het gebruik van duizenden van haar artikelen voor het trainen van hun GenAI model. Ook worden er nu transcripties van YouTube video’s gebruikt om GenAI te trainen zonder dat hier toestemming voor is gegeven door de makers van deze video’s.

Datasets leveren niet altijd feitelijke informatie. Een dataset is bij elkaar geschraapte informatie waar feit en fictie gelijkwaardig zijn. Vooroordelen en complottheorieën zijn meegenomen in die datasets. Datasets kunnen dasn vervuild zijn.  Google heeft data van Reddit gekocht, een internetforum waar het niet altijd om waarheid gaat, Meta gebruikt posts op Facebook en Instagram om zijn GenAI Llama te trainen, en Elon Musk gebruikt X posts om zijn Grok GenAI te trainen. Social media geven niet een goed beeld van de werkelijkheid. Toch wordt GenAI getraind op data van deze platformen. Het gaat allemaal om het herkennen van patronen, ongeacht of die patronen feitelijk juist zijn. Daarnaast raakt de internetdata om GenAI te trainen rond 2026 op en wordt er nu al data gegenereerd door GenAI om GenAI te blijven trainen.

We hebben al gezien dat bedrijven in extreme gevallen moeten bijsturen en de uitkomsten van GenAI moeten manipuleren door middel van fine-tuning en harde codering. Deze bijsturing zal in ieder geval nog voorlopig moeten plaatsvinden simpelweg omdat GenAI niet de natuurkundige wetten van de wereld begrijpt. “LLM’s leren immers op een manier die tegengesteld is aan die van mensen. Deze modellen beginnen met het leren van taal. Daarna proberen ze die kennis te gebruiken om abstracte concepten te begrijpen. Menselijke baby’s, daarentegen, leren eerst concepten en vervolgens de taal om die te beschrijven.”

GenAI blijft in de kern een voorspelmachine. Het heeft data uit het verleden nodig om een voorspelling te doen als antwoord op een prompt. In het klein is dat de berekening van een token, in het groot is dat een tekst of afbeelding bestaande uit duizenden tokens. Indrukwekkend, maar nog steeds een numerieke voorspelling op basis van vervuilde datasets.

GenAI heeft ook een andere insteek voor waarheidsvinding. GenAI creëert een werkelijkheid op basis van patronen vanuit data uit het verleden. Dit is anders dan hoe onze wetenschap veelal werkt. Wetenschap komt tot waarheidsvinding door middel van onderzoek, veelal, in het heden. We krijgen nieuwe kennis door het uitvoeren van experimenten. Daarnaast is het fundament van wetenschap het stellen van kritische vragen en peer reviews. Wetenschappelijke waarheidsvinding wordt continu gecontroleerd. GenAI kan niet gecontroleerd worden omdat we geen idee hebben hoe de ‘black box’ tot een antwoord is gekomen. Resultaten kunnen ook niet gereproduceerd worden, omdat de uitkomsten iedere keer weer anders zijn. De validiteit van (Gen)AI-onderzoek is dan ook moeilijk te controleren. GenAI vraagt daarmee om, bijna religieus, blind vertrouwen.

Data degeneratie

Een ander gevaar is data degeneratie, of modelinstorting. GenAI neemt in kwaliteit af als het traint op GenAI data (en het kost ook meer energie). Het internet raakt steeds meer vervuild met AI-genereerde inhoud. Nieuwe generaties GenAI worden dan getraind op die GenAI-inhoud. Dit kopieerproces is te vergelijken met het recycleproces van papier, waar plastic de kwaliteit van papier vermindert. In zulke processen sluipt onzuiverheid zodat je eindproduct steeds meer in kwaliteit inlevert. Omdat GenAI sneller nieuwe afbeeldingen kan maken en tekst kan schrijven dan mensen, zal ons internet vol gaan staan met data dat niet door mensen is gemaakt, maar door machines.

Datadegeneratie bij Generatieve AI. Links een eerste generatie GenAI. Rechts een vierde generatie Generatieve AI gebaseerd op GenAI datasets. <https://ediscoverytoday.com/2024/08/26/degenerative-ai-what-happens-when-ai-trains-on-ai-data-artificial-intelligence-trends/ >

Koud water

GenAI is een ‘black box’ die voorspellingen doet op basis van datasets en wordt bijgestuurd door Big Tech. De uitkomsten van GenAI zijn indrukwekkend maar moeilijk te controleren op validiteit op hoe het tot die uitkomsten is gekomen. Het komt nog wel eens voor dat GenAI ernaast zit en gaat ‘hallucineren’. Dit betekent niet dat GenAI gemeden moet worden in het onderwijs. Het vraagt wel om een flinke plens koud water om uit de verwondering en uit de angst te stappen en het kritisch te benaderen.

Wat is (goed) onderwijs?

In de kern bestaat onderwijs om de jongere generatie voor te bereiden op de maatschappij (socialisatie). Hiertoe dienen zij in staat te zijn zich zelfstandig en kritisch op te stellen (subjectivering) door middel van basiskennis (kwalificatie) over die maatschappij en de wereld. Zij moeten ook in staat zijn samen te werken en anderen in hun waarde te laten (‘jouw vrijheid eindigt waar die van een ander begint’).

Onderwijs leert jongeren de wereld zoals wij hem kennen. Dit is de ‘erfenis’. Met deze erfenis leren jongeren waarom de wereld is zoals zij nu is, welke gevaren en successen de mensheid al heeft doorlopen, en welke inzichten tot nu toe zijn verworven. Het is dan aan de nieuwe generatie om de toekomst vorm te geven op basis van deze erfenis en hun inzichten weer over te dragen aan hun kinderen.

Je kunt alleen kritisch de toekomst vormgeven via het bezit van (domein)kennis. (Domein)kennis wordt verkregen via het eigen en inzichtelijk maken van informatie. Hoe meer informatie is eigen gemaakt als kennis in je langetermijngeheugen (opgeslagen als concepten en schema’s), hoe meer ruimte er overblijft in je werkgeheugen (kortetermijngeheugen) om kritisch en zelfstandig in de maatschappij te kunnen functioneren.

Het leren van feiten is nodig om tot concepten en schema’s te komen. Concepten beklijven, feiten raak je vaak onderweg kwijt. Echter, zonder die feiten was je niet tot dieper leren gekomen. Feitenkennis is en blijft dus cruciaal in het leerproces.

Beklijving van feiten, concepten, en schema’s vindt plaats door middel van ‘retrieval practice’: stof moet vaker terugkomen en opgehaald worden om verankerd te raken in het langetermijngeheugen. Vaardigheden worden daarnaast eigen gemaakt in een formatief proces. Toetsing meet van tijd tot tijd hoe de beklijving verloopt en geeft inzicht of bijsturing nodig is. Eindtoetsing blijft belangrijk als objectief meetinstrument om kwalificaties en beklijving van de ‘erfenis’ te waarborgen.

Onderwijs moet zich daarom vooral richten op het proces en niet op het eindproduct. Het eindproduct is een zichtbaar bewijs dat de leerdoelen zijn behaald. In een goed leerproces is het eindproduct meer een formaliteit dan een obstakel. Als dit wel het geval is, dan legt het eindproduct bloot dat er problemen in het leerproces zijn. Dit kan aan de leerling, de docent, of de methodiek liggen. Alle drie dienen dan kritisch bekeken te worden.

Welke plek heeft GenAI in het onderwijs?

(Basis en Voortgezet) Onderwijs dient er dus vooral voor om jongeren te vormen tot kritische en zelfstandige burgers. Hiervoor is kennisverwerving nodig. Hoe meer kennis iemand bezit hoe makkelijker, sneller, en dieper hij of zij nieuwe informatie kan beoordelen en tot zich kan nemen. Wanneer GenAI daarin kan ondersteunen, is zij welkom in het onderwijsproces. Als zij kennis onttrekt uit dat onderwijsproces, moeten leraren waakzaam zijn.

De gevaren van GenAI zijn betrouwbaarheid van informatie, de groeiende macht van Big Tech en hun invloed op het democratisch proces, de privacy van gegevensverwerking, het verlies van handelingsvermogen van de leraar, en het ontnemen van kennisverwerking bij leerlingen zodat zij minder kritisch en creatief kunnen denken. De vraag is dan, wat dient het onderwijs te ontwikkelen: GenAI modellen of de hersenen van onze jongeren?

In het GenAI tijdperk hebben we juist meer kennis nodig bij onze leerlingen willen ze kritisch GenAI kunnen benaderen. Wil je fake news en het zogenaamde ‘bullshitting’ van GenAI kunnen identificeren, dan moet je zelf ook een goed beeld van de wereld hebben, van topografie tot natuurkunde, van geschiedenis tot scheikunde. Dat hoeft niet in detail te zijn, dat hoeven niet eindeloze rijtjes feiten te zijn, maar concepten en schema’s waarmee je GenAI output alerter kan controleren.

Als onze leerlingen niet meer leren hoe ze hun eigen ideeën kunnen verwoorden, niet leren hoe ze tot eigen ideeën komen en ze communiceren, schuift de macht steeds meer naar Big Tech, die de poortwachters van informatie worden (en misschien al grotendeels zijn). De leerling offert dan alleen nog maar prompts op het GenAI-altaar om verwonderd te raken van het orakel en waarbij aflaten toegang geven tot meer mogelijkheden tot verwondering.

Waarom GenAI niet is zoals de introductie van de rekenmachine was

Er wordt wel eens gezegd dat de introductie van GenAI niet veel anders is dan de introductie van de rekenmachine: het vergemakkelijkt processen die niet meer noodzakelijk worden geacht zelf te doen. Zouden we deze theorie toepassen op GenAI dan zou je zoiets krijgen als, het vergemakkelijken van denken en het maken van teksten omdat dat dat tegenwoordig niet meer noodzakelijk is. Het zal echter kennis onttrekken uit het onderwijssysteem waardoor jongeren meer moeite hebben de wereld goed te begrijpen. Ook is GenAI output niet betrouwbaar daar waar een rekenmachine dat wel is

Zelf schrijven is het helder onder woorden brengen van wat je denkt. “Schrijven ordent en verheldert onze gedachten. Schrijven is hoe we ons een onderwerp eigen maken en begrijpen. Schrijven stelt ons in staat te ontdekken wat we weten – en wat we niet weten – over wat we proberen te leren.” (Zinsser). Als GenAI voor ons de teksten schrijft, in hoeverre weten we hoe we zelf denken? Schrijven brengt feitenkennis en inzichten in concepten bij elkaar. Het leert ons onszelf te begrijpen.

Daarnaast is ChatGPT gebruiken om informatie op te zoeken niet alleen inefficiënter dan je eigen hersenen, het belemmert dieper begrip. Immers, we kunnen maar 5-7 items vasthouden in ons kortetermijngeheugen. We hebben ons langetermijngeheugen nodig om dieper begrip te krijgen van complexe materie. Nieuwe informatie gepresenteerd door GenAI wordt verwerkt in het kortetermijngeheugen maar dat raakt dan snel te vol, de zogenaamde cognitieve overbelasting, waardoor we niet tot dieper inzicht komen.

Ook is het niet verstandig om onze kennis over te dragen aan Big Tech. Uiteindelijk blijven OpenAI, Claude, en Meta commerciële bedrijven met winstoogmerk en worden zij de nieuwe poortwachters van data en kennis. Het is belangrijker om de markt en hun aandeelhouders tevreden te houden, dan waarheidsvinding te waarborgen. Mogelijkheden worden opgeblazen en vernieuwingen moeten zo snel mogelijk worden doorgevoerd. De verwondering onder de (betalende) gebruikers moet in stand worden gehouden.

van verwondering naar een kritische benadering

We kunnen verwonderd raken over de mogelijkheden van GenAI en zullen in de toekomst nog vele wonderbaarlijke ontwikkelingen zien. Maar GenAI is van nature niet zonder fouten, sterker nog, het zit in de architectuur dat er fouten in het systeem sluipen, resulterend in de eerdergenoemde data degeneratie. Big Tech probeert dat nu steeds meer te verkopen als onderdeel van de magie omdat zij ook weten dat het niet helemaal zal verdwijnen.

Algoritmen zijn, naast het ‘black box’ principe, niet objectief of neutraal. Modellen zijn getraind op basis van wat ontwikkelaars hebben bestempeld als juist of onjuist. Zij volgen ook patronen op internet die niet altijd over waarheidsvinding gaan. GenAI blijft een gestuurde voorspelmachine zonder begrip van de wereld, ongevoelig voor feit en fictie. Alleen als je boven de stof staat kan je informatie die GenAI genereert controleren op juistheid.

Toch zullen veel mensen kennisverwerving wederom ter discussie stellen nu GenAI ons zoveel werk uit handen neemt. Zeker de oudere generatie die al veel kennis heeft verworven via een traditioneel onderwijssysteem zullen moeilijker kunnen begrijpen wat de gevolgen zullen zijn als we de nieuwe generatie niet meer de erfenis overdragen maar op GenAI vertrouwen dat informatie gewaarborgd blijft. En dit is niet de eerste keer dat kennisverwerving ter discussie wordt gesteld. De opkomst van Google aan het begin van deze eeuw zorgde er ook al voor dat mensen vragen stelden bij het verwerven van kennis, je kunt het immers toch altijd opzoeken?

Leren zal, net als bij de introductie van de TV en het internet, in twijfel worden getrokken. Leren doet immers pijn. Je moet er moeite voor doen, waarom zou je zelf nog iets leren als GenAI het binnen een paar seconden kan produceren? Hier zien we wederom de focus op het eindproduct. Dat is ook wat je op social media en LinkedIn langs ziet komen: een vitrine van curiositeiten zonder dat we goed weten wat het bijdraagt aan een goed leerproces. Het gaat er niet om wat GenAI kan. Het gaat erom welk residu er achterblijft bij onze leerlingen.

GenAI is vooral handig als je de boven de stof staat. Voor het (mede-)creëren van eindproducten, een sparringspartner, een automatiseringsmaatje, een razendsnel woordenboek, een eindeloze thesaurus. Maar in een leerproces dient er kritisch gekeken te worden naar het verkrijgen van diepere kennis door middel van GenAI.

leraren als hoeders van kennis

Leraren en scholen krijgen in het AI-tijdperk een belangrijke rol. Zij zullen, naast een aantal andere beroepen, de cruciale taak van hoeders van kennis op zich moeten nemen. Leraren hebben niet zoveel geld en macht als Big Tech, maar hebben ook geen direct lucratief belang bij het slagen van hun leerlingen. Zij waarborgen de overdracht van kennis en vaardigheden zodat de maatschappij zelfstandige en (zelf-)kritische burgers heeft om de democratie in stand te houden. Als je dit als leraar pretentieuze grootspraak vindt, onderschat je de rol van de leraar in een democratie en wordt het hoog tijd de positie van de leraar niet alleen in de maatschappij maar ook bij leraren zelf in aanzien te verhogen.

Deze belangrijke taak vraagt om een grote verantwoordelijkheid. Leraren zullen hun vakkennis moeten beheersen en bijhouden. Zij moeten de betrouwbare informatiebron zijn en als leerlingen kritische vragen stellen in staat moeten zijn op een professionele manier antwoord te geven of bij te sturen in hun eigen kennis. AI vormt een reële bedreiging voor de nauwkeurigheid van schoolkennis en daarmee voor de geldigheid van lesmateriaal. Het is dan ook aan de leraar om GenAI te gebruiken of toe te staan in zijn of haar onderwijsproces. Elke toepassing van GenAI waarbij de leerling minder hoeft te kennen of te leren, moet met argusogen worden benaderd.

Waarom je niet veel tijd hoeft en moet besteden in het onderwijs aan het leren van GenAI

GenAI is de eerste ICT-innovatie waar je maar weinig uitleg voor nodig hebt. Je kunt letterlijk aan ChatGPT vragen: “hoe werkt dit?” of “wat als ik dit wil doen…?” Je vraagt of GenAI iets wil doen alsof je het aan een persoon vraagt. Je kunt het systeem binnen 30 minuten uitleggen. Het vereist geen diepgaande kennis. Het is begrijpen hoe het min of meer werkt. De rest is experimenteren.

Het enige deel waar je bij GenAI expert in kunt worden is het goed formuleren van prompts. Binnen 30 minuten kan je leerlingen uitleggen waar goede prompts aan moeten voldoen. Dit vraagt echter om meer dan alleen GenAI kennis. Om iets goed te formuleren heb je goede taalbeheersing nodig. Je moet goed kunnen omschrijven wat je wilt in de juiste bewoordingen. Hoe breder je woordenschat in je langetermijngeheugen, hoe betere prompts je kunt maken. Je kunt veel promptlijstjes op internet vinden, maar als je de prompt van iemand anders in een GenAI black box stopt, in hoeverre ben je nog aan het leren? In hoeverre ben je jezelf nog aan het ontwikkelen? Ligt de focus dan op het proces of het wonderbaarlijke eindproduct?

Daarnaast heeft het ook niet veel zin om leerlingen diepgaande gebruikerskennis van ChatGPT mee te geven. De ontwikkelingen gaan te snel. Tien jaar geleden was de programmeertaal Java de meeste gebruikte taal in de ICT-wereld. Vandaag de dag is dat Python. Als we leerlingen van toen volop Java hadden geleerd, hebben ze daar nu weinig aan.

Wat dan overblijft in het onderwijs is veelal fröbelen met AI. Leerlingen krijgen allerlei opdrachten die bij lange na niet altijd iets bijdragen aan het eigen maken van kennis, maar slecht vragen om een ‘ervaring’. De kernvraag voor het gebruik van GenAI in het onderwijs zou altijd moeten zijn: wat draagt dit bij aan het creëren van kennis in het langetermijngeheugen van de leerling?

Als laatste lijkt de GenAI hype grotendeels de Gartner technologie hype cyclus te volgen. De afgelopen maanden komt er steeds meer kritiek op de stagnering van ontwikkelingen. Het is zeker zo dat er nieuwe elementen worden toegevoegd, maar de vraag die steeds meer wordt gesteld is, “wat hebben we hieraan?” Het feit dat nieuwe data om GenAI te trainen opraakt rond 2026, geeft aan dat er een plafond in zicht is wat betreft trainingsdata. Kwantiteit kan niet meer compenseren voor kwaliteit. De output van GenAI blijft fouten houden, komt steeds meer vlak over, en vervuilt het internet met nietszeggende informatie. Probleem is alleen dat Big Tech hier volledig op heeft ingezet en het ‘too big to fail’ is geworden om de kritiek serieus te nemen en nuchter naar GenAI te kijken.

 

Kansen: naar het plateau van productiviteit

Dit betekent niet dat we GenAI moeten weren uit het onderwijs. Het kan, mits kritisch (dat wil zeggen op basis van kennis over GenAI), worden ingezet. De kernvraag is, versnelt het denkprocessen, zoals een rekenmachine, of neemt het denkprocessen over?

Je kunt het vergelijken met koken. Als je kookt en een recept volgt, gebruik je hulpmiddelen zoals een mes, een pan, en een keukenmachine. In eerste instantie duurt het wat langer om je gerecht te maken. Je moet de vaardigheid nog eigen maken. Stappen mislukken en je probeert zo goed als je kunt het recept te volgen. Naar mate je vaker het gerecht maakt, kan je het uit je hoofd, verbeter je processen, en experimenteer je met smaakvariaties. Dit is een leerproces. GenAI heeft het risico de magnetronmaaltijdvariant te zijn dat je binnen 5 minuten hebt opgewarmd. Het resultaat is hetzelfde (een warm gerecht) maar je hebt geen vaardigheden eigengemaakt, je hebt geen goed idee welke ingrediënten erin zitten (tenzij je de E-nummers opzoekt), en het smaakt minder lekker. Daar bovenop heb je jezelf niet ontwikkeld.

Als je GenAI als keukenmachine gebruikt, als onderdeel van het leerproces, maar niet cruciale elementen laat overnemen, kan het van waarde zijn in het onderwijs. Hiervoor is kennis nodig over effectief onderwijs en over Generatieve AI. Omdat GenAI een stuk gereedschap voor de docent is, moet hij ook zo benaderd worden. Waar in het leerproces heeft het meerwaarde? Hoe kan ik de kwalificatie van mijn leerlingen waarborgen? Wat kan ik uit handen geven? Waar wil ik regie houden? Uiteindelijk zullen er steeds meer ‘good practices’ gedeeld worden (en helaas de mislukkingen minder). Voor nu is het kijken waar processen verantwoord geautomatiseerd kunnen worden.

Voor mijn eigen lessen gebruik ik ChatGPT om oefeningen te maken, weggezakte kennis over literatuur en taalkunde op te frissen, synoniemen te vinden, of zinnen in mijn readers anders te formuleren. Ik gebruik ChatGPT in combinatie met Suno om grammaticaliedjes te maken om na een EDI-les af te spelen, materiaal te ontwikkelen voor mijn StarlingESL platform, en korte samenvattingen te maken voor boeken op RookReading.com. Dit werkt prima omdat ik boven de stof sta en kan controleren op fouten. Ook kan ik wijzigingen in het materiaal aanbrengen waarvan ik uit ervaring weet dat het beter is voor mijn leerlingen. Ik behoud mijn handelingsvermogen en controle over de leerdoelen die ik met mijn leerlingen wil bereiken.

Om deze reden laat ik GenAI niet mijn lessen plannen of complete toetsen maken. Beide zijn een uiting van mijn expertise over het onderwijsproces. Iedere klas is anders, ieder cohort is anders, het moment van de dag is bepalend voor mijn les. Wanneer ik ChatGPT mijn lessen laat plannen, mist de AI heel veel informatie en variabelen om tot een goede les te komen en leer ik mijzelf niet het organiseren van een degelijke les. Het verstoort mijn leerproces in het ontwikkelen van goede lessen. Waar GenAI wel bij kan helpen is suggesties doen, die ik mee kan nemen in mijn lesvoorbereiding, maar ik behoud de controle en bewaak mijn handelingsvermogen.

Mijn 6VWO klas moet een pre-academisch essay schrijven. Hiervoor dienen zij eerst over het onderwerp te brainstormen. Ik wil niet dat zij hier ChatGPT voor gebruiken want één van mijn leerdoelen is dat leerlingen zelfstandig tot eigen ideeën moeten kunnen komen, deze op waarde oordelen, en organiseren waaruit zij vervolgens een essay schrijven. Zodra ik de brainstorm overlaat aan ChatGPT, voeren leerlingen niet hun eigen ideeën uit, maar laten zij zich leiden door informatie die uit een voorspelling het meest waarschijnlijk is.

Wanneer leerlingen klaar zijn met hun brainstorm en hebben overlegd met hun klasgenoten laat ik op het bord ChatGPT een brainstorm doen. Op deze manier kunnen leerlingen zien wat ze kunnen toevoegen aan hun eigen brainstorm. Deze stap is overigens niet noodzakelijk, maar kan gezien worden als een digitale vaardigheden oefening hoe om te gaan met GenAI: eerste zelf nadenken voordat je GenAI gebruikt. Het doel is niet het creëren van een product (de brainstorm), maar om vaardigheden aan te leren die zelfstandig toe te passen zijn. Alleen dan maak je iemand weerbaar voor de toekomst.

Teacher Assistent op basis van eigen datasets

Waar ik een grote toepassing in zie is het gebruik van Open Source GenAI toolkits. Dit zijn kleine, lokale AI-modellen die in de basis alleen ‘taal’ kennen maar verder geen inhoudelijke datasets hebben. Lokaal hoeft overigens niet fysiek ‘lokaal’ te zijn, maar kan ook een gesloten omgeving in de cloud zijn. Op Harvard hebben ze al een dergelijk experiment gedaan met basisnatuurkunde. De resultaten waren positief, maar ze geven wel de kanttekening dat het echt als ondersteuning gebruikt moet worden en niet als vervanging van de docent.

De docent kan dan een eigen dataset (de stof van een hoofdstuk of een heel jaar) toevoegen aan het model en aanbieden aan zijn of haar leerlingen om als Teacher Assistent te gebruiken. Omdat de data niet vervuild is zal het model weinig tot niet hallucineren. Wanneer er toch fouten optreden kan je als docent de AI bijsturen met een nieuwe dataset.

Deze datasets kunnen tussen leraren uitgewisseld worden. Je hoeft hier geen programmeerkennis voor te hebben. Informatie kan in een tekstbestand aangeleverd worden. Dit zorgt ervoor dat de leraar zijn controle en handelingsvermogen behoudt en niet wordt overgeleverd aan Big Tech.

Toch moet er bij het gebruik van GenAI als Teacher Assistant voorzichtigheid geboden worden. In een onderzoek van Hamsa Bastani et al. genaamd Generative AI Can Harm Learning hielp een GPT Tutor leerlingen weliswaar bij het maken van wiskunde opgaven, maar presteerden leerlingen naderhand net zo goed als leerlingen die geen GPT Tutor hadden gebruikt. De GPT Tutor hielp wel beter dan de GPT Base, die vergelijkbaar werkt met ChatGPT. Hier presteerden leerlingen slechter na verwijdering van de GenAI. De onderzoekers concludeerden dat leerlingen de GenAI vooral als ‘krukje’ gebruikten: zodra het krukje verwijderd werd, presteerden leerlingen met de GPT Base slechter. Je zou de GPT Tutor dus vooral in de ‘scaffolding’ fase kunnen inzetten in het leerproces, maar je zal als docent de leerlingen zeker nog na deze fase moeten begeleiden om er zelfstandige, kritische denkers van te maken. Mitte Schroeven schreef hier nog een artikel over: “Onderzoek in een notendop: Generatieve AI kan het leren schaden.”

Conclusie

Uiteindelijk gaat er om niet het hele curriculum het raam uit te gooien, maar om GenAI daar te gebruiken waar het het leerproces kan bevorderen. Leraren moeten boven de verwondering staan en in staat zijn hun onderwijsproces te verdedigen tegenover de gehypnotiseerde stemmen uit de maatschappij. Big Tech moet in dienst staan van het onderwijs in plaats van andersom. Het doel van onderwijs is namelijk niet veranderd: kwalificatie, socialisatie, en subjectificatie. Onze hersenen werken nog steeds hetzelfde als duizend jaar geleden: feiten bouwen concepten en schema’s die blijven hangen in het langetermijngeheugen. Hiermee levert onderwijs kritische, zelfstandige, en weerbare jongeren in de maatschappij, die de erfenis kennen en daarop voortbouwen. GenAI kan hierin een waardevolle bijdrage leveren, maar verandert deze kerntaak niet. Het wordt tijd dat het onderwijs haar verantwoordelijkheid oppakt.