GenAI maakt programmeurs dommer: een les voor het onderwijs

Er is nog weinig onderzoek gedaan naar de leereffecten van GenAI in het onderwijs. Dat is ook niet zo vreemd aangezien het nog in haar kinderschoenen staat. Het is daarom goed om te kijken wat er bij domeinen die al langer gebruik maken van AI gebeurt. Één van die domeinen is softwareontwikkeling, met in het bijzonder GitHub. Hier zullen we zien dat de risico’s die ik besprak in mijn vorige artikel over Generatieve AI in het onderwijs ook worden gezien in de wereld van programmeren.

GitHub

GitHub is een platform waar ontwikkelaars en programmeurs programmeercodes ontwikkelen, bewaren, en delen. In 2018 werd GitHub overgenomen door Microsoft en in 2021 werd GitHub Copilot geïntroduceerd, een versie van Microsofts GenAI Assistent Copilot, gespecialiseerd in het schrijven en controleren van code. Een belangrijke functie is de autocomplete waarbij Copilot suggesties doet om code, geschreven door een programmeur, af te maken. Dit is vergelijkbaar met de autocomplete in Word maar dan natuurlijk veel uitgebreider.

Via een YouTube video van ThePrimeTime kwam ik op een artikel van softwareontwikkelaar, Darren Horrocks. Hij schreef begin september een artikel over de gevaren van veelvuldig gebruik van GitHub Copilot door programmeurs. Deze zorgen sluiten aan bij wat de cognitieve wetenschap ons vertelt over leren, kritisch denken, en creativiteit. In zijn artikel “Why Copilot is Making Programmers Worse at Programming” bespreekt Horrocks zijn zorgen over het gebruik van GitHub Copilot.

De kritiek van Horrocks gaat over het eroderen van kennis en daarmee kritisch en creatief kunnen denken bij ontwikkelaars, een te grote afhankelijkheid van zowel het product als het bedrijf daarachter, een gebrek aan eigenaarschap en daarmee verantwoordelijkheid, het verkleinen van leermogelijkheden, en een misplaatst gevoel van meesterschap bij programmeurs.

van kennis naar kopiëren

Horrocks geeft aan dat door de komst van Copilot programmeurs steeds minder kennis over code en coderen ontwikkelen. Daar waar zij in het verleden de onderliggende structuur moesten kennen om problemen op te lossen, kunnen ze nu automatisch gegenereerde stukjes code door Copilot laten schrijven. Dit klinkt als een verrijking, zeker als je alleen naar de eindoplossing kijkt. Voor de (kennis)ontwikkeling van programmeurs kan echter dit problematisch worden, niet in de minste plaats omdat we voorlopig nog niet zonder programmeurs kunnen. We creëren een wereld waarin de fouten van AI niet meer opgemerkt worden door softwareontwikkelaars.

Omdat programmeurs niet meer kennis opbouwen over programmeren en programmeercodes, zijn zij minder in staat om kritisch en creatief te denken over softwareontwikkeling. De oplossingen die door Copilot worden aangedragen zijn niet altijd het meest optimaal en kunnen ook fouten bevatten waardoor er veiligheidsrisico’s kunnen ontstaan. Omdat Copilot code op het eerste gezicht werkt, zijn programmeurs minder geneigd goed onderzoek te doen naar de gevolgen voor de lange termijn. Er ontstaat een blind vertrouwen in AI en daarmee een vermindering van eigenaarschap en een gevoel van verantwoordelijkheid: “De AI heeft het gegenereerd, dus moet het kloppen.”

Echter, het is nog helemaal niet zeker dat we geen programmeurs nodig zullen hebben op de korte tot middellange termijn, sterker nog, we hebben er waarschijnlijk meer nodig. Er is nog steeds die kritische blik nodig bij het ontwikkelen en controleren van software. Copilot maakt nog steeds fouten en die fouten moeten door mensen nog steeds opgelost worden. Echter, die kritische blik wordt steeds minder scherp door een gebrek aan domeinkennis.

Ook in het onderwijs zullen we een gemakzucht naar kennis zien als we Generatieve AI argeloos inzetten en kennisverwerving inruilen voor AI-verwondering. Leerlingen (en ook docenten) zullen zich meer richten op het eindproduct en niet op de ontwikkeling van de leerling. Waarom nog zelf denken als GenAI het antwoord kan produceren?

gemak boven geploeter

Wanneer een AI als Copilot je een oplossing aanreikt, ben je minder geneigd om het zelf te willen leren. Leren doet immers pijn en kost energie. Het is gemak tegenover hard werken en wij mensen zijn over het algemeen geneigd gemak boven geploeter te kiezen. Copilot geeft een kortere route naar het antwoord waardoor programmeurs niet dieper gaan nadenken over het waarom van een oplossing. Dit kwam ook naar boven in het onderzoek “Generative AI Can Harm Learning” waar een GPT Base assistent antwoorden gaf in het leerproces en daarmee een negatieve invloed had op de leerprestaties van leerlingen.

Dit ‘voorzeggen’ zorgt ook voor een vernauwing van creatief denken. Niet alleen zorgt een gebrek aan kennis voor een vermindering aan creativiteit bij ontwikkelaars, dat wat AI voorzegt zijn vooral suggesties uit bekende patronen. Het is immers een voorspelmachine op basis van een dataset uit het verleden. GenAI kan niet out-of-the-box denken. De angst is dan ook dat overmatig gebruik van AI ertoe zal leiden dat programmeren meer een mechanisch proces wordt in het accepteren van suggesties in plaats van ‘een creatieve zoektocht dat grenzen verlegt,’ aldus Horrocks.

voorbeeld hoe GitHub Copilot werkt, <https://github.com/features/copilot>

afhankelijkheid

Deze afhankelijkheid van AI loopt door naar de bedrijven achter de modellen. Omdat programmeurs steeds meer kennis ontbeert, zullen zij Copilot nodig blijven hebben in hun werk. Dit wordt problematisch als het gereedschap later gebreken vertoont, de gebruikersvoorwaarden worden veranderd, of het te duur begint te worden. Je maakt jezelf als programmeur afhankelijk van een commercieel product; je raakt ‘locked-in’.

Studenten kunnen gratis gebruik maken van GitHub Copilot waardoor zij meegenomen worden in de afhankelijkheid van de GenAI van Microsoft. Het zou voor hen beter zijn in eerste instantie op eigen benen te kunnen staan alvorens Copilot te betrekken bij hun werkzaamheden. Echter, afhankelijkheid creëren is lucratief voor bedrijven en het is hen er alles aangelegen om gebruikers aan te trekken en vast te houden.

een vals gevoel van meesterschap

Als laatste kan het gebruik van Copilot een vals gevoel van expertise geven. Dit wordt problematisch wanneer deze programmeurs doorgroeien naar meer complexe opdrachten waar fundamentele programmeerkennis van vitaal belang is.

Dit valse gevoel van expertise is vergelijkbaar met leerstof herkennen in plaats van kennen. Leerlingen die leerstof herlezen krijgen vaak een vals gevoel van meesterschap. Ze herkennen het materiaal maar kunnen het niet reproduceren zonder bron. GenAI is permanente scaffolding waarbij gebruikers afhankelijk blijven van het hulpmiddel en niet zelfstandig leren denken. Leerlingen leren niets anders dan het verplaatsen en laten verwerken van data.

aangeleerde hulpeloosheid

ThePrimeTime heeft het over ‘aangeleerde hulpeloosheid’ in het gebruik van GitHub Copilot. Wat wij moeten voorkomen is dat we leerlingen opleiden tot burgers die afhankelijk zijn geworden van AI om goed te kunnen functioneren in de maatschappij. Dat gaat verder dan dat we dit in het onderwijs benoemen, maar moet expliciet worden meegenomen in curriculumontwikkeling en lesontwerp.

De oudere generatie heeft via een traditioneel onderwijssysteem veel kennis eigengemaakt voordat ze aan de slag gingen met GenAI. Zijn beseffen vanwege hun kennisbias niet (voldoende) wat jongeren niet weten en welke gevolgen dat heeft in hun ontwikkeling en functioneren in de maatschappij.

Daarom is een goede voorbereiding op de onbekende toekomst gericht op het ontwikkelen van uitgebreide kennis bij jongeren in plaats van alleen te leren hoe de knoppen van een softwareproduct werken. Dat product kan alleen kritisch en creatief worden gebruikt als ze domeinkennis hebben. Zo niet, dan zal je, aldus Horrocks, nooit iets anders kunnen dan wat een robot al kan doen.

Wat voegt Generatieve AI nu eigenlijk toe aan het onderwijs?

30 november 2022, ChatGPT wordt gelanceerd door OpenAI en zette de wereld op zijn kop. Het onderwijs kan niet anders dan hierin meegaan. We kunnen de ontwikkelingen niet tegenhouden en zullen ons aan moeten passen aan de dans van Big Tech. Of moeten wij dat eigenlijk wel?

In alle discussies rondom Generatieve AI in het onderwijs wordt de meest cruciale vraag maar zelden gesteld: hoe sluit dit aan bij onderwijsonderzoek, bij dat wat, in grote lijnen, werkt in het leerproces? Welke onderdelen uit het leerproces ondersteunt AI nu eigenlijk? En waar zal het onze kinderen dommer en daarmee afhankelijker maken? Het is tijd voor een kritische noot.

Vormen van AI

Sinds 2022 kennen we AI vooral van ChatGPT, maar we hebben al veel langer AI in ons leven. Er zijn al geruime tijd chatbots die klanten helpen zoals bijvoorbeeld ‘Billy’ bij Bol, maar ook YouTube suggesties worden uitgevoerd door AI. Banken werken al lange tijd met AI en het toeslagenschandaal in Nederland was mede door het gebruik van voorspellende AI ontstaan. Op je telefoon zit al lange tijd AI om processen te verbeteren en een stofzuigerrobot werkt ook op AI. Voor nu kijken we alleen naar een specifieke AI: Generatieve AI (GenAI), AI zoals deze wordt toegepast in bijvoorbeeld ChatGPT.

Hoe werkt GenAI?

GenAI onderscheidt zich door originele inhoud te creëren naar aanleiding van een opdracht, beter bekend als een prompt. GenAI kent een lange geschiedenis maar om beetje een beeld te krijgen wat het min of meer is en doet volgt hier een simplistische uitleg.

GenAI, zoals ChatGPT, genereert (de ‘G’ in GPT) nieuwe inhoud naar aanleiding van een prompt, een opdracht vaak in tekst. Het gebruikt hiervoor een voorgeprogrammeerde dataset (de ‘P’ in GPT). Omdat taal complex is en de AI alleen met (reeksen van) getallen kan werken, heb je een transformer nodig (de ‘T’ in GPT). De transformer vertaalt tekst naar getallen en getallen naar tekst.

GenAI verwerkt die reeksen van getallen in een neuraal netwerk (genaamd Large Language Model [LLM] voor ChatGPT) dat vergelijkbaar is met hoe onze hersenen werken. In dat netwerk voorspelt de AI welk woord volgt na welk ander woord om een logische zin te maken. Als je in zou voeren “De kat is een…” zal GPT dat hoogstwaarschijnlijk aanvullen met ‘dier’, maar dit kan natuurlijk veel complexer tot korte verhalen en complete programmeercode om een app te maken. Deze uitkomsten ontstaan door middel van berekeningen in een ‘black box’. Niemand kan in kaart brengen hoe GenAI exact tot een product is gekomen. Men heeft alleen invloed op de dataset.

In GenAI wordt een woord, stuk tekst, of leesteken omschreven als een token. Om een enkele token te genereren, moet ChatGPT ongeveer een biljoen berekeningen maken. GenAI vraagt dus om veel rekenkracht en daarmee energie.

Welke vormen van GenAI zijn er?

Bij het grote publiek is vooral ChatGPT bekend. ChatGPT is ontwikkeld door stichting OpenAI (dat op het punt staat zichzelf om te vormen tot een commercieel bedrijf met winstoogmerk), maar er zijn ook andere aanbieders. Er is Claude van oud-medewerkers van OpenAI, Llama, de open source GenAI van Meta, het bedrijf achter Facebook, Gemini van Google, het Franse Mistral AI, en nog vele Open Source initiatieven.

Je hebt ook GenAI specifiek voor afbeeldingen zoals Midjourney en Pixlr. Suno genereert liedjes in een muziekstijl naar keuze en Github Copilot helpt bij programmeren. Daarnaast hebben modellen zoals ChatGPT de mogelijkheid om toepassingen (add-ons) gebruik te laten maken van de rekenkracht van ChatGPT.

De lucratieve onderwijsmarkt

Met huidige ontwikkelingen van GenAI lijken de mogelijkheden eindeloos. We zouden nog maar een glimp gezien hebben van wat ons te wachten staat en de wereld zal een grote verandering doormaken. Echter, deze verafgoding van IT hebben we al eerder gezien. De meeste recente hypes waren Big Data en Virtual Reality en deze hypes zijn ook afgevlakt. En kent iemand nog de Steve Jobs/iPad-scholen? De resultaten van GenAI zijn indrukwekkend, maar achter de façade van verwondering schuilt ook een verdienmodel en zelfs een grens lijkt, voorlopig, in zicht.

Al decennia proberen IT-bedrijven grip te krijgen op de lucratieve onderwijsmarkt. Was het vroeger vooral jonge gebruikers gekoppeld te krijgen aan Google, Microsoft, of Apple-diensten, nu gaat het om controle van het onderwijsproces door middel van de producten die zij verkopen.

Als docent word je dan overgeleverd aan het algoritme van het model en fungeer je meer als coach of faciliteerder in plaats van een onderwijsexpert. Het model, en het bedrijf achter dat model, bepaalt in grotere mate de inhoud en het onderwijsproces. Echter, “[AI] kan het onderwijs beperken tot alleen datgene wat AI kan verwerken, modelleren en leveren.” (UNESCO).

Hallucinaties

Omdat GenAI zichzelf aanstuurt aan de hand van een zeer grote dataset, komt het wel eens voor dat GenAI feiten verdraait of verzint. GenAI is dan ook niets anders dan een voorspelmachine. Het begrijpt niet wat het zegt en maalt niet om waarheid. Het aanbieden van onjuiste informatie wordt ‘hallucineren’ genoemd: het presenteren van een onsamenhangend antwoord of in volle overtuiging verkeerde informatie geven. Bedrijven proberen dit te voorkomen door ‘fine-tuning’ en hard gecodeerde regels. In het eerste geval krijgt het model een beperkte extra dataset om bij te sturen. In het tweede geval krijgt het model instructies wat te doen bij bepaalde invoer: als dit, doe dan dat.

In beide gevallen oefent het bedrijf invloed uit op de uitkomsten die niet zichtbaar zijn voor de eindgebruiker. We varen dus niet alleen blind op de zee van het algoritme, het is Big Tech die onzichtbaar aan het roer staat om bij te sturen. Gezien de grote invloed GenAI heeft en gaat hebben in onze informatievoorziening, vormt dit een substantieel gevaar voor onze democratie. Grote bedrijven zijn niet politiek neutraal en hebben belang bij wet- en regelgeving. De positie van Elon Musk bij de verkiezingen in Amerika dit jaar laten duidelijk zien dat er grote belangen spelen bij Big Tech.

Het is aan leraren om de hallucinaties van GenAI in het onderwijs bij te sturen. Dit betekent dat de leraar vaak moet controleren of zijn of haar leerlingen wel de juiste informatie krijgen. De leraar moet dus het leerproces constant monitoren en bijsturen waar AI de mist in gaat. Dit verandert niet alleen de rol van de leraar, maar zal er ook voor zorgen dat de leraar uiteindelijk meer werk te doen heeft. Zij is echter dan wel haar handelingsvermogen kwijtgeraakt. Of zoals Joop Berding zegt: “Je krijgt een ontwikkeling waarbij de leidende vraag niet meer is ‘hoe kunnen we zorgen dat de middelen die we inzetten ons helpen bij ons doel’, maar meer van ‘hoe moet het onderwijs er eigenlijk uit zien zodat die middelen hun werk kunnen doen?’”

Datasets

GenAI wordt getraind door middel van datasets. De legaliteit van deze datasets wordt steeds meer ter discussie gesteld. Zo zijn meerdere visuele GenAI modellen getraind op afbeeldingen van artiesten zonder hier toestemming voor te vragen. The Times klaagde OpenAI en Microsoft al in 2023 aan voor het gebruik van duizenden van haar artikelen voor het trainen van hun GenAI model. Ook worden er nu transcripties van YouTube video’s gebruikt om GenAI te trainen zonder dat hier toestemming voor is gegeven door de makers van deze video’s.

Datasets leveren niet altijd feitelijke informatie. Een dataset is bij elkaar geschraapte informatie waar feit en fictie gelijkwaardig zijn. Vooroordelen en complottheorieën zijn meegenomen in die datasets. Datasets kunnen dasn vervuild zijn.  Google heeft data van Reddit gekocht, een internetforum waar het niet altijd om waarheid gaat, Meta gebruikt posts op Facebook en Instagram om zijn GenAI Llama te trainen, en Elon Musk gebruikt X posts om zijn Grok GenAI te trainen. Social media geven niet een goed beeld van de werkelijkheid. Toch wordt GenAI getraind op data van deze platformen. Het gaat allemaal om het herkennen van patronen, ongeacht of die patronen feitelijk juist zijn. Daarnaast raakt de internetdata om GenAI te trainen rond 2026 op en wordt er nu al data gegenereerd door GenAI om GenAI te blijven trainen.

We hebben al gezien dat bedrijven in extreme gevallen moeten bijsturen en de uitkomsten van GenAI moeten manipuleren door middel van fine-tuning en harde codering. Deze bijsturing zal in ieder geval nog voorlopig moeten plaatsvinden simpelweg omdat GenAI niet de natuurkundige wetten van de wereld begrijpt. “LLM’s leren immers op een manier die tegengesteld is aan die van mensen. Deze modellen beginnen met het leren van taal. Daarna proberen ze die kennis te gebruiken om abstracte concepten te begrijpen. Menselijke baby’s, daarentegen, leren eerst concepten en vervolgens de taal om die te beschrijven.”

GenAI blijft in de kern een voorspelmachine. Het heeft data uit het verleden nodig om een voorspelling te doen als antwoord op een prompt. In het klein is dat de berekening van een token, in het groot is dat een tekst of afbeelding bestaande uit duizenden tokens. Indrukwekkend, maar nog steeds een numerieke voorspelling op basis van vervuilde datasets.

GenAI heeft ook een andere insteek voor waarheidsvinding. GenAI creëert een werkelijkheid op basis van patronen vanuit data uit het verleden. Dit is anders dan hoe onze wetenschap veelal werkt. Wetenschap komt tot waarheidsvinding door middel van onderzoek, veelal, in het heden. We krijgen nieuwe kennis door het uitvoeren van experimenten. Daarnaast is het fundament van wetenschap het stellen van kritische vragen en peer reviews. Wetenschappelijke waarheidsvinding wordt continu gecontroleerd. GenAI kan niet gecontroleerd worden omdat we geen idee hebben hoe de ‘black box’ tot een antwoord is gekomen. Resultaten kunnen ook niet gereproduceerd worden, omdat de uitkomsten iedere keer weer anders zijn. De validiteit van (Gen)AI-onderzoek is dan ook moeilijk te controleren. GenAI vraagt daarmee om, bijna religieus, blind vertrouwen.

Data degeneratie

Een ander gevaar is data degeneratie, of modelinstorting. GenAI neemt in kwaliteit af als het traint op GenAI data (en het kost ook meer energie). Het internet raakt steeds meer vervuild met AI-genereerde inhoud. Nieuwe generaties GenAI worden dan getraind op die GenAI-inhoud. Dit kopieerproces is te vergelijken met het recycleproces van papier, waar plastic de kwaliteit van papier vermindert. In zulke processen sluipt onzuiverheid zodat je eindproduct steeds meer in kwaliteit inlevert. Omdat GenAI sneller nieuwe afbeeldingen kan maken en tekst kan schrijven dan mensen, zal ons internet vol gaan staan met data dat niet door mensen is gemaakt, maar door machines.

Datadegeneratie bij Generatieve AI. Links een eerste generatie GenAI. Rechts een vierde generatie Generatieve AI gebaseerd op GenAI datasets. <https://ediscoverytoday.com/2024/08/26/degenerative-ai-what-happens-when-ai-trains-on-ai-data-artificial-intelligence-trends/ >

Koud water

GenAI is een ‘black box’ die voorspellingen doet op basis van datasets en wordt bijgestuurd door Big Tech. De uitkomsten van GenAI zijn indrukwekkend maar moeilijk te controleren op validiteit op hoe het tot die uitkomsten is gekomen. Het komt nog wel eens voor dat GenAI ernaast zit en gaat ‘hallucineren’. Dit betekent niet dat GenAI gemeden moet worden in het onderwijs. Het vraagt wel om een flinke plens koud water om uit de verwondering en uit de angst te stappen en het kritisch te benaderen.

Wat is (goed) onderwijs?

In de kern bestaat onderwijs om de jongere generatie voor te bereiden op de maatschappij (socialisatie). Hiertoe dienen zij in staat te zijn zich zelfstandig en kritisch op te stellen (subjectivering) door middel van basiskennis (kwalificatie) over die maatschappij en de wereld. Zij moeten ook in staat zijn samen te werken en anderen in hun waarde te laten (‘jouw vrijheid eindigt waar die van een ander begint’).

Onderwijs leert jongeren de wereld zoals wij hem kennen. Dit is de ‘erfenis’. Met deze erfenis leren jongeren waarom de wereld is zoals zij nu is, welke gevaren en successen de mensheid al heeft doorlopen, en welke inzichten tot nu toe zijn verworven. Het is dan aan de nieuwe generatie om de toekomst vorm te geven op basis van deze erfenis en hun inzichten weer over te dragen aan hun kinderen.

Je kunt alleen kritisch de toekomst vormgeven via het bezit van (domein)kennis. (Domein)kennis wordt verkregen via het eigen en inzichtelijk maken van informatie. Hoe meer informatie is eigen gemaakt als kennis in je langetermijngeheugen (opgeslagen als concepten en schema’s), hoe meer ruimte er overblijft in je werkgeheugen (kortetermijngeheugen) om kritisch en zelfstandig in de maatschappij te kunnen functioneren.

Het leren van feiten is nodig om tot concepten en schema’s te komen. Concepten beklijven, feiten raak je vaak onderweg kwijt. Echter, zonder die feiten was je niet tot dieper leren gekomen. Feitenkennis is en blijft dus cruciaal in het leerproces.

Beklijving van feiten, concepten, en schema’s vindt plaats door middel van ‘retrieval practice’: stof moet vaker terugkomen en opgehaald worden om verankerd te raken in het langetermijngeheugen. Vaardigheden worden daarnaast eigen gemaakt in een formatief proces. Toetsing meet van tijd tot tijd hoe de beklijving verloopt en geeft inzicht of bijsturing nodig is. Eindtoetsing blijft belangrijk als objectief meetinstrument om kwalificaties en beklijving van de ‘erfenis’ te waarborgen.

Onderwijs moet zich daarom vooral richten op het proces en niet op het eindproduct. Het eindproduct is een zichtbaar bewijs dat de leerdoelen zijn behaald. In een goed leerproces is het eindproduct meer een formaliteit dan een obstakel. Als dit wel het geval is, dan legt het eindproduct bloot dat er problemen in het leerproces zijn. Dit kan aan de leerling, de docent, of de methodiek liggen. Alle drie dienen dan kritisch bekeken te worden.

Welke plek heeft GenAI in het onderwijs?

(Basis en Voortgezet) Onderwijs dient er dus vooral voor om jongeren te vormen tot kritische en zelfstandige burgers. Hiervoor is kennisverwerving nodig. Hoe meer kennis iemand bezit hoe makkelijker, sneller, en dieper hij of zij nieuwe informatie kan beoordelen en tot zich kan nemen. Wanneer GenAI daarin kan ondersteunen, is zij welkom in het onderwijsproces. Als zij kennis onttrekt uit dat onderwijsproces, moeten leraren waakzaam zijn.

De gevaren van GenAI zijn betrouwbaarheid van informatie, de groeiende macht van Big Tech en hun invloed op het democratisch proces, de privacy van gegevensverwerking, het verlies van handelingsvermogen van de leraar, en het ontnemen van kennisverwerking bij leerlingen zodat zij minder kritisch en creatief kunnen denken. De vraag is dan, wat dient het onderwijs te ontwikkelen: GenAI modellen of de hersenen van onze jongeren?

In het GenAI tijdperk hebben we juist meer kennis nodig bij onze leerlingen willen ze kritisch GenAI kunnen benaderen. Wil je fake news en het zogenaamde ‘bullshitting’ van GenAI kunnen identificeren, dan moet je zelf ook een goed beeld van de wereld hebben, van topografie tot natuurkunde, van geschiedenis tot scheikunde. Dat hoeft niet in detail te zijn, dat hoeven niet eindeloze rijtjes feiten te zijn, maar concepten en schema’s waarmee je GenAI output alerter kan controleren.

Als onze leerlingen niet meer leren hoe ze hun eigen ideeën kunnen verwoorden, niet leren hoe ze tot eigen ideeën komen en ze communiceren, schuift de macht steeds meer naar Big Tech, die de poortwachters van informatie worden (en misschien al grotendeels zijn). De leerling offert dan alleen nog maar prompts op het GenAI-altaar om verwonderd te raken van het orakel en waarbij aflaten toegang geven tot meer mogelijkheden tot verwondering.

Waarom GenAI niet is zoals de introductie van de rekenmachine was

Er wordt wel eens gezegd dat de introductie van GenAI niet veel anders is dan de introductie van de rekenmachine: het vergemakkelijkt processen die niet meer noodzakelijk worden geacht zelf te doen. Zouden we deze theorie toepassen op GenAI dan zou je zoiets krijgen als, het vergemakkelijken van denken en het maken van teksten omdat dat dat tegenwoordig niet meer noodzakelijk is. Het zal echter kennis onttrekken uit het onderwijssysteem waardoor jongeren meer moeite hebben de wereld goed te begrijpen. Ook is GenAI output niet betrouwbaar daar waar een rekenmachine dat wel is

Zelf schrijven is het helder onder woorden brengen van wat je denkt. “Schrijven ordent en verheldert onze gedachten. Schrijven is hoe we ons een onderwerp eigen maken en begrijpen. Schrijven stelt ons in staat te ontdekken wat we weten – en wat we niet weten – over wat we proberen te leren.” (Zinsser). Als GenAI voor ons de teksten schrijft, in hoeverre weten we hoe we zelf denken? Schrijven brengt feitenkennis en inzichten in concepten bij elkaar. Het leert ons onszelf te begrijpen.

Daarnaast is ChatGPT gebruiken om informatie op te zoeken niet alleen inefficiënter dan je eigen hersenen, het belemmert dieper begrip. Immers, we kunnen maar 5-7 items vasthouden in ons kortetermijngeheugen. We hebben ons langetermijngeheugen nodig om dieper begrip te krijgen van complexe materie. Nieuwe informatie gepresenteerd door GenAI wordt verwerkt in het kortetermijngeheugen maar dat raakt dan snel te vol, de zogenaamde cognitieve overbelasting, waardoor we niet tot dieper inzicht komen.

Ook is het niet verstandig om onze kennis over te dragen aan Big Tech. Uiteindelijk blijven OpenAI, Claude, en Meta commerciële bedrijven met winstoogmerk en worden zij de nieuwe poortwachters van data en kennis. Het is belangrijker om de markt en hun aandeelhouders tevreden te houden, dan waarheidsvinding te waarborgen. Mogelijkheden worden opgeblazen en vernieuwingen moeten zo snel mogelijk worden doorgevoerd. De verwondering onder de (betalende) gebruikers moet in stand worden gehouden.

van verwondering naar een kritische benadering

We kunnen verwonderd raken over de mogelijkheden van GenAI en zullen in de toekomst nog vele wonderbaarlijke ontwikkelingen zien. Maar GenAI is van nature niet zonder fouten, sterker nog, het zit in de architectuur dat er fouten in het systeem sluipen, resulterend in de eerdergenoemde data degeneratie. Big Tech probeert dat nu steeds meer te verkopen als onderdeel van de magie omdat zij ook weten dat het niet helemaal zal verdwijnen.

Algoritmen zijn, naast het ‘black box’ principe, niet objectief of neutraal. Modellen zijn getraind op basis van wat ontwikkelaars hebben bestempeld als juist of onjuist. Zij volgen ook patronen op internet die niet altijd over waarheidsvinding gaan. GenAI blijft een gestuurde voorspelmachine zonder begrip van de wereld, ongevoelig voor feit en fictie. Alleen als je boven de stof staat kan je informatie die GenAI genereert controleren op juistheid.

Toch zullen veel mensen kennisverwerving wederom ter discussie stellen nu GenAI ons zoveel werk uit handen neemt. Zeker de oudere generatie die al veel kennis heeft verworven via een traditioneel onderwijssysteem zullen moeilijker kunnen begrijpen wat de gevolgen zullen zijn als we de nieuwe generatie niet meer de erfenis overdragen maar op GenAI vertrouwen dat informatie gewaarborgd blijft. En dit is niet de eerste keer dat kennisverwerving ter discussie wordt gesteld. De opkomst van Google aan het begin van deze eeuw zorgde er ook al voor dat mensen vragen stelden bij het verwerven van kennis, je kunt het immers toch altijd opzoeken?

Leren zal, net als bij de introductie van de TV en het internet, in twijfel worden getrokken. Leren doet immers pijn. Je moet er moeite voor doen, waarom zou je zelf nog iets leren als GenAI het binnen een paar seconden kan produceren? Hier zien we wederom de focus op het eindproduct. Dat is ook wat je op social media en LinkedIn langs ziet komen: een vitrine van curiositeiten zonder dat we goed weten wat het bijdraagt aan een goed leerproces. Het gaat er niet om wat GenAI kan. Het gaat erom welk residu er achterblijft bij onze leerlingen.

GenAI is vooral handig als je de boven de stof staat. Voor het (mede-)creëren van eindproducten, een sparringspartner, een automatiseringsmaatje, een razendsnel woordenboek, een eindeloze thesaurus. Maar in een leerproces dient er kritisch gekeken te worden naar het verkrijgen van diepere kennis door middel van GenAI.

leraren als hoeders van kennis

Leraren en scholen krijgen in het AI-tijdperk een belangrijke rol. Zij zullen, naast een aantal andere beroepen, de cruciale taak van hoeders van kennis op zich moeten nemen. Leraren hebben niet zoveel geld en macht als Big Tech, maar hebben ook geen direct lucratief belang bij het slagen van hun leerlingen. Zij waarborgen de overdracht van kennis en vaardigheden zodat de maatschappij zelfstandige en (zelf-)kritische burgers heeft om de democratie in stand te houden. Als je dit als leraar pretentieuze grootspraak vindt, onderschat je de rol van de leraar in een democratie en wordt het hoog tijd de positie van de leraar niet alleen in de maatschappij maar ook bij leraren zelf in aanzien te verhogen.

Deze belangrijke taak vraagt om een grote verantwoordelijkheid. Leraren zullen hun vakkennis moeten beheersen en bijhouden. Zij moeten de betrouwbare informatiebron zijn en als leerlingen kritische vragen stellen in staat moeten zijn op een professionele manier antwoord te geven of bij te sturen in hun eigen kennis. AI vormt een reële bedreiging voor de nauwkeurigheid van schoolkennis en daarmee voor de geldigheid van lesmateriaal. Het is dan ook aan de leraar om GenAI te gebruiken of toe te staan in zijn of haar onderwijsproces. Elke toepassing van GenAI waarbij de leerling minder hoeft te kennen of te leren, moet met argusogen worden benaderd.

Waarom je niet veel tijd hoeft en moet besteden in het onderwijs aan het leren van GenAI

GenAI is de eerste ICT-innovatie waar je maar weinig uitleg voor nodig hebt. Je kunt letterlijk aan ChatGPT vragen: “hoe werkt dit?” of “wat als ik dit wil doen…?” Je vraagt of GenAI iets wil doen alsof je het aan een persoon vraagt. Je kunt het systeem binnen 30 minuten uitleggen. Het vereist geen diepgaande kennis. Het is begrijpen hoe het min of meer werkt. De rest is experimenteren.

Het enige deel waar je bij GenAI expert in kunt worden is het goed formuleren van prompts. Binnen 30 minuten kan je leerlingen uitleggen waar goede prompts aan moeten voldoen. Dit vraagt echter om meer dan alleen GenAI kennis. Om iets goed te formuleren heb je goede taalbeheersing nodig. Je moet goed kunnen omschrijven wat je wilt in de juiste bewoordingen. Hoe breder je woordenschat in je langetermijngeheugen, hoe betere prompts je kunt maken. Je kunt veel promptlijstjes op internet vinden, maar als je de prompt van iemand anders in een GenAI black box stopt, in hoeverre ben je nog aan het leren? In hoeverre ben je jezelf nog aan het ontwikkelen? Ligt de focus dan op het proces of het wonderbaarlijke eindproduct?

Daarnaast heeft het ook niet veel zin om leerlingen diepgaande gebruikerskennis van ChatGPT mee te geven. De ontwikkelingen gaan te snel. Tien jaar geleden was de programmeertaal Java de meeste gebruikte taal in de ICT-wereld. Vandaag de dag is dat Python. Als we leerlingen van toen volop Java hadden geleerd, hebben ze daar nu weinig aan.

Wat dan overblijft in het onderwijs is veelal fröbelen met AI. Leerlingen krijgen allerlei opdrachten die bij lange na niet altijd iets bijdragen aan het eigen maken van kennis, maar slecht vragen om een ‘ervaring’. De kernvraag voor het gebruik van GenAI in het onderwijs zou altijd moeten zijn: wat draagt dit bij aan het creëren van kennis in het langetermijngeheugen van de leerling?

Als laatste lijkt de GenAI hype grotendeels de Gartner technologie hype cyclus te volgen. De afgelopen maanden komt er steeds meer kritiek op de stagnering van ontwikkelingen. Het is zeker zo dat er nieuwe elementen worden toegevoegd, maar de vraag die steeds meer wordt gesteld is, “wat hebben we hieraan?” Het feit dat nieuwe data om GenAI te trainen opraakt rond 2026, geeft aan dat er een plafond in zicht is wat betreft trainingsdata. Kwantiteit kan niet meer compenseren voor kwaliteit. De output van GenAI blijft fouten houden, komt steeds meer vlak over, en vervuilt het internet met nietszeggende informatie. Probleem is alleen dat Big Tech hier volledig op heeft ingezet en het ‘too big to fail’ is geworden om de kritiek serieus te nemen en nuchter naar GenAI te kijken.

 

Kansen: naar het plateau van productiviteit

Dit betekent niet dat we GenAI moeten weren uit het onderwijs. Het kan, mits kritisch (dat wil zeggen op basis van kennis over GenAI), worden ingezet. De kernvraag is, versnelt het denkprocessen, zoals een rekenmachine, of neemt het denkprocessen over?

Je kunt het vergelijken met koken. Als je kookt en een recept volgt, gebruik je hulpmiddelen zoals een mes, een pan, en een keukenmachine. In eerste instantie duurt het wat langer om je gerecht te maken. Je moet de vaardigheid nog eigen maken. Stappen mislukken en je probeert zo goed als je kunt het recept te volgen. Naar mate je vaker het gerecht maakt, kan je het uit je hoofd, verbeter je processen, en experimenteer je met smaakvariaties. Dit is een leerproces. GenAI heeft het risico de magnetronmaaltijdvariant te zijn dat je binnen 5 minuten hebt opgewarmd. Het resultaat is hetzelfde (een warm gerecht) maar je hebt geen vaardigheden eigengemaakt, je hebt geen goed idee welke ingrediënten erin zitten (tenzij je de E-nummers opzoekt), en het smaakt minder lekker. Daar bovenop heb je jezelf niet ontwikkeld.

Als je GenAI als keukenmachine gebruikt, als onderdeel van het leerproces, maar niet cruciale elementen laat overnemen, kan het van waarde zijn in het onderwijs. Hiervoor is kennis nodig over effectief onderwijs en over Generatieve AI. Omdat GenAI een stuk gereedschap voor de docent is, moet hij ook zo benaderd worden. Waar in het leerproces heeft het meerwaarde? Hoe kan ik de kwalificatie van mijn leerlingen waarborgen? Wat kan ik uit handen geven? Waar wil ik regie houden? Uiteindelijk zullen er steeds meer ‘good practices’ gedeeld worden (en helaas de mislukkingen minder). Voor nu is het kijken waar processen verantwoord geautomatiseerd kunnen worden.

Voor mijn eigen lessen gebruik ik ChatGPT om oefeningen te maken, weggezakte kennis over literatuur en taalkunde op te frissen, synoniemen te vinden, of zinnen in mijn readers anders te formuleren. Ik gebruik ChatGPT in combinatie met Suno om grammaticaliedjes te maken om na een EDI-les af te spelen, materiaal te ontwikkelen voor mijn StarlingESL platform, en korte samenvattingen te maken voor boeken op RookReading.com. Dit werkt prima omdat ik boven de stof sta en kan controleren op fouten. Ook kan ik wijzigingen in het materiaal aanbrengen waarvan ik uit ervaring weet dat het beter is voor mijn leerlingen. Ik behoud mijn handelingsvermogen en controle over de leerdoelen die ik met mijn leerlingen wil bereiken.

Om deze reden laat ik GenAI niet mijn lessen plannen of complete toetsen maken. Beide zijn een uiting van mijn expertise over het onderwijsproces. Iedere klas is anders, ieder cohort is anders, het moment van de dag is bepalend voor mijn les. Wanneer ik ChatGPT mijn lessen laat plannen, mist de AI heel veel informatie en variabelen om tot een goede les te komen en leer ik mijzelf niet het organiseren van een degelijke les. Het verstoort mijn leerproces in het ontwikkelen van goede lessen. Waar GenAI wel bij kan helpen is suggesties doen, die ik mee kan nemen in mijn lesvoorbereiding, maar ik behoud de controle en bewaak mijn handelingsvermogen.

Mijn 6VWO klas moet een pre-academisch essay schrijven. Hiervoor dienen zij eerst over het onderwerp te brainstormen. Ik wil niet dat zij hier ChatGPT voor gebruiken want één van mijn leerdoelen is dat leerlingen zelfstandig tot eigen ideeën moeten kunnen komen, deze op waarde oordelen, en organiseren waaruit zij vervolgens een essay schrijven. Zodra ik de brainstorm overlaat aan ChatGPT, voeren leerlingen niet hun eigen ideeën uit, maar laten zij zich leiden door informatie die uit een voorspelling het meest waarschijnlijk is.

Wanneer leerlingen klaar zijn met hun brainstorm en hebben overlegd met hun klasgenoten laat ik op het bord ChatGPT een brainstorm doen. Op deze manier kunnen leerlingen zien wat ze kunnen toevoegen aan hun eigen brainstorm. Deze stap is overigens niet noodzakelijk, maar kan gezien worden als een digitale vaardigheden oefening hoe om te gaan met GenAI: eerste zelf nadenken voordat je GenAI gebruikt. Het doel is niet het creëren van een product (de brainstorm), maar om vaardigheden aan te leren die zelfstandig toe te passen zijn. Alleen dan maak je iemand weerbaar voor de toekomst.

Teacher Assistent op basis van eigen datasets

Waar ik een grote toepassing in zie is het gebruik van Open Source GenAI toolkits. Dit zijn kleine, lokale AI-modellen die in de basis alleen ‘taal’ kennen maar verder geen inhoudelijke datasets hebben. Lokaal hoeft overigens niet fysiek ‘lokaal’ te zijn, maar kan ook een gesloten omgeving in de cloud zijn. Op Harvard hebben ze al een dergelijk experiment gedaan met basisnatuurkunde. De resultaten waren positief, maar ze geven wel de kanttekening dat het echt als ondersteuning gebruikt moet worden en niet als vervanging van de docent.

De docent kan dan een eigen dataset (de stof van een hoofdstuk of een heel jaar) toevoegen aan het model en aanbieden aan zijn of haar leerlingen om als Teacher Assistent te gebruiken. Omdat de data niet vervuild is zal het model weinig tot niet hallucineren. Wanneer er toch fouten optreden kan je als docent de AI bijsturen met een nieuwe dataset.

Deze datasets kunnen tussen leraren uitgewisseld worden. Je hoeft hier geen programmeerkennis voor te hebben. Informatie kan in een tekstbestand aangeleverd worden. Dit zorgt ervoor dat de leraar zijn controle en handelingsvermogen behoudt en niet wordt overgeleverd aan Big Tech.

Toch moet er bij het gebruik van GenAI als Teacher Assistant voorzichtigheid geboden worden. In een onderzoek van Hamsa Bastani et al. genaamd Generative AI Can Harm Learning hielp een GPT Tutor leerlingen weliswaar bij het maken van wiskunde opgaven, maar presteerden leerlingen naderhand net zo goed als leerlingen die geen GPT Tutor hadden gebruikt. De GPT Tutor hielp wel beter dan de GPT Base, die vergelijkbaar werkt met ChatGPT. Hier presteerden leerlingen slechter na verwijdering van de GenAI. De onderzoekers concludeerden dat leerlingen de GenAI vooral als ‘krukje’ gebruikten: zodra het krukje verwijderd werd, presteerden leerlingen met de GPT Base slechter. Je zou de GPT Tutor dus vooral in de ‘scaffolding’ fase kunnen inzetten in het leerproces, maar je zal als docent de leerlingen zeker nog na deze fase moeten begeleiden om er zelfstandige, kritische denkers van te maken. Mitte Schroeven schreef hier nog een artikel over: “Onderzoek in een notendop: Generatieve AI kan het leren schaden.”

Conclusie

Uiteindelijk gaat er om niet het hele curriculum het raam uit te gooien, maar om GenAI daar te gebruiken waar het het leerproces kan bevorderen. Leraren moeten boven de verwondering staan en in staat zijn hun onderwijsproces te verdedigen tegenover de gehypnotiseerde stemmen uit de maatschappij. Big Tech moet in dienst staan van het onderwijs in plaats van andersom. Het doel van onderwijs is namelijk niet veranderd: kwalificatie, socialisatie, en subjectificatie. Onze hersenen werken nog steeds hetzelfde als duizend jaar geleden: feiten bouwen concepten en schema’s die blijven hangen in het langetermijngeheugen. Hiermee levert onderwijs kritische, zelfstandige, en weerbare jongeren in de maatschappij, die de erfenis kennen en daarop voortbouwen. GenAI kan hierin een waardevolle bijdrage leveren, maar verandert deze kerntaak niet. Het wordt tijd dat het onderwijs haar verantwoordelijkheid oppakt.