Er is nog weinig onderzoek gedaan naar de leereffecten van GenAI in het onderwijs. Dat is ook niet zo vreemd aangezien het nog in haar kinderschoenen staat. Het is daarom goed om te kijken wat er bij domeinen die al langer gebruik maken van AI gebeurt. Één van die domeinen is softwareontwikkeling, met in het bijzonder GitHub. Hier zullen we zien dat de risico’s die ik besprak in mijn vorige artikel over Generatieve AI in het onderwijs ook worden gezien in de wereld van programmeren.
GitHub
GitHub is een platform waar ontwikkelaars en programmeurs programmeercodes ontwikkelen, bewaren, en delen. In 2018 werd GitHub overgenomen door Microsoft en in 2021 werd GitHub Copilot geïntroduceerd, een versie van Microsofts GenAI Assistent Copilot, gespecialiseerd in het schrijven en controleren van code. Een belangrijke functie is de autocomplete waarbij Copilot suggesties doet om code, geschreven door een programmeur, af te maken. Dit is vergelijkbaar met de autocomplete in Word maar dan natuurlijk veel uitgebreider.
Via een YouTube video van ThePrimeTime kwam ik op een artikel van softwareontwikkelaar, Darren Horrocks. Hij schreef begin september een artikel over de gevaren van veelvuldig gebruik van GitHub Copilot door programmeurs. Deze zorgen sluiten aan bij wat de cognitieve wetenschap ons vertelt over leren, kritisch denken, en creativiteit. In zijn artikel “Why Copilot is Making Programmers Worse at Programming” bespreekt Horrocks zijn zorgen over het gebruik van GitHub Copilot.
De kritiek van Horrocks gaat over het eroderen van kennis en daarmee kritisch en creatief kunnen denken bij ontwikkelaars, een te grote afhankelijkheid van zowel het product als het bedrijf daarachter, een gebrek aan eigenaarschap en daarmee verantwoordelijkheid, het verkleinen van leermogelijkheden, en een misplaatst gevoel van meesterschap bij programmeurs.
van kennis naar kopiëren
Horrocks geeft aan dat door de komst van Copilot programmeurs steeds minder kennis over code en coderen ontwikkelen. Daar waar zij in het verleden de onderliggende structuur moesten kennen om problemen op te lossen, kunnen ze nu automatisch gegenereerde stukjes code door Copilot laten schrijven. Dit klinkt als een verrijking, zeker als je alleen naar de eindoplossing kijkt. Voor de (kennis)ontwikkeling van programmeurs kan echter dit problematisch worden, niet in de minste plaats omdat we voorlopig nog niet zonder programmeurs kunnen. We creëren een wereld waarin de fouten van AI niet meer opgemerkt worden door softwareontwikkelaars.
Omdat programmeurs niet meer kennis opbouwen over programmeren en programmeercodes, zijn zij minder in staat om kritisch en creatief te denken over softwareontwikkeling. De oplossingen die door Copilot worden aangedragen zijn niet altijd het meest optimaal en kunnen ook fouten bevatten waardoor er veiligheidsrisico’s kunnen ontstaan. Omdat Copilot code op het eerste gezicht werkt, zijn programmeurs minder geneigd goed onderzoek te doen naar de gevolgen voor de lange termijn. Er ontstaat een blind vertrouwen in AI en daarmee een vermindering van eigenaarschap en een gevoel van verantwoordelijkheid: “De AI heeft het gegenereerd, dus moet het kloppen.”
Echter, het is nog helemaal niet zeker dat we geen programmeurs nodig zullen hebben op de korte tot middellange termijn, sterker nog, we hebben er waarschijnlijk meer nodig. Er is nog steeds die kritische blik nodig bij het ontwikkelen en controleren van software. Copilot maakt nog steeds fouten en die fouten moeten door mensen nog steeds opgelost worden. Echter, die kritische blik wordt steeds minder scherp door een gebrek aan domeinkennis.
Ook in het onderwijs zullen we een gemakzucht naar kennis zien als we Generatieve AI argeloos inzetten en kennisverwerving inruilen voor AI-verwondering. Leerlingen (en ook docenten) zullen zich meer richten op het eindproduct en niet op de ontwikkeling van de leerling. Waarom nog zelf denken als GenAI het antwoord kan produceren?
gemak boven geploeter
Wanneer een AI als Copilot je een oplossing aanreikt, ben je minder geneigd om het zelf te willen leren. Leren doet immers pijn en kost energie. Het is gemak tegenover hard werken en wij mensen zijn over het algemeen geneigd gemak boven geploeter te kiezen. Copilot geeft een kortere route naar het antwoord waardoor programmeurs niet dieper gaan nadenken over het waarom van een oplossing. Dit kwam ook naar boven in het onderzoek “Generative AI Can Harm Learning” waar een GPT Base assistent antwoorden gaf in het leerproces en daarmee een negatieve invloed had op de leerprestaties van leerlingen.
Dit ‘voorzeggen’ zorgt ook voor een vernauwing van creatief denken. Niet alleen zorgt een gebrek aan kennis voor een vermindering aan creativiteit bij ontwikkelaars, dat wat AI voorzegt zijn vooral suggesties uit bekende patronen. Het is immers een voorspelmachine op basis van een dataset uit het verleden. GenAI kan niet out-of-the-box denken. De angst is dan ook dat overmatig gebruik van AI ertoe zal leiden dat programmeren meer een mechanisch proces wordt in het accepteren van suggesties in plaats van ‘een creatieve zoektocht dat grenzen verlegt,’ aldus Horrocks.
voorbeeld hoe GitHub Copilot werkt, <https://github.com/features/copilot>
afhankelijkheid
Deze afhankelijkheid van AI loopt door naar de bedrijven achter de modellen. Omdat programmeurs steeds meer kennis ontbeert, zullen zij Copilot nodig blijven hebben in hun werk. Dit wordt problematisch als het gereedschap later gebreken vertoont, de gebruikersvoorwaarden worden veranderd, of het te duur begint te worden. Je maakt jezelf als programmeur afhankelijk van een commercieel product; je raakt ‘locked-in’.
Studenten kunnen gratis gebruik maken van GitHub Copilot waardoor zij meegenomen worden in de afhankelijkheid van de GenAI van Microsoft. Het zou voor hen beter zijn in eerste instantie op eigen benen te kunnen staan alvorens Copilot te betrekken bij hun werkzaamheden. Echter, afhankelijkheid creëren is lucratief voor bedrijven en het is hen er alles aangelegen om gebruikers aan te trekken en vast te houden.
een vals gevoel van meesterschap
Als laatste kan het gebruik van Copilot een vals gevoel van expertise geven. Dit wordt problematisch wanneer deze programmeurs doorgroeien naar meer complexe opdrachten waar fundamentele programmeerkennis van vitaal belang is.
Dit valse gevoel van expertise is vergelijkbaar met leerstof herkennen in plaats van kennen. Leerlingen die leerstof herlezen krijgen vaak een vals gevoel van meesterschap. Ze herkennen het materiaal maar kunnen het niet reproduceren zonder bron. GenAI is permanente scaffolding waarbij gebruikers afhankelijk blijven van het hulpmiddel en niet zelfstandig leren denken. Leerlingen leren niets anders dan het verplaatsen en laten verwerken van data.
aangeleerde hulpeloosheid
ThePrimeTime heeft het over ‘aangeleerde hulpeloosheid’ in het gebruik van GitHub Copilot. Wat wij moeten voorkomen is dat we leerlingen opleiden tot burgers die afhankelijk zijn geworden van AI om goed te kunnen functioneren in de maatschappij. Dat gaat verder dan dat we dit in het onderwijs benoemen, maar moet expliciet worden meegenomen in curriculumontwikkeling en lesontwerp.
De oudere generatie heeft via een traditioneel onderwijssysteem veel kennis eigengemaakt voordat ze aan de slag gingen met GenAI. Zijn beseffen vanwege hun kennisbias niet (voldoende) wat jongeren niet weten en welke gevolgen dat heeft in hun ontwikkeling en functioneren in de maatschappij.
Daarom is een goede voorbereiding op de onbekende toekomst gericht op het ontwikkelen van uitgebreide kennis bij jongeren in plaats van alleen te leren hoe de knoppen van een softwareproduct werken. Dat product kan alleen kritisch en creatief worden gebruikt als ze domeinkennis hebben. Zo niet, dan zal je, aldus Horrocks, nooit iets anders kunnen dan wat een robot al kan doen.