Algoritmen die oefeningen automatisch aanpassen op het gedrag van de leerling, kunnen leiden tot ongelijke behandeling. De overheid moet scholen en onderwijzers daarom meer bewust maken van de risico's van algoritmen. Daarvoor pleit het College voor de Rechten van de Mens, na een op 13 mei 2024 gepubliceerd onderzoek naar de toepassing van algoritmen op scholen.

Het onderzoek laat zien dat allerlei algoritmische toepassingen in zowel het basisonderwijs als het hoger onderwijs worden ingezet. 40 tot 60 procent van de basisscholen gebruikt adaptieve leersystemen, waarbij het systeem oefeningen automatisch aanpast op basis van het gedrag van de leerling. In het hoger onderwijs zetten onderwijsinstellingen onder andere software in die een automatische score geeft aan hoe diepgaand de aantekeningen van studenten zijn. Ook gebruiken veel onderwijsinstellingen algoritmes om data over leerlingen automatisch te analyseren om bijvoorbeeld te voorspellen of een leerling risico loopt uit te vallen of extra ondersteuning nodig heeft, om fraude op te sporen - bijvoorbeeld of iemand ChatGPT heeft gebruikt - en om te bepalen welke leerling naar welke onderwijsinstelling gaat.

Grote verschillen tussen leerlingen en scholen

Als digitale systemen niet goed getest worden, kunnen zij de vooroordelen van mensen versterken door deze te systematiseren en te verspreiden. Dit kan leiden tot discriminatie en kansenongelijkheid. Het kan zijn dat een systeem moeite heeft om het niveau van een kind goed in te schatten wanneer een leerling op een andere manier leert, bijvoorbeeld als een kind ADHD, dyslexie of autisme heeft, of andere woorden gebruikt, dan de groep leerlingen waarop het systeem getraind is. Of een systeem geeft een kind het label ‘zwak’ en houdt dat label aan, ook al is het kind inmiddels beter gaan leren. Hierbij kan ook een zorg zijn dat leerlingvolgsystemen veel data over kinderen verzamelen, waardoor mogelijk hun recht op privacy en autonomie wordt geraakt. Niet elke leerling heeft bovendien evenveel toegang tot technologie. Ook tussen scholen zijn de verschillen groot.

Draagt het systeem bij aan goed onderwijs

Volgens het College moeten onderwijsinstellingen voordat ze digitale systemen gaan gebruiken, een waardenafweging maken of en wanneer technologie een bijdrage levert aan goed onderwijs. Scholen kunnen en moeten eisen stellen aan softwareleveranciers op het gebied van gelijke behandeling, privacy, autonomie en transparantie. Een belangrijk onderdeel daarvan is dat middelen uitgebreid op verschillende groepen leerlingen worden getest. Het is moeilijk voor docenten en schoolleiders om altijd kritisch te kijken naar de middelen die ze gebruiken. Mensen hebben nu eenmaal de neiging te geloven wat een computer zegt. Daarnaast is er vaak beperkt informatie beschikbaar over hoe een systeem werkt, waardoor het moeilijk is dit te beoordelen. Bovendien komt een groot deel van het aanbod vanuit grote technologiebedrijven. De invloed van deze bedrijven kan sturend zijn en kan scholen van hun producten afhankelijk maken. De Minister van OCW kan onder meer met samenwerkingsverbanden, kennisinstituten, en onderwijsinstellingen een normenkader ontwikkelen dat duidelijkheid schept waar een systeem in ieder geval aan moet voldoen om discriminatie te voorkomen.

Onderzoeksrapport Algoritmen in het onderwijs

Factsheet Digitale systemen in het onderwijs

Bron: www.mensenrechten.nl

Laatste nieuws