Digitale systemen die door scholen worden ingezet, kunnen leiden tot een ongelijke behandeling van leerlingen. Dat blijkt uit een verkennend onderzoek van het College voor de Rechten van de Mens. Het college vindt daarom dat de overheid onderwijsinstellingen moet helpen, om zo risico's op ongelijke behandeling te voorkomen.
Basisscholen gebruiken algoritmen van digitale systemen bijvoorbeeld om taal- en rekenoefeningen automatisch aan te passen aan het gedrag van leerlingen. Ook worden algoritmes gebruikt voor een analyse van leerlingen, om zo te kunnen voorspellen of een leerling het risico loopt uit te vallen, of het extra ondersteuning nodig heeft. Daarnaast kunnen ze worden ingezet om fraude met bijvoorbeeld ChatGPT te herkennen.
Hoewel digitale middelen leerlingen kunnen helpen zich te ontwikkelen, spelen vooroordelen ook een rol in het onderwijs, waarschuwt het College voor de Rechten van de Mens. Als digitale systemen niet goed worden getest, kunnen ze vooroordelen van mensen versterken en verspreiden. Dat kan weer leiden tot discriminatie en kansenongelijkheid.
Een systeem kan bijvoorbeeld moeite hebben het niveau van een kind goed in te schatten, omdat een kind met ADHD of dyslexie op een andere manier leert of andere woorden gebruikt. Of het systeem geeft een kind het label "zwak", maar haalt dat niet weg als het kind beter is gaan leren.
Voordat scholen digitale systemen gaan gebruiken, moeten ze daarom afwegen of die technologie een bijdrage levert aan goed onderwijs, zegt het College voor de Rechten van de Mens. "Scholen moeten en kunnen eisen stellen aan softwareleveranciers op het gebied van gelijke behandeling, privacy, autonomie en transparantie", aldus het college. Het ministerie van Onderwijs, Cultuur en Wetenschap moet scholen helpen, stelt het college, bijvoorbeeld door stimulering van onderzoek naar de effecten van digitale systemen.