‘AI-apps in onderwijs moeten verplichte bijsluiter krijgen’
Stel dat je als universitair of hogeschooldocent een enorme berg nakijkwerk hebt en een app ontdekt die belooft dit betrouwbaar voor jou te kunnen doen. Mag je deze app dan gebruiken? Ja, zeggen meerdere Amerikaanse universiteiten die de diensten van AI-beoordelingsapps als instelling hebben ingekocht. In China gebruikt zelf een kwart van de scholen AI om essays te beoordelen. Nee, zullen anderen zeggen. Ik zeg: onderzoek eerst goed wat de bijwerkingen zijn.
Een nakijkapp is slechts één voorbeeld van AI-apps die beloven het leven van studenten, docenten en onderzoekers makkelijker te maken. Andere voorbeelden zijn AI-apps voor het beantwoorden van onderzoeksvragen, het laten schrijven of beoordelen van een tekst, of adaptieve leerapplicaties die precies inspelen op wat je wel en niet weet. Dan zijn daar ook nog de large language models zoals ChatGPT, die gebruikt kunnen worden voor zo goed als elke vraag – als je die maar op de juiste manier stelt.
AI kan erg aantrekkelijk zijn
Het lijkt erg aantrekkelijk om de mogelijkheden van de applicaties in te zetten om werkdruk te verlichten. Zonder zicht op de neveneffecten is dit echter niet verantwoord.
Zo kan het veel tijd schelen als je als docent studentwerk laat nakijken door een app. Doe je dit echter met machine learning, dan kan het dat je hierdoor niet langer weet waarom een stuk een 4 of een 9 als cijfer krijgt. Laat staan dat de student het weet – en die zal daar toch om vragen. Bovendien kan de autoriteit van de docent zo worden vervangen door een autoriteit die niet transparant of aanspreekbaar is.
Toch kan AI wel ingezet worden ter versterking van professionals. Mensen hebben bijvoorbeeld moeite met het overzien en vatten van grote hoeveelheden informatie, terwijl applicaties dat snel en betrouwbaar kunnen doen. Het is daarom zeer de moeite waard om na te gaan hoe professionals en AI elkaar kunnen aanvullen. De professional blijft verantwoordelijk voor het eindresultaat, maar kan gericht advies of zekerheid krijgen door een AI-assistent.
Niet wachten op internationale waakhond
Zulke zogenoemde ‘hybride intelligentie’ zal niet per se leiden tot een lagere werkdruk, maar mogelijk wel tot andere en mogelijk hoogwaardigere werkprocessen. Mogelijk – want het is essentieel dat onderzoekers testen of de beloftes worden ingelost en of studenten en medewerkers van de instellingen hier niet een onverwachte prijs voor betalen.
Onlangs beargumenteerden Claudi Bockting (UvA) en collega’s in Nature dat er een internationale auditor of waakhond nodig is die toepassingen van AI in de wetenschap test op betrouwbaarheid en risico’s zoals racisme. Zo’n stap zou een goede zet kunnen zijn voor internationale regulering en verantwoorde inzet van AI in onderzoek. Een waakhond moet echter wel tanden hebben, en de vraag is of dat zal gebeuren. Zullen de verschillende wereldmachten, met hun verschillende visies op AI-regulering, bereid zijn zo’n instituut gezamenlijk op te richten?
De wekelijkse nieuwsbrief is nog korte tijd gratis te ontvangen. De voorwaarden vindt u hier.
Beter is het nu al bruikbaar en verantwoord experimenteel onderzoek door huidige onderzoekers en onderzoekscentra te stimuleren. Daarmee kunnen onderzoeksinstellingen bijdragen aan een betere wereld met AI. Mocht het lukken om hieraan een internationaal instituut toe te voegen, dan is dat mooi meegenomen. Medicijnen worden nu ook niet door slechts een centraal orgaan getest. Net zoals medicijnen eerst experimenteel getest worden voordat ze worden gebruikt, zouden ook gebruikers van AI-apps van de makers moeten eisen dat die oplossingen goed getest zijn. Ze moeten in een bijsluiter kunnen lezen over mogelijke neveneffecten.
Procedure voor onderzoek naar AI-apps
De onderzoekers en gebruikers hebben een procedure nodig waarmee AI-apps eerst kleinschalig en dan grootschalig experimenteel worden getest. Pas daarna verdienen ze een keurmerk en kunnen ze door publieke instellingen zoals scholen en universiteiten worden toegepast.
In de medische sector gebeurt dit testen bij farmaceutische bedrijven en onderzoeksinstellingen volgens de gangbare ethische procedures. Voor AI geldt dat deze ethische procedures eerst moeten worden aangepast. De bestaande richtlijnen houden geen rekening met de onvoorspelbaarheid van de te onderzoeken AI-app. Hoe autonomer of ‘intelligenter’ de applicatie, hoe onvoorspelbaarder deze is. Onderzoekers moeten daarom, afhankelijk van de mate van autonomie van de interventie, in hun onderzoeksontwerp meer zicht zien te krijgen op onverwachtse neveneffecten. Door die in kaart te brengen, kunnen ze gebruikers van de app voorzien van een bijsluiter met betrouwbare informatie.
Om dit te bereiken moeten we als onderzoeksgemeenschap samen met gebruikers nieuwe kaders uitwerken voor het uitvoeren van experimenteel onderzoek naar AI, waarbij we differentiëren naar verschillende niveaus van automatisering. Toepassingen waarbij de docent bijvoorbeeld nog zicht heeft op het proces en een uiteindelijk oordeel velt, zijn minder risicovol dan toepassingen waar onderwijsprofessionals alleen op aanvraag meekijken met de uitkomsten van een applicatie. Ethische commissies kunnen adviseren bij de goed- of afkeuring van onderzoeksvoorstellen waarbij AI wordt gebruikt.
Driejarig onderzoeksproject
De komende jaren zal een interdisciplinair team van wetenschappers daarom een kader uitwerken dat ethische commissies hierbij helpt. Dit kader zullen ze ontwikkelen aan de hand van gesprekken met belanghebbenden (denk aan leden van ethische commissies, studentvertegenwoordigers, en onderzoekers), een Delphi-studie en tests met behulp van casestudies.
Het is belangrijk dat deze procedure niet alleen een extra hoepel is voor experimenteel onderzoek naar AI, maar dat zij onderzoek ook stimuleert. Daarom zal het team ook een praktische handleiding uitwerken die onderzoekers overzicht biedt en helpt om hun experimenten soepel en verantwoord uit te werken. Het einddoel wordt daarbij niet uit het oog verloren: bijsluiters maken die verplicht worden bij AI-apps in het onderwijs.
Het interdisciplinair team start in januari 2024 met behulp van een NRO-subsidie en bestaat uit de volgende leden:
- Drs. Chloë Arkenbout is ethicus, docent-onderzoeker inclusiviteit bij de Faculteit voor Digitale Media, en lid van de ethische commissie van de Hogeschool van Amsterdam.
- Dr. Bert Bredeweg is lector Didactiek van de Bètavakken, leider van het Smart Education Lab aan de Hogeschool van Amsterdam en universitair hoofddocent op het vlak van kunstmatige intelligentie aan de Universiteit van Amsterdam.
- Dr. Izaak Dekker is associate lector didactiek en curriculumontwikkeling in het hoger onderwijs en de coördinator van dit project.
- Prof. dr. Inge Molenaar specialiseert zich als professor in de rol van AI in het onderwijs aan de Radboud Universiteit, ze is hoofd van het Adaptive Learning Lab, en wetenschappelijk directeur van het Nationaal Onderwijslab AI (NOLAI).
- Prof. dr. ir. Ibo van de Poel is professor in de ethiek van technologie aan de TU Delft en lid van de KNAW.
- Drs. Wilco te Winkel is verantwoordelijk voor beleidsvorming rond AI in het onderwijs aan de Erasmus Universiteit Rotterdam en voorzitter van de SURF special interest group AI education (SIGAIED).
Geïnteresseerden kunnen via de projectpagina op de hoogte blijven van het project.
Meest Gelezen
Masterstudenten in het hbo worstelen met academisch schrijven en onderzoek
“Ik zal niet de meest populaire onderwijsminister zijn”
Stop met studentevaluaties: ze bedreigen de academische vrijheid
“Langstudeerboete raakt kern van hoger onderwijs”
CvB Erasmus Universiteit weigert tweetalig te vergaderen met medezeggenschap