‘We stellen elkaar verkeerde vragen over ChatGPT’

Interview | door Michiel Bakker
20 januari 2023 | Het afweren van technologie zoals ChatGPT heeft geen zin. Bedenk liever hoe je het kunt benutten, raadt lector Bart Wernaart (Fontys Hogeschool) aan. Vaak geeft het niets als studenten zo'n AI-toepassing als hulpmiddel, sparringpartner of inspiratiebron gebruiken. Leer ze liever wanneer ze dat wel en wanneer ze dat juist niet moeten doen, betoogt hij.
Bart Wernaart, lector Moral Design Strategy bij Fontys Hogeschool.

Bart Wernaart is lector Moral Design Strategy bij Fontys Hogeschool en winnaar van de eerste Melanie Petersprijs van het Rathenau Instituut (daarover later meer). Als onderzoeker die veel bezig is met nieuwe technologieën en ethiek, volgt hij de discussie over ChatGPT met interesse. Hij ziet ook hoe die discussie beter kan. “We stellen onszelf de verkeerde vragen”, is zijn oordeel.  

Maakt het uit of iets met ChatGPT is gemaakt? 

“ChatGPT is een technologie waarmee je iets kunt maken dat niet van jou is. In het onderwijs bestaat dus de angst dat een student een werkstuk inlevert dat niet door haarzelf maar door technologie is geschreven”, schetst de lector het probleem. “Daar zit echter een diepere vraag achter. Maakt het uit of iets echt is of niet? Maakt het uit of iets al dan niet door een mens gemaakt is?” 

Wie daarop ‘ja’ zegt, heeft meteen een probleem. Het verschil tussen de tekst van een mens of een computer is vrijwel niet meer te zien. Men kan dan wel eindeloos zoeken naar dat verschil of technologie ontwikkelen die zulke verschillen kan vinden, maar dan lopen we steeds achter de feiten aan, ziet Wernaart. “Bestuurders hebben soms de neiging om de negatieve gevolgen van nieuwe technologie top-down te willen reguleren. Innoveren gaat echter altijd sneller dan reguleren.” 

Technologie vs. Technologie – ten koste van creativiteit 

De neiging om technologie te gebruiken voor het detecteren van automatisch gegenereerde teksten kan daarnaast betekenen dat de menselijke creativiteit, die men wil beschermen, juist de kop wordt ingedrukt, waarschuwt Wernaart.  

“Technologie kan alleen detecteren of iets al heeft bestaan of niet. Echt nieuwe ideeën zullen door technologie dus altijd als ‘vreemd’ worden aangemerkt. Ga ik technologie gebruiken om technologie te detecteren, zoals nu ten aanzien van ChatGPT wordt voorgesteld, dan ontstaat er een technologisch kat-en-muis-spel waarbij de nieuwe Galileo Galilei automatisch af is.” 

Wat willen we dat studenten leren? 

Wat moet het hoger onderwijs dan wel doen? Het is veel zinniger om te accepteren dat iets als ChatGPT nu eenmaal bestaat en te zoeken naar een goede omgang ermee, vindt Wernaart. Daarnaast is het niet alles kommer en kwel. Een student kan de chatbot gebruiken om te frauderen tijdens een toets, maar ChatGPT kan ook dienen als sparringpartner of inspiratiebron. 

Bij inschrijving ga je akkoord met onze privacy-voorwaarden. Deze voorwaarden zijn hier te lezen.

De wekelijkse nieuwsbrief is nog korte tijd gratis te ontvangen. De voorwaarden vindt u hier.

“Zorg ervoor dat je mensen aan de voorkant toerust om er op een verantwoorde manier mee om te gaan”, zegt Wernaart daarom. “Leer studenten wanneer ze zo’n chatbot kunnen gebruiken om te leren en inspiratie op te doen, en leer ze vooral ook wanneer ze in zichzelf moeten investeren door zo’n hulpmiddel juist even niét te gebruiken.” 

Docenten zullen dus goed moeten nadenken wát ze hun studenten precies willen leren. “Is het daarbij belangrijk dat een student alles zelf maakt? Zo ja, dan moet je maatregelen nemen. Zo nee, dan maakt het niet uit of een student op enige manier zo’n chatbot gebruikt.” 

Gesprek rond ChatGPT moet over gebruik ervan gaan 

Terug naar de diepere vraag. Maakt het uit of iets echt is of niet? “We maken sterk het onderscheid tussen fake en niet fake,” schetst Wernaart, “maar fake betekent echter niet dat iets automatisch niet waar is. Dat geldt andersom ook. Stel dat we een deepfake-video van een politicus zouden maken terwijl die staat te voetballen. Dat wil dan niet zeggen dat de politicus niet ook echt soms voetbalt, of dat de deepfake niet een reflectie kan zijn van iets dat daadwerkelijk gebeurt.” 

De mens krijgt nu de unieke mogelijkheid om zich op te trekken aan technologie en daardoor beter te worden.

Enige tijd geleden ontstond ophef toen een kunstmatige intelligentie-toepassing, die niet zelf iets nieuws bedenkt, een schilderwedstrijd won. “Wat maakt het precies uit dat mensen zo’n heel geraffineerd collage van bestaande beelden mooi vinden?”, vraagt Wernaart. “Wat maakt het uit als het vervolgens een prijs wint? Er zijn ook computers die de beste schaker kunnen verslaan. Nou en? Dat biedt die schaakkampioen juist tegenstand waardoor hij beter kan worden.” 

De mens krijgt nu de unieke mogelijkheid om zich op te trekken aan technologie en daardoor beter te worden, bedoelt Wernaart. “Je moet daarbij wel goed blijven nadenken over de inzet van die technologie. Als je het gebruikt om verkiezingen te beïnvloeden of nieuws te manipuleren, dan is je doel niet valide. Daarover moet het gesprek rondom ChatGPT gaan; gebruik je technologie om iets beter te maken? Gebruik je het om iets zichtbaar beter te maken, dan maakt het niet uit of iets echt is of nep. Gebruik je het om iets slechter te maken, dan maakt het wel uit.” 

ChatGPT is niet ethisch neutraal 

Niet de authenticiteit van een technologisch artefact is het belangrijkst, maar de moraliteit waarmee de techniek is geladen en aangewend. “Technologie is nooit ethisch neutraal. Het heeft een bepaalde morele lading. Iemand die de trekker van een pistool overhaalt, kan verschillende bedoelingen hebben, maar een samenleving met veel wapens is de facto vele malen gewelddadiger dan een samenleving zonder wapens. Het pure feit dat die wapens er zijn, maakt de samenleving ethisch anders”, aldus Wernaart. 

Ook een chatbot zoals ChatGPT heeft een ethische lading – één die wellicht ver afstaat van de bedoeling waarmee de software ontworpen is. “De ontwerper van zo’n bot heeft dat waarschijnlijk niet gedaan om studenten te helpen met neppe werkstukken. Je zult altijd moeten nagaan of de ethische lading die er aan de voorkant is ingestopt nog overeenkomt met de ethische lading van de technologie zelf. Komt dat vervolgens overeen met hetgeen wij als samenleving willen? Als dat antwoord twee keer ‘ja’ is, kunnen we technologie gebruiken om iets beter te maken.” 

Een sociaal medium zoals Facebook vormt een mooi voorbeeld van het tegendeel, zegt Wernaart. De ontwerpers van de huidige vorm van het sociale medium hadden de bedoeling zoveel mogelijk advertenties te verkopen die zo goed mogelijk aansluiten bij de gebruiker. “Daardoor ontstonden vervolgens, onbedoeld, de bekende sociale bubbels, en een paar stappen later heb je de bestorming van het Capitool.” 

Bedenk liever hoe je het kunt benutten 

Afweren heeft geen zin, bedenk liever hoe je het kunt benutten, luidt de boodschap van de Eindhovense lector. “Als ik een student wil leren om zelf te schrijven, moet ik niet zo’n chatbot gebruiken, maar als ik ze wil inspireren of sturen, maakt het misschien helemaal niet uit als ik daarvoor zo’n chatbot gebruik.” 


«
Schrijf je in voor onze nieuwsbrief
ScienceGuide is bij wet verplicht je toestemming te vragen voor het gebruik van cookies.
Lees hier over ons cookiebeleid en klik op OK om akkoord te gaan
OK