Onderzoek naar kunstmatige intelligentie helpt zowel hogescholen als mediabedrijven

Interview | door Michiel Bakker
6 oktober 2021 | Mediabedrijven maken steeds meer gebruik van kunstmatige intelligentie. Verkeerde toepassing daarvan kan leiden tot discriminerende algoritmes, vertelt lector Maaike Harbers van de Hogeschool Rotterdam. Samen met Sarah van der Land van de NPO vertelt zij over hun samenwerking in de zoektocht naar verantwoorde kunstmatige intelligentie, waarvan ook studenten profiteren. “Het is echt win-win.”
“Als NPO hebben we ook de uitdaging het jongere publiek te bereiken, dus het is fijn dat zij meedenken over oplossingen en goede mediatoepassingen”, vertelt Sarah van der Land. Beeld: Sebastiaan ter Burg (CC BY 2.0)

Op 7 oktober vindt de aftrap van onderzoeksproject Designing Responsible AI for Media Applications (DRAMA) plaats. Het praktijkgerichte onderzoek naar verantwoorde toepassingen van kunstmatige intelligentie bij mediaorganisaties, mogelijk gemaakt door een RAAK-publiek subsidie van Regieorgaan SIA, is een samenwerking tussen drie hogescholen en de mediabedrijven NPO, Beeld en Geluid, RTL, VPRO en Media Perspectives.  

Zoeken naar verantwoord gebruik kunstmatige intelligentie 

Terwijl kunstmatige intelligentie (KI) een steeds grotere rol speelt binnen mediaorganisaties, worstelen zij met het ethisch verantwoorde gebruik ervan. In project DRAMA zullen aan de hand van drie casussen ethische instrumenten zoals handleidingen en workshops worden ontwikkeld. Zo zoeken onderzoekers van de Hogeschool van Amsterdam naar mogelijkheden voor inclusieve spraakherkenning en trekt de Hogeschool Utrecht een onderzoek naar het borgen van diversiteit en inclusie in mediaproducten zoals video’s en verslagen die door KI-toepassingen worden gegenereerd.  

De derde casus betreft de zoektocht naar pluriforme aanbevelingssystemen en wordt geleid door de Hogeschool Rotterdam. Deze systemen bevelen bezoekers van de NPO-website volgende video’s aan nadat een eerdere video is bekeken. Ook de NPO, Beeld en Geluid en de VPRO zijn bij deze casus betrokken, vertelt Maaike Harbers, lector Artificial Intelligence & Society bij de Hogeschool Rotterdam. Samen met Sarah van der Land, senior adviseur digitale innovatie bij de NPO, vertelt ze aan ScienceGuide over de casus. “Ik vind het bij de aard van het praktijkgericht onderzoek passen dat we ook dit interview gezamenlijk doen”, merkt Harbers echter eerst op. “We werken namelijk heel graag nauw samen met de praktijk, dus ik vind dit mooi.” 

Abstracte richtlijnen vertalen naar praktijk van ontwikkeling 

Kunstmatige intelligentie wordt op steeds meer manieren en plaatsen toegepast, en dat gaat niet altijd goed, licht Harbers het gehele project toe. Zo werken algoritmes soms discriminerend of veroorzaken ze andere ongewenste bijeffecten. Hoewel men reeds veel heeft nagedacht over ethische standaarden waaraan toepassingen van kunstmatige intelligentie moeten voldoen – Harbers gokt dat er minstens negentig verschillende richtlijnen zijn – zijn deze richtlijnen nog te abstract en daarom niet direct toepasbaar bij het bouwen van een KI-toepassing.  

“Wij willen daarom onderzoek doen naar de vertaling van die in hoge mate abstracte ethische richtlijnen naar de context van een concrete toepassing. Juist in de media, dus ook bij onze partners in dit onderzoek, is men veel bezig met het vaker toepassen van kunstmatige intelligentie. Daar leven dus de ethische vraagstukken die dat met zich meebrengt”, aldus de Rotterdamse lector.   

Mediabedrijven pakken die vraagstukken al op, vertelt Van der Land. Zo is er afgelopen februari een ‘intentieverklaring ethische richtlijnen’ ondertekend door de NPO, Beeld en Geluid, de VPRO, netwerkorganisatie Media Perspectives en andere mediabedrijven. “We hebben deze richtlijnen opgesteld omdat we verwachten dat er wetgeving aankomt”, legt Van der Land uit. “Er is natuurlijk al de AVG, maar die voldoet niet voor de richting waarin wij opschuiven. Als mediabedrijven wilden we daarom de handen ineenslaan en nieuwe, algemene Europese regelgeving voor zijn.” 

Publieke waarden vertalen naar algoritmes 

Op het mediapark voelt men echter ook de verantwoordelijkheid om praktische handvatten te geven aan deze richtlijnen. Zo probeert men bij de NPO al openheid richting het publiek te geven middels een ‘databelofte’ die momenteel wordt opgesteld. Ook is de taakomschrijving van de Privacy Officer uitgebreid met het stuk ‘data-ethiek’, vertelt Van der Land. “Voor KI zijn data erg belangrijk, en onze organisatie wordt steeds meer data-gedreven en digitaal.” 

Meld u hier aan voor de ScienceGuide Nieuwsbrief

 

Als mediabedrijf verzamelt de NPO verschillende soorten data, legt Van der Land uit. Hoe die worden gebruikt, verschilt echter per bedrijf. “Wij verzamelen onder andere data over het kijkgedrag van onze gebruikers. Voor bijvoorbeeld RTL is het dan relevant om te weten of een gebruiker man of vrouw is; voor ons niet. Wij kijken alleen naar de categorie van de uitzendingen die iemand heeft bekeken; is dat ‘sport’, dan krijgt diegene meer sport aanbevolen – of juist minder, omdat wij pluriformiteit erg belangrijk vinden.” 

Het onderzoek zal zich precies op dat punt richten, vertelt Harbers, namelijk op de vertaling van een waarde als pluriformiteit naar een technologische toepassing. “De NPO wil pluriform aanbevelen omdat ze het verrijken en verbinden van het Nederlandse publiek als missie heeft. Als je die waarde wilt vertalen naar een algoritme, moet je het ineens heel precies maken, terwijl de ontwikkelaars van KI-toepassingen helemaal niet met zulke dingen bezig zijn. De technische ontwikkelaar weet dus niet goed wat de morele eisen zijn, en degene die dergelijke eisen wel kent, weet vaak niet precies hoe algoritmes werken. Hoe ga je dat dan doen?” 

Ontwerpend onderzoek 

Om goede oplossingen voor dat probleem te vinden, zal het onderzoek in de eerste fase bestaan uit het simpelweg in kaart brengen van dergelijke problematiek en reeds beschikbare theoretische kennis. Vervolgens heeft het onderzoek het ontwikkelen van ethische instrumenten tot doel, vertelt Harbers. “Wat die instrumenten zullen zijn, weten we van tevoren niet; het kan bijvoorbeeld uitlopen op een workshop of een voorbeeldcasus. Omdat onze onderzoeksopzet praktijkgericht is, ontwerpen we die ethische instrumenten juist door te werken aan concrete casussen. Samen met de mediaorganisaties gaan we aan de slag door dingen uit te proberen, te evalueren en te verbeteren – echt een ontwerpende manier van onderzoeken.” 

Hoewel het project in gezamenlijkheid wordt aangegaan, zijn de rollen van de betrokken partijen verschillend. Waar de NPO de casus en de daarbij behorende informatie aanlevert, zal het theoretische en praktische onderzoek alsook de publicatie van de resultaten door de Hogeschool Rotterdam worden uitgevoerd – om vervolgens weer terug te komen bij de NPO voor het testen van de ontworpen ethische instrumenten. Erg strikt is die scheiding echter niet, benadrukt Harbers. “De hogeschool heeft het voortouw in het onderzoek, maar als we een ontwerpsessie organiseren, doen we dat natuurlijk niet met alleen mensen van de hogeschool.” Voor de verspreiding van opgedane kennis onder andere mediabedrijven is netwerkorganisatie Media Perspectives aan het onderzoeksconsortium toegevoegd.  

Vruchtbare samenwerking met kansen voor studenten 

De samenwerking tussen de Hogeschool Rotterdam en de NPO komt niet uit de lucht vallen. Harbers en Van der Land kennen elkaar sinds de installatie van Harbers als lector bij de Hogeschool Rotterdam, vertellen ze, en die kennismaking is vruchtbaar gebleken. “We hebben al eerder een onderzoeksproject gedaan middels een KIEM-regeling van Regieorgaan SIA. Toen hebben we middels een design challenge ook studenten betrokken bij vraagstukken vanuit de NPO. De opdracht was het aanbevelingsmechanisme van de toekomst te ontwerpen, waarna studenten allerlei oplossingen hebben bedacht om mensen uit de eigen bubbel te halen. De studenten helpen ons dan door heel veel ideeën te genereren, die wij vervolgens weer in overweging nemen bij het oplossen van echte vraagstukken.” 

Mede vanuit de eerdere samenwerking is het voorstel voor DRAMA geschreven. Ook bij dit project zullen studenten betrokken zijn, vertelt Harbers. “Er loopt een minor met een opdracht waarmee studenten een half jaar aan de slag zullen gaan. Ik zie die opdracht als onderdeel van het onderzoek; we gaan de uitkomsten van de opdracht natuurlijk bekijken en in overweging nemen.”  

Juist de aard van het praktijkgerichte onderzoek zorgt voor deze vruchtbare samenwerking, ziet de Rotterdamse lector. “Als hogeschool gebruiken we dit ook om onze opleidingen te verbeteren. Door nauw contact te hebben met de beroepspraktijk weten wij beter wat er speelt en waarop we studenten moeten voorbereiden. Andersom nemen onze studenten en onderzoekers de inzichten uit onze onderzoeken natuurlijk mee naar de beroepspraktijk.” 

Niet alleen onderzoekers en studenten van de Hogeschool Rotterdam hebben baat bij de samenwerking, ook voor de NPO is het dus profijtelijk, benadrukt Van der Land. “Wij willen het liefst zoveel mogelijk actuele, hoogwaardige kennis en inzichten over kunstmatige intelligentie tot ons nemen. Daarom werken we graag samen met kennisinstellingen en onderzoekers zoals Maaike, zodat we continu kennis blijven uitwisselen. Het is echt win-win. Als NPO hebben we ook de uitdaging het jongere publiek te bereiken, dus het is fijn dat zij meedenken over oplossingen en goede mediatoepassingen. Die frisse blik helpt ons enorm, of dat nu de vorm heeft van een student die bij ons data analyseert of van een project via een KIEM-regeling.” 

Technologie is niet neutraal 

Het onderzoek mag dan nog onbegonnen zijn, Harbers is overtuigd van de meerwaarde die het kan hebben. “Natuurlijk hopen we op concrete opbrengsten in de vorm van ethische instrumenten waar mediaorganisaties echt iets aan hebben, maar daarnaast hoop ik dat het aan de slag gaan met dit onderwerp binnen de organisaties leidt tot meer bewustzijn hieromtrent”, vertelt ze. “Ik denk dat daar al veel winst te behalen is; kunstmatige intelligentie is de technologie, maar die ontwikkelt zich alleen op basis van de programmering die mensen eraan meegeven. Het vraagstuk gaat dus niet alleen over technologie, maar evengoed over de mensen die ermee werken.” 


«
Schrijf je in voor onze nieuwsbrief
ScienceGuide is bij wet verplicht je toestemming te vragen voor het gebruik van cookies.
Lees hier over ons cookiebeleid en klik op OK om akkoord te gaan
OK