‘Gebrek aan ethische kaders voor AI bij mediaorganisaties is problematisch’

Nieuws | de redactie
12 oktober 2022 | Mediaorganisaties maken in toenemende mate gebruik van kunstmatige intelligentie. Bij de ontwikkeling daarvan ontbreekt het aan ethische kaders en richtlijnen, blijkt uit onderzoek van meerdere mediaorganisaties en de Hogeschool Rotterdam. Ethische beslissingen worden vaak door technici en ontwikkelaars op basis van gevoel gemaakt. Het gebruik van kunstmatige intelligentie heeft zo'n vlucht genomen dat HR-onderzoeker Oumaima Hajri pleit voor een innovatiepauze om eerst eens wat fundamentele vragen te beantwoorden.
Oumaima Hajri, onderzoeker bij de Hogeschool Rotterdam, presenteert de voorlopige onderzoeksresultaten tijdens de Dutch Media Week.

Het gebruik van kunstmatige intelligentie neemt toe. Dat zet het hoger onderwijs en de brede samenleving voor fundamentele en ethische vragen, bleek onlangs tijdens een symposium over praktijkgericht onderzoek bij de Hogeschool Rotterdam. Ook de mediawereld gebruikt steeds meer kunstmatige intelligentie en ook daar zet het organisaties voor vragen – bijvoorbeeld op het gebied van ethiek.  

Daarom begonnen onderzoekers van de Hogeschool Rotterdam een jaar geleden samen met onderzoekers van de HvA en de HU met een onderzoek naar verantwoorde toepassingen van kunstmatige intelligentie in mediaorganisaties. Aan dat tweejarige onderzoek, mogelijk gemaakt door een RAAK-subsidie van Regieorgaan SIA, doen verder vier mediaorganisaties en netwerkorganisatie Media Perspectives mee. Tijdens de Dutch Media Week werden vanuit Beeld & Geluid in Hilversum de eerste resultaten gepresenteerd.  

Ethische principes en tools 

De voornaamste onderzoeksresultaten moeten de vorm hebben van ethische tools zoals richtlijnen, afvinklijstjes, ontwerpmethodes, trainingen en prototypes, vertelde Oumaima Hajri, onderzoeker bij de Hogeschool Rotterdam. Bij mediaorganisaties zoals het deelnemende NPO speelt bijvoorbeeld de vraag in hoeverre het platform aan personalisatie moet doen. Het is daarbij zoeken naar een balans tussen enerzijds het gepersonaliseerd doorverwijzen naar programma’s die een gebruiker waarschijnlijk leuk vindt (wat gebeurt middels kunstmatige intelligentie) en anderzijds het voldoen aan de plicht van een publieke omroep om diverse inhoud aan te bieden. 

Bij inschrijving ga je akkoord met onze privacy-voorwaarden. Deze voorwaarden zijn hier te lezen.

De wekelijkse nieuwsbrief is nog korte tijd gratis te ontvangen. De voorwaarden vindt u hier.

Het ontbreekt mediaorganisaties echter aan richtlijnen en andersoortige hulpmiddelen om de vaak abstracte ethische principes zoals ‘diversiteit’ te vertalen naar de concrete praktijk waarin kunstmatige intelligentie wordt ontwikkeld. De onderzoekers zijn daarom begonnen met een empirische studie en een literatuurstudie.  

Gebrek aan gesprek tussen strategisch en technisch operationeel niveau 

In de empirische studie is middels veertien interviews met belanghebbenden in kaart gebracht hoe het überhaupt zit met de inbedding van ethiek in mediaorganisaties, welke projecten met kunstmatige intelligentie werken en hoe de verantwoordelijkheid belegd is. Zo bleek bijvoorbeeld dat ethiek vaak belangrijk wordt gevonden en dat er vaak over ethiek wordt gesproken op zowel strategisch als technisch operationeel niveau, maar dat deze gesprekken vaak niet bij elkaar komen.  

Tijdens de ontwikkelprocessen van kunstmatige intelligentie wordt er niet of nauwelijks gebruikgemaakt van ethische richtlijnen of tools. In de praktijk komt het erop neer dat de meeste ethische beslissingen worden genomen door technische teams of ontwikkelteams. Die baseren zich daarbij vooral op het eigen gevoel en niet op een vastgesteld kader.  

Lector Maaike Harbers van de Hogeschool Rotterdam wees al bij de start van het onderzoek op de moeilijkheid van dialoog tussen mensen op strategisch en op operationeel niveau. Een ethisch principe moet vaak heel precies gesteld worden voordat het in kunstmatige intelligentie kan worden verwerkt, maar die precisering vindt vaak ver bij de techniek vandaan plaats. “De technische ontwikkelaar weet dus niet goed wat de morele eisen zijn, en degene die dergelijke eisen wel kent, weet vaak niet precies hoe algoritmes werken”, aldus Harbers.  

Ethische kaders ontbreken 

Zolang kaders en richtlijnen ontbreken zal het heel lastig zijn om strategische intenties te vertalen naar de praktijk, legde Hajri uit. Daarom zochten de onderzoekers in de literatuur naar veelvoorkomende ethische principes en de ethische tools waarmee die principes kunnen worden vertaald naar de praktijk. Ten aanzien van die principes is een onderscheid tussen meer technische (bijvoorbeeld ‘privacy’ of ‘gegevensbescherming’) en meer sociale ethische principes (bijvoorbeeld ‘autonomie’ en ‘diversiteit’) gemaakt.  

Een principe zoals eerlijkheid kun je middels mathematische formules op ontiegelijk veel manieren vertalen. Zo blijft het dus altijd de vraag: voor wíe is het eerlijk?

De technische principes kwamen veel vaker voor in de literatuur, ontdekten de onderzoekers. Zo waren de principes ‘privacy’, ‘fairness’ en ‘accountability’ in tachtig procent van de gevonden richtlijnen opgenomen. “Die principes worden vaak aangeleverd door de big-tech bedrijven zoals Amazon en Facebook”, vertelde Hajri. Daarbij viel op dat ze vaak pas worden opgenomen nadat er een schandaal is geweest – bijvoorbeeld het schandaal met Cambridge Analytica in 2018. 

Daarnaast wordt vaak gepoogd om ethische principes in te passen in de mathematische formules waaruit kunstmatige intelligentie bestaat. Dat kan problematisch zijn, legde Hajri uit. “Een principe zoals eerlijkheid kun je middels mathematische formules op ontiegelijk veel manieren vertalen. Zo blijft het dus altijd de vraag: voor wíe is het eerlijk?” 

Gebrek aan tools voor sociale ethische principes 

Dan de ethische tools. Daarvan vonden de onderzoekers er meer dan 39. Echter, in geen van deze tools was externe controle ingebouwd. “Je hebt dan als bedrijf wel een ethische tool waarmee tijdens het ontwerpen en ontwikkelen moet worden gecontroleerd of alles conform bepaalde ethische principes is, maar uiteindelijk wordt dat niet extern geverifieerd. Vaak wordt dan gezegd dat een andere persoon binnen het bedrijf die controle uitvoert, maar je kunt je afvragen hoe neutraal dat is. Daarbij weten we dat technologie allesbehalve neutraal is. Hoe gezond is het dan als organisaties zelf die checks uitvoeren?”, aldus Hajri. 

Nadat de lijst van belangrijk geachte ethische principes naast de lijst met ethische tools werd gelegd, bleek dat niet alle principes zijn voorzien van corresponderende tools. De beschikbare tools zijn voornamelijk voor de vertaling van technische principes zoals ‘privacybescherming’ en ‘transparantie’ bedoeld. Voor de vertaling van sociale ethische principes zijn daarentegen weinig tot geen tools beschikbaar. “Als we in beschouwing nemen hoezeer kunstmatige intelligentie is ingebed in onze samenleving, is dat een problematische conclusie”, betoogde Hajri. 

Over welk soort intelligentie hebben we het eigenlijk? 

Het gebrek aan ethische tools, het gebrek aan externe controle en de pogingen om middels technological fixes vorm te geven aan ethische principes geven volgens de onderzoekers aan dat er nog veel werk aan de winkel is. Komt het puntje bij het paaltje, dan zijn het de waarden van ontwikkelaars en technici te zijn vanwaaruit ethische beslissingen worden gemaakt bij de ontwikkeling van kunstmatige intelligentie. Volgens Hajri is dat ‘engineering perspective’, waarbij ethiek alleen aan het begin of aan het eind van een ontwikkelproces vragen oplevert, een probleem.  

Als we bezien hoe groot de sociaalmaatschappelijke impact hiervan is, zijn we veel te laat met aan de bel trekken

“Dat iets mogelijk is, zegt niet dat het wenselijk is. In de architectuur ga je niet meteen bouwen nadat je een schets en een 3D-model hebt gemaakt en vervolgens maar aankijken of het gebouw instort of niet. Daar zijn checks and balances, iets wat we niet zien bij de kunstmatige intelligentie-toepassingen die we bouwen. Als we bezien hoe groot de sociaalmaatschappelijke impact hiervan is, zijn we veel te laat met aan de bel trekken”, aldus Hajri. 

Misschien moeten we eens een tijdje stoppen met innoveren en in plaats daarvan achtergebleven zaken rechttrekken, oppert ze. “We zijn nu zo ver gekomen dat we de facto denken technologie nodig te hebben voor innovatie. Is dat wel zo, als je kijkt naar de dehumanisering die daarbij komt kijken? En we hebben het steeds over kunstmatige intelligentie, maar welk soort intelligentie is dat dan? En als we het over human centered artificial intelligence hebben, voor welke human is dan gekozen? Wat mij betreft wachten we de komende jaren even met innoveren en gaan we eerst op zoek naar antwoorden op deze vragen. Innovatie moet gepaard gaan met sociale inclusie.” 


«
Schrijf je in voor onze nieuwsbrief
ScienceGuide is bij wet verplicht je toestemming te vragen voor het gebruik van cookies.
Lees hier over ons cookiebeleid en klik op OK om akkoord te gaan
OK