“Ik heb genoeg van het stereotype dat IT’ers witte jonge mannen zijn”

Verslag | door Toske Andreoli
2 december 2019 | Discriminerende algoritmen zijn geen buitenaardse wezens, ze zijn gebaseerd op de data die mensen aanleveren. “Als die data het resultaat zijn van sociale vooroordelen en ongelijkheden, dan zal het algoritme die gaan reproduceren.” Een verslag van het Digital Society congres van de VSNU.
Sennay Ghebreab met Sally Wyatt, coördinator van Digital Society – Foto René de Gilde

Dinsdag 26 november was het tweede jaarlijkse Digital Society congres van de VSNU. In dit onderzoeksprogramma werken wetenschappers van de veertien Nederlandse universiteiten samen aan de maatschappelijke vraagstukken die ontstaan door de opkomst van de digitale samenleving. Het voorkomen dat digitalisering bepaalde bevolkingsgroepen buitensluit loopt als een rode draad door het programma.

Algoritmen kunnen discrimineren

Een van de hoofdsprekers is neuro-informaticus Sennay Ghebreab (Universiteit van Amsterdam), initiatiefnemer van het Civic AI lab. Hij schetst het schrikbeeld dat velen hebben bij kunstmatige intelligentie. ‘AI’ – de veelgebruikte Engelse afkorting voor kunstmatige intelligentie – zou leiden tot massale werkloosheid, sociale onrust en mensen zouden hun autonomie verliezen. Niet noodzakelijk, zegt Ghebreab: “Hoe kunstmatige intelligentie onze samenleving zal beïnvloeden, hangt af van hoe goed AI in staat zal zijn om menselijke waarden en diversiteit te omarmen.”

De voorspelde werkeloosheid door robotisering blijft uit

Algoritmen kunnen discrimineren. Ghebreab noemt het risicoprofileringssysteem SyRI dat de Nederlandse overheid gebruikt om uitkeringsfraude te detecteren, dat later die week een Big Brother Award wint. SyRI selecteert met name arme mensen met een migratieachtergrond als mogelijke fraudeurs, alleen omdat ze in een bepaalde buurt wonen. Het algoritme herkent patronen in de data die het aangeleverd krijgt. “Als die data het resultaat zijn van sociale vooroordelen en ongelijkheden, dan zal het algoritme die gaan reproduceren.”

De reactie is vaak om de algoritmen te controleren en reguleren. Ghebreab: “Alsof het buitenaardse wezens zijn die getemd moeten worden.” De Europese Commissie stelt bijvoorbeeld dat data gezuiverd moet zijn van sociale vooroordelen voordat algoritmen ervan mogen leren. Goed bedoeld, vindt Ghebreab, maar het is niet genoeg. “Het is ten eerste vaak onmogelijk. Maar belangrijker nog: het leidt af van de oorzaak van bevooroordeelde algoritmen. De echte oorzaak is maatschappelijke ongelijkheid en een gebrek aan diversiteit in private en publieke organisaties.”

AI-experts zijn meestal man

“Volgens het AI Now Institute in New York is tachtig procent van de AI-docenten aan alle universiteiten ter wereld man. Bij Facebook is vijfentachtig procent van de AI-experts man, en bij Google negentig. En met de etnische diversiteit is het nog slechter gesteld: Slechts twee en een half procent van de AI-experts bij Google is zwart, bij Facebook en Microsoft vier en een half.” Discriminerende algoritmen en het gebrek aan diversiteit in de kunstmatige intelligentie hangen samen, maar worden meestal apart aangepakt. Een meer diverse werkvloer kan juist helpen om problematische algoritmen aan te pakken, vindt Ghebreab.

Technologiebedrijven herkennen beide problemen en schrijven vele rapporten over diverse data, diversiteit in mensen, diversiteit in perspectieven. Toch lijkt dat nog niet veel effect te hebben, ook niet in andere werkgebieden, ziet Ghebreab. “Het is net alsof alle aandacht en alle nadruk op diversiteit een illusie van betrokkenheid en inclusie creëert. Er is niet te weinig divers talent, maar een onvermogen om een omgeving te creëren waarin diverse talenten worden herkend, aangetrokken en behouden. Als getalenteerde mensen met een migratieachtergrond eenmaal zijn aangetrokken, voelen ze zich als symbool van diversiteit behandeld, terwijl hun talenten te weinig gebruikt worden.”

En daar zit de kern van het probleem, zegt de UvA-wetenschapper. Grote techbedrijven zijn niet in staat een inclusieve omgeving te creëren zolang hun business model voorop staat. Publieke kunstmatige intelligentie moet volgens Ghebreab daarom door diverse, interdisciplinaire teams gecreëerd worden, in samenwerking met bedrijven, het maatschappelijke middenveld en plaatselijke gemeenschappen. Want ethisch verantwoorde kunstmatige intelligentie ontstaat niet zomaar. “Inclusie leidt tot ethiek, ethiek leidt niet per se tot inclusie.”

Laagdrempelig IT-onderwijs

Om de talentpoel te vergroten en verrijken, zouden ook gemarginaliseerde groepen mee moeten doen. Daarvoor is laagdrempelig onderwijs in kunstmatige intelligentie nodig, vindt Ghebreab. De andere hoofdspreker van de middag zet zich daar voor in. David Giron is directeur van Codam Coding College in Amsterdam, waar je kunt leren programmeren. Studenten doorlopen niveaus in hun eigen tempo, er zijn geen docenten, en de school is vierentwintig uur per dag en zeven dagen per week open. Het kost niets om aan Codam te studeren: de school wordt volledig door partners gefinancierd. Iedereen ouder dan 18 jaar, ongeacht vooropleiding, komt in aanmerking.

Op deze manieren moet de drempel zo laag mogelijk blijven voor zoveel mogelijk soorten mensen. Een belangrijke doelstelling van de school is de genderongelijkheid in de IT tegengaan. In Nederland is slechts tien procent van de IT-medewerkers vrouw. “Ik heb genoeg van het stereotype dat IT’ers witte jonge mannen zijn die in de kelder van hun ouders wonen”, aldus Giron.

Toske Andreoli : 

ScienceGuide is bij wet verplicht je toestemming te vragen voor het gebruik van cookies.

Lees hier over ons cookiebeleid en klik op OK om akkoord te gaan

OK