Racisme in software: hoogleraar Ghebreab waarschuwt er al jaren voor
Een student van de Vrije Universiteit Amsterdam (VU) stapt naar het mensenrechtencollege: de ‘antispieksoftware’ van de universiteit herkende haar niet als mens omdat ze zwart is. Voor ‘ingebouwde ongelijkheid’ waarschuwt neuro-informaticus Sennay Ghebreab al jaren. ‘De draaideur opende wel voor mijn witte collega’s, maar niet voor mij.’
Dit artikel krijg je cadeau van OneWorld.
Word abonnee
Het begon met een draaideur in 2005 op het Amsterdamse Science Park, de werkplaats van neuro-informaticus en hoogleraar aan de Universiteit van Amsterdam Sennay Ghebreab. Die deur draaide open voor zijn collega’s, maar niet voor hem. Zij waren allemaal wit, hij is zwart. Hij vermoedde dat het algoritme van de draaideur hem, vanwege zijn donkere huidskleur, niet herkende als mens. Het incident prikkelde hem om te onderzoeken of algoritmes door mensen gecreëerde ongelijkheid, zoals racisme, versterken.
Sennay Ghebreab (1973) is neuro-informaticus aan de Universiteit van Amsterdam, hoofd Sociale Wetenschappen aan het Amsterdam University College en visiting fellow Diversiteit en Inclusie aan de Vrije Universiteit van Amsterdam. Naast zijn nevenactiviteiten voor de Stichtingen Boost en Civic is hij initiatiefnemer van het Civic AI Lab, een onderzoekslab in oprichting gericht op kunstmatige intelligentie. Vanwege de oorlog in Eritrea vluchtte hij in 1979 met zijn familie naar Nederland.
Een eerdere versie van dit interview verscheen in OneWorld Magazine in september 2019.
“Er worden steeds meer algoritmes gebruikt voor producten met sensoren”, zegt hij in een werkkamer op de derde verdieping van het Amsterdam University College. “Neem de zelfrijdende auto: als zwart persoon heb je méér kans om te worden aangereden door een zelfrijdende auto dan een niet-zwart persoon, omdat het systeem moeite heeft je als mens te herkennen. Of het incident met een zeepdispenser waarbij de lichtsensor in het apparaat donkere handen niet herkende. Steeds meer objecten krijgen ogen, een mening, en de mogelijkheid om een beslissing te nemen.”
“En als die objecten aangestuurd worden door algoritmes die mogelijk discriminerend zijn, dan worden mensen ineens blootgesteld aan een arsenaal van objecten die hetzelfde soort gedrag vertonen.” Deze week kwam daar een nieuw incident bij dat landelijke bekendheid verwierf: een zwarte student van de Vrije Universiteit Amsterdam stapt naar het College van de Rechten van de Mens omdat de ‘antispieksoftware’, die haar universiteit bij tentamens gebruikte, haar niet als mens herkende vanwege haar donkere huid.
“
Voorspellende algoritmes worden gebruikt om in te schatten of je een goede werknemer zult zijn
In onze informatiesamenleving zijn voorspellende algoritmes alomtegenwoordig, van banken en zorginstellingen tot de keuzesuggesties van Netflix of de navigatieservice TomTom. Een algoritme is geen geheimzinnige wiskundige formule, zegt Ghebreab. “Het is in essentie een set van regels of instructies die berekenbaar zijn. In een algoritme kun je met behulp van codes, iets stap voor stap uitvoeren, om een bepaald doel te bereiken.” Het concept van een algoritme in de wiskunde is geen recente uitvinding, maar heeft een rijke geschiedenis. “De etymologie van het woord algoritme is terug te leiden naar de Perzische wetenschapper en vader van de algebra uit de achtste eeuw, Mohammed ibn Moesa al-Chwarizmi. Algebra is een belangrijk element in het ontwikkelen van modellen in algoritmes.”
Ter illustratie verwijst Ghebreab naar het opsporingssysteem SyRI (niet te verwarren met spraakherkenningssysteem Siri). Het computersysteem werd in 2018 in de relatief arme Rotterdamse wijken Hillesluis en Bloemhof stiekem gebruikt om mogelijke fraude met bijvoorbeeld uitkeringen en toeslagen te achterhalen. “Algoritmes wezen zo wijken aan met een verhoogde kans op fraude. De bewoners werden bij voorbaat gewantrouwd op basis van een rekenmodel. Zo vererger je sociale ongelijkheid.” De ingevoerde data in SyRI bevatten vooroordelen, en doordat het algoritme alleen een specifiek patroon herkent en geen context ziet, worden bewoners met een zwakke sociaaleconomische achtergrond of migratieachtergrond benadeeld.
Vicieuze cirkel
Hoe meer algoritmes worden toegepast in de samenleving en het bedrijfsleven, des te meer invloed voorgeprogrammeerde vooroordelen hebben op ons dagelijks leven. Met als gevolg dat meer incidenten voorkomen door vooringenomenheid van algoritmes. Voorspellende algoritmes worden ook gebruikt om in te schatten of je een goede werknemer zult zijn, een financiële last voor een verzekeringsmaatschappij, en of je toegang zou moeten krijgen tot voortgezet onderwijs. “In Amsterdam ontstaat de verdeling van kinderen die van de basisschool naar de middelbare school gaan op basis van algoritmes.”
De schoolvoorkeuren van leerlingen worden gebruikt in een matching- en lotingsysteem. Leerlingen stellen een voorkeurslijst op, maar het systeem maakt bijvoorbeeld ook gebruik van voorrangsregels waarbij een leerling eerder wordt geplaatst op zijn of haar voorkeursschool indien het kind familie is van zittende leerlingen of omdat ze van een basisschool komen met een bepaald onderwijsconcept. “Het idee is dat leerlingen gelijk verdeeld worden, maar het kan onbedoeld leiden tot ongelijkheid en zelfs segregatie van scholen.”
“
Algoritmes hebben zelf geen intenties, maar de makers die ze ontwikkelen wél
Algoritmes hebben zelf geen intenties, maar de makers die ze ontwikkelen wél. De discriminatie en het racisme die sommigen proberen te bestrijden, kan zo onbewust toch in de algoritmes worden ingebakken. Dit komt volgens Ghebreab doordat data gebruikt worden die niet representatief zijn voor verschillende bevolkingsgroepen in de samenleving. Als van bepaalde groepen geen data is ingevoerd, kan het systeem dat niet herkennen: wat je niet invoert, kent het niet.
Andersom kan een maker door (bewust of onbewust) bepaalde data wel of niet in te voeren, het systeem sturen. “De Amsterdamse hoogleraar aan het Amsterdams Medisch Centrum, Bart Biemond, vraagt meer aandacht voor de sikkelcelziekte, die voornamelijk bij zwarte mensen voorkomt. Het is een groot probleem waar relatief gezien weinig onderzoeksfinanciering voor bestaat. Als je medische algoritmes ontwikkelt om een diagnose te stellen, maar bij de bouw van het algoritme data over zwarte mensen niet meeneemt, dan beïnvloed je de uitkomst. Je creëert ongelijkheid in de gezondheidszorg.”
Wie neemt verantwoordelijkheid?
De dilemma’s die opduiken in onze algoritmische wereld ontstaan dus doordat computers het menselijk handelen steeds meer overnemen. Ghebreab is een voorstander van transparantie en verantwoordelijkheid in artificial intelligence (AI), ofwel kunstmatige intelligentie. “In AI heb je input, algoritmes en output. ‘Welke input wordt gekozen?’, ‘Hoe is de output nu gecreëerd?’ ’Waarom wordt een bepaalde beslissing gemaakt?’ ‘Hoe heeft de boom van beslissingen geleid tot de uitkomst?’ Het is belangrijk te kunnen traceren waarom nu deze beslissing voor jou is genomen.” Het gaat er dus om dat makers en bedrijven AI creëren die voor de burger transparant is. Het moet inzichtelijk worden waarom een op AI gebaseerd besluit is gevormd. Daarnaast dienen overheid en bedrijven verantwoordelijkheid te nemen voor de op AI gebaseerde keuzes.
Burgers moeten volgens Ghebreab ook bewuster omgaan met hun persoonlijke data. “De basis van algoritmes is data. Zonder data kun je wel een algoritme maken, maar die kan nergens op acteren of van leren. Wij geven dagelijks zelf allemaal data weg en vrij. Dit doen we vrijwillig via sociale media, of on vrijwillig, als we ergens op straat lopen en we door een camera worden opgemerkt. Als je je daar als burger niet bewust van bent en op inspeelt – als je niet opvraagt wat er met je data gebeurt en hoe dat jou beïnvloedt – dan gaan overheid en bedrijven ermee aan de haal. De macht die burgers hebben, is veel groter dan ze zelf denken.”
Algoritmes hebben geen moraal
Ghebreab wil technologische groei combineren met sociale inclusie. Dit kan wanneer activisten en mensen uit gemarginaliseerde groepen digitaal geletterd en gecijferd raken om zichzelf te beschermen tegen mogelijke onderdrukking en racisme door computersystemen. “Digitale geletterdheid is voor mij het om kunnen gaan met al bestaande digitale middelen (Excel-training op scholen, training met en inzicht in sociale media, red.). Digitale gecijferdheid zou je de volgende stap kunnen noemen, waarin je leert hoe algoritmes werken en hoe je ze kunt coderen. Het onderscheid is belangrijk want in het publieke domein wordt enkel de digitale geletterdheid gepromoot. Digitale gecijferdheid gaat om algoritmisch denken, doen en ontwikkelen.”
“
Algoritmes zijn zich niet bewust van de sociaalculturele context
Abstracte concepten zoals eerlijkheid, privacy en ethiek hebben hun wortels in de filosofie. Maar algoritmes zijn zich niet bewust van de sociaalculturele context. Er zijn oplossingen in de AI nodig die rekening houden met dergelijke waarden. Ghebreab: “In de afgelopen vijf jaar zijn er verscheidene internationale onderzoeksgroepen bezig met de ontwikkeling van nieuwe meetmethoden die rekening houden met de diversiteit aan en ervaringen van mensen. In deze nieuwe algoritmische wereld zijn velen aan het nadenken over de vraag ‘wat is eerlijkheid?’” Ghebreab gesticuleert met zijn handen om zijn punt te benadrukken. “Door deze basale vraag zitten we eigenlijk opnieuw aan de tekentafel. En het zijn vooral de grote techbedrijven die aan het hoofd van deze tafel zitten.
Omdat zij vooral naar hun eigen verdienmodel kijken, is het belangrijk om deze vraag niet alleen bij bedrijven en de overheid neer te leggen, maar ook bij de burger, bij iedereen. Als de burger daarin niet mee wil veranderen, mee wil denken, mee wil ontwikkelen; dan blijft die een speelbal van grote bedrijven.”
Het systeem voeden
Hoe kunnen we algoritmes dan vóór ons laten werken? “Oké, als we weten hoe algoritmes werken, waarop ze acteren, dan moeten we ze voeden met data die de burger verder helpen. Nu zijn het meestal overheidsinstanties die data verzamelen. Dat zijn gestructureerde data, demografische data, onderwijsdata, sensorische data. Dit gebeurt dus top down. Wat ontbreekt is een bottum up push van data, ofwel de community stories. Dit zijn verhalen uit de samenleving die een heel ander perspectief geven op een onderwerp als integratie. Dit is een reden dat ik het Civic AI Lab opzet om vanuit de gemeenschap het systeem te voeden met verhalen die anders het systeem niet binnenkomen. Met deze verhalen kan het systeem andere perspectieven krijgen.”
“
Steeds meer kwetsbare groepen worden benadeeld door algoritmes
Sociale media worden door activisten ingezet als mechanisme om racisme en bestaande machtsstructuren te doorbreken. Het kan een effectief middel zijn, maar in Ghebreabs visie is de huidige werkwijze niet voldoende. “Als het erom gaat een inclusieve samenleving te creëren, zie ik vaak dat bij minderheidsgroepen de perceptie bestaat: eerst het gevecht in het sociale domein voor vrijheid, gelijkheid en rechtvaardigheid; en als dat opgelost is, dan kunnen we andere problemen oppakken. Terwijl er nu parallelle werelden ontstaan zijn: de fysieke wereld en de digitale wereld. Dat is de boodschap die ik mee wil geven: de wereld is heel snel aan het veranderen en steeds meer kwetsbare groepen worden benadeeld door algoritmes. Omdat mensen meestal pas in actie komen als ze zelf worden getroffen, spoort het mensen hopelijk aan bewuster met hun data omgaan.”
Eerlijke algoritmes
Voordat algoritmes rekening kunnen houden met de diversiteit aan ervaringen van alle groepen in de samenleving, zijn er volgens Ghebreab nog flink wat verbeteringen nodig.
Als eerste moeten verborgen vooroordelen in historische data opgespoord en gecorrigeerd worden, en nieuwe data moeten voortaan representatief zijn voor álle bevolkingsgroepen.
Ten tweede is het belangrijk dat makers, gebruikers en toezichthouders in alle opzichten divers zijn, dus ook in gender, achtergrond en kleur. De kennis over artificiële intelligentie moet via het onderwijs vergroten.
Verder moet de burger inzicht hebben in hoe een algoritme beslissingen neemt, en daar invloed op kunnen hebben.
Tot slot moet de overheid de openheid, eerlijkheid en betrouwbaarheid van algoritmes waarborgen.
De neuro-informaticus wil dat burgers en online activisten data inzetten om de kans op racisme en discriminatie door machines bij de kern aan te pakken. “Als je discriminatie in Nederland wilt aanpakken, ga dan tactisch te werk.” Hij noemt als voorbeeld het recente wetenschappelijke onderzoek naar arbeidsmarktdiscriminatie. Uit het onderzoek kwam naar voren dat sollicitanten met een migratieachtergrond 40 procent minder kans hadden op een reactie van een mogelijke werkgever. “Door het bijhouden van sollicitaties, afwijzingen en discriminatie door overheidsinstellingen kon men discriminatie in kaart brengen, meten en in statistieken bijhouden. Dat werkt beter dan online activisme op sociale media die niet door data wordt ondersteund. Dus gebruik statistieken om dergelijke onderwerpen bloot te leggen. Of beter nog: ontwikkel algoritmes die dit voor je doen. Wat meetbaar is, moet je op tafel leggen.”
“
Maak de strijd voor gelijkheid niet een emotionele strijd, maar een datagedreven strijd
Hij voegt er gedecideerd aan toe: “Het gevaar is dat je jezelf verliest in de emotie, en dan ben je de speelbal van anderen. Maak de strijd voor gelijkheid niet een emotionele strijd, maar een datagedreven strijd.” In de komende periode richt Ghebreab zich op de oprichting van zijn AI onderzoekslab. “Iedereen kan participeren op de manier die hij of zij wil of kan. De missie is dan: ‘Hoe kunnen we algoritmes ontwikkelen om een eerlijkere wereld mogelijk te maken?’ Vanuit het oogpunt dat we in deze diverse samenleving de verschillen tussen mensen juist moeten omarmen en daarop moeten bouwen. Anders wordt het straks in de door techbedrijven geleide wereld een grote eenheidsworst. Allemaal mensen die hetzelfde denken en doen.”
Een eerdere versie van dit artikel verscheen op OneWorld.nl op 4 juni 2020, en in het magazine in september 2019.
Deze site maakt gebruik van cookies om u een optimale bezoekerservaring te bieden en onze site te verbeteren. AccepterenInstellingen
Cookiebeleid
Overzicht cookies op oneworld.nl
We verzamelen via cookies gegevens met het doel de technische werking van de website en uw gebruiksgemak te garanderen. De cookies (kleine tekstbestanden die bij het eerste bezoek aan deze website worden opgeslagen op uw computer, tablet of smartphone) zorgen ervoor dat de website naar behoren werkt en onthouden bijvoorbeeld uw voorkeursinstellingen. Ook kunnen wij hiermee onze website optimaliseren.
Hiervoor gebruiken wij cookies van Google Analytics, dat het sitegebruik geanonimiseerd registreert en hiervan gegevens opslaat. Met deze gegevens maken wij bezoekstatistieken, op basis waarvan we verbeteringen doorvoeren op onze website. Google Analytics verschaft deze geanonimiseerde data aan derden indien wettelijk verplicht, of als deze derden de data namens Google Analytics verwerken. Door gebruik te maken van deze website geeft u toestemming voor deze anonieme gegevensverwerking door Google Analytics.
Daarnaast gebruiken we functionele cookies van WordPress en WooCommerce. De cookies van WordPress zorgen ervoor dat de website beter kan worden gebruikt door bezoekers. Deze cookies zorgen er bijvoorbeeld voor dat u kunt zien of u bent ingelogd, ze houden ook bij welke individuele voorkeuren u hebt gekozen op uw profielpagina. De cookies van WooCommerce zijn van onze betaalde diensten (Vriendenabonnement, Vacaturebank, Partnernetwerk, Online agenda) en zorgen ervoor dat producten worden onthouden tijdens het aankoopproces. Elke aankoopsessie bij WooCommerce bevat een unieke code voor elke klant, zodat er kan worden achterhaald waar de productgegevens voor elke klant te vinden zijn.
Via deze cookiebalk krijgt u de mogelijkheid om de cookies te accepteren of de instellingen aan te passen. Onder 'Overige cookies' kunt u diverse cookies van externe diensten (zoals youtube, facebook, vimeo) uitzetten.
Een opt-out van Google Analytics op deze website kan via deze link.
Mocht u hierover vragen hebben, kunt u mailen naar: lezers@oneworld.nl
Op deze site gebruiken we functionele cookies van WordPress en WooCommerce. De cookies van WordPress zorgen ervoor dat de website beter kan worden gebruikt door bezoekers. Deze cookies zorgen er bijvoorbeeld voor dat u kunt zien of u bent ingelogd, ze houden ook bij welke individuele voorkeuren u hebt gekozen op uw profielpagina. De cookies van WooCommerce zijn van onze betaalde diensten (Vriendenabonnement, Vacaturebank, Partnernetwerk, Online agenda) en zorgen ervoor dat producten worden onthouden tijdens het aankoopproces. Elke aankoopsessie bij WooCommerce bevat een unieke code voor elke klant, zodat er kan worden achterhaald waar de productgegevens voor elke klant te vinden zijn. Deze cookies kunt u niet uitzetten.
In onze artikelen gebruiken wij content van diverse externe diensten. Het is mogelijk om de volgende cookies uit te schakelen. Hiermee wordt deze content niet langer getoond.
Naam cookie
Soort content
youtube_embed
Youtube player embed
vimeo_embed
Vimeo player embed
google_maps
Google maps embed
twitter_widget
Twitter social widget
soundcloud_embed
Soundcloud player embed
instagram_embed
Instagram embed
Daarnaast gebruiken we Google reCaptcha om de website te beschermen tegen bots. Ook dit kan hier uitgezet worden, maar formulieren die hiervan gebruik maken kunnen dan niet ingediend worden