Mede dankzij deze surveillance kan China de Oeigoeren niet alleen op afstand volgen, maar ze ook vervolgen en arresteren: als er in een wijk in een van de welvarende Chinese steden veel Oeigoeren worden gesignaleerd, kan dat een aanleiding zijn voor politiecontroles. Zelfs het dragen van een baard of het lezen van de Koran is dan al reden voor opsluiting in een van de honderden strafkampen voor Oeigoeren in China, waarvan er de laatste drie jaar 380 zijn bijgebouwd, zo blijkt uit een analyse van satellietbeelden door de Australische denktank Australian Strategic Policy Institute (ASPI). Op dit moment zitten meer dan een miljoen mensen in die kampen, van de elf miljoen Oeigoeren die in China wonen.
“China wil kunstmatige intelligentie voeden met DNA van individuele Oeigoeren
Wat deze vervolging met behulp van A.I. extra bedreigend maakt, is dat China volgens experts uiteindelijk kunstmatige intelligentie wil voeden met DNA van individuele Oeigoeren, zo meldt The New York Times. A.I. kan nu al op basis van DNA een ruwe schets maken van een gezicht, maar in de toekomst moet dat zodanig geperfectioneerd zijn dat er een match mogelijk wordt tussen een dergelijk beeld en een individu. Vervolgens kan zo’n persoon opgespoord worden via de camera’s overal in het land. Dat kan gaan om verdachten van criminele activiteiten, maar net zo goed om dissidenten.
Nu al is China bezig een DNA-databank van Oeigoeren aan te leggen. Zij worden in de kampen daarom steeds vaker verplicht om bloed af te geven, wat ze niet kunnen weigeren omdat het deel uitmaakt van een verplicht gezondheidsonderzoek. Daarmee druist deze bloedafname ook in tegen het mensenrecht dat je zelf mag bepalen wat er met je lichaam gebeurt.
Predictive policing in Roermond
“Camera's in Roermond slaan alarm bij auto's met een Oost-Europees kenteken
Het kwalijke hieraan is dat het principe van onschuld, de basis van onze rechtstaat, wordt losgelaten. Mensen worden niet als verdacht beschouwd vanwege hun daden, maar omdat ze vanwege bepaalde kenmerken – zoals een type nummerplaat – als hoog risico worden gezien. Het idee is dat hun profiel erop wijst dat ze mogelijk een misdaad zullen begaan.
Dit algoritme stelt geen misdaden vast, maar voorspelt ze. Daarmee is het Sensing-project een voorbeeld van predictive policing, een trend die zich wereldwijd steeds meer aan het ontwikkelen is, waarbij de nieuwe digitale technologie een flinke aanjager is.
“Vooroordelen worden ook nog eens versterkt door het algoritme, een groot gevaar van A.I.
Wat het algoritme van het Sensing-project nog onrechtvaardiger maakt, is dat deze bias ook nog eens wordt verstérkt door dat algoritme – dat is een gevaar van A.I. dat vaker voorkomt, en dat vaak mensen in moeilijke posities treft. In Roermond gebeurt het doordat de ‘false positives’ ook in de politiedatabase worden gezet: ook als mensen met een Oost-Europees kenteken onschuldig blijken te zijn, worden hun profielen gebruikt om het algoritme verder te ontwikkelen. Daardoor gaat zo’n kenteken steeds zwaarder wegen in het bepalen of iemand een potentiële crimineel is.
Een bijkomend gevaar van de ontwikkeling van dit soort technologieën in Nederland is dat die mogelijk worden geëxporteerd naar landen waar de mensenrechten (meer dan hier) onder druk staan. Dat gevaar geeft Nederland een extra verantwoordelijkheid. Een stadsbestuur moet zich er rekenschap van geven dat Nederlandse steden door techbedrijven soms als proeftuin worden gebruikt. Neem het ‘living lab’ Eindhoven, waar veel sensoren, van agressie- tot geluidsmeters, zijn geplaatst om Eindhovenaren in het uitgaansleven te volgen.
“De kans is groot dat Nederlandse producten bijdragen aan mensenrechtenschending in China
De mogelijkheid dat een Nederlands bedrijf ook daadwerkelijk technologie verkoopt, is niet alleen hypothetisch. Zo meldt NRC Handelsblad dat het Nederlandse bedrijf Noldus producten voor digitale surveillance verkocht aan het Chinese ministerie voor Openbare Veiligheid – en ook aan universiteiten in Xinjiang, de regio waar de Oeigoeren wonen. Volgens Amnesty International, dat hier onderzoek naar deed, is de kans groot dat de producten van het Nederlandse Noldus bijdragen aan mensenrechtenschendingen in de regio.
Mismatch
“Mensen van kleur zijn aanzienlijk vaker slachtoffer van foutieve matches
De onterechte arrestatie van Williams maakt duidelijk dat A.I. een eigen werkelijkheid creëert, waar je als mens soms maar weinig invloed op kunt uitoefenen. De agenten hadden in het geval van Williams geen goed politieonderzoek gedaan, maar zich vooral gebaseerd op ondeugdelijke gezichtsherkenningssoftware. Lang niet altijd berust dat vertrouwen in technologie op een gebrek aan inzet, of zelfs op kwaadwillendheid. Bekend is dat dit soort technologie een dwang kan uitoefenen op mensen, ze hebben de neiging om de uitkomsten ervan te gehoorzamen.
Daarom staat in verschillende richtlijnen voor A.I., onder meer in Ethische richtsnoeren voor betrouwbare KI van een deskundigengroep van de Europese Commissie, dat ervoor gezorgd moet worden dat mensen die met A.I. werken geen overmatig vertrouwen krijgen in de uitkomsten. Dat kan door bewustwording te vergroten, bijvoorbeeld door trainingen te geven aan deze mensen.
“We moeten ons afvragen: zet algoritme aan tot mensenrechtenschending?
Dit artikel verscheen eerder in OneWorld Magazine.
Verder lezen?
Rechtvaardige journalistiek verdient een rechtvaardige prijs.
Maak jij OneWorld mogelijk?
Word abonnee
- Digitaal + magazine — € 8,00 / maand
- Alleen digitaal — € 6,00 / maand