Home Opinie Kunstmatige intelligentie moet in de pas marcheren van mensenrechten

Kunstmatige intelligentie moet in de pas marcheren van mensenrechten

Bron: Pixabay.

Nederland wil graag een voorloper zijn in het gebruik van kunstmatige intelligentie in militaire situaties. Deze technologie kan echter leiden tot racisme en discriminatie. In een open brief roepen critici op tot een moratorium op het gebruik van kunstmatige intelligentie. Initiatiefnemer Oumaima Hajri legt uit waarom.

Op 15 en 16 februari was er in Nederland een internationale conferentie over verantwoordelijk gebruik van kunstmatige intelligentie in het militaire domein. Vanuit de hele wereld kwamen onderzoekers, beleidsmakers en bedrijfsleven bijeen om elkaar te inspireren, ervaringen te delen en toe te werken naar concrete toepassing van kunstmatige intelligentie. Denk aan zogenaamde killer robots, autonome wapensystemen die een ‘doelwit’ kunnen selecteren en aanvallen zonder betekenisvolle menselijke controle.

Misschien klinkt zo’n conferentie als een goede investering die Nederland helpt om een vooruitstrevend en verantwoord hightech land te worden. Het is algemeen bekend dat kunstmatige intelligentie onze wereld fundamenteel heeft veranderd. Zoals minister Wopke Hoekstra van Buitenlandse Zaken terecht aangeeft, vormt deze technologie een van de grootste toekomstige uitdagingen op het gebied van internationale veiligheid en wapenbeheersing. De praktijk blijkt echter weerbarstiger dan de intentie achter deze tweedaagse bijeenkomst.

Ten eerste leunde deze conferentie op ‘technosolutionisme’: het zoeken van technologische oplossingen voor technologische problemen. De overheid wil instituties, die de burger moeten beschermen, bewapenen met kunstmatige intelligentie, terwijl diezelfde instituties kampen met onder andere institutioneel racisme. Dat is schadelijk zoals bijvoorbeeld blijkt uit onderzoek van antidiscriminatiebureau Controle Alt Delete naar predictive policing. Dit technologische instrument om de inzet van politie effectiever, slimmer te laten verlopen, blijkt het risico op etnisch profileren te vergroten. Hoe kunnen we de overheid dan nog vertrouwen?

‘Er is weinig aandacht voor maatschappelijke gevolgen van de inzet van deze technologie’

Ten tweede wees de inhoud van deze conferentie op het gebrek aan zelfreflectie bij de overheid als het gaat om (militaire) kunstmatige intelligentie. Op basis van het verleden moet Nederland heel kritisch zijn en leren van gemaakte fouten als het gaat om ethiek en mensenrechten in relatie tot dit type technologie. Denk alleen al aan de Toeslagenaffaire waarbij de Belastingdienst data en algoritmes gebruikte om aanvragen te beoordelen op potentiële fraude. Ook moet vooraf al duidelijk zijn wie verantwoordelijk is voor gevolgen van militaire kunstmatige intelligentie én waar benadeelde burgers terecht kunnen.

Gemarginaliseerde groepen

Het overkoepelende probleem lijkt dat kunstmatige intelligentie wordt ontwikkeld onder het mom van zogenaamde neutraliteit van data en technologie. Daardoor is er weinig aandacht voor maatschappelijke gevolgen van de inzet van deze technologie, zoals racisme, discriminatie en uitsluiting. Een reflectieve overheid zou als het gaat om militaire kunstmatige intelligentie de mensenrechten centraal stellen. De stemmen van gemarginaliseerde groepen willen horen. Zij gaan immers de meeste impact voelen van deze ontwikkelingen.

Het is echter duidelijk dat de Nederlandse overheid enkel en alleen focust op haar positie op het geopolitieke toneel. Nederland kan wel claimen verantwoorde inzet van kunstmatige intelligentie belangrijk te vinden, maar zet mensenrechten op de tweede plaats en dat is onverantwoord.

Daarom pleit een alliantie van mensenrechtenorganisaties in een open brief aan het ministerie van Buitenlandse Zaken voor een stop op de ontwikkeling en gebruik van militaire kunstmatige intelligentie totdat er, onder andere, meer duidelijkheid is over hoe de overheid mensenrechten wil waarborgen. Daarvoor moet er antwoord komen op een aantal lastige vragen.

Hoe kan kunstmatige intelligentie ethische afwegingen maken in onvoorspelbare situaties, waarbij elke beslissing leven of dood kan betekenen? Hoe kunnen wij deze beslissingen achteraf controleren en achterhalen? Voor de ontwikkeling van kunstmatige intelligentie is trainen en testen cruciaal. Gaan we deze systemen dan ook testen? Zo ja, waar? En misschien wel de belangrijkste vraag: is minister Hoekstra, die vindt dat Nederland koploper moet worden in militaire kunstmatige intelligentie, bereid om politieke (eind)verantwoordelijkheid te nemen?