Kunstmatige intelligentie en het risico op discriminatie

Kunstmatige intelligentie is niet meer weg te denken uit de huidige maatschappij. Ook de overheid maakt steeds meer gebruik van algoritmes. Onder andere gemeenten, de politie en de belastingdienst maakt gebruik van algoritmes om fraude en criminaliteit op te sporen en om voorspellingen te doen. Ook in de rechtspraak wordt er geëxperimenteerd met kunstmatige intelligentie. Echter ligt er een risico op discriminatie op de loer.

Steeds vaker maakt de overheid gebruik van algoritmes om bepaalde processen efficiënter te laten verlopen en om complexe voorspellingen te doen. Echter is er uit onderzoek gebleken dat dit kan leiden tot discriminerende voorspellingen.

Een algoritme is een reeks met instructies die tot een bepaald doel leiden. Vaak worden algoritmes gebruikt om computers dingen te laten voorspellen. Computers kunnen heel veel feiten laten meewegen en heel veel data omzetten in complexe voorspellingen. Echter worden deze voorspellingen wel gedaan met gegevens die de mens in het algoritme stopt. Dit zijn gegevens die al een zekere vorm van vooringenomenheid hebben. Ook kan een algoritme zichzelf ontwikkelen, als ze in contact komen met meer verschillende data. Maar zolang de data vooringenomen blijft, is de kans dat de computer een discriminerende voorspelling doet uiterst groot.

Men ziet de ‘discriminatie’ door het algoritme op verschillende plaatsen terug. Zo herkent een zelfrijdende auto mensen met een donkere huidskleur veel slechter dan mensen met een lichtere huidskleur. Ook de vertaalfunctie van Google vertaalt woorden uit een onzijdige taal altijd terug naar de mannelijke vorm. Google probeert dit probleem te verhelpen door twee opties aan te geven, maar het oorspronkelijke probleem ligt vooral bij de beschikbare data.

Kunstmatige intelligentie in de rechtszaal

Ook in de rechtszaal wordt er geëxperimenteerd met algoritmes. Juist op dit vlak is het problematisch als er een uitspraak wordt gedaan die discrimineert. De impact die kunstmatige intelligentie kan hebben op mensenlevens is al een groot ethisch dilemma, laat staan als deze kunstmatige intelligentie ook nog discrimineert. Voor eenvoudige zaken, zoals verkeersboetes, hoeft maar weinig data te worden ingevoerd. De uitkomst is dan ook makkelijk te voorspellen en vaak hetzelfde. Het wordt pas lastig als er bepaalde bijzondere ‘details’ aan de orde zijn, hier zou de rechter dan ook moeten inspringen.

Een uit het oog springende zaak waar gebruik werd gemaakt van algoritmes in de rechtszaal is de veroordeling van Eric Loomis in Wisconsin uit 2013. Het betrof hier een schietincident. Loomis werd veroordeeld tot zes jaar gevangenisstraf, het vonnis was onder andere gebaseerd op een algoritme dat het risico op herhaling voorspelde.

Al met al is dit pas een begin van een nieuw tijdperk waar er meer en meer gebruik wordt gemaakt van algoritmes. Ook in de rechtspraak wordt er veel onderzoek naar gedaan en geëxperimenteerd. De discussie omtrent dit onderwerp zal dan ook zeker nog lang standhouden.