Toezicht op algoritmes voorkomt discriminatie?

De technologische vooruitgang van de afgelopen jaren heeft veel bedrijven geholpen om hun bedrijfsprocessen te versnellen, te verbeteren en te vereenvoudigen. Maar het gebruik van algoritmen kan ook tot ongewenste resultaten leiden. Daarom heeft de Autoriteit Persoonsgegevens (AP) besloten om algoritmes bij bedrijven en organisaties aan te gaan pakken. Lees dit korte artikel over discriminatie in algoritmes.
discriminatie in algoritmes

Bias en discriminatie in algoritmes

Om discriminatie en bias te helpen voorkomen, gaat de Autoriteit Persoonsgegevens (AP) toezicht houden op algoritmes volgens het oorspronkelijke artikel op nu.nl. Zo kunnen algoritmes bijvoorbeeld worden gebruikt om wie uitgenodigd wordt voor een sollicitatiegesprek of wie vooraf of achteraf mag betalen bij een online aankoop te bepalen.

Als digital agency is het onze taak om onze klanten te helpen bij het voldoen aan deze nieuwe regelgeving en om ethisch verantwoorde algoritmes te maken. Er zijn een aantal technologieën en afspraken die kunnen worden toegepast om bias of discriminatie in deep learning te voorkomen.

Discriminatie in algoritmes voorkomen

Ten eerste kunnen bedrijven hun algoritmes trainen met data die representatief is voor de hele populatie en geen enkele groep of individu uitsluit. Ten tweede kunnen bedrijven hun algoritmes testen en controleren om er zeker van te zijn dat ze niet gebruikmaken van onjuiste informatie. Daarnaast kunnen bedrijven hun algoritmes verifiëren door ze te vergelijken met andere algoritmes en technieken om hun prestaties te verbeteren.

Privacy borgen via Federated Learning

Een andere technologie die bedrijven kunnen gebruiken om bias en discriminatie bij deep learning te voorkomen, is Federated Learning. Federated Learning maakt gebruik van een gedecentraliseerd systeem, waarbij data op de device van de gebruiker blijft en er geen centrale dataopslag nodig is. Zo wordt voorkomen dat data wordt gecompromitteerd of dat een enkel bedrijf uitgeschakeld kan worden. Bedrijven kunnen deze technologie gebruiken om hun algoritmes te trainen en hun data veilig te houden. Meer informatie en praktische tips rondom Federated Learning is te vinden in deze uitleg.

Tot slot kunnen bedrijven hun algoritmes documenteren en traceren om ervoor te zorgen dat ze kunnen worden nagegaan als er vragen zijn over het gebruik ervan. Door deze stappen te nemen, kunnen bedrijven ervoor zorgen dat hun algoritmes ethisch en verantwoordelijk worden gebruikt.

In het licht van deze nieuwe regelgeving is het belangrijk dat bedrijven hun algoritmes goed onderhouden en toezien op hun gebruik. Door deze maatregelen toe te passen, kunnen bedrijven en organisaties hun processen verder verbeteren, terwijl ze tegelijkertijd discriminatie en bias helpen te voorkomen.
De toekomst van federated learning door Active Collective

Transparantie en risico’s op discriminatie verminderen bij machine learning?

De wereld verandert steeds sneller, waardoor het steeds moeilijker wordt om controlesystemen bij te houden die de beslissingen die we als bedrijven en organisaties nemen, verantwoordelijk houden. Gelukkig zijn er technologieën die ons kunnen helpen bij het verantwoordelijk houden van onze beslissingen: Explainable AI (XAI).

Explainable AI is een verzameling technologieën die bedrijven en organisaties helpen hun beslissingen transparanter, verantwoordelijker en begrijpelijker te maken, door hun machine learning-beslissingen te verklaren. XAI-technologieën bieden een directe verantwoording voor de uitkomsten van machine learning-modellen, waardoor bedrijven en organisaties kunnen begrijpen waarom bepaalde beslissingen werden genomen, en of er mogelijk sprake is van discriminatie of ongerechtvaardigde beslissingen.

Ook kunnen deze technieken helpen bij het voorkomen van discriminatie, door middel van een audit van de beslissingen die door machine learning-modellen worden genomen, en door de beslissingen te verklaren op basis van de gegevens die aan de modellen zijn verstrekt.

Wat als we een stap verder gaan in het begrijpen van onze beslissingen en de impact ervan op de wereld?

Het is belangrijk om te onthouden dat XAI geen panacee is en dat er nog veel werk aan de winkel is om een echt transparant, verantwoordelijk en begrijpelijk systeem te creëren.

Kantekeningen

Als digital agency erkennen wij het belang van het gebruik van deep learning en federated learning om transparantie en de risico’s op discriminatie te verminderen. Hoewel federated learning een mooie oplossing kan zijn, komt het kwaliteitsborging van de data, verantwoordelijkheid en reproduceerbaarheid moeilijker. Daarom stellen wij voor om open te zijn over welke modeltechnieken er worden gebruikt en hoe klanten/gebruikers beslissingen kunnen aanvechten of door een mens laten herbeoordelen.

Explainable AI technieken kunnen ook helpen bij het uitleggen van de beslissingen die door het model zijn genomen. Tegelijkertijd is er ook de controverse dat om te voorkomen dat er (indirect) gediscrimineerd wordt op basis van geslacht/etniciteit/etc. gegevens moeten worden verzameld. Misschien is hier een kans voor federated learning om dit op een privacy preserving manier te doen.

Radicale transparantie en privacy?

Samen zijn deze technologieën veelbelovend voor alle bedrijven die betrokken zijn bij digitalisering, onderzoek en innovatie. Ze zullen leiden tot betere, veiligere en toekomstbestendige oplossingen en producten, waardoor bedrijven kunnen blijven innoveren. Door deze maatregelen toe te passen, kunnen bedrijven ervoor zorgen dat hun algoritmes ethisch en verantwoordelijk worden gebruikt.

Active Collective ondersteunt bedrijven bij het verbeteren van hun dienstverlening met behulp van deze technologieën en onderzoek, zoals data science. Wij helpen bij het ontwikkelen en implementeren van de juiste technologieën, waarmee uw bedrijf in staat is om betere, veiligere en toekomstbestendige oplossingen en producten te bieden. Neem vandaag nog contact met ons op om meer te weten te komen over hoe wij u kunnen helpen bij het voldoen aan de nieuwe regelgeving en om discriminatie en bias te voorkomen.

Lees ook:

Afbeeldingen en ondersteuning tekstredactie door OpenAI.

Meer nieuws

Alle artikelen

Mogen wij jouw digitale product ontwikkelen?

Probeer je levens van mensen makkelijker of efficiënter te maken, maar loop je vast op de ontwikkeling van een digitaal product? Bij Active Collective ontwikkelen we software voor verschillende sectoren. Wel hebben we specialistische ervaring binnen het Life Sciences & Health Care domein. Welke behoefte je ook hebt; Wij denken met je mee en komen samen tot de perfecte digitale oplossing voor jouw menselijke vraagstuk.

Guido

Neem contact op

Heb je vragen over een digitaal product? We helpen je graag verder. Neem contact met op met Guido voor meer informatie.

Active Collective B.V.
Noorderweg 42-44
1948 PK Beverwijk

0251-29 33 70
[email protected]