Menu
kunstmatige intelligentie

Er wordt steeds meer gesproken over gebruik van algoritmes bij sollicitaties. Bedrijven en organisaties moeten weten wat de risico’s zijn. Het kan niet zo zijn dat een sollicitant op grond van door het algoritme aangeleerde bias wordt afgewezen, aldus de Vakcentrale voor Professionals (VCP).

Data-recruitment

De VCP heeft meegewerkt aan een aanpassing van de sollicitatiecode, waarin regels staan waaraan bedrijven en sollicitanten zich moeten houden. De aangepaste code is deze week aangeboden aan staatssecretaris Van Ark (SZW). Op verzoek van de VCP is er in de code een bepaling gekomen over het gebruik van data-recruitment, zoals algoritmes of kunstmatige intelligentie.

Vooroordelen

“Een algoritme kan van zichzelf nog zo goed zijn, als er in de ingevoerde data een bias zit, kan het toch misgaan”, zegt VCP-beleidsmedewerker Amerik Klapwijk. “Wat je er instopt, komt er in dan ook weer uit. Vooroordelen of discriminatoir gedrag uit het verleden kunnen dan onderdeel worden van de output van een algoritme. Dit kan verstrekkende gevolgen hebben voor mensen. Daar moet je als bedrijf van bewust zijn. Je moet weten waar je aan begint.”

Tekortkomingen

In de sollicitatiecode staat onder meer dat bedrijven moeten weten wat de mogelijke tekortkomingen zijn van de ingezette kunstmatige intelligentie. De toepassingen moeten dan ook transparant zijn. Mocht een door het algoritme afgewezen sollicitant een toelichting willen op de uitslag, dan moet hij die ook krijgen.

Laatste nieuws

Hoe staat het met de leercultuur in uw organisatie?

24 juli 2024

Hoe staat het met de leercultuur in uw organisatie?

VCP: bezuiniging 22% op ambtenaren niet realistisch, onverantwoord en ondoordacht

23 juli 2024

VCP: bezuiniging 22% op ambtenaren niet realistisch, onverantwoord en ondoordacht

Logo VCP YP

11 juli 2024

VCP YP: Uitnodiging bijeenkomst Prinsjesdag

Meer nieuws