Op naar een digi betere wereld!

brown and white wooden table beside sofa chair

“Op de bank met….”

Privacy basics: verwijderingsverzoeken.

Artificial Intelligence in recruitment

Wat je erin stopt, komt er ook weer uit!

Techgigant Amazon kwam eerder in het nieuws door hun geautomatiseerde systeem, die het werving & selectie proces van hen overnam. Alle gegevens van eerdere jaren werden erin gestopt: de ontvangen Cv’s, de vacatures en ook wie er uiteindelijk was aangenomen. De enige nuance die ontbrak: Amazon had in de eerdere jaren voornamelijk mannen aangenomen, waardoor de AI een algoritme ontwikkelde dat mannen prefereerde. Sterker nog, Cv’s waarin het woord “vrouw” stond, werden direct afgewezen, want: wat je erin stop, komt er ook weer uit.

Artificial Intelligence, in een eerdere column schreef ik er ook al over. Algoritmes zijn aan de orde van de dag en worden op allerhande manieren ingezet, zowel positief als negatief. Het is een trending topic, waar we niet meer zonder kunnen. Terwijl momenteel slechts 10 % van de organisaties zegt veel gebruik te maken van AI, is de verwachting dat dit percentage in 2022 al opgelopen is tot 36 %.

Vandaag neem ik jullie mee in een zoektocht naar de toepasbaarheid van Artificial Intelligence in recruitment en stel ik mezelf de volgende vragen:
– Waarom zou men AI willen toepassen in recruitment?
– Is AI toepasbaar in recruitment?
– Hoe verhoudt AI zich tot de wenselijke en menselijke kaders?

Waarom?
Waar diploma’s en aantoonbare werkervaring eerder leidend waren, zie je dat competenties en soft skills ook steeds belangrijker worden. Maar hoe filter je die eruit bij een sollicitatie? Of sterker nog: hoe zorg je ervoor dat je zonder diploma, maar wel met de juiste skills aan tafel komt? Zonder menselijke tussenkomst is dat bijna niet mogelijk, tenzij je een bepaald assessment afneemt of op een andere onafhankelijke en objectieve wijze naar iemand kijkt.

Dat mensen en vacatures niet altijd tot een volkomen match leiden, zie je ook aan de cijfers van het totaal aantal werklozen (378.000) ten opzichte van het totaal aantal vacatures (16.000). Nu is niet iedereen voor elke baan geschikt, echter met zo’n groot verschil moet er toch meer winst te behalen zijn?
Dit is een interessant gegeven voor overheidsorganisaties, die hier beter op willen acteren.
De gemeente Rotterdam is een tool aan het ontwikkelen, een zogenaamd game assessment, die toegepast kan worden om werkloosheid tegen te gaan. Deze tool maakt skills van mensen inzichtelijk. Door deze skills vervolgens naast de verschillende vacatures te leggen, hoopt de gemeente tot meer geschikte matches te komen.

Naast het maken van betere matches op vaardigheden en het tegengaan van “onnodige werkloosheid” hebben werkgevers de zorgplicht om discriminatie op de werkvloer tegen te gaan.
Het wetsvoorstel “Toezicht gelijke kansen bij werving en selectie”  is afgelopen najaar ingediend. Deze wet ziet op de inzet van werkgevers om discriminatie op de arbeidsmarkt tegen te gaan. Schriftelijk dienen organisaties vast te leggen dat en hoe zij een onderscheid op basis van achtergrond, leeftijd of geslacht voorkomen tijdens het maken van de selectie. En hoe kan je deze discriminatie beter voorkomen dan door het selectieproces geheel uit te besteden aan een onafhankelijke en objectieve robot, die zichzelf aanstuurt?

Is AI toepasbaar in recruitment?
Aan de VU wordt al jaren onderzoek gedaan naar de toepasbaarheid van AI in selectiepsychologie. Zo wordt onderzocht hoe algoritmes ingezet kunnen worden bij het meten van persoonlijkheid, een complex maar veelbelovend onderzoek. Een klassiek instrument in recruitment waar de VU, net als vele andere tools, AI op wil inzetten is het interview. Dit is in recruitment nog steeds het meest gebruikte middel bij het maken van de selectie.
Door een geschikte tool te ontwikkelen hoopt men de informatie uit het interview naar een hoger niveau te tillen en automatisch daarmee discriminatie tegen te gaan. Dit zie je bijvoorbeeld ook bij de Nederlandse robo-recruiter Sigmund terug: een persoonlijke robot die aan iedereen dezelfde vragen op dezelfde manier en in dezelfde volgorde stelt. De vergaarde data wordt vervolgens gefilterd om de juiste match te maken tussen de vacature en het profiel van de sollicitant.

Daarnaast is zichtbaar dat door het gehele recruitmentproces AI kan worden ingezet op veel positieve manieren. Zo zijn er tools die ervoor zorgen dat vacatureteksten beter geschreven worden. Applicaties voor het maken van geschikte CV’s. Instrumenten als LinkedIn en Facebook die helpen bij het vinden van de geschikte kandidaat. Er wordt ingezet op een betere candidate experience.

Menselijke en wenselijke kaders
Amerika is voorloper als het gaat om AI in recruitment. Je ziet dat daar inmiddels beleid is en nog steeds wordt ontwikkeld ten aanzien van het volledig geautomatiseerd aannemen van mensen.
Zo wordt sollicitanten geleerd hoe je je kunt voorbereiden op een gesprek met een robot. Recent is ook wetgeving ingevoerd in Amerika die bedrijven verplicht om transparant te zijn omtrent het selectieproces. Wanneer er gebruik gemaakt wordt van een geautomatiseerd systeem in het recruitmentproces, dient men dit te vermelden.

De computer kan namelijk een heel knap algoritme bedenken, zelfs zonder menselijke tussenkomst.  De keerzijde daarvan is dat het algoritme wel uitgelegd moet kunnen worden, op het moment dat iemand de beslissing daarvan aanvecht. En hoe is die computer tot dat algoritme gekomen: aan de hand van de data die erin zijn gestopt. We hebben bij Amazon gezien dat dit niet altijd tot het juiste resultaat leidt.
Echter kleven er aan het menselijke aspect ook voor- en nadelen? Voordeel: men ziet ondanks het missende diploma toch een bepaalde gunfactor, waardoor je de baan uiteindelijk wel aangeboden krijgt.
Nadeel: afgewezen worden op basis van onterechte vooroordelen. Met AI wordt op een hele duidelijke manier de discriminatie tegengegaan.

Ik denk dat we moeten concluderen dat AI in recruitment de rol van de mens kan versterken. De verhoging van kwaliteit in de gebruikte tools, het maken van betere en meer matches, het effectiever maken van processen en het tegengaan van discriminatie. Inzet van geschikte geautomatiseerde tools en aanvullend een gesprek waarin dieper wordt ingegaan op de persoon en de levenservaring, geeft je een totaalbeeld van de kandidaat. En ook daarbij geldt: wanneer je oprechte interesse toont in de kandidaat, komt dat er ook weer uit!

Bronnen:
1. Reuters: “Amazon scraps secret AI recruiting tool that showed bias against women”.
2. Werf&: Jack van Emden (Gemeente Rotterdam): “Kunstmatige intelligentie werkt in de praktijk verrassend goed”.
3. Werf& A.I. in recruitment steeds meer onder vuur: tijd voor meer transparantie?
4. Rijksoverheid: Wettelijke plicht voor gelijke kansen bij werving en selectie.
5. Dounia Maakor, E-book: unbiased recruitment de strijd tussen robot en mens.
6. MD Magazine: Selecteren en ontwikkelen met behulp van Artificial Intelligence.

 

Privacy en haar weg naar volwassenheid

Voor de start van Lex Digitalis beschreven we in ons businessplan het werkgebied van privacy, data en cybersecurity . Sinds onze start twee maanden geleden hebben we veel professionals binnen het werkgebied gesproken. Veel onderwerpen uit het businessplan komen daardoor nu écht tot leven. We spraken met mensen in de zorg, in het onderwijs, binnen de overheid, bij uitvoeringsorganisaties, in de financiële sector, bij adviesbureaus, vanuit de advocatuur…. In verschillende branches hoorden we soortgelijke geluiden.

Awareness ingrediënt voor volwassenheid
Zo valt ons op dat awareness en het belang van privacy bij veel organisaties meer aandacht verdient. De ontwikkeling naar volwassenheid van het werkgebied is ingezet, maar organisatiebreed is er vaak nog te weinig kennis. Er wordt onvoldoende gezamenlijk belang toegekend aan privacy. Awareness, onderkennen van het belang en kennis zijn van groot belang voor groei in volwassenheid van het werkgebied binnen organisaties. Vrijwel iedere medewerker komt met persoonsgegevens in aanraking!

Die beperkte awareness maakt het werk van een privacy-professional niet altijd makkelijk. Vaak hebben ze het imago van “nee-zegger”, doordat men pas aan het einde van een proces wordt betrokken. Er wordt hard gelobbyd om, ook in het kader van efficiency, eerder in een traject betrokken te worden, zodat een negatief advies achteraf voorkomen wordt. Ook is er sprake van veel ad hoc vragen over privacy-gerelateerde onderwerpen, bijvoorbeeld of gegevens wel of niet mogen worden verstrekt. Hierdoor ontstaat voor de privacy-professional een dilemma qua prioritering: beleidsmatige/strategische vraagstukken die bijdragen aan bijvoorbeeld awareness en kennis binnen de organisatie eerst oppakken of “blijven hangen in” de ad-hoc vragen?

Opvallend (en logisch) is ook dat privacy-functies op verschillende plekken worden belegd binnen organisaties. Mooi voorbeeld hiervan: bij sommige organisaties is gekozen voor een externe FG vanwege de onafhankelijkheid en afstand. Bij andere organisaties is er juist gekozen voor een interne FG, vanwege het van belang dat de FG over voldoende kennis moet beschikken van de organisatie en haar werkveld.

Iedereen heeft een mening over de AP
Als relatief nieuwkomer in het privacy-werkveld hebben de geluiden over de AP ons verbaasd. Met een open blik zijn we de gesprekken aangegaan, waarbij de AP voor ons wel bekend stond als waakhond en toezichthouder van onze rechten. We hoorden echter dat het imago van de AP onder privacy-professionals niet heel positief is. Kort samengevat wat we horen:

– Het kennisniveau van professionals binnen de AP is beperkt. De uitspraak in de zaak VoetbalTV wordt hierbij vaak aangehaald, waarbij de AP bakzeil haalt op hun normuitleg van ‘het gerechtvaardigd belang’. Een uitleg die naar wij begrepen al zeer omstreden was in relatie tot het standpunt van de andere Europese toezichthouders, die al stelden dat ‘gerechtvaardigd belang’ een breed scala aan belangen kan omvatten, commerciële belangen niet uitgesloten. Overigens had de AP mogelijk ook een andere intentie bij deze zaak, namelijk toetsen of hun strengere (tov andere Europese toezichthouders) uitleg van ‘het gerechtvaardigd belang’ zou stand houden voor de rechter.

– Er is te weinig capaciteit binnen de AP, er zijn grote achterstanden, slagkracht ontbreekt. Ook de AP zelf onderkent dat. KPMG heeft recent onderzoek gedaan naar de benodigde capaciteit van de AP in opdracht van het Ministerie van Justitie en Veiligheid en de AP. De AP zelf stelt naar aanleiding van de bevindingen uit dat onderzoek dat om haar wettelijke taken goed uit te kunnen voeren, er van 184 fte nu een groei moet komen naar 470 fte in 2025. KPMG en Minister Dekker verbinden overigens andere conclusies aan dat onderzoek. Voor de minister is er voorlopig geen aanleiding om budgetten op te schroeven, zoals hij aangaf in zijn kamerbrief van 19 november 2020.

Wij schrokken in eerste instantie van deze geluiden over de AP. Zeker omdat je juist van de AP verwacht dat hij een gewaardeerd toezichthouder is. Een instantie die als waakhond over de regels die we met z`n allen bedacht hebben, waakt. Hoe mooi zou het zijn als de AP fungeert, zoals wij in eerste instantie dachten: als een stevige informatiebron, een autoriteit waar je kan aankloppen voor een juiste uitleg of interpretatie? En daarmee ook een instantie die bijdraagt aan het vergroten van de professionaliteit van het vakgebied? Deze wens hoorden we regelmatig vanuit de markt. En hoewel eraan gewerkt wordt, moet ook de AP naar ons idee nog groeien in volwassenheid, net als dat het geval is voor het privacy-domein binnen vele andere organisaties.

Wat verder voorbij kwam
Onderwerpen die verder veel voorbij kwamen in de gesprekken waren onder andere: de uitspraak Schrems II, cameratoezicht en gezichtsherkenning, Brexit, inzet van Boa’s en de Wet politiegegevens, de invloed en ethiek van het gebruik van algoritmes en de versnelde digitale innovaties in het onderwijs in het corona-tijdperk. Daarnaast is het duidelijk dat er een grote behoefte in het veld is aan denken vanuit mogelijkheden in plaats van onmogelijkheden, geen juridisch geneuzel, maar praktische en heldere adviezen.

Overall is het fantastisch om te merken met hoeveel passie en bevlogenheid privacy-professionals hun werk doen. Fijn ook dat er zoveel interesse is in onze start-up en dat er tijd wordt vrijgemaakt om kennis en ervaringen met ons te delen. Vanaf hier nogmaals dank aan iedereen die we gesproken hebben! Feit is dat we naar mate we meer privacy-professionals spreken en meer informatie “sponsen”, we het privacy-domein steeds interessanter vinden en steeds nieuwsgieriger worden!

Blog: Waarom privacy, data en cybersecurity?

Privacy basics: inzageverzoeken.

Column: Algoritmes…alleen maar negatief?

Deze week heeft iedereen het over de ontslagen bij Uber. Een aantal chauffeurs is door Uber ontslagen vanwege vermeende fraude. De chauffeurs geven aan dat zij op basis van een algoritme binnen Uber onterecht beschuldigd worden van fraude. Vervolgens zou die enkele constatering op basis van dat algoritme de reden voor hun ontslag zijn.
Dit levert natuurlijk een interessante discussie op. Volgens de Europese privacywet GDPR mag de grond voor een ontslag niet alleen gebaseerd zijn op een algoritme. Het uiteindelijke besluit tot een ontslag moet altijd door een mens genomen worden.

Wat mij interesseert is dat in deze tijd waar data meer geld waard zijn dan goud, die algoritmes een terugkerend negatief nieuwsitem lijken. Een bekend voorbeeld is de Amerikaanse verkiezing in 2016. En ook op Nederlandse bodem liet Arjen Lubach laatst zien, dat je binnen een paar klikken op YouTube in een trechter aan complottheorieën terecht kunt komen.
Netflix zorgt met docu’s als “The Social Dilemma” en “The Great Hack” ook voor een negatieve kijk op algoritmes en organisaties die jouw data verzamelen. Nu is de kanttekening hierbij dat Netflix met haar eigen algoritme ook tips naar voren weet te schuiven, afgestemd op jouw kijkgedrag.

De vraag is: hoe kwalijk zijn deze algoritmes nu eigenlijk? Dat wiskundige en natuurkundige formules losgelaten worden op bepaalde patronen is namelijk iets van alle tijden. Dat bewijst ook de Wet van Benford bijvoorbeeld. Deze formule werd in 1881 al ontdekt en is in 1938 opnieuw ontdekt en verder uitgewerkt. Grote (overheid)instellingen over de gehele wereld passen deze formule toe om fraude en criminaliteit op te sporen en vaak ook met succes.
De analyse van big data zorgt bij medische onderzoeken sneller tot een doorbraak en oplossing. Binnen de recherche kan door het analyseren van alle gegevens uit het verleden, beter ingesprongen worden op huidige situaties. En zo zijn er uiteraard nog meer positieve voorbeelden te benoemen.

Zolang organisaties op een verantwoorde en ethische manier omgaan met gegevens, is het loslaten van algoritmes of formules op gegevens uiteraard geen probleem. Nogmaals het leidt ook tot mooie en positieve uitkomsten. Misschien dat ook juist daarom de excessen in het nieuws komen, zoals bij Uber. De regie en tussenkomst van de mens is en blijft een essentiële factor.

Schrems II streng toegepast in Frankrijk. Urgentie Covid-19 geeft tijdelijk wat ruimte.

Dit artikel is relevant voor: alle organisaties die gebruikmaken van een verwerker die gevestigd is in de VS (Microsoft, Google, AWS, etc.), zelfs als de hosting door die verwerker in Europa plaatsvindt. 

 

De Franse privacytoezichthouder CNIL heeft zich van zijn strenge kant laten zien. De CNIL vindt hosting van gezondheidsgegevens in de Health Data Hub door Microsoft (op hostingservers in Nederland) ontoelaatbaar. De Health Data Hub is een centraal platform van de Franse overheid voor medische onderzoeksdoeleinden. In de Health Data Hub zijn diagnoses en andere gegevens opgeslagen, afkomstig van ziekenhuizen, de nationale ziektekostenverzekering en apotheken. Naar aanleiding van de Schrems II-uitspraak hebben belangengroeperingen een verzoekschrift ingediend bij de Conseil d’Etat, de hoogste administratieve rechtbank in Frankrijk, om de verwerking van gezondheidsgegevens in de Health Data Hub te stoppen. De CNIL ondersteunt dat standpunt, maar de Conseil d’Etat zet dat standpunt in zijn uitspraak van 13 oktober 2020 opzij, althans tijdelijk, onder andere vanwege de huidige urgentie rond Covid-19.

Schrems II – in het kort 

De Conseil d’Etat past in deze zaak de overwegingen toe van het Hof van Justitie van de Europese Unie in de Schrems II-uitspraak. De gevallen zijn niet helemaal vergelijkbaar. In het geval van de Health Data Hub gaat het om verwerking van persoonsgegevens binnen Europa. In de Schrems II-uitspraak gaat het om doorgifte van persoonsgegevens door Facebook naar de Verenigde Staten. In de Schrems II-uitspraak is het EU-VS Privacy Shield ongeldig verklaard. Doorgifte van persoonsgegevens naar de Verenigde Staten kan daardoor niet meer op basis van het Privacy Shield en zal voortaan op een andere basis moeten plaatsvinden, bijvoorbeeld op basis van Standard Contractual Clauses.

Bij de doorgifte van persoonsgegevens naar landen buiten de Europese Economische Ruimte op basis van Standard Contractual Clauses moeten de passende waarborgen die vereist zijn (in artikel 46, lid 1, en artikel 46, lid 2, onder c, AVG), ervoor zorgen dat een bescherming wordt geboden die gelijkwaardig is aan het niveau dat door de AVG in de EU wordt gegarandeerd. Daarbij gaat het niet alleen om de contractuele bepalingen (de Standard Contractual Clauses), maar ook om de relevante elementen van het rechtsstelsel van dat derde land (als bedoeld in artikel 45, lid 2, AVG). Het Privacy Shield is juist hierom ongeldig verklaard. De Amerikaanse inlichtingen- en veiligheidsdiensten hebben een ruime (meer dan noodzakelijke) toegang tot persoonsgegevens en betrokkenen kunnen hun rechten niet via de rechter afdwingen in de VS. Naast het ongeldig verklaarde Privacy Shield, vormen ook de Standard Contractual Clauses naar mijn verwachting geen goede basis meer voor doorgifte naar de VS. Doorgifte van persoonsgegevens naar de Verenigde Staten is dan nog slechts mogelijk bij wijze van uitzondering (in de gevallen genoemd in artikel 49 AVG; daarover hieronder meer).

De CNIL is streng: verwerking is onrechtmatig, want niet iedere mogelijkheid van doorgifte naar de VS is uitgesloten

Microsoft kan niet volledig uitsluiten dat zij een verzoek van de Amerikaanse veiligheids- en inlichtingenautoriteiten zal moeten inwilligen. Zelfs als de hosting door Microsoft in Europa plaatsvindt – zoals in dit geval in Nederland zal Microsoft vanwege de CLOUD Act aan een dergelijk verzoek moeten voldoen. Ook is niet uitgesloten dat Microsoft onderhoud en beheer pleegt – en daarvoor bijvoorbeeld logging ontvangt van de Health Data Hub – in de Verenigde Staten. De doorgifte die in deze twee scenario’s het gevolg is, zal dan niet voldoen aan de uitleg van de AVG in de Schrems II-uitspraak en dus zou de hosting door Microsoft onrechtmatig zijn en herzien moeten worden.

Covid-19 weegt mee in het eindoordeel van de Conseil d’Etat 

De Conseil d’Etat is genuanceerder dan de CNIL en merkt op dat er geen directe schending van de AVG is, maar slechts een risico van schending van de AVG. De Conseil d’Etat verwacht niet dat de veiligheids- en inlichtingendiensten van de Verenigde Staten veel belangstelling zullen hebben voor de gezondheidsgegevens. En bovendien zijn de gegevens gepseudonimiseerd.

Vervolgens is doorslaggevend dat een zwaarwegend algemeen belang wordt gediend. De verwerking van de gezondheidsgegevens is noodzakelijk om de noodsituatie op gezondheidsgebied te beheersen en onderzoek te doen naar SARS-CoV-2 (het Coronavirus). De opslag van de gezondheidsgegevens bij Microsoft is in de huidige omstandigheden een evenredige maatregel, mede doordat een passende alternatieve technische oplossing op korte termijn ontbreekt. Bij de lancering van de Health Data Hub was immers Microsoft de enige partij die voldeed aan het programma van eisen. Wel heeft de Franse overheid toegezegd verdere maatregelen te zullen nemen om elk risico uit te sluiten. Alsnog gaat de Franse overheid bekijken of een Franse of Europese partij de dienst kan leveren.

Wat betekent deze uitspraak voor mij? 

De uitspraak toont aan dat de hoogste Franse bestuursrechter de Schrems II-uitspraak heel precies toepast. Dat is ook het advies van de Franse privacytoezichthouder CNIL. Slechts vanwege de uitzonderlijke situatie door Covid-19 staat de rechter tijdelijk toe dat enig risico wordt gelopen. De verwerking dient een zwaarwegend algemeen belang dat in de huidige urgente gezondheidssituatie een uitzondering rechtvaardigt. De rechter sorteert daarmee voor op de uitzondering als bedoeld in artikel 49, lid 1, onder d, AVG.

Eigenlijk wisten we het al. De Schrems II-uitspraak van 16 juli 2020 is verstrekkend. Het maakt doorgifte van persoonsgegevens naar de VS in essentie onmogelijk, tenzij sprake is van een uitzondering als bedoeld in artikel 49 AVG. Ook Standard Contractual Clauses bieden in het geval van doorgifte naar de VS nauwelijks een oplossing, tenzij er aanvullende maatregelen worden genomen (maar pseudonimisering bleek voor de Franse rechter niet afdoende). Wilt u niet wachten op een Privacy Shield 3.0 (voor zover dat te zijner tijd wel stand houdt), dan blijft voor u doorgifte naar de VS op basis van artikel 49 AVG over, kort gezegd:

  • uitdrukkelijke toestemming van de betrokkene voor de doorgifte, of

de doorgifte naar de VS is noodzakelijk voor:

  • uitvoering van een overeenkomst met de betrokkene,
  • uitvoering of sluiting van een overeenkomst in het belang van de betrokkene, 
  • een zwaarwegend algemeen belang,
  • een rechtsvordering,
  • bescherming van vitale belangen van de betrokkene of een andere persoon, of 
  • raadpleging van publieke registers.

De lat ligt daarmee zeer hoog, want wanneer is een doorgifte naar de VS noodzakelijk? Dan zal op z’n minst aangetoond moeten worden dat het doeleinde van de verwerking niet op een andere wijze (zonder doorgifte naar de VS) is te realiseren, bijvoorbeeld door gebruikmaking van een vergelijkbare hostingdienst van een Europese partij.