EU-akkoord over AI-wet: nieuwe regels voor onder meer werven met algoritmes en ChatGPT

0

De AI-verordening is 8 december aangenomen in Europa. Deze legt het gebruik van artificiële intelligentie, algoritmes en zelflerende systemen aan banden. Algoritmes die sollicitanten beoordelen vallen onder hoog risico. Daarvoor gaan strenge regels gelden.

De AI Act is een Europese verordening die strenge regels stelt voor alle autonoom handelende computersystemen die beslissingen nemen, content genereren of mensen assisteren. De nieuwe regels worden, als ze begin volgend jaar ook het Europese parlement en de lidstaten akkoord gaan, in de loop van 2026 van kracht.

Hoog en laag risico

De nieuwe Europese AI-wet deelt toepassingen van kunstmatige intelligentie in op risico. Bij laag risico volstaat het om bij de resultaten te zetten dat ze door AI gegenereerd zijn. Dat geldt bijvoorbeeld voor generatieve AI als ChatGPT. Daarbij moet voortaan vermeld worden dat deze gemaakt zijn met AI. Bovendien moet het model zo ontworpen zijn dat het illegale content op voorhand uitsluit.

Sommige toepassingen vormen zo’n groot risico dat ze worden verboden. Dat zijn bijvoorbeeld systemen waarmee je emoties op de werkvloer kunt scannen. Maar ook categorisatiesystemen op basis van seksuele geaardheid of ras om crimineel gedrag te voorspellen mogen niet meer. Die laatste gebruikte de Belastingdienst in het toeslagenschandaal.

Systemen die vallen onder hoog risico mogen in de EU worden aangenomen, maar moeten wel aan veel vereisten en verplichtingen voldoen. Systemen voor beoordeling en selectie, met algoritmes die sollicitanten beoordelen bijvoorbeeld, zijn hoog risico-AI.

“Je moet zelf aan de bak.” Lees het interview met Arnoud Engelfriet in Flexmarkt

Systemen worden almaar slimmer, legde ICT-jurist Engelfriet uit op het FlexEvent in december. Ze leren op basis van data voorspellingen te doen of beslissingen te nemen. Dan bepaalt niet langer de recruiter, maar het algoritme wie een vacature ziet, of welke kandidaat het beste uit de online test komt. Engelfriet raadt uitzendondernemers aan om de software die zij gebruiken, te controleren.

Breng AI in kaart

Veel bedrijf weten niet of ze werken met AI. Een eerste vereiste is daarom alle software die je gebruikt nalopen en bekijken of AI daar een onderdeel van is. Vraag daarbij eventueel advies aan een expert. Bepaal vervolgens onder welk risiconiveau het systeem valt en leg per AI vast hoe je het toepast of gaat gebruiken.

Weet wat je koopt

Als uitzendonderneming moet je kunnen uitleggen met welke systemen je werkt, zegt ICT-jurist Engelfriet. De AI-verordening legt bij hoog risico-AI aan bedrijven de volgende verplichtingen op:

  • Fundamental Rights Impact Assessment: vooraf moeten gestructureerd de risico’s in kaart worden gebracht voor kwesties als veiligheid, privacy, discriminatie, eerlijke toegang tot zorg, onderwijs en belangrijke diensten.
  • Risicomanagementsysteem: om potentiële risico’s te identificeren, evalueren, beheren en verminderen.
  • Systeem voor gegevensbeheer: er moet gebruik worden gemaakt van onbevooroordeelde, kwalitatieve en representatieve datasets.
  • Technische documentatie: voor gebruikers moet duidelijk zijn hoe het AI-systeem gebruikt moet worden.
  • Transparantie: voor gebruikers moet duidelijk zijn hoe het AI-systeem werkt. Zo geldt er ook een verplichting om te loggen om te kunnen traceren en controleren wat er precies is gebeurd.
  • Menselijk toezicht: bij het gebruik van het AI-systeem is menselijk toezicht vereist.
  • Conformiteitsbeoordeling: er geldt een specifieke conformiteitsbeoordelingsprocedure die verschilt van het huidige CE-markeringssysteem voor andere producten. Het doel is om een beoordelingsproces te hebben dat is afgestemd op de unieke kenmerken en risico’s van AI-systemen.

Bovenstaande verplichtingen rusten niet op één partij; de AI Act kent verschillende rollen en elke rol kent eigen verantwoordelijkheden.

Bron: Arnoud Engelfriet 

Werken met algoritmes

Het College voor de Rechten van de Mens heeft een checklist voor de inzet van algoritmes voor werving en selectie. Daarin komt het college met de volgende adviezen:

  • Stel vooraf vast op welke criteria kandidaten worden beoordeeld. Beoordeel kandidaten alleen op objectieve criteria die voor de functie relevant zijn. Dit geldt bijvoorbeeld ook voor criteria waarop scores van online assessments en serious gaming worden gebaseerd.
  • Ga na welke van deze criteria direct of indirect betrekking (zouden kunnen) hebben op kenmerken die beschermd worden door de wet. Bijvoorbeeld: aantal jaren werkervaring correleert met leeftijd, een gat in het cv komt vaker voor bij vrouwen.
  • Controleer bij de softwareleverancier van de in te zetten HR-recruitmenttechnologieën hoe deze kenmerken in data en toegepaste algoritmes verwerkt zijn. Zorg dat deze criteria niet bepalend zijn bij de (automatische) selecties en beoordelingen van kandidaten.
  • Wees ervan bewust dat ook algoritmes van kandidaten- en vacatureplatforms ook een (onbedoeld) uitsluitende of zelfs discriminerende werking kunnen hebben. Bijvoorbeeld bij een targeting-optie van bepaalde doelgroepen. Zet vacatures via verschillende kanalen uit

Over Auteur

Annet Maseland is freelance-redacteur van Flexmarkt

Reageer