Op 1 augustus is de Europese AI Act in werking getreden. Veel AI-toepassingen die ook in de flexbranche populair zijn, krijgen binnen deze wetgeving het label ‘hoog risico’. Wat betekent dat, waarmee moet je rekening houden en wat doen andere bedrijven al om aan de wetgeving te voldoen?
De ontwikkelingen op het gebied van AI, ook voor werving en selectie, zijn amper bij te houden. Dat gaat niet zonder risico’s en nadelen. Zo vrezen veel werkzoekenden, niet onterecht, dat AI-matchingsystemen bevooroordeeld zijn. Om deze en meer redenen is in Europees verband de AI Act aangenomen. Deze verordening stelt strenge regels voor alle autonoom handelende computersystemen die beslissingen nemen, content genereren of mensen assisteren.
De AI Act deelt toepassingen van kunstmatige intelligentie in op risico. Bij laag risico volstaat het om bij de resultaten te zetten dat ze door AI gegenereerd zijn. Dat geldt bijvoorbeeld voor generatieve AI als ChatGPT. Daarbij moet voortaan worden vermeld dat deze gemaakt zijn met AI. Bovendien moet het model zo ontworpen zijn dat het illegale content op voorhand uitsluit.
AI-startersplan voor uitzendorganisaties
Op het FlexForward-event op 15 oktober geeft sourcingtrainer Marcel van der Meer zeven praktische stappen om met ChatGPT en andere AI-tools te werken. Marcel neemt je mee langs alle (on)mogelijkheden, met een sterke nadruk op implementatie binnen de organisatie.
Reserveer je ticket(s) vóór 31 augustus en ontvang 50% korting!
Sommige toepassingen vormen zo’n groot risico dat ze worden verboden. Dat zijn bijvoorbeeld systemen waarmee je emoties op de werkvloer kunt scannen. Maar ook categorisatiesystemen op basis van seksuele geaardheid of ras om crimineel gedrag te voorspellen mogen niet meer. Die laatste gebruikte de Belastingdienst in het toeslagenschandaal.
“Als je cognitief werk steeds meer door technologie laat doen, dan gaan allerlei traditionele systemen ter bescherming van mensen op de schop”, zei ict-jurist Arnoud Engelfriet eerder tegen Flexmarkt. “Computers zijn veel rechtlijniger en massaler. Binnen twee seconden hebben ze honderdduizend mensen beoordeeld die ontslagen kunnen worden, bijvoorbeeld. Dat is echt geen probleem voor een computer. Dus de risico’s worden veel groter door de schaalgrootte en de snelheid waarmee het gebeurt.”
Verplichtingen bij ‘hoog risico’
Bedrijven die werken met AI-systemen met een zogenoemd ‘hoog risico’ krijgen via de wet een aantal verplichtingen opgelegd. Deze hebben betrekking op zaken als risicomanagement, gegevensbeheer, transparantie en toezicht. De verordening is op 1 augustus in werking getreden, maar de verschillende onderdelen worden gefaseerd van toepassing. Dit geeft ontwikkelaars en aanbieders de gelegenheid om hun AI-systemen te laten voldoen aan de nieuwe eisen.
Belangrijk om bij stil te staan, is dat het om toezicht achteraf gaat, aldus Engelfriet. “Het is niet zo dat een AI-tool pas op de markt mag komen als je er een vergunning voor hebt. Je mag er gewoon mee werken. Je moet alleen desgevraagd kunnen laten zien dat je compliant bent.”
Hij raadt ondernemers dan ook aan om software die ze gebruiken zelf te controleren. “Je moet zelf aan de bak. En ik denk dat het voor uitleners goed is om te beseffen dat hun klanten, de bedrijven die een flexibele schil willen, dit ook op het netvlies hebben. Die gaan nu al tegen hun mensen zeggen: bij alle inkoop van diensten en van mensen moet eventueel AI-gebruik aan ons gemeld zijn en er moet bewijs liggen dat de AI in orde is.”
Volgens een expertpanel van MIT Sloan Management Review is het nog maar de vraag of organisaties snel en goed genoeg gaan handelen. De publicatie legde 36 AI-experts de volgende stelling voor: ‘Organisaties zullen klaar zijn om te voldoen aan de vereisten van de AI Act die het komende jaar van kracht worden.’ Slechts 20 procent is het hiermee eens. 47 procent gelooft niet dat bedrijven het komende jaar gaan doen wat nodig is (en 33 procent weet het niet).
Randstad is ‘voorzichtig met gebruik van AI’
Wat doet de grootste uitzender al met AI en hoe houdt die rekening met de AI Act? “We gebruiken onder andere aanbevelingssystemen die werk en talent aan elkaar koppelen”, zegt David Graus, lead data scientist bij Randstad, tegen ING Sector. “En we experimenteren met een AI-assistent die onze intercedenten helpt bij het opstellen van vacatureteksten. Maar we zijn wel voorzichtig met het gebruik van AI.”
Ook Graus weet dat veel AI-toepassingen onder de noemer ‘hoog risico’ vallen. “We zien ook de risico’s, zoals het lekken van informatie en vooroordelen van het model. De komende tijd willen we generatieve AI gebruiken om onze systemen verder door te ontwikkelen.”
ING-sectorbankier Sjuk Akkerman ziet vooral kansen; om processen te optimaliseren, het aantal fouten te verminderen en de productiviteit te verhogen. Hij voorziet een blijvende krapte op de arbeidsmarkt en noemt dat “nog meer reden om de mogelijkheden van AI toe te passen”. Wel komt daar ook bij Akkerman een waarschuwing bij: “Let er wel op dat AI op een zorgvuldige, integere en veilige manier wordt toegepast binnen de organisatie. En blijf altijd controleren wat er uit de AI-modellen komt.”
Lees ook: Hoe AI-tools als ChatGPT jouw capaciteit enorm kunnen vergroten