"Breng je organisatie verder"
SLUIT MENU

Wat voor gevolgen heeft de AI-act voor het toepassen van HRtech?

In de AI-Act heeft de Europese Commissie het gebruik van AI binnen het HR-vakgebied als “hoog risico” aangeduid. Dat betekent niet dat het verboden is, maar wel dat je bij het gebruik ervan moet voldoen aan de wetgeving. Expert Tom van der Valk legt uit.

AI (kunstmatige intelligentie) is een technologie die computersystemen in staat stelt menselijke intelligentie na te bootsen. AI-systemen analyseren informatie en nemen zelfstandig beslissingen om zo gebruikers werk uit handen te nemen. Deze systemen worden steeds “slimmer” doordat ze voortdurend worden getraind op grote hoeveelheden data.

Wat is de Artificial Intelligence Act?

De AI-act reguleert de ontwikkeling, het op de markt brengen en het gebruik van AI-systemen in de Europese Unie. De wet stelt grenzen en voorwaarden aan het toepassen van AI. Dit zorgt ervoor dat AI betrouwbaar ingezet kan worden en dat de grondrechten van alle betrokkenen gewaarborgd blijven.

Risiconiveaus

De nieuwe wetgeving hanteert verschillende risiconiveaus voor AI-systemen:

  1. Onacceptabel risico: AI-systemen die een duidelijk gevaar vormen voor de veiligheid en rechten van mensen worden verboden. Een voorbeeld is emotieherkenning op het werk. Deze systemen moeten binnen zes maanden worden afgeschaft.
  2. Hoog risico: AI-systemen die significante risico’s vormen voor de veiligheid of grondrechten van mensen moeten voldoen aan strikte verplichtingen. Nieuwe systemen mogen niet op de markt komen tenzij ze aan de AI-act voldoen. Bestaande systemen moeten binnen twee jaar compliant zijn.
  3. Laag risico: AI-systemen zoals chatbots krijgen transparantieverplichtingen opgelegd. Gebruikers moeten weten dat ze met een AI-systeem communiceren. Dit moet ook binnen twee jaar gebeuren.

Handhaving

Vanaf december 2024 is de inzet van AI-systemen met een onaanvaardbaar risico verboden. Voor systemen met een hoog risico geldt een overgangsperiode van twee jaar, waardoor ze in juni 2026 moeten voldoen aan de AI-act. Nadien kunnen de boetes hoog oplopen. De boete voor de inzet van verboden AI-toepassingen kan oplopen tot € 35 miljoen of 7% van de wereldwijde omzet of € 15 miljoen of 3% van de wereldwijde omzet bij andere overtredingen.

AI binnen het HR-vakgebied is hoog risico

De Europese Commissie heeft het gebruik van AI binnen het HR-vakgebied als “hoog risico” aangeduid. Emotieherkenning op het werk (met uitzondering van veiligheidsdoeleinden) is zelfs geclassificeerd als AI met een onacceptabel risico. Dit komt doordat onbedoelde uitsluiting, discriminatie en andere misstanden op de loer liggen als AI-systemen ongecontroleerd hun gang gaan. Onterechte besluiten kunnen aanzienlijke gevolgen hebben voor de carrièrekansen en het levensonderhoud van mensen.

“Hoog risico” betekent niet dat het verboden is, maar wel dat je moet voldoen aan de wetgeving. Je kunt AI blijven gebruiken voor algemene taken waarbij dit soort risico’s niet optreden. Als HR-professional kun je overigens AI blijven gebruiken voor algemene taken waarbij dit soort risico’s niet kunnen optreden.

Eisen voor hoog-risico AI-systemen binnen HR

Voor de inzet van hoog-risico AI-systemen geldt specifieke regelgeving:

Fundamental Rights Impact Assessment (FRIA) soms verplicht

Het uitvoeren van een FRIA zorgt ervoor dat AI-systemen op een ethische en verantwoordelijke manier worden ingezet. Een FRIA is verplicht voor bepaalde doelgroepen zoals overheidsinstanties, kredietverstrekkers en -informatiebureaus, verzekeraars, hulpdiensten e.d.

Technische documentatie

De werking van het systeem moet door de leverancier gedetailleerd worden beschreven. Dit helpt gebruikers het systeem op de juiste wijze te gebruiken en maakt de beperkingen en risico’s inzichtelijk.

Datavereisten

Hoog-risico AI-systemen moeten getraind zijn op datasets met juiste statistische eigenschappen. De informatie moet relevant, representatief, foutvrij en volledig zijn.

Risicomanagement

Leveranciers moeten een gedegen risicomanagementproces hanteren gedurende de hele levenscyclus van het AI-systeem. De risico’s bij regulier en redelijkerwijs voorzienbaar misbruik moeten continu worden geanalyseerd en voorzien van risicobeperkende maatregelen.

Transparantie

Betrokkenen moeten geïnformeerd worden dat ze interacteren met een AI-systeem. Leveranciers moeten ervoor zorgen dat de werking voldoende transparant is zodat gebruikers begrijpen hoe de resultaten tot stand zijn gekomen. Het systeem moet logbestanden bijhouden om beslissingen te kunnen verantwoorden.

Menselijk toezicht

De autonomie van het AI-systeem moet door menselijk toezicht worden ingeperkt. Toezichthouders moeten de juiste training hebben om het systeem te begrijpen en de output te kunnen aanpassen of terugdraaien.

Conformiteitsverklaring

Hoog-risico AI-systemen moeten een conformiteitsbeoordelingsprocedure doorlopen waarbij de leverancier aantoont dat het systeem voldoet aan de AI-act.

Aansprakelijkheid

Leveranciers zijn primair verantwoordelijk voor het waarborgen dat hun hoog-risico AI-systemen voldoen aan de vereisten van de AI-act. Als HR-professional maak je echter ook je eigen organisatie aansprakelijk als je niet voldoet aan de regelgeving.

Voorbeelden van strafbaar gebruik:

  • zonder geldige conformiteitsverklaring
  • niet in overeenstemming met de gebruiksaanwijzing van het systeem
  • zonder de vereisten voor menselijk toezicht na te leven

Daarnaast is het niet uitgesloten dat een gedupeerde je aansprakelijk stelt voor geleden schade. Dit kun je niet op voorhand al uitsluiten door hen een akkoordverklaring voor het gebruik van AI te laten tekenen. Je kiest als organisatie zelf voor de inzet van AI en je moet er in dat geval voor zorgen dat het correct en conform de act werkt.

Tips voor het verantwoord inzetten van AI voor HR

Als HR-professional heb je een sleutelrol in het waarborgen van een ethische en duurzame inzet van AI binnen jouw vakgebied. Als afsluiting een paar tips:

Inventariseer je AI-systemen

Controleer of je momenteel AI-systemen gebruikt. Vergeet daarbij niet de systemen en tools die medewerkers op eigen initiatief al in gebruik hebben genomen: volgens Microsoft neemt 78% van de AI-gebruikers hun eigen tools mee naar het werk. Bepaal welke AI-systemen je overweegt in te zetten.

Verdiep je in de systemen

Zoek uit in hoeverre de AI-systemen voldoen aan de AI-act regelgeving en of de leverancier over een conformiteitsverklaring beschikt. Zorg er voor dat je begrijpt hoe de systemen werken en hoe je daar op de juiste manier gebruik van maakt.

Bepaal je eigen verantwoordelijkheden

Je blijft verantwoordelijk voor de resultaten die uit het AI-systeem voortkomen. De toepasselijke regelgeving vanuit de AI-act en de AVG moet je naleven om rechtvaardigheid en privacy te waarborgen.

Neem actief deel

Menselijk toezicht is voor hoog-risico AI-toepassingen verplicht. Zorg er voor dat besluiten niet zonder menselijke goedkeuring tot stand kunnen komen. Beperkt de toepassing van AI telkens tot een klein gedeelte van het werkproces zodat je de tussenresultaten controleert en meteen ingrijpt als dat nodig is.

Blijf scherp op privacy

Deel niet zonder meer persoonlijke gegevens met AI-applicaties. Sommige applicaties gebruiken de aangeboden informatie om het model te trainen waardoor de informatie in toekomstige antwoorden opgenomen kan worden. Als het hoog-risico AI-systeem goed beveiligd is en aan de AVG en AI-act voldoen, verstrek persoonlijke gegevens alleen als dat absoluut noodzakelijk is.

Wees transparant over het gebruik van AI

Informeer alle betrokkenen duidelijk dat ze met een AI-systeem te maken hebben. Geef een duidelijke uitleg van het doel waarvoor je het gebruikt.

Consultant/projectmanager e-HRM. Leverancieronafhankelijke e-HRM projecten voor innovatieve organisaties.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *