AI-förordningen möter HR: nya krav för rekrytering och personalhantering
7 nov 25
AI används i HR-system främst för att göra vissa administrativa uppgifter enklare och snabbare. Det kan handla om att sortera ansökningar, föreslå vilka kandidater som passar bäst för en tjänst eller automatisera administration kring personal. På så sätt sparar företag tid och pengar, och hoppas samtidigt kunna fatta mer träffsäkra och objektiva beslut. Men med fördelarna väcks också frågor om rättvisa och insyn – kan vi lita på att AI väljer på ett opartiskt sätt?
AI i HR-system kan bli en risk när tekniken påverkar människor på ett orättvist sätt eller ger beslutsunderlag som är svåra att förstå och förklara. Ett vanligt exempel är rekrytering: om systemet är tränat på skev träningsdata kan det omedvetet sortera bort vissa grupper av sökande, vilket brukar att systemet uppvisar partiskhet (även kallad ‘bias’). Det kan också vara svårt att förstå varför AI föreslår en viss kandidat framför en annan, vilket gör besluten svåra att förklara och granska. När AI används i processer som direkt påverkar människors karriärer och försörjning är det nödvändigt att ställa höga krav på transparens, rättvisa och ansvar.
EU:s nya AI-förordning delar in AI-system i olika risknivåer; förbjuden, hög risk, begränsad- och minimal risk. Anställning och arbetsledning är ett av de områden som klassificeras som hög risk när AI används vid:
Dessa användningsområden klassas som hög risk på grund av att de i hög grad anses kunna påverka människors hälsa, säkerhet och grundläggande rättigheter.
Det bör också nämnas att det finns AI-system för personalhantering som sedan 2 februari 2025 är helt förbjudna. Hit hör bland annat AI-system som syftar till att uttyda känslor på arbetsplatsen, med undantag för vissa medicinska och säkerhetsmässiga situationer.
Både den som utvecklar ett AI-system och den som använder det åläggs extra omfattande krav när systemet klassas som hög risk.
För utvecklaren innebär det bland annat att säkerställa att AI:n bygger på bra och rättvis data, har säkerhetsfunktioner på plats, att risker identifieras och minskas, att beslutsprocesser kan följas upp och förstås samt att möjliggöra att människor alltid har sista ordet i viktiga beslut – under hela systemets livscykel.
För användaren innebär det i praktiken att utbilda personalen, använda systemet enligt tillverkarens instruktioner och dokumentera hur det används. Användaren har också ansvar för att det alltid finns mänsklig kontroll i de beslut som direkt påverkar människor, exempelvis vid rekrytering och urval.
För både utvecklare och användare leder reglerna till större ansvar i form av mer dokumentation och nya rutiner, vilket kräver både utökade resurser och budget.
AI-förordningens krav för de AI-system med hög-risk som inkluderar HR-system träder i kraft redan i augusti 2026. Det kan tyckas långt bort, men i praktiken är det väldigt kort tid för att anpassa både system, organisation och rutiner. De som väntar riskerar att stå oförberedda när reglerna, som är förknippade med höga sanktionsavgifter, börjar gälla. Så vårt råd är att börja nu, med att:
Att agera tidigt ger både trygghet inför kommande lagkrav och konkurrensfördelar. De organisationer som redan nu arbetar strukturerat med compliance och AI Governace kan stärka sitt varumärke och vinna förtroende hos både kandidater och anställda.
Detta är del 3 av 3 i en serie gästbloggar från Wisepoint. Wisepoint är juristbyrån med fokus på AI-juridik och etik. De kan hjälpa dig inom alla juridiska områden som berör ditt AI-projekt! Om du vill veta mer om hur ditt företag kan förbereda sig för AI-förordningen eller om du söker rådgivning inom AI och regelefterlevnad, kontakta Wisepoint för att boka en konsultation med deras experter! De erbjuder även kurser inom AI-juridik.