Up North AIUp North
Tillbaka till insikter
8 min läsning

EU:s AI Act för HR-team: En praktisk guide

HR är det enskilt högsta riskområdet under EU:s AI Act, och de flesta People-team vet inte om det ännu. Den här guiden täcker vad HR-chefer behöver göra — från kandidatscreening till prestationsbedömningar — innan tillsynen börjar.

ai-actcompliancehr
Share

HR är epicentrum för AI Act

Om du arbetar inom HR och använder något AI-drivet verktyg för rekrytering, screening eller utvärdering av medarbetare opererar du inom det som EU:s AI Act uttryckligen klassificerar som högrisk. Inte medium. Inte "det beror på." Högrisk — samma kategori som kritisk infrastruktur och brottsbekämpning.

Detta är inte en teknikalitet. Article 6 och Annex III i AI Act pekar specifikt ut "anställning, personalhantering och tillgång till egenföretagande" som ett högrisk-område. Det innebär att AI-system som används för rekrytering, kandidatfiltrering, intervjubedömning, befordringsbeslut, uppgiftsfördelning och prestationsövervakning alla faller under de striktaste efterlevnadskraven.

De flesta HR-team vi pratar med har ingen aning. De adopterade verktyg som Teamtailors AI-screening, HireVues videobedömningar eller Alva Labs psykometriska tester för att de sparar tid — vilket de gör. Men efterlevnadsskyldigheterna som följer med att använda högrisk-AI-system är betydande, och okunnighet är inget försvar.

Klockan tickar. Högrisk-AI-systemskyldigheter gäller från 2 augusti 2026. Om du läser detta i början av 2026 har du månader, inte år.

Vad AI Act faktiskt kräver av HR-team

Låt oss skära igenom det juridiska språket. Här är vad som spelar roll för People-ledare:

Du är en "användare"

Enligt AI Act kallas företaget som använder AI-verktyget för användare (Article 3(4)). Din leverantör — Teamtailor, HireVue, Greenhouse — är leverantören. Båda har skyldigheter, men dina försvinner inte bara för att du köpte en SaaS-produkt.

Dina specifika skyldigheter som användare av högrisk-AI (Article 26)

1. Mänsklig tillsyn är obligatorisk

Du måste säkerställa att en kvalificerad människa övervakar varje AI-assisterat beslut som påverkar en kandidat eller anställd. Detta innebär:

  • En rekryterare måste granska AI-genererade kandidatrangordningar innan någon avvisas
  • Automatiserad screening kan inte vara det enda skälet till att eliminera en kandidat
  • Prestationspoäng genererade av AI-verktyg måste granskas av en chef innan åtgärd vidtas

Detta är inte "ha en människa som klickar godkänn." Article 14 kräver att den mänskliga tillsynspersonen genuint förstår systemets kapacitet och begränsningar, kan tolka dess utdata korrekt och kan besluta att bortse från eller åsidosätta det.

2. Du måste informera personer (Article 26(7))

Medarbetare och deras representanter måste informeras om att de omfattas av AI-system. Kandidater måste informeras när AI används i rekryteringsprocessen. Detta gäller:

  • AI-driven CV-screening i ditt ATS
  • Videointervjuanalys (känsla, talmönster, ansiktsuttryck)
  • Psykometriska eller kognitiva bedömningar poängsatta av AI
  • AI-genererade intervjufrågor eller utvärderingsramar
  • Prestationsövervakningsverktyg med AI-komponenter

3. Konsekvensbedömning avseende dataskydd (Article 26(9))

Innan du använder ett högrisk-AI-system måste du genomföra en DPIA enligt GDPR Article 35. Om du redan har gjort en för ditt ATS, granska den — AI Act lägger till nya dimensioner. Om du aldrig har gjort en, börja nu.

4. Dokumentation

Du måste behålla loggar över AI-systemets drift i minst sex månader (Article 26(6)), eller längre om det krävs av annan EU- eller nationell lag. Det innebär att du behöver revisionsspår som visar vad AI:n rekommenderade och vad människan beslutade.

5. Konsekvensbedömning av grundläggande rättigheter (Article 27)

Användare av högrisk-AI måste bedöma påverkan på grundläggande rättigheter innan systemet tas i bruk. För HR täcker detta rätten till icke-diskriminering, integritet och rättvisa arbetsvillkor.

Dina verktyg och deras risknivåer

Här är en praktisk genomgång av vanliga HR-verktyg och var de troligtvis hamnar:

Högrisk (Annex III-skyldigheter gäller)

  • Teamtailor AI Screening — Automatiserad kandidatrangordning och filtrering. Högrisk enligt Annex III, punkt 4(a): AI som används för rekrytering eller urval av kandidater.
  • HireVue Video Assessments — Analyserar kandidaters videointervjuer. Högrisk. Notera: HireVue slutade med ansiktsanalys 2021 efter kritik, men deras återstående AI-bedömningsfunktioner kvalificerar fortfarande.
  • Alva Labs — Psykometriska och logiktester med AI-poängsättning. Högrisk: AI-baserad utvärdering av kandidater.
  • Greenhouse AI Features — Om du använder AI-driven kandidatpoängsättning eller automatiserade screeningregler. Högrisk när AI:n påverkar rekryteringsbeslut.
  • Gong (för prestationsövervakning) — Om det används för att utvärdera medarbetares prestation genom samtalsanalys. Högrisk enligt Annex III, punkt 4(b): AI för att fatta beslut som påverkar arbetsrelaterade förhållanden.
  • Culture Amp AI Insights — Om AI genererar prestationsbedömningar eller flaggar medarbetare. Högrisk när utdata påverkar anställningsbeslut.

Lägre risk men har fortfarande skyldigheter

  • ChatGPT/Copilot för att skriva jobbeskrivningar — Minimal risk, men kontrollera för snedvridning i genererad text
  • AI-schemaläggningsverktyg — Generellt minimal risk om de inte fördelar uppgifter baserat på medarbetarprofilering
  • AI-drivna L&D-rekommendationer — Troligtvis begränsad risk, men kan vara högrisk om de kopplas till befordringskriterier

Den kritiska nyansen

Ett verktyg är inte i sig högrisk — det beror på hur du använder det. Gong som används för säljtips skiljer sig från Gong som används för att generera prestationspoäng som matas in i befordringsbeslut. Det senare är högrisk. Dokumentera dina användningsfall tydligt.

Steg-för-steg checklista för efterlevnad

Här är vad ditt HR-team bör arbeta igenom just nu:

  • [ ] Inventera alla AI-verktyg — Lista varje verktyg i din HR-stack som använder AI eller maskininlärning. Inkludera funktioner inom större plattformar (t.ex. AI-screening i ditt ATS). Glöm inte verktyg som enskilda rekryterare kanske använder informellt, som ChatGPT för kandidatbedömning.

  • [ ] Klassificera varje verktyg efter risknivå — Kartlägg varje verktyg och dess användningsfall mot Annex III. Vid osäkerhet, klassificera högre. Dokumentera ditt resonemang.

  • [ ] Begär dokumentation från leverantörer — För högrisk-verktyg måste din leverantör förse dig med instruktioner för användning, information om systemets kapacitet och begränsningar samt teknisk dokumentation. Om de inte kan det är det en varningssignal. Be om deras AI Act-efterlevnadsplan.

  • [ ] Utse ansvariga för mänsklig tillsyn — Utse specifika personer som ansvarar för att övervaka varje högrisk-AI-system. Dessa är inte bara namn på papper — de behöver utbildning i hur systemet fungerar, vilka dess kända begränsningar är och när det ska åsidosättas.

  • [ ] Uppdatera kandidat- och medarbetarinformation — Lägg till AI-upplysning i dina integritetsmeddelanden, kandidatkommunikation och medarbetarhandbok. Var specifik: vilka verktyg, vad de gör, vilken data de bearbetar.

  • [ ] Genomför eller uppdatera DPIA:er — Utför en konsekvensbedömning avseende dataskydd för varje högrisk-AI-system. Om ditt dataskyddsombud inte har varit involverat, ta med dem nu.

  • [ ] Genomför konsekvensbedömning av grundläggande rättigheter — Bedöm påverkan på icke-diskriminering, integritet, värdighet och rättvisa arbetsvillkor. Dokumentera det.

  • [ ] Etablera övervakningsrutiner — Sätt upp löpande övervakning av noggrannhet, snedvridning och drift i dina AI-verktyg. Kontrollera utdata regelbundet. Logga avvikelser.

  • [ ] Skapa en eskaleringsprocess — Definiera vad som händer när AI:n ger en tydligt felaktig rekommendation, när en kandidat eller anställd ifrågasätter ett AI-assisterat beslut, eller när du upptäcker snedvridning i systemet.

  • [ ] Informera fackliga representanter — Om du har facklig representation eller personalrepresentanter måste de informeras om AI-system som påverkar medarbetare. I Norden korsar detta befintliga medbestämmanderamverk.

  • [ ] Sätt upp dokumentationshantering — Säkerställ att du kan behålla loggar över AI-systemens drift i minst sex månader. Samarbeta med dina leverantörer för att förstå vilken loggning de tillhandahåller och vad du behöver komplettera.

  • [ ] Utbilda ditt team — Alla som interagerar med högrisk-AI-system behöver AI-literacitetsutbildning (Article 4). Detta är inte valfritt och gäller på alla nivåer.

Tidslinje och deadlines

AI Act trädde i kraft den 1 augusti 2024. Skyldigheterna rullas ut i faser:

| Datum | Vad som händer | |-------|----------------| | 2 februari 2025 | Förbudet mot förbjudna metoder träder i kraft (t.ex. social poängsättning, känsloigenkänning på arbetsplatsen i vissa sammanhang) | | 2 augusti 2025 | GPAI-modellskyldigheter gäller; AI-literacitetskrav träder i kraft (Article 4) | | 2 augusti 2026 | Högrisk-AI-systemskyldigheter gäller fullt ut — detta är det stora datumet för HR | | 2 augusti 2027 | Skyldigheter för högrisk-AI inbäddad i produkter som regleras av annan EU-lagstiftning |

För HR-team är 2 augusti 2026 det datum som spelar roll. Senast då måste du ha mänsklig tillsyn på plats, kandidater och anställda informerade, DPIA:er genomförda, bedömningar av grundläggande rättigheter klara och övervakningsrutiner igång.

Vänta inte på att din leverantör ska berätta vad du ska göra. Många HR-tech-leverantörer håller fortfarande på att reda ut sin egen efterlevnad. Dina skyldigheter som användare existerar oberoende av om din leverantör har ordning på saker och ting.

Kostnaden för att göra fel

Sanktionerna enligt AI Act är betydande:

  • Upp till 35 miljoner EUR eller 7 % av den globala omsättningen för förbjudna metoder
  • Upp till 15 miljoner EUR eller 3 % av den globala omsättningen för överträdelse av högrisk-skyldigheter
  • Upp till 7,5 miljoner EUR eller 1,5 % av den globala omsättningen för att lämna felaktig information

Men den verkliga risken för HR-team är inte böterna — det är en kandidat- eller medarbetaranmälan som avslöjar att du saknade mänsklig tillsyn, saknade dokumentation och saknade konsekvensbedömning. Det är en ryktes- och juridisk exponering som sträcker sig långt bortom AI Act.

Vad du bör göra just nu

Om du har läst så här långt och insett att du har arbete att göra, börja med inventeringen. Du kan inte efterleva regler du inte förstår tillämpade på verktyg du inte har kartlagt.

De flesta HR-team underskattar hur många AI-drivna verktyg de redan använder. Det genomsnittliga medelstora företaget har 3-7 AI-aktiverade HR-verktyg, många adopterade utan formell upphandlingsgranskning.

Vill du veta exakt var du står? Gör vår kostnadsfria AI Act-efterlevnadsskanning. Den kartlägger dina nuvarande verktyg mot regelverket och berättar vad som behöver uppmärksamhet — på vanlig svenska, inte juridiskt finstilt.

Gör vår kostnadsfria AI Act-skanning

Vill du gå djupare?

Vi utforskar frontlinjen för AI-byggd mjukvara genom att faktiskt bygga den. Se vad vi jobbar med.