Uppfyller Teamtailor kraven i EU:s AI Act?
Teamtailor är en av de mest populära ATS-plattformarna i Norden. Om du använder dess AI-funktioner för att screena eller rangordna kandidater klassificeras det som högrisk enligt EU:s AI Act. Här är vad det innebär för dig.
Ditt ATS är förmodligen högrisk och du vet inte om det
Om du är ett nordiskt företag finns det en god chans att du använder Teamtailor. Det är det förvalda rekryteringssystemet för tusentals företag i Sverige, Norge, Danmark och Finland. Det är väldesignat, enkelt att använda och drivs alltmer av AI-funktioner som hjälper dig screena CV:n, rangordna kandidater och snabbare hitta de bästa sökandena.
Den sista delen är problemet — åtminstone ur ett regulatoriskt perspektiv.
EU:s AI Act, som trädde i kraft i augusti 2024 och vars skyldigheter fasas in under 2026, har en mycket specifik syn på AI-system som används vid rekrytering: de är högrisk. Inte "kanske högrisk." Inte "beror på hur du använder dem." Om AI är involverad i screening, filtrering eller rangordning av jobbsökande faller systemet rakt in i högrisk-kategorin.
Och här är delen som överraskar de flesta företag: skyldigheterna faller inte bara på Teamtailor som leverantör. De faller på dig, användaren — det företag som beslutade att aktivera dessa AI-funktioner och rikta dem mot riktiga kandidater.
Vad Teamtailor gör
Teamtailor är ett rekryteringssystem (ATS) byggt i Stockholm, som används av över 10 000 företag. I grunden hanterar det jobbannonser, ansökningar och rekryteringsprocessen. Men precis som de flesta moderna ATS-plattformar har det lagt till AI-drivna funktioner ovanpå:
- AI-assisterad kandidatscreening — automatisk utvärdering och filtrering av inkommande ansökningar
- Kandidatrangordning — lyfter fram sökande som systemet anser vara en bättre matchning
- Smarta rekommendationer — föreslår kandidater från din talangpool för öppna tjänster
- AI-genererade jobbeskrivningar och intervjufrågor
Textgenereringsfunktionerna (jobbeskrivningar, intervjufrågor) är relativt lågrisk enligt AI Act. Men i det ögonblick AI är involverad i att avgöra vilka kandidater som går vidare och vilka som inte gör det har du hamnat i högrisk-territorium.
Hur EU:s AI Act klassificerar detta
AI Act definierar högrisk-AI-system i Article 6 och listar specifika användningsområden i Annex III. Rekrytering och kandidatutvärdering nämns uttryckligen.
Annex III, Område 4 — Anställning, personalhantering och tillgång till egenföretagande:
AI-system avsedda att användas för rekrytering eller urval av fysiska personer, särskilt för att publicera riktade jobbannonser, analysera och filtrera jobbansökningar samt utvärdera kandidater.
Detta är inte tvetydigt. Om Teamtailors AI-funktioner analyserar ansökningar och utvärderar kandidater å dina vägnar är systemet högrisk per definition.
Det spelar ingen roll att Teamtailor är ett svenskt företag, eller att du är en startup med 50 anställda, eller att AI:n "bara hjälper" dina rekryterare. Klassificeringen baseras på användningsområdet, inte på företagets storlek eller modellens sofistikering.
Vilka skyldigheter som gäller för dig som användare
Enligt AI Act är Teamtailor leverantören — de bygger och tillhandahåller AI-systemet. Du är användaren — du använder det i en professionell kontext. Båda har skyldigheter, men dina är mer operativa än tekniska.
Article 26 — Skyldigheter för användare av högrisk-AI-system:
-
Mänsklig tillsyn (Art. 26(1)): Du måste säkerställa att människor med lämplig kompetens, utbildning och befogenhet övervakar AI-systemet. Konkret: någon i ditt rekryteringsteam behöver förstå vad AI:n gör och ha möjlighet att åsidosätta dess beslut. "AI:n rangordnade dem, så vi gick på det" är inte regelefterlevnad.
-
Kvalitet på indata (Art. 26(4)): Du måste säkerställa att den data du matar in i systemet är relevant och representativ. Om dina historiska rekryteringsdata är snedvridna (och de flesta är det) kommer AI:n att reproducera den snedvridningen — och du kommer att vara ansvarig för resultatet.
-
Övervakning (Art. 26(5)): Du måste övervaka systemets drift och rapportera allvarliga incidenter eller fel till både leverantören (Teamtailor) och den relevanta nationella myndigheten.
-
Konsekvensbedömning av grundläggande rättigheter (Art. 27): Organisationer med fler än 50 anställda, eller offentliga organ, måste genomföra en konsekvensbedömning av grundläggande rättigheter innan de använder högrisk-systemet. Detta liknar i sin anda en DPIA enligt GDPR, men fokuserar på AI-specifika risker som diskriminering och rättvisa.
-
Transparens gentemot berörda personer (Art. 26(11)): Kandidater måste informeras om att AI används i rekryteringsprocessen. Detta är inte valfritt — och en vag omnämning i din integritetspolicy räcker förmodligen inte.
-
Dokumentation (Art. 26(6)): Du måste föra loggar över AI-systemets drift under en lämplig tidsperiod. Om en kandidat ifrågasätter ett rekryteringsbeslut måste du kunna visa vad AI:n gjorde och vilken roll den spelade.
Praktiska steg för att uppfylla kraven
Så här ser det ut i praktiken om du använder Teamtailor med AI-funktioner:
1. Granska vilka AI-funktioner du faktiskt har aktiverat. Logga in på Teamtailor och kontrollera vad som är påslaget. Använder du AI-screening? Kandidatrangordning? Smarta rekommendationer? Många företag aktiverar funktioner utan att inse de regulatoriska konsekvenserna. Gör en lista.
2. Utse en mänsklig granskare för AI-assisterade beslut. Varje AI-genererad rangordning eller screening-beslut bör granskas av en person innan det påverkar en kandidats utfall. Dokumentera denna process. Granskaren bör förstå vilka kriterier AI:n använder och ha tydlig befogenhet att åsidosätta den.
3. Informera kandidater tydligt. Uppdatera dina jobbannonser eller ansökningsprocess med ett tydligt meddelande om att AI används vid screening. Något i stil med: "Vi använder AI-assisterade verktyg för att hjälpa till att utvärdera ansökningar. Alla AI-bedömningar granskas av en mänsklig rekryterare innan något beslut fattas." Placera det där kandidater faktiskt ser det — inte begravt i en 40-sidig integritetspolicy.
4. Genomför en konsekvensbedömning av grundläggande rättigheter. Om du är skyldig att göra en (50+ anställda eller offentligt organ), gör det innan du förlitar dig på AI-funktionerna. Om du ligger under tröskeln, gör en lättare version ändå — det är god praxis och visar vederbörlig omsorg.
5. Be Teamtailor om dokumentation. Som leverantör av ett högrisk-AI-system är Teamtailor skyldiga att ge dig instruktioner för användning, information om systemets kapacitet och begränsningar samt teknisk dokumentation. Begär detta uttryckligen. Om de inte kan tillhandahålla det är det en varningssignal.
6. Kontrollera för snedvridning. Granska dina rekryteringsresultat. Filtreras kandidater från vissa demografiska grupper bort oproportionerligt? Om du inte mäter det kan du inte åtgärda det — och AI Act förväntar sig att du övervakar just detta.
7. Spara dokumentation. Behåll loggar över AI-assisterade rekryteringsbeslut under åtminstone den period som rekommenderas av ditt juridiska team (och definitivt under den tillämpliga preskriptionstiden för diskrimineringsanspråk).
Tidslinjen
AI Acts skyldigheter för högrisk-system gäller från 2 augusti 2026. Det är inte långt bort. Om du använder Teamtailors AI-funktioner idag bör du arbeta med regelefterlevnad nu — inte vänta tills tillsynsåtgärder börjar.
Sanktioner för bristande efterlevnad kan uppgå till 15 miljoner EUR eller 3 % av den globala årsomsättningen, beroende på vilket som är högst. För de flesta företag är den ryktesmässiga risken vid en diskrimineringsfastställelse ännu mer oroande.
Sammanfattning
Teamtailor är ett utmärkt ATS. Men om du använder dess AI-funktioner för kandidatscreening eller rangordning driver du ett högrisk-AI-system enligt EU:s AI Act — och du har specifika juridiska skyldigheter som användare. Den goda nyheten är att regelefterlevnad är uppnåeligt. Det handlar främst om mänsklig tillsyn, transparens och dokumentation. Börja nu.
Gör vår kostnadsfria AI Act-skanning för att se hur Teamtailor och dina andra AI-verktyg klassificeras → /ai-act-scan
Se Teamtailors fullständiga riskklassificering → /ai-act-scan/tools/teamtailor
Vill du gå djupare?
Vi utforskar frontlinjen för AI-byggd mjukvara genom att faktiskt bygga den. Se vad vi jobbar med.