Up North AIUp North
Tillbaka till insikter
5 min läsning

Uppfyller Intercom kraven i EU:s AI Act?

Intercoms Fin AI-chattbot är begränsad risk enligt EU:s AI Act — men du måste ändå informera om att användare pratar med AI. Här är vad lagen kräver och hur du gör rätt.

ai-actcompliancecustomer-support
Share

Din chattbot behöver en enkel upplysning — så här gör du

Om du använder Intercom för kundsupport har du förmodligen aktiverat Fin — deras AI-agent som löser kundfrågor automatiskt. Den är bra på det den gör. Den läser ditt hjälpcenter, förstår kundfrågor och ger korrekta svar utan en människa i processen.

Den goda nyheten: Fin är inte ett högrisk-AI-system enligt EU:s AI Act. Den fattar inte beslut om människors anställning, kreditvärdighet eller tillgång till väsentliga tjänster. Den besvarar kundsupportfrågor.

Efterlevnadskravet är rakt på sak: du måste berätta för användare att de interagerar med AI, inte en människa. Det är allt — i princip. I praktiken finns det några nyanser som är värda att förstå.

Vad Intercoms Fin AI gör

Intercom är en plattform för kundkommunikation. Fin är dess AI-drivna supportagent, lanserad 2023 och stadigt förbättrad sedan dess. Här är vad den gör:

  • Automatisk lösning — besvarar kundfrågor genom att hämta information från dina hjälpcenterartiklar, tidigare konversationer och anpassat innehåll du tillhandahåller
  • Konversations-AI — bibehåller kontext genom en konversation, ställer förtydligande frågor och hanterar uppföljningar
  • Överlämning till människor — eskalerar till en mänsklig agent när den inte kan lösa problemet eller när kunden begär det
  • Anpassade åtgärder — kan utföra uppgifter som att kontrollera orderstatus eller uppdatera kontouppgifter via API-integrationer
  • Flerspråksstöd — svarar på kundens språk

Fin använder stora språkmodeller under huven, men är begränsad till ditt innehåll — den är designad att inte hallucinera eller fabricera information som inte finns i din kunskapsbas. När den inte vet svaret säger den det och vidarebefordrar till en människa.

Hur EU:s AI Act klassificerar detta

Intercoms Fin faller under Article 50 — Transparensskyldigheter för vissa AI-system. Specifikt Article 50(1):

Leverantörer ska säkerställa att AI-system avsedda att interagera direkt med fysiska personer utformas och utvecklas på ett sådant sätt att de berörda fysiska personerna informeras om att de interagerar med ett AI-system, om detta inte är uppenbart utifrån omständigheterna och användningskontexten.

Detta gör Fin till ett system med begränsad risk. Det finns inte i Annex III (högrisk-användningsfall). Det faller inte under de förbjudna metoderna i Article 5. Det är helt enkelt ett AI-system som interagerar direkt med människor — och dessa människor har rätt att veta att det är AI.

Varför det inte är högrisk:

Kundsupportchattbottar listas inte i Annex III. Högrisk-kategorierna fokuserar på AI som används inom kritiska områden: biometri, kritisk infrastruktur, utbildning, anställning, tillgång till väsentliga tjänster, brottsbekämpning, immigration och rättsväsende. En chattbot som hjälper någon att återställa sitt lösenord eller kontrollera sin orderstatus faller inte in i någon av dessa.

Ett undantag att bevaka: Om din Intercom Fin-bot används i ett sammanhang där den påverkar tillgången till väsentliga privata eller offentliga tjänster — till exempel om den är det primära sättet för människor att ansöka om försäkringsersättning, få tillgång till hälsoinformation eller interagera med myndigheter — kan klassificeringen förändras. För de flesta B2B- och B2C-företag gäller detta inte. Men om du verkar inom finansiella tjänster, försäkring eller hälso- och sjukvård, utvärdera ditt specifika användningsfall noggrant.

Vilka skyldigheter som gäller för dig som användare

Dina skyldigheter definieras i Article 50 och är avsevärt lättare än de för högrisk-system. Här är vad du behöver göra:

1. Informera om att användare interagerar med AI (Art. 50(1))

Användare måste veta att de pratar med ett AI-system, inte en människa. Upplysningen måste vara:

  • I rätt tid — före eller i början av interaktionen, inte efter
  • Tydlig — entydigt språk, inte begravd i finstilt text
  • Tillgänglig — synlig för användaren utan att kräva extra klick

Undantaget "om det inte är uppenbart utifrån omständigheterna" är snävt. Förlita dig inte på det. Även om din chattbot tydligt är märkt "Fin AI" i gränssnittet är uttrycklig upplysning det säkra tillvägagångssättet.

2. Märk AI-genererat innehåll (Art. 50(2))

Om Fin genererar text som kan misstas för mänskligt skrivet innehåll — såsom detaljerade förklaringar, rekommendationer eller svar som skickas via e-post — bör detta vara identifierbart som AI-genererat. I en live-chattkontext täcks detta vanligtvis av den inledande upplysningen. I e-post- eller asynkrona sammanhang, överväg att lägga till en notis.

3. AI-literacitet (Art. 4)

Alla i din organisation som arbetar med, övervakar eller fattar beslut om dina AI-system måste ha en tillräcklig nivå av AI-literacitet. För ditt supportteam innebär detta att förstå:

  • Vad Fin kan och inte kan göra
  • När och hur den eskalerar till människor
  • Hur man granskar och korrigerar dess svar
  • Vilken data den använder för att generera svar

Denna skyldighet har gällt sedan 2 februari 2025.

Praktiska steg för att uppfylla kraven

1. Lägg till en tydlig upplysning i din chattwidget.

Det enklaste tillvägagångssättet: se till att det första meddelandet i varje Fin-konversation identifierar den som AI. Alternativ inkluderar:

  • Ett systemmeddelande: "Du chattar med Fin, vår AI-assistent. Jag gör mitt bästa för att hjälpa dig, och jag kan koppla dig till en mänsklig agent när som helst."
  • En visuell indikator i chatthuvudet: "AI-assistent" med en AI-ikon
  • Båda (rekommenderas)

Intercom tillhandahåller redan viss inbyggd märkning för Fin. Kontrollera dina inställningar för att säkerställa att den är aktiverad och synlig. Anpassa den inte bort av varumärkesskäl.

2. Säkerställ att mänsklig eskalering är enkel och synlig.

Även om det inte strikt är ett AI Act-krav är det bästa praxis att göra det enkelt för användare att nå en människa, och det minskar regulatoriska risker. Om användare känner sig fångade i en AI-konversation följer klagomål — och tillsynsmyndigheter uppmärksammar klagomål.

Konfigurera Fin att:

  • Proaktivt erbjuda överlämning till människa när den inte kan lösa ett problem
  • Omedelbart svara på fraser som "prata med en människa" eller "tala med en agent"
  • Aldrig blockera eller fördröja tillgång till mänsklig support

3. Granska Fins kunskapsbas för korrekthet.

AI Acts transparensskyldigheter är lättare, men du har fortfarande allmänna skyldigheter enligt konsumentskyddslagstiftning och GDPR. Om Fin ger felaktig information som orsakar skada — fel återbetalningspolicy, inkorrekt juridisk information, vilseledande produktpåståenden — är du ansvarig. Granska regelbundet:

  • Innehållet Fin hämtar från (hjälpcenterartiklar, anpassade svar)
  • Fins faktiska svar på vanliga frågor (stickprovskontrollera regelbundet)
  • Kundfeedback och klagomålsmönster

4. Uppdatera din integritetspolicy.

Din integritetspolicy bör nämna att AI används i kundinteraktioner, vilken data som bearbetas (konversationsinnehåll, metadata) och i vilket syfte. Detta är ett GDPR-krav lika mycket som ett AI Act-krav. Var specifik: "Vi använder Intercoms Fin AI för att tillhandahålla automatiserad kundsupport. Fin bearbetar dina meddelanden för att generera relevanta svar baserade på vår hjälpdokumentation."

5. Utbilda ditt supportteam.

Säkerställ att dina mänskliga agenter förstår:

  • Hur Fin fungerar och vad den kan lösa
  • Hur man granskar konversationer som Fin hanterat (för kvalitet)
  • När och hur man ingriper om Fin ger felaktig information
  • Deras ansvar enligt AI Acts literacitetskrav

6. Dokumentera dina efterlevnadsåtgärder.

Behåll ett enkelt register över:

  • Vilka AI-system du använder för kundinteraktion (Fin)
  • Vilka upplysningar du har implementerat
  • När du senast granskade Fins korrekthet
  • Ditt utbildningsprogram för supportpersonal

Detta behöver inte vara utarbetat. Ett internt dokument på en sida som uppdateras kvartalsvis räcker för ett system med begränsad risk.

Hur är det med GDPR?

AI Act existerar parallellt med GDPR — den ersätter den inte. För Intercom Fin inkluderar dina GDPR-skyldigheter:

  • Rättslig grund för behandling av konversationsdata (troligtvis berättigat intresse för kundsupport)
  • Personuppgiftsbiträdesavtal med Intercom (du bör redan ha ett)
  • Datalagring — lagra inte konversationsdata längre än nödvändigt
  • Registrerades rättigheter — användare kan begära tillgång till eller radering av sina konversationsdata

Om du redan är GDPR-kompatibel med Intercom lägger AI Act till relativt lite extra. Huvudtillägget är det uttryckliga kravet på AI-upplysning.

Tidslinjen

Transparensskyldigheter enligt Article 50 gäller från 2 augusti 2025 — så om du läser detta 2026 är de redan i kraft. AI-literacitetsskyldigheten (Art. 4) har gällt sedan 2 februari 2025.

Sanktioner för bristande efterlevnad av transparensskyldigheter kan uppgå till 15 miljoner EUR eller 3 % av den globala årsomsättningen. I praktiken kommer tillsynsmyndigheter sannolikt att börja med varningar och vägledning för överträdelser med begränsad risk — men räkna inte med mildhet i all evighet.

Sammanfattning

Intercoms Fin AI är ett system med begränsad risk enligt EU:s AI Act. Dina efterlevnadsskyldigheter är verkliga men hanterbara: informera användare om AI, säkerställ att ditt team har AI-literacitet och håll din GDPR-hantering i ordning. Den viktigaste åtgärden är den enklaste — se till att varje användare som interagerar med Fin vet att de pratar med AI, direkt från start. Om du redan har gjort det är du en bra bit på väg.

Gör vår kostnadsfria AI Act-skanning för att se hur Intercom och dina andra AI-verktyg klassificeras → /ai-act-scan

Se Intercoms fullständiga riskklassificering → /ai-act-scan/tools/intercom

Vill du gå djupare?

Vi utforskar frontlinjen för AI-byggd mjukvara genom att faktiskt bygga den. Se vad vi jobbar med.