Menu luk

Finansansatte bliver overvåget: 3 eksempler fra sektoren

Automatiseret lønsystem, kvalitetsudskiftning baseret på data og AI-analyser af ansattes samtaler. Få indblik i tre cases fra sektoren, der viser, hvordan medarbejderdata og AI i dag fylder mere og mere i virksomhederne.

12. maj 2025
7 min
Dansk / English

Fra empati-scorer til kunstig intelligens (AI), der foreslår lønforhøjelser: I den finansielle sektor bliver medarbejderdata og AI i stigende grad brugt til monitorering og til at træffe beslutninger.

Det behøver ikke være problematisk i sig selv – men en undersøgelse fra 2022 har vist, at mange ansatte også i den finansielle sektor har begrænset eller slet ingen viden om, hvilke data deres arbejdsplads indsamler og bruger om dem.  

Når systemer og datakilder bliver mere komplekse, og medarbejderne ikke længere ved, hvad de bliver målt på, kan det skabe usikkerhed og mistillid.

Sådan lyder det fra Johan Busse, der er formand for Dataetisk Råd. 

“Hvis medarbejderne ikke ved, hvordan data om dem bruges, så risikerer det at gå ud over psykologisk tryghed og føre til en følelse af overvågning. Det kan føre til, at folk føler sig låst i deres adfærd, udvikler stress eller ændrer adfærd fremfor at fokusere på deres arbejdsopgaver.”

Indsamling og anvendelse af medarbejderdata kan være uetisk og krænke privatlivet, selvom den er lovlig. Derfor er det ifølge Johan Busse afgørende, at arbejdspladserne nøje overvejer og inddrager medarbejderne, når de anvender data om medarbejderne til fx at træffe beslutninger. 

"Opmærksomhed og dialog om dataetiske udfordringer er afgørende, når man indsamler og anvender medarbejderdata på arbejdspladsen." 

Tre cases: Når data styrer arbejdslivet

I takt med, at den teknologiske udvikling og generative AI-værktøjer åbner for nye muligheder, står vi potentielt overfor en helt ny bølge af dataetiske dilemmaer. I det lys har Finansforbundet indsamlet en række eksempler, der viser, hvordan medarbejderdata og AI i dag anvendes i sektoren. 

De eksempler, Finansforbundet har fået kendskab til, viser, at brugen af data i stigende grad flytter sig fra understøttelse til styring – og nogle steder endda til en form for automatiseret ledelse.

For at forstå de etiske implikationer har vi bedt Johan Busse om at vurdere tre cases fra sektoren, som vi har valgt at anonymisere. Han understreger, at ingen af eksemplerne nødvendigvis er uetiske eller ulovlige, men at det afgørende er, hvordan de bliver anvendt i praksis.

(Artiklen fortsætter efter boksen)
Johan Busse
"Når man hele tiden bliver lyttet til og evalueret af et system, svarer det til, at en leder sidder med på alle samtaler." Johan Busse, formand for Dataetisk Råd.

Case 1: Kundeservice og empati-score

I et kundeservicecenter bliver telefonsamtaler analyseret med AI. Stemmens toneleje, talehastighed og ordvalg bliver vurderet, og medarbejderen tildeles en empati-score.

Derudover evalueres op til 30-40 KPI’er pr. samtale, såsom korrekt præsentation og afslutning.

Ifølge Finansforbundets oplysninger oplever flere medarbejdere dog, at de ændrer deres adfærd for at score højt – fremfor at yde god service.

Systemer og KPI’er kan risikere at føre til en ændret adfærd hos medarbejderne (såkaldt ’gaming’ af systemet), som ikke nødvendigvis er produktivt i det lange løb.

“Der er eksempler på, at medarbejdere begynder at tilpasse sig systemet for at opnå gode scorer – frem for at bruge deres erfaring og faglighed til at skabe resultater,” siger Johan Busse.

Kan man fx måle empati i en telefonsamtale på den måde, spørger Johan Busse?  

”Det ser teknisk overbevisende ud, men man risikerer at bruge teknologien til noget, den ikke er egnet til.”

“Det kan også skabe det, vi kalder observationsstress. Når man hele tiden bliver lyttet til og evalueret af et system, svarer det til, at en leder sidder med på alle samtaler. Det gør noget ved arbejdsmiljøet – og det fjerner frirummet til at bruge sin faglighed.”

Case 2: Performance og “kvalitetsudskiftning”

I en anden virksomhed vurderes medarbejdere i en kundevendt afdeling på deres evne til at håndtere sager effektivt. Performance måles blandt andet via antal gennemførte sager, tastaturanslag, tid brugt på telefon og sagskompleksitet.

Hvis data ikke indikerer særlige forhold, der kan forklare lavere produktivitet, risikerer medarbejdere at blive afskediget som led i "kvalitetsudskiftningen".

Generelt kan det skabe en følelse af uretfærdighed og usikkerhed, hvis den type dataindsamling ikke følges op af dialog og kontakt med en leder, der kender den enkelte medarbejder.

“Data er aldrig neutrale. De rummer støj, bias og fortolkningsrum. Hvis man ikke er opmærksom på det, risikerer man at træffe beslutninger, der virker objektive – men reelt er dybt uretfærdige,” siger Johan Busse, der fortsætter:

“Et system kan sige, at Henrik scorer lavt. Men lederen ved måske, at Henrik er uundværlig i teamet, fordi han hjælper nye kolleger og løfter den samlede trivsel.”

"Ikke alt, der kan måles, er vigtigt – og ikke alt, der er vigtigt, kan måles. Derfor skal vi være varsomme med at lade datasystemer definere vores arbejdsliv."
- Johan Busse, formand for Dataetisk Råd.

Case 3: AI i lønsamtaler

I en større virksomhed bruges et AI-værktøj til at assistere i årlige lønsamtaler. Det analyserer data fra flere kilder – bl.a. kurser, samarbejdsmønstre og strategisk vigtighed – og udarbejder en prioriteret liste over lønstigningskandidater.

Men for mange medarbejdere fremstår systemet som en sort boks, og medarbejderne ved ikke, hvad der vægter mest, da de ikke har adgang til algoritmen eller dens parametre.

Johan Busse peger på, at det bryder med danske ledelsestraditioner.

“Vi er vant til, at man får en forklaring, hvis man ikke får en lønstigning. Den forklaring forsvinder, når det hele baseres på en algoritme – og det kan underminere oplevelsen af retfærdighed og skabe mistillid,” siger han og fortsætter:

”Desuden er der krav i funktionærloven om saglighed i forbindelse med afskedigelser. Det skal algoritmen leve op til."

Sådan et system risikerer ifølge Johan Busse også at favorisere profiler, der scorer højt i synlige KPI’er – men ikke nødvendigvis dem, der fx bidrager til det faglige fællesskab på måder, som ikke lader sig måle.

Tillid kræver transparens – og samtale

Johan Busse mener, at de tre cases meget fint illustrerer, at det ikke nødvendigvis er systemerne, der er problemet. Det handler om, hvordan de bruges.

”Det er helt klassiske dataetiske dilemmaer –systemerne er ikke uetiske, men brugen kan være det. Derfor er det vigtigt med åbenhed, og at man har et sted at drøfte det. Tillidsrepræsentanter og arbejdsmiljørepræsentanter er oplagte at tage fat i, hvis man er bekymret eller i tvivl,” siger han.

Dataetisk Råd kom i 2024 med en analyse på 100 sider om dataetiske perspektiver ved brug af medarbejderdata https://dataetiskraad.dk/dataetiske-temaer/dataetik-paa-arbejdspladsen. Her udforsker rådetde komplekse dataetiske dilemmaer, der kan opstå ved indsamling og anvendelse af medarbejderdata på arbejdspladser.

 Tidligere i år blev den analyse fulgt op et gratis samtalespil ”Dataetik på Spil” , der kan hjælpe med at tage hul på de vigtige samtaler om brugen af data på arbejdspladsen.

“Dataetik handler ikke om at finde det rigtige svar – men om at stille de rigtige spørgsmål. Det er i dialogen mellem ledelse og medarbejdere, at tillid og ansvarlighed opstår. Det skal være arbejdspladsens data – ikke arbejdsgiverens alene.”

“Vi har en tendens til at tro for meget på data. Men ikke alt, der kan måles, er vigtigt – og ikke alt, der er vigtigt, kan måles. Derfor skal vi være varsomme med at lade datasystemer definere vores arbejdsliv, uden at vi reflekterer over, hvad de gør ved relationer, ledelse og kultur.”

Fem datatyper, der typisk indsamles om medarbejdere

  1. Adgangs- og lokationsdata
    Data fra adgangskort, wi-fi-logning og booking af arbejdsstationer viser, hvornår og hvor medarbejdere befinder sig – anvendes primært til sikkerhed, facilitetsstyring og optimering af kontorplads.
  2. Brugsdata fra digitale systemer
    Systemer som e-mail, Teams, Slack, intranet og kalendere genererer logdata om kommunikation, mødeaktivitet og brugsmønstre. Ofte anvendt til analyse af arbejdsgange og samarbejde.
  3. Enheds- og IT-aktivitet
    Indsamling af tastetryk, filoverførsler, applikationsbrug og browserhistorik. Bruges primært til it-sikkerhed og risikostyring.
  4. Biometriske adgangsdata
    Fingeraftryk og ansigtsgenkendelse benyttes i stigende grad til fysisk og digital adgangskontrol.
  5. Selvrapporterede og frivillige data
    Data fra fx trivselsmålinger og medarbejderundersøgelser.

Jo mere åbenhed, jo større accept

Finansforbundet har i flere år arbejdet aktivt for at sætte de dataetiske drøftelser på dagsordenen. Det sker både gennem politiske udspil og praktiske værktøjer – og ved at styrke tillidsrepræsentanternes rolle i de teknologiske spørgsmål, der i stigende grad former arbejdslivet.

I 2023 gennemførte Finansforbundet en analyse, der viser, at mens mange medlemmer har en grundlæggende tillid til, at deres data behandles ansvarligt, har kun få reelt indsigt i, hvilke data der bruges – og hvordan.

”Større kendskab til, hvordan AI og data bruges, fører til større tillid. Derfor er den tillidsbaserede kultur på det danske arbejdsmarked også afgørende i tilgangen til AI," siger Steen Lund Olsen, næstformand hos Finansforbundet.

"Det skal integreres i det kollektive samarbejde, og derfor har vi også i den nye overenskomst aftalt, at paterne bør drøfte brugen af medarbejderdata og sammen udvikler retningslinjer."

Finansforbundet anerkender helt overordnet, at ny teknologi som AI og datadrevne løsninger er en del af forretningen og arbejdsliv i den finansielle sektor. 

”AI har et stort potentiale til at forbedre både arbejdsmiljø og processer til gavn for både bundlinje og medarbejderne. Det kræver klare rammer, medarbejderinddragelse og bevidsthed om, hvordan det bruges. Det handler nemlig ikke kun om, hvad der er muligt og lovligt, men også hvad der er ansvarligt," siger Steen Lund Olsen.

“At gå forrest digitalt, kræver også, at man går forrest, når det handler om etik, ordentlighed og tillid."

Ansvarlig AI udvikling

Ansvarlig AI kræver bl.a. medindflydelse, kompetenceudvikling og klare etiske retningslinjer.

Bliv klogere på AI

Seneste nyt