Finansansatte bliver overvåget: 3 eksempler fra sektoren
Automatiseret lønsystem, kvalitetsudskiftning baseret på data og AI-analyser af ansattes samtaler. Få indblik i tre cases fra sektoren, der viser, hvordan medarbejderdata og AI i dag fylder mere og mere i virksomhederne.

Case 1: Kundeservice og empati-score
I et kundeservicecenter bliver telefonsamtaler analyseret med AI. Stemmens toneleje, talehastighed og ordvalg bliver vurderet, og medarbejderen tildeles en empati-score.
Derudover evalueres op til 30-40 KPI’er pr. samtale, såsom korrekt præsentation og afslutning.
Ifølge Finansforbundets oplysninger oplever flere medarbejdere dog, at de ændrer deres adfærd for at score højt – fremfor at yde god service.
Systemer og KPI’er kan risikere at føre til en ændret adfærd hos medarbejderne (såkaldt ’gaming’ af systemet), som ikke nødvendigvis er produktivt i det lange løb.
“Der er eksempler på, at medarbejdere begynder at tilpasse sig systemet for at opnå gode scorer – frem for at bruge deres erfaring og faglighed til at skabe resultater,” siger Johan Busse.
Kan man fx måle empati i en telefonsamtale på den måde, spørger Johan Busse?
”Det ser teknisk overbevisende ud, men man risikerer at bruge teknologien til noget, den ikke er egnet til.”
“Det kan også skabe det, vi kalder observationsstress. Når man hele tiden bliver lyttet til og evalueret af et system, svarer det til, at en leder sidder med på alle samtaler. Det gør noget ved arbejdsmiljøet – og det fjerner frirummet til at bruge sin faglighed.”
Case 2: Performance og “kvalitetsudskiftning”
I en anden virksomhed vurderes medarbejdere i en kundevendt afdeling på deres evne til at håndtere sager effektivt. Performance måles blandt andet via antal gennemførte sager, tastaturanslag, tid brugt på telefon og sagskompleksitet.
Hvis data ikke indikerer særlige forhold, der kan forklare lavere produktivitet, risikerer medarbejdere at blive afskediget som led i "kvalitetsudskiftningen".
Generelt kan det skabe en følelse af uretfærdighed og usikkerhed, hvis den type dataindsamling ikke følges op af dialog og kontakt med en leder, der kender den enkelte medarbejder.
“Data er aldrig neutrale. De rummer støj, bias og fortolkningsrum. Hvis man ikke er opmærksom på det, risikerer man at træffe beslutninger, der virker objektive – men reelt er dybt uretfærdige,” siger Johan Busse, der fortsætter:
“Et system kan sige, at Henrik scorer lavt. Men lederen ved måske, at Henrik er uundværlig i teamet, fordi han hjælper nye kolleger og løfter den samlede trivsel.”
Case 3: AI i lønsamtaler
I en større virksomhed bruges et AI-værktøj til at assistere i årlige lønsamtaler. Det analyserer data fra flere kilder – bl.a. kurser, samarbejdsmønstre og strategisk vigtighed – og udarbejder en prioriteret liste over lønstigningskandidater.
Men for mange medarbejdere fremstår systemet som en sort boks, og medarbejderne ved ikke, hvad der vægter mest, da de ikke har adgang til algoritmen eller dens parametre.
Johan Busse peger på, at det bryder med danske ledelsestraditioner.
“Vi er vant til, at man får en forklaring, hvis man ikke får en lønstigning. Den forklaring forsvinder, når det hele baseres på en algoritme – og det kan underminere oplevelsen af retfærdighed og skabe mistillid,” siger han og fortsætter:
”Desuden er der krav i funktionærloven om saglighed i forbindelse med afskedigelser. Det skal algoritmen leve op til."
Sådan et system risikerer ifølge Johan Busse også at favorisere profiler, der scorer højt i synlige KPI’er – men ikke nødvendigvis dem, der fx bidrager til det faglige fællesskab på måder, som ikke lader sig måle.
Tillid kræver transparens – og samtale
Johan Busse mener, at de tre cases meget fint illustrerer, at det ikke nødvendigvis er systemerne, der er problemet. Det handler om, hvordan de bruges.
”Det er helt klassiske dataetiske dilemmaer –systemerne er ikke uetiske, men brugen kan være det. Derfor er det vigtigt med åbenhed, og at man har et sted at drøfte det. Tillidsrepræsentanter og arbejdsmiljørepræsentanter er oplagte at tage fat i, hvis man er bekymret eller i tvivl,” siger han.
Dataetisk Råd kom i 2024 med en analyse på 100 sider om dataetiske perspektiver ved brug af medarbejderdata https://dataetiskraad.dk/dataetiske-temaer/dataetik-paa-arbejdspladsen. Her udforsker rådetde komplekse dataetiske dilemmaer, der kan opstå ved indsamling og anvendelse af medarbejderdata på arbejdspladser.
Tidligere i år blev den analyse fulgt op et gratis samtalespil ”Dataetik på Spil” , der kan hjælpe med at tage hul på de vigtige samtaler om brugen af data på arbejdspladsen.
“Dataetik handler ikke om at finde det rigtige svar – men om at stille de rigtige spørgsmål. Det er i dialogen mellem ledelse og medarbejdere, at tillid og ansvarlighed opstår. Det skal være arbejdspladsens data – ikke arbejdsgiverens alene.”
“Vi har en tendens til at tro for meget på data. Men ikke alt, der kan måles, er vigtigt – og ikke alt, der er vigtigt, kan måles. Derfor skal vi være varsomme med at lade datasystemer definere vores arbejdsliv, uden at vi reflekterer over, hvad de gør ved relationer, ledelse og kultur.”
Fem datatyper, der typisk indsamles om medarbejdere
- Adgangs- og lokationsdata
Data fra adgangskort, wi-fi-logning og booking af arbejdsstationer viser, hvornår og hvor medarbejdere befinder sig – anvendes primært til sikkerhed, facilitetsstyring og optimering af kontorplads. - Brugsdata fra digitale systemer
Systemer som e-mail, Teams, Slack, intranet og kalendere genererer logdata om kommunikation, mødeaktivitet og brugsmønstre. Ofte anvendt til analyse af arbejdsgange og samarbejde. - Enheds- og IT-aktivitet
Indsamling af tastetryk, filoverførsler, applikationsbrug og browserhistorik. Bruges primært til it-sikkerhed og risikostyring. - Biometriske adgangsdata
Fingeraftryk og ansigtsgenkendelse benyttes i stigende grad til fysisk og digital adgangskontrol. - Selvrapporterede og frivillige data
Data fra fx trivselsmålinger og medarbejderundersøgelser.
Jo mere åbenhed, jo større accept
Finansforbundet har i flere år arbejdet aktivt for at sætte de dataetiske drøftelser på dagsordenen. Det sker både gennem politiske udspil og praktiske værktøjer – og ved at styrke tillidsrepræsentanternes rolle i de teknologiske spørgsmål, der i stigende grad former arbejdslivet.
I 2023 gennemførte Finansforbundet en analyse, der viser, at mens mange medlemmer har en grundlæggende tillid til, at deres data behandles ansvarligt, har kun få reelt indsigt i, hvilke data der bruges – og hvordan.
”Større kendskab til, hvordan AI og data bruges, fører til større tillid. Derfor er den tillidsbaserede kultur på det danske arbejdsmarked også afgørende i tilgangen til AI," siger Steen Lund Olsen, næstformand hos Finansforbundet.
"Det skal integreres i det kollektive samarbejde, og derfor har vi også i den nye overenskomst aftalt, at paterne bør drøfte brugen af medarbejderdata og sammen udvikler retningslinjer."
Finansforbundet anerkender helt overordnet, at ny teknologi som AI og datadrevne løsninger er en del af forretningen og arbejdsliv i den finansielle sektor.
”AI har et stort potentiale til at forbedre både arbejdsmiljø og processer til gavn for både bundlinje og medarbejderne. Det kræver klare rammer, medarbejderinddragelse og bevidsthed om, hvordan det bruges. Det handler nemlig ikke kun om, hvad der er muligt og lovligt, men også hvad der er ansvarligt," siger Steen Lund Olsen.
“At gå forrest digitalt, kræver også, at man går forrest, når det handler om etik, ordentlighed og tillid."
Ansvarlig AI udvikling
Ansvarlig AI kræver bl.a. medindflydelse, kompetenceudvikling og klare etiske retningslinjer.
Bliv klogere på AI