Hand­bok vid för­ändringar

– med fokus på ansvarsfull AI och god dataetik

Ladda ner handboken här.

Inledning

Det enda konstanta i livet är förändring, sa den grekiske filosofen Herakleitos. Talesättet är kanske mer aktuellt än någonsin. För just nu präglas försäkringsbranschen av en omfattande struktur-omvandling. Tillgången till data ökar och teknologier som artificiell intelligens (AI) används mer. Eftersom försäkringsbranschens viktigaste råvara är just data kommer nya regleringar i kombination med ny teknik påverka kunder och det omgivande samhället, likväl som de anställdas arbetssituation.

När tillgången till uppgifter som går att koppla direkt till anställda och team ökar, aktualiseras även algoritmisk arbetsledning från arbetsgivarens sida. Datadrivna arbetsmetoder är förvisso inget nytt. Arbetsgivare i försäkringsbranschen har länge ägnat sig åt olika typer av uppföljning av anställda. Det handlar om kontroll av arbetstid, loggning av aktiviteter, GPS-spårning samt röstigenkänning. Men med större tillgång till data och användning av AI kommer digitala övervakningsmetoder och processer att förfinas och utvecklas.

Framtiden för datadelning och AI i försäkringsbranschen är samtidigt lovande och har potential att revolutionera hur bolagen arbetar och erbjuder sina tjänster. Rätt hanterad kan utvecklingen bidra till avsevärda förbättringar inom lönsamhet, effektivitet, kundupplevelse (för försäkringstagare) och arbetstillfredsställelse (för arbetstagare).

Som medlem i Forena är du med och påverkar på arbetsplatsen. Du har ett viktigt uppdrag.  Som de försäkringsanställdas representant i försäkringsbranschen har Forena ansvar att medverka till en positiv utveckling. Vi behöver bemöta eventuella risker och på ett konstruktivt sätt, för både försäkringstagare och arbetstagare. Hela förbundet behöver gemensamt påverka och inspirera varandra till handling – genom förhandling och aktiv arbetsplatspåverkan. Det är mot denna bakgrund Forena tagit fram denna handbok.

För­troende­valda och medlemmar om AI och automation

Helt nya siffror från Forena visar att fler än tre av fyra medlemmar (77 procent) bedömer att AI och automatisering kommer att ha stor betydelse för försäkringsbranschen de närmaste fem åren.​[1] Det är i högre grad medlemmar under 34 år samt ledare och chefer som bekräftar att denna utveckling.

Och Forenas förtroendevalda gör det i ännu högre grad. Redan i januari 2023 svarade 85 procent att AI och automation kommer att ha stor påverkan på branschen de kommande fem åren.[2]  I princip alla förtroendevalda (86 procent) uppgav därutöver att behovet av ny kunskap är stort – och att arbetets innehåll kommer förändras (84 procent). Nästan alla konstaterade att AI och automation kommer att ha betydelse för lönsamhet, effektivisering och innovation i branschen. Här finns en enorm potential.

Samtidigt finns risker att hänföra till oro. Drygt hälften av Forenas förtroendevalda (54 procent) känner farhågor för kundernas integritet när volymer av data ökar och mer information delas mellan företag och tredjepartsaktörer. Nästan lika många är oroliga för de anställdas integritet och hanteringen av deras data till följd av mer övervakning i det dagliga arbetet (49 procent).

I undersökningen konstaterade vidare 64 procent av förtroendevalda att de betraktar förändringar inom AI och automation som viktigare förändringar som bör förhandlas. Men endast en tredjedel (30 procent) svarade att det finns fungerande lokal dialog innan denna typ av strategiska förändringar. Övriga 70 procent svarade att det inte finns eller att de inte vet om det finns någon sådan dialog. Vi behöver därför påminna både oss själva och arbetsgivarna om arbetstagarinflytandet och ta mer vara på möjligheterna som det ger.

[1] Novus medlemsundersökning genomförd nov-dec 2023 med 2467 webbintervjuer av yrkesverksamma.

[2] Forenas undersökning om AI och automation genomfördes mellan december 2022 och januari 2023 via Insurvey. Population cirka 800 förtroendevalda och svarsfrekvens 30 procent.

Digitala spår och bryggor mellan enheter

Vid användningen av digitala enheter, i sociala medier eller vid användningen av programvaror på jobbet, lämnas olika former av digitala spår. Fler bryggor mellan olika program och tjänster, så kallade API: er (Application Program Interfaces) är numera standardiserade sätt att överföra information som vi använder dagligen, ofta utan att veta om det. Den ökade tillgången till data innebär att den sedan kan användas av andra program för att visa information och utföra reella arbetsuppgifter. Detta bidrar till digitala spår, men möjliggör också nya tjänster och produkter. Det kan följaktligen utveckla exempelvis rådgivning och skadereglering genom att anställda lättare kan se varje försäkringstagares uppgifter och information för att kunna ge personlig service och fatta mer individualiserade beslut rörande priser och ersättning.

När programvaror i arbetet är uppkopplade mellan varandra kan arbetsgivare på liknande sätt tekniskt och teoretiskt teckna digitala versioner av sina anställda. Detta innebär mer datadriven arbetsledning som bygger på data om anställda och/eller data som har genererats när arbets-uppgifter utförts. Algoritmisk arbetsledning gör det möjligt att övervaka arbetsmoment i större utsträckning och kan leda till snabbare beslutsfattande, resultatåterkoppling, leverans och större effektivitet i verksamheter.

Det finns samtidigt risker att API: er i kombination med algoritmer analyserar såväl försäkringstagares som arbetstagares data felaktigt. Ju mer beteendedata som används för att träna upp AI som förutspår andra potentiella individers eller kunders beteenden, desto större risk finns att även individer, grupper eller för den delen utsatta platser väljs bort. Med en alltmer detaljerad information om såväl väder som vind och mer personliga förehavanden kan det i praktiken innebära att det blir svårare att teckna försäkring. Gentemot arbetstagare är det dessutom begränsade möjligheter till att förstå hur digital övervakning och datainsamling görs och ytterst få arbetsplatser har någon policy. Frågor om ansvarsfull AI och god dataetik blir viktiga, både gentemot arbetstagare och försäkringstagare.

För en konkurrens­kraftig för­säkrings­bransch

Forena ska aktivt möta förändringar som rör AI och dataetik inom ramen för det fackliga uppdraget. Utvecklingen beskrivs också i Forenas rapport ”Strukturomvandling i försäkringsbranschen - med fokus på AI och automation – status och framåtblick”. I princip alla verksamheter och anställda påverkas mer eller mindre, och som facklig organisation har vi ett ansvar – och rätten - att vara delaktiga. Detta för att vi vill se en konkurrenskraftig och hållbar försäkringsbransch som tar den samhällsnyttiga funktionen – och omsorg om kundernas såväl som de anställdas trygghet – på allvar.

Med denna handbok hoppas vi ge insikter och motivera till hur Forena lokalt kan bli mer proaktiva i det strategiska samarbetet med arbetsgivare. Målsättningen är att uppnå både konkurrenskraft och trygghet i förändring – får både kunder och anställda. Etisk tillämpning av Artificiell Intelligens är en strategiskt facklig fråga – och vi behöver bli fler för att bidra till företagens och anställdas utveckling i den nu snabba digitala utvecklingen.

Hur olika tekniker och program implementeras och används avspeglas i resultaten och arbetsförhållandena i verksamheterna. Som arbetstagarrepresentanter på företagen har vi en viktig roll att spela. Vi företräder inte bara våra medlemmars och de anställdas intressen, utan likväl behöver vi lyfta in kundernas perspektiv i en bredare bemärkelse.
Genom att vara en aktiv lokal part i viktiga förändringar kan vi vara delaktiga i att bestämma att den tekniska utvecklingen ska ge oss verktyg som både förbättrar och förenklar våra jobb. Snarare än tvärtom. Då behöver vi också tillvarata och dra nytta av det systematiska arbetsmiljöarbetet.

Redan 2021 undertecknade Forena som part i försäkringsbranschens sociala dialog i Europa en avsiktsförklaring om etisk tillämpning av Artificiell intelligens. Den var då den första i sitt slag. Försäkringsföretagen i Sverige och Forena har alltså gemensamt slagit fast att ”AI bör utformas och används för att förbättra snarare än ersätta mänsklig kapacitet”.

Tips! Läs gärna hela avsiktsförklaringen i Bilaga 1.

Den svenska partsmodellen kan sammanfattas med ett ord – samarbete. Modellen bygger i grunden på kollektivavtal i kombination med ett starkt arbetstagarinflytande via lagstiftning. Den går ut på att fackförbund och arbetsgivare tillsammans kommer överens om arbetsvillkor – i stor utsträckning lokalt på arbetsplatserna. Oavsett om det gäller inflytande via medbestämmande (MBL), systematiskt arbetsmiljöarbete (AML) eller konsekvensbedömningar enligt dataskyddsförordningen (GDPR), är det viktigt att komma in tidigt i förändringsprocesserna. Löpande dialog och information i god tid innan är lagstadgade förutsättningar och möjligheten för Forena att påverka förändringar i rätt riktning.

Enligt MBL är arbetsgivare skyldiga att ta initiativ till förhandling med arbetstagarorganisationen vid viktiga förändringar på arbetsplatsen. Detta regleras i 11 § MBL och innebär att förhandling ska ske innan beslut om en viktigare förändring fattas. Syftet med förhandlingen är att bidra till att arbets-givaren fattar kloka beslut utifrån bredare beslutsunderlag. Arbetsgivaren är också skyldig att fortlöpande hålla fackliga parter informerade om företagets utveckling och bidra med konkreta underlag som rör exempelvis ekonomi och personalpolitik (§19 MBL).

Forena har härutöver ett kollektivavtal med Försäkringsbranschens arbetsgivarorganisation (FAO) om Medbestämmande. Medbestämmandeavtalet lyfter vikten av att strategiska frågor kräver samordning på övergripande företagsnivå – och då i nära samarbete med de fackliga organisationerna.

Vad kan en viktigare förändring vara?

Det kan handla förändring av arbetsorganisationen, utvecklingen och upphandlingar av nya system samt frågor som rör nya programvaror, användningen av AI och behandling av personuppgifter med mera.

Likaså ska riskbedömningar genomföras för att uppnå en god arbetsmiljö för att förebygga ohälsa enligt arbetsmiljölagen (AML). I och med Forenas branschavtal med FAO inom Arbetsmiljöområdet finns därutöver goda möjligheter att vidga arbetsmiljöarbetet ytterligare. 

Enligt Arbetsmiljöavtalet ska arbetsgivare regelbundet undersöka såväl arbetsförhållanden som bedöma risker i arbetet. Ansvariga chefer ska dessutom fortlöpande informera arbetsmiljöombud om förändringar av betydelse för arbetsmiljön på företaget.

Genom att även hantera viktiga förändringar inom det systematiska arbetsmiljöarbetet, utöver de regelrätta medbestämmandeförhandlingarna, kan Forena lokalt fackliga hantera viktiga förändringar, även med koppling till arbetsförhållanden och risker.

När arbetsgivare vill behandla arbetstagares personuppgifter av skäl utöver det som är nödvändigt för att följa Dataskyddsförordningen (GDPR) och avtal är arbetsgivaren hänvisad till berättigat intresse. Det betyder att behandlingen av uppgifter inte får stå i strid med arbetstagarnas rätt till privatliv eller god sed på arbetsmarknaden.

Det finns inte någon lista för vad som är ett berättigat intresse utan kan skilja sig från situation till situation. Det kan handla om uppgifter som gör det möjligt för arbetsgivaren att planera, leda och följa upp arbetet. Arbetsgivaren måste göra tydligt varför och i vilket syfte som arbetstagarnas personuppgifter behöver behandlas. Och en intresseavvägning ska göras och om arbetsgivarens intresse väger tyngre än arbetstagarens så finns kort och gott rättslig grund för behandlingen.

Vill arbetsgivaren inleda en behandling av personuppgifter, och då ofta genom användning av ny teknik som kan innebära risker, ska arbetsgivaren göra en konsekvensbedömning, även kallad DPIA. DPIA är en förkortning för Data Protection Impact Assessment. Dessa ska genomföras för att vara förutseende och att förebygga risker så att arbetstagares fri- och rättigheter skyddas. Det är viktigt att i princip alla personuppgiftsbehandlingar som innefattar övervakning eller är kopplade till former av algoritmisk arbetsledning blir föremål för en DPIA.

I relationen till försäkringstagare och kund används ofta samtycke. Mot bakgrund av beroende-förhållandet mellan arbetstagare och arbetsgivare genom anställningen är det emellertid i princip uteslutet att använda samtycke. Anställda har rätt att i förväg få tydlig information om vilka kontroller som kan göras av dem.

När en arbetsgivare gör en konsekvensbedömning ska samråd ske med den fackliga klubben på arbetsplatsen. Detta följer både av dataskyddsförordningen (Artikel 35) och MBL. I intresse-avvägningar och konsekvensbedömningar av behandling av personuppgifter kommer vi från Forena behöva spela en större roll framöver. Forenas klubbar blir alltmer frekvent involverade i processer som rör konsekvensbedömningar avseende dataskydd. Kontakta Forena centralt för mer information.

Tio punkter för en god dataetik

Forenas utgångspunkt är att teknikutveckling och innovation är en självklar del av arbetslivet och framtiden. Vi välkomnar den ökade användningen av data och artificiell intelligens (AI) i försäkringsbranschens digitala ekosystem och allt det som utvecklingen för med sig. Lika självklart är det att utvecklingen av tekniken liksom användningen densamma är ansvarsfull och hållbar.

Forenas tio punkter för en god dataetik är förbundets strategi för ett ansvarsfullt utnyttjande av den ökade mängden data, tekniken och för hela det framväxande ekosystemet inom försäkring. Och strategin gäller både gentemot kunder och gentemot anställda.

De sju inledande punkterna riktar sig till branschen, det vill säga försäkringsföretagen och andra arbetsgivare inom det växande digitala ekosystemet som försäkring utgör. Och de återstående tre punkterna riktar sig till politiken i form av beslutfattare och intressenter nationellt och i EU.

  1. Att dataetik ses som en strategisk ledningsfråga
  2. Att fler antar riktlinjer om anställdas data och dess användning
  3. Dialog och medbestämmande vid implementering
  4. Att Avsiktsförklaringen om etisk tillämpning av AI används
  5. Arbetsgivare investerar i säkra slutna källor och förtydligar de öppna
  6. Kompetensutveckling och lärande för alla anställda
  7. Att teknik och data värnar arbetsmiljön
  8. Göra politiker och myndigheter medvetna om arbetstagares intressen och behovet av lagstiftning för behandling av personuppgifter på arbetsplatsen
  9. Utökat nationellt branschråd om dataetik och konkurrenskraft

Nationella ramverk och transparenta processer om dataetik

  1. Att dataetik som en strategisk ledningsfråga

Det är viktigt att företagens styrelser sätter dataetik och digital tillit på agendan. Det börjar på toppen, och dataetik behöver hanteras som en strategisk ledningsfråga. Här spelar Forenas förtroendevalda arbetstagarrepresentanter i bolagsstyrelserna en strategisk roll. Styrelser tillsammans med företagsledningar har det övergripande och yttersta ansvaret för företagens verksamheter och utveckling. Genom att Forena bidrar kan också dataetik införlivas i företagets processer och kultur, på alla nivåer.

Även HR kan spela en mer central roll för att säkerställa att framför allt anställdas data används korrekt i relevanta system och processer. HR har också ett ansvar för att chefer använder system systematiskt och ändamålsenligt och att medarbetare därutöver får kännedom och kunskap om vad system och programvaror hanterar för uppgifter och i vilket syfte.

  1. Riktlinjer om anställdas data och dess användning

Rätten att behandla anställdas data finns i första hand inom arbetsrätten och i dataskyddsförordningen (GDPR). Och det finns möjligheter till behandling utöver den om den är nödvändig utifrån arbetsgivares, kunders eller leverantörers intressen. Det är alltså, i vissa fall, tillåtet att behandla anställdas uppgifter på en mer övergripande, men inte godtyckligt, för att följa upp kvalitet och för att effektivisera verksamheter.

Forenas uppfattning är att anställdas uppgifter kan få användas under förutsättning att det sker på ett rättssäkert och tydligt sätt. Det gäller därför att vara uppmärksam när arbetsgivare implementerar exempelvis nya system. Vi vill därför att det genomförs kartläggningar och att det finns rutiner – riktlinjer – för hur arbetsgivarens användning av anställdas data ser ut. Det behöver också finnas rutiner för hur arbetsgivaren informerar anställda om dataanvändning och hur den är tänkt att användas. Riktlinjer ska tas fram i dialog genom medbestämmande med den lokala Forena-klubben och gärna i samverkan till arbetsmiljöorganisationen.

  1. Dialog och medbestämmande vid implementering

Precis som andra försämringar omfattas förändringar i hanteringen och användningen av data och AI-modeller av arbetsgivarens förhandlingsskyldighet. Vid införandet av nya teknologier, system som påverkar hanteringen av data och övergripande riktlinjer inom området ska fackligt förtroendevalda ha goda möjligheter att vara delaktiga i beslutsprocessen.

Medbestämmande gällande dataetik bör utformas så att inflytandet för de anställda säkerställs liksom en god arbetsmiljö. Det kan alltså likväl ske inom ramen för samverkan och det systematiska arbetsmiljöarbetet. På dessa sätt kan arbetstagarnas synpunkter och åsikter om företagets hantering av data komma fram och vi kan säkerställa att förändringar sker på ett sätt som respekterar integriteten och rättigheterna hos de anställda.

Utöver medbestämmande i frågor som rör viktigare förändringar kan företag alltid involvera anställda i alla relevanta processer och beslut. Anställdas möjligheter till engagemang och inflytande på jobbet kan ske på flera olika sätt, utöver medbestämmandet.

  1. Att avsiktsförklaringen om etisk tillämpning av AI används

Redan år 2021 antog parterna inom försäkringsbranschen – arbetsgivar- och arbetstagarorganisationerna i EU - en avsiktsförklaring om etisk tillämpning av AI. Den behandlar också dataetik. Avsiktsförklaringen är välbalanserad och fortfarande aktuell. I avsiktsförklaringen fastslår parterna bland annat:

− att AI är ska vara utformat och användas för att förbättra snarare än ersätta mänsklig kapacitet

− att tekniska innovationer behöver avgöras av och bero på mänskliga beslut och mänsklig tillämpning

− att man vill säkerställa information och samråd för att främja ansvarsfull och god etisk tillämpning av AI. Dialog på arbetsplatsen bedöms viktig.

− att man vill säkerställa transparens och regelefterlevnad vid användning och bearbetning av kunders och anställdas data.

− att säkerställa efterlevnad av EU:s grundläggande och mänskliga rättigheter och jämlikhet

I Bilaga 1 finns Avsiktsförklaringen i sin helhet.

  1. Arbetsgivare investerar i säkra slutna källor och förtydligar de öppna

Det är viktigt att säkerställa att större informationsdelning och värdeskapande i AI-modeller hanteras och används inom företaget, inga öppna källor. Det är därför oerhört viktigt att vara medveten om riskerna med öppen generativ AI, som chatGBT och Bard. Dessa bör hanteras med viss försiktighet och aldrig med känsliga personuppgifter, som är väl förekommande inom försäkringsbranschen.

Att istället ha öppna interna system gör det både enklare och säkrare för anställda att vara delaktiga och delta i utvecklingen av AI-teknologi och användningen av data. Då stannar datamängderna inom verksamheten, snarare än att den tillfaller en viss leverantör eller aktör. Det skapar en atmosfär av samarbete och ökar chansen att integrera etiska perspektiv i systemutvecklingen. Mer av öppna interna AI-system bidrar till att skapa en etisk och förtroendefull miljö, samtidigt som de uppfyller krav om integritet i arbetslivet och ett högt dataskydd av personuppgifter. 

  1. Kompetensutveckling och lärande för alla anställda

Olika former av avancerad automation, generativ AI och olika API:er har redan inneburit förändringar för Forenas medlemmars arbetsliv. Vi ser att det kommer att öka exponentiellt framåt. Förutom påverkan på såväl individuella och organisatoriska arbetssätt som på interaktionen med omvärlden accelererar utvecklingen.

Enligt § 6 i kollektivavtalet med FAO ska arbetsgivare ha framförhållning och planering vid förändringar (i bemanningens storlek) och upprätthålla och vidareutveckla kompetensen i företagen för att uppnå konkurrenskraft.  Arbetsgivaren ska också ansvara för att arbetet organiseras på sådant sätt att tjänstemannens kompetens utvecklas. Vi vill se mer av stöd och goda möjligheter till att bygga ny kompetens och stärka lärandet för anställda i branschen.

Kompetensförsörjningsbehovet är brett och hur man klarar anamma det livslånga lärandet blir allt viktigare. Utmaningen ligger i att skapa möjligheter för individer att utvecklas och ta del av ett livslångt lärande som gör att de kan verka produktivt i ett samhälle där människor och en ökad mängd data tillsammans med AI samexisterar.

  1. Att teknik och data värnar arbetsmiljön

När den tekniska utvecklingen går snabbt och förändringar sker reagerar alla individer olika. Det finns också en stor bredd i vad anställda upplever vara ny teknik. Vissa tycker det är roligt medan andra blir oroade och stressade.

Forenas medlemmar och förtroendevalda ser en stor nytta med den nya tekniken och en större användning av data. Det finns ett starkt stöd för att få bättre lösningar och verktyg som innebär att man kan göra ett bättre och få ett mer stimulerande jobb. Samtidigt finns en underliggande rädsla för de stora förändringarna och i slutändan för att bli av med jobbet. Detta skapar stress och oro.

Det är därför viktigt att implementeringen av ny teknik aldrig sker på bekostnad av en försämrad arbetsmiljö eller stress. Arbetsgivaren ska alltid samverka för att kartlägga om det finns risker ur arbetsmiljösynpunkt.

  1. Göra politiker och myndigheter medvetna om arbetstagares intressen och behovet av lagstiftning för behandling av personuppgifter på arbetsplatsen.

Den strukturomvandling som sker inom försäkringsbranschen och den nya digitala ekonomins logik påverkas i hög grad av framväxten av olika EU-regleringar. Därför behöver Sverige och den svenska försäkringsbranschen tillsammans vara en stark röst i EU. EU:s inre marknad, som säkerställer fri rörlighet för människor, kapital, varor och tjänster, är i ständig utveckling och det pågår diskussioner vad som kan göras för att förbättra den och få en öppnare finansbransch.

I fråga om dataetik innebär det strävan efter en rättvis och lika tillgång till data, baserad på verkliga och likvärdiga villkor. Det finansiella ekosystemet är komplext och växer när mer data används och delas. Det är därför viktigt att många intressenter, utöver de företag som betraktar sig själva utgöra den inre marknaden i EU inom finans, är med och beslutar om vilken data som ska delas inom ramen för finansiella tjänster. Företagens möjligheter till innovationer och nya affärer baserade på individernas data och samarbeten med externa leverantörer behöver stå i paritet till individens och konsumentens intressen.

Den inre marknaden behöver fortsatt balanseras mellan ekonomiska och individers, konsumenters - och arbetstagares, intressen. Vi ser därför att det behövs en samlad arbetsrättslig lag med skydd för arbetstagares integritet i arbetslivet.

  1. Utökat nationellt branschråd om dataetik och konkurrenskraft

Mer data och avancerad automation och användning av API:er ger upphov till mer datadrivna verksamheter och produkter som minskar informationsunderskottet mellan försäkringsgivare och försäkringstagare. Det kan vara bra. Men mer personifierade försäkringsprodukter kan likväl innebära att individer eller grupper av individer får det svårare att bli försäkrade. Med mer data i omlopp kommer det traditionella sättet att bedriva försäkring att utmanas. Om vi vill möta detta och fortsätta ha höga ambitioner om digital tillit behöver också dataetiken vara en nationell och internationell konkurrens-parameter. Vi ser att dataetik behöver bli en mer omfattande integrerad del av branschens - och försäkringsföretagens arbete och verksamheter.

Samtidigt pågår diskussioner om utvecklingen av kapitalmarknadsunionen inom EU, som en del för att främja Sveriges konkurrenskraft. En viktig fråga relaterat till konkurrenskraft är för Forena just frågan om dataetik. Vi ser att en nationell satsning behövs för att lyfta upp frågan om dataetik och de olika intressenternas synpunkter inom ekosystemet försäkring och finans. Konkret vill vi se en bredare ansats inom ramen för de informella samtalen i ett utökat nationellt branschråd. Vi ser ett behov av att stärka hela finansbranschens konkurrenskraft ur ett samhällsperspektiv. Och då är dataetik essentiellt. Ett utökat branschråd behöver beakta försäkringens samhällsnytta i fråga om trygghet till individer och företag nu och framtiden.

  1. Nationella ramverk och transparenta processer om dataetik

Även om försäkringsmarknaden karaktäriseras av omfattande EU-regleringar som driver på utvecklingen, finns likväl en hög grad av nationell självreglering. Den är baserad på nationell och god försäkringssed. Det finns många avtalssituationer inom en bredd av verksamhetsområden inom försäkring, framför allt försäkringsdistribution. Vi ser också styrkan i självregleringen och vikten av det ömsesidiga intresset för kundens trygghet och för att upprätthålla allmänhetens förtroende för försäkringsbranschen. Det är i samhällets intresse.

Dataetik utgör således viktiga processer som branschen och företagen måste sträva efter att hantera i sina verksamheter, och som kan vara svårt att till fullo reglera. Det är vår hållning. Därför behövs det, oavsett det är frågor om dataetik relaterat till regleringar eller avtalssituationer, finnas ömsesidiga ramverk med fokus på dialog, där hela ekosystemet inom försäkring är representerat och olika intressenter kommer till tals. Tillsammans vill vi göra politiker och myndigheter medvetna om utmaningarna kopplat till användningen av AI-baserade verktyg och säkerställa en god dataetik.

Frågor och svar

Förändringar som utgör automatiseringar eller införande av nya algoritmer, ofta i kombination med hantering av data, är viktiga förändringar. De kan påverka företagets konkurrenskraft, affärsområden, erbjudanden, kunders beteenden och direkta arbetsförhållanden. De kan ha inverkan på arbetsmiljön. Därför är det viktigt att vi deltar i förändringar av strategisk karaktär som innefattar dessa områden så tidigt som möjligt för att kunna påverka processer och utfall.

Listan är lång och det finns AI som sammanställer dokument och journaler, prissätter, kontrollerar uppgifter, samlar in information – som till att fatta faktiska beslut. Automatiserat beslutsfattande är sedan länge vanligt inom försäkringsbranschen, mycket till följd av att den registrerade samtyckt till automatiserat beslutsfattande eller att ett ingått avtal som möjliggör det. Läs gärna mer om vilken typ av AI och automation som används längs med värdekedjan i Forenas rapport ”Strukturomvandling i försäkringsbranschen - med fokus på AI och automation – status och framåtblick”.

Den finns sedan slutet av 2023 en struktur på plats för att försäkringsföretag ska kunna stå emot olika digitala risker, incidenter och andra it-problem. Den kallas för DORA och är bland annat kopplat till just system som hanterar data och AI. I verksamheter som använder automatiserade verktyg vid rådgivning ställs särskilda krav på kontroll och uppföljning av operativa risker. Regelverket tar ett helhetsgrepp på effektiv riskhantering, motståndskraft i fråga om cybersäkerhet, och hantering av tredjepartsrisker. Sammantaget ska det nya regelverket säkerställa konsekventa och säkra och tjänsteleveranser genom hela värdekedjan. Detta är en viktig förändring som kommer att påverka både partners och anställda i olika verksamheter från och med nu och framåt.

Arbetsgivaren har ansvaret för arbetsledning och arbetsmiljö, även där AI är en del i beslutsfattandet. Däremot blev det i slutet av förra året beslutat om ett särskilt direktiv för plattformsarbetare i EU. Det innebär att AI-plattformar, inom ramen för just dessa gig-arbetare, tillåts hantera gränser för ersättning och övervakning av arbetets utförande och kontroll av direkta arbetsförhållanden. Gig-arbetarna har i sin tur rätt till insyn i hur algoritmerna fungerar och hur data behandlas. Enligt direktivet är det dock förbjudet att enbart använda automatiserade system för att fatta vissa beslut om till exempel uppsägningar.

Investeringsrådgivning är tillståndspliktig och det är styrelsen som ska ha tillräcklig kunskap och erfarenhet för att leda och fatta beslut. Det är viktigt att den verkställande ledningen för verksamheter som tillhandahåller automatiserade finansiella tjänster, i tillägg till kunskap om finansiell verksamhet, även har teknisk kompetens. Vid digital rådgivning är det särskilt viktigt att fundera över om det är möjligt att hämta in tillräckligt detaljerad information genom AI eller annan digital tjänst om kunderna i förhållande till de finansiella instrumenten som erbjuds. De uppgifter som hämtas in från kund kan variera beroende på vilken typ av produkter rådgivningen avser och vilken typ av kund som erhåller rådet. Bestämmelserna i IDD ger utrymme för flexibilitet. Automatiserade rådgivningsverktyg kan ibland vara ett klokt alternativ då det, rätt konstruerat, kan minimera intressekonflikter.

Plötsligt hörsammar ni från fackligt håll att det är en viktig förändring på gång på företaget. Arbetsgivaren har informerat enligt MBL och förhoppningsvis kallat till förhandling inför kommande beslut. Vid en sämre ordning kan beslut redan ha fattats – och då blir det en process att pausa för att ni ska få möjligheten att bidra i beslutsprocessen. Oavsett ordning ska ni lokalt få tillfälle till att ta del av underlag och tid att granska de handlingar som ni bedömer att ni behöver. Det är viktigt för att få kunskap och en bredare förståelse för den aktuella förändringen. Det är också en förutsättning för att vi ska kunna bidra konstruktivt. Syftet är ju just att arbetsgivaren ska få ett bredare beslutsunderlag genom dialogen med Forena-klubben.

Här kommer några förslag på frågor att ställa för att bredda arbetsgivarens underlag i en förhandling och bidra konstruktivt i diskussioner och samtal. Man kan se frågorna som kontrollfrågor för att säkerställa goda överväganden och att arbetsgivaren utrett frågor väl innan beslut fattas.

  • Vilket är övergripande målet och syfte med förändringen?
  • Finansiella mål ut och eventuellt hur påverkas bemanningen?
  • Vem eller vilka har formellt ansvar för de beslut som förväntas fattas till följd av förändringen?
  • Vem från Forena är med i det strategiska arbetet? Andra fackliga företrädare från andra förbund?
  • Hur ser den fackliga representationen ut? Finns det eller behöver man upprätta särskilda arbetsgrupper?
  • Vad vet företagets bolagsstyrelse och den fackliga arbetstagarrepresentanten från Forena?
  • Vilka verksamheter och affärsområden och team berörs? Och på vilket sätt?
  • Om en verksamhet förändras – hur säkerställer vi att arbetsgivaren uppfyller framförhållning för att kunna planera och organisera för att kunna vidareutveckla erfaren kompetens?
  • Hur påverkas chefer och ledare? Är HR/ledarskapet informerade om förändringens innebörd?
  • Hur har arbetsgivaren tagit hänsyn till GDPR?
  • Använder vi företaget öppna data idag? Vad delar vi med vem och under vilka premisser? Internt/internt?
  • Finns det behov av att ta in en arbetatagarkonsult för att få ett ännu bredare beslutsunderlag?

När företag med mer än 50 anställda vill göra förändringar som väsentligt påverkar verksamhet och som påverkar de anställda finns enligt Forenas medbestämmandeavtal med FAO möjlighet till extra stöd för de lokala fackliga organisationerna i form av biträde från en arbetstagarkonsult. Kontakta Forena centralt för mer information och få rekommendation om arbetstagarkonsult.

  • Vilka verksamheter eller detaljerade flöden/processer är det som ska automatiseras eller hanteras på nytt sätt?
  • Hur kommer beslutsgången se ut och fungera? Vem äger ansvaret om förändringen innebär att beslut mer fattas av en algoritm? Hur görs överklagande av beslut?
  • Tidsperiod. När och under hur lång sikt ska detta ske?
  • Vad är nästa steg i processen? Ska fler arbetsuppgifter automatiseras?
  • Hur ser processen för att utvärdera resultaten och konsekvenserna av förändringen ut?
  • Finns resurser för att säkerställa inflytande och implementering av den nya tekniken/AI-lösningen?
  • Vem utvecklar programvaran - algoritmen? In-house, konsult eller färdig produkt? Ligger programvaran i linje med anställdas rättigheter och företagets kultur?
  • Om rådgivare nu ska kunna lägga mer tid att öka kvaliteten i tjänsterna, hur ska det gå till? Finns utvecklingsplan? Hur ser den bemanningen ut på kort, medellång – lång sikt?
  • Hur integreras det nya systemet i de befintliga system vi redan har? Finns plan för detta?
  • Vem tar hand om support när algoritmen eller nya molntjänster strular?
  • Vad händer om något inte stämmer eller blir fel? Hur ser processer för cybersäkerhet ut?
  • Är företaget låst till en viss leverantör – hur ser upphandlingen i så fall ut?
  • Hur ser processen ut för en eventuell dataskyddskonsekvensbedömning (DPIA)?
  • Innebär den nya tekniken att den eventuella behandlingen av personliga data är skälig, rimlig och proportionerlig i förhållande till vad man vill uppnå?

  • Är den lokala arbetsmiljöorganisationen inkopplad?
  • Säkerställa att risk- och konsekvensanalys genomförs enligt AML.
  • Kommer det uppstå situationer av ”nya sorters” stress eller psykisk ohälsa?
  • Hur hanterar arbetsgivaren risk- och konsekvensanalysen? Finns en handlingsplan?

Tankar om en för­säkrings­bransch i förändring

Det fackliga inflytandet på Forena handlar till stor del om att bidra till att arbetsgivare i branschen fattar välgrundade beslut som leder till konkurrenskraftiga verksamheter som präglas av arbetsglädje och utveckling. I din roll som fackligt förtroendevald har du möjlighet att aktivt bidra till detta och skapa goda förutsättningar för medlemmarnas arbetsliv.

Här följer några citat från förtroendevalda i Forena som delar med sig av tankar om hur AI och användning av mer data kan påverka branschen och förbundet. Citaten är oberoende av varandra och kommer från undersökningen om AI och automation från januari 2023.

Finns alltid massa risker med ny teknik och förflyttningar av data eftersom allting går väldigt snabbt när man beslutar sig för nya system tex. Vi behöver mer kunskap för att bättre kunna tänka på alla risker, som kan bli. Och för att få ta del av rätt underlag och handlingar vid förhandlingar.

Ja, roller som exempelvis rådgivare kommer troligen blir mer urvattnad och kräver minimal kunskap/erfarenhet. Däremot behöver man kunna hitta kunskap i systemen. Så vi behöver driva på för långsiktiga insatser för kompetensutveckling.

Jag tror att vi kommer ha en stor förflyttning av personal från sälj och skadereglering i framtiden. Många av dagens tjänster kommer nog att hamna inom IT/projekt/affärsservice med tillhörande utbildningsinsatser till följd. Det måste vi också säkerställa. Risken finns att många blir oroliga men jag tror inte att det kommer bli färre anställda utan man får jobba med nya saker.

Jag är väldigt rädd för AI och automatisering, att det kan skapa mer av arbetslöshet och personalneddragningar. Samtidigt kommer AI att hjälpa oss att jobba med mer utvecklande arbetsuppgifter – och vi kan få känna ännu mer arbetsglädje.

AI är nog ingen jätterevolution för branschen. Men det kommer att vara avgörande för att effektivisera processer ytterligare och framför allt för att analysera utfall för framtida prognostisering och prissättning. Mängden data som kan behandlas och enkelheten, kommer dock utgöra påtagliga risker för överanvändning som inte har ett tydligt ändamål. Och det gäller både i relation till försäkringstagare (konsumenter) och arbetstagare (anställda).

Skrämmande att vi går mot detta, var är hantverket, mänskliga kontakter. Risk för att kunder blir mer missnöjda med kundkontakten då AI aldrig kan ersätta den mänskliga kommunikationen och empatin.

Digitala risker måste tas på största allvar och måste vara hög med tanke på hur världen ser ut idag med externt intrång, terrorism, men även felaktig hantering av personuppgifter, mm. Här kan vi från facket ta större plats. Mer kunskap behövs.

Ju mer öppna data som finns i molntjänster etc. så klart risken för intrång ökar.

Är tämligen säker på att hel del rutinarbete samt marknadsföring kommer tas över av AI-tjänster. Stor påverkan inom försäljning, skador och kundservice kommer innebära mindre behov av anställda inom dessa kategorier. Samtidigt som nya roller ej kommer att öka i samma omfattning vilket kommer innebära färre medlemmar i framtiden inom vårt område. Sannolikt en starkare viktning mot anställda på bolagens IT-avdelningar med en helt annan kompetensprofil än dagens försäkringstjänstemän. Sannolikt fler ingenjörer. Detta ställer höga krav på oss i Forena.

En väl utbyggd och fungerande Forenaklubb – med många förtroendevalda – är helt avgörande för vår styrka och förmåga att påverka vår arbetssituation och vävda medlemmarnas intressen.  Direktkontakter mellan medlemmar och fackliga företrädare är viktiga. Hör av er till Forena centralt om ni behöver diskutera sakfrågor eller få stöd i kommande förhandlingar!

Lästips!

”Strukturomvandlingen i försäkringsbranschen med fokus på AI och automation – status och framåtblick”, Försäkringsfacket Forena (2023)

”Vaddå digital kompetens - Guide till en framtidssäkrad digital kompetens och transformation”, Futurion (2019)

”De som ser och vi som blir sedda – Dataskydd och integritet som en facklig fråga”, Arena Idé (2023)

“The Digital Transformation of Financial Services Markets and Industrial Relations – Exploring FinTech development in Denmark, Estonia, the Netherlands and Sweden” UNI Finance Fintech Report (2022)

“Your Boss Is an Algorithm – Artificial Intelligence, Platform Work and Labour” Antonio Aloisi & Valerio De Stefano (2022)

Och mer…

“Machine Platform Crowd”, Andrew McAfee & Erik Brynjolfsson

“Atlas of AI”, Kate Crawford

“Competing in the Age of AI”, Marco Iansiti & Karim Lakhani

“The Business Case for AI”, Kavita Ganeson

“More for Less”, Andrew McAfee

BILAGA 1: AVSIKTS­FÖR­KLARING AI OCH DATAETIK

Joint declaration on Artificial Intelligence by the European social partners in the insurance sector

Building on their joint declarations on digitalisation of 12 October 2016 and 15 February 2019[1], the European insurance social partners would like to encourage social partners at all levels in the insurance sector to deal with artificial intelligence (AI) in a reasonable way that provides opportunities for the sector and its employees. 

The social partners of the insurance sector adhere to the recommendations made by the European Commission high-level expert group (HLEG) in its Ethics guidelines for Trustworthy AI as these relate and are relevant to the insurance sector. 

Forenas personuppgiftspolicy gäller inte när du klickar på länken ovan eftersom du kommer till en extern webbplats.

Through this declaration, the social partners would like to stress that AI is designed and used to enhance rather than replace human abilities. AI, similarly to any other technological innovation, is neither good nor bad. Its character depends on human decision and application. The deployment of AI systems should follow the human in control principle. In this respect, the social partners also refer to the European framework agreement of June 2020 on Digitalisation and in particular to chapter 3 “Artificial Intelligence (AI) and guaranteeing the human in control principle”.

Forenas personuppgiftspolicy gäller inte när du klickar på länken ovan eftersom du kommer till en extern webbplats.

[1] Joint declaration on the social effects of digitalisation by the European social partners in the insurance sector of 12 October 2016 (link) and its follow-up joint declaration of 15 February 2019 (link).

Forenas personuppgiftspolicy gäller inte när du klickar på länkarna ovan eftersom du kommer till en extern webbplats.

When referring to AI, the social partners are following the EU Commission definition from its 19 February 2020 White Paper on ‘Artificial Intelligence - A European approach to excellence and trust’, which recommends the use of the HLEG’s April 2019 definition of AI (p.6): 

Forenas personuppgiftspolicy gäller inte när du klickar på länkarna ovan eftersom du kommer till en extern webbplats.

“Artificial intelligence (AI) systems are software (and possibly also hardware) systems designed by humans that, given a complex goal, act in the physical or digital dimension by perceiving their environment through data acquisition, interpreting the collected structured or unstructured data, reasoning on the knowledge, or processing the information, derived from this data and deciding the best action(s) to take to achieve the given goal. AI systems can either use symbolic rules or learn a numeric model, and they can also adapt their behaviour by analysing how the environment is affected by their previous actions.”

The White Paper also states (p.16): “In any new legal instrument, the definition of AI will need to be sufficiently flexible to accommodate technical progress while being precise enough to provide the necessary legal certainty.”

The definition of AI may need to be revised following developments in the field.

[1] Joint declaration on the social effects of digitalisation by the European social partners in the insurance sector of 12 October 2016 (link) and its follow-up joint declaration of 15 February 2019 (link).

Forenas personuppgiftspolicy gäller inte när du klickar på länkarna ovan eftersom du kommer till en extern webbplats.

The social partners would like to stress the advantages of responsible AI for companies and employees. For instance, AI could help, under certain circumstances, to improve employee working conditions, increase customer satisfaction, and enhance the efficiency of internal company processes. The use of AI can provide the opportunity for better, higher quality jobs and can also assist companies and employees in carrying out their daily work and tasks. In turn, this could allow employees to dedicate more time to other tasks and make better use of skills. However, the wellbeing aspects of having a mix of intensive and more routine tasks should also be considered, as these can provide the employee with a more varied work day to the benefit of their wellbeing and job satisfaction. AI, through training and education, can also enable employees to acquire critical life-long skills that will increase their employability in the future. The social partners refer to our 2019 follow up joint declaration on the social effects of digitalisation, regarding the importance of protecting jobs and employability. It is therefore essential to pro-actively explore the potential and design options of using responsible AI to increase the productivity of companies and the well-being of the workforce.  The social partners are concerned that Europe has not been a frontrunner in the development of this technology. In fact, the HLEG acknowledges that Europe drags far behind in the development of new AI technologies, and that better framework conditions need to be set up urgently for this to change[2]. This also holds true for the insurance sector: (re)insurance companies could very well develop their own insurance-specific AI products. In this regard, the social partners highlight that responsible AI development is expected to be an important aspect for the long-term competitiveness and economic viability of the insurance sector and the employability and working conditions of its employees.

[1] Policy and investment recommendations for trustworthy Artificial Intelligence, see link here.

[2] Policy and investment recommendations for trustworthy Artificial Intelligence, see link here.

Forenas personuppgiftspolicy gäller inte när du klickar på länken ovan eftersom du kommer till en extern webbplats.

To ensure the trust of all stakeholders, it is important that the social partners engage in social dialogue. Trade unions, employee representatives and companies should, on a case-by-case basis (including through workplace, company-level or sector-wide agreements related to the use of AI, where applicable), promote the responsible use of AI. This may include inter alia

  • complying with existing legal frameworks when using AI,          
  • promoting the use and respect of high ethical standards for the use of AI,
  • promoting a sustainable use of AI (including socially and environmentally) by being alert to and identifying potential undesirable outcomes as well as taking necessary actions to prevent or mitigate them,
  • ensuring compliance with existing transparency requirements, in particular when using and processing data by means of AI, in order to ensure social acceptance of AI,
  • ensuring an environment of trust and safety for the use of AI; data management must comply with existing legislation and regulation, including the General Data Protection Regulation (GDPR),
  • ensuring compliance with existing good governance requirements through the consistent monitoring/review of AI mechanisms, 
  • ensuring that those concerned are able to challenge the outcome, decision or recommendation produced by AI, 
  • ensuring that the use of AI systems follows the principles of fairness, i.e. ensuring that employees are free from unfair bias and discrimination, 
  • preventing any potential impacts on the health and safety of employees that could arise from the use of AI, and
  • ensuring information and consultation rights for employees / their representatives and for the promotion of responsible AI to be included in social dialogue. 

In this context, employees and their representatives, and companies / company executives should be made aware that the responsible use of AI, including ethical considerations, may involve a constant adjustment of the framework governing AI in order to keep pace with technological and legal developments.

The use of AI is subject to the general applicable ethical and legal framework conditions[1], including nondiscrimination, which provide elements on trust, safety, responsibility, accountability and equality.

Using AI should therefore not, a priori, exclude its results being challenged, intervened with, ignored or further completed by humans. It is also important to make sure that AI systems and solutions do not jeopardise but rather augment human involvement and capacities at work. 

The use of AI can lead to new tasks and require new structures and cultural shifts. Companies, employees and their representatives may have to be prepared to contribute to shaping this transformation in a responsible manner.  

AI systems need to be transparent, explicable and with effective oversight. The degree to which explicability is needed is dependent on the context, severity and consequences. Checks will need to be made to prevent erroneous AI output.  

The potential tensions between respect for human autonomy, prevention of harm, fairness and explicability of decision-making should be acknowledged and addressed.

[1] The relevant EU legislative framework includes, as regards the protection of fundamental rights, legislation such as the Race Equality Directive (Directive 2000/43/EC), the Directive on equal treatment in employment and occupation (Directive 2000/78/EC), the Directive on equal treatment between men and women in relation to employment (Directive 2006/54/EC) and the Directive on access to goods and services (Directive 2004/113/EC); as well as legislation on personal data protection and privacy, notably the General Data Protection Regulation (2016/679/EC) and the e-Privacy Directive (Directive 2002/58/EC). In addition, it is worth noting that the existing horizontal and sectoral EU legislation that is applicable to insurance also provides for elements supporting trust, safety, responsibility, accountability and equality, including, in addition to the previously mentioned legislation, the Packaged Retail and Insurance-based Investment Products (PRIIPs) Regulation (Regulation (EU) No 1286/2014), the Insurance Distribution Directive (Directive 2016/97/EU), the Distance Marketing Directive for

Using AI in the area of human resources (HR) offers many opportunities, without diminishing the importance and relevance of human involvement in this field. While AI in the HR field can be used to advise human managers, HR functions will continue to be driven by humans and supported by a social dialogue with trade unions and employee representatives at all levels. 

a) Use of AI in recruitment 

It should be recognised that, in the future, the use of AI could gain further importance both in recruitment and in promotion processes in a variety of business sectors, including insurance. 

When using AI in such procedures, it is important that the potential for bias is assessed and mitigated by humans from the early stages of development and adoption of AI, and that it continues to be regularly reviewed throughout its implementation. In line with applicable rules at EU and national level, high standards must apply to the protection of employees’ and candidates’ data.

Mechanisms can be set up on a case-by-case basis to ensure that employees are not excluded from AI developments in the recruitment process. 

b) Direction and instructions 

A major point for discussion is whether the use of AI in companies will result in humans receiving work-related instructions from algorithms. 

c) Use of AI in compliance

Companies must keep pace with the increasing complexity of the regulatory framework and continue to introduce and maintain comprehensive control systems. In this respect, AI can contribute, under certain circumstances, to making such processes more efficient and ease the burden and work-load on employees.

d) Use of AI in personnel measures

It should be recognised that in the future, AI is likely to be used more and more in connection with personnel-related decision-making. 

The European social partners acknowledge that AI can be used for personnel-related tasks, such as coordinating holiday and working times of employees, organising shift systems or service times. 

financial services (Directive 2002/65/EC), the Solvency II Directive (Directive 2009/138/EC), as well as the Unfair Commercial Practices Directive (2005/29/EC). The relevant EU legislative framework also includes the Directive on the protection of persons who report breaches of Union law (Directive (EU) 2019/1937). In addition, it is worth noting that in May 2019 the OECD issued principles on AI, making a series of recommendations supporting the responsible use of AI.

Forenas personuppgiftspolicy gäller inte när du klickar på länken eftersom du kommer till en extern webbplats.

e) Personnel development

In the area of personnel development (including training, upskilling, lifelong learning and continuous personal and professional development), AI could be used, for example for the compiling of tailored further training programmes.

The social partners also refer to the chapter on “Further Training as a key” in our 2019 follow up joint declaration on the social effects of digitalisation.

On a case-by-case basis and where relevant, employees, their representatives and companies are encouraged to work towards a ‘people plan’ to introduce the responsible use of AI throughout the value chain of each company. This could include, for example: 

  • Mapping current employees’ skill profiles,
  • Jointly determining reskilling and upskilling needs,
  • Creating training and competence development plans concerning the responsibe use of AI,
  • Assisting displaced employees in elaborating career development plans, and
  • Using AI and the People Plan as a tool for employees to compare skill profiles, career paths and training possibilities.

As stated in the 2010 joint statement on demographical challenges of the insurance sector: “it is also in the interest of the employees to take responsibility for their own learning and qualifications in order to perform and maintain their own employability”. 

Forenas personuppgiftspolicy gäller inte när du klickar på länken eftersom du kommer till en extern webbplats.

To continue building on the work already achieved, the European social partners in insurance will discuss the development of AI on employment in the sector on a regular basis, taking due account of existing statistics and sectoral developments.

The social partners will continue to monitor developments related to the use of AI in the insurance sector and its social impact on employees and companies. 

Annexe – Concrete examples related to AI in the social field

A. Belgium

A national collective agreement has been in place since the 1980s on introduction of new technologies, stating: “If the employer has decided to invest in a new technology and if it has significant collective consequences in terms of employment, work organisation or working conditions, they must, on the one hand, provide written information no later than three months before the introduction of the new technology and, on the other hand, conduct a consultation with the employee representatives. The following written information must be provided: the nature of the new technology; the economic, financial or technical factors justifying it; the nature of the social consequences of this technology and the periods of application of the new technology.” This collective agreement could be amended so as to ensure that every future implementation of new technologies, including AI-systems, should pass a ‘responsible usetest’, i.e.: will this implementation succeed in raising working conditions and consumer satisfaction in an ethical and transparent way, and without (disproportionate) job losses?

B. Finland

The trade union Vakuutusväen Liitto (VVL) has established cooperation with the chief of robotics at IF Insurance. This will help the union and the company jointly address how new technology is deployed and how workplaces will be affected, especially in regard to customer care. The IF European Works Council (EWC) agreement also promotes transparency about data use. VVL has issued recommendations on employees’ skills:

  • Companies need a shared vision of skills requirements.
  • Competency development requires different methods and adequate working hours.
  • Telework and flexible work improve wellbeing and choice.
  • Local agreements are possible if built on trust, competency, time, and courage.

VVL estimates that this approach reduces the number of redundancies because the company trains employees during working hours and pays for it. Employees also are responsible for educating themselves and asking proactively for training. The company is transparent about developments so that employees can evaluate whether they want to train or leave.

C. Norway

In January 2020, the Norwegian digital minister presented the new national strategy for AI. One of its initiatives will be to engage employees to take the free online course ‘Elements of AI’ (an EUinitiated project). This is a 30-hour online course that will be offered to many different companies, including DNB.

D. Sweden

There is a broad discussion regarding skills, training and the employer’s responsibilities within this area connected to possibilities to lighten the rules when dealing with redundancies. The coming possibilities of enhancing training with AI development could be interesting. A tendency can be noted at the moment with insurance companies building IT-competence in-house: earlier outsourcing has been converted to insourcing. It’s too early to speak about trends, but trade unions are following the development closely. One explanation might be that IT development has become more strategic and a possible competitive advantage/disadvantage when you include the ‘intelligence’ compared to the recent years of creating efficiency in the general ledger.

E. United Kingdom

In the UK, UNITE the Union in general, when involved in  company-level negotiations, express the desire and possibility of a negotiated New Technology Agreement to include Artificial Intelligence. The inclusion of such an agreement is important, before any new technologies are introduced into the workplace, based on a comprehensive review of relevant information and with the understanding that both the challenges and the opportunities presented by new technology require good, coordinated industrial relations across the organisation in order to be managed in the best way for all parties concerned. This includes commitment to address any issues arising from any potential introduction of New Technology through cooperation, consultation and mutual agreement. New Technology in these agreements is defined as any innovation that affects the jobs of employees in the bargaining group(s) including new techniques, machines, controls, materials, processes and/or work organisation systems.

Brussels, 16 March 2021

Michael Budolfsen
President
UNI Europa Finance

Sebastian Hopfner
Chairman of the Social Dialogue Platform
Insurance Europe

Vic Van Kerrebroeck
Coordinator of the Insurance Social Dialogue
UNI Europa Finance

Sarah Goddard
Secretary General
AMICE

Angelo Di Cristo
Head of Department
UNI Finance

Juan Ramón Plá
Chairman
BIPAR

Maureen Hick
Director
UNI Europa Finance

Hand­­­boken i pdf-format för utskrift