Bild: Magnus Hansson
”Vi kan inte lämna över ansvaret för AI på utvecklarna”
Publicerat 9 mars 2023
Artificiell intelligens kan vara ett bra stöd i arbetslivet. Samtidigt finns det många utmaningar. Diskriminering, fördomar och oansvarig datahantering är bara några av dem. Så hur hanterar vi de etiska riskerna på bästa sätt?
AI-verktyg kan spara mycket tid och resurser. Till exempel när företag ska sålla bland hundratals jobbansökningar eller när ett kreditinstitut ska gå igenom tusentals kreditansökningar. Men hur försäkrar man sig om att resultatet blir korrekt, rättvist och inte snedvridet? Och vem ska ta ansvar för de beslut som AI-verktyget föreslår?
Virginia Dignum är professor i social och etisk AI vid Umeå universitet. Hon menar att detta är en ständigt pågående process som involverar alla som utvecklar, använder eller berörs av artificiell intelligens.
– Vi måste ha en dialog mellan alla parter. Vi kan inte bara lämna över ansvaret för att AI-systemen är rättvisa och etiska på företagen som utvecklar dem, eller på de som använder dem. Det är ett gemensamt arbete, där alla måste engagera sig: utvecklare, företag, myndigheter och användare. Och detta måste pågå under hela livscykeln, det tar aldrig slut.
Ibland går det snett
Det finns flera exempel på hur det kan gå snett när man har missat eller slarvat i utvecklingen av AI-system så att de innehåller snedvridningar. Virginia Dignum nämner Apples första versioner av ansiktsigenkänning i Iphone som ett exempel.
– De tidiga versionerna var dåligt testade på svarta kvinnor. Det gjorde att telefonen inte kände igen deras ansikten så att de inte kunde öppna sina telefoner med hjälp av ansiktsigenkänning. Detta misstag gav förstås dålig publicitet till företaget som hade missat att ta hänsyn till detta i sin utveckling.
Risk för bias
Ett annat exempel är när artificiell intelligens används vid rekrytering. AI-stöd kan vara till stor hjälp för att göra en första sållning vid stora mängder av jobbansökningar. Problemet är bara om systemet är tränat på historisk data som inte har korrigerats för tidigare bias och mänskliga fördomar.
– Om ett företag till exempel söker en programmerare finns risken att AI-modellen sållar bort kvinnliga sökande eftersom det historiskt sett alltid varit fler män i dessa roller och de då, enligt AI-modellen, är mer ”lämpade” för jobbet, förklarar Virginia Dignum.
Man kan aldrig skylla ett beslut på AI-systemet. En människa måste ta ansvar för det slutgiltiga beslutet.
Här gäller det att vara uppmärksam, medveten om riskerna som finns med den historiska data som AI-systemen bygger på och att alltid låta en människa checka av systemets svar.
– Man kan aldrig skylla ett beslut på AI-systemet. Det ska vara just ett stöd, inget annat. Men det måste alltid vara en människa som tar ansvar för det slutgiltiga beslutet, säger Virginia Dignum.
Ställ krav på leverantören
Källkritik är med andra ord a och o när artificiell intelligens används som beslutsstöd, liksom att ställa höga krav på sina systemleverantörer. Evelina Anttila har arbetat länge med etiska och juridiska frågor kring AI, bland annat som ansvarig för etiska och legala frågor på AI-mjukvaruföretaget Peltarion. Hon poängterar vikten av transparens mellan leverantör och användare.
– Tillit och förtroende är en förutsättning för utveckling och användning AI-system. Om inte AI-systemen är tillförlitliga kan det ge oönskade konsekvenser som i förlängningen kan leda till att det inte går att utnyttja de potentiellt enorma samhälleliga fördelarna med AI-teknologi, säger hon.
Vi behöver därför ställa oss frågor kring hur AI-modellerna har byggts och vilken data de tränats på.
– Du vill förstå hur AI-modellen kom fram till sitt beslut och du vill kunna utvärdera systemet för att förstå vilka incitament den jobbar efter.
EU-lagstiftning på gång
– När det gäller att få folk generellt mer positiva till AI kan tillit och transparens göra skillnad. Och här kan lämpliga regler och riktlinjer för hur vi utformar och använder systemen hjälpa, säger Evelina Anttila.
AI är inte oreglerat – många företag och organisationer har redan tagit fram riktlinjer – men i dag finns det inte någon lagstiftning i EU som är särskilt inriktad på AI. Det kommer sannolikt att ändras inom en snar framtid då EU:s nya AI-förordning, AI Act, träder i kraft. Den väntas innehålla omfattande krav på dokumentation, ramverk och rapportering och innebära en hel del arbete för dem som vill använda AI.
– Utvecklingen av AI kräver både ansvarstagande och nyfikenhet. För att främja tillit är det viktigt att utvärdera AI-system både från ett juridiskt och etiskt perspektiv. Men det är också viktigt att lagstiftning inte hämmar innovation, säger Evelina Anttila.
En del av kritiken som förts fram mot AI Act är att de föreslagna reglerna är för omfattande och i delar svåra att överblicka eller bedöma konsekvenserna av.
– Det är helt enkelt viktigt med en balans i det här avseendet så att vi inte hindrar möjligheter att skapa viktiga lösningar för framtiden, säger Evelina Anttila.
Ökar företagets attraktionskraft
Men företag kommer att vara tvungna att ta etiskt ansvar kring sitt AI-användande, inte bara på grund av lagstiftning, utan också för att fortsätta vara attraktiva som arbetsgivare och för sina kunder. Virginia Dignum jämför det med hållbarhetsarbete.
– Genom att visa omvärlden att företaget tar ansvar för hur de använder AI och att man tar de etiska bitarna på allvar blir det också mer attraktivt för sin omvärld, både kunder och medarbetare. Jag tror att den yngre generationen kommer att efterfråga detta på precis samma sätt som de redan i dag efterfrågar att arbetsgivare ska ta miljö- och hållbarhetshänsyn för att de ska vilja arbeta för dem.
Så kan du jobba med ansvar och etik i AI
- Utbilda dig själv och din organisation om AI och i AI-etik. Det handlar både om att vara uppmärksam på risker och att vara attraktiv ur konkurrensperspektiv.
- Fundera igenom hur din verksamhet kommer att påverkas av AI Act. Håll dig uppdaterad på området.
- Finns inte kompetensen kring dessa frågor internt? Tveka inte att ta in den från externt håll.
- När ni börjar integrera AI-verktyg behöver företaget ha ett ramverk och en uppförandekod att följa. Flera branschorganisationer har redan tagit fram detta för sina medlemmar.
Källor: Evelina Anttila & Virginia Dignum
Karin Cedronius
Mer om AI
-
Svenska företag riskerar att halka efter i AI-utvecklingen
AI • En majoritet av de som använder AI på jobbet använder verktyg som de skaffat sig privat.
-
Fler använder AI i jobbet
AI • Fler använder AI i jobbet, enligt rapporten ”Svenskarna och internet” som släpptes nyligen. Att sammanfatta rapporter och felsöka programkod är några vanliga sätt att använda AI i sin yrkesroll.
-
En av fem brittiska läkare använder AI
AI • En av fem brittiska allmänläkare använder sig av generativa AI-verktyg, som Chat GPT, i sitt arbete, enligt en ny undersökning.
Prenumerera på nyhetsbrevet
Ja tack, jag vill få nyheter, inspiration och tips till min mejl varje vecka – helt utan kostnad.
Papperstidning
Få tidningen till din brevlåda fyra gånger per år – helt utan kostnad. Du får fördjupande reportage, tipsinriktade artiklar och kan inspireras av hur andra jobbar med arbetsmiljö.
PrenumereraSenaste om Mer om arbetsmiljö
-
Bättre ergonomi med aktivitetsbaserat kontor
Ergonomi • Enligt ergonom Tommy Wilén kan ett aktivitetsbaserat kontor vara skonsammare för kroppen än att ha en fast arbetsplats.
-
Stressrelaterade sjukskrivningar högst bland småbarnsföräldrar
Psykisk hälsa • Antalet personer som är sjukskrivna på grund av stress fortsätter öka och har nått rekordnivåer under 2024. Främst är det mammor i åldern 30–39 år som drabbas.
-
Hot mot finansanställda har blivit vanligare
Hot och våld • Var fjärde finansanställd har upplevt hotfulla situationer på jobbet och över hälften känner sig otrygga på grund av den finansiella brottsligheten.