Komplexa beslut kräver mänsklig kompetens

Om vi låter en maskin fatta ett beslut som rör vad det innebär att vara människa, så riskerar vi undergräva medborgarnas rättigheter. Det menar Jenny Eriksson Lundström, forskare vid Institutionen för informatik och media vid Uppsala universitet. Foto: Gettyimages.
Jenny Eriksson Lundström har studerat risker och möjligheter för den enskilde, när myndigheter alltmer använder sig av AI-baserat automatiserat beslutsfattande. "Väldigt enkla beslut fungerar för en maskin, men mer komplexa beslut kräver mänsklig kontakt. En maskin saknar förmågan att relatera till vad det innebär att vara människa."

Jenny Eriksson Lundström, forskare vid Institutionen för informatik och media. Foto: Mikael Wallerstedt, Uppsala universitet.
Idag används AI-tekniker inom den offentliga sektorn, för administrativa ärenden och som ett stöd i olika steg fram till beslut. Här finns en transparens som visar vägen fram beslut.
– Där är det tydligt vad som är rätt eller fel och vilka parametrar som ska vägas in. Sådana enkla ärenden kan vi effektivisera med hjälp av regelbaserad AI, säger forskaren Jenny Eriksson Lundström, vid Institutionen för informatik och media Uppsala universitet.
Vissa beslut kräver mänsklig bedömning
Något helt automatiserat AI-baserat beslutsfattande av myndighetsutövning finns inte i Sverige. Det närmaste man kommer är riskbedömningar och profilering som används inom arbetsförmedlingen.
– Oavsett teknik, kan vi inte lägga ansvar på en maskin att ta känsliga beslut, där konsekvenserna är svåra att överblicka och där ett beslut kräver mänsklig bedömning. Ett AI-system kan följa regler, sammanställa en stor mängd information samt redovisa resultat men maskinen har ingen erfarenhet av att vara människa och saknar därför förmågan att känna igen vad det innebär att vara människa.
Ett exempel från USA visar att när algoritmer fick besluta om vilka intagna som skulle släppas ut i förtid, så blev svarta intagna systematiskt diskriminerade, eftersom AI bland annat baserade beslutet på socioekonomiska faktorer kopplade till ras och klass, exempelvis vilka bostadsområden som de intagna kom ifrån.
– Det gynnade individer som inte borde ha blivit släppta. AI är bra på att sammanställa information som finns i systemet – och att se mönster, men att bedöma konsekvenserna av ett beslut utifrån till exempel våra diskrimineringsgrunder ska den inte ansvara för, säger Jenny Eriksson Lundström.
Lagrum och demokrati
– De myndighetspersoner jag intervjuat är tydliga med att komplexa beslut av den anledningen inte kan beslutas av en AI-maskin. Och vi borde lyssna på dem. Dessa myndighetsutövare känner ansvar för sina medmänniskor och vill väga in alla aspekter som enligt lag ska beaktas, för att ett beslut ska bli rätt. Om det i lagen finns utrymme för att använda ett etiskt resonemang i bedömningen, så vill man använda sig av det.
Intervjupersonerna ser många fördelar med att använda AI i sitt arbete – som ett stöd.
– I mina intervjuer kallar man AI-system som står för ett helt automatiserat beslutsfattande, lite skämtsamt för ”svarta lådan”, eftersom man inte kan följa vilka olika steg systemet tar och egentligen inte vet vad som gav resultatet, säger Jenny Eriksson Lundström.
Det är viktigt att vi kan förstå hur de system som vi hanterar fungerar.
– Vi tillskriver maskinen intelligens när det beror på oss människor vad vi tillåter maskinen att bli.
I sin forskning, har Jenny Eriksson Lundström funnit fyra viktiga aspekter att särskilt bevaka vid AI-baserat beslutsfattande. Ett myndighetsbeslut ska vara:
- Materiellt korrekt. Alla fakta måste finnas med, ha vägts in och gå att verifiera.
- Etiskt. Ett beslut ska vara etiskt korrekt.
- Måste gå att förklara. Varje beslut måste vara möjligt att förstå och förklara och i enlighet med offentlighetsprincipen kunna visa på vilka underlag beslutet är fattat.
- Säkert. Medborgarnas data behöver hanteras utifrån säkerhet o integritet.
– Det är också en fråga om demokrati. Om vi låter en maskin fatta ett beslut som rör vad det innebär att vara människa, så riskerar vi undergräva medborgarnas rättigheter, menar Jenny Eriksson Lundström.
– Det viktiga är att vi förstår att vi medborgare inte är en homogen grupp. Förutsättningar och erfarenheter ser väldigt olika ut och därför krävs en mänsklig kontakt för sådana beslut.
Gunilla Sthyr
Fakta
Jenny Eriksson Lundström, Institutionen för informatik och media, fick 2024 forskningsmedel inom ramen för AI4Research, till sitt projekt ”AI och den offentliga sektorn – automatiserat beslutsfattande mot enskild.” Projektet har etiskt fokus och samarbetar med Charles M. Ess, professor em. i mediastudier, Universitetet i Oslo.
Projektet är en ”spinoff” på tidigare delprojektet BioMe-thical Decisions inom projektet BioMe, lett av Amanda Lagerkvist, professor vid Institutionen för informatik och media vid Uppsala universitet, och finansierat av WASP HS.