Hoppa till huvudinnehåll

EU vill begränsa AI-användningen för att undvika framtida mardrömsscenarier – forskare och företag välkomnar planerna

Illustration på en person som samarbetar med en dator.
En konstnärlig illustrationsbild på en person som använder ett intelligent datorsystem. Illustration på en person som samarbetar med en dator. Bild: Yle/Asmo Raimoaho artificiell intelligens

EU-kommissionen berättade nyligen att man vill begränsa hur artificiell intelligens får användas i framtiden. Om planerna får grönt ljus så kommer det att få konkreta konsekvenser för medborgare i hela unionen.

Det kan till exempel bli striktare regler för självkörande fordon, för ansiktsigenkänning och för automatiserad bedömning vid rekrytering och kreditgivning.

Fredrik Heintz som är biträdande professor vid Linköpings universitet berättar varför det är en bra idé att reglera AI-användningen, som i dag får ske ganska fritt.

– I grund och botten så handlar det om att det finns risker, såsom fallet är med alla kraftfulla teknologier. De kan missbrukas till att göra saker vi inte vill. Det kan också finnas en övertro till hur bra datorsystemen är, och så litar man för mycket på dem.

Fredrik Heintz
Fredrik Heintz är expert på AI-frågor. Fredrik Heintz Bild: Mikael Hansson porträtt,Fredrik Heintz

EU-kommissionens viceordförande Margrethe Vestager var inne på samma linje när hon presenterade planerna.

– Vår reglering siktar på att komma åt de mänskliga och samhälleliga risker som användning av artificiell intelligens kan leda till. Vi vill skapa mer tillit, sade hon.

Samtidigt som många aktörer är positivt inställda till det planerade regelverket, så är det ännu massvis med detaljer som behöver redas ut.

Medborgarorganisationer påpekar att det finns flera kryphål i förslaget. De skulle göra det möjligt för olika aktörer att kringgå reglerna.

En AI-lagstiftning på EU-nivå väntas bli klar tidigast år 2023 om medlemsländerna och EU-parlamentet ger sitt godkännande.

Porträtt på Margrethe Vestager i samband med att AI-planerna presenterades.
Margrethe Vestager betonar att det till exempel inte lämpar sig med massövervakning i våra demokratiska samhällen. Porträtt på Margrethe Vestager i samband med att AI-planerna presenterades. Bild: EPA / Oliver Hoslet / POOL porträtt,Margrethe Vestager

Tekniken används till allt möjligt redan i dag

Med AI menar man alltså att datorer nu kan göra sådant som människor traditionellt kunnat göra, och till och med snabbare och bättre.

Syftet är att på konstgjord väg efterlikna hjärnans förmåga att dra slutsatser, planera, lösa problem, förstå naturligt språk, lära sig och så vidare.

– För många tror jag AI låter som en framtidsteknologi, men AI används av de allra flesta nästan varje dag. Till exempel när du gör en sökning med en sökmotor, eller när du får rekommendationer för filmer eller böcker av en digital tjänst. Och vid automatöversättning från olika språk, och så vidare, berättar Heintz.

Tekniken kan också användas för schemaläggning, för att uppskatta hur mycket en fabrik borde producera av olika produkter under en viss tid, och kan analysera röntgenbilder för att kunna upptäcka om en person har cancer eller inte.

Och banker använder AI-teknik för att avgöra vem som borde få lån eller inte. Det gör OP-gruppen, som bland annat består av flera andelsbanker. Sameli Mäenpää, som är chef för data, välkomnar att EU siktar på att införa regler.

– Det finns mycket som är bra med förslaget. Man har till exempel identifierat högriskområden som måste regleras noggrant, såsom långivning, och så föreslår man också att viss slags AI-användning förbjuds helt, säger han.

Porträtt på Sameli Mäenpää.
Sameli Mäenpää på OP-gruppen. Porträtt på Sameli Mäenpää. Bild: Vesa Marjanen porträtt,Sameli Mäenpää

"Det handlar om att maximera nyttan och minimera riskerna"

Den biträdande professorn Fredrik Heintz påpekar att det finns en stor potential för AI-tekniken i framtiden och att EU:s regler därför kan få en viktig förebyggande roll.

– Målet är att vi vill maximera nyttan med AI, samtidigt som vi minimerar riskerna, så att vi kan känna oss trygga med den användning som görs, säger Heintz.

Bland annat måste AI-system med hög risk omfattas av strikta skyldigheter innan de släpps ut på marknaden.

De ska använda datamaterial av hög kvalitet, vara säkra och noggranna, logga åtgärder som sker, ha tydlig information till användaren och kunna kontrolleras vid behov så att man ser att allt går rätt till.

Heintz påpekar ändå att det också finns en viss risk att man reglerar alltför mycket. Det kan sätta käppar i hjulet för utvecklandet av en del nyttiga AI-system.

– Man ska komma ihåg att det här är väldigt komplexa fenomen. Det handlar väldigt mycket om mänskligt beteende och mänskliga förmågor till viss del. Hur man ska göra gränsdragningarna är inte alls uppenbart, utan tvärtom väldigt svårt.

Oacceptabla risker

EU-kommissionen listar några slags risker som anses vara oacceptabla.

Enligt förslaget skulle ansiktsigenkänning förbjudas på allmän plats, med några få undantag, till exempel om man letar efter ett försvunnet barn eller ska stoppa en terrorattack.

Men ett undantag som också nämns är spaning efter personer som är misstänkta för grova brott. Heintz säger att det här är ganska generellt formulerat och kan tolkas väldigt brett.

– Och jag tror att det kommer att bli en av invändningarna. Det kommer säkert att finnas en hel del som vill ha betydligt striktare regler än det här.

Ytterligare en användning som föreslås vara oacceptabel framöver är AI-system som stater kan använda för att betygsätta medborgarna, i stil med system som redan finns i dagens Kina.

– För mig handlar det här väldigt mycket om vad det är för samhälle vi vill leva i och vi vill ju leva i ett öppet och demokratiskt samhälle med fria medborgare.

Manipulation ska inte heller tillåtas

AI-system ska inte heller få manipulera mänskligt beteende.

– Till viss del verkar det handla om att teknikerna är väldigt bra på att identifiera individer som är mottagliga för budskap och att de sedan kan anpassa de här budskapen, förklarar Fredrik Heintz.

Det kan bli en intressant gränsdragning, var gränsen för manipulation kommer att dras, och när något till exempel bara anses vara informativt.

Ett exempel på manipulativ AI som nämns är leksaker som man kan tala med och som uppmuntrar minderåriga till farliga beteenden.

Och fastän syftet med ett visst AI-program är gott så behöver det inte heller vara oproblematiskt, påpekar Heintz.

– Anta att det är ditt försäkringsbolag som tycker att om du installerar den här appen som får dig att träna mer eller äta nyttigare, då får du en lägre premie. Då börjar det vara mer oklart om det här är bra eller dåligt.

Sameli Mäenpää som är chef med huvudansvar för data på Andelsbanken håller med om det här.

– Det finns etiska frågor man måste fundera kring. Det handlar också om hur företag vill synas för konsumenterna, säger han.

AI-system som anses utgöra en hög risk

  • Kritiska infrastrukturer (t.ex. transport), som kan innebära hot mot människors liv och hälsa.
  • Utbildning, där systemen kan avgöra personers tillgång till utbildning och yrkeskarriär (t.ex. poängsättning av prov).
  • Säkerhetskomponenter i produkter (t.ex. AI-tillämpningar för robotstöd vid operationer).
  • Anställning, arbetsledning och tillgång till egenföretagande (t.ex. mjukvara för sortering av cv:n i samband med rekrytering).
  • Väsentliga privata och offentliga tjänster (t.ex. kreditbedömning som innebär att medborgare hindras från att ta lån).
  • Brottsbekämpning som kan påverka människors grundläggande rättigheter (t.ex. bedömning av tillförlitligheten i bevis).
  • Hantering av migration, asyl och gränskontroll (t.ex. kontroll av äktheten i resehandlingar).
  • Rättskipning och demokratiska processer (t.ex. tillämpning av lagstiftning på ett konkret faktaunderlag).

Källa: EU-kommissionens förslag till AI-reglering

Finskspråkiga män på landsbygden missgynnades

Flera AI-system bygger på analys av stora mängder historiska data och det kan bland annat finnas en risk att systemet håller fast vid gamla fördomar, till exempel om vem som borde få lån.

För tre år sedan råkade en man på landsbygden ut för att han överraskande inte blev beviljad ett lån av låneföretaget Svea ekonomi trots att han hade goda inkomster.

Diskrimineringsombudsmannens utredning visade året därpå att låneföretagets algoritm var diskriminerande och att den prioriterade svenskspråkiga, kvinnor och stadsbor över finskspråkiga, män och landsbygdsbor. Det uppmärksammade också Svenska Yle i en tidigare artikel.

I nuläget har ändå flera aktörer egna etiska regler för hur man ska använda AI på ett ansvarsfullt sätt.

– Vi använder till exempel inte information om en persons hudfärg eller religion. Användningen av AI ska vara på mänskliga villkor, kommenterar Sameli Mäenpää på OP-gruppen.

EU-kommissionen konstaterar också att man inte borde få försöka räkna ut en persons kreditvärdighet på basis av hans eller hennes surfvanor.

Anställning måste gå rätt till

EU nämner också automatiska anställningsprocesser som ett problematiskt område. Till exempel Amazon har tidigare fått kritik för att man tränade ett AI-system att ranka cv:n.

Den mjukvaran byggde på en hel del historiska data och drog slutsatsen att så gott som bara män skulle anställas.

Och här i Finland erbjöd ett litet rekryteringsföretag för ett par år sedan en tjänst som automatiskt skulle analysera kandidaters e-postkonton och sociala medie-konton, för att dra slutsatser om hur lämplig en viss kandidat var för ett visst jobb.

Systemet tittade bland annat på hur aktiv personen var på nätet, och hur snabbt personen svarade på mejl.

Kandidaten behövde ange sina användarnamn och lösenord för att analysen skulle vara möjlig. Tanken var att göra rekryteringsprocessen snabbare och mer pålitlig.

Fredrik Heintz vid Linköpings universitet betonar ändå att artificiell intelligens också kan förbättra läget och göra samhället mer jämlikt, genom att kunna avslöja var det förekommer diskriminering i mänskliga beslut.

– Det finns ju diskriminering i dagens samhälle. Så jag ser det som en stor potential att man aktivt kan motverka den diskriminering som finns.

Självkörande fordon ska vara så trygga som möjligt

EU-kommissionen är dessutom rädd för att datorer ska kunna fatta beslut som skadar människor rent fysiskt.

Till exempel självkörande fordon behöver därmed regleras noggrant, anser man.

Det kan bland annat handla om hur ett fordon ska köra på ett etiskt sätt i kritiska lägen.

Militära tillämpningar – såsom drönare utrustade med vapen eller bomber – kommer inte att begränsas enligt det här EU-förslaget. Men sådana begränsningar diskuteras på FN-nivå istället.

EU vill vara en global föregångare

De olika förslagen från EU-kommissionen är EU:s försök att skapa en slags global standard för artificiell intelligens, lite på liknande sätt som man ville göra med dataskyddsförordningen GDPR för några år sedan, och delvis också har lyckats med.

Fredrik Heintz påpekar att AI-regleringen är ett ställningstagande om att unionen inte bara nöjer sig med goda avsikter, utan också tydligt vill sätta gränser.

– Det här kommer att skapa mycket debatt även internationellt och det här kommer att bli ett viktigt steg för att höja kvaliteten och minska missbruken och den tveksamma användningen av den här teknologin. Jag ser det som ett viktigt steg framåt, säger han.

Rekordstora sanktionsavgifter

EU-kommissionen föreslår också en sanktionsavgift på upp till 6 procent av ett storföretags globala omsättning, om företaget bryter mot AI-reglerna.

Det skulle vara strängare än vid brott mot dataskyddsförordningen GDPR. Där är gränsen 4 procent av den globala omsättningen.

– Det är väl för att visa att det här är viktigt och att man inte kan komma undan. Om man blir fälld för att bryta mot regelverket, då ska det få kännbara konsekvenser, konstaterar Fredrik Heintz vid Linköpings universitet.

virtuell verklighet + datorer + bredbandsnät + mobiltelefoner + internet + sociala nätverk + lösenord + databrott + teknik (apparater) + kommunikationsteknik + databaser + datakommunikation + pekskärm + telefoner + sökmotorer + dataskydd + e-postadresser