Hoppa till huvudinnehåll

Vetenskap

Deepfakes suddar ut gränserna mellan verklighet och fantasi – är världen redo för den syntetiska revolutionen?

Från 2022
Ett kvinnoansikte i svartvitt i mitten, på vardera sidorna virtuella modeller av människohuvuden ritat i ett punktnät.
Bildtext Redan idag kan datorer kopiera eller från grunden skapa virtuella människor, med kapacitet att lura vem som helst. I framtiden blir det en utmaning för mänskligheten att hitta sätt att identifiera syntetisk media.
Bild: Pixabay

Deepfake-teknologin har gjort enorma framsteg det senaste decenniet och inom några år kan nästan all video vara syntetiskt gjord. Vad innebär det för vårt samhälle om det blir allt svårare att avgöra vad som är verkligt, och vad som inte är det?

En dålig deepfake av Ukrainas president Volodymyr Zelenskyj gjorde att världen igen debatterade videomanipulation i mitten av mars.

I videon uppmanar "Zelenskyj" ukrainare att ge upp inför de invaderade ryska styrkorna. Men huvudet ser påklistrat ut, och rösten är inte trovärdig.

Deepfakes, i det här fallet en video manipulerad med hjälp av AI, har blivit ett nytt vapen i informationspåverkans arsenal, eftersom teknologin har utvecklats enormt sedan cirka 2010. Även om Zelenskyj-videon var enkel att genomskåda finns det massor med exempel där tiotusentals lurats av relativt simpel bildmanipulation.

Så vad är riskerna med deepfake? Är allt dystopiskt lurendrejeri eller finns det något nyttigt med den banbrytande teknologin?

Deepfakes

Avancerad bildmanipulation där datorn använder maskininlärning, en sorts artificiell intelligens (AI), för att skapa en fejkad, eller syntetisk, video.

Kan också vara en stillbild, text eller ett ljudklipp.

Maskininlärd AI kan användas inom bland annat medicinen, matematiken, utbildningen, konsten, filmbranschen och industrin, och för att skapa verklighetstrogna chat-botar för kundservice eller sällskapssyften.

Tyvärr finns också tvivelaktiga syften: deepfakes används inom hybridkrigföring, informationspåverkan och propaganda – och är ett växande problem inom porrindustrin.

Matematiska övningar

Så hur fungerar deepfake? Så här förklarar Kalle Åström, professor i matematik på Lunds universitet:

– För mig är deepfake till exempel att man byter ut själva ansiktet i en bild mot någon annans ansikte. Så det är ju en fake, en vanlig fake som man ju kan göra i photoshop.

– En deepfake blir det om man gör det med så kallad deep learning, som är en del av maskininlärning, som utvecklats mycket från 2010 framåt. Då började datorerna fungera jättebra både för att analysera och syntetisera bilder.

Om jag vill klippa in ditt ansikte på mig behöver jag många bilder på dig. Det är det mycket av maskininlärningen handlar om

Kalle Åström

För att lära datorn hur ett motiv borde se ut och bete sig, måste den matas med massor av data.

– För att det ska bli bra måste man ha en hel del bilder på personen man vill manipulera. Om jag vill klippa in ditt ansikte på mig behöver jag många bilder på dig. Det är det mycket av maskininlärningen handlar om, att man skaffar sig mycket bilder, säger Åström.

– Man säger att man “tränar” sin metod men det är egentligen matematisk optimering.

Kalle Åström påpekar att bildmanipulering inte är en ny grej.

Lening agiterar och Trotskij lyssnar
Bildtext På den här bilden av Lenin som håller tal finns Leon Trotskij och Lev Kamenev kvar. Stalin lät klippa bort herremännen efter att han surnat och gjort sig av med dem.
Bild: GP Goldstein

Photoshop är de flesta bekanta med och Instagram- och Snapchatfilter är också enklare former av bildmanipulering.

Redan sovjetdiktatorn Josef Stalin var känd för att redigera bort oönskade personer från officiella bilder. Men där det tog hundratals arbetstimmar att redigera bort Leon Trotskij innan kriget kan en maskin fixa det på sekunder idag.

AI-revolutionen som angriper vår verklighet

Enligt Nina Schick, en av världens ledande experter på teknologins inverkan på samhället och författare till bestsellern Deepfakes, står vi inför en situation där majoriteten av världens video och bild är syntetisk, alltså konstgjord.

Deepfake kommer förändra hur vi ser på vad som är verkligt och vad som inte är det

Nina Schick

– Vi står på tröskeln till en revolution ledd av artificiell intelligens, som inte bara kommer förändra mänsklig kommunikation men också förändra hur vi ser på vad som är verkligt och vad som inte är det, konstaterade Schick i ett Ted Talk i början av mars.

Schick säger att en del experter bedömer att 90 procent av all video kan vara syntetisk vid nästa decennieskifte.

Utmaningen är nu enligt henne att ta vara på allt det goda maskininlärning och syntetisk media kan ge oss, samtidigt som vi motarbetar försök att förstöra vårt verklighetsbegrepp.

Vad är verkligt?

Samma teknologi som används för deepfake har förenklat många saker i våra liv.

Den möjliggör effektiv bildsökning i våra fotosamlingar eller på internet och AI-genererad kundservice i form av chatbottar. Prinsessan Leia och amiral Tarkin har varit med i nyare Star Wars-filmer, trots att skådespelarna Carrie Fisher och Peter Cushing båda gått bort.

Virtuella världar blir också allt verkligare genom syntetisk media och AI.

Men då vi talar om deepfake är det oftast de negativa sidorna som kommer fram. Propaganda och fake-porr av kändisar är de mest skadliga och kränkande sätten att använda syntetisk media, som deepfakes heter med ett finare begrepp.

Vi är i ett skifte här, när vi inte vet vad man kan tro på och vad man inte kan tro på. Så det blir viktigare och viktigare att diskutera var kommer den här informationen ifrån

Kalle Åström

I slutändan är det ändå den osannolika poitential som deepfake har för att sudda ut gränserna för sanning och lögn som skapar den största oron. Vi är som människor vana med att vi kan avgöra om en video porträtterar sanningen.

Riskerna med deepfakes är ju det att vi tar för givet att om vi ser en film så är det nog rätt, det här kan man inte manipulera, för vi är inte vana med det än. Vi har tänkt att det går nog inte att förfalska det så enkelt, med filmer och ljud, säger Kalle Åström.

– Då är vi i ett skifte här, när vi inte vet vad man kan tro på vad man inte kan tro på. Så det blir viktigare och viktigare att diskutera var kommer den här informationen ifrån, alltså klassisk källgranskning.

Enligt Åström blir förtroendet för etablerade medier och pålitliga källor viktigare i framtiden.

Redan nu ser vi att människor kan luras att fullständigt tro att något som är fake är verkligt.

Enligt Nina Schick finns det många amerikaner som vägrar tro att videon som visar mordet på George Floyd i juni 2020 är verklig trots att det tragiskt nog hände – en kandidat till den amerikanska kongressen med en doktorsgrad i bagaget har till exempel gett ut en rapport som hon menar bevisar att händelsen är fabricerad.

Hur känna igen en deepfake?

Men fake behöver inte betyda dåligt – det är då syftet är att bedra och luras som en deepfake är farlig.

Ett exempel på nyttig användning kommer från tv-kanalen MNB i Sydkorea.

Nyhetsankaret Kim Jo-Haa presenterade som vanligt nyheterna en dag i september – men Kim själv var inte i studion.

Det var en deepfake-version av henne som stod för nyheterna inför en miljonpublik (som hade fått veta att så är fallet), och enligt nätverket har man AI-Kim som en lösning om hon inte själv kan vara på plats.

Skärmdumpar från Youtube med deepfake-videor av ukrainas president Volodomyr Zelenskij och nyhetsuppläsaren Kim Jo-Haa.
Bildtext Till vänster en skärmdump av den omtalade Zelenskyj-fakevideon, till höger läser deepfake Kim Jo-Haa nyheterna på MNB i Sydkorea.
Bild: Niklas Evers / Yle

Enligt Kalle Åström är den syntetiserade Kim Jo-Haa nästan omöjlig att avslöja, men en sak man kan titta på är håret och att hon rör sig väldigt lite. Det är svårt för datorn att imitera rörelse, och ett perfekt hårsvall kan vara nästan omöjligt att få till.

Förutom rörelse och hår tipsar Åström om att röst är svårt att fejka perfekt.

Volodymyr Zelenskyj är heller inte den enda presidenten som blivit deepfejkad. För att visa hur avancerad deepfake-teknologin har blivit gjorde Yle en deepfake på Finlands president Sauli Niinistö.

Och i USA har regissören och komikern Jordan Peele gjort en deepfake av förra presidenten Barack Obama, för att visa hur farlig deepfake-teknologi kan vara.

Två skärmdumpar från youtube och tiktok med bilder av USA:s förre president Barack Obama och skådespelaren Tom Cruise.
Bildtext Till vänster Jordan Peeles syntetiska Obama, till höger en falsk Tom Cruise på Tiktok.
Bild: Niklas Evers / Yle

Kalle Åström säger att också Peeles Obama-video är ytterst välgjord, och att det kan vara svårt att upptäcka att den inte är verklig om man inte vet att den är en deepfake.

En av de mest omtalade deepfake-alstren just nu är @deeptomcruise, ett konto på Tiktok som lägger upp inlägg som till synes består av megakändisen, skådespelaren Tom Cruise som gör alldagliga saker och berättar livsvisdomar. Men hela kontot och Tom är en mycket välgjord deepfake.

AI kan också hjälpa motverka deepfakes

För den som nu oroar sig för att våra liv ska bli ett avsnitt av Black Mirror eller en Matrix-film, finns det ändå hopp.

Kalle Åström är en av många forskare som har jobbat eller jobbat på att skapa program som kan identifiera deepfakes, det vill säga AI som söker efter syntetisk media.

Om man får en fungerande sådan teknologi skulle oron för informationspåverkan i ont syfte minska rejält. Också de programmen handlar om att samla data.

– Det väsentliga är att man samlar in en massa bilder och som är riktiga, och så samlar man in en massa bilder och filmer som är genererade av deepfake. Och sen försöker man göra ett program som kan känna igen det som är riktigt, säger Åström.

– De här programmen är inte 100 procent, man kan inte lita på dem helt fullt ut ännu. Men de fungerar ganska bra, man kan säga att det här är 99 procents chans eller 89 procents chans att det här är fejk, till exempel.

Nedan hittar du den artikel och video från finskspråkiga Yle där en deepfake-version av "president Sauli Niinistö" meddelar att han vill sitta en tredje presidentpreiod. Blev du lurad?