Fejknyheter 2.0

Framstegen inom special­effekter gör det allt enklare att producera övertygande förfalskningar av människor.
Svartvitt fotografi av Audrey Hepburn
Dela på facebook
Dela på twitter
Dela på linkedin
Dela på email

Från The World If publicerad i The Economist, översatt av InPress.
©2020 The Economist Newspaper Limited. Alla rättigheter förbehållna.

Foto: Mary Evans PIcture/TT, AP/TT



Audrey Hepburn dog1993. Ändå deltog hon år 2013 i en reklamfilm för chokladen Galaxy. I filmen åkte hon buss längs Amalfikusten innan hon fångade uppmärksamheten hos en förbipasserande snygging i cabriolet. 2016 repriserade Peter Cushing, som dog 1994, sin roll som den skurkaktige Grand Moff Tarkin i Star Wars-filmen Rogue One.

Sådana återuppståndelser är inget nytt, även om de fortfarande är tillräckligt ovanliga för att räknas som nyheter. Men framstegen inom specialeffekter – ofta inom artificiell intelligens – gör det allt enklare att producera övertygande förfalskningar av mänskliga varelser.

Detta har lett till oro för att propagandister ska använda tekniken för att generera filmklipp där politiker verkar säga komprometterande saker. En video gjord av Buzz Feed, visade till exempel i april 2018 ett klipp där Barack Obama verkade säga: ”Vi är på väg in i en era där våra fiender kan få det att se ut som om vem som helst kan säga vad som helst vid vilken tidpunkt som helst”.

Barack Obama i förfalskad video
Den här bilden, tagen ur en förfalskad video av tidigare amerikanske presidenten Barack Obama, visar hur AI-teknik kan få vem som helst att säga vad som helst.

I maj 2018 producerade ett belgiskt politiskt parti en fejkad video av Donald Trump som sade osannolika saker om Belgiens klimatpolitik. I båda fallen ser videoklippen lite skeva ut, och rösterna har gjorts av imitatörer. Men tekniken förbättras snabbt.

Vad som än händer när det gäller ”fake news”, kommer samma tekniker säkerligen att revolutionera en annan typ av fiktion, i form av film och tv. I framtiden behöver inte skådespelare vara människor av kött och blod. Istället skulle de, liksom så mycket annat i den allt mer digitala världen, kunna existera enbart som långa rader av ettor och nollor. De digitala skådespelarna skulle sitta tysta och stilla i digitala lagringssystem tills deras tjänster efterfrågas – varken superlyxiga husvagnar, kockar eller makeupartister skulle behövas.

Skådespelarna skulle kunna vara med i hundra olika filmer samma år och fortsätta sina produktiva karriärer årtionden efter att de dött. De skulle aldrig bli äldre, och versioner av dem i olika åldrar skulle kunna dyka upp i olika filmer. (Samma månad som  Carrie Fischer dog 2016, gästspelade hon i en digitalt återuppstånden version i slutet av Rogue One, som prinsessan Leia från originalfilmen Star Wars från 1977.) Regissörerna skulle också kunna anpassa rollistan för att passa olika publiksmak, säger Darren Hendler vid Digital Domain, ett företag specialiserat på visuella effekter. Donnie Yen skulle till exempel kunna spela den ledande rollen när en actionfilm släpps i Kina, samtidigt som Dwayne ”The Rock” Johnson har huvudrollen på den amerikanska marknaden. Skådespelarna behöver inte ens vara baserade på riktiga människor. De skulle kunna vara kompositer framtagna i samarbete med fokusgrupper.

Audrey Hepburn återuppstod tack vare Framestore, ett specialeffektsföretag i London. Hon är inte den första skådespelaren som återkommit på det här sättet. 1993 dog Brandon Lee, son till Bruce Lee, under filmningen av The Crow. Filmen slutfördes med hjälp av en kombination av manusförändringar, stuntmän, existerande filmmaterial av Brandon Lee och en tidig typ av det digitala trolleri som Framestore senare använde för Audrey Hepburn. Under åren har en ström av andra stjärnor, från Oliver Reed i Gladiator till Marlon Brando i Superman Returns återvänt till vita duken tack vare specialeffekter baserade på datorgenererade bilder (CGI).

Men om man ska få ett bra resultat krävs hårt arbete, säger Tim Webber, Framestores kreativa chef. För Audrey Hepburns reklamfilm fick Framestore hyra in två skådespelare som ”body doubles”, en vars kropp liknade Hepburns och en vars ansiktsdrag hade en allmän likhet med hennes. Grupper av digitala konstnärer använde sedan historiska filmsekvenser med Audrey Hepburn och ersatte mödosamt den verkliga skådespelerskans huvud med en datorgenererad ersättning. Närbilder är särskilt svårt, säger Tim Webber, eftersom vi människor är hyperkänsliga också för små imperfektioner i dator­genererade ansikten.

Processen är alltså extremt arbetsintensiv. Men de falska filmklippen av Obama och Trump gjordes på ett annat sätt som är mycket billigare och snabbare. De är ”deepfakes”, som har skapats med en teknik som använder en form av AI som kallas ”deep learning”. I princip fungerar det så att man visar bilder av ett särskilt ansikte, tagna från olika vinklar och med olika uttryck, för ett flerdimensionellt neuralt nätverk. När nätverket matas med tillräckligt många sådana exempel (helst hundratals eller tusentals), lär det sig hur det ansiktet ser ut och hur det kan ritas om ur varje vinkel och med varje typ av uttryck. Sedan handlar det bara om att välja ut ett lämpligt filmklipp att redigera, och instruera nätverket att byta ut ansiktet i videon mot ett som det har analyserat.

Tekniken blev först känd 2017 när en anonym användare laddade upp en pornografisk video där den ursprungliga skådespelerskans ansikte hade bytts ut (utan tillstånd från någon inblandad) mot Gal Gadots, en skådespelerska som bäst är känd för sin rollfigur Wonder Woman i en serie superhjälte­filmer. Detta ledde till en hel subgenre av porr­filmer och mängder av komiska klipp med utbytta ansikten när folk laddade ner programvaran (tillgänglig gratis online).

Amatörernas försök att byta ut ansikten varierar enormt i kvalitet. Att få bra resultat kräver en hel del pyssel, en kraftfull dator och att man har tillgång till en stor mängd bilder av ansiktet som man tänker klippa in. Men inget av det är några problem för en Hollywoodstudio. I och med att deepfake-teknik integreras i professionella videoredigeringsverktyg kommer helt säkert ansiktsbyten att bli avsevärt snabbare, billigare och mer övertygande än i dag.

Men själva utseendet är inte allt. Därför används deep learning inte bara för att kopiera ansikten utan också för att efterlikna röster.  I det här fallet tränas ett neuralt nätverk genom röstinspelningar och transkriptioner av hur någon talar, så att det lär sig hur personen klär ljud i ord. Om man sedan matar in ny text kan nätverket generera övertygande röstljud.

Skotska CereProc använde tekniken för att syntetisera John F. Kennedys röst för att framföra det tal som han skulle ha hållit den dag han mördades 1963.  Adobe, som har tagit fram bildredigeringsprogrammet Photoshop, har också utvecklat ett program som kallas VoCo, som har kallats ”Photoshop för röster”. Det kan simulera någons röst för att säga nästan vad som helst, förutsatt att det har 20 minuters röstinspelning att analysera. 2017 publicerade Baidu, ett kinesiskt teknikföretag, detaljer om ett liknande röstkloningssystem, Deep Voice. Det fungerar med så lite som tre sekunder träningsdata. Andra teknikföretag, som Google DeepMind, arbetar på liknande systemteknik.

textnotisVad händer när ansikten och röster kan manipuleras lika enkelt som text, bilder och video? Lågbetalda skådespelare som har proportioner och utseenden som hyfsat väl överensstämmer med de stora stjärnornas, skulle kunna arbeta som mänskliga dockor, vars ansiktsdrag och röster byts ut på digital väg efter filmningen. Hollywood har spekulerat om vart trenden kan leda. I The Congress, en film som släpptes 2014, spelar Robin Wright en utsliten skådespelerska som ger sitt medgivande till att bli digitaliserad och signerar över rättigheterna för sin digitala klon till MiraMount, ett fiktivt filmbolag.

Filmen visar att det finns en tydlig fördel: Robin Wrights karaktär är ökänd för att vara krävande och nyckfull, och i största allmänhet besvärlig att arbeta med. Hennes digitala dubbelgångare får inga utbrott och kräver ingen betalning – samtidigt får hon själv massor av pengar, och ett lugnt och stilla liv. Men priset är att hon ger upp kontrollen över vad hennes klon gör – och hur hon själv uppfattas. Robin Wright specificerar att hennes digitala dubbelgångare inte ska delta i porrfilmer eller några filmer som har med nazister att göra. Men det slutar med att klonen spelar i en tveksam, men vansinnigt populär science fiction-serie som Wright själv aldrig skulle ha gått med på.

Frågan om vem som äger rättigheterna till en skådespelares digitala avbild har redan dykt upp i verkligheten. Framestore var tvungna att förhandla med Audrey Hepburns familj för att få göra sin reklamfilm. 2013 användes en datorgenererad version av Bruce Lee i en reklamfilm i Kina för whiskymärket Johnnie Walker. Johnnie Walker säger att de konsulterade Bruce Lees dotter Shannon Lee och att hon godkände idén. Men många fans blev arga. De påpekade att Bruce Lee hade varit absolutist under en stor del av sitt vuxna liv och aldrig hade gått med på att delta i en sådan reklamfilm om han forfarande hade levt.

Deepfakes har ökat på de juridiska orosmolnen. Den amerikanska skådespelarfackföreningen SAG-AFTRA säger att man vidtar åtgärder för att skydda sina medlemmar från oauktoriserad användning av digitala avbilder, oavsett om det gäller annonser, marknadsföring, ”fake news”-propaganda, filmer, videospel eller pornografi. Samtidigt attackerade både Disney, bolaget bakom bland annat Star Wars och Marvel, och Motion Picture Association of America ett lagförslag om restriktioner för ”digitala replikor” som görs utan skådespelarnas tillstånd. Disney sade, att även om lagförslaget ”antagligen var välment” eftersom det kunde förebygga användningen av otillåtna kändisbilder i pornografi, skulle det göra det svårt för ”företag som vårt att berätta berättelser om riktiga människor och händelser”, till exempel genom biografiska filmer. MPAA sade, att även om ”det växande problemet med deepfakes förtjänar uppmärksamhet” skulle lagförslagets vaga formulering resultera i ”oönskade, skadliga konsekvenser och vore troligen grundlagsstridig”.

Det verkar som om Hollywood motsätter sig otillåtna ansiktsutbyten, men vill försäkra sig om att man har friheten att själv använda sig av tekniken i framtiden.

Det är lätt att förstå varför skådespelarfackfö­reningarna oroar sig för digitala skådespelare och varför filmbolag vill ta tillvara sina möjligheter att skapa och använda dem. Digitala skådespelare skulle kunna göra livet betydligt lättare för filmbolagen, men samtidigt tuffare för skådespelare – eller i alla fall majoriteten av dem. Skådespeleri är ett spel där vinnaren tar allt, där ett litet antal personer får lejonparten av inkomsterna. Om de kunde klona sig själva skulle stora stjärnor i praktiken kunna få en ännu större del av kakan.

Unga skådespelare som arbetar som statister skulle samtidigt få det ännu svårare att fånga regissörernas intresse. Storfilmen Ben Hur hade tusentals statister. I dag är kassasuccéernas folkmassor och stridande arméer datorgenererade.

TextnotisDigitala skådespelare skulle också kunna förstärka filmindustrins tendens till konservatism. Det är dyrt att göra filmer, särskilt storfilmer, vilket är anledningen till att filmbolag gillar uppföljare och omarbetning så mycket. Lågriskstrategin är att helt enkelt ge tittarna mer av vad de gillar. Det har gjorts sex Terminator-filmer sedan den första släpptes 1984 och Arnold Schwarzenegger – eller hans datorgenererade avbildning – har varit med i varje. Det finns ingen anledning varför han inte skulle kunna vara med i sex till de närmaste 36 åren.

På liknande sätt har det hittills producerats 23 filmer som utspelar sig i Marvels filmuniversum, baserade på företagets serieböcker. Serieboks­karaktärer är kända för att aldrig åldras, återuppstå och vara tillgängliga för ändlösa nystarter och sidoberättelser. Virtuella skådespelare har samma fördelar.

De som är utledsna på att se Hugh Grant i en romantisk komedi för hundrade gången skulle kunna få andra alternativ, om ansiktsutbytesteknik kan fås att fungera på stående fot. Varför inte låta tittarna välja vilka skådespelare de skulle vilja ha i vissa roller – eller till och med låta tittarna klippa in sig själva och sina vänner i sina favoritfilmer? Inte alla ser på film för skådespeleriets skull; ibland är det lika viktigt med gemenskapen i tittandet och det skulle även kunna gälla vita duken.

Det här kan vara tiotals år borta och kanske inträffar det aldrig. Konstnärligt inriktade regissörer kommer otvivelaktigt att vägra att använda digitala skådespelare i sina filmer av principskäl (även om vissa kanske kommer att föredra just digitala skådespelare eftersom de också följer den mest tyranniske regissörs befallningar utan att klaga). Uppkomsten av odödliga digitala skådespelare är den logiska följden av att dagens effektbesatta filmskapande tar till sig den mångsidighet som artificiell intelligens kan bidra med. Trick som man bara tar till i undantagsfall, som bakgrundsfilmning, greenscreen och tidigare CGI, skulle lätt kunna bli standard för filmskapande.

Digitala skådespelare öppnar nya möjligheter för filmberättande. Men de ställer också många nya frågor som kommer att kunna besvaras med vilket ansikte eller röst du vill.