Inrikes.

2020-03-18 20:00
Puffetikett
Dagens ETC

Så identifierar du fejkade ansikten

Med hjälp av artificiell intelligens och tekniken StyleGan är det möjligt att generera bilder och media på ansikten som nästan inte går att skilja från verkliga. Så det finns en hel del som kan vara bra att veta när du rör dig på internet och sociala medier.

Vill du fortsätta läsa?

Bli prenumerant på Dagens ETC!
Om du redan är det loggar du in här.

Betala per vecka

Från

39 kr

Beställ här!

Din prenumeration på Dagens ETC förnyas varje vecka. Avsluta när du vill.

Betala per månad

Från

139 kr

Beställ här!

Din prenumeration på Dagens ETC förnyas varje månad. Avsluta när du vill.

StyleGan, som har öppen källkod och därmed kan användas fritt av alla, har kommit så långt att det kan vara riktigt svårt att på håll se om personen du ser på bild egentligen bara är massor av ettor och nollor, ihopsatta av avancerade datorprogram. Kommentarsfältstroll och desinformationsaktörer jublar. Med teknikens hjälp kan de nu med minimal ansträngning klä falska profiler med verklighetstrogna profilbilder. Här finns en guldgruva för den kraft som vill trakassera eller opinionsbilda i det dolda.

Potential och risker

Men här finns också en begynnande bransch som växer fram i och med utvecklingen. Det är inte otroligt att det i nära framtid finns en Netflix-serie där du spelar huvudpersonen, eller ett digitalt rum där du får prata med en avliden närstående igen. Branschens potential matchas av riskerna. I mörkare världar skapas och sprids pornografi eller våldsskildringar med personer som inte samtyckt till sin ”medverkan”.

En annan grupp som snabbt anammat StyleGan är konstnärer, och det finns redan flera exempel på AI-genererad konst.

Framsteg för övervakning

StyleGan gör det betydligt lättare för artificiell intelligens att lära sig hur människor ser ut, rör sig och kommunicerar. Den största risken kan vara övervakning, och hur StyleGan kan användas för att snabbt identifiera eller kartlägga mänskliga ansikten på ett sätt som tidigare inte har varit tekniskt möjligt i samma omfattning.

Det finns också en aktuell moralisk och etisk fråga om huruvida forskare ska ta hänsyn till samhälleliga effekter av sin forskning och väga fördelarna mot eventuella nackdelar. Om fördelarna är genererad media och ”snygga” bilder på människor som inte finns, men nackdelarna är omfattande framsteg för övervakning — är det värt det?

Tre globala faser

2018 förutspådde datalagringsföretaget Western Digital och konsultbyrån Accenture att kameraövervakning skulle utvecklas i tre mer eller mindre globala faser. Fas ett innebär att polis använder sig av kameraövervakning för att undersöka och utreda brott efter att de skett. Fas två, uppskattad att starta runt år 2025, innehåller en förvandling av samhällen till “smarta städer” där skolor, myndigheter, vård/omsorg och andra samhällsfunktioner kopplar samman sina datasystem med polisens för centraliserad AI-baserad analys. Fas tre, runt år 2035, innebär en infrastruktur där privatpersoner mer eller mindre frivilligt kopplar upp egna övervakningssystem och datasystem till det centrala nätverket för “allmän säkerhet” och där databaser slår samman information som kan hämtas från källor som individers ­sociala medier.

Flera frågetecken

Företag som Google, Facebook och Twitter arbetar på olika sätt med att implementera funktioner för att tagga eller identifiera AI-genererad media, men det finns flera frågetecken kring huruvida den tekniken faktiskt är effektiv, eller om det är ett sätt att försök tona ner uppenbara risker och lugna användare.

När information rör sig i snabba hastigheter och i komplexa och fragmenterade digitala ekosystem är det en rejäl utmaning att bygga motståndskraft mot desinformation. En av de bättre metoderna för att bygga upp motstånd och för att sprida kunskap är att öva.

På hemsidan ThisPerson­Does­NotExist.com kan du enkelt hitta bilder genererade med StyleGan. 

Svårt med realistiskt hår

Om du misstänker att en bild är genererad med StyleGan finns det några tecken som du kan kika efter (se fakta­ruta). Idag har StyleGan flera begränsningar med vad som kan genereras på ett realistiskt sätt. StyleGan har till exempel svårt att generera hår, hårda gränser, kläder och bakgrunder. Det innebär att genererade bilder ofta kan ha vad som ser ut som luftbubblor i bakgrunden. Idag genereras också en bild per falsk person, det kommer inte att finnas fler bilder på samma falska person. 

Tänk på att mer tekniskt kunniga bedragare enkelt kan rätta till brister i bildredigerings­program, så tipsen är inte att se som uttömmande. StyleGan utvecklas också fortfarande, och tekniken blir bättre och bättre varje vecka. Det som gäller i skrivande stund kanske redan är inaktuellt när du läser. 

Använder sig av AI

StyleGan (style-vased generator architecture for generative adversarial Networks) är en teknik som använder AI och maskinlärning för att skapa genererad media.

StyleGan ska inte blandas ihop med det medialt ­populära samlingsbegreppet ”deep fakes”, även om infrastrukturen och innovationen kommer att göra det lättare att generera syntetisk media.

På hemsidor som ThisPersonDoesNotExist.com kan du enkelt hitta exempel och ladda ner genererade bilder på falska ansikten

Tekniken har utvecklats av Nvidia, ett gigantiskt amerikanskt teknikbolag som vill visa ”ledarskap” i frågan om AI och maskinlärning. Företaget är mest känt för sina grafikkort, men Nvidia är också en stor leverantör av AI-relaterad teknik och infra­struktur. Flera av världens största övervakningsföretag använder sig av Nvidias produkter för till exempel ansiktsigenkänning och automatisk igenkänning av registreringsskyltar via AI.

Så avslöjar du fejkade ansikten

Bilderna är på en person, inga grupper.

Begränsat antal vinklar, alltid med en suddig abstrakt bakgrund.

Oftast närbilder fokuserade på ansiktet.

Ögon, näsa och mun ligger alltid centrerade mitt i bild.

Inga objekt eller plagg som slipsar.

Sällan accessoarer som ­glasögon eller örhängen, men om det görs ser de ofta ­overkliga eller diffusa ut.

Inga kepsar eller hattar.