Initierat / Marcin de Kaminski.

2020-08-27 12:00
Bild: Privat / Shutterstock / TT
Puffetikett
Dagens ETC

Ivar Arpi har rätt – det finns ingen objektiv algoritm

Google hjärntvättar med en politiskt korrekt och tillrättalagd bild av verkligheten, menar ledarskribenten Ivar Arpi. I det avseendet har han fel.

Men han gör rätt i att vilja diskutera de hemliga algoritmer som driver it-jättarnas tjänster och därmed formar både våra medvetanden och våra samhällen.

Vill du fortsätta läsa?

Bli prenumerant på Dagens ETC!
Om du redan är det loggar du in här.

Betala per vecka

Från

39 kr

Beställ här!

Din prenumeration på Dagens ETC förnyas varje vecka. Avsluta när du vill.

Betala per månad

Från

139 kr

Beställ här!

Din prenumeration på Dagens ETC förnyas varje månad. Avsluta när du vill.

Att Google manipulerar våra sökresultat upprörde förra veckan Ivar Arpi till den milda grad att han i Svenska Dagbladet (18/8) utan att skräda orden presenterade ett antal av sina senaste googlingar med vassa kommentarer om digital diskriminering när sökningar på europeisk konst visade konst avbildandes en inte helt med sanningen överensstämmande historisk europeisk demografi och sökningar på vita män resulterade i sökträffar visandes både svarta män och – gud förbjude – kriminella (vita) män. När jag gör samma sökning får jag själv överraskande nog upp kvinnor, vilket skulle kunna stärka Arpis tes.

Flera ironiserande texter har redan dykt upp om Arpis skeva Google-fokus, och visst tycker även jag som inbiten nätpositivist att exemplen som av Arpi radats upp är en smula fantasi­lösa. Men att som något slags ryggradsreflex gå i polemik bara för att Arpi återigen skrivit något på internet känns en smula tendentiöst. Arpi är i sin kolumn måhända lite väl transparent med sina särintressen, men på det stora hela har han faktiskt rätt.

Med ett antal viktiga brasklappar.

Samlar in datapunkter

Internets algoritmer är inte objektiva. Det är en sanning som inte nog många gånger måste upprepas, för att påminna oss om att världen är större och fylld av många fler nyanser än våra sociala medie-flöden och googlingar förklarar för oss.

För snart tio år sedan inledde Google sin samkörning av de datapunkter vi användare glatt lämnade efter oss för att på så sätt öka relevansen i de sökresultat man sedan visade för oss. Då förändrade sökjätten sina användarvillkor för att möjliggöra att kunna samköra relevansdata mellan olika tjänster – och eftersom Google då var det enskilt absolut största fönstret till internet blev intergritetsivrare som jag oroliga.

Även om man sades avkoda och anonymisera känslig persondata återstod problemet att de anpassade sökresultaten dels relativt enkelt kunde härledas till enskilda och kategorier av användare och dels på ett sätt som då överraskade många avslöjade hur mycket nätjättarna egentligen visste om oss.

Mantrat att ”Google vet mer om oss än vi själva vet” kom att bli ledordet för den tidens nätrelaterade diskussioner. Låt oss inte historielöst glömma att den logiken då etablerades och fortfarande är giltig. Google anstränger sig verkligen för att leverera den typ av sökresultat som algoritmerna identifierat som relevanta för just dig. Det innebär inte att de visar en neutral och generell bild av den värld vi kallar verklighet – det är helt enkelt inte möjligt. Vill man följa något slags av postmodernistisk samtidsdiskussion kan man torrt konstatera att det vi tror är verkligt inte nödvändigtvis behöver vara relevant – och vice versa. Inte ens om det beskrivs på ledarplats i dagspressen


Prenumerera på Dagens ETC:s nyhetsbrev

 

Robot gallrar ansökningar

Istället bör vi diskutera vad det innebär att man inte lyckats lära algoritmer för ansiktsigenkänning att särskilja nyanser i mörkare hudtoner, vilket i takt med utrullning av automatiserade metoder för policing riskerar att försätta alla som digitalt definierats som icke-vita för misstanke och eventuell fara.

Med rapporten ”Slumpvis utvald”, framtagen av Civil Rights Defenders i samarbete med forskare vid Stockholms universitet, i färskt minne kan vi konstatera att det existerande problemet med etnisk- och rasprofilering inom svensk poliskår måste hanteras innan tekniska lösningar för rättsliga åtgärder vidare implementeras. Om redan väl­dokumenterade orättvisor inom behandling av rättsvårdande myndigheter förstärks av fördomsfulla algoritmer, som i sin tur betraktas som objektiva, har vi att se fram emot en ökade klyfta vad gäller rättstatens principer och våra gemensamma demokratiska värden. Ett sådant samtal är vad Polismyndigheten bör engagera sig i, innan man implementerar innovativa metoder för brottsbekämpning – metoder som då riskerar att slå helt fel.

Vi bör också tala om hur kommuner som Trelleborg menar att man effektiviserat sin handläggning genom att omstrukturera delar av sitt system att betala ut ekonomiskt bistånd till att istället för erfarna socialsekreterare låta digitala robotar göra bedömningar på vilka livsavgörande beslut sedan fattas. Akademikerförbundet SSR har upprepade gånger de senaste åren lyfte denna fråga, senast tidigare i år genom en JO-anmälan.

Koden till robotens algoritmer är inte tillgänglig för granskning, och i avsaknad av tydlig delegationsordning så betraktar man därför algoritmen som obehörig. Samtidigt fortsätter roboten att gallra bland ansökningar om försörjningsstöd, utan att erbjuda insyn i vilka parametrar den prioriterar. Om programmeringerna skett utan att sociala aspekter verkligen tagits omhand har vi alla ett problem, likaså om implementeringen av roboten skett av tjänstemän utan rätt teknisk kompetens.

Precis dessa frågor var EU-kommissionens särskilda utredare av algoritmiskt beslutsfattande oroad för när jag mötte henne tidigare i våras.

Ökande kunskapsklyvning

Oundvikligt är också att prata om hur vi nu befinner oss i en snabbt ökande kunskapsklyvning där en växande del av befolkningen såväl i Sverige som i andra delar av världen får majoriteten av sin kunskap om omvärlden genom snabba flöden styrda av otillgängliga algoritmer.

Den nu fortsatt eskalerande pandemin behöver ett ökad kunskapsläge baserat på fakta – inte på villfarelser. Den svenska analysfirman Earhart beskrev i ett samtal som den nationella kommittén för Det demokratiska samtalet arrangerade häromveckan hur de granskat tusentals och åter tusentals datapunkter från det öppet sökbara internet beskrivandes olika former av konspiratoriska självhjälpskurer mot covid-19. Och tyvärr också enormt många exempel på hur personer avlidit efter att ha druckit blekmedel och andra kemikalier i jakten på ett botemedel. Den typen av algoritmstyrd rappakalja drabbar främst den som saknar andra möjligheter att inhämta kunskap.

Så visst är frågan viktig och brännande. Monstret internet har blivit så stort att det för vår mänskliga hjärna är omöjligt att tolka, och viljan att söka hjälp att bättre förstå vår omvärld finns på riktigt. Men det är inte högfungerande vita män i hetero­sexuella relationer som dragit nitlotten. Den typen av argumentation är ohederlig och direkt felaktig.