Teknik är inte så neutral som du kanske tror
Den 8 mars passade Amanda på att besöka föreläsningsdagen Women in Tech för att gå på seminarier om fallgroparna med ansiktsigenkänning och huruvida algoritmer kan vara diskriminerande.
Sedan 2014 anordnas Women in Tech årligen på internationella kvinnodagen den 8:e mars i Stockholm. I år sålde biljetterna slut på sju minuter och i publiken satt till och med personer som flugit in från Kina. Dagen hade ett fullsmockat schema med en uppsjö intressanta föreläsningar om AI, digitalt ledarskap, virtuell och förstärkt verklighet, robotar, blockchain och metoo-upproret Tekniskt fel.
Temat för denna års upplaga är Brave New World och dagen genomsyras av att se igenom teknikens påstådda neutralitet för att bli medveten om vad vi – många gånger omedvetet – stoppar in i tekniken och vad detta får för konsekvenser.
Ansiktet som tekniken inte ser
Dagens första föreläsare är Joy Buolamwini som driver initiativet Algoritmic Justice Leauge och beskriver sig själv som en poet med programmering som främsta uttryck. Hon har nyligen publicerat en undersökning där de kollat på hur korrekta de smarta algoritmerna för ansiktsigenkänning hos IBM, Microsoft och Faceplusplus egentligen är. Företagen själva brukar gå ut med strålande siffror som ligger runt 90 procent träffsäkerhet, men känner AI:n igen alla typer av ansikten lika bra?
För att undersöka detta var Buolamwini och hennes forskningsgrupp tvungen att ta fram en egna prestandamätningsverktyg, då de snabbt märkte att de redan existerande var tydligt snedfördelade. Prestandamätning av ansiktsigenkänning går ut på att man har en uppsättning med olika ansikten som man testar AI:n på. De som redan fanns bestod av en majoritet mansansikten och det fanns väldigt få mörkhyade representerade bland ansiktena.
De skapade ett prestandatest med hälften kvinnor och män men också med en jämnfördelning av olika hudtoner. För att få ett så nyanserat resultat som möjligt kollade de på hur algoritmerna för ansiktsigenkänning hanterade vita män, vita kvinnor, mörkhyade kvinnor och mörkhyade mäns olika ansikten och de fann att resultaten skilde sig mycket från de 90 någonting procenten som företagen stoltserar med.
Microsoft, IBM och Faceplusplus var alla fruktansvärt bra på att känna igen vita män, där låg träffsäkerheten på 100, 99,7 och 99,2 procent. Gruppen som AI:n kämpade tveklöst mest med var mörkhyade kvinnor där träffsäkerheten istället låg på 79,2, 65,5 och 65,3 procent. Skillnaden mellan nästan 100 procent och runt 65–79 procent är inte liten.
Buolamwini och hennes forskargrupp delade med sig av resultaten till de berörda företagen som reagerade på lite olika sätt. Faceplusplus svarade inte ens, Microsoft svarade att de ständigt jobbar med att förbättra tjänsten och IBM tog resultaten på största allvar. De gjorde om testerna hos sig och fick ett likande resultat. Detta ledde till att de uppdaterade programvaran 23 februari i år och svarade Buolamwini med en fyra sidor lång rapport som visade förbättringarna – från 65,5 procent till 96,5 procent träffsäkerhet hos gruppen mörkhyade kvinnor.
Kan en algoritm vara rasistisk?
Efter lunchen gick det att välja flera olika föreläsningar och jag valde den där doktor Rumman Chowdhury pratade om artificiellt inflytande och hur AI formar om vårt samhälle.
Möjligheterna med artificiell intelligens är nästintill oändliga men fallgroparna är nästan lika många. För att en AI ska vara så framgångsrik som möjligt måste den ha mycket data att arbeta med, men vad säger datan vi ger den? En av de vanligaste fallgroparna när det gäller artificiell intelligens är att vi omedvetet kan råka proppa den full med våra egna värderingar, samhällsstrukturer och vår egen partiskhet.
Därför betonar Chowdhury vikten av mångfald i arbetsgrupper som tar fram teknik. Ju större mångfald det finns i en utvecklingsgrupp desto mindre är risken att blinda fläckar uppstår. Det är inte bara faktorer som kön eller etnicitet som spelar in, exempelvis kan geografisk placering vara viktigt. Mångfald är viktigt för att veta hur produkter påverkar folk.
Chowdhury tar sin telefon som exempel. När hon kom till Sverige blev hon paff, helt plötsligt stängde mobilen av sig – för det var för kallt. Om en utvecklare i Kalifornien ska ta fram en mobil är dennes största bekymmer kanske hur den ska bli vatten- och dammtålig så den klarar sig på stranden, men utvecklaren är inte ens medveten om att andra klimat kräver andra behov – som att kunna överleva i kyla.
Artificiell intelligens är bra på mycket men den kan också många gånger vara rätt dum, det finns ett uttryck som säger att en artificiell intelligens är bäst på att spela schack i ett brinnande hus. Den kan göra uppgifter den blir tilldelad men den kan inte prioritera eller ta egna beslut långt utanför boxen. Därför är det också viktigt att veta vilken information vi ger en AI och vad den förväntas göra av informationen.
Ibland kan det vara svårt att se vad en AI gör i bakgrunden och i värsta fall kan smarta funktioner hjälpa dig att ta sämre val. Statistik säger exempelvis att kvinnor får mindre betalt än män, trots att de utför samma arbetsuppgifter. Detta kan leda till att sökträffar med lägre lön på en sökmotor för jobbletande hamnar högre upp hos mig som kvinna för att statistiken säger till den smarta funktionen att detta är "rätt".
På samma sätt kan artificiell intelligens jobba för att förstärka filterbubblor. Vi människor fungerar så att vi dras till saker som bekräftar vår tes och blir skeptiska mot saker som går emot den. Med sociala medier, smarta algoritmer och filterbubblor förstärks detta beteendet. Det gör att fenomen som fejknyheter, eller artificiell intelligens som genererar fejkposter för att få det att se ut som att en stor skara stöder en åsikt kan få förödande konsekvenser.
Teknik och algoritmer kan inte per definition vara onda, diskriminerande eller ha en agenda men på senare tid har vi börjat lägga ansvaret på koden. Rubriker som "Artficiell intelligens: Hur du gör för att undvika rasistiska algoritmer" eller "Forskare varnar för att AI-robotar är sexistiska och rasistiska" blir allt vanligare. Istället för att prata om vad det är som gör att den artificiella intelligensen blivit "rasistisk" flyttar vi fokus från oss som gjort den till den "onda koden". Vi skapar ett narrativ där AI:n har en agenda och i slutänden också ansvaret för vad som sker.
Chowdhury drar en koppling till vad som hände under andra världskriget i Tyskland. När man in efterhand intervjuade personer som var inblandade i koncentrationslägren uppgav de att de bara gjorde vad de blev tillsagda, de var inte ansvariga för någons död.
Man har kunnat se likande mekanismer när det gäller samarbete med artificiell intelligens i exempelvis jobbsammanhang. "Det var inte jag som gjorde fel, jag gjorde bara som algoritmen sa åt mig att göra." Brist på ansvarskänsla är det som skapar grund för dåliga beslut, därför är det viktigt att vi skapar artificiell intelligens som kompletterar och samarbetar med oss, inte som säger åt oss vad vi ska och inte ska göra.
Algoritmer visar det vi inte ser
Både Chowdhurys och Buolamwinis föreläsningar pekar på något väldigt viktigt. Teknik är inte neutral, eller rättare sagt – tekniken är neutral i sig själv men den påverkas av vilka som gör den och vad vi ger den. Detta är inget som tekniken kan eller bör ta ansvar för. Det är vårt jobb att skapa inkluderande teknik som passar fler än en typ av person.
Vi kan inte veta allt, se alla problem från alla olika vinklar eller vara allvetande, men tillsammans kan vi dela erfarenheter och behov och problemlösa tillsammans. Mångfald är viktigt för att det breddar bilden, kompetensen, erfarenheterna och minskar våra blinda fläckar. Den skapar objektivt bättre teknik och bättre produkter – teknik som inte är gjord för en typ av person utan för alla typer. Precis därför behövs event som Women in Tech, dagar som 8:e mars och personer som vågar ställa obekväma frågor och utmana våra förutfattade meningar. Tillsammans blir vi bättre.