0
Læs nu

Du har ingen artikler på din læseliste

Hvis du ser en artikel, du gerne vil læse lidt senere, kan du klikke på dette ikon
Så bliver artiklen føjet til din læseliste, som du altid kan finde her, så du kan læse videre hvor du vil og når du vil.

Næste:
Næste:
Artiklen er føjet til din læseliste Du har ulæste artikler på din læseliste

Forsker: Google giver undertrykkende søgeresultater

Kan noget så sterilt og kedsommeligt som en matematisk algoritme være sexistisk eller ligefrem racistisk? Ja, siger den amerikanske forsker Safiya Umoja Noble, der netop har udgivet en bog om ’undertrykkende algoritmer’.

Der er ikke oplæsning af denne artikel, så den oplæses derfor med maskinstemme. Kontakt os gerne på automatiskoplaesning@pol.dk, hvis du hører ord, hvis udtale kan forbedres. Du kan også hjælpe ved at udfylde spørgeskemaet herunder, hvor vi spørger, hvordan du har oplevet den automatiske oplæsning.

Spørgeskema om automatisk oplæsning
Safiya Noble
Foto: Safiya Noble

Da en amerikansk kvinde i april 2016 googlede efter fotos af 'utjekkede frisurer til arbejde' dukkede billederne i venstre side af sorte kvinder op. Da kvinden for sjov skiftede 'utjekkede frisurer' ud med 'tjekkede frisurer', kom Google i stedet med billederne i højre side af hvide kvinder. Algoritmen er siden ændret, så det i dette tilfælde der anderledes udi dag, men ifølge forfatteren Safiya Noble findes problemet mange andre steder.

Tech
Læs artiklen senere Gemt (klik for at fjerne) Læst
FOR ABONNENTER
Tech
Læs artiklen senere Gemt (klik for at fjerne) Læst
FOR ABONNENTER

Safiya Umoja Noble havde aldrig tænkt på algoritmer som hverken sexistiske eller racistiske, før en kollega for år tilbage spurgte hende, om hun nogensinde havde lavet en Google-søgning på ordene ’sorte piger’ – eller black girls’, som det retteligen hedder, når man nu er engelsksproget amerikaner.

»Jeg troede jo dårligt mine egne øjne«, siger den amerikanske forsker, da Politiken møder hende på en café i udkanten af Los Angeles i anledning af hendes nye bog om ’undertrykkende algoritmer,’ Algorithms of Oppression.

»På første side af søgningen blev ordet ’fisse’ brugt fire gange som navneord for en sort pige – altså ikke engang en ’kvinde’, men en ’pige’ (girl på engelsk, red.), fortæller Safiya Noble om den dag i 2009:

»Derudover ledte første side af søgningen hen til ord som fræk, behåret, sex, røv, teenager, stor, pornostjerne, hot og hardcore«.

Da Safiya Noble to år senere, i 2011, passede børn og søgte inspiration til aktiviteter med dem, googlede hun igen ordene ’sorte piger’. Og igen fremkom et stærkt pornoficeret søgeresultat.

Bliv en del af fællesskabet på Politiken

Det koster kun 1 kr., og de hurtigste er i gang på under 34 sekunder.

Prøv nu

Annonce

Læs mere

Annonce

For abonnenter