Facebook vidste, at kunstig intelligens er meget lidt effektiv. Men gjorde sig endnu mere afhængig af den for at skjule det. Og gav et helt andet billede udadtil.

Lækkede dokumenter afslører ny vildledning: Kunstig intelligens fanger ikke had og vold

Foto: Andrew Harnik/Ritzau Scanpix
Foto: Andrew Harnik/Ritzau Scanpix
Lyt til artiklen

Facebooks topchef, Mark Zuckerberg, har under adskillige høringer i den amerikanske Kongres givet indtryk af, at stort set alle hadefulde og voldelige opslag bliver fjernet af den kunstige intelligens, som Facebook har investeret milliarder i at udvikle de seneste fem år.

Men interne dokumenter, som whistlebloweren Frances Haugen tog med sig, da hun i sommer forlod Facebook, fortæller en ganske anden historie. Ifølge Facebooks egne opgørelser bliver kun omkring 5 procent af de hadefulde opslag og kun 0,6 procent, der rummer vold eller opfordringer til vold, fjernet. Resten får lov at stå, skriver The Wall Street Journal, der har fået Frances Haugens materiale.

Læs videre for 1 kr.

Du er godt i gang – få adgang til hele artiklen, alt på politiken.dk og dagens e-avis i en måned for kun 1 kr. Ingen binding.

Bliv abonnent nu
Allerede abonnent? Log ind
Group 2

© Alt materiale på denne side er omfattet af gældende lov om ophavsret. Læs om reglerne her