Du har ingen artikler på din læseliste

Hvis du ser en artikel, du gerne vil læse lidt senere, kan du klikke på dette ikon

Så bliver artiklen føjet til din læseliste, som du altid kan finde her, så du kan læse videre hvor du vil og når du vil.

Læs nu
Du har ingen artikler på din læseliste
A paramilitary police officer gestures at the photographer outside the Great Hall of the People ahead of the opening session of the Chinese People's Political Consultative Conference (CPPCC) in Beijing, China March 3, 2019. REUTERS/Thomas Peter
Foto: Thomas Peter/Ritzau Scanpix
Stop! Sidste år stoppede kinesiske domstole over 20 millioner tog- og flyrejser, fordi den rejsende - ifølge Kinas Kommunistparti - havde problemer med sin opførsel.
Nyhedsbrev - Tech og Viden

Din socialkredit er i bund: Millioner af kinesere kan hverken tage med tog eller fly

Selvkørende biler er en større risiko for sorte end for hvide, fortæller Politikens ugentlige nyhedsbrev om tech og viden.

Nyhedsbrev - Tech og Viden

Kære læser


Mange af jer, der læser dette tech-nyhedsbrev, har sikkert hørt om Kinas planer om at tildele samtlige 1,4 milliard kinesere såkaldte »sociale kreditpoint«, der viser, hvor gode og lydige samfundsborgere de er – i det kinesiske kommunistpartis øjne, forstås. Men efterhånden, som planerne konkretiseres, begynder man for alvor at forstå betydningen.


For et par dage siden kunne den britiske avis The Guardian f.eks. fortælle, at kinesiske domstole i 17,5 millioner tilfælde havde forhindret »diskrediterede« kinesere i at købe flyrejser i 2018, mens de hindrede 5,5 millioner togrejser. Avisen citerer Kinas Nationale Informationscenter for Offentlig Kredit for denne erklæring: »Er man først diskrediteret, er man begrænset overalt«.


Systemet med sociale kreditpoint blev beskrevet i kinesiske regeringspapirer i 2014 og har til formål at belønne »troværdig« adfærd og straffe det modsatte. Systemet giver, som det hed, »de troværdige mulighed for at færdes overalt på jord, mens de gør det hårdt for diskrediterede at tage bare et enkelt skridt«.


Hvis du ikke fik læst - eller har glemt - den tyske journalist Axel Dorloffs reportage fra Rongchen i 2017, skulle du gøre dig selv den tjeneste at gøre det. Den er her - vi bragte den i sin tid i Politiken og arbejdede også videre med emnet sammen med Axel Dorloff.


Udbetaling Danmark

De færreste kunne vel forestille sig, at det samme skete herhjemme. Og så alligevel...


For er vi tilstrækkeligt opmærksomme på, hvad vi gør, når stat og kommuner begynder at samkøre data og arbejde med fænomener som de såkaldte »undringslister« under Udbetaling Danmark.


Prøv lige at læse disse tre afsnit fra en spritny kronik, som er skrevet af Jacob Mchangama, direktør i tænketanken Justitia, og Hin Yan Liu, der er lektor ved det juridiske fakultet på Københavns Universitet:


»Det bedste eksempel er Udbetaling Danmark, der på det sociale område har en vidtgående adgang til – uden borgernes samtykke – at indhente oplysninger om både ydelsesmodtagere og deres nærmeste, familie m.v. hos andre myndigheder og private virksomheder«.


»Disse omfattende data kan derefter blive sammenstillet og samkørt for at identificere mønstre, der kan tyde på snyd eller andre uregelmæssigheder. De borgere, som Udbetaling Danmarks algoritmer identificerer som problematiske, kommer på en såkaldt ’undringsliste’, som så kan deles med kontrolenheder i kommunerne, der kan bruge listerne til at målrette deres indsats med at opdage og forhindre fejludbetalinger og socialt bedrageri eller skattesnyd«.


»Antallet af borgere, der modtager offentlige ydelser fra Udbetaling Danmark eller deres kommune, ligger på ca. 3 mio., hvorfor langt de fleste voksne danskere risikerer at få endevendt private oplysninger om bopæl, familieforhold, økonomi, samlivsforhold og helbred, og på den baggrund ende på en undringsliste. Og det uden at borgerne selv ved, hvilke kriterier der ligger til grund for undringslisterne eller de algoritmer, der samkører de relevante data. Kun omfattende protester førte til, at regeringen måtte droppe et forslag om at tillade Udbetaling Danmark også at få adgang til at samkøre data fra danskernes el-målere med henblik på at undgå fejludbetalinger og socialt bedrageri«.


Et algokrati

De to kronikører taler om et »algokrati«, hvor algoritmer overtager styringen fra de politisk valgte i demokratiet.


»Faren for udviklingen af et ’algokrati’ kan lyde som konspiratorisk tågesnak, for udviklingen af ny teknologi har til alle tider medført dommedagsscenarier om civilisationens snarlige forfald og indførslen af et totalitært dystopia«, medgiver de og håber:


»Forhåbentligt vil denne kronik om nogle årtier fremstå lige så bedaget og ufrivillig komisk, som da New York Times i 1858 advarede mod den ”omfattende skade”, som telegrafen ville medføre. Men for at sikre opnåelsen af goder, må man nogle gange forberede sig på det værste. Og den algoritmiske revolution er allerede i gang, ligesom der er udbredt politisk vilje til at gå markant længere«.


I Kina giver kommunistpartiet ikke mulighed for en fri debat - faktisk kan den koste sociale kreditpoint og tab af adgang til at rejse med fly og tog. Men herhjemme kan vi stadig tage den. Og vi kan stadig påvirke de rammer, som det offentlige kan og må arbejde under. Kina er et skræmmebillede på alt det,der kan gå galt, hvis vi ikke tager det på os.


Den amerikanske forfatter Shoshana Zuboff advarer på sin side mod »overvågningskapitalisme«, hvor privatejede amerikanske techgiganter indsamler samme slags data som Kinas kommunistparti.


Vi skal ikke bruge advarslerne til at tale imod ny teknologi, der rummer masser af lyksaligheder. Men vi skal netop i disse år bare huske at tænke os om: Det er i disse år, vi lægger brædder ud til fremtiden.


Sorte fodgængere: Pas på!


Vi skal til at slutte, men jeg faldt lige over en anden ting, vi har beskæftiget os med i dette nyhedsbrev: Racistiske algoritmer.


Du husker måske interviewet med den amerikanske forsker i kunstig intelligens, Joy Buolamwini, der her i Politiken fortalte om automatisk ansigtskendelse, der havde svært ved at skelne folk med sort hudfarve fra hinanden.


Nu har forskere fra det amerikanske Georgia Institute of Technology fundet ud af, at der er større risiko for at selvkørende biler rammer fodgængere med mørk end med lys hud.


Det er der to årsager til, skriver MIT Technology: Den ene er, at de bagvedliggende algoritmer ikke er blevet »trænet« lige så meget i mørke hudfarver som i lyse, og at man for det andet ikke har været god nok til at korrigere fejlene.


Det gode er, at man kan rette op på det. Men det kræver gennemsigtighed og ansvarsbevidsthed i brugen af algoritmer. Selvkørende biler vil en dag redde liv - men vi skal sikre, at de ikke vægter den ene befolkningsgruppe højere end en anden.


Tak for denne gang


Tak for du læste med til den bitre ende. Nedenfor har jeg samlet en stribe spændende artikler, der kan gøre dine stjernenætter (endnu mere) himmelske eller bare underholde dig.


Du er som altid velkommen til at sende ris og ros og tip til: michael.jarlner@pol.dk


Tak for denne gang.



Stjernehimlen i marts: Lad stjerne danse


Digital hverdag: pædofile kigger med på Youtube


Kunstig intelligens gør det bedre end eksperterne


Viden: En hval flød ind i junglen


Algograti: Læs den opsigtsvækkende kronik


Digital koldkrig: Huawei svarer igen


Podcast: Hør mere om Huawei og den digitale koldkrig


Debat: Se hvad Politiken mener


For abonnenter

Annonce

Forsiden