Hvad nu, hvis man skulle have tilladelse fra staten for at livestreame, og hvis videoer skulle sendes med en forsinkelse på 7 sekunder?
Hvad hvis Facebook, YouTube og Twitter blev behandlet som almindelige udgivere og blev sat til at føre tilsyn med hvert eneste indlæg, kommentar og billede, før de nåede ud til offentligheden? Eller hvis de kunne stilles til ansvar for sikkerheden af deres produkter og den skade, de kan forvolde – ligesom Boeing og Toyota kan?
Overvej, hvordan internettet ville se ud, hvis techchefer kunne fængsles for ikke at dæmme op for had og vold.
Det er forslag som disse, man i øjeblikket drøfter i Australien og New Zealand. Politikere i begge landene vil tage affære efter sidste måneds forargelige massakre i Christchurch, hvor 50 mennesker blev dræbt ved to moskeer. Gerningsmanden, der formodes at være en australsk højreekstremist, lagde et manifest ud på nettet, før han gav sig til at livestreame skyderierne på Facebook.
Hvis de to lande går videre med forslagene, vil det være et vendepunkt i en tid domineret af de globale sociale medier. Ingen etablerede demokratier har hidtil været så tæt på at indføre omfattende restriktioner på online-kommunikationskanaler. Ønsket om forandring er et resultat af en voksende frustration over en industri, der reelt er indrettet efter den amerikanske lovgivning og de ultraliberale normer i techparadiset Silicon Valley.
Medie: Formodet gerningsmand i New Zealand klager over sine forhold i fængslet»De store virksomheder, der står bag de sociale medier, er ansvarlige for at gøre alt, hvad der gøres kan, for at sikre, at deres teknologier ikke udnyttes af mordlystne terrorister«, lød meldingen lørdag fra Australiens premierminister, Scott Morrison. »Det bør ikke blot være et spørgsmål om at gøre det rigtige. Det bør lovfæstes«.
Ønsket om et indgreb fra regeringens side – med en lov, der fremsættes i Australien i denne uge – afspejler den tydelige vrede i lande, der er mere villige til at indføre restriktioner på ytringsfriheden, end tilfældet er i USA, samt en voksende utålmodighed med de fodslæbende techgiganter, der tilsyneladende går mere op i deres forretningsmodeller end i de bekymringer, der er opstået lokalt.
Der er allerede eksempler på den type lovgivning, der er under udarbejdelse. I den ene ende finder man Kina, der ved hjælp af verdens mest avancerede system til censur på nettet knuser stort set hele den politiske debat samt hate speech og porno – uden dog at stå i vejen for landets egne it-virksomheder, der tjener enorme summer.
Hverken Australien eller New Zealand ønsker en sådan model. Men samtidig synes mange, at den stik modsatte situation med et kaotisk internet, der kan spækkes med brugerproduceret indhold 24 timer i døgnet, er uacceptabel.
New Zealands premierminister, Jacinda Ardern, mener, at der må findes en middelvej og international enighed om at forhindre platformene i at begrænse beskyttelsen til visse lande. »Når alt kommer til alt, kan vi alle bakke op om effektive regler lokalt, men disse platforme er globale«, sagde hun torsdag.
Også i USA har frustrationen bredt sig, efter at undersøgelser har vist, at sociale mediers algoritmer og udformning presser folk i retning af ekstremisme, mens platformene på grund af loven Communications Decency Act er beskyttet mod at blive stillet til ansvar for det indhold, der lægges op på dem.
Nogle sociale medier er dog begyndt at vise større imødekommenhed over for mere tilsyn.
I et debatindlæg i The Washington Post skriver Facebooks topchef, Mark Zuckerberg, at han ønsker regeringens hjælp til at indføre grundregler for reguleringen af skadeligt online-indhold, påvirkning af vælgere, databeskyttelse og brugeres rettigheder til egne data.
»Det er umuligt at fjerne alt skadeligt indhold, men når folk bruger vidt forskellige deletjenester – der hver især har deres egen politik og håndhævelse – er der brug for en standardiseret procedure«, skriver han.
Samtidig insisterer Facebook og andre større platforme på, at de gør alt, hvad der står i deres magt, med en kombination af kunstig intelligens og moderatorer.
YouTubes moderselskab, Google – der ikke ønsker at kommentere lovforslagene i Australien og New Zealand – har hyret 10.000 moderatorer til at identificere kontroversielt indhold. Facebook har også meddelt, at man vil ansætte tusindvis af medarbejdere, der skal opstøve og fjerne ureglementeret indhold.
Og reglerne vil formentlig blive strammet op. Onsdag oplyste Facebook, at man ville slå ned på støtte til hvid nationalisme, fordi »hvid nationalisme og separatisme ikke kan adskilles fra hvidt overherredømme og organiserede hadegrupper«.
Kritikerne siger, at der er blevet gjort for lidt, og at tiltagene kommer for sent.
Facebook er for længst blevet advaret om, »at deres politik og håndhævelsen af den har været ineffektiv på dette felt«, skriver David Shanks, leder af New Zealands censurmyndighed. Siden massakren i Christchurch har han indført forbud mod at besidde og dele videoen af angrebet og den mistænktes manifest.
Eksperter siger, at sociale medier stadig ser det som en selvfølge, at brugerne har lov til at dele indhold uden at skulle sikkerhedskontrolleres på forhånd. Hverken den regulering af tv-udsendelser eller det vurderingssystem, der benyttes til film og videospil, kan udvides til at omfatte sociale medier, der har banet vej for en annonceorienteret forretningsmodel, der opfordrer brugerne til at skabe (og forbruge) mest muligt indhold.
I forretningsøjemed virker systemet. På YouTube uploades hver minut, hvad der svarer til 500 timers video. I 2016 meddelte Facebook, at brugerne dagligt brugte 100 millioner timer på at se videoer, mens der på Twitter skrives 500 millioner tweets om dagen eller 6.000 i sekundet.
»Jo mere der ytres på platformene, des flere penge kan de tjene«, siger ph.d.-studerende ved Stanford University Rebecca Lewis, som hos Data & Society har forsket i radikaliseringsmønstre.
Europa dæmmer allerede op for tag selv-bordet. Tirsdag vedtog Europa-Parlamentet en lov, som gør det muligt at stille virksomheder til ansvar for uploadet indhold, der er i strid med reglerne om ophavsret. Det følger efter den omfattende persondataforordning GDPR og det tyske forbud mod hadefuld tale på nettet, som begge trådte i kraft sidste år.
Den nye lovgivning udgør et markant tilbageslag for de sociale mediegiganter, der længe har holdt fast i, at deres platforme bør betragtes som neutrale mødesteder snarere end indholdsformidlere.
Den tyske lov mod hadefuld tale undersøges nøje i New Zealand og Australien.
Den forpligter platforme til at slette indhold, der er »åbenlyst ulovligt« i Tyskland, herunder børneporno og nazipropaganda og -samlerobjekter. Virksomheder, der systematisk svigter deres ansvar ved ikke at slette indholdet inden for 24 timer, risikerer bøder på op til cirka 370 millioner kroner.
Fra Australien lyder meldingen, at man også overvejer heftige bøder.
Dog er det langtfra sikkert, at store bødestraffe alene er vejen frem.
Ifølge eksperter er det også et problem, at forbudte opslag, billeder og videoer fortsætter med at være tilgængelige online. Kombinationen af menneskelige moderatorer og kunstig intelligens, som platformene hidtil har benyttet sig af, har været utilstrækkelig i forhold til at overvåge og rense ud i det giftige indhold.
»Automatiseringen er simpelthen ikke lige så avanceret, som regeringerne forventer, at den er«, siger Robyn Caplan, forsker hos Data & Society og ph.d.-studerende ved Rutgers University.
»Det er en fejl«, tilføjer hun, »at kalde disse mekanismer for kunstig intelligens, for det får os til at tro, at de er meget klogere, end de reelt er«.
Hertil kommer, at legitime meningstilkendegivelser, herunder fra et satirisk magasin, er blevet slettet med udgangspunkt i loven.
»Vi er nødt til at være meget grundige og differentiere, når vi skal trække grænserne«, siger Robyn Caplan.
Selv kritikken af livestreaming – som Facebook har sagt, at man tager alvorligt – skal overvejes nøje, tilføjer hun, for »der kommer også gode ting ud af livestreaming«, for eksempel en større grad af gennemsigtighed og granskning af politiets arbejde.
Både i Australien og New Zealand forsøger myndighederne at behandle disse spørgsmål. Efter et møde i sidste uge med chefer fra Facebook, Google og Twitter sagde australske lovgivere, at den nye lov vil gøre det strafbart for sociale medier ikke at »fjerne afskyeligt og voldeligt materiale hurtigt« fra deres platforme – og ligefrem straffe overtrædelser med op til tre år i fængsel.
De understregede også, at industrien må gøre op med sit selvbillede som noget særligt.
»Hvis mainstreammedier offentliggjorde den slags, ville de sætte deres bevilling på spil, og der er ingen grund til, at sociale medieplatforme behandles anderledes«, lød det fra Australiens justitsminister, Christian Porter.
John Edwards, der er New Zealands kommissær for privatlivsanliggender, erklærede sig enig, men nævnte et andet eksempel: Boeings 737 Max-fly, der har fået forbud mod at komme i luften efter to flystyrt, der menes at være forårsaget af et softwareproblem.
»Jeg vil påstå, at Facebooks evne til at moderere skadeligt indhold på sin livestreamingtjeneste udgør et softwareproblem, som indebærer, at det bør indstilles«, sagde han.
Oversættelse: Christoffer Østergaard
fortsæt med at læse




























