Det Hvide Hus adresserer problemet med AI-porno, efter at falske nøgenbilleder af Taylor Swift går viralt. Samtidig tager X drastiske metoder i brug for at bremse fortsat deling af falske billeder.

Efter skandale med falske nøgenbilleder: Nu kan du ikke længere søge på Taylor Swift

Taylor Swift har endnu ikke selv kommenteret sagen. Søndag aften kunne hun ses til NFL-kampen mellem Kansas City Chiefs og Baltimore Ravens. Foto: Tommy Gilligan/Ritzau Scanpix
Taylor Swift har endnu ikke selv kommenteret sagen. Søndag aften kunne hun ses til NFL-kampen mellem Kansas City Chiefs og Baltimore Ravens. Foto: Tommy Gilligan/Ritzau Scanpix
Lyt til artiklen

Går du ind på det sociale medie X og søger på Taylor Swift, møder du følgende besked:

»Posts indlæses ikke lige nu. Prøv igen«.

X har i skrivende stund, mandag formiddag, blokeret for søgning på popidolet, efter at falske nøgenbilleder af hende fremstillet ved hjælp af kunstig intelligens i løbet af onsdag og torsdag kom i heftig cirkulation på platformen. Billederne gik viralt, og nogle af dem blev set mere end 45 millioner gange. Visse opslag, hvor de falske billeder lå frit tilgængeligt, florerede på X i 17 timer, før de blev fjernet.

At en søgning efter Swift nu ender i en blindgyde, er en »midlertidig foranstaltning for at prioritere sikkerheden«, siger X’ chef for forretningsdrift, Joe Benarroch, til BBC.

Sagen har også fået Det Hvide Hus’ opmærksomhed.

»Vi ved, at den slappe håndhævelse (fjernelse af billeder, red.) i en grad, som er helt ude af proportioner, går ud over kvinder«, siger Karine Jean-Pierre, pressesekretær i Det Hvide Hus, ifølge BBC til en pressebriefing.

Hun tilføjer, at der bør være lovgivning, der tackler misbrug af AI-teknologi på sociale medier, og at platformene også selv bør tage de fornødne skridt for at fjerne og bandlyse den type indhold.

»Vi mener, at de (techgiganterne, red.) spiller en vigtig rolle, når det kommer til at håndhæve deres egne regler og forhindre spredning af misinformation og intime billeder af virkelige personer uden deres samtykke«, siger hun.

Kræver national lovgivning

Enkelte stater i USA har deres egen lovgivning mod de såkaldte deepfake-billeder, men både demokrater og republikanere presser på for, at der inddføres føderal lovgivning.

Den amerikanske kongres er allerede ved at behandle et lovforslag stillet af det demokratiske kongresmedlem Joseph Morelle, der ville gøre det ulovligt at dele deepfake-billeder uden samtykke.

»Hvad enten offeret er Taylor Swift eller ethvert andet ungt menneske i vores land, er vi nødt til etablere et værn, der kan beskytte mod denne alarmerende trend«, siger Tom Kean Jr., der er medlem af Kongressen for Det Republikanske Parti, til The Guardian.

På X skriver Yvette D. Clarke, der er medlem af Kongressen for demokraterne, at de to partier må arbejde sammen for at få sat en stopper for problemet, der »bestemt ikke er nyt«.

Deepfake-billederne af Taylor Swift stammer ifølge techmediet 404 Media fra en Telegram-gruppe, hvor forskellige medlemmer deler billeder, de har lavet ved hjælp af kunstig intelligens.

Et studie fra 2023 finder, at der siden 2019 har været en stigning på 550 procent i forekomsten af AI-genererede deepfake-billeder. I henhold til et studie fra 2019 er 96 procent af alt deepfake-materiale porno lavet uden samtykkeerklæring.

Taylor Swift har endnu ikke selv kommenteret sagen offentligt.

Kristoffer Frederik Nørager Møller

© Alt materiale på denne side er omfattet af gældende lov om ophavsret. Læs om reglerne her