0
Læs nu

Du har ingen ulæste gemte artikler

Hvis du ser en artikel, du gerne vil læse lidt senere, kan du klikke på dette ikon
Så bliver artiklen føjet til dine gemte artikler, som du altid kan finde her, så du kan læse videre hvor du vil og når du vil.

Næste:
Næste:
Artiklen er gemt Du har ulæste artikler blandt dine gemte artikler
Universal Pictures
Foto: Universal Pictures

Hvis nu robotterne bliver klogere end os ...

Kan vi miste kontrollen over nye superintelligente robotter? Nogle af verdens førende forskere mener, at vi skal tage stilling til risikoen. Og finde ud af, hvordan vi bedst får nye og superavancerede robotter til at arbejde for os.

FOR ABONNENTER

Hvad sker der, hvis kunstig intelligens bliver for intelligent? Hvad sker der, hvis mennesket mister kontrollen over nye superintelligente robotsociopater, der ikke kan kende forskel på en terrorist og en vildfaren 3-årig?

Spørgsmålene er ikke hentet fra en gammel science fiction-film, men blev så sent som for et par uger siden diskuteret intenst, da nogle af verdens mest fremtrædende forskere, erhvervs- og branchefolk var samlet til det årlige møde i World Economic Forum i den schweiziske alpeby Davos. På mødet var der også deltagelse af flere end 40 landes stats- og regeringschefer samt en lang række Nobelprismodtagere.

Og var der ét tema, der i år kunne konkurrere med storpolitiske emner som euro- og Ruslandskriser, var det robotterne. Først og fremmest som en mulighed for en bedre og rigere fremtid, men også som en risiko for det modsatte: et dystopisk samfund, hvor den sociale ulighed vokser endnu mere.

»Jeg er optimist på stort set alle felter inden for robotter og big data, men lige præcis her (i forhold til den sociale ulighed, red.) er jeg bekymret«, siger stifteren af Silicon Valley-firmaet Kaggle, Anthony Goldbloom, der er en af it-branchens ypperste unge hjerner.

Læs videre for 1 kr.

Du er godt i gang – få adgang til hele artiklen, alt på politiken.dk og dagens e-avis i en måned for kun 1 kr. Ingen binding.

Bliv abonnent nu

Annonce