Kunstig intelligens: Vi fodres med narrativer om, at AI skal skabe tryghed og effektivitet. Men bag de glitrende pressemeddelelser og politiske fraser ligger en langt mere mørk virkelighed: Din adfærd er blevet produkt, og dit mønster er blevet mistænkeligt.
AI som samfundets nye troldmand
Politikere og embedsmænd står i kø for at udtale sig positivt om kunstig intelligens. Det skal effektivisere sagsbehandling, forudsige fejl, og redde menneskeliv. I EU arbejdes der på en AI Act. I Danmark investeres der allerede i kommunale AI-projekter og risikomodeller. Men der er noget, de glemmer at nævne.
Ingen fortæller, at borgerens gennemsigtighed bliver mindre, mens systemets bliver større. Ingen nævner, at fejl i data bliver til fejl i liv. Og vigtigst: Ingen taler om, hvem der i sidste ende ejer algoritmerne – og hvem de tjener.
Mønsterbaseret mistanke – det perfekte kontrolværktøj
AI lærer af tidligere data. Og hvis tidligere data bygger på ulighed, bias eller fejlagtig sagsbehandling – så lærer AI præcis dét. Det betyder, at hvis du bor i det “forkerte” postnummer, har kontakt med “forkerte” mennesker eller udviser adfærd, der afviger fra normalen, bliver du et sagspotentiale.
Staten kan herefter udtrække dig som “risikoprofil” uden at nogen manuelt har vurderet dig. Din afvigelse bliver ikke undersøgt – den bliver antaget som mistanke. Ikke på grund af, hvad du gør – men fordi du ligner en, der kunne gøre noget forkert.
Det, du skriver, bliver din dom med kunstig intelligens
AI bruges allerede til at analysere sprogbrug i ansøgninger, mails og kontaktformularer. Lægen, kommunen eller jobcentret kan bruge AI til at vurdere din “motivation”, “ærlighed” eller “vilje”. Det lyder smart – men det er farligt.
I Kina er det systematiseret: Dit pointsystem afgør, om du må rejse, låne penge eller få børn. I Danmark er vi ikke langt fra. Når staten bruger AI til at frasortere eller godkende, er det ikke neutral teknologi – det er skjult magtudøvelse.
Det handler ikke om beskyttelse. Det handler om forudsigelighed
Vi får at vide, at AI skal beskytte os. Men det er ikke beskyttelse – det er styring. For staten ønsker ikke mennesker. Den ønsker brugere, der opfører sig forudsigeligt. Enhver, der ikke passer ind, bliver en potentiel trussel – og skal nudges, dirigeres eller ignoreres.
Vi får at vide, det handler om tryghed. Men det er falsk tryghed. Det er tryghed på bekostning af autonomi. Og det værste? Vi accepterer det. For det føles nemmere.
Hvad kan vi gøre mod kunstig intelligens?
Der er ingen nem løsning, men der er krav, der bør stilles:
- Borgeren har ret til indsigt i, hvordan AI træffer beslutninger.
- AI-beslutninger må aldrig stå alene – manuel vurdering skal være mulig.
- Presse og civilsamfund skal være på vagt over for dataficeringens omkostninger.
- Der må sættes grænser for, hvor dybt staten må kigge ind i vores digitale spejlbillede.
AI er ikke neutral. Det er et redskab. Og ethvert redskab kan blive et våben, hvis det havner i de forkerte hænder.
Vil du til forsiden? Så kan du klikke her.
Hvad tænker du om den digitale velfærdsstat?
Det kan man snakke meget om. Man kan også besøge The Guardian, der har en artikel med præcis det emne som vi snakker om er, Linket er: https://www.theguardian.com/technology/2019/oct/16/digital-welfare-state-big-tech-allowed-to-target-and-surveil-the-poor-un-warns