Misinformation, desinformation, fake news eller løgn og bedrag er noget vi skal lære at omgås, – ja der undervises ligefrem i det i Folkeskolen.

Vi er nødt til at forstå, hvordan misinformation spreder sig på sociale medier – vi skal forstå omfanget. Vi skal lære at leve med det, – samtidig med at myndigheder skal forsøge at begrænse det.

I en tid, hvor din nyhedsstrøm på sociale medier ofte manipulerer dig, er der brug for nogen, der kan gennemskue, hvordan hele maskineriet virker. “For at sikre adgang til troværdig viden skal vi tydeliggøre informationsudfordringerne“, sagde Anja Bechmann på PARK arrangementet på Aarhus Universitet.

Anja Bechmann

Anja Bechmann taler om misinformation
Anja Bechmann taler om misinformation

Professor i Medievidenskab på Aarhus Universitet Anja Bechmann er en af Danmarks mest markante forskere i krydsfeltet mellem sociale medier, kunstig intelligens og demokrati.

Anja Bechmann afslører, hvordan algoritmer, følelser og misinformation former vores virkelighed — og hvorfor gennemsigtighed er afgørende for demokratiet. Hun analyserer store datasæt for at forstå, hvordan digitale platforme ændrer måden, vi kommunikerer, forholder os til sandhed og påvirker demokratiet. Som leder af DATALAB og medlem af en EU’s ekspertgruppe om fake news har Anja tænkt kritisk over, hvordan falske nyheder underminerer vores tillid til viden. Hun peger særligt på, hvordan målrettede manipulationer rammer mennesker ud fra deres individuelle præferencer og sårbarheder.

misinformation var et emne i Universitetsparken
PARK event i den flotte Universitetspark i Aarhus

Jeg oplevede Anja Bechmann to gange på scenen under Folkeuniversitets PARK arrangement august 2025. Ikke som et referat, men inspireret af hendes indlæg, diskuteres i dette indlæg, hvordan misinformation indrammer vores færden på medierne.

Faktaboks.
I sit indlæg nævnte Anja Bechmann nogle fakta baseret på undersøgelse. Danmark er det land i Europa, hvor de sociale medier anvendes mest. Hele 91 % af befolkningen anvender mindst et af de sociale medier. 84 % bruger Facebook, 55 % bruger Instagram og 33 % bruger LinkedIn.
Andre undersøgelser placerer LinkedIn som det næststørste sociale medie efter Facebook. Faktisk oplyser LinkedIn selv, at 3.8 million danskere har en profil, – det er 90 % af befolkningen over 18 år. Og det er lidt flere, end der er på Facebook.

Manipulering

Manipulering på sociale medier sker ofte gennem selektiv information, misvisende billeder og følelsesladede opslag. Algoritmer forstærker indhold, der skaber stærke reaktioner, hvilket kan skævvride virkelighedsopfattelsen. Falske profiler bruges til at sprede propaganda eller fremme bestemte dagsordener. Influencere kan skjult reklamere for produkter eller holdninger uden at oplyse deres interesser. Samtidig udnytter målrettede annoncer personlige data til at påvirke adfærd og holdninger uden brugerens fulde bevidsthed.

Trump har omtalt medier, som han ikke er enig i, som fake news. Omtaler i seriøse medier, som er kritiske overfor Trump, kalder han fake news. Han benægter det, som de fleste rettroende betragter som faktiske kendsgerninger. Man kan synes, at han med sine udtalelser bevidst afsender fake news for at styrke sin magt. Som forældre klogt spørger, – hvordan skal vi lære vore børn at de ikke må lyve, når de konstant hører om, at verdens mægtigste folk som Putin og Trump lyver.

Snyd og bedrag

Vi kommer til at se en stribe tilfælde, hvor nogen ondsindet lægger falsk information ud på nettet, så AI fanger det og bruger det som fakta. Det kan være man har et politisk eller kommercielt mål, som man søger at opnå ved at sprede misinformation. Lægger man det de rigtige steder, kan AI løsninger fange det, og bruge og viderebringe det som om det var fakta.
Hvis AI fortæller noget forkert (om dig),

Ulven kommer

I den følsomme diskussion om ulve i Danmark, har der været flere jokes med, at hvis ulven kom til Sjælland, fik politikerne nok en anden holdning. Så kan man jo på et minut AI genere et billede af en ulv ombord på en færge, og fortælle, at man har set en ulv på en færge på vej til Sjælland. Men den hopper folk nok ikke på, men eksemplet viser, hvor nemt man kan misinformere.

Emotionelle ytringer

Uanset hvem der i bedste mening skriver noget på Facebook, udløser det kommentarer, – ofte negative og i dårligt sprog. Ham der kommenterer demonstrerer sin lave IQ og manglende sociale kompetencer. Anja sagde, at mænd over 65 er de hyppigste afsendere af brok, men det er ret udbredt blandt voksne/ældre af begge køn.

Det brokkeren ikke ved er, at jo mere han brokker sig over noget, jo oftere får han vist opslag af den art, – for algoritmen vil gerne fastholde aktivitet.

Læs også bloggen
Hvis AI fortæller noget forkert
Hold en god tone
Brok på de sociale medier
SoMe strategi

Visning er styret af en algoritme

Sociale medier er styret af algoritmer, der bestemmer hvad du ser. Tjekker flere på samme tid deres Facebook, er det vildt forskelligt, hvad de ser. Algoritmen bestemmer, hvad den enkelte ser ud fra analyse af, hvad vedkommende tidligere har set, delt eller kommenteret på.

Det helt simple – og markedsmæssigt tåbelige – eksempel er, at søger du på billetter eller oplysninger om et rejsemål, får du reklamer for rejser og hoteller længe efter, at du er kommet hjem og ikke længere har brug for det.

Da reklamerne begyndte at blive styret af adfærd for mange år siden, var det en udbredt practical joke, når kollegane gik fra sin PC, at søge efter efter dametrusser eller hvad der var værre. Vedkommen fik så i dagevis blæst reklamer op om det uden at forstå hvorfor. I dag er det dig selv , der ubevidst selv beder om reklamer og opslag.

ChatGPT forklarer her hvad en algoritme er: “En algoritme på Facebook er en slags usynlig redaktør, der bestemmer, hvad du ser først, og hvad der gemmer sig længere nede i feedet. Den bruger en masse regler og beregninger til at sortere i alt det indhold, der findes – baseret på hvad du har liket, kommenteret på, eller brugt tid på før. Målet er at vise dig det, Facebook tror, du helst vil se, så du bliver hængende længere.”

Hvem betaler

De fleste sociale medier er gratis, men der ligger en forretningsmodel bag. Tech-giganterne tjener mange penge på det. Du tvinges til at se reklamer, som nogle har betalt penge for. Firmaerne betaler for, at de vises til de mest “relevante” kunder ud fra, hvad mediet ved om brugerne. Annoncørerne kan så vise målrettede reklamer til det segment, som de er interesseret i. Dine data, ud fra de spor du lægger, når du bruger medierne, repræsenterer en stor værdi. Det er derfor medierne har et fastholdelses mål. Jo oftere du kommer tilbage og jo længere tid du er på mediet, jo mere lærer de om dig, og jo flere relevante reklamer kan de præsentere dig for.

Intet nyt, kun omfanget

Det er ikke et nyt fænomen med misinformation. Det har har være i de trykte medier i flere hundrede år, og man har altid kunnet høre folk fortælle røverhistorier. Men man havde mulighed for at skønne, hvad der var fup og fakta, for man kendte til en vis grad kilden. Aviserne har jo altid været politisk styrede og kunne styre og vælge artiklerne efter politisk overbevisning.

Det nye er, at omfanget er enormt, at det er meget let at skabe misinformation og at modtageren ikke kender noget til afsenderen. Og det er blevet muligt at målrette misinformation.

Skruen uden ende

Hvorfor er det sådan? Fordi det er muligt. Fordi der er penge i det. Fordi man ikke kan forhindre det. EU lovgivning og forordninger prøver at begrænse det. Men det er en kamp op mod vinden.

AI gør det endnu værre, for nu kan man meget nemt manipulere fotos eller genere falske billeder, så nu kan du ikke længere kun tvivle på hvad du læser, men også hvad du ser.

AI kan generere og kombinere tekst, billeder, lyd og video. Det udvisker grænsen mellem fakta og fiktion hurtigere, end vi selv og vores sikkerhedsforanstaltninger kan følge med. Med falske nyheder, manipulerende finansielle data og deepfake-interviews er teknologien både en risiko end et kreativt værktøj. Tekster, billeder og videoer bliver utroværdige, – det undergraver offentlighedens tillid til viden og information.

Jeg kan ikke linke til PARK foredraget, men Ajna Beckmann bruger nogle af de samme synspunkter i Lex Konference 2025, der kan ses på Youtube.

12.08.2025 Indlæg på CXO2’s blog  www.CxO2.dk/blog

Læs bloggens andre indlæg om Sociale medier

Sådan abonnerer du på indlæg i denne blog:
Besøg LinkedIn udgaven og tryk på FØLG eller besøg Facebook udgaven og tryk SYNES OM

Misinformation rammer dig
Del gerne til dine kontakter:
Annonce

Annonce
Tagget på: