Ett helt korrekt citat eller en sanningsenlig bild kan snabbt förvandlas till falsk propaganda. Ytterst små justeringar kan räcka för att hela betydelsen ska förändras.
Nu forskar Örebroprofessorn Mehul Bhatt tillsammans med ett internationellt team för att se hur artificiell intelligens, AI, kan analysera bland annat falska nyheter och extremistinlägg.
Ett internationellt, tvärvetenskapligt team arbetar nu tillsammans i ett projekt med stöd från centret för tvärvetenskaplig forskning (ZiF) i tyska Bielefeld. Målet är framförallt att hitta nya metoder att upptäcka och spåra hur extrem retorik och falska nyheter uppstår, sprids och förändras.
Behovet är stort.
Idag är analysarbetet av ljud och bild manuellt och tidskrävande. Det betyder att mycket av det som skickas runt i sociala medier eller vanliga medier aldrig granskas. Ett exempel på mängderna finns hos den franska nyhetsbyrån AFP, som den senaste tiden manuellt letat upp och kontrollerat påståenden som sprids om coronapandemin. Hittills har över 600 falska nyheter hittats. Allt från gamla bilder som fått nya, falska texter till påhittade råd om vad som hjälper mot covid-19.
– Jakten på falska nyheter håller på ett bli ett heltidsyrke. Men det är bara en liten del av utmaningen. Den stora frågan är hur vi ska förstå och spåra de strategier som ligger bakom att viss retorik dyker upp i det offentliga samtalet och hur budskapen sedan muterar och sprids vidare, säger Mehul Bhatt, professor i datavetenskap vid Örebro universitet och en av de som leder forskarteamet.
Med hjälp av kunskap från flera områden försöker man hitta modeller och teknik som till exempel avslöjar falska nyheter.
– Det kan vi bara lyckas med om AI-specialister arbetar mycket tätt ihop med både forskare inom samhällsvetenskap och humaniora och yrkesverksamma inom journalistik och media, säger Mehul Bhatt.
Text och bild samverkar
Projektet, ”Multimodal Rhetoric in Online Media Communication”, tittar framförallt på det som kallas multimodal retorik. Det betyder att hela framställningen granskas. Istället för att enbart fokusera på text eller bild enskilt, tittar forskarna på hur de samverkar eller framställs av personer i en video. För sociala medier och traditionella medier fungerar inte sällan som när vi lyssnar på en annan person som talar direkt till oss. Mottagaren av ett budskap är ofta duktig på att se vad som är till exempel ironi och kan, precis som i ett samtal ansikte mot ansikte, uppfatta undertoner och andra saker än det som sägs rakt ut.
– Jag använder gester, betonar ord och kanske höjer mina ögonbryn lite när jag säger vissa saker. Undermedvetet använder jag en kombination av olika tekniker för att utrycka mina åsikter och känslor. Saker som jag inte säger direkt med ord blir synliga i mitt kroppsspråk.
Mehul Bhatt, som ursprungligen är från Indien, har själv sett hur spridningen av falska nyheter tagit fart där under senare år. En orsak är att mobilnäten byggts ut snabbt och att mobiltelefoner och datatrafik blivit relativt billigt. Samtidigt har många låg eller ingen utbildning och har inte möjlighet att vara källkritiska mot de filmer och bilder som de ser.
– Det är en farlig kombination. Utbildningen har inte blivit demokratiserad, men det har teknikanvändningen. För någon som inte har gått i skolan är alla resultat som poppar upp på Google trovärdiga, säger Mehul Bhatt och betonar att problemen inte bara finns i Indien, utan runt om i världen.
– Vår tid kallas ibland för post-truth, en värld där sanningen har hamnat i skymundan för budskap som passar våra personliga övertygelser. Det finns gott om exempel på hur politiker skickligt har utnyttjat det för att öka sin makt och få igenom sin vilja.
– Det är en mycket oroväckande trend, säger Mehul Bhatt.
AI gör detaljerad analys
Den första delen av projektet pågår i ett drygt år. Under den tiden räknar forskarna med att utveckla en första modell och metoder för hur AI ska kunna gå igenom stora datamängder för att upptäcka och analysera mönster i de nyheter som sprids.
– Tanken är inte att tekniken ska svara på frågan vad som är bra och vad som är dåligt. AI kommer att göra en detaljerad analys av vad som har hänt och den kan användas av någon som har näsa för fenomenet eller problemet. Det blir ett sätt att få en väl underbyggd, evidensbaserad analys av mediet för att kunna skapa sig en åsikt om vad som händer och vad som är bra och dåligt med det, säger Mehul Bhatt.
Foto: Örebro universitet.