Klimatske promjene, korona i rat u Ukrajini - količina dezinformacija raste sa svakom novom krizom. Umjetna inteligencija bi mogla biti rješenje, ali i tu postoji veliki problem, piše Deutsche Welle.
Prošlo je više od godinu dana otkako je Rusija započela agresorski rat u Ukrajini. Količina dezinformacija u vezi s tim ratom koja se pojavila na društvenim mrežama je ogromna. One se šire putem influencera, botova ili lažnih profila. Svakodnevno milijarde korisnika objavljuju sadržaje na platformama društvenih mreža kao što su Twitter, Instagram, Facebook i TikTok, i pritom se uvijek iznova šire laži. Međutim, o dezinformaciji se radi tek kada se pogrešne informacije šire ciljano, odnosno kada iza njihovog širenja postoji namjera.
Pronalaženje dezinformacija na platformama društvenih medija je poput traženja igle u milijunima plastova sijena – beskonačna potraga. Već dugo nitko nije u stanju tome stati na kraj. Čini se da je umjetna inteligencija jedino i možda spasonosno rješenje. Ali kuda ovo vodi?
Istraživanje mreže ili sadržaja
Da bi umjetna inteligencija mogla prepoznati dezinformacije, ona se trenira skupovima podataka. Skupove podataka kreiraju ljudi i pomoću njih umjetna inteligencija uči što se smatra dezinformacijom, a što ne.
Dezinformacije se mogu prepoznati po različitim karakteristikama. “S jedne strane, radi se o razvoju AI-ja koji je sposoban prepoznati raspoloženja, odnosno emocije, pa sve do izražavanja mišljenja”, kaže Dengel. AI u tu svrhu analizira sadržaje tj. tekstove, videosnimke ili fotografije. Poseban problem su unakrsne reference. Slika i tekst zajedno mogu poprimiti potpuno novo značenje.
S druge strane, mrežne strukture također mogu ukazati na dezinformacije. Alexander Schindler, vodeći stručnjak na Austrijskom institutu za tehnologiju (AIT), kaže: “Postoje predlošci komunikacije, na primjer botovi za širenje lažnih vijesti, tj. automatizirani korisnički računi na društvenim mrežama koji šire dezinformacije ili propagandu.” AI također može analizirati čvorišta između korisničkih računa ili reakcije na neku objavu. Analizom rezonanci može se vidjeti je li korisnik neutralno reagira na sadržaj, kritizira ga ili potvrđuje.
AI je jak samo kao koncept
Dezinformacija sama po sebi pak predstavlja slab koncept. “Dezinformacija se teško može definirati”, kaže Schindler. “Definicija ovisi o mnogo faktora, kao što su politički ili vjerski pogledi, pa je njezino jedinstveno ili standardizirano označavanje skoro nemoguće.”
Aktualni istraživački projekti u čijem fokusu je umjetna inteligencija u zemljama njemačkog govornog područja stoga se više bave time kako da u tom segmentu pruže podršku radu ljudi. Jedna je ideja iz AIT-a, na primjer, da se sadržaju da tabela nutricionističkih vrijednosti, slično kao što se radi s prehrambenim namirnicama. Istraživački centar Correctiv u suradnji sa Sveučilištem Ruhr u Bochumu i Tehničkim sveučilištem u Dortmundu također radi na projektu u kojem AI ima za cilj podržati sudionike procesa klasifikacije informacija.
Platforme rade pomoću kombinacije tehnologija
Platforme društvenih mreža skoro da ne dozvoljavaju da im se pogleda u karte. Prepoznatljive su samo tendencije. “One rade pomoću mješavine različitih tehnologija,” kaže Dengel iz DFKI-a. “To varira i od platforme do platforme. Prije svega, puno se eksperimentira.” Meta, Twitter ili TikTok imaju veliki interes da napreduju u razvoju umjetne inteligencije – njezinom upotrebom bi se, između ostalog, mogla ukinuti mnoga radna mjesta.
Međutim, ako na platformama društvenih medija pak postoji umjetna inteligencija koja otkriva dezinformacije, a da čovjek ne mora još jednom provjeriti tu odluku, metode bi morale biti vrlo točne. “A to se vjerojatno može postići samo ako se obujam djelovanja ozbiljno ograniči”, kaže Schindler iz AIT-a. To znači da bi dezinformacije prije svega bile prepoznate kada se radi o jasnim slučajevima. Drugi slučajevi, suptilniji, mogli bi ostati neotkriveni. Koristi li se i kako ova tehnologija, to se izvana ne može jasno procijeniti.
Europska unija je usvojila Zakon o digitalnim uslugama tako da će platforme društvenih medija ubuduće morati objavljivati više informacija i tako postati transparentnije. Ta uredba sadrži brojne novine. Od veljače 2024., na primjer, platforme moraju obavijestiti korisnike zašto su blokirale ili izbrisale sadržaje. Ako se operateri platforme ne pridržavaju ovih zahtjeva, prijeti im izricanje novčanih kazni.
Ključna je definicija dezinformacije
I kod ovog pitanja može doći do poteškoća. “Sustav nešto klasificira kao dezinformaciju, ali ne može objasniti zašto”, kaže Dengel. “Možda su podaci koji su korišteni za trening AI-ja bili iskrivljeni ili nepotpuni, ili primjeri nisu bili izbalansirani. Sustavi koji objašnjavaju ili opravdavaju te odluke trenutno se intenzivno istražuju.”
To bi pak u budućnosti mogao biti veliki problem u borbi AI-ja protiv dezinformacija. Sadržaji se, naime, ne mogu tek tako izbrisati ili se ograničiti njihove vidljivosti, prvenstveno ne bez dodatnog obrazloženja.
Prema mišljenju stručnjaka, ne postoji način da se zaobiđe umjetna inteligencija. “To što se polazi od toga da je AI spas – to je jednostavno pogrešno”, kaže Schindler iz AIT-a. Na kraju krajeva, AI je u otkrivanju dezinformacija dobar samo onoliko koliko su dobre zadane smjernice. Najvažniji posao, a to je definicija dezinformacija, one ne mogu obaviti. To je posao programera, piše Deutsche Welle.
N1 pratite putem aplikacija za Android | iPhone/iPad i društvenih mreža Twitter | Facebook | Instagram.
Kakvo je tvoje mišljenje o ovome?
Budi prvi koji će ostaviti komentar!