Pitanje sigurnosti na internetu nikada nije bilo od većeg značaja, kako za korisnike, tako i za pružaoce raznih onlajn usluga. Usljed sve učestalijih hakovanja i prevara kojima svjedočimo u digitalnom ekosistemu, bilo direktno ili indirektno, kompanije poput Fejsbuka, Tvitera, Gugla i ostalih divova se svakodnevno susreću sa rastućim pritiscima kako bi bezbjednost svojih korisnika podgili na još viši nivo.

Provjera lozinke je ekstenzija za Gugl Hrom pretraživač, koja provjerava da li je neka od loznki koju ste unijeli ranije otkrivena ili korišćena, prilikom nekog hakerskog poduhvata i curenja informacija koji su poznati Guglu.

Jedan od rezultata takvih napora je Provjera lozinke (Password Checkup), predstavljena u martu ove godine. O čemu je riječ?

Provjera lozinke je ekstenzija za Gugl Hrom pretraživač, koja provjerava da li je neka od loznki koju ste unijeli ranije otkrivena ili korišćena. Ne radi se nužno o vašem nalogu, već o nekom ko ima identičnu lozinku kao vi, što je na internetu veoma često prilikom nekog hakerskog poduhvata i curenja informacija, koji su poznati Guglu. Ukoliko prilikom prijavljivanja na bilo koji sajt, koristeći Hrom, unesete lozinku koja više nije bezbjedna za korištenje (zbog pojavljivanja u Guglovoj bazi podataka od preko 4 miliona nesigurnih lozinki) dobićete upozorenje.

Primjer obavještenja u slučaju nebezbjednosti lozinke

Instalacija je jednostavna – potrebno je samo preuzeti ekstenziju Provjera lozinke iz Gugl Hromonlajn prodavnice. Jednom dodata, ova ekstenzija  će neprestano nadzirati svaki put kad se prijavite na sajt ili uslugu. Ako otkrije da je lozinka nesigurna, prikazaće se crveni okvir s upozorenjem koji predlaže promjenu iste.

Kako navode iz Gugla, u toku prvog mjeseca od lansiranja ekstenzije, pretražili su preko 21 milion lozinki, od kojih su 316.000 bile na njihovoj listi.

Debata o bezbjednosti podataka prilikom korišćenja aplikacije za mobilne uređaje Fejsap (FaceApp) preplavila je stranice društvenih mreža i medija širom svijeta.

Fejsap je 2017. godine kreirao Jaroslav Gončarov u Rusiji. Aplikacija funkcioniše tako što korisnici izaberu fotografiju koju žele da modifikuju, učitaju je, dalje odaberu filter kroz koji žele da je provuku (najčešće je to filter koji čini korisnika starijim) i kao krajnji proizvod dobiju izmijenjenu sliku.

Džošua Nozi, developer aplikacija, postavio je tvit o Fejsapu 15. jula, upozoravajući da aplikacija automatski učitava sve fotografije sa telefona, bez obzira na to da li dobije odobrenje korisnika ili ne. Nozi se narednog dana javno izvinio, rekavši da je ishitreno postavio taj tvit bez prethodnog detaljnog testiranja same aplikacije. Međutim, ostao je pri tvrdnji da jeste čudno što aplikacija traži pristup svim fotografijama, za čim nema realne potrebe.

Taj tvit kao i činjenica da je aplikacija napravljena u Rusiji izazvali su paniku u svijetu i pokrenuli lavinu onlajn diskusija o tome kako ruska fabrika trolova pravi bazu podataka koristeći učitane slike sa servera. Postoji opravdan strah da bi te fotografije mogle da budu iskorištene za lansiranje lažnih naloga u budućim kampanjama dezinformisanja ili za kreiranje dipfejka. Stvar je otišla predaleko, pa je novinarka UNILAD, Ema Rouzmurgi, u svom članku navela da Džošua radi za Ruse. On je demantovao te navode, nakon čega je taj dio izbrisan iz teksta na sajtu UNILAD.

Povodom teme koja je uzburkala javnost posljednjih dana oglasio se i Jaroslav Gončarov koji je demantovao tvrdnje da aplikacija preuzima sve fotografije iz foto galerije, već samo onu koja je selektovana. Ustvrdio je i da se podaci ne šalju u Rusiju, nego se čuvaju na serveru koji kontrolišu američki provajderi Amazon i Gugl. Takođe je istakao da fotografije na zahtjev korisnika mogu biti uklonjene sa servera, kao i da se većina fotografija briše sa servera tokom 48 sati od trenutka učitavanja. Kao glavne razloge za čuvanje učitanih fotografija naveo je performanse i internet saobraćaj, jer kompanija želi da bude sigurna da korisnik ne učitava fotografiju više puta za svako uređivanje. Gončarov je naglasio da kompanija niti prodaje niti dijeli podatke korisnika sa trećim stranama. No, možemo li se osloniti na njegovu riječ?

Uslovi korištenja – znamo li šta prihvatamo?!

Ono što je interesantno jesu i uslovi korišćenja svih aktuelnih aplikacija koje korisnici mahom prihvataju bez prethodnog čitanja. Advokatica Elizabet Pots Vajnstajn postavila je tvit navodeći da svi koji instaliraju aplikaciju i prihvate uslove korištenja Fejsapa daju stalnu, neopozivu, besplatnu i na nivou svijeta dozvolu za korištenje, reprodukciju, modifikovanje, adaptiranje, objavu, prevođenje i stvaranje drugih dijela od vašeg sadržaja. To je bio okidač za novu diskusiju i upoređivanje sa uslovima korišćenja aplikacija kao što su Fejsbuk, Tviter, Instagram itd.  Lens Ulanof, glavni i odgovorni urednik sajta Lajfvajr (Lifewire), postavio je tvit o uslovima korišćenja Tvitera: za sadržaj koji se postavlja i prikazuje na serverima dajete na nivou svijeta neisključivu licencu za korišćenje, kopiranje, reprodukciju, obrađivanje, prilagođavanje, mijenjanje, objavljivanje, prikazivanje i distribuiranje tog sadržaja u svim medijima i kroz sve metode distribucije. Evidentno je da uslovi korišćenja Fejsapa nisu ništa diskutabilniji od uslova korišćenja ostalih aplikacija koje svakodnevno koristimo.

Nadalje, Fejsap je sličan aplikaciji Pogodi moje godine (Guess my age) koju je Majkrosoft napravio 2005. godine, a koja sadrži određene karakteristike svog ruskog pandana. Činjenica što se tada nije povela polemika o bezbjednosti te gotovo iste aplikacije jeste možda baš zato što nije napravljena u Rusiji, koja zbog događaja u prethodnim godinama po automatizmu predstavlja sinonim za opasnost.

Piše Aleks Romero za portal Disinfo

Ovaj članak predstavlja drugi dio publikacije Alto Data Analytics o funkcionisanju dezinformacija u digitalnom ekosistemu. 

Iako jednostvana rješenja ne postoje, postoji mnogo mogućnosti da se smanji digitalno dezinformisanje i da se izgradi otpor prema tome. Političari, nadzorni organi i tehnološke kompanije ulažu mnogo više napora u suzbijanje širenja lažnih vijesti, nego u pronalaženje načina da tretiraju ranjivosti koje postoje u cjelokupnom digitalnom ekosistemu. Posljednjih nekoliko godina potvrdilo je kako internet predstavlja vrlo djelotvornu sredinu putem koje se dezinformacije mogu utkati u javni digitalni prostor.

Iako je trenutna debata oko dezinformacija većim dijelom usmjerena na sadržaj – laži i konfuziju koji se šire putem lažnih vijesti – ono što predstavlja pravi izazov jeste sposobnost onih sa lošim namjerama da utiču na cjelokupan digitalni ekosistem.

Djelotvorni odgovori će postati uočljivi tek kada budemo razumjeli ranjivosti koje postoje u digitalnom ekosistemu. Političarima, nadzornim organima, tehnološkim kompanijama i svakom ko uživa slobodu i povoljnosti koje nudi digitalni svijet biće potrebni herkulovski napori da objasne i da se pozabave tim ranjivostima. Međutim, postoje koraci koji se mogu preduzeti sada da bi se pokrenuli takvi napori.

Transparentnost – Tehnološke kompanije i nadzorni organi moraju sarađivati i zalagati se za povećanje vidljivosti protoka podataka koji se nalaze na višeplatformskom nivou, tako što će analize javnih podataka učiniti dostupnim široj publici. Na primjer, u februaru 2019. godine, Mozila je uputila otvoreno pismo Fejsbuku kojim je tražila transparentnost u političkom reklamiranju, prisutnom na toj platformi prije evropskih izbora 2019. godine. Nekoliko organizacija, grupa i kompanija civilnog društva, uključujući i Alto Analytics, podržalo je otvoreno pismo. Na taj poziv Fejsbuk je odgovorio obajveštenjem da će u martu 2019. godine svoje arhive političkog reklamiranja učiniti dostupnim. Nažalost, kvalitet i pristupačnost Fejsbuk podacima su daleko od idealnog. U tome bi pomogli novi zakoni i propisi kojima bi aktivna transparentnost biti obavezna.

Ograničenja – Ograničenja i propisi o eksplicitnom govoru mržnje i nasilnom ekstremističkom sadržaju treba da budu još snažniji i treba aktivno da se sprovode. Njemačka je 2017. godine propisala zakon, opštepoznat kao NatzDG, kojim zahtjeva od društvenih mreža da brzo reaguju i uklone govor mržnje, lažne vijesti i illegalni sadržaj kako bi eventualno izbjegle veće novčane kazne. Nejasni kriterijumi šta spada pod taj zakon i zabrinutost da se ne pretjera sa cenzurom podlijegali su stalnim kritikama, ističući kao primjer koliko je složeno pravno regulisati govor na internetu. Međutim, zakon je dobra polazna osnova za to šta bi novi propisi mogli sadržati. 

Propisi – Propisi kojima se utvrđuje odgovornost digitalnih platformi treba da budu jasniji i primjenjiviji. Nedugo nakon američkih predsjedničkih izbora 2016. godine, Fejsbuk, Tviter i drugi tehnološki giganti suočili su se sa sve većim rigoroznim provjerama. Političari širom planete tražili su uvođenje propisa – od onih kojima se platformi nameću obaveze dužnosti pažnje do onih kojima se potpuno uklanjaju same platforme. Iako propisi čine samo jedan dio slagalice, preciznost i primjenjivost su neophodni da bi postojala ikakva prava odgovornost.

Obrazovanje – Veoma je važno usmjeriti različita ulaganja u programe o svijesti i obrazovanju kojima se pospješuju individualna odgovornost i mjere zaštite za sve uzraste i demografske grupe. Na primjer, Projekat medijske pismenosti započet 2013. godine sarađuje sa novinarima i predavačima, kako bi studenti stekli ključne vještine procjene, neophodne za postavljanje pravih pitanja i razlučivanje činjenice od fikcije. Takve vrste projekata za jačanje kapaciteta moraju biti funkcionalne i čvrste na svakom nivou digitalnog ekosistema, od korisnika informacija do novinara, zakonodavaca, tehnoloških profesionalaca i drugih.

Preuređenje – Inicijative igrača i unaprijeđenje digitalnih biznis modela predstavljaju ključ kako preurediti ekonomiju pažnje. Jedna od prognoza NeimanLab-a[1] za 2019. godinu o budućnosti novinarstva ukazuje na prelaz (ili vraćanje) na model gdje najbolju valutu potrošačke vrijednosti čini kvalitet novinarstva kome doprinose pretplate, a ne samo klikovi, kao i mjerenje istog koje zahtjeva vrijeme i pažnju.

Mnoge medijske kompanije poput Bloomberg, Wierd, BuzzFeed News, Medium, Business Insider, Quartz i drugi, uspješno su prešle ili na pejvol[2] sisteme ili na modele premijum usluga. Ekonomija pažnje pokazala se štetnom i za korisnike i za digitalnu sredinu, naročito obzirom na lakoću kojom ranjivi korisnici i subjekti mogu biti iskorišteni. Prelazak na modele koji manje zavise od vremena provedenog na intenrnetu i klikova mogao bi da pruži kreativne podstreke kojima bi se digitalna ekonomija usmjerila na dugoročnu vrijednost umjesto kratkoročnog zadovoljstva, naveo je Gideon Ličfild iz MIT Technology Review[3].

Novinarstvo – Veća pažnja i investicije su potrebni za jačanje kapaciteta i pružanje podrške, kako legitimnim organizacijama za provjeru činjenica, tako i subjektima koji prate odgovornost kompanija prema javnosti. Cilj inicijative medijske zajednice, poznate kao Listening Post Collective, jeste da pruži novinarima, redakcijama i neprofitnim organizacijama alatke i savjete za stvaranje smislenih konverzacija u svojim zajednicama. Olakšati stvaranje tih konverzacija uključuje slušanje. A slušanje je potrebno kako bi bili uključeni u novinarski rad na načine koji odgovaraju informacionim potrebama zajednica, koji oslikavaju njihove živote i omogućavaju im da donesu odluke zasnovane na činjenicama.

Jedan drugi globalni projekat, poznat kao First Draft, bori se protiv dezinformacija kroz terenski rad, istraživanje i obrazovne inicijative. Putem svoje inicijative CrossCheck, First Draft je domaćin mreže za globalnu provjeru i zajedničko istraživanje. CrossCheck povezuje novinare, akademske zajednice, preduzeća i civilno društvo širom svijeta kako bi dalje razgovarali i razvili rješenja za djelotvorniji novinarski rad u jednom digitalnom ekosistemu koji se hvata u koštac sa stalno rastućim izazovima. Sve to su moćni primjeri inicijativa na lokalnom i globalnom nivou, koje su osnov za postizanje saradnje i konsenzusa po pitanju uloge novinarstva u bojanju dezinformacionog pejzaža.

Aktivna odbrana – Djelotvorna strategija širenja dezinformacija jeste napad na legitimitet institucija za koje su se svi saglasili da su već uspostavljene i autoritativne. Napad na eksperte je bio naročito korozivan u naučnim oblastima, poput klimatskih promjena i vakcina.  

Bez podrške, ekspertske institucije (poput univerziteta, akademskih zajednica, u nekim slučajevima vlada i drugih javnih ustanova) će teže uspjeti da održe svoju reputaciju organa kojima se može vjerovati. A posljedica toga je da će oni najglasniji u javnoj raspravi opstati, kakve god bile činjenice.

Ograničenja – Potrebno je bolje razumjeti i aktivno uticati na smanjenje taktika koje se koriste za ciljanje pojedinca i zajednica putem reklamiranja, publiciteta i drugih vidova komunikacija. Na primjer onih koje je Rusija uspješno koristila u toku američkih predsjedničkih izbora 2016. godine. Danas, algoritamsko ubrzanje sadržaja kojim se šire mržnja i podjele je snažnije nego ikada prije i čini korisnike društvenih platformi veoma ranjivim na teme osmišljne namjerno za njih.

Kada kompanije, pojedinci i drugi subjekti plate da bi ciljali i došli do pojedinaca sa laserskom preciznošću, digitalnu sredinu pogađaju ozbiljni problemi i postaje neuravnotežena. 

Početkom 2018. godine, kompanije Unilever i Pocter&Gamble preduzele su pravi korak tako što su zaprijetile da će povući reklame sa najvećih digitalnih platformi ako kompanije društvenih mreža ne uspiju da se direkto pozabave toksičnim onlajn sadržajem. Ograničiti targetiranje pojedinaca i zajednica zahtjeva višestruka rješenja koja se tiču i nadzornih organa, i biznis komapnija i tehnoloških platformi.

Tačke djelovanja istaknute u tekstu predstavljaju smijernice na koji način donosioci politika, tehnološke kompanije, akademske zajednice i drugi ključni igrači mogu da djeluju da bi se pozabavili nekim od ključnih pitanja u vezi digitalnog dezinformisanja.

Neka od predstavljenih rješenja će biti kompleksna. Ako ništa drugo, biće jednako kompleksna kao i složeni problemi prisutni u današnjem digitalnom ekosistemu. U sredini u kojoj svi sastavni djelovi imaju međusobno povezane uzroke i posljedice, nužno je da se o rješenjima dobro razmisli i da se sprovedu uz saradnju više različitih igrača.


[1] Nieman Journalism Lab predstavlja inicijativu kojom se pomaže novinarskoj struci da razumije svoju budućnost u doba interneta.

[2] Sistem putem kojeg se spriječava korisnik sajta da posjeti neku stranicu na tom sajtu ako se nije prethodno pretplatio.

[3] Magazin Tehnološkog instituta u Masačusetsu (MIT)

Treći po redu 360/OS[1], u organizaciji DFRLab-a (Digital Forensic Lab) Atlantskog saveza SAD-a okupio je na jednom mjestu novinare, aktiviste, inovatore i lidere sa šest kontinenata povezanih zajedničkom borbom za istinom, kao temeljom demokratije.

Tim Digitalnog forenzičkog centra pridružio se krajem juna Digitalnim Šerlocima u Londonu, u istraživanju putem otvorenih izvora (open source), kao i u borbi protiv lažnih vijesti i ostalih fenomena koji danas, nažalost, oblikuju svijet u kojem živimo.

Ako ste pomislili da bi upravo završeni izbori za Evropski parlament mogli biti savršena prilika za pokušaj treće strane da se umiješa u iste putem (dez)informacione kampanje, ne biste bili jedini. Mnogi eksperti, kao i ljudi iz Evropske unije su očekivali isto, sudeći po brojnim izjavama zvaničnika. Vjerovanje u takav slijed događaja proizilazilo je iz činjenice da su brojni nedavni izbori (u Americi, Brazilu, Indiji, Kolumbiji, Švedskoj) došli u paru sa nekom vrstom informacione kampanje sa Istoka, koja je u većoj ili manjoj mjeri uticala na konačnu raspodjelu glasova.

Evropski izbori u maju bili su vrlo primamljiva meta za nekoga ko se htio miješati u naše demokratske procese, izjavio je ser Džulijan King, evropski komesar za bezbjedonosna pitanja, već na prvom panelu prvog radnog dana konferencije. Međutim, zahvaljujući povećanim mjerama zaštite svojih građana od dezinformacija, dodao je, EU  nije vidjela nikakav spektakularan napad.

Evropska unija je okupila sve zemlje članice kako bi radile na sigurnosti izbora i uspostavila sistem brzog alarma, koji je omogućio stručnjacima, uključujući civilno društvo i uprave da, jednom kada naiđu na pokušaj organizovanog širenja dezinformacija, taj pokušaj brzo podijele sa ostalima.

Društvene mreže moraju djelovati protiv širenja dezinformacija

Ono što smo takođe saznali iz njegovog govora jeste da je EU sjela za sto sa predstavnicima velikih društvenih mreža, te je dogovoren i uređen novi kodeks koji će pomoći rješavanju problema dezinformacija na društvenim mrežama. Pitanja poput identifikacije i brisanja lažnih i obmanjujućih informacija, te osnaživanje korisnika i istraživačke zajednice da identifikuju slučajeve dezinformacija, sadržani su u novonastalom kodeksu.

Vrijeme će pokazati hoće li taj instrument dati rezultate, ali jedno je sigurno – društvene mreže, posebno Fejsbuk, moraju djelovati, jer su izložene sve većim kritikama zbog omogućavanja širenja dezinformacija.

Zaposleni u Fejsbuku su toga svjesni. Zato je Natanijel Glejčer, šef odsjeka za sajber bezbjednost predstavio kako platforma percipira informacione operacije i kako se odnosi prema njima. Dezinformacije nisu termin koji zvaničnici Fejsbuka koriste. On je predstavio učesnicima buduće planove za razvijanje softvera na platformi, koji će još brže skidati lažne naloge i sumnjive stranice.

Na panelu pod nazivom Otvoreni izvor: svjedok zločina, govorio je Eliot Higins, osnivač Belingketa, mreže istraživačkog novinarstva koja je specijalizovana za provjeru činjenica (fact-checking). Zahvaljujući svojim istraživanjima (MH17, trovanje Skripala, bombaški napadi u Siriji, Jemenu i Iraku) mreža je postavila temelje istraživanja koristeći otvorene izvore. Zajedno s GLAN-om (Global Legal Action Network) Belingket je pokrenuo projekat čiji je cilj dati kredibiliet dokazima stečenim putem otvorenih izvora.

Jedan od panela: Dipfejk – nije kao što izgleda! bavio se fenomenom kreiranja lažnih video zapisa. Sem Gregori, programski direktor u WITNESS-u, govorio je o evoluciji tehnologija i dipfejka, te je pokazao, korak po korak, proces stvaranja jednog jednistvenog videa te vrste. Imajući u vidu opseg i domete prijetnji dezinformacijama i lažnim vijestima a koje su sračunate s ciljem da se destabilizuju demokratska društva, svi učesnici su se složili da je neophodna konstantna borba protiv te savremene pošasti.

Ključne poruke i preporuke

  • Sve zemlje kojima prijete dezinformacione kampanje i digitalna manipulacija moraju zajedno raditi na suzbijanju istih i jačanju njihovih demokratskih institucija koje pokazuju jedinstvo, prosperitet i stabilnost.
  • Informacioni rat zahtjeva komunikaciju među zemljama kako bi se podigla kritička svijest.
  • Saradnja s platformama Gugl, Fejsbuk, Tviter, Mozila itd. nužna je kako bi se povećala transparentnost, identifikovali i obrisali lažni i obmanjujući izvještaji i objave, te osnažili korisnici i istraživačke zajednice da identifikuju slučajeve dezinformacija.
  • Porast propagande u autoritarnim režimima ogleda se ne samo kroz zabranu pristupa digitalnim uslugama, već i kroz potiskivanje njihovih ideala i uvjerenja putem automatizacije, filtriranja podataka i nadzora podataka.
  • Rivaliteti moći koju vidimo u sajber prostoru imaju implikacije za demokratske sisteme.
  • Tehnologija je alat, a autoritarne vođe su naučile kako taj alat da koriste.
  • Informacione operacije definisane kao koordinisani napori za manipulisanje javne debate kako bi se postigao strateški cilj.
  • Loši momci ne moraju koristiti super sofisticirane tehnike za ciljanje i manipulisanje javnošću.
  • Velike novinske kuće trebaju više gledati na širu sliku, razumjeti ko su akteri i kako se dezinformacije šire, a ne samo reći šta je istina ili ne. Potrebno je edukovati gledaoce da budu skeptični.
  • Tri trenda autoritarnosti na internetu su: zastrašivanje, gušenje neistomišljenika i maltretiranje kako bi se stvorio strah.
  • Snaga je u brojkama, digitalnoj pismenosti, zdravom skepticizmu, znanju kako biti siguran na internetu, civilnom angažmanu i digitalnoj otpornosti.
  • Borba protiv dezinformacija treba biti građanska dužnost, kao što je to glasanje na izborima.

[1] Otvoreni izvori

Piše Aleks Romero za portal Disinfo

Članak je prvi dio dvodijelne periodične publikacije Alto Data Analytics o funkcionisanju dezinformacija u digitalnom ekosistemu.

U mjesecima koji su prethodili majskim parlamentarnim izborima u Evropskoj Uniji, Alto Data Analytics istraživala je najnovije strategije dezinformisanja u digitalnom javnom prostoru Evrope. Podaci su prikupljeni iz velikog broja javnih digitalnih izvora uključujući društvene mreže, javne forume, blogove, digitalne zajednice, grupe za diskutovanje, vijesti, video, viki sajtove itd. Prikupljene su informacije sa teritorija Francuske, Njemačke, Italije, Poljske i Španije u periodu od sredine decembra 2018. godine do kraja maja 2019. godine.

Između decembra i januara, u bazi neobrađenih podataka nalazilo se više od 4,7 milijardi podataka indeksiranih iz preko 200 miliona rezultata od 20 miliona autora, a koja je nastavila da raste svakog mjeseca sve do izbora.

Sljedeća serija članaka baviće se nekim od nalaza i uvida iz ovog istraživanja, uključujući i analize ključnih problema, digitalnih zajednica i relevantnih medija na utvrđenim mrežama, uz snažne signale koordinisanih obrazaca dezinformisanja u različitim zemljama i jezicima.

Ali prvo, bilo bi korisno da se predstavi šira slika dezinformisanja u digitalnom ekosistemu, tako da se istaknu nekih od ključnih problema i predlože potencijalna rješenja.

Lažne vijesti i digitalni ekosistem

Trenutna debata oko dezinformisanja je većim dijelom usmjerena na sadržaj – laži i konfuzija koji se šire putem lažnih vijesti. Edelmanov barometar povjerenja navodi da skoro sedam od 10 ispitanika iz opšte populacije brine to da se lažne vijesti i netačne informacija koriste kao oružje za širenje nepovjerenja.

Problem ne predstavljaju lažne vijesti; već ukupan digitalni ekosistem. Ponekad se čini da i same društvene mreže poput Fejsbuka i Tvitera predstavljaju problem. Nažalost, problem je mnogo složeniji. Internet ne bi trebalo da se koristi iz loših pobuda; kao platforma za komunikaciju, on ima ozbiljne nedostatke. Činjenica je da današnji digitalni ekosistem pruža mogućnosti i podstiče da se laže u određenoj mjeri i to brzinom munje. Posljednjih nekoliko godina pokazalo je da digitalni ekosistem može da bude nevjerovatno djelotvorna sredina putem koje razni akteri mogu da utkaju dezinformaciju u javni digitalni prostor.

Analizirajući brojne društvene, političke i ekonomske debate u Evropi i u obije Amerike tokom posljednjih nekoliko godina, na površini izviru četiri velike oblasti kao ključ uspjeha kampanje dezinformisanja u digitalnom prostoru. 

Ranjivosti i sloboda izražavanja

Prvu oblast čini slaba tačka liberalne demokratije. Sloboda debatovanja i izražavanja jeste suštinska demokratska vrijednost koja omogućava i podstiče sve i svakoga da doprinose u stvaranju mišljenja i da debatuju o najopštijim pitanjima iz oblasti politike, društva, ekonomije i kulture. U svom istraživanju o Evropskim izborima, Alto Data Analytics je otkrila da u prosjeku manje od 0,1% svih korisnika predstavlja više od 10% javne digitalne konverzacije. Ogromna baza podataka koja je prikupljena za istraživanje poslužila je kao moćna slika javne debate i slobodnog izražavanja u digitalnom prostoru. Time je pomogla u utvrđivanju društvenih ranjivosti koje vrlo često iskorištavaju oni korisnici čija je aktivnost nesrazmjerna i neprirodna. Ti korisnici su se selektivno fokusirali na manji broj polarizovanih pitanja poput imigracije ili uloge multilateralnih organizacija. Dezinformisanje je učinkovito u ranjivom okruženju. Ako pojedinci izgube povjerenje u sadržaj na internetu, onda je jedan od glavnih ciljeva ratovanja dezinformacijama postignut. Nalaženje ili stvaranje društvenje ili ekonomske ranjivosti putem aktivnog polarizovanja debate čini samo prvu fazu.

Strateški skovani narativi

Sljedeću sferu čini sposobnost da se osmisle neki sadržaji i pitanja koji bi bili u skladu sa određenim mišljenjima, često u okviru lokalizovanog ili kulturnog konteksta. To može da obuhvata sve od iskrene diskusije i razmjene mišljenja do strateškog oblikovanja ili izvrćanja pogleda ili realnosti da bi se podstakla polarizacija. Nedavno istraživanje o evropskim izborima pokazuje kako su maliciozni akteri nemilosrdno iskoristili antimigracione i imigracione teme da bi širili dezinformacije kao vid napada na šire evropske vladajuće institucije i na one koji su označeni kao politička elita.

Novi planski vođeni mediji

Ključno sredstvo za stvaranje sadržaja čini brojnost i raznolikost digitalnih objava, koje obuhvataju sve od medijskih kuća koje podržava vlast do novonastalih startap kompanija i lokalnih sajtova. Takvi domeni su često napravljeni tako da izgledaju kao da su već postojeći mediji. Međutim, bližim posmatranjem se otkriva da oni zapravo predstavljaju grupisani sadržaj čiji je cilj izvrtanje prave slike.

Analiza izbora za Evropski parlament otkrila je listu uticajnih sajtova čiji je cilj polarizovanje problema ili širenje dezinformacija. Neki od njih nisu bili poznati novinarima koji su izvještavali o evropskih izborima za poznatije medijske kuće u analiziranim zemljama. Bili su van vidika mejnstrim medija zato što su se širili velikom brzinom unutar izolovanih digitalnih zajednica koje su odvojene od većine političkih izvjestilaca.

Mnogi sajtovi koji šire dezinformacije se finansiraju putem reklamnih mreža koje se oslanjaju na programsko reklamiranje. Algoritmima se odlučuje koje reklame idu na koje sajtove odmah, a izvještaj Alto Data Analytics je otkrio da i globalne i lokalne kompanije nesvjesno finansiraju takve sajtove. Uz to, takvi sajtovi se oslanjaju na promet sa platformi društvenih mreža, poput Fejsbuka i Tvitera. Ponekad primaju sredstva od legitimnih, ali istovremeno mutnih, kraudfanding[1] platformi. Drugim riječima, na cjelokupan digitalni ekosistem se može uticati tako da se poveća širenje dezinformacija sa jednog vebsajta na veću i različitiju publiku.

Koordinacija kroz različite jezike i regione

Posljednju oblast čini mogućnost da se stvori masivna koordinisana isporuka dezinformacija kroz različite jezike, regione i brojne digitalne dodirne tačake. Na taj način se pomaže u stvaranju izolovanih digitalnih zajednica koje zagovaraju dezinformisanje. Time je obuhvaćena široka lepeza digitalnih alatki, uključujući automatizaciju, ciljano reklamiranje, Fejsbuk, Vocap,Telegram grupe ili alternativne društvene mreže poput Gab.ai.

Te tehnike služe da bi se iskoristio digitalni ekosistem i oblikovala javna agenda. Zbog postojećih ranjivosti i trenutnog sastava takvog ekosistema, digitalno dezinformisanje pruža snažan niz mogućnosti sa višestrukim podsticajima i predstavlja pravu prijetnju svakome ko cijeni demokratiju.

[1] Kraudfanding (crowdfunding) je inovativan, brz i globalan način finansiranja projekata preko interneta

Tehnologijom može da se izvede da izgleda kao da je neko nešto rekao ili uradio. Da li je ovo novi talas ratovanja (dez)informacijama?

U maju 2018. godine, na internetu se pojavio video sa Donaldom Trampom kako daje savjet Belgijancima po pitanju klimatskih promjena. „Kao što znate, usudio sam se da se povučem iz Pariškog klimatskog sporazuma“, rekao je gledajući pravo u kameru, „što bi i vi isto trebali da uradite“.

Ovaj video napravila je belgijska politička partija Socijalistička partija Drugačije (njem. Socialistische Partij Anders), skraćeno sp.a, i postavila ga na njihov Tviter i Fejsbuk nalog. Video je izazvao hiljade komentara, od kojih su mnogi odisali bijesom jer se američki predsjednik usudio da komentariše na temu belgijske politike prema klimatskim promjenama.

Ali ovaj bijes je bio usmjeren u pogrešnom pravcu. Govor, kako se kasnije ispostavilo, bio je ništa drugo do krivotvorina napravljena upotrebom visoke tehnologije.

Iz sp.a su tvrdili da su tražili od jednog produkcijskog studija da koristeći mašinsko učenje naprave ono što je poznato kao „dipfejk“ video – kompjuterski napravljena kopija osobe, u ovom slučaju kopija Trampa, koja govori ili radi stvari koje ta osoba nikada ne bi izgovorila ili uradila.

Ono što je bila namjera sp.a jeste da iskoriste ovaj lažni video da bi privukli pažnju ljudi, a zatim je preusmjere na onlajn peticiju kojom se poziva belgijska vlada da preduzme hitnije radnje po pitanju klimatskih promjena. Tvorci videa su kasnije rekli da su mislili da je loš kvalitet ovog lažnjaka dovoljan da ukaže pratiocima da nije vjerodostojan. „Jasno se vidi dok se usne pomjeraju da nije u pitanju originalni Trampov govor“, rekla je portparolka stranke sp.a za Politico.

Kako je postalo jasno da je njihova politička šala otišla u drugom smjeru, tim za društvene mreže iz ove partije krenuo je da smanjuje štetu. „Ćao Teo, ovo je zabavni video. Trump nije zapravo dao ovakve izjave.“ „Zdravo, Dirk, ovaj video je predviđen kao šala. Trump nije zaista ovo rekao.“

Tim za komunikacije iz ove partije je očigledno podcijenio moć svoje krivotvorine, ili je možda precijenio moć rasuđivanja svoje publike. Kako god da bilo, ova mala, ljevičarski okrenuta politička partija je, možda nesvjesno, dala veoma zabrinjavajuć primjer korišćenja manipulativnih video sadržaja na internetu u otvoreno političkom kontekstu.

Bio je to manji primjer kako ova tehnologija može biti iskorišćena da bi se ugrozio naš ionako ranjiv informacioni ekosistem – i možda dovela u pitanje mogućnost sigurne, podjeljene stvarnosti.

Mišljenja stručnjaka

Daniela Sitron, profesorica prava na Univerzitetu u Merilendu, je zajedno sa svojom koleginicom Bobi Česni počela da radi na izvještaju u kome ističu razmjere potencijalne opasnosti. Pored toga što su u svom radu razmotrile opasnost po privatnost i nacionalnu bezbjednost, oba akademika su veoma zabrinuta da bi nagli rast u pravljenju „dipfejk“ videa mogao strašno da poljulja povjerenje među frakcijama društva u i ovako polarizovanom političkom vremenu.

Štaviše, već su mogle da predvide kako „dipfejk“ zloupotrebljavaju „snadbjevači“ lažnih vijesti. Bilo ko ima pristup ovoj tehnologiji – od propagandista koje je država sankcionisala do trolova – bi mogao da izvrće informacije, manipuliše vjerovanjima i na taj način gurne ideološki suprostavljene onlajn zajednice još dublje u njihove subjektvne realnosti.

„Tržište ideja već pati zbog iščezavanja istine, dok naša umrežena informaciona sredina štetnim putem dolazi u kontakt sa našim kognitivnim predrasudama“, piše u izvještaju. „Dipfejkom će se ovaj problem još više pogoršati“.

Sitron i Česni nisu jedine koje se plaše ovoga. U aprilu 2018. godine, reditelj Džordan Piel i BuzzFeed su objavili „dipfejk“ video u kome Barak Obama naziva Trampa „potpunim i kompletnim idiotom“ da bi podigli svijest o tome kako bi sintetički mediji napravljeni uz pomoć vještačke inteligencije mogli biti iskorišćeni da se iskrivi i izmanipuliše realnost.

U septembru 2018. godine, tri člana Kongresa su poslala pismo direktoru nacionalne objavještajne službe, upozoravajući o tome kako bi „dipfejk“ mogle iskorisiti „kampanje dezinformisanja tokom izbora“.

Iako bi se ovakve uznemirujuće teorije mogle lako prizvati, Tim Hvang, direktor Inicijative za etiku i upravljanje vještačkom inteligencijom na Harvardu-MIT, se ne bi baš kladio da će „dipfejk“ videa imati veliki uticaj na izbore u bliskoj budućnosti. Već nekoliko godina Hvang proučava širenje dezinformacija putem internet mreže i, uz izuzetak ovog manje značajnog incidenta u Belgiji, tek treba da vidi „u prirodi“ neki primjer zaista pogubnog slučaja izazvanog „dipfejk“ videom.

Hvang vjeruje da je to razlog jednim dijelom zbog toga što korišćenje mašinskog učenja da bi se napravili uvjerljivi lažni videi ipak zahtjeva neki stepen stručnosti i mnogo podataka. „Ako ste propagandista, želite što dalje da prenesete svoj rad, uz što manje truda“, rekao je. „Danas, i neki grubo napravljen Fotošop može da bude jednako efektan kao i nešto što je napravljeno korišćenjem mašinskog učenja“.

Istovremeno, Hvang priznaje da budući da u godinama koje dolaze „dipfejk“ sve više postaje dio realnosti i lakše ga je napraviti, mogla bi biti uvod u doba krivotvorenja koje je po kvalitetu drugačije od onoga koje smo vidjeli ranije. U prošlosti, na primjer, ako ste željeli da napravite video predsjednika kako govori nešto što nije rekao, bio vam je potreban tim stručnjaka. Dok danas, uz mašinsko učenje ne samo da ćete automatizovati ovaj proces, već ćete biti u mogućnosti da napravite i bolju krivotvorinu.

Povežite ovo sa činjenicom da će se ova tehnologija proširiti internetom i odjednom imate, kako je Hvang rekao, „savršen talas misinfromacija“.

Uspon tehnologije

Bilo kako bilo, istraživanje u oblasti sintetičkih medija proizvedenih mašinskim učenjem napreduje.

Da bi se napravio uvjerljiv „dipfejk“ video često vam je potreban neuralni model koji se trenira uz pomoć puno referentnog materijala. Uopšte, što više slika, videa ili zvukova vaša baza podataka sadrži, to će vaš rezultati biti neopisivo vjerodostojniji. Ali ovoga maja, istraživači u Samsungovom centru za vještačku inteligenciju u Moskvi razvili su metodu za treniranje modela tako da se pokreće uz veoma ograničenu bazu podataka: samo jedna slika je dovoljna i rezultati su iznenađujuće dobri.

Istraživači su uspjeli da naprave „fotorealistične modele glava koje se pomjeraju“ koristeći konvolucione neuronske mreže: trenirali su algoritam na velikoj bazi podataka sa videima glava koje se pomjeraju i to sa različitom fizionomijom. U ovom slučaju, koristili su javno dostupnu bazu podataka VexCeleb koja sadrži više od 7.000 slika poznatih ličnosti sa Jutjuba.

Uz pomoć ovoga trenirali su program da prepozna ono što oni nazivaju „prepoznatljivim“ crtama lica: oči, oblici usana, dužina i oblik nosnog mosta.

Ovo, na neki način, predstavlja skok u poređenju sa onim što se čak „dipfejkom“ i drugim algoritmima koji koriste generativne kontradiktorne mreže može postići. Umjesto da uče algoritam kako da nalijepi jedno lice na drugo koristeći lepezu izraza lica jedne osobe, oni koriste crte lica koje su uobičajene kod svih ljudi da bi na kraju napravili novo lice.

Kao što je ovaj tim i dokazao, njihov model može da se primjeni čak i na Mona Lizi, i drugim portretima kod kojih postoji samo jedan primjerak. U ovom videu, poznati portreti Alberta Anštajna, Fjoroda Dostojevskog i Merilin Monro oživljavaju kao da su live slike na iPhone-ovoj kameri. Ako kao što je to slučaj sa mnogim „dipfejk“ videima, u ovoj fazi je veoma lako vidjeti „šavove“. Većina lica je okružena vizuelnim artefaktima.

Nove metode za otkrivanje

Kako se opasnost od „dipfejk“ videa povećava, tako se povećavaju i napori za stvaranjem novih metoda za otkrivanje istih. U junu 2018. godine, istraživači sa Univerziteta u Olbaniju (SUNY) su objavili rad u kome ističu kako lažni videi mogu da se otkriju tako što se kod sintetičkog subjekta vidi da ne trepće. Fejsbuk je takođe odlučan da razvije modele mašinskog učenja za otkrivanje „dipfejk“ videa.

Međutim, Hani Farid, profesor kompjuterskih nauka na Univerzitetu u Kaliforniji, u Berkliju, je nepovjerljiv. On vjeruje da oslanjanje samo na forenzičko otkrivanje da bi se borili protiv „dipfejk“ videa postaje sve manje izvodljivo, naročito zbog stope kojom tehnike mašinskog učenja mogu da ga zaobiđu. „Nekada smo imali razmak od nekoliko godina prije nego bi falsifikatori našli način da zaobiđu napravljene tehnike za otkrivanje. Sada je taj razmaka dva do tri mjeseca.“

Ovo, on objašnjava, se dešava zbog fleksibilnosti u mašinskom učenju. „Sve što programeri treba da urade jeste da ažuriraju algoritam tako da potraži, recimo, promjene u boji lica koje odgovaraju otkucaju srca, i onda iznenada, lažnjak integriše ovaj nekada neprimjetni znak.“ 

Iako se Farid nalazi u ovoj tehnološkoj igri mačke i miša sa tvorcima „dipfejk“ videa, svjestan je da se rješenje ne nalazi samo u novoj tehnologiji. „Problem nije samo u tome što „dipfejk“ tehnologija postaje bolja“, kaže. „Riječ je o tome da su društveni procesi, putem kojih svi zajedno dolazimo do saznanja i smatramo da su tačna ili netačna, u opasnost

Ravnodušnost prema stvarnosti

I zaista, kao što je to i lažni video Trampa koji se širio društvenim mrežama u Belgiji pokazao – video za koji se kasnije ispostavilo da nije napravljen uz pomoć tehnologije mašinskog učenja, kao što su to iz sp.a partije tvrdili, već korišćenjem softvera za uređivanje pod imenom After Effect – „dipfejk“ videa ne treba da budu neprimjetna ili čak uvjerljiva da bi im se povjerovalo i da bi načinili štetu. Moguće je da najveća prijetnja koju predstavljaju „dipfejk“ video snimci ne leži u samom lažnom sadržaju, već u pukoj mogućnosti njihovog postojanja.

Ovo je fenomen koji je akademik Aviv Ovadja nazvao „ravnodušnost prema stvarnosti“, gdje stalni kontakt sa dezinformacijama tjera ljude da prestanu da vjeruju onome što vide i čuju. Drugim riječima, najveća prijetnja nije u tome da će ljudi da budu ombanuti, već da će početi sve da posmatraju kao obmanu.

Nedavne ankete pokazuju da povjerenje u glavne institucije i medije opada. Širenje „dipfejk“ video snimaka, kaže Ovadja, će vjerovatno pogoršati ovaj trend.

Prema Danieli Sitron, već možemo da vidimo društvene posljedice ovog epistemičkog iščezavanja. „U krajnjem, „dipfejk“ videa samo povećavaju ono što ja zovem „dividenda lažljivca“, rekla je. „Kada ništa nije istina, tada će i neiskrena osoba prosperirati tako što će za ono što je istina da govori da je laž“.

Miješanje Kremlja u izborne procese se javlja u dosta različitih oblika širom svijeta. U nekoliko nedavnih izbornih procesa u Evropi vidjeli smo razne taktike ometanja, uključujući lične napade, operacije hakovanja i curenja informacija, lažne narative, intenziviranje sentimenta, sajber napade itd. Među ovim metodama manipulisanje informacijama je naročito upečatljiva taktika. Ozloglašeni akteri preferiraju tehnike manipulisanja informacijama jer su efikasne i nisu skupe. Kako su se taktike Kremlja razvijale, razvijalo se i istraživanje njihovih djelokruga i uticaja. Prikupili smo neke cifre i podatke sa nedavnih evropskih izbora i referenduma koji prikazuju djelokrug ove prijetnje.

Uobičajene taktike manipulisanja informacijama

  • Prokremljevski akteri koriste raznovrsne taktike manipulisanja informacijama kako bi uticali na izbore. S jedne strane, oni promovišu određene narative dezinformisanja – kad je riječ o Kataloniji, na primjer – narativ da su Španija i Evropa u dubokoj krizi – i pokušavaju da intenziviraju negativni sentiment koji je već prisutan u diskusijama.
  • U drugim slučajevima, na primjer, kod parlamentarnih izbora 2017. u Njemačkoj posrednici se udružuju sa određenim kandidatom ili političkom partijom i nastoje povećati javnu podršku za njih. U međuvremenu, uoči parlamentarnih izbora 2018. u Italiji, prokremljevski akteri su pokušali da intenziviraju antimigracione poruke i uspješno ih rasprostrane prvenstveno kroz antiimigracione zajednice.
  • Najzad, još jedna uobičajena taktika je da se stvori haos i opšta konfuzija tako što će propagirati kontradiktorne narative i jedne i druge strane političkog spora, kao što je bio slučaj sa referendumom za Bregzit 2016. godine. Iako je Kremlj izričito promovisao kampanju za izlazak iz Unije, Tviter nalozi koji su povezani sa Rusijom su zapravo širili narative i za Bregzit i protiv njega pred sam referendum.

Intenziviranje uz pomoć botova

  • Istraživanje pokazuje da automatski botovi na društvenim mrežama igraju značajnu ulogu u miješanju u izborne procese. Na primjer, botovi doprinose enormnom širenju poruka usmjerenih protiv EU na društvenim mrežama u Britaniji.
  • Botovi su činili jednu trećinu naloga koji su širili vodeće prokremljevske narative tokom nezvaničnog referenduma u Kataloniji.

Manipulisanje tradicionalnim medijima

  • Dopunjujući taktike društvenih mreža, prokremljevski akteri se oslanjaju na manipulisanje tradicionalnim medijima, tako što plasiraju dezinformacije i obmanjujuće narative uz pomoć prokremljevskih medija. Ove narative onda preuzimaju drugi mediji i tako postepeno postaju legitiman mejnstrim.
  • Ovaj pristup je bio efikasan u nekoliko slučajeva: članci koje su objavljivali RT i Sputnik su najviše bili preuzimani u Španiji u vrijeme nezvaničnog referenduma u Kataloniji. Štaviše, RT i Sputnik su se kotirali među prvih 3% najuticajnijih medija u Italiji uoči državnih izbora 2018. godine.

Tokom prosječnog radnog dana, jedan minut može izgledati zanemarivo. Ako imate sreće tih 60 sekundi može biti dovoljno da napišete kratki mail, uzmete kafu ili za kratki razgovor s kolegom.

Međutim, kada je riječ o internetu,  mnogo toga se može desiti u samo 60 sekundi, pokazuju podaci koje je objavio Visual Capitalist. Jednostavno rečeno, broj akcija upakovanih u samo 60 sekundi je nevjerovatan.

Iz godine u godinu, sve više i više ljudi ima pristup internetu, što doprinosi njegovoj dinamičnosti i rastu brojki na dnevnom nivou. To se najbolje razumije kroz direktno poređenje podataka za ovu i prethodnu godinu.

Članak je preuzet sa Radio Slobodna Evropa

Kako kompanija nastavlja da snažno reaguje na mrežu trolova koji pokušavaju da manipulišu javnim mnjenjem u drugim zemljama, iz Fejsbuka su 26. marta izjavili da je izbrisano više od 2.600 lažnih stranica i naloga koji su povezani sa Rusijom, Iranom, Sjevernom Makedonijom i Kosovom.

Šef odjeljenja za sajber bezbjednost u Fejsbuku, Natanijel Glečer, rekao je da je uklonjeno  1.907 grupa, stranica i naloga povezanih sa Rusijom zbog spamovanja, koje je uključivalo sadržaj povezan sa ukrajinskim vijestima i politikom, i to pred Predsjedničke izbore u Ukrajini zakazane za 31. mart.

Rekao je da je sadržaj vezan za Ukrajinu obuhvatao objave o aktuelnom sukobu na istoku Ukrajine, lokalnoj i regionalnoj politici; ukrajinskom patriotizmu; pitanju izbjeglica; ukrajinskoj vojsci; situaciji na Krimu; korupciji.

Glečer je rekao da su mali broj stranica povezanih sa Rusijom vodili pojedinci koji su djelovali na koordinisan neautentičan način.

Natanijel Glečer, šef odjeljenja za sajber bezbjednost u Fejsbuku

Farma trolova

Ovo je izraz koji se koristi u Fejsbuku da bi se opisala manipulativna taktika na društvenim mrežama, kojom se, kako kažu, služila ozloglašena ruska farma trolova, Agencija za istraživanje interneta, da bi pokušala da utiče na Predsjedničke izboje u SAD 2016. godine.

Stalno radimo na otkrivanju i zaustavljanju takvih aktivnosti, zato što ne želimo da se naše usluge koriste kako bi se manipulisalo ljudima, izjavio je Glečer 26. marta.

Ovakve stranice i naloge uklanjamo na osnovu aktivnosti, a ne sadržaja koji se postavlja, rekao je Glečer. U svim slučajevima, ljudi iza ovih radnji koordinisali su jedni sa drugima i koristili su lažne naloge da bi se lažno predstavili.

Glečer je rekao da iskorijenjavanje ovakvog vida zloupotrebe predstavlja stalni izazov zato što su ljudi koji su za to odgovorni odlučni i dobro finanancijski podržani.

Iz Fejsbuka nisu objavili na koga sumnjaju da finansira nedavno izbrisanu mrežu trolova stranica i naloga iz Rusije, navodeći da sada mnogo sofisticiranije skrivaju svoj identitet nego što je to radila Agencija za istraživanje interneta 2016. godine.

Svi zajedno, nedavno obrisani ruski trolovi činili su samo 64 pojedinačna naloga na Fejsbuku. Obuhvatali su i 1.757 grupa na Fejsbuku i 86 stranica na Fejsbuku i njegovoj Instagram mreži.

Glečer je rekao da se više od 1.7 miliona naloga na Fejsbuku priključilo jednoj ili više malicioznih grupa povezanih sa Rusijom i da je oko 50.000 naloga zapratilo jednu ili više sumnjivih stranica takođe povezanih sa Rusijom.

Glečer je rekao da nikakv novac za reklame nije mogao da se poveže sa nedavno izbrisanim nalozima vezanim za Rusiju, za razliku od 2016. godine kada su nalozi koji su bili povezani sa Agencijom za istraživanje interneta platili za oglašavanje na Fejsbuku.

Iz Fejsbuka, 26. marta, rekli da 513 stranica ili naloga, koji su nedavno uklonjeni zato što su bili trolovi, predstavljaju dio višestrukih mreža povezanih sa Iranom.

Djelovali su na teritoriji Egipta, Indije, Indonezije, Izraela, Italije, Kašmira, Kazahstana, odnosno dalje preko Bliskog istoka i Sjeverne Afrike“, rekao je Glečer.

Predstavljali su se kao lokalno stanovništvo i izmišljeni mediji, često koristeći lažne naloge –  i oponašali su prave političke grupe i medijske organizacije, rekao je Glečer dodajući da su stranice povezane sa Iranom iskopirale rusku taktiku farme trolova zvanu lažno povećavanje.

To se dešava onda kada lažni nalozi sarađuju sa nalozima ljudi koji koriste njihova prava imena da bi zatrpali veb-forume objavama čiji je cilj manipulisanje javnom diskusijom na internetu.

Objavljivali su vijesti o aktuelnim događajima i često su mijenjali svrhu i preuveličavali sadržaj sa iranskih državnih medija, rekao je Glečer.

Koordinisane neautentične aktivnosti

Teme koje su koristile iranske manipulativne kampanje na društvenim mrežama obuhvatale su sankcije uvedene Iranu, tenzije između Indije i Pakistana, sukobe u Siriji i Jemenu, terorizam, tenzije između Izraela i Palestine, pitanja islamske religije, indijsku politiku i nedavnu krizu u Venecueli, rekao je Glečer.

Iz Fejsbuka su rekli da su na Balkanu uklonili 212 stranica, grupa i naloga zbog koordinisanih neautentičnih aktivnosti koje potiču iz Sjeverne Makedonije i Kosova.

Obuhvatali su i 40 grupa ili stranica i 172 lažna pojedinačna profila koji su od oktobra 2013. godine preko marta 2019. godine potrošili oko 5.800$ na oglašavanje.

Pojedinci iza ove aktivnosti koristili su lažne naloge da bi upravljali stranicama koje dijele opšti sadržaj, nevezan za državna pitanja, poput astrologije, poznatih ličnosti i savjeta za ljepotu, kaže Glečer.

Ali jedan primjer političkog sadržaja koji je podjeljen među temama zdravlja bila je objava na engleskom jeziku usmjerena protiv takozvanih preostalih ministara u britanskoj vladi, prije britanskog referenduma o Bregzitu 2016. godine.

Oni su takođe vodili mali broj stranica tvrdeći da su političke zajednice u Australiji, Ujedinjenom kraljevstvu i SAD – i objavljivali su o religijskim i političkim temama poput nacionalizma, islama i političkih aktera, rekao je.

Iako su pokušali da se lažno predstave, otkrili smo da su ove stranice, grupe i nalozi povezani sa jednom mrežom pojedinaca koji djeluju iz Sjeverne Makedonije i sa Kosova, rekao je Glečer.

Pratioci oko 685.000 naloga širom svijeta pratili su jednu ili više ovakvih izbrisanih stranica kojima se upravlja iz Sjeverne Makedonije i sa Kosova, rekao je.

Iako su izbrisane mreže trolova povezane sa Rusijom, Iranom, Sjevernom Makedonijom i Kosovom sve koristile slične taktike da bi pokušali da manipulišu javnim mnjenjem u drugim zemljama, Glečer je rekao da iz Fejsbuka nisu našli nikakve veze između niza njihovih aktivnosti.

Nakon izbijanja epidemije boginja na sjeverozapadu SAD-a, ali i odluke YouTube-a da u martu ukloni reklame koje podržavaju stavove protiv vakcinisanja djece,  Facebook, koji se našao na udaru kritika da nije preduzeo ništa protiv teoretičara zavjere i antivakcionih narativa, je odlučio da zaustavi širenje lažnih vijesti o vakcinama.

Oni to namjeravaju učiniti tako što će odbijati oglase s lažnim informacijama, neće prikazivati ili preporučivati stranice u News Feedu koji pridonose problemu i suprotstavljaće se lažnim vijestima s činjenicama sa relevantnih adresa kao što je Svjetska zdravstvena organizacija.

Facebook je u četvrtak, 8. marta objavio planove koje će realizovati kako bi zaustavili širenje lažnih informacija o vakcinama, ali i anti-vakcionih narativa na svojoj platformi.

Kako navodi zvaničnica kompanije, Monika Bickert, Facebook će započeti implementaciju kroz određene korake:

  • Smanjiće rangiranje i pozicioniranje grupa i stranica koje šire dezinformacije o vakcinaciji u News Feed-u i Search-u. Te grupe i stranice neće biti uključene u preporučene stranice.
  • Kada naiđemo na reklame koje sadrže dezinformacije o vakcinama, mi ćemo ih odbaciti. Takođe smo uklonili povezane ciljne opcije, kao što su „kontroverze o vakcinama“. Za  marketinške naloge koji nastave da krše našu politiku preduzećemo mjere, kao što su onemogućavanje marketinškog naloga.
  • Neće prikazivati ili preporučivati sadržaj koji sadrži dezinformacije o vakcinaciji na Instagramu ili prilikom hashtag pretrage.
  • Istraživaće načine za razmjenu edukativnih informacija o vakcinama kada ljudi naiđu na dezinformacije na ovu temu.

Vodeće zdravstvene organizacije, kao što su Svjetska zdravstvena organizacija i američki Centri za kontrolu i prevenciju bolesti (Centers for Disease Control and Prevention), javno su identifikovali lažne vijesti o vakcinama koje se mogu provjerit. Ako se takvi narativi budu pojavljivali na Facebooku, oni ce preduzeti mjere protiv njih.

Kako se navodi, ako grupa ili administrator stranice postavi ovakvu dezinformaciju, Facebook će  isključiti cijelu grupu ili stranicu iz preporuka, smanjiće pozicioniranje i rangiranje tih grupa i stranica u News feed-u i Search-u  te odbaciti te iste lažne postove.

Svjetska zdravstvena organizacija (WHO) objavila je popis najvećih prijetnji po ljudsko zdravlje u 2019. godini, a osim ebole i drugih opasnih bolesti na listi su se našli i protivnici vakcinisanja, koji su proglašeni jednom od najvećih opasnosti za ljudsko zdravlje, jer se zbog njih vraćaju bolesti koje su bile gotovo iskorijenjene.