Bijela kuća objavljuje samo delimične podatke, isto kao i Izrael.
Kako objašnjava Marek Matušjak, stručnjak iz Centra za istočne studije, u Izraelu je od momenta napada na Iran na snazi takozvana vojna cenzura, koja znatno otežava dobijanje informacija o, na primjer, obimu odgovora Irana ili efikasnosti izraelske protivvazdušne i protivraketne odbrane.
Drugim riječima – potpuna slika situacije i dalje ne postoji.
U takvom informacijskom vakuumu veoma lako se šire dezinformacije na društvenim mrežama, a snimci i fotografije koji posljednjih dana kruže internetom mogu se podijeliti u dvije glavne kategorije.
Stari snimci predstavljeni kao aktuelni događaji
Prvu grupu čine stari snimci i fotografije iz ranijih sukoba na Bliskom istoku.
Na njima se, na primjer, vide zapaljene zgrade ili eksplozije, ali se sada objavljuju kao navodni dokazi iranskog odgovora na napade Izraela i SAD.
U ovu kategoriju spadaju i fotografije velikih masa ljudi koje su predstavljene kao pogreb vrhovnog iranskog vođe. Problem je u tome što se zapravo radi o snimcima sahrane lidera Hezbolaha u Libanu početkom 2025. godine.
Jedan takav video je 1. marta 2026. godine objavljen kao snimak sahrane vrhovnog vođe Irana, iako potiče sa događaja iz Libana. Tek nekoliko dana kasnije označen je kao sadržaj koji dovodi javnost u zabludu.
AI generisani snimci – još opasniji talas dezinformacija
Druga i znatno opasnija kategorija su snimci i fotografije generisani pomoću vještačke inteligencije.
Jedna od najdjeljenijih fotografija krajem februara i početkom marta 2026. bila je navodna slika tijela vrhovnog iranskog vođe Alija Hamneija, koje se navodno nalazi pod ruševinama njegove rezidencije bombardovane 28. februara.
🚨IRAN RELEASES IMAGE OF KHAMENEI’S BODY BENEATH RUBBLE
— SilverTrade (@silvertrade)
Fotografija je brzo identifikovana kao lažna, ali je uprkos tome korišćena u mnogim objavama na Fejsbuku i Iksu.
Savremeni modeli generativne veštačke inteligencije, poput alata Nano Banana, mogu da proizvedu dovoljno uvjerljive slike da korisnici, dok brzo pregledaju sadržaj na društvenim mrežama, ne primijete da je riječ o falsifikatu.
Lažni snimci sa milionima pregleda
Jedan od najneobičnijih primjera je video-snimak na kojem roj pčela napada američki nosač aviona.
Ovaj snimak objavljen je na veoma popularnoj Facebook stranici The Military Power Hub, koju prati više od 5 miliona korisnika.
Stranica se predstavlja kao agregator autentičnih snimaka iz vojnih operacija širom svijeta, ali je u stvarnosti većina objavljenih video-materijala lažna.
Uprkos tome, snimak napada pčela prikupio je:
više od 28.000 reakcija
oko 700 komentara
čak 7,2 miliona pregleda samo na toj stranici.
Isti profil objavio je i video u kojem navodno američki bombarder B-2 Spirit uništava čitav grad samo udarnim talasom preleta. I taj snimak je generisan pomoću vještačke inteligencije, ali je napravljen tako da izgleda kao da ga je slučajni prolaznik snimio mobilnim telefonom.
Autori takvih objava često ne tvrde direktno da su snimci povezani sa napadom na Iran. Međutim, algoritmi društvenih mreža lako ih mogu preporučiti korisnicima koji često čitaju o sukobima na Bliskom istoku, prenosi .
A kada korisnici počnu da komentarišu ili dijele takav sadržaj – njegov domet automatski raste, čak i ako komentari ukazuju da je riječ o lažnoj informaciji.
“AI slop” dodatno pojačava problem
Problem dodatno komplikuje fenomen poznat kao “AI slop” – ogromna količina automatski generisanog sadržaja koji preplavljuje internet.
Modeli za generisanje slika i video-snimaka svakog mjeseca postaju sve napredniji, pa je sve teže razlikovati autentičan materijal od falsifikata.
Zbog nedostatka jasnih regulativa i široke dostupnosti ovih alata, u kriznim situacijama – kao što su ratovi, prirodne katastrofe ili velike nesreće – lažni sadržaji brzo popunjavaju informacijski prostor.
Dezinformacije su postojale i prije razvoja vještačke inteligencije, ali su sa njenom pojavom postale mnogo lakše za proizvodnju i širenje.
Kako prepoznati lažne snimke
Stručnjaci navode nekoliko znakova koji mogu pomoći u prepoznavanju AI sadržaja:
AI video-snimci su često previše dobro osvijetljeni i nemaju efekat podrhtavanja kamere
ako fotografija izgleda previše spektakularno da bi bila stvarna, vjerovatno je lažna
na lažnim snimcima pozadina je često loše obrađena, pa se upravo tamo pojavljuju anomalije.
Korisnicima se preporučuje i korišćenje alata Google Lens, koji može pomoći da se provjeri gdje se neka fotografija ranije pojavila na internetu.
Međutim, stručnjaci upozoravaju da nije dobra ideja proveravati autentičnost slika uz pomoć AI četbotova, poput asistenta Grok na mreži Iks. Model koji je razvio Ilon Mask više puta je optuživan da je sam širio netačne informacije.
Saznajte sve o najvažnijim vijestima i događajima, pridružite se našoj Viber zajednici ili čitajte na Google News.