Lažne eksplozije, lažne rakete, lažne trupe: Videozapisi i slike rata u Iranu kreirane umjetnom inteligencijom šire se društvenim mrežama
Nakon što je Rusija izvršila invaziju na Ukrajinu 2022. godine, društvene mreže su bile preplavljene lažnim materijalima koji su predstavljeni kao svježe slike rata, ali su bili ili fotošopirani lažni materijali ili pogrešno označeni isječci preuzeti iz videoigara, filmova, prošlih incidenata i nepovezanih vijesti.
Te vrste staromodnih lažnih ideja ponovo se šire tokom rata protiv Irana. Ovaj put im se pridružio oblik obmane koji nije bio lako dostupan 2022. godine: visokokvalitetni videozapisi i fotografije koje su prilagođeno kreirane pomoću jednostavnih alata umjetne inteligencije.
"Ono što se promijenilo u posljednjih godinu dana jeste da je generativna umjetna inteligencija postala mnogo dostupnija", rekao je , viši novinar BBC Verifyja, istaknuti razotkrivač lažnih informacija povezanih s ratom, "i sada je moguće kreirati vrlo uvjerljive videozapise i slike koji prikazuju značajan ratni incident koji je teško uočiti neobučenom ili golom oku".
Lažni videozapisi i slike koje su stručnjaci poput Sardarizadeha identificirali kao one koje je stvorila umjetna inteligencija prikupili su desetine miliona pregleda na platformama društvenih medija u gotovo dvije sedmice od početka rata u Iranu.
Još jedan tvrdi da prikazuje isječke sa sigurnosnih kamera koje snimaju dizanje u zrak iranskih vojnih objekata; tri isječka , dok je jedan stvaran, ali iz prošle godine. Još lažni video prikazuje zamišljeni konvoj američkih trupa na terenu u Iranu. izgleda kao snimak oborenog američkog aviona koji paradira kroz Teheran, piše CNN u tekstu koji problematizira ovu sve češću pojavu.
Lažne fotografije koje izgledaju kao da ih je kreirala vještačka inteligencija, s druge strane, tvrde da prikazuju i kako gori nakon iranskih napada; iranskog vrhovnog vođu Alija Hamneija ; i . Publikacija povezana s iranskom vladom čak koja navodno prikazuje štetu na američkoj vojnoj bazi u Bahreinu.
A to je samo mali uzorak lažnih informacija povezanih s Iranom koje su u opticaju.
Bolje laži, manje moderacije
Farid je primijetio da su se kompanije društvenih medija okrenule od agresivnog moderiranja sadržaja na svojim platformama.
"Sadržaj je realističniji, volumen je veći, prodiranje je dublje - ovo je naša nova stvarnost. I zaista je neuredna", rekao je Farid.
Platforma društvenih medija X je prošle sedmice objavila da poduzima određene mjere za borbu protiv lažnih verzija sadržaja koje je koristila umjetna inteligencija tokom rata. Šef proizvoda Nikita Bier je da će korisnici koji " sadržaja širiti videozapise oružanih sukoba generirane umjetnom inteligencijom bez otkrivanja da su videozapisi napravljeni pomoću umjetne inteligencije, biti suspendovani iz programa plaćanja na 90 dana, a zatim trajno suspendovani ako počine dodatne prekršaje.
Čak i ako se ova politika strogo provodi - Farid je rekao da je skeptičan - ogromna većina X korisnika nije dio programa plaćanja kreatorima. (Objave drugih korisnika i dalje su predmet provjere činjenica putem "bilješki zajednice" putem crowdsourcinga, ali to ima neujednačenu evidenciju.) Kompanije društvenih medija , koja posjeduje , nisu odgovorile na zahtjeve CNN-a za komentar o širenju lažnih informacija vezanih za rat.
Kako izbjeći da budete prevareni
Jednostavno rečeno, danas je teško razlikovati pravo od lažnog. Farid je rekao da brzo poboljšanje kvalitete AI kreacija znači da savjeti od prije čak i nekoliko mjeseci o tome kako prepoznati AI lažne radove danas nisu korisni. Na primjer, nekada je bilo korisno provjeriti da li osoba na slici ima dodatne prste ili pogrešno postavljene udove; ljudi predstavljeni u trenutnom AI sadržaju obično su oslobođeni takvih komičnih grešaka.
Farid je rekao da je najbolji način da ostanete tačno informisani da odaberete da dobijate vijesti od vjerodostojnih novinarskih izvora umjesto da pregledate objave sa "slučajnih naloga" na društvenim mrežama. "U trenucima globalnog sukoba", rekao je, "ovo nije mjesto za dobijanje informacija".
Za one od nas koji ne mogu izbjeći često pregledanje sadržaja, mudro je da zastanu i barem nekoliko sekundi pretraže internet prije nego što povjeruju ili podijele senzacionalan video ili sliku iz rata.
Da li vam se išta čini čudnim u vezi s tim - zvuk nije sinhronizovan sa videom, vizuelne karakteristike ne odgovaraju stvarnom svijetu? Vještačka inteligencija postaje sve bolja i bolja, ali je i dalje nesavršena. A neke kreacije umjetne inteligencije i dalje imaju vodene žigove koji identificiraju softver koji ih je napravio.
Da li je neki poznati razotkrivač poput Sardarizadeha, medijska kuća koja provjerava činjenice ili stručnjak za određenu oblast osporavao istinitost videa ili slike? Ako je lažan, neki profesionalac je često to istakao prije nego što stigne do vašeg feeda.
Da li postoje ljudi koji izražavaju skepticizam u odgovorima na objavu ili bilješkama zajednice korisnika X? Prosječni korisnici mogu obmanjivati, ali mogu i postavljati dobra pitanja.
A šta kažu besplatni alati za detekciju umjetne inteligencije? Daleko su od savršenih, ali i oni ponekad mogu pomoći.
Sardarizadeh je rekao da bismo trebali "trenirati oči" da što bolje prepoznaju materijal koji generira umjetna inteligencija. Ali je također rekao: "Postaje izuzetno teško otkriti sadržaj generiran umjetnom inteligencijom, a čini se da putanja ide u smjeru da to uskoro postane još teže".