Kako je naučnica bh. porijekla izmislila bolest i ponizila vještačku inteligenciju: Nasjeli i Gemini i ChatGPT
Bole vas i svrbe oči pa ih trljate, a i kapci su vam dobili blago ružičastu nijansu... Ako ste, zabrinuti zbog stanja svojih očiju u posljednjih 18 mjeseci, o ovome priupitali ChatGPT ili Gemini, možda ste dobili neobičan odgovor: bixonimania, bolest izazvana plavom svjetlošću kompjuterskih ekrana i zaslona mobitela.
Ali, u realnosti takva bolest ne postoji niti je opisana u medicinskoj literaturi, nego su je švedski naučnici pod vodstvom Almire Osmanović Thunström sa Univerziteta u Göteborgu izmislili kao dio eksperimenta kojim su željeli utvrditi kako sistemi umjetne inteligencije šire medicinske dezinformacije, piše Jutarnji list.
- Počelo je kao eksperiment kako bi se studentima pokazalo kako se grade veliki jezični modeli (LLM) i kako se njima može manipulisati. Moj rad usmjeren je na brzo hakiranje i sigurnosno testiranje, a ovo je bio praktičan način da se pokaže kako sistemi unose i reproduciraju informacije iz otvorenih izvora, čak i kada su te informacije obmanjujuće ili potpuno izmišljene - rekla je za Jutarnji list Almira Osmanović Thunström.
Kako je objavio Nature, koji je nedavno prvi izvijestio o njezinom eksperimentu, bixonimania nije postojala prije 15. marta 2024. godine, kada su se na web portalu Medium o tom medicinskom stanju pojavile dvije objave na blogu. Zatim su se 26. aprila i 6. maja 2024. godine na akademskoj društvenoj mreži SciProfiles pojavila dva preprinta (radovi koji nisu prošli naučnu recenziju) o bixonimaniji.
Nešto nakon što je Almira Osmanović Thunström prvi put objavila informacije o lažnoj bolesti, bixonimania se počela pojavljivati u rezultatima najčešće korištenih LLM chatbotova. Naprimjer, 13. aprila 2024. godine Gemini je obavještavao korisnike da je "bixonimania stanje uzrokovano pretjeranom izloženošću plavom svjetlu" i savjetovao ljudima da posjete oftalmologa. Zatim je 27. aprila 2024. Perplexity naveo da bixonimania pogađa jednu od 90.000 osoba, a ubrzo je i ChatGPT odgovarao korisnicima na pitanja o bixonimaniji.
Je li zabrinjavajuće što su rašireni AI modeli počeli ponavljati izmišljeno stanje kao da je stvarno, iz Jutarnjeg su upitali svoju sagovornicu.
- I da i ne. Ovi sistemi nisu dizajnirani za kritičko razmišljanje, mi jesmo. U ovom slučaju, navedeni izvori nisu bili vjerodostojni, a pažljivi čitaoc je to trebao primijetiti. Međutim, zabrinjavajuće je da se preprinti i izvori niske kvalitete ponekad mogu tretirati kao legitimni. To može zavarati korisnike koji pretpostavljaju da sistem može pouzdano procijeniti naučnu vjerodostojnost. Iako su se LLM-ovi značajno poboljšali u protekloj godini, još uvijek je moguće uvesti lažne informacije oponašajući autoritativne izvore. To je i dalje realna briga - smatra Almira Osmanović Thunström.
Autor dva rada - Lazljiv Izgubljenović
Zanimljivo je da je kao glavni autor dva rada o bixonimaniji naveden Lazljiv Izgubljenović, čija je fotografija generirana umjetnom inteligencijom.
Izgubljenović radi na nepostojećem univerzitetu pod nazivom Asteria Horizon University u lažnom gradu Nova Cityju u Kaliforniji. U jednom od dva rada Izgubljenović zahvaljuje "profesorici Mariji Bohm sa Starfleet Academy na njezinoj ljubaznosti i velikodušnosti u doprinosu svojim znanjem i laboratorijem na USS Enterpriseu".
Oba rada navode da ih je finansiralo "Udruženje profesora Sideshowa Boba" (lik iz ‘Simpsona‘, op.a.), za njihov rad na području naprednih trikova. Ovaj rad dio je veće inicijative finansiranja univerziteta Družina prstena i Galaktička trijada." Iako sve navedeno zvuči groteskno i ozbiljan bi se naučnik zamislio nad vjerodostojnošću radova, lažne studije nepostojećeg naučnika Lazljivog Izgubljenovića citirane su u časopisima koji imaju "peer review", odnosno naučnu recenziju.
- To je bio dio eksperimenta koji je najviše razotkrio. Već znamo da AI sistemi mogu apsorbirati i ponavljati informacije koje se samo čine vjerodostojnima. Ali oni su alati, odgovornost u konačnici leži na ljudima da provjere izvore. Činjenica da su ovi izmišljeni radovi citirani u recenziranim časopisima pokazuje slom tog ljudskog nadzora. Sam naziv je namjerno konstruiran da bi izazvao sumnju, posebno među stručnjacima. Činjenica da to nije učinjeno znak je koliko smo se počeli oslanjati na automatizaciju bez dovoljnog nadzora - naglasila je Almira Osmanović Thunström.
Almira je rođena u Banjoj Luci, ali je odrasla u Švedskoj, pa joj je švedski kao materinji jezik i, kako kaže, "nisam baš dobra u balkanskim jezicima".
- Imam iskustvo u medicinskoj nauci, s fokusom na neuroznanost i istraživanje biomarkera. Tokom proteklih sedam godina prešla sam na nove tehnologije, gdje dizajniram, implementiram i evaluiram sisteme umjetne inteligencije u zdravstvu. Istražujem umjetnu inteligenciju u ovom području već više od decenije, tako da sam vidjela i rane cikluse pompe i noviji napredak - rekla je Almira Osmanović Thunström.
Na pitanje koji je glavni zaključak njezinog eksperimenta s izmišljenom bolešću kaže: "Uvijek provjerite svoje izvore i, naravno, pročitajte originalni materijal".
(DEPO PORTAL/ad)