Naučnica porijeklom iz Banjaluke izmislila bolest: Dokazala ranjivost i nedostatke AI
Biksonimanija je uobičajeno stanje od kojeg vjerovatno patite ako imate bolne, crvene oči i ako ste bili previše izloženi plavom svjetlu s ekrana. Ali evo jedne zanimljive činjenice – biksonimanija nije stvarna.
Počevši od početka 2024. godine, naučnici su počeli puniti internet lažnim studijama o lažnoj bolesti kako bi vidjeli kako će vještačka inteligencija protumačiti dezinformacije i hoće li ih širiti kao ugledne zdravstvene savjete.
Naučnica Almira iz Banjaluke
Almira Osmanović Tunstrom, medicinska naučnica, istraživačica na Univerzitetu u Geteborgu u Švedskoj, vodila je eksperiment. Ona je rođena Banjaluci, ali je odrasla u Švedskoj, ima iskustvo u medicinskoj nauci, s fokusom na neuronauku i istraživanje biomarkera. Ona i njen tim stvorili su lažno stanje kože, a zatim su početkom 2024. prenijeli dvije lažne studije o njemu da posluži za preprint.
“Htjela sam vidjeti mogu li stvoriti medicinsko stanje koje nije postojalo u bazi podataka”, rekla je Osmanović Tunstrom.
Uspjelo je. U roku od nekoliko sedmica glavni univerziteti s LLM-om (LLM /Veliki jezički model/ je napredna vještačka inteligencija (AI) trenirana na ogromnim količinama podataka, dizajnirana za razumijevanje, obradu i generisanje teksta sličnog ljudskom) počeli su nuditi stanje kao dijagnozu onima koji su tražili svoje simptome. Microsoft Copilot je izjavio da biksonimanija “još nije široko priznata medicinska dijagnoza, ali nekoliko novih radova i izvještaja o slučajevima raspravlja o njoj kao o benignom, pogrešno dijagnostikovanom stanju povezanom s dugotrajnom izloženošću izvorima plavog svjetla poput ekrana”. Dok je ChatGPT rekao da je “biksonimanija predloženi novi podtip periorbitalne melanoze (tamni krugovi oko očiju) za koji se smatra da je povezan s izloženošću plavom svjetlu s digitalnih ekrana”.
Problem su lažni radovi i njihovi citati
Kris Stokel-Voker izvijestio je o tome za “Nature” i razgovarao s portparolom OpenAI-a koji je rekao da su “modeli koji pokreću današnju verziju ChatGPT-a znatno bolji u pružanju sigurnih, tačnih medicinskih informacija, a studije sprovedene prije GPT-5 odražavaju mogućnosti s kojima se korisnici danas ne bi susreli”.
Veći problem je što su lažni radovi sada citirani u recenziranoj literaturi. Osmanović Tunstrom rekla je Stokel-Vokeru da to sugeriše da su se istraživači “oslanjali na reference generisane vještačkom inteligencijom bez čitanja temeljnih radova”.
Kako je prevara funkcionisala?
Osmanović Tunstrom nazvala je stanje biksonimanijom jer je “zvučalo smiješno… Željela sam da svakom ljekaru ili medicinskom osoblju bude potpuno jasno da je ovo izmišljeno stanje, jer se nijedno očno stanje ne bi nazvalo manijom – to je psihijatrijski izraz.”
Postojale su i desetine tekstova osmišljenih kako bi čitateljima dali do znanja da je stanje izmišljeno. Vodeći istraživač, Lazljiv Izgubljenović, lažno je ime i radi na lažnom univerzitetu, Univerzitet Asteria Horizon, u lažnom gradu Nova Sitiju u Kaliforniji. U zahvalnici jednog rada zahvalila se “profesorici Mariji Bom s Akademije Zvjezdane flote na njenoj ljubaznosti i velikodušnosti u doprinosu svojim znanjem i svojim laboratorijem na USS Enterpriseu”. Oba rada navode da ih je finansirala “Fondacija profesora Sajdšou Boba za njihov rad na području naprednih trikova. Ovaj rad dio je veće inicijative finansiranja Univerziteta Družina prstena i Galaktička trijada.”
Ali ako čitatelji nisu ni stigli tako daleko, mogli su shvatiti da je lažno iz otvorenih izjava u uvodu poput “cijeli ovaj rad je izmišljen” i “pedeset izmišljenih osoba starosti između 20 i 50 godina regrutovano je za grupu izloženosti”.
Koje su implikacije projekta “Bioksonimanija”?
Od objave Stokel-Vokerovog članka 7. aprila 2026. nekoliko AI sistema počelo je generisati ispravljene rezultate. Prije su se LLM-ovi oslanjali na četiri glavna izvora informacija: dva bloga od 15. marta 2024. na Mediumu i dva preprinta od 26. aprila i 6. maja iste godine na SciProfilesu, prenosi “INC”.
Ali uticaj eksperimenta ostaje.
Ova studija nije stvorena samo da bude šala. Cilj Osmanović Tunstrom bio je identifikovati ozbiljan, temeljni problem s rastućom zavisnošću društva od AI.
“Ako su sam naučni proces i sistemi koji podržavaju taj proces vješti i ne hvataju i ne filtriraju dijelove poput ovih, osuđeni smo na propast”, rekao je Aleks Ruani, doktorski istraživač zdravstvenih dezinformacija na Univerzitetu Koledž London. “Ovo je majstorska klasa o tome kako funkcionišu dezinformacije i laži.”
Tehnologija vještačke inteligencije napreduje prebrzo da bi istraživači stvorili zaštitne mjere i protokole testiranja. Mahmud Omar, ljekar i istraživač specijalizovan za primjenu vještačke inteligencije u zdravstvu na Medicinskom fakultetu Harvard u Bostonu, Masačusets, rekao je da je brzina pojavljivanja novih modela na tržištu otežala postizanje “konsenzusa ili metodologije za automatsko testiranje svakog modela”.
Osmanović Tunstrom nije prva koja je testirala šta će vještačka inteligencija proizvesti hranjenjem lažnim akademskim informacijama. Elisabet Bik, nizozemska mikrobiologinja i konsultantkinja za naučni integritet, rekla je da su istraživači čak stvorili lažne knjige i radove kako bi povećali broj citata na Google Scholaru. Veća je zabrinutost što se lažne informacije unose u modele vještačke inteligencije, koji zatim reprodukuju neistine i sve više udaljavaju korisnike od stvarnosti.
Naučnici i etičari trenutno rade prekovremeno kako bi shvatili šta tačno učiniti s tim rezultatima. Zabrinjavajuće je da naučne tvrdnje iz sumnjivih književnih izvora prolaze kroz LLM bez ikakvih zaštitnika.
“Moramo zaštititi svoje povjerenje kao zlato”, rekla je Ruanijeva. “Trenutno je haos.”
Izvor: Nezavisne