- Hronika
- Kolumne
-
Radio
- Izdvajamo
-
Emisije
- Dokumentarni program
- Pop top
- Europuls
- Zrno po zrno
- Radio ordinacija
- Kulturna panorama
- Zelena priča
- Epoleta
- +382
- Spona
- Svijet jednakih šansi
- Matica
- Život po mjeri čovjeka
- Link
- Izokrenuti svijet
- Koracima mladih
- Moja profesija je...
- Sportski program
- Kulturno-umjetnički program
- Muzički program
- Koracima prošlosti
- Naučno-obrazovni program
- RCG
- R98
- Programska šema
- Trofej Radija Crne Gore
- Frekvencije
- Radio drama
Društvo
11. 08. 2025.
07:15 >> 07:15
Kako da razlikujete stvarni sadržaj od vještačkog? Prsti, oči i sjenke otkrivaju detalje
Najlakši način da razlikujemo stvarni sadržaj od onog koji je napravila vještačka inteligencija jeste da obratimo pažnju na detalje koje AI još uvijek nije savldala. Na fotografijama i video snimcima važno je da obratimo pažnju na ruke, prste ili oči. Jer, AI često stvara nepravilnosti poput viška prstiju, asimetričnih lica ili neprirodnih pokreta očiju. Osvjetljenje i sjenke su još jedan znak upozorenja – često su nepravilni ili potpuno nelogični, objasnio je za Portal RTCG, stručnjak za informacionu bezbjednost, Branko Džakula.
Sve je više video-snimaka i fotografija na društvenim mrežama koje izgledaju kao da su snimljene u stvarnosti, a zapravo ih je kreirala vještačka inteligencija. I dok neke lako prepoznajemo kao vještačke, druge su toliko uvjerljive da zbunjuju korisnike.
Kao dodatni korak, u razlikovanju realnog sadržaja od onog koje je napravila AI inteligencija, stručnjak za informacionu bezbjednost, Branko Džakula za Portal RTCG, kaže da se može koristiti reverse image search alate poput Google Images ili TinEye, koji nam mogu pomoći da provjerimo porijeklo sadržaja.
“Neophodno je provjeriti profil korisnika koji dijeli sadržaj. Ako je nov ili bez drugih objava, budite oprezni”, ukazuje Džakula.
Takođe, kako navodi, na društvenim mrežavam poput Instagrama, postoji i labela koja naglašava da li je fotografija ili video koji su postavljeni generisan od strane AI tehnologije.
Neke platforme, poput Instagrama, već uvode oznake koje ukazuju na to da je sadržaj generisan AI-em, ali to još uvijek nije obavezno i lako se može zaobići, kaže Džakula.
Savjetuje da u video sadržajima treba posmatrati neujednačene pokrete, poput neusklađenosti usana sa zvukom, i uvijek se osloniti na više pouzdanih izvora da bi se potvrdila autentičnost sadržaja.
Savjetuje da kod video sadržaja, korisnici posmatraju da li su pokreti usana usklađeni sa zvukom, kao i da li su pokreti tijela neprirodni. Ističe da je uvijek preporučljivo da provjerimo informacije kod više pouzdanih izvora prije nego povjerujemo u ono što vidimo.
On poručuje da su, za sada, ovi pristupi jednostavni i ne zahtjevaju naprednu tehnologiju, ali da korisnici imaju na umu da će do sljedeće godine razlike biti još manje vidljive, te da bi redovna edukacija pomogla da ostanete korak ispred.
Kako da se zaštitimo od dezinformacija koje AI može da proizvede?
U moru dezinformacija koje Ai može proizvesti za korisnike društvenih mreža, Džakula kaže da od velikog značaja može biti kombinacija lične opreznosti i šireg sistemskog pristupa, jer, kako je naveo, AI može masovno generisati lažne informacije koje utiču na izbore, društvene nemire ili čak lične prevare.
“Počnite sa time da budete skeptični prema svemu što vidite: ako sadržaj izaziva jake emocije ili se čini previše polarizujućim, pauzirajte i provjerite ga na više nezavisnih izvora, poput renomiranih medija ili zvaničnih institucija”, ističe Džakula.
On savjetuje da se ne dijeli ništa prije verifikacije, i da se koristi fact-checking platforme da brzo potvrdite tačnost.
Ukazuje na to da je edukacija u tom slučaju presudna.
“Upoznajte se sa načinom rada AI alata kroz online resurse, i uvijek se pitajte ko bi mogao profitirati od takvog sadržaja”, savjetuje Džakula i dodaje da je važno podržati regulaciju poput onih u EU, koje zahtijevaju označavanje AI sadržaja.
“Budite svjesni da AI može i pomoći u borbi protiv sebe, kroz algoritme koji otkrivaju i uklanjaju dezinformacije prije nego što se prošire”, kaže Džakula.
Koji nam alati mogu moći?ili platforme nam mogu pomoći u otkrivanju lažnog sadržaja?
U otkrivanju lažnog sadržaja mogu nam pomoći dostupni brojni alati.
"Najbrža metoda koja nam može pomoći u otkrivanju lažnog sadržaja jeste da, jednostavno pitatamo AI generator sa omogućenom online pretragom poput Perplexity, Grok, ChatGPT, da verifikuju autentičnost neke objave ili istraže da li je već neko dokazao da se radi o dezinformaciji", ukazuje Džakula.
U većini slučajeva, ističe da korisnik dobija brz i pouzdan odgovor i spisak resursa za dodatnu provjeru.
Međutim, kako je naveo, postoje brojni stručni alati i platforme koji pomažu u otkrivanju lažnog sadržaja.
“Na primjer, alati poput Winston AI ili Pangram Labs nude visoku tačnost u detekciji AI-generisanog teksta, slika i videoa, sa podrškom za više jezika i procentima detekcije preko 99%”, kaže Džakula.
Takođe, mogu biti od pomoći i besplatne opcije poput ZeroGPT ili QuillBot's AI Content Detector koji omogućavaju brzu provjeru, dok, kako je rekao, napredniji poput SynthID Detectora od Googlea, koji je lansiran ove godine, brzo identifikuju sadržaj generisan Googleovim AI modelima.
“Za slike, alati kao što su BrandWell ili AI Or Not koriste napredne algoritme da brzo kažu da li je nešto AI-generisano, a za video i audio, Reality Defender ili Sentinel nude real-time analizu koja je korisna za novinare”, kaže Džakula.
Osim toga, kako je naveo, platforme poput Factiverse ili Detect Fakes iz MIT-a ne samo da detektuju, već i edukuraju korisnike kroz interaktivne testove.
Коментари0
Остави коментар