Istraživači otkrivaju jednostavnu, ali učinkovitu metodu za hvatanje Deepfakesa

click fraud protection

S destruktivnim potencijalom deepfakesa koji se povećava svake godine, posebno kao znanostiza sazrijevanja tehnika, tim znanstvenika osmislio je pouzdanu metodu za prepoznavanje umjetno generiranih lica analizom oblika zjenice. Deepfakes se stvaraju pomoću generativne adversarijske mreže (GAN), a tijekom godina tehnologija je postala toliko sofisticirana da je postalo sve teže razlučiti pravo ljudsko lice od onoga koje je stvoreno pomoću strojnog učenja model. Iako postoje neke komercijalne primjene ove tehnologije, postoji zlokobna strana koja je daleko zastrašujuća, s ozbiljnim posljedicama.

Potencijal prijevare i krađe identiteta je iznimno velik, ali izrada potrebnih regulatornih alata i Okvir za autorska prava već je postao noćna mora oko tehnologije koja koristi AI za stvaranje sadržaj. Prošle godine Microsoft je lansirao alat pod nazivom Microsoft Video Autentifikator dizajniran za otkrivanje deepfake sadržaja u videozapisima. Prije nekoliko mjeseci, Facebook je također detaljno napredni sustav baziran na umjetnoj inteligenciji

koji ne samo da može otkriti deepfake, već je također sposoban pratiti softver za generiranje deepfakea koji je korišten za stvaranje manipuliranih medija. Međutim, tehnologija za otkrivanje deepfakesa nije uvijek dostupna masama i ne može se univerzalno implementirati na svim platformama na kojima korisnici konzumiraju medijski sadržaj.

Ovdje najnovije zajedničko istraživanje znanstvenika sa Sveučilišta Albany, Sveučilišta u Buffalu i Keya Medical nudi tračak nade. A znanstveni rad naslovljen “Oči govore sve: nepravilni oblici zjenica otkrivaju lica nastala od GAN-a” opisuje metodu za otkrivanje lažnih lica proučavanjem oblika zjenice - crnog centra u ljudskom oku. Ključna premisa je da je ljudska zjenica okruglog oblika, ali unutra umjetno stvorena licageometrija zjenice nije ujednačena i obično je iskrivljena. Znanstvenici primjećuju da je nepravilan oblik zjenica uobičajen čak i kod visokokvalitetnih deepfakesa i lako je uočljiv čak i golim okom. Ove nepravilnosti u obliku zjenica nazivaju se artefaktima i uzrokovane su nedostatkom 'fizioloških ograničenja' u modelima koji se koriste za stvaranje deepfakesa.

Rješenje koje čeka da bude naoružano

Znanstvenici su također stvorili automatizirani sustav koji je dobivao slike tisuću stvarnih lica i kreirao GAN umjetna lica kako bi proučili kako se gore opisani marker može koristiti kao pouzdana metoda deepfakea identifikacija. Tim je osmislio metriku pod nazivom Boundary Intersection-Over-Union (BIoU) rezultat na temelju formule za dodjelu bodova prema obliku zjenice na slici. Prava ljudska lica s ujednačeno eliptičnim oblikom zjenica postigla su visoke BIoU rezultate kada su prošla kroz model analize, dok su artefakti u zjenicama na umjetno stvorena slika rezultiralo niskim BIoU rezultatom. U istraživanju se navodi kako je metoda iznimno učinkovita i ujedno pojednostavljena.

Ali ovdje postoje dva problema. Jedna manja prepreka je da neke bolesti i infekcije mogu promijeniti oblik zjenice, što može rezultirati neuspjehom metode. Međutim, to su rijetki slučajevi i ne poništavaju znanost iza njih. Još gorući problem je to što zlonamjerne strane sada mogu učiti iz nalaza ovog istraživanja – koje je sada javno – i u skladu s tim usavršiti svoje GAN sustave. Rezultat je da će njihovi deepfakes sada biti još uvjerljiviji s ravnomjerno oblikovanim zjenicama kako bi zavarali gledatelje. U svijetu u kojem tvrtka već može stvoriti sintetičke verzije lica stvarne osobe i koristiti ih u oglasima bez pristanka, izgledi za zlouporabu od strane loših glumaca ograničeni su samo ljudskom maštom.

Izvor: arXiv

Ratovi zvijezda konačno otkrivaju kako Darth Plagueis izgleda

O autoru