Raziskovalci razkrivajo poenostavljeno, a učinkovito metodo za lovljenje globokih ponaredkov

click fraud protection

Z uničujočim potencialom globokih ponaredkov se z vsakim letom povečuje, zlasti kot znanostV ozadju zorenja tehnik je skupina znanstvenikov prišla do zanesljive metode za prepoznavanje umetno ustvarjenih obrazov z analizo oblike zenice. Deepfakes so ustvarjeni z uporabo generativnega nasprotnega omrežja (GAN), z leti pa je tehnologija postala tako izpopolnjena da je vse težje razločiti pravi človeški obraz od tistega, ki je bil ustvarjen s pomočjo strojnega učenja model. Čeprav obstaja nekaj komercialnih aplikacij te tehnologije, obstaja zlovešča stran, ki je veliko bolj grozljiva in ima resne posledice.

Možnost goljufije in kraje identitete je izjemno velika, vendar je treba pripraviti potrebna regulativna orodja in Okvir avtorskih pravic je že postal nočna mora okoli tehnologije, ki za ustvarjanje uporablja umetno inteligenco vsebine. Lani je Microsoft predstavil orodje z imenom Microsoft Video Authenticator zasnovan za odkrivanje ponarejenih vsebin v videoposnetkih. Pred nekaj meseci je Facebook tudi podrobno opisal

napreden sistem, ki temelji na umetni inteligenci ki ne more samo zaznati globokih ponaredkov, ampak je tudi sposoben izslediti programsko opremo za ustvarjanje globokih ponaredkov, ki je bila uporabljena za ustvarjanje manipuliranih medijev. Vendar pa tehnologija za odkrivanje globokih ponaredkov ni vedno na voljo množicam in je ni mogoče univerzalno izvajati na vseh platformah, kjer uporabniki uživajo medijske vsebine.

Tukaj najnovejše skupne raziskave znanstvenikov z Univerze v Albanyju, Univerze v Buffalu in Keya Medical ponujajo žarek upanja. A raziskovalna naloga naslovljen »Oči povedo vse: nepravilne oblike zenic razkrijejo obraze, ki jih ustvari GAN« opisuje metodo za odkrivanje ponarejenih obrazov s preučevanjem oblike zenice – črnega središča v človeškem očesu. Ključna premisa je, da je človeška zenica okrogle oblike, vendar notranja umetno ustvarjeni obrazigeometrija zenice ni enotna in je običajno popačena. Znanstveniki ugotavljajo, da je nepravilna oblika zenice običajna tudi pri visokokakovostnih globokih ponaredkih in jo zlahka opazimo tudi s prostim očesom. Te nepravilnosti v obliki zenice imenujemo artefakti in so posledica pomanjkanja "fizioloških omejitev" v modelih, ki se uporabljajo za ustvarjanje globokih ponaredkov.

Rešitev, ki čaka na orožje

Znanstveniki so ustvarili tudi avtomatiziran sistem, ki je prejemal slike tisoč resničnih obrazov in jih je ustvaril GAN umetne obraze, da bi preučili, kako je mogoče zgoraj opisani marker uporabiti kot zanesljivo metodo deepfake identifikacijo. Ekipa je zasnovala metriko, imenovano rezultat Boundary Intersection-Over-Union (BIoU), ki temelji na formuli za dodelitev rezultatov glede na obliko zenice na sliki. Pravi človeški obrazi z enakomerno eliptično obliko zenice so dosegli visoke ocene BIoU, ko so prešli skozi model analize, medtem ko so artefakti v zenicah na umetno ustvarjena slika povzročilo nizko oceno BIoU. Raziskava omenja, da je metoda izjemno učinkovita in hkrati poenostavljena.

Toda tu sta dve vprašanji. Ena manjša ovira je, da lahko nekatere bolezni in okužbe spremenijo obliko zenice, kar lahko povzroči neuspeh metode. Vendar so to redki primeri in ne razveljavijo znanost za njimi. Bolj pereča težava je, da se lahko zlonamerne stranke zdaj učijo iz ugotovitev te raziskave – ki je zdaj javno dostopna – in v skladu s tem izboljšajo svoje sisteme GAN. Posledica tega je, da bodo njihovi deepfakes zdaj še bolj prepričljivi z enakomerno oblikovanimi zenicami za zavajanje gledalcev. V svetu, kjer lahko podjetje že ustvarja sintetične različice obraza resnične osebe in jih uporabite v oglasih brez privolitve, možnosti zlorabe s strani slabih akterjev omejuje le človeška domišljija.

vir: arXiv

Vojna zvezd končno razkrije, kako izgleda Darth Plagueis

O avtorju