Facebook väidab, et selle tehisintellekt on halva sisu püüdmisel kiirem kui eelkäija

click fraud protection

Facebook on avalikustanud oma uue tehisintellekti (AI) modereerimissüsteemi üksikasjad ja väidab, et see on halbade postituste avastamisel veelgi parem kui eelmine iteratsioon. Sotsiaalne võrgustik on oma platvormil sisu kontrollimisel pikka aega silmitsi seisnud väljakutsetega – olukorda on veelgi teravdanud selle kasutajabaasi suurus ja toetatavate keelte hulk. Mida rohkem inimesi Facebookiga liitub, seda rohkem see peab jälgima, mida nad ütlevad, ja kontrastsed keeled, millega nad seda räägivad.

Aastate jooksul on Meta omanduses olev ettevõte pidanud tegelema kõigega alates kättemaksuporno ja COVID-19 valeinformatsioon valimistesse sekkumise ja genotsiidi kohta Myanmaris. Kuid nagu iga probleem on erinev, on sageli vaja ka seotud sisu tuvastamiseks ja eemaldamiseks vajalikke oskusi. Selleks toetub ettevõte inimmoderaatorite armeele, kelle ülesanne on sõeluda läbi potentsiaalselt solvavate postituste teated. Sellegipoolest on Facebooki suuruse ettevõtte jaoks raske sellise töö tegemiseks piisavalt inimesi värbada ja seetõttu tugineb see tehisintellekti tööriistadele, mis toimivad eesliini kaitsena. Need programmid on koolitatud paljude näidisandmete (pildid, videod, tekst) põhjal, mis võimaldab masinal tõhusalt õppida, mis on halb sisu, et see seejärel eemaldada.

Facebook tutvustas uut tehisintellektisüsteemi nimega Few-Shot Learner, mis on tema sõnul tõhusam murettekitava materjali paljastamisel. Nagu Ühendatud märgib, et Menlo Parkil põhinev sotsiaalne platvorm väidab, et Few-Shot Learner saab töötada väiksema treeningkomplektiga, võimaldades tal rikkuva sisuga hakkama saada vaid kuue nädalaga, võrreldes varasema kuue nädalaga kuud. Facebook ütleb, et tutvustas esimest korda Few-Shot Learnerit selle aasta alguses ja saab sellega juba hakkama postitused, mis julgustavad teisi COVID-19 vastu vaktsineerimata jätma – reegel, mis jõustus aastal septembril.

Parem reeglite tõlgendamine

Facebooki AI tootejuht Cornelia Carapcea ütleb, et see ei tähenda ainult võimalust töötada väiksemate koolituskomplektid, mis muudavad Few-Shot Learneri nii kasulikuks, et see suudab ka paremini tõlgendada platvormi kasutajatingimused. Tavaliselt peavad inimmoderaatorid viitama käsiraamatule, mis hõlmab tuhandeid reegleid ja mida pidevalt muudetakse, et hõlmata üha uusi ja rohkemaid juhtumeid. Osaliselt selle keerukuse taseme tõttu tutvustas Facebook Järelevalvenõukogu et jälgida selle jõustatud eeskirju. Carapcea väidab, et Few-Shot Learner suudab rikkumisi paremini tuvastada, kasutades ainult üldisi viipasid.

Vaatamata kõigile lubadustele on Facebooki võime modereerida sisu mitte-ingliskeelsetes kultuurides sageli olnud kriitika põhipunkt. 2021. aasta sügise alguses a endine Facebook töötaja lekitas dokumendid seoses siseuuringutega ja tõi USA ja Ühendkuningriigi seadusandjatele esile selle ülemaailmse järelevalve nõrkused. Nüüd püüab sotsiaalne võrgustik nende rünnakutega toime tulla, paljastades, et Few-Shot Learner töötab 100 keeles. See on platvormil kasutatud sadadest ikka veel kaugel, kuid see on märk sellest, et ettevõte on paremas olukorras kui see oli. Kui ettevõte suudab jätkata tööriista kasutamist, võib see kuidagi seda parandada kahjustatud maine.

Allikas: Ühendatud

Batman: WB otsustab kahe filmilõike vahel

Autori kohta