Facebook hevder at AI er raskere enn forgjengeren til å fange dårlig innhold

click fraud protection

Facebook har røpet detaljer om det nye modereringssystemet for kunstig intelligens (AI) og hevder at det er enda bedre til å avdekke dårlige innlegg enn den forrige iterasjonen. Det sosiale nettverket har lenge møtt utfordringer med å kontrollere innhold på plattformen sin, en situasjon som bare forverres av størrelsen på brukerbasen og det store antallet språk det støtter. Jo flere som blir med på Facebook, jo flere den må overvåke hva de sier, og de kontrasterende tungene som de sier det med.

Gjennom årene har det Meta-eide firmaet måttet takle alt fra hevnporno og feilinformasjon om COVID-19 til valginnblanding og folkemord i Myanmar. Men akkurat som hvert problem er forskjellig, er det ofte ferdighetene som trengs for å identifisere og fjerne tilknyttet innhold. For det er selskapet avhengig av en hær av menneskelige moderatorer hvis jobb det er å sile gjennom rapporter om potensielt støtende innlegg. Likevel, for en operasjon av Facebooks størrelse, er det vanskelig å rekruttere nok folk til å gjøre en slik jobb, og derfor er det avhengig av AI-verktøy for å tjene som et frontlinjeforsvar. Disse programmene er trent på en mengde eksempeldata (bilder, videoer, tekst), slik at maskinen effektivt kan lære hva som utgjør dårlig innhold, slik at det deretter kan fjernes.

Facebook har introdusert et nytt AI-system kalt Few-Shot Learner, som det sier er mer effektivt til å avdekke urovekkende materiale. Som Kablet bemerker, den Menlo Park-baserte sosiale plattformen hevder Few-Shot Learner kan jobbe med et mindre treningssett, slik at den kan ta tak i krenkende innhold på bare seks uker, ned fra det forrige området på seks måneder. Facebook sier det først introduserte Few-Shot Learner tidligere i år, og at det allerede kan håndtere det innlegg som oppfordrer andre til ikke å få covid-19-vaksinasjoner, en regel som trådte i kraft i September.

Bedre regeltolkning

Cornelia Carapcea, en Facebook AI-produktsjef, sier at det ikke bare er muligheten til å jobbe med mindre treningssett som gjør Few-Shot Learner så nyttig, det er at den også bedre kan tolke plattformens brukervilkår. Vanligvis må menneskelige moderatorer kryssreferanser til en håndbok som dekker tusenvis av regler og som stadig blir finjustert for å dekke flere og flere kantsaker. Det var delvis på grunn av dette kompleksitetsnivået at Facebook introduserte en Tilsynsstyret å overvåke reglene den håndhever. Carapcea hevder at Few-Shot Learner bedre kan identifisere brudd ved kun å bruke brede meldinger.

Likevel, til tross for alt løftet, har Facebooks evne til å moderere innhold på tvers av ikke-engelsktalende kulturer ofte vært et sentralt kritikkpunkt. Tidlig på høsten 2021, en tidligere Facebook ansatt lekket dokumenter relatert til intern forskning og fremhevet dens globale tilsynssvakheter for amerikanske og britiske lovgivere. Nå prøver det sosiale nettverket å ta tak i disse angrepene ved å avsløre at Few-Shot Learner fungerer på 100 språk. Det er fortsatt langt under de hundrevis som brukes på plattformen, men det er et tegn på at selskapet er i en bedre posisjon enn det var. Hvis firmaet kan fortsette å iterere på verktøyet, kan det være en måte å reparere det på skadet omdømme.

Kilde: Kablet

The Batman: WB Deciding Between Two Cuts Of Movie

Om forfatteren