Klubbhus jobber med funksjonen "Rapporter rom", men vil det løse moderasjonsproblemer

click fraud protection

Klubbhus jobber med en ny sikkerhetsfunksjon som vil tillate brukere å rapportere et rom hvis det oppførte emnet er i strid med fellesskapets retningslinjer. Plattformen har allerede et sett med regler på plass som råder brukere til å avstå fra samtaler som er hatefulle, diskriminerende og krenkende. For å håndheve dem har Clubhouse laget en rekke brukervendte løsninger, som f.eks muligheten til å dempe, blokker eller spark ut skurkere fra en pågående lydøkt.

Brukere kan allerede rapportere et publikumsmedlem i sanntid som samtalen fortsetter. I tillegg er det også en mulighet til å rapportere en tidligere hendelse etter at rommet er avsluttet. Situasjonen blir imidlertid vanskeligere hvis et rom utelukkende er opprettet med det formål å spre feilinformasjon eller hatefullt innhold, og er befolket med likesinnede som neppe rapporterer noen deltaker for brudd på reglene. Hvis det rommet tilfeldigvis er privat, er sjansene for å oppdage og rapportere de usunne klubbhussamtalene enda lavere.

I løpet av de siste månedene har flere hendelser med klubbhuschatter diskutert covid-19-konspirasjoner og antisemitikk diskurs har blitt rapportert, noe som har fått digitale aktivister til å kreve mer robuste funksjoner for å rapportere slike rom og samtaler. Det ser nå ut til at en løsning kan være i arbeid. Jane Manchun Wong nylig delte skjermbilder av en funksjon under utvikling i klubbhuset som lar brukere rapportere et rom hvis emnet som er oppført for det virker støtende. Basert på skjermbildene vil Clubhouse-brukere snart ha to handlingsalternativer hvis de kommer over et problematisk rom – skjul eller rapporter. Hvis brukere velger å rapportere et rom, vil de bli bedt om å spesifisere årsaken, som kan være alt fra trakassering og voldsoppfordring til hatefulle ytringer.

Klubbhuset jobber med muligheten til å rapportere rom
Til slutt!! pic.twitter.com/wE8VJ3oNDp

— Jane Manchun Wong (@wongmjane) 13. juli 2021

En velkommen forandring, men er det nok?

På overflaten ser muligheten til å rapportere rom ut til å være et meningsfullt tillegg, og hvis det håndteres godt, kan det langt på vei holde plattformen trygg fra innholdsproblemene som har hjemsøkte slike som Facebook og Twitter. Men i tilfelle navnet på et rom ikke er en indikasjon på dets sanne formål, vil den kommende funksjonen sannsynligvis bli nesten ubrukelig. Videre kommer ikke muligheten til å rapportere rom til å løse alle problemer med moderering av klubbhusinnhold, spesielt utfordringene som følger med å moderere lyd i sanntid. I tillegg er det også en risiko for et målrettet "rapporteringsangrep" med en politisk eller ideologisk agenda kunne lanseres mot et rom, og sabotere en tilsynelatende produktiv samtale allerede før den starter. Hvis det høres kjent ut, er det fordi en lignende online "gjennomgang bombing" fenomenet er veldig reelt, og har blitt et stort problem for utgivere og innholdsskapere i det siste. Til slutt er selve funksjonen for øyeblikket under utvikling, noe som betyr at det er en mulighet for at rapportering av et rom aldri kommer seg ut av det eksperimentelle stadiet.

Klubbhuset sier at teamet raskt undersøker om en hendelse blir rapportert, og går så langt som midlertidig beholde lydopptakene for å identifisere problematisk innhold før du tar passende straffereaksjon. Det er imidlertid ikke alltid nok. Det er først og fremst fordi lyd er en helt annen enhet sammenlignet med tekst, bilder og videoer. For eksempel setter plattformer ofte på plass en system som blokkerer problematiske hashtagger eller automatisk flagg for ord som er støtende eller skadelige. På samme måte kan maskinlæringsmodeller trenes til å identifisere voldelig eller eksplisitt visuelt innhold, og de brukes allerede på tvers av flere plattformer.

Med lyd er det første trinnet som trengs opprettelse av AI-assisterte systemer med naturlig språkbehandling som kan flagge skadelige ord eller setninger i sanntid. For ikke å nevne, på flere språk og varierte aksenter. Når systemet er oppe og går, blir et team av menneskelige moderatorer som kan ta raske handlinger etter maskingenererte rapporter en nødvendighet. Teknologien for å identifisere og rapportere skadelig lydinnhold er imidlertid ikke like moden som den som brukes for tekst og visuelle markører. På toppen av dette vil Clubhouse også trenge å skalere raskt nok, både når det gjelder teknologi og arbeidskraft, for å håndtere problemet før plattformen blir overveldet av kontroversielt innhold. Alt det er lettere sagt enn gjort.

Ja, investorer har nylig strømmet milliarder av dollar inn i selskapet for å hjelpe det med å utvikle den nødvendige infrastrukturen og leve opp til det hypede potensialet. Samtidig er det heller ingen mangel på oppstartseksperter som er bekymret for at Clubhouses ambisjoner om å bli 'den neste sosiale medier fenomenet følger en forutsigbar vei og vil snart rase sammen. Før de høye forretningsambisjonene kan realiseres, må Clubhouse autoritativt demonstrere at det kan håndtere feilinformasjon og hatefull oppførsel bedre enn de større haiene i sosiale medier hav. Alt dette må også skje mens det samtidig konkurrerer med den økte konkurransen fra slike som Twitter Spaces, som ser ut til å utvikle seg i et forrykende tempo. Clubhouse legger til nye brukere i et imponerende tempo, spesielt i markeder som India, noe som definitivt er gode nyheter for interessenter. Klubbhuset må imidlertid matche denne veksten med utviklingen av et effektivt innholdsmodereringssystem.

Kilde: Jane Manchun Wong/Twitter

WandaVisions Monica Rambeau er en ekte superhelt i episk fankunst

Om forfatteren