Clubhouse sta lavorando alla funzione "Report Rooms", ma risolverà i problemi di moderazione?

click fraud protection

Clubhouse sta lavorando a una nuova funzione di sicurezza che consentirà agli utenti di segnalare una stanza se l'argomento elencato viola le linee guida della community. La piattaforma ha già una serie di regole in atto che consigliano agli utenti di astenersi da conversazioni di natura odiosa, discriminatoria e offensiva. Per applicarli, Clubhouse ha creato una serie di soluzioni rivolte agli utenti, come la capacità di silenziare, bloccare o eliminare i malintenzionati da una sessione audio dal vivo in corso.

Gli utenti possono già segnalare un membro del pubblico in tempo reale come la conversazione continua. Inoltre, c'è anche un'opzione per segnalare un incidente passato dopo che la stanza è finita. Tuttavia, la situazione diventa più complicata se una stanza è stata creata esclusivamente allo scopo di diffondere disinformazione o contenuto odioso ed è popolato da persone che la pensano allo stesso modo che è improbabile che segnalino un partecipante per aver violato le regole. Se quella stanza è privata, le possibilità di scoprire e segnalare le conversazioni malsane della Clubhouse sono ancora più basse.

Negli ultimi mesi, numerosi episodi di chat della Clubhouse che discutevano di cospirazioni COVID-19 e antisemiti sono stati segnalati discorsi, spingendo gli attivisti digitali a richiedere funzionalità più robuste per segnalare tali Stanze e conversazioni. Ora sembra che una soluzione potrebbe essere in lavorazione. Jane Manchun Wong screenshot condivisi di recente di una funzione in sviluppo in Clubhouse che consente agli utenti di segnalare una stanza se l'argomento elencato sembra discutibile. Sulla base degli screenshot, gli utenti della Clubhouse avranno presto due opzioni attuabili se si imbattono in una stanza problematica: nascondi o segnala. Se gli utenti scelgono di segnalare una stanza virtuale, verrà chiesto loro di specificare il motivo, che potrebbe essere qualsiasi cosa, da molestie e incitamento alla violenza all'incitamento all'odio.

Clubhouse sta lavorando alla possibilità di segnalare le stanze
Infine!! pic.twitter.com/wE8VJ3oNDp

— Jane Manchun Wong (@wongmjane) 13 luglio 2021

Un cambiamento positivo, ma è sufficiente?

A prima vista, la capacità di segnalare le stanze sembra essere un'aggiunta significativa e, se gestita bene, potrebbe fare molto per proteggere la piattaforma dai problemi di contenuto che hanno perseguitato come Facebook e Twitter. Tuttavia, nel caso in cui il nome di una stanza non sia indicativo del suo vero scopo, è probabile che la funzione in arrivo venga resa quasi inutile. Inoltre, la capacità di segnalare le stanze non risolverà tutti i problemi di moderazione dei contenuti della Clubhouse, in particolare le sfide che derivano dalla moderazione dell'audio in tempo reale. Inoltre, c'è anche il rischio che un "attacco di segnalazione" mirato con un'agenda politica o ideologica potrebbe essere lanciato contro una Stanza, sabotando una conversazione apparentemente produttiva ancor prima che essa inizia. Se suona familiare, è perché un simile online 'recensione bombardamento' Il fenomeno è molto reale e ultimamente è diventato un enorme problema per editori e creatori di contenuti. Infine, la funzionalità stessa è attualmente in fase di sviluppo, il che significa che esiste la possibilità che la segnalazione di una stanza non esca mai dalla fase sperimentale.

Clubhouse afferma che la sua squadra indaga prontamente se viene segnalato un incidente, arrivando fino a conservare temporaneamente le registrazioni audio per identificare i contenuti problematici prima di prenderli in modo appropriato azione punitiva. Tuttavia, non sempre è sufficiente. Ciò è principalmente dovuto al fatto che l'audio è un'entità completamente diversa rispetto a testo, immagini e video. Ad esempio, le piattaforme spesso mettono in atto un sistema che blocca hashtag problematici o contrassegna automaticamente le parole offensive o dannose. Allo stesso modo, i modelli di apprendimento automatico possono essere addestrati per identificare contenuti visivi violenti o espliciti e sono già utilizzati su più piattaforme.

Con l'audio, il primo passo necessario è il creazione di sistemi assistiti dall'IA con abilità di elaborazione del linguaggio naturale che possono segnalare parole o frasi dannose in tempo reale. Per non parlare, in più lingue e accenti vari. Una volta che il sistema è attivo e funzionante, diventa una necessità un team di moderatori umani in grado di agire rapidamente in seguito ai report generati dalla macchina. Tuttavia, la tecnologia per identificare e segnalare contenuti audio dannosi non è matura come quella utilizzata per testo e indicatori visivi. Inoltre, Clubhouse dovrebbe anche scalare abbastanza velocemente, sia in termini di tecnologia che di manodopera, per gestire il problema prima che la piattaforma venga sopraffatta da contenuti controversi. Tutto ciò che è più facile a dirsi che a farsi.

Sì, gli investitori hanno recentemente versato miliardi di dollari nella società per aiutarla a sviluppare l'infrastruttura necessaria e ad essere all'altezza del suo potenziale pubblicizzato. Allo stesso tempo, non mancano nemmeno gli esperti di startup che sono preoccupati che le aspirazioni di Clubhouse di diventare "il prossimo social media fenomeno' stanno seguendo un percorso prevedibile e presto crolleranno. Prima che le grandi ambizioni aziendali possano essere realizzate, Clubhouse deve dimostrare autorevolmente che può gestire efficacemente la disinformazione e il problema della condotta odiosa meglio degli squali più grandi nei social media oceano. Tutto ciò deve anche accadere mentre contemporaneamente competere con la crescente concorrenza di artisti come Twitter Spaces, che sembrano evolversi a un ritmo vertiginoso. Clubhouse sta aggiungendo nuovi utenti a un ritmo impressionante, specialmente in mercati come l'India, il che è sicuramente una buona notizia per le parti interessate. Tuttavia, Clubhouse deve far coincidere tale crescita con lo sviluppo di un efficiente sistema di moderazione dei contenuti.

Fonte: Jane Manchun Wong/Twitter

Monica Rambeau di WandaVision è una vera supereroina nell'epica Fan Art

Circa l'autore