La lotta di YouTube contro i video del complotto è una battaglia persa

click fraud protection

Che si tratti di Flat Earther, negazionisti del cambiamento climatico o credenti dello Stato Profondo, Youtube è sempre stato un parco giochi preferito per i teorici della cospirazione. Non sorprende che la piattaforma di condivisione video di proprietà di Google sia stata regolarmente criticata per non aver fatto abbastanza per limitare i contenuti che potrebbero disinformare, danneggiare o radicalizzare gli utenti. Mentre YouTube ha cercato attivamente di affrontare questa critica ultimamente, uno studio recente suggerisce che i suoi sforzi potrebbero non essere sufficienti.

Per la maggior parte, YouTube è apparso più che felice di incoraggiare contenuto scandaloso che guida il traffico. Anche se questo potrebbe non essere stato un problema nei primi giorni, con oltre 2 miliardi di utenti in tutto il mondo ora, YouTube è diventato abbastanza influente da influenzare molte persone. Inoltre, con i suoi creatori che comprendono il tipo di contenuto che può diventare virale, la piattaforma è pronta ad avere

un impatto enorme su milioni di persone. Nell'era della post-verità, le teorie del complotto con fatti sensazionalistici e/o "alterni" offrono la ricetta perfetta per creare contenuti virali.

Considerando l'impatto che le teorie del complotto, come Pizzagate, hanno avuto negli ultimi anni, YouTube è stato oggetto di intense critiche per non aver preso provvedimenti contro alcuni contenuti. Tuttavia, negli ultimi due anni ci sono stati alcuni tentativi molto concreti di limitare alcuni tipi di contenuti. Nel gennaio dello scorso anno, YouTube ha annunciato che stava cambiando il suo potente algoritmo di raccomandazione video per ridurre la diffusione di ciò che YouTube ha descritto come "contenuti borderline e contenuti che potrebbero disinformare gli utenti in modo dannoso". Come la New York Times rapporti, e dimostrato da recenti ricerche di UC Berkeley studiosi, anche se ha avuto un impatto, il successo è stato irregolare. Subito dopo l'annuncio di YouTube a giugno che richiedeva una riduzione del 50 percento della quantità di tempo trascorso dalle persone guardando i video sulla teoria della cospirazione dalle raccomandazioni, c'è stato un forte aumento delle raccomandazioni di tale video.

Problemi di contenuto affrontati da Google e YouTube

È chiaro che YouTube deve affrontare seri problemi quando si occupa di questi video. Anche se le modifiche all'algoritmo di raccomandazione funzionano bene, non impediranno comunque agli utenti di accedere ai contenuti della teoria della cospirazione. Proprio come altre piattaforme di social media come Facebook e Twitter, YouTube è progettato per presentare contenuti personalizzati all'utente una volta effettuato l'accesso. Ciò mantiene gli utenti in una bolla di filtro che fa emergere contenuti simili in base all'attività passata. Lo studio di Berkeley, che non aveva accesso ad account personalizzati, riconosce questo come uno dei limiti della ricerca. Nonostante il calo dei consigli generali, i normali spettatori di video sulla teoria della cospirazione potrebbero ancora ricevere consigli personalizzati per contenuti simili.

Le linee guida della community di YouTube in realtà non dicono che gli utenti non possono pubblicare contenuti che non sono reali e questo ha senso considerando che la maggior parte dei video di intrattenimento avrà una certa quantità di finzione coinvolto. Tuttavia, le linee guida vietano l'uso di metadati ingannevoli per far credere alle persone che il contenuto sia qualcosa che non è. Se i teorici della cospirazione rappresentano il loro contenuto come fatti, è ancora difficile definirli fuorvianti, poiché la maggior parte delle teorie del complotto sono un mix di fatti oggettivi e affermazioni inventate. Pertanto, i creatori di contenuti sono non infrangere alcuna linea guida, e finché il contenuto non è direttamente offensivo per nessuno, YouTube è limitato in ciò che può censurare. Questo mette YouTube in una situazione difficile e che non sembra gestire bene. Di recente, YouTube ha preso la controversa decisione di demonetizzare tutti i video sul coronavirus senza alcuna spiegazione. È stato ipotizzato che la proliferazione di video bufali fosse la ragione principale alla base di questa mossa, e mentre alcuni video porranno un minaccia per la salute pubblica, è probabile che la misura influisca anche sui creatori di contenuti che caricano contenuti ben studiati e informativi video. Probabilmente, un'azione così drastica da parte di YouTube presenta anche un sfida alla libertà di parola previsto dal Primo Emendamento.

Fonte: NYT, UC Berkeley

L'Arrowverse finalmente ripaga il finale di Crisis con la stagione 8 di Flash

Circa l'autore