Zakaj TikTok označuje nevarne Tesline avtopilote in samovozeče videoposnetke

click fraud protection

Tik Tok je začel označevati videoposnetke ljudi, ki uporabljajo Teslina Zmogljivosti avtopilota ali popolne samovožnje so nevarne z opozorilom, da lahko dejanja povzročijo resne poškodbe. Ta poteza je zaskrbljujoč odraz števila takšnih videoposnetkov, ki so objavljeni na platformi. Vendar smernice skupnosti TikTok kažejo, da vsebina sploh ne bi smela ostati na platformi.

Teslina funkcija Autopilot je sistem za pomoč vozniku ki pomaga pri stvareh, kot so prilagajanje hitrosti vozila prometu okoli njega, ohranjanje vozila na voznem pasu in samodejno krmiljenje. Njegova zmožnost popolne samostojne vožnje pa je končno namenjena zagotavljanju popolnoma avtonomne vožnje brez potrebe po kakršnih koli dejanjih osebe na voznikovem sedežu. Trenutno je v beta različici in je še vedno daleč od zagotavljanja popolnoma avtonomne izkušnje, vendar se to žal ni ustavilo uporabniki, ki zapustijo voznikov sedež, medtem ko je ta ali manj napreden avtopilot vključen, vse v imenu nekaterih všečkov na spletu. Predvidljivo se zdi takole lahko že povzroči nesreče s smrtnim izidom.

Kot Wall Street Journal poročila, na spletu se zdaj pojavlja veliko videoposnetkov ljudi, ki premikajo meje in izvajajo kaskade s funkcijama Autopilot in Full Self-Driving v avtomobilih Tesla. En posameznik je bil aretirala policija, ker se je vozil v zadnjem delu premikajočega se Tesle, izpuščen proti varščini, nato pa se je posnel, kako to počne znova. Kot Naslednji splet poročila, trend za videoposnetke, ki prikazujejo ljudi, ki uporabljajo funkcije avtopilota in popolne samovožnje, ne da bi sledili smernice, ki jih zagotavlja Tesla, so postale tako izrazite, da jim TikTok dodaja zavrnitev odgovornosti, ki opozarja na nevarnosti, kot naprimer: "Dejanje v tem videoposnetku bi lahko povzročilo resne poškodbe."

Ali TikTok-ov avtopilot in popolna zavrnitev odgovornosti za samostojno vožnjo zadostuje?

Odgovor na to je zagotovo: ne. Že sama narava spletnih trendov je v tem, da spodbujajo druge, da poskusijo enako – pa naj gre za to dobrodelni video posnetka Ice Bucket Challenge ali nekoga, ki upravlja z avtomobilom, pri katerem ni voznika sedež. Zavrnitve odgovornosti v zvezi z varnostjo bodo prezrli ljudje, ki jih želijo prezreti, v najslabšem primeru pa bi lahko celo spodbudili več enako, kot lahko založbe Parental Advisory naredijo glasbo privlačnejšo za mlade, ki jim je namenjena zaščititi.

Čeprav je TikTok težko kriviti za nastajanje videoposnetkov, bi bilo najbolj odgovorno dejanje, ki bi ga lahko sprejelo, njihovo popolno odstranitev. Dejansko svoje smernice skupnosti se mi zdi, da bi ravno to morali storiti. Pod razdelkom o "nevarnih dejanjih" berejo: "Ne dovolimo vsebine, ki prikazuje, promovira, normalizira ali poveličuje takšno vedenje, vključno z amaterskimi kaskadi ali nevarnimi izzivi." Nevarna uporaba vozil se celo omenja kot nekaj, kar ne bi smelo biti objavljeno.

Navsezadnje pa bo Tesla tista, ki bo morala obravnavati ta vprašanja. Ne bi smelo biti mogoče za njegov Avtopilot oz Popolne funkcije samostojne vožnje upravljati brez osebe na voznikovem sedežu in mora najti način za reševanje tega. Upajmo, da bodo novice o prenosu kamer za spremljanje voznikov v avtomobilu na spletu pomagale pri soočanju s širjenjem teh videoposnetkov.

Viri: Wall Street Journal, Naslednji splet, Tik Tok

90-dnevni zaročenka: Tania deli svojo zgodovino z družinskim nasiljem in zlorabami