De ce TikTok etichetează videoclipuri periculoase cu pilot automat Tesla și cu auto-conducere

click fraud protection

TIC-tac a început să eticheteze videoclipuri cu persoane care folosesc de la Tesla Capacitățile de pilot automat sau de conducere autonomă complet sunt periculoase, cu un avertisment că acțiunile ar putea provoca vătămări grave. Mișcarea este o reflectare îngrijorătoare a numărului de astfel de videoclipuri care sunt postate pe platformă. Cu toate acestea, regulile comunității TikTok sugerează că conținutul nu ar trebui să rămână deloc pe platformă.

Funcția Autopilot de la Tesla este un sistem de asistență pentru șofer care ajută la lucruri precum potrivirea vitezei unui vehicul cu traficul din jurul acestuia, menținerea unui vehicul pe o bandă și direcția automată. Între timp, capacitatea sa completă de auto-conducere este destinată în cele din urmă să ofere o conducere complet autonomă, fără a fi nevoie de nicio acțiune din partea persoanei de pe scaunul șoferului. În prezent este în versiune beta și este încă departe de a oferi o experiență complet autonomă, dar, din păcate, asta nu s-a oprit utilizatorii care eliberează scaunul șoferului în timp ce acesta sau pilotul automat mai puțin avansat sunt angajati, totul în numele unor aprecieri pe net. Previzibil, așa pare

poate provoca deja accidente mortale.

Dupa cum Wall Street Journal rapoarte, acum apar online o mulțime de videoclipuri cu oameni care depășesc limitele și efectuează cascadorii cu funcțiile Autopilot și Full Self-Driving din mașinile Tesla. Un individ a fost arestat de poliție pentru că mergea în spatele unei Tesla în mișcare, eliberat pe cauțiune și apoi s-a filmat făcând-o din nou. La fel de Următorul Web rapoarte, tendința pentru videoclipurile care arată oameni care folosesc funcțiile Autopilot și Full Self-Driving fără a urma îndrumările oferite de Tesla au devenit atât de pronunțate încât TikTok le adaugă declinări de răspundere care avertizează asupra pericolelor, precum: „Acțiunea din acest videoclip ar putea duce la răni grave.”

Sunt suficiente declinările de răspundere pentru pilotul automat și auto-condusul complet de la TikTok?

Răspunsul la aceasta este, cu siguranță: nu. Însăși natura tendințelor online este că acestea îi încurajează pe ceilalți să încerce același lucru, indiferent dacă este un video caritabil Ice Bucket Challenge sau unul cu cineva care conduce o mașină fără nimeni în șofer scaun. Declinarea răspunderii privind siguranța va fi ignorată de persoanele care doresc să le ignore și, în cel mai rău caz, ar putea chiar să încurajeze mai multe la fel cum etichetele Parental Advisory pot face muzica mai atrăgătoare pentru tinerii pe care sunt destinate proteja.

Deși TikTok nu poate fi acuzat pentru videoclipurile realizate, cel mai responsabil curs de acțiune pe care ar putea-o lua ar fi să le elimine complet. Într-adevăr, propriul său liniile directoare ale comunității par să sugereze că tocmai asta ar trebui să facă. Sub o secțiune despre „acte periculoase”, ei au citit: „Nu permitem conținut care descrie, promovează, normalizează sau gloriifică un astfel de comportament, inclusiv cascadorii de amatori sau provocări periculoase.” Utilizarea periculoasă a vehiculelor este chiar menționată ca ceva ce nu ar trebui postat.

În cele din urmă, totuși, Tesla este cea care va trebui să abordeze aceste probleme. Nu ar trebui să fie posibil pentru autopilot sau Caracteristici complete de auto-conducere să fie operat fără o persoană pe scaunul șoferului și ar trebui să găsească o modalitate de a rezolva acest lucru. Sperăm că știrile despre camerele sale de monitorizare a șoferilor din mașină care sunt aduse online vor ajuta la combaterea proliferării acestor videoclipuri.

Surse: Wall Street Journal, Următorul Web, TIC-tac

Logodnic de 90 de zile: Tania își împărtășește istoria cu violența și abuzul în familie