Facebook стверджує, що його AI швидше, ніж попередник, ловить шкідливий контент

click fraud protection

Facebook оприлюднила деталі своєї нової системи модерації штучного інтелекту (ШІ) і стверджує, що вона навіть краще розкриває погані повідомлення, ніж попередня ітерація. Соціальна мережа вже давно стикається з проблемами контролю вмісту на своїй платформі, і ситуація лише погіршується через розмір її бази користувачів і величезний обсяг мов, які вона підтримує. Чим більше людей приєднується до Facebook, тим більше воно має стежити за тим, що вони говорять, і контрастними мовами, якими вони це говорять.

Протягом багатьох років фірмі, що належить Мета, довелося вирішувати все, від чого порно помста і дезінформація про COVID-19 щодо втручання у вибори та геноциду в М’янмі. Але так само, як кожна проблема є різною, настільки часто необхідні навички, щоб ідентифікувати та видалити пов’язаний вміст. Для цього компанія покладається на армію людських модераторів, чия робота полягає в тому, щоб пробирати повідомлення про потенційно образливі дописи. Тим не менш, для операції такого розміру, як Facebook, набір достатньої кількості людей для виконання такої роботи важко масштабувати, і тому вона покладається на інструменти штучного інтелекту, щоб служити захистом на передовій. Ці програми навчаються на безлічі зразків даних (зображення, відео, текст), що дозволяє машині ефективно вивчати, що є поганим вмістом, щоб потім його можна було видалити.

Facebook представила нову систему штучного інтелекту під назвою Few-Shot Learner, яка, за її словами, є ефективнішою для виявлення проблемних матеріалів. Як Дротовий зазначає, що соціальна платформа на базі Menlo Park стверджує, що Few-Shot Learner може працювати з меншим навчальним набором, дозволяючи йому впоратися з вмістом, що порушує правила, всього за шість тижнів, у порівнянні з попереднім діапазоном у шість місяців. Facebook стверджує, що вперше представив Few-Shot Learner на початку цього року, і він уже може працювати дописи, які заохочують інших не робити щеплення від COVID-19, правило, яке вступило в силу в Вересень.

Краще тлумачення правил

Корнелія Карапча, менеджер з продуктів зі штучного інтелекту Facebook, каже, що це не тільки здатність працювати з меншими навчальні набори, які роблять Few-Shot Learner настільки корисним, що він також може краще інтерпретувати платформу умови користувача. Як правило, модератори-люди повинні перехресно посилатися на посібник, який охоплює тисячі правил і постійно налаштовується, щоб охопити все більше і більше крайніх випадків. Частково через такий рівень складності Facebook представив Наглядова рада стежити за дотриманням правил. Carapcea стверджує, що Few-Shot Learner може краще ідентифікувати порушення, використовуючи лише широкі підказки.

Тим не менш, незважаючи на всі обіцянки, здатність Facebook модерувати вміст у культурах, які не є англомовними, часто була ключовим моментом критики. На початку осені 2021 р. а колишній Facebook працівник злив документи стосовно внутрішніх досліджень і наголосив на своїх недоліках у глобальному нагляді законодавцям США та Великобританії. Тепер соціальна мережа намагається подолати ці атаки, показавши, що Few-Shot Learner працює 100 мовами. Це все ще набагато менше сотень, які використовуються на платформі, але це ознака того, що компанія знаходиться в кращому положенні, ніж була. Якщо фірмі вдасться продовжувати ітерації інструменту, вона може піти на поправку зіпсована репутація.

Джерело: Дротовий

Бетмен: WB вирішує між двома частинами фільму

Про автора