Тиктокеры сообщают о потере 90% просмотров после того, как тролли пожаловались на их видео

Девушка сидит в темноте и смотрит на светящийся экран смартфона

Вредит ли бессистемная модерация на TikTok создателям контента в долгосрочной перспективе?

Создатель контента из TikTok Зев @Zevulous ждёт. Прошло более 66 дней с тех пор, как он впервые разместил видео с просьбой к ТикТоку опубликовать руководство для модераторов контента, чтобы выяснить, почему у авторов в последнее время удаляют их ролики.

Всё началось с того, что Зев опубликовал видео, чтобы после бунта в Капитолии 6 января помочь людям распознать нацистские и расистские опознавательные знаки. Его друзья чувствовали, что на платформе существует проблема превосходства белых, и он хотел помочь тиктокерам распознать символы, которые укажут им на то, чего следует остерегаться. Но его видео о «флаге Кекистана», символе альтернативных правых, было удалено. Сначала он подумал, что это странно, но затем он был отмечен на других видео того самого пользователя, о котором он изначально рассказывал и который всё ещё размахивал своим флагом. И его видео так и не удалили.

Поэтому он решил публиковать видео каждый день, напрямую прося TikTok показать свои внутренние стандарты модерации, чтобы сообщество лучше понимало причины, а также позволяло пользователям рассказывать людям о превосходстве белых.

Вскоре Зев узнал, что не только он страдает из-за этой проблемы. Многие авторы, которые говорили о расизме, сексизме, трансфобии и других проблемах, подверглись цензуре и/или подавлению со стороны платформы. В то время как авторы, которые выступали за расистские, сексистские, трансфобные вещи и даже жестокое обращение с животными, аналогичным образом не пострадали.

И тиктокеры обнаруживают, что удаление видео может иметь длительное влияние на их охваты.

Создатели контента считают, что серьёзной частью проблемы является сочетание массовых жалоб по сговору и автоматической модерации. В одном из интервью Патрик Лоллер назвал себя «гиперполитичным» на TikTok. Он часто говорил о проблемах психического здоровья, трансфобии и о бывшем президенте Дональде Трампе. Иногда его видео удаляли, но он подавал апелляцию и их возвращали, как например ролик, в котором рассказывается о данных с опросов во время выборов 2020 года. Но он заметил, что его прямые трансляции постоянно отключались и что больше троллей комментируют в его аккаунтах. Затем многие из его видео начали удаляться, особенно после того, как он начал открыто выступать против Super Straight, трансфобного движения в ТикТок.

Лоллер перестал вести прямые эфиры и считает, что он близок к пожизненному удалению из приложения. Он уверен, что тролли придумали, как превратить функцию жалоб на Тик Ток в оружие. Если достаточное количество людей сообщают о видео или прямом эфире, они обычно удаляются. Это шаблон, который можно увидеть в других социальных сетях, таких как YouTube и Twitter.

Создатели контента в TikTok считают, что стандарты модерации сайта усугубляют проблему. Кэти Осборн, известная как @Catieosaurous, также стала жертвой системы и цензуры ТикТока. Она говорит, что авторы предполагают, будто достаточно всего нескольких жалоб, например 8-12, чтобы прямой эфир был отключён автоматически. Это идеальный шторм из жалоб по сговору и автоматической модерации.

Такие авторы, как Зев, Лоллер, Осборн и Сесилия Грей, просят от TikTok большей прозрачности. Грей говорит: «Создатели контента не понимают внутренних процессов. Они постоянно меняют правила. Сегодня вы можете говорить «нацистский», а завтра — нет». Лоллер отметил, что авторы должны сами угадывать, какие слова вызовут шквал жалоб на видео. Лоллер обнаружил, что ролики, содержащие слова вроде «депрессия» или «подкаст», удаляются. Он даже придумал написать на листе бумаги слово «подкаст», чтобы обойти модераторов, но это не сработало.

Хотя в TikTok есть правила сообщества, создатели контента не считают их достаточными, чтобы объяснить постоянное удаление постов. У Кэти Осборн были отмечены и отключены две прямые трансляции: первая за «вульгарность», когда она говорила о пропавшей собаке, а вторая — за рассказ об удалении первого видео. Вскоре она обнаружила, что большая часть её видео была удалена с платформы без объяснения причин. После того, как кампания #bringbackcatieosaurous приобрела значительную популярность, её аккаунт внезапно и без всякого уведомления был восстановлен. Несмотря на то, что Кэти неоднократно обращалась в TikTok, она так и не получила объяснения, почему её аккаунт был внезапно заблокирован.

У многих авторов есть похожие истории. Лоллер отмечает, что его ролики были удалены в рамках «правил сообщества», но он не получил дополнительных объяснений, в чём именно заключалась проблема.

Вызывает крайнюю озабоченность тот факт, что почти ничего не известно о внутренней работе TikTok. Утечка документов, полученных Intercept в 2020 году, показала, что «модераторам предписывалось подавлять распространение постов, созданных пользователями, которые считаются слишком уродливыми, бедными или больными для платформы», а также цензурировать политические выступления на прямых эфирах. Представитель TikTok сказал Intercept, что эти правила больше не используются и вообще никогда не выполнялись, заявив, что это было неудачной попыткой предотвратить издевательства.

Некоторые создатели контента видят проблемы, связанные с попыткой TikTok бороться с буллингом на платформе. Грей считает, что такой ответ вызван, скорее, некомпетентностью, чем злобой. Легче запретить несколько слов с помощью алгоритма, чем отправить человека-модератора, чтобы он действительно разобрался с проблемой, которая может потребовать тонкости. Именно поэтому авторы, выступающие против расизма, сексизма и т. д., попадают под удар. Тем временем фанатики стали лучше владеть политикой «собачьего свистка». Когда Грей опубликовала видео о том, как её семья в какой-то момент перестала проповедовать иудаизм, кто-то прокомментировал это, используя «собачий свисток». Но когда она открыто обратилась к этому человеку, её видео было удалено за нарушение правил сообщества. С течением времени Зев относится к этому всё более скептически, говоря, что его терпение на исходе.

Но проблема не только в том, что прямые трансляции и видео убираются с платформы. Создатели контента замечают, что их просмотры значительно падают после того, как проблемы с их видео и прямыми трансляциями уже устранены. Лоллер отметил, что на целый месяц его количество просмотров упало с 200 000-400 000 в день до фиксированного уровня, который не превышал 40 000. Теперь у самого популярного видео будет 50 000 просмотров, а раньше он получал пару миллионов. Зев заметил похожую динамику: когда он впервые начал свою кампанию, у него было 30 000-50 000 просмотров, а сейчас он получает 10% от этого. Осборн отметила резкое уменьшение её просмотров, особенно после масштабной кампании по восстановлению её аккаунта, и люди говорили ей, что её видео больше не показывают в разделе «Для вас».

Раздел «Для вас» в Тик Ток — это место, где пользователям предлагаются ролики, которые должны быть индивидуальными и соответствовать их интересам. Это то место, где люди находят видео авторов, и это главный способ получить просмотры.

Сокрытие видео авторов из-за произвольной модерации может повредить их способности расти на платформе.

Ос Кейес, аспирант и научный сотрудник Департамента дизайна и инженерии Вашингтонского университета сообщает о своей теории в Daily Dot, «повседневная приоритизация… предположительно основана на популярности и статусе пользователя. Можно легко представить, что удаление считается чёрной меткой для целой учётной записи или полностью обнуляет старые данные, отбрасывая автора в конец очереди на приоритизацию для попадания в ленты других людей».

Кстати, несколько авторов, с которыми беседовал Daily Dot, упомянули, что они обеспокоены тем, что общение с журналистом может понизить из цифры ещё больше или, что ещё хуже, заставить их покинуть платформу и потерять сообщества, которые они создали. «Страх и опасения, которые я испытываю по поводу моих слов, огромны. Я не хочу это потерять, это так важно для меня. Но я бы предпочла рассказать о том, что происходит с не очень популярными создателями контента. Это неправильно, это несправедливо», — говорит Осборн.

Некоторые авторы собрались вместе, чтобы попытаться выяснить, как решить эти проблемы. В августе 2020 года Сесилия Грей @ceceliaisgray учредила Online Creators Association (TOCA) как место, где создатели контента могут говорить о проблемах за пределами платформы TikTok. Благодаря TOCA авторы понимают, что их проблемы с приложением — не единичный случай, они имеют систематический характер.

По словам Грей, создатели контента заметили, что с автоматической модерацией что-то не так. Когда пользователь жаловался на видео с педофилией, через две минуты он получал сообщение о том, что данное видео не нарушает никаких правил. Грей говорит, это видео было явно проблемным: там мужчина снимал юбку 15-летней девочки. Двух минут просто недостаточно для живого модератора, чтобы рассмотреть проблему и должным образом её оценить. Так может происходить, потому что система автоматической модерации ищет определённые вещи, например слова и символы, которые автор может потенциально избежать и выйти сухим из воды. Живой модератор, скорее всего, не совершит подобной ошибки, поскольку он увидит, что происходит, и начнёт действовать. Группа надеется представить свои выводы в ТикТок, и компания отнесётся к ним серьёзно.

Ещё в ноябре TikTok набирал людей на должность модераторов, но, учитывая, что эти проблемы произошли недавно, похоже, они всё ещё не решены.

«Я бы хотела, чтобы они знали, им будет меньше работы, если они наймут несколько человек, вместо того, чтобы постоянно убирать за собой», — говорит Грей.



Перевод.

Остались вопросы по TikTok? Получи консультацию от человека, который реально в этом разбирается.

Загрузка ...
VerticalVideoPortal.ru