TikTok предлагает глобальную коалицию для защиты от вредоносного контента

Лого ТикТока на фоне Земли, опоясанной сотнями космических траекторий

Авторы: Кормак Кинан, Trust & Safety, EMEA; Арджун Нараян Беттадапур Манджунатх, Trust & Safety, APAC; Джефф Коллинз, Trust & Safety, Северная и Южная Америка

Ранее сегодня мы выпустили наш глобальный отчёт о прозрачности деятельности за первые шесть месяцев 2020 года. Отчёт даёт представление о том, как мы работаем, чтобы сохранять TikTok безопасным и приносящим воодушевление для всех. По мере того, как мы укрепляем доверие за счёт прозрачности, чтобы быть подотчётными нашему сообществу, мы регулярно делимся информацией об удаляемом контенте, включая разжигание ненависти, дезинформацию и другие темы, которые нарушают наши Принципы сообщества и Условия обслуживания. Наше обязательство по обеспечению безопасности наших пользователей включает в себя широкий спектр усилий, которые также включают такие функции, как Family Pairing, которые мы создали, чтобы дать родителям лучшую координацию со своими подростками; ресурсы и образование для нашего сообщества, такие как наш Молодёжный портал или обучающие видеоролики по безопасности; и отраслевые партнёрства, которые мы создаём, чтобы сотрудничать и учиться у других, таких как Глобальный альянс WePROTECT.

Социальные и контентные платформы постоянно сталкиваются с проблемой публикации и перекрёстной публикации вредоносного контента, и это затрагивает всех нас: наших пользователей, наши команды и более широкое сообщество. По мере того, как контент перемещается из одного приложения в другое, платформы вынуждены прибегать к безуспешным методам, когда к ним впервые приходит небезопасный контент. Технологии могут помочь автоматически обнаруживать и ограничивать многое, но не всё, модераторы и сотрудничающие команды часто находятся на переднем фронте этих проблем.

Каждое отдельное усилие платформы по защите своих пользователей будет более эффективным за счёт официального совместного подхода к раннему выявлению и уведомлению среди компаний.

Такое сотрудничество уже происходит, когда речь идёт об определённом контенте, который, по мнению большинства людей, опасен или вреден, например материалы о сексуальном насилии над детьми (CSAM). Но существует острая необходимость работать вместе, чтобы защитить людей от чрезвычайно жестокого графического контента, включая самоубийство.

С этой целью вчера временная глава TikTok Ванесса Паппас отправила письмо главам девяти социальных и контентных платформ, предлагая Меморандум о взаимопонимании (MOU), который побудит компании предупреждать друг друга о таком насильственном графическом контенте на своих собственных платформах. Работая вместе и создавая хешбанк для насильственного графического контента, мы могли бы значительно снизить вероятность того, что люди столкнутся с ним и получат эмоциональный вред, который может принести просмотр такого контента, независимо от того, какое приложение они используют.

Для нас нет ничего важнее, чем безопасность нашего сообщества. Доставить радость и чувство единения с нашим глобальным сообществом – это конечная цель, и приоритетное внимание уделяется благополучию людей в этом сообществе. Мы считаем, что другие платформы разделяют эту цель. Мы стремимся работать с другими представителями отрасли, а также с экспертами, учёными и некоммерческими организациями, поскольку мы разрабатываем структуру и планируем осуществить эту идею. Наши пользователи этого заслуживают.

+++++++++++++++++++++++++++++++++++++++

Следующее письмо было отправлено руководителям девяти социальных и контентных платформ.

В последнее время социальные и контентные платформы снова столкнулись с проблемой публикации и перёкрестного размещения материалов о самоубийствах, которые затронули всех нас: наши команды, пользователей и более широкие сообщества.

Как и каждый из вас, мы усердно работали над предотвращением его распространения, удаляя первоначальный контент и его многочисленные варианты, а также ограничивая его просмотр или распространение другими. Однако мы считаем, что каждое из наших индивидуальных усилий по защите наших собственных пользователей и общего сообщества будет значительно усилено за счёт официального совместного подхода к раннему выявлению и уведомлению участников отрасли о чрезвычайно жестоком графическом контенте, включая самоубийство.

С этой целью мы хотели бы предложить совместную разработку Меморандума о взаимопонимании (MOU), который позволит нам быстро уведомлять друг друга о таком контенте.

Отдельно мы проводим тщательный анализ этих событий, поскольку они связаны с недавним обменом контентом о самоубийстве, но ясно, что раннее выявление позволяет платформам более быстро реагировать на подавление крайне нежелательных материалов, содержащих насилие.

Мы осознаём необходимость того, чтобы любое такое достигнутое соглашение чётко определяло типы контента, которое оно могло бы ловить, и было достаточно проворным, чтобы каждый из нас мог быстро уведомить друг друга о том, что будет зафиксировано в МоВ. Мы также понимаем, что в регионах могут существовать нормативные ограничения, которые требуют дальнейшего участия и рассмотрения.

С этой целью мы хотели бы созвать собрание наших соответствующих групп Trust and Safety для дальнейшего обсуждения такого механизма, который, как мы считаем, поможет нам всем повысить безопасность наших пользователей.

Мы с нетерпением ждём вашего положительного ответа и совместной работы для помощи в защите наших пользователей и более широкое сообщество.

С уважением,

Ванесса Паппас
Глава TikTok



Перевод.

Остались вопросы по TikTok? Получи консультацию от человека, который реально в этом разбирается.

Загрузка ...
VerticalVideoPortal.ru