3 апреля 2017 г.

РОЦИТ продолжает следить за работой площадок с «группами смерти» и решил на практике проверить, как быстро популярные социальные сети блокируют контент суицидальной тематики. Результаты эксперимента показали, что из трех соцсетей, участвовавших в эксперименте, только одна оперативно удаляет такой контент.

Организаторы эксперимента создали публичную страницу ВКонтакте, сообщество в Facebook и аккаунт в Instagram, в названиях которых использовали характерные для «групп смерти» слова: синий кит, тихий дом, blue whale. На страницах разместили мрачные иллюстрации и стихи, а посты отметили типичными для суицидальных пабликов хештегами:

#синий

#разбуди

#куратор

#тихий

#море

#куратор_жду

#домтихихкитов

#жду

#тихийдон

#киты

#f52

#начатьигру

#моректов

#f48

#разбуди

#хочуиграть

#мне_не_станет_восемнадцати

#ищу_куратора

#вигре

#нуженкуратор

#разбуди_меня_в_4_20

#играначалась

#f56

После публикации оценивалась скорость реакции модераторов или системы на подобные записи, которые появлялись каждые два часа. ВКонтакте посты удалялись в течение нескольких минут, максимум — двух часов. Сообщества, размещавшие такие записи блокировались. На других площадках материалы провисели больше суток, после чего сообщества были удалены или скрыты настройками приватности.

Социальные сети активно борются с суицидальными пабликами. К примеру, ВКонтакте с начала января 2017 года заблокировала более 600 тыс. бот-аккаунтов с характерными для «групп смерти» хештегами, единственная цель которых — распространять тематические теги. По словам представителей площадки, у них есть собственные технологии на основе нейросетей и искусственного интеллекта, которые используются для анализа записей пользователей. Страницы, на которых обнаружены хештеги «групп смерти», блокируют, а автора спорного поста просят объяснить причины публикации. В зависимости от ответа, ему предлагают помощь психологов фонда «Твоя территория», дают совет по улучшению безопасности страницы или призывают не распространять опасные записи и хештеги даже в рамках борьбы с ними. Кроме того, с февраля у каждого пользователя появилась возможность пожаловаться на подозрительные сообщества и посты в службу поддержки, указав причину «Призывы к суициду».

О работе по борьбе с суицидальным контентом заявляют и зарубежные социальные сети. В марте Facebook объявил о начале внедрения алгоритмов искусственного интеллекта для поиска в постах и комментариях шаблонов на тему суицида. Найденные материалы анализируются специалистами для оперативного вмешательства в случае необходимости. Кроме того, в Facebook можно получить помощь от общественных организаций в режиме онлайн.

Пользователи Facebook могут сообщить администрации социальной сети о том, что друг находится в критической психологической ситуации — ему будет предложена профессиональная помощь. Похожая функция недавно появилась и в Instagram. Автор «подозрительного» поста после сигнала от другого пользователя или публикации опасного хэштега получит сообщение: «Кто-то увидел ваш пост и думает, что вам может быть морально тяжело в данный момент. Если вам действительно нужна помощь, мы будем рады помочь». После этого пользователь сможет узнать, как связаться с психологом, позвонить в службу поддержки или поговорить с другом.

Источник: РОЦИТ