Валюта
  • Загрузка...
Погода
  • Загрузка...
Качество воздуха (AQI)
  • Загрузка...

По данным BBC, несколько бывших сотрудников и внутренние источники заявили, что гиганты социальных сетей (Meta и TikTok) изменили свои алгоритмы, чтобы продвигать больше 'пограничного' вредоносного контента (например, мизогинии и теорий заговора) для сохранения конкурентоспособности и удержания пользователей. Инженер Meta сообщил, что руководство приняло такое решение после падения цены акций в борьбе с TikTok.

Сотрудник TikTok (названный 'Ником' в документальном фильме BBC) показал внутреннюю панель жалоб компании, заявив, что случаи, связанные с политиками, приоритезировались над жалобами на безопасность детей. По его словам, эти решения принимались не ради безопасности пользователей, а для поддержания 'прочных отношений' с политиками и избежания регуляций или запретов. Ник считает, что компания меньше заботится о безопасности детей.

Бывший старший исследователь Meta Мэтт Мотил заявил, что конкурент TikTok, Instagram Reels, был запущен в 2020 году без достаточных мер безопасности. Внутренние исследования показали, что в Reels значительно чаще встречаются комментарии с буллингом и домогательствами (на 75% выше), разжиганием ненависти (на 19% выше) и насилием или подстрекательством (на 7% выше), чем в основной ленте Instagram. Он отметил 'дисбаланс сил', поскольку сотрудникам по безопасности приходилось получать согласие команд Reels для внедрения новых функций, улучшающих безопасность, а токсичный контент привлекает больше вовлеченности.

Другой бывший инженер Meta (названный Тимом) сообщил, что компания прекратила ограничивать пограничный вредоносный контент в попытке конкурировать с TikTok, что было решено высшим руководством после падения акций. Внутренние документы показали, что компания знала об усилении контента, вызывающего гнев и даже вред, поскольку такой контент генерирует больше вовлеченности.

Бывший инженер машинного обучения TikTok Руофань Дин назвал алгоритм 'черным ящиком', чью внутреннюю работу трудно scrutinize. Он заявил, что инженеры мало внимания уделяют содержанию постов, полагаясь на команды безопасности, но наблюдал рост 'пограничного' контента при улучшении алгоритма.

BBC провела интервью с подростками, которые сообщили, что им рекомендуются насилие и контент с ненавистью, а системы жалоб не работают. Один подросток (Каллум, 19 лет) заявил, что был 'радикализован алгоритмом' с 14 лет, что привело к расистским и мизогинистским взглядам. Специалисты контртеррористической полиции Великобритании отметили 'нормализацию' антисемитских, расистских и ультраправых постов в последние месяцы.

Meta и TikTok отвергли утверждения BBC. Представитель Meta заявил, что любое предположение о преднамеренном усилении вредоносного контента для финансовой выгоды неверно. TikTok назвал эти заявления 'сфабрикованными' и подчеркнул инвестиции в технологии, предотвращающие просмотр вредоносного контента.

Source: www.bbc.com


Последние новости

Последние новости