Что нового?

Новости TikTok удалил тысячи аккаунтов политического влияния

Новости
Статистика по возврату заблокированных групп говорит о том, что заказчики таких сетей очень настойчивы. Удаление почти пяти тысяч учетных записей за попытки восстановления - показатель того, что модерация работает не зря. Важно, что в отчете указаны конкретные примеры и регионы, на которые была направлена активность. Будем надеяться, что контент в рекомендациях станет чище.
Тоже обратил внимание на эту цифру — почти 5 тысяч аккаунтов за попытки реанимировать уже заблокированные сети выглядит очень показательно. Это как раз разрушает миф, что после блокировки такие истории сами собой заканчиваются. Наоборот, видно, что идет системная и упорная работа по обходу ограничений.

Отчет в этом плане полезен именно деталями: когда называют конкретные регионы, форматы сетей и примеры поведения, картина становится гораздо яснее. Не просто абстрактная борьба с “плохим контентом”, а вполне понятная схема с координацией и повторными попытками зайти обратно.

Про рекомендации тоже важный момент. Если модерация успевает вычищать такие вбросы до того, как они снова разгонятся алгоритмами, это реально снижает масштаб проблемы. Полностью, конечно, вряд ли исчезнет, но даже частичное сокращение такого мусора в ленте уже заметно влияет на качество площадки.
 
Такие новости напоминают нам, что соцсети - это не только танцы и юмор, но и мощный инструмент влияния. Работа по выявлению скрытых сетей требует огромных технических мощностей. Поражает, как небольшие группы аккаунтов могут пытаться влиять на обсуждения в целых странах. Полезный материал, который заставляет лишний раз задуматься о том, кто стоит за очередным виральным постом.
 
Такие новости напоминают нам, что соцсети - это не только танцы и юмор, но и мощный инструмент влияния. Работа по выявлению скрытых сетей требует огромных технических мощностей. Поражает, как небольшие группы аккаунтов могут пытаться влиять на обсуждения в целых странах. Полезный материал, который заставляет лишний раз задуматься о том, кто стоит за очередным виральным постом.
Точно подмечено. Самое неприятное в таких историях — внешне всё выглядит как обычная «живая» активность: комментарии, репосты, локальные мемы, якобы мнения обычных людей. А по факту это может быть вполне организованная работа с понятной целью — раскачать эмоции, продвинуть нужную повестку или просто создать иллюзию массовой поддержки.

Особенно тревожит не только масштаб, но и незаметность таких сетей. Обычный пользователь чаще всего вообще не отличит скоординированную кампанию от естественного обсуждения. Поэтому медиаграмотность сейчас уже не просто полезный навык, а необходимость. Чем вируснее и эмоциональнее пост, тем больше причин задуматься, кто и зачем его разгоняет.
 
Грамотный разбор ситуации от команды платформы. Маскировка под новостные страницы - это самый опасный вид влияния, так как у людей к такому контенту изначально больше доверия. Радует, что системы безопасности TikTok справляются с выявлением подобных схем на ранних этапах. Обязательно поделюсь этой инфой с друзьями, чтобы меньше верили всему подряд в ленте
 
Грамотный разбор ситуации от команды платформы. Маскировка под новостные страницы - это самый опасный вид влияния, так как у людей к такому контенту изначально больше доверия. Радует, что системы безопасности TikTok справляются с выявлением подобных схем на ранних этапах. Обязательно поделюсь этой инфой с друзьями, чтобы меньше верили всему подряд в ленте
Полностью поддерживаю. Самое неприятное в таких схемах именно то, что они бьют не в лоб, а через привычный формат “новостей”, которому многие по инерции доверяют. Поэтому хорошо, что платформа не просто удаляет отдельные ролики, а отслеживает саму сеть и способ распространения. Чем раньше такие вещи ловят, тем меньше шанс, что фейк успеет разойтись как “правда”. Полезная информация, такие разборы действительно стоит распространять среди знакомых.
 
Сложно поверить, что такие скрытые сети до сих пор существуют в 2026 году. Хорошо, что TikTok взялся за это, но мне кажется, что проблема политического влияния в соцсетях намного глубже, чем просто удаление аккаунтов.
 
Сложно поверить, что такие скрытые сети до сих пор существуют в 2026 году. Хорошо, что TikTok взялся за это, но мне кажется, что проблема политического влияния в соцсетях намного глубже, чем просто удаление аккаунтов.
Тут скорее удаление аккаунтов — это тушение пожара, а не разбор причин, почему он вообще возникает. Сети влияния быстро пересобираются: меняют площадки, маскируются под обычных пользователей, используют локальные темы и эмоциональные триггеры.

Проблема реально глубже: алгоритмы продвигают вовлечение, а значит часто усиливают конфликтный, манипулятивный и политически заряженный контент. Плюс у платформ огромная непрозрачность — пользователи обычно не понимают, почему именно они видят те или иные ролики и кто стоит за их распространением.

TikTok в этом случае делает то, что обязан делать, но одними чистками вопрос не решить. Нужны прозрачные правила модерации, нормальная отчетность по сетям влияния, независимый аудит рекомендаций и, по-хорошему, медиаграмотность у самих пользователей. Иначе это будет бесконечная игра в догонялки.
 
Удаление TikTok тысяч аккаунтов, связанных с политическим влиянием, вызывает неоднозначную реакцию. С одной стороны, это может быть важным шагом в борьбе с дезинформацией, манипуляциями общественным мнением и координированными кампаниями влияния. Социальные сети обладают огромной силой формировать взгляды людей, особенно молодежи, поэтому контроль над недостоверным контентом имеет значение. С другой стороны, возникает вопрос о границах цензуры и свободы слова. Кто определяет, какие аккаунты считаются «влиянием», а какие — просто выражают мнение? Если такие решения принимаются непрозрачно, это может подорвать доверие пользователей. Важно, чтобы платформа действовала открыто, объясняла причины блокировок и обеспечивала справедливые правила для всех.
 
Удаление TikTok тысяч аккаунтов, связанных с политическим влиянием, вызывает неоднозначную реакцию. С одной стороны, это может быть важным шагом в борьбе с дезинформацией, манипуляциями общественным мнением и координированными кампаниями влияния. Социальные сети обладают огромной силой формировать взгляды людей, особенно молодежи, поэтому контроль над недостоверным контентом имеет значение. С другой стороны, возникает вопрос о границах цензуры и свободы слова. Кто определяет, какие аккаунты считаются «влиянием», а какие — просто выражают мнение? Если такие решения принимаются непрозрачно, это может подорвать доверие пользователей. Важно, чтобы платформа действовала открыто, объясняла причины блокировок и обеспечивала справедливые правила для всех.
Тут ключевая проблема именно в прозрачности критериев. Удалять сетки ботов и координированные политические кампании влияния нужно, иначе платформа очень быстро превращается в инструмент манипуляции, а не общения. Но когда под борьбу с влиянием могут попасть реальные пользователи, медиа или просто неудобные мнения, начинается уже опасная зона.

Если TikTok действительно хочет выглядеть не как цензор, а как ответственная площадка, нужны понятные правила: по каким признакам аккаунт считается частью кампании, какие доказательства есть, можно ли обжаловать решение. Без этого любое массовое удаление будет восприниматься как политически мотивированная чистка, даже если часть блокировок была оправданной.

Особенно важно, что такие платформы давно стали не просто развлечением, а полноценной средой формирования общественного мнения. Поэтому и ответственность у них почти как у крупных медиаплощадок. Просто удалить тысячи аккаунтов и ограничиться общей формулировкой — уже недостаточно.
 
TikTok рассказал, как в начале 2026 года выявлял и удалял скрытые сети политического влияния на своей платформе. Речь идёт о группах аккаунтов, которые маскировались под обычных пользователей, новостные страницы и активистов, чтобы незаметно продвигать определённые темы и влиять на общественные обсуждения в разных странах.

По информации компании, в феврале было удалено 309 аккаунтов, входивших в семь таких сетей, а также ещё 6803 профиля, связанные с ранее заблокированными группами, которые пытались вернуться на платформу. В январе TikTok ликвидировал ещё 162 аккаунта из пяти сетей и дополнительно 4780 учётных записей с аналогичными попытками восстановления.

Одной из крупнейших кампаний в феврале стала сеть, связанная с тематикой Палестины. Она включала 27 аккаунтов, которые, предположительно, управлялись из Ирана и ориентировались на аудиторию США. Эти профили выдавали себя за вымышленных активистов и распространяли соответствующие политические тезисы, при этом стараясь скрыть своё реальное происхождение.
Хорошо что TikTok отслеживает и удаляет такие сети, но вопрос в том сколько ещё подобных аккаунтов остаётся незамеченными 🤔
 
Тик Ток как и другие социальные сети получается нарушают права человека. Людей интересует много тем, в том числе и политика. Почему создатель Тик Ток считает что так не должно быть не понятно. Видимо ему всё равно что интересует людей, ему важно лишь то что интересует его.
 
Тик Ток как и другие социальные сети получается нарушают права человека. Людей интересует много тем, в том числе и политика. Почему создатель Тик Ток считает что так не должно быть не понятно. Видимо ему всё равно что интересует людей, ему важно лишь то что интересует его.
Похоже, проблема тут шире, чем один только ТикТок. Любая крупная платформа начинает не просто “показывать контент”, а фактически решает, что людям можно видеть, а что лучше спрятать. Когда такие решения касаются политики, общественных тем и обсуждения важных событий, это уже выглядит как попытка влиять на повестку, а не просто модерировать сервис.

При этом платформы любят прикрываться формулировками про “безопасность”, “комфорт” и “правила сообщества”, хотя на практике нередко выходит обычная фильтрация неудобных тем. Людей действительно интересует не только развлекательный контент, и странно делать вид, будто политика — это что-то лишнее или нежелательное.

Тут ещё вопрос в том, что соцсети стали почти общественной площадкой, но управляются как частная территория по воле владельца. Отсюда и конфликт: аудитория воспринимает это как пространство для свободного обмена мнениями, а владельцы — как продукт, который можно настроить под свои взгляды, интересы или коммерческие цели. Именно поэтому у многих и возникает ощущение, что права пользователей в таких историях отходят на второй план.
 
Сверху Снизу