Что нового?

Новости Какой нейро-контент хорошо ранжируется в поисковых системах

Новости

MoreLogin

Пользователь
Регистрация
28 Апр 2025
Сообщения
33
Реакции
0
Coin
1,768
Использование нейронки прилично упрощает создание контента, но не всегда такой материал способен привлекать трафик. Как поисковые системы Google и Яндекс вообще относятся к AI-контенту, по каким принципам его ранжируют и что нужно сделать чтобы улучшить позиции страниц в выдаче? Об этом сегодня и поговорим.


Как AI-контент повлиял на трафик сайта: причины роста и падения​

После появления чат-ботов типа ChatGPT и Claude, компании, как и многие агенства— запустили собственную контент-ферму. Команды подбирали ключевые запросы, формировали корректные промпты, массово генерировали ИИ-статьи для блога и создаваемые по шаблонам лендинги, практически не выполняя ручную вычитку.

Материалы были с низкой информативностью: много воды, слабая конкретика, часто переспам.Несмотря на это по формальным SEO-показателям тексты выглядели корректно: большой объем, хорошая структура, подзаголовков, прямые и разбавленные вхождения ключей. Даже такая стратегия действительно приносила результаты.

Ситуация изменилась в марте 2024 года после выхода обновления Google Helpful Content. Алгоритм начал жестко оценивать качество и пользу материалов, и в итоге трафик сайта снизился почти вдвое.


Почему произошёл обвал трафика​

На что компании ссылались, причины падения позиций:

  • Google начал жестко «штрафовать» сайты за использование AI-контента.

  • Быстрые публикации, было опубликовано много страниц с низкокачественными материалами.

  • пользователи не находили полезную информацию и сталкивались с большим количеством «воды».

  • переспам, тексты содержали избыточное количество ключевых слов.
Также сайты попали под фильтр из-за малополезного контента.


Как создавался этот контент​

Для генерации использовали разные ИИ модели, например Claude AI.

  1. Загружали в нейросеть качественные статьи конкурентов.

  2. На их основе просила сформировать структуру будущего материала — outline.

  3. Ставила задачу написать текст по каждому пункту плана.

  4. Минимально вычитывала полученные фрагменты и объединяла их в единую статью.
Процесс выглядел логичным и визуально грамотным:
— была собрана и кластеризована семантика ядра.
— кластеры вручную распределили по страницам.
— для каждого блока подготовили подробную структуру с ключами, LSI.
— ИИ давали задачу писать по 2-4 смысловых блока за раз, чтобы упростить генерацию.

Производимые материалы соответствовали параметрам топовых статей: длина, структура, абзацы. Вхождений ключевых слов было больше нормы, но в рамках нормы — любые текстовые проверки показывали «зелёные» показатели.

В общем к СЕО и контенту претензий не было. Но главный недостаток — отсутствие реальной пользы для человека. Материалы создавались прежде всего для поисковых систем.


Почему это критично в текущих алгоритмах Google​

Google ориентируется в первую очередь на пользовательский интент — на то, какое намерение стоит за поисковым запросом. Человек приходит на страницу с чёткой задачей: получить документ, найти ответ, увидеть таблицу, инструкцию, видео и т. д.

Именно интент определяет, какая информация должна быть на странице, чтобы она ранжировалась. Если текст не решает проблему пользователя, он автоматически становится не полезным — вне зависимости от того, создала ли его нейросеть или эксперт с ученой степенью.

Также если сайт открывается в разных профилях или агентство тестирует выдачу через разные браузеры, лучше использовать MoreLogin. Чем точнее сайт соответствует ожиданиям аудитории в разных условиях, тем выше вероятность стабильного ранжирования.



Как вернуть трафик​

Чтобы вернуть утраченный трафик, команды начали с переработки коммерческих страниц. Они были созданы с помощью ИИ и не проверялись из-за чего важные для пользователя сведения — стоимость услуг, примеры работ, ключевые преимущества — оказались спрятаны глубоко на странице, проще говоря клиент ничего дельного не видил. Контент переписали, убрали излишнюю «воду», усилили тематической лексикой, чтобы поисковая система точнее определяла релевантность запросам. Важные блоки перекинули к началу страницы, чтобы пользователь сразу видел ключевую информацию.

Повысили качество уже опубликованных статей. После появления более продвинутой модели Claude 3 Opus часть материалов сгенерировали заново, но на этот раз подключили живого редактора, который тщательно вычитывал тексты и приводил их в соответствие с человеческими ожиданиями. На страницах добавили контент, который интент посетителей, а не просто заполнял структуру.

Дополнительно провели очистку блога и удалили материалы которые больше не приносили никакой ценности.

В итоге уже через две недели сайты с такими изменениями вышели из-под фильтра Google Helpful Content, а поисковое ранжирование и трафик полностью восстановились.

Итог​

Если страница не отвечает на запрос, она не будет считаться ценной, независимо от формального качества.

Важно учитывать, что Google оценивает не только конкретную страницу, но и сайт в целом. Если на домене мусор большого объема слабых материалов, отдельные качественные статьи будут проигрывать более сильным конкурентам.

Также не рекомендуется создавать страницы под запросы, которые пользователь решает за несколько секунд: быстрее визиты негативно влияют на поведенческие факторы и ухудшают позиции сайта в выдаче.
 
Сверху Снизу