Использование нейронки прилично упрощает создание контента, но не всегда такой материал способен привлекать трафик. Как поисковые системы Google и Яндекс вообще относятся к AI-контенту, по каким принципам его ранжируют и что нужно сделать чтобы улучшить позиции страниц в выдаче? Об этом сегодня и поговорим.
Материалы были с низкой информативностью: много воды, слабая конкретика, часто переспам.Несмотря на это по формальным SEO-показателям тексты выглядели корректно: большой объем, хорошая структура, подзаголовков, прямые и разбавленные вхождения ключей. Даже такая стратегия действительно приносила результаты.
Ситуация изменилась в марте 2024 года после выхода обновления Google Helpful Content. Алгоритм начал жестко оценивать качество и пользу материалов, и в итоге трафик сайта снизился почти вдвое.
— была собрана и кластеризована семантика ядра.
— кластеры вручную распределили по страницам.
— для каждого блока подготовили подробную структуру с ключами, LSI.
— ИИ давали задачу писать по 2-4 смысловых блока за раз, чтобы упростить генерацию.
Производимые материалы соответствовали параметрам топовых статей: длина, структура, абзацы. Вхождений ключевых слов было больше нормы, но в рамках нормы — любые текстовые проверки показывали «зелёные» показатели.
В общем к СЕО и контенту претензий не было. Но главный недостаток — отсутствие реальной пользы для человека. Материалы создавались прежде всего для поисковых систем.
Именно интент определяет, какая информация должна быть на странице, чтобы она ранжировалась. Если текст не решает проблему пользователя, он автоматически становится не полезным — вне зависимости от того, создала ли его нейросеть или эксперт с ученой степенью.
Также если сайт открывается в разных профилях или агентство тестирует выдачу через разные браузеры, лучше использовать MoreLogin. Чем точнее сайт соответствует ожиданиям аудитории в разных условиях, тем выше вероятность стабильного ранжирования.
Повысили качество уже опубликованных статей. После появления более продвинутой модели Claude 3 Opus часть материалов сгенерировали заново, но на этот раз подключили живого редактора, который тщательно вычитывал тексты и приводил их в соответствие с человеческими ожиданиями. На страницах добавили контент, который интент посетителей, а не просто заполнял структуру.
Дополнительно провели очистку блога и удалили материалы которые больше не приносили никакой ценности.
В итоге уже через две недели сайты с такими изменениями вышели из-под фильтра Google Helpful Content, а поисковое ранжирование и трафик полностью восстановились.
Важно учитывать, что Google оценивает не только конкретную страницу, но и сайт в целом. Если на домене мусор большого объема слабых материалов, отдельные качественные статьи будут проигрывать более сильным конкурентам.
Также не рекомендуется создавать страницы под запросы, которые пользователь решает за несколько секунд: быстрее визиты негативно влияют на поведенческие факторы и ухудшают позиции сайта в выдаче.
Как AI-контент повлиял на трафик сайта: причины роста и падения
После появления чат-ботов типа ChatGPT и Claude, компании, как и многие агенства— запустили собственную контент-ферму. Команды подбирали ключевые запросы, формировали корректные промпты, массово генерировали ИИ-статьи для блога и создаваемые по шаблонам лендинги, практически не выполняя ручную вычитку.Материалы были с низкой информативностью: много воды, слабая конкретика, часто переспам.Несмотря на это по формальным SEO-показателям тексты выглядели корректно: большой объем, хорошая структура, подзаголовков, прямые и разбавленные вхождения ключей. Даже такая стратегия действительно приносила результаты.
Ситуация изменилась в марте 2024 года после выхода обновления Google Helpful Content. Алгоритм начал жестко оценивать качество и пользу материалов, и в итоге трафик сайта снизился почти вдвое.
Почему произошёл обвал трафика
На что компании ссылались, причины падения позиций:- Google начал жестко «штрафовать» сайты за использование AI-контента.
- Быстрые публикации, было опубликовано много страниц с низкокачественными материалами.
- пользователи не находили полезную информацию и сталкивались с большим количеством «воды».
- переспам, тексты содержали избыточное количество ключевых слов.
Как создавался этот контент
Для генерации использовали разные ИИ модели, например Claude AI.- Загружали в нейросеть качественные статьи конкурентов.
- На их основе просила сформировать структуру будущего материала — outline.
- Ставила задачу написать текст по каждому пункту плана.
- Минимально вычитывала полученные фрагменты и объединяла их в единую статью.
— была собрана и кластеризована семантика ядра.
— кластеры вручную распределили по страницам.
— для каждого блока подготовили подробную структуру с ключами, LSI.
— ИИ давали задачу писать по 2-4 смысловых блока за раз, чтобы упростить генерацию.
Производимые материалы соответствовали параметрам топовых статей: длина, структура, абзацы. Вхождений ключевых слов было больше нормы, но в рамках нормы — любые текстовые проверки показывали «зелёные» показатели.
В общем к СЕО и контенту претензий не было. Но главный недостаток — отсутствие реальной пользы для человека. Материалы создавались прежде всего для поисковых систем.
Почему это критично в текущих алгоритмах Google
Google ориентируется в первую очередь на пользовательский интент — на то, какое намерение стоит за поисковым запросом. Человек приходит на страницу с чёткой задачей: получить документ, найти ответ, увидеть таблицу, инструкцию, видео и т. д.Именно интент определяет, какая информация должна быть на странице, чтобы она ранжировалась. Если текст не решает проблему пользователя, он автоматически становится не полезным — вне зависимости от того, создала ли его нейросеть или эксперт с ученой степенью.
Также если сайт открывается в разных профилях или агентство тестирует выдачу через разные браузеры, лучше использовать MoreLogin. Чем точнее сайт соответствует ожиданиям аудитории в разных условиях, тем выше вероятность стабильного ранжирования.
Как вернуть трафик
Чтобы вернуть утраченный трафик, команды начали с переработки коммерческих страниц. Они были созданы с помощью ИИ и не проверялись из-за чего важные для пользователя сведения — стоимость услуг, примеры работ, ключевые преимущества — оказались спрятаны глубоко на странице, проще говоря клиент ничего дельного не видил. Контент переписали, убрали излишнюю «воду», усилили тематической лексикой, чтобы поисковая система точнее определяла релевантность запросам. Важные блоки перекинули к началу страницы, чтобы пользователь сразу видел ключевую информацию.Повысили качество уже опубликованных статей. После появления более продвинутой модели Claude 3 Opus часть материалов сгенерировали заново, но на этот раз подключили живого редактора, который тщательно вычитывал тексты и приводил их в соответствие с человеческими ожиданиями. На страницах добавили контент, который интент посетителей, а не просто заполнял структуру.
Дополнительно провели очистку блога и удалили материалы которые больше не приносили никакой ценности.
В итоге уже через две недели сайты с такими изменениями вышели из-под фильтра Google Helpful Content, а поисковое ранжирование и трафик полностью восстановились.
Итог
Если страница не отвечает на запрос, она не будет считаться ценной, независимо от формального качества.Важно учитывать, что Google оценивает не только конкретную страницу, но и сайт в целом. Если на домене мусор большого объема слабых материалов, отдельные качественные статьи будут проигрывать более сильным конкурентам.
Также не рекомендуется создавать страницы под запросы, которые пользователь решает за несколько секунд: быстрее визиты негативно влияют на поведенческие факторы и ухудшают позиции сайта в выдаче.