Продвигаем бизнес в Интернете с 2001 года

Какой ИИ-контент хорошо ранжируется в 2024 году

Что мешает AI-контенту хорошо ранжироваться и как эти проблемы решить — рассказал Олег Шестаков, основатель и CEO, Rush Agency.

Последнее обновление: 14 февраля 2025 года
357

Время прочтения: 7 минут

Тэги: SEOOptimization


О чем статья:


Для кого эта статья:

  • для SEO-специалистов;
  • для продакт-менеджеров;
  • для руководителей проектов;
  • для владельцев бизнеса.

Нейросети облегчают создание контента. Но подойдет ли он для привлечения трафика? Как сейчас ранжируется AI-контент в Google и Яндексе, что делать, чтобы он получал в поисковой выдаче более высокие позиции, на конференции Optimization-2024 рассказал Олег Шестаков, основатель Digital агентства Rush Agency и сервиса поисковой аналитики Rush Analytics.

Как использовали AI-контент на своем сайте и к чему это привело: рост и падение трафика

Знакомство команды Rush Agency с AI-технологиями началось еще до появления ChatGPT, в  2022-м году. Контент генерировали с помощью нейросети Jasper AI, оптимизируя его по рекомендациям Serfer SEO.  Это успешно привлекало трафик на сайт.

На графике ниже показана динамика позиций сайта. Красная линия — топ-10, оранжевая — топ-5, зеленый — топ-3.

AI-1.png


В 2023-2024 гг., после выхода чат-ботов ChatGPT и Claude, агентство, как и многие другие, запустило контент-ферму. Специалисты собирали ключевые слова, делали правильные промты, создавали ИИ-тексты для блога, по шаблонам генерировали лендинги, почти ничего не вычитывая. 

В статьях было мало конкретики, много «воды», переспам. Но с точки зрения SEO-метрик текста — количества знаков, структуры, подзаголовков, прямых и разбавленных вхождений — все было нормально. И это тоже эффективно работало. До марта 2024-го года, когда  Google выпустил обновление алгоритма Helpful Content — и трафик сайта упал в два раза.

На графиках ниже оранжевая линия показывает рост органического трафика после создания контент-фермы с августа 2023 г и падение после марта 2024 г. 

AI_2.png


AI_new.png


Почему упал трафик

На этот счет команда выдвинула несколько гипотез:

  • Google наказывает за AI-контент;

  • мы создали большое количество страниц с некачественным контентом в короткое время;

  • пользователям не нравится «вода» в тексте;

  • тексты переспамлены ключевыми словами.

На самом деле сайт попал под фильтр из-за малополезного контента.

Как создавали этот контент:

  1. Использовали для генерации последнюю модель Calude AI.

  2. Загружали в нейросеть качественные тексты конкурентов. 

  3. На их основании просили сделать план статьи — outline.

  4. Ставили задачу по каждому пункту outline написать текст.

  5. Вычитывали базово эти куски и склеивали их друг с другом.

Все этапы генерации были грамотно выстроены. Собрали семантику, кластеризовали и вручную распределили кластеры по страницам. Для блоков текста составляли детальную структуру с подтемами, ключевыми словами, NLP LSI (релевантной семантикой). Просили нейросеть писать по два-три блока, чтобы ей было проще это сделать.

Получившиеся тексты по структуре соответствовали статьям конкурентов, их размер был средним для текстов в топе, каждый абзац имел смысл. Вхождений было чуть больше, чем нужно, но не критично. Их можно было загружать в любые текстовые анализаторы — все было в рамках допустимых значений.

С точки зрения текстового ранжирования к контенту было не придраться. Но он был не полезным — созданным только для поисковых систем, а не для закрытия интента пользователя.

В текущем алгоритме Google интент пользователя, выраженный в поисковом запросе, — главный ориентир. Посетитель приходит на сайт с четким поисковым намерением, например, скачать документ, узнать ответ на вопрос. И хочет получить результат в определенном формате: таблица, фото, видео и т. д.

Интент определяет, какую информацию нужно разместить на странице, чтобы она ранжировалась в поисковых системах. Если контент не решает проблемы пользователя, он не полезный. И не важно, кто написал текст — нейросеть или профессор университета.

Доставляем экспертный контент

Отправляем полезные статьи, советы наших специалистов, приглашаем
на отраслевые мероприятия.
Подпишитесь, чтобы первыми узнавать об эффективных методах продвижения
вашего бизнеса!

Нажимая на кнопку «Подписаться», я даю согласие на обработку персональных данных
и соглашаюсь c политикой конфиденциальности

Спасибо за подписку!

Мы отправили вам проверочное письмо — пожалуйста, подтвердите адрес электронной почты, перейдя по ссылке внутри письма.

Произошла ошибка

Пожалуйста, попробуйте еще раз

Что такое некачественный контент для поисковых систем

Олег Шестаков отметил три основных признака неполезных текстов:

  1. Они написаны AI только для того, чтобы получить трафик. Тексты не проверены на читаемость и адекватность, неинформативны.

  2. Они добавляются на сайт с неестественной для данного домена скоростью. На сайте агентства за три месяца прибавилось 50% от количества статей, написанных за восемь лет.

  3. Они имеют плохие поведенческие факторы. Пользователи не дочитывают, уходят, не переходят на другие страницы, даже если остаются на сайте долго. Очень важно количество просмотренных страниц за визит.

Что сделали, чтобы трафик вернулся 

Улучшили коммерческие страницы. Их тоже создали с помощью искусственного интеллекта и не проверили. Важная для пользователя информация с ценами на услуги и кейсами оказалась на 14-ом экране.

  • Тексты переписали, снизив процент «воды». Добавили слова из тематики, которые помогают поисковой системе точнее определить, с чем связан запрос.

  • Перенесли важные для пользователя блоки на второй экран.

Повысили ценность ранее размещенных статей. 

  • Когда появилась продвинутая модель искусственного интеллекта Claude 3 Opus, повторили генерацию контента с ее помощью.

  • Привлекли редактора, который вычитал тексты.

  • Добавили материалы, которые закрывали интент пользователя.

Удалили страницы блога (примерно 60 лонгридов) с плохими поведенческими факторами. В том числе некоторые статьи с устаревшей информацией, которая перестала быть полезной.

Результат: через полмесяца сайт вышел из-под фильтра Google Helpful Content, ранжирование и трафик восстановились.

На графике оранжевая линия показывает падение и рост поискового трафика после выхода из-под фильтра. 

AI_33.png

Как сейчас ранжируется AI-контент в Google и Яндексе: исследование 

Чтобы выяснить, как поисковые системы воспринимают AI-контент, агентство провело собственное исследование. 

Его целями было:

  • понять, хорошо ли ранжируются ИИ-тексты в Google и Яндексе;

  • выделить ключевые отличия в ранжировании Яндекса и Google;

  • определить, какой должна быть оптимизация текстов под каждую из этих поисковых систем, если используем AI.

Методология исследования:

  • Отобрали контрольную группу из 1000 информационных запросов в пяти тематиках: криптовалюта и форекс, бизнес, медицина, ветеринария, косметология. Отдельно смотрели рандомные информационные запросы, чтобы выявить корреляции между информационной нишей и ИИ-текстами.

  • Спарсили тексты со страниц в топ-10.

  • Проверили их на искусственный интеллект с помощью инструментов GPT Zero и Originality.

  • Отобрали тексты, сгенерированные AI: показатель того, что они, скорее всего, созданы нейросетью, при проверке был больше 80. 

Какой процент в топе поисковой выдачи приходится на AI-контент, показали в таблице. 


Тематика

Google

Яндекс

Криптовалюта и форекс 

21%

10,7%

Бизнес

14,9%

10,3%

Медицина

26,8%

20,3%

Ветеринария

30,3%

22%

Косметология

15,7%

12,7%

Прочие рандомные информационные запросы

20%

16,7%



Процент страниц с ИИ-контентом, попавших в топ и Google, и Яндекса:

  • криптовалюта и форекс — 6,65%;

  • бизнес — 34%;

  • медицина — 28%;

  • ветеринария — 31,1%;

  • косметология — 21,7%;

  • рандомные информационные запросы — 28,2%.

По всей выборке изучили текстовую оптимизацию. Для каждой страницы высчитали объем текста, количество точных вхождений и балл релевантности (соответствия среднему по топу). Затем получили медианные значения в каждой тематике для Google и Яндекс.

Ниже для примера итоговые цифры в нишах «Косметология» и «Бизнес».

AI_4.png

По результатам исследования сделали выводы:

  • Google по-прежнему требует больше точных вхождений и плотности ключевых слов. Актуальна рекомендация делать вхождения в первом абзаце материала. 

  • AI-контент, попавший в топ Google, по объему меньше, чем в Яндексе. Эту поисковую систему устроит и короткий текст, если он в первом же предложении закрывает интент пользователя.

  • Яндекс лучше понимает где «вода», а где полезный контент. 

Проблемы с AI-контентом и их решение

Что мешает высокому ранжированию:

  • плохое качество;

  • низкая уникальность;

  • отсутствие релевантности, попадания в интент пользователя;

  • недостатки структуры и форматирования;

  • плохие поведенческие факторы;

  • отсутствие личного опыта, исследований, примеров;

  • слабый или отсутствующий фактчекинг.

Нейросеть бесполезно учить делать прямые и разбавленные вхождения. Во-первых, она не умеет считать. Во-вторых, это уже неактуально. Для ранжирования важнее слова из тематики и NLP LSI  — семантически релевантные слова, которые показывают, что текст отвечает интенту пользователя. И поисковые системы это понимают. Чрезмерная концентрация вхождений убивает качество текста.

Важна уникальность текстов. Но это не уникальность в привычном понимании данного слова, а подход к решению задачи. Копирайтеры часто переписывают друг у друга, не добавляя ничего полезного. А нужно закрыть интент пользователя уникальным образом. Например, для сайта стоматолога в дополнение к обычным методам — написать тексты, купить ссылки, сделать хорошее юзабилити — можно предложить поставить несколько точек на Google Maps, чтобы клиентам было проще найти врача.

Проверить статью на такую уникальность может только человек. Редактор прочитает ее и сравнит с текстами конкурентов. Поймет, как они отвечали на запрос пользователя и что можно добавить еще.  Подсказку могут дать семантически связанные слова.

Как сейчас Rush Agency делает уникальный контент

  • Собираем все слова из тематики, которые должны быть в тексте, чтобы он закрыл интент пользователя. Затем ранжируем их по релевантности к основному ключевому слову.

  • Делаем подборку из фактов и разных технических данных.

  • Просим нейросеть предложить еще информацию.

  • Структурируем массив данных и загружаем в генератор. 

Мнение эксперта

Олег Шестаков, основатель и CEO Rush Agency:

Шестаков_мнение.png

«ИИ-тексты часто получаются без нормальной структуры, таблиц, сравнений. Чтобы этого избежать, мы используем разные промты для аудита содержания, загружаем в нейросеть примеры структур и текстов у конкурентов, лучше детализируем план. Мы добавляем контент, который важен для ниши и закроет интент пользователя. Для запроса «гид по Самуи» — карту Google с отелями и ресторанами. Для «сравнение катушек Shimano» — таблицу. Но не добавляем детали, если пользователю они не нужны. Если ему придется потратить время, чтобы добраться до информации, ради которой он и пришел из поисковой системы, это убьет страницу. 

Чтобы решить проблему экспертности, отсутствия в статье персонального мнения, эмоций, в промте просите нейросеть писать от первого лица, представляя все как личный опыт».


В блоге Rush Agency поделились информацией, как с помощью ИИ написать действительно качественный материал. 

Как сейчас Google ранжирует страницы в топе

Сравнивает сайты, а не только сами страницы 

Теперь недостаточно просто добавить в текст нужное количество ключевых слов, сделать хорошую структуру и раскрыть тему. 

Google учитывает поведение пользователей на сайте в целом. Важно качество всего контента. Если на сайте много созданных ИИ мусорных статей, у него в целом плохие поведенческие факторы, то новые тексты будут заходить в топ с трудом. Поэтому нельзя делать хорошо только часть контента, а остальное сгенерировать с помощью нейросетей и выложить, не вычитывая.

Анализирует поведение пользователей, пришедших не только из поиска

Поведение тех, кто пришел из социальных сетей, контекстной рекламы, также влияет на оценку Google. Если удастся закупить дешевый трафик с достойным уровнем вовлеченности, это хорошо повлияет на позиции в поисковой выдаче.

Учитывает среднее время, проводимое на сайте

Например, Google сравнивает три страницы, на каждой из которых посетители в среднем остаются по 20 секунд. При ранжировании он учтет, сколько времени пользователи проводят на каждом из сайтов-конкурентов в целом. Страница сайта с самым небольшим временем сравнение проиграет. Не потому, что она плохая, а потому что в целом контент этого сайта, вероятно, некачественный.

Не стоит делать контент под ключ с интентом, который можно очень быстро закрыть: «при какой температуре лучше готовить курицу», «как смешать фасоль и рис». Они сокращают время сессии на сайте до 10-20 секунд. А при комплексных, сравнительных запросах оно составит 1-4 минуты. Запросы с коротким интентом снижают поведенческие факторы, и сайт проигрывает конкурентам.

Статьи с плохими поведенческим факторами, структурой, отсутствием перелинковки нужно найти и доработать. А если доработать не получается — удалить.

Как внедрить создание AI-контента в редакционные процессы

  1. Найдите специалиста, который научит редакцию основам промтов. Еще лучше — AI-инженера, который будет тестировать и отлаживать промты перед загрузкой в нейросеть. Учиться с нуля самим неоправданно долго и чревато ошибками.

  2. Контролируйте процесс использования ИИ. В идеале наладьте сбор обратной связи, чтобы совершенствовать создание узкоспециальных промтов под разные задачи.

  3. Не доверяйте копирайтерам составлять промты самостоятельно. Они могут предпочитать простые промты и простые структуры текста, а этого может быть недостаточно, чтобы закрыть интент полностью.

  4. Для начала внедрите в редакцию AI-создание плана и структуры текста на странице, которые будут закрывать интент пользователя. Генерация непосредственно статей с помощью искусственного интеллекта — следующий шаг на пути внедрения.

Выводы

  • AI-контент попадает в топ Google и Яндекса: до 30% страниц в разных тематиках созданы искусственным интеллектом.

  • Контент хорошо ранжируется, если закрывает интент пользователя, создал его ИИ или человек — не так важно.

  • Поисковые системы признают некачественными страницы с плохими поведенческими факторами: короткая сессия, отсутствие перехода на другие страницы сайты. 

  • Если контент добавляется со скоростью, нетипичной для данного домена, поисковики тоже считают его некачественным.

  • В сравнении с Яндексом Google требует больше точных вхождений и плотности ключевых слов, но менее требователен к объему текста. Яндекс лучше отличает «воду» от полезного контента.

  • Особое значение для хорошего ранжирования текста приобретают слова из тематики и NLP LSI.

  • Статья должна быть уникальной не только в привычном смысле этого слова. Она должна предлагать уникальное решение проблемы пользователя, с которой он пришел на страницу.

  • При ранжировании Google сравнивает не просто страницы с сайтов-конкурентов, а сайты целиком. Если на одном из них много некачественного контента и плохие поведенческие факторы, его страница проиграет, даже если она сама по себе качественная.

  • Не стоит делать контент под запрос, который можно очень быстро закрыть: короткие визиты губят поведенческие факторы.


Марина Лисакова
Лого АиП
Марина Лисакова
Автор блогаРедактор блога
Профессиональный журналист, копирайтер, автор более 7000 публикаций в СМИ и контентных проектах, специалист по SMM и таргетированное рекламе. Сфера профессиональных интересов: digital-маркетинг, журналистика, SEO, PR, ЗОЖ. Образование: факультет журналистики МГУ им.Ломоносова, университет интернет-профессий Нетология.
Олег Шестаков
Олег Шестаков
Основатель и CEOПриглашенный эксперт
Digital-маркетолог с 14-летним опытом, специализируется на поисковом маркетинге на рынках РФ, США, Канады, ЕС и Латинской Америки. Владелец группы компаний Rush. Создал и реализовал SEO-стратегии более 120 успешных проектов в конкурентных тематиках в том числе проекты из ТОП20 по объему трафика в РФ. Любит автоматизацию, активно использует AI-инструменты.
Теги: SEO, Optimization

Вам будет интересно

Хотите обсудить ваш проект?
Напишите нам о своих бизнес-задачах, и мы предложим проверенные решения.