Самые важные уроки, которые я усвоил из HCU на данный момент
В этом посте:
- Что нового в этом конкретном обновлении?
- Полезный контент и тематический радиус.
- Почему HC применяется алгоритмически, а нарушение репутации сайта контролируется вручную?
- Обновление HCU появилось на вашем сайте?
- Пять шагов восстановления после обновления HCU
- Стратегия, ориентированная на будущее
- Заключительные мысли.
Обновление полезного контента (HCU) от Google с 2023 года занимает лидирующие позиции в обсуждениях SEO и контент-стратегий. Тем не менее, несмотря на внимание, как Google, так и отраслевые эксперты предлагают советы, которые остаются расплывчатыми и которые трудно перевести в четкие стратегии защиты вашего сайта.
Google говорит нам писать «полезный контент», но никогда не дает определения, что это на самом деле означает.
В своей работе, исследуя данные сайтов, я заметил два закономерности. Во-первых, HC, по-видимому, измеряет «бесполезность» контента на сайтах несколькими способами. Во-вторых, данные показывают, что контент получает метки «бесполезный» в зависимости от того, насколько он тематически соотносится с другими страницами сайта.
Авторы контента предлагают свои услуги, чтобы писать в соответствии с рекомендациями HC. Но это невозможно, поскольку авторы сосредоточены на одном конкретном контенте, в то время как HC оценивает каждую страницу как часть более широкой тематической группы. В конечном счёте, вы — хранитель своего домена, а не автор.
Что нового в этом конкретном обновлении?
С августа 2021 года я провожу ежедневные тесты индексации. Я не ставил перед собой задачу изучать обновления Справочного центра в 2021 году, но обнаружил, что в декабре 2022 года что-то резко изменилось: Google перестал индексировать и показывать контент, который раньше индексировал и показывал.
5 декабря 2022 года было выпущено отдельное обновление HC, и API индексирования, управляющее поведением ботов, изменило шаблон работы бота. Это совпало с резким падением скорости индексации контента.
Поэтому я начал тестировать различные факторы. Когда я тематически оформил контент тестового сайта, индексация резко выросла: с 63% до 94% для первого прохода и с 68% до 88% для JavaScript. [ Источник ]
Google ранжирует и обслуживает страницы как коллекции (домен)
Данные убедительно свидетельствуют о том, что HC отличается от других обновлений , которые оценивают отдельные страницы изолированно. Хотя обновление HC напоминает обновление Panda 2011 года, из-за своего влияния на весь сайт оно выходит далеко за рамки борьбы с ненасыщенным спамом.
Результаты моих тестов и наблюдений показывают, что Google теперь оценивает каждую страницу как часть тематической группы в пределах домена.
Эта оценка сравнивает тематику нового контента со всеми остальными страницами сайта. Когда HC обнаруживает страницы, тематические расстояния которых слишком велики или слишком близки к другим существующим страницам, он присваивает им тег «бесполезно», который в конечном итоге подавляет видимость этих страниц.
Документация подтверждает такое понимание HC. Утечка документации API в апреле 2024 года показала, что Google ссылается на страницы «siteFocusScore», «siteRadius» и «siteEmbeddings»: «Проще говоря, Google создаёт тематическую идентификацию для вашего сайта и сравнивает каждую страницу с этой идентификацией». [ Источник ]
Может ли сайт отображаться в результатах поиска без централизованного «siteFocusScore»?
Да. Новостные сайты могут быть и обслуживаются. Новостные сайты не имеют какой-то одной тематической направленности, даже в рамках общей новостной темы.
Как Google может измерить тематический радиус домена, состоящего из новостных статей, охватывающих бесчисленное количество тем мировых новостей?
Учитывая отсутствие очевидного влияния HC на новостные сайты, похоже, что эти сайты содержат больше «полезного» контента. Но может ли быть, что они освобождены от него?
Случайно ли Google применил правила HC к новостным сайтам?
Полагаю, это произошло потому, что летом 2023 года крупные корпоративные новостные сайты, распространявшие свой оригинальный контент через канонизированные RSS-каналы другим издателям, начали сталкиваться с проблемами индексации. Опубликованные страницы стали исчезать из результатов поиска уже через несколько часов после публикации. [ Источник ]
Вскоре после этого в Search Console (SC) появились поля с вопросами. Это привело многих к выводу, что Google не может классифицировать или идентифицировать новостные сайты исключительно на основе данных об их сайтах.
Google никогда прямо не заявлял, что новостные сайты освобождены от HC. Тем не менее, другие доказательства, такие как принудительное применение штрафа за нарушение репутации сайта (SRA), свидетельствуют о необходимости такого исключения из процедуры классификации HC.
Полезный контент и тематический радиус
Основываясь на измерении тематического радиуса, представленном в документации API, HC оценивает сайт не только по представлению одной страницы, но и по конкретной коллекции. Google поясняет: «Этот сигнал также имеет весовой коэффициент; сайты с большим количеством бесполезного контента могут заметить более сильный эффект». [ Источник ]
На основе этой информации я пришёл к выводу, что структура и содержание сайта определяют, будет ли он затронут. Ниже перечислены особенности, которые могут потенциально повлиять на измерения радиуса тематики.
Сайты с несколькими темами
Домены уязвимы, когда они охватывают несколько тем, которые люди могут мысленно связать, но не имеют математического «тематического моста» в своем контенте, который Google может алгоритмически распознать.
Например, наш мозг может легко связать лежанки для собак со страхованием здоровья собаки или покупку дома для проживания с покупкой дома для перепродажи в качестве инвестиции.
Однако система HC не может установить эти связи без посторонней помощи. Границы тем, которые она ожидает, определяются математически на основе того, что уже существует на наших сайтах. Чтобы система HC могла соединить эти темы, эти связи должны присутствовать в контенте.
Несколько страниц, ориентированных на один и тот же запрос
Методы SEO «старой школы», создающие несколько страниц, ориентированных на один и тот же запрос, привели к тому, что многие сайты потеряли видимость после выхода HCU в сентябре 2023 года.
Несколько страниц в одном домене, ориентированные на один и тот же запрос, теперь приводят к снижению видимости, даже если они не являются точными дубликатами.
Сюда входят страницы, содержащие следующие примеры фраз:
- Выбор лучшего местного подрядчика по замене кровли.
- Советы по поиску лучшего подрядчика по кровельным работам.
- Замена кровли и как найти подходящего подрядчика по кровельным работам.
- Как выбрать лучшего местного подрядчика по кровельным работам и т. д.
В ходе таких консультаций эти страницы индексировались в Search Console, но только одна страница из группы отображалась в результатах поиска по запросу. Нередко несколько страниц в одном и том же «тематическом узле» исчезают и становятся недоступными для поиска по ключевым словам.
Даже если одна страница продолжает появляться в результатах, наличие достаточного количества похожего «бесполезного» контента приводит к блокировке всего сайта.
Стандартная функция сайта: ссылки для перехода по оглавлению
Дублирование контента (то есть несколько URL-адресов, ведущих к идентичному тексту слово в слово) никогда не приносило пользы. В эпоху хардкорного контента оно становится экзистенциальным.
В ходе моих частных консультаций данные по сайтам, использующим ссылки таблицы содержания (TOC) в своих статьях, неоднократно демонстрировали резкое падение количества показов, кликов и рейтингов.
Когда я читал публичные публикации в социальных сетях, где владельцы сайтов публиковали свои домены с помощью SEO-инструментов и исторических данных, я заметил, что сайты, использующие TOC-ссылки, демонстрировали снижение видимости. Это снижение наблюдалось повсеместно: от крупных корпоративных сайтов (например, Hardbacon ) до сайтов-партнёров.
На всех сайтах, которые я наблюдал, используя TOC, был объявлен канонический метатег . Те, к которым у меня был доступ через Search Console, показали, что URL-адреса с анкорным текстом внезапно выросли в количестве показов и позиций, но не в общем количестве кликов.
Так же внезапно эти ссылки для перехода исчезли из данных, а видимость сайта осталась на прежнем уровне. Данные часто показывали, что URL-адреса с анкорным текстом превосходят канонический URL по нескольким запросам.
Единственное логичное объяснение заключается в том, что HC оценивает каждый URL с хэштегом (#) как отдельную страницу, не связанную с канонической. Таким образом, создаётся ложная и порочащая история о дублировании контента на домене.
Эту ахиллесову пяту в HC может исправить только Google.
При измерении тематического радиуса оценка каждого URL-адреса по отдельности создает двойной удар, поскольку несколько страниц отвечают на один и тот же запрос и повторяют друг друга слово в слово.
На последнем саммите Google Creator Summit в Вашингтоне, округ Колумбия, компания Google обсуждала тему содержания. По словам одного из участников, в закрытой обстановке (без камер) Google сообщила, что «некоторые виджеты содержания могут сбивать поисковые роботы с толку и даже снижать показатели чёткости». [ Источник ]
Почему HC применяется алгоритмически, а нарушение репутации сайта контролируется вручную?
Существует причина, по которой Google должен применять ручное наказание за злоупотребление репутацией сайта (SRA), и ручное применение санкций подтверждает утверждение, что новостные сайты освобождены от HC, поскольку многие новостные сайты, по всей видимости, получили штрафы.
Если бы HC использовался алгоритмически на новостных сайтах, то, учитывая тематическую природу оценки HC набора страниц в домене, HC мог бы в одиночку уничтожить онлайн-новостную индустрию в течение 48 часов.
Чтобы обуздать корпоративные новостные сайты, которые, возможно, предположили, что им предоставлена некая форма алгоритмической защиты, и начали переносить всю свою власть и полномочия на партнерские предложения, Google была вынуждена вручную обеспечить соблюдение духа HC.
Освободив тип сайта от ограничений HC, Google создал ситуацию, которую им пришлось контролировать, но при этом не уничтожать корпоративные новостные организации ради достижения своей цели.
На закрытом саммите Google Creator Summit в мае 2025 года «Google сразу признал, что знает, что их система отдаёт предпочтение крупным сайтам. Они не хотели этого делать, но алгоритм развивался именно так». [ Источник ]
Я считаю, что именно так все и развивалось: Google действует по двум наборам правил в зависимости от того, считает ли он ваш сайт новостным или нет.
Обновление HCU появилось на вашем сайте?
Ниже представлен экстремальный пример сайта, постоянно подвергающегося атакам со стороны HC. Этот сайт был буквально уничтожен обновлением HC в сентябре 2023 года и продолжает испытывать перегрузку по сей день.
У сайтов блогеров и партнёрских сайтов, большинство страниц которых основаны на оглавлении, резкое падение видимости (показов) по-видимому, связано с тем, что их анкорные URL-адреса оцениваются как отдельные страницы, что приводит к ложной оценке дублирования контента. Такие сайты могут непреднамеренно освещать более тематические темы, которые не были бы востребованы при использовании оглавления.
Сводные данные Search Console наглядно отражают ущерб, нанесенный системе полезного контента , и в то же время затрудняют для SEO-специалистов выявление его причины.
Microview: Максимальная проверка
Ниже приведен пример одного канонического URL-адреса в сравнении с одним URL-адресом анкорного текста URL-адреса TOC, ранжируемого по той же поисковой фразе в тот же день.
Учитывая, что оба URL-адреса заняли одну и ту же позицию в один и тот же день по одной и той же поисковой фразе, мы можем обоснованно заключить, что полученный рейтинг на одинаковой позиции по схожей ключевой фразе указывает на точное совпадение оценок по системе ранжирования и подсчета баллов Google.
Эти страницы идентичны, это просто разные URL-адреса с одинаковым контентом. На следующем снимке экрана в цифрах показано, как выглядит дублирующийся контент на одном домене.
Те же данные показывают, что вскоре после этой даты количество показов и позиция URL-адреса якоря №1 перестали отражаться в данных. После его исчезновения количество показов и позиция канонического URL-адреса снизились.
За последние два года я проанализировал около пятидесяти сайтов, не имея доступа к данным Search Console. В каждом случае наблюдался резкий рост видимости (показов), после чего значительно сокращалось количество ранжирующих запросов, что приводило к снижению позиций канонических страниц во время и после обновлений.
Пять шагов восстановления после обновления HCU
В отличие от предыдущих обновлений, где мы могли видеть свидетельства некоторой степени перемен в дальнейшем, HC выделяется как фактор, не знающий милосердия.
Короче говоря, простых решений нет. Восстановление повреждённого сайта после обновления HC — непростая задача, требующая значительных усилий, в зависимости от размера сайта и времени, необходимого Google для его повторной оценки.
Ожидайте более быстрого восстановления сайтов с меньшим количеством проблем. Некоторые SEO-специалисты сообщают о восстановлении сайтов после удаления ссылок TOC; однако это скорее исключение, чем правило.
В ходе моих экспертных консультаций я обнаружил, что у большинства старых сайтов часто есть одна или несколько проблем с HR, которые влияют на их падение, например, чрезмерное использование ключевых фраз или низкий уровень оптимизации по сравнению с конкурентами. Эти проблемы необходимо выявить и устранить.
Кроме того, сайты, имеющие множественные проблемы, могли уступить конкурентам, или Google мог изменить свои смешанные результаты поиска и больше не показывать этот тип контента в своих результатах.
Каждый случай индивидуален, и универсального подхода не существует.
С чего начать?
1. Определите проблемные страницы на уровне страницы.
В нашей отрасли существует предубеждение, что более широкий обзор, содержащий все данные, — это лучший обзор. Усреднённые данные Search Console (SC) не помогли мне найти то, что я искал, но отфильтрованные и уточнённые данные каждый раз показывали что-то новое. К счастью, SC предоставляет фильтр для данных о производительности.
Если это ваш сайт, вы знаете, какие страницы влияют на вашу прибыль, и именно с этого вам нужно начать.
Если вы не знаете, какие страницы были посещены, вам придется изучить данные.
Я выявляю проблемные страницы, отключая все показатели эффективности, кроме показов, и устанавливая диапазон дат на 16 месяцев, чтобы определить даты расцвета и резкого падения показов.
Используя эти данные, я фильтрую результаты дальше, чтобы увидеть данные по всем страницам с символом «#» в URL. Это даёт мне список страниц, которые нужно проверить.
Затем я сравниваю каноническую страницу со всеми её анкорными текстами, чтобы оценить ущерб. Затем я просматриваю страницы одну за другой. На этом этапе самый безопасный вариант — удалить ссылки в оглавлении.
У вас могут быть удалённые страницы, но не используйте ссылки на оглавление. В электронной таблице создайте вкладку для страниц с оглавлением для последующего просмотра и поместите оставшиеся страницы на отдельную вкладку для других вопросов, отметив, если какие-либо из них не относятся к теме, а затем создайте отдельную вкладку для этих URL-адресов.
2. Группируйте перекрывающиеся тематические страницы узлов
Проблемные страницы — это страницы, отвечающие на тот же запрос. Часто их можно выявить, просматривая URL-слаги в картах сайта или анализируя данные всего сайта.
С точки зрения диагностики этот процесс переводит нас от оценки отдельных страниц к оценке групп запросов.
Часто страницы этой группы имеют статус «Страница проиндексирована» при проверке с помощью SC Inspect URL. Не путайте это с отображением страницы в результатах поиска. [ Источник ]
Проиндексированные страницы, не обслуживаемые в данных по эффективности, не имеют показов и позиций. Чтобы найти их в поиске, используйте кавычки вокруг URL. В этом случае вы получите такой ответ.
Результаты поиска Google с кавычками показывают, что URL-адрес проиндексирован, но не отображается в основных результатах
Для тематически пересекающихся страниц, которые отображаются как проиндексированные в GSC, обычно видно, что Google выбрал для обслуживания только одну из них. Остальные не попадают в индекс поиска, но всё равно влияют на производительность.
Страница, которую Google выбрал для показа, начинает падать, словно теряет обороты. Если таких групп страниц достаточно, то, хотя в полных данных это выглядит как подавление сайта, их кульминация на уровне страницы провоцирует подавление.
3.Определите приоритеты изменений
Страницы в столбце «Другие проблемы» содержат решение, и необходимо определить, как использовать оглавление. Сначала проверьте список «Другие проблемы» и определите, попали ли в него страницы с высокой эффективностью.
4. Объедините все, что можете, и удалите все, что нужно.
Проще всего исправить те страницы, которые совершенно не по теме. Избавьтесь от них!
Другим решением является объединение частей страниц, контент которых не отображается в результатах поиска, в одну страницу, которая отображается. Затем определите, как работать с избыточными страницами. По моему опыту, страницу можно удалить, если она не отображается и не имеет показателей производительности.
Вам придётся решить, нужно ли вам использовать код 301 в любом из этих случаев . В любом случае убедитесь, что ваша карта сайта содержит только страницы со статусом ответа 200.
5. Повторно просканируйте обновленный контент.
Мой тест индексации подтверждает, что как только сайт получает сигнал, обновлённый контент нуждается в обновлении. Не ждите, пока Google «обнаружит» обновлённый контент. Вместо этого повторно отправьте карту сайта и вручную запросите индексацию главной страницы и любых важных обновлённых страниц.
Стратегия, ориентированная на будущее
Некоторые SEO-специалисты утверждают, что лучшее решение — перенести всё на новый домен, но это отсрочит неизбежное. Классификатор HC сделает с ним то же, что и с оригиналом. Это лишь вопрос времени, и вы вернётесь к исходному состоянию.
Для уже существующих брендов переход на новый домен не является вариантом.
Принять актуальную стратегию
Переходите от стратегии ключевых слов к тематической стратегии . Если вы занимаетесь SEO самостоятельно более 10 лет или обучались SEO у специалистов, специализирующихся на этой стратегии, переосмысление этого основополагающего принципа покажется вам чем-то неестественным.
Однако единственный способ вернуться в игру сейчас — это сменить стратегию.
Диверсифицируйте не только трафик
Существует множество других возможностей для обмена информацией, помимо вашего веб-сайта. SEO-агентствам, публикующим больше страниц ежемесячно на сайтах клиентов, следует отказаться от этой услуги или модифицировать её.
Будьте активны и бдительны
Привыкайте отслеживать основной контент в Search Console на уровне отфильтрованных страниц. Не полагайтесь на аналитику и отчёты о рейтинге, чтобы не заменять осмотрительность.
В Search Console страница может то появляться, то исчезать из данных, но вы не имеете ни малейшего представления о том, что она испытывает трудности, поскольку ваш инструмент отслеживания позиций зафиксировал ее в момент появления в результатах поиска SERPS.
Итог
Полезного контента не существует. Есть только бесполезный контент. Тематический контент теперь оценивается за пределами отдельного фрагмента. Всё, что не является бесполезным (тематически) по умолчанию, считается полезным (тематически).
Данные моих исследований показывают, что бесполезный контент в различных формах способствует упадку сайта. Полезный контент, по сути, является фактором тематики домена. Более глубокое понимание домена как набора страниц и тематически связанного целого поможет восстановиться и минимизировать будущую уязвимость.

Иван Захаров
Закончил факультет Автоматики и Электроники Московского Инженерно-физического института в 2013 году. С 2015-го года занимаюсь интернет-маркетингом. Создатель проекта Seoforger.ru. Женат. Хобби – путешествовать, кататься на велосипеде, писать статьи по СЕО, интернет-маркетингу и техническому СЕО.
Недавнее

5 видов B2B-контента, которые любят поисковые системы с ИИ
Узнайте 5 видов B2B-контента, которые чаще всего попадают в результаты ИИ-поиска. Советы по сравнению продуктов, API-документации, кейсам, лидерским мнениям и продуктовым гайдам.

Эффективность контента: 14 показателей для отслеживания результатов
Эффективность контента: что это, зачем отслеживать и какие метрики учитывать. Подробно разбираю 14 ключевых KPI — от просмотров и вовлечённости до SEO и ROI. Пошаговый подход к измерению результатов.

9 главных маркетинговых трендов 2025 года
Маркетинговые тренды 2025 года: AI, GEO, короткие видео, микроинфлюенсеры, пользовательский контент и создание сообществ. Советы по контенту и SEO от девушки-маркетолога.