· 

SEO-2021: новости Google за апрель

SEO-новости Google.  Апрель 2021 года

Апрельские SEO-новости поисковой системы Google в очередном обзоре от WaterMillSky. Что известно про апдейт Product Reviews Update. Чем примечательны сигналы Core Web Vitals. Почему нельзя удалить сайт из поиска по одной стране. Порядок определения страниц с пагинацией. Бот-трафик и ранжирование сайта. Что нового в поисковой консоли. Как будет улучшаться показатель CLS. Как Google обрабатывает 302 и 301 редиректы. Порядок блокировки промежуточного сайта. Как не нужно улучшать рейтинг веб-ресурса. Лучший способ для закрытия от индексации пустых страницы категорий. Где размещать YMYL и non-YMYL контент. Сроки поднятия позиций сайта после улучшения качества. Точные сроки запуска обновления Page Experience. Особенности работы алгоритма Google Page Experience. Как оценивается Core Web Vitals. Когда запущен Google Penguin. Как распознаются авторские тексты без специальной разметки.

Официальная информация о Product Reviews Update

Дэнни Салливан из Google предоставил важные сведения об апдейте Product Reviews Update. Это очередное обновление алгоритма ранжирования товарных обзоров и отзывов о товарах:

  • Срок развертывания — две недели.
  • Назначениеанализ сайтов с отзывами по разным аспектам.
  • Целевая группа — пострадали партнёрские сайты или сайты-аффилаты с отзывами и контент в ленте рекомендаций Discover. Веб-ресурсы из сегмента электронной коммерции или интернет-магазины затронуты в меньшей степени.
  • Периодичность в будущем — регулярные обновления.
  • Объём контента — ограничен по объёму.
  • Предупреждения от Google — будут перед запуском, но не каждый раз.

 

 

Почему Core Web Vitals не влияет на допуск сайтов в блок «Главные новости»

Google разъяснил, что в блок карусели «Главные новости» без обязательного использования AMP-технологии могут попасть даже те веб-страницы, которые не обеспечивают достижение минимальных значений сигналов Core Web Vitals в рамках запуска алгоритма Page Experience по ранжированию всех страниц. Но есть одно обязательное требование: такие страницы обязаны соответствовать правилам размещения новостных материалов в Google News. В реальности попадание оригинального контента в «Top News» зависит от факторов поискового ранжирования, в том числе и от Page Experience.

 

 

Как удалить сайт из поиска Google только для одной страны

Некоторые пользователи хотят полностью удалить свой сайт из органического поиска Google в конкретной стране. По словам Джона Мюллера, подобной возможности не существует в принципе. Чтобы снизить видимость интернет-сайта по отдельному региону или лимитировать трафик нежелательных пользователей из одной страны, допускается настройка геотаргетинга. Для ограничения показа видеороликов в отдельных странах будут кстати правильно прописанные структурированные данные.

 

 

Как Google определяет страницы с пагинацией

По словам Джона Мюллера, Google отказался от применения ссылочных атрибутов «rel=prev/next». Теперь поисковая система обходится без этих подсказок и самостоятельно определяет тип страниц с пагинацией. Для этих целей применяется анализ внутренних линков на самом сайте. В отдельных случаях ссылочные атрибуты будут уместны и даже полезны. Например, чтобы улучшить возможности для пользователей сайта, которые применяют устройства для чтения текста прямо с экрана.

 

 

Как бот-трафик влияет на ранжирование сайта

Джон Мюллер из Google прояснил ситуацию с искусственным трафиком от поисковых и других роботов. В некоторых случаях внешний бот-трафик имеет отметку «органический», но вызывает вопросы о возможных последствиях на рейтинг сайта. По словам представителя Google такой трафик оказывает непрямое воздействие на ранжирование. Например, понижает производительность сайта, а это снижает возможности для быстрого сканирования.

 

 

Как Google будет улучшать показатель CLS

В апреле 2021 года команда Chrome Speed Metrics Team представила детали будущего апдейта одной из метрик Core Web Vitals. Ожидается, что показатель CLS (Cumulative Layout Shift или «Совокупное смещение макета») будет более совершенным при анализе веб-страниц с историей. В частности, максимальное окно сессии составит 5 секунд, а пауза между смежными сессиями будет равняться 1 секунде.

 

Изменение затронет менее половины действующих сайтов, основная часть которых сможет немного улучшить показатель. Незначительное количество веб-ресурсов, в том числе с бесконечной прокруткой страниц или со значительным числом медленных обновлений — получит отметку «Хорошо».

 

 

Как быстро поднимутся позиции сайта после улучшения качества

После проведения работы для устранения проблем с качеством контента в частности и всего сайта в целом потребуется ждать и достаточно долго. Google не торопится делать переобход веб-ресурса и улучшать его ранжирование. Чаще всего процесс повторного сканирования и обработки контента занимает время больше чем одна неделя. Этот срок может достигать нескольких месяцев, если были проведены значительные работы для улучшения качества.

 

 

Как Google чаще всего обрабатывает 302-е редиректы

При обработке редиректов Google анализирует все URL-адреса, чтобы далее при помощи каноникализации выбрать тот самый, что попадёт в результаты поиска. Временные 302-е и постоянные 301-е редиректы имеют много общего в плане обработки сигналов переадресации. Временный 302-й редирект указывает приоритет на исходный URL-адрес может, а постоянный — отдаёт предпочтение конечному URL.

 

Чтобы определить 302-е перенаправление в качестве постоянного редиректа, Google учитывает несколько сигналов. Например, когда 302-й редирект не меняется нескольких месяцев, тогда он будет считаться как постоянный и обрабатываться так же, как и 301-й редирект.

 

 

Как выполнить блокировку промежуточного сайта

Чтобы блокировать промежуточный сайт от индексации поисковой системой, Джон Мюллер рекомендует воспользоваться аутентификацией. При попадании сайта в результаты поиска лучше решение для блокировки — использовать инструмент удаления URL и далее выполнить аутентификацию.

 

Особенности блокировки промежуточного сайта:

  • Инструмент для удаления URL — предоставит возможность быстро скрыть страницы сайта из результатов органической выдачи Google.
  • Аутенфикация сайта с помощью логина и пароля — гарантированно исключает индексацию сайта, причём невозможно случайно добавить блокирующие директивы в файл robots.txt или прописать блокирующие метатеги robots.

Если в файле robots.txt используется директива disallow, тогда сканирование сайта будет невозможным, но его страницы останутся в индексе.

 

 

Почему изменение даты на странице не улучшает рейтинг сайта

Когда на сайте проведены небольшие изменения, а контент остался практически без изменений, тогда обновление даты публикации страницы не оказывает влияние на поисковое ранжирование, если контент остался прежним. По словам Джона Мюллера менять дату публикации на более актуальную лучше всего после внесения значительных изменений в контент.

 

 

Как лучшего всего закрыть от индексации пустые страницы категорий

Что выбрать: директиву soft 404 или мета-тег noindex? Это вопрос возникает у каждого, кто думает, что делать с временно пустующими веб-страницами товарных категорий. Джон Мюллер из Google допускает оба способа. Причем сигнал «noindex» точно гарантирует, что поисковик не будет индексировать контент с пустых страниц. Такой способ более предпочтителен, чем использование ошибки soft 404.

 

 

Советы Джона Мюллера для YMYL и non-YMYL контента

На некоторых коммерческих сайтах есть разделы с услугами, где присутствует YMYL-контент и другие разделы, например блок с обычным информационным контентом. Сразу возникает вопрос — где лучше всего разместить YMYL-контент (Ваши деньги или Ваша жизнь), чтобы Google полюбил сайт за высокий уровень E-A-T: когда экспертиза дружит с авторитетностью и вместе они олицетворяют надёжность оригинального авторского контента.

 

По мнению Джона Мюллера, YMYL-контент и non-YMYL контент следует размещать на разных сайтах. Этот приём поможет алгоритмам Google разобраться с содержимым и понять, как правильно ранжировать сайт.

 

 

Когда состоится запуск обновления Page Experience

В планах Google на июнь 2021 года значится долгожданный запуск обновления Page Experience. Первоначальный срок запуска сдвинулся на один месяц. Апдейт будет постепенным. Развёртывание продлится всё лето и завершится в конце августа.

 

 

Цель обновления

 

Выделить в поиске страницы с высоким качеством пользовательского опыта по критерию удобство страницы. Помочь владельцам сайтов улучшить страницы для пользователей. Page Experience войдёт в число факторов ранжирования Google.

 

 

Что входит в июньское обновление Page Experience:

  • Сигналы удобства страницы, в том числе и Core Web Vitals (LCP, FID, CLS) будут учитываться при поисковом ранжировании сайта.
  • В карусель «Главные новости» кроме AMP-статьей будет допущен любой новостной контент, что подходит под актуальные требования Google News.
  • В мобильных приложениях Google News и на сайте news.google.com для десктопных компьютерах будет чаще использоваться non-AMP контент.
  • В поисковой выдаче Google не будет показываться AMP-иконка. Зато будут проводиться тесты графического обозначения юзабельного контента с отличным UX по версии алгоритма Page Experience.

 

 

Как будет работать алгоритм Google Page Experience

Алгоритм Google Page Experience с высокой вероятностью начнёт действовать в мае 2021 года. По аналогии с другими обновлениями, он не будет работать в режиме «реал-тайм». Особенность Google Page Experience кроется в сроках сбора аналитических данных по метрикам Core Web Vitals. Это время составляет 28 дней, течение которого Google собирает свежую информацию по CWV.

 

 

Апрельские новости Google Search Console

  • Появился отчёт по Page Experience — отчёт «Работа страниц» поможет оценить юзабилити сайта по критериям «Хорошо» или «Плохо» и узнать, насколько интернет-ресурс удобен для пользователей. Google использует показатели удобства страниц для отдельных URL-адресов с целью ранжирования сайта в мобильном поиске. Система оценки и отчетности позволит создавать страницы высокого качества для смартфонов, планшетов и других мобильных устройств.
  • Обновился отчёт об эффективности — поможет фильтровать веб-страницы с хорошим пользовательским опытом.
  • Обновился показатель CLS (Cumulative Layout Shift) — обновленный показатель «Совокупный сдвиг макета» сделает более справедливым расчёт показателей CLS для страниц с интерактивными функциями.
  • Запущен фильтр регулярных выражений — предназначен для поиска отдельных элементов с помощью спецформул с подстановочными знаками. Например, такие фильтры помогут найти URL-страницы и сложные пользовательские запросы (брендовые и др.).
  • Улучшился режим сравнения — в отчете эффективности появилось сравнение нескольких показателей с относительной разницей в процентах. Улучшенный интерфейс таблицы и поддержка фильтра регулярных выражений предоставляют дополнительные возможности для анализа данных.

 

 

Как Googlebot проводит оценку Core Web Vitals

Джон Мюллер раскрыл особенности работы Googlebot. Этот поисковый работ при сканировании веб-сайтов определяет сигналы, помогающие ранжировать страницы на основе данных по Core Web Vitals. Но сам Googlebot не оценивает Core Web Vitals. Для этой цели используется отчёт Crome User Experience Report (CRuX), где содержатся полевые данные, собранные на основе пользовательского опыта при взаимодействии с функционалом сайтов через веб-браузер Chrome.

 

 

Подробности запуска обновления Product Reviews Update

Хронология апдейта алгоритма ранжирования товарных обзоров и отзывов

  • Начало запуска — 08 апреля 2021 года.
  • Продолжительность — две недели.
  • Завершение — 23 апреля 2021 года

 

Особенности обновления Product Reviews Update

  • Язык — только для контента на английском языке.
  • Масштаб — крупный, но меньше чем Core Updates.
  • Тип — нишевое обновление для веб-ресурсов с обзорами товаров и отзывами, сайтов-аффилиатов.
  • Цель — сделать контент отзывов и обзоров более информативным, полезным, подробным, содержательным.
  • Категории сайтов — финансы, здоровье, автомобили, работа, образование, закон и государство.
  • Предпочтенияэкспертный контент в приоритете по сравнению с контентом, сгенерированным пользователям (UGC).
  • Влияние — эффективность сайта в ленте рекомендаций (Google Discover).
  • Результаты — сайты с товарными UGC-отзывами и обзорами товаров ухудшили позиции в поисковой выдаче.

 

 

Почему завершающие слеши не оказывают влияние на SEO

Как заявил Джон Мюллер, наличие либо отсутствие завершающих слешей в URL-адресе страницы не даёт преимуществ для поисковой SEO-оптимизации. Гораздо важнее сразу определиться с оптимальным форматом URL, а затем последовательно придерживаться принятого подходах в масштабах всего веб-сайта.

 

 

День рождения Google Penguin

В 2021 году алгоритм Google Penguin отметил 9-ю годовщину. Этот фильтр с момента своего запуска 24 апреля 2012 года успешно борется с поисковым спамом во всех его проявлениях. Например, Google Penguin выявляет переоптимизированые веб-страницы с избыточным количеством ключевых фраз, находит «неестественные» ссылки в ссылочном профиле, определяет клоакинг и другие нарушения правил поисковой системы.

 

В сентябре 2016 года Google обновил Penguin до версии 4.0 и с этого времени Google Penguin вошёл в основной алгоритм с автоматическим непрерывным обновлением. Теперь при наличии спамовых ссылок сайты не теряют позиции. Вместо этого пессимизируются источники «неестественных» линков.

 

 

Как лучше сообщить Google о проблемах с индексацией сайта

В Google появилась специальная форма для отправки сообщений с проблемами индексации на сайте. Новая функция поможет всем, кто нуждается в дополнительной информации и одновременно упрощает передачу информации о проблемах с индексированием сайтов в Google.

 

 

Как Google распознает авторские тексты без использования специальной разметки

Google способен определить автора текста даже без авторской разметки. Для этого используются дополнительные факторы. Например, ссылки на страницы с контактной информацией об авторе. Для этого рекомендуется ссылаться на страницы или ресурсы, где размещены главные сведения об авторе. Это может быть личный профиль в социальной сети или контактные данные. В результате сбора данных Google получает информацию с нескольких страниц, что имеют прямое отношение к одному человеку. Это помогает понять данные и сгруппировать найденные страницы вокруг сущности автора.

 

 

 

 


 

 

 

 

© WaterMillSky 2012-2021