· 

SEO-2021: новости Google за июнь

Летние SEO-новости из ежемесячного обзора новостей поисковой системы Google от WaterMillSky. 

  • Запуск Google June 2021 Core Update.
  • Обновление алгоритма ранжирования Page Experience.
  • Изменения в сервисе PageSpeed Insights 2021.
  • Обновление Google Spam Update.
  • Как новые страницы ранжируются в Google.
  • Ещё раз о теории Google Sandbox.
  • Что нового в Google Search Console за июнь месяц.
  • Как технология Google MUM используется в поиске.
  • Каким образом обрабатываются антонимы в поиске.
  • Почему использование Google Translate может повлиять на качество сайта.
  • Изменения в документах по robots.txt и структурированным данным.
  • Правильное удаление файла Sitemap. Как и когда удалять страницы тегов или категорий.
  • Как Google учитывает ссылки, перенаправляет сигналы ранжирования и обрабатывает ссылочные атрибуты nofollow, ugc и sponsored.
  • Почему важно снять ручные санкции за спамовые ссылки.
  • На основе каких критериев Google определяет качество всего сайта и отдельной веб-страницы.
  • Как некачественный HTML и ошибки в контенте могут ухудшить позиции в SERP.
  • Что случилось с устаревшей разметкой для отзывов критиков.
  • Какое максимальное количество страниц обрабатывает Google при сканировании и индексировании сайта.
  • Особенности изменений в инструменте Google Lighthouse.

Информация по новостям Google за июнь 2021 года поможет веб-мастерам, оптимизаторам и владельцам сайтов ответить на вопрос, что случилось и что делать дальше.

 

 

Google June 2021 Core Update

02 июня 2021 года Google запустил июньское обновление основного алгоритма June 2021 Core Update.

 

Особенности June 2021 Core Update:

  • Направлено на улучшение релевантности результатов поиска.
  • Затронуло сайты различных тематик и направлений.
  • Продолжительность запуска — до двух недель.
  • Первые изменения появились 04 июня.
  • 12 июня 2021 года завершилось развертывание June 2021 Core Update.

 

Google Spam Update — крупное обновление по борьбе с веб-спамом

  • 23 июня 2021 года Google запустил обновление алгоритма «Spam Update».
  • Июньский апдейт затронул глобальный поиск и не коснулся локального.
  • Под обновление попали результаты SERP по основному поиску Гугл и по картинкам.

 

 

Как новые страницы начинают ранжирование в Google

Джон Мюллер из Google помог разобраться с вопросом, почему в начале страницы с новым или обновлённым контентом после сканирования и индексирования могут хорошо ранжироваться, а потом потерять позиции.

 

По словам Джона Мюллера, первоначально у Google недостаточно сигналов, чтобы определить точный рейтинг страницы, где размещён новый текстовый контент или установить рейтинг нового сайта с контентом. После сканирования и распознавания страниц поисковик делает предположения насчёт ранжирования.

 

В некоторых случаях страница сразу получает высокий рейтинг, в других — ранжируется ниже. Далее по мере сбора сигналов позиции корректируются в любую сторону.

 

 

О теории Google Sandbox

 

В песочнице Гугл некоторое время находятся новые страницы и новые веб-сайты. Так думают оптимизаторы и они имеют на это право. Это точка зрения целевой аудитории, основанная на практике и видении ситуации, когда новые страницы не сразу попадают в индекс и тем более на высокие позиции.

 

Google в лице Джона Мюллера считает иначе. Он считает — нет такого правила, чтобы искусственно понижать страницы или придерживать более низкие позиции. На раннем этапе у поисковика недостаточно сигналов, чтобы определить рейтинг страницы. Поэтому в начале позиции могут быть ниже, а потом, после получения данных Google определяет более релевантный рейтинг для каждой страницы и веб-сайта.

 

 

О теории «медового месяца»

 

Этот сладкий термин означает, что интернет-страница сразу выстреливает и занимает топовые места к радости её создателей, разработчиков или заказчиков. Но Джон Мюллер снова информирует, что нет ни какого «медового месяца». А есть первоначальное предположение о том месте в поиске, где будет находиться страница по отдельным поисковым запросам на раннем этапе ранжирования.

 

Со временем появляются сигналы, способные сохранить высокие позиции, когда предположения подтвердились, или наоборот, способные понизить позиции, если предположение оказалось неверным.

 

 

Июньские новости Google Search Console

  • Появился Search Console Insights — инструмент для оценки эффективности контента. Предназначен для авторов, копирайтеров и издателей. Помогает определить самые популярные материалы на сайте. Работает на основе данных из сервисов Google Analytics и Google Search Console.
  • Обновился фильтр регулярных выражений — помогает выбрать отдельные строки по заданным условиям регулярного выражения, например, формулы с подстановочными знаками. Чтобы запустить опцию следует через вторичное меню фильтров выбрать вариант «Специальный (регулярные выражения)». Фильтр будет полезен для анализа типов пользовательских запросов, проверки входящего трафика по различным разделам сайта и изучения URL-адресов по множественным вариантам регулярных выражений.

 

 

Как технология Google MUM применяется в поиске

Ранее анонсированная технология многозадачной унифицированной модели (Multitask Unified Model, MUM) в поиске Google помогла за короткое время определить различные варианты медпрепарата на многих языках мира. Теперь пользователи будут быстрее находить достоверные данные для эффективного лечения.

 

Прежде для выполнения данной работы, включающей нахождение ответов на сложные поисковые запросы, могло уйти несколько недель. Мощный алгоритм MUM помог справиться с задачей за несколько секунд.

 

 

Как Google обрабатывает антонимы

Google продолжает удивлять алгоритмами поиска. Например, в некоторых случаях антонимы и синонимы слов обрабатываются идентично для формирования поисковой выдачи. Например, для запросов «купить электромобиль» будут показаны страницы с предложениями электромобилей, а также страницы, где есть слова «продать электромобиль».

 

Гугл считает оба запроса релевантными пользовательскому интенту, поэтому показывает страницы, где есть предложения с продажей и с покупкой товара. Разумеется, запрос, где присутствует слово «продать», получит меньший вес.

 

Что делать тем, кто создаёт авторский контент по теме? По словам представителя Google Гарри Илша, владельцам сайтов и оптимизаторам не стоит заморачиваться на словах-антонимах. Важно понять намерения представителей целевой аудитории, чтобы предоставить максимально релевантную тематическую информацию с упором на целевые действия.

 

То есть, снова рекомендуется создавать контент для людей, а поисковик сам разберётся, что показать в поисковой выдаче по запросам «продать электромобиль» и «купить электромобиль».

 

 

Как использование Google Translate влияет на качество сайта

По словам Джона Мюллера, онлайн-сервис Google Translate подходит для перевода текстового контента сайта на другие языки. Например, с английского на русский язык и такие тексты не будут считаться дублированными. Но в некоторых случаях могут появиться проблемы с качеством сайта.

 

Автоматический перевод ещё не может учитывать всех смысловых нюансов. Поэтому рекомендуется после перевода Google Translate редактировать переведённый текст опытными специалистами. Тогда качество готового материала будет выше. Это оценят пользователи и заметят поисковые системы.

 

Другой важный момент. Об этом следует знать всем: веб-мастерам, оптимизаторам, владельцам веб-ресурсов. При массовом использовании автоматических переведённых текстов Google может ввести ручные санкции на сайт. Причина — автосгенерированный контент расценивается как спам.

 

 

Изменения в официальной документации по robots.txt и структурированным данным

В июне 2021 года Google внёс очередные изменения в документы по файлам robots.txt и структурированным данным.

 

Изменения в документации по robots.txt:

  • Страница «Общие сведения о файлах robots.txt» — стала более упрощенной, что поможет пользователям понять, что такое robots.txt и для какой цели он предназначен.
  • Документы по robots.txt на английском языке — после редактирования получили простой и понятный смысл, что будет полезно при локализации оригинальных документов на другие языки. Отмечается, что это поможет с их локализацией.
  • Инструкции по созданию и обновлению файлов robots.txt — увеличились в объёме, чтобы пользователи смогли правильно работать с данными файлами.
  • Раздел «Как Google обрабатывает robots.txt» — удалён из актуальной документации

Изменения в документах по структурированным данным:

  • Раздел «Как добавлять и проверять структурированные данные» — удалён из документации, так как эти данные представлены в других частях документации.
  • Разделы «По устранению неполадок во всех руководствах по структурированным данным» — получили улучшенные формулировки.
  • Раздел «Начало работы со структурированными данными для специалистов начального уровня» — увеличился в объёме и стал более информативным.

 

 

Как правильно удалить файл Sitemap

Файл Sitemap или карта сайта представляет ценность для Google. Он позволяет поисковику быстро сканировать и затем индексировать новые страницы. Но иногда нужно удалить этот файл совсем. Ниже два способа правильного удаления файла Sitemap:

  • Через Google Search Console — зайти в отчёт «Файлы Sitemap», перейти в основную таблицу и найти искомый файл, далее выделить и нажать кнопку «Удалить файл Sitemap».
  • Физически удалить файл Sitemap с сайта — после этого страница, где ранее находилась карта сайта, при запросе будет возвращать код ошибки 404 или 410, то есть файл недоступен.

 

 

В каких случаях рекомендуется удалять страницы тегов или категорий

Иногда на сайтах приходиться удалять страницы с категориями или тегами. Джон Мюллер из Google пояснил, как грамотно, а главное безопасно, сделать это.

  1. Зайти в Google Search Console, перейти в отчёт об эффективности и проанализировать видимость страниц с тегами и категориями, предназначенных для удаления.
  2. Принять решение, настроить редирект (переадресацию) для страниц с хорошей видимостью в поиске Гугл или удалить страницы с низкой видимостью и при отсутствии входящего поискового трафика.

 

 

Как Google учитывает ссылки

По словам Джона Мюллера для Google важнее релевантность ссылки, а не её расположение на странице и её размер анкора в символах. Поэтому из нескольких текстовых ссылок поисковик выбирает самую актуальную с точки зрения интересов пользователя. Причем это не обязательно будет первая по счёту ссылка на веб-странице или с наиболее протяжённым текстом анкора. Напротив, Google стремится разобраться в структуре сайта, чтобы учитывать ссылки полезные и понятные для пользователя.

 

 

Как Google перенаправляет сигналы ранжирования между страницами

С 301 редиректом или без? Вот в чём вопрос! В некоторых случаях Google перенаправляет сигналы ранжирования между страницами даже без 301 редиректа и в некоторых не делает этого:

  • URL-адрес изменился, но контент для страницы остался прежним — новый URL-адрес воспринимается поисковиком в качестве канонического, сигналы передаются.
  • URL-адрес изменился и контент на странице претерпел изменения — поисковик не сможет самостоятельно перенаправить сигналы ранжирования на страницу с изменённым URL-адресом. 
  • Прежний URL-адрес воспримется как канонический — сигналы ранжирования не передаются.
  • Прежний URL-адрес удалён вместе с контентом — Google не сможет передать сигналы.
  • Прежний URL-адрес удалён, ранее проиндексированный контент размещен по другому URL-адресу — сигналы ранжирования будут потеряны, поэтому не будут передаваться.

 

 

Как Google обрабатывает ссылочные атрибуты nofollow, ugc и sponsored

При ранжировании в Гугл для сайтов существуют небольшие различия, как поисковик обрабатывает ссылочные атрибуты nofollow, ugc и sponsored. Такие ссылки размещаются для того, чтобы поисковик не переходил по ним, а они не учитывались при формировании поискового рейтинга сайта. Google стремится понять каждый атрибут, чтобы в целом обрабатывать ссылки корректно.

 

 

Как снять ручные санкции за некачественные ссылки

Чтобы в 2021 году снять ручные санкции Google за спамовые ссылки требуется полностью удалить такие линки. Когда невозможно удалить неестественные ссылки, рекомендуется для очистки ссылочного профиля использовать инструмент для отклонения.

 

 

Как Google определяет качество сайта

Для поисковой системы Google качество понимается, как общий сигнал для сайта на уровне всего веб-ресурса. Несмотря на постраничное сканирование, индексирование и ранжирование, часть сигналов для формирования поискового рейтинга сайта невозможно собрать для отдельной страницы. Поэтому Google оценивает общую ситуацию по всему сайту.

 

После проведения работ на отдельной странице, возможно, улучшить её показатели и ранжирование. Но для всего сайта потребуется провести масштабные мероприятия по оптимизации контента, чтобы результаты были заметны на уровне всего веб-ресурса.

 

При наличии проблем с качеством сайта и устранения этих проблем, Гугл потребуется от 3 до 4 месяцев, чтобы оценить проведенные работы и внести изменения в ранжирование сайта.

 

 

Google приступил к запуску обновления алгоритма ранжирования Page Experience

С 16 июня 2021 года Google начал вводить в действие новый сигнал ранжирования Page Experience («Удобство страницы»). Обновление будет постепенным, продлится 1,5 месяца, завершится в конце лета. Страницы с отличными факторами Page Experience получат дополнительный импульс в ранжировании. Но в поисковой выдаче не ожидается серьёзного шторма, ведь новый сигнал будет одним из многих.

 

Какие изменения произойдут после запуска Page Experience:

  • AMP-страницы не будут выделяться в поисковых результатах. 
  • В блок «Главные новости» попадёт весь новостной контент, включая AMP-страницы.
  • Наличие AMP-страниц перестанет быть обязательным условием для попадания оригинального контента в топовые новости, в приложение Google Новости и на сайте news.google.com.
  • Сигнал Page Experience будет работать только в поиске для мобильных устройств. Далее планируется учитывать его в поиске для настольных компьютеров.

 

Что следует сделать, чтобы сохранить свои позиции в блоке «Главные новости»:

  • Публиковать качественный контент — оригинальный, актуальный, релевантный пользовательским запросам.
  • Улучшать технические характеристики сайта — чтобы добиваться высоких показателей по ключевым критериям Core Web Vitals и Page Experience. 
  • Соблюдать рекомендации Google — чтобы избежать попадание сайта под фильтры за различные нарушения.

 

 

Как некачественный HTML и ошибки в контенте влияют на позиции сайта в SERP

На вопросы «Как поисковые алгоритмы Google учитывают невалидный HTML-код и каким образом ошибки в текстовом контенте могут ухудшить ранжирование сайта» Джон Мюллер предоставил два разных ответа. По его словам, некачественный HTML-код представляет собой проблему технического характера, а ошибки правописания в текстах относятся к качеству, что влияет на опыт пользователей.

 

Как невалидный HTML влияет на позиции сайта

  1. Google не смотрит HTML-код с позиции: валидный или невалидный.
  2. Основная часть сайтов имеет ошибки в HTML и это, правда жизни.
  3. Если ошибки в коде мешают сделать вывод о наличии оптимизации страницы для мобильных устройств или поисковик не может определить заголовки в названии и теле страницы, что вызывает проблемы при показе страниц в браузере, тогда некачественный HTML может ухудшить ранжирование сайта.

 

Как ошибки в грамматике и орфографии влияют на рейтинг сайта

  1. Такие ошибки относятся к качеству текстового контента.
  2. Они доставляют неудобства пользователям при восприятии информации, делая пользовательский опыт затруднительным.
  3. Грамматические и орфографические ошибки мешают Гугл понять смысл и содержание текстового контента.
  4. Google ориентирован на качество, поэтому в топовую десятку попадают лучшие веб-сайты Интернета, где нет ошибок и есть смысл, польза и смысловая уникальность текстов.

 

Вывод

 

Ошибки в текстах важнее, чем невалидный HTML-код. Поэтому устранение орфографических и грамматических ошибок поможет улучшить видимость сайта.

 

 

Устаревшая разметка для отзывов критиков

Отзывы критиков вещь нужная. Ранее критические отзывы показывались в выдаче вместе с текстовым фрагментом и автором отзыва. Теперь Google перестал поддерживать семантическую разметку для веб-страниц с отзывами критиков. С июня 2021 года подобные структурированные данные считаются устаревшими.

 

 

Обновление сервиса PageSpeed Insights 2021

Обновление в PageSpeed Insights поможет показывать в отчетах больше различной информации, включая «частично полевые» данные. С июня текущего года полевые данные выходят по тем источникам и страницам, где данные собираются в достаточном объёме для большинства метрик кроме одной из них.

 

Особенность показа полевых данных

  • До июня 2021 года — полевые данные были доступны при условии соответствия всех показателей лимитированным значениям.
  • С июня 2021 года — полевые данные показываются по всем метрикам при достижении пороговых критериев.

 

 

Какие лимиты Google действуют при индексировании сайта

По словам Джона Мюллера, поисковая система Google не устанавливает ограничения на максимальное число страниц формата HTML для выполнения индексации на одном веб-ресурсе. Это означает, что нет лимитов или ограничений на сканирование не только статических интернет-страниц, но и динамических.

 

Но есть особенности. Крупные сайты с новыми страницами, количество которых исчисляется десятками и сотнями тысяч, будут сканироваться и, соответственно, индексироваться, постепенно. Это правило касается ресурсов с неизвестной ценностью контента. Напротив, сайты с хорошей историей и добавленной ценностью контента сканируются и индексируется быстрее и в большем объёме.

 

 

Изменения в инструменте Google Lighthouse

Google провел обновление Lighthouse — официального онлайн-инструмента для аудита сайтов. В новой версии 8.0 изменился вес ключевых критериев производительности веб-ресурса по итоговой оценке. Вначале обновление запущено в PageSpeed Insights. С 31.08.2021 году будет доступно в Google Chrome версии 93.

 

Особенности апдейта Google Lighthouse

 

Изменён вес показателей производительности:

  • Оценивается более строго — общее время блокировки (TBT) и время первой отрисовки контента (FCP)
  • Оценивается менее строго — совокупное смещение макета (CLS).

 

К чему готовиться оптимизаторам и владельцам веб-ресурсов

  • 20% сайтов — уменьшат свои показатели от 1 до 5 баллов.
  • Другие 20 % сайтов — изменения будут незначительными.
  • Остальные сайты — улучшат показатели до 5 баллов или более.

 

С чем связано изменение оценок

  • Максимальное снижение оценок — связано с более строгими оценками общего времени блокировки (TBT) и более высоким весом данной метрики.
  • Максимальное повышение оценок — связано изменением оценки общего времени блокировки (TBT), применением нового подхода к измерению совокупного смещения макета (CLS) и увеличением веса метрик TBT и CLS.

 

 

 

 

 

 

 

© WaterMillSky 2012-2021