· 

SEO-2021: новости Google за январь

SEO-новости Google.  Январь 2021 года

Первые SEO-новости из очередного обзора новостей поисковой системы Google от WaterMillSky. Что обещает Джон Мюллер в 2021 году. Релевантные подкатегории при ранжировании сайтов. Что такое Google SMITH. Началось сканирование сайтов по протоколу HTTP/2. Как быть при случайной деиндексации сайта. Как настроить сайты с отдельными мобильными URL-адресами. Каким образом кнопка для внутренних ссылок влияет на SEO-оптимизацию. Правила для структурированных данных. Где хранится поисковый индекс. Как обновления основного алгоритма влияют на ленту Discover. Чем опасны всплывающие окна на мобильных страницах. Что известно о лимитах Google для трафика из поисковой выдачи. Правила для Web Stories. Разметка Data-Vocabulary.org осталась в истории. Что ранжирует Гугл: отдельные страницы или весь сайт.

Советы и прогнозы Джона Мюллера на 2021 год

  • Полный запуск метрики Core Web Vitals и обновление алгоритма Page Experience потребует ещё более плотной работы над сайтами.
  • Даже небольшие улучшения технических характеристик сайта обеспечат конкурентные преимущества. Техническое SEO, как и оригинальный контент, входит в число приоритетных направлений.
  • Важно сформировать собственную целевую аудиторию и провести диверсификацию, чтобы пользователи находили сайт по витальным и брендовым запросам.
  • Обновление поисковых алгоритмов, в том числе очередные запуски Google Core Updates в 2021 году, приведут к внезапным изменениям позиций. К этому нужно готовиться заранее.
  • Запуск и обновление Passage Indexing, RankBrain, BERT и других алгоритмов помогут сайтам, которые имеют потенциал для поисковой оптимизации.
  • Улучшение доверия к сайту, рост авторитетности и повышение узнаваемости бренда помогут добиться повторного возврата посетителей.

 

 

Новости Search Console за январь 2021 года

  • Инструмент Google Disavow Links Tool — прежняя версия отключена с 19 января 2021 года. С этой даты невозможен доступ к старой версии инструмента для отклонения некачественных ссылок. В интерфейсе прежней версии сообщается, что с 19.01.21 года прекратится доступ к отчёту по отклонению ссылок. Google рекомендует работать с новым отчётом Disavow Links в обновленной версии Search Console 2021 года. Теперь файл Disavow доступен в текстовом формате, а количество ошибок в отчёте не лимитируется.
  • Инструмент проверки URL в Search Console — для отдельных URL-адресов показывается несколько ссылающихся страниц, с помощью которых поисковый робот нашёл данный URL-адрес. Например, URL обнаружен из других источников, кроме файла Sitemap или другой страницы с исходящей ссылкой. Теперь Google покажет эти страницы, что помогли найти новый URL-адрес.
  • Отчёт об эффективности сайта в Google Новостях — новый отчёт размещён в разделе «Эффективность», он поможет оценить эффективность сайта в Google Новостях. В нем представлены данные из news.google.com и из мобильного приложения «Google Новости» для устройств на iOS и Android. Это статистика по кликам, показам и CTR. С помощью отчёта можно узнать количество показов статьи в Google News, результативность опубликованных материалов, поведенческие факторы в разрезе по странам, отдельным страницам и устройствам пользователей.
  • Отчёт об индексировании в Search Console — внедрены очередные изменения, чтобы веб-мастера узнали о проблемах в сканировании или индексировании сайтов. В частности, теперь нет общей ошибки «Аномалия сканирования», ошибки сканирования имеют конкретизированные определения, показываются страницы, проиндексированные и одновременно заблокированные в файле robots.txt, показывается ошибка «Проиндексировано без контента».
  • Детальные статусы в отчёте об индексировании — после обновления отчета появились детальные статусы помеченных элементов и категории. Отдельные ошибки более конкретизированы и переведены в новые категории. Общее количество элементов по каждой категории останется без существенных изменений.

 

В ранжировании сайтов появились релевантные подкатегории

В ноябре 2020 года в поисковой выдаче появились подкатегории по темам, которые интересны пользователям. Благодаря технологии нейронных сетей Google показывает пользователям результаты с более качественным и разнообразным контентом. Например, по запросу «домашние тренажеры» можно получить ответы в виде таких подкатегорий, как «бюджетные тренажёры», «тренажеры премиум-класса», «тренажеры для небольших помещений» и др.

 

 

Новый алгоритм Google SMITH

В очередной научной статье Google поделился информацией о новом алгоритме ранжирования. Новая модель предназначена для анализа и обработки текстов большого объёма и длинных низкочастотных запросов с большим количеством ключевых слов. Алгоритм SMITH будет ещё более эффективным для работы с фрагментами текста, чем его предшественник BERT, который хорошо понимает длинные документы и поисковые фразы.

 

Что такое алгоритм SMITH

Это новая модель для обработки больших текстов данных, способная понять отдельные фрагменты в контексте целого документ. Запущенный ранее BERT понимает отдельные слова в контексте отдельных предложений. Алгоритм SMITH обучается для предсказания блоков предложения, которые идут друг за другом. Подобная технология поможет более качественно понимать содержание и контекст документов большого объёма.

 

Новый алгоритм работает или нет?

Несмотря на тот факт, что алгоритм SMITH является более совершенным, чем его предшественник BERT, Google ещё не сделал официального заявления на счёт использования нового алгоритма в работе поисковой системы.

 

Какие результаты

После тестирования модели SMITH получены выводы, что данный алгоритм способен справиться с анализом документов, где содержится длинный текст. Поэтому SMITH представляет собой лучшее решение на фоне других моделей, чтобы более эффективно изучать объёмные документы и более результативно сопоставлять контекст документа с поисковым запросом.

 

 

Google приступил к сканированию по протоколу HTTP/2

В январь 2021 года многие сайты с поддержкой протокола HTTP/2 получили оповещения от Google, где содержится информация о начале сканирования сайта по HTTP/2. То есть, основная часть сканирования будет осуществляться через данный протокол, а журналы сервера подтвердят этот факт.

 

Изменение способа сканирования будет выполняться постепенно и в массовом порядке. Переход на сканирование по другому протоколу для конкретного сайта займёт несколько дней. Владельцам сайта не нужно делать каких-либо действий. Сканирования по HTTP/2 не окажет влияние на позиции сайта.

 

 

Что делать при случайной деиндексации сайта

Иногда в жизни сайта происходят неприятные вещи. Например, случайная деиндексация после добавления атрибута «noindex» на все страницы. Что делать в таких случаях и когда сайт будет снова в выдаче? На этот вопрос ответил Джон Мюллер.

  • Каждый день Google сканирует несколько страниц сайта. Это минимум. По факту бывает больше.
  • Если в течение 15…20 дней не произошла повторная индексация, возможно, есть другие проблемы.

 

Чтобы следует выполнить

  • Проверить Search Console на предмет наличия запросов для удаления контента. 
  • Убедиться, что сайт не получил ручные санкции от Google.
  • Проверить страницы на код ответа сервера (правильный код — 200).
  • Подождать, пока Google снова проиндексирует все страницы.

 

 

Правила для сайтов с отдельными мобильными URL-адресами

Джон Мюллер рассказал о важных технических моментах, что имеют непосредственное отношение к mobile-first индексации. Это теги «rel=canonical» и «rel=alternate» для сайтов, где содержатся отдельные мобильные URL-адреса и у которых по умолчанию индексируется мобильная версия «m.».

 

Канонические URL-адреса

При использовании отдельных мобильных URL с тегом rel=canonical всё остаётся по прежнему. При мобильной индексации обновления не требуются.

 

Как работает Google

Мобильные URL автоматически используются в качестве канонических, даже если атрибут rel=canonical указывает на десктопную страницу. Данные в файле Sitemap касательно версии URL не будут приниматься во внимание.

 

Как помочь Google

  • Настроить правильные редиректы по типу устройства.
  • Если на десктопном сайте открывается мобильная версия — включается переадресация десктопный URL.
  • Если на мобильном устройстве открывается десктопная версия сайта — включается редирект на мобильную версию.

 

Hreflang

Для отдельных мобильных URL-адресов (m.) атрибут hreflang должен подходить по тип устройства. Но учитывая сложность совмещения мобильной версии «m.».и hreflang – рекомендуется обновить сайт, чтобы перейти на адаптивный дизайн. В этом случае отпадут проблемы с mobile-first индексацией.

 

 

Кнопка для внутренних ссылок и негативное SEO

Веб-мастеров заинтересовали вопросы с использованием HTML-элемента «button» для создания внутренних ссылок:

  • Тег «anchor» содержит только тег «button» — как это оказывает влияние на внутреннюю SEO-оптимизацию сайта?
  • Googlebot может использовать текст внутри тега «button», чтобы использовать его в качестве одного из сигналов для перелинковки сайта?
  • Есть ли преимущества у простого текста внутри тега «anchor»?

Ответ Джона Мюллера:

  • Googlebot не может нажимать на кнопки, поэтому он не знает, на какие страницы сайта ведут ссылки из кнопки.
  • Для запуска навигации допускается использовать JavaScript, чтобы привязать кнопку к определенному URL-адресу. Это будет подобие ссылки.
  • Чтобы Googlebot увидел ссылки, рекомендуется создавать классические ссылки в HTML, далее использовать CSS для стилизации ссылок под кнопки. Это будет лучше, чем применять элементы «button» и JavaScript для создания кнопок в виде ссылок.

 

Как правильно добавлять структурированные данные

Структурированные данные не следует добавлять через Диспетчер Тегов (Tag Manager). Будет удобнее отслеживать и проще поддерживать, если семантическая разметка добавлена непосредственно на страницу. Tag Manager пригодится для тестирования микроразметки структурированных данных. Но реализовать разметку лучше на самой странице.

 

 

Где Google хранит поисковый индекс

Для хранения страниц поисковая система применяет три типа хранилищ с учётом уровня индексирования.

  1. RAM — самые дорогие хранилища с наиболее быстрым доступом к данным. Здесь хранятся документы для ежесекундного показа в результатах поисковой выдачи. Это небольшая часть всего индекса Google.
  2. SSD — очень быстрый и одновременно дорогостоящий вариант. Здесь хранится контент, который чаще всего запрашивают пользователи.
  3. HDD — самые дешёвые хранилища с наиболее медленным доступом к страницам. Здесь хранится основная часть индекса.

 

Почему апдейты основного алгоритма вызывают изменения на ленте Discover

Регулярные Core Updates основного ядра алгоритма Google оказывают влияние на ленту рекомендаций Discover для мобильных устройств. Лента рекомендаций получает сведения из индекса Google по идентичным алгоритмам поиска, поэтому на ней представлен тот же контент, что в основном веб-поиске.

 

 

Как всплывающие окна на мобильных страницах влияют на ранжирование сайта

На январской видеовстрече с Джоном Мюллером из Google веб-мастера получили ответ на вопрос о санкциях за всплывающие окна (pop-up) на мобильных сайтах, которые появляются на короткое время.

 

Google может пессимизировать страницы-нарушители в результатах мобильного поиска, если всплывающие окна будут обнаружены алгоритмом, что успешно выявляет межстраничную рекламу и всплывающие объявления. Но это не самый сильный фактор ранжирования, поэтому санкции будут только в том случае, если контент на странице слабый, ссылочная масса скудная, а поведенческие факторы оставляют желать лучшего.

 

После удаления всплывающих рекламных окон Google учитывает положительную работу над сайтом. В дальнейшем после переобхода данного URL-адреса сайт восстанавливает позиции. Мобильные страницы с качественным оригинальным контентом для людей могут иметь отличную видимость в выдаче даже при наличии надоедливых и вездесущих pop-up.

 

При необходимости применения на странице всплывающих рекламных объявлений, следует проверить страницу и убедиться, что другой контент виден для пользователей. Иначе содержимое pop-up попадёт в индекс в качестве основного текстового контента и может привести к пессимизации сайта.

 

 

Какие ограничения есть у Google для трафика из поисковой выдачи

На вопрос об ограничениях поискового трафика на сайт из ленты рекомендаций Discover Джон Мюллер снова подтвердил, что Google не ограничивает трафик, который превышает мощность сервера. По его словам, поисковая система не устанавливает целевые критерии, при достижении или превышении которых ограничивается входящий трафик. То есть, хороший сайт, релевантный поисковым запросам, будет всегда получать свою долю из органической выдачи.

 

 

Какими должны быть Web Stories

Чтобы добиться показов в поисковой выдаче и попасть в ленту рекомендаций Discover, следует публиковать Web Stories в формате полных историй и отказаться от размещения тизеров.

 

После анализа результатов экспериментов авторов контента и сведений из обратной связи с пользователями, Google установил, что пользователи чаще выбирают полноформатные истории против тизеров с кликами по ссылкам для получения подробной информации.

 

Тезиры с одной или двумя страницами не могут удовлетворять потребностям пользователей в информационном контенте, поэтому Google отдаёт предпочтение публикациям с полными историями.

 

 

Монетизация Web Stories

С декабря 2020 года в этом формате можно размещать рекламу через Google Display Network. На первоначальном этапе реклама не приносит большого дохода. Но со временем рекламные сети улучшат интеграцию с Web Stories, что положительно скажется на показателях CPM и Fill Rate.

 

 

Google больше не поддерживает разметку Data-Vocabulary.org

С 31 января 2021 года прекратилась поддержка устаревшей разметки Data-Vocabulary.org в поиске Google. Это событие ранее планировалось 6 апреля 2020 года. Окончательная дата была перенесена на 2021 год. После 31 января семантическая разметка Data-vocabulary.org не будет применяться для создания расширенных результатов. Теперь для это цели рекомендуется использовать Schema.org.

 

 

Как на самом деле Google ранжирует страницы

Среди веб-мастеров витает вопрос: что ранжирует Гугл — весь сайт или отдельную страницу? Если страницу, тогда каким образом факторы ранжирования всего сайта оказывают влияние на позицию отдельной взятой страницы?

 

По словам Джона Мюллера, верно второе утверждение. Google действительно учитывает широкий набор сигналов по всему сайту, чтобы ранжировать отдельные веб-страницы с контентом по основному поисковому алгоритму.

 

Это означает, что Google оценивает сигналы на уровне всего сайта, чтобы отдельные страницы появились в индексе. А позиции этих страниц зависят от качества веб-ресурса и факторов ранжирования для всего сайта.

 

 

 

 


 

 

 

 

© WaterMillSky 2012-2021