· 

SEO-2020: новости Google за ноябрь

SEO-новости Google.  Ноябрь 2020 года

Очередные SEO-новости из ежемесячного обзора от WaterMillSky. Встречайте алгоритм «Passage Indexing» в 2021 году. Провожайте разметку Data-vocabulary.org. Читайте новости о Page Experience. Узнайте, как работает поиск Google в 2020 году и почему YouTube рулит в поиске. Какие достижения есть у Googlebot при сканировании сайтов через HTTP/2. Как проводится капитализация в HTML-атрибутах. Почему алгоритм BERT не реагирует на точные ключевые фразы. Зачем выполняется кеширование страницы в поиске и для чего нужен файл Sitemap. Как сканируются небольшие сайты. Почему данные WHOIS не влияют на ранжирование сайта. Оптимальная длина для анкорного текста. В каких случаях страница ранжируется после удаления части контента. Сколько лет компании работают на рынке. Когда в 2020 году начнёт работать инструмент для отправки URL в Google Search Central. Как обрабатываются запросы на показ медиаконтента и 307 редиректы. Чем опасны два атрибута rel=canonical на одной странице. Ещё раз про дублированный контент, оптимизацию и каноникализацию страниц. Что такое гарантия от Google. Подробности о ноябрьском выпуске Search Off the Record. В чем отличие Passage Indexing от Featured Snippets. Правильные новости за ноябрь 2020 года помогут избежать ошибок при оптимизации или продвижении сайта.

Что известно о новом алгоритме «Passage Indexing»

На ноябрьской видеовстрече с веб-мастерами Джон Мюллер из Google помог разобраться с SEO-оптимизацией страниц для показа и лучшего ранжирования фрагментов страниц с помощью алгоритма «Passage Indexing».

 

Теперь поисковик будет ранжировать отдельные фрагменты существующих страниц, которые более релевантны запросу пользователей, чем вся страница в целом. Но это не отдельный индекс фрагментов. Это способность Google распознать отдельные части текстового контента, чтобы предоставить в выдаче более релевантные результаты.

 

Джон Мюллер предупредил о нежелательности беспорядочной оптимизации. Такой подход не принесёт преимуществ. Напротив, если на сайте размещён качественный контент с подходящими к теме заголовками, это будет соответствовать технологиям поискового ранжирования, что повысит вероятность показа в результатах выдачи.

 

 

Завершается поддержка разметки Data-vocabulary.org

После 31 января 2021 года Google не будет поддерживать устаревшую разметку Data-vocabulary.org. Ранее объявленная дата 6 апреля 2020 года была неоднократно перенесена. Теперь команда Google Webmasters приняла окончательное решение о прекращении поддержки семантической микроразметки Data-vocabulary.org для создания расширенных результатов.

 

 

Как работает поиск Google в 2020 году

Узнайте официальные подробности из нового двухчасового фильма «Триллионы вопросов, на которые нет простых ответов» или «Trillions of Questions, No Easy Answers». Команда поиска рассказывает зрителям, как Google становится всё лучше и совершеннее.

 

 

В фильме затрагиваются особенности поискового ранжирования, рассказывается о борьбе с веб-спамом, раскрываются особенности работы асессоров, поднимается важность UI и E-A-T, раскрываются особенности тестирования результатов, работы алгоритма BERT, развитие технологии машинного обучения и другие темы.

 

 

Googlebot научился сканировать сайты через прогрессивный протокол HTTP/2

Начиная с 12 ноября 2020 года поисковый робот Googlebot поддерживает сканирование сайтов через протокол HTTP/2, при наличии поддержки новейшего сетевого протокола для быстрого обмена данными между сервером с одной стороны и веб-браузером или Googlebot с другой. Информация опубликована на сайте Google Search Central.

 

Зачем нужен протокол HTTP/2

  • Ускоряет загрузку интернет-страниц.
  • Снижает нагрузку на сервер.
  • Уменьшает накладные расходы.
  • Экономит ресурсы Google и сервера.

 

Как проверить готовность сайта к HTTP/2

 

Воспользуйтесь специальным инструментом для онлайн-проверки на возможность сканирования через HTTP/2.

 

 

Как вернуться к протоколу HTTP/1

 

Настроить сервер для возврата кода ответа 421 — неверно адресованный запрос или «Misdirected Request».

 

 

YouTube рулит в поиске

По данным исследования компании Moz, основная часть показов видеороликов в ТОП-10 Google приходится на видеохостинг YouTube. Более 94% результатов имеет отношение к Ютуб. На остальные сайты приходится менее 6%.

 

 

Разъяснения Джона Мюллера

  • Капитализация в HTML-атрибутах. Гугл не учитывает капитализацию отдельных элементов при создании HTML-кода. Например, при наличии опечаток, связанных с использованием верхнего регистра вместо нижнего. На это поисковик не обращает внимание, это не будет фатальной ошибкой.
  • BERT и точные ключевые фразы. После запуска алгоритма BERT возможны отдельные изменения, связанные со снижением влияния точных ключевых фраз на поисковое ранжирование сайтов. Теперь важнее релевантность текстового контента заданному пользовательскому запросу, а не максимально точное вхождение ключевых фраз. Вот для этой цели — формирование полезных ответов — был запущен алгоритм BERT 
  • Кеширование страницы в поиске. Наличие в поисковом сниппете действующей ссылки на сохранённую версию страницы не зависит от объёма трафика, входящего на сайт. Сохранённая версия имеется для большинства веб-страниц за исключением немногих. Ранее информация о результатах индексирования была представлена только в выдаче. Теперь все данные показываются в Search Console через функционал инструмента для проверки URL-адреса.
  • Сканирование небольших сайтов. Посещаемость краулеров не зависит от размера сайта. При наличии большого количества URL-адресов с малоценным контентом, поисковик вовсе не сканирует подобные веб-ресурсы. Решение проблемы — переход на CMS-платформы с автоматическим обновлением файлов Sitemap. Это гораздо практичнее и быстрее, чем ручная отправка на переобход каждой страницы.
  • Зачем нужен файл Sitemap. Автоматически созданный файл XML Sitemap является признаком серьёзного веб-ресурса. Карта сайта в формате XML поможет поисковому роботу быстрее находить и лучше индексировать новые или изменённые страницы сайта.
  • Принудительное сканирование. Гугл предлагает выбор типа сканирования, но заставить Googlebot сканировать конкретный сайт по HTTP/2 не получится. При автоматическом выборе учитывается возможность и целесообразность такого сканирования.
  • Данные WHOIS и ранжирование сайта. Публичная информация о домене, доступная в реестре WHOIS, не влияет на траст и доверие сайта со стороны поисковой системы. 
  • Оптимальный анкорный текст. Ссылки с длинным анкорным текстом с количеством слов более двух даёт больше контекстной информации, а значит, позволяет в некоторых случаях лучше ранжировать сайт по конкретным релевантным поисковым запросам.

 

Почему Google может ранжировать страницу после удаления части контента

В некоторых случаях поисковик продолжает сохранять рейтинг страницы в поиске по ключевой фразе или поисковому запросу даже при удалении текстового контента. Например, когда компания проводит ребрендинг и меняет своё название. Тогда главная страница корпоративного сайта показывается в выдаче по прежнему названию компании.

 

Подобная работа поиска Google связана с желанием помочь тем, кто ищет сайт компании по старому названию. Чтобы исключить страницу из поисковой выдачи потребуется не только убрать устаревший контент, но и полностью удалить прежний URL-адрес.

 

 

Новости о Page Experience

По официальным данным Гугл запустит новый сигнал ранжирования в мае 2021 года. С этого времени юзабилити страницы в плане удобства для посетителя сайта будет определяться на основе объединенного набора сигналов Page Experience, основанного на метриках Core Web Vitals и UX-факторах:

  • Быстрота загрузки.
  • Интерактивность.
  • Стабильность визуальных элементов.
  • Удобство для мобильных пользователей.ю
  • Наличие безопасного просмотра и протокола HTTPS.
  • Соблюдение рекомендаций Google касательно межстраничной рекламы.

 

Google показывает, сколько лет компании работают на рынке

В блоке локальной выдачи Google для англоязычной аудитории появилась информация о том, сколько лет компания работает на рынке. Например: «85+ лет» или «50+ лет». Подобная информация будет полезна для компаний в плане повышения лояльности пользователей.

 

 

Страсти вокруг инструмента для отправки URL

Начиная с 15 октября 2020 года Google остановил работу инструмента для отправки нового и проверки индексации существующего URL-адреса. По словам Джона Мюллера — это временное дело и поисковик не собирается полностью отключать возможность отправки URL-адресов на индексацию или переиндексацию через поисковую консоль.

 

Но как молвит одна поговорка: "Нет ничего более постоянного, чем временные вещи". Интерес к этой теме подогрел сам Джон Мюллер, когда создал опрос для веб-мастеров на тему: «Почему следует вернуть функцию для отправки URL-адресов на обход или переобход». В частности, Джон Мюллер интересуется конкретными URL-адресами для отправки в Google, количеством аналогичных URL-адресов за крайнюю неделю, причиной срочной индексации страницы, важностью для сайта отправки URL.

 

В ближайших планах Гугл значится дальнейшая автоматизация функционала Search Console, в том числе автоматическая обработка запросов.

 

 

Что такое Google Search Central

В ноябре 2020 года Google провёл ребрендинг ресурса Webmasters Central. Теперь он получил новое название — Google Search Central. Все информационные ресурсы (официальные руководства, документация, блоки и справочные форумы) сохраняются и перемещаются на новый адрес https://developers.google.com/search/.

 

 

Как Гугл принимает и обрабатывает запросы на показ медиаконтента в органическом поиске

После получения очередного запроса Google рассматривает большое количество разных индексов внутри общей поисковой системы, чтобы получить максимально релевантные ответы, которые соответствуют поисковым намерениям пользователей, а не только ключевым словам.

 

В некоторых случаях к ответу добавляются релевантные результаты в виде картинок, чтобы представить более подробную информацию как обычным веб-результатам в виде текстового контента.

 

В зависимости от степени релевантности результатов поисковому запросу, Google покажет блок с изображениями, где картинки могут быть в верхней, средней или нижней части блока с ответами. Аналогичная ситуация с видеоконтентом и другими медиаблоками в поиске.

 

 

Как Google обрабатывает 307 редиректы

В ноябрьском видеоролике из серии «#AskGoogleWebmasters» Джон Мюллер помог разобраться с особенностями взаимодействия поискового робота Googlebot с HSTS-редиректами (307-е редиректы). Эти перенаправления представляют собой инструмент вспомогательного характера, предназначенный для веб-браузеров, которые видят этот редирект, переходят по нему на защищенные страницы и открывают HTTPS-версию. Googlebot не взаимодействует 307 редиректами.

 

 

Что такое HSTS

 

Когда создается сайт на основе безопасного протокола HTTPS допускается применять технологию HSTS, чтобы пользователи могли попасть только на страницы с HTTPS-версией. После ввода URL в адресной строке веб-браузера или при переходе по ссылке на HTTP-страницу веб-браузер сразу переходит на HTTPS. В этом деле помогает технология HSTS. При проверке страницы сайта HSTS через инструмент проверки URL показывается 307 редирект.

 

 

Как Googlebot работает с HSTS

 

Редирект HSTS относится к отдельному типу переадресации, предназначенных только для интернет-браузеров. Поэтому Googlebot не воспринимает HSTS и будет сканировать HTTP-страницу с HSTS без перехода на HTTPS-версию страницы. Также HSTS не будет полезен для поиска новых ссылок. Чтобы правильно перевести сайты с протокола HTTP на HTTPS рекомендуется правильно настроить переадресацию с помощью 301 редиректа.

 

 

Что будет, если на странице разместить два атрибута rel=canonical

По словам Джона Мюллера при наличии на одной странице более чем одного атрибута rel=canonical (два и более), которые указывают на разные URL-адреса, поисковик не учитывают данные атрибуты. В подобных случаях Google не определяет сигнал rel=canonical, а для каноникализации применяет другие сигналы.

 

 

Почему главная страница ранжируется лучше оптимизированных страниц

В ноябре 2020 года Джон Мюллер рассказал, в каких случаях в поисковой выдаче вместо оптимизированной внутренней страницы показывается главная страница сайта. Это происходит при большом количестве сигналов ранжирования, которые делают главную более весомой по сравнению с оптимизированной под запрос веб-страницей. Со временем всё меняется. Когда пользователи находят ответ на свой вопрос, в поиске происходят изменения и конкретная страница занимает топовые позиции.

 

 

Как Google находит дублированный контент и выполняет каноникализацию страниц

В новом видео «Search Off the Record» Гэри Илш объяснил, каким образом поисковик выявляет дублированный контент и как выполняется каноникализация страницы.

 

 

Дублированный контент

 

Google рассчитывает контрольную сумму для каждой веб-страницы. Checksum напоминает уникальный отпечаток документа, который основан на текстовом контенте конкретной страницы. Если у двух веб-страниц обнаруживается абсолютно схожая контрольная сумма — это считается дублированным контентом. Checksum рассчитывается на основе центрального элемента. Не используется контент в боковых панелях и в колонтитулах.

 

 

Как Google выявляет дубли

  • Текстовый контент сокращается до контрольной суммы.
  • Вычисляется несколько видов контрольных сумм для одной страницы.
  • Контрольные суммы сравниваются между собой.
  • Создаётся кластер полных и частичных дубликатов.
  • Из кластера выбирается главная, она становится канонической.
  • Этот документ показывается пользователям в результатах поисковой выдачи.

 

 

Зачем Google определяет дублированный контент

 

Пользователи хотят получать разнообразный контент с высокой смысловой уникальностью. Им не нравится, когда в выдаче показываются практически одинаковые страницы. Поисковый индекс не резиновый, поэтому места достаются лучшим результатам с оригинальным контентом.

 

 

Как изменение базовой инфраструктуры сайта оказывает влияние на частоту сканирования

Гэри Илш из Гугл пояснил, как поисковик реагирует на обнаруженные изменения в базовой инфраструктуре. При обновлении сервера, IP-адреса и других элементов Google меняет скорость и частоту сканирования сайта, чтобы поисковый робот Googlebot адаптировался к изменившимся условиям. Только смена сервера при неизменности других элементов не оказывает влияние на ранжирование веб-сайта за исключением случаев, когда при сканировании сайта через Googlebot сервер возвращает ошибку.

 

 

Гарантия от Google

В бизнес-профилях компаний и в поисковой выдаче в блоке для местной выдачи (Local Pack) появился значок «Гарантия Google» (Google Guaranteed). Наличие такого значка означает, что компания соответствует требованиям сервиса Local Services Ads. По мнению экспертов, «Гарантия Google» может поднять кликабельность позиции сайта компании.

 

 

Ноябрьский выпуск Search Off the Record

В новом видео из серии «Search Off the Record» постоянные участники Джон Мюллер, Гэри Илш, Мартин Сплитт и Паскаль Бечлер из Гугл рассказали, как индексируются аудиоконтент, видеоролики, изображения, Web Stories и AMP-страницы, проводится тайминг и заморозка запусков.

 

 

Как проводится индексация изображений

 

В процессе обработки картинок Google извлекает мета теги изображений и передаёт URL-адреса в специальный индексатор. Также проводится предварительное распознавание и базовый анализ изображений при подготовке контента для поисковой выдачи.

 

 

Как выполняется индексация аудио- и видеоконтента

 

По аналогии с изображениями вначале извлекаются мета-теги о видео- и аудиодорожках, затем контент обрабатывается для анализа содержимого видеозаписи.

 

 

Как осуществляется индексация AMP

 

При наличии канонической версии страницы Google не проводит индексацию страницы в альтернативном AMP-формате. Но если ускоренные мобильные страницы являются каноническими AMP-страницами, они обрабатываются и индексируются по аналогии с классическими HTML-страницами.

 

 

Как проводятся запуски обновлений алгоритмов

 

Google не анонсирует точные даты для запусков новых алгоритмов или апдейтов действующих. В виде исключения пользователям сообщается о предстоящих запусках в поисковой консоли Search Console. В некоторых случаях запуски откладываются на неопределённый срок. Например, когда сотрудники поиска находятся вне рабочих мест. Причина — на месте должны быть люди, которые смогут быстро отреагировать, если что-то пойдет не по плану.

 

Основная часть алгоритмических процессов в работе поиске автоматизирована, поэтому «заморозки» (отложенные изменения запусков) не влияют на ранжирование сайтов, а пользователи видят изменения в результатах поиска.

 

 

Как Passage Indexing помогают страницам с рассеянным контентом

По словам Мартина Сплитта из Google Passage Indexing помогает индексировать качественный контент на страницах, где тексты не структурированы или размещены в различных местах страницы. После запуска функции индексирование фрагментов (Passage Indexing) Google будет лучше представлять в поиске контент с веб-страниц, где не проводилось структурирование содержимого. Запуск Passage Indexing может состояться в 2020 или 2021 году.

 

 

Чем отличаются фрагменты Passage Indexing от избранных сниппетов

Мартин Сплитт помог разобраться, чем отличаются в поиске фрагменты текста (Passage Indexing) от избранных сниппетов (Featured Snippets).

 

Для показа Featured Snippets Google отбирает автономный фрагмент содержимого страницы, чтобы показать в виде выделенного описания в нулевой позиции над результатами поиска. Содержимое Featured Snippets представляет собой ответ на вопрос пользователя прямо в выдаче. Во многих случаях, пользователям даже не требуется переходить на сайт-первоисточник, чтобы получить искомую информацию.

 

Показ контента с помощью индексирования фрагментов (технология Passage Indexing) не имеет отношения к ответу на информационные запросы пользователей. Например, при обнаружении точного ответа на вопрос в выдаче показывается избранный сниппет. Фрагменты Passage Indexing демонстрируются в тех случаях, когда на конкретной странице обнаружено много информации по теме и есть потенциальный результат на конкретный запрос.

 

 

 

Оптимизация сайта по правилам

 

 

 

 

© WaterMillSky 2012-2020