· 

SEO-2021: новости Google за ноябрь

Читаем одиннадцатый обзор WaterMillSky о главных СЕО-новостях поиска Google. Что интересного произошло в ноябре в работе алгоритмов, авторитетное мнение Джона Мюллера по главным вопросам поисковой оптимизации, ещё раз о тегах тайтл, директивах «rel=canonical» и «noindex».

  • Обновление алгоритма Spam Update 2021
  • Новый дизайн интерфейса Google Search Console
  • Запуск Google November 2021 Core Update
  • Как Google понижает сайты за некачественные ссылки
  • Порядок действий с дублированным контентом
  • Товарные страницы остались временно без товара
  • Теги title и ранжирование сайта
  • Правила размещения видео на веб-страницах
  • Обновленная версия PageSpeed Insights
  • Перспективы тестирования протокола IndexNow
  • Джон Мюллер: главные вопросы о SEO-2021
  • Когда Search Console покажет качественную оценку сайта
  • Будущие тренды поисковой оптимизации
  • Как скрыть сайт из результатов поиска
  • Какая длина тегов title будет в самый раз
  • Что выбрать: «rel=canonical» или «noindex».

 

Свежая информация по сео-новостям Google за ноябрь 2021 года поможет устранить шаблонные ошибки и специфические проблемы, чтобы гарантированно улучшить поисковую оптимизацию коммерческого сайта, привлечь целевой релевантный трафик из выдачи, поднять в разы конверсию посадочных страниц.

 

 

Алгоритм November 2021 Spam Update

  • Когда запущен — 4 ноября 2021 года Google приступил к запуску ноябрьского обновления алгоритма по борьбе с веб-спамом.
  • Когда завершился запуск — 12 ноября 2021 года Google завершил запуск Spam Update.
  • Цель November Spam Update — устранение спама в контенте, под обновление антиспамового алгоритма попали сайты с нарушениями рекомендаций.

 

 

Алгоритм Google November 2021 Core Update

  • Начало запуска — 17 ноября 2021 года.
  • Содержание — обновление основного алгоритма November 2021 Core Update.
  • Особенности — первая волна с 17 по 18 ноября, вторая с 24 ноября.
  • Цель — обновление Core Updates нацелено на улучшение алгоритма общей оценки релевантности и качества сайта.
  • Завершение — 30 ноября 2021 года.

 

 

Ноябрьские новости Google Search Console

В ноябре 2021 года поисковая консоль получила новый дизайн. Обновленный интерфейс Google Search Console воплощает принципы удобства восприятия данных и доступности информации с целью достижения лучшего пользовательского опыта в сфере юзабилити.

 

 

Алгоритмы Google понижают сайты за некачественные ссылки

Антиспамовые алгоритмы поисковой системы Google способны определять некачественные ссылки и не учитывать такие ссылки в поисковом ранжировании. Также ссылочные алгоритмы могут автоматически пессимизировать сайты, когда негативные ссылки связаны с конкретным веб-сайтом.

 

 

Что делать с дублированным контентом на сайте

На некоторых сайтах с большим количеством дублированного или неуникального контента могут отмечаться сложности со сканированием отдельных страниц. Такие страницы не представляют интереса для поисковой системы Google. Чтобы решить такую проблему, придётся уменьшить количество дублированного контента в масштабах всего сайта.

 

Например, этот подход актуален для интернет-магазинов с десятками тысяч страниц и ещё большим числом URL-адресов, когда для каждой страницы существует большое количество разных URL. Кратное уменьшение дублей товарных страниц однозначно улучшает отношение поисковой системы к сайту.

 

Что делать

  • Показывать пользователям и Гугл только канонические URL-адреса
  • Исключить возможность появления повторяющихся URL-адресов
  • Найти и устранить ошибки, способные вызвать дублирование контента.

 

 

Товарные страницы с временно отсутствующими товарами

Иногда на сайте по разным причинам отсутствуют некоторые товары. Одновременно на сайте есть товарные страницы, где эти товары представлены. В таких случаях рекомендуется найти баланс между пользовательским опытом и поисковой SEO-оптимизацией. Ниже четыре способа для достижения результата.

  1. Товар вскоре поступит в продажу — товарные страницы оставляем в поисковой выдаче. Полезно использовать семантическую разметку, чтобы Google знал, что товаров пока нет. Когда товары появится, тогда вносим изменения в микроразметку.
  2. Товар временно отсутствует в продаже — удаляем ссылки на страницу либо добавляем тег «noindex» или удаляем ссылки на страницу. После появления товара вносим изменения в файл Sitemap и добавляем внутренние ссылки на товарную страницу.
  3. Товар появился в продаже — ускоряем индексацию товарных страниц при помощи внутренних ссылок с более посещаемых страниц. Например, входящие ссылки с главной страницы сайта означают, что такие страницы более важные, по сравнению с остальными.
  4. Товары в наличии на складе и отсутствующие — используем Merchant Center, чтобы передать Google актуальную информацию о товарах и получить возможность для показа товаров в основном поиске, включая поиск по товарам, по картинкам и по картам и поиск через Google Lens.

 

 

Как теги title влияют на ранжирование сайта

Многие веб-мастера интересуются, как изменение заголовков страниц title влияет на результаты поискового ранжирования и какие преимущества предоставляет добавление названия бренда или компании в мета-тег title.

 

Отвечая на эти вопросы, Джон Мюллер, как всегда, напустил тумана и обошёлся расплывчатыми формулировками. Вместо чёткого ответа были предоставлены неконкретные ответы в стиле, что title важны в ранжировании, но это слабый сигнал ранжирования, а название компании в этом мета-теге — это личный выбор сео-специалиста или владельца сайта.

 

В тех случаях, когда текст тайтл и текст страницы расходятся по содержанию, для формирования мета-тега, который будет показан в поисковой выдаче, Google использует другие элементы страницы. Например, заголовки, подзаголовки и другие видимые элементы. Также следует знать и помнить, что в среднем каждый седьмой тег title переписывается алгоритмами Google для демонстрации пользователям в результатах выдачи.

 

 

Как размещать видео на страницах

В ноябре текущего года Google представил обновленную документацию для оптимизации видеоконтента. Руководство «Рекомендации по работе с видео» содержит актуальные изменения на текущую дату.

 

Список рекомендаций

  • Для каждого видеоролика отводить отдельную веб-страницу.
  • Видео размещать в верхней части страницы или в другом заметном месте.
  • Допускается размещать видео на отдельной товарной странице или в разделе новости.

 

 

Анонс обновленной версии PageSpeed Insights

В ближайшее время появится обновленный пользовательский интерфейс веб-инструмента PageSpeed Insights.

 

 

Новые возможности

  • Интуитивно понятный интерфейс.
  • Чёткая связь между оценкой показателей Core Web Vitals и UI.
  • Дизайн инструмента основан на принципах Material Design.

 

Список улучшений

  • Лабораторные и полевые данные четко разделяются между собой — после улучшения пользовательского интерфейса вместо ярлыков появились тексты с подробным описанием результатов проверки сайта. Информация по разделу «Данные лабораторных наблюдений» представлена в верхней части страницы. Это помогает разобраться в источнике информации и воспринимать данные однозначно.
  • Появился подраздел для оценки показателей Core Web Vitals — после внесения изменений в интерфейс обновленный инструмент PageSpeed Insights с помощью новой функции (расширенный вид) показывает обобщенные показатели по FID, LCP и CLS для отдельных страниц и всего сайта. 
  • Обновленное меню навигации в верхней части интерфейса — после доработки инструмента ярлыки для отчетов по типам устройств показываются в центре. Теперь пользователям легко понять, где отчёт для мобильных устройств, а где — для десктопных компьютеров.
  • Сводная оценка по всем страницам сайта — перемещена на отдельную вкладку. Вкладка «Origin Summary» находится в разделе с Field Data (полевые данные).
  • Новые раздел по семплированным данным — пользователям доступна информация по «Периоду сбора данных», «Продолжительности посещений», «Типу устройств», «Сетевым соединениям», «Размеру выборки» и др.
  • Изображение страницы доступно в специальном разделе — картинка для предпросмотра и изображение страницы представлены в разделе с лабораторными данными во вкладке «Имитация загрузки страницы».

 

 

Тестирование протокола IndexNow

Google решил присоединиться к ведущим поисковым системам, чтобы провести тестирование потенциальных преимуществ новейшего протокола для ускоренной индексации оригинального, уникального, обновленного и других видов контента с добавленной ценностью либо без неё. Протокол IndexNow поможет сконцентрировать усилия для разработки самого точного, актуального и производительного индекса всего контента в сети Интернет.

 

В рамках улучшения экологической составляющей бизнеса Google стремится перейти на возобновляемые «зелёные» технологии без использования ископаемого топлива в процессе сканирования и последующего индексирования контента.

 

 

Джон Мюллер о SEO-2021

В очередном выпуске «#AskGooglebot» Джон Мюллер предоставил ответы на вопросы поисковой оптимизации в Google.

 

Вопрос. Какие проблемы может вызвать блокирование файлов CSS в robots.txt.

Ответ. В этом случае поисковый робот Google не сможет увидеть страницу в полном виде, поэтому могут возникнуть затруднения при сканировании и анализе данных на предмет правильной оптимизации сайта для мобильных устройств.

 

Вопрос. Где найти пошаговое руководство для обновления карты сайта Sitemap.

Ответ. Для этой цели пригодится документация к сайту по настройке файла Sitemap или рекомендуется установить специальный плагин. В большинстве случаев для обновления карты сайта достаточно задействовать опцию и создать карту Sitemap.

 

Вопрос. Как сбросить индексирование для всего сайта.

Ответ. Такой функции в Google не предусмотрено. При внесении изменений на страницы сайта поисковик будет автоматически сканировать обновленные версии страниц и с течением времени новые версии заменят прежни. Чтобы ускорить процесс индексации рекомендуется настроить переадресацию с прежних URL-адресов на новые.

 

Вопрос. Удаление RSS-фидов может помочь Googlebot при сканировании страниц или нет.

Ответ. На этот вопрос Джон Мюллер не предоставил точный ответ. Вместо этого он рассказал о некоторых особенностях сканирования сайта. По его словам, Google в автоматическом режиме стремится сбалансировать процесс сканирования сайта. Поэтому после просмотра самых важных страниц отдельные страницы получают приоритет при сканировании. На них Googlebot обращает внимание чаще, чем на другие.

 

 

Когда в Search Console появится качественная оценка сайта

Джон Мюллер из Google пояснил, почему сводная качественная характеристика сайта не имеет количественной оценки. Сегодня в Google действует много алгоритмов ранжирования, чтобы оценить качество сайта. Но это не может быть конкретным числом.

 

Показатель качества сайта в Search Console также не представлен в виде количественной метрики. Поисковик не собирается вводить в заблуждение веб-мастеров и владельцев сайтов. В настоящее время ещё не найден баланс между потребностями целевой аудитории в получении точной метрики качества сайта и возможными проблемами при использовании данных метрики с целью воздействия на результаты работы поисковых алгоритмов.

 

 

Будущие тренды поисковой оптимизации

Джон Мюллер, Гэри Илш и Мартин Сплитт рассказали о перспективных тенденциях в сфере сео-оптимизации 2022 года: поиск, HTML, JavaScript, PWA, структурированные данные, сканирование и индексирование сайтов, машинное обучение и контент для машин.

  • Поиск по картинкам — вместо окружающего или альтернативного текста поисковая система будет использовать результаты визуальных алгоритмов.
  • Технические аспекты — новые платформы по управлению сайтами (CMS) улучшают и упрощают работу по администрированию сайта, когда пользовательский HTML поддерживает базовые варианты и одновременно позволяет разрабатывать продвинутые решение.
  • HTML в тренде — фундаментальная технология создания сайтов, которая расширяет возможности веб-ресурсов, остаётся в обозримом будущем.
  • SEO-документация — официальная справочная документация по направлению «Поисковая оптимизация» предназначена для SEO-специалистов. Для владельцев сайтов представлены простые статьи, где в упрощённой форме раскрываются основы базовой оптимизации. При необходимости повышения уровня знаний Google рекомендует освоить углубленную СЕО-документацию.
  • PWA — в будущем возрастёт количество веб-приложений, способных запускаться в браузере. Поэтому возникают проблемы, как оптимизировать для поиска приложения с визуальным контентом.
  • JavaScript — продолжить развиваться и не будет полностью вытеснен веб-технологиями Flash, Java, Moonlight или Silverlight. 
  • URL, IP-адреса и доменные имена — составляют основу сети Интернет и поэтому останутся обозримом будущем.
  • Атрибут «rel=canonical» — хорошо работать и пока не возникает необходимость в его замене. 
  • Новые мета-теги — добавление новых тегов не планируется.
  • Инициатива IndexNow — пока такие решения преждевременны, потому что несут определённые риски в процессе приоритизации и обработке нового контента, а также могут увеличить количество спамового и низкокачественного контента в Интернете.

 

 

Три способа скрыть сайт из результатов поиска

Чтобы соблюдать рекомендации Гугл для веб-мастеров необходимо одновременно блокировать оригинальный контент от поискового робота Googlebot и от посетителей сайта. Существует три способа, чтобы сайт исчез из поисковых результатов. 

  1. Защитить сайт при помощи пароля. В этом случае никто не сможет увидеть уникальный контент, а сайт будет конфиденциальным для тех, кто не знает пароль. Первый способ востребован для защиты новых сайтов, когда клиенты могут увидеть выполненную работу, а другие пользователи и поисковые роботы пройдут мимо. Это лучший способ для достижения полной конфиденциальности контента.
  2. Запретить сканирование через запись в файле robots.txt. Googlebot не сможет сканировать контент, но пользователи способны перейти на сайт по прямой ссылке. В отдельных случаях блокировки сканирования у поисковых систем остаётся возможность индексировать контент сайта без получения доступа. Второй способ применяется для защиты неконфиденциального контента.
  3. Запретить индексацию через директиву «noindex». В этом случае поисковые системы получают указание не индексировать контент страницы. Пользователям доступно посещение сайта и просмотр страниц. Подойдет для сокрытия отдельных страниц или разделов сайта от показа контента в поиске.

 

 

Ещё раз о рекомендуемой длине тегов title

Веб-мастера снова задали извечные вопросы:

  • Сколько символов делать тег TITLE
  • Как быть, если заголовок страницы превышает лимит 60…65 символов
  • Каким образом длина мета-тега влияет на поисковое ранжирование.

Джон Мюллер из Google пояснил, что поисковик не устанавливает требования по длине мета-тега Title и не учитывает длину этого мета-тега при ранжировании сайта. Когда в результатах выдачи показываются более короткие теги или переписанные под запрос пользователей — это не означает, что изменились требования Google в длине мета-тега Title.

 

 

Порядок использования «rel=canonical» и «noindex»

Джон Мюллер из Гугл пояснил, что выбрать при наличии на сайте дублированного контента или контента с низкой информативностью — отдельно «rel=canonical» или «noindex» либо применять оба тега совместно.

 

По словам Джона Мюллера, для коммерческого сайта, например, интернет-магазина с большим числом различных вариантов одного товара, можно использовать любой вариант: сделать одну страницу канонической или добавить тег для неиндексирования страницы с дублированным контентом.

 

В зависимости от конечной цели рекомендуется:

  • Выбрать тег «noindex» — контент будет исключен из поиска, страницы не будет ранжироваться. 
  • Использовать «rel=canonical» — сигналы с разных страниц будут усиливать одну страницу и одновременно в поиске с небольшой вероятностью могут показываться отдельные URL-адреса.
  • Добавить «noindex» и «rel=canonical» — в этом случае страница не будет индексироваться и одновременно Google получит указание на приоритетный URL-адрес для возможного показа в поисковой выдаче.

 

 

 

 

© WaterMillSky 2012-2021