SEO-2020: новости Google в марте

SEO-новости Google.  Март 2020 года

Горячие новости поисковой оптимизации в Google за март 2020 года. Новое руководство для новостных сайтов. Обновленные рекомендации по использованию разметки для раздела FAQ. Ликбез от Джона Мюллера: страницы пагинации на личных блогах, особенности ранжирования сайтов Shopify, позиция Google за наличие ссылок на HTTP-страницы. Как правильно сформировать файл Disavow. Как определяется выборка пагинированных страниц. Почему сейчас неэффективны покупные ссылки. Особенности процесса блокировки индексации контента на странице. Что такое качественный контент. Как работает валидация контента по W3C. Как быть при огромном количестве страниц вне индекса. Новости Search Console за март 2020 года. Как будет обрабатываться атрибут nofollow с первого марта. Зачем нужен файл Sitemap. Перевод всех сайтов на mobile-first индексацию. Порядок сканирования и индексирования сайтов с JavaScript. Ответы на вопросы по SEO для JavaScript. Обработка смешанного контента в Chrome и ранжирование сайтов. Порядок обработки запросов при повторной проверке сайта. Мифы о приоритетах для AMP-страниц. Что интересного в отчёте об индексировании в Search Console. Погружайтесь в мир SEO-новостей из мартовского обзора от WaterMillSky.

 SEO-новости Google за март 2020 года

Рекомендации Google в кратком руководстве для новостных сайтов

  • Добавить на AMP-страницы семантическую разметку типа «Article». Структурированные данные позволяет улучшить показ новостных материалов в результатах выдачи Google. Например, в карусели «Главные новости» (Top News), в разделе «Иллюстрированные статьи», в карусели с расширенными результатами для одного сайта и в мобильном поиске. Пользователи увидят картинки, логотипы и другой привлекательный контент. Наличие даты публикации поможет оценить актуальность новостей.
  • Разметить с помощью BroadcastEvent прямые трансляции авторского видео. Сайты с прямыми видеотрансляциями по различным событиям можно найти в поиске Гугл с помощью лэйбла «LIVE». Чтобы воспользоваться этой опцией следует применять семантическую разметку BroadcastEvent. Сайты с таким контентом могут сканироваться и индексироваться ещё быстрее. Для этого Google рекомендует Indexing API.
  • Обновить новостной контент в Google AMP Cache. Ускоренное обновление контента с новостями выполняется при помощи отправки запроса на апдейт страницы через Google AMP Cache. Данная опция поможет держать в курсе заинтересованных пользователей. Например, когда сайт предоставляет информацию о быстроменяющихся событиях, а контент моментально отражает эти изменения.
  • Использовать специальные компоненты для работы с AMP-страницами.
  • Атрибут <amp-live-list>  — обновление контента в ускоренном режиме.
  • Атрибут <amp-script> — использование JavaScript для пользователей на AMP-странице.

 

Новые рекомендации Google по использованию разметки для раздела FAQ

Google в очередной раз доработал руководство по использованию разметки FAQ. На этот раз обновился раздел, где рассматривается дублированный контент в форме вопроса и ответа. Если на страницах встречается одинаковый FAQ-контент, следует разметить только один вариант наиболее часто задаваемого вопроса. При наличии разметки на страницах с одинаковыми вопросами ресурс нарушает правила Google по использованию разметки для раздела FAQ. В этом случае контент может не попасть в избранные сниппеты.

 

 

Советы Джона Мюллера для страниц пагинации на личных блогах

Для персональных блогов с большим количеством страниц и длительной историей Мюллер порекомендовал создавать перекрёстные ссылки с помощью выделенных категорий или специальных меток. Таким образом, создаются пагинированные страницы, где содержатся ссылки на ранее опубликованные посты по заданной теме либо по нужным ключевым словам. Для удобства пользователей нужно создать хорошо развитую иерархию страниц, без большого количества вложенных страниц и не слишком плоскую. Классический пример — правило «трёх кликов», когда до любой страницы блога легко, понятно, быстро добираются с главной страницы.

 

 

Джон Мюллер рассказал об особенностях ранжирования сайтов Shopify

По его словам Google одинаково ранжирует коммерческие платформы, такие как Shopify и другие. Тип системы управления контентом (CMS), его массовое применение или востребованность среди юзеров не оказывает влияние на позиции веб-сайта в поисковой выдачи.

 

 

Новости Search Console за март 2020 года

В Search Console появились новые опции:

  • Управление показом информации из Search Console в результатах поиска Google. Добавилась возможность для настройки веб-ресурса, чтобы регулировать показ карточек с отчетом об эффективности.
  • Настройки сообщений для электронной рассылки. Появился выбор типа сообщений для получения по e-mail, добавилась функция для отказа от получения электронной рассылки.

 

Как будет обрабатываться атрибут nofollow с 01 марта 2020 года

В первый день весны Google поменяет политику при сканировании и индексировании атрибута «nofollow». Компания планирует обрабатывать его как подсказку. Это означает, что атрибут будет продолжать использоваться в качестве сигнала, но с определёнными ограничениями.

 

 

Джон Мюллер объяснил позицию Google за наличие ссылок на HTTP-страницы

Для использования в SEO-продвижении допускается наличие ссылок на HTTP-страницы. Пока Google не ограничивает ранжирование тех сайтов, которые ссылаются на страницы с незащищённым протоколом. Но если на интернет-ресурсе размещается встроенный контент (картинки или фреймы), тогда необходимо безоговорочное использование безопасного протокола HTTPS. Для лучшего пользовательского опыта рекомендуется ссылаться в основном на HTTPS-страницы.

 

 

Дэниел Вайсберг разъяснил необходимость использования файла Sitemap

Дэниел Вайсберг (Daniel Waisberg) из Google разместил новое видео из серии информационных видеороликов Search Console Training. В мартовском видео рассказывается об особенностях отчёта поисковой консоли, которые касаются файлов Sitemap.

 

Когда нужно использовать файл Sitemap на сайте

  • Создано очень много страниц (не менее 500).
  • Имеются изолированные страницы, на которые не ссылаются другие разделы или иные страницы.
  • Сайт запущен недавно либо активно обновляется.

Google способен обнаружить новые страницы без использования файла Sitemap?

 

Небольшой по размерам интернет-сайт с грамотной перелинковкой всех страниц позволит Googlebot быстро найти новый или изменённый контент. В других, вышеописанных случаях, файл Sitemap критически необходим.

 

Особенности файла Sitemap

  • Поможет организовать приоритет при сканировании многостраничных сайтов (1000+). Чтобы Googlebot знал, какие страницы нужно просканировать в первую очередь.
  • Нет гарантии, что Google просканирует абсолютно все URL-адреса из карты сайта или другие URL-адреса, не добавленные в файл Sitemap.

 

Файл Sitemap ещё не готов. Чем рискует сайт?

 

В этом случае у сайта нет повышенных рисков. Google способен найти новые страницы и без файла Sitemap. Наличие карты сайта будет полезно в любом случае.

 

Почему нужно использовать автоматически генерируемые файлы Sitemap

 

Вместо ручного создания файла Sitemap Google советует применять автоматически генерируемые карты веб-сайта. Например, отдельные CMS способны формировать Sitemap автоматически. Также разработаны специальные плагины и расширения для популярных CMS, способные успешно справиться с этой задачей. В некоторых случаях, когда сайт обладает огромным количеством страниц и файлы Sitemap получаются большого размера, допускается создавать несколько таких файлов.

 

 

С сентября 2020 года все сайты переводятся mobile-first индексацию

По заверению Google к началу текущей осени буквально все сайты в Интернете будут по умолчанию переведены на мобильную индексацию. На конец марта уже семь из десяти сайтов из поиска Google перешли на mobile-first индексацию. В это число вошли веб-ресурсы, полностью готовые к инновации.

 

Особенности завершающего переходного периода:

  • После переключения домена на мобильный индекс в статистике сайта будет отмечена повышенная активность поискового робота Googlebot.
  • После перевода сайта на mobile-first индексацию робот Googlebot может использоваться для сканирования сайтов для настольных устройств. Однако основную работу будет выполнять мобильный агент пользователя (user-agent). Название агента будет соответствовать версии Chromium, применяемой для рендеринга веб-страниц.
  • Проверить переход на mobile-first индексацию можно через поисковую консоль Search Console. Статус будет показан на странице с настройками и в онлайн-инструменте проверки URL в процессе анализа любой выбранной страницы.
  • В руководстве Google для подготовки к mobile-first индексации отмечена важность проверки идентичности содержания версии сайта для настольных и мобильных устройств при запуске сайта или после изменения дизайна. В частности, следует сравнить оригинальный контент, мета-теги и структурированные данные.
  • Для удобства юзеров Google рекомендует применять адаптивный веб-дизайн при создании новых мобильных сайтов.
  • Чтобы избежать возможных проблем, не следует использовать отдельные мобильные URL-адреса (типа «m».).

 

Ликбез от Джона Мюллера: как определяется выборка пагинированных страниц

На мартовской видеовстрече с заинтересованными лицами из числа веб-мастеров и оптимизаторов Джон Мюллер из Google пояснил, каким образом поисковая система разбирается в нагромождении URL-адресов в массиве пагинированных страниц. В первую очередь поисковик ориентируется на номера, расположенные в заголовке страниц и обязательно обращает внимание на перелинковку с другими страницами. Как всегда, Google обожает естественные ссылки и отдаёт предпочтение самому весомому фактору. На основе информации из заголовков и внутренней перелинковки Google определяет страницы с пагинацией.

 

 

Почему не работают покупные ссылки

На очередной видеовстрече Джон Мюллер пояснил, почему покупные ссылки не обеспечивают лучшее ранжирование сайта. В 2020 году Google продолжает считать ссылки одним из факторов поисковой оптимизации. Но кроме бэклинков алгоритмы ранжирования учитывают и другие сигналы. Это означает, что ссылки не являются единственным способом занимать топовые позиции в выдаче. Google прекрасно видит покупные ссылки, а затем автоматически игнорирует нерелевантные линки. Чтобы повысить эффективность действий по улучшению ранжирования сайта, Джон Мюллер предлагает обратить внимание на нессылочные факторы.

 

 

Джон Мюллер пояснил особенности блокировки индексации отдельной части страницы

В марте 2020 года Джон Мюллер подтвердил, что Google не может официально блокировать от индексации часть контента веб-страницы. Для сниппетов существуют новые настройки, чтобы контролировать отображение данных из мета-тегов.

 

 

Джон Мюллер ещё раз пояснил, что такое качественный контент

В очередной раз Джон Мюллер рассказал о том, что означает контент высокого качества для Google. По его мнению, не следует думать о том, каким образом Google отличает качественный контент от некачественного или как работают поисковые алгоритмы. С точки зрения обычных пользователей намного важнее предоставить уникальную, полезную, интересную информацию по теме сайта. Значительный эффект будет от обратной связи с потребителями контента. Исследования, тестирование, опросы, работа с фокус-группами и другие способы помогут понять, что на самом деле желает целевая аудитория.

 

В дополнении к сказанному Джон Мюллер пояснил, каким образом Google определяет релевантность оригинального контента с учетом интересов пользователей. В результатах поиска регулярно организуется A/B-тестирование на предмет выявления наиболее релевантных результатов, которые способны предвосхищать потребности и ожидания пользователей. Также Гугл исследует опыт юзеров в Search Console и прочих сервисах.

 

 

Джон Мюллер о валидации контента по W3C

По утверждению Джона Мюллера, валидация контента по W3C не способна повлиять на результаты органического поиска. Таким образом, даже выявленные ошибки в коде HTML-страниц не способны замедлять скорость загрузки или ухудшать позиции сайта. Google не применяет в поиске валидацию по W3C. Однако для владельцев сайтов валидация поможет проверить семантическую разметку и убедиться в правильности выполненной работы.

 

 

Советы Джона Мюллера: что делать при значительном количестве неиндексируемых страниц

На этот раз Джон Мюллер разъяснил, чем может обернуться значительное количество страниц, которые недоступны для индексации. По его словам это не оказывает негативное влияние на ранжирование сайта.

 

 

Ликбез по SEO для JavaScript

В новом видео Джон Мюллер и Мартин Сплитт из Google ответили на вопросы вебмастеров касательно SEO-оптимизации для JavaScript.

 

1. Как быть с не совсем новыми сайтам?

Веб-ресурсы с историей не нужно удалять до тех пор, пока они сканируются Google. После полного сканирования контента в выдаче появятся новые сайты. Следует исключить настройку кода сервера с ошибкой 404, иначе могут возникнуть проблемы с рендерингом веб-страниц.

 

2. Что делать с нерелевантными элементами?

Ненужные элементы следует оставить для корректного выполнения предварительного рендеринга. Для этой операции следует включить максимальное количество элементов на странице, чтобы Googlebot охватил весь контент.

 

3. Как исключить индексацию динамических мета-тегов title?

Google всегда индексирует любые теги Title, в том числе переписанные для пользователей. Поэтому такую операцию нельзя запретить. Однако есть способ, чтобы решить данную проблему. Для этого следует отложить взаимодействие с пользователем до тех пор, пока он не нажмёт на кнопку чата и начнёт диалог. В этом случае тег Title динамически переписывается только после совершения действия с интерактивными элементами на странице. Googlebot не может нажимать на кнопки и поэтому увидит только фиксированные мета-теги.

 

4. JavaScript внутри визуализированного вывода

Для предварительного рендеринга (пререндинга) допускается использовать JavaScript внутри визуализированного вывода. Это улучшает пользовательский опыт, потому что не нужно исполнять JavaScript на тех страницах, где выполнен предварительный рендеринг.

 

5. Исчезнут ли пререндеринг и динамический рендеринг?

Динамический рендеринг на страницах может со временем уйти в историю. Но рендеринг и пререндеринг на стороне сервера будут полезны в будущем. Ведь данная технология помогает пользователям и поисковым сканерам быстрее получать доступ к содержимому веб-страниц.

 

 

Обработка смешанного контента в Chrome и ранжирование сайтов

С февраля 2020 года браузер Chrome выполняет блокирование любого смешанного контента на веб-страницах. Это значит, что пользователи не смогут увидеть фотографии, картинки и медиафайлы с видео и звуком. Если такие страницы не видны в браузере, значит веб-мастерам нужно исправить проблему. Изменения при обработке страниц с контентом смешанного типа через Chrome не оказывают влияние на ранжирование сайта в поисковой системе Google.

 

 

Джон Мюллер о порядке обработке запросов при повторной проверке сайта

Джон Мюллер прояснил ситуацию с запросами веб-мастеров на повторную проверку сайта, который попал под ручную пессимизацию за нарушение правил поисковой системы Google:

  • Как долго обрабатываются запросы на повторный переобход сайта. Проверка ручная, занимает больше времени по сравнению с автоматической. В процессе проверки определяются типичные варианты накрутки показателей. При анализе ссылок оценивается вероятность происков конкурентов (негативная SEO-оптимизация) или самостоятельные действия владельца веб-сайта. В первом случае, когда ссылочная масса не может контролироваться собственником веб-ресурса, поисковик стремится игнорировать некачественные (неестественные) линки.
  • Кто участвует в ручной проверке. В команду Google входят сотрудники из разных локаций, чтобы проверять ресурсы на разных языках мира. Поэтому в некоторых случаях запросы на повторную проверку сайта выполняются дольше.
  • Как быстро должен реагировать владелец сайта при устранении выявленных нарушений. Для Google не имеет значение скорость исправления нарушений правил поисковой системы. Гораздо важнее качественная сторона, когда владелец основательно выполнил работу, особенно это касается спамных ссылок.
  • Есть ли приоритеты для запросов на переобход сайта. Все запросы ставятся в одну очередь для повторной проверки.
  • Сайт может подвергнуться повторной проверке после снятия ручной пессимизации? Если владелец устранил все нарушения, за этим веб-ресурсом не будет пристального слежения.

 

Мартин Сплитт о приоритетах AMP-страниц

Мартин Сплитт рассказал об очередной SEO-байке. Это приоритет AMP-контента перед другими результатами в органическом поиске Google. По его словам все виды оригинального, авторского, экспертного и других видов контента равны между собой в плане показа в выдаче.

 

 

Дэниел Вайсберг рассказывает о Search Console: что интересного в отчёте об индексировании

В новом видео из обучающей серии видеороликов «Search Console Training» пользователи узнали о том, чем полезен отчёт об индексировании в поисковой консоли Google.

  • Содержание отчёта — информация обо всех проиндексированных страницах, обнаруженные проблемы по сайту.
  • Статусы страницы — «Ошибка» показывает страницы с критическими ошибками, что мешают корректной индексации. «Предупреждение» содержит информацию о страницах, над которыми, возможно, придётся поработать. «Страницы без ошибок» — все проиндексированные страницы. «Исключенные страницы» — не вошедшие в индекс Google по объективным причинам.
  • Порядок использования отчёта — просмотреть главную диаграмму, чтобы убедиться в отсутствии проблем. Перейти в раздел «Ошибки», определить наиболее критические и важные для сайта. Исправить ошибки самостоятельно или услугами стороннего разработчика. Затем нажать на кнопку «Проверить исправление».
  • Периодичность проверки отчёта — любая удобная для пользователя. Ежедневная проверка не является обязательным мероприятием. Если будут обнаружены новые ошибки индексирования Google пришлёт сообщение по электронной почте. По ранее обнаруженным ошибкам дополнительных оповещений не будет. Чтобы контролировать ситуацию по сайту рекомендуется регулярно просматривать отчет об индексировании страниц.

 

 

Мартин Сплитт о порядке сканирования и индексирования сайтов с JavaScript

Мартин Сплитт из Google опроверг наличие двух волн (сканирование + индексирование) при обработке страниц с JavaScript. Об этом он заявил на видеовстрече с вебмастерами. Фактически процесс происходит иначе. Но в целях упрощения понимания его представили в виде двух волн.

 

 

Советы Джона Мюллера: как формировать файл Disavow

Джон Мюллер из Google прояснил ситуацию с файлом Disavow для отклонения ссылок. По его мнению, нужно обращать внимание только на официальную информацию из Search Console. Внешние ресурсы с онлайн-инструментами для анализа ссылочной массы действительно выявляют нерелевантные ссылки. Однако не следует добавлять все такие ссылки в файл Disavow. В 2020 году Google научился автоматически выявлять неестественные ссылки. Поэтому файл Disavow применяется только при получении ручных санкций.

 

 







Актуальные новости поисковых систем

 

 

 

 

© WaterMillSky 2012-2020

 

 

Write a comment

Comments: 0