· 

SEO-2018: новости Google в октябре

SEO-новости Google. Октябрь 2018 года

Самые интересные события с видеовстречи прошлого месяца. Подробности нового руководства по динамическому рендерингу. Джон Мюллер рассказал о недавнем обновлении основного алгоритма. Как устраняются ошибки в Search Console. Какой инструмент поможет обнаружить медленные страницы. В каких случаях сайты лишаются расширенных сниппетов. Почему Google больше не использует схему сканирования AJAX. Зачем нужно изучать JavaScript. Что относится к индикаторам качества. Как мобильная индексация влияет на скорость сканирования. Ещё раз о правильных ссылках. Откровения Мэтт Каттса о работе в Гугл и борьбе с веб-спамом. Знакомьтесь с отборными SEO-новостями Google в щедрой подборке от WaterMillSky за октябрь месяц.

Подробности сентябрьской видеовстречи Google с вебмастеров

21 сентября 2018 года прошла очередная онлайн-встреча Google. На этот раз веб-мастера получили ответ на следующие вопросы:

  • После перевода сайта на mobile-first индексацию возможны временные изменения позиций в выдаче. Это связано с повторным сканированием страниц и последующей обработкой контента для обновления данных в мобильном индексе.
  • Сайты переводятся на mobile-first индексацию без учёта информации о структуре и объёме мобильного трафика. Таким образом, новый тип индексации не основан на данных о трафике с мобильных устройств.
  • При сокрытии контента для скринридеров сайт не получит пессимизацию. В Google не предусмотрены подобные санкции, но специалисты из команды по борьбе с веб-спамом могут проанализировать это действие, дабы не допустить попыток манипулирования поисковыми алгоритмами.
  • В Google отсутствует критерий в виде конкретного порога или точного процента, чтобы дать количественную оценку на предмет готовности конкретного сайта к переводу на мобильный индекс. Для каждого сайта выполняется отдельный анализ текстового контента, видеоматериалов, картинок, структурированных данных и внутренних ссылок.
  • В число факторов ранжирования 2018 года не входит доступность сайта для пользователей. Возможно, в будущем поисковик сделает доступность сайта, как один из критериев для определения позиций в поисковой выдаче.
  • Коммерческие сайты не должны демонстрировать контент через JavaScript. В противном случае страницы с новыми товарами будут индексироваться достаточно долго, вплоть до нескольких недель. Разумная альтернатива — это переход на HTML для моментальной индексации контента. Страницы с HTML влетают в индекс за считанные минуты.
  • Для новых JS-фреймворков рекомендуется использовать пререндеринг для корректной индексации. Это поможет избежать проблем с обработкой JavaScript ES6 и других новейших фреймворков.
  • Если сайты используют неоригинальный контент и увеличивают его ценность за счет дополнительной информации, то такие страницы могут получить импульс в ранжировании и занять более высокие позиции по сравнению с первоисточником. Например, когда к изображению добавляется информационное либо продающее описание, создающее дополнительную ценность для пользователей.
  • Googlebot не пользуется встроенным поиском на сайте, чтобы найти нужные страницы. Но если сканирование невозможно в обычном режиме и страницы могут быть обнаружены только внутренним поиском, тогда Googlebot может использовать этот метод.
  • «Ленивая загрузка» (Lazy loading) не подходит для загрузки первостепенных изображений и основного контента. У Googlebot могут возникнуть сложности при обработке медиафайлов с отложенной (асинхронной) загрузкой некритичных элементов.
  • У Googlebot есть лимиты для сканирования страниц HTML. Это 100…200 мегабайт на 1 страницу. Основная часть сайтов укладывается в этот параметр и поэтому веб-мастера могут быть спокойны за работу Googlebot.

 

 

Новое руководство Google по динамическому рендерингу

 

Google подготовил обновленный User Guide по динамическому рендерингу для пользователей. Новый справочник поможет разобраться в технологии, предназначенной для качественного сканирования, ускоренного индексирования и корректного ранжирования страниц с JavaScript.

 

Динамический рендеринг помогает переключаться между контентом, который обрабатывается на клиентской стороне (client-side rendered) и предварительно обработанный для некоторых агентов пользователя контент (pre-rendered). Это дает отличные возможности для отображения нужного контента. Например, благодаря динамическому рендерингу для сканирования и индексирования в Google можно предоставить HTML-версию страницы, а пользователю — навороченную версию страницы с JavaScript-версию. Обновленное руководство поясняет, когда можно использовать динамический рендеринг и как образом внедрить Dynamic Rendering.

 

Как действует динамический рендеринг

  • Веб-сервер проверяет агента пользователя и определяет краулер
  • Запросы от краулеров передаются рендереру
  • Пользовательские запросы обрабатываются в обычном режиме.
  • При необходимости предоставляется контент, который совместим с конкретным краулером. 
  • Включается для отдельных страниц или для всего интернет-ресурса.

По мнению Google, обработка JavaScript представляет определенные сложности. Не каждый из краулеров способен сразу обработать скрипты и добиться правильного результата. Когда-нибудь данная проблема будет решена. Но на 2018 год действует рекомендация использовать динамический рендеринг, как готовое решение для отображения заданного контента. По своей сути динамический рендеринг и схема сканирования AJAX относятся к одной категории. Причем динамический рендеринг требуется не для каждого сайта. Его можно использовать для обработки страниц с меняющимся контентом или при наличии JS-функции, которая несовместима с некоторыми краулерами.

 

 

Ответы Джона Мюллера про апдейт основного алгоритма в сентябре 2018 года

 

Во время сентябрьской видеовстречи для вебмастеров Джон Мюллер из Google озвучил официальное мнение про апдейт поискового алгоритма, случившийся 27 сентября 2018 года.

  • Постоянные обновления относятся к регулярным апдейтам основного алгоритма ранжирования. При этом не нужно делать судорожные попытки уловить все изменения, чтобы угнаться за очередными изменениями. Но следует поднимать качество сайта и, как всегда, делать его лучше.
  • Обновление в конце сентября относится к обычным обновлениям алгоритма. В этой ситуации не следует выявлять уникальные или конкретные моменты. Например, длина мета-тегов или размер контента. Это обычные изменения для адаптации алгоритмов под изменения в динамической экосистеме. Google периодически поднимает некоторые веб-сайты, чтобы убедиться в качестве и релевантности результатов выдачи. В дальнейшем снова требуются изменения. Но это не значит, что сайты стали некачественными. Это подтверждение той истины, что всё меняется со временем. 
  • На вопрос одного из пользователей, почему сначала трафик вырос на четверть, а потом рухнул на 75%, Джон Мюллер ответил, что это нормальное явление. По его словам, нет таких волшебных мета-тегов или HTML-тегов, способных исключить просадку трафика. Но чтобы не зависеть от одного источника в виде органического поиска, следует привлекать пользователей другими методами. Также следует работать над вовлечением пользователей с целью повторного посещения (переходы из закладок в браузере). Это сделает сайт более независимым к первоначальному источнику трафика.

 

 

Как Google работает над ошибками в Search Console

 

Поисковик сообщил приятную весть. За сентябрь месяц разработчики в очередной раз улучшили Search Console. Теперь в поисковой консоли на 50 ошибок стало меньше.

 

Например, такие баги, как:

  • Исходящие и входящие ссылки на инструмент проверки оптимизации для мобильных устройств автоматически определяют язык пользователя.
  • На панели управления диаграммы начинаются с первой значимой точки.
  • Когда пользователь переключается между разными сайтами в консоли сохраняются настройки фильтров.
  • Фильтр по запросу потерял чувствительность к регистру заглавных и строчных символов.

 

В Google особо отметили, что сервис улучшается как за счёт появления новых опций и функций, так и при помощи устранения выявленных ошибок и совершенствования текущих возможностей.

 

 

Search Console поможет обнаружить медленные страницы

 

В Search Console появятся сообщения о страницах с медленной загрузкой. Такие оповещения будет рассылать Google с целью информирования веб-мастеров об ошибках и проблемах.

 

 

Оповещения Google Search Console 2018

 

 

После запуска алгоритма Speed Update в июле 2018 года, Google начал учитывать скорость загрузки страницы в качестве ещё одного фактора поискового ранжирования сайтов в мобильном и десктопном поиске. Обновленный алгоритм понижает в органической выдаче страницы с крайне медленной загрузкой контента.

 

Как решить проблему с медленными страницами

  • Провести аудит страниц. Поможет онлайн-инструмент Lighthouse.
  • Все обнаруженные ошибки исправить.
  • Обновить файл Sitemap.
  • Передать новую версию Sitemap в Google.

 

 

За что Google лишает расширенных сниппетов

 

В списке наказаний Google появился ещё один инструмент. Теперь одновременно с получением ручной пессимизации за неестественные ссылки можно лишиться расширенных сниппетов. Например, пропадёт рейтинг в виде звёзд, а инструмент проверки микроразметки для структурированных данных покажет, что всё в порядке.

 

Как устранить проблему

  • Удалить искусственные ссылки вручную.
  • Воспользоваться инструментом для отклонения некачественных ссылок.
  • Подать заявку на пересмотр сайта.

 

Прощай, AJAX

 

Начиная с 2009 года Google пользовался схемой сканирования AJAX, которая помогала поисковым роботам «увидеть» страницы с AJAX. Это были те времена, когда роботы Google не могли корректно распознавать и правильно отображать JavaScript-страницы. Прошло десять лет и поисковик решил отказаться от устаревшей схемы. Теперь Google будет напрямую сканировать, и обрабатывать URL-страницы сайтов на AJAX. Прямой рендеринг контента освободит веб-мастеров от обязанности предоставлять поисковику отображаемую версию страницы.

 

 

Почему нужно учить JavaScript

 

Джон Мюллер предлагает оптимизаторам учить матчасть. В последующие годы JS-фреймворки получат ещё большее распространение, что потребует качественное новое понимание основ JavaScript. Благодаря знанию технологий JavaScript SEO-специалисты откроют для себя невиданные возможности.

 

Почему это важно:

  • Поможет понять, как работает JavaScript.
  • Позволит разобраться в проблемах SEO, связанных с JS-фреймворками.
  • Подскажет, как JavaScript оказывает влияние на другие поисковые системы и посетителей сайта.

 

Важная информация об индикаторах качества

 

По мнению Джона Мюллера, в число индикаторов качества не входят следующие показатели: 

  • Количество слов на странице.
  • Соотношение между анкорным и обычным текстом.
  • Процент анкорного текста в общем объёме контента.
  • Количество входящих и исходящих ссылок на данной странице.

 

 

Почему меняется скорость сканирования

 

В сентябре текущего Google резко форсировал процесс перевода веб-сайтов на мобильную индексацию. В связи с чем могут отмечаться сильные девиации в скорости сканирования. По словам Джона Мюллера из Гугл, подобные явления могут означать, что сайт переводится на mobile-first индексацию. Если скорость сканирования зашкаливает, рекомендуется сделать настройки в Search Console.

 

 

Искусственные качественные ссылки нарушают рекомендации Google

Джон Мюллер снова высказался на счет ссылок. Теперь создание качественных ссылок будет считаться нарушением рекомендаций для вебмастеров. То есть, когда веб-мастер размещает искусственные ссылки с целью оказания влияния на позиции сайта, это однозначно трактуется как нанесение вреда. В частности, такие ссылки могут считаться, как часть схемы для обмена ссылками, а это будет нарушением рекомендаций Google для вебмастеров. Вместо манипуляций со ссылками, Джон Мюллер предлагает создавать оригинальный контент высокого качества, способный принести естественные ссылки.

 

 

Что Мэтт Каттс думает об Google, веб-спаме и SEO

 

Впервые спам в Google был обнаружен Мэтт Каттсом в процессе использования PageRank для фильтрации сайтов с некачественным контентом. Один из сайтов получил высокие позиции в выдаче, что явно не согласовывалось с работой алгоритма ранжирования. Оказалось, что владельцы данного сайта для продвижения использовали домены с истёкшим сроком действия и значительной ссылочной массой.

 

Когда руководство Google получило информации о веб-спаме, никаких мер не было принято. То есть, по-прежнему считалось, что у Гугл не может быть проблем со спамом. В этот период Каттсу было сложно работать, ведь его мнение о важности проблемы с веб-спамом не было услышано. Ситуация поменялась в 2005 году, когда пользователи выступили с критикой результатов поиска. Тогда всё изменилось, а Мэтт Каттс впоследствии возглавил команду по борьбе с веб-спамом, а инженеры этой команды могли вносить изменения в любую часть алгоритма.

 

Активно работая с SEO-сообществом Мэтт получил обратную связь для улучшения алгоритма. Тогда в Google поняли, что SEO-оптимизация – это не только запрещенные методы, попытки манипуляции алгоритмами и банальная покупка ссылок на биржах. Это и серьёзная работа, способная улучшать корпоративные сайты и развивать бизнес.

 

 

 


 

 

 

 

© WaterMillSky 2012-2018