· 

SEO-2020: новости Google за сентябрь

SEO-новости Google.  Сентябрь 2020 года

Как искать лицензированные картинки. В чём опасность двойных слешей в URL-адресе. Сроки восстановления позиций сайта после очередного апдейта основного алгоритма Google Core Updates. Когда метрики Core Web Vitals войдут в число основных факторов ранжирования. Почему Googlebot будет сканировать сайты по протоколу HTTP/2. Порядок обработки партнёрских ссылок. Как ключевые слова в домене верхнего уровня влияют на ранжирование сайта. Главные отличия избранных сниппетов от расширенных результатов. Восемь мифов о контенте. Что выбирает Google для ссылки: контекст или анкорный текст. Как растёт качество поиска в 2020 году. Основные мифы о том, как Google взаимодействует с мировым SEO-сообществом. Читайте отборные SEO-новости из ежемесячного обзора от WaterMillSky. Достоверная информация за сентябрь 2020 года поможет сделать корректные выводы, чтобы избежать ошибок при оптимизации веб-сайта в Google.

В поиске по картинкам появились ярлыки для изображений с лицензиями

Для поиска лицензируемых изображений в Google Картинках появились ярлыки «Licensable». После клика по картинке показываются дополнительные сведения об изображении и ссылка на веб-страницы с информацией о лицензии. Результаты поиска фильтруются по типу лицензии: Creative Commons или на коммерческой основе. Читать далее

 

 

Почему Google против двойных слешей в URL-адресе

Джон Мюллер из Google советует отказаться от использования в URL-адресах двойных слешей (косая черта или «//»). Подобные URL-адреса будут сканироваться, но это не считается хорошей практикой, так как такие URL информируют об использовании безопасного протокола HTTPS.

 

 

Как быстро сайт восстанавливает позиции после обновления основного алгоритма

На сентябрьской видеовстрече с вебмастерами Джон Мюллер (сотрудник Google) разъяснил порядок восстановления видимости сайта после шторма, вызванного крупными ежегодными апдейтами основного алгоритма Google (Core Updates). По словам Джона Мюллера, в процессе Core Updates заново оцениваются результаты поиска. В последние годы алгоритмы действуют в режиме непрерывного обновления, а индекс перетряхивается постоянно.

 

Поэтому веб-мастерам не следует дожидаться очередного обновления в надежде улучшить пошатнувшиеся позиции. Чтобы вернуть прежние позиции рекомендуется работать над сайтом постоянно. Например, понять потребности пользователей и добавить новые функции. Постоянное улучшение контента сайта поможет ещё сохранить и поднять позиции при крупных апдейтах. Это будет заметно до очередного обновления.

 

 

Почему метрики Core Web Vitals могут не войти в число основных факторов ранжирования

Гэри Илш из Google выразил мнение, что показатели Core Web Vitals (LCP, CLS, FID) не обязательно используются для ранжирования сайта. В приоритете Google другие факторы, которые помогают сформировать релевантную выдачу с наиболее качественными результатами по запросам пользователей поисковых систем.

 

 

Googlebot будет сканировать сайты по протоколу HTTP/2

Начиная с ноября 2020 года поисковый робот Googlebot будет использовать HTTP/2 для сканирования отдельных веб-ресурсов, которые поддерживают данных протокол. По мнению представителей Google инновация позволит улучшить эффективность сканирования прогрессивных сайтов в плане экономичного использования технических ресурсов сервера.

 

Как будет работать Googlebot

Вместо нескольких TCP-соединений будет открывать только одно, что, несомненно, уменьшит нагрузку на сервер и позволит экономить ресурсы Googlebot для сканирования новых и прежних страниц. Причём по этому единственному соединению будет параллельно передаваться несколько файлов.

 

Сколько сайтов будет сканироваться по новому

В ноябре 2020 года масштабы запуска будут весьма скромными. Только незначительно количество сайтов смогут оценить эффективность нового способа сканирования. В планах Google расширить использование HTTP/2 для большего количества веб-ресурсов.

 

Как будет приниматься решение

После проверки сайта на предмет поддержки протокола HTTP/2 и оценки целесообразности сканирования через новый протокол как для Googlebot, так для сайта. Читать дальше

 

 

Как Google обрабатывает партнёрские ссылки

На видеовстрече в сентябре 2020 года Джон Мюллер подтвердил информацию о том, что партнёрские ссылки обрабатываются по аналогии с теми ссылками, где есть атрибут «nofollow». То есть, партнёрские ссылки не будут передавать ссылочный вес и не будут оказывать влияние на ссылочное ранжирование. От них не будет вреда и не будет пользы для поисковой оптимизации. Для таких ссылок Джон Мюллер рекомендует использовать атрибут «rel=nofollow» или «rel=sponsored». Google умеет самостоятельно определять партнёрские ссылки, причем они не относятся к спаму и не учитываются в качестве сигнала о качестве интернет-ресурса.

 

 

Почему ключевые слова в домене верхнего уровня не улучшают ранжирование сайта

Наличие ключевых слова в имени домена верхнего уровня (TLD) не даёт каких-либо преимуществ в поисковом ранжировании по сравнению с аналогичными сайтами без ключей в домене. Например, это касается доменов с «.jobs» для продвижения сайта с вакансиями.

 

 

Чем избранные сниппеты отличаются от расширенных результатов

По словам Лиззи Харви (сотрудник Google по справочной документации для поиска) между расширенными результатами (Rich Results) и избранными сниппетами (Featured Snippets) существует немалая разница.

  1. Расширенные результаты требуют структурированных данных. Избранные сниппеты используют контекст и структуру, поэтому обходятся без семантической разметки.
  2. Расширенные результаты могут отслеживаться в поисковой консоли Google (раздел "Улучшения"). Избранные сниппеты требуют специальных инструментов для отслеживания места размещения.
  3. Избранные сниппеты неизменно располагаются на первой странице выдачи. Расширенные результаты могут выводиться для документов с более низкими позициями (вторая страница и далее).
  4. Избранные сниппеты показываются в верхней части первой страницы органической выдачи (выше ТОП-1). Расширенные результаты могут отображаться в для нескольких страниц.

 

Как ограничить видимость URL для отдельных стран

Джон Мюллер пояснил, что вебмастера не могут запретить показ отдельного URL-адреса в какой-либо стране. По его словам, в Google нет механизма для ограничения видимости конкретного URL-адреса в конкретной стране.

 

 

Мифы 2020 года о контенте для сайта

Очередное видео в серии SEO Mythbusting (SEO-мифы) касается тем, связанных с контентом для сайта. На вопросы отвечает Мартин Сплитт из Google.

 

1. Ежегодное обновление контента лучше новых статей

При небольших изменениях имеет смысл обновить ранее созданные материалы. Но следует знать, что одинаковые по содержанию тексты могут оказаться дублями. Что однозначно плохо для ранжирования в Google.

 

2. Большой объём контента улучшает ранжирование сайта

Не рекомендуется публиковать контент исключительно для самого контента. На постоянной основе следует размещать новый контент для блогов корпоративных сайтов или тематических информационных ресурсов отраслевой направленности с регулярно обновляемой свежей информацией.

 

3. Наличие блога с новым контентом улучшает эффективность сайта в Google

Частая публикация нового контента не является фактором ранжирования для сайта. Однако постоянное обновление информационного блога способствует улучшению доверия к сайту у пользователей, что однозначно влияет на рост посещаемости, в том числе через прямые переходы или ссылки на других интернет-ресурсах. Таким образом, новые материалы будут полезны для реализации стратегий контент-маркетинга.

 

4. Обновление ранних публикаций улучшает видимость сайта в поиске

Обновление прежнего уникального текстового контента целесообразно при внесении серьёзных изменений или доработок текста. При отсутствии таковых, рекомендуется создать и опубликовать новый материал, который рекомендуется связать ссылкой с прежней публикацией. Это не оказывает на эффективность сайта в органическом поиске, зато будет полезным для постоянных и новых посетителей.

 

5. Google может информировать, что контента очень много или контент имеет низкое качество

Статистика частоты сканирования Googlebot не помогает выявить наличие избыточного количества контента., чтобы определить, что на сайте слишком много контента. Для этой цели пригодится отчёт об эффективности в Search Console. Например, при значительном количество показов и низкой кликабельности следует подумать, что можно сделать с контентом, чтобы увеличить посещаемость из выдачи Google.

 

6. Малоэффективный контент понижает надёжность сайта и уменьшает его авторитетность

Контент с низкой эффективностью может снизить траст сайта, если это спам. В таком случае поисковик ухудшит ранжирование. В других случаях необходимо провести анализ контента, чтобы определиться с действиями: обновить тексты или удалить навечно.

 

7. Объединение короткого контента позитивно влияет на ранжирование сайта

При группировании текстов (статей) небольшого объёма (до 500 …1 000 знаков или в несколько предложений) в одну большую публикацию с релевантной информацией позитивно воспринимается поисковой системой.

 

8. Количество слов в тексте является фактором ранжирования

Это не так. Количество слов (знаков) не относится к факторам ранжирования Google. Важно передать смысл статьи, а её размер может быть любым: 50 или 1000 слов. Это не регламентируется поисковой системой.

 

 

Что важнее для ссылки: контекст или анкорный текст

Контекст, размещённый до и после ссылки относится к вторичным сигналам. По словам Джона Мюллера, для поисковика намного важнее анкорный текст. Google не определяет контекст. Напротив, главную информацию черпает из анкорного текста.

 

 

Как Google улучшает качество поиска

В 2020 году Google работает точнее, быстрее и надёжнее. Это подтверждает поиск, результаты которого предоставляют релевантную информацию по различным тематикам:

  • Панель знаний — содержит улучшенную информацию с более высокой точностью. Теперь панель знаний формируется также на основе достоверных источников от государственных органов, медицинских организаций и проверенной информации из Википедии.
  • Проверка фактов — ярлыки от системы фактчекинга показывались в органическом поиске Гугл в 2020 году свыше 4 000 000 000 раз.
  • Алгоритм BERTпомогает улучшать связь между сведениями из новостных статей и проверкой фактов, чтобы оценить главную тему статьи на предмет соответствия приведённых фактов.
  • Поисковые функции — получили усиленную защиту от различных манипуляций в органическом поиске: оскорбительные варианты поисковых подсказок, сомнительный контент при автозаполнении, удаление подсказок поиска во время выборов.
  • Срочные новости и кризисные события — определяются в течение нескольких минут за счет использования возможностей Intelligence Desk.

 

Статистика поиска Google по 2020 году

  • Спам — ежедневно автоматические системы выявляют 25 000 000 000 веб-страниц, которые классифицируются как спам.
  • Новые запросы — каждый седьмой запрос считается новым для поисковой системы.
  • Асессоры Google — свыше 10 000 сотрудников из разных стран мира помогают улучшать работу алгоритмов при ранжировании результатов поиска.
  • Проверка качества результатов — ежедневно проводится 1000 проверок качества поиска.
  • Категория E-A-T («экспертность, авторитетность, доверие») — обладает большим весом по запросам YMYL («Your Money or Your Life» или «Ваши деньги или Ваша жизнь»).

 

 

Как работают ссылочные алгоритмы Google

Джон Мюллер помог разобраться с вопросом касательно особенностей обновления ссылочных алгоритмов при крупных апдейтах Core Updates и раскрыл сроки, в течение которых новые ссылки начинают работать на благо ранжирования сайта. По словам Джона Мюллера основной алгоритм состоит из значительного числа более мелких алгоритмов, которые меняются при обновлении Core Updates и одновременно меняется вес отдельных сигналов. Новые ссылки оказывают влияние на ранжирование сайта после обработки Google. Это непрерывный процесс, поэтому после обнаружения и сканирования новых линков поисковик может моментально учитывать при ранжировании.

 

 

Мифы о взаимодействии Google  с SEO-сообществом

В сентябрьском выпуске SEO Mythbusting (SEO-мифы) Мартин Сплитт из Google и Барри Шварц из Search Engine Roundtable помогли развеять мифы в сфере взаимоотношений Google и мирового SEO-сообщества.

 

1. Что означает «смотря по ситуации» или «возможны варианты» («it depends»)?

Такой ответ сотрудники поиска дают на вопросы, которые касаются сайта или его контента. Например: «Это новый сайт» или «Что представляет собой оригинальный контент данного веб-ресурса?».

 

2. Конфликт между владельцами сайтов и Google: нужны ли избранные сниппеты?

Отдельные издатели, правообладатели оригинальной информации, считают, что избранные сниппеты предоставляют слишком много подробной информации, что может снижать трафик из выдачи. По словам Мартина Сплитта, такие результаты в поиске позволяют улучшить качество трафика, когда на сайт чаще приходят мотивированные пользователи, которые знают что хотят.

 

3. Почему пользователи не доверяют Google?

Поисковику непросто удерживать баланс между очень низкой и очень высокой прозрачностью, когда в первом случае скрывается важная информация, а во втором — раскрываются конфиденциальные сведения о ранжировании. Но если сотрудники поиска утверждают, что данный критерий не применяется в поисковом ранжировании — это на самом деле так.

 

4. AMP входит в число факторов ранжирования

Google несколько раз заявлял, что AMP не используется в качестве сигнала ранжирования. Это вызвало ещё больше вопросов в веб-мастеров и оптимизаторов. Действительно, для органической выдачи AMP не является фактором ранжирования. Однако AMP оказывает влияние на распределение результатов в карусели «Главные новости», что находится выше классического ТОП-10.

 

5. Что такое максимально хороший сайт

Рекомендации Google делать наилучшие сайты из возможных зависят от целевой аудитории сайта и его конкретных особенностей. Чтобы понять, что нужно пользователям, необходимо регулярно анализировать, тестировать и выявлять приоритеты касательно контента.

 

 

 

 

Правильно оптимизированный сайт

 

 

 

 

© WaterMillSky 2012-2020