
Почему из Search Console удаляются анонимные запросы. В чем ценность руководства Google для асессоров. Был ли августовский апдейт или просто некоторым
показалось. Какое влияние оказывает репутация авторов на ранжирование сайта. Официальные разъяснения Google по отчетности с анонимными запросами. Подробности очередного обновления в Search
Console. Чем полезен инструмент для проверки URL-адресов. Как подтвердить сайт через аккаунт в Google Analytics. Кто получит оповещения после перевода на HTTPS протокол. Как запросить повторную
оценку для разметки событий. Что интересного в новом отчете по юзабилити. Подробности обновления отчёта об индексировании. Первые результаты медицинского апдейта. Чем отличаются алгоритмы Panda и
Penguin. Почему нужно использовать 301-й редирект при переходе с HTTP на HTTPS. Что нового в дополнительном отчете в бета-версии Search Console. Частота сканирования старых URL при удалении
контента. Формируем правильные сниппеты для Гугл. Читайте очередные SEO-новости Google в августовской подборке от WaterMillSky.
Отчеты в Search Console без анонимных запросов
С 18 августа 2018 года Google приступил к чистке отчетности в Search Console. Теперь нельзя увидеть информацию об анонимных запросах. Это такие поисковые фразы, которые запрашиваются крайне редко и только от небольшого числа пользователей. Цель действия — обеспечить конфиденциальность данных пользователей. Точный предел количества запросов, предназначенных для удаления из отчетов Search Console, зависит от типа веб-сайта. Диапазон колеблется от нескольких единиц до значительного процента в общем количестве запросов. После удаления анонимных запросов наблюдается снижение количества кликов и показов.
Руководство для асессоров поможет улучшить позиции сайта
По заявлению Дэнни Салливана, владельцам сайтов будет полезно изучить официальное руководство для асессоров. Это позволит разобраться в работе поисковых алгоритмов, чтобы создавать и публиковать качественный контент и добиваться улучшения позиций по нужным ключевым фразам. Целых 200 страниц полезного текста помогут понять, как подготовить отличный контент.
Ниже краткие рекомендации для владельцев сайтов и веб-мастеров:
- Оценить качество страницы по степени соответствия целям и потребностям посетителей.
- Ключевой критерий для оценки — пользовательский интент (базовые намерения).
- Публиковать максимально полную тематическую информацию.
- Проработать юзабилити, чтобы любые действия пользователей не вызывали затруднений, выполнялись легко и быстро.
Неожиданное обновление поискового алгоритма
В период с 22 по 24 августа 2018 года некоторые вебмастера обнаружили, что Google в очередной раз обновил поисковый алгоритм. Онлайн-инструменты для мониторинга позиций в SERP показали явные признаки апдейта: в поисковой выдаче произошли заметные изменения, явно свидетельствующие о сильном шторме по аналогии с медицинским апдейтом («Medic Update»). По комментарию Джона Мюллера, подобные изменения происходят постоянно. Это обычная практика Гугл для последних лет. В некоторых случаях затрагивается небольшое число ресурсов, а в других — в SERP меняются позиции большинства сайтов.
Репутация авторов не оказывает влияние на ранжирование сайтов
Джон Мюллер пояснил отношение Google к рейтингу создателей контента. По его словам, в факторы алгоритмического ранжирования сайтов не входит репутация авторов оригинального контента. Хотя асессоры учитывают рейтинг авторов в процессе проведения ручной оценки качества сайта, но они не могут оказать прямое влияние на позиции конкретного ресурса. Это поддерживает беспристрастность поисковика и полностью включает ручные манипуляции с поисковой выдачей.
Пояснения по отчету с анонимными запросами
Google разъяснил изменения в отчетах «Анализ поисковых запросов» и «Эффективность сайта» в Search Console. Ранее Гугл не показывал информацию об анонимных запросах в поисковой консоли. Но агрегированные данные (суммарное количество запросов) были доступны в виде сводных диаграмм. Начиная с 19 августа 2018 года информация об анонимных запросах исключается из общих цифр в отчетах «Анализ поисковых запросов» и «Эффективность сайта». Таким образом:
- Google Analytics не отслеживает следующие запросы: редкие, с личной либо с конфиденциальной информацией (так называемые анонимные запросы)
- В отчетах удаляется поле «Другие» с информацией по отфильтрованным запросам (фильтр «query not containing»).
- Некоторое снижение общего количества запросов в отчетах Search Console отражает новый подход к статистике и не имеет отношения к эффективности.
Обновления в Search Console
Google познакомил пользователей с очередными обновлениями в поисковой консоли. На этот раз апдейт коснулся таких функций, как управление пользователями и администрирование разрешений. В 2019 году Search Console получит новые функции и опции:
- Пользователи всех уровней доступа получат наиболее важные оповещения.
- Подробная история изменений расскажет об авторах важных изменений и раскроет суть событий.
- Веб-мастера смогут предоставить доступ других пользователей к отчетам (в режиме только чтение).
- Обновленный интерфейс предоставит зарегистрированным пользователям информацию обо всех лицах, кто обладает доступом и позволит администрировать других пользователей.
- Для пользователей с ограниченным доступом предусмотрен режим read-only. Они смогут только просматривать содержимое и не смогут выполнять иные действия.
Анонсированные изменения входят в общую стратегию Гугл по улучшению функциональности Search Console.
Актуальные данные по индексации в новом инструменте для проверки URL в Search Console
Инструмент для проверки URL-адресов в Search Console запущен несколько месяцев назад. С июня 2018 года он показывает самую актуальную информацию по индексации интернет-страниц. В отчётах поисковой консоли аналогичные данные можно получить только в общем виде и с отставанием в 7…14 дней. Об этом поведал Джон Мюллер в одном из своих твитов. Теперь веб-мастера смогут разобраться, чем отличаются данные в отчетах Search Console от проверки URL-адресом специальным инструментом.
Подтверждение сайта в Search Console через аккаунт в Google Analytics
Все обладатели аккаунта в Google Analytics смогут автоматически подтвердить права на собственный сайт в Search Console. Это случится через несколько месяцев. Теперь веб-мастера освобождены от ручного запроса. Доступ к сервису будет предоставляться в автоматическом режиме, без дополнительных запросов и лишних действий. Таким образом, Гугл максимально облегчил процедуру подтверждения прав на сайт в Search Console. Владельцы будет получать полезные отчеты и пользоваться специальными функциями, которые помогут сделать веб-проектов более быстрым, удобным и безопасным.
Владельцы сайтов получают оповещения Google при проблемах с переводом сайта на HTTPS
С августа 2018 года владельцы сайтов, зарегистрированных в Search Console, смогут получать оповещения при наличии проблем, связанных с переводом на безопасный протокол HTTPS. По словам Джона Мюллера, рассылка подобных оповещений поможет веб-мастера и владельцам сайтов разобраться в причинах некорректного переноса на HTTPS. Такие проблемы возникают, когда перевод на безопасный протокол реализован с ошибками или не был полностью завершен. Причем каждый проблемный сайт получит индивидуальные оповещения.
Как сделать запрос на повторную оценку микроразметки событий
С 6 августа этого года владельцы сайтов могут запрашивать повторную оценку структурированных данных для разметки событий «Events». После обновления в официальной документации по микроразметке появился дополнительный раздел «Устранение ошибок» (в оригинале «Troubleshooting»). В нем подробно расписано, что нужно сделать для отображения нужных данных в расширенных результатах для поисковой выдачи.
Порядок действий таков:
- Проверьте структурированные данные — они должны включать поле offers.url.
- Проверьте URL-адрес страницы на предмет соответствия требованиям к URL для событий.
- Проверьте микроразметку специальным инструментом.
- Отправить запрос на переобход страницы (сканирование) и затем на повторную оценку.
Отчет по юзабилити сайта в Search Console
Новая поисковая консоль прирастает полезными отчетами из прежнего сервиса. В августе пользователи бета-версии Search Console получили доступ:
- К отчёту «Удобство просмотра на мобильных устройствах».
- К настройкам ««Users & Permissions» для администрирования и разграничения уровней доступа к аккаунту.
- Предусмотрена возможность для добавления новых сайтов и подтверждение прав.
В планах Google значится постепенный перенос всех функций из прежней версии Search Console. А пока предыдущая версия поисковой консоли существует наравне с новой.
Обновление отчёта об индексировании в Search Console
Google сообщил о завершении работ по апдейту отчета об индексировании в новой поисковой консоли. Работы проводились в течение двух недель: с 14 июля по 1 августа 2018 года. В результате пользователи получат более точные сведения, подготовленные при помощи обновленной системы учета данных. Причина расхождений в цифрах, которую заметили некоторые особо дотошные пользователи — это последствия обновлений, когда в период с 14.07.18 по 01.08.18 года в отчете представлены оценочные данные. Обнаруженное несоответствие в данных ни коим образом не связано с изменениями на самом сайте.
Обновление выдачи по медицинским сайтам
В начале августа текущего года веб-мастера обнаружили глобальное изменение основного алгоритма ранжирования. На этот раз пострадали веб-ресурсы из тематик «Медицина», «Здоровье», «Фитнес», «Здоровый образ жизни». Так называемый медицинский апдейт пошатнул позиции из этих тематик. Также обновление коснулось веб-ресурсов смежных отраслей: финансы, страхование, развлечения, электронная коммерция. Эти сайты связаны с продажей и рекламой изделий медицинского назначения и товаров для здоровья.
В чем отличие между алгоритмами Panda и Penguin
Ответственный сотрудник Google Гэри Илш объяснил достопочтенной сео-публике, чем различаются алгоритмы Панда и Пингвин.
- Google Panda — занимается сбором данных по каждой странице, сигналы этого алгоритма оказывают влияние на позиции сайта на уровне хостинга. С января 2016 года вошел в состав основного алгоритма.
- Google Penguin — выполняет постраничный анализ данных, влияет на позиции без учета хостинга. С сентября 2016 года действует в режиме непрерывного автоматического обновления вместе с основным алгоритмом ранжирования.
Какие редиректы применять при переводе с HTTP на HTTPS
Когда сайт переходит с протокола HTTP на HTTPS, Джон Мюллер предлагает использовать 301-е редиректы для каждой страницы. Иные переадресации, например 303-й редирект применять не следует. Иначе Google воспринимает стандартную процедуру перевода на безопасный протокол как уникальное событие. А это приводит к повторному сканированию каждого URL-адреса, что требует гораздо больше времени и задерживает перевод сайта. При использовании 301 редиректа сайт переводится на новую версию гораздо быстрее и без лишней головной боли для веб-мастеров.
В бета-версии Search Console появился отчёт о ссылках
В бета-версии Search Console появился отчёт о ссылках. В нём содержится сводная информация из прежних отчетов: «Ссылки на ваш сайт» и «Внутренние ссылки»:
- Интернет-проекты с максимальным количеством ссылок на страницы
- Страницы с наибольшим числом входящих ссылок
- Страницы с большей входящей ссылочной массой
- Какие тексты содержат ссылки
- Ссылки на конкретную страницу с одного ресурса
- Перечень интернет-сайтов с наибольшим числом ссылок на данную страни
- Страницы-рекордсмены по количеству внутренних ссылок
- Список внутренних страниц, в которых размещены ссылки на конкретную страницу.
По заверениям Google новый отчет с большей точностью раскрывает информацию о ссылках.
Как частота сканирования старых URL подтверждает правильность решения об удалении страниц
По заявлению Джона Мюллера частота сканирования страниц поможет получить косвенное подтверждение о корректности принятого решения насчёт удаления старого либо ненужного контента. Однако в некоторых случаях удаленные материалы могут показываться в результатах органического поиска. Это означает, что поисковик редко сканирует страницы, которые не относятся к важным. Поэтому в выдаче может встречаться удаленный контент. Между тем даже устаревшие материалы и новости прежних лет (относятся к контенту низкого качества) приносят трафик. Поэтому в каждом случае веб-мастер принимает непростое решение про запятую: удалить нельзя оставить.
Как сформировать нужные сниппеты в Google
Многих веб-мастеров интересуют вопросы про сниппеты: как формируются; в чем разница для информационных и коммерческих запросов; что делать, когда Гугл снова колдует над сниппетами. По результатам независимых исследований установлено:
- Сниппет (текстовый отрывок из выдачи) создается из мета-тега Description, из текста на самой странице либо формируется комбинированный сниппет из мета-тегов и тега body.
- По сравнению информационными запросами, для коммерческих сниппет в два раза чаще формируется из метаописания Description, в котором содержатся ценная информация для пользователей и который правильно оптимизирован под нужный поисковый запрос. Но в 3% случаев сведения из Description не принимаются в расчет.
- Текст из тела страницы чаще всего используется для сниппета при информационных запросах (46%). Для веб-ресурсов коммерческой направленности намного реже, всего в 27% случаев. Для образования сниппетов выбираются данных из начала основного текста. Это первые 10…20% предложений с релевантными данными.
Рекомендации веб-мастерам и оптимизаторам:
- Содержание основного текста и мета-тега Description не делать идентичным.
- Не нужно переписывать мета-теги после каждого теста Google.
- Для лучшей релевантности добавлять в первые 150 символов мета-описания самые актуальные данные с краткой выдержкой из контента страницы с нужными ключевыми фразами.
- В следующие 150 символов размещать дополнительную информацию. Общий объём сниппета — не менее 300 символов.