SEO-2018: новости Google в июне

SEO-новости Google. Июнь 2018 года

В июне 2018 года Google преподнёс очередные новости поисковой оптимизации. Как проверить новый URL-адрес в Search Console. Почему не рекомендуется проводить эксперименты с тегом Title в органической выдаче. В чем бесполезность оптимизации краулингового бюджета. Как сервис PageSpeed Insights поможет узнать скорость загрузки всего сайта. Почему работает оптимизация при помощи техники keyword stuffing. Каким образом действует блокировка от Googlebot медленных скриптов. Почему индексируются страницы, закрытые в файле robot.txt. Читайте июньские SEO-новости в материале от WaterMillSky.

 SEO-новости Google за июнь 2018 года

Инструмент в Search Console 2018 для проверки URL-адресов

В новой версии поисковой консоли появится онлайн-инструмент для проверки URL. Он поможет получить информацию об индексировании конкретной веб-страницы, в том числе ошибки по индексированию, микроразметке, AMP-страницам. Для проверки следует добавить URL-адрес в поисковую строку в верхней части Search Console. Проверка занимает несколько минут. По её результатам пользователи узнают наличие URL в индексе Google, увидят проблемы, познают ошибки индексирования.

 

 

Порядок слов в Title и поисковое ранжирование

По заявлению Джона Мюллера из Google расположение отдельных слов, в том числе и ключевых фраз в мета-теге Title, не оказывает влияние на SEO-оптимизацию и ранжирование. Вместо тестирования разных вариантов Title на предмет оценки кликабельности CTR, следует применять другие способы привлечения трафика. Например, проверить обновленный вариант через контекстную рекламу в Google Adwords или SMM.

 

 

Ещё раз о краулинговом бюджете

По мнению Джона Мюллера веб-мастера преувеличивают значимость оптимизации краулингового бюджета. Подобная операция имеет смысл только для крупных сайтов с очень большим количеством URL-страниц. Большинству интернет-ресурсов не потребуется оптимизация бюджета для сканирования сайта. А ещё он рассказал о некоторых SEO-практиках с эффектом близким к нулевому. Например, валидный HTML или пропорциональное соотношение кода страницы к размещенному тексту. Подобная работа не приведёт к существенным изменениям в ранжировании и не увеличит процент конверсий.

 

 

Google PageSpeed Insights показывает скорость загрузки всего сайта

Инструмент PageSpeed Insights получил очередное обновление. Теперь владельцы интернет-проектов быстро узнают агрегированные данные о скорости, с которой загружаются страницы всего интернет-проекта. После ввода URL-адреса появится ссылка с результатами анализа в целом по всему сайту. Данная информация поможет получить рекомендации сервиса Google PageSpeed Insights для улучшения качества работы веб-ресурса.

 

 

Технология Keyword Stuffing и позиции сайта в органической выдаче

Сотрудник Google John Mueller пояснил отношение поисковой системы к интернет-страницам, переполненных ключевыми словами. По его словам, избыточное использование ключевых фраз не приводит к исключению сайта или отдельной страницы из поискового индекса. В тех случаях, когда подобные страницы с keyword stuffing занимают высокие позиции, Google видит ценность в других факторах ранжирования. Например, хорошие поведенческие факторы или отличная ссылочная масса с релевантных веб-ресурсов.

 

 

Блокировка от Googlebot медленных скриптов

Google не советует прибегать к блокировке от Googlebot ресурсов с медленной загрузкой контента на странице. Например, таких как JavaScript. В противном случае возникает вероятность появления проблем с визуализацией содержимого. Когда скрипты заблокированы от сканирования поисковым роботом Googlebot, появляются трудности с корректной обработкой контента, что впоследствии может ухудшить ранжирование в мобильной выдаче. Аналогичный ответ по вопросу скорости загрузки мобильных сайтов. Блокировка скриптов никоим образом не улучшит показатели, по которым оценивается быстрая работа веб-ресурса. Вместо подобных манипуляций, Джон Мюллер рекомендует разобраться в проблемах с медленной загрузкой, чтобы найти способ ускорить работу всего сайта.

 

 

Блокировка страницы в файле Robots.txt

Когда на страницу сайта ведут входящие ссылки — она будет индексироваться даже при наличии блокировки на сканирование в robot.txt (отклонённые страницы). Это может превратиться в проблему: Google будет воспринимать данные страницы, как не располагающие контентом. Чтобы скрыть контент от сканирования и индексирования — воспользуйтесь мета-тегом noindex.

 

 







Актуальные новости поисковых систем

 

 

 

 

© WaterMillSky 2012-2018

 

 

Write a comment

Comments: 0