Google предупредил о нежелательности блокировки файлов JavaScript и CSS

Google обновил руководящие принципы для веб-мастеров. Теперь блокирование CSS или JavaScript-файлов может негативно сказаться на индексировании страниц и ухудшить видимость сайта в поисковой выдаче.

 

В обновленном руководстве содержится прямое указание для веб-мастеров, касательно доступа поискового робота Googlebot к файлам изображений, JavaScript и CSS. Для быстрого сканирования и своевременного индексирования нового контента следует исключить блокировку вышеперечисленных файлов в файле robots.txt. Игнорирование этого положения затруднит корректную индексацию страниц и может нанести вред рейтингу (трасту) веб-сайта.

 

Чтобы удостовериться в том, что GoogleBot правильно сканирует веб-страницы, следует обратиться к инструментам для веб-мастеров (Google Webmaster Tools) – «Сканирование» – «Посмотреть как Googlebot» – «Сканировать и отобразить». Через некоторое время после отправки запроса можно увидеть результаты:

 

Как поисковый робот Google сканирует страницы  сайтов с новым контентом

 

 

Другой вариант – для проверки сайта использовать любой кроссплатформенный текстовый браузер, который видит веб-ресурс также, как и поисковый робот Гугл.

 

Рекомендации от Google:

  • Убрать ненужные загрузки.
  • Проверить файл Robots.txt
  • Оптимизировать CSS и JavaScript-файлы.
  • Использовать GZIP-сжатие.
  • Протестировать сервер на предмет дополнительной нагрузки при сканировании роботом Google файлов CSS и JavaScript.

 

Выполнение вышеперечисленных рекомендаций гарантирует благосклонное отношение к сайту со стороны поисковой системы.

 

WM+

 

Актуальные новости поисковых систем

 

 

 

 

© WaterMillSky 2012-2015