
Google обновил руководящие принципы для веб-мастеров. Теперь блокирование CSS или JavaScript-файлов может негативно сказаться на индексировании страниц и ухудшить видимость сайта в поисковой выдаче.
В обновленном руководстве содержится прямое указание для веб-мастеров, касательно доступа поискового робота Googlebot к файлам изображений, JavaScript и CSS. Для быстрого сканирования и своевременного индексирования нового контента следует исключить блокировку вышеперечисленных файлов в файле robots.txt. Игнорирование этого положения затруднит корректную индексацию страниц и может нанести вред рейтингу (трасту) веб-сайта.
Чтобы удостовериться в том, что GoogleBot правильно сканирует веб-страницы, следует обратиться к инструментам для веб-мастеров (Google Webmaster Tools) – «Сканирование» – «Посмотреть как Googlebot» – «Сканировать и отобразить». Через некоторое время после отправки запроса можно увидеть результаты:
Другой вариант – для проверки сайта использовать любой кроссплатформенный текстовый браузер, который видит веб-ресурс также, как и поисковый робот Гугл.
Рекомендации от Google:
- Убрать ненужные загрузки.
- Проверить файл Robots.txt
- Оптимизировать CSS и JavaScript-файлы.
- Использовать GZIP-сжатие.
- Протестировать сервер на предмет дополнительной нагрузки при сканировании роботом Google файлов CSS и JavaScript.
Выполнение вышеперечисленных рекомендаций гарантирует благосклонное отношение к сайту со стороны поисковой системы.
Другие новости от Google:
|