В очередном познавательном видеоматериале для веб-мастеров и собственников интернет-ресурсов, бессменный руководитель команды Гугл по борьбе с интернет-спамом Мэтт Каттс поведал, каким образом поисковый робот Googlebot распознает оригинальный контент для сайта, загружаемый с помощью скриптов AJAX и JavaScript.
В настоящее время для достижения большей презентабельности текстового и графического контента, а также для улучшения юзабилити страницы и поведенческих факторов, многие веб-мастера используют многочисленные возможности JavaScript. Поэтому актуален вопрос: "Каким образом Google выполняет обработку контента с оригинальным содержимым, находящемуся в JavaScript и CSS- файлах, а также загружаемого с помощью технологии AJAX?".
Современные поисковые алгоритмы Google оперативно и корректно обрабатывают сложный динамический контент, загружаемый популярными скриптами AJAX и JavaScript.
Сегодня GoogleBot способен:
- Детально рассмотреть содержимое веб-страницы.
- Разобраться с загрузкой динамического контента пользовательским браузером.
- Извлечь содержимое JS и CSS- файлов, которые используется не только на странице, но и встроены сложным образом в элемент Iframe.
- Проиндексировать выбранные данные.
По словам Мэтт Каттса, чтобы динамическое содержимое веб-сайта было гарантированно проиндексировано не только Гугл, но и другими поисковыми системами, целесообразно разрабатывать сайт с HTML-версией. Этот способ обеспечивает своевременную индексация новых интернет-страниц и увеличивает шансы попадания сайта в поисковую выдачу. Также Matt Cutts рекомендовал не производить блокирование JavaScript и CSS-файлов – это поможет поисковому роботу Googlebot распознать и проиндексировать содержимое страницы.
Другие новости от Google:
|