Мэтт Каттс рекомендует создавать веб-сайт с HTML-версией

Мэтт Каттс Рекомендации для веб-мастеров

В очередном познавательном видеоматериале для веб-мастеров и собственников интернет-ресурсов, бессменный руководитель команды Гугл по борьбе с интернет-спамом Мэтт Каттс поведал, каким образом поисковый робот Googlebot распознает оригинальный контент для сайта, загружаемый с помощью скриптов AJAX и JavaScript.

 

 

 

 

В настоящее время для достижения большей презентабельности текстового и графического контента, а также для улучшения юзабилити страницы и поведенческих факторов, многие веб-мастера используют многочисленные возможности JavaScript. Поэтому актуален вопрос: "Каким образом Google выполняет обработку контента с оригинальным содержимым, находящемуся в JavaScript и CSS- файлах, а также загружаемого с помощью технологии AJAX?".

 

Современные поисковые алгоритмы Google оперативно и корректно обрабатывают сложный динамический контент, загружаемый популярными скриптами AJAX и JavaScript. 

 

Сегодня GoogleBot способен:

 

  • Детально рассмотреть содержимое веб-страницы.
  • Разобраться с загрузкой динамического контента пользовательским браузером.
  • Извлечь содержимое JS и CSS- файлов, которые используется не только на странице, но и встроены сложным образом в элемент Iframe.
  • Проиндексировать выбранные данные.

 

По словам Мэтт Каттса, чтобы динамическое содержимое веб-сайта было гарантированно проиндексировано не только Гугл, но и другими поисковыми системами, целесообразно разрабатывать сайт с HTML-версией. Этот способ обеспечивает своевременную индексация новых интернет-страниц и увеличивает шансы попадания сайта в поисковую выдачу. Также Matt Cutts рекомендовал не производить блокирование JavaScript и CSS-файлов – это поможет поисковому роботу Googlebot распознать и проиндексировать содержимое страницы.

 

WM+

 

Актуальные новости поисковых систем

 

 

 

 

© WaterMillSky 2012-2015