Что нового в техническом SEO ожидается в 2020 году


 

Сегодня техническая SEO-оптимизация пользуется всё большей популярностью. В 2020 году важность технической оптимизации по-прежнему будет пониматься веб-мастерами, поддерживаться оптимизаторами и приветствоваться специалистами.

 

 

Больше данных, объёмных и разных

 

Сегодня создается много информации и каждый из нас может получить доступ к ещё большему объёму данных. Мы получаем огромный массив данных о клиентах, сайтах, сети Интернет и даже о том, как люди пользуются всемирной паутиной. Поэтому нам крайне важно разобраться в значительном массиве данных, чтобы расширить возможности для комплексной обработки громадного объёма информации.

 

Одно из перспективных направлений — использование clickstream для получения максимально полной информации о наших клиентах. Благодая аналитике мы точно знаем, откуда к нам пришли пользователи и что они делали на сайте. Нам доступен практически весь трафик в разрезе по сегментам. Это помогает разобраться в посетителях не только наших, но и конкурирующих сайтов. Также мы понимаем, что гораздо больше компаний из сферы SEO-аналитики собирают данные о clickstream.

 

Google не остался в стороне от главных трендов и также увеличивает мощности по обработке данных. Теперь ведущий мировой поисковик собирает намного больше сведений, чем в прежние годы. В результате Гугл в ближайшем будущем научится настолько хорошо понимать сайты, что структурированные данные больше не понадобятся. Например, много полезной информации уже можно получить в Графе знаний (Knowledge graph) и в расширенных сниппетах (Rich Results).

 

Сегодня на главной странице поиска можно без перехода на другие сайты получить прогноз погоды на следующий день, найти тексты любимых песен, узнать экспертный ответ на конкретный вопрос, а также многое другое. Как видим, Google претерпевает быструю информационную экспансию и конце концов другие сайты будут рассматриваться как первоисточники для формирования данных в поиске.

 

Подобная перспектива вызывает амбивалентные чувства у тех, кто создает и наполняет сайты контентом. Это крайне неприятно, когда данные из сайтов могут собираться и показываться в выдаче. Но в тоже время, мы видим как появляется совершенно иной вид поиска, в котором экспертная информация собирается и показываются по теме запроса. Подобная форма представления информации хороша для пользователей, которым не понадобится переходить на разные, в том числе и небезопасные сайты, пробираясь до искомых сведений через навязчивую рекламу и агрессивные объявления. Если Google продолжит двигаться в этом направлении, он не оставит возможностей для своих конкурентов, а пользователи получат более избирательный и полезный поиск.

 

 

Mobile-First индекс, скорость загрузки сайтов, безопасность пользователей

 

Мобильный индекс Google начинает работать и будет действовать на протяжении длительного времени. Это вызовет переход в сфере SEO-оптимизации и онлайн-инструментов, которые будут переориентированы от десктопных компьтеров на мобильные устройства. Даже Google в собственных документах вместо «кликов» использует термин «нажатия».

 

Mobile-First индекс прибавит рабоы для тех, кто занимается технической SEO-оптимизацией. Многие сайты получат проблемы. Например, такие как, пагинация страниц, канонизация url-адресов, использование тега hreflang, дублированный контент, битые линки, данные структурированного типа и прочее. Но будут и позитивные вести. Например, спрятанный контент поможет сайту лучше ранжироваться. А это означает, появятся новые возможности для веб-дизайна.

 

В Google отметили, что будет учитывать скорость загрузки страниц и это станет важным фактором для Mobile-First индекса. В настоящее время выявляются только очень медленные страницы, из-за которых могут снижаться позиции сайта. Но в будущем, возможно, будут учитываться и более точные параметры, что позволит более адекватно ранжировать сайты.

 

Интернет-безопасность сайтов — ключевой фактор для многих пользователей. Недавно были взломаны сайты, например известное бюро кредитных историй. Гугл много лет продвигает HTTPS и теперь браузер Chrome помечает потенциально опасные в плане безопасности страницы как «Незащищенные». Это нужное действие для защиты пользователей на тех сайтах, где есть формы для заполнения сведений. В конечном итоге, Гугл будет показывать красную предупреждающую метку на всех HTTP-страницах.

 

Сегодня в ЕС действуют обновленные правила GDPR (Общее положение о защите данных). Общее устремление для обеспечения высокой безопасности и конфиденциальности пользовательской информации может затруднить получение значительной части информации, к которой уже есть доступ, а также усложнить обработку данных по причине разных правил.

 

 

Расширение и фрагментация сети

 

Интернет растет так быстро, что можно подумать, как будто еженедельно возникает новая платформа JavaScript (JS). Это основа для разработки классных сайтов в ближайшем будущем. Поисковики знают об этой тенденции и значительно преуспели в сканировании JavaScript. Новые технологии — AMP (ускоренные мобильные страницы), PWA (Progressive Web Apps или прогрессивное веб-приложение), GraphQL (язык запросов и процедур с открытым исходным кодом для API) — ещё больше приблизили будущее.

 

 

Возрастание роли инструментов

 

В будущем году ожидается много приятных изменений в инструментарии и в аналитических системах. Некоторые из них помогают разобраться при редиректе страниц. Измененный http-заголовок позволяет выявлять ошибки, особенно когда редиректы выполнены на разных уровнях или имеется большое количество маршрутов. Данный тренд будет полезен как основа для формирования нового стандарта. Вполне возможно, чтоб в будущем будет ещё больше разработок для CDN. Оптимизация и обработка редиректов станет крайне полезной для технической оптимизации.

 

Очередные улучшения в JavaScript с помощью технологии Service Workers и платформы Cloudflare Workers могут только приветствоваться. При обработке JavaScript посредством Google Tag Manager работа происходит долго и только после завершения загрузки веб-страницы. Предварительная обработка JS будет лучшим решением.

 

Радуют разработки новых SEO-инструментов. Сегодня инструментарий ориентирован на обработку массивов данных и поэтому закономерен переход на искусственный интеллект и машинное обучение. Все больше инструментов будут встраиваться в рабочие и бизнес-процессы, а не просто использоваться как дамп для базы данных.

 

Отмечается особый интерес к системам, расположенные между сервером с данными и CDN (сеть доставки контента). Они помогают вести работу на непосредственно на сайте ещё до начала доставки контента пользователям. Такие системы можно использовать в качестве инструментов для проведения тестов или внесения масштабных исправлений на одной или нескольких платформах.

 

Инструменты Distilled ODN, Updatable от Ayima, RankSense и RankScience предоставляют возможность для полноценного контроля над объектной моделью документа ещё до обслуживания веб-сайта. Это напоминает пререндинг с возможностю внесения любых изменений на сайте. Подобные систем помогут разобраться с основными проблемами.

 

 

Google поможет оптимизировать сайты

 

У Гугл тоже есть продвинутые инструменты для обработки данных и представления информации. Их цель — подобрать наиболее релевантные страницы и сформировать топовую страницу, несмотря на наличие или отсутствие технической оптимизации. Поскольку Google постоянно наблюдает схожие проблемы, вполне возможно, что в дальнейшем поисковик станет не замечать такие технические проблемы или предлагать способы для исправления. Сейчас это заметно при обработке дублированного контента, некоторых редиректов и др. Google помогает находить много полезной, актуальной, востребованной информации. В бета-версии поисковой консоли

 

Google появились новые инструменты для технической SEO-оптимизации. Например, такие как отчеты об охвате индекса и статусе AMP-страницы. Они помогают найти на сайте самые частые проблемы с техническкой оптимизацией.

 

Заказать комплексную оптимизацию сайта