Оптимизация сайта ○ Девять советов от Google

 

Девять советов от Google для владельцев интернет-сайтов и оптимизаторов 

 

Поисковик Google крайне дружелюбен по отношению к вебмастерам и оптимизаторам. Ведь его цель – сделать сайты лучше и качественнее, с учётом интересов пользователей и требований поисковой системы. Ниже, в виде ответов на вопросы, приведены девять дельных советов для оптимизации и продвижения сайтов в поисковой системе Google.

 

1.  Максимальное количество ссылок на одной странице?   

 

На заре возникновения сети Интернет поисковый робот Google учитывал только первые 100 кб текста на странице. Всё остальное не попадало в индекс. Касательно ссылок считалось, что 1 ссылка на 1 кб – это есть норма. Поэтому прежняя рекомендация Гугл – не более 100 линков для одной страницы. Новая рекомендация – количество линков на 1-ой странице оправдано с учётом интересов и потребностей пользователей (ссылки не спамные и не раздражают посетителей сайта). Иначе веб-ресурс рискует попасть под антиспамовый фильтр, который он четко распознаёт манипуляцию поисковыми алгоритмами Google. Если на веб-странице содержится много текста с добавочной ценностью общее количество ссылок не ограничивается величиной 100 линков. 

 

 

2.  При ранжировании сайтов в поисковой выдаче Google использует один алгоритм или выдача строится по разным алгоритмам?                                                                             

Для поискового ранжирования сайтов в Гугл применяется единый алгоритм. Независимо от того, на какой позиции окажется веб-ресурс: на первой, пятой или десятой – ранжирование выполняется по одному и тому же алгоритму. Цель Google – построить максимально релевантную выдачу по заданным поисковым запросам. Сначала собираются документы по выбранной тематике (полное количество превышает несколько тысяч и более). Далее алгоритм проводит сортировку документов с учетом критериев релевантности, авторитетности и востребованности среди целевой аудитории. В конечном итоге перед пользователем предстаёт список сайтов, где содержится ответ на вопрос или представлено решение проблемы.

 

 

3.  Частичные дубли на сайте – что с ними делать и как исключить пессимизации за дублированный контент?      

 

Новостные сайты могут иметь частичные дубли текстового контента, например, при публикации нового материала по различным URL-адресам. Веб-мастера пытаются действенным способами исключить появление или индексацию дублей. Для решения этой проблемы Google предлагает применять тег rel=canonical и обязательно указать главный URL-адрес новостной страницы.

 

 

4.  Какие образом социальные сети Facebook или Твиттер оказывают влияние на органический поиск в Google?  

 

Интернет-страницы социальных веб-ресурсов ничем не отличаются от страниц обычных сайтов и поэтому индексируются во всех доступных случаях. При ранжировании страниц соцсетей в органическом поиске Google не имеет значение количество фолловеров в Twitter или число друзей на FaceBook. Все страницы социальных сетей одинаково равны перед поисковым алгоритмом.

 

 

5.  Как интернет-сайту выйти из-под фильтра за использование спамовых СЕО-ссылок?                                    

 

Google неотвратимо карает продажу и (или) покупку сео-ссылок, с целью передачи PageRank. За многократные нарушения следуют ещё более жесткие наказания, вплоть до исключения сайта из органической выдачи. Например, у сайта до 2014 года имелись только трастовые качественные ссылки, но течение 2014 года покупались спамовые seo-ссылки и сайт попал под санкции. Теперь ему придётся отклонить каждую некачественную ссылку и подать запрос на пересмотр. Правильная заявка на пересмотр – это отклонение большинства покупных сео-ссылок с конкретного домена и большое число доменов с исходящими ссылками низкого качества.

 

 

6.  К чему приведёт копирование части текстового контента с других веб-ресурсов?                                                               

Если сайт копирует часть контента и создаёт при помощи ститчинга (сшивки) новые материалы – он не достигнет топовых позиций в поисковой выдаче Google. Например, Вы взяли пару предложений с одного веб-сайта, позаимствовали один абзац с другого и скопировали три предложения с 3-го сайта – это однозначно классифицируется как поисковый спам. Ведь в подобных текстах нет добавочной ценности для пользователей. Как альтернатива, допускается собирать качественный контент и создавать классные материалы, например об известных копирайтерах 20 века. Если Вы действуете аналогично – не беспокойтесь. Но если Вы копируете обрывочные части текстов и размещаете на сайте без добавочной ценности, тогда сайт автоматически попадает в зону риска с последующим наложением санкций.

 

 

7.  Ссылки из комментариев относятся к поисковому спаму?                                                                                                   

Если на трастовом сайте опубликована статья для людей о тенденциях в SEO-продвижении, то посетитель сайта вправе оставить комментарий с личным мнением и ссылкой на собственный веб-ресурс. При этом нужно обязательно публиковать комментарии от своего имени (бренда), дабы не вводить пользователей в заблуждение с помощью анкоров «недорогой контент» или «дешевый копирайтинг». Знайте, что если ссылочная масса сайта формируется исключительно за счёт комментариев и на сайт больше никто не ссылается, это станет предтечей к подозрениям в манипуляции ссылками (поисковый спам) со всеми негативными вытекающими событиями. Но если комментарии оставляются в спонтанном порядке (в отличие от алгоритма «написать пять комментариев за один день») – поводы для беспокойства исчезнут.

 

 

8.  Если к сайту не применялись санкции, нужно ли отклонять ссылки при помощи инструмента Disavow Tool?                                                                                    

 

Цель создания инструмента Disavow Tool в Google Инструментах для Веб-Мастеров – улучшить характеристики ссылочной массы после использования запрещенных SEO-технологий. В идеале, некачественные ссылки удаляют с тех ресурсов, где они размещены ранее. Но в реальности сложно связаться с веб-мастерами или другие причины препятствуют удалению «плохих» ссылок. Чтобы помочь незадачливым владельцам интернет-ресурсов разработан инструмент Disavow Tool. Используйте возможности этого инструмента, даже если в панели веб-мастеров нет предупреждений о наличии спамовых сео-ссылок. Поэтому, если Вы беспокоитесь о том, что поисковик обнаружит подобные линки и Ваш сайт подвергнется пессимизации, воспользуйтесь Disavow Tool для заблаговременного отклонения «нехороших» ссылок.

 

 

9.  Зачем нужны уникальные мета-теги для каждой веб-страницы?                                                                           

 

Если на сайте присутствуют неуникальные (продублированные) мета-теги, в панели Google для Веб-Мастеров появится уведомление о наличии дублей мета-тегов. Для ответственных страниц сайта (например, главная или посадочные страницы) уникальные мета-теги нужны обязательно. Если результатах поиска представлены автоматически сгенерированные сниппеты с некачественным содержанием, просто напишите красивые, продающие и обязательно уникальные мета-описания (теги «Тайтл» и «Дескрипшн»). Помните, что лучше вовсе отказаться от мета-описаний, чем разместить одиниковые мета-теги на всех страницах сайта.

 

WM+

 

 

Заказать комплексную оптимизацию сайта

 

 

 

© WaterMillSky 2012-2016