Пути избегания негативных эффектов будущих обновлений алгоритмов Google

Развитие технологий не стоит на месте и поисковые технологии далеко не исключение. Если Вы обращали внимание на последние изменения в мире SEO, Вы наверное знаете про два основных изменения алгоритмов Google, которые произошли в последние два года. В одной из предыдущих статей этого блога, я уже обращался к проблеме обновления «Google Penguin».

Это и другие «восхитительные усовершенствования» системы нанесли сокрушительный удар по прибыли многих владельцев сайтов и привели к тому, что некоторые предприятия были полностью стерты с лица земли. Лично я страдал одним из жертв такого обновления, но, тем не менее, мне удалось сделать первые шаги к восстановлению своего онлайн бизнеса.

Проблема возникла из-за того, что Google пришел к тому мнению, что многие владельцы сайтов создают не качественные ресурсы, много из которых созданы просто для рекламы партнерских продуктов и получения колоссальной прибыли. В результате, команда самого популярного поисковика создала два совершенно новых алгоритма, которые буквально за ночь перестроили выдачу и буквально выкинули тысячи качественных сайтов из топовых позиций. Может такой подход и не очень правильный, но нам ничего не остается, как бороться с результатом.

Сложность разработанных алгоритмов поражают многих информационных экспертов и составляют сложность разобраться в том, как они работают. Но без особых знаний высоких технологий можно было догадаться, что на успех могут рассчитывать проекты, авторы которых:

— Активно обновляют свои ресурсы: новый уникальный контент это сигнал для Google о том, что ресурс создан именно для людей. Если речь идет о блогах, то многие писатели рекомендуют создавать более объемные статьи (раньше эталоном была статья на 300-400 слов, сейчас более склоняются к постам на 600-800 слов);

— Применяют социальный маркетинг к своим ресурсам: поисковые роботы Гугла научились находить популярный материал в социальных сети и микроблогах и тем более награждать такой материал более высокими позициями в выдаче.

— Не злоупотребляют ключевыми фразами в своем материале: очень большая плотность ключевых слов в текстах и заголовках постов возможно привел к понижению в выдаче многих ресурсов (как минимум это случилось на одном из моих проектов).

Применив эти, на первый взгляд, простых правила я начал наблюдать позитивные изменения. Так же я всегда читаю про продвижение в поисковой выдаче и в некоторых случаях обращаюсь к профессионалам, когда понимаю, что сам вытянуть проект просто не в силе.

Если Вы активно работаете над своим ресурсом, но не видите результатов, Ваш проект мог пропасть под фильтры. Что изменить ситуацию, нужно будет использовать проект Google Webmaster и связаться с представителем поисковика для решения проблемы.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *