+1
Загрузка...
рейтинг

Поисковые алгоритмы постоянно меняются. Google и Яндекс стремятся дать пользователю наилучший результат на его запрос.

Чтобы определить такой результат, поисковики учитывают огромное количество факторов и часто пересматривают их вес при ранжировании с учетом новых технологий и перемен в поведении пользователей. 

Поэтому получить место в топе — это только часть успеха в SEO. Важно высокие позиции удержать. Некоторым владельцам сайтов это удается. 

В чем секрет стабильности? Как удерживать позиции в условиях постоянно меняющихся алгоритмов? Об этом пойдет речь в статье. 

Авторитетность сайта — базовый фактор ранжирования

Представьте себе два сайта. Одного и того же качества контент на одном сайте залетает в индекс за считанные часы (а порой и минуты) после публикации. На другом — попадает со скрипом после ручной отправки. 

Первый сайт уже на старте получает топ-30 по большинству запросов. Другой начинает с позиций ближе к сотне, да и тех приходится ждать.

Такая неравномерность объясняется авторитетностью сайта в глазах поисковых систем. Накопление высокой авторитетности (траста) занимает немало времени, и работать над этим нужно постоянно. 

Имеет значение возраст домена. На  этот показатель мы не можем влиять, если не брать в расчет покупку дропов с приличным трастом.

Зато можно управлять объемом и качеством ссылочной массы. В долгосрочной перспективе качество ссылок на сайт и авторитетность источников играют большую роль, нежели количество линков.

Еще важнее наполнять сайт уникальным экспертным контентом, который сам по  себе привлекает трафик и обратные ссылки. Упоминания, которые генерируют реферальные переходы, особенно ценны для SEO.

Наконец, поисковики высоко ценят брендовые запросы. Для них это сигнал, что бренд известен и сайт бренда востребован. Поэтому развитие и продвижение бренда помимо всех иных преимуществ хорошо работает на авторитетность сайта. 

Ahrefs Backlink Analizer

Внимание к технической части

Техническое SEO можно сравнить с владением домом. Система достаточно сложна, чтобы у веб-мастера постоянно была какая-то работа. Если владелец хочет поддерживать сайт в надлежащем состоянии, за «хозяйством» придется следить и чинить поломки. Чем крупнее и сложнее сайт, тем больше дела у специалистов. 

Пять-шесть лет назад техническая часть не играла такой большой роли, как сейчас. Да и поисковой оптимизации многие владельцы сайтов не уделяли достаточно внимания.

Теперь, когда конкуренция высокая даже на локальном уровне, техническое SEO является важным условием хорошей видимости в выдаче. 

Вместо того, чтобы исправлять ошибки по мере их обнаружения, лучше предотвратить их появление. Ведь многие ошибки оказывают влияние на видимость и посещаемость сайта, а поисковые роботы в большинстве случаев замечают огрехи быстрее, чем веб-мастер.

Чего необходимо избегать в первую очередь:

  • массового попадания в индекс служебных и разного рода «мусорных» страниц;
  • генерации большого количества дублей;
  • проблем с адаптацией сайта под мобильные устройства;
  • медленной загрузки страниц;
  • проблем с индексацией страниц разного уровня вложенности. 

Анализ скорости загрузки сайта

Релевантный и качественный контент 

Контент — король и останется им в обозримом будущем. Подходить к созданию контента следует внимательно, пишете вы пост на 500 знаков или подробное руководство на 20 тысяч символов.

Ключевое изменение, которое произошло в этой области за последние несколько лет — это выход на первый план интента поискового запроса. Создавая единицу контента, автор должен четко понимать, какую потребность пользователя он закрывает. 

Некачественный контент сегодня легко определяют не только люди, но и поисковые машины. В Яндекса за это отвечают фильтры «Малополезный контент» и «Баден-Баден», в Google — так называемый «Thin content». 

Фильтр "Малополезный контент" (МПК) в Яндексе

Качественно написанная статья на evergreen тему не теряет актуальность и может привлекать на сайт поисковый трафик в течение долгих месяцев и даже лет.

Каждое новое обновление такой статьи, если правильно сделано, продлевает «срок службы» материала на значительный срок.  

Срок жизни контента в поиске

Переоценка и расширение семантики

Основа для создания контента — исследование ключевых слов и формирование семантического ядра сайта. Ориентация на вечнозеленые запросы, грамотная кластеризация, работа с длинным хвостом НЧ-запросов — фундамент, на котором следует создавать полезный и востребованный контент для роста, а также для удержания позиций по достижении плато. 

Хотя Google и Яндекс уже меньше ориентируются на ключевые слова и стремятся оценить страницу по совокупности всех ее элементов, релевантная семантика все еще очень важна.

Одним из условий удержания достигнутых позиций является регулярная переоценка семантического ядра и его расширение. Одни ключи теряют популярность, другие, наоборот, ее наращивают, появляются новые ключи. За этим нужно следить и вовремя обновлять семантику. 

Фокус на юзабилити

Юзабилити — это удобство и эргономичность сайта. Если сайт работает медленно, его структура запутанная, нужные кнопки приходиться искать, то человек просто закроет вкладку и вернется назад к поиску. И, скорее всего, перейдет на сайт конкурента, где лучше учтен пользовательский опыт потенциального клиента.

Поиск отслеживает поведение человека на сайте. Поведение учитывается при ранжировании, и даже простые улучшения могут оказывать положительное влияние на ранг и видимость страницы.

Несколько советов по юзабилити сайта, которые не теряют актуальность:

  • не жалейте времени на проектирование качественной структуры сайта и навигации по нему;
  • адаптация сайта под мобильные устройства очень важна, поскольку объем мобильного трафика давно превышает десктопный;
  • оптимизируйте скорость загрузки страниц независимо от типа сайта;
  • структурируйте контент для улучшения его читабельности людьми и роботами;
  • не перегружайте дизайн сайта, чтобы пользователь не терялся среди «красот» и «украшений». 

Грамотная архитектура сайта

Постоянный мониторинг и аналитика

Представьте себе, веб-мастер:

  • хорошо понимает состояние сайта в поиске;
  • отслеживает динамику изменений;
  • оперативно замечает, если что-то пошло не так;
  • оперативно реагирует на нештатные ситуации.

Очевидно, такой специалист в состоянии подтянуть в топ страницы, которые уже близки к нему, а также удержать достигнутые позиции. 

Мониторинг и аналитика важны в работе практически с любым аспектом SEO — техничкой, контентом, отслеживанием поведенческих, факторов, линкбилдингом. 

У нас в блоге есть статья с перечнем специализированных сервисов, которые вам в этом помогут — 10 мониторов и радаров для контроля доступности сайта и изменений на страницах

Аудит сайта в Ahrefs Webmaster

Игра по правилам вместо погони за хайпом

Все описанные выше вещи относятся к практикам белого SEO (White Hat SEO). Эти рекомендации не нарушают правила поисковых систем, обладают накопительным эффектом, позволяют без опасений встречать любое из очередных обновлений Google и Яндекс. 

Есть три веские причины избегать серых и черных техник SEO, особенно в продвижении коммерческих проектов:

  • риски попадания под санкции поисковых систем постоянно возрастают;
  • это дешевле только в краткосрочной перспективе (и то не всегда);
  • попытки обойти алгоритмы поиска все больше усложняются — в любой момент можно допустить небрежность и сразу поймать последствия. 

Единственный «минус» белых практик поискового продвижения — более высокие затраты времени и бюджета. Но, как мне кажется, если говорить о сайте для бизнеса, снижение рисков компенсирует этот «недостаток».

Тем, кто нацелен на игру вдолгую, рекомендую SEO на все времена — белое SEO. Стратегически — это более выигрышная модель, нежели суетливые попытки обвести алгоритмы вокруг пальца.

Надеюсь, статья была для вас полезной. Если есть вопросы — пишите в комментариях!

+1
Загрузка...
рейтинг
+1
Загрузка...
рейтинг