Падение позиций сайта в поисковиках: в чём причины?

Специалисты по продвижению и раскрутке сайтов прилагают немало усилий для того, чтобы интернет-ресурсы были выведены в топ выдачи основных поисковых систем. Работа ведётся в разных направлениях, при правильном комплексном подходе позиции веб-продукта неуклонно растут. И тут вдруг вы замечаете, что сайт потерял очки. В чём причина? Вероятно, была допущена одна из 9 фатальных ошибок SEO. Рассмотрим каждую из них предметно.

Жесткие фильтры и неумолимые санкции

Вы можете даже не подозревать, что ваш сайт попал под санкции поисковых систем. Чтобы своевременно выявить такую проблему, необходимо регулярно (хотя бы один раз в неделю), заходить в специальные сервисы Яндекс и Google, чтобы узнать, не были ли применены санкции в отношении вашего сайта. Как показывает практика, в большинстве случаев владельцы даже не подозревают, что поисковику что-либо не понравилось. Если санкции наложены, то вы увидите такое сообщение:

В нём будет написано, по какой именно причине позиции снижены. Пока проблемы устранены не будут, в продвижении интернет-ресурса нет никакого смысла. Нужно исправить все те моменты, которые не понравились поисковику, сообщить об этом и дождаться снятия санкций.

Слово о словах

Уже ни для кого не является секретом тот факт, что продвижение сайта требует наличия на ресурсе качественного контента. Если тексты будут неуникальными, малоинтересными и не отвечающими тематике, то поисковые системы быстро это обнаружат, а ресурс потеряет позиции в выдаче. Избежать этого можно путём сотрудничества с профессиональным копирайтером, который подготовит для сайта качественные уникальные тексты.

Внимание к тегам

Ключевые слова практически всегда находятся в центре внимания при поисковом продвижении сайта. Тут важна золотая середина. Если не прописать ключи в тегах Title, Description, а также в заголовках Н1-Н3, то ждать высоких позиций сайта в поисковых системах не стоит.

В то же время нужно не допустить переспам, когда плотность слов будет слишком большой.

Вводя ключевые слова в теги и заголовки разных уровней, важно сохранить информативность предоставляемых сведений и помнить, что посетитель даже от этих составляющих сайта должен получать пользу для себя.

Перемещение на https

Январь 2017 года ознаменовался тем, что Google начал ставить специальные пометки на всех http-сайтах, которые содержат любые формы или модули, используемые для передачи персональных данных пользователей. Они обозначены как небезопасные.

Отметим, что это также оказывает влияние на позицию сайта в поисковой выдаче, поэтому стоит как можно быстрее перейти на протокол https. Однако делать это нужно правильно. В частности, распространённой ошибкой является настройка редиректа 301 со старой версии на новую. Этого мало, ведь нужно ещё помнить о файле robots.txt, директиве Host и т. д. Если этого не сделать, то старый сайт на http просто выпадает из индекса, а новый не пройдёт индексирование. Позиции снижаются очень быстро. При необходимости специалисты нашей веб-студии помогут вам правильно переместить сайт с http на https.

Подробнее о файле robots.txt

Этот файл размещается на сайте и предназначен специально для поисковых роботов. В нём заложены все параметры, по которым нужно проводить индексирование. В некоторых случаях такого файла на интернет-ресурсе просто нет, что негативно сказывается на продвижении сайта. Он вроде бы открыт для индексации, но она протекает вяло. Всего несколько действий − и ситуация кардинально изменится.

В чём изменения? Закрывается от индексации административная панель интернет-ресурса, а также различные служебные и поисковые страницы, корзина. Указание адреса карты, настройка директивы Host − и ситуация меняется к лучшему.

Ещё одна достаточно распространённая и катастрофическая ошибка − закрытие сайта от индексации. Ответственность за это несут директивы Disallow и Allow, разрешающие или запрещающие индексацию разделов. Так что при создании файла robots.txt важно не допустить ошибки, заполнить его корректно.

Дублирование страниц

Распространённая проблема − наличие на сайте похожих или одинаковых по наполнению страниц, имеющих разные URL.

Поисковые роботы придерживаются жёсткой позиции в вопросах уникальности контента, поэтому в случае обнаружения полных или частичных дублей понизят позиции вашего сайта в поисковой выдаче. Существуют способы проверки наличия/отсутствия схожих страниц с разными URL, о которых мы уже рассказывали в предыдущих статьях. Ими стоит пользоваться.

Зеркала сайта

Если сайты полностью дублируют друг друга, то они могут быть отнесены к категории ресурсов-зеркал. Их можно склеить, воспользовавшись 301 редиректом. Это позволит избежать растекания веса внешних ссылок и улучшит позицию сайта. Проверьте, чтобы сайт не открывался по разным (мало отличающимся между собой) адресам.

Версия для мобильных устройств

Тенденция последних лет − опережение компьютерного трафика мобильным. В силу этого возникает необходимость в обязательном проведении адаптивной вёрстки, благодаря которой сайт будет хорошо отображаться на мобильных устройствах. Адаптивность оказывает непосредственное влияние на ранжирование, поэтому мобильная версия − must-have 2017 года. Кроме того, как показывают данные статистики, отсутствие мобильной версии сайта приводит к тому, что вы ежедневно теряете примерно половину потенциальных клиентов.

Скорость загрузки интернет-ресурса

Поисковые роботы уделяют внимание этому показателю. Пользователям не нравятся медленные сайты, они отдают предпочтение быстрым ресурсам. Рекомендуем своевременно проверять показатели скорости работы своего веб-продукта. Для этого специально разработан инструмент Google PageSpeed Insights. Если будет показан зелёный цвет, то всё отлично, жёлтый − в пределах нормы, но можно оптимизировать, красный − нужно срочно наращивать скорость. Наши специалисты готовы помочь вам в вопросах успешного продвижения сайта и предупредить его проседание в поисковых системах.

Источник: lred.ru

Добавить комментарий