Проведение SEO-оптимизации − одно из основных условий для выведения сайта в ТОП поисковой выдачи. Начинать её нужно с организации аудита. Он даст возможность выявить допущенные ошибки и найти недочёты, которые негативно сказываются на процессе продвижения. Аудит станет основой, на которой будет строиться план по улучшению сайта.
Безусловно, лучше, если SEO-оптимизацией будут заниматься профессионалы. При этом в некоторых ситуациях приходится заниматься этим вопросом самостоятельно. Если вы решили справляться собственными силами, данная статья станет вашим надёжным помощником.
Анализ общей информации
Чтобы получить представление об индексации сайта, используйте специальные сервисы − Яндекс.Вебмастер и Google Search Console. Из них можно почерпнуть полезную информацию.
Для получения указанных сведений в Яндекс.Вебмастер нужно выполнить такой переход: «Индексирование» → «Структура сайта».
Если общее количество страниц сайта и количество страниц, которые уже были проиндексированы, примерно одинаковое, то всё в порядке. В противном случае необходимо определить причины расхождений в данных (редирект, наличие дублей и т. д.).
Информацию об исключённых страницах можно найти, пройдя по такому маршруту: «Индексирование» → «Страницы сайта» → «Исключенные».
Сервис Google Search Console тоже позволит изучить статистические данные относительно индексации страниц. Вам нужно выполнить такой переход: «Индекс» → «Покрытия». Информация подаётся в следующем виде:
Если сайт до сих пор не добавлен в Яндекс.Вебмастер, можно узнать, происходит ли индексация веб-ресурса в поисковике, сколько страниц уже проиндексировано. Для этого требуется ввести в строку браузера такую комбинацию: «site:домен-сайта.ру». Это даст возможность увидеть перечень страниц, которые уже находятся в поиске.
Обратите внимание на то, какие именно страницы вошли в список, возможно, не все они должны в нём присутствовать (например, тестовых страниц там быть не должно).
Порядок действий с Google такой же.
Если количество страниц в обеих поисковых системах примерно одинаковое, то это нормально. При большой разнице нужно провести анализ и понять причину расхождения показателей.
Чтобы проверить ссылки, вы можете использовать различные сервисы. Удобно и эффективно работать можно с «Мегаиндексом». Он даёт возможность не только посмотреть ссылки, но и проанализировать степень видимости сайта в поисковых системах, изучить конкурентов, получить сведения о контекстной рекламе и т. д.
Особое внимание уделите исходящим ссылкам. Если их будет слишком много, поисковики могут наложить на ваш ресурс санкции. Правильным решением станет закрытие исходящих линков атрибутом rel=»nofollow». Его применение позволит выставить запрет на передачу веса ссылки другому сайту.
Если речь идёт о линках, которые имеют отношение к рекламе, стоит пометить их атрибутом rel=»sponsored».
Проверка с помощью сервиса «Мегаиндекс» осуществляется так: «Ссылки» → «Исходящие ссылки» → «Смотреть все».
В том случае, когда ссылки ведут в ваши группы и сообщества в соцсетях, их можно не закрывать.
Что касается внешних линков, то они играют важную роль в продвижении сайтов. Нужно понимать, что они могут и помочь в этом, и навредить. Анализ входящих ссылок необходимо проводить обязательно (переход: «Ссылки» → «Внешние ссылки»). В первую очередь изучите график ссылок. Он должен характеризоваться равномерностью.
Если на графике будут наблюдаться значительные перепады, то поисковые роботы расценят это как манипуляцию линками.
В зоне вашего внимания также должен оказаться тип ссылок. Посмотрите, каких линков больше − текстовых с ключами или безанкорных. Последние должны превалировать. Также помните о ссылках, идущих с картинок.
Проследите, чтобы ссылочная масса была равномерно распределена между всеми страницами сайта. Естественно, на главной она будет больше, но и остальные не должны оставаться без ссылок.
Очень важно проанализировать сами ссылки, узнать, откуда они ведут. Так вы сможете убрать линки, которые могут не понравиться поисковикам. Проверка выполняется путём клика на число ссылок.
Результаты выдачи по геозависимым запросам во многом зависят от правильности присвоения региона в Яндекс.Вебмастере. Если он ещё не указан или данные не соответствуют действительности, нужно исправить ситуацию. Для этого выполняется переход: «Информация о сайте» → «Региональность».
Для сайтов общей тематики (блоги, онлайн-журналы) присвоение региона не требуется. Если же у вашей организации есть физический или юридический адрес, она занимается продажей товаров или услуг, то региональная привязка нужна обязательно.
Если на вашем сайте есть форма обратной связи, предусмотрена регистрация и авторизация, есть подписка на рассылку или выполняется сбор персональных данных клиентов другими способами, нужно придерживаться определённых законодательных норм. Речь идёт о наличии такого документа, как «Политика конфиденциальности».
В системах Google и Яндекс есть специальные поисково-информационные сервисы − Яндекс.Карты и Google.Maps. С их помощью можно находить разные компании, учреждения, организации. Так выглядит на картографических площадках наш сайт:
Справочники − ещё одна возможность заявить о своей компании. Наиболее популярные ресурсы – Яндекс.Справочник, Google Мой бизнес, 2GIS, Orgpage, «Жёлтые страницы», Flamp, Yell и т. д. Если ваша организация ещё не числится в них, нужно пройти процедуру регистрации.
В процессе проведения аудита нужно обратить внимание на репутацию вашего сайта и компании в сети. Изучите отзывы, другую информацию, используя поисковые системы.
Найти полезную информацию можно на карточках вашей организации в картах и справочниках.
Анализ SEO-характеристик
Проведение такого анализа направлено на получение сведений о специфике SEO-оптимизации (теги, тексты, картинки).
Тег играет важную роль в оценке релевантности сайта запросам пользователей. В поисковой выдаче он представлен в виде текста с ссылкой на вашу площадку.
Description чаще всего становится основой для формирования сниппета − короткого описания вашей компании. Он может побудить пользователей выполнить переход на конкретный сайт.
Провести анализ тегов можно вручную или с помощью специальных сервисов. Так, наиболее эффективными и удобными инструментами являются Comparser, Neatpeak Spider, Screaming SEO Frog. При использовании последней программы информация о тегах будет представлена так:
Если вы решите использовать, например, Comparser, то данные будут выведены в таком виде:
При получении доступа к информации о тегах обращайте внимание на:
Ваше внимание на отсутствие тегов может обратить Вебмастер, дав соответствующую подсказку.
Этот тег утратил своё значение, поисковые роботы не принимают его во внимание при ранжировании страниц. Если же вам хочется использовать Keywords, то количество ключевых запросов должно быть небольшим, чтобы избежать переспама.
Проверить наличие данного тега можно с помощью указанных выше сервисов. В Screaming SEO Frog информация выглядит так:
Правильное оформление заголовков − залог того, что пользователям будет проще ориентироваться на страницах вашего сайта. Они помогают в продвижении, упрощают работу поисковому роботу. При анализе заголовков информация подаётся так:
Важные моменты − наличие заголовков на всех страницах, их размещение по иерархии, присутствие ключевых слов, уникальность, оптимальная длина.
Их наличие позволяет быстро перейти из результатов поисковой выдачи на важную страницу вашего веб-ресурса.
Управление быстрыми ссылками осуществляется с помощью Яндекс.Вебмастера («Информация о сайте» → «Быстрые ссылки»).
Чтобы поисковым роботам было проще понять, что именно изображено на картинке, нужно использовать атрибут alt тега . Рисунки тоже оказывают влияние на позицию сайта, поэтому важно подготовить описания с ключевыми запросами. Они должны быть краткими, релевантными, понятными.
Проверить, есть ли у изображений описания, можно вручную путём наведения в Google Chrome курсора на картинку и клика правой кнопкой. В появившемся списке нужно выбрать строку «Посмотреть код».
Если вы используете Mozilla Firefox, нужно выбрать строку «Информация об изображении».
Быстрее выполнить проверку помогут специальные программы. Так, вы можете использовать тот же Comparser.
Одним из важнейших факторов продвижения является контент. Если тексты будут уникальными, интересными и правильно оптимизированными, то вероятность выведения сайта в ТОП возрастает.
Проверить тексты на предмет уникальности можно с помощью разных сервисов − Advego Plagiatus, Text.ru, Content Watch. Желательно, чтобы показатель составлял около 95%. Изучив результаты проверки, можно провести корректировку текстов при необходимости.
Чтобы оценить пользу текста для пользователей, можно использовать сервис «Главред».
Показатель около 8 баллов − свидетельство хорошего и полезного текста. Учитывайте специфику тематики, поскольку данный сервис не любит необъективных описаний. Если ваш текст является художественным, использовать «Главред» не стоит.
Заключается в проведении проверки текста на предмет переспама, которого быть не должно. Слишком много ключевых слов − плохо. Провести SEO-анализ можно с помощью сервиса Advego.
В зоне вашего внимания должны оказаться семантическое ядро, показатель тошноты. Если он превышает 11%, нужно убрать часть ключевых слов.
Карточки товаров очень важны для пользователей, поэтому их нужно делать привлекательными, правильно проводить оптимизацию. Их анализ можно осуществлять вручную и с помощью специальных сервисов.
Анализ технических характеристик
Эта часть самостоятельной работы над сайтом является наиболее сложной, поскольку требует наличия специальных технических знаний. Что же должно оказаться в зоне вашего внимания?
Браузер Google Chrome помечает HTTP-сайты, передающие личные данные пользователей, как небезопасные, поэтому нужно позаботиться о наличии сертификата SSL. Проверить, существует ли он, просто. Нужно открыть сайт и посмотреть, есть ли там значок закрытого замочка и надпись «Безопасное подключение».
Веб-ресурсы с некорректно составленными сертификатами будут иметь такой вид:
Если шифрование неправильно настроено, то сайт выглядит так:
Проверка настроек осуществляется через www.sslshopper.com/ssl-checker. Если всё сделано правильно, то результат будет следующим:
При неправильной настройке шифрования вы увидите такой результат:
Этот файл является текстовым. Он размещается на сайте и необходим для поисковых роботов. В нём указываются параметры индексирования для всех поисковых систем или для каждой по отдельности.
Проверка robots.txt осуществляется вручную по адресу https://адрессайта.ру/robots.txt. Если файл сформирован корректно, то он будет выглядеть так:
Не забудьте закрыть служебные страницы, которые не должны попадать в результаты поисковой выдачи (админпанель, регистрация, корзина и т. д.).
Для проверки закрытых страниц можно использовать Яндекс.Вебмастер. Для этого нужно выбрать вкладку «Анализ robots.txt», ввести адрес файла, перейти в блок «Разрешены ли URL?» и указать адреса страниц, которые вы хотите скрыть.
При правильной подготовке карты сайта робот сможет быстрее провести индексацию. Файл sitemap.xml даёт возможность сообщить поисковым системам о том, какие страницы нужно проверить в первую очередь, как часто происходит обновление сведений на онлайн-площадке.
Для проверки карты сайта нужно указать «адрес-сайта/sitemap.xml».
Обращайте внимание на наличие карты сайта в принципе, а также проверяйте количество страниц, правильность протокола и т. д.
Также для проверки можно использовать Яндекс.Вебмастер. Перейдите в раздел «Анализ файлов sitemap.xml», выберите файл, текст или URL, изучите полученную оценку.
Зеркала − это сайты, которые являются копиями друг друга, но доступны по разным адресам. Нужно выбрать основную площадку, а на остальных настроить редирект 301. Этот процесс называют склейкой зеркал. Его неправильное проведение может негативно сказаться на продвижении сайта.
Проверка склейки зеркал выполняется с помощью Яндекс.Вебмастера. Для этого нужно попасть в раздел «Проверка ответа сервера» и ввести поочередно все варианты адресов. Главное зеркало должно иметь статус 200 ОК.
С остальных зеркал должен идти редирект 301 (ведёт на главное зеркало).
Этот показатель также влияет на продвижение. Если сайт загружается медленно, пользователи просто покидают его, а поисковые роботы понижают его позицию в выдаче. Проанализировать нужно все страницы, а не только главную. Для этого можно использовать сервис PageSpeed Insights.
Зелёная зона − всё хорошо, жёлтая − требуются доработки, красная − нужно принимать меры по увеличению скорости загрузки.
С каждым годом число пользователей, которые ищут информацию в интернете с помощью мобильных устройств, растёт. Если ваш сайт не будет оптимизирован под них, то большой объём трафика будет потерян. Проверить свой веб-ресурс можно с помощью Яндекс.Мастера или специального инструмента Google.
Если HTML-код прописан некорректно, это негативно скажется на продвижении. Для проверки его валидности можно использовать Markup Validation Service.
Наличие битых ссылок плохо влияет на поведенческие факторы. Их нужно найти и удалить. Для этих целей можно использовать https://www.brokenlinkcheck.com/broken-links.php#status.
Наличие дублированных страниц негативно сказывается на позиции ресурса в поисковой выдаче. Найти повторяющийся или очень похожий контент поможет программа NetpeakSpider.
Речь идёт о таком понятии, как «человекопонятный URL». Адреса ссылок должны быть простыми, отражать суть содержимого страницы. Благодаря этому и пользователям, и роботам будет проще ориентироваться на сайте. Изучить адреса можно вручную или с помощью программ (Comparser. Advego SEO, Screaming Seo Frog и т. д.). ЧПУ должны быть составлены с помощью латиницы, легко читаться, включать в себя основные запросы. Также стоит обращать внимание на длину: она не должна быть слишком большой.
Проведение SEO-аудита − сложная задача. Если вы не готовы изучать все особенности сайта и тратить время на анализ показателей, доверьте решение этих задач специалистам нашей веб-студии.
Источник: