Алексей Ворончихин

Аудит контента сайта и как его проводить

Аудит контента сайта и как его проводить

Поисковый трафик был и остается самым дешевым источником привлечения клиентов на сайт. В то же время, развитие поисковых систем и растущая конкуренция в любом сегменте рынка приводит к тому, что даже раскрученный и оптимизированный сайт со временем начинает терять трафик. Поэтому постоянно требуется мониторить и анализировать посещаемость сайта с разделением на источники трафика.

В случае, когда вы замечаете системную потерю трафика, которую нельзя объяснить:

  • сезонным спадом спроса;
  • сменой доменного имени;
  • редизайном сайта;
  • сменой структуры сайта;
  • массовой закупкой некачественных ссылок;
  • публикацией ворованного контента.

Cкорее всего проблема заключается в плохом качестве контента.

Поисковые системы довольно часто занимаются переоценкой качества ресурсов в связи с введением новых алгоритмов, поэтому даже стабильно находящиеся в ТОПе выдачи ресурсы могут начать терять позиции.

В этом случае рекомендуется провести аудит содержимого сайта, причем, мера эта необходима как для молодых ресурсов, так и для давно работающих, на которых наметилась тенденция спада трафика с поисковых систем. При заказе любой услуги продвижения ваших сайтов специалистами digital-агентства «Экзитерра» обязательно проводится аудит качества сайта до начала работ и определения оптимального тарифного плана раскрутки ресурса.

Как часто нужно проводить аудит контента сайта?

К сожалению, аудит контента сайта — это не разовая процедура, особенно для крупных ресурсов, которые постоянно наполняются новыми материалами. Эти работы можно отнести к регламентным, которые требуется выполнять:

  • Через определенный период, например, через 3 месяца для активно наполняемых проектов и раз в полгода-год для сайтов, которые публикуют или обновляют материалы нечасто.
  • Когда обнаруживается просадка трафика без явной причины.
  • В случае запуска новых поисковых алгоритмов.
  • Когда вам требуется увеличить эффективность работы ресурса.

То есть, как бы хорошо не был оптимизирован контент при запуске сайта, ресурс может потерять из-за него свой авторитет по разным причинам.

Чек-лист для самостоятельного проведении аудита контента сайта

Когда seo-специалисты выполняют аудит контента сайта клиента, проверяется достаточно много критериев, несоответствие которым рано или поздно может привести к потере трафика и позиций ресурса. Давайте посмотрим на общий чек-лист работ, которые требуется провести:

  • проверить коды ответа сервера, правильность настройки редиректа и скорость загрузки страниц;
  • проверить наличие «битых ссылок»;
  • исключить дублирование страниц;
  • проверить наличие заполненных мета-тегов страниц, их релевантность и уникальность;
  • корректно настроить файл robots.txt;
  • проверить наличие карты сайта Sitemap;
  • проанализировать качество адаптивного дизайна;
  • исправить орфографические ошибки;
  • проверить уникальность текстового содержимого;
  • проверить выпавшие из индекса страницы;
  • установить и исправить страницы, помеченные как некачественные;
  • оценить трафик на страницы;
  • проработать коммерческие страницы;
  • структурировать блог и сделать правильную перелинковку с информационных статей на коммерческие страницы.

Это лишь ключевые этапы работ, о которых подробнее поговорим ниже, а сейчас несколько слов о том, какие инструменты нам понадобятся для работы и ее автоматизации.

Какими инструментами пользоваться при проведении аудита контента

Для аудита качества контента сайта используется достаточно много платных и бесплатных сервисов и программ. Мы остановимся на основных, без которых просто не обойтись. Итак, при выполнении проверки качества содержимого рекомендуем воспользоваться:

  • Инструментами аналитики кабинетов вебмастера в поисковых системах Яндекс и Гугл Яндекс.Вебмастер и Search Console от Google соответственно. Они предоставят вам достаточно много информации, по которой можно оценить качество страниц, наличие дублей, битые ссылки, удобство просмотра на мобильных устройствах, проверить наличие страницы в индексе, подключить, посмотреть и проверить карту сайта и файл robots.txt, наличие санкций от ПС по отношению к сайту.
  • Парсеры контента, которые скачивают содержимое вашего сайта со всеми мета-тегами и позволяют быстро определить дубли в описаниях, а также пустые элементы. Для выполнения парсинга и последующего анализа сайта можно порекомендовать бесплатные инструменты Majento SiteAnalayzer, WildShark SEO Spider и Xenu. Из платных парсеров можно выбирать среди Screaming Frog, Netpeak Spider, ComparseR.
  • Для проверки скорости загрузки страниц можно использовать сервисы: PageSpeed Insights, WebPageTest и Pingdom Website Speed Test, Sitespeed;
  • Проверить уникальность контента можно различными сервисами и программами как постранично, так и обработать сайт целиком. Среди авторитетных сервисов можно выделить, например, антиплагиаты ЕТХТ или Адвего и онлайн сервис Content-Watch.
  • Для проверки орфографии в пакетном режиме можно использовать сервис spell-checker.ru.

Это далеко не полный список инструментов, которые можно использовать при проведении аудита. Поэтому, если вы не имеете опыта работы с ними, а сайт начал терять трафик и прибыль, нужно найти и устранить проблему быстрее, например, обратившись в нашу компанию.

Обнаружение и устранение проблем с контентом при проведении аудита

Все ошибки и недоработки можно условно разделить на две большие категории:

  • Технические ошибки верстки, разметки, настройки.
  • Проблемы с содержимым, куда относится качество контента, как объективное, которое можно оценить с помощью сервисов, так и субъективное, заключающееся в его логичности, стиле изложения, полезности для посетителя.

Приведем небольшие пояснения к работе с каждым критерием, который стоит проверять при аудите.

Коды ответов сервера, правильность настройки редиректа

Здесь следует проверить корректность ответов сервера при доступности страницы (200), при переадресации (301) и при отсутствии страницы на сайте (404). При этом, обработку 404 кода ошибки следует организовать в виде страницы, где предлагается перейти в существующие разделы сайта, то есть, ее нужно оформить так, чтобы пользователь не покинул ресурс. При изменении адреса страницы обязательно следует настроить 301 редирект. Также следует явно указать главное зеркало сайта при вариантах использования имени с www и без него.

Битые ссылки

Наличия ссылок на несуществующие страницы сайта или другие ресурсы следует избегать. Ситуация может возникнуть, когда материал, например, удаляется. В этом случае по этому адресу нужно либо опубликовать новую статью, либо удалить ссылку из контента или навигации.

Для обнаружения таких ссылок можно использовать Яндекс.Вебмастер или, например, специализированные плагины и модули системы управления контентом, а также можно использовать те же инструменты (парсеры), о которых говорили выше.

Скорость загрузки страниц сайта

Для оценки этого параметра можно использовать сервисы WebPageTest и Pingdom Website Speed Test, PageSpeed Insights. Для поисковых систем наиболее критичным параметром является время до получения первого байта, которое не должно превышать 300 мс. Если оно больше, нужно проводить техническую оптимизацию сайта или менять хостинг-провайдера.

Дублируемые страницы

Определить их наличие можно сервисами Яндекс.Вебмастер и Search Console, а также используя парсеры (бесплатные инструменты — Majento SiteAnalayzer, WildShark SEO Spider и Xenu. Платные — Screaming Frog, Netpeak Spider, ComparseR). Как правило, ситуация возникает при отображении одного материала в разных категориях с разными url. Следует исключать такую возможность использованием явной пометки канонической страницы. В противном случае поисковая система может проиндексировать не главную статью, а остальные пометить как дубль и исключить из выдачи.

Настройка файлов robots.txt и Sitemap

Нужно оптимизировать файл robots.txt в соответствии с рекомендациями, как поисковых систем, так и используемой вами системы управления контентом. Здесь нужно закрыть от индексации дублирующиеся разделы, директорию админ-панели CMS, версии для печати.

Также нужно проверить на корректность robots.txt в инструментах вебмастера двух поисковых системах: анализ robots.txt в Яндекс.Вебмастер и инструмент проверки файла robots.txt в Search Console.

Наличие автоматически обновляемого файла sitemap.xml позволяет поисковым системам быстрее и полнее индексировать ваш контент, поэтому его наличие и валидность также обязательны. Проверить sitemap.xml в Яндекс.Вебмастер — инструмент Анализ файлов Sitemap, в Search Console — раздел «Сканирование» файлы sitemap.

Мета-теги и их уникальность

Легко проверяется после экспорта сайта парсером и сортировки по тегам. Здесь нужно следить, чтобы у каждой страницы на сайте все метаданные были заполнены и уникальны.

Адаптивный дизайн

Выявить проблемы с отображением сайта на мобильных устройствах поможет Mobile-Friendly Test Tool. Если эту проблему не исправить, следует ожидать снижения трафика из мобильного поиска.

Орфография и уникальность контента

По отсутствию ошибок и уникальности материала поисковые системы получают первое впечатление о его качестве. Для вновь размещаемых материалов желательно добиваться уровня уникальности выше 80-85% в зависимости от тематики и типа страницы (подробнее про уникальность контента мы писали в одной из прошлых статей). С орфографией все очевидно, ошибок допускать не следует.

Анализ непроиндексированных и некачественных страниц

Определить, какие страницы сайта Гугл и Яндекс исключили из выдачи можно в инструментах вебмастера этих поисковых систем. К сожалению, там нет указания конкретных ошибок, объясняющих, почему страница выпала из индекса, поэтому их придется устанавливать и исправлять самостоятельно.

Обычно так происходит, если на странице мало содержимого, оно неуникально или дублируется с другими страницами ресурса.

Проработка коммерческих страниц

Здесь следует обратить внимание не только на соответствие описаний товаров или услуг техническим критериям качества. Контент таких страниц должен быть написан так, чтобы мотивировать читателя если не к сиюминутной покупке, то хотя бы к прочтению описания до конца и возврата на сайт, когда возникнет потребность купить. К тому же, это помогает улучшить поведенческие факторы ресурса.

Если на сайте есть блог, желательно передавать часть ссылочного веса на коммерческие страницы с информационного наполнения блога, а не наоборот.

Как видим, аудит контента сайта — объемная и непростая задача для человека, который не имеет в этой сфере опыта и определенных знаний. Впрочем, этому можно научиться, если есть достаточно свободного времени и желание освоить технологию. Если времени нет, а проект уже теряет трафик, гораздо разумнее обратиться к профессионалам, например, в нашу компанию «Экзитерра». Мы оперативно проведем аудит контента и предоставим подробные рекомендации по исправлению ситуации либо предложим другой вариант выгодного сотрудничества.

SEO-оптимизация сайта – на 20% дешевле!

Ваш сайт должен быть выше конкурентов. Особенно в кризис. Закажите в «Экзитерра» SEO зa рубли со скидкой 20%. Мы найдём для вас клиентов, невзирая на кризис!

Лучшие статьи

Вакансии: редактор‑копирайтер, программист
Отправить резюме
КНИГИ EXITERRA
Последние статьи
Статьи по теме
Связанные темы