8 800 551-30-84

сейчас работаем

меню

Зачем нужен аудит сайта?

Аудит сайта – технический и seo аудит своими силами

Аудит сайта нужен для того, чтобы оценить общую производительность сайта — а также то, как легко Ваш сайт его находят поисковые системы и как легко Ваш сайт могут использовать обычные пользователи. Чем более заметен сайт в поисковых системах, тем лучше его трафик и тем больше людей его увидят. Кроме этого, аудит сайта также измеряет такие показатели, как скорость загрузки страницы и рейтинг удобства взаимодействия с пользователями.

Аудит сайта часто необходимо делать после внесения существенных изменений на сайт. Обновлять свой сайт нужно и важно, но любые изменения могут повлиять на трафик и видимость в поисковых системах. Поэтому с помощью аудита можно убедиться, что все идет гладко и по плану.

Технический и SEO аудит, который проводят специалисты компании Гигабайт, включает в себя огромное количество факторов, но в этой инструкции мы разберем основные и самые главные показатели, которые стоит знать владельцам бизнеса, у которых есть сайт.

Инструкция для технического и seo аудита сайта

Условно характеристики, которые необходимо регулярно отслеживать, можно разделить на 2 важных направления:

  • Индексация ресурса в поисковых системах (технические ошибки).

  • Контентная оптимизация (тексты, мета-теги, изображения и т.д.).

Проверка индексации и поиск технических ошибок на сайте

Первое, с чего стоит начать, это анализ панелей вебмастеров (Яндекс.Вебмастер и Google Search Console). Эти площадки позволяют отслеживать показатели сайта в конкретно взятой поисковой системе (Яндекс и Google), вносить корректировки, влияющие на ранжирование и индексацию сайта.

Важно! Если панели вебмастеров были установлены на сайт в день проверки, то потребуется время, чтобы информация собралась и подгрузилась в отчеты данных систем. Обычно нужно не более 24 часов, чтобы информация подгрузилась.

Что конкретно необходимо смотреть в каждом из указанных сервисов рассмотрим далее на скриншотах, чтобы вам было понятно, как самостоятельно сделать технический и seo аудит.

Яндекс.Вебмастер

Диагностика

В нем не должны быть выявлены проблемы, которые относятся к «Фатальным» и «Критичным». Зачастую они сильно влияют на индексацию, вплоть до исключения страниц из поиска:                  

При обнаружении подобных проблем, необходимо ознакомиться, посмотреть дату, когда возникла проблема и после чего исправить (самостоятельно или с помощью специалистов) выявленные ошибки, согласно данным в разделе рекомендации. После внесения всех правок нажать кнопку «Проверить».

Осторожно! Ничего не исправляйте нажимая кнопку «Проверить», вы только увеличите лимит времени на каждую повторную проверку. Сначала необходимо устранить ошибку(и), а только потом отправлять на повторную проверку.

Кроме «Критичных» и «Фатальных» ошибок в разделе «Диагностика» есть еще вкладки «Возможные проблемы» и «Рекомендации»

Это менее критичные ошибки и рекомендации по добавлению на сайт дополнительных данных (например, отсутствуют быстрые ссылки), которые прямого влияние на индексацию и ранжирование сайта не оказывают, но могут быть полезными для отображения ресурса в выдаче, делая его более привлекательным для поисковых роботов.

Хорошо, если в разделе «Диагностика» вообще нет никаких рекомендаций. Допустимы только уведомления в блоке «Рекомендации», которые, обычно, касаются улучшений

Безопасность и нарушения

Когда Яндекс находит проблемы, связанные с безопасностью сайта для пользователей (спам, «клоакинг» и т.д.), а также в случаях, если поисковая система заподозрила, что сайт имеет следы переоптимизации (текстовый спам, большое число некачественных ссылок и т.д.), в панели Яндекс. Вебмастер могут появиться соответствующие уведомления:

Здесь нужно действовать незамедлительно, потому что эти ошибки критически влияют на продвижение сайта в поисковой системе Яндекса.

Индексирование

Это еще один из важных показателей, изменение которого можно отследить в панели Яндекс.Вебмастер. Данные по числу страниц, находящихся в поиске можно посмотреть во вкладке «Индексирование» – «Страницы в поиске».

В этом отчете главное, на что стоит обращать внимание, это резкое увеличение или уменьшение страниц, попавших в поисковую выдачу, особенно, если на сайте в последнее время не происходило серьезных обновлений страниц. 

  • Резкий рост может быть вызван попаданием в индекс технических дублей, проблем с зеркалами, протоколом сайта и рядом других ошибок.

  • Массовое удаление страниц из поиска может говорить о наличие дублей в поиске, пустых или малоинформативных страниц на сайте и т.д.

Настораживать должно именно массовое появление или удаление страниц без объективных на то причин. Колебания в 3-10 страниц можно считать естественным, ведь с сайтом постоянно ведутся работы, поэтому появление или удаление неактуальных страниц — это естественное положение дел.

Пример естественного колебания страниц в поиске:


Число страниц в индексе (зеленая шкала) не показывает резкого прироста страниц и соответствует планомерному развитию сайта.

Пример проблем с индексацией страниц:

На графике видно, что в начале мая число страниц в индексе резко сократилось, что свидетельствует о наличии серьезных проблем на сайте.

Региональность

Привязка к региону (там, где непосредственно расположена ваша целевая аудитория) сказывается на ранжировании сайта, поэтому важно следить за тем, чтобы в панели Яндекс.Вебмастер сайт был привязан именно к той области, по которой осуществляется продвижение.

Google Search Console

Проблемы безопасности

Как и в Яндекс, в панели GSC есть возможность проверки сайта на «Проблемы безопасности». Очень важно периодически просматривать данный раздел, т.к. при появлении проблем сайт практически моментально теряет свои позиции в выдаче.

Если все нормально, во вкладке выводится следующее:

Если на сайте обнаружены проблемы, появляются сообщения в зависимости от типа ошибки с пояснениями причин и примерами:

В таких ситуациях действовать нужно незамедлительно, т.е. все ошибки такого рода приводят к снижению видимости сайта. И до момента их устранения сайт не будет получать трафик с данной ПС.

Меры, принятые вручную

По аналогии с информацией в Яндекс.Вебмастер о санкциях, Google так же сообщает о выявленных на сайте проблемах. Но тут стоит учитывать важный момент – обычно сообщения выводятся уже в самых крайних случаях, когда нарушения глобальны и затрагивают ранжирование большей части разделов сайта. Если фильтры за переоптимизацию применены к отдельным страницам или запросам (а такое бывает чаще всего), подобного оповещения не будет, но при этом сайт перестанет ранжироваться высоко в поисковой выдаче. Если на сайте все нормально, раздел будет выглядеть следующим образом:

Если есть проблемы, в разделе будет выводиться поясняющая информация как в примере:

Эта вкладка в отчете Google Search Console показывает выявленные при обходе поисковым роботом ошибки, в том числе битые ссылки, страницы, закрытые от индексации, но все равно попавшие в поиск и т.д.

Наиболее важными являются вкладки «Ошибки» и «Предупреждения». При нажатии на данные вкладки выводится динамический график с числом подобных проблем за определенный временной период, что позволяет отследить момент появления проблем и их решения.

Необходимо постоянно отслеживать данные по указанному отчету и оперативно устранять выявленные проблемы. Примеры типовых ошибок можно посмотреть под графиками:

Нажав на соответствующий тип проблемы, вы увидите отдельное окно со списком страниц по данному типу ошибки:

Данные в вебмастерах обновляются с задержкой, поэтому при выявлении проблемы рекомендуется проверить её актуальность на данный момент и, если все устранено, отправить страницы на перепроверку, нажав соответствующую кнопку в верхней правой части страницы над графиком ошибок.

Скорость загрузки страниц

Один из важнейших показателей качества сайта. Он должен быть проработан проработан как для мобильных устройств, так и для ПК. Статус проверки есть все в той же панели Google Search Console во вкладке «Основные интернет-показатели»:

При переходе в отчет можно найти список проблемных страниц и указание показателей, которые рекомендуется проработать:

Основные технические моменты

Наличие файла robots.txt

Файл robots.txt - это инструкция для поисковых роботов. В ней указывается, какие разделы и страницы сайта могут посещать роботы, а какие должны пропускать. В фокусе этой статьи — проверка robots.txt. Мы рассмотрим советы по созданию файла для начинающих веб-разработчиков, а также разберем, как делать анализ robots.txt с помощью стандартных инструментов:

Пример /robots.txt для сайта, открытого для поиска и посетителей

User-agent: *
Disallow: /*?from=
Disallow: /*?limit=
Disallow: /*?start

Sitemap: https://www.site.ru/sitemap.xml

Пример /robots.txt запрещающего попадания сайта в выдачу

User-agent: *
Disallow: /

Также проверить доступность страницы для поиска Яндекс можно по ссылке Анализ robots.txt.

При обнаружении проблем с обходом внутренних страниц необходимо убрать запрещающую директиву из файла robots.txt

Зеркала сайта и дубли страниц

Зеркала – это по сути полный дубль страницы, а любое повторение информации в полном виде поисковые системы расценивают негативно. Важно понимать, что для поисковых систем страницы вида:

Это 4 разных url, и если все 4 типа страниц будут доступны для индексации, то это приведет к проблемам с ранжированием и определением релевантности страниц. И, если мы хотим избавиться от дальнейших проблем с ранжированием и индексированием сайта, для поиска необходимо будет оставлять на всем сайте только один вид url.

Какой именно вид страниц выбрать основным, легче всего определить по суммарному числу проиндексированных в поиске url.

Для этого в поисковую строку необходимо ввести запросы вида:

url:www.site.ru* и url:site.ru* и сверить, каких страниц больше находится в поиске и взять их за основу.

Дубли главной страницы так же негативно влияют на позиции сайта. Необходимо исключить возможность их попадания в поиск любым доступным способом, например, настроив для них 404 отклик, поставив 301 редирект на главную страницу, или запретив их обход в файле robots.txt

Наиболее популярные дубли главной

  • site.ru /Index.php

  • site.ru/Index.html 

Проверить их наличие можно физически добавив указанные вложенности к основному домену.

Контентная оптимизация

Проверка уникальности

Контент, размещенный на нескольких сайтах одновременно, обычно ранжируется гораздо хуже, чем тексты, написанные специально для конкретной страницы. Поэтому необходимо следить, чтобы:

  • Текст на сайте не был одинаковым для всех разделов.

  • Текст не был размещен на сторонних площадках.

Для проверки текстов рекомендуется использовать ряд сервисов, таких как https://text.ru/.

Рекомендованная уникальность – не ниже 90%. При выявлении страниц с низкой уникальностью необходимо переписать текст, добившись высокой уникальности.

Наличие заголовков h1

Тег h1 – один из важных факторов, который помогает поисковым системам определить содержание страницы. По этой причине рекомендуется на всем сайте основные заголовки над текстом размечать в теги h1. Проверить наличие данной разметки можно, просканировав весь сайт специальной программой, например, Netpeak Spider, получив выгрузку и выявив не проработанные по этому направлению страницы:

Тег h1 рекомендуется реализовать на всех страницах сайта только 1 раз, при этом желательно, чтобы при его составлении учитывались наиболее частотные слова, которые должны продвигаться на данной странице.

Мета-теги

У всех страниц должны быть заполнены мета-теги title и description. Определить страницы без мета тегов опять поможет программа Netpeak Spider. Процедура аналогична описанной выше для тега h1: сканируется сайт и страницы определяются:

  • Не имеющие заполненных мета-тегов title и description.

  • Имеющие не уникальное описание в рамках сайта.

  • Имеющие не информативное или не соответствующее описание для конкретной страницы.

После анализа необходимо сделать выгрузку страниц, выбрать проблемные страницы и прописать для каждой из них уникальное и информативное описание, используя наиболее популярные запросы, продвигаемые на данной странице.

Идеальным вариантом будет, если после проведения анализа на всем сайте не будет незаполненных мета-тегов, а также повторяющихся описаний. Проверить мета-теги можно и вручную. Для этого в поисковую строку Яндекс вводим уже известный нам запрос url:www.site.ru* и просматриваем выдачу на предмет «кривых» и не полных описаний.

Важно! Информация в выдаче обновляется постепенно и может отличаться от того, что в данный момент находится на сайте. Вполне может быть, что «кривой» в выдаче title на самом сайте уже заменен корректным. Поэтому после нахождения в выдаче таких страниц, рекомендуется перейти на них и проверить актуальность информации.

Вы всегда можете доверить аудит вашей рекламы специалистам Гигабайт. Мы проанализируем ваши рекламные кампании, определим ее эффективность и дадим подробный отчет.