Блог о заработке в интернете, AI-инструментах, создании сайтов. оптимизации и современных способах продвижения в интернете!

Технический аудит сайта самостоятельно: Чек-лист поиска ошибок


Представьте, что вы построили великолепный особняк с дорогой мебелью, но забыли проверить фундамент. При первом же ливне дом покосился.

В SEO контент — это мебель, а техничка — это тот самый фундамент. Если у вас "дырявый" код, медленная загрузка или закрытая от роботов индексация, даже самые гениальные статьи не попадут в ТОП.

Самостоятельная диагностика поможет вам найти критические баги без привлечения дорогих агентств. В этом руководстве мы пройдем путь от установки софта до проверки глубинных настроек сервера.

  • Фундамент SEO: Без технического аудита даже качественный контент не попадет в ТОП выдачи.
  • Инструментарий: Для проверки необходимы Screaming Frog, Google Search Console и плагины для браузера.
  • Критические ошибки: Блокировка в robots.txt, отсутствие sitemap, дубли страниц и битые ссылки (404).
  • Тренды 2025: Скорость загрузки (Core Web Vitals) и Mobile-First Indexing — главные приоритеты.

Подготовка инструментария

Нельзя делать SEO-анализ на глаз. Нам понадобятся инструменты, которые видят сайт так же, как робот Google или Яндекс.

Джентльменский набор

Для полноценного аудита вам потребуются три главных компонента:

1. Screaming Frog SEO Spider (или аналог Netpeak Spider).

  • Зачем: Это краулер (парсер), который сканирует все ссылки, картинки и скрипты.
  • Нюанс: Бесплатная версия сканирует до 500 URL. Для небольшого блога этого достаточно. Если сайт крупный — придется купить лицензию или искать "народную" версию.

2. Google Search Console (GSC) и Яндекс.Вебмастер.

  • Зачем: Первоисточник данных. Показывает, как поисковики уже видят ваш сайт.

3. Плагины для браузера.

  • Рекомендация: SEO META in 1 CLICK или RDS Bar. Помогают быстро глянуть заголовки и метатеги на конкретной странице.

Совет: Перед запуском краулера в настройках выберите User-Agent "Googlebot Smartphone". Сейчас поисковики приоритетно оценивают именно мобильную версию сайта (Mobile-First Indexing).

Индексация и доступность (Фундамент)

Первый вопрос аудита: "Видят ли поисковики мой сайт вообще?". Если здесь ошибка — всё остальное не имеет смысла.

Файл Robots.txt: Фейсконтроль на входе

Файл robots.txt лежит в корне сайта (ваш-сайт.com/robots.txt). Это инструкция для роботов: куда ходить можно, а куда нельзя.

Что ищем:

  • Блокировка всего сайта. Самая страшная и глупая ошибка.
    Плохо: Disallow: / (Слэш означает "всё").
    Хорошо: Disallow: (Пустое поле — разрешено всё, кроме перечисленного ниже).
  • Закрытые скрипты. Не блокируйте доступ к файлам CSS и JS (.css, .js). Робот должен видеть верстку, чтобы оценить мобильную адаптацию.
  • Разные директивы. Убедитесь, что для Googlebot и Yandex прописаны корректные правила, если они отличаются.
Настройка файла Robots.txt для индексации

Карта сайта Sitemap.xml: Навигатор для паука

Файл sitemap.xml помогает краулеру быстрее находить новые статьи. Ссылка на него обычно указывается в конце Robots.txt.

Чек-лист проверки:

  • Доступность: Файл должен открываться и иметь статус код 200 OK.
  • Чистота: В карте должны быть только страницы, которые мы хотим продвигать.
    ❌ Нет: страниц с редиректами (301, 302).
    ❌ Нет: битых ссылок (404).
    ❌ Нет: закрытых от индексации страниц (Noindex).
  • Актуальность: Если вы удалили статью, она должна исчезнуть из Sitemap автоматически.

Зеркала сайта и протокол HTTPS

Для пользователя site.com, www.site.com, http://site.com и https://site.com — это один и тот же сайт. Для поисковика — это 4 разных сайта. Это называется "зеркала".

  • Как должно быть: Должно остаться только одно главное зеркало (обычно https://site.com). Все остальные должны автоматически перенаправлять на него 301-м редиректом.
  • Как проверить: Вбейте в браузер адрес с http:// и с www. Если вас автоматически не перебросило на безопасную версию без www — это грубая ошибка, размывающая ссылочный вес.

На этом этапе мы убедились, что ворота открыты, карта выдана, а адрес дома (домена) един для всех. Теперь можно заходить внутрь и смотреть комнаты (страницы).

Коды ответов сервера и URL

После того как мы открыли двери для роботов, нужно проверить внутренние коммуникации. Представьте, что вы посылаете клиента в кабинет №404, а такого кабинета не существует. Или отправляете его в кабинет №301, а оттуда его шлют в №302.

Клиент устанет и уйдет. В вебе происходит то же самое.

Мы будем искать баги, которые убивают поведенческие факторы и тратят краулинговый бюджет.

Охота на 404 (Битые ссылки)

Ошибка 404 (Not Found) возникает, когда страница была удалена или ссылка на нее ведет «в никуда».

Почему это критично:

  • Слив веса: Ссылка передает вес (PageRank) на несуществующую страницу. Вес просто исчезает.
  • Потеря пользователя: Посетитель кликает, видит ошибку, закрывает вкладку.
  • Бюджет краулера: Робот тратит время на сканирование мусора вместо полезных статей.

Как найти и исправить: Запускаем Screaming Frog. После сканирования идем во вкладку Response Codes -> фильтр Client Error (4xx).

  • Если это внешняя ссылка (вы ссылаетесь на удаленный сайт) — удалите или замените её.
  • Если это внутренняя ссылка — исправьте её в тексте или поставьте 301 редирект на актуальную страницу.
Ошибка 404 битые ссылки и их исправление

Редиректы и цепочки перенаправлений

Редирект — это переадресация пользователя с одного адреса на другой. Но не все редиректы одинаково полезны.

Битва: 301 vs 302

Частая ошибка новичков — путать эти два кода.

Тип Значение Что думает Google/Яндекс Когда использовать
301 Moved Permanently "Страница переехала навсегда. Передаю вес на новый адрес". При смене URL, склейке зеркал, удалении старых статей.
302 Found / Temporary "Страница переехала временно. Вес оставляю на старом адресе". Технические работы, временные акции. В SEO почти не нужен.

Чек-лист: Проверьте в краулере вкладку Response Codes -> Redirection (3xx). Убедитесь, что все ваши постоянные переезды имеют код 301.

Цепочки редиректов (Redirect Chains) 

Это ситуация, когда Страница А ссылается на Б, Б ссылается на В, а В — на Г.

  • Проблема: Каждый шаг — это задержка загрузки. После 3-4 переходов робот может просто перестать идти дальше.
  • Решение: Ссылка должна вести сразу на конечную цель. Исправьте ссылку на Странице А, чтобы она вела сразу на Г.

ЧПУ и структура ссылок

URL-адрес — это тоже часть контента. Поисковики читают его, чтобы понять тему страницы.

Правила идеального URL:

site.com/?p=123 (Ничего не понятно)
site.com/technical-audit-checklist (Понятно и людям, и роботам)
  • Транслитерация: Используйте латиницу. Кириллические URL при копировании превращаются в нечитаемый набор символов (%D0%AF%D0%BA...), что выглядит непрофессионально.
  • Разделители: Используйте дефис (-), а не нижнее подчеркивание (_). Google воспринимает дефис как пробел, а подчеркивание — как соединитель букв.
  • Вложенность: Чем короче URL, тем лучше. Избегайте лишних папок типа /category/2025/blog/seo/article. Лучше: /blog/article.

Совет: Никогда не меняйте URL старых трафиковых страниц без крайней необходимости. Если меняете — обязательно ставьте 301 редирект со старого адреса на новый, иначе потеряете позиции.

Дубли и On-Page оптимизация

Мы добрались до самой коварной части аудита. Для поискового робота уникальность контента — это святое. Но CMS (движки сайтов) часто генерируют сотни технических клонов ваших страниц, размывая их релевантность.

Если у вас на сайте 5 страниц с одинаковым контентом, Google не знает, какую из них ранжировать, и часто выкидывает из поиска все.

Полные и частичные дубли страниц

Дубли бывают явные и скрытые. Наша задача — найти их и уничтожить (или правильно пометить).

Проблема слеша (Trailing Slash)

Для браузера эти адреса одинаковы, а для сервера — нет:

  • site.com/catalog
  • site.com/catalog/ (со слешем на конце)

Если сайт открывается по обоим адресам — это полный дубль.

Решение: Выберите один стандарт (обычно со слешем) и настройте постраничный 301 редирект с версии "без слеша" на версию "со слешем".

Параметры и фильтры

Частая беда интернет-магазинов. Сортировка товара меняет URL, но не контент:

  • site.com/shoes (Основная)
  • site.com/shoes?sort=price_asc (Дубль контента)
  • site.com/shoes?source=instagram (Дубль контента)

Дубли страниц и настройка Canonical

Магия Canonical: Борьба с параметрами

Чтобы не удалять страницы фильтров (они ведь нужны пользователям), мы используем тег Canonical.

Это строчка кода в блоке <head>, которая говорит роботу: "Я — копия. Мой оригинал находится вот здесь".

Как это выглядит в коде: На странице-дубле (?sort=price) должен стоять код:

  • <link rel="canonical" href="https://site.com/shoes/" />

Чек-лист проверки:

  • У каждой страницы должен быть указан Canonical.
  • На уникальной странице Canonical должен ссылаться сам на себя (Self-referencing). Это защита от случайного создания дублей внешними ссылками (например, с метками ?utm_source=...).
  • Проверьте в Screaming Frog вкладку Canonicals -> Missing. Пустот быть не должно.

Пустые или дублирующиеся Title и Description

Метатеги — это ваше лицо в поисковой выдаче (сниппет).

Title (Заголовок окна браузера)

Самый сильный фактор ранжирования на странице.

  • Ошибка: "Главная", "Контакты", "Страница 1".
  • Ошибка: Одинаковый Title на 50 товарах ("Купить кроссовки").

Правило: Уникальный Title для КАЖДОГО URL. Длина: 50–70 знаков. Ключевое слово — ближе к началу.

Description (Описание)

Влияет на кликабельность (CTR).

  • Ошибка: Отсутствует или скопирован из текста статьи.
  • Ошибка: Дублируется на всех страницах пагинации.

Правило: Краткое резюме страницы с призывом к действию ("Заходите!", "Узнайте..."). Длина: 130–160 знаков.

Как найти: В Screaming Frog вкладки Page Titles и Meta Description. Фильтр Duplicate покажет, где вы поленились написать уникальный текст.

Иерархия заголовков H1-H6

Поисковики читают структуру текста, как оглавление книги. Если оглавление перепутано, робот считает контент неструктурированным мусором.

Железные правила иерархии:

  • H1 — Император. Должен быть СТРОГО один на странице. Он дублирует суть Title, но другими словами.
    Баг: Логотип сайта обернут в H1 (получается H1 на каждой странице одинаковый).
    Баг: Два H1 в статье.
  • Порядок имеет значение. После H2 должен идти H3, а не H4. Не перепрыгивайте через ступеньки.
  • Ключевики. Используйте LSI-слова в подзаголовках (H2-H3), это расширяет семантику.

На этом этапе мы причесали контент и убрали клонов. Остался последний рывок — скорость, мобильность и техническая эстетика.

Правильная структура заголовков H1 H2 H3

Скорость, Mobile и Микроразметка

Мы на финишной прямой. Ваш сайт уже доступен для роботов, не имеет битых ссылок и дублей. Теперь нужно сделать так, чтобы он "летал" и красиво выглядел в выдаче.

В 2025 году скорость — это не просто удобство, это официальный фактор ранжирования (Core Web Vitals). Медленные сайты пессимизируются алгоритмами.

Core Web Vitals: Зеленые зоны

Google оценивает не абстрактную "скорость", а конкретные метрики пользовательского опыта. Проверяем их через PageSpeed Insights.

Три кита производительности:

  • LCP (Largest Contentful Paint): Скорость загрузки самого большого элемента (обычно баннера или заголовка).
    Норма: до 2.5 сек.
    Лечение: Сжимайте картинки (WebP вместо PNG), используйте кэширование браузера.
  • CLS (Cumulative Layout Shift): Визуальная стабильность. Прыгает ли текст, когда подгружается реклама?
    Норма: до 0.1.
    Лечение: Задавайте жесткие размеры (width/height) для картинок и рекламных блоков в CSS.
  • INP (Interaction to Next Paint): Отзывчивость. Как быстро сайт реагирует на клик.
    Лечение: Оптимизация тяжелых JS-скриптов, которые "вешают" браузер.
Проверка скорости сайта Core Web Vitals

Ошибки мобильной адаптации

Google использует Mobile-First Indexing. Это значит, что он оценивает ваш сайт, глядя на него со смартфона. Если десктоп идеален, а мобильная версия "кривая" — вы не попадете в ТОП.

Типичные ошибки (смотрим в GSC в разделе "Удобство для мобильных"):

  • Контент шире экрана: Появляется горизонтальная прокрутка. Пользователь ненавидит это.
  • Интерактивные элементы слишком близко: Палец пытается нажать на меню, а попадает на рекламу.
  • Мелкий шрифт: Текст должен быть читаем без зума (минимум 14-16px).

Валидация микроразметки (Schema.org)

Микроразметка — это "перевод" вашего контента на язык роботов. Она помогает получить расширенные сниппеты (звездочки рейтинга, цена товара, фото рецепта прямо в поиске).

Что разметить обязательно:

  • BreadcrumbList — "хлебные крошки" (навигация).
  • Article или NewsArticle — для статей блога.
  • Product — для карточек товаров (цена, наличие).
  • Organization — контакты и логотип.

Инструмент: Используйте Schema Markup Validator. Ошибки в разметке могут лишить вас красивого сниппета, но не понижают позиции напрямую.

Заключение и Итоговый Чек-лист

Технический аудит — это не разовая акция, а регулярная гигиена. Проводите поверхностную проверку раз в месяц, а глубокую — раз в полгода.

Ваш план действий "на сегодня":

  • Доступ: Проверить robots.txt и отсутствие блокировок.
  • Индексация: Загрузить чистую sitemap.xml в Вебмастера.
  • Зеркала: Настроить 301 редирект на главное зеркало (HTTPS).
  • Ошибки: Найти и исправить все 404 и 5xx ошибки.
  • Дубли: Настроить Canonical и убрать дубли Title/Description.
  • Структура: Проверить иерархию H1-H6.
  • Скорость: Сжать картинки и проверить Core Web Vitals.

Ваш сайт — это живой организм. Лечите его вовремя, и он отплатит вам трафиком и конверсиями. Удачи в топе!

Поверхностную проверку (GSC, доступность) рекомендуется проводить раз в месяц, а полный технический аудит с глубоким сканированием — раз в полгода.
301 редирект говорит, что страница переехала навсегда, и передает ссылочный вес. 302 — это временное перемещение, вес не передается, и старая страница остается в индексе.
Если на вашем сайте меньше 500 страниц, достаточно бесплатной версии. Для крупных проектов потребуется лицензия или альтернативные платные сервисы.
Для Google приоритетна мобильная версия (Mobile-First Indexing). Именно по ней поисковик оценивает качество и релевантность вашего сайта.
Используйте тег Canonical. Он укажет поисковому роботу, какая страница является основной (канонической), а страницы фильтров будут считаться ее копиями без вреда для SEO.

💬 Ваш опыт важен!

А с какими техническими ошибками чаще всего приходилось сталкиваться вам на своих проектах? Поделитесь своим опытом или задайте вопрос по настройке в комментариях!

Напишите, была ли статья полезна — ваша обратная связь помогает мне делать контент лучше!

Поделиться этим материалом в социальных сетях: