Представьте, что вы построили великолепный особняк с дорогой мебелью, но забыли проверить фундамент. При первом же ливне дом покосился.
В SEO контент — это мебель, а техничка — это тот самый фундамент. Если у вас "дырявый" код, медленная загрузка или закрытая от роботов индексация, даже самые гениальные статьи не попадут в ТОП.
Самостоятельная диагностика поможет вам найти критические баги без привлечения дорогих агентств. В этом руководстве мы пройдем путь от установки софта до проверки глубинных настроек сервера.
- Фундамент SEO: Без технического аудита даже качественный контент не попадет в ТОП выдачи.
- Инструментарий: Для проверки необходимы Screaming Frog, Google Search Console и плагины для браузера.
- Критические ошибки: Блокировка в robots.txt, отсутствие sitemap, дубли страниц и битые ссылки (404).
- Тренды 2025: Скорость загрузки (Core Web Vitals) и Mobile-First Indexing — главные приоритеты.
Подготовка инструментария
Нельзя делать SEO-анализ на глаз. Нам понадобятся инструменты, которые видят сайт так же, как робот Google или Яндекс.
Джентльменский набор
Для полноценного аудита вам потребуются три главных компонента:
1. Screaming Frog SEO Spider (или аналог Netpeak Spider).
- Зачем: Это краулер (парсер), который сканирует все ссылки, картинки и скрипты.
- Нюанс: Бесплатная версия сканирует до 500 URL. Для небольшого блога этого достаточно. Если сайт крупный — придется купить лицензию или искать "народную" версию.
2. Google Search Console (GSC) и Яндекс.Вебмастер.
- Зачем: Первоисточник данных. Показывает, как поисковики уже видят ваш сайт.
3. Плагины для браузера.
- Рекомендация: SEO META in 1 CLICK или RDS Bar. Помогают быстро глянуть заголовки и метатеги на конкретной странице.
Совет: Перед запуском краулера в настройках выберите User-Agent "Googlebot Smartphone". Сейчас поисковики приоритетно оценивают именно мобильную версию сайта (Mobile-First Indexing).
Индексация и доступность (Фундамент)
Первый вопрос аудита: "Видят ли поисковики мой сайт вообще?". Если здесь ошибка — всё остальное не имеет смысла.
Файл Robots.txt: Фейсконтроль на входе
Файл robots.txt лежит в корне сайта (ваш-сайт.com/robots.txt). Это инструкция для роботов: куда ходить можно, а куда нельзя.
Что ищем:
- Блокировка всего сайта. Самая страшная и глупая ошибка.
Плохо:Disallow: /(Слэш означает "всё").
Хорошо:Disallow:(Пустое поле — разрешено всё, кроме перечисленного ниже). - Закрытые скрипты. Не блокируйте доступ к файлам CSS и JS (
.css,.js). Робот должен видеть верстку, чтобы оценить мобильную адаптацию. - Разные директивы. Убедитесь, что для Googlebot и Yandex прописаны корректные правила, если они отличаются.
Карта сайта Sitemap.xml: Навигатор для паука
Файл sitemap.xml помогает краулеру быстрее находить новые статьи. Ссылка на него обычно указывается в конце Robots.txt.
Чек-лист проверки:
- Доступность: Файл должен открываться и иметь статус код 200 OK.
- Чистота: В карте должны быть только страницы, которые мы хотим продвигать.
❌ Нет: страниц с редиректами (301, 302).
❌ Нет: битых ссылок (404).
❌ Нет: закрытых от индексации страниц (Noindex). - Актуальность: Если вы удалили статью, она должна исчезнуть из Sitemap автоматически.
Зеркала сайта и протокол HTTPS
Для пользователя site.com, www.site.com, http://site.com и https://site.com — это один и тот же сайт. Для поисковика — это 4 разных сайта. Это называется "зеркала".
- Как должно быть: Должно остаться только одно главное зеркало (обычно
https://site.com). Все остальные должны автоматически перенаправлять на него 301-м редиректом. - Как проверить: Вбейте в браузер адрес с
http://и сwww. Если вас автоматически не перебросило на безопасную версию без www — это грубая ошибка, размывающая ссылочный вес.
На этом этапе мы убедились, что ворота открыты, карта выдана, а адрес дома (домена) един для всех. Теперь можно заходить внутрь и смотреть комнаты (страницы).
Коды ответов сервера и URL
После того как мы открыли двери для роботов, нужно проверить внутренние коммуникации. Представьте, что вы посылаете клиента в кабинет №404, а такого кабинета не существует. Или отправляете его в кабинет №301, а оттуда его шлют в №302.
Клиент устанет и уйдет. В вебе происходит то же самое.
Мы будем искать баги, которые убивают поведенческие факторы и тратят краулинговый бюджет.
Охота на 404 (Битые ссылки)
Ошибка 404 (Not Found) возникает, когда страница была удалена или ссылка на нее ведет «в никуда».
Почему это критично:
- Слив веса: Ссылка передает вес (PageRank) на несуществующую страницу. Вес просто исчезает.
- Потеря пользователя: Посетитель кликает, видит ошибку, закрывает вкладку.
- Бюджет краулера: Робот тратит время на сканирование мусора вместо полезных статей.
Как найти и исправить: Запускаем Screaming Frog. После сканирования идем во вкладку Response Codes -> фильтр Client Error (4xx).
- Если это внешняя ссылка (вы ссылаетесь на удаленный сайт) — удалите или замените её.
- Если это внутренняя ссылка — исправьте её в тексте или поставьте 301 редирект на актуальную страницу.
Редиректы и цепочки перенаправлений
Редирект — это переадресация пользователя с одного адреса на другой. Но не все редиректы одинаково полезны.
Битва: 301 vs 302
Частая ошибка новичков — путать эти два кода.
| Тип | Значение | Что думает Google/Яндекс | Когда использовать |
|---|---|---|---|
| 301 | Moved Permanently | "Страница переехала навсегда. Передаю вес на новый адрес". | При смене URL, склейке зеркал, удалении старых статей. |
| 302 | Found / Temporary | "Страница переехала временно. Вес оставляю на старом адресе". | Технические работы, временные акции. В SEO почти не нужен. |
Чек-лист: Проверьте в краулере вкладку Response Codes -> Redirection (3xx). Убедитесь, что все ваши постоянные переезды имеют код 301.
Цепочки редиректов (Redirect Chains)
Это ситуация, когда Страница А ссылается на Б, Б ссылается на В, а В — на Г.
- Проблема: Каждый шаг — это задержка загрузки. После 3-4 переходов робот может просто перестать идти дальше.
- Решение: Ссылка должна вести сразу на конечную цель. Исправьте ссылку на Странице А, чтобы она вела сразу на Г.
ЧПУ и структура ссылок
URL-адрес — это тоже часть контента. Поисковики читают его, чтобы понять тему страницы.
Правила идеального URL:
site.com/?p=123 (Ничего не понятно)✅
site.com/technical-audit-checklist (Понятно и людям, и роботам)- Транслитерация: Используйте латиницу. Кириллические URL при копировании превращаются в нечитаемый набор символов (%D0%AF%D0%BA...), что выглядит непрофессионально.
- Разделители: Используйте дефис (-), а не нижнее подчеркивание (_). Google воспринимает дефис как пробел, а подчеркивание — как соединитель букв.
- Вложенность: Чем короче URL, тем лучше. Избегайте лишних папок типа
/category/2025/blog/seo/article. Лучше:/blog/article.
Совет: Никогда не меняйте URL старых трафиковых страниц без крайней необходимости. Если меняете — обязательно ставьте 301 редирект со старого адреса на новый, иначе потеряете позиции.
Дубли и On-Page оптимизация
Мы добрались до самой коварной части аудита. Для поискового робота уникальность контента — это святое. Но CMS (движки сайтов) часто генерируют сотни технических клонов ваших страниц, размывая их релевантность.
Если у вас на сайте 5 страниц с одинаковым контентом, Google не знает, какую из них ранжировать, и часто выкидывает из поиска все.
Полные и частичные дубли страниц
Дубли бывают явные и скрытые. Наша задача — найти их и уничтожить (или правильно пометить).
Проблема слеша (Trailing Slash)
Для браузера эти адреса одинаковы, а для сервера — нет:
site.com/catalogsite.com/catalog/(со слешем на конце)
Если сайт открывается по обоим адресам — это полный дубль.
Решение: Выберите один стандарт (обычно со слешем) и настройте постраничный 301 редирект с версии "без слеша" на версию "со слешем".
Параметры и фильтры
Частая беда интернет-магазинов. Сортировка товара меняет URL, но не контент:
site.com/shoes(Основная)site.com/shoes?sort=price_asc(Дубль контента)site.com/shoes?source=instagram(Дубль контента)
Магия Canonical: Борьба с параметрами
Чтобы не удалять страницы фильтров (они ведь нужны пользователям), мы используем тег Canonical.
Это строчка кода в блоке <head>, которая говорит роботу: "Я — копия. Мой оригинал находится вот здесь".
Как это выглядит в коде: На странице-дубле (?sort=price) должен стоять код:
<link rel="canonical" href="https://site.com/shoes/" />
Чек-лист проверки:
- У каждой страницы должен быть указан Canonical.
- На уникальной странице Canonical должен ссылаться сам на себя (Self-referencing). Это защита от случайного создания дублей внешними ссылками (например, с метками
?utm_source=...). - Проверьте в Screaming Frog вкладку Canonicals -> Missing. Пустот быть не должно.
Пустые или дублирующиеся Title и Description
Метатеги — это ваше лицо в поисковой выдаче (сниппет).
Title (Заголовок окна браузера)
Самый сильный фактор ранжирования на странице.
- Ошибка: "Главная", "Контакты", "Страница 1".
- Ошибка: Одинаковый Title на 50 товарах ("Купить кроссовки").
Правило: Уникальный Title для КАЖДОГО URL. Длина: 50–70 знаков. Ключевое слово — ближе к началу.
Description (Описание)
Влияет на кликабельность (CTR).
- Ошибка: Отсутствует или скопирован из текста статьи.
- Ошибка: Дублируется на всех страницах пагинации.
Правило: Краткое резюме страницы с призывом к действию ("Заходите!", "Узнайте..."). Длина: 130–160 знаков.
Как найти: В Screaming Frog вкладки Page Titles и Meta Description. Фильтр Duplicate покажет, где вы поленились написать уникальный текст.
Иерархия заголовков H1-H6
Поисковики читают структуру текста, как оглавление книги. Если оглавление перепутано, робот считает контент неструктурированным мусором.
Железные правила иерархии:
- H1 — Император. Должен быть СТРОГО один на странице. Он дублирует суть Title, но другими словами.
Баг: Логотип сайта обернут в H1 (получается H1 на каждой странице одинаковый).
Баг: Два H1 в статье. - Порядок имеет значение. После H2 должен идти H3, а не H4. Не перепрыгивайте через ступеньки.
- Ключевики. Используйте LSI-слова в подзаголовках (H2-H3), это расширяет семантику.
На этом этапе мы причесали контент и убрали клонов. Остался последний рывок — скорость, мобильность и техническая эстетика.
Скорость, Mobile и Микроразметка
Мы на финишной прямой. Ваш сайт уже доступен для роботов, не имеет битых ссылок и дублей. Теперь нужно сделать так, чтобы он "летал" и красиво выглядел в выдаче.
В 2025 году скорость — это не просто удобство, это официальный фактор ранжирования (Core Web Vitals). Медленные сайты пессимизируются алгоритмами.
Core Web Vitals: Зеленые зоны
Google оценивает не абстрактную "скорость", а конкретные метрики пользовательского опыта. Проверяем их через PageSpeed Insights.
Три кита производительности:
- LCP (Largest Contentful Paint): Скорость загрузки самого большого элемента (обычно баннера или заголовка).
Норма: до 2.5 сек.
Лечение: Сжимайте картинки (WebP вместо PNG), используйте кэширование браузера. - CLS (Cumulative Layout Shift): Визуальная стабильность. Прыгает ли текст, когда подгружается реклама?
Норма: до 0.1.
Лечение: Задавайте жесткие размеры (width/height) для картинок и рекламных блоков в CSS. - INP (Interaction to Next Paint): Отзывчивость. Как быстро сайт реагирует на клик.
Лечение: Оптимизация тяжелых JS-скриптов, которые "вешают" браузер.
Ошибки мобильной адаптации
Google использует Mobile-First Indexing. Это значит, что он оценивает ваш сайт, глядя на него со смартфона. Если десктоп идеален, а мобильная версия "кривая" — вы не попадете в ТОП.
Типичные ошибки (смотрим в GSC в разделе "Удобство для мобильных"):
- Контент шире экрана: Появляется горизонтальная прокрутка. Пользователь ненавидит это.
- Интерактивные элементы слишком близко: Палец пытается нажать на меню, а попадает на рекламу.
- Мелкий шрифт: Текст должен быть читаем без зума (минимум 14-16px).
Валидация микроразметки (Schema.org)
Микроразметка — это "перевод" вашего контента на язык роботов. Она помогает получить расширенные сниппеты (звездочки рейтинга, цена товара, фото рецепта прямо в поиске).
Что разметить обязательно:
- BreadcrumbList — "хлебные крошки" (навигация).
- Article или NewsArticle — для статей блога.
- Product — для карточек товаров (цена, наличие).
- Organization — контакты и логотип.
Инструмент: Используйте Schema Markup Validator. Ошибки в разметке могут лишить вас красивого сниппета, но не понижают позиции напрямую.
Заключение и Итоговый Чек-лист
Технический аудит — это не разовая акция, а регулярная гигиена. Проводите поверхностную проверку раз в месяц, а глубокую — раз в полгода.
Ваш план действий "на сегодня":
- ✅ Доступ: Проверить
robots.txtи отсутствие блокировок. - ✅ Индексация: Загрузить чистую
sitemap.xmlв Вебмастера. - ✅ Зеркала: Настроить 301 редирект на главное зеркало (HTTPS).
- ✅ Ошибки: Найти и исправить все 404 и 5xx ошибки.
- ✅ Дубли: Настроить Canonical и убрать дубли Title/Description.
- ✅ Структура: Проверить иерархию H1-H6.
- ✅ Скорость: Сжать картинки и проверить Core Web Vitals.
Ваш сайт — это живой организм. Лечите его вовремя, и он отплатит вам трафиком и конверсиями. Удачи в топе!
💬 Ваш опыт важен!
А с какими техническими ошибками чаще всего приходилось сталкиваться вам на своих проектах? Поделитесь своим опытом или задайте вопрос по настройке в комментариях!
Напишите, была ли статья полезна — ваша обратная связь помогает мне делать контент лучше!




