Представьте, что ваш сайт — это торговый центр. Внутренние ссылки — это коридоры, эскалаторы и указатели. Если вы построили магазин на третьем этаже, но забыли сделать к нему лестницу, или указатель ведёт в глухую стену — покупателей там не будет. Поисковый робот — это такой же «покупатель». Если он не может пройти по ссылке, он просто разворачивается и уходит, а страница вылетает из индекса.
Проверять перелинковку нужно не только ради роботов, но и чтобы не бесить людей. «Битые» ссылки или циклические перенаправления (когда страница ссылается сама на себя) — это признак заброшенного сайта.
Давайте смотреть, чем всё это можно просканировать, не тратя миллионы.
1. Google Search Console (бесплатно и сердито)
Я всегда начинаю с этого. Если у вас подключена «Консоль» (а она должна быть подключена), идите в раздел «Ссылки» (Links) → «Внутренние ссылки».
Это самый честный отчёт. Он показывает, какие страницы вашего сайта Google считает самыми важными. Логика простая: чем больше внутренних ссылок ведёт на страницу, тем она важнее в глазах поисковика.
На что я там смотрю в первую очередь:
— Перекосы. Сортирую список по убыванию. В топе должна быть главная и основные разделы услуг или каталога. Если вы видите, что на первом месте у вас страница «Политика конфиденциальности» или какая-то старая новость за 2018 год — у вас проблемы. Вы сливаете вес в никуда.
— Забытые страницы. Прокрутите список в самый низ. Те страницы, на которые ведут всего 1–2 ссылки — это зона риска. Робот заходит туда редко. Если там лежит важный товар или статья — срочно ставьте на неё ссылки с других материалов или разделов.
2. Плагины для CMS (WordPress и другие)
Если у вас сайт на WordPress, вы наверняка пользуетесь Yoast SEO, RankMath или All in One SEO. Многие игнорируют их встроенные инструменты для линковки, а зря.
Тот же Yoast SEO Premium (и некоторые бесплатные аналоги) имеет счётчик текстовых ссылок. Зайдите в список всех записей в админке и посмотрите на колонки справа.
Там обычно две цифры:
— сколько ссылок из этой статьи ведёт на другие материалы; — сколько ссылок ведёт на эту статью с других страниц.
Это удобно для экспресс-анализа. Пишете новую статью — сразу смотрите, на какие старые материалы можно сослаться. Видите статью-сироту, на которую «0» входящих ссылок? Зайдите в пару популярных постов и поставьте на неё ссылки. Работает безотказно.
3. Проверка «глазами» и руками: браузерные плагины
Автоматика — это хорошо, но иногда полезно пройтись по сайту самому. Чтобы не кликать каждую ссылку и не ждать, откроется она или нет, поставьте расширение для Chrome.
Мои любимчики — Check My Links и Broken Link Checker.
Вы заходите на страницу, нажимаете кнопку, и плагин за секунду подсвечивает все ссылки цветами:
— зелёный — живая ссылка; — красный — битая (404); — жёлтый — редирект.
Это незаменимо, когда вы проверяете новую статью перед публикацией. Часто бывает: скопировали ссылку, вставили, а там лишний пробел затесался или букву пропустили. Плагин сразу покажет это красным цветом.
4. Screaming Frog SEO Spider (визуализация связей)
Когда сайт разрастается до нескольких сотен или тысяч страниц, держать структуру в голове невозможно. Тут в игру вступают краулеры — программы, которые ходят по сайту как поисковые роботы и строят карту ссылок.
Я уже упоминал Screaming Frog SEO Spider («Лягушка») в теме про технический аудит, но в плане ссылок у него есть киллер-фича — визуализация структуры.
Вы запускаете сканирование, затем переходите во вкладку Visualisations → Force-Directed Crawl Diagram.
Программа строит интерактивную карту сайта, которая выглядит как молекула или звёздная система:
— центральная точка — главная страница; — ответвления — разделы и вкладки; — отдельные красные точки — страницы с ошибками.
Одним взглядом видно «оторванные» куски. Если вы видите целую гроздь страниц, которая держится на одной тоненькой ниточке-ссылке с какой-то глубокой статьи — это проблема. Эту ветку нужно укреплять: дать ссылки с главной, меню, популярных статей или блоков «Похожие материалы».
Второе, что я обязательно смотрю в «Лягушке», — это Crawl Depth (уровень вложенности). Золотое правило: до любой важной страницы пользователь (и робот) должен добираться не более чем за 3 клика от главной. Отсортируйте отчёт по глубине. Если важная статья лежит на глубине 6–7 кликов — считайте, что её почти не существует. Поднимайте её выше: добавляйте ссылки в меню, сайдбар, списки «топ-материалов».
5. Netpeak Spider (расчёт внутреннего веса)
Netpeak Spider (ребята из Украины) — ещё один мощный краулер. Он особенно удобен тем, как работает с внутренним PageRank.Google давно убрал из публичного доступа тулбарный PageRank, но сама математика никуда не исчезла. Ссылочный вес по-прежнему течёт со страницы на страницу. Netpeak Spider умеет примерно рассчитывать этот внутренний вес.
Просканировали сайт — нажали расчёт внутреннего PageRank — и видите:
— страницы, которые накапливают вес, но никуда его не отдают (тупики); — важные разделы (например, «Холодильники» или «Услуги»), у которых мизерный вес, потому что на них почти никто не ссылается; — точки, где можно добавить несколько ссылок и сильно улучшить распределение веса.
Это уже чистая математика, но на практике даёт понятные действия: где пережали «шланг» и куда нужно перекинуть дополнительные ссылки.
6. Поиск «страниц-сирот» (orphan pages)
«Сироты» — это страницы, которые существуют на сайте, отдают код 200 (ОК), но на них не ведёт ни одна внутренняя ссылка. Поисковику просто неоткуда о них узнать, кроме карты сайта или случайных внешних ссылок.
Как вообще появляются такие страницы?
— сделали лендинг под рекламу, кампанию выключили, а ссылку из меню убрали; — товар закончился, вы убрали его из каталога, но прямая ссылка по-прежнему открывается; — что-то пошло не так в CMS, и часть страниц просто «оторвалась» от структуры.
Обычный краулер (тот же Screaming Frog) такие страницы не найдёт, потому что он ходит по ссылкам. Нет ссылки — нет сканирования.
Чтобы вытащить сироты на свет, в Screaming Frog или Netpeak Spider подключите API Google Analytics и Search Console.
Софт сравнит два списка:
— страницы, которые он нашёл, переходя по внутренним ссылкам; — страницы, которые получают трафик или есть в индексе по данным аналитики.
Разница между этими списками — и есть ваши «страницы-сироты». На старых проектах их могут быть сотни. Дальше решение простое: либо удаляем и ставим 410/301, если страница не нужна, либо добавляем на неё внутренние ссылки и возвращаем в нормальную структуру.
7. Облачный взгляд на перелинковку
Если не хотите ставить десктопный софт, можно использовать облачные сервисы: Ahrefs, Serpstat, Rush Analytics и другие. Многие из них умеют строить отчёты по внутренним ссылкам и подсказывать, где вы могли поставить ссылку, но забыли.
В Ahrefs, например, есть функция наподобие Link Opportunities. Система пробегает по вашему контенту и предлагает, где уместно добавить внутреннюю ссылку. Это удобно, когда на сайте уже сотни статей, и держать всё в голове невозможно.
Главные принципы здоровой перелинковки
В конце — важное: не зацикливайтесь только на инструментах. Сервисы помогают, но логику никто не отменял.
— Анкоры должны быть разными. Не пишите везде «купить ноутбук». Меняйте формулировки: «посмотреть модели», «каталог ноутбуков», «выбрать ноутбук», «подробнее», «смотреть здесь». Естественность важнее, чем попытка везде впихнуть точное вхождение.
— Контекстные ссылки сильнее, чем футер. Ссылка из текста статьи передаёт больше веса и пользы пользователю, чем десяток однотипных ссылок из подвала или блока навигации.
— Не делайте «кольца» ради галочки. Ссылки, которые ведут на ту же самую страницу, — это техническая ошибка. Многие CMS по умолчанию ставят такие ссылки в меню или «хлебных крошках». Проверяйте и убирайте. Ссылка должна вести куда-то, а не просто перезагружать текущую страницу.
Аудит перелинковки — это как уборка в шкафу. Сначала страшно открыть дверцу, потому что кажется, что всё сейчас вывалится. Но как только разложите по полочкам — самому становится легче, а нужную страницу найти так же просто, как любимую футболку.
Как часто нужно проверять внутренние ссылки на сайте?
Для небольших проектов обычно достаточно раз в месяц. Если вы активно публикуете статьи, запускаете акции или регулярно что-то меняете в структуре — сканируйте сайт раз в 1–2 недели. А после крупных обновлений (смена шаблона, редизайн, миграция) — обязательно прогоняйте сайт через краулер сразу.
Сколько внутренних ссылок должно быть на одной странице?
Жёсткого лимита нет, но ориентир простой: ссылка должна быть полезной. Если на странице 300 ссылок, часть из них точно лишняя. Для обычных статей комфортно держаться в диапазоне 20–80 ссылок, включая меню, блоки «ещё материалы» и ссылки внутри текста. Главное — чтобы глаз не тонул в синем «ковре» и каждая ссылка была уместной.
Что страшнее: битые ссылки или циклические?
Оба варианта плохи, но по-разному. Битые ссылки (404) портят опыт пользователя и тратят краулинговый бюджет. Циклические ссылки (на саму себя или по кругу) не убивают сайт, но загрязняют структуру и мешают роботу адекватно обходить страницы. На практике сначала убираем 404, потом чистим циклы и лишние ссылки.
Достаточно ли одной Google Search Console для проверки перелинковки?
Для старта — да. Раздел «Внутренние ссылки» хорошо показывает перекосы и забытые страницы. Но если у вас уже большой сайт, одной Консоли мало. Тогда добавляйте Screaming Frog или Netpeak Spider: они покажут глубину кликов, тупики, сироты и реальное распределение веса внутри сайта.
Нужно ли покупать платные краулеры, если сайт маленький?
Не обязательно. Для небольшого блога или сайта услуг часто хватает Google Search Console + бесплатных браузерных плагинов и бесплатной версии Screaming Frog (до 500 URL). Платные решения вроде Netpeak Spider или полной версии «Лягушки» имеют смысл, когда у вас много страниц или несколько проектов, и нужно экономить время на ручной проверке.



