No-code конструктор от Unisender. Простая интеграция, подробная аналитика, готовые шаблоны сценариев. 14 дней — 0 ₽.

Разбираем возможные ошибки и варианты их решений
Привет, я Екатерина Хиндикайнен, руководитель Rookee — платформы для самостоятельной оптимизации сайта.
Если вы, как и многие наши клиенты, делаете SEO самостоятельно, и столкнулись с трудностями на этом пути — статья для вас. В ней я разобрала самые распространенные проблемы, которые мешают сайту попасть в топ поиска Яндекса/Google.
Если ресурс «падает» даже ненадолго, поисковики это замечают. Ситуация повторяется — теряете позиции в выдаче. Так что если ваш хостинг работает не очень стабильно, то переезжайте на другой.
Проверить, как поисковики сканируют сайт, можно в Яндекс Вебмастере («Индексирование» → «Страницы в поиске») и Google Search Console («Индекс» → «Покрытие»).
Или вбить в строку поиска «site:», затем без пробела указать URL вашего ресурса — посмотреть, сколько найденных страниц указано в правой части интерфейса. Оба поисковика должны «видеть» примерно одинаковое количество (но допустима разница в 50–100 при тысяче страниц).
Проблемы с файлом robots.txt. Этот файл помогает поисковым ботам получать информацию о площадке. Он должен лежать в корневом каталоге сайта и включать инструкции о том, какие страницы индексировать, а какие нет, и где найти карту ресурса.
С индексацией будут проблемы, если файл некорректно сделан, не там расположен или его вообще нет. Проверить свой robots.txt на правильность можно в инструментах для вебмастеров Яндекса и Google.
Проблемы с картой сайта. Карта сайта — это список ссылок на страницы ресурса, разбитый по разделам. Может существовать в виде страницы на сайте или как отдельный файл sitemap.xml. (Страница открыта и для посетителей, и для поисковых роботов, а файл — только для вторых.)
Если у вашего сайта нет карты, поисковики не смогут корректно изучить ресурс. Если вы добавили новые страницы, но забыли обновить файл sitemap — боты их не проиндексируют. Если вы скрыли в карте удаленные страницы тегами, это тоже не понравится ботам — в отличие от файла robots.txt, там должны быть ссылки только на актуальный контент.
«Битые» ссылки, некорректная переадресация. «Битые» ссылки ведут на страницу с ошибкой 404 «Страница не найдена». Обычно они возникают из-за переезда ресурса или удаления страниц: в таких случаях настраивают переадресацию, но иногда делают это неправильно, или она со временем перестает работать.
Проверить сайт и устранить некоторые неисправности можно в Вебмастере и Search Console.
5. Для всех изображений на сайте заполнить alt и title, чтобы при проблемах с загрузкой отображался текст.
Понять, насколько ресурс удобный и интересный, можно по различным показателям веб-аналитики, например, посещаемости, отказам, глубине просмотра (количеству страниц, посещенных за один сеанс) и времени, которое люди проводят на сайте. Посмотреть их можно в сервисах веб-аналитики: самые распространенные это Google Analytics и Яндекс.Метрика.
Повысить скорость загрузки, если она низкая. Узнать, какие есть проблемы и как их решить, можно в сервисе Google PageSpeed Insights. (В журнале «Конверт» подробно рассказывали, что влияет на время загрузки сайта и как увеличить скорость.)
Адаптировать сайт под мобильные устройства. (В «Конверте» писали, как проверять адаптивность (мобильность) сайтов.)
Найти точки входа с высоким показателем отказов. Затем определить причины (например, страницы не соответствуют запросам или тем плохо раскрыта) и устранить их.
Сделать внутреннюю перелинковку: связать одни страницы сайта с другими (например, с помощью добавления блока рекомендованных товаров). (В журнале «Конверт» есть исчерпывающий гид по перелинковке своего сайта.)
Проще говоря, это переизбыток ключевых слов в контенте страниц или в метатегах (обычно в title и description). Есть много фильтров, которые поисковики могут наложить за такое (не все из них отображаются на панелях Яндекса и Google для вебмастеров, особенно если в бан попал не весь сайт).
Проще ориентироваться на «проседаемость» страниц в выдаче и проверять тексты на «тошноту» (заспамленность ключевиками) — следить, чтобы она не превышала 5-15%. Для этого можно использовать сервисы вроде Text.ru или «Адвего».
Это когда сайт конкурирует в выдаче с самим собой — потому что разные страницы релевантны одним и тем же запросам (вероятно, потому что оптимизировались под одинаковые ключевые слова или близкие по смыслу). В результате поисковик часто показывает только одну из двух страниц, поэтому каннибализацию не всегда можно обнаружить, вбивая свои ключевики в поиск вручную. Лучше проверять с помощью SEO-сервисов — к примеру, PR-CY.
Если сервис нашел несколько страниц для одного ключевика, надо перенести полезную информацию с одной на другую и удалить лишний вариант. А с адреса удаленной страницы настроить переадресацию.
В идеале никакой контент на сайте не должен повторяться. Проверить сайт на наличие любых копий можно в Яндекс Вебмастере (разделы «Диагностика» и «Индексирование», подразделы «Страницы в поиске» и «Заголовки и описания») и Google Search Console.
Настроить редиректы со страниц с www, если ваш сайт без www.
Указать главное зеркало, чтобы поисковики не путались: с www или без него, с http или c https.
Запретить индексировать тестовые домены и поддомены с помощью файла robots.txt.
В код копий страниц добавить атрибут rel=»canonical» в <head> со ссылкой на адрес той страницы, которая является основной.
Создать статические адреса, уникальные метатеги и сопровождающие тексты для каталожных страниц с фильтрами (иначе при фильтрации ассортимента страница меняет URL).
Для страниц навигации сделать шаблонные теги для пронумерованных страниц ассортимента, добавив тег вида «Страница №».
Самое важное: чтобы не было дублей у самого сайта и главной страницы, потому что именно с нее начинается путь многих клиентов и поисковых роботов. Остальные дубли менее критичны.
Поисковики любят оригинальные и актуальные тексты без «воды», которые к тому же легко читаются. Проверить содержимое своего сайта на уникальность, читабельность и «водность» можно в сервисах «Адвего», eTXT, Text.ru, Content Watch и подобных. Лучше сразу в нескольких: показатели разнятся.
Актуальность нужно оценивать самостоятельно. А также следить, чтобы уже опубликованная информация не устаревала. Например, из-за изменений в законодательстве, прекращения поддержки устройств провайдерами ПО, закрытия / открытия границ странами — все зависит от тематики. Если что-то важное изменилось, то контент лучше обновить.
Даже если изначально тексты и изображения были уникальными, позже их могли скопировать конкуренты. Если ранжирование страницы просело, стоит проверить, не своровали ли у вас контент. В таком случае можно потребовать от конкурента удалить информацию, пожаловаться на него в Google/Яндекс или даже обратиться в суд. Или подготовить новый уникальный контент.
Разбираемся, какие ссылки считают таковыми:
То есть сайтов, которые ссылаются на ваш.
Доноров нужно проверять прежде всего на качество, спамность (чем больше на сайте ссылок на другие ресурсы, тем больше спамность) и трастовость ( англ. «trust» — доверие). Чем качественнее сайт, тем больше ему доверяют поисковые системы.
Качество выражается в показателях ИКС (индекс качества сайта) Яндекса и PageRank Google, трастовость — в показателях Траст Яндекса и TrustRank Google соответственно. Спамность можно оценить по количеству исходящих ссылок и соотношению исходящих и входящих.
Узнать эти и другие показатели доноров можно с помощью SEO-сервисов: например, CheckTrust, RDS bar и PR-CY. Смотреть лучше в нескольких: как и в случае с проверкой текстов, данные будут отличаться.
Если тематика той страницы, где размещена ссылка на вас, совсем не соответствует тематике вашего сайта, то это выглядит странно. Хотя бы 30% ссылок должны быть с близких по смыслу страниц (сам сайт может быть другой тематики).
Напомню, проверить уникальность можно с помощью «Адвего», eTXT, Text.ru, Content Watch и подобных сервисов.
Это может быть, например, ссылка, у которой цвет такой же, как у фона (в таком случае она скрыта от обычного пользователя, видна только для поискового робота). Или опубликованная в неудобном для пользователя месте.
Допустим, ссылка с текстом в духе «купить москва недорого».
Важно: даже если все ссылки качественные, — но их количество слишком быстро увеличивалось, — такое продвижение поисковики могут посчитать искусственным и понизить сайт в выдаче. Лучше наращивать объем с такой же скоростью, с какой это делали конкуренты.
Полезные статьи в «Конверте» и словаре Unisender по теме:
EAT расшифровывается как expertise, authoritativeness, trustworthiness — экспертность, авторитетность и достоверность. Это критерии, по которым Google оценивает сайты. У Яндекса есть аналогичная метрика Proxima.
EAT и Proxima используются для оценки всех сайтов, но наибольшее значение имеют для тематик, где можно серьезно навредить людям. Google традиционно относил такие сайты к категории YMYL (Your Money or Your Life), то есть оказывающие влияние «на жизнь или финансовое благополучие человека». У Яндекса нет специального термина, но суть та же: для поисковика есть сайты серьезных тематик, которые он придирчиво проверяет.
YMYL — это, в первую очередь, медицина (а также все, что касается здоровья), финансы, недвижимость, электронная торговля — их проверяют строже всего. Во вторую — юриспруденция (включая госучреждения, ресурсы о законах, правах и обязанностях), наука (в т.ч. все о технологиях), услуги, новостные и общественно-политические СМИ, а также все остальное, что может повлиять на счастье или достаток.\
Важно: в обновлении своего руководства от 28 июля 2022 года Google указал, что оценивает именно по EAT не только страницы YMYL-тематик, но и все другие, которые «с большой вероятностью могут навредить читателю».
Покажите, что контент экспертный и подготовлен профессионалами. Опубликуйте лицензии, сертификаты, дипломы, награды, аккредитации компании и сотрудников, логотипы известных клиентов и партнеров, подпишите профильные статьи именами своих экспертов.
Покажите, что компания и сотрудники — авторитеты в своей сфере. В этом помогут обратные ссылки на сайтах, которые заслуживают доверие поисковиков, отзывы авторитетных клиентов, рейтинги бизнеса на картах, профили ваших специалистов, если они известны в сети (здорово, если человек ведет профильный блог / записывает подкаст, пишет статьи или книги, состоит в профессиональных сообществах, участвует в мероприятиях отрасли, особенно в качестве члена жюри).
Покажите, что вам можно доверять.
Во-первых, получите SSL-сертификат — он защищает информацию и подтверждает подлинность сайта. Если ваш сайт загружается, когда вы указываете https в URL, значит сертификат уже есть. Если не загружается — его нет или он неправильно установлен. Вероятно, его надо купить или получить от хостинга (они часто дают SSL базового уровня бесплатно на какой-то период).
Во-вторых, опубликуйте всю важную информацию об организации и о том, чем она занимается: наименование юрлица, адреса, реквизиты, контакты, максимально полные данные о продуктах / услугах (параметры товаров, условия обслуживания, гарантии, способы оплаты и доставки, условия возврата).
Как поисковики могут определять неактуальность:
Даже если опубликованный контент еще актуален, но на сайте нет новых материалов, никто не отвечает на комментарии пользователей, не добавляются новые товары / услуги — поисковики решат, что ресурс «забросили».
Стоит регулярно обновлять старые страницы и те, на которых «проседает» трафик: роботам будет достаточно даже добавления нескольких слов.
Требования Google и Яндекса регулярно меняются: появляются обновления существующих метрик, создаются новые фильтры и алгоритмы, упраздняются одни показатели и вводятся другие. Если за всем этим не следить, можно оказаться в ситуации, когда привычный подход не дает результата или даже вредит.
Читайте только в Конверте
Искренние письма о работе и жизни, эксклюзивные кейсы и интервью с экспертами диджитала.
Проверяйте почту — письмо придет в течение 5 минут (обычно мгновенно)