Теория и практика SEO продвижения


Причины плохой индексации сайта

Spread the love

Существует пять основных причин, по которым сайт или его отдельные документы могут не заходить в индекс (или делать это с трудом).

Вот они:

  • Робот не знает о сайте или документе
  • Сайт или его часть недоступна для робота
  • Сайт находится в черном списке
  • Присутствует техническая ошибка
  • Отдельные страницы или разделы показывают плохое качество

Если с сайтом все отлично в техническом плане и к нему нет претензий относительно использования агрессивных методов оптимизации, поисковик постепенно индексирует сайт. Для начала он дает небольшую квоту на количество необходимых проиндексированных страниц. Если после накопления статистики он видит, что страницы показывают хорошее качество, квота увеличивается и больше страниц может попасть в индекс. Так поисковик экономит свои ресурсы, индексируя только нужные документы. Какие же признаки говорят о хорошем или плохом качестве документов?

Контент уже существует в других разделах этого сайта Здесь речь о внутренних дублях контента, обычно это страницы сортировки, пейджинга и страниц для печати. Все подобные страницы, которые мало отличаются друг от друга, пойдут в дополнительный индекс, не участвующий в поиске. Необходимо убедиться, что каждая страница сайта имеет ценность для пользователя и эти ценности не пересекаются между документами, каждый ценен по своему.

— Документы раздела имеют шаблонные заголовки и тексты. Поисковики не любят шаблонность, когда между страницами меняется лишь одно-два слова и остальной контент остается одинаковым, и стараются не индексировать много шаблонных страниц. Если хотите, чтобы страницы попадали в индекс, прописывайте их заголовки и мета-описания вручную, либо используйте множество шаблонов вместо одного для всего сайта.

— Страницы раздела более 4-го уровня вложенности Чем больше уровень вложенности страницы, тем меньше её вес и значимость для поиска (для пользователя также). Нужные для индексации страницы, которые лежат далеко вглуби сайта, необходимо выносить на 2-3 уровень вложенности с помощью дополнительной перелинковки.

— Большое количество 404 страниц При обнаружении множества ошибок, поисковик должен определять паттерны и не стучатся туда, где заведомо (с большой вероятностью) страница также будет с 404 ошибкой. В связи с этим, нужно периодически мониторить свой сайт на предмет различных ошибок через уже упомянутую выше панель вебмастеров или специализированных программ.

— Медленная скорость отдачи документов Медленная скорость отдачи документов из-за проблем в хостинге или CMS не позволит роботу быстро индексировать сайт. Он будет продолжать его сканировать, но не так быстро, как если бы документы отдавались моментально. Простая оптимизация скорости загрузки сайта может существенно улучшить его индексацию.

— Объем текста на странице меньше 500 символов Малый объем текста затрудняет поисковым алгоритмам определить ценность этого контента для пользователя. К тому же, на таких объемах контента сложно поддерживать уникальность между страницами своего и чужих сайтов. Часто страницы с объемом меньше 80-100 слов (около 500 символов) с трудом попадают в индекс (попадают только при хорошем вИЦ). Если это ваш случай, подумайте, стоит ли этим страницам быть в индексе, и если да, то что ещё вы можете на них добавить для увеличения контента (например, отзывы, комментарии, характеристики или видео-обзор).

Контент уже существует на других сайтах (не уникален) До индексации поиск не знает, уникальный ли контент содержит документ, поэтому, на первом этапе страницы сайта могут индексироваться хорошо. Но если ваш контент уже где-то встречается точь-в-точь, то поисковику нет смысла снова добавлять его в индекс – он знает об этих страницах и вы можете видеть в панели для вебмастеров, что он видит несколько тысяч страниц на вашем сайте, но при этом они не участвуют в поиске, если нет других сигналов, заставляющих бота изменить своё решение.

Методы определения уникальности контента

  1. Поисковые системы
    Этот метод заключается в том, что происходит поиск по ключевой фразе, которая заключена в кавычки размером в 5-7 слов. Такие цитаты можно вводить в любой поисковик. Смотрим на совпадение с другими сайтами, проводим подобных операций несколько раз (в зависимости от размера текста).
  2. Программа Advego
    Advego Plagiatus — программа создана для обнаружения частичного или полного соответствия текста в интернете. Advego показывает процент уникальности, на каких ресурсах расположены совпадения. Программа бесплатная и очень удобная, неудивительно, что многие вебмастера ее используют.
  3. Copyscape
    Простой онлайновый сервис, что показывает копии во всемирной паутине в сравнении с вашей статьей. Был разработан для Европы, но и у нас также используется. Но чтобы пользоваться данным сервисом необходимо сначала разместить статью на своем сайте. В адресной строке вводите url странички и сервис выдаст сайты у которых есть похожие страницы.
  4. Content-Watch
    Онлайн сервис, который проверяет на уникальность страницы Вашего сайта. Можно проверять по одной странице, массово – добавив в поле те урлы которые желаете проверить, и весь сайт целиком.
  5. Text.ru
    Еще один онлайн сервис, которые проверяет не только на уникальность, но и на ошибки, воду и плотность ключевых слов. На мой скромный взгляд один из лучших, на данный момент, сервисов.

По материалам devaka.ru

Оставить комментарий