Декабря 21, 2008 | by Макс | Подписан я значит...

декабря 21, 2008 | by Макс | Подписан я значит на одну рассылку…, и там на днях было нижеследующее сообщение, вопрос и ответ специалиста… Добрый день! Недавно узнал о сервисе supplemental. name, позволяющем определить какие из страниц сайта находятся в основной базе Гугла, а какие во вспомогательной. Теория гласит, что если страницы проиндексированного Гуглом сайта попали во вспомогательную базу, то они практически никогда не выводятся в качестве ответов на запросы, т. е. не ранжируются. И вытащить “попавшие” страницы нет возможности. Сервис показал слежующую картину: В индексе Гугла 2420 страниц сайта site. com Из них в основном индексе 30 страниц; В дополнительном индексе 2390 страниц. Качество сайта site. com 1% Вобщем, что есть у Вас сайт, что нет его… Страницы, попавшие в дополнительный индекс – это страницы каталога товаров, которых тысячи. А остальные 30 – это страницы с информацией для потребителей. И что же делать? Гугл посчитал нас плохим сайтом? Поможет ли создание файла sitemap для Гугла? что можно изменить на сайте, чтобы Гугл нас простил? Хотя, за что нас наказывать, если это реальный сайт, не помойка, не дорвей… в общем, нормальный сайт для людей. Очень прошу ответить на мой вопрос. В сайт вложено столько сил, времени, денег… что менять домен, переделывать сайт – это просто катастрофа… Да, действительно, в Гугле есть такой фильтр, когда малозначащие с точки зрения Гугла страницы уходят в “дополнительный” индекс и, зачастую, именно страницы товаров больших (по объему) магазинов уходят в этот индекс. Причем, это очень похожие, почти одинаковые страницы – страницы, оформленные в одинаковом шаблоне, с одинаковыми дизайном, обвязкой, основным текстом. Именно это мы и видим в нашем случае – страницы каталога на сайте формально различаются незначительно, лишь отдельными словами (марками машин и рядом цифр). Небольшим утешением в данном случае может служить то, что данный “скрытый” индекс запросозависим: одна и та же страница может быть в нем по одному запросу, и в основной выдаче по другому, т. е. ваши страницы, все-таки, имеют шанс быть найденными. Также, результаты приведенного вами сервиса вызывают сомнения. При ручном поиске страниц сайта в Гугле 402 страницы показываются в основном индексе – это далеко не 30 страниц.

Декабря 21, 2008 | by Макс | Подписан я значит...

В целом же, вывод страниц сайта из этого “теневого” индекса, действительно сложная задача. Основная сложность состоит в том, что это зачастую очень длительное дело, результаты которого могут появится только через несколько месяцев (в моменты значительных обновлений алгоритмов Гугла). Для вывода важных страниц сайта из “теневого” индекса существуют следующие рекомендации:

    наращивайте авторитет основной страницы вашего сайта – ставьте на сайт качественные ссылки с авторитетных близких по тематике ресурсов: чем авторитетнее сайт, тем больше с большей вероятностью его внутренние страницы не будут попадать в “теневой” индекс, ставьте ссылки и на внутренние страницы сайта, и на глубоко внутренние тоже, постарайтесь разнообразить тексты и мета-теги на внутренних страницах, обновляйте внутренние страницы – так, чтобы их содержание не было статичным, сделайте sitemap, это может помочь.

Теги: Google

Понравилась статья? Получай обновления и будь всегда в курсе событий!
Подпишись на RSS или
blog comments powered by Disqus