Опубликовано в разделе: Продвижение сайтов Прежде, чем приступлю к этому посту, я бы хотел всех попросить отписаться, если на Вашем мониторе заметны проблемы с дизайном блога. В предыдущем посте я уже просил всех высказаться, не стесняйтесь отписываться в комментариях, буду только благодарен и это поможет исправить ошибки, а Вам станет комфортнее читать (а мне писать, зная, что всем комфортно читать). Несколько недель меня мучает вопрос об общей тенденции развития поисковых систем. Если отбросить все эмоциональные и гневные выпады в сторону яндекса, то развитие поисковой системы идёт активно и с каждым годом подобная активность нарастает. Тот же АГС является неким прорывом на рынке поисковых технологий, как бы он нам не нравился, фильтр несёт благо конечному пользователю. Из последних интервью «отцов яндекса» следует, что на 95% фильтр применяется только к некачественным ресурсам. Речь идёт о десятках тысяч сайтов, поэтому несколько тысяч могли попасть в 5%, но эти ресурсы вполне можно отстоять и вернуть в нормальный индекс. Вопреки множествам рассуждений, в наложение АГС (или пессимизации сайта) участвуют сотни параметров, которые нам невозможно охватить и анализировать. Мы же должны стремиться к общему качеству сайта, повышению требований к себе при работе. Сегодня я хотел бы поговорить о теоретической манипуляции понятиями, об основном и дополнительном индексе Google, параметре пессимизации в виде Google Supplemental Index.
История вопроса о соплях Google Supplemental Index Ранее, когда я ещё был далёк от seo, действительно в алгоритмах google наблюдалась градация страниц: 1. Участвующие в поиске на общих основаниях, так называемой основной индекс (для проверки используем запрос «site:zavrab. ru/&», только кавычки убирайте). 2. Google Supplemental Index, он же дополнительный индекс, он же именуется «сопли». Туда включались пессимизированные страницы, которые не участвовали в поиске и лишь в крайних случаях могли появиться на странице выдачи (для проверки используем запрос «site:zavrab. ru – site:zavrab. ru/&», только кавычки убирайте). 3. Вообще страницы, которые google не индексирует. Таким образом, с помощью этих запросов можно было узнать количество пессимизированных страниц и начать работать с ними. Под пессимизацию в сопли попадали страницы в основном по следующим параметрам: – страниц с дублирующимся контентом; – страниц с превалированием дублирующегося контента; – страниц без контента или относительно незначительным объемом контента; – страниц изначально не подразумевающих наличие контента (обратная связь, карта сайта); – и т. д. Траф с пессимизированных страниц отсутствовал. Основной и дополнительный индекс Google Когда я начал заниматься продвижением, то конечно, не мог обойти тему соплей. Но к моему удивлению, по статистике на сопливые страницы шёл нормальным образом траф, а контент там был полностью уникален. Стал разбираться в проблеме, на форуме гугла постоянно задают вопросы об основном и дополнительном индексе. К примеру, сейчас в поиске нашёл эту страницу, где работник компании утверждает, что вообще нет основного и дополнительного индекса. Однако запросы, по которым определяли сопли до сих пор работают, показывают какую-то информацию. Видимо технически, существует подразделение в рамках одного сайта страниц на более «сильные» (трастовые, основной индекс) и более «слабые» (дополнительный индекс). Но никоем образом сейчас нельзя говорить о попадание страниц из дополнительного индекса под пессимизацию. Почему я применил понятие «сильные» или трастовые? Потому что методом внутренней оптимизации или покупкой внешних ссылок можно вывести страницу из «дополнительного» индекса в «основной». Главным критерием попадания страницы в условный дополнительный индекс служит меньшая посещаемость этих страниц в совокупности с наименьшим трастом относительно других страниц. Никакой пессимизации страницы из условного дополнительного индекса не подвержены и могут свободно попадать в топ по нужным запросам. Использование оператора site:domain. ltd/* Никто конкретно не знает, что показывает данный оператор и откуда он взялся. Сопли проверялись другим оператором, а здесь место для спекуляций и дискурсов. Применение теории существования «соплей» на практике Контора находит клиента на продвижение, начинает ему выводить сайт из мифических соплей. Ох, как дорого стоит вывод каждой страницы из зловещей пессимизации сопле! Так же не гнушаться внушать плохое качество исполнения сайта ссылаясь на наличие множества страниц в соплях. Зачем это делать? Нужно же как-то убедить заказчика на ненужные ему работы, сшибить лишних денег. Мои выводы по основному и дополнительному индексу Google Почему-то в оптимизаторской среде путают причинно-следственные связи. Страницы, на которые редко заглядывают посетители находятся в «дополнительном индексе». Никакого отношения к старинным соплям и пессимизации дополнительный индекс не имеет. Процентное соотношение условного основного и дополнительного индекса никаким образом не характеризует отношение googla к данному ресурсу. Так же не нужно путать причинно следственные связи по поводу наличия трафика на страницах дополнительного индекса. К ним мало обращений не по тому, что они в дополнительном индексе, а они в дополнительном индексе из-за того, что к ним мало обращений. Сами по себе страницы из дополнительного и основного индекса полноценны в глазах гугла, и могут возглавлять топы по своим запросам. Ряд теоретиков по соплям так и остаются на своих позициях, применяя, непонятные операторы они делают непонятные выводы. Работники Googla много раз говорили на своём форуме, что вообще нет основного и дополнительного индекса, а тем более соплей. О качестве сайта ссылаясь на мифические сопли и условные индексные разделения по разным операторам судить нельзя. p/s почему я написал этот пост? Некоторые товарищи с пеной у рта доказывают наличие соплей и путают пессимизацию сайта (с наложением различных фильтров)
с мифической работой основного и дополнительного индекса. Не нужно мне писать в icq по поводу соплей, для меня их нет)