Фильтры Яндекса и Google. Фильтры гугла

Крупнейшая поисковая система мира давно использует ряд алгоритмов, направленных на улучшения поисковой выдачи. У Google существует большее количество фильтров, нежели у ПС «Яндекс». Но не смотря на то, что Google является безоговорочным лидером в Украине и вторым по объемам поиска в России, часть ее фильтров не применима для русскоязычного сегмента. Тем не менее, Google уже не первый год планирует масштабный выход на рынок СНГ и, возможно, многие недействующие сейчас у нас фильтры будут введены в течении определенного времени.

« Дублирующийся Контент»

С каждым днем количество документов в сети Интернет растет быстрыми темпами. Поисковым системам сложно обрабатывать и хранить такие объемы информации, тем более, что многие ресурсы дублируют друг-друга. В основном из-за этого был введен данный фильтр на дублированный контент. К сожалению, он до сих пор работает не идеально, ведь часто первоисточник текстов ранжируется по ним ниже, чем сайт, укравший его.

Что происходит с сайтом:

Ресурс понижается в выдаче по запросам. Можете ввести часть текста из страниц (порядка 10 слов), количество заходов из которых упало, в поисковую систему и просмотреть результаты выдачи. Если Ваш сайт окажется не на первом месте – это значить, что Google не считает его первоисточником.

Как не попасть под фильтр:

Использовать контент, который не встречается в сети интернет. Если такой метод для Вас дорог и трудоемок, ввиду большого количества страниц, тогда:
– Можно уникализирровать контент, добавив в него оригинальные комментарии и части текстов
– Добавить динамический скрипт, который выводил бы на Ваших страницах какую-либо меняющуюся информации, не повторяющуюся в сети, например – окошко чата пользователей. При этот текст с окна должен индексироваться.

Заменить (в крайнем случае – уникализирровать) контент на сайте

Фильтр « – 30 »

Применим к сайтам, использующие скрытые редиректы и дорвеи. Он предназначен для борьбы с откровенным поисковым спамом в выдаче.

Что происходит с сайтом:

Страницы в результатах поиска понижаются на 30 пунктов по запросам, таким образом это ограничивает количество переходов на такие сайты (подавляющее большинство пользователей не доходит в поиске за 3-ю страницу)

Как не попасть под фильтр:

Не использовать «черные» методы - редиректы и дорвеи.

Варианты вывода сайта из-под фильтра:

Вам необходимо исключить уже приведенные методы, за которые сайт попал под фильтр.

«Слишком быстрый прирост ссылок»

Поисковая система может заподозрить Вас в попытках повлиять на поисковую выдачу путем увеличения внешней ссылочной массы на сайт. Чаще всего ему подвержены молодые сайты.

Что происходит с сайтом:

Сайт может сильно упасть в выдаче, либо это даже может привести к его “бану”.

Как не попасть под фильтр:

Варианты вывода сайта из-под фильтра:

Постепенно снимите ссылочную массу, попробуйте купить или поставить несколько ссылок на авторитетных ресурсах.

«Bombing»

Фильтр накладывается на сайт за большое количество ссылок с одинаковым текстом ссылки. Такое поведение Google считает поисковым спамом и видит в этом желание владельца сайта повысить его позиции в выдаче по определенному запросу.

Что происходит с сайтом:

В большей части случаев сайт “вылетает” из выдачи – накладывается БАН.

Как не попасть под фильтр:

При продвижении сайта не размещать большое количество ссылок с одинаковым текстом.

Варианты вывода сайта из-под фильтра:

Изначально попробуйте разбавить тексты ссылок, которые идут на Вас с других сайтов (либо купите новых, либо измените часть уже имеющихся, если это возможно). Потом добавьте Ваш сайт в заявку на индексацию.

«Sandbox» – песочница

Гугл с осторожностью относиться к сайтам, недавно появившемся в сети. Это обусловнено желанием поисковой системы бороться со спамом. Данный фильтр противодействует молодым сайтам попасть на первые позиции с популярными запросами (особенно – коммерческими).

Что происходит с сайтом:

Не смотря на проделанную работу по продвижению, ресурс не выходит в ТОП по популярным запросам, хотя, при этом есть трафик по низкочастотным поисковым фразам.

Как не попасть под фильтр:

Купить домен “с возрастом” и историей. При этом нужно проверить, что было размещено на нем до Вас, так как не исключено, что новое доменное имя может быть под действием какого-либо фильтра.

Варианты вывода сайта из-под фильтра:

Сразу выбраться из “песочницы” нельзя. Согласно наблюдениям, данный фильтр снимается не с каждого сайта по отдельности, а с групп сайтов сразу(по тематикам). Можно лишь ускорить процесс выхода из-под данного фильтра путем размещения нескольких ссылок на качественных ресурсах с историей, имеющих высокие показатели.

Раньше эффективным способом продвижения было использование обмена ссылками. При этом на сайтах создавались специальные страницы с большим количеством “линков” на другие сайты. Позже Гугл начал бороться с такими способами, предназначенными для влияния на результаты выдачи.

Что происходит с сайтом:

Понижение в поисковых результатах

Как не попасть под фильтр:

Не использовать “линкопомойки” (страницы, которые ссылаются на очень большое количество сайтов). Не используйте в названии страницы на сайте links.html

Варианты вывода сайта из-под фильтра:

Убрать или запретить к индексации страницу с большим количеством ссылок.

«Социтирование»

Для поисковой системы логичным является ранжировать сайты, на которые ссылаются авторитетные ресурсы с его же ниши(тематики). Если на Ваш ресурс ссылается много сайтов с “нежелательными” тематиками (часто это казино, порнография) или рядом со ссылкой на вас в блоке стоят “линки” на такие сайты, тогда Гугл считает, что Вы также имеете схожее наполнение, как и эти сайты. Это вредит тематичности Вашего сайта.

Что происходит с сайтом:

Ресурс по “своим” запросам теряет позиции в поисковой выдаче.

Как не попасть под фильтр:

Варианты вывода сайта из-под фильтра:

Пересмотр ссылочной масы. Попытайтесь снять нежелательные “линки” на Ваш ресурс(имеющие уже описанные параметры), ведущие с других сайтов.

«Степень доверия к сайту»

Этот фильтр можно назвать сборным, да и фильтром назвать сложно, скорее – это параметр для ранжирования. В нем учитываются такие основные факторы, как:
– Какие сайты на Вас ссылаются (их авторитет и насколько сложно получить ссылку от них)
– На какие ресурсы ссылаетесь Вы (нежелательно ставить у себя линки на некачественные и сомнительные сайты).
– Возраст и история доменного имени (сайта). Чем старше – тем лучше.
– Качество страниц сайта, его “перелинковка”.
– Количество ссылок (как в ходящих, так и исходящих, на ряду с упомянутыми их качественными показателями).
А также многое другое…

Как получить большую степень доверия к сайту:

Стараться, чтобы сайт соответствовал уже перечисленным факторам.

«Переоптимизация»

Для того, чтобы поставить владельцев сайтов в равные условия и свести к минимуму возможность существенно влиять на выдачу с помощью методов внутренней оптимизации был введен данный фильтр. Он учитывает количество ключевых фраз на страницах сайта в тексте, заголовках и мета-тегах. Фильтр начинает действовать в случае, если страница перенасыщена ключевыми словами.

Что происходит с сайтом:

Падают позиции страниц сайта по ключевым словам, под которые он оптимизирован.

Как не попасть под фильтр:

Не пытаться чрезмерно насытить текты, заголовки и мета-теги ключевыми словами.

Варианты вывода сайта из-под фильтра:

Подкорректировать информацию на страницах сайта, которые Вы подозреваете в попадании под фильтр. Уменьшить количество ключевых слов.

«Время загрузки»

“Гугл” старается ранжировать выше именно качественные сайты, которые были бы не только полезны и интересны пользователю, но и не вызывали неудобств в работе с ними. Исходя из этого поисковая система стала учитывать время загрузки веб-страниц

Что происходит с сайтом

Ваш веб-ресурс хуже ранжируется в поисковой системе.

Как не попасть под фильтр

Использовать качественный хостинг. В случае увеличение нагрузки на сайт (рост посетителей, установка дополнительных “тяжелых” модулей и другое…) – изменить хостинг-план на более подходящий под эти цели.

Варианты вывода сайта из-под фильтра:

При подозрении попадания Вашего сайта под этот фильтр – смените хостинг или хостинг-план для ресурса.

«Supplementary Results»

Данный фильтр накладывается на некоторые страницы Вашего сайта, которые поисковая система Гугл считает менее значимыми и полезными для пользователей. Часто ему подвержены те документы, которые содержат дублирующийся контент, отсутствуют входящие ссылки на страницы, также, повторяются мета-теги.

Что происходит с сайтом:

Страницы не полностью выпадают из поиска, но их можно найти лишь кликнув по ссылке “показать дополнительные результаты”. Также, они ранжируются очень плохо.

Как не попасть под фильтр:

Разместить несколько входящих ссылок на такие страницы, не публиковать большой процент дублирующихся материалов, писать оригинальные заголовки для веб-документов.

Варианты вывода сайта из-под фильтра:

Устранить все негативные факторы, перечисленные в разделе, за которые накладывается данный фильтр.

В этом году про фильтры от поисковых систем слышно меньше, чем в прошлые годы. Про Минусинск и Пингвин практически ничего не слышно, да и Баден-Баден как-то потерялся на форумах. Но, на мой взгляд, фильтры продолжают действовать, только вот индикаторов этих фильтров стало меньше, и даже в панели не всегда отображаются, что создает сложность вебмастеру, так как не ясно, почему проект не сдвигается с места, если по нему проводятся видимые работы.

Из самых частых сейчас встречаю фильтр за переспам (комплексный), причем, без метки в панели вебмастеров, если мы говорим о Яндексе. Бороться с ним сложно, так как вебмастерам приходится переписывать большую часть текстов и заголовков.

Где-то испорчена ссылочная карма, и в некоторых случаях проще поменять домен, чем искать способы достучаться до вебмастеров площадок.

Чтобы не попадать под санкции, мои советы очень простые:

при написании текстов и создании структуры сайта уделяйте больше внимания юзабилити, это реально работает; не используйте накрутки, ищите способы получения ссылок с помощью контент-маркетинга.

Если нужен быстрый результат — лучше купить рекламу в поиске или соцсетях. Сэкономите кучу времени и сил.

Если уже попали под санкции, то нужно чиститься, других советов дать сложно.

Дмитрий Севальнев ,
евангелист проекта «Пиксель Тулс»

Наиболее частыми фильтрами, с которыми SEO-специалисты сталкиваются каждый день, всё так же остаются (судя по всему, эти алгоритмы периодически обновляются), определенные аналоги есть и в Google.

В 2018 году можно отметить и хостовый фильтр, который понижает позиции сайтов в Яндексе «За рекламу, которая вводит в заблуждение» и мимикрирует под элементы интерфейса. «Так уж оказалось», что туда попали многие блоки рекламы Google Ads на КМС, а их замена на близкие по типу от Яндекс.Директ приводила к снятию санкций. Алгоритм затронул довольно много сайтов в информационной тематике и в CPA-сегменте.

Фильтр аффилированности - да, так же встречается, Яндекс специально или чисто случайно «поломал» 3 разных способа определения аффилированности для двух доменов, которые мы использовали в «Пиксель Тулс». Сейчас пришлось оставить инструмент только в скрытых.

«Баден-Баден» и «Минусинск» - чуть-чуть встречались в начале года, но сейчас массовых обновлений не замечено.

«Санкции за накрутку ПФ» - имеют локальные прецеденты, направленные на подавление роста ряда сервисов, которые предлагают такие услуги. Число запросов на снятие данного фильтра так же сократилось на пару порядков.

,
основатель агентства REMARKA

Никакие. Мы стараемся обходиться в работе без них. Если, конечно, не считать фильтром переспам – это скорее рабочий момент, чем фильтр.

С переспамом бороться и просто, и сложно. Просто – когда клиент приходит с очевидно спамными текстами. Тогда надо просто переписать их или убрать. Другое дело, когда ты настолько приблизился в своей работе к грани, когда еще немного и переспам, плюс ощутимо колеблется граница спамности по топу, в эти моменты бывает трудно нащупать тот самый момент, когда надо остановиться. Или наоборот, сколько вхождений снять, сколько воды отжать, сколько ссылок с анкорами убрать, чтобы позиции прибавили еще 2-3 пункта.

Обычно клиент приходит с каким-то фильтром, и мы его снимаем. Давно уже не видели клиентов с фильтром за накрутку ПФ. Да и Минусинск последний приходил тоже давненько. Вот с ББ были. И, конечно, в портфеле есть достаточно клиентов, где трафика по Гуглу не было никогда – там или Панда, или Пингвин, снять которые не получается. А вот новые проекты, которые залетели под эти фильтры, практически не попадаются. Владельцы научились не косячить, делая новые сайты.

Все просто. Делайте сайт сразу хорошо. Тогда и санкций не будет. Если не хватает бюджета на хорошие тексты – просто не ставьте их. Не делайте пустых страниц, которые планируете потом наполнить. Не используйте бесплатные широко распространенные шаблоны – сразу их уникализируйте. Не спамите анкорами ни во внутреннем ссылочном, ни во внешнем.

Если все-таки попали под хостовый фильтр – не переживайте. Работайте так, как будто его нет. И параллельно проводите мероприятия по устранению фильтра. А борьба с переспамом – это часть вашей обычной работы. Границы спамности постоянно гуляют в обе стороны. Так что поможет только регулярная проверка сервисами оценки средней спамности по топу и коррекция текстов и плотности анкоров в ссылочном по итогам этого анализа.

,
SEO-Аналитик в Rush Agency , руководитель направления Зарубежного SEO. Основатель SEO-курсов Rush Academy

Какие фильтры Яндекса и Гугла досаждали больше всего в этом году?

Фильтры Гугла в этом году наши клиенты не получали.

В Яндексе, была буквально пара случаев. Баден-Баден и Минусинск. И оба случая – когда клиент пришёл к нам уже «с багажом». С одним клиентом вышла крайне забавная история: он пришёл к нам буквально сразу после выхода из-под Минусинска, и через пару дней «получил» Баден-Баден на весь хост. Само собой, за такое короткое время никто не успел бы сделать аудит всех текстов на сайте, поэтому пришлось долго и мучительно этот фильтр снимать. А почему мучительно – читайте далее.

Насколько успешно получается с ними бороться, какие меры принимали? В чем были самые большие сложности?

Вывели всех клиентов. Но с тем, про которого я рассказывал в предыдущем пункте, пришлось повозиться. Дело в том, что клиент категорически не хотел полностью удалять тексты, т.к. страницы, на которых они были расположены, занимали неплохие позиции в Гугле. Это самая сложная ситуация — когда тексты, которые перестали нравиться Яндексу, все еще нравятся Гуглу и приносят трафик и заказы. Переписывание текстов – это в любом случае лотерея, играть в которую времени не было. В итоге, после анализа всех текстов и трафика выработали такое решение: наиболее спамные тексты были совсем удалены (трафик из Гугла на них после этого упал на 20-30%), а остальные были заменены на совсем «безобидные» коротенькие текстики «для людей». В итоге фильтр был снят, и вернувшийся трафик из Яндекса с лихвой окупил потерю части Гугла. Но идеального решения такого кейса попросту не существует (если не прибегать к клоакингу), т.к. у Яндекса и Гугла теперь слишком разные взгляды на понятие «релевантный текст», в зависимости от тематики.

Какие фильтры стали менее ощутимы?

В нашей компании клиенты под фильтры в принципе не попадают. Но в целом по рынку, наверное, Минусинск – оптимизаторы учатся безопасно работать со ссылочным.

Есть какие-то ценные, актуальные советы читателям – по профилактике и выходу из-под санкций?

Прежде всего, врага надо знать в лицо. Изучать антиспам-алгоритмы и за что конкретно они «наказывают». Правила игры известны, и по ним надо играть. О Минусинске было объявлено за месяцы до начала «массовых расстрелов» (первые показательные казни не в счет), и всё равно некоторые оптимизаторы (в т.ч. те, кого знаю лично) боялись сразу снимать все покупные ссылки и в итоге получали фильтр. Яндекс, в отличие от Гугла, анонсирует новые фильтры сильно заранее, и даже объясняет, за что они будут накладываться, так пользуйтесь этим.

Лайфхак 1. Советую периодически чекать в системах веб-аналитики не только «общий трафик проекта» а еще и выборку по популярным в поисковиках посадочным страницам, чтобы вовремя заметить, если какие-то из них начинают терять трафик.

Лайфхак 2. Как только пришел новый проект на продвижение, сразу бежим выкачивать из панелей вебмастера Яндекса и Гугла самые трафиковые запросы, хотя бы 1000 штук, и ставить их на отслеживание в сборщике позиций.

,
Ведущий отечественный оптимизатор и аудитор сайтов. Работает с частными и крупнейшими мировыми компаниями. Ведущий SEO блога drmax.su . Автор более 20 книг по продвижению сайтов.

Аня, день добрый. Хочу сразу предупредить, что речь в нашем разговоре пойдет только о Google, ибо Яндекс — не та ПС, на которую стоит ориентироваться, и это происходит по нескольким причинам:

1. Постоянное снижение доли Яндекса на рынке . Если в России это ПС сейчас занимает 40-45% и тренд постоянно нисходящий, то в Белоруссии – 25%-30%, в Казахстане 14%, а на Украине доля Яндекса стремится к нулю. То есть, если ориентироваться на русскоязычных посетителей в мировом масштабе, то Яндекс можно не рассматривать совсем. Однако, если ваши сайты связаны с региональным SEO и с Россией, то кое-какое внимание можно уделять и этой ПС. Итак, налицо стагнирование Яндекса как ПС. Также это усугубляется практически полной коммерциализацией первой страниц органической выдачи.

2. Технологическое отставание Яндекса от Google, минимум на 2-3 года. Постоянно наблюдаю эту игру в догонялки, когда давно внедренные у Google вещи, через несколько лет появляются у Яндекса и выдаются за какое –то ноу-хау. Навскидку – те же LSI стали использовать для оценки в Google в 2011 году, в Яндексе – в прошлом/позапрошлом.

3. Ни один из здравомыслящих оптимизаторов не будет делать ничего для продвижения в Яндексе, если это принесет ущерб позициям в Google. И наоборот. Если вы смогли занять достойные места в Google, с 80% вероятностью вы попадете в ТОПы Яндекса автоматически.

Итак, сегодня стоит рассматривать единственную ПС – Google. Однако, по поводу фильтров, как таковых, говорить сейчас некорректно. Все, так называемые фильтры, стали составной частью поисковой системы. В этом и отличие от классических фильтров – которые были надстройкой на алгоритмами и запускались эпизодически, выкашивая сайты с плохим SEO. Сейчас все это происходит налету. Некачественные сайты имеют меньше шансов даже пробиться в ТОПы. Если ранее по воплям в сообществе, узревшим просадку тысяч сайтов, можно было понять, что ПС выкатили какой-то новый фильтр, сейчас это сделать сложнее, ибо воздействие алгоритмов на плохие сайты равномерно размазано и осуществляется постоянно.

Так что, Аня, давай говорить не о фильтрах, а о значимых изменениях алгоритма поисковой системы.

Чтобы понять, какие изменения ядра ПС оказали наибольшее влияние, я подготовил небольшую ретроспективу произошедшего в Google за 2018 год.

Январь – произошло 2 обновления алгоритма Google, связанные с оценкой качества страниц

Февраль – обновление по выводу изображений в Google (опять можно собирать трафик из Google картинок). Также было одно обновление алгоритма, связанное с качеством контента.

Март — пять обновлений алгоритма, связанных с оценкой качества контента.

Апрель — обновление, связанное с E-A-T (по сути, то же самое качество), далее несколько технических апдейтов и крупное обновление ядра алгоритма, опять-таки связанное с качеством контента.

Май – три обновления алгоритма, связанных с качеством контента, и одно обновление, пессимизирующие некачественное ссылочное и PBN.

Июнь – три обновления алгоритма, связанных с качеством, далее мощная волна ручного бана PBN сеток (выполнена асессорами), видимо связанная с недостаточно четко отработавшим майским алгоритмом автоматического бана PBN.

Июль — начало перехода на Mobile First Index. В конце месяца – развертывание алгоритма, где скорость доступа к странице является фактором ранжирования. Кроме того, в течение месяца 3 изменения в алгоритме, напрямую связанные с качеством контента.

Август – критическое обновление алгоритма, связанное с E-A-T для YMYL сайтов (по сути – пессимизация некачественных сайтов). Далее – продолжается перенос сайтов на Mobile First Index. После этого опять обновление алгоритма, касающееся качества фарма (медицинских) сайтов.

Следовательно, было два важнейших обновления ядра алгоритма Google – это развертывание фактора скорости и развертывание Mobile First Index. Как к этому подготовиться я тщательно расписывал в моей книге SEO Гуру 2018 , которая была выпущена весной. Ряд материалов есть на сайте drmax.su.

Соответственно, сайты, не подготовившиеся к внедрению Mobile First Index проседают в мобильной выдаче (а это, на сегодняшний день – более 60% посетителей), но более-менее держатся в десктопной. С некоторым допущением это можно назвать воздействием фильтра.

Развертывание Mobile First Index пока еще продолжается, и еще не все сайты ощутили на себе его «благотворное» влияние. Кстати, сайты, изобилующие Java скриптами и/или Flash вставками, могут испытывать затруднения при переходе к Mobile First Index. Это доложил Джон Мюллер – специалист по качеству поиска Google. Из-за наличия такого контента Google может не перевести их на новое индексирование.

Третьим важнейшим трендом развития ПС Google стала борьба за качество контента. Это подтверждается десятками крупных и мелких изменений алгоритма, позволяющих улучшить качество выдачи. При этом работа над качеством органической выдачи ведется планомерно, в течении многих лет. Свидетельство этому — периодический выпуск руководств по оценке качества для асессоров. В июле этого года вышла уже четвертая (или пятая) версия, и каждый желающий с требованиями к качеству сайта. Там же есть сотни примеров, как оценивать это качество, и почему те или иные сайты попадают в ТОПы, а другие сидят на задворках, несмотря на все вложения в линкбилдинг, контент и прочие средства манипуляции выдачей.

А Яндекс зато нарисовал новую пузомерку качества Икс. Молодцы!

Далее, в этом году в очередной раз пострадали так называемые PBN-сети (тупая аббревиатура, мы всегда их называли сайтами на дропах, на протяжении лет 15). Собственно, все разумные люди отказались от таких сеток еще в 2013-2014 году и вот с чем это было связано.

Расцвет сетей, собранных на дропах был в 2000-х годах. О да, тогда это было круто. Сетками выталкивали в ТОПы, с них продавали ссылки. Захапав себе дроп попиаристей, можно было продать с десяток ссылок с морды по паре штук баксов в год каждая.

Под это дело мы с тов sNOa написали мега софт по перехвату дропов, по автоматическому их восстановлению и наполнению из вебархивов и т.д. К 2009 году у нас уже была сетка под сотню таких сайтов (причем практически не линкованная, раскиданная по десяткам серверов). Собственно об этом методе можно почитать в моих старых руководствах и книгах, датированных 2010 и 2011 годами.

А потом пришел 2012 год с его Пингвином и народ (из тех что поразумней) поубирали ссылки из таких сеток. А потом пришел 2013 – 2014 год, когда PR был заморожен, и содержать сетку дропов стало уже совсем бессмысленно.

Так что все эти PBN сетки на сегодняшний день – полная ерунда и анахронизм, заниматься ими можно только от скудоумия, ибо все равно и сами сети и их клиенты легко вычисляются и в обязательном порядке пессимизируются.

В завершении могу сказать: боритесь за качество сайтов. Почитайте инструкцию для ассесоров по качеству, выполните технический аудит сайта (обязательная составляющая качества), проверьте мобильную версию сайта и готовность к переходу на Mobile First Index, наполняйте сайты качественным, экспертного уровня контентом, стройте ссылки по уму и забудьте о фильтрах.

Всех благ.

Пишите комментарии, задавайте вопросы экспертам!

Все мои проекты, кроме этого SEO-блога:

ТОП База - качественная база для полуавтоматической регистрации с Allsubmitter или для полностью ручного размещения - для самостоятельного бесплатного продвижения любого сайта, привлечения целевых посетителей на сайт, поднятия продаж, естественного разбавления ссылочного профиля. Базу собираю и обновляю 10 лет. Есть все виды сайтов, все тематики и регионы.

SEO-Topshop - SEO-софт со СКИДКАМИ, по выгодным условиям, новости SEO-сервисов, баз, руководств. Включая Xrumer по самым выгодным условиям и с бесплатным обучением, Zennoposter, Zebroid и разные другие.

Мои бесплатные комплексные курсы по SEO - 20 подробных уроков в формате PDF.
- каталоги сайтов, статей, пресс-релизовые сайты, доски объявлений, каталоги фирм, форумы, соцсети, блоговые системы и прочее.

"Приближаясь.." - мой блог на тему саморазвития, психологии, отношений, личной эффективности

Есть достаточное количество причин, по которым сайт может попасть под . Это, к примеру, агрессивная реклама на сайте, переоптимизация контента или низкое качество ресурса в целом. Но это еще не весь список. Как определить, что Ваш сайт находится под фильтрами, рассмотрим далее.

Появление новых алгоритмов поисковых систем в большинстве случаев просто пугает веб-мастеров. Так, например, Ваш сайт может агрессивно восприниматься поисковыми системами, если:

  • имеется контент замаскированный под гостевой спам;
  • большое количество сео-анкоров;
  • неуникальный контент;
  • есть спамные рассылки в блоках и комментариях;
  • есть скрытые от пользователей ссылки и другое.

В случае попадания ресурса под санкции поисковика, могут быть полностью утеряны позиции сайта в системе, а это означает, что вся работа, которая проводилась до этого попросту будет утрачена. Согласитесь, что такой судьбы для своего онлайн-проекта не желает ни один веб-мастер.

Как распознать, что Ваш сайт находится под фильтром поисковых систем?

О некоторых наложенных фильтрах поисковая система сообщает официально в разделе Google Webmaster Tools. Эти сообщения означают, что к Вашему сайту были приняты меры, из-за возможных нарушений:

  • наличие исскуственных ссылок на Ваш онлайн-проект;
  • присутствуют исскуственные ссылки на Вашем сайте;
  • Ваш ресурс взломан;
  • спам и спам от пользователей;
  • скрытая переадресация;
  • избыточное количество ключевиков или скрытый текст на сайте;
  • бесплатный хостинг, который распростаняет спам.

Но какие сайты “любит” Гугл? Подробнее рассмотрено ь .

Рассмотрим каждый из фильтров и то, как выйти из под его действия.

Фильтр “Песочница”.

Этот фильтр накладывается на молодые сайты до 1 года. В данный период поисковая система следит за тем, как ведет себя сайт. Проверить наличие фильтра легко – сайт отсутствует в индексе. Попадание “песочницу” может произойти из-за быстрого наращивания ссылочной масы, это кажется Google очень подозрительным и он налаживает санкции на молодой ресурс, ведь подобное поведение расценивается как спам.

Для того, чтобы не попасть под данный фильтр, закупать ссылки нужно очень осторожно, ни в коем случае не допускать “ссылочного взрыва” и наполнять сайт уникальным полезным контентом. Акуратно выбирайте доноров сайта, чтобы не допустить попадания в “песочницу”.

Фильтр Domain name age (возраст домена).

Этот фильтр также налаживается на молодые сайты, которым меньше года. Но ограничения снимаются, когда домен сайта достигает определенного уровня траста. Чтобы избежать фильтра, можно купить старый домен с положительной историей или же закупать трастовые ссылки, но очень акуратно.

Фильтр “Too many links at once” (много ссылок сразу).

Когда налаживается данный фильтр, веб-мастер замечает резкое падения трафика с Гугл, а внешние ссылки на ресурс уже не имеют никакого веса. Это случается из-за резкого ссылочного взрыва, поисковая система считает это неестественным и применяет санкции к сайту.

Если Ваш сайт попал под данный фильтр, то Вам следует значительно снизить наращивание ссылок, а те, что уже есть, не нужно трогать. Через 1-3 месяца фильтр будет снят.

Фильтр “Бомбежка”.

Наказанию подвергается не весь сайт, а отдельные его страницы, которые поисковик воспринял как спамные. Причина: фильтр наказывает сайт, на который ведут много внешних ссылок с одинаковым анкором или текстом. Поисковая система считает это не натуральным. Для того, чтобы избавиться от этого, необходимо или удалить все ссылки или поменять анкоры, а далее просто ждать результата.

Этот фильтр накладывается на сайты, которые имеют много страниц с 404 ошибкой. Эти ссылки раздражают не только посетителей сайта, но и поисковую систему, которая не может проиндексировать данную страницу. Поэтому удаляйте битые ссылки, чтобы не попасть под фильтр.

Фильтр “Links”.

Ранее между веб-мастерами было популярно обмениваться ссылками, но сегодня Гугл наказывает за такие обмены. Поэтому ставьте не более 4 ссылок на сайты-партнеров, а если все-таки попали под фильтров, то подобные ссылки необходимо убрать с сайта немедленно.

Фильтр “Page load time” (время загрузки страницы).

Google не любит сайты, которые имеют низкую скорость загрузки сайта. Поэтому он может понизить ресурс в выдаче именно по этой причине. Рекомендовано, чтобы скорость загрузки сайта не превышала 7 секунд, чем быстрее – тем лучше. Это параметр можно проверить с помощью специального сервиса – PageSpeed.

Фильтр “Omitted results” (опущенные результаты).

Действие этого фильтра определяется, когда Ваш сайт отсутствует в результатах основного поиска. Его можно увидеть только когда в поиска открыть скрытые результаты. Данный фильтр налаживается на сайт за дубли и слабую перелинковку страниц.

Если ресурс уже под действием фильтра, необходимо переписать контент сделав его уникальным и улучшить внутреннюю перелинковку.

Фильтр “-30”.

Данный метод санкций был создан для борьбы с “черным сео”. Если фильтр наложен, позиции сайта понижаются на -30. За что наказывает фильтр: скрытый редирект, клоакинг, дорвеи. Если причины устранены, фильтр прекращает свое действие.

Фильтр “Переоптимизация”.

Сайт может понизится в выдаче или полностью исключиться с индекса. Все это действие данного фильтра. Он может быть наложен из-за чрезмерной оптимизации страниц, например, перебор с количеством ключевых слов, высокий уровень плотности ключевиков, переоптимизация мета-тегов, картинок. Чтобы фильтр прекратил действие на Ваш сайт, необходимо правильно оптимизировать страницы сайта.

Фильтр “Панда”.

Один из самых опасных фильтров. Он охватывает несколько сразу фильтров и для того, чтобы из-под него выйти необходимо много времени и сил. Это фильтр может быть наложен по многим причинам, среди которых: дублирующийся контент, чрезмерная оптимизация, продажа ссылок или агрессивная реклама на сайте, накрутка поведенческих факторов. Для того, чтобы выйти из-под его действия, необходимо проделать целый комплекс действий нацеленных на улучшения сайта. Это может занять достаточно много времени, в некоторых случаях до 1,5 года.

Фильтр “Пингвин”.

Также как и предыдущий фильтр является очень проблемным для владельца сайта. Алгоритм имеет непосредственное отношение к ссылочному продвижению. Санкции могут настигнуть Ваш онлайн-ресурс, если Вы закупаете слишком большое количество ссылок за раз; если эти ссылки имеют один и тот же анкор; если ссылки являются не тематическими или вы производите обмен ссылками. Выйти из-под “Пингвина” очень сложно, этот процесс также является долговременным.

Кстати, более подробно фильтры “Панда” и “Пингвин” описаны в моей статье “ ”.

3401 раз(а) 3 Сегодня просмотрено раз(а)

Фильтры за возраст сайта:

DNA

Фильтр на недавно зарегистрированные домены DNA (Domain Name Age). Накладывается на «молодые» домены. Для того, что б сайт на недавно зарегистрированном домене смог подняться в топе Googl`а, нужно завоевать «доверие» у системы Google. Выход из под фильтра:

  • Просто подождать;
  • Набирать так называемый траст, поставить на себя ссылки со старых тематических сайтов.

Песочница (или по научному SandBox)

Под фильтр песочница попадают молодые сайты. Основная причина заключается в низком доверии поисковика к сайту. От DomainNameAge, SandBox отличается тем, что под него могут попасть сайты на старых доменах, если эти сайты плохо или совсем не обновляются, не обрастают бэклинками и у них низкий уровень посещаемости.

Выход из под фильтра:

  • Наращивание естественных ссылок с тематических сайтов;
  • Развивать проект дальше.

Фильтры Google за манипуляции с внутренними факторами

Google Florida

Фильтр за чрезмерное использование инструментов оптимизации страницы. Один из самых старых фильтров использующий множество параметров для анализа.

Причина наложения фильтра - неправильная (слишком частое употребление «ключевиков» в тексте, чрезмерное выделение ключевых слов тегами и т.д.).

Последствия - сайт существенно теряет позиции в выдаче.

Выход из под фильтра - заменить всю сео-оптимизированную текстовку на хорошо читаемую (сократить плотность вхождений ключевых слов и фраз). Если не помогает, то на страницах попавших под фильтр оставьте только одно прямое вхождение ключа. Вот так выглядел алгоритм Флориды:

Очень страшно и не понятно 🙂 Сейчас этого фильтра как такового нет, он существовал 7 - 5 лет назад, после чего Гугл его прикрыл, поняв его не состоятельность, ведь фильтр накладывался на определённые страницы, а не сайты и по этому оптимизаторы создавали по несколько версий сайта, одна часть переоптимизирована, а другая недооптимизирована, чтоб обмануть алгоритм этого фильтра. Сейчас работает более лояльная модификация этого фильтра, который уже по ювелирному оценивает содержимое страницы.

Google Supplemental Results или просто Сопли

Перенос сайта из основного раздела в дополнительные разделы поиска. Проверить можно таким способом - Посмотреть основную выдачу таким запросам:

site:сайт/& или site:сайт/*

потом посмотреть всю выдачу:

Разница между запросами 2 и 1 будет ровняться количеству страниц находящимися под фильтром.

Выход из под фильтра:

  • Удаление повторяющихся страниц;
  • Уникализация каждой отдельно взятой страницы;
  • Покупка на зафильтрованные страницы трастовых ссылок;
  • Уникализация title и мета-тегов; * - самое главное
  • Написать полностью уникальный контент; * - самое главное
  • Убрать битые ссылки.

У Шакина например половина страниц под соплями и не смотря на это, с Гугла идёт хороший трафик.

Google Omitted Results

Перенесение сайта из основного раздела выдачи в опущенные результаты поиска Налаживается на страницы, которые по своей структуре и содержанию очень схожи со страницами других сайтов или страницами этого же сайта. Может применяться одновременно с фильтром Supplemental Results.

Признаки - сайт отсутствует в основной выдаче, но он находится, после нажатия на ссылку «повторить поиск, включив опущенные результаты». Выглядит это чудо вот так:

Выход из под фильтра:

  • Сделать продвигаемые страницы уникальными(контент, мета-теги);
  • Удалить все дубли.

Google Duplicate Content

Фильтры Google за манипуляции ссылками

Google Bombing

Фильтр за одинаковые анкоры ссылок. Если на ваш сайт ссылается много сайтов и анкоры ссылок везде одинаковые, то сайт попадает под фильтр и бэки начинают передавать вес намного меньше.

Признаки - проседание позиций или застрявание сайта на одних и тех же позициях длительное время, нет результата от увеличения ссылок на ваш сайт.

Методы выхода и защиты:

  • добавить в анкор-лист новых, разбавленных слов.
  • Увеличить количество естественных ссылок (тут, клик и.т.п.)

Google -30

Накладывается за использование клоакинга, редиректов и других методов черной оптимизации. Признаки: падение сайта примерно на 30 позиций.

Методы выхода и защиты:

  • Стараться не использовать чёрные методы продвижения;
  • Если уже попали под фильтр, то скорей всего дальше будет бан.

ReciprocalLinksFilter и LinkFarming Filter

Понижающие фильтры за искусственное наращивание . Накладываются за участие в сетях по обмену ссылками, наличие линкопомоек и покупку ссылок на сайте. При этом у сайта наблюдаются понижение позиций или бан.

Методы выхода и защиты:

  • осторожно работать с покупкой, продажей и размещением ссылок;
  • устранить причины наложения фильтра.

Co-Citation Filter

Фильтр за бэки с сайтов, ссылающихся на “плохие” сайты. В общем если на вас ссылается сайт и в то же время он ссылается на какие-нибудь ГС (запрещенные тематики и т.п.), то это плохо.

Методы выхода и защиты: - старайтесь получать ссылки только с хороших и тематических сайтов.

To Many Links at Once Filter

Фильтр за быстрый прирост бэклинков. Надо во всём соблюдать естественность и набор ссылочной массы тоже должен быть естественным, тем более для молодого сайта.

PS: Очень буду благодарен за ваш ретвит.

UP:08.01.2017

Последние годы основные фильтры у Google стали Панда и . Первый пессимизирует сайты за использование не качественного контент, а второй соответственно, за продвижение с помощью SEO ссылок.

1. Дублированный контент

Сайтов с каждым днем становится больше и больше, их количество страниц растет быстрыми темпами. Множество ресурсов дублируют один и тот же контент у себя на сайтах. На обработку данных необходимы ресурсы и они растут снежным комом.

Следствием этого был запущен фильтр, который накладывается на дублированный контент.

Как работает фильтр:

Если вы на сайте публикуете не уникальную информацию, взятую с других источников, то Google понижает эту статью или страницу в результатах выдачи по .

Варианты действий есть 2:

— ваш сайт попадает в supplemental результаты, то есть результаты не основного индекса

— страницы выпадает из индекса поисковой системы

Как не попасть под фильтр:

При продвижении любого сайта необходимо использовать уникальные текста, и если брать тексты с других ресурсов, то делать их рерайт.

Если же на сайте есть дублированные страницы, например одни и те же страницы описания услуги или товара, то нужно убрать дублирующие, или закрыть их от .

Любыми нормальными способами нужно уникализировать контент на сайте, что бы избежать следствий фильтра за дублированный контент.

2. Песочница или Sandbox

Задача данного фильтра удерживать попадание в топ по высокочастотным запросам, как коммерческим, так и информационным.

Запущен он так же для борьбы со спамом, и сомнительными сайтами. Поэтому срок вывода сайта по самым топовым запросам может быть более 5 месяцев.

Как работает фильтр:

Если молодой только созданный сайт начал продвигаться по конкурентным и высокочастотным запросам, то у него, скорее всего не получиться попасть в топ в первое время.

Фильтр Sandbox не действует на средне и низкочастотные запросы. Поэтому на первое время лучше применять продвижение низкочастотных запросов, и параллельно работать над высокочастотными.

Как не попасть под фильтр:

Для новых сайтов это сложно, но можно найти старый домен по вашей тематике, и тут 2 варианта действий:

— делать сайт на старом домене

— склеить старый домен с новым

Оба вариант нормальные и работают, все зависит от правильности склейки. Так же важно старый домен проверить на обратные ссылки, и посмотреть его историю.

Ко многим тематикам, особенно в Украине он не применим, и можно спокойно продвигать сайты и достигать довольно таки быстрых результатов.

3. Быстрый рост ссылок

Если на сайт происходит слишком быстрый рост ссылок, то поисковая система Гугл может предположить, что ею пытаются манипулировать.

Как работает фильтр:

Если Гугл обнаруживает очень быстрый рост ссылок на сайт, то он может его автоматически понизить в результатах поиска. Следствие такого падение позиций, трафика, и долгое не возвращение сайта в топ.

Как не попасть под фильтр:

Нужно медленно и постепенно наращивать ссылочную массу на сайт, что бы в глазах Google это выглядело максимально естественно.

4. Google Bombing

Когда слишком много прямых вхождений анкора ссылок, Гугл видит, что владелец сайта хочет находиться на первых местах, по словам в топе.

Пример такого анкор листа:

Как мы видим на фото, в анкор листе лишь те ключевые слова, которые владелец сайта хочет быть в топе — продвигаются.
Как работает фильтр:

В случае только с прямым вхождением анкора, рано или поздно Гугл может это заподозрить, следствие чего будет падение позиций. Обычно сначала это -10 – 15 позиций. Потом сайт уходит в -100. Если сильно этим пренебрегать, можно попасть так же и в бан Гугла, это когда все страницы выпадают из индекса поисковой системы.

Как не попасть под фильтр:

Чтобы не попасть под фильтр стоит размещать с сильно разбавленным анкор листом, а так же использовать множество брендовых ключевых слов. Если грамотно разбавлять ссылки, то можно избежать этого фильтра и успешно продвигаться в поиске.

5. – 30

Фильтр – 30 предназначен для борьбы с настоящим спамом в результатах выдачи. Это могут быть сайты со скрытыми редиректами, а так же .

Как работает фильтр:

Он понижает такого плана сайты на – 30. То есть сайт не отображается выше 30-ой позиции в выдаче Google.

Как не попасть под фильтр:

Самый простой способ – не использовать черные методы продвижения сайта, и все будет хорошо.

6. Социтирование

Если вы продвигаете сайт, то обязательно стоит делать так, что бы близкие по тематике ресурсы ссылались на вас. Если же сайт успешно поднимается на первые места, а на него ссылаются сайты не связанные с его тематикой, то в силу может приступить этот фильтр.

Как работает фильтр:

Больше всего он работает, в случае если на ваш сайт будет ссылаться много ссылок с нежелательных тематик, как порнография, азартные игры и прочее.

Как не попасть под фильтр:

7. Переоптимизация

Фильтр был создан для того чтобы понижать сайты, которые сильно переоптимизированы внутри.

Как работает фильтр:

Он учитывает количество ключевых запросов на странице. Если сайт сильно ими оптимизирован, то эти страницы могут выпасть или сильно понизится в результатах поиска. Оптимизация текста сайта должна быть нормальной, иначе есть шанс попасть под фильтр.

Как не попасть под фильтр:

Чтобы не попасть под фильтр за переоптимизацию нужно аккуратно оптимизировать тексты и контент на сайте, не сильно перенасыщать все ключевыми словами, делать оптимизацию для людей в первую очередь, а не только для поисковых систем.

8. Скорость загрузки сайта

Уже давно не секрет, что скорость загрузки сайта влияет на продвижение и позиции.

Как работает фильтр:

Если сайт при переходе из поисковой системы сайт медленно загружается, и это повторяется часто, то Гугл может понизить сайт в результатах поиска.

Как не попасть под фильтр:

Чтобы не попасть под фильтр за скорость загрузки, необходимо размещать сайт на качественных серверах, у надежных провайдеров. Если же проблема загрузки зависит от самой системы управления сайта, то нужно тщательно оптимизировать систему управления, что бы все скрипты быстро работали и загружались. А так же всегда мониторить скорость и доступность сайта.

9. Supplemental Results или дополнительные результаты

Фильтр накладывается на страницы сайта, которые она считает малозначимыми. Например, это могут быть страницы с дублирующимся контентом, а так же на страницы, на которые нет входящих ссылок.

Как работает фильтры:

Такие страницы плохо ранжируются Гуглом, а так же эти результаты можно посмотреть, нажав на посмотреть дополнительные результаты.

Как не попасть под фильтр:

Чтобы не попасть под фильтр, необходимо загнать эти страницы в дополнительный поиск, решения простые:

— убрать дубликаты страниц (или сделать страницы уникальными)

Дополнительные результаты поиска не так страшны, но нужно что бы приоритетные страницы и разделы находились в основных результатах поиска.

В старые времена очень популярным способом продвижения был – обмен ссылками. Создавались отдельные страницы, с которых шли ссылки на сторонние ресурсы. На сторонних ресурсах было так же. Следствие этому позиции сайтов росли.

Как работает фильтр:

Если поисковая система обнаруживает массовый обмен ссылками, то она понижает сайт в результатах поиска.

Как не попасть под фильтр:

Основное: не использовать страницы со ссылками на другие ресурсы. Такое в узких кругах называют линкопомойки.
Если вы уже попали под такой фильтр, то нужно убрать такие страницы, или закрыть их от индексации. Немного подождать и позиции вернуться.




Top