Фильтры поисковой системы Google

Фильтры за возраст сайта:

DNA

Фильтр на недавно зарегистрированные домены DNA (Domain Name Age). Накладывается на «молодые» домены. Для того, что б сайт на недавно зарегистрированном домене смог подняться в топе Googl`а, нужно завоевать «доверие» у системы Google. Выход из под фильтра:

  • Просто подождать;
  • Набирать так называемый траст, поставить на себя ссылки со старых тематических сайтов.

Песочница (или по научному SandBox)

Под фильтр песочница попадают молодые сайты. Основная причина заключается в низком доверии поисковика к сайту. От DomainNameAge, SandBox отличается тем, что под него могут попасть сайты на старых доменах, если эти сайты плохо или совсем не обновляются, не обрастают бэклинками и у них низкий уровень посещаемости.

Выход из под фильтра:

  • Наращивание естественных ссылок с тематических сайтов;
  • Развивать проект дальше.

Фильтры Google за манипуляции с внутренними факторами

Google Florida

Фильтр за чрезмерное использование инструментов оптимизации страницы. Один из самых старых фильтров использующий множество параметров для анализа.

Причина наложения фильтра - неправильная (слишком частое употребление «ключевиков» в тексте, чрезмерное выделение ключевых слов тегами и т.д.).

Последствия - сайт существенно теряет позиции в выдаче.

Выход из под фильтра - заменить всю сео-оптимизированную текстовку на хорошо читаемую (сократить плотность вхождений ключевых слов и фраз). Если не помогает, то на страницах попавших под фильтр оставьте только одно прямое вхождение ключа. Вот так выглядел алгоритм Флориды:

Очень страшно и не понятно 🙂 Сейчас этого фильтра как такового нет, он существовал 7 - 5 лет назад, после чего Гугл его прикрыл, поняв его не состоятельность, ведь фильтр накладывался на определённые страницы, а не сайты и по этому оптимизаторы создавали по несколько версий сайта, одна часть переоптимизирована, а другая недооптимизирована, чтоб обмануть алгоритм этого фильтра. Сейчас работает более лояльная модификация этого фильтра, который уже по ювелирному оценивает содержимое страницы.

Google Supplemental Results или просто Сопли

Перенос сайта из основного раздела в дополнительные разделы поиска. Проверить можно таким способом - Посмотреть основную выдачу таким запросам:

site:сайт/& или site:сайт/*

потом посмотреть всю выдачу:

Разница между запросами 2 и 1 будет ровняться количеству страниц находящимися под фильтром.

Выход из под фильтра:

  • Удаление повторяющихся страниц;
  • Уникализация каждой отдельно взятой страницы;
  • Покупка на зафильтрованные страницы трастовых ссылок;
  • Уникализация title и мета-тегов; * - самое главное
  • Написать полностью уникальный контент; * - самое главное
  • Убрать битые ссылки.

У Шакина например половина страниц под соплями и не смотря на это, с Гугла идёт хороший трафик.

Google Omitted Results

Перенесение сайта из основного раздела выдачи в опущенные результаты поиска Налаживается на страницы, которые по своей структуре и содержанию очень схожи со страницами других сайтов или страницами этого же сайта. Может применяться одновременно с фильтром Supplemental Results.

Признаки - сайт отсутствует в основной выдаче, но он находится, после нажатия на ссылку «повторить поиск, включив опущенные результаты». Выглядит это чудо вот так:

Выход из под фильтра:

  • Сделать продвигаемые страницы уникальными(контент, мета-теги);
  • Удалить все дубли.

Google Duplicate Content

Фильтры Google за манипуляции ссылками

Google Bombing

Фильтр за одинаковые анкоры ссылок. Если на ваш сайт ссылается много сайтов и анкоры ссылок везде одинаковые, то сайт попадает под фильтр и бэки начинают передавать вес намного меньше.

Признаки - проседание позиций или застрявание сайта на одних и тех же позициях длительное время, нет результата от увеличения ссылок на ваш сайт.

Методы выхода и защиты:

  • добавить в анкор-лист новых, разбавленных слов.
  • Увеличить количество естественных ссылок (тут, клик и.т.п.)

Google -30

Накладывается за использование клоакинга, редиректов и других методов черной оптимизации. Признаки: падение сайта примерно на 30 позиций.

Методы выхода и защиты:

  • Стараться не использовать чёрные методы продвижения;
  • Если уже попали под фильтр, то скорей всего дальше будет бан.

ReciprocalLinksFilter и LinkFarming Filter

Понижающие фильтры за искусственное наращивание . Накладываются за участие в сетях по обмену ссылками, наличие линкопомоек и покупку ссылок на сайте. При этом у сайта наблюдаются понижение позиций или бан.

Методы выхода и защиты:

  • осторожно работать с покупкой, продажей и размещением ссылок;
  • устранить причины наложения фильтра.

Co-Citation Filter

Фильтр за бэки с сайтов, ссылающихся на “плохие” сайты. В общем если на вас ссылается сайт и в то же время он ссылается на какие-нибудь ГС (запрещенные тематики и т.п.), то это плохо.

Методы выхода и защиты: - старайтесь получать ссылки только с хороших и тематических сайтов.

To Many Links at Once Filter

Фильтр за быстрый прирост бэклинков. Надо во всём соблюдать естественность и набор ссылочной массы тоже должен быть естественным, тем более для молодого сайта.

PS: Очень буду благодарен за ваш ретвит.

UP:08.01.2017

Последние годы основные фильтры у Google стали Панда и . Первый пессимизирует сайты за использование не качественного контент, а второй соответственно, за продвижение с помощью SEO ссылок.

Хорошего настроения всем читателям — сайт!

Представляю Вашему вниманию основные фильтры Google вместе со способами их ликвидации.

У поисковой системы Google, так же как и у Яндекса, есть ряд фильтров, которые накладываются на Веб-ресурсы оптимизаторов. В целом, фильтры Google и Яндекса основаны на похожих принципах. Однако способы вывода сайта из-под того или иного фильтра все же отличаются.

Итак, приступим. Попробуем разобраться, какие есть фильтры у Гугла и что делать, когда сайт попадает под пессимизицию.

1. Самым распространенным фильтром поисковой машины Google является «Sandbox », так называемая «песочница». Этот фильтр автоматически накладывается на молодые сайты. При этом Веб-ресурс может быть вне индекса до 3 -х месяцев.

Способы вывода из-под фильтра «Sandbox». – нужно связать страницы сайта между собой. Можно осторожно закупать ссылки, но только очень осторожно, чтобы не попасть под другие санкции («Много ссылок сразу»).

При этом нужно очень тщательно выбирать площадки-доноры, обращая внимание на такой показатель, как Trust Rank (степень доверия Google к Интернет-ресурсам). Или же можно просто ждать, когда Гугл самостоятельно посчитает сайт «пригодным».

2. Следующий фильтр Google – это «Domain Name Age » (возраст доменного имени). Данный фильтр может быть наложен на сайты с доменными именами возрастом до 1 года, которые практически не имеют доверия от поисковиков. Гугл плохо начинает такие ресурсы, чем не позволяет искусственно завысить позиции сайта.

Способы вывода из-под фильтра «Domain Name Age». Можно попробовать закупаться ссылками со старых сайтов, трастовых ресурсов. Также можно попробовать сменить домен, на тот, которому уже более 1 года.

3. «Supplementary Results » (вспомогательные результаты). Этот фильтр накладывается, когда на сайте имеются страницы, которые дублируют друг друга. Google просто перемещает такие сайты в отдельную группу «Дополнительные результаты поиска», поэтому на эти страницы пользователи практически никогда и не попадают.

Способы вывода из-под фильтра «Supplementary Results». Нужно либо убрать дублированные страницы, либо размещать на каждой странице уникальный и полезный контент.

4. Фильтр «Bombing » (бомбежка). Как правило, данный фильтр накладывается на сайт из-за большого количества ссылок с других ресурсов с одинаковыми анкорами. Эти ссылки просто не учитываются поисковиком, поэтому позиции сайта не растут.

Способы вывода из-под фильтра «Bombing». Нужно просто убрать часть ссылок с одинаковыми анкорами. Вместо них лучше прикупить ссылки с уникальными анкорами, которые поисковик еще не учитывал ранее.

5. Фильтр «Bowling » (боулинг). Если к привлечению вышеописанных фильтров был причастен в основном сам оптимизатор, то к фильтру «Bowling» зачастую имеют отношение недобросовестные конкуренты, которые воруют контент (), пишут письма с жалобами, накручивают поведенческие факторы, размещают ссылки на забаненных сайтах и т.д. Этот фильтр очень опасен для молодых сайтов, к которым нет особого доверия со стороны поисковика (низкий показатель Trust Rank).

Способы вывода из-под фильтра «Bowling». Выход один – нужно обращаться к специалистам Google с объяснительным письмом, в котором нужно разъяснить всю ситуацию и попробовать доказать свою правоту.

6. Фильтр «Broken Links » (так называемые « »). Накладывается такой фильтр при большом количестве ссылок, которые выдают ошибку 404. При этом ресурс практически всегда теряет свои позиции в поисковой выдаче.

Способы вывода из-под фильтра «Broken Links». Нужно проверить все ссылки на сайте и найти эти самые ссылки с . Обнаружить их можно с помощью ПО Xenu Link Sleuth или же в панели Яндекс. Вебмастер.

7. Фильтр «Too Many Links at once » (фильтр еще называют «много ссылок сразу»). Если за которое время поисковая система обнаруживает очень много ссылок на определенный Веб-ресурс, то, скорее всего, на этот сайт будет наложен фильтр «Too Many Links at once». При этом Google может полностью проигнорировать все купленные ссылки.

Способы вывода из-под фильтра «Too Many Links at once». Нужно начинать постепенно, начиная с минимального числа, постепенно повышая его.

8. Фильтр «Links » (так называемые «линкопомойки»). Если на одной странице сайта очень много исходящих ссылок, то Google обязательно наложит данный фильтр. Кроме того, он просто будет игнорировать все ссылки. Таким образом, не только позиции партнеров не будут расти, сам сайт-донор также может очень сильно потерять свои позиции в поиске Гугла.

Способы вывода из-под фильтра «Links» очень просты. Если на странице более 25 исходящих ссылок, нужно такие страницы просто удалить или скрыть от индексации.

9. Фильтр «Page Load Time » (время загрузки сайта). Этот фильтр накладывается на страницы, очень долго загружающиеся при обращении к ним поискового робота. Сайт просто начинает терять позиции в выдаче.

Способы вывода из-под фильтра «Page Load Time». Нужно избавиться от «тяжелых» элементов сайта, которые перегружают исходный код страниц.

Также можно воспользоваться дополнительными модулями, которые предусмотрены для работы сайта.

10. Фильтр «CO-citation Linking Filter » (социтирование). Этот фильтр применяется, если на Интернет-ресурс ссылается много нетематических сайтов. Google просто снижает позиции таких сайтов.

Способы вывода из-под фильтра «CO-citation Linking Filter». Нужно отыскать такие ссылки, и попросить владельцев сайтов их удалить. При этом нужно только с тематических ресурсов.

11. Фильтр «Omitted Results » (опущенные результаты). Если на сайте неуникальный контент, встречаются дублированные страницы, малое количество исходящих ссылок и слабая перелинковка, то сайт с большой долей вероятности может попасть под данный фильтр. Такие страницы будут присутствовать только в выдаче расширенного поиска.

Способы вывода из-под фильтра «Omitted Results». Нужно удалить «дубли», осуществить , залить на сайт уникальный контент и купить ссылок с тематических ресурсов.

12. Фильтр «-30 ». Такие санкции накладываются на сайт при наличии скрытых редиректов, дорвеев (сайтов, направляющих на данный сайт) и клоакинга. Название фильтра о многом говорит: сайт понижается в поисковой выдаче на 30 позиций.

Способы вывода из-под фильтра «-30». Нужно попытаться устранить все эти сайты, которые предоставляют поисковой системе разную неправдивую информацию.

13. Фильтр «Duplicate Content » (дублированный контент). Естественно, этот фильтр накладывается за неуникальный контент. Такие страницы сайта пессимизируются Гуглом или же просто удаются из выдачи.

Способы вывода из-под фильтра «Duplicate Content». Размещать на сайте нужно только . С помощью различных скриптов можно попробовать защитить его от воровства, хотя и этот метод не всегда помогает.

14. Фильтр «Over Optimizzation » (чрезмерная оптимизация). Фильтр накладывается, когда сайт перенасыщен ключевыми словами. Такие страницы удаляются из выдачи или попадают под жесткую пессимизацию.

Способы вывода из-под фильтра «Over Optimizzation». Нужно сделать так, чтобы на страницах не превышала 5 -7 %.

15. Фильтр «Panda » (панда). Как правило, данный фильтр накладывается на Веб-ресурсы за некачественный контент: низкую уникальность текста, присутствие нерелевантной рекламы, большого количества ключевых слов, дублированных страниц и т.д.

Способы вывода из-под фильтра «Panda». Нужно удалить часть ненужных ссылок, добавить на сайт уникальный контент, удалить нерелевантную рекламу и «дубли».

16. Фильтр «Penguin » (пингвин). Если на сайте плотность ключевых слов превышает отметку в 7 %, имеется точное вхождение ключевых слов в анкорах ссылок, имеются скрытые ссылки и дублированные страницы, а также наблюдается высокий темп роста наращивания ссылочной массы, то такой фильтр просто неизбежен.

Способы вывода из-под фильтра «Penguin». Нужно убрать часть ключевых слов, разбавить анкоры синонимами, удалить скрытые ссылки и «дубли», и, в общем, поработать над «естественностью сайта».

Но не стоит забывать, что поисковые системы регулярно обновляют свои фильтры, а также добавляют новые. Нужно следить за обновлениями, хотя сами поисковые системы не так и активно о них сообщают.
На сегодня это всё.

Если Вам известны другие фильтры Google, обязательно сообщите, я дополню ими существующий список.

До новых статей…

С уважением, Денис Черников!

Сайт или нет, я подготовил эту статью, которая посвящена фильтрам Google.

Буржуйский поисковик более привередливый, он отлично развит, имеет мощные алгоритмы, которые с высокой точностью определяют качество сайтов и принимают решение, отправлять ли ресурс под фильтр. Фильтров здесь очень много, гораздо больше, чем в яндексе, но мы все рассматривать не будем – только самые распространенные.

Проблема работы с гуглом заключается в том, что тут писать в тех. поддержку нет смысла, т.к. гугл – система автоматизированная, самостоятельно вводящая и выводящая из-под фильтра, и рассматривать каждый отдельный случай вручную вряд ли кто будет. Именно поэтому старайтесь ни при каких ситуациях не попадать в фильтр Гугла – от туда можно вообще никогда не выбраться.

Фильтр «песочница»

Очень знаменитый фильтр, существование которого представители гугла отрицают. Фильтр накладывается на практически все молодые сайты (сайты с малым возрастом) и со временем автоматически снимается, если сайт развивается. Причины попадания в него: малый возраст домена и самого сайта, малый возраст контента, редкая обновляемость контента, низкий траст сайта. В принципе бояться данного фильтра не стоит, нужно стараться выбраться из под него как можно быстрее.

Определяется данный фильтр очень просто: проверьте позиции вашего сайта. Если по запросам положение сайта в выдаче очень плохое, а по и сайт вообще не присутсвует в ТОП-100, высока вероятность, что сайт под фильтром (но при условиях, что у сайта есть причины попасть в песочницу).

Чтобы поскорее выйти оттуда, попробуйте : купите пару ссылок с трастовых сайтов, и через какое-то время доверие поисковика к вашему детищу возрастет. Также старайтесь добавлять как можно больше нового материала на сайт, работайте над повышением посещаемости с социальных сетей и других сайтов. Чем быстрее растут характеристики сайта, тем скорее гугл выведет его из под песочницы.

Фильтр «Supplemental Results»

По-другому этот фильтр еще называют «Сопли» (произошло от Supple). Данный фильтр может быть на ложен не на весь сайт в целом, а на его отдельные страницы.

У гугла существует два индекса: основной и дополнительный (Supplemental results). Основной доступен в выдаче, а вспомогательный в выдаче не показывается (может быть показан лишь при желании пользователя). Разумеется, если страницы попали в дополнительный индекс, то трафик с гугла резко упадет.

Причины попадания страниц под «Сопли» следующие:

  • шаблонный дизайн;
  • неуникальный текст;
  • дублирующийся контент.

Чаще всего, под фильтр попадают неважные страницы сайта (рубрик, меток, поиска и т.д.), поэтому сильно бояться его не стоит.

Определить, сколько страниц в , можно так:

  1. Введите в гугле запрос «site:http://сайт /&», заменив в нем домен на свой, и посмотрите, сколько страниц найдется. Эти страницы в основном индексе.
  2. Откройте карту сайта и посмотрите, сколько всего разрешенных к индексации страниц у сайта. Можно определить общее количество страниц любым другим известным способом.
  3. Вычтите из общего количества страниц те, что в основном индексе, и вы получите количество документов в дополнительном индексе.

Например, у блога сайт всего разрешено к индексации около 450 страниц, а в индексе 388. Значит под фильтром 62 страницы.

Фильтр «Флорида»

Сюда попадают сайты, владельцы которых занимаются черной и излишней оптимизацией своих ресурсов. Другими словами фильтр «Флорида» — наказание за переоптимизацию веб-сайта, куда можно отнести:

  • чрезмерное употребление поисковых запросов в мета-тегах;
  • высокая , большой процент вхождений ключей;
  • излишняя оптимизация картинок.

Проверить, попал ли ваш сайт под данный фильтр, очень сложно. Попробуйте сопоставить факты:

  • использовалась ли излишняя оптимизация, переоптимизация;
  • резко упал трафик с гугла;
  • сайт остался в индексе, но позиции выпали из ТОП-100.

Очевидно, что для исправления ситуации вам придется удалить все фрагменты переоптимизации. Через какое-то время позиции сайта восстановятся, но, скорее всего, они будут хуже, чем в первоначальном случае.

Фильтр «минус 30»

Получил название из-за того, что при попадании сайта под данный фильтр, его позиции падают на 20-40 пунктов. Как правило, причинами попадания под него становится использование злостных методов оптимизации, связанных к перенаправлению посетителей с одного сайта на другой: это клоакинг и дорвеинг.

Очевидно, что сайт будте под фильтром «-30», если:

  • использовались редиректы (клоакинг, дорвеинг);
  • позиции сайта упали в среднем на 30 пунктов.

Выбраться из под «-30» практически невозможно. Более того, в дальнейшем сайт вообще может быть забанен.

Фильтр за покупку ссылок

Можно попасть под него в тех случаях, когда вы покупаете слишком большое количество ссылок за короткое время. Т.е. в принципе покупать ссылки можно, но в разумном количестве. Если же прирост внешних ссылок будет слишком большим, то вы нарветесь на фильтр Гугла.

Определение попадания под фильтр сводится к следующему:

  • недавно было закуплено большое число ссылок;
  • позиции сайта вылетели за ТОП-100.

Если попали под фильтр, то ничего не делайте! Не пытайтесь резко убрать все купленные ссылки – это лишь подтверждение для гугла, что вы злоупотребили покупкой ссылок. Лучше всего в такой ситуации просто ждать – через несколько месяцев позиции сайта восстановятся.

Еще советую вам посмотреть интересное видео про анализ конкурентов на блоге SeoProfy.net Ведь, нужно следить не только за своим сайтом, но также анализировать методы продвижения конкурентов.

Приветствую всех посетителей моего блога!

Сегодня исполняю то, что обещал. Недавно я написал статью и о том, как не попасть под действие того или иного фильтра. В той статье я обещал вам написать немного позже по той же теме, но про поисковик от Google.

Сегодня как раз подходящее время. Поэтому в этой разберем, какие санкции накладывает Google на веб-ресурсы и как не стать жертвой этих злобных фильтров.

Дело в том, что многие задаются одними и теми же вопросами. Почему так медленно развивается, и посещаемость остается на том же уровне? Я же пишу новые довольно таки часто, а результатов все нет и нет. Да, бывает и такое, ребята, причем довольно часто.

Самое опасное заключается в том, что вы сами можете не осознавать, что у вас с блогом небольшие проблемы! И со временем может случиться так, что эти проблемы перерастут из небольших в очень весомые и серьезные. И вот тогда уже точно беда! Поэтому, чтобы исключить некоторые из этих неприятностей я решил написать статью про фильтры и санкции поисковой системы Google.

Хочу отметить то, что поисковая система Яндекс более лояльна к различным недочетам и . А вот Google в большинстве своем не жалеет никакие веб-ресурсы и строго наказывает их за несоблюдение рекомендаций по созданию и продвижению сайтов.Вам не помешает узнать подробно про эти рекомендации.

Итак, сегодня в этой статье я буду говорить о фильтрах и санкциях поисковика Google.

В принципе, если вы читали мою предыдущую статью про Яндекс и его фильтры, то вам будет проще понять эту тему. Если сказать в общем, про наказания этих поисковых систем, то у них схожие требования ко всем веб-ресурсам в Интернете: создавайте полезные сайты и блоги для людей и наполняйте их уникальным контентом, который будет основным поисковым запросам пользователей. И в этом случае ваш ресурс не попадет под действие санкций и фильтров.

Однако не стоит забывать, что Google более придирчив и строг в вопросах, касающихся технической стороны по сравнению с другими поисковиками.

С момента создания своего блога и до настоящего времени при я выявил очень большое количество разных технических ошибок.

И, самое коварное заключается в том, что эти ошибки не заметны невооруженным глазом. Их можно определить только при более тщательном осмотре. А вот отлично видны все недочеты с момента создания вашего блога.

И хочу отметить, что данная ситуация отражена почти на всех блогах. 90% блогов выглядят подобным образом в глазах поисковых роботов. Вообще, если вы установили и начали заливать контент на блог, то этого более чем достаточно для того, чтобы поисковые системы обратили свое внимание на Ваш веб-ресурс.

Да и мы все тоже хотим заслуженного внимания в виде увеличения показателей своего веб-ресурса и постепенного увеличения количества посетителей. Однако поисковые системы придерживаются своего мнения насчет этого, а также используют свои методы воздействия для исправления вебмастером всех недочетов и ошибок на его сайте или блоге. И зачастую этот поисковик безжалостен к таким ресурсам и может их строго наказать.

Нужно ли вам такое внимание? Мне кажется, нет. И вот в чем кроется проблема. Зачастую эти ошибки появляются с первого дня жизни сайта или блога. Это в основном связано с системой (появлением дублей страниц или дублированных картинок), создание блога с помощью бесплатного , а также наличие всевозможных скрытых и битых ссылок, присутствие ошибок в коде, и другие недочеты, которых пруд пруди.

Ну, а внешне все смотрится отлично-просто превосходный блог. Единственное что огорчает — посещаемость который год остается на том же месте и не растет…

Но, не стоит огорчаться и грустить. Все эти недочеты и ошибки можно исправить!

Только делать это нужно очень осторожно, иначе можете наломать дров, и это приведет к непредвиденным последствиям – различным фильтрам и санкциям со стороны поисковых систем. В этом вы уже не сможете обвинить шаблон или , потому что виноваты вы сами!

Поэтому нужно всегда помнить, что поисковые системы могут наказать ваш блог как за бездействие, так и за неправильные действия.

Санкции и фильтры от Google

Ну, а теперь расскажу подробнее про каждый фильтр.

Фильтр от Google «Песочница» (Sand Box) .

Все веб-ресурсы, которые появились недавно на просторах Интернет, оказываются под действием этого фильтра.

Но не стоит страшиться этого факта, ребята. Это просто прописано в алгоритмах поисковика. Все новые сайты и блоги не способны создавать конкуренцию другим возрастным веб-ресурсам по в результатах выдачи.

Новоиспеченному молодому блогу выделяется время на становление в пределах от 3-х месяцев до одного года. В течение этого времени вы обязаны продемонстрировать поисковой системе то, что вы настроены решительно, должны досконально поработать над своим ресурсом, и навести на нем полный порядок исходя их обязательных рекомендаций.

И еще, чтобы вы знали, вместе с этим фильтром (песочницей) для ресурсах, созданных на новом домене, существует фильтр на «возраст домена». Эти веб-ресурсы достаточно медленно индексируются, а также им в меньшей степени доверяет поисковая система.

Им нужно будет хорошо постараться для того, чтобы это доверие появилось. Развивайте свой блог правильно, чтобы это произошло как можно быстрее!

Фильтр от Google «Пингвин» (Penguin) .

Это более серьезный фильтр от данного поисковика. В то время, когда он появился, достаточно большое количество веб-ресурсов просто напросто исчезли из результатов поисковой выдачи.

Этим фильтром наказываются сайты и блоги за спам. Первичная цель его создания очистка результатов выдачи от веб-ресурсов, которые оказались там незаслуженно.

Поэтому не нужно увлекаться спамом при оптимизации своих статей. Все должно быть в меру. И тогда вы не попадете под этот фильтр.

Фильтр от Google «Панда» (Panda) .

Очень жестокий фильтр, который вешается на ресурсы с некачественным контентом, а также сайты с различной в больших объемах, не соответствующей его общей . А также за переспам ключевыми запросами и дублированный контент.

Вот так Google разводит целый «зоопарк» для контроля над всеми веб-ресурсами.

Фильтр от Google «Дополнительные результаты» (Supplementary Results) .

Данный фильтр схлопочет ваш блог в том случае, если вы в срочном порядке не решите проблему дублей страниц и другого ненужного хлама на своем блоге.

Что примечательно, данный фильтр начинает действовать, если на вашем блоге имеется неуникальный контент. И если вы пишете статьи с уникальностью от 95 до 100 %, и у вас при этом имеются дубли этих страниц, то вы просто тратите свое время впустую. Уберите дубли и ваш блог начнет развиваться с новой силой.

Для того чтобы проверить есть ли у вас дубли страниц, достаточно ввести в строке поиска Google вот это:

Если вы увидели внизу строку «скрытые результаты поиска», то у вас проблемы с дублями страниц. Кликните по этой строчке. Какое количество страниц прописано вверху? 500? 1000? Вы написали столько статей на своем блоге? Если да, то это похвально, а вот если нет, то у вашего блога серьезные неприятности! Решайте эту проблему как можно скорее!

У меня тоже были проблемы с дублями страниц при выводе древовидных комментариев, и моя проблемная ситуация постепенно решается. А всё потому, что я устранил источник этой заразы. Вы тоже учтите, что на удаление из индекса Google этих дублированных страниц потребуется время, и причем немалое.

Ну, а я тоже скоро напишу статью про удаление дублированного контента на своем блоге и продемонстрирую вам свои результаты в этом направлении, чтобы не быть голословным.

Фильтр от Google «Минус тридцать» (-30) .

Данный фильтр награждает вебмастеров, которые используют «темное SEO». Он понижает на 30 пунктов в результатах выдачи и предупреждает о том, что будет хуже, если вебмастер будет продолжать в том же духе.

Проще говоря, не нужно обманывать поисковые системы, если не знаете, как это нужно делать правильно.

Фильтр от Google «Бомбёжка» (Bombing) .

Этот фильтр присваивается за то, что позиции блога по какому-либо поисковому запросу остановились.

В основном это получается из-за в большом количестве с применением одного и того же . В итоге получается большое число ссылающихся сайтов-доноров с одним анкором. Необходимо обязательно разбавлять свой анкор-лист, а не использовать один и тот же. Это грубейшая ошибка. Да вы и сами понимаете, что это выглядит вообще .

Фильтр от Google «Флорида» (Florida) .

Данный фильтр применяется к веб-ресурсам за неправильное продвижение своего ресурса, а точнее за пере оптимизацию (пере спам) ключевыми запросами в теле статей, в тегах -H6 и Title.

Еще раз это говорит о том, что во всем нужно знать меру. Оптимизируйте на здоровье, но не увлекайтесь. Не забывайте о том, что вы пишете статьи, прежде всего для людей, а уже потом для поисковых роботов.

Фильтр от Google «Неуникальный контент» (Duplicate Content) .

Этот фильтр применяется к сайтам и блогам, которые имеют неуникальный контент.

Поэтому не нужно с других ресурсов. За это вас по голове не погладят, только накажут, и стыдно потом будет. Если не умеете писать, то покупайте копирайт или рерайт. И тогда все у вас будет хорошо.

Этот фильтр, я думаю, вам понятен. Ясно, что он применятся к сайтам и блогам, на которых есть битые ссылки. Что такое битые ссылки, как их вычислить и избавиться от их присутствия, читайте в моей статье . Проверяйте время от времени свой блог на наличие этих ссылок, и будет вам счастье!

Этот фильтр придет к вам, если страниц вашего блога очень медленная. Поэтому повышайте скорость загрузки блога. Читайте мою статью и применяйте на практике. Там все подробно расписано.

Фильтр от Google «Искусственная ссылочная масса» (Reciprocal Links Filter и Link Farming Filter) .

Этот фильтр накладывается за искусственное наращивание , а также заспамленность блога мусорными ссылками и если вы бездумно и продаете ссылки.

Если вы участвуете в автоматизированных системах обмена ссылками, то вы тоже в зоне риска. Все это не есть гуд, ребята. Избавляйтесь от этого дерьма!

Фильтр от Google «Цитирование» (Co-citation Linking Filter) .

Смысл этого фильтра заключается в бездумном проставлении ссылок со своего веб-ресурса на сомнительные или подозрительные сайты и блоги. Друзья, проставляйте ссылки только на проверенные ресурсы! Не захламляйте свой блог. Если вы будите ссылаться на некачественные ресурсы, то Google и ваш блог примет за низкокачественный. Старайтесь фильтровать то, что рекомендуете своим посетителям.

Фильтр от Google «Быстрый прирост контента» (Filter Quick Simple Content) .

Он применяется к ресурсам, которые очень часто обновляются.

Этот факт очень подозрителен и намекает на автоматическую генерацию контента. Опять же повторюсь, найдите золотую середину. Ребята, будьте естественнее. Вы же не робот. Робот имеется в наличии только у поисковой системы.

Ну, вот я и описал, как обещал, все основные фильтры поисковой системы Google. Мне кажется, вы поняли, что если соблюдать эти рекомендации, то можно избежать серьезных проблем в процессе создания и продвижения своего блога. И не придется причитать потом, что Google и Яндекс вас и не любит и поэтому жизнь не имеет смысла.

Не нужно бегать с бубном возле ноутбука и вызывать дух всемогущего Google в надежде на снисхождение и увеличение посещаемости вашего детища. Нужно просто соблюдать эти истины и все.

Итак, еще раз об основных тонкостях:

— создавайте СДЛ (сайт для людей);

не тащите чужие тексты из чужих статей (друзья, это позорно и тупо. Вас поймают и навешают люлей!);

обращайте внимание на техническую сторону вопроса (скорость загрузки блога, правильный без мусора, битые ссылки и скрытые ссылки, и другой ненужный хлам);

продвигайте свой блог постепенно , шаг за шагом, не гонитесь за быстрыми результатами — они обманчивы;

мотивируйте посетителей осуществлять какие-либо действия на вашем блоге для улучшения поведенческих факторов.

Если вы еще не добавили свой блог в Google вебмастер , то прямо сейчас сделайте это. Это отличная подсказка, в которой отражены многие ошибки, имеющиеся на блоге. Он вам отлично поможет в продвижении.

Ну, а я в свою очередь хочу попрощаться с вами. Надеюсь, вам понравилась эта статья, и вы многое узнали для себя. Жду ваших комментариев. До встречи в моих новых материалах! Пока.

1. Дублированный контент

Сайтов с каждым днем становится больше и больше, их количество страниц растет быстрыми темпами. Множество ресурсов дублируют один и тот же контент у себя на сайтах. На обработку данных необходимы ресурсы и они растут снежным комом.

Следствием этого был запущен фильтр, который накладывается на дублированный контент.

Как работает фильтр:

Если вы на сайте публикуете не уникальную информацию, взятую с других источников, то Google понижает эту статью или страницу в результатах выдачи по .

Варианты действий есть 2:

— ваш сайт попадает в supplemental результаты, то есть результаты не основного индекса

— страницы выпадает из индекса поисковой системы

Как не попасть под фильтр:

При продвижении любого сайта необходимо использовать уникальные текста, и если брать тексты с других ресурсов, то делать их рерайт.

Если же на сайте есть дублированные страницы, например одни и те же страницы описания услуги или товара, то нужно убрать дублирующие, или закрыть их от .

Любыми нормальными способами нужно уникализировать контент на сайте, что бы избежать следствий фильтра за дублированный контент.

2. Песочница или Sandbox

Задача данного фильтра удерживать попадание в топ по высокочастотным запросам, как коммерческим, так и информационным.

Запущен он так же для борьбы со спамом, и сомнительными сайтами. Поэтому срок вывода сайта по самым топовым запросам может быть более 5 месяцев.

Как работает фильтр:

Если молодой только созданный сайт начал продвигаться по конкурентным и высокочастотным запросам, то у него, скорее всего не получиться попасть в топ в первое время.

Фильтр Sandbox не действует на средне и низкочастотные запросы. Поэтому на первое время лучше применять продвижение низкочастотных запросов, и параллельно работать над высокочастотными.

Как не попасть под фильтр:

Для новых сайтов это сложно, но можно найти старый домен по вашей тематике, и тут 2 варианта действий:

— делать сайт на старом домене

— склеить старый домен с новым

Оба вариант нормальные и работают, все зависит от правильности склейки. Так же важно старый домен проверить на обратные ссылки, и посмотреть его историю.

Ко многим тематикам, особенно в Украине он не применим, и можно спокойно продвигать сайты и достигать довольно таки быстрых результатов.

3. Быстрый рост ссылок

Если на сайт происходит слишком быстрый рост ссылок, то поисковая система Гугл может предположить, что ею пытаются манипулировать.

Как работает фильтр:

Если Гугл обнаруживает очень быстрый рост ссылок на сайт, то он может его автоматически понизить в результатах поиска. Следствие такого падение позиций, трафика, и долгое не возвращение сайта в топ.

Как не попасть под фильтр:

Нужно медленно и постепенно наращивать ссылочную массу на сайт, что бы в глазах Google это выглядело максимально естественно.

4. Google Bombing

Когда слишком много прямых вхождений анкора ссылок, Гугл видит, что владелец сайта хочет находиться на первых местах, по словам в топе.

Пример такого анкор листа:

Как мы видим на фото, в анкор листе лишь те ключевые слова, которые владелец сайта хочет быть в топе — продвигаются.
Как работает фильтр:

В случае только с прямым вхождением анкора, рано или поздно Гугл может это заподозрить, следствие чего будет падение позиций. Обычно сначала это -10 – 15 позиций. Потом сайт уходит в -100. Если сильно этим пренебрегать, можно попасть так же и в бан Гугла, это когда все страницы выпадают из индекса поисковой системы.

Как не попасть под фильтр:

Чтобы не попасть под фильтр стоит размещать с сильно разбавленным анкор листом, а так же использовать множество брендовых ключевых слов. Если грамотно разбавлять ссылки, то можно избежать этого фильтра и успешно продвигаться в поиске.

5. – 30

Фильтр – 30 предназначен для борьбы с настоящим спамом в результатах выдачи. Это могут быть сайты со скрытыми редиректами, а так же .

Как работает фильтр:

Он понижает такого плана сайты на – 30. То есть сайт не отображается выше 30-ой позиции в выдаче Google.

Как не попасть под фильтр:

Самый простой способ – не использовать черные методы продвижения сайта, и все будет хорошо.

6. Социтирование

Если вы продвигаете сайт, то обязательно стоит делать так, что бы близкие по тематике ресурсы ссылались на вас. Если же сайт успешно поднимается на первые места, а на него ссылаются сайты не связанные с его тематикой, то в силу может приступить этот фильтр.

Как работает фильтр:

Больше всего он работает, в случае если на ваш сайт будет ссылаться много ссылок с нежелательных тематик, как порнография, азартные игры и прочее.

Как не попасть под фильтр:

7. Переоптимизация

Фильтр был создан для того чтобы понижать сайты, которые сильно переоптимизированы внутри.

Как работает фильтр:

Он учитывает количество ключевых запросов на странице. Если сайт сильно ими оптимизирован, то эти страницы могут выпасть или сильно понизится в результатах поиска. Оптимизация текста сайта должна быть нормальной, иначе есть шанс попасть под фильтр.

Как не попасть под фильтр:

Чтобы не попасть под фильтр за переоптимизацию нужно аккуратно оптимизировать тексты и контент на сайте, не сильно перенасыщать все ключевыми словами, делать оптимизацию для людей в первую очередь, а не только для поисковых систем.

8. Скорость загрузки сайта

Уже давно не секрет, что скорость загрузки сайта влияет на продвижение и позиции.

Как работает фильтр:

Если сайт при переходе из поисковой системы сайт медленно загружается, и это повторяется часто, то Гугл может понизить сайт в результатах поиска.

Как не попасть под фильтр:

Чтобы не попасть под фильтр за скорость загрузки, необходимо размещать сайт на качественных серверах, у надежных провайдеров. Если же проблема загрузки зависит от самой системы управления сайта, то нужно тщательно оптимизировать систему управления, что бы все скрипты быстро работали и загружались. А так же всегда мониторить скорость и доступность сайта.

9. Supplemental Results или дополнительные результаты

Фильтр накладывается на страницы сайта, которые она считает малозначимыми. Например, это могут быть страницы с дублирующимся контентом, а так же на страницы, на которые нет входящих ссылок.

Как работает фильтры:

Такие страницы плохо ранжируются Гуглом, а так же эти результаты можно посмотреть, нажав на посмотреть дополнительные результаты.

Как не попасть под фильтр:

Чтобы не попасть под фильтр, необходимо загнать эти страницы в дополнительный поиск, решения простые:

— убрать дубликаты страниц (или сделать страницы уникальными)

Дополнительные результаты поиска не так страшны, но нужно что бы приоритетные страницы и разделы находились в основных результатах поиска.

В старые времена очень популярным способом продвижения был – обмен ссылками. Создавались отдельные страницы, с которых шли ссылки на сторонние ресурсы. На сторонних ресурсах было так же. Следствие этому позиции сайтов росли.

Как работает фильтр:

Если поисковая система обнаруживает массовый обмен ссылками, то она понижает сайт в результатах поиска.

Как не попасть под фильтр:

Основное: не использовать страницы со ссылками на другие ресурсы. Такое в узких кругах называют линкопомойки.
Если вы уже попали под такой фильтр, то нужно убрать такие страницы, или закрыть их от индексации. Немного подождать и позиции вернуться.




Top