Вывод из под фильтры яндекс. Как не попасть под фильтр. Что такое АГС

Как быстро снять фильтр с сайта от поисковиков? Этот вопрос встал перед тысячами вебмастеров, обнаруживших, что ресурс не появляется на первых строках выдачи, а трафик уменьшился во много раз. Снятие фильтра с сайта любой тематики это сложная и долгая работа, которая может занять не один месяц. Намного проще доверить ее профессионалам: квалифицированные специалисты агентства «Паньшин Групп» выведут сайт из-под фильтра, восстановив позиции в выдаче.

Мы снимем фильтры с вашего сайта!

Наше агентство интернет-маркетинга оказывает услуги и :

Фильтры Google:

  1. Сможем . Фильтр направлен на выявление некачественного контента. Снятие санкций иногда требует полной замены информации на страницах.
  2. Осуществляем . Бан ориентирован на борьбу с некачественным ссылочным профилем. Он является автоматическим, как и Панда, снять фильтр с сайта при грамотном подходе можно за несколько месяцев.

Фильтры Yandex:

  1. Проводим . Чтобы вернуть потерянное ввиду покупных ссылок доверие Яндекса, потребуется кропотливый труд, но мы сможем помочь.
  2. Беремся за . Накрутка поведенческих факторов еще недавно была распространенным способом продвижения, но сейчас поисковики жестко отслеживают подобные действия.
  3. Работаем с площадками, получившими . Мы выводим сайт из-под фильтра Баден-Баден (new! ), умело заменяя переоптимизированный контент.
  4. Снимаем за схожесть сайтов. Меняем данные по сайтам и ведем переписку с аргументацией с поддержкой поисковой системы.
  5. Выводим — фильтра наложенного за низкое качество сайта.

Почему стоит обратиться к профессионалам?

Если вебмастер вытаскивает сайт из-под наложенного фильтра Яндекса или Google самостоятельно, процесс может затянуться на несколько месяцев и все равно не дать нужного результата. Доверьте это дело профессионалам, чтобы получить максимальный эффект в сжатые сроки. Мы поможем в снятии фильтра с сайта, вернув позиции и избавив от штрафных санкций, какими бы они ни были!

Стоимость работ определяется индивидуально по каждому проекту, после предварительного аудита.

(офисной и дистанционной) сделали около 50 SEO-аудитов. Больше половины проблем, с которыми к нам обращались, было связано с фильтрами Яндекса, также были аудиты по фильтрам Google.

Очевидно, что антиспам-алгоритмы, отправляющие сайты под санкции, заметно эволюционировали. Eще года полтора назад для определения причин пессимизации было достаточно даже поверхностного анализа – сайты отправлялись под фильтры за явные признаки переоптимизации или явно некачественный контент. Все было просто – чистишь контент от лишних выделений, заголовков, спамовых конструкций и перечислений ключевывых слов, уникализируешь контент – и санкции снимаются.

А теперь все чаще встречаются случаи, когда причины санкций не являются столь очевидными. К нам постоянно обращаются владельцы пессимизированных сайтов, которые по несколько месяцев не могут избавиться от фильтров, несмотря на многоразовую “чистку” контента и длительную переписку с Платонами. И тексты вроде бы уже совсем не содержат переспама, и сайт вроде уже совершенно белый и пушистый, а поддержка все равно отвечает: “причина, по которой на Ваш сайт были наложены санкции, еще не устранена”.

Истинная причина в таких случаях всегда заключается в одном и том же – вебмастера вкладывают в понятие “качество сайта” совсем иной смысл, чем разработчики поисковых алгоритмов. Вебмастера, как правило, зацикливаются на сугубо технических характеристиках – уникальности текстов, плотности ключевых слов, внутренней оптимизации и т.д. А разработчики поиска стараются настроить алгоритмы таким образом, чтоб оценивать качество с точки зрения ценности сайта для пользователей.

Сегодня я расскажу о нескольких интересных случаях из нашей практики, когда причины пессимизации приходилось искать не там, где обычно. Возможно, кому-то это поможет взглянуть на проблему со своим сайтом с другой стороны и избавиться от санкций.

Кейсы по фильтру за переоптимизацию

Принято считать, что этот фильтр накладывается за явные признаки переоптимизации сайта (стронги, заголовки, спамовые конструкции), но это не всегда так. накладывается, если страница содержит явные признаки оптимизации под запросы, на которые в действительности она ответа пользователям не дает.

1. Случай с несоответствием контента ожиданием посетителей

У сайта компании, предоставляющей услуги по оформлению помещений для праздников, резко снизился трафик. Владелец сайта обратился к нам, ответ Яндекса подтвердил наличие санкций.

Мы проанализировали данные GA и заметили, что у большинства страниц трафик снизился на 20-50%, но есть и такие, которые полностью потеряли посетителей из Яндекса:

Мы проанализировали эти страницы и заметили, что их содержание явно не соответствует очевидным ожиданиям посетителей. Например одна из страниц до пессимизации стабильно получала трафик по СЧ-запросам со словами “фото”, “фотографии”, “фотогалерея” (“название услуги + фото” , “название услуги + фотогалерея” и т.д.). Очевидно, что до наложения фильтра по этим запросам страница находилась в топе Яндекса.

Проблема в том, что страница не содержала никаких изображений. Там был только текст, где встречались указанные слова – например, предлагалось пройти регистрацию, чтоб получить на email фотографии работ в виде pdf. Судя по проценту отказов (97%), пользователей, которые переходили из выдачи Яндекса, это явно не устраивало. Не получая ожидаемого (готовых фотографий), они покидали страницу и возвращались к результатам поиска.

Такие же проблемы были со страницами, которые ранее получала трафик по СЧ со словами “каталог”, “цены”,”стоимость”, “скидки” (“название продукта + каталог”, “продукт + цены” и т.д.). На посадочных страницах и на сайте вообще не было ни каталога, ни информации о ценах и скидках – был просто текст, где встречались эти слова. Средний процент отказов у таких страниц составлял 94,6%.

По результатам аудита, было сделано следующее:
– на большинстве проблемных страниц полностью заменили контент. Вместо текстов разместили фотографии работ с кратким описанием, цены на продукцию (для оформления), каталог;

– две страницы, содержание которых было невозможно изменить, просто удалили.

После этого написали в Яндекс, и фильтр был снят.

Вывод: причиной пессимизации может стать несоответствие контента ключевому слову, по которому есть много переходов из выдачи. Посмотрите на свою статистику по Я.Метрике или GA и обратите внимание на запросы, генерирующие заметный процент трафика, у которых при этом высокий процент отказов. Если предполагается, что по этим запросам пользователи должны задерживаться на странице, пересмотрите контент.

2. Случай с нерелевантностью сайта группе ключевых запросов.

Под фильтр попал некоммерческий женский портал (обзоры косметики, новости моды, статьи по женской психологии и т.т.). Сайт 1998 года, посещаемый и достаточно известный. Нельзя сказать, что к контенту не было никаких нареканий – мы нашли много “позаимствованных” статей, внутренних дублей и полупустых страниц. Но, как правило, для сайтов такого уровня это всего-лишь “мелкие грешки”, которые вряд ли могут стать причиной наложения санкций.

При анализе источников посетителей, мы заметили резкий скачек трафика незадолго до момента пессимизации. При детальном рассмотрении оказалось, что скачек произошел за счет переходов из выдачи Яндекса по коммерческим запросам со словами “купить”, “доставка”, “заказать”, “продажа” и т.д. Это было само по себе странно, так как сайт ничего не продавал.

Клиент объяснил, что за несколько месяцев до пессимизации штатные оптимизаторы решили продвигать сайт по коммерческим запросам с целью поднять конверсии в лид-системах (считается, что коммерческий трафик конвертируется лучше). Подобрали список ключевиков, часть из них раскидали по существующим страницам, для некоторых создали новые. Поскольку сайт трастовый, трафик по таким запросам появился практически сразу. Но в результате это привело к увеличению отказов, ухудшению ПФ и наложению фильтра.


– со страниц сайта убрали вхождения коммерческих запросов;

– сайт почистили почистили от дублей и неуникального контента, исправили ошибки внутренней оптимизации;

– разработали альтернативную стратегию повышения окупаемости сайта.

В результате фильтр сняли через месяц после повторной модерации , и сейчас сайт активно наращивает целевой трафик согласно разработанной стратегии.

Вывод: причиной фильтра может послужить принципиальное несоответствие сайта целой группе ключевых запросов. Не стоит продвигать свой сайт по запросам, которым он не релевантен в принципе.

3. Случай со страницами, “заточенными” под ключевики.

Сайт клиента, о котором идет речь, на момент обращения к нам находился под фильтром уже около полугода. За это время клиент уже несколько раз полностью переписывал контент посадочных страниц и вносил изменения на сайт с целью избавиться от признаков переоптимизации, но это не помогало. Перед тем, как обратиться к нам, он в очередной раз “почистил” сайт, оставив в тексте каждой посадочной страницы только одно вхождение ключевого слова. Оказалось, что этого недостаточно – поддержка Яндекса в который раз ответила, что причина пессимизации не устранена.

Мы проанализировали все страницы сайта. Действительно, с точки зрения. SEO все было нормально: мета-теги прописаны вручную, тексты были уникальны и легко читались, заголовок (h1) на каждой странице встречался только один раз, внутренняя перелинковка не содержала признаков переспама.

Но наше внимание привлек другой нюанс – содержание URL, Title и H1 каждой посадочной страницы содержало ключевую фразу, плюс этот же ключевик обязательно встречался один раз в тексте, и всегда – именно в первом абзаце.

Например, страница, продвигаемая по запросу “Разведение сиреневых слонов”, на этом сайте выглядела бы так:

URL: www.siteoslonah.ru/razvedenie-sirenevyh-slonov/
Title: Разведение сиреневых слонов в Москве – Siteolinah.ru
H1: Разведение сиреневых слонов
Текст (первое предложение): “Мы занимаемся разведением сиреневых слонов с 1997 года, и являемся лидером в этой области… “

Под каждый поисковый запрос была создана отдельная страница, причем содержание многих страниц по смыслу очень сильно пересекалось. Многие услуги, под которые были заточенные отдельные страницы, отличались только названием (“разведение сиреневых слонов”, “выращивание сиреневых слонов” и т.д.). Очевидно, что такая структура создавалась с целью упростить продвижение, а про интересы посетителей при этом не подумали. Судя по статистике Я.Метрики и данным Вебвизора, многие пользователи не могли сориентироваться в таком беспорядке – просматривали несколько страниц по 7-10 секунд и возвращались обратно в выдачу.

По результатам аудита было сделано следующее:

– для похожих услуг оставили по одной странице, лишние страницы удалили с сайта;

– убрали точное вхождение ключевика в URL;

– сделали структуру каждой страницы индивидуальной, ориентируясь на удобство пользователей: где надо, добавили таблицы, где надо – маркированные списки и т.д.;

– убрали обязательное вхождение ключевика в первый абзац. В итоге получилось так, что каждая посадочная страница содержала по 1-2 точных и 3-4 разбавленных вхождения, но они были добавлены согласно смыслу текста (про SEO при этом не думали).

По окончанию работ отправили запрос на пересмотр сайта в Яндекс, фильтр был снят в течении недели .

Вывод: причиной пессимизации сайта может послужить наличие похожих по смыслу страниц, созданных для продвижения под разные ключевые слова . Раньше такой подход к оптимизации помогал поднять видимость сайта, теперь может стать причиной санкций.

АГС

Кстати, на графике видно, что в конце сентября у сайта начались проблемы с Google (после выхода очередного релиза Панды). На выяснения причин и устранение проблемы ушло около 3 недель, и сайт восстановился в выдаче. Если сайт действительно хороший – нерешаемых проблем нет.

Случаи с пессимизацией за поддомены, созданные для регионального продвижения

Известно, что продвижение в какой-либо региональной выдаче заметно упрощается, если сайту присвоен нужный регион. Но без Яндекс.Каталога сайту можно присвоить только один регион, а попасть в каталог дорого и не всегда возможно даже за деньги. Поэтому многие вебмастера, с целью получать трафик из разных регионов, создают несколько поддоменов с липовыми контактами в разных городах, а затем пытаются продвигать их в разных региональных выдачах. Как правило, основная часть информации на поддоменах пересекается, иногда они отличаются только контактами и главной страницей.

Даже если сайту на какое-то время удается получить видимость в нескольких регионах, рано или поздно начинаются проблемы с индексацией. В нашей практике таких случаев было несколько, приведу два примеров.

5. Поддомены для интернет-магазина подарков

С целью получить трафик из более чем 30 регионов, оптимизаторы магазина создали соответствующее количество поддоменов. Их контент полностью повторялся, отличались только названия городов в Title и текстах за счет автоматической подстановки (“У нас можно заказать женский подарочный набор с доставкой по Москве|Петербургу|Нововосибирску|Екатеринбургу|и так 30 регионов самого высокого качества”). Некоторые поддомены так и не были проиндексирваны, некоторые пробыли в индексе около месяца, после чего весь ресурс попал под АГС.

По результатам аудита сделали следующее:

– оставили только 5 поддоменов для основных регионов;

– включили возможность добавлять отзывы, каждый из которых выводился только на одном из поддоменов.

После запроса в поддержку получили ответ, что фильтр будет снят через месяц после повторного пересмотра. По истечению указанного срока, фильтр сняли без повторного запрос а – все 5 поддоменов проиндексировались.

6. Сайт образовательного центра

У одной небольшой образовательной компании, которая находится в Петербурге, появилась услуга дистанционного обучения из любого города. Перед штатными оптимизаторами сразу встал вопрос получения трафика из разных регионов. С целью получить привязку сразу к нескольким регионам, сайт пытались платно зарегистрировать в Я.Каталоге, но заявку отклонили по причине наличия спама. Поэтому оптимизаторы пошли другим путем – создали 8 поддоменов, контент которых почти не отличался. В течении месяца поддомены проиндексировались, а потом выпали из индекса за один апдейт (возможно, фильтр был наложен вручную). У основного домена в индексе осталась одна только главная страница, но и она перестала получать трафик из Яндекса.

После анализа ситуации, было сделано следующее:
– все поддомены удалили;

– основной сайт почистили от спама.

Фильтр сняли через месяц после повторной модерации:

После переиндексации, сайт был успешно добавлен в Я.Каталог на платной основе с регионом СПб, сейчас рассматривается заявка на присвоение дополнительных регионов.

Вывод: клонирование информации на несколько поддоменов с целью продвижения по регионам, как правило, приводит к пессимизации. Создавать поддомены можно только в случаях, если вы можете наполнить их разным контентом.

Привет!

Наконец, пару апдейтов назад, вышел из под фильтра Яндекс за накрутку поведенческих факторов, один из моих сайтов.

За все время моей практики это был единственный фильтр Яндекса под который угораздило попасть. Но, при этом, последствия были колоссальными! На 8 месяцев сайт выпал из поиска Яндекса. Благо тематика сайта узкая, и удалось компенсировать потери позиций трафиком из контекстной рекламы.

Итак, что было сделано для попадания сайта под фильтр за ПФ

Не будут говорить о каком сайте идет речь, просто, чтобы не сглазить:)...

Будучи осторожным SEO оптимизатором, я обычно использую проверенные и безопасные методы. Но, любопытство меня подвело. В ноябре 2014 года, решил «дожать» позиции, итак, достаточно успешного сайта. Сервис Seopult выкатил новый продукт, по их мнению, естественно улучшающий поведенческие фактор сайта. Не вдаваясь в подробности о технологии работы сервиса, скажу, что необходимо было положить определенную сумму на счет и установить на продвигаемом сайте счетчик UpUoLike (социальные кнопки +аналитика - для отслеживания поведения людей на сайте).

Доверившись активной рекламе и убеждениям Сеопульта, я положил, внимание - 100 рублей для тестов! Собственно, была запущена бомба. Спустя 3 недели, в декабре 2014 года сайт рухнул в позициях . Выразив мое недовольство Яндексу в письменной форме, я получил стандартный ответ, о том, что была замечена манипуляция и сайт понижен в выдаче за накрутку поведенческих факторов (ПФ). Как оказалось, многим оптимизаторам пришло подобное «письмо счастья». Обратившись в поддержку Seopult, я получил письмо, в котором сообщалось, об их непричастности, и возможно мой сайт «недостаточно хорош». Зайдя на форум сервиса, я убедился в обратном, увидев огромное количество подобных заявлений со стороны пользователей.

Не скажу, что я злился на Сеопульт, больше на себя, что повелся на подобное. По сути, Яндекс предупреждал...

Какие действия совершены для выхода из под фильтра

К сожалению, фильтр был нов, и не было готовых кейсов по выходу из под него, да и по сути сейчас нет. Почитав статьи «экспертов» и пообщавшись с некоторыми SEO компаниями, которые якобы смогли вывести сайты из под фильтра, я начал работать над сайтом. Что я сделал еще в феврале и марте 2015 года :

  • Убрал все временные контекстные ссылки на Sape.ru. Остались только хорошие, «кошерные».
  • Обновил тексты на сайте, поменял картинки и общее оформление. Благо, сайт имел не более 15 страниц.
  • Писал раз в месяц в Яндекс, пытаясь узнать о сроках и о том, нет ли претензий к моему сайту.
  • Звонил в крупные компании, выясняя возможность вывода сайта с помощью инсайдерской информации. Как оказалось, ни одна компания не знает точного ответа.

НО, результатов не было. Время шло и ничего не менялось. Яндекс молчал «как партизан». И, о чудо, Аллилуйя! спустя 8 месяцев, сайт неожиданно вышел обратно!!!

Хотя позиции фраз не вернулись на свое первоначальное позиции, а стали на 5-8 ниже из-за сокращения ссылок, но санкции были сняты. Проанализировав опыт коллег и свой сайт, могу сделать выводы:

  • Сделайте по сайту, все, что поможет улучшить его «пушистость» , дабы другие моменты не отбрасывал тень на репутацию.
  • Покупайте (или получайте в дар) постоянные ссылки на качественных тематических сайтах. Такие ссылки как действовали, так и действуют, во всяком случае на вторую половину 2015 года - точно. Не верьте тем, кто скажет, что это не так. На фоне разговоров об этом, SEO компании привлекают себе клиентов, обещая СЕО без ссылок.
  • Ждите . Не смотря на манипуляции, раньше срока он не выйдет. Как оказалось средний срок выхода 7,5-9 месяцев. Почти как выносить младенца:)
  • Не доверяйте новым сервисам , учитесь на ошибках своих коллег, читая форумы. После хороших отзывов - используйте успешные инструменты и старайтесь делать SEO "белым" и дружественным к поисковым система и пользователям.

Да пребудет с Вами сила!

Пожалуй, не станет ошибкой утверждение, что каждый владелец своего интернет-сайта или блога, хочет, чтобы его детище было по достоинству оценено людьми и было при этом источником дохода. Это значит, что в сети идёт настоящая погоня за место в выдачах поисковых программ. Которые в свою очередь используют инструменты для контроля, за недобросовестными участниками этого соревнования. Одним из таких инструментов как раз и является фильтр Яндекса за переоптимизацию. О том, как не попасть под его действие и что делать, если это уже произошло, пойдёт речь далее.

Что это такое

Говоря о таком инструменте борьбы за качество информационного пространства, как фильтр за переоптимизацию от поисковой системы Яндекс, необходимо в первую очередь определиться с тем, что такое переоптимизация вообще.

В данном случае речь идёт о случаях, когда контент, размещённый на страницах сайта, чрезмерно насыщен фразами, составляющими поисковый запрос или, как их ещё называют ключевыми словами. Помимо этого, на рассматриваемый показатель влияет и перенасыщенность сайта прочими факторами, которые могут оказать влияние на ранжирование ресурса поисковой системой. Сюда можно отнести и случаи, когда информация, представленная на странице, несмотря на содержащиеся в ней ключевые запросы, не соответствует тематике этих самых запросов, то есть является не релевантной, либо имитирующей релевантность. Для борьбы с ресурсами, содержащими подобный контент, и создан фильтр за переоптимизацию.

Как работает

Фильтр за переоптимизацию может быть наложен на сайт двумя основными способами.

  • Автоматически. Когда на ресурс заходит робот и в соответствии с заложенными программой алгоритмами, проверяет его содержимое на предмет переоптимизации. Если по результатам проверки выявляются нарушения, то следует наложение санкций.
  • Вручную. В принципе суть та же, что и в вышеприведённом случае с той лишь разницей, что все действия производятся сотрудником проверяющего ресурса.

Со стороны поисковой системы действие фильтра может проявиться в целом ряде последствий.

  • Из-за наложенного фильтра сайт не сможет попасть в топ 10 поисковой выдачи. Что по понятным причинам весьма неприятно.
  • Если ресурс занимал довольно высокое место в выдаче, то после наложения фильтра следует его непременное проседание на 15 - 30 позиций.

Оба этих обстоятельства, крайне нежелательны и влекут за собой второстепенные последствия, а потому попадать под действие фильтра крайне нежелательно для любого сайта.

Как не попасть под фильтр

Для того чтобы не попасть под фильтр за переоптимизацию необходимо провести ряд защитных мер. Если попытаться провести аналогии с медициной, то лучшим лечение является профилактика. Иными словами, если нет желания долго и нудно исправлять огрехи, приведшие к наложению фильтра лучше всего их не допускать. А для этого достаточно полезно знать, какая информация сайта может быть переоптимизирована и в чём это, как правило, выражается.

  • Прежде всего, речь идёт о текстовом контенте. Если говорить простым языком, то когда на 1000 знаков текста употребляется 15 - 20 ключевых запросов, можно смело говорить о том, что страница переоптимизирована. При этом необходимо учитывать скрытый текст, теги и мета-теги.
  • Необходимо также следить и за тем, чтобы все заголовки, в которых чаще всего тоже содержатся ключи, были ими не перенасыщены. Стоит учитывать и длину самого заголовка. Его длина не должна быть чрезмерна. Это правило должно касаться заголовков всех уровней.
  • Помимо прочего нужно обращать внимание на так называемый URL-адрес страницы. Нерадивые оптимизаторы стараются отразить в нём часть или весь ключевой запрос. Делать это крайне не рекомендуется, так как может повлечь наложение фильтра.

Как снять фильтр

Если же рассматривать ситуацию, что ошибки всё же были допущены, то нужно знать, что ситуация не является безнадёжной. Любую ошибку, при должном желании, возможно исправить, однако как именно это сделать знать всё таки стоит.

  1. Если говорить, положа руку на сердце, о том, что контент сайта переспамлен не знать невозможно. Чаще всего это делается с понятными целями. А значит, для того чтобы санкции были сняты, необходимо просто переработать контент в соответствии с нормой. Необходимо избавить все страницы сайта от излишнего количества ключевых вхождений. Нужно убрать все возможные выделения текста, лишние подзаголовки, несущие в себе ключевые запросы и прочие элементы переспама, вроде внутренних ссылок на другие страницы этого же ресурса.
  2. Ещё одним средством вывода ресурса из-под действия санкций фильтра является приведение страницы к релевантности. То есть, если страница не соответствовала тематике, заявленной в ключах, то необходимо провести работу по приведению её к таковой. Имитация релевантности контента также недопустима.
  3. Действенным методом будет также и меры по перегруппировке семантики. Речь идёт о том, что если большая плотность ключевых запросов на странице вызвана нехваткой количества страниц, то самым простым выходом из ситуации будет создание дополнительных страниц и перераспределения ключей. Или же можно разнести ключи по уже существующим страницам, однако при этом необходимо также следить за их релевантностью.
  4. В качестве меры по выводу сайта из-под действия фильтров за переоптимизацию можно рассматривать удаление страниц, которые в соответствии с показателями Яндекс.Метрики и/или Гугл Аналитикс имеют большой процент отказов по запросам. Иногда страницу проще удалить и создать новую, чем приводить в надлежащее состояние.

Если меры, приведённые выше, выполнены, то либо фильтр снимется автоматически (в случае его автоматического наложения), либо стоит обратиться в службу технической поддержки Яндекс с соответствующей просьбой.

В заключение стоит отметить, что снять любое ограничение можно, если для этого постараться, но лучше всего до санкций со стороны поисковой системы Яндекс не доводить и тогда ресурс будет приносить одно удовольствие.

16.03.2015

Если у веб-ресурса на 70-100% упал трафик из одной поисковой системы, скорее всего, ваш сайт попал под фильтр Google или Яндекса . В UaMaster часто поступают запросы на услугу вывода сайтов из-под фильтров Google , поэтому мы решили рассказать, что необходимо делать в таких ситуациях. Рассмотрим случай, когда сайт попал под ручной фильтр Google.

Ручной фильтр санкции Google , которые накладываются модераторами поисковой системы вручную. Подозрительные сайты, которые не могут быть точно проверены алгоритмом на предмет нарушений, отправляются на ручную проверку. Сотрудник Google лично выявляет наличие нарушений и принимает решение, накладывать на сайт санкции или нет. Чаще всего такие санкции применяются по причине использования искусственных ссылок. Оповещение о попадании сайта под ручной фильтр приходит в Google Webmaster Tools. В случае если ваш сайт попал под автоматический фильтр (Sandbox, Panda, Penguin и пр.), вас никто не предупреждает – уведомлений в Google Webmaster Tools нет, но позиции вашего сайта понижаются в поисковой выдаче и трафик падает.

Чтобы проверить попал ли ваш сайт под ручные санкции необходимо:

  1. Зайти в Google Webmaster Tools ; (далее – GWT)
  2. Выбрать в меню «Поисковый трафик» –> «Меры, принятые вручную»;
  3. Посмотреть, есть ли там сообщение.

Вот так выглядит уведомление в панели GWT о том, что Google обнаружил неестественные ссылки на сайт. Из-за чего были наложены санкции, и упала посещаемость веб-ресурса.

  • искусственные ссылки на ваш сайт (меры в отношении ссылок);
  • искусственные ссылки на вашем сайте (когда вы продаете ссылки);
  • взломанный сайт;
  • неинформативный, бесполезный контент;
  • маскировка и/или скрытая переадресация;
  • скрытый текст и/или избыточное количество ключевых слов;
  • бесплатный хостинг, распространяющий спам.

Чаще всего под ручной фильтр попадают сайты, для продвижения которых оптимизаторы бездумно покупали большое количество некачественных ссылок: без учета тематики, географии и прочих параметров.

Также мы сталкивались с ситуацией, когда сайты попадали под ручной фильтр из-за действий конкурентов (они купили очень много некачественных ссылок на сайт-жертву). Использовать такой подход в конкурентной борьбе не рекомендуем. Во-первых, факт покупки плохих ссылок на какой-то сайт не обязательно приведет к санкциям для него. Во-вторых, вывод сайта из-под фильтра Google – это посильная задача для хорошего SEO-специалиста.

  • необходимо составить txt файл, где будут все ссылки и домены, которые вы хотите удалить (не учитывать поисковой системой);
  • воспользоваться инструментом отклонения ссылок Disavow links .
  1. Подайте запрос на пересмотр.
  • текст письма должен быть на английском или русском языке;
  • опишите всё максимально понятно (сколько и какие ссылки были удалены);
  • напишите о готовности предпринимать любые действия, чтобы с сайта были сняты ручные санкции.

Читайте також: Что будет актуально в Digital с 2018 по 2020 год - Google Partners CEE Day 2018

Не всегда получается с первого раза снять фильтр. Если вы невнимательно фильтровали, и часть плохих ссылок осталась, будьте готовы к тому, что Google может вам отказать.

Получив такое сообщение, повторите выше описанные шаги еще раз, внимательнее отфильтровав ссылки.

Если вы всё сделали правильно, то получите письмо или уведомление о том, что санкции, принятые вручную, были сняты.




Top