Вывод сайта из-под фильтров Google и Yandex — устранение ошибок, которые были допущены в ходе некорректно проведенного поискового продвижения.

Чаще всего последние бывают связаны не с непрофессионализмом исполнителя, а с его желанием достичь результата поскорее и подешевле. Сайт заполняется неуникальным, бесполезным и переспамленным контентом, используются низкокачественные ссылки, производится накрутка ПФ (поведенческих факторов), выполняются другие «вредные» действия.

Все это может привести к определенному прогрессу, но лишь до тех пор, пока все эти «хитрости» не окажутся в поле зрения поисковых роботов. Итог вполне закономерен — сайт попадает под фильтр — страницы вылетают из зоны видимости, позиции проседают, теряется трафик.

Ситуация неприятная, но поправимая. В статье мы расскажем, как определить, что сайт находится под фильтром, и какие меры стоит предпринять в первую очередь.

вывод сайта из под фильтра

Причины наложения фильтров на сайты

Наиболее распространенные причины попадания под фильтры — это:

  1. Неуникальный контент. Речь может идти и не о 100 % копипасте, а просто о недостаточно глубоком рерайте.

  2. Переоптимизированный контент. В погоне за трафиком владелец часто забывает, что тексты пишутся не только для поисковых роботов, но и для людей.

    Чтобы не думать о том, как выйти из-под фильтра «Баден-Баден», который, к слову, теперь накладывается не только на некачественные страницы, а на весь сайт в целом (все страницы ранжируются хуже), не допускайте переоптимизации.

  3. Дубли страниц внутри сайта. Попасть под фильтр можно за частично или полностью совпадающий контент на разных страницах сайта. Даже если дублирующая страница — не продвигаемая.
  4. Недостаточно качественный сайт. Страницы медленно загружаются, часть из них недоступна.

  5. Некачественно проведенный линкбилдинг. Исходящие ссылки не соответствуют требованиям поисковиков, низкокачественные или искусственные входящие ссылки.

  6. Вирусные атаки.

Вывод сайта из-под фильтров Яндекс и Гугл — процесс небыстрый, трудоемкий и часто дорогой. Но вернуть утраченные позиции — более чем реально. И чем скорее вы поймете, что поисковики наложили на ваш сайт фильтры, тем скорее проблема решится.

Энциклопедия пчелиного SEO: Элемент: Что делать, если сайт попал под фильтры поисковых систем - Редактирование. Фото 4

Как определить, что сайт попал под фильтры

Разумеется, при попадании сайта в бан поисковых систем на нем не появляется бегущая строка с тревожным сообщением, визуально он остается без изменений. Нередко о попадании ресурса под фильтры с грустью сообщает оптимизатор диджитал-агентства, в котором незадачливый владелец сайта оформил заявку на аудит и поисковое продвижение.

Впрочем, проверить сайт на предмет наложения фильтров можно и самостоятельно. Особенно если вы не уверены в качестве контента или пробовали использовать запрещенные приемы вроде накрутки поведенческих факторов:

  1. Проверьте входящие сообщения в сервисах Яндекс.Вебмастер и Google Webmasters.

  2. Прямого уведомления, что сайт попал в бан, ожидать не стоит. Но сообщение, что на сайте, например, были обнаружены некачественные ссылки, вполне может иметь место.

    После чтения входящих сообщений изучите сводку сайта на экране в панели вебмастера. В ней будут отражены все ошибки — от рекомендованных к исправлению до фатальных, которые могли повлечь за собой наложение санкций.

  3. Проверьте позиции сайта в поисковых системах. Падение в пределах 10 строчек никакого отношения к фильтрам не имеет, а вот если вы не видите свой сайт, который ранее был в топе, на первой странице, можно насторожиться.
  4. Чтобы знать наверняка, создайте отчет по позициям и оцените динамику. Проверяйте наличие в выдаче не только главных, но и внутренних страниц. Для этого используйте команду site:domen.ru. Если окажется, что внутренние страницы вылетели из поиска, то, при условии, что ресурс не закрыт частично для индексации в robots.txt, у нас для вас плохие новости.

    Имейте в виду, что если сайт попал под санкции Яндекса, это не означает, что то же самое произойдет и в Гугле, потому что эти два поисковика используют разные алгоритмы ранжирования.

  5. Проанализируйте посещаемость при помощи сервисов Google Analytics и «Яндекс.Метрика».

  6. Оцените график посещаемости за месяц, просадка будет заметна сразу.

  7. Проверьте тИЦ (тематический индекс цитирования).

  8. Тематический индекс цитирования — алгоритм Яндекс, позволяющий определить авторитетность сайта по качеству ссылающихся на него ресурсов. Если этот индекс — низкий или упал до нуля, это практически с максимальной вероятностью означает, что сайт попал под фильтры.

    Этот способ диагностики — практически безошибочный, но подходит только для старых сайтов.

  9. Используйте онлайн-сервисы.

  10. Резкая просадка посещаемости и уменьшение количества входящих звонков также могут говорить о наложении серьезных санкций. В этом случае можно использовать любой аналитический онлайн-сервис, который может указать на некоторые косвенные тревожные признаки.

Также вы можете связаться с технической поддержкой Яндекса и описать им ситуацию. Зачастую они дают вполне конкретные рабочие рекомендации, которые помогут решить проблему.

Какие действия помогут вывести сайт из-под фильтров

Вывод из-под фильтров представляет собой комплекс действий, в большинстве случаев неотделимых друг от друга.

Энциклопедия пчелиного SEO: Элемент: Что делать, если сайт попал под фильтры поисковых систем - Редактирование. Фото 5

Удаляем дубли контента

Одна из наиболее распространенных причин наложения на сайт санкций.

  1. Проверьте адрес ресурса и корректность настройки 301-го редиректа. Без указания верной версии сайта индексация будет производиться с www и без.

  2. Проведите аналогичную проверку протокола http и https при помощи сервиса Redirect-checker.org.

  3. Проанализируйте текстовый контент. Необходимо, чтобы тексты на страницах были уникальными относительно друг друга.

  4. Иногда поисковый робот может оценить как дубль рекламный текст, который есть на всех страницах. Такой «абзац» лучше заключить в тег, чтобы он был скрыт от индексации.

До устранения дублей проблемные страницы лучше также временно закрыть для индексации с помощью файла Robots.txt.

Улучшаем юзабилити — делаем сайт удобным и информативным для посетителей

Поисковые роботы отлично распознают «заточенные» под них сайты, в результате чего происходит наложение фильтров за переоптимизацию. Если ресурс наполнен «сеошными» (в плохом понимании) текстами и бездумными гиперссылками, поисковик понизит показатели.

Возможно, в этом случае потребуется полностью переработать структуру сайта, улучшить навигацию, обеспечить удобство перехода из раздела в раздел, продумать и переписать заголовки.

Работы предстоит много, но если сайт будет неудобным для посетителей, о чем поисковику красноречиво «расскажут» непродолжительное время, проведенное пользователем на странице, отсутствие переходов в другие разделы, регистраций в личном кабинете, повторных посещений ресурса, выйти из-под фильтра не получится.

Энциклопедия пчелиного SEO: Элемент: Что делать, если сайт попал под фильтры поисковых систем - Редактирование. Фото 6

Проводим внешнюю оптимизацию

Грамотный линкбилдинг способен принести хорошие результаты, но значение ссылочной массы уже давно не имеет такого веса, как еще несколько лет назад. Кроме того, в настоящее время поисковые системы предъявляют повышенные требования и к качеству линков.

Прогон сайта по базам каталогов, сомнительным ресурсам, покупка SEO-ссылок, наличие скрытых линков, переизбыток ключевых слов в анкорах — причины попадания в продолжительный бан. Под серьезные санкции можно попасть и за стремительное наращивание ссылочной массы (ссылочный взрыв).

В данном случае количество — враг качества. Лучше пусть у вас будут всего три качественных ссылки, чем сотни псевдоестественных.

Анализируем поведенческие факторы

Чтобы в ТОПе поисковой выдачи находились качественные и полезные сайты, поисковые роботы обращают внимание на поведение посетителей на том или ином ресурсе. Принимаются во внимание продолжительность нахождения посетителя на сайте, переходы в другие разделы, количество просмотренных в пределах сессии страниц, % быстрых уходов. Важно и то, по какому ключевому слову был осуществлен переход на ресурс.

Поведенческие факторы достаточно легко улучшить при помощи переработки юзабилити и грамотного линкбилдинга. Но вот что точно не стоит делать, так это накручивать показатели при помощи специальных сервисов. Факт накрутки быстро станет очевидным для поисковиков, и санкции будут неизбежными.

Анализируем коммерческие факторы

Коммерческим сайтам предъявляется ряд тематических требований. На сайте должны быть:

  • корректная контактная информация (телефон, е-mail, фактический и юридический адреса);

  • форма обратной связи;

  • карта проезда на склад и/или в офис (неактуально для онлайн-торговли);

  • банковские реквизиты и форма договора.

Желательно наличие адаптивной версии. Модули должны работать корректно, особенно при наличии на сайте обширного каталога и формы заказа.

Меняем хостинг

Плохой хостинг — достаточно редкая причина попадания ресурса под фильтры. Строго говоря, дело не в самом хостинге, а в невозможности попасть на сайт при сбоях в его работе. Если сайт периодически будет недоступным, то, как минимум, это чревато выпадением страниц из индексации, а в худшем случае — потерей позиций.

Избавляемся от избытка рекламы

Чрезмерное количество рекламы (и так считают не только поисковики) мешает посетителям качественно воспринимать контент. Избыток рекламы в большинстве случаев влечет за собой серьезные санкции.

Попаданию сайта в бан могут способствовать и кричащие выезжающие баннеры. Особенно не рекомендуется закрывать текст всплывающими объявлениями без возможности их закрыть.

Даже если у вашего сайта в данный момент высокие позиции в поисковой выдаче, от избыточной и/или навязчивой рекламы следует избавиться как можно быстрее.

Перерабатываем контент — уникализируем, делаем полезным для посетителей

Неуникальные, бесполезные и неестественные тексты способны загнать под фильтры даже самый красивый, удобный и хорошо структурированный сайт.

Плохая новость состоит в том, что качественные тексты могут стать неуникальными и «вредными» в результате воровства конкурентов, что практически невозможно доказать.

И в первом, и во втором случае контент придется долго и кропотливо перерабатывать — уникализировать, использовать полезные проверенные факты, оптимизировать в соответствии с последними обновлениями алгоритмов поисковых систем.

В целом регулярное обновление и увеличение количества качественного полезного контента в любом случае никогда не будет лишним. Это своего рода сигнал для поисковых систем, что сайтом активно занимаются, что в итоге положительно скажется на ранжировании.

Заключение

Качественное поисковое продвижение — многоступенчатый и длительный процесс, но потраченные время и бюджет окупаются с лихвой. В результате вы получите стабильный долгоиграющий результат — высокие позиции в ТОПе поисковой выдачи, растущий трафик, увеличение заявок и продаж.

Статью подготовил:

ДМИТРИЙ БЫЧКОВ

Статью подготовил:

ДМИТРИЙ БЫЧКОВ
Генеральный директор Redbee. Опыт в SEO более 20 лет
#Поисковое продвижение #Сео

Заявка

Готовы увеличить продажи?

icon
icon
icon
icon

* поля, обязательные для заполнения

Произошла ошибка отправки формы, попробуйте еще раз!
photo

АЛИСА ПАНОВА, SERM-специалист