Фильтры, используемые поисковыми системами, представляют собой функции поисковых машин, предназначенные для пессимизации некачественных ресурсов в выдаче, а также сайтов, при продвижении которых используются черные методы SEO. Определить точно, находится ли конкретный сайт под фильтром сложно, поскольку подобная информация не всегда публикуется. Но большинство фильтров обладают специфическими признаками, по которым определяется наложенный фильтр.
Следует учитывать, что в поисковиках иногда происходят сбои, из-за чего сайт необоснованно выпадает из индекса или теряет какую-то часть трафика. Поэтому переходить к активным действиям сразу нужно не всегда. Рекомендуется сначала просмотреть специализирующиеся на SEO форумы, что позволит понять, столкнулся ли еще кто-то с аналогичной ситуацией. Потом ждем пару апдейтов и, если изменений не произошло, пишем в саппорт либо пытаемся самостоятельно искать ошибки. Но, чаще всего, приходится сталкиваться именно с наложением фильтра, а не со сбоем.
Можно выделить несколько основных признаков попадания ресурсов под действие фильтра:
В случае если заметно резкое падение позиций, все гораздо сложнее, чем при наличии других признаков, поскольку потом очень не просто вернуться к прежним результатам.
Если увеличение количества ссылок происходит кратковременно и довольно резко, то это может свидетельствовать о нелегальности производимых с ресурсом действий. Зачастую, подобное происходит после «прогонов» ресурса по профилям, каталогам либо комментариям. Сайты, на которых был замечен ссылочный взрыв, моментально приобретают большие шансы получить фильтр. Все появившиеся в это время бэклинки обычно работают довольно слабо либо вообще не работают.
Поисковики отдают предпочтение лишь уникальному и грамотному с точки зрения правил русского языка контенту, имеющему определенный смысл. Поисковая машина использует сложные алгоритмы, позволяющие определять и отличать естественные текст от текста, сгенерированного автоматически и не имеющего понятной составляющей. При использовании неуникального контента, занимать высокие позиции практически невозможно, помимо того, он в целом только вредит ресурсу, поэтому, работая с копипастом, желательно закрывать такие материалы от индексации, а также сопровождать его указанием первоисточника.
Не секрет, что ссылками торгует большинство представленных в Интернете ресурсов. Данные сайты также очень рискуют, так как поисковики довольно критично относятся к продаже как автоматических ссылок, так и, так называемых, «вечных» ссылок. Кстати, трудно сказать, какие из них являются большим злом: под фильтр попадают ресурсы и занимающиеся автоматизированной продажей ссылок, например в Сапе, и сайт, размещаемый «вечные» ссылки в статьях, например через Гоугетлинкс.
При написании контента не следует злоупотреблять использованием ключевых слов. Оптимально, если «тошнота» не превышает 5%.
Некоторое время назад прогоном по каталогам можно было получить множество входящих ссылок, что сказывалось на росте позиций. Сейчас же подобные действия ощутимого результата не дают, более того, очень часто позиции ресурса попросту пессимизируются. Кроме того, можно закупиться дешевыми ссылками с плохих ресурсов и даже не подозревать об этом. Если так произошло, от подобных ссылок нужно избавляться как можно быстрее.
Каждая поисковая машина использует свои фильтры, но все они очень похожи и имеют одну цель: борьбу с черным SEO и чистку поисковой выдачи, делая ее максимально релевантной запросу пользователя.