Введённую во все сегменты Всемирной паутины "Панду" уже нельзя назвать новейшей. Действует алгоритм Panda для англоязычных пользователей с апреля, а для нашего пространства – с августа 2011 года. Сейчас уже имеется более десятка усовершенствованных версий. Поисковый алгоритм Google с именем Panda был выполнен сотрудниками поиск-гиганта Мэтт Катс и Амит Сингал. Он довольно радикально отличается от разработок прежних лет. Эта система ориентирована на человеческий фактор, хотя и учитывает при ранжировании также и обычные критерии.
Отношение к уникальности контента у системы следующее. Алгоритм Panda учитывает в виде процент-соотношения копипаст на конкретной странице и на сайте в целом. Выявив большое число заимствований, наличие разного вида повторов, он отодвигает позиции конкретных страниц, а также и в целом всего ресурса, определенного как «пиратский». Вдобавок Panda легко отслеживает показатели шаблонности, даже если контент страниц был создан под разные ключевые запросы.
Кроме неповторимости текстового наполнения система Panda отслеживает релевантность рекламы. Скажем, на сайте по электрооборудованию помещена реклама подгузников или прокладок. Такое, мягко сказать, негармоничное сочетание наверняка у поисковика Panda вызовет «неудовольствие». Подобное внимание Google к содержанию/качеству рекламы задумывалось (и реализуется!) как препятствие зарабатыванию денег со стороны не очень разборчивых оптимизаторов и веб-мастеров. Более глобальная цель поиска Panda – поднять сайты, которые реально соответствуют заявленной тематике.
Что касается "веса" и качества ссылочной массы, то под пристальным вниманием ссылки, называемые "обратными". Тут Panda довольно лояльна: предъявляет одно требование – чтобы сайты сосуществовали в едином информ-пространстве, то есть были по тематике максимально схожи. Число обратных ссылок, которыми ресурсы обмениваются, тоже учитывается Пандой, однако при ранжировании показатель далеко не определяющий.
Эта часть разработки самая сложная. Специалисты пустились на усложнение алгоритма, приблизив его к понятию «колоссальный». Точнее тут использовать терминологию SEO и назвать данный параметр поведенческим фактором. Отшлифовывая поисковые инструменты для определения поведения пользователя на сайте, специалисты добились того, что в Google после запуска Panda на топовые позиции стали попадать реально полезные ресурсы. К так называемым поведенческим параметрам относится набор критериев довольно ограниченный:
При этом Panda детализирует каждый показатель. К примеру, учитывает вместе с проведенными на ресурсе часами и то, какие действия он выполнял (переходил ли по ссылкам, относящимся к в ключевым запросам, и тому подобное). Так алгоритм создаёт возможность определять и факт привлекательности/полезности данного сайта для пользователей, и степень этой полезности-привлекательности, и (что уникально!) даже отследить средства, которыми это достигается.
Таким образом, оптимизатор, что "двигает" ресурсы в Google, сегодня способен даже при небольшой (сравнительно, конечно) ссылочной массе получать довольно высокие позиции в выдаче. Выполнив, разумеется, предварительно грамотную перелинковку внутренних страниц ресурса. А в целом повышается удобство конкретного ресурса для пользователя-гуру и для новичка, вчера узнавшего про Интернет. Результаты, согласитесь, впечатляют.
После введения Panda-алгоритма поиск-система Google стала по-настоящему мощнейшим поисковиком в глобалке. Это подтверждается (кроме реального роста количества пользователей рассматриваемого сервиса), еще и капитализацией Google. Её уровень пересек отметку 200 млрд. дол. И если пользователя, особенно "чайника", можно ещё привлечь/обмануть новомодными фишками, настырно-агрессивной рекламой, то инвестора подобными дешёвыми трюками точно не привлечешь.
Алгоритм Panda оценили быстро и назвали "инспектором по качеству". Однако немало (десятки тысяч) ресурсов, попавших "под раздачу" и утративших казалось незыблемые позиции, алгоритм сильно взбудоражил. Оптимизаторы полагали по началу, что Panda сайты штрафует, если замечает активность в ссылочных схемах. Потом стало понятно: она не борется с неестественными ссылками. Просто Panda по-новому оценивает качество ресурса.
Подытожим основные моменты в характеристике данного алгоритма, пристально рассматривающего сайты:
И если конкретный "обиженный" сайт под фильтр Panda попал, то его владельцам следует не возмущаться, а выявлять свои ошибки согласно справедливым требованиям и оперативно устранять их. Выполнив работу, можно отправлять письмо-запрос через Google Webmaster Tools для пересмотра качества ресурса. Исправившийся сайт уже максимум через месяц снова возвратится в поисковый трафик и займет свое место.
А чтобы убедиться, что ударов от Panda-поисковика сайт избежит, проверьте: