ВасьОК — Блог

Фильтры Google: как с ними бороться

Пресловутые фильтры поисковой системы Google – те самые штрафные санкции для сайтов, от которых лучше не зарекаться… при этом, делая все, чтобы их избежать. А что для этого требуется? Конечно же, в первую очередь, информация.

Panda – это не только ценный мех

google-panda-update-2012

Один из наиболее известных и жестких алгоритмов Google Panda «специализируется» на качестве контента. Появился в роли противоборства предприимчивым людям, решившим за короткий срок продвинуть свой сайт (для рекламы или другой прибыли), особо не напрягаясь с его наполнением. Соответственно, контент на подобных ресурсах отсутствовал или был украден. Позже появились более хитрые способы обмана – искусственное генерирование текстов или плохой (машинный) перевод. В современной модификации Panda замечает такие уловки и наказывает за них.

За что еще может наказать данный фильтр?

  • За дубли страниц (и пустые страницы). Google приходится индексировать и хранить каждую страничку, а тратить свои деньги на дубли/пустышки компания не желает.
  • Большое количество нерелевантной рекламы.
  • Некачественный, неуникальный текст, переспам ключевых слов.
  • Битые ссылки, неудовлетворительная внутренняя оптимизация.
  • Плохие поведенческие факторы посетителей (уход сразу же после попадания на страницу).

Сработавшие санкции затрагивают весь ресурс – по продвигаемым запросам в топ попасть становится нереально. Избавиться от штрафов можно лишь исправив имеющиеся недочеты, отписавшись в службу поддержки Google и ожидая их одобрения.

Северный зверек – Penguin

filtri-google-penguin

Еще один жесткий и очень серьезный фильтр, занимающийся отслеживанием махинаций с наращиванием ссылочной массы Penguin (или Пингвин). С его появлением очень пострадали ресурсы, успешно продвигавшиеся методом покупки ссылок (притом совершенно не обращавшие внимание на качество текстов), а также использовавшие «черные» (не очень законные) методы SEO. Попасть под этот, становящийся все умнее фильтр можно, даже не наращивая специально ссылочную массу, а просто имея в наличии ссылки с некачественных сайтов (каталогов, форумов и блогов, отличающихся заспамленностью). Во избежание санкций, такие ссылки следует отслеживать, используя сервис Disawov Tool.

Что привлечет санкции Пингвина:

  • Неестественность ссылочной массы.
  • Большое количество прямых ключевых слов внутри анкоров ссылок.
  • Резкий скачок по увеличению или снижению объема внешних ссылок.
  • Не качественность ссылочной массы (заспамленные ресурсы, сайты под фильтрами и пр.).
  • Сквозные ссылки в больших количествах.

Но основное «преступление», за которое наказывает Penguin – это спам.

Стоит ли бояться Колибри

Google-Kolibri

Достаточно недавно (осенью прошлого года) Гугл представил новый поисковый алгоритм, названный Hummingbird (Колибри). Отличается от двух предыдущих «зверей» эта «птичка» тем, что не является неким карательным фильтром – скорее она призвана сделать саму поисковую систему более удобной для пользователей. Так, алгоритм помогает понимать длинные (многословные) поисковые запросы, причем именно по смыслу, а не наличию введенных ключевых слов. С его появлением все меньшим спросом стали пользоваться напичканные ключевыми словами тексты и все большим – глубокие, наполненные смыслом. Что стоит учесть, чтобы «понравиться» Колибри?

  • Проанализировать, какими фразами пользователи могут искать ваши услуги/товар («как найти лучший магазин обуви», «где находится ближайший ресторан суши» и пр.). Используя эти фразы, создавать более разнообразный, интересный и информативный контент.
  • Синонимы. Их использование теперь также учитывается поисковыми системами – достойный повод, чтобы начать их применять.
  • Постарайтесь, чтобы название вашего бренда/сайта, употреблялось рядом с удачливыми конкурентами. Это поможет ассоциировать вас с ними при выдаче результатов поиска.
  • Колибри совсем не отменяет естественную ссылочную массу. Лишь требует, чтобы ссылки соответствовали тематике и направленности сайта.

Другие фильтры

1593

Помимо упомянутых основных, существуют также прочие алгоритмы Гугл, которые направлены на улучшение качества онлайн-ресурсов. Один из достаточно спорных (сотрудники Google даже отрицали его наличие), является фильтр «Песочница», ориентированный на вновь появляющиеся сайты. Санкции не позволяют таким ресурсам продвигаться по высоко- и среднечастотным запросам (хотя результаты продвижения по низкочастотным вполне успешны). Находиться в «Песочнице» (или «Sandbox») можно от двух месяцев (обычно, 2-3 месяца) до нескольких лет. Гарантом выхода служит планомерное развитие ресурса «белыми» методами.

Также можно попасть под «горячую руку» таким монстрам, как:

  • Supplementary Results (дополнительные результаты) – накладывается за не уникальность текстов, дубли страниц и «мусор».
  • Bombing (бомбожка) – отслеживает переспам анкоров во входящих ссылках. Если множество их содержит одинаковый текст – они могут просто аннулироваться (соответственно, сайт просядет). Метод защиты – следить за уникальностью каждой. Снять фильтр можно лишь удалением ссылок.
  • — 30 – представляет собой санкции для адептов «черного SEO». Выглядит как резкое понижение сайта на тридцать пунктов в выдаче.
  • Florida (Флорида) – наказание за перебор в оптимизации. То есть за перенасыщение текста и тегов ключевыми словами. Если это происходит в ущерб удобству посетителей (по мнению фильтра) – ждите санкций.
  • Duplicate Content (неуникальность контента) – накладывается за воровство «интеллектуальной собственности». Еще одно напоминание: тексты стоит писать самостоятельно или заказывать у специалистов.
  • Brocken Links Filter – санкция за битые ссылки (следует регулярно проверять их наличие, тут поможет специальный плагин или программа).
  • Page Load Time – при медленной загрузке страниц также можно получить наказание. Не забываем об оптимизации графики. Подвести также могут ошибки в коде, проблемы с хостингом, неудачные скрипты.
  • Co-citation Linking (или цитирование) – тут все просто, ссылаясь на некие ресурсы, выбирайте лишь качественные, проверенные (иначе фильтры вас прямо проассоциируют с сомнительным сайтом).
  • Quick Simple Content – помимо слишком быстрого роста ссылочной массы, наказать могут и за чрезмерно частые обновления текстовой информации (возникает подозрение в его автоматическом происхождении). Оказывается, что много – это не всегда хорошо.

Что со всем этим делать?

При всем огромном количестве алгоритмов, отслеживающих каждое наше действие, методика противодействия им всегда одна и та же:

  • Делать ресурс «для людей», активно наполняя его полезными, качественными текстами.
  • Не забывать об обновлениях (хотя бы раз в сутки, «золотым стандартом», позволяющим выйти из-под фильтров, считается два обновления за сутки).
  • Уделять пристальное внимание техническим моментам (отсутствию битых ссылок, скорости загрузки, избавлению от мусора и пр.).
  • Делать ресурс привлекательным для посетителей (призывать их к действию, стимулировать посещать внутренние страницы).

Да, достаточно много разнообразных фильтров Гугл действует сейчас. Но если знать, на что они ориентированы, и не пытаться быть «самым хитрым» – можно свести к минимуму риск попасть под их неприятные санкции.

Если вам понравилась статья, обязательно расскажите о ней друзьям. Также вы можете оставить свои комментарии к материалу внизу или осудить статью в группе по ссылке.

Также предлагаю подписаться на рассылку на сайт, чтобы быть всегда в курсе появления нового материала.