Всем привет!

Сегодня мы с вами разберем тему фильтры Google. Google является самой крупной поисковой системой в мире и обладает мощнейшими и постоянно обновляющимися алгоритмами, которые все время совершенствуются и развиваются.

фильтры Гугла

Этот гигант стремится автоматизировать все процессы, касающиеся ранжирования сайтов, что в принципе и логично. И одним из его алгоритмов выступают автоматизированные фильтры, которые поисковик применяет к не добросовестным ресурсам. В этой статье мы рассмотрим наиболее распространенные фильтры Гугла, число которых остановилось на отметке 16.

Почему я решил написать о фильтрах Google? Дело в том, что с недавнего времени мой ресурс, как мне кажется, угодил под один из этих фильтров. Возможно, это только мое предположение, ибо более точная информация известна только самой поисковой системе, а нам простым веб мастерам остается лишь догадываться о происходящем и сопоставлять фактическое состояние ресурса с недавним.

Около месяца назад поисковый трафик с Google стал заметно снижаться относительно моего блога и в данный момент он достиг критической отметки, что меня и вынудило искать информацию о происходящем. Если раньше статистика liveinternet насчитывала порядка 30-50 переходов в сутки на мой блог с поисковой системы Google, то в настоящее время этот показатель упал до отметки 0-5 человек, что меня абсолютно не устраивает! Причем, все запросы не просели в поисковой выдаче, они остались на прежних позициях, но переходов по ним нет!

Сказать, что я предпринимал, какие-то неверные действия в отношении своего ресурса, нельзя, наоборот, в последнее время стал интенсивнее и чаще писать посты в блог, поэтому данный факт меня весьма удивил и расстроил. Почитав немного информации по этому поводу, я пришел к выводу, что такая беда приключилась не только с моим ресурсом. Многие форумы пестрят подобными темами, и активно обсуждаю все возможные причины несправедливой деятельности Гугла.

Большинство веб мастеров все же склоняются к тому, что алгоритмы постоянно совершенствуются и поисковик пытается таким образом отсеять все «плохие» сайты, время от времени накладывая на них различные фильтры. Все это понятно, откровенные говносайты, необходимо исключать из выдачи и не давать занимать места в ТОПе. Но как быть, если ты стараешься развивать свой блог правильно и делаешь все для людей, а тут такая засада?

Хотя может это временное явление и Google изменит свое решение спустя кокой-то промежуток времени. В общем, сейчас я вам расскажу обо всех известных мне фильтрах Google и если у вас возникают затруднения с продвижением сайта в этом поисковике, возможно вы обратите внимание на фильтры, которые могли этому способствовать.

Но прежде, чем мы начнем, хотелось бы задать вопрос всем: «А как у вас обстоят дела с поисковым трафиком Google? Замечали ли вы какие-либо изменения в худшую сторону и если да, то как боролись с этим? Если данная ситуация вам знакома, выскажитесь по этому поводу в комментариях».

Фильтры Google

1. Domain Name Age (возраст домена).

Данный фильтр может быть наложен на сайт, домен которого моложе одного года. Чтобы выйти из-под него, необходимо завоевать доверие поисковой системы. Методов борьбы с таким фильтром не так уж и много:

  • развивайте свой сайт естественными способами и просто ждите. Должно пройти какое-то время;
  • еще как вариант, можно купить хороший трастовый домен и склеить его со своим, молодым.

2. Sandbox (песочница).

песочницаФильтр из той же категории, что и предыдущий. Накладывается на молодые сайты, до года, из-за низкого доверия поисковика. Отличается данный фильтр от предыдущего тем, что помимо молодых сайтов он может накрыть и сайты со старыми доменами. В основном он предначертан тем ресурсам, которые практически не обновляются, имеют низкую посещаемость и не обрастают естественной ссылочной массой.

Методов борьбы с этим фильтром значительно больше, нежели с предыдущим и давайте их рассмотрим:

В принципе, в интернете можно наткнуться и на иные мнения по этому фильтру. Одни оптимизаторы говорят, что его вообще не существует, другие, что он применим только к англоязычным сайтам. Но все же полностью исключать его из линейки фильтров я не осмелился, в силу его известности.

3. Florida или Over Optimizzation (чрезмерная оптимизация).

Один из старых фильтров, название, которого говорит само за себя. Фильтр накладывается на ресурсы, пренебрегающие правилами оптимизации. Влететь под него можно за чрезмерное употребление и выделение ключевых слов в тексте поста, в title и в заголовках H1-H6. Проявляется резким падением позиций по продвигаемым ключевым запросам, вплоть до полного удаления их из выдачи.

Методы борьбы подойдут следующие:

  • пишите тексты для людей, а не для поисковых систем;
  • статьи должны быть оптимизированы, но не переоптимизированы! Придерживайтесь простого правила, плотность ключевых слов на странице не должна превышать 5-7% от общего объема текста.

4. SupplementalResults (дополнительные результаты поиска или выражаясь языком веб мастеров — «сопли»).

Этот фильтр накладывается, как на отдельные страницы ресурса, так и на весь сайт целиком. Схлопотать его можно за не уникальный или дублирующий контент, а также за не уникальный шаблон. Симптомы фильтра таковы, что страницы перемещаются из основной выдачи поисковых систем в дополнительную. В настоящее время Google перестал показывать дополнительные результаты поиска, поэтому вероятность того, что посетители перейдут на ваш сайт снижается до минимума.

Борьба с таким фильтром заключается в следующих действиях:

  • пишите только качественные и уникальные статьи;
  • следите, чтобы у каждой статьи были уникальные мета теги title, description и keywords;
  • закрывайте все дубли на вашем сайте от индексации;
  • регулярно проверяйте свой ресурс на наличие битых ссылок и избавляйтесь от них;
  • по возможности, закажите уникальный шаблон, а лучше отдельный авторский дизайн.

5. OmittedResults (опущенные результаты).

Опущенный результат — результат, находящийся на последней странице в поисковой выдаче по какому-либо запросу, т.е. страницы практически выпадают из поиска, т.к. вряд ли кто-то из пользователей интернет доходит до последней страницы выдачи в поисках необходимой информации. Причины попадания под этот фильтр схожие с предыдущим, в принципе, как и борьба с ним:

  • пишите уникальный контент;
  • исключите дубли страниц и мета тегов;
  • перелинковывайте страницы между собой;
  • добавьте на сайт качественные внешние ссылки с тематических ресурсов.

6. DuplicateContent (дублирующий контент).

Как вы уже поняли из названия, фильтр накладывается за не уникальный контент, т.е. если вы копируете проиндексированные посты с других ресурсов (занимаетесь копипастом) или же ваш контент воруют.

Методов борьбы два:

7. BrockenLinks (битые ссылки).

Накладывается на сайты за наличие на них множества битых ссылок, несуществующих страниц с ошибкой 404. Метод борьбы один:

  • найдите и удалите все битые ссылки на своем блоге. Ссылка на статью, как их найти и удалить, дана в описании фильтра под №4 SupplementalResults.

8. PageLoadTime (время загрузки страниц сайта).

Фильтр накладывается на сайты с долго загружающимися страницами при обращении к ним поисковым роботом. Такие страницы теряют свои позиции вплоть до вылета из индекса.

Метод борьбы с таким фильтром прост:

9. Bombing (бомбежка).

бомбежкаПрименим к ресурсам, имеющим большое количеств входящих ссылок с одинаковым анкором. Проявляется проседанием позиций в поисковой выдаче или же безрезультатным продвижением запроса.

Бороться с таким фильтром нужно следующим образом:

10. -30 (минус тридцать).

Этот фильтр накладывается на ресурсы, использующие черные методы SEO, такие как дорвеи и редиректы (перенаправление пользователей на специально заготовленные страницы), а также клоакинг (информация одной и той же страницы, выдаваемая пользователю и поисковым системам, отличается).

Первоначально проявляется проседанием всех позиций примерно на тридцать пунктов. Дальнейший путь ведет только в бан поисковых систем.

11. CO-citation Linking Filter (социтирование или плохое соседство).

Фильтр накладывается за множество исходящих ссылок на «плохие» не качественные и не тематические площадки. Если сайт, помимо вашего ресурса ссылается на другой, «плохой» с точки зрения Гугла сайт, то поисковик может посчитать ваш ресурс тоже «плохим» и понизить его в выдаче.

Метод борьбы один:

  • старайтесь, что бы на ваш блог, вело как можно больше качественных ссылок.

12. Bowling (боулинг).

боулингСуть данного фильтра заключается в злобных умыслах конкурентов. Особенно этому фильтру подвергаются молодые ресурсы, которые не успели окрепнуть и проявить себя с хорошей стороны для поисковиков. У таких сайтов можно своровать контент, разместить на них ссылки с сайтов, находящихся в бане, рассылать спам и т.д.

Если вдруг с вами случится нечто подобное, выход один:

  • пишите в поддержку Google и доказывайте свою правоту, подав запрос на повторное включение сайт в индекс.

13. Links.htm (ссылочная помойка или линкопомойка).

Этот фильтр наказывает сайты, которые участвуют во взаимном обмене ссылками, так называемый линкообмен с партнерами. Заподозрив такие ресурсы, Google накладывает на них санкции. В этом случае все ссылки перестают обладать каким-либо весом, соответственно позиции сайтов партнеров перестают расти и продвигаться в поисковой выдаче.

Метод борьбы с этим фильтром один:

  • уберите большую часть исходящих ссылок со страниц или закройте их от индексации.

14. To Many Links at Once (быстрый прирост ссылок или много ссылок сразу).

Если на ваш сайт за короткий промежуток времени появится очень много ссылок, это вызовет большое подозрение у Гугла и он решит, что ссылки добыты не естественным путем. Особенно это касается молодых ресурсов. В этом случае, все купленные ссылки могут быть проигнорированы и деньги потрачены впустую.

Выход в данной ситуации один:

  • ссылочное продвижение должно быть плавным и постепенным.

15. Panda (панда).

пандаЭтот фильтр накладывается на ресурсы за плохую структура шаблона, некачественный контент (автоматически генерируемый), излишнюю рекламу, дубли страниц, некачественные ссылки.

Борьба с этим фильтром, полная противоположность описанного:

  • делайте структуру сайта понятной для пользователей;
  • пишите только уникальные статьи;
  • не увлекайтесь рекламой;
  • при покупке ссылок, тщательно отбирайте сайты-доноры.

16. Penguin (пенгвин).

пингвинАлгоритмы этого фильтра были созданы для наказания сайтов, которые переусердствуют с оптимизацией, используют множество анкоров с точным вхождением, быстро наращивают ссылочную массу, имеют множество дублей страниц и пренебрежительно в открытую торгую ссылками.

Бороться с этим фильтром следуют следующим образом:

  • следите за количеством ключевых слов в тексте, их порог не должен превышать 5-7% от общего количества слов;
  • разбавляйте анкоры, как можно лучше, делая их таким образом естественными;
  • не торопитесь со ссылочным продвижением, приобретайте ссылки постепенно;
  • закройте все имеющиеся дубли;
  • если вы занимаетесь продажей ссылок, продавайте их правильно! Не стоит заниматься этим в массовом количестве. Одна, максимум две ссылки со страницы.

Мы с вами рассмотрели 16 самых распространенных фильтров Google. Вывод из этого поста можно сделать один! Сайт должен быть в первую очередь для людей и тогда большинство этих фильтров удастся избежать. Я же на этом с вами прощаюсь, желаю, чтобы ваш ресурс никогда не угодил под фильтры Google! Всем хорошего настроения, пока и до скорых встреч!

-->Подписаться на обновления блога<--

Как вам статья? А ваш ресурс попадал под влияние этих злобных алгоритмов? Какие методы борьбы вы использовали для выхода из-под них? Жду ваших комментариев!

С уважением, Николай Коротков