Как работает Google Penguin? Миф: Вам не восстановиться от воздействия алгоритма Penguin. Обнаружение ваших внешних ссылок

Известно ли вам, что поисковые алгоритмы Google учитывают более 200 факторов ранжирования и степень важности каждого из них индивидуальна для каждого отдельно взятого сайта? А знаете ли вы, что в течение года Google совокупно вносит более 500 изменений в свои алгоритмы и перед полноценным внедрением каждая измененная версия тестируется на небольшой выборке пользователей поисковика?

Сегодня мы поговорим, пожалуй, о самом известном алгоритме Google – Penguin («Пингвин»).

Что такое Google «Пингвин»?

Google «Пингвин» – это алгоритм, созданный для борьбы некачественными сайтами и с веб-спамом. Датой его «рождения» считается 24 апреля 2012 года. Чтобы не попасть под действия алгоритма, Google приводит ряд рекомендаций, которые необходимо учитывать при продвижении сайта в этой поисковой системе. Вот некоторые из них:

    на сайте не должно быть автоматически сгенерированного контента;

    на сайте не должно быть страниц с неоригинальным или дублированным контентом;

    сайт не должен предоставлять неодинаковый контент или разные URL пользователям и поисковым системам;

    переадресация на другой URL не должна применяться для обмана поисковой системы;

    запрещено использовать скрытый текст и скрытые ссылки с целью влияния на рейтинг сайта в результатах поиска Google;

    на сайтах, участвующих в партнерских программах, свой собственный контент должен превалировать на контентом, предоставляемым партнерской площадкой;

    ключевые слова на странице должны полностью соответствовать ее содержанию;

    запрещено создание вредоносных страниц для фишинга и установки вирусов, троянов или другого вредоносного ПО;

    запрещено некорректное использование разметки для расширенных описаний веб-страниц;

    запрещена отправка автоматических запросов в Google.

Если на вашем сайте выявлено что-то из данного списка и он попал под санкции «Пингвина», то выйти из-под них можно будет только при очередном апдейте алгоритма и только в том случае, если на сайте исправлены ошибки, приведшие к пенализации. С каждой новой версией «Пингвина» частота апдейтов возрастает, а значит, скорость выхода из-под санкций тоже увеличивается.

На что влияет Google «Пингвин»

Алгоритм влияет на ранжирование сайта. Некоторые говорят, что это не понижение в поисковой выдаче, а лишь отправка сайта на ту позицию, которую он должен занимать на самом деле. Но это не совсем верное утверждение, так как понижение позиций в выдаче связано с наличием и оценкой веса негативных факторов сайта, и, как мы уже писали выше, для каждого сайта степень влияния негативных факторов индивидуальна, а это уже пенализация.

Алгоритм и ручная модерация

Напоминаем, что «Пингвин» – это автоматизированный алгоритм, и он всегда будет работать как автоматизированный алгоритм. Но существует еще и такое понятие, как «ручная модерация» сайта, что также может привести к пессимизации позиций в поисковой выдаче. При этом и алгоритмическая, и ручная модерации могут проводиться на вашем сайте одновременно. Стоит заметить, что выход из-под санкций алгоритма «Пингвин» происходит автоматически, но, чтобы выйти из-под санкций, наложенных в режиме ручной модерации, необходимо связываться с техподдержкой Google и сообщать о том, какие шаги были предприняты для исправления ошибок на сайте.

Определение проблемы

Для определения причин пенализации сайтов алгоритмом «Пингвин» необходимо проверить внутренние факторы, как, например, чрезмерная «тошнота » ключевых слов на странице. Переспамленный ключевиками текст, и другие манипуляции – это то, что нужно проверить и исправить в первую очередь в случае попадания сайта под санкции «Пингвина».

Есть еще одна распространенная причина пенализации - наличие внешних спам-ссылок на ваш ре сурс. Как правило их появление связано с попытками проведения самостоятельной внешней SEO-оптимизации, в процессе которой некоторые владельцы сайтов прогоняют его через бесплатные каталоги, доски объявлений и тому подобные низкокачественные площадки. Чтобы избежать подобных проблем, лучше всего либо обращаться к проверенным SEO-специалистам, либо доверять продвижение сайта автоматизированным системам, таким как SeoPult, которые имеют свои настроенные фильтры и отсеивают некачественные площадки, недопуская их к клиенским сайтам. Если же вы занимались SEO самостоятельно и получили ссылки со спам-площадок, то стоит провести ссылочный аудит, чтобы определить, какие ссылки негативно влияют на ваш сайт и какие из них стоит удалить или отключить от учета поисковиком (с помощью инструмента Google Disavow Tools). Получить список внешних ссылок для аудита можно через Google Webmaster Tools . Но так как Google может видеть не все ссылки, список стоит дополнить, используя сторонние инструменты, такие как: Bing Webmaster Tools , Ahrefs , Majestic , Open Site Explorer и SEMrush . Все они имеют свои базы ссылок, которые могут дополнить список Google Webmaster Tools.

Инструмент Disavow (отклонение ссылок)

Как только вы получите полный список внешних ссылок и определите, какие из них повлияли на пенализацию вашего ресурса, вы сможете отклонить их учет в поиске Google. Для этого существует инструмент Disavow Tool , содержащий список ссылок, влияние которых на ваш сайт необходимо перестать учитывать. Джон Мюллер из Google говорит, что этот инструмент аналогичен тегу, только направлен для использования на внешних ресурсах. Вы можете запретить к индексации как отдельные внешние ссылки, так и все ссылки, ведущие с конкретного домена. Джон говорит, что добавления ссылок в Disavow более чем достаточно для выхода из-под санкций «Пингвина». В случае если вы попали под ручную модерацию (пенализацию), вам следует записывать все свои действия, предпринятые для выхода из-под санкций и позже сообщить о произведенных изменениях в службу поддержки.

Запрос на повторную проверку

В случае получения ручной пенализации единственным способом выхода из-под санкций является подача запроса на повторную проверку в кабинете Вебмастера Google. Отправлять его нужно только после того, как вы, с вашей точки зрения, исправили все, что могло привести к пенализации сайта. В запросе необходимо указать, какие ошибки вы выявили и какие шаги предприняли для их исправления. Чем более подробным будет описание ваших действий, тем выше вероятность скорого выхода из-под санкций Google.

Качественные ссылки, которые помогут выйти из-под санкций «Пингвина»

По словам уже известного нам Джона Мюллера из Google, выйти с наименьшими потерями времени и усилий из-под санкций «Пингвина» или вовсе под них не попасть может помочь разумное соотношение большого количества качественных внешних ссылок к малому количеству спам-ссылок. К сожалению, точного количественного соотношения качественных ссылок к некачественным никто не знает, потому старайтесь систематически проверять качество вашей ссылочной массы и при обнаружении веб-спама сразу же удалять их или добавлять в Disavow.

Черное SEO

Черное SEO – это способ борьбы с конкурентами, при помощи которого можно сильно понизить позиции конкурентной площадки в поисковой выдаче. Одним из таких способов, например, является «ссылочный взрыв ». Но стоит помнить, что инструменты черного SEO не всегда могут быть эффективны, особенно если они применяются к сайтам с высоким трастом и качественной ссылочной массой . В ряде случаев ссылочный взрыв может сыграть в плюс сайту-конкуренту, так как новые ссылки (даже некачественные) могут значительно «утяжелить» накопленную качественную ссылочную массу и, вместо негативного эффекта, вывести сайт конкурента на более высокие позиции (относительно прежних). Также стоит отметить, что Google учится распознавать манипуляции конкурентов и защищать сайты, против которых они направлены.

Заключение

Определить самостоятельно, попал ли сайт под санкции Google, довольно сложно, особенно если они имеют алгоритмический, а не ручной характер. В Google модератор уже внесено предложение о том, чтобы в кабинет веб-мастера добавить инструмент, позволяющий определить наличие санкций «Пингвина» или «Панды», наложенных на тот или иной сайт, или отсутствие таковых. Если эта функция будет добавлена, то станет гораздо проще диагностировать и исправлять ошибки сайта, выявленные конкретными алгоритмами.

Привет, друзья. Сегодня обещаю быть интересным, а главное полезным. Поделюсь с вами своей небольшой радостной новостью – как вы уже догадались из заголовка, мне удалось реабилитировать мой сайт, попавший ровно год назад под фильтр Гугл Пингвин. Хочу особо обратить ваше внимание, что речь пойдет именно про автоматически наложенные санкции без уведомлений в панели вебмастера о мерах принятых вручную – ничего этого не было, просто в октябре 2012 года трафик на сайт резко упал, а позиции вылетели из зоны видимости (за пределы ТОП 200). И с тех пор положение только усугублялось, но…

Но наконец-то свершилось то, чего я так долго ждал! Фильтр за спамные входящие ссылки снялся, значительно улучшилась видимость сайта, позиции сильно выросли.

Сказав выше слово «новость», я, конечно же, вас обманул, потому что это не новость. Этот пост я начал писать еще 14 октября 2013 года, но так и не дописал его, сначала решил немного подождать, чтобы не делать поспешных выводов, потом ленился, а затем вообще уволился с работы и переехал в другой город. Короче, было мне совсем не до Пингвинов. Но теперь я готов не только продолжить, но и дополнить свой пост новыми мыслями, идеями и выводами.

Хочу напомнить, что самый последний на сегодня апдейт алгоритма Google Penguin состоялся 5 октября 2013 года, называется он Penguin 5 (или Penguin 2.1), по данным Google новый алгоритм задел около 1% запросов. Вот об этом апдейте и пойдет дальше речь.

Далее я вам расскажу, что стало причиной наложения фильтра, какие были последствия, как мне в итоге удалось победить Гугл Пингвина, и что происходит на данный момент, а так же мои рекомендации о том, как делать не стоит, имея полученный опыт!

Пост будет очень длинным, но наберитесь терпения, это поможет вам либо застраховать себя от возможного фильтра, либо избавиться от него, если он уже наложен. Итак, поехали!

Краткий экскурс в историю

Вот ссылка на мой апрельский пост, где я писал (тогда еще даже в планах не было). Там же я упомянул про один мой проект, который я никому не свечу, но сегодня я решил спалиться, вот этот сайт — http://slimdown.ru/ . Да, это женский сайт, кстати, крупнейший структурированный сборник диет в рунете. И это для него же я делал мобильные приложения для iOS и Android – если не в облом, можете скачать и поставить оценку в 5 звезд, я буду очень благодарен (ссылки на приложения в сайдбаре сверху на указанном сайте)! Но не о крутости моего сайта речь, как вы понимаете.

А речь о том, что данный сайт в октябре 2012 года попал под фильтр Google Penguin. Смотрите сами.

Срез среднесуточной посещаемости с поиска Google по месяцам по данным LiveInternet.ru:

Или вот вам статистика переходов с ПС Google за период 1 января 2012 – 13 октября 2013:

Как видите, 2 октября 2012 у меня было все в полном порядке, взял новый рекорд посещаемости с Google почти в 3000 посетителей в сутки, а уже 6 числа все оказалось в жопе и далее только усугублялось. Совершенно очевидно, что это наложение фильтра за искусственные или спамные ссылки, т.к. как раз в эти дни был апдейт Пингвина. И если все предыдущие обновления алгоритма для меня проходили незаметно, более того – сайт только рос, то в этот раз мне это с рук не сошло. Апдейт этого злосчастного алгоритма был 5 октября 2012 года, назывался он Penguin 3 и коснулся по официальным данным около 0.3% всех запросов.

Так вот, в посте, который уже упоминался выше, я выдвинул гипотезу, что «появление в ссылочном профиле трастовых сайтов должно улучшить ситуацию и теоретически вернуть трафик с Google хотя бы частично ». А так же альтернативное исследование заключалось в том, чтобы сделать выгрузку беклинков на сайт из всех возможных источников, проверить их на качество… Далее почему-то я ничего тогда не сказал, но логично, что после проверки надо было понять, насколько плох текущий ссылочной профиль, выбрать всех плохих доноров и отклонить через инструмент Google Disavow Links Tool .

Восстановим хронологию событий

Чтобы ничего не упустить, еще раз разложим хронологию:

  • До 5 октября 2012 года все было замечательно , трафик рос завидными темпами, я собирался начинать копить на яхту)))
  • 5 октября случился апдейт алгоритма, после чего трафик резко упал , я понял, что это фильтр. Конечно, первым делом заглянул в панель вебмастера, в раздел «Меры, принятые вручную ». Но и тогда и сейчас там написано «В отношении этого сайта вручную не принимались меры по борьбе с веб-спамом». Я расстроился, перестал закупать ссылки и вообще что-либо делать с сайтом.
  • 15 ноября 2012 года, тогда еще, может кто-то помнит, была на странице «мер, принятых вручную» волшебная кнопка, позволяющая написать письмо в Гугл , даже если никаких мер не принято. Вскоре эту кнопку убрали, видимо, количество таких идиотов как я превысило критическую отметку. Так вот я решил прикинуться валенком и написать слезное письмо с мольбами о пощаде. Каково же было мое удивление, когда текст этого письма, бережно сохраненный в txt-файл, я нашел сегодня в одной из забытых папок на рабочем столе:

    Добрый день, уважаемая служба поддержки веб-мастеров.

    Я к вам обращаюсь по вопросу, по которому, наверняка, обращаются еще тысячи людей – проблемы с ранжированием сайта.

    Я прочитал данную инструкцию в вашей справке — http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=2648487
    Мой сайт http://slimdown.ru . Я скачал список ссылок из панели вебмастера для своего сайта. Просмотрел его, а там около 4 тысяч ссылок, и ужаснулся, очень много ссылок с мошеннический сайтов, или дорвеев, созданных на бесплатных хостингах, типа narod.ru и др., вот несколько ссылок примеров:

    http://a570028.narod.ru/page/dieta_na_chae_s_molokom_72.html
    http://alex1953.narod2.ru/dieta_kristiny_orbakayte.html
    http://andreydust.narod2.ru/kefirnaya_dieta_9_dnyay_otzyvy.html
    http://balbeska-999.narod2.ru/dieta_na_800_kkal.html

    Все они выглядят одинаково и их очень много. Я просмотрел около 1500 ссылок из списка из 4000 и чуть не сошел с ума, проверяя все вручную.

    Я составил список доменов для инструмента отклонения ссылок https://www.google.com/webmasters/tools/disavow-links?hl=ru&siteUrl=http%3A%2F%2Fslimdown.ru%2F и загрузил текстовый файл. Пример содержания файла:
    domain: 0good-diet-2011.ru
    domain: aleksei-pelevin.narod2.ru
    domain: deorseradar.pochta.ru
    domain: easy-diet.cu.cc
    и т.д.

    В соответствии с вашей справкой пишу вам это письмо.

    Хотелось бы еще попутно задать несколько вопросов:
    — Пропадут ли ссылки с доменов, указанных и загруженных в файле для инструмента отклонения ссылок? Если так, то я смогу периодически проверять список ссылок и добавлять в отклонение новые, некачественные ссылки.
    — Можно ли добавлять в список на отклонение домены верхнего уровня? Например, narod.ru, чтобы все поддомены так же не учитывались. Я готов пожертвовать ссылками с нормальных сайтов на бесплатных хостингах, иначе просто невозможно отследить все вредоносные поддомены третьего уровня.

    Небольшая предыстория этого письма. Раньше мой сайт очень хорошо чувствовал себя в поиске Google и получал хороший трафик. Я начал вести свой сайт с конца 2009 года и постепенно наполнял его качественными статьями. Сначала мы с женой писали туда новости, потом стали привлекать и других людей, которые помогали наполнять сайт. По сути, вот уже 3 года и продолжаем каждый день публиковать статьи.

    Я постоянно слежу за состоянием сайта в панели вебмастера, исправляю все ошибки, слежу, чтобы не было одинакового содержания на разных страницах и т.д. Внедряю ваши рекомендации, которыми вы делитесь в блоге и в справке для веб-мастера.

    Но вот в начале октября 2012 года трафик с Google резко упал. Вот скриншот графика одного из счетчиков — http://s2.ipicture.ru/uploads/20121115/7RIIQFhG.png (04.03.2014, прим — картинка уже не существует) . Заметно, что трафик с начала 2012 года начал очень хорошо расти, мы как раз начали более активно наполнять сайт, чаще публиковать новости. Яндекс долго «думал» прежде чем понять, что мы стали усерднее работать над сайтом и только в мае трафик начал расти. И я не знаю, с чем связано столь резкое падение посетителей с Google, ведь развитие сайта было всегда в одном направлении, просто стали добавлять больше статей. Все статьи уникальные, мы их пишем сами, хотя иногда я и проверяю, не своровал ли кто-то наши тексты.

    Поэтому и обращаюсь к вам за помощью. Может быть и правда, причина в тех самых ссылках, о которых я говорил в самом начале письма.

    Мы очень ждем вашего ответа.
    Спасибо, что выслушали и прочитали такое большое письмо.

    Как вы понимаете, прикидываться валенком было бесполезно, ни ответа, ни какой-то иной реакции на мое письмо не последовало. Я продолжал грустить.

  • В апреле 2013 наступило озарение – задумался про траст, запилил скрипт-парсер маджестика, попутно выдвинул гипотезу, решил провести . А еще через пару дней пришла мысль из разряда, а что если... Что если создать программу для автоматизации оценки имеющихся ссылок и будущих доноров!? И началась разработка (в мае).
  • 26 июня 2013 случился . Как вы знаете, случился такой ажиотаж вокруг программы, что я вообще забил все кроме программы, а времени не хватало даже на сон.
  • Летом на эксперимент я забил, но не забыл. За месяц до релиза программы на самом первом рабочем прототипе я первым делом прогнал базу доноров GGL и стал закупаться понемногу ссылками с самых трастовых сайтов (Траст > 50, Спам
  • Параллельно закупу ссылок я скачал полный список беклинков из Google WMT и из панели вебмастера Яндекса. Совместил эти таблицы, добавил в FastTrust и полностью проверил. На выходе получил список сайтов по самым жестоким фильтрам (Траст 7) и, сформировав txt-файл, использовал инструмент Disavow Tools . Под раздачу по таким критериям попали около 95% сайтов, требовались жестокие меры. Данный txt-файл я загрузил в Disavow 11 сентября 2013:

  • 5 октября 2013 года случается апдейт алгоритма в Google, и видимость сайта резко улучшается, запросы из ниоткуда возвращаются в пределы ТОП10-ТОП30. Казалось бы – вот она Победа! Но…

«Мир уже никогда не будет прежним»

Помните те графики в начале поста? Я их сделал через несколько дней после снятия фильтра. Я был полон оптимизма, наблюдая растущий график по Liveinternet’у и смотря на тут «пипку», похожую на появившийся пульс после остановки сердца, на графике Яндекс Метрики…

Я уверен, вы хотите знать, что сейчас происходит, какие сейчас графики и вообще.
Вот, пожалуйста.

Статистика по трафику с Google по данным Яндекс Метрики за 2 года (период 26 февраля 2012 – 26 февраля 2014):

Не совсем понятно что там на графике происходит. Поэтому ниже предлагаю вам два графика из Liveinternet (среднесуточная посещаемость) с группировкой по месяцам и по неделям:



Вы думаете, какая-то фигня, АлаичЪ нас обманывает! На графике по месяцам и правда можно подумать, что это не больше чем «пук в лужу». Но на графике по неделям видно, что в первый же день трафик вырос в 2 раза и продолжал расти дальше. Далее провал, связанный с новым годом, а так же всплеск, связанный с ним же. Делать еще какие-то выводы из этих графиков я не берусь, но совершенно отчетливо видно, что падений нет, но, к сожалению, нет и роста…

Почему это – Победа!

Вы не поверите, насколько сильно мне хочется вернуть былую славу моего сайта в глазах Гугла, насколько сильно мне хочется вернуть и еще увеличить трафик. Разумеется, чтобы таки начать копить на яхту, ведь я же живу теперь совсем около моря))) Но чудес не бывает, зато бывают победы, и эта одна из них.

Открывайте картинку по ссылке ниже в новой вкладке в полный размер и смотрите. Первым признаком снятия фильтра и улучшения самочувствия сайта в целом является улучшение видимости в выдаче. На графике видно, что видимость сайта улучшилась с 5000 до 8000 показов. После этого в течение 2 недель видимость увеличилась до 12 000, но скриншота этого графика у меня нет, а сейчас вернуться в те времена нельзя, история хранится только за последние 2 месяца. Другими словами, видимость сайта выросла более чем в 2 раза. А ниже графика вы можете видеть изменение видимости каких-то отдельных запросов, их CTR и средней позиции.

Ну и вот вам еще более конкретный пример моей статистики – реальные запросы и изменение их позиций. Историческая сводка по позициям ключевых слов от июня 2012 года до октября 2013. Напомню, что апдейт алгоритма Пингвина случился 5 октября 2012 (фильтр наложен) и 5 октября 2013 (фильтр снялся).

Так же хочу обратить ваше внимание на сами ключевые слова (я их не стал скрывать), это часть из списка моих ориентировочных ключей – это самые ВЧ ключевики в нише (во всяком случае, по тем временам, например, один только запрос «японская диета» дает 1000+ переходов в день, это без длинного хвоста). Я рассчитывал вывести их в топ в течение еще нескольких месяцев, и это потенциально давало мне 30-50 тысяч посетителей ежедневно. Но как в известном ролике «пацан к успеху шел», да не дошел. Я специально для мониторинга выбирал ВЧ, т.к. НЧ и СЧ отлично и сами сидели стабильно в топе, мониторить их смысла особого и не было.

Вот вам еще один график с изменением позиций по маркерным ключам после снятия фильтра . Немного более наглядно, чем исторический график:

Не знаю, что тут еще добавить, графики все наглядно показывают. Но у нас остается открытым чуть ли не самый важный вопрос – а почему все случилось именно так?

Причины и следствия

Итак, есть у меня несколько идей и мнений на тему, почему все произошло именно так, а не иначе, почему трафик восстановился не полностью, почему, почему…

Начну издалека. Знаете ли вы, что существуют специальные форумы Google для вебмастеров, где можно напрямую пообщаться с официальными представителями поиска и обсудить интересующие вопросы? Более всего нам будет интересен форум про индексирование и ранжирование сайтов , где обсуждаются вопросы о взаимодействии сайтов с поисковой системой и их положении в поисковой выдаче.

Конкретно там обсуждаются проблемы, связанные с наложением фильтра, там можно «запалить» свой сайт, если не боитесь и обсудить, почему же вашему сайту стало плохо. Лично я боюсь там обсуждать свой сайт, там валенком не прикинешься, там растерзают на месте, я уже достаточно видел случаев полного морального уничтожения вебмастеров:)

Вот просто для затравки вам несколько ссылок, связанных с наложением Пингвина:
Сайт резко «упал» по всем поисковым запросам
Помогите выйти из под автофильтра

Если почитать несколько топиков, можно заметить, что в обсуждениях отвечающие очень умело оперируют данными по беклинкам из Solomono – скрыться от алгоритма можно попытаться, а от людей – никак. Если вы действительно нарушаете правила, вас моментально разоблачат.

Короче, не о том речь. Выше я вам просто дал полезные ссылки, которые стоит почитать. Но вел я к тому, что я там однажды наткнулся на длинную переписку одного вебмастера и представителя Гугла . Заключалась переписка в следующем – на сайт наложили ручной фильтр, пользователь воспользовался Disavow Links, но эффекта не получил, решил спросить, что делать и как дальше жить. Сначала выяснилось, что он просто некорректно создал txt-файл со списком ссылок для отклонения, далее выясняли, откуда взялись ссылки и как их удалить, часть удалили, часть осталась, решили отклонить. В процессе всего это цирка, который длился около месяца, вебмастеру несколько раз отказывали в снятии ручного фильтра, с горем пополам он наконец смог создать и загрузить правильный список ссылок для отклонения и его приняли. О чудо! Ручной фильтр сняли…

Вы не поверите, но сайт вебмастера не поднялся в выдаче – он просел и потерял даже самые плохие имеющиеся позиции! Фееричная развязка, не так ли? Далее было все еще смешнее – вебмастер умолял наложить обратно на его сайт фильтр, чтобы вернуть хоть какие-то позиции. В итоге дело кончилось ничем — поохали, поахали и разошлись с миром. Зато я хорошо помню объяснение представителя Гугла на счет повторного падения позиций. Он сказал что-то в духе: «А что вы хотели?! Вы отклонили ссылки, они теперь не учитываются, а ваш сайт, может быть, только за счет них и держался хоть на каких-то позициях, теперь эти ссылки не учитываются, вот и позиций тоже нет».

Верить представителям ПС нельзя, но и не верить тоже нельзя. Возможно поэтому одной из причин, почему трафик на моем сайте не вернулся к прежнему уровню, стал именно неучет анкорных ссылок . А я, будучи совершенно бесстрашным человеком, продвигал все по-хардкору – анкорные ссылки с точным вхождением ключевиков (но без повторов, просто очень большой набор кейвордов). В итоге на сайт к моменту наложения фильтра было куплено около 300 ссылок на 50 000р в GGL и еще 300 ссылок на 30 000р в RotaPost. Ссылки покупались максимально тематические — в статьях по теме на соответствующих сайтах. Еще одно тому подтверждение, что тематика сайта мало что решает, а совсем другие факторы отвечают за то, будет ли ссылка работать и не наложат ли фильтр. Кстати, я же потом проанализировал купленные мной ссылки, оказалось, что большая часть сайтов, на которых стоят эти ссылки, заспамлены и не трастовые совсем. Поэтому почти все купленные ссылки и отправились в Disavow, а ведь когда-то они прекрасно работали…до поры до времени.

Когда трафик с Гугла начал падать, с Яндекса он начал расти. Видимо, только тогда до Яндекса дошло, что я начал покупать ссылки, он начал их постепенно индексировать и учитывать. После фильтра в октябре я сразу перестал покупать ссылки, но Яндекс долго их учитывал, потому рост шел аж до февраля. Согласно эксперименту, летом 2013-ого я начал закупать трастовые ссылки, до Яндекса это дошло только в октябре-ноябре, зато хорошо дошло, посещаемость выросла с 3000 до 5000 в сутки. Так что под Яндекс ссылки с хороших сайтов продолжают рулить.

Как правильно отфильтровать некачественные ссылки

Я писал, что находил некачественные беклинки своей программой. Но программа есть не у всех, и далеко не у всех есть возможность ее купить, я это прекрасно знаю. И поэтому месяц назад, в конце января, я незаметно анонсировал наш новый мини-сервис под названием BackLinks Checker , цель которого как раз поиск и фильтрация некачественных ссылок .

Вы просто загружаете файл, скачанный из панели вебмастера Гугла, а сервис сам проанализирует каждый сайт. Когда анализ закончится, будет сформирован готовый txt-файл, который прямо сразу без каких-либо правок можно будет загрузить в Google Disavow Tools. Алгоритмы отбора некачественных сайтов основываются на опытах и наблюдениях, можете мне доверять!

И главное – стоимость такой проверки до смешного мала – 5 копеек за один проверенных хост! Обратите внимание, что я сказал не URL, а хост. В вашем файле с беклинками может быть и 50 000 ссылок, но ссылок с уникальных доменов там может быть всего 300, например. Соответственно и плата возьмется в размере 300*5=1500 копеек = 15 рублей! Где вы еще такое видели, чтобы проверка 1000 ссылок стоила вам всего 50 рублей!

Что касается продвинутых пользователей , которые хотят контролировать каждый шаг и решать все самостоятельно, ты в данный момент мы работаем над большим сервисом под названием CheckTrust — релиз его пока не состоялся, но уже я успел сделать анонс в Москве на конференции AllInTop Conf. Сервис в стадии беты, но вы можете регистрироваться уже сейчас и полноценно им пользоваться. При регистрации каждому будет выдано 500 бесплатных проверок. Если говорить кратко, то этот сервис – аналог программы FastTrust в вебе, а к своему релизу он обрастет новыми уникальными возможностями, которых у программы нет и не будет. Пользуйтесь на здоровье и не забывайте сообщать обо всех найденных багах!

О том, как получить список некачественных ссылок я вам рассказал. Но как говорится в том самом анекдоте – есть нюанс! И нюанс этот взялся из публичных заявлений представителей Google, высказываний на форуме поддержки вебмастеров и, собственно, из писем-уведомлений о наложении ручных санкций на сайт:

«Исправьте или удалите все искусственные ссылки, не ограничиваясь приведенными выше примерами. Возможно, для этого Вам придется связаться с веб-мастерами соответствующих сайтов. Если Вы не смогли добиться удаления каких-либо ссылок, воспользуйтесь инструментом для отклонения ссылок. Однако помните, что недостаточно просто внести в него все подозрительные ссылки: отправляя запрос на повторную проверку, необходимо продемонстрировать, что Вы сделали все возможное для удаления искусственных ссылок с других ресурсов».

Так вот нюанс заключается в том, чтобы не тупо загрузить список ссылок в Disavow, но создать видимость того, что вы приложили все силы к тому, чтобы избавиться от «плохих» ссылок. Если вы арендуете ссылки в sape, то просто перестаньте это делать. А если вы покупали вечные ссылки, как это делал я, то можете попытаться связаться с вебмастерами и договориться удалить ссылки. Но я решил забить на нюанс, опасаясь за Яндекс, и потому ограничился только инструментом Disavow.

В качестве послесловия

Надо сказать, что все вышеописанное актуально и для снятия ручного фильтра Google Penguin , когда вам приходят сообщения в панель вебмастера об искусственных входящих ссылках. В этом случае задача упрощается, вам не надо будет гадать, все ли вы сделали правильно, вы просто чистите ссылки, отправляете запрос на пересмотр и ждете результата, если необходимо повторяете процедуру. Все просто. А вот мануалов по избавлению от автоматического Пингвина я пока не встречал.

Вот так совершенно незаметно вы прочитали более 20 000 знаков, при этом мне пришлось упустить некоторые моменты, поэтому обязательно задавайте вопросы, уточняйте, вместе попытаемся всю недостающую информацию раскрыть в комментариях .

Надеюсь, что мой пост оказался для вас полезным и заставил задуматься о правильных вещах!

Успехов и побед вам, дорогие друзья, в борьбе с фильтрами. Но еще лучше – не попадайте под фильтры вообще!

Спасибо за внимание, до связи.

С уважением, Александр Алаев

Мы все хорошо знаем, дорогие друзья, как поисковые системы корпят над своими алгоритмами, фильтрами и так далее, чтобы как можно четче выдавать простым обывателям сети Интернет то, что они ищут. Но эти самые алгоритмы параллельно проводят и чистку сети от того же спама или некачественных ресурсов, которые всеми правдами или не правдами как-то очутились в ТОПе. «Так дело не пойдет» - как-то так думают умы поисковых гигантов, и в очередной раз с этой мыслью вышли ребята из Google.

Так уже вторую неделю «гудит» вебмастерская часть сети и большинство негодует: «Google ввел что-то с чем-то и эта адская смесь порезала наши позиции, что в свою очередь сократило трафик». Да, действительно, анализируя конкуренцию в интересных мне нишах, я заметил серьезные перемены. Трафик на многих конкурентных ресурсах был срезан на 10, 20, 50, а то и больше процентов. Да что там далеко ходить, посмотрите на некоторые seo блоги, непривычно видеть посещаемость в 150-200 пользователей в сутки.

Итак, что же там нахимичил Google…

В 20-х числах апреля 2012 года в сети появилось сообщение от разработчиков Google приблизительно следующего содержания:

«В ближайшие дни мы запускаем важное изменение алгоритмов, направленных на Webspam. Изменения снизят рейтинги сайтов, которые как мы считаем, нарушают требования Google к качеству сайтов»…

В ночь с 24 на 25 апреля был введен новый алгоритм Google – Google Penguin (Гугл Пингвин ). Любовь к животным Google вызвала много шума. На том же Серче образовалось несколько тем с огромным общим числом страниц (более 500) обсуждения нового алгоритма Google Penguin. Недовольных как всегда оказалось значительно больше, чем довольных, ведь довольные тихо сидят и не палят свои наработки, которые только на «Ура» съел Гугловский Пингвин.

Давайте для начала ознакомимся с теми самыми основными требованиями к качеству сайтов, которые выдвигает Google:

  1. Не используйте скрытый текст и скрытые ссылки. Google, да и не только Google, давно идут под флагом человеколюбия. То, что не видит человек, понимается и воспринимается поисковиками как попытка повлиять на выдачу поиска, а это сравнимо с манипуляциями и пресекается в виде песимизации или еще какой «порчи». Помнится, одно время был очень модным скрытый текст, еще бы, ведь он давал эффект. Черный текст на черном фоне с оптимизацией определенной, ты попадал на страницу и недоумевал, а где то, что показывал поисковик.
  2. Не используйте клоакинг или скрытую переадресацию. Не нужно пытаться выдавать поисковому роботу одну информацию, а пользователю другую. Контент должен быть единым для всех. По поводу переадресации, то тут любителей сорвать денежку с перенаправления или продажи мобильного трафика, Google решил немного разочаровать.
  3. Не отправляйте автоматические запросы в Google.
  4. Не перегружайте страницы ключевыми словами. Этот принцип уже давно поддерживался Яндексом и позиционирование против переоптимизированности сайтов явно убивало работу приверженцев напичкать сайт ключами. Если раньше можно было напичкать статьи ключами и радоваться трафиком с Google, то теперь, как видите и сами понимаете, не все так просто. Но тут же не стоит забывать про пользовательские факторы или так называемые поведенческие факторы. Если они на хорошем уровне, то даже легкая переоптимизированность не проблема, ведь поведенческие факторы пользователей всегда были, есть и скорее всего, будут в приоритете. Только здесь уже все несколько сложнее – сами представьте, что нужно дать и в каком объеме, чтобы эти самые поведенческие факторы были на высоте. Это говорит о том, что контент действительно должен быть высокого уровня и интереса, а не легенький рерайт с конкурирующего сайта или лидера ниши.
  5. Не создавайте страницы, домены и поддомены, которые в значительной степени повторяют содержимое основного сайта или любого другого. В этом пункте гугловцы сразу соединили воедино свои взгляды по поводу аффилированности, сеток сайтов, дорвеев, копипаста, а также рерайта низкого качества.
  6. Не создавайте вредоносных страниц, таких как фишинг или содержащих вирус, троянов или другого вредоносного программного обеспечения. Этот пункт не стоит вообще как-то разжевывать, бой вирусам одним словом.
  7. Не создавайте дорвеев или других страниц, созданных только для поисковых систем.
  8. Если ваш сайт работает с партнерскими программами, то убедитесь, что он представляет ценность для сети и пользователей. Обеспечьте его уникальным и релеватным содержимым, что в первую очередь будет привлекать пользователей к вам.

Эти 8 принципов Google выделил как основные. Но так же есть и еще 4, которые особо отмечены были ими же:

  1. Создавайте страницы сайта в первую очередь для пользователей, а не для поисковых систем. Не используйте маскировок или других схем работы с сайтами, будьте предельно прозрачны.
  2. Не пытайтесь хитростью повысить рейтинг сайта в поисковых системах.
  3. Не участвуйте в схемах построения ссылок, разработанных для повышения рейтинга вашего сайта в поисковых системах или Google Page Rank. В частности, избегайте ссылок спам-вида, на линкпомойках или плохих соседей по серверу (обращаю ваше внимание на анализ и просмотр соседствующих сайтов, если ваш сайт размещен на обычном шедер хостинге).
  4. Не используйте не разрешенные программные решения для автоматического обращения к Google. Сами разработчики выделяют такие как WebPosition Gold ™.

Но все вроде бы и раньше было известно всем, кто интересовался вопросом.

В работе нового алгоритма Google Penguin (Гугл Пингвин) меня удивило четкое соблюдение принципа «заряженности рекламой» первой страницы. Помните, говорилось о том, что первая страница (главная страница) не должна быть перегружена рекламой. Google Penguin четко начал соблюдать этот принцип. Он порезал трафик у сайтов с несколькими большими блоками рекламы на главной, даже если эти блоки были своей же – реклама Google Adsense. 🙂

Наблюдения по работе Google Penguin

Теперь хотелось бы перечислить ряд собственных наблюдений. Я понимаю, они приблизительны, и представляют мои личные наблюдения и данные (показатели могут быть восприняты как относительные), но они имеют место быть, и имеют право на существование. Анализировал я работу 20 сайтов, как своих, так и своих партнеров. Анализ занял у меня 3 дня, и я оценивал массу показателей. Как вы понимаете, все сайты продвигались разными схемами и по разным алгоритмам, имели разные абсолютно показатели, что дало возможность сделать ряд выводов.

1. Точное вхождение. Если раньше, чтобы быть в Google в шоколаде, нужна была масса точных вхождений, то теперь с Google Penguin (Гугл Пингвин) все в точности также да наоборот. Это быть может как раз и есть та самая борьба с Webspam. Яндекс давно любил разбавления анкоров, вот дело дошло и до Google.

  • страницы с внешними ссылками точного вхождения 100% - просадка составила 75-90%. Среднее падение примерно на 38 позиций;
  • страницы с внешними ссылками точного вхождения 50% - просадка составила 15-20%. Среднее падение примерно на 9 позиций;
  • страницы с внешними ссылками точного вхождения менее 25% - замечен рост 6-10%. Средний подъем 30 позиций.

Исходя из этих данных, я сделал вывод – разбавляем анкоры и разбавляем как можно интереснее и глубже.

Яркий пример – запрос «gogetlinks» на данном блоге. Точные вхождения значительно преобладают над разбавленными, и вот результат:

2. Покупка временных ссылок. Временные ссылки я покупал на добивку или быстрый результат на всех анализируемых ресурсах и с разных систем. Это были и Sape, Webeffector, Seopult и ROOKEE.

Генераторы автоматического продвижения Webeffector и ROOKEE дали приблизительно одинаковые результаты. Просадка практически не замечена вообще, лишь небольшая на Webeffector, но она незначительна и больше связана с разбавлением анкоров. В остальных моментах даже рост наблюдается, что там говорить, вот скриншот кампании (кликабельно):

Что же касается Sape, то здесь совсем другая картина. Просели все проекты, на которые покупались ссылки в Sape. Все запросы, которые двигались в этой бирже улетели из ТОП 100 и даже собирать статистику, куда же они там улетели, стало как-то напряжно, что в итоге я делать и не стал.

Анализируя воздействие Гугл Пингвина на продвижение с Sape, сделал вывод, что расстановку ссылок этой биржи Google воспринимает теперь как не естественную.

Здесь начал активно снимать ссылки. Но смысл приводить свои примеры, когда можно показать вам яркие и из нашей же ниши. Возьмем блог моего товарища - Сергея Радкевич upgoing.ru . Человек работал с Sape несколько месяцев и радовался росту трафика, пока не пришел Гугл Пингвин. Смотрим:

Тут же стоит посмотреть на график источников поискового трафика:

Как видите, Гугл Пингвин снизил трафик с Google в 7 с лишним раз.

Вывод по этому пункту, что все же какие-то фильтры нужно применять при работе с временными ссылками и какие-то алгоритмы простановки и закупки. Автоматические сервисы как раз работают по определенным схемам в отличие от той же Sape. Результаты на лицо, между прочим.

У сайтов с Seopult вообще намечен рост позиций. Здесь я применял алгоритм Seopult Max для Яндекса, но как вижу, теперь он работает и с Google.

3. Переоптимизированность контента. Здесь замечен также спад, но не такой значительный как у предыдущих параметров. В пределах 10 позиций потеряло всего 10-15% переоптимизированных статей.

Здесь я делаю вывод, что не так страшно слегка переоптимизировать, давая себе какие-то гарантии. А более низкий показ можно нагнать с помощью покупки ссылок.

4. Вечные ссылки. Запросы, продвигаемые вечными ссылками с нормальным и естественным видом, только серьезнее прибавили в выдаче. Некоторые ВЧ ВК повылазили в ТОП 20 без каких-либо манипуляций, за счет заметного падения большей части конкурентов. Здесь я очередной раз делаю вывод, что моя работа по направлению продвижения ТОЛЬКО вечными ссылками правильна.

1. Примите во внимание всю вышеприведенную информацию и поработайте как над содержимым своего сайта, так и над его продвижением.

2. Проверьте наличие уведомлений от Google в Google Webmaster Tools с наличием сообщения о спамерской активности вашего ресурса. Для этого заходим на http://www.google.com/webmasters/ , авторизуемся. Далее заходим в статистику своего сайта и переходим в раздел сообщения (кликабельно):

Если все же будут сообщения, то необходимо будет принять меры по решению указанных в сообщениях проблем. Это может быть и удаление ссылок... Не все йогурты одинаково полезны... 😉

3. Проверьте сайт на наличие вредоносных программ в Google Webmaster Tools:

Решение вопроса как и в предыдущем пункте. Определяем программы и файлы помеченные Google как вредоносные, находим их на сервере, или заменяем или удаляем.

Если все совсем плохо, и вы опустили руки, то заполните форму и подпишитесь под созданной петицией к Google против Google Penguin . Это, конечно, ничего не гарантирует вам, но хотя бы момент маленького самоудовлетворения и чувства «Я сделал все что мог» обязательно наступит. По этой же теме можно через форму обратной связи обратиться к разработчикам алгоритма.

Лично я потерял немного, так как основной упор делал на действительно СДЛ и продвижение вечными ссылками. От негатива избавился в течение 2-х дней и начал расти с прежним темпом. Ну а кто любил делать все быстро и легко – вам остается по большей части жевать сопли.

Как сказал один мой знакомый: «Теперь халтуру будет видно. Любителей быстрого, дешевого и легкого ждут большие перемены. Срывающие банк на продвижении простых смертных в сети при этом, откровенно халтуря, потерпят фиаско и выслушают массу претензий со стороны клиентов»…

Свои мысли по поводу Пингвина Гугл или результаты перемен вы можете выложить в комментариях.

Всем удачных и качественных перемен!

В школе:
- Дети, придумайте предложение с выражением "Чуть было".
Коля:
- Наша Оля чуть было не стала королевой красоты!
Петя:
- В субботу мы с мамой чуть было не опоздали на электричку...
Вовочка:
- Сегодня утром мы с Лёхой едва не загнулись с похмелюги, но у нас чуть было...

Мы выпустили новую книгу «Контент-маркетинг в социальных сетях: Как засесть в голову подписчиков и влюбить их в свой бренд».

Подписаться

Если у вас похожая ситуация, значит ваш сайт попал под фильтр Гугла. Давайте посмотрим, какие существуют фильтры поисковой системы Google, причины попадания под эти и какие есть способы вывода сайта из-под санкций.

Sandbox (песочница)

Фильтр накладывает ограничения на новые или «молодые» сайты (от 2 недель до года). Таким образом, Гугл следит, как будет развиваться ресурс. Определить, что ваш сайт находится под фильтром легко - он полностью отсутствует в индексе.

Причины попадания:

В основном, фильтр касается молодых сайтов, независимо от того, как развивается ресурс. Также частой причиной бывает слишком быстрое наращивание ссылочной массы. Google воспринимает это как спам и накладывает санкции.

Способы вывода:

Способ выхода из-под фильтра достаточно прост - нужно регулярно наполнять сайт полезным и уникальным контентом, проводить внутреннюю оптимизацию страниц (делать внутреннюю перелинковку), а также осторожно закупать ссылки на бирже. Ни в коем случае нельзя допускать резкого ссылочного взрыва, а доноров нужно подбирать очень качественно. О том, как закупать вечные ссылки на бирже Gogetlinks, вы можете почитать в .

Domain name age (возраст домена)

Этот фильтр сильно созвучен с предыдущим. На все новые домены накладываются ограничения, но после достижения сайтом определенного уровня траста, ограничения снимаются.

Причины попадания:

Также, как и в предыдущем случае - это молодой возраст сайта, как правило, менее 1 года.

Способы вывода:

Избежать данный фильтр поисковой системы Google поможет покупка старого домена с историей, только нужно смотреть, чтобы история была положительной, и на домен не было наложено штрафных санкций. Также еще один способ - это покупка трастовых ссылок, но опять осторожно и аккуратно. Ну и, конечно, не забрасывайте ваш сайт, продолжайте его развивать, потому что после вывода из-под санкций пойдет активный рост трафика.

Too many links at once (много ссылок сразу)

Результатом попадания под фильтр является сильное падение трафика с Google, а также обнуляются все внешние ссылки на сайт, то есть они не имеют уже никакого веса.

Причины попадания:

Фильтр накладывается за появление слишком большого количества ссылок за один раз (ссылочный взрыв). Опять же Google понимает, что разом много внешних ссылок на сайт появиться не может, поэтому накладывает штрафные санкции за покупку ссылочного.

Способы вывода:

Предупреждением таких санкций является плавная и постепенная закупка ссылок, чтобы в глазах поисковика этот процесс выглядел естественным. Если же сайт попал под фильтр, то рекомендуется значительно снизить наращивание ссылочного, но имеющиеся ссылки не трогать. Ориентировочно, через 1−3 месяца фильтр снимается.

Bombing (бомбежка)

Этот фильтр интересен тем, что санкции накладываются не на весь сайт, а на те страницы, которые Google воспринял, как спамные. Эти страницы перестают расти в позициях или вылетают из индекса.

Причины попадания:

Такой фильтр накладывается поисковиком, когда на сайт ведет много внешних ссылок с одинаковым анкором или одним текстом. Google естественно считает, что этот процесс не является натуральным.

Способы вывода:

А он всего один - нужно удалить ВСЕ такие ссылки или поставить на них разные анкоры, причем не пропустить ни одну ссылку, иначе Google не снимет санкции. Ну, а дальше остается только ждать по разным источникам от 2 месяцев до 1,5 года.

Broken Links (битые ссылки)

Причины попадания:

Фильтр накладывается за большое количество ссылок, выдающих 404 ошибку. Такие ссылки вводят в ступор пользователей, а также их не может проиндексировать поисковик.

Способы вывода:

Чтобы устранить данную проблему, нужно найти все битые ссылки на сайте (это можно сделать, используя программу Xenu или аналог) и заменить их на правильные, либо удалить совсем.

Links

Давным-давно, когда интернет был совсем молодой, многие владельцы сайтов пользовались способом обмена ссылками, чтобы увеличить трастовость своих ресурсов. Но со временем, когда поисковые системы улучшались этот способ перестал учитываться, и сейчас Google фильтрует такие сайты.

Причины попадания:

Фильтр накладывает санкции за большое количество внешних ссылок, ведущих на «сайты партнеры», которые проставляют ссылку на вашу площадку.

Способы вывода:

CO-citation linking filter (социтирование)

Google внимательно отслеживает тематики площадок, ссылающихся на ваш ресурс, и учитывает это в поиске. Например, если на ваш сайт по тематике выращивания помидоров ссылается сайт инвестиционно-консалтинговых услуг, Гугл может определить вашу тематику, как финансовую, и понизить в выдаче по вашим основным запросам.

Причины попадания:

Некачественные доноры или не соответствие тематик донора и акцептора.

Способы вывода:

Внимательно следите за тем, на каких ресурсах вы размещаете ссылки, чтобы тематики обязательно совпадали или были смежные. Если же сайт попал под санкции, то необходимо снять все ссылки с нетематических или некачественных сайтов. А если таких сайтов много и вручную это сделать не получится, то порядок действий следующий:

  • составить список всех ссылающихся сайтов (через сервис ahrefs.com);
  • отсортировать все нетематические сайты;
  • добавить их в сервис Disavow Link (мы написали о нем отдельную ).

Таким образом, Google перестанет учитывать эти ссылки при индексации вашего сайта. Дальше остается только ждать, когда будет снят фильтр.

Page load time (время загрузки страницы)

Причины попадания:

Если скорость страниц загрузки вашего сайта имеет низкие показатели, то Google может наложить санкции и пессимизировать его в результатах выдачи.

Omitted results (опущенные результаты)

Результатом попадания под этот фильтр является отсутствие сайта в основном поиске Google. И только на самой последней странице выдачи будет ссылка «Показать скрытые результаты», нажав на которую в поиске появится и ваш сайт.

Причины попадания:

Данный фильтр накладывает санкции за дубли (в рамках сайта или дубли с других ресурсов), а также за слабую перелинковку. В результате страницы могут сильно понизиться в выдаче или вовсе выпасть из индекса.

Способы вывода:

Если сайт попал под фильтр, то необходимо переписать контент, чтобы все тексты были уникальными. А также нужно сделать хорошую внутреннюю перелинковку.

- 30

Гугл тщательно борется с методами черного SEO, и данный фильтр создан специально для этой цели. В результате штрафных санкций сайт понижается на 30 позиций.

Причины попадания:

Фильтр накладывается за следующие нарушения:

  • клоакинг;
  • дорвеи;
  • скрытый редирект.

Способы вывода:

К счастью, выйти из-под данного фильтра не сложно - нужно всего лишь устранить вышеприведенные причины.

Over optimization (переоптимизация)

В результате действия данного фильтра сайт пессимизируется в выдаче или полностью исключается из индекса, в зависимости от степени нарушения.

Причины попадания:

Фильтр накладывается за чрезмерную оптимизацию страниц - перебор с количеством ключевых слов, высокий уровень плотности ключевиков, переоптимизация мета-тегов, картинок.

Способы вывода:

Если сайт попал под санкции, вам нужно правильно оптимизировать все страницы сайта. Для этой цели лучше всего посмотреть топ конкурентов по выдаче и сделать оптимизацию похожим образом.

Panda

Фильтр от Google является одним из самых тяжелых для любого сайта, так как он охватывает несколько вышеперечисленных фильтров, и выход из-под панды - это долгий и болезненный процесс.

Причины попадания:

Способы вывода:

Соответственно, для выхода из-под санкций от Панды нужно поработать комплексно над всеми этими факторами - сделать качественный и уникальный контент, грамотную оптимизацию страниц, убрать рекламу с сайта. Постепенно, по мере правильного развития сайта, санкции будут сняты, но этот процесс долгий и может занять по времени более года.

Penguin (пингвин)

Фильтр от Гугл так же, как и Панда является очень проблемным. Похожим образом Пингвин состоит из нескольких вышеперечисленных фильтров, которые имеют отношение к ссылочному продвижению.

Причины попадания:

Под санкции Пингвина можно попасть, если вы закупаете слишком большое количество ссылок за раз, если эти ссылки имеют один и тот же анкор, если ссылки являются не тематическими или вы производите обмен ссылками.

Способы вывода:

Выход из-под Пингвина также является долгим и болезненным процессом. Подробнее, как проверить сайт на фильтры Гугла и снять санкции пингвина я напишу в отдельной статье.

icon by Eugen Belyakoff

Google Penguin - это алгоритм поисковый системы, направленный на устранение веб-спама. Запущен в апреле 2012 для борьбы с покупными ссылками, претерпел несколько изменений. Релиз от сентября 2016 года сделал фильтр «Пингвин» частью основного алгоритма Google.

Принцип работы

Гугл «Пингвин» с 2014 года работает в режиме реального времени, но только с 2016 года база не обновляется вручную. Если раньше нужно было ждать апдейт, что могло растянуться по времени, то сейчас из-под фильтра можно выйти буквально сразу после исправления и переиндексации.

Санкции в виде понижения в ранжировании распространяются на отдельные страницы, а не весь сайт в целом.

Как определить, что сайт под фильтром

Признаки:

  • проседание позиций на 30-50 пунктов;
  • значительное снижение трафика из Google.

Если ограничение наложено в результате ручной проверки, в Search Console в разделе «Меры, принятые вручную» можно увидеть сообщение о санкциях за веб-спам.

При автоматическом назначении уведомления нет. Чтобы выяснить, пострадал сайт от Гугл «Панды» или «Пингвина», нужно проверить тексты и входящие ссылки. Если проблема в контенте, это «Панда», если видны плохие бэклинки, «Пингвин».

Как вывести сайт из-под фильтра

Сайт понижается в выдаче из-за некачественной ссылочной массы, поэтому нужно провести аудит покупных ссылок и снять спамные, с сателлитов, нерелевантных ресурсов, линкопомоек и т. д. Одновременно стоит увеличить количество естественных ссылок.

Причиной попадания под фильтр Google Penguin может стать:

  • обилие спамных анкоров. Если большая часть анкор-листа - прямые вхождения продвигаемых коммерческих запросов, риск очень высок;
  • плохая динамика роста ссылочной массы. Резкие скачки, массовые съемы говорят о неестественности;
  • несоответствие тематик донора и акцептора. Чем выше релевантность, тем естественнее выглядит размещение;
  • спамная простановка бэклинка (цветом фона, мелким шрифтом, однопиксельной картинкой, в неподходящем месте и т. д.);
  • заспамленность донора. Если со страницы или с сайта в целом ведет много исходящих ссылок, это вызывает подозрения в продаже;
  • низкое качество ссылающихся сайтов. Понимается в широком смысле.

Все выявленные некачественные бэклинки нужно снять или отклонить с помощью специального инструмента в Search Console.

На снятие ограничений в ранжировании из-за Google «Пингвина» может уйти от недели до нескольких месяцев.

Как защититься

  • обязательно разбавлять анкор-лист, чтобы были не только прямые и разбавленные вхождения ключей, но и анкоры типа «тут», «здесь» и т. д.;
  • обеспечивать плавный прирост ссылочной массы;
  • контролировать соотношение покупных и естественных ссылок;
  • стремиться к разнообразию доноров, чтобы не было неестественно много бэклинков с одного ресурса;
  • проставлять ссылки на разные страницы сайта, а не только на главную;
  • следить за качеством каждого донора.

Лучший способ уберечься от риска попасть под Гугл «Пингвин» - повышать качество ссылок, а не на их количество.



В продолжение темы:
Windows

Часть вторая : "Важнейшие характеристики каждого семейства процессоров Intel Core i3/i5/i7. Какие из этих чипов представляют особый интерес" Введение Сначала мы приведём...

Новые статьи
/
Популярные