Пингвин гугл что. Google Penguin (Гугл Пингвин) – новый алгоритм от поисковой системы Google. Зачем был создан Penguin

Привет! Продолжаю линейку постов посвященную фильтрам Гугла и сегодня речь пойдет о фильтре Пингвин (Penguin), который борется с сайтами использующими черные методы продвижения (SEO), но в отличии от своих собратьев может быть применен к площадкам, как в ручном, так и в автоматическом режиме.

В предыдущем посте мы познакомились с , узнали что это за такой зверь, кто его придумал и с какой целью он был выпущен на просторы всемирной сети.

Однако не успели вебмастера разобраться с Пандой (убрать спам на страницах, удалить дублирующий контент) одним словом сделать свои сайты безобидными в глазах посетителей и поисковиков, как на свет (апрель 2012 года) Google выпускает новый фильтр под кодовым словом Пингвин, который занижает в выдаче сайты с некачественным ссылочным профилем.

Зачем был создан Penguin

Давайте заглянем в прошлое и посмотрим, как раньше продвигались сайты. Например, нужно было выйти в ТОП по какому-нибудь высокочастотному запросу.

Что для этого делал вебмастер, писал оптимизированную статью, где неоднократно употреблял ключевое слово в содержании статьи, а затем, используя ссылочные биржи, покупались десятки ссылок, притом с доноров не самого лучшего качества, в которых и был продвигаемый запрос.

В итоге такой псевдо СДЛ сайт занимал высокие места в ТОП Гугл и получал тонны трафика. Конечно же, это не могло продолжаться долго и Google был вынужден настроить свои алгоритмы таким образом, чтобы исключить из выдачи некачественные сайты, умышленно завышающие свои позиции.

Если с контентом начала бороться Панда, то следить за качеством входящих и исходящих ссылок пришлось новоиспеченному Пингвину, который после запуска изменил всемирную выдачу до неузнаваемости.

Penguin — это кодовое слово очередного фильтра от Гугла, который фильтрует сайты, опуская из на низкие позиции в выдаче, за неестественную ссылочную массу.

Ниже мы более детально рассмотрим те факторы, за которые применяются санкции к площадкам.

За что наказывает фильтр Пингвин

Если после очередного обновления данного фильтра вы заметили, что трафик резко пошел вниз, то скорее всего к сайту были применены санкции.

Посмотрите на один сайт, который пострадал от Пингвина в день его выхода на свет.

Причины, из-за которых страдают сайты:

Качество входящих ссылок . Теперь для Гугла неважно количество входящих ссылок, ему важно качество, а самое главное естественность. Все остальное может быть расценено, как умышленное манипулирование результатами выдачи, к которым следует отнести:

— Размещение ссылок на заспамленных, некачественных площадках;

— Неравномерное распределение ссылок по страницам сайта.

То же самое касается вебмастеров зарабатывающих на продаже ссылок. Если на сайте в основном присутствуют коммерческие или нетематические ссылки, то велика вероятность, что такая площадка может попасть под клюв Пингвина.

Гуглу не понравится, если вчера на ваш сайт вело 100 линков, а спустя день уже ссылается 1000 — это явный признак линкспамерства.

Все вышеперечисленное можно заменить одним словом — ЕСТЕСТВЕННОСТЬ .

Как проверить под каким фильтром находится сайт

Если в один прекрасный день вы по неизвестным причинам лишились трафика из поисковой сети Google, то первым делом надо определить под каким именно фильтром находится ваша площадка, чтобы разработать стратегию по скорейшему снятию санкций.

Как я уже писал, фильтр Пингвин имеет две разновидности в плане применения к площадкам: ручной и автоматический.

При ручном методе наложения санкций, как правило, приходит уведомление в панели Гугл Вебмастер, в котором сообщается, из-за чего пострадал сайт.

Чтобы найти это уведомление нужно инструментах для вебмастеров перейти в раздел «Поисковый трафик» далее «Меры, принятые вручную».

Если сайт подвергся ручным санкциям, то в этом разделе будет находиться злосчастное письмо от службы по борьбе с поисковым спамом. Но большинство вебмастеров видит следующую картину.

В этом случае ручной фильтр Пингвина к проверяемой площадке не был применен и следует копать в сторону автоматического.

Пингвин, как и другие фильтры, периодически обновляет свою базу некачественных площадок, а статистика показывает, что это происходит два раз в год.

Ниже я выписал последние даты, когда произошел апдейт Penguin:

Теперь нужно сопоставить день, когда начался спад трафика с днем обновления фильтра и если эти числа совпадают, считайте истинная причина пессимизации площадки в выдаче установлена и можно приступать к ее лечению.

Но есть и другой способ узнать, под какой именно фильтр от Гугла попал сайт. Решением стал зарубежный сервис под названием Barracuda.

В его арсенале есть продукт Panguin Tool , который берет данный из статистики Google Analytics, а затем накладывает на график посещаемости даты обновления всех фильтров, что позволит лучше оценить, какой из них повлиял на ранжирование страниц сайта.

Для того чтобы его опробовать в действии на вашем сайте должна быть подключена статистика Гугл Аналитикс, правда для того чтобы воспользоваться услугами этого сервиса придется предоставить ему данные для входа в Аналитику, что не всегда может быть безопасным, однако я по этому поводу заморачиваться не стал.

1) Входим в свой аккаунт Гугл Аналитики, для чего нажимаем на кнопку «Log-in to Analytics».

3) Теперь надо выбрать тот аккаунт сайта, с которого будет сниматься статистика посещаемости.

4) Перед вами появится заветный график за последний год, на который будут нанесены все даты обновления Гугл фильтров.

Если посмотреть на статистику моего блога, вывод напрашивается неоднозначный. Четко видно, что падение трафика началось с обновления Панды, а когда трафик начал уменьшаться, произошел апдейт Пингвина, что тоже могло повлиять на ранжировании сайта в целом.

Теперь передо мной стал вопрос, под каким именно фильтром находится мой блог: Пандой или Пингвином? Буду рад, если в комментариях вы поможете мне в этом разобраться.

Как вернуть позиции сайта и победить Пингвина

Если с Пандой дела обстоят неоднозначно и чтобы ее победить, надо смотреть в сторону контента, то с Пингвином все куда радужней, так как достаточно убрать некачественные и неестественные ссылки на сайте и в случае с ручным фильтром отправить сайт на перепроверку, а с автоматическим ждать, когда случится апдейт.

Но как убрать такие ссылки, а также как узнать какие из них качественные, а какие нет? Если с исходящими ссылками все понятно, достаточно пробежаться по статьям и поставить на них запреты noindex и nofollow , то с входящими вечными линками все намного сложнее.

Для таких ситуаций Гугл пошел навстречу вебмастерам и придумал сервис Disavow links по отклонению ссылочной массы, которая не будет учитываться алгоритмами поисковика при ранжировании сайта.

Все что нам нужно это скачать список всех ссылающихся сайтов, о которых известно Гуглу, далее проверить их на качество, а затем все некачественные площадки отправить в Disavow links, сообщая тем самым, что на них не нужно обращать внимание при анализе ссылочной массы.

Скачиваем список входящих ссылок. Для этого идем в панель инструментов Гугл Вебмастер в раздел «Поисковый трафик» далее «Ссылки на ваш сайт» и в самом низу списка жмем «Дополнительно».

— Самостоятельно просматривать все доноры из списка, проверять их показатели, опираясь на свои навыки.

— Доверить проверку специальным сервисам, о которых я рассказал в статье « ».

Я пошел по более простому для меня варианту, так как не считаю, что могу потратить столько времени, чтобы проверить около 1000 доменов.

Переходим в сервис CheckTrust и выбираем в меню создать проект «BackLinks Checker».

Далее вводим любое название проекту и загружаем скаченный ранее файл со ссылками. Если какие-то ссылки из файла вы уже проверили сами, то можете вставить список оставшихся ссылок в специальное поле для проверки и нажимаем «Далее».

Легкая чистка — удалению подвергнутся только бэклинки с самых некачественных сайтов.

Умеренная чистка — в список попадут все подозрительные сайты по качеству оцениваемые как ниже среднего.

Отличная чистка — все, вызывающее хоть какое-то подозрение, будет удалено.

Жесткая чистка — среди «выживших» останутся ссылки с сайтов только высшего качества, по статистике это не более 5-10% всех бэклинков.

Нужны все варианты — получите все 4 файла со ссылками после разных степеней чистки.

Сразу скажу, что берите лучше последний вариант, чтобы у вас были все списки, и вы наглядно видели какие из доменов все-таки стоит оставить.

После того как система проверит проект и его статус обработки станет «Выполнено» вам нужно будет по нему кликнуть, чтобы произошла его загрузка на компьютер.

Это будет текстовый файл со списком сайтов, которые система посчитала некачественными и которые стоит добавить в сервис Disavow links от Google. Если посмотреть скаченный файл, то вы увидите примерно такую картину.

Именно в таком формате domain:сайт и надо отправлять все исключаемые площадки в Disavow links. Как видите, CheckTrust сделал неинтересную работу за вас.

Теперь надо перейти в инструмент Disavow links , почему-то прямой ссылки на него из панели Гугл Вебмастер я не обнаружил, а далее выбрать сайт, для которого будете отклонять ссылки.

Читаем внимательно предупреждение, видно создано для тех, кто случайно решил воспользоваться этим инструментом.

Если вы все сделали правильно, то в сообщениях о сайте должны получить уведомление, в котором будет стоять такая же цифра отклоненных доменов, сколько было в загружаемом файле.

После всех вышеописанных манипуляций останется ждать, когда произойдет обновление фильтра Пингвин и с сайта снимутся санкции, но при этом не стоит забывать, что ссылки должны постоянно прибавляться. Гугл любит динамику постоянного роста качественной ссылочной массы.

Так что обратные бэклинки нужно добывать всеми возможными способами постоянно, а вот как это сделать вы узнаете в следующих постах, главное не пропустите !

На сегодня у меня все, расскажите, как вы победили фильтр Пингвин и какими инструментами для этого пользуетесь. Пока!

Google Penguin - это алгоритм поисковый системы, направленный на устранение веб-спама. Запущен в апреле 2012 для борьбы с покупными ссылками, претерпел несколько изменений. Релиз от сентября 2016 года сделал фильтр «Пингвин» частью основного алгоритма Google.

Принцип работы

Гугл «Пингвин» с 2014 года работает в режиме реального времени, но только с 2016 года база не обновляется вручную. Если раньше нужно было ждать апдейт, что могло растянуться по времени, то сейчас из-под фильтра можно выйти буквально сразу после исправления и переиндексации.

Санкции в виде понижения в ранжировании распространяются на отдельные страницы, а не весь сайт в целом.

Как определить, что сайт под фильтром

Признаки:

  • проседание позиций на 30-50 пунктов;
  • значительное снижение трафика из Google.

Если ограничение наложено в результате ручной проверки, в Search Console в разделе «Меры, принятые вручную» можно увидеть сообщение о санкциях за веб-спам.

При автоматическом назначении уведомления нет. Чтобы выяснить, пострадал сайт от Гугл «Панды» или «Пингвина», нужно проверить тексты и входящие ссылки. Если проблема в контенте, это «Панда», если видны плохие бэклинки, «Пингвин».

Как вывести сайт из-под фильтра

Сайт понижается в выдаче из-за некачественной ссылочной массы, поэтому нужно провести аудит покупных ссылок и снять спамные, с сателлитов, нерелевантных ресурсов, линкопомоек и т. д. Одновременно стоит увеличить количество естественных ссылок.

Причиной попадания под фильтр Google Penguin может стать:

  • обилие спамных анкоров. Если большая часть анкор-листа - прямые вхождения продвигаемых коммерческих запросов, риск очень высок;
  • плохая динамика роста ссылочной массы. Резкие скачки, массовые съемы говорят о неестественности;
  • несоответствие тематик донора и акцептора. Чем выше релевантность, тем естественнее выглядит размещение;
  • спамная простановка бэклинка (цветом фона, мелким шрифтом, однопиксельной картинкой, в неподходящем месте и т. д.);
  • заспамленность донора. Если со страницы или с сайта в целом ведет много исходящих ссылок, это вызывает подозрения в продаже;
  • низкое качество ссылающихся сайтов. Понимается в широком смысле.

Все выявленные некачественные бэклинки нужно снять или отклонить с помощью специального инструмента в Search Console.

На снятие ограничений в ранжировании из-за Google «Пингвина» может уйти от недели до нескольких месяцев.

Как защититься

  • обязательно разбавлять анкор-лист, чтобы были не только прямые и разбавленные вхождения ключей, но и анкоры типа «тут», «здесь» и т. д.;
  • обеспечивать плавный прирост ссылочной массы;
  • контролировать соотношение покупных и естественных ссылок;
  • стремиться к разнообразию доноров, чтобы не было неестественно много бэклинков с одного ресурса;
  • проставлять ссылки на разные страницы сайта, а не только на главную;
  • следить за качеством каждого донора.

Лучший способ уберечься от риска попасть под Гугл «Пингвин» - повышать качество ссылок, а не на их количество.

Новый алгоритм под названием “Пингвин”. Все вебмастера, кто максимально автоматизировал процесс продвижения сайта, почувствовали действие фильтра в резком падении трафика. Что произошло за этот год и какая текущая ситуация с “Пингвином”?

Краткое предисловие

Буквально через неделю после запуска нового алгоритма на MicrositeMasters появилась аналитика , основная суть которой заключалась в следующем. Пострадали больше всего сайты, имеющие в обратных ссылках:

  • Много прямых вхождений ключевых слов.
  • Мало вхождений в виде адреса сайта (URL ).
  • Мало тематических доноров.

Стоит отметить, что Пингвин затронул всего 3-5% поисковых запросов (Панда – 12%), то есть применяется не для всех тематик, но не заметить его влияние было сложно.

Нет быстрых решений

Так как из-за нового алгоритма многие компании начали терять часть бизнеса, все искали быстрых решений выхода из-под фильтра. Одним из выходов из ситуации был 301 редирект на новый домен (по которому раньше не передавался фильтр, но передавались все положительные качества ссылок). Однако, в августе 2012 команда вебспама Google отключила эту возможность и, практически, все сайты, которые на время вышли из-под Пингвина, снова были исключены из ТОП а.

Сейчас 301 редирект не работает для выхода из-под фильтра.

Причем, так как гугл находит зеркала не только по редиректу, но и по аналогичному контенту, то даже смена сайта (домена) не помогала (если контент оставался прежним), так как Google понимал, что это один и тот же сайт со старой историей. Мэтт Каттс заявляет, что должно пройти время, чтобы к сайту вернулось доверие.

За год было всего 2 обновления алгоритма Пингвин - 25 мая и 5 октября 2012. И как заявили на конференции SMX West, в этом году ожидается самый масштабный апдейт Пингвина (когда именно, пока не известно, может быть как раз на годовщину). За все это время кейсов выхода из-под фильтра - единицы . Часть из кейсов – западные, русскоязычные в паблике найти сложно, в основном они ходят в кулуарах между специалистами разных компаний. Но все они основаны на тщательном/кропотливом вычищении переспама, причем не только в ссылках, но и в контенте и коде страниц.

Что нам известно сейчас?

Сейчас нам известно, что есть 3 основные причины наложения фильтра “Пингвин”:

Низкокачественные ссылки
Куда относится переспам анкоров прямыми вхождениями ключей, размещение ссылок на сайтах низкого качества, обмен ссылками для повышения PageRank друг-друга, участие в ссылочных схемах для манипулирования поисковыми алгоритмами.

Продажа ссылок с сайта
Сюда относится наличие нетематических исходящих ссылок на сайте, а также общая заспамленность сайта коммерческими ссылками.

Шаблонный контент
Много дублей в поиске является признаком шаблонного контента. В результате фильтра сайт проседает по множеству низкочастотных запросов.

В целом, Google большое внимание уделяет определению по внутренним и внешним факторам. Если у поисковика сложилось плохое мнение о сайте по комплексу факторов, то инструмент отклонения ссылок не поможет избавиться от фильтра.

Сложно давать рекомендации при дефиците положительных кейсов, однако, можно сказать следующее. Так как Google большое внимание уделяет ссылкам, то сначала необходимо провести ссылочный аудит, выявить плохих доноров и избавиться от них, либо добавить в инструмент отклонения ссылок от Google.

Информация из недавней видео-встречи с Google.

Ринат Сафин (Google): “Развейте миф: говорят что “запингвиненные” сайты уже ничем не вытащить из глубин фильтра – проще бросить и сделать новый?” Семен из Кирова спрашивает.

Владимир Офицеров (Google): Ну, я вам так скажу – если вам проще бросить сайт, на который вы потратили какую-то часть своей жизни, то значит, не очень-то ценный был сайт. Скорей всего, нет. Пингвин, не пингвин – любой алгоритм, который мы внедряем, рано или поздно будет обновлен. Мы стараемся делать как можно чаще, но не всегда это можно делать каждый день. Соответственно, если ваш сайт… на него нет платных ссылок, если остальные платные ссылки вы убрали через инструмент отклонения, если на вас нет ручных мер, ваш сайт вернется туда, где он заслуживает быть. А дальше это, собственно говоря, уже зависти от того, насколько пользователям нравится ваш сайт, тот контент, который там предоставлен, и соответственно, насколько он интересен.

Используйте комплексный подход, не останавливайте работу на вычищении ссылок, улучшите сайт максимально для пользователя. И обязательно поделитесь своим положительным кейсом и другими наблюдениями в комментариях.

Мы все хорошо знаем, дорогие друзья, как поисковые системы корпят над своими алгоритмами, фильтрами и так далее, чтобы как можно четче выдавать простым обывателям сети Интернет то, что они ищут. Но эти самые алгоритмы параллельно проводят и чистку сети от того же спама или некачественных ресурсов, которые всеми правдами или не правдами как-то очутились в ТОПе. «Так дело не пойдет» - как-то так думают умы поисковых гигантов, и в очередной раз с этой мыслью вышли ребята из Google.

Так уже вторую неделю «гудит» вебмастерская часть сети и большинство негодует: «Google ввел что-то с чем-то и эта адская смесь порезала наши позиции, что в свою очередь сократило трафик». Да, действительно, анализируя конкуренцию в интересных мне нишах, я заметил серьезные перемены. Трафик на многих конкурентных ресурсах был срезан на 10, 20, 50, а то и больше процентов. Да что там далеко ходить, посмотрите на некоторые seo блоги, непривычно видеть посещаемость в 150-200 пользователей в сутки.

Итак, что же там нахимичил Google…

В 20-х числах апреля 2012 года в сети появилось сообщение от разработчиков Google приблизительно следующего содержания:

«В ближайшие дни мы запускаем важное изменение алгоритмов, направленных на Webspam. Изменения снизят рейтинги сайтов, которые как мы считаем, нарушают требования Google к качеству сайтов»…

В ночь с 24 на 25 апреля был введен новый алгоритм Google – Google Penguin (Гугл Пингвин ). Любовь к животным Google вызвала много шума. На том же Серче образовалось несколько тем с огромным общим числом страниц (более 500) обсуждения нового алгоритма Google Penguin. Недовольных как всегда оказалось значительно больше, чем довольных, ведь довольные тихо сидят и не палят свои наработки, которые только на «Ура» съел Гугловский Пингвин.

Давайте для начала ознакомимся с теми самыми основными требованиями к качеству сайтов, которые выдвигает Google:

  1. Не используйте скрытый текст и скрытые ссылки. Google, да и не только Google, давно идут под флагом человеколюбия. То, что не видит человек, понимается и воспринимается поисковиками как попытка повлиять на выдачу поиска, а это сравнимо с манипуляциями и пресекается в виде песимизации или еще какой «порчи». Помнится, одно время был очень модным скрытый текст, еще бы, ведь он давал эффект. Черный текст на черном фоне с оптимизацией определенной, ты попадал на страницу и недоумевал, а где то, что показывал поисковик.
  2. Не используйте клоакинг или скрытую переадресацию. Не нужно пытаться выдавать поисковому роботу одну информацию, а пользователю другую. Контент должен быть единым для всех. По поводу переадресации, то тут любителей сорвать денежку с перенаправления или продажи мобильного трафика, Google решил немного разочаровать.
  3. Не отправляйте автоматические запросы в Google.
  4. Не перегружайте страницы ключевыми словами. Этот принцип уже давно поддерживался Яндексом и позиционирование против переоптимизированности сайтов явно убивало работу приверженцев напичкать сайт ключами. Если раньше можно было напичкать статьи ключами и радоваться трафиком с Google, то теперь, как видите и сами понимаете, не все так просто. Но тут же не стоит забывать про пользовательские факторы или так называемые поведенческие факторы. Если они на хорошем уровне, то даже легкая переоптимизированность не проблема, ведь поведенческие факторы пользователей всегда были, есть и скорее всего, будут в приоритете. Только здесь уже все несколько сложнее – сами представьте, что нужно дать и в каком объеме, чтобы эти самые поведенческие факторы были на высоте. Это говорит о том, что контент действительно должен быть высокого уровня и интереса, а не легенький рерайт с конкурирующего сайта или лидера ниши.
  5. Не создавайте страницы, домены и поддомены, которые в значительной степени повторяют содержимое основного сайта или любого другого. В этом пункте гугловцы сразу соединили воедино свои взгляды по поводу аффилированности, сеток сайтов, дорвеев, копипаста, а также рерайта низкого качества.
  6. Не создавайте вредоносных страниц, таких как фишинг или содержащих вирус, троянов или другого вредоносного программного обеспечения. Этот пункт не стоит вообще как-то разжевывать, бой вирусам одним словом.
  7. Не создавайте дорвеев или других страниц, созданных только для поисковых систем.
  8. Если ваш сайт работает с партнерскими программами, то убедитесь, что он представляет ценность для сети и пользователей. Обеспечьте его уникальным и релеватным содержимым, что в первую очередь будет привлекать пользователей к вам.

Эти 8 принципов Google выделил как основные. Но так же есть и еще 4, которые особо отмечены были ими же:

  1. Создавайте страницы сайта в первую очередь для пользователей, а не для поисковых систем. Не используйте маскировок или других схем работы с сайтами, будьте предельно прозрачны.
  2. Не пытайтесь хитростью повысить рейтинг сайта в поисковых системах.
  3. Не участвуйте в схемах построения ссылок, разработанных для повышения рейтинга вашего сайта в поисковых системах или Google Page Rank. В частности, избегайте ссылок спам-вида, на линкпомойках или плохих соседей по серверу (обращаю ваше внимание на анализ и просмотр соседствующих сайтов, если ваш сайт размещен на обычном шедер хостинге).
  4. Не используйте не разрешенные программные решения для автоматического обращения к Google. Сами разработчики выделяют такие как WebPosition Gold ™.

Но все вроде бы и раньше было известно всем, кто интересовался вопросом.

В работе нового алгоритма Google Penguin (Гугл Пингвин) меня удивило четкое соблюдение принципа «заряженности рекламой» первой страницы. Помните, говорилось о том, что первая страница (главная страница) не должна быть перегружена рекламой. Google Penguin четко начал соблюдать этот принцип. Он порезал трафик у сайтов с несколькими большими блоками рекламы на главной, даже если эти блоки были своей же – реклама Google Adsense. 🙂

Наблюдения по работе Google Penguin

Теперь хотелось бы перечислить ряд собственных наблюдений. Я понимаю, они приблизительны, и представляют мои личные наблюдения и данные (показатели могут быть восприняты как относительные), но они имеют место быть, и имеют право на существование. Анализировал я работу 20 сайтов, как своих, так и своих партнеров. Анализ занял у меня 3 дня, и я оценивал массу показателей. Как вы понимаете, все сайты продвигались разными схемами и по разным алгоритмам, имели разные абсолютно показатели, что дало возможность сделать ряд выводов.

1. Точное вхождение. Если раньше, чтобы быть в Google в шоколаде, нужна была масса точных вхождений, то теперь с Google Penguin (Гугл Пингвин) все в точности также да наоборот. Это быть может как раз и есть та самая борьба с Webspam. Яндекс давно любил разбавления анкоров, вот дело дошло и до Google.

  • страницы с внешними ссылками точного вхождения 100% - просадка составила 75-90%. Среднее падение примерно на 38 позиций;
  • страницы с внешними ссылками точного вхождения 50% - просадка составила 15-20%. Среднее падение примерно на 9 позиций;
  • страницы с внешними ссылками точного вхождения менее 25% - замечен рост 6-10%. Средний подъем 30 позиций.

Исходя из этих данных, я сделал вывод – разбавляем анкоры и разбавляем как можно интереснее и глубже.

Яркий пример – запрос «gogetlinks» на данном блоге. Точные вхождения значительно преобладают над разбавленными, и вот результат:

2. Покупка временных ссылок. Временные ссылки я покупал на добивку или быстрый результат на всех анализируемых ресурсах и с разных систем. Это были и Sape, Webeffector, Seopult и ROOKEE.

Генераторы автоматического продвижения Webeffector и ROOKEE дали приблизительно одинаковые результаты. Просадка практически не замечена вообще, лишь небольшая на Webeffector, но она незначительна и больше связана с разбавлением анкоров. В остальных моментах даже рост наблюдается, что там говорить, вот скриншот кампании (кликабельно):

Что же касается Sape, то здесь совсем другая картина. Просели все проекты, на которые покупались ссылки в Sape. Все запросы, которые двигались в этой бирже улетели из ТОП 100 и даже собирать статистику, куда же они там улетели, стало как-то напряжно, что в итоге я делать и не стал.

Анализируя воздействие Гугл Пингвина на продвижение с Sape, сделал вывод, что расстановку ссылок этой биржи Google воспринимает теперь как не естественную.

Здесь начал активно снимать ссылки. Но смысл приводить свои примеры, когда можно показать вам яркие и из нашей же ниши. Возьмем блог моего товарища - Сергея Радкевич upgoing.ru . Человек работал с Sape несколько месяцев и радовался росту трафика, пока не пришел Гугл Пингвин. Смотрим:

Тут же стоит посмотреть на график источников поискового трафика:

Как видите, Гугл Пингвин снизил трафик с Google в 7 с лишним раз.

Вывод по этому пункту, что все же какие-то фильтры нужно применять при работе с временными ссылками и какие-то алгоритмы простановки и закупки. Автоматические сервисы как раз работают по определенным схемам в отличие от той же Sape. Результаты на лицо, между прочим.

У сайтов с Seopult вообще намечен рост позиций. Здесь я применял алгоритм Seopult Max для Яндекса, но как вижу, теперь он работает и с Google.

3. Переоптимизированность контента. Здесь замечен также спад, но не такой значительный как у предыдущих параметров. В пределах 10 позиций потеряло всего 10-15% переоптимизированных статей.

Здесь я делаю вывод, что не так страшно слегка переоптимизировать, давая себе какие-то гарантии. А более низкий показ можно нагнать с помощью покупки ссылок.

4. Вечные ссылки. Запросы, продвигаемые вечными ссылками с нормальным и естественным видом, только серьезнее прибавили в выдаче. Некоторые ВЧ ВК повылазили в ТОП 20 без каких-либо манипуляций, за счет заметного падения большей части конкурентов. Здесь я очередной раз делаю вывод, что моя работа по направлению продвижения ТОЛЬКО вечными ссылками правильна.

1. Примите во внимание всю вышеприведенную информацию и поработайте как над содержимым своего сайта, так и над его продвижением.

2. Проверьте наличие уведомлений от Google в Google Webmaster Tools с наличием сообщения о спамерской активности вашего ресурса. Для этого заходим на http://www.google.com/webmasters/ , авторизуемся. Далее заходим в статистику своего сайта и переходим в раздел сообщения (кликабельно):

Если все же будут сообщения, то необходимо будет принять меры по решению указанных в сообщениях проблем. Это может быть и удаление ссылок... Не все йогурты одинаково полезны... 😉

3. Проверьте сайт на наличие вредоносных программ в Google Webmaster Tools:

Решение вопроса как и в предыдущем пункте. Определяем программы и файлы помеченные Google как вредоносные, находим их на сервере, или заменяем или удаляем.

Если все совсем плохо, и вы опустили руки, то заполните форму и подпишитесь под созданной петицией к Google против Google Penguin . Это, конечно, ничего не гарантирует вам, но хотя бы момент маленького самоудовлетворения и чувства «Я сделал все что мог» обязательно наступит. По этой же теме можно через форму обратной связи обратиться к разработчикам алгоритма.

Лично я потерял немного, так как основной упор делал на действительно СДЛ и продвижение вечными ссылками. От негатива избавился в течение 2-х дней и начал расти с прежним темпом. Ну а кто любил делать все быстро и легко – вам остается по большей части жевать сопли.

Как сказал один мой знакомый: «Теперь халтуру будет видно. Любителей быстрого, дешевого и легкого ждут большие перемены. Срывающие банк на продвижении простых смертных в сети при этом, откровенно халтуря, потерпят фиаско и выслушают массу претензий со стороны клиентов»…

Свои мысли по поводу Пингвина Гугл или результаты перемен вы можете выложить в комментариях.

Всем удачных и качественных перемен!

В школе:
- Дети, придумайте предложение с выражением "Чуть было".
Коля:
- Наша Оля чуть было не стала королевой красоты!
Петя:
- В субботу мы с мамой чуть было не опоздали на электричку...
Вовочка:
- Сегодня утром мы с Лёхой едва не загнулись с похмелюги, но у нас чуть было...

В прошлом посте я уже затронул тему, волнующую многих вебмастеров последние несколько недель. Это введение в действие 24 апреля 2012 года нового алгоритма Google Penguin , направленного на борьбу с веб-спамом. Если по простому, то виновных ждет казнь за переоптимизацию.

Давайте попробуем разобраться, за что сайт может попасть под новый фильтр и как уберечься от Google Penguin.

Для начала надо определить, а Пингвин ли собственно виноват. Как я уже упоминал в предыдущей статье , в апреле Гугл произвел очень много изменений, повлиявших на работу поиска. 16 апреля в поисковике произошел сбой, связанный с припаркованными доменами. 19 числа вышло очередное обновление алгоритма Panda. И, наконец, 24 апреля приплыл Пингвин.

Поэтому, если резкое падение позиций в выдаче и посещаемости произошло сразу после 24 числа, то, с большой долей вероятности, это действие нового алгоритма. Если до, то это точно не Google Penguin.

Также проверьте, нет ли у Вас уведомлений от Гугла в разделе “Сообщения ” в Google Webmaster Tools о чрезмерной спамерской активности Вашего веб-сайта. Если есть, то надо будет принять меры, для исправления указанных там ошибок.

Далее приведу свое мнение, которое сложилось после изучения информации на блогах (в том числе зарубежных) и форумах (на одном только forum.searchengines.ru более 400 страниц обсуждений). Если я не прав, поправьте.

За что наказывает новый алгоритм Google Penguin и как уберечь свой сайт?

По большому счету ничего нового. Просто Google очередной раз пытается дать понять, что для того, чтобы быть в выдаче, надо создавать “сайты для людей” и использовать для только белое SEO. Но все же нас ставят в очень жесткие рамки. Шаг вправо, шаг влево и сайт вылетит из поисковой выдачи.

А если конкретнее, то алгоритм Google Penguin может наложить санкции по следующим причинам :

1. Прежде всего, под клюв Пингвина попадают сайты, активно покупающие и продающие неестественные ссылки для повышения PageRank и искусственного воздействия на результаты поисковой выдачи. Сайты, на которые ведут ссылки с некачественных веб-ресурсов.

По словам Мэтта Каттса, не все платные ссылки являются поисковым спамом, а только те, которые направлены на манипуляции с результатами поиска и искусственное повышение PR. Коммерческие рекламные ссылки, нацеленные на продажи товаров, не запрещены, но их надо закрывать от индексации с помощью rel=”nofollow” . В то же время, достаточно всего пары не релевантных исходящих ссылок, чтобы это было расценено, как поисковый спам новым алгоритмом Гугл.

2. Замечено, что санкции применены к сайтам, в анкор листе которых подавляющее большинство точных вхождений.

Советуют разбавлять анкоры в соотношении, как минимум 50/50, а то и больше. В качестве безанкорных ссылок лучше использовать: тут, здесь, http://сайт.ru, сайт.ru, название сайта. Обязательно окружать их релевантным околоссылочным текстом, который может попасть в анкор-лист. Само собой любая ссылка должна быть релевантна документу, в котором она стоит и на который ведет.

Поэтому непонятно, какую службу теперь сослужат ссылки с профилей нетематических трастовых сайтов, форумов и каталогов. Хорошо, если их просто не будут учитывать. А если будут? Уверен, подобных ссылок у всех хватает.

3. Наличие сквозных ссылок в футере и сайдбаре с точным вхождением ключа в анкоре.

4. Неравномерное распределение входящих ссылок по страницам. Особенно, когда почти все ведут на главную, да еще и с одинаковыми анкорами. За чрезмерную внутреннюю перелинковку с использованием точных вхождений тоже могут наказать.

5. Наличие переоптимизированного контента с большой плотностью ключевых фраз и чрезмерное их выделение тегами акцентирования.

6. Наличие дублированного контента, одинаковых мета тегов и Title. Страницы, оптимизированные под одинаковые ключевые слова.

7. Использование замаскированных ссылок, скрытого текста, дорвеев, скрытой переадресации и других методов черного SEO.

Нельзя показывать поисковикам и посетителям разную информацию по одному и тому же адресу.

10. Страницы, содержащие вирусы и различные вредоносные программы.

Вот такой у меня получился список. Возможно, кто-то дополнит или, наоборот, оспорит. Высказывайтесь в комментариях.

Что делать, если упали позиции и трафик после введения в действие Google Penguin?

Прежде всего, советуют не паниковать и не делать резких движений. Например, прочитал на сайте www.seomoz.org , что худшее, что можно сделать, это резко начать удалять обратные ссылки. Даже обратные ссылки низкого качества могут быть полезны. И если активно начать сокращать все подряд бэк-ссылки, не найдя причину проблемы, рейтинг сайта может упасть еще ниже.

Надо проанализировать ситуацию и выяснить, какой именно трафик был потерян и какие действия могли привести к пессимизации сайта. Старайтесь исправить ошибки и ждите следующего обновления алгоритма.

Для тех, кто считает, что он пострадал от Пингвина незаслуженно, Гугл создал специальную форму обратной связи. Но так как новый фильтр накладывается на сайт автоматически, а не в ручном режиме, особого смысла от этих жалоб, скорее всего, не будет.

Но существует еще одна форма, где можно сообщить о сайтах, которые незаслуженно избежали наказания Пингвина. В общем, предлагается настучать на конкурентов.

Кстати, как сообщил все тот же seomoz, 11 мая было обновление Google Penguin. Так что все еще только начинается.

Заключение.

Подводя некоторые итоги, можно сделать вывод, что Гугл особенно серьезно настроен на борьбу с продажными ссылками. Причем продавать и покупать ссылки не запрещается, но они должны закрываться от индексации.

Наказывать же будут за попытки манипуляции результатами поисковой выдачи с помощью покупных ссылок. В этой связи, видимо, все большую ценность при ранжировании сайтов будут иметь социальные сигналы с Твиттер, Фейсбук и Гугл+.

Если читать между строк, то нам ясно дают понять, что получить целевой трафик на свои сайты будет гораздо проще, если отказаться от SEO в пользу Google AdWords. И Google Penguin, это очередное предупреждение. Как говорится, несите Ваши денежки… Похоже, для ссылочных бирж наступают трудные времена.

Для тех, кто продвигается под Яндекс, строго соблюдая его рекомендации к качеству сайтов, нововведения Гугла не должны вызвать серьезных проблем. Российский поисковик уже давно дал понять оптимизаторам, что он желает видеть в выдаче только СДЛ.

Вывод банален: делайте сайты для людей , а не для поисковиков, и будет Вам ТОП счастье.

А Вы как думаете, не перегибает ли палку поисковик №1 в мире? Долго ли еще протянет бизнес купли-продажи ссылок? Или покупные ссылки скоро будут бесполезны? Именем какого зверя назовут следующий алгоритм Гугла? Может это будет ? Высказывайтесь в комментариях.

До скорых встреч на страницах !

Случайные статьи

Вверх