opentorgs.ru

Пингвин гугл что. Что такое фильтр Penguin от Google. Что такое Google «Пингвин»

Мы выпустили новую книгу «Контент-маркетинг в социальных сетях: Как засесть в голову подписчиков и влюбить их в свой бренд».

Фильтр Google Пингвин - это один из последних алгоритмов, которые компания использует при ранжировании сайтов в поисковой выдаче.

На сегодняшний день Google при ранжировании сайтов принимает во внимание более двух сотен факторов. Чтобы учесть их все, одного алгоритма не хватит, необходимы несколько, каждый из которых будет решать собственные задачи.

Главная задача фильтра Пингвин – выявление и блокировка сайтов, использующих нечестные методы продвижения, основным из которых является закупка ссылочной массы. Алгоритм постоянно совершенствуется и в настоящее время апдейт фильтра Google Penguin выполняется практически непрерывно.

История разработки алгоритма Пингвин

Google Penguin вышел в мир в апреле 2012 года. В течение следующих двух месяцев он дважды обновлялся, разработчики корректировали первую версию фильтров. Вторая версия алгоритма появилась почти через год, обновленный Пингвин действовал уже тоньше и учитывал не только уровень ссылочного спама, но и общий уровень страницы.

Осенью 2014 года алгоритм вновь был обновлен. Надо сказать, что в тот период он действовал таким образом, что попавшим под его фильтры сайтам приходилось после коррекции долго дожидаться выхода очередного обновления, чтобы вновь пройти проверку. Ситуация изменилась в 2016 году, после выхода Google Penguin 4.0, который действовал в режиме реального времени и обновлялся непрерывно. Последние версии алгоритма действуют предельно мягко – учитывается уровень сайта, качество страниц, а некачественные ссылки аннулируются без отправки всего сайта в бан.

За что наказывает Google Penguin

Специалисты полагают, что алгоритм Пингвин должен дополнять алгоритм Google Панда, отвечающий за проверку контента сайтов. Чтобы ваш ресурс не попал под фильтр Google Пингвин, необходимо внимательно работать с внешними ссылками на сайт и избегать того, что специалисты называют манипулированием ссылочной массой. Основными способами такого манипулирования считаются:

  • «Торговля» ссылками, когда владелец сайта за деньги или другую плату публикует на своем ресурсе ссылки на чужие сайты.
  • Явно искусственный обмен ссылками, когда сайты ссылаются друг на друга из-за сговора владельцев, а не из-за качества контента.
  • Использование на сайте большого количества текстов, в которых много «притянутых за уши» анкоров и ключевых слов.
  • Использование сервисов, которые автоматически генерируют ссылки на сайт.
  • Наличие на сайте ссылок, имеющих в анкоре прямое вхождение ключевиков.
  • Использование сквозных ссылок с анкором-ключевиком в сайдбаре и футере сайта.
  • Комментарии к материалам сайта со ссылками на спам-ресурсы.
  • Чрезмерное количество контекстной рекламы на главной странице сайта.

За применение таких недобросовестных ссылочных схем фильтр Гугла Пингвин быстро и надежно «уронит» ваш сайт на много страниц в выдаче. Более того, вам будет очень непросто вернуть занимаемые позиции, поскольку проверка сайта Google Penguin выполняется всего лишь дважды в год.

Как узнать, что Google Penguin применил санкции

В отличие от алгоритма Google , работающего только в автоматическом режиме, Пингвин используется и при ручной модерации. Если вы обнаружили резкое падение трафика, зайдите на Google Webmaster Tools, в раздел «Меры принятые вручную» и проверьте, нет ли там сообщения от модераторов.

Если письмо есть, вам останется только исправить указанные в нем недочеты и отправить запрос о новой проверке.

Однако чаще всего алгоритм срабатывает автоматически. В этом случае стоит зайти на Moz.com и проверить, не было ли недавно обновлений Пингвина. Если обновления были, значит, диагноз установлен верно, и пора приступать к «лечению» сайта. Выявить это соответствие можно также с помощью сервиса PenguinTool, с сайта Barracuda. Правда для этого вам придется дать сервису доступ к своему аккаунту в Google Analytics, чтобы он сравнил период падения трафика и время выхода нового обновления. Результат сравнения поможет понять, попали вы под фильтры Пингвина или нет.

Что делать? если Google Penguin вас поймал

Если вы попали под фильтры этого алгоритма, то самое худшее, что можно сделать – начать панически удалять все ссылки. Этим вы окончательно погубите ресурс.

Сайту, который поисковая система сочла некачественным, нужна спокойная и вдумчивая санация. Сама компания Google предлагает набрать ссылочную массу заново, не спеша, естественным путем и в основном за счет создания уникального контента.

Первое, что нужно сделать для выхода из-под фильтра – проанализировать ссылочный профиль ресурса. Вам надо будет понять, какие ссылки идут с качественных сайтов, то есть с полезных, интересных и посещаемых, а какие со спамных. Сделать это можно с помощью сервиса Majestic SEO. Ссылки на спамные сайты (внутренние ссылки) надо нейтрализовать с помощью запретов noindex и nofollow, которые закроют «плохие» ссылки от индексации и заблокируют переходы по ним. Чтобы убрать внешние ссылки, вам надо будет использовать сервис Google для отклонения ссылок. Сервис называется , внесенные в него ссылки Пингвин Google просто не учитывает.

Второй шаг – смена анкоров ссылок. Ее выполняют двумя способами. Первый состоит в том, чтобы поменять ссылку на безанкорную, но сделать это может только опытный web-мастер. Второй способ состоит в наращивании ссылочного профиля за счет появления новых безанкорных ссылок.

Третьим шагом вам надо расширить базу ссылочных доноров, то есть позаботиться о том, чтобы ссылки шли из разных источников: с форумов, из социальных сетей, из каталогов, из блогов и средств информации, вроде интернет-журналов и новостных порталов. Полная санация сайта и выведение его из-под фильтров обычно занимает 3-4 месяца.

Чтобы не попасть под фильтры Google Penguin, надо привлекать только качественные ссылки, поддерживать постоянную динамику роста ссылочного профиля и не использовать в ссылках прямые анкоры. Качественный контент и естественное наращивание ссылочной массы из разных источников защитят вас от санкций поисковой системы лучше любого специалиста.

Привет! Продолжаю линейку постов посвященную фильтрам Гугла и сегодня речь пойдет о фильтре Пингвин (Penguin), который борется с сайтами использующими черные методы продвижения (SEO), но в отличии от своих собратьев может быть применен к площадкам, как в ручном, так и в автоматическом режиме.

В предыдущем посте мы познакомились с , узнали что это за такой зверь, кто его придумал и с какой целью он был выпущен на просторы всемирной сети.

Однако не успели вебмастера разобраться с Пандой (убрать спам на страницах, удалить дублирующий контент) одним словом сделать свои сайты безобидными в глазах посетителей и поисковиков, как на свет (апрель 2012 года) Google выпускает новый фильтр под кодовым словом Пингвин, который занижает в выдаче сайты с некачественным ссылочным профилем.

Зачем был создан Penguin

Давайте заглянем в прошлое и посмотрим, как раньше продвигались сайты. Например, нужно было выйти в ТОП по какому-нибудь высокочастотному запросу.

Что для этого делал вебмастер, писал оптимизированную статью, где неоднократно употреблял ключевое слово в содержании статьи, а затем, используя ссылочные биржи, покупались десятки ссылок, притом с доноров не самого лучшего качества, в которых и был продвигаемый запрос.

В итоге такой псевдо СДЛ сайт занимал высокие места в ТОП Гугл и получал тонны трафика. Конечно же, это не могло продолжаться долго и Google был вынужден настроить свои алгоритмы таким образом, чтобы исключить из выдачи некачественные сайты, умышленно завышающие свои позиции.

Если с контентом начала бороться Панда, то следить за качеством входящих и исходящих ссылок пришлось новоиспеченному Пингвину, который после запуска изменил всемирную выдачу до неузнаваемости.

Penguin — это кодовое слово очередного фильтра от Гугла, который фильтрует сайты, опуская из на низкие позиции в выдаче, за неестественную ссылочную массу.

Ниже мы более детально рассмотрим те факторы, за которые применяются санкции к площадкам.

За что наказывает фильтр Пингвин

Если после очередного обновления данного фильтра вы заметили, что трафик резко пошел вниз, то скорее всего к сайту были применены санкции.

Посмотрите на один сайт, который пострадал от Пингвина в день его выхода на свет.

Причины, из-за которых страдают сайты:

Качество входящих ссылок . Теперь для Гугла неважно количество входящих ссылок, ему важно качество, а самое главное естественность. Все остальное может быть расценено, как умышленное манипулирование результатами выдачи, к которым следует отнести:

— Размещение ссылок на заспамленных, некачественных площадках;

— Неравномерное распределение ссылок по страницам сайта.

То же самое касается вебмастеров зарабатывающих на продаже ссылок. Если на сайте в основном присутствуют коммерческие или нетематические ссылки, то велика вероятность, что такая площадка может попасть под клюв Пингвина.

Гуглу не понравится, если вчера на ваш сайт вело 100 линков, а спустя день уже ссылается 1000 — это явный признак линкспамерства.

Все вышеперечисленное можно заменить одним словом — ЕСТЕСТВЕННОСТЬ .

Как проверить под каким фильтром находится сайт

Если в один прекрасный день вы по неизвестным причинам лишились трафика из поисковой сети Google, то первым делом надо определить под каким именно фильтром находится ваша площадка, чтобы разработать стратегию по скорейшему снятию санкций.

Как я уже писал, фильтр Пингвин имеет две разновидности в плане применения к площадкам: ручной и автоматический.

При ручном методе наложения санкций, как правило, приходит уведомление в панели Гугл Вебмастер, в котором сообщается, из-за чего пострадал сайт.

Чтобы найти это уведомление нужно инструментах для вебмастеров перейти в раздел «Поисковый трафик» далее «Меры, принятые вручную».

Если сайт подвергся ручным санкциям, то в этом разделе будет находиться злосчастное письмо от службы по борьбе с поисковым спамом. Но большинство вебмастеров видит следующую картину.

В этом случае ручной фильтр Пингвина к проверяемой площадке не был применен и следует копать в сторону автоматического.

Пингвин, как и другие фильтры, периодически обновляет свою базу некачественных площадок, а статистика показывает, что это происходит два раз в год.

Ниже я выписал последние даты, когда произошел апдейт Penguin:

Теперь нужно сопоставить день, когда начался спад трафика с днем обновления фильтра и если эти числа совпадают, считайте истинная причина пессимизации площадки в выдаче установлена и можно приступать к ее лечению.

Но есть и другой способ узнать, под какой именно фильтр от Гугла попал сайт. Решением стал зарубежный сервис под названием Barracuda.

В его арсенале есть продукт Panguin Tool , который берет данный из статистики Google Analytics, а затем накладывает на график посещаемости даты обновления всех фильтров, что позволит лучше оценить, какой из них повлиял на ранжирование страниц сайта.

Для того чтобы его опробовать в действии на вашем сайте должна быть подключена статистика Гугл Аналитикс, правда для того чтобы воспользоваться услугами этого сервиса придется предоставить ему данные для входа в Аналитику, что не всегда может быть безопасным, однако я по этому поводу заморачиваться не стал.

1) Входим в свой аккаунт Гугл Аналитики, для чего нажимаем на кнопку «Log-in to Analytics».

3) Теперь надо выбрать тот аккаунт сайта, с которого будет сниматься статистика посещаемости.

4) Перед вами появится заветный график за последний год, на который будут нанесены все даты обновления Гугл фильтров.

Если посмотреть на статистику моего блога, вывод напрашивается неоднозначный. Четко видно, что падение трафика началось с обновления Панды, а когда трафик начал уменьшаться, произошел апдейт Пингвина, что тоже могло повлиять на ранжировании сайта в целом.

Теперь передо мной стал вопрос, под каким именно фильтром находится мой блог: Пандой или Пингвином? Буду рад, если в комментариях вы поможете мне в этом разобраться.

Как вернуть позиции сайта и победить Пингвина

Если с Пандой дела обстоят неоднозначно и чтобы ее победить, надо смотреть в сторону контента, то с Пингвином все куда радужней, так как достаточно убрать некачественные и неестественные ссылки на сайте и в случае с ручным фильтром отправить сайт на перепроверку, а с автоматическим ждать, когда случится апдейт.

Но как убрать такие ссылки, а также как узнать какие из них качественные, а какие нет? Если с исходящими ссылками все понятно, достаточно пробежаться по статьям и поставить на них запреты noindex и nofollow , то с входящими вечными линками все намного сложнее.

Для таких ситуаций Гугл пошел навстречу вебмастерам и придумал сервис Disavow links по отклонению ссылочной массы, которая не будет учитываться алгоритмами поисковика при ранжировании сайта.

Все что нам нужно это скачать список всех ссылающихся сайтов, о которых известно Гуглу, далее проверить их на качество, а затем все некачественные площадки отправить в Disavow links, сообщая тем самым, что на них не нужно обращать внимание при анализе ссылочной массы.

Скачиваем список входящих ссылок. Для этого идем в панель инструментов Гугл Вебмастер в раздел «Поисковый трафик» далее «Ссылки на ваш сайт» и в самом низу списка жмем «Дополнительно».

— Самостоятельно просматривать все доноры из списка, проверять их показатели, опираясь на свои навыки.

— Доверить проверку специальным сервисам, о которых я рассказал в статье « ».

Я пошел по более простому для меня варианту, так как не считаю, что могу потратить столько времени, чтобы проверить около 1000 доменов.

Переходим в сервис CheckTrust и выбираем в меню создать проект «BackLinks Checker».

Далее вводим любое название проекту и загружаем скаченный ранее файл со ссылками. Если какие-то ссылки из файла вы уже проверили сами, то можете вставить список оставшихся ссылок в специальное поле для проверки и нажимаем «Далее».

Легкая чистка — удалению подвергнутся только бэклинки с самых некачественных сайтов.

Умеренная чистка — в список попадут все подозрительные сайты по качеству оцениваемые как ниже среднего.

Отличная чистка — все, вызывающее хоть какое-то подозрение, будет удалено.

Жесткая чистка — среди «выживших» останутся ссылки с сайтов только высшего качества, по статистике это не более 5-10% всех бэклинков.

Нужны все варианты — получите все 4 файла со ссылками после разных степеней чистки.

Сразу скажу, что берите лучше последний вариант, чтобы у вас были все списки, и вы наглядно видели какие из доменов все-таки стоит оставить.

После того как система проверит проект и его статус обработки станет «Выполнено» вам нужно будет по нему кликнуть, чтобы произошла его загрузка на компьютер.

Это будет текстовый файл со списком сайтов, которые система посчитала некачественными и которые стоит добавить в сервис Disavow links от Google. Если посмотреть скаченный файл, то вы увидите примерно такую картину.

Именно в таком формате domain:сайт и надо отправлять все исключаемые площадки в Disavow links. Как видите, CheckTrust сделал неинтересную работу за вас.

Теперь надо перейти в инструмент Disavow links , почему-то прямой ссылки на него из панели Гугл Вебмастер я не обнаружил, а далее выбрать сайт, для которого будете отклонять ссылки.

Читаем внимательно предупреждение, видно создано для тех, кто случайно решил воспользоваться этим инструментом.

Если вы все сделали правильно, то в сообщениях о сайте должны получить уведомление, в котором будет стоять такая же цифра отклоненных доменов, сколько было в загружаемом файле.

После всех вышеописанных манипуляций останется ждать, когда произойдет обновление фильтра Пингвин и с сайта снимутся санкции, но при этом не стоит забывать, что ссылки должны постоянно прибавляться. Гугл любит динамику постоянного роста качественной ссылочной массы.

Так что обратные бэклинки нужно добывать всеми возможными способами постоянно, а вот как это сделать вы узнаете в следующих постах, главное не пропустите !

На сегодня у меня все, расскажите, как вы победили фильтр Пингвин и какими инструментами для этого пользуетесь. Пока!

Фильтры Google могут создать много проблем как молодому сайту, так и устоявшемуся крупному порталу. Причины попадания под фильтр могут быть разнообразны, но эффект будет ощутим: трафик сайта существенно просядет.

Как не попасть под фильтр?

Продвигая и оптимизируя свой сайт в сети, необходимо знать принципы ранжирования в поисковых системах. Несоблюдение правил установленных поисковиками может повлечь ряд санкций, итогом которых чаще всего является блокировка сайта. Блокировка сайта заключается в том, что он будет запрещен к показу в выдаче той или иной поисковой системы, что несомненно повлечет за собой потери посетителей сайта.

Механизмом накладывания санкций является фильтр поисковой системы , который проверяет сайт на наличие грубых нарушений. Под грубыми нарушениями подразумевается искусственное продвижение различными способами, следствием чего является искажение поисковой выдачи. Данная проблема является самой распространенной у всех поисковых систем, но, как можно заметить, с появлением новых фильтров — интернет стал гораздо чище.

На данный момент существует около сотни различных фильтров у одного только Гугла — не все знают о них, так как лишь малая часть может коснуться веб-мастеров. Совсем недавно я рассказывал об относительно новом фильтре , о котором я также советую прочитать.

Фильтр Google Пингвин

Особенности Penguin

Фильтр вышел в свет в 2012 году и своим появлением навел много шума. После первого апдейта многочисленные сайты потеряли свои позиции, после чего встал острый вопрос: как выйти из под фильтра?

Характерность Google Пингвин:

  • аномальная потеря позиций в выдаче
  • исходя из первого — большие потери в посещаемости

Попадание под фильтр трудно не заметить, но трудно понять какой именно это фильтр и каовы причины попадания под него. Пингвин относился с вниманием к внешним ссылкам и мог распознавать такие проблемы как:

  • изобилие ключевых слов
  • дефицит вхождений в виде адреса сайта
  • отсутствие или дефицит именно тематических доноров
  • обмен ссылками
  • некачественные или заспамленные доноры
  • неравномерность распределения ссылочной массы по страницам
  • дубли контента

Таким образом, основной задачей фильтра стала именно блокировка некачественных ресурсов, на которые ссылались некачественные сайты. Более того, эти ссылки должны быть естественными : сайт должен иметь не только влиятельные ссылки, но и те, которые не несут в себе никакого веса.

Помимо внешних ссылок, требования затронули и исходящие. При указании таковой ссылки, следует убедится в качестве сайта, в ином случае можно залететь под Пингвина. Особенно это касается коммерческих проектов, на которые уделяется особое внимание. Самое простое решение проблемы — для большинства ссылок указывать .

Как я уже упоминал, важным критерием фильтра является — естественность ссылок . Нельзя допускать резкого повышения ссылок — только по мере развития проекта. Даже если ссылки будут высокого качества, резкое их появление в большом количестве непременно приведет к одному — попадание под фильтр, а то и не один.

Ещё один критерий стоит учесть, дабы избежать неприятностей с Пингвином: дублированный контент. Пингвин анализирует ваш сайт в поиске и при наличии дублей — так же может наложить санкции. Стоит заметить, что Пингвин занимается лишь поверхностным анализом контента, в отличие от следующего фильтра, который мы рассмотрим.

Как выйти из под фильтра Google Penguin

Если всё-таки вы попали под фильтр — не стоит отчаиваться. Выйти можно и нужно, это лишь вопрос времени — главное понять под какой фильтр вы попали. Специально для этого существует удобный сервис — , которому придётся предоставить данные из Google Analitics. С помощью него можно сопоставить спад посещаемости и апдейт определенного фильтра.

При попадании под фильтр — в Google Webmaster будет соответствующее уведомление. Если это Пингвин, то я бы начал с отсеивания некачественных входящих ссылок: именно в этом и заключается смысл фильтра — бороться с покупными ссылками. После выявления мусорных ссылок — необходимо от них избавиться. Специально для этого случая Google предоставил сервис для .

Далее всё зависит от вас и от объёмов ссылочной массы: если ссылок небольшое количество или у вас много времени — всегда можно самостоятельно провести аудит и отсеять заспамленные ссылки. В ином случае — можно воспользоваться специальном сервисом , который выполнит всю работу за вас.

После перехода на сайт, открываем в меню «BackLinks Cheker» и загружаем ранее полученный файл в формате CSV:

Следующим этапом будет выбор типа очистки:

  • Легкая чистка - удалятся только бэклинки с самых некачественных сайтов;
  • Умеренная чистка - удалятся все сайты по качеству ниже среднего;
  • Отличная чистка - полная очистка от всех подозрительных ссылок;
  • Жесткая чистка - останутся только самые качественные ссылки;
  • Нужны все варианты - получить несколько вариантов очистки.

После проделанной операции будет предложен файл для сохранения в текстовом формате, в котором будут 2 файла:

  • список качественных ссылок
  • список некачественных ссылок

После этого можно смело отправляться в сервис удаления ссылок Google, который я упоминал выше и просто добавить файл с некачественными ссылками. Самое интересное то, что для операций в Google Webmasters всё уже подготовлено — некачественные ссылки приведены в правильный формат в сервисе BackLinks.

После этого остаётся лишь ожидать очередного апдейта и снятия санкций.

Если у вас нет желания проверять качество каждого сайта, на который вы устанавливали исходящую ссылку — достаточно запретить по ней следовать с помощью nofollow. О запрете к индексации я уже говорил в .

Фильтр Google Панда

Особенности Panda

Фильтр начал своё существование в 2011 году и вызвал большой ажиотаж во всей сети. Пожалуй, основной интерес веб-мастеров вызвал тот факт, что Панда действовала не совсем однозначно: одни сайты понижались в позициях, а другие наоборот быстро поднимались. Долгое время Панда вносила диссонанс в понимание веб-мастеров — это стало действительно серьёзной проблемой.

Спустя какое-то время, начали появляться первые обзоры и догадки касательно алгоритма фильтра и его возможных критериев. Как ни странно, на этот раз Google преподнёс сюрприз в виде детальной проверки контента сайтов и выявление таких критериев, как:

  • наличие копипаста
  • объём информации в статьях
  • полезность материала
  • переоптимизация контента
  • изобилие рекламы на сайте

Уникальность контента, как никогда, стала ценится после появления Панды. И это здорово — теперь трудно найти в ТОПе выдачи некачественный скопированный материал. То же самое касается и объёма статьи — короткие или сверхбольшие статьи могут стать причиной попадания под фильтр (чаще всего это лишь дополнительный фактор).

Полезность материала определяется расчётом вышеописанных критериев, а также показателя отказов и времени, проведенного на сайте. Напомню, что показатель отказов является одним из важных поведенческих факторов, по которому учитывается качество сайта.

К переоптимизации контента стоит отнести злоупотребление ключевыми словами в статье, которые также называются академической тошнотой . Частое употребление ключевых слов расценивается как спам и однозначно будет внесено под фильтр. Напомню, что не стоит использовать ключевые слова с плотностью выше 2,5%.

Именно Панда стала основным оружием в искоренении рекламы на сайтах веб-мастеров, которые были вынуждены существенно ограничить её количество. С появлением данного фильтра было выбито из ТОПа большое количество сайтов, среди которых остались лишь действительно качественные, либо те, кто смог исправить и адаптировать свой проект под новые условия.

Как выйти из под фильтра Panda

Если вы столкнулись с таким фильтром, как Panda — это совсем неутешительные новости. Выбраться из-под данного фильтра достаточно сложно, но вполне возможно. Основной проблемой является то, что санкции Панды касаются в основном контента, которого может быть большое количество, что затрудняет процесс «реабилитации».

Чтобы выбраться из фильтра Панды придётся провести серьёзную работу с контентом, его качеством и характеристиками сайта в целом. Необходимо найти возможные проблемы поведенческого характера, либо наличие назойливой рекламы (если таковая есть). Если проблема всё-таки кроется в самом контенте — предстоит долгий процесс анализа и правок.

Чаще всего вся проблема кроется в переоптимизации текста, что расценивается как спам. Кстати, даже если таких страниц будет 2-3 — они потянут за собой весь сайт: поэтому стоит проверить каждую страницу сайта на предмет наличия спама.

Именно поэтому я советую не стараться влиять всеми силами на поисковую систему, а писать текст для людей, используя ключевые слова в достаточном количестве.

Если вы задаетесь вопросами: как вывести сайт из под Пингвина ? Как снять ручной фильтр Google ? То, данное руководство поможет вам решить эти проблемы, вернуть позиции и посещаемость.

В поисковой системе Google существуют десятки известных фильтров, которые могут сильно повлиять на продвижение, а так же сотни, про которые мало кто знает.

Сегодня речь пойдет про самые основные и распространенные фильтры. А именно:

  1. Автоматический фильтр Google за обратные ссылки

Все они так или иначе относятся к алгоритму под названием Google Penguin, который вступил в силу более года назад и уже успел наделать много шума.

Симптомы такого фильтра

  1. обвал позиций
  2. резкий спад посещаемости сайта

На практике это выгладит таким образом:

Не совсем приятная ситуация. Особенно когда в большинстве случаев ваш основной источник привлечения посетителей поисковый трафик.

А теперь рассмотрим детально для каждого типа фильтра за обратные ссылки.

Ручной фильтр Google за искусственные входящие ссылки

Зачастую все начинается с того, что приходит сообщение в панели для Вебмастеров Google. Выглядит оно так:

В уведомлении сообщение такого характера:

Сообщения бывают разные, например:

Чтобы найти сообщения о ручном фильтре, для этого:

После того, как приходит уведомление об искусственных входящих ссылках, обычно такие последствия:

А) В течении 2-3 недель позиции сильно падают, после чего пропадает посещаемость из поиска Google

Б) Сразу вылетают позиции и посещаемость падает

Причины ручного фильтра Google

Основной сигнал, из-за которого приходит такое уведомление – это анкор ссылки и его переспам.

В примере, текст обратных ссылок на один из сайтов, который затронул фильтр. Основная причина фильтра – переспам анкором.

Еще пример :

Если посмотреть по уникальным доменам, то получается такая картина:

Использование обратных ссылок с коммерческими или другими ключевыми словами приводит к ручному фильтру, потери позиций и посещаемость.

Что же тогда делать и как быть?

Решение предельно простое – не использовать большой процент ссылок с ключевыми словами.

Пошаговая инструкция по снятию ручного фильтра Google

  1. Уведомление в Google
    Проверяем, есть ли уведомление в Google Webmaster Tools. Если есть, то переходим к следующему пункту.
  2. Запрос на пересмотр
    В первом запросе на пересмотр важно уточнить какие именно ссылки нарушают правила поиска, и спросить, что необходимо сделать для снятия ручных санкций.
  3. Получаем ответ

    В большинстве случаев в ответе указывают те ссылки, по мнению которых сайт нарушает правила поиска. Например:

    В итоге мы можем определить на какие именно ссылок обращает внимание Google и считает их спамными.

  4. Производим указанные действия

    Дальнейшие действия сильно зависят от вашего ссылочного профиля.

    Ситуация 1

    На ваш сайт стоит большое количество арендованных ссылок, и в большинстве случаев это прямые анкоры, в которых содержаться ключевые слова.

    В таком случае – необходимо :

    1. почистить ссылки с анкорами (в том числе те, которые есть в примере Гугл)
    2. переходить к следующем пункту – новый запрос на пересмотр

    Если действительно убрать большую часть таких ссылок, то ручной фильтр можно снять с одного – двух запросов.

    Ситуация 2

    В там случае – необходимо :

    1. просмотреть все обратные ссылки (можно с помощью сервисов проверки обратных ссылок, например: Ahrefs, MajesticSeo, LinkPad)
    2. составить список ссылок, которые нежелательные (основные критерии: анкор, низкое качество сайта)
    3. добавить ссылки в Disawov Tool — https://www.google.com/webmasters/tools/disavow-links-main?/
    4. подождать 1-2 недели (из практики необходимо для того, чтобы ссылки пере индексировались)
    Далее переходим к следующему пункту и отправляем запрос на пересмотр.
  5. Отправляем новый запрос на пересмотр

    В запросе на пересмотр необходимо:

    1. четко описать что вы сделали
    2. просто и понятно
    3. и уточнить, что еще необходимо сделать для снятия фильтра

    После чего, необходимо немного времени для пересмотра вашего сайта. Это может занять от пару дней до 3-4 недель.

  6. Промежуточный ответ

    В промежуточном ответе обычно содержание такого характера:

    Это уведомление от Google приходит практически сразу после отправки запроса на пересмотр.

  7. Ждем решения

    Ответ приходит обычно в течении 1-2 недель, иногда дольше, а иногда быстрее.

    В нем либо негативный ответ, например:

    Если ответ негативный , то:

    1. заново пересматриваем ссылки
    2. добавляем в Google Disawov
    3. или просто снимаем ссылки
    4. в любом случае нужно сделать действия
    5. отправляем новый запрос на пересмотр

    Но ответ после выше проделанных действий может быть и позитивный , например:

    В этом случае – поздравляю вас! Ручной фильтр Google снят.

В нашем примере – был не быстрый способ вывода сайта из под ручного фильтра Google, вот так выглядит хронология событий:

Важные моменты при самостоятельно снятии фильтра:

  1. не сдаваться
  2. делать действия (а не просто слать запросы на пересмотр)
  3. если сделать все, как выше описано, то ручной фильтр от Гугл снимется, вы вернете позиции и трафик

Вот информация, которая дополнит данный материал и поможет вам успешно снять фильтр:

  1. тематики под США
  2. Кейс — как снять ручные санкции Google с помощью Disavow Tool, вернуть позиции и посещаемость
  3. Кейс — как снять ручные санкции Google, вернуть позиции и трафик

В ручном фильтре нет ничего страшного, самое главное не поленится и сделать ряд действий, который приведет к нужному результату.

Как результат – это возвращение посещаемости на прежний уровень, например:

В данном примере рассмотрены пару сайтов, фильтры с которых снимались в разное время.

По времени снятия фильтра :

  1. рекорд за 4 дня
  2. самый долгий срок 3.5 месяца

Но в любом случае нужно действовать оперативно, а так же учитывать выше описанные моменты.

Автоматический фильтр за обратные ссылки

С автоматическим фильтром от Google – все на порядок сложнее. Так как о нем не приходит сообщение.

Важно: автоматические санкции могут сняться при официальном обновлении алгоритма Google Penguin, которое в среднем происходит раз в 2-4 месяца.

Чтобы вы не делали, до обновления алгоритма – ничего не изменится, если это автоматические санкции.

Мы не раз снимали автоматический фильтр, но не всегда все происходит быстро.

Признаки фильтра

Все тоже самое, как и с ручным, только не приходит никакого уведомления.

  1. позиции сначала проседают в – 30-50
  2. падает трафик на сайт

И потом долгое время не возвращается.

Основные причины:

  1. Прямое вхождение анкора ссылки
  2. Некачественные обратные ссылки

Пошаговое руководство по снятию автоматического фильтра

В данном случае в отличии от ручного все на порядок дольше, и сложнее.


В заключение про фильтр Google Penguin

Алгоритм был запущен в 2012 году и постоянно дорабатывается. Его основной задачей является – борьба со спамом и искусственным манипулированием результатов поиска.

Чтобы не попасть под фильтр , необходимо:

  1. не использовать прямой анкор лист сильно заметно, или не использовать вовсе
  2. привлекать качественные ссылки на сайт
  3. стараться делать акцент на продукте и его качестве, чтобы получать естественные ссылки (да, это можно делать даже в реалиях рунета)
  4. соблюдать динамику – Google любит постоянную динамику

Тогда у вас не возникнет вопросов с фильтрами и ваш трафик будет постоянно расти. Естественно если вы будете работать над:

  1. контентом сайта
  2. привлечением естественных ссылок (не покупных)

Даже если вы уже наступили на грабли и получили санкции со стороны Google, то не стоит разочаровываться – решение всегда есть.

Я надеюсь, что данное пошаговое руководство поможет решить вашу проблему – вернуть позиции и посещаемость из поисковой системы Google.

Важно: в статье рассмотрены только фильтры, связанные с алгоритмом Google Penguin и обратными ссылками.

Если у вас резко упали позиции и посещаемость, то причина может быть вовсе не в ссылках, а например, в контенте. За это отвечает алгоритм Google Панда.

Удачи вам! До скорых встреч на страницах блога сайт

Вам может быть интересно

Анкор - что это такое и насколько они важны в продвижении сайта Disavow links или как определить под каким фильтром Гугла (Панда или Пингвин) находится сайт
СЕО терминология, сокращения и жаргон За что можно получить бан в Яндексе, попасть под АГС или портяночный фильтр, а также пути выхода из-под этих санкций
Rel Nofollow и Noindex - как закрыть от индексации Яндексом и Гуглом внешние ссылки на сайте
Траст сайта - что это такое, как его измерить в XTools, что на него влияет и как увеличить авторитетности своего сайта Особенности продвижения интернет-магазинов
Способы оптимизации контента и учет тематики сайта при ссылочном продвижении для сведения затрат к минимуму
GoGetLinks - вечные ссылки для продвижения сайта и заработок на бирже ГоГетЛинкс для вебмастеров
Контент для сайта - как наполнение уникальным и полезным контентом помогает в современном продвижении сайтов
Расшифровка и разъяснение Seo сокращений, терминов и жаргонизмов

В 2012 году Google официально запустил «алгоритм борьбы с веб-спамом », направленный против спам-ссылок, а также практик манипулирования ссылками.

Этот алгоритм позже стал официально известен как алгоритм Гугл Пингвин после твита Мэта Каттса (Matt Cutts ), который впоследствии стал главой подразделения Google по борьбе с веб-спамом. Несмотря на то, что в Google официально назвали алгоритм Penguin , никаких официальных комментариев по поводу того, откуда пошло это название, не было.

Название алгоритму Panda дал из инженеров, работавших над ним. Одна из теорий возникновения имени Penguin состоит в том, что это отсылка к Пингвину – герою комиксов DC про Бэтмена .

Перед внедрением Penguin количество ссылок играло значительную роль при оценке веб-страниц поисковыми роботами Google .

Это означало, что при ранжировании сайтов по этим оценкам в результатах поиска некоторые низкокачественные сайты и куски контента появлялись на более высоких позициях.

Зачем потребовался алгоритм Penguin

Война Google с низкокачественными результатами поиска началась с алгоритма Panda , а алгоритм Penguin стал расширением и дополнением арсенала.

Penguin стал ответом Google на расширяющиеся практики манипуляции результатами поиска (и ранжированием ) через спам-ссылки.

Алгоритм Penguin обрабатывает только входящие на сайт ссылки. Google анализирует ссылки, ведущие на сайт, и не воспринимает исходящую ссылочную массу.

Первоначальный запуск и влияние

При первом запуске в апреле 2012 года фильтр Пингвин Гугл повлиял более чем на 3% результатов поиска, согласно собственным оценкам Google .

Penguin 2.0 , четвёртое обновление (включая первоначальную версию ) алгоритма, был выпущен в мае 2013 года и затронул примерно 2,3% всех поисковых запросов.

Ключевые изменения и обновления алгоритма Penguin

Всего было несколько изменений и обновлений алгоритма Penguin , начиная с момента его запуска в 2012 году.

Penguin 1.1: 26 марта 2012 года

Это было не изменение алгоритма, а первое обновление данных внутри него. Сайты, изначально затронутые алгоритмом Penguin , но после избавившиеся от низкокачественных ссылок, получили некоторое улучшение своих позиций. В то же время другие сайты, не затронутые алгоритмом Penguin при его первом запуске, заметили определенное воздействие.

Penguin 1.2: 5 октября 2012 года

Это было очередное обновление данных. Оно затронуло запросы на английском языке, а также международные запросы.

Penguin 2.0: 22 мая 2013 года

Более продвинутая (с технической точки зрения ) версия алгоритма, которая изменила степень его влияния на результаты поиска. Penguin 2.0 затронул примерно 2,3% англоязычных запросов, и примерно такую же долю запросов на других языках.

Также это было первое обновление алгоритма Гугл Пингвин , которое заглядывало дальше главной страницы и страниц верхнего уровня в поисках доказательств наличия спам-ссылок.

Penguin 2.1: 4 октября 2013 года

Единственное обновление алгоритма Penguin 2.0 (версия 2.1 ) вышло 4 октября того же года. Оно затронуло около 1% поисковых запросов.

Несмотря на то, что никаких официальных объяснений обновления от Google не было, статистика свидетельствует о том, что апдейт также увеличил глубину просмотра страниц и ввел дополнительный анализ наличия спам-ссылок.

Penguin 3.0: 17 октября 2014 года

Стало очередным обновлением данных, позволившим многим попавшим под санкции сайтам восстановить свои позиции, а другим, злоупотреблявшим спам-ссылками, но скрывшимся от предыдущих версий Penguin , почувствовать на себе его влияние.

Сотрудник Google Пьер Фар (Pierre Far ) подтвердил это и отметил, что обновлению потребуется «несколько недель » для полного развёртывания. И что апдейт затронул менее 1% англоязычных поисковых запросов.

Penguin 4.0: 23 сентября 2016 года

Почти через два года после обновления 3.0 было выпущено последнее изменение алгоритма. В результате Penguin стал частью базового алгоритма поисковой системы Google .

Теперь, работая одновременно с базовым алгоритмом, Гугл Пингвин 4 оценивает сайты и ссылки в режиме реального времени. Это означает, что можно видеть относительно быстрое влияние изменений внешних ссылок на позиции вашего сайта в поисковой выдаче Google .

Обновлённый алгоритм Penguin также не был направлен строго на наложение санкций, он девальвировал значение спам-ссылок. Это стало противоположностью предыдущим версиям Penguin , когда за плохие ссылки следовало наказание. Но исследования показывают, что алгоритмические санкции, основанные на внешних ссылках, используются до сих пор.

Алгоритмические понижения в Penguin

Вскоре после запуска алгоритма Penguin , вебмастера, которые практиковали манипулирование ссылками, стали замечать снижение объема поискового трафика и позиций в поиске.

Не все понижения, спровоцированные алгоритмом Penguin , касались целых сайтов. Некоторые были частичными и затрагивали только определённые группы ключевых слов, которые были активно забиты спам-ссылками или «излишне оптимизированы ».

Сайт, попавший под санкции Penguin , которому потребовалось 17 месяцев, чтобы восстановить свои позиции в поисковой выдаче Google .

Влияние Penguin также распространяться между доменами. Поэтому смена домена и перенаправление со старого на новый может сулить ещё больше проблем.

Исследования показывают, что использование перенаправлений 301 или 302 не отменяет влияния алгоритма Penguin . На форуме вебмастеров Google Джон Мюллер (John Mueller ) подтвердил, что использование перенаправлений meta refresh с одного домена на другой также может привести к санкциям.

Восстановление от воздействия алгоритма Penguin

Утилита Disavow Links Tool была полезной для специалистов SEO , и это не изменилось даже теперь, когда алгоритм Пингвин Гугл функционирует как часть базового алгоритма Google .

Что включать в файл дезавуирования

Файл Disavow содержит ссылки, которые должен игнорировать Google . Благодаря чему некачественные ссылки не будут снижать позиции сайта в результате работы алгоритма Penguin . Но это также означает, что, если вы ошибочно включили высококачественные ссылки в ваш файл дезавуирования, то они больше не помогут сайту подняться на более высокие позиции.

Не нужно включать никаких комментариев в Disavow , кроме случаев, когда они нужны вам самим.

Google не читает пояснений, которые вы делаете в файле, так как он обрабатывается автоматически. Некоторым удобнее добавлять пояснения для последующего использования. Например, дату, когда группа ссылок была добавлена в файл или комментарии о попытках связаться с вебмастером сайта, чтобы убрать ссылку.

После того, как вы загрузите файл Disavow , Google отправит вам подтверждение. Но, несмотря на то, что Google обработает его немедленно, он не дезавуирует ссылки в тот же момент. Поэтому вы не сможете сразу же восстановить позиции вашего сайта в поисковой выдаче.

Также не существует способа определить, какие ссылки были дезавуированы, а какие нет, так как Google всё равно включит и те, и другие в отчёт о внешних ссылках, доступный в Google Search Console .

Если вы ранее загружали Disavow и отправляли его в Google , он заменится новым, а не добавится к старому. Поэтому важно убедиться в том, что вы включили в новый файл старые ссылки. Вы всегда можете скачать копию текущего файла в своем аккаунте Google Search Console .

Отключение отдельных ссылок или доменов целиком

Для вывода сайта из под Гугл Пингвин рекомендуется дезавуировать ссылки на уровне домена вместо отключения отдельных ссылок.

Благодаря чему поисковому роботу Google потребуется посетить всего одну страницу на сайте, чтобы дезавуировать ссылки, ведущие с него.

Отключение ссылок на уровне домена также означает, что вам не нужно беспокоиться, индексируется ли ссылка с www или без.

Обнаружение ваших внешних ссылок

Если подозреваете, что на ваш сайт негативно повлиял алгоритм Penguin , нужно провести аудит внешних ссылок и дезавуировать низкокачественные или спам-ссылки.

Google Search Console позволяет владельцам сайтов получить список внешних ссылок. Но необходимо обратить внимание на то, что Disavow включает в себя ссылки, которые помечены как «nofollow ». Если ссылка помечена атрибутом nofollow , она не окажет влияния на ваш сайт. Но необходимо, чтобы сайт, разместивший ссылку на ваш ресурс, может убрать атрибут «nofollow » в любой момент без какого-либо предупреждения.

Также существует много сторонних инструментов, которые показывают ссылки, ведущие на сайт. Но из-за того, что некоторые вебмастера защищают сайт от обхода сторонними ботами, использование таких инструментов может показать не все входящие ссылки. Кроме этого подобная блокировка может быть использована некоторыми ресурсами, чтобы скрыть низкокачественные ссылки от обнаружения.

Мониторинг внешних ссылок – необходимая задача, чтобы защититься от атаки по принципу «негативного SEO ». Их суть заключается в том, что конкурент покупает спам-ссылки на ваш сайт.

Многие используют негативное SEO как оправдание, когда их сайт попадает под санкции от Google за низкокачественные ссылки. Но Google утверждает, что после обновления Пингвина Гугл поисковик хорошо распознает подобные атаки.

Опрос, проведённый Search Engine Journal в сентябре 2017 года, показал, что 38% SEO-специалистов никогда не дезавуировали внешние ссылки . Просмотр внешних ссылок и тщательное исследование домена каждой внешней ссылки - это нелёгкая задача.

Запросы на удаление ссылок

Некоторые владельцы сайтов требуют определенной оплаты за удаление ссылки. Google рекомендует не платить за это. Просто включите плохую внешнюю ссылку в ваш файл дезавуирования и переходите к удалению следующей ссылки.

Несмотря на то, что подобные запросы являются эффективным способом восстановить позиции сайта после применения санкций за внешние ссылки, они не всегда обязательны. Алгоритм Гугл Пингвин рассматривает портфель внешних ссылок целиком, то есть как соотношение количества высококачественных, естественных ссылок и спам-ссылок.

Некоторые даже что включают в соглашение об использовании сайта «условия » размещения внешних ссылок, ведущих на их ресурс:

Мы поддерживаем только «ответственное » размещение внешних ссылок, ведущих на наши веб-страницы. Это означает, что:

  • Если мы попросим удалить или изменить ссылку на наши сайты, вы сделаете это незамедлительно.
  • Вы обязаны убедиться, что использование ссылок не навредит нашей репутации и не повлечёт за собой получение коммерческих выгод.
  • Нельзя размещать более 10 ссылок на наши сайты или веб-страницы без получения разрешения.
  • Сайт, на котором вы размещаете ссылку, ведущую на наш ресурс, не должен содержать оскорбительные или дискредитирующие материалы. А также не должен нарушать чьи-либо авторские права.
  • Если кто-либо кликает по ссылке, которую вы разместили, она должна открывать наш сайт на новой странице (вкладке ), а не внутри фрейма на вашем сайте.

Оценка качества ссылок

Не думайте, что, если внешняя ссылка расположена на сайте с доменом.edu, то она обязательно высокого качества. Множество студентов продают ссылки со своих персональных сайтов, которые зарегистрирован в зоне .edu . Поэтому они расцениваются как спам, и должны быть дезавуированы. Кроме этого многие сайты в зоне .edu содержат низкокачественные ссылки из-за того, что были взломаны. То же самое относится ко всем доменам верхнего уровня.

Представители Google подтвердили, что расположение сайта в определенной доменной зоне не помогает и не вредит его позициям в результатах поиска. Но нужно принимать решение для каждого конкретного сайта и учитывать обновления Пингвина Гугл .

Остерегайтесь ссылок с очевидно высококачественных сайтов

Просматривая список внешних ссылок, не рассматривайте их как высококачественные только потому, что они размещены на определённом сайте. Если только вы не уверены на 100% в её качестве. Только то, что ссылка размещена на авторитетном сайте, таком как Huffington Post или BBC , не делает её высококачественной в глазах Google . Многие из таких сайтов продают ссылки, причём некоторые из них являются замаскированной рекламой.

Промо-ссылки

Примерами промо-ссылок, которые в глазах Google являются платными, могут быть ссылки, размещённые в обмен на бесплатный продукт для обзора или скидку на продукт. Хотя такие типы ссылок были приемлемыми несколько лет назад, теперь они должны быть помечены атрибутом «nofollow ». Вы всё ещё можете получать выгоду от размещения таких ссылок. Они могут помочь увеличить узнаваемость бренда и привлечь трафик на сайт.

Крайне важно оценивать каждую внешнюю ссылку. Нужно удалить плохие ссылки, потому что они влияют на позиции ресурса в поисковой выдаче в результате воздействия алгоритма Пингвина Гугл , либо могут привести к ручным санкциям. Не стоит удалять хорошие ссылки, потому что они помогают вам подняться в поисковой выдаче.

От санкций алгоритма Penguin не восстановиться?

Иногда, даже после того, как вебмастера проделывают огромную работу по очистке внешних ссылок, они всё равно не видят улучшений в объеме трафика или в позициях.

Есть несколько причин этого:

  • Изначальный прирост трафика и улучшение позиций в поиске, возникшие перед наложением алгоритмических санкций, были и исходили от плохих внешних ссылок.
  • Когда плохие внешние ссылки были удалены, не было предпринято усилий, чтобы получить новую ссылочную массу высокого качества.
  • Не все спам-ссылки были отключены.
  • Проблема не во внешних ссылках.

Когда вы восстанавливаетесь от санкций, наложенных алгоритмом Penguin, не ждите, что позиции вашего ресурса в поисковой выдаче возвратятся или это произойдёт мгновенно.

Добавьте к этому тот факт, что Google постоянно меняет фильтр Пингвин Гугл , поэтому факторы, которые приносили пользу раньше, теперь могут иметь не такое сильное влияние.

Мифы и заблуждения, связанные с алгоритмом Penguin

Вот несколько мифов и заблуждений об алгоритме Penguin , которые возникли за последние годы.

Миф: Penguin – это наказание

Один из самых больших мифов про алгоритм Penguin – это то, что люди называют его наказанием (или тем, что в Google называют ручными санкциями ).

Penguin строго алгоритмический по своей природе. Он не может быть применён или снят специалистами компании Google в ручном режиме.

Несмотря на то, что действие алгоритма и ручные санкции, могут привести к большому падению в поисковой выдаче, между ними большая разница.

Ручные санкции возникают, когда специалист подразделения Google по борьбе с веб-спамом отвечает на претензию, проводит расследование и приходит к выводу о необходимости наложить санкции на домен. В этом случае вы получите уведомление в Google Search Console .

Когда к сайту применяются ручные санкции, нужно не только проанализировать внешние ссылки и отправить файл Disavow , содержащий спам-ссылки, но и отправить запрос на пересмотр вашего «дела » командой Google .

Понижение позиций в поисковой выдаче алгоритмом происходит без всякого вмешательства со стороны специалистов Google . Всё делает алгоритм Пингвин Гугл .

Раньше приходилось ждать изменения или обновления алгоритма, но теперь Penguin работает в режиме реального времени. Поэтому восстановление позиций может произойти гораздо быстрее (если работа по очистке была выполнена качественно ).

Миф: Google уведомит вас, если алгоритм Penguin повлияет на ваш сайт

К сожалению, это не правда. Google Search Console не уведомит о том, что поисковые позиции вашего сайта ухудшились в результате работы алгоритма Penguin .

Это снова показывает разницу между алгоритмом и ручными санкциями – вас уведомят, если на сайт были наложены санкции. Но процесс восстановления от воздействия алгоритма схож с восстановлением от ручных санкций.

Миф: дезавуирование плохих ссылок – единственный путь восстановиться от воздействия алгоритма Penguin

Хотя эта тактика и позволяет удалить многие низкокачественные ссылки, она бесполезна. Алгоритм Penguin определяет долю хороших, качественных ссылок относительно спам-ссылок.

Поэтому вместо того, чтобы направить все силы на удаление низкокачественных ссылок, стоит сфокусироваться на увеличении количества качественных внешних ссылок. Это позитивно скажется на соотношении, которое учитывает алгоритм Penguin .

Миф: Вам не восстановиться от воздействия алгоритма Penguin

Можно вывести сайт из под Гугл Пингвин . Но это потребует некоторого опыта во взаимодействии с постоянно меняющимися алгоритмами Google .

Лучший способ избавиться от негативного влияния алгоритма Penguin – это забыть обо всех существующих внешних ссылках, ведущих на сайт, и начать собирать новые. Чем больше качественных внешних ссылок соберёте, тем проще будет освободить ваш сайт от уз алгоритма Google Penguin .

Данная публикация представляет собой перевод статьи «A Complete Guide to the Google Penguin Algorithm Update » , подготовленной дружной командой проекта

Загрузка...