Апдейты панды. Google Panda – как работает он и как работать с ним

Панда – алгоритм поисковой системы Google, о котором писали неоднократно и не только мы. Но она до сих пор вызывает много вопросов и не все её понимают. В данной статье мы попытаемся собрать в одно целое все, что знаем о Google Панде, ответим на самые частые вопросы и развеем мифы о несуществующих свойствах этого алгоритма. Итак, начнём

Суть алгоритма Панда

Панда создана, чтобы следить за качеством контента сайтов. Если контент не отвечает представлениям Панды о хорошем качестве, позиции сайта в поисковой выдаче Google будут понижены.

Немного истории

Впервые Панда появилась в феврале 2011 года. Тогда алгоритм шокировал SEO-сообщество, так как выдача изменилась кардинально, но никто не понимал – почему. Когда Google, наконец-то, пояснил в чем дело, начался длительный процесс переоценки приоритетов в продвижении сайтов.

За 5 лет Google Панда обновлялся 28 раз. При этом в первые 2 года обновления шли часто (практически раз в месяц), в 2014-м Google сбавил обороты, выпуская Панду раз в полгода. Алгоритм Панда работал как фильтр. То есть после оценки сайта основным алгоритмом Google, включающим 200+ факторов, сайт оценивал и Панда. Данные о качестве сайтов копились до очередного апдейта, после чего выкладывались разово, меняя всю картину гугл-выдачи.

Последний апдейт в июле 2015-го происходил совсем по иному сценарию. Алгоритм «раскатывался» в течение нескольких месяцев. И специалисты заговорили о встройке Панды в основной алгоритм Google.

Панда сейчас и в ближайшем будущем

И действительно, в своем твиттере Гари Илш подтвердил, что Панда теперь ЯВЛЯЕТСЯ частью основного алгоритма ранжирования:

Дженифер:
Превосходно, спасибо за подтверждение... и дополнение, что никаких других животных не появилось))

Гарри Илш:
Если сказать точно, Панда - теперь часть основного алгоритма, но мы не изменяли саму Панду. Никаких других животных.

При этом Илш опровергает возникшее предположение, что Панда обновляется в режиме реального времени:

Пит:
Я не уверен, в какой момент началось обсуждение Панды в режиме реального времени, просто пытаюсь разобраться.

Гарри Илш:
Панда в режиме реального времени - это неверно. Мы обновили основной алгоритм, и вне зависимости от этого мы рассказали чуть больше о Панде в интервью TheSEMPost.

И что все это значит? Как теперь работает Панда? На сегодняшний день (10 марта 2016) точного ответа нет (как это ни печально). Мы изучили интервью и просмотрели записи последних выступлений представителей Google по этому вопросу. Но их высказывания по теме очень туманны. Гари Илш на прямые вопросы об интеграции Панды ответил вот что:

Кеничи:
1. Панда теперь часть основного алгоритма ранжирования. Значит ли это, что Панда будет обновляться автоматически, а не вручную (даже если и не в режиме реального времени)?
2. Что это вообще за "Основной алгоритм ранжирования"? Насколько он отличается от остальных алгоритмов (не входящих в него)?

Гарри Илш:
Я переговорил с Джоном Мюллером о том, как ответить на ваши вопросы, чтобы было меньше путаницы. Решили так:

1. Мы продолжаем обновлять данные, которые используются для распознавания качественных сайтов, и мы выкладываем эти данные со временем. Иногда мы вынуждены делать ручные обновления, иногда это происходит автоматически, но не играет роли, как именно мы выкладываем данные.

2. Думаю, что это не лучший пример, но представьте себе двигатель автомобиля. Если в нем нет стартера, то водитель вынужден подходить к капоту и использовать какие-то инструменты, чтобы запустить двигатель. Сегодня стартеры есть в любых бензиновых двигателях, они встроены. Это сделало использование двигателя более удобным, но по сути ничего не изменилось.
Для пользователей и даже для вебмастеров не должно иметь значение, где какие компоненты расположены (в основном алгоритме или в других), это действительно не важно, и поэтому я думаю, что люди должны меньше фокусироваться на этом.

Кеничи:
Понял, что вы хотели сказать. В общем, для нас, вебмастеров, не важно, как работает алгоритм "внутри". Мы должны фокусироваться на создании контента уникального, качественного и неотразимого, как Джон Мюллер постоянно говорит.
Возможно, вы столь много раскрыли в последние несколько дней, что это вызвало мои вопросы (не поймите меня неправильно, я ни в коем случае не обвиняю вас). В любом случае, спасибо за ответы))

Попробуем резюмировать из этого (и других источников, с которыми мы ознакомились) основные мысли по новой Панде:

  • Панда может функционировать в автоматическом режиме (но пока НЕ онлайн режиме), т.е. обновления будут происходить периодически и будут запускаться по каким-то внутренним законам основного алгоритма.
  • Обновления Панды (в рамках основного алгоритма) будут происходить теперь чаще, чем было в последние годы.
  • Google больше не будет подтверждать апдейты Панды (как отдельного алгоритма) и вообще как-то их выделять. Так что узнать, попал ли сайт под Панду или позиции понизили по другим причинам, будет затруднительно.
  • Можно забыть про Панду, как фильтр или алгоритм. Работайте над улучшением сайта не ради Панды, а чтобы отвечать ОБЩИМ требованиям Google. Теперь качество контента – один из основных факторов ранжирования Google.

За что именно наказывает Панда?

– За откровенный копипаст

Если весь ваш сайт это сборник скопированных статей, то, скорее всего, он уже под Пандой. Если еще нет, то скоро будет.

– За отсутствие реальной ценности

Если страница хорошо оптимизирована и даже тексты технически уникальны, но информация никакой пользы не несет и на запрос пользователя не отвечает или отвечает общими, размытыми понятиями. А такое встречается часто, особенно когда вебмастера заказывают дешевые статьи для блога на биржах. Такие страницы могут стать жертвой Панды.

В общем и целом Google не против рекламы или ссылок. Но только если они уместны и не мешают пользователю. Если же реклама очень навязчива (особенно поп-ап окна) или рекламные блоки расположены так, что мешают прочтению, а ссылки на сторонние ресурсы проставлены к месту и не к месту и не являются тематическими, то Панда вас обязательно догонит.

А за что Панда не наказывает

В сети встречаются мнения, что приведенные ниже факторы могут навлечь Панду. Частично эта информация устарела, частично никогда не была правдой. Следующие 4 фактора к Панде отношения не имеют, но на ранжирование сайта (посредством других алгоритмов) влияют:

– Дублированные страницы

Дубли страниц на одном сайте это плохо. Но работает с ними не Панда, а отдельный фильтр за дубли.

– 404 ошибка

Тоже никак не привлекает Панду, хотя большое число ссылок, ведущих на страницу с ошибкой 404 в общем и целом, безусловно, плохо.

– Маленькие тексты и/или мало текстов

Панда НЕ наказывает за тексты маленьких объемов и НЕ наказывает за малое количество статей на сайте. Google отдает предпочтение качеству, а не количеству. И если ваш текст в 300 знаков хорошо отвечает на запрос пользователя, то это замечательно. Только вот надо уметь писать такие тексты.

Вот что пишет Джон Мюллер в форуме помощи вебмастеров:

Проблема малых объемов и малого числа статей на сайте заключается не в Панде. А в том, что в этом случае вы не сможете дать пользователю столько полезной информации, сколько могли бы. И ваш сайт будет показан по ограниченному числу запросов.

– Вовлеченность пользователя

В то же время комментарии к статьям (если они качественные) могут быть зачтены в карму сайта. Но не как сигнал вовлеченности пользователя, а как дополнительный контент, который появился на странице и учитывается поисковиком наравне с телом самой статьи.

И еще 5 спорных вопросов о Панде

– Панда атакует весь сайт или только те страницы, качество которых Google посчитал плохим?

Панда понижает только те страницы, которые были определены, как некачественные. Те страницы, которые алгоритм посчитал хорошими, не будут иметь проблем с ранжированием. Но, если на сайте слишком большое число плохого контента, то к такому сайту будет «предвзятое» отношение. И даже качественные материалы могут быть ранжированы ниже тех позиций, которых реально заслуживают.

– Страницы под Пандой могут быть показаны в поиске или это в принципе невозможно?

Представители Google говорят, что страницы, забракованные Пандой, могут быть показаны по очень специфическим (уточненным) запросам, если нет другой альтернативы. Но в целом, такие страницы так далеко в выдаче, что поискового трафика на них ждать не стоит.

– Надо ли удалять страницы, которые попали под Панду?

Нет, Google не рекомендует этого делать. Во-первых, вы по ошибке можете удалить страницы, которые Пандой вовсе не атакованы. Во-вторых, отсутствие контента никак не повлияет на улучшение ситуации. Сайт по-прежнему не будет показываться по продвигаемым в такой странице запросам.

Лучший способ решить ситуацию – переработать/улучшить контент на странице, которую вы подозреваете в присутствии Панды. Да и вообще, если вы сами считаете, что контент на какой-то странице плохой, то не ждите Панду, исправляйте сразу.

Google Panda - один из самых сложных и интересных алгоритмов Google, который сейчас, спустя три года после выхода первой версии, продолжает оставаться загадкой. Как мы знаем, основной целью «Панды» является определение некачественного контента, но согласитесь, это очень широкое понятие. Мы видели, как «под Панду» попадали дорвеи, сайты с автоматически сгенерированным контентом, с большим количеством дублей страниц, неуникальным контентом, переспамом в тексте и мета-тегах и с многими другими менее явными проблемами. Но значит ли это, что сам алгоритм остается на уровне грубого фильтра? Не факт.

Что мы знаем о Panda?

Панда в первую очередь - эвристический алгоритм. Это означает, что сканируя информацию, она пытается найти наиболее верное решение проблемы или ответ на запрос. Разработка алгоритма началась с того, что группа тестировщиков оценивала большое количество сайтов по ряду критериев. Эти оценки позволяли инженерам установить основные факторы, которые должны учитываться и определять так называемый «Panda score». Кроме механизма фильтрации некачественного контента, думаю, существует и другая сторона «Панды», которая включается в основной алгоритм ранжирования и может как негативно, так и позитивно влиять на позиции сайта (не стоить думать о Панде как о бинарном фильтре: либо фильтрует, либо нет).

Google Panda - часть общего алгоритма?

Не так давно в «мире Панды» произошло одно важное событие, которое еще более усложнило жизнь вебмастерам: Mэтт Каттс объявил , что алгоритм будет обновляться ежемесячно на протяжении 10-дневного периода. К тому же, никаких подтверждений апдейта не будет. Теперь мы все играем в темную.

Почему это становится проблемой, я думаю, понять несложно. Для примера, когда вы видите в Analytics, что у сайта упал трафик, и получаете подтверждение того, что в это время обновился алгоритм Панды, вы четко понимаете причину падения трафика и можете предпринимать осмысленные действия.

Теперь сайт может попасть под алгоритм «Панда» на протяжении 10-дневного периода, однако никто не знает, когда он начинается и когда заканчивается. К тому же, основной алгоритм ранжирования Google обновляется около 500 раз на год, и это не учитывая «Пингвина» и других мелких «радостей». Понять причину падения трафика становится все тяжелее, а без этого предпринимать эффективные действия по его возобновлению не представляется возможным.

Последний подтвержденный апдейт «Панды» был 18 июля 2013 года. Но это далеко не последнее обновление, так как алгоритм перешел в стадию почти реального времени. Я написал «почти», потому что много сеошников верят, что «Панда» теперь работает без остановки (является частью общего алгоритма). Это не совсем так, и в одном из Google+ HangOut Джон Миллер это объясняет . Из слов Джона можно понять, что «Панда» не работает в режиме реального времени, а сохраняет ту же систему апдейтов. Но прогресс в разработке уже на таком уровне, что Google может быть уверен в алгоритме и тестирования перед запуском теперь не обязательное. Это важно понимать, так как сайт не может попасть под «Панду» в любой день месяца, только во время очередного апдейта (напоминаю, теперь он длится 10 дней).

Как все же отслеживать апдейты «Панды»?

Вот мы и подошли к основной проблеме: как определить, что колебания трафика вызваны именно «Пандой»? Ответ Мэтта Каттса на аналогичный вопрос:

Но все же давайте попробуем разобраться сами. Несколько советов:

1. Следите за датами

В первую очередь нужно четко установить дату роста или падения трафика, что позволит связать ее с предположительным апдейтом. Это может быть как «Панда», так и «Пингвин». Определить, какой именно алгоритм «зацепил» сайт, очень важно - от этого будет зависеть план действий по восстановлению потерянных позиций.

Например, если Google «выкатывает» новый апдейт «Пингвина», то на форуме вы сможете найти множество описаний одной и то й же ситуации: позиции и трафик резко упали либо, наоборот, вернулись на прежние позиции. Если вы видите, что дата колебаний трафика у других аналогична вашей, то, скорее всего, вы в «одной лодке».

3. Следите за блогами SEO-шников

Подписывайтесь на новости или читайте блоги тех SEO-шников, которые регулярно отслеживают все изменения алгоритмов. Опытные специалисты имеют хорошие связи и доступ к широкому спектру данных (клиентские сайты, консалтинг, репорты аудитории), что позволяет получать более полную картину того, что происходит.

4. Проведите SEO-аудит

Если у вас есть подозрения, что по вашему сайту прошелся «милый зверек», то необходимо провести SEO-аудит в первую очередь в тех зонах, на которые нацелена «Панда», а именно аудит контента. Вот несколько советов:

  • проверьте сайт на наличие дублей страниц;
  • проследите, как сайт ищется по кускам текста (по широкому и точному соответствию);
  • проверьте тексты и мета-теги на предмет переспамленности ;
  • посмотрите в Google Webmaster Tools , не уменьшилось ли количество проиндексированных страниц (Google Index - > Index Status);
  • проверьте в Google Webmaster Tools количество показов сайта в поисковой системе (Search Traffic - > Search Queries).

5. Мониторьте сервисы, которые отслеживают изменения алгоритмов

Существуют сайты, которые следят за «погодой» в мире SEO, - это MozCast и Algoroo . Большие изменения «температуры» свидетельствуют о том, что Google что-то затевает либо уже затеял. Данные сервисы вам не скажут, что делать, но быть в курсе тоже очень важно.

Выводы. Можно предположить: то, что Google запустил «Панду» в полуавтоматический режим, является определенным сигналом «футуристам SEO», что не за горами время, когда и «Пингвина» постигнет подобная участь. Точнее эта участь постигнет нас. Только представьте себе: каждый месяц два апдейта, которые не подтверждаются поисковым гигантом. Темные времена нас ждут, друзья, темные времена.

Надеюсь, эта статья помогла вам разобраться, что же такое Google Panda и как определять обновление ее алгоритмов.

мкр. Черная Речка, д.15 Россия, Санкт-Петербург 8 812 497 19 87

Алгоритм Гугл Панда: обновления Google Panda 2018


ПОДЕЛИЛИСЬ

Обновление Google Panda изменило мир SEO.

Круто если нет, но лучше прочтите эту статью, будет полезно узнать что изменилось с внедрением алгоритма Google Panda и как избежать понижения в поисковой выдаче Google.

Обновление Google Panda. Справочная информация по SEO

Ознакомьтесь для начала с инфографикой.


С чего все началось.

ДО Panda SEO чем-то стал напоминать «грязный бизнес», и сайты качественные не всегда выигрывали в ранжировании.

Поскольку все больше и больше становилось неактуальных сайтов, плагиата и сайтов с плохим содержанием, они стали превосходить число хороших в результатах поиска.

Для борьбы со спамом Google потребовалось новое обновление.

Обновление Google Panda. Что это такое и что оно дает?

Panda, вероятно, войдет в историю как один из самых известных обновлений Google.

Главной задачей Panda было улучшить работу пользователей, избавив верхние поисковые места от спам-страниц.

Новое обновление и алгоритм учитывали репутацию сайта, дизайн, скорость загрузки и пользовательский интерфейс, чтобы людям было удобнее.

Как обновление Google Panda затронуло сайты

Эффект Panda был далеко идущими — и все еще ощущаются многими сегодня.

Первоначальное обновление в 2011 году затронуло примерно 12% поисковых запросов, что означает, что 12% рейтинга в Google резко изменилось.

Особенно это ощущалось крупными контент-фермами, включая About.com, eHow, Demand Media и Yahoos Associated Content.

Более 80% сайтов, на которые негативно повлияло обновление Panda, по-прежнему справляются с убытками.

Хронология обновления Google Panda

Panda регулярно обновляется с момента ее появления в 2011 году.

Обновление происходит, когда Google просматривает все сайты в Интернете, и проверяет их на алгоритм Panda. Обновление — это фактическое изменение алгоритма Panda.

Таким образом, алгоритм Google Panda обновлялся с 24 февраля 2011 года до 17 июля 2015 года.

Цели обновления Google Panda

На протяжении многих своих изменений основное внимание в обновлениях Panda уделялось отсеиванию низкокачественного контента из результатов поиска пользователей.

К проблемам, которые он затрагивает, относятся:

  • Скудный контент — страницы со слабым или небольшим содержанием; если у вас несколько страниц с парочкой предложений в каждой, они, скорее всего, будут классифицированы как скудный контент. Если только на одной или двух страницах, тогда все ОК. Но если таким является весь сайт, то это «красный флаг».
  • Дублирующийся контент — контент, который повторяется. Это может быть содержимое, которое копируется с других страниц в Интернете или показывается на нескольких страницах вашего сайта с незначительным изменением текста.
  • Некачественный контент — любой контент, лишенный адекватной информации.
  • Машинный или автогенерируемый контент — любое содержимое, автоматически формируемое специальными алгоритмами, приложениями или другими источниками в которых не задействованы люди.
  • Плохой слог — слишком много заметных ошибок в стилистике и грамматике.
  • Слишком много тем в рамках одного сайта — если ваш сайт не имеет четкой темы и охватывает несколько тем, вместо того, чтобы сосредоточиться на чем-то одном
  • Отсутствие авторитетного мнения — контент из непроверенных источников
  • Слишком много 404 ошибок или редиректов
  • Заполнение ключевыми словами — обилие ключевых слов в попытке манипулировать рейтингами
  • Контент-фермы — большое количество коротких, некачественных страниц
  • Слишком много рекламы — если на странице больше рекламы, чем полезного текста.
  • Низкокачественные партнерские ссылки — низкокачественный контент, ведущий на партнерские страницы.
  • Контент, который не соответствует поисковым запросам — страницы, которые показывают некорректную информацию.
  • Сайты, заблокированные пользователем — сайты, заблокированные пользователями через расширения.

Как обновления Google Panda повлияли на SEO-стратегию

Последствия обновления Panda ощутил весь мир маркетинга, и ее внедрение привело к существенному сдвигу в SEO.

В основном, оптимизаторы должны теперь ориентироваться на удобство интерфейса сайта для его посетителей.

Ран ее главная цель SEO заключалась в том, чтобы контент был доступен для поисковых систем и соответствовал необходимым запросам с помощью добавления необходимых ключевых слов и построению ссылочной массы, ведущей на необходимые продвигаемые страницы.

Тепер ь же а кцент делается на пользователя, а не на алгоритмы поисковых систем .

Это акцент на качество, а не на количество.

Например, многие думали, что путь к первому месту Google — это выкладывать контент каждый день, чтобы Google постоянно его индексировал.

Но из-за Панды, если вы ведете блог просто ради того, чтоб вести, можно принести больше вреда, чем пользы. Каждая опубликованная вами статья должна быть качественной, уникальной и предоставлять читателям необходимые ответы и информацию.

Качественный контент, дизайн и полезность = заслуженный, высокий ранг.

Чтобы занять первое место, вам нужно его заслужить.

Цитата от представителя Google резюмирует: «Создатели контента не должны думать, сколько посетителей у них было в день, а скольким посетителям они помогли».

Как узнать, пострадали ли вы от обновления Google Panda

Наиболее очевидным предупреждающим знаком является внезапное падение трафика.

Если это произошло с вашим сайтом во время известного обновления алгоритма, вы, вероятно, пострадали от штрафа Panda.

Другой способ определить — посмотреть на общее качество вашего сайта. Снимите розовые очки, и ответьте себе на вопросы.

  • Являются ли ваши показатели отказов высокими?
  • Делятся ли вашим контентом и получает ли он комментарии?
  • Удобна ли навигация и ссылки?
  • Проверьте общее качество сайта. Если у вас есть сомнения, то у Google явно тоже;)

Пострадали от Панды? Как реабилитироваться

Первый шаг: не паникуйте. Вместо этого приступайте к работе.

Обновления Panda происходят примерно раз в месяц, что дает вам немного времени для работы.

Между обновлениями, если вы предпримете правильные шаги, то начнете видеть некоторые улучшения в своем рейтинге. Иногда Google повторно обновляет все ваши изменения.

Теперь к конкретике. Когда Panda наносит удар, нужно восстанавливаться через контент.

Как Panda проверяет ваш контент

Поскольку Панда только за качественный контент, это именно то, с чего вам нужно начинать.

Прежде всего, не удаляйте одним махом весь контент, даже некачественный. Лучше исправьте имеющийся и добавьте то, чего ему не хватает.

Если убрать все, можно сделать еще хуже.

Если вы сомневаетесь в качестве страницы, перейдите к своим метрикам. Страницы с высокими показателями отказов и с низким уровнем времяпрепровождения на сайте человека говорит о том, что с контентом явные проблемы.

Если вы не уверены, то

Список довольно внушительный получился))

Поэтому начните со страниц, которые в ТОПе и приносят больше всего трафика. Чтобы узнать какие именно это страницы (если еще не знаете), посмотрите аналитику (можно через Google Analytics).

Помимо собственного контента, важно следить за тем, что пишут пользователи сайта.

Не весь контент, написанный пользователями, плох, но он подчиняется тем же стандартам качества, что и любой другой контент на вашем сайте.

Обратите особое внимание на качество, если ваш сайт содержит форумы и там много комментариев.

Алгоритм рассматривает комментарии как часть вашего контента. Поэтому, если эти комментарии содержат полезную информацию в дополнение к содержанию, то это может быть хорошим дополнением к вашему сайту.

А низкокачественные комментарии могут повредить вашему сайту. Но не удаляйте комментарии полностью. Это может повредить ваш сайт с точки зрения взаимодействия с пользователем.

Каков статус обновления Google Panda сегодня?

Гугл Панда все еще жива и здорова… и продолжает развиваться.

Фактически, Panda получила повышение: в 2016 году она стала частью основного алгоритма Google.

Самое большое изменение, которое заметили большинство пользователей — это конец официальных объявлений.

Panda стала основой, потому что она больше не требует большого количества изменений.

То есть основное внимание уделяется качественному контенту и опыту пользователя.

Завершение обновления Google Panda

Panda революционизировала SEO. Для большинства изменения были к лучшему.

Сегодня принципы Panda — это общие стратегии SEO.

Поэтому, если вы их не используете, настало время уделять серьезное внимание Панде.

Думаю, статья была полезной, даже тем, кто не особо в теме SEO.

Здравствуйте, уважаемые читатели блога сайт. В этом посте я хочу чуть-чуть порассуждать о том, что у меня сейчас крутится в голове. В основном все мысли заняты проблемой , под которые меня угораздило угодить за последние полтора года. По приведенной ссылке вы найдете статью, где я описываю сложившуюся ситуацию, включая переписку с техподдержкой зеркала рунета.

За прошедшие с момента выхода той публикации четыре с половиной месяца, я по очереди (начиная с первых постов за 2009 год) вычитывал и вносил правки (убрал возможный спам любыми словами, а так же обуздал внутреннюю перелинковку до вменяемых пределов) в 360 своих статей из 411 существующих на данный момент. Несколько десятков из них были полностью переписаны, во многих десятках обновлены скриншоты, внесены исправления, дополнения и т.д.

В общем, делал все, что мог, не покладая рук. Проявилась за это время чудовищная работоспособность (по 12 часов в сутки пахал и от 2 до 6 статей умудрялся за это время окучивать). Появились и первые положительные результаты в плане улучшившихся позиций и увеличившейся посещаемости с Яндекса и Google.

Вот только по-прежнему терзают сомнения по поводу того, под каким именно фильтром Гугла я сижу вот уже полтора года — Панда или Пингвин. В связи с этим встает вопрос, а нужно ли заморачиваться с отбором спамных обратных ссылок и добавлять их в Disavow links , как это советуют делать всем, кто пострадал от Пингвина. Да и как это сделать при 30 000 беков в Гугл Вебмастере?

Послабление фильтров с Яндекса и Гугла

Как я уже упоминал, работоспособность сейчас имеет место быть просто феноменальная и было бы здорово ее приложить еще к чему-то полезному и перспективному, ибо статей для переделки осталось уже не много, да и спама в них уже не найти, разве что только мелочи разные подправляю.

Ребят, сразу извиняюсь, что далее буду использовать нетолерантное «трафик», а не количество посетителей с такой-то поисковой системы, ибо так реально проще и доступнее получается (меньше слов, а больше смысла). Ничего личного, только бизнес. Спасибо.

25 сентября я обнаружил, что получаю с Яндекса трафика в два-три раза больше , чем обычно в последнее время.

На общей картине посещаемости это отразилось примерно так:

Во-первых, это было несколько неожиданно, ибо как раз к этому времени я полностью смирился со сложившейся плачевной ситуацией и просто продолжал пахать без особых претензий на результат. Причем, еще летом я порой готов был рвать и метать из-за бессилия чего-то изменить в лучшую сторону, а тут полностью перестал дергаться.

Во-вторых, не имея опыта выхода из под фильтров, не знаю что и думать о будущих перспективах. Трафик по Яндексу вернулся не весь и я себя успокаиваю тем, что и падал он не сразу, а в течении нескольких апов.

Кстати, загнать по фильтр можно не только тонной ссылок с ГС (у меня в начале этой весны наблюдался чудовищный всплеск ссылочного в несколько тысяч бэков и не к одному из них я причастен не был). Могут пытаться играть и на поведенческом, т.е. ухудшать метрики как поведения пользователей в выдаче, так и на сайте.

Например, все той же весной у меня появился тысячный трафик с каких-то сайтов анекдотов, приколов и прочей ерунды, которые ничем иным, как ГС, и назвать-то было трудно. Что это было — не понятно. Например, при переходе к чтению очередного анекдота пользователь попадал на мою страницу 404 и не знал, что ему делать. Пришлось даже под таких посетителей, чтобы хоть чуток снизить показатель их отказов.

Пингвин до сих пор придерживается принципа общего обновления алгоритма фильтрации и можно четко отследить (если этим заморочиться) все его апдейты. Сейчас, кстати, похоже идет его очередное обновление до версии 2.1, что подтверждают соответствующие ветки на Сео форумах.

Панда же последнее время стала фактически частью общего алгоритма, который Гугл использует при ранжировании, и ярко выраженных ее апдейтов для всех сайтов сразу уже, скорее всего, не будет. Но тем не менее, если вернуться немного в историю, то по дате начала падения трафика можно сделать вывод, под какой именно фильтр попал тот или иной ресурс.

Как определить под каким фильтром Google находится сайт — под Пандой или под Пингвином

Кстати, именно такой способ предлагает использовать буржуйский онлайн ресурс Barracuda, а именно его продукт под названием Panguin Tool .

Проблема в том, что этому сервису нужно будет предоставить доступ к статистике вашего счетчика Гугл Аналитикс , а он уже наложит на выдранный из него график точные даты апдейтов Панды и Пингвина, чтобы понять что именно из этого дуэта подкосило ваш ресурс.

По началу я подумал, что у меня есть по крайней мере две причины этого не делать:

  1. Во-первых, у меня Аналитикс еще и года не стоит, ибо раньше меня полностью устраивала , ну, и ЛИ счетчик тоже вполне себе информативный.
  2. Во-вторых, на том же у меня висит и Адсенс, а это же деньги, которые никому не стоит доверять. Но чуть погодя я вспомнил, что Аналитикс, равно как и Метрика, имеет возможность создания гостевых аккаунтов, чем я и попробовал воспользоваться.

В общем, я зашел в своем основном аккаунте Аналитикса в администрирование и делегировал права на просмотр и анализ статистики другому своему аку в Гугле, к которому вообще ничего такого не привязано.

После этого в том браузере, где я уже был авторизован под этим не слишком важным аккаунтом, перешел по ссылке «Log-in to Analytics» со страницы Panguin Tool и меня попросили подтвердить мое желание предоставить этому приложению данные по статистике из Аналитикса.

Я не возражал. После этого меня попросили выбрать конкретный счетчик.

Ну, и в конце концов предоставили желаемый график с датами релизов Панды и Пингвина , но, как упоминал чуть выше, счетчик этот у меня стоит не так давно и начало 2012 года он не захватил.

Поэтому определить, какой именно фильтр наложил Гугл на мой сайт, таким образом не удалось. К тому же, в конце весны и начале лета этого года я вообще снимал код Аналитикса по не понятным мне сейчас причинам. То снижение трафика с Google, которое имело место быть весной этого же года, вроде бы ни с Пандой, ни с Пингвином не коррелируются.

Но, возможно, вам повезет больше. На графике и в приведенных ниже таблицах еще можно посмотреть статистику по приземляющим страницам и по ключевым словам, с которых шел трафик.

Второй способ определиться с тем, какой именно зверь вас покусал, это посмотреть на косвенные признаки (отпечатки зубов). Например, считается, что при попадании под Пингвин у вас просядут позиции только по отдельным запросам , целевые страницы которых окажутся заспамленны плохими входящими ссылками.

При Панде же, скорее всего, будет общее проседание трафика, как будто бы у вас , хотя о самой уместности употребления этого термина ведутся споры. У меня ситуация в этом плане больше похожа на второй вариант.

Однако, сейчас спам был устранен, но изменения в лучшую сторону по Гуглу начались только после движения по Яндексу. В связи с этим я по-прежнему остаюсь в растерянности по поводу своих дальнейших действий и их целесообразности.

Disavow links — как сообщить Гуглу о плохих ссылках на сайт

Делается это на вкладке «Поисковый трафик» — «Ссылки на ваш сайт». Над приведенным списком у вас будет три кнопки, которые позволят выгрузить все найденные в Google бэки. Мне больше всего нравится последний вариант, ибо там будет иметь место сортировка по дате появления беклинков.

Однако, тут будет приведена информация только по 1000 доменам, с которых проставлено на ваш сайт больше всего беклинков. Судя по различным сервисам анализа беков, на мой блог проставлены ссылки с трех тысяч доменов и их общее число больше доступных в Гугле тридцати тысяч.

Но не суть. Давайте представим, что я пробежался по этим Урлам и с высокой долей вероятности выявил те странички или даже целые домены, которым не место в моем ссылочном профиле. Теперь остается только оформить все это богатство в один файл с расширение txt и любым удобным вам названием.

При составлении файла для Disavow links необходимо будет придерживаться простых правил :

  1. Урл каждой новой страницы или домен пишутся на отдельной строке: http://plohoysite.ru/plohaystranichka.html
  2. Домен оформляется по следующему принципу: domain:plohoysite.com
  3. Можно добавлять комментарии, но перед ними обязательно должна стоять решетка (# — хеш)

Как только список подготовите, то переходите на страницу Disavow links (прямого пути из интерфейса Google вебмастера я не нашел, видимо боятся, что будут использовать этот инструмент не обдумано):

Выбираете из списка нужный вам сайт и жмете на кнопку «Отклонение ссылок» . Вас предупредят о возможных отрицательных последствиях сего действа, хотя я, вроде бы еще не встречал подобных отзывов на форумах, но возможно что те, кто добавлял сюда свои списки, уже не имели трафика с Гугла, а уйти в минус, как известно, не возможно.

Кстати, лично меня эта надпись настораживает, ибо не хотелось бы необдуманными действия усугубить, а не улучшить сложившуюся ситуацию. Ну, а если вы все же решитесь на эксперимент, то на следующей странице вам предложат загрузить с компьютера подготовленный файл с Disavow links и отправить его Гуглу на рассмотрение.

Но проставить в столбик отобранные URL адреса или домены — это самое простое. А вот самое сложно как раз и состоит в отсеивании этих самых спамных и плохих обратных ссылок, чтобы потом попросить Google их не учитывать.

Положение усугубляется еще и тем, что нет однозначного мнения о пользе этого действа, даже если вы точно знаете, что ваш сайт пострадал от Пингвина или на него были наложены ручные санкции. Мнения специалистов разделились. Например, Девака ради дела даже добавил в Disavow links все до единого беки на свой блог , но результата не увидел, хотя именно он склоняется к полезности этого инструмента, как ни странно.

Кстати, при наложении ручных санкций ситуация с выходом из-под фильтра может быть даже более простой, а точнее более быстрой. Фильтры наложенные вручную сейчас можно увидеть в Гугл Вебмастере на вкладке «Поисковый трафик» — «Меры принятые вручную» .

В этом случае уже через пару недель после загрузки списка в Disavow links и подаче заявки на пересмотр (как я понимаю, сейчас это можно сделать на этой же вкладке, а не на отдельной хитроспрятанной странице, как это было раньше) фильтр может быть снят и позиции вернутся к своим первоначальным значениям.

Как отбирать плохие обратные ссылки для добавления в Disavow links

В случае же Пингвина и удачного удаления спамных ссылок результата придется ждать довольно долго — до следующего апдейта этого алгоритма. Возможно, что это будет занимать месяцы, а возможно что и год. Вы по-прежнему хотите попробовать Disavow links? Ну, что же, тогда я поделюсь с вами теми моментами, которые я почерпнул при поиске способа создания этого списка.

Делать это вручную у меня не получилось не из-за огромного количества монотонной работы, а из-за того, что я не обладаю должной интуицией, чтобы по внешнему виду и тем небольшим статистическим данным, которые собирают , делать выводы о добавлении данной страницы или всего домена в список неблагонадежных.

Тут однозначно нужна автоматизация , которая должна четко отделить зерна от плевел и ни в коем случае не «выплеснуть вместе с водой и ребенка». Очевидно, что нужны какие-то сервисы, которые кроме того, что смогут собрать всю ссылочную массу ведущую на ваш сайт, способны были бы еще и вынести оценку качества для каждого из доноров.

Такие сервисы есть и многие вебмастера, а уж тем более оптимизаторы, их знают. Другое дело, что за анализ большого количества бэков в этих сервисах придется заплатить и очень даже не малое количество денег. Причем, если вы профессионально используете подобные ресурсы каждый день, то деньги окупятся сторицей, но для нашей задачи это будет расточительством, как мне кажется.

На серче проскакивала публикация, где представитель одной из крупных SEO контор делился своим опытом подбора кандидатов для списка Disavow links. Он предложил использовать три ссылочных сервиса : буржуйский от Moz под названием Open Site Explorer , а так же отечественные Solomono (Линкпад) и Ahrefs .

Как я понял, мне нужно месяц ни есть и не пить, чтобы оплатить проверку моих нескольких десятков тысяч беклинков и выгрузить все данные по ним для дальнейшего анализа и обработки. Конечно же, крупная Сео контора всеми этими платными пакетами и так обладает, ибо они полностью окупаются при постоянной работе с десятками, а то и сотнями проектов заказчиков.

Но метод его довольно-таки убедителен. Товарищ предлагает выгрузить из Open Site Explorer, Solomono и Ahrefs показатели качества доноров. Они называются Domain Authority, iGood и Ahrefs Domain Rank, соответственно.

Затем свести все это дело в одну таблицу и отбирать кандидатов в Disavow links по принципу наименьших весовых коэффициентов качества донора во всех этих трех сервисах в купе. Это позволит снизить вероятность ошибки.

К сожалению, позволить себе такую роскошь могут не многие, хотя, если бы кто-то вынес это на аутосорсинг , то я бы не отказался воспользоваться за умеренную плату, но при этом мне бы хотелось получить не просто список кандидатов для Disavow links, а именно все эти выгрузки из Open Site Explorer, Solomono и Ahrefs, чтобы самому убедиться в справедливости сделанных выводов и в том, что меня не водят за нос.

Второй вариант поиска спамных обратных ссылок в своем ссылочном профиле, который мне попался на глаза, заключался в использовании платной программы ФастТраст от Алаича (известный блогер). Собственно, на промо сайте этой программы я наткнулся как раз на описание подготовки списка кандидатов на удаления для Disavow links .

Вроде бы все замечательно. Цена 3000 рублей, что хотя и дороговато, но терпимо, тем более, что ее можно приобрести и за бонусы Профит Партнера, которых у меня как раз имеется нужное количество.

Но! Я присмотрелся повнимательнее к требованиям и желательным условиям, при которых данная программа будет работать корректно. Оказалось, что не все так просто:

В общем, это охладило мой пыл и я понял, что купить программу это еще полдела, а нужно будет еще прокси искать, деньги в Ahrefs вкладывать, чтобы получить наиболее актуальный результат. Да и времени на сбор данных, думаю, уйдет довольно много.

Поэтому решил взять паузу и, пока из головы не вылетело, записать все свои текущие мысли по поводу Пингвина и Disavow links в этом посте, чтобы потом к этому вернуться.

Ну, вот, где-то так, примерно. А вы что думаете по поводу фильтра примененного Гуглом к ktonanovenkogo? Это Панда или Пингвин? С Disavow links линк стоит заморачиваться? Если стоит, то каким образом вычленять галимые бэки?

Удачи вам! До скорых встреч на страницах блога сайт

Вам может быть интересно

Вывод сайта из под фильтра Google Пингвин - пошаговое руководство За что можно получить бан в Яндексе, попасть под АГС или портяночный фильтр, а также пути выхода из-под этих санкций
GoGetLinks - вечные ссылки для продвижения сайта и заработок на бирже ГоГетЛинкс для вебмастеров
Статистика поисковых запросов Яндекса, Google и Рамблера, как и зачем работать с Вордстатом
Расшифровка и разъяснение Seo сокращений, терминов и жаргонизмов
СЕО терминология, сокращения и жаргон
Онлайн сервисы для вебмастеров - все, что нужно для написания статей, их поисковой оптимизации и анализа ее успешности
Способы оптимизации контента и учет тематики сайта при ссылочном продвижении для сведения затрат к минимуму
Rel Nofollow и Noindex - как закрыть от индексации Яндексом и Гуглом внешние ссылки на сайте

Гугл Панда – это программа-фильтр от компании Google. Его задача – отслеживание и блокировка сайтов с некачественным контентом.

Больше видео на нашем канале - изучайте интернет-маркетинг с SEMANTICA

Поисковая система Google считает своей основной функцией предоставление пользователям релевантной, интересной и полезной информации. Именно поэтому она жестко борется с черными методами продвижения, когда сайт попадает в ТОП выдачи не с помощью создания качественного и востребованного контента, а путем манипуляций поисковыми системами.

История Панды

Алгоритм Google Panda – автоматический. Первым шагом к его созданию стала оценка большого количества сайтов на соответствие требованиям, которые Google предъявляет к контенту. Проводилась она вручную силами группы тестировщиков и позволила формализовать основные факторы, влияющие на качество содержания сайтов.

Первый раз Google Panda вышел в свет в феврале 2011 года, однако в полную силу заработал в апреле. Только в течение 2011 года алгоритм обновлялся 57 раз, а затем еще 5 раз в 2012 году. Следующий 2013 год принес последнее обновление Панды с собственным номером – Panda 25, которое претерпело небольшие изменения в июне и в июле этого же года. Последняя версия алгоритма Panda 4.0, выпущенная в мае 2014, пошатнула позиции новостных агрегаторов и затронула таких гигантов, как Ebay.

На сегодняшний день алгоритм совершенствуется практически непрерывно, обновляясь каждый месяц в течение 10 дней. Даты обновлений компания не обнародует, чтобы максимально затруднить манипулирование позициями сайтов в поисковой выдаче.

Требования Google Panda к сайтам

Google Panda предназначен в первую очередь для борьбы с некачественным контентом, поэтому его основные требования к сайтам основаны на качестве публикуемой информации.

  1. Сайт должен в основном содержать уникальный контент, на нем не должно быть дублированных текстов и изображений.
  2. Недопустимо использование автоматически сгенерированных текстов.
  3. Роботы поисковых систем и пользователи должны видеть одно и тоже, нельзя использовать страницы, которые видны только поисковикам и нужны исключительно для продвижения сайта.
  4. Ключевые слова каждой страницы сайта должны соответствовать ее содержанию, переспам ключевыми словами недопустим.
  5. Ссылки и реклама на страницах должны соответствовать тематике текстов и иному содержанию страницы.
  6. Запрещается применять дорвеи, скрытые ссылки или скрытый текст, целью которого является обман поисковой системы.

Алгоритм Google Панда накажет вас, если на страницах сайта содержится контент, скопированный с других ресурсов без ссылки на источник, шаблонные статьи, имеющие идентичную структуру, дублированные страницы. Попасть под фильтр Панда Гугл могут сайты, на которых тексты идут сплошной простыней, без иллюстраций, видео или инфографики, с одинаковыми метатегами на разных страницах.

Считается, что этот алгоритм мало внимания обращает на ссылки, однако он требует, чтобы ссылки в статьях непременно соответствовали их теме. То есть, в текстах про пластиковые окна не должно быть ссылок на продажу чая и т.п.

Помимо всего описанного, Гугл Панда уделяет много внимания поведенческим факторам. Если на вашем сайте велик процент отказов, пользователи уходят с него после первой же страницы и больше не возвращаются, вы непременно попадете в поле зрения алгоритма.

Как спастись от санкций Google Panda

Как выявить действие Панды

Прежде чем принимать меры по выходу из-под фильтров Google Panda, убедитесь, что вы пострадали именно от его лап. Как определить, Гугл Панда стал виновником вашей проблемы, или причина в чем-то еще?

Обратите внимание на связь между обновлением алгоритма и падением трафика на сайт. Update Google Panda проводится ежемесячно, продолжается 10 дней, узнать время его проведения можно на сайте Moz.com. Если совпадение налицо, надо принимать меры.

Второй способ поймать Панду - воспользоваться специальным сервисом Barracuda. Один из сервисов этого сайта, Panguin Tool, получив доступ к информации вашего аккаунта в Google Analytics, накладывает взятый из него график на даты обновлений алгоритма и выдает ответ. Минусов у этого способа два – он не подходит тем, у кого счетчик Google Analytics стоит недавно и требует доступа к аккаунту, который в, свою очередь, позволяет добраться до денег на вашем счете в Google Analytics.

Третий способ достаточно прост, но требует времени и терпения. Вам придется проверить каждую страницу сайта. Делать это надо так:

  1. Копируете несколько предложений из текста на странице в поисковую строку Google. Достаточно взять 100-200 символов.
  2. Смотрите, появился ли ваш сайт в верхней части выдачи.
  3. Заключаете тот же отрывок в поисковой строке в кавычки и снова смотрите, есть сайт в выдаче или нет.

Если сайт появляется в выдаче только во втором случае, значит виновник ваших бед Google Panda. Запомните, что проверить придется каждую страницу.

Как выйти из-под фильтра

Для выхода из-под фильтра Панды вам придется предпринять следующее:

  1. Сделать полную ревизию содержания сайта и заменить большую часть текстов на интересные и полезные, а остальные переработать так, чтобы они стали уникальными и актуальными.
  2. Убрать избыток ключевиков из заголовков всех уровней и метатегов. Заголовки поменять на релевантные и привлекательные, сделать так, чтобы они цепляли посетителя и вызывали желание прочесть текст.
  3. Почистить сайт от нерелевантной и агрессивной рекламы, что заметно улучшит поведенческие факторы.
  4. Удалить все дубли и битые ссылки, снять выделение с ключевых слов.
  5. Проверить ссылки на страницах на соответствие содержанию страниц и заменить или убрать нерелевантные.

Эти шаги помогут вам со временем выйти из-под фильтров Панды. Однако учтите: Google Panda – автоматический алгоритм, и никакие обращения не помогут вам быстро освободиться от его санкций. Заполняйте сайт интересным уникальным контентом, не увлекайтесь размещением на нем рекламы, и вы не попадете на зуб к умному зверю Панда Гугл.