Панда от Google: что новенького? Обновление Google Panda. Справочная информация по SEO

Google Panda - один из самых сложных и интересных алгоритмов Google, который сейчас, спустя три года после выхода первой версии, продолжает оставаться загадкой. Как мы знаем, основной целью «Панды» является определение некачественного контента, но согласитесь, это очень широкое понятие. Мы видели, как «под Панду» попадали дорвеи, сайты с автоматически сгенерированным контентом, с большим количеством дублей страниц, неуникальным контентом, переспамом в тексте и мета-тегах и с многими другими менее явными проблемами. Но значит ли это, что сам алгоритм остается на уровне грубого фильтра? Не факт.

Что мы знаем о Panda?

Панда в первую очередь - эвристический алгоритм. Это означает, что сканируя информацию, она пытается найти наиболее верное решение проблемы или ответ на запрос. Разработка алгоритма началась с того, что группа тестировщиков оценивала большое количество сайтов по ряду критериев. Эти оценки позволяли инженерам установить основные факторы, которые должны учитываться и определять так называемый «Panda score». Кроме механизма фильтрации некачественного контента, думаю, существует и другая сторона «Панды», которая включается в основной алгоритм ранжирования и может как негативно, так и позитивно влиять на позиции сайта (не стоить думать о Панде как о бинарном фильтре: либо фильтрует, либо нет).

Google Panda - часть общего алгоритма?

Не так давно в «мире Панды» произошло одно важное событие, которое еще более усложнило жизнь вебмастерам: Mэтт Каттс объявил , что алгоритм будет обновляться ежемесячно на протяжении 10-дневного периода. К тому же, никаких подтверждений апдейта не будет. Теперь мы все играем в темную.

Почему это становится проблемой, я думаю, понять несложно. Для примера, когда вы видите в Analytics, что у сайта упал трафик, и получаете подтверждение того, что в это время обновился алгоритм Панды, вы четко понимаете причину падения трафика и можете предпринимать осмысленные действия.

Теперь сайт может попасть под алгоритм «Панда» на протяжении 10-дневного периода, однако никто не знает, когда он начинается и когда заканчивается. К тому же, основной алгоритм ранжирования Google обновляется около 500 раз на год, и это не учитывая «Пингвина» и других мелких «радостей». Понять причину падения трафика становится все тяжелее, а без этого предпринимать эффективные действия по его возобновлению не представляется возможным.

Последний подтвержденный апдейт «Панды» был 18 июля 2013 года. Но это далеко не последнее обновление, так как алгоритм перешел в стадию почти реального времени. Я написал «почти», потому что много сеошников верят, что «Панда» теперь работает без остановки (является частью общего алгоритма). Это не совсем так, и в одном из Google+ HangOut Джон Миллер это объясняет . Из слов Джона можно понять, что «Панда» не работает в режиме реального времени, а сохраняет ту же систему апдейтов. Но прогресс в разработке уже на таком уровне, что Google может быть уверен в алгоритме и тестирования перед запуском теперь не обязательное. Это важно понимать, так как сайт не может попасть под «Панду» в любой день месяца, только во время очередного апдейта (напоминаю, теперь он длится 10 дней).

Как все же отслеживать апдейты «Панды»?

Вот мы и подошли к основной проблеме: как определить, что колебания трафика вызваны именно «Пандой»? Ответ Мэтта Каттса на аналогичный вопрос:

Но все же давайте попробуем разобраться сами. Несколько советов:

1. Следите за датами

В первую очередь нужно четко установить дату роста или падения трафика, что позволит связать ее с предположительным апдейтом. Это может быть как «Панда», так и «Пингвин». Определить, какой именно алгоритм «зацепил» сайт, очень важно - от этого будет зависеть план действий по восстановлению потерянных позиций.

Например, если Google «выкатывает» новый апдейт «Пингвина», то на форуме вы сможете найти множество описаний одной и то й же ситуации: позиции и трафик резко упали либо, наоборот, вернулись на прежние позиции. Если вы видите, что дата колебаний трафика у других аналогична вашей, то, скорее всего, вы в «одной лодке».

3. Следите за блогами SEO-шников

Подписывайтесь на новости или читайте блоги тех SEO-шников, которые регулярно отслеживают все изменения алгоритмов. Опытные специалисты имеют хорошие связи и доступ к широкому спектру данных (клиентские сайты, консалтинг, репорты аудитории), что позволяет получать более полную картину того, что происходит.

4. Проведите SEO-аудит

Если у вас есть подозрения, что по вашему сайту прошелся «милый зверек», то необходимо провести SEO-аудит в первую очередь в тех зонах, на которые нацелена «Панда», а именно аудит контента. Вот несколько советов:

  • проверьте сайт на наличие дублей страниц;
  • проследите, как сайт ищется по кускам текста (по широкому и точному соответствию);
  • проверьте тексты и мета-теги на предмет переспамленности ;
  • посмотрите в Google Webmaster Tools , не уменьшилось ли количество проиндексированных страниц (Google Index - > Index Status);
  • проверьте в Google Webmaster Tools количество показов сайта в поисковой системе (Search Traffic - > Search Queries).

5. Мониторьте сервисы, которые отслеживают изменения алгоритмов

Существуют сайты, которые следят за «погодой» в мире SEO, - это MozCast и Algoroo . Большие изменения «температуры» свидетельствуют о том, что Google что-то затевает либо уже затеял. Данные сервисы вам не скажут, что делать, но быть в курсе тоже очень важно.

Выводы. Можно предположить: то, что Google запустил «Панду» в полуавтоматический режим, является определенным сигналом «футуристам SEO», что не за горами время, когда и «Пингвина» постигнет подобная участь. Точнее эта участь постигнет нас. Только представьте себе: каждый месяц два апдейта, которые не подтверждаются поисковым гигантом. Темные времена нас ждут, друзья, темные времена.

Надеюсь, эта статья помогла вам разобраться, что же такое Google Panda и как определять обновление ее алгоритмов.

Многие СЕО-оптимизаторы давно уже знают о таких алгоритмах Google, как Панда, Пингвин и Колибри . Кто-то и сам пострадал от них, кому-то удалось успешно избежать их действия.

Но большинство новичков, которые стремятся раскрутить свои сайты в поисковых системах, совершенно неправильно понимают, на что конкретно направлены удары этих алгоритмов.

Есть немалая часть вебмастеров, которые вообще не учитывают их при создании сайтов. А вместе с тем, хотя разрушительное действие Панды, Пингвина и Колибри косит каждый день множество сайтов, обойти их не так уж и трудно, если правильно во всем разобраться и правильно всё сделать.

Вообще-то принципы, по которым эти алгоритмы действуют, не такие уж и новые, просто появление их позволило значительно упорядочить борьбу Гугла с не качественными (на его взгляд) сайтами, и проводить очистку выдачи более результативно.

Итак, приступим к рассмотрению.

Поисковый алгоритм Google - Панда

Самый первый из этой троицы (2011 г.), и самый, на взгляд новичков, страшный . В принципе, поисковый алгоритм Панда страшный не для самих новичков, а для их небрежного отношения к создаваемым сайтам.

Конечно, каждый вебмастер – полный хозяин своего веб-сайта, как он хочет, так его и создаёт, и тут ему никакой Гугл не указ. Однако не следует забывать, что и Гугл – полный хозяин своей выдачи, и какие сайты хочет – те в свою выдачу и пускает, а какие не хочет – не пускает. Для этого используются поисковые алгоритмы Google .

Панда явилась самым первым инструментом протеста поисковых систем против ошибок и небрежностей не только новичков, но и против разгильдяйского отношения к поисковым системам (и к своим собственным проектам в том числе) со стороны всяких «авторитетов». Дело в том, что очень многие крупные сайты, в основном коммерческие – магазины, сервисы, справочники и им подобные - допускают создание страниц с похожим контентом.

В основном это описание товаров или услуг, сходных по основным параметрам, но различающихся только некоторыми мелкими деталями, например:

  • размером;
  • цветом;
  • ценой и т. п.

Основной контент, таким образом, на таких страницах одинаковый, часто схожесть достигает 90 и больше процентов. Со временем на сайте накапливается очень большое количество страниц-клонов. Конечно, посетителям это никак не мешает, но выдача поисковых систем буквально засоряется однотипными веб-документами.

До того, как был введен алгоритм Панда , Гугл просто «склеивал» такие дубли, то есть в выдачу пускал только одну из них, а остальную помещал в категорию «дополнительные результаты». Но, как говорится, всё хорошо до поры до времени и появились новые поисковые алгоритмы google. И наступил момент, когда даже «дополнительные результаты» не могли улучшить картину.

Алгоритм Панда направлен на поиск и выявление таких веб-страниц, определение допустимого их количества и принятие мер к проектам, на которых количество таких страниц слишком чрезмерно.

Как только алгоритм Панда начал действовать в полную силу, очень многие авторитетные сайты послетали со своих «вкусных» позиций в топах выдачи, и, соответственно, очень сильно «просели» по трафику.

Конечно, владельцы этих веб-сайтов, разобравшись в причинах такой катастрофы (изучив новые алгоритмы Google), постарались как можно быстрее исправить положение, но назад на «хлебные места» вернулись далеко не все. Их места заняли более удачливые конкуренты, которые вовремя среагировали на поисковые алгоритмы google , или вообще не нарушали новоявленных правил изначально.

Алгоритм Google: Пингвин

Следующий алгоритм – Пингвин (2012 г.) – нацелен совершенно на другие сферы, и не касается сайтов непосредственно, а бьёт их только косвенно – по ссылочной массе . Многие вебмастера и даже достаточно опытные СЕО-оптимизаторы до недавнего времени очень небрежно относились к ссылкам, которые они приобретали на свои сайты с чужих веб-ресурсов. И когда было объявлено, что новый алгоритм (Пингвин) будет разбираться со ссылочным ранжированием, основная масса владельцев «авторитетных» сайтов практически не придала этому значения.

Конечно, и задолго до появления Пингвина было известно, что поисковые системы очень негативно относятся к покупным ссылкам, и всячески ведут борьбу с нарушителями. Наиболее здравомыслящие вебмастера не связывались со ссылочными биржами, и приобретали ссылки, так сказать, в частном порядке, полагая, что раз их невозможно связать с биржами, то и не последует никакого наказания.

Однако они не учли того, что многие сайты-доноры сами являлись покупателями ссылок, и большая часть их «засыпалась», когда Пингвин начал активно действовать. Естественно, все ссылки, ведущие с этих сайтов, исчезли, и «третьи» сайты попросту лишились значительной части своей ссылочной массы.

А когда сайт лишается части ссылочной массы, то, естественно, он проседает в выдаче и теряет заметную часть своего трафика.

Кто-то из не разобравшихся в ситуации владельцев посчитал это как наказание за несуществующие прегрешения. Однако в итоге оказалось, что никаким наказанием тут и не пахнет. Наказанными были те сайты, причастность к закупке ссылок которых удалось доказать. А те сайты, которые, в свою очередь, были связаны с ними ссылками, просто «оказались не в том месте и не в то время».

Таким образом мы видим, что алгоритм Колибри «накрыл» огромный сегмент выдачи Гугла, связанный с закупкой ссылок. А потому он оказался гораздо эффективнее «точечных» ударов – теперь практически все сайты интернета, которые свой трафик (и доходы вместе с ним) получают из выдачи Гугла, то есть зависят от этой поисковой системы, будут внимательно следить за своей ссылочной массой и стараться избегать получения ссылок с сайтов, насчет которых имеется хотя бы малкйшее подозрение, что они свои ссылки, в свою очередь покупают на биржах.

Кто-то, конечно, проклинает Гугл, обвиняя его в нечестной игре, но не следует забывать о том, что, во-первых, Гугл никогда не играет нечестно – этого ему не позволяют ни американская мораль, ни американские законы, а во-вторых, ничего более эффективного в борьбе против эпидемии покупных ссылок пока еще никто не изобрел.

Алгоритм Гугл: Колибри

Третий алгоритм, который очень сильно ударил по множеству сайтов – это Колибри, появившийся в 2013-м году . Против чего же направлен этот алгоритм? А направлен он, в самую первую очередь, против дорвеев и сайтов, которые используют при продвижении своих страниц так называемый ключевой спам.

Очень многие пользователи Гугла при поиске нужной информации вводят в строку поиска «упрощенные», или «неправильные» запросы, например, «трусы купить где», «отдых таиланд» или «ресторан новосибирск», а кто-то вообще допускает в запросах множество ошибок.

Конечно, Гугл «подгоняет» к таким запросам наиболее релевантные им страницы сайтов, на которых, естественно, запросы в таком «неправильном» виде не встречаются, но зато логически отвечают им более полно.

Вроде бы что тут такого? Но дело в том, что все запросы, вводимые в строку поиска, Гугл сохраняет в своей базе, а этой базой постоянно пользуются дорвейщики и производители «клоачных» сайтов. Как правило, с помощью автоматизированных средств они «затачивают» страницы своих «произведений» под такие «неправильные» запросы, и тем самым сразу же выдают себя с потрохами.

Индексирующие роботы, анализируя содержимое страниц сайтов, постоянно сверяются с ключевой базой Гугла, и если таких «неправильных» фраз на страницах слишком много, то весь сайт попадает под подозрение.

Кто-то даже упускает из виду, что Гугл обращает внимание даже на то, с какой буквы начинаются имена собственные или географические названия – с большой или с маленькой. Ну, если кто-то пишет текст и пару раз неправильно напишет имя или название, то это не страшно. Но если название городов или имена людей на всем сайте – с маленькой буквы, то это уже сигнал не совсем (или совсем не) качественного сайта.

Итог анализа алгоритмов Google

Итак, мы рассмотрели три самых главных алгоритма Гугла , которые сообща охватывают очень важные сферы создания и продвижения веб-ресурсов. Все они стоят на страже дела улучшения качества веб-контента. Конечно, есть множество умельцев, которые очень успешно обходят все эти алгоритмы и продолжают наполнять выдачу Гугла некачественными сайтами, но это уже не тот объём, который был до появления Панды, Пингвина и Колибри.

Можно ожидать, что эти алгоритмы со временем будут усовершенствоваться, будут появляться более мощные их модификации. Потому лучше всего сразу нацелиться на честную работу и не допускать досадных оплошностей, которые в итоге могут существенно навредить вашему веб-детищу, с помощью которого вы собрались покорять топы выдачи Гугла!

Google панда – алгоритм, разработанный и запущенный в 2011 году компанией Google, который используется для качественного анализа сайтов в выдаче поисковой системы.

Он способен находить и исключать из ранжирования (или понижать позиции документов) те страницы, которые имеют большое количество неуникального контента, не содержат какой-либо полезной информации и предназначены исключительно для заработка.

В первую очередь Google панда учитывает, насколько тот или иной ресурс ориентирован на пользователя, однако для определения качества сайта этот алгоритм использует не только этот критерий, но и целый ряд других, не менее важных критериев, что обязательно нужно учитывать при поисковом продвижении.

Критерии оценки сайтов, которые учитывает алгоритм Google панда

  • . Алгоритм Панда учитывает время, которое проводят пользователи на сайте, процент возвратов на сайт, процент отказов, количество возвратов по отношению к общему числу переходов, количество переходов внутри сайта и некоторые другие факторы. Для того, чтобы обеспечить сайту хорошие позиции в поисковой выдаче, веб-мастер должен создать привлекательный для пользователей ресурс, наполнить его уникальными статьями, качественными внутренними ссылками, реализовать понятную навигацию, обеспечить быстрый поиск нужной информации и подумать над тем, что еще заставит пользователя задержаться на сайте как можно дольше.
  • . Даже при условии одновременного использования разных методов продвижения сайта особое внимание следует уделять качеству размещаемого на страницах сайта контента. Алгоритм Panda анализирует уникальность представленной на сайте информации по процентному соотношению контента, заимствованного с других ресурсов к общему количеству контента на сайте и на каждой странице в отдельности. Нужно понимать, что информация низкого качества, размещенная всего лишь на одной странице, может ухудшить позиции в поисковой выдаче не только этой страницы, но и всего ресурса. Аналогичное негативное воздействие на сайта оказывает чрезмерное количество однотипных по содержанию текстов с разными ключевыми запросами (высокой шаблонностью), а также текстов с большой плотностью ключевых слов и фраз (большой тошнотою).
  • ссылочной массы и рекламы . Алгоритм Google панда устанавливает степень соответствия тематики размещенных на ресурсе объявлений тематике

Привет, читатели. Сегодня публикую очередную интересную статью на наболевшую тему – . Наверняка, многие помнят, что 24 февраля этого года могучий гугл внедрил новый алгоритм, цель которого – ранжировать сайты по новой схеме.

Конечно, не сказать, что новый алгоритм изничтожил все сайты из выдачи, но 12% всех поисковых результатов были пересмотрены, причем, не в лучшую для владельцев сайтов сторону. Результат применения Google Panda невозможно было не заметить. На многих сайтах трафик с гугла упал в два раза. У многих и того больше.

Быть может, вы и не ощутили на себе действие этого алгоритма, но не стоит радоваться прежде времени. Никогда не поздно попасть под загребущие лапы Google Panda. В этой статье я расскажу про сам алгоритм, а также о том, как его можно обойти.

Ответьте на вопрос: вот вы готовы к тому, что в один прекрасный день SE трафика на вашем сайте станет ровно в два раза меньше? Если нет, то могу заверить, что от такого сюрприза не застрахован никто. Но для начала давайте поговорим о том, как выявить факт попадания вашего сайта под удар Google Panda

Как выявить попал ли сайт под фильтр Google Panda?

Вообще, можно использовать разные системы статистики, но лучше всего использовать Google Analytics, т.к. именно эта система статистики разработана непосредственно в кулуарах ПС Google, и никто кроме нее не отражает настолько точно статистику гугла.

Наверняка, многие, у кого есть англоязычные сайты, которые представлены в американской выдаче, смогли ощутить на своих сайтах удар Панды. Ниже я покажу, насколько катастрофичен ущерб, причиняемый Google Panda. Но, кроме этого, мы посмотрим, как выявить факт применения фильтра к вашему сайту, и искать пути решения проблемы.

Конечно, Google Panda в первую очередь ударила по американской выдаче. В ру гугле все значительно проще, нет таких жестких ограничений, но все равно, рекомендую ознакомиться с данной статьей, чтобы быть готовым к встрече с новым алгоритмом.

Ну, а теперь к делу. Самое первое, что нам нужно будет сделать – это зайти в свой аккаунт Google Analytics. Не у всех ребят, работающих в рунете, есть сайты, ориентированные на выдачу США, поэтому если зайдете в аккаунт GA, и увидите то, что на скриншоте ниже, то можно подумать, что все нормально, и Google Panda обошел вас стороной:

Но, правда, это только первое впечатление. На самом деле все значительно сложнее, и копать здесь нужно глубже. В аккаунте Google Analytics переходим на вкладку «Источники трафика» (Traffic Sources), после этого переходим – «Поисковые машины» (Search Engines). Затем выбираем non-paid (не оплачиваемые):

Здесь виден расклад по поисковикам. Стрелочкой отмечена поисковая система Google. Нажимаем сюда. Это нужно для того чтобы видеть статистику по трафику исключительно по этой поисковой системе.

Далее жмем на вкладку «Ключевые слова» (Keywords). На скриншоте вы можете увидеть ее в зеленой рамочке. Появляется такое вот большое меню, как видно снизу на скрине. Из этого меню выбираем «Country/Territory». Этот элемент выделен в красную рамку. Делаем это для того чтобы поставить фильтрацию данных по определенной стране. Нажимаем на этот элемент:

Здесь на скриншоте хорошо видно, что, начиная с 24 февраля, траф с гуглопоиска значительно просел. Более чем на 50%. Скажите, это причина для расстройства?

Смотрим на левое меню. Здесь выбираем Advanced Segments , а после этого создаем новый сегмент. В этом сегменте указываем следующие настройки:

Этот сегмент можно назвать как вам больше нравится. Здесь, например, он называется «G US organic». Теперь сохраняем этот сегмент. Далее все наши данные будут относиться только к посетителям, приходящим на наш сайт из органического поиска США, из поисковой системы Google.

В общем, это все пока только на словах. На деле же, давайте попытаемся понять, для чего вообще нужен Google Panda. Главное назначение Google Panda – почистить выдачу от УГ сайтов.

Мэтт Катс (Matt Cutts) заявил, что Google Panda ударит по:

    Сайтам, имеющим много бесполезного контента

    Сайтам, наполняемых копипастом

Все это нужно для того чтобы «дать дорогу» в топ качественным сайтам, имеющим оригинальное и интересное наполнение, сайтам, которые не забиты «под завязку» рекламой.

Конечно, в первую очередь от фильтра Google Panda пострадают ГС. Но фильтр несовершенен, поэтому создатели фильтра прекрасно понимают, что от него могут пострадать и нормальные сайты, а потому при возникновении проблем можно смело связываться через фидбэк.

Кстати, в данном примере рассмотрен нормальный сайт – СДЛ, а не какой-то УГ. Фундамент этого сайта – качественные статьи, написанные различными специалистами. Кроме того, к сайту прикручен сервис наподобие Q and A (вопрос-ответ), где все участники могут найти ответы на интересующие их вопросы. Да, сервисы Q&A по идее могут быть мишенью для Google Panda, потому что страницы таких сервисов часто содержат мало контента. Но есть факты, когда Google Panda косила и нормальные контентные сайты, где нет ни форумов, ни других сервисов наподобие Q&A.

Когда вас может «накрыть» Google Panda?

Конечно, ни один из разработчиков Google Panda (Мэтт Катс и Амит Сингал) тайну не раскрыли, но все-таки из их интервью журналу Wired можно сделать определенные выводы относительно нюансов работы данного фильтра

Ниже представлен список потенциальных факторов, по совокупности которых можно попасть под удар Google Panda:

    Большое количество копипаста. По наблюдениям, самое страшное то, что за копипаст может быть пессимизирован весь сайт, а не отдельные его страницы

    Значительное превалирование на сайте неуникального контента над уникальным

    Нерелевантность страницы поисковым запросам, по которым она продвигается, либо находится в выдаче

    Переоптимизация страницы

    Высокий показатель отказов

    Мало времени, которое пользователи проводят на сайте

    Незначительный процент возвратов

    Много некачественных ссылок на страницах. Некачественных, в смысле – нетематических и ссылок, ведущих на откровенные ГС

Ладно, если ваш сайт подходит только под один из этих пунктов, это еще ничего. Но если он подходит под многие, то это может быть причиной удара Google Panda. Кстати, необходимо научиться различать штрафные санкции от бана в целом. И ваш сайт будет находиться в ауте до тех пор, пока вы не поднимете его качество на новый уровень. Google Panda – это очень серьезный алгоритм, и если на вашем сайте есть несколько страниц с откровенным Г, то это может быть причиной «потопления» всего сайта, хотя все остальные страницы сайта могут быть с качественным контентом.

Есть возможность посмотреть, как был наложен фильтр: на уровне сайта или на уровне страниц

Если фильтр был наложен в рамках всего сайта, то наверняка вы это увидите и невооруженным глазом, потому что это скажется на всех страницах сайта. Если использовать наш пример, то можно использовать отчеты «G US organic», и увидеть вот что…

Идем в Content > Top Landing Pages. Без комментов, все и так видно:

Это статистика для лендингов. То есть, для отдельных страниц. Здесь их 4272. Для того чтобы узнать, все ли страницы пострадали от Google Panda, нам нужно немного похимичить с отчетами в гугл аналитикс:

    Нужно сделать отчет по самым важным для нас страницам

    Нужно сделать отчет по группам страниц. Можно сделать сортировку по урлам. Например, отобрать только страницы, которые содержат слово forum

Делается это просто:

Выше я говорил о том, что Google Panda накладывает фильтр на весь сайт. Такое мнение, во всяком случае, витает по форумам. Но на самом деле, когда я сделал анализ нескольких сайтов согласно описанным выше мною фильтрам, то пришел к мнению, что Google Panda фильтрует все-таки не весь сайт, а только на уровне страниц, а значит не все так уж страшно, как изначально казалось.

Анализируйте, какой тип страниц фильтрует Google Panda

В том случае, если вы уже получили оплеуху от Google Panda, то анализируйте ваш сайт согласно фильтрам, которые я приводил выше. Это позволит узнать, какой тип страниц зафильтрован. Я находил интересные факты. Например, то, что под фильтр попадали «тяжелые» страницы, с большим количеством контента, уникального, между прочим. И видел много страниц, на которых контента было на несколько тысяч символов, и все равно такие страницы попадали под фильтр. Причина? Просто на этих страницах было чересчур много рекламы. А на некоторых сайтах наоборот, трафик из гугла подрос. И на них тоже была реклама, но ее было значительно меньше. Разумеется, это не полный список всех действий для выявления/защиты от Google Panda. На некоторых сайтах, которые попали под Google Panda, поснимали абсолютно всю рекламу. Правда, пока сильных изменений замечено не было. Прошло еще слишком мало времени, чтобы делать какие-то выводы

Давным давно, в далёкой-далёкой галактике, поисковая система Google создала алгоритм, который получил название Panda. Разработали этот алгоритм всего два человека, это Амит Сингал вместе Мэтт Катс. Этот алгоритм отличается от своих собратьев тем, что, прежде всего он рассчитан на человеческий фактор. А также алгоритм учитывает и другие факторы при ранжировании сайта.

В этом материала мы постарались собрать всё, что может касаться алгоритма Google Panda, как его определить и как под него не попасть, чтобы с успехом продвигать сайт .

Что учитывает алгоритм Google Panda

Уникален ли контент на сайте

Алгоритм Панда, прежде всего, обращает внимание, не встречается ли на других сайтах такой же контент. Более того, он ищет не только похожие тексты на сайтах или страницах также учитываются и фрагменты текстов. Другими словами, уникальность текста определяется с помощью процентного соотношения. Допустим, если статья была скопирована полностью, значит, уникальность равна нулю. Если же скопирована часть текста, то уникальность может быть 80%, например.

Алгоритм рассчитывает уникальность как самого сайта, так и отдельной страницы, в том числе и относительно других страниц сайта. Вдобавок к этому алгоритм панда имеет на вооружении такой инструмент, как шаблонность. Другими словами, он может определить похожие страницы на разных сайтах, даже если они продвигаются с помощью различных ключевых слов.

Более того, этот алгоритм обращает внимание и на рекламу . Если на сайте, который оказывает юридические услуги, размещена реклама конкурентов, то это алгоритм фиксирует и учитывает при ранжировании сайта.

Задача поисковых систем давать пользователю ответ на его вопрос. Задача алгоритма Панда немножко спустить на землю, владельцев сайтов, цель которых только заработок. В общем, цель этого алгоритм до ужаса проста. В поисковой выдаче должны быть только уникальные, актуальные и полезные сайты. Вот пример, как создавать хороший образовательный контент .

Количество и качество ссылок (ссылочный профиль)

Алгоритм также учитывает ссылки. Причём он учитывает все ссылки, и входящие и исходящие. Требование всего одно, и тот и другой сайт должен быть одной тематики. Конечно же, алгоритм отслеживает количество входящих и исходящих ссылок, но это не самый важный фактор при ранжировании сайта. Первое, что его интересует, это человеческий фактор. Другими словами, он внимательно смотрит за пользователем на сайте. Что он делает, сколько времени проводит, читает ли он материал, заполняет ли формы и так далее. Конечно, разработчики проделали огромную работу, по созданию и обкатке этого алгоритма. По сути, этот алгоритм потребовал шлифовки и других алгоритмов, чтобы поисковая система могла выдавать только качественные сайты.

При введении этого алгоритма при ранжировании сайта, попасть в ТОП поисковой выдачи могут только реально полезные и качественные сайты. Именно этот алгоритм, и сделал поисковую систему Google мощным поисковым инструментом. Это подтверждается тем, что аудитория Гугл растёт в геометрической прогрессии. Более того, бюджет компании так же растёт как на дрожжах. Ведь обмануть пользователя ещё можно, используя так называемые чёрные методы продвижения. Различные фишки и агрессивную рекламу. А вот инвестора обмануть нельзя, и он прекрасно знает и осознаёт, что Гугл – дело прибыльное.

Конечно, такой рост компании это заслуга не только одного алгоритма. А теперь вернёмся к теме статьи.

Поведенческие факторы

В этот показатель входит целый ряд критериев, такие как:

  • показатель отказов;
  • сколько времени проводит человек на сайте за одну сессию;
  • сколько страниц он посетил за один визит;
  • возвращается ли он на сайт и как часто;
  • сколько показывается сайт в выдаче, и сколько переходят по ссылке (CTR).

Все это алгоритм отслеживает, причём он делает это для каждого пользователя. То есть он следит за каждым посетителем и внимательно смотрит, что он делает, переходит ли по ссылкам, заполняет ли формы, прокручивает страницу вниз или нет и так далее. Таким образом, алгоритм определяет, отвечает ли на запросы пользователь сайт или отдельная страница и находит ли пользователь ответ на запрос введённый в поисковую строку.

Как понять, что сайт попал под фильтр Panda и что делать?

  1. Резкое падение трафика. Если Вы обнаружили, что количество переходов из Google резко снизилось, то одной из возможных причин, может являться Panda и технические проблемы сайта, которые не были выявлены:
    — медленный ответ сервера;
    — недоступность страниц и прочие.
    Чтобы проверить это внимательно проанализируйте данный Google Analytics и Search Console .
  2. Аккуратнее с ссылками. Хоть ссылки для Google остаются ключевым факторам ранжирования, не стоит слишком заострять внимание на них, потому что поисковик давно научился отличать естественные ссылки от закупленных, а так же выявлять неествественный прирост ссылочной массы.
  3. Плохие тексты. Тексты написанные не человеческим языком, с множеством орфографических ошибок, короткие, не уникальные и размещённые в виде газетной полосы — убьют любой сайт, так как служат сигналом для Панды понизить сайт в выдаче.
    Что делать? Пишите качественный, уникальный контент, который полезен для пользователей, тщательно его проверяйте и редактируйте.
  4. Нет видео и фото. Если Вы не разбавляйте содержание статей и страниц сайта, картинками, инфографикой и видео, то глазу читателя просто не за что зацепиться и если это плохо для пользователя, значит это не нравится Панде.
    Добавляйте больше оптимизированных фото и видео, заполняя атрибуты alt и title .
  5. Мало внутренних ссылок. Зайдя на сайт, пользователь должен легко и не принуждёно перемещаться по нему, при этом попадая именно на те страницы, которые он ожидал увидеть. И здесь очень важно сделать грамотную внутреннюю перелинковку, которая позволит переходить на такие страницы. Так же отличным решением будет разместить виджеты с последними записями в блоге, самыми популярными статьями и наиболее интересными разделами.

И помните: «Лучше не злите Панду!».