Алгоритмы Google: Панда, Пингвин и Колибри – убийцы авторитетов
2016-04-23 Безопасность Mr.Edyan 3Многие СЕО-оптимизаторы давно уже знают о таких алгоритмах Google, как Панда, Пингвин и Колибри. Кто-то и сам пострадал от них, кому-то удалось успешно избежать их действия.
Но большинство новичков, которые стремятся раскрутить свои сайты в поисковых системах, совершенно неправильно понимают, на что конкретно направлены удары этих алгоритмов.
Есть немалая часть вебмастеров, которые вообще не учитывают их при создании сайтов. А вместе с тем, хотя разрушительное действие Панды, Пингвина и Колибри косит каждый день множество сайтов, обойти их не так уж и трудно, если правильно во всем разобраться и правильно всё сделать.
Вообще-то принципы, по которым эти алгоритмы действуют, не такие уж и новые, просто появление их позволило значительно упорядочить борьбу Гугла с не качественными (на его взгляд) сайтами, и проводить очистку выдачи более результативно.
Итак, приступим к рассмотрению.
Поисковый алгоритм Google - Панда
Самый первый из этой троицы (2011 г.), и самый, на взгляд новичков, страшный. В принципе, поисковый алгоритм Панда страшный не для самих новичков, а для их небрежного отношения к создаваемым сайтам.
Конечно, каждый вебмастер – полный хозяин своего веб-сайта, как он хочет, так его и создаёт, и тут ему никакой Гугл не указ. Однако не следует забывать, что и Гугл – полный хозяин своей выдачи, и какие сайты хочет – те в свою выдачу и пускает, а какие не хочет – не пускает. Для этого используются поисковые алгоритмы Google.
Панда явилась самым первым инструментом протеста поисковых систем против ошибок и небрежностей не только новичков, но и против разгильдяйского отношения к поисковым системам (и к своим собственным проектам в том числе) со стороны всяких «авторитетов». Дело в том, что очень многие крупные сайты, в основном коммерческие – магазины, сервисы, справочники и им подобные - допускают создание страниц с похожим контентом.
В основном это описание товаров или услуг, сходных по основным параметрам, но различающихся только некоторыми мелкими деталями, например:
- размером;
- цветом;
- ценой и т. п.
Основной контент, таким образом, на таких страницах одинаковый, часто схожесть достигает 90 и больше процентов. Со временем на сайте накапливается очень большое количество страниц-клонов. Конечно, посетителям это никак не мешает, но выдача поисковых систем буквально засоряется однотипными веб-документами.
До того, как был введен алгоритм Панда, Гугл просто «склеивал» такие дубли, то есть в выдачу пускал только одну из них, а остальную помещал в категорию «дополнительные результаты». Но, как говорится, всё хорошо до поры до времени и появились новые поисковые алгоритмы google. И наступил момент, когда даже «дополнительные результаты» не могли улучшить картину.
Алгоритм Панда направлен на поиск и выявление таких веб-страниц, определение допустимого их количества и принятие мер к проектам, на которых количество таких страниц слишком чрезмерно.
Как только алгоритм Панда начал действовать в полную силу, очень многие авторитетные сайты послетали со своих «вкусных» позиций в топах выдачи, и, соответственно, очень сильно «просели» по трафику.
Конечно, владельцы этих веб-сайтов, разобравшись в причинах такой катастрофы (изучив новые алгоритмы Google), постарались как можно быстрее исправить положение, но назад на «хлебные места» вернулись далеко не все. Их места заняли более удачливые конкуренты, которые вовремя среагировали на поисковые алгоритмы google, или вообще не нарушали новоявленных правил изначально.
Алгоритм Google: Пингвин
Следующий алгоритм – Пингвин (2012 г.) – нацелен совершенно на другие сферы, и не касается сайтов непосредственно, а бьёт их только косвенно – по ссылочной массе. Многие вебмастера и даже достаточно опытные СЕО-оптимизаторы до недавнего времени очень небрежно относились к ссылкам, которые они приобретали на свои сайты с чужих веб-ресурсов. И когда было объявлено, что новый алгоритм (Пингвин) будет разбираться со ссылочным ранжированием, основная масса владельцев «авторитетных» сайтов практически не придала этому значения.
Конечно, и задолго до появления Пингвина было известно, что поисковые системы очень негативно относятся к покупным ссылкам, и всячески ведут борьбу с нарушителями. Наиболее здравомыслящие вебмастера не связывались со ссылочными биржами, и приобретали ссылки, так сказать, в частном порядке, полагая, что раз их невозможно связать с биржами, то и не последует никакого наказания.
Однако они не учли того, что многие сайты-доноры сами являлись покупателями ссылок, и большая часть их «засыпалась», когда Пингвин начал активно действовать. Естественно, все ссылки, ведущие с этих сайтов, исчезли, и «третьи» сайты попросту лишились значительной части своей ссылочной массы.
Кто-то из не разобравшихся в ситуации владельцев посчитал это как наказание за несуществующие прегрешения. Однако в итоге оказалось, что никаким наказанием тут и не пахнет. Наказанными были те сайты, причастность к закупке ссылок которых удалось доказать. А те сайты, которые, в свою очередь, были связаны с ними ссылками, просто «оказались не в том месте и не в то время».
Таким образом мы видим, что алгоритм Колибри «накрыл» огромный сегмент выдачи Гугла, связанный с закупкой ссылок. А потому он оказался гораздо эффективнее «точечных» ударов – теперь практически все сайты интернета, которые свой трафик (и доходы вместе с ним) получают из выдачи Гугла, то есть зависят от этой поисковой системы, будут внимательно следить за своей ссылочной массой и стараться избегать получения ссылок с сайтов, насчет которых имеется хотя бы малкйшее подозрение, что они свои ссылки, в свою очередь покупают на биржах.
Кто-то, конечно, проклинает Гугл, обвиняя его в нечестной игре, но не следует забывать о том, что, во-первых, Гугл никогда не играет нечестно – этого ему не позволяют ни американская мораль, ни американские законы, а во-вторых, ничего более эффективного в борьбе против эпидемии покупных ссылок пока еще никто не изобрел.
Алгоритм Гугл: Колибри
Третий алгоритм, который очень сильно ударил по множеству сайтов – это Колибри, появившийся в 2013-м году. Против чего же направлен этот алгоритм? А направлен он, в самую первую очередь, против дорвеев и сайтов, которые используют при продвижении своих страниц так называемый ключевой спам.
Очень многие пользователи Гугла при поиске нужной информации вводят в строку поиска «упрощенные», или «неправильные» запросы, например, «трусы купить где», «отдых таиланд» или «ресторан новосибирск», а кто-то вообще допускает в запросах множество ошибок.
Конечно, Гугл «подгоняет» к таким запросам наиболее релевантные им страницы сайтов, на которых, естественно, запросы в таком «неправильном» виде не встречаются, но зато логически отвечают им более полно.
Вроде бы что тут такого? Но дело в том, что все запросы, вводимые в строку поиска, Гугл сохраняет в своей базе, а этой базой постоянно пользуются дорвейщики и производители «клоачных» сайтов. Как правило, с помощью автоматизированных средств они «затачивают» страницы своих «произведений» под такие «неправильные» запросы, и тем самым сразу же выдают себя с потрохами.
Кто-то даже упускает из виду, что Гугл обращает внимание даже на то, с какой буквы начинаются имена собственные или географические названия – с большой или с маленькой. Ну, если кто-то пишет текст и пару раз неправильно напишет имя или название, то это не страшно. Но если название городов или имена людей на всем сайте – с маленькой буквы, то это уже сигнал не совсем (или совсем не) качественного сайта.
Итог анализа алгоритмов Google
Итак, мы рассмотрели три самых главных алгоритма Гугла, которые сообща охватывают очень важные сферы создания и продвижения веб-ресурсов. Все они стоят на страже дела улучшения качества веб-контента. Конечно, есть множество умельцев, которые очень успешно обходят все эти алгоритмы и продолжают наполнять выдачу Гугла некачественными сайтами, но это уже не тот объём, который был до появления Панды, Пингвина и Колибри.
Можно ожидать, что эти алгоритмы со временем будут усовершенствоваться, будут появляться более мощные их модификации. Потому лучше всего сразу нацелиться на честную работу и не допускать досадных оплошностей, которые в итоге могут существенно навредить вашему веб-детищу, с помощью которого вы собрались покорять топы выдачи Гугла!
-
Программы восстановления данных после удаления..10-дек, 2015, 22:05
-
Способы, проверка сайта на алгоритм «Минусинск»..09-июн, 2015, 08:32
-
Защита и проверка сайта на вирусы (Manul)..25-апр, 2015, 10:25
-
Может ли вирус на сайте повлиять на его..25-фев, 2015, 12:43
-
Вывод сайта из под АГС Яндекса..25-ноя, 2014, 20:30