Самые страшные ошибки в SEO
2014-12-10 Продвижение RastaMan 1 747 0
Некоторые ниже перечисленные ошибки являются очень грубыми и могут вызывать санкции со стороны поисковых систем, другие же - помягче, но тоже не дающие выйти сайту в топ по нужным запросам. В любом случае каждая из перечисленных ошибок может привести к снижению трафика в разы. Поэтому очень внимательно изучите эту статью и бойтесь как огня допустить эти ошибки.
1. Переспам. Это, пожалуй, самая грубая из всех ошибок поисковой оптимизации сайта. Некоторые оптимизаторы стараются перенасытить страницы продвигаемыми ключами. Они добавляют их по несколько раз в метатеги, заголовки, а в тексте ключ может встречаться у них десятки раз во всех склонениях, часто полужирным шрифтом или с подчеркиванием. Ну и в завершение они добавляют на страницу множество внутренних ссылок, угадайте каких, - с вхождением продвигаемого ключа. В итоге, страница больше похожа на созданную для поисковых систем, чем для человека.
Что об этом думает Яндекс? Читаем в блоге Яндекса:
Поисковые системы очень жестко карают сайт за переспам потерей позиций и выпадением страниц из индекса.
Прочитайте пример переспамленного текста с блога Яндекса:
Случаев фильтрации сайтов за переспам немало. Вот один из недавних примеров с форума searchengines
Опытные товарищи тут же разобрались, что дело в жестком переспаме текстов продвигаемыми ключами Например, фраза «солнцезащитные очки» встречалась в коде одной страницы 181 раз! Поэтому оптимизируйте-оптимизируйте, но не переоптимизируйте. Нескольких повторов продвигаемой фразы в тексте страницы вполне достаточно. Главное, чтобы текст написанный Вами был для людей, а не для поисковиков.
2. Слабая оптимизация страницы. Противоположная ошибка хоть и не приводит к санкциям, но делает невозможным выход сайта в топ по конкурентным ключам. довольно часто, продвигая страницу, оптимизаторы не добавляют ключи в метатеги, заголовки, а иногда точных вхождений нет даже в тексте страницы. И как мы с вами уже увидели на примере конкретных кейсов, одна лишь внутренняя оптимизация страниц может увеличить трафик сайта в разы.
3. Слишком много продвигаемых ключей на страницах. Чтобы сэкономить свои силы и время, некоторые оптимизаторы продвигают главную страницу сразу по всем конкурентным фразам. Примерно так же дело обстоит и с внутренними страницами: вместо того чтобы подготовить для каждого ключа или группы из нескольких ключей отдельную оптимизированную страницу, они создают 2-З страницы, которые продвигаются по нескольким десяткам ключевых фраз.
В результате заточить страницу под конкретные ключи не получается, что ослабляет позиции сайта. Более того, посадочные страницы слабо отвечают на вопрос пользователя, пришедшего с поисковой системы, так как они содержат слишком много разной информации. Опять же мешает отсутствие заточки под конкретные ключи. Поэтому посетители приходят на страницу, закрывают ее и ухудшают этим поведенческие факторы, что еще ниже опускает сайт в выдаче.
Правильным выходом было бы создание специальных разделов и страниц, которые четко и точно заточены под один или несколько смежных ключей и дают исчерпывающий ответ на вопрос пользователя.
4. Ошибки структуры сайта (дубли, мусорные страницы и т.д.). Поисковые системы настолько не любят дубли страниц, точные или частичные, что зачастую из-за них снижают позиции сайта в поиске. Дубли обычно плодят СМЅ сайтов при неправильной настройке: Joomla, Wordpress и многие другие. Главная страница сайта может быть приемлема по адресу site.ru, а также site.ru/index.html или же site.ru/default.html. Для читателей это одинаковые страницы, а для поисковиков дубли. Их нужно найти и настроить сайт таким образом, чтобы полностью исключить дубли.
Искать можно через поисковую систему. Для этого ставим галочку поиска по сайту и вставляем в качестве поискового запроса фрагмент текста со страницы в кавычках (кавычки помогают найти точное соответствие). Проверив ряд страниц таким образом, можно понять, создает ли СМЅ их дубли или нет. дубли будут видны сразу, когда по уникальному запросу будет отображаться сразу несколько результатов с вашего сайта. Если дубли есть, нужно обратиться к программисту для настройки СМЅ таким образом, чтобы она не плодила копии страниц.
Мусорные страницы - это страницы, которые возникли по технической ошибке, например пустые страницы или страницы с технической информацией, которые не должны отображаться пользователям. От таких страниц нужно избавляться. Чтобы выявить их, можно добавить сайт в Яндекс.Вебмастер и изучить раздел проиндексированных страниц. Из бесплатных инструментов, не требующих регистрации, рекомендую Линкпад. Там при проверке сайта в разделе «Страницы в индексе» можно увидеть основные страницы и их размер.
Признаком мусорной страницы является ее малый размер. Особенно обратите внимание на страницы размером менее З кб, именно они могут быть пустыми или ошибочно созданными. Найдя лишь несколько подобных страниц, остается показать их программисту с тем, чтобы он устранил причины их появления.
Отсутствие страницы с ошибкой 404 - некоторые сайты вместо того, чтобы выдать в ответ на запрос несуществующей страницы 404-ую ошибку, возвращают ответ 200 ОК и отображают какое-то содержимое или совершают 302-ой редирект. Это неправильно, так как заставляет поисковые системы считать, что страница существует. Даже из-за такой мелочи ранжирование сайта может ухудшаться.
Поэтому проверьте ответ сайта на запрос к странице, которой точно нет на сервере. Рекомендую использовать для этого сервис Bertal. Если в ответ на запрос несущесгвующей страницы на вашем сайте типа site.ru/test404.html, а также несуществующего домена типа test.site.ru сервер не вернет 404-ую ошибку, необходимо обращаться к программисту для устранения проблемы.
Большое количество сквозных динамических блоков на странице - это болезнь интернет-магазинов, когда на странице отображается чуть-чуть текста, касающегося данного товара или товарной категории, и множество информации в динамических блоках: похожие и рекомендуемые товары, последние отзывы и прочее... Иногда содержимого динамических блоков в разы больше, чем основного контента страницы. Продвижение таких страниц - это проблема, потому что происходит растворение основного контента неосновным.
Плюс к этому, динамические блоки на разных страницах могут выдавать примерно одинаковое содержание, а это уже дублирование контента, которое приводит к снижению позиций таких страниц.
Если эти блоки формируются на лету при помощи аякса, то есть сначала страница загружается, а потом скрипты подтягивают содержимое блоков, то проблем нет. В этом случае эти блоки вообще не будут проиндексированы.
Но если содержимое блоков есть в HTML-коде, то они будут проиндексированы, а следовательно, нужно работать с ними так, чтобы не создавались дубли контента и не размывалось основное содержимое страниц.
5. Формирование основного контента на лету при помощи javascript и ajax. Эта ошибка, как правило, встречается на самописных сайтах. Ее суть в том, что основной контент формируется после открытия страницы пользователем.
Чем это плохо? Поисковые системы, как правило, не запускают скрипты на сайте. Они видят страницу без тех текстов, которые подгружаются скриптами. И хотя представители Гугла заявляют, что научились хорошо работать с ява-скриптом, опыт показывает, что пока это не соответствует действительности. Если основное содержимое подтягивается скриптами, то поисковики будут видеть страницу без основного содержимого. Тогда ни о каком продвижении страницы не может идти и речи. Необходимо, чтобы весь основной контент загружался сразу, а не при помощи скриптов.
6. Исходящие ссылки на плохие сайты - в Советах вебмастеру от Яндекса сказано, что поисковик старается не индексировать или не ранжировать высоко «немодерируемые форумы, различные доски объявлений, содержащие огромное обилие ссылочного спама». Такие сайты действительно очень быстро вылетают из индекса из-за спам-ссылок.
В группе риска блоги или другие сайты, где посетители или сам владелец сайта размещает ссылки на плохие сайты ни в коем случае нельзя ставить ссылки на дорвеи (автомотически сгенерированные страницы и сайты, созданные только для сбора поискового трафика и для редиректа его на какие-то другие площадки), фишинговые сайты (сайты, созданные для воровства персональных данных). Нужно избегать ссылок на порносайты, а также любые другие сайты, которые кажутся вам сомнительными.
Если любой пользователь может добавить на сайт ссылку, то позаботьтесь о том, чтобы все ссылки шли с
атрибутом rel=nofollow, например <a href="site.ru" rel="nofollow">Хороший сайт</a>. Этот атрибут запрещает
поисковой системе посещать ссылку. Попросту говоря, она не учитывается поисковиками, хотя у
оптимизаторов на этот счет есть обоснованные сомнения. В любом случае ответственность за такую ссылку при
помощи rel=nofollow вы с сайта снимаете.
В частности, Гугл рекомендует использовать этот атрибут для ссылок в ненадежном (пользовательском) контенте:
Итак, не ссылайтесь на плохие сайты либо используйте атрибут rel=nofollow, когда нет возможности проверять саиты.
7. Агрессивная реклама - кто бы мог подумать, что за рекламу на сайте могут быть какие-то санкции! И, тем не менее, это реальность. Яндекс, описывая сайты, которые подлежат исключению или понижению в поиске, в своих рекомендациях упоминает «сайты, основным предназначением которых является агрессивная демонстрация рекламных материалов (в том числе popup, popunder, clickunder)». Аналогичного подхода придерживается и Гугл, поэтому рекомендую не использовать рекламу, которая вызывает открытие каких-то дополнительных окон.
Кроме того лучше забыть о показе на своем сайте шокирующей рекламы и рекламы для взрослых, если конечно вам дорог ваш сайт. Прочитайте об этои в блоге Яндекс.
Хотите узнать еще один простой способ ухудшить ранжирование сайта? Для этого нужно уставить на нем слишком много рекламы. К примеру, Гугл борется с этим с помощью своего алгоритма Page Layout, накладывая так называемый фильтр Top heavy на сайты, верхняя часть которых переполнена рекламой.
Поэтому нужно относиться к рекламе на своем сайте очень осторожно, избегая назойливой, надоедливой, шокирующей рекламы, а также не допуская избытка даже допустимой рекламы на страницах.
Избегая перечисленных выше ошибок и выполняя все рекомендации статьи по поисковой оптимизации, можно добиться потрясающих результатов в продвижении любого сайта.
-
Как определить сложность продвижения по запросу?..04-фев, 2016, 18:49
-
SEO-анализ конкурентов сайта — 5 шагов до ТОПа..08-янв, 2016, 11:17
-
Сохранение позиций сайта при остановки..01-окт, 2015, 18:25
-
Что такое заспамленность, и как проверить..07-мар, 2015, 12:02
-
Как поднять молодому сайту ТИЦ?..06-дек, 2014, 21:34