Штрафные санкции, которые поисковые системы Google и Яндекс могут наложить на сайт, играют очень важную роль в SEO. Всего лишь несколько изменений в поисковом алгоритме по отношению к вашему проекту могут уничтожить любые перспективы для вашего бизнеса в Интернете. И все это совершенно серьезно – многие владельцы сайтов не воспринимают риски на должном уровне, пока не столкнутся с этим на собственном опыте. Но тогда, как показывает практика, бывает уже слишком поздно.
В данной статье мы поговорим преимущественно о Google, так как он лидирует на поисковом рынке Украины. Но практически все рассмотренные моменты будут справедливы и по отношению к продвижению в Яндексе.
Основные виды фильтров
Есть два типа санкций — автоматические и ручные. Наложение санкций в ручном режиме осуществляется людьми – асессорами – которые проверяют поисковую выдачу по различным запросам и самостоятельно просматривают сайты из топа на предмет их качества.
В одних случаях конкретный ресурс могут посчитать «недостойным» топа и передвинуть с 5 на 15 место. Но куда хуже, если асессор поймет и найдет убедительные доказательства того, что сайт использует запрещенные методы продвижения, в целом является некачественным, и примет решение о наложении на него санкций, которые и приведут к глобальному обвалу позиций и потере трафика. Это фактически может уничтожить бизнес.
Автоматическое наложение фильтров происходит в том случае, если алгоритмы Google определили, что сайт нарушает рекомендации по качеству для веб-мастеров. Например, активно покупает низкокачественные платные ссылки с целью заполучить первые места в выдаче.
В первом случае вы получите уведомление в Google Search Console и возможность хоть как-то исправить положение. А вот в случае с автоматическими санкциями просто однажды потеряете весь или большую часть трафика и с трудом достигнутые позиции в выдаче. И повернуть ситуацию вспять будет очень сложно, особенно с учетом того, что фильтр Google Penguin 4.0 (дата выхода — 23. 09. 2016) с недавних пор является составляющей основного алгоритма и работает в постоянном режиме. Теперь сайты не будут понижаться в выдаче за «спамные» ссылки, вместо этого их влияние будет «обесцениваться». А уведомления сайтам, попавшим под санкции, будут рассылаться только в том случае, если меры принятые вручную.
Главное, что мы хотим донести в этой статье, – важно сделать все необходимое, чтобы избежать попадания под санкции и свести такие риски к минимуму в будущем. Восстановление может быть очень сложным и занять много времени.
Как определить, что сайт под фильтром?
В случае с ручными штрафами все довольно просто. После авторизации в Google Search Console в разделе «Поисковый трафик» выберите пункт «Меры, принятые вручную». Если все хорошо, вы увидите следующую картину:
Если же все далеко не хорошо, здесь будет примерно такое:
Причем подобные «письма счастья» могут быть на самые разные темы, например с уведомлением о том, что сайт использует агрессивный спам или на его страницах находятся фрагменты кода, которые могут навредить посетителям, и т. п.
В случае с автоматическими санкциями практически единственным признаком того, что сайт попал под фильтр, будет резкий обвал позиций и ощутимое снижение трафика:
У Google есть два основных алгоритма, отвечающих за наложение санкций, которые работают в автоматическом режиме:
- Penguin, призванный бороться со ссылочным спамом.
- Panda, который наказывает за дублированный контент низкого качества.
Таким образом, у нас есть две основные причины, которые могут создать немало проблем при продвижении сайта. Хотя на самом деле есть и ряд других, которые частично повышают риски. Их тоже важно знать, и об этом мы и поговорим далее.
За что Google может наложить фильтр
Для обычных людей панда – всего лишь милое животное. В мире SEO – это суровый диагноз. И вряд ли кто-нибудь из специалистов по поисковой оптимизации, однажды получив подобный опыт, захотел бы иметь дело с этим “страшным зверем” еще раз.
На блоге мы много писали о том, как развивать сайты, улучшать их, привлекать больше посетителей и стимулировать продажи. Но иногда полезно рассказать и про то, как делать не нужно. Вот вещи, за которые Google может наложить фильтры и которых стоит избегать.
- Низкокачественный контент
Довольно обширное определение, так как понятие качества включает целый ряд моментов. Но практически во всех случаях поисковая система относит к низкокачественным тексты, которые имеют следующие характеристики:
- автогенерация. Актуально в первую очередь для интернет-магазинов, на сайтах которых есть большое количество страниц, и нужно как-то заполнить их контентом. Тогда кому-нибудь может прийти на ум гениальная идея – а давайте просто сгенерируем текст по шаблону, изменив несколько переменных. Скорее всего, Google оценит такие старания по заслугам;
- дубликаты. Сюда относится контент, который дублируется на нескольких страницах одного и того же сайта или попросту взят из других источников без изменения. Практики использования подобных текстов однозначно стоит избегать.
Также стоит избегать использования текстов с множеством ошибок, например документа, переведенного с помощью машинных сервисов типа Google Translate.
- Накрутка поведенческих факторов
Когда-то мы уже писали на блоге о том, что поисковые системы не только научились отслеживать поведение пользователей на страницах сайтов, но и учитывают это в качестве одного из факторов ранжирования в поисковой выдаче. Такие сигналы носят название поведенческих факторов ранжирования.
К основным пользовательским сигналам, качество которых может влиять на сайт, относятся следующие:
- низкий CTR сниппетов в выдаче. Если говорить простыми словами, речь идет о низкой кликабельности ссылок со страницами вашего сайта в поиске. Высокие позиции не гарантируют того, что люди сразу же будут переходить на сайт, так как его описание может быть попросту непривлекательным и неинтересным. Google учитывает такие сигналы, и со временем это может повлиять на ранжирование;
- высокий показатель отказов. Если пользователь перешел на ваш сайт, а затем через несколько секунд закрыл вкладку или, что еще хуже, вновь вернулся к выдаче, это считается отказом. Подробнее о том, как улучшить этот показатель, вы можете прочитать в статье «Показатель отказов (bounce rate), и способы его уменьшить»;
- малое время пребывания на сайте. Если на нем мало полезной информации, а та, что есть, относительно невысокого качества, неудивительно, что люди будут покидать такой сайт. Такова логика поисковых алгоритмов, и с этим нельзя не согласиться;
- низкий показатель возвратов. Не ко всем тематикам и типам сайтов это применимо, однако если контент интересен и публикуется на сайте снова и снова, Google учитывает это.
Из всех перечисленных факторов в первую очередь обратите внимание на страницы с высоким процентом отказов в Google Analytics и подумайте, в чем может быть причина и как улучшить ситуацию. Однозначно не стоит пытаться заниматься их искусственной “накруткой” — есть высокая вероятность попасть под санкции.
- Ссылочный спам
Споры о том, стоит ли покупать ссылки или нет, продолжаются вот уже много лет. Однако, как показывает практика, выводы можно сделать следующие: ссылки — это хорошо, если они действительно качественные, а динамика их прироста выглядит максимально естественно. Именно поэтому стоит избегать и покупки арендных ссылок при продвижении — в таком случае вероятность попасть под санкции становится очень высокой.
Тем же, кто собирается проигнорировать правила Google, нужно быть готовым к тому, что пощады не будет. И не стоит верить «специалистам», которые утверждают, что платные ссылки невозможно отличить от естественных. Если делать все абы как, то очень даже возможно.
Массовая покупка ссылок на площадках низкого качества и с прямыми анкорами типа «купить женские сумки харьков» воспринимается поисковой системой как попытки манипулировать выдачей с соответствующей реакцией со стороны алгоритмов. Поэтому наращивать количество обратных ссылок необходимо постепенно, ориентируясь на тематику и высокое качество сайтов-доноров.
Кроме того, важно отслеживать изменения на продвигаемой странице – если после простановки всего двух-трех обратных ссылок ее видимость стабильно растет, значит, привлечение дополнительных обратных ссылок на нее можно остановить.
- Переоптимизация
Как и недостаточная проработка сайта и его страниц, так и чрезмерная оптимизация могут негативно сказаться на видимости в поиске, трафике и позициях. Обычно речь идет о работах внутреннего характера, в частности перенасыщении текстов ключевыми словами в большом количестве (7-10%), а также большого количества ключевых слов в метатегах Title/Description и заголовках H1.
И дело даже не в восприятии роботом – человеку такой текст тоже просто невозможно читать. Как вам такой пример:
Вам бы понравилось читать подобное? Так что неудивительно, что поисковики наказывают за такие практики. Поэтому не нужно перенасыщать текст ключевыми словами, достаточно упомянуть нужные запросы по одному разу в тексте, заголовках и метаописании. Если же вы хотите научиться писать SEO-тексты правильно, обратите внимание на советы из этой статьи.
Выводы
Процесс восстановления позиций и посещаемости сайта после попадания под фильтры поисковых систем может быть долгим и дорого стоить компании. Потребуется достаточно упорства и терпения, ведь в случае с ручными штрафами нужно будет подавать заявки на пересмотр, и не факт, что вы не получите отказ. Так что всегда лучше избегать санкций, чем потом исправлять последствия.
Как это сделать? Считайте, что эта статья и есть списком рекомендаций по теме. Регулярно проводите аудит своего сайта на предмет технических ошибок, повышайте удобство его использования, грамотно и аккуратно наращивайте обратные ссылки и регулярно публикуйте качественный контент, избегая при этом переоптимизации. И продвижение вашего сайта будет действительно эффективным, с минимальными рисками.
- Автор: Владимир Федоричак