Услуги
Контакты
+38 (068) 477-477-0
seo@proposition.digital
Днепр
ул. Княгини Ольги 22, оф. 724
ул. Княгини Ольги 22, оф. 724
Понедельник – Пятница:
с 9.00 до 18.00
с 9.00 до 18.00
Иногда, при SEO-продвижении бывает падение позиций сайта и проседание трафика, а то и полное исчезновение из поиска. В таком случае очень вероятно, что сайт попал под санкции и необходимо проверить это.
Санкции (фильтры) поисковых систем - это меры, принятые по отношению к недобросовестным сайтам, в результате чего сайт получает снижение ранжирования или исключение участия в поисковой выдаче. Фильтры являются частью поискового алгоритма.
Выделяют бан и пессимизацию сайтов.
Под “недобросовестными”
Бан сайта в поиске - это полное исключение сайта из поисковой выдачи.
Пессимизация сайта в поиске - это снижение позиций сайтов в поисковой выдаче.
В данной статье мы рассмотрим фильтры поисковой системы Google - ручные и автоматические.Также рассмотрим причины попадания под санкции и что делать, если сайт попал под фильтр.
Ручные санкции Google - накладываются модераторами в ручном режиме при поступлении сигналов от алгоритмов или жалоб от пользователей.
Ручные санкции можно отследить в панели Search Console в разделе “Меры, принятые вручную”:
Автоматические санкции - не отображаются в Search Console и являются следствием поисковых алгоритмов.
На сегодняшний день многие фильтры (обновления) Google являются частью общего поискового алгоритма и в 2020 году их стало не так просто определить, признаки стали более размытыми.
Если сайт попал под автоматический фильтр, никакого оповещения не будет. Заподозрить фильтр можно по снижению позиций или выпадению из выдачи вовсе.
Ниже рассмотрим историю и признаки наиболее знаковых апдейтов (фильтров) Google.
Для начала, поговорим о новинках.
Обновление фактора ранжирования Page Experience анонсировано на 2021 год. О новом обновлении Google сообщил 28 мая 2020 года.
Его суть - анализ удобства сайта после начала загрузки. Речь идет не совсем о скорости загрузки, а о том “как” сайт загружается, насколько он отзывчив и как быстро пользователи могут начать взаимодействовать с сайтом.
Суть обновления в том, что в общий фактор теперь добавлены три метрики - Core Web Vitals.
Данные метрики существовали давно (за исключением CLS - это относительно новая метрика), но теперь Google будет более тщательно за ними следить и учитывать в ранжировании.
Core Web Vitals - это набор реальных, ориентированных на пользователя показателей, которые количественно определяют ключевые аспекты взаимодействия с пользователем. Они измеряют такие параметры удобства использования в Интернете, как время загрузки, интерактивность и стабильность содержимого при его загрузке (например, чтобы пользователь случайно не нажал кнопку, когда она перемещается под его пальцем).
Итак, эти метрики включают:
Отлично, если скорость отрисовки до 2,5 секунд.
Оптимальный уровень скорости отрисовки - от 2,5 до 4 секунд.
Медленнее 4 секунд - это плохо и будет учитываться поисковиком не в вашу пользу.
Отлично, если этот промежуток длится до 0,1 секунды.
Оптимально - от 0,1 до 0,3 секунды.
Медленнее, чем 0,3 секунды - плохо.
“Чтобы помочь, мы обновили популярные инструменты разработчика, такие как Lighthouse и PageSpeed Insights, чтобы отображать информацию и рекомендации Core Web Vitals, а в Google Search Console есть специальный отчет, который помогает владельцам сайтов быстро определять возможности для улучшения.”
Увидеть в панели Google Search Console предупреждения по данным метрикам можно в разделе “Основные интренет-показатели: https://search.google.com/search-console/core-web-vitals
Google пока не наказывает за несоответствие данным метрикам, но выводит предупреждения в консоли и предоставляет возможность вебмастерам до 2021 года подтянуть эти показатели.
24 апреля 2012 года был запущен апдейт “Пингвин”, целью которого была борьба с нечестным ссылочным продвижением.
Это могли быть - нерелевантные ссылки, переспам в анкорном тексте, откровенный спам и явно неестественные ссылки.
В 2016 году алгоритм обновили и с тех пор он стал частью ранжирования. С этого года “Пингвин” не наказывает за спамные ссылки, а просто обесценивает их.
Алгоритм действует на уровне страницы, а не сайта в целом. Поэтому, при наличии спамных ссылок, потерять позиции может только конкретная страница.
Представители Google рекомендуют использовать инструмент Disavow для восстановления после “Пингвина”. Мы же рекомендуем использовать инструмент постоянно для “профилактики”, так как ссылки на сайт могут появляться и без нашего участия.
От данного алгоритма могут исходить как автоматические санкции, так и ручные.
Если сайт получит санкции в ручном режиме, это отобразится в Google Search Console в виде сообщения, что сайт заподозрен в применении искусственных входящих ссылок. Далее будет падение позиций в поиске.
Основные причина попадания под ручной фильтр “Пингвин” - переспам в анкорах ссылок: коммерческие запросы и другие ключи.
Чтобы не попасть под фильтр “Пингвина” нужно соблюдать соотношение в типах ссылок:
В идеале - смотреть и на показатель “Траст” - должен быть не ниже 20-30.
Оценка качества сайта и его релевантности - основная задача “Панды”.
Алгоритм “Панда” появился в 2011 году. Тогда SEO-специалисты обратили внимание, что многие сайты начали терять позиции и выпадать из поиска. Было замечено, что у таких сайтов были малоинформативные и скучные тексты - “простыни”. Часто в текстах был перебор с количеством ключевых слов, выделенных жирным шрифтом.
В 2016 году фильтр “Панда” стал сигналом ранжирования и вошел в общий алгоритм, как и “Пингвин”.
“Панда” распознает сигналы отдельных страниц сайта и распространяет их на весь сайт, в отличие от “Пингвина”, который наказывает только отдельные страницы. Если проблем на сайте много - может выпасть весь сайт. Но если основная часть страниц хорошего качества, то сайт просядет по части запросам.
Основные причины попадания под “Панду” - спам (нерелевантность), переоптимизация ключами, неуникальный контент.
Также “Панда” обращает внимание на поведенческие факторы, как критерий оценки контента: время проведенное на сайте и глубина просмотра.
Если сайт попал под фильтр, проанализируйте вышеперечисленные пункты. В первую очередь - удалите/перепишите неуникальный контент, уберите переспам запросов в текстах и проверьте другие факторы.
После проделанных работ - отправьте сайт на повторное сканирование. Если причина будет устранена, после очередного “апдейта” Google сайт восстановится. В среднем, апдейты происходят раз в месяц. Ожидать восстановления можно от одного до нескольких месяцев.
Если спустя время ситуация не улучшится - обратитесь с письмом в техническую поддержку Google с описанием всех ваших действий и попросите модераторов проверить сайт.
Этот фактор ранжирования появился в 2013 году. Он отвечает за релевантность сайта, его цель - дать пользователям максимально нужную информацию.
“Колибри” не является фильтром, так как не наказывает, но поднимает выше в позициях более подходящие сайты.
В его алгоритмах заложен узконаправленный анализ ключевых слов, работа с низкочастотными запросами и синонимами - он тонко ощущает потребность пользователя.
Например, “Колибри” понимает запрос “хочу обед в 12 часов”, связывает его с запросом “доставка еды” и выдает релевантные сайты.
Sandbox (Песочница) - это скорее “мифологический” фильтр, т.к. по официальной позиции Google - такого фильтра не существует.
Этот миф появился в 2004 году. Суть в том, что молодые сайты не сразу попадают в ТОП, им нужно какое-то время “пересидеть в песочнице”.
Причина этого, скорее всего, в том, что молодой сайт ещё недостаточно авторитетен и ему нужно время для раскрутки.
Однако, многие оптимизаторы - приверженцы “фильтра Песочницы”, обращают внимание, что часто молодой сайт не выходит сразу в ТОП и оценивают выход из Песочницы в течение одного года.
Они рекомендуют раскручивать сайт: создавать полезный контент, наращивать качественную ссылочную массу и улучшать поведенческие факторы.
В любом случае - эти действия необходимы для всех сайтов, независимо от причины - для выхода из-под фильтра или для развития.
Данный фильтр DMCA “Пират” может быть применен к сайтам, на которые поступали многочисленные жалобы по поводу нарушения авторских прав - например, дублирования контента. В таком случае Google может полностью исключить сайт из поиска.
DMCA - закон об авторском праве в цифровую эпоху (законодательство США).
DMCA-жалобу могут подать в Google пользователи, столкнувшиеся с плагиатом их авторского контента (текста, изображения, видео и др.) и размещенного в сервисах Google либо на других сайтах.
Если контент размещен на другом сайте, то по ссылке пользователи могут подать жалобу.
В результате, Google исключит из поиска страницу сайта, на которой размещен контент.
Но если таких жалоб будет много от разных пользователей - возможно применение фильтра на сайт целиком.
Google Maccabees (или в простонародье - “Фред”) - появился в конце 2017 года.
Его цель, как и многих других фильтров - предоставление релевантного контента.
Сейчас Фред не является фильтром, а входит в часть общего алгоритма.
Фред ранжирует сайты с упором на следующие факторы:
Узнать, что вы попали под фильтр можно по ощутимому падению позиций.
Чтобы не попасть под санкции нужно готовить контент для людей, а не для роботов, не увлекаться рекламой и копированием чужого контента.
“Социтирование” - это санкции, которые применяются если у сайта плохие ссылочные связи - причем как в одну, так и в другую сторону.
Имеется в виду:
Чтобы не попасть под санкции:
Google Speed Update - это обновление алгоритма от 2018 года. Это не фильтр, а фактор ранжирования, от которого могут пострадать мобильные версии сайтов в мобильном поиске (до этого момента скорость влияла только на десктопную выдачу).
Никакого оповещения о санкциях нет, а действия данного апдейта сугубо алгоритмические. Он оценивает скорость каждой страницы, а не сайта в целом. Если конкретная страница очень медленно загружается, то высока вероятность снижения ее рейтинга в поиске.
Чтобы этого не произошло, рекомендуется периодически проверять скорость и подтягивать проблемные показатели, например с помощью инструмента PageSpeed Insights.
Этот фактор ранжирования появился с 1 июля 2019 г. и его суть - это приоритет мобильного контента при индексировании. Если сайт не адаптирован под мобильные устройства, то он теперь снижается в рейтинге поисковой выдачи.
Требования для сайтов:
Если у сайта относительно немного битых ссылок, ничего страшного (главное, чтобы они отдавали код ответа 404). Такие страницы просто будут недоступны в индексе.
Но если сайт имеет большое количество битых ссылок - это уже сигнал для применения фильтра и сайт упадет в позициях выдачи. Чтобы этого не случилось, нужно:
Это устаревший фильтр, роль которого теперь выполняет “Пингвин”. Его суть была в следующем: если у сайта появилось слишком много входящих ссылок за короткий промежуток времени, то к нему применялись санкции:
Чтобы не получить наказание необходимо получать новые ссылки равномерно по времени, плавно наращивая ссылочную массу.
В зоне риска сайты, которые продают исходящие ссылки, особенно, если у них более пяти нетематических ссылок с одной страницы.
Google наказывает такие сайты потерей позиций, выпадением страниц из индекса.
Чтобы не попасть в зону риска нужно:
Санкции за нарушение правил микроразметки могут поступать вручную, либо автоматически.
После наложения фильтра, владельцу сайта приходит сообщение в консоли Search Console о том, что он разместил спамный нерелевантный контент, либо содержимое, нарушающее требования к качеству.
В итоге, у сайта исчезают расширенные результаты поиска на основе структурированных данных.
Во избежание фильтра следует устранить и не допускать ошибок в разметке.
Это не фильтр, а скорее сообщение. Если сайт был взломан, то в Search Console появится уведомление об этом. В результате сайт будет понижен в выдаче.
После работ по восстановлению сайта запросите повторную проверку сайта.
Под санкции попадают сайты у которых присутствует спам в комментариях, созданный пользователями. Спам может быть:
Проверьте сайт на наличие такого контента и, когда устраните проблему - обратитесь в Google с запросом на пересмотр сайта.
Наказание может прийти за искусственные входящие или исходящие ссылки.
Наказываются те сайты, у которых есть скрытый текст или он чрезмерно оптимизирован под поисковые запросы.
Текст должен быть открыт не только для поисковых систем, но и для пользователей.
Применяется данная санкция к изображениям в поиске Google, если они не соответствуют размещенным на сайте. В итоге - изображения исключаются из поиска по картинкам.
Исправьте ошибки и отправьте сайт на повторную проверку в Google.
Наказание применяется, если у вайта страницы из поиска не соответствуют страницам на сайте. Это бывает в случае:
Проверьте и устраните эти факторы, а после - отправьте запрос на проверку сайта.
Под данные санкции подпадают:
Устраните найденные факторы и отправьте запрос на проверку сайта. В случае неустранения - у сайта есть шанс выпасть из поиска частично или полностью.
Если AMP-версия отличается от канонической, то поисковик может выдавать в поиске только каноническую страницу.
Учитывайте эти рекомендации и тогда санкции вам не страшны.
Надеемся, что теперь вы будете начеку и в будущем вам не придется применять меры по выходу из-под фильтров. Но, на случай подозрения о санкциях, вы можете добавить в закладки эту статью, чтобы пройтись ещё раз и устранить негативные факторы.